Nun – vielleicht ist die Headline tatsächlich ein wenig dick aufgetragen – Heise.de, das besagte Presseerzeugnis, orchestriert nicht wirklich den Diskurs über eine nationale chinesische Regulierung von AI-Diensten in der deutschen Medienlandschaft. Vielmehr hat sich der Autor des Beitrags „China: LLMs müssen sich outen“ an ein Thema herangewagt, welches (nicht nur) aufgrund der technischen (Un-)Tiefen sowie der politischen Haltung des Autors an die Grenzen der journalistischen Qualitätsstandards stößt.
Worum geht es? Die Cyberspace Administration of China hat am 27.12.2025 den Public Draft for Comments (DfC) zu den „Vorläufigen Maßnahmen für die Verwaltung von humanisierten interaktiven Diensten auf Basis künstlicher Intelligenz” veröffentlicht. China will mit diesem Entwurf erstmals umfassende Regeln speziell für KI-Systeme statuieren, die menschliche Interaktion simulieren. Die Schwerpunkte liegen auf Sicherheitsverantwortung der Anbieter, Inhalts- und Verhaltens-Vorgaben, Nutzersicherheit einschließlich psychologischer Risiken, Datensicherheit und staatlicher Kontrolle. Die Regulierung verbindet Innovationsermöglichung mit strenger Kontrolle, um potenzielle manipulative, abhängigkeitsfördernde und gesellschaftliche Risiken einzudämmen.
Wenn man nun den besagten Heise-Artikel liest, bekommt man zunächst den Eindruck, man sei Zeuge eines weiteren autoritären Kontrollakts aus Peking. Die Wortwahl legt es nahe: China „nimmt LLMs an die Kandare“, zwingt sie zur „Selbstanzeige“ und überwacht sie „heimlich“. Schon nach wenigen Absätzen ist klar, wer hier der Böse ist – und wer implizit auf der richtigen Seite der Geschichte steht. Dass Journalismus auch ohne moralischen Zeigefinger auskommen könnte, scheint in diesem Text keine ernsthafte Option zu sein.
Der Beitrag arbeitet weniger mit Analyse als mit atmosphärischem Framing. Die Regulierung wird nicht nüchtern beschrieben, sondern dramaturgisch inszeniert. Begriffe wie „outen“, „heimlich überwachen“ oder das süffisant gesetzte „natürlich sozialistische Kernwerte“ sind keine neutralen Beschreibungen, sondern semantische Markierungen. Sie signalisieren dem Leser, wie das Gelesene einzuordnen ist: autoritär, ideologisch, latent bedrohlich. Dass ähnliche oder in Teilen sogar strengere Anforderungen in westlichen Jurisdiktionen unter anderen Begriffen längst existieren – etwa im DSA, im AI Act oder im Jugendmedienschutz – bleibt unerwähnt. Kontext stört hier offenbar die Dramaturgie.
Besonders deutlich wird das bei der Darstellung der inhaltlichen Vorgaben für KI-Systeme. Wenn China verlangt, dass KI keine Gewalt, keinen Hass, keine strafbaren Inhalte und keine Desinformation verbreitet, wird dies im Text in eine Reihe mit politischer Indoktrination gestellt. Dass westliche Plattformen unter exakt denselben Prämissen moderieren – nur mit anderen Schlagworten –, bleibt unerwähnt. Der Unterschied liegt weniger in der Sache als in der Semantik: Wo Europa von „Grundrechten“, „Verbraucherschutz“ oder „Risikoabschätzung“ spricht, nennt China es „soziale Stabilität“ und „sozialistische Werte“. Der Artikel tut so, als sei das eine ein qualitativer Bruch – tatsächlich ist es oft nur ein anderer normativer Überbau.
Auch technisch bleibt der Beitrag auffällig oberflächlich. Die Regulierung wird beschrieben, aber nicht eingeordnet. Was es praktisch bedeutet, Trainingsdaten zu kontrollieren, Modelle regelmäßig zu auditieren oder Nutzungsrisiken zu bewerten, wird nicht analysiert. Dass diese Anforderungen in der Realität hochkomplex, teuer und in Teilen kaum überprüfbar sind, bleibt außen vor. Stattdessen wird die Liste der Pflichten wie ein politisches Sündenregister vorgetragen. Der Leser erfährt viel darüber, was verboten ist, aber kaum etwas darüber, wie solche Regeln technisch umgesetzt oder überprüft werden könnten – oder ob sie überhaupt realistisch durchsetzbar sind.
Besonders aufschlussreich ist der Umgang mit den Schutzmechanismen für Nutzer: Altersverifikation, Notfallinterventionen, Schutz vor emotionaler Abhängigkeit. All das sind Themen, die im Westen seit Jahren diskutiert werden, oft unter dem Schlagwort „Responsible AI“. Im Heise-Text werden sie jedoch nicht als legitime Regulierungsansätze gelesen, sondern primär als Ausdruck staatlicher Kontrolle. Dass dieselben Maßnahmen von westlichen Tech-Konzernen regelmäßig freiwillig als „Ethik-Initiativen“ verkauft werden, bleibt unerwähnt.
Unterm Strich ist der Artikel weniger Analyse als Haltung. Er informiert, aber er framed. Er erklärt, aber er wertet – und zwar subtil genug, um den Anschein von Neutralität zu wahren. Wer ihn liest, soll nicht nur verstehen, was China reguliert, sondern auch fühlen, dass diese Regulierung problematisch, fremd und latent bedrohlich ist. Das mag journalistisch wirksam sein, ist aber analytisch dünn.
Die eigentliche spannende Frage – ob China hier tatsächlich ein kohärentes, wenn auch autoritäres, Governance-Modell für KI entwirft, während der Westen noch über Zuständigkeiten streitet – wird gar nicht gestellt. Stattdessen bleibt der Text im sicheren Modus moralischer Distanz. Das Ergebnis ist kein tiefer Blick auf globale KI-Governance, sondern ein weiteres Beispiel dafür, wie geopolitische Vorannahmen journalistische Analyse ersetzen.
Kurz gesagt: Der Artikel informiert, aber er denkt nicht zu Ende. Und er zeigt weniger, wie China KI reguliert, als vielmehr, wie westliche Medien über China schreiben.