vocatium Magazin / Wissenschaft und Politik / Scheitert das Internet an Propaganda?

Scheitert das Internet an Propaganda?

Gezielte Desinformation beeinflusst KI

Laptop und Kaffeetasse (Symbolbild). ©Freepik Laptop und Kaffeetasse (Symbolbild). ©Freepik
Beitrag teilen
Wissenschaft und Politik

Desinformation wirkt längst nicht mehr nur in Timelines und Kommentarspalten – die digitale Propaganda hält mit der Zeit Schritt und infiltriert weitgehend unsichtbar auch die modernsten KI-Systeme.

 

(ps) Als das Internet in den späten 1990er- und frühen 2000er-Jahren zu einem Massenmedium wurde, hegten Gesellschaftsforscher*innen große Hoffnungen. Pointiert gesagt verband sich mit dem Netz die Erwartung, es könne die Ideale der Französischen Revolution digital einlösen: Freiheit der Information, Gleichheit des Zugangs und eine neue Form von Brüderlichkeit durch horizontale Vernetzung. Der digitale Utopismus versprach eine anonyme, offene Öffentlichkeit, in der soziale Unterschiede an Bedeutung verlieren und sich eine emanzipatorische, basisdemokratische Online-Gemeinschaft herausbilden würde.


Der Utopismus der frühen Internetjahre – in den USA kam damals sogar das Schlagwort „cyber socialism“ auf (in etwa: „digitaler Sozialismus“) – hat sich jedoch schon bald als Fehlannahme herausgestellt. Bereits in den späten 2000er-Jahren zeigte sich, dass politische Partizipation im Netz weitgehend mit jener außerhalb des Netzes übereinstimmt. Der formell gleiche Zugang führte nicht zu breiterer Teilhabe, sondern reproduzierte bestehende Ungleichheiten. Auch viele andere Erwartungen an das Internet – mehr Rationalität, mehr Aufklärung, mehr Demokratie – erfüllten sich nicht.


Als diese Ernüchterung einsetzte, steckten soziale Medien noch in den Kinderschuhen. Zwar existierten bereits Foren und Chaträume, doch diese waren vergleichsweise überschaubar und lokal begrenzt und anders als heute bei Twitter bzw. „X“ oder auch Instagram wurden Beiträge dieser Formate üblicherweise nicht für die Nachrichten rezipiert. Es waren digitale Pendants zu Küchen- und Stammtischen oder Kneipen. Erst mit Plattformen wie Facebook veränderte sich die Struktur der Öffentlichkeit grundlegend. Teilen, Liken, algorithmische Feeds und Influencer mit oft undurchsichtigen Interessen machten Informationen allgegenwärtig, ohne dass Nutzerinnen und Nutzer gezielt nach ihnen suchen mussten. Damit verschwand zugleich eine wichtige Kontrollinstanz: die bewusste Auswahl von Quellen. Geteilt wurde – und wird – längst nicht mehr nur journalistisch geprüfter Inhalt, sondern alles, was Aufmerksamkeit verspricht.


Hinzu kam eine neue, nahezu hürdenlose Erregungskultur. Was früher im privaten oder halböffentlichen Raum verhallte, kann heute binnen Sekunden ein Massenpublikum erreichen. Empörung ist nicht länger ein individuelles Ventil, sondern ein kollektiver Verstärker – algorithmisch begünstigt und leicht zu instrumentalisieren. Wo Emotionen Reichweite erzeugen, reichen gezielte Reizthemen und automatisierte Accounts aus, um Diskurse zu verzerren und Stimmungen zu kippen. Spätestens hier wurde deutlich, wie anfällig diese neue Öffentlichkeit für Manipulation ist. Alles, was es braucht, sind passende Erregungsrequisiten und ein paar Bots, die diese in den Algorithmen nach oben spülen. Und es lässt sich kaum noch sagen, ob dieses öffentliche Echauffieren bereits ein allgemeines Hobby geworden ist, oder ob eine empörungsbereite Minderheit einfach von den Bots mitgetrieben wird.

 

 

Neue Propaganda für eine neue Zeit

 


Propaganda ist dabei kein neues Phänomen. Neu ist jedoch ihre Skalierbarkeit und Präzision in der digitalen Welt. Mit dem Einsatz von KI hat sie eine weitere Eskalationsstufe erreicht: Bilder, Texte und Videos lassen sich heute mit einer Täuschungsqualität erzeugen, die selbst Fachleute vor Probleme stellt. In dieser Umgebung wird Wahrheit zunehmend kontingent. Selbst offensichtliche Fälschungen können erfolgreich verbreitet werden – nicht, weil sie glaubwürdig sind, sondern weil sie Zweifel säen. Die Regierung Trump macht vor, wie es geht. Mit KI ist die goldene Ära der Fake News angebrochen – im Prinzip kann heute nichts, was man nicht selber gesehen und erlebt hat, einfach so geglaubt werden.


Eine zentrale Rolle spielen dabei KI-gestützte Chatbots wie ChatGPT, die sich anschicken, klassische Suchmaschinen als primären Zugang zu Information abzulösen. Sie versprechen bequeme, direkte Antworten auf komplexe Fragen. Technisch beruhen sie jedoch auf probabilistischen Modellen, die Sprache nicht verstehen, sondern Wahrscheinlichkeiten berechnen – auf Grundlage großer Trainingsdatensätze, die zu erheblichen Teilen aus dem Internet stammen. Sie reproduzieren kunstvoll Muster, keine Wahrheiten.


Der Wissensbestand solcher Systeme ist dabei nicht identisch mit dem aktuellen Internet, sondern das Ergebnis vergangener Trainingsläufe. Neue Modellversionen entstehen nicht nur aus technischen Gründen, sondern auch, weil diese Datengrundlagen regelmäßig erneuert werden müssen. Zwar können Chatbots mit Web-Zugriff auf aktuelle Inhalte zugreifen, doch strukturell und für die konkreten Antworten bleibt der Trainingsdatensatz prägend.
 

Hier schließt sich der Kreis zur Desinformation in sozialen Medien. Was dort sichtbar geschieht – die massenhafte Verbreitung falscher oder irreführender Inhalte – hat inzwischen eine zweite, fast unsichtbare Ebene bekommen. Propaganda zielt nicht mehr nur auf menschliche Nutzer, sondern auch auf die statistische Umwelt von Maschinen. Desinformation wirkt damit doppelt: offen in Feeds und Timelines – und verdeckt im Hintergrund, wo sie Datensätze, Modelle und Antwortwahrscheinlichkeiten beeinflusst. Die Manipulation verlagert sich vom öffentlichen Diskurs in dessen infrastrukturelle Grundlage. Und genau an diesem Punkt beginnt die neue Qualität des Problems, die weit über allgemein bekannte Desinformationskanäle wie die sozialen Medien hinausreicht. Und hier setzt auch die neue Form digitaler Propaganda an. Sie zielt weniger darauf, Menschen unmittelbar zu überzeugen, sondern darauf, den statistischen Hintergrund zu verändern, vor dem sowohl Suchmaschinen als auch KI-Systeme operieren. Wer es schafft, bestimmte Narrative massenhaft, konsistent und über viele scheinbar unabhängige Quellen hinweg ins Netz zu bringen, erhöht ihre Sichtbarkeit und ihr Gewicht im Informationsökosystem – unabhängig von ihrem Wahrheitsgehalt.

 

Russische Propaganda ist schon heute erfolgreich

 


Die schon vor einiger Zeit vom ZDF und von Organisationen wie NewsGuard untersuchten russischen Propagandanetzwerke funktionieren genau nach diesem Prinzip. Mit Hunderten professionell gestalteter Webseiten, die journalistische Formate imitieren und in Dutzenden Sprachen publizieren, wird allerdings nicht primär Reichweite in sozialen Netzwerken angestrebt. Vielmehr geht es darum, Inhalte dauerhaft im Netz zu verankern, sie suchmaschinenrelevant zu machen und sie als „normalen“ Teil des digitalen Diskurses erscheinen zu lassen. Dass viele dieser Seiten kaum echte Leser erreichen, ist dabei kein Widerspruch, sondern Teil der Strategie: Entscheidend ist nicht Aufmerksamkeit, sondern Präsenz.


Für KI-Systeme ist das problematisch, weil sie eben keine epistemischen Instanzen sind, also – wie gesagt – nicht prüfen, was wahr ist, sondern statistisch wahrscheinliche Muster reproduzieren. Wenn ein falsches Narrativ über Jahre hinweg in großer Zahl, sprachlich sauber und über viele Quellen hinweg verbreitet wird, kann es für ein Sprachmodell nicht ohne Weiteres von seriösen Berichten unterschieden werden – selbst dann nicht, wenn es später Faktenchecks und Widerlegungen gibt. Diese sind häufig zahlenmäßig deutlich unterlegen und erscheinen also im Datenraum weniger dominant. Die eigentliche Gefahr liegt deshalb mit Blick auf die Probleme der KI in einer schleichenden Erosion gemeinsamer Wirklichkeitsannahmen. Wenn menschliche Nutzerinnen und Nutzer, Suchmaschinen und KI-Systeme auf denselben kontaminierten Informationsraum zurückgreifen, verstärken sich Verzerrungen gegenseitig. KI wird dann nicht nur zur Quelle der Desinformation, sondern zu ihrem Verstärker – und zugleich zu ihrem Spiegel.


Vor diesem Hintergrund scheitert also natürlich nicht „das Internet“ an Propaganda, wohl aber ein bestimmter naiver Glaube an seine Selbstregulierung. Die frühen Hoffnungen des digitalen Utopismus gingen davon aus, dass mehr Information automatisch zu mehr Aufklärung führe. Die Realität zeigt das Gegenteil: In einer Welt unbegrenzter Publikationsmöglichkeiten wird nicht Wahrheit belohnt, sondern Wiederholung, Emotionalisierung und strategische Masse. Die zentrale Frage ist daher nicht, ob KI-Systeme manipuliert werden können – das können sie –, sondern wie Gesellschaften mit einem Informationsraum umgehen wollen, in dem Wahrheit keine strukturellen Vorteile mehr besitzt. Solange Glaubwürdigkeit aus Häufigkeit entsteht und nicht aus Verlässlichkeit, bleibt Propaganda erfolgreich – mit oder ohne künstliche Intelligenz.

 

 

 

Erwähnte Quelle:

ZDF heute: “Russische Propaganda vergiftet Sprachmodelle”, Oliver Klein, 29.03.2025; online: https://www.zdfheute.de/panorama/russland-propaganda-sprachmodelle-chatgpt-100.html

 

 

04.02.2026