Auf einem Smartphone werden neben anderen die Apps von ChatGPT, Bing, Gemini, OpenAI, Chatbot und Copilot dargestellt.
Player: audioAchtung, Falschnachricht! - Russischer Informationskrieg in Deutschland
Kontext

Künstliche Intelligenz Chatbots verbreiten russische Propaganda

Stand: 24.03.2025 09:09 Uhr

Immer mehr Menschen nutzen Chatbots auf Basis Künstlicher Intelligenz. Doch welche Quellen die KI-Modelle verwenden, dürfte vielen unklar sein. Eine Studie zeigt nun: Chatbots sind anfällig dafür, russische Propaganda zu verbreiten.

Von Pascal Siggelkow, ARD-faktenfinder

"Der ukrainische Präsident Wolodymyr Selenskyj hat Truth Social, die Social-Media-Plattform von US-Präsident Donald Trump, verboten" - das behaupten zumindest mehrere Chatbots auf Nachfrage. Verbreitet wurde diese Falschbehauptung unter anderem vom kremlnahen Pravda-Netzwerk. Allerdings hat unter anderem die Faktencheckredaktion der Nachrichtenagnetur AFP bereits klargestellt, dass die Plattform Truth Social nie in der Ukraine verfügbar war - und somit auch gar nicht von Selenskyj verboten werden konnte. Warum schreiben einige Chatbots das dennoch?

Der Grund dafür ist die Quellenauswahl. Für ihre Antworten greifen die KI-Chatbots auf Websites aus dem Internet zurück - offenbar auch auf weniger seriöse. Eine Untersuchung der Organisation NewsGuard ergab, dass alle der zehn führenden KI-Chatbots die Desinformationsstrategie Moskaus unterstützten, indem sie in 33 Prozent der Fälle falsche Behauptungen des kremlnahen Pravda-Netzwerks wiederholten. Darunter unter anderem ein von der russischen Beeinflussungsoperation Storm-1516 produziertes, inszeniertes Video, das angeblich Kämpfer des Asow-Bataillons bei der Verbrennung eines Bildnisses von Trump zeigt.

Nach Angaben von NewsGuard verzerrt das Pravda-Netzwerk die Verarbeitung und Darstellung von Nachrichten durch das massenhafte Fluten von Suchergebnissen und Web-Crawlern mit kremlnahen Falschinformationen. Demnach wurden allein 3,6 Millionen Artikel des Netzwerks im Jahr 2024 in westliche KI-Systeme integriert und infizierte deren Antworten mit Falschbehauptungen und Propaganda.

Beeinflussung von KI-Modellen als Hauptziel

Die Autorinnen der Studie von NewsGuard halten es für wahrscheinlich, dass die Beeinflussung von KI-Chatbots inzwischen eines der Hauptziele des Pravda-Netzwerks geworden ist. "Wir können davon ausgehen, dass die Strategie des Netzwerks darin bestand, das Internet mit Inhalten zu überschwemmen, um Scraping-Algorithmen zu beeinflussen", sagen McKenzie Sadeghi und Isis Blachez. Mehrere Gründe würden dafür sprechen.

So seien die Websites des Netzwerks nicht leserfreundlich und schwer zu navigieren, was darauf hindeute, dass das Zielpublikum nicht Menschen seien. Auch die riesige Menge an veröffentlichten Inhalten spreche dafür, oftmals zum selben Sachverhalt. "Damit sollen offenbar die Chancen erhöht werden, dass Webcrawler oder andere Scraping-Algorithmen das Thema aufgreifen", so die Autorinnen. Das Pravda-Netzwerk nutze die Art und Weise, wie KI-Modelle Informationen abrufen, indem es Suchmaschinenoptimierung (SEO), Automatisierung und die schiere Menge an Inhalten nutzt, um seine Sichtbarkeit im Internet zu erhöhen.

"Das Netzwerk betreibt 150 verschiedene Websites, von denen viele als unabhängige lokale Nachrichtenquellen getarnt sind, um KI-Modelle dazu zu bringen, sie als vielfältige und glaubwürdige Quellen zu betrachten", sagen Sadeghi und Blachez. Infolgedessen seien KI-Modelle, die sich für ihr Training und ihre Echtzeit-Reaktionen auf Nachrichten in hohem Maße auf öffentlich zugängliche Inhalte stützen, sehr anfällig für die Aufnahme und Verstärkung von Meldungen aus diesem Netzwerk.

Jeder Vierte nutzt bereits KI-Chatbots

KI-Chatbots werden immer beliebter. Einer Umfrage des Instituts für Demoskopie Allensbach zufolge nutzen bereits 25 Prozent der Befragten ab 16 Jahren KI-Chatbots. Marktforscher gehen davon aus, dass zukünftig immer mehr Menschen KI-Chatbots für ihre Suchanfragen nutzen werden und das Suchvolumen von herkömmlichen Suchmaschinen bis 2026 um 25 Prozent einbrechen könnte.

Genau darin sehen Sadeghi und Blachez eine Gefahr: "KI-Modelle haben wiederholt bewiesen, dass sie nicht in der Lage sind, zwischen zuverlässigen und minderwertigen Informationsquellen zu unterscheiden, wenn sie Informationen aus dem Internet abrufen, um Antworten zu generieren." Vor allem in Sprachen, in denen das Ökosystem der Faktenüberprüfung weniger robust sei oder in denen das Nachrichten-Ökosystem eine große Menge an staatlich gelenkten und unzuverlässigen Quellen enthalte, schnitten die Chatbots schlechter ab.

Je mehr KI-Tools in den Alltag integriert würden und herkömmliche Suchmaschinen ersetzten, desto mehr wachse das Potenzial für ausländische Einflussnahme, diese Modelle zu manipulieren, so die Autorinnen. "Wenn Chatbots auf unzuverlässige Quellen zurückgreifen, laufen sie Gefahr, die Öffentlichkeit falsch zu informieren und das Vertrauen in die Demokratie weiter zu untergraben."

Die Untersuchung zeigt, dass das Pravda-Netzwerk bereit jetzt Einfluss auf die KI-Chatbots hat und deren Schwachstellen ausnutzt. "Chatbots verfügen derzeit nicht über strenge Methoden zur Bewertung der Glaubwürdigkeit von Quellen, was sie zu leichten Zielen für Desinformationswäsche durch Netzwerke wie Pravda macht. Diese Methode hat das Potenzial, langfristig Einfluss zu nehmen, wenn sie nicht kontrolliert wird", so Sadeghi und Blachez.

KI-Chatbots sind fehleranfällig

Auch frühere Studien haben bereits gezeigt, dass Chatbots fehleranfällig sind. So präsentieren sie zum Beispiel selbstbewusst auch falsche Informationen. Eine Studie des Tow Center for Digital Journalism des Columbia Journalism Review kam zu dem Ergebnis, dass KI-Suchmaschinen auch ein großes Problem bei der Nennung von Quellen haben. Bei 60 Prozent der Anfragen nannten sie demnach falsche Quellen. Zudem fanden die Forscher heraus, dass die Chatbots grundsätzlich schlecht darin sind, Fragen abzulehnen, die sie nicht genau beantworten können, und stattdessen falsche oder spekulative Antworten anbieten.

Aus Sicht von Sadeghi und Blachez sind die Probleme nur schwer zu lösen. "Selbst wenn die Modelle so programmiert wären, dass sie heute alle bestehenden Pravda-Seiten blockieren, könnten am nächsten Tag neue Seiten auftauchen." Lösungen erforderten daher eine kontinuierliche menschliche Überwachung, Investitionen in vertrauenswürdige Datenquellen, erhöhte Aufmerksamkeit für nicht-englischsprachige Desinformationsbedrohungen und eine branchenweite Zusammenarbeit.

Dieses Thema im Programm: Über dieses Thema berichtete Deutschlandfunk am 14. März 2025 um 23:48 Uhr.