Angaben des Unternehmens ChatGPT für Fake-News-Kampagnen genutzt
Vor Wahlen wie der in der EU wird eine Zunahme von Desinformations-Kampagnen befürchtet - etwa aus Russland. Nach Angaben der Entwicklerfirma OpenAI wird auch versucht, dafür ChatGPT zu nutzen.
Der ChatGPT-Entwickler OpenAI hat nach eigenen Angaben in den vergangenen drei Monaten fünf Desinformations-Kampagnen staatlich unterstützter Akteure gestoppt. Diese wollten demnach die Künstliche Intelligenz (KI) von ChatGPT für ihre Aktivitäten nutzen.
OpenAI teilte in einem Blogeintrag mit, die vereitelten Kampagnen hätten ihren Ursprung in Russland, China, im Iran und bei der israelischen Handelsgesellschaft STOIC gehabt.
OpenAI: Erstellte Inhalte hatten keine hohen Reichweiten
Laut OpenAI versuchten die fraglichen Akteure, Sprachmodelle von OpenAI für Aufgaben wie die Generierung von Kommentaren, Artikeln, Profilen in Online-Netzwerken und das Austesten von Codes für Bots und Websites zu nutzen. Die erstellten Inhalte hätten offenbar aber keine hohen Reichweiten erzielt, teilte das Unternehmen mit.
Weiter hieß es, die Zusammenarbeit sowie der Austausch von Geheimdienstinformationen und in die Anwendungen des Unternehmens eingebaute Schutzvorrichtungen machten es möglich, Missbrauch zu durchkreuzen.
Russische Kampagne generierte Kommentare bei Telegram
Zu diesen durchkreuzten Desinformations-Versuchen gehörten laut OpenAI "Bad Grammar", eine zuvor unbekannte russische Kampagne, die sich gegen die Ukraine, Moldau, die baltischen Staaten und die USA richtete. Sie nutzte OpenAI-Modelle und -Werkzeuge, um kurze politische Kommentare in Englisch und Russisch in dem Messenger Telegram zu generieren, wie OpenAI mitteilte.
Das bekannte russische "Doppelgänger"-Netzwerk nutzte die KI von OpenAI, um Kommentare auf Plattformen wie X auf Deutsch, Englisch, Französisch, Italienisch und Polnisch zu erzeugen. OpenAI demontierte demnach zudem die chinesische Desinformations-Operation "Spamouflage", die die Angebote des Unternehmens missbrauchte, um unter anderem Online-Netzwerke zu durchsuchen und mehrsprachige Texte zu generieren.
Mögliche Manipulation von Wahlentscheidungen
KI-Firmen wie OpenAI stehen angesichts bedeutender Wahlen in diesem Jahr unter strenger Beobachtung. Befürchtet wird, dass Apps wie ChatGPT oder der Bildgenerator Dall-E in kurzer Zeit und in großem Umfang manipulative Inhalte produzieren können - etwa Texte, die wirken, als habe sie ein Mensch geschrieben und die schnell in viele Sprachen übersetzt werden. Länder wie Russland, China und der Iran nutzen gezielt Online-Plattformen zur Desinformation, um Wahlen zu manipulieren.