Falsche Bilder, Videos und Texte KI-generierte Desinformation auf dem Vormarsch
Russlands Präsident Putin, der vor Chinas Staatschef Xi auf die Knie geht, oder Ex-US-Präsident Trump, der verhaftet wird: KI-generierte Bilder haben viel Aufmerksamkeit erregt. Aber woran sind sie zu erkennen?
Ein Bild sagt mehr als Tausend Worte, heißt es in einer deutschen Redewendung. Und das passte sehr gut zu einem Bild, das vergangene Woche in den Sozialen Netzwerken verbreitet wurde: Russlands Präsident Wladimir Putin, der vor Chinas Staatschef Xi Jinping auf die Knie geht, um sich für seine Unterstützung zu bedanken. Das Bild hat Symbolcharakter: Der vom Westen ausgestoßene Putin, der sich offenbar verzweifelt dem chinesischen Präsidenten anbiedert. Doch diese Szene hat es in der Realität nie gegeben.
Bei dem Foto handelt es sich um ein von Künstlicher Intelligenz (KI) generiertes Bild, wie unter anderem die Journalistin Amanda Florian auf Twitter schreibt. Bei genauem Hinsehen ist zu erkennen: Details wie Ohren und Hände der abgebildeten Menschen sind deformiert. Auch ein Schuh von Putin ist etwas stark gebogen und im Verhältnis auffallend groß. Obendrein passt der Raum nicht mit den Bildern der Fotoagenturen zusammen, die es von dem Treffen der beiden Staatschefs gibt.
Politische Aussagen durch Fake-Fotos
Der vermeintliche Kniefall Putins ist nicht das einzige KI-generierte Bild, das politische Aussagen vermittelt. Auch der stellvertretende AfD-Fraktionsvorsitzende Norbert Kleinwächter verbreitete auf Instagram ein künstlich erzeugtes Bild von aggressiv wirkenden Männern mit dunklen Augen und dunklen Haaren, um seine Botschaft "Nein zu noch mehr Flüchtlingen" zu untermauern. Auch hier sind durch die KI Bildfehler entstanden: So sehen einige Gesichter deformiert aus, zudem haben alle Menschen einen offenen Mund und eine Person ganz vorne im Bild einen Finger zu viel.
Stellvertretender AfD-Fraktionsvorsitzender Norbert Kleinwächter postete dieses KI-generierte Bild am 21. März auf seinem Instagram-Account.
Die Darstellung der Männer sei so generiert worden, um bei vorhanden Vorurteilen der Bevölkerung gegenüber Menschen mit Fluchtgeschichte anzusetzen und bewusst Angst und Hetze zu schüren, sagt Nathalie Rücker, Bildungsreferentin am Institute for Strategic Dialogue Germany (ISD). "Die AfD nutzt auf ihren Social-Media-Kanälen häufig fiktive oder aus dem Kontext gerissene Bilder, um Stimmung gegen unterschiedliche gesellschaftliche Gruppen zu machen, die als Sündenböcke für Ängste dienen sollen." 2018 hatte die AfD-Jugendorganisation Junge Alternative in Essen beispielsweise ein Bild aus einer Serie verwendet und es in einen falschen Kontext gesetzt, um gegen Geflüchtete zu hetzen, ohne den Kontext des Bildes kenntlich zu machen.
Auch bei Kleinwächters Foto ist nicht erkenntlich, dass es keine reale Situation zeigt. Kleinwächter schreibt dem ARD-faktenfinder dazu: "Die von uns genutzten Motive sind optisch klar als künstlerische Illustrationen erkennbar. Eine Kennzeichnung erübrigt sich somit." Weiter schreibt er, die Motive würden dazu dienen, aktuelle Ereignisse für jeden wiedererkennbar zu illustrieren. Von Fake könne keine Rede sein. Er nutze KI-generierte Bilder, "um keine Bild- oder Persönlichkeitsrechte zu verletzen" und wolle für den Kauf ähnlicher Motive oder Agenturfotos keine Steuergelder ausgeben.
"Keine Revolution, sondern Evolution"
Nach Ansicht von Experten hat die Verwendung von KI-generierten Bildern auch zu Desinformationszwecken zugenommen. "Es ist zum Teil sehr gefährlich, wie und wo sie verwendet werden", sagt Andreas Dengel, Geschäftsführender Direktor des Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Die Fortschritte, die in diesem Bereich in den vergangenen Jahren gemacht wurden, seien "keine Revolution mehr, sondern eine Evolution". Hervorragende kostspielige Software gebe es schon länger, nun würde Gratis-Software jedoch auch immer besser, weshalb das Phänomen nun auch für die Masse an Popularität gewinne.
Auch Rücker vom ISD sieht insgesamt eine Zunahme KI-generierter Bilder, vor allem seit der Covid-Pandemie und dem Beginn des russischen Angriffskriegs in der Ukraine. "Bilder lösen Emotionen in uns aus und setzen an unseren eigenen Erfahrungen und somit auch Bias an", sagt sie. Das würden sich einige Akteure zu Nutze machen wollen, indem sie versuchten, mit ihren KI-generierten Bildern oder Videos Ängste und Sorgen zu schüren. Rücker betont jedoch auch, dass das Konzept hinter manipulierten Bildern nicht erst seit dem Einsatz von KI bestehe.
KI-generierte Bilder von Trumps Verhaftung
Um aufzuzeigen, was die Stärken und Schwächen KI-generierter Bilder sind, hat Eliot Higgins, Gründer des Recherchenetzwerks Bellingcat, Bilder von einer Verhaftung des Ex-US-Präsidenten Donald Trump mithilfe von KI anfertigen lassen. Trump hatte zuvor angekündigt, dass er davon ausgehe, am 20. März verhaftet zu werden. So twitterte Higgins: "Bilder von Trumps Verhaftung erstellen, während man auf Trumps Verhaftung wartet."
Mit der Visualisierung durch KI-generierten Bildern erfand Higgins nicht nur die Festnahme Trumps, er veröffentlichte eine ganze Geschichte über Trump, der im Gerichtssaal verurteilt wird, ins Gefängnis kommt und schließlich an einem regnerischen Abend durch einen Abwasserkanal aus dem Gefängnis ausbricht. Die Geschichte, die Higgins im Laufe von zwei Tagen getwittert hat, endet damit, dass Trump in seinem orangefarbenen Overall in einem McDonald's weint.
Higgins hat die Bilder eigenen Angaben zufolge mit dem kostenlosen KI-Tool "Midjourney V5" erstellt. Sein Fazit zur Software: "Midjourney ist gut darin, einfache Aktionen zu verstehen, aber etwas komplexere und obskure Aktionen führen zu seltsamen Ergebnissen." Auch habe das Programm Schwierigkeiten, mit Text in Bildern umzugehen oder Orte wie den Europäischen Gerichtshof für Menschenrechte realitätsgetreu abzubilden. Noch können KI-generierte Bilder von Midjourney also meist als solche enttarnt werden, doch Higgins schreibt: "Ein gefälschtes Bild (mit oder ohne KI-Beteiligung) kann sich viel schneller verbreiten, als es in den meisten Fällen faktengeprüft werden kann."
Und genau darin sieht Politikwissenschaftler Jonas Fegert vom Forschungszentrum Informatik (FZI) die Problematik - auch bei Bildern, die auf den ersten Blick witzig scheinen, wie beispielsweise das Bild vom Papst in Designer-Daunenjacke. "Die Bilder, die so herumgeistern, sind natürlich satirisch witzig, aber die Möglichkeiten, die dahinter stehen, für Individuen, aber vor allem natürlich auch staatliche Akteure, die Desinformation betreiben wollen, sind tatsächlich gefährlich und stellen eine Herausforderung dar", sagt Fegert.
Fegert leitet das Forschungsprojekt DeFaktS, welches eine KI-basierte Softwarelösung entwickelt, die Desinformation erkennen und über sie aufklären können soll. Die Forschung, die sich um die Bekämpfung von Desinformation kümmert, müsse auf die KI-generierten Bilder reagieren und entsprechende Tools entwickeln. "Und das wird eine große Aufgabe."
KI-generierte Bilder nur schwer zu erkennen
Gerade bei den hochwertigeren KI-Generatoren sei es für das ungeschulte Auge sehr schwierig, ein falsches Bild von einem echten zu unterscheiden, sagt Rücker. Auch Dengel hält es in der heutigen Zeit für überaus schwierig, Bilder zu verifizieren. Eine Schwäche der KI-generierten Bilder sei jedoch, dass Nahaufnahmen gewisse Texturen zu sauber wirken lassen und Schwächen in der realistischen Darstellung bei Gesichtern und Gliedmaßen zeigen. "Bei hoher Auflösung sieht man bei echten Bildern kleine Unreinheiten, Narben, oder Läsionen, bei künstlichen Gesichtern meist nicht."
Ein genauer, detaillierter Blick offenbart häufig optische Ungereimtheiten. Darüber hinaus sollte der Kontext des Bildes überprüft werden. Durch Bilder-Rückwärtssuchen lässt sich schauen, ob es ähnliche Bilder mit dem Motiv im Netz gibt und aus welchen Quellen sie stammen. Zudem lässt sich überprüfen, ob die schriftlichen Angaben zu einem Bild plausibel erscheinen: Wann und wo wurde das Bild zuerst veröffentlicht? Decken sich die Angaben mit anderen Informationen? Was haben Medien an dem Tag berichtet?
Auch sogenannte Deepfakes werden besser
Auch bei den KI-manipulierten Videos - sogenannten Deepfakes - sehen die Experten einen Trend hin zu verbesserter Software. Deepfakes sorgten in der Vergangenheit bereits einige Male für große Aufregung. Erst vor wenigen Wochen wurde beispielsweise ein Video verbreitet, das angeblich die demokratische US-Senatorin Elizabeth Warren zeigte, die dazu aufrief, das Wahlrecht der Republikaner einzuschränken.
Kurz nach Beginn des Angriffskriegs kursierte ein Video des ukrainischen Präsidenten Wolodymyr Selenskyj, in dem dieser zur Kapitulation aufrief - auch das stellte sich als Deepfake heraus. Ähnlich wie bei KI-generierten Bildern können Deepfake-Videos an Details als Fake entlarvt werden. So hat die KI häufig noch Probleme damit, die Mimik der Menschen, wie Blinzeln, Schmunzeln oder die Zornesfalte auf der Stirn, realitätsgetreu darzustellen.
KI-Text-Inhalte können besser erkannt werden
Von KI gestützten Chatbots generierte textliche Inhalte spielen in der Erstellung von Desinformation nach Ansicht der Experten noch keine große Rolle. Das könne sich jedoch ändern: "Die Geschwindigkeit und die Masse, mit der Inhalte erstellt werden können, gerade durch Anwendungen wie ChatGPT, die geben doch Anlass zur Sorge", sagt Fegert. Mit frei zugänglicher oder günstig zu erwerbender Software wie ChatGPT könnten großflächig sehr viel schneller falsche oder irreführende Inhalte generiert werden. "Dadurch könnte das Katz-und-Maus-Spiel zwischen der Verbreitung und dem Widerlegen von Desinformationen auf eine andere Ebene gebracht werden."
Allerdings gebe es für textliche Inhalte bereits sehr gute technische Lösungen, welche Desinformationen identifizieren. In den USA habe eine Studie gezeigt, dass über 90 Prozent der Falschinformationen erkannt wurden. KI sei nicht besser oder schlauer als der Mensch, ist sich Fegert sicher. "Wenn bei Desinformationstexten, die von Menschen produziert werden, bestimmte Sachen auffällig sind, dann sind sie es auch bei den Texten, die vom Computer generiert werden."
Auch für Bilder und Videos wäre es laut Fegert technisch möglich, Software zu entwickeln, die Fakes von der Realität unterscheidet. Ein sehr großer Datensatz an Bildern und Videos müsste dafür erstellt und permanent weiterentwickelt werden, sodass aktuelles Material kontinuierlich in das System eingepflegt wird.
Es gibt auch jetzt schon Erkennungssoftware, wie beispielsweise der "AI image detector" von Hugging Face, der künstlich erzeugte Bilder identifizieren soll. Leider ist dies jedoch noch nicht so präzise. "Bei Bild- und Videomaterial braucht es tatsächlich noch die Expertise von professionellen Faktencheckern. Das kann Technologie so noch nicht meistern", sagt Fegert.
Experten fordern Förderung von Medienkompetenz
Neben technologischer Intervention sei auch der Aufbau einer gesamtgesellschaftlichen kritischen Medienkompetenz wichtig, so Fegert. "Softwarelösungen, wie wir sie bauen, können Menschen helfen, Desinformationen zu erkennen." Darüber hinaus solle man sich als Medienkonsument damit auseinandersetzen, dass man nicht jedem Bild trauen darf, was im Internet kursiert. "Und wenn wenn diese Schere zwischen dem, was man gewohnt ist und dem, was man da auf dem Bild wiederfindet, weit auseinander geht, dann sollte man überlegen, woher das kommen könnte", sagt Fegert.
Rücker fordert ebenfalls ein stärkeres Bewusstsein für den Nutzen von Medienkompetenz. Nach Ansicht von Rücker "bringt es nichts, wenn wir nur die Symptome bekämpfen." Eine Auseinandersetzung mit den Ursachen für unsere Anfälligkeit für die Verbreitung von Falschinformationen sei besonders wichtig. Zum Beispiel, dass Menschen dazu neigen, Informationen so auszuwählen und zu interpretieren, dass sie ins eigene Weltbild passten. Oder auch, dass man sich selbst für unbeeinflussbarer halte als andere Menschen.
Auch aus Sicht von Dengel ist es "ganz wesentlich, Aufklärung zu betreiben". Zudem plädiert er für eine Art Echtheitszertifikat von Bildern und Videos im Netz. So könnten dafür zugelassene Journalisten ihr Bildmaterial durch Prüfsysteme laufen lassen, um es verifizieren zu lassen.
Fegerts Ansicht nach sind dies alles relevante Aspekte, die konkret umgesetzt werden müssen. Denn: "Wir müssen uns als Gesellschaft die Frage stellen, wie wir eine Art Resilienz gegenüber solchen Erscheinungen aufbauen. Das können wir nur durch eine Mischung erreichen - gesamtgesellschaftliches Wissen aufbauen und digitale Lösungen erforschen und entwickeln", sagt Fegert.