Manipulierte Videos Auf dem Weg in eine alternative Realität?
Im Netz kursiert ein manipulierter Film: Eine Frau zeigt ihre Wohnung; im Wohnzimmer prangt ein Hakenkreuz an der Wand. Eine Fälschung. Solche und noch komplexere Fakes kann inzwischen jeder produzieren.
Sie sind ein besonders perfides Mittel der Manipulation: Deepfakes. Dabei werden Videos verfälscht, sodass Personen oder Motive auftauchen, die in dem Originalmaterial gar nicht zu sehen sind. Deepfake setzt sich zusammen aus den englischen Begriffen Deep Learning und Fake - also tiefgehendes Lernen und gezielte Fälschung. Es handelt sich dabei um besonders komplexe Manipulationen von Video-Material, so wie man sie im Netz immer wieder findet.
Angeblich Hakenkreuz als Wanddeko
Ein aktuelles Beispiel einer Manipulation: Der NDR zeigte eine Dokumentation über eine Familie; in dem Film präsentierte eine Frau ihre Wohnungsdekoration. Das Wohnzimmer verschönerte sie mit einem Wandbild, das sie selbst gemalt habe, wie sie in dem Film berichtet. Die Vorlage habe sie im Internet gefunden. Zu sehen ist ein Tribal-Motiv, wie man es beispielsweise von Tätowierungen kennt.
So weit, so harmlos. Doch eine manipulierte Version des Videos zeigt die gleiche Sequenz - aber in der beschriebenen Szene ist nicht das Tribal-Motiv an der Wand zu sehen. Stattdessen prangt über dem Sofa ein Reichsadler mit Hakenkreuz. Ein Fake, der derzeit auf Facebook und WhatsApp verbreitet wird.
Wer diese gefälschte Version sieht, erlebt scheinbar eine Frau, die Nazi-Symbole in ihr Wohnzimmer malt. Der NDR erstattete Anzeige gegen Unbekannt wegen der Manipulation, die mutmaßlich mit konventioneller Software erstellt wurde.
Manipulation in Echtzeit
Aber es sind noch viel komplexere Manipulationen möglich. So können Gesichter auf andere Personen montiert werden - inklusive der Mimik. Zwar wirken solche Fälschungen oft noch künstlich, doch der technische Fortschritt eröffnet auch auf diesem Gebiet immer neue Möglichkeiten. Im Silicon Valley arbeiten Entwickler daran, Gesichter hochauflösend zu rekonstruieren, um mit diesen Gesichtern dann zu arbeiten. Damit sollen dreidimensionale Avatare für virtuelle Welten geschaffen werden. Auch die Filmindustrie soll von der Software profitieren.
Zudem entwickelten Forscher der Friedrich-Alexander-Universität Erlangen-Nürnberg gemeinsam mit Partnern der Universität Stanford und des Max-Planck-Instituts für Informatik in Saarbrücken eine Technologie, mit der sich Mimik und Lippenbewegungen eines Menschen erfassen und auf das Videobild eines anderen übertragen lassen - in Echtzeit. In einem Vortrag erläuterte einer der Forscher bereits 2016 diese Technologie.
Manipulationen leicht gemacht
Die Fortschritte auf diesem Gebiet sind enorm: Mittlerweile gibt es eine entsprechende App kostenlos zum Herunterladen, diverse Computer-Magazine bieten sie auf ihren Seiten an. Bei Giga.de heißt es beispielsweise, mit dieser App bekomme man "eine leistungsstarke Anwendung, die euch in die Lage versetzt, Gesichter in Videos auszutauschen".
Die Redaktion betont, dass die App nur für Unterhaltungszwecke gedacht sei: Keinesfalls dürfe man Gesichter von Personen ohne deren Einverständnis fälschen und veröffentlichen, da dies eine Verletzung der Persönlichkeitsrechte darstelle und juristische Konsequenzen haben könne.
Mit solchen Anwendungen sei eine neue Ära der Memes angebrochen, heißt es in Tutorials zu der Fake-App, denn deren Ergebnisse seien unglaublich realistisch.
Zumeist Prominente betroffen
Im Netz tauchten bereits diverse entsprechende Videos auf: So kursieren zahlreiche Deepfakes, in denen die Gesichter von Prominenten in Pornofilme montiert wurden.
In einem anderen Video trägt Angela Merkel bei einer Rede plötzlich das Gesicht von Donald Trump.
Auf der Plattform reddit sammelten sich zahlreiche Nutzer, um mit dem Tool zu experimentieren. Weil immer mehr gefälschte Pornofilme dort veröffentlicht wurden, schloss Reddit entsprechende Kanäle mit Tausenden Nutzern und sprach ein Verbot aus, solche Deepfakes auf der Plattform zu verbreiten. Laut "Washington Post" untersagten auch Twitter und die Chat-Plattform Discord solche manipulierten Videos auf ihren Seiten.
Deepfakes können eingesetzt werden, um andere Personen zu mobben oder zu verleumden. Damit die Videos besonders realistisch erscheinen, benötigt man aber möglichst viel Bildmaterial von der Zielperson. Das heißt: Realistische Manipulationen dürften sich vor allem gegen Prominente richten, von denen es viele Aufnahmen und Videos gibt.
Auf dem Weg in eine alternative Realität?
Video-Aufnahmen gelten bislang als wichtige Beweise, um Sachverhalte zu klären. Das könnte bald vorbei sein, denn die Manipulation von Bewegtbildern ist technisch quasi für jeden möglich. Öffentlichkeit und vor allem Medienmacher müssen künftig also noch viel genauer hinschauen, welche Videos echt sind und welche manipuliert.
Jens Garbas vom Fraunhofer-Institut für Integrierte Schaltungen sagte in der ARD-Sendung "Titel, Thesen, Temperamente", es sei wichtig, das Thema zu erforschen, um Wissen über diese Technologien aufzubauen - und um vorherzusehen, was noch alles möglich werde.
Die Deepfakes öffnen das Tor zu einer Welt, in der nicht nur "alternative Fakten" kursieren, sondern möglicherweise eine ganze alternative Realität.