Eine Seniorin am Telefon.

Missbrauch Künstlicher Intelligenz Enkeltrick mit geklauter Stimme

Stand: 06.12.2024 09:29 Uhr

Die eigene Stimme als Tatwaffe? Eine unheimliche Vorstellung. Doch mit Künstlicher Intelligenz lassen sich Stimmen in kürzester Zeit "klonen". Betrüger nutzen das etwa beim sogenannten Enkeltrick.

"Wir sind hier im Hasso-Plattner-Institut in Potsdam, und ich probiere den Voice Dubbing Demonstrator aus", spricht der Reporter in ein Mikrofon. Gerade einmal fünf Sekunden lang ist die Aufnahme.

Der "Voice Dubbing Demonstrator", ein KI-basierter Stimmenimitator, der hier zu Vorführzwecken genutzt wird, macht das daraus: "Hey Mama, alles okay? Du, ich habe nicht viel Zeit, daher ganz kurz: Dein Arzt hat mich angerufen, du musst für die letzte Behandlung noch einen Zuschuss leisten. Das Behandlungszentrum hat noch eine offene Rechnung, die drängeln gerade etwas. Da müssen wir jetzt schnell sein, sonst gibt´s Mahngebühren obendrauf. Du müsstest 364 Euro überweisen." Gesprochen mit der Stimme des Reporters.

Es ist die sogenannte Enkeltrick-Masche, diesmal aber gesprochen von Künstlicher Intelligenz. Deep Fake nennt man das. Die Satzmelodie stimmt noch nicht ganz, die Atempausen sind hier und da zu lang und der Euro-Betrag geht der KI-Stimme auch noch nicht flüssig über die Lippen - also über den Lautsprecher.

Die Macht der falschen Worte

Das sei ja nur der erste Versuch gewesen, sagt Johanna Reiml, KI-Forscherin am Hasso-Plattner-Institut für Digital Engineering in Potsdam. Und das Programm habe ja auch nur knapp 30 Sekunden gerechnet. Wenn man dieses "Enkeltrick"-Szenario 100-mal generieren und der KI mehr Zeit geben würde, kämen auch bessere Varianten dabei heraus. Man wolle sensibilisieren, was heutzutage mit KI alles möglich sei, so die Forscherin.

Beispiele, dass Betrüger KI heute schon nutzen, gibt es immerhin genug: Im Sommer 2022 fällt Franziska Giffey, damals Regierende Bürgermeisterin von Berlin, in einem Internet-Video-Call auf einen KI-generierten Vitali Klitschko herein. Der echte ist Bürgermeister von Kiew. Giffey bemerkte den Betrug erst im Laufe des Gesprächs, weil der gefälschte Klitschko sehr merkwürdige Fragen stellte.

Ein anderes Beispiel: Vor gut einer Woche, da klettert Ex-Tagesthemen-Moderatorin Caren Miosga in ihrem neuen Talk-Format über den Tisch und knutscht Bundeswirtschaftsminister Robert Habeck von den Grünen ab. Das Video bei TikTok ist ein Deep Fake und das Ganze sieht noch etwas ungelenk aus. Der Betrug ist leicht zu erkennen.

Derzeit keine bekannten Fälle

Doch die Rechenleistung moderner Computer wird immer stärker, KI immer perfekter. Den "Voice Dubbing Demonstrator", den KI-basierten Stimmenimitator im Hasso-Plattner-Institut könnte man auch auf einem leistungsfähigen Gaming-Laptop laufen lassen, sagt KI-Forscherin Johanna Reiml.

Was heißt das für Betrugsdelikte? Das Bundeskriminalamt teilt mit, dort seinen "derzeit keine Fälle bekannt, bei denen Täter in Deutschland nachweislich mittels Künstlicher Intelligenz (KI) generierte Stimmen nutzten, um Betrugsstraftaten mit dem Modus Operandi Enkeltrick zu begehen." Eine ähnliche Auskunft gibt auch die Polizei Berlin. Von der Landespolizei Bandenburg heißt es, das Phänomen sei bekannt, doch konkrete Zahlen lägen nicht vor.

Zu aufwendig für Betrüger?

Das Ganze wäre auch ziemlich aufwendig, so eine Sprecherin der Einrichtung "Polizeiliche Kriminalprävention der Länder und des Bundes" mit Sitz in Stuttgart. Zwar könne man sich in Sozialen Medien oder bei YouTube wohl leicht einen Gesprächsschnipsel von einer Person heraussuchen und dann mittels KI zum Betrug einsetzen.

Dass das auch tatsächlich passiere, sei aber unwahrscheinlich: "Die Betrüger gehen systematisch vor und versuchen pro Tag so viele Personen wie möglich zu erreichen, um auch so viele Personen wie möglich abzocken zu können. Wer macht sich denn da die Mühe und sucht in den Sozialen Medien nach momentan jüngeren Verwandten?"

KI-Stimmen als Chance

Stimmen nur durch KI wie echt erklingen lassen, das kann aber auch von Nutzen sein, erzählt Johanna Reiml vom Hasso-Plattner-Institut.

Wenn Menschen durch einen Schlaganfall nicht mehr sprechen könnten zum Beispiel, dann könne man ihnen mit Künstlicher Intelligenz ihre Stimme quasi zurückgeben. "Damit haben die auch ein bisschen mehr Persönlichkeit wieder, weil sie wieder die eigene Stimme nutzen können, die natürlich klingt."

Dieses Thema im Programm: Über dieses Thema berichtete NDR in der Sendung "Markt" am 24. Juli 2023 um 20:15 Uhr.