Deepfakes: Wenn Betrüger die KI für den Enkeltrick nutzen

Stand: 21.07.2023 17:26 Uhr

Der sogenannte Enkeltrick, bei dem Betrüger sich als Verwandte ausgeben, um an Geld zu kommen, ist bekannt. Jetzt können die Stimmen sogar täuschend echt imitiert werden - mithilfe von Künstlicher Intelligenz.

von Svea Eckert

"Audio Deepfake" heißt die Technologie. Dabei werden eine Vielzahl von Stimmproben einer Person in den Computer gegeben und dann auf Knopfdruck die fast gleich klingende Stimme synthetisch hergestellt, sodass per Texteingabe Audiodateien ausgegeben werden können. Das eröffnet einerseits viele Chancen und Möglichkeiten, zum Beispiel für Hörbücher oder vorgelesene Zeitungsartikel, aber es birgt auch Gefahren. Denn auch Kriminelle können die Technologie nutzen, um jemanden nachzuahmen.

Was gibt es für Betrugsmaschen und wen betrifft es?

CEO-Betrug: Eingesetzt werden Audio-Deepfakes laut Expertinnen und Experten zum Beispiel bei der sogenannten "Fake President" Masche. Hier geben sich Betrüger als hochrangige Führungskräfte eines Unternehmens aus und nutzen die Audio-Deepfakes, um die Stimme des CEO (Chief Executive Officer) oder anderer Schlüsselpersonen nachzuahmen. Sie können dann Mitarbeiter oder Finanzabteilungen dazu bringen, Gelder freizugeben oder vertrauliche Informationen preiszugeben. Der Rückversicherer Allianz Trade berichtet von einem Fall eines deutschen Energieversorgers, bei dem es den Betrügern gelang, sich 220.000 Euro zu erschleichen. In einem anderen Fall, in dem mutmaßlich ein Audio-Deepfake eingesetzt wurde, wurden 35 Millionen US-Dollar erbeutet.

Telefonbetrug: Betrügerinnen und Betrüger können Audio-Deepfakes verwenden, um die Stimmen von Verwandten, Freunden oder anderen vertrauenswürdigen Personen nachzuahmen und ihre Opfer dazu zu bringen, Geld zu überweisen oder sensible Informationen preiszugeben. Die Landeskriminalämter in Norddeutschland haben auf Nachfrage des NDR bislang keine Hinweise vorliegen, ob diese Masche bereits in Norddeutschland eingesetzt wird. Nur aus den USA gibt es bereits erste Berichte, nach denen die Technologie auch bei Telefon- oder WhatsApp-Betrug eingesetzt worden sein könnte.

Politische Manipulation: Audio-Deepfakes können dazu verwendet werden, gefälschte Aussagen oder Botschaften politischer Persönlichkeiten zu erstellen, um Wähler zu beeinflussen oder Stimmung zu machen. Dies ist in der Vergangenheit bereits vielfach geschehen, wurde aber in der Regel schnell enttarnt, sodass keine Schäden entstanden.

Europol geht in einem Bericht von zusätzlichen Gefahren für Ermittlerinnen und Ermittler aus, wenn zum Beispiel Zeugenaussagen oder Geständnisse nicht mehr als authentisch eingestuft werden können.

Wie funktioniert der Enkeltrick mit Audio-Deepfakes?

Im Internet gibt es inzwischen zahlreiche kostenlose und kostenpflichtige Dienste, mit deren Hilfe Audio-Deepfakes erstellt werden können oder bei denen bereits fertige Stimmen "gebucht" werden können. Dazu benötigen die Anbieter einige wenige hochqualitative Sprachaufnahmen der Person, deren Stimme nachgeahmt werden soll. Je besser diese Aufnahmen sind, desto genauer kann die Künstliche Intelligenz die Stimme imitieren.

Verantwortlich für den "Lernprozess" im Computer sind sogenannte künstliche neuronale Netze, die mithilfe von maschinellem Lernen sich die Stimme antrainieren. Ist die Stimme vorhanden, reicht es, per Texteingabe die Sätze oder Wörter vorzugeben, die der Computer dann modulieren kann. Oft gibt es noch zusätzliche Regler oder Instrumente, um die Stimme anzupassen. Zum Beispiel Sprechpausen zu vergrößern, die Stimmfarbe etwas zu erhöhen oder zu verdunkeln.

Wie erkennt man die Betrugsmasche und kann sich schützen?

Ein gut gemachter Audio-Deepfake ist vor allem über das Telefon kaum oder nur schwer zu erkennen. Generell gilt, bei aufgeregten Anrufen Ruhe zu bewahren, eine zweite Person hinzuzuziehen und das vermeintliche Enkelkind oder den angeblichen Vorgesetzten schnell über die bekannte Nummer zurückzurufen. Helfen können auch Codewörter oder die Frage nach bestimmten Orten oder Gegebenheiten, die nur die betroffene Person kennt. Auch die Verbraucherzentralen geben Tipps.

Zudem treibt die Entwicklung von Audio-Deepfakes auch die Entwicklung von Technologien zur Erkennung und Verifikation gefälschter Audiodateien voran. Forscher und Entwickler arbeiten daran, Algorithmen zu verbessern, die solche Deepfakes identifizieren können, um die Integrität von Audioaufnahmen zu schützen.

Tipp: Telefonbucheintrag löschen lassen

Die meisten Betrüger beziehen die Kontaktdaten ihrer Opfer von der Telefonauskunft. Deswegen kann es sinnvoll sein, wenn ältere Menschen ihren Eintrag im Telefonbuch löschen lassen. Auf den Internetseiten der jeweiligen Anbieter gibt es einen Kundenbereich, manchmal auch Kundencenter oder Control-Center genannt. Dort kann man sich einloggen und dann seine Nummer auswählen, die man löschen möchte.

Weitere Informationen
Eine Broschüre der Polizei die vor Telefonbetrug warnt. © Screenshot

Polizei Hamburg startet Kampagne gegen Schockanrufe

Laut Polizei sind Schockanrufe ein wachsendes Problem in Hamburg. Im vergangenen Jahr erbeuteten Betrüger vier Millionen Euro. mehr

Senior übergibt einem Täter Geld an der Haustür © imago images

Enkeltrick und Co: Wie Kriminelle Senioren betrügen

Am Telefon, per WhatsApp oder an der Haustür versuchen Betrüger, ihren Opfern Geld abzunehmen. So erkennt man gängige Maschen. mehr

Dieses Thema im Programm:

Markt | 24.07.2023 | 20:15 Uhr

Schlagwörter zu diesem Artikel

Künstliche Intelligenz (KI)

Cyberkriminalität

Mehr Verbrauchertipps

Nahaufnahme eines Weihnachtsbaumständers, in dem der Stamm einer geschmückten Tanne steht. © picture alliance / dpa Themendienst | Andrea Warnecke Foto: Andrea Warnecke

Christbaumständer: Worauf achten beim Kauf?

Der geschmückte Tannenbaum soll gerade und sicher stehen. Welcher Weihnachtsbaumständer hält am besten? Tipps für den Kauf. mehr