Hamburger "Tagesschau"-Sprecher von Deepfake betroffen

Stand: 11.08.2023 11:15 Uhr

Der Hamburger "Tagesschau"-Sprecher André Schünke hat ein gefälschtes Video von sich im Internet entdeckt, das für zweifelhafte Finanzwerbung genutzt wurde. Solche Deepfakes werden inzwischen vielfach verwendet - auch für betrügerische Zwecke.

Ein Video zeigt Schünke, wie er Werbung für ein Finanzanlage-Produkt macht. Er sagt dort anscheinend in einem Nachrichten-Studio: "Heute geht es um eine neue Technologie der Künstlichen Intelligenz, mit der sich Geld verdienen lässt." In 30 Tagen könne man mit 250 Euro einen Gewinn von 28.000 Euro machen, suggeriert das Bild. Das Problem: Stimme und Gesicht klingen ähnlich wie der "Tagesschau"-Sprecher, aber Stimme und Gesicht sind gefälscht.

Als er dieses Video von sich entdeckte, ging Schünke bei Instagram an die Öffentlichkeit und warnte vor der Fälschung, die ohne sein Zutun entstanden war. Er sagt: "Es bereitet mir extreme Sorgen, weil ich glaube, dass das einfach erst der Anfang ist." Denn, so fügt er hinzu: Die Künstliche Intelligenz (KI) habe ja massenhaft Videos und Gesprochenes von ihm und anderen im Internet, die genutzt werden könnten. Irgendwann, so glaubt er, werde es nicht mehr möglich sein, die von KI erstellten Sequenzen von denen echter Menschen zu unterscheiden.

Papst Franziskus im weißen Gucci-Daunen-Mantel

Mit Künstlicher Intelligenz Inhalte zu erstellen und zu verändern ist nicht neu: Über zahlreiche Apps ist es zum Beispiel möglich, in die Rolle der Marilyn Monroe zu schlüpfen mit neuem Gesicht. Immer öfter wird aber nicht der Mensch, sondern die KI kreativ. Es entstehen neu zusammengesetzte Videos und Bilder, die im Netz kursieren, so aber nie passiert sind: Papst Franziskus im weißen Gucci-Daunen-Mantel, Ex-US-Präsident Donald Trump in Handschellen.

Deepfakes werden perfekter

Solche Bilder sind eine Gefahr, denn zu unterscheiden was wahr und was falsch ist, ist fast nicht mehr möglich, sagt auch der NDR Datenjounalist Claus Hesseling. Welche Tipps gibt er Userinnen und User, um Fälschungen zu erkennen? Auf einem kleinen Handybildschirm habe man wenig Chancen, Falsches von Echtem zu unterscheiden: "Ich kann schauen, sieht die Mundbewegung irgendwie unecht aus? Sind die Augen irgendwie unecht? Hat der Mensch vielleicht sechs Finger statt fünf? Aber auch diese Sachen werden immer weniger. Das heißt, ich muss eigentlich viel mehr drauf gucken. Von welchem Absender kommt denn dieses Video?"

KI lernt Stimmen nachzumachen

Das Prinzip bei Deepfakes ist einfach: Video und Sprachaufnahmen werden in den Computer eingespeist. Mit Künstlicher Intelligenz lernt der Computer dann die Stimme nachzumachen. Durch einen eigenen Text lassen sich Inhalte erstellen, die die gezeigte Person nie gesagt hat. Was findet Nachrichtenmoderator Schünke an dieser Geschichte wichtig? "Für mich ist der Weg, einfach aufzuklären." Er habe bei Rückmeldungen auf Social Media festgestellt, dass die Leute wirklich zum Teil schockierter gewesen seien als er selbst, obwohl er ja das Opfer in diesem Video sei. Wer wirklich hinter seinem Deepfake steckt, hat Schünke bisher nicht herausgefunden.

Weitere Informationen
Eine alte Frau telefoniert © picture alliance/dpa | Karl-Josef Hildenbrand Foto: Karl-Josef Hildenbrand

Deepfakes: Wenn Betrüger die KI für den Enkeltrick nutzen

Die Stimme am Telefon klingt täuschend echt, das Enkelkind braucht Geld. Doch dahinter steckt eine neue Betrugsmasche (25.07.2023). mehr

Dieses Thema im Programm:

Hamburg Journal | 10.08.2023 | 19:30 Uhr

Schlagwörter zu diesem Artikel

Künstliche Intelligenz (KI)

Cyberkriminalität

Mehr Nachrichten aus Hamburg

Trainer Merlin Polzin vom Hamburger SV © Witters

"Deutliche Entwicklung" - HSV befördert Polzin zum Cheftrainer

Der Fußball-Zweitligist geht mit Merlin Polzin als neuem Chefcoach in die Rückrunde. Das teilte der HSV am Sonntag mit. mehr