Dreister Enkeltrick mit KI: Betrüger nutzen Audio-Deepfakes
Nichts ahnend ging Annegret H. ans Telefon. Am anderen Ende: anscheinend die schluchzende Tochter, die angeblich in einen Unfall verwickelt war und nun ganz dringend 120.000 Euro braucht. Könnte die täuschend echte Stimme der Tochter mit künstlicher Intelligenz am Computer erzeugt worden sein? Hinter dieser Methode steckt mehr als ein Verdacht. Das bestätigen neue Erkenntnisse der Polizei. Audio-Deepfake heißt die Technologie. Auch bei Verbraucherzentralen häufen sich die Fälle. Markt deckt auf.