
KI-Stimmen autorisieren Banktransaktionen ohne Wissen der Opfer
Der International AI Safety Report dokumentiert konkrete Fälle, in denen KI-generierte Stimmklone genutzt wurden, um Finanztransaktionen zu genehmigen – ohne Zustimmung der Betroffenen.
Quick Facts
Finanzsysteme weltweit genehmigen Transaktionen auf Basis von Spracherkennung – und Kriminelle haben eine Methode gefunden, genau diese Verifikation zu fälschen. Der International AI Safety Report dokumentiert konkrete Fälle, in denen KI-generierte Audioaufnahmen der Stimmen von Opfern genutzt wurden, um Geldüberweisungen zu autorisieren, die die Betroffenen nie veranlasst hatten.
Die Stimme ist kein sicherer Beweis mehr
Seit Jahren verwenden Banken und Finanzinstitute die Stimme als einen biometrischen Sicherheitsfaktor, um Konten zu schützen und große Transaktionen zu genehmigen. Die Logik schien unangreifbar: Die Stimme ist einzigartig, und es ist schwer, sie präzise genug zu imitieren, um ein automatisiertes System zu täuschen.
Diese Logik gilt nicht mehr. Moderne Voice-Cloning-Technologie ist in der Lage, die Stimme eines Menschen aus wenigen Sekunden authentischem Tonmaterial zu rekonstruieren – einer Sprachnachricht, einem Social-Media-Beitrag, einem Interview. Die resultierende Audiodatei ist keine grobe Imitation. Sie ist eine präzise Kopie, die selbst fortschrittliche Verifikationssysteme konsequent als echt einstufen.
Das ist keine theoretische Bedrohung. Es ist eine dokumentierte Angriffsmethode.

