
AI-stemmer bruges til at autorisere svindeltransaktioner
Ny rapport dokumenterer, hvordan kriminelle kloner ofres stemmer og narrer finansielle systemer til at godkende overførsler
Finansielle systemer verden over autoriserer transaktioner på baggrund af stemmegenkendelse — og kriminelle har fundet en metode til at forfalske netop den verifikation. International AI Safety Report dokumenterer konkrete tilfælde, hvor AI-genererede lydklip af ofres stemmer er blevet brugt til at godkende pengeoverførsler, som ofrene aldrig har bedt om.
Stemmen er ikke længere et sikkert bevis
I årevis har banker og finansielle institutioner brugt stemme som én af de biometriske sikkerhedsfaktorer, der skal beskytte konti og godkende store transaktioner. Logikken har virket uangribelig: din stemme er unik, og det er svært at efterligne den præcist nok til at narre et automatiseret system.
Den logik holder ikke længere. Moderne voice cloning-teknologi er i stand til at rekonstruere et menneskes stemme fra blot få sekunders autentisk lydmateriale — en telefonbesked, et opslag på sociale medier, et interview. Den resulterende lydfil er ikke en grov imitation. Det er en præcis kopi, som selv avancerede verifikationssystemer konsekvent fejlidentificerer som ægte.
Det er ikke en teoretisk trussel. Det er en dokumenteret angrebsmetode.
Autonome agenter gør problemet større
Det, der adskiller den nuværende bølge af

