Kriminyt Logo
  • Podcasts Film & Serier Bøger
  • Nyheder
Kriminyt Logo

Alt om true crime – ét sted

© 2026 KrimiNyt

Mother receives AI-cloned voice call claiming her daughter was kidnapped, 2023

AI-stemmekloning ringede til hendes telefon: Jennifer DeStefanos virtuelle kidnappingssag

Af
Susanne Sperling
Published
July 12, 2023 at 10:00 AM

I marts 2023 modtog Jennifer DeStefano et opkald fra det, hun troede var hendes teenagedt datters stemme — gråd og ordene "Mor! Jeg har lavet en fejl!" En mandsstemme fortalte hende derefter, at han havde kidnappet hendes datter og krævede løsesum. Destefanos datter var i sikkerhed på en skiferie, og stemmen var fuldt AI-genereret. Sagen — en af de første offentligt dokumenterede tilfælde af AI-stemmekloning brugt i virtuel kidnapningsvindel — førte til, at DeStefano afgav vidneforklaring for det amerikanske senats specielle udvalg om aldring.

Opkaldet

DeStefano var i et dansestudie med sin yngre datter, da hendes telefon ringede. Opkalder-ID viste hendes ældre datters Briannas nummer. Stemmen i røret var uadskillelig fra Briannas — samme rytme, samme intonation, samme følelsesmæssige register. DeStefano fortalte i interviews, at hun ingen tvivl havde om, at det var hendes datter.

Sekunder senere kom en mandsstemme på linjen. Han hævdede at have Brianna. Han krævede en million dollars, som han sænkede til 50.000 dollars. Han instruerede DeStefano i ikke at lægge på.

Andre forældre i studiet hjalp hende med at ringe til Briannas telefon fra en anden enhed. Brianna tog telefonen. Hun havde det godt. Hun var i Utah. Det opkald, der havde lydt umiskendeligt som hende, var fabrikeret fuldstændig fra syntetiseret lyd.

Teknologien bag

AI-stemmekloningssystemer kan generere en overbevisende kopi af en persons stemme fra blot et par sekunder lyd. Fra 2023 kunne offentligt tilgængelige værktøjer producere dette output i realtid, så kriminelle kunne reagere dynamisk under et live opkald frem for at afspille forudindspillede klip.

Kildematerialet hentes typisk fra offentligt tilgængeligt indhold — sociale medieklip, YouTube-videoer, TikToks, talebeskeder — som målet eller dets familiemedlemmer har lagt online. En teenager, der poster regelmæssigt på sociale medier, kan have stillet hundredvis af timers stemmdata til rådighed uden bevidsthed om, at det kan misbruges.

FBI udsendte vejledning i 2023, hvori det fremgik, at virtuelle kidnappingssvindler med AI-genererede stemmer var stigende i hyppighed, særligt rettet mod forældre og bedsteforældre. Opkaldere bruger typisk højprestaktikker — insisterer på at opkaldet forbliver åbent, hævder at ethvert forsøg på verifikation vil bringe offeret i fare — for at forhindre mål i uafhængigt at bekræfte familiemedlemmets sikkerhed.

Senatsvidneudsagn

DeStefano afgav vidneforklaring for det amerikanske senats særlige udvalg om aldring i juli 2023 og beskrev opkaldet i detaljer. Hun fortalte senatorerne, at oplevelsen var uadskillelig fra at modtage et ægte nødopkald fra sin datter.

"Jeg havde ingen måde at vide, at dette ikke var Brianna," vidnede hun. "Stemmen var perfekt."

Hvorfor dette er agent crime

DeStefano-sagen er strukturelt forskellig fra tidligere virtuelle kidnappingsvindler, hvor opkaldere brugte skriptet dialog og håbede, at ofre selv ville udfylde de følelsesmæssige detaljer. AI-stemmmodellen fungerede som en syntetisk agent — den producerede realtidstale, der efterlignede en bestemt person uden at kræve menneskelig stemmeimitation.

Forbrydelsen krævede ikke en dygtig stemmeskuespiller, lang forberedelsestid eller fysisk adgang til offeret. Den krævede lydprøver hentet fra offentlige platforme og et realtidssynteseværktøj. Begge var kommercielt tilgængelige i 2023.

Efterhånden som synteseteknologien forbedres og barrieren for at skabe overbevisende stemmekloner fortsætter med at falde, forventes denne kategori af kriminalitet at skalere. DeStefano-sagen blev bredt dækket. De fleste sager bliver det ikke.

Læs også

Boardroom used in deepfake video conference scam, Hong Kong 2024
Agent Crime

Deepfake-CFO-opkald: Svindlere stjal 215 millioner kroner i Hongkong

Kriminelle bruger AI-agenter til at finde sårbarheder i software
Artikel

Kriminelle bruger AI-agenter til at finde sårbarheder i software

AI-agenter finder 77% af softwaresårbarheder i automatiserede angreb
Artikel

AI-agenter finder 77% af softwaresårbarheder i automatiserede angreb

Relateret indhold
Boardroom used in deepfake video conference scam, Hong Kong 2024

Deepfake-CFO-opkald: Svindlere stjal 215 millioner kroner i Hongkong

Kriminelle bruger AI-agenter til at finde sårbarheder i software

Kriminelle bruger AI-agenter til at finde sårbarheder i software

AI-agenter finder 77% af softwaresårbarheder i automatiserede angreb

AI-agenter finder 77% af softwaresårbarheder i automatiserede angreb

AI-systemer udfører kontofryning uden menneskelig godkendelse

AI-systemer udfører kontofryning uden menneskelig godkendelse

Advertisement

Susanne Sperling

Admin

Share this post:
Mother receives AI-cloned voice call claiming her daughter was kidnapped, 2023

AI-stemmekloning ringede til hendes telefon: Jennifer DeStefanos virtuelle kidnappingssag

Af
Susanne Sperling
Published
July 12, 2023 at 10:00 AM

I marts 2023 modtog Jennifer DeStefano et opkald fra det, hun troede var hendes teenagedt datters stemme — gråd og ordene "Mor! Jeg har lavet en fejl!" En mandsstemme fortalte hende derefter, at han havde kidnappet hendes datter og krævede løsesum. Destefanos datter var i sikkerhed på en skiferie, og stemmen var fuldt AI-genereret. Sagen — en af de første offentligt dokumenterede tilfælde af AI-stemmekloning brugt i virtuel kidnapningsvindel — førte til, at DeStefano afgav vidneforklaring for det amerikanske senats specielle udvalg om aldring.

Opkaldet

DeStefano var i et dansestudie med sin yngre datter, da hendes telefon ringede. Opkalder-ID viste hendes ældre datters Briannas nummer. Stemmen i røret var uadskillelig fra Briannas — samme rytme, samme intonation, samme følelsesmæssige register. DeStefano fortalte i interviews, at hun ingen tvivl havde om, at det var hendes datter.

Sekunder senere kom en mandsstemme på linjen. Han hævdede at have Brianna. Han krævede en million dollars, som han sænkede til 50.000 dollars. Han instruerede DeStefano i ikke at lægge på.

Andre forældre i studiet hjalp hende med at ringe til Briannas telefon fra en anden enhed. Brianna tog telefonen. Hun havde det godt. Hun var i Utah. Det opkald, der havde lydt umiskendeligt som hende, var fabrikeret fuldstændig fra syntetiseret lyd.

Teknologien bag

AI-stemmekloningssystemer kan generere en overbevisende kopi af en persons stemme fra blot et par sekunder lyd. Fra 2023 kunne offentligt tilgængelige værktøjer producere dette output i realtid, så kriminelle kunne reagere dynamisk under et live opkald frem for at afspille forudindspillede klip.

Kildematerialet hentes typisk fra offentligt tilgængeligt indhold — sociale medieklip, YouTube-videoer, TikToks, talebeskeder — som målet eller dets familiemedlemmer har lagt online. En teenager, der poster regelmæssigt på sociale medier, kan have stillet hundredvis af timers stemmdata til rådighed uden bevidsthed om, at det kan misbruges.

FBI udsendte vejledning i 2023, hvori det fremgik, at virtuelle kidnappingssvindler med AI-genererede stemmer var stigende i hyppighed, særligt rettet mod forældre og bedsteforældre. Opkaldere bruger typisk højprestaktikker — insisterer på at opkaldet forbliver åbent, hævder at ethvert forsøg på verifikation vil bringe offeret i fare — for at forhindre mål i uafhængigt at bekræfte familiemedlemmets sikkerhed.

Senatsvidneudsagn

DeStefano afgav vidneforklaring for det amerikanske senats særlige udvalg om aldring i juli 2023 og beskrev opkaldet i detaljer. Hun fortalte senatorerne, at oplevelsen var uadskillelig fra at modtage et ægte nødopkald fra sin datter.

"Jeg havde ingen måde at vide, at dette ikke var Brianna," vidnede hun. "Stemmen var perfekt."

Hvorfor dette er agent crime

DeStefano-sagen er strukturelt forskellig fra tidligere virtuelle kidnappingsvindler, hvor opkaldere brugte skriptet dialog og håbede, at ofre selv ville udfylde de følelsesmæssige detaljer. AI-stemmmodellen fungerede som en syntetisk agent — den producerede realtidstale, der efterlignede en bestemt person uden at kræve menneskelig stemmeimitation.

Forbrydelsen krævede ikke en dygtig stemmeskuespiller, lang forberedelsestid eller fysisk adgang til offeret. Den krævede lydprøver hentet fra offentlige platforme og et realtidssynteseværktøj. Begge var kommercielt tilgængelige i 2023.

Efterhånden som synteseteknologien forbedres og barrieren for at skabe overbevisende stemmekloner fortsætter med at falde, forventes denne kategori af kriminalitet at skalere. DeStefano-sagen blev bredt dækket. De fleste sager bliver det ikke.

Læs også

Boardroom used in deepfake video conference scam, Hong Kong 2024
Agent Crime

Deepfake-CFO-opkald: Svindlere stjal 215 millioner kroner i Hongkong

Kriminelle bruger AI-agenter til at finde sårbarheder i software
Artikel

Kriminelle bruger AI-agenter til at finde sårbarheder i software

AI-agenter finder 77% af softwaresårbarheder i automatiserede angreb
Artikel

AI-agenter finder 77% af softwaresårbarheder i automatiserede angreb

Relateret indhold
Boardroom used in deepfake video conference scam, Hong Kong 2024

Deepfake-CFO-opkald: Svindlere stjal 215 millioner kroner i Hongkong

Kriminelle bruger AI-agenter til at finde sårbarheder i software

Kriminelle bruger AI-agenter til at finde sårbarheder i software

AI-agenter finder 77% af softwaresårbarheder i automatiserede angreb

AI-agenter finder 77% af softwaresårbarheder i automatiserede angreb

AI-systemer udfører kontofryning uden menneskelig godkendelse

AI-systemer udfører kontofryning uden menneskelig godkendelse

Advertisement

Susanne Sperling

Admin

Share this post: