Politi advarer mod "bekendt i knibe-svindel"

Du bør starte alle dine samtaler med familie og venner med et særligt kodeord. Det er den eneste sikre måde til at undgå den nye svindel, hvor du narres til at tro, at en bekendt er i knibe

Selvom du får et telefonopkald fra et familiemedlem, er det faktisk ikke sikkert, at du snakker med den, du tror.

© Shutterstock

Deepfake-teknologien er både imponerende og meget skræmmende.

Det er den teknologi, hvor man bruger videoklip og kunstig intelligens til at lave falske videoer, hvor fx kendte mennesker siger ting, de aldrig har sagt som i denne virale video af Facebooks Mark Zuckerberg fra 2019.

Deepfake-teknologien bruges dog også af svindlere, der udgiver sig for at være personer, de ikke er, og nu advarer FBI om, at teknologien bliver brugt på en ny og skræmmende måde.

Svindlerne bruger nemlig deepfake-teknologien og kunstig intelligens til at efterligne kendte stemmer og narre dig over telefonen. På dansk kaldes metoden for "bekendt i knibe-svindel."

Det betyder, at du kan modtage et opkald fra en person, der lyder præcis som din ægtefælle, dit barn eller en nær ven – men i virkeligheden er en svindler.

FBI advarer derfor om, at du skal tage helt bestemte forholdsregler mod denne form for svindel.

Deepfake-svindel: Når AI imiterer din familie

FBI har registreret flere sager, hvor personer har modtaget telefonopkald fra stemmer, der lød præcis som en ægtefælle, forælder eller ven, som bad om økonomisk hjælp i en nødsituation.

For eksempel blev en 82-årig mand i Sugar Land, Texas, snydt for 17.000 dollar, da svindlere brugte AI til at klone stemmen af hans svigersøn, som angiveligt havde været involveret i et trafikuheld og fik ham til at overføre penge.

I panik overførte manden pengene, men fandt senere ud af, at det var en svindler, der havde brugt en AI-genereret stemme til at narre ham.

Sådan fungerer AI-svindlen

Det starter med, at svindlerne udser sig et offer og en person, som denne har en tæt relation til, fx et barn eller en ægtefælle. Herefter indsamler svindlerne videoer af denne person, fx fra sociale medier.

Ved hjælp af deepfake-teknologi og kunstig intelligens kan de kriminelle genskabe stemmen på baggrund af de indsamlede videoer. Herefter kan de få stemmen til at sige det, de ønsker.

Offeret modtager så et opkald fra en stemme, der lyder som en kendt person, og bliver bedt om at overføre penge eller dele følsomme oplysninger.

Sådan beskytter du dig mod "bekendt i knibe-svindel"

Der er flere ting, du kan gøre for at undgå at gå i fælden og blive snydt, men særligt anbefaler FBI, at du og din familie tager én vigtig forholdsregel: Lav en hemmelig kode, som kun I kender.

Med en unik kode kan I altid verificere, hvem det rent faktisk er, du snakker med.

Det kan fx være en bestemt sætning eller talkombination, som er svær for en svindler at gætte. Hvis du modtager et mistænkeligt opkald, kan du bede personen om at sige koden for at bekræfte identiteten.

Hvis de ikke kender den, er der altså højst sandsynligt tale om svindel.

Meld til politiet, hvis du bliver snydt

Vær desuden altid skeptisk over for følelsesladede opkald. Svindlere spiller ofte på frygt og panik.

Hvis nogen ringer og hævder at være i fare, så stop op og tænk. Ring tilbage til personen på et kendt nummer for at bekræfte historien.

Hvis du bliver udsat for et forsøg på deepfake-svindel, skal du rapportere det til politiet og relevante myndigheder såsom din bank, hvis du har overført penge.

Deepfake-svindel er et voksende problem

Ifølge FBI er deepfake-svindel et stigende problem, og teknologien bliver kun mere avanceret. Tidligere har svindlere hovedsageligt brugt e-mails og tekstbeskeder til phishing, men nu bevæger de sig over på stemmegenkendelse og AI-manipulation.

En undersøgelse fra University College London har tidligere rangeret deepfake-teknologi blandt de mest farlige former for cyberkriminalitet, da den er svær at opdage og kan skabe stor forvirring og økonomiske tab.

Og en nyere undersøgelse fra samme institution har desuden vist, at det er svært for helt almindelige mennesker at opdage falske stemmer.