Pas på virtuel kidnapning af dit barn

Med nye teknologier som kunstig intelligens og machine learning, ser vi også en helt ny type cybertrusler, som man vi skal til at være på vagt overfor.

Pas på virtuel kidnapning af dit barn

Da Jennifer DeStefano’s mobil ringede, mens hun var på vej ud af sin bil, havde hun ingen ide om, hvilket mareridt hun kortvarigt skulle opleve.

Hendes 15-årige datter, Brianna, var væk på skitur, og hun tænkte, at det ukendte mobilnummer måske var et opkald fra skadestuen. Og hun tog derfor kaldet.

Desværre blev hendes ”Hallo” besvaret med enhver forældres mareridt.

En datter der grædende og ulykkelig råber: ”Mor. Hjælp mig! De onde mænd har taget mig!”. Derefter kom der en mandestemme i røret, der fortalte, at hendes datter dør, hvis ikke hun betaler løsesum til ham – alt imens hun stadig kan høre sin datter græde i baggrunden.

Efter en ubehagelig samtale, der inkluderede krav om løsesum på 1 mio. kr., en opringning til politiet fra en anden telefon og et altafgørende opkald til datteren (også via en anden telefon), hvor en forundret Brianna kunne fortælle, at alt var ok, blev kidnapningen heldigvis afsløret som rent fup.

Personen i røret havde slet ikke kidnappet Jennifers datter, men havde klonet datterens stemme, og forsøgt at afpresse moderen via en virtuel og falsk kidnapning i håbet om, at datterens desperate (men falske) stemme ville få moderen til at betale en løsesum med det samme

Vi skal vænne os til at blive kopieret

Selvom de fleste efterhånden nok har hørt om CEO-fraud, hvor it-kriminelle via mere eller mindre vellykkede e-mails forsøger at udgive sig for at være ens chef, og overtale en til overføre penge til en konto, så skaber AI og Machine Learning helt nye muligheder for de cyberkriminelle.

”De kriminelle har ikke brug for mange minutters stemmeoptagelse eller video, før de kan skabe en tro kopi af f.eks. ens barns stemme eller ansigt, og så ellers gå i gang med at afpresse folk. Og det er desværre utroligt nemt for de kriminelle at finde på nettet, da især børn og unge i dag deler en stor del af deres liv via billeder og lyd,” siger Jacob Herbst, forperson for IT-Branchens Policy Board for Cybersikkerhed.

I den pågældende sag regner man med, at de kriminelle har fundet stemmeoptagelser af Brianna på nettet – noget som hun sandsynligvis selv har lagt op på f.eks. TikTok, Facebook eller Instagram, hvorefter de it-kriminelle har brugt et generativt AI-talesoftware, som f.eks. VoiceLab til at klone hendes stemme.

Havde de kriminelle samtidig benyttet sig af AI-fotosoftware som DeepFaceLap og SIM-jacking, havde det også kunne sende falske og manipulerede billeder af datteren samt fået det til at se ud som om, at opkaldet kom fra datterens mobil.

Ved samtidig at bruge kunstig intelligens til at indsamle data fra sociale medier og derefter benytte sig af traditionelle marktingværktøjer som f.eks. Propensity modeller, kan virtuelle kidnappere relativt hurtigt identificere de ofre, der har størst tilbøjelighed til at reagere på en virtuel kidnapning. Det sparer dem ikke bare tid, men øger også deres succesrate ganske markant.

”Kriminelle har altid været nogen af de første til at benytte sig af ny teknologi, hvis det giver dem en fordel. Det gælder også med brugen af AI. Og jeg tror desværre, at vi ser ind i en virkelighed, hvor det bliver sværere at skelne virkelige opkald og videoer fra de falske,” udtaler Jacob Herbst.

Et udsagn der understøttes af, at FBI i løbet sommeren følte, at de nu var nødt til at gå ud og advare mod det stigende brug af deepfakes videoer, som kriminelle bruger til afpresning eller chikane.

Helt grundlæggende er de metoder vi bruger til at beskytte os i dag stadig anvendelige, men de skal opdateres, så de tager hensyn til de særlige udfordringer og muligheder, som kunstig intelligens byder på.

For at udgå at blive snydt ved hjælp af deepfake anbefaler Jacob Herbst bl.a. følgende:

  • Sørg for grundlæggende awareness. Medarbejdere og familie skal vide, at deepfake teknologien findes, hvordan det fungerer, og hvilke udfordringer det kan medføre
  • Uddan dig selv og andre. Hvordan man kan opdage en deepfake. Teknologien er god men ikke perfekt, så kigger man efter, kan man ofte se, der er noget galt med stemmeføring, lys eller mimik
  • Vær skeptisk. Sørg for altid at have en god sund skepsis i forhold til sociale medier og få dine nyheder fra troværdig kilder
  • Tillid er godt, men kontrol er bedre. Sørg at have gode og sikre processer. Er der den mindste tvivl, så ring tilbage og stil spørgsmål som en svindler ikke umiddelbart kan svare på

Hvis du vil vide mere

Hvis du er nysgerrig og vil vide mere om brugen af AI eller sikkerhed, kan du altid tilmelde dig nogle af vores mange events om emnet eller kontakte vores Policy Board for Cybersikkerhed.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *