Telefonsvindel har eksistert en stund, men nyere fremskritt innen kunstig intelligens-teknologi gjør det lettere for dårlige skuespillere å overbevise folk om at de har kidnappet sine kjære.

Svindlere bruker kunstig intelligens for å gjenskape stemmene til folks familiemedlemmer i falske kidnappingsopplegg som overbeviser ofrene til å sende penger til svindlerne i bytte for deres kjæres sikkerhet.

Ordningen var nylig rettet mot to ofre i et skoledistrikt i staten Washington.

Highline Public Schools i Burien, Washington, utstedte et varsel 25. september som varslet fellesskapsmedlemmer om at de to personene ble målrettet av «svindlere som feilaktig hevdet at de kidnappet et familiemedlem».

«Svindlerne spilte [AI-generated] lydopptak av familiemedlemmet, og krevde deretter løsepenger,» skrev skoledistriktet. «Federal Bureau of Investigation (FBI) har registrert en landsomfattende økning i disse svindelene, med et spesielt fokus på familier som snakker et annet språk enn engelsk.»

I juni vitnet Arizonas mor Jennifer DeStefano for kongressen om hvordan svindlere brukte AI for å få henne til å tro at datteren hennes hadde blitt kidnappet i et utpressingskomplott på 1 million dollar. Hun begynte med å forklare sin beslutning om å svare på et anrop fra et ukjent nummer en fredag ​​ettermiddag.

«Jeg svarte på telefonen «Hei». I den andre enden var datteren vår Briana hulket og gråt og sa: «Mamma,» skrev DeStefano i sitt kongressvitnesbyrd. «Først tenkte jeg ingenting på det. … Jeg spurte henne tilfeldig hva som skjedde da jeg hadde henne på høyttaleren som gikk gjennom parkeringsplassen for å møte søsteren hennes. Briana fortsatte med: «Mamma, jeg rotet til» med mer gråt og hulking.»

På den tiden hadde DeStefano ingen anelse om at en dårlig skuespiller hadde brukt AI for å gjenskape datterens stemme på den andre linjen.

Hun hørte da en mannsstemme i den andre enden som ropte krav til datteren hennes, da Briana – i det minste stemmen hennes – fortsatte å skrike at slemme menn hadde «tatt» henne.

«En truende og vulgær mann tok over samtalen. «Hør her, jeg har datteren din, fortell det til hvem som helst, ring politiet, jeg skal pumpe magen hennes så full av narkotika, jeg skal ha min vilje med henne, slippe henne inn [M]exico og du vil aldri se henne igjen!’ hele tiden Briana var i bakgrunnen og ba desperat: ‘Mamma, hjelp meg!’» skrev DeStefano.

Mennene krevde 1 million dollar i løsepenger i bytte for Brianas sikkerhet da DeStefano prøvde å kontakte venner, familie og politi for å hjelpe henne med å finne datteren. Da DeStefano fortalte svindlerne at hun ikke hadde 1 million dollar, krevde de 50 000 dollar i kontanter for å bli hentet personlig.

Mens disse forhandlingene pågikk, fant DeStefanos mann Briana trygt hjemme i sengen sin uten kunnskap om svindelen som involverte hennes egen stemme.

«Hvordan kunne hun være trygg hos faren sin og likevel være i besittelse av kidnappere? Det ga ingen mening. Jeg måtte snakke med Brie,» skrev DeStefano. «Jeg kunne ikke tro at hun var trygg før jeg hørte stemmen hennes si at hun var det. Jeg spurte henne om og om igjen om det virkelig var henne, om hun var virkelig trygg, igjen, er dette virkelig Brie? Er du sikker på at du er virkelig trygg?! Tankene mine snurret. Jeg husker ikke hvor mange ganger jeg trengte trygghet, men da jeg endelig tok tak i det faktum at hun var trygg, ble jeg rasende.»

DeStefano avsluttet sitt vitnesbyrd med å merke seg hvordan AI gjør det vanskeligere for mennesker å tro sine egne øyne og høre med sine egne ører – spesielt i virtuelle omgivelser eller på telefonen.

Dårlige skuespillere har rettet mot ofre over hele USA og rundt om i verden. De er i stand til å replikere en persons stemme gjennom to hovedtaktikker: For det første ved å samle inn data fra en persons stemme hvis de svarer på et ukjent anrop fra svindlere, som deretter vil bruke AI til å manipulere den samme stemmen til å si hele setninger; og for det andre ved å samle inn data fra en persons stemme gjennom offentlige videoer lagt ut på sosiale medier.

Det sier Beenu Arora, administrerende direktør og styreleder i Cyble, et cybersikkerhetsselskap som bruker AI-drevne løsninger for å stoppe dårlige aktører.

«Så du snakker i utgangspunktet med dem, forutsatt at det er noen som prøver å ha en samtale, eller … en telefonsamtale, for eksempel. Hensikten er å få de riktige dataene gjennom stemmen din, som de videre kan gå og etterligne … gjennom en annen AI-modell,” forklarte Arora. «Og dette blir mye mer fremtredende nå.»

Han la til at «å trekke ut lyd fra en video» på sosiale medier «ikke er så vanskelig.»

«Jo lenger du snakker, jo mer data samler de inn,» sa Arora om svindlerne, «og også færre stemmemodulasjoner og slangen din og hvordan du snakker om. Men … når du kommer på disse spøkelsessamtalene eller blanke samtalene, anbefaler jeg faktisk å ikke snakke mye.»

National Institutes of Health (NIH) anbefaler mål for forbrytelsen å passe seg for samtaler som krever løsepenger fra ukjente retningsnumre eller numre som ikke er offerets telefon. Disse dårlige skuespillerne strekker seg også «langt» for å holde ofrene på telefonen slik at de ikke har mulighet til å kontakte myndighetene. De krever også ofte at løsepenger sendes via en bankoverføringstjeneste.

Byrået anbefaler også personer som rammes av denne forbrytelsen å prøve å bremse situasjonen, be om å få snakke direkte med offeret, be om en beskrivelse av offeret, lytte nøye til offerets stemme og forsøke å kontakte offeret separat via samtale, tekstmelding eller direkte melding.

NIH publiserte en offentlig kunngjøring som sa at flere NIH-ansatte har blitt ofre for denne typen svindel, som «vanligvis begynner med en telefonsamtale som sier at familiemedlemmet ditt blir holdt fanget.» Tidligere hevdet svindlere at et offers familiemedlem var blitt kidnappet, noen ganger med lyden av skrik i bakgrunnen av en telefonsamtale eller videomelding.

Nylig, men på grunn av fremskritt innen AI, kan svindlere gjenskape en kjærs stemme ved å bruke videoer på sosiale medier for å få kidnappingsplottet til å virke mer ekte. Med andre ord, dårlige skuespillere kan bruke kunstig intelligens til å gjenskape en kjærs stemme, ved å bruke offentlig tilgjengelige videoer på nettet, for å få målene deres til å tro at deres familiemedlemmer eller venner har blitt kidnappet.

Oppringere gir vanligvis offeret informasjon om hvordan de kan sende penger i bytte mot at deres kjære kommer tilbake på en trygg måte, men eksperter foreslår at ofre for denne forbrytelsen tar en pause og reflekterer over om det de hører gjennom den andre linjen er ekte, selv i et øyeblikk av panikk.

«Mitt ydmyke råd … er at når du blir så snill[s] av alarmerende meldinger, eller noen prøver å presse deg eller gjøre ting [with a sense] det haster, det er alltid bedre å stoppe opp og tenke før du går,» sa Arora. «Jeg tror som et samfunn, det kommer til å bli mye mer utfordrende å identifisere ekte kontra falske, fordi bare fremskrittet vi ser.»

Arora la til at selv om det er noen AI-sentriske verktøy som brukes til proaktivt å identifisere og bekjempe AI-svindel, på grunn av det raske tempoet i denne utviklingsteknologien, er det en lang vei foran de som jobber for å hindre dårlige aktører fra å dra nytte av uvitende ofre. Alle som tror de har blitt ofre for denne typen svindel, bør kontakte deres lokale politiavdeling.

Dele
Exit mobile version