AI-chatbots blir til utilsiktede sniker – og i noen tilfeller deler de ut ekte menneskers telefonnumre til totalt fremmede.
Personverneksperter slår alarm over en urovekkende trend kalt «AI doxxing», der roboter som Google Gemini og OpenAI ChatGPT legger frem personlig kontaktinformasjon uten samtykke.
En Reddit-bruker sa at marerittet deres begynte da Googles AI angivelig begynte å gi ut deres personlige nummer som plassholder for bedrifter og tjenester.
«Ukjente ringer meg konstant på jakt etter en advokat, en produktdesigner, en låsesmed – you name it,» skrev brukeren, og la til innringere sa hele tiden: «Jeg fikk nummeret ditt fra Googles AI.»
Redditor kalte det et «massivt personvernbrudd og datalekkasje», og sa at telefonen deres hadde blitt en ustanselig hotline for forvirrede fremmede, og «Det daglige livet mitt blir fullstendig forstyrret».
«Geminis problem er ikke en defekt. Det er resultatet av ukontrollerte år med datameglerpraksis som møter generativ AI,» sa en talsperson for personvernfirmaet ClearNym til The Independent.
De bemerket at år med innsamlede personopplysninger nå kolliderer med AI-systemer som er trent på massive Internett-datasett.
«Det kommer nå tilbake som nøyaktige kopier eller til og med oppspinn og, sist, som ‘plassholder’-telefonnumre for et hvilket som helst antall fremmede,» advarte de.
Og det er ikke bare tilfeldige feil som forårsaker kaos.
Virgin Media O2 rapporterte også nylig at svindlere planter falske kundeservicenumre på nettet for AI-chatbots for å få tilbake til brukerne.
«Kriminelle vet at når folk søker etter hjelp, leter de ofte etter et raskt svar,» sa Murray Mackenzie, selskapets direktør for svindelforebygging.
«AI-verktøy skaper nye muligheter for svindlere til å lage realistiske falske tall som vises gjennom søkeresultater eller chatbots, og setter folk i fare for å ringe en kriminell i stedet for deres pålitelige leverandør.»
Forskere ved AI-sikkerhetsselskapet Aurascape fortalte The Independent at svindlere oppnår dette ved å «så forgiftet innhold» over nettet.
«Angripere omskriver stille nettet som AI-systemer leser,» sa ledende sikkerhetsforsker Qi Deng.
«Når du spør en assistent hvordan de skal ringe flyselskapet ditt, gjør det akkurat det det er designet for å gjøre, men med et kundestøtte- og reservasjonsnummer som fører rett til en svindler i stedet for det virkelige selskapet.»
Andre tilfeller virker enda mer invasive.
MIT Technology Review rapporterte at Gemini feilaktig oppførte den israelske programvareingeniøren Daniel Abrahams personlige nummer som kundestøtte for en betalingsapp.
I mellomtiden oppdaget forskere ved University of Washington Gemini kunne avsløre personlig kontaktinformasjon med alarmerende letthet.
«En dag lekte jeg bare på Gemini, og jeg lette etter Yael Eiger, min venn og samarbeidspartner,» sa PhD-student Meira Gilbert.
Gemini dukket også opp hennes private cellenummer. «Det var sjokkerende,» sa Gilbert.
Kollegaen hennes, Yael Eiger, sa at informasjonen teknisk eksisterte på nettet før – men begravd dypt nok til at nesten ingen ville finne den.
«Å ha informasjonen din … tilgjengelig for én målgruppe, og deretter Gemini gjøre den tilgjengelig for alle» føles helt annerledes, sa Eiger.
DeleteMe-sjef Rob Shavell fortalte utsalgsstedet at klager på AI som eksponerer personlige data har økt i det siste, med kunder som rapporterte chatboter som avslører «nøyaktige hjemmeadresser, telefonnumre, familiemedlemmers navn eller arbeidsgiverdetaljer.»
En talsperson for Google fortalte MIT Technology Review at selskapet har sikkerhetstiltak på plass for å forhindre at personlig informasjon vises i AI-funksjoner og vurderer forespørsler om fjerning.
Likevel sier noen brukere at det har vært vanskelig å få hjelp.
«Standard støtteskjemaer er en fullstendig blindvei,» skrev den nevnte Redditor. «Jeg har ikke mottatt et eneste svar, og trakasseringen fortsetter daglig.»
AI-personvernsrotet kommer etter hvert som svindlere i økende grad også bevæpner teknologien på andre alarmerende måter.
Som tidligere rapportert av The Post, advarte Long Island-tjenestemenn nylig om at svindlere bruker AI-stemmekloningsverktøy for å etterligne ofrenes barnebarn i desperate telefonsamtaler rettet mot eldre.
Svindlerne skal angivelig gjennomsøke TikTok og andre sosiale medieplattformer etter videoer av unge mennesker som snakker, og deretter bruke lyden til å generere realistiske falske stemmer som krever kausjonspenger eller nødpenger.
«De prøver alltid å ligge et skritt foran,» sa politisjef Kevin Catalina i Suffolk County tidligere til The Post.
Catalina advarte om at ordningene blir «mer og mer sofistikerte» ettersom AI utvikler seg, med eldre ofre som taper tusenvis av dollar på overbevisende syntetiske stemmer og falske telefonnumre.













