Det er en annen form for falsk selvtillit.
Ikke bare blir AI vanskeligere å få øye på, men nå vet vi ikke engang at vi tar feil. Australske forskere fant ut at folk blir oversikre på deres evne til å skille ekte og digitale ansikter fra hverandre, noe som kan gjøre oss utsatt for feilinformasjon og svindel.
«Folk har vært sikre på deres evne til å oppdage et falskt ansikt,» sa studieforfatter Dr. James Dunn ved University of South Wales’ School of Psychology. «Men ansiktene skapt av de mest avanserte ansiktsgenereringssystemene er ikke så lett å oppdage lenger.»
For å teste våre AI-deteksjonsevner, undersøkte australske forskerne 125 personer – 89 personer med gjennomsnittlig ansiktsidentifiseringsevne og 36 personer med eksepsjonelle evner til gjenkjennelse, kalt supergjenkjennere, ifølge studien publisert i «British Journal of Psychology.»
Deltakerne ble vist bilder av ansikter – som ble kontrollert på forhånd for åpenbare feil – og fikk dem til å avgjøre om de var ekte eller AI.
Forskere fant at personer med «gjennomsnittlig ansiktsgjenkjenningsevne» presterte bare en smule bedre enn tilfeldigheter, ifølge Dunn.
For eksempel scoret Post-marsvin ikke imponerende 3 av 6 på denne «mennesketesten», noe som betyr at vi ville ha klart det samme hvis vi hadde slått en mynt.
I mellomtiden presterte supergjenkjennere bedre enn kontrollgruppen i face-off, men det var bare med en «slank margin», ifølge Dr. Dunn.
En konstant? En feilplassert tro på deres oppdagelsesevne. «Det som var konsekvent var folks tillit til deres evne til å oppdage et AI-generert ansikt – selv når denne selvtilliten ikke ble matchet av deres faktiske ytelse,» spøkte Dunn.
En del av problemet er at AI-ansiktsteknologien har blitt så sofistikert at vi ikke kan oppdage det falske ved å bruke kjente signaler. Mens AI-ansikter tidligere hadde «forvrengte tenner, briller som smeltet sammen til ansikter» og andre «hode»-gaver, har avanserte generatorer gjort disse ufullkommenhetene mye mindre vanlige.
Men siden vi fortsatt ser etter de vanlige røde flaggene, gir dette oss den nevnte «falske» bravaden.
I dag identifiseres AI-personatorene paradoksalt nok ikke av sine feil, men av mangelen på slike.
«Ironisk nok blir de mest avanserte AI-ansiktene ikke gitt bort av det som er galt med dem, men av det som er for riktig,» sa medforfatter Dr. Amy Dawel, en psykolog ved Australian National University (ANU). «I stedet for åpenbare feil, har de en tendens til å være uvanlig gjennomsnittlige – svært symmetriske, velproporsjonerte og statistisk typiske.»
«Det er nesten som om de er for gode til å være sanne som ansikter,» beklaget hun
Og gitt hvor ofte supergjenkjennere ble lurt, er det klart at AI-deteksjon ikke er en ferdighet folk enkelt kan lære.
Vår manglende gjenkjenningsevne – så vel som vår feilplasserte tillit til dem – er bekymrende gitt fremveksten av stadig mer naturalistiske steinfiskeopplegg og andre digitale luringer. Sist vinter avslørte TikTok-brukere hyperrealistiske AI-genererte dypfalske leger som lurte brukere av sosiale medier med ubegrunnet medisinsk råd.
Som sådan må vi ha et «sunt nivå av skepsis,» ifølge Dr. Dunn. «I lang tid har vi vært i stand til å se på et fotografi og anta at vi ser en ekte person,» sa han. «Denne antagelsen blir nå utfordret.»
Forskere tror at løsningen kanskje kan ligge hos en ny type ansiktsgjenkjenningsveiviser som de utilsiktet snublet over under eksperimentet.
«Vår forskning har avslørt at noen mennesker allerede er speidere til å oppdage AI-ansikter, noe som tyder på at det kan være ‘super-AI-ansiktsdetektorer’ der ute,» sa han. «Vi ønsker å lære mer om hvordan disse menneskene er i stand til å oppdage disse falske ansiktene, hvilke ledetråder de bruker, og se om disse strategiene kan læres bort til resten av oss.»







