Du kan ikke skjule løgnen din AIer.

Ikke bare tar AI-slop over internett, men det er i ferd med å bli umulig å skille fra den virkelige avtalen. Forskere har funnet ut at folk ikke kan se forskjellen mellom menneskelige og AI-genererte ansikter uten spesiell opplæring, ifølge en dystopisk studie publisert i tidsskriftet Royal Society Open Science.

«Generative adversarial networks (GANs) kan skape realistiske syntetiske ansikter, som har potensial til å bli brukt til ondsinnede formål,» skrev forskerne.

Nylig blåste TikTok-brukere i fløyta på AI-genererte dypfalske leger som svindlet brukere av sosiale medier med ubegrunnet medisinsk råd.

Faktisk har disse ansiktene fra konsentrat blitt så overbevisende at folk blir lurt til å tro at de forfalskede ansiktene er reelle mer enn den ekte artefakten, rapporterer Livescience.

For å forhindre at folk blir lurt, prøver forskere å designe et fem-minutters treningsopplegg for å hjelpe brukere med å avsløre AI-mposterne, ifølge hovedforfatter av studien Katie Gray, en førsteamanuensis i psykologi ved University of Reading i Storbritannia.

Disse treningene hjelper folk med å fange feil i AI-genererte ansikter, for eksempel at ansiktet har en mellomtann, en bisarr hårfeste eller en unaturlig hudtekstur. Disse falske ansiktene er ofte mer proporsjonale enn deres godtroende motparter.

Teamet testet ut teknikken ved å kjøre en serie eksperimenter som kontrasterte ytelsen til en gruppe typiske gjenkjennere og supergjenkjennere – definert som de som utmerker seg i ansiktsgjenkjenningsoppgaver.

De sistnevnte deltakerne, som var hentet fra frivilligdatabasen Greenwich Face and Voice Recognition Laboratory, hadde angivelig rangert blant de øverste 2 % av individene i eksamener der de måtte huske ukjente ansikter.

I den første testen viste arrangørene et ansikt på skjermen og ga deltakerne ti sekunder på å finne ut om det var ekte eller falskt. Typiske gjenkjennere oppdaget bare 30 % av forfalskninger, mens supergjenkjennere fanget bare 41 % – mindre enn om de bare hadde gjettet tilfeldig.

Det andre eksperimentet var nesten identisk, bortsett fra at det involverte en ny gruppe marsvin som hadde fått den nevnte fem-minutters opplæringen om hvordan man oppdager feil i AI-genererte ansikter.

Testtakerne ble vist 10 ansikter og evaluert på deres AI-deteksjonsnøyaktighet i sanntid, og kulminerte med en gjennomgang av vanlige gjengivelsesfeil.

Da de deltok i det originale eksperimentet, hadde deres nøyaktighet forbedret seg med supergjenkjennere som identifiserte 64 % av fugazi-ansiktene mens deres vanlige motparter gjenkjente 51 %.

Trente deltakere brukte også lengre tid på å undersøke ansiktene før de ga sitt svar.

«Jeg synes det var oppmuntrende at vår ganske korte treningsprosedyre økte ytelsen i begge grupper ganske mye,» sa Gray.

Selvfølgelig er det noen forbehold til studien, nemlig at deltakerne ble satt på prøve umiddelbart etter trening, så det var uklart hvor mye de ville ha beholdt hadde de ventet lenger.

Ikke desto mindre er det viktig å utstyre folk med verktøy for å skille mennesker fra roboter i lys av mengden av AI-mpersonatorer som oversvømmer sosiale medier.

Og teknologiens kameleoniske dyktighet er ikke bare visuell.

Nylig hevdet forskere at språkroboten ChatGPT hadde bestått Turing-testen, noe som betyr at den i praksis ikke lenger kan skjelnes fra sine brødre av kjøtt og blod.

Dele
Exit mobile version