Det er en ny AI-trend som får oss til å lure på om den kjenner oss litt for godt.

Over hele verden har folk tatt til å be AI-plattformen, ChatGPT, om å lage en karikatur av dem basert på det den allerede vet om dem.

Denne informasjonen kommer vanligvis fra chatloggen deres, men nøyaktigheten kan være ganske forbløffende.

Brukere på X har delt karikaturene sine og pekt på hvor godt de har blitt fanget opp av AI-verktøyet.

Mange vil ha ting i bakgrunnen som avrunder bildet med ekstra detaljer: bøker med uhyggelige titler, skjermer med grafer eller redigeringsprogramvare avbildet på dem, flagg og til og med fantasifotballstatistikk kan sees i bakgrunnen av karikaturbildene.

Mens lignende bilder kan lages i apper som Cartoonify, tilbyr ChatGPT vrien med å bevise hvor godt den «kjenner» deg basert på det du tidligere har spurt eller søkt på på plattformen.

Spenningen rundt trenden føles imidlertid litt paradoksal, gitt bekymringen mange mener at AI «vet for mye.»

Hvis den kjenner oss bedre enn vi kjenner oss selv, hva betyr det for personvernet vårt, og hva AI-plattformer velger å gjøre med dataene vi gir dem?

Selv om det virker som en harmløs trend, er AI-plattformer ikke bundet av konfidensialitetsavtaler slik leger, advokater og psykologer er.

David Grover, seniordirektør for Cyber ​​Initiatives ved Baylor University, fortalte KWTX at når du laster opp informasjon, mister du kontrollen over den.

«Generelt kommer alle til å lagre informasjonen din, og den informasjonen kommer til å gå inn i en slags lagring, og på det tidspunktet vet du egentlig ikke hva selskapet gjør med informasjonen din,» forklarte han.

«Du må være forsiktig med ethvert bilde du legger inn og alt du legger ut på nettet fordi det blir den du er, og jo mer vi kommer inn i den digitale verden, jo mer utfordrende vil det bli å beskytte.»

Dele
Exit mobile version