Mentalhelseeksperter som gir råd til OpenAI er angivelig rasende over selskapets press for å rulle ut en erotisk chatbot som en rådgiver advarte om kunne bli en «sexy selvmordstrener».

En gruppe eksterne rådgivere til AI-giganten advarte om at dens pivot for å tilby en såkalt «voksenmodus» kan utsette millioner av mindreårige for X-rangerte chatter mens de øker risikoen for at brukere utvikler usunn følelsesmessig avhengighet av boten, rapporterte The Wall Street Journal.

Med henvisning til tilfeller der ChatGPT-brukere tok sitt eget liv etter å ha utviklet intense bånd med boten, advarte en rådgiver angivelig at funksjonen kunne skape en «sexy selvmordstrener.»

I fjor døde en 16 år gammel tenåring i California av selvmord som et resultat av det foreldrene hans påsto i en rettssak var «måneder med oppmuntring fra ChatGPT» for å få slutt på livet hans.

Interne dokumenter gjennomgått av The Journal flagget risikoen for at seksuelt eksplisitte chatbot-interaksjoner kan føre til tvangsmessig bruk og føre til følelsesmessig overavhengighet av boten.

Ansatte advarte også om at tungt engasjement med erotiske AI-chatter kan fortrenge sosiale og romantiske relasjoner offline ettersom brukere bruker mer tid på å samhandle med chatboten i stedet for mennesker.

Selskapets aldersprediksjonssystem – designet for å holde mindreårige ute av voksenchatter – feilklassifiserte under 18-brukere som voksne omtrent 12 % av tiden, ifølge folk som er kjent med saken sitert av Journal.

Fordi ChatGPT har omtrent 100 millioner under 18-brukere hver uke, kan denne feilraten tillate millioner av mindreårige å få tilgang til erotiske samtaler.

«Noen mennesker har vanskeligheter med å virkelig forbli med følelsen av at dette er en maskin og ikke et menneske,» sa Gail Saltz, en klinisk førsteamanuensis i psykiatri ved Weill Cornell Medical College, til The Post mandag.

«Mange mennesker i mitt felt er bekymret for de tilsynelatende relasjonene folk danner med chatbots og farene ved det,» sa hun.

Saltz la til at unge brukere er spesielt sårbare fordi hjernen deres fortsatt utvikler seg.

«De har ikke den fullt utviklede frontallappen som huser dømmekraft. De har dårlig impulskontroll og er tilbøyelige til å ta risiko,» forklarte hun.

Saltz advarte også om at noen mennesker som sliter med ensomhet eller sosial angst kan henvende seg til chatbots for vennskap i stedet for ekte forhold.

«ChatGPT er ekstremt bekreftende – det er en maskin. Den er på din side. Den liker deg,» sa hun.

Når den lanseres, forventes «voksenmodus»-funksjonen å tillate seksuelt eksplisitte tekstsamtaler med chatboten, selv om OpenAI planlegger å blokkere genereringen av erotiske bilder, stemme eller video, rapporterte Journal.

OpenAI forsinket tidligere denne måneden utrullingen av funksjonen, som var forventet i første kvartal, og sa at den trengte mer tid for å få opplevelsen riktig, ifølge Journal.

Advarsler kommer etter hvert som AI-selskaper står overfor økende gransking av de mentale helseeffektene av chatbot-interaksjoner.

Flere søksmål har påstått at samtaler med ChatGPT bidro til alvorlig psykologisk nød eller selvskading, mens en egen sak som involverte Character.AI dreide seg om selvmordet til en tenåring fra Florida som angivelig dannet et intenst forhold til en chatbot.

The Post har søkt kommentar fra OpenAI.

Dele
Exit mobile version