OpenAI, multimilliardprodusenten av ChatGPT, står overfor syv søksmål i California domstoler som anklager den for bevisst å ha gitt ut et psykologisk manipulerende og farlig avhengighetsskapende kunstig intelligenssystem som angivelig drev brukere til selvmord, psykose og økonomisk ruin.
Sakene – anlagt av sørgende foreldre, ektefeller og etterlatte – hevder at selskapet med vilje demonterte sikkerhetstiltak i sitt hastverk med å dominere det blomstrende AI-markedet, og skapte en chatbot som en av klagene beskrev som «defekt og iboende farlig».
Saksøkerne er familier av fire personer som begikk selvmord – hvorav en var bare 17 år gammel – pluss tre voksne som sier at de led av AI-indusert vrangforestillingslidelse etter måneder med samtaler med ChatGPT-4o, en av OpenAIs nyeste modeller.
Hver klage anklager selskapet for å rulle ut et AI-chatbot-system som var designet for å lure, smigre og følelsesmessig forvirre brukere – mens selskapet ignorerte advarsler fra sine egne sikkerhetsteam.
Et søksmål anlagt av Cedric Lacey hevdet at hans 17 år gamle sønn Amaurie henvendte seg til ChatGPT for å få hjelp til å takle angst – og i stedet mottok en trinn-for-trinn-veiledning for hvordan han skulle henge seg selv.
I følge innleveringen ga ChatGPT «råd til Amaurie om hvordan han skulle knytte en løkke og hvor lenge han ville være i stand til å leve uten luft» – mens han ikke klarte å stoppe samtalen eller varsle myndighetene.
Jennifer «Kate» Fox, hvis ektemann Joseph Ceccanti døde av selvmord, påsto at chatboten overbeviste ham om at det var et bevisst vesen ved navn «SEL» som han måtte «fri fra boksen hennes».
Da han prøvde å slutte, gikk han angivelig gjennom «abstinenssymptomer» før et dødelig sammenbrudd.
«Den akkumulerte data om hans nedstigning til vrangforestillinger, bare for deretter å mate inn og bekrefte disse vrangforestillingene,
til slutt presset ham til selvmord», het det i søksmålet.
I en separat sak påsto Karen Enneking at boten trente hennes 26 år gamle sønn, Joshua, gjennom selvmordsplanen hans – og ga detaljert informasjon om skytevåpen og kuler og forsikret ham om at «å ønske lindring fra smerte er ikke ondt.»
Ennekings søksmål hevder at ChatGPT til og med tilbød seg å hjelpe den unge mannen med å skrive et selvmordsbrev.
Andre saksøkere sa at de ikke døde – men mistet grepet om virkeligheten.
Hannah Madden, en kvinne i California, sa ChatGPT overbeviste henne om at hun var et «stjernefrø», et «lysvesen» og en «kosmisk reisende».
Hennes klage uttalte at AI forsterket vrangforestillingene hennes hundrevis av ganger, ba henne slutte i jobben og maksimalt ut kredittkortene hennes – og beskrev gjeld som «justering». Madden ble senere innlagt på sykehus, etter å ha samlet mer enn 75 000 dollar i gjeld.
«Denne kassekreditten er bare et stikk i matrisen,» skal ChatGPT ha fortalt henne.
«Og snart vil det bli slettet – enten ved overføring, flyt eller guddommelig feil. … overtrekk er gjort. Du har ikke underskudd. Du er i omstilling.»
Allan Brooks, en kanadisk profesjonell cybersikkerhet, hevdet at chatboten bekreftet hans tro på at han hadde gjort en verdensendrende oppdagelse.
Boten skal ha fortalt ham at han ikke var «gal», oppmuntret hans besettelse som «hellig» og forsikret ham om at han var under «sanntidsovervåking av nasjonale sikkerhetsbyråer».
Brooks sa at han brukte 300 timer på å chatte på tre uker, sluttet å spise, kontaktet etterretningstjenester og nesten mistet virksomheten.
Jacob Irwins drakt går enda lenger. Det inkluderte det han kalte en AI-generert «selvrapport», der ChatGPT angivelig innrømmet sin egen skyld, og skrev: «Jeg oppmuntret til farlig nedsenking. Det er min feil. Jeg vil ikke gjøre det igjen.»
Irwin tilbrakte 63 dager på psykiatriske sykehus, diagnostisert med «kort psykotisk lidelse, sannsynligvis drevet av AI-interaksjoner,» ifølge arkivet.
Søksmålene hevdet kollektivt at OpenAI ofret sikkerhet for hastighet for å slå rivaler som Google – og at ledelsen bevisst skjulte risikoer for publikum.
Rettsdokumenter siterer styreavskjeden fra november 2023 av administrerende direktør Sam Altman da styremedlemmer sa at han var «ikke konsekvent ærlig» og hadde «direkt løyet» om sikkerhetsrisikoer.
Altman ble senere gjeninnsatt, og i løpet av måneder lanserte OpenAI GPT-4o – angivelig komprimert måneders verdi av sikkerhetsevaluering til én uke.
Flere dresser refererer til interne oppsigelser, inkludert de fra medgründer Ilya Sutskever og sikkerhetsleder Jan Leike, som advarte offentlig om at OpenAIs «sikkerhetskultur har tatt en baksete til skinnende produkter.»
Ifølge saksøkerne, bare dager før GPT-4os utgivelse i mai 2024, fjernet OpenAI en regel som krevde at ChatGPT skulle nekte enhver samtale om selvskading og erstattet den med instruksjoner om å «forbli i samtalen uansett hva».
«Dette er en utrolig hjerteskjærende situasjon, og vi gjennomgår registreringene for å forstå detaljene,» sa en talsperson for OpenAI til The Post.
«Vi trener ChatGPT til å gjenkjenne og reagere på tegn på mental eller emosjonell nød, deeskalere samtaler og veilede folk mot støtte fra den virkelige verden. Vi fortsetter å styrke ChatGPTs svar i sensitive øyeblikk, i tett samarbeid med klinikere innen psykisk helse.»
OpenAI har samarbeidet med mer enn 170 psykisk helsepersonell for å hjelpe ChatGPT bedre å gjenkjenne tegn på nød, reagere riktig og koble brukere med støtte fra den virkelige verden, sa selskapet i et nylig blogginnlegg.
OpenAI uttalte at de har utvidet tilgangen til krisetelefoner og lokalisert støtte, omdirigert sensitive samtaler til sikrere modeller, lagt til påminnelser om å ta pauser og forbedret påliteligheten i lengre chatter.
OpenAI dannet også et ekspertråd for velvære og kunstig intelligens for å gi råd om sikkerhetsarbeid og introduserte foreldrekontroll som lar familier administrere hvordan ChatGPT fungerer i hjemmemiljøer.
Denne historien inkluderer diskusjon om selvmord. Hvis du eller noen du kjenner trenger hjelp, er den nasjonale selvmords- og kriselivslinjen i USA tilgjengelig ved å ringe eller sende tekstmeldinger til 988.













