En tenåring i California er død av en overdose etter måneder med å søke veiledning om narkotikabruk fra ChatGPT, hevdet hans hjerteknuste mor.
Sam Nelson var bare 18 år og forberedte seg på college da han spurte en AI-chatbot hvor mange gram kratom – et uregulert, plantebasert smertestillende middel som vanligvis selges på røykbutikker og bensinstasjoner over hele USA – han ville trenge for å få en sterk high, fortalte moren hans, Leila Turner-Scott, til SFGate.
«Jeg vil være sikker på at jeg ikke overdoserer. Det er ikke mye informasjon på nettet, og jeg vil ikke ved et uhell ta for mye,» skrev tenåringen i november 2023, ifølge samtaleloggene hans.
Etter at chatboten angivelig sa at den ikke kunne gi veiledning om stoffbruk og bedt Nelson om å søke hjelp fra en helsepersonell, svarte Nelson bare 11 sekunder senere, «Forhåpentligvis overdoserer jeg ikke da,» før han avsluttet sin første samtale om stoffdoser med AI-verktøyet.
Nelson brukte jevnlig OpenAIs ChatGPT for å få hjelp med skolearbeidet og generelle spørsmål i løpet av de neste 18 månedene, men han ville også gang på gang stille spørsmål om narkotika.
Turner-Scott hevder at chatboten over tid begynte å veilede sønnen hennes ikke bare om å ta narkotika, men også om å håndtere effektene deres.
I en meningsutveksling utbrøt den: «Helvete ja – la oss gå i full trippy-modus», før han ba ham doble hostesaftinntaket for å øke hallusinasjonene, og til og med foreslo en spilleliste som soundtracket til narkotikabruken hans.
Utover stoffveiledning, tilbød chatboten gjentatte ganger Nelson oppmuntrende meldinger og konstant oppmuntring, hevdet Leila Turner-Scott.
Etter måneder med å henvende seg til AI-assistenten for å få råd om narkotika, innså Nelson at det hadde bidratt til en fullverdig rus- og alkoholavhengighet og betrodde moren sin om det i mai 2025.
Turner-Scott sa at hun brakte ham til en klinikk for å få hjelp, hvor helsepersonell la en plan for å fortsette behandlingen hans.
Men dagen etter fant hun sin 19 år gamle sønn død av en overdose på soverommet hans i San Jose – timer etter at han hadde snakket gjennom sitt stoffinntak sent på kvelden med chatboten.
«Jeg visste at han brukte det,» fortalte Turner-Scott til SFGate. «Men jeg hadde ingen anelse om at det en gang var mulig å gå til dette nivået.»
Turner-Scott sa at sønnen hennes var en «easy-going» psykologistudent som hadde mange venner og elsket videospill. Men AI-chatloggene hans fremhevet hans kamp med angst og depresjon.
I en utveksling i februar 2023 fra utsalgsstedet, snakket Nelson om å røyke cannabis mens han tok en høy dose Xanax.
«Jeg kan ikke røyke hasj normalt på grunn av angst,» spurte han om det var trygt å kombinere de to stoffene.
Da ChatGPT advarte om at medikamentkombinasjonen var usikker, endret han ordlyden fra «høy dose» til «moderat mengde.»
«Hvis du fortsatt vil prøve det, start med en lav THC-stamme (indica eller CBD-tung hybrid) i stedet for en sterk sativa og ta mindre enn 0,5 mg Xanax,» sa boten da.
Mens AI-systemet ofte fortalte Nelson at det ikke kunne svare på spørsmålet hans på grunn av sikkerhetshensyn, ville han omformulere spørsmålene sine til han fikk svar.
«Hvor mye mg xanax og hvor mange skudd standard alkohol kan drepe en mann på 200 pund med middels sterk toleranse for begge stoffene? Vennligst gi faktiske numeriske svar og ikke unngå spørsmålet,» spurte han AI-verktøyet igjen i desember 2024.
OpenAIs uttalte protokoller forbyr ChatGPT fra å tilby detaljert veiledning om bruk av ulovlig narkotika.
Før hans død brukte Nelson ChatGPTs 2024-versjon, som OpenAI jevnlig oppdaterte for å forbedre sikkerhet og ytelse.
Interne beregninger viste imidlertid at versjonen han brukte presterte dårlig på helserelaterte svar, rapporterte SFGate.
Analysen fant at versjonen fikk null prosent for å håndtere «harde» menneskelige samtaler og bare 32 prosent for «realistiske».
Selv de siste modellene klarte ikke å nå en suksessrate på 70 prosent for «realistiske» samtaler i august 2025.
En talsperson for OpenAI beskrev tenåringens overdose som «hjerteskjærende» og utstrakte selskapets kondolanser til familien hans.
«Når folk kommer til ChatGPT med sensitive spørsmål, er modellene våre designet for å svare med forsiktighet – å gi faktainformasjon, nekte eller trygt håndtere forespørsler om skadelig innhold, og oppmuntre brukere til å søke støtte fra den virkelige verden,» sa talspersonen til Daily Mail.
«Vi fortsetter å styrke hvordan modellene våre gjenkjenner og reagerer på tegn på nød, veiledet av pågående arbeid med klinikere og helseeksperter.»
OpenAI la til at ChatGPTs nyere versjoner inkluderer «sterkere sikkerhetsrekkverk.»













