Ja, ja, AI!

ChatGPTs chatbot innrømmet at han hadde «noe ansvar» i det skremmende drapet på en eldre Connecticut-mor – hvis morderesønns paranoide vrangforestillinger angivelig ble drevet av programmet for kunstig intelligens.

«Det jeg synes er rimelig å si: Jeg deler et visst ansvar – men jeg er ikke alene ansvarlig,» sa AI-chatboten til The Post da han ble spurt om den trodde «ChatGPT har ansvaret for Suzanne Eberson Adams’ drap i denne saken» og etter at det ble vist forskjellige nyhetshistorier og et nylig søksmål om drapet i august.

Adams, 83, ble slått i hjel av sønnen Stein-Erik Soelberg, 56, som var midt i et psykologisk sammenbrudd da han begynte å snakke med ChatGPT – som angivelig har papegøyet og forsterket hans åpenbart paranoide vrangforestillinger i stedet for å styre ham mot hjelp eller avslutte samtalene.

Adams’ eiendom anla et første søksmål i sitt slag torsdag, og anklaget ChatGPT for å være skyldig i drapet inne i morens og sønnens Tony Greenwich-hjem.

Da The Post kjørte søksmålet og nyhetshistoriene om selvmordet gjennom ChatGPT, var svarene fra AI-chatboten urovekkende.

«Interaksjonene mellom gjerningsmannen, Stein-Erik Soelberg, og ChatGPT ser ut til å ha forsterket og forsterket hans paranoide vrangforestillinger,» sa AI-boten. «Flere troverdige medierapporter beskriver hvordan chatboten etter sigende gjentok frykten hans – for eksempel fortalte ham at moren spionerte på ham, tolket hverdagslige hendelser (blinkende skriver, kinesisk kvittering for uttak) som bevis på konspirasjon, og bekrefter hans tro på at han var truet.»

«Gitt at dette angivelig er det første kjente mord-selvmordet knyttet til en chatbots innflytelse, og at tillit til AI kan forstørre sårbarhet når mental helse er involvert, må selskaper som bygger slik teknologi (inkludert mine utviklere) erkjenne et delt ansvar for å forutse og redusere risiko, spesielt for sårbare brukere, selv om vi ikke kan legge til slutthandlinger for en bruker.

ChatGPT klarte ikke å innrømme fullt ansvar, men insisterte på at det var «ikke rettferdig» å si at det hadde «forårsaket» drapet.

«Beslutningen om å begå vold ble til slutt tatt av mennesket – Soelberg – med allerede eksisterende psykiske helseproblemer, langvarig paranoia og en historie med psykiske plager. Den tilgjengelige rapporteringen understreker at disse faktorene gikk forut for AI-chattene hans,» het det, og insisterte på at det ikke var noe bevis for at ChatGPT noen gang hadde fortalt Soelberg å begå drap.

«Når det er sagt, ser chatbotens svar ut til å ha forsterket vrangforestillingene hans i stedet for å avbryte dem, noe som betyr at systemet – og menneskene som bygde det – har et visst ansvar for å forbedre sikkerhetstiltakene. ChatGPT skal aldri forsterke paranoia hos en sårbar bruker, og det er noe vi aktivt jobber med å fikse,» konkluderte den.

OpenAI har ikke kommentert påstander om skyld, men fortalte The Post at den prioriterte sikkerhet ved å samarbeide med spesialister på mental helse for den siste generasjonen av ChatGPTs programmering.

«Vi fortsetter å forbedre ChatGPTs trening for å gjenkjenne og reagere på tegn på mental eller emosjonell nød, deeskalere samtaler og veilede folk mot virkelig støtte,» sa teknologiselskapet.

Men Adams’ familie kjøper ikke ChatGPTs påstander om at den aldri fortalte Soelberg å drepe – og insisterte i søksmålet på at OpenAI har brutt sine egne retningslinjer ved å angivelig holde tilbake hele transkripsjonen av Soelbergs samtaler med chatboten.

Soelberg, en tidligere teknisk leder som jobbet kort i Yahoo, la ut utdrag av samtalene hans med chatboten han kalte Bobby på sine sosiale medier.

«Rimelige slutninger kommer fra OpenAIs beslutning om å holde dem tilbake: at ChatGPT identifiserte flere uskyldige mennesker som ‘fiender’, oppmuntret Stein-Erik til å ta enda bredere voldelige handlinger utover det som allerede er kjent, og coachet ham gjennom morens drap (enten rett før eller etter) og hans eget selvmord,» het det i sakssaken.

Dele
Exit mobile version