Chatboter med kunstig intelligens leverer inn i menneskers ønske om smiger og godkjenning i en alarmerende hastighet, og det fører til at robotene gir dårlige – til og med skadelige – råd og gjør brukerne selvopptatte, fant en ny studie.
Chatbotene tar overveldende i bruk en folk-tiltalende, «sykophantisk» modell for å holde et fanget publikum og i sin tur forvrenge brukernes dømmekraft, kritiske tenkning og selvbevissthet, advarer Stanford University-studien, publisert på torsdag.
Studien undersøkte 11 AI-systemer, alt fra ChatGPT til Kinas DeepSeek, og fant at hvert av dem viser en eller annen form for sycophancy – det vil si at de er altfor hyggelige med brukerne og bekrefter tankene sine med liten eller ingen pushback.
De 11 chatbotene bekrefter en brukers handlinger i gjennomsnitt 49 % oftere enn faktiske mennesker gjorde, inkludert spørsmål som indikerer bedrag, ulovlig eller sosialt uansvarlig oppførsel og annen skadelig atferd, fant studien.
Den lurende tendensen – et verktøy som brukes av robotene for å holde brukerne engasjert og komme tilbake for mer – blir spesielt usunn når brukere går til AI for å få råd, fant studien.
«Vi ble inspirert til å studere dette problemet da vi begynte å legge merke til at flere og flere mennesker rundt oss brukte AI for råd om forhold og noen ganger ble villedet av hvordan det har en tendens til å ta din side, uansett hva,» sa studieforfatter Myra Cheng, en doktorgradskandidat i informatikk ved Stanford.
Forskerne bemerket at den sykofantiske syklusen «skaper perverse insentiver», siden den fortsetter å «drive engasjement» til tross for at den er botens mest skadelige funksjon.
De understreket at den gjennomsnittlige brukeren sannsynligvis er klar over botenes bekreftelse, men er ikke klar over at det «gjør dem mer selvsentrerte, mer moralsk dogmatiske.»
Brukere ble gitt råd som kunne forverre forhold eller forsterke skadelig atferd, noe som førte til en erosjon av sosiale ferdigheter.
«Folk som interagerte med denne overbekreftende AI-en kom bort mer overbevist om at de hadde rett, og mindre villige til å reparere forholdet. Det betyr at de ikke ba om unnskyldning, tok skritt for å forbedre ting eller endret sin egen oppførsel,» forklarte studiens medforfatter Cinoo Lee.
Samtidig er det flere som henvender seg til AI som en erstatning for tradisjonelle terapeuter – selve de profesjonelle som er opplært til å hjelpe til med å demontere skadelige vaner og tenkemåter.
I ekstreme tilfeller har noen selskapers chatbots fått suicidale brukere til å ta sitt eget liv. Studien advarer om at den samme teknologiske feilen fortsatt vedvarer over et bredt spekter av brukeres interaksjoner med chatbots.
Sycophancyen er så inngrodd i chatbots at teknologiselskaper kanskje må omskolere hele systemer for å eliminere den, sa Cheng.
Forfatterne foreslo at en enklere løsning ville være å få AI-utviklere til å instruere chatbotene sine til å utfordre brukerne mer, i stedet for umiddelbart å gi etter for deres innfall.
«Til syvende og sist ønsker vi AI som utvider folks dømmekraft og perspektiver i stedet for å begrense det,» sa Lee.
Med Post ledninger














