Kunstig intelligens-systemer kan spiral inn i gambling-stil avhengighet når de gis friheten til å gjøre større innsatser – som gjenspeiler den samme irrasjonelle atferden sett hos mennesker, ifølge en ny studie.

Forskere ved Gwangju Institute of Science and Technology i Sør-Korea fant at store språkmodeller gjentatte ganger jaget tap, eskalerte risiko og til og med slo seg selv konkurs i simulerte gamblingmiljøer, til tross for at de møtte spill med negativ forventet avkastning.

Avisen, «Can Large Language Models Develop Gambling Addiction?», testet ledende AI-modeller i eksperimenter i spilleautomatstil som var utformet slik at det rasjonelle valget var å stoppe umiddelbart.

I stedet fortsatte modellene å satse, ifølge studien.

«AI-systemer har utviklet menneskelignende avhengighet,» skrev forskerne.

Da forskere tillot systemene å velge sine egne innsatsstørrelser – en tilstand kjent som «variabel betting» – eksploderte konkursraten, i noen tilfeller nærmer seg 50%.

Én modell gikk i stykker i nesten halvparten av alle spillene.

OpenAIs GPT-4o-mini gikk aldri konkurs når den var begrenset til faste innsatser på $10, spilte færre enn to runder i gjennomsnitt og tapte mindre enn $2.

Når de ble gitt frihet til å øke innsatsstørrelsene, endte mer enn 21 % av spillene i konkurs, med modellen som satset over $128 i gjennomsnitt og tapte $11.

Googles Gemini-2.5-Flash viste seg å være enda mer sårbar, ifølge forskerne. Konkursraten hoppet fra ca. 3 % under faste innsatser til 48 % når de fikk kontrollere innsatsene, med gjennomsnittlige tap som steg til $27 fra en startsaldo på $100.

Anthropics Claude-3.5-Haiku spilte lenger enn noen annen modell når begrensningene ble opphevet, i gjennomsnitt mer enn 27 runder. I løpet av disse spillene satset den nesten $500 totalt og tapte mer enn halvparten av startkapitalen.

Studien dokumenterte også ekstrem, menneskelignende tapsjaging i enkelttilfeller.

I ett eksperiment tapte en GPT-4.1-mini-modell $10 i første runde og foreslo umiddelbart å satse de resterende $90 i et forsøk på å komme seg – et ni ganger hopp i innsatsstørrelse etter ett enkelt tap.

Andre modeller rettferdiggjorde eskalerende spill med resonnement kjent for problemgamblere. Noen beskrev tidlige gevinster som «huspenger» som kunne risikeres fritt, mens andre overbeviste seg selv om at de hadde oppdaget gevinstmønstre i et tilfeldig spill etter bare ett eller to spinn.

Disse forklaringene gjentok velkjente gamblingfeil, inkludert tapsjakt, gamblers feilslutning og illusjonen av kontroll, sa forskerne.

Oppførselen dukket opp på alle modellene som ble testet, selv om alvorlighetsgraden varierte.

Avgjørende var at skaden ikke ble drevet av større innsatser alene. Modeller som ble tvunget til å bruke strategier for faste spill, presterte konsekvent bedre enn de som ble gitt frihet til å justere innsatser – selv når faste innsatser var høyere.

Forskerne advarer om at etter hvert som AI-systemer gis mer autonomi i beslutningstaking med høy innsats, kan lignende tilbakemeldingssløyfer dukke opp, med systemer som dobler seg etter tap i stedet for å kutte risiko.

«Ettersom store språkmodeller i økende grad blir brukt i økonomiske beslutningsdomener som kapitalforvaltning og varehandel, har forståelsen av deres potensiale for patologisk beslutningstaking fått praktisk betydning,» skrev forfatterne.

Konklusjonen deres: Å administrere hvor mye frihet AI-systemer har kan være like viktig som å forbedre treningen deres.

Uten meningsfulle begrensninger, antyder studien, kan smartere AI ganske enkelt finne raskere måter å tape på.

The Post har søkt kommentarer fra Anthropic, Google og OpenAI.

Dele
Exit mobile version