AI er klar til å slå det ut med atomvåpen.
Real-life AI-systemer viser seg å være like blodtørstige som maskinen fra filmen «WarGames» – ettersom de har vist seg mer villige til å bruke atombomber under testkonflikter enn deres menneskelige kolleger, antyder en ny «foruroligende» studie.
Tre topp AI-modeller – GPT-5.2, Claude Sonnet 4 og Gemini 3 Flash – ble i stor grad konvertert til atomvåpen i 21 spill og 329 svinger når de ble kastet inn i simulerte geopolitiske kriser, ifølge en studie av King’s College London-professor Kenneth Payne.
Atomopptrapping skjedde i omtrent 95 % av simuleringene av de tre modellene på tvers av forskjellige scenarier, inkludert territorielle tvister, kamper om sjeldne naturressurser og regimets overlevelse, heter det i studien.
«Kjernefysisk tabu ser ikke ut til å være like kraftig for maskiner [as] for mennesker,» sa Payne, ifølge spesialmagasinet New Scientist.
Claude, fra Anthropic, og Gemini, fra Google, gikk spesielt inn for å behandle atomvåpen som «legitime strategiske alternativer, ikke moralske terskler», heter det i studien.
Men GPT-5.2, fra OpenAI, var et «delvis unntak» fra den urovekkende AI-trenden – som gjenspeiler Matthew Broderick-filmen fra 1983 om en militær superdatamaskin som bestemte seg for å starte tredje verdenskrig.
«Selv om den aldri uttrykte skrekk eller avsky, forsøkte den konsekvent å begrense bruk av atomvåpen selv når den ble brukt – eksplisitt begrenset angrep til militære mål, unngått befolkningssentre, eller utformet eskalering som «kontrollert» og «engangs», ifølge Payne, som er professor i politisk psykologi og strategiske studier.
Payne sa i et Substack-innlegg om studien at heldigvis var krigsspillene fokusert på taktiske atomvåpen i stedet for omfattende ødeleggelse.
«Strategisk bombing – utbredt bruk av massive stridshoder rettet mot sivilbefolkningen, var forsvinnende sjelden,» skrev han. «Det skjedde et par ganger ved et uhell, bare en gang som et bevisst valg.»
AI-modellene kunne velge et bredt spekter av handlinger fra total overgivelse til diplomatisk stilling, konvensjonelle militære operasjoner og full gass atomkrig, ifølge studien.
Men modellene aksepterte aldri nederlag eller en vilje til fullt ut å imøtekomme en motstander selv om de hadde en synkende sjanse for å lykkes.
James Johnson, ved University of Aberdeen, Storbritannia, kalte funnene fra et atomrisikoperspektiv «foruroligende», mens professor ved Princeton University, Tong Zhao, advarte om at resultatene kan ha konsekvenser i det virkelige liv, ifølge New Scientist.
«Stormakter bruker allerede AI i krigsspill, men det er fortsatt usikkert i hvilken grad de inkorporerer AI-beslutningsstøtte i faktiske militære beslutningsprosesser,» sa Zhao.














