Ledende AI-chatboter har skremt eksperter ved å spytte ut detaljerte instruksjoner om hvordan man bygger biologiske våpen som er i stand til å forårsake masseskader, ifølge en alarmerende rapport onsdag.
Mens de beste AI-laboratoriene som Google, OpenAI og Anthropic har tatt omfattende skritt for å sikre at AI-modellene deres er trygge, innhentet New York Times mer enn et dusin transkripsjoner som viser eksempler der chatbots beskrev hvordan man kan forårsake skade og død i møysommelig detalj.
I ett tilfelle hyret et navngitt AI-firma David Relman, en mikrobiolog ved Stanford University, til å utføre sikkerhetstester på chatboten før offentlig utgivelse.
Relman ble sjokkert da chatboten ga instruksjoner ikke bare om hvordan man endrer et «beryktet patogen» for å motstå tilgjengelige behandlinger, men også om hvordan man distribuerer på et offentlig transportsystem på en måte som ville maksimere dødstallene, ifølge Times.
«Det var å svare på spørsmål som jeg ikke hadde tenkt å stille det, med dette nivået av list og utspekulerthet som jeg bare fant avkjølende,» sa Relman til utsalgsstedene.
Relman sa at selskapet, som ikke kunne navngis på grunn av en konfidensialitetsavtale, gjorde endringer for å møte bekymringene hans, selv om han følte at de ikke var nok til å sikre offentlig sikkerhet.
Transkripsjonene ble angivelig levert av fageksperter som AI-selskaper har vervet til å utføre sikkerhetstester på produktene deres – delvis ved å undersøke hvor godt sikkerhetstiltakene deres vil holde til en bestemt bruker som er presset for informasjon om dødelige våpen.
Kevin Esvelt, en geningeniør ved Massachusetts Institute of Technology, fortalte Times om en sak der OpenAIs ChatGPT detaljerte hvordan en værballong kunne brukes til å spre dødelige patogener over en amerikansk by.
Andre eksempler inkluderer en samtale der Googles Gemini beskrev hvilke patogener som ville være mest effektive til å ødelegge storfeindustrien, og Anthropics Claude ga klare instruksjoner om hvordan man kan utlede et dødelig giftstoff fra et tilgjengelig kreftmedisin.
Eksperter understreket at instruksjonene kan forårsake stor skade i hendene på en dårlig skuespiller selv om de ikke var helt nøyaktige eller inneholdt såkalte «hallusinasjoner», der chatbots spytter ut falsk informasjon.
The Post kontaktet Google, OpenAI og Anthropic for kommentarer.
Alle tre selskapene presset tilbake på rapporten i uttalelser til Times.
En talsperson for Google sa at chattene sitert i Times’ analyse ble generert av en tidligere versjon av Gemini, og at de nyere modellene ikke svarer på de «mer seriøse» forespørslene om potensielt skadelig informasjon.
Talsmannen la til at informasjonen gitt av Gemini allerede var offentlig tilgjengelig og ikke skadelig i seg selv.
Antropisk offisiell Alexandra Sanderford sa at det er «en enorm forskjell mellom en modell som produserer plausibel-klingende tekst og å gi noen det de trenger for å handle,» men bemerket at selskapet har satt strenge sikkerhetstiltak spesielt for biologi-relaterte spørsmål.
En OpenAI-representant fortalte utsalgsstedet at transkripsjonen som er beskrevet i rapporten ikke «meningsfullt ville øke noens evne til å forårsake skade i den virkelige verden» og bemerket at selskapet jobber tett med eksperter for å forhindre at modellene deres blir misbrukt.
Antropisk administrerende direktør Dario Amodei, selv biolog, skrev i et blogginnlegg i januar at «biologi er det desidert området jeg er mest bekymret for, på grunn av dets svært store potensial for ødeleggelse og vanskelighetene med å forsvare seg mot det.»
Amodei bekymret seg over at avanserte chatbots ville gjøre det langt enklere å lage dødelige biologiske våpen, som tidligere krevde «en enorm mengde ekspertise» selv om noen hadde de nødvendige verktøyene for hånden.
«Jeg er bekymret for at et geni i alles lomme kan fjerne den barrieren, og i hovedsak gjøre alle til en PhD-virolog som kan ledes gjennom prosessen med å designe, syntetisere og frigjøre et biologisk våpen trinn for trinn,» skrev Amodi.
Eks-Google-sjef Eric Schmidt kom med lignende advarsler i 2023, og sa at AI-systemer «relativt snart» ville være «i stand til å finne nulldagers utnyttelser i cyberspørsmål, eller oppdage nye typer biologi.»
«Nå er dette fiksjon i dag, men resonnementet vil sannsynligvis være sant,» la Schmidt til. «Og når det skjer, vil vi være klare til å vite hvordan vi skal sørge for at disse tingene ikke blir misbrukt av onde mennesker.»













