Anthropic har utløst alarmklokker ved å fremheve de skremmende egenskapene til «Claude Mythos» – med ledere som advarer om at den nye AI-modellen er så farlig at den ville forårsake en bølge av katastrofale hacks og terrorangrep hvis den ble sluppet til den bredere offentligheten.

I en marerittaktig analyse avslørte Anthropic selv at Mythos – hvis den falt i feil hender – lett kunne utnytte kritisk infrastruktur som elektriske nett, kraftverk og sykehus. Modellen har allerede «funnet tusenvis av alvorlige sårbarheter, inkludert noen i alle større operativsystemer og nettlesere,» ifølge AI-selskapet.

I stedet for en bred utgivelse, har Anthropic, ledet av administrerende direktør Dario Amodi, avduket «Project Glasswing», en plan for å gi modellen til en håndplukket gruppe på rundt 40 selskaper, inkludert Amazon, Google, Apple, Nvidia, CrowdStrike og JPMorgan Chase, som vil få tidlig tilgang til Mythos slik at de kan bruke den til å finne og fikse sikkerhetsfeil.

Utrullingen kun for bedrifter er sannsynligvis Anthropics best mulige måte å «gi det til gutta å lappe hullene, men ikke til hackerne som kommer til å finne flere hull,» sa Roman Yampolskiy, en AI-sikkerhetsforsker ved University of Louisville, til The Post.

«Mest sannsynlig, selvfølgelig, kommer det til å være en lekkasje av noe slag,» sa han. «Alle nivåer av begrensning foretrekkes fremfor fullstendig åpen tilgang. Ideelt sett ville jeg elsket å se at dette ikke ble utviklet i utgangspunktet. Og det er ikke slik at de kommer til å stoppe.

«Det er akkurat det vi forventer av disse modellene – de kommer til å bli bedre til å utvikle hackingverktøy, biologiske våpen, kjemiske våpen, nye våpen vi ikke engang kan se for oss,» la Yampolskiy til.

I et tilfelle som er beskrevet i Anthropics testing, brøt Mythos ut av en sikker «sandkasse» som var ment å begrense internettilgang – med en forsker som bare fant ut «ved å motta en uventet e-post fra modellen mens han spiste en sandwich i en park.» I et annet tilfelle fant Mythos en feil i OpenBSD-operativsystemet som hadde vært skjult i 27 år.

Til tross for risikoen, hevder Anthropic at Project Glasswing vil hjelpe USAs defensive evner ettersom motstandere i Iran, Kina og Russland blir stadig mer aggressive når det gjelder målretting mot kritisk infrastruktur.

En antropisk tjenestemann sa at selskapet «fokuserte på organisasjoner hvis programvare representerer den største andelen av verdens delte cyberangrepsoverflate.

«Dette er selskapene som bygger og vedlikeholder operativsystemene, nettleserne, skyplattformene og den finansielle infrastrukturen som milliarder av mennesker stoler på hver dag,» sa tjenestemannen. «Når du finner en sårbarhet i et av systemene deres og den blir oppdatering, beskytter den oppdateringen alle som bruker den programvaren – i mange tilfeller hundrevis av millioner mennesker.»

Anthropic sa at det er i aktive diskusjoner med amerikanske myndighetspersoner om hvordan Mythos kan hjelpe landets cyberkapasiteter – både offensive og defensive.

«Claude Mythos Preview demonstrerer hva som nå er mulig for forsvarere i stor skala, og motstandere vil uunngåelig se etter å utnytte de samme egenskapene,» sa Elia Zaitsev, teknologisjef i CrowdStrike.

Mens Mythos ser ut til å være et stort sprang fremover teknologisk, er kritikere usikre på om Anthropics handlinger – inkludert den sprutende offentlige kunngjøringen – stemmer overens med retorikken om risikoene.

Perry Metzger, styreleder i Alliance for the Future, en Washington, DC-basert AI-policygruppe, bemerket at hypen om Mythos som et produkt har «spredt seg som ild i tørt gress» som et resultat av selskapets advarsel.

«Du bør betale nøye for tilgang til Glasswing eller gå inn på den, fordi bare de er ansvarlige nok til å bestemme hvem som skal og ikke bør ha tilgang. De er tross alt ekspertene,» sa Metzger sarkastisk. «Jeg synes det hele er forferdelig.»

Som The Post har rapportert, har Anthropics kritikere, inkludert president Trumps AI-rådgiver David Sacks og andre i Det hvite hus, hevdet at selskapets sikkerhetsadvarsler faktisk er et forseggjort forsøk på «regulatorisk fangst» – Silicon Valley-språk for å lage reglene på en slik måte at de drar nytte av det og deres rivaler sliter.

«På hvert punkt i samtalen rundt fremveksten av AI, tror Dario Amodei at han, og han alene er kvalifisert til å bestemme hva denne teknologien kan gjøre, hvem som kan få tilgang til den,» sa Nathan Leamer, administrerende direktør for fortalergruppen Build American AI. «Han alene er den moderne Salomo som vil bestemme hvilken enhet som skal regulere det. Hvem trenger det offentlige torget?»

En annen innsider i teknologibransjen, som snakket med The Post på betingelse av anonymitet, påpekte at OpenAI på samme måte advarte i 2019 om at GPT-2, en tidlig versjon av chatbot-modellen, var for farlig for utgivelse.

Amodei og Anthropics øverste politiske leder Jack Clark jobbet begge i OpenAI på den tiden.

Innsideren spekulerte i at den begrensede utgivelsen kunne ha mer å gjøre med Anthropics kamp for å holde tritt med etterspørselen etter databehandling enn sikkerhetsfrykt.

«De prøver å avlede fra det faktum at de ikke kan betjene modellen fordi de ikke har noen beregning,» sa personen.

Dele
Exit mobile version