En amerikansk dommer blokkerte torsdag midlertidig Pentagons svartelisting av Anthropic, den siste vendingen i Claude-produsentens høyinnsatskamp med militæret om AI-sikkerhet på slagmarken.
Anthropics søksmål i Californias føderale domstol hevder at forsvarsminister Pete Hegseth overskred sin autoritet da han utpekte Anthropic til en nasjonal sikkerhetsforsyningskjederisiko, en etikett som regjeringen kan bruke på selskaper som utsetter militærsystemer for potensiell infiltrasjon eller sabotasje fra motstandere.
Hegseths enestående grep, som fulgte etter Anthropics avslag på å la militæret bruke AI chatbot Claude for amerikansk overvåking eller autonome våpen, blokkerte Anthropic fra visse militære kontrakter.
Antropiske ledere har sagt at det kan koste selskapet milliarder av dollar i tapt virksomhet og skade på omdømmet.
Anthropic sier at AI-modeller ikke er pålitelige nok til å trygt brukes i autonome våpen, og at de motsetter seg innenlandsk overvåking som et brudd på rettigheter, men Pentagon sier at private selskaper ikke skal være i stand til å begrense militær handling.
Den amerikanske distriktsdommeren Rita Lin, som er utnevnt til den tidligere demokratiske presidenten Joe Biden, avsa kjennelsen på en høring i San Francisco etter at Anthropic ba om en midlertidig ordre som blokkerer utpekingen mens rettssaken utspiller seg.
Lins kjennelse er ikke endelig, og saken er fortsatt under behandling.
Anthropics betegnelse var første gang et amerikansk selskap har blitt offentlig utpekt som en forsyningskjederisiko under en obskur statutt for offentlige anskaffelser som tar sikte på å beskytte militære systemer mot utenlandsk sabotasje.
I sitt søksmål den 9. mars påsto Anthropic at regjeringen krenket sin rett til ytringsfrihet under den første endringen av grunnloven ved å gjengjelde deres syn på AI-sikkerhet.
Selskapet sa at det ikke ble gitt en sjanse til å bestride betegnelsen, i strid med dets femte endringsrett til rettferdig prosess.
Søksmålet sier at avgjørelsen var ulovlig, ikke støttet av fakta og inkonsistent med militærets tidligere ros av Claude.
Justisdepartementet motarbeidet at Anthropics avslag på å oppheve restriksjonene kan føre til usikkerhet i Pentagon om hvordan det kan bruke Claude og risikere å deaktivere militære systemer under operasjoner, ifølge en rettssak.
Regjeringen sa at betegnelsen stammet fra Anthropics nektelse av å godta kontraktsvilkår, ikke deres syn på AI-sikkerhet.
Anthropic har et annet søksmål under behandling i Washington, DC, over en egen Pentagon-leverandørkjederisikobetegnelse som kan føre til ekskludering fra sivile regjeringskontrakter.







