Pentagon AI-sjef Emil Michael svetter ikke Microsofts juridiske støtte for Anthropic. Faktisk fortalte han meg at hele situasjonen er «helt bananer.»

Michael avfeide Microsofts amicus brief, som selskapet sendte inn tidligere denne uken til støtte for Anthropic og mot Department of War, som lite mer enn et grep for å blidgjøre ansatte.

«Det er på en måte på linje med kurset å bevise for dine ansatte at du har et visst kameratskap [with other left-wing tech companies]», sa Michael, som fungerer som underforsvarsminister for forskning og ingeniørfag og overvåker AI-kontrakter, på en telefon tidligere denne uken. «Hvis du leser deres faktiske truser, sier det at alt krigsdepartementet ønsker å gjøre er lovlig.»

Mens amicus briefen hevder at Microsoft og Anthropic ønsker å beskytte krigskrigere, kjøper ikke Michael den.

Det er regjeringen, fortalte han meg, som jobber for å holde tjenestemedlemmer trygge.

«[Our move designating Anthropic a supply chain risk] er å beskytte krigsfolk – fordi Anthropic prøvde å sette seg inn i kommandokjeden,» forklarte Michael. «Forsyningskjederisiko er å fjerne den risikoen, ikke legge til en ny risiko.»

Michael sa at dette er den siste rynken i en saga gjort mer bisarr av det faktum at Anthropic jobbet tett med krigsdepartementet i årevis før regjeringen sa opp kontrakten i februar.

Etter det amerikanske angrepet i januar 2026 som fanget og utleverte Nicolás Maduro fra Venezuela, spurte en antropisk leder en motpart ved Palantir – der Anthropics Claude AI ble integrert – om og hvordan dens kunstige intelligens ble brukt.

Anthropic hadde levert en spesialisert versjon av Claude til noen av militærets mest følsomme kommandoer – inkludert Central Command og Indo-Pacific Command – under en avtale verdt omtrent 200 millioner dollar.

Palantir fortalte Pentagon-tjenestemenn om Anthropics henvendelse, og Feds tolket den som potensiell post-facto misbilligelse. Flyttingen skapte alarmer om avhengighetsrisikoer for en AI-leverandør som kanskje kunne tenke seg klassifiserte operasjoner, og utløste en kontraktsevaluering og mislykkede samtaler.

Anthropic insisterte på sikkerhetstiltak som sperret innenlands masseovervåking av amerikanske borgere – noe USA nekter for å gjøre – og fullstendig autonome dødelige våpen uten menneskelig tilsyn. Som svar merket Pentagon Anthropic en «forsyningskjederisiko» 4. mars og erstattet Anthropics teknologi med OpenAI.

Anthropic saksøkte 9. mars og utfordret det som ulovlig og gjengjeldende.

Pentagons bekymring er at entreprenørene kan prøve å diktere deres operasjoner. «Jeg vil ikke ha og kan ikke ha en modell som har en politisk skjevhet som kan bli forgiftet fordi den ikke ønsker å utføre visse militære aktiviteter – eller en innsidetrussel som er uenig med den demokratisk valgte ledelsen i dette landet,» sa Michael.

Det er en holdning Michael synes er vanskelig å forholde seg til Anthropics egne påstander om teknologien.

«De sier at denne teknologien er så kraftig – kraftigere enn et atomvåpen, kraftigere enn noen regjeringer – [and] de ønsker ikke å bruke den makten til å hjelpe landet vårt eller krigsavdelingen vår,” fortalte Michael meg vantro.

«Dette ville aldri skje i Kina … Og likevel ønsker de ikke å tjene den viktigste delen av regjeringen i tider med konflikt. Det virker veldig off.»


Denne historien er en del av NYNext, en uunnværlig insider-innsikt i innovasjonene, månebildene og politiske sjakktrekkene som betyr mest for NYCs maktspillere (og de som ønsker å være det).


Han sa at det som gjør det merkeligere er at dette kommer etter år med arbeid med Pentagon.

«Det som er veldig overraskende er for et selskap som ikke ønsket å gjøre ting fra Department of War, hvorfor selger og distribuerer de programvaren deres til Department of War i tre år?» sa han.

Episoden var en påminnelse om at til tross for at selskaper som Palantir eller Anduril entusiastisk støtter Amerika og tar kontrakter som støtter Customs and Border Patrol og ICE, motstår fortsatt en del av Silicon Valley å støtte militæret.

«Da jeg tok denne jobben, trodde jeg at de 2018-dagene hvor Googles ansatte gjorde opprør, var bak oss,» sa han, og refererte til ansatteopprøret som tvang Google til å forlate Project Maven, en Pentagon-kontrakt for å bruke AI til dronebildeanalyse. Hendelsen har blitt et definerende symbol på Silicon Valleys motstand mot militært arbeid.

Men i disse dager mener han Anthropic er unntaket, ikke normen. «Jeg tror ikke Elon våknet med AI og Grok,» sa han. Og til og med et selskap som Google? De «har lært leksjonen fra 2018.»

Ettersom Pentagon stryker ut massive kontrakter med mangeårige partnere, investerer det også i nye leverandører for å sikre at USA alltid er foran.

I løpet av de kommende ukene, sa Michael, vil avdelingen kunngjøre en bølge av nye partnerskap med mindre, utradisjonelle forsvarsselskaper – oppstartsbedrifter uten byrder av den ideologiske bagasjen som avsporet Anthropic. For Michael er det den rette avslutningen på en merkelig saga: fremtiden til amerikansk militær AI, bygget av selskaper som faktisk ønsker arbeidet.

Han sa, «[They’re] bygge ting for neste generasjons krigføring.»

Dele
Exit mobile version