Pentagon kuttet båndene til Anthropic fordi bruk av deres kunstig intelligens-modeller ville «forurense» det amerikanske militærets forsyningskjede, hevdet en topptjenestemann i krigsdepartementet torsdag.
Emil Michael, krigsdepartementets teknologisjef, sa at Anthropics Claude AI chatbot ble trent ved å bruke en fundamentalt annen ideologi enn hva Pentagon ønsker for sine systemer.
«Vi kan ikke ha et selskap som har en annen policypreferanse som er bakt inn i modellen gjennom sin konstitusjon, sin sjel, sine politiske preferanser, forurenser forsyningskjeden slik at krigskjemperne våre får ineffektive våpen, ineffektiv kroppsrustning, ineffektiv beskyttelse,» sa Michael i et intervju med CNBC.
«Det er egentlig der risikobetegnelsen for forsyningskjeden kom fra,» la han til.
Anthropic saksøker for tiden Pentagon etter at det ble det første amerikanske selskapet som formelt ble stemplet som en «forsyningskjederisiko» – en merkelapp som vanligvis er reservert for utenlandske enheter som effektivt krever at forsvarsentreprenører slutter å bruke teknologien.
Michael sa at betegnelsen «ikke var ment å være straffende» og benektet påstander fra Anthropic om at Trump-administrasjonen har fortalt selskaper utenfor forsvarssektoren om ikke å samarbeide med dem.
Trump-tjenestemenn hadde lenge vært bekymret for at Anthropic hadde sprø ideologiske tilbøyeligheter – inkludert dens bånd til den kultlignende «Effective Altruism»-bevegelsen og demokratiske megadonorer som LinkedIn-medgründer Reid Hoffman.
Tidligere denne måneden rapporterte The Post eksklusivt om rare blogginnlegg skrevet av Amanda Askell, Anthropics interne «filosof» som hjalp til med å lage «sjeledokumentet» som styrer Claude.
Trump-administrasjonens steinete forhold til Anthropic nådde et høydepunkt forrige måned etter at selskapet og dets administrerende direktør Dario Amodi nektet å fjerne sikkerhetstiltak som blokkerer AI-modellene deres fra å bli brukt til å drive autonome våpen eller masseovervåking av amerikanere.
President Trump bespotte Anthropics ledere som «venstrevridde nøttejobber» mens han beordret alle føderale byråer til å slutte å samarbeide med firmaet. Han tillot en overgangsperiode på seks måneder.
På den tiden var Anthropics Claude den eneste modellen godkjent for arbeid med Pentagons klassifiserte systemer. OpenAI har siden inngått en avtale om å ta over hoveddelen av dette arbeidet.
Amodei, selv en demokratisk giver, svarte med å sprenge Trump i et internt notat, og hevdet at Pentagon hadde målrettet Anthropic fordi det ikke hadde gitt presidenten «diktatorlig ros». Lederen ba senere om unnskyldning.
Anthropics nye sak mot Trump-administrasjonen hevder at risikobetegnelsen i forsyningskjeden og andre handlinger fra den amerikanske regjeringen er «enestående og ulovlig».
I mellomtiden bruker Palantir, en annen forsvarsentreprenør, fortsatt Claude foreløpig – inkludert for operasjoner knyttet til konflikten med Iran, sa konsernsjef Alex Karp til CNBC.














