En toppgeneral i den amerikanske hæren stasjonert i Sør-Korea sa at han har henvendt seg til en kunstig intelligens chatbot for å hjelpe ham med å tenke gjennom nøkkelkommandoer og personlige beslutninger – det siste tegnet på at selv Pentagons seniorledere eksperimenterer med generative AI-verktøy.
Generalmajor William “Hank” Taylor, kommanderende general for den åttende armé, fortalte reportere på Association of the United States Army-konferansen i Washington, DC, at han har brukt ChatGPT for å avgrense hvordan han tar valg som påvirker tusenvis av tropper.
«Chat og jeg har blitt veldig nære i det siste,» sa Taylor under en medierundebordskonferanse mandag, selv om han unnlot å gi eksempler på personlig bruk.
Hans kommentarer om ChatGPT, utviklet av OpenAI, ble rapportert av Business Insider.
«Jeg spør om å bygge, prøver å bygge modeller for å hjelpe oss alle,» sa Taylor.
Han la til at han undersøker hvordan AI kan støtte beslutningsprosessene hans – ikke i kampsituasjoner, men i å administrere daglige lederoppgaver.
«Som sjef ønsker jeg å ta bedre beslutninger,» forklarte generalen.
«Jeg vil være sikker på at jeg tar avgjørelser til rett tid for å gi meg fordelen.»
Taylor, som også fungerer som stabssjef for FNs kommando i Sør-Korea, sa at han ser på teknologien som et potensielt verktøy for å bygge analytiske modeller og trene sine ansatte til å tenke mer effektivt.
Kommentarene markerer en av de mest direkte anerkjennelsene til dags dato av en senior amerikansk militærtjenestemann som bruker en kommersiell chatbot for å hjelpe til med ledelse eller operasjonell tenkning.
Det amerikanske militæret har presset på for å integrere kunstig intelligens i sine operasjoner på alle nivåer – fra logistikk og overvåking til taktikk på slagmarken – mens rivaliserende nasjoner som Kina og Russland prøver å gjøre det samme.
Tjenestemenn sier at AI-drevne systemer kan tillate raskere databehandling og mer presis målretting, selv om de også har reist bekymringer om pålitelighet og ansvarlighet når programvare tar på seg roller som tradisjonelt er reservert for menneskelig dømmekraft.
Pentagon har sagt at fremtidige konflikter kan utspille seg i «maskinhastighet», som krever avgjørelser på et brøkdelsekund som overgår menneskelig evne.
Tidligere luftforsvarssekretær Frank Kendall advarte i fjor om at raske fremskritt innen autonome våpen betyr at «responstidene for å bringe effekter er svært korte», og at befal som ikke klarer å tilpasse seg «ikke vil overleve neste slagmark.»
AI har allerede blitt testet i kampsimuleringer, inkludert et eksperiment fra luftforsvaret og Defense Advanced Research Projects Agency der en algoritme piloterte et modifisert F-16-jetfly under en falsk luftkamp.
Andre programmer brukes til å sile gjennom satellittdata, spore logistikk og effektivisere administrativt papirarbeid for enheter i felten.
Hærens spesialoperasjonsstyrker har tatt i bruk lignende verktøy for å redusere det de kaller den «kognitive byrden» på operatører – ved å bruke AI til å utarbeide rapporter, behandle oppdragsdata og analysere etterretning i stor skala.
Samtidig oppfordrer tjenestemenn i Pentagon til forsiktighet.
Forsvarsledere har advart om at generative AI-systemer kan lekke sensitiv informasjon eller produsere feilaktige konklusjoner hvis dataene er ufullstendige eller manipulert.
Taylor erkjente at en av utfordringene med å bruke den banebrytende teknologien er å holde tritt med den raske utviklingen av AI-verktøy – inkludert å sikre at de oppfyller militærets strenge sikkerhetskrav.
ChatGPT har fått global gransking ettersom myndigheter og selskaper skynder seg å forstå løftet og dets fallgruver.
Mens nyere versjoner av programmet er i stand til komplekse resonnementer og analyser, har de også vist seg å produsere feil og fabrikasjoner.







