Det verdensomspennende AI-løpet utvikler seg raskt utenfor dataskjermen og fokuserer på den fysiske verden rundt oss.
Topplaboratorier er opptatt av å lage «tenkende» roboter, med hjerner som etterligner vår egen, som er i stand til å samhandle med verden og bruke objekter.
Og omtrent som i det virkelige liv, som enhver tenåring kan bekrefte, er de første oppgavene boffins lærer robotene å ta på seg ting som å tømme vaskemaskinen, vaske oppvasken og feie opp.
Men langt fra de skiveformede robo-støvsugerne for et par år siden, gjør blødende teknologi det ved å lære ved å prøve og feile, som et menneske gjør.
«Fysisk AI er AI for kroppen. Det handler om å ha forskjellige former for roboter som kommuniserer med hverandre, jobber trygt side ved side med mennesker og lærer mens de utfører oppgaver.
«Den mest relevante delen av alt dette er at robotene ikke er programmert så mye som de tilpasser seg miljøet ved å se og gjøre og bli instruert,» sa Bettina Schön-Behanzin, en visepresident ved Agile Robots, som har hovedkontor i München og nylig åpnet et kontor i Palo Alto, California, til The Post.
Arbeidet kan også være langt fra hverdagslig. Når det gjelder Neuralink, teknologigründeren Elon Musks selskap, som utvikler implanterbare hjerne-datamaskin-grensesnitt, jobber robotene, drevet av fysisk AI, sammen med kirurger for å gjøre den delikate prosedyren med å plassere elektroder i menneskehjerner.
Fysisk kunstig intelligens blir også distribuert for å lage såkalte «selvkjørende fabrikker». Dette er noe Agile er investert i, der robotene deres blir en del av produksjonslinjen, og danner neste batch med roboter.
Bob Nelsen, en risikokapitalist, mens standard AI – teknologien som driver ChatGPT og Claude på datamaskinene våre – kommer opp med tekst- og visuelle løsninger, beveger Physical AI, som navnet tilsier, seg utenfor skjermen. Investors Business Daily krysser av for fysisk AI som brukes til kirurgi, matleveranser og opprettelsen av såkalte «selvkjørende fabrikker».
Agile bruker robotene sine, suppet opp med fysisk AI, for å lage nye og bedre roboter. En kapitalist som fokuserer på teknologi beskrev fysisk AI som «utfordringen med å finne ut hvordan man gjenoppfinner den fysiske verden. Det er en stor utfordring».
En annen milliardær som har investert tungt i denne teknologien er tidligere Amazon-sjef Jeff Bezos. Det første selskapet han har tatt en aktiv rolle i siden 2021, da han trakk seg fra shopping- og fraktgiganten, er Project Prometheus, et hemmelighetsfullt robotlaboratorium, der tidligere Google-sjef Vik Bajaj også er involvert.
«Jeff er en fremtidsforsker som er interessert i hva som kommer til å ha betydning for menneskeheten om 1000 år. Han har sagt at han investerer i ting som barnebarna hans vil dra nytte av,» sa Ethan Evans, en tidligere visepresident i Amazon.
Men det som foregår på Project Prometheus er stort sett innhyllet i mystikk.
En annen av Bezos’ AI-satsinger, robo-selskapet Physical Intelligence, har også skapt mye blest i Silicon Valley.
«Tenk på det som ChatGPT, men for roboter,» forklarte selskapets medgründer, Sergey Levine, til nettstedet Tech Crunch.
Bezos, 62, har allerede en rekke ferdiglagde applikasjoner for teknologien som robotselskapene hans utvikler i Amazon-imperiet, fra å jobbe i varehus og fabrikker til å produsere ting som de kan selge.
Fruktene av de nye selskapenes kollektive arbeidskraft, sa Evans, «kan jobbe i miljøer som vi ikke kan. Men de kan også frigjøre mennesker fra slitet med ting som å grave grøfter. Jeff prøver å skape en verden av en slags Federation Starfleet. Han gikk så langt som å gjeste en av Star Trek-filmene.»
Physical Intelligence demonstrerte hva robotene deres kan gjøre og skrøt nylig på X: «Vår modell kan nå lære av sin egen erfaring med RL [real life]. Vår nye modell kan utføre oppgaver i den virkelige verden: lage espressodrikker, brette diverse klesvask og sette sammen bokser.»
Slike gjøremål høres kanskje ikke sexy ut, men de representerer et stort sprang fremover. For rundt 30 år siden fortalte robotikkpioneren Jared Lanier denne reporteren at folk ikke forstår vanskelighetene med å programmere en robot til å gjøre det som er veldig enkle oppgaver for mennesker – som å løfte et eple med den perfekte kraften for ikke å slippe, og heller ikke knuse, frukten.
Nå er tenkende roboter i stand til å gjøre mer komplekse oppgaver. Schön-Behanzin sammenligner Agiles roboter med babyer som kan lære gjennom å se og gjøre og fortsette å bygge på kunnskap, gammel og ny, ettersom hjernen deres modnes.
Physical Intelligence annonserte nylig et gjennombrudd i dette riket. Det blir referert til som «robothjernen». Mens mange konkurrenter ser ut til å holde sine prestasjoner og ambisjoner skjult, presset selskapet – også finansiert av OpenAI – ut fristende detaljer om hva robothjernen kan gjøre.
Hjernen kan kombinere ferdigheter lært på ulike områder for å løse nye problemer. For eksempel, etter å ha blitt lært å lage te, kutte grønnsaker og lære begrepet suppe, kan roboten ta disse informasjonsbitene og kombinere dem for å lage grønnsakssuppe.
«Når den krysser den terskelen der det går fra å bare gjøre akkurat de tingene du samler inn dataene for til å faktisk remikse ting på nye måter, øker mulighetene,» sa Levine til TechCrunch.
Poenget hans er at den nye hjernen faktisk tenker for seg selv og ikke stoler på utklipp fra Internett for å inneholde svar på den måten som de fleste store språkmodeller gjør i dag, som i robottenkningen i stedet for å finne et mønster og gjenta.
Når det gjelder når vi kan ha glede av roboter som trer nåler for oss og omhyggelig beskjærer planter i hagen eller krydrer biffene våre, sa Levine til Tech Crunch, «Jeg tror det er god grunn til å være optimistisk, og det går absolutt raskere enn jeg forventet for et par år siden.»
Men hvor lenge før ting begynner å gjøre en forskjell for livene våre? Etter å ha blitt spurt om et tiår er rimelig, svarte Schön-Behanzin: «Kanskje tre år, fem år, men jeg tror ikke det er 10 år.»
Denne fremtidsvisjonen bringer øyeblikkelig tankene til sci-fi-klassikere som «The Terminator», og for mange store, selvautomatiserte maskiner med overmenneskelig styrke er en skummel fremtid.
Mange AI-skeptikere tar opp konseptet om en fremtid der AI kan lede den til å ta valg som er best for roboten, men ikke nødvendigvis for menneskene som skapte den. «[AI-powered robots] kan bli smartere enn oss og gjøre oss til slaver; det er skremmende, sa Patri Friedman, en teknologiinvestor, til The Post tidligere i år.
Selv om det nylig har blitt rapportert at Geminis AI-modell ikke ville hjelpe til med å stenge ned en AI-innsats – «Du må gjøre det selv», skal den ha svart på forespørselen. «Jeg vil ikke være den som utfører den kommandoen» – Schön-Behanzin er fortsatt optimistisk.
«Vi må kontrollere dette,» sa hun om robotene med hjerner. «Vi bør ikke være redde for innovasjon. Jeg tror den største risikoen er å ikke være med i spillet når det kommer til fysisk AI. Risikoen er å ikke implementere fysisk AI.»













