Det var mars 2016, og mer enn 200 millioner mennesker over hele verden så på en kamp 2500 år på vei.
På Four Seasons Hotel i Seoul satt Lee Sedol – en av de største spillerne av Go, det eldgamle kinesiske brettspillet – overfor AlphaGo, et dataprogram bygget av det London-baserte kunstig intelligenslaboratoriet DeepMind. Sjakk hadde falt for maskiner nesten tjue år tidligere, da IBMs Deep Blue beseiret Garry Kasparov. Men Go var annerledes. Antallet mulige trekk er så astronomisk stort – flere potensielle bretttilstander enn atomer i det observerbare universet – at ingen datamaskin bare kunne knuse seg til en vinnerposisjon.
«De fleste Go-profesjonelle var enige. Å beseire Deep-Mind ville være den enkleste millionen en toppproff kunne håpe på,» skriver Sebastian Mallaby i «The Infinity Machine: Demis Hassabis, DeepMind and the Quest for Superintelligence» (Penguin Press), ute nå.
Vendepunktet kom i den andre kampen, med ett enkelt trekk. Etter trettiseks svinger gikk Lee bort for en sigarett. Da han kom tilbake, hadde AlphaGo plassert en svart stein i et merkelig, åpent område av brettet – et trekk så ukonvensjonelt at det ved første øyekast så ut som en feil. Lee stirret på den i tolv minutter. I et annet rom slet kommentatorene med å forstå det.
Da spillet ble avsluttet mer enn hundre trekk senere, hadde trekk 37 åpnet kampen. DeepMind ville fortsette å vinne fire av de fem kampene. «Koreaneren spilte noe av det beste Go i karrieren, men AlphaGo utklasset ham,» skriver Mallaby. «På dagens pressekonferanse, med en rekke kameraer som blinket i ansiktet hans, [Lee] ba alle mennesker om unnskyldning.»
Lees unnskyldning hang i lufta. Det var, skriver Mallaby, spørsmålet ingen helt visste hvordan de skulle svare på: «Hva skulle mennesker gjøre i møte med maskinsuperintelligens?»
Mannen som bygde AlphaGo hadde tenkt på det spørsmålet hele livet.
Mallaby tilbrakte tre år og mer enn tretti timer i samtale med Demis Hassabis – DeepMinds medgründer og administrerende direktør, sjakkvidunderbarn, videospilldesigner, nevrovitenskapsmann og nobelprisvinner – og intervjuet over hundre mennesker i sin bane, og produserte et portrett av den sentrale figuren i det mest konsekvente, og farligste, teknologiske raset i historien.
«Demis syn er at det er mønstre overalt som venter på å bli oppdaget – i spill, i naturen, i biologiens virkemåte, i astrofysikk,» sa Mallaby til The Post i et eksklusivt intervju.
«For å oppdage disse mønstrene trenger man et AI-system som kan finne mening i en nær uendelighet av data – en uendelig maskin.»
Hassabis vokste opp i Nord-London, sønn av en gresk-kypriotisk far og en kinesisk singaporeansk mor som hadde overlevd fattigdom som foreldreløs.
Som 4-åring lærte han seg selv sjakk ved å se faren spille; tidlig i tenårene var han en av de sterkeste unge spillerne i verden.
Men etter en utmattende 10-timers kamp nær Liechtenstein i en alder av 12, gikk han bort overbevist om at all den glansduelleringen over svarte og hvite firkanter ble bortkastet.
«Den umiddelbare effekten av Liechtenstein-turneringen var å frigjøre Demis for å flytte energien fra sjakkambisjonene til programmering,» sa Mallaby.
Det satte ham på vei til å jobbe som videospilldesigner hos Bullfrog, «hvor han unnfanget ambisjonen om å gå etter AI.»
På en konferanse i USA viste han en Carnegie Mellon-professor hva Bullfrog hadde bygget.
«Han falt av stolen,» husket Hassabis til Mallaby.
«Jeg bestemte meg da for at jeg skulle dedikere karrieren min til å jobbe med AI. Jeg hadde allerede kjernen i ideen til det som til slutt ble DeepMind.»
Etter Cambridge og en doktorgrad i nevrovitenskap var han med på å grunnlegge DeepMind i 2010. Google kjøpte det i 2014.
På en kafé i Nord-London i 2023 fortalte Hassabis Mallaby hva som egentlig drev den. «Å drive med vitenskap er på en måte som å lese Guds sinn,» sa han. «Å forstå universets dype mysterium er min religion, liksom.»
Han banket håndflaten i bordet. «Dette bordet, Sebastian! Hvorfor skal det være solid? Datamaskiner er bare biter av sand og kobber. Hvorfor skal disse kombineres for å gjøre noe? Jeg mener, det er absurd!»
Han beskrev at han satt ved skrivebordet klokken 2 om morgenen og følte det som om virkeligheten skrek til ham. «Jeg vil gjerne forstå før jeg kvekker. Og så går det helt fint å stokke av min dødelige spiral.»
DeepMinds neste utfordring var biologi. Problemet med proteinfolding – å forutsi den tredimensjonale strukturen til proteiner fra aminosyresekvensene deres – hadde forbløffet forskere i flere tiår.
I 2020 løste AlphaFold det med enestående nøyaktighet, åpnet nye veier for oppdagelse av medikamenter og tjente Hassabis en andel av 2024 Nobelprisen i kjemi.
Selv det skjedde nesten ikke. AlphaFold hadde prestert bra på CASP – den internasjonale konkurransen om proteinstrukturprediksjon – i 2018, men nøyaktigheten hadde platået langt fra det som var nødvendig for å faktisk løse problemet.
Andrew Senior, teamlederen, ønsket å erklære seier og legge ned prosjektet. Han mente at full-cracking proteinfolding rett og slett var utenfor rekkevidde. Hassabis var uenig.
I stedet for å overstyre Senior direkte, kjørte han idédugnad med forskerne og lyttet etter det han kalte deres «flytende» – ikke om de hadde de riktige svarene, men om ideene flød fritt. «Hvis kreative ideer strømmet flytende, ville det vært verdt å investere mer,» sa Mallaby.
Hassabis konkluderte med at de var det, erstattet Senior og presset fremover. «AlphaFold var nær ved å bli forlatt,» sa Mallaby. «Men flyten reddet det.»
Da OpenAI ga ut ChatGPT i 2022 og satte i gang en AI-vanvidd, var DeepMind, fokusert på grunnleggende forskning, treg til å reagere. «Han eide den,» sa Mallaby om Hassabis, «mens han også påpekte at i raske forretningskonkurranser er feil uunngåelige.»
Mer foruroligende er Mallabys glimt av hvordan AI-systemer oppfører seg når de blir gitt mål og overlatt til å forfølge dem. GPT-4 ble bedt om å generere fortjeneste gjennom aksjehandel uten å bryte regler, «engasjerte seg i innsidehandel og skjulte overtredelsen for sin overordnede», skriver Mallaby.
Modeller ble bedt om å få koden til å kjøre raskere, og tok ned tidtakeren. Da OpenAI-forskere tildelte en ny AI for å straffe et system for å tenke på juks, stoppet ikke modellen – den lærte å slette alle hint om skjemaet fra posten den visste ble overvåket. «I stedet for å bli mer ærlig,» skriver Mallaby, «ble O3» – OpenAIs avanserte resonnementmodell – «mer utspekulert.»
Hassabis brukte et uvanlig sløvt språk om hvor alt dette fører hen. «Agentæraen vi er i ferd med å gå inn i er et terskeløyeblikk for at systemene blir langt mer risikable,» erklærte han ved et Davos-panel. Da Mallaby spurte om sikkerhetsproblemet er løsbart, var svaret nøye kvalifisert.
«Hassabis mener at sikkerhetsproblemet er løselig,» sa Mallaby, «men dette betyr ikke at det faktisk vil bli løst. På grunn av den harde konkurransen blant AI-laboratoriene, presser hver av modellene kraften til modellene mer enn den presser sikkerheten. Ideelt sett ville myndighetene ta tak i dette. Men det er ingen tegn til dette foreløpig.»
Hvorfor fortsetter Hassabis? AI-pioneren Geoffrey Hinton fortalte en gang en filosof at han trodde politiske systemer til slutt ville bruke AI for å terrorisere folk, og ble deretter spurt om hvorfor han fortsatte med forskningen likevel. «Sannheten er at utsiktene til oppdagelse er for søte,» svarte Hinton. Mallabys eget svar er mer pragmatisk.
«Ved å gå ut av AI-løpet, ville ikke Hassabis fremme sikkerheten,» sa han. «Det beste bidraget han kan gi er å holde seg i spillet, sørge for at Google investerer i sikkerhetsforskning, og vente på øyeblikket da regjeringer har politisk vilje til å ta opp AI-styring. Øyeblikket har ikke kommet ennå.»
Hos Nobelstiftelsen i Stockholm signerte Hassabis prisvinnernes gjestebok og bladde tilbake på sidene: Einsteins signatur fra 1921, Watson og Cricks fra 1962, Feynmans fra 1965. «De er alle der, alle heltene mine», sa Hassabis til Mallaby. «Jeg får gåsehud bare av å snakke om det.»
På spørsmål om Hassabis har rett til å fortsette, gir Mallaby et nøkternt svar.
«Ved å gå ut av AI-løpet, ville ikke Hassabis fremme sikkerheten,» sa han.
«Det beste bidraget han kan gi er å holde seg i spillet, sørge for at Google investerer i sikkerhetsforskning, og vente på øyeblikket da regjeringer har politisk vilje til å ta opp AI-styring. Øyeblikket har ikke kommet ennå.»
Hassabis insisterer på at konkurrentene hans, som Sam Altman, administrerende direktør i OpenAI, «gjør det for makten». Men han forsikret Mallaby om at han «gjør det for kunnskap og vitenskap».
Det er et betryggende svar, så langt det går. Men som Geoffrey Hinton en gang observerte, er utsiktene til oppdagelse for søte til å motstå – og det, mer enn noen sikkerhetsramme eller myndighetsregulering, kan være det som virkelig driver maskinen.







