Googles AI-genererte søkeresultater spyr ut flere titalls millioner unøyaktige svar i timen – selv når teknologigiganten suger inn besøkende og annonseinntekter fra pressede nyhetskanaler, ifølge en bombeanalyse.
For å teste nøyaktigheten til Googles AI-oversikter, gjennomgikk oppstart Oumi 4 326 Google-søkeresultater generert av Googles Gemini 2-modell og samme antall resultater generert av dens mer avanserte Gemini 3-modell.
Analysen fant at modellene var nøyaktige henholdsvis 85 % og 91 % av tiden.
Med Google forventet å håndtere mer enn 5 billioner søkere i 2026 alene, betyr det at AI Overviews spytter ut falske nyheter med en hastighet på hundretusenvis av feil hvert eneste minutt – med brukere som ikke er desto klokere.
New York Times var den første som rapporterte om Oumis analyse.
«Google AI Overviews har vært en katastrofe for utgivere som er avhengige av klikk for å finansiere produksjonen av kvalitetsjournalistikk, men de svikter også brukere som leter etter nøyaktig informasjon,» sa Danielle Coffey, president og administrerende direktør i News/Media Alliance, en bransjegruppe som representerer mer enn 2000 nyhetskanaler, inkludert The Post.
De gale svarene inkluderte flere grunnleggende fubler, for eksempel feilrapportering av året da musikeren Bob Marleys hjem ble omgjort til et museum, feilrapportering av året da den tidligere MLB-avlastningspitcheren Dick Drago døde, og hevdet at det ikke var noen oversikt over at Yo-Yo Ma ble innlemmet i Classical Music Hall of Fame selv om han var i 2007, ifølge eksemplene til Times Oumi.
AI-oversikter har dukket opp på toppen av Googles søkeresultater siden 2024, mens det tradisjonelle settet med blå lenker til nyhetskanaler effektivt er begravd ute av syne. Utgivere har lenge anklaget Google, ledet av administrerende direktør Sundar Pichai, for å rive av arbeidet deres for å «trene» sin AI-modell uten riktig kreditt eller kompensasjon.
«Algorithmisk genererte svar som henter inn data fra nesten alle kilder på internett kan ganske enkelt ikke stole på,» sa Coffey.
«Utgivere bruker enorme mengder tid og penger på å sikre at innholdet de leverer til leserne er ordentlig faktasjekket, mens Googles AI-oversikter produseres uten tilsyn eller ansvarlighet.»
AI Overviews har også en forkjærlighet for å sitere informasjon fra tvilsomme eller lett redigerte kilder, som Facebook-sider, blogginnlegg og Wikipedia-innlegg, som om det er et faktum.
Funksjonen ser ut til å være lett å lure til å spy ut falske nyheter.
The Times nevnte et eksempel der BBC-podcast-vert Thomas Germain skrev et blogginnlegg der han utropte seg selv som en av «De beste tekniske journalistene på å spise pølser.»
Googles AI-sammendrag hadde slukt opp informasjonen i løpet av en dag og begynte å hevde at Germain hadde «vunnet beryktet for sin dyktighet i ‘nyhetsdivisjonen’ av konkurrerende spisebegivenheter.»
Oumis analyse ble utført mellom oktober og februar og benyttet en velkjent benchmark-test kalt SimpleQA, som ble utviklet av OpenAI og brukes til å vurdere nøyaktigheten til AI-modeller.
Mens nøyaktigheten ble forbedret i hoppet fra Gemini 2 og Gemini 3, viste Oumis undersøkelser at AI Overviews har blitt verre med å korrekt sitere hvor den fant informasjon.
Prosentandelen av AI Overviews-svar som var «ugrunnet», eller hvor koblingene gitt av Google ikke sikkerhetskopierte informasjonen som er inkludert i AI-sammendraget, hoppet fra 37 % i Gemini 2 til 51 % i Gemini 3, heter det i rapporten.
En Google-talsperson sa at Oumis studie har «alvorlige hull» – delvis fordi SimpleQA-referansetesten inkluderer unøyaktig informasjon i sitt eget datasett.
Selskapet stilte også spørsmål ved Oumis avhengighet av sin egen interne AI-modell, kalt HallOumi, for å utføre analysen, til tross for risikoen for at det også kunne gjøre feil.
«Den bruker en AI for å gradere en annen på en gammel benchmark som er kjent for å være full av feil, og den reflekterer ikke hva folk faktisk søker på Google,» sa talspersonen. «AI-oversikter er bygget på Gemini-modellene våre, som leder bransjen når det gjelder nøyaktighet, og de fjerner den samme høykvalitetslinjen som vi har for alle søkefunksjonene våre.»
Som The Post har rapportert, har AI Overviews slitt med å gi nøyaktig informasjon siden lanseringen, og har tidligere rådet brukere til å legge lim til pizzasausen og hevdet «helsefordelene» av tobakk for barn.













