I løpet av timer etter president Trumps kunngjøring om den dramatiske helgefangsten av Nicolás Maduro, ble sosiale medier oversvømmet med AI-genererte dype forfalskninger som viste den fangede venezuelanske diktatoren i håndjern og til og med sitte sammen med Sean «Diddy» Combs, som tidligere var innesperret i det samme fengselet der Maduro nå er i det virkelige liv.
Angrepet av AI-endrede bilder blandet med virkelige fakta og verifiserte bilder skapte et forvirrende rot midt i et fantastisk øyeblikk, med noen offentlige personer som forsterket det dypt falske innholdet.
«Dette var første gang jeg personlig hadde sett så mange AI-genererte bilder av det som skulle være et virkelig øyeblikk i tid,» sa Roberta Braga, administrerende direktør for Digital Democracy Institute of the Americas, en tenketank, til New York Times.
En av forfalskningene viser at Combs danser en merkelig dans i en fengselscelle mens Maduro ser ut til å holde tårene tilbake på en fengselsseng i nærheten. Den vanærede rapperen, hvis sexhandelssak nevnte grusom bruk av babyolje, blir deretter sett sprøyte den avsatte diktatoren med væskeflasker mens «You’ve Got a Friend in Me» spiller. Resten av det bisarre klippet er en montasje av de to som fungerer som et par mens Maduro har en blond parykk.
Maduro og hans kone, Cilia Flores, har blitt sperret inne i Metropolitan Detention Center i Brooklyn, hvor Combs tilbrakte varigheten av sin egen rettssak før han ble dømt i fjor for å ha fraktet mennesker over statsgrenser for seksuelle møter.
Curtis «50 Cent» Jackson lurte på tilfeldighetene mens han tok sitt siste skudd på sin mangeårige fiende Combs.
Jackson lagde et Instagram-innlegg av et tegneseriebilde av Combs som gjorde håret til Maduro mens han utbrøt: «De tok også oljen min!» — en frekk referanse både til Combs’ sleske vaner og USAs planer om å overta Venezuelas oljeindustri.
NewsGuard, som sporer nøyaktigheten til nettinformasjon, fant fem AI-genererte og utenfor kontekstbilder og to villedende videoer som er falskt koblet til Maduros fangst som fikk mer enn 14,1 millioner visninger totalt på X på mindre enn to dager.
Innholdet dukket også opp på Meta-plattformer som Instagram og Facebook, selv om det fikk færre klikk på disse nettstedene, sa NewsGuard.
«Selv om mange av disse bildene ikke drastisk forvrenger fakta på bakken, representerer bruken av AI og dramatisk video utenfor kontekst en annen taktikk i feilinformatorenes arsenal – og en som er vanskeligere for faktasjekkere å avsløre fordi det visuelle ofte tilnærmer virkeligheten,» sa NewsGuard i en rapport som ble utgitt mandag.
Her er siste nytt om Nicolás Maduros fangst:
I en AI-deepfake blir Maduro sett kledd i hvit pyjamas og sittende på et amerikansk militært lastefly omgitt av soldater i uniform, ifølge rapporten.
Noen andre deepfakes viste Maduro i en grå svettedress – det samme antrekket han hadde på seg på et verifisert bilde fra Det hvite hus – mens han ble eskortert ut av et fly av amerikanske soldater.
Da Trump la ut et verifisert bilde av Maduro, håndjern og kledd i en grå svettedress ombord på USS Iwo Jima krigsskip, var det for sent. Mange brukere av sosiale medier var skeptiske til om bildet som ble lagt ut av Trump var ekte.
«Det er morsomt, men veldig vanlig: Tvil på sannheten og tro på løgnen,» sa Jeanfreddy Gutiérrez, som driver en faktasjekkoperasjon i Caracas, til Times.
AI-deteksjonsplattformer og verktøy som omvendt bildesøk kan bidra til å identifisere falskt innhold, men det kan være vanskelig å spore dype falske feil tilbake til opprinnelige kilder.
The Times fant ut at mange vanlige AI-verktøy, inkludert Googles Gemini, OpenAI-modeller og Grok, raskt ble brukt til å lage falske bilder av Maduro gratis. Mindre plattformer som Z-Image, Reve og Seedream ble også brukt.
«Vi gjør det enkelt å finne ut om innhold er laget med Google AI ved å bygge inn et umerkelig SynthID-vannmerke i alle medier som genereres av våre AI-verktøy, sa en Google-talsperson til The Post i en uttalelse.
«Du kan ganske enkelt laste opp et bilde til Gemini-appen og umiddelbart bekrefte om det ble generert med Google AI.»
En talsperson for OpenAI sa at selskapet lar offentlige personer sende inn et skjema for å forby AI-generert innhold ved å bruke deres likhet. Talsmannen la til at OpenAI foretrekker å fokusere på å forhindre seksuelle deepfakes eller innhold som oppfordrer til vold.
Representanter for xAI, som driver Grok, svarte ikke umiddelbart på The Posts forespørsel om kommentar.
Ordfører Vince Lago i Coral Gables, Florida, la ut et falskt bilde av Maduro som tilsynelatende ble eskortert av Drug Enforcement Administration-agenter på Instagram. Den hadde mer enn 1500 likes og var fortsatt online fra tirsdag morgen.
Lagos kontor svarte ikke umiddelbart på en forespørsel om kommentar.
Sammen med Maduro-deepfakes ble sosiale medier oversvømmet av falske og villedende videoer av venezuelanere som ser ut til å glede seg i gatene i Caracas etter det amerikanske raidet.
En konto kalt Wall Street Apes, som har 1,2 millioner følgere på X, la ut en video som angivelig viser venezuelanere som gråter i Caracas gater og takker Trump for å ha fjernet Maduro som leder.
Videoen – som nådde over 5,7 millioner visninger – var AI-generert og stammet tilsynelatende fra TikTok, ifølge faktasjekkere hos BBC og Agence France-Presse, i tillegg til en X «Community Note».
«Befolkningen i Venezuela river ned plakater av Maduro og går ut i gatene for å feire arrestasjonen hans av Trump-administrasjonen», skrev MAGA-influenser Laura Loomer i et innlegg på X, sammen med en video av en plakat av Maduro som ble tatt ned.
Men opptakene ble opprinnelig filmet i 2024, ifølge Wired. Loomer har siden slettet innlegget.
Konspirasjonsteoretiker Alex Jones hevdet at «millioner» av venezuelanere oversvømmet gatene i Caracas for å feire erobringen av Maduro, og la ut en luftvideo som viser tusenvis av mennesker som jubler i Venezuelas hovedstad.
Videoen, som holdt seg oppe tirsdag morgen, fikk mer enn 2,2 millioner visninger. Vedlagt innlegget var en «Community Note» – crowdsourcing-formen for faktasjekking brukt på X, Elon Musks plattform – som sa at videoklippene faktisk var fra 2024.
Jones la også ut et av de AI-genererte bildene flagget av NewsGuard, og svarte på et innlegg om raidet på Venezuela med en video som ser ut til å vise missiler som regner ned over en by.
Et «fellesskapsnotat» merket videoen «feilinformasjon» og hevdet at det var «en gammel video fra spenningene mellom Israel og Iran i 2024».
«Jeg sa ikke at det var fra Venezuela,» skrev Jones i et annet innlegg. «Folk hoppet til sine egne konklusjoner og projiserte sin egen feil på meg.»







