Eksperter slår alarm over YouTubes deepfake-deteksjonsverktøy – en ny sikkerhetsfunksjon som kan tillate Google å trene sine egne AI-roboter med skapernes ansikter, ifølge en rapport.
Verktøyet gir YouTube-brukere muligheten til å sende inn en video av ansiktet deres, slik at plattformen kan flagge opplastinger som inkluderer uautoriserte deepfakes av deres likhet.
Skapere kan deretter be om at de AI-genererte doppelgangerne blir fjernet.
Men sikkerhetspolitikken vil også tillate Google, som eier YouTube, å trene sine egne AI-modeller ved å bruke biometriske data fra skapere, rapporterte CNBC tirsdag.
«Dataskaperne gir for å registrere seg for vårt likhetsdeteksjonsverktøy brukes ikke – og har aldri blitt – brukt til å trene Googles generative AI-modeller,» sa Jack Malon, en talsperson for YouTube, til The Post.
«Disse dataene brukes utelukkende til identitetsverifiseringsformål og for å drive denne spesifikke funksjonen.»
YouTube fortalte CNBC at det gjennomgår språket i sin policy-registrering for å potensielt fjerne forvirring, selv om det la til at selve policyen ikke vil endres.
Tekniske giganter har slitt med å haste ut de nyeste AI-modellene uten å miste nettbrukeres tillit.
I et forsøk på å hjelpe skapere med å takle den uautoriserte bruken av deres likheter, introduserte YouTube et verktøy for deepfake-deteksjon i oktober.
Målet er å utvide funksjonens utrulling til de mer enn 3 millioner skaperne i YouTubes partnerprogram innen slutten av januar, fortalte Amjad Hanif, YouTubes sjef for skaperproduktet, til CNBC.
For å registrere seg for verktøyet må brukere laste opp en offentlig ID og en video av ansiktet deres, som brukes til å skanne gjennom hundrevis av timer med nye opptak som legges ut på YouTube hvert minutt.
Denne biometriske opplastingen er underlagt Googles personvernpolicy, som sier at offentlig innhold kan brukes «for å hjelpe til med å trene Googles AI-modeller og bygge produkter og funksjoner som Google Translate, Gemini Apps og Cloud AI-funksjoner,» bemerket CNBC.
Alle videoer som er flagget som potensielle dypforfalskninger sendes til skaperen, som kan be om at opptakene blir fjernet.
Hanif sa at faktiske fjerninger forblir lave fordi mange skapere er «glade for å vite at det er der, men egentlig ikke føler at det fortjener å fjernes».
«Den desidert vanligste handlingen er å si: ‘Jeg har sett på det, men jeg er ok med det’,» sa han til CNBC.
Men eksperter på nettsikkerhet sa at lave fjerningstall er mer sannsynlige på grunn av mangel på klarhet rundt den nye sikkerhetsfunksjonen – ikke fordi skaperne er komfortable med deepfakes.
Tredjepartsselskaper som Vermillio og Loti sa at arbeidet deres med å hjelpe kjendiser med å beskytte likhetsrettighetene deres har økt etter hvert som AI-bruken blir mer utbredt.
«Når Google konkurrerer om å konkurrere i AI og treningsdata blir strategisk gull, må skapere tenke nøye gjennom om de vil ha ansiktet sitt kontrollert av en plattform i stedet for å eies av dem selv,» sa Vermillio-sjef Dan Neely til CNBC.
«Din likhet vil være en av de mest verdifulle eiendelene i AI-æraen, og når du først gir bort den kontrollen, kan det hende du aldri får den tilbake.»
Loti-sjef Luke Arrigoni sa at risikoen ved YouTubes nåværende policy angående biometriske data «er enorm.»
Begge lederne sa at de ikke ville råde noen av kundene deres til å registrere seg for YouTubes deepfake-deteksjonsverktøy.
YouTube-skapere som Mikhail Varshavski, en styresertifisert lege som går av «Doctor Mike», har sett flere og flere dypfalske videoer spre seg på nettet med utgivelsen av apper som OpenAIs Sora og Googles Veo 3.
Varshavski – som har fått mer enn 14 millioner abonnenter på YouTube i løpet av nesten et tiår – avslører regelmessig helsemyter og anmelder medisinske TV-dramaer for unøyaktigheter i videoene hans.
Han sa at han først så en deepfake av seg selv på TikTok, hvor han så ut til å promotere et «mirakel»-tilskudd.
«Det skremte meg tydeligvis, fordi jeg har brukt over et tiår på å investere i å samle publikums tillit og fortelle dem sannheten og hjelpe dem med å ta gode beslutninger om helsevesenet,» sa han til CNBC.
«Å se noen bruke min likhet for å lure noen til å kjøpe noe de ikke trenger eller som potensielt kan skade dem, skremte alt om meg i den situasjonen.»
Skapere har foreløpig ingen mulighet til å tjene penger på uautorisert bruk av deres likhet i dypfalske videoer, inkludert reklameinnhold.
YouTube ga tidligere i år skapere muligheten til å la tredjepartsfirmaer bruke videoene deres til å trene AI-modeller, selv om de heller ikke kompenseres i slike tilfeller.













