Den føderale kommunikasjonskommisjonen avsluttet torsdag en bot på 6 millioner dollar for en politisk konsulent på grunn av falske robocall som etterlignet president Bidens stemme, og oppfordret velgere i New Hampshire til ikke å stemme i delstatens demokratiske primærvalg.

I mai ble Steven Kramer, en demokratisk politisk konsulent i Louisiana, tiltalt i New Hampshire for samtaler som så ut til å få Biden til å ba innbyggerne om ikke å stemme før i november. Kramer hadde jobbet for Bidens primære utfordrer, rep. Dean Phillips, som fordømte samtalene.

I januar fortalte Kramer til medier at han betalte 500 dollar for å få oppfordringene sendt til velgerne for å øke oppmerksomheten til faren ved kunstig intelligens i kampanjer.

FCC sa at samtalene ble generert ved hjelp av et AI-generert dypfalsk lydopptak ment å høres ut som Bidens stemme.

FCC-regler forbyr overføring av unøyaktig oppringer-ID-informasjon. Kommisjonen sa at Kramer vil bli pålagt å betale boten innen 30 dager, ellers vil saken bli henvist til justisdepartementet for innkreving.

Kramer eller en talsperson kunne ikke umiddelbart nås.

«Det er nå billig og enkelt å bruke kunstig intelligens til å klone stemmer og oversvømme oss med falske lyder og bilder,» sa FCC-leder Jessica Rosenworcel. «Ved ulovlig å tilegne seg likheten til noen vi kjenner, kan denne teknologien ulovlig forstyrre valg. Vi må ringe det når vi ser det og bruke alle verktøyene vi har til rådighet for å stoppe denne svindelen.»

I august gikk Lingo Telecom med på å betale en bot på 1 million dollar etter at FCC sa at de overførte de falske robosamtalene i New Hampshire.

FCC sa at Lingo under forliket vil implementere en overholdelsesplan som krever streng overholdelse av FCCs autentiseringsregler for oppringer-ID.

Kommisjonen stemte i juli for å foreslå å kreve at radio- og fjernsynspolitiske reklamer skal avsløre om innhold er generert av AI. Det forslaget er fortsatt under behandling.

Dele
Exit mobile version