Vest-Virginias riksadvokat anla et søksmål torsdag hvor han anklager Apple for å la deres iCloud-tjeneste bli det selskapets interne kommunikasjon beskrev som «den største plattformen for distribusjon av barneporno».

Riksadvokat JB McCuskey, en republikaner, anklaget Apple for å prioritere brukernes personvern fremfor barnesikkerhet. Kontoret hans kalte saken den første i sitt slag av et offentlig byrå over distribusjon av materiale om seksuelle overgrep mot barn på Apples datalagringsplattform.

«Disse bildene er en permanent registrering av et barns traumer, og det barnet blir reviktimisert hver gang materialet blir delt eller sett,» sa McCuskey i uttalelsen. «Denne oppførselen er avskyelig, og Apples passivitet er utilgivelig.»

Apple sa i en uttalelse at de har implementert funksjoner som hindrer barn i å laste opp eller motta nakenbilder, og at de «nyskaper hver dag for å bekjempe stadig utviklende trusler og opprettholde den sikreste og mest pålitelige plattformen for barn.»

«Alle våre bransjeledende foreldrekontroller og funksjoner, som kommunikasjonssikkerhet – som automatisk griper inn på barnas enheter når nakenhet oppdages i meldinger, delte bilder, AirDrop og til og med live FaceTime-samtaler – er designet med sikkerheten, sikkerheten og personvernet til brukerne våre i kjernen,» sa Apple.

Selskapet har vurdert å skanne bilder, men forlot tilnærmingen etter bekymringer om brukernes personvern og sikkerhet, inkludert bekymringer om at det kan bli utnyttet av myndigheter som leter etter annet materiale for sensur eller arrestasjon, har Reuters rapportert.

McCuskeys kontor siterte en tekstmelding Apples daværende anti-svindelsjef sendte i 2020 om at det på grunn av Apples prioriteringer var «den største plattformen for distribusjon av barneporno.»

Kontoret hans anla søksmålet til Mason County Circuit Court. Søksmålet søker lovfestet og straffbar erstatning og ber om å få en dommer til å tvinge Apple til å implementere mer effektive tiltak for å oppdage støtende materiale og implementere sikrere produktdesign.

Alphabets Google, Microsoft og andre plattformleverandører sjekker opplastede bilder eller e-postvedlegg mot en database med identifikatorer av kjent materiale om seksuell overgrep mot barn levert av National Center for Missing and Exploited Children og andre oppgjørssentraler.

Fram til 2022 tok Apple en annen tilnærming. Den skannet ikke alle filer lastet opp til iCloud-lagringstilbudene, og dataene var ikke ende-til-ende kryptert, noe som betyr at politimyndigheter kunne få tilgang til dem med en arrestordre.

Reuters i 2020 rapporterte at Apple planla ende-til-ende-kryptering for iCloud, noe som ville ha satt data i en form som var ubrukelig av politimyndigheter. Den forlot planen etter at FBI klaget over at den ville skade etterforskningen.

I august 2021 kunngjorde Apple NeuralHash, som det utviklet for å balansere gjenkjenning av barnemisbruksmateriale med personvern ved å skanne bilder på brukernes enheter før opplasting.

Systemet ble kritisert av sikkerhetsforskere som var bekymret for at det kunne gi falske rapporter om misbruksmateriale, og det utløste et tilbakeslag fra personvernforkjempere som hevdet at det kunne utvides til å tillate myndighetsovervåking.

En måned senere forsinket Apple introduksjonen av NeuralHash før de kansellerte den i desember 2022, sa staten i sin uttalelse. Samme måned lanserte Apple et alternativ for ende-til-ende-kryptering for iCloud-data.

Staten sa at NeuralHash var dårligere enn andre verktøy og lett kunne unngås. Det sa at Apple lagrer og synkroniserer data gjennom iCloud uten proaktiv gjenkjenning av misbruksmateriale, slik at slike bilder kan sirkulere.

Selv om Apple ikke gikk gjennom arbeidet med å skanne bilder som ble lastet opp til iCloud, implementerte det en funksjon kalt Communication Safety som uskarp nakenhet og annet sensitivt innhold som sendes til eller fra et barns enhet.

Føderal lov krever at USA-baserte teknologiselskaper rapporterer misbruksmateriale til National Center for Missing and Exploited Children.

Apple i 2023 laget 267 rapporter, sammenlignet med 1,47 millioner av Google og 30,6 millioner av Meta Platforms, sa staten.

Statens krav gjenspeiler påstander i et foreslått gruppesøksmål anlagt mot Apple sent i 2024 i føderal domstol i California av enkeltpersoner avbildet på slike bilder.

Apple har flyttet for å avvise det søksmålet, og sier at firmaet er skjermet fra ansvar i henhold til paragraf 230 i Communications Decency Act, en lov som gir bred beskyttelse til internettselskaper fra søksmål om innhold generert av brukere.

Dele
Exit mobile version