Lesere som deg er med på å støtte MUO. Når du foretar et kjøp ved å bruke lenker på nettstedet vårt, kan vi tjene en tilknyttet provisjon. Les mer.

Apple annonserte planer om å skanne iCloud-innholdet ditt for seksuelt misbruk av barn (CSAM) i august 2021 for å beskytte barn mot overgrep fra rovdyr.

Selskapet planla å lansere en ny CSAM-deteksjonsfunksjon i iCloud Photos som ville skanne etter slikt innhold og rapportere samsvarende bilder til Apple samtidig som brukerens personvern opprettholdes.

Den nye funksjonen ble imidlertid møtt med blandede reaksjoner. Over et år siden den første kunngjøringen, dropper Apple offisielt planen om å skanne iCloud-bilder for CSAM.

Apple dropper planen om å skanne iCloud for materiale om overgrep mot barn

I følge en rapport fra KABLET, Apple går bort fra planen sin om å skanne iCloud for innhold som overgrep mot barn. Verktøyet ville skanne bilder lagret på iCloud for å finne de som samsvarer med kjente CSAM-bilder som identifisert av barnesikkerhetsorganisasjoner. Den kan da rapportere disse bildene fordi å eie CSAM-bilder er ulovlig i de fleste jurisdiksjoner, inkludert USA.

Hvorfor Apple kansellerte planen om å skanne iCloud-bilder

Etter den første kunngjøringen i 2021, møtte Apple tilbakeslag fra kunder, grupper og enkeltpersoner som talte for digitalt personvern og sikkerhet over hele verden. iPhones tilbyr vanligvis mer sikkerhet enn Android-enheter, og mange så på dette som et skritt tilbake. Mens det var en seier for barnesikkerhetsorganisasjoner, skrev over 90 policygrupper et åpent brev til Apple senere samme måned, og ba selskapet om å kansellere planen.

Brevet argumenterte at mens verktøyet har til hensikt å beskytte barn mot overgrep, kan det brukes til å sensurere ytringsfrihet og true brukernes personvern og sikkerhet. På grunn av økende press, stoppet Apple lanseringsplanene for å samle tilbakemeldinger og gjøre nødvendige justeringer av funksjonen. Tilbakemeldinger favoriserte imidlertid ikke Apples plan om å skanne iCloud-bilder, så selskapet dropper offisielt planene for godt.

I en uttalelse til WIRED sa selskapet:

"Vi har... besluttet å ikke gå videre med vårt tidligere foreslåtte CSAM-deteksjonsverktøy for iCloud Photos. Barn kan beskyttes uten at selskaper finkjemmer personopplysninger, og vi vil fortsette å samarbeide med myndigheter, barneadvokater og andre selskaper for å bidra til å beskytte unge mennesker, bevare deres rett til privatliv og gjøre internett til et tryggere sted for barn og for oss alle."

Apples nye plan for å beskytte barn

Apple omdirigerer innsatsen for å forbedre kommunikasjonssikkerhetsfunksjonene som ble annonsert i august 2021 og lansert i desember samme år.

Kommunikasjonssikkerhet er valgfritt og kan brukes av foreldre og foresatte for å beskytte barn mot både å sende og motta seksuelt eksplisitte bilder i iMessage. Funksjonen gjør slike bilder automatisk uskarpe, og barnet vil bli advart om farene involvert. Den advarer også noen hvis de prøver å søke etter CSAM på Apple-enheter.

Med planene om å lansere et CSAM-deteksjonsverktøy kansellert, ser selskapet frem til å forbedre funksjonen ytterligere og utvide den til flere kommunikasjonsapper.