I august 2021 avslørte Apple sine planer om å skanne iPhones etter bilder av seksuelle overgrep mot barn. Dette trekket applaus fra barnevernsgrupper, men vekket bekymring blant personvern- og sikkerhetseksperter om at funksjonen kan misbrukes.

Apple planla opprinnelig å inkludere skanningsteknologi for barn seksuelt misbruk (CSAM) i iOS 15; det har i stedet forsinket funksjonens utrulling på ubestemt tid for å be om tilbakemelding før den ble utgitt fullstendig.

Så hvorfor ble CSAM -gjenkjenningsfunksjonen gjenstand for heftig debatt, og hva gjorde at Apple utsatte lanseringen?

Hva gjør Apples fotoskanningsfunksjon?

Apple kunngjorde å implementere fotoskanningsfunksjonen i håp om å bekjempe seksuelle overgrep mot barn. Alle bildene på enhetene til Apple -brukere blir skannet etter pedofili -innhold ved hjelp av "NueralHash" -algoritmen opprettet av Apple.

I tillegg vil alle Apple -enheter som brukes av barn ha en sikkerhetsfunksjon som automatisk uskarpe bilder av voksne hvis de mottas av et barn, og brukeren vil bli advart to ganger hvis de prøver å åpne dem.

Bortsett fra å minimere eksponering for vokseninnhold, hvis foreldre registrerer enhetene som eies av barna deres for ekstra sikkerhet, ville foreldrene bli varslet i tilfelle barnet mottar eksplisitt innhold fra noen på nett.

Les mer: Hva du trenger å vite om Apples barnesikring

Når det gjelder voksne som bruker Siri til å lete etter alt som seksualiserer barn, vil Siri ikke gjøre det søket og foreslå andre alternativer i stedet.

Data fra alle enheter som inneholder 10 eller flere bilder som algoritmene anser som mistenkelige, blir dekryptert og utsatt for menneskelig vurdering.

Hvis disse bildene eller andre på enheten viser seg å matche noe fra databasen levert av Nasjonalt senter for savnede og utnyttede barn, vil det bli rapportert til myndighetene og brukerens konto blir suspendert.

Hovedbekymringer angående fotoskanningsfunksjonen

CSAM -gjenkjenningsfunksjonen ville ha gått live med lanseringen av iOS 15 i september 2021, men i ansiktet av utbredt rop, bestemte Apple seg for å ta mer tid til å samle tilbakemeldinger og gjøre forbedringer av dette trekk. Her er Apples fulle uttalelse om forsinkelsen:

"Forrige måned kunngjorde vi planer for funksjoner som er ment å hjelpe til med å beskytte barn mot rovdyr som bruke kommunikasjonsverktøy for å rekruttere og utnytte dem, og begrense spredningen av seksuelle overgrep mot barn Materiale.

Basert på tilbakemeldinger fra kunder, fortalergrupper, forskere og andre, har vi besluttet å ta oss ekstra tid de neste månedene for å samle innspill og gjøre forbedringer før vi slipper denne kritisk viktige barnesikkerheten funksjoner".

Nesten halvparten av bekymringene knyttet til Apples fotoskanningsfunksjon dreier seg om personvern; resten av argumentene inkluderer sannsynlig unøyaktighet i algoritmer og potensiell misbruk av systemet eller smutthullene.

La oss dele det i fire deler.

Potensiell misbruk

Å vite at materiale som matcher barnepornografi eller kjente bilder av seksuelle overgrep mot barn, vil få en enhet til den "mistenkelige" listen, kan sette cyberkriminelle i gang.

De kan forsettlig bombardere en person med upassende innhold gjennom iMessage, WhatsApp eller andre midler og få den personens konto suspendert.

Apple har forsikret brukerne om å klage hvis kontoene deres er suspendert på grunn av en misforståelse.

Insidermisbruk

Selv om den er designet for en velvillig årsak, kan denne funksjonen bli en total katastrofe for visse mennesker hvis enhetene deres er registrert i systemet, med eller uten deres kunnskap, av pårørende som er interessert i å overvåke kommunikasjonen.

Selv om det ikke skjer, har Apple opprettet en bakdør for å gjøre brukernes data tilgjengelig på slutten av dagen. Nå handler det om motivasjon og besluttsomhet for folk å få tilgang til andres personlige informasjon.

I slekt: Hva er en bakdør og hva gjør den?

Det letter ikke bare et stort brudd på personvernet, men baner også vei for krenkende, giftige eller kontrollerende slektninger, foresatte, venner, kjærester, omsorgspersoner og ekser for ytterligere å invadere noens personlige rom eller begrense deres frihet.

På den ene siden er det ment å bekjempe seksuelle overgrep mot barn; på den andre siden kan den brukes til å videreføre andre typer overgrep.

Statens overvåkning

Apple har alltid fremstilt seg selv som et mer personvernbevisst merke enn konkurrentene. Men nå kan det gå inn i en glatt skråning for å måtte oppfylle de uendelige kravene til åpenhet i brukerdata fra myndigheter.

Systemet det har opprettet for å oppdage pedofili innhold kan brukes til å oppdage alle slags innhold på telefoner. Det betyr at regjeringer med en kultmentalitet kan overvåke brukere på et mer personlig nivå hvis de får tak i det.

Regjerende engasjement i ditt daglige og personlige liv kan være undertrykkende eller ikke, og er en krenkelse av personvernet ditt. Tanken om at du bare trenger å være bekymret for slike invasjoner hvis du har gjort noe galt, er feil tenkning, og klarer ikke å se den ovennevnte glatte skråningen.

Falske alarmer

En av de største bekymringene ved bruk av algoritmer for å matche bilder med databasen er falske alarmer. Hashing -algoritmer kan feilaktig identifisere to bilder som kamper selv om de ikke er de samme. Disse feilene, kalt "kollisjoner", er spesielt alarmerende i forbindelse med innhold om seksuelle overgrep mot barn.

Forskere fant flere kollisjoner i "NeuralHash" etter at Apple kunngjorde at de ville bruke algoritmen til å skanne bilder. Apple svarte på spørsmål om falske alarmer ved å påpeke at resultatet vil bli vurdert av et menneske på slutten, så folk trenger ikke bekymre seg for det.

Er Apples CSAM -pause permanent?

Det er mange fordeler og ulemper med Apples foreslåtte funksjon. Hver av dem er ekte og holder vekt. Det er fortsatt uklart hvilke spesifikke endringer Apple kan innføre i CSAM-skanningsfunksjonen for å tilfredsstille kritikerne.

Det kan begrense skanningen til delte iCloud -album i stedet for å involvere brukernes enheter. Det er svært lite sannsynlig for Apple å droppe disse planene helt siden selskapet vanligvis ikke er tilbøyelig til å gi etter på planene.

Imidlertid er det klart fra den utbredte tilbakeslaget og Apples holdning til planene selskaper bør innlemme forskningsmiljøet fra begynnelsen, spesielt for uprøvde teknologi.

DelekvitringE -post
Internett -sikkerhet: 50+ tips for å holde barna trygge online

Barn er hovedmål for online rovdyr og nettmobbinger. Disse praktiske tipsene kan lære foreldre hvordan de kan være trygge på nettet.

Les neste

Relaterte temaer
  • Sikkerhet
  • IPhone
  • Personvern for smarttelefoner
  • eple
  • Personvern på nettet
  • Overvåkning
Om forfatteren
Fawad Ali (19 artikler publisert)

Fawad er en IT- og kommunikasjonsingeniør, håpefull gründer og forfatter. Han gikk inn på arenaen for innholdskriving i 2017 og har jobbet med to digitale markedsføringsbyråer og mange B2B og B2C -klienter siden den gang. Han skriver om sikkerhet og teknologi ved MUO, med sikte på å utdanne, underholde og engasjere publikum.

Mer fra Fawad Ali

Abonner på vårt nyhetsbrev

Bli med i vårt nyhetsbrev for tekniske tips, anmeldelser, gratis ebøker og eksklusive tilbud!

Klikk her for å abonnere