Apple scant iPhones op afbeeldingen van seksueel misbruik van kinderen

Apple scant iPhones op afbeeldingen van seksueel misbruik van kinderen

Door James Clayton
Technologieverslaggever in Noord-Amerika

Gepubliceerd36 minuten geledenDelencloseDeel paginaKopieer linkOver delenafbeeldingsbronPA Media

Apple heeft details aangekondigd van een systeem om materiaal van seksueel misbruik van kinderen (CSAM) op de apparaten van klanten te vinden.

Voordat een afbeelding op iCloud-foto’s wordt opgeslagen, zoekt de technologie naar overeenkomsten van reeds bekende CSAM.

Apple zei dat als er een match wordt gevonden, een menselijke recensent de gebruiker zal beoordelen en rapporteren aan de politie.

Er zijn echter zorgen over de privacy dat de technologie kan worden uitgebreid om telefoons te scannen op verboden inhoud of zelfs politieke uitingen.

Experts maken zich zorgen dat de technologie door autoritaire regeringen kan worden gebruikt om haar burgers te bespioneren.

Apple zei dat nieuwe versies van iOS en iPadOS – die later dit jaar worden uitgebracht – “nieuwe toepassingen van cryptografie zullen hebben om de verspreiding van CSAM online te beperken, terwijl ze ontworpen zijn voor de privacy van gebruikers”.

Het systeem werkt door foto’s te vergelijken met een database van bekende afbeeldingen van seksueel misbruik van kinderen, samengesteld door het National Center for Missing and Exploited Children (NCMEC) en andere kinderveiligheidsorganisaties.

Die afbeeldingen worden vertaald in “hashes”, numerieke codes die kunnen worden “gematcht” met een afbeelding op een Apple-apparaat.

Apple zegt dat de technologie ook bewerkte maar vergelijkbare versies van originele afbeeldingen zal opvangen.

“Voordat een afbeelding wordt opgeslagen in iCloud-foto’s, wordt op het apparaat een matchproces voor die afbeelding uitgevoerd met de bekende CSAM-hashes”, aldus Apple.

Het bedrijf beweerde dat het systeem een ​​”extreem hoge mate van nauwkeurigheid had en minder dan een kans van één op een biljoen per jaar garandeert dat een bepaald account onjuist wordt gemarkeerd”.

Apple zegt dat het elk rapport handmatig zal beoordelen om te bevestigen dat er een match is. Het kan dan stappen ondernemen om het account van een gebruiker uit te schakelen en aangifte te doen bij de politie.

Het bedrijf zegt dat de nieuwe technologie “aanzienlijke” privacyvoordelen biedt ten opzichte van bestaande technieken – aangezien Apple alleen leert over de foto’s van gebruikers als ze een verzameling bekende CSAM in hun iCloud-foto’s-account hebben.

Sommige privacy-experts hebben echter hun zorgen geuit.

“Ongeacht wat de langetermijnplannen van Apple zijn, ze hebben een heel duidelijk signaal afgegeven. Naar hun (zeer invloedrijke) mening is het veilig om systemen te bouwen die de telefoons van gebruikers scannen op verboden inhoud”, Matthew Green, een beveiligingsonderzoeker bij Johns Hopkins University, zei.

“Of ze op dat punt gelijk of ongelijk blijken te hebben, doet er nauwelijks toe. Dit zal de dam doorbreken – regeringen zullen het van iedereen eisen.”

.