Apple verdedigt nieuwe technologie voor kinderbescherming voor het scannen van foto’s

Apple verdedigt nieuwe technologie voor kinderbescherming voor het scannen van foto’sGepubliceerd17 uur geledenDelencloseDeel paginaKopieer linkOver delenafbeeldingsbronGetty Imagesafbeelding bijschriftApple heeft gereageerd op critici van zijn nieuwe maatregelen tegen kindermishandeling

Apple heeft zijn nieuwe systeem verdedigd dat de telefoons van gebruikers scant op materiaal voor seksueel misbruik van kinderen (CSAM), na een terugslag van klanten en voorstanders van privacy.

De technologie zoekt naar overeenkomsten met bekend misbruikmateriaal voordat de afbeelding wordt geüpload naar de iCloud-opslag.

Critici waarschuwden dat het een “achterdeur” zou kunnen zijn om mensen te bespioneren, en meer dan 5.000 mensen en organisaties hebben een open brief tegen de technologie ondertekend.

Als gevolg hiervan heeft Apple beloofd het systeem om welke reden dan ook niet te “uitbreiden”.

Voorstanders van digitale privacy waarschuwden vorige week dat autoritaire regeringen de technologie zouden kunnen gebruiken om anti-LHBT-regimes te versterken, of om politieke dissidenten in landen waar protesten als illegaal worden beschouwd, hard aan te pakken.

Maar Apple zei dat het “niet zou ingaan op het verzoek van een regering om het systeem uit te breiden”.

Het publiceerde een vraag-en-antwoorddocument, waarin stond dat het tal van voorzorgsmaatregelen had genomen om te voorkomen dat zijn systemen worden gebruikt voor iets anders dan het opsporen van beelden van kindermisbruik.

“We hebben eerder te maken gehad met eisen om door de overheid opgelegde wijzigingen op te zetten en uit te voeren die de privacy van gebruikers aantasten, en hebben die eisen standvastig afgewezen. We zullen ze in de toekomst blijven weigeren”, aldus het.

Apple heeft in het verleden echter enkele concessies gedaan om in landen over de hele wereld te kunnen blijven opereren.

Moet encryptie aan banden worden gelegd om kindermishandeling tegen te gaan? Facebook-encryptie ‘mag kinderen geen kwaad doen’

Afgelopen oudejaarsavond verwijderde de techgigant 39.000 apps uit zijn Chinese App Store te midden van een hardhandig optreden tegen games zonder licentie door autoriteiten in het land.

Apple zei ook dat zijn anti-CSAM-tool het bedrijf niet toestaat het fotoalbum van een gebruiker te zien of te scannen. Het scant alleen foto’s die op iCloud worden gedeeld.

Het systeem zoekt naar overeenkomsten, veilig op het apparaat, op basis van een database met hashes van bekende CSAM-afbeeldingen die zijn verstrekt door kinderveiligheidsorganisaties.

Apple beweert ook dat het bijna onmogelijk is om onschuldige mensen valselijk aan te geven bij de politie. “De kans dat het systeem een ​​bepaald account ten onrechte zou markeren, is minder dan één op een biljoen per jaar”, zei het. Er is ook een menselijke beoordeling van positieve overeenkomsten.

Voorstanders van privacy hebben echter betoogd dat het enige dat verhindert dat technologie voor andere doeleinden wordt gebruikt, de belofte van Apple is dat dit niet het geval zal zijn.

Digitale rechtengroep de Electronic Frontier Foundation zei bijvoorbeeld dat “alles wat nodig is … een uitbreiding van de machine learning-parameters is om naar extra soorten inhoud te zoeken”.

“Dat is geen gladde helling, dat is een volledig gebouwd systeem dat wacht op externe druk om de minste verandering aan te brengen”, waarschuwde het.

Apple heeft ook geruststelling gegeven met betrekking tot een andere nieuwe functie die kinderen en hun ouders die gekoppelde gezinsaccounts gebruiken, waarschuwt wanneer seksueel expliciete foto’s worden verzonden of ontvangen.

Het bedrijf zegt dat zijn twee nieuwe functies niet dezelfde technologie gebruiken en zegt dat het “nooit” toegang zal krijgen tot de privécommunicatie van gebruikers.

Hoewel er een reactie was op de aankondiging van Apple door privacyadvocaten, verwelkomden sommige politici de nieuwe technologie.

De Britse minister van Volksgezondheid Sajid Javid zei dat het tijd was voor anderen, vooral Facebook, om dit voorbeeld te volgen.

.