Apple betreurt verwarring over ‘iPhone-scannen’

Apple betreurt verwarring over ‘iPhone-scannen’Gepubliceerd36 minuten geledenDelencloseDeel paginaKopieer linkOver delenafbeeldingsbronReuters

Apple zegt dat de aankondiging van geautomatiseerde tools om seksueel misbruik van kinderen op de iPhone en iPad op te sporen “behoorlijk door elkaar gegooid” was.

Op 5 augustus onthulde het bedrijf nieuwe beelddetectiesoftware die Apple kan waarschuwen als bekende illegale afbeeldingen worden geüpload naar zijn iCloud-opslag.

Privacygroepen bekritiseerden het nieuws en sommigen zeiden dat Apple een achterdeur voor beveiliging in zijn software had gemaakt.

Het bedrijf zegt dat de aankondiging op grote schaal “verkeerd begrepen” is.

“We zouden willen dat dit voor iedereen wat duidelijker naar voren was gekomen”, zegt Apple-softwarechef Craig Federighi in een interview met de Wall Street Journal.

Hij zei dat – achteraf gezien – het tegelijkertijd introduceren van twee functies “een recept voor dit soort verwarring” was.

Wat zijn de nieuwe instrumenten?

Apple heeft twee nieuwe tools aangekondigd die zijn ontworpen om kinderen te beschermen. Ze zullen eerst in de VS worden ingezet.

Beelddetectie

De eerste tool kan bekend materiaal voor seksueel misbruik van kinderen (CSAM) identificeren wanneer een gebruiker foto’s uploadt naar iCloud-opslag.

Het Amerikaanse National Center for Missing and Exploited Children (NCMEC) houdt een database bij van bekende illegale afbeeldingen van kindermisbruik. Het slaat ze op als hashes – een digitale “vingerafdruk” van het illegale materiaal.

Cloudserviceproviders zoals Facebook, Google en Microsoft controleren al afbeeldingen aan de hand van deze hashes om er zeker van te zijn dat mensen geen CSAM delen.

image sourceReutersimage captionApple’s softwarechef Craig Federighi zei dat berichten “door elkaar gegooid” waren

Apple besloot een soortgelijk proces te implementeren, maar zei dat het de afbeelding zou matchen op de iPhone of iPad van een gebruiker, voordat het naar iCloud werd geüpload.

Federighi zei dat de iPhone niet zou controleren op dingen zoals foto’s van je kinderen in bad of op zoek naar pornografie.

Het systeem kon alleen “exacte vingerafdrukken” van specifieke bekende afbeeldingen van seksueel misbruik van kinderen matchen, zei hij.

Als een gebruiker meerdere afbeeldingen probeert te uploaden die overeenkomen met vingerafdrukken van kindermisbruik, wordt zijn account gemarkeerd bij Apple zodat de specifieke afbeeldingen kunnen worden beoordeeld.

Federighi zei dat een gebruiker in de regio van 30 overeenkomende afbeeldingen zou moeten uploaden voordat deze functie zou worden geactiveerd.

Berichten filteren

Naast de iCloud-tool heeft Apple ook een ouderlijk toezicht aangekondigd dat gebruikers kunnen activeren op de accounts van hun kinderen.

Indien geactiveerd, zou het systeem foto’s controleren die door – of naar – het kind zijn verzonden via de iMessage-app van Apple.

Als het machine learning-systeem zou beoordelen dat een foto naaktheid bevat, zou het de foto verduisteren en het kind waarschuwen.

Ouders kunnen er ook voor kiezen om een ​​melding te ontvangen als het kind ervoor kiest om de foto te bekijken.

Kritiek

Privacygroepen delen hun bezorgdheid dat de technologie kan worden uitgebreid en gebruikt door autoritaire regeringen om haar eigen burgers te bespioneren.

WhatsApp-hoofd Will Cathcart noemde de zet van Apple “zeer zorgwekkend”, terwijl de Amerikaanse klokkenluider Edward Snowden de iPhone een “spyPhone” noemde.

Federighi zei dat de “soundbyte” die zich na de aankondiging verspreidde, was dat Apple iPhones aan het scannen was op afbeeldingen.

“Dat is niet wat er gebeurt”, zei hij tegen de Wall Street Journal.

“We hebben een heel positief en sterk gevoel over wat we doen en we kunnen zien dat het op grote schaal verkeerd wordt begrepen.”

De tools worden later dit jaar toegevoegd aan de nieuwe versies van iOS en iPadOS.

.