Scan de pornographie infantile sur les iPhones : Apple supprime la description des fonctions de son site web

Apple a retiré de son site web toutes les références à la détection de matériel d’abus prévue pour iOS 15. Un porte-parole de l’entreprise a répondu à une question sur les autres projets d’Apple pour la détection de CSAM (Child Sexual Abuse Material).

Suite aux critiques massives des défenseurs de la vie privée, des défenseurs des droits civiques, des chercheurs en sécurité et des clients, Apple avait reporté l’introduction de la reconnaissance CSAM à une date indéterminée. L’entreprise avait annoncé en septembre qu’elle souhaitait recueillir des réactions et apporter des améliorations au cours des « prochains mois » – cette indication a également disparu.

Le plan initialement annoncé par Apple prévoit un examen des photos iCloud sur les appareils des clients. Pour cela, les photos sur les iPhones seraient comparées à une base de données qui contiendrait des hashs de matériel d’abus documentés par différentes organisations. À partir d’une trentaine d’occurrences, le système d’exploitation devrait informer les collaborateurs d’Apple qui peuvent décrypter et consulter une version basse résolution des images. Si les photos sont considérées comme des CSAM, l’organisation NCMEC est contactée aux États-Unis et peut à son tour informer les autorités de poursuite pénale.

Apple avait fait valoir qu’un tel système était plus respectueux de la vie privée que le scannage CSAM dans le cloud, qui est généralement utilisé. Les critiques ont mis en garde avec insistance contre le précédent : une fois qu’une fonction de scan pour les contenus illégaux sera disponible, d’autres fabricants suivront avec des systèmes similaires – et éveilleront des envies d’utiliser la technique pour signaler d’autres contenus indésirables. Les iPhones finiraient par trahir leurs propriétaires, a écrit le lanceur d’alerte de la NSA Edward Snowden, mettant en garde contre la création d’un système de surveillance.

Lire aussi

Le site web d’Apple sur le contrôle parental ne mentionne plus que la nouvelle fonction d’avertissement pour les photos de nudité dans les messages iMessage, qui a été intégrée dans les systèmes d’exploitation iOS et iPadOS 15.2, macOS 12.1 et watchOS 8.3. Ici, Apple a écouté le feedback et a supprimé la notification automatique des parents prévue à l’origine en cas de réception ou d’envoi de contenus nus présumés.

L’application de messagerie vérifie si les photos jointes sont nues, écrit Apple – le cryptage de bout en bout d’iMessage n’en est pas affecté. La reconnaissance des photos de nudité fonctionne de manière purement locale et aucune information ne doit quitter l’appareil. Apple n’a aucun droit de regard et les messages ne sont pas envoyés « aux parents ou à quiconque ». La fonction de filtrage optionnelle n’est pour l’instant disponible qu’aux Etats-Unis dans le cadre du partage familial.

Lire aussi