Scanner controversé de pornographie enfantine dans iOS 15 : Apple reporte l’introduction

Apple met un frein à deux fonctions de protection des enfants prévues pour iOS 15 qui ont fait l’objet de critiques massives : elle veut désormais « recueillir des commentaires » et « apporter des améliorations » au cours des « prochains mois » et donc prendre plus de temps pour la mise en œuvre, a annoncé vendredi le fabricant de l’iPhone. La raison invoquée est le retour d’information des clients, des chercheurs en sécurité et des groupes d’intérêt, entre autres.

 

Toutefois, Apple a déclaré qu’elle prévoyait toujours d’introduire ces « fonctionnalités extrêmement importantes ». Elles sont destinées à protéger les enfants contre les contacts avec les pédocriminels et à limiter la diffusion de photos montrant des abus sexuels sur des enfants.

Sommaire

Selon le plan d’Apple, iMessage ou l’application « Messages » d’Apple reconnaîtra à l’avenir les photos dénudées et les affichera de manière floue et avec un avertissement. La fonction peut être activée par les parents sur les iPhones de leurs enfants, selon le fabricant. Si des enfants de moins de 13 ans ouvrent une photo marquée de cette manière malgré les avertissements, les parents recevront un message.

 

Une telle fonctionnalité détruit la promesse d’un crypto-messager avec un cryptage de bout en bout, se sont plaints les défenseurs des libertés civiles, car la communication ne reste plus privée dans tous les cas. Pour les enfants en situation de maltraitance, la fonction peut également constituer une menace au lieu de fournir une protection. Il est également probable que la reconnaissance des images de nudité basée sur l’apprentissage automatique ne sera pas seulement efficace pour les contenus pornographiques : Le responsable des logiciels d’Apple a déjà admis qu’il pouvait faire des erreurs et être trompé.

Le deuxième système prévu par Apple pour lutter contre la diffusion de photos abusives via son service iCloud suscite pour l’instant encore plus de critiques. Au lieu d’analyser le matériel montrant des abus sexuels sur des enfants (CSAM) du côté du serveur comme d’autres fournisseurs de nuages, Apple prévoit de le détecter localement sur l’iPhone du client. À cette fin, les photos iCloud sont mises en correspondance directement sur l’appareil avec une base de données censée contenir des hachages de matériel d’abus connus.

 

Lire aussi

 

À partir d’une trentaine d’occurrences, les employés d’Apple sont informés et peuvent alors décrypter et examiner une version à faible résolution du matériel signalé par le système. S’ils arrivent à la conclusion qu’il s’agit effectivement de photos d’abus, l’organisation NCMEC est informée aux États-Unis, qui peut à son tour contacter les services de police.

L’entreprise a insisté à plusieurs reprises sur le fait que la correspondance des images au niveau local sur l’iPhone est plus respectueuse de la vie privée et mieux vérifiable en externe qu’un scan côté serveur. Les critiques, cependant, mettent en garde contre le précédent : une fois qu’une recherche locale de contenu illégal aura été établie par les appareils, d’autres fabricants suivront avec des systèmes similaires – tout en suscitant inévitablement le désir des gouvernements de l’utiliser pour surveiller et supprimer la distribution d’autres contenus. Apple crée ainsi un système de surveillance dans lequel les iPhones se scannent tout simplement eux-mêmes, selon le lanceur d’alerte de la NSA Edward Snowden, et les appareils trahissent ainsi leurs propriétaires.

De nombreuses organisations de défense des droits civiques, des défenseurs de la protection des données, des responsables politiques, des chercheurs en sécurité, des cryptographes et des informaticiens ont demandé à Apple d’empêcher l’introduction des fonctionnalités prévues et de supprimer ce système. Les changements que la société iPhone envisage d’apporter aux fonctions présentées jusqu’à présent n’ont pas été annoncés pour l’instant.


[lbe)