Apple retarde les fonctionnalités controversées de protection de l'enfance après un tollé sur la vie privée

Apple retarde les fonctionnalités controversées de protection de l'enfance après un tollé sur la vie privée

Apple retarde ses fonctionnalités de protection de l'enfance annoncées le mois dernier, y compris une fonctionnalité controversée qui analyserait les photos des utilisateurs à la recherche de matériel pédopornographique (CSAM), à la suite de vives critiques selon lesquelles les changements pourraient diminuer la confidentialité des utilisateurs. Les changements devaient être déployés plus tard cette année.

« Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la propagation du matériel d'abus sexuel d'enfants », a déclaré Apple dans une déclaration à The Verge . «Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d'autres, nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d'une importance cruciale.»

Le communiqué de presse original d'Apple concernant les modifications, qui visaient à réduire la prolifération du matériel pédopornographique (CSAM), contient une déclaration similaire en haut de la page. Cette version a détaillé trois changements majeurs dans les travaux. Une modification apportée à la recherche et à Siri pointerait vers des ressources pour empêcher CSAM si un utilisateur recherchait des informations le concernant.

Les deux autres changements ont fait l'objet d'un examen plus approfondi. L'un alertait les parents lorsque leurs enfants recevaient ou envoyaient des photos sexuellement explicites et brouillerait ces images pour les enfants. L'autre aurait numérisé des images stockées dans les photos iCloud d'un utilisateur pour CSAM et les aurait signalées aux modérateurs d'Apple, qui pourraient ensuite renvoyer les rapports au National Center for Missing and Exploited Children, ou NCMEC.

Apple a longuement détaillé le système de numérisation de photos iCloud pour démontrer qu'il n'affaiblit pas la confidentialité des utilisateurs. En bref, il numérisait les photos stockées dans iCloud Photos sur votre appareil iOS et évaluerait ces photos avec une base de données de hachages d'images CSAM connus du NCMEC et d'autres organisations de sécurité des enfants.

Néanmoins, de nombreux experts en matière de confidentialité et de sécurité ont fortement critiqué l'entreprise pour le nouveau système, arguant qu'elle aurait pu créer un système de surveillance sur l'appareil et qu'il violait les les utilisateurs ont fait confiance à Apple pour la protection de la vie privée sur l'appareil. , « briserait les promesses clés du cryptage du messager lui-même et ouvrirait la porte à des abus plus larges. »

« Apple compromet le téléphone que vous et moi possédons et fonctionner », a déclaré Ben Thompson à Stratechery dans sa propre critique, « sans qu'aucun de nous ait son mot à dire sur la question. »