
L’année dernière, Apple a présenté un certain nombre de nouvelles fonctionnalités de sécurité qui permettra de lutter contre la pédopornographie, notamment la détection améliorée du contenu de matériel pédopornographique (CSAM) dans iCloud qui permettrait de scanner les photos des utilisateurs. La décision a été largement critiquée à cause de problèmes de confidentialité. Désormais, Apple annonce qu’il a mis fin au déploiement de ce système après l’avoir reporté.
Voici ce qu’Apple déclare dans un communiqué :
« Après une vaste consultation d’experts visant à recueillir des commentaires sur les initiatives de protection de l’enfance que nous avons proposées l’année dernière, nous approfondissons notre investissement dans la fonction de la sécurité des communications que nous avons mise à disposition pour la première fois en décembre 2021. Nous avons en outre décidé de ne pas aller de l’avant avec l’outil de détection CSAM proposé précédemment pour les photos iCloud. Les enfants peuvent être protégés sans que les entreprises passent au peigne fin les données personnelles, et nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d’autres entreprises pour aider à protéger les jeunes, à préserver leur droit à la vie privée et à faire d’Internet un endroit plus sûr pour les enfants et pour nous tous. »
Pour approfondir :