
Apple annonce qu’il lutte contre la pédopornographie et dévoile de nouvelles protections pour la sécurité des enfants. Ces nouvelles protections seront mises en place avec iOS15, iPadOS 15, watchOS 8 et macOS 12 Monterey.
Les nouvelles protections qui seront utilisées par Apple sont : de nouvelles fonctionnalités de sécurité de communication dans Messages, une détection améliorée du contenu de matériel pédopornographique (CSAM) dans iCloud et des informations de connaissances mises à jour pour Siri et Recherche.
Sécurité de communication dans Messages
Apple annonce qu’il ajoutera de nouveaux outils au sein de l’application Messages dans le souci d’avertir les enfants ainsi que leurs parents lors de la réception ou lors de l’envoi de photos sexuellement explicites. Lors de la réception de ce type de contenu, Apple indique que la photo sera floue et que l’enfant sera averti et rassuré qu’il n’y a pas de problème s’il ne veut pas voir cette photo. Cependant, si l’enfant décide de voir la photo et appuie sur « Afficher la photo », il verra alors un message contextuel qui va lui informer de la raison pour laquelle l’image est considérée comme sensible.
En guise de précaution additionnel, l’enfant peut aussi être informé que, pour s’assurer qu’il est en sécurité, ses parents recevront un message s’ils le voient. Des protections similaires sont également disponibles quand un enfant essaye d’envoyer des photos sexuellement explicites. Par conséquent, l’enfant sera averti avant d’envoyer la photo et les parents pourront recevoir un message si l’enfant choisit de l’envoyer.

La société indique que Messages utilise l’apprentissage automatique sur l’appareil afin d’analyser les images jointes et déterminer si une photo est sexuellement explicite. D’après les dires de la société, la fonctionnalité est conçue pour qu’Apple n’ait pas accès aux messages.
Cette fonctionnalité sera mise à jour plus tard cette année pour les comptes configurés en tant que familles dans iCloud pour iOS 15, iPadOS 15 et macOS Monterey.
Détection améliorée du contenu de matériel pédopornographique (CSAM)
Une nouvelle technologie dans iOS et dans iPadOS permettra à Apple de reconnaître les images connues pour les abus sexuels d’enfants stockées sur iCloud. Ce qui permettra à la société de signaler ces cas à des organismes (tel le National Center for Missing and Exploited Children (NCMEC), aux États-Unis) qui collaborent avec les forces de l’ordre.
Selon les dires d’Apple, la méthode qui sera utilisée pour détecter les images pédopornographiques connues est conçue en tenant compte de la confidentialité des utilisateurs. Donc, au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil de l’utilisateur à l’aide d’une base de données de hachages d’images pédopornographiques connus fournis par le NCMEC et d’autres organisations de sécurité des enfants. Apple transforme davantage cette base de données en un ensemble illisible de hachages qui est stocké en toute sécurité sur les appareils des utilisateurs.

Avant qu’une image ne soit stockée dans iCloud Photos, un processus de correspondance sur l’appareil est effectué pour cette image par rapport aux hachages CSAM connus, a fait savoir Apple. Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans toutefois révéler le résultat. Ensuite, l’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image.
L’intersection d’ensembles privés offre à Apple la possibilité de savoir si un hachage d’image correspond aux hachages d’image pédopornographiques connus. Ce processus sera réalisée sans rien apprendre sur les hachages d’image qui ne correspondent pas. L’intersection d’ensembles privés ne permet pas à l’utilisateur d’apprendre s’il y a eu une correspondance.
En utilisant une autre technologie appelée partage de secret à seuil, le système garantit que le contenu des bons de sécurité ne peut pas être interprété par Apple à moins que le compte iCloud Photos ne franchisse un seuil de contenu pédopornographique connu. Le seuil est défini pour fournir un niveau de précision extrêmement élevé et garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné.
Ce n’est que lorsque le seuil est dépassé que la technologie cryptographique permet à Apple d’interpréter le contenu des bons de sécurité associés aux images pédopornographiques correspondantes. Apple examine ensuite manuellement chaque rapport pour confirmer qu’il existe une correspondance, désactive le compte de l’utilisateur et envoie un rapport au NCMEC. Si un utilisateur estime que son compte a été signalé par erreur, il peut faire appel pour que son compte soit rétabli.
Apple déclare que cette fonctionnalité sera proposée en tout premier lieu aux États-Unis. Néanmoins, la firme annonce que le système va arrivera dans d’autres pays au fur et à mesure.
Ressources dans Siri et dans la fonction Recherche
Par ailleurs, Apple déclare qu’il va proposer des conseils dans Siri et dans la fonction Recherche en fournissant des ressources supplémentaires afin d’aider les enfants et les parents à rester en sécurité et à obtenir de l’aide dans les situations dangereuses. Les utilisateurs qui, par exemple, demandent à Siri comment ils peuvent signaler la CSAM ou l’exploitation d’enfants seront dirigés vers des ressources pour savoir où et comment déposer un signalement.

D’un autre côté, Apple déclare que Siri et Recherche seront également mis à jour dans le but d’intervenir quand les utilisateurs réalisent des recherches qui ont rapport à la pédopornographie.