Close Menu
App4PhoneApp4Phone
    Facebook X (Twitter)
    • Bons plans
    • Fonds d’écran
    • Rumeurs
    • À propos
    • Publicité sur App4Phone
    Facebook X (Twitter)
    App4PhoneApp4Phone
    • Accueil
    • Actualité
    • Astuces
    • Boutique
      • Coques
        • iPhone 16
        • iPhone 15
        • iPhone 14
        • iPhone 13
        • iPhone 12
        • iPhone 11
        • iPhone XR
        • iPhone X(S)
        • iPhone SE
        • iPhone 8
      • Verres trempés
        • iPhone 16
        • iPhone 15
        • iPhone 14
        • iPhone 13
        • iPhone 12
        • iPhone 11
        • iPhone XR
        • iPhone X(S)
        • iPhone SE
        • iPhone 8
      • Accessoires
    • Contact
    • Bons plans
    • Fonds d’écran
    • Rumeurs
    • À propos
    • Publicité sur App4Phone
    App4PhoneApp4Phone
    Home»Actualité»Apple va scanner les photos des utilisateurs afin de lutter contre la pédopornographie
    Actualité

    Apple va scanner les photos des utilisateurs afin de lutter contre la pédopornographie

    Marc Olivier TelfortBy Marc Olivier Telfortaoût 6, 2021Updated:août 9, 2021Aucun commentaire5 Mins Read
    Share Facebook Twitter Pinterest LinkedIn Tumblr Reddit Telegram Email
    Share
    Facebook Twitter LinkedIn Pinterest Email

    Apple macOS Monterey watchOS 8 iPadOS 15 iOS 15 Apple va scanner les photos des utilisateurs afin de lutter contre la pédopornographie

    Apple annonce qu’il lutte contre la pédopornographie et dévoile de nouvelles protections pour la sécurité des enfants. Ces nouvelles protections seront mises en place avec iOS15, iPadOS 15, watchOS 8 et macOS 12 Monterey.

    Les nouvelles protections qui seront utilisées par Apple sont : de nouvelles fonctionnalités de sécurité de communication dans Messages, une détection améliorée du contenu de matériel pédopornographique (CSAM) dans iCloud et des informations de connaissances mises à jour pour Siri et Recherche.

    Sécurité de communication dans Messages

    Apple annonce qu’il ajoutera de nouveaux outils au sein de l’application Messages dans le souci d’avertir les enfants ainsi que leurs parents lors de la réception ou lors de l’envoi de photos sexuellement explicites. Lors de la réception de ce type de contenu, Apple indique que la photo sera floue et que l’enfant sera averti et rassuré qu’il n’y a pas de problème s’il ne veut pas voir cette photo. Cependant, si l’enfant décide de voir la photo et appuie sur « Afficher la photo », il verra alors un message contextuel qui va lui informer de la raison pour laquelle l’image est considérée comme sensible.

    En guise de précaution additionnel, l’enfant peut aussi être informé que, pour s’assurer qu’il est en sécurité, ses parents recevront un message s’ils le voient. Des protections similaires sont également disponibles quand un enfant essaye d’envoyer des photos sexuellement explicites. Par conséquent, l’enfant sera averti avant d’envoyer la photo et les parents pourront recevoir un message si l’enfant choisit de l’envoyer.

    iMessage Message Images Sexuelles Lutte Apple Contre Pedopornographie Apple va scanner les photos des utilisateurs afin de lutter contre la pédopornographie

    La société indique que Messages utilise l’apprentissage automatique sur l’appareil afin d’analyser les images jointes et déterminer si une photo est sexuellement explicite. D’après les dires de la société, la fonctionnalité est conçue pour qu’Apple n’ait pas accès aux messages.

    Cette fonctionnalité sera mise à jour plus tard cette année pour les comptes configurés en tant que familles dans iCloud pour iOS 15, iPadOS 15 et macOS Monterey.

    Détection améliorée du contenu de matériel pédopornographique (CSAM)

    Une nouvelle technologie dans iOS et dans iPadOS permettra à Apple de reconnaître les images connues pour les abus sexuels d’enfants stockées sur iCloud. Ce qui permettra à la société de signaler ces cas à des organismes (tel le National Center for Missing and Exploited Children (NCMEC), aux États-Unis) qui collaborent avec les forces de l’ordre.

    Selon les dires d’Apple, la méthode qui sera utilisée pour détecter les images pédopornographiques connues est conçue en tenant compte de la confidentialité des utilisateurs. Donc, au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil de l’utilisateur à l’aide d’une base de données de hachages d’images pédopornographiques connus fournis par le NCMEC et d’autres organisations de sécurité des enfants. Apple transforme davantage cette base de données en un ensemble illisible de hachages qui est stocké en toute sécurité sur les appareils des utilisateurs.

    Lutte Apple Contre Pedopornographie Methode Apple va scanner les photos des utilisateurs afin de lutter contre la pédopornographie

    Avant qu’une image ne soit stockée dans iCloud Photos,  un processus de correspondance sur l’appareil est effectué pour cette image par rapport aux hachages CSAM connus, a fait savoir Apple. Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans toutefois révéler le résultat. Ensuite, l’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image.

    L’intersection d’ensembles privés offre à Apple la possibilité de savoir si un hachage d’image correspond aux hachages d’image pédopornographiques connus. Ce processus sera réalisée sans rien apprendre sur les hachages d’image qui ne correspondent pas. L’intersection d’ensembles privés ne permet pas à l’utilisateur d’apprendre s’il y a eu une correspondance.

    En utilisant une autre technologie appelée partage de secret à seuil, le système garantit que le contenu des bons de sécurité ne peut pas être interprété par Apple à moins que le compte iCloud Photos ne franchisse un seuil de contenu pédopornographique connu. Le seuil est défini pour fournir un niveau de précision extrêmement élevé et garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné.

    Ce n’est que lorsque le seuil est dépassé que la technologie cryptographique permet à Apple d’interpréter le contenu des bons de sécurité associés aux images pédopornographiques correspondantes. Apple examine ensuite manuellement chaque rapport pour confirmer qu’il existe une correspondance, désactive le compte de l’utilisateur et envoie un rapport au NCMEC. Si un utilisateur estime que son compte a été signalé par erreur, il peut faire appel pour que son compte soit rétabli.

    Apple déclare que cette fonctionnalité sera proposée en tout premier lieu aux États-Unis. Néanmoins, la firme annonce que le système va arrivera dans d’autres pays au fur et à mesure.

    Ressources dans Siri et dans la fonction Recherche

    Par ailleurs, Apple déclare qu’il va proposer des conseils dans Siri et dans la fonction Recherche en fournissant des ressources supplémentaires afin d’aider les enfants et les parents à rester en sécurité et à obtenir de l’aide dans les situations dangereuses. Les utilisateurs qui, par exemple, demandent à Siri comment ils peuvent signaler la CSAM ou l’exploitation d’enfants seront dirigés vers des ressources pour savoir où et comment déposer un signalement.

    Lutte Apple Contre Pedopornographie Siri et Recherche Apple va scanner les photos des utilisateurs afin de lutter contre la pédopornographie

    D’un autre côté, Apple déclare que Siri et Recherche seront également mis à jour dans le but d’intervenir quand les utilisateurs réalisent des recherches qui ont rapport à la pédopornographie.

    enfant Enfants iCloud iOS 15 iPadOS 15 macOS 12 macOS Monterey photos Porno
    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous ArticleBons plans App Store du 05/08/2021
    Next Article Apple invite plus d’utilisateurs à tester la bêta d’iOS 15, macOS 12 Monterey, watchOS 8 et de tvOS 15
    Marc Olivier Telfort
    • X (Twitter)
    • Instagram
    • LinkedIn

    Amoureux de l’informatique, de la psychologie et plus généralement de l’high-tech. Je suis rédacteur chez appsystem.fr et app4phone.fr. Fan inconditionnel des produits Apple, j’essaye de transmettre ma passion au travers de mes publications.

    Related Posts

    Actualité

    Apple face à une pénurie critique de composants de puces à cause de l’essor de l’IA

    janvier 14, 2026
    Actualité

    Apple peaufine Gemini : Siri sans marque Google et des améliorations attendues

    janvier 14, 2026
    Actualité

    Une série documentaire sur la vie légendaire d’Andre Agassi arrive sur Apple TV+

    janvier 14, 2026
    Leave A Reply Cancel Reply

    la coque iphone la plus fine du monde
    Top 5

    L’iPhone 18 Pro se prépare à deux changements de design majeurs

    novembre 21, 2025

    iOS 26.2 : date de sortie et nouvelles fonctionnalités pour les iPhone

    décembre 3, 2025

    Lancement imminent de la nouvelle Apple TV 4K et d’autres produits

    octobre 14, 2025

    iPhone 18 : un changement de cap pour Apple depuis 2019

    décembre 2, 2025

    iOS 26.1 : quatre nouvelles façons de personnaliser votre iPhone

    octobre 28, 2025
    Suivez-nous
    • Facebook 4.3K
    • Twitter 2.5K
    Facebook X (Twitter)
    • À propos
    • Contact
    • Publicité sur App4Phone

    Nos sites : ShopSystem • AppSystem • Worldissmall

    Copyright © 2026 App4Phone. Publié depuis 2011.

    bannière appstore

    Apple, le logo Apple, iPod, iTunes et Mac sont des marques d’Apple Inc., déposées aux États-Unis et dans d’autres pays. iPhone et MacBook Air sont des marques déposées d’Apple Inc. MobileMe est une marque de service d’Apple Inc. App4Phone.fr et son App ne sont pas liés à Apple et les marques citées sont la propriété de leurs détenteurs respectifs.

    Type above and press Enter to search. Press Esc to cancel.