
Il y a quelques mois, Apple a organisé un atelier sur l’apprentissage machine préservant la vie privée, présentant des discussions sur la sécurité et d’autres domaines clés du développement responsable de l’IA. Désormais, les présentations sont rendues publiques. Retour sur trois moments forts.
Tout comme avec les présentations de l’atelier 2024 sur l’apprentissage machine centré sur l’humain, Apple a publié un article sur son blog de recherche en apprentissage machine, incluant des vidéos et une liste exhaustive des études présentées lors de cet événement hybride de deux jours, qui a eu lieu les 20 et 21 mars 2025.
Comprendre la confidentialité différentielle
La plupart des travaux présentés abordent la confidentialité différentielle, devenue la méthode de protection des données utilisateurs d’Apple ces dernières années, malgré certaines critiques. En résumé, cette technique ajoute du bruit aux données utilisateurs avant leur téléchargement, rendant impossible l’identification de l’information réelle en cas d’interception.
Voici comment Apple la définit :
La technologie de confidentialité différentielle d’Apple repose sur l’idée qu’un bruit statistique légèrement biaisé peut masquer les données individuelles d’un utilisateur avant leur partage avec Apple.
Trois études mises en avant lors de l’événement
1. Confidentialité locale par pan-privée pour analytics fédérées, présentée par Guy Rothblum (Apple)
Cette étude, publiée le 14 mars, s’appuie sur des recherches antérieures. Elle montre que sur un appareil accédé de façon inappropriée, il est quasiment impossible de collecter des données d’utilisation sans compromettre la vie privée. Les chercheurs proposent des méthodes de chiffrement permettant de collecter des statistiques utiles tout en protégeant l’activité individuelle.
2. Recherche privée scalable avec Wally, présentée par Rehan Rishi et Haris Mughees (Apple)
Cette présentation examine comment Apple maintient la confidentialité tout en réduisant les coûts liés aux recherches chiffrées à grande échelle. L’étude révèle des méthodes permettant d’envoyer des requêtes réelles entourées de fausses données, réduisant le volume de bruit à envoyer par utilisateur lorsque le nombre de requêtes augmente simultanément.
3. Données synthétiques différemment privées via des API de modèles de fondation, présentée par Sivakanth Gopi (Microsoft Research)
Cette recherche vise à générer des données synthétiques de haute qualité préservant l’utilité des données réelles. Elle introduit une méthode appelée Évolution Privée, laquelle guide les modèles API à produire des versions synthétiques de données privées similaires aux données réelles, sans nécessiter d’accès direct aux modèles.
Liste complète des études
En plus des vidéos mises en avant, Apple a publié des liens vers 25 études présentées lors de l’événement, dont certaines provenant de chercheurs d’Apple, mais aussi de Microsoft, Google, et des institutions telles que le MIT et l’Université de Californie à Berkeley.
- AirGapAgent: Protecting Privacy-Conscious Conversational Agents
- A Generalized Binary Tree Mechanism for Differentially Private Approximation of All-Pair Distances
- Differentially Private Synthetic Data via Foundation Model APIs 1: Images
- Differentially Private Synthetic Data via Foundation Model APIs 2: Text