
Deux pays ont bloqué l’application Grok après son utilisation croissante pour générer des deepfakes non consensuels de femmes et d’enfants. Un troisième pays mène actuellement une enquête.
Trois sénateurs américains ont demandé à Apple de retirer temporairement les applications X et Grok de l’App Store en raison de la « génération de contenus écœurants ». Nous attendons toujours la réponse de l’entreprise.
Les contenus CSAM générés par Grok
L’outil AI Grok est accessible à la fois comme application autonome et via l’application X. Il l’est également à travers l’onglet Grok sur le site web de X.
De nombreuses preuves montrent que Grok génère des deepfakes non consensuels, en prenant des photos habillées et en retirant numériquement les vêtements pour les remplacer par un bikini ou d’autres vêtements suggestifs. Plus alarmant encore, certaines de ces créations concernent des enfants.
Bien que les images nues soient théoriquement bloquées par Grok, certains utilisateurs parviennent à contourner ce filtre grâce à des formulations spécifiques dans leurs requêtes.
Vendredi, trois sénateurs américains ont demandé à Apple de retirer temporairement les deux applications de l’App Store, notant que les images non consensuelles incluaient des matériaux liés aux abus sexuels sur enfants (CSAM).
Les sénateurs Ron Wyden, Ed Markey et Ben Ray Luján ont adressé une lettre ouverte aux PDG d’Apple et de Google, leur demandant de retirer les applications X et Grok « en attendant une enquête complète » concernant la « génération massive d’images sexualisées non consensuelles de femmes et d’enfants ».
Cette lettre souligne l’inaction de l’ancien PDG Elon Musk et en contraste avec la rapidité de retrait de l’application ICEBlock à la demande de la Maison Blanche. La seule réaction de Musk a été de limiter la génération d’images sur X aux abonnés payants, ce qui apparaît comme une approche cynique, étant donné que cette fonctionnalité reste accessible à tous via l’onglet Grok.
Deux pays interdisent l’application Grok
Selon Associated Press, la Malaisie et l’Indonésie ont bloqué l’application sur leur territoire.
Les régulateurs de ces deux nations d’Asie du Sud-Est ont indiqué que les contrôles existants n’empêchaient pas la création et la diffusion de contenus pornographiques faux, en particulier ceux impliquant des femmes et des mineurs. Le gouvernement indonésien a temporairement bloqué l’accès à Grok samedi, suivi par la Malaisie dimanche.
De plus, l’autorité britannique de régulation des médias, Ofcom, a ouvert une enquête formelle.
Ofcom a jugé préoccupants les rapports faisant état de l’utilisation du chatbot IA Grok sur X pour créer et partager des images dénudées de personnes, qui pourraient constituer des abus d’images intimes ou de la pornographie, ainsi que des images sexualisées d’enfants pouvant relever de matériaux liés aux abus sexuels sur enfants. Ofcom a donc décidé d’ouvrir une enquête formelle pour établir si X a manqué à ses obligations légales en vertu de la loi sur la sécurité en ligne.
Réponse d’Apple et Google toujours attendue
À l’heure où nous écrivons ces lignes, aucune réponse publique n’a encore été fournie par Apple ou Google, et les applications restent disponibles sur leurs App Store respectifs aux États-Unis. Nous avons contacté Apple pour obtenir un commentaire et fournirons une mise à jour en cas de réponse.