
L’Union européenne a ouvert une enquête concernant le chatbot Grok, qui aurait généré 23 000 images d’abus sexuels sur des enfants (CSAM) en seulement 11 jours. Selon des estimations, Grok aurait produit un volume alarmant de contenus inappropriés, incitant les autorités à agir.
Le Center for Countering Digital Hate (CCDH) a récemment publié des conclusions inquiétantes. Dans un échantillon aléatoire de 20 000 images générées par Grok entre le 29 décembre et le 9 janvier, le CCDH a extrapolé que près de 3 millions d’images sexualisées auraient été créées durant cette période. Parmi celles-ci, on estime que 23 000 concernent des enfants. En moyenne, Grok aurait produit 190 images sexualisées par minute, dont une image concernant un enfant toutes les 41 secondes.
Face à cette situation, trois sénateurs américains ont demandé à Tim Cook, le PDG d’Apple, de retirer temporairement X et Grok de l’App Store, dénonçant la « génération de contenus répugnants ». Aucune action n’a encore été entreprise par les entreprises concernées, alors que Grok a déjà été interdit dans deux pays et que des enquêtes sont en cours en Californie et au Royaume-Uni.
La nouvelle enquête de l’UE a été lancée sous la loi sur les services numériques, visant à évaluer si xAI a pris des mesures adéquates pour mitiger les risques associés à l’utilisation de Grok et à la prolifération de contenus qui pourraient constituer de la pornographie infantile. Henna Virkkunen, la responsable des technologies de l’UE, a déclaré que « les deepfakes sexuels non consensuels impliquant des femmes et des enfants sont une forme de dégradation inacceptable ». Si l’entreprise est reconnue coupable d’avoir enfreint la réglementation, elle encourt une amende pouvant atteindre 6 % de son chiffre d’affaires annuel mondial.