
Une loi bipartisane envisagée pourrait interdire aux adolescents d’utiliser des chatbots d’IA, en réponse aux inquiétudes des parents concernant des contenus inappropriés, allant de conversations sexuelles à des aides à la planification suicidaire.
Si le projet de loi GUARD venait à être adopté, cela pourrait avoir des conséquences sur les projets d’Apple, notamment pour le nouveau Siri.
LES RISQUES D’INTERDICTION POUR LES ADOLESCENTS
Les parents s’inquiètent de l’impact des chatbots d’IA sur les jeunes, arguant que ces technologies peuvent encourager des relations malsaines. Nombre d’entre eux ont récemment témoigné devant le Congrès pour exprimer leurs préoccupations suite à des interactions troublantes de leurs enfants avec ces systèmes, comme l’a rapporté NBC News.
« La réalité est que les entreprises d’IA et leurs investisseurs ont compris depuis des années que capturer la dépendance émotionnelle de nos enfants signifie domination sur le marché », a déclaré Megan Garcia, une mère de Floride, qui a intenté une action en justice contre la plateforme Character.AI.
Cette initiative législative vise à interdire l’accès aux chatbots d’IA pour les moins de 18 ans, afin de protéger les enfants contre les contenus nuisibles.
IMPACTS POTENTIELS SUR APPLE
Si la loi GUARD est adoptée, elle pourrait affecter Apple de trois manières :
- Premièrement, Apple pourrait être contraint de procéder à une vérification d’âge avant de permettre aux requêtes Siri de passer à ChatGPT. Actuellement, si Siri ne peut répondre à une question, il peut soit transmettre la requête à ChatGPT, soit demander à l’utilisateur s’il souhaite le faire, selon les paramètres.
- Deuxièmement, une fois le nouveau Siri lancé, il pourrait être considéré comme un chatbot d’IA, nécessitant à nouveau qu’Apple mette en place une restriction d’âge pour y accéder, ce qui devrait être intégré lors de la configuration de l’iPhone.
- Enfin, cela risquerait d’accroître la pression sur Apple et Google afin d’appliquer une vérification d’âge pour leurs boutiques d’applications respectives.
Des entreprises comme Meta ont suggéré qu’il serait plus judicieux qu’une seule vérification d’âge soit effectuée au niveau des boutiques d’applications plutôt que chaque application individuelle. Apple a jusqu’à présent résisté à cette idée, mais des arguments convaincants plaident en faveur de cette approche.
« Certains pensent que la vérification d’âge présente un risque pour la vie privée des enfants. Seule Apple ou Google s’en occupant présenterait un moindre risque. À mon avis, si je devais choisir qui protégerait le mieux des informations personnelles sensibles, ce serait sans conteste Apple », a commenté un spécialiste.