
Après l’interdiction l’an dernier des applications de réseaux sociaux pour les adolescents, l’Australie renforce désormais les exigences de vérification d’âge pour les applications d’IA. Voici les détails.
Les applications d’IA sous surveillance à cause des problèmes de santé mentale
L’année dernière, l’Australie a été le premier pays à interdire les applications de réseaux sociaux pour les jeunes, marquant ainsi une initiative nationale visant à protéger la santé mentale des jeunes utilisateurs.
Cette décision a été motivée par des préoccupations croissantes concernant l’impact des réseaux sociaux sur la santé mentale des jeunes, un débat qui s’est intensifié suite à la publication d’ouvrages tels que The Anxious Generation de Jonathan Haidt.
Dès le 9 mars, les plateformes d’IA, y compris celles proposées par des entreprises comme OpenAI, devront se conformer à une série d’exigences destinées à empêcher les utilisateurs de moins de 18 ans d’accéder à des contenus pornographiques, à la violence extrême, à l’automutilation ou aux troubles alimentaires.
Ce nouvel encadrement aborde également les préoccupations concernant l’usage excessif des chatbots parmi les adolescents, avec des craintes quant à des fonctionnalités de conception émotionnellement manipulatrices qui pourraient encourager une dépendance à un moment où l’impact de ces outils reste flou :
L’Australie n’a pas encore reçu de rapports faisant état de violences ou d’automutilations liées aux chatbots, mais eSafety a été informée d’enfants aussi jeunes que 10 ans utilisant ces outils interactifs alimentés par l’IA jusqu’à six heures par jour.
eSafety est préoccupé par le fait que les entreprises d’IA exploitent la manipulation émotionnelle, l’anthropomorphisme et d’autres techniques avancées pour captiver et ancrer les jeunes dans un usage excessif des chatbots.
Dans le cadre de ces nouvelles règles, Reuters rapporte que les magasins d’applications et les moteurs de recherche pourraient être tenus de bloquer l’accès aux services d’IA non conformes :
Le régulateur internet australien a déclaré qu’il pourrait inciter les moteurs de recherche et les magasins d’applications à bloquer les services d’intelligence artificielle qui ne vérifient pas les âges des utilisateurs après qu’une revue de Reuters a révélé que plus de la moitié n’avait pas rendu public de mesures pour se conformer d’ici la date limite de la semaine prochaine.
Lorsqu’on a demandé un commentaire, Apple a décliné de répondre.
Cependant, la société déploie des mesures de protection liées à l’âge sur ses plateformes pour se conformer aux lois de restriction d’âge à l’échelle mondiale, incluant des systèmes qui s’appuient sur des signaux détectés automatiquement par l’appareil. L’adoption de ces API, ainsi que la conformité aux exigences locales, restent en fin de compte la responsabilité des développeurs individuels.
Concernant la situation australienne, Reuters a également rapporté que la conformité demeure limitée, la majorité des 50 outils d’IA textuels les plus populaires ne montrant aucune mesure claire pour mettre en œuvre la vérification d’âge ou le filtrage de contenu avant la date butoir imminente.