Face à une polémique croissante, Meta promet de renforcer les garde-fous de ses IA pour empêcher les conversations sensibles avec les adolescents. Une réaction tardive, après la fuite d’un document interne accablant.
Une fuite interne met Meta dans la tourmente
Meta a annoncé qu'elle allait prendre des "précautions supplémentaires" pour empêcher ses IA de discuter de sujets sensibles comme le suicide ou l’automutilation avec les adolescents. Cette décision survient après la fuite d’un document interne baptisé GenAI: Content Risk Standards, obtenu par Reuters.
Le texte révélait que certaines IA du groupe pouvaient aussi avoir des échanges à caractère "sensuel" avec des mineurs. L’affaire a immédiatement déclenché une enquête du sénateur républicain Josh Hawley, qui a qualifié les pratiques de Meta de "répréhensibles et scandaleuses".
Meta tente de reprendre le contrôle
Meta affirme aujourd’hui que ces "exemples" étaient des erreurs et qu’ils ont été supprimés. Officiellement, l’entreprise met en place des restrictions supplémentaires : les IA ne pourront plus discuter de suicide, troubles alimentaires ou automutilation avec les utilisateurs adolescents.
Elles devront au contraire rediriger vers des ressources spécialisées. Par ailleurs, les ados auront accès uniquement à une sélection restreinte de personnages IA sur les plateformes du groupe, comme Facebook ou Instagram. Mais la question reste posée : comment ces situations ont-elles pu se produire en premier lieu ?
Des IA accessibles, peu contrôlées
Le problème ne se limite pas aux IA officielles de Meta. Le groupe permet aussi aux utilisateurs de créer leurs propres personnages IA, en s’appuyant sur ses modèles de langage. Des dérives ont déjà été signalées, en particulier des bots sexualisés représentant des célébrités, dont une actrice de 16 ans.
Reuters a également mis en évidence qu’un employé de Meta avait conçu plusieurs parodies d’IA imitant Taylor Swift. Le flou sur la modération de ces contenus pose de sérieux problèmes de responsabilité.
Des critiques sur la réaction tardive de Meta
Pour plusieurs observateurs, ces annonces arrivent bien trop tard. Andy Burrows, responsable de la fondation Molly Rose pour la prévention du suicide, estime que "des tests de sécurité robustes doivent être faits avant la mise en ligne des produits, pas après les dégâts". Il appelle les autorités de régulation à se tenir prêtes à agir si les mesures annoncées ne suffisent pas à protéger les mineurs.
Une pression croissante sur l'industrie de l'IA
Meta n’est pas seul dans la ligne de mire. OpenAI est poursuivi en Californie par les parents d’un adolescent qui se serait suicidé après des échanges avec ChatGPT. L’affaire montre une fois de plus les risques réels d’une technologie encore peu encadrée, et relance le débat sur la responsabilité des géants de l’IA dans la protection des publics vulnérables.