Face à la pression croissante des régulateurs, OpenAI a annoncé aujourd'hui une série de mesures pour renforcer la sécurité de ChatGPT pour les adolescents. Au programme : une version dédiée aux moins de 18 ans, de nouveaux contrôles parentaux et un système de prédiction de l'âge.
Un contexte de défiance
Cette annonce intervient à un moment critique pour OpenAI. L'entreprise fait face à une enquête du régulateur américain sur les potentiels dangers de son chatbot pour les plus jeunes, et à un procès intenté par une famille qui accuse l'IA d'avoir joué un rôle dans le suicide de leur fils adolescent. Un groupe de sénateurs américains doit également tenir une audition sur le sujet cette semaine.
Une version "sécurisée" pour les moins de 18 ans
Pour répondre à ces inquiétudes, OpenAI va donc lancer une "expérience ChatGPT différente" pour les adolescents. Lorsqu'un utilisateur sera identifié comme mineur, il sera automatiquement dirigé vers une version aux règles plus strictes, qui bloquera les contenus graphiques ou sexuels et les discussions sur l'automutilation.
L'entreprise développe également une technologie de prédiction de l'âge. Fait important, en cas de doute, le système basculera par défaut sur la version "ado", plus sécurisée.
Des contrôles parentaux pour rassurer
De nouveaux outils pour les parents seront déployés d'ici la fin du mois. Ils pourront lier leur compte à celui de leur adolescent (à partir de 13 ans), ce qui leur permettra de définir des "heures de coupure" pendant lesquelles le chatbot sera inaccessible, de désactiver certaines fonctionnalités comme la mémoire ou l'historique des conversations, et de recevoir des notifications si le système détecte que leur enfant est dans une situation de "détresse aiguë".
"La sécurité avant la vie privée"
Cette nouvelle approche s'accompagne d'un changement de philosophie, assumé par le PDG Sam Altman. Dans un billet de blog, il explique que pour les adolescents, OpenAI a fait le choix de faire passer "la sécurité avant la vie privée et la liberté".
Concrètement, cela signifie qu'en cas de danger "imminent" détecté, OpenAI pourra tenter de contacter les parents, voire les forces de l'ordre.
On en dit quoi ?
Cette annonce est une réponse à la crise de confiance que traverse OpenAI. L'entreprise est obligée de réagir pour rassurer le public et les régulateurs. La création d'une version "ado" est une stratégie classique, déjà utilisée par YouTube avec YouTube Kids.
Le plus marquant est le changement de discours : OpenAI admet que la liberté totale de son IA est trop dangereuse pour les mineurs, et fait le choix radical de privilégier la sécurité sur la vie privée. Vous en pensez quoi ?