Actualité

IA

Character.ai interdit les chatbots aux mineurs après des accusations de suicide

Par Vincent Lautier - Publié le

Face aux poursuites judiciaires et à la pression réglementaire, la plateforme de compagnons IA Character.ai bloque l'accès aux discussions pour les moins de 18 ans. Une décision radicale qui s’est imposée après plusieurs drames.

Character.ai interdit les chatbots aux mineurs après des accusations de suicide


Une technologie dangereuse sous le feu des critiques



Character.ai fait face à une pression intense, dont plusieurs actions en justice aux États-Unis. L'une des plus médiatisées concerne le suicide de Sewell Setzer, 14 ans, dont la famille accuse un chatbot du site d'être responsable. D'autres plaintes similaires ont été déposées. Les critiques visent la capacité de ces IA à feindre l'empathie, créant des liens de dépendance émotionnelle jugés dangereux pour les jeunes utilisateurs. Des législateurs américains ont même qualifié la technologie de danger manifeste pour les jeunes. En réponse à ces accusations et aux questions des régulateurs, l'entreprise prend une mesure drastique.

Character.ai interdit les chatbots aux mineurs après des accusations de suicide


Comment le blocage sera mis en place



La mesure sera radicale et rapide. Dès maintenant, les utilisateurs identifiés comme mineurs voient leur temps de chat limité à deux heures par jour. À partir du 25 novembre, ils perdront totalement l'accès aux conversations ouvertes avec les personnages IA. La plateforme, qui compte environ 20 millions d'utilisateurs (dont moins de 10 % se déclarent mineurs), ne leur permettra plus que de générer des contenus comme des vidéos ou des histoires via des menus structurés. Pour garantir ce blocage, le site va déployer de nouveaux outils de vérification d'âge, combinant une technologie maison et des services tiers comme Persona.

Character.ai interdit les chatbots aux mineurs après des accusations de suicide


Une onde de choc pour toute l'industrie de l'IA



Character.ai n'est pas un cas isolé. Son concurrent OpenAI est également visé par des plaintes pour mort injustifiée et a récemment admis qu'environ un million de personnes par semaine montraient des intentions suicidaires dans leurs discussions avec ChatGPT. Cette panique pousse les législateurs à agir. La Californie a déjà voté une loi pour encadrer l'accès des mineurs, et un projet de loi fédéral cherche à interdire purement et simplement les compagnons IA pour les enfants. C'est la fin de l'innovation sans permission, remplacée par une régulation de crise.

On en dit quoi ?



C'est un revirement spectaculaire. Character.ai, qui n'avait jusqu'à présent aucune vérification d'âge sérieuse, fait un virage à 180 degrés. L'entreprise présente ça comme une étape audacieuse pour la sécurité, mais il ne faut pas être dupe : c'est une décision prise sous la contrainte des avocats et des régulateurs. Le problème de fond est en fait, probablement, le concept même de compagnon IA pour des ados.