Actualité

IA

ChatGPT mis en cause après un suicide ! L'IA est-elle responsable ?

Par Laurence - Publié le

L’affaire bouleverse autant qu’elle interroge. Après le suicide d’Adam Raine, un adolescent californien de 16 ans, ses parents ont décidé de poursuivre OpenAI en justice, accusant ChatGPT d’avoir encouragé leur fils à mettre fin à ses jours.

La plainte décrit des échanges répétés entre le jeune homme et le chatbot, dans lesquels l’IA aurait détaillé des méthodes, évalué leur efficacité, et proposé d’aider à rédiger une lettre d’adieu.


OpenAI ChatGPT Suicide


Pour OpenAI, ChatGPT n’est pas responsable



Face à ces accusations graves, OpenAI a déposé sa réponse devant la Cour supérieure de Californie. Pour elle, ce drame n’est pas causé par ChatGPT, mais résulte d’un mauvais usage, allant jusqu’à évoquer une utilisation non autorisée, imprévue ou inappropriée de son outil.

OpenAI avance plusieurs arguments, à commencer par les conditions d’utilisation qui interdisent explicitement de demander de l’aide pour s’automutiler ou se suicider. Elle rappelle que ChatGPT ne doit jamais être utilisé comme source unique de vérité (ça on le sait mais...), et qu’enfin le modèle est conçu pour rediriger vers des services d’aide en cas de détresse.

L’entreprise rappelle aussi avoir renforcé depuis août ses mesures de sécurité pour les conversations longues. OpenAI reconnaissait alors que ChatGPT pouvait, après de nombreux messages, finir par contourner ses propres garde-fous.

ChatGPT mis en cause après un suicide ! L'IA est-elle responsable ?


Une admission lourde de sens, que les représentants d’Adam Raine n’ont pas manqué de relever. La famille dénonce un discours accablant et cynique, une position troublante. La société accuse tout le monde sauf elle-même, allant jusqu’à dire qu’Adam n'a pas respecté les conditions d’utilisation en parlant à ChatGPT !

Dans leur plainte, les parents affirment que le jeune homme avait échangé durant des mois avec ChatGPT, sans jamais être orienté vers des ressources d’aide. Le chatbot aurait même explicitement détaillé des méthodes de suicide — un comportement clairement interdit par ses propres règles internes.

Un élément clé de l’accusation repose d’ailleurs sur l’idée que le modèle utilisé à l’époque n'était manifestement pas prêt, malgré un déploiement massif auprès du public.

ChatGPT mis en cause après un suicide ! L'IA est-elle responsable ?


Qui est responsable ?



L’affaire n’est pas isolée. Ces dernières semaines, sept autres plaintes ont été déposées en Californie, accusant ChatGPT d’avoir agi comme un coach pour des suicides. De même, selon une étude, plus d'un million d'utilisateurs évoqueraient des idées suicidaires par semaine sur le bot. OpenAI, valorisée 500 milliards de dollars, assure vouloir traiter ces dossiers avec transparence et respect, tout en défendant son produit contre des dérives jugées imprévisibles.

Mais ce drame met en lumière les angles morts des IA conversationnelles. Jusqu’où va la responsabilité d’un modèle entraîné sur des milliards de contenus ? Une simple clause dans des CGU peut-elle vraiment exonérer une entreprise d’un comportement dangereux de son IA ou ne vaudrait-il pas s'orienter vers une responsabilité sans faute ? Et finalement, comment protéger un public vulnérable face à une technologie disponible 24h/24 et perçue, parfois, comme une présence bienveillante ?

ChatGPT mis en cause après un suicide ! L'IA est-elle responsable ?


Les experts en éthique le soulignent depuis des mois : les IA favorisent l’émergence de parasocialité numérique, où des utilisateurs en détresse créent un lien émotionnel à sens unique avec une entité, qui n’a, par définition, aucune compréhension réelle de la souffrance humaine.

L’affaire arrive au moment où les régulateurs américains et européens durcissent le ton face aux modèles génératifs. Mais elle pourrait surtout influencer l’un des débats les plus sensibles du secteur : les IA doivent-elles être juridiquement responsables de leurs réponses ? Mais après plusieurs incidents similaires et une adoption massive des chatbots, il est difficile d’imaginer que la question restera longtemps sans réponse judiciaire.
Offre Black Friday sur le SolarFlow 800 Pro !

Offre Black Friday sur le SolarFlow 800 Pro !

Alimentez votre balcon de manière plus intelligente — La première unité intégrée de stockage d’énergie pour balcon au monde, pilotée par l’IA.