Actualité

IA

Plus d’un million d’utilisateurs par semaine évoquent des idées suicidaires sur ChatGPT

Par Laurence - Publié le

OpenAI vient de révéler des estimations alarmantes sur l’usage de son célèbre assistant d’IA, ChatGPT. Selon un article de blog publié par l’entreprise, environ 0,15 % des utilisateurs actifs chaque semaine ont des conversations qui incluent des indicateurs explicites de planification ou d’intention suicidaire potentielle.

OpenAI ChatGPT


Une estimation qui met en lumière un usage troublé



Avec une base d’utilisateurs hebdomadaire revendiquée autour de 800 millions, cela représenterait environ 1,2 million de personnes. Par ailleurs, OpenAI note que 0,07 % des utilisateurs (soit près de 560 000 personnes chaque semaine) montrent des signes potentiels de crises de santé mentale liées à une psychose ou à un comportement maniaque.

Ces chiffres découlent d’un travail mené en collaboration avec plus de 170 cliniciens à travers le monde, qui ont aidé OpenAI à mieux identifier et classifier des types de conversations sensibles, notamment les expressions de détresse mentale, les idées suicidaires et la dépendance émotionnelle envers l’IA. L’entreprise précise toutefois que les phénomènes qu’elle détecte — bien que rares — sont difficiles à mesurer précisément et que ces estimations constituent une analyse initiale, sujette à révision. Voilà qui n'est guère rassurant...

Plus d’un million d’utilisateurs par semaine évoquent des idées suicidaires sur ChatGPT


Que fait OpenAI pour répondre à ce défi ?



Mais il ne s'agit pas seulement de communiquer des chiffres. Pour améliorer la sécurité de ChatGPT, OpenAI a déployé plusieurs mesures, à commencer par l'intégration de rappels vers des lignes d’aide ou des services d’urgence lorsque des utilisateurs expriment des pensées suicidaires. A cela s'ajoute la détection et blocage automatiques de certaines requêtes à risque élevé, et redirection vers des modèles mieux préparés à gérer les situations délicates.

Pour le nouveau modèle GPT-5, l’entreprise annonce une amélioration de la conformité aux comportements attendus : un taux de conformité estimé à 91 % contre 77 % pour la version précédente pour des conversations autour du suicide ou de l’automutilation.

Exemple fourni par OpenAI
Exemple fourni par OpenAI


Un avertissement pour toute l’industrie de l’IA



L’annonce d’OpenAI ne vas certes pas rassurer la communauté technologique et les spécialistes de la santé mentale ou encore les opposants à l'IA. Elle illustre en effet que les chatbots ne sont plus de simples instruments de productivité ; ils sont devenus des interfaces émotionnelles dans lesquelles des utilisateurs en détresse trouvent refuge.

Des questions se posent ! Mais pour autant est-cela veut dire qu'ils créent davantage de comportements ou qui les favorisent ? Jusqu’où peut-on déléguer un soutien humain à une IA ? Qui est responsable quand l’IA erre ou ne détecte pas le danger ? Comment garantir que les modèles ne renforcent pas les idées suicidaires ou les crises psychotiques ?

OpenAI reconnaît que ce défi est loin d’être clos et que les modèles actuels sont perfectibles. Le message est clair : l’expansion rapide des assistants d’IA impose non seulement des améliorations techniques, mais aussi une réflexion éthique et réglementaire forte. Ce billet ne fait donc que reconnaître une situation et appelle ainsi à une coopération élargie — chercheurs, cliniciens, régulateurs et entreprises — pour s’assurer que ces outils puissants restent des alliés, et non des risques pour ceux qui sont déjà vulnérables. Mais en pratique comment cela peut être se faire ?