Actualité

IA

Ni médecin, ni avocat ! ChatGPT ne serait-il fiable que pour les échanges érotiques ?

Par Laurence - Publié le

Ce weekend, a eu lieu un changement important dans les usages et les garde-fous de l’intelligence artificielle. Selon la politique d’utilisation d’OpenAI, le modèle ne doit plus fournir de conseils personnalisés dans les domaines de la santé ou du droit !

ChatGPT OpenAI


ChatGPT interdit de médecine ou de droit : ce que cela signifie ?



En effet, dans la section Usage Policies (Règles d’utilisation) du site d’OpenAI on lit désormais : the provision of tailored advice that requires a license, such as legal or medical advice, without appropriate involvement by a licensed professional. Autrement dit, ChatGPT peut fournir des informations générales, mais ne peut pas remplacer un professionnel certifié.

Plusieurs raisons expliquent cette clarification. Les modèles d’IA comme ChatGPT sont susceptibles de générer des réponses erronées ou trompeuses. Une étude récente montre que jusqu’à 13 % des réponses à des questions médicales posées à des modèles grand-public pouvaient être considérées comme dangereuses.

Ni médecin, ni avocat ! ChatGPT ne serait-il fiable que pour les échanges érotiques ?


Dans le domaine légal, l’absence de privilège avocat‐client et la possibilité que les données soient produites en justice exposent l’utilisateur à des risques. Du point de vue de la conformité (ex. HIPAA aux États-Unis pour les données de santé), l’utilisation de ChatGPT par des entités médicales pose problème.

En effet, même si ChatGPT a pu trouver des réponses (des diagnostics) en recoupant des informations, le bot n'est pas un professionnel certifié (comme un médecin, ou un avocat). L’éditeur indique que ses services ne sont pas conçus pour ce type d’usage dans ses Conditions Générales d’Utilisation et la politique de l’éditeur.

Ni médecin, ni avocat ! ChatGPT ne serait-il fiable que pour les échanges érotiques ?


Une question de responsabilité



Ce message met en lumière un changement dans la manière dont les entreprises d’IA assument leur responsabilité. En limitant explicitement certains usages à risque tels que le conseil médical ou juridique, OpenAI se prémunit SURTOUT contre des conséquences potentiellement graves. Mais cela pose aussi la question : jusqu’où l’utilisateur est-il responsable de l’usage qu’il fait de l’IA ?

À l’heure où les modèles d’IA sont de plus en plus intégrés à nos vies — apps de santé, portails juridiques, assistants personnels — cette image traduit un tournant : l’intelligence artificielle n’est pas (encore) un remplaçant du professionnel humain. Les entreprises technologiques devront donc accélérer sur la transparence, la responsabilité, et peut-être un jour la réglementation stricte des usages sensibles.