C'est une histoire qui montre de manière spectaculaire un des dangers de l'IA. Un homme de 60 ans a fini aux urgences après avoir suivi un "conseil" nutritionnel de ChatGPT. Le chatbot lui aurait suggéré de remplacer son sel de table par du bromure de sodium, une substance toxique.
Une "expérience personnelle" qui tourne mal
L'affaire est rapportée dans un cas d'étude publié par la revue médicale Annals of Internal Medicine. Voulant réduire sa consommation de chlorure (présent dans le sel de table), un homme de 60 ans a eu l'idée de demander un substitut à ChatGPT.
Selon les médecins, le chatbot lui aurait suggéré le bromure de sodium. L'homme a donc acheté le produit en ligne et l'a utilisé à la place du sel pendant trois mois. Il a finalement été admis à l'hôpital avec de graves symptômes psychiatriques : paranoïa, hallucinations et un état confusionnel.
Le "bromisme", une intoxication d'un autre âge
Le diagnostic des médecins est sans appel : "bromisme". Il s'agit d'une intoxication au bromure, une pathologie qui était fréquente au début du 20ème siècle, quand cette substance entrait dans la composition de nombreux sédatifs, mais qui est devenue extrêmement rare aujourd'hui.
Le bromure de sodium est en effet un produit toxique, que l'on retrouve notamment dans certains pesticides ou produits de nettoyage pour piscine.
La réponse d'OpenAI : "lisez nos CGU"
Contacté par la presse américaine, OpenAI a réagi de manière très laconique. Un porte-parole a simplement renvoyé les journalistes vers les conditions générales d'utilisation de ChatGPT, qui précisent que le service ne doit pas être utilisé pour obtenir des conseils médicaux.
Une défense un peu facile, alors même que les médecins qui rapportent le cas ont réussi à obtenir une suggestion similaire de la part du chatbot, sans qu'aucune alerte de sécurité ne soit émise.
On en dit quoi ?
Ce cas est un peu terrifiant. Il est la preuve que, malgré tous les avertissements, de nombreuses personnes utilisent ces IA comme des sources d'information fiables, y compris pour des sujets aussi sensibles que la santé.
Cette affaire met surtout en lumière la faille fondamentale des IA génératives : elles n'ont aucune conscience du contexte. Le chatbot a probablement trouvé une information chimiquement correcte (le bromure est un halogénure, comme le chlorure), mais nutritionnellement désastreuse, sans être capable de faire la différence. C'est un rappel important que derrière l'interface conversationnelle, il n'y a pas de "compréhension", mais juste un algorithme. Et vous, vous avez déjà utilisé ChatGPT pour des questions de santé ou de nutrition ?