Comme quoi il n'y a pas que des polémiques qui entourent Elon Musk et ses multiples entreprises, son IA Grok vient de montrer qu'elle pouvait rendre service dans un domaine inattendu : le diagnostic médical. Un homme de 49 ans affirme que le chatbot lui a sauvé la vie après un passage raté aux urgences.
Une douleur intense, un mauvais diagnostic
L'histoire a été partagée sur Reddit début décembre par un utilisateur. Pendant 24 heures, cet homme a souffert d'une douleur abdominale qu'il décrit comme au niveau d'une lame de rasoir, impossible à supporter autrement qu'en position fœtale. Il se rend aux urgences, où le médecin palpe son ventre, ne détecte rien d'anormal et lui prescrit des anti-acides en diagnostiquant un simple reflux gastrique. Sauf que les médicaments ne changent rien. Toujours en souffrance, il décide de décrire ses symptômes à Grok, le chatbot d'xAI. L'IA lui suggère immédiatement un ulcère perforé ou une appendicite atypique et lui recommande de retourner aux urgences pour demander un scanner.
L'homme en question
Un scanner révélateur et une opération en urgence
L'homme retourne à l'hôpital, mais préfère mentir sur l'origine de sa demande. Il prétend que sa sœur infirmière lui a conseillé le scanner, plutôt que d'avouer qu'il suit les recommandations d'une IA. Le résultat tombe : son appendice est inflammé et sur le point de se rompre. Six heures plus tard, il est opéré et l'appendice est retiré. Il sort de l'hôpital dès le lendemain, soulagé. Elon Musk a réagi à l'histoire sur X avec un laconique cool. Au-delà de l'anecdote, ce cas illustre le potentiel des IA conversationnelles pour aider les patients à mieux comprendre leurs symptômes et à insister auprès des professionnels de santé, si besoin.
Les limites et les risques à ne pas ignorer
Pour autant, il serait dangereux de considérer Grok ou toute autre IA comme un substitut au médecin. Les risques de faux positifs existent : une IA peut suggérer des pathologies graves là où il n'y en a pas, générant de l'anxiété inutile et des examens superflus. Les études montrent que les performances des IA médicales chutent de 15 à 30 % en conditions réelles par rapport aux benchmarks. Et surtout, une IA ne peut pas examiner physiquement un patient, prendre en compte son historique complet ou détecter des nuances que seul un praticien expérimenté peut percevoir. Elle reste un outil d'aide, pas un diagnostic définitif.
On en dit quoi ?
Cette histoire me parle personnellement. Il y a une douzaine d'années, j'ai découvert que j'étais diabétique grâce à un article du Figaro sur lequel j'étais tombé par hasard. Je me posais des questions sur mes symptômes depuis des mois sans jamais faire le rapprochement. Si l'IA avait existé à l'époque, j'aurais probablement obtenu des pistes bien plus tôt en décrivant simplement ce que je ressentais. Quoi qu'il en soit, Grok et les autres chatbots peuvent rendre service, à condition de ne jamais oublier une règle d'or : consulter un vrai médecin reste indispensable. L'IA peut orienter, alerter, suggérer. Mais elle ne remplace pas un diagnostic professionnel.