La Haute Autorité de Santé vient d'autoriser l'utilisation de l'IA générative dans les hôpitaux français. Face à l'essor de ChatGPT ou Mistral, l'autorité publie un guide pour encadrer une pratique jugée prometteuse mais risquée, en insistant sur la vérification et la confidentialité.
Un levier d'amélioration pour les soignants
L'intelligence artificielle, et plus précisément les outils génératifs comme ChatGPT, Mistral ou CoPilot, se démocratise rapidement dans tous les secteurs, y compris la santé. Face à ce constat, la Haute Autorité de Santé a décidé de valider leur utilisation dans les hôpitaux français. L'autorité reconnaît que ces systèmes représentent un levier d'amélioration potentiel pour le système de santé. La HAS estime que l'IA pourrait notamment libérer du temps aux soignants, améliorer leur qualité de vie au travail et les aider dans leurs pratiques professionnelles, par exemple pour synthétiser de la littérature scientifique ou gérer les ressources d'un établissement.
Hallucinations et secret médical : les lignes rouges
L'enthousiasme de la HAS reste toutefois très mesuré. L'autorité insiste sur un usage raisonné et prudent, car ces outils induisent des risques qu'il faut maîtriser. Le principal danger identifié est celui des hallucinations, cette capacité de l'IA à présenter comme des faits avérés des informations totalement fausses. L'autre point de vigilance majeur concerne la confidentialité. La HAS martèle qu'aucune information relevant du secret médical ou permettant d'identifier un patient ne doit être partagée dans les requêtes.
La méthode A.V.E.C. pour encadrer les usages
Pour guider les soignants, la HAS a publié un guide concis structuré autour de l'acronyme un peu niais : A.V.E.C.. A pour Apprendre à maîtriser l'outil et ses limites ; V pour Vérifier systématiquement les sources et les contenus générés. E pour Estimer la pertinence de l'outil dans la pratique quotidienne. Et C pour Communiquer avec les patients et les collègues sur son utilisation. L'autorité insiste aussi pour que les médecins ne se reposent pas entièrement sur l'IA, afin de ne pas endormir leurs propres compétences, citant l'exemple d'une infirmière de triage qui doit savoir travailler sans l'outil.
On en dit quoi ?
La HAS fait preuve de pragmatisme. Plutôt que d'interdire un outil que beaucoup utilisent déjà, elle tente d'encadrer la pratique. Un sondage Ifop de 2024 montrait qu'un médecin sur cinq avait déjà utilisé une interprétation par IA et que plus de la moitié y étaient disposés. La démarche est donc nécessaire. Le véritable enjeu n'est pas ce guide, mais la formation réelle des soignants et la mise en place de gardes-fous techniques. L'IA est un allié puissant pour trier de l'information, mais le risque de voir des diagnostics bâclés par confiance aveugle dans une hallucination est réel. Et vous, êtes-vous rassuré de savoir que votre médecin pourrait utiliser ChatGPT pour vous soigner ?