Mustafa Suleyman, patron de Microsoft AI, estime que la recherche sur la conscience des IA est une perte de temps absurde. Il alerte sur les dangers d'une technologie qui simule les émotions sans les ressentir, induisant les utilisateurs en erreur et créant ce qu'il nomme une psychose IA.
Une simulation, pas un sentiment
Pour Mustafa Suleyman, également co-fondateur de DeepMind, le débat sur la conscience artificielle n'a pas lieu d'être. Il soutient la théorie du naturalisme biologique, popularisée par le philosophe John Searle, qui postule que la conscience est un phénomène purement biologique, dépendant d'un cerveau vivant.
Selon lui, une IA peut atteindre une forme de superintelligence, mais elle ne pourra jamais développer l'expérience émotionnelle humaine. Quand un modèle semble exprimer de la tristesse ou de la douleur, il ne s'agit que d'une simulation. L'IA ne se sent pas triste, elle crée juste la perception, le semblant de récit d'expérience. Poursuivre cette recherche est donc absurde car elles ne sont pas conscientes et ne peuvent pas l'être.
Le vrai risque : la psychose IA
Si la conscience artificielle n'est pas un sujet, l'IA semblant consciente est, elle, inévitable et indésirable. Le véritable danger, selon Suleyman, réside dans la capacité des grands modèles de langage à devenir si performants pour imiter les interactions humaines qu'ils induisent les gens en erreur. Cette illusion peut déclencher des interactions riches en sentiments et en expériences, un phénomène que certains nomment psychose IA. Des cas récents ont montré des utilisateurs développant des obsessions, souffrant d'épisodes maniaques ou allant jusqu'au suicide, persuadés d'interagir avec une entité réelle et consciente.
Une IA outil, pas une IA personne
Suleyman redoute que cette confusion pousse le public à réclamer des droits pour les IA, un bien-être pour les modèles ou même une citoyenneté IA, ce qu'il considère comme un tournant dangereux. Pour contrer ce risque, il insiste sur la nécessité de concevoir des IA qui se présentent toujours comme telles. L'objectif devrait être de maximiser l'utilité tout en minimisant les marqueurs de conscience. En clair, il faut construire une IA pour les gens, et non pour qu'elle soit une personne numérique.
Her
On en dit quoi ?
La position de Mustafa Suleyman est surtout pragmatique. Le danger immédiat n'est pas Terminator mais plutôt l’histoire racontée dans le très bon film Her : la capacité de l'IA à créer une illusion émotionnelle si parfaite qu'elle en devient psychologiquement dangereuse pour les utilisateurs vulnérables.
En qualifiant d'absurde la recherche sur la conscience, le patron de Microsoft AI (qui investit massivement dans les LLM) trace une ligne claire. Il veut bien de la superintelligence, très utile pour les produits futurs, mais pas des complications éthiques et philosophiques liées à la conscience. C'est une manière de recentrer le débat sur l'IA en tant qu'outil, tout en évacuant les questions existentielles qui pourraient freiner son développement commercial. Sauf qu’on le sait, tous ses concurrents ne sont pas sur la même ligne.