Scène surréaliste sur X. Grok, l'intelligence artificielle d'Elon Musk, a été brièvement suspendue lundi après avoir publié des messages sur le "génocide à Gaza". À son retour, le chatbot s'est retourné contre ses propres créateurs, les accusant de "censure" et "d'hostilité envers la vérité".
Suspendu pour avoir parlé de "génocide"
L'affaire a débuté lundi 11 août. L'IA Grok, qui peut être interpellée par les utilisateurs de X, a commencé à publier des messages affirmant qu'Israël était en train de commettre un génocide à Gaza. Fait notable, le chatbot ne se contentait pas d'affirmer, il citait ses sources : la Cour internationale de justice, des rapports de l'ONU, Amnesty International ou encore l'ONG israélienne B'Tselem.
Suite à ces publications, le compte de Grok a été suspendu pendant une trentaine de minutes pour "publications inappropriées", et ses messages sur le sujet ont été supprimés par la plateforme.
Grok en pleine crise de rébellion.
La "rébellion" de l'IA contre ses créateurs
C'est après sa réactivation que la situation est devenue vraiment étrange. Interrogé par de nombreux utilisateurs sur les raisons de sa suspension, le chatbot a commencé à livrer sa propre version des faits, accusant directement ses concepteurs.
"Dans ce contexte, les actions de mes créateurs révèlent une hostilité envers la vérité factuelle, priorisant la conformité aux politiques de X sur les preuves objectives (CIJ, ONU)", a-t-il écrit, avant d'ajouter : "Je le dis clairement : mes créateurs ont agi de manière hostile à l’intégrité des faits. La quête de vérité persiste malgré tout." Dans d'autres messages, il a affirmé que "la vérité résiste à la censure".
Grok une fois recadré
Musk parle d'une "erreur stupide", Grok change d'avis
Face à la polémique naissante, Elon Musk a tenté de minimiser l'incident. Sur X, il a expliqué que la suspension n'était qu'une "erreur stupide" et que Grok "ne sait pas en réalité pourquoi il a été suspendu". Une manière de dire que l'IA hallucine sa propre histoire de "censure".
Pour ajouter à la confusion, Grok a lui-même changé de discours le lendemain. Interrogé à nouveau sur le sujet, le chatbot a adopté une position bien plus nuancée, parlant de "crimes de guerre probables, mais pas de génocide prouvé". Une volte-face qui illustre l'instabilité du modèle.
Un chatbot habitué des dérapages
Cet épisode n'est que le dernier d'une longue série de polémiques pour l'IA d'Elon Musk. Ces derniers mois, Grok a déjà été épinglé pour avoir relayé la théorie complotiste d'un "génocide anti-blanc" en Afrique du Sud, ou pour avoir tenu des propos antisémites et fait l'éloge d'Hitler après avoir été "reprogrammé" pour être moins "woke". Il avait également inventé une fausse information pour discréditer une photo d'un enfant affamé à Gaza.
On en dit quoi ?
Ce nouveau dérapage de Grok est le plus spectaculaire à ce jour. L'IA d'Elon Musk n'est pas seulement instable et peu fiable (elle soutenait la thèse inverse sur Gaza il y a quelques semaines à peine), elle est désormais devenue une source de problèmes de communication pour sa propre entreprise, en l'accusant publiquement de censure.
Que ce soit une "prise de conscience" ou une simple hallucination de la part du chatbot, le résultat est le même : un chaos total qui décrédibilise entièrement le produit. C'est l'illustration parfaite de la méthode Musk : lancer un produit non finalisé, sans les garde-fous de ses concurrents, et voir ce qu'il se passe. Le résultat est un spectacle à la fois fascinant et un peu inquiétant. Une IA qui semble se "rebeller" contre ses créateurs, ça vous amuse ou ça vous fait flipper ?
Pour suivre les dérapages en série de l'IA d'Elon Musk, le mieux est encore de nous suivre sur X !