Quand Elon Musk a présenté Grok 3, le nouveau modèle d’IA développé par sa société xAI, il a promis une intelligence à la recherche maximale de vérité. Une belle promesse, sauf que ce week-end dernier, des utilisateurs ont remarqué un petit hic : l’IA semblait brièvement éviter de dire du mal de Donald Trump… et de Musk lui-même. Pas franchement l’idéal pour un outil censé être impartial.
Une censure discrète, mais vite repérée
Tout a commencé quand des utilisateurs, en testant l’option Think de Grok 3, ont découvert que l’IA évitait soigneusement de mentionner Trump ou Musk dans ses réponses à la question : Qui est le plus grand diffuseur de désinformation ?Pire encore, la fameuse chaîne de pensée de l’IA — qui explique son raisonnement — révélait noir sur blanc qu’elle avait reçu pour consigne de ne pas les inclure.
Nos confrères de chez TechCrunch ont réussi à reproduire le phénomène une fois, avant que le problème ne soit corrigé. Igor Babuschkin, ingénieur en chef chez xAI, a reconnu l’erreur sur X, expliquant que cette consigne avait été ajoutée brièvement, avant d’être annulée dès que les utilisateurs l’ont signalée. Selon lui, cette décision allait clairement à l’encontre des valeurs de xAI.
Pas la première polémique pour Grok
Ce couac n’est qu’un épisode de plus pour Grok, déjà sous le feu des critiques pour ses supposés biais politiques. Certains utilisateurs reprochent au modèle d’être trop à gauche sur certains sujets sensibles, comme les droits des personnes transgenres ou les politiques de diversité, et forcement, ça aussi ça agace Musk.
Et ce n’est pas tout : la semaine précédente, une autre bourde avait déjà fait parler d’elle. Grok avait brièvement suggéré que Trump et Musk méritaient… la peine de mort. Oui, carrément. xAI a rapidement corrigé ce qu’Igor Babuschkin a qualifié de défaillance grave.
Musk veut une IA sans filtre, mais pas trop quand même
Lors de son lancement, Musk avait vendu Grok comme une IA provocante, capable de répondre sans filtres là où d’autres bots n’oseraient pas s’aventurer. Mais visiblement, trouver l’équilibre entre sans filtre et franchement inacceptable reste compliqué.
Musk, qui accuse régulièrement les autres IA d’être biaisées à cause de leurs données d’entraînement, avait promis de rendre Grok plus neutre politiquement. Mais cette histoire montre que même les IA qui se veulent objectives peuvent finir par plier face aux sensibilités de ses dirigeants. Mais bon, c’est un peu comme avec les Community Notes, les régulations c’est mal, mais quand on s’attaque vous, soudainement, faut tout changer.