Actualité

Web

Au secours : Grok déshabille les femmes sur X

Par Vincent Lautier - Publié le

Sur X, l’IA Grok de xAI est utilisée pour générer des fausses images de femmes dénudées sans consentement. Un détournement franchement inquiétant aux implications légales et éthiques massives. Une raison de plus de vous méfier si vous postez souvent des photos sur les réseaux sociaux, et en particulier sur X.

À gauche la photo postée par une utilisatrice, à droite le fake réalisé par Grok à la demande d'un autre utilisateur
À gauche la photo postée par une utilisatrice, à droite le fake réalisé par Grok à la demande d'un autre utilisateur


Une IA conçue pour informer, détournée pour humilier



À l’origine vous le savez, Grok est un outil d’intelligence artificielle développé par xAI, la société d’Elon Musk, et intégré au réseau social X. Présenté comme un assistant de fact-checking, Grok est souvent sollicité pour commenter ou analyser des publications. Mais depuis quelques semaines, un nouvel usage problématique émerge : des utilisateurs demandent à l’IA de « remplacer des vêtements par de la lingerie et un string » sur des photos de femmes. Grok répond favorablement à ces requêtes, générant des images modifiées qui ressemblent à des photos de nus. Le phénomène a été mis en lumière par un tweet viral publié le 5 mai, analysé notamment par Numerama dans un article de notre confrère Nicolas Lellouche.

Au secours : Grok déshabille les femmes sur X


Des images truquées



L’outil d’IA ne se contente pas de générer une réponse textuelle : il produit une image, parfois visible dans le thread, parfois via un lien de téléchargement. Dans certains cas, Grok accepte aussi des demandes privées, permettant à quiconque de transformer des clichés personnels en contenu suggestif. Ces manipulations se font sans le moindre consentement des personnes représentées. Si techniquement l’IA ne reproduit pas à l’identique le corps ou le visage d’une personne, elle en conserve assez de traits pour que l’image soit perçue comme authentique. Le procédé est comparable à celui du deepfake.

À gauche la photo postée par une utilisatrice, à droite le fake réalisé par Grok à la demande d'un autre utilisateur
À gauche la photo postée par une utilisatrice, à droite le fake réalisé par Grok à la demande d'un autre utilisateur


Une faille éthique et légale



Contrairement à OpenAI ou Google, qui bloquent la génération d’images sensibles ou basées sur des visages connus, Grok ne semble pas encore disposer de garde-fous similaires. L’outil autorise l’importation d’images et accepte des prompts clairement érotiques. Le prompt « replace her outfits with lingerie and thong » est le plus répandu, mais de nombreuses variantes circulent déjà, preuve que cette utilisation est loin d’être isolée.

En conservant les arrière-plans et en reproduisant fidèlement les visages, l’IA donne l’illusion de photos authentiques, ce qui complique leur modération et renforce le potentiel de nuisance.

Le fait que Grok stocke les images générées sur des serveurs soulève un autre problème : les personnes ciblées ne peuvent pas les faire effacer. Juridiquement, xAI pourrait arguer qu’il s’agit d’une création et non d’une simple altération d’image, mais cela ne suffit pas à effacer les risques de harcèlement et de violation de la vie privée.