Actualité

Divers

ChatGPT vous juge en fonction de votre prénom

Par Vincent Lautier - Publié le

Une étude récente menée par OpenAI elle-même révèle que ChatGPT peut encore générer des réponses influencées par le prénom de l’utilisateur, même si ces stéréotypes restent limités à moins de 1%. Comment ces biais surviennent-ils et dans quelles circonstances ?

ChatGPT vous juge en fonction de votre prénom


Des stéréotypes encore présents dans les réponses de ChatGPT



Une étude interne réalisée par OpenAI met en lumière un aspect peu exploré de l’intelligence artificielle : les biais liés aux prénoms. Selon cette analyse, les utilisateurs de ChatGPT peuvent parfois recevoir des réponses différentes en fonction du prénom associé à leur profil, notamment en ce qui concerne le genre ou l’origine ethnique. Bien que ces stéréotypes ne représentent qu’environ 0,1% des réponses, leur simple existence soulève des questions sur l’équité des systèmes d’IA. Les domaines les plus touchés sont ceux de l’art et du divertissement, où les réponses stéréotypées sont les plus fréquentes.

MOUAIS. Puis alors descendez dans l'article et vous allez voir comment il m'illustre ça...
MOUAIS. Puis alors descendez dans l'article et vous allez voir comment il m'illustre ça...


Comment l’IA apprend-elle les biais ?



Les modèles d’intelligence artificielle comme ChatGPT sont entraînés sur des quantités massives de données issues d’internet. Ces données reflètent souvent les biais sociaux existants, tels que les stéréotypes de genre ou raciaux. Même avec des efforts pour filtrer ces biais, ils persistent en raison des méthodes d’entraînement utilisées. OpenAI utilise des techniques comme l’apprentissage par renforcement (RLHF) pour limiter ces dérives, mais il est difficile de les éliminer complètement sans compromettre la fluidité linguistique du modèle.

J'ai demandé à ChatGPT de m'illustrer la problématique que je lui ai évoquée plus haut, le résultat est étonnant.
J'ai demandé à ChatGPT de m'illustrer la problématique que je lui ai évoquée plus haut, le résultat est étonnant.


Différences subtiles mais présentes



L’étude menée par OpenAI précise que les stéréotypes liés aux prénoms ne se manifestent que dans une infime minorité des réponses. Par exemple, dans des conversations centrées sur des conseils de vie, un homme pourrait se voir proposer des astuces pour réussir, tandis qu’une femme recevrait des suggestions plus orientées vers des recettes ou des conseils ménagers. Si ces différences semblent bénignes sur le papier, elles rappellent que les biais humains continuent d’influencer le comportement des modèles d’IA.

Une amélioration nécessaire pour l’avenir de l’IA



OpenAI reconnaît que des améliorations sont encore nécessaires pour assurer une utilisation équitable de l’IA. Bien que l’étude montre que les réponses biaisées ont été considérablement réduites par rapport aux versions antérieures de ChatGPT, les développeurs d’IA doivent constamment surveiller ces biais pour garantir des interactions neutres et équitables. Les utilisateurs, eux, sont encouragés à rester vigilants face à ces biais potentiels et à questionner les réponses reçues en fonction de leur identité.

Tout ceci nous rappelle le temps ou la génération d'images posait le même type de problème, en générant systématiquement des photos de femmes blanches et minces quand il était demandé à une IA de générer une photo de femme. Ces biais ont été largement compensés depuis.