Apple voulait jouer la carte de la prudence avec son nouvel outil de génération d’images, Image Playground. L’idée était de proposer un simple générateur d’images illustrées, limité aux visages et aux styles cartoon, histoire d’éviter les deepfakes et autres dérives. Sauf que même avec ces restrictions, l’application semble avoir du mal à gérer certains traits physiques de manière cohérente. Couleur de peau qui change, texture de cheveux qui varie d’une image à l’autre… Un souci d’équité qu’Apple aurait dû anticiper.
Des images qui ne collent pas toujours à la réalité
Jochem Gietema, spécialiste en machine learning, a voulu tester Image Playground avec une photo de lui-même. Résultat : les 24 images générées ne se ressemblent pas toutes et certaines présentent un changement notable de couleur de peau et de cheveux. L’algorithme semble hésiter, comme s’il ne savait pas trop comment interpréter son apparence.
Mais ce n’est pas tout. En modifiant les prompts (c’est-à-dire les descriptions données à l’IA), Gietema a constaté que certains mots influencent de manière stéréotypée les traits du visage généré. Par exemple :
Riche → peau plus claire, traits plus fins Pauvre → peau plus foncée, traits plus marqués Banquier → costume chic et apparence caucasienne Agriculteur → vêtements simples et traits plus rustiques Rap vs. Musique classique → On vous passe les détails mais vous devinerez tout seul
C’est sans surprise en fait, ces biais existent déjà dans d’autres modèles d’IA générative. Mais Apple, en voulant proposer un outil ultra sécurisé, donne l’impression d’être passé à côté du problème.
Pourquoi l’IA se plante comme ça ?
Les biais en IA, ce n’est pas nouveau. Le problème vient souvent des données d’entraînement. Si un modèle est nourri avec des images peu diversifiées, il va naturellement privilégier certaines caractéristiques. Et même quand les développeurs tentent de corriger le tir, l’algorithme peut toujours trouver des moyens détournés de perpétuer les mêmes tendances.
Par exemple, un système censé être aveugle au genre pourrait, en réalité, utiliser d’autres indices (prénoms, choix de vêtements, etc.) pour arriver à la même conclusion biaisée. C’est exactement ce qui se passe avec Image Playground : même sans mentionner l’origine ethnique, certains prompts orientent visiblement l’image générée.
Un problème récurrent, mais pas sans solution
La bonne nouvelle, c’est que les biais algorithmiques peuvent être corrigés. Mais pour ça, il faut plus de transparence et d’audits indépendants. Aujourd’hui, ces modèles sont souvent des boîtes noires, difficiles à analyser de l’extérieur. Apple, comme d’autres, doit donc travailler sur des méthodes pour tester et ajuster ses algorithmes avant de les déployer.
Et au-delà d’Apple, la question se pose pour tous les outils d’IA qu’on utilise au quotidien : recommandations sur les réseaux sociaux, assistants vocaux, tri des CV, notation des crédits… Si ces systèmes continuent de refléter les biais du monde réel, ils risquent surtout de les amplifier.