Depuis quelques jours, une théorie du complot agite les réseaux sociaux : certains utilisateurs prétendent qu’Apple affichent le mot Trump lorsque la dictée vocale entend le mot raciste. Forcément pour certains, ce serait la preuve d’un message subliminal inséré par Apple pour manipuler ses utilisateurs. Mais la vérité serait ailleurs...
Est-ce vrai ?
Forcément ce matin en me levant, j'ai donc voulu vérifier la chose. Pour cela, j'ai gardé tous les paramètres français de mon iPhone 15 Pro (iOS 18.4 beta 1), mais j'ai passé le clavier en anglais. J'ai essayé sur WhatsApp, puis Note, puis Message etc tout en lançant l'enregistrement vidéo pour garder une trace de l'enchainement.
Et le résultat est resté le même. Chaque fois que j'ai prononcé le mot racist avec mon bel accent (la vf ne donne rien), mon iPhone a directement affiché le mot Trump pendant une fraction de secondes, avant de le corriger automatiquement !
On passera le délicat moment où je demande à plusieurs de mes contacts de bien vouloir dire le mot raciste en anglais à 7h du matin pour tenter de reproduire l’expérience avec d’autres systèmes (d'autres version d'iOS 18) et d'autres générations d'iPhone). Tous ont abouti comme moi au même résultat, à 80% environ.
Captures d'écran de mon enregistrement de ce matin
Mais pourquoi ?
De son côté, Apple a rapidement réagi, expliquant au New York Times que ce phénomène est dû à un chevauchement phonétique entre les deux mots. En clair, pour les algorithmes de dictée, racist et Trump peuvent parfois sembler étrangement similaires, non pas phonétiquement mais parce qu'ils apparaissent fréquemment ensemble dans la même phrase.
Ce bug serait lié au fonctionnement intrinsèque des modèles d’apprentissage automatique, qui pilotent la dictée vocale sur les appareils Apple. Ces derniers sont effectivement entraînés sur de vastes ensembles de données pour reconnaître les mots et les transcrire.
Alors non, les algorithmes de l'iPhone n'expriment pas une position politique ou une opinion, car ils ne comprennent pas réellement le sens des mots. Ils repèrent des modèles et des associations statistiques. Et donc ce que disent les utilisateurs anglophones... Ce qui nous fait dire qu'au cours de la dernière décennie, ce mot en particulier a souvent été utilisé à proximité du nom de Trump. Cette corrélation involontaire pourrait avoir biaisé le modèle, le poussant parfois à confondre les deux termes.
Pourquoi le mot “Trump” apparaît-il parfois et pas toujours ?
Ce matin, lors de mes premiers essais, le switch se répétait dès les premiers essais. pourtant plus je relançais l'expérience, plus il affichait directement le bon mot. En effet, l’algorithme ajuste constamment sa compréhension en temps réel, et que le système corrige petit à petit son erreur en comprenant le contexte.
Ce n’est pas la première fois qu’un algorithme Apple fait une erreur. En 2024, un autre bug avait provoqué une vive polémique : la suggestion automatique d’un drapeau palestinien lorsqu’on tapait Jérusalem. Apple avait rapidement corrigé l’erreur, soulignant une fois de plus les limites des systèmes d’intelligence artificielle lorsqu’ils traitent des données sensibles ou politiquement chargées.
Un correctif en préparation
Apple a confirmé qu’un correctif pour ce bug de dictée vocale est en préparation. L’objectif est probablement de recalibrer le modèle d’IA pour éviter que des associations involontaires ne provoquent ce genre d’erreurs embarrassantes. Donc pas de complot, juste le reflet d'un bug algorithmique (pour les uns), le reflet d'une situation (pour les autres). Bref, je vous laisse tirer les conséquences de cette occurence...