Dans trois petits mois, c'est la WWDC (déjà...). Apparemment, Apple prépare une mise à jour des plus intéressantes, qui pourrait transformer les AirPods en véritables interprètes. Selon Bloomberg, une nouvelle fonctionnalité d'iOS 19 permettra aux écouteurs de traduire des conversations en direct, ouvrant la voie à une communication simplifiée entre personnes parlant des langues différentes.
Une traduction en temps réel, directement dans vos oreilles
Le principe est simple : si un utilisateur anglophone parle à quelqu’un s’exprimant en espagnol, son iPhone détectera l’audio, traduira les propos via l’application Traduire et transmettra le résultat -en anglais- dans les AirPods. L'inverse est tout aussi possible pour permettre un dialogue quasi en temps réel. Il faudra tout de même avoir au minimum deux iPhone et des AirPods compatibles...
Rappelons que l’app Traduire permet déjà ce genre d’échanges, mais le fait d’intégrer cette fonction directement dans les AirPods est tout à fait novateur. Notons que cette dernière peut donc être utilisée sans l'IA (et aujourd'hui, vu le calendrier d'Apple, c'est plutôt rassurant).
Elle promet surtout une interaction plus fluide, sans avoir à manipuler constamment son téléphone. En parallèle, Apple planche toutefois sur des améliorations de l’application Traduire dans iOS 19, même si les détails restent encore flous.
A priori, cette nouvelle option devrait être introduite avec iOS 19 et une mise à jour logicielle spécifique aux AirPods prévue pour plus tard cette année. Bonne nouvelle pour les utilisateurs actuels : il ne s’agirait pas d’une exclusivité pour les prochains modèles.
Bien que la firme travaille sur les AirPods Pro 3, attendus pour 2025, il semblerait que la traduction en temps réel soit aussi compatible avec les modèles déjà sur le marché, probablement les AirPods Pro 2, ainsi que des versions les plus récentes.
Rappelons que Cupertino a l’habitude de synchroniser les mises à jour des AirPods avec celles d’iOS. Par exemple, iOS 18 avait introduit plusieurs fonctionnalités liées à la santé auditive, permettant notamment aux AirPods de tester l’audition et de servir d’aide auditive en cas de problème détecté.
Avec cette fonction, Apple semble vouloir rattraper son retard sur la traduction en temps réel, un domaine déjà exploré par Google avec ses Pixel Buds. Cela s’inscrit dans une stratégie plus large où l’IA prend une place centrale dans les écosystèmes Apple -une tendance qui devrait se renforcer avec l’arrivée d’Apple Intelligence dans les prochains mois.