Meta vient d'annoncer le déploiement d'une nouvelle fonctionnalité de traduction en direct pour tous les utilisateurs de ses lunettes Ray-Ban Meta, mais aussi la possibilité d’interagir avec Meta AI en fonction de ce que les lunettes voient, une avancée majeure des assistants visuels.
Traduction en direct : parler plusieurs langues, sans apprentissage
Qui n'a jamais souhaité posséder un traducteur universel, fortement répandu dans tous les films et série de science fiction ! Apparemment cette option serait LA fonction du moment. Jusqu’ici réservée aux testeurs du programme d’accès anticipé, la traduction en direct est désormais en cours de déploiement mondial. Elle va permettre aux utilisateurs des lunettes Meta Ray-Ban de traduire instantanément des conversations dans quatre langues : anglais, français, espagnol et italien.
C'est quand même plus discret dans les rues...
L’activation est simple : il suffit de dire Hé Meta, lance la traduction en direct pour que l’IA se mette à l’œuvre. Lorsque vous parlez à quelqu'un dans l'une de ces langues, vous entendrez ce qu'il dit dans votre langue préférée à travers les lunettes en temps réel, et il peut voir une transcription traduite de la conversation sur votre téléphone.
Autre bonne nouvelle, cette fonctionnalité pourra aussi être utilisée hors connexion. Pour cela, il faudra toutefois avoir téléchargé au préalable le pack de langue souhaité. Pour le moment, cette option est en cours de déploiement, mais on a vraiment hâte de la tester.
Rappelons que dans iOS 19, une fonction similaire est également en préparation pour les AirPods. C'est en effet ce qu'a avancé Mark Gurman, dans une de ses dernières newsletter. Si un anglophone entend quelqu'un parler en espagnol, l'iPhone traduira les propos et le transmettra aux AirPods de l'utilisateur en anglais. Les mots en anglais, quant à eux, seront traduits en espagnol et restitués par l'iPhone.
Et encore plus discret que cela ^^
Une IA qui comprend ce que vous voyez
Autre nouveauté : Meta AI peut désormais interagir avec l’environnement filmé par les lunettes. Les utilisateurs pourront interroger l’assistant vocal sur ce qu’ils ont sous les yeux -une plante, un monument, un objet- et recevoir des réponses contextuelles en direct.
En pratique, cette fonctionnalité rapproche les Ray-Ban Meta d’un assistant visuel portable, un peu à la manière de ce que propose déjà xAI avec Grok Vision, ou Google avec Gemini Live. Mais les lunettes en font un compagnon parfait et beaucoup plus discret, surtout si on se promène dans un pays étranger.
En plus de ces améliorations majeures, Meta annonce d’autres évolutions du côté des usages, comme l'envoi et réception de messages, photos, appels audio/vidéo via Instagram directement depuis les lunettes. En outre, l'écoute de musique via Spotify ou Apple Music, est désormais disponible dans davantage de pays -mais uniquement si la langue par défaut est l’anglais, pour l’instant.
Ces nouvelles fonctionnalités des RayBan Meta renforcent le positionnement des lunettes comme prolongement intelligent du smartphone, avec une expérience mains-libres qui s’enrichit vraiment au fil des mois.
Forcément, on ne peut que regretter l'absence d'un tel produit dans le catalogue d'Apple, qui déçoit sur ce segment. La firme californienne a préféré commencer par un appareil premium, certes bijou de technologie mais nettement moins abordable et à l'utilisation restreinte. A moins qu'elle se refuse délibérément à affaiblir l'iPhone pour le moment.
Quelle qu'en soit la raison, Apple accuse, une nouvelle fois, un retard dans les casques et les lunettes connectées !