Cupertino vient de se voir attribuer un nouveau brevet décrivant une méthode de contrôle d’un curseur dans un environnement 3D, via des gestes des mains ou des bras. Une technologie taillée pour la réalité mixte — et peut-être pour de futures Smart Glasses.
Un brevet tourné vers l’interaction spatiale
Apple continue de peaufiner son écosystème spatial —et en particulier l’Apple Vision Pro ainsi que ses très attendues lunettes connectées— avec un nouveau brevet récemment validé par l’USPTO (United States Patent and Trademark Office).
Intitulé Devices, methods, and graphical user interfaces for using a cursor to interact with three-dimensional environments, ce brevet s’intéresse à la manipulation d’un curseur dans un environnement 3D, notamment à l’aide de gestes des mains ou des bras effectués devant soi. Une technologie qui pourrait s’intégrer aussi bien dans le Vision Pro, un futur modèle de Smart Glasses ou même, dans une moindre mesure, sur Mac.
Des systèmes actuels jugés « inefficaces et limités »
Sans surprise, Apple commence par dresser un portrait peu flatteur des solutions existantes. Les systèmes actuels sont qualifiés de lourds, inefficaces et limités, notamment lorsqu’il s’agit d’opérations nécessitant de la précision, comme l’édition de texte ou le dessin dans un espace virtuel.
La firme critique des dispositifs complexes, fastidieux et sujets aux erreurs pointant leur impact sur la charge cognitive de l’utilisateur et leur manque d’intuitivité.
Une interface pensée pour réduire la friction utilisateur
Pour répondre à ces limites, Apple décrit un ensemble de méthodes et d’interfaces destinées à rendre l’interaction avec des objets virtuels plus fluide et naturelle. Ces solutions visent à minimiser le nombre et la complexité des entrées utilisateur, tout en facilitant la compréhension du lien entre geste et action à l’écran.
L’objectif affiché est de créer une interface homme-machine plus efficace, qui pourrait à terme compléter —voire remplacer— les méthodes d’interaction classiques dans les environnements 3D.
Le Vision Pro comme plateforme de capture gestuelle
Le brevet prend appui sur le Vision Pro comme dispositif central. Plusieurs illustrations montrent un système analysant les gestes des mains et des doigts pour déplacer un curseur, y compris sur un écran réel. Le casque joue ici le rôle de capteur, capable d’interpréter des mouvements fins avec un minimum d’interactions physiques.
Apple évoque également d’autres modes de saisie, comme la voix ou le regard, mais le cœur de la technologie repose clairement sur le contrôle gestuel via des capteurs optiques.
Des indices vers de futures lunettes Apple ?
Si ce brevet ne garantit pas une implémentation immédiate, il s’inscrit dans la continuité des efforts d’Apple pour affiner les interactions dans ses environnements spatiaux. Il pourrait très bien préfigurer les bases du système de contrôle de ses futures lunettes connectées, dont le développement semble toujours actif en parallèle du Vision Pro.