À l’occasion de la Journée mondiale de sensibilisation à l’accessibilité numérique, Apple met en lumière deux fonctionnalités, qui vont arriver avec macOS 16 et iOS 19 : la Loupe sur Mac et une version enrichie de Music Haptics. Ces deux outils ont été repensés pour améliorer l’autonomie et l’expérience utilisateur des personnes en situation de handicap.
Une démonstration concrète
Apple poursuit ses efforts pour rendre ses produits toujours plus inclusifs. Après avoir levé le voile sur ses prochaines fonctionnalités d’accessibilité, Cupertino publie aujourd’hui deux vidéos explicatives sur YouTube, destinées à illustrer l’usage concret de ces innovations.
La première met en scène la nouvelle fonction Loupe sur Mac. On peut y voir une étudiante utiliser un iPhone relié à un Mac pour zoomer sur un tableau noir en classe, améliorant ainsi sa capacité à lire les notes et les schémas de son professeur.
Cette fonction va utiliser la Caméra de l'iPhone pour diffuser le flux vidéo depuis le smartphone directement sur l’écran du Mac, avec la possibilité d’ouvrir plusieurs fenêtres personnalisables selon les besoins : contraste, filtres couleur, luminosité… Un outil précieux pour les personnes malvoyantes, qui prolonge l'outil Loupe déjà disponible depuis plusieurs années sur iPhone.
La deuxième vidéo, partagée cette fois sur la chaîne Apple Music, met en lumière une autre avancée significative : Music Haptics. Déjà introduite avec iOS 18, cette fonctionnalité permet de traduire la musique en retours haptiques -tapotements, textures, vibrations- afin de rendre l’expérience sonore plus accessible aux personnes sourdes ou malentendantes.
Avec iOS 19, Apple franchit un cap en permettant une personnalisation avancée de l’expérience. Les utilisateurs pourront choisir de ressentir les vibrations sur l’intégralité du morceau ou uniquement sur les voix, et ajuster l’intensité des retours haptiques pour une immersion plus fine. Il s'agit pour Cupertino de proposer une manière différente de sentir la musique, au-delà du simple usage de l’ouïe.
Une stratégie d’accessibilité de plus en plus visible
Ces deux vidéos s’inscrivent dans une communication plus large d’Apple autour de l’accessibilité, secteur dans lequel l’entreprise multiplie les innovations ces dernières années : contrôle vocal, suivi oculaire, reconnaissance sonore, compatibilité braille, sous-titrage en direct… autant de fonctionnalités que nous avions déjà explorées dans notre précédent article.
En choisissant de mettre en avant ces nouveautés par des démonstrations concrètes et réalistes, Apple rappelle que l’accessibilité n’est pas un supplément, mais un pilier fondamental de son écosystème logiciel et matériel. Les nouvelles fonctionnalités présentées seront déployées avec iOS 19 et macOS 16, dont l’annonce est attendue 9 juin lors de la keynote inaugurale de la WWDC, avec une sortie publique probable à l’automne.