Une nouvelle fonction découverte dans la bêta d'iOS 26 fait polémique. FaceTime serait désormais capable de détecter la nudité et de geler l'appel. Une fonction de protection pour les enfants qui semble s'appliquer aussi, par erreur ou non, aux adultes. Voilà autre chose.
FaceTime gèle l'appel en cas de nudité
C'est une découverte du compte iDeviceHelp sur X qui a mis le feu aux poudres. Dans la dernière version bêta d'iOS 26, si l'un des participants à un appel FaceTime commence à se déshabiller, l'application se fige automatiquement. La vidéo et l'audio sont coupés.
Un message d'avertissement s'affiche alors à l'écran, indiquant que du "contenu sensible" a peut-être été montré. L'application propose ensuite de mettre fin à l'appel ou de le reprendre.
Visuel : 9to5mac.com
Une fonction pour les enfants... qui s'applique aux adultes ?
Ce qui est étrange, c'est que cette fonctionnalité semble s'appliquer à tout le monde. Pourtant, lors de la WWDC, Apple avait bien annoncé une fonction de détection de la nudité pour FaceTime, mais uniquement dans le cadre de "Communication Safety", son outil de contrôle parental destiné aux comptes des enfants.
La question est donc de savoir s'il s'agit d'un simple bug de la version bêta, qui appliquerait cette restriction à tout le monde par erreur, ou d'une nouvelle politique délibérée, et non annoncée, de la part d'Apple.
Comment ça marche (et quid de la vie privée) ?
Face à la polémique naissante, il est important de rappeler comment fonctionne cette technologie. Apple assure que l'analyse des images se fait entièrement en local sur l'appareil ("on-device"), grâce à l'apprentissage automatique.
L'entreprise ne sait donc pas que de la nudité a été détectée et n'a, en théorie, pas accès au contenu de vos appels. Aucune donnée n'est envoyée sur les serveurs d'Apple. Une promesse qui doit permettre de rassurer sur les questions de vie privée.
On en dit quoi ?
Cette histoire rappelle de mauvais souvenirs. On pense forcément à la controverse de 2021, quand Apple avait voulu mettre en place un système de scan des photos sur les iPhone pour détecter des contenus pédopornographiques, avant de faire machine arrière face au tollé des défenseurs de la vie privée.
Même si la technologie est différente et se passe "en local", le problème philosophique est le même. C'est l'idée qu'Apple puisse analyser le contenu de nos conversations privées et décider de les censurer, même entre adultes consentants. C'est une pente franchement glissante, et c’est même assez casse gueule.
Protéger les enfants est une nécessité, certes, mais étendre ces outils à tous les utilisateurs est une forme de puritanisme technologique un peu inquiétant. Et vous, ce genre de "modération" automatique, ça vous rassure ou ça vous fait peur ?
Pour suivre les débats sur la vie privée et les nouvelles technologies, le mieux est encore de nous suivre sur notre compte Threads !