La pression réglementaire sur les géants du numérique continue de monter. Selon le Financial Times, le gouvernement britannique s’apprête à demander officiellement à Apple et Google d’intégrer des mécanismes de vérification d’âge beaucoup plus stricts au sein d’iOS et d’Android, afin d’empêcher les mineurs de prendre, d’afficher ou de partager des images à caractère sexuel.
Vers un contrôle au niveau du système d’exploitation
Dans le détail, les systèmes d’exploitation mobiles devront intégrer des algorithmes de détection de nudité capables de bloquer automatiquement la capture ou le partage de photos représentant des parties génitales, tant que l’utilisateur n’a pas été formellement identifié comme adulte.
Plus radical encore, le ministère de l’Intérieur britannique envisagerait d’empêcher l’affichage de toute image nue sur un appareil si l’âge de l’utilisateur n’a pas été vérifié au préalable, via des méthodes comme la biométrie ou des documents officiels.
À ce stade, il ne s’agirait pas encore d’une obligation légale, mais d’une demande politique forte, dont l’annonce pourrait intervenir dans les prochains jours. Une approche progressive, qui laisse néanmoins entrevoir de futures contraintes réglementaires si les plateformes ne coopèrent pas.
Une logique qui dépasse les applications
Cette initiative s’inscrit dans un mouvement plus large visant à déplacer la responsabilité de la protection des mineurs. Plutôt que d’imposer des contrôles d’âge application par application, plusieurs gouvernements plaident désormais pour que les app stores et les systèmes d’exploitation deviennent le point central de la vérification.
Aux États-Unis, cette logique a déjà donné naissance à un projet de loi, l’App Store Accountability Act, qui ferait d’Apple et de Google les garants légaux de l’âge des utilisateurs. Cupertino combat officiellement cette approche, au nom de la protection de la vie privée, mais elle séduit de plus en plus de responsables politiques, car elle éviterait aux utilisateurs de fournir leurs données personnelles à une multitude de développeurs.
Apple déjà engagé… mais avec des limites
Apple n’est pas totalement novice sur le sujet. iOS propose déjà certaines protections, notamment au sein de l’application Messages. Lorsqu’un enfant membre d’un groupe iCloud Famille reçoit une image jugée sexuellement explicite, celle-ci est floutée par défaut et accompagnée d’un message d’avertissement. Si l’enfant choisit malgré tout de l’afficher, un écran explicatif apparaît et les parents peuvent être notifiés.
Mais ces mesures restent limitées à certains usages et à des contextes précis. La demande britannique va beaucoup plus loin, puisqu’elle vise l’ensemble du système, y compris la prise de photos, leur affichage local et leur partage, indépendamment de l’application utilisée.
Qu'en penser ?
Si l’objectif affiché est la protection des mineurs, une telle évolution soulève d’importantes questions techniques, juridiques et éthiques. Intégrer des filtres de nudité et une vérification d’âge systématique au niveau de l’OS pourrait transformer profondément l’expérience utilisateur, tout en ravivant les inquiétudes autour de la surveillance, de la vie privée et du stockage de données sensibles. Il reste à voir si Apple et Google accepteront d’aller dans ce sens… ou s’ils attendront que la demande britannique se transforme en obligation légale.