Top Promos Apple Test Apple Antivirus Mac Dock Thunderbolt Sunology Comparatif iPhone Nettoyeur Mac

Actualité

Divers

Protection des enfants : le système CSAM divise, Apple publie une FAQ [sondage]

Par Laurence Trân - Publié le

Le nouveau programme de protection des enfants -notamment le système d'analyse des photos à caractère pédophile- ne semble pas faire l'unanimité. Au delà de la finalité des mesures, ce sont les procédés mis en place qui opposent deux camps : ceux qui soutiennent la lutte contre la pédo-pornographie par tous moyens et ceux qui estiment qu'il y a là un risque trop important en matière de vie privée et de confidentialité.

Protection des enfants : le système CSAM divise, Apple publie une FAQ [sondage]


Ce weekend, plusieurs CEO se sont d'ailleurs prononcés contre ces futures fonctions d'iOS 15, dénonçant une atteinte manifestement disproportionnée aux libertés individuelles ou craignant une possible dérive (surveillance des personnes, introduction d'une backdoor, détournement du système...). Parmi eux, on trouve Will Cathcart (WhatsApp) qui monte au créneau sur Twitter, précisant qu'un tel système ne sera jamais mis en place sur la plateforme. Ou encore Tim Sweeney (Epic Games) dont le combat contre Cupertino n'est pas à présenter.

Une lettre ouverte a également été mise en ligne, demandant à Apple de ne pas déployer ses nouveaux outils de sécurité, avec des signataires plus ou moins connus, comme Edward Snowden ou Matthew Green (qui avait dévoilé le projet jeudi matin).

En réponse, Apple vient d’ailleurs de publier une FAQ intitulée Protections étendues pour les enfants, qui vise à apaiser les préoccupations des utilisateurs en matière de confidentialité et à calmer les contestations. Devant l’ampleur des débats, la firme a entendu rappelé que les fonctions présentées (le scan CSAM, le filtre d’iMessage ou celui de Siri) sont différentes et ne se recoupent pas. Depuis que nous avons annoncé ces fonctionnalités, de nombreux intervenants, y compris des organismes de protection de la vie privée et des organismes de sécurité des enfants, ont exprimé leur soutien à cette nouvelle solution, et certains ont posé des questions. Ce document sert à répondre à ces questions et à fournir plus de clarté et de transparence dans le processus.



Rappelons que jeudi soir, Apple a annoncé le déploiement de nouvelles fonctions destinées à la protection des enfants et à prévenir toute sorte d'abus ou d'attaques de prédateurs sexuels. La première concerne le mécanisme CSAM (pour child sexual abuse material, c'est à dire la capacité de détecter des contenus pédophiles), qui ne portera pour le moment que sur les iPhone et iPad américains, avec iCloud Photo activé.

Ce dernier utilise des algorithmes très spécifiques couplés à une base de données de hashages identifiés en tant que contenus à caractère pédophile. Ces derniers effectueront une comparaison directement sur l'appareil avec les photos de l’utilisateur, et les signalera lors du téléchargement sur Photos iCloud.

Si le match est concluant, la photo recevra un marqueur spécifique. Au bout d'un certain nombre, une équipe humaine vérifiera et appliquera une procédure spécifique, impliquant la désactivation du compte et l'information d'un Centre habilité. Rappelons que Cupertino ne mentionne rien concernant un déploiement hors USA. Mais cela pourrait n'être jamais le cas au vu du nombre d'appareils concernés ou tout simplement des différences de législations dans les pays.

Unistellar dévoile son projet de jumelles de réalité augmentée

Unistellar dévoile son projet de jumelles de réalité augmentée

Le Marseillais Unistellar vient de dévoiler son tout nouveau projet dénommé ENVISION, les premières jumelles augmentées pour...

Scarlett Johansson attaque OpenAI pour avoir donné sa voix à ChatGPT

Scarlett Johansson attaque OpenAI pour avoir donné sa voix à ChatGPT

Alors que le festival de Cannes 2024 bat son plein, Scarlett Johansson créé le buzz mais sur un sujet un peu différent. En effet,...

AirTag 2, Mac Studio et Mac Pro ! Pas de sortie avant 2025 ?

AirTag 2, Mac Studio et Mac Pro ! Pas de sortie avant 2025 ?

Pour ce dernier weekend prolongé de mai, Mark Gurman change de ton et ne révèle pas les prochaines sorties mais plutôt la liste des...

Starlink sauve discrètement des vies à chaque catastrophe

Starlink sauve discrètement des vies à chaque catastrophe

Starlink est souvent vu en occident comme une solution de repli pour les oubliés de la fibre, domaine dans lequel il se montre plutôt efficace...

Elon Musk lance son IA Grok en Europe et enterre twitter.com !

Elon Musk lance son IA Grok en Europe et enterre twitter.com !

Quelques jours après Claude AI, c'est au tour de Grok de débarquer également en Europe. L'IA d'Elon Musk sera disponible à tous les...

Brand Day FlexiSpot : c'est le dernier jour pour les réductions exceptionnelles. Jusqu'à -50% !

Brand Day FlexiSpot : c'est le dernier jour pour les réductions exceptionnelles. Jusqu'à -50% !

Excellente nouvelle pour ceux qui recherchent un bureau ou une chaise ergonomique : FlexiSpot lance son Brand Day, avec à la clé de grosses...

Face aux risques sur le cerveau humain, Elon Musk va-t-il suspendre le projet Neuralink ?

Face aux risques sur le cerveau humain, Elon Musk va-t-il suspendre le projet Neuralink ?

Le projet Neuralink d'Elon Musk -qui a pour vocation de fabriquer et commercialiser des puces cérébrales- a récemment passé une...

OpenAI perd son autre cofondateur !

OpenAI perd son autre cofondateur !

Alors que les annonces relatives à l'Intelligence Artificielle se multiplient, un des cofondateurs d'OpenAI a annoncé hier qu'il quittait la...

Commentaires

Connectez-vous/créez un compte pour réagir à cet article !
Oops, vous n'êtes pas connecté

Pour évaluer un commentaire sur Mac4Ever, vous devez être connecté avec votre compte utilisateur.

18 commentaires
Connectez-vous/créez un compte pour réagir à cet article !
Oops, vous n'êtes pas connecté

Pour évaluer un commentaire sur Mac4Ever, vous devez être connecté avec votre compte utilisateur.