Face à une pression politique croissante, Meta a annoncé avoir supprimé 135 000 comptes Instagram impliqués dans des comportements inappropriés envers des enfants. L’entreprise déploie également de nouvelles protections pour renforcer la sécurité des adolescents sur ses plateformes.
135 000 comptes supprimés pour comportement prédateur
Meta a pris des mesures radicales pour lutter contre l’exploitation des mineurs sur Instagram. La société a révélé avoir supprimé près de 135 000 comptes ayant sexualisé des enfants, que ce soit par le biais de commentaires explicites ou en sollicitant des images auprès de comptes gérés par des adultes pour des enfants. Un demi-million d’autres profils liés à ces comptes problématiques ont également été supprimés sur Instagram et Facebook, dans le cadre d’un nettoyage plus large.
Cette action s’inscrit dans une politique de tolérance zéro face à la sexualisation des mineurs en ligne, et intervient alors que Meta est régulièrement accusée de ne pas suffisamment protéger les jeunes utilisateurs contre les prédateurs sexuels et contenus dangereux.
Nouvelles mesures de protection pour les adolescents
En parallèle, Meta a renforcé les paramètres de sécurité par défaut pour les comptes adolescents et ceux gérés par des adultes pour le compte de mineurs. Désormais, les messages offensants seront automatiquement bloqués, et les communications provenant d’inconnus seront restreintes, à moins d’une approbation explicite.
Ces efforts interviennent alors que les réseaux sociaux font face à une intensification des critiques de la part des législateurs. Ces derniers dénoncent l’addiction provoquée par les algorithmes, la détérioration de la santé mentale chez les jeunes, la normalisation de standards de beauté irréalistes, et surtout, l’exposition à des comportements de grooming (manipulation à des fins sexuelles).
Vers une régulation plus stricte ?
Le Congrès américain avait déjà tenté d’imposer un cadre législatif avec le Kids Online Safety Act (KOSA), voté par le Sénat en 2024. Cette loi impose aux plateformes de désactiver certaines fonctionnalités algorithmiques jugées addictives, de renforcer le contrôle parental et de mieux protéger les mineurs contre les contenus incitant à l’automutilation, les troubles alimentaires ou l’exploitation sexuelle. Mais le texte n’a jamais été adopté par la Chambre des représentants.
Réintroduit début 2025, le KOSA pourrait bientôt devenir une véritable loi, et Meta semble vouloir prendre les devants en annonçant ces initiatives. En agissant avant qu’une législation ne s’impose, l’entreprise cherche aussi à améliorer son image, ternie par de nombreux scandales liés à la sécurité des jeunes sur ses services. Mark Zuckerberg espère ainsi regagner la confiance des utilisateurs et des institutions, tout en anticipant une régulation de plus en plus inévitable.