Actualité

Divers

TikTok accusé de recommander du contenu pornographique à des mineurs

Par Laurence - Publié le

Une enquête de l’ONG Global Witness affirme que l’algorithme de TikTok suggère du contenu sexuellement explicite à des comptes présentés comme ceux d’adolescents de 13 ans, malgré l’activation des paramètres de sécurité.

tikTok Pornographie


Des faux comptes d’enfants exposés à du contenu explicite



Entre juillet et août 2025, des chercheurs de l’organisation Global Witness ont créé quatre faux profils sur TikTok, en indiquant une date de naissance correspondant à l’âge de 13 ans. Aucun système de vérification supplémentaire n’a été demandé, et les comptes ont activé le mode restreint, censé limiter l’accès aux thèmes matures ou complexes, tels que la sexualité.

Mais, dès leur première utilisation, les comptes ont reçu des suggestions de recherche à caractère sexuel dans la rubrique vous pourriez aimer. Ces recommandations menaient à du contenu très explicite et forcément imagé. Dans certains cas, les images étaient dissimulées au sein de contenus apparemment anodins, une stratégie visant à contourner les systèmes de modération.

TikTok accusé de recommander du contenu pornographique à des mineurs


Le choc



Pour Global Witness, les résultats de cette enquête sont particulièrement alarmants. TikTok n’échoue pas seulement à protéger les enfants d’un contenu inapproprié : il leur suggère activement ce contenu dès la création d’un compte, a déclaré Ava Lee, responsable de la campagne.

L’organisation, qui enquête habituellement sur l’impact des géants de la tech sur les droits humains, la démocratie et le climat, a découvert le problème par hasard au cours d’autres recherches en avril dernier. Les résultats, répétés en juillet après l’entrée en vigueur de nouvelles obligations légales au Royaume-Uni, renforcent les inquiétudes.

TikTok se défend et promet des améliorations



Alertée une première fois, la plateforme avait indiqué avoir pris des mesures immédiates pour supprimer les vidéos signalées et renforcer son système de recommandations. TikTok affirme disposer de plus de 50 fonctionnalités dédiées à la sécurité des adolescents, et se targue de retirer 9 vidéos sur 10 violant ses règles avant même leur première vue.

Après les nouvelles révélations de Global Witness, l’entreprise dit avoir encore renforcé ses systèmes de modération et lancé des améliorations dans la gestion des suggestions de recherche. Elle rappelle être pleinement engagée à offrir une expérience sûre et adaptée à l’âge des utilisateurs.

Une pression réglementaire croissante



Depuis le 25 juillet 2025, l’Online Safety Act et ses Children’s Codes imposent aux plateformes un devoir légal de protection des mineurs. Les réseaux doivent désormais déployer des outils efficaces de vérification d’âge, mais aussi bloquer les algorithmes qui exposent les jeunes à des contenus dangereux comme la pornographie, l’incitation à l’autodestruction ou les troubles alimentaires.

Pour Global Witness, les résultats de cette enquête montrent que les obligations légales ne sont pas encore respectées : Tout le monde s’accorde sur la nécessité de protéger les enfants. Il est temps que les régulateurs interviennent, estime Ava Lee.

Cette nouvelle polémique autour de TikTok illustre les difficultés persistantes des réseaux sociaux à concilier croissance rapide et responsabilité. Alors que l’application revendique plus d’un milliard d’utilisateurs dans le monde, elle se retrouve une nouvelle fois sous la pression des régulateurs et des ONG. Reste à voir si les correctifs annoncés suffiront, ou si des sanctions plus lourdes viendront s’imposer dans un secteur toujours plus scruté.