La Commission européenne a franchi un cap décisif dans son bras de fer avec TikTok. À l’issue de près de deux années d’investigation, Bruxelles a annoncé avoir établi, à titre préliminaire, que la plateforme enfreignait le Digital Services Act. En ligne de mire : une architecture de l’application jugée volontairement conçue pour favoriser des usages excessifs, en particulier chez les plus jeunes.
Un design qui court-circuite l’autocontrôle
Selon le régulateur européen, TikTok ne se contenterait pas d’héberger du contenu viral, mais aurait bâti un ensemble de mécanismes visant à maximiser le temps passé à l’écran. Défilement infini, lecture automatique des vidéos, notifications répétées et recommandations ultra-ciblées formeraient un écosystème pensé pour limiter les interruptions et encourager une consommation continue.
Dans ses conclusions préliminaires, la Commission décrit un phénomène bien documenté par la recherche scientifique : l’exposition permanente à de nouveaux stimuli placerait l’utilisateur dans un état de réception quasi passive. Ce fonctionnement réduirait la capacité à décider consciemment de quitter l’application, favorisant des comportements compulsifs.
Bruxelles estime également que TikTok disposait d’indicateurs internes particulièrement alarmants, notamment sur l’usage nocturne chez les mineurs, la fréquence d’ouverture de l’application ou la durée cumulée des sessions. Or, ces signaux n’auraient pas conduit à des changements structurels significatifs du produit.
Des mesures jugées largement insuffisantes
La plateforme met pourtant en avant plusieurs dispositifs censés limiter les excès : outils de suivi du temps d’écran, rappels de pause, contrôles parentaux. Pour la Commission, ces garde-fous restent largement symboliques. Ils seraient trop simples à ignorer, trop complexes à configurer pour certaines familles, et surtout incapables de s’attaquer à la racine du problème : la logique même du design.
Les autorités européennes estiment ainsi que de véritables freins devraient être intégrés nativement à l’expérience, par exemple via des interruptions obligatoires, une limitation du défilement sans fin ou une remise à plat des algorithmes de recommandation, notamment durant la nuit.
Une enquête aux ramifications multiples
Ce volet sur l’addictivité n’est qu’une partie d’une enquête bien plus large. La Commission examine également l’effet tunnel des recommandations, les risques d’exposition à des contenus inadaptés liés à des déclarations d’âge erronées, ainsi que le respect des obligations en matière de protection des mineurs et de données personnelles.
Certains chapitres ont déjà été clos : en 2025, TikTok a dû se conformer à des exigences renforcées concernant l’accès aux données pour la recherche et la transparence publicitaire. Le dossier sur le design addictif, en revanche, pourrait déboucher sur des sanctions lourdes.
Une sanction potentiellement massive
TikTok dispose désormais du droit de consulter le dossier et de présenter sa défense. Mais si les conclusions préliminaires venaient à être confirmées, la maison mère ByteDance s’exposerait à une amende pouvant atteindre 6 % de son chiffre d’affaires mondial annuel. Selon les estimations d’analystes financiers et cabinets spécialisés (2024–2025), le chiffre d’affaires de TikTok en Europe se situerait entre 15 et 20 milliards d’euros par an, soit une amende pouvant aller jusqu'à 1,2 milliard d'euros !
Le Digital Services Act impose aux plateformes une responsabilité claire sur les effets de leurs produits, en particulier lorsqu’ils concernent les enfants et les adolescents, a rappelé Henna Virkkunen, vice-présidente de la Commission en charge de la souveraineté technologique.
Qu’en penser ?
Ce dossier pourrait marquer un précédent majeur dans la régulation des grandes plateformes numériques en Europe, en faisant du design des applications un sujet central du droit numérique, au même titre que les contenus ou la publicité.