Actualité

Web

Meta met en place sa modération collective comme X ! Vers la fin du fact-checking ?

Par Laurence - Publié le

Meta franchit une nouvelle étape dans sa gestion des contenus trompeurs sur ses plateformes. Hier, le groupe a annoncé le déploiement progressif des Notes de Communauté, un système de modération participative directement inspiré de celui lancé par X.

Meta Notes de communauté Modération USA
©Mac4Ever 2025


Un nouveau modèle de modération



Le principe est simple : lorsque les utilisateurs repèrent une publication potentiellement trompeuse sur Facebook, Instagram ou Threads, ils peuvent y ajouter une note de contexte, accompagnée de sources, pour fournir des précisions. Cependant, ces notes ne sont publiées que si un nombre suffisant de contributeurs aux avis variés les jugent utiles.

Le filtrage humain est donc bien terminé, Meta mise sur un algorithme (basé sur celui en open source de X) pour déterminer quelles notes sont pertinentes. Contrairement au fact-checking traditionnel, ces notes n’auront aucun impact sur la visibilité des publications, même si elles pointent du doigt des informations manifestement fausses. Cette différence de taille soulève déjà de nombreuses inquiétudes.

Un remplacement du fact-checking… qui pourrait poser problème



Ce système vient remplacer le programme de fact-checking dont Meta avait annoncé l'abandon aux États-Unis en janvier. À l’époque, Mark Zuckerberg avait justifié cette décision en critiquant les vérificateurs de faits, les jugeant trop orientés politiquement après la réélection de Donald Trump.

L’objectif est ici de rendre la modération moins biaisée. Mais ce choix pourrait vite se heurter à certaines régulations internationales. Si Meta prévoit un déploiement mondial des Notes de Communauté à terme, cela risque d'être compliqué, voire impossible dans plusieurs pays -et notamment l’Union européenne.

Facebook fact-checking
©Mac4Ever 2025


Et en France ?



Pour l’instant, le programme de fact-checking de Meta, qui collabore avec plus de 80 médias à travers le monde, reste actif en Europe. L’Agence France-Presse (AFP), participant à ce programme dans 26 langues, continue d’être rémunérée pour ses vérifications sur Facebook, Instagram et WhatsApp.

Clara Chappaz, ministre française chargée du Numérique, a confirmé mercredi que Meta avait entamé cette étude d’impact pour évaluer les risques et impacts sur les utilisateurs. Ils nous ont assuré qu’ils avaient l’intention de respecter nos règles et qu’ils avaient bien en tête cette étude d’impact, qui est en cours. Pas de risque pour le moment en France !



Mais la question demeure : ces Notes de Communauté seront-elles suffisantes pour lutter contre la désinformation ? Ce modèle basé sur le jugement collectif, sans intervention humaine, pourra-t-il vraiment répondre aux exigences des législations européennes, comme le Digital Services Act, qui impose aux plateformes de lutter activement contre les fake news...