Les utilisateurs vérifieront les faits sur Instagram et Facebook. Espérons juste que ça marche
Il y a un mois, Meta a annoncé qu'elle mettait fin à son programme tiers de vérification des faits et a déclaré qu'elle s'appuierait sur les utilisateurs pour signaler les informations erronées. Aujourd'hui, la société a annoncé Community Notes, qui adopte une approche similaire à celle de X, et sera mise en œuvre sur Facebook, Instagram et Threads.
Les conditions requises pour devenir rédacteur de notes communautaires sont que vous devez être un citoyen américain de plus de 18 ans, disposer d'un numéro de téléphone vérifié et d'un compte datant de plus de 6 mois. Cependant, toutes les notes de la communauté ne seront pas publiées, car cela nécessiterait une sorte de consensus entre les autres contributeurs.
"Un nombre suffisant de contributeurs doivent convenir qu'une note de la communauté est utile avant de pouvoir être publiée sur un article", explique l'entreprise. Meta commencera bientôt à intégrer les utilisateurs éligibles (dont les détails ne sont pas encore disponibles) et commencera à faire apparaître ces notes de vérification des faits de source publique au cours des prochains mois.

Les notes de la communauté peuvent comporter jusqu'à 500 caractères, doivent utiliser un langage qui semble impartial et facile à comprendre, et étayer les affirmations avec une URL renvoyant vers une source fiable. Une fois qu’il a été évalué et jugé utile, il peut être publiquement joint à la publication problématique sur les réseaux sociaux.
Jusqu’où peuvent aller les dégâts ?
En 2025, Meta a une politique de modération de contenu plus souple et une situation de non-contact avec des organisations indépendantes de vérification des faits, à commencer par les États-Unis. L'entreprise espère que les notes fournies par les utilisateurs résoudront ses problèmes. C'est une pente glissante.
Un expert en désinformation , qui travaille avec une organisation leader faisant partie du programme de vérification des faits de Meta, a déclaré à Digital Trends que les notes de la communauté sont largement inefficaces. S'exprimant sous couvert d'anonymat, ils ont déclaré que la société avait échoué sur X sur certains de ses plus grands marchés, comme l'Inde.
Membre du Réseau international de vérification des faits (IFCN) de Poynter, l'expert a également rejeté les affirmations de Meta selon lesquelles les vérificateurs de faits étaient politiquement biaisés. Les agences de l’IFCN ont expliqué que Meta les avait obligées à adhérer à des principes d’impartialité et de transparence strictes, ce qui signifiait également dire non au plaidoyer et à l’affiliation à des partis politiques.

Voici la partie oxymorique du débat. Les vérificateurs de faits professionnels sont les principaux contributeurs aux notes communautaires sur X, selon une étude qui a analysé plus de 1,2 million de notes publiées en 2024. « Les utilisateurs s'appuient fréquemment sur des organisations de vérification des faits lorsqu'ils proposent des notes communautaires », indique l' étude .
Depuis que Meta a annoncé la fin de son programme de vérification des faits, un débat sur l’intention derrière ce programme a éclaté. En janvier, Meta a mis fin à ses efforts de diversité, d'équité et d'inclusion (DEI) pour l'embauche et la formation des employés. Meta a-t-il donné la priorité aux intérêts des utilisateurs, ou a-t-il simplement pris la décision en fonction du climat politique ?
Nous n’obtiendrons peut-être jamais de réponse officielle à cette question. Mais les dégâts que de tels échecs peuvent causer sont considérables. Cela peut affecter toute personne issue d’un groupe minoritaire, qu’il soit religieux, politique, culturel ou social, pour n’en nommer que quelques-uns.
« Les récentes annonces de Meta en matière de politique de contenu constituent une menace grave pour les communautés vulnérables du monde entier et augmentent considérablement le risque que l'entreprise contribue une fois de plus à des violences massives et à des violations flagrantes des droits humains », a déclaré Amnesty International .

Jamie Krenn, professeur agrégé à l'Université de Columbia et au Sarah Lawrence College, explique à Digital Trends que les plateformes de Meta risquent de devenir un terrain fertile pour de faux récits et de laisser les utilisateurs vulnérables à la manipulation.
« L’expertise en matière de vérification des faits joue un rôle crucial dans le maintien de cet équilibre, en garantissant que la liberté d’expression repose sur un fondement de vérité. Sans cela, nous risquons de confondre l’opinion avec les faits – un dangereux précédent pour toute société », explique Krenn, titulaire d’un doctorat en études cognitives.
Ce n'est pas une solution au problème de Meta
"Le déploiement de Community Notes pour remplacer la vérification des faits ne fait pas grand-chose pour remplir l'espace, mais les grandes technologies ont fait le calcul selon lequel mettre l'accent sur la liberté d'expression était une meilleure décision politique auprès des législateurs et des régulateurs que d'autres réformes", a déclaré Jeff Le, expert en affaires mondiales et en politique publique et ancien secrétaire adjoint du Cabinet de l'État de Californie, à Digital Trends.
La vérification des faits est un processus rigoureux, et sans analyse experte, elle peut dégénérer en un problème majeur. Les Nations Unies (ONU) préviennent que les faits peuvent souvent être déformés, en particulier en période de conflit, et peuvent affecter la paix, la sécurité et les efforts humanitaires.

Lorsque les médias sociaux se plient aux sensibilités d’une classe majoritaire, la vérification des faits est un jeu d’enfant si la même base d’utilisateurs adopte un comportement en ligne problématique. Selon le rapport d'Amnesty sur le génocide des Rohingyas au Myanmar, la diffusion massive de messages haineux « a considérablement augmenté le risque d'éclatement de violences de masse ».
Voici la partie la plus préoccupante. Mis à part les échecs de modération du contenu de Meta, même si une publication est accompagnée d'une note de la communauté, cette publication peut ne pas être supprimée ou voir sa visibilité limitée. Il continuera à y rester, à moins qu'il ne soit signalé et que Meta décide d'agir.
Cette dernière situation semble peu probable. En janvier de cette année, la société a également assoupli ses efforts de modération de contenu et dilué sa politique en matière de conduite haineuse. Selon la Human Rights Campaign , en raison de ces nouvelles politiques, « les personnes LGBTQ+ subiront de manière disproportionnée du harcèlement et des abus, sans aucun accès à un recours ».
Le, qui a également mené avec succès une campagne contre la législation anti-LGBTI et anti-inclusion dans plusieurs États, a également évoqué les mesures récentes prises par les sociétés de médias sociaux, telles que les restrictions d'âge et le contrôle parental pour protéger les groupes vulnérables.
« Ce n’est probablement pas la voie vers une réforme significative ou une confiance accrue dans les plateformes à l’avenir », a-t-il déclaré à Digital Trends. Yaron Litwin, directeur marketing d'une société nommée Canopy qui fabrique des logiciels de contrôle parental, affirme que ces changements peuvent conduire à une « détérioration des discours en ligne ».

Il ajoute que nous devrions chercher davantage de moyens de résoudre les problèmes sur les réseaux sociaux, tout en soulignant que le contenu généré par l’IA constitue une nouvelle voie de défi, même pour les vérificateurs de faits. Par ailleurs, plus tôt cette année, Meta a commencé à proposer des personnages générés par l'IA et une nouvelle application de montage vidéo basée sur l'IA arrive également.
Une solution fondamentalement problématique
L'idée des Community Notes sur les réseaux sociaux n'est pas mauvaise, mais c'est un défi monumental pour de nombreuses raisons. Cela pourrait se retourner contre nous pour la même raison que Meta a mis fin à son programme de vérification des faits, qui était par ailleurs géré par de véritables experts et des agences certifiées.
« Un programme destiné à informer est trop souvent devenu un outil de censure », a déclaré Meta en annonçant son intention de mettre fin à cette initiative. La principale raison était la partialité des vérificateurs des faits, selon l'entreprise.
« Les experts, comme tout le monde, ont leurs propres préjugés et perspectives. Cela s’est manifesté dans les choix que certains ont faits sur ce qu’il fallait vérifier et comment », a expliqué Meta. Voici la partie manquante de l'intrigue.
Les rédacteurs des Community Notes peuvent également être partiaux. Plus encore que les agences de vérification des faits certifiées, qui s’engagent en fait à rester transparentes et à se soumettre à des contrôles annuels. Nous venons de voir cela se produire chez X, la plate-forme qui a inspiré Meta en premier lieu X.
« Malheureusement, @CommunityNotes est de plus en plus utilisé par les gouvernements et les médias traditionnels. Nous travaillons pour résoudre ce problème », a déclaré le chef de X, Elon Musk, il y a à peine un jour. Cela va à l’encontre de toute la philosophie consistant à disposer d’un groupe de personnes de tous horizons qui ajoutent des informations factuelles pour contester ce qui est affirmé dans une publication problématique sur les réseaux sociaux.
Malheureusement, @CommunityNotes est de plus en plus utilisé par les gouvernements et les gouvernements. médias hérités.
Travailler pour résoudre ce problème…
Il devrait être tout à fait évident qu’un sondage contrôlé par Zelensky sur sa PROPRE approbation n’est pas crédible !!
Si Zelensky était réellement aimé du peuple ukrainien, il… https://t.co/gy0NjtPwiq
— Elon Musk (@elonmusk) 20 février 2025
Essentiellement, une plate-forme de médias sociaux décide de réparer de manière arbitraire et non transparente un système participatif et entièrement indépendant, simplement parce qu'elle signalait un contenu qui ne correspond pas aux goûts et aux aversions de ses propriétaires.
De plus, si le raisonnement de Musk selon lequel « on se laisse de plus en plus tromper » est pris au sérieux parce qu'il ciblait un certain point de vue, alors il a clairement raté le train. Et étant donné le récent virage du propriétaire de Meta, Mark Zuckerberg, vers un dialogue plus libre d'expression, le système pourrait rencontrer des problèmes similaires sur Facebook et Instagram.
Les bombardements d'avis , qu'ils soient légitimes ou malveillants, sont une réalité de l'Internet moderne depuis des années, et il ne sera pas différent avec les notes de la communauté. Epic Games a dû créer un tout nouveau système d'évaluation des utilisateurs pour gérer les bombardements d'avis.
Si un organisme, une personne ou un événement est jugé positif par un groupe, il peut attirer la colère de l’autre, armé de faits qui lui sont propres. Cela est particulièrement vrai lorsque la géopolitique et la culture entrent en jeu.
Comment Meta décidera-t-il quel lien constitue une source fiable partagée dans la note de la communauté ? La communauté de Meta sera-t-elle impartiale et non transparente pour juger de la fiabilité des sources d'information ? Les chiffres d’engagement du public joueront-ils un rôle ? Si tel est le cas, une certaine chaîne d’information biaisée avec une audience de plusieurs millions de personnes peut facilement dépasser une source plus petite mais fiable sur un autre marché. C'est un problème fondamental.

L'Inde est le plus grand marché pour Facebook, avec plus de 300 millions d'utilisateurs, tout comme Instagram. Si des contributeurs en Inde citent une source d'information locale (avec une audience beaucoup plus large qu'un média local aux États-Unis) pour une information, Meta donnera-t-il la priorité à leur note communautaire même si elle est biaisée ou incorrecte ?
Cela devient encore plus complexe lorsque les préjugés des médias sont apparents partout dans le monde. Qui va décider de la fiabilité des « sources d’information » pour les notes de la communauté sur Facebook et Instagram reste un mystère. Il serait intéressant de voir comment Meta équilibre tout cela et évite un autre chahut provoqué par les médias sociaux qui prend au piège quelques milliards d'utilisateurs.