Facebook interdit QAnon
Facebook adopte une position beaucoup plus ferme sur les partisans de la théorie du complot QAnon. La plate-forme supprime maintenant les pages, les comptes et les groupes relatifs à QAnon sur Facebook et Instagram.
Facebook supprime QAnon
QAnon est une théorie du complot d'extrême droite qui a émergé pour la première fois en 2017. Selon la théorie, le président américain Donald Trump se bat contre un «État profond» malveillant qui contrôle le gouvernement américain et la société dans son ensemble. Le groupe est dirigé par un personnage anonyme, Q, qui prétend avoir accès à des informations gouvernementales classifiées.
Facebook a commencé à agir contre QAnon et d'autres mouvements sociaux militarisés en août 2020. Au total, Facebook a réussi à supprimer plus de 1 500 pages et groupes liés à QAnon qui encourageaient la violence.
Mais maintenant, Facebook resserre ses restrictions sur le contenu lié à QAnon. Dans un article de blog About Facebook , la plateforme a annoncé qu'elle commencerait à supprimer toutes les représentations de QAnon sur Facebook et Instagram. Facebook a noté que l'interdiction inclut tous les groupes, comptes et pages QAnon, "même s'ils ne contiennent aucun contenu violent".
Pour accélérer le processus de suppression, Facebook ne s'appuie pas seulement sur les rapports des utilisateurs pour se débarrasser de QAnon – il utilise son équipe des opérations des organisations dangereuses pour identifier et éliminer le contenu lié à QAnon.
Cette mise à jour intervient après que Facebook a remarqué l'impact négatif de QAnon sur le réseau. Facebook a constaté que la plate-forme n'incite pas seulement à la violence, mais qu'elle diffuse également de fausses informations qui causent «des dommages au monde réel».
À titre d'exemple, Facebook a déclaré que les groupes QAnon ont impliqué à tort certains groupes comme étant la cause des incendies de forêt en Californie, ce qui aurait interféré avec la sécurité publique. QAnon fait également la promotion de la désinformation COVID-19 sur la plateforme, tout en prétendant lutter contre la traite des enfants.
En tant que tel, Facebook a commencé à diriger les utilisateurs vers des ressources crédibles sur la sécurité des enfants et a également supprimé les groupes de santé des listes de recommandations .
Facebook a également constaté que les idées de QAnon changent rapidement, contribuant davantage à la confusion, déclarant:
De plus, la messagerie QAnon change très rapidement et nous voyons des réseaux de supporters construire un public avec un message, puis passer rapidement à un autre. Nous visons à lutter plus efficacement contre cela avec cette mise à jour qui renforce et étend notre application contre le mouvement de la théorie du complot.
Même encore, Facebook pourrait ne pas être en mesure de s'attaquer à chaque nouvelle menace QAnon qui surgit. Facebook dit qu'il "s'attend à de nouvelles tentatives" des utilisateurs essayant de rétablir les communautés QAnon, et qu'il mettra à jour sa "politique et son application si nécessaire".
Mais malgré l'interdiction de toutes sortes de contenu QAnon, Facebook fait toujours face à des réactions négatives pour sa réponse. Certaines personnes reprochent à la plate-forme d'agir trop lentement pour lutter contre QAnon, car Facebook a permis à des groupes liés à QAnon d'exister et de se développer depuis 2017.
Facebook a-t-il fait affaire trop tard avec QAnon?
QAnon a eu amplement le temps de construire sa base, et Facebook n'a rien fait à ce sujet jusqu'à présent. Si QAnon ne peut plus exister sur Facebook, ses partisans se tourneront probablement vers un autre média social pour diffuser de la désinformation et du contenu préjudiciable.