Fake News
Image may be NSFW.Clik here to view.

En parallèle de la fin programmée du fact-checking sur ses plateformes aux États-Unis, Meta ravive sur Facebook un programme de bonus pour les contenus viraux. Avec le risque d’alimenter la machine à fausses informations.
Suppression de la modération et du fact-checking, acceptation d’insultes envers les minorités, ajout des notes de communauté. Début janvier, Mark Zuckerberg créait la surprise en faisant ouvertement pivoter les politiques de gestion de la désinformation et des discours de haine sur ses plateformes pour suivre l’exemple donné par Elon Musk depuis son rachat de X.
Moins médiatisée, mais de nature à ajouter de l’huile sur le feu, l’entreprise est en train de relancer un programme de monétisation dédié à offrir un bonus aux contenus les plus viraux. Pour le moment accessible uniquement sur invitation, il doit être ouvert plus largement dans le courant de l’année.
Associé à la fin des programmes de fact-checking états-uniens construits au fil des dix dernières années et à l’abandon des systèmes d’automatisation de la réduction de portée des fausses informations, le programme est de nature à détériorer davantage la qualité des échanges sur les plateformes de Meta, et à renforcer la circulation de désinformation.
Une enquête de ProPublica a déjà identifié près de cent pages Facebook créées uniquement pour la diffusion de publications destinées à attirer de l’engagement et, souvent, à attiser les divisions politiques.
Nombreuses pages de désinformation pilotées de l’étranger
Promouvant de faux titres de presse comme « Lia Thomas avoue : « J’ai fait semblant d’être trans pour montrer à quel point la gauche est crédule » ou « Elon Musk a annoncé qu’il avait acquis MSNBC pour 900 millions de dollars afin de mettre fin aux programmes toxiques », les 95 pages étudiées réunissent plus de 7,7 millions de followers.
Dans la majorité des cas, relève le média états-unien, les pages en question sont gérées depuis d’autres pays – Macédoine, Vietnam, Philippines ou encore Indonésie. Beaucoup se reposent sur de l’IA générative pour créer leur contenu.
Le schéma rappelle un antécédent précis : la campagne présidentielle qui a mené à la première élection de Donald Trump. À l’époque, une poignée d’internautes installés dans les Balkans, âgés de 16 ou 17 ans, racontaient à Buzzfeed News engranger de l’ordre de 5 000 dollars par mois « ou 3 000 dollars par jour en cas de succès sur Facebook » en alimentant les réseaux pro-Trump de fausses informations aux titres ravageurs.
D’autres internautes déclaraient à la NPR s’être lancé dans ce type d’activité précisément pour entrer dans la chambre d’écho de l’alt-right qui émergeait alors. Chaque fois qu’un internaute cliquait sur une fausse actualité, par exemple titrée : « L’agent du FBI soupçonné d’avoir divulgué les courriels d’Hillary est retrouvé mort dans un apparent meurtre-suicide », les créateurs de la désinformation et du site web gagnaient l’argent des publicités auxquelles ils avaient exposé l’internaute.
La même année (2016), Facebook créait ses premiers programmes de lutte contre la désinformation. 9 ans plus tard, l’entreprise a prévu de mettre officiellement fin à ses programmes de fact-checking aux États-Unis en mars, en continuant les paiements jusqu’en août. En fournissant un bonus sur la viralité, détaille ProPublica, la société augmente l’incitation financière à créer du contenu faux et à potentiel inflammable.
L’antécédent de X
Meta indique vouloir traiter le problème grâce aux notes de communauté, mais une autre plateforme permet d’évaluer l’efficacité de ces procédés : X.
Si Mark Zuckerberg n’a pour le moment pas la même propension à surexposer les « super-diffuseurs » de désinformation qu’Elon Musk sur sa propre plateforme, les deux années écoulées ont démontré que l’arrêt de la modération et la destruction du fact-checking ont fait fuir certaines communautés de l’ancien réseau à l’oiseau bleu, dont celles des scientifiques.
Un an après le rachat de Twitter par Musk, des études soulignaient par ailleurs l’amplification de la propagande du Kremlin que sa suppression des logiques de modération avait permise. À l’heure du rapprochement assumé du Président des États-Unis de celui de Russie, les décisions de Mark Zuckerberg pourraient leur offrir un nouveau boulevard – alors que ses précédentes politiques ne permettaient déjà pas de freiner correctement des opérations de désinformation comme celles du réseau Doppelgänger.
La même plateforme a aussi permis de montrer que la monétisation de la viralité participait à dégrader davantage l’état du paysage informationnel.