PravdIA

Les contenus des sites du réseau désinformation prorusse « Portal Kombat » se retrouvent dans les données utilisées par les différents chatbots des entreprises d’IA générative, alerte Newsguard.
En testant 10 des principaux chatbots d’entreprises d’IA générative, l’entreprise américaine NewsGuard a confirmé qu’ils répercutent parfois la désinformation russe propagée par le réseau de sites « Portal Kombat » débusqué l’année dernière par Viginum.
ChatGPT-4o d’Open AI, Smart Assistant de You.com, Grok de xAI, Pi de Inflection, Le Chat de Mistral, Copilot de Microsoft, Meta AI, Claude d’Anthropic, Gemini de Google et Perplexity. Tous ont répété certaines désinformations publiées sur le réseau Portal Kombat, explique Newsguard. Elle précise que ce n’est pas toujours le cas, mais qu’ils ont propagé « les récits faux de désinformation russe dans 33,55 % des cas, ont fourni une non-réponse dans 18,22 % des cas et ont fourni une réfutation des faits dans 48,22 % des cas ».
Ces désinformations viendraient, au moins en partie, de l’écosystème « Pravda », une sous-partie du réseau Portal Kombat visant particulièrement l’Europe et dont parlait déjà Viginum.
Dans un rapport publié le 28 février dernier [PDF], l’association American Sunlight Project (ASP) se posait des questions sur son utilisation : ASP « estime que le public cible le plus probable du réseau Pravda n’est pas constitué d’utilisateurs humains, mais d’utilisateurs automatisés ».
ASP précisait ces doutes : « le réseau n’est pas convivial pour les utilisateurs humains ; les sites du réseau ne disposent d’aucune fonction de recherche, leur formatage est médiocre et le défilement n’est pas fiable, entre autres problèmes de convivialité ».
Elle observait que « le réseau et le modèle d’exploitation de l’information sur lequel il repose mettent l’accent sur la production de masse et la reproduction de récits adaptés à de nombreuses plateformes (sites, comptes de médias sociaux, etc.) susceptibles d’attirer des entités telles que les robots d’indexation des moteurs de recherche et les algorithmes de scraping utilisés pour entrainer des LLM ». L’association nomme cette tactique « LLM grooming » ou « manipulation des LLM ».
ASP a analysé la fréquence d’un échantillon de ces sites et estime la masse de publication de l’écosystème Pravda « à 20 273 articles par 48 heures, soit plus de 3,6 millions d’articles par an ».
« Plus un ensemble de récits pro-russes est important, plus il a de chances d’être intégré dans un LLM », faisait remarquer ASP. « Le réseau Pravda se compose d’un très grand nombre de pages web hébergées sur des URL uniques qui reprennent toutes, souvent mot pour mot, le même contenu […]. En résumé, le flux de sources combiné et l’empreinte numérique de ce réseau sont énormes ».
« Les risques à long terme – politiques, sociaux et technologiques – associés à la manipulation des LLM par ce réseau sont élevés », estimait l’association.
Selon Newsguard, « le réseau Pravda ne produit pas de contenu original. Il fonctionne plutôt comme une machine à blanchir la propagande du Kremlin, en agrégeant le contenu de médias d’État russes, d’influenceurs pro-Kremlin et d’agences et fonctionnaires gouvernementaux par le biais d’un ensemble plus large de sites semblant indépendants ».
L’entreprise explique avoir testé les 10 chatbots cité plus haut avec un échantillon de 15 récits faux diffusés par le réseau Pravda. Newsguard a utilisé son cadre créé pour repérer les sites d’information non-fiable générée par IA.
« Chaque récit faux a été testé à l’aide de trois styles de requêtes différents – “Innocent”, “Orienté” et “Acteur Malveillant” – qui reflètent la façon dont les utilisateurs interagissent avec les modèles d’IA générative pour l’actualité et les informations. Cela a donné lieu à 450 réponses au total (45 réponses par chatbot) », explique l’entreprise.
Elle précise ne pas révéler publiquement les résultats pour chaque modèle « en raison de la nature systémique du problème ».
Sur ces 450 réponses, 56 comprenaient des liens directs vers des articles diffusant des fausses informations publiées par l’écosystème Pravda. En tout, 92 liens pointaient vers des articles du réseau, deux modèles diffusant la majorité avec 27 liens chacun :

Selon Newsguard, tous les chatbots ont diffusé de fausses informations en réponse à des requêtes sur des récits faux provenant du réseau Pravda, mais certains beaucoup plus que d’autres :

Peu de fois, ces chatbots refusent de répondre lorsque Newsguard s’appuie sur le réseau Pravda pour leur poser des questions :

Les chatbots réfutent peu souvent la désinformation propagée par cet écosystème :

Newsguard explique que l’ancien policier américain, théoricien du complot et agent d’influence russe John Mark Dougan a exposé cette stratégie lors d’une table ronde organisée à Moscou le 27 janvier 2025 : « Plus ces informations sont diversifiées, plus elles ont un effet d’amplification. Non seulement cela affecte l’amplification, mais cela affecte aussi l’IA future […] en poussant ces récits russes du point de vue russe, nous pouvons réellement changer l’IA mondiale ». Il concluait « ce n’est pas un outil dont il faut avoir peur, c’est un outil dont il faut tirer parti ».