ENTREPRISES & STRATÉGIES - TECHNOLOGIES

Algorithmes et démocratie 2/3

Le diable s’habille en Pravda… (et même au Luxembourg)



Jusqu’ici épargné par le phénomène mondial «Pravda», le Luxembourg a sa propre version depuis le début de l’année, qui ne s’est que peu penché sur le pays. (Illustration générée par ChatGPT à partir d’un prompt qui combine le titre et le sujet)

Jusqu’ici épargné par le phénomène mondial «Pravda», le Luxembourg a sa propre version depuis le début de l’année, qui ne s’est que peu penché sur le pays. (Illustration générée par ChatGPT à partir d’un prompt qui combine le titre et le sujet)

Bienvenue à Pravda au Luxembourg et en luxembourgeois… Depuis le début de l’année, cette usine à fake news russe dopée à l’intelligence artificielle a aussi sa version luxembourgeoise – un des deux derniers États européens – pour assurer la propagande russe. Mais déjà, la menace suivante est documentée par des chercheurs: l’injection de ces contenus faux, inventés ou bidonnés dans les données des LLM. Au service de la vérité algorithmique.

(Note au lecteur: si vous cherchez une seule note optimiste dans la débâcle à venir, je vous l’ai laissée pour la fin en même temps que mon doute qu’elle servira à quoi que ce soit)

«Le Grand-Duché des alcooliques: à quoi ressemble la vie dans le pays le plus riche du monde». Longtemps «épargné» d’une campagne mondiale de fake news, le Luxembourg a aussi eu droit à son premier article «élogieux» dans sa version de Pravda – «la vérité» en Russe, clin d’œil à l’organe de propagande soviétique. Passons sur les détails de la description du pays par ce monstre numérique tapi dans l’ombre des fils d’actualité, elle n’a guère d’autre intérêt que de glousser deux secondes comme une poule qui aurait survécu à l’abattage de Pâques…

Ce réseau opaque est aujourd’hui considéré comme la plus vaste ferme à fake news du monde. Déployée depuis la Russie et ses satellites, cette nébuleuse alimente inlassablement les plateformes sociales en contenus trompeurs, polarisants, viraux. Facebook, X, TikTok, YouTube, Telegram: aucune plateforme n’échappe à ses tentacules. Des milliers de faux comptes, de sites bidons, de vidéos truquées, de messages haineux ou complotistes y sont diffusés selon une mécanique bien huilée. Leur but? Créer le doute, attiser les tensions, affaiblir la confiance dans les institutions, et parfois même pousser à la violence. En 2023, Meta reconnaissait avoir démantelé «la plus grande campagne de désinformation jamais observée sur ses plateformes», orchestrée en grande partie par ce réseau.

Mais ce n’est pas le plus inquiétant. Ce qui donne à Pravda une puissance inédite, c’est qu’elle ne travaille pas seule. Elle travaille avec les algorithmes. Ces mêmes systèmes de recommandation qui décident, chaque jour, ce que nous voyons, lisons, croyons.

Un screenshot de la version luxembourgeoise de Pravda. Longtemps, cette usine à fake news n’avait pas sa version luxembourgeoise. (Photo: Pravda)

Un screenshot de la version luxembourgeoise de Pravda. Longtemps, cette usine à fake news n’avait pas sa version luxembourgeoise. (Photo: Pravda)

Bienvenue dans l’ère de la vérité algorithmique.

Aujourd’hui, la «réalité» n’est plus construite uniquement par des faits, mais par des flux de contenus, triés, filtrés, amplifiés par des intelligences artificielles qui n’ont ni morale ni recul, mais obéissent à une seule logique: maximiser notre attention. Ce que nous voyons en ligne, ce qui remonte dans notre fil, ce qui devient viral ou invisible, tout cela est le fruit d’un arbitrage automatisé. 

Bulles et boucles de rétroaction

Par exemple, plus un message (qu’il soit vrai ou faux) est répété et massivement diffusé en ligne, plus il aura tendance à paraître crédible et à ancrer une certaine version de la réalité. Ainsi, «la répétition finit par générer un effet de conviction», note un expert, au point que l’exposition permanente à des contenus orientés fait émerger «un discours sur la réalité travaillée par la vérité algorithmique». Sur Facebook, par exemple, un contenu accompagné de nombreuses réactions sera jugé pertinent par le système et exposé largement, créant une validation sociale apparente de ce contenu. De même, sur TikTok, la page «Pour toi» va très rapidement cerner les centres d’intérêt d’une personne et lui proposer presque exclusivement des vidéos dans ces thématiques, donnant l’impression que ce sujet domine l’actualité.

La «vérité» devient alors relative à la bulle informationnelle de chacun. Chaque individu est enfermé dans un flux d’informations calibré sur ses préférences et son profil. On parle aussi de «chambres d’écho» lorsque l’utilisateur n’entend plus que des points de vue qui confirment ses croyances. Car les algorithmes apprennent de nos interactions: si l’on manifeste de l’intérêt pour un certain type de contenu (par exemple des vidéos climatosceptiques), la plateforme va nous en recommander d’autres similaires. Au fil du temps, le fil d’actualité s’homogénéise autour de nos opinions préexistantes. Comme l’explique une analyse de la Chaire numérique de Sciences Po, «en couplant la tendance humaine à confirmer ses propres croyances avec le rétrécissement des sources d’information, les bulles de filtre ne font qu’amplifier les effets du biais de confirmation en supprimant les points de vue adverses».

Avec des conséquences multiples. D’abord, elles accentuent la polarisation de la société. En évoluant dans des univers médiatiques parallèles, des groupes de citoyens développent des visions du monde de plus en plus divergentes et incompréhensibles mutuellement. Des études ont montré qu’aux États-Unis, le fait d’être exposé uniquement à des contenus politiques d’un seul bord peut non seulement radicaliser les opinions, mais aussi accroître la défiance et même la haine envers l’autre camp. Faut-il encore reparler de l’assaut du Capitole?

Ensuite, ces bulles favorisent la propagation de fausses nouvelles (fake news). Puisque les algorithmes nous montrent ce que l’on aime déjà, un utilisateur adepte de théories complotistes se verra proposer toujours plus de contenus complotistes. Si ces contenus sont faux, il y a peu de chances qu’une correction ou une information contradictoire traverse la paroi de la bulle. Ainsi, «les bulles de filtre reproduisent et suggèrent du contenu déjà consulté par l’utilisateur, ce qui peut entraîner un manque d’accès aux informations factuelles», explique la Chaire Sciences Po. L’utilisateur finit par ne quasiment plus voir d’éléments extérieurs susceptibles de démentir les infox qu’il a intégrées; il évolue dans un écosystème biaisé où la désinformation peut circuler sans contrepoids.

C’est là qu’interviennent les boucles de rétroaction. Une infox apparaît (par exemple, un faux témoignage, une rumeur sensationnaliste ou un contenu délibérément manipulé), qui peut être postée par un individu, un groupe malveillant cherchant à tromper, ou provenir d’un média peu fiable. Si cette infox suscite de fortes réactions (indignation, peur, enthousiasme), les utilisateurs vont la commenter, la «liker», la partager massivement. Or, les algorithmes de recommandation sont programmés pour détecter les pics d’engagement. Un contenu qui génère beaucoup d’interactions est interprété comme «intéressant». Constatant cet engouement, la plateforme va pousser ce contenu vers encore plus d’utilisateurs, y compris vers ceux qui n’en auraient pas entendu parler autrement. Plus de gens voient l’infox, et si une partie la croit et réagit, cela crée de nouvelles interactions. Chaque nouveau partage renforce implicitement l’impression que «beaucoup de monde en parle, donc il doit y avoir quelque chose de vrai». Sans vérification immédiate, la fausse nouvelle gagne en crédibilité par le seul fait de sa popularité. L’algorithme, voyant que la tendance se confirme, continue de dérouler la pelote. Le message mensonger se propage de plus en plus vite et de plus en plus loin, échappant à tout contrôle. C’est un cercle autorenforçant: la désinformation entraîne de l’engagement, qui incite l’algorithme à la montrer davantage, ce qui génère encore plus d’engagement, etc.

Une vraie info plus lente à toucher les internautes

Des recherches ont quantifié ce phénomène. Une étude du MIT publiée dans Science a révélé que, sur Twitter, les fausses informations se propagent bien plus vite et plus largement que les vraies. En moyenne, une info véridique mettait six fois plus de temps qu’une fausse pour toucher 1.500 personnes sur Twitter. Les auteurs notent que «les mensonges se diffusent significativement plus loin, plus rapidement, plus en profondeur et de façon plus large que la vérité» sur les réseaux sociaux. La nouveauté, le caractère choquant ou émotionnel des infox les rend plus «virales» – et les algorithmes, sensibles à la viralité, amplifient mécaniquement cette tendance. Facebook lui-même a constaté que «nos algorithmes exploitent l’attrait du cerveau humain pour la division», ce qui conduit à pousser aux utilisateurs des contenus toujours plus polémiques pour capter leur attention.

Les algorithmes fonctionnent à la milliseconde, s’ajustant en permanence. Des boucles de rétroaction très rapides peuvent se créer (d’où le terme feedback loop sans délai). Les modérateurs humains ou les mécanismes de fact-checking manuels, eux, ne peuvent qu’intervenir a posteriori, parfois quand la fausse nouvelle a déjà fait le tour du monde. Les plateformes expérimentent bien des solutions automatisées (détection par IA de contenus mensongers, suppression proactive), mais cela pose des problèmes de fiabilité et de censure (risque de faux positifs sur des débats légitimes). En somme, le fonctionnement interne des algorithmes rend difficile une régulation fine: ce sont des machines à optimiser un critère quantifiable (clics, vues…), pas la qualité de l’information.

Face à ces biais, des chercheurs et innovateurs proposent des approches alternatives. Par exemple, le projet Tournesol, mené par Lê Nguyên Hoang, vise à créer un algorithme de recommandation «démocratique», où les utilisateurs peuvent voter sur la qualité des contenus pour orienter ce qui devrait être mis en avant. L’idée est de sortir du critère unique d’engagement et d’introduire des notions d’intérêt général ou de fiabilité. De même, certains suggèrent de donner le choix à l’utilisateur de l’algorithme qu’il souhaite appliquer (par exemple, un mode «chronologique» pur, un mode «diversité d’opinions», etc.). 

Et maintenant, l’empoisonnement des LLM

Et si peu de monde a encore entendu parler de la version de Pravda au Luxembourg, c’est qu’aucune de ces versions n’est destinée à être lue par les internautes. De premières études montrent que ces contenus générés par intelligence artificielle nourrissent les «large langages models» pour qu’ils les reproposent aux chercheurs et aux internautes comme du contenu crédible. Ce que l’association American Sunlight Project a baptisé le «LLM grooming». Les LLM deviennent des «perroquets stochastiques» qui imitent des motifs linguistiques sans nécessairement comprendre le sens ou la véracité du contenu, sont susceptibles de reproduire et de diffuser ces informations erronées sous une forme apparemment cohérente et plausible.

Et c’est là qu’une guerre invisible pour vous, pour moi, a commencé dans les black box: le contenu généré par l’IA devient assez plausible à coups de blanchiment pour que l’on ne puisse plus le détecter, obligeant ceux à qui il reste un brin de conscience à imaginer de nouveaux outils de détection de fake news et de contenus bidonnés que les criminels se mettent aussitôt à contourner… Une version moderne de la course entre les gendarmes et les voleurs appliqués aux fake news…

(Et la bonne nouvelle – c’est cynique – c’est que l’Union européenne a décidé de consacrer cinq millions d’euros au lancement d’une plateforme de fact-checking. Si vous avez bien lu, vous savez déjà que cela sera parfaitement inutile.)

Pour aller plus loin

– La vérification de l’information visuelle au défi de l’intelligence artificielle générative

– On the Dangers of Stochastic Parrots

– «LLM Laundering», une nouvelle pratique de désinformation qui cible les outils d’IA

– Data poisoning: une menace pour l’intégrité et la sécurité du LLM

Fake News Detection After LLM Laundering: Measurement and Explanation

LLM01:2025 Prompt Injection

LLM hallucinations: when datasets shape AI reality

On the Risk of Misinformation Pollution with Large Language Models

Fake News in Sheep's Clothing: Robust Fake News Detection Against LLM-Empowered Style Attacks