Les dessous de l'infox

Repérer le faux dans l’info, ça n’est pas toujours facile. Sur Radio France internationale, on vous aide à y voir plus clair. En compagnie de tous ceux qui traquent l’infox, l’observent et l’analysent, au plus près, « Les dessous de l'infox », le magazine est diffusé tous les vendredis. Une émission présentée par Sophie Malibeaux. Diffusions le vendredi à 17h30 TU (vers toutes cibles). 

  1. 3D AGO

    La diplomatie française pose de nouveaux jalons dans la guerre des récits

    Comment « agir dans la bataille des récits » ? Au-delà de la veille qui permet de détecter notamment les ingérences étrangères, et de la mise en œuvre de la riposte face aux manipulations de l'information, la diplomatie française s'intéresse à la fabrique du récit. Il s'agit, selon les mots du ministre Jean-Noël Barrot, de « façonner un environnement informationnel » résistant, face au récit du chaos occidental que les adversaires de la démocratie libérale s'emploient à disséminer.  La guerre des récits est devenue un champ de bataille géopolitique majeur, où se jouent l’influence et la légitimité des démocraties face aux régimes autoritaires et aux idéologies illibérales. Dans un monde où les plateformes numériques amplifient les discours de division, la France et l’Europe tentent de riposter avec des outils comme French Response, un compte lancé en 2025 sur X (ex-Twitter) et désormais sur TikTok, pour contrer les narratifs hostiles par l’ironie et la dérision. Mais cette stratégie suffira-t-elle à endiguer la montée des idéologies néo-réactionnaires, portées par des figures comme Donald Trump ou des influenceurs d’extrême droite américains, aux thèses proches d'idéologues russes particulièrement offensifs vis-à-vis des démocraties européennes ? « Agir dans la bataille des récits » Le ministère de l'Europe et des Affaires étrangères organisait ce jeudi 7 mai une matinée de rencontres au sujet de la bataille des récits, à la Gaîté Lyrique, avec des chercheurs, universitaires, journalistes et autres organisations de la société civile concernés par les problèmes liés à la désinformation, aux récits simplistes et brutaux, intentionnellement propagés pour mettre à bas la démocratie libérale.  Nous y avons enregistré Les dessous de l'infox avec deux invités : Edouard Dambrine, diplomate, sous-directeur du ministère de l'Europe et des Affaires étrangères, et Arnaud Miranda, docteur en théorie politique associé au Cevipof (Sciences Po) et chercheur à l’Inalco, rattaché au programme « illiberal studies », auteur de l'ouvrage Les Lumières sombres, comprendre la pensée néoréactionnaire, chez Gallimard-Le Grand Continent. Pour élaborer un contre-récit, il faut une bonne analyse de la menace informationnelle. C'est tout l'objet des travaux de la recherche sur les thèses illibérales et les néoréactionnaires, bien décrits dans le livre d'Arnaud Miranda.  « Ces idéologies néo-réactionnaires ne sont pas nées dans des livres, mais sur des blogs et des forums. Elles se construisent en réseau, avec des références à la culture populaire comme la pilule rouge de Matrix, pour réécrire la sémantique de la démocratie. » Arnaud Miranda, docteur en théorie politique et auteur des Lumières sombres (Gallimard). L'ironie, pour réveiller l'esprit critique Depuis sa création en septembre 2025, le compte X « réponse officielle du ministère français des Affaires étrangères » cumule plus de 206 000 abonnés. Il vient d'ouvrir sur TikTok. Le ministre Jean-Noël Barrot le présente comme « un outil de recadrage en temps réel ».  « L'ironie permet de marquer un temps d'arrêt, de casser finalement ce récit qui nous est asséné, et de recréer un esprit critique dans l'esprit de la personne qui reçoit ce récit. C'est en cela que l'ironie, la dérision sont des armes qui marchent bien. Édouard Dambrine, sous-directeur à la veille et à la stratégie au ministère de l’Europe et des Affaires étrangères. Mais à côté de cet outil géopolitique, le ministère a également doté le réseau diplomatique d'une « force de frappe informationnelle ». Cela consiste en une trentaine de « zones de guerre informationnelle », correspondant à des pays où les représentants de la France dans les ambassades sont ciblés par des campagnes de décrédibilisation. Dans ces zones – dont la désignation sera révisée régulièrement –, le personnel diplomatique disposera de services d'assistance renforcée, grâce à un contingent de réservistes recrutés dans la société civile. Leur rôle : recueillir les perceptions, occuper l'espace informationnel.  Cet entretien est le sixième épisode de notre série « L'Europe face aux menaces informationnelles », diffusée dans le cadre du projet CLIC, cofinancé par l'Union européenne, en partenariat avec France 24, l'AFP, et le média d'investigation slovène Oštro.

    30 min
  2. MAY 1

    Intelligence artificielle et idéologie, quand les grands patrons de la tech font le lit de l'illibéralisme

    Algorithmes, intelligence artificielle agentique, modèle d’apprentissage... La recherche se penche sur le rôle des patrons de la tech, derrière ces innovations technologiques. Des concepteurs animés d’un désir de toute-puissance, aux valeurs fondamentalement contraires au projet démocratique ? La conjonction entre un courant illibéral en pleine croissance et l’accélération technologique interroge. Émanant de la Silicon Valley, les thèses illibérales se propagent jusqu'en Europe. Lauréate de Choose France for Science, qui vise à faire de la France une destination de référence pour la recherche et l'innovation, Marlène Laruelle vient d'inaugurer à l'Inalco à Paris le programme des « Illiberalism studies », qu'elle conduisait jusque-là aux États-Unis, à l'Université George-Washington.  L’essor accéléré de l’intelligence artificielle (IA) et de sa mise à disposition du grand public pousse à s'interroger sur son rôle dans la montée des courants illibéraux, ces idéologies qui remettent en cause les fondements des démocraties libérales. L'illibéralisme de la Silicon Valley Marlène Laruelle, historienne et politologue, souligne que les géants de la tech, notamment ceux de la Silicon Valley tels Peter Thiel ou Elon Musk, ont en partage des valeurs illibérales favorisant un pouvoir exécutif fort, à l'encontre des principes d'équilibre des pouvoirs entre le judiciaire, le législatif et l'exécutif. On trouve aussi dans cette famille idéologique un rejet des minorités, une tendance à l'homogénéisation culturelle, teintée de racisme et de xénophobie, et une opposition radicale au progressisme sur les questions de mœurs, de sexualité et de genre. Sur les très grandes plateformes numériques, émanant de ce milieu très particulier qu'est la Silicon Valley, le public se trouve soumis à des algorithmes de recommandation totalement opaques, qui en viennent à amplifier la polarisation de nos sociétés, et qui alimentent la désinformation et l’érosion de la frontière entre réel et fiction. C'est un constat, l’IA semble accélérer la fragmentation du vivre ensemble, tout en servant des intérêts lucratifs plutôt que l’intérêt général. « Toutes les grandes sociétés d’intelligence artificielle sont des sociétés privées. Ce qui pose la question de la transparence et de la responsabilité démocratique de grandes sociétés privées qui travaillent pour le profit et non pour le bien public. » La soi-disant neutralité technologique Contrairement à ce que prétendent les idéologues de la Silicon Valley – tel un Elon Musk qui revendique avec sa société xAI être en mesure de servir la vérité vraie sur un plateau à travers son chatbot Grok – la neutralité de ces outils est loin d'être un fait établi. De nombreux projets de recherche se penchent sur la question en France et en Europe, indique Marlène Laruelle.  Il s'agit de tenter de déconstruire l'idée que le modèle d'intelligence artificielle serait neutre parce qu'il est technologique et algorithmique. Au contraire, ces chercheurs tendent à démontrer que la simple création de l'algorithme est biaisée. L'algorithme est entraîné par toutes les bases de données qu'il a pu lire, qui sont pleines de préjugés, explique Marlène Laruelle. Il y a aussi toutes les petites mains qui doivent entraîner la machine, avec leurs propres biais humains, et ensuite, certains projets qui apparaissent eux nettement politiques. Celui d'Elon Musk par exemple, dont l'objectif avoué est un modèle d'intelligence artificielle qui serait idéologiquement détaché de ce qu'il appelle la gauche woke. L'idée que les algorithmes sont neutres est un mensonge technique, puisqu'on sait très bien qu'il y a tout plein de biais qui sont reproduits dans les algorithmes. Cet entretien est le sixième épisode de notre série « L'Europe face aux menaces informationnelles », diffusée dans le cadre du projet CLIC, cofinancé par l'Union européenne, en partenariat avec France 24, l'AFP, et le média d'investigation slovène Oštro. Nos chroniques de fact-checking Ces nouvelles technologies qui permettent l’accélération de la circulation de l’information favorisent aussi la viralité des contenus mensongers, et l’on s’attache dans cette émission à dévoiler la mécanique de la désinformation. Comme souvent en cas de tensions, les infox pullulent sur les réseaux sociaux. C'est le cas au Sahel. Depuis les attaques menées par le Jnim et le FLA au Mali, de nombreuses infox viennent alimenter les peurs et brouiller la compréhension des faits.  La chronique de Grégory Genevrier : Mali: l’armée malienne et l’Algérie voisine au cœur des rumeurs Quant au conflit entre Israël et le Hezbollah au Liban, il nourrit la désinformation jusqu'en Côte d'Ivoire :  La chronique de Kahofi Suy d'AFP factuel : Cette vidéo ne montre pas des Libanais agressant un policier ivoirien, elle a été tournée au Zimbabwe

    30 min
  3. APR 24

    Guerre d'influence: le verrouillage de l'espace informationnel, enjeu vital pour la Russie de Poutine

    Connexions perturbées, blocage des messageries WhatsApp et Telegram continuent d'isoler la Russie du reste d'internet. En dépit du bruit fait par les influenceurs, financièrement affectés par ces coupures, et malgré l'impact de ces mesures sur le front ukrainien, le Kremlin parachève le verrouillage interne. Tout en poursuivant -à l'extérieur- une stratégie offensive de diffusion des narratifs pro-russes.  Notre invité est le spécialiste du cyberespace russophone Kévin Limonier. Professeur des universités en géographie à l’Institut Français de Géopolitique, il est aussi directeur adjoint du laboratoire GEODE pour Géopolitique de la data sphère, partenaire de cette émission.   Une vidéo devenue virale montre Victoria Bonya, une influenceuse russe suivie par des millions d'abonnés sur les plus grandes plateformes, s’adressant directement à Vladimir Poutine pour dénoncer la peur qui paralyse la société russe. Son message, envoyé depuis Monaco où elle réside, résonne avec de nombreuses autres publications ces dernières semaines, d'internautes résidant en Russie et déplorant l'état désastreux de l'économie russe et les effets néfastes des coupures d'internet, suppression de l'accès aux messageries privées WhatsApp et Telegram.  Une tendance irréversible, malgré la colère « Aujourd’hui, les personnes qui décident de la politique de blocage des applications sont des officiers du FSB pour qui le contrôle de l’information est une nécessité, pour assurer la survie du régime. » En fait, depuis une quinzaine d'années, nous explique Kévin Limonier, la Russie construit un système de contrôle en ligne, aujourd’hui piloté par le FSB, héritier du KGB, pour étouffer toute velléité de contestation. Les blocages de Telegram, WhatsApp ou les restrictions sur les VPN ne sont que la partie émergée d’une machine bien huilée, où le contrôle de l’information prime même sur les intérêts économiques ou militaires – comme l’a montré l’impact tactique désastreux de ces blocages pour les soldats russes sur le front ukrainien. Laboratoire d’oppression numérique « Dans les territoires occupés par la Russie en Ukraine, les Russes testent des systèmes de censure et de surveillance qui sont ensuite déployés dans toute la Fédération. C’est un laboratoire d’oppression numérique. » Et si le Kremlin coupait ainsi les ailes de sa propagande à l’étranger ? La question se pose alors que Telegram, sorte d'incubateur des campagnes de désinformation ciblant l'Europe notamment, est désormais dans le collimateur du Kremlin. Il est cependant possible d'imaginer un système de passe-droits au profit d'officines et agences de marketing digital, épargnant la diffusion des contenus propagandistes ou mensongers à destination de l'étranger. Mais il est encore trop tôt pour le dire.

    30 min
  4. APR 17

    Tiktok et META en tête du palmarès de la désinformation en ligne en Europe

    Les très grandes plateformes numériques que nous sommes des milliards à fréquenter -les  Tiktok, Facebook, Instagram, Youtube, Linkedin et X (twitter)- sont en train de laisser infox et mésinformation inonder la toile. Ces plateformes sont soumises au règlement européen sur les services numériques. Mais dans les faits, elles ont du mal à s’y plier, et ce que l’on constate, c’est que l’information du public en souffre. D'où l'importance d'un état des lieux chiffré et documenté.  La propagation de la désinformation s’aggrave sur les très grandes plateformes en ligne, sous le double effet du recours aux images générées par l’IA -en pleine croissance- et de la monétisation des contenus suscitant un fort engagement.  Tiktok est en tête, avec une prévalence de l'ordre de 25% de contenus trompeurs tous sujets confondus, mais Facebook, X, Youtube et Instagram sont aussi très mal notés, avec une mention spéciale pour Instagram dont 80% des contenus dans le domaine de la santé tombent dans la catégorie mésinformation-désinformation.  Contourner l'opacité des plateformes numériques Parvenir à mesurer –scientifiquement– cette amplification des publications douteuses reste un défi, face au fonctionnement opaque des services numériques. Ce défi, un groupe d’organisations de la société civile tente de le relever, c’est le projet de recherche SIMODS, d’évaluation scientifique de la désinformation en ligne sur les très grandes plateformes, c'est-à-dire, celles qui comptent plus de 45 millions d'utilisateurs dans l'Union européenne. L'étude porte sur quatre pays d'Europe, la France, l'Espagne, la Pologne et la Slovaquie. Notre invité Emmanuel Vincent est le directeur et fondateur de Science Feedback, qui conduit cette étude.  Non seulement les plateformes sont peu respectueuses des injonctions concernant l'accès aux données pour la recherche, mais -à part Youtube et Facebook- elles ne communiquent aucune information concernant la monétisation des contenus. « Sur Youtube, 80% des comptes qui partagent de la désinformation sont monétisés. Pour les sources crédibles, c'est 90% de comptes monétisés. On le voit c'est à peu près la même chose. Pour Facebook, on est en dessous de 50% de comptes qui partagent de la désinformation qui sont monétisés. On voit quand même que la désinformation, ça rapporte. ». Quant aux autres plateformes, pas moyen de savoir. La transparence est un enjeu de sécurité publique. C'est l'une des recommandations finales du rapport, à l'adresse du régulateur européen et de ces entreprises de services numériques elles-mêmes. Le minimum serait de fournir ce type d'information sur leur fonctionnement interne.    Cette série d'émissions sur « L'Europe face aux menaces informationnelles », entre dans le cadre du projet CLIC, cofinancé par l'Union européenne, en partenariat avec France 24, l'AFP, et le média d'investigation slovène Oštro.

    30 min
  5. APR 10

    L'Europe face aux menaces informationnelles (épisode 4) : élections en Hongrie

    Les Hongrois votent dimanche 12 avril 2026, dans un pays où le parti au pouvoir exerce une emprise totale sur les grands médias, et recourt massivement à l'intelligence artificielle pour dénigrer l'adversaire. Mais la bataille fait rage sur les réseaux sociaux où candidats de l’opposition et médias indépendants en ligne parviennent à se faire entendre. À la veille du scrutin, Viktor Orban est en mauvaise posture. Infox, IA et propagande d’État ne semblent pas lui profiter.  Dans la dernière ligne droite de la campagne électorale en Hongrie, la désinformation fait rage. L'emploi d'images générées par l’intelligence artificielle est devenu l'outil privilégié de la propagande du Fidesz de Viktor Orban. Mais la mainmise du parti au pouvoir sur les médias et son usage des réseaux sociaux n’ont pas découragé l’opposition, très présente elle aussi sur les grandes plateformes, de même que les médias indépendants en ligne, qui ont multiplié les révélations gênantes pour le pouvoir à l'approche du scrutin. Nous avons rencontré à Budapest nombre d’experts, universitaires, journalistes, fact-checkers. Ils racontent leur expérience de la campagne.  Szuszanna Zelenyi que nous avons rencontrée à la Central European University de Budapest, vient de publier un livre intitulé « Démocratie corrompue, Viktor Orban et la subversion de la démocratie ». Ancienne membre du Parlement hongrois, elle a fait ses débuts en politique dans les rangs du Fidesz, avant de prendre ses distances, face à la dérive illibérale du parti arrivé aux affaires en 2010. Voici ce qu'elle déclare à propos de l'avance confortable de Péter Magyar dans les sondages:  « C'est une avance significative, mais cela ne signifie pas pour autant qu'il gagnera. Parce que les règles électorales sont tellement faussées, parce que la domination médiatique du Fidesz est tellement incroyable, parce que le Fidesz utilise des vidéos générées par IA pour mener une incroyable campagne de complotisme. Peter Magyar est dépeint comme agent de l’étranger. L'Union européenne et le président ukrainien Volodymyr Zelensky, sont présentés comme des acteurs qui veulent entraîner la Hongrie dans la guerre, nous obliger à payer pour ça et envoyer nos fils mourir là-bas. » L'Ukraine de Zelensky, bouc émissaire de la campagne Pour le journaliste du site d'information en ligne Magyar Jeti, Pal Daniel Renyi, malgré tout, la lassitude gagne l'électorat,  « Cette instrumentalisation de la peur en Hongrie fait partie intégrante de la politique du parti au pouvoir depuis au moins dix ans. Ça ne marche plus parce que les gens sont épuisés d'avoir peur en permanence. »  Szilard Teczar du site de fact-checking Lakhmusz, membre du HDMO, l'Observatoire hongrois des médias numériques pointe l'aspect nocif de la propagande à long terme exercée par le parti au pouvoir, bien au-delà de la période électorale, mais ajoute-t-il, « si la désinformation produit un effet à long terme, le fact-checking, qui agit également dans la durée, en incitant à la pensée critique, à la vérification des faits, au croisement des sources ».  Ingérence et inversion accusatoire En difficulté sur le plan domestique, le Fidesz joue la carte internationale avec le soutien de la Russie, des États-Unis, et de l'extrême droite européenne. L’ingérence extérieure n’est pas dénoncée, elle est revendiquée. Venu à Budapest demander aux Hongrois de voter Viktor Orban, le vice-président américain JD Vance s’en est pris à l’Europe accusée d’ingérence, parce que l’UE a suspendu ses financements à la Hongrie, après un certain nombre d’affaires de détournement de fonds au profit du clan Orban, et pour non respect de critères tels que le respect de l’état de droit. C'est pourquoi le leader de l'opposition Péter Magyar a décidé de centrer sa campagne sur la dénonciation de la corruption, et ce thème de campagne remporte un franc succès sur les réseaux sociaux.  Par ailleurs, selon l'analyse d'Erik Uszkiewicz, à la tête du Centre pour le journalisme indépendant, il n'est pas sûr que ces leaders étrangers aient vraiment de l'influence sur l'électorat hongrois. « Beaucoup de Hongrois ne savent tout simplement pas qui est J.D. Vance ».  Gabor Poliak, fondateur de l'ONG Mertek Media Monitor, affirme quant à lui, « l’efficacité de la propagande dépend aussi du contexte. Elle était bien plus efficace quand la situation économique en Hongrie était bien meilleure », c'était avant 2020. Autant de facteurs qui permettent en partie de comprendre pourquoi, à la veille du scrutin, malgré le rouleau compresseur médiatique du parti au pouvoir, l'opposition poursuit la course en tête dans les sondages.  Cette série d'émissions sur « L'Europe face aux menaces informationnelles », entre dans le cadre du projet CLIC, cofinancé par l'Union européenne, en partenariat avec France 24, l'AFP, et le média d'investigation slovène Oštro.

    30 min
  6. MAR 27

    Repenser la lutte contre la désinformation à l’aune des sciences cognitives

    Nous sommes tous vulnérables face aux fausses informations. Voici l’état des lieux dressé par l’Arcom, le régulateur de l’audiovisuel français. Plus d’un sondé sur cinq a jugé exacte une fausse information. Face à ce constat, faut-il repenser la lutte contre la désinformation ? Comment renforcer notre résilience individuelle et collective ? On en parle avec notre invité, Grégoire Darcy, doctorant en sciences cognitives à l’Institut Jean Nicod. Selon un rapport de l’Arcom publié mardi 24 mars 2026, 97% des Français déclarent être exposés à des fausses informations. Huit sondés sur dix considèrent qu’il est indispensable de lutter contre la désinformation. Ces chiffres, basés sur une étude déclarative, illustrent en réalité un phénomène ancien. « Ce n'est pas forcément nouveau, explique Grégoire Darcy, doctorant en sciences cognitives à l’Institut Jean Nicod. En 2020 déjà, l'OMS parlait d'infodémie pour parler de la diffusion de désinformation massive. Le United Nations Global Risk Report le met aussi parmi les premières causes de vigilance à court terme. [...] L’homme n'a pas attendu Internet pour inventer le mensonge. Pour preuve, on trouve des traces de désinformation au XIVè siècle avant Jésus-Christ. C'est quelque chose qui a toujours été là. Il ne faut pas céder à une panique morale ». « La désinformation, n’est pas forcément un problème de crédulité, c’est davantage une cognition sociale et identitaire qui va faire que vous vous retrouvez à y adhérer. » Aujourd’hui, les politiques publiques peinent à s’attaquer efficacement aux racines du problème. « Si on attaque la désinformation avec des politiques très individuelles comme le fact-checking ou l’éducation aux médias, sans s’attaquer aux causes structurelles, on écope dans un bateau qui coule sans jamais colmater la brèche », estime notre invité, Grégoire Darcy. Comment la Russie a influencé des médias ouest-africains ? C’est une fuite de documents inédite. 1 431 pages de dossiers internes à la « Compagnie », une structure russe liée au Kremlin, ont été envoyés anonymement au média panafricain, The Continent. Ils montrent comment Moscou a mené des opérations d’influence en Afrique en infiltrant la presse locale. Avec un consortium international de médias coordonné par Forbidden Stories, la rédaction des Observateurs de France 24 a analysé ces documents stratégiques, qui montrent en miroir la porosité de ces médias face aux ingérences extérieures. Nathan Gallo nous résume son travail d’enquête. CAN 2026 : l’IA alimente la polémique Le Sénégal déclaré forfait, le Maroc finalement sacré champion de la CAN 2026. La polémique après la décision de la Confédération africaine de football (CAF) ne désemplit pas sur les réseaux sociaux. Dans ce contexte, plusieurs fausses informations circulent, notamment sous forme de vidéos créées par IA. Ces clips mettent en scène des supporters des Lions de l’atlas, prenant la défense des Sénégalais. Olivier Fourt, journaliste à la cellule Info Vérif de RFI, revient sur ces images trompeuses, totalisant des millions de vues, rien que sur Tik Tok.

    30 min

About

Repérer le faux dans l’info, ça n’est pas toujours facile. Sur Radio France internationale, on vous aide à y voir plus clair. En compagnie de tous ceux qui traquent l’infox, l’observent et l’analysent, au plus près, « Les dessous de l'infox », le magazine est diffusé tous les vendredis. Une émission présentée par Sophie Malibeaux. Diffusions le vendredi à 17h30 TU (vers toutes cibles). 

More From RFI

You Might Also Like