『Les dessous de l'infox, la chronique』のカバーアート

Les dessous de l'infox, la chronique

Les dessous de l'infox, la chronique

著者: RFI
無料で聴く

概要

Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

France Médias Monde
政治・政府
エピソード
  • Syrie: une vieille infox ciblant la Croix-Rouge refait surface
    2026/01/30

    En Syrie, les forces gouvernementales mènent depuis début janvier une vaste offensive dans le nord-est du pays. Le président Ahmed al-Charaa cherche à reprendre le contrôle des territoires dirigés par l’Administration autonome du nord et de l’est de la Syrie. Alors qu’un cessez-le-feu entre Damas et les Forces démocratiques syriennes, à majorité kurde, a été prolongé, la désinformation gagne du terrain. La dernière infox en date cible les Forces démocratiques syriennes et la Croix-Rouge.

    Tout repose sur une vidéo mensongère diffusée sur les réseaux sociaux en début de semaine. Durant quarante-neuf secondes, on y voit des dizaines de caisses métalliques, remplies d’argent liquide, entassées dans un hangar. Ces boîtes portent le logo du Comité international de la Croix-Rouge (CICR). Les commentaires affirment, à tort, que « les services de renseignement turc et syrien viendraient ainsi de saisir une importante cargaison d’argent liquide en provenance des Émirats arabes unis, à destination des Forces démocratiques syriennes ».

    En réalité, ces images n’ont rien à voir avec la situation en cours en Syrie. Grâce à une recherche par image inversée, on sait que cette vidéo est ancienne. Elle circule en ligne depuis maintenant plus de huit ans.

    Nous nous sommes également intéressés à ce texte en arabe visible sur l’une des caisses métalliques. Il y est écrit « Grande Jamahiriya arabe libyenne populaire et socialiste - Tripoli - 15 juillet 2011 ». Il s’agit du nom utilisé par l'État libyen sous le régime de Mouammar Kadhafi.

    Le CICR dément

    Cette vidéo est similaire à deux photos publiées dans un rapport de l’ONU en juin 2017. Il y est question de la transition politique en Libye, et de potentiels transferts d'argent dissimulés en Afrique de l’Ouest après la chute du dictateur. On y apprend que ces caisses étaient entreposées dans un hangar à Accra, au Ghana. Sur ces clichés, on retrouve le même sol, les mêmes caisses métalliques, et surtout la même inscription en arabe, que sur cette vidéo.

    Cette vidéo mensongère avait poussé le Comité international de la Croix-Rouge à réagir. Début 2018, le CICR déclarait, dans un communiqué, qu'il n’avait « absolument rien à voir avec le stockage ou le transport d'argent liquide mentionné dans cette vidéo ». L’organisme dénonçait une « utilisation abusive de son logo » et « une vidéo alimentant de fausses théories du complot ».

    Une infox à la mode

    Depuis son apparition en 2018, ce clip refait régulièrement surface dans différents contextes. De l’argent envoyé par l’Union européenne à des combattants ukrainiens, des millions de dollars détournés au Brésil, des billets envoyés par les Américains à Haïti pour encourager la corruption : les narratifs mensongers collés à cette vidéo se comptent par dizaines. Avec très peu d’éléments de contexte, ces images sont faciles à détourner, au gré de l’actualité.

    Une chose est sûre, elle ne documente pas un transfert d’argent des Émirats arabes unis, à destination des Forces démocratiques syriennes.

    続きを読む 一部表示
    3 分
  • Ukraine: une opération de désinformation pro-russe cible la France et ses «Rafale»
    2026/01/23

    Alors que les frappes russes sur les infrastructures énergétiques ukrainiennes se multiplient, les attaques informationnelles se poursuivent aussi sur les réseaux sociaux. Une énième opération de désinformation pro-russe ciblent actuellement l’Ukraine et la France. Cette fausse information, assez complexe, repose sur une affaire de corruption, inventée de toutes pièces.

    Tout commence avec l’apparition d’une vidéo assez étrange sur les réseaux sociaux le 18 janvier. Il y est question d’un supposé « scandale » autour du projet d’achat de chasseurs français Rafale par l’Ukraine. On y entend une voix robotique, avec un accent très prononcé, affirmer, à tort, que des hauts fonctionnaires et des militaires français et ukrainiens, auraient ainsi « détourné 2 milliards d’euros ».

    Le major général des armées français et des proches du président Volodymyr Zelensky sont notamment cités. L’infox cumule près de quatre millions de vues, rien que sur X (ex-Twitter).

    Typosquatting

    Cette opération de désinformation s’appuie sur une enquête prétendument publiée par le Bureau national anticorruption d'Ukraine (NABU). La vidéo renvoie directement vers une page internet qui se présente comme le site officiel de cet organisme ukrainien. On y retrouve leur logo, leur charte graphique ainsi que des liens vers leurs réseaux sociaux.

    Dans les faits, cette page internet n’est pas authentique. Si visuellement, tout porte à croire qu’il s’agit du site officiel, c’est en réalité un clone. Le nom de domaine n'est pas correct. L’adresse du vrai site internet commence par nabu.gov.ua. Or, cette copie utilise nabu-gov.com.

    Ce site miroir a été enregistré le 15 janvier 2026. Il s’agit donc d'une page jetable, dédiée uniquement à cette opération de désinformation.

    Ce mode opératoire s’appelle le typosquatting. Cette technique consiste à enregistrer des noms de domaine, presque identiques à ceux d’institutions ou de médias reconnus pour tromper et désinformer.

    Le Bureau national anticorruption d'Ukraine dément

    Vérification faite, cette prétendue enquête n’existe pas. Ces accusations sont introuvables sur le site officiel du Bureau national anticorruption d'Ukraine. L’organisme a d’ailleurs rapidement démenti cette fausse information, dénonçant une usurpation d’identité. Ce scandale de corruption a été totalement inventé afin de nuire à l’image de Kiev et de Paris, l’un de ses principaux alliés.

    À l’origine de cette infox, on retrouve un écosystème d’acteurs pro-russe participant régulièrement à ce type d’opération de désinformation. Ces comptes, aux centaines de milliers d’abonnés sur X ou Telegram, servent à viraliser et à blanchir des narratifs mensongers, en français et dans d’autres langues. Grâce à ce réseau, ces infox parviennent souvent à atteindre des millions de vues.

    Le mode opératoire informationnel Storm-1516

    Cette infox s’inscrit dans une vaste campagne de désinformation pro-russe baptisée Storm-1516. Ce n’est pas la première fois qu’on en parle dans cette chronique. Ce mode opératoire informationnel (MOI) prend différentes formes, des faux sites internet, au mise en scène en passant par les hypertrucages générés par intelligence artificielle.

    À lire aussiLa France ciblée par une nouvelle opération de désinformation russe

    Ces attaques informationnelles visent à dénigrer l’Ukraine, critiquer les politiques occidentales, mais aussi troubler le débat public en désinformant sur des sujets d’actualité.

    続きを読む 一部表示
    3 分
  • CAN 2025: les vidéos générées par intelligence artificielle occupent le terrain
    2026/01/16

    Quand l’intelligence artificielle s’empare de la Coupe d’Afrique des Nations. Alors que la finale opposera le Maroc et le Sénégal ce dimanche 18 janvier, à Rabat, la désinformation autour de cette CAN 2025 ne faiblit pas sur les réseaux sociaux. Des centaines de vidéos artificielles ciblent notamment l’arbitrage, et le Maroc, pays hôte de cette 25e édition.

    Depuis le lancement de cette CAN 2025, les accusations d’un arbitrage maison, en faveur des Lions de l’Atlas, sont alimentées par une vague de contenus mensongers sur les réseaux sociaux. Parmi les exemples les plus marquants, on retrouve une vidéo à propos du 8e de finale remporté 1-0 par le Maroc contre la Tanzanie. Durant dix secondes, on pense y voir, à tort, l'arbitre de la rencontre présenter ses excuses aux supporters tanzaniens.

    Vérification faite, cette vidéo n’est pas réelle. Ces images, vues plus de 5 millions de fois, ont été entièrement générées par intelligence artificielle. Plusieurs éléments le prouvent, comme cet homme qui ne ressemble pas du tout à Boubou Traoré, l’arbitre malien au sifflet de ce match. On note aussi l’absence de bleu sur les drapeaux tanzaniens, un texte illisible sur le logo de la Fifa, ou encore un public anormalement immobile.

    Les joueurs pris pour cible

    Ces infox générées par IA détournent également l’image des joueurs, à commencer par la sélection algérienne éliminée en quart de finale contre le Nigeria sur le score de deux à zéro. Une vidéo prétend montrer un Fennec critiquer violemment l’arbitrage et le Maroc en conférence de presse.

    Mais là encore, tout a été généré par intelligence artificielle. Le maillot algérien ne correspond pas à la tenue officielle. Le logo de la Confédération africaine de football n’est pas correct.

    Une économie du faux

    Ce type de vidéos artificielles se comptent par centaine sur les réseaux sociaux. En effet, nous avons identifié plusieurs comptes TikTok qui diffusent quotidiennement ce genre d’infox.

    Des interviews d’après-match qui dérapent, des arbitres en pleurs, des coachs giflant leurs joueurs dans les vestiaires : les mises en scène touchent toutes les sélections et tous les acteurs, sur ou en dehors du terrain. Au total, ces vidéos cumulent plus de 50 millions de vues, rien que sur TikTok.

    Si certaines prêtent à sourire, d’autres visent délibérément à désinformer et à attiser les tensions. Les commentaires montrent que certains supporters se font avoir.

    Comment détecter l’IA

    Pour détecter l’usage de l’intelligence artificielle, il faut être attentif aux détails visuels. Les logos, les inscriptions textuelles comportent régulièrement des défauts. Les visages des joueurs ne sont pas ressemblants. Le son aussi est souvent trop lisse, trop parfait. De plus, il ne faut pas oublier l’indicateur temporel. Toutes ces fausses vidéos durent de 5 à 15 secondes. C’est un élément qui peut trahir l’utilisation d’un outil d’intelligence artificielle.

    続きを読む 一部表示
    3 分
まだレビューはありません