『Les dessous de l'infox, la chronique』のカバーアート

Les dessous de l'infox, la chronique

Les dessous de l'infox, la chronique

著者: RFI
無料で聴く

概要

Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

France Médias Monde
政治・政府
エピソード
  • Guerre au Moyen-Orient: les images artificielles saturent l’espace informationnel
    2026/03/06

    Près d’une semaine après les premières frappes israélo-américaines sur l’Iran, la Guerre au Moyen-Orient se poursuit. Téhéran, toujours sous les bombes, poursuit sa riposte. Jusqu’ici, les Émirats arabes unis, l’Irak, le Qatar, le Koweït, l'Azerbaïdjan ou encore Bahreïn ont été ciblés par des missiles et des drones iraniens. Dans ce contexte, les images générées par intelligence artificielle inondent les réseaux sociaux, à tel point qu’il est difficile de distinguer le vrai du faux.

    Le symbole de cette guerre informationnelle en cours n’est autre que le porte-avions américain Abraham Lincoln. Pièce maîtresse du dispositif maritime de l’US Navy, le navire a été ciblé par des missiles iraniens en début de semaine. Plusieurs vidéos assez impressionnantes ont alors fait leur apparition sur les réseaux sociaux. La plus virale prétend montrer l’USS Lincoln en feu, en train de couler. En commentaires, certains parlent, à tort, d’une « démonstration de force historique de l’armée iranienne ».

    Sauf que ces images ne sont pas réelles. Cette vidéo, vue plus de 50 millions de fois, a été générée par intelligence artificielle. Plusieurs éléments visuels le prouvent, comme ces avions de chasse méconnaissables qui flottent étrangement à la surface.

    Le Commandement du département de la Défense des États-Unis a en réalité annoncé le 1er mars que « les missiles iraniens sont tombés loin de leur cible ». Le Centcom ajoute que « le Lincoln continue de lancer des avions en soutien aux bombardements » en cours en Iran.

    Propagande iranienne pro-régime

    Cette vidéo synthétique n’est pas un cas isolé, loin de là. Les contenus générés par IA autour de la riposte iranienne se comptent par centaine. Certains narratifs reviennent en boucle : des soldats israéliens ou américains en pleurs, des gratte-ciels comme le Burj Khalifa de Dubaï en flammes, des villes israéliennes rayées de la carte.

    Ces vidéos, ultra-réalistes, sont parfois difficiles à vérifier à l'oeil nu. Toujours très sensationnalistes, elles attirent l'œil et cumulent ainsi des centaines de millions de vues.

    La plupart des comptes qui diffusent ces vidéos artificielles font la propagande du régime iranien. Leurs publications visent à exalter la puissance militaire de Téhéran, et, au contraire, à dénigrer l’armée américaine et israélienne.

    À lire aussiRiposte iranienne: les images générées par intelligence artificielle sèment le doute

    Brouillard informationnel

    Ce bruit de fond sature l’espace numérique et génère un brouillard informationnel dans lequel on ne sait plus quelle vidéo est vraie ou fausse. Tout ça sème le doute, et invisibilise les images authentiques filmées sur le terrain par des témoins et des journalistes.

    Ce fléau a poussé certaines plateformes à réagir, à l’image de X, anciennement Twitter, dont les équipes ont annoncé une révision des règles de partage de revenus. Concrètement, un utilisateur qui publie une vidéo générée par intelligence artificielle sans le mentionner ne pourra plus monétiser son audience pendant 90 jours. Cela pourrait représenter un véritable manque à gagner pour les comptes spécialisés dans les fausses informations générées par IA.

    La liberté d’expression totale, défendue quoi qu’il en coûte par son propriétaire Elon Musk, n'aura visiblement pas résisté à cette vague de contenus anti-américains.

    続きを読む 一部表示
    3 分
  • Tensions États-Unis-Iran: une opération de désinformation pro-iranienne est en cours sur TikTok
    2026/02/27

    Les États-Unis et l’Iran ont entamé jeudi 26 février un troisième round de négociations informelles à Genève au sujet du nucléaire iranien. Après avoir déployé un important dispositif militaire au Moyen-Orient, Washington agite toujours le spectre d’une intervention militaire. Dans ce contexte inflammable, nous avons identifié une opération de désinformation en cours sur le réseau social TikTok, à l’aide de vidéos générées par intelligence artificielle.

    Mercredi 24 février, une vidéo loufoque de dix secondes a attiré notre attention sur TikTok. On pense y voir un bombardier furtif américain, B2 Spirit, sortir d’un tunnel caché quelque part dans les montagnes iraniennes. Ces images, générées par intelligence artificielle, sont assez grossières. Les ailes de l’appareil traversent la montagne.

    En nous intéressant au compte à l’origine de ce clip, nous avons trouvé 41 vidéos, toutes générées par intelligence artificielle. Elles montrent soit du matériel militaire aux couleurs iraniennes, soit des femmes se présentant comme des pilotes. Ces contenus mensongers cumulent plus de 30 millions de vues.

    Écosystème de comptes

    En poursuivant nos recherches, nous avons identifié plusieurs centaines de vidéos de ce type, diffusées par des dizaines de comptes TikTok. Ces clips sont accompagnés de la même légende, à la lettre près.

    Nous avons ensuite sélectionné 25 de ces comptes pour analyser précisément leur activité. Résultat, ces profils ont été créés entre janvier et février 2026. L’analyse de la date précise de leur première publication montre que cette opération a débuté autour du 19 janvier, avant de s’intensifier courant février.

    Ces deux indicateurs traduisent une action coordonnée. L’audience cumulée de ces 25 comptes dépasse les 120 millions de vues.

    Exalter la puissance de l’armée iranienne

    L’objectif derrière la diffusion massive de ces vidéos générées par intelligence artificielle semble d’exalter la puissance de l’armée iranienne aux yeux d’un public jeune et international. Même si le caractère artificiel de certaines vidéos saute aux yeux, d’autres sont ultra-réalistes. Dans un contexte de vives tensions entre les États-Unis et l’Iran, il s’agit là d’une forme de propagande et de course aux clics.

    Manipulation de hashtags ?

    Si on ne sait pas concrètement qui est derrière cette opération de désinformation, plusieurs éléments sont importants à prendre en compte. Certains de ces profils ont d'abord déjà diffusé des contenus en faveur du régime en place à Téhéran. Certains arborent même le visage du guide suprême Ali Khamenei en photo de profil.

    Autre élément très intéressant, ce sont les hashtags accolés à toutes ces vidéos. On retrouve toujours #FreeIran #IranProtest, #WomanLifeFreedom ou encore #StandWithIran. Ces mots-clés sont traditionnellement associés au mouvement de contestation, très violemment réprimé par le régime iranien.

    Comment expliquer que des comptes en apparence pro-régime utilisent des hashtags associés, au contraire, aux opposants ? Cela pourrait être simplement pour surfer sur la popularité de ces hashtags et faire du clic. Mais cela pourrait aussi être destiné à invisibiliser les vraies images des manifestations partout dans le pays. Aujourd’hui, lorsque l'on cherche ces hashtags sur TikTok, ces vidéos militaires générées par IA inondent les résultats.

    Le faux finit donc par prendre le dessus sur la réalité. Cela pourrait être un moyen, parmi d'autres, de cacher ce qu’il se passe vraiment en Iran.

    続きを読む 一部表示
    3 分
  • Inde: plusieurs deepfake ciblent le Rafale et les relations avec la France
    2026/02/20

    Emmanuel Macron s’est rendu en Inde cette semaine pour renforcer le partenariat stratégique entre les deux pays. Les discussions entre Paris et New Delhi ont porté sur l'intelligence artificielle, mais aussi sur la vente possible de plus de cent avions de chasse français Rafale. Un dossier hautement sensible, ciblé par une série de deepfake détournant le visage du président français et du Premier ministre indien, Narendra Modi.

    Tout commence mardi 17 janvier avec la diffusion sur X (ex-Twitter) d’une vidéo de quarante trois secondes. On voit Emmanuel Macron, drapeaux français en arrière-plan, en pleine déclaration, devant un pupitre décoré avec des fleurs. On pense alors l’entendre parler en anglais.

    Il semble affirmer que la France ne « pourra pas devenir un partenaire de l'Inde dans le domaine de la défense ». « Nous avons déjà perdu un milliard de dollars sur le marché Rafale en raison de l'inefficacité de l'armée de l'air indienne. Nous ne pouvons pas faire partie d'une organisation défaillante qui ternirait davantage notre réputation ».

    Ce narratif mensonger fait référence à l’opération militaire Sindoor menée par l’Inde au Pakistan en mai 2025 et où New Delhi aurait perdu au moins un avion Rafale.

    Un deepfake anglophone

    En réalité, Emmanuel Macron n’a jamais prononcé ces mots. C’est un deepfake, un hypertrucage généré par intelligence artificielle. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui en quelques clics.

    La première étape de vérification consiste à identifier l’origine précise de cet extrait. Pour ça, nous avons procédé à plusieurs recherches par image inversée (voir ici comment faire). Cela nous a permis de retrouver la déclaration d'Emmanuel Macron et de Narendra Modi à Bombay, le 17 février 2026. Si on y retrouve bien le même décor, les mêmes gestes, les propos eux, sont totalement différents. L'extrait qui a été manipulé débute à 27'53.

    D’abord, Emmanuel Macron s’exprime en français et non en anglais. De plus, durant les quinze minutes de son allocution, le président loue un partenariat sans « limites » et en pleine « accélération » avec l’Inde. Il ne parle pas des Rafales, ni ne critique l’armée de l’air indienne.

    Comptes pro-pakistanais et pro-chinois

    À l’origine de cette fausse information, on retrouve un compte X anonyme, qui se présente, à tort, comme un lanceur d’alerte. Dans les faits, il publie quotidiennement des deepfake et des infox destinées à dénigrer l’armée indienne et, au contraire, à vanter la puissance du Pakistan. Il a notamment partagé un hypertrucage de Narendra Modi au sujet, une nouvelle fois, des avions français Rafale.

    Ces infox s’inscrivent dans une vaste opération de désinformation. En effet, depuis la série de bombardements menés par l’armée indienne contre le Pakistan en mai 2025, le Rafale est victime d’une intense campagne de dénigrement dans la région. Derrière tout ça, on retrouve un écosystème de comptes et de médias chinois et pakistanais.

    Leurs objectifs consistent à ternir la réputation de l’avion fabriquée par Dassault, à promouvoir le matériel de fabrication chinoise et à affaiblir, par la même occasion, le partenariat franco-indien.

    続きを読む 一部表示
    3 分
まだレビューはありません