『Les dessous de l'infox, la chronique』のカバーアート

Les dessous de l'infox, la chronique

Les dessous de l'infox, la chronique

著者: RFI
無料で聴く

概要

Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

France Médias Monde
政治・政府
エピソード
  • Tensions États-Unis-Iran: une opération de désinformation pro-iranienne est en cours sur TikTok
    2026/02/27

    Les États-Unis et l’Iran ont entamé jeudi 26 février un troisième round de négociations informelles à Genève au sujet du nucléaire iranien. Après avoir déployé un important dispositif militaire au Moyen-Orient, Washington agite toujours le spectre d’une intervention militaire. Dans ce contexte inflammable, nous avons identifié une opération de désinformation en cours sur le réseau social TikTok, à l’aide de vidéos générées par intelligence artificielle.

    Mercredi 24 février, une vidéo loufoque de dix secondes a attiré notre attention sur TikTok. On pense y voir un bombardier furtif américain, B2 Spirit, sortir d’un tunnel caché quelque part dans les montagnes iraniennes. Ces images, générées par intelligence artificielle, sont assez grossières. Les ailes de l’appareil traversent la montagne.

    En nous intéressant au compte à l’origine de ce clip, nous avons trouvé 41 vidéos, toutes générées par intelligence artificielle. Elles montrent soit du matériel militaire aux couleurs iraniennes, soit des femmes se présentant comme des pilotes. Ces contenus mensongers cumulent plus de 30 millions de vues.

    Écosystème de comptes

    En poursuivant nos recherches, nous avons identifié plusieurs centaines de vidéos de ce type, diffusées par des dizaines de comptes TikTok. Ces clips sont accompagnés de la même légende, à la lettre près.

    Nous avons ensuite sélectionné 25 de ces comptes pour analyser précisément leur activité. Résultat, ces profils ont été créés entre janvier et février 2026. L’analyse de la date précise de leur première publication montre que cette opération a débuté autour du 19 janvier, avant de s’intensifier courant février.

    Ces deux indicateurs traduisent une action coordonnée. L’audience cumulée de ces 25 comptes dépasse les 120 millions de vues.

    Exalter la puissance de l’armée iranienne

    L’objectif derrière la diffusion massive de ces vidéos générées par intelligence artificielle semble d’exalter la puissance de l’armée iranienne aux yeux d’un public jeune et international. Même si le caractère artificiel de certaines vidéos saute aux yeux, d’autres sont ultra-réalistes. Dans un contexte de vives tensions entre les États-Unis et l’Iran, il s’agit là d’une forme de propagande et de course aux clics.

    Manipulation de hashtags ?

    Si on ne sait pas concrètement qui est derrière cette opération de désinformation, plusieurs éléments sont importants à prendre en compte. Certains de ces profils ont d'abord déjà diffusé des contenus en faveur du régime en place à Téhéran. Certains arborent même le visage du guide suprême Ali Khamenei en photo de profil.

    Autre élément très intéressant, ce sont les hashtags accolés à toutes ces vidéos. On retrouve toujours #FreeIran #IranProtest, #WomanLifeFreedom ou encore #StandWithIran. Ces mots-clés sont traditionnellement associés au mouvement de contestation, très violemment réprimé par le régime iranien.

    Comment expliquer que des comptes en apparence pro-régime utilisent des hashtags associés, au contraire, aux opposants ? Cela pourrait être simplement pour surfer sur la popularité de ces hashtags et faire du clic. Mais cela pourrait aussi être destiné à invisibiliser les vraies images des manifestations partout dans le pays. Aujourd’hui, lorsque l'on cherche ces hashtags sur TikTok, ces vidéos militaires générées par IA inondent les résultats.

    Le faux finit donc par prendre le dessus sur la réalité. Cela pourrait être un moyen, parmi d'autres, de cacher ce qu’il se passe vraiment en Iran.

    続きを読む 一部表示
    3 分
  • Inde: plusieurs deepfake ciblent le Rafale et les relations avec la France
    2026/02/20

    Emmanuel Macron s’est rendu en Inde cette semaine pour renforcer le partenariat stratégique entre les deux pays. Les discussions entre Paris et New Delhi ont porté sur l'intelligence artificielle, mais aussi sur la vente possible de plus de cent avions de chasse français Rafale. Un dossier hautement sensible, ciblé par une série de deepfake détournant le visage du président français et du Premier ministre indien, Narendra Modi.

    Tout commence mardi 17 janvier avec la diffusion sur X (ex-Twitter) d’une vidéo de quarante trois secondes. On voit Emmanuel Macron, drapeaux français en arrière-plan, en pleine déclaration, devant un pupitre décoré avec des fleurs. On pense alors l’entendre parler en anglais.

    Il semble affirmer que la France ne « pourra pas devenir un partenaire de l'Inde dans le domaine de la défense ». « Nous avons déjà perdu un milliard de dollars sur le marché Rafale en raison de l'inefficacité de l'armée de l'air indienne. Nous ne pouvons pas faire partie d'une organisation défaillante qui ternirait davantage notre réputation ».

    Ce narratif mensonger fait référence à l’opération militaire Sindoor menée par l’Inde au Pakistan en mai 2025 et où New Delhi aurait perdu au moins un avion Rafale.

    Un deepfake anglophone

    En réalité, Emmanuel Macron n’a jamais prononcé ces mots. C’est un deepfake, un hypertrucage généré par intelligence artificielle. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui en quelques clics.

    La première étape de vérification consiste à identifier l’origine précise de cet extrait. Pour ça, nous avons procédé à plusieurs recherches par image inversée (voir ici comment faire). Cela nous a permis de retrouver la déclaration d'Emmanuel Macron et de Narendra Modi à Bombay, le 17 février 2026. Si on y retrouve bien le même décor, les mêmes gestes, les propos eux, sont totalement différents. L'extrait qui a été manipulé débute à 27'53.

    D’abord, Emmanuel Macron s’exprime en français et non en anglais. De plus, durant les quinze minutes de son allocution, le président loue un partenariat sans « limites » et en pleine « accélération » avec l’Inde. Il ne parle pas des Rafales, ni ne critique l’armée de l’air indienne.

    Comptes pro-pakistanais et pro-chinois

    À l’origine de cette fausse information, on retrouve un compte X anonyme, qui se présente, à tort, comme un lanceur d’alerte. Dans les faits, il publie quotidiennement des deepfake et des infox destinées à dénigrer l’armée indienne et, au contraire, à vanter la puissance du Pakistan. Il a notamment partagé un hypertrucage de Narendra Modi au sujet, une nouvelle fois, des avions français Rafale.

    Ces infox s’inscrivent dans une vaste opération de désinformation. En effet, depuis la série de bombardements menés par l’armée indienne contre le Pakistan en mai 2025, le Rafale est victime d’une intense campagne de dénigrement dans la région. Derrière tout ça, on retrouve un écosystème de comptes et de médias chinois et pakistanais.

    Leurs objectifs consistent à ternir la réputation de l’avion fabriquée par Dassault, à promouvoir le matériel de fabrication chinoise et à affaiblir, par la même occasion, le partenariat franco-indien.

    続きを読む 一部表示
    3 分
  • Non, des missiles Javelin ukrainiens n’ont pas fini entre les mains de jihadistes nigérians
    2026/02/13
    Alors que les attentats et les enlèvements se multiplient au Nigéria, les États-Unis renforcent leur lutte antiterroriste dans la région. Dans ce contexte, une infox est apparue sur les réseaux. Selon une vidéo trompeuse, l’organisation terroriste État islamique en Afrique de l’Ouest s’adresserait au président Donald Trump, en le menaçant d’utiliser des armes récupérées en Ukraine pour frapper les intérêts occidentaux. Un faux message qui a soulevé des interrogations sur la toile. Le message dure 52 secondes. Son auteur a tenté de faire croire à une publication officielle du groupe ISWAP. Sur cette vidéo, on distingue cinq hommes en armes. Au premier plan, un combattant le visage enturbanné s’exprime en anglais. Il menace directement Donald Trump, et conseille aux Américains de « ne pas interférer dans le conflit interne au Nigéria ». La séquence est précédée d’une introduction où apparait un logo sur fond noir identique à celui que l’on retrouve sur certaines publications de l’État islamique. Ce montage est destiné à donner du crédit à cette infox. Pour analyser la vidéo, nous avons tout d’abord utilisé un outil de détection d’IA (Hive) afin de savoir si cette séquence a été générée artificiellement. Résultat : selon le logiciel, les images proviennent d’un véritable enregistrement vidéo, peut-être une mise en scène avec des acteurs, mais le son a été fabriqué de toutes pièces. Attention, on sait que les outils employés par la détection des images créées par IA ne sont pas fiables à 100 %. Nous avons donc recherché parallèlement des invraisemblances ou des aberrations graphiques pour nous permettre d’en savoir plus. Visuellement, deux éléments ont attiré notre attention. Plusieurs personnages ont le regard fixe, sans aucun battement de cils durant la totalité de la vidéo. Par ailleurs, le missile portable posé sur l’épaule de l'un des prétendus combattants de l’État islamique, situé à l’arrière-plan, est incomplet. Il manque le poste de tir, c’est-à-dire la poignée et le système de visé. Tel qu’il apparait à l’image, son utilisation est impossible. Pas de missiles Javelin ukrainiens au Nigeria Le tube de missile montré à l’écran, semble identique à ceux des FGM-148 Javelin livrés par les États-Unis à l’Ukraine. C’est un élément central dans cet infox. Pour ses auteurs, c’est une sorte de preuve par l’image de la dispersion de ces armes. Un narratif récurrent. Sauf qu’aucun de ces missiles anti-char trés modernes, n’a été retrouvé au Nigéria. Cependant, on estime que Washington a fourni plus de dix-mille engins de ce type à l’armée Ukrainienne. Sur la piste son, une voix synthétique, enfonce le clou, en anglais, en affirmant que « le groupe islamique ​​​​​a récupéré des missiles Javelin en Ukraine, et qu’ils vont être utilisés contre les infidèles ». En quelques jours, la vidéo a été vue plusieurs millions de fois rien que sur X. Les commentaires fusent. Un utilisateur s’interroge : « Encore combien de missiles perdus, dans la nature ? (...) C’est effrayant, la question est à présent de savoir comment ces missiles sont arrivé là (...) Il est largement temps de rendre des comptes », écrit un autre L'État islamique n’a pas produit cette vidéo Les spécialistes des mouvements djihadistes que nous avons consulté, n’ont pas cru une seconde que cette vidéo provenait de l’État islamique. L’un d’entre eux note sur X : « L’utilisation de deux traductions simultanées en arabe et en anglais est contraire aux pratiques médiatiques de l’organisation terroriste. L’utilisation d’un bandeau blanc pour la traduction ne correspondant pas aux vidéos déjà vérifiées. Enfin, le logo de l'EI est absent dans le coin supérieur droit de l'image ». Un message qui reprend les codes de la désinformation russe À l’écran, la mise en scène est très proches de celle de trois précédentes vidéos, dont nous avions déja parlé ici : à savoir de prétendues menaces jihadistes contre la France en Juillet 2024 juste avant les JO, mais aussi janvier 2025, et septembre 2025. La fausse nouvelle apparue à partir du 30 janvier dernier, a d’abord circulé à bas bruit, avant d’être amplifiée par une poignée de comptes pro-Trump, complotistes ou d’extrême droite principalement sur X, le réseau d’Elon Musk. Selon plusieurs contributeurs, cette infox présente des caractéristiques communes avec l’opéraiton de désinformation russe baptisée STORM 15-16. Cette campagne comporte différents objectifs : décrédibiliser l’Ukraine dénigrer les politiques occidentales, tout en jouant sur les peurs du public autour de sujets comme le terrorisme ou l’immigration. Risque réel de dissémination des armes utilisées en Ukraine Si la vidéo est le fruit d’une mise en scène ou ...
    続きを読む 一部表示
    4 分
まだレビューはありません