『Les dessous de l'infox, la chronique』のカバーアート

Les dessous de l'infox, la chronique

Les dessous de l'infox, la chronique

著者: RFI
無料で聴く

概要

Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

France Médias Monde
政治・政府
エピソード
  • Burkina Faso: non Ibrahim Traoré n’a pas été arrêté par Donald Trump
    2026/03/20

    Au Burkina Faso, une rumeur cible actuellement le président de la transition. Une série de vidéos diffusées sur les réseaux sociaux affirme, à tort, que le capitaine Ibrahim Traoré aurait été arrêté à Ouagadougou. Si cette fausse information grossière peut prêter à sourire, elle illustre en réalité un mode opératoire devenu systémique.

    Tout commence sur TikTok avec l’apparition d’une vidéo plutôt étrange. Dès la première seconde, ce clip prétend sonner l’alerte : « Urgence au Burkina Faso. C’est fini pour Ibrahim Traoré ». Cette voix robotique affirme ensuite, à tort, que le capitaine burkinabè viendrait d’être arrêté : « Le président Ibrahim Traoré vient d’être arrêté. Et ce n’est pas n’importe qui. C’est Donald Trump qui aurait ordonné son arrestation ».

    Cette prétendue arrestation aurait été justifiée par des propos « injurieux envers le président américain ». En réalité, tout est faux. Cette histoire a été inventée de toutes pièces. Ibrahim Traoré n’a pas été arrêté. Pour preuve, il est apparu jeudi 19 mars 2026, libre, lors du Conseil des ministres.

    Une infox reprise en boucle

    D’après nos recherches, plusieurs dizaines de vidéos de ce type circulent sur TikTok. On retrouve toujours le même narratif, cette même voix masculine générée par intelligence artificielle, ainsi que des images d’illustration plus ou moins récentes.

    Certaines de ces publications apparaissent dans les premiers résultats quand on cherche à s’informer sur le Burkina Faso. Cette fausse information cumule aujourd’hui près de 3 millions de vues, rien que sur TikTok.

    Le rôle central des algorithmes

    Le succès de ce type d’infox assez grossières s’explique d’abord par une recette de fabrication qui plaît aux algorithmes de recommandation. La vidéo est sensationnaliste, courte, le montage est dynamique. Même si le narratif est assez farfelu, ces clips suscitent également beaucoup de commentaires. Certains se moquent, d’autres se font avoir. Cet engagement pousse les algorithmes à mettre en avant ces publications.

    À ce stade, nous n’avons pas pu déterminer qui est précisément à l’origine de ce type de contenus. Ce que l’on sait, c’est que des centaines de comptes TikTok diffusent quotidiennement ce genre de vidéos. Les sujets, souvent en lien avec l’actualité, n'épargnent aucun pays ni aucune thématique.

    Pour gagner en crédibilité, une bonne partie de ces comptes tentent de se faire passer pour des médias : « Actualités français » (sic), « Minutes politique » (sic) ou « Brut FR politique ». Ces noms, volontairement trompeurs et proches de médias existants, brouillent les pistes et mettent les utilisateurs en confiance.

    Motivation financière

    En analysant les contenus que ces comptes publient, leur motivation semble davantage financière qu’informationnelle. On ne retrouve pas de positionnement idéologique très clair. Certaines vidéos se contredisent parfois. Leur but semble donc d'inonder TikTok avec des vidéos mensongères pour faire des vues, et monétiser leur audience. Une vague de faux qui sème le doute et ajoute au désordre informationnel.

    À lire aussiComment un réseau de désinformation tente de déstabiliser les pays de l'AES

    続きを読む 一部表示
    3 分
  • Iran: l’absence de Mojtaba Khamenei suscite rumeurs et désinformation
    2026/03/13

    En Iran, le nouveau guide suprême n’est toujours pas apparu en public. Dans son premier message officiel, lu à la télévision d’État, Mojtaba Khamenei, a juré de mener la vengeance jusqu’au bout. Le nouvel homme fort du pays n’est pas apparu à l’écran. C’est une journaliste qui a lu sa déclaration. Invisible depuis sa nomination, Mojtaba Khamenei aurait été blessé durant le raid aérien qui a tué son père, Ali Khamenei. Son absence entraîne beaucoup de rumeurs et de fausses informations.

    Dès l’annonce de sa nomination, dimanche 8 mars, une vidéo fait son apparition sur les réseaux sociaux. On pense y voir Mojtaba Khamenei, turban noir sur la tête, en pleine déclaration officielle. Le décor est assez sobre. On retrouve un drapeau iranien à sa droite, ainsi que les portraits d’Ali Khamenei et du fondateur de la République islamique d'Iran, l’Ayatollah Khomeini, à sa gauche. Durant trente-deux secondes on pense l’entendre parler en persan.

    Il semble notamment affirmer que l’Iran combattra « jusqu’au dernier homme pour repousser l’agression barbare de l’Occident ». Les comptes à l’origine de ce clip saluent « le premier discours de Mojtaba Khamenei ».

    Vérification faite, cette vidéo n’est pas réelle. Il s’agit d’un deepfake, un hypertrucage généré par intelligence artificielle. En réalité, Mojtaba Khamenei n'est toujours pas apparu en public depuis sa nomination. L’image et le son ont été manipulés. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui, de façon plus ou moins réaliste.

    Comment détecter un hypertrucage ?

    Le premier élément de vérification consiste à observer avec attention le mouvement de ses lèvres qui ne colle pas avec les mots qu’il prononce. Ce problème de synchronisation labiale est typique des deepfake. Nous avons ensuite fait analyser la bande son à plusieurs locuteurs persanophones. Le résultat est sans appel. L'utilisation d’un outil d’intelligence artificielle est facilement détectable quand on parle la langue.

    Enfin, pour savoir comment a été fabriqué cet hypertuquage, nous avons effectué plusieurs recherches par image inversée (voir ici comment faire). Cela nous a permis de retrouver cette photo d’Ali Khamenei prise en juin 2025.

    On y retrouve les mêmes éléments de décor, au centimètres près, à l’exception de son portrait. C’est donc probablement ce discours qui a été fourni à une IA pour générer le deepfake.

    La plupart des comptes qui ont partagé cette vidéo font la propagande du régime iranien. L’infox a ensuite été reprise volontairement ou par mégarde par plusieurs médias, notamment arabophones. Ce deepfake cumule ainsi plusieurs millions de vues.

    Un portrait de Mojtaba Khamenei dans le bureau de Donald Trump ?

    Cette fausse information n’est pas un cas isolé. D’autres vidéos mensongères circulent. La plus virale prétend, à tort, que Donald Trump aurait affiché un portrait de Mojtaba Khamenei dans son bureau de la Maison Blanche.

    Mais là encore, tout est faux. Quelqu’un a manipulé une vidéo diffusée par la présidence en mars 2025. Donald Trump avait affiché une copie de la Déclaration d'indépendance et non la tête du nouveau guide suprême iranien.

    続きを読む 一部表示
    3 分
  • Guerre au Moyen-Orient: les images artificielles saturent l’espace informationnel
    2026/03/06

    Près d’une semaine après les premières frappes israélo-américaines sur l’Iran, la Guerre au Moyen-Orient se poursuit. Téhéran, toujours sous les bombes, poursuit sa riposte. Jusqu’ici, les Émirats arabes unis, l’Irak, le Qatar, le Koweït, l'Azerbaïdjan ou encore Bahreïn ont été ciblés par des missiles et des drones iraniens. Dans ce contexte, les images générées par intelligence artificielle inondent les réseaux sociaux, à tel point qu’il est difficile de distinguer le vrai du faux.

    Le symbole de cette guerre informationnelle en cours n’est autre que le porte-avions américain Abraham Lincoln. Pièce maîtresse du dispositif maritime de l’US Navy, le navire a été ciblé par des missiles iraniens en début de semaine. Plusieurs vidéos assez impressionnantes ont alors fait leur apparition sur les réseaux sociaux. La plus virale prétend montrer l’USS Lincoln en feu, en train de couler. En commentaires, certains parlent, à tort, d’une « démonstration de force historique de l’armée iranienne ».

    Sauf que ces images ne sont pas réelles. Cette vidéo, vue plus de 50 millions de fois, a été générée par intelligence artificielle. Plusieurs éléments visuels le prouvent, comme ces avions de chasse méconnaissables qui flottent étrangement à la surface.

    Le Commandement du département de la Défense des États-Unis a en réalité annoncé le 1er mars que « les missiles iraniens sont tombés loin de leur cible ». Le Centcom ajoute que « le Lincoln continue de lancer des avions en soutien aux bombardements » en cours en Iran.

    Propagande iranienne pro-régime

    Cette vidéo synthétique n’est pas un cas isolé, loin de là. Les contenus générés par IA autour de la riposte iranienne se comptent par centaine. Certains narratifs reviennent en boucle : des soldats israéliens ou américains en pleurs, des gratte-ciels comme le Burj Khalifa de Dubaï en flammes, des villes israéliennes rayées de la carte.

    Ces vidéos, ultra-réalistes, sont parfois difficiles à vérifier à l'oeil nu. Toujours très sensationnalistes, elles attirent l'œil et cumulent ainsi des centaines de millions de vues.

    La plupart des comptes qui diffusent ces vidéos artificielles font la propagande du régime iranien. Leurs publications visent à exalter la puissance militaire de Téhéran, et, au contraire, à dénigrer l’armée américaine et israélienne.

    À lire aussiRiposte iranienne: les images générées par intelligence artificielle sèment le doute

    Brouillard informationnel

    Ce bruit de fond sature l’espace numérique et génère un brouillard informationnel dans lequel on ne sait plus quelle vidéo est vraie ou fausse. Tout ça sème le doute, et invisibilise les images authentiques filmées sur le terrain par des témoins et des journalistes.

    Ce fléau a poussé certaines plateformes à réagir, à l’image de X, anciennement Twitter, dont les équipes ont annoncé une révision des règles de partage de revenus. Concrètement, un utilisateur qui publie une vidéo générée par intelligence artificielle sans le mentionner ne pourra plus monétiser son audience pendant 90 jours. Cela pourrait représenter un véritable manque à gagner pour les comptes spécialisés dans les fausses informations générées par IA.

    La liberté d’expression totale, défendue quoi qu’il en coûte par son propriétaire Elon Musk, n'aura visiblement pas résisté à cette vague de contenus anti-américains.

    続きを読む 一部表示
    3 分
まだレビューはありません