『Les dessous de l'infox, la chronique』のカバーアート

Les dessous de l'infox, la chronique

Les dessous de l'infox, la chronique

著者: RFI
無料で聴く

このコンテンツについて

Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

France Médias Monde
政治・政府
エピソード
  • CAN 2025: les vidéos générées par intelligence artificielle occupent le terrain
    2026/01/16

    Quand l’intelligence artificielle s’empare de la Coupe d’Afrique des Nations. Alors que la finale opposera le Maroc et le Sénégal ce dimanche 18 janvier, à Rabat, la désinformation autour de cette CAN 2025 ne faiblit pas sur les réseaux sociaux. Des centaines de vidéos artificielles ciblent notamment l’arbitrage, et le Maroc, pays hôte de cette 25e édition.

    Depuis le lancement de cette CAN 2025, les accusations d’un arbitrage maison, en faveur des Lions de l’Atlas, sont alimentées par une vague de contenus mensongers sur les réseaux sociaux. Parmi les exemples les plus marquants, on retrouve une vidéo à propos du 8e de finale remporté 1-0 par le Maroc contre la Tanzanie. Durant dix secondes, on pense y voir, à tort, l'arbitre de la rencontre présenter ses excuses aux supporters tanzaniens.

    Vérification faite, cette vidéo n’est pas réelle. Ces images, vues plus de 5 millions de fois, ont été entièrement générées par intelligence artificielle. Plusieurs éléments le prouvent, comme cet homme qui ne ressemble pas du tout à Boubou Traoré, l’arbitre malien au sifflet de ce match. On note aussi l’absence de bleu sur les drapeaux tanzaniens, un texte illisible sur le logo de la Fifa, ou encore un public anormalement immobile.

    Les joueurs pris pour cible

    Ces infox générées par IA détournent également l’image des joueurs, à commencer par la sélection algérienne éliminée en quart de finale contre le Nigeria sur le score de deux à zéro. Une vidéo prétend montrer un Fennec critiquer violemment l’arbitrage et le Maroc en conférence de presse.

    Mais là encore, tout a été généré par intelligence artificielle. Le maillot algérien ne correspond pas à la tenue officielle. Le logo de la Confédération africaine de football n’est pas correct.

    Une économie du faux

    Ce type de vidéos artificielles se comptent par centaine sur les réseaux sociaux. En effet, nous avons identifié plusieurs comptes TikTok qui diffusent quotidiennement ce genre d’infox.

    Des interviews d’après-match qui dérapent, des arbitres en pleurs, des coachs giflant leurs joueurs dans les vestiaires : les mises en scène touchent toutes les sélections et tous les acteurs, sur ou en dehors du terrain. Au total, ces vidéos cumulent plus de 50 millions de vues, rien que sur TikTok.

    Si certaines prêtent à sourire, d’autres visent délibérément à désinformer et à attiser les tensions. Les commentaires montrent que certains supporters se font avoir.

    Comment détecter l’IA

    Pour détecter l’usage de l’intelligence artificielle, il faut être attentif aux détails visuels. Les logos, les inscriptions textuelles comportent régulièrement des défauts. Les visages des joueurs ne sont pas ressemblants. Le son aussi est souvent trop lisse, trop parfait. De plus, il ne faut pas oublier l’indicateur temporel. Toutes ces fausses vidéos durent de 5 à 15 secondes. C’est un élément qui peut trahir l’utilisation d’un outil d’intelligence artificielle.

    続きを読む 一部表示
    3 分
  • Groenland: la désinformation accompagne les propos de Donald Trump
    2026/01/09
    Début janvier, le président américain Donald Trump a de nouveau tenu des propos hostiles envers les autorités danoises qui, selon lui, ne sont pas capables de défendre le Groenland face aux appétits chinois et russes en Arctique. Dans le même temps, sur les réseaux sociaux, des propos outranciers et des images détournées circulent dans le but de décrédibiliser l’armée danoise chargée d’assurer la sécurité de ce territoire. Le président américain parle d’une « priorité de sécurité nationale pour les États-Unis » afin de justifier son intention de faire main basse sur le Groenland, ce territoire situé non loin du pôle Nord, entre l’Europe et les États-Unis. Selon Donald Trump, « le Danemark ne fait rien pour la sécurité du Groenland (...) Ils ont seulement ajouté un traineau à chiens », a-t-il affirmé le 4 janvier devant quelques journalistes présents à bord de l’avion présidentiel Air Force One. Visiblement, cette histoire amuse beaucoup le président américain et pourtant, c’est une affaire très sérieuse. Après vérification, ces traineaux appartiennent à une unité spéciale danoise, baptisée patrouille Sirius et rattachée au commandement danois pour l'Arctique. Depuis 2012, ce commandement interarmées assure des missions militaires, des missions de garde-côtes et des interventions en cas de catastrophe, le tout au sein d'une seule organisation. L'unité Sirius est capable de mener des missions de surveillance à longue distance dans ce territoire glacial. Jusqu’alors, la patrouille Sirius disposait de six équipages avec deux hommes et de 11 à 15 chiens. De l’avis des experts, il s'agit du moyen le plus fiable pour opérer en autonomie dans une région du monde où les conditions météo sont extrêmement dures pendant l’hiver. Préoccupations stratégiques Une fois de plus, Donald Trump exagère beaucoup quand il dit « que le Danemark ne fait rien pour la sécurité du Groenland ». Ainsi, la Première ministre danoise Mette Frederiksen a immédiatement dénoncé ces propos en rappelant que Copenhague avait alloué l’an dernier 1,2 milliard d’euros à la sécurité de la région et pas seulement en achetant des traineaux. Mais aussi en se dotant, dans les années à venir, de drones, de navires spécialisés, de radars et d’avions de patrouille maritime tout en passant commande également de 16 chasseurs supplémentaires : des F-35, fabriqués aux États-Unis. Nuire à l’image de l’armée danoise L'armée danoise a été visée par des infox, ou des propos déplacés provenant le plus souvent des sphères pro-russe ou MAGA (Make America Great Again), proches du président Donald Trump. Comme ce compte qui diffuse une vidéo où l’on voit un soldat chuter en tentant de descendre d’un véhicule de transport de troupe. Commentaire moqueur : « Quand l’armée danoise débarque pour stopper l’invasion américaine du Groenland ». Vérification faite, l’image a été détournée. Elle montre des soldats suisses et non des forces spéciales danoises. Cette vidéo sortie de son contexte a été vue plus de deux millions de fois rien que sur ce compte. D’autres vidéos cherchent à tourner au ridicule l’équipement de l’armée danoise, ou laissent supposer que les soldats danois ne seraient pas assez virils. À lire aussiPeut-on contrer les volontés expansionnistes de Donald Trump ? Donald Trump a la mémoire courte Beaucoup d’utilisateurs rappellent que l’armée danoise n’a pas failli à ses engagements, soulignant qu'elle a perdu 44 soldats dans la mission de l’Otan en Afghanistan, aux côtés des États-Unis, dans les années 2010. Durant cette crise politico-diplomatique, les responsables danois ont utilisé les réseaux sociaux (dont le réseau X d'Elon Musk) avec beaucoup d'agilité, afin d'essayer de faire valoir leur point de vue. Sur son compte X, l’ambassadeur du Danemark à Washington conclut : « Le Danemark prend la sécurité dans l’Arctique très au sérieux (...) les États-Unis ont la possibilité d’établir des bases militaires supplémentaires au Groenland en vertu d’un traité datant de 1951. »
    続きを読む 一部表示
    4 分
  • Non, cette vidéo ne montre pas une résidence de Vladimir Poutine attaquée par des drones ukrainiens
    2026/01/02

    En pleine négociation avec les États-Unis, la Russie accuse l’Ukraine d’avoir attaqué une résidence appartenant à Vladimir Poutine. Sans preuves tangibles, l’armée russe évoque un raid de 91 drones. Kiev et ses alliés dénoncent des mensonges destinés à saper les pourparlers diplomatiques en cours. Dans ce contexte, une vidéo générée par intelligence artificielle sème le doute sur les réseaux sociaux.

    La vidéo a dépassé les 10 millions de vues en seulement vingt-quatre heures. Durant quinze secondes, on y voit deux drones tirer un projectile sur une résidence luxueuse, située en pleine forêt. La toiture prend feu, pendant qu’un véhicule stationné sur le parvis essaye de prendre la fuite. Des éléments visuels comme l’heure, la date ou la mention « REC », poussent à croire, à tort, que ces images auraient été filmées par une caméra de surveillance.

    Les comptes qui diffusent ce clip parlent d’une « preuve » qui viendrait confirmer le narratif diffusé par le Kremlin. Mais vérification faite, ces images ne sont pas réelles. Cette vidéo a été entièrement générée par intelligence artificielle. Plusieurs incohérences visuelles le prouvent, à l’image de cette voiture qui roule à travers une fontaine et ne fait aucune trace sur la neige.

    On remarque, de plus, une explosion qui ne provoque aucun dégât, ou encore les secondes de l’horloge qui ne défilent pas dans le bon ordre.

    Désinformer pour combler le vide

    D’autres éléments prouvent l’utilisation d’un outil d’intelligence artificielle. Il y a la bande son, anormalement trop parfaite. On se croirait dans un film d’action alors que les micros des caméras de surveillance sont souvent de mauvaise qualité voire inexistants. Enfin, il ne faut pas oublier l’indicateur temporel. Cette vidéo dure précisément quinze secondes. C’est la durée standard permis par certains outils d’IA comme Sora 2 de la start-up américaine Open AI.

    À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox

    Derrière cette infox, on retrouve différents comptes influents, habitués à diffuser de la désinformation. Certains sont déjà identifiés comme des vecteurs importants de la propagande du Kremlin.

    L’auteur de cette infox a profité de la rareté des images liées à cette attaque présumée d’une résidence de Vladimir Poutine, pour viraliser son infox. Une stratégie payante, puisque cette vidéo artificielle cumule plus de 11 millions de vues. Mais contrairement à ce que certains affirment, le Kremlin n’a pas diffusé ce clip sur ses canaux de communication officiels.

    Aucune preuve tangible

    À ce stade, Moscou n’a apporté aucune preuve tangible. La vidéo d’un débris de drone diffusé par les autorités russes ne permet en aucun cas de confirmer l’existence de cette supposée attaque. Ces images ont été filmées en gros plan, de nuit, en plein milieu d’une forêt, rendant tout travail de vérification et de géolocalisation impossible. Les experts pointent l’absence d’images amateurs alors que la Russie affirme que 91 drones auraient survolé la région concernée. À ce stade, aucune preuve factuelle ne vient corroborer la version du Kremlin, démentie par Kiev et ses alliés.

    À lire aussiGuerre en Ukraine: quand la propagande pro-russe recourt aux vidéos artificielles

    続きを読む 一部表示
    3 分
まだレビューはありません