『Les dessous de l'infox, la chronique』のカバーアート

Les dessous de l'infox, la chronique

Les dessous de l'infox, la chronique

著者: RFI
無料で聴く

このコンテンツについて

Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

France Médias Monde
政治・政府
エピソード
  • Groenland: la désinformation accompagne les propos de Donald Trump
    2026/01/09
    Début janvier, le président américain Donald Trump a de nouveau tenu des propos hostiles envers les autorités danoises qui, selon lui, ne sont pas capables de défendre le Groenland face aux appétits chinois et russes en Arctique. Dans le même temps, sur les réseaux sociaux, des propos outranciers et des images détournées circulent dans le but de décrédibiliser l’armée danoise chargée d’assurer la sécurité de ce territoire. Le président américain parle d’une « priorité de sécurité nationale pour les États-Unis » afin de justifier son intention de faire main basse sur le Groenland, ce territoire situé non loin du pôle Nord, entre l’Europe et les États-Unis. Selon Donald Trump, « le Danemark ne fait rien pour la sécurité du Groenland (...) Ils ont seulement ajouté un traineau à chiens », a-t-il affirmé le 4 janvier devant quelques journalistes présents à bord de l’avion présidentiel Air Force One. Visiblement, cette histoire amuse beaucoup le président américain et pourtant, c’est une affaire très sérieuse. Après vérification, ces traineaux appartiennent à une unité spéciale danoise, baptisée patrouille Sirius et rattachée au commandement danois pour l'Arctique. Depuis 2012, ce commandement interarmées assure des missions militaires, des missions de garde-côtes et des interventions en cas de catastrophe, le tout au sein d'une seule organisation. L'unité Sirius est capable de mener des missions de surveillance à longue distance dans ce territoire glacial. Jusqu’alors, la patrouille Sirius disposait de six équipages avec deux hommes et de 11 à 15 chiens. De l’avis des experts, il s'agit du moyen le plus fiable pour opérer en autonomie dans une région du monde où les conditions météo sont extrêmement dures pendant l’hiver. Préoccupations stratégiques Une fois de plus, Donald Trump exagère beaucoup quand il dit « que le Danemark ne fait rien pour la sécurité du Groenland ». Ainsi, la Première ministre danoise Mette Frederiksen a immédiatement dénoncé ces propos en rappelant que Copenhague avait alloué l’an dernier 1,2 milliard d’euros à la sécurité de la région et pas seulement en achetant des traineaux. Mais aussi en se dotant, dans les années à venir, de drones, de navires spécialisés, de radars et d’avions de patrouille maritime tout en passant commande également de 16 chasseurs supplémentaires : des F-35, fabriqués aux États-Unis. Nuire à l’image de l’armée danoise L'armée danoise a été visée par des infox, ou des propos déplacés provenant le plus souvent des sphères pro-russe ou MAGA (Make America Great Again), proches du président Donald Trump. Comme ce compte qui diffuse une vidéo où l’on voit un soldat chuter en tentant de descendre d’un véhicule de transport de troupe. Commentaire moqueur : « Quand l’armée danoise débarque pour stopper l’invasion américaine du Groenland ». Vérification faite, l’image a été détournée. Elle montre des soldats suisses et non des forces spéciales danoises. Cette vidéo sortie de son contexte a été vue plus de deux millions de fois rien que sur ce compte. D’autres vidéos cherchent à tourner au ridicule l’équipement de l’armée danoise, ou laissent supposer que les soldats danois ne seraient pas assez virils. À lire aussiPeut-on contrer les volontés expansionnistes de Donald Trump ? Donald Trump a la mémoire courte Beaucoup d’utilisateurs rappellent que l’armée danoise n’a pas failli à ses engagements, soulignant qu'elle a perdu 44 soldats dans la mission de l’Otan en Afghanistan, aux côtés des États-Unis, dans les années 2010. Durant cette crise politico-diplomatique, les responsables danois ont utilisé les réseaux sociaux (dont le réseau X d'Elon Musk) avec beaucoup d'agilité, afin d'essayer de faire valoir leur point de vue. Sur son compte X, l’ambassadeur du Danemark à Washington conclut : « Le Danemark prend la sécurité dans l’Arctique très au sérieux (...) les États-Unis ont la possibilité d’établir des bases militaires supplémentaires au Groenland en vertu d’un traité datant de 1951. »
    続きを読む 一部表示
    4 分
  • Non, cette vidéo ne montre pas une résidence de Vladimir Poutine attaquée par des drones ukrainiens
    2026/01/02

    En pleine négociation avec les États-Unis, la Russie accuse l’Ukraine d’avoir attaqué une résidence appartenant à Vladimir Poutine. Sans preuves tangibles, l’armée russe évoque un raid de 91 drones. Kiev et ses alliés dénoncent des mensonges destinés à saper les pourparlers diplomatiques en cours. Dans ce contexte, une vidéo générée par intelligence artificielle sème le doute sur les réseaux sociaux.

    La vidéo a dépassé les 10 millions de vues en seulement vingt-quatre heures. Durant quinze secondes, on y voit deux drones tirer un projectile sur une résidence luxueuse, située en pleine forêt. La toiture prend feu, pendant qu’un véhicule stationné sur le parvis essaye de prendre la fuite. Des éléments visuels comme l’heure, la date ou la mention « REC », poussent à croire, à tort, que ces images auraient été filmées par une caméra de surveillance.

    Les comptes qui diffusent ce clip parlent d’une « preuve » qui viendrait confirmer le narratif diffusé par le Kremlin. Mais vérification faite, ces images ne sont pas réelles. Cette vidéo a été entièrement générée par intelligence artificielle. Plusieurs incohérences visuelles le prouvent, à l’image de cette voiture qui roule à travers une fontaine et ne fait aucune trace sur la neige.

    On remarque, de plus, une explosion qui ne provoque aucun dégât, ou encore les secondes de l’horloge qui ne défilent pas dans le bon ordre.

    Désinformer pour combler le vide

    D’autres éléments prouvent l’utilisation d’un outil d’intelligence artificielle. Il y a la bande son, anormalement trop parfaite. On se croirait dans un film d’action alors que les micros des caméras de surveillance sont souvent de mauvaise qualité voire inexistants. Enfin, il ne faut pas oublier l’indicateur temporel. Cette vidéo dure précisément quinze secondes. C’est la durée standard permis par certains outils d’IA comme Sora 2 de la start-up américaine Open AI.

    À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox

    Derrière cette infox, on retrouve différents comptes influents, habitués à diffuser de la désinformation. Certains sont déjà identifiés comme des vecteurs importants de la propagande du Kremlin.

    L’auteur de cette infox a profité de la rareté des images liées à cette attaque présumée d’une résidence de Vladimir Poutine, pour viraliser son infox. Une stratégie payante, puisque cette vidéo artificielle cumule plus de 11 millions de vues. Mais contrairement à ce que certains affirment, le Kremlin n’a pas diffusé ce clip sur ses canaux de communication officiels.

    Aucune preuve tangible

    À ce stade, Moscou n’a apporté aucune preuve tangible. La vidéo d’un débris de drone diffusé par les autorités russes ne permet en aucun cas de confirmer l’existence de cette supposée attaque. Ces images ont été filmées en gros plan, de nuit, en plein milieu d’une forêt, rendant tout travail de vérification et de géolocalisation impossible. Les experts pointent l’absence d’images amateurs alors que la Russie affirme que 91 drones auraient survolé la région concernée. À ce stade, aucune preuve factuelle ne vient corroborer la version du Kremlin, démentie par Kiev et ses alliés.

    À lire aussiGuerre en Ukraine: quand la propagande pro-russe recourt aux vidéos artificielles

    続きを読む 一部表示
    3 分
  • «Slop»: quand l’intelligence artificielle inonde les réseaux de contenus faux et absurdes
    2025/12/26

    En guise de mot de l’année 2025, le dictionnaire américain Merriam-Webster a choisi « slop ». Cette expression définit les contenus numériques de mauvaise qualité produits en masse par l’intelligence artificielle. Cette bouillie de photos absurdes, de sons loufoques, ou de vidéos plus ou moins réalistes, inondent les réseaux sociaux. Ces contenus « slop » polluent de plus en plus l’espace numérique, à tel point que le phénomène inquiète.

    Un chat avec la tête du président américain Donald Trump, une baleine qui mange un ours polaire, des bébés qui parlent comme des adultes. Si vous êtes un utilisateur de TikTok, Facebook, X ou Instagram, vous avez forcément déjà été confronté à du « slop ». Ces contenus, plus ou moins réalistes, sont très populaires sur les réseaux sociaux. Certains cumulent des dizaines voire des centaines de millions de vues.

    Grâce à leur caractère surréaliste, choquant ou humoristique, ces productions jouent sur nos émotions et attirent l’attention des utilisateurs. Les algorithmes l’ont bien compris, et amplifient donc artificiellement ce type de contenu. Cela aboutit à une saturation de l’espace informationnel sur les réseaux sociaux. Si certaines plateformes proposent des filtres pour échapper au « slop », la plupart surfent sur le phénomène.

    L’économie du « slop »

    Derrière ces contenus « slop », on retrouve différents acteurs qui ont saisi l’opportunité pour gagner de la visibilité et monétiser leur audience. Les derniers outils d’IA leur facilitent la tâche puisqu'il n’a jamais été aussi simple de créer ce type de contenus.

    Une véritable économie s’est donc mise en place autour de ce phénomène. Une vidéo vue près de 20 millions de fois peut vous rapporter, selon la plateforme, plus de 1 000 dollars. En Asie, plusieurs « fermes à slop » ont ainsi vu le jour ces dernières années.

    Quand le faux prend le dessus

    Si ça ne fait pas de mal de rigoler devant une vidéo loufoque, certains contenus artificiels posent problème, car ils prennent le dessus sur la réalité. Dans leur guerre au clic, certains producteurs de « slop » adaptent leur contenu à l'actualité et tombent dans la désinformation.

    C’est particulièrement le cas lors de catastrophes naturelles. Récemment, lors des inondations mortelles au Maroc, des dizaines de vidéos artificielles censées documenter la catastrophe ont circulé sur les réseaux sociaux. Pour le buzz, certains n’hésitent pas à générer des faux témoignages de victimes. Ces infox invisibilisent les vraies images, masquent les messages d’alerte des secours et bouleversent notre rapport à la réalité.

    Vers une auto-intoxication des IA ?

    Ces contenus artificiels omniprésents sur les réseaux sociaux pourraient-ils intoxiquer les intelligences artificielles qui les produisent ? C’est le risque pointé par plusieurs experts du numérique. Puisque les intelligences artificielles IA se nourrissent de ce qui circule en ligne, elles pourraient bel et bien finir par s'auto-intoxiquer.

    À cela s’ajoute aussi la prolifération des faux comptes se faisant passer pour des humains. Reste à savoir si les publics vont finir par se lasser de cette nouvelle esthétique, plus que jamais à la mode sur les réseaux sociaux.

    続きを読む 一部表示
    3 分
まだレビューはありません