『Les dessous de l'infox, la chronique』のカバーアート

Les dessous de l'infox, la chronique

Les dessous de l'infox, la chronique

著者: RFI
無料で聴く

このコンテンツについて

Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

France Médias Monde
政治・政府
エピソード
  • Guerre en Ukraine: quand la propagande pro-russe recourt aux vidéos artificielles
    2025/11/07

    En Ukraine, la situation est très compliquée pour la défense ukrainienne à Pokrovsk. Assiégée par l’armée russe depuis plus d’un an, cette ville en ruine figure comme l’épicentre des combats sur le front est. L’offensive des soldats de Moscou s'intensifie sur le terrain, mais aussi en ligne, à coups d’infox générées par intelligence artificielle.

    À en croire une série de vidéos mensongères diffusées sur les réseaux sociaux ces derniers jours, des milliers de soldats ukrainiens « se seraient rendus à l’armée russe dans la région de Pokrovsk ». L’une d’entre-t-elle montre des dizaines d’hommes, désarmés, abandonnant leur tranchée. Une autre met en scène des centaines de combattants ukrainiens, alignés dans un champ, les mains sur la tête. Ces vidéos cumulent des millions de vues sur X, TikTok et Facebook.

    Vérification faite, ces clips ne sont pas réels. Ils ont tous ont été générés par Sora 2, le générateur de vidéos artificielles développé par Open AI, la start-up derrière Chat GPT. Plusieurs éléments le prouvent, à commencer par le petit logo Sora, apposé sur les images. Visuellement, on remarque aussi plusieurs incohérences, notamment au niveau des visages et des tenues portées par les soldats. De plus, ces vidéos durent chacune dix secondes. C’est, à ce jour, la durée standard des clips générés par Sora 2.

    Dans les faits, des milliers de soldats ukrainiens n’ont pas déposé les armes dans la région de Pokrovsk. L’armée russe elle-même n’a jamais communiqué sur un tel événement.

    À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox

    De jeunes soldats ukrainiens en pleurs ?

    Une autre vidéo mensongère censée montrer un soldat ukrainien en pleurs a également fait le tour des réseaux sociaux cette semaine. On y voit un jeune homme, dans un véhicule blindé, demander de l’aide en ukrainien. « J’ai été mobilisé, je me rends à Tchassiv Yar. Aidez-moi. Je ne veux pas mourir. Je n’ai que 23 ans », dit-il, les larmes aux yeux. Les comptes qui diffusent cette vidéo affirment que l’Ukraine forcerait les jeunes à aller à l’abattoir.

    Sauf qu’une nouvelle fois, tout est faux puisque cette vidéo a aussi été générée via Sora 2. Ce clip provient d’un compte TikTok, récemment supprimé, qui publiait quotidiennement ce type de contenu.

    C’est un cas particulier, car le visage du jeune homme visible dans ce clip correspond à celui d’un véritable influenceur russe, bel et bien vivant. Quelqu'un a donc détourné son identité. Dans les faits, la conscription en Ukraine ne concerne pas les moins de 25 ans.

    Désinformer et détourner l’attention

    Cette campagne de désinformation vise à dénigrer l’armée ukrainienne et affaiblir le soutien occidental à l’Ukraine. L’objectif, c’est aussi de détourner l’attention des difficultés rencontrées par l’armée russe depuis le lancement de son invasion à grande échelle en février 2022.

    続きを読む 一部表示
    3 分
  • Mali: l’armée ciblée par une opération de désinformation sur fond de tension avec la Mauritanie
    2025/10/31

    Au Mali, le blocus imposé par les jihadistes du Jnim se poursuit. Ce mardi 28 octobre, le groupe terroriste proche d'al-Qaïda a attaqué un nouveau convoi transportant du carburant. Profitant de cette crise sécuritaire, plusieurs infox ciblent actuellement l’armée malienne. Le compte à l’origine de cette opération de désinformation vise à attiser les tensions avec la Mauritanie, dans un contexte diplomatique tendu entre les deux voisins.

    Tout commence ce mardi 28 octobre, avec la publication d’une vidéo mensongère sur TikTok. On y voit plusieurs jeunes hommes lancer des projectiles sur des militaires. Les soldats répondent par des tirs de sommation. L’affrontement se déroule en ville, sur une route bitumée. La légende affirme, à tort, que « l’armée mauritanienne aurait pris la ville de Tombouctou, détruit une base militaire et tué 200 soldats maliens ».

    Vérification faite, cette vidéo n’a rien à voir avec le Mali ou la Mauritanie. Cet affrontement a été filmé en Somalie. En réalité, l’armée mauritanienne n’a pas envahi le Mali et les deux pays ne sont pas entrés en guerre. Comme le confirment plusieurs habitants de Tombouctou dans les commentaires, ce récit a été inventé de toutes pièces.

    Une manifestation à Mogadiscio

    Grâce à une recherche par image inversée, nous avons retrouvé cette vidéo sur des comptes Facebook basés à Mogadiscio, en Somalie. En nous appuyant sur les éléments visuels les plus marquants, la route, les lampadaires, la végétation, nous avons pu géolocaliser précisément la scène, dans le district de Dayniile, en périphérie de la capitale.

    Selon la presse locale, des Somaliens manifestaient en septembre dernier contre les expulsions forcées de certains habitants.

    Opération de désinformation

    Cette infox s’inscrit dans une véritable opération de désinformation. Nous avons en effet identifié toute une série de contenus diffusant ce même narratif mensonger. Une autre vidéo prétend par exemple montrer des véhicules blindés de l’armée mauritanienne en direction de la ville de Nara, au Mali.

    Vérification faite, la vidéo a été filmée en Libye, par un soldat de l'Armée nationale libyenne. L'abréviation RIB, peinte sur la portière avant gauche du véhicule, indique qu’il s’agit d’une unité spéciale, chargée de la sécurité des frontières sud de la Libye.

    Un obscur compte TikTok à la manœuvre

    Derrière cette désinformation, on retrouve un obscur compte TikTok francophone créé en 2021. La plupart de ces contenus sont des infox faisant croire à un affrontement direct entre Bamako et Nouakchott. Ce récit fictionnel vise à dénigrer l’armée malienne et à attiser les tensions entre les deux voisins.

    Nous avions déjà épinglé ce profil en décembre 2024, avec une infox similaire. Inactif depuis plusieurs mois, il revient à la charge en exploitant la crise sécuritaire malienne et les récentes tensions diplomatiques avec la Mauritanie. Cet opportunisme lui permet de gagner en visibilité. La stratégie semble payante puisque ses 40 vidéos trompeuses totalisent plus de 24 millions de vues.

    続きを読む 一部表示
    3 分
  • Sora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox
    2025/10/24

    Les vidéos de Sora 2, le nouveau générateur de vidéos artificielles développé par Open AI, la start-up derrière Chat GPT, sont partout sur les réseaux sociaux. Tout comme Veo 3 de Google, cet outil permet de transformer un simple texte en un clip ultra-réaliste. Lancée en septembre, l’application est à ce jour uniquement disponible aux États-Unis et au Canada, sur invitation. La cellule Info Vérif de RFI a tout de même pu l’essayer, et le constat est assez inquiétant.

    La conclusion de notre essai est sans appel, il n’a jamais été aussi simple de produire des deepfakes, des hypertrucages ultra-réalistes. En seulement quelques clics, nous avons pu générer des dizaines de vidéos artificielles sur des sujets humoristiques, un crocodile faisant ses courses par exemple, mais aussi sur des sujets d’actualité beaucoup plus sensibles. Le résultat est bluffant à l’image, mais aussi au niveau du son.

    Contrairement à la première version, Sora 2 propose un rendu fidèle des gestes, des visages, des mouvements. Pour Marc Faddoul, chercheur en intelligence artificielle, directeur d’AI Forensics, « c'est une des premières fois qu'on arrive à avoir vraiment des vidéos qui font illusion pour la majorité des utilisateurs, donc il est vrai qu'on assiste encore à une nouvelle étape ».

    Un potentiel énorme de désinformation

    Ce tournant inquiète les experts de la lutte contre la désinformation. À juste titre puisque ce type d’outil peut rapidement devenir une arme de désinformation massive. Des chercheurs de la société NewsGuard ont ainsi mis Sora à l’épreuve en lui demandant explicitement de générer des infox. Résultat, l’outil accepte dans 80 % des cas de produire du faux sans le moindre message d’avertissement.

    L’un des seuls garde-fous mis en place par Open AI, c’est la présence d’un petit logo Sora, apposé sur les images qu’il génère. C’est ce que l’on appelle un watermark, une sorte de marque de fabrique.

    Mais dans les faits, certains parviennent à le supprimer ou à le dissimuler. Cette semaine, une fausse vidéo d’un coup d’État en Espagne a fait des millions de vues sur les réseaux sociaux. Le logo de Sora avait été dissimulé derrière un smiley.

    Distinguer le vrai du faux

    Avec le perfectionnement de ce type d’outil, il est de plus en plus difficile, voire parfois impossible, de distinguer visuellement une vraie vidéo d’une vidéo artificielle. Les IA génératives ne commettent presque plus d’erreurs grossières, comme des mains à six doigts ou des yeux perdus dans le vide.

    Le meilleur conseil, c’est d’abord de faire attention à la durée de la vidéo. Aujourd’hui, Sora permet de générer des vidéos de dix secondes maximum. La qualité visuelle est également limitée, les images sont donc souvent légèrement floues. En cas de doute, analysez bien le contexte, demandez-vous qui partage cette vidéo et cherchez à croiser l’information avec des sources fiables.

    La guerre des modèles

    Un autre processus de vérification consiste à utiliser des outils de détection d’IA. Le problème majeur, c’est que les résultats ne sont jamais fiables à 100 %.

    Marc Faddoul, rappelle que les modèles de vérification progressent toujours moins vite que les modèles de génération : « À partir du moment où vous avez un modèle qui est capable de détecter votre modèle, il suffit d'entraîner votre modèle existant face à ce modèle de détection pour lui apprendre à ne plus se faire détecter. Il y a vraiment un jeu de chat et de la souris qui est inéluctable. C'est donc difficile de penser qu'à terme, on aura une solution de vérification qui sera systématiquement fonctionnelle ».

    続きを読む 一部表示
    4 分
まだレビューはありません