『Les dessous de l'infox, la chronique』のカバーアート

Les dessous de l'infox, la chronique

Les dessous de l'infox, la chronique

著者: RFI
無料で聴く

このコンテンツについて

Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

France Médias Monde
政治・政府
エピソード
  • Mali: l’armée ciblée par une opération de désinformation sur fond de tension avec la Mauritanie
    2025/10/31

    Au Mali, le blocus imposé par les jihadistes du Jnim se poursuit. Ce mardi 28 octobre, le groupe terroriste proche d'al-Qaïda a attaqué un nouveau convoi transportant du carburant. Profitant de cette crise sécuritaire, plusieurs infox ciblent actuellement l’armée malienne. Le compte à l’origine de cette opération de désinformation vise à attiser les tensions avec la Mauritanie, dans un contexte diplomatique tendu entre les deux voisins.

    Tout commence ce mardi 28 octobre, avec la publication d’une vidéo mensongère sur TikTok. On y voit plusieurs jeunes hommes lancer des projectiles sur des militaires. Les soldats répondent par des tirs de sommation. L’affrontement se déroule en ville, sur une route bitumée. La légende affirme, à tort, que « l’armée mauritanienne aurait pris la ville de Tombouctou, détruit une base militaire et tué 200 soldats maliens ».

    Vérification faite, cette vidéo n’a rien à voir avec le Mali ou la Mauritanie. Cet affrontement a été filmé en Somalie. En réalité, l’armée mauritanienne n’a pas envahi le Mali et les deux pays ne sont pas entrés en guerre. Comme le confirment plusieurs habitants de Tombouctou dans les commentaires, ce récit a été inventé de toutes pièces.

    Une manifestation à Mogadiscio

    Grâce à une recherche par image inversée, nous avons retrouvé cette vidéo sur des comptes Facebook basés à Mogadiscio, en Somalie. En nous appuyant sur les éléments visuels les plus marquants, la route, les lampadaires, la végétation, nous avons pu géolocaliser précisément la scène, dans le district de Dayniile, en périphérie de la capitale.

    Selon la presse locale, des Somaliens manifestaient en septembre dernier contre les expulsions forcées de certains habitants.

    Opération de désinformation

    Cette infox s’inscrit dans une véritable opération de désinformation. Nous avons en effet identifié toute une série de contenus diffusant ce même narratif mensonger. Une autre vidéo prétend par exemple montrer des véhicules blindés de l’armée mauritanienne en direction de la ville de Nara, au Mali.

    Vérification faite, la vidéo a été filmée en Libye, par un soldat de l'Armée nationale libyenne. L'abréviation RIB, peinte sur la portière avant gauche du véhicule, indique qu’il s’agit d’une unité spéciale, chargée de la sécurité des frontières sud de la Libye.

    Un obscur compte TikTok à la manœuvre

    Derrière cette désinformation, on retrouve un obscur compte TikTok francophone créé en 2021. La plupart de ces contenus sont des infox faisant croire à un affrontement direct entre Bamako et Nouakchott. Ce récit fictionnel vise à dénigrer l’armée malienne et à attiser les tensions entre les deux voisins.

    Nous avions déjà épinglé ce profil en décembre 2024, avec une infox similaire. Inactif depuis plusieurs mois, il revient à la charge en exploitant la crise sécuritaire malienne et les récentes tensions diplomatiques avec la Mauritanie. Cet opportunisme lui permet de gagner en visibilité. La stratégie semble payante puisque ses 40 vidéos trompeuses totalisent plus de 24 millions de vues.

    続きを読む 一部表示
    3 分
  • Sora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox
    2025/10/24

    Les vidéos de Sora 2, le nouveau générateur de vidéos artificielles développé par Open AI, la start-up derrière Chat GPT, sont partout sur les réseaux sociaux. Tout comme Veo 3 de Google, cet outil permet de transformer un simple texte en un clip ultra-réaliste. Lancée en septembre, l’application est à ce jour uniquement disponible aux États-Unis et au Canada, sur invitation. La cellule Info Vérif de RFI a tout de même pu l’essayer, et le constat est assez inquiétant.

    La conclusion de notre essai est sans appel, il n’a jamais été aussi simple de produire des deepfakes, des hypertrucages ultra-réalistes. En seulement quelques clics, nous avons pu générer des dizaines de vidéos artificielles sur des sujets humoristiques, un crocodile faisant ses courses par exemple, mais aussi sur des sujets d’actualité beaucoup plus sensibles. Le résultat est bluffant à l’image, mais aussi au niveau du son.

    Contrairement à la première version, Sora 2 propose un rendu fidèle des gestes, des visages, des mouvements. Pour Marc Faddoul, chercheur en intelligence artificielle, directeur d’AI Forensics, « c'est une des premières fois qu'on arrive à avoir vraiment des vidéos qui font illusion pour la majorité des utilisateurs, donc il est vrai qu'on assiste encore à une nouvelle étape ».

    Un potentiel énorme de désinformation

    Ce tournant inquiète les experts de la lutte contre la désinformation. À juste titre puisque ce type d’outil peut rapidement devenir une arme de désinformation massive. Des chercheurs de la société NewsGuard ont ainsi mis Sora à l’épreuve en lui demandant explicitement de générer des infox. Résultat, l’outil accepte dans 80 % des cas de produire du faux sans le moindre message d’avertissement.

    L’un des seuls garde-fous mis en place par Open AI, c’est la présence d’un petit logo Sora, apposé sur les images qu’il génère. C’est ce que l’on appelle un watermark, une sorte de marque de fabrique.

    Mais dans les faits, certains parviennent à le supprimer ou à le dissimuler. Cette semaine, une fausse vidéo d’un coup d’État en Espagne a fait des millions de vues sur les réseaux sociaux. Le logo de Sora avait été dissimulé derrière un smiley.

    Distinguer le vrai du faux

    Avec le perfectionnement de ce type d’outil, il est de plus en plus difficile, voire parfois impossible, de distinguer visuellement une vraie vidéo d’une vidéo artificielle. Les IA génératives ne commettent presque plus d’erreurs grossières, comme des mains à six doigts ou des yeux perdus dans le vide.

    Le meilleur conseil, c’est d’abord de faire attention à la durée de la vidéo. Aujourd’hui, Sora permet de générer des vidéos de dix secondes maximum. La qualité visuelle est également limitée, les images sont donc souvent légèrement floues. En cas de doute, analysez bien le contexte, demandez-vous qui partage cette vidéo et cherchez à croiser l’information avec des sources fiables.

    La guerre des modèles

    Un autre processus de vérification consiste à utiliser des outils de détection d’IA. Le problème majeur, c’est que les résultats ne sont jamais fiables à 100 %.

    Marc Faddoul, rappelle que les modèles de vérification progressent toujours moins vite que les modèles de génération : « À partir du moment où vous avez un modèle qui est capable de détecter votre modèle, il suffit d'entraîner votre modèle existant face à ce modèle de détection pour lui apprendre à ne plus se faire détecter. Il y a vraiment un jeu de chat et de la souris qui est inéluctable. C'est donc difficile de penser qu'à terme, on aura une solution de vérification qui sera systématiquement fonctionnelle ».

    続きを読む 一部表示
    4 分
  • Présidentielle au Cameroun: RFI dans le viseur de la désinformation
    2025/10/17

    Après l’élection présidentielle du 12 octobre, les Camerounais attendent toujours la publication des résultats définitifs par le Conseil constitutionnel. Une attente sous tension, alimentée par un flot de fausses informations sur WhatsApp et sur les réseaux sociaux. Notre rédaction est l’une des cibles privilégiées de ces infox.

    Tout commence le dimanche 12 octobre, quelques heures seulement après la fermeture des bureaux de vote. Le dépouillement vient tout juste de commencer quand de premiers faux résultats provisoires font leur apparition sur les réseaux sociaux. L’exemple le plus marquant et le plus viral est une série de faux articles web portant le logo de RFI. Le but, c'est de faire croire, à tort, que notre rédaction aurait d’ores et déjà publié un article sur le vainqueur de cette élection présidentielle.

    Ces articles qui circulent sur Facebook, TikTok et WhatsApp n’ont en aucun cas été produits par notre rédaction. Notre logo a été grossièrement détourné, apposé sur un texte inventé de toutes pièces. Nous n’avons jamais affirmé qu’Issa Tchiroma Bakary ou Paul Biya était le vainqueur du scrutin.

    Dans les faits, RFI ne donne pas de tendances, encore moins de suppositions sur l'issue du scrutin. Nous nous conformons strictement au Code électoral camerounais et attendons donc les résultats définitifs proclamés par le Conseil constitutionnel. L’instance a jusqu’au 26 octobre pour les officialiser.

    À lire aussiPrésidentielle au Cameroun: l'identité de RFI détournée avant la publication des résultats

    Un extrait de la Deutsche Welle

    Au-delà du détournement de notre logo, d’autres modes opératoires sont également utilisés pour usurper l’identité de RFI. Dernier exemple en date ce mercredi 15 octobre avec la publication d’une vidéo mensongère montrant un poste radio filmé dans une voiture. Durant près de cinq minutes, on y entend une voix féminine parler de l’attente des résultats. La journaliste commente les premières tendances du scrutin. Un texte apposé sur ces images assure, à tort, qu’il s’agirait d’un extrait de RFI.

    Vérification faite, cet extrait est tiré d’un journal radio diffusé par la Deutsche Welle, le lendemain du vote, le 13 octobre, dans son édition de 17 H en temps universel. La tranche d’information d’une heure dans laquelle on retrouve notre extrait est disponible sur la chaîne YouTube de la radiotélévision internationale allemande.

    À lire aussiPrésidentielle au Cameroun: un extrait de la Deutsche Welle attribué à tort à RFI

    Semer le trouble

    Ces opérations de désinformation cherchent à tirer profit de notre crédibilité pour semer le trouble dans un contexte électoral particulièrement sensible. Les auteurs de ces infox essayent de détourner la confiance de nos auditeurs pour rendre leurs fausses informations virales. Une pratique dangereuse et surtout illégale.

    Si vous avez le moindre doute face à un contenu portant notre logo, le meilleur réflexe, c'est de consulter notre site internet, nos réseaux officiels ou notre application Pure Radio. Si l’information en question n’y figure pas, vous êtes face à une fausse information.

    続きを読む 一部表示
    3 分
まだレビューはありません