• Les dessous de l'infox, la chronique

  • 著者: RFI
  • ポッドキャスト

Les dessous de l'infox, la chronique

著者: RFI
  • サマリー

  • Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

    France Médias Monde
    続きを読む 一部表示

あらすじ・解説

Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

France Médias Monde
エピソード
  • RDC: de faux journaux radio attribués à RFI sèment le trouble
    2025/04/04

    En République démocratique du Congo, la situation reste tendue dans l’est, entre les rebelles de l’AFC/M23 soutenus par le Rwanda, et les Forces armées congolaises et leurs soutiens. Les affrontements se déroulent sur le terrain, mais aussi en ligne où la désinformation est omniprésente. Parmi ce flot d’infox, on retrouve des faux journaux de RFI. L’identité de la radio du monde a été plusieurs fois usurpée, dans le but de désinformer massivement la population.

    Si vous suivez la situation en RDC, ou que vous êtes membres de groupes congolais sur WhatsApp, vous avez probablement vu passer cet audio faussement attribué à RFI. Durant 4 minutes et 44 secondes, on y entend plusieurs voix synthétiques se succéder, comme dans un véritable journal radio. La première imite celle de notre journaliste au service Afrique, Arthur Ponchelet.

    S'ensuit celle de Corneille Nangaa, le coordinateur de l’Alliance Fleuve Congo (AFC) dont fait partie le M23.

    Enfin, l’extrait se conclut sur une imitation de la voix de la correspondante de France 24 en RDC, Aurélie Bazzara-Kibangula.

    En réalité, RFI n’est pas à l’origine de ce contenu. Cet audio a été entièrement généré via l’intelligence artificielle. Les propos attribués aux trois interlocuteurs ont été fabriqués de toutes pièces. Ce contenu est faux sur la forme, mais aussi sur le fond, puisque contrairement à ce que l’on entend, Corneille Nangaa n’a ni annoncé qu’il déposait les armes, ni demandé des excuses ou une grâce présidentielle.

    Une infox virale sur WhatsApp

    D’après nos recherches et les alertes de plusieurs auditeurs, ce faux journal de RFI a d’abord été diffusé sur WhatsApp dans différents groupes congolais. Plusieurs comptes se présentant comme des médias en ligne l’ont ensuite repartagé sur TikTok, Facebook, YouTube et X. Aujourd’hui, l’infox circule sous différentes formes avec divers visuels qui usurpent l’identité de RFI.

    RFI cible prioritaire

    Ce n’est pas le premier faux extrait de RFI qui circule en République démocratique du Congo. Début mars, un audio siglé RFI affirmait que Félix Tshisekedi allait « démissionner après un accord historique entre Kinshasa et le M23 ». Mais là encore, cette infox avait été générée par intelligence artificielle. Ce type de manipulation se multiplie ces derniers mois et touche différents médias internationaux.

    Distinguer le vrai du faux

    Le meilleur moyen de s’assurer de l’authenticité d’un contenu attribué à RFI est de consulter directement notre site internet ou nos réseaux sociaux officiels. Si l’audio ou l’article en question n’y figure pas, alors c’est un faux.

    En étant vigilant et observateur, on peut également se rendre compte de l’utilisation de l’intelligence artificielle. Dans le cas de ce faux journal, plusieurs utilisateurs ont pointé le ton robotique et la mauvaise qualité sonore. Mais au moindre doute, le réflexe à adopter reste de remonter à la source.

    続きを読む 一部表示
    3 分
  • Musiques artificielles: l'IA utilisée à des fins de propagande politique
    2025/03/28

    C’est un phénomène à la mode sur les réseaux sociaux : les musiques générées par intelligence artificielle. Le mode opératoire est simple, la voix d’un artiste mondialement connu est détournée pour chanter à la gloire d’un chef d’État. Ce phénomène monte en puissance sur le continent africain, et n’épargne aucune personnalités.

    Ces dernières semaines, presque toutes les stars du rap et du RnB ont été victimes de ce phénomène. Les voix de Beyoncé, Aya Nakamura, 50 Cent, Drake ou encore Ninho ont notamment été manipulées. Côté personnalités politiques, la plupart des chefs d’État africains ont eu le droit à leur musique artificielle : le Béninois Patrice Talon, le Sénégalais Bassirou Diomaye Faye ou encore le Guinéen Mamadi Doumbouya. Le dernier son en date, publié cette semaine, cible le capitaine burkinabè Ibrahim Traoré.

    Cette voix artificielle imite presque parfaitement celle du rappeur congolais Gims. Un autre audio en l’honneur du président ivoirien, Alassane Ouattara, circule également ces derniers jours.

    Cette fois-ci, c’est la voix du rappeur Booba qui a été détourné. En réalité, ces sons, qui se comptent par dizaines sur les réseaux sociaux, ne sont pas authentiques. Ils ont été générés via l’intelligence artificielle. Dans les faits, ni Gims ni Booba n’a fait l’éloge d’Ibrahim Traoré ou d’Alassane Ouattara en musique. Pour s’en rendre compte, il suffit de consulter les réseaux sociaux officiels des deux rappeurs.

    De YouTube aux autres réseaux sociaux

    D’après nos recherches, la plupart de ces musiques artificielles proviennent d’un petit nombre de chaînes YouTube qui diffusent régulièrement ce genre de contenus. Même s’il faut chercher pour la trouver, la mention « générée par IA » est bien présente dans la légende.

    Sur YouTube, ces contenus dépassent rarement les 100 000 vues, au contraire de TikTok, Facebook et Instagram où certaines d’entre elles dépassent les cinq millions de vues. Le problème réside dans le fait que les comptes qui repartagent ces musiques inauthentiques ne mentionnent pas l’utilisation de l’intelligence artificielle.

    Ce qui a été généré initialement à des fins humoristiques, se retrouve utilisé à des fins de désinformation. Des comptes très influents se servent de ces infox pour faire de la propagande et les commentaires montrent que des milliers d’utilisateurs tombent dans le panneau.

    Des contenus illégaux

    En utilisant les bons outils, il est possible de générer rapidement et gratuitement ce type de musique artificielle. On peut donc faire dire ce que l’on veut à n'importe quel artiste. Mais attention, certaines législations encadrent la pratique.

    En France, l’article 226-8 du Code pénal puni d’un an et de 15 000 € d’amende « le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention. Est assimilé à l'infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l'image ou les paroles d'une personne, sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un contenu généré algorithmiquement ou s'il n'en est pas expressément fait mention ». La plupart des publications sont donc illégales.

    続きを読む 一部表示
    3 分
  • Canada: le Premier ministre Mark Carney visé par une campagne de désinformation
    2025/03/21
    Alors que le Canada se tourne vers l'Europe pour tenter de faire front à Donald Trump, qui multiplie les déclarations hostiles à Ottawa, des photos discréditant le nouveau Premier ministre libéral, Mark Carney, ont fait leur apparition sur les réseaux sociaux. Ces images trompeuses, fabriquées de toutes pièces, font suite à une campagne de désinformation visant le nouveau chef du gouvernement, à quelques semaines d'élections fédérales anticipées qui devraient être annoncées officiellement ce dimanche 23 mars. La formule de désinformation la plus courante consiste à faire apparaître le candidat libéral devenu Premier ministre du Canada, le 14 mars 2025, en compagnie de personnalités sulfureuses, comme l'explique l'AFP. Une photo a particulièrement retenu notre attention. Elle fait penser à une photo de vacances, mais on y verrait Mark Carney assis sur une chaise de plage aux côtés de l'acteur américain Tom Hanks et de Ghislaine Maxwell, la petite amie de Jeffrey Epstein.Jeffrey Epstein est un tristement célèbre homme d'affaires et criminel sexuel accusé d'avoir réduit en esclavage des dizaines de jeunes filles au profit de la haute société américaine. Ce prédateur a été retrouvé mort dans sa cellule en 2019, alors qu'il attendait d'être jugé pour trafic de mineurs. Mais son image toxique est régulièrement employée sur les réseaux pour discréditer tous ceux qui sont prétendument apparus à ses côtés. Idem pour l'image de son ex-compagne Ghislaine Maxwell, considérée comme la co-organisatrice du trafic et condamnée à 20 ans de prison en 2022, avant de faire appel.Une campagne lancée début 2025Fin janvier déjà, était apparue une photo trompeuse, censée montrer Mark Carney aux côtés de Jeffrey Epstein dans la piscine de la propriété du milliardaire. Cette image, non datée, avait été relayée par plusieurs comptes de la sphère pro-Trump.On estime qu'elle a été vue plus de 200 000 fois, rien que sur X. La photo est apparue pour la première fois en ligne en janvier, lorsque l'ancien Premier ministre Justin Trudeau a annoncé sa démission et lancé la course à la direction du Parti libéral. Elle est devenue virale peu après la victoire de Mark Carney à la tête du parti, le 9 mars. La plateforme Disinfowatch pointe pour sa part la responsabilité de la propagande russe. Une image générée par IAL'image en question est plutôt bien faite. Ses auteurs en ont volontairement dégradé la qualité afin de brouiller les pistes. Toutefois, si on s'attarde sur l'arrière-plan, on distingue plusieurs incohérences. Les filles en maillot de bain ont le visage déformé et l'avant-bras de l'une des baigneuses (sur la gauche de l'image) a une forme en « S » qui ne correspond à la réalité. De plus, même en prenant en compte le phénomène de réfraction de la lumière dans l'eau de la piscine, le bras de Mark Carney apparaît surdimensionné à l'image. Il s'agit d'une infox, comme le détaillent les équipes du collectif Newsguard.Constat similaire sur la photo avec Tom Hanks et Ghislaine Maxwell. Là encore, les doigts sont déformés, et une partie du siège est manquant sous la cuisse droite de Mark Carney. Enfin, si on effectue une recherche par image inversée, on s'aperçoit aussi que cette image a déjà été partagée en ligne, qu'elle porte en bas à droite la mention « Grok ». C'est la signature de l'intelligence artificielle générative d'Elon Musk.Une part d'ambiguïtéEn effectuant des recherches, on retrouve une photo a priori authentique de Mark Carney, à deux pas de Ghislaine Maxwell. Cette photo a refait surface sur les réseaux en janvier 2025, mais elle date de 2013. Mark Carney, alors gouverneur de la Banque d'Angleterre, avait été photographié lors d'un festival avec sa femme Diana Fox et d'autres personnalités de la société mondaine britannique, dont Ghislaine Maxwell. Lors de la republication, l'équipe de campagne de Carney a démenti tout lien affirmant que Carney et Maxwel « ne sont pas amis ».À lire aussiCanada: le Premier ministre Mark Carney va annoncer des législatives anticipées pour le 28 avril
    続きを読む 一部表示
    4 分

Les dessous de l'infox, la chroniqueに寄せられたリスナーの声

カスタマーレビュー:以下のタブを選択することで、他のサイトのレビューをご覧になれます。