• Les dessous de l'infox, la chronique

  • 著者: RFI
  • ポッドキャスト

Les dessous de l'infox, la chronique

著者: RFI
  • サマリー

  • Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

    France Médias Monde
    続きを読む 一部表示

あらすじ・解説

Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

France Médias Monde
エピソード
  • Tensions Mali-Algérie: la désinformation souffle sur les braises
    2025/04/11

    Une semaine après la destruction d'un drone malien par l'armée algérienne à la frontière, la tension ne redescend pas entre Alger et Bamako. Les deux voisins ont respectivement rappelé leur ambassadeur et fermé leur espace aérien. Cette crise diplomatique sans précédent est alimentée par un flot de désinformation sur les réseaux sociaux. D’un côté comme de l’autre, des comptes influents soufflent sur les braises, en diffusant massivement de fausses rumeurs et images sorties de leur contexte.

    À en croire plusieurs vidéos mensongères publiées sur TikTok ces derniers jours, « des affrontements auraient eu lieu entre l’armée malienne et algérienne ». La dernière en date montre une colonne de chars d’assaut légers, progressant sur une piste en terre, entourée de végétation. Le commentaire, apposé sur ces images, affirme, à tort, que le Mali contrôlerait une partie de l’Algérie. En réalité, il n’y a pas eu d’affrontements entre les deux pays. Cette vidéo est sortie de son contexte.

    L’identification du matériel montre que les trois chars légers visibles sont des Stingray, des véhicules de fabrication américaine uniquement en service dans l’armée thaïlandaise. Raison pour laquelle cette vidéo a d’abord été diffusée sur YouTube, sur le compte d’un militaire thaïlandais. Il est donc impossible de voir ce type d’équipement au Mali ou en Algérie.

    Vidéos détournées

    Les images ainsi sorties de leur contexte se comptent par dizaine ces derniers jours. Il suffit de taper « Algérie - Mali » sur les réseaux sociaux pour tomber très rapidement sur ce genre d’infox. L’une des plus consultées ces derniers jours prétend montrer des avions algériens, deux Soukhoï Su-30, volant en patrouille serrée dans le ciel malien.

    Grâce à une recherche par image inversée, on sait que la vidéo provient en réalité d’un reportage diffusé sur Arte, il y a plus de 13 ans, en 2012.

    Fausses rumeurs d’implications étrangères

    À cela s’ajoutent également les fausses rumeurs d’implications étrangères. La Libye, la Mauritanie, le Niger ou le Burkina Faso sont régulièrement cités par des comptes habitués à désinformer sur la situation régionale. Plusieurs publications affirment notamment, sans aucune preuve, que le maréchal Haftar aurait envoyé des milliers de soldats libyens en soutien aux Forces armées maliennes.

    D’autres assurent aussi que l’Iran aurait fourni des drones suicides aux Fama, une nouvelle fois, sans en apporter la moindre preuve. Des fausses rumeurs similaires circulent par ailleurs côté algérien.

    Un écosystème de désinformation

    À l’origine de ce flot d’infox, on retrouve un écosystème de comptes suivis par des centaines de milliers de personnes, principalement sur TikTok. Certains s’affichent directement face caméra, d’autres se contentent de diffuser des montages vidéo mensongers. Leur influence repose presque intégralement sur la diffusion de fausses informations, spécifiquement à propos de la situation sécuritaire au Sahel et au Sahara.

    La dégradation des relations entre Bamako et Alger s’accompagne d’une véritable bataille numérique entre les comptes pro-maliens et pro-algériens. Le sujet suscite de l’engagement et représente donc pour eux une occasion inestimable de faire des millions de vues facilement et rapidement. Les commentaires des utilisateurs montrent que cet opportunisme alimente les tensions et radicalise les militants de chaque camp.

    続きを読む 一部表示
    3 分
  • RDC: de faux journaux radio attribués à RFI sèment le trouble
    2025/04/04

    En République démocratique du Congo, la situation reste tendue dans l’est, entre les rebelles de l’AFC/M23 soutenus par le Rwanda, et les Forces armées congolaises et leurs soutiens. Les affrontements se déroulent sur le terrain, mais aussi en ligne où la désinformation est omniprésente. Parmi ce flot d’infox, on retrouve des faux journaux de RFI. L’identité de la radio du monde a été plusieurs fois usurpée, dans le but de désinformer massivement la population.

    Si vous suivez la situation en RDC, ou que vous êtes membres de groupes congolais sur WhatsApp, vous avez probablement vu passer cet audio faussement attribué à RFI. Durant 4 minutes et 44 secondes, on y entend plusieurs voix synthétiques se succéder, comme dans un véritable journal radio. La première imite celle de notre journaliste au service Afrique, Arthur Ponchelet.

    S'ensuit celle de Corneille Nangaa, le coordinateur de l’Alliance Fleuve Congo (AFC) dont fait partie le M23.

    Enfin, l’extrait se conclut sur une imitation de la voix de la correspondante de France 24 en RDC, Aurélie Bazzara-Kibangula.

    En réalité, RFI n’est pas à l’origine de ce contenu. Cet audio a été entièrement généré via l’intelligence artificielle. Les propos attribués aux trois interlocuteurs ont été fabriqués de toutes pièces. Ce contenu est faux sur la forme, mais aussi sur le fond, puisque contrairement à ce que l’on entend, Corneille Nangaa n’a ni annoncé qu’il déposait les armes, ni demandé des excuses ou une grâce présidentielle.

    Une infox virale sur WhatsApp

    D’après nos recherches et les alertes de plusieurs auditeurs, ce faux journal de RFI a d’abord été diffusé sur WhatsApp dans différents groupes congolais. Plusieurs comptes se présentant comme des médias en ligne l’ont ensuite repartagé sur TikTok, Facebook, YouTube et X. Aujourd’hui, l’infox circule sous différentes formes avec divers visuels qui usurpent l’identité de RFI.

    RFI cible prioritaire

    Ce n’est pas le premier faux extrait de RFI qui circule en République démocratique du Congo. Début mars, un audio siglé RFI affirmait que Félix Tshisekedi allait « démissionner après un accord historique entre Kinshasa et le M23 ». Mais là encore, cette infox avait été générée par intelligence artificielle. Ce type de manipulation se multiplie ces derniers mois et touche différents médias internationaux.

    Distinguer le vrai du faux

    Le meilleur moyen de s’assurer de l’authenticité d’un contenu attribué à RFI est de consulter directement notre site internet ou nos réseaux sociaux officiels. Si l’audio ou l’article en question n’y figure pas, alors c’est un faux.

    En étant vigilant et observateur, on peut également se rendre compte de l’utilisation de l’intelligence artificielle. Dans le cas de ce faux journal, plusieurs utilisateurs ont pointé le ton robotique et la mauvaise qualité sonore. Mais au moindre doute, le réflexe à adopter reste de remonter à la source.

    続きを読む 一部表示
    3 分
  • Musiques artificielles: l'IA utilisée à des fins de propagande politique
    2025/03/28

    C’est un phénomène à la mode sur les réseaux sociaux : les musiques générées par intelligence artificielle. Le mode opératoire est simple, la voix d’un artiste mondialement connu est détournée pour chanter à la gloire d’un chef d’État. Ce phénomène monte en puissance sur le continent africain, et n’épargne aucune personnalités.

    Ces dernières semaines, presque toutes les stars du rap et du RnB ont été victimes de ce phénomène. Les voix de Beyoncé, Aya Nakamura, 50 Cent, Drake ou encore Ninho ont notamment été manipulées. Côté personnalités politiques, la plupart des chefs d’État africains ont eu le droit à leur musique artificielle : le Béninois Patrice Talon, le Sénégalais Bassirou Diomaye Faye ou encore le Guinéen Mamadi Doumbouya. Le dernier son en date, publié cette semaine, cible le capitaine burkinabè Ibrahim Traoré.

    Cette voix artificielle imite presque parfaitement celle du rappeur congolais Gims. Un autre audio en l’honneur du président ivoirien, Alassane Ouattara, circule également ces derniers jours.

    Cette fois-ci, c’est la voix du rappeur Booba qui a été détourné. En réalité, ces sons, qui se comptent par dizaines sur les réseaux sociaux, ne sont pas authentiques. Ils ont été générés via l’intelligence artificielle. Dans les faits, ni Gims ni Booba n’a fait l’éloge d’Ibrahim Traoré ou d’Alassane Ouattara en musique. Pour s’en rendre compte, il suffit de consulter les réseaux sociaux officiels des deux rappeurs.

    De YouTube aux autres réseaux sociaux

    D’après nos recherches, la plupart de ces musiques artificielles proviennent d’un petit nombre de chaînes YouTube qui diffusent régulièrement ce genre de contenus. Même s’il faut chercher pour la trouver, la mention « générée par IA » est bien présente dans la légende.

    Sur YouTube, ces contenus dépassent rarement les 100 000 vues, au contraire de TikTok, Facebook et Instagram où certaines d’entre elles dépassent les cinq millions de vues. Le problème réside dans le fait que les comptes qui repartagent ces musiques inauthentiques ne mentionnent pas l’utilisation de l’intelligence artificielle.

    Ce qui a été généré initialement à des fins humoristiques, se retrouve utilisé à des fins de désinformation. Des comptes très influents se servent de ces infox pour faire de la propagande et les commentaires montrent que des milliers d’utilisateurs tombent dans le panneau.

    Des contenus illégaux

    En utilisant les bons outils, il est possible de générer rapidement et gratuitement ce type de musique artificielle. On peut donc faire dire ce que l’on veut à n'importe quel artiste. Mais attention, certaines législations encadrent la pratique.

    En France, l’article 226-8 du Code pénal puni d’un an et de 15 000 € d’amende « le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention. Est assimilé à l'infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l'image ou les paroles d'une personne, sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un contenu généré algorithmiquement ou s'il n'en est pas expressément fait mention ». La plupart des publications sont donc illégales.

    続きを読む 一部表示
    3 分

Les dessous de l'infox, la chroniqueに寄せられたリスナーの声

カスタマーレビュー:以下のタブを選択することで、他のサイトのレビューをご覧になれます。