『Les dessous de l'infox, la chronique』のカバーアート

Les dessous de l'infox, la chronique

Les dessous de l'infox, la chronique

著者: RFI
無料で聴く

このコンテンツについて

Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.

France Médias Monde
政治・政府
エピソード
  • «Slop»: quand l’intelligence artificielle inonde les réseaux de contenus faux et absurdes
    2025/12/26

    En guise de mot de l’année 2025, le dictionnaire américain Merriam-Webster a choisi « slop ». Cette expression définit les contenus numériques de mauvaise qualité produits en masse par l’intelligence artificielle. Cette bouillie de photos absurdes, de sons loufoques, ou de vidéos plus ou moins réalistes, inondent les réseaux sociaux. Ces contenus « slop » polluent de plus en plus l’espace numérique, à tel point que le phénomène inquiète.

    Un chat avec la tête du président américain Donald Trump, une baleine qui mange un ours polaire, des bébés qui parlent comme des adultes. Si vous êtes un utilisateur de TikTok, Facebook, X ou Instagram, vous avez forcément déjà été confronté à du « slop ». Ces contenus, plus ou moins réalistes, sont très populaires sur les réseaux sociaux. Certains cumulent des dizaines voire des centaines de millions de vues.

    Grâce à leur caractère surréaliste, choquant ou humoristique, ces productions jouent sur nos émotions et attirent l’attention des utilisateurs. Les algorithmes l’ont bien compris, et amplifient donc artificiellement ce type de contenu. Cela aboutit à une saturation de l’espace informationnel sur les réseaux sociaux. Si certaines plateformes proposent des filtres pour échapper au « slop », la plupart surfent sur le phénomène.

    L’économie du « slop »

    Derrière ces contenus « slop », on retrouve différents acteurs qui ont saisi l’opportunité pour gagner de la visibilité et monétiser leur audience. Les derniers outils d’IA leur facilitent la tâche puisqu'il n’a jamais été aussi simple de créer ce type de contenus.

    Une véritable économie s’est donc mise en place autour de ce phénomène. Une vidéo vue près de 20 millions de fois peut vous rapporter, selon la plateforme, plus de 1 000 dollars. En Asie, plusieurs « fermes à slop » ont ainsi vu le jour ces dernières années.

    Quand le faux prend le dessus

    Si ça ne fait pas de mal de rigoler devant une vidéo loufoque, certains contenus artificiels posent problème, car ils prennent le dessus sur la réalité. Dans leur guerre au clic, certains producteurs de « slop » adaptent leur contenu à l'actualité et tombent dans la désinformation.

    C’est particulièrement le cas lors de catastrophes naturelles. Récemment, lors des inondations mortelles au Maroc, des dizaines de vidéos artificielles censées documenter la catastrophe ont circulé sur les réseaux sociaux. Pour le buzz, certains n’hésitent pas à générer des faux témoignages de victimes. Ces infox invisibilisent les vraies images, masquent les messages d’alerte des secours et bouleversent notre rapport à la réalité.

    Vers une auto-intoxication des IA ?

    Ces contenus artificiels omniprésents sur les réseaux sociaux pourraient-ils intoxiquer les intelligences artificielles qui les produisent ? C’est le risque pointé par plusieurs experts du numérique. Puisque les intelligences artificielles IA se nourrissent de ce qui circule en ligne, elles pourraient bel et bien finir par s'auto-intoxiquer.

    À cela s’ajoute aussi la prolifération des faux comptes se faisant passer pour des humains. Reste à savoir si les publics vont finir par se lasser de cette nouvelle esthétique, plus que jamais à la mode sur les réseaux sociaux.

    続きを読む 一部表示
    3 分
  • Non, la Russie n’a pas abattu des avions de chasse français en Ukraine
    2025/12/19

    Réunis à Bruxelles, les dirigeants européens ont trouvé ce vendredi 19 décembre un accord pour financer l’effort de guerre de l’Ukraine, à hauteur de 90 milliards d’euros. Dans ce contexte, plusieurs fausses informations ciblent directement l’aide militaire à Kiev. La dernière infox en date, diffusée sur TikTok, s’attaque à la France et à ses avions de chasse.

    À en croire une série de vidéos mensongères diffusées sur les réseaux sociaux, la Russie aurait récemment « abattu plusieurs aéronefs français remis à Kiev ». La rumeur parle « d’appareils stratégiques livrés en cachette par Emmanuel Macron à Volodymyr Zelensky ». Certains évoquent, sans preuves, la destruction de Rafale, le chasseur polyvalent du constructeur français Dassault. Un narratif repris dans une dizaine de vidéos diffusées sur TikTok et vu plus de deux millions de fois.

    En réalité, tout est faux, de la livraison secrète de ces appareils à leur destruction au combat. Dans les faits, aucun avion de chasse français n’a été abattu par la Russie en Ukraine. L’armée russe n’a d’ailleurs jamais communiqué sur un tel événement.

    Aujourd’hui, les seuls avions de chasse fournis à l’Ukraine par la France sont des Mirage-2000. Selon Kiev, ces appareils sont majoritairement engagés dans des missions de défense aérienne pour contrer les vagues de drones et de missiles russes. Quant aux Rafales, la livraison d’appareils à l’Ukraine n’en est qu’au stade des tractations.

    Un réseau de désinformation

    Les images que l’on voit dans la vidéo sont toutes sorties de leur contexte. Les différentes séquences sont sans rapport avec la France et ses avions de chasse. L’une montre un char de combat américain Abrams en plein exercice. Une autre documente une patrouille de F-16 polonais en plein vol.

    À l’origine de cette infox, nous avons identifié un écosystème de comptes TikTok francophones, habitués à diffuser de la désinformation. Au gré de l’actualité internationale, ils diffusent chaque jour des vidéos sensationnalistes avec un titre et des images chocs, le tout accompagné d’une musique angoissante et d’une voix générée par intelligence artificielle.

    Ces comptes font tout pour se faire passer pour des médias. Leur nom, Info monde, Info Actuality, Info Paris, et leur photo de profil sont volontairement trompeurs. Ce verni cache en réalité un vaste réseau de désinformation.

    Désinformation et propagande

    Ces vidéos servent à saturer les réseaux sociaux de contenus trompeurs, souvent à la gloire de la Russie et de son armée. Les comptes à la manœuvre comptabilisent des millions de vues et des centaines de milliers de likes. Cette audience, conséquente, permet de viraliser la propagande du Kremlin et de monétiser des fausses informations produites en quantité industrielle.

    À lire aussiGuerre en Ukraine: une vague de faux journaux TV alimente la désinformation

    続きを読む 一部表示
    3 分
  • RDC: cette vidéo d’Ibrahim Traoré critiquant Paul Kagame est un hypertrucage
    2025/12/15

    Alors que la République démocratique du Congo et le Rwanda ont signé un accord de paix la semaine dernière à Washington, les attaques ont repris dans l’est de la RDC. Le groupe armé AFC/M23, soutenu par Kigali, a investi la ville d’Uvira. Cette intensification des combats s’accompagne d’un regain de désinformation sur les réseaux sociaux, à l’image d’un « deepfake » viral du capitaine burkinabè Ibrahim Traoré.

    À en croire une vidéo mensongère devenue virale sur les réseaux sociaux ces dernières heures, Ibrahim Traoré aurait longuement critiqué le président rwandais Paul Kagame. Durant plus de cinq minutes, on y voit le chef de l’État burkinabè, béret rouge sur la tête, parler devant un micro.

    On pense alors l’entendre dire : « Paul Kagame. Aujourd'hui, je parle au nom des millions d'Africains qui n'acceptent plus le sang versé et les mensonges répétés. Aujourd'hui, je ne parle pas seulement à un chef d'État, je parle à celui qui croit pouvoir manipuler les peuples et cacher la vérité derrière des sourires diplomatiques. Goma, Goma, une ville meurtrie, une région martyrisée par des guerres qui ne sont pas neutres. Et pourtant, vous, Kagamé, vous avez choisi d'être partie prenante de cette tragédie ».

    Les comptes qui partagent ce clip affirment qu’Ibrahim Traoré serait « très en colère contre son homologue rwandais pour son rôle dans la guerre à l’est de la RDC ».

    Détecter un deepfake

    En réalité, ce discours a été inventé de toutes pièces. Ibrahim Traoré n’a jamais prononcé ces mots. Nous avons consulté l’ensemble des canaux de communications officiels du pouvoir burkinabè et cette déclaration est introuvable. Il s’agit donc d’un deepfake, un hypertrucage généré par intelligence artificielle. L’image et le son ont été manipulés. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui.

    En observant attentivement la vidéo, on remarque plusieurs incohérences visuelles. D’abord, la synchronisation entre ses lèvres et les mots qu’il prononce n’est pas parfaite. Il y a parfois un décalage de quelques secondes. De plus, on retrouve ce même défaut au niveau du mouvement de ses paupières. Enfin, il y a cet homme visible derrière Ibrahim Traoré qui ne bouge pas d’un pouce durant toute la déclaration.

    L’élément le plus parlant reste l’une des mains du capitaine burkinabè qui ne compte pas cinq mais six doigts. Ces anomalies sont difficiles à distinguer sur l’écran d’un smartphone.

    À lire aussiComment RFI démasque les «deepfake» ?

    Hypertrucages en série

    Ce n’est pas la première fois qu’un deepfake d’Ibrahim Traoré devient viral sur les réseaux sociaux. Nous avions déjà épinglé une vidéo similaire en octobre dernier, dans le cadre de l’élection présidentielle au Cameroun. Cette fois, on pensait entendre Ibrahim Traoré critiquer le régime de Paul Biya. Mais, là encore, c’était un deepfake.

    À lire aussiPrésidentielle au Cameroun: attention à ce deepfake d’Ibrahim Traoré

    Grâce à une recherche par image inversée, nous avons pu remonter la piste de ce deepfake. Le primo-diffuseur est une chaîne YouTube baptisée Rêves Panafricains. Au gré de l’actualité, ce compte diffuse presque quotidiennement des hypertrucages d’Ibrahim Traoré. On pense l’entendre s'adresser à Donald Trump, Emmanuel Macron, Vladimir Poutine ou encore Kylian Mbappé.

    En légende de ces vidéos, un texte indique bien que le contenu a été généré numériquement. Un message difficile à trouver et volontairement ignoré par ceux qui partagent ce clip sur les réseaux sociaux.

    Résultat, ces deepfakes d’Ibrahim Traoré cumulent plusieurs millions de vues.

    続きを読む 一部表示
    3 分
まだレビューはありません