エピソード

  • Musiques artificielles: l'IA utilisée à des fins de propagande politique
    2025/03/28

    C’est un phénomène à la mode sur les réseaux sociaux : les musiques générées par intelligence artificielle. Le mode opératoire est simple, la voix d’un artiste mondialement connu est détournée pour chanter à la gloire d’un chef d’État. Ce phénomène monte en puissance sur le continent africain, et n’épargne aucune personnalités.

    Ces dernières semaines, presque toutes les stars du rap et du RnB ont été victimes de ce phénomène. Les voix de Beyoncé, Aya Nakamura, 50 Cent, Drake ou encore Ninho ont notamment été manipulées. Côté personnalités politiques, la plupart des chefs d’État africains ont eu le droit à leur musique artificielle : le Béninois Patrice Talon, le Sénégalais Bassirou Diomaye Faye ou encore le Guinéen Mamadi Doumbouya. Le dernier son en date, publié cette semaine, cible le capitaine burkinabè Ibrahim Traoré.

    Cette voix artificielle imite presque parfaitement celle du rappeur congolais Gims. Un autre audio en l’honneur du président ivoirien, Alassane Ouattara, circule également ces derniers jours.

    Cette fois-ci, c’est la voix du rappeur Booba qui a été détourné. En réalité, ces sons, qui se comptent par dizaines sur les réseaux sociaux, ne sont pas authentiques. Ils ont été générés via l’intelligence artificielle. Dans les faits, ni Gims ni Booba n’a fait l’éloge d’Ibrahim Traoré ou d’Alassane Ouattara en musique. Pour s’en rendre compte, il suffit de consulter les réseaux sociaux officiels des deux rappeurs.

    De YouTube aux autres réseaux sociaux

    D’après nos recherches, la plupart de ces musiques artificielles proviennent d’un petit nombre de chaînes YouTube qui diffusent régulièrement ce genre de contenus. Même s’il faut chercher pour la trouver, la mention « générée par IA » est bien présente dans la légende.

    Sur YouTube, ces contenus dépassent rarement les 100 000 vues, au contraire de TikTok, Facebook et Instagram où certaines d’entre elles dépassent les cinq millions de vues. Le problème réside dans le fait que les comptes qui repartagent ces musiques inauthentiques ne mentionnent pas l’utilisation de l’intelligence artificielle.

    Ce qui a été généré initialement à des fins humoristiques, se retrouve utilisé à des fins de désinformation. Des comptes très influents se servent de ces infox pour faire de la propagande et les commentaires montrent que des milliers d’utilisateurs tombent dans le panneau.

    Des contenus illégaux

    En utilisant les bons outils, il est possible de générer rapidement et gratuitement ce type de musique artificielle. On peut donc faire dire ce que l’on veut à n'importe quel artiste. Mais attention, certaines législations encadrent la pratique.

    En France, l’article 226-8 du Code pénal puni d’un an et de 15 000 € d’amende « le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, le montage réalisé avec les paroles ou l'image d'une personne sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un montage ou s'il n'en est pas expressément fait mention. Est assimilé à l'infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l'image ou les paroles d'une personne, sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un contenu généré algorithmiquement ou s'il n'en est pas expressément fait mention ». La plupart des publications sont donc illégales.

    続きを読む 一部表示
    3 分
  • Canada: le Premier ministre Mark Carney visé par une campagne de désinformation
    2025/03/21
    Alors que le Canada se tourne vers l'Europe pour tenter de faire front à Donald Trump, qui multiplie les déclarations hostiles à Ottawa, des photos discréditant le nouveau Premier ministre libéral, Mark Carney, ont fait leur apparition sur les réseaux sociaux. Ces images trompeuses, fabriquées de toutes pièces, font suite à une campagne de désinformation visant le nouveau chef du gouvernement, à quelques semaines d'élections fédérales anticipées qui devraient être annoncées officiellement ce dimanche 23 mars. La formule de désinformation la plus courante consiste à faire apparaître le candidat libéral devenu Premier ministre du Canada, le 14 mars 2025, en compagnie de personnalités sulfureuses, comme l'explique l'AFP. Une photo a particulièrement retenu notre attention. Elle fait penser à une photo de vacances, mais on y verrait Mark Carney assis sur une chaise de plage aux côtés de l'acteur américain Tom Hanks et de Ghislaine Maxwell, la petite amie de Jeffrey Epstein.Jeffrey Epstein est un tristement célèbre homme d'affaires et criminel sexuel accusé d'avoir réduit en esclavage des dizaines de jeunes filles au profit de la haute société américaine. Ce prédateur a été retrouvé mort dans sa cellule en 2019, alors qu'il attendait d'être jugé pour trafic de mineurs. Mais son image toxique est régulièrement employée sur les réseaux pour discréditer tous ceux qui sont prétendument apparus à ses côtés. Idem pour l'image de son ex-compagne Ghislaine Maxwell, considérée comme la co-organisatrice du trafic et condamnée à 20 ans de prison en 2022, avant de faire appel.Une campagne lancée début 2025Fin janvier déjà, était apparue une photo trompeuse, censée montrer Mark Carney aux côtés de Jeffrey Epstein dans la piscine de la propriété du milliardaire. Cette image, non datée, avait été relayée par plusieurs comptes de la sphère pro-Trump.On estime qu'elle a été vue plus de 200 000 fois, rien que sur X. La photo est apparue pour la première fois en ligne en janvier, lorsque l'ancien Premier ministre Justin Trudeau a annoncé sa démission et lancé la course à la direction du Parti libéral. Elle est devenue virale peu après la victoire de Mark Carney à la tête du parti, le 9 mars. La plateforme Disinfowatch pointe pour sa part la responsabilité de la propagande russe. Une image générée par IAL'image en question est plutôt bien faite. Ses auteurs en ont volontairement dégradé la qualité afin de brouiller les pistes. Toutefois, si on s'attarde sur l'arrière-plan, on distingue plusieurs incohérences. Les filles en maillot de bain ont le visage déformé et l'avant-bras de l'une des baigneuses (sur la gauche de l'image) a une forme en « S » qui ne correspond à la réalité. De plus, même en prenant en compte le phénomène de réfraction de la lumière dans l'eau de la piscine, le bras de Mark Carney apparaît surdimensionné à l'image. Il s'agit d'une infox, comme le détaillent les équipes du collectif Newsguard.Constat similaire sur la photo avec Tom Hanks et Ghislaine Maxwell. Là encore, les doigts sont déformés, et une partie du siège est manquant sous la cuisse droite de Mark Carney. Enfin, si on effectue une recherche par image inversée, on s'aperçoit aussi que cette image a déjà été partagée en ligne, qu'elle porte en bas à droite la mention « Grok ». C'est la signature de l'intelligence artificielle générative d'Elon Musk.Une part d'ambiguïtéEn effectuant des recherches, on retrouve une photo a priori authentique de Mark Carney, à deux pas de Ghislaine Maxwell. Cette photo a refait surface sur les réseaux en janvier 2025, mais elle date de 2013. Mark Carney, alors gouverneur de la Banque d'Angleterre, avait été photographié lors d'un festival avec sa femme Diana Fox et d'autres personnalités de la société mondaine britannique, dont Ghislaine Maxwell. Lors de la republication, l'équipe de campagne de Carney a démenti tout lien affirmant que Carney et Maxwel « ne sont pas amis ».À lire aussiCanada: le Premier ministre Mark Carney va annoncer des législatives anticipées pour le 28 avril
    続きを読む 一部表示
    4 分
  • Syrie: la désinformation s'ajoute aux violences subies par la communauté alaouite
    2025/03/14
    Depuis le 6 mars, il ne se passe pas un jour en Syrie sans que de nouvelles images viennent documenter les exécutions de masses qui ont visé la minorité alaouite. Les ONG estiment que plus d'un millier de civils ont été tués. Certaines images sont d’une rare violence. Mais dans ce flot d’images répandues sur les réseaux sociaux, il y a aussi beaucoup d’infox. Ce mélange de documents authentiques et d’images anciennes accentue la confusion, et alimente les tensions communautaires. Depuis la semaine dernière, la cellule Info Vérif de RFI a passé en revue des dizaines de vidéos. Une nouvelle fois, on a assisté à une véritable guerre de l’information autour des massacres survenus dans les villes et les villages de la côte syrienne et de la montagne dans l'ouest du pays. Ce déchaînement de violence laisse des traces sur les réseaux sociaux. On peut y lire beaucoup de commentaires : des condamnations à propos de la responsabilité des nouvelles autorités de Damas, mais aussi une forme de satisfaction affichée par certains qui tentent de légitimer ces actes de vengeances après quatorze ans de guerre civile, et après cinquante-quatre ans de domination alaouite sous le régime el-Assad, père et fils. Dès le vendredi 7 mars, nous avons été confrontés à une multitude de vidéos, provenant de comptes plus au moins fiables. Des images de véritables exécutions sommaires visant la communauté alaouite, parfois combinées à des infox qui ont été relayées et amplifiées par des comptes pro-israéliens, pro-russes ou anti-occidentaux afin de discréditer les nouveaux maîtres de Damas.Ces images choquantes et ces prises de positions ne sont que très peu modérées sur la plateforme X. Certaines vidéos apparaissent régulièrement sur des chaînes Telegram avant de se répandre sur le réseau social d’Elon Musk.Désinformation multiformeDes documents truqués circulent, comme ce faux communiqué attribué à Hayat Tahrir al-Sham (HTS), la formation rebelle qui a pris le pouvoir fin 2024. Un prétendu texte officiel en arabe censé demander aux partisans de HTS de ne plus filmer les exactions dont ils seraient les auteurs. C’est un faux. Vérification faite, il s’agit d’un trucage réalisé à partir d’un communiqué du ministère syrien de la Défense datant du mois dernier. Ce faux a été vu plus de 150 000 fois, rien que sur X.On trouve par ailleurs beaucoup d’images sorties de leur contexte afin de tromper le public et attiser les tensions, par exemple, l’image d’un supplicié attaché à une croix et abattu d’une balle en pleine tête. Les auteurs du post affirment que HTS a entamé une campagne d’élimination des chrétiens. Une recherche par image inversée permet d’établir que cette scène d’exécution remonte en réalité à 2015 et ne se déroulait pas sur la côte syrienne, mais dans la Ghouta, près de Damas.Autre exemple, une rumeur a circulé annonçant la mort d’un haut représentant chrétien de l’Église de Tartous. Démenti formel des autorités religieuses qui assurent qu'elles ne connaissent personne répondant au nom du prêtre cité dans l'infox.Des infox comme celles-ci, il y a en des dizaines sur les réseaux sociaux depuis la semaine dernière. Toutefois, ce constat ne doit pas minimiser la portée des exactions réelles commises ces derniers jours. Les autorités de Damas ont d'ailleurs annoncé la formation d’une « Commission d’enquête indépendante sur les exactions contre les civils, afin d’identifier les responsables et de les traduire en justice ». Les autorités ont communiqué sur l'arrestation d'au moins sept personnes depuis lundi, accusées d'avoir commis des exactions contre des civils, et les ont déférées devant la justice militaire.Un moment propice aux tentatives de déstabilisationLa désinformation n’est pas nouvelle en Syrie, mais elle n’a pas disparu avec la fin du régime Assad. Selon la plateforme de fact-checking « Misbar » qui fournit un gros travail de vérification et d’analyse sur le Moyen-Orient, un réseau de comptes suspects, très actifs depuis l'effondrement du régime syrien propagent « des discours de haine et incitent à la violence sectaire en exacerbant les divisions au sein de la société syrienne à un moment critique ». Prudence donc à propos de ce qu'on peut voir, lire ou entendre concernant les évènements en cours en Syrie.
    続きを読む 一部表示
    4 分
  • Ukraine: Volodymyr Zelensky dans l’œil de la désinformation pro-russe
    2025/03/07

    Une semaine après l’altercation entre Donald Trump, JD Vance et Volodymyr Zelensky à la Maison Blanche, le contexte informationnel autour des relations entre les deux pays s’est particulièrement tendu. Énormément de fausses informations circulent sur les réseaux sociaux. Cible prioritaire de cette campagne de désinformation, le président ukrainien est attaqué de toutes parts, à tel point qu’il est difficile de distinguer le vrai du faux.

    Le dernier exemple de cette campagne de dénigrement est une vidéo montrant Volodymyr Zelensky dans une usine d’armement aux États-Unis. Accompagné de Josh Shapiro, le gouverneur de l’État de Pennsylvanie, on le voit signer le corps d’un obus de 155 mm. En commentaire, les utilisateurs qui partagent ces images écrivent : « avant d’avoir de la sympathie pour Zelensky, n’oubliez pas qu’il a signé, avec le sourire, des bombes destinées à être larguées sur des enfants dans la bande de Gaza ». Au total, ce récit a été vu plusieurs millions de fois ces derniers jours.

    Vérification faîte, ces images n’ont rien à voir avec la bande de Gaza. Ces obus signés par Volodymyr Zelensky étaient en réalité destinés à l’armée ukrainienne et non aux soldats israéliens. En effectuant une recherche avec les mots clés « Volodymyr Zelensky », « Josh Shapiro » et « Pennsylvanie », on retrouve cette vidéo publiée sur la chaine YouTube de l’Agence France Presse, le 23 septembre 2024.

    Le président ukrainien était en déplacement en Pennsylvanie où il a visité l’usine de munitions de l'armée de Terre de Scranton qui a fourni l’Ukraine en obus de 155 mm. Un compte-rendu détaillé de sa visite est disponible sur le site internet de la présidence ukrainienne.

    Volodymyr Zelensky en costume ?

    Largement commentée lors de sa visite à la Maison Blanche, la tenue du président ukrainien fait aussi l’objet de nombreuses rumeurs. Si Volodymyr Zelensky s’est engagé à ne plus porter de costume avant la fin de la guerre, certains affirment, photo à l’appui, qu’il aurait récemment dérogé à la règle lors d’une rencontre avec Klaus Schwab, le fondateur du Forum de Davos. « Voilà ce qui se passe quand on rencontre son vrai patron », commentent plusieurs utilisateurs adeptes des théories complotistes et de la propagande pro-russe.

    Sauf que là encore, cette image est sortie de son contexte. Une recherche par image inversée permet de retrouver l’origine de ce cliché. Il a été pris le 22 janvier 2020 lors de la 50ᵉ édition du forum économique. L’invasion à grande échelle de l’Ukraine par la Russie n’avait pas commencé, ce qui explique le costume porté par Volodymyr Zelensky.

    La propagande par l’humour

    Au-delà de ces infox, certains se servent aussi de l’humour pour dénigrer l’image du président ukrainien. Ces derniers jours, les vidéos de Volodymyr Zelensky, modifiées grâce à l’intelligence artificielle, se sont multipliées sur les réseaux sociaux. On peut le voir sur Fox News en train d’évoquer son addiction à la cocaïne, ou encore face à Donald Trump en train de proposer des actes sexuels contre de l’argent pour son pays.

    Si ces contenus sont pris au second degré, le message de fond, lui, n’a pas été choisi au hasard. Le narratif est toujours aligné sur ce que diffusent les propagandistes russes depuis maintenant plus de trois ans. L’analyse de la propagation de ces vidéos artificielles montre d’ailleurs l’implication directe d’acteurs déjà maintes fois identifiés comme des relais de la propagande du Kremlin.

    続きを読む 一部表示
    3 分
  • Algérie: fausses rumeurs de coup d’État sur fond de lutte informationnelle régionale
    2025/02/28

    En Algérie, de fausses rumeurs de coup d’État circulent sur les réseaux sociaux. Plusieurs comptes affirment, à tort, que le régime d’Abdelmadjid Tebboune aurait été renversé par l’armée ce mardi 25 février. Cette fausse information, diffusée par des utilisateurs étrangers, est un nouvel exemple de la lutte informationnelle grandissante qui se joue dans la région.

    Cette rumeur s’est répandue en ligne ce mardi 25 février 2025 après la publication sur TikTok d’une série de vidéos par un compte pro-malien relativement influent, comptant près d’un million d’abonnés et plus de 6 millions de likes. L’homme, reconnaissable avec son béret rouge, se filme face caméra. Il annonce alors « un coup d’État en Algérie. Voici les images. Selon l’explication, le pouvoir algérien d’Abdelmadjid Tebboune a été renversé aujourd’hui à 4 h du matin ».

    Pour appuyer son récit, plusieurs images défilent derrière lui. On y voit des milliers de manifestants défilant sous des drapeaux vert et blanc, suivi d’une revue des troupes de la part du Général d'Armée algérien, Saïd Chanegriha. À en croire le commentaire, c’est lui qui aurait pris le pouvoir par la force. Vérification faîte, tout est faux.

    Aucun coup d’État à signaler

    Dans les faits, il n’y a pas eu de coup d’État en Algérie ces derniers jours. Abdelmadjid Tebboune n’a pas été chassé du pouvoir. On a d’ailleurs pu le voir ce mardi 25 février, à Alger, au côté du ministre nigérien des Affaires étrangères et de la Coopération, Bakary Yaou Sangaré. L’armée ne s’est pas rebellée, la rumeur a simplement été fabriquée de toutes pièces.

    Sur la forme aussi, il y a manipulation. Comme c’est souvent le cas, les images présentées comme des « preuves » sont sorties de leur contexte. Grâce à une recherche par image inversée, on sait que la vidéo montrant des manifestants a été filmée dans les rues d’Alger en octobre 2019.

    Nous l’avons géolocalisée au niveau de la rue Asselah Hocine, à côté de l’Assemblée populaire nationale. Quant à la revue des troupes du général Saïd Chanegriha, la vidéo est bien récente, mais elle montre en réalité la cérémonie d’installation officielle du nouveau Commandant de l’armée de l’air, le Général-major Zoubir Ghouila. Ces images n’ont donc rien à voir avec un supposé coup d’État.

    Prolifération des fausses rumeurs de coup d’État

    Ce n’est pas la première fois que de fausses rumeurs de coup d'État circulent sur le continent africain. La Côte d’Ivoire, le Bénin, la Guinée et l’Algérie en ont notamment été victimes ces derniers mois. Ces rumeurs sont devenues un véritable moyen de déstabilisation informationnel à part entière.

    La recette est plutôt simple, mais les chiffres de viralité montrent que ces infox parviennent toujours à toucher une audience conséquente. Les commanditaires de ces opérations de désinformation l’ont visiblement bien compris.

    À lire aussiLa Côte d’Ivoire sous le feu des attaques informationnelles

    Luttes informationnelles

    Sur fond de guerre d’influence grandissante au Sahel et au Sahara, le contexte informationnel s’est particulièrement tendu ces derniers mois. Cela explique en partie l’augmentation de ce type d’opérations. Des comptes pro-maliens, pro-algériens ou pro-marocains notamment s’affrontent quotidiennement sur les réseaux sociaux en diffusant de fausses informations pour déstabiliser le voisin. La première victime de cette bataille numérique reste l’information fiable et vérifiée.

    続きを読む 一部表示
    3 分
  • Allemagne: une campagne de désinformation cible les élections législatives du 23 février
    2025/02/21
    Selon des chercheurs spécialisés dans la lutte contre la désinformation, une centaine de faux sites en langue allemande sont actifs depuis fin 2024, relayant des messages anti-immigration ou eurosceptiques, favorables à l’AfD, le parti allemand d’extrême droite. Dernier épisode de cette campagne coordonnée, la diffusion d’une vidéo mettant en scène des électeurs qui se plaignent de ne pas trouver le nom du candidat de l’AfD sur les bulletins du vote par correspondance. Une manœuvre informationnelle similaire à celle enregistrée avant la présidentielle aux États-Unis fin 2024. L'infox vise particulièrement le processus électoral en Saxe. Dans cette région, l'extrême droite a connu une forte poussée lors des dernières élections. L'infox prend la forme d’une vidéo rassemblant plusieurs faux témoignages  de prétendus électeurs ou électrices qui s’étonnent de ne pas trouver le nom du représentant de l’AfD sur les bulletins de la circonscription de Leipzig, qu’ils viennent de recevoir par la poste. À l’image, on ne voit que leurs mains, et on les entend s’interroger sur l’ordre d'apparition des candidats et l’absence des têtes de listes de l’alternative pour l’Allemagne. Les commentaires évoquent : « une tentative destinée à faire perdre l’AfD et un sabotage du processus démocratique ».Un faux bulletin pour induire en erreur le public En faisant un arrêt sur image, on distingue bien un papier à en-tête sur lequel est inscrit « Stimmzetell » ce qui signifie « bulletin ». On peut aussi lire « Leipzig » et ensuite un peu plus bas, il y a des cases à remplir pour cocher la liste et le candidat de son choix. Effectivement sur la vidéo trompeuse, pas de trace de l’AfD, alors qu’on trouve les emplacements réservés à la CDU, les chrétiens démocrates ou le SPD les sociaux-démocrates par exemple.Une simple recherche sur le site de la mairie de cette ville permet de savoir exactement à quoi ressemble le bulletin de vote par correspondance de dimanche. On peut récupérer un fichier Pdf du modèle de bulletin. De toute évidence, il est différent du papier brandit par les pseudos électeurs mécontents. Sur ce bulletin officiel apparaît bien le nom du candidat de l’AfD tout en haut de la colonne. Un mode opératoire déjà connuCela rappelle une autre tentative de déstabilisation, survenue aux États-Unis il y a quelques mois : une vidéo qui laissait penser à tort à la destruction de bulletins par correspondance en Pennsylvanie. Depuis jeudi, une vidéo identique circule pour accréditer l’idée de fraudes, cette fois-ci en Allemagne, dans la région de Hambourg. Tous les regards convergent vers le réseau de Mark Dougan. Il aurait produit cette fausse information afin de saper la confiance des électeurs allemands. Précisément, la même méthode avait été employée à l’approche de l’élection américaine, nous l'avions détaillée ici au mois de novembre dernier.Mark Dougan et la désinformation russeMark Dougan est un influenceur américain, ancien Shérif de Floride exilée en Russie pour échapper à des poursuites dans son pays, mais c’est surtout un « troll » qui sert la propagande du Kremlin via les services de renseignements russes. Selon l’organisation américaine Newsguard et le média allemand Correctiv, on leur doit une campagne de désinformations basée sur de faux reportages diffusés avant les élections en Allemagne. Une série d'infox destinées à discréditer la classe politique de ce pays via des mises en scène outrancières dans desvidéos faisant souvent appel à des outils d'intelligence artificielle générative. Des contenus relayant des narratifs similaires ont également fait leur apparition sur des sites « miroirs » de médias allemands. D’anciens journaux en ligne dont l’identité a été usurpée pour faire croire à des articles authentiques.
    続きを読む 一部表示
    4 分
  • Égypte - États-Unis: la désinformation s’immisce dans les tensions diplomatiques sur Gaza
    2025/02/14

    En Égypte, la tension monte avec les États-Unis au sujet de l’avenir de la Bande de Gaza. Le Caire refuse catégoriquement le plan de Donald Trump qui souhaite déplacer les Gazaouis en Jordanie et en Égypte. En conséquence, le président américain menace d’arrêter les aides versées aux deux pays. Sur les réseaux sociaux, certains diffusent des infox pour semer la confusion et alimenter ces tensions.

    Ces derniers jours, une vidéo montrant le président tunisien au côté de son homologue égyptien, Abdel Fattah al-Sissi, est devenue virale sur les réseaux sociaux. Dans ce qui ressemble à une conférence de presse, Kaïs Saïed s’exprime durant vingt-secondes derrière son pupitre, dans un luxueux palace. On croit alors l’entendre dire, en arabe, « Je suis venu en Égypte pour soutenir mon frère, le président Abdel Aziz al-Sisi, et je dis à Trump : n'essayez pas de jouer avec le président Abdel Aziz ». Un bandeau textuel apposé sur ces images, semblable à ceux utilisés par les chaînes d’information en continu, affirme que « le président tunisien soutient Sissi et menace Trump ». En réalité, le président tunisien n’a jamais tenu de tels propos. Cette déclaration a été inventée de toutes pièces grâce à l’intelligence artificielle.

    Les ressorts de la manipulation

    Une rapide analyse visuelle montre que le mouvement de ses lèvres ne correspond pas avec les mots qu’il prononce. Les détecteurs d’intelligence artificielle que nous avons utilisés confirment également qu’il s’agit d’un deepfake, un hypertrucage synthétique.

    Grâce à une recherche par image inversée (voir ici comment faire), on sait que la vidéo originale qui a été manipulée date du 10 avril 2021. C’était la première visite officielle du président tunisien en Égypte. Les deux chefs d’État avaient discuté de leur coopération économique, culturelle et sécuritaire, mais à aucun moment Kaïs Saïed n’évoque la Bande de Gaza ni ne menace Donald Trump.

    Si on ne sait pas qui est à l’origine de cette manipulation, ce deepfake est poussé par différents comptes très populaires dans le monde arabe. Certains cumulent plus de 690 000 abonnés. Résultat, l’infox a rapidement dépassé le million de vues, rien que sur X (ex-Twitter).

    Kim Jong-un ciblé par les infox

    Le président tunisien n’est pas le seul dirigeant ciblé par les fausses informations. Une rumeur populaire prétend que Kim Jong-un aurait apporté son soutien à l’Égypte face aux pressions de Washington. Cette infox repose sur une vidéo dans laquelle un journaliste semble affirmer, en arabe, que « si l'Égypte est attaquée, cette attaque sera considérée comme une déclaration de guerre à la Corée du Nord ».

    Vérification faite, cette déclaration est sortie de son contexte. Cet extrait d’une vingtaine de secondes est bien réel, mais il est trompeur. En faisant une recherche par mots-clés, on retrouve la vidéo dans son intégralité sur YouTube. Il s’agit d’une chronique de fact-checking publiée par la chaîne de télé Al Araby, le 18 janvier 2020. Durant près de trois minutes, le journaliste présente et vérifie cette fausse information : quelqu’un a simplement isolé le moment où il lisait la déclaration qu’il allait démentir, pour faire croire, à tort, que c’était vrai.

    Cette manipulation est un classique de la désinformation, mais reste malheureusement toujours aussi efficace.

    続きを読む 一部表示
    3 分
  • Politique et IA: quand les images trompeuses brouillent le débat public
    2025/02/07

    Alors que les outils d’IA génératives se perfectionnent de jour en jour, les images synthétiques ciblant des personnalités politiques de premier plan se multiplient, au point, parfois, de tromper la vigilance de certains médias. Ces derniers jours, deux fausses photos ciblant Donald Trump et le premier ministre britannique, Keir Starmer, ont ainsi semé le trouble sur les réseaux sociaux.

    Si vous suivez l’actualité américaine, vous avez probablement vu passer cette image montrant le président américain aux côtés du Premier ministre israélien Benyamin Netanyahu et du patron de X, Elon Musk. Les trois hommes, en costume, prennent la pose, debout, tout sourire, dans ce qui ressemble à un salon de la Maison Blanche ou à un luxueux palace. À en croire ceux qui la partagent sur les réseaux sociaux, cette « photo » aurait été prise au moment de la visite de Benyamin Netanyahu à Washington, ce mardi 4 février 2025.

    Vérification faîte, cette photo n’est pas réelle. Elle a été générée via un outil d’intelligence artificielle générative. En remontant à la source de cette image, grâce à plusieurs recherches par image inversée (voir ici comment faire), on retrouve son auteur qui précise bien en commentaire « image créée à l'aide de l'IA ».

    Cela confirme les résultats des différents détecteurs d’IA que nous avons utilisés.

    Des incohérences visuelles

    Plusieurs éléments visuels permettent aussi de repérer des incohérences caractéristiques de l’utilisation de l’intelligence artificielle. Comme souvent, l’IA pêche au niveau des mains. Les doigts des trois hommes sont déformés avec plein de bourrelets. En arrière-plan, un homme semble également ne pas avoir de visage.

    Malgré ça, l’image reste très crédible et il est facile de tomber dans le panneau. Plusieurs médias italiens l’ont d’ailleurs publié telle quelle, en Une de leur site internet, pour illustrer la rencontre entre le président américain et le Premier ministre israélien.

    Si Benyamin Netanyahu a bien rencontré Elon Musk et Donald Trump, aucune photo ne les montre ensemble dans la même pièce.

    Keir Starmer ciblé par des images manipulées

    Le Premier ministre britannique a pareillement été ciblé par des images artificielles. Une image le montrant en train de déguster un homard dans un restaurant luxueux cumule actuellement des millions de vues sur les réseaux sociaux, X en tête. Des internautes s’en servent pour s’attaquer à la politique sociale menée par cet homme politique de gauche.

    Sauf que là encore, cette image a, en réalité, été générée par l’intelligence artificielle. Plusieurs éléments le prouvent, à commencer par le logo de Grok, l’outil de génération d’images de X, visible en bas à droite de l’image. Ce tampon atteste de l’utilisation de l’IA. Pour le repérer, il est nécessaire d’ouvrir l’image en intégralité puis, parfois, de zoomer dans la zone concernée.

    Un poison lent

    Si elles peuvent paraître anodines, voire comiques pour certaines, ces images artificielles sont nocives pour nos sociétés puisqu'elles brouillent le débat public. L’analyse des échanges sur les réseaux sociaux montre que certains s’appuient sur ces fausses images, pour se forger une opinion. La frontière entre le vrai et le faux devient de plus en plus poreuse. Sur le long terme, ces infox laissent toujours des traces. Cela aboutit à installer un doute permanent, mais aussi à faire émerger des réalités alternatives, dangereuses pour les démocraties.

    続きを読む 一部表示
    3 分