Episodios

  • Groenland: la désinformation accompagne les propos de Donald Trump
    Jan 9 2026
    Début janvier, le président américain Donald Trump a de nouveau tenu des propos hostiles envers les autorités danoises qui, selon lui, ne sont pas capables de défendre le Groenland face aux appétits chinois et russes en Arctique. Dans le même temps, sur les réseaux sociaux, des propos outranciers et des images détournées circulent dans le but de décrédibiliser l’armée danoise chargée d’assurer la sécurité de ce territoire. Le président américain parle d’une « priorité de sécurité nationale pour les États-Unis » afin de justifier son intention de faire main basse sur le Groenland, ce territoire situé non loin du pôle Nord, entre l’Europe et les États-Unis. Selon Donald Trump, « le Danemark ne fait rien pour la sécurité du Groenland (...) Ils ont seulement ajouté un traineau à chiens », a-t-il affirmé le 4 janvier devant quelques journalistes présents à bord de l’avion présidentiel Air Force One. Visiblement, cette histoire amuse beaucoup le président américain et pourtant, c’est une affaire très sérieuse. Après vérification, ces traineaux appartiennent à une unité spéciale danoise, baptisée patrouille Sirius et rattachée au commandement danois pour l'Arctique. Depuis 2012, ce commandement interarmées assure des missions militaires, des missions de garde-côtes et des interventions en cas de catastrophe, le tout au sein d'une seule organisation. L'unité Sirius est capable de mener des missions de surveillance à longue distance dans ce territoire glacial. Jusqu’alors, la patrouille Sirius disposait de six équipages avec deux hommes et de 11 à 15 chiens. De l’avis des experts, il s'agit du moyen le plus fiable pour opérer en autonomie dans une région du monde où les conditions météo sont extrêmement dures pendant l’hiver. Préoccupations stratégiques Une fois de plus, Donald Trump exagère beaucoup quand il dit « que le Danemark ne fait rien pour la sécurité du Groenland ». Ainsi, la Première ministre danoise Mette Frederiksen a immédiatement dénoncé ces propos en rappelant que Copenhague avait alloué l’an dernier 1,2 milliard d’euros à la sécurité de la région et pas seulement en achetant des traineaux. Mais aussi en se dotant, dans les années à venir, de drones, de navires spécialisés, de radars et d’avions de patrouille maritime tout en passant commande également de 16 chasseurs supplémentaires : des F-35, fabriqués aux États-Unis. Nuire à l’image de l’armée danoise L'armée danoise a été visée par des infox, ou des propos déplacés provenant le plus souvent des sphères pro-russe ou MAGA (Make America Great Again), proches du président Donald Trump. Comme ce compte qui diffuse une vidéo où l’on voit un soldat chuter en tentant de descendre d’un véhicule de transport de troupe. Commentaire moqueur : « Quand l’armée danoise débarque pour stopper l’invasion américaine du Groenland ». Vérification faite, l’image a été détournée. Elle montre des soldats suisses et non des forces spéciales danoises. Cette vidéo sortie de son contexte a été vue plus de deux millions de fois rien que sur ce compte. D’autres vidéos cherchent à tourner au ridicule l’équipement de l’armée danoise, ou laissent supposer que les soldats danois ne seraient pas assez virils. À lire aussiPeut-on contrer les volontés expansionnistes de Donald Trump ? Donald Trump a la mémoire courte Beaucoup d’utilisateurs rappellent que l’armée danoise n’a pas failli à ses engagements, soulignant qu'elle a perdu 44 soldats dans la mission de l’Otan en Afghanistan, aux côtés des États-Unis, dans les années 2010. Durant cette crise politico-diplomatique, les responsables danois ont utilisé les réseaux sociaux (dont le réseau X d'Elon Musk) avec beaucoup d'agilité, afin d'essayer de faire valoir leur point de vue. Sur son compte X, l’ambassadeur du Danemark à Washington conclut : « Le Danemark prend la sécurité dans l’Arctique très au sérieux (...) les États-Unis ont la possibilité d’établir des bases militaires supplémentaires au Groenland en vertu d’un traité datant de 1951. »
    Más Menos
    4 m
  • Non, cette vidéo ne montre pas une résidence de Vladimir Poutine attaquée par des drones ukrainiens
    Jan 2 2026

    En pleine négociation avec les États-Unis, la Russie accuse l’Ukraine d’avoir attaqué une résidence appartenant à Vladimir Poutine. Sans preuves tangibles, l’armée russe évoque un raid de 91 drones. Kiev et ses alliés dénoncent des mensonges destinés à saper les pourparlers diplomatiques en cours. Dans ce contexte, une vidéo générée par intelligence artificielle sème le doute sur les réseaux sociaux.

    La vidéo a dépassé les 10 millions de vues en seulement vingt-quatre heures. Durant quinze secondes, on y voit deux drones tirer un projectile sur une résidence luxueuse, située en pleine forêt. La toiture prend feu, pendant qu’un véhicule stationné sur le parvis essaye de prendre la fuite. Des éléments visuels comme l’heure, la date ou la mention « REC », poussent à croire, à tort, que ces images auraient été filmées par une caméra de surveillance.

    Les comptes qui diffusent ce clip parlent d’une « preuve » qui viendrait confirmer le narratif diffusé par le Kremlin. Mais vérification faite, ces images ne sont pas réelles. Cette vidéo a été entièrement générée par intelligence artificielle. Plusieurs incohérences visuelles le prouvent, à l’image de cette voiture qui roule à travers une fontaine et ne fait aucune trace sur la neige.

    On remarque, de plus, une explosion qui ne provoque aucun dégât, ou encore les secondes de l’horloge qui ne défilent pas dans le bon ordre.

    Désinformer pour combler le vide

    D’autres éléments prouvent l’utilisation d’un outil d’intelligence artificielle. Il y a la bande son, anormalement trop parfaite. On se croirait dans un film d’action alors que les micros des caméras de surveillance sont souvent de mauvaise qualité voire inexistants. Enfin, il ne faut pas oublier l’indicateur temporel. Cette vidéo dure précisément quinze secondes. C’est la durée standard permis par certains outils d’IA comme Sora 2 de la start-up américaine Open AI.

    À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox

    Derrière cette infox, on retrouve différents comptes influents, habitués à diffuser de la désinformation. Certains sont déjà identifiés comme des vecteurs importants de la propagande du Kremlin.

    L’auteur de cette infox a profité de la rareté des images liées à cette attaque présumée d’une résidence de Vladimir Poutine, pour viraliser son infox. Une stratégie payante, puisque cette vidéo artificielle cumule plus de 11 millions de vues. Mais contrairement à ce que certains affirment, le Kremlin n’a pas diffusé ce clip sur ses canaux de communication officiels.

    Aucune preuve tangible

    À ce stade, Moscou n’a apporté aucune preuve tangible. La vidéo d’un débris de drone diffusé par les autorités russes ne permet en aucun cas de confirmer l’existence de cette supposée attaque. Ces images ont été filmées en gros plan, de nuit, en plein milieu d’une forêt, rendant tout travail de vérification et de géolocalisation impossible. Les experts pointent l’absence d’images amateurs alors que la Russie affirme que 91 drones auraient survolé la région concernée. À ce stade, aucune preuve factuelle ne vient corroborer la version du Kremlin, démentie par Kiev et ses alliés.

    À lire aussiGuerre en Ukraine: quand la propagande pro-russe recourt aux vidéos artificielles

    Más Menos
    3 m
  • «Slop»: quand l’intelligence artificielle inonde les réseaux de contenus faux et absurdes
    Dec 26 2025

    En guise de mot de l’année 2025, le dictionnaire américain Merriam-Webster a choisi « slop ». Cette expression définit les contenus numériques de mauvaise qualité produits en masse par l’intelligence artificielle. Cette bouillie de photos absurdes, de sons loufoques, ou de vidéos plus ou moins réalistes, inondent les réseaux sociaux. Ces contenus « slop » polluent de plus en plus l’espace numérique, à tel point que le phénomène inquiète.

    Un chat avec la tête du président américain Donald Trump, une baleine qui mange un ours polaire, des bébés qui parlent comme des adultes. Si vous êtes un utilisateur de TikTok, Facebook, X ou Instagram, vous avez forcément déjà été confronté à du « slop ». Ces contenus, plus ou moins réalistes, sont très populaires sur les réseaux sociaux. Certains cumulent des dizaines voire des centaines de millions de vues.

    Grâce à leur caractère surréaliste, choquant ou humoristique, ces productions jouent sur nos émotions et attirent l’attention des utilisateurs. Les algorithmes l’ont bien compris, et amplifient donc artificiellement ce type de contenu. Cela aboutit à une saturation de l’espace informationnel sur les réseaux sociaux. Si certaines plateformes proposent des filtres pour échapper au « slop », la plupart surfent sur le phénomène.

    L’économie du « slop »

    Derrière ces contenus « slop », on retrouve différents acteurs qui ont saisi l’opportunité pour gagner de la visibilité et monétiser leur audience. Les derniers outils d’IA leur facilitent la tâche puisqu'il n’a jamais été aussi simple de créer ce type de contenus.

    Une véritable économie s’est donc mise en place autour de ce phénomène. Une vidéo vue près de 20 millions de fois peut vous rapporter, selon la plateforme, plus de 1 000 dollars. En Asie, plusieurs « fermes à slop » ont ainsi vu le jour ces dernières années.

    Quand le faux prend le dessus

    Si ça ne fait pas de mal de rigoler devant une vidéo loufoque, certains contenus artificiels posent problème, car ils prennent le dessus sur la réalité. Dans leur guerre au clic, certains producteurs de « slop » adaptent leur contenu à l'actualité et tombent dans la désinformation.

    C’est particulièrement le cas lors de catastrophes naturelles. Récemment, lors des inondations mortelles au Maroc, des dizaines de vidéos artificielles censées documenter la catastrophe ont circulé sur les réseaux sociaux. Pour le buzz, certains n’hésitent pas à générer des faux témoignages de victimes. Ces infox invisibilisent les vraies images, masquent les messages d’alerte des secours et bouleversent notre rapport à la réalité.

    Vers une auto-intoxication des IA ?

    Ces contenus artificiels omniprésents sur les réseaux sociaux pourraient-ils intoxiquer les intelligences artificielles qui les produisent ? C’est le risque pointé par plusieurs experts du numérique. Puisque les intelligences artificielles IA se nourrissent de ce qui circule en ligne, elles pourraient bel et bien finir par s'auto-intoxiquer.

    À cela s’ajoute aussi la prolifération des faux comptes se faisant passer pour des humains. Reste à savoir si les publics vont finir par se lasser de cette nouvelle esthétique, plus que jamais à la mode sur les réseaux sociaux.

    Más Menos
    3 m
  • Non, la Russie n’a pas abattu des avions de chasse français en Ukraine
    Dec 19 2025

    Réunis à Bruxelles, les dirigeants européens ont trouvé ce vendredi 19 décembre un accord pour financer l’effort de guerre de l’Ukraine, à hauteur de 90 milliards d’euros. Dans ce contexte, plusieurs fausses informations ciblent directement l’aide militaire à Kiev. La dernière infox en date, diffusée sur TikTok, s’attaque à la France et à ses avions de chasse.

    À en croire une série de vidéos mensongères diffusées sur les réseaux sociaux, la Russie aurait récemment « abattu plusieurs aéronefs français remis à Kiev ». La rumeur parle « d’appareils stratégiques livrés en cachette par Emmanuel Macron à Volodymyr Zelensky ». Certains évoquent, sans preuves, la destruction de Rafale, le chasseur polyvalent du constructeur français Dassault. Un narratif repris dans une dizaine de vidéos diffusées sur TikTok et vu plus de deux millions de fois.

    En réalité, tout est faux, de la livraison secrète de ces appareils à leur destruction au combat. Dans les faits, aucun avion de chasse français n’a été abattu par la Russie en Ukraine. L’armée russe n’a d’ailleurs jamais communiqué sur un tel événement.

    Aujourd’hui, les seuls avions de chasse fournis à l’Ukraine par la France sont des Mirage 2000. Selon Kiev, ces appareils sont majoritairement engagés dans des missions de défense aérienne pour contrer les vagues de drones et de missiles russes. Quant aux Rafale, la livraison d’appareils à l’Ukraine n’en est qu’au stade des tractations.

    Un réseau de désinformation

    Les images que l’on voit dans la vidéo sont toutes sorties de leur contexte. Les différentes séquences sont sans rapport avec la France et ses avions de chasse. L’une montre un char de combat américain Abrams en plein exercice. Une autre documente une patrouille de F-16 polonais en plein vol.

    À l’origine de cette infox, nous avons identifié un écosystème de comptes TikTok francophones, habitués à diffuser de la désinformation. Au gré de l’actualité internationale, ils diffusent chaque jour des vidéos sensationnalistes avec un titre et des images chocs, le tout accompagné d’une musique angoissante et d’une voix générée par intelligence artificielle.

    Ces comptes font tout pour se faire passer pour des médias. Leur nom, Info monde, Info Actuality, Info Paris, et leur photo de profil sont volontairement trompeurs. Ce verni cache en réalité un vaste réseau de désinformation.

    Désinformation et propagande

    Ces vidéos servent à saturer les réseaux sociaux de contenus trompeurs, souvent à la gloire de la Russie et de son armée. Les comptes à la manœuvre comptabilisent des millions de vues et des centaines de milliers de likes. Cette audience, conséquente, permet de viraliser la propagande du Kremlin et de monétiser des fausses informations produites en quantité industrielle.

    À lire aussiGuerre en Ukraine: une vague de faux journaux TV alimente la désinformation

    Más Menos
    3 m
  • RDC: cette vidéo d’Ibrahim Traoré critiquant Paul Kagame est un hypertrucage
    Dec 15 2025

    Alors que la République démocratique du Congo et le Rwanda ont signé un accord de paix la semaine dernière à Washington, les attaques ont repris dans l’est de la RDC. Le groupe armé AFC/M23, soutenu par Kigali, a investi la ville d’Uvira. Cette intensification des combats s’accompagne d’un regain de désinformation sur les réseaux sociaux, à l’image d’un « deepfake » viral du capitaine burkinabè Ibrahim Traoré.

    À en croire une vidéo mensongère devenue virale sur les réseaux sociaux ces dernières heures, Ibrahim Traoré aurait longuement critiqué le président rwandais Paul Kagame. Durant plus de cinq minutes, on y voit le chef de l’État burkinabè, béret rouge sur la tête, parler devant un micro.

    On pense alors l’entendre dire : « Paul Kagame. Aujourd'hui, je parle au nom des millions d'Africains qui n'acceptent plus le sang versé et les mensonges répétés. Aujourd'hui, je ne parle pas seulement à un chef d'État, je parle à celui qui croit pouvoir manipuler les peuples et cacher la vérité derrière des sourires diplomatiques. Goma, Goma, une ville meurtrie, une région martyrisée par des guerres qui ne sont pas neutres. Et pourtant, vous, Kagamé, vous avez choisi d'être partie prenante de cette tragédie ».

    Les comptes qui partagent ce clip affirment qu’Ibrahim Traoré serait « très en colère contre son homologue rwandais pour son rôle dans la guerre à l’est de la RDC ».

    Détecter un deepfake

    En réalité, ce discours a été inventé de toutes pièces. Ibrahim Traoré n’a jamais prononcé ces mots. Nous avons consulté l’ensemble des canaux de communications officiels du pouvoir burkinabè et cette déclaration est introuvable. Il s’agit donc d’un deepfake, un hypertrucage généré par intelligence artificielle. L’image et le son ont été manipulés. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui.

    En observant attentivement la vidéo, on remarque plusieurs incohérences visuelles. D’abord, la synchronisation entre ses lèvres et les mots qu’il prononce n’est pas parfaite. Il y a parfois un décalage de quelques secondes. De plus, on retrouve ce même défaut au niveau du mouvement de ses paupières. Enfin, il y a cet homme visible derrière Ibrahim Traoré qui ne bouge pas d’un pouce durant toute la déclaration.

    L’élément le plus parlant reste l’une des mains du capitaine burkinabè qui ne compte pas cinq mais six doigts. Ces anomalies sont difficiles à distinguer sur l’écran d’un smartphone.

    À lire aussiComment RFI démasque les «deepfake» ?

    Hypertrucages en série

    Ce n’est pas la première fois qu’un deepfake d’Ibrahim Traoré devient viral sur les réseaux sociaux. Nous avions déjà épinglé une vidéo similaire en octobre dernier, dans le cadre de l’élection présidentielle au Cameroun. Cette fois, on pensait entendre Ibrahim Traoré critiquer le régime de Paul Biya. Mais, là encore, c’était un deepfake.

    À lire aussiPrésidentielle au Cameroun: attention à ce deepfake d’Ibrahim Traoré

    Grâce à une recherche par image inversée, nous avons pu remonter la piste de ce deepfake. Le primo-diffuseur est une chaîne YouTube baptisée Rêves Panafricains. Au gré de l’actualité, ce compte diffuse presque quotidiennement des hypertrucages d’Ibrahim Traoré. On pense l’entendre s'adresser à Donald Trump, Emmanuel Macron, Vladimir Poutine ou encore Kylian Mbappé.

    En légende de ces vidéos, un texte indique bien que le contenu a été généré numériquement. Un message difficile à trouver et volontairement ignoré par ceux qui partagent ce clip sur les réseaux sociaux.

    Résultat, ces deepfakes d’Ibrahim Traoré cumulent plusieurs millions de vues.

    Más Menos
    3 m
  • États-Unis-Venezuela: la désinformation alimente les tensions
    Dec 5 2025

    Dans les Caraïbes, la présence de l’armée américaine depuis plusieurs mois suscite de vives tensions avec le Venezuela. Washington y a déployé des navires de guerre, officiellement pour lutter contre le narcotrafic. De son côté, Caracas dénonce une agression en préparation et multiplie les manœuvres militaires. Si Donald Trump et Nicolás Maduro se sont téléphoné, la situation reste volatile. Une crise à laquelle s’ajoute un flot de désinformation.

    À en croire plusieurs vidéos mensongères diffusées sur les réseaux sociaux ces derniers jours, les États-Unis auraient « déjà déclaré la guerre au Venezuela ». Le clip le plus viral cumule plus de 7 millions de vues. Durant trente secondes, on pense y voir un groupe de soldats vénézuéliens paniqués, en bord de mer. Impuissants, ils observent l’arrivée de plusieurs navires de guerre et d’avions de chasse, prétendument américains. L’un d’eux allume même une fusée de détresse.

    En réalité, cette vidéo n’est pas réelle. Plusieurs éléments montrent que ces images ont été générées par intelligence artificielle. Visuellement, on remarque plusieurs incohérences. Un objet apparaît sans raison dans la main de l’un des soldats. Un texte étrange, illisible, est inscrit sur la fusée de détresse. De plus, les navires de guerre sont beaucoup trop proches de la côte.

    Trouver le primo-diffuseur

    Grâce à une recherche par image inversée (voir ici comment faire) nous avons retrouvé le primo-diffuseur, c’est-à-dire le compte à l’origine de ces images. Il s’agit d’un créateur TikTok, hispanophone, habitué à diffuser des fausses informations. Lui-même indique que cette vidéo a été générée par une IA. Ce message d'avertissement est volontairement ignoré par les comptes qui repartagent sa vidéo.

    L’indicateur temporel est un autre élément de vérification. En effet, la vidéo est composée de trois séquences de dix secondes chacune, mises bout à bout. C’est la durée standard d’une vidéo générée par les outils d’IA les plus populaires.

    À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox

    Un exercice militaire en 2020

    Au-delà de ce type de contenus artificiels, nous avons également identifié plusieurs vidéos sorties de leur contexte, à l’image de cet extrait montrant des soldats vénézuéliens, sur le toit d’un immeuble à Caracas. Sous l'œil des journalistes, ils s’entraînent à utiliser des MANPADS, des systèmes portatifs de défense antiaérienne. Ici, ce sont de vieux modèles russes, type Igla 1.

    Les comptes qui diffusent ces images parlent d’une scène filmée ces dernières semaines. Vérification faite, c’est faux puisque nous avons retrouvé cette même vidéo publiée par des médias hispanophones, il y a plus de cinq ans, en février 2020. C’était dans le cadre d’un exercice militaire baptisé Bouclier bolivarien.

    Semer la peur

    Les tensions entre les États-Unis et le Venezuela sont un sujet porteur sur les réseaux sociaux. Avec ces fausses informations, certains cherchent donc, par opportunisme, à surfer sur la crise pour faire des vues et monétiser leur audience. D’autres cherchent véritablement à attiser les tensions en semant le doute et la peur.

    Más Menos
    3 m
  • RDC: cette vidéo de Marine Le Pen critiquant Félix Tshisekedi est un hypertrucage
    Nov 28 2025

    En République démocratique du Congo, une vidéo mensongère de Marine Le Pen sème le doute sur les réseaux sociaux. Certains affirment, à tort, qu’elle montrerait la présidente du Rassemblement National critiquer Félix Tshisekedi. Vérification faite, il s’agit là d’une nouvelle infox destinée à dénigrer le président congolais.

    C’est un de nos auditeurs qui a lancé l’alerte. À en croire cette vidéo, Marine Le Pen aurait récemment pris la parole à propos de la situation politique en République démocratique du Congo. Les images montrent la présidente du Rassemblement National lors d’un discours à l’Assemblée nationale, en France. On pense alors, à tort, l’entendre critiquer le président congolais.

    Cet extrait, vu plusieurs millions de fois, circule sur TikTok, Facebook, X, YouTube et WhatsApp.

    Un hypertrucage ultra-réaliste

    En réalité, Marine Le Pen n’a jamais tenu ces propos. Cette vidéo est un deepfake, un hypertrucage sonore généré par intelligence artificielle. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui en seulement quelques clics. Si l’on regarde bien la vidéo, on remarque que le mouvement de ses lèvres ne colle pas avec l’audio. L’auteur s’est donc contenté de manipuler le son, mais pas l’image.

    Grâce à une recherche par image inversée, nous avons retrouvé l’origine précise de ces images. Elles sont tirées du discours tenu par Marine Le Pen à l’Assemblée nationale, le 16 octobre 2025. Son parti venait de déposer une motion de censure infructueuse contre le gouvernement de Sébastien Lecornu.

    Sans surprise, durant les quatorze minutes de prise de parole, la cheffe de file du Rassemblement National n’y évoque à aucun moment la RDC ou son président Félix Tshisekedi.

    Un mode opératoire à la mode

    Ce n’est pas la première fois qu’un deepfake d’une personnalité politique française circule en RDC. Au début du mois, nous avions déjà épinglé un hypertrucage d’Éric Zemmour. Cette fois, on pensait voir le président du parti Reconquête critiquer Félix Tshisekedi lors d’une interview sur la chaîne de télévision française LCI.

    Mais là encore, c’est une infox, Éric Zemmour n’a jamais tenu une telle déclaration. Les images proviennent d’une émission spéciale diffusée sur LCI le 29 octobre dernier, à propos du vote du budget 2026 en France. Durant les trente-cinq minutes d’interview, Éric Zemmour ne parle à aucun moment de Félix Tshisekedi.

    D’après nos recherches, ces deux infox ont été diffusées par un influenceur congolais, fervent opposant à Félix Tshisekedi. La plupart de ses vidéos sont des deepfake destinés à critiquer le président congolais. Son compte TikTok cumule actuellement plus de 33 millions de j'aime.

    Más Menos
    3 m
  • Mali: la désinformation prolifère en pleine crise sécuritaire
    Nov 21 2025

    Au Mali, le blocus imposé par les jihadistes du Jnim se poursuit. Le Groupe de soutien à l'islam et aux musulmans lié à Al-Qaïda a annoncé, mardi 18 novembre, un durcissement de l’embargo décrété sur les importations de carburant. Faux communiqués, images sorties de leur contexte, cette crise sécuritaire est particulièrement propice à la désinformation sur les réseaux sociaux.

    Personne n’échappe à ce flot de désinformation, à commencer par les Forces armées maliennes (Famas). À en croire un communiqué mensonger diffusé cette semaine, les Famas auraient décidé de procéder à « l’instauration du recrutement militaire obligatoire ». Il y est écrit, à tort, que la mesure devrait entrer en vigueur le 1er décembre prochain, et concerner « tous les citoyens maliens âgés de 18 à 45 ans ».

    Vérification faite, ce communiqué est faux sur le fond, mais aussi sur la forme. En réalité, l'état-major général des Armées n’a jamais publié un tel document. Nous avons consulté l’ensemble des canaux de diffusion officiels liés aux Famas et ce communiqué est introuvable. On note aussi une erreur dès le début du texte avec une lettre en minuscule et non en majuscule comme le veut la règle. Face à la viralité de cette infox, l’armée malienne a publié un démenti, appelant à éviter de relayer ce type de contenus.

    Le fléau des faux communiqués

    Ce n’est pas le seul faux communiqué qui circule actuellement au Mali. En effet, nous avons également identifié un autre document mensonger, attribué cette fois au ministère de l’Administration et de la décentralisation. Alors que plusieurs pays ont appelé leurs ressortissants à quitter le Mali ces dernières semaines, ce communiqué affirme que les autorités maliennes auraient, en représailles, mis en place une mesure d'interdiction de territoire à l'encontre de ces ressortissants. Là encore, tout est faux.

    On remarque déjà plusieurs erreurs au niveau de la charte graphique. Le texte est bizarrement centré au milieu de la page, il n’est pas justifié, comme dans les documents officiels. Il y a aussi des fautes de syntaxe avec des mots manquants.

    L’élément le plus important, c’est le numéro 78 attribué à ce communiqué. Lorsque l’on cherche le communiqué n°78 sur le site officiel du ministère malien de l’Administration et de la décentralisation, on trouve un communiqué bien différent. Il y est question du glissement de terrain mortel survenu en Guinée, à Manéah et non des ressortissants occidentaux présents au Mali.

    Des terroristes du Jnim déposent les armes ?

    Des infox ciblent également les jihadistes du Jnim. Ces derniers jours, plusieurs comptes affirment, à tort, que « 234 terroristes du Groupe de soutien à l'islam et aux musulmans se seraient rendus à l’armée malienne ». Leur infox repose sur une série de photos où l’on voit des terroristes alignés devant leur moto.

    Dans les faits, ces images proviennent d’une vidéo de propagande montrant des membres du Jnim priant avant l’attaque d’un village dans le sud du Mali. La capture de 234 combattants jihadistes n’est donc pas réelle. L’armée malienne elle-même n’a jamais communiqué sur un tel événement.

    Más Menos
    3 m
adbl_web_global_use_to_activate_DT_webcro_1694_expandible_banner_T1