top of page

Une fausse vidéo générée par IA annonce un coup d’État en France : l’auteur identifié comme un adolescent burkinabè

ree

Une vidéo spectaculaire, entièrement créée à l’aide de l’intelligence artificielle, a récemment semé la confusion en annonçant un prétendu coup d’État en France, avec la Tour Eiffel en toile de fond et le président Emmanuel Macron présenté comme « renversé ». Rapidement devenue virale sur les réseaux sociaux, cette fausse information a suscité l’irritation de l’Élysée.

L’enquête a toutefois révélé un auteur pour le moins inattendu : un adolescent burkinabè de 17 ans, animé davantage par la recherche du buzz que par des motivations politiques.

La séquence, soigneusement mise en scène pour imiter un direct d’actualité, reprend tous les codes du journalisme télévisé : une présentatrice face caméra, un micro estampillé « Live 24 », une annonce sensationnaliste évoquant un « coup d’État en France », et un montage visuel associant militaires, gyrophares, hélicoptère et monuments parisiens. Le récit évoque la chute du chef de l’État français et l’arrivée au pouvoir d’un « colonel » non identifié. Bien que confus, l’ensemble s’est avéré suffisamment crédible pour tromper de nombreux internautes.

Le succès a été fulgurant. La vidéo a cumulé plusieurs millions de vues sur Facebook avant d’être supprimée par son créateur, tout en continuant de circuler sur TikTok et YouTube. Selon plusieurs sources, Emmanuel Macron aurait même été alerté par un chef d’État africain convaincu qu’un véritable coup de force s’était produit en France. L’Élysée a publiquement déploré la lenteur du retrait du contenu, certaines plateformes estimant qu’il ne contrevenait pas à leurs règles.

Contrairement aux soupçons initiaux d’ingérence étrangère, souvent associés à

 

Source : Afrik.Com

 

Haoua SANGARÉ

 LETJIKAN

 




sama-money-300 (1).jpg
bottom of page