23 janvier 2026

L’intelligence artificielle, nouveau moteur de désinformation et de déstabilisation numérique

Images truquées, vidéos manipulées, voix clonées : l’intelligence artificielle générative a profondément modifié l’écosystème de l’information en ligne. À portée de clic, ces outils permettent de produire et de diffuser massivement de faux contenus. Une évolution qui pose un défi majeur aux démocraties.

À portée de clic sur internet, des intelligences artificielles comme Sora 2, Midjourney, NanoBanna ou Gemini 3 sont désormais capables de créer images, vidéos ou voix à partir d’une simple instruction, appelée « prompt ». Sur les grandes plateformes – Instagram, TikTok, Facebook, YouTube ou X – les deepfakes et contenus générés par IA se sont imposés dans les flux d’actualité.

En septembre dernier, une vidéo simulant un faux coup d’État en France a ainsi été visionnée plus de 13 millions de fois. Sa diffusion massive avait même conduit un chef d’État africain à s’inquiéter directement auprès d’Emmanuel Macron. Un épisode révélateur de la capacité de l’IA générative, ou IAG, à produire des effets bien réels à partir de contenus entièrement fictifs.

Industrialisation de faux contenus

Des acteurs étrangers, comme la Russie ou la Chine, mais aussi certains particuliers, exploitent l’IAG pour produire à grande échelle des contenus trompeurs. Cette stratégie repose sur un dispositif quasi industriel destiné à saturer l’espace informationnel. L’objectif n’est pas toujours de convaincre, mais de submerger.

Cette méthode est connue sous le nom de stratégie du « tapis de bombes » : noyer l’information fiable sous une avalanche de faux contenus. Selon l’organisation NewsGuard, 1 150 sites d’information sont aujourd’hui entièrement ou principalement générés par IA, dans seize langues différentes. La campagne pro-russe « Matriochka » illustre cette logique : des comptes diffusent de faux contenus sur Telegram, relayés ensuite sur X et Bluesky, tout en interpellant journalistes et fact-checkers afin de saturer leurs capacités de vérification.

Élections et cohésion sociale sous pression

L’IA générative est également utilisée pour fragiliser les processus démocratiques. En France, selon VIGINUM, 25 manœuvres informationnelles ont ciblé en 2024 les élections européennes et législatives, cherchant à discréditer le scrutin ou à nuire à la réputation de certains candidats. À l’étranger, les exemples se multiplient : en Moldavie, un deepfake a cloné la voix de la présidente Maia Sandu, affirmant que l’adhésion à l’Union européenne imposerait des lois favorables aux droits LGBTQ+ ou la vente des terres agricoles.

Au-delà des élections, ces campagnes visent à polariser les sociétés. Grâce au micro-targeting ou micro-ciblage, l’IA est capable de reproduire le ton et les codes de communautés spécifiques pour attiser les tensions internes. Lors des émeutes en Nouvelle-Calédonie, des comptes liés à l’Azerbaïdjan ont ainsi diffusé massivement des images accusant la police française de tuer des manifestants.

Dans un espace numérique saturé de faux contenus, la confusion s’installe. Ce phénomène, qualifié de « dividende du menteur », conduit à remettre en cause même les faits les plus établis. L’IA générative n’est plus seulement une innovation technologique : elle est devenue un outil de désinformation à part entière, appelant à une vigilance accrue des citoyens face aux contenus viraux.

Emmeline Clouet

Boîte noire

Pour la préparation de ce sujet, je me suis appuyé sur l’outil NotebookLM afin de croiser l’ensemble de mes recherches et des documents consultés. Cette application m’a permis de synthétiser des sources variées – articles de presse, rapports institutionnels et travaux de recherche -afin d’en extraire les principaux enjeux et problématiques liés à l’usage de l’intelligence artificielle générative dans les stratégies de désinformation.

Les éléments visuels accompagnant l’article et la vidéo ont été produits à l’aide d’outils d’intelligence artificielle. L’image d’illustration de l’article a été générée via ChatGPT. La fausse vidéo simulant un coup d’État du Parlement français a été conçue à partir de Gemini 3, dans un objectif démonstratif, afin d’illustrer le potentiel de manipulation des contenus audiovisuels par l’IA.

Certaines images utilisées pour illustrer la vidéo ont également été créées par intelligence artificielle, notamment à l’aide de ChatGPT. Ces visuels ont été intégrés dans une démarche pédagogique, visant à montrer concrètement la facilité de production et le réalisme croissant des contenus générés par IA.
L’ensemble du texte a été rédigé par mes soins, sans génération automatique, à partir des informations collectées et vérifiées, les outils d’IA ayant été utilisés exclusivement comme aides à la recherche, à la visualisation et à la démonstration.

Related Post