6967 – Protéger l’information pour protéger notre démocratie – La Direction du Ministère des Armées – Publié le 26 juin 2025

Protéger l’information pour protéger notre démocratie 
La Direction du Ministère des Armées – Publié le 26 juin 2025
Experts, chercheurs, militaires, journalistes, institutions publiques et acteurs industriels ont, pendant 8 mois, partagé leur point de vue pour faire avancer la réflexion sur le sujet central de la lutte contre la manipulation de l’information (LMI). Ce cycle de réflexion s’est clôturé lors d’une ultime session sur le Campus Cyber le 25 juin.
La 2e table ronde lors de la restitution des travaux des ateliers LMI au Campus Cyber, le 25 juin. © Sch Christian Hamilcaro / Ministère des Armées
Depuis octobre 2024, une série d’ateliers mensuels co-organisés par le Campus Cyber, le ministère des Armées, le Centre national de la recherche scientifique (CNRS) et l’Institut national de recherche en sciences et technologies du numérique (INRIA), a rassemblé de nombreux acteurs.
Objectifs : multiplier les points de vue et réflexions sur les nouvelles formes de manipulations de l’information dans les environnements numériques et proposer des solutions afin que la France se dote d’outils permettant de faire face à ce nouveau fléau. Tour d’horizon des différentes thématiques abordées lors de cette session de clôture.

Viralité et propagation – détecter et répondre

Mathieu Cassoti, professeur en psychologie du développement à l’Institut de psychologie d’Université Paris Cité, alerte sur l’exposition des plus jeunes aux fausses informations.
« Nous essayons d’armer les enfants et les adolescents pour qu’ils soient capables de détecter et de lutter par eux-mêmes contre la désinformation. Mais c’est compliqué à faire, car ils sont très exposés. » 
Alda Mari, directrice de recherche au CNRS, poursuit à travers différentes pistes de recherche :
« Comment 10 secondes de vidéos sur TikTok peuvent-elles avoir un impact significatif sur les spectateurs ? Que se passe-t-il dans le cerveau d’un enfant de 9 ans, ou d’un jeune de 25 ans face à ces contenus ? »
Cet atelier a abouti à des propositions concrètes.
« Il nous est apparu d’une grande utilité de créer un vivier d’experts en désinformation dans une liste qui serait labellisée, thématisée, justifiée et constituée comme une sorte d’annuaire à destination des journalistes ou des institutions publiques, par exemple », 
expose Arnaud Mercier, professeur et responsable de l’Observatoire du Podcast (Carism/IFP).
« Il s’agit aussi de penser des exercices de simulation, dans leurs dimensions transversale et collaborative. »
Selon François Grime, consultant chez Sopra Steria :
« Il est nécessaire de travailler main dans la main avec les sciences cognitives, notamment pour être en mesure d’identifier le caractère manipulatoire d’un contenu, mais aussi pour identifier leur impact. »

IA génératives, quelle place dans un écosystème informationnel plus résilient ?

Cette seconde table ronde a mis en lumière les défis complexes posés par l’intelligence artificielle générative en matière de manipulation informationnelle.
Les participants ont proposé des pistes de réflexion pour renforcer la résilience et l’éducation des citoyens face à ces enjeux.
Oana Goga, directrice de recherche à l’INRIA, a mis en lumière les défis liés à la traçabilité et à l’authenticité des contenus générés par l’intelligence artificielle.
« Nous n’avons aucune idée de ce qui est vrai et de ce qui ne l’est pas. »
Pour pallier ce problème, elle a proposé plusieurs mesures, notamment la labellisation obligatoire des contenus générés par l’IA sur les plateformes en ligne.
Pour Christine Dugoin Clément, professeure et chercheuse à la Chaire Risques de l’IAE Paris-Sorbonne, les outils technologiques actuels permettent d’accroître les capacités de désinformation, en contractant le temps et en baissant le coût de production. Selon elle, dans cette marée de fausses informations, les entités – étatiques ou non étatiques – proposent des visions du futur pour capter l’adhésion des populations. La confiance devient donc un enjeu majeur.
Au cours de la discussion, Raphaël Lasseri a imaginé un scénario ou l’IA générative permettait de réaliser des manipulations boursières. Il a également souligné les risques à long terme de l’empoisonnement des sources d’entraînement des modèles d’IA, qui peuvent distiller des messages subliminaux dans le temps.
Julien Falgas, maître de conférences au Centre de recherche sur les médiations, a enfin insisté sur la nécessité de développer l’éducation aux médias et à l’information pour renforcer la résilience face aux dérives de l’IA générative.
Tous ces travaux menés durant huit mois ont débouché sur un certain nombre de propositions concrètes, allant de l’éducation aux médias en passant par une labellisation d’experts ou la demande d’une véritable politique publique globale autour de la LMI. L’information est un bien commun et, pour gagner cette guerre informationnelle, la seule solution possible est de travailler ensemble, avec une mise en commun de toutes les compétences possibles. Car, comme l’affirment les Ukrainiens depuis le début du conflit qui les oppose à la Russie :
« Si tu ne racontes pas ton histoire, les autres vont la raconter à ta place. »

https://www.defense.gouv.fr/actualites/proteger-linformation-proteger-notre-democratie