Dans les laboratoires de recherche en cybersécurité du monde entier, une course d'un nouveau genre s'accélère. D'un côté, des algorithmes génèrent des deepfakes de plus en plus convaincants. De l'autre, d'autres algorithmes s'entraînent à les détecter. Cette dualité évoque le concept grec de pharmakon : à la fois poison et remède. L'intelligence artificielle incarne aujourd'hui cette double nature dans la guerre informationnelle : elle est simultanément l'arme qui crée la menace et le bouclier qui tente de nous en protéger.
La machine contre elle-même
"L'IA est utilisée pour le profiling et les algorithmes de préconisation, rappelant l'ère Cambridge Analytica, mais en amplifiant la prise de contrôle sur l'orientation de l'opinion", explique Stéphane Grousseau, directeur adjoint de l'Agence Cyber Défense et Renseignement chez Sopra Steria. Cette captologie, comme il la nomme, représente l'une des quatre dimensions transformatrices de l'IA dans la guerre informationnelle, aux côtés du deepfake, de la massification et de l'IA agentique.
Face à ces menaces, la réponse technologique semble évidente : utiliser l'IA pour détecter… l'IA. Des laboratoires australiens aux instituts de recherche européens, les solutions se multiplient. En Australie, la police fédérale développe Silverer, un outil qui empoisonne les données d'entraînement pour rendre plus difficile la création de contenus malveillants. L’agence nationale de recherche du pays stocke automatiquement des exemples de deepfakes audio pour affiner continuellement sa détection. En 2025, certains modèles atteignent plus de 95% de précision dans la détection de contenus manipulés.
Mais Stéphane Grousseau tempère cet optimisme technique : "Il ne faut pas se tromper de cible. L'élément qui rend une information nocive n'est pas nécessairement sa création par une IA, mais sa décontextualisation." Une photo authentique utilisée hors contexte peut être aussi trompeuse qu'un deepfake sophistiqué. À l'inverse, une information véridique illustrée par une image générée par IA ne constitue pas nécessairement de la désinformation.
La course à l'armement algorithmique
Cette nuance révèle une réalité inconfortable : la détection technique n'est qu'un élément d'un puzzle bien plus vaste. Les outils de détection, aussi sophistiqués soient-ils, s'inscrivent dans une course à l'armement perpétuelle. Chaque progrès dans la détection stimule une amélioration dans la génération. Les réseaux antagonistes génératifs (GANs) qui créent les deepfakes apprennent précisément en tentant de tromper des systèmes de détection.
"Le combat attaque/défense continuera d'avancer", reconnaît Stéphane Grousseau. L'exemple récent du retrait rapide du watermark sur des outils comme Sora 2 illustre cette dynamique. Dès qu'une protection est mise en place, elle est contournée. "Mais ce n'est pas pour cela qu'il faut lâcher le combat", insiste-t-il.
La stratégie de défense ne peut donc reposer sur une seule technologie. "Le meilleur moyen de se défendre est le croisement des technologies et des vérifications humaines", souligne l'expert. Cette approche multicouches combine plusieurs méthodes : utiliser l'IA pour détecter l'IA, employer des approches purement mathématiques qui analysent la "fluidité statistique" caractéristique des contenus générés, et maintenir encore et toujours une supervision humaine critique.
L'émergence d'une certification de confiance
Face aux limites de la détection a posteriori, une tendance innovante émerge : la certification d'authenticité à la source. "Une idée intéressante est l'émergence d'un certificat d'authenticité ou de confiance, similaire au watermarking, sur toute une chaîne de diffusion d'un contenu", explique Stéphane Grousseau. Ce système fonctionnerait comme une blockchain : si le certificat reste valable jusqu'à la destination finale, toute la chaîne serait jugée intègre.
Cette approche nécessite cependant l'implication des constructeurs dès la captation. Les fabricants d'appareils photo, de caméras et de smartphones devraient intégrer des mécanismes cryptographiques dès l'enregistrement initial. C'est un changement de paradigme majeur : plutôt que de détecter le faux, on certifie l'authentique.
Des initiatives législatives accompagnent ces développements technologiques. Aux États-Unis, le TAKE IT DOWN Act de mai 2025 impose le retrait rapide des contenus deepfakes non consensuels. L'Union Internationale des Télécommunications travaille sur des standards d'authentification multimédia. L'AI Act européen classe la vérification biométrique à distance comme "à haut risque", imposant documentation et tests de sécurité.
Au-delà de la technologie : la dimension cognitive
Pourtant, même cette approche multi-dimensionnelle ne suffit pas. La vraie vulnérabilité ne réside pas dans les algorithmes mais dans notre cognition. "La sécurité ne viendra pas d'un 'dôme de fer informationnel' mais de la capacité de chacun à exercer son esprit critique", avertit Stéphane Grousseau. "Il faut adopter l'approche Zero Trust : on ne fait confiance à rien ni à personne."
Cette réalité pose une question vertigineuse : sommes-nous en train de paniquer inutilement ? Après tout, l'arrivée d'Internet et de Wikipédia n'a pas effondré notre rapport à la réalité ou à la connaissance. Mais l'expert identifie une différence fondamentale : "Quand la nouvelle génération, actuellement au collège et au lycée, grandit avec des outils comme ChatGPT, c'est la capacité critique et de raisonnement qu'elle risque de mettre de côté."
Si les études à venir démontrent que les jeunes utilisateurs ne perçoivent pas les contenus IA comme potentiellement biaisés ou faux, c'est à un changement de paradigme cognitif majeur qu'il faut se préparer. Et ses conséquences pourraient bien être dévastatrices pour la cohésion sociale et la démocratie.
Le pharmakon démocratisé
L'ironie de cette course technologique réside dans sa démocratisation. Les outils de création de deepfakes deviennent accessibles à tous, avec des "fraud kits" disponibles sur le dark web pour quelques centaines de dollars. Simultanément, les outils de détection se multiplient : DeepFake-o-meter évalue l'authenticité de multiples formats tandis que Alecto AI aide les victimes à faire retirer les contenus abusifs.
Cette démocratisation du poison et du remède transforme la guerre informationnelle. Ce n'est plus l'apanage d'États-nations ou d'organisations sophistiquées. "C'est une méthode peu chère, accessible avec peu de ressources", observe Stéphane Grousseau. N'importe qui peut désormais mener des attaques informationnelles complexes ou se défendre contre elles.
Pour Sopra Steria, cette réalité impose un double rôle. "Nous développons des observatoires technologiques, des capacités de réaction spécifiques et des outils", décrit l'expert. Mais au-delà de la technologie, l'enjeu est éducatif : "Ce travail d'explication et de vulgarisation est essentiel. On a des organismes comme Viginum pour le faire. C'est un travail continu, nous sommes les Sisyphe de la guerre informationnelle."