Dans les salles de commandement militaires du monde entier, une question fondamentale refaçonne les doctrines et les organigrammes : jusqu'où peut-on automatiser les décisions qui engagent des vies sur le terrain ? Alors que l'intelligence
artificielle promet une vitesse de réaction inégalée et une précision surhumaine, le débat sur le maintien de l'humain dans la boucle décisionnelle révèle des divergences profondes, entre efficacité
opérationnelle et impératifs éthiques.
La tyrannie de la vitesse
"Des expérimentations ont lieu dans les forces armées depuis un certain temps, et notamment dans l'US Air Force," note Stéphane Grousseau, directeur adjoint Cyber Défense et Renseignement de Sopra Steria. “L'armée
américaineteste des robots quadrupèdes équipés
de fusils d'assaut, ce qui soulève une question fondamentale : faut-il autoriser l'ouverture du feu de manière totalement autonome ou maintenir systématiquement un humain dans la boucle décisionnelle ?"
Cette question, apparemment technique, soulève des dilemmes philosophiques et opérationnels vertigineux. Car si l'on maintient systématiquement un humain dans la boucle décisionnelle, "l'adversaire n'a qu'une chose à
faire : être plus rapide que vous," observe Stéphane Grousseau avec une logique implacable. "Et là, ça devient compliqué."
Dans la guerre informationnelle moderne, l’action n’est heureusement pas létale. Par contre, la vitesse n'est pas un simple avantage tactique : c'est souvent l'élément décisif. Les campagnes de désinformation
se propagent à la vitesse des algorithmes, touchant des millions de personnes en quelques heures. Les deepfakes peuvent être générés et diffusés plus rapidement qu'ils ne peuvent être vérifiés.
Les narratifs toxiques contaminent l'espace informationnel avant même que les défenseurs n'aient identifié la menace.
"Quand on subit une attaque informationnelle, on n'a pas des mois pour réagir," explique Stéphane Grousseau. "On a des heures, parfois des jours, et c'est déjà beaucoup. Souvent, quand on réagit au bout de quelques heures,
c'est déjà trop tard."
Cette réalité crée une pression inexorable vers l'automatisation. Si l'adversaire utilise des systèmes d'IA capables de détecter les opportunités, de générer du contenu adapté et d'adapter
la stratégie en temps réel sans intervention humaine, comment une défense qui maintient l'humain dans chaque étape décisionnelle peut-elle espérer suivre le rythme ? "L'avantage est clairement à l'attaque,"
constate Grousseau, d'autant que l'attaquant peut opérer à la vitesse des machines pendant que le défenseur ralentit au rythme des délibérations humaines.
Un continuum plus qu'un choix binaire
Face à ce dilemme, les penseurs militaires ont développé les "niveaux d'automatisation", un cadre conceptuel qui reconnaît que la question n'est pas binaire mais qu’elle existe sur un continuum. "Il y a plusieurs niveaux,"
détaille Stéphane Grousseau. "Le 'Human in the loop', où rien ne se fait sans validation humaine. Le 'Human on the loop', où l'humain supervise et peut reprendre la main. Et le 'Human outside the loop', où la machine
décide seule."
Dans le contexte de la défense antiaérienne, ces niveaux se traduisent concrètement. Le premier modèle privilégie le contrôle humain au prix de la vitesse de réaction. Le deuxième permet un engagement
automatique des cibles selon des paramètres prédéfinis, tout en maintenant une supervision humaine constante. Le troisième offre la vitesse maximale, mais aussi le risque maximal.
On comprend mieux la tentation de l'automatisation complète. Mais peut-on vraiment justifier de déléguer à des machines des décisions de vie ou de mort pour des raisons d'efficacité ? Philosophes et juristes débattent
depuis longtemps du "meaningful Human control", ce contrôle humain significatif qui suppose qu'un individu quelque part dans la chaîne de commandement comprend les implications, peut être tenu responsable et dispose de l'autorité
pour intervenir.
Dès lors, on peut se demander ce que signifie concrètement ce contrôle quand les décisions doivent être prises en millisecondes ? Quand un humain "on the loop" n'a pas le temps de comprendre la situation avant que l'action
ne soit engagée ? Le contrôle humain reste-t-il "significatif" lorsqu'il se réduit à un simple bouton d'arrêt d'urgence ? ou n’est-ce simplement qu’illusoire, car l’action humaine se réduit
à la validation automatique des propositions formulées par la machine ?
La guerre informationnelle comme terrain d'expérimentation
Ces questions vertigineuses dans le contexte des armes létales deviennent un peu plus abordables dans le domaine informationnel. "Avoir des systèmes capables de détecter ce qu’il se passe en temps réel et réagir
de manière automatisée sur le front de la lutte informationnelle, pourquoi pas ?" interroge Stéphane Grousseau.
La distinction est cruciale. Une contre-campagne automatisée qui se trompe de cible peut provoquer des dégâts diplomatiques, mais elle ne tue pas directement. Cette différence fondamentale ouvre un espace d'expérimentation
pour des niveaux d'automatisation qui seraient éthiquement inacceptables dans le domaine cinétique. "De telles campagnes peuvent avoir des conséquences dans le domaine cinétique," reconnaît Stéphane Grousseau,
"mais les effets, s’ils existent, sont indirects."
Face à ces dilemmes, Sopra Steria développe une approche d'automatisation stratifiée. La détection et l'analyse opèrent largement en mode automatique, trop de données arrivant trop rapidement pour mettre en place
une supervision humaine constante. Les systèmes alertent ensuite les analystes humains et fournissent des recommandations d'action. Pour certains types d'attaques bien comprises, des contre-mesures prédéfinies peuvent être
déployées automatiquement. Mais les décisions stratégiques sur les narratifs, les audiences ou les implications politiques restent fermement sous contrôle humain.
Cette automatisation responsable nécessite des garde-fous robustes. Sopra Steria développe notamment une plateforme proposant des patterns de réponses, paramétrables, avant leur déploiement opérationnel. "Croiser
les technologies, les approches et les vérifications : c'est la méthode qui rendra l'information fiable," souligne Stéphane Grousseau. Les systèmes doivent également apprendre continuellement de leurs succès
et échecs, tout en maintenant une supervision humaine stratégique.
Vers une doctrine d'automatisation responsable
L'avenir de la guerre informationnelle ne sera ni entièrement automatisé ni entièrement manuel. Il se situera dans un équilibre dynamique qui évoluera constamment en fonction des menaces, des capacités technologiques
et des normes éthiques.
"La combinaison entre expertise humaine et intelligence artificielle crée un nouveau paradigme de défense, ne serait-ce que parce qu’il n’existe pas un chemin unique de réponse" conclut Stéphane Grousseau. Ce paradigme
reconnaît que différentes boucles décisionnelles nécessitent différents niveaux de contrôle humain. Dans certaines, l'automatisation complète peut être appropriée. Dans d'autres, le jugement
humain reste indispensable.
L'art de la défense informationnelle moderne consiste à construire des systèmes qui maintiennent l'humain exactement où son jugement apporte le plus de valeur. Dans cette vision, l’outil d’intelligence artificielle
n'est ni le remplaçant de l'humain ni son simple outil, il devient partenaire dans un système de défense capable de suivre le rythme d'un adversaire qui, lui, n'attend pas.