Comment l’IA générative peut-elle nous aider en matière de sécurité informatique ?

par Marius Sandbu - Expert en IA et évangéliste du cloud chez Sopra Steria
| minutes de lecture

Analyse actualisée de Marius Sandbu, Cloud Evangelist chez Sopra Steria. Cet article reflète l’état actuel de l’IA appliquée à la cybersécurité en 2025. Compte tenu du rythme effréné de développement dans ce domaine, les organisations doivent s’attendre à une évolution continue, tant des capacités défensives que des vecteurs de menaces.

La cybersécurité en pleine transformation

La cybersécurité a connu une mutation spectaculaire. L’évolution rapide de l’IA générative a introduit de puissantes capacités, tant pour les défenseurs que pour les attaquants, bouleversant en profondeur notre approche de la sécurité IT. Des agents autonomes capables de trier des milliers d’alertes aux deepfakes sophistiqués capables de tromper même les vérifications humaines les plus vigilantes, jamais les risques n’ont été aussi élevés. Et jamais les opportunités aussi prometteuses.

L’évolution des modèles d’IA générative

L’écosystème des modèles d’IA générative a explosé au cours des huit derniers mois. Alors que des modèles comme ChatGPT pouvaient initialement traiter environ 2 500 mots, les modèles avancés d’aujourd’hui, comme Google Gemini, peuvent traiter jusqu’à 5 millions de mots dans un même contexte. Cela représente une multiplication par 2 000 des capacités d’analyse, permettant des scénarios de sécurité d’une complexité inédite.

La percée est visible dans trois domaines clés : l’échelle, la précision et la rentabilité. Les modèles actuels traitent non seulement beaucoup plus d’informations, mais le font avec un taux d’hallucinations fortement réduit. Plus important encore, les coûts d’exécution ont baissé de manière significative, rendant ces outils de sécurité avancés accessibles à toutes les organisations.

La nouveauté la plus transformatrice est l’apparition de capacités de contrôle informatique. Ces modèles peuvent désormais interagir directement avec les systèmes, prendre le contrôle d’interfaces et exécuter des tâches comme le ferait un opérateur humain. L’IA ne se limite donc plus à un rôle consultatif : elle devient actrice des opérations de sécurité.

L’essor des agents de sécurité autonomes

Depuis octobre 2024, le développement le plus marquant est l’émergence des agents de sécurité autonomes : des systèmes d’IA capables d’agir de manière indépendante pour protéger les infrastructures numériques. Cela marque un passage fondamental d’une posture réactive à une posture proactive.

L’introduction des agents Security Copilot par Microsoft en mars 2025 illustre cette évolution :

  • Triage automatisé du phishing : l’agent Phishing Triage traite plus de 95 % des signalements utilisateurs de manière autonome, éliminant les faux positifs et libérant les équipes pour se concentrer sur les menaces réelles.
  • Optimisation des accès : l’agent Conditional Access Optimization surveille en continu les schémas d’accès et ajuste automatiquement les politiques de sécurité.
  • Gestion des vulnérabilités : ces agents priorisent et coordonnent le déploiement des correctifs dans les environnements d’entreprise.

Les premiers retours sont remarquables : réduction de 30 % du délai moyen de résolution, et des analystes juniors 26 % plus rapides et 35 % plus précis dans leurs réponses aux menaces.

Détection renforcée des menaces et analyse de code

La capacité d’analyse de code potentiellement malveillant atteint de nouveaux sommets. Là où les équipes de sécurité devaient mettre en place des environnements isolés (sandboxes), l’IA fournit désormais des analyses détaillées en quelques secondes.

Cette avancée est cruciale, alors que 41 % du code est aujourd’hui généré par IA et que Google indique que 25 % de son code interne provient déjà de systèmes IA. Mais cette efficacité comporte des risques : près de 48 % des extraits de code générés par IA contiennent des vulnérabilités.

Les nouvelles fonctionnalités de GitHub illustrent le potentiel de l’IA pour la revue de code : son système automatisé de pull requests détecte des failles classiques (dépassements de mémoire, injections SQL…), tandis que des modèles avancés identifient des secrets intégrés que des outils traditionnels basés sur regex ne détecteraient pas.

La menace des deepfakes

La sophistication et l’accessibilité des deepfakes progressent de façon alarmante. Ce qui nécessitait autrefois expertise et matériel coûteux est désormais réalisable avec du matériel grand public et des logiciels libres. Une imitation vocale crédible demande à peine deux minutes d’audio, et une vidéo falsifiée peut être produite en moins de 45 minutes.

L’impact financier est déjà énorme : la société d’ingénierie britannique Arup a perdu 25 millions de dollars début 2024 lorsqu’un employé a été trompé par une visioconférence avec ce qui semblait être sa direction… mais n’était qu’un deepfake généré par IA. Ce n’était pas un piratage technique, mais une ingénierie sociale exploitant la confiance humaine.

Au-delà de la fraude financière, les attaques d’ingénierie sociale dopées par l’IA ont explosé de 442 % au second semestre 2024, avec des campagnes de phishing personnalisées capables de s’adapter en temps réel aux réponses des victimes.

L’explosion des vulnérabilités

L’intégration de l’IA dans les flux de développement crée un défi inédit : le volume des vulnérabilités logicielles explose. En 2024, les signalements de CVE ont dépassé 22 000, soit une hausse de 30 % par rapport à 2023. Cette tendance accompagne l’usage quasi généralisé des assistants de codage IA, passé de 40 % en 2021 à une adoption massive aujourd’hui.

Cela pose des questions cruciales sur la sécurité du code généré par IA. Si elle augmente la productivité des développeurs, elle reproduit et amplifie aussi les erreurs présentes dans ses données d’entraînement, diffusant ainsi les failles à grande échelle.

Nouvelles menaces, nouvelles stratégies

Les mêmes capacités de l’IA qui renforcent la sécurité ouvrent aussi de nouveaux vecteurs d’attaque. Les acteurs malveillants utilisent désormais l’IA pour :

  • Automatiser la découverte de vulnérabilités et exploiter des failles zero-day avant correction.
  • Générer des malwares sophistiqués, accessibles même à des profils sans expertise avancée.
  • Mener des attaques d’ingénierie sociale ultra-ciblées grâce à l’analyse de données publiques et sociales.

Le secteur financier est particulièrement touché, avec des centres d’appels bancaires saturés par des tentatives d’usurpation via clonage vocal IA.

L’alerte EchoLeak

Plus préoccupant encore, l’apparition de vulnérabilités propres aux agents IA. La faille EchoLeak découverte dans Microsoft 365 Copilot constitue la première attaque « zero-click » connue contre un agent IA : un simple e-mail suffisait pour accéder à des données sensibles, sans aucune interaction utilisateur.

Ce cas révèle un défi de conception majeur : les agents IA nécessitent un large accès aux données pour être efficaces, mais cette ouverture crée de nouvelles surfaces d’attaque que les cadres de sécurité traditionnels ne couvrent pas.

Recommandations pour les organisations

Face aux tendances actuelles, les responsables sécurité devraient :

Revenir aux fondamentaux : gouvernance des données, sécurité de l’information, formation des employés.

Rester agiles : adapter en continu leur architecture face à un paysage mouvant.

Favoriser la collaboration humain-IA : l’IA doit renforcer l’analyste, pas le remplacer.

Appliquer le Zero Trust à l’IA : limiter les accès et exiger une vérification pour les opérations sensibles.

Investir dans la détection et la réponse : développer des capacités robustes de réponse rapide, dopées par l’IA.

Perspectives d’avenir

La prochaine étape verra sans doute l’émergence de systèmes multi-agents : des réseaux d’IA spécialisées coopérant pour défendre les infrastructures numériques. Ces systèmes pourraient atteindre le niveau de sophistication des menaces persistantes avancées, tout en opérant à la vitesse requise pour contrer les attaques alimentées par IA.

Le défi des responsables sécurité sera de trouver le juste équilibre entre tirer parti des capacités protectrices de l’IA et gérer les risques qu’elle introduit. Plus l’IA devient autonome et puissante, plus l’enjeu est crucial.

L’avenir de la cybersécurité ne reposera pas sur le rejet de l’IA, mais sur sa maîtrise au service de la défense, tout en restant vigilants face à ses usages malveillants. Les organisations qui réussiront seront celles capables de combiner puissance de l’IA et discernement humain, indispensable face à des menaces complexes et en constante évolution.

Search

cybersecurity

artificial-intelligence

Contenus associés

L’IA en première ligne dans la lutte d’Iberpay contre la fraude financière

Iberpay intègre l’IA à son service anti-fraude et offre aux banques des données clés pour lutter contre la criminalité financière. 

TradSNCF : L’IA au service des agents de gare pour l’accueil des voyageurs

Découvrez TradSNCF, l'outil de traduction de la SNCF alimenté par l'IA qui améliore l'expérience voyage de millions de passagers du monde entier.

La technologie au service de la lutte contre l’analphabétisme

Comment Norad et Sopra Steria utilisent l'IA et la technologie cloud pour lutter contre l'analphabétisme infantile.