Orchestration des agents IA : la clé de systèmes fiables

par Michel Poujol - AI Expert Lead et CTO du programme rAIse chez Sopra Steria
| minutes de lecture

Dans un centre de distribution européen, un incident critique survient. Les livraisons risquent d’être retardées. En quelques secondes, une dizaine d'agents réorganisent l'ensemble de la chaîne logistique : réallocation des stocks, renégociation des créneaux de livraison, réajustement des priorités. Le twist ? Aucune intervention humaine n'a été nécessaire : les agents en question sont des logiciels fonctionnant grâce à l’intelligence artificielle. Ce scénario, déjà opérationnel chez plusieurs grands industriels, illustre la puissance de l'IA agentique. Mais il soulève aussi une inquiétude légitime : que se passe-t-il si ces agents prennent des décisions aux conséquences irréversibles ? Comment garantir qu'un système capable de s'autoorganiser reste sous contrôle ? Michel Poujol, AI Expert Lead et CTO du programme rAIse chez Sopra Steria, analyse les mécanismes d'orchestration qui permettent d'éviter que l'autonomie ne dégénère en chaos.

Une rupture technologique ?

Les systèmes multi-agents ne datent pas d'hier. Dès les années 1990, chercheurs et industriels explorent des architectures où plusieurs entités logicielles collaborent pour résoudre des problèmes complexes. Mais l'IA agentique actuelle représente bien plus qu'une évolution incrémentale de ces systèmes pionniers. « Ce qui distingue les systèmes multi-agents actuels boostés par l'IA générative de ceux des années 1990, c'est surtout leur capacité à pouvoir réaliser maintenant de manière autonome, des tâches éventuellement très complexes qui étaient jusqu'alors irréalisables ou irréalisables sans assistance humaine », explique Michel Poujol.

Cette rupture repose sur l’intégration dans des agents, de modèles de langages offrant des capacités de raisonnement inédites. Contrairement aux systèmes experts classiques qui suivent des règles prédéfinies, ces modèles de langage permettent de s’adapter à des situations beaucoup moins formelles, incluant potentiellement des situations erratiques. Selon Michel Poujol : « ils agissent un peu comme un cerveau humain pouvant se remettre en question si les choses ne se passent pas comme prévu ». Mais ce parallèle avec l'intelligence humaine a ses limites : « Ce cerveau est souvent beaucoup moins fiable et puissant que celui d’un humain, surtout s’il s’agit de celui d’un expert, et des garde-fous s'avèrent souvent nécessaires.»

Mais alors, à quoi peuvent bien servir ces fameux agents ? « L'IA agentique étend considérablement les possibilités d'usage de l'IA en général et de l'IA générative en particulier, sur des cas d'usage qu'on n'aurait pas pu imaginer il y a seulement quelques mois », souligne l’expert. Des tâches qui nécessitaient plusieurs semaines de travail d'équipes spécialisées, peuvent désormais être accomplies en quelques heures par des applications d’IA agentique pilotées en langage naturel, comme si on s’adressait à des humains.

L’orchestrateur au cœur

Au centre de tout système agentique se trouve un agent qui joue un rôle crucial de chef d'orchestre. Dans la plupart des applications actuelles, cet orchestrateur utilise un modèle de langage pour définir par raisonnement les tâches à accomplir, puis pour sélectionner les outils appropriés pour les exécuter. « Chaque tâche est alors spécifiée dans un prompt précisant son contexte. La sélection de l'outil pour effectuer cette tâche est généralement réalisée à partir de la définition qui en est faite verbalement dans son "docstring" (typiquement quelques phrases de description de cet outil, situées dans l’entête de son code) », détaille Michel Poujol.

 

« On comprend facilement que ce processus de sélection fondé sur l'interprétation de définitions exprimées en langage naturel, puisse être plus ou moins fiable et robuste », reconnaît l'expert. « Heureusement, il existe une multitude de solutions pour y remédier, par exemple en utilisant une IA à base de règles ou une IA hybride combinant IA générative et IA symbolique.

La gestion des défaillances constitue un autre défi majeur. Lorsqu'un agent échoue dans sa tâche ou renvoie une réponse incohérente, le système doit pouvoir réagir de manière appropriée. C'est ici qu'intervient le concept d'Operational Design Domain (ODD aussi parfois appelé suivant les normes, OD pour Operational Design ou OE pour Operational Environment), qui gagne en importance dans l'ingénierie des systèmes à base d'IA. « C'est une notion qui va sûrement être amenée à prendre beaucoup d'importance dans l'ingénierie de systèmes ou d'applications à base d'IA », affirme Michel Poujol.

L'ODD sert à définir avec précision le périmètre fonctionnel de chaque composant d’un système. Pour les systèmes d’IA agentique, il doit donc définir le périmètre fonctionnel de chaque agent et de chaque modèle d’IA. « Tout comportement d'un agent ou d'un modèle d'IA hors de son périmètre fonctionnel doit conduire le système à exécuter un autre composant sur un autre périmètre défini spécifiquement pour le traitement de ce type de situations », explique-t-il. Cette approche permet de traiter les situations imprévues ou imprévisibles comme les fameuses hallucinations et autres comportements erratiques, qui peuvent donc être évités pour la plupart des applications d’IA à l’aide d’une bonne conception. Il reste néanmoins des applications d’IA, comme les applications d’IA générative ou agentique à usage général, pour lesquelles il est impossible de circonscrire totalement leur périmètre fonctionnel et où par conséquent, ces problèmes sont beaucoup plus difficiles à éviter.

Entre autonomie et contrôle, un équilibre précaire

Une fois ceci posé, reste à savoir où placer les points de contrôle humains dans un système où des agents autonomes raisonnent en parallèle et s'échangent des informations. Pour Michel Poujol, la réponse doit là encore être apportée dès les phases de spécification et de conception : « Ces questions doivent être définies lors du processus d'ingénierie de ce système et plus spécifiquement lors de ses phases de spécification et de conception. »

L'autonomie des agents ne doit ainsi jamais être synonyme d'absence de contrôle : « On peut et on doit mettre dans n'importe quel système, qu'il soit ou non à base d'IA, autant d'interactions humaines que nécessaire pour répondre aux exigences de son cahier des charges ou de la réglementation », insiste l'expert. « Ce n'est pas parce qu'il est maintenant possible d'intégrer dans ces systèmes des modèles qui peuvent raisonner ou prendre des décisions à la place des humains qu'on est obligé de leur laisser complètement la main.»

Depuis 2020, dans le cadre du programme confiance.aiet maintenant de sa suite, Sopra Steria participe à la mise au point d’une méthode d’ingénierie de systèmes à base d’IA, qui inclut une approche garantissant que les questions de supervision humaine sont systématiquement abordées et résolues de manière structurée.

Un déploiement maîtrisé

La mauvaise spécification d’un système conduit inexorablement à l’échec de son déploiement mais pour les systèmes à base d’IA en général et pour les systèmes d’IA agentique en particulier, s’ajoute une autre cause majeure d’échec, celle de l’adoption de ce type de solution. « Sans cette adoption par les équipes métiers chargées de l'expression des besoins, il est pratiquement impossible de réussir un projet d'IA » affirme notre expert.

Le degré d'autonomie accordé à chaque agent doit être clairement défini dans les spécifications. Le périmètre des décisions admissibles doit être précisément circonscrit, et toute décision hors de ce périmètre doit conduire à son transfert vers un autre agent ou un humain.

L'IA agentique promet des gains de productivité spectaculaires et ouvre des perspectives incroyables pour l'automatisation de tâches complexes. Comme vu précédemment, cette promesse ne pourra être tenue sans méthode d'ingénierie rigoureuse, intégrant dès la conception les garde-fous nécessaires, mais cela ne suffira pas pour profiter pleinement de cette révolution.

 

« En principe, aucun système un peu sérieux ne doit être déployé avec un risque de comportement erratique, voire chaotique, au-dessus d'un seuil admissible qui est toujours pratiquement nul », rappelle Michel Poujol. Mais il ajoute : « cependant, continuer à ne jamais tolérer aucun risque pour les systèmes basés sur ces nouvelles technologies d’IA reviendrait à s’interdire de profiter de leur extraordinaire potentiel ». Il milite donc pour l’introduction d’analyses bénéfices/risques dans les méthodes d’ingénierie de tels systèmes et dans les règlementations et/ou normes associées, mais il prévient : « ce sera toujours de notre responsabilité de faire en sorte que ce potentiel incroyable soit utilisé pour le meilleur et pas pour le pire ».

Search

artificial-intelligence

Contenus associés

L’IA en première ligne dans la lutte d’Iberpay contre la fraude financière

Iberpay intègre l’IA à son service anti-fraude et offre aux banques des données clés pour lutter contre la criminalité financière. 

TradSNCF : L’IA au service des agents de gare pour l’accueil des voyageurs

Découvrez TradSNCF, l'outil de traduction de la SNCF alimenté par l'IA qui améliore l'expérience voyage de millions de passagers du monde entier.

La technologie au service de la lutte contre l’analphabétisme

Comment Norad et Sopra Steria utilisent l'IA et la technologie cloud pour lutter contre l'analphabétisme infantile.