RAG : L'intelligence artificielle peut-elle faire preuve de créativité ?

par Patrick Meyer - Group AI Senior Architect – CTO NLP Pratice Next AI4Biz, Sopra Steria
| minutes de lecture

Un médecin fait face à un diagnostic complexe. Il dispose pour l’établir de milliers d'études scientifiques, de rapports médicaux et de dossiers patients. Mais impossible de traiter ce déluge d'informations dans l’urgence. Heureusement, son assistant lui permet de filtrer instantanément les faits les plus pertinents et délivre une réponse précise, sourcée et concise en quelques secondes. Cet assistant du futur se conjugue aujourd’hui au présent, grâce aux progrès réalisés dans le champ de l’intelligence artificielle, et particulièrement le RAG (Retrieval-Augmented Generation).

Mais cette technologie soulève un certain nombre de questions, notamment quand on se penche sur les hallucinations auxquelles les modèles de langage sont encore sujets. Après avoir exploré ce qu’est le RAG, et s’être posé la question de son évolution en système multi-agents, nous abordons à présent une question presque philosophique : en voulant contrôler les hallucinations de l'IA, bride-t-on sa capacité créative ? Pour explorer cette tension entre fiabilité et innovation, nous nous sommes entretenus avec Patrick Meyer, architecte senior et directeur technique de l'IA chez Sopra Steria, et Clément Bénesse, chercheur senior en IA chez opsci.ai.

Hallucination ou créativité : où placer la frontière ?

Le débat commence par une distinction fondamentale. "Il faut d'abord définir ce qu'est une hallucination", précise Patrick Meyer. "En taxonomie, il y a plusieurs formes d'hallucination, notamment ne pas répondre à la demande : par exemple, répondre en anglais quand on demande une réponse en français."

Pour Clément Bénesse, la nuance est cruciale : "Il y a le fond et la forme. Dans l'écriture créative, c'est le moment où le LLM va se mettre à écrire en poésie alors qu'on attendait de la prose. Ce n'est pas une hallucination mais une forme de créativité."

L'hallucination devient problématique quand elle mène à un non-sens. "Les LLM sont construits par le biais des données, donc leur vision n'est que le prisme des données d'entraînement", explique le chercheur. "Il n'y a aucune contrainte, et l'hallucination problématique, c'est quand elle mène dans un régime qui ne fonctionne pas vis-à-vis des axiomes de base."

La probabilité comme source de création

La génération par les modèles de langage repose sur un principe statistique : prédire le mot le plus probable selon le contexte. Cette approche probabiliste peut-elle être créative ?

"La nature nous montre que la probabilité est source de création", observe Patrick Meyer. "La division des chromosomes est source de mélange. Quand un organisme n'est pas adapté à son univers, il meurt. De même, une vidéo qui ne plaît pas est vite retirée, et les mèmes nous montrent que certaines vidéos sont d’excellents vecteurs de créativité."

L'analogie biologique révèle un mécanisme fascinant : la créativité émergerait de variations aléatoires soumises à une sélection environnementale. Les modèles d'IA reproduisent ce processus, mais avec une différence majeure.

L'avantage humain : l'art de l'évaluation

Si l'IA peut générer des alternatives créatives, où réside la spécificité humaine ? "L'IA générative est capable de générer - c'est dans son nom - mais elle est très peu capable d'évaluer", souligne Clément Bénesse. "Ce qui fait l'apanage des humains, c'est qu'on est capable d'imaginer des scénarios alternatifs et de les évaluer."

Cette capacité d'évaluation s'appuie sur une richesse d'informations que les modèles actuels ne possèdent pas. "L'humain peut sortir du cadre, inventer de nouveaux mots qui ont du sens, parce qu'il y a l'aspect hormonal, la connaissance du monde physique", précise Patrick Meyer. "Un objet qui tombe, un LLM ne sait pas ce que c'est."

Le constat est saisissant : "Un humain, c'est bien plus qu’uniquement des informations numériques ou textuelles. On a énormément d'informations latentes qu'on stocke et auxquelles on ne pense même pas, mais qui conditionnent notre manière de réfléchir et d'agir."

Du RAG statique vers l'agentique

Cette réflexion éclaire l'évolution technique du RAG. "Le RAG est devenu une commodité", constate Patrick Meyer. "En quelques lignes de code, on peut créer son propre RAG aujourd'hui."

Mais cette commoditisation révèle une limite : le RAG classique est conçu pour répondre à une question, point final. "Cette limitation est liée au fait qu’on est sur un cas d'usage unique, répondre à une question dont la réponse se trouve dans le texte. Dès que tu veux faire un résumé de texte ou comparer deux documents, cela ne fonctionne plus."

L'avenir se dessine avec les systèmes agentiques, où le RAG devient une brique d'un ensemble plus complexe. "L'étape suivante, c'est l'agentique, un système dont la fonction n’est pas clairement définie avec une autonomie infinie", précise Patrick Meyer. "Mais attention, l'agentique sans orchestration fiable, ce n'est pas de l'agentique, c'est un magma de choses qui communiquent jusqu’à l’absurde."

Les pièges de l'autonomie artificielle

Cette évolution vers plus d'autonomie soulève des questions pratiques redoutables. "Question intéressante : quelle est la durée de vie d'un système agentique en considérant qu'on a 1,2% d'hallucination ?", interroge Patrick Meyer. "Sur des milliers d'appels qui s'appellent les uns les autres, très vite ça devient problématique."

Clément Bénesse propose une limite pragmatique : "À partir de 3 profondeurs d'agents qui se font confiance mutuellement, ça commence à poser problème. Il faut soit prendre le résultat tel quel, soit avoir un moyen de confronter à une forme de réalité pour réduire le bruit généré."

L'humain dans la boucle : plus qu'une nécessité, une philosophie

Face à ces défis, les deux experts convergent vers une vision équilibrée. "Il faut garder l'humain dans la boucle", insiste Patrick Meyer. "Il doit rester celui qui va dire oui ou non."

Cette approche dépasse la simple précaution technique pour commencer à tenter de définir une philosophie de l'IA : "Ce que veulent les utilisateurs, c'est d'être capable de répondre à n'importe quelle question - pas que des questions, mais aussi résumer des documents, comparer des documents. Il y a tout un ensemble de services à créer."

Le paradoxe se résout dans la complémentarité : l'IA génère, l'humain évalue et décide. "Il y a énormément de choses à gagner sur le fait de prendre cette technologie et bien la maîtriser en interne", observe Clément Bénesse. "Paradoxalement, c'est sur l'éducation et la culture qu'il faut mettre l'accent actuellement."

Vers une IA responsable et créative

Cette exploration quasi philosophique du RAG révèle un enjeu plus large : comment développer une IA à la fois fiable et créative ? La réponse ne réside pas dans un choix binaire entre contrôle et liberté, mais dans l'orchestration fine des deux.

L'avenir du RAG et de l'IA générative se construira sur cet équilibre : exploiter le potentiel créatif des modèles probabilistes tout en préservant la capacité humaine d'évaluation et de sens critique. Car si les machines peuvent halluciner comme elles peuvent faire preuve d’une forme de créativité, seul l'humain peut distinguer l'un de l'autre. Pour l’instant…

Search

artificial-intelligence

Contenus associés

L’IA en première ligne dans la lutte d’Iberpay contre la fraude financière

Iberpay intègre l’IA à son service anti-fraude et offre aux banques des données clés pour lutter contre la criminalité financière. 

TradSNCF : L’IA au service des agents de gare pour l’accueil des voyageurs

Découvrez TradSNCF, l'outil de traduction de la SNCF alimenté par l'IA qui améliore l'expérience voyage de millions de passagers du monde entier.

La technologie au service de la lutte contre l’analphabétisme

Comment Norad et Sopra Steria utilisent l'IA et la technologie cloud pour lutter contre l'analphabétisme infantile.