Pourquoi l'IA industrielle migre vers l'edge

par Martin Stolberg - spécialiste Edge AI chez Sopra Steria
| minutes de lecture

L'IA cloud peine face aux réalités industrielles : quand les décisions de contrôle qualité se prennent en millisecondes et que les pièces défectueuses défilent à vitesse de production, le traitement centralisé arrive trop tard. Martin Stolberg, spécialiste Edge AI chez Sopra Steria, explique comment les industriels allemands déploient des systèmes d'intelligence locaux pour éliminer la latence, maintenir leur autonomie opérationnelle et sécuriser leurs données de production critiques.

Sur une chaîne de production automobile moderne, chaque composant subit des dizaines de contrôles qualité avant l'assemblage final. Les systèmes d'inspection visuelle scannent des milliers de points de données par seconde, comparant les mesures à des normes strictes. Toute déviation doit déclencher une réponse immédiate. Le temps que les données voyagent vers un serveur cloud distant et reviennent, la pièce défectueuse a déjà parcouru plusieurs mètres sur la ligne.

Pour combattre ce problème de latence, les industriels déploient une nouvelle génération d'infrastructures informatiques sur site qui traitent les données directement au point de production : l'edge AI. Ces systèmes distribués éliminent le délai inhérent aux infrastructures cloud centralisées, permettant la prise de décision en une fraction de seconde qu'exigent les opérations industrielles modernes.

Martin Stolberg accompagne les fleurons de l'industrie allemande dans le déploiement de ces systèmes d'intelligence locaux. Son expertise offre un éclairage pratique sur les raisons pour lesquelles l'edge computing devient essentiel aux opérations industrielles, et sur les défis que rencontrent les entreprises lors de l'implémentation d'IA distribuée.

Quels secteurs industriels montrent la demande la plus forte pour l'edge AI ?

Martin Stolberg : La demande s'aligne étroitement avec les forces industrielles allemandes : fabrication, automobile, chimie et énergie. En gros, partout où vous avez des processus physiques avec des interfaces edge qui nécessitent une prise de décision immédiate. Nous observons un intérêt particulièrement marqué des constructeurs automobiles, où chaque étape de production se conclut par un contrôle qualité : inspection visuelle, tactile ou électrique.

Mais l'edge AI dépasse le cadre de la fabrication. La panne d'électricité survenue à Berlin le 3 janvier a mis en lumière une autre application critique : la gestion des infrastructures. Les infrastructures critiques doivent être protégées et maintenues via des systèmes de contrôle décentralisés. Elles démontrent parfaitement les bénéfices de l'edge AI car ces systèmes doivent fonctionner de manière autonome sans dépendre d'une connectivité centrale.

Pouvez-vous décrire un scénario précis où l'IA cloud centralisée ne peut tout simplement pas fonctionner ?

Martin Stolberg : Prenons le contrôle qualité automobile. Lorsque vous traitez des parties de véhicule ou le véhicule complet, ce qui vient à la fin de chaque étape, c'est une inspection : le contrôle qualité de cette étape particulière. Les entreprises traitent des volumes énormes de données pendant ces inspections, mais elles ne veulent pas transférer ces données à travers de multiples réseaux ni les faire traiter dans des centres de données centralisés qu'elles ne contrôlent pas.

Au-delà des préoccupations de sécurité, il y a le problème physique. Parfois, vous avez ces méthodologies à haut volume et haute fréquence, et d'un point de vue vitesse, c'est simplement techniquement infaisable à cause des temps de latence et de transfert de données. Si le système met trop de temps à prendre une décision et que la pièce s'est déjà déplacée d'un mètre supplémentaire sur la ligne, c'est tout simplement trop tard. C'est pourquoi l'edge AI — avec des modèles plus simples, des temps de traitement plus rapides, du matériel relativement simple et moins de transfert de données — est si attractive pour l'industrie.

Quels obstacles techniques votre équipe rencontre-t-elle lors du déploiement de modèles d'IA sur des dispositifs edge aux ressources limitées ?

Martin Stolberg : Notre expertise réside vraiment dans l'application de modèles finement ajustés qui servent spécifiquement l'objectif d'une application edge AI particulière. La clé, c'est de savoir quels leviers actionner pour obtenir de bons résultats avec un effort raisonnable. Il s'agit d'optimisation de modèles plutôt que d'essayer de forcer des modèles larges et complexes sur du matériel contraint.

Le défi le plus important n'est, dans la plupart des cas, pas le déploiement initial, mais ce qui vient après. Si vous prenez l'effort global comme 100 %, 10% de cela consiste à trouver une démo ou un POC (Proof of Concept). 20% correspondent à la configuration pure de l'implémentation, et les 70 % restants sont typiquement la maintenance, les mises à jour, etc. Cette règle du 10-20-70 a été sous-estimée pendant longtemps, et elle s'applique aux applications d'edge AI. Les entreprises doivent penser à la perspective de durée de vie complète d'une application particulière et du matériel associé.

Comment gérez-vous les mises à jour de modèles sur des déploiements edge distribués avec des dizaines ou centaines de dispositifs ?

Martin Stolberg : Vous ne les traitez définitivement pas un par un. Cela nécessite de l'orchestration, similaire à ce que nous avons dans l'informatique utilisateur final. Vous avez besoin d'une orchestration centrale et d'un déploiement automatisé. Certains dispositifs se connectent via le réseau d'entreprise, tandis que d'autres utilisent la connectivité mobile (connecteurs 5G ou 6G) qui permet des mises à jour automatisées des applications d'IA.

Le défi consiste à comprendre l'écosystème entier et à savoir comment déployer les choses — et de manière critique, comment revenir en arrière si nécessaire. Il s'agit vraiment de gérer des centaines de dispositifs de calcul avec différents profils de connectivité et exigences opérationnelles.

Du point de vue de la cybersécurité, quels sont les avantages de l'edge AI, et crée-t-elle de nouvelles vulnérabilités ?

Martin Stolberg : Il y a deux aspects. Du côté positif, vous avez par conception moins de transfert de données car tout se passe sur l'edge, et vous avez typiquement de très petites quantités de données qui sont déplacées au sein du dispositif edge. D'un point de vue sécurité, c'est excellent car cela prévient les failles de sécurité par conception.

De l'autre côté, vous avez toujours des mises à jour, de la journalisation et des boucles de rétroaction. Comme vous pouvez avoir des centaines de dispositifs, il y a une faible probabilité de capturer des données particulières, mais en tant qu'attaquant, vous pouvez obtenir un aperçu statistique de ce qui se passe, de l'intensité de production de certains processus. Vous créez donc d'autres opportunités pour les attaquants d'obtenir des données, bien que sous des formes différentes des systèmes centralisés traditionnels.

Comment prévenons-nous cela ? C'est fondamentalement de la cybersécurité avec l'orchestration edge AI à l'esprit dès le tout début : appliquer les mêmes principes que nous déployons dans d'autres industries, mais en les intégrant dans l'architecture dès le premier jour.

Comment les jumeaux numériques s'intègrent-ils dans les déploiements d'edge AI ?

Martin Stolberg : Les jumeaux numériques sont extrêmement précieux. Dans l'automobile, vous pourriez avoir un modèle numérique du produit fabriqué, un modèle du processus de production, et un jumeau numérique de la pile logicielle et de l'architecture elle-même. Nous travaillons actuellement avec un constructeur automobile allemand de premier plan sur une application en conditions réelles utilisant des modèles de jumeaux numériques pour concevoir correctement les systèmes.

La vraie valeur apparaît lorsque vous avez une conception existante et que vous devez ajouter des mises à jour et extensions au fil du temps. Comment ces extensions s'intègrent-elles dans les modèles existants ? Créent-elles des conflits que vous pourriez ne pas anticiper lors de la conception d'une extension particulière ? Nous appelons cela des « copilotes d'ingénierie » : ils aident à intégrer correctement de nouvelles capacités dans les environnements existants sans casser ce qui fonctionne déjà.

Quelles capacités émergentes voyez-vous de la convergence de l'edge AI avec d'autres technologies de l'Industrie 4.0 ?

Martin Stolberg : Aujourd'hui, nous avons des systèmes d'edge AI ponctuels, parfois orchestrés le long de certaines étapes de fabrication ou d'optimisation de processus. Ce dont nous ne disposons pas encore, c'est d'un ensemble complet d'end points d'edge AI capables de fonctionner ensemble, entre différents sites d'usine et, au-delà d'une seule entreprise, au sein d'un réseau de fournisseurs.

L'avenir consiste vraiment à créer un écosystème de données fédérées à travers les systèmes d'IA, invoquant l'intelligence d'une entreprise, de ses fournisseurs, peut-être de cabinets de conseil externes comme Sopra Steria, pour travailler conjointement sur cet écosystème de dispositifs d'edge AI. Vous pourriez passer de l'optimisation de processus individuels à la prise de décisions en temps réel à travers des réseaux de production entiers.

Quel conseil pratique donneriez-vous à une entreprise planifiant son premier déploiement d'edge AI ?

Martin Stolberg : Trois points critiques. Premièrement, gardez à l'esprit qu'il s'agit d'une technologie en développement très rapide. Ce qui pourrait être à la pointe aujourd'hui, pourrait ne plus l'être dans six mois. Commencez avec une seule ligne de processus au sein de votre fabrication, mais concevez en comprenant que vous voudrez éventuellement l'image complète à travers tous vos dispositifs edge.

Deuxièmement, bien que tout le monde soit enthousiaste concernant les grands modèles de langage, les petites applications de machine learning et les petits modèles de langage gagneront plus d'élan dans les mois et années à venir. Ceux-ci peuvent permettre la reconnaissance visuelle de motifs plus complexes que ce qui est appliqué aujourd'hui.

Troisièmement, et ce conseil est souvent répété mais néanmoins critique, commencez petit et pensez grand. Gardez à l'esprit ce paysage technologique en évolution. Et rappelez-vous de cette règle du 10-20-70 : le vrai travail n'est pas dans la preuve de concept mais dans le maintien des opérations sur le long terme. Mettre les choses en place correctement du point de vue des opérations et de la maintenance préviendra certaines déceptions.

Search

artificial-intelligence

Contenus associés

L’IA en première ligne dans la lutte d’Iberpay contre la fraude financière

Iberpay intègre l’IA à son service anti-fraude et offre aux banques des données clés pour lutter contre la criminalité financière. 

TradSNCF : L’IA au service des agents de gare pour l’accueil des voyageurs

Découvrez TradSNCF, l'outil de traduction de la SNCF alimenté par l'IA qui améliore l'expérience voyage de millions de passagers du monde entier.

La technologie au service de la lutte contre l’analphabétisme

Comment Norad et Sopra Steria utilisent l'IA et la technologie cloud pour lutter contre l'analphabétisme infantile.