|
minutes de lecture
Portée
par les avancées technologiques, l’essor de l’Intelligence Artificielle (IA) ne
se dément pas. Tout le monde utilise ou connaît, d'une manière ou d'une autre,
des services et produits enrichis d'IA. Il s’agit notamment de traduction
simultanée, de recommandation de vidéos, de véhicule autonome, de contrôle du
réseau électrique, de gestion du trafic, de lecture de clichés radiologiques…
Pourtant
le déploiement à l’échelle de systèmes à base d’IA reste quand même limité pour
deux raisons essentielles. La première c’est la confiance que l’on peut
accorder à ces systèmes. La seconde c’est le niveau d’industrialisation que
l’on peut leur procurer. La confiance implique que l'IA soit techniquement
protégée contre les cyberattaques, qu'elle respecte les règles éthiques
(équité, vie privée, non-discrimination, etc.) et qu'elle soit explicable et
transparente dans la mesure du possible.
Dans
des systèmes critiques où la confiance est essentielle, il est absolument
indispensable de pouvoir offrir un ensemble d’outils. Le collectif du programme Confiance.ai rassemble 13
partenaires fondateurs industriels et académiques de premier plan dont Sopra
Steria et, plus largement, un écosystème de près de 50 partenaires incluant des
startups et PME. L’un de
ses grands objectifs est précisément de proposer cet ensemble d’outils
permettant non seulement de concevoir, mais également de valider, de certifier
et d’expliquer. C’est l’objectif-même de l’environnement de confiance que Sopra
Steria fournit.
Ainsi, Sopra Steria,
l’un des leaders européens de la Tech, est fier que le programme Confiance.ai,
en collaboration avec un consortium allemand conduit par VDE, l’une des plus importantes organisations technologiques
d’Europe basée en Allemagne, annoncent un Memorandum of Cooperation (MoC).
Cette alliance vise à soutenir le futur règlement européen sur l’intelligence
artificielle (AI Act), en créant courant 2023 un label commun franco-allemand sur
l’IA de confiance et responsable qui sera étroitement lié aux futures normes
harmonisées.
Cette coopération
ambitionne de fournir les lignes directrices et spécifications pour les
applications d’IA et de préparer les écosystèmes à se mettre en ordre de marche
en vue du respect de l’AI Act. Concrètement, ces acteurs clés en France et en
Allemagne proposeront un référentiel commun sur l’IA de confiance. À
terme, cela accélérera le "time-to-market", notamment en faveur des
PME et ETI qui disposeront de solutions qu'elles n'auraient pas pu développer
toutes seules.