Tribune : Augmenter la confiance dans l’IA générative plutôt que d’interrompre les recherches

14 Juin 2023Norme et label

Le moratoire proposé sur les recherches en IA générative ne répond pas entièrement aux questions essentielles qui sont posées pour l’utilisation de ces systèmes dans des applications dites « critiques ». Un des défis les plus importants est celui de la confiance envers ces systèmes, confiance qui repose notamment – mais pas uniquement – sur des facteurs technologiques, que nous développons dans le programme Confiance.ai, et sur lequel il est essentiel de poursuivre les recherches.  La proposition d’un moratoire, qui souligne la nécessité d’un cadre réglementaire sur l’IA incluant l’IA générative, est issue d’acteurs qui ne bénéficient pas de tels cadres, voire ont milité pour une innovation ouverte et très peu réglementée. Les acteurs européens bénéficieront du futur cadre réglementaire – mis à jour fin 2022 – pour intégrer explicitement le volet des IA généralistes et génératives. La question d’un moratoire pour les acteurs européens ne se pose donc pas vraiment.

Le débat public actuel sur les risques causés par les systèmes d’intelligence artificielle générative[1] est la conséquence d’une montée en puissance très rapide de ces technologies, résultat d’une course à la performance entre les principales sociétés, pour la plupart nord-américaines et chinoises, qui dominent les applications de l’intelligence artificielle (IA) pour le grand public. On ne peut qu’être impressionné par les capacités de ces systèmes (ChatGPT, Midjourney etc.) à produire ou à synthétiser des textes, des images, des vidéos voire des codes informatiques, au niveau de ce que peuvent réaliser les meilleurs experts humains. Ceci est dû notamment à l’exploitation de réseaux de neurones artificiels de très grandes dimensions (jusqu’à des centaines de milliards de paramètres à optimiser) capables d’apprendre à partir des très grandes bases de données de textes, d’images, de codes, disponibles sur l’internet.

Les acteurs du collectif Confiance.ai, sont convaincus de l’intérêt des techniques d’IA pour améliorer leurs processus et leurs produits. On peut penser, évidemment, aux véhicules autonomes, mais le potentiel de l’IA au bénéfice de l’industrie dépasse ce seul domaine : des gains sont attendus en matière de conception, de fabrication, de supervision et de pronostic de systèmes en exploitation (ex. maintenance prédictive et prescriptive) et cela dans tous les secteurs économiques tels que le transport, l’énergie et l’environnement, l’aéronautique, la défense ou encore la santé.

 

Vers une IA digne de confiance

Une condition sine qua non du développement de l’IA dans ces secteurs est celle de la confiance que nous leur accodons. S’il est acceptable qu’un système recommandant des films se trompe – il suffit alors de choisir un autre film – l’erreur n’est pas admissible lorsqu’il s’agit de diagnostiquer une maladie grave, de piloter un véhicule ou un aéronef ou encore de superviser une installation industrielle critique. Les exigences sont très élevées en matière de robustesse, de fiabilité, de sûreté, de cybersécurité, de possibilité de compréhension des mécanismes de raisonnement du système d’IA. Toutes exigences que les IA génératives ne peuvent satisfaire à ce stade et ne pourront pas satisfaire à court ou moyen terme, car il n’existe aujourd’hui aucune solution permettant de garantir leurs productions, de prouver qu’elles sont justes et fiables et encore moins de certifier leur usage, toutes choses pourtant exigées dans les industries en question. Notre responsabilité, en tant que fournisseurs et utilisateurs, est donc d’offrir les garanties nécessaires avant de déployer en masse ces technologies dans les applications.

 

IA de confiance : un enjeu international

La recherche de la confiance est d’ailleurs le fer de lance de la stratégie européenne sur l’intelligence artificielle, la Commission Européenne l’ayant placée au cœur de son action depuis plusieurs années et plus récemment dans sa proposition de réglementation européenne sur l’IA, l’AI Act, avec une approche basée sur le niveau de risque : les exigences placées sur les systèmes qualifiés de « haut risque » (tous systèmes mettant en jeu des décisions sur des personnes, mais aussi les systèmes opérant au sein d’infrastructures critiques), sont effectivement la robustesse, l’absence de biais, la fiabilité, l’interprétabilité et la transparence.

Tous les regards se portent sur les Etats-Unis et la Chine. Pourtant, la France est précurseur dans ce domaine. La thématique de l’IA de confiance a été bien identifiée dans le rapport Villani de 2018, qui a donné lieu à la création des instituts interdisciplinaire d’intelligence Artificielle (3IA) dont certains comme ANITI avec son projet fondateur DEEL, issu de l’IRT Saint Exupéry, sont focalisés sur la recherche amont liés à ces problèmes de confiance et d’acceptabilité. Les efforts sur cette thématique ont été amplifiés dans la deuxième phase de la stratégie nationale d’IA. Le besoin de confiance a également été exprimé par 14 grands industriels nationaux[1] signataires du Manifeste pour l’IA au service de l’industrie publié en 2019. C’est notamment à la suite de ce Manifeste qu’a été lancé le Grand Défi National pour l’intelligence artificielle vérifiable et certifiable, dont notre programme Confiance.ai est le pilier technologique. Réunis au sein de ce grand programme, nous développons les techniques et les outils pour lever les verrous associés à l’industrialisation voire à la certification de systèmes et de solutions à base d’IA, proposer des méthodes outillées d’ingénierie de l’IA au service de la conception, de la validation, de la qualification, du déploiement et du maintien en condition opérationnelle.

Et nous ne sommes pas les seuls ! Partout dans le monde, des initiatives nationales et internationales visent à développer l’intelligence artificielle de confiance et responsable, à commencer par le programme franco-québecois DEEL (Dependable and Explainable Learning) lancé fin 2017 ; en Allemagne le programme « Zertifizierte KI » coordonné par Fraunhofer IAIS, et le programme SafeTrAIn piloté par Siemens ; au Royaume-Uni la récente initiative « Trustworthy and Responsible AI » financée par l’agence de la recherche et de l’innovation ; aux Etats-Unis dans diverses actions comme le « AI Bill of Rights » proposé par la Maison Blanche, mais aussi les actions normatives du NIST, agence nationale de tests et d’essais ; en Australie, au Japon, ou encore porté par des organisations internationales comme le Partenariat Mondial pour l’Intelligence Artificielle, l’OCDE, l’UNESCO etc.

[1] Airbus, Air Liquide, Dassault Aviation, EDF, Renault, Safran, Thales, Total, Veolia, rejoints par Valeo, Schlumberger, ST, Orange, Naval Group, Michelin et Saint Gobain

 

Des challenges scientifiques et technologiques pour une utilisation de ce type d’IA dans les systèmes critiques

Les défis scientifiques et technologiques à relever sont immenses avant de pouvoir utiliser sans risque des technologies d’Intelligences artificielles pour des fonctions critiques : preuve de robustesse, gestion de l’incertitude, maintien des systèmes dans leur domaine d’emploi, génération d’explications interprétables, frugalité … tous sujets demandant encore des recherches à l’heure actuelle, et dont on ne peut garantir qu’elles aboutiront un jour. Une réflexion de fond impliquant des spécialistes de sciences humaines et sociales devrait aussi être conduite sur l’impact de ces technologies.

Nous sommes convaincus que l’IA pourrait apporter d’immenses bénéfices aux individus, à la société, à l’économie, dès que nous maitriserons mieux les technologies correspondantes. Il est ainsi nécessaire de poursuivre les recherches sur la confiance envers les technologies, d’IA, y compris sur les très grands modèles, en particulier pour l’utilisation dans des systèmes critiques. Il faut donc continuer à investiguer sur les points durs, qui sont nombreux. C’est ce que nous avons entrepris avec l’aide de l’État dans le programme Confiance.ai, et nous sommes déterminés à poursuivre cet effort.

 

Cette tribune est la version longue de l’article paru dans Les Échos le 6 juin 2023.