Portrait de Bertrand Braunschweig – Coordonnateur scientifique de Confiance.ai

18 Oct 2023

« Le programme Confiance.ai met en avant la synergie entre acteurs d’horizons variés. Celle-ci est pour moi la seule façon possible d’attaquer un problème d’une telle ampleur : créer une IA opérationnelle dans des contextes à fort enjeux économiques, sociaux et sociétaux.« 

Pouvez-vous vous présenter ainsi que votre parcours ?

Bertrand Braunschweig : J’ai passé l’essentiel de ma carrière dans le domaine de l’intelligence artificielle bien que je l’aie commencée sur des sujets assez différents, en modélisation et simulation technico-économique, dans l’industrie pétrolière.  Par la suite, j’ai dirigé, pendant douze ans, un groupe de recherche en IA à l’IFP, aujourd’hui IFP Energies Nouvelles ; ensuite j’ai rejoint l’Agence nationale de la recherche (ANR) où, pendant quelques années j’ai dirigé le département STIC, qui finançait la recherche collaborative en numérique et en mathématiques appliquée en France. Puis, j’ai rejoint Inria pour une petite dizaine d’années où j’ai dirigé deux beaux centres de recherche : Rennes et Saclay et ai coordonné la stratégie nationale de recherche sur l’intelligence artificielle, pour laquelle l’État avait demandé à Inria d’en assurer la coordination.  Même si j’ai commencé dans l’industrie, au cours de ma carrière, j’ai été de plus en plus proche du monde de la recherche, par intérêt personnel et parce que c’est une nécessité pour le développement de l’économie et de la société. Aujourd’hui mon action principale est d’être le coordonnateur scientifique du programme Confiance.ai depuis ses débuts, fin 2020.

 

Comment définiriez-vous l’IA de confiance ?

Bertrand Braunschweig : La confiance dans l’intelligence artificielle est un sujet absolument essentiel pour ce qu’on appelle, dans Confiance.ai, les applications critiques pour la vie des personnes, la sécurité, l’économie et l’environnement. C’est aussi le cas pour les applications à haut risque (terminologie de la commission européenne).  Il y a de nombreux facteurs qui contribuent à la confiance :

  • Des facteurs technologiques : ce sont ceux sur lesquels nous travaillons principalement dans le programme comme la robustesse, la précision, la sûreté et la sécurité ;
  • Des facteurs d’interaction entre les systèmes et les humains avec la transparence, l’explicabilité et le maintien du contrôle par l’humain ;
  • Des facteurs sociologiques de manière à ce que les systèmes que l’on développe soient acceptés par la société, donc par exemple soient non biaisés, économes en ressources, inclusifs.

L’IA de confiance doit être une réponse à toutes ces grandes questions ; c’est donc la combinaison de facteurs technologiques, de facteurs d’interaction et de facteurs sociaux.

 

Quelle est votre vision long-terme de Confiance.ai en tant que coordonnateur scientifique du programme ?

Bertrand Braunschweig : Le programme Confiance.ai aborde des sujets scientifiquement difficiles, comme la robustesse, la précision, l’explicabilité etc., tous sujets qui font l’objet de recherches depuis quelques années et qui sont loin d’être complètement traités aujourd’hui, d’autant plus que la complexité des systèmes d’IA est en train d’augmenter. Elle était déjà très forte avec l’arrivée de l’apprentissage profond à partir des années 2010 et le devient encore plus avec les grands modèles de langage ou les grands modèles de vision qui sont un nouveau défi en raison de leur taille et de leur structure (on parle de centaines de milliards de paramètres). Toutes les technologies que nous sommes capables de mettre en œuvre  sur des systèmes de « petite » taille sont mises en cause quand on travaille sur des grands systèmes tels que ceux-ci, en particulier quand il s’agit de conduire des raisonnements sur les internes des modèles.  Il y a aussi beaucoup de formalismes utilisés en IA, à la fois dans l’IA numérique avec toutes les architectures de réseaux neuronaux qui ont été imaginées mais également dans d’autres sous-domaines de l’IA (IA symbolique, planification, contraintes etc.). En résumé de nombreux défis scientifiques sont posés, défis que nous avons commencé à aborder dans le programme avec, bien sûr, des résultats significatifs pour un certain nombre d’entre eux même s’ils vont rester, pour beaucoup, encore l’objet de recherches dans les années à venir.

 

Comment le volet scientifique est traité au sein de Confiance.ai ? Qu’est-ce qu’un défi scientifique ?

Bertrand Braunschweig : L’ensemble des travaux qui sont menés dans Confiance.ai a une base scientifique très importante, la science est donc un élément essentiel du programme. On aborde les choses de diverses manières : d’abord sous forme de veille scientifique, beaucoup de chercheurs de Confiance.ai suivent de près l’évolution des technologies, des méthodes, des algorithmes, des modèles ; nous sommes capables de faire un état de l’art assez pertinent sur tous les sujets de confiance dans l’IA.  Également, nous animons le programme grâce à un groupe de travail (GT) dédié qui organise beaucoup d‘évènements collectifs : des séminaires scientifiques tous les 15 jours, donnés par des membres du programme ou par des chercheurs externes ; des journées scientifiques trimestrielles où l’on traite en général un ou deux sujets en profondeur. Le GT apporte aussi sa contribution à l’événement annuel de Confiance.ai, Confiance.ai Day, ouvert à la communauté française et internationale et qui consacre toujours un moment à la science. Le GT encourage les publications scientifiques des membres du programme et gère le workflow de publications : on s’attache à vérifier un certain nombre de critères pour que les publications scientifiques du programme soient à la fois bien identifiées, portent les messages que l’on souhaite vers l’extérieur et respectent les contraintes de propriété intellectuelle. Enfin, le GT maintient la liste des défis scientifiques du programme : nous avons assez rapidement identifié les grandes catégories de défis sur lesquels Confiance.ai allait travailler, comme la conception, la validation et le déploiement de composants d’IA de confiance, la maîtrise des données qui servent à l’apprentissage, tout au long de leur cycle de vie, ou encore les modalités d’interaction entre humains et systèmes. Ensuite, nous avons analysé beaucoup plus finement ces défis scientifiques, ce qui a abouti à une liste d’environ 70 défis individuels, que nous mettons en relation avec tous les développements faits au sein des fiches-actions du programme. Dans les semaines qui viennent, nous allons publier, petit à petit sur le nouveau site web Confiance.ai, des textes résumant ces défis scientifiques qui vous permettront de mieux comprendre ce sur quoi nous travaillons.