Portrait de Luca Mossina – ingénieur de recherche en IA

27 Juin 2023

« Le programme Confiance.ai met en avant la synergie entre acteurs d’horizons variés. Celle-ci est pour moi la seule façon possible d’attaquer un problème d’une telle ampleur : créer une IA opérationnelle dans des contextes à fort enjeux économiques, sociaux et sociétaux.« 

Pouvez-vous vous présenter ainsi que votre parcours ?

Luca Mossina : Je suis ingénieur de recherche en intelligence artificielle (IA) à l’IRT Saint Exupéry de Toulouse, au centre de compétences en IA pour les systèmes critiques. Après des études en statistique et recherche opérationnelle, suivies d’un doctorat à l’interface entre l’apprentissage automatique et l’optimisation, j’ai rejoint l’IRT Saint Exupéry et le programme Confiance.ai en 2021. Depuis, je travaille sur la quantification d’incertitude (QI) des algorithmes de machine learning, pour les déployer de façon fiable dans un système de prise de décisions.

La QI est une tâche qui fait appel à plusieurs disciplines (statistiques, apprentissage automatique, ingénierie de systèmes, etc.) et cela m’aide à garder un esprit curieux tout en me poussant à challenger mes compétences.

 

Comment définiriez-vous l’IA de confiance ?

Luca Mossina : Je pense qu’une IA peut être considérée « de confiance » seulement si on en connait précisément les capacités, les limites et les risques possibles. Il est difficile d’en donner une définition plus précise, étant donné le large spectre d’applications et de méthodes qu’on regroupe sous le nom d’ « intelligence artificielle ». De plus, une IA nécessite d’être fiable par rapport aux besoins métiers des industriels : la notion de « fiabilité » n’est pas la même pour un système de détection de piétons pour de la conduite autonome ou pour un composant de détection de défauts de fabrication. Dans ce sens, le programme Confiance.ai, avec ses cas d’usage, accompagne les industriels dans l’effort de définir et quantifier leurs besoins de confiance.

En tant que chercheurs et ingénieurs, nous nous efforçons de proposer des outils de mesure afin de quantifier objectivement la notion de confiance, mais cela n’est pas la fin de l’histoire : il y a un fort besoin d’harmoniser les relations entre les opérateurs humains et ces systèmes à base d’IA de confiance.

 

Qu’est-ce que la quantification d’incertitude et comment le programme travaille sur cette thématique ?

Luca Mossina : Le but de la quantification d’incertitude est de nous aider à connaitre ce que nos IA ne connaissent pas : leurs limites et risques. Cela nous permet de mesurer les erreurs de nos modèles prédictifs et d’en assurer la fiabilité dans des environnements de production. On veut caractériser le comportement de nos algorithmes de machine learning (ML) pour prendre les meilleures décisions possibles et pouvoir ainsi les intégrer dans les chaînes de traitement de systèmes complexes, tels qu’on en trouve dans les industries aérospatiale et automobile.  L’apprentissage automatique est fondamentalement limité par l’aléa des phénomènes que l’on veut prédire ainsi que par l’échantillonnage que nous fournit les données. Puisqu’il est souvent impossible de mener des tests exhaustifs de toutes les situations d’usage des algorithmes ML, nous devons adopter des méthodes qui nous aident à comprendre si notre système se comporte comme attendu et qui quantifient les erreurs, notamment par le langage des probabilités. Plusieurs activités du programme Confiance.ai ont contribué à sensibiliser les utilisateurs d’algorithmes de machine learning à la quantification d’incertitude : ces activités couvrent plusieurs besoins techniques (séries temporelles, classification, etc.) et différentes approches mathématiques.

 

Racontez-nous ce qui vous motive dans le fait de travailler sur le programme Confiance.ai. Qu’appréciez-vous le plus ?

Luca Mossina : Le programme Confiance.ai met en avant la synergie entre acteurs d’horizons variés. Celle-ci est pour moi la seule façon possible d’attaquer un problème d’une telle ampleur : créer une IA opérationnelle dans des contextes à forts enjeux économiques, sociaux et sociétaux.

Cette transversalité nous pousse à sortir de notre zone de confort pour aller à la recherche de profils différents mais complémentaires et favoriser les échanges interdisciplinaires. Enfin, l’objectif du programme à fournir un environnement muni de composants matures et interconnectés facilite une collaboration de l’ensemble des acteurs et nous permet de monter en maturité scientifiquement et techniquement.

 

Sur le même thème, lire l’article « Peut-on savoir ce que l’on ne sait pas ? La quantification d’incertitude pour accéder au risque (presque) zéro ?