« J’apprécie l’aspect pluridisciplinaire du programme Confiance.ai, du Machine Learning à l’ingénierie des systèmes », Flora Dellinger, Leader du projet « Ingénierie de la donnée et de la connaissance pour l’IA de confiance »

 

Pouvez-vous vous présenter ainsi que votre parcours ?

Flora Dellinger : Je suis ingénieure experte en Deep learning chez Valeo avec une dizaine d’années d’expérience. A l’issue de ma formation d’ingénieur en électronique à l’ENSEA, je me suis ensuite spécialisée en vision par ordinateur. J’ai effectué un doctorat entre le CNES et Telecom ParisTech sur les images satellites à une époque où on ne parlait pas du tout d’IA. J’ai ensuite passé quelques années dans une start-up spécialisée dans les applications mobiles. Là, j’ai vu arriver la vague du Deep Learning et ses algorithmes bien plus performants que ce qu’on connaissait et sur lesquels il fallait se mettre à niveau. Le sujet étant vaste et passionnant, je me suis auto-formée en ligne. Il y a cinq ans, j’ai rejoint Valeo pour participer au développement de nouveaux systèmes d’aide à la conduite à base d’IA.

 

Comment définiriez-vous l’IA de confiance ?

Flora Dellinger : C’est une IA dont on peut garantir le comportement dans toutes les situations pouvant être rencontrées en conditions réelles. Cela implique d’anticiper tous les cas possibles et de collecter les données correspondantes. Si ce n’est pas le cas, une situation peut devenir problématique en milieu ouvert. Par exemple, dans le cas de la conduite autonome, de nombreuses situations bien que rares dans le monde réel (un animal ou un matelas sur l’autoroute) demeurent plausibles et critiques. C’est pourquoi, il est nécessaire d’acquérir des données représentatives de ces situations, pour à la fois entraîner l’IA mais aussi la valider. Toutefois, leur acquisition dans le monde réel n’est pas simple et nous pouvons être amenés à utiliser des données synthétiques.

 

Vous avez la responsabilité du projet « Ingénierie de la donnée et de la connaissance pour l’IA de confiance ». En quoi cela consiste ? Quelles sont les finalités ?

Flora Dellinger : L’objectif du projet « Ingénierie de la donnée et de la connaissance pour l’IA de confiance » est de développer des outils et des méthodes pour gérer les données à grande échelle et pour assurer leur confiance. Automatiser la gestion des données, tout en s’assurant de leur qualité et de leur pertinence, reste un enjeu dans le monde industriel. Nous nous intéressons à plusieurs modalités de données, comme l’image, les séries temporelles et bientôt le texte et les connaissances à base de règles. Nous abordons tout le cycle de vie de la donnée, de la spécification à la constitution des jeux de données, leur visualisation et leur évolution itérative. Par ailleurs, nous évaluons l’intérêt de nouvelles approches venant du monde de la recherche, comme l’Active Learning ou l’adaptation de domaine, pour nos cas d’usages industriels.

 

Racontez-nous ce qui vous motive dans le fait de travailler sur le programme Confiance.ai. Qu’est-ce que vous appréciez le plus ?

Flora Dellinger : J’apprécie l’aspect pluridisciplinaire du programme Confiance.ai, du Machine Learning à l’ingénierie système ainsi que son ambition de faire dialoguer des chercheurs académiques avec des ingénieurs industriels. Intégrer de l’IA dans des systèmes critiques en vue de les déployer à grande échelle nécessite de sortir d’une vision centrée « Machine Learning » et d’impliquer des métiers comme la safety, l’IVVQ ou l’ingénierie logicielle. Confiance.ai nous apporte cette ouverture d’esprit et cet espace de dialogue nécessaire pour avancer ensemble !

Autres actualités
Portrait d’Adrien Le Coz – Doctorant de première année

Portrait d’Adrien Le Coz – Doctorant de première année

"Si je parviens à développer une méthode pour mieux définir le domaine de validité de modèles d'IA, cela permettra de mieux les comprendre et les évaluer ainsi que de mieux garantir leur bon fonctionnement pour des applications réelles.", Adrien Le Coz, doctorant au...

lire plus
L’IA à l’épreuve du bruit

L’IA à l’épreuve du bruit

Pour un responsable de la sûreté de fonctionnement d'un système intégrant de l'IA, une des préoccupations légitimes est son manque de robustesse. L'instabilité des systèmes d'IA et plus particulièrement des systèmes à base d’apprentissage, a été illustrée de façon...

lire plus

Inscrivez-vous à la newsletter de Confiance.ai

pour en savoir plus sur les actualités du collectif et de l’IA de confiance

Centre de préférences de confidentialité

Analytics

Mesure d'audience

Google Analytics