“On voit souvent que beaucoup de développements qui embarquent de l’IA n’arrivent pas en production et […] on est souvent confronté au fait de ne pas pouvoir embarquer de l’IA en mode boite noire dans des domaines métiers critiques, où l’impact d’une prédiction faite par une IA est sensible.”, Ingrid Fiquet, responsable de la fiche action “Trustworthy environment”

 

Pouvez-vous vous présenter ainsi que votre parcours ?

Ingrid Fiquet :Je suis actuellement ingénieure MLops chez Sopra Steria, entreprise dans laquelle je travaille depuis presque cinq ans, depuis mon stage de fin d’étude. Ayant commencé en tant que Data Scientist, j’ai, au travers de mes missions, souvent eu l’occasion de travailler sur des sujets d’industrialisation de prototypes de DataScience, ce qui m’a amené sur la thématique du MLops. Je me suis spécialisée sur l’outillage de plateforme d’IA et sur la mise en place de chaine MLops pour l’industrialisation de projet Data Science car cela m’a permis de travailler à la fois sur des sujets data et sur des sujets d’architecture.

 

Comment définiriez-vous l’IA de confiance ?

Ingrid Fiquet :Le prisme avec lequel j’aborde l’IA de confiance est principalement celui de la fiabilité et de l’explicabilité. On voit souvent que beaucoup de développements qui embarquent de l’IA n’arrivent pas en production et, au-delà des problématiques techniques de gestion de l’IA en production que le MLops tend à résoudre, on est souvent confronté au fait de ne pas pouvoir embarquer de l’IA en mode boite noire (c’est-à-dire sans savoir précisément ce qu’il se passe durant la phase d’apprentissage) dans des domaines métiers critiques, où l’impact d’une prédiction faite par une IA est sensible. L’enjeu réside donc dans la capacité d’expliquer comment sont obtenus les résultats issus d’un modèle d’IA, de détecter qu’aucun biais n’a influencé son apprentissage, d’être en mesure de reproduire les prédictions d’un modèle en traçant les bonnes métriques, etc.  

 

Vous avez la responsabilité de la fiche action “Trustworthy environment” dans le cadre de Confiance.ai. En quoi consiste-t-elle ? Quelles en sont les finalités ?

Ingrid Fiquet :La fiche action « Trustworthy Environment » a pour objectif de mettre à disposition des utilisateurs du programme, l’environnement fédérateur de Confiance.ai. Cet environnement a la particularité d’être outillé à la fois pour permettre à ces utilisateurs de développer les briques techniques des différentes fiches actions de Confiance.ai (mise à disposition d’un environnement de développement, de puissance de calcul, etc.) tout en permettant l’industrialisation de ces briques, afin de les livrer à l’ensemble des partenaires du programme. Pour pouvoir faire cela, nous avons mis en place, lors de la première année du programme, un environnement avec une chaine MLops pour, par exemple, mettre à disposition des fonctionnalités de versioning de modèle, d’orchestration de job. Cela permet, entre autres, d’utiliser des composants packagés sur les cas d’usage du programme. La fiche action a également travaillé sur la mise à disposition de chaine d’intégration continue pour faciliter la livraison des briques et a pour objectif de continuer d’améliorer l’environnement pour encore plus faciliter l’industrialisation et la livraison des briques du programme Confiance.ai.

 

Racontez-nous ce qui vous motive dans le fait de travailler sur le programme Confiance.ai. Qu’appréciez-vous le plus ?

Ingrid Fiquet :La finalité du programme Confiance.ai et ses enjeux sont déjà, pour moi, des thématiques très motivantes ; il s’agit des problématiques d’intelligence artificielle les plus fréquentes, au cœur de tous les sujets d’IA actuellement. En plus d’être une thématique d’avenir, le sujet de la mise en place de l’environnement de Confiance.ai est pour moi très motivant techniquement. Nous travaillons sur des technologies à l’état de l’art, balayons et comparons beaucoup d’outils ce qui est très stimulant. Le challenge dans la conception de l’environnement de confiance est également enrichissant puisque ce dernier doit pouvoir être repris par l’ensemble des partenaires et permettre d’y déployer les briques de confiance qui auront été packagées.

Autres actualités

Inscrivez-vous à la newsletter de Confiance.ai

pour en savoir plus sur les actualités du collectif et de l’IA de confiance

Centre de préférences de confidentialité

Analytics

Mesure d'audience

Google Analytics