“Si je parviens à développer une méthode pour mieux définir le domaine de validité de modèles d’IA, cela permettra de mieux les comprendre et les évaluer ainsi que de mieux garantir leur bon fonctionnement pour des applications réelles.”, Adrien Le Coz, doctorant au sein du projet “Ingénierie de la donnée et de la connaissance pour l’IA de confiance”

 

Pouvez-vous vous présenter ainsi que votre parcours ?

Adrien Le Coz : Je suis doctorant de première année à l’IRT SystemX et fais également partie du département DTIS de l’ONERA, partenaire de l’Université Paris-Saclay*, dans le cadre du programme Confiance.ai. Après mon diplôme d’ingénieur à l’ISAE-SUPAERO, j’ai passé quelques années chez EDF Chine où j’ai participé à des projets d’application de méthodes d’Intelligence Artificielle (IA) à des systèmes industriels comme le pilotage intelligence d’un réseau de chauffage ou la prédiction de production éolienne. J’ai découvert que ces méthodes sont très puissantes et peuvent résoudre des problèmes difficiles et variés.

Cela ne fait qu’une dizaine d’année que l’IA se développe autant, notamment grâce aux méthodes de Deep Learning (apprentissage profond) qui nécessitent de grandes quantités de données et des ordinateurs puissants. Depuis, les avancées sont nombreuses, la recherche extrêmement dynamique et de plus en plus d’applications dans des domaines variés voient le jour. J’ai choisi de faire un doctorat pour suivre et comprendre ces avancées ainsi que pour participer à cette recherche à mon échelle.

Le changement climatique et l’abandon progressif des énergies fossiles étant parmi les enjeux principaux du siècle, de grands changements sont nécessaires dans tous les secteurs (énergie, transport, industrie, alimentation…). La généralité et la puissance de l’IA en font un outil capable d’accélérer et de participer à ces grandes transformations. C’est ce qui me motive pour le futur.

 

Sur quoi portent vos recherches ?

Adrien Le Coz : Ma thèse s’intitule “Expression et validation d’une domaine opérationnel par exemples extrêmes pour les applications de vision par ordinateur”. Son objectif est de définir le domaine de validité d’un modèle de Deep Learning c’est-à-dire l’ensemble des conditions pour lesquelles les prédictions du modèle peuvent être considérées comme fiables. En effet, ce type de modèle apprend à faire des prédictions grâce à de nombreuses données d’exemples passés et n’est donc pas infaillible. Par exemple, un modèle peut apprendre à reconnaître la présence d’un chien ou d’un chat sur une image. Le modèle a besoin d’une phase d’entraînement pendant laquelle on lui montre des images de chien et de chat pour qu’il apprenne comment les reconnaître et les distinguer. Les données à disposition contiennent uniquement des grands chiens noirs et des chats blancs. Maintenant, on montre au modèle entraîné une nouvelle image : un petit chien blanc. Celui-ci sera confus et pourra prédire la présence d’un chat alors que c’est faux parce-que nous sommes sortis du domaine de validité du modèle. Nous ne pouvons alors plus faire confiance à ce modèle. Il est important, parfois vital, de savoir dans quelles conditions le modèle est fiable (ici, grands chiens noirs et chats blancs) ou non (petit chien blanc, loup, puma, photo floue…).

L’approche de ma thèse est de se baser sur des exemples extrêmes (un chien gris, un grand chat…) pour définir les limites du domaine de validité d’un modèle. Visualiser les exemples extrêmes qui perturbent le modèle permet de mieux le comprendre et définir les limites du domaine permet d’évaluer le modèle précisément.

 

En quoi consiste votre travail au sein de Confiance.ai ? Selon vous, comment peut-il impacter le marché industriel de demain ?

Adrien Le Coz : Je suis rattaché au projet “Ingénierie de la donnée et de la connaissance pour l’IA de confiance” qui s’intéresse en particulier aux données. Cela est essentiel car obtenir une grande quantité de données adaptées au problème est une condition nécessaire pour toute application d’IA.

Mon sujet de thèse porte plutôt sur la théorie car le but est de développer une nouvelle méthode. Toutefois, en travaillant au sein de Confiance.ai, je suis entouré d’industriels qui ont souvent une perspective et des problématiques différentes de celles du domaine académique. Cela me permet de rester confronté aux applications réelles de l’IA et de garder en tête que mes recherches doivent intégrer une dimension concrète pour être utiles. Si je parviens à développer une méthode pour mieux définir le domaine de validité de modèles d’IA, cela permettra de mieux les comprendre et les évaluer ainsi que de mieux garantir leur bon fonctionnement pour des applications réelles.

 

Comment définiriez-vous l’IA de confiance ?

Adrien Le Coz : L’IA de confiance est une IA qui reconnaît ses limites. Cela signifie qu’on sait dans quelles conditions elle est fiable et dans quelles conditions elle risque de se tromper. Une barrière au déploiement de l’IA est qu’aucun modèle actuel ne se trompe jamais dans ses prédictions. Il faut donc gérer au mieux cette incertitude permanente. On peut améliorer la structure et l’entraînement des modèles, garantir que les données soient bien représentatives du problème à résoudre, qu’elles soient de quantité et de qualité suffisantes pour l’entraînement et la validation du modèle, renforcer les méthodes d’évaluation, bien identifier les limites du domaine d’application, etc. Beaucoup de pistes différentes sont à explorer pour développer une IA plus fiable et donc plus largement applicable.

*Directeur de thèse, Stéphane HERBIN, ONERA et co-encadré par Faouzi ADJED, IRT SystemX.

Autres actualités
Portrait de Pol Labarbarie – Doctorant de deuxième année

Portrait de Pol Labarbarie – Doctorant de deuxième année

"Mon travail, bien que théorique, est nourri en permanence par les problématiques des industriels. La présence d'une vulnérabilité et l'exploitation de celle-ci par un hacker pourrait avoir des conséquences drastiques sur la société. ", Pol Labarbarie, doctorant au...

lire plus

Inscrivez-vous à la newsletter de Confiance.ai

pour en savoir plus sur les actualités du collectif et de l’IA de confiance

Centre de préférences de confidentialité

Analytics

Mesure d'audience

Google Analytics