Portrait de David Cortés – Président fondateur d’AIvidence

21 Juil 2022

« Nous apporterons principalement à Confiance.ai un outil innovant de segmentation explicable, AntakIA, via l’exploitation de nouveaux indices de pouvoir […] et la substitution par segment par des modèles explicables, en vue de faciliter les phases finales de certification. Et au gré des cas d’usage, un algorithme novateur pour la détection d’anomalies et le scoring explicables (TreeRank). »

Pouvez-vous vous présenter ainsi que décrire votre rôle au sein d’AIvidence ?

David Cortés : David Cortés, 46 ans, j’ai fondé et préside AIvidence. De formation polytechnicienne axée sur la physique fondamentale et sur l’optique, complétée par l’École de Telecom de Madrid, j’ai exercé pendant 20 ans divers métiers du conseil auprès d’opérateurs télécoms, d’acteurs industriels et d’acteurs financiers. Dès 2018, j’ai travaillé à inscrire les notions d’explicabilité et d’adoption des nouveaux outils d’IA dans l’ADN de ces équipes et à préparer les outils et les connaissances nécessaires aux prochains audits d’algorithmes d’IA en anticipation de l’AI Act de l’UE. Cela a permis le lancement d’une Chaire de recherche sur l’explicabilité de l’IA pour lutter contre le blanchiment d’argent avec les équipes pluridisciplinaires de Telecom Paris, de l’ACPR et de PwC.

Quelle est l’activité de votre entreprise et pourquoi a-t-elle souhaité intégrer le programme Confiance.ai ?

David Cortés : AIvidence développe des produits SaaS et des méthodologies innovantes pour l’explicabilité et l’équité d’IA performantes et robustes. Nous rendons avec nos clients de tout secteur leurs IA explicables et à terme, certifiables par construction.

L’intégration au collectif Confiance.ai s’est faite en parfait alignement avec nos premiers travaux et notre mission d’entreprise. Après avoir été colauréats en 2021 du Techsprint sur l’explicabilité d’algorithmes d’IA du secteur financier organisé par l’ACPR, le régulateur français de la banque et de l’assurance, nous avons considéré que la méthodologie et l’outil modèle-agnostique distingués par ce régulateur s’avèreraient également féconds pour l’industrie, notamment l’industrie aéronautique. Intégrer Confiance.ai était donc extrêmement intéressant pour valoriser ces expertises trans-sectorielles, contribuer nous l’espérons, à enrichir les outils existants comme la bibliothèque Xplique de l’ANITI et nous en nourrir en retour. C’est aussi la possibilité d’échanger avec les acteurs du collectif.

Nous apporterons principalement à Confiance.ai un outil innovant de segmentation explicable, AntakIA, via l’exploitation de nouveaux indices de théorie des jeux (Banzhaf, en plus de Shapley), la substitution par segment par des modèles explicables, en vue de faciliter les phases finales de certification et au grès des cas d’usage, un algorithme novateur pour la détection d’anomalies et le scoring explicables (TreeRank).

Quelle est votre définition de l’IA de confiance ?

David Cortés : Nous synthétisons les très nombreuses approches normatives relatives à la notion de Confiance dans l’IA de deux grandes directions :

  • la confiance dans des systèmes autonomes avec comme enjeux principaux, la robustesse et à terme la certificabilité ;
  • la recevabilité de décisions automatisées et les enjeux afférents d’éthique, d’équité, de transparence et de traçabilité.

La complémentarité entre secteurs mentionnée plus haut apparaît alors clairement : les acteurs industriels sont à la pointe des sujets sur la robustesse, le contrôle des dérives quand les acteurs à clientèle grand public développent l’expertise sur les sujets de contrôle des biais ou d’explication à leurs clients.

Cette dernière notion d’explication est foncièrement nouvelle avec la généralisation de l’usage du machine learning (apprentissage machine). Elle lie pour nous les enjeux entre secteurs, principalement par le besoin que tous ont de pouvoir constituer impérativement un binôme à succès entre le concepteur des modèles et les futurs utilisateurs ou clients. Or, les outils actuels d’explication qui est soit locale (une décision), soit globale (influence moyenne d’une variable), sont insuffisants pour en garantir le succès. C’est donc pour nous essentiellement par une nouvelle approche d’explication « régionale », intermédiaire, que se comblera ce chaînon manquant, clef pour des développements et des déploiements d’IA acceptées en confiance, tant au sein de l’entreprise qu’auprès de ses clients.

Selon vous, comment l’IA de confiance va impacter le marché industriel de demain ?

David Cortés : Les études actuelles, comme le rappelle notamment Julien Chiaroni, s’accordent sur le fait qu’environ 60% des investissements d’IA correspondent à des tâches visant à assurer des déploiements de confiance. Cela correspond à une maturité des technologies d’apprentissage statistique et des acteurs les ayant à présent déployés en production. Les enjeux de beaucoup d’acteurs industriels ne sont en effet plus dans la preuve de la valeur mais dans le maintien dans le temps de leur performance, la formation des équipes et la conduite du changement.

L’acceptation humaine, en plus des futures certifications des machines, est donc primordiale et est tout autant une nécessité opérationnelle qu’une contrainte réglementaire.

Aussi, le parti pris du législateur en Union Européenne relève moins de la réglementation rigide que de la « soft law », c’est-à-dire une incitation pour les acteurs à proposer eux-mêmes des standards qui permettent de respecter les grands principes énoncés dans le texte. Autrement dit, ils doivent veiller à respecter « l’esprit » du texte et à prendre la plume pour en définir eux-mêmes « la lettre ». L’initiative nationale Confiance.ai nous apparaît donc particulièrement pertinente pour avancer nationalement, proposer et peser internationalement sur ces futurs standards, par les échanges féconds qu’elle permet d’instaurer entre ses différents types d’acteurs. Nous sommes très fiers d’y contribuer.