Portrait d’Henri Sohier – Responsable fiches actions « Standardisation » et « Labélisation »

26 Jan 2023

« Il fallait un programme comme Confiance.ai pour travailler tous ensemble sur un sujet aussi difficile que l’IA de confiance. C’est une vraie chance de pouvoir travailler avec différents talents », Henri Sohier, responsable des fiches actions « Standardisation » et « Labélisation »

Pouvez-vous vous présenter ainsi que votre parcours ?

Henri Sohier : Depuis 2016, je travaille à l’Institut de Recherche Technologique SystemX avec une double casquette d’Architecte Projet et d’Ingénieur Chercheur. Je travaille notamment sur les différents liens qu’il est possible de tisser entre l’Ingénierie Système, l’Intelligence Artificielle et la Simulation, au travers parfois de la standardisation. C’est très probablement grâce à l’excitante expérience comme assistant de recherche en génie mécanique au laboratoire du LIGO au MIT que j’ai choisi de faire une thèse à Supaero, avec le CNES et l’Onera, sur l’analyse statistique de simulations multiphysiques. J’ai ensuite travaillé comme ingénieur système dans un centre de recherche européen en construction dans le domaine des lasers haute puissance, en Hongrie.

J’ai toujours trouvé à la fois original et pertinent le principe des projets de recherches industriels et collaboratifs, typiques de l’IRT SystemX, où des entreprises peuvent résoudre ensemble des problématiques complexes qu’elles ne pourraient pas résoudre seules. Et ce, même s’il peut s’agir d’entreprises concurrentes ou à l’extrême inverse, d’entreprises de secteurs différents n’ayant que très peu de liens. J’ai d’abord travaillé sur l’ingénierie et la crédibilité de la simulation avec des acteurs de l’automobile et de l’aéronautique. Je contribue aujourd’hui principalement au programme Confiance.ai dans les domaines de l’ingénierie de l’IA, de la standardisation et de la labélisation !

 

Comment définiriez-vous l’IA de confiance ?

Henri Sohier : Si l’IA de confiance n’est pas simple à définir, son importance est aujourd’hui évidente.  Techniquement, l’IA de confiance est un terme chapeau, en parti héritier de la notion de fiabilité (« reliability », « dependability ») et d’assurance qualité (dont la définition anglaise est centrée sur la notion de « confidence », que l’on traduit aussi par confiance). L’IA de confiance est en cela également liée à la notion de gestion du risque. Les problématiques qu’elle soulève en matière de technologie, de collaboration et d’éthique la rendent passionnante : attaques adverses, explication de résultats, répétition involontaire de biais, … Il est d’ailleurs passionnant de travailler dans le programme Confiance.ai au moment où de nouveaux modèles de génération d’image (Dall-E, Stable Diffusion, …) ou de génération de texte (GPT, …) souvent époustouflants sont ouverts au public.

Il y a encore quelques années, incruster un objet dans une photo de manière réaliste restait difficile, un œil averti pouvant repérer des problèmes de détourage, d’ombre ou de luminosité. De la même manière, les chatbots étaient souvent de simples répondeurs qui n’avaient rien d’humain. Aujourd’hui, les frontières entre le vrai et le faux, entre l’humain et l’artificiel, s’estompent. Dans ce contexte, la notion de confiance est évidemment l’objet de profonds bouleversements.

 

Vous avez la responsabilité des actions de standardisation et de labélisation dans le cadre de Confiance.ai. En quoi consistent-elles ? Quelles en sont les finalités ?

Henri Sohier : Au sein de Confiance.ai, je travaille essentiellement sur le projet « Process, methodology and guidelines ». J’y suis en partie responsable des actions de standardisation et de labélisation. Mon travail sur la standardisation prend principalement place au CEN-CENELEC, l’un des principaux organismes de standardisation européen. Le « CEN » doit définir des standards adaptés aux nouvelles réglementations européennes attendues dans le domaine de l’IA, notamment pour les systèmes à haut risque. L’application des standards est volontaire, mais certains sont d’autant plus importants qu’ils offrent une présomption de conformité à la réglementation européenne. Je contribue, pour ma part, à la coordination d’un groupe du CEN sur la confiance en l’IA.

La labélisation permet de mettre en valeurs des produits de qualité ou des entreprises adhérant à des bonnes pratiques. Si la labélisation offre une certaine flexibilité en matière de périmètre d’application, de gouvernance ou encore d’audit, elle repose en fait sur les mêmes principes que la standardisation. Pour Confiance.ai, la labélisation et la standardisation devront être toutes deux appuyées par une offre de formation et un outillage adapté. Je coordonne aujourd’hui le développement d’un label associant Confiance.ai à d’autres partenaires français et étrangers.

 

Racontez-nous ce qui vous motive dans le fait de travailler sur le programme Confiance.ai. Qu’appréciez-vous le plus ?

Henri Sohier : Il fallait un grand programme comme Confiance.ai pour travailler tous ensemble sur un sujet aussi difficile et important que l’IA de confiance. C’est une vraie chance (voire un honneur !) de pouvoir travailler avec différents talents : ingénieurs systèmes et logiciels, spécialistes en certification et en normalisation, juristes, éthiciens…

Comme dit précédemment, l’IA de confiance est un terme chapeau couvrant un ensemble de problématiques qui peuvent directement nous impacter, que ce soit en tant qu’ingénieur ou en tant que citoyen. On se surprend d’ailleurs souvent à découvrir des problématiques d’intérêt parmi les livrables, les articles et les présentations (séminaires scientifiques, Confiance.ai Days, …) de Confiance.ai.