Portrait de Julien Chiaroni – Ancien directeur du Grand Défi IA au Secrétariat Générale pour l’Investissement (SGPI)

29 Jan 2024

« Je crois, en tout cas je l’espère, que les collaborations du programme Confiance.ai ont permis de jeter les bases ou, tout du moins, de contribuer à cet écosystème de confiance en France, en Europe mais aussi à l’international.« 

Pouvez-vous vous présenter ainsi que votre parcours ?

Julien Chiaroni : Je souhaite tout d’abord vous remercier pour cette opportunité de m’exprimer, sachant que j’ai quitté mes fonctions de Directeur du Grand Défi « sécurisation, fiabilisation et certification des systèmes à base d’IA » depuis près d’un an et que je ne suis donc plus en responsabilité. Depuis, j’ai rejoint les équipes du CEA LIST.

Depuis le début de ma carrière, j’ai occupé des postes opérationnels à responsabilités croissantes dans le domaine de la recherche technologique, et plus particulièrement dans le numérique. J’ai commencé au LETI à Grenoble sur le semi-conducteur, puis au LIST à Saclay sur des thématiques comme l’IA ou la cyber-sécurité, avant de rejoindre le Secrétariat Général Pour l’Investissement (SGPI). C’est donc une trajectoire allant du matériel (électronique) aux logiciels me permettant d’avoir une vision transverse dans le domaine du numérique, comme l’illustre d’ailleurs le couple IA et puissance de calcul.

Le programme Confiance.ai est un des trois piliers de la stratégie du Grand Défi, validé par le comité de pilotage du conseil de l’innovation, et vise à fédérer un large écosystème industriel et académique, français mais aussi international, afin de répondre aux enjeux de la confiance dans les systèmes à base d’IA et de permettre la mise en œuvre de la future réglementation européenne en cours de négociation. La collaboration a donc été l’un des axes que le collectif à porter depuis plusieurs années. Et je suis ravi de constater aujourd’hui les résultats.

 

Comment définiriez-vous l’IA de confiance ?

Julien Chiaroni : Il est très difficile de donner une définition générale de la confiance. Et c’est tout autant le cas quand elle se réfère à l’IA. Dans un premier temps, il me semble néanmoins important de préciser que l’on parle de systèmes à base d’IA, et pas seulement d’IA qui est une technologie d’usage générale, même si celle-ci a la particularité de porter la fonction du système. Une fois cela précisé : on attend des produits qu’ils soient valides, robustes, résilients, équitables, compréhensibles, éthiques, fiables, reproductibles, sûres voire certifiables. L’IA n’y échappe pas, renforcé par une série de risques inhérents dont la difficulté à rendre compte des résultats des algorithmes. Nous nous référons donc à des propriétés et des valeurs que le système à base d’IA doit respecter, donc à un ensemble de caractéristiques de confiance. Celles-ci dépendent évidement des usages et des risques associés. Elles sont soit techniques (par exemple la robustesse), soit de l’ordre de l’interaction entre le système et l’humain (par exemple l’explicabilité), soit éthiques (par exemple les biais).

L’enjeu est double :

  • se mettre d’accord sur l’ensemble de ces caractéristiques et de leur définition : les instances de normalisation et de standardisation ont d’ailleurs travaillé à la production de taxonomies et le programme Confiance.ai en a également proposé une ;
  • de faire en sorte que cela soit  » opérationnalisable  » pour les industriels qui veulent ou doivent s’y référer et garantir une conformité à la future réglementation européenne, l’AI Act.

 

Lorsque vous étiez directeur du Grand Défi sur l’IA, vous avez impulsé plusieurs collaborations entre Confiance.ai et d’autres initiatives internationales. Lesquelles ? Quelles étaient vos motivations principales derrière ces collaborations ?

Julien Chiaroni : Je me permets de préciser que le collectif a impulsé des collaborations internationales et que j’y ai contribué. Pour citer un exemple qui illustre mon propos : la présence d’équipe de Thales à la fois en France et au Québec a été le déclencheur d’une collaboration ambitieuse entre deux écosystèmes à la pointe en IA. Après, tout le monde a été moteur pour que cela se concrétise opérationnellement. Mais pour revenir à votre question : de nombreuses coopérations internationales ont été initiées par le programme Confiance.ai. Elles portent sur la recherche ; pour l’instant avec le Québec, avec le programme Confiance.ia, mais des discussions se poursuivent avec l’Allemagne et le Royaume-Uni. Elles renforcent aussi les actions sur les normes, standards ou label en cours de rédaction pour soutenir la future réglementation européenne, l’AI Act, que ce soit avec Afnor, Positive.ai, VDE ou IEEE. Elles sont également génériques ou ciblent un secteur d’application spécifique comme l’aéronautique avec Eurocae et EASA.

La motivation est simple : apporter une réponse scientifique et technologique à un enjeu socio-économique qui nous concerne tous, faire émerger des communs numériques pour y répondre.

 

En quoi ces collaborations contribuent-elles à résoudre les questions réglementaires et à lever les verrous scientifiques et technologiques autour de l’IA de confiance ?

Julien Chiaroni : Je pense que les partenaires du programme Confiance.ai seraient mieux à même que moi de répondre précisément sur les contenus scientifiques et technologiques des collaborations qui ont été mises en œuvre. Je vais donc essayer de répondre sous un autre angle. À partir du moment où l’on considère que l’utilisation de l’IA dans des systèmes, produits, services présente des risques, que l’on s’entend sur les risques liés aux usages et les valeurs à respecter ; il reste à définir comment y parvenir.  On pensera alors forcément réglementation. Et j’ajouterai normes, standards, offre de solutions, instances d’évaluation et d’audit, etc. se dessine alors le contour d’un écosystème de confiance pour permettre une opérationnalisation, ou une mise en œuvre concrète, aux côtés des acteurs privés et conformément aux attentes des citoyens.

Je crois, en tout cas je l’espère, que les collaborations du programme Confiance.ai ont permis de jeter les bases ou tout du moins de contribuer à cet écosystème de confiance en France, en Europe, mais aussi à l’international.