Tour d’horizon des initiatives internationales pour une IA de confiance

24 Jan 2024Divers, Non classé, Norme et label

S’il existe aujourd’hui un consensus autour de l’intelligence artificielle (IA), c’est sur la façon dont elle a révolutionné notre manière de vivre, de travailler et de penser. Cependant, cette transformation rapide vient avec son lot de défis, notamment en matière de confiance. Dans un monde où les décisions cruciales sont de plus en plus prises grâce à des algorithmes, il est impératif de garantir que l’IA soit fiable, éthique et équitable. C’est pourquoi, de nombreuses initiatives, en France et dans le monde entier, émergent pour concevoir une IA de confiance.

Dans cet article, nous vous présentons les différentes initiatives internationales avec lesquelles Confiance.ai collabore pour forger un avenir plus sûr de l’IA.

 

 

Comment et pourquoi Confiance.ai interagit avec ces initiatives ? Quel est le rôle et le positionnement du programme dans cet écosystème ?

Dès le lancement du programme, il était clair que le sujet de l’intelligence artificielle de confiance dépassait largement le seul cadre national au sein duquel Confiance.ai a vu le jour, et ce pour plusieurs raisons :

  • Les principaux acteurs industriels du programme ont une implantation internationale, sont présents en recherche et développement dans de nombreux pays en Europe et au-delà, et leurs marchés sont mondiaux ;
  • Même si Saclay et Toulouse sont parmi les hauts lieux de l’IA de confiance dans notre pays et plus largement, il existe de par le monde diverses initiatives dont les thématiques sont proches et avec lesquelles nous avons intérêt de collaborer – et la réciproque est également vraie.
  • Des relations privilégiées ont été construites avec nos collègues canadiens (québecois/Montréal) et allemands (sur divers sites) qu’il convient de poursuivre et de renforcer ;
  • Les activités de labélisation et de standardisation, qui figurent dans la feuille de route du Grand Défi national sur l’IA vérifiable et certifiable, prennent tout leur sens dans le contexte européen, qui s’appuie lui-même sur l’axe franco-allemand.

Confiance.ai apparaît ainsi comme étant au centre des différentes initiatives européennes et internationales sur l’IA de confiance. En invitant régulièrement ces partenaires internationaux à notre événement annuel, Confiance.ai Day, et en étant invités à leurs principaux évènements, en les associant à nos initiatives telles que le symposium AITA 2023 (AI Trustworthiness Assessment) et ses suites, en établissant un accord de partenariat avec des acteurs internationaux majeurs de la labélisation de l’IA, en maintenant des contacts réguliers avec ces partenaires, nous bâtissons petit à petit une communauté internationale de chercheurs et de développeurs sur le sujet dont chacun pourra bénéficier en retour.

La suite de cet article présente les principales initiatives avec lesquelles nous entretenons des rapports réguliers.

 

 

Les acteurs internationaux de l’IA de confiance

Confiance.ia au Canada (Québec)

Soutenu par le CRIM, Confiance.ia est un consortium québécois qui rassemble des acteurs privés et publics pour codévelopper des méthodes et des outils permettant de générer des solutions concrètes aux défis liés à l’industrialisation d’une IA durable, éthique, sûre et responsable. Le CRIM développera, coordonnera et dirigera des projets en collaboration avec notre programme similaire français, Confiance.ai.

Le programme Confiance.ia cible, entre autres, certains secteurs réglementés comme l’aéronautique, les transports, la finance, pour lesquels il n’est pas encore possible de démontrer la conformité des solutions basées sur l’IA.

Le programme Confiance.ai a des rapports privilégiés avec Confiance.ia avec lequel il collabore depuis le montage de leur proposition nationale. Cette collaboration devrait s’amplifier dans les prochains mois.

 

ZERTIFIZIERTE KI en Allemagne

Le projet ZERTIFIZIERTE KI, dirigé conjointement par le Fraunhofer IAIS, l’Institut allemand de normalisation (DIN) et l’Office fédéral allemand de la sécurité de l’information (BSI), ainsi que d’autres partenaires de recherche, développe des procédures de test pour l’évaluation des systèmes d’intelligence artificielle (IA). L’objectif est de garantir la fiabilité technique et une utilisation responsable de la technologie. Les exigences industrielles sont prises en compte grâce l’implication de nombreuses entreprises et organisations associées représentant divers secteurs tels que les télécommunications, la banque, l’assurance, la chimie et la vente au détail.

Les objectifs de ZERTIFIZIERTE KI sont :

  • Le développement de critères d’évaluation et d’outils d’évaluation de l’IA ;
  • Le développement de mesures de sauvegarde pour atténuer les risques liés à l’IA ;
  • Le développement de standards d’IA ;
  • L’enquête sur de nouveaux modèles économiques et de nouveaux marchés pour les évaluations et les certifications en IA ;
  • La vision holistique incluant les questions juridiques et éthiques.

Un point à souligner porte sur un catalogue d’évaluation de l’IA issu du projet qui présente une approche basée sur les risques pour évaluer les systèmes d’IA.

De fréquents échanges ont eu lieu entre Confiance.ai et ZERTIFIZIERTE KI, qui a notamment participé à chaque édition de l’événement Confiance.ai Day et avec lesquels nous avons lancé l’initiative AI Trustworthiness Assessment (AITA) en particulier lors du symposium de mars 2023 à San Francisco.

 

VDE en Allemagne

VDE, l’une des plus importantes organisations technologiques d’Europe, est synonyme d’innovation et de progrès technologique depuis plus de 125 ans. VDE est la seule organisation au monde à réunir sous un même toit la science, la normalisation, les essais, la certification et le conseil en applications. Depuis plus de 100 ans, la marque VDE est associée aux normes de sécurité les plus élevées et à la protection des consommateurs.

Leur motivation réside dans l’avancement de la technologie, la prochaine génération d’ingénieurs et de technologues, l’apprentissage tout au long de la vie et le développement de carrière « sur le tas ». Au sein du réseau VDE, plus de 2 000 employés répartis sur plus de 60 sites dans le monde, plus de 100 000 experts honoraires et environ 1 500 entreprises se consacrent à assurer un avenir digne d’être vécu : en réseau, numérique, électrique.

VDE est un des partenaires de l’accord sur la labélisation que nous avons signé avec Positive.ai et IEEE. Nous collaborons régulièrement avec VDE pour la définition d’un label commun.

 

CERTAIN (DFKI) en Allemagne

CERTAIN est une initiative collaborative du DFKI (Deutsches ForschungsZentrum für Kunstlische Intelligenze / Centre de recherche allemand pour l’intelligence artificielle) impliquant divers partenaires, axée sur la recherche, le développement, la normalisation et la promotion de techniques d’IA de confiance, dans le but de fournir des garanties et une certification des systèmes d’IA.

L’objectif du consortium CERTAIN est de travailler tout au long de la chaîne de valeur, de la recherche fondamentale à la société, en se concentrant sur le développement, l’optimisation et la mise en œuvre de techniques d’IA de confiance afin de fournir des garanties et des certifications pour les systèmes d’IA dans des cas d’usages spécifiques. CERTAIN initie, coordonne et promeut des projets de recherche abordant les aspects clés des systèmes et méthodes d’IA fiables pour les créer et les vérifier : modèles et explications, causalité et fondement, modularité et compositionnalité, facteur humain et surveillance. Le consortium permet une collaboration sur le projet avec des partenaires internes et externes. En plus de la recherche, le consortium collabore avec l’industrie, les organismes de normalisation et les parties prenantes politiques et sociétales pour définir les exigences de certification et pour définir les labels de confiance en IA et favoriser l’alphabétisation en IA.

CERTAIN a démarré en septembre dernier, c’est donc une initiative plus récente. Nous avons participé au lancement de l’initiative (trois représentants de Confiance.ai étaient présents à Sarrebrück), et nous échangeons fréquemment avec le DKFI, qui a de plus une collaboration forte avec Inria, établie depuis plusieurs années.

 

TAILOR en Europe

L’objectif du projet européen TAILOR est de renforcer la capacité à fournir les bases scientifiques d’une IA digne de confiance en Europe en développant un réseau de centres d’excellence en recherche exploitant et combinant l’apprentissage, l’optimisation et le raisonnement. Ces systèmes sont destinés à fournir des systèmes descriptifs, prédictifs et prescriptifs intégrant des approches basées sur les données et basées sur les connaissances.

« L’intelligence artificielle (IA) s’est développée à un rythme sans précédent au cours des dix dernières années. L’IA a été appliqué à de nombreux secteurs industriels et de services, devenant omniprésent dans notre vie quotidienne. De plus en plus, les systèmes d’IA sont utilisés pour suggérer des décisions à des experts humains, proposer des actions et fournir des prédictions. Parce-que ces systèmes peuvent influencer notre vie et avoir un impact significatif sur la façon dont nous décidons, ils doivent être dignes de confiance. Comment un radiologue peut-il faire confiance à un système d’IA analysant des images médicales ? Comment un courtier en placements financiers peut-il faire confiance à un système d’IA fournissant des prévisions de cours boursiers ? Comment un passager peut-il avoir confiance en une voiture autonome ? Il s’agit de questions fondamentales qui nécessitent une analyse approfondie et des activités de recherche fondamentale, ainsi qu’une nouvelle génération de talents en IA maîtrisant les fondements scientifiques d’une IA digne de confiance, sachant comment évaluer et concevoir des systèmes d’IA dignes de confiance. Certains des problèmes actuels liés au manque de confiance dans les systèmes d’IA sont une conséquence directe de l’utilisation massive de méthodes de type boîte noire s’appuyant uniquement sur les données. Nous devons définir les bases d’une nouvelle génération de systèmes d’IA s’appuyant non seulement sur des approches basées sur les données mais également sur l’ensemble des techniques d’IA, y compris les méthodes d’IA symbolique, l’optimisation, le raisonnement et la planification. »  

Nous avons collaboré avec TAILOR pour l’organisation d’un workshop lors de la conférence ECML/PKDD à Grenoble fin 2022, et TAILOR était co-sponsor de l’évènement AITA cité ci-dessus pour ZKI.

 

RAI UK au Royaume-Uni

RAI UK rassemble des chercheurs des quatre nations du Royaume-Uni pour comprendre comment nous devrions façonner le développement de l’IA au profit des personnes, des communautés et de la société et, reconnaissant la nature mondiale du défi, pour établir des liens avec des partenaires internationaux poursuivant des recherches similaires. Il s’agit d’un réseau ouvert et multidisciplinaire, s’appuyant sur un large éventail de disciplines académiques. Cela découle de la conviction de RAI UK que le développement d’une IA responsable nécessitera autant de concentration sur l’humain et sur les sociétés humaines, que sur l’IA. RAI UK investira dans les quatre domaines prioritaires suivants :

  • La création d’écosystèmes : le consortium définira un portefeuille de domaines thématiques, d’activités translationnelles et de partenariats stratégiques avec le monde universitaire, les entreprises et le gouvernement, ainsi que les mesures d’impact associées. Cela élargira et consolidera le réseau tant au niveau national qu’international et aidera également à identifier les ajustements de cap à apporter à la politique nationale (comme la stratégie industrielle et la stratégie britannique en matière d’IA) ;
  • Des programmes de recherche et d’innovation : RAI UK réalisera des recherches sur les pratiques sociotechniques et créatives dirigés par d’autres consortiums qui abordent les défis fondamentaux avec des perspectives multidisciplinaires et industrielles. Ces projets de recherche intégrative relieront des équipes de recherche établies dans toute la communauté et des projets de recherche et d’innovation en phase de démarrage et dirigés par l’industrie. Ce faisant, RAI UK contribuera à élargir l’écosystème du Royaume-Uni et à développer la prochaine génération de leaders en recherche ;
  • Un programme de compétences : RAI UK traduira ses recherches en cadres de compétences et en formations pour les utilisateurs, les clients et les développeurs d’IA. Le consortium contribuera également à l’appel à l’« UK AI Strategy’s Online Academy » ;
  • L’engagement du public et des politiques : RAI UK travaillera avec le réseau de décideurs politiques, de régulateurs et de parties prenantes clés pour répondre aux préoccupations émergentes et au besoin de nouvelles normes. Le consortium renforcera également les capacités en matière de responsabilité publique et fournira des conseils fondés sur des données probantes au public et aux décideurs politiques. Lancés en mai 2023, les premiers appels à l’accélération de l’impact et aux liens de partenariats internationaux ont été récemment annoncés.

Nous n’avons pas encore de collaboration établie avec RAI UK qui n’a démarré que mi-2023, mais Thales est membre des deux programmes, et un représentant de Confiance.ai était présent au lancement du programme.

 

CSIRO’s Data61 en Australie

Pour relever le défi de l’IA responsable/digne de confiance, un certain nombre de principes de haut niveau (par exemple, les principes australiens d’éthique de l’IA codéveloppés par Data61) et de cadres de risques ont été élaborés. Une approche basée sur des principes permet des interprétations et une opérationnalisation neutre sur le plan technologique, à l’épreuve du temps et spécifiques au contexte. Cependant, sans technologies et outils concrets pour le développement et l’évaluation, les praticiens n’ont rien d’autre que des truismes. En outre, des efforts ont été largement consacrés aux solutions au niveau des modèles/algorithmes d’IA qui se concentrent principalement sur un sous-ensemble de principes mathématiques (tels que la confidentialité et l’équité) et l’exactitude. Cependant, des problèmes d’IA responsables peuvent survenir à n’importe quelle étape du cycle de vie du développement et touchent de nombreux composants IA, non IA et blocs de données des systèmes au-delà des algorithmes et des modèles d’IA. L’objectif de l’initiative « Opérationnalisation de l’IA responsable » de Data61 est de développer des technologies et des outils innovants d’ingénierie logicielle/système que les experts en IA, les développeurs de systèmes et d’autres parties prenantes peuvent utiliser pour rendre les systèmes d’IA et leurs processus de développement dignes de confiance. Cette initiative adopte une approche basée sur les risques qui comprend trois domaines de recherche principaux :

  • L’IA centré sur l’humain : lignes directrices spécifiques à un secteur ou à une préoccupation et méthodes d’évaluation des risques au niveau du système, complétées par des mesures et des approches de mesure ;
  • L’ingénierie de l’IA responsable : outils et méthodes pour une IA responsable au niveau du système, couvrant des cycles de vie complets. Les exemples incluent le catalogue de modèles d’IA responsable. ;
  • L’ingénierie des connaissances pour une IA responsable : une base de connaissances sur l’IA responsable de haute qualité comprenant des graphiques de connaissances, des bases de données d’incidents et des banques de questions. Ces connaissances sont intégrées dans des méthodes/outils accessibles (par exemple Chatbot) pour un ensemble diversifié de parties prenantes.

CSIRO/Data61 collabore étroitement avec le National AI Centre (NAIC) d’Australie, où la gouvernance de l’IA et les pratiques de mise en œuvre responsables de l’IA sont diffusés via le Responsible AI Network (RAIN) d’Australie.

Deux représentants du CSIRO étaient présents lors de l’évènement AITA, et les relations se sont développées depuis avec des échanges réguliers, une visite de leur part à Saclay, et la participation au comité de programme du prochain Confiance.ai Day.

 

 

Des initiatives en ordre de marche pour l’AI Act

L’Europe a placé la confiance au coeur de sa politique de réglementation de l’intelligence artificielle. Les propositions de réglementation (AI Act) et de directive sur la responsabilité en matière d’IA (AI Liability Directive) sont directement inspirées par les travaux du « HLEG », ce groupe d’experts de haut niveau sur l’IA qui a produit des principes et recommandations sur le sujet.  Les exigences de la future réglementation se concentrent principalement sur les systèmes à haut risque et à risque systémique, et portent sur divers aspects de la confiance : robustesse, explicabiité, maintien du contrôle par les humains, transparence, absence de biais etc. et tout ceci au service des grands principes qui nous gouvernent : sécurité, santé et respect des droits des personnes ; protection de l’environnement ; démocratie et respect de la loi européenne.

 

Les travaux de Confiance.ai et des projets avec lesquels nous avons établi des liens fournissent des éléments concrets au service de ces objectifs : taxonomies, méthodologies, technologies, outils ; ces éléments bénéficient des collaborations avec les différentes initiatives mentionnées dans cet article.

 

La présentation des différents acteurs internationaux de l’IA de confiance nous a montré la richesse des initiatives, des expertises et des idées réunies autour de l’intelligence artificielle de confiance.

C’est précisément parce que nous croyons en cette collaboration et que nous souhaitons la cultiver que nous avons sollicité ces acteurs internationaux pour contribuer à   notre événement annuel, Confiance.ai Day. Rendez-vous le 7 mars 2024 à Paris pour échanger avec tout cet écosystème de l’IA de confiance.