Portrait de Marion Ho-Dac, lauréate de l’AMI SHS avec le CDEP, Université D’Artois

27 Fév 2023

« Notre collaboration avec Confiance.ai est centrale afin que la recherche académique prenne appui sur des cas d’usage proposés par des industriels au cœur des problématiques contemporaines de l’IA.« 

Pouvez-vous vous présenter ainsi que décrire votre rôle au sein de l’Université d’Artois ?

Marion Ho-Dac : Je suis professeure de droit privé à l’Université d’Artois et membre du Centre Droit Éthique et Procédures (CDEP UR 2471). Cette année, je suis en délégation à l’Academy of International Affairs NRW à Bonn (Allemagne) où je mène des recherches sur la gouvernance européenne de l’intelligence artificielle.

Titulaire d’un doctorat au carrefour du droit du marché intérieur de l’UE et du droit international privé (La loi du pays d’origine en droit de l’Union européenne, Bruylant, 2012), j’ai été chercheuse en droit français et ai comparé à la Cour de justice de l’Union européenne (Luxembourg) avant de rejoindre le monde académique.

Mes recherches et enseignements les plus récents portent sur la règlementation du marché numérique européen, la justice civile transfrontière de l’UE et, plus globalement, sur la gouvernance des relations privées internationales dans un contexte d’influence croissante des technologies numériques avancées à l’instar de l’intelligence artificielle (IA). Ce tournant numérique nécessite une protection renouvelée des individus – consommateurs, justiciables, citoyens, enfants, etc. – par le droit, en dialogue avec d’autres outils de régulation/responsabilisation des praticiens de l’IA (par ex. normalisation, éthique) et d’autonomisation des individus (par ex. éducation aux médias et à l’information).

Par ailleurs, je siège dans divers comités scientifiques (Revue Trimestrielle de Droit européen éd. Dalloz, European Association of Private International, AI Transparency Institute) et contribue à des publications académiques régulières (Dictionnaire permanent de droit européen des affaires, éd. Éditions Législatives, Blog EAPIL). Je suis également membre de la commission nationale de l’intelligence artificielle (CNIA, Afnor) et participe à des groupes de travail pilotés par les organismes (français et européens) de normalisation dans les domaines des technologies numériques et de l’IA.

 

Pour répondre à l’Appel à Manifestation d’Intérêt, porté par le programme Confiance.ai, vous avez un projet sur le respect des valeurs de l’UE par les systèmes d’IA. Pourriez-vous nous expliquer en quoi consiste-t-il et quel est son objectif ?

Marion Ho-Dac : La recherche porte sur le respect des valeurs de l’Union européenne (ci-après UE) au sens de l’article 2 du Traité sur l’UE (respect de la dignité humaine, de liberté, de démocratie, d’égalité, de l’État de droit, ainsi que de respect des droits de l’homme, etc.) par les systèmes d’IA, dès leur conception et tout au long de leur cycle de vie. Elle vise, d’une part, à identifier et à expliciter ces valeurs et, d’autre part, à proposer une méthodologie d’aide à leur transcription dans les technologies d’IA, et ce grâce à un travail collaboratif au sein du programme Confiance.ai.

Le point d’entrée règlementaire de la recherche est la proposition européenne de loi sur l’IA, l’AI Act. Ce texte met en place un écosystème de confiance, axé sur le facteur humain, fondé sur les valeurs de l’UE, dont le respect des droits fondamentaux, afin de donner aux utilisateurs la confiance d’adopter des solutions fondées sur l’IA. La traduction de cette volonté politique dans la lettre du texte (i.e. sa technique juridique) est loin d’être évidente ; par ricochet, son intégration technologique dans la conception des systèmes d’IA couverts par la règlementation européenne devra être opérationnalisée et des outils scientifiques doivent être mis à disposition à cette fin. Partant, nous proposons la réalisation d’un guide pratique du respect des valeurs de l’UE à destination des industriels de l’IA.

Les objectifs-clés de la recherche sont les suivants :

  • Insuffler une dimension SHS, humaniste, axée sur le droit, au développement technologique des systèmes d’IA et, par ricochet, alimenter la recherche sur la relation homme-machine.
  • Faire progresser la confiance dans les systèmes d’IA par ses utilisateurs (et plus largement par toutes les personnes impactées), spécialement au sein du marché unique de l’UE, en instaurant un dialogue entre le droit, à travers le socle des valeurs européennes et des applications industrielles des technologies d’IA, grâce aux cas d’usage du programme Confiance.ai.
  • Participer à la « fabrique européenne » d’une IA de confiance dans la mesure où les valeurs étudiées sont de l’essence même de l’intégration politique et juridique de l’UE, en connexion avec d’autres sources normatives internationales (UNESCO, OCDE, Conseil de l’Europe).

 

En quoi le programme Confiance.ai peut vous aider dans votre projet ?

Marion Ho-Dac : L’université d’Artois (UA) à laquelle mon laboratoire de recherche appartient (CDEP UR 2471, dirigé par Pr. Hugues Hellio) développe des recherches en IA depuis de nombreuses années au sein du Centre de Recherche en Informatique de Lens (CRIL UMR 8188) qui est un partenaire de Confiance.ai. L’UA a fait de la recherche en IA un domaine d’intérêt majeur (DIM 4). Le droit est une discipline d’appui centrale pour ces recherches, comme le montre la Chaire ANR IA Responsable (IAR) dirigée par ma collègue juriste Dr. Nathalie Nevejans. C’est donc assez naturellement que j’ai proposé, au sein de l’axe de recherche « l’IA saisie par le droit » du CDEP, ce projet sur le respect des valeurs européennes par les systèmes d’IA.

Notre collaboration avec Confiance.ai est centrale afin que la recherche académique prenne appui sur des cas d’usage proposés par des industriels au cœur des problématiques contemporaines de l’IA. De la sorte, nos travaux documentaires et notre analyse didactique des valeurs européennes en contexte IA pourra faire l’objet d’une transcription dans le référentiel des praticiens de l’IA (e.g. ingénieurs) suivant une approche, par nature, transdisciplinaire, mêlant les expertises juridique et technologique. L’objectif est ainsi d’esquisser des critères de confiance exprimant le respect de ces valeurs et d’opérationnaliser leur mise en œuvre à destination des industriels. Il s’agit ainsi d’une collaboration des écosystèmes industriels et académiques, autant que des disciplines.

 

Selon vous, quel lien y a-t-il entre l’IA, le Droit et les SHS ?

Marion Ho-Dac : Selon ChatGPT d’OpenAI que j’ai interrogé, « les SHS peuvent aider à comprendre les implications sociales de l’IA et à trouver des moyens de garantir que son développement et son utilisation soient équitables et responsables ».

Encore faut-il admettre que le droit fasse partie des SHS. La réponse de ChatGPT est positive ; « le droit est une branche de la SHS qui examine les règles et les normes qui régissent les comportements humains dans une société donnée ». A mon sens, cependant, le droit « n’examine » pas les règles et les normes mais en est plutôt le produit. Le droit régit la vie en société et, en cela, il a vocation à appréhender et, en tant que de besoin, à règlementer les technologies d’IA, au service des citoyens et du vivre ensemble. ChatGPT de répondre : « En effet, le droit est le produit d’un processus social complexe qui consiste à créer, interpréter, appliquer et modifier les règles et les normes qui régissent la société ».

Partant, les technologies d’IA ne doivent pas être développées hors du droit, sans un cadre juridique clair et protecteur des individus. ChatGPT le concède (quel soulagement !) : « En tant que modèle de langage, je suis programmé pour être impartial et objectif, mais il est vrai que le développement de technologies d’IA soulève des questions éthiques et juridiques importantes, notamment en ce qui concerne la protection des droits et des libertés individuelles. Il est donc important que les développeurs d’IA travaillent dans un cadre juridique clair et protecteur, qui énonce des règles et des normes éthiques pour le développement et l’utilisation de l’IA, afin de prévenir tout abus ou violation des droits individuels ». Et, le cas échéant, ajoutons, de les sanctionner – c’est une dimension centrale du droit « dur » – et de réparer les préjudices qui pourraient en découler.

 

Pour finir, la question que nous posons à tous les collaborateurs et les partenaires interviewés : Quelle est votre définition de l’IA de confiance ?

L’IA de confiance n’est pas (encore !) un concept juridique mais elle est fondée sur le droit. Elle désigne les caractéristiques générales de sécurité et de fiabilité des technologies d’IA, devant être mises en œuvre par les systèmes d’IA tout au long de leur cycle de vie, aux fins d’assurer la protection des personnes impliquées – y compris leurs droits fondamentaux – et, plus largement, la protection de la société et de son environnement naturel.

D’un point de vue européen, l’IA de confiance est étroitement liée aux valeurs de l’Union européenne (préc.) et est profondément ancrée dans les travaux du groupe d’experts de haut niveau sur l’intelligence artificielle (AI HLEG), en particulier ses lignes directrices en matière d’éthique pour une IA digne de confiance. Selon ces travaux, l’IA de confiance a une triple dimension : l’IA légale (c’est-à-dire respectueuse du droit), l’adhésion à des principes éthiques (tels que la surveillance humaine, la transparence et la responsabilité) et la robustesse (comprise à la fois techniquement et socialement). Par conséquent, dans l’ordre juridique de l’UE, l’IA de confiance prend appui sur le pluralisme normatif ; cette approche me paraît centrale ; elle est d’ailleurs reprise par la proposition d’AI Act en cours de négociations par l’UE.

Finalement, j’ajouterais que l’IA de confiance est aussi un concept fonctionnel : il vise à garantir l’atténuation des risques, la protection contre les dommages et le respect des valeurs, principes et droits fondamentaux dans une société donnée. On peut considérer qu’il s’agit d’une transplantation du concept de « diligence raisonnable » des entreprises (corporate due diligence) dans l’écosystème numérique, que les praticiens de l’IA doivent mettre en œuvre. Par ricochet, l’IA de confiance doit conduire à une plus grande acceptation sociale des technologies d’IA, complétée d’une prise en main critique. Dans le même temps, elle peut stimuler la croissance et l’innovation grâce à l’utilisation accrue de systèmes d’IA plus fiables et performants. À cet égard, elle constitue une composante stratégique du marché européen, essentielle dans un contexte géopolitique mondial particulièrement tendu.