Actualités
Peut-on savoir ce que l’on ne sait pas ? La quantification d’incertitude pour accéder au risque (presque) zéro
Les méthodes de quantification d’incertitude dans les codes de calcul classiques sont fiables et robustes mais deviennent un défi important quand il s’agit d’intelligence artificielle ; on vous dit tout dans cet article. Qu'est-ce que la quantification d'incertitude...
Portrait de Luca Mossina – ingénieur de recherche en IA
"Le programme Confiance.ai met en avant la synergie entre acteurs d'horizons variés. Celle-ci est pour moi la seule façon possible d'attaquer un problème d'une telle ampleur : créer une IA opérationnelle dans des contextes à fort enjeux économiques, sociaux et...
Tribune : Augmenter la confiance dans l’IA générative plutôt que d’interrompre les recherches
Le moratoire proposé sur les recherches en IA générative ne répond pas entièrement aux questions essentielles qui sont posées pour l’utilisation de ces systèmes dans des applications dites « critiques ». Un des défis les plus importants est celui de la confiance...
Les start-up et PME, lauréates de l’AMI #1 : elles partagent leur éxpérience
Le programme Confiance.ai vise à proposer un Environnement de confiance contenant des méthodes et des outils pour apporter des garanties au bon fonctionnement de l’intelligence artificielle (IA) quand elle est utilisée dans des systèmes critiques, au sens de l’AI Act....
Portrait de Juliette Mattioli – Présidente du comité de pilotage de Confiance.ai
"En tant que présidente du comité de pilotage, je veux comprendre les "dessous" de tous les actifs de Confiance.ai pour mieux les promouvoir au sein de Thales notamment. Aujourd'hui, ce sont des diamants bruts qu'il faut tailler pour pouvoir en montrer la richesse"...
L’évaluation de la confiance : retour sur AITA 2023
L'évaluation de la confiance en intelligence artificielle (IA) est aujourd’hui un sujet incontournable. Alors que les systèmes d’IA sont de plus en plus utilisés dans des domaines critiques, il est crucial de comprendre à quel point les décisions prises par ces...
L’explicabilité et l’interprétabilité : deux notions intrinsèques pour la transparence des systèmes d’IA
Au sein du programme Confiance.ai, l’explicabilité se définit par la capacité d’un système d’intelligence artificielle (IA) à exprimer des facteurs importants influençant ses résultats d’une manière compréhensible par les humains. Au vu de sa définition,...
Portrait de Philippe Dejean – Responsable du projet “Caractérisation et qualification d’une IA de confiance”
"Cette IA de confiance est avant tout une IA dont, nous, partenaires académiques et industriels, par nos travaux dans le programme Confiance.ai, avons à préparer les fondements et les concepts avec bienveillance et respect" Pouvez-vous vous présenter ainsi que...
Portrait de Marion Ho-Dac, lauréate de l’AMI SHS avec le CDEP, Université D’Artois
"Notre collaboration avec Confiance.ai est centrale afin que la recherche académique prenne appui sur des cas d’usage proposés par des industriels au cœur des problématiques contemporaines de l’IA." Pouvez-vous vous présenter ainsi que décrire votre rôle au...
Confiance.ai lance un Appel à Manifestation d’Intérêt pour les start-up et PME innovantes #2
Cet appel à manifestation d'intérêt (AMI) est à destination des start-up et des PME innovantes pour contribuer au programme Confiance.ai en apportant des technologies susceptibles de contribuer à la résolution des verrous du programme et à la mise en place de...
Inscrivez-vous à la newsletter de Confiance.ai
pour en savoir plus sur les actualités du collectif et de l’IA de confiance