Les start-up et PME, lauréates de l’AMI #1 : elles partagent leur éxpérience

20 Avr 2023Divers

Le programme Confiance.ai vise à proposer un Environnement de confiance contenant des méthodes et des outils pour apporter des garanties au bon fonctionnement de l’intelligence artificielle (IA) quand elle est utilisée dans des systèmes critiques, au sens de l’AI Act. Les neuf industriels partenaires du projet ont apporté des cas d’usage sur lesquels ces méthodes et outils, proposés et développés par les partenaires industriels et académiques du projet, sont testés et validés. Alors que le dépôt de candidature du second « AMI start-up et PME innovantes » vient de se clôturer avec 27 dossiers soumis, c’est l’occasion pour les start-up et PME lauréates du premier AMI de nous partager leur expérience au sein du programme.

Afin de compléter les outils et méthodes « maison », le programme Confiance.ai a lancé, en 2021, un Appel à Manifestation d’Intérêt (AMI) à destination de start-ups et de PME innovantes pour voir comment leurs propres outils pouvaient s’intégrer à l’environnement de Confiance.

Sur la quarantaine de propositions reçues, une douzaine a été sélectionnée parce qu’elle proposait des solutions qui n’étaient pas traitées par les partenaires du programme, comme la génération d’images de synthèse, les modèles frugaux, la méthode de compression de réseaux ou des approches plus industrielles de certains travaux commencés en interne comme l’évaluation de la robustesse ou encore la quantification de l’incertitude.

L’objectif des travaux qui ont été confiés aux start-up et PME lauréates était de voir comment leurs outils s’appliquaient aux cas d’usage du programme, d’évaluer leur efficacité, leur facilité d’utilisation et enfin leur capacité à s’intégrer dans l’Environnement de Confiance.

 

Témoignage de Jolibrain

« En collaborant au programme Confiance.ai en 2022, nous avons pu mettre à l’épreuve nos techniques de génération et transformation de données dans un nouveau domaine d’application. Cela nous a permis, dans un premier temps, de renforcer nos techniques, basées GANs et modèles neuronaux de diffusion, et de les partager via le logiciel Open Source JoliGAN. Dans un second temps, cette collaboration a permis de solutionner des problèmes importants chez plusieurs grands groupes industriels, au sein de Confiance.ai mais aussi au-delà. Dans ce sens, le programme constitue aussi bien une confrontation à des problèmes qualifiés et réels, qu’une opportunité de gagner de nouveaux marchés. » Emmanuel Benazera, CEO de Jolibrain

 

Témoignage d’Oktal-SE

« OKTAL-SE est l’éditeur de l’atelier logiciel de simulation capteur SE-WORKBENCH, considéré comme une référence mondiale pour la qualification de systèmes critiques de détection, guidage et navigation. Les outils d’OKTAL-SE reposent sur des modèles physiques complexes validés et documenter, et peuvent notamment être utilisées pour générer des images dans les domaines Électro-Optique (Visible et IR) et Radiofréquence (RADAR).  Au sein du programme Confiance.ai, OKTAL-SE a étudié le cas d’usage de génération massive d’images visibles synthétiques, pour réaliser l’entraînement d’algorithmes d’IA. Les travaux réalisés nous ont permis d’explorer de nouvelles techniques de rendu photoréalistes afin de réduire le reality gap des données générées. Ces travaux ont notamment permis à OKTAL-SE d’améliorer son module d’export BLENDER afin de permettre la conversion d’un modèle de foule animée issu de l’outil de GOLAEM vers son propre format. Du côté de son outil de simulation, le projet a été l’opportunité pour OKTAL-SE d’améliorer son moteur de gestion de scène afin de rendre possible l’animation et le rendu d’un grand nombre d’éléments urbains (piétons et véhicules). Les verrous techniques qui ont été levés concernent principalement l’optimisation de la gestion mémoire dans le cas d’un très grand nombre de maillages 3D animés. » Lalaina Rasoanaivo, Head of simulation domain, de OKTAL-SE

 

Témoignage d’AI-vidence

« Nous avons travaillé la détection explicable d’anomalies sur séries temporelles, pour un système industriel. Enjeux : réduire les faux positifs (qualité de données), faire adopter opérationnellement la solution par l’explicabilité, augmenter les connaissances par l’IA.

Via une approche globale d’un site, nous avons automatiquement détecté, contextualisé et rendu compréhensibles les résultats pour les experts métier, à la disponibilité comptée.

Le programme nous a permis de compléter notre solution AntakIA d’explication et de substitution d’algorithmes de ML pour des données non structurées, étapes indispensables à la constitution d’IA hybride. », David Cortes, co-fondateur et président d’AI-vidence.

 

Témoignage de Kereval

« Kereval, expert du test logiciel, est spécialisée dans le test de l’IA et s’intéresse aux méthodes de qualification des tests. Confiance.ai permet à Kereval de travailler avec des industriels sur des cas d’usages et avec des jeux de données réels, mais aussi avec des académiques et des instituts de recherche comme le CEA. Il donne à ses équipes l’opportunité d’interagir avec l’ensemble des acteurs du réseau de Confiance.ai pour avancer dans ses développements. Kereval a déjà pu développer un outil de test de robustesse en boîte noire des applications à base d’Intelligence Artificielle (IA). Cet outil, dénommé Chiru, permet d’évaluer et d’analyser l’évolution de la performance des modèles de vision par ordinateur lorsque ces derniers sont confrontés à des perturbations sur leurs entrées (i.e., sur des images). Nous avons principalement travaillé sur des cas d’usages de Thalès, Renault et Valéo. Cela leur a permis d’obtenir des informations sur la robustesse de leur solution IA et de préciser des exigences pour celle-ci. Les retours des industriels nous ont également permis de mieux comprendre les attentes des acteurs du marché et d’apporter de nouvelles fonctionnalités à notre outil. Par ailleurs, le programme Confiance.ai a permis à Kereval de gagner de l’expérience grâce à l’ensemble des rencontres avec des acteurs partageant les mêmes valeurs et les mêmes objectifs sur l’IA de confiance. Ainsi, nous sommes fiers d’avoir contribué à ce programme d’un intérêt capital pour l’avenir de l’IA. La confiance dans l’IA est essentielle pour que les personnes qui la développent la maîtrisent entièrement et que les utilisateurs puissent utiliser des solutions fiables et pérennes. »