Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

AI Governance AI System Characterization Engineering processes Neural Architecture Search Confiance Autonomous system Automated vehicle ML Engineering Trustworthiness Assessment Realization theory Bayesian optimization Robustesse Anomaly detection Branch-and-Bound algorithm Distributed learning Aide à la décision Explainable AI Knowledge fusion Artificial intelligence Explainability Intelligence artificielle Adversarial attack Calcul distribué Data Visualization Neural Network Knowledge graph Computer Vision and Pattern Recognition AI systems Neural ODEs Classification AI explainability ODD Recurrent Neural Networks Computer Vision Adversarial examples AI Trustworthy AI Adversarial Attacks Knowledge extraction AI-Systems Engineering AI Robustness Bayesian Optimization Trustworthiness Assurance case Asynchronous iterations AI component evaluation methodology Computer vision Machine Learning Case-based Certification Bias Detection Intelligence Articifielle Long Short-Term Memory Body-of-Knowledge Neural network Anomaly Detection Arcadia Method Adversarial physical attack Attack transferability AI engineering Machine learning Mixed Integer Programming Explicabilité Uncertainty AI Safety Multi-fidelity BO AI-Based Systems Calibration Assurance Cases AI-Based Critical Systems Body of knowledge Anomaly Reliability Al monitoring Sûreté Trustworthy Sûreté de fonctionnement Apprentissage Profond Assessment Christoffel functions XAI Collaboration Human-IA Semantic segmentation Apprentissage automatique Trustworthiness Attributes Complexity Vision par ordinateur Data Analysis Robustness Boosted Decision Trees BDT Tools Adversarial Training Adversarial attacks AI-based systems Bayesian inference Artificial Intelligence System Identification Monitoring Generative Models Algorithme temps-parallèle