index - Confiance.ai

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Machine learning Sûreté de fonctionnement Adversarial Attacks AI System Characterization Conformal prediction Robustesse Adversarial attacks Complexity AI Governance Branch-and-Bound algorithm Engineering processes Intelligence artificielle Bayesian optimization Uncertainty Neural network Long Short-Term Memory Assurance Cases Explainable AI Adversarial attack Computer Vision and Pattern Recognition Knowledge graph Concepts Robustness AI Robustness Monitoring Calibration Body of knowledge Reliability Neural Architecture Search Computer Vision Knowledge extraction Boosted Decision Trees BDT Adversarial examples Semantic segmentation Counterfactuals System Identification ML Engineering AI Safety AI systems Conformal Prediction Machine Learning Tools Recurrent Neural Networks Trustworthiness Attributes Mixed Integer Programming AI-Systems Engineering Apprentissage automatique Adversarial physical attack Adversarial Training Aide à la décision Attack transferability Generative Models Intelligence Articifielle AI explainability Confiance explicabilité Autonomous system Anomaly Detection Artificial Intelligence AI-Based Systems Assurance case Neural ODEs AI Automated vehicle Assessment Anomaly Bayesian Optimization Knowledge fusion Critical systems Bayesian inference Case-based AI-Based Critical Systems Trustworthiness Assessment AI-based systems Christoffel functions Contextual Evaluation Trustworthiness Collaboration Human-IA Trustworthy Bias Detection Al monitoring Anomaly detection Explicabilité Computer vision Cryptography and Security Neural Network ODD Sûreté Body-of-Knowledge Certification XAI Confiance AI component evaluation methodology AI engineering Distributed learning Arcadia Method Multi-fidelity BO Realization theory Explainability Vision par ordinateur Artificial intelligence