index - Confiance.ai

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Bias Detection Recurrent Neural Networks Machine learning Long Short-Term Memory Attack transferability Case-based AI systems Certification Assurance Cases Distributed learning Calibration Assessment Robustesse Monitoring Anomaly detection Neural Network Adversarial attack Computer Vision Uncertainty Apprentissage automatique AI explainability Christoffel functions AI-Systems Engineering Complexity Aide à la décision Explicabilité AI System Characterization Neural ODEs Multi-fidelity BO Adversarial examples AI-based systems Bayesian Optimization AI-Based Critical Systems Adversarial attacks Tools Neural network System Identification Mixed Integer Programming Computer Vision and Pattern Recognition Trustworthiness Attributes Arcadia Method AI Intelligence Articifielle Computer vision Trustworthiness Assessment Machine Learning Boosted Decision Trees BDT Conformal prediction Trustworthiness Engineering processes AI-Based Systems AI Safety Anomaly Robustness Realization theory Explainability Autonomous system Classification Confidence calibration Counterfactuals Automated vehicle Sûreté AI Governance Anomaly Detection Reliability ODD Generative Models Neural Architecture Search Assurance case Adversarial physical attack AI engineering Bayesian optimization Collaboration Human-IA Trustworthy AI Robustness Knowledge graph Al monitoring Concepts Branch-and-Bound algorithm Confiance explicabilité ML Engineering Adversarial Attacks AI component evaluation methodology Confiance Body of knowledge Knowledge extraction Conformal Prediction Vision par ordinateur Knowledge fusion XAI Bayesian inference Adversarial Training Sûreté de fonctionnement Artificial intelligence Contextual Evaluation Body-of-Knowledge Explainable AI Intelligence artificielle Semantic segmentation Artificial Intelligence