index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Custom search space Robustness Embarqué Intelligence Articifielle Fault detection Conformal prediction Explainable AI Bayesian Optimization Adversarial attacks Explanations FOS Computer and information sciences Sûreté de fonctionnement Cycle-accurate simulator Evaluation Critical systems Bayesian inference Bias Detection Distributed learning ODD Enalty Bayesian Neural Networks Explicability Data Stream Artificial intelligence Computer Vision Automated vehicle Neural ODEs Recurrent Neural Networks Data Visualization AI Conformal Prediction Robustesse Confiance Monitoring AI component evaluation methodology Deep learning Realization theory AI System Characterization Distribution based method Long Short-Term Memory XAI Case-based Machine Learning AI engineering Contextual Evaluation Federated Learning Computer vision Hardware Embedded AI Deep Reinforcement Learning Artificial Intelligence Concepts Data-driven reachability Deep neural network classifiers Trustworthiness Attributes Anomaly Detection Example-based Generative Models Christoffel functions AI-based systems Adversarial physical attack Attack transferability Neural Network Engineering Processes Gas Distribution Computer Vision and Pattern Recognition Explainability Explicabilité Fiabilité Fault tolerance Decision tree Branch-and-Bound algorithm Neural network Adversarial attack Arcadia Method GPU Cryptography and Security Data Stream Processing Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Anomaly detection Semantic segmentation Influence Functions Adversarial Training Adversarial Attacks Mixed Integer Programming Counterfactuals Sûreté Ingénierie algorithmique de l’IA Adversarial examples AI-Based Critical Systems Confiance explicabilité Calibration System Identification Data Quality Fault tolerant systems AI-Based Systems Data Analysis Trustworthiness Assessment Distributed Machine Learning Complexity Anomaly