L’un des défis principaux de la recherche en apprentissage actuellement est la définition d’IA de confiance, concept qui recouvre de nombreuses dimensions parmi lesquelles on peut citer: l’IA interprétable (eXplainable AI), l’IA équitable (fairness), l’IA responsable.
- Définitions d’explications, critères d’interprétabilité
 - Interprétabilité par design : apprentissage interprétable de modèles interprétables
 - Interprétabilité post-hoc : LIME, SHAP, génération d’exemples contrefactuels
 - Approches logiques d’interprétabilité : abduction, causalité, logiques graduelles
 - Aspects éthiques, éthique computationnelle
 
- TME 1 : algo growing spheres (exemple contre-factuels local, model free, ad-hoc) https://github.com/thibaultlaugel/growingspheres
 - TME 2 : algo DICE (counterfactual explanations, local, ad hoc, +/-model based) https://github.com/interpretml/DiCE
 - TME 3 : algo LIME
 - TME 4 : Logique floue
 
