L’IA explicable est un domaine qui a émergé avec le boom de l’apprentissage automatique et l’opacité des modèles les plus précis (comme les réseaux de neurones profonds). Les utilisateurs humains de systèmes d’IA ont, en effet, besoin de garde-fous pour éviter de tenir pour correctes des prédictions erronées et la capacité à fournir des explications des prédictions réalisées est une voie pour rejeter de telles prédictions. Ce besoin est critique lorsque des composants IA sont utilisés dans des applications sensibles et l’exigence d’explication est une affaire de réglementation en Europe (avec le RGPD depuis 2018 et avec l’AI Act maintenant). Pour ces raisons, nous avions choisi de mettre la thématique de “L’IA explicable” au centre du projet scientifique du CRIL pour le contrat 2020-2024 (étendu à 2025 suite à la pandémie COVID). En effet, il nous semblait que les compétences de l’unité sur les questions de recherche concernant les données, les connaissances et les contraintes, pouvaient être mobilisées avec profit pour créer des synergies et être à l’origine de recherches originales en IA explicable.