Une problématique majeure aujourd’hui est celle de l’IA explicable et robuste : il s’agit de pouvoir justifier à l’utilisateur (humain) un système d’IA les décisions prises ou des prédictions suggérées par le système, et aussi de pouvoir évaluer à quel point le système est fiable.

Un courant de recherche important dans cette direction consiste à associer au système d’IA considéré (et vu comme une boîte noire), une boîte blanche (ou transparente), sous la forme d’un circuit ayant le même comportement que la boîte noire en terme d’entrées/sorties. On peut alors utiliser la boîte blanche pour répondre aux requêtes explicatives qui sont posées et pour estimer la robustesse des décisions prises ou des prédictions réalisées.

Plusieurs questions se posent. En particulier : quel type de boîte blanche pour quel type de boîte noire ? Quels encodages pour passer de la boîte noire à la boîte blanche ? Quelle information utile faut-il préserver pour pouvoir réaliser ensuite des requêtes d’explication ou de vérification ? Quel est le coût de ces requêtes selon le type de circuit retenu et la représentation choisie pour ce circuit ?

La boîte blanche étant indépendante des entrées de la boîte noire, elle peut être prétraitée (compilée) afin de faciliter la génération d’explications des prédictions réalisées par la boîte noire et l’évaluation de la fiabilité de celle-ci. Les questions de recherche listées ci-avant seront abordées dans les deux thèses proposées. La première sera centrée sur les aspects de modélisation (liens boîtes noires / boîtes blanches, encodages et propriétés de ceux-ci). La seconde sur les aspects représentationnels (quelles représentations pour les circuits?) et algorithmiques pour l’explication et la vérification.

Ces thèses seront préparées au Centre de Recherche en Informatique de Lens (CRIL), UMR CNRS 8188 / université d’Artois, dans le cadre de la chaire ANR de recherche et d’enseignement appelée EXPEKCTATION. Les doctorant.e.s qui seront recruté.e.s participeront aux activités de l’international research project CNRS MAKC (un laboratoire international, sans mur, créé pour 5 ans à partir de 2020), porté par le CRIL en collaboration avec l’Université de Californie à Los Angeles (UCLA). Ils/elles bénéficieront d’un CDD de 3 ans du CNRS et auront la possibilité, s’ils/elles le souhaitent, d’effectuer des enseignements à l’université d’Artois en tant que vacataires. La prise de fonctions pourra débuter dès le 1er septembre 2020 (mais elle pourra être repoussée si besoin est).

Les compétences recherchées sont en sciences des données et intelligence artificielle (dans un spectre large, incluant informatique et mathématiques appliquées). L’encadrement sera assuré par le groupe de chercheurs du CRIL impliqués dans le projet de la chaire ANR de recherche et d’enseignement EXPEKCTATION. Le CRIL est une unité à taille humaine, spécialisée en intelligence artificielle, bien dotée et reconnue internationalement dans ses domaines d’expertise. Le CRIL participe à la confédération européenne des laboratoires de recherche en intelligence artificielle (CLAIRE).

Pour plus de détails sur les sujets de thèse, l’encadrement ou le CRIL, contactez Pierre Marquis.

Les candidats intéressés doivent candidater en ligne avant le 8 juin :

  • https://emploi.cnrs.fr/Offres/Doctorant/UMR8188-PIEMAR-003/Default.aspx?lang=EN
  • https://emploi.cnrs.fr/Offres/Doctorant/UMR8188-PIEMAR-004/Default.aspx?lang=EN