• Financement : Artois, Région HdF
  • Année de début de thèse :
  • 2023

Récemment, l’apprentissage à partir d’explications en langues naturelles a reçu une attention considérable dans la communauté Intelligence Artificielle (IA) et particulièrement pour l’apprentissage en quelques coups, c’est-à-dire l’apprentissage à partir de très peu, voire zéro, données (exemples) d’entraînement où il n’est pas possible de s’appuyer sur les statistiques de cooccurrence pour enseigner à un réseaux de neurones comment résoudre une tâche précise. Lorsque le processus de supervision est limité (peu de données disponibles pour l’entraînement), les explications en langues naturelles peuvent fournir les connaissances nécessaires sur les tâches à résoudre et enseigner aussi aux modèles à effectuer un raisonnement afin de prendre une décision. Alors que les modèles (générateurs) de langage à grande échelle (Large-scale language models (LLM)) tels que GPT3, OPT, BLOOM, ou très récemment ChatGPT, ont démontré une capacité remarquable à capturer des connaissances de sens commun, leur capacité à effectuer des raisonnements complexes avec des explications reste marginale. Cette thèse vise à développer des méthodes de génération d’explications à partir de LLM et les adapter au raisonnement de haut niveau dans une perspective d’apprentissage en quelques coups pour la compréhension des narrations (Machine reading comprehension). Nous étudierons également comment tirer parti des LLM pour apprendre et affiner des petits modèles de prédictions moins “énergivores” et plus explicables et précis, en se focalisant sur le domaine de santé et bien-être comme applications.