• Financement : ANRT, Happiso
  • Année de début de thèse :
  • 2026

Les systèmes de recommandation et les assistants conversationnels ont pour objectif d’engager un dialogue en langage naturel avec les utilisateurs, afin de leur fournir des recommandations tout en assurant un fort taux d’acceptation. Pour y parvenir, il est essentiel de mettre en place des mécanismes favorisant l’appropriation des recommandations, en permettant aux utilisateurs de comprendre les options qui leur sont proposées. D’une part, il convient d’intégrer des éléments persuasifs capables d’influencer les comportements et les décisions des utilisateurs, renforçant ainsi l’adhésion aux suggestions formulées. D’autre part, les décisions doivent être accompagnées d’explications claires et convaincantes, soigneusement formulées pour faciliter la compréhension et accroître la confiance dans le système. Avec l’émergence des grands modèles de langage tels que GPT-4, LLaMA 3 et Mistral, les performances des assistants virtuels et des systèmes de recommandation ont connu une amélioration notable. Les LLMs se distinguent par leur capacité exceptionnelle à générer des contenus hautement convaincants, favorisant une meilleure compréhension des recommandations et entraînant des taux d’acceptation élevés de la part des utilisateurs. Néanmoins, malgré ces avancées prometteuses, les systèmes actuels basés sur les LLMs présentent certaines limites. Ils peuvent notamment induire les utilisateurs en erreur dans leurs mécanismes de persuasion, en raison du phénomène d’hallucination propre à ces modèles, ainsi que de leur incapacité à prendre en compte l’état cognitif de l’utilisateur et son contexte environnemental. Cette limitation s’explique en partie par l’absence d’une véritable théorie de l’esprit (theory of mind), c’est-à-dire la capacité à modéliser les croyances, intentions, désirs et émotions d’autrui. En l’absence de cette faculté, les LLMs peinent à adapter leurs explications ou recommandations de manière personnalisée et sensible au contexte de l’utilisateur. Cela limite leur aptitude à engager des interactions efficaces et à fournir des justifications véritablement pertinentes, nuisant ainsi à la qualité de l’expérience utilisateur et à la fiabilité du système. Ceci est d’autant plus problématique dans le cadre d’applications métiers sensibles, notamment dans le domaine juridique, où la marge d’erreur doit être quasi inexistante. Une mauvaise interprétation ou une recommandation inappropriée peut avoir des conséquences graves. Ainsi, cette thèse a pour objectif de remédier à ces limitations en développant un assistant virtuel à la fois persuasif et responsable, spécifiquement dédié à la gestion des dossiers des commissaires de justice.