• HDR soutenu le :
  • 5 déc. 2019 • salle des thèses, Faculté des sciences Jean Perrin

Résumé

Cet ouvrage présente quatre des plus importants résultats de recherche obtenus après mon doctorat, c’est-à-dire de 2008 à 2019. Après un bref état de l’art, un formalisme visant à modéliser la responsabilité dans les environnements multi-agents est mis en avant. Ce formalisme, appelé CEDL, est une logique modale qui contient des opérateurs épistémiques, dynamiques et bien d’autres tels que les obligations et les capacités de savoir faire des agents. Le second résultat est une évolution de CEDL, appelée ATDEL. Cette logique vise à modéliser les capacités des agents et leurs connaissances au fil du temps. Elle permet de faire des spécifications systèmes qui sont beaucoup plus petites que CEDL. En outre, une axiomatisation, des algorithmes pour la vérification des modèles et la satisfiabilité des formules sont également fournis. Le troisième résultat est une adaptation de la théorie de révision des croyances AGM aux scénarios multi-agents. Des versions multi-agents des postulats d’expansion et de révision sont proposées. Le dernier résultat présenté dans ce travail concerne le raisonnement automatisé en logique modale. Des méthodes de vérification de la satisfiabilité des formules en K et KT5 sont proposées. Des expériences pratiques montrent que notre technique est plus performante que les autres approches.

Rapporteurs

  • Anthony Hunter, professeur à l’University College London, Royaume-Uni
  • Odile Papini, professeur à l’Université Aix-Marseille, France
  • Umberto Straccia, directeur de recherche au CNR, Italie

Examinateurs

  • Salem Benferhat, professeur à l’Université d’Artois, France
  • Philippe Besnard, directeur de recherche au CNRS, France
  • Sébastien Konieczny, directeur de recherche au CNRS, France