• PhD defended on :
  • 2003-06-16

Résumé

Ce travail de thèse s’inscrit dans le domaine de l’intelligence artificielle symbolique. Plus précisément, il apporte une contribution au domaine de la représentation des connaissances et du raisonnement en se penchant sur des problèmes liés à la fusion de bases (ou de sources) de connaissance et de croyance qui peuvent être mutuellement contradictoires.

À cet égard, notre contribution scientifique est triple.

Dans un premier temps, nous nous sommes intéressés aux approches sémantiques de fusion de croyances. Alors qu’une base de connaissance peut se définir par ses modèles, des croyances mutuellement inconsistances ne possèdent par définition pas de modèles. Aussi différents auteurs ont essayé de pallier ce problème en définissant le résultat de la fusion de bases de croyance mutuellement inconsistantes par un ensemble d’interprétations proches de ce que seraient ces modèles s’ils existaient. Nous avons étudié de manière critique ces approches. Nous pensons que dans certains champs d’application, elles ne sont pas les plus appropriées dans la mesure où elles reposent uniquement sur des outils sémantiques et ne prennent en aucun compte la forme syntaxique prises par les bases à fusionner. Nous pensons et argumentons que dans certaines applications, la syntaxe des bases de connaissance est à prendre, du moins dans une certaine mesure, en compte lorsque que l’on désire décrire ce que doit être le résultat de leur fusion. Aussi, nous avons revisité techniquement ces approches en incluant des critères syntaxiques au sein des définitions sémantiques, ceci par une transformation très simple des définitions à l’origine purement sémantique.

Notre seconde contribution vise à étendre les opérateurs sémantiques de fusion de croyances à un contexte non monotone. Plus précisément, nous nous plaçons dans un cadre où les bases à fusionner sont en fait implicitement augmentées par des hypothèses de complétion comme l’hypothèse de monde clos et ses variantes. Dans ce contexte, un problème conceptuel surgit. Comment régler la priorité à accorder à une base par rapport à la complétion d’une autre base lorsque ces deux ensembles sont inconsistants ? Nous étudions le cas où la complétion doit se voir attribuer une priorité moindre que l’information d’une autre base (et ses conséquences logiques). Nous montrons qu’alors les opérateurs sémantiques de fusion doivent être adaptés en conséquence et que la notion de modèle est à grain trop gros et doit lui-même être affiné. Nous reconstruisons ces opérateurs dans ce cadre de non-monotonie, et soulignons les différentes options possibles.

La troisième contribution de ce travail s’inscrit dans le domaine de la fusion de connaissances à propos de dispositifs et processus techniques que l’on retrouve par exemple dans le domaine du diagnostic à base de principes premiers. Nous montrons que, pour ce domaine, les opérateurs classiques de fusion de croyances ne sont pas relevants. De fait, ces opérateurs préconisent que la fusion de bases de connaissance dont l’union est consistance doit être cette union elle-même. Nous montrons que lorsque nous fusionnons des bases de connaissance logiques à propos des mêmes dispositifs et processus techniques, il doit parfois en aller différemment. En particulier, des règles elles-mêmes doivent être fusionnées pour former des règles communes, ceci afin que des conditions nécessaires de bon fonctionnement ne deviennent pas simplement suffisantes. Techniquement ce phénomène est causé par le fait que ces bases devraient être normalement soumises à une forme de non-monotonie. Nous étudions ce problème et proposons en toute généralité une étape efficace et préalable à la fusion qui permet de le résoudre. Cette question est étudiée sous différents aspects, notamment sémantiques. Ceci nous permet ainsi d’illustrer un cas surprenant de fusion qui permet de restaurer la consistance. En complément de ce travail, nous proposons des tests de consistances qui permettent d’éviter que la fusion de croyances dans ce domaine conduise à dériver des informations qui seraient contraires à l’intuition (en évitant notamment des effets non-souhaités de subsomption sur des informations plus spécifiques qui devraient prédominer).