• Co-encadrant de thèse :
  • Patricia Everaere (CRIStAL)
  • Financement : ANR
  • Année de début de thèse :
  • 2021

Que ce soit pour des humains ou des agents artificiels, un des moyens principaux d’obtenir des informations et connaissances sur notre environnement est d’interagir avec d’autres agents ou sources d’informations. Ces agents ou sources vont nous envoyer des informations, que l’on pourra ensuite prendre en compte pour se forger sa propre opinion.

Pour la prise en compte de ces informations on pourra utiliser des outils provenant de la théorie du changement de croyances (belief change).

Mais avant cette étape d’intégration, il y a une étape préliminaire indispensable qui est de décider si cette information est suffisamment fiable pour être prise en compte. Et, plus généralement, il serait intéressant d’évaluer son niveau de fiabilité (par exemple pour savoir comment résoudre les conflits potentiels avec d’autres informations que l’on posséderait déjà).

Le problème peut se résumer à définir une mesure de la confiance que l’on a en chaque source nous fournissant des informations.

Nous souhaitons baser cette évaluation sur une information objective. Et un moyen de conduire cette évaluation et de confronter les différentes informations reçues de la part des différentes sources, afin d’identifier les sources les plus discordantes. Et d’étudier en quoi cette discordance nous renseigne sur la fiabilité de chaque source.

Il s’agit d’une question importante pour de nombreuses applications où l’on reçoit des informations de sources à la fiabilité inconnue. C’est notre cas à tous lorsque l’on débute des interactions avec un inconnu. Après quelques interactions, où l’on confronte ses opinions aux nôtres et à celles que l’on a obtenu d’autres personnes, on conduit une évaluation de la confiance que l’on peut avoir pour les affirmations de cette personne. Mais ce problème se présente également pour une agence de renseignement obtenant des informations de différentes sources dont il faut savoir préciser la fiabilité. On peut également imaginer des améliorations des procédures d’interrogations de bases de données distribuées (comme les interrogations sur les données du web par exemple), où avec une estimation du degré de fiabilité de chaque source, on parviendrait à résoudre les conflits, et à fournir de meilleures réponses.

Le but de cette thèse est d’étudier comment définir des mesures de confiance de sources d’informations en se basant sur une évaluation des informations historiquement fournies par ces sources et en les confrontant.

On utilisera les conflits présents entre ces informations pour évaluer la fiabilité des différentes sources. On pourra mesurer ces conflits en utilisant des outils provenants des mesures d’incohérences pour la logique propositionnelle. Ces mesures permettent d’évaluer l’importance du conflit, mais également de le localiser, que ce soit au niveau des sources, mais également au niveau des informations elles-mêmes.

Il s’agira d’étudier plusieurs points. Le premier sera d’étudier la littérature sur ces mesures de confiance (en particulier dans d’autres disciplines comme les bases de données et le web). On s’attachera ensuite à proposer des définitions de mesures de confiance. Le troisième point sera d’étudier les propriétés de ces mesures. On définira en particulier les propriétés (postulats) que l’on désirerait obtenir de ces mesures. On tentera d’obtenir une caractérisation des mesures raisonnables par le biais de théorème de représentation. On tentera également de montrer la pertinence de ces mesures, c’est-à-dire en quoi ces mesures de fiabilités capturent la réalité sous-jacente.