Les recherches développées au CRIL concernent la conception de systèmes intelligents autonomes.

En fonction des informations disponibles, de tels systèmes doivent être capables de prises de décision raisonnables afin d’atteindre au mieux leurs objectifs. Pour ce faire, ils doivent disposer de capacités inférentielles.

Les principales difficultés à résoudre pour réaliser de tels systèmes sont d’origines variées.

D’abord, les informations à exploiter doivent être acquises. Elles peuvent être apprises à partir de données de divers types (descriptions de situations ou scénarios, exemples de cas d’usage, traces de fonctionnement, etc.) mais aussi transmises par différentes sources ou agents avec lesquels le système considéré interagit. La prise en compte de ces sources demande de pouvoir synthétiser, agréger, reformuler les informations traitées pour pouvoir les échanger et également pour pouvoir transmettre sous une forme adéquate les résultats (décisions, prédictions, recommandations, actions à conduire, etc.) calculés aux utilisateurs des systèmes (d’autres agents, humains ou non). Il faut aussi pouvoir faire évoluer ces informations et gérer leur dynamique, en particulier quand des conflits apparaissent.

Par leur nature même, les informations disponibles sont usuellement hétérogènes et imparfaites. Elles incluent typiquement connaissances transférées ou extraites à partir de données, croyances ou connaissances sur l’état du monde dans lequel le système intelligent évolue (par exemple, les lois physiques qui s’expriment comme des contraintes sur le monde mais aussi des informations issues de capteurs plus ou moins fiables), sur les informations que les autres agents intervenant dans ce monde peuvent posséder, des descriptions des actions disponibles et de leurs effets, des préférences des agents sur l’état du monde ou les actions à réaliser. L’imperfection des informations disponibles a plusieurs facettes (qui sont corrélées) : incomplétude, incertitude, incohérence, contextualité, entre autres. Dans tous les cas, il faut définir des modèles adaptés à ces différents types d’information mais aussi concevoir et analyser des formalismes de représentation d’information qui conviennent aux tâches visées.

Bien entendu, les types d’inférence nécessaires à la reproduction sur un ordinateur d’un comportement vu comme “intelligent” sont eux-aussi multiples et doivent être modélisés. Il faut aussi pouvoir expliquer les raisonnements qui sont conduits, justifier les décisions proposées et évaluer leur robustesse. Enfin, une dernière source de difficulté à intégrer est liée au substrat employé, l’ordinateur, où tout est calcul : les processus d’inférence et de prise de décision considérés sont souvent sophistiqués et calculatoirement intraitables dans le pire des cas. Il importe ainsi d’identifier les sources de complexité mises en jeu pour les pallier au mieux, en développant une algorithmique la plus efficace possible en pratique, ou encore en développant des méthodes de type approximation ou compilation permettant parfois de contourner cette difficulté liée au calcul.

Pour prendre en compte efficacement l’ensemble des difficultés auxquelles il faut faire face, le CRIL structure ses activités selon trois axes principaux et inter-connectés : données, connaissances, contraintes.

Depuis 2018, les recherches disciplinaires réalisées dans chacun de ces trois axes sur des problématiques propres aux données, connaissances ou contraintes sont exploitées conjointement au sein de deux actions transverses : l’IA explicable et l’IA au service d’autres disciplines. Nous pensons, en effet, qu’il est opportun de mobiliser l’expertise à large spectre présente dans les axes pour rechercher des synergies et développer des travaux de recherche originaux et pertinents dans ces deux thématiques transverses.