Vers une approche d’apprentissage incrémental et explicable sur des graphes hétérogènes et évolutifs
- Doctorant:
- Rania Abidi
- Co-directeurs de thèse :
- Salem Benferhat
- Wissem Inoubli
- Hadhemi Achour
- Financement : Artois, Université de Tunis
- Année de début de thèse :
- 2025
Cotutelle avec l’université de Tunis
Les graphes sont des structures omniprésentes dans divers domaines tels que les réseaux sociaux, la chimie ou les systèmes de recommandation, grâce à leur capacité à modéliser des données complexes. L’émergence des réseaux de neurones de graphes (GNN) a permis des avancées significatives dans la représentation et l’analyse de ces données, notamment pour des tâches telles que la classification, la prédiction de liens ou la détection de communautés. Cependant, deux défis majeurs persistent : la dynamique des graphes et l’explicabilité des modèles.
Les graphes réels évoluent continuellement avec l’ajout ou la suppression de nœuds et d’arêtes, ce qui complique la mise à jour des modèles GNN tout en préservant leurs performances. De plus, la plupart des approches actuelles sont peu adaptées aux graphes hétérogènes et distribués, et peinent à passer à l’échelle pour des graphes de grande taille avec des mises à jour fréquentes.
Un second défi réside dans le manque d’explicabilité. Les GNN fonctionnent souvent comme des « boîtes noires », ce qui limite leur adoption dans des domaines sensibles (santé, finance, etc.), où la transparence est cruciale. Bien que plusieurs méthodes d’explication existent (GNNExplainer, PGExplainer, GraphLime), elles sont souvent complexes, peu intuitives et focalisées sur la structure sans prendre en compte l’hétérogénéité des graphes.
Cette thèse vise à proposer une approche d’apprentissage incrémental et explicable sur des graphes hétérogènes et évolutifs. Elle s’articule autour de trois axes :
-
Apprentissage incrémental sur graphes dynamiques : concevoir des modèles capables de capturer la dimension temporelle et les changements structurels en temps réel, en combinant des GNN avec des réseaux neuronaux récurrents et des techniques distribuées pour améliorer l’évolutivité.
-
Explicabilité des GNN : développer des méthodes fournissant des explications compréhensibles et fiables, en intégrant des techniques de fouille de graphes et des approches basées sur des solveurs logiques afin de générer des explications adaptées aux graphes hétérogènes et dynamiques.
-
Cette thèse bénéficiera du cadre du projet CHIST-ERA ATLAS (GeoAI-based AugmenTation of muLti-source urbAn GIS), qui offrira de bonnes conditions pour développer de nouveaux modèles d’apprentissage automatique et de graph neural networks (GNN), approfondir la problématique de l’explicabilité, et valider les approches proposées sur des données liées aux systèmes GIS.