Nos travaux relèvent de la représentation des connaissances et du raisonnement en Intelligence Artificielle. L'incertitude et l'inconsistance sont deux aspects qui affectent les données et les connaissances dans de nombreux domaines. Malgré la multitude de formalismes et d’approches proposés pour représenter et raisonner avec des informations incertaines, incomplètes ou partiellement l'inconsistantes, il existe encore plusieurs problèmes ouverts lorsqu’il s’agit d’utiliser ces approches dans la pratique. L’objectif principal de nos travaux est d’apporter des contributions par le biais de représentations possibilistes compactes et flexibles. Au niveau de la représentation, nous avons proposé des extensions flexibles aux modèles graphiques possibilistes et aux bases de connaissances possibilistes, en particulier aux représentations basées sur une quantification imprécise de l’incertitude avec des intervalles ou des ensembles. Au niveau des raisonnements, nous avons étudié le conditionnement et l’inférence dans ces représentations possibilistes étendues et nous avons proposées des contreparties syntaxiques efficaces. Enfin, nous avons proposé de nombreuses contributions au raisonnement avec des informations priorisées et partiellement inconsistantes et nous l'avons illustré dans deux applications. La première concerne l'interrogation de bases de données hétérogènes et volumineuses avec des parties assertionnelles affectées par des incertitudes et éventuellement des conflits, tandis que la seconde, dans domaine de la sécurité informatique, porte sur la révision des prédictions d’un classifieur pour se conformer à certaines contraintes et objectifs du domaine. La présentation se terminera par quelques conclusions et perspectives de travaux futurs.