Le CRIL en bref

présentation

Le Centre de Recherche en Informatique de Lens (CRIL UMR 8188) est un laboratoire de l’Université d’Artois et du CNRS dont la thématique de recherche fédératrice concerne l'intelligence artificielle et ses applications. Il regroupe plus de 50 membres : chercheurs, enseignants-chercheurs, doctorants et personnels administratifs et techniques. Le CRIL bénéficie du soutien du Ministère de l’Enseignement Supérieur et de la Recherche, du CNRS, de l’Université d’Artois, de l’IUT de Lens et de la région Hauts de France.

En savoir plus

Recherches en intelligence artificielle et applications

mots clés du CRIL

Actualités (RSS)

Séminaire Imprecise probabilities in supervised learning: principles and challenges

Sébastien Destercke

Iin this talk, we will first introduce and motivate the verybasic principles of imprecise probabilistic (IP) approaches, that
replace precise-valued probabilities and expectations by bounded
intervals. The talk will then focus on the use of IP in supervised
classification, using the extension of the naive Bayes classifier as
an illustration. Finally, we will briefly mention some challenges
concerning the application of IP to supervised learning over
combinatorial domains.

En savoir plus

Séminaire La logique de typicité propositionnelle

Ivan Varzinczak - CRIL CNRS & Univ Artois

Dans cet exposé, je présenterai la logique de typicité propositionnelle PTL. Cette logique enrichît la logique propositionnelle classique avec un opérateur unaire permettant de représenter de façon explicite une notion de typicité d’une formule. L’intuition derrière cet opérateur est de capturer les situations les plus typiques (ou normales, ou conventionnelles, en fonction de l’application en question) où une formule donnée est vraie. La sémantique de PTL est en termes de modèles préférentiels, plus précisément les modèles modulaires, étudiés dans l’approche KLM pour le raisonnement non monotone. Cela nous permet de montrer que les conditionnels à la KLM peuvent être simulés directement dans PTL. Je présenterai certaines propriétés intéressantes de PTL, notamment (1) le fait qu’il y a des formules de PTL qui ne peuvent pas être exprimées comme des conditionnels KLM, et (2) le fait que PTL nous permet de simuler la révision de croyances à la AGM directement dans le langage objet. Cela fait de PTL un formalisme à la fois simple et suffisamment puissant pour servir de framework dans lequel analyser des approches pour le raisonnement non monotone en logique propositionnelle. Je finirai avec une discussion à propos de différentes notions de conséquence logique non monotones dans le cadre de PTL et j’en proposerai trois candidates appropriées.

Pour plus de détails : https://arxiv.org/abs/1809.10946

En savoir plus

Séminaire Introduction au réseaux de neurones profonds : keep calm and do gradient descent.

Jean-Baptiste Gouray

Ces deux exposés consisteront en des travaux pratiques en jupyter notebook (python). L’idée est de comprendre sur un exemple très concret le fonctionnement et l’apprentissage d’un neurone. C’est pourquoi nous coderons la régression linéaire et l’algorithme de descente de gradient. Experts s’abstenir. N’oubliez pas d’installer jupyter sur votre portable. N’hésitez pas à nous contacter pour toute question (yael.fregier@gmail.com et jeanbaptiste.gouray@gmail.com).

En savoir plus

Séminaire Learning Tractable Probabilistic Models in Open Worlds

Amélie Levray

Large-scale probabilistic representations, including statistical knowledge bases and graphical models, are increasingly in demand. They are built by mining massive sources of structured and unstructured data, the latter often derived from natural language processing techniques. The very nature of the enterprise makes the extracted representations probabilistic. In particular, inducing relations and facts from noisy and incomplete sources via statistical machine learning models means that the labels are either already probabilistic, or that probabilities approximate confidence. While the progress is impressive, extracted representations essentially enforce the closed-world assumption, which means that all facts in the database are accorded the corresponding probability, but all other facts have probability zero. The CWA is deeply problematic in most machine learning contexts. A principled solution is needed for representing incomplete and indeterminate knowledge in such models, imprecise probability models such as credal networks being an example. In this work, we are interested in the foundational problem of learning such open-world probabilistic models. However, since exact inference in probabilistic graphical models is intractable, the paradigm of tractable learning has emerged to learn data structures (such as arithmetic circuits) that support efficient probabilistic querying. We show here how the computational machinery underlying tractable learning and inference has to be generalised for imprecise probabilities. Our empirical evaluations demonstrate that our regime is also effective.

En savoir plus

Séminaire Introduction au réseaux de neurones profonds : keep calm and do gradient descent.

Jean-Baptiste Gouray

Ces deux exposés consisteront en des travaux pratiques en jupyter notebook (python). L’idée est de comprendre sur un exemple très concret le fonctionnement et l’apprentissage d’un neurone. C’est pourquoi nous coderons la régression linéaire et l’algorithme de descente de gradient. Experts s’abstenir. N’oubliez pas d’installer jupyter sur votre portable. N’hésitez pas à nous contacter pour toute question (yael.fregier@gmail.com et jeanbaptiste.gouray@gmail.com).

En savoir plus