Lifo - Laboratoire d'Informatique Fondamentale d'orléans Université d'Orléans université d'Orléans ENSI Bourges ENSI Bourges

Lifo > Les séminaires du LIFO

 English Version



Contact

LIFO - Bâtiment IIIA
Rue Léonard de Vinci
B.P. 6759
F-45067 ORLEANS Cedex 2

Tel: +33 (0)2 38 41 70 11
Fax: +33 (0)2 38 41 71 37



Les séminaires du LIFO


Accès par année : 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015

Sauf exception, les séminaires se déroulent le lundi de 14h à 15h, Salle de réunion 1, bâtiment IIIA (voir plan du campus).


20/04/2015 : Comportements asymptotiques typiques dans les automates cellulaires
Martin Delacourt (DIM, Universidad de Chile) Résumé

13/04/2015 : Analyse syntaxique et transformations de programmes Datalog
Pierre Bourreau (ex-LaBRI, Université Bordeaux 1) Résumé

30/03/2015 : Analyseurs discriminants en dépendances pour le discours et le dialogue
Mathieu Morey (IRIT, Université Paul Sabatier, Toulouse 3) Résumé

30/03/2015 : Abstractions pour la dynamique des réseaux d'automates
Loïc Paulevé (LRI, CNRS - Université Paris-Sud) Résumé
Attention : Débute à 15 h.

23/03/2015 : Apprentissage de grammaires catégorielles à partir de corpus annotés
Noémie-Fleur Sandillon-Rezer (LaBRI, Université Bordeaux 1) Résumé

23/03/2015 : Regroupement de résultats sur le Web : une approche textuelle
José Moreno (GREYC, Université de Caen Basse Normandie) Résumé
Attention : Débute à 15 h.

16/03/2015 : Utilisation des méthodes d'apprentissage automatique pour la modélisation d’agents conversationnels dans un jeu sérieux (Projet EmoSpeech)
Lina Maria Rojas Barahona (LORIA, Université de Lorraine) Résumé

09/03/2015 : Fouille de motifs avec la programmation par ensembles-réponses
Thomas Guyet (IRISA, Agrocampus Ouest) Résumé

09/03/2015 : Construire des axes transversaux dans le cadre de la fédération LI/LIFO
Agata Savary (LI, Université François Rabelais de Tours, Blois) Résumé
Attention : Débute à 15 h.

16/02/2015 : Fuzzy co-clustering with automated feature weighting
Charlotte Laclau (LIPADE, Université Paris Descartes ) Résumé

09/02/2015 : Sémantique de la temporalité en français : une formalisation compositionnelle
Anaïs Lefeuvre (LI, Université François Rabelais de Tours) Résumé

02/02/2015 : Classification évidentielle par contrainte
Violaine Antoine (LIMOS, Université de Clermont-Ferrand) Résumé

26/01/2015 : Analyse syntaxique en dépendances non-projective : étiquetage syntaxique pour les grammaires catégorielles de dépendances et analyse par transition.
Ophélie Lacroix (LINA, Université de Nantes) Résumé

12/01/2015 : Un survol des composantes connexes tropicales
Sylvain Legay (LRI, Université Paris Sud Orsay) Résumé
Attention : Débute à 11 h.


Résumés des séminaires


Comportements asymptotiques typiques dans les automates cellulaires Martin Delacourt, DIM, Universidad de Chile

Résumé à venir.


Analyse syntaxique et transformations de programmes Datalog Pierre Bourreau, ex-LaBRI, Université Bordeaux 1

La programmation logique et l'analyse syntaxique du langage naturel sont deux domaines historiquement liés, depuis l'avènement de Prolog (Colmerauer 1978), les grammaires de clauses définies (Pereira 1980), jusqu'aux travaux de Kanazawa (2007). Ce dernier montra (i) qu'il est possible de construire des reconnaisseurs de type CYK pour les grammaires hors-contexte multiples (MCFGs) sous forme de programmes Datalog (ii) que des reconnaisseurs de type Earley pour ces grammaires peuvent être construits par une simple transformation de programmes. Par cette étude, nous verrons que les travaux de Kanazawa peuvent être étendus selon plusieurs axes: premièrement, il est possible de construire des reconnaisseurs de MCFGs copiantes (Parallel MCFGs - PMCFGs) sous forme de programmes Datalog; puis nous verrons qu'en étendant la syntaxe Datalog, ces reconnaisseurs peuvent être transformés en analyseurs; enfin nous montrerons que des analyseurs de PMCFGs de type Earley, mais également de type coin-gauche, peuvent être construits, par application de transformations de programmes. (Travaux réalisés avec S.Salvati, A.Ball et E.Kien)


Analyseurs discriminants en dépendances pour le discours et le dialogue Mathieu Morey, IRIT, Université Paul Sabatier, Toulouse 3

L'analyse discursive est une tâche du traitement automatique des langues qui vise à associer à un texte sa structure rhétorique, sous forme d'arbre ou de graphe de relations rhétoriques entre unités discursives. Je présenterai dans cet exposé des travaux menés dans le cadre du projet STAC sur le développement d'un analyseur discriminant en dépendances pour le discours et le dialogue. Je montrerai comment un certain nombre d'avancées récentes en analyse discriminante en dépendances syntaxiques peuvent être transposées à l'analyse discursive. J'introduirai les difficultés supplémentaires posées par l'analyse discursive lorsque la structure rhétorique à produire n'est plus un arbre mais un graphe, et j'esquisserai quelques solutions possibles. Je présenterai également des résultats expérimentaux préliminaires sur le corpus RST-DT.


Abstractions pour la dynamique des réseaux d'automates Loïc Paulevé, LRI, CNRS - Université Paris-Sud

Les réseaux d'automates modélisent efficacement le comportement de réseaux biologiques complexes, comme les réseaux de signalisation ou de régulation génique. Ces modèles sont de plus en plus détaillés, et comprennent souvent plusieurs centaines ou milliers d'automates interagissant en parallèle. Dans le but de fournir des analyses de leur dynamique applicables à grande échelle, je montrerai les bases d'une interprétation abstraite de la causalité des transitions dans les réseaux d'automates. Les abstractions considérées exploitent la concurrence au sein des réseaux et permettent d'obtenir des représentations compactes, non redondantes, mais approchées, de l'ensemble des traces possibles. Je discuterai alors de l'application de cette analyse statique pour dériver des conditions nécessaires ou suffisantes pour la satisfiabilité de propriétés d'accessibilité, et pour réduire les réseaux d'automates tout en préservant les traces minimales pour ces propriétés.


Apprentissage de grammaires catégorielles à partir de corpus annotés Noémie-Fleur Sandillon-Rezer, LaBRI, Université Bordeaux 1

Pendant cet exposé, Nous nous focaliserons sur la syntaxe de la langue française et sa modélisation avec des grammaires catégorielles (AB). L’idée est de pouvoir aussi bien générer des squelettes de phrases syntaxiquement correctes que vérifier l’appartenance d’une phrase à un langage. Nous couvrons aussi bien l’aspect d’extraction de grammaire à partir de corpus arborés que l’analyse de phrases. Pour ce faire, nous présentons deux méthodes d’extraction et une méthode d’analyse de phrases permettant de tester nos grammaires. La première méthode consiste en la création d’un transducteur d’arbres généralisé, qui transforme les arbres syntaxiques en arbres de dérivation d’une grammaire AB. Appliqué sur les corpus français que nous avons à notre disposition, il permet d’avoir une grammaire assez complète de la langue française, ainsi qu’un vaste lexique. Le transducteur, même s’il s’éloigne peu de la définition usuelle d’un transducteur descendant, a pour particularité d’offrir une nouvelle méthode d’écriture des règles de transduction, permettant une définition compacte de celles-ci. Enfin, nous mettons en place une version probabiliste de l’algorithme CYK pour tester l’efficacité de nos grammaires en analyse de phrases. La couverture obtenue varie entre 84,6% et 92,6%, en fonction de l’ensemble de phrases pris en entrée. Les probabilités, appliquées aussi bien sur le type des mots lorsque ceux-ci en ont plusieurs que sur les règles, permettent de sélectionner uniquement le “meilleur” arbre de dérivation.


Regroupement de résultats sur le Web : une approche textuelle José Moreno, GREYC, Université de Caen Basse Normandie

Cet exposé s'intéresse à l'analyse et au regroupement des documents Web obtenus à partir d'une requête. Nous présenterons nos méthodes permettant d'extraire les intentions implicites d'une requête Web à partir de la représentation et du regroupement de mots. Ces méthodes ont été validées avec des expériences dans lesquelles de nombreuses caractéristiques sont évaluées. Premièrement, la qualité de regroupement est évaluée en utilisant à la fois des métriques d'évaluation classiques, mais aussi des métriques plus récentes. Deuxièmement, la qualité de l'étiquetage de chaque groupe de documents est évaluée pour s'assurer que toutes les intentions des requêtes sont couvertes. Finalement, nous évaluons nos méthodes dans un cadre applicatif, celui de la recherche d'images Web sur des smartphones. Notre algorithme, Dual C-means, basé sur des mesures d'association lexical est capable à la fois de regrouper correctement les documents Web, de sélectionner des étiquettes appropriées pour chaque groupe mais aussi de présenter les résultats Web dans une distribution compacte.


Utilisation des méthodes d'apprentissage automatique pour la modélisation d’agents conversationnels dans un jeu sérieux (Projet EmoSpeech) Lina Maria Rojas Barahona, LORIA, Université de Lorraine

Dans cette présentation, j'exposerai différentes approches pour le développement des systèmes de dialogue afin de soutenir plusieurs conversations en français dans un jeu sérieux: une approche hybride (statistique/symbolique), une approche statistique supervisée et une approche d'apprentissage par renforcement inverse. Dans un premier temps, je commencerai par présenter les deux premiers systèmes et leur évaluation. Une évaluation quantitative des performances des méthodes supervisées; une évaluation qualitative faite par les utilisateurs (22 personnes) qui ont parlé avec les deux systèmes, et une évaluation basée sur l'analyse du corpus d'interactions humain-machine recueilli lors de l’évaluation qualitative. Nous verrons que, même si l'approche statistique est légèrement plus robuste, la stratégie hybride semble mieux guider le joueur dans le jeu. Dans un second temps, j'explorerai dans quelle mesure la lemmatisation, les ressources lexicales, la sémantique distributionnelle et les paraphrases permettent d'améliorer les performances des modèles supervisés. Les résultats suggèrent que chacun de ces facteurs peuvent contribuer à améliorer la performance, mais que l'impact est variable en fonction de leur combinaison et du mode d'évaluation. Enfin, je présenterai une méthode bayésienne d'apprentissage par renforcement inverse (BIRL en anglais) afin de déduire le comportement observé dans les dialogues créés par des experts jouant le rôle des agents conversationnels. L’objectif est d'apprendre le comportement des humains donnant des conseils, et aidant les utilisateurs à compléter les tâches dans le jeu. Je montrerai que la convergence dépend de la taille de l'espace des couples “états - actions” et du nombre d'observations disponibles.


Fouille de motifs avec la programmation par ensembles-réponses Thomas Guyet, IRISA, Agrocampus Ouest

La fouille de motifs est une tâche informatique qui vise à identifier des structures récurrentes dans une base de données. Nous nous intéressons en particulier à des motifs récurrents dans des données séquentielles tels que des parcours de soins (suite dans le temps de prescriptions médicamenteuses). Cette tâche est étudiée depuis plus de 20 ans par des approches algorithmiques. À l'heure actuelle, les algorithmes dédiés sont très efficaces mais génèrent un très grand nombre de motifs sans tenir compte de connaissance experte sur les données. Les approches de "fouille déclarative de motifs" sont des approches visant à utiliser des outils de programmation déclarative pour résoudre des tâches de fouille de motifs. La plupart des travaux se sont orientés vers l'utilisation de la programmation par contraintes pour des raisons d'efficacité, mais les programmes et les contraintes sont difficiles à exprimer. Dans ce séminaire, nous présentons l'utilisation de la programmation par ensembles-réponses (ASP) pour résoudre des tâches de fouille de motifs. L'ASP est un paradigme de programmation déclarative qui associe une grande expressivité à un moteur de résolution efficace. Nous présentons, dans un premier temps, le parallèle qui peut être effectué entre la résolution d'une tâche de fouille de motifs et l'approche de résolution d'une solveur ASP. Nous présentons ensuite nos résultats récents sur la fouille de motifs séquentiels avec une application à la caractérisation de parcours de soins pour une étude de pharmaco-épidémiologie.


Construire des axes transversaux dans le cadre de la fédération LI/LIFO Agata Savary, LI, Université François Rabelais de Tours, Blois

La construction des *axes transversaux* des deux aboratoires apparaît - d'après l'enquête sur la fédération LIFO/LI - comme l'une des actions majeures à mener dans le cadre de la fédération. Cependant, la construction de tels axes, devant être représentatifs de l'activité scientifique de nos deux laboratoires, n'est pas une tâche facile à effectuer et doit être menée sur une longue durée. Il s'agit de prendre en compte le maximum de compétences et sensibilités scientifiques présentes, tout en gardant des dénominations relativement compactes et lisibles de l'extérieur. Pour entamer la discussion sur la méthodologie possible de la définition des axes transversaux, nous proposons de partager avec vous une expérience du bilan d'activités scientifiques à l'échelle d'une des équipes du LI (équipe BdTln). Ce bilan, effectué pour les besoins de la communication externe, s'est basé sur le recensement de divers points liés à l'activité de l'équipe (besoins sociétaux, verrous scientifiques, résultats, aspects novateurs, techniques utilisées, indicateurs de succès/impact, perspectives).


Fuzzy co-clustering with automated feature weighting Charlotte Laclau, LIPADE, Université Paris Descartes

In data mining, the fuzziness principle allows a description of uncertainties that often appears in real world applications. In this talk, we will present two fuzzy co-clustering algorithms. The first one is a fuzzy version of the double kmeans algorithm. The second one is an extension with automated variable weighting allowing co-clustering and feature selection simultaneously. This is particularly relevant within a high dimensional context being that features selection successfully identifies non relevant variables which negatively impact the performance of clustering algorithm. We will also present results obtained on synthetic and real datasets showing the appropriateness of our approach.


Sémantique de la temporalité en français : une formalisation compositionnelle Anaïs Lefeuvre, LI, Université François Rabelais de Tours

Ce travail s’inscrit dans le cadre du projet ITIPY: Extraction automatique d’itinéraires dans des récits de voyage et application à la recherche documentaire « intelligente » dans des fonds patrimoniaux liés au territoire aquitain. Disposant d’un analyseur syntaxique et sémantique à large échelle du français, basé sur les grammaires catégorielles et la sémantique compositionnelle (λ-calcul ou λ-DRT), notre tâche a été de prendre en compte les temps des verbes pour obtenir une représentation sémantique de la temporalité des événements et des états, notions que nous regroupons sous le termes d’éventualité. Ces travaux se concentrent sur la construction d’un lexique sémantique traitant des temps verbaux du français. Nous proposons une extension et une adaptation d’un système d’opérateurs compositionnels conçu pour les temps du verbe anglais, aux temps et à l’aspect du verbe français du XIXème siècle à nos jours. Cette formalisation est de facto opérationnelle, car elle est définie en terme d’opérateurs du λ-calcul dont la composition et la réduction, déjà programmées calculent automatiquement les représentations sémantique souhaitées, des formules multisortes de la logique d’ordre supérieur. Nous concluons sur les perspectives de passage à l'échelle avec le projet de production d'une ressource annotée en temporalité.


Classification évidentielle par contrainte Violaine Antoine, LIMOS, Université de Clermont-Ferrand

La classification automatique est l'une des branches de l'analyse de données qui vise à regrouper des objets similaires en classes. Par essence, la recherche d’une structure de classes est faite de manière non supervisée, c'est-à-dire qu’elle est guidée uniquement par les caractéristiques des objets ou leur mesure de dissimilarité. Dans certaines applications cependant, une connaissance humaine supplémentaire sur les objets ou sur les classes en présence est disponible. Dans ce contexte, deux nouveaux algorithmes de classification sont proposés. Ces derniers introduisent une connaissance a priori sous forme de contraintes ou d'étiquettes sur les objets et génèrent une partition nommée partition crédale. Cette partition, basée sur l'utilisation des fonctions de croyance, généralise les notions de partitions dures et floues et permet en particulier de gérer les points aberrants. La combinaison des deux concepts existants (les fonctions de croyance et l'utilisation de contraintes) permet une amélioration sensible des résultats de classification.


Analyse syntaxique en dépendances non-projective : étiquetage syntaxique pour les grammaires catégorielles de dépendances et analyse par transition. Ophélie Lacroix, LINA, Université de Nantes

Dans le domaine de l'analyse syntaxique, les études sur l'analyse en dépendances sont de plus en plus représentées mais évitent encore souvent de prendre en compte le phénomène de la non-projectivité. Les dépendances non-projectives sont des dépendances qui peuvent engendrer des croisements dans la structure syntaxique d'une phrase. Elles sont utiles au même titre que toute dépendance syntaxique mais sont souvent distantes et plus difficiles à traiter. Nous étudions le cas de l'analyse en dépendances non-projective à travers deux axes. D'une part, nous étudions l'intérêt d'intégrer une étape d'étiquetage syntaxique dans un processus de pré-annotation permettant la construction de corpus en dépendances non-projectifs pour le français, à l'aide des grammaires catégorielles de dépendances. Nous proposons un processus complet permettant d'alléger le travail des annotateurs. D'autre part, nous étudions un système d'analyse par transition, dans le but d'améliorer la prédiction des dépendances non-projectives, et proposons un système en trois étapes linéaires, adaptable à n'importe quel corpus en dépendances standard.


Un survol des composantes connexes tropicales Sylvain Legay, LRI, Université Paris Sud Orsay

Les graphes pré-coloriés permettent de modéliser un grand nombre de réseaux, techniques, biologiques, sociologiques, économiques [1]. On peut s'intéresser par exemple au graphe du Web dont chaque page web est un sommet colorié par une thématique, deux sommets étant adjacents si un lien existe entre ces deux pages. Une partie tropicale d'un graphe pré-colorié, est un ensemble de sommets contenant au moins une fois chaque couleur. Dans un graphe pré-colorié connexe, l'existence d'une partie connexe tropicale est évidente. Le problème de la composante connexe tropicale consiste à trouver la plus petite composante connexe tropicale, ou au moins une composante connexe tropicale de taille suffisamment petite par rapport à l'optimal. Je présenterais des résultats de complexité et, le problème étant NP-complet pour la plupart des graphes (pour les arbres et les graphes d'intervalles par exemple), des conditions suffisantes liés à cette question. Références [1] M. Fellows, G. Fertin, D. Hermelin, and S. Vialette. Upper and lower bounds for finding connected motifs in vertex-colored graphs. Journal of Computer and System Sciences, Volume 77 Issue 4, pages 799-811, July 2011.