Lifo - Laboratoire d'Informatique Fondamentale d'orléans INSA Centre Val de Loire Université d'Orléans Université d'Orléans

Lifo > Les séminaires du LIFO

 English Version



Contact

LIFO - Bâtiment IIIA
Rue Léonard de Vinci
B.P. 6759
F-45067 ORLEANS Cedex 2

Email: contact.lifo
Tel: +33 (0)2 38 41 70 11
Fax: +33 (0)2 38 41 71 37



Les séminaires du LIFO


Accès par année : 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017

Sauf exception, les séminaires se déroulent le lundi de 14h à 15h, Salle de réunion 1, bâtiment IIIA (voir plan du campus).


16/12/2015 : Soutenance d'habilitation à diriger des recherches
Guillaume Cleuziou (LIFO) Résumé
Attention : Débute à 13 h 30. Lieu : Amphithéâtre 002, IUT d'Orléans, 16 rue d'Issoudun

14/12/2015 : Optimisation de la gestion de masses de données dans les nuages
Laurent D'Orazio (LIMOS, Université Blaise Pascal, Clermont-Ferrand) Résumé

10/12/2015 : Soutenance de thèse : Une approche par composants pour l’analyse visuelle interactive de résultats issus de simulations numériques
Abderrahim AIT WAKRIME (LIFO) Résumé
Attention : Lieu : Amphithéâtre Herbrand, bâtiment 3IA

04/12/2015 : Soutenance d'habilitation à diriger des recherches
Mathieu Liedloff (LIFO) Résumé
Attention : Débute à 14 h 30. Lieu : Amphi Herbrand, bâtiment 3IA

02/12/2015 : Soutenance de thèse : Application et assurance autonomes de propriétés de sécurité dans un environnement d’informatique en nuage
Aline Bousquet (LIFO, INSA CVL) Résumé
Attention : Débute à 10 h. Lieu : INSA CVL, campus de Bourges

30/11/2015 : Contribution de la réalité virtuelle dans la prise en charge des déficiences
Evelyne KLINGER (ESIEA, Laval) Résumé

23/11/2015 : Soutenance de thèse : Conception de protocoles cryptographiques préservant la vie privée pour les services mobiles sans contact
Ghada Arfaoui (LIFO, INSA CVL) Résumé
Attention : Débute à 09 h 45. Lieu : Salle des Conseils INSA Centre Val de Loire - 88 boulevard Lahitolle, 18022 Bourges

16/11/2015 : Motifs fermés abstraits et locaux dans les graphes attribués
Henry Soldano (LIPN, Université Paris 13) Résumé

19/10/2015 : Abstractions performantes pour cartes graphiques
Mathias Bourgoin (LIFO, Université d'Orléans) Résumé
Attention : Pour cause d'AG LIFO / Débute à 14 h 30.

05/10/2015 : Modélisation formelle de systèmes dynamiques autonomes : graphe, réécriture et grammaire
Cédric Eichler (LIFO, INSA Centre-Val-de-Loire) Résumé
Attention : Ce séminaire aura lieu à Bourges et sera diffusé en visio-conférence à Orléans.

22/06/2015 : Solving the Induced Subgraph problem in the randomized multiparty simultaneous messages model
Ivan Rapaport (Université du Chili) Résumé

20/04/2015 : Comportements asymptotiques typiques dans les automates cellulaires
Martin Delacourt (DIM, Universidad de Chile) Résumé

13/04/2015 : Analyse syntaxique et transformations de programmes Datalog
Pierre Bourreau (ex-LaBRI, Université Bordeaux 1) Résumé

30/03/2015 : Analyseurs discriminants en dépendances pour le discours et le dialogue
Mathieu Morey (IRIT, Université Paul Sabatier, Toulouse 3) Résumé

30/03/2015 : Abstractions pour la dynamique des réseaux d'automates
Loïc Paulevé (LRI, CNRS - Université Paris-Sud) Résumé
Attention : Débute à 15 h.

23/03/2015 : Apprentissage de grammaires catégorielles à partir de corpus annotés
Noémie-Fleur Sandillon-Rezer (LaBRI, Université Bordeaux 1) Résumé

23/03/2015 : Regroupement de résultats sur le Web : une approche textuelle
José Moreno (GREYC, Université de Caen Basse Normandie) Résumé
Attention : Débute à 15 h.

16/03/2015 : Utilisation des méthodes d'apprentissage automatique pour la modélisation d’agents conversationnels dans un jeu sérieux (Projet EmoSpeech)
Lina Maria Rojas Barahona (LORIA, Université de Lorraine) Résumé

09/03/2015 : Fouille de motifs avec la programmation par ensembles-réponses
Thomas Guyet (IRISA, Agrocampus Ouest) Résumé

09/03/2015 : Construire des axes transversaux dans le cadre de la fédération LI/LIFO
Agata Savary (LI, Université François Rabelais de Tours, Blois) Résumé
Attention : Débute à 15 h.

16/02/2015 : Fuzzy co-clustering with automated feature weighting
Charlotte Laclau (LIPADE, Université Paris Descartes ) Résumé

09/02/2015 : Sémantique de la temporalité en français : une formalisation compositionnelle
Anaïs Lefeuvre (LI, Université François Rabelais de Tours) Résumé

02/02/2015 : Classification évidentielle par contrainte
Violaine Antoine (LIMOS, Université de Clermont-Ferrand) Résumé

26/01/2015 : Analyse syntaxique en dépendances non-projective : étiquetage syntaxique pour les grammaires catégorielles de dépendances et analyse par transition.
Ophélie Lacroix (LINA, Université de Nantes) Résumé

12/01/2015 : Un survol des composantes connexes tropicales
Sylvain Legay (LRI, Université Paris Sud Orsay) Résumé
Attention : Débute à 11 h.


Résumés des séminaires


Soutenance d'habilitation à diriger des recherches Guillaume Cleuziou, LIFO

Structuration de données par apprentissage non-supervisé : applications aux données textuelles

En fouille de données, le succès d'une méthode tient au fait qu'elle permet de répondre par un algorithme intuitif à un besoin pratique bien théorisé. C'est avec cet éclairage que nous présentons un ensemble de contributions, élaborées durant ces dix dernières années, et répondant au besoin pratique de structurer automatiquement un ensemble de données. Dans un premier temps nous proposons de nouveaux modèles théoriques de structuration complexe en classes d’individus ; il s’agit alors d'extraire automatiquement d'un ensemble de données, des structures de classification plus proches de leur organisation réelle telle qu’observée (classification recouvrante, formes symétriques), de rendre ces structures à la fois robustes (tolérance au bruit) et manipulables par l’homme (visualisation, paramétrage) et enfin d’être en mesure de les expliquer (sémantique des classes). Dans un second temps nous nous intéressons aux données textuelles via la mise en oeuvre de modèles rendant compte de la structure thématique d’une collection de textes courts dans un contexte de recherche d’information ; enfin, nous présentons un méta-modèle permettant d’apprendre automatiquement un modèle de structuration sémantique d’un ensemble de termes.


Optimisation de la gestion de masses de données dans les nuages Laurent D'Orazio, LIMOS, Université Blaise Pascal, Clermont-Ferrand

L'informatique en nuages permet de faire face aux besoins de nombreux domaines d’applications scientifiques (séquençage du génome, physique corpusculaire par exemple), économiques (commerce en ligne, informatique décisionnelle, ou encore processus métiers) ou sociétaux (santé, réseaux sociaux, enseignement, etc.), au coeur desquels, les données jouent un rôle crucial. Cependant, la gestion des données, notamment massives, au sein des nuages informatiques n'est pas triviale et se heurte à de nombreux verrous scientifiques à différents niveaux : stockage, interrogation, ou encore intégration. Cette présentation décrit nos contributions recherche pour la gestion de données massives dans les nuages informatiques. Nous nous sommes intéressés au problème de l'optimisation de la gestion de données massives dans les nuages informatiques. Nous avons d'une part traité un cas d'utilisation précis, à savoir le passage à l'échelle de la recherche de sous-graphes fréquents à l'aide de MapReduce. Nous avons d'autre part proposé des solutions génériques (extensions de filtres de Bloom pour l'exécution de jointures et de requêtes récursives, architecture hybride sur une structuration des données en lignes et en colonnes) pour améliorer le traitement de données massives dans les nuages.


Soutenance de thèse : Une approche par composants pour l’analyse visuelle interactive de résultats issus de simulations numériques Abderrahim AIT WAKRIME, LIFO

Résumé

Les architectures par composants sont de plus en plus étudiées et utilisées pour le développement efficace des applications en génie logiciel. Elles offrent, d’un coté, une architecture claire aux développeurs, et de l’autre, une séparation des différentes parties fonctionnelles et en particulier dans les applications de visualisation scientifique interactives. La modélisation de ces applications doit permettre la description des comportements de chaque composant et les actions globales du système. De plus, les interactions entre composants s’expriment par des schémas de communication qui peuvent être très complexes avec, par exemple, la possibilité de perdre des messages pour gagner en performance. Cette thèse décrit le modèle ComSA (Component-based approach for Scientific Applications) qui est basé sur une approche par composants dédiée aux applications de visualisation scientifique interactive et dynamique formalisée par les réseaux FIFO colorés stricts (sCFN). Les principales contributions de cette thèse sont dans un premier temps, un ensemble d’outils pour modéliser les différents comportements des composants ainsi que les différentes politiques de communication au sein de l’application. Dans un second temps, la définition de propriétés garantissant un démarrage propre de l’application en analysant et détectant les blocages. Cela permet de garantir la vivacité tout au long de l’exécution de l’application. Finalement l’étude de la reconfiguration dynamique des applications d’analyse visuelle par ajout ou suppression à la volée d’un composant sans arrêter toute l’application. Cette reconfiguration permet de minimiser le nombre de services non disponibles.

Jury

  • Joaquín EZPELETA, Professeur des Universités, Université de Saragosse - Espagne
  • Nabil HAMEURLAIN, Maître de conférences, HDR, Université de Pau et des Pays de l’Adour - France
  • Nicolas FEREY, Maître de conférences, Université Paris Sud - France
  • Jean-Michel COUVREUR, Professeur des Universités, Université d'Orléans - France
  • Sophie ROBERT, Maître de conférences, Université d'Orléans - France
  • Sébastien LIMET, Professeur des Universités, Université d'Orléans - France


Soutenance d'habilitation à diriger des recherches Mathieu Liedloff, LIFO

Cette habilitation à diriger des recherches met en lumière quelques résultats obtenus depuis ma thèse de doctorat soutenue en 2007. Ces résultats ont été́, pour l’essentiel, publiés dans des conférences et des journaux internationaux. En particulier, nous présentons des algorithmes exponentiels pour résoudre des problèmes de décision, d’optimisation et d’énumération. On s’intéresse tout d’abord au problème d’étiquetage L(2,1) d’un graphe, pour lequel différents algorithmes sont décrits (basés sur du branchement, le paradigme diviser-pour-régner, ou la programmation dynamique). Des bornes combinatoires, nécessaires à l’analyse de ces algorithmes, sont également établies. Dans un second temps, nous résolvons des problèmes autour de la domination. Nous développons des algorithmes pour résoudre une généralisation de la domination et nous donnons des algorithmes pour énumérer les ensembles dominants minimaux dans des classes de graphes. L’analyse de ces algorithmes implique des bornes combinatoires. Finalement, nous étendons notre champ d’applications de l’algorithmique modérément exponentielle à des problèmes d’ordonnancement. Par le développement d’approches de type programmation dynamique et la généralisation de la méthode trier-et-chercher, nous proposons la résolution de toute une famille de problèmes d’ordonnancement.


Soutenance de thèse : Application et assurance autonomes de propriétés de sécurité dans un environnement d’informatique en nuage Aline Bousquet, LIFO, INSA CVL

Les environnements d'informatique en nuage sont des environnements hétérogènes et dynamiques, ce qui les rend complexes à sécuriser. Dans cette thèse, nous proposons un langage et une architecture permettant d'exprimer et d'appliquer des propriétés de sécurité dans un environnement en nuage. Le langage permet à un client de l'informatique en nuage d'exprimer des besoins de sécurité sans préciser comment ils seront appliqués. Le langage se base sur des contextes abstrayant les ressources et des propriétés correspondant aux besoins de sécurité. Les propriétés sont ensuite appliquées en utilisant les mécanismes de sécurité disponibles (tels que SELinux, PAM, iptables ou firewalld) via une architecture autonome. Cette architecture permet d'abstraire et de réutiliser les capacités de sécurité des mécanismes existants. Une propriété de sécurité est ainsi définie comme une combinaison de capacités et peut être appliquée grâce à la collaboration de plusieurs mécanismes. Les mécanismes sont alors automatiquement configurés en accord avec les propriétés établies par l'utilisateur. L'architecture dispose aussi d'un système d'assurance qui lui permet de détecter une défaillance d'un mécanisme ou une erreur d'application. L'architecture peut ainsi répondre aux problèmes rencontrés, par exemple en ré-appliquant des propriétés avec d'autres mécanismes. De plus, le système d'assurance fournit une évaluation de l'application des propriétés. La thèse propose ainsi un système autonome d'application et d'assurance de la sécurité dans des environnements hétérogènes.

Jury :

  • Stéphane BETGE-BREZETZ – Ingénieur de Recherche, Alcatel-Lucent Bell Labs
  • Jérémy BRIFFAUT – Maitre de Conférences, INSA CVL
  • Jean-Michel COUVREUR – Professeur, Université d'Orléans
  • Hervé DEBAR – Professeur, Télécom SudParis – Rapporteur
  • Christine MORIN – Directrice de Recherche, Inria Rennes – Rapporteur
  • Christian TOINARD – Professeur, INSA CVL – Directeur de thèse


Contribution de la réalité virtuelle dans la prise en charge des déficiences Evelyne KLINGER, ESIEA, Laval

La réalité virtuelle, et les technologies lui sont associées (capteurs, objets connectés, ...), sont en train de pénétrer le monde de la thérapie et de la prise en charge des déficiences du fait des paradigmes innovants et efficaces qu’elles permettent de mettre en œuvre, de l’attrait de ces technologies pour les patients et de la facilitation actuelle de leur accès avec certains jeux ou interfaces telle la kinect. Ces technologies permettent d’augmenter les possibilités d’interaction, en rééducation notamment, en proposant des expériences individuelles ou collaboratives, co‐localisées ou à distance (Weiss and Klinger, 2009), dans une approche de cognition distribuée. Quel que soit le domaine thérapeutique dans lequel la réalité virtuelle est utilisée, elle joue un rôle de médiation à multiples facettes (Klinger, 2013). Globalement, elle permet, sous réserve d’être utilisable par les usagers concernés (patients, personnes handicapées, thérapeutes, aidants) de faciliter la prise en charge des déficiences et l’amélioration de l’autonomie. La présentation développera les points évoqués ci‐dessus en s’appuyant majoritairement sur les travaux menés avec le supermarché virtuel VAP‐S (Virtual Action Planning Supermarket). Klinger E (2013). Réalité Virtuelle et Handicap – Perspectives dans la prise en charge des déficiences cognitives et comportementales. Habilitation à Diriger des Recherches – Spécialité : Sciences de la Cognition. Université de Bordeaux2 Segalen. Weiss PL, Klinger E (2009). Moving beyond single user, local virtual environments for rehabilitation In: Advanced Technologies in Rehabilitation ‐ Empowering Cognitive, Physical, Social and Communicative Skills through Virtual Reality, Robots, Wearable Systems and Brain‐Computer Interfaces (Gaggioli A, Weiss PL, Keshner EA, Riva G, eds), pp 263‐276.


Soutenance de thèse : Conception de protocoles cryptographiques préservant la vie privée pour les services mobiles sans contact Ghada Arfaoui, LIFO, INSA CVL

Avec l'émergence de nouvelles technologies telles que le NFC (Communication à champ proche) et l'accroissement du nombre de plates-formes mobiles, les téléphones mobiles vont devenir de plus en plus indispensables dans notre vie quotidienne. Ce contexte introduit de nouveaux défis en termes de sécurité et de respect de la vie privée. Dans cette thèse, nous nous focalisons sur les problématiques liées au respect de la vie privée dans les services NFC ainsi qu’à la protection des données privées et secrets des applications mobiles dans les environnements d'exécution de confiance (TEE). Nous fournissons deux solutions pour le transport public: une solution utilisant des cartes d'abonnement (m-pass) et une autre à base de tickets électroniques (m-ticketing). Nos solutions préservent la vie privée des utilisateurs tout en respectant les exigences fonctionnelles établies par les opérateurs de transport. À cette fin, nous proposons de nouvelles variantes de signatures de groupe ainsi que la première preuve pratique d’appartenance à un ensemble, à apport nul de connaissance, et qui ne nécessite pas de calculs de couplages du côté du prouveur. Ces améliorations permettent de réduire considérablement le temps d'exécution de ces schémas lorsqu’ils sont implémentés dans des environnements contraints par exemple sur carte à puce. Nous avons développé les protocoles de m-passe et de m-ticketing dans une carte SIM standard : la validation d'un ticket ou d'un m-pass s'effectue en moins de 300ms et ce tout en utilisant des tailles de clés adéquates. Nos solutions fonctionnent également lorsque le mobile est éteint ou lorsque sa batterie est déchargée. Si les applications s'exécutent dans un TEE, nous introduisons un nouveau protocole de migration de données privées, d'un TEE à un autre, qui assure la confidentialité et l'intégrité de ces données. Notre protocole est fondé sur l’utilisation d’un schéma de proxy de rechiffrement ainsi que sur un nouveau modèle d’architecture du TEE. Enfin, nous prouvons formellement la sécurité de nos protocoles soit dans le modèle calculatoire pour les protocoles de m-pass et de ticketing soit dans le modèle symbolique pour le protocole de migration de données entre TEE.

Jury

  • Pascal BERTHOMÉ - Professeur des Universités, INSA CEntre Val de Loire, Directeur de thèse
  • Hervé CHABANNE - Professeur, Télécom ParisTech & Morpho
  • Saïd GHAROUT - Ingénieur de recherche, Orange Labs
  • Mirian HALFELD FERRARI ALVES - Professeur des Universités, Université d’Orléans
  • Olivier PEREIRA - Professeur, Université Catholique de Louvain, Rapporteur
  • Peter RYAN - Professeur, Université du Luxembourg, Rapporteur
  • Jean-François LALANDE- Maître de conférences, INSA Centre Val de Loire
  • Jacques TRAORÉ - Ingénieur de recherche, Orange Labs


Motifs fermés abstraits et locaux dans les graphes attribués Henry Soldano, LIPN, Université Paris 13

Nous nous intéressons ici à la découverte de motifs et de connaissances, sous la forme d’implications logiques, dans les graphes attribués. Nous étendons la méthodologie des motifs fermés au cas ou les objets dans lesquels on cherche l’occurrence d’un motif (typiquement un itemset) sont les sommets d’un graphe, typiquement un réseau social, dont les sommets sont décorés d’une description dans un langage d’attributs. Nous dirons que les motifs sont abstraits lorsque l’on réduit l’ensemble des sommets-occurrences d’un motif de manière à induire un sous-graphe satisfaisant une certaine propriété (par exemple appartenir à une k-clique dans ce sous-graphe. On obtient alors un ensemble de motifs fermés plus petit que l’ensemble des motifs fermés standards. Nous dirons que les motifs sont des motifs fermés locaux lorsqu’ils sont de plus maximaux dans une composante connexe d’un tel sous-graphe. Des bases de règles min-max abstraites et locales sont associées à ces notions d’abstraction et de localité. Nous montrons comment cette méthodologie peut-être étendue et utilisée pour représenter et extraire l’ensemble des implications associées aux k-sous-communautés d’un graphe. Par k-sous-communauté nous entendons ici une k-communauté d’un sous-graphe induit par l’ensemble des sommets-occurrences d’un motif donné. Nous décrirons également brièvement des mesures d’intérêt pour ces motifs et implications abstraites ou locales. Les travaux concernés ont été présentés en 2015 aux conférences ICFCA, ISMIS et ICTAI.


Abstractions performantes pour cartes graphiques Mathias Bourgoin, LIFO, Université d'Orléans

De nos jours, la programmation généraliste à l'aide d'accélérateurs graphiques (*General Purpose GPU programming*) est une solution populaire pour obtenir de hautes performances. Elle couple des unités de calcul massivement parallèle peu chères avec des CPU classiques. Ces systèmes hétérogènes imposent une programmation complexe qui combine plusieurs paradigmes et langages de programmation pour manipuler chaque architecture matérielle. Cette présentation s'articulera autour d'un ensemble d'outils chargés de simplifier la programmation GPGPU à travers le langage de programmation OCaml. Elle décrira la bibliothèque SPOC, qui est dédiée à la manipulation des sous-programmes GPGPU (*kernels*) ainsi qu'aux transferts de données entre dispositifs (CPU/GPU). Puis, elle montrera comment SPOC permet d'exprimer les *kernels* GPGPU : à travers de l’interopérabilité avec les extensions de bas niveau classique (des systèmes Cuda et OpenCL) mais aussi à travers un langage dédié (*Domain Specific Language* - DSL) intégré à OCaml. Enfin, elle présentera comment manipuler ces *kernels* à travers des squelettes algorithmiques parallèles.


Modélisation formelle de systèmes dynamiques autonomes : graphe, réécriture et grammaire Cédric Eichler, LIFO, INSA Centre-Val-de-Loire

Les systèmes distribués modernes à large-échelle évoluent dans des contextes variables soumis à de nombreux aléas auxquels ils doivent s'adapter dynamiquement. Dans ce cadre, l'informatique autonome se propose de réduir! e (voire supprimer) les interventions humaines lentes et coûteuse, en leur préférant l'auto-gestion. L'adaptabilité autonome d'un système repose avant tout sur une description adéquate de ses composants, de leurs interactions et des différents aspects ou topologies qu’il peut adopter. Diverses approches de modélisation ont étés proposées dans la littérature, basées notamment sur des langages de descriptions spécifiques (e.g., les ADLs) ou des modèles génériques plus ou moins formels (e.g., profils UML, graphes). Ces représentations se concentrent en général sur certains aspects ou propriétés du système dynamique et ne permettent ainsi pas de répondre à chacune des problématiques inhérentes à l'auto-gestion. Cette présentation traite de la modélisation basée graphes des systèmes dynamiques et de son adéquation pour la mise en œuvre des quatre propriétés fondamentales de l'informatique autonome : l'auto-optimisation, l'auto-protection, l'auto-guérison et l'auto-configuration. Elle s'articule autour de trois points. Une introduction à la modélisation basée graphes nous servira tout d'abord de fondation à l'élaboration d'une méthodologie pour la construction et la caractérisation générative de transformations correctes par construction dont l'application préserve nécessairement la correction du système. Une telle méthodologie permet d'efficacement garantir le maintien d'une application dans un état acceptable lors de son adaptation. Dans un deuxième temps, après avoir mis en lumière les limitations des approches existantes, nous exposerons une extension des systèmes de réécriture de graphe permettant de représenter, mettre à jour, évaluer et paramétrer les caractéristiques d'un système aisément et efficacement. Ces affirmations sont soutenues par des exemples illustratifs concrets reposant sur DIET, un répartiteur de charge distribué. Une étude expérimentale extensive révèle un net gain d'efficacité vis à vis de méthodes classiques, en particulier celles intégrées nativement aux outils AGG et GMTE. Finalement, un gestionnaire autonome apte à régenter tout système Machine-à-Machine se conformant au standard ETSI M2M sera présenté, une politique autonome et son exécution étant détaillées à titre illustratif.


Solving the Induced Subgraph problem in the randomized multiparty simultaneous messages model Ivan Rapaport, Université du Chili

We study the message size complexity of recognizing, under the broadcast congested clique model, whether a fixed graph H appears in a given graph G as a minor, as a subgraph or as an induced subgraph. The n nodes of the input graph G are the players, and each player only knows the identities of its immediate neighbors. We are mostly interested in the one-round, simultaneous setup where each player sends a message of size O(log n) to a referee that should be able then to determine whether H appears in G. We consider randomized protocols where the players have access to a common random sequence. We completely characterize which graphs H admit such a protocol.


Comportements asymptotiques typiques dans les automates cellulaires Martin Delacourt, DIM, Universidad de Chile

Dans le monde des systèmes dynamiques, on s'intéresse souvent aux comportements asymptotiques et en particulier à l'ensemble limite, c'est à dire l'ensemble des points du système qui peuvent être visités arbitrairement tard au cours d'une évolution. Pour affiner la perception des comportements asymptotiques, on ajoute une mesure de probabilités sur l'ensemble de configurations initiales et on oublie les parties de l'espace qui tendent à disparaître. On considère ici le cas particulier des automates cellulaires qui sont un modèle classique de systèmes dynamiques discrets. Constitués d'une infinité de cellules formant un graphe régulier et ayant un état parmi un ensemble fini, leur évolution se fait en appliquant une même règle locale en tous points simultanément. On donnera une caractérisation des ensembles limites associés à une mesure de probabilités, des grands ensembles classiques de sous-shifts qui peuvent être réalisés et un théorème de Rice sur ces ensembles.


Analyse syntaxique et transformations de programmes Datalog Pierre Bourreau, ex-LaBRI, Université Bordeaux 1

La programmation logique et l'analyse syntaxique du langage naturel sont deux domaines historiquement liés, depuis l'avènement de Prolog (Colmerauer 1978), les grammaires de clauses définies (Pereira 1980), jusqu'aux travaux de Kanazawa (2007). Ce dernier montra (i) qu'il est possible de construire des reconnaisseurs de type CYK pour les grammaires hors-contexte multiples (MCFGs) sous forme de programmes Datalog (ii) que des reconnaisseurs de type Earley pour ces grammaires peuvent être construits par une simple transformation de programmes. Par cette étude, nous verrons que les travaux de Kanazawa peuvent être étendus selon plusieurs axes: premièrement, il est possible de construire des reconnaisseurs de MCFGs copiantes (Parallel MCFGs - PMCFGs) sous forme de programmes Datalog; puis nous verrons qu'en étendant la syntaxe Datalog, ces reconnaisseurs peuvent être transformés en analyseurs; enfin nous montrerons que des analyseurs de PMCFGs de type Earley, mais également de type coin-gauche, peuvent être construits, par application de transformations de programmes. (Travaux réalisés avec S.Salvati, A.Ball et E.Kien)


Analyseurs discriminants en dépendances pour le discours et le dialogue Mathieu Morey, IRIT, Université Paul Sabatier, Toulouse 3

L'analyse discursive est une tâche du traitement automatique des langues qui vise à associer à un texte sa structure rhétorique, sous forme d'arbre ou de graphe de relations rhétoriques entre unités discursives. Je présenterai dans cet exposé des travaux menés dans le cadre du projet STAC sur le développement d'un analyseur discriminant en dépendances pour le discours et le dialogue. Je montrerai comment un certain nombre d'avancées récentes en analyse discriminante en dépendances syntaxiques peuvent être transposées à l'analyse discursive. J'introduirai les difficultés supplémentaires posées par l'analyse discursive lorsque la structure rhétorique à produire n'est plus un arbre mais un graphe, et j'esquisserai quelques solutions possibles. Je présenterai également des résultats expérimentaux préliminaires sur le corpus RST-DT.


Abstractions pour la dynamique des réseaux d'automates Loïc Paulevé, LRI, CNRS - Université Paris-Sud

Les réseaux d'automates modélisent efficacement le comportement de réseaux biologiques complexes, comme les réseaux de signalisation ou de régulation génique. Ces modèles sont de plus en plus détaillés, et comprennent souvent plusieurs centaines ou milliers d'automates interagissant en parallèle. Dans le but de fournir des analyses de leur dynamique applicables à grande échelle, je montrerai les bases d'une interprétation abstraite de la causalité des transitions dans les réseaux d'automates. Les abstractions considérées exploitent la concurrence au sein des réseaux et permettent d'obtenir des représentations compactes, non redondantes, mais approchées, de l'ensemble des traces possibles. Je discuterai alors de l'application de cette analyse statique pour dériver des conditions nécessaires ou suffisantes pour la satisfiabilité de propriétés d'accessibilité, et pour réduire les réseaux d'automates tout en préservant les traces minimales pour ces propriétés.


Apprentissage de grammaires catégorielles à partir de corpus annotés Noémie-Fleur Sandillon-Rezer, LaBRI, Université Bordeaux 1

Pendant cet exposé, Nous nous focaliserons sur la syntaxe de la langue française et sa modélisation avec des grammaires catégorielles (AB). L’idée est de pouvoir aussi bien générer des squelettes de phrases syntaxiquement correctes que vérifier l’appartenance d’une phrase à un langage. Nous couvrons aussi bien l’aspect d’extraction de grammaire à partir de corpus arborés que l’analyse de phrases. Pour ce faire, nous présentons deux méthodes d’extraction et une méthode d’analyse de phrases permettant de tester nos grammaires. La première méthode consiste en la création d’un transducteur d’arbres généralisé, qui transforme les arbres syntaxiques en arbres de dérivation d’une grammaire AB. Appliqué sur les corpus français que nous avons à notre disposition, il permet d’avoir une grammaire assez complète de la langue française, ainsi qu’un vaste lexique. Le transducteur, même s’il s’éloigne peu de la définition usuelle d’un transducteur descendant, a pour particularité d’offrir une nouvelle méthode d’écriture des règles de transduction, permettant une définition compacte de celles-ci. Enfin, nous mettons en place une version probabiliste de l’algorithme CYK pour tester l’efficacité de nos grammaires en analyse de phrases. La couverture obtenue varie entre 84,6% et 92,6%, en fonction de l’ensemble de phrases pris en entrée. Les probabilités, appliquées aussi bien sur le type des mots lorsque ceux-ci en ont plusieurs que sur les règles, permettent de sélectionner uniquement le “meilleur” arbre de dérivation.


Regroupement de résultats sur le Web : une approche textuelle José Moreno, GREYC, Université de Caen Basse Normandie

Cet exposé s'intéresse à l'analyse et au regroupement des documents Web obtenus à partir d'une requête. Nous présenterons nos méthodes permettant d'extraire les intentions implicites d'une requête Web à partir de la représentation et du regroupement de mots. Ces méthodes ont été validées avec des expériences dans lesquelles de nombreuses caractéristiques sont évaluées. Premièrement, la qualité de regroupement est évaluée en utilisant à la fois des métriques d'évaluation classiques, mais aussi des métriques plus récentes. Deuxièmement, la qualité de l'étiquetage de chaque groupe de documents est évaluée pour s'assurer que toutes les intentions des requêtes sont couvertes. Finalement, nous évaluons nos méthodes dans un cadre applicatif, celui de la recherche d'images Web sur des smartphones. Notre algorithme, Dual C-means, basé sur des mesures d'association lexical est capable à la fois de regrouper correctement les documents Web, de sélectionner des étiquettes appropriées pour chaque groupe mais aussi de présenter les résultats Web dans une distribution compacte.


Utilisation des méthodes d'apprentissage automatique pour la modélisation d’agents conversationnels dans un jeu sérieux (Projet EmoSpeech) Lina Maria Rojas Barahona, LORIA, Université de Lorraine

Dans cette présentation, j'exposerai différentes approches pour le développement des systèmes de dialogue afin de soutenir plusieurs conversations en français dans un jeu sérieux: une approche hybride (statistique/symbolique), une approche statistique supervisée et une approche d'apprentissage par renforcement inverse. Dans un premier temps, je commencerai par présenter les deux premiers systèmes et leur évaluation. Une évaluation quantitative des performances des méthodes supervisées; une évaluation qualitative faite par les utilisateurs (22 personnes) qui ont parlé avec les deux systèmes, et une évaluation basée sur l'analyse du corpus d'interactions humain-machine recueilli lors de l’évaluation qualitative. Nous verrons que, même si l'approche statistique est légèrement plus robuste, la stratégie hybride semble mieux guider le joueur dans le jeu. Dans un second temps, j'explorerai dans quelle mesure la lemmatisation, les ressources lexicales, la sémantique distributionnelle et les paraphrases permettent d'améliorer les performances des modèles supervisés. Les résultats suggèrent que chacun de ces facteurs peuvent contribuer à améliorer la performance, mais que l'impact est variable en fonction de leur combinaison et du mode d'évaluation. Enfin, je présenterai une méthode bayésienne d'apprentissage par renforcement inverse (BIRL en anglais) afin de déduire le comportement observé dans les dialogues créés par des experts jouant le rôle des agents conversationnels. L’objectif est d'apprendre le comportement des humains donnant des conseils, et aidant les utilisateurs à compléter les tâches dans le jeu. Je montrerai que la convergence dépend de la taille de l'espace des couples “états - actions” et du nombre d'observations disponibles.


Fouille de motifs avec la programmation par ensembles-réponses Thomas Guyet, IRISA, Agrocampus Ouest

La fouille de motifs est une tâche informatique qui vise à identifier des structures récurrentes dans une base de données. Nous nous intéressons en particulier à des motifs récurrents dans des données séquentielles tels que des parcours de soins (suite dans le temps de prescriptions médicamenteuses). Cette tâche est étudiée depuis plus de 20 ans par des approches algorithmiques. À l'heure actuelle, les algorithmes dédiés sont très efficaces mais génèrent un très grand nombre de motifs sans tenir compte de connaissance experte sur les données. Les approches de "fouille déclarative de motifs" sont des approches visant à utiliser des outils de programmation déclarative pour résoudre des tâches de fouille de motifs. La plupart des travaux se sont orientés vers l'utilisation de la programmation par contraintes pour des raisons d'efficacité, mais les programmes et les contraintes sont difficiles à exprimer. Dans ce séminaire, nous présentons l'utilisation de la programmation par ensembles-réponses (ASP) pour résoudre des tâches de fouille de motifs. L'ASP est un paradigme de programmation déclarative qui associe une grande expressivité à un moteur de résolution efficace. Nous présentons, dans un premier temps, le parallèle qui peut être effectué entre la résolution d'une tâche de fouille de motifs et l'approche de résolution d'une solveur ASP. Nous présentons ensuite nos résultats récents sur la fouille de motifs séquentiels avec une application à la caractérisation de parcours de soins pour une étude de pharmaco-épidémiologie.


Construire des axes transversaux dans le cadre de la fédération LI/LIFO Agata Savary, LI, Université François Rabelais de Tours, Blois

La construction des *axes transversaux* des deux aboratoires apparaît - d'après l'enquête sur la fédération LIFO/LI - comme l'une des actions majeures à mener dans le cadre de la fédération. Cependant, la construction de tels axes, devant être représentatifs de l'activité scientifique de nos deux laboratoires, n'est pas une tâche facile à effectuer et doit être menée sur une longue durée. Il s'agit de prendre en compte le maximum de compétences et sensibilités scientifiques présentes, tout en gardant des dénominations relativement compactes et lisibles de l'extérieur. Pour entamer la discussion sur la méthodologie possible de la définition des axes transversaux, nous proposons de partager avec vous une expérience du bilan d'activités scientifiques à l'échelle d'une des équipes du LI (équipe BdTln). Ce bilan, effectué pour les besoins de la communication externe, s'est basé sur le recensement de divers points liés à l'activité de l'équipe (besoins sociétaux, verrous scientifiques, résultats, aspects novateurs, techniques utilisées, indicateurs de succès/impact, perspectives).


Fuzzy co-clustering with automated feature weighting Charlotte Laclau, LIPADE, Université Paris Descartes

In data mining, the fuzziness principle allows a description of uncertainties that often appears in real world applications. In this talk, we will present two fuzzy co-clustering algorithms. The first one is a fuzzy version of the double kmeans algorithm. The second one is an extension with automated variable weighting allowing co-clustering and feature selection simultaneously. This is particularly relevant within a high dimensional context being that features selection successfully identifies non relevant variables which negatively impact the performance of clustering algorithm. We will also present results obtained on synthetic and real datasets showing the appropriateness of our approach.


Sémantique de la temporalité en français : une formalisation compositionnelle Anaïs Lefeuvre, LI, Université François Rabelais de Tours

Ce travail s’inscrit dans le cadre du projet ITIPY: Extraction automatique d’itinéraires dans des récits de voyage et application à la recherche documentaire « intelligente » dans des fonds patrimoniaux liés au territoire aquitain. Disposant d’un analyseur syntaxique et sémantique à large échelle du français, basé sur les grammaires catégorielles et la sémantique compositionnelle (λ-calcul ou λ-DRT), notre tâche a été de prendre en compte les temps des verbes pour obtenir une représentation sémantique de la temporalité des événements et des états, notions que nous regroupons sous le termes d’éventualité. Ces travaux se concentrent sur la construction d’un lexique sémantique traitant des temps verbaux du français. Nous proposons une extension et une adaptation d’un système d’opérateurs compositionnels conçu pour les temps du verbe anglais, aux temps et à l’aspect du verbe français du XIXème siècle à nos jours. Cette formalisation est de facto opérationnelle, car elle est définie en terme d’opérateurs du λ-calcul dont la composition et la réduction, déjà programmées calculent automatiquement les représentations sémantique souhaitées, des formules multisortes de la logique d’ordre supérieur. Nous concluons sur les perspectives de passage à l'échelle avec le projet de production d'une ressource annotée en temporalité.


Classification évidentielle par contrainte Violaine Antoine, LIMOS, Université de Clermont-Ferrand

La classification automatique est l'une des branches de l'analyse de données qui vise à regrouper des objets similaires en classes. Par essence, la recherche d’une structure de classes est faite de manière non supervisée, c'est-à-dire qu’elle est guidée uniquement par les caractéristiques des objets ou leur mesure de dissimilarité. Dans certaines applications cependant, une connaissance humaine supplémentaire sur les objets ou sur les classes en présence est disponible. Dans ce contexte, deux nouveaux algorithmes de classification sont proposés. Ces derniers introduisent une connaissance a priori sous forme de contraintes ou d'étiquettes sur les objets et génèrent une partition nommée partition crédale. Cette partition, basée sur l'utilisation des fonctions de croyance, généralise les notions de partitions dures et floues et permet en particulier de gérer les points aberrants. La combinaison des deux concepts existants (les fonctions de croyance et l'utilisation de contraintes) permet une amélioration sensible des résultats de classification.


Analyse syntaxique en dépendances non-projective : étiquetage syntaxique pour les grammaires catégorielles de dépendances et analyse par transition. Ophélie Lacroix, LINA, Université de Nantes

Dans le domaine de l'analyse syntaxique, les études sur l'analyse en dépendances sont de plus en plus représentées mais évitent encore souvent de prendre en compte le phénomène de la non-projectivité. Les dépendances non-projectives sont des dépendances qui peuvent engendrer des croisements dans la structure syntaxique d'une phrase. Elles sont utiles au même titre que toute dépendance syntaxique mais sont souvent distantes et plus difficiles à traiter. Nous étudions le cas de l'analyse en dépendances non-projective à travers deux axes. D'une part, nous étudions l'intérêt d'intégrer une étape d'étiquetage syntaxique dans un processus de pré-annotation permettant la construction de corpus en dépendances non-projectifs pour le français, à l'aide des grammaires catégorielles de dépendances. Nous proposons un processus complet permettant d'alléger le travail des annotateurs. D'autre part, nous étudions un système d'analyse par transition, dans le but d'améliorer la prédiction des dépendances non-projectives, et proposons un système en trois étapes linéaires, adaptable à n'importe quel corpus en dépendances standard.


Un survol des composantes connexes tropicales Sylvain Legay, LRI, Université Paris Sud Orsay

Les graphes pré-coloriés permettent de modéliser un grand nombre de réseaux, techniques, biologiques, sociologiques, économiques [1]. On peut s'intéresser par exemple au graphe du Web dont chaque page web est un sommet colorié par une thématique, deux sommets étant adjacents si un lien existe entre ces deux pages. Une partie tropicale d'un graphe pré-colorié, est un ensemble de sommets contenant au moins une fois chaque couleur. Dans un graphe pré-colorié connexe, l'existence d'une partie connexe tropicale est évidente. Le problème de la composante connexe tropicale consiste à trouver la plus petite composante connexe tropicale, ou au moins une composante connexe tropicale de taille suffisamment petite par rapport à l'optimal. Je présenterais des résultats de complexité et, le problème étant NP-complet pour la plupart des graphes (pour les arbres et les graphes d'intervalles par exemple), des conditions suffisantes liés à cette question. Références [1] M. Fellows, G. Fertin, D. Hermelin, and S. Vialette. Upper and lower bounds for finding connected motifs in vertex-colored graphs. Journal of Computer and System Sciences, Volume 77 Issue 4, pages 799-811, July 2011.