Lifo - Laboratoire d'Informatique Fondamentale d'orléans INSA Centre Val de Loire Université d'Orléans Université d'Orléans

Lifo > Les séminaires du LIFO

 English Version



Contact

LIFO - Bâtiment IIIA
Rue Léonard de Vinci
B.P. 6759
F-45067 ORLEANS Cedex 2

Email: contact.lifo
Tel: +33 (0)2 38 41 99 29
Fax: +33 (0)2 38 41 71 37



Les séminaires du LIFO


Accès par année : 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021 2022 2023 2024

Sauf exception, les séminaires se déroulent le lundi de 14h à 15h, Salle de réunion 1, bâtiment IIIA (voir plan du campus).


05/12/2016 : Visual search tree profiling
Guido Tack (Monash University, Melbourne, Australia) Résumé

28/11/2016 : Séminaire en hommage à Lionel Martin
C. Vrain, G. Cleuziou, M. Exbrayat, F. Moal, S. Limet (LIFO) Résumé
Attention : Lieu : Amphi Herbrand, bâtiment 3IA

24/10/2016 : Automates cellulaires, solitons et thermodynamique
Guillaume Theyssier (Institut de Mathématiques de Marseille) Résumé

17/10/2016 : Rust – Performance ? Sûreté ? Confort ? Pourquoi choisir ?
David Rajchenbach-Teller (Mozilla, Paris) Résumé

23/05/2016 : Real World Issues in Supervised Classification for data stream
Vincent Lemaire (Orange labs, Lannion) Résumé

23/05/2016 : Le clustering prédictif - Décrire et prédire d’une manière simultanée
Oumaima Alaoui Ismaili (Orange labs, Lannion) Résumé
Attention : Débute à 15 h.

18/05/2016 : Parallel computing the structured way: a view from Pisa
Marco Danelutto (Université de Pise, Italie) Résumé
Attention : Le séminaire aura lieu exceptionnellement un mercredi

18/04/2016 : Word2Vec vs DBnary ou comment (ré)concilier représentations distribuées et réseaux lexico-sémantiques ? Le cas de l'évaluation en traduction automatique
Christophe Servan (Université Grenoble Alpes, LIG) Résumé

21/03/2016 : Métagrammaires et Frames sémantiques
Simon Petitjean (Heinrich Heine Universität, Düsseldorf) Résumé
Attention : Le séminaire débutera après l'AG du LIFO / Débute à 15 h 30.

14/03/2016 : Raisonnement à large échelle avec CEDAR
Samir Amir (Université Claude Bernard Lyon 1, laboratoire LIRIS) Résumé

07/03/2016 : Reconstruction automatique d'itinéraires à partir de textes descriptifs.
Ludovic Moncla (Université de Pau et des Pays de l'Adour) Résumé

22/02/2016 : Réseaux de Petri universels de petite taille
Sergui Ivanov (Université Paris-Est, Laboratoire d'Algorithmique, Compléxité et Logique) Résumé

25/01/2016 : Fouille de trajectoires d’objets mobiles
Thomas Devogele (LI, Université Fraçois Rabelais de Tours, site de Blois) Résumé

18/01/2016 : Les pratiques de publication scientifique à l'Université d'Orléans - La BU mène l'enquête!
Philippe Serisier (Service Commun de la Documentation, Université d'Orléans) Résumé


Résumés des séminaires


Visual search tree profiling Guido Tack, Monash University, Melbourne, Australia

Understanding how the search space is explored for a given constraint problem – and how it changes for different models, solvers or search strategies – is crucial for efficient solving. Yet programmers often have to rely on the crude aggregate measures of the search that are provided by solvers, or on visualisation tools that can show the search tree, but do not offer sophisticated ways to navigate and analyse it, particularly for large trees. We present an architecture for profiling a constraint programming search that is based on a lightweight instrumentation of the solver. The architecture combines a visualisation of the search tree with various tools for convenient navigation and analysis of the search. These include identifying repeated subtrees, high-level abstraction and navigation of the tree, and the comparison of two search trees. The resulting system is akin to a traditional program profiler, which helps the user to focus on the parts of the execution where an improvement to their program would have the greatest effect.


Séminaire en hommage à Lionel Martin C. Vrain, G. Cleuziou, M. Exbrayat, F. Moal, S. Limet, LIFO

Christel Vrain : Autour de la Programmation Logique Inductive ; Guillaume Cleuziou : Contributions à la classification non supervisée ; Sébastien Limet : Quelques contributions de Lionel, sans oublier l'enseignement ; Matthieu Exbrayat / Frédéric Moal : Visualisation et projets interdisciplinaires


Automates cellulaires, solitons et thermodynamique Guillaume Theyssier, Institut de Mathématiques de Marseille

Les automates cellulaires sont à la fois un modèle de calcul et une famille de systèmes dynamiques discrets. Ils exhibent une diversité de comportements selon chacun de ces deux aspects (e.g. universalité pour le calcul, dynamique chaotique) et l'on peut se demander comment leur complexité computationnelle et leur complexité dynamique sont liées. Cet exposé propose de faire un petit pas dans ce questionnement général en s'intéressant à deux propriétés très étudiées dans la littérature : l'existence de solitons d'une part et la randomisation asymptotique d'autre part. Un soliton (parfois appelé particule ou "glider") est un motif fini qui, dans un contexte donné, va se déplacer périodiquement au cours de l'évolution sans laisser de trace dans le contexte. On peut le voir comme une manière locale et stable de stocker un bit d'information (absence/présence du soliton) et de le transporter. Cet objet est à la base de nombreuses constructions algorithmiques ou encodages de calcul dans les automates cellulaires. À l'inverse, la randomisation est une propriété d'uniformisation statistique et de destruction d'information : un automate cellulaire est randomisant s'il fait converger (en moyenne de Cesaro) toute mesure initiale (parmi une large classe) vers la mesure uniforme. On peut voir ce comportement comme celui d'un gaz obéissant au second principe de la thermodynamique : le système converge vers l'état (probabiliste) d'entropie maximale. L'exposé sera centré sur le résultat suivant (obtenu en collaboration avec B. Hellouin de Menibus et V. Salo) : un automate cellulaire abélien est randomisant si et seulement si il ne possède pas de soliton. Nous montrerons en particulier l'importance du cadre général des automates abéliens par rapport aux classes plus restrictives étudiées dans la littérature sur la randomisation avec un exemple d'automate cellulaire fortement randomisant (convergence simple au lieu de convergence en moyenne de Cesaro). L'exposé se veut non technique et aucune connaissance préalable du domaine n'est requise.


Rust – Performance ? Sûreté ? Confort ? Pourquoi choisir ? David Rajchenbach-Teller, Mozilla, Paris

Que se passe-t-il quand on met dans la même pièce des développeurs C++ de navigateurs, de systèmes d'exploitation, de jeux vidéos – et des chercheurs en programmation fonctionnelle, théorie des types, langages de programmation ? On obtient Rust, le langage de programmation conçu pour permettre toutes les acrobaties parallèles, fonctionnelles, matérielles – sans avoir à coder la peur au ventre.


Real World Issues in Supervised Classification for data stream Vincent Lemaire, Orange labs, Lannion

Statistical learning provides numerous algorithms to build predictive models on past observations. These techniques proved their ability to deal with large scale realistic problems. However, new domains generate more and more data. This large amount of data (the buzz “big data”) can be dealt with using batch algorithms (parallelized . . . ) if the paradigm to store the data is realistic. But sometimes data are only visible once and need to be processed sequentially. These volatile data, known as data streams, come from telecommunication network management, social network, web mining, to name a few. The challenge is to build new algorithms able to learn under these constraints. The aim of this presentation will be to present several studies and research topics at Orange focusing on “supervised classification in data streams”, with the idea to stimulate a discussion on “the real issues.


Le clustering prédictif - Décrire et prédire d’une manière simultanée Oumaima Alaoui Ismaili, Orange labs, Lannion

Dans certains domaines applicatifs, la compréhension (la description) des résultats issus d’un classifieur est une condition aussi importante que sa performance prédictive. De ce fait, la qualité du classifieur réside donc dans sa capacité à fournir des résultats ayant de bonnes performances en prédiction tout en produisant simultanément des résultats compréhensibles par l’utilisateur (description des données). On parle ici du compromis interprétation vs. performance des modèles d’apprentissage automatique. Dans cet exposé, on s’intéresse à traiter cette problématique. L’objectif est donc de proposer un classifieur capable de décrire les instances d’un problème de classification supervisée tout en prédisant leur classe d’appartenance (simultanément).


Parallel computing the structured way: a view from Pisa Marco Danelutto, Université de Pise, Italie

The Pisa parallel programming group is active since early '90s in the field of parallel programming models and tools, and it is currently involved in several projects aiming at providing suitable and effective tools to application programmers targeting parallel architectures: multi&many core, shared memory and distributed, homogeneous and heterogeneous. In the talk, we will outline some recent results related to parallel design patterns and algorithmic skeletons, to the implementation of structured parallel programming frameworks and to the development of tools supporting the parallel programmer in the exploration parallel application design space. We'll also outline recent results from our EU projects ParaPhrase, REPARA and RePhrase, mostly related to advances in the design and implementation of FastFlow.


Word2Vec vs DBnary ou comment (ré)concilier représentations distribuées et réseaux lexico-sémantiques ? Le cas de l'évaluation en traduction automatique Christophe Servan, Université Grenoble Alpes, LIG

Ces travaux présentent une approche associant réseaux lexico-sémantiques et représentations distribuées de mots appliquée à l'évaluation de la traduction automatique. Cette étude est faite à travers l'enrichissement d'une métrique bien connue pour évaluer la traduction automatique (TA) : METEOR. METEOR permet un appariement approché (similarité morphologique ou synonymie) entre une sortie de système automatique et une traduction de référence. Nos expérimentations s'appuient sur la tâche Metrics de la campagne d'évaluation WMT 2014 et montrent que les représentations distribuées restent moins performantes que les ressources lexico-sémantiques pour l'évaluation en TA mais peuvent néanmoins apporter un complément d'information intéressant à ces dernières.


Métagrammaires et Frames sémantiques Simon Petitjean, Heinrich Heine Universität, Düsseldorf

Dans le domaine de la génération de ressources linguistiques (grammaires, lexiques, etc), la diversité des niveaux de description linguistique (syntaxe, sémantique, etc) et des théories proposées pour chacun d'entre eux crée une grande hétérogénéité. Les tâches de description impliquant plusieurs de ces niveaux, ainsi que les interactions entre ceux-ci, nécessitent un cadre de développement et des langages de description facilement adaptables. La modularité et la multi-dimensionalité du compilateur XMG (eXtensible MetaGrammar) font de lui un outil idéal pour décrire les interfaces entre les différents niveaux de description linguistique. Cet exposé présentera tout d'abord la nouvelle dimension sémantique de XMG, basée sur les frames sémantiques. Cette dimension permet de décrire les frames grâce à des structures de traits typées, ainsi que la hiérarchie dans laquelle les types sont organisés. Nous nous intéresserons ensuite aux interfaces entre le niveau sémantique et deux autres niveaux, la syntaxe et la morphologie. Celles-ci ont été décrites dans le cadre de différents travaux, portant sur la formation des verbes en arabe standard moderne ou les expressions multi-mots.


Raisonnement à large échelle avec CEDAR Samir Amir, Université Claude Bernard Lyon 1, laboratoire LIRIS

Avec l’émergence du Web sémantique, un nouveau paradigme nommé Linked Data (web de données) a été proposé, visant à développer un Web intelligent. Il s’agit d’interconnecter les données et les enrichir par des contraintes afin de faciliter la navigation sémantique. En effet, le raisonnement par contraintes joue un rôle crucial dans le développement d’un tel système. OWL (Ontology Web Language), basé sur la logique de description (DL) a été adopté par le W3C comme un formalisme pour la description de connaissances. En se basant sur la logique DL, plusieurs méthodes de raisonnement ont vu le jour. Cependant, ces méthodes ont déjà montré leurs limitations pour le passage à l’échelle. Dans ce contexte, l’utilisation des approches basées sur un raisonnement paresseux est incontournable. Dans cette présentation, nous montrons une autre alternative nommée OSF (Order/-//Sorted /Feature). Il s’agit d’un formalisme de représentation de connaissances, basé sur une théorie d’unification de graphes. En effet, le but de cette présentation est de montrer que ce formalisme, déjà existant, peut être utilisé pour décrire les données sur le Web, tout en assurant une capacité de passage à l’échelle. En se basant sur la logique OSF, nous avons développé un raisonneur que nous avons nommé CEDAR. Nous montrerons quelques résultats expérimentaux sur des données à large échelle.


Reconstruction automatique d'itinéraires à partir de textes descriptifs. Ludovic Moncla, Université de Pau et des Pays de l'Adour

Avec l’émergence ces dernières années de nouveaux besoins, liés notamment aux nouvelles technologies et à de nouveaux comportements, les méthodes d’analyse de textes et de traitement automatique du langage naturel sont de plus en plus utilisées afin d’extraire et de structurer l’information provenant d’une masse de données toujours plus importante. Dans le cadre de nos travaux, nous avons proposé une solution automatique pour la représentation d'un itinéraire décrit en langage naturel. Notre approche est composée de deux tâches principales. La première a pour rôle d'identifier et d'extraire les informations qui décrivent l'itinéraire dans le texte, comme par exemple les entités nommées de lieux (toponymes) et les expressions de déplacement ou de perception. La seconde tâche a pour objectif la reconstruction de l'itinéraire. L'étape d'annotation d'informations spatiales est réalisée par une approche de traitement automatique du langage (TAL) afin d'annoter les entités nommées spatiales et les informations décrivant l'itinéraire. Notre chaîne de traitement linguistique a été développée pour trois langues européennes: français, espagnol, et italien. Nous avons également proposé une méthode pour la résolution et la désambiguïsation des entités nommées spatiales dans un contexte de description d’itinéraires. Concernant la deuxième tâche, nous avons proposé un modèle de graphe générique pour la reconstruction automatique d'itinéraire. Ce modèle permet de représenter les lieux, les chemins, ainsi que d’autres éléments impliqués dans la description de l’itinéraire. Le graphe représentant l’itinéraire est construit grâce à un calcul d’arbre de recouvrement minimal et à une méthode d’analyse multicritères permettant de combiner l’utilisation d’informations extraites grâce au TAL ainsi que des données extraites de ressources géographiques externes.


Réseaux de Petri universels de petite taille Sergui Ivanov, Université Paris-Est, Laboratoire d'Algorithmique, Compléxité et Logique

Le problème d'universalité pour une classe de modèles de calcul consiste à trouver un objet, dit universel, qui peut répliquer l'action de n'importe quel autre objet de cette classe, la simulation pouvant éventuellement se faire à un codage près. D'une façon plus formelle, si A_0 est un élément universel dans la classe \C, alors, pour tout autre élément A\in \C, il est vrai que A(x) = f( A_0 ( ) ), où h est la fonction d'encodage de l'entrée, f est la fonction de décodage de la sortie, g est la fonction qui énumère les éléments de \C (par exemple, l'énumération de Gödel), et est une fonction d'appariement, c'est-à-dire une fonction qui associe un nombre unique à toute paire (x,y). Nous nous concentrons sur le problème d'universalité pour les systèmes de réécriture de multiensembles --- des systèmes formels qui permettent de représenter les réactions chimiques. Pour des raisons historiques, nous décrivons nos résultats sous la forme des réseaux de Petri avec des arcs inhibiteurs, un modèle équivalent à la réécriture de multiensembles. Nous définissons la taille d'un réseau comme un vecteur comprenant le nombre de places, de transitions, d'arcs inhibiteurs, ainsi que le nombre maximal d'arcs incidents à une transition (le degré maximal de transitions). Nous proposons ensuite des techniques de minimisation de chacun de ces paramètres, tout en mettant en évidence certains compromis.


Fouille de trajectoires d’objets mobiles Thomas Devogele, LI, Université Fraçois Rabelais de Tours, site de Blois

De plus en plus de capteurs (GPS, GSM, WiFi, RFID), de systèmes de surveillance permettent de récupérer les trajectoires d’objets mobiles. L’analyse de ces masses de données est fondamentale pour des applications allant de la biologie à la gestion de flotte de véhicules. Elle nécessite de faire appel à des méthodes d’analyse spatiale ou de fouille de trajectoires. Cet exposé propose un état de l’art sur ces méthodes et les mesures de similarité entre trajectoires. Il se focalise sur les techniques récentes de clustering et de définition de motifs de trajectoires. Ces motifs sont primordiaux pour proposer une analyse visuelle des trajectoires, détecter des trajectoires inhabituelles (outliers), qualifier et prédire les déplacements.


Les pratiques de publication scientifique à l'Université d'Orléans - La BU mène l'enquête! Philippe Serisier, Service Commun de la Documentation, Université d'Orléans

Avec le numérique, l'écosystème de l'édition scientifique et les modalités de communication entre les chercheurs ont connu d'importantes transformations. Dans ce contexte, les pratiques de documentation et de publication des chercheurs ont également changé. Le Service Commun de la Documentation de l'Université d'Orléans s'est engagé depuis quelques mois dans une réflexion autour d'une offre renouvelée de services en direction des chercheurs de l'établissement. La création du portail HAL de l'Université d'Orléans en constitue une première réalisation concrète. Afin de proposer une offre de services adaptée et pertinente en direction de la communauté scientifique de l'Université d'Orléans, le SCD lance une enquête sur les usages documentaires et les pratiques de publication des chercheurs et des chercheuses et compte sur une très large participation. L'enquête s'adresse également aux doctorant(e)s.