Lifo - Laboratoire d'Informatique Fondamentale d'orléans INSA Centre Val de Loire Université d'Orléans Université d'Orléans

Lifo > LIFO seminars (french)

 Site en Français



Contact

LIFO - Bâtiment IIIA
Rue Léonard de Vinci
B.P. 6759
F-45067 ORLEANS Cedex 2

Email: contact.lifo
Tel: +33 (0)2 38 41 99 29
Fax: +33 (0)2 38 41 71 37



LIFO seminars (french)


Accès par année : 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020

Sauf exception, les séminaires se déroulent le lundi de 14h à 15h, Salle de réunion 1, bâtiment IIIA (voir plan du campus).


06/04/2020 : TBAA
Christine Sinoquet (LS2N) Résumé

30/03/2020 : TBAA
Luc Pellissier (LIX) Résumé

23/03/2020 : Sémantiques quantitatives et développement de Taylor syntaxique
Jules Chouquet (IRIF) Résumé

16/03/2020 : Plongements lexicaux : modèles, temporalité, biais, interprétabilité
Nicolas Dugué (LIUM) Résumé

09/03/2020 : Interactive mapping specification and repairing in the presence of policy views
Ugo Comignani (LIS) Résumé

02/03/2020 : Apprentissage par transfert : Etat de l’art et présentation d’une nouvelle méthode par boosting de traductions entre cible et source
Antoine Cornuéjols (AgroParisTech) Résumé

17/02/2020 : Ordonnancement d'un système de production industriel complexe : flow shop hybride avec des machines dédiées soumis à différentes contraintes temporelles
Houda Harbaoui (LIFO) Résumé

03/02/2020 : Loi de Programmation Pluriannuelle de la Recherche (LPPR)
Florent Becker (LIFO) Résumé

20/01/2020 : Confidentialité différentielle et Machine Learning
Vincent Thouvenot (Thales Group) Résumé


Résumés des séminaires


TBAA Christine Sinoquet, LS2N

TBA


TBAA Luc Pellissier, LIX

TBA


Sémantiques quantitatives et développement de Taylor syntaxique Jules Chouquet, IRIF

Les sémantiques quantitatives permettent d’étudier certaines propriétés des langages de programmation, qui peuvent, selon les modèles, être relatives à la normalisation, au temps de calcul, aux probabilités… Dans ces sémantiques (espaces de finitude, espaces cohérents probabilistes, modèle relationnel pondéré…) il existe une corrélation entre les propriétés globales des programmes et la possibilité de décomposer ces derniers à l’aide d’approximations, de dérivations. Le développement de Taylor syntaxique est un outil qui permet de tisser ce lien entre l’approximation et la sémantique, et c’est la construction sur laquelle porteront notamment les raisonnements visant à établir la correction des modèles quantitatifs. Nous présentons des résultats de la sorte pour le développement de Taylor appliqué à Call-By-Push-Value, un langage de haut niveau permettant d’encoder plusieurs stratégies d’évaluation, et nous montrerons le lien entre cette sémantique et la Logique Linéaire de Girard.


Plongements lexicaux : modèles, temporalité, biais, interprétabilité Nicolas Dugué, LIUM

Après avoir décrit l'intuition des modèles de plongements lexicaux et leur formalisme, nous nous emploierons à discuter des questions de recherche qui émergent pour leur exploitation. Ainsi nous évoquerons le cadre de l'évolution de la langue et de la détection de néologismes via les modèles temporels. Nous aborderons également les biais des représentations apprises en utilisant ces modèles : les corpus exploités pour l'apprentissage sont des productions humaines, les plongements en sont le reflet et ils encapsulent donc les stéréotypes existants dans ces corpus. En particulier, nous considèrerons le biais de genre, bien étudié dans la littérature. Enfin, nous concluerons cet exposé en discutant des approches existantes pour favoriser l'interprétabilité de ces représentations denses, approches basées paradoxalement sur la sparsification de ces représentations.


Interactive mapping specification and repairing in the presence of policy views Ugo Comignani, LIS

Data exchange between sources over heterogeneous schemas is an ever-growing field of study with the increased availability of data, oftentimes available in open access, and the pooling of such data for data mining or learning purposes. However, the description of the data exchange process from a source to a target instance defined over a different schema is a cumbersome task, even for users acquainted with data exchange. In this presentation, I will address the problem of allowing a non-expert user to specify a source-to-target mapping. To do so, I will describe the foundations of an interactive process in which users provide small examples of their data, and answer simple boolean questions in order to specify their intended mapping. The first contribution is a formal definition of the problem of interactive mapping specification, as well as a formal resolution process for which desirable properties are proved. Then, based on this formal resolution process I will describe how practical algorithms can be designed in order to reduce the number users interactions. Especially, I will describe how to make use of quasi-lattice structures to order the set of possible mappings to explore, and efficiently prune the space of explored mappings. Then, I will show how this pruning can be improved by extending the approach to the use of integrity constraints. Finally, I will present some experimental results over the open source prototype built from the described framework.


Apprentissage par transfert : Etat de l’art et présentation d’une nouvelle méthode par boosting de traductions entre cible et source Antoine Cornuéjols, AgroParisTech

L’apprentissage par transfert consiste à ré-utiliser ce qui a été appris sur une tâche source afin d’apprendre plus vite et/ou mieux à résoudre une tâche cible. Ce type d’apprentissage connaît un spectaculaire regain d’intérêt depuis l’émergence des réseaux de neurones profonds. Ceux-ci sont en effet très coûteux à entraîner et il paraît avantageux d’utiliser un réseau déjà appris sur une tâche « proche ». Cet exposé situera d’abord les différents types d’apprentissage par transfert. En sélectionnant quelques travaux récents, il donnera un aperçu de l’état de l’art et des approches privilégiées actuellement. Dans une deuxième partie, l’exposé présentera une approche originale de l’apprentissage par transfert supervisé, appelée TransBoost. Cette approche s’appuie sur l’apprentissage de traductions « faibles » entre la cible et la source. L’analyse des propriétés de cette méthode conduit à revisiter les conditions d’un apprentissage par transfert réussi.


Ordonnancement d'un système de production industriel complexe : flow shop hybride avec des machines dédiées soumis à différentes contraintes temporelles Houda Harbaoui, LIFO

L'accroissement des profits, à travers l'amélioration de la productivité et la réduction des pertes de matières, représente un objectif primordial pour les entreprises industrielles. Dans cette thèse, nous nous intéressons à la résolution d'un problème industriel complexe réel avec des contraintes de temps. Nous nous sommes intéressés, tout d'abord, à un objectif principal, soit la minimisation des dates de fin de production, suivi d'un objectif secondaire qui est la minimisation des quantités de déchets non recyclables. Dans un premier temps, nous avons modélisé le problème par des modèles mathématiques, que nous avons résolu à l'aide d'un solveur. Dans un second temps, nous avons proposé une méthode approchée en forme d'algorithmes évolutionnistes. Cette méthode est appliquée aux deux objectifs mentionnés ci-dessus séparément. Une troisième méthode est ensuite appliquée à l'objectif principal, à savoir une méthode arborescente approchée. Nous avons testé les algorithmes proposés sur des instances inspirées d'un cas réel ; issues d'une entreprise du secteur agroalimentaire et sur des instances inspirées de la littérature. Dans cette présentation, on va se limiter à présenter la modélisation mathématique du problème et à la présentation de la méthode approchée (algorithme génétique hybride) Dans cette présentation, après avoir présenté le problème industriel, nous présenterons sa modélisation mathématique et la première méthode de résolution soit un algorithme génétique hybride.


Loi de Programmation Pluriannuelle de la Recherche (LPPR) Florent Becker, LIFO

La loi de programmation pluriannuelle de la recherche sera présentée au parlement à partir de février. Elle veut définir un cadre pluriannuel pour la politique de recherche. Il s'agit ainsi de déterminer à l'avance le budget consacré à la recherche. Des groupes de travail, réunis en 2019 ont produit des documents qui ont servi de base pour la rédaction du texte de cette loi. Certaines mesures qu'elle contiendra ont déjà été annoncées par le gouvernement. La politique qui en découle veut: - Renforcer la capacité de financement des projets, programmes et laboratoires de recherche ; - Conforter et renforcer l'attractivité des emplois et des carrières scientifiques ; - Consolider la recherche partenariale et le modèle d'innovation français ; - En nous appuyant sur les textes des groupes de travail, les annonces gouvernementale ainsi que les analyses faites au sein de la communauté académique (laboratoires, section CNU, revues…), nous présenterons le contexte de cette loi et de son élaboration, les pistes explorées et annoncées pour répondre à ces enjeux, et ce qu'elles signifient pour les collègues (statut, service d'enseignement, recrutement…), les laboratoires tels que le lifo (financement et orientation de la recherche), des universités telles qu'Orléans. Nous analyserons le modèle de recherche qui est proposé, et ses effets pour les personnels et la société.


Confidentialité différentielle et Machine Learning Vincent Thouvenot, Thales Group

Smartphone, carte d'abonnement, compteur intelligent énergétique, etc., les sources de données personnelles sont nombreuses. Si ces données peuvent apporter des fortes valeurs ajoutées, que ce soit aux citoyens, aux collectivités ou aux entreprises, celles-ci doivent être protégées. La réglementation autour de la donnée personnelle évolue et se renforce (voire la RGPD). L'anonymisation des données peut être utilisée pour les protéger. La confidentialité différentielle est une propriété mathématiques que l'on cherche à imposer à des mécanismes de bruitage appliqués pour protéger les individus. Dans cette présentation, après avoir défini les principes de base de la confidentialité différentielle, nous présenterons des exemples de l'Etat de l'Art sur son application en Machine Learning.