LIFO - Bâtiment IIIA
Rue Léonard de Vinci
B.P. 6759
F-45067 ORLEANS Cedex 2
Email:
contact.lifo
Tel: +33 (0)2 38 41 99 29
Fax: +33 (0)2 38 41 71 37
23/04/2025 : [CA] SINr : Une approche frugale pour l’apprentissage de plongements interprétables.
Nicolas Dugué (Université du Mans)
Résumé
Attention : Débute à 10 h.
28/03/2025 : L'Intelligence Artificielle entre Web Sémantique et Apprentissage Symbolique
Thamer Mecharnia (Équipe K du LORIA)
Résumé
Attention : Débute à 15 h 45. Lieu : en ligne Teams
25/03/2025 : Contribution à des approches de clustering de données.
Motaz Ben Hassine (Université d'Artois)
Résumé
Attention : Débute à 15 h 30. Lieu : en ligne Teams
24/03/2025 : Apprentissage automatique : application en bioingénierie et traitement automatique des langues
Toufik Boubehziz (LIG-UFR SHS, Université de Grenoble )
Résumé
Attention : Débute à 13 h 30. Lieu : en ligne Teams
24/03/2025 : Évolution des Approches en Intelligence Artificielle : De l’Interprétation Symbolique aux Modèles Statistiques et Hybrides
Fethi Ghazouani (ICube, Université de Strasbourg )
Résumé
Attention : Débute à 14 h 45. Lieu : en ligne Teams
19/03/2025 : [CA] Extraction des règles d'urbanisme dans le contexte du projet ANR Hérelles
Maksim Koptelov (INRAE)
Résumé
Attention : Débute à 15 h 30. Lieu : en ligne Teams
03/03/2025 : Stratégies gagnantes pour deux jeux asymétriques dans les graphes
Caroline Brosse (LIFO)
Résumé
27/02/2025 : Parallel Similarity Searches on Heterogeneous Architectures
Mickael Gowanlock (School of Informatics, Computing, and Cyber Systems at Northern Arizona University)
Résumé
Attention : Débute à 17 h 30. Lieu : En ligne
27/01/2025 : Eclat : un langage synchrone pour la programmation sûre, expressive et efficace de circuits FPGA
Loïc Sylvestre (Sorbonne Université, LIP6)
Résumé
16/01/2025 : Bridging Resilient, Accountable, Intelligent Networked Systems
Oshani Seneviratne (Rensselaer Polytechnic Institute (Troy, NY))
Résumé
Attention : Débute à 16 h. Lieu : online
13/01/2025 : Des motifs à leur exploration : comment prendre en compte l'intérêt d'une experte ?
Etienne Lehembre (LIFO - Université d'Orléans)
Résumé
[CA] SINr : Une approche frugale pour l’apprentissage de plongements interprétables. Nicolas Dugué, Université du Mans
Les approches récentes d’apprentissage de plongements lexicaux ont mis l’accent sur les résultats, souvent au détriment de l’interprétabilité et de la complexité algorithmique. Pourtant, l’interprétabilité est un pré-requis nécessaire à la mise en œuvre de telles technologies lorsqu’elles sont au service de domaines sensibles comme le domaine juridique ou la médecine. Par ailleurs, les impératifs écologiques créent une urgence à réfléchir à des systèmes performants et économes en calculs. Nous proposons dans le cadre de l'ANR DIGING de développer une nouvelle approche performante et économe en calculs pour la construction de plongements lexicaux interprétables basée sur les graphes. Nous discuterons d'une première méthode développée dans ce cadre, SINr (Sparse Interpretable Node Representation) qui propose une méthode unifiée pour l'apprentissage de plongements de graphes et de mots dans un espace aux dimensions tangibles, en complexité quasi-linéaire.
L'Intelligence Artificielle entre Web Sémantique et Apprentissage Symbolique Thamer Mecharnia, Équipe K du LORIA
L'intelligence artificielle évolue à l'intersection de plusieurs paradigmes, dont le web sémantique et l’apprentissage symbolique. Le web sémantique constitue un cadre structuré permettant de représenter les connaissances de manière formelle et interconnectée grâce à des technologies comme RDF et OWL. Il facilite l’organisation et l’exploitation des données, offrant ainsi des bases solides pour l'automatisation du raisonnement. L’apprentissage symbolique, d’autre part, repose sur la manipulation de concepts abstraits et de règles logiques, mettant en avant la transparence et l'explicabilité des modèles. Il permet de formaliser des connaissances expertes et d’effectuer des inférences sur des données complexes, favorisant ainsi la prise
de décision. La convergence entre ces approches ouvre des perspectives prometteuses en intelligence artificielle, en combinant la richesse sémantique des représentations avec des capacités avancées de raisonnement. Cette synergie permet d’exploiter des connaissances formelles pour renforcer l’apprentissage
automatique, d’améliorer l’explicabilité des modèles et d’optimiser la prise de décision dans des environnements riches en données. À travers cette complémentarité, plusieurs domaines d’application peuvent être explorés, notamment,
la découverte des risques environnementaux, la traçabilité des médicaments, la vérification automatique des documents, la découverte de contraintes physiques pour la modélisation des matériaux, ainsi que la transformation automatique de questions en langage naturel en requêtes SPARQL à l’aide de modèles de langage (LLM).
En intégrant le web sémantique et l’apprentissage symbolique, nous ouvrons la voie à des systèmes intelligents capables de mieux comprendre, structurer et raisonner sur des données complexes. Cette approche contribue au développement d’une intelligence artificielle plus interprétable, robuste et adaptée à des applications nécessitant un haut niveau de fiabilité et de transparence.
Lien :
https://teams.microsoft.com/l/meetup-join/19%3ameeting_YWRiM2JmZDEtNGUyYi00YTViLWI3MWQtM2RhMDJjYzkzN2Uz%40thread.v2/0?context=%7b%22Tid%22%3a%22967236d1-9003-4f1a-9556-8afe047945f1%22%2c%22Oid%22%3a%229fe8f8b7-30fc-4399-9556-391384e77635%22%7d
Contribution à des approches de clustering de données. Motaz Ben Hassine, Université d'Artois
L'analyse de données est un processus crucial pour la prise de décision dans de nombreuses applications du monde réel, grâce à l'utilisation de divers outils d'intelligence artificielle. Parmi ces outils, le clustering joue un rôle essentiel dans l'analyse des données, notamment dans l'analyse des réseaux sociaux (données de graphes) et l'analyse des données transactionnelles (clustering conceptuel). Le clustering de données est un problème fondamental qui nécessite toujours des améliorations, tant en termes de qualité des clusters que d'efficacité des algorithmes de résolution. Dans ce contexte, plusieurs approches récentes ont été proposées. Premièrement, le clustering des données de graphes repose sur une nouvelle mesure de similarité, appelée α-similarité structurelle, permettant la détection de communautés disjointes dans les réseaux sociaux. Deuxièmement, le clustering conceptuel s'appuie sur l'extraction de nouveaux modèles de motifs, appelés k-motifs relaxés fréquents, suivie d'un programme linéaire en nombres entiers exploitant ces motifs pour identifier les clusters finaux. Des expérimentations ont été menées et ont démontré l'efficacité des méthodes proposées, notamment en termes de qualité des clusters.
Lien :
https://teams.microsoft.com/l/meetup-join/19%3ameeting_ZTI4YjU1OWYtZWFiMC00M2EwLWJhNjItYzQxMzlmODRmODk0%40thread.v2/0?context=%7b%22Tid%22%3a%22967236d1-9003-4f1a-9556-8afe047945f1%22%2c%22Oid%22%3a%229fe8f8b7-30fc-4399-9556-391384e77635%22%7d
Apprentissage automatique : application en bioingénierie et traitement automatique des langues Toufik Boubehziz, LIG-UFR SHS, Université de Grenoble
L’apprentissage automatique a connu un essor considérable ces dernières années et a été appliqué dans de nombreux domaines. Dans cette présentation, nous abordons les travaux menés dans ce cadre, notamment le développement d’approches basées sur des réseaux neuronaux profonds en bioingénierie pour la prédiction de la déformation de microcapsules en écoulement, ainsi qu’en traitement automatique des langues (TAL), à travers la conception d’un modèle de langage spécialisé exploitant des plongements textuels et des architectures neuronales pour l’évaluation automatique des réponses courtes et des questions à choix multiples dans le domaine pharmaceutique. Plus récemment, l’exploration d’approches efficaces pour la conception d’un grand modèle de langue multimodal (MM-LLM), capable de recevoir et de générer du contenu sous différentes modalités (texte, image, son, vidéo), permettant ainsi de surmonter certaines limites de l’IA générative.
Lien:
https://teams.microsoft.com/l/meetup-join/19%3ameeting_MDIyYWY2ZjYtMmI0My00NTkzLWE4ZGYtMzQ3Y2NiYWM1MzI3%40thread.v2/0?context=%7b%22Tid%22%3a%22967236d1-9003-4f1a-9556-8afe047945f1%22%2c%22Oid%22%3a%229fe8f8b7-30fc-4399-9556-391384e77635%22%7d
Évolution des Approches en Intelligence Artificielle : De l’Interprétation Symbolique aux Modèles Statistiques et Hybrides Fethi Ghazouani , ICube, Université de Strasbourg
Durant ce séminaire, Fethi Ghazouani, candidat au poste de MCF 27 au sein de l’équipe CA/LIFO, présentera son parcours, ses travaux de recherche et ses perspectives de projet. Il débutera par ses travaux de thèse, axés sur le développement d’une approche multi-niveaux basée sur les ontologies pour l’interprétation des changements dans les images satellitaires multispectrales. Cette approche symbolique offre une structuration explicite des connaissances et une interprétation fine des données. Il poursuivra avec ses recherches postdoctorales sur la segmentation des tumeurs cérébrales à partir d’images IRM multimodales
en exploitant les Swin Transformers, illustrant ainsi la puissance des approches statistiques pour l’analyse d’images médicales. Enfin, il présentera son projet le plus récent, qui combine intelligence artificielle symbolique et statistique pour le peuplement d’une ontologie de domaine à partir de textes non structurés, en s’appuyant sur les grands modèles de langage (LLMs). Ce séminaire vise à montrer comment les approches de l’IA symbolique et de l’IA statistique s'enrichissent mutuellement et ouvrent de nouvelles perspectives pour la recherche en IA,
notamment dans des domaines tels que l'imagerie satellitaire/médicale et l'analyse de données multimodales.
Lien :
https://teams.microsoft.com/l/meetup-join/19%3ameeting_MWU0MjExMjItZTI2YS00ZjM4LWEwZjktMDIyODFlMWE1N2E4%40thread.v2/0?context=%7b%22Tid%22%3a%22967236d1-9003-4f1a-9556-8afe047945f1%22%2c%22Oid%22%3a%229fe8f8b7-30fc-4399-9556-391384e77635%22%7d
[CA] Extraction des règles d'urbanisme dans le contexte du projet ANR Hérelles Maksim Koptelov, INRAE
L'artificialisation des sols est un problème moderne important car elle est irréversible, réduisant les sols agricoles et causant des problèmes environnementaux. Notre projet, ANR Hérelles, a pour ambition de répondre à ce défi en développant un cadre pour la gestion de l'artificialisation des sols. L'un des objectifs d'Hérelles est de trouver de nouveaux mécanismes pour faciliter l'étiquetage (ou la sémantisation) des clusters à partir de séries temporelles d'images satellites. Pour y arriver, une solution proposée consiste à associer des éléments textuels d'intérêt aux clusters extraits. La première étape de ce processus est l'extraction automatique des informations sous forme de règles à partir de documents d'urbanisme en français. Dans ce travail, nous proposons une méthode basée sur la classification multi-étiquettes de segments textuels et leur résumé consécutif. Nous développons plusieurs techniques d'augmentation de texte pour les textes français, capables d'améliorer les résultats de prédiction. Enfin, nous adaptons une approche basée sur les graphes AMR (Abstract Meaning Representation) pour générer les résumés des règles et effectuons une analyse comparative avec ChatGPT. Nos résultats indiquent que ChatGPT surpasse l'approche basée sur l'AMR, ce qui conduit à une discussion sur les avantages et les limites des deux méthodes et à une proposition de développement d'une nouvelle approche hybride qui combinerait les avantages de ces deux approches.
https://teams.microsoft.com/l/meetup-join/19%3ameeting_YTE3ZWM4MTItYzlhYS00OWRiLThkOWMtYWM1NjkxYzdhZjhi%40thread.v2/0?context=%7b%22Tid%22%3a%22967236d1-9003-4f1a-9556-8afe047945f1%22%2c%22Oid%22%3a%229fe8f8b7-30fc-4399-9556-391384e77635%22%7d
Stratégies gagnantes pour deux jeux asymétriques dans les graphes Caroline Brosse, LIFO
On se place dans un graphe fini. Deux adversaires, Alice et Bob, prennent tour à tour le contrôle d'un sommet en respectant une règle simple. Le jeu s'arrête lorsque plus aucun nouveau sommet ne peut être contrôlé, soit parce qu'il ne reste plus de sommets libres, soit parce que la règle ne serait plus respectée. Il existe plusieurs variantes pour les conditions de victoire ; dans tous les cas, les hypothèses que nous faisons permettent d'invoquer le célèbre théorème de Zermelo - von Neumann : Alice ou Bob a une stratégie gagnante. Mais qui d'Alice ou de Bob peut s'assurer la victoire ? Très souvent, cette question pose en fait un problème PSPACE-complet.
C'est le cas pour les deux jeux dont je parlerai dans cet exposé. Cette difficulté invite à se restreindre à des variantes de règles plus contraignantes ou à des classes de graphes plus structurées. J'exposerai des stratégies gagnantes pour Alice, découvertes en 2024 avec Nicolas Martins, Nicolas Nisse et Rudini Sampaio, pour le jeu de convexité asymétrique et pour le jeu de coloration dans les grilles finies.
Parallel Similarity Searches on Heterogeneous Architectures Mickael Gowanlock , School of Informatics, Computing, and Cyber Systems at Northern Arizona University
In this talk, I will discuss accelerating similarity searches and related proximity search problems using the GPU. Similarity searches are fundamental to many fields and areas, including databases, machine learning, and large scale data analytics applications. These fields require information regarding nearby points (or feature vectors) to a query point in a data space. But, as the volume and dimensionality of modern datasets continues to increase largely as a result of advances in scientific instrumentation, these searches become intractable using standard sequential algorithms. The GPU has very high memory bandwidth and computational throughput, and therefore, seems to be well-suited to processing similarity searches. However, similarity searches have data-dependent properties and so performance may be limited on the GPU due to its Single Instruction Multiple Thread (SIMT) execution model. I will discuss my work on parallel similarity searches and related algorithms, and describe several lessons learned over the years.
Eclat : un langage synchrone pour la programmation sûre, expressive et efficace de circuits FPGA Loïc Sylvestre, Sorbonne Université, LIP6
Cet exposé portera sur la conception et l’implantation d’applications embarquées réactives et de calcul intensif sur du matériel reconfigurable FPGA (Field Programmable Gate Array).
Il présentera Eclat : un langage de programmation parallèle généraliste (inspiré d’OCaml) avec un sémantique synchrone dérivée de l’horloge physique du FPGA cible.
Eclat permet de programmer (et composer) à la fois des calculs orientés flot de contrôle et des interactions orientées flot de données. Le modèle de calcul proposé est suffisamment précis et expressif pour développer des abstractions de programmation de haut niveau (telles que des squelettes algorithmiques et des machines virtuelles) avec des performances prédictibles. Cela vise à répondre aux besoins d’efficacité et aux contraintes de sûreté des applications matérielles, notamment temps réel. Eclat se veut accessible aux programmeuses et programmeurs de logiciel ; il est d'ailleurs utilisé comme langage support dans un cours de compilation.
Bridging Resilient, Accountable, Intelligent Networked Systems Oshani Seneviratne, Rensselaer Polytechnic Institute (Troy, NY)
Lien visio : https://inria.webex.com/meet/nicolas.anciaux
The rapid evolution of decentralized systems, from the early days of the Web to the transformative advancements in artificial intelligence, blockchain technologies, knowledge graphs, and the Internet of Things, offers unprecedented opportunities to revolutionize data sharing, collaboration, and decision-making. This talk highlights key innovations in developing privacy-preserving data-sharing infrastructures and end-to-end knowledge representation systems that ensure transparency and incentivize participation in decentralized ecosystems. We explore advancements in vertical and hybrid federated learning, which enable secure and collaborative data analysis, as well as the implementation of credit allocation and incentive mechanisms to encourage widespread adoption. To ensure the integrity of these systems, we examine cutting-edge approaches to fraud and misuse detection in decentralized networks. The talk also introduces emerging research on integrating foundation models with decentralized technologies, including federated foundation models, data distillation techniques for large tabular datasets, and large transaction models, illustrating how these innovations enhance the efficiency, scalability, and accountability of decentralized systems.
If you want a short bio, please check out my website: https://oshani.info or my faculty profile: http://faculty.rpi.edu/oshani-seneviratne.
Des motifs à leur exploration : comment prendre en compte l'intérêt d'une experte ? Etienne Lehembre, LIFO - Université d'Orléans
Mes travaux de thèse aborde le rôle d'une experte dans l'évaluation de l'intérêt des motifs structurés ainsi que la caractérisation d’éléments remarquables dans un ensemble de motifs dans le cadre de la chémoinformatique.
La première concerne l'extraction de motifs dont les caractéristiques sont jugées surprenantes vis-à-vis d’un ensemble de motifs étudiés et de leur jeu de données. Ainsi, les motifs obtenus constituent pour l'experte des points d'entrée pour le début d’une analyse comparative mettant en relief les motifs et leur qualité afin de faire ressortir leur pertinence locale. Nous définissons un motif comme remarquable si sa qualité diverge suffisamment de son voisinage. En chémoinformatique, les motifs sélectionnés constituent un ensemble de motifs dont les fonctions biologiques s'avèrent surprenantes pour les expertes.
La seconde partie présente une méthode d'exploration interactive nommée WaveLSea (Wave top-k random-d Lineage Search) dont la particularité est qu'elle ne nécessite pas la déclaration de descripteurs sur les données explorées. Pour un ensemble de motifs donné, cette méthode a pour but d’orienter une experte dans son exploration de manière itérative.
La troisième partie aborde une amélioration des méthodes d'évaluation des algorithmes de fouille interactive. Cette amélioration se fait à travers l'introduction d'erreurs contrôlées permettant d'évaluer la robustesse de ces algorithmes. Ainsi, les algorithmes de fouille interactive ne sont plus évalués avec des oracles ne commettant jamais d'erreurs, mais avec des devins dont le comportement se rapproche de celui d'un humain.
Université d'Orléans | INSA Centre Val de Loire