Monsieur Mohamed TAHOUN soutiendra publiquement ses travaux de thèse intitulés "Object Shape Perception for Autonomous Dexterous Manipulation Based on Multi-Modal Learning Models" dirigés par Monsieur Omar TAHRI et Monsieur Youcef MEZOUAR

Date | - |
Heure | 10h00 - 12h00 |
Adresse | 88 boulevard Lahitolle |
Soutenance de thèse de Mohamed TAHOUN
Object Shape Perception for Autonomous Dexterous Manipulation Based on Multi-Modal Learning Models
Titre anglais : | Perception de la forme des objets pour la manipulation dextrose autonome basée sur des modèles d'apprentissage multimodaux |
Ecole Doctorale : | Mathématiques, Informatique, Physique Théorique et Ingénierie des Systèmes - MIPTIS |
Spécialité : | Sciences et technologies industrielles |
Etablissement : | INSA Centre Val de Loire |
Unité de recherche : | EA 4229 - PRISME - Laboratoire Pluridisciplinaire de Recherche en Ingénierie des Systèmes et Mécanique Energétique |
devant le jury composé de :
Omar TAHRI | Professeur des universités | Université Bourgogne - Franche-Comté | Directeur de thèse | |||
David FOFI | Professeur des universités | Université Bourgogne - Franche-Comté | Rapporteur | |||
Helder ARAUJO | Professeur des universités | Université de Coimbra | Rapporteur | |||
Youcef MEZOUAR | Professeur des universités | Universite Clermont Auvergne | CoDirecteur de thèse | |||
Juan-Antonio CORRALES-RAMON | Maître de conférences | Universidade de Santiago de Compostela | Co-encadrant de thèse | |||
Driss BOUTAT | Professeur des universités | INSA Centre Val De Loire | Examinateur | |||
Rosario ARAGüéS MUñOZ | Maîtresse de conférences | Université de Saragosse | Examinateur | |||
Ouidad LABBANI-IGBIDA | Professeure des universités | Université de Limoges | Examinateur |
Résumé de la thèse en français : |
Cette thèse propose des méthodes de reconstruction 3D d’objets basées sur des stratégies multimodales d'apprentissage profond. Les applications visées concernent la manipulation robotique. Dans un premier temps, la thèse propose une méthode de reconstruction visuelle 3D à partir d’une seule vue de l’objet obtenue par un capteur RGB-D. Puis, afin d’améliorer la qualité de reconstruction 3D des objets à partir d’une seule vue, une nouvelle méthode combinant informations visuelles et tactiles a été proposée en se basant sur un modèle de reconstruction par apprentissage. La méthode proposée a été validée sur un ensemble de données visuo-tactiles respectant les contraintes cinématique d’une main robotique. L’ensemble de données visuo-tactiles respectant les propriétés cinématiques de la main robotique à plusieurs doigts a été créé dans le cadre de ce travail doctoral. Cette base de données est unique dans la littérature et constitue également une contribution de la thèse. |
Résumé de la thèse en anglais: |
This thesis proposes 3D object reconstruction methods based on multimodal deep learning strategies. The targeted applications concern robotic manipulation. First, the thesis proposes a 3D visual reconstruction method from a single view of the object obtained by an RGB-D sensor. Then, in order to improve the quality of 3D reconstruction of objects from a single view, a new method combining visual and tactile information has been proposed based on a learning reconstruction model. The proposed method has been validated on a visual-tactile dataset respecting the kinematic constraints of a robotic hand. The visual-tactile dataset respecting the kinematic properties of the multi-fingered robotic hand has been created in the framework of this PhD work. This dataset is unique in the literature and is also a contribution of the thesis. |
Mots clés en français : | Apprentissage profond et perception pour la préhension et la manipulation,3D Reconstruction,3D Vision,Capteurs tactiles,Fusion de capteurs,Manipulation agile |
Mots clés en anglais : | Deep Learning and Perception for Grasping and Manipulation,3D Reconstruction,3D Computer Vision,Tactile Sensing,Sensor Fusion,Autonomous Dexterous Manipulation |
Vous pouvez également y assister à distance en vous connectant au lien suivant :