Fils d'Ariane

University : Main content

Titre de page

Soutenance de thèse de M. Tahouh

Contenu de la page principale

Monsieur Mohamed TAHOUN soutiendra publiquement ses travaux de thèse intitulés "Object Shape Perception for Autonomous Dexterous Manipulation Based on Multi-Modal Learning Models" dirigés par Monsieur Omar TAHRI et Monsieur Youcef MEZOUAR

main robotisé

Date -
Heure 10h00 - 12h00
Adresse

88 boulevard Lahitolle
18000 Bourges
France


Soutenance de thèse de Mohamed TAHOUN

Object Shape Perception for Autonomous Dexterous Manipulation Based on Multi-Modal Learning Models

Titre anglais : Perception de la forme des objets pour la manipulation dextrose autonome basée sur des modèles d'apprentissage multimodaux
Ecole Doctorale : Mathématiques, Informatique, Physique Théorique et Ingénierie des Systèmes - MIPTIS
Spécialité : Sciences et technologies industrielles
Etablissement : INSA Centre Val de Loire
Unité de recherche : EA 4229 - PRISME - Laboratoire Pluridisciplinaire de Recherche en Ingénierie des Systèmes et Mécanique Energétique

 

devant le jury composé de :

 

Omar TAHRI   Professeur des universités   Université Bourgogne - Franche-Comté   Directeur de thèse
David FOFI   Professeur des universités   Université Bourgogne - Franche-Comté   Rapporteur
Helder ARAUJO   Professeur des universités   Université de Coimbra   Rapporteur
Youcef MEZOUAR   Professeur des universités   Universite Clermont Auvergne   CoDirecteur de thèse
Juan-Antonio CORRALES-RAMON   Maître de conférences   Universidade de Santiago de Compostela   Co-encadrant de thèse
Driss BOUTAT   Professeur des universités   INSA Centre Val De Loire   Examinateur
Rosario ARAGüéS MUñOZ   Maîtresse de conférences   Université de Saragosse   Examinateur
Ouidad LABBANI-IGBIDA   Professeure des universités   Université de Limoges   Examinateur

 

Résumé de la thèse en français :  

Cette thèse propose des méthodes de reconstruction 3D d’objets basées sur des stratégies multimodales d'apprentissage profond. Les applications visées concernent la manipulation robotique. Dans un premier temps, la thèse propose une méthode de reconstruction visuelle 3D à partir d’une seule vue de l’objet obtenue par un capteur RGB-D. Puis, afin d’améliorer la qualité de reconstruction 3D des objets à partir d’une seule vue, une nouvelle méthode combinant informations visuelles et tactiles a été proposée en se basant sur un modèle de reconstruction par apprentissage. La méthode proposée a été validée sur un ensemble de données visuo-tactiles respectant les contraintes cinématique d’une main robotique. L’ensemble de données visuo-tactiles respectant les propriétés cinématiques de la main robotique à plusieurs doigts a été créé dans le cadre de ce travail doctoral. Cette base de données est unique dans la littérature et constitue également une contribution de la thèse.
Les résultats de validation montrent que les informations tactiles peuvent avoir un apport important pour la prédiction de la forme complète d’un objet, en particulier de la partie invisible pour le capteur RGD-D. Ils montrent également que le modèle proposé permet d’obtenir de meilleurs résultats en comparaison à ceux obtenus avec les méthodes les plus performantes de l’état de l’art.

 
Résumé de la thèse en anglais:  

This thesis proposes 3D object reconstruction methods based on multimodal deep learning strategies. The targeted applications concern robotic manipulation. First, the thesis proposes a 3D visual reconstruction method from a single view of the object obtained by an RGB-D sensor. Then, in order to improve the quality of 3D reconstruction of objects from a single view, a new method combining visual and tactile information has been proposed based on a learning reconstruction model. The proposed method has been validated on a visual-tactile dataset respecting the kinematic constraints of a robotic hand. The visual-tactile dataset respecting the kinematic properties of the multi-fingered robotic hand has been created in the framework of this PhD work. This dataset is unique in the literature and is also a contribution of the thesis.
The validation results show that the tactile information can have an important contribution for the prediction of the complete shape of an object, especially the part that is not visible to the RGD-D sensor. They also show that the proposed model allows to obtain better results compared to those obtained with the best performing methods of the state of the art.

Mots clés en français : Apprentissage profond et perception pour la préhension et la manipulation,3D Reconstruction,3D Vision,Capteurs tactiles,Fusion de capteurs,Manipulation agile
Mots clés en anglais :   Deep Learning and Perception for Grasping and Manipulation,3D Reconstruction,3D Computer Vision,Tactile Sensing,Sensor Fusion,Autonomous Dexterous Manipulation

 

Vous pouvez également y assister à distance en vous connectant au lien suivant :

https://teams.microsoft.com/l/meetup-join/19%3ameeting_M2MxZjZmNjgtMGE1MS00YzA5LWI0ZWYtZTkxZGIxY2IwY2Jj%40thread.v2/0?context=%7b%22Tid%22%3a%22f7421450-df16-4714-ada1-395390cb91d3%22%2c%22Oid%22%3a%221be4203d-d1d1-4894-9998-f15fb2a17644%22%7d