Fils d'Ariane

University : Main content

Titre de page

Objectif scientifique

Partager sur |

Contenu de la page principale

L'axe SIGNAL rassemble deux compétences principales : l'analyse et modélisation spectrale évolutive et le traitement multi-capteurs

L'axe SIGNAL rassemble deux compétences principales :

  1. l'analyse et modélisation spectrale évolutive
  2. le traitement multi-capteurs

Les applications sont diverses :

  • l'analyse et la compréhension des signaux bioélectriques (électrocardiogramme ECG, électromyogramme EMG et phonocardiogramme PCG)
  • la radioastronomie
  • le traitement du signal pour les télécommunications
  • l'analyse vibratoire de machines tournantes
  • l'étude des lignes électriques pour les transmissions par courant porteur en ligne.

Thématiques de recherche :

L'objectif principal est l'extraction de composantes : indicateurs ou paramètres.

  1. Analyse et modélisation spectrale évolutive
    • Traitements temps-fréquence et temps-échelle
    • Analyse cyclostationnaire
  2. Traitements multi-capteurs
    • Estimation paramétrique
    • Techniques de séparation de sources
    • Traitement d'antenne et filtrage spatial
    • Instrumentation & Mesures

Séminaires les jeudis à 13h00 :

Séminaire 1 : jeudi 3 février

Machine Learning Strategies in Time Series Forecasting

par Zuokun OUYANG (doctorant CIFRE ATTILLA)

Abstract: With the increasing availability of large amount of historical data and the requirement of precise prediction for future values, robust and efficient methods are demanded to capture the dependency of historical observations and the future values. The time series forecasting (TSF) domain has been dominated for decades by statistical methods such as ARIMA models. Over the last decade, machine learning methods have drawn much prominence for their successful applications in many fields like computer vision and natural language processing. This seminar presents an overview of machine learning techniques for time series forecasting with a focus on 1) transforming a TSF into a supervised learning problem; 2) several machine learning techniques for TSF; 3) strategies for multi-step forecasting.


Séminaire 2 : jeudi 3 mars

Estimation des forces de réaction au sol à partir des mesures de semelles instrumentées

par Amal Kammoun (doctorante CIFRE EMKA)

Résumé : Dans le milieu du travail ou du sport, les contraintes mécaniques subies par le travailleur ou le pratiquant peuvent conduire à des troubles fonctionnels moteurs voire des dommages corporels immédiats. Leurs évaluations sont donc un enjeu important de sécurité et de santé pour l’individu. Dans ces milieux, les évaluations sont réalisées par des préventeurs ou des cadres de santé (ergonomes, kinésithérapeutes, médecins) et se fondent encore aujourd’hui sur des évaluations visuelles notamment des grilles de cotation pour l’ergonome. Celles-ci ne tiennent pas compte des réalités biomécaniques qui ne sont pas directement accessibles par un observateur extérieur et sont donc mésestimées. Afin d’apporter une aide à la prise en charge de l’individu dans son activité, il est nécessaire de développer des outils de mesures et de modélisation appropriés qui prendront en compte ces facteurs. Le présent projet de recherche se focalise sur l’estimation des forces de réaction aux contacts pieds-sol, selon les trois composantes du repère corporel humain : composante antéro-postérieure (Fx) ; médio-latérale (Fy) et verticale (Fz). Afin de reconstruire ce vecteur tridimensionnel (Fx, Fy, Fz), les méthodes de traitement mobilisées s’inscriront dans le champ de l’analyse des données et celui de l’intelligence artificielle comprenant les techniques de réduction de dimensionnalité et les méthodes par apprentissage, en mode supervisé et/ou profond.


Séminaire 3 : jeudi 17 mars

Detection of wave front: recent advances and new challenges

par Benjamin Poste (doctorant CIFRE CEA)

Abstract: Recently, a new algorithm for broadband source detection and estimation based on likelihood has been implemented in order to overcome the errors of the current algorithm: PMCC (based on TDOA, for time difference of arrivals). This study presents the two approaches and compares them in terms of detection and estimation capacity on synthetic signals but also on real signals from the IMS network.

In a second time, the multi-source aspect is also studied through this new algorithm. It is compared with state of the art algorithms such as MUSIC, Fisher or CLEAN. The results are very encouraging in the generalization of the algorithm based on the likelihood for the detection of multiple sources.


Séminaire 4 : jeudi 7 avril

Application de l’algorithme de séparation aveugle à canal unique basé sur EEMD-PCA-FastICA dans l’identification des charges électriques

par Gisèle Béatrice Sonfack (post doc)

Résumé :  Le déploiement des compteurs intelligents dans le secteur résidentiel fournit une grande quantité de données permettant une meilleure compréhension des habitudes de consommation électrique des occupants afin d’y apporter des solutions d’optimisation d’énergie. Cependant, les méthodes conventionnelles d’analyse des profils de charge électriques domestiques basées sur des techniques de séries temporelles, telles que la transformée de Fourier et la transformée en ondelettes, ont montré des limites du fait des non-linéarités et processus non stationnaires. Dans ce papier, nous présentons une démarche visant l’identification du profile de charge électrique basée sur la détection des modes d’oscillation dans le domaine temps-fréquence associée aux algorithmes conventionnels de traitement de signal. La méthodologie est basée sur la transformée de Hilbert-Huang (HHT) qui permet d’évaluer la fréquence instantanée en utilisant la décomposition en mode empirique (EMD) et plus précisément sa variante CEEMDAN. Grace à la décomposition CEEMDAN du signal d’observation monocanal du courant électrique les composantes multidimensionnelles de l’IMF sont obtenues, et l’analyse en composantes principales (ACP) est effectuée sur la matrice de ces IM[5]F. Le nombre de composants principaux est déterminé et une nouvelle matrice est générée pour satisfaire les conditions de séparation de source aveugle surdéterminées, la nouvelle matrice est ensuite appliquée comme entrée de la FastICA pour réaliser la séparation du signal source. L’étude est réalisée sur deux charges issues de la base de données COOLL et les mélanges ont été effectué artificiellement. L’intérêt de cette démarche réside dans le fait qu’elle permet de contourner la contrainte liée au un nombre d’observations supérieures ou égale au nombre de sources. Elle s’applique donc très bien au contexte de NILM où l’on dispose très souvent d’une seule observation. Par ailleurs, cette méthode révèle l’importance de la fréquence d’échantillonnage des données pour une caractérisation précise du profil de charge.


Séminaire 5 : jeudi 21 avril

SATSal: A Multi-Level Self-Attention Based Architecture for Visual Saliency Prediction

par Merouane Tliba (doctorant)

Abstract:  Human visual Attention modeling is a persistent interdisciplinary research challenge, gaining new interest in recent years mainly due to the latest developments in deep learning. That is particularly evident in saliency benchmarks. Novel deep learning-based visual saliency models show promising results in capturing high-level (top-down) human visual attention processes. Therefore, they strongly differ from the earlier approaches, mainly characterized by low-level (bottom-up) visual features. These developments account for innate human selectivity mechanisms that are reliant on both high- and low-level factors. Moreover, the two factors interact with each other. Motivated by the importance of these interactions, in this project, we tackle visual saliency modeling holistically, examining if we could consider both high- and low-level features that govern human attention. Specifically, we propose a novel method SAtSal (Self-Attention Saliency). SAtSal leverages both high and low-level features using a multilevel merging of skip connections during the decoding stage. Consequently, we incorporate convolutional self-attention modules on skip connection from the encoder to the decoder network to properly integrate the valuable signals from multilevel spatial features. Thus, the self-attention modules learn to filter out the latent representation of the salient regions from the other irrelevant information in an embedded and joint manner with the main encoder-decoder model backbone. Finally, we evaluate SAtSal against various existing solutions to validate our approach, using the well-known standard saliency benchmark MIT300. To further examine SAtSal’s robustness on other image types, we also evaluate it on the Le-Meur saliency painting benchmark.


Séminaire 6 : mercredi 11 mai

Deep learning pour la classification de l'injonction dans des énoncés oraux français

par Asma Bougrine (ATER Polytech)

 

Résumé :  La classification de l'injonction dans le discours oral français est une tâche difficile car aucune structure linguistique standard ne permet à ce jour sa caractérisation. L'injonction peut relever de l'ordre, du conseil ou de l'interdiction et une première étude a montré que les caractéristiques prosodiques de la parole pouvaient être des indicateurs pertinents pour cette tâche, notamment l'énergie logarithmique. Notre objectif est premièrement de chercher à valider, sur une base d'abord réduite puis étendue, la prédominance de cette caractéristique en utilisant d'autres classifieurs conventionnels tels que SVM et K-NN.  Lorsqu'elle est appliquée à notre première base de données, la caractéristique d'énergie logarithmique a en effet montré les meilleurs taux de classification (CR) pour les deux classificateurs avec $CR=82\%$ pour SVM et CR=71.42% pour K-NN. En revanche, l'énergie n'était pas la caractéristique pertinente quand appliquée à notre deuxième base, hétérogène et sauvage. Deuxièmement, dans le but d'améliorer les taux de classification, nous avons appliqué deux réseaux d'apprentissage profond à savoir, LSTM et CNN. Lors de l'application du réseau LSTM, un CR=96,15% a été trouvé en utilisant les 6 caractéristiques prosodiques quand appliqué à la première base contre un CR=64% avec les données de la deuxième base. Le CNN, un réseau capable d'extraire automatiquement les caractéristiques les plus pertinentes, a donné un meilleur résultat sur la deuxième base avec un CR=73% dépassant largement SVM, K-NN et LSTM.


Séminaire 7 : jeudi 2 juin

Évaluation de l'impact la qualité du réseau électrique sur les signatures des appareils

par Gisèle Béatrice Sonfack (post doc)

Résumé :  La participation active du client résidentiel au réseau intelligent via un gestionnaire d'énergie peut bénéficier du contrôle d'un certain nombre de données relatives à la fois au comportement du réseau et aux appareils qui y sont connectés. En effet, connaître la typologie des appareils en fonctionnement et leur consommation est indispensable pour la prévision de la consommation globale de la résidence, d'autre part, la gestion des modes de fonctionnement et enfin, l'optimisation des dépenses énergétiques. Bien que plusieurs techniques d'identification de charge soient développées dans des laboratoires scientifiques, il est important de noter que les études sur l'impact de la qualité du réseau électrique sur les signatures sous-jacentes à ces développements ne sont pas encore élucidées. Connaissant la dépendance des profils de charge aux facteurs environnementaux, aux habitudes des utilisateurs et autres facteurs non déterministes, il est important d'évaluer l'impact que la qualité du réseau peut avoir sur les signatures de charge afin d'en tenir compte dans le développement des solutions d'identification à intégrer dans le réseau intelligent. Dans ce contexte, l'étude menée dans cet article présente un bilan des différents défauts du réseau susceptibles d'impacter les signatures des charges connectées. L'étude considère les deux types de charges rencontrées dans les ménages (linéaires et non linéaires) et analyse les grandeurs caractéristiques telles que les formes d'onde, les valeurs effectives de courant et de tension, les puissances active et réactive déformants (harmoniques). Les résultats des simulations réalisées sur Simulink/Simscape montrent que certains défauts du réseau ont un impact significatif et permanent sur les signatures tandis que d'autres ont un effet temporaire et parfois insignifiant.


Séminaire 8 : vendredi 24 juin

Development of Orthopaedical Insoles and Shoes 3D Design Process for Atypical Foot Morphologies

par Maneesh Kumar Mishra (ATER Polytech)

Abstract:  The needs in the sector of orthopaedic insoles are becoming more important. The medical purpose of these plantar prostheses is often to correct the posture or biomechanical imbalance that tends to cause pain in various areas of the body depending on the pathology of the patient. The need for personalization of orthopaedic shoes is also increasing. This is due to the progression of people who are increasingly obese or have problems with diabetes or other diseases. However, the cost of its products can vary from one to two times or more depending on the quality of the product that requires adaptation by a manual process to the morphology of the foot. Whatever the therapeutic product envisaged, the economic model is no longer adapted to the needs of patients and the budgetary imperatives of social security. A new creative process is needed and must incorporate digital tools to reduce these manufacturing costs, while improving the quality of products. Our study was to take stock of the means of measurement used and analyse the profession of podiatrist by highlighting the medical and economic aspects to detect the technological barrier. The implementation of the new design process for these therapeutic foot products required the acquisition of morphological, anthropometric and biomechanical knowledge of the foot. In order to characterize the foot dimensionally and morphologically, a process of detection of anthropometric points and creation of morphological curves has been implemented.  At this stage, the process was able to analyse a population of male and female individuals to extract the most representative morphologies of a target population. It was from unsupervised classification methods that has classified the population and detected centroids. The techniques that were then used to detect the anthropometric points of the foot were incorporated into the process of creating customized insoles. By combining this technique that extracts the outline encompassing the footprint, a method that uses this outline to create the 2D shape of the insole and the 3D shape of the standard shoe-last, the 3D shape of the insole was created and adjusted to foot and the standard shoe-last. This process showed the need to create the custom shoe-last of the person. After a detailed technical analysis of the shoe-last, set up of a customized shoe-last 3D creation process has been stablished. This process was directly able to take into account the shape of the patient's foot on which detection of the anthropometric points and creation of morphological contours were done. These contours were to support a 3D space of ease on which was hung a network of curves defining the wire model of the surface of the shoe-last. This spatial ease was parametrizable in order to define a specific comfort to the patients or to control their therapeutic needs. These two customization processes can be connected to each other to improve the wearing comfort of shoes for a patient or for the entire population by applying it to each centroid of the classification.


Séminaire 9 : jeudi 06 octobre

Signal and image data stream analytics: from subspace to tensor tracking

par Thanh Trung Le (présoutenance de thèse)

Abstract:  Stream processing has recently attracted much attention from both academia and industry since massive data streams have been increasingly collected over the years. This thesis focuses on investigating the problem of online low-rank approximation (LRA) of data streams over time. When data samples are one-dimensional, the online LRA problem is referred to as subspace tracking. It turns out to be tensor tracking when streaming data are multi-dimensional. For subspace tracking, we proposed two novel algorithms for tracking the underlying subspace of data streams under two specific scenarios. To deal with sparse outliers and missing data, an effective two-stage subspace tracking algorithm was developed, namely PETRELS-ADMM. The proposed algorithm is based on the alternating direction method of multipliers and recursive least-squares filtering techniques. The second algorithm called OPIT was specifically designed for tracking the sparse principal subspace in high dimensions. Specifically, OPIT introduces a new adaptive variant of power iteration and a new column-based thresholding operator. Both two proposed algorithms belong to the class of provable tracking methods with a convergence guarantee. For tensor tracking, we developed several new algorithms for tracking the online LRA of streaming tensors over time. Under the CP/PARAFAC format, we leverage the alternative minimization and randomized sketching techniques to develop ACP and RACP which are capable of factorizing incomplete tensors and corrupted tensors, respectively. Under the Tucker format, we proposed another online algorithm called ATD. ATD first tracks the underlying low-dimensional subspaces covering the tensor factors, and then estimates the core tensor using {a} stochastic approximation. A unified convergence analysis was presented to justify their performance. In parallel, it is well-known that the tensor-train format offers a memory-saving representation and can break the curse of dimensionality. Accordingly, we designed three new algorithms for streaming tensor-train decomposition. The first algorithm called TT-FOA is capable of tracking the low-rank components of high-order tensors from noisy and high-dimensional data with high accuracy, even when they come from time-dependent observations. The second algorithm called ATT is specifically designed for handling incomplete streaming tensors. Finally, to deal with sparse outliers, we proposed the so-called ROBOT. Technically, ROBOT has the ability to track streaming tensors from imperfect streams (i.e., due to noise, outliers, and missing data) as well as estimate their time variation in dynamic environments. In conclusion, our study provides several novel contributions to big data stream analytics in general and the online LRA problem in particular. They are new analysis tools allowing to effectively track the online LRA of data streams from one-dimensional to multi-dimensional observations in different settings, and thus, they are expected to take a step forward real-world online applications.


Séminaire 10 : jeudi 21 octobre

Conception et évaluation d’un système embarqué d’évaluation des contraintes mécaniques subies au cours d’activités de manutention et de port de charge

par Nicolas Grandin (doctorant CIFRE TEA)

Résumé :  Les TMS (troubles musculosquelettiques) sont un problème majeur pour la Société française car ils représentent la principale catégorie des maladies professionnelles en France selon l’INRS. En effet, les TMS représentent environ 10 millions de jours perdus par an, soit l’équivalent d’1 milliard d’Euros de pertes pour la Société française comme pour les entreprises. Il n’existe à ce jour, aucun dispositif permettant d’évaluer les activités de manutention et de port de charge d’un point de vue mécanique (masses des charges manutentionnées ainsi que les contraintes subies par le corps) en conditions industrielles (système portable, sans fil, …) et ce, de manière automatique. C’est pourquoi, l’objectif de la thèse consiste à concevoir un système embarqué permettant de déterminer les contraintes mécaniques subies lors d’activités de manutention et de port de charge. Ainsi, la première étape consiste donc à déterminer la masse de la charge portée par l’opérateur. Ensuite, à l’aide d’hypothèses sur les données anthropométriques (sexe, âge, morphologie, …), et biomécaniques (propriétés mécaniques des tissus, réactions des efforts au sol, …), il est alors possible de déterminer les contraintes mécaniques subies lors de ces tâches et donc d’en quantifier les effets délétères.


Séminaire 11 : jeudi 24 novembre

Aide à la Mobilité Utilisant la Localisation via l’Empreinte du Champ Magnétique Local

par Ouyang Guanglie (présoutenance de thèse)

Résumé :  En raison de l'omniprésence du champ géomagnétique et la disponibilité de sa mesure sans besoin d'infrastructures onéreuses, le positionnement intérieur basé sur le champ magnétique a suscité un intérêt considérable de la part des universitaires et des industriels. Cependant, les applications de positionnement intérieur basées sur le champ magnétique sont difficiles en raison de sa faible discrimination spatiale, de l'hétérogénéités des dispositifs de mesure et de l'interférence des matériaux ferromagnétiques. Cette thèse contribue à démontrer la faisabilité du positionnement intérieur basé sur le champ magnétique en relevant les défis du positionnement par champ magnétique. Nos contributions sont les suivantes : la première contribution est une étude de l'état de l'art du positionnement intérieur basé sur le champ magnétique, y compris les avantages et les défis, les modèles et la calibration des magnétomètres, la transformation des coordonnées et les méthodes de localisation par champ magnétique. La deuxième contribution est une analyse des défis et de la faisabilité de la localisation par champ magnétique à travers des tests statiques, de trajectoire et de rotation, des tests de calibration et des tests de classification. La troisième contribution présente une méthode robuste basée sur ADMM (Alternating Direction Method of Multipliers) pour calibrer les magnétomètres à trois axes en présence de mesures aberrantes et parasites. La quatrième contribution a conçu un algorithme de classification de trajectoire magnétique basé sur des réseaux convolutifs temporels. Cette étude des défis et solutions potentielles relatifs à l’utilisation des mesures de champ magnétique pour la localisation de mobile en fait un pas en avant prometteur pour les applications du monde réel.


Séminaire 12 : jeudi 1er décembre

Focalisation prosodique dans les corpus oraux

par Fadila El Adlouni (stagiaire Master RTR Diams)

Résumé :  Classification des corpus audio vocaux du projet ravioli en classes injonctives et non injonctives, où l’injonction peut être définie comme un ordre ou un commandement précis non-discutable, qui doit être obligatoirement exécuté et qui est souvent accompagné de menaces et de sanctions.

On utilise le LSTM bidirectionnel pour la tâche de classification où on lui donne comme entré un vecteur qui comporte les six caractéristiques prosodiques : pitch PI, énergie E, la vitesse D et l'accélération A (A et D sont associe au PI et E) extraite pour chaque 10 ms de l'audio, ce vecteur est censé représenter le vecteur original de l'audio.