
Date | - |
Heure | 09h00 - 12h00 |
Adresse | Amphithéatre IRD - |
Contact | |
Lien | https://www.univ-orleans.fr/fr/univ/recherche/agenda-actualites |
Le CEA exploite depuis la fin des années 1990 les données du SSI (Système de Surveillance International) mis en place dans le cadre de la vérification du TICE (Traité d'interdiction complète des essais nucléaires). La technologie infrasons est un élément essentiel du système de surveillance en raison des longs trajets de propagation de ces ondes acoustiques inaudibles. Les sources infrasons sont surveillées à l'aide de réseaux de stations composés de quatre à quinze micro baromètres, espacés d'environ 100 m à 1 km. Les angles d'arrivée sont estimés par des méthodes de traitement, puis les sources sont localisées à l'aide des paramètres de front d'onde estimés sur plusieurs stations. Dans la bande de fréquence d’intérêt pour la surveillance des essais nucléaires (de 0.02 à 4 Hz), le traitement opérationnel de ces données montre l’existence de nombreux signaux d’origines artificielles (explosions, activités industrielles) et naturelles (houle océanique, météorites, volcans, séismes). La houle océanique, par exemple, est une source dominante permanente de signal qui peut masquer des signaux d’intérêt par leur large contenu fréquentiel. C'est dans cette optique que cette étude s'inscrit : comment détecter et estimer simultanément des sources différentes situées dans la même bande de fréquence ? La spécificité de ce travail se trouve dans l'implémentation d'un algorithme statistique d'estimation et de détection de sources multiples, robuste et adapté au traitement en temps réel dans le cadre du Tice. Des algorithmes comme MUSIC de décomposition en sous-espaces ou le spectre de Capon sont investigués. Afin de capitaliser sur les récents développements menés au CEA, des algorithmes basés sur la méthode MCML (Multi-Channel Maximum Likelihood) et sur un calcul itératif de la vraisemblance sont implémentés. En parallèle, d'autres approches telles que l'analyse en composantes indépendantes (ACI) pour séparer les signaux et ensuite estimer indépendamment les paramètres du front d'onde par la méthode MCML ou encore le "dictionary coding" sont étudiées. Des évaluations sur signaux synthétiques sont ensuite effectuées afin de comparer la précision de ces différents algorithmes. Les algorithmes les plus précis sont testés sur des signaux réels dans l'optique de séparer le plus rigoureusement les sources interférant simultanément en temps et en fréquence. Dans l'objectif d'une utilisation dans un cadre opérationnel on considère le temps de calcul de chacune des méthodes. Les résultats mettent en avant deux méthodes issues de l'approche par maximum de vraisemblance. Une approche basée sur la soustraction itérative des signaux se révèle adaptée avec un coût en calcul significativement réduit. Chaque estimation correspond à une mesure en temps et en fréquence de l'azimut et de la vitesse horizontale. Un post traitement regroupant ces estimations en évènements est ensuite nécessaire. Une nouvelle méthode de regroupement de ces mesures est proposée. En effet, la méthode actuelle basée sur une mesure de distance euclidienne est parfois imprécise, c'est pourquoi un modèle de mélange de gaussiennes (GMM) est étudié dans un cadre de source unique. Ce modèle de mélange incorporant les erreurs d'estimation fournies par MCML améliore la précision du regroupement et permet de séparer des signaux détectés dans une même direction. En perspectives, on considère l'application de cette méthode statistique de regroupement pour la séparation de sources multiples.