Partenaires

Reconstitution de la parole par imagerie ultrasonore et vidéo de l’appareil vocal : vers une communication parlée silencieuse

T. HUEBER, Université Pierre et Marie Curie, 2009
vendredi 26 mars 2010.
 

Résumé : L’objectif poursuivi dans ce travail de thèse est la réalisation d’un dispositif capable d’interpréter une parole normalement articulée mais non vocalisée, permettant ainsi la « communication parlée silencieuse ». Destiné, à terme, à être léger et portatif, ce dispositif pourrait être utilisé d’une part, par une personne ayant subi une laryngectomie (ablation du larynx suite à un cancer), et d’autre part, pour toute communication, soit dans un milieu où le silence est requis (transport en commun, opération militaire, etc.), soit dans un environnement extrêmement bruité. Le dispositif proposé combine deux systèmes d’imagerie pour capturer l’activité de l’appareil vocal pendant « l’articulation silencieuse » : l’imagerie ultrasonore, qui donne accès aux articulateurs internes de la cavité buccale (comme la langue), et la vidéo, utilisée pour capturer le mouvement des lèvres. Le problème traité dans cette étude est celui de la synthèse d’un signal de parole « acoustique », uniquement à partir d’un flux de données « visuelles » (images ultrasonores et vidéo). Cette conversion qualifiée ici de « visuo-acoustique », s’effectue par apprentissage artificiel et fait intervenir quatre étapes principales : l’acquisition des données audiovisuelles, leur caractérisation, l’inférence d’une cible acoustique à partir de l’observation du geste articulatoire et la synthèse du signal. Dans le cadre de la réalisation du dispositif expérimental d’acquisition des données, un système de positionnement de la sonde ultrasonore par rapport à la tête du locuteur, basé sur l’utilisation combinée de deux capteurs inertiaux a tout d’abord été conçu. Un système permettant l’enregistrement simultané des flux visuels et du flux acoustique, basé sur la synchronisation des capteurs ultrasonore, vidéo et audio par voie logicielle, a ensuite été développé. Deux bases de données associant observations articulatoires et réalisations acoustiques, contenant chacune environ une heure de parole (continue), en langue anglaise, ont été construites. Pour la caractérisation des images ultrasonores et vidéo, deux approches ont été mises en œuvre. La première est basée sur l’utilisation de la transformée en cosinus discrète, la seconde, sur l’analyse en composantes principales (approche EigenTongues/EigenLips). La première approche proposée pour l’inférence des paramètres acoustiques, qualifiée de « directe », est basée sur la construction d’une « fonction de conversion » à l’aide d’un réseau de neurones et d’un modèle par mélange de gaussiennes. Dans une seconde approche, qualifiée cette fois « d’indirecte », une étape de décodage des flux visuels au niveau phonétique est introduite en amont du processus de synthèse. Cette étape intermédiaire permet notamment l’introduction de connaissances linguistiques a priori sur la séquence observée. Elle s’appuie sur la modélisation des gestes articulatoires par des modèles de Markov cachés (MMC). Deux méthodes sont enfin proposées pour la synthèse du signal à partir de la suite phonétique décodée. La première est basée sur une approche par concaténation d’unités ; la seconde utilise la technique dite de « synthèse par MMC ». Pour permettre notamment la réalisation d’adaptations prosodiques, ces deux méthodes de synthèse s’appuient sur une description paramétrique du signal de parole du type « Harmonique plus Bruit » (HNM).

Document : doc/theses/these_TH09.pdf (attention : taille = 24Mo)



Forum

Contact : webmaster-afcp@afcp-parole.org - Hébergement : Université d'Avignon
Développé sous SPIP