Séminaires invités

Participants
  • Benjamin Elie (conférencier)

La synthèse articulatoire consiste à simuler numériquement les phénomènes articulatoires, mécaniques, et acoustiques mis en jeu lors de la production de la parole. Située à l'opposé de l'approche concaténative, elle permet à la fois d'étudier ces phénomènes, de modifier le rendu de parole en modifiant virtuellement les paramètres physiologiques du locuteur, et également de lier les indices acoustiques à l'origine de l'identification des sons à leur origine articulatoire. L'approche globale présentée ici s'appuie sur une modélisation fine de la production de la parole à différents niveaux, à savoir une modélisation articulatoire de la déformation de la géométrie du conduit vocal au cours du temps, une modélisation mécanique aéroacoustique et géométrique de la glotte, ainsi qu'une modélisation numérique de la propagation acoustique à l'intérieur du conduit vocal.

La modélisation articulatoire s'appuie sur les premiers modes de déformation des différents articulateurs (langue, lèvres, mâchoire, vélum, et larynx) calculés à partir de leurs contours extraits de coupes médio-sagittales du conduit vocal obtenues par IRM statiques. Une nouvelle approche utilisant une reconstruction de films articulatoires obtenus en temps-réel par IRM sera également présentée. Une vue médio-sagittale du conduit vocal est ainsi modélisée à l'aide d'un petit nombre de paramètres.

Ensuite un modèle de glotte est spécialement conçu pour reproduire le caractère auto-entretenu des oscillations des plis vocaux. Ainsi, leurs mouvements sont pilotés par les conditions aéroacoustiques au voisinage de la glotte. Le modèle présenté permet également l'ajout en parallèle d'une fente glottique nécessaire à la simulation de fricatives voisées ou de voix soufflées. La propagation acoustique au sein du conduit vocal est alors assurée à l'aide d'une méthode de résolution des équations de l'acoustique à chaque pas temporel. Elle se base sur l'analogie électrique-acoustique de Maeda adaptée à réseau de guides d'onde.

Enfin, des exemples de synthèse par copie sont présentés. Ils ont pour but de reproduire la parole naturelle d'un locuteur à partir de l'acquisition simultanée du signal audio et des images du conduit vocal ou de l'estimation des données géométriques du conduit vocal par l'intermédiaire de techniques inverses.

:::::::::::::::::::::::::::::::::::::

Biographie

Benjamin Elie est post-doctorant CNRS au Laboratoire Lorrain de Recherche en Informatique et ses Applications (LORIA) au sein de l'équipe MULTISPEECH du centre Inria Nancy-Grand Est. Il travaille également au laboratoire Imagerie Adaptative Diagnostique Interventionnelle (IADI) basé au CHU de Nancy. Ses recherches portent sur la simulation numérique des phénomènes articulatoires, mécaniques et acoustiques à l'origine de la production de la parole, ainsi que l'acquisition temps-réel de données articulatoires par IRM à l'aide de méthodes parcimonieuses. Il est titulaire du Master ATIAM (Acoustique, Traitement de signal et Informatique Appliqués à la Musique) de l'université Paris VI et d'une thèse de doctorat en acoustique délivrée par l'université du Maine. Sa thèse, portant sur la caractérisation acoustique et mécanique des instruments de musique à cordes pour l'aide à la facture instrumentale, sous la direction de François Gautier et Bertrand David, a été soutenue en 2012.