From the same archive

Mettre en temps une structure musicale : l'activité de composition de Voi(rex) par Philippe Leroux - Nicolas Donin, Jacques Theureau

April 14, 2005 01 h 01 min

Mettre en temps une structure musicale : l'activité de composition de Voi(rex) par Philippe Leroux - Nicolas Donin, Jacques Theureau

April 14, 2005 24 min

L'estimation de fréquences fondamentales multiples

May 12, 2005 52 min

La harpe électroacoustique

February 4, 2005 01 h 18 min

Utilisation de Modalys pour le projet VoxStruments, lutherie numérique intuitive et expressive - Nicholas Ellis, Joël Bensoam

October 17, 2007 49 min

Présentation des travaux l'équipe PdS dans le cadre du projet européen CLOSED : "Closing the Loop of Sound Evaluation and Design" - Olivier Houix

June 27, 2007 01 h 12 min

Sparse overcomplete methods, matching pursuit and basis pursuit - Bob L. Sturm

July 11, 2007 48 min

Transformations de type et de nature de la voix - Snorre Farner, Axel Roebel, Xavier Rodet

September 12, 2007 01 h 07 min

Segmentations et reconnaissances automatiques de phonèmes de la voix, temps différé, temps réel - Pierre Lanchantin, Julien Bloit, Xavier Rodet

September 19, 2007 01 h 13 min

Synthèse de la parole à partir du texte et construction d'une base de données d'unités de la voix - Christophe Veaux, Grégory Beller, Xavier Rodet

September 26, 2007 01 h 00 min

Projet ECOUTE - Jerome Barthelemy, Nicolas Donin, Geoffroy Peeters, Samuel Goldszmidt

October 3, 2007 01 h 12 min

Projet MusicDiscover - David Fenech Saint Genieys

October 10, 2007 01 h 10 min

Projet CASPAR - Jerome Barthelemy, Alain Bonardi

October 24, 2007 50 min

Projet CONSONNES 1ère partie - René Caussé, Vincent Freour, David Roze

November 21, 2007 57 min

Méthodes d’analyse et de traitement temps-fréquence-espace pour des réponses impulsionnelles directionnelles

0:00/0:00

La démocratisation récente d’antennes sphériques de microphones capables de mesurer un champ acoustique en trois dimensions (ou de manière dite « directionnelle »), conjuguée à la croissance constante de la puissance de calcul numérique disponible, a popularisé leur utilisation pour la capture de réponses impulsionnelles de salles. Ces réponses peuvent être exploitées pour la synthèse en temps-réel d’effets de réverbération spatialisée par convolution multi-canal. La réverbération par convolution présente l’avantage de reproduire exactement l’empreinte acoustique de l’espace mesuré ; cependant, elle est par nature plus « figée » qu’une réverbération algorithmique, pour laquelle une multitude de paramètres sont directement manipulables. Cette thèse s’intéresse à la recherche de processus d’analyse et de traitement pour ces réponses impulsionnelles directionnelles donnant accès à des manipulations temps-fréquence-espace comparables aux possibilités offertes par des réverbérateurs algorithmiques.

Dans un premier temps, nous nous intéressons à la modélisation de l’envelope de décroissance énergétique de la « queue » de réverbération tardive, ce qui permet d’identifier le seuil de bruit inévitable dans des mesures « réelles » et de le remplacer par une prolongation re-synthétisée de la réponse idéale. Ce travail nous fournit aujourd’hui un cadre formel pour l’analyse spatiale de la réverbération tardive dans les cas d’espaces où les hypothèses classiques de champ diffus ne sont plus entièrement valables, c’est à dire où l’on peut observer une certaine anisotropie spatiale. Ces procédures peuvent notamment être appliquées à l’analyse et la re-synthèse de salles complexes ou atypiques telles que des volumes couplés ou des espaces semi-ouverts.

speakers

information

Type
Séminaire / Conférence
performance location
Ircam, Salle Igor-Stravinsky (Paris)
duration
22 min
date
February 5, 2020

IRCAM

1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43

opening times

Monday through Friday 9:30am-7pm
Closed Saturday and Sunday

subway access

Hôtel de Ville, Rambuteau, Châtelet, Les Halles

Institut de Recherche et de Coordination Acoustique/Musique

Copyright © 2022 Ircam. All rights reserved.