14 avril 2005 01 h 01 min
14 avril 2005 24 min
12 mai 2005 52 min
4 février 2005 01 h 18 min
17 octobre 2007 49 min
27 juin 2007 01 h 12 min
11 juillet 2007 48 min
12 septembre 2007 01 h 07 min
19 septembre 2007 01 h 13 min
26 septembre 2007 01 h 00 min
3 octobre 2007 01 h 12 min
10 octobre 2007 01 h 10 min
24 octobre 2007 50 min
21 novembre 2007 57 min
0:00/0:00
For sonic interactive systems, the definition of user-specific mappings between sensors capturing performer's gesture and sound engine parameters can be a complex task, especially when using large network of sensors to control a high number of synthesis variables. Generative techniques based on machine learning can compute such mappings only if users provide a sufficient amount of examples embedding and underlying learnable model. Instead, the combination of automated listening and unsupervised learning techniques can minimize effort and expertise required for implementing personalized mapping, while rising the perceptual relevance of the control abstraction. The vocal control of sound synthesis is presented as a challenging context for this mapping approach.
1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43
Du lundi au vendredi de 9h30 à 19h
Fermé le samedi et le dimanche
Hôtel de Ville, Rambuteau, Châtelet, Les Halles
Institut de Recherche et de Coordination Acoustique/Musique
Copyright © 2022 Ircam. All rights reserved.