Vous constatez une erreur ?
NaN:NaN
00:00
Introduction
L’analyse des processus de création musicale ne cesse d’élargir son domaine d’action
vers les musiques faisant appel aux moyens électroniques et informatiques. Les contributions récentes sont nombreuses, notamment dans les projets :
DiP-CoRE [BOUTARD & MARANDOLA 2014] articule dissémination et préservation des œuvres de musique mixte au travers de la documentation des processus de production. GAMELAN vise une modélisation en ingénierie des connaissances des activités de production musicale en environnement numérique [VINCENT & al. 2012].
TACEM se consacre aux liens entre technologies et composition électroacoustique, et propose le logiciel TIAALS pour l’analyse aurale interactive [CLARKE & al. 2013].
Certains chercheurs ont étudié plus particulièrement la reprise des œuvres avec technologie : l’obsolescence des moyens techniques engendre de nouveaux processus de création technico-musicaux, dont l’étude est pertinente pour eux-mêmes mais aussi pour comprendre les processus initiaux [MIHALIC & POTTIER 1991]. C’est dans ce cadre que nous positionnons nos travaux, consacrés à la transmission des pièces avec électronique et centrés sur le moment-clé de la reprise d’une œuvre.
En parallèle d’une enquête de terrain auprès de réalisateurs en informatique musicale (questionnaire sollicitant leurs expériences pratiques de transmission), nous commençons une étude centrée sur un dispositif technique précis, connu en musique électronique : le frequency-shifter.
Il est communément défini ainsi : étant donné une fréquence f0, le frequency shifter opère simultanément deux transformations sur un son en entrée :
en ajoutant f0 aux fréquences présentes dans le son d’origine,
en soustrayant f0 de ce même spectre.
Ce décalage donne des résultats sonores intéressants à deux échelles, macroscopique (battements) et microscopique (transformation d’un son harmonique en un son inharmonique).
Une fois posée cette définition consensuelle, la diversité règne tant au niveau des implémentations ou que de la prise en compte du dispositif dans les œuvres. Les implémentations techniques et les résultats sonores produits ne sont pas répertoriés systématiquement. Les choix compositionnels sont rarement explicités.
Nous faisons l’hypothèse de la pertinence d’une étude historique et technique du frequency-shifter comme contribution à l’analyse des processus de création des œuvres mixtes. Il s’agit de comprendre les évolutions du frequency-shifter comme dispositif technique utilisé par de nombreux créateurs, et d’en envisager les conséquences musicales.
Méthodologie 2.1. Corpus étudié
18
Nous avons entrepris un relevé non exhaustif de l’emploi du frequency-shifter dans des œuvres mixtes créées à l’Ircam de 1981 à nos jours par trois compositeurs : Pierre Boulez, Philippe Manoury, et Philippe Leroux. Nous avons suivi les versions successives de huit œuvres. Pour Boulez, Répons (versions 1981, 2006), …explosante-fixe… (1993), Anthèmes 2 (versions 1999, 2005) ; pour Manoury, Jupiter (versions 1987, 1992, 2004), La Partition du ciel et de l’enfer (versions 1989, 1996), Neptune (versions 1991, 1993, 1998 et 2008) et Partita 1 (version 2007). Enfin, Voi(rex) de Leroux dans sa version de 2002.
Les différentes versions de ces huit œuvres furent implémentées sur cinq configurations matérielle et logicielle différentes :
la configuration 1 est la machine 4X avant l’apparition du logiciel Max,
2 : la 4X avec Max,
3 : la station NeXTavec Max/FTS [PUCKETTE 1991],
4 : Max/MSP sur micro-ordinateur,
5 : PureData sur micro-ordinateur.
2.2. Classification technique des frequency-shifters
Dans chacune de ces œuvres, nous avons observé l’implémentation technique du
frequency-shifter. Devant la difficulté de la tâche, nous avons dialogué avec les auteurs de des développements informatiques (Miller Puckette, Zack Settel).
Du point de vue du procédé, nous n’avons trouvé dans notre corpus que des implémentations dites time-domain (traitement temporel) et aucune dite frequency-domain (traitement fréquentiel).
Du point de vue de la programmation, nous trouvons deux formes dans les environnements Max et PureData : les objets et les abstractions. Les premiers développés en langage C complètent les traitements inclus par défaut dans le logiciel (cas de freqshift~ pour PureData); les secondes utilisent les objets présents dans Max ou PureData (cas de fshift~ pour PureData).
Signalons enfin que le frequency-shifter time-domain se compose de deux étages : un filtre de Hilbert qui crée un signal complexe en quadrature de phase à partir du son en entrée; puis un module de décalage de la fréquence f0. Ce dernier ne donne pas lieu à des variations d’implémentation. En revanche, le filtre de Hilbert est implémenté de diverses manières.
Nous obtenons à l’issue de cette classification trois implémentations principales désignées par A, B et C :
implémentation A (Favreau/Puckette/Settel) : filtre de Hilbert fondé sur une combinaison de 4 filtres passe-tout du 2ème ordre (biquad), code 4X et abstractions PureData et Max, implémentation B (Weiss) : objet PureData utilisant la convolution,
implémentation C (Cycling’74) : objet Max/MSP fondé sur un filtre passe-tout du 6ème ordre, dont le code (propriétaire) est très certainement inspiré de celui de Sean M. Costello dans l’environnement Csound.
2.3. Comparaison sonore des implémentations A, B, C
Dans un premier temps, nous avons comparé les implémentations A et C, toutes deux
disponibles sur Max/MSP. Nous avons soumis trois jeux de sons de flûte traversière avec des notes et des fréquences de décalage f0 différentes. Dans l’implémentation C, les pics des harmoniques sont plus nettement séparés. Les différences de rendu sonore sont sensibles.
L’étape suivante consistera à coder dans FAUST, les trois implémentations A, B, C, permettant une comparaison sonore complète.
Les frequency-shifters dans les œuvres du corpus
Les utilisations du frequency-shifter sont assez différentes d’une œuvre à l’autre de
notre corpus, selon deux axes :
timbral et harmonique : transformation monophonique ou polyphonique du son de l’instrument.
rythmique : couplage ou pas avec une ligne à retard réinjectée.
Les différences de rendu sonore entre les implémentations A, B, C nous conduisent à poursuivre cette enquête en interrogeant les compositeurs et les réalisateurs en informatique musicale impliqués dans la conception technico-musicale des œuvres, pour comprendre la motivation du choix d’une implémentation lors de la création, et l’éventuel passage à une autre implémentation lors d’une migration. Par exemple, pourquoi l’implémentation A a-t-elle été conservée dans la deuxième version (2005) d’Anthèmes 2 de Boulez, alors qu’il aurait été possible de passer à l’implémentation C ?
5 novembre 2024 00:26:25
30 octobre 2024 00:30:44
30 octobre 2024 00:31:12
5 novembre 2024 00:29:20
30 octobre 2024 00:27:09
30 octobre 2024 00:30:39
30 octobre 2024 00:28:47
30 octobre 2024 00:27:55
30 octobre 2024 00:33:36
30 octobre 2024 00:28:35
30 octobre 2024 00:31:55
5 novembre 2024 00:30:42
30 octobre 2024 00:23:26
30 octobre 2024 00:28:55
30 octobre 2024 00:29:53
5 novembre 2024 00:29:25
30 octobre 2024 00:28:39
30 octobre 2024 00:21:01
30 octobre 2024 00:26:35
6 janvier 2016 01:10:16
30 octobre 2024 00:27:12
5 novembre 2024 00:25:50
30 octobre 2024 00:25:30
5 novembre 2024 00:30:35
5 novembre 2024 00:30:35
30 octobre 2024 00:29:02
30 octobre 2024 00:29:02
30 octobre 2024 00:19:43
30 octobre 2024 00:19:43
30 octobre 2024 00:24:43
30 octobre 2024 00:24:45
5 novembre 2024 00:29:25
30 octobre 2024 00:25:24
5 novembre 2024 00:28:54
6 janvier 2016 01:10:12
15 décembre 2021 01:36:22
Vous constatez une erreur ?
1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43
Du lundi au vendredi de 9h30 à 19h
Fermé le samedi et le dimanche
Hôtel de Ville, Rambuteau, Châtelet, Les Halles
Institut de Recherche et de Coordination Acoustique/Musique
Copyright © 2022 Ircam. All rights reserved.