Soutenance de thèse de Dimitri Bouche : Processus compositionnels interactifs, une architecture pour la programmation et l'exécution des structures musicales
Dimitri BOUCHE, soutient sa thèse de doctorat, réalisée au sein de l’équipe Représentations Musicales à l’Ircam (STMS - CNRS/IRCAM/UPMC), intitulée :
" Processus compositionnels interactifs : Une architecture pour la programmation et l'exécution des structures musicales "
La soutenance de thèse se fait devant un jury composé de :
Jean-Pierre Briot - Examinateur
Université Pierre et Marie Curie
Elaine Chew - Examinatrice
Queen Mary, University of London
Roger Dannenberg - Examinateur
Carnegie Mellon University
Yann Orlarey - Examinateur
Grame
Peter Van Roy - Rapporteur
Université Catholique de Louvain
Philippe Manoury - Invité
Collège de France
Gérard Assayag - Directeur
STMS - CNRS/Ircam/UPMC
Jean Bresson - Encadrant
Ircam
Résumé:
Les outils de composition musicale assistée par ordinateur (CAO) permettent la génération de données musicales à partir de programmes informatiques conçus par un utilisateur. Ces programmes sont qualifiés de « temps-différés » pour dénoter la séparation entre les temps inclus dans leurs résultats, et le temps absolu qui s’écoule lors de leurs exécutions. Les outils de CAO offrent une représentation temporelle des données musicales, permettant ainsi de composer à l’échelle de la structure de l’œuvre globale. En revanche, ils ne permettent pas d’interagir avec cette structure pendant sa restitution. Cela contraint l’utilisateur à une approche séquentielle du processus créatif : composer puis jouer. D’un autre côté, les environnements « temps réels » entremêlent le temps de l’exécution du programme et celui de la restitution des sorties en produisant un signal continu. Ce lien permet une utilisation interactive des programmes, mais limite les capacités de calcul et complique la spécification de structures temporelles.
Cette thèse vise à établir un système informatique permettant le calcul de structures musicales, leurs représentations/manipulations à un niveau compositionnel, ainsi que leurs diffusions interactives. Elle constitue une étude à la croisée de multiples domaines informatiques : la modélisation des systèmes discrets, l’ordonnancement, la conception logicielle ou encore les interfaces homme-machine. Nous proposons une architecture dans laquelle la modification des programmes peut affecter leurs sorties, y compris durant la phase de restitution, tout en conservant les avantages compositionnels de l’approche temps-différé. Nous introduisons également de nouveaux outils pour planifier leur exécution grâce à la conception de scenarios dynamiques, que nous appelons la meta-composition. Les mécanismes de calcul et de restitution sont entremêlés : la restitution peut être affectée par des calculs qu’elle a elle-même déclenchés. Les différents résultats décrits dans ce manuscrit sont implantés dans le logiciel de composition OpenMusic, qui peut alors modéliser les œuvres à la fois comme des structures musicales et comme des programmes en continuelle exécution.
Abstract:
Computer-aided composition (CAC) tools allow composers to generate musical data using programming. The computer-aided composition programs are generally called deferred-time to underline the difference between the time included in their result, and the absolute time that flows during their executions. CAC tools offer a temporal representation of musical data, allowing to compose at the scale of a musical work. However, they do not allow any interaction with this structure during its rendering. This restricts the user to a sequential workflow : compose, then play. On the other hand, real-time environments interleave program execution time and output rendering time. This link introduces interactivity in programs, but limits computing power and complexifies the specification of temporal structures.
This thesis aims at designing a computer system enabling the computation of musical structures, their presentation/handling on a compositional side, and their interactive rendering. It is a study at the crossroads between several computer science research fields : discrete systems modeling, scheduling, software design and human-computer interfaces. We propose an architecture where program editing can affect their outputs, including during the rendering phase, while preserving the compositional benefits of the deferred-time approach. Compositions are therefore considered as continually running programs, where computation and rendering mechanisms are interleaved. We introduce new tools and interfaces to arrange their execution through time thanks to dynamic temporal scenario scripting, which we call meta-composing. The different results described in this manuscript are implemented in the computer-aided composition environment OpenMusic.