Vous constatez une erreur ?
NaN:NaN
00:00
The project explores cross-adaptive processing as a drastic intervention in the modes of communication between performing musicians. Digital audio analysis methods are used to let features of one sound modulate the electronic processing of another. This allows one performer’s musical expression on his/her instrument to influence radical changes to another performer’s sound. This action affects the performance conditions for both musicians. The project method is based on iterative practical experimentation sessions. Development of processing tools and composition of interaction mappings are refined on each iteration, and different performative strategies explored. All documentation and software is available online as open source and open access.
The project is run by the Norwegian University of Technology and Science, Music Technology, Trondheim. Collaboration partners at De Montfort University, Maynooth University, Queen Mary University of London, Norwegian Music Academy, University of California San Diego, and a range of fine freelance music performers.
The presentation will look at key findings, artistic and technical issues, and future potential.
Depuis une dizaine d’années, le département SATIS, puis la laboratoire ASTRAM et maintenant le laboratoire PRISM (Perception Représentation Image Son Musique) développe un projet de sonothèque de sons d’ambiance consultable en ligne intitul
8 mars 2018 33 min
Depuis 2011 je travaille sur un projet de recherche et d’écriture basé sur le dialogue musical et scénique entre des instruments symphoniques et des objets sonores électroacoustiques. Après la construction de trois objets (la fontaine élect
8 mars 2018 01 h 16 min
The presentation is intended as an introduction to deep learning and its applications in music. The presentation features the use deep auto-encoders for generating novel sounds from a hidden representation of an audio corpus, audio style tr
8 mars 2018 22 min
StreamCaching est un projet musical qui a débuté en juin 2017 à Hambourg. Il a été lancé au Blurred Edges festival de musique contemporaine: 10 compositions ont été commandées, numérisées, munies de données GPS et localisées à travers la vi
8 mars 2018 33 min
We observe the success of artificial neural networks in simulating human performance on a number of tasks: such as image recognition, natural language processing, etc. However, there are limits to state-of-the- art AI that separate it from
8 mars 2018 30 min
Within this project, I aim to define a mutual synthesis of sound and position of the borderlines in space. Space, as well as word, has its own shape, meaning, and wording. How it affects our perception of architecture acoustic experience sp
8 mars 2018 26 min
Future Perfect will be a concert performance using smart phone virtual reality technologies and ambisonic/ WaveField sound diffusion.Future Perfect explores the seam between virtual reality as a documentation format for environmental resear
8 mars 2018 33 min
Le nom vient de la définition française “Musique Mixte”, qui indique l’électronique en live (ou même seulement de l’électronique sans interaction en temps réel) avec des instruments acoustiques sur scène. Il fonctionne comme un middleware:
8 mars 2018 26 min
Vous constatez une erreur ?
1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43
Du lundi au vendredi de 9h30 à 19h
Fermé le samedi et le dimanche
Hôtel de Ville, Rambuteau, Châtelet, Les Halles
Institut de Recherche et de Coordination Acoustique/Musique
Copyright © 2022 Ircam. All rights reserved.