\r\nLa première génération qui entre de plein droit dans la base est donc celle constituée par John Cage, Olivier Messiaen ou encore Elliott Carter.\r\n\u003C/p>\r\n\r\n\u003Ch3>Contenus\u003C/h3>\r\n\r\n\u003Cp style=\"text-align: justify;\">\r\nLes données sont progressivement mises à jour depuis juillet 2007, en remplacement de celles de l’ancienne version de la base, développée entre 1996 et 2001 par Marc Texier. L’information peut donc être incomplète pour certains compositeurs non encore traités : dans ce cas l’indication « ! Informations antérieures à 2002 » apparaît en haut de page. Pour tous les autres documents, la date de dernière mise à jour est indiquée en haut de page.\r\n\u003C/p>\r\n\r\n\u003Ch3>Mises à jour et nouvelles entrées\u003C/h3>\r\n\r\n\r\n\u003Cp style=\"text-align: justify;\">Les mises à jour se font compositeur par compositeur. Pour un compositeur donné, sont systématiquement revus ou créés les documents suivants :\r\n\u003C/p>\r\n\u003Cul style=\"text-align: justify;\">\r\n \u003Cli>la biographie\u003C/li>\r\n \u003Cli>le catalogue exhaustif de ses œuvres (y compris, si possible, les œuvres disparues, retirées ou posthumes)\u003C/li>\r\n \u003Cli>une liste de ressources bibliographiques, discographiques et internet,\u003C/li>\r\n \u003Cli>des éventuels documents attachés (Parcours de l’œuvre, interviews, analyses, notes de programme etc.)\u003C/li>\r\n\u003C/ul>\r\n\u003Cp style=\"text-align: justify;\">\r\nLa définition des priorités de mises à jour et nouvelles entrées des compositeurs s’opèrent suivant une méthodologie basée sur l’observation de la vie culturelle européenne :\r\n\u003C/p>\r\n\u003Cul style=\"text-align: justify;\">\r\n \u003Cli>Avant chaque saison, nous relevons les programmations à venir des principaux festivals, institutions et ensembles musicaux européens investis dans le domaine de la création musicale. Cette observation s’opère par cercles concentriques en partant de l’activité propre de l’Ircam (année n-2), puis de celle des partenaires privilégiés (année n-1) jusqu’aux grandes institutions et festivals européens de création (année n) ;\u003C/li>\r\n \u003Cli>Chaque compositeur est crédité de points en fonction de l’importance et de l’intensité de l’activité musicale le concernant. Ce classement permet de définir les priorités pour chaque trimestre ;\u003C/li>\r\n \u003Cli>Si un compositeur n’a pas obtenu assez de points pour figurer dans les priorités, il cumule ceux-ci sur le trimestre suivant ; et ainsi remonte progressivement dans la liste des priorités.\u003C/li>\r\n \u003Cli>Une fois mis à jour, les documents attachés à un compositeur sont valables trois ans, après lesquels le processus décrit ci-dessus reprend.\u003C/li>\r\n\u003C/ul>\t\r\n\r\n\u003Ch3>Erreurs ou omissions\u003C/h3>\t\r\n\t\t\t\t\r\n\u003Cp style=\"text-align: justify;\">\r\nSi la mise à jour est déjà effectuée (date postérieure à juin 2007) : nous invitons les musicologues, les compositeurs (ou leur éditeur) à nous signaler toute erreur ou omission importante. Elle sera corrigée, dans la mesure du possible, au cours du trimestre suivant. De même, nous les invitons à nous faire connaître leurs œuvres nouvelles, en mentionnant tous les éléments nécessaires à la création d’une fiche œuvre nouvelle.\r\n\u003C/p>\r\n\u003Cp style=\"text-align: justify;\">\t\t\r\nSi la mise à jour n’est pas encore effectuée (indication : « mise à jour à venir ») : Les compositeurs peuvent nous signaler des erreurs ou omissions importantes. Ces indications seront prises en compte au moment de la mise à jour à venir. Un compositeur peut également demander le retrait de sa biographie dans l’attente de la mise à jour.\r\n\u003C/p>\r\n\u003Cp style=\"text-align: justify;\">\r\nPour cela : \u003Ca href=\"mailto:brahms-contenu[at]ircam[dot]fr\">écrire\u003C/a> à l’administrateur de publication\r\n\u003C/p>\r\n",{"id":14,"url":15,"titleFr":16,"titleEn":11,"contentFr":17,"contentEn":11},"a3cd05aa-3447-487a-b4fc-213ba0f77e6b","/copyrights/","Mention Légale","La reproduction de contenus de ce site Web, en tout ou partie, est formellement interdite sans la permission écrite de l'Ircam. Les textes, images, logos, codes sources sont la propriété de l'Ircam, ou de détenteurs avec lesquels l'Ircam a négocié les droits de reproduction à sa seule fin d'utilisation dans le cadre du site Brahms. Tout contrevenant s'expose à des poursuites judiciaires. ",{"id":19,"url":20,"titleFr":21,"titleEn":11,"contentFr":22,"contentEn":11},"9162642e-ea99-48c3-8d3b-2dc2a3f8ba45","/repertoire/about/","Projet Répertoire Ircam","\u003Cp>Le Projet Répertoire Ircam est une collection d’analyses musicales en ligne d’environ 70 œuvres crées à l’Ircam et considérées comme représentatives de la culture de l’institut tant sur le plan artistique que technologique.\u003C/p>\r\n\r\n\u003Cp>Ce projet a débuté en 2006-2008 avec la création d’outils auteurs mises en œuvre par le département Interfaces Recherche/Création en collaboration avec le secteur recherche de l’institut. Les premières analyses ont été mises en ligne fin 2010 et il est prévu que la collection s’élargisse à un rythme de deux ou trois nouvelles analyse par an.\u003C/p>\r\n\r\n\u003Cp>Plusieurs objectifs sont poursuivis par ce projet :\u003C/p>\r\n\r\n\u003Cul>\r\n\t\u003Cli>faire connaître les œuvres produites à l’Ircam à un public plus large,\u003C/li>\r\n\t\u003Cli>montrer la relation entre l’idée musicale et les technologies utilisés,\u003C/li>\r\n\t\u003Cli>identifier les nouveaux éléments du vocabulaire musical qui émergent à travers ces œuvres,\u003C/li>\r\n\t\u003Cli>offrir un support d’information aux interprètes.\u003C/li>\r\n\u003C/ul>\r\n\r\n\u003Cp>Chaque analyse est structurée en trois parties :\u003C/p>\r\n\r\n\u003Col>\r\n\t\u003Cli>description générale de l’œuvre,\u003C/li>\r\n\t\u003Cli>analyse des extraits de l’œuvre avec mise en relation de l’idée musicale et de l’écriture électronique,\u003C/li>\r\n\t\u003Cli>la liste de ressources spécifiques (type de problème musical abordé, technologies utilisées, œuvres abordant le même type de problématique) et générales (biographique, historique, technique).\u003C/li>\r\n\u003C/ol>\r\n\r\n\u003Cp>Les analyses seront également mises en relation avec :\u003C/p>\r\n\r\n\u003Cul>\r\n\t\u003Cli>Brahms : une base de données encyclopédique en ligne de compositeurs de musique contemporaine de toutes les nationalités dont les œuvres ont été créées après 1945. Cette base contient actuellement environ 600 références. Pour chaque compositeur, il y a une partie biographique accompagnée des sources d’information, et une autre partie qui situe l’orientation esthétique, les phases principales et le contexte historique de l’œuvre.\u003C/li>\r\n\t\u003Cli>Images d’une œuvre : une collection des interviews filmés des compositeurs.\u003C/li>\r\n\t\u003Cli>Sidney : une base de données qui contient les éléments techniques (programmes informatiques, sons etc. ) nécessaires pour l’exécution de l’œuvre.\u003C/li>\r\n\u003C/ul>\r\n\r\n\u003Cp>A plus long terme, les analyses des nouvelles œuvres créés à l’Ircam viendront se rajouter au corpus donné dans l’annexe citée ci-dessus.\u003C/p>",{"data":24},{"personMedias":25},{"firstName":26,"resume":11,"lastName":27,"medias":28},"Jean-Paul","Allouche",[29,37,44,49],{"id":30,"slug":31,"title":32,"description":33,"duration":34,"type":35,"timestamp":36},"369aa677-19bf-4480-8159-428b7b8fe187","x3a0735_analyse-multi-objective-des-series-tempore","Philippe Esling. Soutenance de thèse de doctorat : Analyse multi objective des séries temporelles - Philippe Esling","Plusieurs millions d’années d’évolution génétique ont façonné notre système auditif, élevant ainsi notre écoute au rang d’un art. Malgré un spectre de fréquences perçues quelque peu limité, nous sommes en mesure d’effectuer une discrimination précise et flexible des événements auditifs. Ces capacités uniques proviennent de la capacité qu’a notre cerveau à organiser notre perception des sons et de la musique. Nous pouvons ainsi traiter simultanément plusieurs échelles de perception contradictoires, par la construction d’une structure multidimensionnelle de la perception. De plus, même si le temps est un concept omniprésent et complexe, les êtres humains ont une capacité inhérente à extraire une structure cohérente à partir de formes temporelles. \r\n\r\nLe point de départ de notre travail était donc d’étudier ces aspects temporels et perceptuels pour la création d’un système de génération d’orchestration musicale. Nous montrons qu’en s’inspirant de cette perception musicale et en émulant ces mécanismes dans nos choix algorithmiques, nous sommes en mesure de créer des approches novatrices et efficaces de recherche et de classification générique, dépassant largement le cadre des problématiques musicales. Tout d’abord, en essayant d’imiter le caractère multi-objectif de notre perception des structures temporelles, nous proposons un cadre de recherche appelé MultiObjective Time Series (MOTS). Nous commençons par définir formellement ce nouveau problème et proposons un algorithme efficace pour le résoudre. \r\n\r\nSur la base de cette approche, nous sommes en mesure d’introduire deux paradigmes innovants de recherche sur les fichiers audio. Nous étudions l’efficacité et la facilité d’utilisation de ces paradigmes grâce à des études utilisateurs. Suite à celles-ci, nous analysons également la validité de notre proposition en analysant la perception d’évolutions temporelles conflictuelles sur des descripteurs audio de haut niveau. Nous exposons ainsi le concept de directions d’écoute multidimensionnelles qui prend naissance dans notre perception. Nous montrons que ces directions sont consistantes à travers plusieurs tâches mais également uniques à chaque personne. Après cette validation, nous introduisons un nouveau paradigme flexible de classification basé sur les hypervolumes dominés par les différentes classes, appelé HyperVolume-MOTS (HV-MOTS). Contrairement aux paradigmes classiques qui étudient la position d’un élément par rapport aux différentes classes existantes, notre système étudie le comportement de la classe entière par rapport à l’élement à travers la distribution et la diffusion d’une classe sur l’espace d’optimisation. Nous montrons que la flexibilité multi objective inspirée par notre perception musicale, produit un paradigme de classification qui surpasse les méthodes de l’état de l’art sur un large éventail de problèmes scientifiques tels que l’analyse EEG, la climatologie, le diagnostic médical, la reconnaissance de caractères et la robotique. Nous fournissons une comparaison de ce paradigme par rapport aux classificateurs classiques tels que le Nearest-Neighbor, Nearest-Center ou Support Vector Machines. Nous effectuons ensuite une évaluation exhaustive et approfondie de notre nouvelle approche et démontrons sa supériorité sur un large ensemble de données. Nous montrons en outre plusieurs applications permettant d’étudier de manière plus détaillée les forces et faiblesses de notre proposition. \r\n\r\nNous présentons l’application principale de cette méthode dans laquelle elle permet de construire un système d’identification biométrique basée sur les sons produit par les battements de coeur. En particulier, nous développons pour ce problème un nouvel ensemble de descripteurs basés sur la transformée de Stockwell et inspiré par la recherche en analyse musicale. Nous montrons que nous pouvons identifier avec précision les êtres humains à travers les sons que produit leur coeur et que nous atteignons des taux d’erreur équivalent à d’autres caractéristiques biométriques telles que la reconnaissance vocale. Ces résultats sont confirmés par le plus grand ensemble de données de sons cardiaques jamais recueillies, comprenant également l’étude d’isolation Mars500 effectuée par l’Agence Spatiale Européenne. \r\n\r\nEnfin, nous montrons comment toute cette connaissance acquise permet de revenir à nos problématiques artistiques originales d’orchestration musicale. Nous étudions ainsi le problème de la génération de mélanges sonores orchestraux imitant au mieux une cible audio donnée. En effectuant cette reconstruction, nous évitons de mélanger la similarité en une mesure de distance unique et nous utilisons un nouvel algorithme de recherche basé sur le cadre MOTS appelé Optimal Warping. Cette approche nous permet ainsi d’obtenir un ensemble de solutions efficaces qui offrent différents compromis entre les objectifs spectraux. Cet algorithme effectue une segmentation morphologique basée sur l’analyse de la variation d’entropie des séries temporelles. Nous présentons enfin plusieurs interfaces et applications musicales qui résultent de nos travaux.\r\n\r\n(Manque tout début de la soutenance)","01 h 36 min","video","2012-12-05",{"id":38,"slug":39,"title":40,"description":41,"duration":42,"type":35,"timestamp":43},"83f306d3-614b-45ab-8e61-f546d8796e51","xf042eb","Soutenance de thèse de Hélianthe Caure : Canons rythmiques et pavages modulaires - Hélianthe Caure","","41 min","2016-06-24",{"id":45,"slug":46,"title":47,"description":41,"duration":48,"type":35,"timestamp":43},"be706881-8e8c-418f-9a81-35766e98ed84","xc2b2d9","Soutenance de thèse de Hélianthe Caure - Questions du Jury - Hélianthe Caure","32 min",{"id":50,"slug":51,"title":52,"description":41,"duration":53,"type":35,"timestamp":54},"8aa7ca7d-a9b2-4c9f-8b24-0c13f81a1401","xfb6c4d","Soutenance de thèse de Grégoire Genuys : questions du Jury - Grégoire Genuys","58 min","2017-10-23",["Reactive",56],{"$si18n:cached-locale-configs":57,"$si18n:resolved-locale":63,"$snuxt-seo-utils:routeRules":64,"$ssite-config":65},{"fr":58,"en":61},{"fallbacks":59,"cacheable":60},[],true,{"fallbacks":62,"cacheable":60},[],"en",{"head":-1,"seoMeta":-1},{"_priority":66,"currentLocale":70,"defaultLocale":71,"description":72,"env":73,"name":74,"url":75},{"name":67,"env":68,"url":69,"description":67,"defaultLocale":69,"currentLocale":69},-3,-15,-2,"en-US","fr-FR","Ressources IRCAM est une plateforme de ressources musicales et sonores, développée par l'IRCAM, pour les artistes, les chercheurs et les passionnés de musique.","production","Ressources IRCAM","https://ressources.ircam.fr",["Set"],["ShallowReactive",78],{"/person/Jean-Paul-Allouche":-1,"flat pages":-1},"/en/person/Jean-Paul-Allouche"]