10.07.2015 Views

RAPPORT D'ACTIVITÉ 2003 - WWW Ircam

RAPPORT D'ACTIVITÉ 2003 - WWW Ircam

RAPPORT D'ACTIVITÉ 2003 - WWW Ircam

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>RAPPORT</strong>D’ACTIVITÉ<strong>2003</strong><strong>RAPPORT</strong> DE SYNTHESE<strong>RAPPORT</strong> DETAILLE


- 2 -


SOMMAIRESOMMAIRE.................................................................. 3INTRODUCTION................................................ 121 ERE PARTIE - <strong>RAPPORT</strong> DE SYNTHESE ................................... 16RECHERCHE ET DEVELOPPEMENT............................................... 18PEDAGOGIE................................................................ 24COORDINATION ARTISTIQUE & SCIENTIFIQUE................................... 29RELATIONS EXTERIEURES.................................................... 32MEDIATHEQUE & BUREAU D’ETUDES............................................ 35COMMUNICATION............................................................ 362EME PARTIE : <strong>RAPPORT</strong> DETAILLE...............................38RECHERCHE ET DEVELOPPEMENT............................................... 401 ACOUSTIQUE........................................................... 401.1 ACOUSTIQUE INSTRUMENTALE ............................................. 401.1.1 Modèle d'interaction cordes-marteau............................ 411.1.2 Étude des écoulements dans les instruments à anche double...... 411.1.3 Influence du conduit respiratoire dans le fonctionnement desinstruments à vent................................................... 421.1.4 Bouche artificielle multi-instruments.......................... 431.1.5 Projet DOREMI.................................................. 441.1.6 Synthèse par modélisation physique - Logiciel Modalys.......... 451.1.7 Techniques de calculs numériques appliquées à la synthèse dansModalys.............................................................. 451.1.8 Interface de programmation et contrôle temps réel.............. 451.1.9 Projets de valorisation autour de modifications d'instruments.. 451.1.10 Publications et communications............................... 461.2 ACOUSTIQUE DES SALLES................................................ 471.2.1 Outils auteurs pour l’édition et le contrôle de scènes sonores. 481.2.2 Description automatique de scène............................... 501.2.3 Cognition spatiale auditive.................................... 511.2.4 Technologies de reproduction binaurale......................... 561.2.5 Reproduction de champ sonore................................... 591.2.6 Projet Listen.................................................. 611.2.7 Projet Carrouso................................................ 631.2.8 Publications et communications................................. 631.3 DESIGN SONORE ...................................................... 661.3.1 Diffusion et espace............................................ 661.3.2 Design sonore et perception.................................... 671.3.3 Publications et communications................................. 682 PERCEPTION ET COGNITION MUSICALES.................................... 702.1 ANALYSE ET CODAGE SENSORIEL DU SIGNAL ................................... 702.1.1 Perception de modulation de fréquence.......................... 702.1.2 Modèles et méthodes d'annulation............................... 712.1.3 Estimation de Fréquences Fondamentales Multiples, estimationd'effet de salle..................................................... 712.2 ANALYSE DES SCENES AUDITIVES .......................................... 712.2.1 Illusion de continuité auditive : intégration temporelle....... 712.2.2 Démasquage par comodulation : intégration fréquentielle........ 722.3 PERCEPTION DES ATTRIBUTS AUDITIFS ET DES SOURCES SONORES.................... 722.3.1 Modèles de perception de la hauteur............................ 722.3.2 Espace et action............................................... 732.3.3 Mécanismes temporels........................................... 732.3.4 Effet de la fréquence fondamentale sur la perception du timbre. 732.3.5 Bases cérébrales de la perception du timbre et de lareconnaissance des objets sonores.............................. 742.3.6 Perception des propriétés physiques d'une source............... 74- 3 -


2.4 QUALITE, ERGONOMIE ET DESIGN SONORE .................................... 752.4.1 Caractérisation perceptive et design sonore des avertisseursd'automobiles........................................................ 752.4.2 Perception et design de l’ambiance sonore des trains et gares.. 762.4.3 Interactions sensorielles dans la qualité perçue d'un véhicule. 762.4.4 Signalétique sonore à l’intérieur d’un habitacle de véhicule... 772.5 COGNITION MUSICALE .................................................. 772.5.1 Apprentissage implicite des règles de construction de séquencesde timbre............................................................ 782.5.2 Analyse de données d'évaluation en temps réel de l'écoutemusicale............................................................. 782.5.3 Projets de publication autour du projet Reynolds............... 792.5.4 Cognition et émotion musicale.................................. 792.5.5 Analyse perceptive de la structure des musiques arabesimprovisées.......................................................... 792.6 OUTILS D'ANALYSE DE DONNEES........................................... 802.6.1 Données manquantes dans l'analyse multidimensionnelle desproximités........................................................... 802.6.2 Traitement des objets symboliques dans la fouille des données.. 802.7 AUTRES ACTIVITES.................................................... 812.7.1 Organisation du XIIIth International Symposium on Hearing...... 812.7.2 Organisation des Journées Jeunes Chercheurs et de Journées DesignSonore............................................................... 812.8 PUBLICATIONS ET COMMUNICATIONS ........................................ 823 ANALYSE ET SYNTHESE DES SONS......................................... 873.1 MODELES D'ANALYSE ET DE SYNTHESE DU SIGNAL AUDIO .......................... 873.1.1 Amélioration de l’analyse additive............................. 873.1.2 Contrôle de la synthèse par sélection d'unités................. 883.1.3 Plugin Psola dans Diphone...................................... 883.1.4 Détection des transitoires..................................... 893.1.5 Classification des pics spectraux.............................. 893.1.6 Traitement pour le film Tirésia................................ 903.1.7 Transformation de la voix...................................... 903.1.8 Synthèse de la voix à partir du texte.......................... 913.2 NOUVEAUX OUTILS POUR L’ANALYSE MUSICALE ................................. 913.2.1 Estimation des fréquences fondamentales multiples.............. 913.2.2 Outils d’étude d’œuvres enregistrées avec partition............ 923.2.3 Modèles d'instruments pour la transcription et la séparationd'enregistrements musicaux........................................... 933.3 TRAITEMENT PAR LE CONTENU ET MULTIMEDIA ................................. 933.3.1 Descripteurs et applications pour le traitement par le contenu. 943.3.2 Reconnaissance des instruments et indexation des enregistrements953.3.3 Collaboration multimodale pour l'indexation.................... 953.3.4 PHASE, Plateforme Haptique d'Application Sonore pour l'Éveilmusical.............................................................. 963.4 MODELES PHYSIQUES DE PRODUCTION SONORE ET INVERSION DE MODELES ............... 973.4.1 Etude des écoulements dans les instruments à anche double...... 983.4.2 Inversion et estimation de paramètres.......................... 983.5 DEVELOPPEMENTS ..................................................... 993.5.1 Logiciel SuperVP............................................... 993.5.2 Logiciel AudioSculpt........................................... 993.5.3 Logiciel Diphone Studio....................................... 1003.5.4 Autres Développements......................................... 1003.6 PUBLICATIONS ET COMMUNICATIONS ....................................... 1004 REPRESENTATIONS MUSICALES........................................... 1034.1 MUSICOLOGIE COMPUTATIONNELLE ET ANALYSE MUSICALE ......................... 1034.1.1 Mathématiques et Musique : Approche algébrique des théoriesmusicales........................................................... 1034.1.2 Extraction automatique des similarités et des périodicités dansles partitions musicales...................................... 1044.1.3 Automatiser l’analyse motivique à l’aide d’heuristiquesperceptives......................................................... 1054.1.4 Etude du rythme formel, composition de la forme dans le temps. 1074.2 RECHERCHE ADAPTATIVE ET COMPOSITION ASSISTEE PAR ORDINATEUR................ 107- 4 -


4.3 APPRENTISSAGE DU STYLE, IMPROVISATION, <strong>RAPPORT</strong>S D’ECHELLES TEMPORELLES ....... 1094.3.1 Apprentissage de séquences musicales, applications àl'improvisation..................................................... 1094.3.2 Suivi de tempo en temps réel appliqué au jazz et aux musiquesimprovisées......................................................... 1104.4 DEVELOPPEMENTS .................................................... 1114.4.1 SDIF-Edit : Représentation et manipulation de données d'analysesonore pour la composition musicale................................. 1114.4.2 OpenMusic sous Linux.......................................... 1134.4.3 Services MIDI sous OpenMusic.................................. 1144.4.4 Améliorations de l’ergonomie des maquettes OpenMusic.......... 1154.5 PUBLICATIONS ET COMMUNICATIONS ....................................... 1165 FORMULATION DU MUSICAL.............................................. 1195.1 ECOUTES SIGNEES ................................................... 1195.1.1 Andrea Cera................................................... 1195.1.2 Bachothèque................................................... 1205.1.3 Outils d’aide à l’annotation.................................. 1215.1.4 Autres maquettes.............................................. 1215.2 PRATIQUES MUSICALES EN RELATION AVEC L’ANALYSE D’AUTRES ACTIVITES ........... 1215.2.1 Préparation du projet d’étude du processus de composition deVoi(r)e(x) par Leroux............................................... 1215.2.2 Travaux de systématisation du programme de recherche « coursd’action ».......................................................... 1225.3 PSYCHO-PHENOMENOLOGIE DES ACTIVITES MUSICALES ........................... 1225.4 GUIDES D’ECOUTE ET FONCTION DES GESTES ANALYTIQUES AU TOURNANT DU VINGTIEME SIECLE1235.5 PUBLICATIONS ET COMMUNICATIONS ....................................... 1236 APPLICATIONS TEMPS REEL............................................. 1256.1 SUIVI DE PARTITION ................................................. 1256.1.1 Portage du système de suivi de partition temps réel sur Max/MSP1256.1.2 Mise au point du suivi de partition MIDI...................... 1266.1.3 Suivi de texte récité......................................... 1266.2 DIVERS DEVELOPPEMENTS POUR MAX/MSP ................................... 1266.2.1 Portage de modules Max/MSP utilisés dans le répertoire de l’<strong>Ircam</strong>sous MacOSX......................................................... 1266.2.2 Portage de modules de synthèse de jMax sous Max/MSP........... 1276.2.3 Nouveaux modules de traitement de signal pour Max/MSP......... 1276.2.4 Portage de modules de synthèse par modèle physique pour Max/MSP1276.2.5 Environnement de développement de plug-ins multi-standards.... 1286.3 FTM............................................................. 1286.3.1 Développement de la bibliothèque FTM et de modules de base pourMax/MSP............................................................. 1296.3.2 Intégration d’éditeurs graphiques en Java pour FTM sur Max/MSP 1296.4 ANALYSE DU MOUVEMENT ET DU GESTE ...................................... 1306.5 DEVELOPPEMENTS ET FORMATIONS JMAX ..................................... 1306.6 PUBLICATIONS ET COMMUNICATIONS ....................................... 1307 LOGICIELS LIBRES ET INGENIERIE LOGICIELLE........................... 1327.1 DEVELOPPEMENT DE JMAX .............................................. 1327.1.1 Appel à contribution pour le développement d'une interfacegraphique basée sur Python.......................................... 1327.1.2 Prototypage d'une interface graphique basée sur Python........ 1337.1.3 Etude de l'utilisation de SWT/Eclipse......................... 1347.1.4 Intégration avec les plug-ins LADSPA.......................... 1347.1.5 Intégration avec les plugins VST.............................. 1357.1.6 Paquetages vidéo.............................................. 1357.1.7 Version Windows............................................... 1367.1.8 Etude du portage de FTS sur plateforme embarquée.............. 1367.1.9 Distributions................................................. 1377.2 OPENMUSIC ........................................................ 1377.2.1 Portage d’OpenMusic sur Linux................................. 1377.2.2 Projet Sourceforge............................................ 1387.2.3 Distributions................................................. 1387.3 GRILLES DE CALCUL .................................................. 1397.3.1 Installation de Globus Toolkit................................ 1397.3.2 Développement d'un portail web................................ 140- 5 -


7.4 CONCERT VIRTUEL REPARTI ............................................ 1407.4.1 Développement de la bibliothèque nJam pour jMax............... 1417.4.2 Expérimentation à Résonances <strong>2003</strong>............................. 1417.5 SITE WEB FREESOFTWARE.IRCAM.FR ....................................... 1427.6 RESONANCES <strong>2003</strong>................................................... 1427.6.1 Linux install party........................................... 1427.6.2 Colloque « Logiciels libres pour la musique »................. 1437.7 DISSEMINATION ..................................................... 1437.8 PUBLICATIONS ET COMMUNICATIONS ....................................... 1448 SERVICES EN LIGNE................................................... 1458.1 FINALISATION DU PROJET CUIDADO : LA SOUND PALETTE II .................... 1458.1.1 Gérer en ligne les données audionumériques.................... 1468.1.2 Organiser et décrire le son................................... 1478.1.3 Partager, contrôler, interdire................................ 1508.1.4 Intégration des contributions scientifiques................... 1528.1.5 Développement du niveau applicatif commun..................... 1538.1.6 Développement des applications : la Sound Palette II.......... 1558.1.7 Les autres applications....................................... 1578.1.8 Finalisation du projet Cuidado................................ 1588.2 PARTICIPATION AU MONTAGE DU PROJET SEMANTICHIFI ......................... 1598.3 GESTION ET COORDINATION DU PROJET CUIDADO .............................. 1598.4 PROJETS LUTIN/LUCSI................................................ 1598.5 PUBLICATIONS ET COMMUNICATIONS ....................................... 1609 SERVICES LOGISTIQUES................................................ 1629.1 SERVICE INFORMATIQUE ............................................... 1629.1.1 MacOSX........................................................ 1629.1.2 Serveurs et PPRI.............................................. 1639.1.3 Réseaux internes et externes.................................. 1659.2 ATELIER MECANIQUE .................................................. 1659.2.1 Réalisations pour le département Recherche et développement... 1659.2.2 Réalisations pour le département Création..................... 16610 ANNEXE : SYNTHESE DU DOCUMENT BILAN-PROSPECTIVE <strong>2003</strong>.............. 16710.1 OBJET ET FORME DU DOCUMENT........................................... 16710.2 COMPOSER LE SON ................................................... 16710.2.1 Ecriture du son............................................. 16810.2.2 Synthèse et traitement par le contenu....................... 16810.2.3 Lutherie virtuelle.......................................... 16810.2.4 Synthèse et traitement de la parole......................... 16910.2.5 Grille de calcul............................................ 16910.3 INSTRUMENTS ELECTRONIQUES ........................................... 16910.3.1 Echantillonneur SDIF........................................ 17010.3.2 Modèles physiques temps réel................................ 17010.3.3 Captation du geste instrumental............................. 17010.3.4 Instruments spatialisés..................................... 17010.4 CONCEPTIONS DE L’INTERACTION ......................................... 17110.4.1 Reconnaissance des formes musicales......................... 17110.4.2 Mouvement du corps et processus musicaux.................... 17110.4.3 Improvisation et rythme..................................... 17110.4.4 Concert distribué........................................... 17210.5 L’ESPACE MUSICAL .................................................. 17210.5.1 Wavefield Synthesis......................................... 17210.5.2 Ecriture de la spatialisation............................... 17210.5.3 Interactions image/son/geste................................ 17210.5.4 Environnement du son........................................ 17310.6 NOUVELLES FORMES DE MEDIATION DE LA MUSIQUE ............................ 17310.6.1 Outils d’analyse............................................ 17310.6.2 Instruments d’écoute........................................ 17410.6.3 Outils auteur pour l’écriture hypermédia.................... 17411 ANNEXE : SEMINAIRE RECHERCHE ET CREATION.......................... 175CREATION ET DIFFUSION MUSICALES......................................... 1781 LA CREATION MUSICALE................................................ 1781.1 LA SELECTION DES COMPOSITEURS ........................................ 1791.1.1 Le comité de lecture.......................................... 1791.1.2 La sélection de l’<strong>Ircam</strong>....................................... 180- 6 -


1.2 LES COMPOSITEURS EN PRODUCTION ....................................... 1801.3 LES COMPOSITEURS EN RECHERCHE ........................................ 1881.4 LES COMPOSITEURS DU CURSUS DE COMPOSITION ET D’INFORMATIQUE MUSICALE ......... 1881.5 LES PORTAGES ...................................................... 1892 LA DIFFUSION DE LA CREATION MUSICALE................................ 1902.1 LA SAISON MUSICALE PARISIENNE ........................................ 1902.2 LE FESTIVAL AGORA ................................................. 1962.2.1 Les rencontres................................................ 2042.3 RESONANCES ....................................................... 2052.3.1 Les manifestations artistiques dans le cadre de Résonances.... 2052.4 LES TOURNEES ...................................................... 2052.5 LE RESEAU VARESE .................................................. 2072.6 LES ENREGISTREMENTS DISCOGRAPHIQUES ................................... 208PEDAGOGIE............................................................... 2101 FORMATIONS PROFESSIONNELLES......................................... 2101.1 LE CURSUS DE COMPOSITION ET D’INFORMATIQUE MUSICALE ...................... 2101.1.1 Organisation.................................................. 2101.1.2 Les étudiants................................................. 2111.1.3 L’équipe...................................................... 2121.1.4 Environnement de travail...................................... 2121.1.5 La résidence post-cursus...................................... 2121.2 LE STAGE DE COMPOSITION ET D’INFORMATIQUE MUSICALE - JUIN <strong>2003</strong> ............ 2131.2.1 Cours techniques.............................................. 2131.2.2 Cours de composition.......................................... 2131.2.3 Les stagiaires................................................ 2131.2.4 L’équipe...................................................... 2131.2.5 Environnement de travail...................................... 2131.3 STAGES LOGICIELS................................................... 2141.3.1 Synthèse et Traitement du son................................. 2141.3.2 Ecriture musicale assistée par ordinateur..................... 2141.3.3 Interaction Temps réel........................................ 2151.4 STAGES THEMATIQUES .............................................. 2171.4.1 Stages Design sonore.......................................... 2171.4.2 Stages Musiques actuelles..................................... 2181.4.3 Stage captation du geste pour le théâtre et pour la danse..... 2191.4.4 Stage Spatialisateur dans ProTools............................ 2191.5 FORMATIONS A LA DEMANDE ............................................. 2201.5.1 Formation Numérisation des fonds sonores...................... 2202 FORMATIONS UNIVERSITAIRES........................................... 2212.1 DIPLOME D’ETUDES APPROFONDIES EN ACOUSTIQUE, TRAITEMENT DU SIGNAL ET INFORMATIQUEAPPLIQUES A LA MUSIQUE : DEA ATIAM - ANNEE UNIVERSITAIRE 2002/<strong>2003</strong> ............. 2212.1.1 Objectif...................................................... 2212.1.2 Organisation et orientation pour l’année universitaire <strong>2003</strong>-20042222.1.3 Suivi pédagogique............................................. 2222.1.4 Équipe doctorale.............................................. 2232.1.5 Les enseignants pour l’année 2002/<strong>2003</strong>........................ 2232.1.6 Les étudiants de l’année universitaire 2002/<strong>2003</strong>.............. 2242.1.7 Résultats de la promotion 2002/<strong>2003</strong>........................... 2242.1.8 Les étudiants en thèse en <strong>2003</strong>................................ 2242.2 DIPLOME D’ETUDES APPROFONDIES, MUSIQUE HISTOIRE SOCIETE : DEA MHS ........ 2242.2.1 Histoire des techniques musicales au XXe siècle............... 2252.2.2 Evolutions de la théorie et de l’analyse musicales au XXe siècle2262.2.3 Les enseignants pour l’année universitaire 2002/<strong>2003</strong>.......... 2272.3 DIPLOME D’ETUDES SUPERIEURES SPECIALISEES : JEUX INTERACTIFS ET VIDEOMULTIMEDIA : DESS ....................................................... 2272.3.1 Suivi pédagogique............................................. 2272.3.2 Les enseignants............................................... 2282.3.3 Les étudiants................................................. 2283 FORMATIONS SCOLAIRES................................................ 2293.1 ATELIERS MUSIQUE LAB ............................................... 2293.2 AUTRES ATELIERS ................................................... 2303.2.1 La découverte du son.......................................... 2303.2.2 Création collective........................................... 2303.2.3 Le son à portée de main :..................................... 230- 7 -


3.3 FORMATIONS A LA DEMANDE ............................................. 2323.3.1 Ateliers d’expression artistique.............................. 2323.3.2 Journée « Mathémusiques »..................................... 2323.3.3 Formation sur le thème « à la découverte de l’<strong>Ircam</strong> »........ 2334 CONFERENCES GRAND PUBLIC............................................ 2344.1 ÉTAT DE L’ART ..................................................... 2344.1.1 La synthèse de la voix aujourd’hui............................ 2344.1.2 Le suivi de partition : un atout scientifique pour la créationmusicale............................................................ 2344.1.3 Intelligence artificielle, vie artificielle et création numérique2344.1.4 Captation gestuelle pour le spectacle vivant.................. 2344.1.5 La web radio culturelle....................................... 2354.2 CREATION ET TECHNOLOGIES ............................................ 2354.2.1 VOI(REX) : le modèle du modèle............................... 2354.2.2 L’écriture électronique et instrumentale dans Répons etAnthèmes 2.......................................................... 2354.2.3 Nouvelles technologies dans l’opéra K......................... 2354.2.4 Autour de sa monographie : … de tiempo y de arena…............ 2354.2.5 Découverte de La Frontière, création de Philippe Manoury, le1 er octobre <strong>2003</strong> à Orléans........................................... 2364.2.6 Lichtung 1 et Lichtung 2...................................... 2364.2.7 « Comment je l’entends » : Présentation de sa création Noon... 2364.3 TRAJECTOIRES ...................................................... 2364.3.1 L’impossible table rase dans la musique après 1950............ 2364.3.2 La musique ne se fait pas qu’avec des signes.................. 2364.3.3 De l'acoustique à l'acousmate : l'art sonore artificiel....... 2374.4 METISSAGES ....................................................... 2374.4.1 Réalités virtuelles et art vivant............................. 2374.4.2 Maâllem Experience, création numérique transculturelle etmultiforme.......................................................... 2374.4.3 Composer pour un film existant : quelle relation musique/film ?2374.4.4 Corps à corps, pièce de théâtre musicale pour zarb (instrument depercussion iranien)................................................. 2374.4.5 La captation du geste : liens musique et danse................ 2384.5 ACCUEIL ENTRETEMPS ET MAMUX ......................................... 2384.5.1 Débats et séminaires Entretemps............................... 2384.5.2 Séminaires MaMuX.............................................. 2405 FORMATIONS HORS LES MURS............................................ 2425.1 BRESIL........................................................... 2425.2 LE FRESNOY ....................................................... 242RELATIONS EXTERIEURES................................................... 2431 VALORISATION DE LA RECHERCHE........................................ 2431.1 BREVETS .......................................................... 2431.1.1 Demandes de brevets :......................................... 2431.1.2 Brevets délivrés :............................................ 2431.2 LICENCES DE BREVETS ................................................ 2431.3 COLLABORATIONS INDUSTRIELLES ......................................... 2431.4 PRESTATIONS DE SERVICE .............................................. 2442 PROJETS NATIONAUX ET EUROPEENS...................................... 2452.1 PROJETS ACTIFS OU TERMINES EN <strong>2003</strong> ................................... 2452.1.1 CUIDADO....................................................... 2452.1.2 Semantic HIFI................................................. 2462.1.3 LISTEN........................................................ 2462.1.4 CARROUSO...................................................... 2472.1.5 AGNULA........................................................ 2472.1.6 PHASE......................................................... 2472.1.7 DVD à la Carte................................................ 2472.1.8 MUSICNETWORK.................................................. 2482.1.9 DOREMI........................................................ 2482.1.10 MusicWeb.................................................... 2492.1.11 MUSTICA..................................................... 2492.1.12 LUTIN....................................................... 2492.2 PROJETS ACCEPTES EN 2004 ........................................... 2502.2.1 OPERA......................................................... 250- 8 -


2.2.2 WindSet,...................................................... 2502.2.3 Epicure....................................................... 2502.3 PROJETS REFUSES ................................................... 2502.3.1 ORCHESTRATOR.................................................. 2502.3.2 SuperMultimedia............................................... 2512.3.3 Enames........................................................ 2512.3.4 ForMUSIC...................................................... 2512.3.5 XMEDIA........................................................ 2522.3.6 GET........................................................... 2522.3.7 EuroCode...................................................... 2522.3.8 PROMETO....................................................... 2522.4 PROJETS PRESENTES EN ATTENTE ......................................... 2532.4.1 PEARLS........................................................ 2532.4.2 PHIDIAS....................................................... 2532.4.3 OpenMove...................................................... 2532.4.4 Medialex...................................................... 2533 FORUM, DIFFUSION DES PRODUITS, LOGICIELS ET EDITIONS................ 2553.1 EVOLUTION DU NOMBRE D’UTILISATEURS (5 ABONNES PAR MEMBRE INSTITUTIONNEL) ..... 2553.2 EVOLUTION DU CHIFFRE D’AFFAIRES ...................................... 2553.3 EVOLUTION DES INSCRIPTIONS PAR BOUQUET ................................. 2563.4 EVOLUTION DES INSCRIPTION INDIVIDUELLES ET PAR UN ORGANISME ................ 2563.5 REPARTITION GEOGRAPHIQUE ............................................ 2573.6 REPARTITION PAR ACTIVITES ........................................... 2573.7 EVOLUTION DES PLATE FORMES........................................... 2583.8 SITE FORUMNET..................................................... 2583.9 ATELIERS DU FORUM.................................................. 2593.10 DOCUMENTATIONS LOGICIELS EDITEES ...................................... 2603.11 VENTES DE LOGICIELS ET D’EQUIPEMENTS .................................. 2603.12 REDEVANCES ....................................................... 2603.13 VENTE DES EDITIONS ................................................. 2604 STUDIO HYPERMEDIA................................................... 2624.1 ECOUTES SIGNEES ................................................... 2624.2 WEB RADIO ........................................................ 2634.3 DVD A LA CARTE.................................................... 2634.4 VALORISATION D’ARCHIVES SONORES ...................................... 2644.5 SUPPORT TECHNIQUE AUX EDITIONS ....................................... 2645 EDITIONS............................................................ 2665.1 EDITION LIVRES .................................................... 2665.2 EDITION DISQUES ................................................... 2665.3 EDITION CEDEROM ................................................... 2665.4 SITES WEB ........................................................ 2665.5 DOCUMENTATIONS MUSICALES ............................................ 2675.6 INFORMATION ET VEILLE TECHNOLOGIQUE ................................... 2676 COMMUNICATION....................................................... 2696.1 SUPPORTS DE COMMUNICATION ........................................... 2696.1.1 Festival Agora <strong>2003</strong> - Du 10 au 24 juin........................ 2696.1.2 Brochure annuelle (Saison <strong>2003</strong>-2004 y compris Résonances) :.. 2696.1.3 Résonances <strong>2003</strong> - Du 15 au 24 octobre......................... 2696.1.4 Dossier de presse Recherche................................... 2696.2 DIFFUSION DE L’INFORMATION .......................................... 2696.3 ACCUEIL DU PUBLIC, BILLETTERIE ....................................... 2706.3.1 Saison musicale et pédagogique :.............................. 2706.3.2 Agora :....................................................... 2706.3.3 Résonances :.................................................. 2706.4 MANIFESTATIONS EXTERIEURES........................................... 2706.5 PUBLICATIONS/<strong>RAPPORT</strong>S/PRESSE......................................... 2707 PROJETS TRANSVERSAUX................................................ 2717.1 RESONANCES ....................................................... 2717.1.1 Concerts...................................................... 2717.1.2 Installations................................................. 2727.1.3 Semaine scientifique : les outils d’analyse................... 2727.1.4 Semaine professionnelle : les technologies dans le spectaclevivant.............................................................. 2737.1.5 Portes ouvertes............................................... 2747.1.6 Partenaires des Résonances <strong>2003</strong>............................... 274- 9 -


7.2 PROJET ENSEIGNEMENTS ARTISTIQUES ..................................... 276LA MEDIATHEQUE.......................................................... 2791 MUTATIONS........................................................... 2791.1 PUBLICS .......................................................... 2791.2 ACQUISITION ET CATALOGAGE ........................................... 2791.2.1 Fonds numériques.............................................. 2791.3 RELATIONS EXTERIEURES............................................... 2801.4 INFRASTRUCTURE INFORMATIQUE .......................................... 280INDICATEURS............................................................. 2811.6 PERSONNEL ........................................................ 2821.7 PUBLICATIONS ET COMMUNICATIONS ....................................... 2832 ÉTUDES ET METHODES.................................................. 2842.1 DEVELOPPEMENT WINDOWS ET MUSIQUELAB ................................... 2842.2 SYSTEME D’INFORMATION DE L’IRCAM ..................................... 2852.3 LE CHANTIER DU NUMERIQUE SONORE....................................... 2872.3.1 Archives de la création et de la production musicales de l’<strong>Ircam</strong>2872.3.2 Formation sur la numérisation de documents sonores............ 2882.3.3 Plan de numérisation coordonné par la MRT..................... 2882.3.4 Livre blanc sur la gravure de CD.............................. 2882.4 SUPPORT TECHNIQUE .................................................. 2892.5 RELATIONS EXTERIEURES............................................... 2892.6 PERSONNEL ........................................................ 2892.7 PUBLICATIONS ET COMMUNICATIONS ....................................... 290L’EQUIPE IRCAM.......................................................... 291- 10 -


- 11 -


INTRODUCTIONINTRODUCTIONBernard Stiegler , DirecteurAndré Santelli , Directeur adjointL’année <strong>2003</strong> doit être considérée comme la première année deréalisation du projet mis en place par l’actuelle directiongénérale. Après l’énoncé des priorités et des enjeux, aprèsl’indispensable étape de diagnostic et de débats internes avecl’ensemble des acteurs concernés par l’institut, <strong>2003</strong> permetmaintenant de mesurer les premiers résultats tangiblesenregistrés sur plusieurs axes .C’est tout d’abord la relation avec la communauté descompositeurs qui a commencé à changer de nature. Pour ce quiconcerne la question décisive de la prescription de larecherche scientifique par la recherche musicale, ainsi que durapport entre recherche et développement, elle est devenueconstructive et dynamique après une phase d’observation et demalentendus. Le principal acquis de cette année tient en effetpour l’essentiel au renforcement réussi de la coordinationentre recherche et création, entre chercheurs et compositeurs.Un important travail de bilan et de prospective élaboré parl’ensemble des équipes de recherche a été débattu enséminaires durant le deuxième semestre de l’année en présenced’un grand nombre de compositeurs. Il constitue la premièreétape de la relance du chantier de la recherche musicale quidoit être évidemment poursuivi sur le moyen et le long terme.Ce travail n’a pas été aisé puisqu’il s’agissait de mutualiserles points de vue sans réduire les préoccupations singulièresde chacun des compositeurs qui garantissent l’efficacité deleur implication. Ces échanges ont démontré qu’il était devenunécessaire de commencer par porter à connaissance del’ensemble de la communauté des compositeurs les acquisimportants et riches de développement enregistrés par leséquipes de recherche durant ces dernières années, et dont lacommunauté musicale n’a pas toujours une claire conscience, etqu’il fallait en conséquence modifier les instrumentsd’information et de discussion entre scientifiques etartistes .Les débats sur le sens musical des nombreuses recherches encours, exposées pour l’occasion, ont permis de dégager huitthèmes prioritaires de travail qui feront l’objet de groupesspécifiques. Ils seront l’occasion d’une approche beaucoupplus transversale dans les équipes induite par le regard ducompositeur qui confronte ses propres spéculationsartistiques. De nombreuses problématiques nécessiteront doncd’intensifier les liens entre les équipes, par exemple Tempsréel et Représentation musicale.Enfin, les thèmes retenus permettront des applicationsrapides, dans le domaine du suivi de partition ou du gesteinstrumental par exemple, ou bien au contraire nécessiterontune définition plus approfondie pour dégager des choix ciblés- 12 -


INTRODUCTIONsur des projets de compositeurs en recherche (pour la voix oul’orchestration notamment). L’année 2004 doit nous permettrede prendre ces décisions pour, avec les compositeurs, mesurerles priorités et engager les moyens nécessaires de larecherche musicale ainsi réactualisée et intensifiée.L’arrivée du nouveau directeur artistique en avril <strong>2003</strong> a étél’occasion d’une remise à plat des priorités artistiques de lamaison. Plusieurs objectifs ont été formulés pour, dès avantl’été, donner une nouvelle impulsion. Simultanément à laréactualisation du chantier de la recherche musicale, ils’agissait de profiter d’un regard nouveau pour redéfinir ouréajuster certains axes de la politique artistique. Lesmodalités d’accueil des compositeurs en production, lefestival, la saison de concerts devaient être l’occasiond’affirmer une nouvelle signature musicale.Cette charge se doublait de l’indispensable travail en équipetant avec la direction de la recherche que de la production.Après six mois de prise de fonction du nouveau directeurartistique, à la rentrée <strong>2003</strong>, une coordination de l’ensembledes équipes artistiques a donc été mise en place afin defaciliter l’émergence du nouveau projet. Il a été décidéégalement de renforcer le rôle de la direction pédagogique,nouvellement chargée de suivre le dossier Pôle Spectacle, poursoulager la direction artistique et permettre le déroulementde cette nouvelle phase très attendue.Mais dès le mois de novembre, la communauté artistiquelaissait ouvertement percevoir des signes d’impatience etparfois d’irritation devant les difficultés de la directionartistique à établir une relation claire et efficace. Cettesituation confirmait en définitive, malgré l’allègement de lacharge et le soutien de l’ensemble du comité de direction, quenous avions échoué dans ce nouveau recrutement.Malgré l’absence de l’indispensable signature musicale de ladirection artistique qui confère la valeur et le rayonnementde nos choix dans ce domaine, c’est paradoxalement à ce momentde l’année que l’ensemble de la maison était parvenue àtrouver un fonctionnement collectif réellement efficace pourservir le projet de l’institut.Grâce à cela, la saison artistique a concrètement permisl’aboutissement de nombreux projets importants en créationdont l’<strong>Ircam</strong> doit se prévaloir. Au total, ce sont douze piècesnouvelles qui ont été données en <strong>2003</strong>. Parmi celles-ci, ilfaut noter notamment le Quatuor à cordes de Jonathan Harvey,la pièce VOI(R)EX de Philippe Leroux qui ont rencontré unexcellent accueil de la critique musicale.L’année <strong>2003</strong> a permis l’installation du Pôle de Recherche pourle Spectacle au sein des équipes de recherche avec l’arrivéede Frédéric Bevilacqua et le choix de cinq projets d’artistesqui se développeront sur les deux prochaines années. Avec,parmi ses principaux thèmes la spatialisation, la voix, legeste, la générativité du texte et l’improvisaiton, ilconcerne différents secteurs de la recherche.- 13 -


INTRODUCTIONLors des Résonances <strong>2003</strong>, la présentation publique de cetteactivité qui a réuni un très grand nombre de participants, adémontré le besoin dans le champ interdisciplinaire etl’intérêt, du rôle et de la place que l’<strong>Ircam</strong> entend occuperdans ce domaine.Par ailleurs, nous avons construit grâce à une nouvellecoordination des équipes artistiques, notre priorité enprivilégiant l’activité de nos studios mise au cœur de lapolitique artistique.En apportant un soin renouvelé à la construction de chacun desprojets en production, notre souci permanent d’uneanticipation plus grande avec les compositeurs et lescoproducteurs dans l’élaboration des projets vise à garantir àl’<strong>Ircam</strong> une place de choix afin d’éviter le risque toujoursréel d’un rôle de simple prestataire technique. Les décisionsprises dans ce sens porteront leur fruit dès la saison 2004/2005.Pour conclure cette introduction qui ne fait que souligner lesfaits les plus marquants de l’année, nous sommes heureux deciter la signature de la Convention triennale passée entre leministère de l’Education nationale et le ministère de laCulture. Elle récompense nos efforts dans ce domaine, et nousassigne un rôle nouveau pour, à partir de la deuxièmegénération des MusiqueLab, non seulement nous adresser auxcollèges et lycées, mais, pour la première fois, travailler encollaboration avec l’ensemble du réseau des conservatoires etécoles nationales de musique de France.Cette nouvelle impulsion conforte la place que peut dorénavantoccuper l’<strong>Ircam</strong> dans le domaine de l’enseignement artistiquepour in fine conduire à valoriser notre répertoire et àélargir les publics de la création.- 14 -


INTRODUCTION- 15 -


1 ERE PARTIE - <strong>RAPPORT</strong> DESYNTHESE- 16 -


- 17 -


<strong>RAPPORT</strong> DE SYNTHESERECHERCHE ET DEVELOPPEMENTRECHERCHE ET DEVELOPPEMENTDirecteur scientifique : Hugues VinetLe département Recherche et développement de l’<strong>Ircam</strong>mène des recherches scientifiques et technologiquespluridisciplinaires autour des problématiquesmusicales, dans le contexte de la créationcontemporaine. La mise en œuvre de ces travaux suit uneorganisation thématique par équipes spécialisées. Cesrecherches débouchent sur le développementd’environnements logiciels, conçus pour lescompositeurs et les professionnels de la musique et duson, diffusés notamment dans le cadre du Forum <strong>Ircam</strong>.Cette dynamique de recherche tournée vers lesproblématiques de la création contemporaine, selon desmodalités constamment réévaluées, donne lieu à laconstitution d’une expertise originale autour dessciences et technologies du son et de la musique, quifait l’objet de différentes formes de structuration etcollaborations avec des institutions et partenairesindustriels aux échelles nationale, européenne etinternationale.A de nombreux égards, l’année <strong>2003</strong> aura représenté unepériode de transition, marquée par l’achèvement deprojets européens et nationaux (Cuidado, Listen,Carrouso) et le lancement de nouveaux projets(SemanticHIFI, Phase), le déploiement d’activitésinitiées fin 2002 (réorganisation des activitésrelatives aux technologies temps réel, création del’équipe Logiciels libres et ingénierie logicielle,lancement de l’équipe Formulation du musical et duprojet Ecoutes signées), et la mise en œuvre denouveaux chantiers transversaux (Bilan-Prospective,recherche sur l’analyse du geste dans le cadre du pôlede recherche pour les technologies pour le spectacle).BILAN-PROSPECTIVE R&D <strong>2003</strong>Dans le cadre de ce nouveau chantier, initié au printemps <strong>2003</strong>et mené tout au long de l’année, l’ensemble des équipes dudépartement R&D ont été invitées à effectuer un bilan de leursactivités passées et à réfléchir aux nouvelles orientationspossibles de recherche à court, moyen et long terme. Unedémarche similaire avait été entreprise en 2000 à l’occasiondu projet « Prospective R&D 2000 », mais avec pour différenceque celui-ci restait interne au département R&D. L’objectif dece nouveau chantier était de formuler la prospective derecherche à l’intention de la communauté musicale de l’<strong>Ircam</strong>,en vue de la définition de nouvelles orientations thématiqueset de nouveaux modes de coordination à l’articulation entrerecherche et création. Ce travail a abouti à l’élaboration detextes de bilan-prospective de la part de chaque équipe etd’une synthèse transversale à l’ensemble du secteur R&D,- 18 -


<strong>RAPPORT</strong> DE SYNTHESERECHERCHE ET DEVELOPPEMENTdonnée en annexe de ce document (§10). Il a été présenté à denombreux compositeurs et assistants musicaux le 13 novembre<strong>2003</strong>, lors d’une réunion qui a inauguré de nouveaux modes dedialogue et d’échanges entre les communautés scientifique etartistique de l’<strong>Ircam</strong> et dont le déploiement etl’approfondissement, effectifs en 2004, constituent désormaisun enjeu central de la politique institutionnelle.PROJETS EUROPEENS CUIDADO ET SEMANTICHIFIL’année <strong>2003</strong> a également vu l’achèvement du projet européenCuidado coordonné par l’<strong>Ircam</strong> (programme IST, 5 èmePCRD), qui,outre une évaluation très favorable de la Commissioneuropéenne compte tenu des nombreux résultats et innovationsproduits, marque un nouvel aboutissement d’orientations derecherche récentes, associant plusieurs équipes de l’<strong>Ircam</strong>,relatives à la description des contenus musicaux et sonores.Les travaux de Geoffroy Peeters dans l’équipe Analyse/synthèseont produit des avancées à la pointe des recherchesinternationales dans le domaine de la caractérisation des sons(constitution d’un ensemble de plusieurs centaines dedescripteurs extraits du signal), de la segmentation de hautniveau et de la classification automatiques. La thèse deBenoit Meudic dans l’équipe Représentations musicales,réalisée dans le cadre du projet, a également donné lieu à desavancées substantielles dans le domaine de l’analyseautomatique à partir de données symboliques (MIDI), tant pourla quantification et l’extraction du tempo et de la métriqueque de mesures de similarité polyphoniques multicritères(profils mélodiques, rythmes, transitions d’accords). Au-delàdes objectifs propres du projet, qui a fait l’objet d’uneimportante diffusion scientifique (une centaine depublications) et aboutissent à des réalisations industrielles,de nouvelles voies de recherche ont ainsi été ouvertes,intéressant tant la création musicale (méthodes de synthèse etde traitement par le contenu ou utilisant des bases dedonnées, aide à l’orchestration, etc.) que l’analysemusicologique. Dans cette perspective, les activités del’équipe Services en ligne ont trouvé une intensification quia abouti au développement d’une nouvelle architectureinformatique, constituant des fondements ouverts, modulaireset pérennes, à la fois pour la réalisation de la versionfinale de la Sound Palette en ligne (base de données partagéed’échantillons sonores avec fonctions de classification et derecherche par le contenu sonore) mais aussi de nouvellesapplications à venir de gestion de bases de données et demétadonnées musicales, reposant sur la norme Mpeg7. Cettearchitecture sera notamment utilisée pour le projet européenSemanticHIFI coordonné par l’<strong>Ircam</strong> (programme IST, 6 èmePCRD),démarré officiellement en décembre <strong>2003</strong>, dont la préparationet la négociation ont suscité une mobilisation importante en<strong>2003</strong> au niveau des directions concernées. Dans la lignée deCuidado, SemanticHIFI vise, en collaboration notamment avecSony, la préfiguration de la chaîne Hi-fi de demain, dotéed’interfaces interactives pour l’indexation, la navigation, laspatialisation, la manipulation, l’interprétation et lepartage de contenus musicaux structurés.ANALYSE MUSICOLOGIQUE ET PROJET ECOUTES SIGNEES- 19 -


<strong>RAPPORT</strong> DE SYNTHESERECHERCHE ET DEVELOPPEMENTLa réinscription explicite dans l’<strong>Ircam</strong> de recherches enmusicologie faisait partie des priorités institutionnelles dès2002 et avait motivé la constitution de l’équipe Formulationdu musical. Le déploiement des activités de l’équipe s’estconcrétisé en <strong>2003</strong> autour du projet Ecoutes signées, dontl’objectif est la production de réalisations hypermédiasautour d’œuvres existantes, médiatisant les point de vued’écoute singuliers d’auditeurs experts (compositeurs,musicologues,…). Plusieurs réalisations, sous formes demaquettes, ont ainsi vu le jour en <strong>2003</strong>, en collaboration avecle Studio Hypermédia et les équipes de recherche. Ce projet,dont les fondements théoriques et hypothèses de travail sontaujourd’hui bien définis, doit trouver différentes formesd’aboutissement dans les années à venir dans le cadre deprojets transversaux de l’<strong>Ircam</strong> (Disposition « La reproductionde la caverne », logiciels éducatifs pour l’Educationnationale et les conservatoires, SemanticHIFI).Le thème de l’analyse musicologique a été à l’honneur desjournées Résonances <strong>2003</strong>, dans le cadre de deux colloquesinternationaux accueillis à l’<strong>Ircam</strong>, l’un sur l’analyse desmusiques électroacoustiques, l’autre sur la Set Theory,organisé par Moreno Andreatta, en rapport le sujet de sa thèsesur les formalismes algébriques en analyse musicale.L’achèvement simultané de cette thèse, fin <strong>2003</strong>-début 2004,avec celle de Benoit Meudic, déjà citée, celle d’OlivierLartillot sur l’analyse automatique à partir d’heuristiquescognitives et de Charlotte Truchet sur les applicationsmusicales de la programmation par contraintes, marque unaboutissement important des travaux de recherche récents del’équipe Représentations musicales.PROJETS EUROPEENS LISTEN ET CARROUSOC’est également en <strong>2003</strong> que se sont achevés les projetseuropéens Carrouso et Listen, qui ont mobilisé l’essentiel desactivités de l’équipe Acoustique des salles depuis 2001 et luiont permis d’investir de nouveaux champs de compétences, tantdans le perfectionnement de ses acquis (codage binauralmulticanal, gestion des disparités interindividuelles) que denouvelles directions de recherche. Ces dernières concernent enparticulier le développement d’un outil auteur commun aux deuxprojets (ListenSpace) réintroduisant la prise en compte dedonnées géométriques dans la spatialisation, respectivement àtravers la norme Mpeg4 et dans le contexte de la réalitévirtuelle et augmentée, donnant lieu à de nouvellesexpérimentations sur les rapports entre modalités visuelle etauditive en cognition spatiale. Une autre nouvelle directiond’investigation, liée au projet Carrouso et à la thèsed’Etienne Corteel, a concerné le développement de techniquesde diffusion par Wavefield synthesis (WFS ou holographieacoustique), qui ont fait l’objet en <strong>2003</strong> de nombreusesprésentations. La WFS représente un enjeu important pour lesapplications artistiques de l’<strong>Ircam</strong> et les recherches dans cedomaine seront notamment poursuivies dans le cadre de la thèsede Terence Caulkins, initiée fin <strong>2003</strong>. Il convient égalementde mentionner, au titre des aboutissements de l’équipeAcoustique des salles, celui de la thèse d’Alexis Baskind, quia produit des résultats prometteurs autour d’un problème- 20 -


<strong>RAPPORT</strong> DE SYNTHESERECHERCHE ET DEVELOPPEMENTdifficile : l’extraction automatique de caractéristiques despatialisation à partir d’enregistrements réels.APPLICATIONS TEMPS REEL ET ANALYSE DU GESTEDe nouvelles orientations relatives aux technologies tempsréel avaient motivé la création, fin 2002, de l’équipeApplications temps réel sous la responsabilité de NorbertSchnell : développement, dans l’environnement Max/MSP,d’applications, issues des travaux de recherche desdifférentes équipes et intéressant la communauté artistique del’<strong>Ircam</strong> ; mise en œuvre de directions de recherchespécifiques. La réalisation de ce programme a été effective en<strong>2003</strong>. Les développements ont porté, d’une part, sur laréalisation de nouveaux algorithmes de détection de hauteur etde transposition issus des techniques Psola, ainsi que duportage d’objets développés dans jMax. D’autre part, unimportant chantier a été entrepris, visant la disponibilitédans Max/MSP d’acquis technologiques issus de jMax : éditeursgraphiques en Java, système objet permettant la gestion destructures de données complexes, sous la forme de labibliothèque FTM. Ce travail pose les fondements des futuresapplications temps réel pour la création musicale. Quant auxrecherches spécifiques investies par l’équipe, elles ontconcerné la poursuite des travaux sur le suivi de partition(notamment pour le suivi polyphonique à partir d’informationsd’interprétation codées en MIDI), ainsi que, avec l’arrivée deFrédéric Bevilacqua au dernier trimestre <strong>2003</strong>, la mise enœuvre d’un nouvel axe de recherche sur l’analyse du geste,dans le contexte de la constitution du pôle de recherche surles technologies pour le spectacle, avec des applications à lacaptation du geste dansé et du geste instrumental. Lelancement de cette nouvelle activité a été annoncé dans lecadre de journées co-organisées avec l’Irit liées au réseauArtiSTIC du CNRS, à Toulouse et des Résonances <strong>2003</strong>. Cettenouvelle direction de recherche coïncide avec le démarrage,dans l’équipe Analyse/synthèse, du projet Riam Phase(Plateforme haptique d’application sonore pour l’éveilmusical), visant le développement de scénarios interactifsmultimodaux faisant notamment intervenir un contrôle gestuelavec retour d’effort.DEVELOPPEMENT LOGICIELLe développement logiciel reste l’un des principaux axesfédérateurs de l’ensemble des activités de l’<strong>Ircam</strong>, à la foisen interne comme vecteur de transfert entre recherche etcréation, complémentaire aux chantiers de coordinationrécemment lancés, ainsi que de diffusion à l’extérieur desréalisations de l’<strong>Ircam</strong>, tant auprès des professionnels de lamusique et du son à travers le Forum qu’en direction de ciblesd’utilisateurs de plus en plus larges (Education Nationale,conservatoires, utilisations domestiques...). Cette activitécomporte en particulier une adaptation constante auxévolutions des environnements technologiques d’utilisation,qui a concerné en <strong>2003</strong> un important chantier de portage d’unensemble de logiciels de l’<strong>Ircam</strong> sur le système MacOSX d’Apple(Modalys, OpenMusic, Diphone Studio, objets Max). De plus,l’objectif est de systématiser le transfert de résultats derecherche pour les rendre accessibles à la communauté musicale- 21 -


<strong>RAPPORT</strong> DE SYNTHESERECHERCHE ET DEVELOPPEMENTde l’<strong>Ircam</strong> ; ce volet, désormais facilité par le rapprochementdu système d’Apple avec les systèmes Unix généralementutilisés pour la modélisation en recherche, a été mené dansl’ensemble des équipes concernées :- en Analyse/synthèse, il a porté sur le développement d’unlogiciel d’analyse Psola et de synthèse dans l’environnementDiphone Studio, ainsi que l’intégration, dans le logicielSuperVP, de résultats récents de recherche d’Axel Roebel :time stretching avec détection des transitoires, traitementtemps réel ;- en Représentations musicales, de nouvelles fonctionnalitésde gestion MIDI et de données au format SDIF, ainsi que lerésultat des travaux de thèse de Benoit Meudic, CharlotteTruchet et Moreno Andreatta, ont été intégrés dans OpenMusicsous la forme d’éditeurs et bibliothèques spécifiques ;- dans Modalys, Nicholas Ellis a rendu accessible le travailde Joël Bensoam sur la modélisation d’objets physiquestridimensionnels par éléments finis, et a apportéd’importantes optimisations au noyau de synthèse, permettantson contrôle en temps réel pour des structures simples ;- les développements menés dans les équipes Services en ligne,Acoustique des salles, Applications temps réel, cités plushaut, résultent également d’une application directe derésultats récents de recherche.Au-delà de ces évolutions, dans la continuité des travauxpassés, de nouvelles orientations relatives aux activités dedéveloppement ont été mises en œuvre en <strong>2003</strong> :- la diffusion de logiciels libres issus de l’<strong>Ircam</strong> ainsi quela valorisation de la plate-forme Linux pour lesapplications musicales et audio, suite à la création del’équipe Logiciels libres et ingénierie logicielle et audémarrage du projet européen Agnula en 2002. Le logicieljMax a ainsi été finalisé et le logiciel OpenMusic portésous Linux. Des distributions sous RedHat et Debian ont étéréalisées, dans le cadre des projets Agnula et PlanetCCRMA,et des liens tissés avec de nombreux acteurs du logiciellibre. De plus, dans le cadre de sa mission d’ingénierie,l’équipe LILL expérimenté de nouvelles technologiesintéressant l’<strong>Ircam</strong> : grilles de calcul pour la distributionde calculs volumineux, streaming temps réel sur les réseaux,etc. L’<strong>Ircam</strong> a également accueilli pendant six mois PhilippeAigrain, pour un travail d’étude sur les logiciels libres etle projet Ecoutes signées.- une réflexion transversale sur les enjeux stratégiques dudéveloppement à l’<strong>Ircam</strong>, dans le cadre de la constitutiond’un groupe de travail associant directeurs, chercheurs,développeurs, assistants musicaux et compositeurs, comptetenu à la fois de l’importance de cette activité et de lalimite des moyens existants. Le logiciel Audiosculpt a étépris comme cas d’étude et une nouvelle stratégie adoptéeselon deux objectifs complémentaires : la finalisation de laversion actuelle d’ici fin 2004, et la mise en œuvre decontacts industriels en vue de l’externalisation de versionsultérieures. A la suite de ces décisions, un importanteffort en moyens a été consenti, à partir de la fin <strong>2003</strong>,pour atteindre cet objectif, avec notamment le recrutementde Niels Bogaards, ainsi que la mobilisation de Nicholas- 22 -


<strong>RAPPORT</strong> DE SYNTHESERECHERCHE ET DEVELOPPEMENTEllis et d’Axel Roebel. Les résultats de cet investissement,visibles dès la diffusion du Forum de printemps 2004, sontprometteurs.- la participation de l’<strong>Ircam</strong> au laboratoire Lutin(Laboratoire des usages en technologies d’informationnumérique), créé en <strong>2003</strong> dans le cadre d’un projet RNRT etinstallé à la Cité de sciences et de l’industrie (CSI),ainsi qu’à l’équipe projet Lucsi regroupant dans le mêmecadre, sous la tutelle d’une unité mixte de service du CNRS,plusieurs laboratoires intéressés par les problématiques desusages. Compte tenu de l’élargissement des ciblesd’utilisation des développements logiciels de l’<strong>Ircam</strong>,initialement limités, dans la diffusion liée du Forum, auxprofessionnels de la musique et du son, cette collaborationfournit à l’<strong>Ircam</strong> un cadre d’expérimentation privilégié,avec le public de la CSI, de retour d’usage de réalisationsdestinées à un large public : Cuidado, MusiqueLab,SemanticHIFI, etc.AUTRES FAITS MARQUANTS- en Acoustique instrumentale, nouvelles avancées enmodélisation physique portant sur les marteaux de piano,l’étude des instruments à anches doubles, et le rôle duconduit vocal dans les instruments à vent, notamment dans lecadre de collaborations de plus en plus actives avec le LMAde Marseille.- en Acoustique des salles, démarrage d’une nouvellecollaboration de recherche sur la cognition spatiale avecl’UMR7593 de l’Hôpital de la Salpêtrière.- en Design sonore, poursuite du rapprochement avec l’équipePerception et cognition musicales et démarrage de la thèsede Clara Suied dans le cadre d’une collaboration Cifre avecRenault; développement du projet de source à directivitécontrôlée, et achèvement, en collaboration avec les équipesAcoustique instrumentale et Acoustique des salles, du projeteuropéen Dorémi.- en Perception et cognition musicales, organisation duprestigieux symposium international Hearing ; soutenance dela thèse d’Olivier Houix sur la perception des propriétésphysiques des sources, co-encadrée avec l’équipe Acoustiqueinstrumentale.- en Analyse/synthèse, démarrage de la thèse de FernandoVillavicencio Marquez sur la transformation de voix, et,dans le même domaine, prestation pour la production du filmTirésia pour la création de voix hybrides homme-femme ;démarrage de la thèse de Chunghsin Yeh sur l’estimation defréquences fondamentales multiples.- en Représentations musicales, arrivée de Marc Chemilliercomme professeur en délégation CNRS, associée au démarraged’un nouveau projet sur l’improvisation et l’interface entreOpenMusic et Max pour les applications temps réel et liée auprojet Ecoutes signées, dans le contexte de l’analyse enethnomusicologie.- dans le Service informatique, déploiement du système MacOSXpour la bureautique et en Pédagogie.- 23 -


<strong>RAPPORT</strong> DE SYNTHESEPEDAGOGIEPEDAGOGIEDirecteur : Andrew GerzsoDepuis sa fondation, l’<strong>Ircam</strong> a créé des technologiesinnovantes qui peuvent être vues comme la prolongation modernedes pratiques traditionnelles de la musique comme lacomposition, la lutherie, l’interprétation et l’analyse.L’utilisation de ces nouvelles technologies dans la créationmusicale a ouvert des nouveaux champs d’exploration avec commeconséquence l’élargissement du vocabulaire expressif ducompositeur. C’est le rôle du département pédagogique del’<strong>Ircam</strong> de permettre aux professionnels et aux étudiants dumonde de la musique de maîtriser ces nouveaux outils ainsi queles concepts musicaux et savoir-faire qui les accompagnent.Les formations du département pédagogique sont structurées entrois niveaux : professionnel, universitaire et scolaire. Parailleurs, ce service propose une série de conférencesdestinées au grand public et organise régulièrement desformations en dehors de l’institut.FORMATIONS PROFESSIONNELLESCes formations sont destinées aux compositeurs, chercheurs,concepteurs sonores et ingénieurs du son.Le cursusLe cursus de composition et d’informatique musicale formechaque année dix compositeurs choisis par le comité de lecture(*). Les élèves suivent des cours sur les logiciels del’<strong>Ircam</strong>, la composition (cours dispensés par des compositeursde renom), la réalisation électro-acoustique (par lesassistants de l’<strong>Ircam</strong> et d’autres studios), la recherchescientifique et musicale (par les équipes de l’<strong>Ircam</strong>), etenfin les nouveaux modes de jeux instrumentaux par desinterprètes reconnus. Ils réalisent en fin d’année un projetdont la création a lieu pendant le Festival Résonances. Lescompositeurs qui ont suivi le cursus 2002-<strong>2003</strong> sont :BANNERMAN Alastair (Grande Bretagne), DROUIN Geoffroy(France), FUENTES AVILA Arturo (Mexique), LAPORTE Jean-François (Canada), LUNSQUI Alexandre (Brésil), NORDIN Jesper(Suède), PARRA i ESTEVE Hector (Espagne), SUZUKI Jummei(Japon), TIAN Leilei (Chine).La résidence post-cursusSoucieux de créer, avec ces jeunes compositeurs, une relationplus durable, tant sur le plan artistique que sur le plan dela recherche, et afin de créer les conditions nécessaires àleur épanouissement professionnel, l’<strong>Ircam</strong> a créé en <strong>2003</strong> undispositif de résidence qui se décline de deux façons :- interne : tout élève ayant suivi le Cursus pourra, s’il lesouhaite, soumettre un projet qui vise un travail derecherche dans un domaine spécifique, ou un projet deproduction qui explorera ou mettra en valeur tel ou teldomaine de recherche musical ;- 24 -


<strong>RAPPORT</strong> DE SYNTHESEPEDAGOGIE- externe : l’<strong>Ircam</strong> aura au préalable établi un accord decollaboration avec une institution ou un festival quiaccueillera partiellement ou complètement un compositeurissu du Cursus. Le projet s’appuiera sur une création.Partenaires actuels : Conservatoire de Lyon (CNSML), ChœurAccentus à Paris. Partenaires pressentis : Académie Boulez àLucerne, Conservatoire de Paris (CNSMP), École des beaux-artsde Lyon, Festival d’Aix en Provence, Centre national de ladanse à Paris, Le Fresnoy à Lille.Le stage d’étéLe stage de composition et d’informatique musicale formechaque été dix compositeurs également choisis par le comité delecture (*). Ce stage permet, en un mois de prendreconnaissance des logiciels de l’<strong>Ircam</strong> et de suivre les coursdes compositeurs invités. A la fin de ce stage lesparticipants auront acquis une approche de l’état de l’artdans le domaine des technologies pour la musique ainsi qu’uneidée de leur utilisation dans des œuvres données pendant leFestival Agora qui a lieu à la même période. En complément,des cours de composition ont été proposés également par MartinMatalon. Ont participé au stage en juin <strong>2003</strong> : BARRIENTOSYÉPEZ Vicente (Mexique), BILODEAU Julien (Canada), CIPOLLONEElvio (Italie), KAWAMOTO Hideko (Japon), KISHINO Malika(Japon), MAINTZ Philipp (Allemagne), ORTIZ Pablo (Etats-Unis/Argentine), PALERMO Dario (Italie), PELO Mika (Suède),UENO Ken (Etats-Unis), VAN ECK Cathy (Danemark), WILLIAMSCarter (Etats-Unis).(*) Le comité de lectureChaque automne un comité de lecture, formé de personnalités indépendanteset reconnues à l'échelon international, et des responsables artistiques del'Ensemble Intercontemporain et de l'<strong>Ircam</strong>, se réunit pour choisir, parmiplusieurs centaines de dossiers, les jeunes compositeurs qui participerontau cursus et au stage d’été de composition et d’informatique musicale. Cecomité a reçu environ trois cents candidatures pour le cursus 2002-<strong>2003</strong> etle stage d’été <strong>2003</strong>.Outre le cursus et stage d’été de composition etd’informatique musicale, le département a proposé lesformations suivantes :Stages de fin de semaine sur les logiciels de l’<strong>Ircam</strong> : cesstages proposent une pédagogie par la pratique des logicielsde création musicale développés à l’<strong>Ircam</strong>.Stages Thématiques :- Design sonore : conception et réalisation sonore pour deslieux publics ou privés, prise en compte de la dimensionsonore dans la conception de produits industriels. Cetteannée, trois applications principales ont été favorisées :l’architecture et l’environnement, la communication et laconception musicale.- Deux stages dans le cadre de la manifestation intitulée lesRendez-vous Electroniques et en marge du festival Résonancesont permis aux participants d’aborder deux thèmes liés auxbesoins de la musique « live » : la captation du geste etles liens entre image et sons.- 25 -


<strong>RAPPORT</strong> DE SYNTHESEPEDAGOGIE- Stage captation du geste : la création du Pôle spectacle apermis de lancer une formation permettant aux professionnelsde la danse et du théâtre de s’initier à ces technologies.- Stage Spatialisateur dans ProTools : cette formation répondà la demande des ingénieurs du son de disposer d’unenvironnement de spatialisation sophistiqué dans l’outil demontage ProTools. Le Spatialisateur est depuis peudisponible sous forme de « plugin » dans ProTools.Formations à la demande :- Formation Numérisation des fonds sonores : pour le Ministèrede la Culture.- Sensibilisation à la musique du vingtième siècle : pour laMairie de ParisFORMATIONS UNIVERSITAIRESCes formations sont destinées aux futurs chercheurs etenseignants dans les domaines des sciences et technologiesappliquées à la musique et de la musicologie et aux créateursdes jeux interactifs.Les activités de recherche et développement de l’<strong>Ircam</strong> ontbesoin d’un lien permanent avec le monde universitaire, et àtravers celui-ci, avec le monde de la recherche. C’est dans cesens que les trois formations universitaires ont trouvé uneplace naturelle et utile au sein de l’institut.Le DEA ATIAM, unique en son genre, dispense un enseignement oùtous les sujets techniques et scientifiques qui touchent lamusique sont traités. Cette formation est la plus lourde parmiles formations universitaires accueillies à l’institut puisquela totalité des cours est dispensée dans nos murs. L’équipedoctorale (venant de Paris-VI, l’ENST, le LAM, l’Acroe-Ensimag, le CNRS Marseille et l’<strong>Ircam</strong>) a reçu, pour l’année2002-<strong>2003</strong>, deux cents candidatures, dont 18 ont été retenues.15 étudiants ont obtenu le diplôme.Les deux autres formations universitaires, le DEA MHS (MusiqueHistoire et Société) et le DESS -JVMI (Jeux Vidéo et MédiasInteractifs), dispensés pour la première fois en 2002, sontplus légères sur le plan administratif car seule une partiedes cours a lieu à l’<strong>Ircam</strong>.Pour le DEA MHS, l’<strong>Ircam</strong> propose deux séminaires (un sur lesévolutions de l’analyse musicale, et l’autre sur l’histoiredes techniques musicales) au sein d’un dispositif d’environquinze séminaires sous la responsabilité de l’EHESS avec laparticipation de l’ENS, du CNSMP, et de l’EPHE. Cetteformation rapproche l’<strong>Ircam</strong> du monde des sciences humainestrop longtemps absentes de la vie intellectuelle del’institut. Cette formation, qui a débuté en novembre 2002, arecueilli l’adhésion d’une quinzaine d’étudiants environ.Pour le DESS-JVMI, l’<strong>Ircam</strong> propose un module sur les élémentsdu moteur son dans un jeu vidéo ou une application multimédia.Comme pour le DEA MHS, ce module s’inscrit à l’intérieur d’undispositif plus large de cours dispensés dans les institutionspartenaires, le CNAM Paris, le CNAM Poitou-Charentes, les- 26 -


<strong>RAPPORT</strong> DE SYNTHESEPEDAGOGIEUniversités de la Rochelle et de Poitiers et enfin le CNBDId’Angoulême. Trois élèves de la première promotion de cetteformation ont participé aux cours dispensés à l’<strong>Ircam</strong>.FORMATIONS SCOLAIRESCes formations sont destinées aux professeurs et élèves descollèges, lycées et conservatoires.Depuis la mise en ligne progressive initiée en mai 2002, plusde 1500 établissements ont téléchargé l’ensemble desapplications Musique Lab ("Hauteur et intensité","PolyCycles", "Construction rythmique", "Échelles et modes","Nuages" et "Montage") fruit d'une collaboration entre l'<strong>Ircam</strong>et le ministère de l'Éducation nationale. Fort de cet accueilpositif, l’<strong>Ircam</strong> a œuvré pour la mise en place d’uneconvention cadre entre le ministère de l'Éducation nationale,et le ministère de la Culture pour permettre la collaborationd’une deuxième génération d’applications dont vont bénéficierà la fois les élèves des collèges et lycées et, fait nouveau,les élèves des écoles et conservatoires de musique. Cetteconvention a été signée en novembre <strong>2003</strong>.Ateliers Musique LabLes six applications de Musique Lab permettent non seulementd'aborder et d'analyser d'une façon très concrète lesdifférents phénomènes sonores à l'aide de l'ordinateur, maisaussi de simuler des processus musicaux mis en oeuvre dans despièces du répertoire musical et de présenter des itinérairesexploratoires qui visent la création sonore. Cet atelierpropose de découvrir ces applications, d'apprendre à lesutiliser ou d’approfondir leur manipulation.Ateliers saison 2001/2002Ces trois ateliers ont été proposés jusqu’à août 2002 :- La découverte du son : une découverte progressive du sonavec des exercices mêlant l’écoute et la visualisation, desjeux d’association et de classification.- Création collective : cet atelier débute par une phase depréparation où des cellules de deux à trois élèves élaborentdes matériaux sonores. Le groupe passe ensuite à uneréalisation collective.- Le son à portée de main : par des moyens graphiques simples,les participants explorent, la matière sonore et sespropriétés.Ateliers saison 2002/<strong>2003</strong>A partir de la rentrée <strong>2003</strong>, l’offre a été modifié pourproposer les ateliers suivants, plus en phase avec l’identitéde l’<strong>Ircam</strong> et tenant compte de l’offre « grand public » et« scolaire » d’autres établissements :• Ateliers œuvres <strong>Ircam</strong>Ces ateliers permettent aux participants de comprendre lesenjeux de la composition, mais également d'aborder lestechnologies utilisées dans ces oeuvres, ainsi que laplace qu'elles occupent dans la démarche de recherchegénérale de l'<strong>Ircam</strong>. L’œuvre proposée est Jupiter dePhilippe Manoury (à terme, d’autres œuvres viendrontcompléter l’offre afin de proposer un ensemble d’œuvres- 27 -


<strong>RAPPORT</strong> DE SYNTHESEPEDAGOGIEqui couvrent les problématiques de la musiqueinformatique).• Atelier Traitement sonoreCet atelier est destiné à tous ceux qui veulent découvrirles multiples facettes du traitement sonore.• Atelier Maths et MusiqueCet atelier aborde un ensemble de notions de mathématiquesqui trouvent des applications musicales concrètes.• Atelier Physique et MusiqueCet atelier aborde un ensemble de phénomènes physiquesliés au monde sonore et musical.Formations à la demande- Sensibilisation à la musique du vingtième siècle : pourl’IUFM d’Antony- Musique et culture scientifique : Rectorat de Créteil- Informatique musicale : Conservatoire de Saint OuenCONFERENCES GRAND PUBLICConférences du lundi soir organisées en quatre thèmes : « Etatde l’art » (Codognet, Fléty, Texier), « Création ettechnologies » (Manoury, Gerzso, Nunes et Daubresse, Matalon),« Trajectoires » (Campos, Battier), et « Metissages »(Koechlin, Matalon, Aperghis et Rivalland, Cera et Robbe).Soucieux d’être le plus accueillant possible vis à vis desinitiatives dont les préoccupations rejoignent celles del’institut, le département facilite l’organisation d’autresmanifestations ouvertes au grand public. En 2002 ledépartement a accueilli les débats et séminaires d’Entretempset les séminaires MaMux.FORMATIONS HORS LES MURSEn plus des activités saisonnières, le département Pédagogiecollabore chaque année avec des institutions en France et àl’étranger pour l’organisation de présentations de l’<strong>Ircam</strong>(activités de recherche, création, pédagogie et valorisation),de formations sur les technologies développées au sein del’institut ainsi que d’ateliers/concerts sur des œuvres crééesà l’<strong>Ircam</strong>. Dans cet esprit, l’<strong>Ircam</strong> a organisé à Sao Paolo, auBrésil, en juillet <strong>2003</strong>, une série de conférences, d’ateliersd’informatique musicale et un atelier/concert avec les œuvresDialogue de l’ombre double de Pierre Boulez, Noa Noa de KaijaSaarihao et Jupiter de Philippe Manoury.- 28 -


<strong>RAPPORT</strong> DE SYNTHESECOORDINATION ARTITISQUE & SCIENTIFIQUECOORDINATION ARTISTIQUE & SCIENTIFIQUECOMPOSITEURS EN RECHERCHESoucieux de renouveler un dialogue entre la communauté descompositeurs et les équipes de recherche de l’institut et dedéfinir plus clairement les orientations de recherche musicalea moyen et à long terme, un effort particulier a été fait pourmettre en place une nouvelle définition du rôle descompositeurs en recherche. Afin d’éviter la situation danslaquelle chaque compositeur était porteur d’un projetspécifique avec comme conséquence la multiplication desprojets et la dispersion qui en suivait, il a été décidé detenter d’identifier un nombre limité de sujets considéréscomme prioritaires par une majorité de compositeurs. Dans cetesprit, la communauté des compositeurs a été sollicitée afinde faire des propositions dans ce sens. Dans le même temps,les équipes de recherche ont été mobilisées afin de produireun document qui reflétait à la fois les acquis et lesperspectives de recherche pour l’avenir. Parallèlement, lesassistants musicaux ont été également sollicités pourtravailler avec les équipes de recherche afin de formaliserleur vision des sujets importants à traiter. Toutes cesréflexions étaient destinées à alimenter une réunion detravail collectif qui a eu lieu le 13 novembre, <strong>2003</strong> à l’<strong>Ircam</strong>à l’Espace de Projection.Lors de cette séance, qui a réuni une soixantaine decompositeurs ainsi que les équipes de recherche et lesassistants musicaux de la maison, et au débat qui a eu lieu,huit sujets de recherche musicale considérés commeprioritaires ont été identifiés : représentations de hautniveau pour l’écriture et la synthèse, modèles physiques, lavoix, structures musicales pour le temps réel, analyse dugeste, le rythme, l’orchestration, la spatialisation. Afin deconfirmer la justesse de ces choix, et d’approfondir chacun deces sujets, de nouvelles rencontres ont été fixées pour le 5,6février et le 3 mars 2004.POLE DE RECHERCHE SUR LES TECHNOLOGIES POUR LESPECTACLELa création musicale à l’<strong>Ircam</strong> a toujours été ancrée dans uneactivité de recherche. Face à la multiplication des projetsartistiques pluridisciplinaires et au besoin de nouvellesapproches de travail et de la création d’outils appropriés,l’<strong>Ircam</strong> a créé en 2002 un pôle pluridisciplinaire de recherchesur les technologies pour le spectacle à partir de la danse,qui inclut également les autres formes artistiques (lethéâtre, les installations etc.).À court terme les champs de recherche du pôle spectacle sontfocalisés surtout sur le geste (dans le contexte de la danseet le jeux instrumental), la voix (transformation et suivi dela voix parlée et chantée dans le contexte du concert etthéâtre), et la spatialisation, véritable champ transversal- 29 -


<strong>RAPPORT</strong> DE SYNTHESECOORDINATION ARTITISQUE & SCIENTIFIQUEqui touche toutes les formes artistiques (concert, opéra,danse, cinéma, installation). L’année <strong>2003</strong> a été l’année de lamise en place des équipes de recherche fléchées sur le geste(avec notamment l’embauche d’un chercheur Frédéric Bevilacquadans l’équipe temps réel et deux techniciens/ingénieurs, Jean-Christophe Ravarini et Nicolas Leroy, dans l’équipe deEmmanuel Fléty), la voix autour de Xavier Rodet et GeoffroyPeeters, et la spatialisation autour de Olivier Warusfel etNicolas Misdariis.Ce pôle s’appuie sur des artistes en résidence qui devrontinscrire durablement leur réflexion et leurs pratiques en lienavec les préoccupations de divers secteurs de la recherche.Dans ce contexte, les artistes qui ont été choisis pourcollaborer avec l’<strong>Ircam</strong> à partir de <strong>2003</strong> sont :HERVE ROBBE ET ANDREA CERALa collaboration entre ces deux artistes, un chorégraphe et uncompositeur, porte sur la relation entre l’information obtenuepar la captation du geste et son utilisation (en temps différéou temps réel) comme matériau pour le contrôle d’un système desynthèse sonore pour la composition musicale. Le travail adonné lieu à « REW » (« rewind ») un spectacle chorégraphiqueavec images et musique de synthèse crée à Nice en novembre<strong>2003</strong>. Un nouveau projet basé sur l’idée d’écosystème est encours. Ce travail est fait en collaboration avec le CentreChorégraphique National du Havre Haute-Normandie.NORBERT ET NICOLE CORSINOLeur projet est organisé autour de la création d’un espaceentouré de trois écrans sur lesquels sont projetés desdanseurs « clones » en images de synthèse. Un opérateur (quipeut être un danseur ou faire partie du public) interagit avecles danseurs clones à travers un dispositif de captation dugeste de l’opérateur. N+N Corsino explorent à leur manière leconcept des « partitions virtuelles » crée par PhilippeManoury. La partie sonore et musicale fera appel à un systèmede synthèse et spatialisation en temps réel et sera composéepar un élève issu du cursus de composition et d’informatiquemusicale. Ce travail est fait en collaboration avec StephanDonnikian du laboratoire IRISA à Rennes.MYRIAM GOURFINKCréatrice d’un système de notation chorégraphique dérivé dusystème de notation Laban, cette chorégraphe travaille sur unprojet de génération de partitions chorégraphiques en tempsréel sur écran. Ce projet reprend aussi l’idée des« partitions virtuelles » évoquée ci-dessus. Par un système decaptation de geste, les danseurs agissent sur la partie sonorecrée aussi en temps réel par Jean-François Laporte uncompositeur issu du cursus de composition et d’informatiquemusicale.EMMANUELLE HUYHNCette chorégraphe qui est depuis peu Directrice du CentreChorégraphique à Angers, travaille sur « Episode 2 » tiré deson projet « A Vida Enorme » dans lequel selon ses propres- 30 -


<strong>RAPPORT</strong> DE SYNTHESECOORDINATION ARTITISQUE & SCIENTIFIQUEparoles : « le son sera considéré comme un personnage à partentière ». Dans un premier temps, le travail porte sur laspatialisation notamment avec l’utilisation de la Timée pourincarner le « personnage » décrit ci-dessus.LA COMEDIE FRANÇAISEAutour de l’acteur Eric Genovese de La Comédie Française, unpetit groupe d’acteurs travaille sur la mise en scène del’œuvre « Le Privilège des chemins » de Fernando Pessoa quisera créee à l’automne 2004 au Studio Thèâtre de La ComédieFrançaise. Transformation et spatialisation de la voix entemps réel ainsi que l’utilisation d’un système de captationdu geste pour le contrôle de la synthèse sont les sujetsprincipaux de recherche dans ce projet.JEAN-FRANÇOIS PEYRETL'<strong>Ircam</strong> collabore sur la réalisation de la partie sonore etmusicale crée par le compositeur Alexandros Markeas, ancienélève du cursus, pour un spectacle qui sera donné le 17novembre 2004. Ce projet comporte aussi une partieexploratoire de recherche qui porte pour l'essentiel sur lagénération/transformation des textes par ordinateur pour lethéâtre. Un texte, dit par les comédiens, sera généré enutilisant des outils conçus à l'origine pour la génération desstructures musicales. Ce projet de recherche comporte les deuxobjectifs généraux suivants : 1) Création d'un ensembled'algorithmes susceptibles de créer ou de transformer destextes adaptées à une utilisation dans un contexte théâtral.2) Création des méthodes permettant à ces textes d'êtreutilisés dans un contexte « temps différé » ou dans uncontexte « temps réel ». Dans les deux cas, le texte estgénéré pendant la répétition et/ou le spectacle. Ce travailest fait en collaboration avec le Théâtre National duChaillot.- 31 -


<strong>RAPPORT</strong> DE SYNTHESERELATIONS EXTERIEURESRELATIONS EXTERIEURESDirecteur des relations extérieures : Vincent PuigAprès une première année, durant laquelle Bernard Stiegler ainitié plusieurs groupes de travail, <strong>2003</strong> fut l’année de laconcrétisation de plusieurs actions transversales parmilesquelles le lancement du pôle de recherche sur le spectacle,des écoutes signées et du studio hypermédia et enfin lasignature d’une convention triennale avec les Ministères del’Education nationale et de la Culture pour le développementde nouveaux outils d’enseignement musical à la suite desMusique Lab.Pour le département Relations Extérieures, l’année <strong>2003</strong> futdonc à la fois une année de lancement avec le démarrage desactivités du studio hypermédia et du projet Musique Lab 2, etde mises en place d’actions de communication notamment autourde l’organisation des Résonances.Par ailleurs, le projet CUIDADO qui s’est achevé cette année apu être prolongé en décembre par un nouveau projet européensur la chaîne HIFI du futur : Semantic HIFI. Ce projet menéavec les sociétés Sony et Native Instruments (logicielsmusicaux), le Fraunhofer Institute en Allemagne, l’universitéPompeu Fabra à Barcelone et l’université Ben Gurion en Israels’inscrit en cohérence avec les grands axes de recherchedéfinis lors de la première réunion avec les compositeurstenue en novembre puisque des financements importantspermettront de développer de nouvelles approches sur l’écoutespatialisée à domicile, l’écriture musicale pour le temps réelet de poser les bases d’outils de description de la musique dehaut niveau et de gestion de bases de données utiles à defuturs recherches sur l’orchestration. Dans le même temps,Semantic HIFI permet au Studio Hypermédia de poursuivre lescollaborations avec les compositeurs notamment PhilippeLeroux, Andrea Cera et Brice Pauset pour le développementd’écoutes signées proposées à l’Education Nationale et auxConservatoires dans le cadre de la nouvelle convention sur lesenseignements artistiques .En fin d’année les perspectives de financement par lesprogrammes nationaux (RIAM, RNRT, RNTL, CNRS) et européens(IST) s’annoncent favorables et compensent l’achèvement destrois grands projets européens Cuidado (description du son etbases de données), Carrouso (diffusion spatialisée enholophonie) et Listen (outil auteur de spatialisation surcasque pour les installations et les musées). Les recettesgérées par la direction des relations extérieures (Forum<strong>Ircam</strong>, ventes de produits, projets MusicNetwork, DVD à laCarte, éditions) se sont pour leur part accrues de 20% àhauteur de près de 0,6 millions d’euros (soit 20% des recettespropres de l’<strong>Ircam</strong>) ce qui a permis de développer lesnouvelles activités du studio hypermédia et de poursuivre lamutation du Forum comme outil de retour d’expérience directeavec les musiciens et comme canal de valorisation etd’externalisation vers l’industrie.- 32 -


<strong>RAPPORT</strong> DE SYNTHESERELATIONS EXTERIEURESSans reprendre dans le détail les actions menées par notreéquipe et qui sont exposées dans ce rapport, on peut soulignerici les faits marquants sous trois angles :En valorisation, les premiers résultats des projets européenscommencent à porter leurs fruits par exemple avec le lancementd’une nouvelle offre Studio en Ligne utilisant la palettesonore Cuidado, la diffusion dans le Forum du logicielListenSpace pour façonner l’espace sonore dans le contexte desinstallations ou du logiciel MusicMap (bibliothèque OpenMusic)pour la recherche de similarités musicales. Mais au delà desprojets européens, le Forum opère également cette année deprofondes mutations tout d’abord avec l’ouverture au mondeWindows permise par la nouvelle version de Max/MSP mais aussiavec une forte demande artistique pour des outils detraitement du son et de l’image (Jitter), une offre <strong>Ircam</strong>d’applications temps réel sur Max/MSP (suivi de partition,traitement de la voix) et l’accès à la modélisation physiqued’instruments en temps réel (contrôle de Modalys par Max,librairie RMI). Répondant également à la demande descompositeurs, une nouvelle version d’AudioSculpt a ouvert desperspectives de communication entre le son et la partition(détection de partiels) et le logiciel OpenMusic a été portésur Linux avant une refonte complète pour Windows et MacOSXprévue en 2004 grâce au projet Musique Lab 2.Dans le champ de l’édition, si les moyens et lescollaborations ne sont pas encore suffisamment fixés pourlancer un nouveau projet éditorial avec de nouvellescollections, l’activité du studio hypermédia apporte dès cetteannée des outils concrets pour la publication d’analysesmusicales notamment grâce à l’impulsion donnée par le projet« Ecoutes signées » mené par l’équipe de recherche Formulationdu musical. Cette approche singulière de la musique guidée parl’oreille des compositeurs a donné lieu à plusieurs maquettesqui sont autant de terrain de validation pour des prototypesd’outils auteurs plus génériques. Citons pour cette annéel’outil d’annotation et de synchronisation image/son (OASIS),le conducteur pour émissions de Web radio ou les outilsd’accès aux archives sonores développées dans le projet DVD àla Carte ou pour les fonds numérisés par la Mission Rechercheet Technologie du Ministère de la Culture.Liés de près à ces travaux, bien que dépendant despécifications qui seront élaborées avec les professeurs del’Education Nationale et des Conservatoires en 2004, le projetEnseignements Artistiques et le développement des Musique Lab2 dont le financement était confirmé en novembre, associerontles outils de publication avec des applications OpenMusic pourl’analyse, la formation musicale et l’écriture et des contenuspédagogiques liés à des œuvres du répertoire (œuvres retenuespour le Bac, œuvres du répertoire, œuvres contemporaines).Enfin, en terme de communication, et malgré un nouveauchangement de graphiste opéré en début d’année, des actionssoutenues ont été lancées pour Agora notamment en lien avec lespectacle Shlag ! aux Tuilleries puis pour l’organisation desRésonances du 15 au 24 octobre et le retour à une brochure desaison annuelle regroupant toutes les activités de l’<strong>Ircam</strong>.- 33 -


<strong>RAPPORT</strong> DE SYNTHESERELATIONS EXTERIEURESRésonances s’est axé sur deux thèmes fondateurs d’activitésnouvelles de l’<strong>Ircam</strong> : les outils d’analyse musicale (en lienavec le lancement du projet Ecoutes Signées) et lestechnologies dans le spectacle vivant (en lien avec lacréation du pôle de recherche du même nom). Pour celal’événement a su capter l’attention d’une communautéimportante de chercheurs réunis pour deux colloques l’un surles Musiques électroacoustiques et l’autre sur la Set Theoryqui fusionnaient en une journée commune sur les outilsd’analyse, occasion de présenter les premières écoutessignées. Le week-end portes ouvertes grand public (3500entrées) était l’illustration vivante et diversifiée des plusrécentes activités de l’<strong>Ircam</strong> mélées à plusieurs installationsremarquées et à de nombreux concerts et performances demusiciens invités. Convoquant chacun des publics trèsdifférents, les événements de la semaine professionnelletouchaient à la fois les ingénieurs du son (Forum du SonMulticanal), les responsables d’archives sonores, leschercheurs impliqués dans le développement des logicielslibres ou dans les outils multimédia pour la musique et pourfinir les professionnels du spectacle vivant pour une journéed’étude, organisée avec l’IRIT, sur la danse, occasion deprésenter les activités du pôle spectacle, et sur les arts dela scène en collaboration avec le groupe Anomos au CentrePompidou.Comme pour la première édition, l’organisation des Résonancesreposait en grande partie sur le soutien qu’ont bien voulunous accorder la MRT du Ministère de la Culture, le RIAM et laSacem. Fort de ce succès renouvelé et afin de le pérenniserfinancièrement et dans l’activité de l’<strong>Ircam</strong>, une organisationcollégiale a été mise en place dès le mois de novembre pourpréparer l’édition 2004.- 34 -


<strong>RAPPORT</strong> DE SYNTHESEMEDIATHEQUE & BUREAU D’ETUDESMEDIATHEQUE & BUREAU D’ETUDESDirecteur : Michel FingerhutLA MEDIATHEQUELe redimensionnement physique de la Médiathèque s’estpoursuivi en <strong>2003</strong> . L’espace dégagé a été affecté auxactivités des équipes Formulation du musical et StudioHypermédia. Outre son activité quotidienne de gestion du fondsdocumentaire et sonore et de l’accueil du public, elle aentrepris plusieurs démarches concernant ce fonds, dans le butde l’actualiser et de l’enrichir : le retrait de documentssuperflus du fonds musical pour faire place à des ouvragesrécents ; un recensement des partitions d’œuvres réalisées àl’<strong>Ircam</strong> et non encore parvenues à la Médiathèque en vue de lestrouver ou de les acquérir ; et enfin, un travail derecensement et de collecte des notes de programme des concertsde l’<strong>Ircam</strong>, en vue de leur recensement et catalogage, d’unepart, et de leur numérisation et mise en ligne conjointementaux archives sonores, d’autre part.ÉTUDES ET METHODESLe Bureau Études et Méthodes a poursuivi et achevé, en étroitecollaboration avec le département des Relations extérieures,l’étude de la refonte du Web de l’<strong>Ircam</strong> et de ses bases dedonnées « contact » et de sa transformation progressive en unsystème d’information intégré. Cette étude n’a pas suspendules activités concernant le web, puisque la réalisation et/oule suivi technique de sites événementiels (Agora, Résonances…)s’est poursuivie selon les besoins de l’institut.La gestion des fonds numériques a pris un nouveau tournant,avec le début de la numérisation des notes de programme desconcerts de l’<strong>Ircam</strong>, qui se rajouteront ainsi auxenregistrements sonores de ces concerts déjà disponibles enligne, et qui pourront être consultés ensemble. Cette nouvellefonctionnalité a nécessité l’adaptation de logicielsdéveloppés précédemment en interne. La compétence acquise dansce domaine a aussi été mise en œuvre dans la participation auplan de numérisation sonore coordonné par la Mission de larecherche et de la technologie, et dans la réalisation d’uneédition étendue à 3 jours (au lieu d’une journée précédemment)de la formation sur la numérisation et la mise en ligne dedocuments sonores à l’intention des agents du Ministère.Enfin, la compétence particulière de l’équipe sur la gestiond’un parc non négligeable de PC sous Windows a permis de créerun pôle de compétence autour de cette plate-forme, et deprendre en charge le support et la mise à jour des logicielsMusiqueLab I, pour répondre aux besoins de ses utilisateurs àl’Éducation nationale. Il s’en est suivi aussi laparticipation du Bureau dans le démarrage du projetMusiqueLab II, avec, entre autre, l’établissement de moyens decommunication et de capitalisation entre les prescripteurs etles concepteurs.- 35 -


<strong>RAPPORT</strong> DE SYNTHESECOMMUNICATIONCOMMUNICATIONResponsable : Véronique PréLe rapport détaillé présenté dans la partie des relationsextérieures précise l’activité en tant que telle qui a étéproduite jusquà la rentrée du mois de septembre <strong>2003</strong> dans laconfiguration et avec les objectifs déjà dévolus à lacommunication l’année précédente. Pour répondre au souci decommuniquer différemment au moment de la mise en œuvrevéritable du projet de l’Institut il a été procédé en octobre<strong>2003</strong> au recrutement d’un responsable du service Communicationen recentrant cette fonction sous l’autorité de la directiongénérale.REPENSER LA COMMUNICATION DE L’INSTITUTLa première étape aura consisté à dresser un état des lieux dela communication de l’Institut qui a mis en avant les pointssuivants :- La grande hétérogénéité des supports de communicationproduits, couplée à la pluralité des missions de l’Institut,ne contribuent pas à l’identification de la structure,brouillent la lisibilité de son projet et de fait, son imagemalgré une réputation d’envergure internationale.- La réalisation de cette communication, largement portée eninterne, mobilise fortement les équipes sur la mise enœuvre, ce qui laisse peu de place à la réflexionstratégique.- Ce mode de fonctionnement internalisé, prive l’Institut dudiagnostic, du conseil et des compétences d’un partenaireprofessionnel.- Le budget consacré à la communication est très limité.Alors que l’Institut initie deux manifestations annuellespubliques et propose une saison artistique, il n’y a pas deplan média, la communication du festival Agora et desrencontres Résonances se fait sans support d’appel de typeprogramme.Au sortir de cet état des lieux, il s’agissait à coût constantd’optimiser les résultats, de repenser l’articulation despublications, de dégager l’équipe pour d’autres chantiers.Nous avons travaillé à la définition d’un cahier des chargesvisant pour début 2004, l’organisation d’une consultationd’agences en communication.RECADRER LES RELATIONS PRESSELe renouvellement annuel de l’engagement passé avec les deuxagences se partageant les relations presse de l’<strong>Ircam</strong> aura étél’occasion de réécrire du point de vue de l’<strong>Ircam</strong>, cesdocuments contractuels.INFORMER LE PUBLICRéalisation en interne d’un bimestriel rappelant l’actualitédes deux mois à venir. Tiré à 1500 exemplaires, il est- 36 -


<strong>RAPPORT</strong> DE SYNTHESECOMMUNICATIONdisponible à l’accueil de l’<strong>Ircam</strong> et envoyé par mailing à unesélection de contacts ciblés.MIEUX EXPLOITER L’INTRANETEn matière de communication interne, il a été fait le choix deprivilégier l’intranet comme support d’information.Ainsi ont été mis en place plusieurs messages destinés à fairecirculer au sein de l’équipe des informations sur l’<strong>Ircam</strong>,avec l’envoi systématique des articles parus dans la presse,l’annonce des reportages télévisuels ou émissionsradiophoniques concernant l’Institut : « L’<strong>Ircam</strong> dans lapresse », « l’<strong>Ircam</strong> à la radio », « l’<strong>Ircam</strong> à la TV ».FAIRE VISITER L’IRCAMDepuis avril <strong>2003</strong>, le service communication a remis en placeles visites guidées de l’<strong>Ircam</strong>. Une ancienne élève de l’Ecoledu louvre a été recrutée pour assurer ces visites et rédigerun texte de synthèse.Deux formules sont proposées : l’une simple, présente lesespaces et activités de l’<strong>Ircam</strong>, l’autre met l’accent surl’architecture avec projection de diapositives. En fonction del’occupation des espaces, ces visites permettent au public decroiser les compositeurs, musiciens, assistants musicauxtravaillant à l’<strong>Ircam</strong>.17 groupes ont visités l’<strong>Ircam</strong> en <strong>2003</strong> : 5 étaient d’origineétrangère, 6 de l’enseignement secondaire, 11 del’enseignement supérieur.Les demandes individuelles sont nombreuses et font l’objetd’une intégration aux groupes.REORGANISER LE SERVICEL’annonce du départ prévu en mars 2004 de la chargée decommunication, a permis de repenser l’organisation du serviceavec la perspective d’un recrutement requalifié.- 37 -


2 EME PARTIE : <strong>RAPPORT</strong> DETAILLE- 38 -


- 39 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique instrumentaleRECHERCHE ET DEVELOPPEMENT1 ACOUSTIQUE1.1 Acoustique instrumentaleResponsable : René CausséLa compréhension du fonctionnement des instruments de musiqueest le fil conducteur des recherches menées au sein del'équipe. L’enrichissement de nos connaissances sur lesprocessus d'oscillation, de rayonnement mais également sur leproblème de l'interface homme-instrument, se fait dans lecadre de projets organisés autour d'études expérimentales, demesures de grandeurs caractéristiques ou de visualisation dephénomènes, de travaux théoriques et de modélisation physique.Les modèles, traduits numériquement, peuvent être simulés etdonc utilisés pour générer des sons. Ainsi la synthèse qui enrésulte, dite par modélisation physique, est l'applicationprincipale de l'équipe autour du développement du logicielModalys. L'aide à la facture instrumentale traditionnelle etl'amélioration des systèmes de diffusion sont aussi desretombées de ces études.La diversité et la complexité des mécanismes physiquesresponsables des sons de piano font l'objet de multiplesétudes ces dernières années dont seule l'interaction cordesmarteaua été poursuivie en <strong>2003</strong>. Arriver à un modèle simpled'instrument à anche double permettant de décrire les traitscaractéristiques de son fonctionnement est l'objectif del'étude sur le hautbois. La prise en compte du conduit vocaldans les modèles d'instruments à anche devrait permettre,quant à elle, d'expliquer de nombreux phénomènes observés surces instruments en cours de jeu et, par une modélisationcorrecte, de les simuler et d'utiliser ces résultats ensynthèse. Ces deux derniers projets ont nécessité laconception et la réalisation d'une bouche artificielle (projetMIAM réalisé en collaboration avec le LMA de Marseille).Le projet européen Doremi (Directional OptimisedRepresentation of Musical instruments), réalisé encollaboration avec l'Université Technique du Danemark, apermis à l'équipe de reprendre l'étude du rayonnement desinstruments de musique qu'elle avait délaissée ces dernièresannées. Plusieurs objectifs sont prévus dont la mise au pointet l'optimisation d'un système de prise de son multi-canal desinstruments de musique.En <strong>2003</strong>, l'association reconstituée développeur-chercheurautour du logiciel de synthèse Modalys, a permis de commencerà mettre en application les différentes propositionsd'extension des possibilités et d'amélioration desperformances de ce logiciel, de synthèse, issuesprincipalement des résultats du travail de thèse de JoëlBensoam.- 40 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique instrumentaleLe suivi d'un des deux projets d'extension des possibilitésdes instruments traditionnels (clarinette) a été assuréprincipalement au niveau de la diffusion de ce dispositif.Modélisation physique des instruments de musique1.1.1 Modèle d'interaction cordes-marteauDepuis quelques années, l’équipe a engagé une étude visant àmieux comprendre l’interaction entre le marteau de piano et la(ou les) corde(s) lors d’un impact. Le but est d'améliorer lesmodèles physiques existants pour proposer des synthèsessonores de corde frappée de qualité. Les recherches se font àla fois sur le plan expérimental et numérique et rentrent dansle cadre de la collaboration avec le LMA. Ce travail engagé en2002 (stage E. Humbert), s’est concrétisé en <strong>2003</strong> par desrésultats prometteurs (stages de E. Desmond et C. Batifol) quenous souhaitons approfondir en 2004. À terme, le but estd’également d’envisager l’utilisation des modèles développéspour des études prédictives ayant des objectifs de factureinstrumentale.Plus précisément, le travail accompli cette année concerne leplan expérimental. Ainsi, le premier prototype de banc demesure de la force de réaction du feutre (entourant la tête dumarteau) en fonction de son écrasement a été étendu à d’autrestypes de sollicitations. Il est désormais possible, soit dereproduire des conditions proches de celles d’un impact surune corde, soit de tester la réponse du feutre à dessollicitations plus académiques (compression sinusoïdale defréquence variable par exemple). Un effort conséquent a étéconsenti pour réaliser une calibration fine du dispositif.Les mesures préliminaires nous ont permis de mettre enévidence d’importantes différences de comportement entredifférents marteaux d’un même jeu parmi les quatre-vingt huitpièces qui correspondent à toutes les notes du piano. Nousnous attacherons à vérifier si les modèles visco-élastiquesrelativement simples utilisés jusqu’ici pour la synthèse sontpertinents pour décrire l’ensemble des résultats expérimentauxrecueillis.De plus, un premier pas vers une meilleure compréhension dutravail de l’accordeur a été réalisé en réalisant une mêmesérie de mesures avant et après le travail de l’accordeur surles marteaux (piquages divers, ponçage, chauffage…).Les analyses à venir devront être étayées de nouvellesmesures. Notons enfin que notre réflexion s’est égalementnourrie de contacts fructueux établis avec Anatoli Stulov,scientifique russe qui consacre l’essentiel de sa recherche àl’étude et à la modélisation des marteaux de piano.Participants : Elis Desmond et Cédric Batifol (stages);Christophe Vergez (LMA)1.1.2 Étude des écoulements dans les instruments àanche double.Bien que les instruments à vent de type "bois" (clarinette ethautbois par exemple) utilisent le même principe defonctionnement, les modèles mis au point pour les instruments- 41 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique instrumentaleà anche simple ne fonctionnent pas pour les instruments àanche double, même après une mise à l'échelle. Déterminercette profonde différence sous-tend la conduite de cette étudeainsi que l'obtention d'un nouveau modèle utilisable ensynthèse sonore.À la fin de l'année de 2002 il existait déjà un modèled'instrument à anche, implémenté en "pd" et en "jMax", etutilisable en temps réel. Étaient inclues dans la simulationles hypothèses théoriques d'existence de pertes de chargeimportantes dans l'anche afin de pouvoir tester les effets surles sons produits. Ce modèle a été perfectionné en <strong>2003</strong> pours'adapter et mieux prendre en compte dans la simulation leseffets sur la simulation des résultats expérimentaux. De plus,un modèle de résonateur conique moins coûteux en mémoire et entemps de calcul que les modèles existants dans la littératurea été intégré. Quelques perfectionnements ont aussi étéréalisés sur le schéma d'intégration, de façon à rendre lasimulation plus performante. Néanmoins, l'étude de lastabilité et de la précision est encore incomplète.Sur le plan expérimental, une expérience de mesure de lacaractéristique de l'anche double, basée sur une expériencesimilaire pour la clarinette, a été mise en œuvre. Il s'agitde mesurer simultanément et en régime statique, la différencede pression entre la bouche et l'anche et le débit d'air quis'écoule à l'intérieur. Celui-ci est déduit de la chute depression liée au passage de l'air dans un diaphragme calibré.La méthode d'analyse d'images développée précédemment pourmesurer la raideur de l'anche en absence d'écoulement, a étéutilisé simultanément ce qui fournit un paramètre importantpour le modèle numérique.Des conclusions importantes sur la déviation du comportementde l'anche réelle par rapport à ce modèle statique ont aussiété obtenues, en particulier sur les effets de viscoélasticitéde l'anche.Participants: André Almeida (thèse, co-direction avec XavierRodet) ; Christophe Vergez, LMA,Collaborations internes : Xavier Rodet (équipe Analyse/synthèse) ; Alain Terrier (atelier mécanique)Collaborations extérieures : J.Gilbert et J.-P.Dalmont (LAUM)et B. Fabre (LMA)1.1.3 Influence du conduit respiratoire dans lefonctionnement des instruments à ventLe conduit respiratoire du musicien est un résonateuracoustique dont le rôle dans la production des sons desinstruments à vent n'est pas très bien défini pour lesscientifiques. Les instrumentistes considèrent cependant soneffet comme non négligeable. L'objectif est ici de clarifiercet effet et d'obtenir un modèle, simple, utilisable enparticulier pour la synthèse.L'étude théorique débutée en 2002 sur la variation de lafréquence de jeu lorsque le conduit vocal est utilisé a révéléla nécessité d'avoir des mesures fiables et précises del'impédance du conduit respiratoire des musiciens en situationde jeu. Un dispositif de mesure a donc été réalisé à l'UNSW à- 42 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique instrumentaleSydney (Australie). Ce dispositif s'appuie sur un banc demesure d'impédance développé par Smith et Wolfe à l'UNSW. Pourl'adapter à notre situation particulière, la tête de mesure aainsi été introduite dans un bec de clarinette bouché afin dene pas mesurer, en parallèle du conduit respiratoire,l'impédance de la clarinette. Ceci empêche par conséquent lesmusiciens de jouer. Or si leur mémoire musculaire peutcompenser un manque de retour auditif, les musiciens doiventen revanche pouvoir souffler pour contrôler l'ouverture descordes vocales ainsi que la configuration de leur conduitvocal. Une petite fuite a donc été introduite dans le bec, demanière à obtenir à peu près la même résistance qu'uneclarinette. Une série de mesures a été réalisée sur unevingtaine de clarinettistes australiens, soit professionnels,soit en voie de le devenir. Le protocole expérimental était lesuivant :- questionnaire sur leur formation musicale et sur leuropinion personnelle quant à l'importante du conduit vocalainsi qu'à son utilisation ;- mesures d'impédances du conduit respiratoire pourdifférentes situations : même note dans différentsregistres, configurations spéciales (effet de pitch, bend,changement de registre sans articulation), mime de voyellescommunément utilisées (/a/, /i/)- enregistrements des sons résultants de ces différentessituations, réalisés sur la clarinette du laboratoire, dontl'anche plastifiée avait été minutieusement fixée pendanttoute la durée de l'expérience.Ces mesures, très reproductibles (de 2 à 8% pour lesfréquences de résonance, 2 dB pour l'amplitude) mettent enévidence deux phénomènes : des différences inter-joueurs quise manifestent dans tous les registres et des différencesintra-joueurs suivant les situations. Ces différences serépercutent sur les sons produits. Cependant, il est à l'heureactuelle difficile d'attribuer cette différence sonorepurement à un changement de géométrie, plutôt qu'à unevariation de la pression et la position de la langue surl'anche due à ce changement de géométrie du conduit vocal. Cesdeux effets ne pourront être dissociés qu'avec l'utilisationd'une bouche artificielle.Celle-ci est présentement en cours de construction à l'<strong>Ircam</strong>.Les résultats seront alors comparés avec des simulationsnumériques utilisant les mesures d'impédance réalisées ainsiqu'un programme d'équilibrage harmonique, Harmbal, développéavec Farner au LMA.Participante : Claudia Fritz (thèse)Collaborations extérieures : LMA (Jean Kergomard et S. Farner); Joe Wolfe (University of New South Wales - Sydney,Australie)1.1.4 Bouche artificielle multi-instruments.En <strong>2003</strong> a débuté une coordination <strong>Ircam</strong>-LMA, autour de laréalisation d’une bouche artificielle capable de s’adapter àplusieurs instruments (projet MIAM : Multi InstrumentsArtificial Mouth). En particulier les instruments cibles sontles instruments à anche simple, à anche double et les cuivres.La prise en compte d’un conduit vocal était également unepriorité.- 43 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique instrumentaleLa réflexion sur ce sujet a bénéficié de l’analyse des diverssystèmes de type bouche artificielle développés depuisplusieurs années dans la communauté scientifique. L'ateliermécanique de l'<strong>Ircam</strong> a massivement contribué à la réalisationde ce nouveau type de bouche artificielle (pratiquementfinalisé). Les particularités et avantages du nouveaudispositif par rapport à celui développé lors de la thèse deC. Vergez sont, outre la modularité qui permet l’utilisationde différents instruments : la présence d’un conduit vocalmodulable, une tension des lèvres ajustable, un fonctionnementdes lèvres à volume d’eau constant ou à pression d’eauconstante, un écart entre les dents contrôlé, la possibilitéde modifier la texture interne des lèvres indépendamment de latension de leur enveloppe de latex.Participants : Christophe Vergez (LMA, Marseille) ; AlainTerrier (Atelier mécanique)1.1.5 Projet DOREMILe projet européen DOREMI (Directionally OptimisedRepresentation of Musical Instruments) a été mené à son termeet soutenu devant une commission européenne en septembre <strong>2003</strong>.Sur le fond, le projet vise à étudier expérimentalement lespropriétés spatiales (rayonnement acoustique) de différentsinstruments de musique et à intégrer ces phénomènes au niveaudes processus de captation (prises de son) ainsi que derestitution (binaural, multi-canal, réseau de haut-parleursdistribués, …) d'un instrument ou d'un ensemble d'instruments.Sur la forme, le projet constitue un avant-projet (assessmentproject) d'une durée réduite - un an - et impliquant un nombrerestreint de partenaires - en l'occurrence : DTU et <strong>Ircam</strong> - :dans les faits, il permet de préparer un projet à plus grandeéchelle en amorçant les études et en démontrant la pertinenceet la faisabilité des idées avancées.Après la présentation de DOREMI et sur les recommandations dela commission européenne, une suite au projet DOREMI a doncété rédigée et déposée à la fin de l'année : elle inclut unplan de travail de 3 ans et rassemble un consortium de4 partenaires : l'Université Technique du Danemark (DTU),l'<strong>Ircam</strong>, l'Université du Surrey (IoSR) et la société TC-Electronic. Ses enjeux principaux peuvent se résumer par lesquatres points suivants :- le développement et l'optimisation d'une procédureexpérimentale adaptée à la mesure de la directivité dedifférents types d'instruments de musique ;- l'évaluation perceptive de l'influence de la directivité dessources en milieu réverbérant ;- la mise au point de techniques de modélisation durayonnement des instruments de musique ;- le développement de prototypes et d'applications issus desrésultats expérimentaux obtenus et des connaissancesacquises dans le domaine de la perception et de lamodélisation.Participant : R. CausséCollaborations internes : O. Warusfel (équipe Acoustique dessalles), N. Misdariis (équipe Design sonore)Collaborations externes : J.- H. Rindel et F. Otondo(Technical University of Denmark) F. Agerkvist (DTU -Danemark), T. Brooks, F. Rumsey, R. Mason (IoSR - Grande-- 44 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique instrumentaleBretagne), K. Rishoj, S. H. Nielsen (TC Electronics -Danemark)1.1.6 Synthèse par modélisation physique - LogicielModalysLes connaissances actuelles en acoustique musicale constituentun potentiel largement sous exploité en synthèse parmodélisation physique. L'équipe de recherche-développementconstituée en <strong>2003</strong> (un développeur et un chercheur à tempspartiel) et les modifications envisagées pour ce logiciel,décrites dans le Projet d'activité 2002, ont commencé à êtreintégrées.1.1.7 Techniques de calculs numériques appliquées à lasynthèse dans ModalysLes techniques de calcul numérique par éléments finis sontimplémentés dans le code Modalys. Il est désormais possible decalculer les modes d'une structure définie par son maillage.L'objet ainsi créé peut interagir avec tous les autres objetsModalys via le formalisme habituel. Modalys possède quelquesfonctions de base pour créer un maillage. L'interfaçage entreModalys et le visualisateur de maillage 'medit' est assezpoussée. Il permet de visualiser les modes (sous formed'animations), le champ de contraintes aux interfaces, et lesinformations utiles relatives au maillage.1.1.8 Interface de programmation et contrôle temps réelLes compositeurs ont manisfesté leur souhait de commanderModalys à partir du langage Lisp. Ceci est, en effet, lapremière étape vers l'intégration dans OpenMusic.L'interface avec Lisp a bien progressé : il existe maintenantune librairie dynamique Modalys dont les fonctions peuventêtre appelées à partir de l'utilisateur de Lisp pour Macintosh'MCL'.Grâce à l'utilisation du protocole OpenSoundControl (OSC), ilest désormais possible de piloter Modalys en temps réel. Ceprocédé passe par la création de contrôleur dynamique tempsréel.Participants : N. Ellis et J. BensoamCollaboration interne : N. Misdariis (équipe Design sonore),C. Vergez (LMA, Marseille)Collaborations extérieures : LAUM, M. Raous (LMA)1.1.9 Projets de valorisation autour de modificationsd'instrumentsCes projets portent sur des améliorations ou extensions despossibilités d'instruments existants. Munie du bec à volumevariable, la clarinette devient un instrument hybride capablede produire non seulement des intervalles microtonaux trèsprécis, mais aussi des glissandi, des variations de couleur etautres effets inédits. L'équipe s'est chargée en <strong>2003</strong> defiabiliser le dispositif et de le promouvoir auprès desinstrumentistes et compositeurs et d'élargir son utilisation àd'autres musiques (tsiganes et klezmer).Participant : A.Terrier (Atelier mécanique)- 45 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique instrumentaleCollaborations extérieures : F. Laloë (laboratoire de l'ENS),C. Robinson, S. Berthod, R. Pinsard, M. Carrozzo(clarinettistes), M. Lanza (compositeur1.1.10 Publications et communicationsArticles parus dans des revues à comité de lecture[Bensoam 02b] Bensoam J., "A reciprocal varational approach to the two bodyfrictionless contact problem in elastodynamics", International Journal forNumerical Methods in Engineering (en révision)Actes de congrès avec comité de lecture[Bensoam03a] Bensoam, J., Caussé, R., Vergez, C., Misdariis, N., Ellis, N.,« Sound synthesis for three-dimensional object: dynamic contact between twoarbitrary elastic bodies », Stockholm Music Acoustics Conference (SMAC),vol. 1, Stockholm, <strong>2003</strong>, pp. 369-372[Almeida04a] Almeida A., Vergez C., Caussé R. et Rodet X.,Experimental investigations on Double Reed Quasi-Static Behavior, 2004.[Almeida03a] Almeida, A., Vergez, C., Caussé, R., Rodet, X., «Experimental research on double reed physical properties and itsapplication to sound synthesis », Stockholm Musical Acoustics Conference,Stockholm, <strong>2003</strong>.[Fritz SMAC<strong>2003</strong> ] Fritz C., Wolfe J., Kergomard J. & Caussé R. , Playingfrequency shift due to the interaction between the vocal tract of themusician and the clarinet. In Proc. SMAC, pages 263--266, Stockholm,Sweden, <strong>2003</strong>.Travaux universitairesMémoires de maîtrise, DEA et d’écoles d’ingénieurs[Desmond] Desmond E., Mise au point d'un protocole de caractérisation dufeutre du marteau de piano et premiers résultats, Magistère de sciences dela matière option physique, ENS Lyon, Juin <strong>2003</strong>.[Batifol] Batifol C., Etude des propriétés viscoélastiques du feutre demarteau de piano,Rapport de stage de fin d'études, Ecole Nationale Supérieure d'Ingénieursdu Mans, juillet <strong>2003</strong>.Diffusion de connaissances[Caussé 02] Boutillon X. et Caussé R., Le piano et le Violon, Polycopié ducours Physique des Instruments de Musique, ParisTech, Novembre <strong>2003</strong>.Jurys de thèseM. Aramaki, Analyse-synthèse de sons impulsifs : approches physique etperceptive, Université de la méditerranée, Aix-Marseille II, Juin <strong>2003</strong>(rapporteur).O. Houix, Catégorisation auditive des sources sonores, Université du Maine,juillet <strong>2003</strong>.J. Bensoam, Représentation intégrale appliquée à la synthèse sonore parmodélisation physique - Méthode des éléments finis, Université du Maine,juin <strong>2003</strong>.C. G. Tsai, The Chinese Membrane Flute (dizi) : Physics and Perception ofits Tones, Humboldt-Universität zu Berlin, novembre <strong>2003</strong> (rapporteur).Autres activitésA. Almeida, Organisation des Journées Jeunes Chercheurs en AcoustiqueMusicale, Audition et Signal Audio (JJCAAS) à l'Ecole Nationale Supérieuredes Télécommunications à Paris.A. Almeida, Participation à l'article (Modélisation : Des instrumentsgénétiquement modifiés, Christophe Blanc) dans Sciences et Avenir,Septembre <strong>2003</strong>.- 46 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des salles1.2 Acoustique des sallesResponsable Olivier WarusfelL’année <strong>2003</strong> représente pour l’équipe l’aboutissement d’uncycle de recherches et de développements suscités par lesprojets européens Carrouso et Listen. Des avancées notablesont été recueillies dans les domaines de la reproduction dechamps sonores holophoniques et de la réalité augmentéeinteractive. A l’issue de ces 3 années, ces projets ontatteint une première phase de maturité permettant leurexploitation dans le cadre du concert ou des installationssonores interactives.Une part importante du travail a été consacrée audéveloppement de la technique de rendu holophonique, enmettant l’accent sur les procédés d’égalisation multicanal quipermettent simultanément le contrôle du champ direct et celuide l’effet de salle associé. Par ailleurs, une méthodeoriginale de synthèse de la directivité des sources a étédéveloppée et validée objectivement dans le cadre de lareproduction holophonique. Le contrôle de l’effet de salle estenvisagé parallèlement sous l’angle de la compensation ducontexte d’écoute lorsque la restitution exige sa neutralité,ou au contraire sur la mise en cohérence de l’effet de sallesynthétisé et de la salle d’écoute afin de contribuer à lasensation de la présence des sources virtuelles.Les travaux sur la reproduction binaurale ont été consacrésprincipalement aux techniques d’adaptation individuelle,envisagées successivement à travers l’optimisation et lavalidation de procédés d’encodage multicanal, l’adaptation duparamètre de retard inter-aural et sa modélisation à partir deparamètres morphologiques ou à partir de simulationsnumériques basées sur une modélisation physique de la tête.Enfin, une étude originale a été consacrée à la plasticitéauditive spatiale en observant comment l’adaptation du systèmeauditif à des HRTFs non-individuelles peut être stimulée grâceà une phase d’apprentissage mettant en jeu un principeperception-action.Sur le plan de la recherche amont, les études ont concerné,d’une part, l’analyse automatique de scène et, d’autre part,la cognition spatiale auditive. L’année <strong>2003</strong> a vul’aboutissement du travail de thèse d’Alexis Baskind avec desrésultats très prometteurs sur l'extraction automatique deparamètres de description de l'organisation spatiale de lascène. Les études sur la cognition spatiale auditiveélargissent le champ de recherche consacré à la perceptionspatiale en y intégrant d'autres modalités sensorielles tellesque les dimensions visuelles ou idiothétiques. La motivationde ces recherches est liée à l'expansion des installationssonores interactives et au rapprochement avec les domaines dela réalité virtuelle ou augmentée pour lesquels différentesvoies sensorielles sont sollicitées conjointement. Ce nouveauvolet de recherche a fait l’objet d’une série d’expériencesexploratoires permettant de baliser le terrain de recherchepour les prochaines années.- 47 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des salles1.2.1 Outils auteurs pour l’édition et le contrôle descènes sonoresL’année <strong>2003</strong> a été consacrée à la poursuite des efforts visantla création d’un outil de construction et de visualisation descènes sonores virtuelles dans le cadre d’applications de laréalité audio augmentée. Cet objectif original s’estprogressivement élargi à d’autres types d’applicationss’articulant essentiellement autour de besoins en termes decontrôle de la spatialisation. L’outil a ainsi permisd’intégrer des développements effectués dans le cadre duprojet CARROUSO pour la création et la transmission de scènesau format MPEG-4. Le travail a pu être évalué au cours demises en situation dans le domaine de la création ou del’expérimentation scientifique sur la cognition spatiale (cf.§ 1.2.3 et § 1.2.6.1).1.2.1.1 ListenSpaceRéalités audio augmentéesLa construction de scènes sonores interactives, en particulierdans le cadre de réalités audio augmentées, nécessite un outilauteur permettant la création, la représentation et lamanipulation des éléments sonores virtuels qui les composent.Ainsi, ListenSpace représente sous forme de projectionbidimensionnelle les éléments physiques et virtuels d’ununivers tridimensionnel simplifié. Les éléments de la scènesont représentés de façon schématique et proposent uneinterface permettant de contrôler l’ensemble des paramètresqui les caractérisent (paramètres perceptifs d’une sourcesonore, par exemple).Les pré-requis pour un tel environnement impliquent égalementune flexibilité suffisante pour faire face aux différentessituations d’interaction désirées. Les développements relatifsà ListenSpace ont été guidés par des objectifs liés à lasimplicité et à la connectivité : ListenSpace est avant toutun moyen de représentation géométrique de la scène sonore,capable de transmettre aux applications connectées différentsparamètres géométriques de la scène nécessaires àl’interactivité (position absolue des éléments, positionsrelatives entre des éléments, interactions entre élémentstelles que les entrées et sorties de zone, …).Nous avons mis en évidence, particulièrement dans le cadre deréalités audio augmentées, la nécessité d’agir sur la scènesonore au moment même de son exploration. ListenSpace a étéainsi adapté pour les ordinateurs ultra-portables de type «tablet PC » permettant par une communication sans fil, decontrôler la scène représentée dans un repère absolu ou centrésur l’utilisateur et rafraîchie en temps réel en fonction deses déplacements.Différents développements complémentaires ont été réaliséstels que l’application «StarApp» qui implémente uneredirection « en étoile » des messages réseau transmis par ouvers ListenSpace, ainsi que le module « Reactor » quiconstitue un cadre de programmation permettant le- 48 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallesdéveloppement rapide de comportements pour les éléments de lascène. Quelques exemples de «comportements» ont été développés: l’un d’entre eux consiste à forcer une source sonore àsuivre un auditeur avec un déplacement dont il est possible decontrôler la vitesse et l’inertie. Deux autres applicationsont été conçues par ailleurs pour enregistrer et rejouer lesdéplacements de l’auditeur.Le contrôle de la spatialisation et la transmission de scènessonoresTrès proche des objectifs initiaux, le contrôle de laspatialisation est l’une des applications envisagées pourListenSpace. ListenSpace apporte une solution indépendante desmoteurs de rendu du signal sonore : son utilisation permet enoutre la répartition des calculs en parallèle sur plusieursmachines effectuant le rendu sonore, ainsi que lacommunication avec des moteurs de rendu de naturesdifférentes. L’aspect distribué sous-jacent propose unavancement significatif puisqu’il permet de détacherl’interface de contrôle du choix du moteur de rendu sonore etde piloter la spatialisation directement depuis la zoned’écoute. ListenSpace est ainsi régulièrement utilisé pour lecontrôle de scènes sonores dans le cadre de la diffusion enmode Wave Field Synthesis basé sur l’utilisation d’un ouplusieurs réseaux de haut-parleurs et d’une puissance decalcul répartie.Les mises en situationL’évaluation de ListenSpace s’effectue au sein d’un ensemblede mises en situation : chacune permettant de mettre enévidence les réels besoins en termes de fonctionnalitésd’édition et d’interactivité.- Expériences sur la cognition spatiale auditive menées encollaboration avec le CNRS-UMR7593 - Hôpital de laSalpêtrière (cf. § 1.2.3). ListenSpace a été largement mis àcontribution dans ces expériences cognitives dont la mise enœuvre rejoignait de près une situation de réalité audioaugmentée. A cette occasion, ont été conçues desapplications complémentaires permettant l’enregistrement etla reproduction des mouvement de l’auditeur.- Réalisation d’un jeu sonore interactif par Julien Perraudeau/ Association Hérisson.- Esquisse autour de « Secrète Lisboa » de Cécile Le Prado(cf. § 1.2.6.1) pour laquelle l’objectif est d’adapter lematériau musical originellement construit pour une diffusionen 5.1 en visant une écoute interactive basée sur lanavigation de l’auditeur dans une partition spatiale.- Expérimentation avec la danse (Espace de projection, août<strong>2003</strong>) : dans cette expérience, le processus despatialisation est renversé et l’espace est utilisé commeparamètre d’entrée du système. Un dispositif de trackingdélégué à un(e) danseur(se) contrôle la lecture, la synthèseou la transformation de flux sonores. En cette occasion, ontété conçus les modules de type «reactor» permettant, parexemple, d’asservir la position d’objets sonores par rapportau danseur, par rapport à un point d’écoute prédéfini, ou- 49 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallesselon un angle dépendant des mouvements. L’objectif de cetteexpérience était d’observer dans quelle mesure l’utilisationde la spatialisation du son combinée à un système de suivide position permettait de jouer sur la cohésion entre lecontenu sonore et la chorégraphie.Participants : O. Delerue, E. RioCollaborations extérieures : C. le Prado, J. Perraudeau, I.Viaud-Delmon, J. Mason (chorégraphe)1.2.1.2 Outil auteur pour le format MPEG-4Les développements menés dans le cadre du projet CARROUSO etpermettant la définition et la transmission de scènes sonoresau format MPEG-4 ont été finalisés et définitivement intégrésà ListenSpace : la scène sonore construite dans ListenSpaceest convertie dans un format textuel et transmise à unencodeur MPEG-4 qui se charge du multiplexage avec le contenusonore. A ce stade, ListenSpace est donc utilisé comme outilauteur dédié à la description de la scène sonore àtransmettre. Au delà de la description de la position desdifférentes sources sonores et de l’auditeur, l’outil permetd’importer des descripteurs de l’effet de salle issus, parexemple, d’une analyse de réponse impulsionnelle mesurée insitu.Des fonctions d’édition et d’automation de trajectoiresont été également implantées.Le résultat est transmis soit sous forme de flux, soit sousforme de fichier à un décodeur MPEG-4. L’une des originalitésde la démarche est de transmettre, simultanément aux donnéesde description de la scène, une représentation graphiqueinteractive de ses composantes grâce aux primitives graphiquesdu format MPEG-4. Ainsi, au moment de la réception et dudécodage, la représentation graphique de la scène sonore estpartiellement reconstituée, semblable à celle définie dansListenSpace, et fournit automatiquement à l’auditeur uneinterface graphique lui donnant accès aux paramètres decontrôle. Cependant, de manière à préserver l’intégrité de lascène transmise, l’auteur a le choix de définir lescomposantes de l’interface qui seront accessibles àl’interaction de l’utilisateur final. L’auteur décide de lareprésentation graphique de la scène et l’éditeur de sourcelui permet d’indiquer les options de visualisation etd’interaction de chaque paramètre marqué comme « editable »,« visible » ou « caché ». Cette propriété garantit le niveaude propriété du résultat sonore.Participants : R. Väänänen, O. DelerueCollaborations extérieures : G. Zoia (EPFL)1.2.2 Description automatique de scèneLes futures générations de contenu audio feront appel à destechniques d’incrustation et de mixage automatique permettantpar exemple le mixage entre des formats audio divers oul’inclusion d’un objet sonore dans une scène pré-enregistréeou pré-mixée. Pour faciliter le travail de l’ingénieur du sonou du musicien il s’avèrera important de guider sinonautomatiser le travail de mixage pour assurer la transparenceet la cohérence du résultat final. Ces techniques s’appuierontnotamment sur des modèles de description automatique de scènessonores permettant de dégager une description symbolique de la- 50 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallesscène à partir des signaux audio qui la composent. Ladisponibilité de cette description ouvre la voie à destransformations ultérieures ou à l’inclusion d’un nouvelélément dont la spatialisation sera synthétisée en fonction dela description de scène obtenue (placement automatique dessources dans l’espace pour minimiser les masquages mutuels etrespect de l’effet de salle). Le travail de thèse présentéci-dessous constitue une première étape dans une voie que nousdésirons poursuivre dans les prochaines années.1.2.2.1 Extraction automatique de descripteurs spatiauxL'objet de cette recherche est de proposer des méthodesautomatiques de description objective des aspects spatiauxd'une scène sonore enregistrée, sans connaissance préalable nides sources qui la composent, ni du message sonore diffusé, nides caractéristiques du lieu d'enregistrement. L'étude seconcentre plus spécifiquement sur l'estimation de la directionde la source (supposée unique et stable dans un premier temps)et sur une caractérisation de l'enveloppe de réverbération. Uncadre théorique, inspiré des modèles d'audition spatiale,permet de développer un ensemble homogène de méthodes dedétection et d'estimation, basées sur des statistiques nonstationnaires d'ordre 2 relatives aux relations entre lesvoies de l'enregistrement. Les informations obtenues danschaque bande de fréquences sont ensuite regroupées etinterprétées au moyen de descripteurs de plus haut niveau. Lapertinence de cette approche est étudiée sur desenregistrements binauraux synthétiques et réels.L'essentiel du travail mené en <strong>2003</strong> a consisté en une synthèsedes différentes études menées jusqu'ici, dans une optique derédaction du mémoire [Baskind03b]. Cela a été notammentl'occasion de développer et de consolider le modèle dedétection et de localisation dit "par égalisation etannulation", inspiré par des modèles psychoacoustiquesd'audition spatiale, et reposant en pratique sur desalgorithmes inspirés des techniques monophoniques de détectionde sons harmoniques développées par Alain de Cheveigné del'équipe Perception et Cognition Musicales à travers leprogramme 'Yin' [DeCheveigne02k]. La récente implémentation entemps réel de Yin par Norbert Schnell de l'équipe"Applications temps réel" permet de souligner la pertinence decette approche, et d'envisager le développement d'applicationsbasées sur les méthodes de détection et de descriptionproposées dans ce travail. Cette thèse a été présentée etsoutenue publiquement en décembre <strong>2003</strong>.Toujours dans le cadre de cette collaboration ont étéprésentés, à la 24e conférence spécialisée de l'AES, destravaux annexes basés sur l'estimation de fréquencefondamentale en milieu réverbérant [Baskind03a].Participants : A. Baskind (thèse)Collaborations internes : A. de Cheveigné (équipe Perceptionet cognition musicales)1.2.3 Cognition spatiale auditiveDans le domaine de la reproduction sonore ou de lacommunication les technologies audio futures tenteront deprivilégier les sensations d’immersion et de présence. Cesnotions sont intimement liées aux dimensions spatiales d’une- 51 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallesscène multimedia et en particulier sonore. Bien que lamodalité auditive présente des performances de localisationmoins précises que la vision, l’audition accède en permanenceà l’ensemble de la sphère spatiale perceptive et contribuefortement à la sensation d’immersion. La présence estnotamment renforcée dans les situations impliquant une actionde la part de l’auditeur, soit à travers sa navigation dans lascène, soit à travers une interaction gestuelle avec lesobjets qui la composent. Dans ces conditions, renduespossibles par les technologies holophoniques ou binaurales (àcondition, pour ces dernières, d’être asservies à un systèmede suivi de position) la congruence et le rafraîchissement entemps réel des indices auditifs spatiaux en fonction desmouvements ou actions de l’auditeur ont un impact majeur surla sensation de présence. Ce nouveau contexte a motivé lelancement d’une série d’expériences consacrées à la cognitionspatiale auditive, notamment à travers l’étude de processusd’intégration multi-sensorielle, en privilégiant les modalitésauditives et idiothétiques (indices induits par le mouvementdu sujet et incluant l’équilibre et la proprioception). Laméthodologie expérimentale fait appel à des expériencescomportementales liées à l’observation des performances delocalisation ou de navigation des sujets soumis à différentscontextes exploratoires. Ce domaine d’étude est menéconjointement avec le CNRS UMR 7593, Hôpital de laSalpêtrière, qui nous apporte ses compétences dans le domaineexpérimental et méthodologique sur l’étude de la perceptionmultisensorielle et sur la cognition spatiale.1.2.3.1 Environnement expérimentalLes différentes expériences décrites dans les paragraphessuivants ont nécessité la mise au point préalable d’unenvironnement expérimental de réalité virtuelle permettant degérer les modalités visuelles, auditives en interaction avecla capture de mouvement ou de contrôles gestuels du sujet.Afin de minimiser les développements nécessaires et restercompatible avec le Spatialisateur, nous avons opté pour unearchitecture ouverte et modulaire basée sur la mise en réseaude différents composants disponibles en interne ou accessiblesaisément sur le marché. Les principaux éléments sont lelogiciel Virtools, permettant l’importation de scènesvirtuelles, et l’édition de scripts comportementaux à l’aided’un langage graphique. Ces scripts ont ici le rôle dedescription et d’exploitation du protocole de tests. Pour lacomposante audio3D, un module de communication UDP utilisantle protocole OSC a été développé afin d’établir lacommunication avec notre outil d’édition de scène sonoreListenSpace et/ou notre moteur de rendu 3D, le Spat~. Uneversion ultérieure pourra utiliser la version C du Spat~développée par FranceTelecom et supportée par Virtools.A l’occasion de cette collaboration, différents modules ontété développés dans ListenSpace et dans le Spat~. DansListenSpace, il s’agit d’un ensemble de plugins périphériquespermettant par exemple l’enregistrement et la lecture desdonnées de navigation du sujet.- 52 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallesDes efforts spécifiques ont été entrepris afin de rendreplausible la scène sonore présentée aux oreilles del'auditeur, ainsi que sa cohérence avec la scène visuelle(navigation dans un environnement urbain). Parmi lesdifférentes solutions envisagées, une composition en deuxniveaux de restitution a été retenue. Le premier niveau estconstitué de scènes sonores au format Ambisonics, actives surtout l'espace de navigation et entre lesquelles l'auditeurpeut se déplacer de manière fluide. Les scènes sonoresretenues sont issues d’enregistrements effectués en situationurbaine et ont été choisies pour leur caractère immersif etréaliste. Le deuxième niveau, qui se superpose au premier, estconstitué de sources sonores ponctuelles spatialisées en modebinaural et associées à des éléments identifiables del'environnement visuel.Participants : O. Delerue, E. RioCollaborations extérieures : I. Viaud-Delmon, Y. Ouallouche(UMR7593)1.2.3.2 Conflit visuo-auditif de localisationdirectionnelleLa perception spatiale doit être coordonnée à traversplusieurs modalités sensorielles. Cette tâche représente unproblème non trivial dans la mesure où chaque modalité encodel’information spatiale d’une manière propre. Par ailleurs, lecerveau doit continuellement ré-évaluer les différentesdonnées d’entrée pour optimiser la correspondance entre lemonde extérieur et sa représentation mentale. Pour étudiercomment nos différents sens contribuent à l’émergence d’unpercept unique, la réalité virtuelle offre un cadre appropriépermettant, par exemple, de créer des situations de conflitsensoriel. Dans le cas présent, l’idée était de présenter desstimuli sonores synchronisés temporellement avec desévénements visuels mais en introduisant un biais systématiquede localisation en azimuth de 15° vers la gauche (stimulusvisuel à gauche à par rapport à l’événement auditif).L’objectif est d’observer si l’exposition du sujet à cettesituation conflictuelle « ventriloque » aboutit à unerecalibration de l’espace auditif incluant également despositions spatiales non présentées lors de la phased’immersion. Le protocole utilisé est basé classiquement surune étude en trois phases. Dans une phase initiale, on mesureles performances de localisation auditive du sujet ensituation auditive pure (sujet masqué). Dans un second temps,on expose le sujet au conflit sensoriel pendant une duréecontrôlée à l’issue de laquelle on reitère la phase de mesurede localisation en modalité auditive pure. L’influence duconflit est évaluée à travers l’observation des éventuellesdifférences de performances intervenues entre les deuxsituations de mesure de la localisation auditive. Différenteshypothèses peuvent être émises sur l’influence de la phase dere-calibration. Si dans l’espace frontal on peut s’attendre àune rotation des réponses de localisation, la question se posepour les stimuli auditifs arrière qui n’ont pu par évidenceêtre directement soumis à une situation de conflit. On peutémettre trois hypothèses concurrentes: (1) la localisationsubjective ne présente pas d’altération ; (2) la localisationauditive fait apparaître une rotation des événements perçus- 53 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallespar rapport aux stimuli ; (3) la localisation auditive faitapparaître une translation (latéralisation) des événements. Al’issue de l’expérience on a pu montrer que la phase deconflit entraînait bien une recalibration auditive del’ensemble de la sphère auditive, afffectant principalement ledemi-espace droit, mais incluant par conséquent les positionsavant et arrière. Cependant, les difficultés expérimentalesliées à l’usage de fonctions de transfert de tête (HRTFs) nonindividuelles rendent délicate l’interprétation sur les hémichampsavant et arrière, dans la mesure où de nombreusesinversions avant-arrière subsistaient. Cette étude devraitêtre poursuivie en améliorant différents aspects du protocole,notamment la phase préalable de sélection des HRTFs pour lessujets, les modalités de report de la localisation et de laphase de conflit (modalité visuelle virtuelle ou réelleincluant ou non la représentation de la main du sujet) [Viaud-Delmon04b].Participant : G. VandernootCollaborations extérieures : L. Sarlat, I. Viaud-Delmon(UMR7593)1.2.3.3 Comparaison des performances de navigation enréalité virtuelle visuelle ou audio-visuelleLe but de l’étude est de fournir des données sur l’importancede la modalité auditive dans les environnements de réalitévirtuelle en particulier au regard des tâches de navigation.L’expérience consiste à mesurer les performances de navigationspatiale en comparant différents environnements virtuelsmettant en œuvre une synthèse purement visuelle (Vis) ouaudio-visuelle (Avis). Un aspect conjoint, lié au domaine derecherche de nos partenaires du laboratoire de la Salpêtrière,est de mesurer l’impact pour les applications de réalitévirtuelle à usage clinique. Différents groupes sujets sontainsi conviés à l’expérience afin de comparer l’importance dela composante auditive pour les sujets normaux ouagoraphobiques.Les sujets étaient équipés d’un casque de vision 3D etimmergés dans un environnement urbain virtuel. Les sujetspouvaient avancer à l’aide d’un bouton de souris, tandis queles changements de direction étaient induits par la rotationdu corps captée par un dispositif de suivi électromagnétique.La tâche consistait à repérer un ensemble de balises et à sefamiliariser avec la topographie du lieu. Dans la conditionaudiovisuelle les sujets étaient équipés d’un casque d’écoutedélivrant un paysage sonore rafraîchi en temps réel enfonction de leur déplacement. Le paysage était constitué d’unesérie d’ambiance tri-dimensionnelle captées en situationurbaine à l’aide du format ambisonic permettant un traitementspatial ultérieur afin de retranscrire les déplacementsrelatifs du sujet dans la scène. Par ailleurs différentesbalises auditives, spatialisées en mode binaural, étaientégalement disposées le long du parcours. Les résultatsprincipaux de l’étude montrent une amélioration desperformances de navigation dans la condition audio-visuellecomparativement à une situation visuelle pure. Cetteamélioration est quantifiée par le temps passé à trouver lesdifférentes balises dans la ville, ou à replacer celles-cilors de la phase de report graphique après l’expérience. Par- 54 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallesailleurs l’analyse des questionnaires établis à l’issue del’expérience révèle une sensation de présence accrue dans lacondition audiovisuelle. La comparaison entre les deuxgroupes sujets montre une sensibilité supérieure des sujetsagoraphobiques aux échelles évaluant différents aspectsd’inconfort (cybersickness) pouvant révéler un degré moindred’intégration multi-sensorielle. Différents aspects decongruence inter-modalitaire, technologiques (latence) oucognitifs, peuvent en être l’origine et doivent être évalués[Viaud-Delmon04a].Participant : E. RioCollaborations extérieures : I. Viaud-Delmon, A. Seguelas, Y.Ouallouche (UMR7593)1.2.3.4 Auditory WatermazeLes performances de l’audition spatiale sont généralementconsidérées pauvres par rapport à la vision. La résolutionangulaire est plus faible et les tests de localisationauditive pure, menés avec des HRTFs, montrent d’importantesdéviations ou confusions sauf pour des sujets entraînés.Cependant l’audition est la seule modalité perceptive quidonne accès instantanément à l’ensemble de la sphère spatiale.Afin d’étudier comment une scène spatiale peut être mémoriséesur la seule base d’indices auditifs et idiothétiques(sensation induite par le mouvement propre du sujet), nousavons reproduit l’expérience du Watermaze de Morris,classiquement utilisée en neurosciences en l’adaptant aucontexte auditif. Les sujets masqués sont équipés d’un casqued’écoute sans fil qui délivre un paysage sonore rafraîchi entemps réel en fonction de leur déplacement. Un système desuivi de position utilisant des marqueurs passifs repérés pardes caméras infrarouge envoie la position et l’orientation del’auditeur au système de spatialisation qui effectue en tempsréel la synthèse de la scène sonore en mode binaural. Ledéveloppement technologique est directement issu du projetListen. La tâche du sujet consiste à se familiariser avecl’organisation spatiale de la scène et à y repérer le plusrapidement un objet sonore caché qui n’est déclenché quelorsque le sujet se rend à une position bien précise. Une foisla phase d’apprentissage achevée et la scène acquise, on peutégalement introduire des modifications topographiques desbalises auditives ou des lois acoustiques utilisées pour lerendu de la scène sonore de manière à en évaluer l’impact surles facultés d’orientation du sujet. Ces expériences ontmontré que l’acquisition d’une représentation mentale del’organisation spatiale de la scène était accessible sur laseule base d’une situation auditive et idiothétique, y comprisdans le cas de situations non réalistes sur le plan sémantiqueou acoustique. En revanche, la congruence entre la modalitéauditive et idiothétique est nécessaire. Par ailleurs lessujets ont unanimement noté un haut degré de présence etd’immersion lors de la tâche qui leur était proposée et qui aété jugée très captivante. Au delà des résultats scientifiquescette expérience a ainsi révélé un potentiel intéressant pourcertaines installations sonores qui pourraient utiliseravantageusement le principe d’une privation totale oupartielle de la modalité visuelle au profit d’une modalitéauditive assortie de moyens de navigation [Warusfel04c].- 55 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallesParticipant : O. DelerueCollaborations extérieures : I. Viaud-Delmon (UMR7593)1.2.4 Technologies de reproduction binauraleLa restitution réaliste de sources ponctuelles sur casqued’écoute implique l'usage d'une spatialisation binaurale. Cetype de spatialisation est basé sur le filtrage dynamique dela source sonore par les fonctions de transfert de la tête del'auditeur (HRTF) et pose deux problèmes majeurs. D'une part,les fonctions de transfert utilisées doivent respectercertaines caractéristiques individuelles qui diffèrent d'unetête à l'autre. D'autre part, une implémentation exacte pourchaque source peut se révéler prohibitive en termes de coût decalcul lorsque le nombre de sources s'accroît. Dans le cadredu projet Listen, l’équipe a poursuivi son travail surl’optimisation de l’implémentation par utilisation d’un formatintermédiaire d’encodage multicanal et la validationperceptive des solutions développées.La spatialisation sur casque d'une scène sonore, réactive entemps-réel aux mouvements de l'auditeur, est un des pointsd'étude du projet Listen. Différentes stratégies peuvent êtreadoptées en fonction des matériaux sonores, en particulier desa nature (contenu ou format disponible) et de sa fonctiondans la scène sonore. Suivant les critères de composition, onpeut hybrider différentes techniques de restitution, depuisl'emploi d'un son monophonique (intra-crânien) jusqu'à laspatialisation binaurale de sources ponctuelles.1.2.4.1 Optimisation et validation perceptive du formatd’encodage multicanal pour la restitution binauraleLa constitution d'un format intermédiaire multicanal destiné àl'écoute en binaural est une solution à ces deux problèmes. Ilconsiste en une représentation de la scène sonore sous laforme d'un flux multicanal. Pour être intégrée à la scènesonore, chaque source doit d'abord être distribuée sur lesdifférents canaux selon des coefficients qui dépendent de saposition dans l'espace (fonctions spatiales d'encodage).L'utilisation de gains variables permet ainsi de réduire lecoût de calcul nécessaire à chaque source additionnelle. Lascène sonore ainsi constituée est restituée aux oreilles del'auditeur après une étape globale de filtrage dont le coût nedépend pas de la complexité de la scène sonore. Les filtresutilisés pour ce décodage (filtres de reconstruction) peuvents'adapter aux caractéristiques individuelles de chaque tête.Les fonctions spatiales et les filtres de reconstructionassociés peuvent être obtenus par analyse statistique (PCA)des HRTF. Une nouvelle méthode a été proposée afin d'optimiserce processus d'analyse statistique et d’équilibrer la qualitéde restitution selon les directions de provenance du son et lagamme de fréquence. Il s'agit d'adapter la restitution auxcaratéristiques de la localisation auditive (amélioration dela restitution pour les directions et les fréquences clefs) ouaux circonstances de l'application cible (scène sonore limitéeau plan horizontal par exemple). Ces optimisations ont faitl'objet d'une série de tests de validation perceptive[Rio03a].- 56 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallesParticipants : E. Rio, G. Vandernoot1.2.4.2 Format d’encodage multicanal pour la restitutionbinauraleLa palette des stratégies de spatialisation ne se restreintpas au cas des sources ponctuelles. Afin de restituer desscènes complexes éventuellement issues d'enregistrements,l'utilisation du format Ambisonics peut s'avérer nécessaire.Ce format peut être interprété comme une représentation multicanaldes HRTF, pour laquelle les fonctions spatialesd'encodage seraient définies mathématiquement par lesharmoniques sphériques. Le décodage d'un tel format a donnélieu à des optimisations similaires à la méthode par analysestatistique, notamment en faisant varier le nombre et laposition des directions pour lesquelles la reconstruction estoptimisée (haut-parleurs virtuels).Implémentations :- Décodage paramétrable de scènes Ambisonics sur casque audio,et objets de manipulation de scènes au format Ambisonics(librairie Max/MSP).- Nouvelles versions de l'implémentation du binaural dans leSpat~ (simplification et optimisation du modèle existant,implémentation par convolution).- Développement d'une plate-forme de tests perceptifs baséesur l'exploitation des données du suivi de position (Max/MSP)en relation avec une interface de réponse dans l'environnementVirtools.Participant : E. Rio1.2.4.3 Adaptation individuelleUn problème critique lié à la restitution binaurale est ledegré d’adaptation des auditeurs à une synthèse binaurale nonbasée sur des fonctions de tranfert (HRTFs) individuelles quipeut conduire à des artefacts de localisation tels quel’inversion avant-arrière, des excès ou défauts delatéralisation ou encore la localisation intra-crâniennne. Cesdifférences ont pour origine l’influence de la morphologie desindividus sur la signature acoustique de la localisationcaractérisée par les HRTFs. Une série d’étude est menée pourtenter de fournir des solutions d’adaptation de la synthèsebinaurale à la morphologie du sujet.Adaptation de l’ITDLe but est de trouver une combinaison linéaire de paramètresmorphologique pouvant servir de prédicteur de la dépendancespatiale de l’ITD (inter aural time delay) en fonction dusujet. La procédure a consisté à soumettre la base de donnéesdes variations interindividuelles d’ITD à une analyse encomposantes principales. Cette décomposition permet decaractériser la dépendance spatiale de l’ITD en paramétrantl’influence du sujet. L’étude a prouvé que la premièrecomposante délivrée par l’analyse permet de traduire un fortpourcentage des variations spatiales et interindividuelles etaméliore notablement les résultats précédemment obtenus parl’équipe d’Algazi. Une bonne approximation de cette fonctionpeut être obtenue à partir de la mesure de la circonférence de- 57 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallesla tête, paramètre auquel on pourrait facilement accéder dansun cadre pratique d’accueil de public (préalablement au choixde HRTFs adaptées dans le cadre d’une installation sonorebasée sur des casques).Modélisation physique de l’ITDD’une manière générale la mesure de fonctions de transfertsd’oreille (HRTFs) est coûteuse du point de vue del’infrastructure et du temps nécessaire. Pour éviter cetteétape on peut également envisager une modélisation physiquepermettant de prédire ces HRTFs à partir de la fourniture d’unmodèle morphologique (obtenu par un scan 3D plus ou moinssimplifié). Une première approche peut consister à utiliser unmodèle de tête sphérique à partir duquel on peut estimerdifférents paramètres tels que l’information d’ITD. Si l’onconsidère un modèle sphérique avec conduits auditifs centrésl’analyse de l’ITD montre des déviations importantes (de 10 à20%) par rapport à ce que l’on mesure sur une tête humaine.•Une étude a été menée de manière à introduire un décalage desconduits auditifs sur la sphère et mesurer son influence surla prédiction de l’ITD. Grâce à cette modification on peutretraduire plus exactement la dépendance spatiale de l’ITD.Une expérience psycho-acoustique est en cours de traitementpour évaluer l’importance de ces modifications au regard desperformances de localisation auditive [Busson 04].Participants : S. Busson, G. VandernootCollaboration extérieure : B. Katz (LIMSI), Rozenn Nicol (FTR&D), P.O. Mattei (LMA)1.2.4.4 Etude de la plasticité auditive spatialeContrairement aux études précédentes qui tentent d’adapter lasynthèse aux caractéristiques individuelles cette étude vise àmesurer les capacités d’adaptation des auditeurs à des HRTFsnon individuelles. Différentes études ont démontré lespossibilités de plasticité de l’audition spatiale, cependantastreinte à une phase d’apprentissage lente. L’idée de laprésente étude est de susciter un apprentissage rapide grâce àun protocole mettant en jeu un principe de rétroaction auditifet gestuel.Le protocole du test consistait à mesurer les performances delocalisation en contexte purement auditif (sujets masqués)avant et après une phase d’apprentissage. Deux groupes desujets participaient à l’expérience, l’un utilisant sespropres fonctions des transfert, l’autre utilisant desfonctions de transferts hybrides pour lesquelles l’informationindividuelle d’ITD était préservée mais en utilisant la partieà phase minimale non individuelle, choisie dans la base dedonnées parmi les HRTFs les moins bien adaptées au sujet.La phase d’adaptation était présentée sous forme d’un jeupendant lequel le sujet était amené à manipuler un« faisceau » sonore (bruit rose intermittents) pour chercherdes cibles autour de la tête. Le faisceau était spatialisé enfonction des mouvements de la main du sujet captés par undispositif de suivi de position électromagnétique. Selonl’appartenance du sujet au groupe contrôle ou au groupe test,la spatialisation binaurale était effectuée avec HRTFsindividuelles ou non. Dans ce dernier cas, l’adaptation est- 58 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des salles« espérée » par un processus d’interaction auditive etproprioceptive.L’expérience a prouvé les capacités d’adaptation des sujetsutilisant des fonctions de transfert non-individuelles. Avantla séance d’apprentissage, les performances de localisationdes sujets du groupe test sont moindres que celle du groupecontrôle, notamment au regard de la localisation en élévationet des confusions avant-arrière. Après la séanced’entraînement, les performances du groupe test rejoignentcelles du groupe contrôle qui elles n’ont pas varié. Au-delàde cette observation, il est intéressant de constater que larecalibration auditive a pu être obtenue sans recours à lamodalité visuelle mais par interaction auditive etproprioceptive [Blum03] [Blum04].Participant : A. BlumCollaboration extérieure : B. Katz (LIMSI)1.2.5 Reproduction de champ sonore1.2.5.1 Compensation de contexte dans le cadre de lareproduction holophoniqueLa technique de restitution Wave Field Synthesis (WFS) permetde reproduire les propriétés spatio-temporelles d’un champsonore sur une audience étendue. Parmi les différentestechniques de réseau de transducteurs envisageables, l’<strong>Ircam</strong>s’est intéressé à la technologie MAP (multi-actuator panel)qui offre l’avantage d’un dispositif intégré sous la forme depanneaux éventuellement utilisables comme surface deprojection dans le cadre d’applications multimédia. Cependant,la constitution d’une couronne de MAP entourant la zoned’auditeurs pourrait créer des réflexions qui peuvent s’avérergênantes auditivement. Une technique de compensation del’effet de salle a été étudiée sur la base de procédésd’inversion multicanal. Après analyse de l’agencementgéométrique des panneaux, l’idée consiste à séparerl’égalisation champ libre du son direct des sources virtuellesque l’on veut créer et la partie d’égalisation dédiée à lacompensation des réflexions indésirables. L’analysegéométrique préalable permet de sélectionner les réflexionsqui pourront être objectivement réduites sans provoquerd’artefacts. Lorsque la géométrie s’y prête il est ainsipossible de concentrer la compensation sur les réflexionsd’ordre 1, l’atténuation des réflexions d’ordre supérieurétant automatiquement obtenue.L’étude a fait apparaître la nécessité d’une analyseapprofondie des propriétés du champ acoustique que l’on peutproduire grâce au système WFS, en particulier sur les loisd’atténuation associées aux sources acoustiques virtuelles quine peuvent en toute rigueur égaler les lois naturelles comptetenu des différentes approximations pratiques inhérentes à latechnique.Cependant les simulations effectuées en collaboration avecl’université de Delft montrent la possibilité d’uneatténuation des réflexions effective sur l’ensemble de la zoned’écouteParticipant : E. Corteel (thèse)- 59 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallesCollaboration extérieure : R. Van Zon, D. de Vries (Universityof Delft)1.2.5.2 Contrôle de la directivité des sourcesLes techniques de reproduction holophoniques visent lareconstruction du champ sonore associé aux sources virtuelles.L’application de cette technique pour la synthèse de sourcesvirtuelles présentes dans un espace clos à l’intérieur duquelles auditeurs peuvent évoluer peut engendrer des effetssaisissants et intéressant dans le cadre des applications deréalité augmentée. Cependant la prise en compte del’interaction du champ acoustique virtuel généré avec la salled’écoute doit être pris en compte si l’on veut optimiser cettesensation de présence. En particulier, au moment de lasynthèse de la source sonore, une importance doit êtreaccordée à la restitution des caractéristiques de directivitéde la source et de son interaction avec la salle. Cescaractéristiques sont reconnues comme jouant un rôle dans laperception de la signature acoustique d’un instrument et de lasalle. D’un côté ces caractéristiques sont facilementrepérables lorsque la source évolue autour de l’auditeur ouréciproquement. Par ailleurs, la directivité se répercute surla réponse de la salle. Pour un effet de présence optimal ildonc important de veiller à la mise en cohérence de la salled’écoute avec les propriétés de directivité de la source quel’on cherche à simuler. Cependant la reproduction du champsonore direct associé à la source virtuelle n’est qu’uneapproximation de la réalité, liée aux propriétés des bancslinéaires de haut-parleurs utilisés pour la reproduction.Ainsi, l’effet de salle engendré par excitation de la sallepar le champ sonore virtuel ne peut être conforme à laréalité. Une étude a été réalisée afin simultanément d’opérerla synthèse d’une fonction de directivité associée aux sourcesvirtuelles, modifiable en temps réel le cas échéant, et dedresser le cadre pour la création d’un effet de sallecohérent. Ces études ont fait l’objet de simulations, depremières réalisations et de tests perceptifs informels[Caulkins 03a] [Caulkins 03b] [Warusfel 04a].Participants : T. Caulkins (stage puis thèse), E. Corteel(thèse)1.2.5.3 Contrôle de l’effet de distance dans le cadre dela reproduction holophoniqueUn test d’écoute a été organisé dans le cadre d’une simulationd’une situation de production de contenu audio utilisant leprincipe de restitution par Wave Field Synthesis. Le but dutest était d’évaluer les possibilités de création d’uneperspective sonore en concentrant l’étude sur le contrôle dela distance apparente des sources.A cet effet, la particularité de l’approche holophonique estde fournir deux moyens d’accès à cette dimension auditive.D’une part, grâce au contrôle de la courbure du front d’ondeassocié à la source, qui permet de piloter directement laposition apparente de l’événement sonore. D’autre part, enayant classiquement recours au contrôle du rapport énergétiqueentre le son précoce et le son tardif (effet de salle),dimension utilisée courramment par les ingénieurs du son.- 60 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallesLa situation classique consiste à ajuster le niveau du sondirect en gardant le niveau de réverbération pour jouer sur ladistance apparente de la source. Les études psychoacoustiquesmenées dans différents laboratoires ont affiné cetteproposition et certains logiciels comme le Spatialisateur,proposent l’utilisation de règles psychoacoustiques pouroptimiser le contrôle de la « présence » de la source. En plusde ce critère, la WFS permet de jouer sur la courbure du frontd’onde associé à la source. Même si cet effet de courburen’est pas directement accessible à l’audition sauf ensituation de très grande proximité, cette propriété devientdéterminante dès lors que l’auditeur est autorisé à sedéplacer dans la scène sonore. C’est l’une des grandesspécificités de cette technique de reproduction. Elle permetnotamment la gestion de la profondeur des différentes sourcessonores par la sensation des effets de parallaxe lorsqu’on sedéplace ou de sensation de variations de niveau naturelleslorsqu’on s’approche ou s’éloigne des sources. Par oppositionà la sensation de « présence » obtenue par contrôle du rapporténergétique entre le champ direct et le champ réverbéré, nousdénommons ce paramètre de contrôle, « distance holophonique ».L’idée du test était par conséquent d’étudier « le mérite »respectif de ces deux paramètres de contrôle, en vérifianttout d’abord leur maniabilité et leur perception respectivedans le cadre d’une production sonore utilisant la WFS. Dansun second temps, l’objectif était d’étudier la nécessité dumaintien de leur contrôle indépendant ou au contrairel’intérêt d’une manipulation conjointe.Les différentes phases du test ont confirmé, d’une part, lapertinence perceptive de la distance holophonique, dans lecadre d’installations sonores autorisant la navigation del’auditeur. Par ailleurs, les réponses des sujets ontclairement montré la nécessité d’une distinction entre lamanipulation de la « présence » et de la « distanceholophonique ». Ces résultats sont importants pour laconception d’outils auteurs dédiés à la création de contenupour les installations sonores interactives.Participants : M. Noguès (stage), E. Corteel (thèse)1.2.6 Projet ListenL’année <strong>2003</strong> a vu l’achèvement du projet Listen. Outre lesétudes décrites dans les paragraphes précédents, la dernièreannée du projet a été consacrée à la mise au point desdémonstrateurs qui ont fait l’objet d’expositions publiques auKunstMuseum de Bonn. Deux expositions ont permis d’illustrerles potentialités du système dans les cadres respectifs d’uneinstallation artistique multimédia et dans le cadre d’uneapplication à caractère pédagogique illustrant une nouvellegénération de dispositif d’audio-guide.L’installation ‘‘Raumfaltung’’, réalisation du plasticien BeatZöderer et du compositeur Ramon G. Arroyo avec l’assistance deGerhard Eckel, a permis de valider le concept LISTEN dans ledomaine artistique pour en explorant ses capacités à produireun contenu multi-sensoriel. L’exposition « Macke Labor » a- 61 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallespermis d’étudier de nouvelles formes de présentationinteractive d’un contenu à caractère didactique. Cesexpositions ont permis d’accueillir respectivement 4000 et1600 visiteurs pendant plusieurs semaines.En conclusion du projet, Listen est apparu comme fournissantun nouveau medium reliant de manière originale un contenusonore interactif, le corps en mouvement et l’espace. Grâce audispositif d’écoute et de suivi sans fil l’auditeur-visiteurest immergé dans une scène sonore qui augmente le mondeexploré par la navigation.Différentes voies d’interaction spatiale ont pu êtreexplorées, sous forme de déclenchement de sources, de flux oude transformations sonores, ou encore sous des formes plusévoluées mettant en œuvre une interaction spatio-temporelle,reliant une partition spatiale ouverte et l’historique de lanavigation de l’auditeur. Au cours des études à caractèrescientifique il est également apparu la force « d’immersion »inhérente à ces situations interactives et leur acceptationspontanée par les sujets visiteurs. Cette propriété n’est pasnécessairement liée à la construction de mondes réalistes,mais se prête également à des propositions de naturesymbolique tant du point de vue du contenu sémantique que dela mise en œuvre des propriétés acoustiques associées au mondesonore synthétisé.1.2.6.1 Esquisse musicalesDiffusée dans le cadre de l'Atelier de Création Radiophonique(France Culture) le 30 Novembre <strong>2003</strong>, Secrète Lisboa, deCécile le Prado, intègre dès sa conception la possibilité dedispositifs d'écoute multiples : diffusion stéréo sur leréseau hertzien avec possibilité de décodage Dolby Surround,ainsi qu'une installation sous la forme d'un dispositif 5.1.Les enregistrements de cette fiction documentaire, réalisésdans la ville de Lisbonne, ont été effectués sous deux formatsdifférents : stéréo conventionnelle et prise de son Ambisonics(microphone Soundfield). Cette dernière technique permet decapter une scène sonore selon l'ensemble des directions del'espace. Sa mise en place a nécessité l'étude d'une solutionportable permettant l'enregistrement des 4 canaux que fournitle microphone Soundfield. Lors de la phase de production,différents outils de manipulation et de décodage du formatAmbisonics (issus du projet Listen) ont été réalisés sousforme de plug-ins (Pluggo) pour une utilisation en studio sousenvironnement Protools.La collaboration avec Cécile Le Prado a été poursuivie afin dedécliner le matériau sonore de Secrète Lisboa, et l'adapter audispositif d'écoute du projet Listen. Cette étude à permis dedégager des règles d'écriture propres au contexte de laréalité augmentée. De premières esquisses ont été réalisées etont donné lieu à plusieurs démonstrations.Commande de l'Atelier de Création Radiophonique (FranceCulture) en collaboration avec l'<strong>Ircam</strong>Compositeur : C. Le Prado- 62 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallesParticipants : R. Kronenberg, M. Poletti, E. RioCollaboration extérieure : G. Mardirossian (France Culture)1.2.7 Projet CarrousoL’année <strong>2003</strong> a vu l’achèvement du projet Carrouso. Au cours dece projet, l’ensemble de la chaîne de traitement d’une scènesonore véhiculant ses dimensions spatiales a été élaboré etvalidé. Les aspects aussi divers que la captation par unréseau de microphones, l’encodage au format MPEG4, latransmission, le décodage de la scène sonore et sa restitutionen mode holoponique ont été étudiés et ont fait l’objet dudéveloppement d’un démonstrateur complet.Le projet a fourni l’occasion à l’<strong>Ircam</strong> de se doter d’unsystème de restitution holophonique à la conception duquel ila participé. Ont été notamment développés à l’<strong>Ircam</strong>, unlogiciel de création et de manipulation de scènes au formatMPEG4, des procédés d’égalisation multi-canal utilisé pour larestitution en mode WFS (Wave Field Synthesis) de lalocalisation des sources virtuelles, de leur directivité et deleur effet de salle associé.Un premier prototype constitué d’un réseau modulaire de 56canaux a été développé et démontré dans plusieursmanifestations publiques et professionnelles (convention del’AES à Amsterdam en mars <strong>2003</strong>, Résonances à l’<strong>Ircam</strong> enoctobre <strong>2003</strong> et Nicéphore days en novembre <strong>2003</strong>). Cesdémonstrations ont donné l’occasion de premières esquisses deproduction audio, sous forme de remixage de pièces existantes(Extraits d’œuvres de Yann Maresh et Nicolas Verrin) ou decréation de pièces originales (Rémy Gallichet).Par ailleurs, le projet a permis d’amorcer une évolution dulogiciel Spatialisateur pour son adaptation à la technique derendu holophonique et pour les contextes de productionrépartie, utilisant massivement les communications réseau.Cette mise en réseau est utile pour déléguer certaines partiesdu traitement audio à des unités dédiées (modules de diffusionholophoniques, pluggin de spatialisation sous séquenceurs, …)ou encore pour autoriser le monitoring depuis un logicielauteur embarqué sur une unité portable sans fil, préfigurantainsi de nouvelles situations de production.1.2.8 Publications et communicationsActes de congrès avec comité de lecture[Baskind 03a] Baskind A., de Cheveigné A., « Pitch tracking of reverberatnsounds, application to the spatial description of sound scenes », Proc. of24th Intern. Audio Engineering Society Conference ‘‘Multichannel Audio -the new Reality’’, June <strong>2003</strong>.[Baskind 03b] Baskind A., « Modèles et méthodes de description spatiale descènes sonores : application aux enregistrements binauraux»,. Thèse enScience Mécanique, Acoustique et Électronique. Paris : Université Paris 6(Pierre et Marie Curie), <strong>2003</strong>. [Thèse non publiée][Blum 04a] Blum A., Katz B., Warusfel O. « Eliciting adaptation to nonindividualHRTF spectral cues with multi-modal training presence », Proc.7 ème Congrès Français d'Acoustique / 30. Deutsche Jahrestagung für Akustik,Strasbourg (2004)[Busson 04a] Busson S., Nicol R., Warusfel O. « Influence of the earscanals location on spherical head model for the individualized interaural- 63 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallestime difference presence », Proc. 7èmeCongrès Français d'Acoustique / 30.Deutsche Jahrestagung für Akustik, Strasbourg (2004).[Caulkins 03a] Caukins T., Corteel E., Warusfel O. « Wave field synthesisinteraction with the listening environment :improvements in thereproduction of virtual sources situated inside the listening room », Proc.of the 6th Int. Conference on Digital Audio Effects (DAFx-03), London, UK,September 8-11, <strong>2003</strong>[Corteel03] Corteel E., Nicol R., Listening Room Compensation for WaveField Synthesis. What can be done? Proceedings on the 23rd InternationalConference of the Audio Engineering Society, Copenhagen, Denmark, May <strong>2003</strong>.[Noguès 03a] Noguès M., Corteel E., Warusfel O. « Monitoring DistanceEffect With Wave Field Synthesis», Proc. of the 6th Int. Conference onDigital Audio Effects (DAFx-03), London, UK, September 8-11, <strong>2003</strong>.[Rio <strong>2003</strong>a] Rio E., Vandernoot G., Warusfel O., « Perceptual Evaluation ofWeighted Multi-Channel Binaural Format » Proc. of the 6th Int. Conferenceon Digital Audio Effects (DAFx-03), London, UK, September 8-11, <strong>2003</strong>.[Viaud-Delmon 2004a] Viaud-Delmon I.,Seguelas A., Rio E., Jouvent R.,Warusfel O., « 3-D Sound and Virtual Reality: Applications in ClinicalPsychopathology », Cybertherapy 2004, San Diego, January 2004.[Viaud-Delmon 2004b] Viaud-Delmon I., Sarlat L., Warusfel O.,« Localization of Auditory Sources in Virtual Reality », Proc. 7 ème CongrèsFrançais d'Acoustique / 30. Deutsche Jahrestagung für Akustik, Strasbourg2004.[Vos 03] Vos H.J., Warusfel O., Misdariis N., de Vries D., « Analysis andreproduction of the frequency spectrum and directivity of a violin », DutchAcoustical Society Conference, Septembre <strong>2003</strong>.[Warusfel 2004a] Warusfel O., Corteel E., Misdariis N., Caulkins T.,« Reproduction of sound source directivity for future audio applications»,Proc. ICA 2004.[Warusfel 2004b] Warusfel O., Corteel E., Caulkins T., « Perceptual SpatialExploration of WFS Soundscapes presence », Proc. 7 ème Congrès Françaisd'Acoustique / 30. Deutsche Jahrestagung für Akustik, Strasbourg 2004[Warusfel 2004c] Warusfel O., Delerue O., Viaud-Delmon I. « Binauralrendering assessment in the context of augmented reality», Proc. 7 èmeCongrèsFrançais d'Acoustique / 30. Deutsche Jahrestagung für Akustik, Strasbourg2004.Actes de congrès sans comité de lecture[Deschamps 03b] Deschamps M., « Investigation of interaction betweenrecording or mixing parameters and the spatial subjective attributes in theframe of 5.1 multicannel », 115th convention of the Audio EngineeringSociety, New York-USA, (<strong>2003</strong>).[Kuhn03] Kuhn C., Pellegrini R., Leckschat D. and Corteel E., "An Approachto Miking and Mixing of Music Ensembles Using Wave Field Synthesis", 115thconvention of the Audio Engineering Society, New York - USA, (<strong>2003</strong>).[Väänänen 03a] Väänänen R., « User interaction and authoring of 3D soundscenes in the Carrouso EU project », Proc. 114th convention of the AudioEngineering Society, (<strong>2003</strong>).[Van Zon04] van Zon R.J.A., Corteel E., de Vries D., and Warusfel O.,Multi-Actuator Panel (MAP) loudspeakers: how to compensate for their mutualreflections? Proc. 116th convention of the Audio Engineering Society,(2004)Travaux universitairesMémoires de maîtrise, DEA et d’écoles d’ingénieurs[Blum 03], Blum A., « Étude de la plasticité du système auditif enlocalisation - Application au problème de l’individualisation en synthèsebinaurale », Mémoire de DEA, Université Aix-Marseille, Sept 03.[Caulkins 03b], Caulkins T., « Restitution d'un effet de salle cohérentavec le lieu d'écoute dans le cadre de la Wave Field Synthesis », Rapportde DEA ATIAM, Université Marseille. Juillet 03.[Nogues 03b] Nogues M., Mémoire d'ingénieur, Conservatoire NationalSupérieur de Musique de Paris. Juill <strong>2003</strong>.[Verron 03] Verron C., « Sélection de fonction de transfert binauralesindividuelles à partir d'un protocole de mesure simplifié »; Mémoired'ingénieur. Septembre03Thèses[Baskind03b] Baskind A., « Modèles et méthodes de description spatiale descènes sonores », Thèse de doctorat, Université Paris 6, 9 décembre <strong>2003</strong>- 64 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Acoustique des sallesRapports de rechercheVäänänen R., Projet Carrouso IST- IST-1999-20646 - Deliverable D8. UserInterface - Jun 03Katz B. Vandernoot G., Warusfel O., Projet Listen IST-1999-20646 -Deliverable D4.3 Individual adaptation. Jun 03Rio E., Ruprechter B., Warusfel O., Projet Listen IST-1999-20646 -Deliverable D4.4 Sound Pick-up. Jan 03Warusfel O., Projet Listen IST-1999-20646 - Deliverable D4.5 Prototype ofthe Rendering Engine, Jan 03Warusfel O., Goiser A., Projet Listen IST-1999-20646 - Deliverable D8.1Display evaluation; Spet 03Rio E., Vandernoot G., Warusfel O., Projet Listen IST-1999-20646 -Deliverable D8.2 Evaluation of binaural rendering. Jun 03Warusfel O. et al. Projet Listen IST-1999-20646 - Deliverable D8.3Modelling: Visual/Auditory coherence, modelling and authoring. Jun 03Eckel G. & al, Projet Listen IST-1999-20646 - Deliverable D1 Final Report,Dec 03Conférences invitéesJournée "Méthodes d'enregistrement et de restitution sonore pourl'évaluation de la perception des bruits de transports", organisée par laSFA, le groupement de recherche CNRS "bruit des transports", et le LVA(Laboratoire Vibrations Acoustique, INSA de Lyon). 15 septembre <strong>2003</strong>.« Technique de reproduction binaurale : encodage multi-canal et décodageindividuelIntervenant : Emmanuel RioDiffusion de connaissancesCorteel E., Roux S., Väänänen R., Warusfel, O. « Demonstration d'un systèmede reproduction de champ sonore basé sur la Wave Field Synthesis », 114thConv. of the Aud. Eng. Soc., Amsterdam, Mars <strong>2003</strong>.Warusfel O., Nicolas F., Misdariis N., « Contrôle de la directivité etsource sonore virtuelle", Colloque Son Multicanal », <strong>Ircam</strong>, Oct. <strong>2003</strong>.Corteel E., Roux S., Warusfel, O. « Demonstration d'un système dereproduction de champ sonore basé sur la Wave Field Synthesis », NicéphoreDays, Châlon/Saône, Nov. <strong>2003</strong>.Warusfel O., « Acoustique virtuelle et Spatialisation », La semaine duson, <strong>Ircam</strong>, Jan. 2004.Corteel E., « Système de reproduction sonore du futur », La semaine duson, <strong>Ircam</strong>, Jan. 2004.Colloques et séminairesBaskind A., « Extraction automatique de descripteurs de scène sonorespatiale » - Séminaire <strong>Ircam</strong> - Avril <strong>2003</strong>.Corteel E., "Création et manipulation de scènes sonores pour la Wave FieldSynthesis", Cycle de conférences consacré aux questions de laspatialisation sonore, ENS Louis Lumière, décembre <strong>2003</strong>.Viaud-Delmon I., Warusfel, 0. « Traitement des informationsmultisensorielles en réalité virtuelle : application à la psychopathologie» - Séminaire <strong>Ircam</strong> - Avril <strong>2003</strong>.Väänänen R., Delerue O. « Outils auteur pour la spatialisation », Séminaireinterne <strong>Ircam</strong>, juin 03.Viaud-Delmon I., Warusfel, 0. « Traitement des informationsmultisensorielles en réalité virtuelle : application à la psychopathologie» Ecole Réalité Virtuelle - Marseille. Mai <strong>2003</strong>Emissions radiophoniques et télévisées, entretiensjournalistiques, animationsEntretien pour le quotidien "Le Monde" mercredi 2 juillet <strong>2003</strong>.- 65 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Design sonore1.3 Design sonoreResponsable Louis DandrelCoordinateurs scientifiques : René Caussé, Patrick Susini,Olivier WarusfelLes activités de l’équipe ont suivi une double orientation en<strong>2003</strong> autour d’une part des applications de recherches en courset d’autre part le lancement de nouveaux projets. En outre,comme par le passé, des relations étroites entre recherche etproduction/création musicale ont été établies. En témoigne leprojet ‘‘source virtuelle’’ réalisé sur ces trois niveauxrecherche-développement-production avec des partenairesextérieurs publics et privés (le Laboratoire d’acoustiquemusicale de Paris VI, des constructeurs d’enceintes et desystèmes informatiques, des compositeurs). On notera égalementun renforcement des liens entre design sonore etpsychoacoustique, tant en études (projets Klaxon, Renault,SNCF) qu’en conception de nouveaux projets (Metasegnaletica).1.3.1 Diffusion et espaceLe contrôle de la dimension spatiale dans les processus dediffusion du son reste un enjeu crucial pour toutes lesactivités de création sonore et musicale qui impliquentl’utilisation exclusive ou mixte (en présence d'autressources) de sons électroniques. Traditionnellement, la priseen compte de l'espace est assumée par un dispositif dediffusion distribué en plusieurs points de l'espacearchitectural, contraignant par la même occasion l'espaceacoustique. L'approche proposée par la Timée se propose, quantà elle, de renverser la proposition en concevant le hautparleursur le modèle de l'instrument : localisé en un pointde l'espace et capable de rayonner de manière complexe suivantdes critères physiques ou musicaux.1.3.1.1 Projet Source Virtuelle (La Timée)En <strong>2003</strong>, le travail sur la synthèse et le contrôle de ladirectivité des systèmes de diffusion sonore s'est articuléautour de trois axes complémentaires :- en recherche, à partir des résultats d'une étudepréliminaire sur le violon (cf. Rik Vos dans rapp_ac 2002)et d'une collaboration avec le Laboratoire de Mécanique etd'Acoustique (Marseille), la mise en place du cadre detravail à l'intérieur duquel le projet devra se poursuivre :la notion de Synthèse Additive Spatiale (SAS). Globalement,cette approche consiste à envisager le couplage d'un moteurde synthèse sonore par modélisation physique (par exemple,Modalys) capable de modéliser les différents modesvibratoires d'une source acoustique, avec un moteur desynthèse spatiale (la Timée) qui assurerait le rayonnementacoustique de ces mêmes modes suivant des fonctionsspatiales pertinentes d'un point de vue physique, perceptifou musical ; le ‘‘mélange’’ des différentes contributionsspectrales (les modes) se faisant dès lors, non plus dans ledomaine du signal - comme c'est le cas pour une synthèseadditive classique - mais directement dans l'espace depropagation du champ sonore.- 66 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Design sonore- en développement, trois études ayant chacune pour objectifde répondre à un problème technologique rencontré sur lesprototypes existants :- l'étude du contrôle de la directivité des basses fréquences(BF), sur la base de prototypes d'évents à tuyères mis aupoint au sein du Laboratoire d'Acoustique Musicale (ParisVI) qui permettent à la fois d'avoir un rayonnement nonomnidirectionnelen basses fréquences et de délivrer de lapuissance sans distorsion, ni turbulence aéro-acoustique ;- l'amorce d'une collaboration avec des constructeursd'enceintes acoustiques (Guy.HF et Focal-JMlab) qui, sur labasée d'un cahier des charges rédigé à partir desexpériences précédentes, doit permettre d'étudier et deconcevoir une version semi-industrielle de la Timéerassemblant les avantages de fiabilité de construction,finition (design) professionnelle et réduction des coûts deproduction.- l'étude des solutions technologiques proposées par deuxsociétés différentes (Ophrys Systèmes et ADN) pour répondreau problème de stockage/lecture/amplification multi-voiesque pose le format d'encodage adapté à l'approche multihaut-parleurs.- en production, la première séance de recherche ducompositeur Oliver Schneller a eu lieu en novembre <strong>2003</strong> et adonné lieu à une série de tests informels dans l'Espro surles effets de masquage auditif et les rapports instrumentacoustique / enceinte classique / Timée : la pièce d'O.Schneller (prévue pour être créée en décembre 2004) devantimpliquée un ensemble instrumentale d'environ une dizained'instruments et, dans la mesure du possible, deux Timées.Participants : N. Misdariis, O. Warusfel, R. Caussé, O.SchnellerCollaborations internes : équipes Acoustique des Salles,Acoustique instrumentaleCollaborations extérieures : R. Kronland-Martinet (LMA -Marseille) J.-P. Morkerken, G. Pellerin (LAM - ParisVI), J.-P.Guy (Guy.HF), G. Chrétien, A. Stachowicz (Focal-JMLab), A.Eisenstein (OPHRYS Systèmes), P. Bersani (ADN).1.3.1.2 Projet DOREMILes travaux relatifs à ce projet, mené en collaboration avecles équipes Acoustique instrumentale et Acoustique dessalles, sont décrits au §1.1.5.1.3.2 Design sonore et perceptionDepuis sa création il y a cinq ans, le design sonoreentretient d’étroites relations avec la psychoacoustique. Lademande industrielle s’oriente de plus en plus vers des étudesconjointes qui permettent d’étayer la notion de qualitésonore.1.3.2.1 MetasegnaleticaLes bases du projet MetaSegnaletica (MetaSeg) concernel'élaboration d'un nouveau concept de signalétique multisensoriellebasé sur les potentialités de synesthésie entrel'audition et la vision à des fins de navigation et detransmission de l'information ; à terme, son ambition est de- 67 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Design sonoreproposer une approche innovante de la notion traditionnelle designalétique qui reste, pour l'heure, principalement basée surles médias visuels et qui peuvent apparaître inadaptées àcertaines situations. Ses objectifs sont en particulier - maispas exclusivement - l'amélioration de l'environnement decertaines catégories de personnes présentant un certain degréde handicap.Au cours de l'année <strong>2003</strong>, le projet MetaSeg, initialementprévu pour répondre à un appel d'offre européen, a connu desdifficultés de définition et de rédaction. A la fin del'année, le choix d'une portée plus limitée s'inscrivantnotamment dans le cadre d'un programme national a été fait etles premières bases d'une nouvelle orientation ont été jetéeslors d'une réunion regroupant les éventuelles participantsd'un consortium restreint (LAPS, FTR&D, UMR 7593) maisnéanmoins intéressé à réfléchir sur les thématiques initialeset les partenariats nécessaires pour mener à bien ce projet.Participant : N. Misdariis, P. Susini, O. WarusfelCollaborations internes : Acoustique des salles, Perception etcognition musicalesCollaborations extérieures : F. Guyot (LAPS-design), I. Viaud-Delmon (UMR 7593 - Hôpital Pitié-Salpêtrière), M. Emerit(FTR&D)1.3.2.2 Caractérisation perceptive et design sonore desavertisseurs d'automobilesCe projet, mené en collaboration avec l’équipe Perception etcognition musicales, est décrit au §2.4.1.1.3.2.3 Perception et design de l’ambiance sonore destrains et garesCe projet, mené en collaboration avec l’équipe Perception etcognition musicales, est décrit au §2.4.2.1.3.2.4 Interactions sensorielles dans la qualité perçued'un véhiculeCe projet, mené en collaboration avec l’équipe Perception etcognition musicales, est décrit au §2.4.3.1.3.2.5 Signalétique sonore à l’intérieur d’un habitaclede véhiculeCe projet, mené en collaboration avec l’équipe Perception etcognition musicales, est décrit au §2.4.4.1.3.3 Publications et communicationsActes de congrès avec comité de lecture[Susini03c] Susini P., Gaudibert P., Deruty E. et Dandrel L., "Perceptivestudy and recommandation for sonification categories", InternationalConference on Auditory Display, University of Boston, the Boston UniversityPublications Production Department, <strong>2003</strong>, pp. 292-295.[Vos 03a] Vos H.J., Warusfel O., Misdariis N., de Vries D., « Analysisand reproduction of the frequency spectrum and directivity of a violin »,to be published in the journal of the Acoustical Society of theNetherlands.Diffusion de connaissancesWarusfel O., Nicolas F., Misdariis N., « Contrôle de la directivité etsource sonore virtuelle : La Timée , Colloque Son Multicanal, <strong>Ircam</strong>, Oct.<strong>2003</strong>.- 68 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTACOUSTIQUE - Design sonoreStage design sonore pour la communication, <strong>Ircam</strong>, 27-28 février <strong>2003</strong>, LouisDandrel, Nicolas Misdariis, Patrick Susini.Stage design sonore pour l'architecture et l'environnement, <strong>Ircam</strong>, 3-4avril Louis Dandrel, Nicolas Misdariis, Alain Richon.Stage design sonore pour la communication, <strong>Ircam</strong>, 26-28 nov <strong>2003</strong> LouisDandrel, Nicolas Misdariis, Patrick Susini.Stage design sonore pour l'architecture et l'environnement, <strong>Ircam</strong>, 10-12déc <strong>2003</strong>, Louis Dandrel, Nicolas Misdariis, Alain Richon.Colloques et séminairesSéminaire sur le design sonore pour le groupe TOTALEmissions radiophoniques et télévisées, entretiensjournalistiques, animationsCanal + : reportage sur le Jardin de la Plaine-mer au Mont Saint-Michel.France culture : émission DécibelsInterview de L. Dandrel : radios, Europe 2, PS1 New York, RFI ;télévision : LCI, ITV.- 69 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALES2 PERCEPTION ET COGNITION MUSICALESResponsable : Stephen McAdams (en détachement pour l'année<strong>2003</strong>)Responsable par intérim : Patrick SusiniL'objectif principal des travaux de l’équipe porte sur l'étudedes représentations sensorielles et mentales, ainsi que desprocessus de traitement qui interviennent dans la perceptiondes attributs musicaux et des relations entre ces attributs,la reconnaissance des sources sonores et la compréhension desstructures musicales. Les mécanismes de base, considérés commedes processus d'analyse des signaux musicaux du point de vuede l'auditeur, doivent nécessairement être étudiés enparallèle avec les processus de niveau supérieur afin decomprendre les contraintes sur la représentation desévénements auditifs qui forment les matériaux musicaux.L'ensemble des projets trouve son équilibre entre la recherchefondamentale et les valorisations, ces dernières se trouvantnotamment dans les domaines de l'ergonomie, de la qualité etdu design sonores.2.1 Analyse et codage sensoriel du signalL’écoute passe par un ensemble de structures cérébrales quinous permettent de traiter et comprendre les sons qui nousentourent. Ces structures sont encore mal connues, et pourtantce sont elles qui déterminent les informations contenues dansle signal acoustique qui vont pouvoir participer àl’expérience consciente de l’auditeur. Leur étude fait l’objetd’un champ de recherche extrêmement actif dans le domaine desneurosciences fondamentales, et l’équipe contribue à cesrecherches en étudiant plus spécifiquement des mécanismespouvant avoir une pertinence pour les sons musicaux.2.1.1 Perception de modulation de fréquenceLes modulations de fréquence (FM) sont omniprésentes dans lessons musicaux. Elles constituent par exemple la base duvibrato, source d’expressivité pour l’interprétation. Ceprojet vise à comprendre une asymétrie perceptive qui fait quenous encodons de façon plus précise les modulations defréquences de type pic (fréquence ascendante puis descendante)plutôt que trou (fréquence descendante puis ascendante). Nousavons réalisé une étude psychophysique qui a confirmé larobustesse de l’effet perceptif, sur une large gamme deparamètres de modulation. Parallèlement, une étude d'imageriefonctionnelle est en cours en collaboration avec ledépartement de Neurologie de l'Université de Heidelberg. Lesréponses cérébrales des auditeurs aux diverses formes de FMont été enregistrées, grâce à la technique dite demagnétoencéphalographie. Nous avons démontré une fortedifférence dans l’activité du cortex auditif primaire enréponse aux deux types de modulation. L’activité évoquéetardive est plus large pour les pics de FM, et latéraliséeprincipalement dans l’hémisphère cérébral droit. Les détailsde ces résultats ont des conséquences sur la façon dont nous- 70 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESconcevons les étapes de traitement de sons complexes : nousenvisageons un modèle dans lequel les évènements saillantspermettent un encodage plus précis grâce à une seconde passede traitement dans le cortex auditif primaire.Participant : D. PressnitzerCollaborations extérieures : L. Demany (Université V. Segalen-Bordeaux II), A. Rupp (Université d’Heidelberg, Allemagne)2.1.2 Modèles et méthodes d'annulationL'annulation consiste à utiliser un modèle structural(harmonicité, position spatiale, etc.), contraint par lesignal observé, pour annuler les corrélats d'une ou plusieurssources. L'opération permet à la fois d'estimer des paramètresd'une source, et de supprimer ses corrélats afin de faciliterla caractérisation des sources qui l'accompagnent. C'est doncun outil efficace d'analyse de scène auditive. Associées à destechniques de type "données manquantes" issues de lareconnaissance de la parole, les méthodes à base d'annulationpermettent une caractérisation optimale des mélanges desources (par exemple, un ensemble d'instruments)[deCheveigne03e, deCheveigne04c].Participants : A. de Cheveigné2.1.3 Estimation de Fréquences Fondamentales Multiples,estimation d'effet de salleLa fréquence fondamentale (F0) d'un son détermine sa hauteur.Une base algorithmique à base d'annulation (voir paragrapheprécédent) a été développée et permet l'estimation conjointedes F0 de plusieurs sources concurrentes. La même base permetl'estimation conjointe de F0 (simple ou multiple) et del'effet de salle [Baskind03a, deCheveigne03a].Participant : A. de CheveignéCollaboration interne : A. Baskind (équipe Acoustique dessalles)2.2 Analyse des scènes auditives2.2.1 Illusion de continuité auditive : intégrationtemporelleUn mécanisme particulier d'analyse des scènes auditivesperceptive est illustré par l'illusion de continuité auditive.Cette illusion consiste à percevoir un son comme continu mêmes'il est objectivement interrompu par un autre son, de niveauplus élevé. Ce mécanisme est essentiel car il permet demaintenir la cohésion d'évènements acoustiques porteursd'information (une voix d’une polyphonie, par exemple) malgrédes périodes inévitables de masquage. Un projet est en coursavec pour but l’étude des bases neuronales de cette illusion,en combinant psychophysique et imagerie cérébrale. Unepremière phase du projet a consisté en une série d'expériencespsychophysiques pour déterminer les conditions d'apparition del'illusion. Ce travail a fait l'objet de l’encadrement d’unstage de DEA. Il est apparu que l'illusion est présente mêmesi l'auditeur essaie volontairement de l'éliminer pourréaliser une tâche. Par contre, le son illusoire n’a pas lesmêmes propriétés qu’un son réel. Une deuxième phase du projetconsiste à examiner la forme de l'activité cérébrale pendant- 71 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESles périodes d'illusion. La technique d'imagerie cérébralefonctionnelle par magnétoencéphalographie (MEG) a étéutilisée, en collaboration avec le centre MEG/EEG de l’HôpitalPitié Salpêtrière. Les analyses réalisées jusqu'à présentindiquent que l’activité cérébrale caractéristique liée audébut et à la fin de tout évènement auditif est largementsupprimée par l'illusion. Ces résultats semblent indiquer quel'illusion agit sur les « contours temporels » du perceptillusoire pour rétablir la cohérence de l'évènement. Undeuxième stage de DEA est réalisé sur cet aspect du projet[Pressnitzer 2004c, Pressnitzer 2004b].Participants : D. Pressnitzer, A. de Cheveigné, S. McAdams,Julien Tardieu (stage DEA ATIAM) Joan Llobera (stage DEA deSciences Cognitives, EHESS)Collaborations extérieures : S. Baillet, R. Ragot (LENA-Hôpital de la Salpêtrière, Paris), I. Winter (Université deCambridge, Angleterre), C. Vergez (LMA CNRS UPR 7051)Financement : ACI Cognition et Traitement de l'Information,CNRS2.2.2 Démasquage par comodulation : intégrationfréquentielleLa compréhension d’une scène auditive nécessite d’intégrer lesévénements dans le temps et de déterminer leurs contourstemporels, mais dans le cas de sons complexes, elle doit aussiprendre en compte l’énergie acoustique présente dans plusieursrégions fréquentielles. En 2001, nous avions publié desdonnées physiologiques et un modèle computationnel novateurportant sur un des aspects de ce problème, le démasquage parcomodulation. Devant l'intérêt suscité par cette idée, nousavons poursuivi sa publication en étendant le modèle et en lereplaçant dans le contexte plus large des nombreuses donnéespsychophysiques connues sur le phénomène [Verhey03a].Participant : D. PressnitzerCollaborations extérieures :J. Verhey, I. Winter (Universitéde Cambridge, Angleterre)2.3 Perception des attributs auditifs et des sourcessonoresLes attributs auditifs hauteur et timbre sont importants pourla musique. Historiquement, le mécanisme de leur perception aété, et reste, un enjeu important en théorie de l'audition. Dupoint de vue des applications, une connaissance plus fine dela psychoacoustique aboutit à des descripteurs de signalprédictifs de ces qualités, et une compréhension desmécanismes permet de dériver des méthodes de traitement designal. Les thèmes abordés incluent la psychoacoustique de lahauteur et du timbre et l'imagerie cérébrale du timbre.2.3.1 Modèles de perception de la hauteurUne revue a été faite des modèles de perception de la hauteur,de l'Antiquité à nos jours. L'approche historique a permisd'exposer les racines des théories modernes, de mettre à platles controverses, et d'isoler les questions fondamentales quirestent à résoudre pour comprendre les mécanismes deperception de la hauteur musicale. La hauteur est un attributperceptif essentiel dans la plupart des musiques. Les- 72 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESproblèmes posés par sa perception ont animé les discussionssur la théorie musicale, la physiologie perceptive, et même lacosmologie. Aujourd'hui, la controverse se cristallise entreles théories du type « reconnaissance de forme », et celles detype « autocorrélation ». Pour tenter de briser l'oppositionrigide et stérile entre ces points de vue, la revue puise dansl'Antiquité, la Renaissance, les XIXe et XXe siècles, et lesdéveloppements théoriques et expérimentaux les plus récents.Le résultat forme un chapitre dans un ouvrage à paraître surla hauteur tonale [deCheveigne04a, deCheveigne04b].Participant : A. de Cheveigné2.3.2 Espace et actionUne revue a été faite des liens entre la perception auditive,l'espace, et l'action. On a l'habitude d'étudier laperception comme indépendante de l'action, mais les deux sontétroitement liés, aussi bien en ce qui concerne la structureet la physiologie des mécanismes neuronaux que lecomportement. Cela est particulièrement vrai pour laperception de l'espace, indissociable de l'action dansl'espace [deCheveigne03b, deCheveigne04d, deCheveigne04e].Participans : A. de Cheveigné2.3.3 Mécanismes temporelsUne revue a été faite des mécanismes de traitement temporeldes informations auditives dans la perception de la parole, eten particulier des rôles respectifs des mécanismes temporelset spectraux. Les mêmes mécanismes servent dans la perceptionde la musique [deCheveigne03c, deCheveigne03d].Participant : A. de Cheveigné2.3.4 Effet de la fréquence fondamentale sur laperception du timbreLa musique fait intervenir des relations de timbres à hauteursdifférentes, et il est essentiel de disposer d'outilsd'investigation permettant de comparer les timbres de sonsmusicaux produits à des hauteurs différentes. En effet, lesvariations de timbre en fonction de la note jouée constituentl'une des caractéristiques de l'identité d'un instrument, etsont un véhicule important d'expression musicale[Marozeau03a]. Une nouvelle série d'expériences a été menéeafin d'affiner ces résultats en étudiant les dimensions dutimbre séparément. Les dimensions étudiées sont prédites parles descripteurs suivants : l'impulsivité, le centre degravité spectral, et l'étalement spectral. Les stimuli étaientbasés volontairement sur un modèle de synthèse très simpleafin de posséder des grandeurs de descripteur bien définies etfacilement contrôlables. Les résultats montrent que ladimension du timbre corrélée avec le temps d'attaque est trèsstable vis-à-vis de la fréquence fondamentale. La dimensioncorrélée avec le centre de gravité spectral subit undéplacement isométrique vers pôle "mate" de la dimension. Lagrandeur de ce déplacement correspond à la différence defréquence fondamentale entre deux stimuli. Cette valeur devradonc être soustraite du centre de gravité spectral afin deprédire la position d'un stimulus sur cette dimension dutimbre. Finalement la dimension corrélée avec l'étalement- 73 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESspectral montre un faible déplacement non isométrique avec lafréquence fondamentale. Aucune correction à son descripteurn'a été pour l'instant proposée afin de prédire cet effet.Participants : J. Marozeau (thèse), A. de Cheveigné, S.McAdams, S. Winsberg2.3.5 Bases cérébrales de la perception du timbre et dela reconnaissance des objets sonoresCe travail combine des résultats psychophysiques et desdonnées d'imagerie cérébrale fonctionnelle (IRM fonctionnelleet Electro-EncéphaloGraphie). Le projet comporte deux volets.Le premier axe porte sur la perception du timbre de sonssynthétiques. L'étude psychophysique a permis de confirmer oud'infirmer le rôle de paramètres acoustiques (attaque, centrede gravité spectral, irrégularité spectrale et flux spectral)dans la perception du timbre. En particulier, nous avonsanalysé en détail la contribution d'une caractéristiquespectro-temporelle du son : le flux spectral. Nous avonsmontré que sa saillance perceptive diminuait en présence devariations concurrentes sur d'autres dimensions [Caclin03c].Les études en imagerie cérébrale permettent de mettre enévidence les corrélats cérébraux de la perception desdifférentes dimensions du timbre [Caclin03a]. Nous avons enparticulier mis au point une méthode de détection decomposantes de l'EEG qui permet de travailler sur les donnéesd'un sujet pris individuellement. Cette méthode utilise leprincipe du "bootstrap", et permet d'approcher la variabilitéinter-individuelle des réponses cérébrales, et leur lien avecla variabilité observée au niveau comportemental [Caclin03b].Le deuxième axe concerne l'étude de la perception du timbre etde la reconnaissance des sons naturels. Le but est d'étendreles résultats obtenus avec les sons synthétiques à une pluslarge classe de sons. Ce travail est réalisé en collaborationavec l'équipe d'Acoustique de l'ENSTA, et utilise des sons deplaques synthétisés par modèle physique. La mise au point desstimuli de l'étude est en cours, sur la base des résultatsd'une analyse dimensionnelle des équations de la synthèse desons de plaques, réalisée par nos collaborateurs à l'ENSTA.Participants : A. Caclin (thèse), B. Smith, S. McAdamsCollaborations extérieures : M.-H. Giard (INSERM U280, Lyon),E. Brattico, M. Tervaniemi (CBRU, University of Helsinki,Finlande), V. Menon (Dept of Psychiatry, University ofStanford, USA), A. Chaigne, F. Parmentier (ENSTA, Palaiseau).Financement : ACI Cognition et Traitement de l'Information,CNRS2.3.6 Perception des propriétés physiques d'une sourceUne première série d'expériences a mis en jeu laclassification de sons de barres de métal excitées endifférents points. Notre but était de savoir si les auditeursarrivent à extraire des invariants perceptifs propres à chaquebarre, spécifiant leurs propriétés géométriques. Les résultatsont suggéré que les auditeurs utilisent les hauteursspectrales proéminentes liées aux modes vibratoires d'unedimension géométrique privilégiée (largeur ou épaisseur de labarre) afin de comparer et classifier ces sons. Il n'apparaîtpas que les auditeurs utilisent l'information acoustique brute- 74 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESafin d'extraire des invariants perceptifs propres à une barre,bien que ces informations soient présentes et pourraient êtreutilisées à cette fin. Une deuxième série d'expériences autilisé un paradigme d'appariement intermodal entre lareprésentation visuelle de paires de sources sonores et le sonproduit par celles-ci. Grâce à l'utilisation de sons desynthèse, nous avons cherché à tester quelles informationsacoustiques liées aux modes de vibration permettent despécifier la perception de la géométrie des barres. Lesrésultats montrent que les auditeurs mettent en place desstratégies perceptives afin d'associer un son avec sareprésentation visuelle. Ils n'étayent pas l'hypothèse selonlaquelle il existe une perception directe des propriétésgéométriques de ces sources. [Houix03a].Participants : O. Houix, S. McAdamsCollaborations internes : C.Vergez, J. Bensoam, R. Caussé(équipe Acoustique instrumentale)2.4 Qualité, ergonomie et design sonoreL'activité de valorisation de l'équipe a longtemps été centréesur l'étude de la qualité sonore sur la base des connaissancessur le timbre, les mécanismes auditifs et les méthodesspécifiques de la psychophysique. Ce thème est devenu un axede recherche à part entière de l'équipe intégrant ergonomie(Renault) et design sonore (Klaxon, SNCF).2.4.1 Caractérisation perceptive et design sonore desavertisseurs d'automobilesLe projet Klaxon correspondait à la thèse de GuillaumeLemaitre, contrat CIFRE entre l'<strong>Ircam</strong>, le Laum et la sociétéKlaxon. Face à une demande croissante des constructeursautomobiles pour une plus grande personnalisation des sonsd'avertisseur, la société Klaxon cherche à créer de nouveauxsons. Cet objectif s'articulait autour de deux problèmes :1) définir quels sont les sons efficaces pour réaliser unavertisseur sonore automobile, 2) déterminer comment produireces sons au moyen d'un dispositif électroacoustique. Lapremière partie du travail (réalisée à l'<strong>Ircam</strong>) correspondaitaux deux premières années de la thèse, et étudiait laperception et la fonction des sons de klaxon existants etspécifiait de nouveaux sons. Cette première partie a ainsi despécifier les propriétés acoustiques qu'un son doit posséderpour qu'il remplisse la fonction d'avertisseur sonoreautomobile : prévenir les auditeurs d'un danger lié à unevoiture.La dernière année de la thèse s'est déroulée au sein duLaboratoire d'Acoustique de l'Université du Maine. Elle aconduit à modéliser de manière théorique le haut-parleur quisera amené à produire les nouveaux sons de klaxon, et àproposer une méthode non-invasive d'estimation des paramètresdu modèle. Le résultat est un outil d'aide à la conception denouveaux sons, qui permet : i) de synthétiser de nouveauxsons, ii) de prédire la perception de ces sons, et leuradéquation avec la représentation typique d'un son de klaxoniii) de prédire et de compenser les transformations du signaloccasionnées par le haut-parleur [Lemaitre03a, Lemaitre04a,Lemaitre04b].- 75 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESParticipants : G. Lemaitre, P. Susini, S. McAdams, S. WinsbergCollaboration interne : équipe Design sonoreCollaborations extérieures : Boris Letinturier (FIAMM/Klaxon),Bruno Gazengel et Xavier Meynial (Laum, Université du Maine)Financement : SCE Klaxon2.4.2 Perception et design de l’ambiance sonore destrains et garesUne étude bibliographique a été menée sur les thèmes dudesign, du design sonore et de l’objet sonore perçu. Ellepermet de proposer une définition du design sonore basée surtrois axes principaux : qualité sonore, fonction sonore etidentité sonore. Appliquée aux gares, cette définition revientà étudier chacun des espaces qui composent une gare. Chaqueespace ayant sa propre fonction, les solutions de designsonore auront pour objectif de favoriser cette fonction enmodifiant son ambiance sonore. Dans cet objectif, une étudedes gares existantes [Tardieu04a] a été amorcée, lesdifférentes étapes sont les suivantes :- Elaboration d’une typologie des espaces des gares : 6 typesd’espace ont été retenus : quais, halls, couloirs, sallesd’attente, commerces et guichets.- Prises de sons dans les différents espaces de 6 gares deFrance.- Elaboration de 2 tests d’écoute de catégorisation libre etorientée dont les objectifs sont d’une part déterminer lesindices acoustiques utilisés par les gens pour décrire etcatégoriser les ambiances sonores et d’autre part déterminersi les gens reconnaissent les espaces.- Analyse des résultats (en cours).Participants : J. Tardieu (thèse CIFRE), P. Susini, S. McAdamsCollaboration interne : équipe Design sonoreCollaborations extérieures : F. Poisson, M. Mzali, P.E.Gautier (SNCF)Financement : SNCF2.4.3 Interactions sensorielles dans la qualité perçued'un véhiculeDans la continuité des travaux entrepris sur les interactionsaudiovisuelles avec le projet Elias Art, l’influenced’informations ajoutées, visuelles et textuelles, sur lejugement de la qualité sonore a été examinée afin dedéterminer les éléments qui favorisent le réalisme et lacohérence d’une scène sonore étudiée en laboratoire. Ce projetcorrespond à une demande de la société Renault et a constituéune étape préliminaire à une thèse CIFRE (voir paragraphesuivant). La scène sonore étudiée correspond à une phased’accueil dans un véhicule qui se déroule de la fermeture dela porte au départ du véhicule, en passant par l’encliquetagede la ceinture, la manœuvre du véhicule, etc. … L'approcheproposée a consisté à élaborer un environnement méthodologique[Susini03a] permettant de contrebalancer l'artefact dû à unesituation de laboratoire peu réaliste en proposant uneconsigne spécifique textuelle et un ensemble de supportsvisuels. Le procédure expérimentale a consisté à juger, sur unensemble d’échelles sémantiques, trois séquences sonores dans- 76 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALEStrois conditions expérimentales variant par la consigneprésentée avant l’écoute de la séquence sonore :- Consigne la plus neutre possible = N,- Consigne orientée (description du contexte et de la scène) =T,- Consigne orientée et support visuel (illustrations de lascène par un diaporama) = T+V.Les résultats [Susini03b] mettent en évidence un effetprincipal qui différencie la présentation du texte seul (T) etla présentation du texte avec le support visuel (T+V) :- Dans la condition T, la séquence sonore est jugée pluscompréhensible et moins ambiguë que dans la condition N.- Dans la condition T+V, la séquence sonore est aussi jugéeplus compréhensible et moins ambiguë, mais aussi plusagréable et plus harmonieuse, en accord avec l’image haut degamme du véhicule montré par le diaporama.Ce résultat est confirmé par le fait que l’échelle« Confortable », associée à la qualité du véhicule, co-varieavec l’échelle « Agréable », associée à la qualité sonore,dans la condition T+V. Un autre résultat montre que lesinformations complémentaires ont un impact positif sur ladispersion des jugements liés à l’image du véhicule et à lacohérence sonore.Participants : P. Susini, O. HouixCollaboration interne : N. Misdariis, équipe Design sonoreCollaborations extérieures : S. Langlois, B. Saint-Loubry(Renault)Financement : Renault2.4.4 Signalétique sonore à l’intérieur d’un habitaclede véhiculeL’un des objectifs de cette thèse CIFRE menée en collaborationavec Renault est d’élaborer une signalétique sonore spécifiqueafin de traduire des informations communiquées au conducteursur de l’état de fonctionnement du véhicule ou encore sur desactions à effectuer. La réflexion amorcée sur le sujets’oriente vers une nouvelle voie issue de la sémiotique.L’intérêt de se placer dans le cadre théorique de lasémiotique est totalement justifié par sa définition même(« science des processus de signification ») puisqu’il s’agitde comprendre comment une signification se construit, etd’établir des relations internes entre les signes. Plusprécisément, il s’agit de comprendre comment le son pourravéhiculer un message (une fonction, une identité, …) etcomment les différents modes de construction de sens pourrontpermettre d’aboutir à une taxonomie des signes.Participants : C. Suied (thèse CIFRE), P. Susini, S. McAdams,N. MisdariisCollaboration interne : équipe Design sonore, J. Theureau(équipe Formulation du musical)Collaborations extérieures : U. Jekosch (Université de Bochum,Allemagne), S. Langlois (Renault)Financement : Renault2.5 Cognition musicaleLe thème de la cognition musicale vise la compréhension desfonctions mentales supérieures impliquées dans la perception- 77 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESde la musique : l'apprentissage des relations et des systèmesmusicaux (occidentaux et extra-occidentaux, contemporains etclassiques), la reconnaissance des matériaux thématiques,l'expérience au cours du temps d'une œuvre musicale et leressenti émotionnel provoqué par l'écoute musicale.2.5.1 Apprentissage implicite des règles deconstruction de séquences de timbreLes auditeurs ont la capacité d’apprendre implicitement lesrègles de construction des séquences sonores rencontrées defaçon habituelle dans l'environnement et notamment dans le casdu langage et de la musique. Ce sous-projet a étendu lesrecherches vers des langues construites composées de timbres :la capacité des auditeurs à apprendre des règles deséquencement des timbres, l'influence des processus d'analysede scène (segmentation perceptive des séquences) surl'apprentissage implicite de ces règles, et le rôle desaccents subjectifs induits par la segmentation dansl'apprentissage implicite. Les auditeurs apprennent lesprobabilités de transition entre timbres et les utilisent poursegmenter la séquence en « thèmes » timbraux. Néanmoins, cetapprentissage n'est pas conditionné par la segmentation de laséquence sur la base de discontinuités de timbre [Tillmann04a,Tillmann04b].Participant : S. McAdamsCollaboration extérieure : B. Tillmann (LNSS-CNRS, UniversitéClaude Bernard-Lyon II)2.5.2 Analyse de données d'évaluation en temps réel del'écoute musicaleLa forme musicale a depuis longtemps été considérée uniquementen termes de représentations spatiales (graphiques) enignorant les aspects dynamiques de la perception et de lacognition humaines. Ce sous-projet a abordé le rôle de lamémorisation implicite et explicite des matériaux musicaux,l'amorçage mnésique et la grande forme musicale sur laperception, la reconnaissance et la réaction émotionnelle entemps réel lors de l'écoute. Les données recueillies lors descréations parisienne et californienne de The Angel of Death deRoger Reynolds ont été analysées avec les techniques del'analyse de données fonctionnelles et montrent le rôle de ladynamique mnésique dans l'écoute musicale. Des expériences surla force émotionnelle ne montrent pas d'effets de la grandeforme sur la réaction émotionnelle instantanée, mais un modèlefondé sur le taux d'information, le centroïde spectral etl'énergie du signal musical expliquent 90 % de la variancedans les données sur la force émotionnelle, montrant ainsi lelien étroit entre le ressenti et l'acoustique.Participants : S. McAdams, S. Vieillard, B. SmithCollaborations extérieures : R. Reynolds, S. Dubnov(Université de Californie à San Diego, USA), E. Bigand(Université de Bourgogne, Dijon), B. Vines (Université McGill,Montréal).Financement : ACI Cognitique, MENRT.- 78 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALES2.5.3 Projets de publication autour du projet ReynoldsLe projet autour de The Angel of Death comporte plusieursvolets de recherche sur la résolution de problèmescompositionnels [McAdams04a], la perception et laclassification des matériaux musicaux, la mémorisation etl'apprentissage implicite des matériaux, le rôle de lareconnaissance dans l'écoute dynamique et les effets de lastructure musicale sur la réaction émotionnelle lors del'écoute. Le projet fait l'objet d'un livre électroniqueproduit par l'<strong>Ircam</strong> présentant l'œuvre, le compositeur et lesrecherches menées, ainsi qu'un numéro spécial de la revueMusic Perception.Participants : S. McAdams, S. Vieillard, B. Smith, A. FreyCollaboration interne : B. Cheret (Valorisation)Collaborations extérieures : R. Reynolds, S. Dubnov(Université de Californie à San Diego, USA), E. Bigand, F.Madurell, P. Lalitte, B. Poulin (Université de Bourgogne,Dijon), M. Battier (Université Paris IV)2.5.4 Cognition et émotion musicaleL’étude de la structure psychologique des émotions repose,pour une majeure partie, sur l’examen de la structure dulangage ou encore sur l’observation des mesures physiologiquesassociées aux émotions de base. Cette structure psychologiquea été abordée par le moyen d’une procédure de catégorisationqui ne recourt ni au langage, ni à des mesuresélectrophysiologiques mais par une approche plus finepermettant de prendre en compte les émotions dites complexes.On a révélé les critères perceptifs engagés dans l’activité decatégorisation des émotions musicales et les paramètresmusicaux corrélés à ces critères. Le décours temporel destraitements impliqués dans la reconnaissance de l’expressivitémusicale et dans l’identification des expériencesémotionnelles musicales est assez rapide et quelques centainesde millisecondes suffisent pour évoquer une catégorieémotionnelle.Participants : S. VieillardCollaborations extérieures : E. Bigand (Université deBourgogne, Dijon), F. Madurell (Université Paris IV).2.5.5 Analyse perceptive de la structure des musiquesarabes improviséesLe projet mené en <strong>2003</strong> a esquissé les processus psychologiquesà l’œuvre dans l’analyse perceptive en temps réel de lastructure des modes arabes improvisés. Les expériences ontmontré que le schéma simplifié de la structuration du temps etla perception du schéma du développement mélodique prennentdes formes spécifiques selon la culture musicale du sujet, lecontexte et le style musical. Nous nous sommes interrogés surla conformité des principes de groupement et de segmentationde la musique tonale dans le contexte de l'écoute des musiquesarabes improvisées. Nous avons étudié les critères desegmentation et de réduction permettant aux auditeursacculturés de structurer le schéma dynamique del’improvisation modale et avons esquissé les processuspsychologiques sous-tendant le « regroupement taxinomique » etle « regroupement séquentiel » à l’œuvre dans l’analyse de la- 79 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESstructure musicale. Enfin, nous avons déterminé la pertinencede patterns mélodico-rythmiques types --- tournures et formulesmélodiques préétablies par la culture pouvant jouer le rôledes schémas de reconnaissance --- pendant l'écoute et l'analyseperceptive en temps réel du style classique et du stylemoderne d'improvisation musicale [Ayari03a, Ayari03b,Ayari0a].Participants : M. Ayari, S. McAdams2.6 Outils d'analyse de donnéesDiverses techniques d'analyse de données multidimensionnelleet de fouille des données symboliques sont développées.2.6.1 Données manquantes dans l'analysemultidimensionnelle des proximitésL'analyse multidimensionnelle des proximités (MDS) estconstituée d'un ensemble de modèles multivariés quireprésentent des objets comme des points ou des vecteurs dansun espace multidimensionnel. Le modèle Exscal est modifié pourincorporer les données manquantes, en utilisant un algorithmeEM. Dans <strong>2003</strong> la performance de cette nouvelle version del'algorithm a été évaluée dans plusieurs conditions, c'est-àdirepour différentes niveaux d'erreur, pour différentsnombres de données manquantes et pour différentesdistributions des données manquantes. On a demontré quel'algorithme fonctionne bien sous toutes ces conditions. Lesrésultats ont été présentés lors d'un congrès sur les méthodesMDS, DIMACS. Ce logiciel permettra l'analyse des ensembles dedonnées beaucoup plus grands.Participants : S. WinsbergCollaborations extérieures : J. D. Carroll (RutgersUniversity, New Jersey, USA)2.6.2 Traitement des objets symboliques dans la fouilledes donnéesPlusieurs projets traitant des Objets Symboliques dans lecadre de la fouille de données seront menés. En analyse dedonnées symboliques, on s'intéresse à des populations plusgrandes du fait que les "individus" ou "objets" sont desclasses. Dans ce dernier cas, on conserve la spécificité desindividus en décrivant chacun d'eux par une variable aléatoirepour chaque descripteur. On s'intéresse alors au tableau dedonnées induit par l'ensemble des valeurs atteintes par cesvariables aléatoires. Ainsi chaque case du tableau des donnéescontient non pas une valeur unique comme c'est le cashabituellement mais peut contenir un intervalle, unhistogramme ou une distribution de probabilités.On a developpé une technique d'analyse des proximités quitraitent des données en forme d'intervalles. On traite commedonnées pour chaque paire de stimuli une valeur minimale etune valeur maximale. Ces données peuvent être le résultat d'unseul juge qui donne une intervalle plutôt qu'une seule valeur,ou des valeurs qui viennent d'un ensemble de juges. Lesrésultats de ce type d'analyse est un hypercube occupé parchaque stimulus plutôt qu'un point comme on trouve dans lesanalyses classiques. Cette technique permettra à la fois detraiter les données qui viennent d'un très grand nombre de- 80 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESsujets et aussi d'estimer la stabilite des resultat d'uneanalyse MDS. On a demontré avec des données simulées quel'algorithme fonctionne très bien. On a aussi traité desdonnéees réelles avec des résultats fort intéressants.Un projet pour la construction de partitions ou classesd'objets symboliques par un algorithme de constructiondescendante hiérarchique a commencé. Le but de la partitionest d'optimiser soit la discrimination entre les classes parrapport à une variable donnée, soit la homogenéité des classesobtenues, soit d'optimiser et la discrimination etl'homogenéité simultanément, en obtenant ainsi une meilleuredescription des classes. On a déjà obtenu de très bonsrésultats tout en ayant un faible niveau de mauvaisesclassifications et en plus en ayant une homogenéité très bonnepermettant une meilleure description des classes[Limam03a]. Oncontinue d'étendre l'algorithme vers d'autres types de donnéeset aussi d'incorporer l'affectation floue d'objets dans lesclasses.Participants : S. WinsbergCollaborations extérieures : E. Diday, E. Limam (UniversitéParis-Dauphine).2.7 Autres activitésLes membres de l'équipe participent activement àl'organisation des manifestations scientifiques aux niveauxnational et international.2.7.1 Organisation du XIIIth International Symposium onHearingCertains membres de l’équipe (Pressnitzer, de Cheveigné,McAdams) ont organisé le XIIIth International Symposium onHearing, du 24-29 août <strong>2003</strong>, à Dourdan, France. Depuis 1969,ce prestigieux symposium se déroule tous les 3 ans et estorganisé en alternance par les Pays-bas, l'Allemagne,l'Angleterre et, depuis peu, par la France (l'édition-<strong>2003</strong> estla seconde qui se soit tenue en France). Le symposium comporteuniquement des présentations sollicitées. Cette édition a vu62 contributions retenues, dans des domaines allant de lamécanique cochléaire jusqu'à la perception de sons complexes.La plupart des experts mondiaux actifs dans le domaine étaientprésents. Les participants provenaient de divers pays dumonde : USA, Japon, Angleterre, Allemagne, Pays-bas, Espagne,Danemark, Belgique, France (113 participants au total). Leprogramme de la conférence est accessible en ligne àhttp://www.ish<strong>2003</strong>.org/. Un livre a été tiré de la conférence,comportant des chapitres commentés sur les divers aspectsabordés [Pressnitzer04a].Participants : D. Pressnitzer, A. de Cheveigné, S. McAdamsCollaborations extérieures : L. Collet, LNSS-CNRS, UniversitéClaude Bernard (Lyon II)Financements : Office of Naval Research Global, USA, CNRS(SDV, SPI), DGA2.7.2 Organisation des Journées Jeunes Chercheurs et deJournées Design SonoreCes journées se sont déroulées les 23, 24 et 25 octobre <strong>2003</strong> àl’Ecole Nationale Supérieure des Télécommunications (ENST),- 81 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESParis. Elles ont regroupé une quarantaine de participantsainsi qu’une dizaine d’auditeurs libres. Les six sessionsétaient divisées en deux parties : courtes présentationsorales puis discussions autour des posters. Grâce à cetteformule, à la diversité des thèmes abordés ainsi qu’à lagrande qualité des présentations, les objectifs de cesjournées ont été atteints : regrouper des thésards travaillantsur des thèmes similaires, permettre des échanges et desdébats autour des différents sujets et faire découvrir àchacun de nouvelles problématiques. Le site Internethttp://www.ircam.fr/anasyn/jjcaas/ regroupe les résumés desparticipants et centralise leurs présentations orales.Participants : J. Marozeau, J. TardieuCollaborations internes : A. Almeida, B. Delezoide, K. Souren,E. VincentCollaborations extérieures : B. David (ENST)Financement : SFA, GDR Information, Signal, Images et viSion(ISIS) du CNRS, Association Francophone de la CommunicationParlée (AFCP)2.8 Publications et communicationsDirection d’ouvrages[Ayari03b] Ayari M., "L'écoute des musiques arabes improvisées : essai depsychologie cognitive", Collection Univers MusicalParis, L'Harmattan, <strong>2003</strong>.[Pressnitzer04a] Pressnitzer D., de Cheveigné A., McAdams S. et Collet L.,éd., "Auditory Signal Processing: Psychophysics, Physiology and Modeling",New York, Springer-Verlag, 2004.Articles parus dans des revues à comité de lecture[Ayari03a] Ayari M. et McAdams S., "Aural analysis of arabic improvisedinstrumental music (taqsîm)", Music Perception, 21, <strong>2003</strong>, pp. 159-216.[Bey03a] Bey C. et McAdams S., "Post-recognition of interleaved melodies asan indirect measure of auditory stream formation", Journal of ExperimentalPsychology: Human Perception and Performance, 29, <strong>2003</strong>, pp. 267-279.[deCheveigne03d] de Cheveigné A., "Time-domain auditory processing ofspeech", J. Phonetics, 31, <strong>2003</strong>, pp. 547-561.[Limam03a] Limam M. M., Diday E. et Winsberg S., "Symbolic ClassDescription with Interval Data", Journal of Symbolic Data Analysis, 1,<strong>2003</strong>, pp. http://www.jsda.unina2.it.[Marozeau03a] Marozeau J., de Cheveigné A., McAdams S. et Winsberg S., "Thedependency of timbre on fundamental frequency", Journal of the AcousticalSociety of America, 114, <strong>2003</strong>, pp. 2946-2957.[McAdams04a] McAdams S., "Problem-solving strategies in music composition:A case study", Music Perception, 21, 2004, pp. 391-430.[McAdams04b] McAdams S., Chaigne A. et Roussarie V., "The psychomechanicsof simple sound sources: Material properties of impacted bars", Journal ofthe Acoustical Society of America, 115, 2004, pp. 1306-1320.[Pressnitzer03a] Pressnitzer D., de Cheveigné A. et Winter I. M.,"Physiological correlates of the perceptual pitch shift of sounds withsimilar waveform autocorrelation", Acoustic Research Letters Online, 5,<strong>2003</strong>, pp. 1-6.[Susini04a] Susini P., McAdams S., Winsberg S., Perry I., Vieillard S. etRodet X., "Characterising the sound quality of air-conditiong noise",Applied Acoustics, 2004, pp. (à paraître).[Tillmann04a] Tillmann B. et McAdams S., "Implicit learning of musicaltimbre sequences: Statistical regularities confronted with acoustical(dis)similarities", Journal of Experimental Psychology: Learning, Memoryand Cognition, 2004, pp. (à paraître).[Tillmann04b] Tillmann B. et McAdams S., "Apprentissage implicite enmodalité auditive : Statistique et acoustique", Neuropsychologie, 2004, pp.(à paraître).[Verhey03a] Verhey J., Pressnitzer D. et Winter I. M., "The psychophysicsand physiology of comodulation masking release", Experimental BrainResearch, 153, <strong>2003</strong>, pp. 405-415.- 82 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESActes de congrès avec comité de lecture[Baskind03a] Baskind A. et de Cheveigné A., "Pitch-tracking of reverberantsounds, application to spatial description of sound scenes", AudioEngineering Society, Banff Centre, Canada, <strong>2003</strong>.[Caclin03c] Caclin A., Brattico E., Smith B., Tervaniemi M., Näätänen R.,Giard M. H. et McAdams S., "MMN responses to timbre changes", ThirdInternational Workshop on Mismatch Negativity and Auditory Functions andDysfunctions, Lyon, <strong>2003</strong>, pp. 115(A).[deCheveigne03a] de Cheveigné A. et Baskind A., "F0 estimation of one orseveral voices", Eurospeech, <strong>2003</strong>, pp. 833-836.[deCheveigne04b] de Cheveigné A., "Pitch perception models from origins totoday", International Conference on Acoustics, Kyoto, 2004.[Lemaitre03a] Lemaitre G., Susini P., Winsberg S. et McAdams S.,"Perceptively based design of new car horns sounds", InternationalConference on Auditory Display, University of Boston, the Boston UniversityPublications Production Department, <strong>2003</strong>, pp. 47-50.[Susini03c] Susini P., Gaudibert P., Deruty E. et Dandrel L., "Perceptivestudy and recommandation for sonification categories", InternationalConference on Auditory Display, University of Boston, the Boston UniversityPublications Production Department, <strong>2003</strong>, pp. 292-295.Chapitres dans des ouvrages collectifs[Ayari04a] Ayari M. et McAdams S., "Polysémie et multidimensionnalité duphénomène de l'improvisation instrumentale arabe", Les pratiques d'écouteindividuelles, Madurell, F., éd., Paris, Université de Paris-Sorbonne,2004, pp. (à paraître).[deCheveigne04a] de Cheveigné A., "Pitch perception models", Pitch, Plack,C. & Oxenham, A., éd., New York, Springer Verlag, 2004.[deCheveigne04c] de Cheveigné A., "The cancellation principle in acousticscene analysis", Perspectives on Speech Separation, Divenyi, P., éd., NewYork, Kluwer, 2004.[deCheveigne04d] de Cheveigné A., "Audition, action, espace", Agir dansl'espace, Thinus-Blanc, C. & Bullier, J., éd., Paris, 2004.[deCheveigne04e] de Cheveigné A., "Espace et son", Les espaces de l'homme,Berthoz, A., éd., Paris, Odile Jacob, 2004 in press.[McAdams03c] McAdams S. et Matzkin D., "The roots of musical variation inperceptual similarity and invariance", The Cognitive Neuroscience of Music,Peretz, I. & Zatorre, R., éd., Oxford, Oxford University Press, <strong>2003</strong>, pp.79-94.[McAdams04c] McAdams S., Depalle P. et Clarke E., "Analyzing musicalsound", Empirical Musicology: Aims, Methods, Prospects, Clarke, E. & Cook,N., éd., Oxford, Oxford University Press, 2004.Résumés publiés dans des revues à comité de lecture[Caclin03a] Caclin A., Menon V., Krasnow B., Mackenzie K., Smith B. etMcAdams S., "fMRI correlates of timbre perception", NeuroImage, 19, <strong>2003</strong>,pp. S61(A).[Caclin03b] Caclin A. et Morlet D., "Detection of ERP components in singlesubjects using a bootstrap procedure", Journal of Psychophysiology, 17,<strong>2003</strong>, pp. S32(A).[deCheveigne03c] de Cheveigné A., "Scene analysis without spectralanalysis?", J. Acoust. Soc. Am., 113, <strong>2003</strong>, pp. 2231(A).[Kult03b] Kult A., Rupp A., Pressnitzer D., Scherg M. et Supek S., "MEGstudy on temporal asymmetry processing in the human auditory cortex",Neuroimage, 19, <strong>2003</strong>, (A).[Lemaitre04a] Lemaitre G., Susini P., Winsberg S. et McAdams S., "A methodto assess the ecological validity of laboratory-recorded car horn sounds",Acta Acustica, (à paraître), 2004.[Pressnitzer04c] Pressnitzer D., Ragot R., Ducorps A., Schwartz D. etBaillet S., "Is the auditory continuity illusion based on a changedetectionmechanism? A MEG study", Acta Acustica, 2004, pp. in press(A).[Pressnitzer04c] Pressnitzer D., Tardieu J., Ragot R. et Baillet S.,"Mechanisms underlying the auditory continuity illusion", Journal of theAcoustical Society of America, 2004, pp. in press (A).[Susini04b] Susini P. et McAdams S., "Temporal asymetry in loudness", ActaAcustica, (à paraître), 2004.[Tardieu04a] Tardieu J., Susini P. et Poisson F., "Soundscape design intrain stations, I: soundscape function and identity", Acta Acustica, (àparaître), 2004.- 83 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESActes de congrès sans comité de lecture[deCheveigne03b] de Cheveigné A., "Perception auditive de l'espace",Symposium "Les espaces de l'homme", Paris, <strong>2003</strong>.[deCheveigne03e] de Cheveigné A., "The cancellation principle in ASA,natural and artificial", NSF Workshop on Speech Separation, Montreal, <strong>2003</strong>.Travaux universitairesMémoires de maîtrise, DEA et d’écoles d’ingénieurs[Frey03a] Frey A., La perception de la structure d'une œuvre musicale àtravers une tâche de segmentation, Université Paris VIII, Mémoire de DEA(Psychologie), <strong>2003</strong>.Thèses[Houix03a] Houix O., Catégorisation auditive des sources sonores,Université du Maine, Thèse de doctorat (Acoustique), <strong>2003</strong>.[Lemaitre04b] Lemaitre G., Etude perceptive et acoustique de nouveauxavertisseurs sonores automobiles, Université du Maine, Thèse de doctorat(Acoustique), 2004.Rapports de recherche[Lemaitre03b] Lemaitre, G., Susini, P., Winsberg, S. & McAdams, S. (<strong>2003</strong>)Etude de l'identification des avertisseurs sonores automobiles. Rapportintermédiaire, contrat Klaxon-<strong>Ircam</strong>-Université du Maine.[McAdams03d] McAdams S., Qualification du typage sonore, Rapport final, PSAPeugeot-Citroën, <strong>2003</strong>.[Susini03a] Susini P., Houix O. et Misdariis N., Influence des informationsajoutées sur les jugements d'une séquence sonore I : protocoleexpérimental, Technical Report, Renault, Paris, France, <strong>2003</strong>, pp. 12.[Susini03b] Susini P., Houix O. et Misdariis N., Influence des informationsajoutées sur les jugements d'une séquence sonore II : résultats, Renault,Paris, France, <strong>2003</strong>, pp. 33.Conférences invitéesde Cheveigné A., Son et espace, Colloque "Les espaces de l'homme", Collègede France, octobre <strong>2003</strong>de Cheveigné A., The cancellation principle in acoustic scene analysis,natural and artificial, NSF Workshop "Speech separation", Montréal,novembre <strong>2003</strong>WinsbergS., Symbolic class description with interval data, ClassificationSociety of North America, Tallahassee FL, juin <strong>2003</strong>.Winsberg S., Two methods: One for large data sets with missing data, onefor huge data sets encountered when data mining,DIMACS Conference on MDS Methods, Tallahassee, FL, juin <strong>2003</strong>Winsberg S., Latent class models for time series analysis, Dépt. deMathématiques, Université de Costa Rica à San Pedro San Jose, Costa Rica.Winsberg S., Symbolic class description, Dépt. de Mathématiques, Universitéde Costa Rica à San Pedro San Jose, Costa Rica.Diffusion de connaissances[McAdams03b] McAdams S., "Perception of musical timbre", Bulletin ofPsychology and the Arts, 4, <strong>2003</strong>, pp. 39-42.Colloques et séminairesCheveigné A., Scene analysis without spectral analysis?, conférence ASA,mai/juin <strong>2003</strong>de Cheveigné A., Cancellation in auditory scene analysis, séminaire Dept.Physiologie, Université de Munich, décembre <strong>2003</strong>de Cheveigné A., F0 estimation of one or several voices, conférenceEurospeech, septembre <strong>2003</strong>.de Cheveigné A., Fundamental frequency estimation, séminaire UPF Barcelone,Mars <strong>2003</strong>Gérard Y., Bigand E. et Houix O., On the impact of semantic and acousticfactors for environmental sounds. XIIIth European Society for CognitivePsychology Conference, Granada, Espagne.Houix O., Catégorisation auditive des sources sonores, Séminaire duLaboratoire d’Acoustique, Université du Maine, Le Mans.Houix O., Catégorisation auditive des sources sonores, Séminaire Rechercheet Création, <strong>Ircam</strong>.- 84 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESLemaitre G., Etude perceptive des sons d'avertisseurs sonores automobiles:application au design, Séminaire Recherche et Création, <strong>Ircam</strong>.Lemaitre G., Etude perceptive des sons d'avertisseurs sonores automobiles :application au design, Séminaire du Laboratoire d’Acoustique, Université duMaine, Le Mans.McAdams S., Dynamique cognitive dans l'écoute de la musique contemporaine,Séminaire REcherches/MIXités Arts - Sciences -Technologies,<strong>Ircam</strong>/Université Paris VI/Université Paris VIII, 04/03McAdams S., Perception et cognition des sources sonores, séminaire dugroupe Perception et Facteurs Humains, Direction de la Recherche, PSAPeugeot-Citroën, Vélizy-Villacoublay, 04/03.McAdams S., The role of sound source properties in auditory perception andcognition, Department of Psychology, University of Toronto, Mississauga,Ontario, 11/03.McAdams S., The role of timbre in music perception and composition,Department of Neurology, Neurobiology and Psychiatry, University ofNewcastle, GB, 06/03.McAdams S., Timbre psychophysics, Auditory Group, Department of Neurology,Neurobiology and Psychiatry, University of Newcastle, GB, 06/03.Susini P., La perception des sons de la vie quotidienne, La semaine du Son,<strong>Ircam</strong>.Susini P., Le son des objets industriels , La semaine du Son, <strong>Ircam</strong>.Tillmann B. & McAdams, S., Apprentissage implicite des séquences de timbresmusicaux :Statistique versus acoustique, CNA2, Lyon, 03/03Emissions radiophoniques et télévisées, entretiensjournalistiques, animationsSusini P., La psychoacoustique, Le Journal de la Santé, ArteParticipation à des jurys de thèsede Cheveigné A., thèse de Alexis Baskind (Acoustique) Université Paris VI,12/03 [examinateur].McAdams S., thèse de B. Poulin (Psychologie) Université de Bourgogne, 11/03[rapporteur].McAdams S., thèse de C. Guastavino (Acoustique) Université Paris VI, 1/03[examinateur].McAdams S., thèse de O. Houix (Acoustique) Université du Maine, 7/03 [codirecteurde thèse].McAdams S., thèse de P. Lalitte (Musique et Musicologie du XXe Siècle)Université Paris IV, 12/03 [examinateur].Participation aux conseils, bureaux et comités éditoriauxMcAdams S., associate editor pour la revue Journal of the AcousticalSociety of America.McAdams S., associate editor pour la revue Music Perception.McAdams S., consulting editor pour la revue Cognition.McAdams S., Co-organisateur, Action Spécifique « Objets, sources et scènesdans la communication » du Réseau Thématique Pluridisciplinaire, STIC, CNRSMcAdams S., membre du Conseil Pédagogique, DEA de Sciences Cognitives,EHESS/Université Paris VI.McAdams S., membre suppléant (Psychologie) Université de Bourgogne.McAdams S., membre suppléant (Psychologie) Université de Lille III.Susini P., trésorier du groupe Audition de la Société Françaised'AcoustiqueEnseignements dispensésCaclin A., Introduction à la programmation, DEUG de Sciences de la Vie,Université Paris VICaclin A., Neuroanatomie et neurophysiologie, Licence et Maîtrise dePhysiologie, Université Paris VIHouix O., Statistiques inférentielles, DEUG Psychologie générale,Université Paris 8Lemaitre G., Méthodes et stratégies de recherche en psychologie :méthodologie, traitement de données numériques et utilisation delogiciels, DEUG de psychologie , Université Paris VIII, IED/CNEDLemaitre G., Evaluation de la qualité sonore industrielle, InstitutSupérieur de Mécanique de ParisMarozeau J., Introduction à la programmation, DEUG de Sciences de la Vie,Université Paris VI- 85 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTPERCEPTION ET COGNITION MUSICALESMcAdams S., Perception et cognition auditives, DEA de Sciences Cognitives,EHESS/Université Paris VIPressnitzer D., Psychoacoustique musicale, IUFM Midi Pyrénées, sectionmusiquePressnitzer D., Psychoacoustique musicale, Conservatoire National deMusique et de Danse de LyonPressnitzer D., Psychoacoustique, DEA ATIAM, <strong>Ircam</strong>-Université Paris VIPressnitzer D., Psychoacoustique, DEA d’Acoustique de l’Université du MainePressnitzer D., Psychoacoustique, Institut d’Electronique du NordPressnitzer D., Psychoacoustique, Supméca St-OuenSusini P., Acoustique Environnemental, Ecole d'Architecture du Val-de-SeineWinsberg S., Analyse multidmensionnelle, Dépt. de Mathématiques,Université de Costa Rica, San Pedro, San Jose, Costa Rica.- 86 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONS3 ANALYSE ET SYNTHESE DES SONSResponsable : Xavier RodetL’équipe Analyse-Synthèse mène des activités de recherche etde développement dans le domaine du traitement du signalaudionumérique. L'analyse recouvre les activités visant àextraire tout type d’information musicale et acoustique dusignal, concernant par exemple la hauteur (sous forme defréquence fondamentale), le timbre, les instruments, etc. Lasynthèse désigne la construction d'un signal afin d’obtenircertaines propriétés sonores et musicales souhaitées par lesmusiciens et compositeurs. Enfin une activité importante estla transformation du son en fonction de besoinscompositionnels. Ces travaux sont d'abord effectués pour lesmusiciens et compositeurs, mais trouvent des applications dansd’autres domaines comme le cinéma, le multimédia, ou même desdomaines industriels.L'année <strong>2003</strong> est marquée par le démarrage de projets tout àfait nouveaux comme le projet Phase (Plateforme Haptiqued'Application Sonore pour l'Éveil musical) et lareconnaissance dans des enregistrements musicaux réels. Parailleurs d'autres thèmes arrivent à maturité, comme leprogramme Align d'alignement de partitions avec l'audio et lathèse de D. Schwarz sur le contrôle de la synthèse parsélection d'unités. Enfin le traitement de la voix connait unrenouveau et est l'objet d'une forte demande des compositeurset créateurs en ce moment.3.1 Modèles d'analyse et de synthèse du signal audioLes modèles d’analyse et de synthèse du signal audio étudiésdans l’équipe reposent souvent sur une transformation dans ledomaine fréquentiel : transformée de Fourier à court terme età fenêtre glissante pour le vocodeur de phase, et somme desinusoïdes variables dans le temps auquel s’ajoute un résiduelnon sinusoïdal pour le modèle dit sinusoïdal additif.Cependant, pour mieux répondre à l’attente des utilisateursmusiciens, compositeurs et traiteurs de son en général, notreeffort porte-t-il aussi sur de nouvelles façons d’envisager lasynthèse, parmi lesquelles la méthode dite par sélectiond’unités. Dans cette méthode comme dans de nombreux autrestravaux, il apparaît que la disponibilité de larges bases dedonnées est une nécessité absolue d’amélioration des résultatset c’est pourquoi ces bases de données sont au cœur de nombrede nos travaux. Ces méthodes sont d'ailleurs appliquées pourla modification et le traitement de la voix qui sont l'objetd'une forte demande des compositeurs et créateurs en cemoment.3.1.1 Amélioration de l’analyse additiveQuelques améliorations du programme Additive ont étéeffectuées, en particulier l'interface graphique du programmeAdditive, Gadditive (additive + GUI). Ce travail a été réalisédans le cadre d’un contrat avec la société PSA qui utilise celogiciel. Quelques fonctionnalités et les Widgetscorrespondants ont notamment été ajoutés.- 87 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONSResponsable : A. RoebelParticipants : J. Escribe, A. RoebelCollaboration interne : société PSA3.1.2 Contrôle de la synthèse par sélection d'unitésDans les systèmes de synthèse de la parole à partir du texte,une nouvelle technique, nommée sélection d'unités, permet uneamélioration de qualité considérable. Son application à lasynthèse sonore et musicale de haute qualité est étudiée ici.La méthode utilise une large base de données hétérogènes desons choisis (notes séparées ou phrases complètes) et decaractéristiques, classés et segmentés suivant des paramètresestimés sur le signal. Le segment qui ressemble le mieux, ausens d'un certain critère, au résultat désiré, est sélectionnépar l'algorithme. Le segment sonore trouvé peut êtretransformé par des techniques temporelles ou fréquentielles dere-synthèse telles que Psola, re-synthèse additive, etc. Ilest enchaîné avec les segments trouvés pour les autres partiesdu signal à construire, en appliquant des techniquesd'interpolation pour former les transitions. En <strong>2003</strong>, la basede sons de test a été constituée en analysant et segmentantenviron deux heures de sons à l'aide des outils desegmentation par Dynamic Time Warping, décrit en [Soulez03a].De nombreux outils de visualisation des contenus de la base desons ont été développés. L'algorithme de sélection d'unités aété mis au point et validé. D. Schwarz a soutenu sa thèse enjanvier 2004 [Schwarz04a]. Ce travail sur la synthèse fondéesur les données a été présenté aux conférences DAFx[Schwarz03a] et ICMC [Schwarz03b] et a rencontré un vifintérêt. Il est à noter que, dans ces deux conférences,d'autres présentations traitaient du même principe de(re)synthèse sonore, donc en rapport avec le travail àl'<strong>Ircam</strong>. La couche logicielle fondamentale d'accès à la basede données PostGreSQL à partir de Matlab a été publiée souslicence libre open source "GNU Lesser Public License (LGPL)"et mis en accès à l’adresse :http://gborg.postgresql.org/project/pgmatlab.Responsable : X. RodetParticipant : D. Schwarz (thèse)Collaborations internes : F. Soulez, J. Escribe3.1.3 Plugin Psola dans DiphoneAu cours d’un stage, D. Tardieu a porté le moteur de calcul deDiphone de Mac OS-9 vers Unix (Linux) en gardant naturellementune source unique. Cela permet de faire facilement des calculsen batch et a préparer le portage vers Mac OS-X. De plus, il aécrit un nouveau plugin pour Diphone implantant la méthodePsola. Enfin il a écrit un synthétiseur Psola en Matlab pourfaire la synthèse, c'est-à-dire convertir les données Psolagénérées par Diphone (enregistrées dans le standard SDIF type1DIP et 1REF) en signal sonore [Tardieu03a].Responsable : X. RodetParticipants : D. Tardieu (stage)- 88 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONS3.1.4 Détection des transitoires3.1.4.1 Algorithme de détectionUn nouvel algorithme pour la détection des transitoires a étémis au point. Cet algorithme est fondé sur l'analyse des picsspectraux et l'estimation du centre gravité de l'énergie (CGE)du signal relié à chaque pic. Avec les méthodes dites deréassignement, le centre de gravité peut être estimé d'unemanière efficace. Il a été montré que le CGE est étroitementlié au changement de l'amplitude pendant la trame. Parmi lesmotivations pour cet algorithme se trouvent l'intégration dansSuperVP et l'utilisation pour la détection des transitoiresdans les signaux polyphoniques. Pour tenir compte des signauxpolyphoniques et éviter des détections fausses dans lesrégions bruitées, une modélisation probabiliste de lavraisemblance des CGE est utilisée. L'algorithme a été évaluéavec une base de données de référence créée au cours d'unstage à l’<strong>Ircam</strong> par F. Jaillet. Les résultats montrent que lenouvel algorithme permet d'obtenir une détection plus fiableque celui de Jaillet. L'algorithme est utilisé comme base d'unnouvel algorithme de préservation des transitoires dans levocodeur de phase.Responsable : A. RoebelParticipant : F. Jaillet (stage)3.1.4.2 Traitement des transitoires dans le vocodeur dephaseLes transitoires posent problème pour les transformations dessignaux avec le vocodeur de phase. Dans les transformationstouchant aux relations de phase, les transitoires subissentdes dégradations considérables, ce qui a motivé ledéveloppement de l'algorithme de détection des transitoiresdécrit ci-dessus. Il y avait, dans la littérature, unalgorithme consistant supprimer toutes les transformationsdans le segment transitoire. Cet algorithme n’est valable quepour les signaux monophoniques et ne permet pas de distinguerles parties stationnaires des parties transitoiressimultanées. Une nouvelle méthode a été développée pour garderla qualité des transitoires sans avoir d’effet sur lescomposantes stationnaires. Les améliorations ainsi apportéesdans le traitement des transitoires sont importantes. Avecl'algorithme développé, les transitoires gardent toutes leurscaractéristiques perceptives même si unedilatation/transposition importante est appliquée.L'algorithme de détection et de préservation des transitoiresa été décrit dans [Roebel03a] et [Roebel03b].Responsable : A. Roebel3.1.5 Classification des pics spectrauxLe succès de l'idée de classification des pics spectraux entransitoire/non-transitoire développé ci-dessus nous a amené àétudier le problème de façon générale. En collaboration avecM. Zivanovic, chercheur en post-doc, la classification despics a été généralisée au problème sinusoïdal/bruité. Uneméthode fiable pour la classification des pics spectraux ensinusoïdal ou bruité améliorerait en effet l'estimation desmodèles additifs. De même, une telle classification nous- 89 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONSpermettrait de traiter spécifiquement les différentescomposantes dans les modèles spectraux (vocodeur de phase).Nous avons donc étudié différents descripteurs des picsspectraux, liés à la fréquence réassignée, au centre gravitédu signal, à la durée du signal et à une largeur de bandenormalisée du pic. En appliquant ces descripteurs aux picsappartenant à trois classes (sinusoïde avec AM/FM, bruits,lobe secondaire) nous avons déterminé les distributions desdescripteurs pour ces classes et nous avons établi un arbre dedécision qui permet de classer les pics dans les troisclasses. Par rapport aux méthodes de classificationexistantes, notamment la méthode de corrélation avec le picd’une sinusoïde stationnaire, l'arbre de décision établi donnedes résultats beaucoup plus fiables pour la classification despics représentant des sinusoïdes non stationnaires[Zivanovic03a]. La méthode de classification des pics serautilisée dans le futur pour améliorer le "partial tracking"dans les modèles additifs non harmoniques.Responsable : A. RoebelParticipant : M. Zivanovic3.1.6 Traitement pour le film TirésiaPour le film Tirésia, le réalisateur B. Bonello a eu besoin detransformer la voix d'une actrice en une voix d'homme.Plusieurs méthodes ont été comparées. Le meilleur résultat aété jugé celui obtenu avec le logiciel SuperVP. B. Bonello atrouvé ces transformations "au-delà de ses espérances". Lavoix transformée est apparue dans le film en compétition àCannes et sorti sur les écrans dans l'année.Responsable : X. RodetParticipants : G. Denis, A. Roebel3.1.7 Transformation de la voixCette thèse, débutée au mois d'Octobre, a pour finalité detrouver une fonction de transformation qui permette de donnerl'identité de la voix d'un locuteur "cible" à celle d’unlocuteur 'source'. Elle utilisera l'extraction,l'apprentissage et la modification de paramètres du signalvocal (fréquence fondamentale, formants, excitation, etc.)liés au locuteur. Une première étude de ce sujet a étéréalisée dans le cadre du programme DEA-Atiam par G. Denis[Denis03a]. Dans cette étude, un système simplifié a étédeveloppé en utilisant la technique Psola et des résultatspréliminaires obtenus. En particulier un algorithmed'alignement temporel de deux phrases a été développé. Iltrouve des applications notamment pour l’indexation de corpusen synthèse de la parole et pourrait être utilisé dans desapplications artistiques.Avec ce point de départ, certaines idées ont été testées pourl'élaboration d'une direction de recherche. La proximitéperceptive au locuteur cible et la généralisation souhaitéesont considérées comme les problématiques principales de latransformation, ainsi qu'une amélioration de l'alignementtemporel comme premier pas du futur système.Les résultats et propositions publiées dans la littératurescientifique n'apportent pas encore une qualité et unegénéralisation suffisantes. En revanche, les améliorations- 90 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONSprogressives et le potentiel d'applications en font un sujetde recherche très intéressant.Responsable : X. RodetParticipants : G. Denis (stage de DEA Atiam) et F.Villavicencio (thèse)3.1.8 Synthèse de la voix à partir du texte.La synthèse ou plus exactement le contrôle de la synthèse parsélection d'unités dans un corpus est particulièrement adaptéau cas de la voix car cette méthode permet une amélioration dequalité considérable. Ce projet a pour but la reconstitutionde la voix d'un locuteur disparu. Un modèle de la voix estconstruit par apprentissage sur une base de donnéesd'enregistrements du locuteur ciblé. Tout texte pourra alorsêtre lu par ce modèle comme si le locuteur l'avait prononcé.La méthode utilise une large base de données de parolesegmentée suivant les constituants phonétiques etlinguistiques. Au cours d'un stage, O. Karki a commencé àadapter le système Caterpillar de D. Schwarz (Cf. paragraphe3.1.2. Contrôle de la synthèse par sélection d'unités) pour laparole. Une étude a été faite sur un enregistrement de Cocteauvisant à re-créer sa voix. Les principaux outils desegmentation, indexation et constitution de la base de donnéesont été mis en place [Karki03a]. Cependant, l'enregistrementchoisi présente des particularités (réverbération notamment)qui ne permettent pas d'obtenir une bonne qualité. Mais, grâceaux outils désormais disponibles, la finition du système etl'application à de bons enregistrements seront faites en 2004.Responsable : X. RodetParticipants : O. Karki (stage), F. Soulez (stage), D. Schwarz(thèse)3.2 Nouveaux outils pour l’analyse musicaleLes travaux concernant l’analyse musicale menés dans l’équipeAnalyse/synthèse s’appuient sur les recherches orientéescontenu menées dans les projets Ecrins, Cuidado et maintenantSemanticHIFI. Ainsi les résumés musicaux sont développés pourdiverses applications musicologiques ou grand public. Parailleurs un travail important est fait sur l’alignement departitions avec l’audio. Cette recherche a trouvé desapplications, entre autres, en musicologie, pour l'étude del’interprétation.3.2.1 Estimation des fréquences fondamentales multiplesLes recherches actuelles sur la détection de fréquencesfondamentales (F0) multiples sont issues des travaux menéspendant l'année 2002 sur la détection de fréquencefondamentale en contexte monophonique [Krauledat03a]. Lestravaux ont commencé par un stage DEA [Yeh03a] et ont continuéen thèse. L'approche est fondée sur un ensemble de critèresqui visent à estimer la plausibilité d'un ensemble de picsobservés sous conditions d'un ensemble de F0 candidats. Lescritères sont étroitement liés à ceux utilisés dansl’algorithme monophonique, en prenant en compte la fiabilitédes pics observés. Quatre critères ont été étudiés commemesure de la plausibilité des F0 candidats : accord entrespectre observé et spectre attendu, "douceur" (smoothness) de- 91 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONSl'enveloppe spectrale qui résulte du spectre observé et deshypothèses F0, concentration d'énergie d'une séquenceharmonique et variance du centre de gravité des picsappartenant à un des candidats. La prise en compte de lafiabilité des régions du spectre observé a été étudiée.L'hypothèse fait est que les régions où plusieurs partielssont superposés doivent être traitées de façon spécifiquependant l'évaluation. Comme chaque évaluation fait l’hypothèsed'un ensemble de F0, l’ensemble correct devrait permettre demieux exclure les régions peu fiables et donc devrait recevoirle score le plus grand. En l'état actuel, l'algorithme neprend en compte que les informations d'une seule trame. Il aété évalué sur une base de donnée d'échantillons de diversinstruments artificiellement mixés. De plus quelquesenregistrements polyphoniques simples ont été testés. Lesrésultats sont prometteurs et permettent d'estimer quatrefréquences fondamentales avec une erreur de moins de 10%. Undes plus grands problèmes est la variation naturelle desspectres instrumentaux avec parfois des résonances fortes quiengendrent des enveloppes spectrales avec des variationsimportantes.Responsable : A. RoebelParticipant : C. Yeh (stage de DEA Atiam puis Thèse)3.2.2 Outils d’étude d’œuvres enregistrées avecpartitionCette recherche commencée pendant la thèse de D. Schwarz[Schwarz04a] puis continuée en stage [Soulez03a], [Durigon03a]a permis d’obtenir un contrat important avec la société MIST.Le but est d’obtenir fin 2004 un outil non seulementd’alignement de partitions avec l’audio, mais encore degénération d’une partition "enrichie" où tous les aspects del’interprétation audio soient notés. Le programme d’alignementAlign est d’ailleurs utilisé par l’équipe Formulation dumusical pour mesurer et comparer différentes interprétationsd’une même oeuvre.Dans le stage de F.Soulez, le programme d’alignement Align parDynamic Time Warping (DTW) de D. Schwarz a été amélioré sur denombreux points et une partie importante ré-écrite en C++ enutilisant la bibliothèque MatMTL. De plus de nombreux testsont été entrepris et une évaluation de performance réaliséesur un ensemble de titres. Ce travail a été présenté à laconférence ISMIR [Soulez03a].J. Escribe s’est occupé de la détection précise des attaquesdes notes dans le programme d'alignement de partitions. Apartir de trames données par le programme, son algorithmepermet d'obtenir le temps d'attaque de chaque note ouévénement MIDI à l'intérieur d'un fichier audio. A cette fin,plusieurs méthodes ont été comparées : une s'appuyant sur lavariation d'énergie dans des filtres, une autre utilisant ladérivée de l'énergie, la dernière proposant une modélisationde l'attaque par un modèle 1D de spline. Pour tester cesméthodes, S. Durigon et J. Escribe ont créé une base dedonnées de fichiers MIDI avec l’audio associé, d’unequarantaine de morceaux (/net/suwukan/data/formes/BDalign).Les différents tests ont montré que la modélisation en splineétait la plus performante. L’écart type entre l’estimation del’attaque et la valeur de référence est alors de l’ordre de 23- 92 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONSms. Cette valeur est déjà très intéressante car c’est unproblème vraiment difficile. Mais pour une reproduction fidèlede l’audio à partir de la partition "enrichie", on s’attacheraen 2004 à diminuer encore cet écart type.Par ailleurs, un algorithme de contrôle de tempo (appelé BeatControl) a été écrit. Le but était de corriger les erreurs detrames données par le programme d'alignement. Enfin,l'ensemble du code a été débuggé et réarrangé pour les besoinsdu contrat avec MIST. Dans son stage, S. Durigon a étudié ladétection des percussions et son inclusion dans le programmed'alignement de partitions. L'algorithme utilise unecorrélation avec les sons percussifs d'une base de données quia été constituée à cette occasion. Il trouve ensuite denouvelles références dans le signal audio lui-même. Ainsi, unedistance locale est déterminée pour chaque son percussif avecchaque note de la partition. Cette distance est fournie àl’algorithme d'alignement (Dynamic Time Warping) qui lacombine avec la distance calculée pour les sons harmoniques.Responsable : X. RodetParticipant : J. Escribe, F. Soulez (stage), S. Durigon(stage)Collaboration interne : D. Schwarz (équipe Applications Temps-Réel), N. Donin (Equipe Formulation du Musical)3.2.3 Modèles d'instruments pour la transcription et laséparation d'enregistrements musicauxCe travail a pour but d'extraire dans un enregistrementmusical polyphonique monocapteur ou multicapteur la partiejouée par chaque instrument, sous forme de partition ou sousforme sonore. E. Vincent a poursuivi son travail sur un modèled'instrument basé sur la modélisation de Markov cachée (HMM)et l'analyse en sous-espaces indépendants (ISA). Lesapplications étudiées ont été la transcription et laséparation d'enregistrements mono et stéréo de 2 ou 3instruments réalisés par mélange instantané artificiel,connaissant les instruments présents. L'utilisationd'enregistrements plus réalistes (par exemple des pistes de CDstéréo ou des enregistrements multipistes en salle) ainsi quela reconnaissance d'instruments sont actuellement à l'étude[Vincent03a], [Vincent03b].L'Action Jeunes Chercheurs du GdR ISIS qui avait débuté enmars 2002 avec l'IRISA et l'IRCCyN s'est achevée en novembre<strong>2003</strong> [Gribonval03a]. Les résultats de l'Action (rapportfinal, routines MATLAB, base de données d'évaluation) sontdisponibles sur :http://www.ircam.fr/anasyn/ISIS/Responsable : X. RodetParticipant : E. Vincent (thèse Paris VI)Collaborations internes : A. Livshin (thèse), C. Yeh (thèse)Collaborations externes : R. Gribonval (METISS, IRISA Rennes),C. Févotte (ADTS, IRcCYN Nantes)3.3 Traitement par le contenu et multimédiaDepuis plusieurs années, les applications dites de traitementpar le contenu connaissent un intérêt croissant, tant dans lesrecherches que dans les applications. C’est le cas dans lestandard MPEG-7 auquel l’<strong>Ircam</strong> participe avec plusieurs de ses- 93 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONSéquipes. Les travaux de l’équipe partent de l’analyse dusignal audio pour en extraire des informations de tous types,comme la structure d’une œuvre, l’existence de plusieurssources sonores, la nature des instruments et les détails del’interprétation. Il faut noter que ces travaux permettent enparticulier de développer des outils d’aide à l’analysemusicale. Enfin, dans les programmes multimédias, les travauxcommencent à traiter ensemble les différentes modalités, leson comme l’image et le texte.3.3.1 Descripteurs et applications pour le traitementpar le contenu3.3.1.1 Caractérisation des sonsL’étude de la caractérisation des sons a été poursuivie en<strong>2003</strong> afin d’en permettre la recherche par similarité et laclassification automatique [Herrera03a]. Un ensemble final dedescripteurs audio a éré constitué (soit 69 familles dedescripteurs pour un total de 513 descripteurs). L’extractionautomatique des descripteurs est scindée en deux modulesdistincts : 1) extraction de descripteurs instantanés, 2)modélisation temporelle des descripteurs instantanés(PeetersCUIDADO03). Le portage des modules en C/C++ a étéeffectué sous forme de librairie dynamique. De nouveauxalgorithmes de classification ont été étudiés afin d’améliorerles performances globales du système. En particulier, unnouvel algorithme très performant permettant la sélectionautomatique des descripteurs pour une taxonomie de classedonnée a été proposée (Inertia Ratio Maximization with FeatureSpace Projection). Plusieurs nouveaux algorithmes declassification ont été développés (classification hiérarchiquegaussienne ou hiérarchique KNN, arbre de décision) et testés.Les performances globales du système ont été testées sur unelarge base de donnée (4500 sons, 27 instruments). Lesperformances obtenues sont supérieures à l’état de l’artactuel [Peeters03c], [Peeters03b]. Les modules declassification (apprentissage/évaluation) ont été portés enC/C++ pour intégration dans la Sound Palette Online deCUIDADO.Responsable: G. PeetersParticipants : G. Peeters, J. Escribe, P. Tisserand, N.Sursock (stage)Collaborations extérieures : S. Dubnov (Université deJérusalem), UPF Barcelone3.3.1.2 Description des sons abstraits : morphologiesUne catégorie de sons reçoit une attention particulière, lessons abstraits, décrits par leurs profils dynamiques,mélodiques et itératifs. Cette étude a été faite encollaboration avec E. Deruty (équipe Design sonore). L’étude aporté sur la description de ces profils directement à partirde l’analyse du signal, sur leur classification automatique enfamilles de profils et sur la recherche par similarité deprofil [Peeters03].Responsable: G. PeetersCollaborations internes : V. Rioux (équipe Perception etcognition musicales), E. Deruty (équipe Design sonore)- 94 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONS3.3.1.3 Résumés musicaux visuels et sonores : approchepar séquenceL’estimation de la structure d’oeuvres musicales à partir dusignal a été étudiée en <strong>2003</strong> suivant l’approche dite « parséquences », c'est-à-dire par recherche de répétitions desuccessions d’événements au cours du temps (en 2002, une étudeavait porté sur une représentation « par états »). L’approchepar séquence est particulièrement appropriée pour la détectionde mélodies ou de phrases musicales répétées d’un morceau[Peeters03a], [Peeters03d], [Peeters03e]. Pour cela, deuxnouveaux algorithmes sont proposés : 1) pour la détection desdiagonales (répétitions) de la matrice de similarité (filtragestructurant 2D) 2) pour la combinaison des diagonales(répétitions) afin de former les séquences-mères. Commel’approche par état, l’approche par séquence donne lieu à unereprésentation visuelle (piano-roll) et une représentationsonore (résumé sonore).Responsable: G. Peeters3.3.2 Reconnaissance des instruments et indexation desenregistrementsLe travail de Geoffroy Peeters en 2002 sur la reconnaissancedes instruments a été poursuivi pendant <strong>2003</strong>. Différentsalgorithmes de classification ont été comparés [Livshin03b].D’autres algorithmes ont été développés pour évaluer lespropriétés des bases de données, en particulier pour détecteret enlever les échantillons trop excentriques par rapport à ladistribution de leur classe. Un nouvel algorithme de sélectionde descripteurs a été mis au point. Enfin une comparaison aété effectuée de différentes techniques d'évaluation desméthodes de classification [Livshin03b]. Dans la premièrepartie de l’année, l’étude a porté sur la classificationautomatique des instruments dans les bases de données de notesmusicales isolées (en particulier la base Studio en ligne del'<strong>Ircam</strong>). Un des principaux résultats est que les basesgénéralement disponibles ne couvrent qu’une très petiteportion des enregistrements de notes possibles pour uninstrument. Pour y remédier, il faut compiler de nombreusesbases d’origines aussi variées que possible [Livshin03a]. Lapremière partie de l’année, a été consacrée à lareconnaissance dans des enregistrements musicaux réels, en selimitant au début à des enregistrements solos. Des résultatstrès intéressants ont été obtenus qui permettent d’aborderavec confiance le véritable problème, c'est-à-dire lareconnaissance des instruments (indexation) dans lesenregistrements polyphoniques.Responsable : X. RodetParticipants : G. Peeters, A. Livshin (thèse)Collaborations internes : E. Vincent (thèse)3.3.3 Collaboration multimodale pour l'indexationLe but de cette thèse est de comprendre les mécanismes quirelient les informations contenues dans les différents médiasd'un document multimédia. Dans le contexte d'une base dedonnées multimédia, on cherche à caractériser ces relations defaçon à permettre l'indexation et la recherche des contenus- 95 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONSpar la fusion d'informations multicritères fondées sur le son,le texte et l'image.- Nous avons créé avec le CEA un système de segmentation tempsréel des documents multimedia. Ce système a été testé et ilest en cours d'implantation en C++ ;- Nous avons réalisé une étude approfondie des systèmes desegmentation sémantique et hiérarchique de l'audio, ce qui aabouti a une classification et description intéressante ducontenu audio ;- Nous avons appliqué cette étude à la mise en place d'unsystème de classification de journaux télévisés prenant encompte la multimodalité des documents. (Tests en cours) ;- Nous avons commencé en collaboration avec le CEA un systèmemultimédia de reconnaissance du locuteur pour des videoconférences;- Nous réfléchissons en ce moment à un système declassification et de segmentation multimédia interagissantavec l'utilisateur.Responsable : X. RodetParticipants : B. Delezoide (thèse)Collaborations extérieures : C. Fluhr, P. Hede (CEA)3.3.4 PHASE, Plateforme Haptique d'Application Sonorepour l'Éveil musicalPHASE est un projet RIAM pour la période <strong>2003</strong>-2004, auquelcollaborent l'<strong>Ircam</strong>, le CEA, Haption et Ondim. Il s'agit d'unprojet de recherche, à la fois scientifique et musicale,associé à une production, puisqu'une installation seraprésentée au grand public au Centre-Pompidou en septembre2004. L'objectif du projet est de réaliser un systèmemultimodal de génération sonore et musicale utilisant lacapture du geste en entrée ainsi que des retours haptiques etvisuels. Le terme haptique désigne le retour tactile et leretour d’effort. Ces deux sensations sont importantes pour lecontrôle du geste. La multiplicité des voies de recherche dansce domaine relativement nouveau, associé à la multiplicité desintervenants et de leur culture (musiciens, pédagogues,ergonomes, plasticiens, informaticiens, automaticiens,mécaniciens, etc.) a nécessité une forte prise en compte ducaractère exploratoire du projet pour organiser le travail.Deux aspects sont mêlés dans PHASE : la recherche de modalitésd'interactions et la réalisation du système permettant cesinteractions, dans un contexte expérimental dans un premiertemps, puis de production par la suite. La date butoir de laprésentation au grand public est aussi une contrainteimportante. La recherche porte sur les modalités d'interactionpermettant des manipulations sonores et musicales à partir dugeste. Appelées métaphores, elles décrivent les liens entre lemonde réel et le monde virtuel. L'<strong>Ircam</strong> s'occupe de ladéfinition des métaphores, ce qui implique des travaux dansplusieurs domaines. Afin d'effectuer les recherches sur legeste et notamment l'extraction de paramètrescaractéristiques, différents outils ont été développés sous laforme de modules intégrables : interface générique de matériel(tablette Wacom, souris, bras haptique), enregistrement etanalyse en temps réel (MAX/MSP) ou hors temps (Matlab). Unegrande partie du travail concerne la recherche de- 96 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONScorrespondances entre les différents paramètres de haut niveaudes différentes modalités (mapping multimodal) : le geste,mais également les objets des environnements physique,musical, sonore et visuel ; le tout dans un objectifd'interaction dynamique. L'absence d'approche universelle nousa contraint à des réalisations dans différents contextes, avecun objectif de généralisation des interfaces et de leursméthodes de construction. Concernant l'éveil musical,différents mécanismes de découverte et de reconnaissance sontmis en jeu, notamment par une forte corrélation entre le sonproduit et le geste effectué, avec le but de focaliserl'attention sur l'écoute. Plusieurs modules de manipulation entemps réel ont été réalisés : manipulation de structuresmusicales, navigation sonore, traitements et générations desons. Parmi les différentes réalisations, on peut citer lamétaphore de la tête de lecture permettant de rejouer unemusique précédemment enregistrée dans l'espace de manipulationpar une tête d'enregistrement. Les technologies utiliséesn'étant pas encore matures, les développements applicatifs etles expérimentations sont particulièrement difficiles. Lesystème est développé de manière modulaire et évolutive pourpermettre l'expérimentation lors même de sa construction. Lesmétaphores développées sont implantées dans différents moteurstemps réel standards (MAX/MSP pour l'audio, Vortex pour laphysique, Virtools pour les comportements et les images).L'<strong>Ircam</strong> s'occupe également de la définition des protocoles decommunication (utilisant le standard OSC sur UDP) ainsi quedes réalisations dans le moteur sonore. Enfin l'<strong>Ircam</strong> conçoitet développe le scénario du jeu qui sera présenté au publicdans l’exposition en Septembre 2004.Responsable : X. RodetParticipants : J.-P. Lambert, R. Cahen (compositeur), R.Kronenberg (assistant musical), F. Guédy (responsable, pour lapédagogie), C. Le Prado (compositeur, pour la spatialisation),T. Gaudy (stage), D. Hart (stage)Collaborations internes : équipe Logiciels libres etingénierie logicielle, équipe Applications temps réel, équipeAcoustique des salles, départemenr CréationCollaborations extérieures : Ondim, CEA-LIST, Haption, Cnam-Cedric (centre de recherche en informatique), Atelier desFeuillantines3.4 Modèles physiques de production sonore etinversion de modèlesLes modèles physiques sont des modèles du fonctionnement desinstruments avec toutes leurs composantes qui contribuent àl’oscillation et finalement à l’onde sonore transmise dansl’air environnant. Le potentiel de ces modèles est important,mais nécessite au préalable que leur contrôle soit facilitépar des méthodes dites d’inversion ou d’estimation deparamètres, qui sont l’équivalent des méthodes d’analyse dansle cas des modèles de signaux. Parmi les instruments quinécessitent encore le plus de recherches dans ce domaine avantqu’un modèle puisse être appliqué en création musicale, setrouve la famille des hautbois, caractérisés par une anchedouble et un corps conique.- 97 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONS3.4.1 Etude des écoulements dans les instruments àanche doubleLe travail de thèse d'André Almeida porte sur la descriptionphysique du fonctionnement des instruments à anche double. Enparticulier, une explication est recherchée de la différencede fonctionnement de ces instruments par rapport auxinstruments à anche simple. A la fin de ce travail, on espèrepouvoir aboutir à un nouveau modèle physique pour les anchesdoubles pouvant être utilisé dans la synthèse sonore. A la finde l'année de 2002, un modèle d’instrument à anche, utilisableen temps réel, avait été implémenté en "pd" et en "jMax". Leshypothèses théoriques d'existence d'une perte de chargeimportante dans l'anche ont été incluses dans la simulation defaçon à tester son effet sur le son produit. En <strong>2003</strong>, cemodèle à été perfectionné pour mieux s'adapter à l'étude deseffets sur la simulation des résultats obtenus précédemmentdans des expériences. Un modèle de résonateur conique moinscoûteux en mémoire et en temps de calcul que les modèlesexistants dans la littérature y a été inclus. Quelquesperfectionnements ont aussi été réalisés sur le schémad'intégration numérique, de façon à rendre la simulation plusperformante. Néanmoins l'étude de stabilité et de précisionn'est pas encore terminée.Fondée sur une expérience similaire pour la clarinette, uneexpérience de mesure de la caractéristique de l'anche double aété mise en oeuvre. Il s'agit de mesurer en régime statiquesimultanément la différence de pression entre la bouche etl'anche et le débit d'air qui s'écoule à l’intérieur. Celui-ciest déduit de la chute de pression due au passage de l'air parun diaphragme calibré. Simultanément, on a utilisé la méthoded'analyse d'images développée en 2002 pour mesurer la raideurde l'anche en l’absence d'écoulement, ce qui fournit unparamètre important pour le modèle numérique. Des conclusionsimportantes sur la déviation de l'anche réelle par rapport àce modèle statique d'anche ont aussi été obtenues, enparticulier sur les effets de visco-élasticité de l'anche[Almeida04a], [A lmeida04b], [Vergez02c].Responsable : X. RodetParticipants : A. Almeida (thèse)Collaboration interne : équipe Acoustique Instrumentale (R.Caussé), Atelier mécanique (A. Terrier)Collaborations extérieures : Laboratoire de Mécanique etAcoustique, CNRS - Marseille (C Vergez, Laboratoired'Acoustique de l'Université du Maine (J. Gilbert et J.-P.Dalmont) Laboratoire d'Acoustique Musicale, Paris (B. Fabre)3.4.2 Inversion et estimation de paramètresA partir d'un enregistrement d'un instrument, il s'agitd'estimer les paramètres de jeu d'un modèle, afin que laproduction du modèle soit la plus proche possible del’enregistrement. Pour cela, une large base de données desdifférentes productions du modèle est constituée, pour servirà la technique dite d'apprentissage par table. La méthode aété appliquée à un modèle de trompette sur lequel descontraintes physiques ont été imposées pour résoudre leproblème des solutions multiples. Ce travail de thèse a étépoursuivi pendant l'année <strong>2003</strong> dans différentes directions :- 98 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONS- Etude de critères de similarité entre sons, tenant compte deleur type (transitoire, stable, ...) ;- Amélioration des descripteurs acoustiques.Enfin un algorithme d’analyse sinusoidale très optimisé a étédéveloppé. Les méthodes qui estiment N sinusoides l’une aprèsl’autre ont une complexité en O(N log(N)). Ceux qui estimentles amplitudes globalement sont en principe davantage capablesde résoudre les sinusoides de fréquences très proches mais ontune complexité qui croit comme le cube de N. Le nouvelalgorithme utilise une fenêtre à bande étroite en fréquence,ce qui limite les calculs à cette région. Le calcul s’effectuedonc sur une matrice bande-diagonale et la complexité estréduite en conséquence à O(N log(N)) [Dhaes03a], [Dhaes03b],[Dhaes03c].Responsable : X. RodetParticipant : W. D’Haes (thèse)Collaboration extérieure : D. Van Dyck (Université d'Anvers)3.5 DéveloppementsLes méthodes d’analyse-synthèse élaborées dans l’équipe sontprogressivement portées dans des logiciels mis à ladisposition des utilisateurs, en interne puis dans le Forum del’<strong>Ircam</strong>. L’un de ces outils est le vocodeur de phase Super VP,développé simultanément pour Unix et Macintosh. L’autre outilprincipal, dont Super VP est le moteur de traitement, est uneinterface graphique interactive pour la plate-forme Macintoshet nommé AudioSculpt. Le développement de la version 2d’AudioSculpt est poursuivi en particulier sur le nouveausystème MacOSX d’Apple.3.5.1 Logiciel SuperVPLe développement du logiciel SuperVP a été très poussé dans laligne du développement du logiciel AudioSculpt. Les travauxont été concentrés sur :- L'implémentation de l'algorithme de détection etpréservation des transitoires ;- La sortie des résultats de l'analyse en SDIF (spectre,marque transitoire, F0) ;- L'amélioration des traitements des fichiers multicanaux ;- La sortie des résultats en temps réel sur la carte son ;- Le développement d'un algorithme pour le débruitage ;- Le traitement « en place » (en mémoire disque) ;- L'amélioration des traitements dans le domaine temporel ;- La ré-implémentation de la lecture des sons.Responsable : A. RoebelCollaboration interne : N. BogaardsCollaboration extérieure : A. Lithaud (béta testeur)3.5.2 Logiciel AudioSculptUn nouveau développement a commencé à la fin de l’année <strong>2003</strong>dans le but d’obtenir en fin 2004 une version considérée commefinalisée. Les principaux travaux en <strong>2003</strong> ont porté sur :- Mise du logiciel et de ses librairies sous CVS ;- Mise à jour de l'environnement de développement ;- Correction de l'affichage du son et sonagramme ;- 99 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONS- Correction de l’écoute des sons ;- L'affichage des sons stéréos.Responsable : X. RodetParticipant : N. BogaardsCollaboration interne : A. RoebelCollaboration extérieure : A. Lithaud (béta testeur)3.5.3 Logiciel Diphone StudioLe logiciel Diphone Studio a été porté sous MacOSX par N.Ellis. Par la même occasion, le plugin Psola développé par D.Tardieu dans le moteur de calcul, a été porté dans l’interfacegraphique et quelques "bugs" ont été corrigés. N. Ellis aaussi traduit de Matlab en en C++ l’algorithme de synthèsePsola de D. Tardieu [Tardieu03a].Responsable : X. RodetParticipant : N. EllisCollaborations internes : N. Bogaards, D. Tardieu (stage)3.5.4 Autres DéveloppementsEasdif : Première mise à disposition de la bibliothèque souslicence libre sur le site Web de l’<strong>Ircam</strong>.Psola Analyse: implémentation de l'algorithme développépendant la thèse de G. Peeters fondé sur la bibliothèqueMatMTL, première mise à disposition au Forum du printemps<strong>2003</strong>.MatMTL : ajout de fonctionnalités comme vecteur booléen,fonctions FFT et LPC compatibles avec Matlab, etc.ReadSnd : nouvelle bibliothèque pour la lecture des fichiersson.Maintenance : des logiciels Pm, Pm2, additive, xspect, etc.Responsable : A. RoebelParticipants : A. Roebel, J. EscribeCollaborations internes : D. Schwarz (équipe Applicationstemps réel), P. Tisserand (équipe Logiciels libres etingénierie logicielle)Librairies LibCUIDADOextraction et LibCUIDADOclassificationResponsable : G. PeetersParticipants : G. Peeters, N. Sursock (stage)Collaborations internes : D. Schwarz (équipe Applicationstemps réel), P. Tisserand (équipe Logiciels libres etingénierie logicielle)3.6 Publications et communicationsArticles parus dans des revues à comité de lecture[Herrera03b] Herrera, P., Peeters, G., Dubnov, S., « AutomaticClassification of Musical Instrument Sounds », Journal of New MusicalResearch, Mars <strong>2003</strong>, vol. 32, n° 1, pp. 3-21Actes de congrès avec comité de lecture[Dhaes03a] D'haes, W., Rodet, X., « ADAPTIVE SINUSOIDAL OVERLAP ADDMODELING FOR SOUND ANALYSIS, SYNTHESIS AND EFFECTS IN THE TIME DOMAIN », 6th International Conference on Digital Audio Effects (DAFx-03), <strong>2003</strong>[Dhaes03b] D'haes, W., Rodet, X., « Discrete Cepstrum Coefficients asPerceptual Features », International Computer Music Conference (ICMC),Singapore, <strong>2003</strong>[Dhaes03c] D'haes, W., « A HIGHLY OPTIMIZED METHOD FOR COMPUTING AMPLITUDESOVER A WINDOWED SHORT TIME SIGNAL : FROM O ( K 2 N ) TO O ( N log( N )) »,IEEE Signal Processing Symposium (SPS), <strong>2003</strong>- 100 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONS[Girin03a] Girin, L., Marchand, S., di Martino, J., Roebel, A., Peeters,G., « Comparing the order of a polynomial phase model for the synthesis ofquasi harmonic audio signals », IEEE Workshop on Applications of SignalProcessing to Audio and Acoustics (WASPAA), New Paltz, <strong>2003</strong>[Gribonval03a] Gribonval, R., Benaroya, L., Vincent, E., Févotte, C., «Proposals for performance measurement in source separation », 4thSymposium on Independent Component Analysis and Blind Source Separation(ICA <strong>2003</strong>), Nara, <strong>2003</strong>, pp. 763-768[Livshin03a] Livshin, A., Rodex, X., « The Importance of Cross DatabaseEvaluation in Sound Classification », ISMIR <strong>2003</strong>, Baltimore, <strong>2003</strong>[Livshin03b] Livshin, A., Peeters, G., Rodet, X., « Studies andImprovements in Automatic Classification of Musical Sound Samples », ICMC<strong>2003</strong>, Singapour, <strong>2003</strong>[Peeters03a] Peeters, G., Rodet, X., « Deriving Musical Structures fromSignal Analysis for Audio Summary Generation: "Sequence" and "State"approach », CMMR, Montpellier, <strong>2003</strong>[Peeters03b] Peeters, G., « Automatic Classification of Large MusicalInstrument Databases Using Hierachical Classifiers with Inertia RatioMaximization », AES 115th Convention, New-York, <strong>2003</strong>[Peeters03c] Peeters, G., Rodet, X., « Hierarchical Gaussian Tree withInertia Ratio Maximization for the Classification of Large MusicalInstrument Databases », DAFX, London, <strong>2003</strong>[Peeters03d] Peeters, G., Rodet, X., « Music Structure Discovering UsingDynamic Features for Audio Summary Generation: "Sequence" and "State"approach », CBMI (Content Based Multimedia Indexing), vol. 1, Rennes, <strong>2003</strong>,pp. 207-214[Peeters03e] Peeters, G., Rodet, X., « Signal-based Music StructureDiscovery for Audio Summary Generation », ICMC (International ComputerMusic Conference), Singapore, <strong>2003</strong>[Roebel03a] Roebel, A., « A new approach to transient processing in thephase vocoder », 6th International Conference on Digital Audio Effects(DAFx), London, <strong>2003</strong>, pp. 344-349[Roebel03b] Roebel, A., « Transient detection and preservation in the phasevocoder », International Computer Music Conference (ICMC), Singapore,<strong>2003</strong>, pp. 247-250[Schwarz03a] Schwarz, D., « The Caterpillar System for Data-DrivenConcatenative Sound Synthesis », Digital Audio Effects (DAFx), London,<strong>2003</strong>, pp. 135-140[Schwarz03b] Schwarz, D., « New Developments in Data-Driven ConcatenativeSound Synthesis », International Computer Music Conference (ICMC),Singapore, <strong>2003</strong>, pp. 443-446[Soulez03a] Soulez, F., Rodet, X., Schwarz, D., « Improving Polyphonic andPoly-Instrumental Music to Score Alignment », International Symposium onMusic Information Retrieval (ISMIR), Baltimore, <strong>2003</strong>[Vincent03a] Vincent, E., Févotte, C., Gribonval, R., Rodet, X., Röbel, A.,« A tentative typology of audio source separation tasks », 4th Symposiumon Independent Component Analysis and Blind Source Separation (ICA <strong>2003</strong>),Nara, <strong>2003</strong>, pp. 715-720[Vincent03b] Vincent, E., Févotte, C., Gribonval, R., « Comment évaluer lesalgorithmes de séparation de sources audio ? », 19th GRETSI Symposium onSignal and Image Processing (GRETSI <strong>2003</strong>), special session on Applicationsin Source Separation, Paris, <strong>2003</strong>Travaux universitaires[Denis03a] Denis, G., « Transformation de l'identité d'une voix »,Université Paris-6, <strong>2003</strong>[Durigon03a] Durigon, S., « Détection automatique du tempo et desévènements percussifs dans les signaux polyphoniques », Ecole Françaised'Electronique et d'Informatique, <strong>2003</strong>[Karki03a] Karki, O., « "Système Talkapillar" », Ecole Françaised'Electronique et d'Informatique, <strong>2003</strong>[Krauledat03a] Krauledat, M., « Fundamental Frequency Estimation »,université "Westfälische Wilhelmsuniversität Münster", <strong>2003</strong>[Schwarz04a] Schwarz Diemo, Data-Driven Concatenative Sound Synthesis.Thèse enInformatique. Paris : Université Paris 6 - Pierre et Marie Curie,2004.[Soulez03b] Soulez, F., « Alignement automatique de partitions », EcoleChimie, Physique, Electronique Lyon, <strong>2003</strong>[Sursock03a] Sursock, N., « Extraction de Descripteurs et Classificationdes Sons », EFREI, <strong>2003</strong>. [Ingénieur 3em année]- 101 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANALYSE ET SYNTHESE DES SONS[Tardieu03a] Tardieu, D., « Synthèse par concaténation de segments Psoladans Diphone Studio », EPFL, <strong>2003</strong>. [Ingénieur][Yeh03a] Yeh, C., « Multiple fundamental frequency estimation », UniversitéParis-6, <strong>2003</strong>Rapports de recherche[Zivanovic03a] Zivanovic, M., Roebel, A., Rodet, X., « A NEW APPROACH TOSPECTRAL PEAK CLASSIFICATION », IRCAM, <strong>2003</strong>Conférences invitéesX. Rodet : Conférence à la semaine du son, "Synthèse vocale", Janvier <strong>2003</strong>X. Rodet : Conférence au SATS, "Transformation de la Voix", Octobre <strong>2003</strong>X. Rodet : Conférence au journées Danse et nouvelles technologies,"Traitement de la Voix", Octobre <strong>2003</strong>Diffusion de connaissancesA. Almeida : Participation à l'article (Modélisation: Des instrumentsgénétiquement modifiés, Christophe Blanc) dans Sciences et Avenir,Septembre <strong>2003</strong>Colloques et séminairesA. Almeida : Organization des Journées Jeunes Chercheurs en AcoustiqueMusicale, Audition et Signal Audio (JJCAAS) à l'Ecole Nationale Supérieuredes Télécomunications à Paris.A. Almeida : Co-organisation de JJCAAS'03 (Paris, octobre <strong>2003</strong>)Jurys de thèsesX. Rodet : Président du jury de thèse de J. Rozier, ENST (Décembre)X. Rodet : Membre du jury de thèse de P. Hanna, LABRI, Bordeaux (Décembre)Emissions radiophoniques et télévisées, entretiensjournalistiques, animationsX. Rodet : Interview pour lejournal Le Point (Février)X. Rodet : Interview avec Didier Péron, du journal Libération pour Tiresiaet autres films (Octobre)- 102 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALES4 REPRESENTATIONS MUSICALESResponsable : Gérard AssayagL'équipe Représentations musicales est spécialisée dansl’étude des représentations symboliques de structuresmusicales et leurs applications en composition assistée parordinateur (CAO) et en musicologie computationnelle (théorieset analyse musicales à support informatique). Ce travail sefonde notamment sur une activité de recherche et dedéveloppement dans le domaine des langages et paradigmesinformatiques adaptés à la musique.La réflexion sur les représentations de haut niveau desconcepts et structures musicales, appuyée sur les langagesinformatiques originaux développés par l’équipe débouche surl’implémentation de modèles généraux, de prototypes, delogiciels qui peuvent se tourner vers la création comme versl’analyse.Cet exercice est marqué par l’arrivée à terme de plusieursthèses dans l’équipe : thèse de Charlotte Truchet sur larecherche adaptative, thèse de Benoît Meudic et OlivierLartillot sur l’analyse automatique de partitions, thèse deMoreno Andreatta sur les structures algébriques. Cetteconjonction favorable a élevé le nombre et le niveau despublications et permis de préciser, le travail de rédactionforçant un peu à circonscrire sinon à conclure, plusieursthématiques importantes relevant soit de la musicologiecomputationnelle soit de la composition assistée parordinateur. Nous balisons ainsi ces champs interdisciplinairesrelativement nouveaux et nous contribuons de manièresignificative à leur définition même par la création dedocuments de référence.4.1 Musicologie computationnelle et analyse musicale4.1.1 Mathématiques et Musique : Approche algébriquedes théories musicalesPendant l’année <strong>2003</strong>, Moreno Andreatta a poursuivi sa thèse enmusicologie computationnelle (EHESS/<strong>Ircam</strong>) intitulée« Méthodes algébriques dans la musique et la musicologie du XX esiècle : aspects théoriques, analytiques et compositionnels »,qui a été soutenue le 12 décembre <strong>2003</strong>. Le domaine des liensentre mathématiques et musique y est traité en développant untriple point de vue sur la musique et la musicologie du XX esiècle.Un premier aspect concerne la recherche théorique sur lesfondements algébriques de certaines structures musicales. Aucours de l'année <strong>2003</strong>, M. Andreatta a poursuivi lacollaboration avec des mathématiciens, tels qu'Emmanuel Amiot(autour de la notion de pavage en musique), HaraldFripertinger (sur l'énumération des canons rythmiques à l'aidede la combinatoire algébrique), Thomas Noll (généralisation dumodèle de canon rythmique dans le cas de groupes différents dugroupe cyclique, par exemple le groupe affine Affn et legroupe symétrique Sn), Guerino Mazzola (pour la réécriture dela théorie de Vuza et de la Set-Theory dans le cadre de sathéorie mathématique de la musique), Franck Jedrzejewski (pour- 103 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALESle modèle algébrique des gammes microintervalliques). M.Andreatta a résumé ses propres contributions à l’approchealgébrique des théories musicales [Andreatta03b].Deuxièmement, la thèse développe une réflexion sur lesapplications analytiques des théories algébriques, avec unegénéralisation de la Set Theory américaine dans toute divisionbien tempérée de l'octave. Au cours du <strong>2003</strong> on a poursuivicette approche en implémentant la librairie « OMGroups » enOpenMusic. Ce travail, qui a été mené en collaboration avecCarlos Agon et Killian Sprotte, constitue une premièreprésentation cohérente des librairies déjà existante (Zn etDn) aux quelles on a ajouté quelques éléments de la théoriedes groupes affines (Affn) et de groupes symétriques (Sn). Cetravail a culminé dans le colloque international ‘Autour de laSet Theory’ (<strong>Ircam</strong>, Résonances, 15-16 Octobre <strong>2003</strong>) dontMoreno Andreatta a conçu le programme et coordonnél’organisation.Le troisième axe de recherche concerne l'applicationcompositionnelle des théories algébriques. En <strong>2003</strong> M.Andreatta a poursuivi l'implémentation en OpenMusic decertaines techniques proposées par les trois compositeurs surlesquels il a centré son travail de thèse, i.e. Anatol Vieru,Iannis Xenakis et Milton Babbitt. La thèse a mis en évidenceplusieurs points de contact entre la théorie modale d’AnatolVieru (en particulier la théorie des suites périodiques et descanons rythmiques de pavage), les techniques algébriques deIannis Xenakis (en particulier les processus de Fibonaccigénéralisés à valeurs dans des groupes, utilisés par lecompositeur dans la pièce Nomos Alpha) et le sérialismegénéralisé de Milton Babbitt (en particulier l’isomorphismeentre domaine des hauteurs et domaine rythmique). Dans lepremier cas, l’implémentation des techniques modales, enparticulier de la théorie des canons rythmiques de pavage, aété menée en collaboration avec le compositeur Georges Bloch.Ce travail a été présenté, entre autres, à l’occasion de laJournée Outils d’Analyse (Festival Résonances, Centre Georges-Pompidou, 16 octobre <strong>2003</strong>).Participants : M. Andreatta (thèse), G. Assayag, C. AgonCollaborations extérieures : G. Bloch (compositeur), K.Sprotte (compositeur et informaticien), G. Mazzola (U.Zurich), T. Noll (T.U. Berlin), E. Amiot (mathématicien), M.Chemillier (U. Caen), F. Jedrzejewski (mathématicien,chercheur au CEA)4.1.2 Extraction automatique des similarités et despériodicités dans les partitions musicalesCe travail de thèse de Benoît Meudic a pour objet la recherchede structures dans la musique polyphonique. Il intervientdans le cadre du projet européen Cuidado.Dans un premier temps, la recherche s’est focalisée surl’extraction de structures rythmiques à partir de fichiersMIDI non quantifiés et sujets à des variations de tempo.Dans un deuxième temps, le travail s'est orienté sur l'analysedes similarités au sein d'une oeuvre ou d'un corpus musical.Pour cela, un algorithme de mesure de similarité polyphonique,combinant différents critères (contours mélodiques,intervalles de hauteurs, rythmes) a été mis au point.- 104 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALESDifférents outils de représentation ont alors été pensés, cequi a conduit à la création de la nouvelle librairie MusicMap0.1 d'OpenMusic.La représentation principale des résultats de l'analyse desrépétitions se fait par une matrice de similarité qui contientles différentes valeurs de similarité entre toutes les pairespossibles de sous-séquences contenues dans le morceau étudié.Un système de couleur permet de visualiser globalement lessimilarités sur toute la pièce, soit pour chaque point de vue(rythme, contour, ou intervalles mélodiques) soit pour unecombinaison donnée des points de vue.A partir de cette matrice, il est possible de visualiserdifférents types de répétitions par l'observation desdifférentes diagonales de même couleur. Certains motifspeuvent alors être extraits, soit parce qu'ils répondent à descaractéristiques de taille (motifs les plus longs ou les pluscourts), soit par leurs caractéristiques de fréquenced'occurence (motifs les plus souvent répétés).Il est aussi possible de comparer des séquences appartenant àdes morceaux différents, et ainsi d'établir des liens entredifférentes musiques. Cette opération, contrairement à laprécédente qui nécessite par le nombre élevé de comparaison untemps de calcul assez long, ne requiert pas l'extractionpréalable de la pulsation, et permet la détection desimilarités entre séquences de tailles différentes.Cette librairie devrait permettre un nouveau typed'exploration du repertoire musical, impossible jusque-là àréaliser du fait du grand nombre d'opérations requises poureffectuer les recherches de similarité, ce qui rendrait untravail manuel trop fastidieux pour être envisagé ne serait-ceque sur une seule oeuvre.Il est prévu une docmentation et une distribution dans lecadre du Forum.Participants : B. Meudic (thèse), G. AssayagCollaborations extérieures : E. Saint-James (Lip6, UniversitéParis 6)4.1.3 Automatiser l’analyse motivique à l’aided’heuristiques perceptivesL’Internet fourmille de ressources musicales, représentées engénéral sous forme sonore, mais également, de manière plusabstraite, en une description textuelle d’événements musicauxsuivant le format standardisé MIDI qui préfigure un standardde partition numérique. Une nouvelle discipline dédiée à larecherche d’information musicale, ou Music InformationRetrieval, œuvre à une meilleure organisation de la gestiondes réseaux d’informations, une navigation à travers lescontenus, une indexation et des outils de moteurs derecherche. Une des tâches les plus élémentaires que l’onattend d’un système d’analyse musicale automatique consiste enla découverte des motifs musicaux répétés. La musique est eneffet régie suivant le principe de répétition : l'expressionmusicale procède par une reproduction de schémas, tandis quel'écoute consiste en une reconnaissance de ces schémas. C'estun des objectifs principaux de la musicologie que dedéterminer les schémas caractéristiques de styles musicauxsous forme de théories musicales, ainsi que de mettre en- 105 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALESévidence leur présence au sein de chaque œuvre, parl'intermédiaire de l'analyse musicale.La thèse d’Olivier Lartillot a permis de mettre en évidence, àtravers une investigation dans les domaines musicologique,linguistique, cognitif et épistémologique, l’idée d’unnécessaire conditionnement de l’analyse automatique par desheuristiques perceptives, sous la forme d’une systématisationdes mécanismes d’écoute musicale. Une systématisation del'analyse musicale offre deux avantages. D'une part, là où uneentreprise humaine laisse une large part aux intuitionsimplicites de l'analyste, l'explicitation des procédures misesen œuvre --- aussi restreintes soient-elles --- assure uneobjectivité des résultats obtenus. D'autre part, une mise enœuvre informatique rend possible une automatisation de ladémarche, et ouvre l'accès à un niveau supérieur de détail,tendant vers une certaine exhaustivité. En opposition àl'approche structuraliste, envisagée en particulier parNicolas Ruwet, et qui suppose l'existence d'une structureimmanente et considère la procédure de découverte de cettestructure comme secondaire, il est soutenu que l'œuvremusicale ne peut être saisie, de manière générale, que suivantla démarche de l'écoute. C'est alors la dimension invariantede l'écoute, responsable de l'illusion de la structureimmanente, qui rend possible cette systématisation.Les conclusions de cette étude ont nourri la conceptionparallèle d’un système d’analyse motivique automatique.L'approche proposée envisage l'écoute sous la forme d'unemémorisation progressive. L'analyse consiste en uneréactivation, suivant deux modes d'accès, des éléments de lamémoire : l'accès syntagmatique rend compte de l'articulationdu discours musical sous la forme d'une succession derelations entre notes successives, alors que l'accèsassociatif réactive les éléments partageant une même identitédéfinie suivant certains paramètres. Le motif musical, c'està-direla répétition séquentielle, résulte alors del'articulation de ces deux modes d'accès : chaque extensionsuccessive d'un motif résulte d'une mise en rapport associatifdes extensions syntagmatiques. Une telle modélisation du motifmusical est optimisée en temps, car le rapport associatif, quiprend la forme d'une table de hachage, dispense de toutparcours de la mémoire. De plus, grâce à une tellemodélisation du motif musical, chaque extension successived'un motif peut être définie suivant une dimension musicalepropre.Sur la séquence de notes se construit ainsi un réseau demotifs, subsumés à des classes motiviques, lesquelles formentune structure arborescente. Au sein de ces deux réseauxpeuvent être tissées des relations de spécificité, rendantcompte en particulier des inclusions entre motifs. Ces graphesde spécificité permettent de plus une minimisation des deuxréseaux, par annihilation des structures directementdéductibles d'autres structures plus détaillées. Cetteminimisation assure une optimisation en espace, tout enrendant compte d'une orientation naturelle de la mémoire versle plus spécifique. Elle permet en outre de remplacer lanotion de segmentation musicale au profit du concept degroupement optimal superposable. Enfin, la combinatoire quepeut provoquer la répétition successive de classes motiviques- 106 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALESest maîtrisée à l'aide d'un mécanisme de rebouclage desclasses.L'implémentation de l’algorithme présenté ci-dessus a étéengagée en 2002 et poursuivie en <strong>2003</strong> sous la forme d’unelibrairie d’OpenMusic appelée OMkanthus. Les résultats actuelsmontrent l’intérêt d’un tel outil d’analyse automatique maiségalement du modèle de compréhension musicale qui le fonde.Les capacités combinatoires offrent à la fois une échelle dedétail extrêmement fine, et une investigation de longuehaleine sur une longue séquence. Une telle analyse,contrairement à la démarche intuitive humaine, peut ainsi êtremenée de manière exhaustive. D'autre part, le faible temps decalcul de ces analyses permet d'envisager une application dansle cadre de bases de données musicales. Cet outil informatiquesuggère ainsi la possibilité d'une explicitation et d'unesystématisation de l'analyse musicale, ainsi que d'unemodélisation de certains principes mis en jeu lors de l'écoutemusicale.Participants : O. Lartillot (thèse), G. AssayagCollaborations extérieures : E. Saint-James (Lip6, UniversitéParis 6)4.1.4 Etude du rythme formel, composition de la formedans le tempsDans la musicologie classique, on utilise couramment deschaînes de symboles pour décrire la séquence des divisionsformelles dans une oeuvre (par exemple, un rondo est décritcomme la séquence ABACADA). Cette recherche reprend cetteapproche à son compte et tente d'exploiter le concept deséquence de symboles pour montrer comment l'information, àpartir du niveau des notes individuelles, peut être regroupéeen niveaux successifs jusqu'à révèler la structure générale del'oeuvre.Cette première période, commencée en septembre <strong>2003</strong>, a permisde concevoir et d'implémenter dans le langage Lisp une sériede concepts nouveaux, en particulier celui de Time IntervalObject (TIOS). Cette construction permet d'encapsuler uneinformation multiple (hauteurs, rythme) dans un seul symbole,le critère principal étant la considération des intervalles detemps reliant diverses formations similaires dans lapartition. Ce concept débouche sur une notation symbolique quipeut être manipulée pour révèler les similarités à différentsniveaux d'intégration, voire pour opérer des transformationscompositionnelles. Des techniques connues en théorie deslangages formels, comme la réécriture, sont alors utiliséespour la description comme pour la transformation.Participant : Patricio da Silva (chercheur invité)4.2 Recherche adaptative et Composition Assistée parOrdinateurCe sujet est traité par Charlotte Truchet dans le cadre de sathèse. La Programmation par Contraintes (PLC) est un paradigmede programmation, qui connaît depuis quelques années un succèscertain. Une ''contrainte'' est tout simplement une relationlogique portant sur un ensemble de variables (inconnues d'unproblème, variant dans un domaine précis). Une contraintedonne une information partielle sur les valeurs que les- 107 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALESvariables peuvent prendre, ''contraignant'' ainsi cet espacede valeurs : l'ensemble variables, domaines, contraintes formeun CSP, Constraint Satisfaction Problem. L'idée de base de laprogrammation par contraintes est d'intégrer le concept decontrainte dans un langage de programmation de haut-niveaupour pouvoir programmer avec cette notion d'informationpartielle. Une fois le CSP écrit dans un langage précis, ilest passé à un solver qui se charge de trouver des valeurssatisfaisant les contraintes.La PLC trouve naturellement une place en musique, comme lemontrent les nombreux travaux sur l'harmonisation automatique.En musique contemporaine, une phase de consultation decompositeurs liés à l'<strong>Ircam</strong> a permis de constater le nombre etla diversité des CSPs musicaux. Au total, quatorze CSPs ontété étudiés et résolus, en composition et en analyse musicale,grâce à des collaborations avec des compositeurs et avec MarcChemillier pour l’analyse. Cette phase a notamment permisd'établir une sorte de cahier des charges pour la conceptiond'un système de résolution de contraintes adapté à la musique.Pour l'analyse, trois problèmes sont issus de travaux de MarcChemillier. Un projet en cours concerne la guitare. A partird'une suite de chiffrage d'accords, il s'agit de trouverautomatiquement une réalisation des accords et des doigtéspour la guitare. Les contraintes sont ici physiologiques,elles servent à caractériser les accords jouables opur leguitariste.Pour toutes ces applications, la méthode la mieux adaptée estune méthode innovante appelée recherche adaptative. Cetalgorithme, dû à Philippe Codognet, appartient à la familledes algorithmes de recherche locale, qui ont récemmentlargement prouvé leur efficacité sur des CSPs classiques. Ilcorrespond particulièrement bien au cahier des chargesmusicales pour de nombreuses raisons, notamment la possibilitéd’exploiter le processus de résolution " en cours de route "pour fournir des solutions approchées au problème.La recherche adaptative a été intégrée dans OpenMusic sous laforme d'une librairie nommée OMClouds. Elle permet de définirles contraintes visuellement dans un patch. Pour résoudre leproblème, les contraintes sont d'abord automatiquementtraduites en fonctions d'erreur, qui mesurent à quel point lacontrainte est violée. Le solver tente de trouver une solutionen minimisant les erreurs. Cela permet de traiternaturellement les problèmes sans solutions, et plusgénéralement de donner facilement des solutions approchées auproblème. Ces solutions approchées peuvent être éditéesvisuellement dans un objet OM et sont actualisées constammentau cours de la résolution.Plusieurs pièces musicales ont été réalisées avec les outilsdéveloppés dans ce projet :1. Empreinte sonore de la fondation Bayeler de Georges Bloch,une pièce in situ articulée à la visite de l’expositionAbstraction/Ornement dans cette fondation à Bâle ;2. Coïncidences pour orchestre de Fabien Lévy (BillaudotEditeur) ;3. Aschenblume pour ensemble de Mauro Lanza ;4. Burger Time pour tuba et électronique de Mauro Lanza ;5. Droben pour contrebasse, ensemble et électronique deMichael Jarrell, assistant Gilbert Nouno.Participants : C. Truchet (thèse), G. Assayag- 108 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALESCollaboration interne : G. NounoCollaborations extérieures : P. Codognet (LIP6, UPMC), M.Chemillier (Université de Caen), G. Bloch, F. Lévy, M. Lanza,M. Jarrel (compositeurs)4.3 Apprentissage du style, improvisation, rapportsd’échelles temporelles4.3.1 Apprentissage de séquences musicales,applications à l'improvisationL’équipe Représentations musicales explore depuis quelquestemps le terrain de la modélisation et la simulation du stylepar apprentissage statistique (statistical learning) enutilisant une technique dite « contexte-inférence » ou« contexte-continuation ». Ce travail a donné lieu à descollaborations artistiques (deux concerts de l’OrchestreNational de Jazz) et sa publication a inspiré desréalisations dans d'autres centres. Une caractéristiqueoriginale de cette recherche par rapport à l'état de l'art estnotamment la prise en compte de la polyphonie.Cette première période de recherche a permis cependant demesurer les limitations du modèle et permet d’aborderaujourd’hui la problématique d’une manière plus large.Tout d’abord, les techniques inspirées de la théorie del’information et de la compression de données, utilisées enpremier lieu, sont limitées par la manière dont ellesconstituent les contextes (motifs caractéristiques) qui, defait, sont incomplets et peu significatifs d’un point de vuemusical. Ensuite, le manque de hiérarchisation entre lesniveaux du discours musical entraîne une trop grande localitédes résultats (enchaînements localement convaincants, manquede logique harmonique d’ensemble, par exemple).On a alors privélégié les techniques d’extractions de motifscomplètes. Cette option avait été laissée de côté initialementà cause de son coût, étant entendu qu’une possibilité depasser au temps-réel doit toujours être réservée pourpermettre les applications en concert. De nouvelles pistesalgorithmiques, issues notamment des recherches sur le génome,laissent à penser que l’on peut encoder de manièreincrémentale (donc compatible avec l’approche causalecaractéristique de la performance temps-réel) toute laredondance motivique d’une séquence (de gènes ou de notes).Cet encodage a permis la réutilisation du modèle contexteinférencesur des données mieux structurées. On a cherchéd’autre part à opérer une classification automatique deséléments musicaux analysés (par exemple classification desaccords) de manière à réduire le lexique, en utilisantdiverses méthodes (par exemple classification tonale,classification par textures d’intervalles). Enfin l’aspecthiérarchique a été abordé en remplaçant les léxèmes musicauxclassiques par des complexes combinant différents points devue (hauteurs, rythme, dynamique). Cet aspect a été explorénotamment par Nicolas Durand dans le cadre de son stage de DEAAtiam. Une difficulté rencontrée, et seulement partiellementrésolue, a été de « recoller » dans un tout cohérent lesdifférents points de vues, lors de la phase de génération. Ilest alors difficile de respecter la cohérence métrique et- 109 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALESharmonique, un modèle plus sophistiqué doit donc êtreenvisagé.Nous avons aussi expérimenté une architecture élémentaire pourintroduire le temps réel sous la forme d’une coopération entreOpenMusic et Max. Une expérience d’improvisation interactive aété ainsi montée, qui incorpore le système de générationharmonique à partir des grammaires de Steedman proposé parMarc Chemillier. Dans cette architecture, Max gère lacaptation du jeu instrumental en temps-réel et le séquencementdes improvisations virtuelles renvoyées par OpenMusic.OpenMusic gère l’apprentissage des séquences jouées par lemusicien, le déploiement des grammaires de Steedman pour lagénération de variantes harmoniques, la générationd’improvisations calées sur le plan métrique et harmonique. Unprotocole de communication bas niveau (Midi) permet desynchroniser les deux applications.Une illusion de temps réel est donnée, mais le graind’interaction est en réalité de la taille de la grilleharmonique, ce qui n’est pas encore satisfaisant.Dans le cadre de cette architecture, on parle alorsd’interaction entre échelles temporelles, puisque chaqueapplication a sa propre visée temporelle, court terme pourMax, long terme pour OpenMusic. On peut alors imaginer desapplications plus générales, dans lesquelles les stratégieslon terme sont confiées à OpenMusic et la gestion del’interaction est confiée à Max.Dans un tel contexte interactif, les algorithmes d’extractionde la pulsation dans une interprétation live, expérimentés pasGilbert Nouno, revêtent une grande importance, car ilsfournissent la base métrique par rapport à laquelle serontcalés et l’apprentissage et la génération.Participants : G. Assayag, M. Chemillier, N. Durand (stage),G. Nouno (thèse)Collaboration interne : équipe Applications temps-réelCollaborations extérieures : J.-R. Guédon, B. Lubat(musiciens)4.3.2 Suivi de tempo en temps réel appliqué au jazz etaux musiques improviséesCe projet de thèse de Gibert Nouno vise à déterminer desméthodes pour extraire le tempo en temps réel à partir dusignal complexe produit par des musiciens, notamment ensituation d'improvisation. L'algorithme d'estimation de tempode Simon Dixon a été testé et évalué. Les informationstraitées sont les inter-onset, c'est à dire les délais entreles évènements saillants extraits du signal. Il s'agitd'appréhender l'induction rythmique à partir des impulsionsreçues : on crée pour cela des classes d'onsets définiessuivant des fenêtres temporelles variables qui collectent lesimpulsions. Le problème de cet algorithme est dans larésolution particulière d'une équation aux minimums. Onenvisage soit une résolution par contrainte, soit uneapproximation numérique mettant en œuvre une fonction moduloréelle. On modifie l'algorithme en introduisant également undithering sur le signal des impulsions rythmique pour traiterde manière adaptative la nouvelle recherche de tempo (i.e. unbruit aléatoire ajouté permet de recalculer une estimation du- 110 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALEStempo et d'évaluer dans quel sens adapter la fonction bruitéepour obtenir un meilleur résultat). Les expériences ont étémenées en Matlab et MaxMSP. Parallèlement, des discussions ontété menées avec plusieurs musiciens de Jazz sur leurperception du tempo et du swing, de la stabilité du tempo etdes modulations métriques (Ricardo del Fra, Magic Malik, SteveColeman entre autres). Les discussions ont notamment porté surla vitesse d'adaptation à un changement de tempo brusque, dansle cas ou on sait que ce changement de tempo va arriver etdans le cas ou on l'ignore. Le but de ces rencontres estd'accumuler des connaissances expertes qui permettront deparamètrer finement les algorithmes expérimentés, voire desuggérer de nouvelles pistes de recherche.Participant : Gibert Nouno (thèse)Collaborations extérieures : Philippe Codognet, Lip6,Université Paris 64.4 Développements4.4.1 SDIF-Edit : Représentation et manipulation dedonnées d'analyse sonore pour la compositionmusicale.Ce travail s'inscrit dans le cadre du projet OMChroma, etporte sur l'intégration des fichiers SDIF (Sound DescriptionInterchange Format) dans l'environnement OpenMusic et sur leurutilisation dans d'autres contextes d'analyse.Le format SDIF, développé conjointement par l'<strong>Ircam</strong> et leCNMAT, est un format générique, ouvert, et multi plateformes,pour le stockage et l'échange de données de descriptionsonore. De telles données proviennent principalement deprogrammes d'analyse ou de traitement du son, développés àl'<strong>Ircam</strong> ou ailleurs. C'est par exemple le cas de Diphone, quiproduit au format SDIF les résultats d'analyse par modèles derésonance (ResAn), ou additive (AddAn). Il pourra égalements'agir d'enveloppes spectrales, de FOF (formes d'ondesformantiques), ou de tous autres types de données.Le logiciel OpenMusic permet de manipuler les fichiers SDIF.L'idée était de réaliser un éditeur correspondant à cetteclasse objet, au même titre que les éditeurs existant pour lesautres objets musicaux dans OpenMusic (les notes, accords, lessons, etc)…Nous avons abordé un des concepts fondamentaux deChroma, visant à effacer la frontière entre le traitementsymbolique des structures musicales en CAO (la manipulation demodèles ou objets musicaux), et le traitement du signal sonore(analyse, synthèse). Ces deux domaines distincts se côtoienten effet de plus en plus dans la création contemporaine. Nousessayons par cette démarche de faire des données dedescription sonores (contenues, dans le cas qui nousintéresse, dans un fichier SDIF) des objets musicaux à partentière, exploitables à ce titre dans l'environnement decomposition. On entend, par données de description sonore,tout type de données d'analyse d'un son, ou même de données deparamétrage de synthèse sonore. La CAO peut en effet êtrecomplémentaire à la synthèse des sons dans le sens où les sonscréés sont le résultat de processus logiques dépendant deparamètres de synthèse.Le fait de disposer d'un éditeur pour les données SDIF dansl'environnement OpenMusic permettra au compositeur d'avoir une- 111 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALESvue et un réel contrôle sur les données de descriptionssonores qu'il possède. L'objet musical constitué par cesdonnées pourra subir des traitements, que l'on sera en mesured'apprécier visuellement, et qui se répercuteront sur la suitede l'exécution. Lui-même pourra être le résultat d'unprocessus en aval. Il ne s'agit donc plus uniquement d'un sonque l'on a analysé, mais d'un véritable modèle faisant partieintégrante de la structure des algorithmes entrant en œuvredans le processus de composition.Les problématiques de la représentation des données SDIF sontdiverses ; la principale étant la grande flexibilité du formatde laquelle résulte la nécessité de s'abstenir de tout apriori quant au contenu (nature des données, interprétation,taille,...) du fichier que l'on va visualiser. Toutefois, ilest important d'offrir à l'utilisateur des possibilités devisualisation et d'édition adaptées à ses besoins. Cettedualité impose donc de concevoir des systèmes de navigationintuitifs et efficaces se positionnant entre la généralité desdonnées et la spécificité nécessaire à une représentationsuffisamment explicite et parlante.L'étude de la structure du format SDIF a mis en évidencel'utilité d'une représentation graphique 3D des données.Celle-ci permet une représentation des différentes paramètresajoutée à leur évolution temporelle, sous forme d'une "grille"tridimensionnelle. Dans cet espace, l'utilisateur peut sedéplacer, se focaliser sur des zones d'intérêt, éditer lesdonnées selon diverses procédures. Cette représentationgénérale en 3D a également été complétée par une navigation deplus haut niveau permettant la selection d'un certain type dedonnées parmi toutes celles que peut renfermer un mêmefichier, et par diverses études de représentationsalternatives, parfois plus adaptées à des types de donnéesspécifiques. On peut ainsi visualiser les données sous formede courbes, de mini-sonagramme (représentations plus prochesde ce qui se fait dans le domaine de l'analyse sonore), ou àl'aide d'un mini-synthétiseur permettant une appréciationauditive des caractéristiques des données.Une autre partie des travaux autour du format SDIF a étéréalisée dans OpenMusic, avec des outils permettant notammentdes conversions de données vers ce format, afin de permettre àl'éditeur SDIF de traiter celles-ci. En particulier, untraitement spécial à été mis en place pour les données de type"partials" ou "chord-seq" provenant des analyses spectrales dulogiciel AudioSculpt. D'autres fonctions permettent d'extrairedu fichier SDIF des parties des données qu'il contient,préalablement localisées avec l'aide l'éditeur. Ces donnéesextraites pourront subir des traitements algorithmiques, ouêtre utilisées dans la suite d'un processus (on pense enparticulier au contrôle de la synthèse).D'un point de vue plus technique, cet éditeur SDIF présentequelques aspects intéressants. Il s'agit tout d'abord d'uneapplication indépendante, écrite en C++. Sa réalisation a doncnécessité la mise en oeuvre d'une communication entreOpenMusic et une application externe, écrite dans un autrelangage, ce qui ouvre largement à de nouvelles possibilités dedéveloppement.Enfin, toute l'application et son interface ont été réaliséesen utilisant OpenGL et la librairie GLUT, ce qui la rendparfaitement portable sur les autres plateformes. SDIF-Edit- 112 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALESpeut donc être utilisé indépendamment comme éditeur SDIF sousLinux, ce qui représente un intérêt pour des applications dansde nouveaux contextes (autres que la CAO). En effet, à ce jouril n'existe encore aucun éditeur permettant de manipuler lesfichiers SDIF.Participants : J. Bresson stage), C. AgonCollaboration interne : X. Rodet, équipe Analyse/synthèseCollaboration extérieure: M. Stroppa (compositeur)4.4.2 OpenMusic sous LinuxOpenMusic (OM) est un environnement de programmation visuellepour la composition musicale assistée par ordinateur qui a étédéveloppé sous MacOS avec MCL (Macintosh Common Lisp). MCLprésente beaucoup d’avantages sous MacOS, en particulierl’accès direct à l’interface graphique du Macintosh, et cesavantages ont été entièrement exploités pendant ledéveloppement original d’OM, mais ils impliquent une fortedépendance vis-à-vis du compilateur et du logicield’exploitation.Le code source d’OM est distribué sous GPL (GNU PublicLicense), ce qui permet le portage du logiciel (y compris pardes partenaires extérieurs) sous différents systèmesd’exploitation et compilateurs. Linux était un choix parfaitpour le portage, parce qu’il fournit à l’utilisateur et auxdéveloppeurs non seulement un système d’exploitation libre etOpenSource, mais aussi un grand nombre d'outils et delibraires.La libraire graphique choisie pour le projet est GTK+, parcequ’elle est fournie avec beaucoup de widgets (objetsd'interaction graphique) et qu'elle est compatible avec CMUCL(Carnegie Mellon University Common Lisp, un compilateurlibre). Ce compilateur a été choisi pour le portage, car ilétait le plus proche de MCL parmi tous ceux que nous avonsévalués.Pour le développement, le code a été divisé en blocs :OM ANSI : code écrit (ou réécrit) en se conformant à la normeANSI, donc théoriquement portable ;OM NO ANSI : Ces fonctions employées dans OM n’existent quedans MCL. Mais il existe d'autres fonctions dans CMUCL quipeuvent être employées pour le même usage. Des wrappers ontété écrits pour la circonstance ;OM 100% MCL : fonctions non définies dans la norme ANSI etsans fonctions correspondantes dans CMUCL. Ces fonctions ontdû être développées avec les paquets de CMUCL ;OM GRAPHIC PART : MCL a ses propres classes pour créer lesinterfaces graphiques, et OpenMusic dépend de ces classes. Cesclasses ont donc été développées avec Gtk+.Les sources sont toujours disponibles sous CVS. Le siteprincipal du projet est http://sourceforge.net/projects/<strong>Ircam</strong>openmusicCe projet a été soutenu par l'Université Javeriana de Cali,Colombie et réalisé dans le cadre du projet européen Agnula(resp. <strong>Ircam</strong> François Déchelle).Participants : G. Sarria, J. DiagoCollaborations internes : C. Agon, G. Assayag, F. Déchelle, P.Tisserand (équipe Logiciels libres et ingénierie logicielle).Collaboration extérieure : C. Rueda (U. Javeriana CaliColombie)- 113 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALES4.4.3 Services MIDI sous OpenMusicLes développements d'outils MIDI pour OpenMusic ont pourobjectif d'améliorer l'utilisation et l'exploitation duprotocole MIDI à des fins analytiques ou compositionnelles.MIDI est un standard essentiel pour le codage, stockage, ou latransmission de données musicales. Parmi les recherches enanalyse musicale, nombreux sont les travaux qui utilisent pourentrée des fichiers MIDI, en particulier sur OpenMusic dansles recherches menées (entre autres) par l'équipeReprésentations Musicales (Kant, MusicMap, Zn, Kanthus, Lz,etc.) Dans OpenMusic, le protocole MIDI est utilisé pour lerendu musical des structures manipulées (chords, voices, poly,etc.) Le fonctionnement est basé sur la librairie MidiShare,développée par le Grame. Cependant les fonctionnalités dehaut-niveau, accessible aux utilisateurs de OpenMusic, étaientjusqu'ici assez primitives.Les développements des nouvelles classes et fonctions MIDIsont articulés autour d'une structure de description de basereprésentant un événement MIDI, et concrétisés par la classeMidiEvent. Les paramètres (slots) de cette classe sont lesinformations nécessaires à la construction du message MIDIcorrespondant. Des "boîtes-menus" ont été créées pourpermettre de paramétrer ces slots (ainsi que ceux des autresclasses et les fonctions MIDI), en s'appuyant sur lesspécifications General MIDI.A partir de cette structure, nous considérons les autresclasses MIDI comme des conteneurs MIDI pouvant être traduitssous forme d'une liste d'événements MIDI. De telles classespourront dès lors être "jouées" (envoi de la séquence MIDI àun instrument MIDI), ou placées dans des maquettes. De cepoint de vue, nous pouvons également considérer d'autresobjets musicaux de OpenMusic (chord-seq, voice, ...) comme deconteneurs MIDI puisqu'ils peuvent eux aussi être traduit enMidEvents (avec parfois une perte d'information, notamment auniveau de la quantification rythmique pour les voices). Cetteconversion systématique des objets en séquence MIDI faciliteraet généralisera le stockage sous forme de fichier MIDI. Unefonction générique get-midievents permet cette conversion d'unobjet quelconque vers une liste de midievents. Sur cettefonction peut être greffé un test, sous forme de lambdafonction, et permettant un filtrage des événements MIDIextraits. Des filtres élémentaires (canaux midi, dates, etc.)sont également fournis dans la bibliothèque de fonctions deOpenMusic.La classe EventMidi-seq, modélisant une séquence d'événementsMIDI, se base sur le fonctionnement du chord-seq de OpenMusic: ses entrées sont les listes des entrées correspondantes desévénements qu'elle représente. De cette manière, cette classeconstitue une structure similaire à un fichier midi, mais avecla propriété d'être plus facilement manipulable et modifiable.Elle peut, en particulier, être créée à partir d'une listed'événements, qui aurait été extraite (et éventuellementfiltrée) à partir d'autres objets.La classe MidiControl constitue un cas plus particulier deséquence d'événements MIDI, représentant l'évolution d'uncontrôleur continu (pitch bend, volume, panoramique, effets,etc.) Cette classe est donc à mi-chemin entre la bpf, dontelle hérite en particulier de l'éditeur et du mode de- 114 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALESparamétrage, et le conteneur MIDI classique, puisqu'ellepourra entrer en jeu dans les maquettes ou être jouée en MIDIafin de réaliser l'évolution du paramètre choisi (la courbed'évolution peut être rééchantillonnée à l'aide d'une fonctionresample).D'un point de vue analytique, il est possible, comme nousl'avons vu, d'extraire d'un fichier MIDI la liste desévénements correspondants (et éventuellement de la filtrer).Il est également possible, par l'intermédiaire d'une fonctionget-continuous-controller, d'extraire les courbes d'évolutionde contrôleurs continus (sous forme d'objets de typeMidiControl). D'autres fonctions d'analyse permettent encorel'extraction des notes, ou d'informations textuelles.Les structures rythmiques gérées par MIDI (changements detempo, marqueurs de mesures, métrique) peuvent également êtreextraites du fichier MIDI, ou des objets musicaux contenantces informations (voice, poly), sous la forme d'un objet detype TempoMap. Une telle structure peut aussi être créee etmanipulée manuellement comme les autres objets MIDI. Elle estégalement utilisée pour optimiser la quantification lors de laconversion vers les voices ou polys (implicitement lorsque cesinformations sont contenues dans l'objet source, etéventuellement explicitement si un tempomap est spécifiémanuellement).Enfin, une interface de type table de mixage MIDI a étéréalisée en tant qu'éditeur pour une classe de paramétrage.Cet éditeur permet de sélectionner un certain nombre de canauxMIDI pour lesquels l'utilisateur peut contrôler le programmecorrespondant (timbre de l'instrument), et divers contrôleurscomme le volume, le pitch bend, la balance, etc. Cet objetpeut également être vu comme un conteneur MIDI et, à ce titre,être inséré dans les maquettes afin d'initialiser ou modifierle paramétrage d'un ou plusieurs instruments MIDI.Cette bibliothèque de fonctionnalités et de classes MIDI a étéintégrée à OpenMusic dans la version 4.8.Participants : J. Bresson, C. AgonCollaboration extérieure : D. Fober (Grame)4.4.4 Améliorations de l’ergonomie des maquettesOpenMusicUne mission de développement de quelques mois a été confiée àGerardo Sarria pour proposer un certain nombre d’améliorationsdans le fonctionnement des maquettes OpenMusic. Enparticulier, il s’agissait d’apporter des optimisations deplusieurs fonctionnalités pariculièrement lentes : affichage,chargement, déchargement sur disque, défilement, évaluation.La briéveté de la mission n’a pas permis de résoudre tous cesproblèmes, mais nous avons pu localiser les goulotsd’étranglement, et mesurer un certain nombre de difficultés.En particulier le modèle de représentation des maquettes dansdes fichiers doit être profondément remanié pour obtenir lesoptimisations voulue. Les descriptions étant « paresseuses »,c’est à dire susceptibles d’ "évaluation retardée", un grandnombre d’opérations de compilation se produit au chargementdes maquettes. C’est un modèle à la fois singulièrementélégant mais inefficace, qui devra donc être réévalué.- 115 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALESDes améliorations intéressantes ont été apportées àl’ergonomie, notamment barres de défilement et palettes denavigation avec « vue d’avion ».Bien sûr un certain nombre de bugs ont été identifiés etcorrigés, notamment ceux liés au « glisser-déposer », qui,dans OpenMusic, doit pouvoir se décliner dans toutes lessituations.Quelques fonctionalités nouvelles ont été expérimentées :notion de premier plan et d’arrière plan pour les objetsgraphiques, boîtes d’annotation, nommage des boîtes.De manière générale, un certain nombre de problèmes ont étéidentifiés, des débuts de solution apportés et plusieursfonctionnalités nouvelles ont été prototypées et expérimentées(notamment en utilisant des maquettes de Tristan Murail quiont la caractéristique d’être de très grande taille et deconvoquer toutes les fonctionnalités disponibles). Un travailde finalisation important reste toutefois à faire pour rendreces innovations utilisables.Participants : G. SarriaCollaboration extérieure : T. Murail (compositeur)4.5 Publications et communicationsArticles parus dans des revues à comité de lecture[Agon03a] Agon, C., Andreatta, M., Assayag, G., Schaub, S., « Formalaspects of Iannis Xenakis' Symbolic Music: a computer-aided exploration ofsome compositional processes », Journal of New Music Research, <strong>2003</strong>[Andreatta03e] Andreatta, M., Schaub, S., « Une introduction à la SetTheory: les concepts à la base des théories d’Allen Forte et de DavidLewin », Musurgia, <strong>2003</strong>, vol. X, n° 1, pp. 73-92[Dubnov03a] Dubnov, S., Assayag, G., Lartillot, O., Bejerano, G., « UsingMachine-Learning Methods for Musical Style Modeling », IEEE Computer,Octobre <strong>2003</strong>, vol. 10, n° 38, pp. 73-80[Gomez03a] Gomez, E., Klapuri, A., Meudic, B., « Melody Description andExtraction in the Context of Music Content Processing », Journal of NewMusic Research (JNMR), <strong>2003</strong>, vol. 32, n° 1[Gouyon03a] Gouyon, F., Meudic, B., « Towards rhythmic content processingof musical signals --- Fostering complementary approaches », Journal of NewMusic Research (JNMR), <strong>2003</strong>, vol. 32, n° 1[Chemillier03a] Chemillier, M., Truchet, C., « Computation of wordssatisfying the "rhythmic oddity property" », Information ProcessingLetters, <strong>2003</strong>, n° 86, pp. 255-261Actes de congrès avec comité de lecture[Agon03d] Agon, C., Assayag, G., « OM :A Graphical extension of CLOS usingthe MOP », ILC, <strong>2003</strong>[Andreatta03c] Andreatta, M., Agon, C., « Implementing algebraic methods inOpenMusic. », ICMC, singaphore, <strong>2003</strong>[Andreatta03f] Andreatta, M., Agon, C., « Formalisation algébrique desstructures musicales à l’aide de la Set-Theory : aspects théoriques etanalytiques », Actes des dixièmes Journées d’Informatique musicale,Montbeillard, <strong>2003</strong>[Lartillot03g] Lartillot, O., « Modeling Musical Pattern Perception as anIncremental System of Inductive Inferences », ESCOM 5, Hanovre, <strong>2003</strong>[Lartillot03h] Lartillot, O., « Perception-Based Musical Pattern Discovery:Why and How. », Third International Workshop on Content-Based MultimediaIndexing, Rennes, <strong>2003</strong>[Lartillot03i] Lartillot, O., « Perception-Based Musical PatternDiscovery. », ICMC <strong>2003</strong>, Singapour, <strong>2003</strong>[Lartillot03j] Lartillot, O., « Discovering Musical Patterns throughPerceptive Heuristics. », ISMIR <strong>2003</strong>, Baltimore, <strong>2003</strong>[Meudic03b] Meudic, B., « Musical similarity in polyphonic context: a modeloutside time », Colloquium on musical informatics (CIM), Firenze, <strong>2003</strong>[Lartillot03a] Lartillot, O., « Une analyse musicale automatique suivantune heuristique perceptive. », EGC : Journées francophones d'Extraction etde Gestion des Connaissances, Lyon, <strong>2003</strong>- 116 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALES[Lartillot03f] Lartillot, O., « Perception-Based Musical PatternDiscovery. », 10èmes Journées d'Informatique Musicale, Montbéliard, <strong>2003</strong>[Truchet03c] Truchet, C., Assayag, G., Codognet, P., « OMClouds, petitsnuages de contraintes dans OpenMusic », JIM03, France, <strong>2003</strong>[Truchet03d] Truchet, C., Diaz, D., Codognet, P., « Résolution deContraintes par Recherche Adaptative et Application à des », ROADEF03,Congrès de la Société Française de Recherche Opérationnelle, France, <strong>2003</strong>[Truchet03e] Truchet, C., Assayag, G., Codognet, P., « Musical Applicationof Adaptive Search, a Tabu Search Method for Solving CSPs », INFORMS,Cluster : OR in the Arts, Atlanta, <strong>2003</strong>Chapitres dans des ouvrages collectifs[Agon03b] Agon, C., « Mixing Visual Programs and Music Notation »,Perspectives of Mathematical Music (Theory. G. Mazzola and T. Noll Ed),<strong>2003</strong>[Agon03c] Agon, C., Assayag, G., « Outils informatiques pour la compositionmusicale assistée par ordinateur : un état de l’art. », Book of articlesand essays of PRISMA group, ed. Jacopo Baboni Schilingi. (Euresis Edizioni,Milano), <strong>2003</strong>[Andreatta03a] Andreatta, M., « Group-Theoretical Methods in Compositionand Theory », The Topos of Music., ed. Mazzola Guerino. (Birkäuser, Basel),<strong>2003</strong>[Andreatta03b] Andreatta, M., « On group-theoretical methods applied tomusic: some compositional and implementational aspects », Perspectives ofMathematical and Computer-Aided Music Theory, ed. Lluis-Puebla Emilio,Mazzola Guerino, Noll Thomas. (epOs Music, Osnabrück), <strong>2003</strong>[Andreatta03g] Andreatta, M., « Un regard théorique sur les modes àtransposition limitée de Messiaen », Ion, ed. Nicholas Snowman. (Novello &Co., Strasbourg), <strong>2003</strong>, pp. 17-22[Cazaban03a] Cazaban, C., Andreatta, M., Agon, C., Vuza, D., « Anatol Vieru: formalisation algébrique et enjeux esthétiques », Mathématiques/Musique,ed. Assayag Gérard, Mazzola Guerino, Nicolas François. (<strong>Ircam</strong>/L'Harmattan,Paris), <strong>2003</strong> *** [Lartillot03b] Lartillot, O., « Perception-Based AdvancedDescription of Abstract Musical Content. », Digital Media Processing forMultimedia Interactive Services, ed. Ebroul Izquierdo. (World ScientificPress, Singapour), <strong>2003</strong>, pp. 320-323[Lartillot03c] Lartillot, O., « Analyse musicale, induction et analogie. »,Mathématiques, Musique, Philosophie (Titre provisoire) (<strong>Ircam</strong> -L'Harmattan, Paris), <strong>2003</strong> ***[Lartillot03d] Lartillot, O., « Pour une analyse sémiologique inductive etesthésique de la syntaxe musicale. », La notion de syntaxe en langue et enmusique (Sorbonne (P.U.P.S.)), <strong>2003</strong>[Lartillot03e] Lartillot, O., Saint-James, E., « Automating MotivicAnalysis through the Application of Perceptual Rules. », Computing inMusicology, ed. Walter B. Hewlett, Eleanor Selfridge-Field. (MIT Press,Cambridge, MA), <strong>2003</strong>[Meudic03a] Meudic, B., St-James, E., « Automatic extraction of approximaterepetitions in polyphonic MIDI files based on perceptive criteria »,Computer Music Modeling and Retrieval, ed. Uffe Kock Wiil. (Springer,Berlin), <strong>2003</strong>, pp. 124-142[Truchet03a] Truchet, C., « Some Constraint Satisfaction Problems inComputer Assisted Composition », Perspectives of Mathematical and Computer-Aided Music Theory, ed. Lluis-Puebla Emilio, Mazzola Guerino, Noll Thomas.(epOs Music, Osnabrück), <strong>2003</strong>Travaux universitairesMémoires de maîtrise, DEA et d’écoles d’ingénieurs[Bresson03a] bresson, j., « Représentation et manipulation de donnéesd’analyse sonore pour la composition musicale. », Mémoire pour le diplômed’ingénieur, Essi, <strong>2003</strong>, sous la direction de Carlos Agon.[Durand03a] Durand, N., « Apprentissage du style musical et interaction surdeux échelles temporelles », Paris 6, <strong>2003</strong>. Mémoire pour le DEA Atiam sousla direction de Gérard Assayag.Thèses[Andreatta03d] Andreatta, M., « Méthodes algébriques dans la musique et lamusicologie du XXème siècle : aspects théoriques, analytiques etcompositionnels », Thèse de doctorat, EHESS, <strong>2003</strong>, sous la directiond’Alain Poirier en collaboration avec Marc Chemillier et Carlos Agon.- 117 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTREPRESENTATIONS MUSICALESConférences invitéesSound Culture, an international workshop on Art and Theory, UniversitéCornell, 12-13 décembre <strong>2003</strong>. Gérard Assayag.PRISMA, an international workshop on CAO and analysis, Florence, Janvier<strong>2003</strong>.Séminaire Langages Formels à l’université de Marne-La-Vallée, présentationdu modèle d’improvisation, Gérard Assayag & Marc ChemillierEntretiens Jacques Cartier, Lyon, décembre <strong>2003</strong>. Composition Assistée parOrdinateur, Gérard Assayag.Diffusion de connaissances« Mathemusique. Y a-t-il un lien secret entre les mathématiques et lamusique ? » (Conférence-Atelier, Bobigny, 21 janvier <strong>2003</strong>, avec le soutiendu Club CNRS Sciences et Citoyens de Bobigny) ; Moreno Andreatta.« Mathemusique, stage d’initiation aux techniques algébriques en musique etmusicologie » (Maison des Jeunes et de la Culture Daniel André, Drancy, 21-25 juillet <strong>2003</strong>) ; Moreno Andreatta.« Mathémusique : Evolution de la théorie musicale et de la composition enrapport avec les mathématiques » (Tremblay-en-France, Sciences en Fête,18octobre <strong>2003</strong>). Moreno Andreatta.DEA Musique, Histoire, Société (EHESS/<strong>Ircam</strong>/CNSMDP), Séminaire Evolutionsde la théorie et de l’analyse musicales au XX esiècle, coordonné par GérardAssayag, avec la participation de Moreno Andreatta, Marc Chemillier, MartaGrabocz, Jean-Pierre Cholleton, Nicolas Donin.DEA Atiam cours sur les représentations musicales, G. Assayag, M.Andreatta, C. Agon, C. Truchet.Colloques et séminairesOrganisation du Colloque International ‘Autour de la Set Theory’ (<strong>Ircam</strong>,Résonances, 15-16 Octobre <strong>2003</strong>), Moreno Andreatta.Organisation su séminaire international MaMuX (math/Musique en relationavec d’autres disciplines), séminaire mensuel, troisième saison, par MorenoAndreatta.Activités académiquesCoordination du DEA Atiam, mise en place avec Paris 6 UPMC et l’ENST de laréforme LMD. Gérard Assayag.- 118 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTFORMULATION DU MUSICAL5 FORMULATION DU MUSICALResponsable: Nicolas DoninL’année <strong>2003</strong> a vu la mise en place des activités principalesde l’équipe Formulation du musical, à savoir des recherchesfondamentales à l’intersection entre musicologie, histoire etanthropologie cognitive, en relation avec des recherchestechnologiques dans le cadre du projet Ecoutes signées.Ces différentes activités sont donc étroitement articulées :l’étude du processus de composition de Voi(r)e(x) par PhilippeLeroux a tiré parti dès son démarrage, fin <strong>2003</strong>, des premièresmaquettes d’écoutes signées réalisées dans le courant del’année, et se déroulera en interaction constante avec lafabrication de maquettes destinées à une future mise en ligne.Par ailleurs, l’étude des pratiques d’écoutes et d’analyse enFrance à la fin du XIXe siècle et dans le courant du XXesiècle vise entre autres à alimenter le projet Ecoutes signéessur le plan méthodologique, dans son rapport à la conceptiond’outils d’analyse et d’outils d’aide à l’écoute.Enfin, le travail d’élaboration théorique sous-jacent auxdifférents domaines des sciences humaines et de la musicologieconnectés entre eux au sein de cette équipe se poursuit - laconnexion elle-même faisant l’objet d’efforts bibliographiquesspécifiques.5.1 Ecoutes signéesDans le cadre de ce projet ont été réalisées plusieursmaquettes (esquisses informatiques non nécessairementfonctionnelles) visant dans chaque cas à rendre transmissible(c’est-à-dire sensible et manipulable) telle pratiqued’écoute, liée à un auditeur ‘qualifié’ (en tant quecompositeur, musicologue, interprète, etc.). Le processus demaquettage s’appuie sur - et, dans une certaine mesure,consiste en - une ethnologie « sauvage » de la pratiqued’écoute singulière considérée (à savoir, comment tel auditeurécoute tel corpus - ce dernier pouvant être aussi bien unensemble d’œuvres que quelques secondes d’un fichier son).5.1.1 Andrea CeraLes œuvres de Cera témoignent d’une volonté d’hybrider deséléments de musique dite commerciale et des éléments demusique dite savante, ce qui l’a amené à s’intéresser aucourant musicologique qui étudie la « popular music » (PhilipTagg, Richard Middleton, etc.). Comme Middleton, il pense quele paramètre rythmique est particulièrement travaillé parcertaines musiques de danse (ou les musiques électroniques quise sont développées à partir d’elles). Lorsqu’il est face àune singularité rythmique, Andrea Cera cherche à la comprendreanalytiquement pour aller au-delà de la pure fascination et,éventuellement, se réapproprier cette singularité rythmiquedans son activité créatrice. Une rapide transcription lui sertde référent pour la recherche de phénomènes remarquables, paraddition de couches : ainsi apparaissent des faits rythmiquesinaudibles a priori, mais dont la prise de conscience, après- 119 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTFORMULATION DU MUSICALces esquisses analytiques, permet au compositeur de recomposerson écoute.C’est cette façon d’écouter que nous avons tentéd’instrumenter en réalisant une transcription animée reprenantles informations contenues dans la transcription manuscrite.Le masquage de certaines lignes permet d’isoler des figuresremarquables et de diriger l’attention auditive enprivilégiant une image partielle de l’écoute de Cera.Plusieurs techniques (ralentissement, emphase sonore sur telleou telle couche rythmique, etc.) permettent de faire varierl’objet ainsi créé afin de faire coïncider ce que l’on entendavec la transcription. Les couches peuvent être combinées paraddition. Une sorte de réduction paradigmatique animée proposeune ‘représentation intermédiaire’ des informations analysées,dans un but comparatiste (évaluer la proximité entre cettetranscription de boucle et d’autres à venir).Participant : N. DoninCollaboration interne : S. Goldszmidt (Studio Hypermédia)Collaboration extérieure : A. Cera (compositeur)5.1.2 BachothèqueL’analyse musicale est considérée, dans le cadre du projetEcoutes signées, comme un cas particulier et privilégiéd’écoute instrumentée, en ce que les outils d’aide à l’écoutey sont explicites et font l’objet d’une élaborationscientifique. C’est pourquoi nous avons cherché à reprendre etéventuellement poursuivre certains travaux d’analyse musicalesusceptible d’être lus comme des écoutes signées paranticipation. C’est notamment le cas de l’article de NicholasCook « Structure and Performance Timing in Bach's C majorPrelude (WTC 1): An Empirical Study » (Music Analysis 6(1987), pp. 257-272), qui élaborait conjointement un outil(instruments de détection temporelle dans un signal audio desattaques de notes prédéfinies par la partition) et un propos(sur le lien entre analyse musicale et interprétation, et surl’histoire du rubato dans l’exécution des œuvres de Bach) enprise sur une base de données (un choix d’interprétations duPremier prélude du Clavier bien tempéré représentatives del’histoire de l’enregistrement sonore).A partir des résultats fournis par un algorithme d’alignementmidi/audio conçu par l’équipe Analyse et synthèse des sons,nous avons reconstitué les différents modes de représentationet de réduction de l’information proposés par Cook ouprésupposés par ses analyses. Nous les avons extrapoléslorsque c’était possible, afin de permettre un plus grandnombre de manipulations du matériau musical - et desopérations portant sur un plus vaste corpus - que ce qui esteffectué dans son article. C’est le premier pas vers uneécriture multimédia de l’histoire et analyse del’interprétation musicale, dans laquelle le lecteur spécialiséaurait la possibilité, dès le moment de sa lecture, dereproduire les opérations du musicologue et donc des’approprier son propos au point de pouvoir l’amplifier, lecontredire ou le détourner à d’autres fins.Participant : N. Donin.Collaborations internes : S. Goldszmidt (Studio Hypermédia),équipe Analyse/synthèse- 120 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTFORMULATION DU MUSICAL5.1.3 Outils d’aide à l’annotationConsidérant de l’importance des activités annotatives dans lespratiques d’écoute (du travail de l’interprète sur sapartition aux situations d’enseignement de l’analysemusicale), nous avons maquetté deux outils d’annotationproduisant des segmentations qualifiables et évolutives d’unmatériau musical.Le premier permet de prendre des notes au clavier au coursd’une écoute et de les répartir sur plusieurs lignes endéplaçant, dupliquant ou supprimant ses annotations au fur età mesure. La sauvegarde des données permet soit de constituerune archive du goût (annotations ex nihilo à chaque itérationde l’écoute), soit d’élaborer une grille de lecture reflétantde façon vraisemblable la complexité de l’écoute singulièred’un auditeur donné, en vue de transmettre une sorte de guided’écoute.Le deuxième outil, provisoirement nommé Outil d’Annotation etde Synchronisation Image / Son, permet d’annotertemporellement une image (en particulier une partitionscannée). Ces annotations sont également manipulables. Ellesconsistent en zones colorées, en signes musicaux oumusicologiques, en textes, qui peuvent soit apparaître etdisparaître à des instants déterminés par l’auditeurscripteur,soit figurer continûment sur l’image. Lesutilisations pédagogiques et scientifiques nombreuses que l’onpourrait faire d’une version plus aboutie de cet outil sontindiquées dans un prototype de cours en ligne réalisé parNicolas Donin à partir d’un classique de l’enseignement del’analyse musicale : « Webern, op. 5, n° II : remarquesanalytiques » (novembre <strong>2003</strong> ; diffusé en traduction anglaisesur le site du projet européen Musicweb).Participants : N. Donin, J. TheureauCollaboration interne : S. Goldszmidt (Studio Hypermédia)5.1.4 Autres maquettesPlusieurs autres maquettes ont été élaborées. Certaines ontété abandonnées pour des raisons techniques (reprise d’unarticle de Makis Solomos sur les sonorités xenakiennes) oumusicales (outil d’aide à la transcription de séquencesmusicales). D’autres n’en sont encore qu’aux premièresesquisses (écoute signée du Premier prélude du Clavier bientempéré par Brice Pauset ; écoute signée de sa pièceVoi(r)e(x) par Philippe Leroux).Participants : N. Donin, J. TheureauCollaboration interne : S. Goldszmidt (Studio Hypermédia)Collaborations externes : P. Leroux (compositeur), B. Pauset(compositeur)5.2 Pratiques musicales en relation avec l’analysed’autres activités5.2.1 Préparation du projet d’étude du processus decomposition de Voi(r)e(x) par LerouxPlusieurs essais méthodologiques ont été réalisés avecPhilippe Leroux afin de déterminer le format et les attendusde l’étude de son activité de composition : entretiensd’explicitations menés par Pierre Vermersch, entretiens filmés- 121 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTFORMULATION DU MUSICALsur la base de traces de l’activité (brouillons, esquisses,manuscrit de la partition, etc.) menés par Jacques Theureau etNicolas Donin, esquisses de modes de navigation dans cestraces numérisées, en collaboration avec Samuel Goldszmidt etLudovic Gaillard.Participants : N. Donin, J. Theureau, P.VermerschCollaboration interne : L. Gaillard, S. Goldszmidt (StudioHypermédia)Collaborations extérieures : P. Leroux (compositeur)5.2.2 Travaux de systématisation du programme derecherche « cours d’action »Préparation par Jacques Theureau d’un troisième livre qui serapublié en 2004.Direction de thèses en cours : Cécile Barbier (bourse cifre,Renault) : « L’individuation de la conduite automobile » (avecThérèse Villame, Technocentre Renault). Annabelle Viau-Guay :(co-direction avec Fernande Lamonde, Université Laval,Québec) : Analyse de l’activité des consultants en ergonomiedans la perspective d’une contribution à leur formation.Participant : J. Theureau5.3 Psycho-phénoménologie des activités musicalesCe programme de recherche est basé sur l’intérêt et lanécessité de redonner une place aux points de vue en premièreet seconde personne sous la forme d’une psycho phénoménologierigoureuse, dont l’idée programmatique repose sur le caractèreincontournable de la prise en compte de ce dont la personnepeut être consciente de son propre vécu.Cependant, disposer d'une méthode d'accès à l'expérience vécuepassée, y compris dans ses aspects non réflexivementconscients ne suffit pas à investiguer les différentesfacettes expérientielles du musical. La possibilité même de laconstitution et de la saisie des tempos objets devient unpassage nécessaire. Pour cela l'exploration théorique del'œuvre de Husserl relativement à la temporalité et aux actesde présentification est une direction de travail utile. Maisun gros travail théorique est à accomplir dans la mesure oùles auteurs ayant travaillé sur ces thèmes se sont cantonnés àne prendre en compte qu'un seul ouvrage, édité partiellementen français : les manuscrits A, très sévèrement ‘édités’ parles élèves de Husserl, publiés sous le titre Leçons sur laconscience intime du temps. Ainsi, Ch. Accaoui dans sonouvrage sur Le temps musical, ou même P. Ricœur dans sonouvrage sur la mémoire, ne connaissent que ces Leçons. Depuisla publication de cette traduction partielle et relativementinfidèle, sont devenus disponibles quatre autres ouvrages deHusserl (un cinquième est à paraître prochainement), nousmontrant la singularité et les limites très spéciales du pointde vue défendu dans ces leçons. Si la phénoménologie peut nouspermettre de comprendre le musical dans sa face subjective, ilfaut reprendre le travail de Husserl, et ce d'une manière nonstrictement philosophique qui entraînerait une simpleherméneutique de Husserl ou un travail d'histoire de laphilosophie. Une direction de recherche essentielle, déjà bientravaillée par M. Richir, est de montrer à partir de Husserlcomment on peut avoir une double lecture de la structure de la- 122 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTFORMULATION DU MUSICALtemporalisation. D'une part (Leçons de 1905) strictementcontinue et linéaire dans la constitution, d'autres partdiscontinue, non linéaire, pénétrée de la dynamique affectantedans l'éveil rétrospectif propre au ressouvenir. Le livreessentiel est alors non plus les Leçons de 1905 mais sesautres œuvres et particulièrement les leçons Sur la synthèsepassive. Dans le même projet il sera nécessaire de revenir àune compréhension stricte et non métaphorique de ce qu'estl'opération passive de rétention à la fois dans saconstitution et dans son devenir examiné à partir des actesqui l'éveillent, c'est-à-dire le ressouvenir.Participant : P. VermerschCollaboration extérieure : F. Borde (compositeur, philosophe)5.4 Guides d’écoute et fonction des gestes analytiquesau tournant du vingtième siècleA la fin du XIXe siècle, au moment même où se répand le terme‘musicologie’ pour désigner tout d’abord la philologie destextes musicaux du passé, des pratiques analytiquess’élaborent dans le sillage de la « musique de l’avenir »(musique à programme et wagnérisme), notamment sous la formede livrets d’aide à l’identification des motifs musicaux dansles opéras ou symphonies. Ces guides d’écoute semblent avoirété conçus pour permettre le va-et-vient entre l’audition surles lieux de l’exécution et la lecture au piano dans uncontexte privé. Ils peuvent donc être pris à la fois comme uneexploration instrumentée de l’écoute de leur auteur, et commeprescription d’écoute à l’usage du simple auditeur,représentative à ce titre de ‘ce qu’il fallait entendre’. EnFrance, à cette époque, les démarches analytiques les plusriches ne semblent donc pas advenir du côté de la musicologie(qui raisonne par rapport à l’histoire et cherche à fonder uneesthétique musicale), mais plutôt du côté des guides d’écoute,d’une part, et d’autre part de l’enseignement moderne de lacomposition (ainsi du commentaire à vue autour du piano desgrandes œuvres du répertoire dans le cours de composition deVincent d’Indy à la Schola Cantorum).Ce complexe de pratiques analytiques indexées sur l’écritpartitionsurvivra à l’avènement et la popularisation de lamusique enregistrée sur disque. Il a des conséquences immensessur les modes d’accès à la musique (sous toutes ses formes) auXXe siècle et semble surdéterminer en partie notre écoutesavante de la musique, encore aujourd’hui. A partir d’archivesprivées et publiques (Bibliothèque Nationale de France) de lapériode 1880-1967, nous avons cherché à reconstituer cesbranches généalogiques de l’oreille moderne, à partir defragments significatifs : l’écriture par Charles Malherbe desa Notice sur Ascanio (opéra de Saint-Saëns) ;l’interdépendance entre composition et analyse chez Vincentd’Indy au début des années 1900 ; la fonction des guidesd’écoute dans la Seconde Ecole de Vienne.Participant : N. DoninCollaboration extérieure : R. Campos (Conservatoire NationalSupérieur de Musique de Paris)5.5 Publications et communicationsCodirection d’ouvrage (numéro thématique de revue)- 123 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTFORMULATION DU MUSICALDonin, N. & Goldman, J., Qui écoute? 1, Circuit. Musiques contemporaines,<strong>2003</strong>, vol. 13, n° 2 (contributions de Nicolas Donin, Laurent Feneyrou,Jonathan Goldman, Michel Imberty, Helmut Lachenmann, Peter Szendy).Articles de revues[Donin03a] Donin, N., « Qui écoute ? », Circuit. Musiques contemporaines,<strong>2003</strong>, vol. 13, n° 2, pp. 5-10[Donin03c] Donin, N., Fingerhut, M., Stiegler, B., « The IRCAM archivein context », DigiCULT.info, Décembre <strong>2003</strong>, n° 6, pp. 19-22[Theureau03] Ria L., Sève C., Theureau J., Saury J., Durand M. (<strong>2003</strong>)Beginning teacher's situated emotions : study about first classroom'sexperiences, Journal of Education for Teaching, 29(3), 219-233.[Vermersch03] Vermersch, P., « Psychophénoménologie de la réduction »,Alter, vol. 11, pp. 1-19.Chapitres dans des ouvrages collectifs[Donin03b] Donin, N., « Von heute auf morgen, un dispositif critiqueinopérant ? De l'opéra de Schoenberg au film de Straub et Huillet »,Musique et dramaturgie, ed. Feneyrou, Laurent (Publications de la Sorbonne,Paris), <strong>2003</strong>, pp. 311-334.[Theureau03] Theureau, J., Chapter 4 « Course-of-action analysis & courseof-actioncentered design », Handbook of cognitive task design, ed. E.Hollnagel, Lawrence Erlbaum Ass., Mahwah, New Jersey, pp. 55-81.Conférences invitées[Theureau03] ‘‘Observatoire & réfutation et / ou jugement de fécondité deshypothèses empiriques dans l’étude scientifique de l’activité humaine’’,Journées Act'Ing <strong>2003</strong>, 30-31 Mai, Quiberon.[Theureau03] ‘‘Course-of-action analysis & course-of-action centreddesign’’, Congress International Ergonomics Association (IEA), 24-30 août,Séoul, Corée.[Theureau03] ‘‘Le programme de recherche « cours d’action » & l’étude del’activité, des connaissances & de l’organisation en 10 points’’, Colloque"Connaissances, activité, organisation", 11-18 Sept., Cerisy-la-Salle.[Theureau03] Introduction à la session 1 : ‘‘Une question de recherche enanalyse du travail essentielle pour l'avenir de l'ergonomie, celle del'analyse de l'articulation entre activité individuelle et activitécollective : une question de recherche en analyse du travail essentiellepour l'avenir de l'ergonomie’’, 38e congrès de la SELF, 24-26 Sept.,Paris.[Theureau03] ‘‘Les leçons apprises à travers le programme de recherche"cours d'action" de 1988 à <strong>2003</strong> et la question de l'articulation entreactivité individuelle et activité collective’’, 38e congrès de la SELF,24-26 Sept., Paris.Colloques et séminaires[Donin03d] Donin, N., « Le projet "Ecoutes signées" », Résonances <strong>2003</strong> /Outils d'aide à l'analyse , Paris, <strong>2003</strong>[Donin03e] Donin, N., Goldszmidt, S., Theureau, J., « Annoter la musiquedans le contexte du projet Ecoutes signées », Atelier Prescot annotation ,Toulouse, <strong>2003</strong>.[Theureau03] Une interaction anthropologique de connaissance et detransformation des situations pratiques : les outils philosophiques,théoriques et méthodologiques de l'approche dite "cours d'action",conférence in Journée d'étude "Construction du regard anthropologique :outils & méthodes", 26 Mai, Clermont-Ferrand.[Theureau03] La psychologie du travail & l’ergonomie de la « connaissancede la tâche » à la dynamique culturelle, Journée de l’Action spécifiqueSTIC-CNRS « Interculturalité, conception et usage des NTIC », 3 Nov.,France-Télécom, Issy-les-Moulineaux.- 124 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTAPPLICATIONS TEMPS REEL6 APPLICATIONS TEMPS REELResponsable : Norbert SchnellL’équipe Application temps réel poursuit ses principaux axesde recherche et de développement démarrés en 2002 avec lesuivi de partition et le développement de modules detraitement de signal pour Max/MSP.Concernant les développements pour Max/MSP, des effortsimportants ont été fournis pour intégrer dans Max/MSP unepartie des développements réalisés pour jMax. Le résultatprincipal de ces efforts se présente sous la forme de labibliothèque FTM qui, dans un premier temps, a pu faciliter leportage des modules de suivi de partition de jMax sur Max/MSPet sera, à l'avenir, à la base de divers développements.Un nouveau chercheur a été accueilli dans l’équipe en octobre<strong>2003</strong>, Frédéric Bevilacqua, pour mener un projet de recherchedans le domaine de l’analyse du mouvement et du geste. Ceprojet s’inscrit dans le cadre du « Pôle de technologies pourle spectacle vivant » en collaboration étroite avec l’équipecorrespondante du département Création : « Moyens de captation» dirigée par Emmanuel Flety.6.1 Suivi de PartitionLe suivi de partition par ordinateur sert à synchroniser entemps réel la partie électronique d'une œuvre avecl'interprète, ce qui permet une plus grande libertéd'expression.Le travail sur le suivi de partition a progressé en <strong>2003</strong> avecla mise en oeuvre sur Max/MSP du nouveau système logiciel,développé auparavant sur jMax, et des tests conséquents dusystème dans le cadre des répétitions des productionsmusicales de l’<strong>Ircam</strong> [Orio03a].La collaboration de recherche avec Nicola Orio s’estpoursuivie avec une visite de travail de ce dernier à l'<strong>Ircam</strong>en janvier, et dans un second temps, une visite de DiemoSchwarz à Padoue en février.6.1.1 Portage du système de suivi de partition tempsréel sur Max/MSPLe système logiciel temps réel de suivi de partition à étéporté de la plate-forme libre jMax sur la plate-forme plusrépandue et utilisée dans les productions de l’<strong>Ircam</strong>, Max/MSP.Grâce aux travaux préparatoires antérieurs d'ingénierielogicielle sur l'architecture du système, des interfaces entrel’environnement temps réel et les fonctions propres du moteurde suivi de partition ont été définies. Ces fonctions du suivisont programmées de manière à rester indépendantes de laplate-forme temps réel et ont ainsi pu être réutilisées dansle nouveau système temps réel Max/MSP. Cette indépendance estassuré grâce à la bibliothèque FTM (voir plus bas) qui fournitde manière portable des structures de données et des fonctionsde base.Les deux modules permettant le suivi de partition d’uneinterprétation captée par microphone (suivi audio) et en- 125 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTAPPLICATIONS TEMPS REELliaison MIDI (suivi MIDI) ont été présentés aux ateliersForum, documentés et distribués sur le CD du Forum <strong>Ircam</strong>.Participants : D. Schwarz, N. SchnellCollaboration interne : S. Lemouton (Département Création)Collaboration extérieure : N. Orio (Université de Padoue)6.1.2 Mise au point du suivi de partition MIDILe système du suivi de partition avec entrée MIDI sur Max/MSPa été mis au point et testé à l’occasion de la production del'opéra de chambre La Frontière de Philippe Manoury.La reconnaissance de partitions de haute polyphonie a étérévisée particulièrement en vue des œuvres pour piano. Dessessions de test et enregistrements avec le pianiste AndrewRusso ont été effectuées à l’<strong>Ircam</strong> et à Orléans pendant lesrépétitions à la Scène Nationale.Participants : D. Schwarz, N. SchnellCollaboration interne : S. Lemouton (Département Création), P.Manoury6.1.3 Suivi de texte récitéPour le spectacle Retour définitif et durable de l'être aiméd'Olivier Cadiot, le compositeur Gilles Grand souhaitait unsuivi de texte récité afin de synchroniser une voixenregistrée avec celle d’un acteur sur scène. L’objectif étaitde faire parler un acteur avec la voix d’un autre. Lespectacle a été repris pour le festival Agora, en juin <strong>2003</strong>.Un stage DEA Atiam [Pellegrini03a] a été effectué pour faireles recherches nécessaires pour adapter le systèmes de suivide partition avec entrée audio pour une analyse etreconnaissance de phonèmes.Participants: T. Pellegrini, R. Duée et L. Georges(stagiaires), D. Schwarz6.2 Divers développements pour Max/MSPL’équipe poursuit un axe important de développements pourl’environnement Max/MSP. Dans le cadre de ces travaux,plusieurs modules d’analyse et de synthèse ont été développéspour Max/MSP. Un espace sur le site Internet de l’équipe estdédié à ces développements (http://www.ircam.fr/équipes/tempsreel/maxmsp/).6.2.1 Portage de modules Max/MSP utilisés dans lerépertoire de l’<strong>Ircam</strong> sous MacOSXLe passage du département Création vers l’utilisation deMacOSX nécessitait le portage sur cette nouvelle plateforme dequelques modules Max/MSP utilisés dans les œuvres durépertoire <strong>Ircam</strong>, qui étaient initialement créés ou portés surMac OS 9. En collaboration avec les assistants musicaux uneliste complète de ces modules développés à l’<strong>Ircam</strong> ou ailleursa été élaborée avant de répertorier le code source des modulesà maintenir à l’<strong>Ircam</strong> et effectuer leur portage sous Mac OS X.Participant : N. SchnellCollaboration interne : département Création- 126 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTAPPLICATIONS TEMPS REEL6.2.2 Portage de modules de synthèse de jMax sousMax/MSPDes modules de synthèse initialement développés sous jMax encollaboration avec l’équipe Analyse/synthèse ont été portés etadaptés à Max/MSP. Il s’agit des techniques de synthèsesuivantes :- Synthèse additive par FFT-1 ;- Synthèse PSOLA (PAGS) monophonique ;- Synthèse PSOLA (PAGS) polyphonique (chœur virtuel) ;- Synthèse granulaire (SOGS).Les modules de synthèse additive et PSOLA permettant la resynthèsede sons représentés dans le format SDIF (Sounddescription Interchange Format), s’appuient pour l’instant surun développement du CNMAT d’importation et de représentationdes fichiers SDIF dans Max/MSP.Les modules ont été présentés aux Ateliers Forum, documentéset diffusé sur le CD du Forum.Participant : N. Schnell6.2.3 Nouveaux modules de traitement de signal pourMax/MSPL’algorithme Yin calcule une estimation de la fréquencefondamentale très juste et efficace pour les sonsmonophoniques. Basés sur cet algorithme deux modules ont étédéveloppés pour Max/MSP :- yin~, un module d’estimation de fréquence fondamentale ;- psych~, Pitch Synchronous Yin-based Choral Harmonizer.Le module psych~ permet la transposition multiple des sonsmonophoniques en contrôlant l’influence sur le timbre de latransposition. Avec ce module, des sons d’instruments demusique peuvent être transposés aussi bien que des voix avectrès peu d’artefacts. De multiples transpositions peuvent êtreeffectuées simultanément pour créer un effet de chœur endéterminant la hauteur de manière relative (mode harmoniseur)ou absolue (mode vocodeur).Ce développement utilise des travaux antérieurs sur lasynthèse PSOLA menés en collaboration avec l’équipeAnalyse/synthèse auparavant. Une analyse PSOLA pour le tempsréel a pu être développée sur la base de Yin de manièreparticulièrement efficace en collaboration avec AlainCheveigné de l’équipe Perception et cognition musicale.Ces deux modules ont été présentés aux Ateliers Forum,documentés et diffusés sur le CD du Forum.Participant : N. SchnellCollaboration interne : Alain de Cheveigné (équipe Perceptionet cognition musicales)6.2.4 Portage de modules de synthèse par modèlephysique pour Max/MSPEn collaboration étroite avec l’équipe d’Acoustiqueinstrumentale, plusieurs modules de synthèse par modèlephysique ont été portés sur Max/MSP sur Mac OS X :- flute_lab~, modèle de flûte de Patricio de la Cuadra ;- tromp~, modèle de trompette de Christophe Vergez ;- prototype d’un modèle de corde et marteau de piano par EricHumbert.- 127 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTAPPLICATIONS TEMPS REELLe modèle de flûte a été développé initialement sous Max/MSPpour Mac OS 9. Une version légèrement optimisée a été portéepour Mac OS X.Le modèle de trompette développé sur jMax dans le cadre de lathèse de Christophe Vergez par Patrice Tisserand dans l’équipeAnalyse/synthèse a été porté sous Max/MSP en introduisant desoptimisations mineures.Un modèle de corde et marteau de piano a été développé sousjMax dans le cadre d’un stage de fin d’études d’Eric Humbertdans l’équipe Acoustique instrumentale. L’implémentation dumodèle a été revue et un prototype a été porté sous Max/MSP.Participant : P. de la Cuadra), N. SchnellCollaborations internes : équipes Analyse/synthèse etAcoustique instrumentale6.2.5 Environnement de développement de plug-ins multistandardsCe stage avait comme objectif l’étude de différents standardsde plug-ins audio et des techniques de développement de pluginsindépendants d’un standard particulier [Goudard03a]. Letravail a été accompli en trois étapes :- Étude comparative des différents standards de plug-insexistants ;- Création d’un environnement de développement multiplateforme;- Implémentation de plusieurs plug-ins utilisantl’environnement développé.L’étude a pris en compte les standards de plug-ins audio lesplus répandus (VST, Audio Units, LADSPA, RTAS, etc.) aussibien que les environnements de programmation de la famille Max(Max/MSP, jMax, Pd). L’interface des plug-ins a été définiepar les entrés et les sorties de signal audio et lesparamètres de contrôle. Les aspects de l’interface graphiqueont été exclus.Dans le cadre du stage XSPIF (cross-standard plug-indevelopment framework), un système de traduction dedescription de plug-ins en code source pour différentsstandards de plug-ins a été développé. La description d’unplug-in en XML spécifie les entrées/sorties audio, lesparamètres et les noyaux d’implémentations des fonctions detraitement en C.Participants : R. Muller et V. Goudard (stagiaires), N SchnellCollaboration interne : F. Déchelle (équipe Logiciels libreset ingénierie logicielle)6.3 FTMUn développement majeur a été effectué avec la création de labibliothèque FTM pour Max/MSP. La bibliothèque FTMinitialement développée pour le portage du suivi de partitionsde jMax sur Max/MSP reprend le système d’objets et quelquesservices de base de jMax pour les intégrer dans Max/MSP. FTMpermet d’étendre les types de données traités et échangés parles modules de Max/MSP avec des structures complexes.Auparavant, ces données étaient limitées aux types de base(nombre, symboles, listes et matrices d’images avec labibliothèque Jitter). Les structures implémentées dans FTM lesplus utilisés dans un premier temps sont des séquences- 128 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTAPPLICATIONS TEMPS REELd’éléments de partition et des matrices optimisées pour letraitement de signal.Grâce à une extension en Java de Max/MSP en cours dedéveloppement, les éditeurs graphiques développés dans lecadre du projet jMax pourront aussi être intégrés dans FTM surMax/MSP. Une première version d’un environnement à étédéveloppée intégrant des éditeurs Java pour les objets FTMdans Max/MSP.6.3.1 Développement de la bibliothèque FTM et demodules de base pour Max/MSPLe développement de la bibliothèque de FTM a demandé unelégère ré-organisation du code source de la partie serveur dejMax, FTS. Les principaux enjeux du développement ont étédoubles :- pouvoir partager un maximum de code source entre jMax et FTM;- intégrer souplement les éléments de FTM avec les paradigmesde programmation habituel de Max/MSP, tel que l’interfacegraphique (objets et boîte de message FTM dans le patcher deMax/MSP), la gestion de la persistance (sauvegarde dedonnées FTM dans un document Max/MSP) et la dénomination desmodules.Les développements des fonctionnalités de FTM, concernant lecode source partagé avec jMax, ont fait évoluer les deuxenvironnements.FTM étant dérivé de jMax, hérite la distribution sous licencelibre LGPL (Lesser GNU Public Licence). Les sourcesspécifiques à FTM ont été intégrées au projet de développementlibre de jMax sur le site de Sourceforge(http://sourceforge.net/projects/jmax).Un premier ensemble de modules compatible Max/MSP exploitantles fonctionnalités de base de FTM a été développé à partirdes modules de jMax pour être distribué avec la bibliothèque.Une première version de FTM contentant la bibliothèque etl’ensemble d’objets de FTM a été présentée aux Ateliers Forum,documentée et distribuée sur le CD du Forum comme sur le siteInternet de l’équipe Application temps réel(http://www.ircam.fr/equipes/temps-reel/maxmsp/ftm.html).Participants : R. Borghesi, N SchnellCollaboration interne : F. Déchelle (équipe Logiciels libreset ingénierie logicielle)Collaboration extérieure : D. Zicarelli (Cycling74)6.3.2 Intégration d’éditeurs graphiques en Java pourFTM sur Max/MSPÀ partir du client graphique de jMax écrite en Java, unenvironnement qui intègre les éditeurs de jMax avec FTM dansMax/MSP a été développé. Ce développement s’appuie sur uneextension Java de Max/MSP, nommé MXJ, qui n’était pas encoredistribuée en <strong>2003</strong>. Néanmoins, l’équipe Applications tempsréel se servait de l’éditeur pour l’importation et adaptationdes partitions pour les tests du suivi de partition.En priorité un éditeur de partition adapté au suivi departition était visé. Quelques extensions mineures del’éditeur de partition de jMax ont été effectuées, anticipant- 129 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTAPPLICATIONS TEMPS REELdes développements importants planifiés pour 2004 pourcompléter les travaux sur le suivi de partition.Comme pour la bibliothèque de FTM, une grande partie du codesource est partagée entre le projet jMax et l’environnementgraphique pour FTM sur Max/MSP.Participant : R. BorghesiCollaboration extérieure : Cycling746.4 Analyse du mouvement et du gesteUn nouvel axe de recherche a été mis en place sur l'analyse dugeste. Un nouveau chercheur, Frédéric Bevilacqua, a rejointl'équipe Applications temps réel en octobre <strong>2003</strong> pourtravailler à ce projet. Dans un premier temps, une recherchebibliographique et un site Internet regroupant des ressourcessur l'analyse du geste a été réalisée.(http://www.ircam.fr/equipes/temps-reel/movement/).Les principales priorités de recherche ont été définies :analyse du mouvement dansé (développement d'un système dereconnaissance par Modèles de Markov Cachés) et gesteinstrumental (projet du violon augmenté). En particulier, deuxstages ont été proposés pour 2004 sur ces sujets.De plus, une collaboration a été établie avec l'équipeAnalyse/synthèse sur le projet « Phase ». Un étudepréliminaire, notamment, concernant des lois physiologiques dumouvement a été effectuée. La loi de la puissance deux tiers,mettant en corrélation la vitesse et le rayon de courbure d'untraçage fait à la main, a été vérifiée dans des casparticuliers.Participant : F. BevilacquaCollaborations internes: E. Fléty (Département Création, Pôlede technologies pour le spectacle vivant), J.-P. Lambert et R.Cahen (équipe Analyse/ synthèse)6.5 Développements et formations jMaxDans le cadre d’un contrat de valorisation avec le départementde Facteurs Humains de la PSA les travaux suivants ont étéeffectués :- Portage de packages de synthèse additive (additive etescher) sur jMax 4 ;- Formations sur jMax ;- Créations de programmes (patch jMax) pour la synthèseadditive de bruits moteur basée sur des mesures et desanalyses sonores de divers modèles de voitures.Le programme de synthèse élaboré pour la PSA reprend lesystème Escher développé en 1999, qui permet la synthèseadditive de segments de sons pré-analysés en interpolant lestimbres de différents segments.Participants : N. Schnell, R. Muller (stage)Collaboration interne : équipe Analyse/synthèseCollaboration extérieure : PSA6.6 Publications et communicationsActes de congrès sans comité de lecture[Orio03a] Nicola Orio, Serge Lemouton, Diemo Schwarz, Norbert Schnell,« Score Following: State of the Art and New Developments », NIME <strong>2003</strong>, NewInterfaces for Musical Expression, Montréal <strong>2003</strong>.- 130 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTAPPLICATIONS TEMPS REELRapports de recherche[Pellegrini03a] Thomas Pellegrini, Raphael Duée, Lise Georges, « Suivi deVoix Parlée grace aux Modèles de Markov Cachés », Rapport de stage DEAATIAM, IRCAM, <strong>2003</strong>.[Goudard03a] Vincent Goudard, Remy Müller, « Framework for multi-standardplug-in development », Rapport de Stage de Fin d’Etudes, INSA Lyon - IRCAM<strong>2003</strong>Colloques et séminairesDiemo Schwarz et Philippe Manoury, « Le suivi de partition : un atoutscientifique pour la création musicale » dans le cycle de conférences Etatde l'art: Découvrir les derniers développements dans différents domainesorganisé par le Département de Pédagogie de l'IRCAM, lundi 24 février <strong>2003</strong>à l’IRCAM.Norbert Schnell, Diemo Schwarz, « Temps réel et voix », Présentation àRésonances, dimanche 19 octobre à l’IRCAM.Frédéric Bevilacqua, « Analyse et Captation du Geste », Jouneé Danse etNouvelles Technologies, Résonances 23 octobre à l’<strong>Ircam</strong>.Diemo Schwarz, participation dans « ICMC <strong>2003</strong> score following panelsession », portait sur la standardisation de méthodes pour l'évaluation desystèmes de suivi de partition, avec Noel Zahler, Roger Dannenberg, CortLippe, Ozgur Izmirli, et Xavier Rodet, ICMC Singapour <strong>2003</strong>.- 131 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTLOGICIELS LIBRES ET INGENIERIE LOGICIELLE7 LOGICIELS LIBRES ET INGENIERIE LOGICIELLEResponsable : François DéchelleL’équipe Logiciels libres et ingénierie logicielle a étéconstituée en 2002 pour assurer une mission transversale decoordination des développements de logiciels libres à l’<strong>Ircam</strong>,de promotion des logiciels <strong>Ircam</strong> auprès de la communauté dulogiciel libre et pour fournir une expertise en ingénierie dulogiciel.Cette nouvelle activité répond aux objectifs suivants :- la valorisation, soutenue aux niveaux national et européen,du développement collaboratif de logiciel selon le modèlelibre ;- une diffusion élargie des travaux de l’<strong>Ircam</strong> auprès descommunautés de la recherche et du secteur industriel ;- la nécessité, pour l’<strong>Ircam</strong>, de rationaliser ses techniquesde développement logiciel et d’élargir ses plateformes dedéveloppement (Windows, Linux).Le logiciel jMax a constitué le premier projet pilote del’<strong>Ircam</strong> en matière de logiciel libre et fédère laparticipation de contributeurs de différents pays. Le projeteuropéen AGNULA, qui vise la réalisation de distributionsLinux conçues pour la production audio et musicale, concrétiseune première plate-forme illustrant cette nouvelle approche.Le second aspect de l’activité de l’équipe se centre surl'évaluation des nouvelles technologies de l'informatique etplus particulièrement les technologies des systèmesdistribués. C'est à ce titre qu'une évaluation destechnologies de grilles de calcul a été entreprise en <strong>2003</strong>.7.1 Développement de jMax7.1.1 Appel à contribution pour le développement d'uneinterface graphique basée sur PythonL'interface graphique de jMax a été développée en Java avec laplateforme Java 2 de Sun (ou son équivalent IBM).L’environnement d’exécution de Java 2 (JRE, Java RuntimeEnvironment) peut être redistributé gratuitement, mais salicence n’est pas une licence libre ce qui rend l’intégrationde jMax dans une distribution GNU/Linux basée uniquement surdes logiciels libres impossible dans sa version courante.Afin de remédier à ce problème, plusieurs alternatives ont étéenvisagées et étudiées en détail en 2002, examinant lessolutions suivantes :- solutions Java libres : gcj (front-end du compilateur GNUgcc), GNU Classpath (runtime Java libre ;- interfaces graphiques alternatives basées sur une tookitlibre.Cette évaluation a abouti à la conclusion que les solutionsJava libres n'étaient pas suffisamment matures et que la seulealternative possible était le développement d'une interfacegraphique alternative basée sur le langage Python et sur lesbibliothèques Gtk ou WxWindows.- 132 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTLOGICIELS LIBRES ET INGENIERIE LOGICIELLESuite aux négociations entre l'<strong>Ircam</strong> et les autres partenairesdu projet AGNULA impliqués (Tempo Reale en tant quecoordinateur, Free Software Fundation Europe), un appel àcontributions pour le développement d'une interface basée surPython et entièrement libre a été lancé par la Free SoftwareFundation Europe sous la responsabilité de Georg Greeve sonprésident. Cet appel a circulé sur un certain nombre de listesde diffusion (liste jMax, listes FSF, listes AGNULA) et a étémis en ligne sur les sites Web du projet.A la suite de cet appel, des volontaires se sont manifestés etont contribués en implémentant les premiers éléments de cetteinterface graphique avec le support de l'équipe.Participants : F. Déchelle, P. TisserandCollaborations extérieures : G. Greeve (Free SoftwareFundation Europe)7.1.2 Prototypage d'une interface graphique basée surPythonSuite à l'appel à contribution précédemment cité, lescontributions suivantes ont été soumises :- un développement basé sur la toolkit WxWindows (toolkitgraphique multi-plateformes utilisées par exemple dansl'éditeur de sons Audacity) et réalisé par Simon Aridis-Lang ;- un développement basé sur la toolkit Gtk (toolkit graphiqueutilisée par le bureau Gnome) et réalisé par Joe Halliwel.Ces contributions ont été intégrées dans les sources de jMaxet un accès cvs a été fourni aux développeurs de cescontributions.Le développement d’interfaces graphiques alternatives reposed’abord sur la disponibilité d’une bibliothèque-clientimplémentée dans le langage de développement de l’interfacegraphique. Une première version de la bibliothèque-client dejMax, implémentée en Python, avait été disponible fin <strong>2003</strong>.Cette version a été largement améliorée en utilisant davantagela réflexivité de Python pour aboutir à une version pluslégère et plus simple d'emploi. C'est cette version,disponible au second trimestre 2004, qui a servi de base auxdéveloppements des interfaces graphiques basées sur Python.Les développements initialement contribués par lesdéveloppeurs extérieurs ont été repris dans le cadre d'unstage ingénieur de l'Université de Compiègne. Le stage aconsisté d'abord en l'établissement d'une architecturelogicielle basée sur le design pattern MVC (Model-View-Controler). Ce type d'architecture représente maintenantl'état de l'art en matière d'architecture d'interfacesgraphiques, séparant les données (Modèle) de leurreprésentation (Vue) et de leur interface de manipulation(Contrôleur). Ce stage a permis d'aboutir à une premièreversion partiellement fonctionnelle de l'interface graphiquede jMax qui a été présentée avec succès au review meeting duprojet AGNULA en octobre <strong>2003</strong>.Participants : F. Déchelle, P. Tisserand, J. Delacroix(stage)Collaborations extérieures : S. Aridis-Lang(http://www.encoderboy.com), J. Halliwel (University ofEdinburgh)- 133 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTLOGICIELS LIBRES ET INGENIERIE LOGICIELLE7.1.3 Etude de l'utilisation de SWT/EclipseEn parallèle aux activités de développement d'une nouvelleinterface graphique basée sur Python et WxWindows ou Gtk, uneautre solution de remplacement pour le Java RuntimeEnvironment propriétaire a été expérimentée, basée sur lelangage Java et sur une autre toolkit graphique, la toolkitSWT issue du projet Eclipse.SWT (Standard Widget Toolkit) est une tookit graphique librequi fournit des composants graphiques natifs à l'environnementde développement intégré (EDI) Eclipse, avec une interface deprogrammation indépendante de la plateforme. SWT est similaireà AWT/Swing mais SWT utilise pour une large part descomposants graphiques natifs et est plus légère et plusefficace que Swing. SWT est implémenté sur Linux au-dessus dela toolkit graphique Gtk.Un programme Java utilisant SWT peut être compilé avec gcj, lecompilateur Java de GNU. Ce compilateur produit au choix ducode portable Java (ou « bytecode », fichiers.class) ou biendu code binaire natif, plus efficace que le code portable.L'utilisation de SWT en dehors de l'EDI Eclipse a été décriten détail dans une série d'articles du site développeur IBM,ainsi que la migration de Swing vers SWT. L'étude duremplacement de Swing par SWT dans jMax s'est basé sur cesarticles et a considéré en particulier les bibliothèquesDraw2D (un plug-in Eclipse qui fournit le rendu et lepositionnement des composants) et GEF (un plug-in Eclipse quifournit un framework d'édition de graphes architecturé suivantle modèle MVC).La conclusion actuelle de cette étude est que ces plug-insfournissent des fonctionnalités nouvelles et trèsintéressantes (zoom, vue réduite, feuilles de propriétésautomatiques...), mais que leur séparation de Eclipse estaujourd'hui problématique. Leur utilisation conduirait donc àremplacer l'interface graphique de jMax par Eclipse en sonentier, ce qui n'est pas envisageable pratiquement pourl'utilisateur final. Toutefois, une veille technologique surces logiciels sera maintenue afin de suivre leur évolutiontrès rapide.Participants : F. Déchelle, P. Tisserand, J. Delacroix(stage)7.1.4 Intégration avec les plug-ins LADSPALADSPA (Linux Audio Developer's Simple Plugin API, voirhttp://www.ladspa.org) est une API (interface de programmationapplicative) pour l'implémentation de plug-ins audio surLinux. Ces plug-ins peuvent être intégrés dans un grand nombred'applications « hôtes » (applications qui chargent un plug-inet appellent ses fonctions pour appliquer des traitementsaudio).L'intégration de jMax avec LADSPA se divise en :- LADSPA dans jMax : faire de jMax une application hôte LADSPAen fournissant un objet jMax qui charge et appelle un plug-inLADSPA ;- jMax dans LADSPA : réaliser un plug-in LADSPA générique quipeut tourner un patch jMax en tant que plug-in LADSPA,fournissant ainsi un moyen de développer des plug-ins plusrapide que le développement classique en C ou C++.- 134 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTLOGICIELS LIBRES ET INGENIERIE LOGICIELLEUn paquetage externe jMax a été implémenté pour fournir lapremière fonctionnalité (LADSPA dans jMax) ; ce paquetagecontient les objets ladspa_collection qui charge un plug-in etcrée une collection exploitable par le second objet, ladspa~,qui instantie et tourne un plugin à l'intérieur d'un patch.Le plug-in générique recherche les patchs jMax présents dansune liste de répertoire pré-établie et définit pour chacun despatchs trouvés un plug-in LADSPA qui peut ensuite êtreinstantié dans une application hôte. Pour être utilisable entant que plug-in, un patch doit contenir une entrée et unesortie audio ainsi que des objets param qui définiront lesports de contrôle du plug-in.Participants : F. Déchelle, P. Tisserand7.1.5 Intégration avec les plugins VSTVST est un standard de plugins développé par Steinberg. Cestandard est aujourd'hui très répandu et supporté par denombreuses applications sur Windows ou Mac OS X.Tirant parti du plugin générique LADSPA qui peut tourner unpatch jMax en tant que plugin, un plugin générique VST a étédéveloppé fournissant la même fonctionnalité. Ce plugin chargeun patch jMax et fournit des entrées et sorties audio etcontrôle au plugin en fonction des objets d'entrée et desortie présents dans le patch. Ce développement a été réalisédans le cadre d'un stage ingénieur.Participants : F. Déchelle, P. Tisserand, P.-A. Pagès (stage)7.1.6 Paquetages vidéoDes paquetages externes pour jMax dédiés au traitement de lavidéo et de l'image ont été développés à l'extérieur del'<strong>Ircam</strong> (Gridflow par M. Bouchard, vDsp par C. Klippel et E.Deleflie, DIPS par T. Rai). Ces paquetages ont été portés versl'interface de programmation d'objets externes de jMax version4 dans le cadre d'un stage de fin d 'étude.Afin d'automatiser la tâche de portage, un script Perl detraduction des objets externes utilisant l'interface deprogrammation de jMax 2.5 vers les mêmes objets utilisantl'interface de programmation de jMax 4 a été réalisé. Ilpermet de réaliser la quasi totalité du portageautomatiquement mais requiert une intervention manuelle pourune petite partie du code.Le portage de DIPS a été fait en collaboration avec sesauteurs. Le paquetage vDsp a été partiellement récrit car ilutilisait des interfaces privées de jMax. Enfin, le paquetageGridFlow a été adapté en collaboration avec son auteur.A la suite de ce stage, une version Windows de vDsp a étédéveloppée dans le cadre d'un second stage. Cette versionWindows utilise un filtre de rendu Microsoft DirectShow customet peut donc s'intégrer automatiquement dans toute applicationvidéo basée sur DirectShow.Participants : F. Déchelle, P. Tisserand, C. Seleborg(stage), P.-A. Pagès (stage)Collaborations extérieures : E. Deleflie(http://www.lalila.net), M. Bouchard (http://artengine.ca), C.Klippel (http://www.mamalala.de), T. Rai (Kunitachi College ofMusic in Tokyo)- 135 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTLOGICIELS LIBRES ET INGENIERIE LOGICIELLE7.1.7 Version WindowsLe portage de jMax sur Windows qui avait été réalisé dans lecadre du projet MusiqueLab a été mis à jour pour supporter laversion 4 de jMax. Cette adaptation a consisté essentiellementen la modification des objets d'entrée-sortie audio et MIDIpour les adapter à l'interface de programmation de la version4. Ce travail a été réalisé dans le cadre d'une contributionextérieure au développement de jMax (montrant l'intérêt del'approche logiciel libre) et dans le cadre d'un staged'ingénieur. Dans le cadre de ce stage, un paquetage jMaxspécifique pour la gestion des entrées-sorties audio à traversles drivers ASIO a été réalisé. Enfin, un installeur a étédéveloppé ; il permet à l'utilisateur final une installationsimple de jMax semblable à l'installation de la plupart deslogiciels Windows.Participants : F. Déchelle, P. Tisserand, P.-A. Pagès (stage)Collaborations extérieures : J. Myszewski (University ofBuffalo)7.1.8 Etude du portage de FTS sur plateforme embarquéeLinux prend aujourd'hui une place centrale dans le domaine del'informatique embarquée (l'informatique invisible qui tournedans les routeurs Internet, les lecteurs MP3, les voitures...et les synthétiseurs). Dans cette partie cachée de l'iceberginformatique, des firmes telles que Sony ou Yamaha ont choisiLinux (Yamaha a par exemple conclu un accord avec MontaVista,société qui développe une version embarquée de Linux). Il estdonc vraisemblable que dans quelques années, des instrumentsélectroniques contiendront un système Linux.L'architecture de jMax, d'une part, par sa séparation entreinterface graphique et moteur de traitement audio temps réelFTS, d'autre part, par la grande portabilité et la modularitédu moteur FTS, se prête particulièrement à un portage sur unearchitecture embarquée du moteur FTS. L'intérêt de cettesolution serait de proposer une boîte à outils pour ledéveloppement d'applications multimédia sur plateformesembarquées et de disposer d'une plateforme tournant FTS avecdes performances temps réel largement supérieures auxplateformes basées sur des systèmes opératoires classiques(Mac OS X, Linux, Windows).Une étude de faisabilité sur le portage de FTS surarchitecture embarquée a été réalisée dans le cadre d'un stagedu DEA Systèmes Informatiques Répartis de l'université Pierreet Marie Curie. L'architecture cible était la plateformeembarquée Jaluna, qui est la version open source du systèmeChorus (http://www.jaluna.com). La spécificité d'unearchitecture embarquée est d'une part que des fonctionnalités« normales » sur un système opératoire classique sont absentes(par exemple, chargeur dynamique, voire accès à un système defichiers) et d'autre part que ces fonctionnalités sontaccessibles via des interfaces de programmation différentes(par exemple accès aux couches réseaux). L'étude defaisabilité a permis d'isoler les parties dépendantes dusystème qui seraient à réimplémenter dans le noyau de FTS etde montrer que l'architecture de FTS réduisait largement ladépendance vis-à-vis du système opératoire, rendant donc leportage sur une architecture embarqué relativement facile.- 136 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTLOGICIELS LIBRES ET INGENIERIE LOGICIELLEParticipants : F. Déchelle, P. Tisserand, J. Brulé (stage)Collaborations extérieures : E. Gressier (CNAM/CEDRIC), F.Armand (société Jaluna)7.1.9 DistributionsLes distributions suivantes de jMax ont été réalisées en <strong>2003</strong>:- version 4.0.1 (9 février <strong>2003</strong>) pour plateformes Linux et MacOS X ;- version 4.0.2 (4 mars <strong>2003</strong>) pour plateformes Linux et Mac OSX.A compter de la version 4.0.1, jMax pour plateforme Linux aété distribué sous forme de plusieurs paquetages conformémentà l'accord signé avec Tempo Reale et la Free SoftwareFundation Europe (voir ci-dessus) afin de séparer la partielibre de la partie dépendante d'un logiciel propriétaire(Java).Ces distributions ont été intégrées dans les distributionsRehMuDi et DeMuDi du projet AGNULA, le paquetage Debian étantune contribution extérieure réalisée par Paul MathieuBrossier.Afin d'aider le développement de paquetages externes pourjMax, un paquetage modèle a été développé et distribué. Cepaquetage comprend :- une chaîne de compilation basée sur les outils Linuxstandards autoconf/automake ;- des macros autoconf m4 pour le support de jMax ;- des exemples de codes sources de paquetages jMax ;- un fichier .spec de définition de paquetage RPM afin d'aiderle paquetage pour les distributions Linux basées sur leformat de paquetage RPM.Participants : F. Déchelle, P. TisserandCollaborations extérieures : A. Glorioso (Tempo Reale/AGNULA),P.-M. Brossier (Queen Mary University of London), C. Nguyen-Ngoc (RedHat France/AGNULA)7.2 OpenMusic7.2.1 Portage d’OpenMusic sur LinuxUne première version d'un portage d’OpenMusic sur Linux étaitdisponible au démarrage de ce projet, réalisé dans l'équipe deCamillo Rueda à l'université de Cali( http://escher.puj.edu.co/openmusic ). Ce portage était basésur la version 3 d’OpenMusic alors que la version courante àl'<strong>Ircam</strong> était la version 4. Ce portage utilisait la versionCMUCL de Common Lisp, développée à l'université Carnegie-Mellon.Les développeurs qui ont réalisé ce premier portage (GerardoSarria et Jose Diago) ont été invités à l'<strong>Ircam</strong> pour intégrerleur travail dans la version courante d’OpenMusic et pour lecompléter en vue d'une distribution dans le projet AGNULA.Les travaux réalisés ont été les suivants :- fusion du code Linux dans la version courante d’OpenMusic(4.7 à l'instant du démarrage des développements) ;- complétion de l'intégration avec le noyau de CMUCL ;- complétion de la couche graphique ;- 137 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTLOGICIELS LIBRES ET INGENIERIE LOGICIELLE- lien avec la plateforme audio et MIDI native ;La couche graphique utilisée dans le portage est bâtie audessusde la toolkit Gtk et utilise les « ponts » (bindings)Gtk pour CMUCL. Afin de récrire le minimum de coded’OpenMusic, une émulation de la toolkit MCL (Macintosh CommonLisp) a été implémentée au-dessus de l'interface deprogrammation Lisp de Gtk. Suite à une première implémentationprésentant un certain nombre de problèmes fonctionnels, uneseconde implémentation basée sur l'utilisation du composantGtkCanvas a été réalisée. Cette implémentation a nécessité ledéveloppement de nouveaux ponts avec CMUCL, développements quiont fait l'objet de contributions au projet de développementlibre CLG (CommonLisp Gtk bindings).OpenMusic utilise les drivers MIDI natifs de la plateformepour jouer et enregistrer des événements MIDI ainsi que pourcharger et écrire des fichiers MIDI. Sur Mac OS, l'interfacelogicielle d'accès au MIDI est MidiShare. MidiShare a étéporté sur Linux par ses concepteurs, ce qui a simplifiélargement le développement.Enfin, le développement des éditeurs d’OpenMusic (chord,chordseq, bpf, maquette) a été réalisé, basé sur labibliothèque Gtk et les ponts entre Gtk et CMUCL. Les éditeursd’OpenMusic ne sont pas entièrement portés sur Linux, maisfournissent déjà une interface suffisante pour faire tournerles tutoriels existants pour la version Macintosh.Ce développement a été l'occasion de réarchitecturer le coded’OpenMusic afin d'isoler les couches dépendantes de laplateforme, suivant en cela les principes qui avaient étédégagés dans le développement de jMax afin de réaliser unlogiciel multi-plateforme.Participants : F. Déchelle, P. Tisserand, G. SarriaCollaboration interne : équipe Représentations musicales7.2.2 Projet SourceforgeAfin de donner davantage de visibilité au projet et defaciliter les contributions extérieures, un projet sur leportail Sourceforge (http://sf.net) a été créé pour OpenMusic(http://sourceforge.net/projects/ircam-openmusic). Le coded’OpenMusic a été intégré dans CVS sur le serveur mis àdisposition par sourceforge et est désormais maintenable sousCVS.Participants : F. Déchelle, P. Tisserand, G. SarriaCollaboration interne : équipe Représentations musicales7.2.3 DistributionsLa première version d’OpenMusic sur Linux basée sur la version4 et sur le code intégré avec la version Macintosh a étédistribué en août <strong>2003</strong>. Cette distribution était réalisée sousforme source uniquement, nécessitait une recompilation etn'était pas intégrée avec les mécanismes de gestion depaquetages présents dans les distributions Linux.Afin de proposer OpenMusic sous une forme facile à installeret pouvant être intégrée dans les distributions AGNULA ou dansPlanet CCRMA (collection de paquetages rassemblant un grandnombre d'applications musicales et audio Linux précompiléespour distributions RedHat, développée par le CCRMA àStanford), un paquetage pour OpenMusic a été développé par- 138 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTLOGICIELS LIBRES ET INGENIERIE LOGICIELLEl'équipe. Pour ce développement, la chaîne de compilationd’OpenMusic a été réimplémentée en utilisant les outils Linuxstandards (automake/autoconf). Un paquetage pour distributionsRedHat a été disponible dans les premiers jours de 2004.Participants : F. Déchelle, P. Tisserand, G. SarriaCollaboration interne : équipe Représentations musicalesCollaborations extérieures : F. Lopez-Lezcano (CCRMA), A.Glorioso (Tempo Reale/AGNULA), C. Nguyen-Ngoc (RedHatFrance/AGNULA)7.3 Grilles de calculLe grid computing peut être défini comme une mise en commungrâce à Internet de la puissance de calcul et de la capacitéde stockage des ordinateurs pour constituer des grilles decalcul au niveau d'une entreprise ou d'un centre de recherche,voire d'un pays ou d'un continent. Cette technologie, de plusen plus utilisée dans les centres de recherche et dansl'industrie, bénéficie d'un fort soutien industriel, parexemple de la part d'IBM. Le paradigme du grid computing estl'hétérogénéité des plateformes connectées et lesdéveloppements reposent donc sur des standards indépendantsdes systèmes et des constructeurs.Cette technologie peut offrir plusieurs possibilités auxcompositeurs :- puissance de calcul et capacité de stockage : l'<strong>Ircam</strong>dispose d'un parc de l'ordre de plusieurs centaines demachines Linux ou Mac OS X ; connecter ces machines dans unegrille de calcul interne fournirait aux chercheurs et auxcompositeurs une ressource en puissance de calcul et enstockage sans commune mesure avec la puissance et lacapacité disponibles sur un ordinateur personnel ;- accès à des logiciels ne fonctionnant pas sur l'ordinateurpersonnel du compositeur (par exemple logiciels tournant surLinux) en supprimant la nécessité d'installer tous ceslogiciels localement.Plusieurs applications "gourmandes" en puissance de calculsont susceptibles de bénéficier de cette technologie :Modalys, PSOLA. De manière plus générale, toutes lesapplications effectuant un traitement en parallèle sur denombreux échantillons sonores peuvent être accélérées dans unfacteur important en les adaptant à un fonctionnement sur unegrille de calcul.7.3.1 Installation de Globus ToolkitLa toolkit Globus (http://www.globus.org) est l'implémentationde référence du standard d'architecture de grille (OGSA: OpenGrid Service Architecture). Cette toolkit est devenue lestandard en matière de middleware pour la réalisation degrilles de calcul et est aujourd'hui largement utilisée.Toutefois, cette toolkit est un logiciel particulièrementcomplexe et volumineux (plusieurs centaines de méga-octetsaprès installation). Afin d'acquérir une connaissance pratiquedes technologies de grid computing, une installationexpérimentale de la toolkit Globus sur les machines del'équipe a été réalisée. Cette installation s'est appuyée surune documentation détaillée écrite et diffusée librement parIBM.- 139 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTLOGICIELS LIBRES ET INGENIERIE LOGICIELLEDans une perspective d'évolution et de simplicité demaintenance de notre grille expérimentale, des procéduresd'installation semi-automatique ont été créées, celles-cipermettront le cas échéant de rajouter facilement des unitésde calcul dans la grille.Notre grille expérimentale se compose actuellement de 5machines GNU/Linux et passe avec succès les tests devalidation fonctionnelle d'un déploiement de la toolkitGlobus.Participants : F. Déchelle, P. Tisserand, J. Delacroix(stage)7.3.2 Développement d'un portail webAfin de permettre une utilisation plus aisée de la grille decalcul basée sur la toolkit Globus, un portail Web d'accès àcette grille a été développé et mis en place.Ce portail permet aux utilisateurs authentifiés de soumettredes « jobs » (traitements) sur la grille. Les jobs sontdispatchés sur les machines selon un algorithme prenant encompte les caractéristiques hardware ainsi que lescaractéristiques software dynamique des machines.Le portail est exploitable sur la machine client à l'aide d'unsimple navigateur Web et de ce fait accessible par lessystèmes d'exploitation les plus courants: Windows, GNU/Linuxet Mac OS X.Les tests ont été jusqu'à présent réalisés avec le logicielHMM de l'équipe Analyse/synthèse et une poursuite avec lelogiciel Modalys de l'équipe Acoustique instrumentale estenvisagée.Participants : F. Déchelle, P. Tisserand, J. Delacroix(stage)Collaboration interne : équipe Analyse/synthèse7.4 Concert virtuel répartiDans le cadre d'une collaboration avec le CNAM, desexpérimentations ont déjà été entreprises dans le domaine dustreaming audio temps réel haute qualité sur Internet. Cestechnologies peuvent être appliquées à la transmission de fluxaudio temps réel entre interprètes (concert en réseau) ou à ladiffusion en haute qualité et en multi-canaux de concerts,mais ne se limitent pas à cette application.Le projet du Concert virtuel réparti vise à répartir chaqueacteur d'un concert musical (les musiciens, l'ingénieur du sonainsi que le public) sur Internet. Toutes les personnesparticipant à cette performance sont géographiquement séparéeset communiquent par streaming audio sur Internet. Lescontraintes techniques sont les suivantes :- les musiciens doivent tous s'entendre mutuellement ;- le son transporté sur le réseau doit être du sonéchantillonné de haute qualité (PCM, 44100Hz ou 48000Hz, 16ou 24 bits) et multi-canaux ;- le transfert des flux audios doit se faire en multicast ;- la musique produite doit-être synchrone : les musiciensdoivent être capables de jouer leur musique ensemble enconservant une interaction ;- 140 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTLOGICIELS LIBRES ET INGENIERIE LOGICIELLE- l'ingénieur du son doit pouvoir contrôler les flux audio dechaque musicien (balance, volume, position dans l'espace...);- le public doit pouvoir assister au concert en direct surInternet.Ce projet est mené en collaboration avec le CEDRIC, Centre deRecherche en Informatique du CNAM7.4.1 Développement de la bibliothèque nJam pour jMaxDes objets pour le streaming de flux audio temps réelutilisant le protocole RTP avaient été développés en 2002 dansle cadre d’un stage du DEA « Réseaux » du CNAM. Ce prototype amontré des performances intéressantes (latence estimée àenviron 30 millisecondes sur un réseau local) et a permisd’approcher les problèmes de synchronization des horloges etde compensation de la gigue de latence.Ces développements se sont poursuivis en <strong>2003</strong>, introduisant enparticulier l'algorithme de synchronisation distribué qui aété développé par N. Bouillot dans le cadre de sa thèse : dansun concert réparti, les musiciens sont physiquement répartismais doivent jouer "virtuellement ensemble" en temps réel,chacun d'eux envoyant son flux audio en multicast qui serareçu par les autres. Pour jouer ensemble, le retour ainsi quel'écoute des autres musiciens se fait grâce à un mécanisme quipermet de resynchroniser tous les flux audio des musiciens surun même tempo en les retardant d'une durée variable et adaptéesuivant les latences du réseau ; les musiciens joueront alorsen avance par rapport à ce qu'ils entendront mais pourrontjouer de la musique à plusieurs de façon synchronisée.Cet algorithme ainsi que les objets de streaming temps réelutilisant le protocole RTP ont été implémentés dans lepaquetage nJam pour jMax. Ce paquetage est un logiciel libredisponible sous licence LGPL.Participants : F. Déchelle, P. TisserandCollaborations extérieures : E. Gressier, N. Bouillot(CNAM/CEDRIC)7.4.2 Expérimentation à Résonances <strong>2003</strong>Une expérimentation d'un concert réparti a été tentée lors deRésonances <strong>2003</strong>. Les lieux de concert étaient le CNAM etl'<strong>Ircam</strong>, reliés par les réseaux Renater et Rap. Le multicastétait implémenté par un tunnel et un routeur logiciel, enl'absence de déploiement du multicast natif. L'architecturelogicielle était bâtie à partir de jMax et de la bibliothèquenJam décrite ci-dessus, le tout fonctionnant sur plateformesLinux.Le fonctionnement en répétition a été satisfaisant, permettantaux musiciens l'apprentissage du dispositif maisl'expérimentation n'a pu être répétée durant le week-endPortes Ouvertes suite à des problèmes réseaux. Néanmoins,cette expérimentation a permis de valider l'approche et amontré également qu'il était indispensable pour ce type deréalisations de disposer d'une part d'un routage multicastnatif et d'autre part d'un routage à qualité de service. Cetteexpérimentation sera reprise ultérieurement en fonction del'avancement des projets de financement.Participants : F. Déchelle, P. Tisserand- 141 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTLOGICIELS LIBRES ET INGENIERIE LOGICIELLECollaboration interne : Service informatiqueCollaborations extérieures : E. Gressier, N. Bouillot, H.-N.Locher, R. Bonafous, S. Ramachandra (CNAM/CEDRIC), R.Quenehen, C. Lebrun, S. Choinier, J. Bloit (quartet KumQuat)7.5 Site Web freesoftware.ircam.frUn site Web dédié aux logiciels libres de l'<strong>Ircam</strong> a étédéveloppé par l'équipe. Ce site présente aussi le projetAGNULA, les sites miroirs qui sont hébergés ainsi que d'autresressources utiles dans le domaine des logiciels libres pourl'audio et la musique.Ce site a été mis en ligne fin mai <strong>2003</strong>. Il peut être visité àl'adresse suivante : http://freesoftware.ircam.frCe site a été réalisé avec SPIP, logiciel libre de publicationweb, développé par le collectif Uzine (http://www.spip.org).Ce logiciel, déjà utilisé pour d'autres sites web <strong>Ircam</strong>,permet en particulier la publication coopérative d'articles etde brèves.Le contenu de ce site web est le suivant :- logiciels libres de l'<strong>Ircam</strong> : jMax, OpenMusic et SDIF. Lesinformations fournies concernent : description deslogiciels, téléchargement, liste de diffusion, accès CVS,bibliographie, documentation, liens utiles...- projet AGNULA : description du projet, liens vers lesdistributions disponibles ;- miroirs : accès aux différents miroirs hébergés (PlanetCCRMA, AGNULA) ;- projets : les projets de l'équipe « Logiciels libres etingénierie logicielle », concert virtuel réparti et grillesde calcul.Les statistiques fournies par SPIP montrent que ce site a reçuenviron 3000 visites durant le mois de décembre <strong>2003</strong>.Participants : F. Déchelle, P. TisserandCollaboration interne : Service informatique7.6 Résonances <strong>2003</strong>7.6.1 Linux install partyL'équipe « Logiciels libres et ingénierie logicielle » aorganisé durant le festival Résonances <strong>2003</strong> une « installparty » Linux dédiée aux logiciels libres pour la musique etle son.Le principe de fonctionnement d'une « install party » Linuxest simple : les personnes invitées viennent avec leurmatériel et des experts installent pour eux Linux sur leurordinateur.Durant cette install party, les distributions AGNULA ainsi queles paquetages Planet CCRMA étaient proposés à l'installationpour les participants.Cette install party a été un grand succès : environ unevingtaine de personnes sont venus pour une installation Linux.Les développeurs du projet AGNULA ainsi que Fernando Lopez-Lezcano, responsable du système informatique au CCRMA etcréateur du site Planet CCRMA, étaient présents. Le retour despersonnes ayant bénéficié d'une installation Linux était trèspositif.- 142 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTLOGICIELS LIBRES ET INGENIERIE LOGICIELLEParticipants : F. Déchelle, P. Tisserand, J. Delacroix(stage), P.-A. Pagès (stage)Collaborations internes : Service informatiqueCollaborations extérieures : F. Lopez-LescanoGlorioso, N. Giosmin (Tempo Reale/AGNULA)(CCRMA), A.7.6.2 Colloque « Logiciels libres pour la musique »L'équipe a organisé durant les journées Résonances <strong>2003</strong> uncolloque intitulé « Logiciels libres pour la musique ».Ce colloque proposait du point de vue des utilisateurs unpoint sur les logiciels libres dans le domaine musical etaudio professionnel, sur l'évolution de Linux vers plus defacilité d'utilisation, sur les compatibilités avec leséquipements audio, les drivers audio et MIDI. Des exemplesconcrets d'utilisation de logiciels libres dans le contexte dela création musicale étaient présentés.Cette journée a connu un bon succès avec une assistanced'environ 50 personnes. Il a été aussi l'occasion de nouer descontacts avec des personnes venues y assister.La liste des conférenciers invités et des titres desconférences est donnée ci-dessous :- Les logiciels libres, Philippe Aigrain- Une visite guidée des logiciels musicaux sur Linux, FrançoisDéchelle, Patrice Tisserand- Les logiciels libres à l'<strong>Ircam</strong> - jMax, François Déchelle,Patrice Tisserand- OpenMusic pour Linux, Jose Fernando Diago Rivera, KarimHaddad, Gerardo Sarria- Soft landing on Planet CCRMA, Fernando Lopez-Lezcano- Le projet AGNULA, Nicola Bernardini- The AGNULA Demudi distribution, Andrea Glorioso- La distribution AGNULA Rehmudi, Franz Meyer, Can Nguyen Ngoc- Quelques expériences avec les logiciels libres autour detrois oeuvres, Yann Orlarey- Présentation des logiciels libres développés au SCRIME,Myriam Desainte-Catherine- DIPS for Linux, Takayuki RaiLes présentations ainsi que les enregistrements desinterventions sont disponibles en ligne à l'adresse suivante :http://freesoftware.ircam.fr/article.php3?id_article=65Participants : F. Déchelle,(stage), P.-A. Pagès (stage)P. Tisserand, J. Delacroix7.7 DisséminationUne part importante des activités du projet AGNULA estconsacrée à la dissémination sous forme de participations àdes colloques, séminaires, conférences ou événements afin depromouvoir l'usage du logiciel libre dans le domaine de lacréation musicale.Dans ce cadre, l'équipe a participé aux événements suivantspour présenter les logiciels libres de l'<strong>Ircam</strong> et le projetAGNULA :- Présentation du projet AGNULA lors des soirées thématiquesde l'association I3C (Paris, mars <strong>2003</strong>)- 143 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTLOGICIELS LIBRES ET INGENIERIE LOGICIELLE- Participation aux premières rencontres mondiales « LinuxAudio Development » (Karlsruhe, mars <strong>2003</strong>)- Participation aux « Samedis du libre » (Paris, juin <strong>2003</strong>)- Participation au workshop BYOL (« Bring Your Own Laptop »)organisé par le projet AGNULA (Prato , Italie, juillet <strong>2003</strong>)- Participation à la conférence Modular <strong>2003</strong> (Londres,septembre <strong>2003</strong>)- Participation à « International Workshop on Free Softwareand Research (Compiègne, décembre <strong>2003</strong>)7.8 Publications et communicationsActes de congrès avec comité de lecture[Locher03a] Locher, H.N., Bouillot, N., Becquet, E., Déchelle, F.,Gressier-Soudan, E., « Monitoring the Distributed Virtual Orchestra with aCORBA based Object Oriented Real-Time Data Distribution Service »,International Symposium on Distributed Objects and Applications (DOA),Catania, <strong>2003</strong>Actes de congrès sans comité de lecture[Dechelle03a] Déchelle, F., « Various IRCAM free software: jMax andOpenMusic », Linux Audio Developers Meeting, Karlsruhe, <strong>2003</strong>[Dechelle03b] Déchelle, F., Tisserand, P., « Free software at IRCAM: jMax,OpenMusic », AGNULA - Bring Your Own Laptop Workshop, Prato, <strong>2003</strong>[Dechelle03c] Déchelle, F., « The jMax environment », Modular <strong>2003</strong>,Londres, <strong>2003</strong>[Dechelle03e] Déchelle, F., Tisserand, P., « The AGNULA project. Freesoftware developments at IRCAM. », International Workshop on Free Softwareand Research, Compiègne, <strong>2003</strong>Travaux universitairesMémoires de maîtrise, DEA et d’écoles d’ingénieurs[Brule03a] Brulé, J., « Etude de la faisabilité du portage de l'applicationde traitement audio-numérique jMax sur le système temps réel Jaluna2/RT »,Université Pierre et Marie Curie, <strong>2003</strong>. [DEA Systèmes InformatiquesRépartis][Pages03a] Pagès, P.A., « Portage de VideoDSP sous environnement Win32.Développement d'un filtre de rendu Microsoft DirectShow custom. », EcoleSupérieure d'Informatique de Paris, <strong>2003</strong>. [Mémoire de stage d'ingénieur][Seleborg03a] Seleborg, C., « Intégration de traitements video dans jMax »,Université Paris-Dauphine, <strong>2003</strong>. [Maitrise Génie Mathématique etInformatique]Rapports de recherche[Sarria03a] Sarria, G., Diago, J.F., « OpenMusic for Linux and MacOS X »,<strong>2003</strong>Colloques et séminaires[Dechelle03d] Déchelle, F., Tisserand, P., « Une visite guidée deslogiciels musicaux sur Linux. », Logiciels libres pour la musique -Résonances <strong>2003</strong>, Paris, <strong>2003</strong>[Dechelle03f] Déchelle, F., Tisserand, P., « Les logiciels libres àl'<strong>Ircam</strong>. jMax. », Logiciels libres pour la musique - Résonances <strong>2003</strong>,Paris, <strong>2003</strong>Rapports de recherche[Sarria03a] Sarria, G., Diago, J.F., « OpenMusic for Linux and MacOSX »,<strong>2003</strong>- 144 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNE8 SERVICES EN LIGNEResponsable : Pascal MullonL’événement majeur de l’année de <strong>2003</strong> a bien sûr été, pourl’équipe, l’achèvement du projet Cuidado. Rappelons en effetque l’équipe Services en ligne avait été créée en 2001,précisément dans le cadre de ce projet, afin d’y prendre encharge tous les aspects liés au développement logiciel, desbases de données jusqu’aux interfaces graphiques. Le projetCuidado concentrait ainsi toute l’activité de l’équipe, enmême temps qu’il en assurait l’existence matérielle. La fin del’année <strong>2003</strong> posait donc un jalon décisif dans l’avenir del’équipe Service en ligne.Mener à bien la dernière phase du projet Cuidado, pérenniserl’équipe en anticipant la poursuite de nos travaux dans lecadre de nouveaux projets : telles furent les deux directionsmajeures de notre activité durant l’année <strong>2003</strong>.8.1 Finalisation du projet Cuidado : la Sound PaletteIILe second semestre de l’année 2002 a vu la confrontation despremières versions des applications de Cuidado auxutilisateurs. Une somme importante d’informations d’ordrefonctionnel a été ainsi recueillie, analysée, et rapprochéed’éléments techniques ou scientifiques. Cette étude critiquedes prototypes applicatifs de Cuidado, et en particulier de laSound Palette de première génération (« Sound Palette I », ou« SPI »), nous a mené, à la fin de l’année 2002, à revisiterprofondément la conception de cette application.En effet, les conclusions de cette phase de retours d’usage,par delà les remarques directement liées à l’ergonomie del’application, nous ont semblé avoir une portée plus large :les usages de telles bases de données étaient divers, de mêmeque leurs utilisateurs. Tenter de satisfaire les besoins dechacun au travers une application unique, universelle, étaitprobablement illusoire. L’objectif de la re-conception de laSound Palette était donc moins de changer le dessin d’uneicône ou d’ajouter le support d’un nouveau formataudionumérique que de parvenir à un système ouvert, générique,évolutif, auquel de nouvelles applications, éventuellementdéveloppées par d’autres équipes, pourraient se connecter.Cette approche vise aussi, très clairement, à ouvrir despossibilités de valorisation et de réutilisation en internedes développements effectués pour le projet Cuidado.Cette re-conception visait aussi deux autres objectifsprincipaux : d’une part, grâce à une plus grande modularité dusystème, fournir une assise architecturale permettant dedistribuer les compétences et contributions des partenaires duprojet Cuidado selon une répartition technique bien définie,chaque composant pouvant être conçu, testé, mis à jour defaçon relativement indépendante de ses voisins ; d’autre part,anticiper, à tous les niveaux du système (et particulièrementau niveau de la base de données), les problématiques liées aucorpus musicaux (la Sound Palette ne s’intéresse qu’auxéchantillons), qui furent rapidement pressenties dans le cadredu montage du projet SemanticHiFi.- 145 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNEEn conclusion, cette re-conception était, en premier lieu,d’ordre architectural (organisation et interaction desdifférents composants du système, modélisation logique desdonnées). À ce titre, elle s’apparentait très clairement à unerefonte quasi-totale du système : l’année <strong>2003</strong> consistait,pour simplifier, à tout « refaire » de façon plus modulaire,plus générique, plus réutilisable. Ces travaux ont impactétous les domaines d’activité de l’équipe ; nous les déclinonsun à un ci-dessous.8.1.1 Gérer en ligne les données audionumériquesFonctionnellement, il s’agit ici de pouvoir gérer une base defichiers audionumériques présentant les caractéristiquessuivantes :- Assurer la gestion des situations non triviales où uneentité sonore ou musicale est représentée par plusieursfichiers (même contenu représenté dans des formatsaudionumériques différents, différentes voies d’un mêmeenregistrement stockées dans des fichiers différents,fractionnement en scènes, mouvements, etc. d’une mêmeoeuvre) ;- Cette base n’est pas figée : elle doit pouvoir croître, enparticulier par des ajouts de nouveaux échantillons de lapart les utilisateurs du système. La première conséquence decela est que la quantité de données gérées par la base doitpouvoir augmenter sans remise en cause majeure de sonarchitecture (solutions de stockage extensibles) ;- Un des objectifs majeurs de cette partie du système estd’affranchir l’utilisateur de tous les problèmes deconversion de format audionumérique ;- Les deux points précédents conduisent à la conclusionsuivante : aucune hypothèse ne peut être faite, a priori,sur le format audionumérique des données gérées par la base,ni sur le nombre de canaux, la fréquence d’échantillonnagedes échantillons, etc. L’intégration de fonctions deconversion, appelées automatiquement en fonction du formatstocké et du format demandé, doit masquer ces problématiquesà l’utilisateur final ;- Si l’on souhaite mettre en place un système capabled’accepter des œuvres musicales, aucune hypothèse ne peutêtre faite sur la durée des enregistrements gérés dans lesystème. L’accès séquentiel aux données, du début à la fin,devient insuffisant, et la lecture doit pouvoir s’effectuerdepuis une date donnée, et par segments.La combinaison des deux derniers points conduit à desproblèmes techniques sérieux : le dernier point impliquequ’aucune limite ne peut être présupposée sur la taille desfichiers audionumériques manipulés. Dans un tel contexte,seule la transmission de données par streaming est unetechnologie viable : le passage par un ou plusieurs fichiersintermédiaires (par exemple pour effectuer une opération deconversion) induirait des temps de réponse désastreux. Un telstreaming n’a de sens que si les conversions de format, rééchantillonnage,opérations de mixage des canaux, etc., sontelles-aussi intégrées, pour les mêmes raisons, dans cetraitement streamé.In fine, le système idéal doit, très simplement, acceptern’importe quel type de fichier audionumérique « de n’importe- 146 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNEquel format » ; il doit être possible de demander n’importequel segment dans un tel enregistrement, dans un autre format,avec un mixage différent, etc. Les données sonores sont alorsobtenues, au terme d’un délai acceptable (quelques secondes)sous la forme d’un flux qu’il est possible de stocker dans unfichier (download), ou de jouer directement (streaming mp3).Il est clair que de telles spécifications suffiraient àoccuper un développeur pendant une année entière (elles sontmême en partie inatteignables, certains formatsaudionumériques étant, par nature, incompatibles avec uneinterprétation séquentielle des données). Cependant, nousavons tenté, dans le cadre de la Sound Palette II, de nousapprocher de cet idéal au travers le sous-système « SOFIE »,qui supporte la plupart des formats audionumériques courants,la plupart des combinaisons de conversions envisageables entreeux, et des fonctions de mixages majoritairement réalisées surles flux de données au moment de leur transmission, sansfichier intermédiaire.Le sous-système SOFIE est en Java. Il s’appuie entre autressur le JMF (Java Media Framework). Son interface est fondéesur les sockets Linux. Les données autres qu’audionumériques(format audio demandé au download, etc.) sont exprimées enXML, lequel s’appuie essentiellement sur la norme MPEG7(définition des formats audio, segments demandés au downloadou en pré-écoute, etc.).8.1.2 Organiser et décrire le sonC’est bien sûr ici un des objectifs principaux des projetstels que Cuidado ou SemanticHiFi. Les points suivants,essentiellement issus de l’expérience fournie par la SoundPalette de première génération, nous semblent importants àsignaler :- Nécessité de déconnecter ce volet du précédent (gestion enligne des données sonores) : la description du matériausonore ou musical peut (doit) être faite indépendamment dela ou des représentations numériques de ce matériau : enparticulier, le système doit être capable d’accepter desdescriptions d’échantillons pour lesquels il ne dispose pasde représentation audionumérique. Sans une telledistinction, il devient impossible, par exemple, d’utiliserle système comme catalogue en ligne d’une based’échantillons disponibles sur CD-ROMs, ou bien ailleurs surl’Internet ;- Distinction entre organisation et description. Dans lapremière Sound Palette, le même type de structurearborescente permet de classer les échantillons à des finsde gestion (partage en ligne, classement par œuvre, etc.) etd’effectuer la description du contenu (définitions declasses, comme « violon », « profil mélodique ascendant »,etc.). Cette homogénéité de traitement trouve ses limitesdans le fait que, tandis que le classement est associé à desinteractions qui doivent être disponibles pour tout typed’utilisateur (au moins sur ses échantillons personnels), ladescription relève davantage d’un outil d’édition dedescriptions audio, et convoque toutes sortes d’expertises(musicologique, organologique, scientifique…) : organisationet description relèvent d’applications, d’utilisateurs etd’objectifs différents ;- 147 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNE- Replacée dans le contexte d’une application en ligne, oùl’édition de données complexes depuis l’Internet se heurterapidement à de sérieux problèmes technologiques, cettedistinction prend une grande importance, car elle permetd’adapter les choix technologiques aux exigences biendistinctes de chacun de ces types de contextes applicatifs.Cette souplesse dans le choix des solutions techniquesapplicatives est bien sûr à rapprocher de considérationsd’ordre architectural (flexibilité du système en terme derépartition des traitements entre poste client et serveurscentraux) ;- Les problématiques de classement sont relativement simples àrésoudre, entre autres parce que le système classique derépertoires et de fichiers fournit un modèle à la foisfamilier à l’utilisateur et pouvant être simulé depuis unebase de données ;- Le domaine de la description proprement dite, en revanche,débouche sur une grande variété de problématiques. Toutd’abord, la description ne s’attache pas toujours au contenu(origine, généalogie des échantillons), même si c’est cevolet qui est mis en exergue dans les projets qui nousintéressent. Par ailleurs, les « descripteurs » présententun grand polymorphisme : certains sont numériques, d’autressont des étiquettes (« ceci est un violon ») qu’on peutchoisir de représenter par un libellé textuel (dans quellelangue ?), une icône, etc. De telles étiquettes demandent engénéral à être organisées entre elles (« violon » est dans« instrument de musique », etc.) au sein de réseaux de typesémantique. Enfin, il existe des descriptions textuelleslibres, qui sont le moyen le plus direct de décrire un son,qui soulèvent aussi des problèmes liées à la langue, et quenous avons essayé de lier aux étiquettes évoquées ci avant.- En définitive, ces différentes approches, qui correspondentsouvent à différents types de données distincts (sonsinstrumentaux, bruitages, etc.), doivent impérativement êtrefédérées dans une modélisation unique de l’information… Sansquoi il devient impossible de mettre en place une base dedonnées unique, et des recherches explorant l’ensemble desdonnées qui nous intéressent. Une telle fédérationd’approches se fait en distinguant, dans les données à gérer(les descripteurs, en l’occurrence), le générique duspécifique, et en tentant de fonder la modélisation desdonnées sur des notions génériques, valables dans tous lescas connus (et permettant d’espérer une bonne réactivité dusystème face à des situations nouvelles, comme par exemplede nouveaux descripteurs ou de niveaux types de contenussonores). Les spécificités sont alors présentes, nonimplicitement dans la structure même du modèle, mais commedes données proprement dites, stockées en base.Classiquement, plus la modélisation des données tend vers lagénéricité et l’abstraction, plus les problèmes deperformances sont susceptibles d’apparaître au niveau de labase de données.L’ensemble de ces problématiques est pris en charge par unsous-système de notre architecture dénommé MEDEE.La question d’une modélisation des descriptions audio fondéesur Mpeg7 s’est toujours posée, en particulier parce que lesactivités de recherche effectuées dans le cadre de Cuidado- 148 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNEentretiennent un rapport étroit avec le processus dedéfinition de cette norme. Elle a été écartée lors dudéveloppement de la SPI, à cause de l’incompatibilité entre lacomplexité de cette entreprise et les limitations du planningde développement de cette première version (nécessité pourl’équipe tout juste constituée d’atteindre une premièreapplication en huit à dix mois). La question c’est reposée ànouveau fin 2002 ; une étude approfondie de la norme Mpeg7 aété menée, selon une grille d’évaluation technique(faisabilité d’une base de données fondée sur Mpeg7) etfonctionnelle (Mpeg7 permet-il de satisfaire les requêtes denos utilisateurs ?). Au vu de cette étude, il a été décidé defonder sur Mpeg7 la structuration logique des descriptionsgérées dans MEDEE. [Jacob03a] donne une synthèse des élémentsde Mpeg7 utilisés dans MEDEE, et de ceux qu’il nous a falluétendre ou abandonner, en expliquant ces choix au vu desbesoins des utilisateurs, tels que nous les connaissons.Les avantages de Mpeg7 sont nombreux :- tout d’abord, c’est une norme mûrement pensée et très riche,porteuse d’une expertise dont nous pouvons espérer tirergrand profit. Elle offre des solutions conceptuelles àbeaucoup de problèmes que nous avons pu nous poser au coursdu développement de la Sound Palette de première génération.Replacé dans le cadre de la suite des travaux de l’équipe,et de ce qui allait devenir le projet SemanticHiFi,l’utilisation de Mpeg7 permet d’espérer une bonneréutilisation des développements de Cuidado dans ce nouveauprojet ;- Spécifié de façon publique, et s’appuyant sur unetechnologie (XML) pour laquelle de plus en plus de produitslogiciels génériques apparaissent, Mpeg7 est a priori ungage d’ouverture de notre système sur l’extérieur :comprendre Mpeg7, cela signifie, si ce format arrive à êtreadopté par une communauté, être capable de publier oud’importer des données avec cette communauté ;- A plus court terme, Mpeg7, norme connue des acteursscientifiques du projet Cuidado, nous a servi de languecommune durant la spécification des échanges de donnéesentre les modules développés par les différents partenaires.L’existence d’une telle lingua franca, objective etdépourvue d’ambiguïté, était également particulièrementimportante dans le cadre de nos échanges avec le partenaireOracle qui, bien que n’ayant jamais réellement apporté deréponse à nos questions, a toujours été friand despécifications exhaustives et définitives de notre part ;- Enfin, la technologie XML, conjuguée à la structuration deMpeg7 proprement dite, offrent une structure ouverte, àlaquelle chacun peut ajouter ses propres extensions, enfonction de ses besoins spécifiques. Cette possibilité a étéutilisée à plusieurs reprises dans MEDEE, afin d’introduiredes notions inexistantes dans le standard (panier et « homecollection » de l’utilisateur sont définis comme desspécialisation des collections Mpeg7, par exemple).L’inconvénient majeur de Mpeg7 est bien sûr sa complexité. Dupoint de vue fonctionnel, il faut des mois pour comprendre lalogique de la norme et l’interpréter correctement. Du point devue technique, la complexité des structures de données de la- 149 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNEnorme, combinée à leur formalisation en XML, font de la miseen place d’une base de données performante fondée sur Mpeg7une gageure, à laquelle les produits standard et le personneld’Oracle, en particulier, n’ont pas su fournir de solution.En conclusion, le système MEDEE développé durant l’année <strong>2003</strong>est :- Un système autonome, dédié à la gestion de descriptions dedonnées sonores. Ce système est indépendant de lalocalisation et de la représentation physique (fichiers) desdonnées qu’il décrit. Il ne s’intéresse pas non plus à lagestion des droits d’accès ;- MEDEE offre des fonctions de recherche permettant deretrouver les données sonores correspondant à des critèresde recherche portant sur ces descriptions ;- Les données échangées entre MEDEE et le reste du monde sontformalisées en XML, selon un schéma XML qui est uneextension du schéma Mpeg7 (plus précisément, à des fins desimplification, seuls les éléments génériques ou relatifs àl’audio de ce dernier ont été conservés). Cette interfaceexterne XML/Mpeg7 ne présume bien sûr pas de la façon (XMLet/ou représentation relationnelle) dont les données sontgérées à l’intérieur du sous-système MEDEE- Au niveau technique, MEDEE s’appuie sur le SGBD PostGreSQL,qui héberge des procédures PLPG/SQL. Une couche Java(« client MEDEE ») fournit, au dessus de ce système, unpremier niveau d’abstraction, pour les fonctionnalités oùcela est utile. Mais, en règle générale, l’intégration d’unegrande partie de l’ « intelligence » du système au sein mêmedu SGBD permet de s’affranchir de ce niveau intermédiaire ;des services élaborés, fournis par la base, peuvent ainsiêtre sollicités directement (au travers les protocolesstandard aux bases de données, JDBC, en l’occurrence). Cetteconnexion directe entre niveau logiciel applicatif et labase est importante, car elle améliore nettement lespossibilités de navigation dans les résultats de recherche,et permet de fournir des services demandés par lesutilisateurs, et irréalisables dans l’architecture de la SPI(combinaison entre fonctions de tri et affichage par pagesdans les listes d’échantillons obtenus en résultats derecherche).8.1.3 Partager, contrôler, interdireEn étendant les possibilités de partage de données à l’échellede l’Internet, les applications en ligne soulèventinévitablement la question du contrôle de la visibilité desdonnées en fonction des utilisateurs, et donc del’identification de ceux-ci. Ces problématiques ont tendance àêtre sous-estimées dans le cadre de projets de recherche etdéveloppement, où l’accent est bien sûr mis sur les aspectsplus prospectifs. Cependant, la gestion des utilisateurs et deleurs droits d’accès sur les données ne nous semble paspouvoir être évitée ; elle n’est pas non plus chose simple ourapidement traitée. L’ouverture du système, permettant à termeà des utilisateurs de développer leurs propres applicationss’interfaçant avec nos serveurs, complexifie encore ceproblème. On résume l’ensemble de la problématique dans lespoints suivants :- 150 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNE- Nécessité de pouvoir définir des niveaux d’accès définis enfonction de l’utilisateur et de la donnée, du type :monsieur X à le droit de voir les échantillons de lacollection A, mais pas ceux de la collection B ;- Du fait de la quantité de données mises en jeu,impossibilité de définir ce droit pour individuellement,pour chaque couple (utilisateur, donnée) ;- Indépendamment des données mises en jeu, nécessité decontrôler ponctuellement l’accès des utilisateurs à certainsservices offerts par le système. Par exemple, la limitationde l’accès aux trois premières secondes des échantillons,pour les utilisateurs non dûment inscrits, est une demandedu Forum <strong>Ircam</strong> ; les opérations d’administration (créer desutilisateurs, gérer de grandes quantités d’échantillons,etc.), doivent aussi n’être accessibles qu’à une listed’utilisateurs clairement définis ;- Indépendance entre cette gestion des droits et les autresvolets du système, en particulier la description des donnéessonores assurée par MEDEE. La déconnexion fonctionnelleentre la gestion des droits et la description des donnéesest assez évidente ; par exemple, MEDEE pourrait êtreutilisée localement, dans le cadre d’une application nonconnectée au web et utilisant une banque d’échantillonpersonnelle, comme cela était envisagé dans le cadre de laSound Palette offline de Cuidado. Dans ce cas, aucunegestion des droits n’est nécessaire. En revanche, laséparation technique entre ces deux aspects est une questionnettement plus ouverte, car elle conduit potentiellement àdes problèmes de performance liés au contrôle hors base dedonnées des droits de l’utilisateur sur chacun deséchantillons trouvés, lors de toute opération de rechercheet de navigation.- Du fait du contexte en ligne, aucun paramètre géographiquen’est pris en compte dans la gestion des droits : unutilisateur a accès aux mêmes données, qu’il utilise la SPIIen interne ou depuis l’Internet.L’ensemble de ces problématiques a été résolu de la façonsuivante :- Ces problèmes ont été extraits de ceux liés à ladescription, afin de permettre, historiquement, uneutilisation de MEDEE avec d’autres partenaires du projetCuidado. Un sous-système particulier a été créé, UMAN ;- Ce sous-système permet de gérer des utilisateurs, qu’il estpossible de rattacher à des groupes d’utilisateurs. Unenotion de rôle est introduite à ce niveau (tous lesutilisateurs n’ont pas le même rôle au sein d’un grouped’utilisateur donné). Par ailleurs, UMAN permet de stockerdes « informations » sur chaque utilisateur, sous formetextuelle ;- Des objets banalisés peuvent être inscrits. Ces objetspossèdent un propriétaire, qui est un des utilisateurs ougroupes d’utilisateurs mentionnés ci-dessus ;- Il est possible de définir sur chaque objet un nombrequelconque de permissions qui sont des couples (utilisateurou groupe d’utilisateur, niveau d’accès). Les niveauxd’accès, classiquement, sont : aucun accès, accès en- 151 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNElecture, accès en lecture et écriture, accès en lecture,écriture et gestion du verrouillage ;- UMAN inclut en outre un mécanisme de verrou qui permet deprotéger les données contre tout effacement accidentel ;- Les droits d’un utilisateur sur un objet sont calculés enfonction de ces permissions et du rôle de l’utilisateurdans les groupes auxquels il appartient ;- Du point de vue technique, UMAN s’appuie sur le SGBDPostGreSQL.UMAN reste donc un système très générique (qu’il serait parexemple possible d’utiliser en interne dans des contextesdifférents de celui de la SPII, gestion de droits sur desbases documentaires, ou autres). Les niveaux supérieurs dusystème SPII définissent dans UMAN des droits sur certainstypes d’objets (les échantillons et les collections, enparticulier).L’organisation des échantillons en collections MPEG7 est miseà profit pour gérer par blocks les droits sur leséchantillons. On évite ainsi une gestion des droitsindividuelle pour chacun d’entre eux, inacceptablefonctionnellement parlant.La notion de profil utilisateur a été introduite (« invité »,« utilisateur standard », « administrateur des utilisateurs »,etc.). Cette notion permet de définir, pour chaqueutilisateur, quelle(s) application(s) celui-ci a le droitd’utiliser et, au sein de chacune de celles-ci, quels sont lesservices qu’il peut utiliser, avec quelles limitationséventuelles. Ces informations sont gérées en XML dans le champde données « libres » offert par UMAN. C’est également à ceniveau que sont gérées les préférences de l’utilisateur.8.1.4 Intégration des contributions scientifiquesNous ne rappellerons jamais assez la longueur et la difficultédu chemin à parcourir entre la démonstration d’unefonctionnalité innovante effectuée par un chercheur sur sonposte, et la même fonctionnalité disponible en ligne, pourtout utilisateur, sur tout type de poste, dans une applicationopérationnelle 24h/24, sur un corpus de données de plusieursdizaines de milliers d’échantillons. Le passage de la premièresituation à la seconde passe par les points suivants :- Intégration fonctionnelle : il convient tout d’abord dedéfinir comment le résultat scientifique « brut » peut êtreinclus dans l’application finale, de manière à être utile àl’utilisateur. Cette étape est parfois simple, mais ellesoulève aussi parfois de vraies questions d’usage (parexemple : que fait-on de la classification automatique ?Intéresse-t-elle vraiment un utilisateur de la SoundPalette, ou ne faut-il pas plutôt y voir un outil d’aide àla classification, destiné aux administrateurs gérant labase de données ?) ;- Une fois clairement définie l’utilisation que l’on comptefaire, dans l’application, des contributions scientifiques,il convient de considérer les aspects architecturaux ettechniques liés ces contributions : quelles donnéesattendent-elles du système, et quelles données luifournissent-elles ? Quelle est la volumétrie de cesdonnées ? Quel est le degré de complexité des algorithmesmis en jeu ? Ces questions doivent être abordées très en- 152 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNEamont car elles ont un impact fort sur l’architecturetechnique (et même hardware) du système : elles permettentpar exemple de distinguer les données à stocker en base decelles calculées à la volée, en fonction de leur volumétrie,du coût de leur calcul, de l’utilisation qui en est faite,etc.- D’autre part, les réponses à ces questions conduisent, parprécisions successives, à la définition des interfacesexternes des modules scientifiques. Ces travaux conduisentdu même coup à préciser la nature et la structure desdonnées échangées avec ces modules, et en particulier lesdescripteurs. Ils fournissent donc une information centraledans la conception de la base de données (MEDEE) où serontstockées et exploitées les descriptions de l’audio produitespar les contributions scientifiques ;- Enfin, les aspects véritablement techniques liés auxdéveloppements effectués par les partenaires scientifiquesdoivent eux aussi être anticipés au maximum : plate-formescibles, utilisation de bibliothèques extérieures, etc.- Les contributions scientifiques ne se limitent pas à desdéveloppements logiciels. Il peut aussi s’agir de productionde données complexes (taxonomies). Dans ce cas, c’est nonseulement la structuration logique de ces données qui doitêtre anticipée, mais aussi leur production ; car cettedernière est manuelle (ou très partiellement automatisable),et requiert en général des expertises extérieures àl’équipe.Pour tous ces points, il s’agit avant tout d’éviter que lesdéveloppements scientifiques ne soient faits en dehors d’unespécification claire, définissant les contraintes techniques àrespecter par ces développements afin de rendre leurintégration possible. En même temps, la nature très dynamiqueet évolutive des travaux scientifiques rend une tellespécification très difficile (par exemple, en terme de formatsde données).Le début de l’année <strong>2003</strong> a vu la stabilisation du document[Mullon03c]. Le but de ce document était de définir, enrelation étroite avec les équipes scientifiques, des consignesfonctionnelles et techniques à respecter par lesdéveloppements scientifiques, et satisfaisant à la fois auxexigences techniques de l’intégration et aux contraintesinhérentes aux travaux scientifiques.L’intégration proprement dite des modules scientifiques n’a puêtre achevée en <strong>2003</strong>. Cependant, les modules scientifiquesaujourd’hui disponibles respectent à notre connaissance leséléments définis dans ce document, et leur intégration ne noussemble donc pas soulever a priori de problème de fond.8.1.5 Développement du niveau applicatif communLes sous-systèmes décrits ci-dessus fournissent un ensemble deservices complémentaires permettant d’accéder aux diversescatégories de données de la SPII, et de gérer celles-ci. A ceniveau, il s’agit encore d’opérations unitaires (accéder à unéchantillon, consulter les droits d’accès d’un utilisateur surune donnée, etc.), qu’il convient, dans un deuxième temps,d’appeler de façon séquentielle afin d’effectuer toutes lesopérations nécessaires à la mise en œuvre de chaque casd’utilisation (« use-case ») du système. Par exemple, l’ajout,- 153 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNEpar un utilisateur, d’un échantillon dans le système fait sesuccéder plusieurs opérations unitaires, se déroulant sur dessous-systèmes différents : contrôle du droit de l’utilisateurà ajouter des échantillons dans le système ; upload proprementdit (dans SOFIE), mise à jour de MEDEE avec toutes lesmétadonnées relatives à cet échantillon. Le déroulement de cesopérations est réalisé par COSAL, composant logiciel sepositionnant en contrôleur vis-à-vis des sous-systèmes MEDEE,UMAN, SOFIE, SONA, et présentant les caractéristiquessuivantes :- l’interface de COSAL offre des services de haut niveau,faisant sens d’un point de vue fonctionnel (exemple :uploader un échantillon, rechercher des données, seconnecter au système, supprimer une collection, etc.). Ladescription de cette interface est donnée dans [Mullon03d] ;- COSAL s’appuie sur les sous-systèmes précédemment décritspour implémenter ces services ;- COSAL dialogue avec ces sous-systèmes en utilisant desprotocoles de communication (JDBC, RMI et sockets)compatibles avec l’échange de données en réseau. Grâce àcela, COSAL et chacun des sous-systèmes peuvent s’exécutersur des machines différentes, connectées entre elles ;- Dans cette architecture, COSAL joue aussi un rôle de« masquage » de la complexité des données, en particulier entraduisant si nécessaire les données XML, qu’il échange avecles sous-systèmes, en données directement lisibles depuis ducode Java (arguments ou valeurs de retour des méthodes).Plus précisément, COSAL est structuré en plusieurs strates :les plus basses travaillent en XML, et les plus hauteseffectuent le passage du formalisme XML à une représentationplus simple d’utilisation pour un développeur souhaitantconnecter son application à la SPII, et n’ayant pas deconnaissances particulières en XML ou concernant nos schémasde données. Certaines parties de l’interface de COSAL sontainsi disponibles en plusieurs versions : une, simple et dehaut niveau, fournissant des données simplifiées et engénéral suffisantes à une utilisation simple du système, etune autre, reposant sur les schémas XML internes dusystèmes, et offrant donc un accès plus détaillé auxdonnées ;- La recherche d’échantillons se fait en exprimant lescaractéristiques des échantillons recherchés au moyen d’unlangage appelé CQL (pour « Cuidado Query Language »)constitué d’une grammaire et de mots clés, et permettant deformuler des requêtes complexes. Une des fonctionsprincipales de COSAL consiste à supporter ce langage, c’està-direà analyser et interpréter ces requêtes, pour endéduire les appels à effectuer à MEDEE ;- Une autre fonction principale de COSAL tient dans lefiltrage des résultats de recherche en fonction des droitsde l’utilisateur sur les données trouvées. D’une manièregénérale, les contrôles liés, soit aux droits d’accès, soità la cohérence ou à la sécurité des données, sont effectuéspar COSAL ;- COSAL a été pensé comme une interface de programmationpermettant à des applications de se connecter au systèmeSPII (c’est pour cette raison que tous les contrôles dedroits, de sécurité, etc. doivent être effectués dans COSAL.- 154 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNESans quoi le développeur d’une nouvelle applications’interfaçant avec COSAL ne leur serait pas assujetti) ;- COSAL est codé en Java.8.1.6 Développement des applications : la Sound PaletteIIPlusieurs applications ont été développées sur la base deCOSAL. La plus importante est bien sûr la Sound Palette II.Deux documents principaux documentent cette application :d’une part la conception fonctionnelle de la section« organize » [mullon03a], et d’autre part le manuelutilisateur [mullon03b]. Cette application se subdivise à sontour en deux sections très distincte : d’une part, un ensembled’interfaces dédiées à la recherche d’échantillons ; d’autrepart, une interface permettant l’organisation d’échantillonspersonnels, partagés avec d’autres utilisateurs, ou bientrouvés depuis l’interface précédente.L’interface de recherche se résume ainsi :- Elle offre un accès immédiat à différentes possibilités derecherche, qu’on a essayé de rendre aussi faciles d’accèsque possible. Ces critères sont organisés selon unetypologie simple des échantillons (instrumentaux, bruitages,sons abstraits), permettant de proposer à l’utilisateur desinterfaces graphiques adaptées aux types de données qu’ilsrecherchent (par exemple, un clavier pour le choix desnotes) ;- les retours d’usages de la SP de première génération ont misen évidence que certains types de recherches y étaientdifficiles (voire impossible) à exprimer, et que lapossibilité d’affiner progressivement les requêtes, au vu deleur résultat, manquait aux utilisateurs. L’accent a doncété mis, dans la SPII, sur la possibilité de formuler etgérer des requêtes complexes, de revenir sur celles-ci pourles modifier après coup. Les requêtes de l’utilisateur sontmémorisées automatiquement durant la session ;- La saisie des critères de recherche peut effectuer parl’utilisation d’interfaces graphiques spécifiques (clavier,dynamiques, champ de saisie de texte libre). Ces interfacesproduisent des requêtes CQL, accumulées entre elles, ou bienutilisées pour initialiser une nouvelle requête, selon lechoix de l’utilisateur. En outre, ces requêtes sontdirectement éditables par l’utilisateur, qui peut, s’il lepréfère, saisir directement ces critères en utilisant leCQL. Ceci permet en outre de formuler des requêtes pluscomplexes que celles exprimées à l’aide de l’interfacegraphique ;- Les résultats sont des listes d’échantillons où on a essayéd’apporter les améliorations demandées par lesutilisateurs : flexibilité sur le nombre maximald’échantillons présentés dans ces listes (il peut êtrechoisi par l’utilisateur), fonction de tri, etc. Le downloadet le streaming sont disponibles sur chacun des échantillonstrouvés. Le download peut en outre être effectuéglobalement, sur l’ensemble des échantillons trouvés ;- Il existe un système de « panier », où l’utilisateur peutaccumuler les échantillons qui l’intéressent en vue d’undownload global ultérieur. Le panier est également visible- 155 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNEdepuis la seconde section de l’application, et constituedonc le moyen de communication privilégié entre les phasesde recherche et d’organisation ;- Toute cette partie de l’application s’appuie sur unetechnologie cliente html/Javascript compatible avec touttype de machine (Macintosh 9 ou X, divers Windows, Linux,Unix, etc.). Au niveau serveur, il existe donc un niveauapplicatif s’appuyant sur COSAL pour fournir ces pages html.Techniquement, ce niveau est constitué d’une série deservlets hébergés dans un serveur d’application(Tomcat/Apache) ;- Le choix de cette technologie d’interfaces « légère », maladaptée aux opérations d’éditions de données en ligne, maisparfaite pour les services de recherche et de consultation,a permis de limiter les technologies lourdes à la secondesection de l’application (exposée ci-après). Cetteséparation permet d’épargner les lourdeurs techniques duclient lourd (applets Java, pour lesquelles la compatibilitéavec les différents types de postes clients est pluslimitée), à un utilisateur intéressé seulement par lesfonctions de recherche et de récupération des échantillons.La section dévolue à l’organisation et au partage en ligne deséchantillons présente les caractéristiques suivantes :- elle s’appuie sur une structure hiérarchique des données(objets Mpeg7 de type « collection ») rappelant lesrépertoires dans lesquels un utilisateur range ses fichierssur son disque dur. A l’intérieur des collections, leséchantillons apparaissent comme apparaîtraient les fichiersdans un répertoire ;- du point de vue technique, ces structures sont bien sûrgérées dans la base de données. Ceci permet entre autresd’enrichir ce mécanisme avec un système de liens symboliquespermettant à toute collection et à tout échantillond’apparaître dans un nombre quelconque de collections (parexemple, un utilisateur peut faire apparaître dans unecollection créée dans son environnement personnel deséchantillons de Studio en Ligne qui l’intéressent, ou bienun raccourci vers le répertoire « Violons » de cette base) ;- cette section de l’application donne accès à l’environnementpersonnel de l’utilisateur (sa « home collection »), danslaquelle il retrouve son panier et les échantillons qu’il aplacés dans celui-ci depuis la section précédente del’application. Elle donne aussi accès aux collections quel’utilisateur partage avec d’autres utilisateurs, et où ilpeut consulter les échantillons partagés par ceux-ci, etplacer ses propres échantillons afin de les partager aveceux ;- le download et le streaming sont également accessiblesdepuis cette section de la SPII ;- les informations relatives aux permissions définies sur lesdonnées sont visualisables et modifiables depuis l’applet ;- les actions d’édition offertes ici sont les suivantes :ajout, suppression, déplacement et modification descollections et échantillons. Ces actions sont bien sûrassujetties aux droits d’accès de l’utilisateur sur lesdonnées ;- 156 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNE- La Sound Palette I offrait déjà des services très proches deceux-ci, sur la base d’une technologie HTML/Javascript. Ceciinterdisait certains types de solutions ergonomiques(raccourcis claviers, drag & drop), et rendait l’utilisationde ces services très laborieuse. Pour cette raison, latechnologie utilisée dans cette section la SPII est uneapplet Java. Cette technologie, de type « client lourd »,réduit un peu la compatibilité du système avec lesdifférents types de postes clients (MacOS 9.x n’est passupporté), et augmente des temps de réponse ; c’est d’unecertaine manière le prix à payer pour l’ergonomie accruequ’offre cette technologie. Pour ces raisons, elle a étéutilisée uniquement là où cela était inévitable ;- L’applet dialogue avec les serveurs en échangeant avec euxdes objets Java sérialisés, eux-mêmes servis par un niveauapplicatif serveur reposant sur COSAL (servlets hébergés parle serveur d’applications Tomcat).Il convient de noter que l’utilisation, pour ces deux sectionsde l’application, de deux technologies aussi différentes, estune conséquence directe de la nouvelle architecture dusystème. Une telle pluralité technologique, destinée àpermettre l’utilisation des techniques les mieux adaptées audifférents cas d’utilisation de l’application, aurait ététotalement impossible avec l’architecture de la SoundPalette I.L’application offre en outre les fonctionnalités suivantes :- tout internaute peut, depuis la page d’accueil de la SPII,créer son compte personnel (avec une limitation aux 3premières secondes des échantillons en streaming etdownload) ; il peut alors utiliser l’application, effectuerdes recherches, et se faire une bonne idée du système et deses données. Il peut alors demander un compte utilisateur« standard » à l’<strong>Ircam</strong>. Ce passage à un profil utilisateurstandard lèvera la limitation à 3 secondes ;- l’application comporte une section de préférences, oùl’utilisateur paramètre le comportement de l’application :informations présentées dans les listes de résultats derecherche, format des échantillons downloadés, etc.- gestion du multilinguisme. Les interfaces graphiques sontdisponibles en anglais et en français. Les données, quantà elles, peuvent être disponibles dans d’autres langues. Lessituations peuvent finalement être assez complexe : unutilisateur allemand utilisera sans doute l’application enanglais, mais les données qu’il ajoutera au système (nom deses collections et de ses échantillons personnels) serontsans doute en allemand. Ces problèmes sont résolus enintégrant dans les préférences utilisateur une liste deslangues connues de celui-ci, par ordre décroissant deconnaissance. Le système détermine alors, en fonction decette liste et des langues dans lesquelles les données sontdisponibles, celle dans laquelle présenter les informationsà l’utilisateur.8.1.7 Les autres applicationsUn certain nombre d’autres applications ont été développéessur la base de COSAL :- 157 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNE- Une application d’administration des utilisateurs et desgroupes d’utilisateurs. Cette application permet de définirde nouveaux utilisateurs, de spécifier à quellesapplications du système ils ont accès, et quel est leurprofil dans celles-ci, de rattacher les utilisateurs à desgroupes d’utilisateurs, de définir les quotas desutilisateurs et des groupes (quantité maximale de donnéesqu’ils ont le droit d’uploader dans la base), etc. Cetteapplication s’appuie sur la technologieHTML/Javascript/servlets. Elle n’est accessible que depuisl’intranet <strong>Ircam</strong> ;- batch de purge des connexions utilisateurs. Ce programme,lancé en tâche de fond sur les serveurs, détruit lessessions utilisateur obsolètes (cas correspondant à unutilisateur ayant quitté le système sans cliquer sur« Quitter ») ;- production de CD-ROM à la demande. Il s’agit ici de mettreen place une application (Java) permettant de récupérer tousles échantillons d’une collection donnée, en recréant sur leposte local une structure arborescente (répertoires)reflétant les sous-collections de la collection à graver, etincluant ces échantillons. Dans un deuxième temps, cesdonnées locales peuvent être gravées sur un CD-ROM(indépendamment de l’application) destiné à être fourni àl’utilisateur en ayant fait la demande. Cette application aété amorcée, mais non terminée, du fait de la complexité dufonctionnel associé (choix des données à graver depuis laSPII, récupération de cette information dans l’applicationde production de CD-ROM, connexion avec le système defacturation du Forum, prise en compte du format audiopréféré de l’utilisateur, suivi de l’état de la demande degravure, distinction entre droit d’accéder aux données etdroits, pour l’<strong>Ircam</strong>, de les graver, enregistrement d’unedescription minimale des échantillons sur le CD, etc.). Cedéveloppement a cependant permis, d’une part d’aboutir à unespécification fonctionnelle claire du processus complet deproduction de CD-ROM à la demande ([Mullon03e] et[Arberet03a]), et d’autre part de valider la compatibilitéde notre architecture technique avec le développementd’application clientes autonomes.8.1.8 Finalisation du projet CuidadoLa finalisation du projet Cuidado a bien sûr été l’occasiond’un bilan des actions menées durant les trois années duprojet. Ce bilan a pris des formes multiples :- Participation de l’équipe au meeting d’évaluation finale duprojet (présentation des travaux effectués et de la SPII) ;- Participation à la rédaction de plusieurs documents declôture du projet (« Final report », spécification des« TIP », etc.) ;- Elaboration du document de synthèse de notre utilisation deMpeg7 ([jacob03a]).Participants (pour l’ensemble du § 8.1) : P. Mullon, G.Boutard, M. Jacob- 158 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNE8.2 Participation au montage du projet SemanticHiFiL’équipe a été sollicitée dans le cadre du montage du projetSemanticHiFi. Notre rôle a essentiellement consisté ici :- à garantir la crédibilité et la faisabilité technique duprojet, dans les domaines qui nous incombent (échanges dedonnées sur l’Internet, bases de données, intégration) ;- à fournir des informations quant à la charge de travailcorrespondant aux divers travaux envisagés dans le cadre duprojet, afin de permettre le montage d’un planning réaliste.Participant : P. Mullon8.3 Gestion et coordination du projet CuidadoL'année <strong>2003</strong> était la troisième et dernière année du cycle dedéveloppement du projet IST Cuidado. S'agissant de lacoordination de ce projet européen multipartenaire, l'équipe<strong>Ircam</strong> chargée de cette tâche par la Commission européenne aconduit le projet jusqu'à la finalisation des recherches etdes développements, la remise de l'intégralité des fournituresattendues, l'intégration des composants logiciels àl'architecture finale, la production de retours d'expériencessur la base des applications pilote, la mise en ligne du pland'exploitation des résultats (le document électronique"Technical Implementation Plan" de la Commission européenne),et enfin l'évaluation finale par un Comité d'experts mandatés.Il convient de noter que le projet a été très bien noté, etque son management, qui fait l'objet d'une évaluationspécifique, a été considéré comme satisfaisant par lesexperts. Le rapport final du projet a été remis dans lesdélais impartis, et le projet fut administrativement soldé,ses produits entrant désormais dans un cycle indépendantd'exploitation et de valorisation.Participants : H. Vinet, F. Rousseaux, D. BaroneCollaborations internes : P. Mullon (équipe Services enligne), G. Peeters (équipe Analyse/synthèse), B. Meudic(équipe Représentations musicales, V. Rioux (équipe Perceptionet cognition musicales)Collaborations extérieures : Université Pompeu Fabra(Espagne), Sony CSL (France), Université Ben Gurion (Israël),Oracle (Espagne), Creamware (Allemagne), Artspages (Norvège)8.4 Projets Lutin/LucsiLe Laboratoire des Usages en Technologies d'InformationNumériques (Lutin) est une plate-forme RNRT coordonnée parDominique Boullier, dont l'<strong>Ircam</strong> est partenaire. Ses objectifssont de tester des produits TIC et d'étudier leurs usages pourélaborer des méthodes de validation intégrables dès laconception des produits, en passant par l'association du grandpublic dans un lieu attractif et de grande notoriété : la Citédes Sciences et de l'Industrie. L'Unité Mixte de Services CNRSLucsi (UMS 2701) regroupe un certain nombre de laboratoiresdans une équipe projet (dont l'<strong>Ircam</strong> fait également partie),et fera vivre la plate-forme Lutin au delà du contrat RNRT.L’un des principaux objectifs de la participation de l’<strong>Ircam</strong> àces groupes de chercheurs travaillant sur les méthodes deretour d’usage est l’évaluation de réalisations technologiques- 159 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNEdestinées à de larges cibles d’utilisateurs, notamment issuesdes projets européens Cuidado et SemanticHIFI.En <strong>2003</strong> l'<strong>Ircam</strong> a participé à l'animation des contenus de cesdifférentes structures, et s'est engagé prioritairement dansun groupe de travail appelé « Hyperlecture et hypertâches » etanimé par Georges Vignaux du LCP CNRS, afin de travailler avecla Cité à l'établissement d'un environnement deréflexion/expérimentation autour de ces questionsscientifiques considérés comme centrales par le Lucsi. Unepremière série de retours d'usage est prévue pour le printemps2004.Participant : F. RousseauxCollaborations extérieures : D. Boullier (Universitétechnologique de Compiègne), Cité des sciences et del’industrie, Georges Vignaux (LCP), Université Paris 88.5 Publications et communicationsArticles parus dans des revues à comité de lecture[Rousseaux 04a] Rousseaux F. et Bonardi A., « ‘‘Music-ripping’’ : despratiques qui provoquent la musicologie », MUSICAE SCIENTIAE, numérospécial <strong>2003</strong>-2004[Rousseaux 02e] Rousseaux F. et Bonardi A., « Composing an InteractiveVirtual Opera: The Virtualis Project », LEONARDO, Journal of theInternational Society for the Arts, Sciences and Technology, Volume 35,Issue 3, pages 315-318, MIT Press, June 2002; an earlier version of thispaper was presented at the third Creativity and Cognition Conference,Loughborough University, U.K., 10-13 October 1999, and published in theProceedings (New York: ACM Press, 1999; ISBN: 1-58113-078-3)[Drouillon 04b] Drouillon F. et Rousseaux F., « Impressionnismetechnologique : le concept de robographe », Université des Arts volume"Nouvelles relations esthétiques", "La critique : le rapport à l'œuvre",Klincksieck Editions/Les Belles Lettres, direction Marc Jimenez, <strong>2003</strong>Actes de congrès avec comité de lecture[Rousseaux 04c] Rousseaux F., Bonardi A. et Akdag H., « Vers uneconciliation de l’art et de la culture à travers la Toile », ConférenceInternationale SETIT; Sciences Electroniques, Technologiques del’Information et des Télécommunications, page 325 (7 pages sur CD), Sousse,17-21 mars 2004[Rousseaux 03c] Rousseaux F. et Bonardi A., « New Tools and Practices forElectronic Music Distribution », International Symposium on Information andCommunication Technologies, Actes Trinity College Dublin, Ireland, 20-26septembre <strong>2003</strong>[Rousseaux 03d] Rousseaux F. et Bonardi A., « Comprendre des pratiques quiprovoquent la musicologie : le "Music-Ripping" », publication n °041C, CD-ROM des actes de la conférence internationale ICHIM 03, Paris, Ecole duLouvre, 10-12 septembre <strong>2003</strong>[Rousseaux 03f] Rousseaux F. et Bonardi A., « ‘‘Music-ripping’’ : Practicesthat Provoke Musicology », International Conference on Computer MusicModeling and Retrieval, Nanard M., Nanard J., Betaille H., Terrat R. (Eds),LIRMM, Montpellier (France), 26-27 mai <strong>2003</strong>[Vinet03b] Vinet, H., « The Representation Levels of Music Information »,conférence invitée, International Conference on Computer Music Modeling andRetrieval, Nanard M., Nanard J., Betaille H., Terrat R. (Eds), LIRMM,Montpellier (France), 26-27 mai <strong>2003</strong>Chapitres dans des ouvrages collectifs[Rousseaux 04f] Rousseaux F., « l’Eternel retour voilé », Rencontresinterdisciplinaires sur les systèmes complexes naturels et artificiels,Megève Rochebrune, janvier 2004[Rousseaux 03f] Rousseaux F., « Informatique, simulacre et simulation »,Rencontres interdisciplinaires sur les systèmes complexes naturels etartificiels, Megève Rochebrune, janvier 2004[Rousseaux 03a] Rousseaux F., « Chorégraphie de la baie de Tunis --- au boutdu Monde, là où le paysage n’existe pas », "Du Sujet : Théorie et Praxis",Maison des Sciences de l'Homme, Paris, décembre <strong>2003</strong>- 160 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES EN LIGNE[Rousseaux 03b] Rousseaux F., « Le danseur de ballet en miroir », "Du Sujet: Théorie et Praxis", Maison des Sciences de l'Homme, Paris, décembre <strong>2003</strong>[Vinet03a] Vinet, H., « The Representation Levels of Music Information »,Lecture Notes in Computer Science, <strong>2003</strong>, n° 2271, Springer Verlag, pp. 193-209Mémoire ou rapport de stage[Arberet03a] Arberet, S., « Conception et développement d'une applicationde production de CD-ROM à partir d'une base de données d'échantillonssonores, et réalisation de navigateur de la Sound Palette », Supelec, <strong>2003</strong>Rapports de recherche[Jacob03a] Jacob, M., « Mpeg7-in-sp-v1.pdf - Report on the use of Mpeg7 inthe online Sound Palette database system », <strong>2003</strong>[Jacob03c] Jacob, M., « T-ONSPII-EX-UMAN-2, the User and Permissionmanagement system for Sound Palette on line », <strong>2003</strong>[Mullon03a] Mullon, P., « F-ONSPII-FUNCSPEC-1-V1.2.doc, Sound Palettefunctional specification I : data basic organisation, users and permissions», <strong>2003</strong>[Mullon03b] Mullon, P., « F-ONSPII-USERMANUAL-V1.0, Online Sound Paletteuser manual », <strong>2003</strong>[Mullon03c] Mullon, P., « T-ONSPII-IN-SONA, internal specification of SoundAnalysis subsystem », <strong>2003</strong>[Mullon03d] Mullon, P., Boutard, G., « T-ONSPII-EX-COSAL-2, specificationof COSAL controller interface », <strong>2003</strong>[Mullon03e] Mullon, P., Arberet, S., « Production de CD-ROM à la demande :spécifications fonctionnelles », <strong>2003</strong>[Rousseaux 03g] Rousseaux F. et Vinet H., « Rapport final du projeteuropéen IST CUIDADO », Rapport IST, Commission européenne, décembre <strong>2003</strong>Colloques et séminaires[Rousseaux 04e] Rousseaux F. et Bonardi A., « Reconcile Art and Culture onthe Web : Lessen the Importance of Instanciation so Creation Can BetterFiction », First Workshop on Philosophy and Informatics, page 97, Cologne,31 mars - 1er avril 2004[Rousseaux 03e] Rousseaux F., « Knowledge acquisition or manifestation ofthe thought - Cathedral builders and knowledge acquisition methoddesigners », Knowledge Management and Philosophy, Edited by Klaus Freyberg,Hans-Joachim Petsche, Bertin Klein, CEUR vol. 85, ISSN 1613-0073http://sunsite.informatik.rwth-aachen.de/Publications/CEUR-WS/Vol-85/,Luzern, 3-4 avril <strong>2003</strong>Vinet, H., ‘‘The Representation Levels of Music Information’’, atelier‘‘Technologies Multimédia pour la musique, projet européen MusicNetwork,<strong>Ircam</strong>, 16 octobre <strong>2003</strong>.- 161 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES LOGISTIQUES9 SERVICES LOGISTIQUES9.1 Service informatiqueResponsable : Laurent GhysL’événement principal de l’année <strong>2003</strong> a été le déploiement deMacOSX dans l’ensemble des secteurs de l’<strong>Ircam</strong>. De nombreusesévolutions ont été mises en œuvre, au niveau des réseaux etdes services de messagerie électronique.Le remplacement de l’administrateur Unix, en congé parentald’éducation, a été assuré dans les meilleures conditions etdans le respect de la continuité d'un service de qualité.L’"emploi jeune" qui avait rejoint l’équipe en 2002 a étépérennisé par intégration au "personnel permanent", permettantainsi au service informatique de trouver un très bon équilibreen ressources humaines.Toute la gestion administrative du service : commandes,gestion de l’inventaire, suivi de la maintenance, des échangessous garantie, achat de consommable, y compris la gestion del’encre des imprimantes dont le service a repris la gestion encours d’année et, plus généralement, le suivi de tous lesdossiers - est assuré avec un souci d'efficacité et de qualitépar la secrétaire du service. Les techniciens peuvent ainsi seconsacrer entièrement à leur mission, indépendamment de lapartie administrative.9.1.1 MacOSXLe nouveau système d’exploitation d’Apple est opportun, auregard des activités de l’<strong>Ircam</strong>, l'utilisation del’informatique étant assez particulière en ce qui concerne lessystèmes d’exploitation. Notre culture d’entreprise à recoursà la fois au système Unix, utilisé depuis les origines del’<strong>Ircam</strong> sur les serveurs et sur les stations de travail deschercheurs, à l’environnement NextStep utilisé en productionmusicale sur la Station d’Informatique Musicale et, bienévidemment, au MacOS 9 qui était la plate-forme la plusrépandue à l’<strong>Ircam</strong> dans tous les secteurs comme, par exemple,la pédagogie ou la bureautique.Le système MacOSX est exactement la convergence de ces troiscultures, ce qui est pour l’institut un avantage indéniable.Le fossé profond que l’on trouvait techniquement entre MacOS9et Linux a aussi été fortement comblé. A l’image desdistributions GNU/Linux, MacOSX est un ensemble de composantsqui intègre le noyau Darwin - un logiciel libre comme le noyauLinux -, les programmes développés par Apple, mais aussi unetrès grande partie des logiciels libres sous licence GPL quel’on trouve sous GNU/Linux. Par exemple, le systèmed’impression standard de MacOSX est le système CUPS (CommonUNIX Printing System). Enfin, un élément est à noter : lacommunauté du logiciel libre a créé le système Fink, quirassemble de plus en plus ces logiciels libres, et qui utiliseexactement les mêmes outils d’installation que ceux deGNU/linux.- 162 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES LOGISTIQUES9.1.1.1 Evaluation de MacOSX pour la production musicaleDepuis les premières versions d’évaluation du systèmeRhapsody, ancêtre de MacOSX, le Service informatique, enétroite collaboration avec les assistants musicaux a évaluéles problèmes que posait le passage à MacOSX : portages delogiciels, disponibilités de MIDI, de pilotes de carte audio,etc. Il s’agissait de déterminer avec le service Production àpartir de quel moment ce système pourrait être utilisé pourdes productions musicales. Cela nécessitait, de la part duservice informatique, la maîtrise de l’administration de cesystème afin de pouvoir décharger le service production decette tâche qui devient beaucoup plus complexe sous un systèmeUnix que sous Mac OS 9. C'est le travail de veilletechnologique effectué tout long de l’année qui nous a amenésà la bonne maîtrise de ce nouveau système et permettra sonutilisation, dans le secteur de la production, au cours del’année 2004.9.1.1.2 Migration des postes bureautiquesLa migration des premiers postes bureautiques de MacOS9 àMacOSX a été une véritable surprise. L’adaptation desutilisateurs a ce nouveau système n’a posé aucun problème.Aucune formation particulière n’a requise, et l’énormedifférence de complexité entre MacOS9 et Unix n’a pas étéperceptible par les utilisateurs. Ceux-ci nous ont rapportéleur satisfaction, la baisse du nombre demande de dépannageprouvant la supériorité de stabilité et de fiabilité d’unsystème d’exploitation moderne. Tout remplacement d’un postede travail, ou toute acquisition d’une nouvelle machines’accompagne désormais du passage systématique à MacOSX.9.1.1.3 Migration de la Pédagogie.La migration progressive des salles de cours de la Pédagogie aété aussi effectuée. MacOSX permettant une utilisation desservices bien plus souple, fichiers des utilisateurs situéssur des serveurs, authentification par annuaire LDAP,transparence du point d’accès au poste de travail, le résultats’est avéré très satisfaisant.9.1.1.4 MacOSX, un nouveau choix pour le départementRecherche et développementDans le passé, l’utilisation du PC sous Linux ou du Macintoshsous MacOS9 était pour les chercheurs un choix exclusif : iln’existait pratiquement pas d’application disponible à la foissur ces deux plateformes. Avec MacOSX, cette barrière tombe ;par exemple le logiciel Matlab, très utilisé par leschercheurs, est disponible sous une version identique sousGNU/Linux ou sous MacOSX, c’est d’ailleurs le même serveur dejetons de licence qui sert pour les deux plateformes. La plusgrande partie des logiciels libres qui constituent l’ensembleGNU est disponible sur ces deux plateformes. Ainsi, des postesMacOSX viennent s’intégrer naturellement dans le parc desstations de travail Unix du secteur Recherche.9.1.2 Serveurs et PPRIEn dehors de l’utilisation de produits Apple, l’année <strong>2003</strong> amarqué l’abandon définitif des machines et des systèmes- 163 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES LOGISTIQUESd'exploitation Unix propriétaires (Digital, SGI, SUN) auprofit de GNU/linux. Les économies réalisées nous ont permisde moderniser progressivement le parc de nos serveurs qui estmaintenant moderne, homogène et structuré. Les serveurs sontmontés en rack dans des baies avec des commutateurs clavierécran,ils utilisent la technologie RAID (logicielle oumatérielle) partout où cela apporte réellement de lafiabilité. En application du PPRI (Plan de Prévention desRisques d’Inondations) toutes ces machines ont été déplacéesdans un local différent du nodal d’origine permettant ainsi encas d’alerte une évacuation bien plus rapide.9.1.2.1 Logiciel de comptabilité : passage à Sirep@Net.Au deuxième semestre <strong>2003</strong> a eu lieu à l’<strong>Ircam</strong> la migration duprogiciel de compatibilité SIR-EPA vers sa toute nouvelleversion : Sirep@Net. La version précédente fonctionnait sur lemode serveur/client, le serveur étant une machine sous Solariset le poste client étant assuré par un logiciel tournant surun serveur (Windows-NT TSE) auquel les utilisateurs accédaientde leur poste au moyen de clients ICA de la société Citrix.Le nouveau système est bâti sur le principe des trois tiers.Les parties base de données et portail d’accès sont assuréespar un nouveau serveur sous Linux, alors que les clients sontdes applets Java tournant sur le navigateur des postes desutilisateurs. C’est l’utilisation du système MacOSX, oùcontrairement à MacOS9, nous disposions d’un navigateurcompatible, qui nous a permis une migration idéale, sans aucunproblème. Cette nouvelle version de logiciel qui fait appel àune ergonomie nettement améliorée nous a apporté un gain deproductivité important.9.1.2.2 Filtrage de la messagerieLa pollution croissante de la messagerie électronique par desvirus et par la circulation massive de messages non sollicités(SPAM) entrave de manière très sensible le travail desutilisateurs. Des dispositifs de filtrage du courrierélectronique ont été mis en œuvre. Ils utilisent exclusivementdes logiciels libres :- Le logiciel Spamassassin utilise des règles heuristiquessophistiquées pour détecter les messages publicitaires etleur ajoute à la volée une information supplémentaire quipermet à l’utilisateur de configurer son outil de courrierpour les éliminer aisément au moyen d’une simple règle defiltrage.- Le logiciel CLAM est un système de filtrage de virus pour lecourrier électronique, sa base de signatures est mise à jourautomatiquement. L’utilisation d’un tel dispositif a deuxobjectifs : d’une part prévenir les utilisateurs lorsqu’ilsreçoivent des messages contenant des documents infectés,mais aussi éviter que de tels messages transitent ou soientenvoyés depuis notre site vers l’Internet.Ces dispositifs, bien qu’indispensables dans la communauté derecherche scientifique, ne suffisent pas à eux seuls àprotéger totalement les utilisateurs. Un travail quotidien estaccompli de sensibilisation, d’éducation, d’explication de labonne conduite à adopter par chacun, pour donner à ces filtrestoute leur efficacité et obtenir tant bien que mal uneutilisation du courrier électronique acceptable.- 164 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES LOGISTIQUES9.1.3 Réseaux internes et externes9.1.3.1 Filtrage IP intérieurCompte-tenu de ces problèmes croissants de sécurité, on nepeut plus se contenter de se protéger par un unique gardebarrièredisposé à l’entré du site. Il faut également mettreen place un filtrage complexe entre les différents VLANs(réseaux Ethernet virtuels) du réseau interne, et même àterme, activer un filtrage très fin au niveau de chaque postede travail. Une gestion de ce type est très lourde, car ilfaut identifier avec précision quels sont les services quidoivent êtres autorisés ou bloqués, au risque de perturbergravement les conditions de travail. Cette politique, dont laréalisation nécessite des outils générateurs de règles defiltrage, est mise en place progressivement, principalementlors des nouvelles installations.9.1.3.2 Connectivité IPv6 native vers InternetLe service informatique de l’<strong>Ircam</strong> expérimentait depuislongtemps la nouvelle version 6 du protocole IP. Bien que legrand public n’en ait que très peu entendu parler, cela faitplusieurs années que ce protocole est en coursd’expérimentation (sous forme de tunnels) sur Internet.Au milieu de l’année, l’<strong>Ircam</strong> a franchi un nouveau pas enétant relié en production, d’une manière native au réseauRenater lui-même relié au réseau Géant de la RechercheEuropéenne et aussi niveau mondial. Les utilisateurs de Linuxou de MacOSX, où IPv6 est activé par défaut et configuréautomatiquement par les routeurs <strong>Ircam</strong>, n’ont certainement pasremarqué, lorsqu’ils allaient consulter certains sites web dumonde de la recherche, que leurs données transitaient parfoisde bout en bout par le protocole IPv6.9.2 Atelier mécaniqueTechnicien : Alain TerrierParmi les réalisations les plus représentatives de l'année<strong>2003</strong>, l'Atelier de mécanique à mis en œuvre les réalisationssuivantes, à la demande du départements Recherche etDéveloppement et Production.9.2.1 Réalisations pour le département Recherche etdéveloppement- Réalisation 12 platines d'assemblage et d'un support muralpanneaux HP, au studio 4 (E. Corteel : équipe Acoustiquedes salles).- Etude et réalisation d'un prototype de barillet declarinette à volume variable (R. Caussé, équipe Acoustiqueinstrumentale).- Réfection des 2 réducteurs pour la structure 3D, chambresourde (O. Warusfel, équipe Acoustique des salles).- Installation d'un poste d'air comprimé dans la chambresourde (R. Caussé, équipe Acoustique instrumentale).- Réalisation de trois becs de clarinette à volume variable(R.Caussé, Acoustique instrumentale).- 165 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTSERVICES LOGISTIQUES- Etude et réalisation d'une cavité buccale en altuglas pourla bouche artificielle (A. Almeida, équipe Acoustiqueinstrumentale).- Réalisation une série de bouchons d'oreille support micro(mesures de HRTF) (O. Warusfel, équipe acoustique dessalles).- Etude et réalisation d'un moule en élastomère silicone etmoulage de 4 pièces en fibre et résine polyester éventbasses fréquences à profil de tuyère (collaboration avec lelaboratoire d'acoustique musicale LAM Paris VI. (J.-P.Morkerken, G.Pellerin), (N. Misdariis, équipe Designsonore).- Etude et réalisation un banc d'essai pour les marteaux dupiano et d'un capteur piézoelectrique support de corde depiano (R. Caussé, équipe Acoustique instrumentale).- Etude et réalisation de 32 supports présentation Wagner entête (Y. Rocher, E. Rio, équipe Acoustique des salles).- Etude et réalisation d'un dispositif pour la visualisationde l'anche du hautbois (A. Almeida, équipe Acoustiqueinstrumentale).- Etude et réalisation un montage pour la validationexpérimentale d'un modèle numérique de précontrainte :mesure des fréquences de vibration d'une plaque en grandedéformation (J. Bensoam, équipe Acoustique instrumentale).9.2.2 Réalisations pour le département CréationRéalisation de deux support de caméra et modification de lyressupport HP (A. Jacquinot, production).- 166 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANNEXES10 ANNEXE : Synthèse du document Bilan-Prospective <strong>2003</strong>Hugues Vinet, octobre-novembre <strong>2003</strong>Version finale10.1 Objet et forme du documentCe document propose une synthèse de textes élaborés parchacune des équipes de recherche de l’<strong>Ircam</strong> au cours del’année <strong>2003</strong> en vue de recenser les principales directionspossibles de travail à court, moyen et long terme. Cetteréflexion a été menée sur la base des acquis scientifiques ettechnologiques de chaque équipe et conçue et formulée àl’intention de la communauté musicale concernée par lestravaux de l’<strong>Ircam</strong>.La plupart des directions nouvelles ayant émergé de ce travails’inscrivant dans une coordination inter-équipes, cettesynthèse a été conçue autour de projets transversaux, chacund’eux pouvant donner lieu à la constitution d’un groupe detravail associant les représentants de plusieurs équipes,assistants et compositeurs. La présentation de chaque projetrépond d’abord à des critères de faisabilité, dans le contextede l’<strong>Ircam</strong> et de l’état de l’art scientifique et technologiqueactuel, à la lumière des plus récents résultats de recherche.Il doit toutefois être précisé que les moyens de l’<strong>Ircam</strong> nepermettent pas la réalisation simultanée de l’ensemble desprojets et que des choix devront être opérés, auxquels lacommunauté musicale de l’<strong>Ircam</strong> est invitée à contribuer. Deplus, la réalisation de chaque projet s’inscrit dans unetemporalité et un cadre de réalisation qui lui sont propres,certains étant d’ores et déjà engagés; ces aspects sontprécisés au cas par cas, notamment en ce qui concerne le cadretemporel de réalisation envisagé (court terme : année 2004 ;moyen terme : 2005-2006 ; long terme : au-delà, la mention deplusieurs temporalités indiquant la possibilité de résultatsintermédiaires).Les projets sont eux-mêmes organisés en grands thèmes ayantémergé de ces propositions. Ces thèmes reconfigurent lesprincipales catégories traditionnelles des technologiesmusicales, allant des phases les plus conceptuelles de laproduction des œuvres aux aspects les plus matériels de leurmédiation : écriture et travail du son en studio, lutherieélectronique, interaction temps réel en concert,spatialisation, nouvelles formes de médiation. L’ordre deprésentation des thèmes rend donc compte autant que possibledes différents maillons de la chaîne technologique articulantconception, production et diffusion des œuvres, les premiersse situant au cœur de l’activité traditionnelle du compositeuret les derniers concernant davantage les métiers de diffusion.10.2 Composer le sonCe thème concerne la préparation et l’écriture du matériaumusical en studio : écriture assistée des partitions,conception des éléments sonores. Il fonde son renouvellement àla fois sur celui des procédés de synthèse/transformation dessons, sur une approche systématique du contrôle à partir- 167 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANNEXESd’interfaces et structures de haut niveau et sur de nouvellesarchitectures destinés à la gestion de calculs massifs.10.2.1 Ecriture du sonL’objectif du projet est la réalisation d’outils decomposition reposant sur des représentations symboliques dessignaux sonores, dans la continuité des fonctions d’aide àl’écriture d’OpenMusic, mais allant au-delà des catégoriessymboliques usuelles (hauteurs, durées, timbres, etc.). Il sefonde sur une évolution du concept de maquettes dansOpenMusic, sur l’intégration d’outils d’analyse et de synthèsedes signaux tels que Audiosculpt et AddAn avec OpenMusic àtravers des formats d’analyse standard SDIF et ledéveloppement de fonctions de contrôle et d’éditeursgraphiques adaptés.Equipes concernées : Représentations musicales,Analyse/synthèse,.Cadre de réalisation : moyen terme, base existante à compléteret intégrer, développements spécifiques en fonction desbesoins des compositeurs (OMChroma, Audiosculpt, bibliothèquesd’analyse/synthèse).10.2.2 Synthèse et traitement par le contenuDans la même lignée que le précédent, mais sur des bases plusprospectives, ce projet vise la spécification de procédures desynthèse et de traitement à partir de la description durésultat sonore à obtenir et non plus de méthodes explicitesde production du son. Il repose sur les résultats récentsissus notamment du projet Cuidado en matière de descriptiondes sons et d’apprentissage automatique, ainsi que des travauxen Design sonore sur la catégorisation des sons. Uneapplication concrète de ce procédé est la réalisation d’unoutil d’aide à l’orchestration, dans laquelle différentesstratégies de fusion/ségrégation peuvent être envisagées, àpartir de bases de données d’échantillons de référence.Equipes concernées : Analyse/synthèse, Acoustiqueinstrumentale, Design sonore, Représentations musicales,Services en ligneCadre de réalisation : moyen-long terme, bases existantes etrecherches et développements spécifiques à mener.10.2.3 Lutherie virtuelleAu-delà du perfectionnement des possibilités de Modalys etl’intégration progressive de nouveaux objets et modesd’interaction (anches doubles, marteaux de piano, rôle duconduit vocal dans les instruments à vent,…), le développementdu noyau de synthèse par éléments finis ouvre de nouvellesdimensions à la lutherie virtuelle en permettant aucompositeur de concevoir des objets physiques tridimensionnelsà partir de mailleurs graphiques, de prendre en compte desmodes d’interaction plus riches (tels que frottementssurfaciques) et de modéliser le rayonnement spatial des« instruments » ainsi produits.Un autre enjeu important dans l’utilisation musicale desmodèles physiques concerne la réalisation de modalités decontrôle adaptées, permettant dans la mesure du possible demaîtriser et d’exploiter les comportements non-linéaires de- 168 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANNEXESces systèmes, notamment à partir de techniques d’inversion etd’apprentissage.Enfin, un travail est engagé sur le contrôle de Modalys surl’établissement de liens entre paramètres d’entrée desmodèles et sons produits.Equipes concernées : Acoustiques instrumentale,Analyse/synthèse, Design sonoreCadre de réalisation : court-moyen terme : projet élémentsfinis et contrôle de Modalys déjà engagés ; résultatsexistants à perfectionner sur l’inversion.10.2.4 Synthèse et traitement de la paroleCe projet concerne divers aspect du traitement de la paroleparlée et chantée : changement du timbre et autres attributsphonologiques (prosodie notamment), synthèse de voix virtuelleà partir d’un texte et de modèles issus de l’analyse de corpusparlés, alignement et suivi de phonèmes (ce dernier aspect,dans sa réalisation pour le traitement en temps réel, est liéau projet « reconnaissance des formes musicales » présentédans la suite). Il se fonde en particulier sur les méthodesd analyse/synthèse existantes (SuperVP, additive, Psola) etsur la technique de synthèse par sélection d’unités développéedans l’équipe Analyse/synthèse, reposant sur le micro-montagede sons élémentaires automatiquement choisis dans une base dedonnées et assemblés en fonction des propriétés globalesattendues de la séquence. Particulièrement adapté à lasynthèse de la voix parlée et chantée, ce modèle peut parailleurs trouver des applications inédites pour la synthèse dephrases musicales.Equipes concernées : Analyse/synthèse, Services en ligne,Applications temps réelCadre de réalisation : moyen terme10.2.5 Grille de calculIl est proposé la mise en place sur un ensemble d’ordinateursdu réseau local de l’<strong>Ircam</strong> d’une grille de calcul, permettantd’exploiter (en particulier dans les périodes creuses) lescapacités inutilisées des machines pour lancer des calculsvolumineux, en particulier en synthèse et traitement sonore,moyennant l’adaptation des logiciels concernés (Modalys,SuperVP, etc.).De telles possibilités tireraient parti de l’environnementtechnique de l’<strong>Ircam</strong>, par rapport à l’utilisation de systèmespersonnels, pour gagner plusieurs ordres de grandeur dans letemps d’exécution de calculs volumineux.Equipes concernées : Logiciels libres et ingénierielogicielle, Acoustique instrumentale, Analyse/synthèseCadre de réalisation : court-moyen terme, expérimentationspartielles déjà menées, phase de développement spécifique etd’adaptation nécessaire des applications10.3 Instruments électroniquesLa métaphore de l’instrument garde un rôle prééminent ensituation de concert, qui tient notamment à la richessed’expression qu’elle autorise et à la lisibilité du processusde production sonore à travers les corps des interprètes. Lesavancées en matière d’instruments électroniques concernent la- 169 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANNEXESréalisation de procédés de synthèse plus riches et la maîtrisede systèmes de contrôle gestuel adaptés.10.3.1 Echantillonneur SDIFAprès une première expérience probante de synthèse de jeuxd’orgues d’une part, de synthèse hybride de sons précalculésd’autre part (système Escher), il est proposé de généralisercette approche à travers un concept d’échantillonneur reposantsur des analyses précalculées d’échantillons et une synthèseen temps réel, offrant de nouvelles possibilités expressives(interpolation de timbres, application d’enveloppesspectrales, etc.).Equipes concernées : Analyse/synthèse, Applications tempsréel, Services en ligneCadre de réalisation : court terme, projet déjà engagé10.3.2 Modèles physiques temps réelLa complexité du contrôle et le coût de calcul des modèlesphysiques en avait jusqu’à présent limité l’utilisation entemps réel en concert. L’aboutissement récent de modèlesperformants (trompette, flûtes, piano), l’augmentation despuissances des ordinateurs, et la prise en compte de diversesstratégies de contrôle (apprentissage, mapping, interfacesgestuelles ad-hoc) permettent d’envisager leur utilisation entant qu’instruments en concert. Une autre approche concerne laréalisation de méta-modèles physiques, englobant lesdifférentes classes d’instruments (par exemple à vent) etpermettant de passer de l’un à l’autre selon des procéduresd’interpolation inédites.Equipes concernées : Acoustique instrumentale,Analyse/synthèse, Applications temps réel.Cadre de réalisation : court-moyen terme, demande definancement en cours10.3.3 Captation du geste instrumentalComplémentaire du précédent, ce projet vise la réalisation desystèmes de captation gestuelle adaptés à un jeu instrumental,soit par adjonction de capteurs sur des instruments existants(instruments augmentés), soit par la réalisation dedispositifs ad-hoc, intégrant éventuellement des procédures detraitement des informations gestuelles.Equipes concernées : Applications temps réel, Acoustiqueinstrumentale, Analyse/synthèseCadre de réalisation : court-moyen terme, projet déjà engagé10.3.4 Instruments spatialisésA partir des travaux sur les sources multi-haut-parleurs(Cube, Timée), ce projet vise la réalisation d’instrumentscombinant synthèse sonore et synthèse du rayonnement,notamment sur la base de modèles physiques pour la synthèse.Equipes concernées : Acoustique instrumentale, Acoustique dessalles, Design sonore.Cadre de réalisation : court-moyen terme, projet déjà engagé- 170 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANNEXES10.4 Conceptions de l’interactionLe paradigme « flot de données » sur lequel ont reposé lesgénérations successives de systèmes temps réel développés àl’<strong>Ircam</strong>, trouve ses limites dans la richesse possible desmodes d’interaction entre sons instrumentaux et synthèseélectronique. Les réalisations les plus élaborées dans cedomaine ont concerné les techniques de suivi de partition,jusqu’à récemment cantonnées au suivi de séquences dehauteurs. Le dépassement de ces limitations est envisagé selonplusieurs approches proposant chacune un mode particulier decorrespondance (synchronisation) entre les temporalités desstimulus captés d’une part (jeu de l’instrumentiste, geste dudanseur, …), des processus génératifs d’autre part, voire desprocessus génératifs entre eux.10.4.1 Reconnaissance des formes musicalesCe projet se fonde sur l’évolution des techniques de suivi, àpartir non plus seulement de séquences de hauteur, mais d’untexte de référence reposant sur différents types de formesmusicales : descriptions de structures musicales de plus hautniveau (profils mélodiques par exemple), gestes d’interprètesissus de capteurs ajoutés à l’instrument (projet mode de jeuxproposé par Philippe Manoury), suivi de phonèmes dans lecontexte de la voix parlée ou chantée, etc...Equipes concernées : Applications temps réel,Analyse/synthèse.Cadre de réalisation : projet déjà engagé10.4.2 Mouvement du corps et processus musicauxCe projet, qui s’inscrit dans la continuité du projet Listend’une part et dans la mise en place du pôle de technologiespour le spectacle d’autre part, vise la réalisation de modesd’interaction entre geste corporel (déplacement du corps,geste dansé) et processus musicaux, à partir de techniquesd’analyse du mouvement. Il s’applique à la réalisation despectacles de danse, de théâtre, où de situations de réalitévirtuelle ou augmentée associés à un suivi de position.Equipes concernées : Applications temps réel, Acoustique dessalles.Cadre de réalisation : moyen-long terme, projet déjà engagé10.4.3 Improvisation et rythmeCe projet vise à pallier le manque de fonctions élaborées degestion des informations musicales dans Max en articulantprocessus temps réel dans Max et processus temps différé dansOpenMusic et à compléter les représentations et fonctions demanipulation du rythme dans OpenMusic. Les applicationsenvisagées concernent la réalisation de systèmes pourl’improvisation, ainsi que la gestion de rythmes en tant queprocessus cycliques synchrones, à la fois envisagés dans lecontexte de l’écriture et de l’interaction temps réel.Equipes concernées : Représentations musicales, Applicationstemps réelCadre de réalisation : court-moyen terme, projet improvisation déjà engagé- 171 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANNEXES10.4.4 Concert distribuéTirant parti des travaux récents en matière de streaming audio(diffusion en temps réel à travers des réseaux locaux,métropolitains et sans fil), ce projet vise la réalisationd’applications permettant à des instrumentistes situés dansdes sites distants d’interagir, selon des procédures desynchronisation et d’interaction adaptées.Equipes concernées : Ingénierie logicielle et logicielslibres, Applications temps réel, Acoustique des salles,Service informatiqueCadre de réalisation : moyen terme, demande de financementprévue10.5 L’espace musicalLes nombreuses avancées récentes issues des travaux deséquipes Acoustique des salles et Design sonore, réaliséesnotamment dans le cadre de projets européens, ouvrent denouvelles possibilités en matière de description de scènesspatiales, de systèmes de restitution, et de simulation sonoredans un contexte de réalité virtuelle ou augmentée.10.5.1 Wavefield SynthesisCette nouvelle technique de synthèse d’un champ acoustique bioutri-dimensionnel présente à de nombreux égards des avancéesprometteuses en matière de diffusion spatiale : synthèsehomogène de sources virtuelles dans tout l’espace dediffusion, possibilité de simulation de sources à l’intérieurde l’espace de diffusion et de source à l’infini (ondesplanes). Ce projet vise l’installation d’un tel système envraie grandeur à l’<strong>Ircam</strong> et le développement d’outils decomposition spécifiques intégrés au Spat.Equipe concernée : Acoustique des sallesCadre de réalisation : court-moyen terme, financementspécifrque à trouver10.5.2 Ecriture de la spatialisationCe projet vise la réalisation d’un outil de composition de laspatialisation, articulant différents types de représentations(spatiales, symboliques, graphiques), et permettant d’éditerconjointement le déploiement spatio-temporel des élémentsconstituant la scène sonore (copier-coller dans lareprésentation espace-temps). Il s’attache aussi, en relationavec le projet « Mouvement du corps et processus musicaux »présenté plus haut, à définir et gérer la cohérence de modesd’interaction entre stimulus variables spatialement (positiondu corps), et processus génératifs instanciés spatialement ettemporellement.Equipes concernées : Acoustique des salles, Applications tempsréel, Représentations musicalesCadre de réalisation : moyen terme10.5.3 Interactions image/son/gesteEtudes et expériences sur les influences entre modalitésauditive, visuelle, et gestuelle en contexte d’interaction, etleur traduction dans le cadre de systèmes interactifs- 172 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANNEXESassociant captations sonore, gestuelle et synthèses sonore etsynthèse d’image et retour d’effort.Equipes concernées : Acoustique des salles, Design sonore,Analyse/synthèse, Applications temps réelCadre de réalisation : court-moyen terme, plusieurs approchesdéjà engagées10.5.4 Environnement du sonCe projet vise la mise en œuvre de méthodes et outils deconception de scènes sonores et musicales dans leur relation àun environnement extérieur : installations sonores,signalétique sonore, etc.Equipes concernées : Design sonore, Acoustique des salles,Acoustique instrumentale.Cadre de réalisation : court-moyen terme, projet déjà engagé10.6 Nouvelles formes de médiation de la musiqueAu-delà de la situation de spectacle qui constitue la finalitépremière de ses productions musicales, la convergence actuelledes médias de diffusion autour des technologie numériquesouvre à l’<strong>Ircam</strong> un nouvel espace de diffusion de la créationcontemporaine, voué à la fois à permettre une écoute avant ouaprès concert, ou hors concert, dans des conditions nouvellespar rapport à l’actuelle haute fidélité, notamment en termesde représentation et de spatialisation de l’événement musical,et à toucher des publics éloignés des grandes scènesinternationales. Ces technologies rendent en effet possiblesdes conditions d’écoute potentiellement plus favorables à ladiffusion de la musique contemporaine. L’investissement de cesnouveaux médias de diffusion, vecteurs de contenus structurésbeaucoup plus riches que la diffusion traditionnelle d’œuvresenregistrées sur CD, est envisagé selon deux approchescomplémentaires . Il concerne d’une part des réalisationshypermédias autour d’œuvres conçues pour le concert, selon denouveaux instruments d’écoute ; ce projet passe par laconstitution d’une nouvelle musicologie qui se fonde sur uneintégration de l’outil technologique, tant pour l’aide àl’analyse, la prise en compte des technologies de créationcontemporaines, que pour la médiatisation de ses travaux etleur diffusion. Il vise à expérimenter, d’autre part, lacréation de formes musicales originales, spécialement conçueset tirant pleinement parti des possibilités de ces nouveauxmédias.10.6.1 Outils d’analyseL’objectif de ce projet est la constitution d’un environnementcohérent d’outils d’aide à l’analyse musicologique, résultantd’une adaptation de logiciels de l’<strong>Ircam</strong> : Audiosculpt,OpenMusic, etc. Les adaptations spécifiques concerneront tantles procédés d’analyse sur différents types de matériaux (sonenregistré et partitions notamment) que la réalisation defonctions spécifiques telles que des fonctions d’annotation etd’historicisation des processus compositionnels à des finsd’analyse génétique des œuvres.Equipes concernées : Analyse/synthèse, Représentationsmusicales, Formulation du musical, Services en ligneCadre de réalisation : moyen terme, projet déjà engagé- 173 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANNEXES10.6.2 Instruments d’écouteCe chantier s’inscrit au confluent de plusieurs projets visantà expérimenter de nouvelles interfaces destinées à qualifierl’écoute en renouvelant les modes traditionnels d’accès auxmusiques enregistrées : projet Ecoutes signées, projeteuropéen Semantic HIFI (chaîne HIFI du futur), réalisation deprésentations interactives d’œuvres pour la pédagogie musicaledans les collèges, lycées et conservatoires, son multinacaldomestique.Equipes concernées : Formulation du musical, Représentationsmusicales, Analyse/synthèse, Applications temps réel, Servicesen ligne, Logiciels libres et ingénierie logicielle.Cadre de réalisation : court-moyen-long terme, projet déjàengagé10.6.3 Outils auteur pour l’écriture hypermédiaL’objectif de ce projet, lié au précédent, et de concevoir desoutils auteur destinés à la création de formes musicales,conçues non pas pour le concert, mais pour de nouvellesinterfaces interactives. La maturation et la diffusiongénéralisée des technologies numériques et interfaces d’accèsoffrent aux compositeurs un substrat propice à la réalisationde nouvelles formes, tout en bénéficiant potentiellement d’unediffusion très large. Parmi les directions possiblesd’investigation, on peut mentionner la dé-linéarisation ducours temporel de l’écoute, l’assemblage dynamique desmatériaux, l’utilisation de processus génératifs, lanavigation dans une scène sonore multi-pistes, le guidage deparcours à travers des interfaces haptiques (retour d’effort),etc.Equipes concernées : Analyse/synthèse, Représentationsmusicales, Formulation du musical, Acoustique des salles,Applications temps réel, Services en ligneCadre de réalisation : moyen terme- 174 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANNEXES11 ANNEXE : Séminaire recherche et création24 séances de ce séminaire « recherche-création » se sonttenues entre janvier et décembre <strong>2003</strong>, généralement lesmercredis de 12H30 à 13H30.L’objectif de ces présentations hebdomadaires est de créer unepasserelle entre les équipes de recherche et de création, afinde maintenir un échange - allant du dialogue au débat - entreles chercheurs de différentes équipes, les compositeurs et lesassistants musicaux, pour permettre une mise à profit desexpériences et des réalisations réciproques.Coordination : Florence Quilliard- mercredi 08 janvier : Présentation de la réalisation sonore deOlivier Pasquet pour Un jour de légende qui est une lecture de LaLégende des siècles de V. Hugo.- mercredi 22 janvier : "Suivi de partition, état de l'art etdirections futures". Présenté par Diemo Schwarz, Nicola Orio, SergeLemouton, Philippe Manoury.- mercredi 12 février : "Etude de la perception des avertisseurssonores automobiles : application au design sonore". Présenté parGuillaume Lemaître.- mercredi 26 février : Présentation de la création : Quatrièmequatuor, commentée par le compositeur Jonathan Harvey et GilbertNouno.- mercredi 12 mars : Présentation de la création : VOI(REX), commentéepar le compositeur Philippe Leroux et Frédéric Voisin.- mercredi 02 avril : Présentation de Scorpions, oeuvre commentéepar le compositeur Martin Matalon et Tom Mays.- mercredi 30 avril : "Traitement des informations multisensoriellesen réalité virtuelle". Présenté par Isabelle Viaud-Delmon, OlivierWarusfel.- mercredi 21 mai : "Catégorisation auditive des sources sonores".Présenté par Olivier Houix.- mercredi 28 mai : "Extraction de structures musicales à partir del'analyse du signal audio dans le but de générer des résumésmusicaux". Présenté par Geoffroy Peeters et Kasper Souren.- mercredi 04 juin : "Logiciels libres pour la musique et l'audio(AGNULA)". Présenté par François Déchelle.- mercredi 11 juin : "Convenient Music Information Retrieval (MIR) :Experiences in Research and Real-World Scenarios". Présenté parStephan Baumann, chercheur invité.- mercredi 25 : "Outils-auteur de la spatialisation". Présenté parOlivier Delerue, Riitta Väänanen.- mercredi 02 juillet : "Alignement de partition avec unenregistrement".Présenté par Soulez.- lundi 06 octobre : "Ecoutes signées". Présenté par Nicolas Donin.- mercredi 08 octobre : "Studio hypermedia -Web radio, analyse del'opéra "K", DVD à la carte". Présentation des projets par Jérome- 175 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANNEXESBarthélemy, Julien Bloit, Ludovic Gaillard, Olivier Lescurieux,Vincent Puig, Marc Texier.- mercredi 29 octobre : "Transitoire, sinusoïd, ou bruit : analyse etclassification des pics du spectre". Présenté par Axel Roebel.- lundi 03 novembre : "Modification de l'identité d'une voix etsynthèse de la parole à partir du texte par sélection d'unités".Présenté par Orsten Karki et Guillaume Denis, Xavier Rodet.- lundi 03 novembre : Présentation des travaux de Orsten Karki. ParXavier Rodet.- mercredi 05 novembre : "Étude de la structure psychologique et dudécours temporel des émotions musicales". Présenté par SandrineVieillard.- mercredi 19 novembre : "Un système d'analyse musicale suivant unemodélisation cognitiviste de l'écoute". Présenté par OlivierLartillot.- mercredi 26 novembre : "COSAL" : une interface de programmationdonnant accès à la base de données d'échantillons de la Sound PaletteCuidado". Présenté par Pascal Mullon et Guillaume Boutard.- mercredi 03 décembre : Présentation de l'opéra Les nègres, commentéepar le compositeur Michael Levinas et Gilbert Nouno.- lundi 08 décembre : "MacOSX à l'<strong>Ircam</strong>". Présenté par Laurent Ghys.- mercredi 17 décembre : Présentation de Wingter Song commentée, parla compositrice Chaya Czernowin et Eric Daubresse.- 176 -


<strong>RAPPORT</strong> DETAILLERECHERCHE ET DEVELOPPEMENTANNEXES- 177 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESCREATION MUSICALECREATION ET DIFFUSION MUSICALESDirecteurs artistiques : Eric De Visscher (jusqu’au 30/06/03)et Jean-Miche Lejeune1 LA CREATION MUSICALEDirecteur de la production : Alain JacquinotCoordinateur des assistants musicaux : Eric DaubresseResponsable de l’ingénierie sonore : David PoissonnierLa création musicale, pilier essentiel de l’activité del’<strong>Ircam</strong> se déployant en étroite conjonction avec lesdépartements recherche et pédagogie, est animée et organiséepar deux services de l’institut dont la collaborationintensive est absolument indispensable : la directionartistique et la production. C’est dans ce binôme inséparableque se projettent et se concrétisent les projets artistiques,du stade de la conception à leur réalisation, de la création àla diffusion : le résultat de ce travail constitue donc uneimportante vitrine de l’activité de l’<strong>Ircam</strong>, du fait de lagrande quantité d’événements publics, à Paris comme en régionet à l’étranger qui en résulte.La direction artistique donne l’impulsion première à cesprojets, en initiant et en instruisant les projets desartistes (compositeurs, mais aussi interprètes et ensembles),en en suscitant d’autres, en créant un réseau de partenairesautour de ces projets, en établissant le cadre dans lesquelsils seront présentés (saison musicale, festivals ou autremanifestation, tournée,…). Outre le suivi artistique desprojets, un important travail de coordination est donceffectué dans ce service, afin de mettre les projets en lienavec les autres départements de la maison, ainsi qu’avec lespartenaires extérieurs, d’éventuels soutiens (notammentfinanciers) extérieurs, etc.Le service de la production gère et planifie la mise en œuvrede ces projets : elle table pour cela sur une solideexpérience en matière d’organisation et de connaissance duterrain. Le service regroupe des compétences hautementspécialisées et diversifiées : outre ses servicesadministratifs (gestion des plannings, mise en œuvre decontrats, engagements de personnels qualifiés,…), il regroupenotamment les assistants musicaux, les ingénieurs etrégisseurs du son, les régisseurs de salle. A tout moment, cescompétences sont mobilisées pour mener à bien les projets. Siles assistants musicaux sont ceux qui travaillent en prisedirecte avec les compositeurs et ce dès l’initiation duprojet, les ingénieurs du son interviennent assez rapidementpour conseiller les compositeurs et mettre en œuvre les outils- 178 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESCREATION MUSICALEet moyens de diffusion nécessaires. La régie générale veille àla bonne marche de cette réalisation. Un important travail decoordination entre ces différentes compétences est égalementmené, en interne mais aussi vis-à-vis de partenairesextérieurs, par exemple les lieux qui nous accueillent dans lecadre de nos tournées.1.1 La sélection des compositeurs1.1.1 Le comité de lectureAfin de rester à l’écoute des multiples courants quitraversent le monde musical et de découvrir les personnalitésémergentes de la création contemporaine, l’<strong>Ircam</strong> et l’EnsembleIntercontemporain organisent depuis plus de dix ans un comitéde lecture qui réunit compositeurs, interprètes etorganisateurs, en vue de sélectionner de jeunes musiciens. Lescompositeurs peuvent se porter candidats soit pour obtenir unecommande, soit pour venir se former aux nouvelles technologiesde la musique.Le jury est formé de personnalités indépendantes, reconnues àl’échelon international, et des responsables artistiques del’Ensemble Intercontemporain et de l’<strong>Ircam</strong>. Provenantd'horizons géographiques et artistiques variés, ses membressont attentifs à la diversité des sensibilités musicales descompositeurs d’aujourd’hui.Grâce à la série de concerts « Tremplin », lancée en décembre2002, une plus grande visibilité publique sera dorénavantdonnée au travail de fond mené par le Comité de lecture, carc’est dans ce cadre que seront prioritairement présentées lescommandes attribuées ou que seront jouées des œuvresremarquées par les membres des jury successifs.Le jury <strong>2003</strong> s’est réuni au mois de novembre et a sélectionné,sur 311 candidats, six compositeurs pour des commandes etvingt compositeurs participant aux activités pédagogiques del’<strong>Ircam</strong>. Il était composé de quatre compositeurs : Unsuk Chin(Corée), Philippe Leroux (France), Emmanuel Nunes (Portugal),Michael Obst (Allemagne), ainsi que de Michael Wendeberg,musicien de l'Ensemble Intercontemporain, et Jean-MichelLejeune, directeur artistique de l’<strong>Ircam</strong>.Les candidats retenus sont :- pour les commandes pour l’Ensemble Intercontemporain :Aureliano Cattaneo (Italie), Alberto Posadas (Espagne),- pour les commandes de l’<strong>Ircam</strong> incluant des nouvellestechnologies : Jerôme Combier (France), Benjamin De LaFuente (France), Panayiotis Kokoras (Grèce), ValerioSannicandro (Italie),- pour le cursus de composition et d’informatique musicale del’<strong>Ircam</strong> : Patricia Alessandrini (Etats-Unis), AlejandroCastanos (Mexique/Grande-Bretagne), Juan Cristobal Cerillo(Mexique), Malika Kishino (Japon), Sasha lino Lemke(Allemagne), Vassos Nicolaou, Sun-young Pahg (Corée), Luis-Fernando Rizo-Salom (Colombie), Claire-Mélanie Sinnhuber(France/Suisse), Christopher Tonkin (Australie).- pour le stage de composition et d’informatique musicale del’<strong>Ircam</strong> : Patrizio Barontini (Italien), Perttu Haapanen(Finlande), Age Hirv (Estonie), Matthias Krueger- 179 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESCREATION MUSICALE(Allemagne), Carlos Lopez (Mexique/Etats-Unis), SebastienRivas (France/Argentine), Avi Tchamni (Israël), Jose JavierTorres Maldonado (Mexique), David Trescos (France), PauloZuben (Brésil).Les compositeurs actifs en <strong>2003</strong> à l’<strong>Ircam</strong> et dont le projetavait été précédemment sélectionné par le comité de lecturesont Mathew Adkins (Grande-Bretagne), Javier Alvarez(Mexique), Chaya Czernowin (Israël-Etats-Unis) et FredrikHedelin (Suède).1.1.2 La sélection de l’<strong>Ircam</strong>Outre les projets sélectionnés par le comité de lecture, lesautres compositeurs qui travaillent à l’<strong>Ircam</strong> ont été choisispar la direction artistique sur base de propositions faitespar les compositeurs eux-mêmes, par des institutions aveclesquelles l’<strong>Ircam</strong> entretient des liens étroits (festivals,organisateurs de concert, radios, etc) ou par sollicitationdirecte auprès de certains créateurs.Les critères de sélection sont l’intérêt artistique, lavolonté de recherche et d’expérimentation, l’utilisation etles prolongements des technologies développées à l’<strong>Ircam</strong>, etl’insertion du projet dans un réseau de diffusion musicale.Lors de ces choix, l’on veille également à respecter uncertain nombre de grands équilibres entre styles musicaux,générations et provenance géographique des compositeurs, afinde refléter la diversité des approches musicalesd’aujourd’hui. Les compositeurs actifs en <strong>2003</strong> et ayant étéchoisis selon ce mode sont Roland Auzet (France), BernardCavanna (France, dans le cadre d’une collaboration avec laComédie-Française), Frédéric Durieux (France), Walter Feldmann(Suisse), Jonathan Harvey (Grande-Bretagne), Philippe Leroux(France), Michaël Levinas (France), Philippe Manoury (France),Yan Maresz (France) et François Sarhan (France).1.2 Les compositeurs en productionUne fois choisis, les compositeurs élaborent avec le servicede la production le calendrier du processus de travail et lechoix des collaborateurs, en premier lieu de l’assistantmusical, qui va élaborer la partie informatique de lacomposition. En fonction du calendrier et des contraintes dediffusion, l’équipe des ingénieurs du son est égalementinformée rapidement de la nature du projet. Le rôle desassistants musicaux et, dans un second temps, des ingénieursdu son, est primordial dans l’élaboration technique et lesuivi du projet compositionnel, obligeant en quelque sorte lecompositeur à travailler en équipe. L’assistant musical aaussi pour mission de proposer des solutions techniques, demener à bien les processus informatiques à mettre en œuvrepour l’élaboration du projet musical et de servir de lienentre les besoins de ce projet et les développements réalisésdans le cadre du département recherche de l’<strong>Ircam</strong>. Bienentendu, le compositeur reste maître des choix artistiques etresponsable de la conduite générale de son projet. En <strong>2003</strong>,quatorze compositeurs ont travaillé en studio.Matthew Adkins : Nights Bright DaiesEffectif : deux pianos, deux percussions et électronique -Commande de l’<strong>Ircam</strong>, sélectionnée par le comité de lecture- 180 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESCREATION MUSICALE2001 - Assistant musical : Olivier Pasquet - Création le 3juin 2004 par les solistes de l’ensemble Ictus dans le cadredu Festival Agora. Durée : 16 minutes. Editeur : BMIC.Ce jeune compositeur anglais fut remarqué et primé lors ducomité de lecture de 2001, par une série d’œuvres pourinstruments solistes et électronique. Il est un des raresjeunes musiciens anglais à parfaitement maîtriser leslogiciels de l’<strong>Ircam</strong> : dans cette pièce, il explore lespossibilités offertes par le traitement, en temps différé, dessons percussions en vue d’une intégration très poussée entrele dispositif instrumental (déjà fort exploré à l’<strong>Ircam</strong> avecdes œuvres de Leroux, Lindberg et Jarrell, ce qui permet deparler aujourd’hui d’un véritable répertoire pour pianos,percussions et électronique) et les outils électroniques. Cetravail a porté sur la construction de sons proches des sonsinstrumentaux, la création de résonances très finementélaborées, l’élaboration de rythmes à partir d’un son donné etle développement de concepts comme le « time-freezing ».Javier Alvarez : Mantis Walk in Metal SpaceEffectif : steel drum, ensemble et électronique - Commande del’<strong>Ircam</strong>, sélectionnée par le comité de lecture 2000 -Assistant musical : Olivier Pasquet - Création le 11 juin <strong>2003</strong>au Centre Pompidou par Miquel Bernat, percussion, etl’ensemble Ictus, sous la direction de Georges-Elie Octors,dans le cadre du Festival Agora. Durée : 16 minutes. Editeur :inédit.Très influencé par les musiques populaires, notamment latinoaméricaines(on se souviendra de sa pièce pour maracas etbande magnétique présentée lors de journées portes ouvertes de1998), le compositeur mexicain Alvarez vit depuis de longuesannées à Londres. Il est un expert des techniques detraitement en studio et de synthèse sonore. Dans cette œuvreécrite spécialement pour Miquel Bernat, percussionniste del’Ensemble Ictus, différentes techniques de resynthèse, àpartir du logiciel Diphone, ont été développées ainsi que desformes de spatialisation contrôlées rythmiquement.L’instrument soliste, le steel drum, fait l’objet d’unecapture spécifique, qui après analyse donne lieu à de latransformation sonore. Le jeu du soliste provoque égalementdes déclenchements de fichiers sons, en fonction de paramètrescomme la vitesse et la dynamique de jeu.Georges Aperghis : Avis de tempêteOpéra - Commande de l’Opéra de Lille - Livret : GeorgesAperghis et Peter Szendy -Direction musicale : George-ElieOctors - Mise en scène : Georges Aperghis - Création images :Filmfabriek - Kurt D’Haeseleer (vidéo) et Peter Missotten(scénographie)- Informatique musicale <strong>Ircam</strong> - Assistantmusical : Sébastien Roux - Création le 17 novembre 2004 àl’Opéra de Lille par Donatienne Michel-Dansac, Lionel Peintre,Romain Bischoff, Johanne Saunier, Ensemble Ictus.Dans une utilisation maximale de l’espace et en bénéficiant demoyens vidéos, Georges Aperghis et ses interprètes-acteursréalisent une fresque musicale qui parle des perturbations dumonde. L’électronique apporte son énergie fulgurante à cetteforme métaphorique de ce qui pourrait également être envisagéecomme une apocalypse.Roland Auzet : Schlag !- 181 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESCREATION MUSICALED’après Le Tambour de Günter Grass - Conception, musique,scénographie, dramaturgie : Roland Auzet - Mise en scène :Philipp Boë - Personnage de réalité virtuelle et images vidéo: Catherine Ikam, Louis Fléri - Marionnette et masque :Etienne Bideau-Rey, Gisèle Vienne - Artistes de cirque :Sodadeth San, Roman Müller, Nella Zerboni, Stéphanie Lhorset,Andreas Muntwyler, Ulla Tikka, Jack Souvant, Isabelle Rivoal -Artistes musiciens : Roland Auzet, Steven Schick, LesPercussions du Centre International de Percussion (SébastienCordier, Nicolas Curti, Thierry Debons, Didier Métrailler,Stéphane Pechoux) - Musique, vidéo temps réel et dispositifsélectroniques réalisés dans les studios de l’<strong>Ircam</strong> et du SiteCRA - Environnement de captation vidéo temps réel : Eyes Web,en collaboration avec le laboratoire d’informatique musicaleDIST de Gêne (Italie) - Assistants musicaux : Frédéric Voisin,Manuel Poletti. Ingénieurs-concepteurs : Emmanuel Fléty(<strong>Ircam</strong>), Yan Philippe (Site CRA) - Ingénieurs-développeurs dupersonnage virtuel : Julien Roger, Jean-Michel Sanchez, ThomasMüller (CCRV) - Collaboration artistique, costumes : VéroniqueBétourné - Instruments scéniques : Robert Hebrard - Créationle 10 juin <strong>2003</strong> au jardin des Tuileries à Paris sous chapiteaudans le cadre du Festival Agora - Durée : 90 minutes -Editeur : inédit.Emblématique de la direction que souhaite prendre l’<strong>Ircam</strong> dansson interaction avec le spectacle vivant, Schlag ! est unspectacle mêlant les arts du cirque, la musique et lesnouvelles technologies. La thématique principale s’inspire duroman de Günter Grass, Le tambour, dans lequel un petitgarçon, Oscar, porte un regard inquisiteur sur le monde.Posant entre autres les questions de la normalité et de notrerelation au virtuel, le spectacle s’articule autour del'interaction entre quatre entités : des artistes de cirque,sept percussionnistes, un personnage virtuel (Oscar) prenantvie sur six écrans vidéo et des éléments sonores électroniquesspatialisés. Une des idées clefs du spectacle est de mettre enrelation les actants, la créature virtuelle et le sonélectronique grâce à un système de captation du geste et dumouvement. Ce système a pour base le logiciel EyesWeb etl’environnement de développement Max/MSP. EyesWeb permet, àpartir de boîtes de fonction que l'on relie entre elles, de« fabriquer » un algorithme s'appliquant à des images vidéo.Celles-ci sont capturées par l’ordinateur pour analyse dontles données résultantes sont envoyées par réseau Ethernet versun ordinateur central faisant office de chef d’orchestre. Deuxtypes d’applications ont été développées. La première est uneanalyse de la piste vue de dessus : c’est elle qui donnevéritablement des yeux à Oscar en lui indiquant combien depersonnes sont présentes sur scène, leur position respectiveet leur façon de se déplacer. Le second type d’application estorienté vers la reconnaissance de forme : le système est alorspar exemple capable de reconnaître une posture corporelleexécutée par un actant, ou encore la forme de la main del’instrumentiste. Dans ce dernier cas, le système donne accèsà l’instrumentiste à une interface gestuelle invisibleinspirée du langage des signes lui permettant de déclencherdes sons en fonction des postures présentées par ses mains.(d’après Emmanuel Fléty)Bernard Cavanna : Quatre quatuors pour un week-end- 182 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESCREATION MUSICALEMusique de scène pour la pièce de théâtre Quatre quatuors pourun week-end de Gao Xingjian - Commande : Comédie-Française -ingénieurs du son : Sébastien Naves et Jérémie Henrot -création le 12 mars <strong>2003</strong> au Théâtre du Vieux Colombier.Durée : 120 minutes. Editeur : Editions musicales européennes.Dans le cadre de la collaboration avec la Comédie-Française,cette institution nous a demandé de leur proposer uncompositeur ayant l’expérience du travail de la scène, afin decollaborer avec l’écrivain et metteur en scène Gao Xingjian.La partie musicale, constituée de brefs extraits musicaux pourquatuor à cordes, dont certains seront traités en studio, faitoffice de double de cet autre quatuor qu’est le texte. Pourdes raisons pratiques, il n’est pas prévu d’utiliser ici dessystèmes de traitement en temps réel, mais de tester en studioun certain nombre de choix de transformations sonores et deles diffuser sur support durant les représentations duspectacle.Chaya Czernowin: Winter Songs I : Pending LightEffectif : ensemble et électronique - Commande de l’<strong>Ircam</strong>,sélectionnée par le comité de lecture 1998 - Assistantmusical : Eric Daubresse - Création le 19 décembre <strong>2003</strong> auCentre Pompidou par l’Ensemble Intercontemporain, sous ladirection de Gergely Vajda, dans le cadre de la série« Tremplin » - Durée : 13 minutes - Editeur : Schott.Compositrice israëlienne, vivant et enseignant à l’Universitéde Californie de San Diego, Chaya Czernowin réalise ici sapremière œuvre à l’<strong>Ircam</strong>, après avoir travaillé auparavant austudio de la Fondation Strobel à Freiburg. L’ensembleinstrumental sera de taille réduite, permettant un traitementsolistique des instrumentistes ou des regroupements inéditsd’interprètes. La pièce fera appel à des traitements en studiode sons concrets (branches, craquements,…) et cherchera àexplorer différents types de plans sonores (instrumentaux,électroniques, mélangés) à l’aide des techniques de laspatialisation, tout en restant dans un cadre de diffusionfrontale. C’est dans la verticalité et la profondeur de champsqu’il s’agira d’effectuer les insertions du son dans l’espace.La musique de Czernowin véhicule un contenu émotionnel fort,qui se manifeste dans des textures denses : les mouvementsspatiaux permettront de tracer des chemins dramaturgiques danscette densité.Frédéric Durieux : ExtensionsEffectif : quatuor à cordes et électronique - Commande del’<strong>Ircam</strong> - assistant musical : Frédéric Voisin - création le 15juin 2004 à l’<strong>Ircam</strong> dans le cadre du Festival Agora, par leQuatuor Diotima. Durée : 15 minutes. Editeur : Jobert.Après avoir réalisé plusieurs œuvres à l’<strong>Ircam</strong> il y a près dedix ans, Frédéric Durieux, aujourd’hui professeur decomposition au Conservatoire National Supérieur de Musique deParis, revient effectuer un nouveau travail dans nos studios,qu’il souhaite plus souple et transportable que les œuvresprécédentes. L’évolution de la technologie aidant, cettemaniabilité n’empêchera pas de s’atteler à des dispositifs detraitement en temps réel des cordes, un domaine encoreinsuffisamment exploré.Le titre Extensions indique l’un des traits fondamentaux decette nouvelle œuvre dont l’écriture consiste à prolonger, à- 183 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESCREATION MUSICALEétendre le jeu instrumental. Certaines situations musicales,rythmiques, mélodiques, ou liées à des modes de jeuparticuliers, sont déployées dans le champ électronique, etdans l’espace. Frédéric Durieux réalise ainsi son propreregard sur cet archétype qu’est le quatuor à cordes enl’appréhendant d’abord comme objet musical dont il recomposele matériau, non sans références au travail de certainsplasticiens.Jonathan Harvey : Quatrième quatuor à cordesEffectif : quatuor à cordes avec dispositif électronique entemps réel - Commande de l’<strong>Ircam</strong>, Ars Musica (Bruxelles) et duFestival Ultima (Oslo), dans le cadre du Réseau Varèse -Assistant musical : Gilbert Nouno - Création le 11 mars <strong>2003</strong> àArs Musica par le Quatuor Arditti ; reprise à Paris le 20 juin<strong>2003</strong> à l’<strong>Ircam</strong>, dans le cadre du Festival Agora et en octobre<strong>2003</strong> à Oslo (Festival Ultima). Durée : 30 minutes - Editeur :Faber Music Limited.Jonathan Harvey constitue un des compositeurs les plus fécondsdans sa collaboration avec l’<strong>Ircam</strong>, ayant réalisé cinq œuvresdans ses studios. Chacune d’elles constitue un point marquantdans l’utilisation des techniques développées à l’institut,qu’il s’agisse de synthèse sonore, de traitement ou despatialisation. Dans ce nouveau projet de quatuor à cordesavec électronique, inédit pour lui et encore insuffisammentexploré à l’<strong>Ircam</strong>, l’accent fut mis sur le traitement en tempsréel de l’ensemble des instruments. L’entièreté du matériauélectronique sera généré en temps réel par l’ordinateur, àpartir d’outils développés dans l’environnement MAX/MSP. Lecompositeur a également consacré beaucoup d’attention à laspatialisation des sons : « Les sons émis par les musicienssont diffusés dans l’espace selon des rythmes thématiques, desorte que la spatialisation s’intègre à la structure del’œuvre et est partie prenante du processus de transformation.Le logiciel Spat de l’<strong>Ircam</strong> permet de localiser les sons,quelles que soient leur distance et leur position. Un pointdéterminé peut donc se déplacer, telle une présence vivante;bien qu’invisible, le son acquiert ainsi une qualité qui lerapproche de la vie. Lorsque ce déplacement s’effectue avecrégularité, comme dans des pas de danse répétés, la« présence » se dote d’un caractère, d’une personnalité -tout en restant invisible. La musique devient la métaphore desubtils modes d'existence, depuis le « voyage astral »jusqu’au rêve, à « l’imagination verticale » de GastonBachelard, aux désirs d’envol de Nietzsche dans Zarathoustra,aux pratiques bouddhistes de visualisation au cours de laméditation, etc.! Le quatuor est le rêveur et laspatialisation, le rêve... » (Jonathan Harvey)Fredrik Hedelin : AKTEffectif : flûte, harpe, trio à cordes et dispositifélectronique - Commande de l’<strong>Ircam</strong>, sélectionnée par le comitéde lecture 2000 - Assistant musical : Olivier Pasquet -Création le 30 janvier 2004 par l’ensemble TM+ sous ladirection de Laurent Cuniot. Durée : 22 minutes. Editeur :Svensk Musik.Ce jeune compositeur suédois a fait preuve d’une grandeoriginalité dans sa pièce pour piano et électronique qu’ilavait réalisée dans le cadre du cursus de composition et- 184 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESCREATION MUSICALEd’informatique musicale de l’<strong>Ircam</strong> en 1997, Den envetnalyssnaren. Il fut ensuite remarqué par le comité de lecture,et entrepris la réalisation de cette œuvre inédite pour petitensemble et dispositif électronique. Le projet impliquera untraitement en temps réel des instruments, sur base d’analysessonores et en appliquant différents types de suivi departition. Il s’agira avant tout de développer un système« intelligent » susceptible d’analyser en temps réel le songénéral fourni par l’ensemble instrumental, de classifier cessons et de générer à partir de ces données de la synthèsesonore, d’une part, de la transformation des instruments, del’autre. Maîtrisant bien les outils de composition et detraitement sonore développés à l’<strong>Ircam</strong>, le compositeurs’intéresse également beaucoup aux outils d’analyse, derecherche dynamique dans les bases de données et réfléchitactuellement à leur intégration dans le dispositif decomposition.Philippe Leroux : VOI(REX)Effectif : voix, petit ensemble et électronique - Texte deLin Delpierre - Commande de l’Etat et de l’<strong>Ircam</strong> - Assistantmusical : Frédéric Voisin - Création le 21 janvier <strong>2003</strong> àl’<strong>Ircam</strong> par Donatienne Michel-Dansac, soprano et l’EnsembleL’Itinéraire sous la direction de Pierre-André Valade.Durée : 23 minutes. Editeur : Gérard Billaudot.Suite à l’expérience de M, pour deux pianos, deux percussionset électronique, l’<strong>Ircam</strong> et le compositeur ont souhaitépoursuivre une collaboration portant sur l’interaction entrevoix et électronique, avec une formation instrumentale prochedu type Pierrot Lunaire. S'intéressant aux différentestechniques vocales issues de cultures musicales très diverses,Leroux intègre ainsi la production vocale la plus sophistiquéeaux outils de traitement et de synthèse sonore les plusrécents. Cette œuvre constituée de plusieurs mouvements setermine par l'enregistrement de la voix parlée du poète LinDelpierre : si le poème constitue bien évidemment la base dumatériau vocal de la chanteuse, son analyse rythmiqueconstitue le socle temporel sur lequel s'articule toute lapièce. Le processus de composition, soigneusement annoté, faitl’objet d’un travail approfondi d’analyse avec lesmusicologues travaillant à l’<strong>Ircam</strong> et mènera, en étroiteinteraction avec ceux-ci, à la réalisation d’une nouvelleœuvre qui reprendra certaines des techniques d’écritureutilisées dans VOI(REX).Michaël Levinas : Les NègresOpéra d’après Jean Genet, mis en scène par Stanislas Nordey -Effectif : 13 chanteurs, orchestre et chœur - Commande desOpéras de Lyon et Genève - Assistant musical : Gilbert Nouno -Création le 20 janvier 2004 par le Chœur et l’orchestre del’Opéra national de Lyon sous la direction de BernhardKontarsky à l’Opéra de Lyon et reprise au Grand Théâtre deGenève le 17 avril 2004. Durée : 105 minutes. Editeur : HenryLemoine, Paris.A partir du texte de Genet, Michaël Levinas travaille à unopéra de grande envergure comportant un dispositifélectronique. « La pièce de Genet appelle l’opéra et le chant.Sa violence spirituelle, sociale et politique fait éclater lesrepères d’une certaine musique contemporaine et ses dogmes.- 185 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESCREATION MUSICALEL’opéra « Les Nègres » s’organise autour d’un temps musicalstructuré par des échelles modales qui s’altèrent en suivantl’action, une action qui alterne les « mélodies » d’Archibald,Félicité, Diouf, Village et Vertu et les polyphoniesparadoxales à 30 voix qui commentent, accompagnent etillustrent le simulacre de la scène du viol et les épisodesd’amour. » (Michaël Levinas) Le travail réalisé en studio àl’<strong>Ircam</strong> a consisté d’abord, dans le domaine de la CAO, enl’étude des évolutions et altérations de ces échellespolyphoniques (permettant des polyphonies paradoxales, sonsmontant et descendant simultanément, dédoublements endiagonales des groupes d’orchestres). Ensuite, certainessections du texte de la pièce sont chantées en « langagetambouriné » en utilisant de la synthèse croisée entre lesphonèmes de la langue et la percussion, ce qui a constitué uneimportante partie du travail réalisé à l’<strong>Ircam</strong>. Enfin,différents traitements de voix (liés à la dramaturgie decertains personnages-clés de l’opéra) prendront place dans undispositif qui fera appel à l’amplification des chanteurs et àla spatialisation du son.Philippe Manoury : La FrontièreOpéra de chambre - Effectif : six solistes, neuf musiciens etdispositif électronique - Livret : Daniela Langer - Mise enscène : Yoshi Oida - Direction musicale : Alain Planès -Assistant musical : Serge Lemouton - Production exécutive :Instant Pluriel - Création le 1 er octobre <strong>2003</strong> par RomainBischoff (baryton), Doris lamprecht (contralto), Vincent LeTexier (basse), Virginie Pochon (soprano), Nigel Smith(baryton), Dominique Visse (contre-ténor), Jean-FrançoisBallèvre (Chef de chant) et l’Ensemble Ictus à la Scènenationale Carré Saint-Vincent à Orléans, reprise ensuite auThéâtre des Bouffes du Nord (Paris), à Musica (Strasbourg), àl’Arsenal (Metz) et la Comédie (Clermont-Ferrand). Durée : 105minutes. Editeur : Durand, Paris.Après ses « grands » opéras, 60 èmeParallèle et K..., PhilippeManoury s’attaque à une forme plus réduite (6 chanteurs, petitensemble instrumental et dispositif électronique) : le livret,inédit, raconte un voyage, un passage à travers un payshostile, entrepris par une femme dont on réalise peu qu’elleest à la recherche.. . d’elle-même. Une équipe exceptionnelle,autour du metteur en scène Yoshi Oïda, du pianiste AlainPlanès et de l’Ensemble Ictus, prêtera ses talents à ce projetoriginal, qui fera l’objet d’une importante tournée en Franceet à l’étranger. Le travail réalisé par Philippe Manoury pourcet opéra se veut essentiellement applicatif : fort desexpériences acquises dans ses opéras précédents, lecompositeur a souhaité utiliser certaines des solutionschoisies (traitement des voix, spatialisation, suivi departition,…) dans un contexte plus léger et transportable, enfaisant appel au système Max/MSP. Une telle option va dans lesens de la continuité et un tel parti-pris n’empêche pas larecherche de solutions optimisées et pouvant déboucher sur denouvelles options artistiques.Philippe Manoury : NoonEffectif : soprano, chœur de chambre, orchestre etélectronique - Poèmes d’Emily Dickinson - Commande del’Orchestre de Paris dans le cadre du cycle Berlioz <strong>2003</strong> -- 186 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESCREATION MUSICALEAssistant musical : Serge Lemouton - Création le 11 décembre<strong>2003</strong> par l’Orchestre de Paris au Théâtre du Châtelet parValdine Anderson (soprano), Orchestre de Paris et Choeur dechambre ‘‘Les Eléments’’. Joël Suhubiette, chef de chœur sousla direction de Esa-Pekka Salonen. Durée : 48 minutes.Editeur : Durand, Paris.Le travail de synthèse vocale et de transformation entreprisdans des œuvres précédentes de Philippe Manoury (notamment EnEcho et l’opéra K…) trouve ici son point d’aboutissement dansune œuvre où les textes fragmentés d’Emily Dickinsontrouveront une parfaite expression musicale. L’œuvre estcommandée dans le cadre du bicentenaire de la naissanced’Hector Berlioz et sera donnée au Théâtre du Châtelet le jouranniversaire de ce bicentenaire.Yan Maresz : Sul SegnoVersion concert de la musique du spectacle chorégraphique AlSegno conçu par le chorégraphe François Raffinot en 2000.Effectif : guitare, harpe, cymbalum, contrebasse etélectronique - Assistant musical : Manuel Poletti - Créationle 6 juin 2004 au Centre Pompidou dans le cadre du festivalAgora par les solistes de l’Ensemble Intercontemporain.Dès la création du spectacle Al Segno, le compositeur avaitsouhaité réaliser une version de concert de cette œuvre, pluscourte, en modifiant légèrement l’instrumentation : au trioinitial, Yan Maresz a en effet ajouté une contrebasse. L’œuvrefait appel à une panoplie de traitements électroniques,réalisés en Max/MSP. La création de cette nouvelle version,initialement prévue en décembre 2002, fut reportée pour desquestions de calendrier. L’œuvre sera enregistrée et figurerasur le disque monographique Yan Maresz qui sortira en 2004(coproduction <strong>Ircam</strong>-Ensemble Intercontemporain-UniversalMusic)Emmanuel Nunes : Das Märchen (Le conte) d’après une nouvellede GoetheOpera - Commande du teatro Nacional de Sao Carlos (Lisbonne) -Assistant musical : Eric Daubresse - Création en mars 2006 auTeatro Nacional de Sao Carlos à Lisbonne par l’ensemble Remix.Cet opéra repose sur le texte de Goethe et fait appel à desquestions de recherche liées à des problématiques despatialisation du timbre.Brice Pauset : Symphonie IIIEffectif : orchestre de 23 musiciens - Commande de l’<strong>Ircam</strong>et du Klangforum Wien - Assistant musical : Olivier Pasquet -Création le 12 octobre 2004 au Konzerthaus de Berlin par leKlangforum Wien sous la direction d’Emilio Pomarico.Cette œuvre devrait s’inscrire dans le cadre du Réseau Varèse.Brice Pauset qui vient de créer sa Symphonie II poursuit sarecherche sur la spatialisation instrumentale avec cette œuvrequi clôture un cycle de 3 Symphonies. Ses recherches musicalesvont également vers des problématiques d’écriture rythmiquegénérée par ordinateur. Comme pour de nombreuses œuvres, lecompositeur réinvestit des formes du passé - ici la Symphonie- poursuivant ainsi la réflexion qu’il mène sur son proprerapport à l’histoire.François Sarhan : Kyrielle sur le sentiment des choses- 187 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESCREATION MUSICALEOpéra de chambre - Effectif : cinq chanteurs, piano préparé etdispositif électronique - Textes : Jacques Roubaud -Commande de T&M et du Festival d’Aix-en-Provence - Assistantmusical : Olivier Pasquet - Création le 5 mars 2004 au Théâtrede la Colline par Giuseppe Molino (comédien) et le RingEnsemble (Suvi Lehto, soprano. Susanna Tollet, mezzo. AndrusKallastu, ténor. Vikke Häkkinen, baryton. Matti Apajalaahti,basse. Vincent Leterme, piano et direction. Durée : 75minutes. Editeur : inédit.Dans cette œuvre à l’effectif bien particulier, le compositeurFrançois Sarhan poursuit son travail de collaboration avecJacques Roubaud, initiée lors de la réalisation de sa pièce aucursus de l’<strong>Ircam</strong>, Nuit sans date. Leur complicité porte surune même approche systématique ou algorithmique de lacomposition, musicale et textuelle. La « Kyrielle sur lesentiment des choses », texte composé en décembre 2001s'inspire de l'idée orientale d'un monde offert à lacontemplation. Les protagonistes, au nombre de cinq,construisent le monde par la parole, en nommant les choses. Lakyrielle est l'enchaînement de ces espèces naturelles selon lechoix formel du poète. Le monde sonore se déploieparallèlement au monde poétique grâce aux cinq chanteurs(figurés dans le texte par les couleurs) et un piano préparéet amplifié, vaste caisse de résonance dont la richesse faitpendant à la diversité calculée du vocabulaire. Les sonoritésseront légèrement déformées par un dispositif électronique,pour créer un univers singulier, entre l'acoustique etl'électronique, entre le naturel et l'artificiel. » (FrançoisSarhan)1.3 Les compositeurs en rechercheLes années 2002 et <strong>2003</strong> ont constitué un moment de réflexionsur le dispositif des compositeurs en recherche, afind’assurer une meilleure insertion de ces compositeurs dans leséquipes de recherche et de mieux assurer la continuité de leurtravail par rapport à des objectifs communs. L’année a tout demême vu la suite de projets en cours avec les compositeurssuivants :- Pedro Amaral (Equipe Systèmes Temps réel),- Mauro Lanza (Equipe Acoustique instrumentale),- Oliver Schneller (Equipe Acoustique des salles et Designsonore).- Marco Stroppa (Equipe Représentations Musicales),1.4 Les compositeurs du cursus de composition etd’informatique musicaleBien qu’émargeant du secteur de la pédagogie, les compositeursréalisant leur projet de fin de cursus sont fréquemment enrapport avec la direction artistique et avec le service de laproduction. Tout en étant considérées comme des aboutissementsd’un processus pédagogique, ces œuvres (pour un instrument ouune voix soliste et dispositif électronique, éventuellementavec des interventions d’images, de lumière ou de danse) sontprises en charge par nos services comme de véritablescréations, au même titre que les compositeurs travaillant dansles studios de la production. Ce sont donc chaque année dixnouvelles œuvres qui sont ainsi créées : si le soutien des- 188 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESCREATION MUSICALEassistants musicaux est assuré par le département de lapédagogie, les autres composantes de la production travaillentdurant plusieurs semaines à la préparation de ces concerts.Ces derniers ont été programmés dans le cadre des Résonances03.1.5 Les portagesActivité récurrente liée à l’innovation technologie, lanécessité de maintenir le répertoire électroacoustiquerequiert de la part des assistants musicaux tout d’abord unexcellent travail de documentation technique (suite à unecréation) et ensuite, pour des œuvres plus anciennes, untransfert d’une plate-forme informatique ancienne etéventuellement obsolète vers des outils actuels. Ces portagesne vont pas toujours de soi et demandent un long travailtechnique et une bonne connaissance de l’œuvre pour pouvoirreproduire sur des machines parfois totalement différentes lesmêmes processus de synthèse ou de transformation sonores.Le répertoire des œuvres réalisées à l’<strong>Ircam</strong> ne cessant decroître (fin <strong>2003</strong>, plus de 360 œuvres), cette activitéconstitue une lourde hypothèque sur la gestion des ressourceshumaines au département de la production, car un équilibredoit être trouvé entre création et répertoire. Le choix desœuvres portées chaque année est le fruit d’une collaborationentre direction artistique et production, les critères dechoix étant liés à des opportunités précises de reprise de cesœuvres et à l’intérêt musical et technologique de celles-ci.- 189 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALE2 LA DIFFUSION DE LA CREATION MUSICALE2.1 La saison musicale parisienneLa saison artistique de l’<strong>Ircam</strong> est aujourd’hui structuréeautour de deux manifestations-phares, le Festival Agora et lesRencontres Résonances, qui se déroulent respectivement en juinet en octobre, ainsi que de plusieurs concerts et spectaclesorganisés à l’<strong>Ircam</strong> ou dans d’autres salles parisiennes.Ses collaborations avec le Centre Pompidou, la Cité de la musique,l’Ensemble Intercontemporain, dans le cadre de l’opérationTremplin par exemple, les ensembles Court-circuit, L’Itinéraire,TM+, Ictus, la Maison de la Musique de Nanterre, viennentfortement marquer la vie musicale du pari sur le présent et surl’avenir que nous menons à tout instant. À Paris et bien souvent àl’<strong>Ircam</strong> même, mais également en France et à l’étranger, les trèsnombreux concerts que nous vous présentons ici - qu’ils relèventde notre initiative ou que nous soyons invités à y participer -vous permettent de découvrir les œuvres qui naissent dans nosstudios.- L’<strong>Ircam</strong> a jeté un coup de projecteur sur Philippe Leroux uncompositeur souvent trop discret et pourtant toujourspassionné par de nouvelles expériences de création. Soncompagnonnage avec l’<strong>Ircam</strong> l’a mené de la création de deuxœuvres (M et VOI(REX) à l’encadrement des compositeurs ducursus. Il s’intéresse aussi aux nouvelles formes deproduction musicale (film, DVD,…) et aux questionsd’annotation et de suivi de la création dans ses différentsstades d’élaboration.- L’<strong>Ircam</strong> et l’Ensemble Intercontemporain ont dressé unportrait non-exhaustif de la création en Grande-Bretagne,qui a offert une panoplie de compositeurs originaux, degénérations et de styles très différents. Au-delà despersonnalités connues, il s’agissait avant tout de fairedécouvrir au public des œuvres et auteurs inédits.- La collaboration avec la Comédie-Française a pris un tournouveau durant ce printemps avec la rencontre du Prix Nobelde littérature Gao Xingjian et du compositeur BernardCavanna pour une production théâtrale dont le thème est lequatuor. Ce fut le deuxième volet de la collaboration entrel’<strong>Ircam</strong> et la Comédie-Française, axée moins sur ledéveloppement du traitement en temps réel que sur uneredéfinition de la notion de « musique de scène » grâce àl’utilisation des outils technologiques.- Une rétrospective importante Pierre Boulez de quelquesœuvres majeures du fondateur de l’<strong>Ircam</strong> a présenté notammenttrois pièces réalisées dans nos studios (Dialogue de l’OmbreDouble, Anthèmes II et Répons), pour lesquelles latechnologie informatique a été mise à contribution demanière exemplaire.- La collaboration avec les Percussions de Strasbourg, initiéeen octobre 2002 avec la création de Martin Matalon s’estpoursuivi par une tournée qui s’arrêta pour deux soirées àla Cité de la musique à Paris. A cette occasion, l’ensemblenous a demandé d’assurer le suivi technique d’un troisième- 190 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALEconcert, consacré à une œuvre emblématique de Gérard Griseyinspirée de l’astrophysique.- Deux concerts avec l’ensemble Court-Circuit (œuvres de LuciaRonchetti et Jean-Luc Hervé, entourées de créationsfrançaises de Philippe Hurel et Michael Jarrell) et avecl’Itinéraire (créations de Georgia Spiropoulos et FrancescoFilidei) autour de jeunes compositeurs. Il s’agissait, pourl’<strong>Ircam</strong>, de poursuivre son action de promotion des jeunescompositeurs, cette fois-ci avec le concours de deuxensembles parisiens qui ont également pour mission depromouvoir la création. La complémentarité des missions etdes moyens mis en œuvre par les partenaires a garanti à lafois l’ouverture vers des courants esthétiques diversifiéset l’exigence de qualité musicale.- Evénement rare dans l’histoire de l’Opéra-Bastille, lareprise de l’opéra K… de Philippe Manoury (créé en 2001) atémoigné du succès de cette production et de son intérêtartistique. Les techniques de spatialisation et detraitement sonores développées à l’<strong>Ircam</strong> ont fortementcontribué à la réussite de ce projet.- Les deux concerts du cursus de composition et d’informatiquemusicale, session 2002-<strong>2003</strong> sont un rendez-vous annuel de lajeune création, de plus en plus suivis par le public et quifont preuve d’une qualité croissante au fil des années. Lamaîtrise des outils informatiques s’accompagne d’uneexpression de plus en plus individuelle de la personnalitémusicale des compositeurs participants.- Les créations de Philippe Manoury : l’opéra La Frontière etune nouvelle pièce d’orchestre, Noon à l’automne <strong>2003</strong> ontmis en évidence ce compositeur qui a énormément contribué audéveloppement technologique et artistique de l’<strong>Ircam</strong>. Sedonnant dans des lieux moins familiers de la créationmusicale contemporaine, ils ont permis à des publics fortdiversifiés de rencontrer cette forme de création, dans sesinteractions avec le spectacle vivant et ses dispositifstechnologiques issus des studios de l’<strong>Ircam</strong>.- Les concerts avec l’Ensemble Intercontemporain, dans lasérie Tremplin, autour de compositeurs sélectionnés par lecomité de lecture ont présenté des œuvres de ChayaCzernowin, Marcelo Toledo, Masakazu Natsuda,… Initiée endécembre 2002, cette série propose des créations issues decommandes passées par l’<strong>Ircam</strong> ou l’EnsembleIntercontemporain à la suite des réunions du comité delecture, ou des œuvres repérées par ces mêmes jurys.20 janvier, <strong>Ircam</strong>, Espace de projectionPortrait Philippe Leroux 1Donatienne Michel-Dansac, sopranoAdrian Brand, ténorBertrand Bontoux, basseGrégory Demarsy, saxophoneL’ItinéraireDirection Pierre-André ValadeTechnique <strong>Ircam</strong>Frédéric Voisin, assistant musicalFlorence Baschet : Filastrocca*Philippe Leroux : VOI(REX), commande de l’Etat et de l’<strong>Ircam</strong>-Centre Pompidou, création mondiale- 191 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALEAlain Berlaud : Aussi bien que les cigalesGyörgy Ligeti : Kammerkonzert7 février <strong>2003</strong>, Maison de la Musique à NanterrePortrait Philippe Leroux 2Donatiennne Michel-Dansac, sopranoGrégory Demarsy, saxophoneL’ItinéraireDirection Pierre-André ValadeTechnique <strong>Ircam</strong>Carl Harrison Faia, Frédéric Voisin, assistants musicauxPhilippe Leroux : MOlivier Messiaen : Quatuor pour la fin du TempsAlain Berlaud : Aussi bien que les cigalesPhilippe Leroux : VOI(REX)28 février, Centre Pompidou, Grande salleGrande-Bretagne 1Neue Vocalsolisten StuttgartEnsemble IntercontemporainDirection : Patrick DavinTechnique <strong>Ircam</strong>.Rebecca Saunders : albescere, création française.Julian Anderson : Alhambra FantasySam Hayden : Collateral Damage, création françaiseJonathan Harvey : One evening….2 mars, Centre Pompidou, Grande salleGrande-Bretagne 2Solistes de l’Ensemble Intercontemporain.Benjamin Britten : Phantasy, opus 2James Dillon : Parjanya-VataBrian Ferneuhough : Trio à cordesOliver Knussen : Cantata, opus 1512 mars au 17 avril, Théâtre du Vieux ColombierQuatre Quatuors pour un week-end, créationTexte et mise en scène : Gao XingjianMusique : Bernard Cavanna.Technique <strong>Ircam</strong>11 mars, Cité de la musique, Salle des concertsConcert Pierre Boulez 1Hilary Summers, contraltoAlain Damiens, clarinetteAlain Billard, clarinette basse.Ensemble IntercontemporainPierre Boulez, direction.Pierre BoulezDomaines, pour clarinette et ensembleLe Marteau sans Maître.12 mars, Cité de la musique, Salle des concertsConcert Pierre Boulez 2Solistes de l'Ensemble IntercontemporainTechnique <strong>Ircam</strong>Andrew Gerzso, assistant musical.Pierre Boulez, Sonatine, pour flûte et piano- 192 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALEPremière Sonate pour pianoStructures, deuxième livre, pour deux pianosAnthèmes, pour violonDialogue de l'Ombre Double, pour clarinette et électronique15 mars, Cité de la musique, Salle des concertsConcert Pierre Boulez 3Ensemble IntercontemporainPierre Boulez, directionTechnique <strong>Ircam</strong>Andrew Gerzso, assistant musical.Pierre BoulezAnthèmes 2, pour violon et électroniqueRépons.27 et 28 mars, Cité de la musique, Salle des concertsConcert Les Percussions de Strasbourg 1Les Percussions de StrasbourgDimitri Vassilakis, pianoTechnique <strong>Ircam</strong>Tom Mays, assistant musicalDavid Poissonnier, ingénieur du sonMartin Matalon : Le Scorpion, musique pour le film L'Age d'Orde Luis BuñuelAvec le soutien du Programme culture 2000 de l’UnionEuropéenne dans le cadre du Réseau Varèse.30 mars, Cité de la musique, Salle des concertsConcert Les Percussions de Strasbourg 2Les Percussions de StrasbourgTechnique <strong>Ircam</strong>.Gérard Grisey : Le Noir de l’Etoile10 avril, <strong>Ircam</strong>, Espace de ProjectionConcert Court-CircuitEnsemble Court-CircuitPierre-André Valade, directionLucia Ronchetti : Les propos de Shitao, création mondialePhilippe Hurel : Figures libresMichael Jarrell : Assonance VIJean-Luc Hervé : UI22, 24, 29 avril, 6, 9 mai, Opéra BastillePhilippe Manoury, K....Opéra en douze scènes (2000).Livret de Bernard Pautrat et André Engel d'après Le Procès deFranz Kafka.Commande de l'Opéra National de Paris, réalisée à l’<strong>Ircam</strong>.Assistant musical : Serge LemoutonTechnique <strong>Ircam</strong>Direction musicale : Dennis Russell DaviesMise en scène : André EngelDécors : Nicky RietiCostumes : Chantal de La Coste-MesselièreLumières : André DiotDramaturgie : Dominique MullerOrchestre de l'Opéra National de ParisMaîtrise des Hauts-de-SeineChœurs d'enfants de l'Opéra National de ParisInformatique musicale réalisée à l’<strong>Ircam</strong> : développementtechnique, Norbert Schnell ; spatialisation, Olivier Warusfel- 193 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALEet Véronique Larcher ; programme de synthèse vocale, XavierRodet et Geoffroy PeetersK, Andreas Scheibner ; Leni/La femme de l’huissier, Elisabeth-Maria Wachutka ; Mademoiselle Bürstner, Eva Jenis ; Une femme,Louise Callinan ; Le directeur adjoint/L’avocat, LaurentNaouri ; Le juge d’instruction, Gregory Reinhart ; Totorelli,Kenneth Riegel ; Block/L’huissier, Wolfgang Ablinger-Sperrhacke ; Franz/L’oncle, Robert Wörle ; Willem/Un homme,Ian Thompson ; Le donneur d’informations, Sergei Stilmachenko.23 septembre, <strong>Ircam</strong>, Espace de projectionDimitri Vassilakis, pianoTrio NobisOctuor de violoncelles de BeauvaisEnsemble Court-circuitDirection : Pierre-André ValadeMartin Matalon... del matiz al color ..., pour huit violoncellesFormas de arena, pour flûte, harpe et altoTrame II, pour clavecin et six instrumentsDos formas del tiempo, pour pianoMonedas de hierro, pour dix instruments et électronique10 octobre, Cité de la musiqueDaniel Ciampolini, percussionsSolistes de l’Ensemble IntercontemporainInformatique musicale <strong>Ircam</strong>- Musée de la musiqueRebecca Saunders : Chroma, création française- Salle des concertsIannis Xenakis : Persephassa, version pour percussionnisteet bande, création mondialeBande réalisée à l’<strong>Ircam</strong> par Frédéric Prin, ingénieur du son10, 15 octobre, Théâtre des Bouffes du NordLa Frontière, opéra de chambre, pour six chanteurs, neufmusiciens et électronique, commande de la Scène Nationaled’Orléans dans le cadre de la résidence de Philippe Manoury,réalisée dans les studios de l’<strong>Ircam</strong>.Livret : Daniela LangerMusique : Philippe ManouryMise en scène : Yoshi OïdaDirection musicale : Alain PlanèsAssistant à la mise en scène : Lorna MarshallScénographie : Thomas SchenkCréation lumières : Jean KalmanCostumes : Ysabel De MaisonneuveRomain Bischoff, barytonDoris Lamprecht, contraltoVincent Le Texier, basseVirginie Pochon, sopranoNigel Smith, barytonDominique Visse, contre-ténorEnsemble IctusAssistant musical : Serge LemoutonChef de chant : Jean-François BallèvreIngénieur du son : Alex Fostier11 octobre, Cité de la musique, Salle des concerts- 194 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALEAlain Damiens, clarinetteHidéki Nagano, pianoEric-Maria Couturier, violoncelleEnsemble IntercontemporainDirection : Stefan AsburyInformatique musicale <strong>Ircam</strong>Assistant musical : Andrew GerzsoBruno Mantovani : Le sette chiese, pour ensemblePierre Boulez : Dialogue de l’ombre double, pour clarinette etélectroniqueGyörgy Kurtág : Opus 27 n°2 (Double concerto), pour piano,violoncelle et deux ensembles6 novembre, <strong>Ircam</strong>, Espace de projectionTom Pauwels, guitare électriqueValérie Aimard, altoLucia Peralta, violoncelleEnsemble L’ItinéraireDirection : Mark FosterGeorgia Spiropoulos : Oria, commande d’Etat, création mondialeFrancesco Filidei : Partita, commande de L’Itinéraire,création mondialeJulien Copeaux : Dans les pierresFausto Romitelli : Professor Bad Trip : lesson 3Gérard Grisey : Jour, Contre jour11 décembre, Théâtre du ChâteletValdine Anderson, sopranoChœur de chambre Les ElémentsChef de chœur : Joël SuhubietteOrchestre de ParisDirection : Esa-Pekka SalonenInformatique musicale <strong>Ircam</strong>Assistant musical : Serge LemoutonLudwig van Beethoven : Leonore II, ouverture, opus 72bHector Berlioz : Tristia, trois pièces pour chœur et orchestreH 119Méditation religieuse, H 56La Mort d’Ophélie, H 92bMarche funèbre pour la dernière scène d’« Hamlet », H 103Philippe Manoury : Noon, pour soprano, chœur de chambre,orchestre et électronique sur des poèmes d'Emily Dickinson.Commande de l’Orchestre de Paris pour le cycle Berlioz <strong>2003</strong>,avec le concours de l’<strong>Ircam</strong> - Centre Pompidou. Œuvre réaliséeà l’<strong>Ircam</strong>.13 décembre, Centre Pompidou, Grande SalleTremplin 1Solistes de l’Ensemble IntercontemporainInformatique musicale <strong>Ircam</strong>Assistant musical : Benjamin ThigpenSébastien Béranger : Acousmie, pour clarinette, percussion etbandeTobias Schwencke : Trio, pour violon, violoncelle et pianoFranck Bedrossian : L’usage de la parole, pour clarinette,violoncelle et pianoJenny-Jiyoun Choi : Corpuscules, pour percussion etélectroniqueDavid Robert Coleman : Deux, pour clarinette, percussion,violon, violoncelle et piano, création mondiale- 195 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALE19 décembre, Centre Pompidou, Grande SalleMaria Harpner, récitanteEnsemble IntercontemporainDirection : Gergely VajdaInformatique musicale <strong>Ircam</strong>Eric Daubresse, assistant musicalVykintas Baltakas : About to drink dense clouds, créationfrançaiseMasakazu Natsuda : Cross-Light, commande de l’EnsembleIntercontemporain, création mondialeChaya Czernowin : Winter Songs I : Pending light, commandede l’<strong>Ircam</strong>-Centre Pompidou, création mondialeMarcelo Toledo : Para el encuentro en los abismos, commandede l’Ensemble Intercontemporain, création mondiale2.2 Le Festival AgoraLe Festival Agora a été créé en 1998 par l'<strong>Ircam</strong> dans le butde traduire la diversité de la vie musicale contemporaine,telle qu’elle est notamment créée et animée à l’<strong>Ircam</strong>, dansses relations multiples avec les autres arts. Sous une formequelque peu plus courte que les éditions précédentes, leFestival Agora <strong>2003</strong> a su montrer combien les artistes et lepublic d'aujourd'hui sont sensibles aux multiples croisementsentre les différents arts de la scène.Temps fort de la saison artistique de l’<strong>Ircam</strong>, Agora seprésente comme un festival pluridisciplinaire autour deprojets réalisés à l’<strong>Ircam</strong>. Il s’est déroulé en <strong>2003</strong> dansquatre lieux principaux : l’<strong>Ircam</strong>, le Centre Pompidou, la Citéde la musique et le Jardin des Tuileries. Tissage fécond entretechnologies, arts sonores et spectacle vivant sous diversesformes, le festival s’est peu à peu imposé dans le paysagemusical parisien et attire un public diversifié.La programmation de l’édition <strong>2003</strong> a comporté les projetssuivants :- Spectacle d’ouverture : création de Schlag ! de Roland Auzetsous chapiteau, alliant techniques de cirque, imagerie etinstrumentation virtuelle et musique écrite pourpercussions. Ce spectacle a été donné pendant toute la duréedu festival et son chapiteau a servi à son tour de lieud’accueil pour des concerts et rencontres.- Portrait en trois temps de l’Ensemble Ictus : cet ensemblebelge figure parmi les formations les plus dynamiques enEurope. La collaboration avec l’<strong>Ircam</strong> a débuté en 1997 etles trois projets donnés dans Agora ont permis de présenterl’ensemble sous trois angles bien différents : le concert,dont le thème était la relation entre musique savante etpopulaire (Ictuspop@<strong>Ircam</strong>, au Centre Pompidou, dont lacréation de Javier Alvarez), la danse, vue sous son anglefilmé (Counterphrases, films de Thierry De Mey ;chorégraphies de Anne-Teresa De Keersmaeker, musiquecommandée à une dizaine de compositeurs et interprétée live,à la Cité de la Musique) et le théâtre musical (Paysage soussurveillance, de Georges Aperghis, au Centre Pompidou).- Créations chorégraphiques d’Odile Duboc (création parisiennedu solo Pour tout vous dire,... et création d’une œuvre surune musique réalisée à l’<strong>Ircam</strong>) et Gabriel Hernandez(chorégraphe utilisant le logiciel Open Music pour sa- 196 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALEconception chorégraphique ; musique réalisée à l’<strong>Ircam</strong> parWalter Feldmann).- Création d’une nouvelle version de Retour Définitif etDurable de l’Etre Aimé (Olivier Cadiot-Ludovic Lagarde-Gilles Grand), spécifiquement axée sur le travail sonore :mise en scène simplifiée spécialement adaptée à l’Espace deProjection de l’<strong>Ircam</strong>, développement des conditionsd’écoute, spatialisation et traitement sonores.- Portrait Philippe Manoury par l’Ensemble Intercontemporain,à la Cité de la musique, comprenant notamment la reprise deNeptune, pour trois percussions et systèmes temps-réel. Unelecture-rencontre avec le compositeur autour de ses projetsfuturs, était également prévue.- Création française du quatuor à cordes avec électronique deJonathan Harvey par le Quatuor Arditti, à l’<strong>Ircam</strong>. Cesconcerts ont rendu compte de sa filiation à Schoenberg et deson influence dans le paysage contemporain (œuvres de JamesDillon et Joao Pedro Oliveira).- Concerts dans la série « Les Jardins d’Agora », dans lechapiteau de Schlag !, avec le concours des percussionnistesdu Centre International de Percussion de Genève, demusiciens solistes interprétant des œuvres réalisées par descompositeurs du « cursus », …Le Festival Agora <strong>2003</strong> s’est déroulé sur deux semaines, du 10au 24 juin <strong>2003</strong>, et a présenté 21 lectures, spectacles etconcerts (37 représentations), 2 concerts-ateliers et 2rencontres avec des artistes. Ces événements ontaccueilli 8 291 spectateurs.Le tableau récapitulatif du nombre de spectateursLes concerts etspectaclesDate et lieu Spectacles Spectateurs- 197 -JaugeTaux deremplissageMardi 10 juin, 18h30 Lecture :A 139 200 70 %<strong>Ircam</strong>l’écoute de Jean-Luc NancyMardi 10 juin, 20h30 Schlag ! 188 320 59%Jardin des TuileriesMercredi 11 juin, Ictus Pop@<strong>Ircam</strong> 179 384 47%20h30Centre Pompidou/GrandeSalleMercredi 11 juin, Schlag ! 0 Grève20h30Jardin des TuileriesJeudi 12 juin, 20h30 Retour Définitif 192 200 96%Centre Pompidou/Grande et Durable deSallel’Etre AiméJeudi 12 juin, 20h30 Schlag ! 158 320 49%Jardin des TuileriesVendredi 13 juin, RDDEA 147 200 74%20h30<strong>Ircam</strong>Vendredi 13 juin, Odile Duboc 190 394 48%


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALE20h30Centre Pompidou/GrandeSalleVendredi 13 juin, Schlag ! 106 320 33%20h30Jardin des TuileriesSamedi 14 juin, 20h30 RDDEA 194 200 97%<strong>Ircam</strong>Samedi 14 juin, 20h30 Odile Duboc 131 394 33%Centre Pompidou/GrandeSalleSamedi 14 juin, 20h Counter Phrases 702 806 87%Cité de la musiqueSamedi 14 juin, 20h30 Schlag ! 150 320 47%Jardin des TuileriesDimanche 15 juin, Odile Duboc 180 394 46%20h30Centre Pompidou/GrandeSalleDimanche 15 juin, 16h Schlag ! 150 320 47%Jardin des TuileriesLundi 16 juin, 20h30 Concert Percussion 263 320 82%Jardin des Tuileries s 1 : IannisXenakisMardi 17 juin, 19h How many parts of 153 150 100%<strong>Ircam</strong>it - the one, -andMardi 17 juin, 20h30 Schlag ! 185 320 58%Jardin des TuileriesMercredi 18 juin, 19h<strong>Ircam</strong>How many parts of 138 150 92%it - the one, -andPhilippe Manoury 521 803 65%Mercredi 18 juin, 20hCité de la musiqueMercredi 18 juin, Schlag ! 165 320 52%20h30Jardin des TuileriesJeudi 19 juin, 20h30 Paysage sous347 384 90%Centre Pompidou, surveillanceGrande salleJeudi 19 juin, 20h30 Schlag ! 142 320 44%Jardin des TuileriesVendredi 20 juin, 19h Jonathan Harvey 1 161 235 69%<strong>Ircam</strong>Vendredi 20 juin, 21h Jonathan Harvey 2 208 235 89%<strong>Ircam</strong>Vendredi 20 juin, Paysage sous265 384 69%20h30surveillanceCentre Pompidou,Grande salleVendredi 20 juin, Schlag ! 187 320 58%20h30Jardin des TuileriesSamedi 21 juin, 20h30 Schlag ! 199 320 62%Jardin des TuileriesDimanche 22 juin, 16h Schlag ! 180 320 56%Jardin des TuileriesLundi 23 juin, 20h30 Philippe Manoury/ 127 500 25%- 198 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALEBouffes du NordMardi 24 juin, 20h30Jardin des TuileriesTotalEmily DickinsonConcert Percussions 2 :Steve Reich14 lectures,concerts etspectacles (31représentations)357 350 100%6404 65%Les rencontresDate et lieu Spectacles SpectateursSamedi 14 juin 18hCentre Pompidou,Petite salleMercredi 18 juin19h30CentrePompidou, PetitesalleJaugeTaux deremplissageOlivier Cadiot, 47 150 31%Ludovic Lagarde,Gilles GrandOdile Duboc 56 150 37%Total 2 rencontres 103 150 34%Les Jardins d’AgoraDate et lieu Spectacles SpectateursSamedi 14 juin, 14h30Jardin des TuileriesSamedi 14 juin, 16hJardin des TuileriesDimanche 15 juin, 11hJardin des TuileriesSamedi 21 juin, 14hJardin des TuileriesSamedi 21 juin, 15hJardin des TuileriesJardins d’Agora1Bruits etsoufflesJardins d’Agora1 D’orientsextrêmesJardins d’Agora1Concert-atelierNouveauxinstruments 1Jardins d’Agora2 /Fête de lamusiqueEn sourdineJardins d’Agora2 /Fête de lamusique Cheminsurbains- 199 -JaugeTaux deremplissage51 320 16%78 320 24%32 320 10%320 320 100%320 320 100%


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALESamedi 21 juin, 16hJardin des TuileriesSamedi 21 juin, 17hJardin des TuileriesSamedi 21 juin,22h30Jardin des TuileriesDimanche 22 juin, 11hJardin des TuileriesTotalJardins d’Agora2 /Fête de lamusiqueJeux d’anchesJardins d’Agora2 /Fête de lamusiqueVents contrairesJardins d’Agora2 /Fête de lamusiqueConcertimprovisationJardins d’Agora2Concert-atelierNouveauxinstruments 29 concerts etconcertsateliers320 320 100%320 320 100%320 320 100%23 320 7%1784 62%Total : 15 jours23 lectures,concerts, spectacleset concerts-ateliers(40 représentations)2 rencontresTotal spectateurs : 8291Les concerts et spectacles10 juin, <strong>Ircam</strong>, Espace de projectionJeanne Balibar, lectureExtraits de A l’écoute de Jean-Luc Nancy(139 spectateurs)10 au 22 juin, Jardin des Tuileries, Chapiteau du Site CRASchlag !, CréationConception, musique, scénographie et dramaturgie : RolandAuzet, commande d’étatMise en scène : Philipp BoëPersonnage de réalité virtuelle et images vidéo (Web-Humans) :Catherine Ikam, Louis FlériMarionnettes et masque : Etienne Bideau-Rey, Gisèle VienneArtistes de cirque : Stéphanie Lhorset, Roman Müller, AndreasMuntwyler, Isabelle Rivoal, Sodadeth San, Jack Souvant, UllaTikka, Petronella Von ZerboniArtistes musiciens : Roland Auzet, Steven Schick, LesPercussions du Centre International de Percussion (SébastienCordier, Thierry Debons, Didier Métrailler, Stéphane Pechoux,Cyril Regamey)- 200 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALEMusique, vidéo temps réel et dispositifs électroniquesréalisés dans les studios de l'<strong>Ircam</strong> et du Site CRA(1 810 spectateurs)11 juin, Centre Pompidou, Grande salleEnsemble IctusDirection : Georges-Elie OctorsMiquel Bernat, percussionsGéry Cambier, contrebasseOlivier Pasquet, Frédéric Voisin, assistants musicauxTechnique <strong>Ircam</strong>Samuel Sighicelli : CaniculeFrançois Narboni : El Gran MasturbadorJavier Alvarez : Mantis walk in metal space, commande del’<strong>Ircam</strong>-Centre Pompidou, création mondialeRiccardo Nova : Drones II, création française(179 spectateurs)12, 13, 14 juin, <strong>Ircam</strong>, Espace de projectionRetour définitif et durable de l'être aimé, Nouvelle versionTexte : Olivier CadiotMise en scène et scénographie : Ludovic LagardeMusique : Gilles GrandLumières, collaboration à la scénographie : Sébastien MichaudCostumes : Virginie et Jean-Jacques WeilDramaturgie : Anita KerzmannChorégraphe, collaboration artistique : Odile DubocIngénieur du son : David BichindaritzDispositif informatique réalisé dans les studios de l’<strong>Ircam</strong>Assistants musicaux : Manuel Poletti, Serge LemoutonAvec Valérie Dashwood, Philippe Duquesne, Laurent Poitrenaux13, 14, 15 juin, Centre Pompidou, Grande sallePour tout vous dire, ... conversations chorégraphiques d’OdileDubocConception : Odile Duboc, Françoise MichelDanse : Odile DubocLumières : Françoise MichelCostumes : Contre JourMusiques : Jean-Philippe Rameau, Jean-Baptiste Lully, BenjaminBritten, John Cage, Salvatore Sciarrino, João GilbertoUnivers sonores : Olivier Renouf, Jean-Marc Monteratrio 03, créationConception : Odile Duboc, Françoise MichelLumières : Françoise MichelMusique : Pascal ContetCostumes : Jean-Jacques et Virginie WeilDanseurs : Bruno Danjoux, David Drouard, David Wampach(501 spectateurs)14 juin, Cité de la Musique, Salle des concertsCounter Phrases, création françaiseEnsemble IctusDirection : Georges-Elie OctorsFilm courts-métrages de Thierry De MeyChorégraphies d’Anne Teresa De KeersmaekerCréations musicales de Georges Aperghis, Thierry De Mey, RobinDe Raaff, Luca Francesconi, Jonathan Harvey, Toshio Hosokawa,Magnus Lindberg, Steve Reich, Fausto Romitelli, Stefan VanEycken- 201 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALE(702 spectateurs)14 juin, Jardin des Tuileries, Chapiteau du Site CRALes Jardins d’Agora 114h30 : Bruits et soufflesBenny Sluchin, tromboneSteven Schick, percussionsTechnique <strong>Ircam</strong>Rogelio Sosa : EjectaBrian Ferneyhough : Bone AlphabetKarlheinz Stockhausen : Solo(51 spectateurs)16h : D’orients extrêmesAlexis Descharmes, violoncelleRoland Auzet, zarbTechnique <strong>Ircam</strong>Jonathan Harvey : Ritual MelodiesShintaro Imai : La lutte bleueRoland Auzet : Oroc.patKumiko Omura : Double contour(78 spectateurs)16 juin, Jardin des Tuileries, chapiteau du Site CRARoland Auzet, percussionsSteven Schick, percussionsLes Percussions du Centre international de percussionIannis Xenakis : Rebonds ; Pléiades ; Persephassa(263 spectateurs)17, 18 juin, <strong>Ircam</strong>, Espace de projectionHow many parts of it --- the one, - andChorégraphie : Gabriel HernándezChorégraphe invité : Laurent Pichaud, solo faire néant,créationThèmes chorégraphiques : Gabriel Hernández et la compagnieDanseurs : Virginie Cincet, Max Fossati, Delphine Hélix,Karine Thévenot, Laurent Pichaud (faire néant)Walter Feldmann, « how many parts of it - the one, - and [howmany] [the] other » n°1 « the one » et fr.gm.nts - « .o. .a.y», créations mondialesEmmanuel Nunes, Versus III (première représentation)Bernd Asmus, How many parts, création mondiale (deuxièmereprésentation)Bernd Asmus, électroniqueOdile Auboin, altoWalter Feldmann, flûteAssistant musical : Olivier PasquetTechnique <strong>Ircam</strong>(291 spectateurs)18 juin, Cité de la musique, Salle des concertsEnsemble IntercontemporainDirection : David RobertsonVibraphones Midi : Michel Cerutti, Samuel FavreMarimba : Vincent BauerPiano : Hidéki NaganoAssistant musical : Cort LippeTechnique <strong>Ircam</strong>- 202 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALEPhilippe Manoury : Neptune ; Passacaille pour Tokyo ;Fragments pour un portrait(521 spectateurs)19, 20 juin, Centre Pompidou, Grande sallePaysage sous surveillanceConception, composition, mise en scène : Georges AperghisBasé sur le texte de Heiner Müller dans la traductionfrançaise de Jean Jourdheuil, Editions de Minuit (titreoriginal : Bildbeschreibung)Solistes de l’ensemble IctusScénographie, lumières : Peter MissottenVidéo : Kurt d’HaeseleerComédiens : Johanne Saunier, Jos Houben(612 spectateurs)20 juin, <strong>Ircam</strong>, Espace de projectionEnsemble TM+Direction : Laurent CuniotSophie Grimmer, sopranoRonan Nédélec, basseTechnique <strong>Ircam</strong>Arnold Schoenberg : Serenade, opus 24Jonathan Harvey : Mythic FiguresJonathan Harvey : Song Offerings(161 spectateurs)20 juin, <strong>Ircam</strong>, Espace de projectionNoriko Kawai, pianoQuatuor ArdittiIrvine Arditti, violonGraeme Jennings, violonRalf Ehlers, altoRohan de Saram, violoncelleGilbert Nouno, assistant musicalTechnique <strong>Ircam</strong>Luciano Berio : GlosseJoão Pedro Oliveira : Labirinto, création françaiseJames Dillon : the soadie waste, création françaiseJonathan Harvey : Quatrième quatuor à cordes, créationfrançaise(208 spectateurs)21 juin, Jardin des Tuileries, Chapiteau du Site CRALes Jardins d’Agora 2 : Fête de la musique14h : En SourdineLaurent Bômont, trompetteChristelle Séry, guitareTechnique <strong>Ircam</strong>Jongwoo Yim : Dispersion fluideJérôme Combier : Le premier soupir des fantômes, KogarashiYan Maresz : Metallics, version pour bande(320 spectateurs)15h : Chemins urbainsPascal Contet, accordéonClaude Delangle, saxophoneDidier Métrailler, percussionsLes Percussions du Centre international de percussionTechnique <strong>Ircam</strong>Luis Naón : Urbana- 203 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALELuis Naón : Senderos… que bifurcanRegina Irman : Landschaften, création mondialeLuciano Berio : Sequenza VIIb(320 spectateurs)16h : Jeux d’anchesPascal Contet, accordéonSébastien Cordier, percussionsStéphane Pechoux, percussionsTechnique <strong>Ircam</strong>Edmund J. Campion : Losing TouchLuca Antignani : Overlook HotelBruno Mantovani : Le Grand Jeu(320 spectateurs)17h : Vents contrairesClaude Delangle, saxophoneBrice Martin, bassonTechnique <strong>Ircam</strong>Georgia Spiropoulos : SakstiFranck Bedrossian : TransmissionPierre Jodlowski : Mixtion(320 spectateurs)22h30 : Concert-improvisation avec les artistes de Schlag !(320 spectateurs)23 juin, Théâtre des Bouffes du NordAurore Clément, récitanteMarilyn Hacker, récitanteQuatuor DanelMarc Danel, violonGilles Millet, violonTony Nys, altoGuy Danel, violoncellePoèmes : Emily DickinsonVoix enregistrée (lecture) : François MarthouretConseillers artistiques : Claire Malroux, Nadine EghelsPhilippe Manoury : Dickinson Studies ; Gestes, opus 25Anton Webern : Cinq mouvements pour quatuor à cordes, opus 5 ;Quatuor à cordes, opus 28 ; Six bagatelles pour quatuor àcordes, opus 9(127 spectateurs)24 juin, Jardin des Tuileries, Chapiteau du Site CRALes Percussions du Centre international de percussionred fish blue fishMaya Beiser, violoncelleSteven Schick, percussionsOsvaldo Golijov : Mariel, création françaiseTan Dun : Elegy : Snow in JuneSteve Reich : Drumming(357 spectateurs)2.2.1 Les rencontres14 juin, Centre Pompidou, Petite salleRencontre avec Olivier Cadiot, Ludovic Lagarde et Gilles Grand(47 auditeurs)18 juin, Centre Pompidou, Petite salleRencontre avec Odile Duboc(56 auditeurs)- 204 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALE2.3 Résonances2.3.1 Les manifestations artistiques dans le cadre deRésonancesVoir : Rapport Détaillé - Relations Extérieures2.4 Les tournéesLes tournées jouent un rôle essentiel dans la diffusion desœuvres réalisées à l’<strong>Ircam</strong> et contribuent à faire connaîtretant les compositeurs ayant travaillé dans nos studios que lestechnologies mises en œuvre. Les concerts sont fréquemmentaccompagnés d’ateliers pédagogiques.7 et 8 févrierBruxelles, Flagey12 févrierMetz, Arsenal10 avrilReims, le ManègeLes Percussions de StrasbourgDimitri Vassilakis, pianoInformatique musicale <strong>Ircam</strong>Tom Mays, assistant musicalDavid Poissonnier, ingénieur du sonMartin Matalon : Le Scorpion, musique pour le film L'Age d'Orde Luis BuñuelAvec le soutien du Programme culture 2000 de l’UnionEuropéenne dans le cadre du Réseau Varèse.(700, 700, 650 et 320 auditeurs)11 marsBruxelles, Flagey, Festival Ars Musica5 octobreOslo, Festival Ultima28 octobreBudapest, Autumn Festival21 novembreVienne, Modern Festival24 novembreHuddersfield Contemporary FestivalQuatuor ArdittiInformatique musicale <strong>Ircam</strong>Gilbert Nouno, assistant musical.Jérémie henrot, ingénieur du sonJonathan Harvey : Quatrième quatuor à cordes, avecélectronique. Commande de l'<strong>Ircam</strong> et des festivals Ars Musica(Bruxelles) et Ultima (Oslo). Création mondiale.Avec le soutien du Programme culture 2000 de l’UnionEuropéenne dans le cadre du Réseau Varèse.(600, 113, 150, 280, 320 auditeurs)22 marsNew York, Carnegie Hall, Festival Sounds FrenchEnsemble Intercontemporain- 205 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALEDirection : Pierre BouleHae-Sun Kang, violonMichel Cerutti, cymbalumSamuel Favre, xylophoneVincent Bauer, vibraphoneHidéki Nagano, Michael Wendeberg, pianosFrédérique Cambreling, harpeInformatique musicale <strong>Ircam</strong>Andrew Gerzso, assistant musical.David Poissonnier, ingénieur du sonPierre BoulezAnthèmes 2, pour violon et électroniqueRépons(nc)23 avrilLondres, Queen Elisabeth hallClio Gould, violonTechnique <strong>Ircam</strong>Andrew Gerzso, assistant musical.Pierre Boulez : Anthèmes 2(nc)5 et 6 septembreGenève, La Bâtie6, 7 et 8 novembreNantes, Lieu Unique14 novembreTarbes20 et 21 novembreChalon-sur-Saône2, 3, 4 et 5 décembreAngers, Nouveau Théâtre16 et 17 décembreReimsRetour définitif et durable de l'être aiméTexte : Olivier CadiotMise en scène et scénographie : Ludovic LagardeMusique : Gilles GrandAvec Valérie Dashwood, Philippe Duquesne, Laurent Poitrenaux.Dispositif informatique réalisé dans les studios de l’<strong>Ircam</strong>Manuel Poletti, assistant musicalDavid Bichindaritz, ingénieur du son(nc)17 septembreNew York, Carnegie Hall, Zankel HallAlain Damiens, clarinetteEnsemble IntercontemporainInformatique musicale <strong>Ircam</strong>Andrew Gerzso, assistant musicalFranck Rossi, ingénieur du sonPierre BoulezIncises, pour pianoDialogue de l’ombre double, pour clarinette et électroniqueLe Marteau sans maître- 206 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALE(nc)1 et 2 octobreOrléans, Carré Saint-Vincent/Scène nationale5 octobreStrasbourg, Festival Musica15 octobreRome, Romaeuropa18 et 19 octobreClermont-Ferrand, La Comédie de Clermont-Ferrand22 octobreRouen, Théâtre des ArtsLa FrontièreLivret : Daniela Langer. Musique : Philippe Manoury. Mise enscène : Yoshi Oïda. Direction musicale : Alain Planès.Informatique musicale <strong>Ircam</strong>. Assistant musical : SergeLemouton.Avec le soutien du Réseau Varèse, subventionné par leProgramme Culture 2000 de l'Union Européenne pour lesreprésentations à Strasbourg (Festival Musica) et à Rome(Festival Romaeuropa).(nc)23 novembreDijon, Festival Why NoteGarth Knox, altoInformatique musicale <strong>Ircam</strong>Assistant musical : Eric DaubresseRégie informatique : Serge LemoutonIngénieur du son : Jérémie Henrot.György Ligeti, SonateGeorg Frierich Haas, Solo pour viole d'amourGérard Grisey, Prologue pour alto et électronique (version2001).(50 auditeurs)2.5 Le Réseau VarèseLe Réseau Varèse est un réseau européen pour la création et ladiffusion musicales, soutenu par le Programme Culture 2000(action 2) de l'Union européenne et par la Direction Régionaledes Affaires Culturelles d'Alsace.Créé à Rome en novembre 1999, le Réseau Varèse réunit àl'heure actuelle seize membres de onze pays d'Europe :Allemagne, Autriche, Belgique, Finlande, France, Grande-Bretagne, Grèce, Hongrie, Italie, Norvège et Portugal. Ils'agit principalement de festivals ou de structures decréation et de diffusion artistiques. Le Réseau Varèse s'estfixé pour mission de promouvoir la création musicale en aidantà la production de concerts, de spectacles musicaux oud'actions pédagogiques. Ces projets sont proposés par lesmembres d'au moins deux pays. Ils doivent en priorités'attacher à défendre les compositeurs et leurs œuvres.L'ambition internationale des projets est prise en compte.Grâce à l'aide triennale <strong>2003</strong>-2005 de l'Union européenne dansle cadre de son programme Culture 2000, le Réseau Varèse peutaider financièrement les projets retenus pour une meilleure- 207 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALEcirculation en Europe. Il a contribué ainsi efficacement à lacoopération et aux échanges entre les membres du réseau etfavorisé l'élargissement des publics.L’<strong>Ircam</strong> a participé activement à la création de ce réseau et àson animation, en participant à toutes les assembléesgénérales et en proposant différents projets. En <strong>2003</strong>, lapièce Quatrième quatuor à cordes de Jonathan Harvey a faitl’objet d’une commande conjointe de partenaires du réseau(<strong>Ircam</strong>, festivals Ars Musica (Bruxelles) et Ultima (Oslo)) etd’une large diffusion également au sein du réseau : FestivalArs Musica, Festival Ultima, le Budapest Autumn Festival, leWien Modern Festival et l’Huddersfield Contemporary Festival.Les projets Le Scorpion de Martin Matalon et La frontière dePhilippe Manoury ont également reçu le soutien du réseauVarèse.2.6 Les enregistrements discographiquesJérôme CombierFeux noirsPetite obscurité, fleur de lumièrePeut-être tuCordélia des nuéesIshiLe premier soupir des fantômes, KogarashiVoix d’ombreLes HébridesIngénieur du son : Sébastien NavesEnregistrement : 3, 4, 5 décembre <strong>2003</strong> à l’Espace deprojectionMixage : 3, 4, 5 décembre <strong>2003</strong>Sortie : non déterminéCoproduction <strong>Ircam</strong>, MotusGérard GriseyLe Noir de l’EtoileLes Percussions de StrasbourgDirecteur artistique : Vincent VilletardIngénieurs du son : David Poissonnier, Sébastien NavesEnregistrement : 29 et 30 mars <strong>2003</strong> à la Cité de la musiqueMixage : mars 2004Sortie : septembre 2004Coproduction <strong>Ircam</strong> et Universal Classics France.Philippe LerouxVOI(REX)ML’ItinéraireAssistant musical : Frédéric VoisinIngénieurs du son : David Poissonnier, Sébastien NavesEnregistrement : 21, 22 janvier <strong>2003</strong> et 8 février <strong>2003</strong> à l’Espacede projectionMixage : 12 au 21 mai <strong>2003</strong>Sortie : à déterminerCoproduction <strong>Ircam</strong> et L’Itinéraire.Yan MareszMetal ExtensionsEclipseEntrelacs- 208 -


<strong>RAPPORT</strong> DETAILLECREATION ET DIFFUSION MUSICALESDIFFUSION DE LA CREATION MUSICALEMetallicsSul SegnoEnsemble IntercontemporainAssistant musical : Manuel PolettiIngénieur du sonEnregistrement :Mixage :Sortie : non déterminéCoproduction <strong>Ircam</strong>, Ensemble Intercontemporain et UniversalMusic FranceMartin MatalonDos formas el tiempoDel matiz al colorFormas de arenaMonedas de HierroDimitri Vassilakis, pianoTrio NobisOctuor de violoncelles de BeauvaisEnsemble Court-circuitDirection : Pierre-André ValadeIngénieur du son :Sébastien Naves ?Enregistrement : du 11 au 15 décembre 2002 à l’Espace deprojectionMixage : mars <strong>2003</strong>Sortie : septembre <strong>2003</strong>Production Universal Classics France.Martin MatalonLe ScorpionLes Percussions de StrasbourgAssistant musical : Tom MaysDirecteur artistique : Vincent VilletardIngénieurs du son : David Poissonnier, Sébastien NavesEnregistrement : 27 et 28 mars <strong>2003</strong> à la Cité de la musiqueMixage : février 2004Sortie : septembre 2004Coproduction <strong>Ircam</strong> et Universal Classics France.- 209 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS PROFESSIONNELLESPEDAGOGIEDirecteur : Andrew GerzsoDepuis sa fondation, l’<strong>Ircam</strong> a créé des technologiesinnovantes qui peuvent être vues comme la prolongation modernedes pratiques traditionnelles de la musique comme lacomposition, la lutherie, l’interprétation et l’analyse.L’utilisation de ces nouvelles technologies dans la créationmusicale a ouvert des nouveaux champs d’exploration avec commeconséquence l’élargissement du vocabulaire expressif ducompositeur. C’est le rôle du département pédagogique del’<strong>Ircam</strong> de permettre aux professionnels et aux étudiants de lamusique de maîtriser ces nouveaux outils ainsi que lesconcepts musicaux et savoir-faire qui les accompagnent.Les formations du département pédagogique sont structurées entrois niveaux : professionnel, universitaire et scolaire. Parailleurs, ce service propose une série de conférencesdestinées au grand public et organise régulièrement desformations hors les murs de l’institut.1 FORMATIONS PROFESSIONNELLESCes formations sont destinées aux compositeurs, chercheurs,concepteurs sonores et ingénieurs du son.1.1 Le cursus de composition et d’informatiquemusicaleLe cursus de composition et d’informatique musicale formechaque année une dizaine de jeunes compositeurs choisis par lecomité de lecture (*).1.1.1 OrganisationLes élèves suivent des cours sur les logiciels de l’<strong>Ircam</strong>, lacomposition (par des compositeurs de renom), la réalisationélectro-acoustique (par les assistants de l’<strong>Ircam</strong> et d’autresstudios), la recherche scientifique et musicale (par leséquipes de l’<strong>Ircam</strong>), et enfin les nouveaux modes de jeuxinstrumentaux par des interprètes de renom. Ils réalisent enfin d’année un projet dont la création est donnée pendant leFestival Résonances.1.1.1.1 Première périodeDu 4 novembre 2002 au 30 avril <strong>2003</strong>Dans un premier temps, les participants suivent une formationde base aux dispositifs Midi ainsi qu’aux techniquesd’enregistrement et de mixage, à travers des outils ducommerce : séquencement Midi et audio avec LogicAudio deEMagic et mixage multipistes avec ProTools de Digidesign.Puis, ils abordent les cours d’informatique musicale : lestechniques informatiques enseignées concernent les différentsaspects de la composition avec l’informatique (écriture- 210 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS PROFESSIONNELLESmusicale assistée par ordinateur, analyse, synthèse ettraitement du son, interaction temps réel entre musicien etordinateur, spatialisation du son et interfaces gestuellespour le contrôle de la synthèse sonore). Les cours et travauxpratiques s’appuient principalement sur les développementsréalisés à l’<strong>Ircam</strong>, respectivement : OpenMusic, AudioSculpt,Diphone-Studio, Modalys, Max/MSP (<strong>Ircam</strong>/Cycling 74), leSpatialisateur et l’interface capteurs-Midi AtoMic Pro.Des compositeurs de renommée internationale ont été invités àprésenter leurs travaux et ont reçu chacun des jeunesétudiants en rendez-vous individuel : François Bayle, EdmundCampion, François Donato, Brian Ferneyhough, Jonathan Harvey,Philippe Hurel, Philippe Manoury, Martin Matalon, TristanMurail, François Paris. Pour la première année, un assistantmusical a été invité à exposer et expliquer la spécificité deson travail : Hans Tutschku.Le programme pédagogique du Cursus est renforcé par desséminaires sur les recherches scientifiques et les créationsmusicales en cours à l’<strong>Ircam</strong> ainsi que par des conférencesd’artistes présentant des travaux intégrant les technologies.1.1.1.2 Deuxième période1er juin <strong>2003</strong> au 30 octobre <strong>2003</strong>Les cinq derniers mois se déroulent dans les studios de laPédagogie. Ils sont consacrés à la réalisation d’un projetmusical où l’occasion est donnée aux compositeurs des’approprier les outils informatiques en les incorporant à untravail personnel de création. Le cadre général du projet estune pièce ‘‘ mixte ’’ pour instrument soliste et dispositifinformatique, d’une durée d’environ dix minutes. Pendant cettedeuxième période, les compositeurs du Cursus sont encadrés parles assistants musicaux de la Pédagogie.Les projets, esquisses ou œuvres achevées, sont joués dans unconcert programmé dans le cadre des rencontres Résonances.Philippe Leroux assure le suivi compositionnel des étudiants.Cette année les 10 pièces réalisées dans le cadre du cursusont été présentées lors de deux concerts les 15 et 21octobre <strong>2003</strong>.Chacune des pièces écrites pour ce concert fait l’objet d’unedocumentation technique et musicale sous la forme d’un‘‘ cahier d’exploitation ’’ qui en constitue la traceindispensable pour une exécution future. Ce cahier permet enoutre d’intégrer chacune de ces pièces à l’ensemble durépertoire <strong>Ircam</strong>. Les cahiers d’exploitation sont validés parles assistants musicaux ainsi que par Bertrand Cheret, chargéde la documentation des œuvres à l’<strong>Ircam</strong>. Leur rédaction parl’étudiant fait partie du projet pédagogique.1.1.2 Les étudiantsNeuf compositeurs ont suivi le cursus 2002-<strong>2003</strong> : BANNERMANAlastair (Grande Bretagne), DROUIN Geoffroy (France), FUENTESAVILA Arturo (Mexique), LAPORTE Jean-François (Canada),LUNSQUI Alexandre (Brésil), NORDIN Jesper (Suède), PARRA iESTEVE Hector (Espagne), SUZUKI Jummei (Japon), TIAN Leilei(Chine).- 211 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS PROFESSIONNELLES1.1.3 L’équipeL’enseignement de l’informatique musicale et l’encadrement dela réalisation des projets artistiques sont assurés par lesassistants musicaux du département Pédagogie : Jean Lochard,Mikhail Malt et Benjamin Thigpen.Chaque assistant est plus particulièrement chargé d’undomaine :- Jean Lochard : analyse, synthèse et traitement du son ;- Mikhail Malt : écriture musicale assistée par ordinateur ;- Benjamin Thigpen : interaction temps réel etspatialisation ;Autres intervenants :- Emmanuel Jourdan (<strong>Ircam</strong>) : vidéo temps réel- François Eckert : techniques et esthétique musicale de laprise de son ;- Sébastien Naves (<strong>Ircam</strong>) : techniques de la prise de son ;- Emmanuel Fléty (<strong>Ircam</strong>) : capteurs et interfaces pour lacaptation du jeu instrumental.1.1.4 Environnement de travailLa Pédagogie met à disposition des jeunes compositeurs troisstudios avec écoute quadraphonique, ainsi qu’un plus petitéquipé d’une écoute stéréophonique de proximité. Chaque lieuest équipé de deux ordinateurs Apple Macintosh PowerPC. L’unsert au mixage multipistes et au séquencement Midi et audio etl’autre au traitement en temps réel avec Max/MSP. Leslogiciels de composition temps différé sont installés sur lesdeux machines. Des équipements Midi et audio(échantillonneurs, processeurs de réverbération,synthétiseurs, claviers, etc.) viennent compléter lesressources informatiques.Une salle de cours et travaux pratiques équipée de sixMacintosh PowerPC avec installation audio et équipement Midiest affectée au Cursus pendant toute l’année.Une participation aux frais d’un montant de 1 067 EUR estdemandée à chaque compositeur. Elle comprend l’adhésion auForum <strong>Ircam</strong>, l’inscription à la Médiathèque et les frais descolarité.1.1.5 La résidence post-cursusSoucieux de créer, avec ces jeunes compositeurs, une relationplus durable, tant sur le plan artistique que sur le plan dela recherche, et afin de créer les conditions nécessaires àleur épanouissement professionnel, l’<strong>Ircam</strong> a créé en <strong>2003</strong> undispositif de résidence qui se décline en deux formes :- interne : tout élève ayant suivi le Cursus pourra, s’il lesouhaite, soumettre un projet qui vise un travail derecherche dans un domaine spécifique, ou un projet deproduction qui explorera ou mettra en valeur tel ou teldomaine de recherche musical ;- externe : l’<strong>Ircam</strong> aura au préalable établi un accord decollaboration avec une institution ou un festival quiaccueillera partiellement ou complètement un compositeurissu du Cursus. Le projet s’appuiera sur une création.Partenaires actuels : Conservatoire de Lyon (CNSML), ChœurAccentus à Paris. Partenaires pressentis : Académie Boulez à- 212 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS PROFESSIONNELLESLucerne, Conservatoire de Paris (CNSMP), École des beaux-artsde Lyon, Festival d’Aix en Provence, Centre national de ladanse à Paris, Le Fresnoy à Lille.1.2 Le stage de composition et d’informatiquemusicale - juin <strong>2003</strong>Le stage de composition et d’informatique musicale formechaque été dix compositeurs également choisis par le comité delecture (*). Ce stage permet, dans l’espace d’un mois deprendre connaissance des logiciels de l’<strong>Ircam</strong> et de suivre lescours des compositeurs invités. Cette année, il s’est déroulédu lundi 2 au vendredi 27 juin <strong>2003</strong>.1.2.1 Cours techniquesA la fin de ce stage les participants auront acquis une visionde l’état de l’art des technologies pour la musique ainsiqu’une idée de leur utilisation dans des œuvres donnéespendant le Festival Agora qui a lieu à la même période. Quatregrands volets de l'informatique musicale ont été abordés :analyse, synthèse et traitement du son avec AudioSculpt,Diphone et Modalys ; écriture musicale assistée par ordinateuravec OpenMusic ; interaction temps-réel entre musicien etordinateur avec Max/MSP (<strong>Ircam</strong> / Cycling 74) ; spatialisationavec le Spatialisateur.1.2.2 Cours de compositionEn complément des aspects techniques, des cours de compositionpar Martin Matalon ont également été proposés.1.2.3 Les stagiairesLes12 compositeurs qui ont participé au stage en juin <strong>2003</strong>sont : BARRIENTOS YÉPEZ Vicente (Mexique), BILODEAU Julien(Canada), CIPOLLONE Elvio (Italie), KAWAMOTO Hideko (Japon),KISHINO Malika (Japon), MAINTZ Philipp (Allemagne), ORTIZPablo (Etats-Unis/Argentine), PALERMO Dario (Italie),PELO Mika (Suède), UENO Ken (Etats-Unis), VAN ECK Cathy(Danemark), WILLIAMS Carter (Etats-Unis).1.2.4 L’équipeL’enseignement de l’informatique musicale a été dispensé parles assistants musicaux du département Pédagogie : JeanLochard, Mikhail Malt, Benjamin Thigpen- Jean Lochard : Traitement du son ;- Mikhail Malt : Ecriture musicale assistée par ordinateur ;- Benjamin Thigpen : Interaction temps réel et spatialisation.1.2.5 Environnement de travailUne salle de cours et travaux pratiques équipée de neufMacintosh PowerPC avec installation audio et équipement Midi apermis aux stagiaires de manipuler les outils enseignés parbinômes. Ces machines étaient en accès libre le week-end et ensoirée. Une participation aux frais d’un montant de 607 EUR aété demandée à chaque compositeur.- 213 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS PROFESSIONNELLESo (*) Le comité de lectureChaque automne un comité de lecture, formé de personnalités indépendanteset reconnues à l'échelon international, et des responsables artistiques del'Ensemble Intercontemporain et de l'<strong>Ircam</strong>, se réunit pour choisir, parmiplusieurs centaines de dossiers, les jeunes compositeurs qui participerontau cursus et au stage d’été de composition et d’informatique musicale. Cecomité a reçu environ trois cents candidatures pour le cursus 2002-<strong>2003</strong> etle stage d’été <strong>2003</strong>.1.3 Stages logicielsCes stages sur les logiciels de l’<strong>Ircam</strong> se déroulent en fin desemaine : ils proposent une pédagogie par la pratique deslogiciels de création musicale développés à l’<strong>Ircam</strong> etdistribués par le Forum.1.3.1 Synthèse et Traitement du son1.3.1.1 AudioSculpt : introductionIntervenant : Jean LochardLes participants font leurs premiers pas avec l’interfacegraphique d’AudioSculpt : visualisation et édition dusonagramme, exploration des fonctionnalités de base(transposition, dilatation, filtrage, synthèse croisée…).10 participantsSamedi 29 et dimanche 30 novembre <strong>2003</strong>1.3.1.2 AudioSculpt : applications avancées (niveau 2)Intervenant : Jean LochardCe deuxième stage permet aux participants d’aborder quelquesunsdes outils d’analyse d’AudioSculpt, le scripting, letraitement par lot (batching), la communication avecOpenMusic, les synthèses croisées.5 participantsSamedi 25 et dimanche 26 janvier <strong>2003</strong>1.3.1.3 Diphone : introductionIntervenant : Jean LochardCe stage aborde les principes de base du logiciel, de l’étaped’analyse et de découpage automatique d’une phrase musicale ensegments (avec le module AddAn) à la construction deséquences. Ces séquences, dont tous les paramètres sontéditables, peuvent ensuite faire l’objet de multiplestraitements (transposition, morphing entre deux timbres,séquences de filtres résonants, micromontages…).10 participantsSamedi 26 et dimanche 27 mars <strong>2003</strong>1.3.2 Ecriture musicale assistée par ordinateur1.3.2.1 OpenMusic : introductionIntervenant : Mikhail MaltCette introduction à OpenMusic a pour objectif de permettreaux participants de faire leurs premiers pas dans l’interface- 214 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS PROFESSIONNELLESgraphique, notamment en expérimentant quelques objets musicauxsimples (séquences mélodiques, accords, séquences d’accords…).9 participantsSamedi 13 et dimanche 14 décembre <strong>2003</strong>1.3.2.2 OpenMusic : applications avancées (niveau 2)Intervenant : Mikhail MaltLe but de ce deuxième stage est d’approfondir et depersonnaliser les fonctionnalités offertes par OpenMusic pourpermettre au musicien de traduire sa pensée musicale en termesinformatiques. Tout d’abord, les participants abordentl’échange de données (texte et Midi) entre OpenMusic etAudioSculpt et les aspects concernant l’itération et larécursivité, puis ils s’initient à l’utilisation deslibrairies Esquisse et Repmus.5 participantsSamedi 8 et dimanche 9 mars <strong>2003</strong>1.3.3 Interaction Temps réel1.3.3.1 Max Plug-in et applications autonomesIntervenant : Benjamin ThigpenLes participants apprennent deux manières différentesd’utiliser des patches Max en dehors de l’environnementMax/MSP. Deux solutions sont abordées dans ce stage : lacréation d’applications autonomes exécutables et la créationde plug-in (VST, MAS, RTAS) à l’aide de Pluggo. Les techniquesdu scripting, de la gestion du curseur, du clavier pour lacréation d’une interface graphique utilisateur sont exposées,à l’aide d’exemples de bornes interactives, d’applications etde plug-in réalisés à l’<strong>Ircam</strong>.3 participantsSamedi 27 et dimanche 28 septembre <strong>2003</strong>1.3.3.2 Max/Midi : introduction à MaxL’environnement de programmation Max/MSP est l’outil idéalpour imaginer et créer une interaction entre le musicien etl’ordinateur, utilisant le Midi et l’audio. Ce stage permet dese familiariser avec les outils et principes de base duprogramme, par la construction de patches mettant en œuvre desinteractions simples.Intervenant : Jean Lochard10 participantsSamedi 11 et dimanche 12 janvier <strong>2003</strong>10 participantsIntervenant : Mikhail MaltSamedi 15 et dimanche 16 novembre <strong>2003</strong>Intervenant : Emmanuel Jourdan10 participantsSamedi 22 et dimanche 23 novembre <strong>2003</strong>1.3.3.3 Max/MSP :applications niveau 2Intervenant : Benjamin ThigpenDurant ce second stage, les participants s’initient à lasynthèse-modulation de fréquence, la lecture etl’enregistrement de fichiers son, l’échantillonnage, ainsi- 215 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS PROFESSIONNELLESqu’à d’autres utilisations de buffer~s audio, des traitementscomme la ligne de retard et la transposition.9 participantsSamedi 1 er et dimanche 2 février <strong>2003</strong>1.3.3.4 Max/MSP : applications avancées (niveau 3)Intervenant : Benjamin ThigpenDurant ce troisième stage, les participants abordent lefiltrage, divers autres traitements, le suivi d’amplitude, dehauteur et de spectre.6 participantsSamedi 24 et dimanche 25 mai <strong>2003</strong>1.3.3.5 Spatialisateur : introductionIntervenant : Benjamin ThigpenCe stage permet d’introduire tous les concepts etfonctionnalités de base du Spatialisateur de l’<strong>Ircam</strong>, àtravers des exercices pratiques pour synthétiser uneacoustique, orienter le son dans l’espace et construire destrajectoires.6 participantsSamedi 15 et dimanche 16 mars <strong>2003</strong>1.3.3.6 Spatialisateur : applications avancées (niveau 2)Intervenant : Benjamin ThigpenCe deuxième stage permet aux participants de s’initier auxméthodes de contrôle avancées. Les formats de sorties sontexpliqués et comparés. Spat Pluggo est abordé, puis lesparticipants construisent leur Spatialisateur personnalisé. Lestage se termine sur un exposé des diverses approchesmusicales de la spatialisation et par la présentation deprojets réalisés avec le Spatialisateur.3 participantsSamedi 6 et dimanche 7 décembre <strong>2003</strong>1.3.3.7 Jitter : introductionIntervenant : Emmanuel JourdanCe stage d’initiation permet aux participants de faire leurspremiers pas avec Jitter, librairie d’objets matriciels, vidéoet 3D pour l’environnement de programmation graphique Max/MSP.Ils apprennent ainsi à construire des patches simples pourdéclencher, transformer, mixer en temps réel des images et desvidéos.11 participantsSamedi 17 et dimanche 18 mai <strong>2003</strong>1.3.3.8 Jitter : applications avancées (niveau 2)Intervenant : Emmanuel JourdanLes participants explorent différentes possibilitésd’interactions entre son et vidéo. Ils abordent notamment latechnique d’acquisition d’une source vidéo, de son traitementet de sa diffusion en temps réel, puis les différentesinteractions possibles entre audio et vidéo.- 216 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS PROFESSIONNELLES3 participantsSamedi 13 et dimanche 14 septembre <strong>2003</strong>Les frais d’inscription des stages logiciels, pour chaqueparticipant s’élevaient à 214 EUR (individuel) et 442 EUR(organisme), et à partir de septembre <strong>2003</strong> à 200 EUR(individuel) et 350 EUR (organisme).1.4 STAGES THEMATIQUES1.4.1 Stages Design sonoreCes trois stages se proposaient d’aborder la conception et leréalisation sonore de lieux publics ou privés ainsi que laprise en compte de la dimension sonore dans la conception deproduits industriels. Cette année, trois applicationsprincipales ont été favorisées : l’architecture etl’environnement, la communication et la conception musicale.1.4.1.1 Stage Design sonore pour l’architecture etl’environnementIntervenants : Louis Dandrel, Emmanuel Deruty, NicolasMisdariis, Patrick Susini de l’équipe Design sonore de l’<strong>Ircam</strong>et Alain Richon, ingénieur acousticien.Ces deux stages se proposaient d’étudier le design sonoreversus architecture.Les sons construisent l’espace comme la lumière.L’architecture et l’environnement ont des composantes sonoresqui les singularisent, les qualifient ou les disqualifient.L’architecte, l’urbaniste et le paysagiste souvent l’ignorent.L’objectif de ce stage est de mettre en évidence la part quepeut prendre la création sonore dans l’aménagement d’espacespublics ou privés. Il se déroulera en quatre parties : 1°analyse comparative d’environnements urbains dans plusieursvilles du monde ; 2° étude in situ d’un environnement àParis ; 3° analyse de projets de design sonore architecturalréalisés ; 4° travaux pratiques pour une esquisse de projet.Jeudi 3 et vendredi 4 avril <strong>2003</strong> : 12 participantsLes frais d’inscription pour chaque participant s’élevaientà 214 EUR (individuel) et 442 EUR (organisme).Du mercredi 10 au vendredi 12 décembre <strong>2003</strong> : 7 participantsLes frais d’inscription pour chaque participant s’élevaientà 300 EUR (individuel) et 525 EUR (organisme).1.4.1.2 Stage Design sonore pour la communicationIntervenants : Louis Dandrel, Emmanuel Deruty, NicolasMisdariis, Patrick Susini, de l’équipe Design sonore del’<strong>Ircam</strong>Ces deux stages se proposaient d’étudier le design sonoreversus communication. Sous le mot communication sont regroupésdivers domaines d’application du design sonore : lasignalétique, la sonification de signaux, l’identité de marque(de la création de logos à la composition d’environnementssonores spécifiques). Les participants ont principalementétudié les relations entre fonction et esthétique ainsi queles méthodes scientifiques et les moyens techniquesaujourd’hui disponibles. Ce stage s’adressait plus- 217 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS PROFESSIONNELLESparticulièrement à ceux - professionnels et étudiants - quis’interrogent sur les possibilités offertes par l’expressionsonore dans la communication. Il comprenait quatre parties :1° signalétique et sonification : analyse de projets réaliséspour l’industrie automobile, la téléphonie, l’urbanisme ; 2°outils scientifiques : la psychoacoustique ; les nouveauxmoyens techniques de production et de modélisation ; 3°identité de marque : analyse comparative de créations sonorespour de grandes entreprises ; 4° travaux pratiques :élaboration d’un briefing ou comment rédiger un cahier descharges de design sonore.Jeudi 27 et vendredi 28 février <strong>2003</strong> : 6 participantsLes frais d’inscription pour chaque participant s’élevaientà 214 EUR (individuel) et 442 EUR (organisme)Du mercredi 26 au vendredi 28 novembre <strong>2003</strong> : 3 participantsLes frais d’inscription pour chaque participant s’élevaientà 300 EUR (individuel) et 525 EUR (organisme)1.4.1.3 Stage Design sonore : des mots aux sonsIntervenants : Jean Lochard et Mikhail MaltLes 11 participants ont abordé les différents aspects dutraitement et de la synthèse appliqués au design sonore.L’objet de cette formation était d'établir des correspondancesentre la description métaphorique d'un son (rugueux, lisse,clair, foncé...) et les moyens techniques nécessaires à saréalisation. Les séances, sous forme d'atelier, ont abouti àla création d'un mini-projet en utilisant notamment leslogiciels d’informatique musicale, Audiosculpt, Max/MSP etProtools.Jeudi 15 et vendredi 16 mai <strong>2003</strong>Les frais d’inscription pour chaque participant s’élevaientà 214 EUR (individuel) et 442 EUR (organisme)1.4.2 Stages Musiques actuellesDans le cadre des Rendez-vous électroniques, en marge deRésonances, l’<strong>Ircam</strong> a accueilli l’association Technopol, qui aproposé cinq journées de formation destinées auxprofessionnels actuels et futurs des musiques actuelles etélectroniques, autour du statut de l’artiste, de l’éditionphonographique et de l’organisation d’un événement.Parallèlement, l’<strong>Ircam</strong> a présenté ses logiciels dans le cadred’une conférence le mercredi 10 septembre à 18 h et proposédeux stages qui ont permis aux participants d’aborder deuxthèmes liés aux besoins de la musique « live » : la captationdu geste et les liens entre image et sons.1.4.2.1 Le geste et la captationIntervenant : Emmanuel FlétyImaginer et réaliser un système interactif reliant performer,musique et vidéo, tel était l’objectif de cette miniformation.À partir de quelques exemples simples, lesintervenants ont montré comment utiliser les outils adéquats(capteurs, interfaces, contrôleurs). La formation s’estterminée sur une démonstration mettant en œuvre synthèses et- 218 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS PROFESSIONNELLESeffets sonores, spatialisation, génération et contrôled’images… Les 8 participants ont ainsi pu se rendre compte desmultiples possibilités d’applications (live, performances,installations…).Jeudi 11 septembre <strong>2003</strong>Les frais d’inscription pour chaque participant s’élevaientà 90 EUR1.4.2.2 Les liens images et sonsIntervenant : Emmanuel JourdanJitter est un logiciel temps réel dédié à la vidéo qui permetde construire ses propres traitements. L’objectif de cettemini-formation, qui a accueilli 10 participants, était deconcevoir les différentes étapes d’une installation ou d’uneperformance : acquisition vidéo, contrôle en temps réel(capteurs, interactions son et vidéo), traitement (filtrageset effets) et diffusion.Vendredi 12 septembre <strong>2003</strong>Les frais d’inscription pour chaque participant s’élevaientà 90 EUR1.4.3 Stage captation du geste pour le théâtre et pourla danseIntervenants : Emmanuel Fléty et Emmanuel JourdanLa création du Pôle spectacle a créé la demande pour uneformation permettant aux professionnels de la danse et duthéâtre de s’initier à ces technologies.L’objectif de ce stage était d’enseigner aux 9 participants laconception et la réalisation de systèmes interactifs reliantl’interprète (danseur ou comédien), la musique et la vidéo. Lestage était principalement axé sur les problématiquesgénérales de la captation du geste :- les différents types de capteurs (capteurs de pression,capteurs de luminosité, capteurs de distance) etd’interfaces (eo.body, AtoMic Pro), les protocoles decommunication, l’interactivité, la latence ;- les différentes façons d’utiliser les capteurs en fonctiondes événements (déplacements, chorégraphie) ;- les interactions qui en découlent (image, son, etc.), avecles logiciels Max/MSP et Jitter.Jeudi 4 et vendredi 5 décembre <strong>2003</strong>Les frais d’inscription pour chaque participant s’élevaientà 250 EUR (individuel), 375 EUR (organisme).1.4.4 Stage Spatialisateur dans ProToolsIntervenant : Manuel PolettiCette formation répondait à la demande des ingénieurs du sonde disposer d’un environnement de spatialisation sophistiquédans l’outil de montage ProTools. Le Spatialisateur est depuispeu disponible sous forme de « plugin » dans ProTools. Celogiciel se prête à de multiples utilisations : le concert, lapostproduction d’enregistrements multimédias et réalitévirtuelle, la mise en séquence d’effets de localisation et deréverbération en temps réel lors d’un concert ou d’un- 219 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS PROFESSIONNELLESenregistrement avec choix de format de restitution, lasimulation d’environnements virtuels sur haut-parleurs oucasque, la conception d’un système d’acoustique variable pourune salle de concert ou une salle polyvalente.Ce stage a proposé aux 4 participants de découvrir lesconcepts fondamentaux du Spat et son utilisation dansProTools. Le logiciel Max/MSP était également présenté ainsique Pluggo, le générateur de plug-in dans Max/MSP.Jeudi 20 et vendredi 21 novembre <strong>2003</strong>Les frais d’inscription pour chaque participant s’élevaient à200 EUR (individuel), 350 EUR (organisme).1.5 Formations à la demande1.5.1 Formation Numérisation des fonds sonoresIntervenants : Michel Fingerhut, directeur de la Médiathèqueet du bureau études et méthodes de l’<strong>Ircam</strong>, Geoffroy Peeterschercheur à l’<strong>Ircam</strong>, Sébastien Naves, ingénieur du son àl’<strong>Ircam</strong>Pour le Ministère de la Culture13 participants4 avril, 19, 20, 21 mai, 27 juin <strong>2003</strong>- 220 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS UNIVERSITAIRES2 FORMATIONS UNIVERSITAIRESLes activités de recherche et développement de l’<strong>Ircam</strong>nécessitent le maintien d’un lien permanent avec le mondeuniversitaire, et à travers celui-ci, avec le monde de larecherche. C’est dans ce sens que les trois formationsuniversitaires accueillies à l’<strong>Ircam</strong> trouvent une placenaturelle au sein de l’institut. Pour l’année <strong>2003</strong> lesformations accueillies par l’Institut étaient destinées auxfuturs chercheurs et enseignants dans les domaines dessciences et technologies appliquées à la musique et de lamusicologie et aux créateurs de jeux interactifs. Si lacoordination administrative du DEA Atiam ainsi que les coursde cette formation sont totalement pris en charge par l’<strong>Ircam</strong>,il n’en est pas de même pour le DEA MHS et le DESS multimédiasdans lesquels l’institut est partenaire et organise desmodules de cours, mais dont la gestion est assurée pard’autres organismes (l’EHESS pour le DEA MHS, le CNAM Poitou-Charentes pour le DESS multimédias).2.1 Diplôme d’études approfondies en Acoustique,traitement du signal et informatique appliqués àla musique : DEA Atiam - Année universitaire2002/<strong>2003</strong>Le DEA-Atiam, unique en son genre, dispense un enseignementdans lequel tous les sujets techniques et scientifiques quitouchent la musique sont abordés. Contrairement aux autresformations de troisième cycle, la quasi-totalité des cours sedéroule dans les murs de l’<strong>Ircam</strong> et l’organisationadministrative est totalement prise en charge par l’institut.Le DEA Atiam, interdisciplinaire par nature, s’appuie sur deséquipes d’accueil réparties sur le territoire national,notamment : l’Acroe à Grenoble, le département de Traitementdu Signal et des Images (TSI) de l’ENST, l’<strong>Ircam</strong>, leLaboratoire d’acoustique musicale (Lam), le laboratoired’Informatique de Paris VI (LIP VI) et le Laboratoire deMécanique et d’Acoustique (Lma) du CNRS à Marseille. Lesquatre disciplines - acoustique, traitement du signal,informatique, musique - dont la réunion fait l’originalité etl’intérêt de la formation, ont motivé le rattachement àdifférentes écoles doctorales liées à chaque établissementd’habilitation. Cette formation est sanctionnée par un diplômedélivré conjointement par l’université de la Méditerranée(Aix-Marseille II), l’université de Paris VI et l’universitéJoseph Fourier de Grenoble. Jean-Dominique Polack, directeurdu Laboratoire d’acoustique musicale CNRS de Paris VI en estla responsable et Gérard Assayag, responsable de recherche àl’<strong>Ircam</strong>, en assure la coordination.2.1.1 ObjectifLes nouvelles technologies font partie intégrante de lacréation et de la pratique musicale contemporaine, et leurmaîtrise dans le domaine artistique sous-tend des enjeuxéconomiques importants. Cependant les connaissancesscientifiques nécessaires au développement de ces applications- 221 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS UNIVERSITAIRESmusicales sont difficilement accessibles. L'objectif du DEAATIAM est de fournir les bases scientifiques et musicalesnécessaires pour aborder les différents domaines de larecherche appliquée à la musique. Cette formation est en effetun des rares cursus proposant une approche scientifique et uneformation à la recherche sur toute la chaîne de l'activitémusicale, depuis les dimensions physique et psycho-physiquejusqu'à la modélisation numérique et les structuressymboliques de haut niveau. Elle rencontre à ce titre lafaveur des étudiants, avec un recrutement international et untaux de candidatures acceptées d’un peu moins de 10 %.2.1.2 Organisation et orientation pour l’annéeuniversitaire <strong>2003</strong>-2004Une telle formation doit, par nature, être réalisée encollaboration avec les différentes structures pédagogiques etde recherche qui, sur le plan national ou européen, ont lamaîtrise des connaissances et des expériences nécessaires.Ainsi, plusieurs structures universitaires sont associées àl’<strong>Ircam</strong>, qui assure l’organisation et la coordination desenseignements, de l’encadrement et d’une partie des travaux destage,En les énonçant par discipline, les différents modes decollaboration sont :- acoustique : acoustique physique, mécanique des vibrations,acoustique instrumentale, acoustique des salles,psychoacoustique et sciences cognitives. En collaborationavec l’université de Paris VI, l’université du Maine,l’université Aix-Marseille II et le CNRS ;- traitement du signal : codage, filtrage, représentationtemps-fréquence, synthèse et traitement des sons. Encollaboration avec L’ENST Paris et le CNRS de Marseille ;- informatique : algorithmes, programmation, informatiquesymbolique, informatique temps réel, représentations desstructures musicales, composition assistée par ordinateur.En collaboration avec l’université de Paris VI ;- culture et applications musicales : musiques du XXe siècle,applications des techniques d’analyse, traitement etsynthèse des sons, applications de l’analyse et de lacomposition musicales assistées par ordinateur.2.1.3 Suivi pédagogiqueLes cours théoriques ont été assurés à Paris de mi-septembre2002 jusqu’à fin février <strong>2003</strong> et ont été suivis par les stagesobligatoires de mars à juillet <strong>2003</strong>. Les stages et les thèsessont effectués pour la plupart dans l’une des institutions quiparticipent au DEA, mais ils se sont également déroulés dansd’autres laboratoires.Les enseignements théoriques et l’initiation aux techniques derecherche en acoustique, traitement du signal et informatiqueont représenté un total de plus de 300 heures si l’on comptel’ensemble des modules de mise à niveau et la totalité descours optionnels, chaque discipline enseignée faisant l’objetd’un contrôle.- 222 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS UNIVERSITAIRESPour chacune des disciplines, l’enseignement est réparti enquatre modules : l’enseignement de mise à niveau,l’enseignement fondamental ou théorique, l’enseignementspécifique ou appliqué et l’enseignement approfondi ouinitiation à la recherche, ce dernier étant sous formed’options. De plus, les modules de connaissances spécifiquescomprennent des cours d’applications musicales. Voici larépartition des modules :- les modules de mise à niveau - un module au moins, à choisirparmi trois modules scientifiques de 24 heures et un moduleobligatoire de 12 heures sur la musique du XXe siècle. sontconçus pour compenser les différences de formation initialeentre les étudiants ;- les modules de connaissances fondamentales (72 heures autotal) regroupent les notions théoriques et essentielles dela discipline concernée, y compris des notions souventconsidérées comme secondaires, mais qui se révèlentindispensables pour les applications musicales ;- les modules de connaissances spécifiques (96 heures)constituent la partie la plus originale par rapport auxenseignements d’autres DEA. Les cours scientifiquesregroupent des notions qui relèvent des applicationsmusicales. Les cours d’applications musicales (40 heures)complètent le cas échéant les concepts présentés dans lescours scientifiques et ont surtout pour objet de montrercomment ils peuvent être utilisés dans un contexte musical.Des compositeurs seront sollicités pour venir présenter euxmêmesleurs œuvres ;- les modules de connaissances approfondies (40 heures) sontdes modules de type optionnel qui constituent une véritableinitiation à la recherche ;- Les enseignements pratiques ont lieu en moyenne à raisond’une séance toutes les deux semaines. De plus, lesétudiants ont accès à des stations de travail, ce qui leurpermet d’acquérir une expérience personnelle et pratiquedans les disciplines enseignées.2.1.4 Équipe doctoraleMichèle Castellengo (responsable, université de Paris VI-Lam),Michel Bruneau (université du Maine), Claude Cadoz (Acroe-Ensimag), Denis Matignon (ENST Paris) jusqu’en septembre 2002et Bertrand David (ENST Paris) à partir de septembre 2002,Emmanuel Saint-James (université de Paris VI), Jean Kergomard(CNRS, Marseille) et Gérard Assayag (<strong>Ircam</strong>). L’ensemble desmembres de l’équipe doctorale 2002 a enseigné dans le cadre dela formation.2.1.5 Les enseignants pour l’année 2002/<strong>2003</strong>Daniel Arfib, LMA ; Gérard Assayag, IRCAM ; Georges Bloch,compositeur ;Michel Bruneau, Université du Maine ; Claude Cadoz,ACROE/LIFIA ;- 223 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS UNIVERSITAIRESOlivier Cappé, ENST ; Michèle Castellengo, CNRS, Paris ;Bertrand David, ENST ; Philippe Depalle, Université McGill,Canada ;Claude Depollier, université du Maine ; Pierre Duhamel, ENST ;Benoît Fabre, Université Paris VI ; Jean-Loup Florens,ACROE/LIFIA,Jean Kergomard, LMA ; Denis Matignon, ENST, Paris ;2.1.6 Les étudiants de l’année universitaire 2002/<strong>2003</strong>Sur les 200 candidats qui ont postulé pour l’année <strong>2003</strong>-2004 àcette formation, dix-huit étudiants ont été retenus. Parmieux, deux étudiants italiens et un étudiant taiwanais. Ilsviennent pour la plupart de grandes écoles (Centrale, ENST,Mines), d’écoles d’ingénieurs et de l’Université (Agrégation,DEA, Maîtrise) ou de formations équivalentes à l’étranger ;deux auditeurs libres ont été également autorisés à se joindreà eux pour suivre le cursus.2.1.7 Résultats de la promotion 2002/<strong>2003</strong>15 des 18 étudiants inscrits en DEA en 2002-20003 ontobtenu le diplôme (deux démissions et un échec à l’examenfinal).2.1.8 Les étudiants en thèse en <strong>2003</strong>Trente-deux étudiants étaient inscrits en thèse dans laformation doctorale Atiam courant 2002. Pour l’année <strong>2003</strong>, ilfaut ajouter à ce nombre huit étudiants de la promotion 2002-<strong>2003</strong>, sachant que quatre autres étaient fin <strong>2003</strong> à larecherche d’un financement. Par rapport à la promotion2001/2002 qui s’était moins orientée vers des thèses à l’issuede leur DEA, on retrouve un niveau d’engagement encore plusimportant que celui de l’année 2000/2001 (sept inscriptions enthèse).Deux étudiants issus du DEA Atiam ont soutenu leur thèse en<strong>2003</strong>. Sujets étudiés : Formats audio et systèmes de notationpour la description, la manipulation et la composition descenes sonores ; effets audionumériques adaptatifs : théorie,mise en œuvre et usage en création musicale numérique.2.2 Diplôme d’études approfondies, Musique HistoireSociété : DEA MHSCe DEA, sous la responsabilité de Michael Werner (EHESS),propose de contribuer à la constitution d’un espaceinterdisciplinaire et international de formation enmusicologie, en offrant aux étudiants d’histoire et desociologie des compléments de formation en analyse ettechnique musicale et aux étudiants de musicologie, uneouverture sur les sciences sociales. Le séminaire « Histoire- 224 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS UNIVERSITAIRESdes techniques musicales au XX-ème siècle » (HTM) sous laresponsabilité de Mikhail Malt s’est déroulé en alternanceavec le séminaire « Evolution de la théorie et de l'analysemusicale au XX-ème siècle » (EAM) sous la responsabilité deGérard Assayag à partir de mi-novembre 2002 à fin mars <strong>2003</strong>.Une dizaine d’étudiants de la promotion 2002/<strong>2003</strong> a suivi cesséminaires optionnels dans le cadre de la formation quirapproche l’<strong>Ircam</strong> du monde des sciences humaines restées troplongtemps absentes de la vie intellectuelle de l’institut. Lesdeux séminaires ont été reconduits pour l’année universitaire<strong>2003</strong>/2004 qui a débuté mi-novembre <strong>2003</strong>.2.2.1 Histoire des techniques musicales au XXe siècleLes développements technologiques issus du dernier quart duXIXe siècle (électricité, mécanique, électronique) et le débutdu XXe siècle (informatique) ont eu un fort impact surl'évolution de plusieurs techniques musicales, en induisantdans certains cas de profondes transformations. De la lutherieartisanale, nous sommes passés à la lutherie virtuelled'instruments éphémères et sans histoire, nous offrantpourtant de nouvelles sonorités et de nouvelles possibilités.L'écriture voit son champ de travail s'élargir. Les nouvellespossibilités offertes par les technologies nouvellespermettent des formes d'interactivité auxquelles lescompositeurs avaient à peine songé. Les instrumentistes sontconfrontés à des transformations radicales dans leur métier.De la technique d'exécution, ils passent à la techniqued'adaptation. Adaptation aux divers modes de jeu développés etinventés par les compositeurs, et aux différents dispositifsnécessaires à l'exécution d'œuvres contemporaines. Structuréautour de thématiques, comme la lutherie, l'écriture etl'interprétation, exposées par divers acteurs de la viemusicale contemporaine (compositeurs, chercheurs etinterprètes), ce séminaire propose une vision de l'évolutiondes techniques musicales, de la fin du XIXe au XXIe siècle, etses rapports avec les diverses évolutions technologiquessurvenues dans cette période. En offrant aux étudiants demusicologie une ouverture aux nouveaux moyens de production,reproduction et de traitement de la musique, son principalobjectif est de stimuler le développement de travaux quipuissent s'interroger sur les rapports entre l'évolution destechniques musicales et des différentes technologies par leurmise en perspective historique, économique, politique, socialeet culturelle.- 225 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS UNIVERSITAIRES2.2.2 Evolutions de la théorie et de l’analysemusicales au XXe siècleLa musicologie et l’analyse musicale ont subi un certainnombre d’évolutions remarquables au cours du XXe siècle,accompagnées et souvent suscitées par les grands mouvementsd’idées en sciences naturelles et humaines. On peutbrièvement en mentionner les plus saillantes : intégration dela psychologie gestaltiste, analyse génétique, déjà proposéepar Schenker, symétrie d’échelle, à la mode depuis lesfractales, mais déjà introduites comme outils d’analyse parLorenz au début du siècle, retour des fondements acoustiquesavec HindeMith, école de la variation motivique de Schoenbergà Réti. Les bouleversements d’après guerre accélèrent encorecette transformation : la contamination méthodologique duchamp musical par la linguistique triomphante se poursuit etaboutira au structuralisme et à la sémiologie musicale avecRuwet, Nattiez, et plus récemment Grabocz ; la théorie del’information suscite les travaux de Meyer et Narmour surl’attente musicale et l’implication-réalisation ; leBourbakisme et la théorie des groupes influencent les travauxde Babbit, Forte, Lewin, et, jusqu’à ceux, contemporains, deMazzola sur la théorie des catégories; le succès de Chomskyimpulse un ensemble important de recherches sur les grammairesformelles et les théories génératives (Lerdahl et Jackendoff)culminant au congrès de Modène au début des années 80 ; enfin,dès les années 40, l’ordinateur ouvre à un niveau massif lesportes de l’exploration combinatoire, stochastique,syntaxique, informationnelle, acoustique, cognitive, et mêmel’idée d’une intelligence artificielle de la musique commenceà pointer. Enfin le champ d'application s'ouvre (musiquescontemporaines acoustiques, électro-acoustiques, mixtes,musiques ethniques) induisant de nouvelles méthodologies.Ce séminaire a permis aux étudiants de se familiariser avecquelques-unes des principales lignes de forces conceptuellesissues du foisonnement théorique de l'après-guerre, après uncours d'introduction qui en présentera les sources précoces(19° et début 20°).Le cœur du séminaire est formé par les grandes démarchesthéoriques liées au structuralisme, aux approchesformalisantes de l'école américaine, et à l'approcheinformatique. L'ethnomusicologie, la musiqueélectroacoustique, les problématiques particulières de lamusique contemporaine sont elles aussi abordées.- 226 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS UNIVERSITAIRES2.2.3 Les enseignants pour l’année universitaire2002/<strong>2003</strong>Moreno Andreatta, doctorant département représentationmusicale, <strong>Ircam</strong> ; Marc Battier, Professeur Paris IV,Sorbonne ; Alain Bioteau, compositeur, musicologue ; AlainBonardi, Maître de conférence, Paris VIII ; Rémy Campos,enseignant CNSMDP ; Marc Chemillier, Professeur université deCaen ; Jean-Pierre Cholleton, Professeur, conservatoire deMontreuil ; Eric Daubresse, assistant musical, <strong>Ircam</strong> ;François Delalande, responsable de recherche en sciences de lamusique, INA/GRM ; Marta Grabocz, Professeur, Université deStrasbourg ; Andrew Gerzso, Directeur département pédagogie,<strong>Ircam</strong> ; Philippe Lalitte, musicologue, LEAD CNRS ; MikhaïlMalt, assistant musical, département pédagogie, <strong>Ircam</strong> ;Stephan Schaub, doctorant, Paris IV ; Benny Sluchin, musicien.2.3 Diplôme d’études supérieures spécialisées : jeuxinteractifs et vidéo multimédia : DESSCet enseignement s’adresse plus spécialement à de futurs« sound designers », à des compositeurs, des producteurs,ainsi qu’à des informaticiens désirant se spécialiser dans leson pour le jeu vidéo ou les médias interactifs. Tous lesaspects de la création d’un jeu vidéo ou de la création d’unprojet multimédia ont été étudiés durant l’année. Dans cecadre, l’<strong>Ircam</strong> a proposé un module spécifique qui a permis auxétudiants de maîtriser tous les éléments de la création d’unmoteur son pour un jeu vidéo ou une application multimédia.Pour suivre cette spécialisation, il a été demandé auxinformaticiens d’avoir une connaissance de base dans ledomaine du son et de la musique et des connaissances eninformatique aux candidats venant du domaine du son. Commepour le DEA-MHS, ce module s’inscrit à l’intérieur d’undispositif plus large de cours dispensés dans les institutionspartenaires, le CNAM Paris, le CNAM Poitou-Charentes, lesUniversités de la Rochelle et de Poitiers et enfin le CNBDId’Angoulême. Le partenariat signé pour la première fois en2001 entre ces différentes institutions a été reconduit pourl’année universitaire 2002/<strong>2003</strong>.2.3.1 Suivi pédagogiqueLe module a été constitué de vingt-quatre heures de cours etde douze heures de travaux pratiques répartis entre les troisenseignants. Ces cours ont eu lieu à l’<strong>Ircam</strong> au cours dupremier trimestre <strong>2003</strong>.- 227 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS UNIVERSITAIRES2.3.2 Les enseignantsMikhaïl Malt, assistant musical, département pédagogie,<strong>Ircam</strong> ; Norbert Schnell, responsable équipe applications tempsréel, <strong>Ircam</strong> ;2.3.3 Les étudiantsParmi les étudiants inscrits en 2002/<strong>2003</strong> au DESS Jeuxinteractifs et vidéo multimédia, quatre étudiants ont suivi cemodule spécialisé. Cinq compositeurs ont en outre bénéficié dece module d’enseignement dans le cadre de la formationprofessionnelle et d’un accord passé avec la Sacem.- 228 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS SCOLAIRES3 FORMATIONS SCOLAIRESCes formations sont destinées aux professeurs et élèves descollèges, lycées et conservatoires. Elles ont permisd’accueillir en <strong>2003</strong> plusieurs groupes d’élèves accompagnéspar leurs professeurs. L’atelier « Jupiter » a été le plusdemandé, la structure de cet atelier permettant à la foisd’accueillir un groupe plus important, aspect non négligeableet de découvrir l’institut sous plusieurs angles.3.1 Ateliers Musique LabDepuis la mise en ligne progressive initiée en mai 2002, plusde 1500 établissements ont téléchargé l’ensemble desapplications Musique Lab ("Hauteur et intensité","PolyCycles", "Construction rythmique", "Échelles et modes","Nuages" et "Montage") fruit d'une collaboration entre l'<strong>Ircam</strong>et le ministère de l'Éducation nationale. Fort de cet accueilpositif, l’<strong>Ircam</strong> a œuvré pour la mise en place d’uneconvention cadre entre le ministère de l'Éducation nationale,et le ministère de la Culture pour permettre la collaborationd’une deuxième génération d’applications dont vont bénéficierà la fois les élèves des collèges et lycées et, fait nouveau,les élèves des écoles et conservatoires de musique. Cetteconvention a été signée en novembre <strong>2003</strong>.Les six applications de Musique Lab permettent non seulementd'aborder et d'analyser d'une façon très concrète lesdifférents phénomènes sonores à l'aide de l'ordinateur, maisaussi de simuler des processus musicaux mis en oeuvre dans despièces du répertoire musical et de présenter des itinérairesexploratoires qui visent la création sonore. Les ateliersproposés à partir de <strong>2003</strong> ont été programmés dans le but dedécouvrir ces applications, d'apprendre à les utiliser oud’approfondir leur manipulation, et ainsi d’apporter auxprofesseurs d’éducation musicale des collèges et lycées, écolede musique ou conservatoire, mais également aux intervenantsdu milieu associatif, une offre variée adaptée à leursbesoins.Trois formules :- présentation générale des applications :1h30 : tarif : 150 euros (groupe de 10 personnes)- formation approfondie sur l’une des applications :2h : tarif : 200 euros (groupe de 10 personnes)- formation sur les six applications Musique Lab : 6h :tarif : 600 euros (groupe de 10 personnes)- 229 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS SCOLAIRESPublic concerné : intervenants en milieu scolaire, professeursde formation musicale et professeurs des IUFM, scolaires avecleur professeur dans le cadre d’un projet précis.Intervenant : Emmanuel Jourdan, assistant du départementpédagogie de l’<strong>Ircam</strong>.3.2 Autres AteliersLes trois ateliers qui suivent ont été proposés jusqu’à août<strong>2003</strong> (année scolaire 2002/<strong>2003</strong>)3.2.1 La découverte du sonDécouverte progressive du son avec des exercices mêlant écouteet visualisation ainsi que des jeux d’association et declassification. Une exploration guidée de l’univers sonoreavec des outils scientifiques et des propositions musicales.3.2.2 Création collectiveL’atelier débute par une première phase de préparation où descellules de deux à trois élèves élaborent des matériauxsonores (sons, éléments rythmiques et mélodiques…) eteffectuent une série d’exercice pour s’entraîner à travaillerensemble. Le groupe passe ensuite à une réalisationcollective. Un style de musique particulier pourra êtrechoisi.3.2.3 Le son à portée de main :Par des moyens graphiques simples, comme le dessin à la sourisou la tablette graphique, les participants explorent, par lebiais de multiples transformations, la matière sonore et sespropriétés. Une découverte méthodique et créative de nouvellesformes sonores par l’écoute et la manipulation.Intervenant : Emmanuel Jourdan, département Pédagogie del’<strong>Ircam</strong>,A partir de la rentrée <strong>2003</strong>, l’offre a été modifiée pourproposer des ateliers plus en phase avec l’identité de l’<strong>Ircam</strong>et tenant compte de l’offre « grand public » et « scolaire »d’autres établissements :3.2.3.1 Atelier « Jupiter »Tarif : 350 euros (groupe de 20 personnes)Composée en 1986-1987 par le compositeur français PhilippeManoury, cette œuvre, pour flûte et dispositif électroacoustique,est devenue au fil des ans une pièceincontournable du répertoire de la musique électro-acoustiquemixte.- 230 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS SCOLAIRESL’atelier se déroule en plusieurs séquences, une conférence de1h30, une séance de travaux pratiques d’une 1/2h environ etune visite de l’<strong>Ircam</strong>. L’ensemble permet aux participants decomprendre les enjeux de la composition, mais égalementd’aborder les technologies de suivi de partition et detransformation sonore utilisées dans l’œuvre, ainsi que laplace qu’elles occupent dans la démarche de recherche généralede l’<strong>Ircam</strong>.3.2.3.2 Ateliers découverteTarif : 250 euros (groupe de 10 personnes)Atelier Traitement sonoreCet atelier est destiné à tous ceux qui veulent découvrir lesmultiples facettes du traitement sonore. L’atelier estorganisé sous la forme d’une séance de 3h pendant laquelle lesparticipants peuvent effectuer des manipulations simples surdes traitements, tels que filtrage, filtrage FFT, filtresrésonants, synthèse additive, phasing, coloration (filtres enpeignes), transposition (harmoniser et frequency shifting),réverbération, spatialisation. En complément et afind’illustrer le travail sur ordinateur, des extraits des œuvresdu répertoire électro-acoustique utilisant ces traitementssonores sont également présentés.Atelier Maths et MusiqueCet atelier aborde un ensemble de notions de mathématiques(probabilités, séries, dérivées, théorie des nombres etc.) quitrouvent des applications musicales concrètes. L’atelier estorganisé sous la forme d’une séance de 3h de travaux pratiquessur les différents concepts étudiés.Atelier Physique et MusiqueCet atelier aborde un ensemble de phénomènes physiques liés aumonde sonore tels que vibration, modèles d'instruments,modèles des salles etc. L’atelier est organisé sous la formed’une séance de 3h de travaux pratiques sur ordinateur afind’étudier et de formaliser les concepts présentés.Atelier « à la découverte de l’<strong>Ircam</strong> »Cet atelier est destiné à tous ceux qui veulent aller au-delàd’une simple visite de l’institut. L’atelier est organisé sousla forme d’une conférence de 45 minutes décrivant laspécificité de l’<strong>Ircam</strong> : interaction entre recherchescientifique et création musicale suivie d’une séance pendantlaquelle les participants ont accès aux logiciels créés àl’<strong>Ircam</strong> pour effectuer des travaux simples dans les domainesde la composition assistée par ordinateur, le temps-réel et lasynthèse sonore.- 231 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS SCOLAIRESIntervenants : Emmanuel Jourdan, département Pédagogie del’<strong>Ircam</strong> ; Stephan Schaub, doctorant3.3 Formations à la demande3.3.1 Ateliers d’expression artistiqueDans le cadre d’ateliers d’expression artistique, deuxcollaborations annuelles avec pour l’une un collège etl’autre un lycée ont été signées en 2002 et se sontpoursuivies durant les deux premiers trimestres <strong>2003</strong>. Laconvention avec le collège a été reconduite pour l’annéescolaire <strong>2003</strong>/204.Lycée Voltaire - Paris 11èmeCollège Dorgeles - Paris 18èmeIntervenant : Emmanuel Jourdan, <strong>Ircam</strong>3.3.2 Journée « Mathémusiques »Cette journée organisée pour la Maison des jeunes et de laculture Daniel André de Bobigny s’est déroulée en deux temps.La matinée a permis à deux groupes de jeunes de découvrirl’<strong>Ircam</strong> et de participer à des ateliers d’informatiquemusicale. L’après-midi s’est déroulée dans les locaux de Canal93 à Bobigny, sous la forme de deux séances de présentation etde démonstration liant mathématiques et musiques. Ces séancesétaient destinées à des classes du lycée de Bobigny, maiségalement ouvertes au grand public.Pour la Maison des jeunes et de la culture de Bobigny21 janvier <strong>2003</strong>Intervenants : Emmanuel Jourdan, <strong>Ircam</strong> ; Moreno Andreatta,doctorant.3.3.2.1 Sensibilisation aux applications Musique LabTrois ateliers spécialement organisés pour l’occasion se sontsuccédé afin de permettre à un important groupe d’étudiants del’IUFM d’Antony de pouvoir découvrir et manipuler lesapplications.Pour l’IUFM d’Antony41 participants14 mars <strong>2003</strong>Intervenant : Emmanuel Jourdan3.3.2.2 Musique et culture scientifiqueCette journée comprenait une visite de l’institut, uneconférence sur les logiciels <strong>Ircam</strong>, une séance de travauxpratiques sur les applications Musique Lab et une rencontreavec un compositeur au travail dans les locaux de l’institut.Pour le Rectorat de Créteil- 232 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS SCOLAIRES15 participants2 avril <strong>2003</strong>3.3.3 Formation sur le thème « à la découverte del’<strong>Ircam</strong> »Cette journée organisée pour un groupe de professeursd’éducation musicale intervenants dans les écoles primaires dela Ville de Paris a permis de découvrir l’<strong>Ircam</strong> lieu derecherche scientifique et lieu de création musicalecontemporaine à travers la présentation des logicielsdéveloppés par l’institut et une visite approfondie de seslocaux. La journée s’est poursuivie par une exploration desapplications Musique Lab et s’est terminée par une initiationaux œuvres crées à l’<strong>Ircam</strong> à travers la pièce Jupiter dePhilippe Manoury.Intervenant : Emmanuel JourdanPour la Mairie de Paris18 participants21 novembre <strong>2003</strong>3.3.3.1 Informatique musicalePour le Conservatoire de Saint Ouen, réalisation d’uneformation à l’informatique musicale sur les logicielsdistribués par le forum et adaptée aux différents niveaux desprofesseurs présents.Intervenant : Jean Lochard5 participants24 et 25 novembre <strong>2003</strong>- 233 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIECONFERENCES GRAND PUBLIC4 CONFERENCES GRAND PUBLICLes conférences du lundi soir sont organisées en quatre thèmes1) « Etat de l’art » (Codognet, Fléty, Texier), 2) « Créationet technologies » (Manoury, Gerzso, Nunes et Daubresse,Matalon), 3) « Trajectoires » (Campos, Battier), et 4)« Metissages » (Koechlin, Matalon, Aperghis et Rivalland, Ceraet Robbe).Soucieux d’être le plus accueillant possible vis à vis desinitiatives dont les préoccupations rejoignent celles del’institut, le département facilite l’organisation d’autresmanifestations ouvertes au grand public. En <strong>2003</strong> ledépartement a accueilli les débats et séminaires d’Entretempset les séminaires MaMuX.4.1 État de l’artDécouvrir les derniers développements dans différentsdomaines…4.1.1 La synthèse de la voix aujourd’huiXavier Rodet, responsable de l’équipe Analyse/synthèse àl’<strong>Ircam</strong>La synthèse de la voix chantée par ordinateur a été étudiéependant plus de trente-cinq années. Cette conférence a donnéune vue d'ensemble des méthodes de synthèse, des stratégies decommande et de recherche et des futurs défis à relever dans cedomaine.Lundi 20 janvier <strong>2003</strong>4.1.2 Le suivi de partition : un atout scientifiquepour la création musicaleDiemo Schwarz, chercheur à l’<strong>Ircam</strong>Le suivi de partition par ordinateur sert à synchroniser entemps-réel la partie électronique avec l'interprète, ce quipermet une plus grande liberté d’expression. La conférence atraité des enjeux musicaux et des bases scientifiques du suivid'instruments ou de la voix chantée et parlée.Lundi 24 février <strong>2003</strong>4.1.3 Intelligence artificielle, vie artificielle etcréation numériquePhilippe Codognet, Professeur à l’Université Paris VIIIPhilippe Codognet a fait un tour d'horizon des diversestechniques d’intelligence artificielle et de vie artificielleutilisées par les artistes de la création numérique. Il anotamment présenté les œuvres numériques majeures dans lechamp des arts plastiques.Lundi 10 mars <strong>2003</strong>4.1.4 Captation gestuelle pour le spectacle vivantEmmanuel Fléty, ingénieur électronicien à l’<strong>Ircam</strong>Grâce à AtoMIC Pro (Analog to Midi Converter), développé àl’<strong>Ircam</strong>, on peut numériser des signaux électriques provenantde capteurs pour les transmettre à la machine, qui les- 234 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIECONFERENCES GRAND PUBLICutilisera comme sa « vision » du monde extérieur, à l’image denos cinq sens. Face à ces stimuli, la machine peut alorsrépondre et prendre certaines décisions en fonction de ce quise passe sur la scène.Lundi 6 octobre <strong>2003</strong>4.1.5 La web radio culturelleMarc Texier, musicologueLa « Webradio » est chronologiquement l'union du premier et dudernier média du XX ème siècle, chacun perçu en son temps commeune révolution de la communication apportant instruction etdistractions. Mais la webradio est-elle pour autant légitime?Viable? Différente de la radio herzienne? Est-ce seulement unancien media bénéficiant de nouveaux tuyaux? Ou un nouveauconcept?Lundi 8 décembre <strong>2003</strong>4.2 Création et technologiesDécrire la relation entre une idée artistique et saréalisation utilisant les nouvelles technologies…4.2.1 VOI(REX) : le modèle du modèlePhilippe Leroux, compositeurPhilippe Leroux a démontré « comment dans cette pièce pourvoix, ensemble instrumental et dispositif électronique, lanotion de modèle, que l’on considère généralement au premierdegré, peut également être conçue à x degrés ».Lundi 3 février <strong>2003</strong>4.2.2 L’écriture électronique et instrumentale dansRépons et Anthèmes 2Andrew Gerzso, directeur de la Pédagogie à l’<strong>Ircam</strong>,collaborateur de Pierre BoulezA l’occasion des concerts de l’Ensemble Intercontemporain les15 et 16 mars <strong>2003</strong> à la Cité de la Musique, Andrew Gerzsoprésentera les principes de composition qui unissentl’écriture instrumentale et l’électronique de ces deux œuvres.Lundi 3 mars <strong>2003</strong>4.2.3 Nouvelles technologies dans l’opéra KPhilippe Manoury, compositeurEn marge des représentations données à l’Opéra Bastille les22, 24, 29 avril et 6 et 9 mai <strong>2003</strong> de son opéra K, PhilippeManoury présentera les nombreux développements technologiquesdont son œuvre a fait l’objet (spatialisation, « toupiessonores », chœurs artificiels).Lundi 28 avril <strong>2003</strong>4.2.4 Autour de sa monographie : … de tiempo y dearena…Martin Matalon, compositeurMartin Matalon s’est proposé de présenter les œuvres quicomposent sa monographie, en ouvrant un dialogue avec lepublic.De tiempo y de arena... De temps et de sable...- 235 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIECONFERENCES GRAND PUBLIC(Accord-Una corda/<strong>2003</strong>)Monedas de hierro - Ensemble Court-circuit, P. A. Valade,direction...del matiz al color... - L’octuor de violoncelles debeauvaisDos formas del tiempo pour piano - Dimitri Vassilakis, pianoFormas de arena - Trio NobisLas siete vidas de un gato - Ensemble Ictus, G.E. Octors,directionLundi 29 septembre <strong>2003</strong>4.2.5 Découverte de La Frontière, création de PhilippeManoury, le 1 eroctobre <strong>2003</strong> à OrléansPhilippe Manoury , compositeurPhilippe Manoury a présenté son nouvel opéra de chambre danslequel la musique électronique joue un rôle très important(piano équipé de capteurs Midi, utilisation du « sampling »,de la synthèse, de la synthèse vocale, des processusaléatoires, des sons paradoxaux, des superpositions de tempi).Lundi 3 novembre <strong>2003</strong>4.2.6 Lichtung 1 et Lichtung 2Emmanuel Nunes , compositeur et Eric Daubresse, assistantmusical à l’<strong>Ircam</strong>Lichtung 1 et Lichtung 2 occupent une place toute particulièredans le parcours d’Emmanuel Nunes, qui peut être vue commel’ultime position où un moyen technique (la spatialisationassistée par ordinateur en temps réel) permet d’explorer dessituations de jeux extrêmes pour notre perception.Lundi 1er décembre <strong>2003</strong>4.2.7 « Comment je l’entends » : Présentation de sacréation NoonPhilippe Manoury, compositeurJeudi 11 décembre <strong>2003</strong> au théâtre du Châtelet (Paris)4.3 TrajectoiresEvoquer l’histoire d’un projet, d’une technique, d’unmouvement artistique…4.3.1 L’impossible table rase dans la musique après1950Jésus Aguila, musicologueJésus Aguila a exposé les différentes formes d’injonction à la« table rase », telles qu’elles se sont manifestées dans lesdiscours des compositeurs des années 1950, leurs implicationsdans le sérialisme et le post-modernisme.Lundi 27 janvier <strong>2003</strong>4.3.2 La musique ne se fait pas qu’avec des signesRémy Campos, musicologue, Professeur au CNSMA partir de la démarche des moines de Solesmnes quidécidèrent, autour de 1900, de donner à la chrétienté un- 236 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIECONFERENCES GRAND PUBLICrépertoire culturel définitivement stabilisé, cette conférencea abordé l’histoire des rapports entre l’écriture et l’oralitédans le chant liturgique.Lundi 26 mai <strong>2003</strong>4.3.3 De l'acoustique à l'acousmate : l'art sonoreartificielMarc Battier, musicologue, Professeur à la SorbonneMarc Battier s’est attaché à la description du parcours quiconduit le son vers un matériau gravé sur le sillon du disquephonographique ou converti en série de nombres, traduit encouleurs et en formes plastiques, et, surtout, produitartificiellement par le compositeur du XXème siècle.Lundi 31 mars <strong>2003</strong>4.4 MétissagesFaire découvrir des projets dont la particularité estl’association d’éléments de manière inhabituelle…4.4.1 Réalités virtuelles et art vivantRoland Auzet, compositeurRoland Auzet s’est interrogé sur les modifications profondesinduites par technologies du son et de l’image utilisées pourle spectacle vivant sur les pratiques théâtrales et musicales,notamment sur l’écriture et la création de nouveauxinstruments capable de produire des « franchissements »transdisciplinaires.Lundi 13 janvier <strong>2003</strong>4.4.2 Maâllem Experience, création numériquetransculturelle et multiformeOlivier Koechlin, artiste multimédiaOlivier Koechlin a présenté les différentes étapes du projet(spectacle conçu avec Mahmoud Gania et ses musiciens-danseurs,installation interactive, cédérom), ses aspects techniques(projection sur quatre écrans, octophonie, penduleinteractif), ses enjeux esthétiques et culturels.Lundi 17 mars <strong>2003</strong>4.4.3 Composer pour un film existant : quelle relationmusique/film ?Martin Matalon, compositeurAuteur de la musique pour le film L’Age d’Or de Luis Buñuel,Martin Matalon a montré comment un compositeur peut garder saliberté et écrire une musique qui ne soit pas fonctionnellemais qui réponde au besoin de conserver une relation« amicale » avec le film.Lundi 19 mai <strong>2003</strong>4.4.4 Corps à corps, pièce de théâtre musicale pourzarb (instrument de percussion iranien)Georges Aperghis , compositeur et Françoise Rivalland,percussionniste- 237 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIECONFERENCES GRAND PUBLICGeorges Aperghis nous dit : « Le percussionniste est à la foisle narrateur d’une histoire épique et le personnage centralde la pièce. Dans le combat singulier de la fiction se reflètecelui du musicien avec l’instrument et son propre souffle ».Lundi 17 novembre <strong>2003</strong>4.4.5 La captation du geste : liens musique et danseAndrea Cera, compositeur et Hervé Robbe, chorégrapheCette conférence s’est attaché à montrer les différentesmodalités de travail suivies et leur traduction dans unemultiplicité de techniques de composition musicale : captationdu geste dansé et transformation en flux sonore, travail surla voix des danseurs, compression et inversion temporelle,utilisation de la référence, superposition de structuresperméables / imperméables, etc.Lundi 15 décembre <strong>2003</strong>Les lundis de 18h30 à 20h, à l’<strong>Ircam</strong>, Salle Igor-Stravinsky,entrée libre.4.5 Accueil Entretemps et MaMuXLe département Pédagogie facilite l’organisation d’autresmanifestations ouvertes au grand public, dont lespréoccupations rejoignent celles de l’institut. En <strong>2003</strong> ledépartement a ainsi accueilli les débats et séminairesd’Entretemps et les séminaires MaMuX.4.5.1 Débats et séminaires Entretemps4.5.1.1 Samedi d’EntretempsPhilippe Charru et Christoph Theobald : L'esprit créateurdans la pensée musicale de Jean-Sébastien Bach (Mardaga,2002)avec la participation de Philippe Charru, Vincent Decleire,Jean-Yves Hameline, Daniel Leininger, François Nicolas etChristoph TheobaldSamedi 18 janvier <strong>2003</strong>Michèle Alten : Musiciens français dans la guerre froide(1945-1956) (L'Harmattan, 2000)avec la participation de Michèle Alten, Esteban Buch, MichelFischer, François Madurell et Ludovic TournèsSamedi 22 février <strong>2003</strong>Brigitte Van Wymeersch : Descartes et l'évolution del'esthétique musicale (Mardaga, 1999)avec la participation de Frédéric de Buzon, François Dachet,François Nicolas, Marie-Claude Thomas et Brigitte vanWymeerschSamedi 15 mars <strong>2003</strong>Martin Kaltenecker : Avec Helmut Lachenmann (Van Dierenéditeur, Paris, 2001)avec la participation de François Bohy, Omer Corlaix,Frédéric Durieux, Martin Kaltenecker et François NicolasSamedi 26 avril <strong>2003</strong>- 238 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIECONFERENCES GRAND PUBLICFrançois Decarsin : La musique, architecture du temps(L'Harmattan, 2002)avec la participation de François Decarsin, Martha Grabocz,Laurent Feneyrou et François NicolasSamedi 17 mai <strong>2003</strong>Charles Rosen : La génération romantique (Gallimard, 2002)avec la participation de Jean-Philippe Guye, Bruno Moysan,François Nicolas, Anne Roubet et Laure SchnapperSamedi 11 octobre <strong>2003</strong>Christian Accaoui : Le temps musical (Desclée de Brouwer,2001)avec la participation de Christian Accaoui, Anne Boissère,Gilles Dulong, Laurent Feneyrou et Matthieu GuillotSamedi 22 novembre <strong>2003</strong>Les Samedis de 10h à 12h30, à l’<strong>Ircam</strong>, salle Igor-Stravinsky,entrée libre.4.5.1.2 Séminaire Musique et PsychanalyseDe l'instrument : la lettre, la voix, le timbreavec l’Unébévue, revue de psychanalyse.Sous la direction de François Dachet et François NicolasLa création musicale contemporaine a brisé l'évidence d'unrapport organique des corps aux sons - et du corps à la voix -, qu'oeuvres et instruments classiques semblent encore parfoisporter. Séparer l'Autre de la voix, et vider la voix du bruitqu'elle fait,furent un temps l'objet de l'élaboration parLacan de la pulsion invoquante. Lourde encore de la résonancedes textes sacrés, cette élaboration sera l'enjeu de questionscroisées avec le champ musical.L'instrument adresse-t-il les sons qu'il rayonne? Entretimbres et oeuvres, où commence et où s'arrête soninstitution? Est-il un organe (mais alors de quel genre ?)portant le sonore au musical, le cri au chant, et la voix à laparole ? Est-il sensible aux déclarations de sexe?Alain Didier-Weil (psychanalyste) : Recherche sur la pulsioninvoquanteSamedi 11 janvier <strong>2003</strong>Martin Laliberté (compositeur) : Archétypes et paradoxes desinstruments de musiqueSamedi 8 février <strong>2003</strong>François Dachet (psychanalyste) : Sexmusique et la questiondu petit oiseau : de Janequin à Messiaen, et après ?Samedi 1 er mars <strong>2003</strong>Françoise Jandrot (psychanalyste) : Pourquoi parle-t-ond'image sonore ?Nicholas Isherwood (musicien) : Le transfert auconservatoire: le cas du professeur de chant et son élèveSamedi 5 avril <strong>2003</strong>Michel J. Hanser-Schaffhauser (psychanalyste) et FrançoisNicolas (compositeur) : Écouter Bach ?Samedi 3 mai <strong>2003</strong>- 239 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIECONFERENCES GRAND PUBLICFrançois Dachet (psychanalyste)François Nicolas (compositeur) : Le musicien au croisement dedeux fictionsSamedi 7 juin <strong>2003</strong>Séminaire Histoires de la musique contemporainePenser la musique contemporaine : avec / sans / contrel'histoire ?(Gilles Dulong et François Nicolas, Ens)L'histoire de la musique contemporaine est-elle enfermée dansle dilemme de l'historicisme (la musique immergée dansl'histoire) et du postmodernisme (la musique sans l'histoire)? Peut-on penser historialement les œuvres musicalescontemporaines - en particulier leur manière d'instaurer leurpassé à partir du présent qu'elles instituent - et l'autonomielentement conquise du monde de la musique ? Doit-on ainsipenser la musique contemporaine avec l'histoire sans pourautant la dissoudre dans l'histoire? Faut-il penser contrel'histoire plutôt que sans ?Ce séminaire de méthode accordera une attentionépistémologique particulière à la problématique généalogiquede Michel Foucault à partir des années 70.Journée Célestin Deliège autour de son dernier livre : 50 ansde modernité musicaleJeudi 9 octobre <strong>2003</strong> (Cdmc)Gilles Dulong : Histoire ou généalogie d'une oeuvre ?François Nicolas : Généalogie, archéologie, historicité ethistorialité musicalesSamedi 8 novembre <strong>2003</strong> (Ens)Jacques Rancière : Autonomie et historicisme : la faussealternative (Sur les régimes d'historicité de l'art)Samedi 13 décembre <strong>2003</strong> (Ens)Les samedis de 10h à 12h30 (sauf journée Delilège de 10h à18h), entrée libre.4.5.2 Séminaires MaMuXLe Séminaire de travail MaMuX, né à la suite du SéminaireEntretemps "Mathématiques, Musique, Philosophie", cherche àdévelopper une hypothèse de pertinence, à la fois musicale etmathématique, du rapport mathématiques/musique à travers uneexploration des liens qui se créent avec d'autres disciplinesdont la philosophie, l'épistémologie, la linguistique,l'informatique, les sciences cognitives.Le Séminaire est co-organisé par l'Equipe ReprésentationsMusicales de l’<strong>Ircam</strong> et l'Internet Institute for Music Sciencedu MultiMediaLab de Université de Zürich.Outils déterministes et aléatoires dans l'analyse et lacomposition musicale IAvec la participation de Emmanuel Amiot, Tom Johnson, AndranikTangian, Franck Jedrzejewski, Paulo C. Chagas.Samedi 25 janvier <strong>2003</strong>Journée d'étude autour de Milton Babbitt et de la combinatoireen musique.- 240 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIECONFERENCES GRAND PUBLICAvec la participation de Célestin Deliège, François Nicolas,Alain Louvier, André Riotte, Alain Bancquart.Samedi 15 février <strong>2003</strong>Sciences cognitives, mathématiques et perception musicale(Pré-séance sur l’analyse assistée par ordinateur)Avec la participation de Guerino Mazzola, Edward Gollin,Thomas Noll, Anja Fleischer, Stephen McAdams, Jean Petitot,PerAage Brandt, Michael Leyton. (Pré-séance : Thomas Noll,Anja Fleischer, Olivier Lartillot, Geoffroy Peeters, VottorioCafagna et Domenico Vicinanza).Samedi 8 mars <strong>2003</strong>Outils déterministes et aléatoires dans l'analyse et lacomposition musicale II.Avec la participation de Mikhail Malt, Stefan Göller, GérardMilmeister, Benoît Meudic, Gueino Mazzola, Stefan Müller,Chantal Buteau.Samedi 12 avril <strong>2003</strong>Informatique musicale. Bilan du Séminaire.Avec la participation de Philippe Codognet, Yann Orlarey,Marco Stroppa, Karim Haddad, Mikhail Malt, Guerino Mazzola.Samedi10 mai <strong>2003</strong>Micro-tonalité et systématique modaleAvec la participation de Moreno Andreatta, Didier Aschour,Alain Bancquart, Franck Jedrzejewski, Amine Beyhom, CarlosAgon.Samedi 8 novembre <strong>2003</strong>Formalisation et représentations des structures musicalesAvec la participation de Moreno Andreatta, John Rahn, OrenKolman, Guerino Mazzola, Jon Wild, Dave Meredith, OlivierLartillot.Samedi 13 décembre <strong>2003</strong>Les samedis de 10h à 17h à l’<strong>Ircam</strong>, en salle Igor-Stravinsky,entrée libre.- 241 -


<strong>RAPPORT</strong> DETAILLEPEDAGOGIEFORMATIONS HORS LES MURS5 FORMATIONS HORS LES MURSEn plus des activités saisonnières, le département Pédagogiecollabore chaque année avec des institutions en France et àl’étranger dans l’organisation de présentations sur l’<strong>Ircam</strong>(activités de recherche, création, pédagogie et valorisation),de formations sur les technologies développées au sein del’institut ainsi que d’ateliers/concerts avec des œuvrescréées à l’<strong>Ircam</strong>.5.1 BrésilIntervenants : Andrew Gerzso, Mikhail Malt, XavierRodet, Hugues Vinet.Dans cet esprit, l’<strong>Ircam</strong> a organisé à Sao Paolo, au Brésil, enjuillet <strong>2003</strong>, une série de conférences, d’ateliersd’informatique musicale et un atelier/concert avec les œuvresDialogue de l’ombre double de Pierre Boulez, Noa Noa de KaijaSaarihao et Jupiter de Philippe Manoury.110 participantsdu 8 au 15 août <strong>2003</strong>5.2 Le FresnoyLe Fresnoy accueille des étudiants en provenance de tous leshorizons de la création artistique (arts plastiques, cinéma,photographie, vidéo, architecture, musique, spectacle vivant,etc.) et leur permet d’approfondir leurs connaissances etaméliorer leur savoir-faire par la réalisation de projets.Dans ce cadre, cette formation d’une semaine a permis auxétudiants de cet établissement de se familiariser avec lelogiciel Max MSP et la Jitter, librairie d’objets matriciels,vidéo et 3D pour l’environnement de programmation graphiqueMax/MSP.Intervenant : Emmanuel JourdanParticipants : 20 étudiantsDu 3 au 7 novembre <strong>2003</strong>.- 242 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESVALORISATION DE LA RECHERCHERELATIONS EXTERIEURESDirecteur : Vincent Puig1 VALORISATION DE LA RECHERCHE1.1 Brevets1.1.1Demandes de brevets :- Méthode de calcul et de représentation d'un résumé sonore oumusical (demande française 03-07667 transmise le 28/03/03) -Inventeur : Geoffroy Peeters- Système de reconnaissance musicale (publication de lademande européenne WO03/056455, le 10/07/03) - inventeurs :Geoffroy Peeters, Xavier Rodet, Laurent Worms- Procédé de caractérisation du timbre instrumental intégré àla norme MPEG7 (publication de la demande Europe et JaponWO03/028005, le 3/04/03 et publication de la demandeaméricaine 09/028,005 le 3/04/03) - Inventeurs : S. McAdams,J. Krimphoff, P. Susini, N. Misdariis, B. Smith, G. Peeters1.1.2Brevets délivrés :- Procédé de caractérisation du timbre instrumental intégré àla norme MPEG7 (brevet français 2,830,118 délivré le28/03/03) - Inventeurs : S. McAdams, J. Krimphoff, P.Susini, N. Misdariis, B. Smith, G. Peeters- Indexation d’une structure multimédia (brevet français2,824,159 délivré le 25/07/03) - Inventeur : Alain deCheveigné- Système de reconnaissance musicale (brevet français2,834,363 en attente de date de publication) - inventeurs :Geoffroy Peeters, Xavier Rodet, Laurent Worms1.2 Licences de brevetsPas de licence de brevets nouvelles en <strong>2003</strong>.1.3 Collaborations industrielles- Convention CIFRE avec France Telecom sur la spatialisationsonore par synthèse binaurale (octobre 2002-septembre 2005)- équipe acoustique des salles- Contrat avec la société Renault pour l’étude du réalismesonore d’une phase d’accueil (mars à septembre <strong>2003</strong>) -équipe Perception et Cognition Musicale- Contrat avec la société MIST Technologies pour ledéveloppement et la licence d’un logiciel d’alignementaudio/MIDI et l’enrichissement de fichiers MIDI (novembre<strong>2003</strong>-novembre 2006) - équipe analyse/synthèse- Convention avec l’association LIEU pour le développementd’objets Max/MSP pour la synthèse par modèles physiquesdérivés du logiciel Modalys - équipe acoustiqueinstrumentale/Forum <strong>Ircam</strong>- 243 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESVALORISATION DE LA RECHERCHE- Convention CIFRE avec la société Renault pour le designsonore dans le domaine automobile (décembre <strong>2003</strong>-janvier2007) - équipe design sonore.1.4 Prestations de service- Formation à l’utilisation de l’interface de contrôle eoBodypour PSA - pôle de recherche sur le spectacle- Traitement de voix dans le film Tiresia pour la société Hautet Court - équipe analyse/synthsèe- Développement et licence sur le logiciel Additive pour lasociété PSA - équipe analyse/synthèse.- Gestion des réseaux Internet pour la BPI et le CentrePompidou - service informatiqueCoordination et contrats : Vincent PuigRelations industrielles : Olivier LescurieuxAssistance : Karin Laenen- 244 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS NATIONAUX ET EUROPEENS2 PROJETS NATIONAUX ET EUROPEENS2.1 Projets actifs ou terminés en <strong>2003</strong>2.1.1 CUIDADOProgramme : ISTDates : janvier 2001- décembre <strong>2003</strong>Description : Interfaces et descripteurs pour la recherche parle contenu dans des bases de données musicales et audioPartenaires du projet : IRCAM (coordination), UniversitéPompeu Fabra (ES), Sony CSL (F), Oracle (ES), Université BenGurion (IS), CreamWare (D), ArtsPages (No).Financement <strong>Ircam</strong> : 899 KeurosCollaborations musicales : assistants musicaux de l’<strong>Ircam</strong>Actions de valorisation :- stand <strong>Ircam</strong>/Cuidado à la Foire de Francfort (5-9 mars)- organisation d’une séance de présentation au cours desateliers Forum de mars et d’octobre- stand CUIDADO/Semantic HIFI au salon IST de Milan (2-4octobre)- stand CUIDADO/Semantic HIFI au salon Net at Home à Cannes(30 octobre-1 er novembre)- participation à la réalisation du plan d’exploitation (eTIP)disponible sur le site de la commission européenne. Cetravail a donné lieu à la formulation des fiches suivantesavec pour chacun des résultats, une évaluation du marché etune proposition de prix de licence :2.1.1.1 Modules scientifiquesGestion des échantillons sonoresSons isolés- Extracteur et schéma de description du timbre en MPEG7(<strong>Ircam</strong>-AS - eTIP 4707)- Classification automatique d’échantillons sonores (<strong>Ircam</strong>-AS- eTIP 4709)- Classification audio recherche par similarité (BGU - eTIP5735)Fichiers musicaux monophoniques et boucles- Extraction de description musicale (UPF - eTIP 5960)- Outil de transformation sonore par le contenu (UPF - eTIP5961)- Logiciel d’alignement Midi / audio (BGU - eTIP 5734)Fichiers musicaux polyphoniques- Outil auteur pour l’extraction (Sony - eTIP 3970)- Serveur de noms musicaux (Sony - eTIP 3971)- Résolution de contraintes et générateur de playlists (Sony -eTIP 3972)- Empreintes audio et identification d’extraits (<strong>Ircam</strong>-AS -eTIP 4710)- Génération automatique de résumés musicaux (<strong>Ircam</strong>-AS - eTIP4711)- 245 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS NATIONAUX ET EUROPEENS- Extraction et de représentation des similarités MusicMap(<strong>Ircam</strong>-RM- eTIP 4712)- Recherche par mélodies (BGU - eTIP 5733)- Mixeur audio virtuel (BGU - eTIP 5736)2.1.1.2 Ingénierie logicielle- Serveur générique de données et méta données audio (<strong>Ircam</strong>-SEL- eTIP 9202)- Structure de base de données XML MPEG7 (Oracle/<strong>Ircam</strong> - eTIP5964)- Crawler de pages Web adaptable (Oracle/Sony - eTIP 5962)2.1.1.3 Applications- Palette sonore en ligne (<strong>Ircam</strong>-SEL - eTIP4713)- Outil d’édition de sons (Creamware - eTIP 4704)- Navigateur musical (Sony - eTIP 4706)2.1.2 Semantic HIFIProgramme : IST - STREPDates : 1 er décembre <strong>2003</strong> - 1 er décembre 2006Description : Navigation, écoute, interaction, composition,partage sur la chaîne HIFI du futurPartenaires du projet : <strong>Ircam</strong> (coordination, équipesanalyse/synthèse, acoustique des salles, applications tempsréel et services en ligne), Université Pompeu Fabra (ES), SonyCSL (F), Université Ben Gurion (IS), Fraunhofer Institute IDMT(D), Native Instruments (D), Sony NSCE (B)Financement <strong>Ircam</strong> : 1400 KeurosCollaborations musicales : Philippe Leroux, Andrea Cera, BricePauset, Jonathan Harvey (sous réserve)Actions de valorisation :- stand CUIDADO/Semantic HIFI au salon Net at Home à Cannes(30 octobre-1 er novembre)- montage de la proposition et de l’accord de consortium- préparation de la journée de lancement pour la tâche 9 :validation/prototypage (Studio Hypermédia) et valorisation(direction relations extérieures).2.1.3 LISTENProgramme : ISTDates : janvier 2001-décembre <strong>2003</strong>Description : Restitution de scènes audio & vidéo en réalitéaugmentée pour les muséesPartenaires du projet : GMD/Fraunhofer Institut (Coordination,D), Université de Vienne (AU), l’école du son de Londres (UK),Kunstmuseum de Bonn (D), AKG (D), IRCAM/Acoustique des salles(F).Financement <strong>Ircam</strong> : 683 KeurosCollaborations musicales : Gerhard Eckel, Cécile Le PradoActions de valorisation :- suivi de l’accord de consortium- diffusion du logiciel ListenSpace dans le cadre du Forum(mars <strong>2003</strong>)- 246 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS NATIONAUX ET EUROPEENS2.1.4 CARROUSOProgramme : ISTDates : janvier 2001-avril <strong>2003</strong>Description : Création, transmission et rendu de scènesaudiovisuelles au format MPEG4Partenaires du projet : Fraunhofer Institut (coordination, D),IRCAM/Acoustique des salles (F), Studer (CH), Université deDelft (NL), France Telecom (F), Thomson Broadcast (F).Financement <strong>Ircam</strong> : 249 KeurosCollaborations musicales : Nicolas Verrin, Rémy Gallichet,Yann MareszActions de valorisation :- suivi de l’accord de consortium- présentation du système de restitution holophonique surpanneaux MAP lors des Résonances <strong>2003</strong>.2.1.5 AGNULAProgramme : IST (Mesure d’accompagnement)Dates : avril 2002-avril 2004Description : Mise place d’une distribution de logicielslibres pour l’audio sur LinuxPartenaires du projet : Tempo Reale (coordination, I),IRCAM/Logiciels libres (F), Université Pompeu Fabra (ES),Institut royal de technologie KTH (SU), Free SoftwareFoundation Europe, Red Hat (F)Financement <strong>Ircam</strong> : 300 KeurosActions de valorisation :- suivi de l’accord de consortium et définition d’objectifs devalorisation combinant à l’issue du projet une offrecommerciale RedHat et Forum <strong>Ircam</strong>- participation au meeting de Barcelone (janvier <strong>2003</strong>)- organisation d’une Journée sur les logiciels libres (23octobre) et d’une Linux Party (18-19 octobre) lors desRésonances <strong>2003</strong>.2.1.6 PHASEProgramme : RIAM Exploratoire (Ministère de la recherche)Dates : novembre 2002-novembre 2004Description : Plate-forme haptique pour l’exploration sonoreet musicalePartenaires du projet : Ondim, CEA-LIST, IRCAM/Analysesynthèse,HaptionFinancement <strong>Ircam</strong> : 276 KeurosCollaborations musicales : Roland Cahen, Fabrice GuédyActions de valorisation :- suivi de l’accord de consortium- présentation du projet lors des journées RIAM à Marseille(29-30 avril)2.1.7 DVD à la CarteProgramme : RIAM Exploratoire (Ministère de la recherche)Dates : décembre 2002-décembre 2004Description : Développement d'un système de commande de DVDpersonnalisés en lignePartenaires du projet : IRCAM/Relations Extérieures-StudioHypermédia , MPO- 247 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS NATIONAUX ET EUROPEENSFinacement <strong>Ircam</strong> : 149 KeurosActions de développement :- coordination- système de catalogage : prototype, protocole de base dedonnées, système de base de données, outils d’administration(back office), interface utilisateur (front office)- premières négociations de droits de mise en ligne :compilations <strong>Ircam</strong> années 80 et 90 (Sacem), vidéos(Artline).Actions de valorisation :- présentation lors de la soirée RIAM durant les Résonances<strong>2003</strong> (23 octobre).Intervenants relations extérieures en <strong>2003</strong> :Vincent Puig(administration), Jérôme Barthélemy (Chef de projet), JulienBloit (développeur)2.1.8 MUSICNETWORKProgramme : IST (Réseau thématique)Dates : août 2002-juillet 2005Description : Réseau pour le développement de la musique dansle multimédiaPartenaires du projet : Université de Florence/DSI(coordination, I), EXITECH (I), Fraunhofer-Gesellschaft(FHGIG, D), FNB (NL), Interactive Labs (I), Institute forLanguage and Speech Processing (GR), IRCAM/Relationsextérieures-Studio Hypermédia (F), Rigel Engineering (I),Université de Leeds(UK)Financement <strong>Ircam</strong> : 131 KeurosActions de développement :- spécifications générales- spécifications et animations du groupe de travail sur lesstandards multimédia- animation du forum de discussion sur les standardsmultimédia.Actions de valorisation :- suivi de l’accord de consortium- participation au review meeting de Darmstadt (1 er mars)- participation à la réunion de normalisation de Londres (2mars)- participation au stand MusicNetwork à la Foire de Francfort(5-9 mars)- participation à la réunion sur la notation musicale du Grameà Lyon (6 mars)- participation au meeting MPEG de Trondheim (21-24 avril)- communication lors des JIM de Montbéliard (4 juin)- organisation d’une journée d’étude sur les technologiesmultimédia pour la musique durant Résonances (16 octobre)- participation à l’organisation de l’atelier MusicNetworkdurant la conférence WedelMusic (Leeds, 15 septembre)Intervenants relations extérieures en <strong>2003</strong> : Vincent Puig(administration), Jérôme Barthélemy (Chef de projet)2.1.9 DOREMIProgramme : IST (RS)Dates : décembre 2002-décembre <strong>2003</strong>- 248 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS NATIONAUX ET EUROPEENSDescription : Représentation de la directivité des instrumentsde musiquePartenaires du projet : TU Danemark (coordination),IRCAM/Acoustique instrumentale (F)Financement <strong>Ircam</strong> : 28 KeurosActions de valorisation :- suivi de l’accord de consortium et de la proposition desuite.2.1.10 MusicWebProgramme : eLearningDates : 1er novembre 2002 - 31 juillet 2004Description : Développement et mise en ligne de contenuspédagogiquesPartenaires du projet : Association Européenne desconservatoires, coordinateur (B), Conservatoire de La Haye(NL), Université de Glasgow (UK), Université de Darmstadt (D),HyperWave (NL), <strong>Ircam</strong>/Studio Hypermédia (F)Financement <strong>Ircam</strong> : 15 KeurosActions de valorisation :- mise en ligne d’une écoute signée de Nicolas Donin surl’Opus 5 de Webern, destinée aux conservatoires reliés ausite d’enseignement en ligne de l’Association Européenne desConservatoires. Les développements achevés en <strong>2003</strong> serontvalidés et disséminés en 2004.- Organisation d’une réunion à l’<strong>Ircam</strong> (21-23 mars).Intervenants relations extérieures en <strong>2003</strong> :Vincent Puig,Olivier Lescurieux (Chef de projet), Samuel Goldszmidt(développeur)2.1.11 MUSTICAProgramme : CNRS/CognitiqueDates : 1 er avril <strong>2003</strong> - 30 septembre 2004Description : Authenticité et accessibilité des archivesélectroniques : le cas de la création musicale numériquePartenaires du projet : Ina (coordinateur), UTC, <strong>Ircam</strong>/StudioHypermedia, UCLA, Université de Colombie BritaniqueFinancement <strong>Ircam</strong> : 10 KeurosActions de valorisation :- étude des conditions d’archivage des œuvresélectroacoustiques mené en collaboration avec le GRM etl’UTC, ce projet a permis des collaborations avec desmusicologues et le travail d’un ingénieur UTC au sein duStudio hypermédia pendant 6 moisIntervenants relations extérieures en <strong>2003</strong> : OlivierLescurieux (Chef de projet), Bertrand Cheret et Jill Teasley(développeurs)2.1.12 LUTINProgramme : RNRT / UsagesDates : 1 er septembre 2002 - 31 août 2005Description : Laboratoire des Usages en Technologiesd’Information NumériquePartenaires du projet : UTC (coordinateur), Cité des Sciences,Association Villette-Entreprises, CNRS LaboratoireCommunication et Politique, CNRS laboratoire Cognition et- 249 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS NATIONAUX ET EUROPEENSactivités finalisées, LIP6, <strong>Ircam</strong>, IRIT, France Telecom R&D,Vivendi Universal Education, IntellitechFinancement <strong>Ircam</strong> : 36,6 KeurosActions de valorisation :- suivi de l’accord de consortium2.2 Projets acceptés en 20042.2.1 OPERAProgramme : RNTLDates prévisibles : juin 2004 - juin 2006Description : Optimisation du rendu sonore des scènes audio 3Dtransmises par Internet et application au Chat sonore 3Dmulti-utilisateurs et aux environnements virtuels réalistesPartenaires : INRIA, LIMSI, France Telecom, Virtools, CSTB,IRCAM (Acoustique des salles)Budget <strong>Ircam</strong> : 84 KeurosActions de valorisation :- suivi administratif du montage du projet2.2.2 WindSet,Programme : RIAM - PrécompétitifDates prévisibles : juin 2004 - juin 2006Description : Développement de modèles physiques pour 6instruments à ventPartenaires : Arturia, <strong>Ircam</strong> (Analyse/synthèse, AcoustiqueInstrumentale, Applications temps réel)Financement <strong>Ircam</strong> : 130 KeurosCollaborations musicales prévues : Claude Delangle, BenySlushin, Pierre DutrilleuxActions de valorisation :- participation au montage du projet2.2.3 EpicureProgramme : Conseil Régional PicardieDates prévisibles : juin 2004 - juin 2006Description : Système informatique générique permettant demettre en place des chaînes éditoriales spécifiques pour laproduction de contenus utilitaires multimédia et lapublication révisable et durable d’objets hypermédiasPartenaires : UTC (coordinateur), Ina, <strong>Ircam</strong>(Analyse/synthèse, Studio Hypermédia)Financement <strong>Ircam</strong> : 75 KeurosActions de valorisation :- montage du projet2.3 Projets refusés2.3.1 ORCHESTRATORProgramme : IST -STREPDescription : Développement d’outils pour l’orchestrationmusicale utilisant des ontologies et des descripteurs ducontenu adaptés à des fonctions de séquencement et de mixagede haut niveau et qui seront interfacées à de larges basesd’échantillons sonores instrumentaux, à un logiciel de- 250 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS NATIONAUX ET EUROPEENSnotation largement utilisé dans le monde et à des fonctions detraitement DSP d’un des leader de ce secteur.Partenaires : IRCAM, CreamWare, Vienna Symphonic Library,Sibelius, BGUBudget <strong>Ircam</strong> : 1,4 MeurosActions de valorisation :- montage du projetLa question des outils pour l’orchestration n’est pasnouvelle. Elle intéresse depuis longtemps les compositeurs demusique de films et certains compositeurs contemporains commel’a montré la réunion organisée avec eux à l’<strong>Ircam</strong> le 13novembre <strong>2003</strong>. La problématique a été relancée sous l’angletechnique de l’accès intelligent à des bases d’échantillonssonores en 1995 avec le lancement du projet Studio en Ligne.Par la suite , Thomas Humel du studio de la radio allemande adéveloppé une base de 15.000 sons et modes de jeucontemporains accessibles au travers d’interfaces d’écoute etde notation musicale développées dans Max/MSP. Cet outil, leVirtual Orchestra, a été commercialisé en 2001 par l’<strong>Ircam</strong>.Parallèlement le compositeur Yann Maresz avait proposé unprojet similaire. Le projet européen Orchestrator répondait àces différentes ambitions en abordant de front la question del’accès intelligent aux bases d’échantillons et la questiondes outils de composition et de notation musicale. Il seraprobablement représenté sous une forme améliorée au cours del’année 20042.3.2 SuperMultimediaProgramme : IST - IPDescription : Contenus audiovisuels de haute qualité pour lesnouvelles générations de dispositifs interactif et immersif àdomicile.Partenaires : Le projet coordonné par le Fraunhofer Instituteregroupait une partie des partenaires du projet CARROUSO.Actions de valorisation :- participation au montage du projet.Ce large projet intégré (16 partenaires, 25 millions d’Eurosde budget sur 4 an et demi), s’est trouvé en phase finale enconcurrence avec 6 autres projets intégrés (IP) dont un projetmusical Music4All , coordonné par l’Université de Florence,dont l’<strong>Ircam</strong> s’était désengagé pour se concentrer surSuperMultimedia, et qui a été finalement préféré.2.3.3 EnamesProgramme : eContentDescription : Le projet eNames visait le développement d’unservice d’accès à des archives musicales publiques et privéessous la forme de différents médias (audio, vidéo, textes, etc)et enrichies par des méta données.Partenaires : Projet coordonné par la ville de RomeActions de valorisation :- participation au montage du projet.2.3.4 ForMUSICProgramme : eContentDescription : Valorisation d’archives sous différents formatset notamment le format WedelMusic qui permet d’accéder et de- 251 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS NATIONAUX ET EUROPEENSnaviguer dans du contenu musical dans un contexte protégeantles droits. Partenaires : projet coordonné par l’académieSanta Cecilia de RomeActions de valorisation :- participation au montage du projet.2.3.5 XMEDIAProgramme : IST - NoEDescription : Coopération scientifique dans le domaine del’indexation de la vidéo, du son et du texte favorisant lecroisement de ces différentes approches en utilisant lesstandards d’indexation.Partenaires : Projet coordonné par l’ENSTActions de valorisation :- participation au montage du projet.2.3.6 GETProgramme : IST - STREPDescription : Développement et installation pilote d’unconcept éducatif nouveau basé sur l’Internet pour l’éducationde l’écoute et l’extension des méthodes traditionnellesd’apprentissage de la musique vers les nouvelles technologies.Le projet associe des centres de recherche et des écoles demusique.Partenaires : Projet coordonné par Technical University BerlinActions de valorisation :- participation au montage du projet.2.3.7 EuroCodeProgramme : IST - STREPDescription : Développement d’une plate forme logicielleorientée composants pour s’adapter à toute la chaîne du savoirdans différents domaines. Le projet est basé sur le modèlesémantique des dénotateurs utilisé dans les communicationspeer to peer. Des composants à haute teneur sémantique serontdéveloppés pour la musique, l’informatique, la géographie,l’architecture et la médecine.Partenaires : Osnabruck Un. (Coordinateur), Zurich Un., BohnUn., Milan Un., Finebrain, ViewTec, Fabric, INI,<strong>Ircam</strong>/Représentation MusicaleActions de valorisation :- participation au montage du projet.2.3.8 PROMETOProgramme : IST - NoEDescription : Réseau d’excellence dans le domaine du jeuvidéo. Il concerne l’aide au scénario, la simulation 3D, lagénérativité et les bases de données.Partenaires : Projet coordonné par le CNAM / CEDRICActions de valorisation :- participation au montage du projet.- 252 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS NATIONAUX ET EUROPEENS2.4 Projets présentés en attente2.4.1 PEARLSProgramme : IST - CRAFT (Programme PME)Durée : 12 moisDescription : Développement d’une console musicale permettantde piloter des effets vidéo avec analyse automatique del’audio.Partenaires : Arkaos, ONDIM, IK Multimedia, <strong>Ircam</strong>(Applications temps réel et Studio Hypermedia)Budget <strong>Ircam</strong> : 291 KeurosActions de valorisation :- montage du projet.2.4.2 PHIDIASProgramme : RIAM ExploratoireDurée : 24 moisDescription : Production Hypermédia Interactive DIrigée etAssistée selon la forme Sémiotique.Partenaires : Projet coordonné par l’UTC à la suite desprojets Territoires Numériques et Chaperon. <strong>Ircam</strong> (StudioHypermédia)Budget <strong>Ircam</strong> : 95 KeurosActions de valorisation :- montage du projet.2.4.3 OpenMoveProgramme : RIAM ExploratoireDurée : 36 moisDescription : Système auteur de création d’environnementsvirtuels interactifs de haute fidélité visuelle et sonorecentré sur le corps en mouvement, appliqué au gestechorégraphique et musicalPartenaires : <strong>Ircam</strong> (pôle de recherche sur le spectaclevivant, coordination), IRISA/université de Rennes 1, Danse 34(N+N Corsino)Collaborations artistiques : N+N Corsino, Ph. Manoury, F.Bedrossian, J. CombierBudget <strong>Ircam</strong> : 402 KeurosActions de valorisation :- montage du projet.2.4.4 MedialexProgramme : RIAM ExploratoireDurée : 36 moisDescription : Ontologies et protection des droits avecutilisation de la norme MPEG21Partenaires : Medialive, UTC, <strong>Ircam</strong>Budget <strong>Ircam</strong> : 20 KeurosActions de valorisation :- montage du projet.Montage et valorisation des projets : Vincent Puig, OlivierLescurieuxTraductions et assistance : Karin Laenen- 253 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS NATIONAUX ET EUROPEENSCollaborations internes : direction scientifique, équipesscientifiques, bureau études et méthodes- 254 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESFORUM, DIFFUSION DES PRODUITS, LOGICIELS ET EDITIONS3 FORUM, DIFFUSION DES PRODUITS, LOGICIELS ETEDITIONS3.1 Evolution du nombre d’utilisateurs (5 abonnés parmembre institutionnel)1400120010008006004002000dec 93 dec 94 dec 95 dec 96 dec 97 dec 98 dec 99 dec 00 dec 01 dec 02 dec 03La progression du nombre d’utilisateurs est moins importantecette année (+2,5% au lieu de +10% l’année dernière). Le tauxde renouvellement ou de fidélisation est revenu au niveau de2001 soit 35%. On observe ainsi que les membres renouvellentprincipalement leur abonnement tous les 3 ans.3.2 Evolution du chiffre d’affaires250200CA en KE150100500déc 94déc 95déc 96déc 97déc 98déc 99déc. 00dec 2001dec 2002dec <strong>2003</strong>Le total des recettes Forum et ventes de logiciels/produitss’établit à 302 KEuros pour <strong>2003</strong> soit un progression globalede près de 10% et de 5% pour les recettes Forum.- 255 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESFORUM, DIFFUSION DES PRODUITS, LOGICIELS ET EDITIONS3.3 Evolution des inscriptions par bouquet500450400350300250200150100500235173193 18010814013110688426395369 379325338322328298309272287 293251264233209154455389 3951994 1995 1996 1997 1998 1999 2000 2001 2002 <strong>2003</strong>EMAOTraitement du Interaction son TemTous les bouquets sont en progression. Le groupe Temps réelconnaît une nouvelle progression des abonnementsprincipalement due au renouvellement de l’offre d’applicationsMax/MSP.3.4 Evolution des inscription individuelles et par unorganisme10008006004002000890 890795 785 775715630500470399318344 366 367280260286220120 100 120401993 1994 1995 1996 1997 1998 1999 2000 2001 2002 <strong>2003</strong>IndividusOrganismesLes inscriptions individuelles progressent, profitant de labaisse et de la simplification des tarifs, les inscriptionsd’organismes ne progressent pas.- 256 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESFORUM, DIFFUSION DES PRODUITS, LOGICIELS ET EDITIONS3.5 Répartition géographique140012001000800600400200020012002<strong>2003</strong>2000FranceReste del'EuropeUSA-CanadaAsie-OcéanieAmériqueLatineTOTALPar rapport à 2002, le nombre d’utilisateurs français esttoujours en progression mais le nombre d’utilisateurs dans lereste de l’Europe continue de baisser.3.6 Répartition par activitésCompositionInterpretationDesign sonoreAutresRechercheEnseignementCompositioInterpretatioDesign sonAutresRechercheEnseignemPost prodPost prod0 50 100 150 200 250 300Les activités fondatrices du forum sont en légère baisse(composition, enseignement, recherche) alors que les activitésde Design sonore (+ 35%) et de post production et home studio(+45%) sont en forte progression.Parmi les institutions inscrites en <strong>2003</strong>, on peut mentionner :- AKMI Institute (Grèce)- Bergen Center of Electronic Arts ( Norvège)- Birmingham Conservatory (UK)- Brown University (USA)- 257 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESFORUM, DIFFUSION DES PRODUITS, LOGICIELS ET EDITIONS- Centre Musicale Erik Satie (France)- Cité de la Musique/La Folie Musique (France)- Conservatoire de Dugny (France)- Conservatoire de Saint Ouen (France)- Ecole de Musique d’Argenteuil (France)- Ecole des Beaux Arts de Dijon (France)- Ecole des beaux Arts de Rennes (France)- Ecole nationale Supérieure Louis Lumière (France)- Ecole Normale Supérieure (France)- Ecole supérieure des arts et technologie d’Angoulême(France)- ENM de Pantin (France)- ENSAD (France)- Ensam Institut Image (France)- Federazione e voce di u comune (France)- Griffith University (Australie)- Hochschule fur Musik Stuttgart (Allemagne)- Hochschule fur musik und theater Liepzig (Allemagne)- INSA Toulouse (France)- Julliard School (USA)- Kunsthochschule fur medien Köln (Allemagne)- La Femis (France)- Lancaster university (UK)- Manchester University (UK)- Mc Gill University (Canada)- Middlesex University (UK)- MIT Media Lab (USA)- National Taiwan University (Taiwan)- Ort’s Corporate (Argentine)- Royal Academy of Music (UK)- Silex Creations (Canada)- Staatsoper Stuttgart (Allemagne)- Théatre de l’Odeon (France)- UC San Diego (USA)- UC Santa Barbara (USA)- Université du Quebec à Montréal (Canada)- Université Laval (Canada)- University of Texas (USA)- University of Western Sydney (Australie)- ZKM (Allemagne)3.7 Evolution des plate formes- Mac OS9 : 72 %- Mac OSX : environ 25 %- Linux : moins de 1% exclusivement sur cette plate forme- Windows : près de 2 % grâce à la version Windows de Max/MSP3.8 Site ForumNet- Date d’ouverture du nouveau site (technologie PHP/SPIPE) :23 décembre 2002- Fréquentation <strong>2003</strong> : non communiquée- 258 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESFORUM, DIFFUSION DES PRODUITS, LOGICIELS ET EDITIONS3.9 Ateliers du Forum0decembre 98250200avr-99mars-00250oct-00avr-01nov-01avr-02oct-02participants200ateliers150100150100participantsparticipants505000mars-00juin-00mars-00 sep-00déc-00 juin-00mars-01sep-00juin-01déc-00sep-01mars-01déc-01mars-02 juin-01juin-02 sep-01sep-02déc-01déc-02mars-02mars-03juin-02juin-03sep-02 sep-0326 au 28 marsFréquentation : 170 personnesPrésentations marquantes :- Programming Pinocchio (Francesco Filidei)- La légende des siècles (Olivier Pasquet)`- Transmission (Frank Bedrossian)- Logiciel Montage (Arboretum)- Pluggos Spat (Manuel Poletti)- Hybrides Modalys (Marie Dominique Bonnet)- Le Scorpion (martin Matalon)- Répétition du spectacle Shlag ! à l’ESPRO (Roland Auzet)- Cameleon (société SoundArt)- Viole de Gambe de Ruby Instruments- Nouveau contrôleur de la société Son’OP20 au 22 octobreFréquentation : 178 personnesPrésentations marquantes :- Dropper01, dispositif orchestral pour 8 percussions etgouttes d'eau (Arno Fabre)- Dispositif Max/MSP - Jitter, application au contexte de lascène électronique (Eboman)- Experimentation musicale sur internet Reseaunances (OlivierPasquet)- RMI-Modalys (Manuel Poletti, Carl Faia, Hans-Peter Stubbe)- Présentations des étudiants du DESS jeux vidéo (BenjaminDetavernier, Thomas Fontin,Vincent Percevault, Cécile LePrado)- Représenter une écoute : Aphex Twin par Andrea Cera (NicolasDonin, Samuel Goldszmidt)- Nouveautés Max PC (David Zicarelli, Cycling74)- OM Linux (Gerardo Sarria et Jose Diago)- MusicMap 0.1 and Omkanthus 0.2 (Benoit Meudic, OlivierLartillot)- 259 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESFORUM, DIFFUSION DES PRODUITS, LOGICIELS ET EDITIONS- Modelisation de l'improvisation par ordinateur (GérardAssayag, Marc Chemillier)- Controle Temps réel des paramètres de traitement utilisantKyma (Steve Everett)- Application Max/MSP : le sequenceur Histoire (DominiqueEhret, théâtre de l'Odéon)- Les effets dans le spectacle « souffles en boucles » deMichel Aumont (Philippe Ollivier, Michel Aumont)- Présentation de l’installation Khorwa (Michaïl Malt)- DIPS version 2 (Takayuki Rai)- dz!r.app_v3.0 (Georges Isakidis)- Objets fofb~ and fog~ (Michael Clarke, Xavier Rodet)3.10 Documentations logiciels éditées- AudioSculpt 2 - User’s Manual.(version anglaise)- Librairie OpenMusic-KANT 3.0- Librairie OpenMusic Pitchfield- OpenMusic - User’s Manual, Reference & Tutorials (versioncomplète)- Libraire SdifEdit - User’s Manual- Documentation SuperVP - détection de transitions (versionfrançaise)- SuperVP - Transient Detection (version anglaise)3.11 Ventes de logiciels et d’équipements- Ventes Max/MSP, Jitter et upgrades associés : 109- Ventes Virtual Orchestra : 45- Ventes Arkaos : 13- EoBody et AtoMic : 28 exemplaires- Studio en Ligne : 10 abonnements3.12 Redevances- Max/MSP : ventes estimées à partir des redevances à environ2000 copies- Bande originale du Film Farinelli : environ 350 euros verséspar Auvidis/Naïve pour l’année <strong>2003</strong>- Film Farinelli : comptes non communiqués par K2/StephanFilms pour les années 2001, 2002 et <strong>2003</strong>.- 10 jeux d’écoute : 168 exemplaires vendus par la sociétéHyptique en <strong>2003</strong>.- Service pour téléphone mobile Vox Intox : comptescommuniqués par la société Mobistation de novembre 2002 àjuin <strong>2003</strong> pour des valeurs ne donnant pas droit àrémunération.3.13 Vente des éditionsChiffre d’affaires : environ 20 KEurosCA des editions en <strong>2003</strong>uros45004000350030002500- 260 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESFORUM, DIFFUSION DES PRODUITS, LOGICIELS ET EDITIONSResponsable : Vincent PuigChargée de l’administration des ventes : Paola PalumboSupport technique et documentation des logiciels : KarimHaddadAnimation et démonstrations : Cyrille BrissotGestion des abonnements et fichiers : Stéphanie LeroyAbonnements et ventes des éditions : Béatrice Montfort- 261 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESSTUDIO HYPERMEDIA4 STUDIO HYPERMEDIACréé en septembre 2002 dans le cadre d’une stratégierenouvelée de l’<strong>Ircam</strong> dans le domaine de l’analyse musicale etdes nouvelles formes d’écoute, le studio Hypermédia a pudéployer ses activités en <strong>2003</strong> en conjuguant une approchesingulière (maquettes d’écoutes signées) en collaboration avecl’équipe de recherche Formulation du musical et une approcheplus générique (prototypes d’outils auteurs de publicationhypermédia).Ce processus de développement à double détente a permisd’initier des collaborations nouvelles et originales avec descompositeurs et des musicologues mais également grâce àl’obtention de financements nationaux et européens d’initierle développement d’outils auteurs intégrant certainestechnologies développées par les équipes de recherche et demener une politique de veille technologique et denormalisation au niveau international. Plutôt que de présenterles activités du studio selon ces deux axes nous lesdétaillons ici en suivant les cinq chantiers applicatifsprincipaux qui les ont motivées.4.1 Ecoutes SignéesLes écoutes signées, développent le concept de guides d’écoute(autrefois vendus sous la forme de commentaires adjoints à lapartition ou plus tard de commentaires adjoints au disque) entirant parti des nouveaux paradigmes hypermédia mais surtouten mettant en avant le point de vue singulier d’un auditeurqualifié (compositeur, interprète, chef d’orchestre,musicologue, etc).Ecoutes signées initiées en <strong>2003</strong> :- Ecoute de Nicolas Donin inspirée des travaux de Nicolas Cooksur le prélude du clavier bien tempéré de J.S Bach.- Ecoute comparée des interprétations de Gould et Fischer dumême prélude. Ce travail constitue l’amorce du projet« Bachothèque », base de données et outil de comparaison desnombreuses interprétations du prélude qui seront installésdans l’événement « la Répétition » programmé au CentrePompidou en novembre 2005. L’outil de visualisation desdécalages temporels entre interprétation utilise un logicield’alignement de l’audio et de la partition développé dansl’équipe Analyse/synthèse.- Ecoute signée de Nicolas Donin sur l’Opus 5 de Webern. Cetravail a permis de prototyper un outil de d’annotation departition et de synchronisation manuelle de celle-ci avecl’audio. Baptisé OASIS (Outil d’Annotation et deSynchronisation Image Son), le financement de cet outildéveloppé en Flash a été assuré grâce au projet européenMusicWeb (cf. chapitre 2)- Ecoute d’Andrea Cera sur le répertoire de musiqueélectronique et notamment sur une pièce de Aphex Twinintégrant un outil de visualisation/audition à vitessevariable des « strates » d’écoute de Cera. L’outil prototypésur Windows dans Pure Data permet de ralentir l’écoute en- 262 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESSTUDIO HYPERMEDIAtemps réel et de superposer des marqueurs auditifs. Il esten cours de portage sur Max/MSP Windows.- Ecoute de Brice Pauset sur le prélude du clavier bientempéré de J.S Bach poursuivant et étendant le travailentrepris pour la « Bachothèque », les outils de comparaisond’interprétation et les outils d’annotation de partition.- Ecoute de Philippe Leroux sur sa propre pièce « VoiRex »,notamment sur les liens entre écoute intérieure et genèseformelle, dans la perspective d’une nouvelle création.4.2 Web radioLa Web radio, se positionne comme un environnement depublication, des écoutes signées ou d’autres formes d’analysearticulant données de flux, l’émission de radio, et données destock, les archives relatives à cette émission, autourd’outils permettant leur manipulation. En <strong>2003</strong>, ce projet apermis de prototyper une chaîne de publication complète ens’appuyant sur un corpus d’émissions sur Varèse réalisées parMarc Texier. Elle se compose de deux modules :- Un module auteur, développé en 4D, pour la construction du« conducteur » de l’émission. Il permet de définir un schémade relations entre les données et les métadonnées,temporelles et non temporelles. Le corpus ainsi décritstructuré en XML (SMIL) est fourni au module de restitution.- Un module de restitution de contenus en ligne permettant devisualiser le déroulement temporel de l’émission, tout oupartie des métadonnées et des « hyperliens » vers leséléments contextuels relatifs : textes, biographies,notices, références, partitions, extraits musicaux, photos,vidéos, etc. Ce module développé en Flash permet àl’utilisateur trois niveaux d’écoute :o Ecoute passive de l’émission sans utilisation del’interfaceo Ecoute active avec consultation des documentscontextuels en parallèle de l’écouteo Ecoute performative avec la possibilité d’annoterles passages écoutés et de se construire sa propreémission par sélection des éléments pertinents.Cet outil a été présenté une première fois en juin à nosinterlocuteurs au Ministère de l’Education Nationale puis aupublic en octobre pendant les Résonances, et récemment à laSacem et à la SCAM.4.3 DVD à la CarteLe système DVD à la Carte, est l’outil d’appropriation et depersonnalisation des archives utilisées dans les écoutessignées et les programmes de Web radio et en premier lieu lefonds de la médiathèque de l’<strong>Ircam</strong>. En <strong>2003</strong>, la collaborationentre le studio Hypermédia et la société MPO, leader européendu pressage de CD et précurseur des services de CD à lademande a permis la réalisation d’une première version dusystème de catalogage et de l’interface utilisateur quis'appuie sur un concept de base de données répartie, donnant àl'utilisateur un accès à des ressources locales et distantes,complétées par un système de localisation, d'identification etde description d'item numériques qui sera développé en tenantcompte des standards dans le domaine (DOI®, MPEG7, MPEG21).- 263 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESSTUDIO HYPERMEDIA4.4 Valorisation d’archives sonoresDans le cadre du plan de numérisation mené par la MRT duMinistère de la Culture, un financement sous forme devacations et de mise à disposition d’équipements a permisd’initier une collaboration avec des chercheurs associés àdifférents fonds d’archives sonores :- maquette hypermédia sur une Gwerz Bretonne en collaborationavec la MNATP (Maison Nationale des Ateliers de TraditionsPopulaires) et Donatien Laurent- maquette sur le modèle de la Web radio pour un corpusethnomusicologique de la Maison des Sciences de l’Homme(Dana Rappaport).Ces deux maquettes ont permis de prototyper un serveur devalorisation d’archives sonores (pour l’instant en utilisantles logiciels libres SDX et Cocoon) dont l’adaptation pour unarchivage de masse et la mise en ligne sera menée par leStudio Hypermédia et le Bureau Etudes et Méthodes en 2004.4.5 Support technique aux EditionsLes outils développés par le studio hypermédia, notamment lesstructures de données XML et les applications Flash ont étéutilisées pour un support technique aux activités d’édition etnotamment pour :- Le cédérom PMA Lib de Philippe Manoury (réalisation deséquences Flash)- Le DVD-Rom sur l’opéra K… de Philippe Manoury (structureXML, graphisme et aide au montage de vidéo)Dans ce cadre, le studio hypermédia a accueilli pendant 9mois, Momilani Ramstrum, étudiante et professeur associé àl’Université de Californie à San Diego (classe de MillerPuckette). Elle a travaillé avec Philippe Manoury et SergeLemouton, et rencontré tous les intervenants artistiques ettechniques pour la production de K… à l’opéra Bastille enavril <strong>2003</strong>.L’objectif était de produire une analyse de l’œuvre et unedocumentation hypermédia de la génétique de la création de K…à l’opéra Bastille au printemps <strong>2003</strong>. Le travail texte eticonographique est terminé. Les extraits vidéo de répétitionset les interviews des protagonistes sont montés. Unenregistrement du prélude de l’opéra K… a été remixé en 5/1.La restitution sur DVD ROM a été testée et la gestion desdroits a été entamée avec les auteurs, les éditeurs, lessolistes et l’Opéra Bastille pour l’orchestre.Responsable du studio hypermédia : Olivier LescurieuxChef de projet Web radio : Marc TexierIngénieurs Studio Hypermédia : Julien Bloit, SamuelGoldszmidt, Ludovic GaillardStagiaire Studio Hypermédia : Julien BrévalMusicologue invitée : Momilani Ramstrum (UCSD, USA)Chercheur invité dans le cadre du projet Mustica : JillTeasley (UN d’Edmonton, Canada)Collaborations directes : Equipes Formulation du musical,Analyse/synthèse, Représentation musicale, Bureau Etudes etMéthodes- 264 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESSTUDIO HYPERMEDIACollaborations musicales : Andrea Cera, Brice Pauset, PhilippeLeroux- 265 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESEDITIONS5 EDITIONS5.1 Edition LivresMusique, mathématiques et philosophieOriginellement prévu pour une parution au 4 etrimestre <strong>2003</strong>, ceprojet a du être interrompu compte tenu des contraintesbudgétaires imposées par l’éditeur L’Harmattan. Une recherchede nouvel éditeur a été entamée.5.2 Edition DisquesCD en coédition avec Universal, collection Compositeursd’aujourd’huiEmmanuel Nunes, Lichtung I et Lichtung II (parution en juin<strong>2003</strong>)CD hors collection (avec Universal)Georges Aperghis, Machinations [parution en mai <strong>2003</strong>]CD collection <strong>Ircam</strong>Louis Dandrel, Le jardin de la plaine-mer [parution reportéeen 2004]5.3 Edition Cédérom- Musique Lab, six applications réalisées conjointement parl'<strong>Ircam</strong> et le ministère de l'Éducation nationale. Élaboréesdans le cadre du dispositif de soutien aux ressourcesmultimédia piloté par la Direction de la technologie duministère de l'Éducation nationale, elles sont destinées àl'enseignement musical dans l'éducation nationale et serontlibrement diffusables dans ce seul cadre. (parution enfrançais et en anglais pour Windows en octobre <strong>2003</strong>)- PMA LIB, Les Musiques électroniques de Philippe Manoury[parution en octobre <strong>2003</strong>]- DVD ROM « K de Philippe Manoury » (à paraître en octobre2004)5.4 Sites WebDelphine Oster et Vincent Gourson (Bureau Etudes et Méthodes)ont collaboré notamment sur les sites suivants :- Site Web <strong>Ircam</strong> (http://www.ircam.fr) : Outre la coordinationéditoriale des contenus et la mise à jour régulière du site,le cahier des charges pour une refonte de l’ensemble du sitea été complété grâce à de nombreux entretiens avec lesdifférents responsables. Sur cette base, une consultationd’entreprise a été menée par le Bureau Etude et Méthodes.Les propositions dépassant les possibilités budgétaires, unesolution technique en logiciel libre (Typo3) a étéidentifiée et sera mise en œuvre en 2004.- Site Forumnet (http://forumnet.ircam.fr) : maintenance parl’équipe du Forum (voir partie Forum)- Sites Résonances (http://resonances<strong>2003</strong>.ircam.fr) et Agora(http://agora<strong>2003</strong>.ircam.fr) : création et mise en ligne dessites en édition dynamique à l’aide de la technologie SPIP(PHP), graphisme Nicolas Trautmann.- 266 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESEDITIONS5.5 Documentations musicalesConversion au format PDF et mise en ligne de toutes lesdocumentations en accès interne.Nouveautés ou mises à jour en <strong>2003</strong> :- Alavarez : Mantis- Antignani : Overlook Hotel- Bannerman : Connected space- Bedrossian : Transmission- Benjamin : Antara- Boulez : Dialogue de l'ombre double- Choi : Corpuscules- Combier : Les Premiers Soupirs- Dillon : La Coupure- Drouin : Crispy Bacon- Farangis : Eluvia- Fedele : Richiamo- Fuentes : Objet-Object- Harvey : String Quartet4, Bhakti- Hurel : Leçon de choses- Kahn : Pendant la matière- La Porte : Landscape- Leroux : Voi(Rex)- Levinas : Rebonds- Manoury : Jupiter , Neptune, Pluton- Nordin : Vintage- Parra : Strette- Saariaho : NoaNoa- Steiger : Ecosphere- Suzuki : Le bourdon en branle- Talvitie : Luonnonoikku- Tian : Illusion réelle- Uduman : Tracing metamorphoses- Wallin : Phonotope5.6 Information et Veille technologique- Fiches d'information logiciels en format A5 : révision etré-impression de toutes les fiches relatives aux logicielsde l’<strong>Ircam</strong> et aux produits Virtual Orchestra, eoBody,Max/MSP/Jitter en collaboration avec le graphiste NicolasTrautmann.- Dossier Recherche actualisé à l’occasion des Résonances <strong>2003</strong>et regroupant une fiche pour chaque équipe et pour chaqueprojet.- Dossiers de veille technologique n° 23 (mars) et 24(octobre) et distribués aux membres du Forum- Veille technologique disponible en ligne sur le siteForumNet.Responsable : Vincent PuigTraductions et assistance : Karin LaenenAttachée d’édition : Claire MarquetChargé de la documentation des oeuvres : Bertrand CheretChargée du site Web : Delphine Oster- 267 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESEDITIONS- 268 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESCOMMUNICATION6 COMMUNICATION6.1 Supports de communication6.1.1 Festival Agora <strong>2003</strong> - Du 10 au 24 juin- Création d’un visuel Agora (Nicolas Trautmann)- Edition de 50 000 brochures du festival (32 pages)- Bâche devant l’<strong>Ircam</strong>- Programme de relance (affiche pliée comprenant les tempsforts du festival ainsi que le bulletin de réservation)- Affiches boutiques (40x60)- Affiches Métro centrée sur le spectacle Schlag !- 30 000 cartes postales sur le réseau Cart’com- 3 encarts publicitaires (Le monde de la musique, Diapason,Les Inrockuptibles,)- Couvertures et programmes de concerts- Tracts destinés à des publics ciblés- Invitation pour la première du festival- Habillage du Site Internet6.1.2 Brochure annuelle (Saison <strong>2003</strong>-2004 y comprisRésonances) :- 70 pages, bi-chrome noir et rouge- 25 000 exemplaires6.1.3 Résonances <strong>2003</strong> - Du 15 au 24 octobre- Création d’un visuel Résonances- Bâche devant l’<strong>Ircam</strong>- 10 000 cartes postales sur le réseau Cart’com- 3 encarts publicitaires- Habillage du Site internet- 12 000 Avant-programmes (8000 en français et 4000 enanglais)6.1.4 Dossier de presse Recherche- 28 pages- 300 exemplaires6.2 Diffusion de l’information- Fichier contacts de l’<strong>Ircam</strong>: 16000 adresses- Envoi Programme Agora : 50 000 exemplaires (particuliers etrelais)- Envoi du semestriel d’automne : 16200 (particuliers etrelais)- Envoi de l’avant-programme Résonances : 10 000(professionnels)- 269 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESCOMMUNICATION6.3 Accueil du public, billetterie6.3.1 Saison musicale et pédagogique :- 31 stages- 34 concerts- 67 conférences.6.3.2 Agora :- 33 concerts6.3.3 Résonances :- 7 concerts- 11 colloques ou cycles de conférences.Les bilans Agora et Résonances sont consultables dans unepartie indépendante de ce rapport détaillé.6.4 Manifestations extérieures- MusicMesse Francfort, du 5 au 9 mars - stand <strong>Ircam</strong> / Cuidado- Musicora, Paris, présence du le stand du Living, du 2 au 8mai- Journées d'Informatique Musicale, Montbelliard, du 4 au 6juin - Communication de Jérôme Barthélemy- Apple Expo, 16-20 septembre -Stand <strong>Ircam</strong> / Mesi- Atelier durant les Rendez-Vous Electroniques, Icam, C.Brissot, le 10 septembre- Conférence WedelMusic, Leeds, Communication de JérômeBarthélemy, 15-16 septembre- Salon IST, Milan, Stand <strong>Ircam</strong>/Cuidado, 2 au 4 octobre- Conférence Net at Home, Cannes, Stand <strong>Ircam</strong>/Semantic HIFI,30 octobre au 1er novembre- Nicephore Days, Chalon, du 20 au 23 novembre, démonstrationsCarrouso6.5 Publications/rapports/presseV. Puig, K. Laenen, Dossier d’information 23, mars <strong>2003</strong>.V. Puig, K. Laenen, Dossier d’information 24, octobre <strong>2003</strong>.O. Lescurieux, Communication sur la valorisation des archivessonores, projet Minerva (MInisterial NEtwoRk for ValorisingActivities in digitalisation), Corfu, septembre <strong>2003</strong>O. Lescurieux, Communication au Microsoft Research Summit,Londres, juillet <strong>2003</strong>Chargée de communication : Chloé VitouxPromotion artistique : Angela PuskulAgents d'accueil : Sophie Besnard, Bruno Belfiore, MalenaMendez-CarreraVente Billetterie : Gérard VidalService de presse : Société Opus 64 (Valérie Samuel, ArnaudPain), Eliotrope (Sophie Rosen)Secrétaire assistance : Diane Lioté- 270 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS TRANSVERSAUX7 PROJETS TRANSVERSAUX7.1 RésonancesAutour de deux thèmes complémentaires : les outils d’analysemusicale et les technologies dans le spectacle vivant, laseconde édition des Résonances (Rencontres Internationales desTechnologies pour la Musique) a confirmé son succès enrassemblant près de 5000 visiteurs du 15 au 24 octobre <strong>2003</strong>.En articulant l’événement autour d’une semaine de colloquesscientifiques, d’un week-end portes ouvertes grand public(3500 entrées) et d’une semaine de rencontresprofessionnelles, la manifestation a su rassembler au niveauinternational des intervenants artistiques et scientifiques degrande qualité satisfaisant ainsi les publics variés quifréquentent à présent les Résonances avec assiduité(Chercheurs, musiciens et professionnels de la musique, grandpublic).7.1.1 ConcertsLes concerts des jeunes compositeurs du Cursus de compositionet d’informatique musicale de l’<strong>Ircam</strong> sont au premier rang desexplorations musicales réussies des Résonances. La presses’est largement fait écho de la qualité et de la diversité deces concerts aussi bien dans les styles, les instruments etl’ouverture à la danse et à la danse et à la vidéo. Leschiffres recueillis sur les entrées aux concerts s’établissentcomme suit :Cursus 1, Espro (mercredi 15 octobre) :Valérie Philippin, soprano /Jérêmie Fèvre, flûte / vincentDavid, saxophone / Niklas Brommare, percussions / AlexisDescharmes, violoncelle / Delphine Caron, danseuseCréations de Alastair Bannerman, Alexandre Lunsqui, JesperNordin, Hector Parra, Leilei TianTotal spectateurs : 285 (jauge maximum)Set Theory, Espro (jeudi 16 octobre) :Marilyn Nonken et Dimitri Wassilakis, pianoOeuvres de Babbitt, Nauert, Eckardt, MessiaenTotal spectateurs : 186Opéra One, Centre Pompidou (vendredi 17 octobre) :Barbara Hannigan, sopranoŒuvre de Michel Van Der AaTotal spectateurs : 356 (jauge maximum)Musique en création, Bouffes du Nord (lundi 20 octobre) :Marilyn Nonken, piano / Anssi Kartunen, violoncelle / MagnusLindberg, pianoŒuvre de Murail et LindbergTotal spectateurs : 157Cursus 2, Espro (mardi 21 octobre) :Laurent Bômont, trompette / Caroline Delume, théorbe / JeanFrançois Laporte, instruments inventés / Shinya Hashimoto,tubaŒuvres de Geoffroy Drouin, Arturo Fuentes, Jean-FrançoisLaporte, Jummei Suzuki- 271 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS TRANSVERSAUXTotal spectateurs : 290 (jauge maximum).7.1.2 InstallationsOuvertes dès le 15 octobre et jusqu’à la fin des Résonances,plusieurs installations originales furent remarquées par lapresse comme par le public parmi lesquelles Dopper01,dispositif hydraulique pour 8 percussions d’Arno Fabre (LeFresnoy), Wagner en têtes de Yann Rocher et Emmanuel Rio,Topologies de l’instant 7 qui inaugure une collaboration avecNicole et Norbert Corsino dans le cadre du pôle spectacle,Khorwa de Mikhail Malt, Bandonéon, un parcours sonore etvisuel de Xavier Boissarie, Roland Cahen et Véronique Caraux,Percussions virtuelles de Laurent Pottier. Elles témoignent del’intérêt de croiser à l’<strong>Ircam</strong> le regard des musiciens et desplasticiens sur ce contexte de la création artistique quirenouvelle aussi la posture du public.7.1.3 Semaine scientifique : les outils d’analyseEnviron 150 chercheurs du monde entier ont pu suivre lessessions de deux colloques convergeant vers une journéecommune sur les outils d’analyse.Le premier colloque posait les musiques électroacoustiquescomme terrain d’étude des ressources, méthodes et outilsd’analyse avec des intervenants de nombreux pays (Japon,Australie, USA, Canada) et des débats animés sur la questiondu matériau et de la forme (notamment en fin de colloque avecBastien Gallet) combinant le regard de compositeurs, demusicologues ou d’archivistes.Le second abordait les questions d’analyse formelle au traversdu prisme de la « set theory », approche musicologique initiéeaux Etats-Unis et encore mal connue en Europe. Desintervenants prestigieux tels que Allen Forte (père fondateurde la set theory aux Etats Unis), Jean-Jacques Nattiez,Célestin Deliège ont animé un débat de grande qualité, éclairépar un panorama très pédagogique sur la set theory présentépar Stéphane Schaub et Moreno Andreatta.Un atelier sur les technologies multimédia pour la musiqueorganisé dans le cadre du projet européen MusicNetworkcomplétait pour une trentaine de participants, la palette desinterventions et introduisait déjà à bien des égards, lajournée commune du lendemain.La troisième journée sur les outils d’analyse a effectivementréuni la quasi totalité des participants. Cette journéerevêtait une particulière importance pour l’<strong>Ircam</strong> avec laprésentation des « Ecoutes signées » par Nicolas Donin etl’intervention de Philippe Leroux, compositeur qui réaliseactuellement avec l’<strong>Ircam</strong>, une écoute signée sur son œuvre« VoiRex ».- 272 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS TRANSVERSAUX7.1.4 Semaine professionnelle : les technologies dansle spectacle vivantUne semaine extrêmement riche d’événements, qui a croisé lespublics avec comme point d’orgue la journée sur la danse etles nouvelles technologies organisée avec l’IRIT et modéréepar Sally Jane Norman. Cette journée a réellement permis detémoigner de la diversité artistique des collaborationsenvisagées dans le pôle de recherche de l’<strong>Ircam</strong> sur lespectacle vivant qui était officiellement présenté au public àcette occasion. Cette journée, pensée comme un carrefour dansRésonances, se tenait en parallèle avec la journée sur leslogiciels libres (environ 40 personnes), les ateliers du Forum<strong>Ircam</strong> (178 participants) et le Forum du son multicanal(environ 300 personnes sur les 2 jours).Le bilan des ateliers du Forum (qui fêtaient pour l’occasionleur 10 èmeédition) est très positif avec un record historiquede 225 inscrits et 23 nouvelles inscriptions sur place, 70%français, 30% du reste de l’Europe, des Etats-Unis, du Japonet d’Australie.En partenariat avec le SATIS, le 6 èmeForum International du SonMulticanal est un rendez-vous bien inscrit dans le paysage del’audio professionnel et de l’industrie audiovisuelle engénéral. Les présentations ont permis de faire découvrir à unelarge communauté d’ingénieurs du son, les productionsmusicales de l’<strong>Ircam</strong> (notamment Emmanuel Nunes, Cécile LePrado, François Nicolas) et les recherches de l’équipeAcoustique des salles et de ses partenaires France Telecom etCreative Labs.Plusieurs événements plus courts ont également eu beaucoup desuccès durant cette semaine :- les séances thématiques avec des invités prestigieux, Jean-Claude Risset, David Zicarelli, Stephan Schmitt (Fondateurde Native Instruments), toutes retransmises sur le réseauInternet par la technologie Access Grid- la journée sur les archives sonores organisée par JeanPierre Dalbera (MRT, Ministère de la Culture) avec prèsd’une cinquantaine de participants, bibliothèques,archivistes, responsables du patrimoine sonore- le colloque sur les nouvelles écritures scéniques au CentrePompidou organisé par la plate forme Anomos-Dedale- les événements associés au Glaz’Art, à la Cigale, et lesréseaunances (expériences musicales en réseau).Plusieurs sociétés et organismes présentaient leurs nouveautéssur l’espace de démonstration :- Les cahiers de l’ACME (publications)- Arturia (Studio virtuel Storm)- France Telecom (outils de Spatialisation)- Keyboards Home Studio- eoWave (stand <strong>Ircam</strong> au Satis)- Arkaos- 273 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS TRANSVERSAUX7.1.5 Portes ouvertesAux installations sonores se joignaient durant le Week-endportes ouvertes les démonstrations des systèmes Carrouso(Holophonie) et Listen (audio 3D sur casque) et une séried’ateliers-performances (ateliers-concerts) avec MyriamGourfink sur la danse, Gilles Grand sur la voix, l’ensembleSphota sur l’image et les installations sonores avec AndreaCera. Autant de formes pluridisciplinaires qui illustraient àleur manière la richesse des technologies pour le spectacle etla diversité des créateurs collaborant avec le pôle spectaclede l’<strong>Ircam</strong>.Les conférences sur l’interaction vision/audition/geste ontété appréciées du public qui y trouve l’illustration desrapports approfondis entre recherche et création musicale etqui se font l’écho des événements Agora ou des activitésartistiques de l’<strong>Ircam</strong> (Ma talon, Le Prado, Cera/Robbe/Fléty,Monet). Enfin la formule de la Galerie des nouveauxinstruments en studio 5, a captivé un public nombreux dans uneambiance festive dédiée cette année à la présentation detechnologies parfois peu connue en France comme les systèmeIdadora, Kyma et VNS ou d’adaptations intéressantes sur deslogiciels comme EyesWeb (E. Fléty) et Jitter (JeremyBernstein, Eboman, G. Issakidis).7.1.6 Partenaires des Résonances <strong>2003</strong>- Ambassade des Etats Unis- Ambassade des Pays-Bas- Apple- CNRS- CST- Ina-GRM- Commission européenne (IST)- Ministère de la Culture et de la Communication : MissionRecherche et Technologie- RIAM- Sacem- SATIS- Ars Longa- ArtPress- Cahiers de l’ACME- CNRS Image et Science- Fête de la Science- France Culture- Keyboard Home Studio- Musiques et cultures digitales- Organised Sound- Perspectives of New Music- Théâtre des Bouffes du Nord- Glaz’Art- La Cigale- 274 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS TRANSVERSAUXEn collaboration avec :Anomos/Dedale, Centre Pompidou, Electronic Music Fundation,GMEM, IRIT, Le Fresnoy, Musée de la Musique/Cité de laMusique, SFAM, Université de Montfort, Université dePrinceton, Université de Zurich, Université Paris 4-Sorbonne.- 275 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS TRANSVERSAUX7.2 Projet Enseignements ArtistiquesEn novembre <strong>2003</strong>, sur le stand du Ministère de l’EducationNationale au salon de l’Education, une convention triennale aété signée par Jean Jacques Aillagon, Xavier Darcos et BernardStiegler pour le développement d’une nouvelle générationd’outils pédagogiques accompagné d’actions territoriales deformation. Il s’agit de lancer en 2004, le développementd’outils complémentaires à Musique Lab et de proposer descontenus complémentaires telles que les écoutes signées(intégrant les outils d’annotation, le partage d’annotation etéventuellement la publication de contenus sous la formed’émissions de Web radio), ceci en phase avec l’EspaceNumérique de Travail (ENT) et l’Espace Numérique des Savoirs(ENS), respectivement outils et contenus selon la terminologiedu Ministère de l’Education Nationale. Le concept d’écoutesignée (point de vue d’un auditeur qualifié sur une œuvreutilisant des outils d’analyse hypermédia) pourrait êtreappliqué dans ce contexte aux œuvres retenues pour le Bac2005/2006. La gestion des droits, point sensible dudispositif, pourrait être négociée par l’Education Nationale,les collectivités territoriales ou le Ministère de la Culture,pour une utilisation des contenus fournis par l’<strong>Ircam</strong>restreinte à leurs établissements. Des actions de formation etd’animation territoriale sont également prévues dans laconvention.Parallèlement à la signature de cette convention, unfinancement a été inscrit sur les trois années afin d’aborderles chantiers suivants :- Sous la supervision d’Andrew Gerzso, la définition desoutils à développer en lien avec le groupe des professeursde l’éducation nationale d’une part et un groupe de pilotageéquivalent en cours de montage au niveau du Ministère de laCulture. En parallèle ce chantier vise la mise en œuvred’une mission de médiation territoriale sur des sitespilotes en région.- En étroite collaboration avec les équipes scientifiques,l’intégration des outils d’analyse et de représentation lesplus récents notamment la maquette OpenMusic (moyennant unportage sous Windows et le développement d’une fonction depublication d’une application. OpenMusic autonome) quiserait l’espace de travail et le carrefour pour accéder àdes outils plus spécialisés tels que les Musique Lab 1 maisaussi OASIS (Annotation et synchronisation audio/image) etd’autres outils de publication.- En lien avec le studio hypermédia, le développement decontenus complémentaires (écoutes signées) et la fournitureaux professeurs d’une plate forme de publication de cours enligne.- Sous la responsabilité de Michel Fingerhut, le suivi dudéveloppement, de la maintenance et de la documentation desoutils fournis.Pour ce qui concerne les besoins de l’Education nationalequelques éléments de spécification se dessinaient. D’un pointde vue général les applications attendues doivent permettre unlien avec les œuvres du répertoire, la manipulation dumatériau musical en temps réel (interactivité facilitée comme- 276 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS TRANSVERSAUXdans le cas de l’outil « Max pour les nuls »), l’ouverture àl’audio et au MIDI, la simplicité d’usage pour les élèves, letéléchargement aisé et la circulation libre dans l’EducationNationale. L’idée est également de suivre avec les outilsdéveloppés les différents métiers de la musique : l’écriture,l’interprétation, la diffusion et l’écoute (voire l’analyse).- 277 -


<strong>RAPPORT</strong> DETAILLERELATIONS EXTERIEURESPROJETS TRANSVERSAUX- 278 -


<strong>RAPPORT</strong> DETAILLEMEDIATHEQUEMUTATIONSLA MÉDIATHÈQUE1 MUTATIONSLe redimensionnement de la Médiathèque s’est poursuivi en<strong>2003</strong>. L’espace dégagé a été affecté aux activités des équipesFormulation du musical et Studio Hypermédia. Ce changementayant été effectué en décembre, on ne pourra en savoir lesconséquences sur l’accueil des publics qu’à partir de 2004.1.1 PublicsLa réduction des catégories de public et des horairesd’ouverture a entraîné une baisse de la fréquentation dupublic externe due en partie à l’incertitude sur l’accès à laMédiathèque. On note une reprise depuis l’automne.1.2 Acquisition et catalogageLe nombre de documents acquis en <strong>2003</strong> (758) est sensiblementéquivalent à celui de 2002 (770), une partie du budgetd’acquisition ayant été abondé par les ventes des actes de laconférence ISMIR 2002, éditées et vendues en direct à laMédiathèque. Le nombre de notices documentaires traitées estrelativement bien plus élevé (puisque traité principalementpar une seule personne, Sandra El-Fakhouri en l’occurrence).Une opération de « désherbage » du fonds musical (qui consisteà retirer les documents superflus) a été effectuée par NicolasFavre, lors de son stage (8 septembre - 28 novembre). Dans cecadre, il a aussi mené une étude sur les « titres uniformesmusicaux » (norme servant à désigner de façon unique undocument, quelque soit la langue dans laquelle il est édité)et leur adaptation à nos besoins propres.Un recensement des partitions d’œuvres réalisées à l’<strong>Ircam</strong>manquantes à la Médiathèque (souvent non fournies à laMédiathèque par le département concerné) a été effectué parGrégoire Babiaud, lors de son stage (8-19 décembre). Ilservira de base de travail pour tenter d’obtenir (don,acquisition) celles qui sont encore disponibles (éditées etvendues, ou copie d’auteur).Enfin, Ada Gadomska a commencé un travail de recensement et decollecte des notes de programme des concerts de l’<strong>Ircam</strong>, envue de leur recensement et catalogage, d’une part, et de leurnumérisation et mise en ligne conjointement aux archivessonores, d’autre part.1.2.1Fonds numériquesAda Gadomska a été formée par Vincent Gourson pour numériserles films documentaires présents dans le fonds de laMédiathèque et qui existaient sur support analogique. Elle aensuite effectué cette opération, qui a enfin permis de mettrehors service le poste spécialisé qui était nécessaire pourleur visionnage sur magnétoscope, et de les rendre ainsidisponibles sur tous les postes de la Médiathèque.- 279 -


<strong>RAPPORT</strong> DETAILLEMEDIATHEQUEMUTATIONS1.3 Relations extérieuresDans le cadre des conférences nationales et internationalessur les bibliothèques numériques et les bibliothèquesmusicales, le personnel de la Médiathèque a participé auxprincipaux évènements suivants :- Assemblée générale du Club des utilisateurs du logicielDoris/Loris, 14 janvier <strong>2003</strong>, Paris (Sandra El-Fakhouri) ;- Journées professionnelles du groupe français de l’AIBM(association internationale des bibliothèques, archives, etcentres de documentation musicaux), 28-30 avril <strong>2003</strong>, CNSMDde Lyon (Sandra El-Fakhouri) ;- Entretiens de la Bibliothèque nationale de France, 31 mars<strong>2003</strong> (Michel Fingerhut, conférencier invité en tant que« grand témoin ») ;- Conférence internationale IAML (International Association ofMusic Libraries, Archives and Documentation Centres), 6-11juillet, Tallinn (Michel Fingerhut).Michel Fingerhut a continué à assurer le support technique etconseil en informatique documentaire pour la Médiathèquemusicale Mahler (ex-Bibliothèque Gustav Mahler).1.4 Infrastructure informatiqueLa mise à jour « clé en main » du logiciel bibliothéconomiqueLoris (gérant le catalogue de la Médiathèque et le prêt desouvrages), débutée en 2002, s’est enfin achevée en <strong>2003</strong>.- 280 -


<strong>RAPPORT</strong> DETAILLEMEDIATHEQUEMUTATIONS1.5 IndicateursNombre d'entrées par mois120100806040200JanvierMarsAvrilMaiJuinJuilletSeptembreOctobreNovembreMoyenne d'entrée par jours ouvrés25201510<strong>Ircam</strong>Non-<strong>Ircam</strong>Entrées max50JanvierMarsAvrilMaiJuinJuilletSeptembreOctobreNovembre- 281 -


<strong>RAPPORT</strong> DETAILLEMEDIATHEQUEMUTATIONSRentrées financières (lecteurs)10009008007006005004003002001000JanvierMarsAvrilMaiJuinJuilletSeptOctoNovDecAbonnements annuelsAbonnementshebdomadairesPhotocopiesTotalNotices bibliothéconomiques créées ou modifiéesNombre de notices180016001400120010008006004002000MonographiesPartitionsDocuments sonoresType de documentDossiers documentaires200020012002<strong>2003</strong>1.6 PersonnelPersonnel permanent :- Michel Fingerhut (directeur de la Médiathèque et du BureauÉtudes et Méthodes)- Sandra El-Fakhouri (bibliothécaire-documentaliste)- Jean-Paul Rodrigues (magasinier, mi-temps)- Ada Gadomska (secrétaire de la Médiathèque et du BureauÉtudes et Méthodes, mi-temps depuis le 16 juin)Stagiaires :- Nicolas Favre- Grégoire Babiaud- 282 -


<strong>RAPPORT</strong> DETAILLEMEDIATHEQUEMUTATIONS1.7 Publications et communicationsFingerhut, Michel (éd.) : Journal of New Music Research.Special issue: music information retrieval. Vol. 32 n° 2, juin<strong>2003</strong>. ISSN 0929-8215.Fingerhut, Michel : « Unimédia/multimédia à la Médiathèque del’<strong>Ircam</strong> ». Entretiens de la Bibliothèque nationale de France,31 mars <strong>2003</strong>.- 283 -


<strong>RAPPORT</strong> DETAILLEMEDIATHEQUEETUDES ET METHODES2 ÉTUDES ET METHODESLe Bureau Études et Méthodes, créé par Bernard Stiegler en2001, et sous la direction de Michel Fingerhut, a pourvocation d’effectuer de la veille technologique et à fourniraux divers départements de l’<strong>Ircam</strong> du conseil et del’assistance en ingénierie dans les domaines des technologiesnumériques de l’information, de la documentation et dumultimédia. Ce bureau est chargé de répondre à des besoinsémanant de la direction générale et des divers départements del’<strong>Ircam</strong> dans ses domaines de compétence. Il assure aussi laresponsabilité du fonctionnement de la Médiathèque etl’exploitation de son infrastructure technologique et de sesfonds numérisés aux fins d’expérimentation, notamment encollaboration avec le Studio Hypermédia.Plusieurs axes d’activité principaux ont occupé le Bureau en<strong>2003</strong> :- Tout d’abord, le démarrage d’une nouvelle activitéd’importance en <strong>2003</strong>, avec le recrutement de RodolpheSaugier, qui concerne le développement logiciel sur laplate-forme Windows (PC).- La prise en charge du site Web de l’<strong>Ircam</strong> dans toutes sesdéclinaisons.- Le chantier du numérique.2.1 Développement Windows et MusiqueLabBien que l’<strong>Ircam</strong> ait, depuis plusieurs années, des activitésde développement (et/ou de portage) de logiciels sur la plateformeWindows pour PC, celles-ci n’ont jamais été confiées àune cellule fixe. Elles se sont plutôt faites ad hoc, selonles besoins des équipes, ou alors confiées à l’extérieur(sous-traitance, vacations…). Le recrutement de RodolpheSaugier se place donc dans l’optique de créer un pôle decompétence autour de cette plate-forme, que l’on ne peutignorer au vu du nombre de ses utilisateurs dans le monde. LeBureau Études et méthodes gérant déjà un parc Windows nonnégligeable (Médiathèque et Studio Hypermédia,principalement), son insertion dans ce cadre convientparfaitement.Le premier chantier d’importance qui lui a été confié est lareprise des MusiqueLab I, logiciels pédagogiques musicauxutilisés à l’Éducation nationale, et qui n’étaient plusmaintenues ni développées faute de personnel. Après unepériode d’apprentissage et de reprise forcément difficiles(complexité du logiciel, éloignement des développeursd’origine) mais heureusement avec l’aide des équipes oupersonnes encore en place (notamment Roland Cahen et EmmanuelJourdan, ainsi que les équipes ayant travaillé sur jMax), ons’est attaché à :- Réorganiser l’ensemble des sources du programme pour enpermettre la pérennité et les évolutions ; ces sources ontété déposées dans un entrepôt adéquat (sous le système CVS)et le générateur d’installeurs a été revu à fond.- Recenser et corriger les défauts (bugs) du logiciel, connusou non ; cette activité s’est accompagnée de la mise en- 284 -


<strong>RAPPORT</strong> DETAILLEMEDIATHEQUEETUDES ET METHODESplace d’un serveur de suivi de problèmes (bug tracker)permettant aux utilisateurs rencontrant un problème de voirs’il a déjà été corrigé ou non, ou de reporter un nouveauproblème.- Établir une hot line téléphonique et des modes decommunication plus efficaces entre les enseignants utilisantce logiciel.- Effectuer des évolutions mineures du logiciel, notamment envue de faciliter son installation et son utilisation dans lecadre scolaire (en réseau sur de nombreux postes).Dans le cadre de cette activité, on a aussi expérimenté avecles technologies de wiki (site Web collaboratif) pourcapitaliser les connaissances acquises au fil du temps.Le démarrage du projet MusiqueLab II, sous la direction deVincent Puig et suite à la convention tripartite entre l’<strong>Ircam</strong>et les Ministères de la Culture et de l’Éducation nationale,s’est fait avec la participation active du Bureau. On a établides listes de diffusion électroniques pour les participantsaux spécifications. À ce stade, il semble clair que lelogiciel OpenMusic sera au cœur de ce système ; en accord avecl’équipe de Représentations musicales de Gérard Assayag, on adonc obtenu, fin <strong>2003</strong>, le logiciel Allegro Common Lisp,disponible sur les trois plates formes les plus« intéressantes » (Windows, Mac OS et Linux) afin de permettrele portage d’Open Music sur la plate forme PC en l’unifiant,autant que faire se peut, avec sa version pour Mac OS. Ceportage s’effectuera dans l’équipe Représentations musicalesavec la participation active de Rodolphe Saugier.2.2 Système d’information de l’<strong>Ircam</strong>L’<strong>Ircam</strong> est présent sur le Web depuis l’émergence de cettetechnologie au début des années 90 (et sur l’Internet depuisles années 80). Son premier site comprenait principalement desinformations institutionnelles et événementielles (concerts,conférences…) et était totalement bilingue (français etanglais), pour atteindre autant un public local que distant.En 1996 s’y rajoute le site de la Médiathèque, proposant lecatalogue de son fonds ainsi que l’accès aux contenus(archives sonores, films, textes, bases de données…), avec laparticularité d’offrir deux visages, l’un externe et l’autreinterne comprenant certaines parties communes et d’autresdistinctes (notamment les contenus musicaux, accessiblesuniquement de la Médiathèque). En parallèle, on voitl’émergence d’un intranet proposant quelques informationsinternes (notamment l’annuaire téléphonique) et des « sitesdépartementaux » ou d’équipes, plus ou moins bien protégés del’accès externe et avec un contrôle plus ou moins strict de lapublication de contenus protégés par copyright.Ultérieurement, des sites spécifiques commencent à apparaître,certains de type « extranet » (à accès externe mais contrôlé),tels celui consacré aux membres du Forum (et leur permettantde télécharger des logiciels et échanger des informations),d’autres à accès libre, principalement pour l’événementiel àcaractère exceptionnel (Ismir, Résonances, Agora), ou alorsliés à des projets particuliers (Cuidado), voire l’hébergementde sites externes (Club Doris). Enfin, en parallèle à ces- 285 -


<strong>RAPPORT</strong> DETAILLEMEDIATHEQUEETUDES ET METHODESsites web, des listes de diffusion par courrier électroniquese mettent en place, autant pour l’usage interne qu’externe.Ce développement de sites a contribué, sans conteste, à lavisibilité de l’<strong>Ircam</strong>. Mais ce foisonnement, qui s’estmanifesté par le rajout de sites indépendants, gérés (quandils le sont…) - sans moyens spécifiques (techniques, humains)- par une ou plusieurs personnes avec des niveaux deresponsabilisation et de connaissances techniques inégales,parfois sans supervision éditoriale institutionnelle, a montréles limites de l’approche actuelle et fait apparaître desproblèmes :- actualisation : le volume des contenus, l’accroissement desactivités de l’Institut et le manque d’organisation,d’outils et de personnel responsable accroît la quantité desdonnées qui ne sont plus à jour sur le site ;- redondance de l’information : il n’existe aucun mécanismepermettant de réutiliser de l’information sans la recopier,ce qui magnifie encore le problème d’actualisation ;- difficulté de contrôler les accès : il n’y a pas de gestionuniforme des droits d’accès aux contenus, ce qui rend plusdifficile la mise en œuvre de ces contrôles ;- rigidité : les sites ne s’adaptent pas aux visiteurs etprésentent la même vue, qu’on y vienne pour la première foisou pour une utilisation régulière ;- graphisme : quand bien même la multiplicité des sites peutse justifier pour certaines raisons techniques, lasédimentation crée un ensemble visuellement hétéroclite,dont il est quasiment impossible de changer le graphismesans des refontes individuelles et lourdes ;- infrastructure technique : les pages web, produites par desoutils hétérogènes, ne sont plus aux normes actuelles.Avec le temps, le web reflète de plus en plus les activités del’Institut (en sus de l’événementiel), tels les projets derecherche et de développement en cours. Or il n’existe pas, àl’intérieur de l’organisme, un « système » permettant demutualiser certains de ces travaux, ni, a fortiori, d’engarder une trace. Ceci ne veut pas dire qu’aucun outil n’estutilisé, mais, comme pour le web, une disparité (dans lesoutils) et/ou une redondance (des données) a parfois cours,entraînant une perte de temps notoire (dans les tentatives desynchronisation plus ou moins manuelles) : pour exemple, lesbases de données (auxquelles est consacré un document séparé)en sont un symptôme flagrant.L’étude, débutée par Delphine Oster (département deValorisation) sur les contenus, puis avec Vincent Gourson(Études et méthodes) pour l’infrastructure technologique,vient se placer dans ce contexte. Elle vise à proposer undispositif (technique, administratif et humain) cherchant àpallier les problèmes exposés ci-dessus, tout en capitalisantl’acquis et offrant de nouvelles méthodes de travail, autanten interne que pour leur affichage externe, dans deux optiquesprincipales (qui sont détaillées plus loin dans le présentdocument) :- accroître et fidéliser le public, en offrant un site utileet attractif ;- 286 -


<strong>RAPPORT</strong> DETAILLEMEDIATHEQUEETUDES ET METHODES- offrir des outils de capitalisation de connaissances eninterne pour faciliter le travail et offrir une traçabilitédes activités de l’Institut.Cette étude s’est poursuivie - principalement autour de lamodélisation des données - puis achevée en <strong>2003</strong> avec ladiffusion au Comité de direction d’une proposition pour lenouveau système d’information de l’<strong>Ircam</strong>, accompagnée d’unétat des lieux des bases de données de l’<strong>Ircam</strong>.En parallèle, Vincent Gourson a réalisé une étude comparativede vingt systèmes de gestion de contenus (CMS) disponibles enopen source, puis évalué en profondeur Typo3, lorsque cesystème s’est avéré être le plus approprié pour la réalisationde ces sites, au regard des besoins et des moyens de l’<strong>Ircam</strong>,le Comité de direction ayant statué sur la réalisation eninterne (et non pas une sous-traitance qui aurait requis desmoyens financiers démesurés).Vincent Gourson a œuvré sur les sites suivants :- Création du site Résonances <strong>2003</strong>(http://resonances<strong>2003</strong>.ircam.fr)- Création du site Agora <strong>2003</strong> (http://agora<strong>2003</strong>.ircam.fr)- Maintenance du site Forumnet (http://forumnet.ircam.fr)- Maintenance du site <strong>Ircam</strong> (http://www.ircam.fr)- Maintenance et support utilisateur de la Base articles(http://articles.ircam.fr)Pour les quatre premiers sites, le travail s’est fait encollaboration avec Delphine Oster (pour les contenus).2.3 Le chantier du numérique sonoreL’activité du Bureau autour de la gestion de documentsnumériques sonores s’est poursuivie autour de plusieurs axesreflétant les besoins internes de l’institut et la diffusionde son expérience dans ce domaine à l’extérieur.2.3.1 Archives de la création et de la productionmusicales de l’<strong>Ircam</strong>Dans le cadre de la mise en ligne des archives sonores del’<strong>Ircam</strong>, un nouveau chantier s’est ouvert en interne avec lacollecte des notes de programme de l’<strong>Ircam</strong> et leurnumérisation (cf. Médiathèque : Acquisition et catalogage). Lebut est d’offrir un accès à ces documents en parallèle àl’écoute de l’archive sonore de l’événement, via le logicieldéveloppé par Vincent Gourson et qui permet déjà de consulterles pochettes de disques du commerce (lorsque celles-si sontnumérisées, bien évidemment).Dans le but de permettre une automatisation accrue de la miseen ligne des archives, un début de développement a été réalisépar Matthieu Guillout lors de son stage. Il concernenotamment :- l’extraction et la compression « en masse » d’archivesstockées sur support optique en vue de leur mise en ligne,en utilisant pour ce faire les jukebox présents à laMédiathèque ; il est à noter que ce matériel estobsolescent, et que le manque de documentation technique qui- 287 -


<strong>RAPPORT</strong> DETAILLEMEDIATHEQUEETUDES ET METHODESen résulte a fortement retardé l’étude et le développementd’un logiciel de traitement automatique.- l’établissement de liaisons informatiques directs entre laProduction (où s’effectue la numérisation) et le système dediffusion de la Médiathèque.Ce chantier se poursuivra en 2004.2.3.2 Formation sur la numérisation de documentssonoresDepuis 2001, l’<strong>Ircam</strong> propose une formation d’une journée surla numérisation sonore destinée aux agents du Ministère de laCulture et à la demande du service de formation de la MRT. En<strong>2003</strong>, elle s’est élargie pour couvrir de nouveaux domaines, etoffrir des travaux pratiques, passant ainsi d’une durée d’unejournée à 2,5 jours. Organisée en collaboration avec laPédagogie, elle a compris cette année les modules suivants :- introduction (Michel Fingerhut) ;- la chaîne de numérisation (Étienne Bultingaire) ;- éthique et déontologie (Nicolas Frize) ;- archivage, compression, mise en ligne, diffusion,catalogage, indexation, valorisation (Michel Fingerhut)- perspectives (Geoffroy Peeters) ;- conclusion (Michel Fingerhut)L’enquête menée par le Ministère indique une grandesatisfaction des participants. Il a été proposé (et accepté)de rajouter en 2004 un module sur les droits spécifiques auxdocuments sonores et musicaux.En plus de cette formation lourde, Michel Fingerhut aparticipé à la formation « Enjeux de la numérisation » (tousdocuments confondus), en y présentant le pan « documentssonores », et animant la table ronde qui a clôt cette journée.2.3.3 Plan de numérisation coordonné par la MRTDans le cadre de cette opération pluri-annuelle, la Mission dela recherche et de la technologie avait passé des commandes auStudio Hypermédia de l’<strong>Ircam</strong>, pour la réalisation de maquettesinnovantes autour du patrimoine ethnomusicologique. Deuxréunions importantes avec la participation des acteursinstitutionnels de cette opération (détenteurs de fonds, telsque les Archives nationales, le Musée des arts et traditionspopulaires, etc. ; les Musiques de la Boulangère, chargéesd’effectuer la numérisation ; l’<strong>Ircam</strong> ; des représentants duMinistère) se sont tenues sur ce sujet. Fin <strong>2003</strong>, un apportfinancier de la MRT a permis de rajouter du matérielinformatique aux serveurs existants à la Médiathèque, en vuede la mise en ligne (en 2004) de matériau sonore provenant dece projet.2.3.4 Livre blanc sur la gravure de CDMichel Fingerhut a participé dans le courrant de l’année auxtravaux d’un groupe qui s’est constitué, sous la direction deJacques Lafosse (D&DS), avec comme objectif de « définir dansune sorte de livre blanc, tout ce qui peut contribuer à faired'un CD, un media propre à un archivage professionnel, en- 288 -


<strong>RAPPORT</strong> DETAILLEMEDIATHEQUEETUDES ET METHODESpassant par toutes les étapes de sa vie : sa production, sonapprovisionnement, sa gravure, son usage et son archivage. Lebut est de concevoir un document de base pour sensibiliser etinformer le public professionnel utilisateur certainementdemandeur d'informations et de conseils sur ce média. » Parmiles autres participants, on trouve des représentants de l’Ina,de la BnF, de l’Afnor, du LAM, de MPO Média (avec lesquelsl’<strong>Ircam</strong> réalise le projet DVD à la carte), du LNE, desMusiques de la Boulangère, et bien évidemment de la MRT.L’<strong>Ircam</strong> a mis en place pour ce groupe une liste de diffusion,qui permet d’échanger les documents de travail entre lesréunions.2.4 Support techniqueLe bureau assure l’infrastructure technique (spécification,acquisition, installation, mises à jour, sauvegardes) del’informatique et du réseau des PC utilisés à la Médiathèque,au Bureau Études et méthodes et aux Relations extérieures(notamment Bureau hypermédia et projets Riam et européens).Dans le cadre du PPRI (Plan de Prévention des Risquesd’Inondation), une étude pour la migration du matérielinformatique actif (ordinateurs et leurs périphériques) dulocal situé au niveau -1,5 vers un local au niveau +1 a étéeffectuée. La migration a eu principalement lieu fin décembrelors de la fermeture au public de la Médiathèque (et s’estachevée en <strong>2003</strong>).Durant la fermeture de la Médiathèque au public en août, unvirus informatique a envahi une partie de son parc, provenantd’ordinateurs internes à l’<strong>Ircam</strong> (mais hors Médiathèque). Siaucune donnée importante n’a été perdue, cette infestationmultiple s’est manifestée par des baisses significatives deperformance, et des attaques lancées vers l’extérieur. Laremise en état de tout le parc et l’installation de mesuressupplémentaires de protection ont duré plusieurs semaines,sans toutefois arrêter l’exploitation.2.5 Relations extérieures- Conférence SMIL Europe <strong>2003</strong>, 12-14 février, Paris (VincentGourson) ;- Conférence JCDL (ACM/IEEE CS Joint Conference on DigitalLibraries), 27-31 mai, Houston (Michel Fingerhut) ;- Journée d’étude de l’ADBS : Le Web sémantique, de nouveauxenjeux documentaires. 14 octobre (Vincent Gourson) ;- ISMIR <strong>2003</strong>, 4 e conférence sur la recherche d’informationsmusicales, 26-30 octobre, Baltimore (Michel Fingerhut, autitre de membre du comité de pilotage) ;- Expertise de projet dans le cadre du programme de lasociété de l’information en Belgique, 25 novembre (MichelFingerhut, à l’invitation des Services fédéraux desaffaires scientifiques en Belgique).2.6 PersonnelLe personnel du Bureau en <strong>2003</strong> a compris :- Michel Fingerhut (directeur du Bureau et de laMédiathèque) ;- 289 -


<strong>RAPPORT</strong> DETAILLEMEDIATHEQUEETUDES ET METHODES- Ada Gadomska (secrétaire du Bureau et de la Médiathèque,mi-temps depuis le 16 juin) ;- Vincent Gourson (technicien hypermédia, mi-temps) ;- Rodolphe Saugier (développeur, depuis le 1 er avril).Stagiaire :- Matthieu Guillout2.7 Publications et communicationsGourson, Vincent : Conférence SMILEurope <strong>2003</strong> : où en est-onavec SMIL ? Rapport.Gourson, Vincent : Compte-rendu du Forum PHP France 2002.Rapport.Gourson, Vincent, Delphine Oster : Inventaire des bases dedonnées de l’<strong>Ircam</strong>. Étude. Septembre <strong>2003</strong>.Gourson, Vincent, Delphine Oster, Michel Fingerhut :Proposition pour le nouveau système d’information de l’<strong>Ircam</strong>.Étude. Juin <strong>2003</strong>.Stiegler, Bernard, Michael Fingerhut et Nicolas Donin: TheIRCAM Digital Sound Archive in Context. DigiCULT.info n° 6,décembre <strong>2003</strong>.- 290 -


<strong>RAPPORT</strong> DETAILLEL’EQUIPE IRCAML’EQUIPE IRCAMDIRECTIONBernard StieglerAndré SantelliOlivia DespointesFabrice BertrandDirecteurDirecteur adjointAssistante de directionCoordinateur mission ArtiSTIC/CNRSADMINISTRATIONPersonnelAlexandra MagneLine DaoSophie GicquelFinancesNorddine BelalSylvie ParolariMajida AyadCristina ParreiraRégie-BâtimentGeorges-Elie GiscardChantal VogelAlain NicolasJean-François LalogeJean-Paul RodriguesMichel PilletBruno BelfioreSophie BesnardMalena Mendez-CarreraResponsable du personnelAssistante chargée de payeSecrétaireResponsable financierComptablepuisAide comptableResponsableAssistante chargée de gestionTechnicien d’exploitationTechnicien de maintenance BâtimentTechnicien reprographieAgent administratifAgent d’accueilHôtesse d’accueilHôtesse d’accueilCommunication et Partenariats CulturelsVéronique PréResponsable de la communication et despartenariatsChloé VitouxAngela PüskülDiale LiotéChargée de communicationAssistante relations publiquesSecrétaire-assistanteAgences de presseValérie Samuel Agence Opus 64Arnaud PainSophie RoosenAgence Opus 64Agence Eliotrope- 291 -


<strong>RAPPORT</strong> DETAILLEL’EQUIPE IRCAMDIRECTION ARTISTIQUEEric de VisscherJean-Michel LejeuneSuzanne BerthyElodie LewOdile VaillantpuisDirecteur artistiqueAttachée direction artistiqueSecrétaire bilingueChargée de mission, Centre PompidouDIRECTION DES RELATIONS EXTERIEURESVincent PuigDany BaudoinKarin LaenenValorisation / ForumVincent PuigPaola PalumboStéphanie LeroyBéatrice MonfortKarim HaddadCyrille BrissotOlivier LescurieuxEdition/Studio hypermédiaOlivier LescurieuxClaire MarquetDelphine OsterBertrand CheretMarc TexierJérôme BarthélemyJulien BloitSamuel GoldszmidtLudovic GaillardInvités et StagiaireMomilani RamstrumJill TeasleyJulien BrévalDirecteur des relations extérieuresAssistante Edition/PAOSecrétaire - TraductriceResponsable ForumChargée administration des ventesAssistante marketingSecrétaire administrativeConseiller techniqueAnimateur ForumResponsable des relations industriellesResponsable du Studio hypermediaAttachée d’éditionIngénieur étude documentalisteChargé de la documentation des œuvresMusicologue, chef de projet Web RadioChef de projet MusicNetwork et DVD à la carteChargé de développementChargé de développementIngénieur - DéveloppeurMusicologue invitée (USCD)Musicologue invitée (Université d’Edmonton)Stagiaire hypermédia (UTC)BUREAU ETUDES ET METHODES /MEDIATHEQUEMichel FingerhutAda GadomskaSandra El FakhouriVincent GoursonRodolphe SaugierJean-Paul RodriguesStagiairesNicolas FavreGrégoire BabiaudMatthieu GuilloutDirecteurSecrétaireDocumentaliste hypermédiaAssistant informatiqueChargé de développementMagasinierHEG - GenèveEBD - ParisENSM - Saint-Etienne- 292 -


<strong>RAPPORT</strong> DETAILLEL’EQUIPE IRCAMRECHERCHE ET DEVELOPPEMENTDIRECTION SCIENTIFIQUEHugues VinetDirecteur scientifique, directeur de l’UMR SMTS <strong>Ircam</strong>-CNRSFlorence Quilliard-Monjal AssistanteSylvie Benoit-Stanek Secrétaire de directionDebora BaroneAssistante gestionnaire de projets européensDidier PeriniAssistant gestionnaire CNRS (TCE)Francis RousseauxChargé de coordination du projet CuidadoACOUSTIQUE INSTRUMENTALERené CausséResponsableJoël BensoamChargé de recherche et développementPatricio de la Cuadra Chargé de rechercheNicholas EllisChargé de développementGérard BertrandTechnicien électroniqueStagiaires et étudiantsAndré AlmeidaThèse, Université de Paris VIClaudia FritzThèse Atiam, Université Paris VIOlivier HouixThèse, Université du MaineElise DesmondStage ENS LyonSébastien DerreStage ENSAMYann YvonStage ENSAMCédric BatifolStage ENSIMChercheurs invitésChristophe VergezChargé de recherche (CNRS, LMA).EQUIPE ACOUSTIQUE DES SALLESOlivier Warusfel ResponsableOlivier DelerueChargé de recherche et de développementEmmanuel RioChargé de recherche et de développementSébastien RouxChargé de recherche et de développementCédric PeignéChargé de recherche et de développementAlexis BaskindChargé de rechercheRiitaa VäänänenChargée de rechercheGuillaume Vandernoot Chargé de recherchePhilippe Prévot Ingénieur de recherche, détaché du Ministère de laCultureStagiaires et étudiantsAlexis BaskindThèse Atiam, Université de Paris VIEtienne CorteelThèse Atiam, Université de Paris VISylvain BussonThèse Cifre, FranceTélécom R&DTerrence Caulkins Thèse Atiam, université de Paris VIAlan BlumStage, Université Marseille IIMattieu NoguèsStage, CNSMDPClémens KuhnStage, Université DusseldorfDESIGN SONORE- 293 -


<strong>RAPPORT</strong> DETAILLEL’EQUIPE IRCAMLouis DandrelPatrick SusiniBennett SmithNicolas MisdariisBennett SmithEmmanuel DerutyRené CausséOlivier WarusfelResponsableChargé de rechercheAssistant de rechercheChargé de recherche et de développementAssistant de rechercheAssistant de productionCoordinateur scientifiqueCoordinateur scientifiqueStagiaires et étudiantsClara SuiedThèse Cifre, Renault, Université Paris VIJulien TardieuThèse Cifre, SNCF, Université Paris VIAlexis Clementides Stage, INT EvryCompositeur invité en rechercheOliver Schneller CompositeurPERCEPTION ET COGNITION MUSICALESStephen McAdams Responsable (DR2, CNRS), détaché pour l’année <strong>2003</strong>Alain de Cheveigné Directeur de recherche (DR2, CNRS)Daniel Pressnitzer Chargé de recherche (CR2, CNRS)Mondher AyariChercheur associé étranger, CNRSVincent RiouxChargé de rechercheBennett SmithAssistant de rechercheChercheurs invitésSandrine VieillardSuzanne WinsbergATER, Université de RouenConseiller scientifique, Université Rutgers (USA)Stagiaires et étudiantsAnne CaclinThèse, Université de Paris VIOlivier HouixThèse, Université du MaineGuillaume Lemaître Thèse Cifre, Société Klaxon, Université du MaineJéremy MarozeauThèse Atiam, Université de Paris VIClara SuiedThèse Cifre, Renault, Université du MaineJulien TardieuThèse Cifre, SNCF, Université de Paris VIJean LloberaStage DEA, ENST, EHESSAlice DaquetStage, Université de Paris VIIIANALYSE/SYNTHESE DES SONSXavier RodetResponsableGeoffroy Peeters Chargé de rechercheNiels BogaardsChargé de développementNicholas EllisChargé de recherche et de développementJoseph EscribeChargé de rechercheJean-Philippe Lambert Chargé de recherche et de développementAxel RoebelChargé de recherche et de développementMarc Lo CascioChargé de développementCompositeurs et assistants musicauxRoland CahenCompositeurRomain Kronenberg Assistant musicalChercheurs, stagiaires et étudiantsAndré AlmeidaThèse, Université Paris VISébastien Durigon Stage, EFREIYeh ChunghsinThèse Atiam, Université Paris VI- 294 -


<strong>RAPPORT</strong> DETAILLEL’EQUIPE IRCAMBertrand Delezoide Thèse Atiam, Université Paris VI, collaboration CEAWim D'HaesThèse, Université d'AnversArie LivshinThèse, Université Paris VIKasper SourenThèse, Université Paris VIFernando Villavicencio Thèse, Université Paris VIEmmanuel Vincent Thèse Atiam , Université Paris VI, AMN ENSGrégory BellerStage, Université Paris VIGuillaume DenisStage, IPG GrenobleThomas GaudyStage, CNAMDaniel HartStage, ENSOsen KarkiStage, EFREIMattias Kraudelat Stage, Université MunsterFérreol SoulezStage, CPE LyonNicolas SursockStage, EFREIDamien TardieuStage, Université Marseille IIChercheur invitéMiroslav ZivanovicPost-doc, Université de NavarreREPRESENTATIONS MUSICALESGérard AssayagResponsableCarlos A. Agon Amado Chargé de rechercheBenoit MeudicChargé de rechercheJosé Fernando Diago Chargé de développementStagiaires et étudiantsCharlotte Truchet Thèse, Université de Paris VIIMoreno Andreatta Thèse, Université de ToursGilbert NounoThèse, Universié de Paris VIOlivier Lartillot Thèse Atiam, Universié de Paris VINicolas DurandStage DEA Atiam, Université de Paris VIJean BressonStage, ESSI Nice, Chargé de développementChercheurs invitésMarc ChemillierPatricio Da SilvaVittorio CafagnaKilian SprotteCompositeurs invitésMarco StroppaGeorges BlochMauro LanzaFORMULATION DU MUSICALNicolas DoninJacques TheureauPierre VermerschCompositeurs invitésAndrea CeraPhilippe LerouxBrice PausetProfesseur en délégation CNRSPost-doc, UCSCUniversité de SalermeCompositeur , Chercheur, Conservatoire de Musique deBrêmeCompositeurCompositeurCompositeurResponsableChargé de recherche (CR1, CNRS)Chargé de recherche (CR1, CNRS)CompositeurCompositeurCompositeurLOGICIELS LIBRES ET INGENIERIE LOGICIELLEFrançois Déchelle ResponsablePatrice Tisserand Chargé de développementGerardo Saria Montemiranda Chargé de développement- 295 -


<strong>RAPPORT</strong> DETAILLEL’EQUIPE IRCAMStagiaires et étudiantsJulien BruléStage, Université de Paris VIJulien Delacroix Stage, UTCAlexandre PagesStage, SupinfoCarl SeleborgStage, Universié de Paris DauphineAPPLICATIONS TEMPS REELNorbert SchnellRiccardo BorghesiDiemo SchwarzFrédéric BevilacquaResponsableChargé de développementChargé de recherche et de développementChargé de rechercheStagiaires et étudiantsRémy MullerStage, INSA LyonVincent GoudardStage, INSA LyonThomas Pellegrini Stage, IPGN GrenobleRaphaël DuéeStage, Université de Paris VIChercheur invitéNicolas OrioCompositeur invitéPhilippe ManouryUniversité de PadoueCompositeurSERVICES EN LIGNEPascal MullonJérôme BarthélémyGuillaume BoutardMax JacobStagiaireSimon ArberetpuisChef de ProjetChargé de développementChargé de développementStage, SupelecSERVICE INFORMATIQUELaurent GhysResponsableGhislaine Montagne SecrétaireOlivier LabatIngénieur systèmeJulien Boissinot Administrateur système (congé parental d’éducation)Arnaud Gomes-Do-Vale Assistant administrateur système (remplacement J.Boissinot)Youcef BensaïdTechnicien informatiqueFrédéric Vandromme Assistant systèmeATELIER DE MECANIQUEAlain TerrierTechnicien mécaniquePEDAGOGIEAndrew GerzsoCyrille DefayeNatacha Moënne-LoccozDirecteurAssistanteAssistante- 296 -


<strong>RAPPORT</strong> DETAILLEL’EQUIPE IRCAMAssistants pédagogiquesEmmanuel Jourdan Assistant musicalJean LochardAssistant musicalMikhail MaltAssistant musicalBenjamin Thigpen Assistant musicalCyrille BrissotAnimateur PédagogieStéphane SchaubMaura LanzaAnimateur PédagogieAssistant CursusProfesseurs de composition et d’informatique musicaleFrançois BayleCompositeurDemun CampionCompositeurBrian Ferneyhough CompositeurJonathan HarveyCompositeurPhilippe HurelCompositeurPhilippe LerouxCompositeurPhilippe Manoury CompositeurTristan MurailCompositeurFrançois ParisCompositeurHans TutschkuCompositeurCREATION MUSICALEAlain JacquinotAgnès FinLaetitia ScallietAnne GuyonnetAssistants musicauxEric DaubresseRomain KronenbergSerge LemoutonGilbert NounoOlivier PasquetFrédéric VoisinTom MaysManuel PolettiSébastien RouxDenis LorrainDirecteur de le ProductionChargée de productionAssistante de productionSecrétaireCoordinateur Assistants musicauxAssistant musicalAssistant musicalAssistant musicalAssistant musicalAssistant musicalAssistant musicalAssistant musicalAssistant musicalAssistant musicalSonDavid PoissonnierJérémie HenrotSébastien NavesFranck RossiNicolas BillotPeter CahillRomain KronenbergRégiePascale BonduThomas LeblancMarc RichaudResponsable Ingénierie sonoreIngénieur du sonIngénieur du sonIngénieur sonRégisseur sonRégisseur sonRégisseur sonRégisseur GénéralRégisseurRégisseur- 297 -


<strong>RAPPORT</strong> DETAILLEL’EQUIPE IRCAMDavid RaphaelRégisseurMoyens techniquesDaniel RaguinPédagogieCoordinateur des moyens techniques Création etEmmanuel Fléty Ingénieur, Chef de projetNicolas Leroy Ingénieur DéveloppeurJ-Christophe Ravarini Technicien électronicienMartine Gaultier Technicienne câblageFrançois Gibouin Technicien de maintenance** *- 298 -

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!