26.01.2015 Views

Untitled - WWW Ircam

Untitled - WWW Ircam

Untitled - WWW Ircam

SHOW MORE
SHOW LESS
  • No tags were found...

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

4 RECHERCHE ET DÉVELOPPEMENT, L’UMR STMS<br />

ÉQUIPE INTERACTIONS MUSICALES<br />

TEMPS RÉEL<br />

Effectif Diffusion scientifique Projets et contrats Collaborations<br />

scientifiques<br />

Collaborations artistiques<br />

Chercheurs et<br />

ingénieurs statutaires<br />

Chercheurs et<br />

ingénieurs non<br />

statutaires, invités<br />

5 Revues à comité de<br />

lecture<br />

3 Conférences avec<br />

comité de sélection<br />

Doctorants 7 Ouvrages et<br />

chapitres<br />

Stagiaires 3 Thèses de doctorat<br />

et HDR<br />

2 Nationaux et<br />

régionaux<br />

16 Internationaux 0<br />

4 Contrats industriels 1<br />

1<br />

4 Grame, F<br />

McGill, CA CNMAT, USA<br />

BEK, N<br />

IEM, A<br />

ENSCI, F<br />

Orbe, F UserStudio, F<br />

LIMSI, F<br />

Navidis F<br />

STEIM, NL, Atelier des<br />

Feuillantines, F Da Fact<br />

- F Voxler, F -NoDesign<br />

F - Cycling’74, USA -<br />

Phonotonic, F<br />

Goldsmiths, UK<br />

Columbia University, USA<br />

KTH, S<br />

M. Suarez Cifuentes ;<br />

L. Pagliei<br />

F. Baschet,<br />

G. Aperghis,<br />

A. Einbond,<br />

Ch.Trapani,<br />

E Greco<br />

M.Kimura., B.Hackbarth,<br />

C.Graupner,<br />

F. Leibovici,<br />

E. Gibello,<br />

F. Blondy,<br />

F. Tartinville,<br />

V. Johnson,<br />

M. Vitoria,<br />

A. Cera<br />

Responsable : Frédéric Bevilacqua<br />

L’équipe Interactions Musicales temps réel (IMTR) mène des<br />

recherches et développements sur les systèmes interactifs<br />

dédiés à la musique et au spectacle vivant, suivant quatre<br />

axes principaux :<br />

• analyses et modélisation de données sonores et gestuelles,<br />

regroupant nos recherches théoriques ;<br />

• systèmes de captation, concernant nos développements<br />

de systèmes matériels : interfaces gestuelles et transmission<br />

sans fil ;<br />

• synthèse et traitement sonore interactif, regroupant nos<br />

développements sur les méthodes de synthèse basées<br />

sur des contenus enregistrés ou corpus ;<br />

• systèmes interactifs basés sur le geste, regroupant nos<br />

projets mettant en œuvre des dispositifs complets (captation<br />

du geste et synthèse).<br />

Concernant nos travaux théoriques, nous avons poursuivi<br />

nos recherches sur la modélisation des morphologies temporelles.<br />

Nous prenons en compte des niveaux temporels<br />

différents, d’un niveau micro, correspondant à l’échelle de<br />

l’échantillon gestuel jusqu’à un niveau macro, correspondant<br />

à des phrases complètes. Chaque niveau a fait l’objet<br />

d’études spécifiques et a de nouvelles approches computationnelles.<br />

En particulier, l’utilisation du filtrage particulaire<br />

a permis d’améliorer le « suivi continu » (niveau temporel<br />

micro), alors que l’utilisation de Modèles de Markov Hiérarchiques<br />

généralise nos travaux sur les modèles segmentaux<br />

(niveaux temporel macro). Nous avons également approfondi<br />

nos travaux sur les relations geste-son, les phénomènes de<br />

co-articulation et la caractérisation des qualités de mouvement.<br />

Ces différents travaux sont intégrés dans des systèmes<br />

interactifs, croisant des problématiques émergentes de la<br />

communauté IHM (Interfaces Hommes Machine), comme<br />

l’utilisation de gestes expressifs continus ou l’apprentissage<br />

automatique interactif.<br />

D’un point de vue applicatif, deux projets ont été finalisés en<br />

2011, Interlude (ANR) et Urban Musical Game (Festival Agora<br />

et Futur en Seine), dont les résultats positifs ont accru la visibilité<br />

et la reconnaissance de l’équipe à un niveau international<br />

(entre autre le 1 er Prix Guthman, exposition au MoMa).<br />

Ces projets intègrent nos travaux sur les systèmes de captation<br />

de mouvements et nos développements logiciels sur<br />

l’analyse gestuelle et la synthèse interactive (dont MuBu).<br />

Le projet ANR Topophonie (aussi présent à Futur en Seine) a<br />

renforcé nos recherches et développements sur la synthèse<br />

de textures sonores utilisant des corpus, en favorisant un<br />

contrôle de haut niveau. Ce projet a également renforcé notre<br />

positionnement international, par exemple par une forte présence<br />

dans le colloque DAFx.<br />

Globalement, ces projets ont fait fortement progresser nos<br />

développements logiciels vers un environnement cohérent<br />

permettant de construire de manière modulable des applications<br />

d’interactions gestuelles avec des sons enregistrés<br />

(bibliothèques IAE, MuBu, gf, ZsaZsa, RTA, <strong>Ircam</strong>Descriptors).<br />

Notons enfin l’acceptation de nouveaux projets, et en particulier<br />

le démarrage du projet ANR blanc Legos, coordonné<br />

par l’équipe, permettant d’appréhender des problématiques<br />

d’évaluation de l’apprentissage sensori-moteur dans des<br />

sytèmes interactifs sonores basés sur le geste. Ce projet établit<br />

de nouvelles collaborations extérieures (Paris Descartes)<br />

et renforce les collaborations internes avec les équipes PDS,<br />

Ac. Inst. et EAC.<br />

L’acceptation du projet Physis à l’appel ContInt de l’ANR permettra<br />

la poursuite des recherches et la réalisation de nouvelles<br />

applications dans le domaine de la synthèse de textures<br />

sonores.<br />

IRCAM – RAPPORT D’ACTIVITÉ 2011<br />

100

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!