26.01.2015 Views

Untitled - WWW Ircam

Untitled - WWW Ircam

Untitled - WWW Ircam

SHOW MORE
SHOW LESS
  • No tags were found...

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

4 RECHERCHE ET DÉVELOPPEMENT, L’UMR STMS<br />

cibles multiples ou abstraites tout en s’appuyant sur une<br />

vaste connaissance. Notre environnement offre également<br />

un cadre permettant une première approche des macro-articulations<br />

orchestrales par l’utilisation d’un système d’écriture<br />

permettant également un lien avec la synthèse sonore.<br />

Recherche efficace de séries temporelles<br />

Thèse Philippe Esling (EDITE), Dir. C. Agon, période 2009-2012<br />

La recherche de sons peut s’avérer une tâche pénible et<br />

laborieuse dans le cas de bases de données massives.<br />

Même lorsque des méta-informations sont disponibles, les<br />

résultats restent souvent loin de la représentation mentale<br />

imaginée par l’utilisateur. Aucun système ne permet actuellement<br />

la projection intuitive d’une idée sonore en requête<br />

efficace, les échantillons sonores ne permettant pas la même<br />

extraction d’information de haut niveau que les chansons<br />

(e.g. mélodie, paroles). Partant de cette observation, nous<br />

avons développé un système générique permettant d’effectuer<br />

des requêtes efficaces sur des formes temporelles et<br />

de prendre en compte la nature multidimensionelle de la<br />

perception sonore. Celle-ci permet d’effectuer des requêtes<br />

basées sur la forme temporelle de descripteurs plutôt que<br />

sur de simples valeurs moyennées. Ces descripteurs sont<br />

modélisés pour obtenir leur moyenne, écart-type ainsi que la<br />

forme de leur évolution temporelle grâce à une représentation<br />

symbolique permettant à la fois un stockage compact et<br />

une recherche efficace. Cependant, il était primordial que la<br />

comparaison des séries temporelles permette d’obtenir une<br />

similarité basée sur des critères perceptifs pour des objets<br />

pouvant être mathématiquement très divergents. En utilisant<br />

une mesure dérivant du Dynamic Time Warping (DTW),<br />

nous calculons une similarité robuste suivant les distorsions<br />

non linéaires aussi bien d’amplitude, de temps, de bruit et<br />

de valeurs singulières. Grâce à un algorithme d’indexation<br />

novateur, il est possible d’obtenir presque instantanément le<br />

meilleur élément d’une base de plusieurs millions d’échantillons<br />

sonores.<br />

Notre étude s’est ensuite ouverte à l’implémentation d’interactions<br />

de plus haut niveau. Nous avons étudié la possibilité<br />

d’une recherche pertinente sur plusieurs courbes<br />

temporelles simultanément, dépassant le cadre de la<br />

simple pondération de critères souvent peu pertinente. Ceci<br />

posant un problème générique encore peu étudié : l’analyse<br />

mutli-objectifs des séries temporelles. Il s’agit d’obtenir un<br />

ensemble de solutions qui optimisent conjointement différents<br />

critères temporels. Grâce à une heuristique novatrice,<br />

nous avons réalisé le premier algorithme exact de recherche<br />

multi-objectifs des séries temporelles. Ces techniques novatrices<br />

issues du champ musical s’appliquent potentiellement<br />

à tous les champs de recherche scientifique de par l’ubiquité<br />

de l’information temporelle. La recherche multi-objectifs de<br />

séries temporelles ouvre à de nombreuses applications dans<br />

divers domaines allant de l’analyse médicale à la robotique.<br />

Celle-ci permet également la mise en place d’un système de<br />

requête par imitation vocale basé sur de multiples descripteurs<br />

spectraux. Ils sont également à la base de la construction<br />

d’un prototype à interface multitouch pour la recherche<br />

et la gestion de bases de données massives d’échantillons<br />

sonores.<br />

Contrôle de la synthèse<br />

L’assimilation des techniques de traitement et synthèse<br />

sonores dans le domaine de la composition assistée par<br />

ordinateur permet de créer et manipuler le son au sein de<br />

processus compositionnels. Les possibilités de représentation<br />

et de calcul ainsi que les concepts de formalisation et<br />

modélisation proposés par l’outil informatique sont alors<br />

mis en œuvre dans une composition s’étendant des macrostructures<br />

musicales jusqu’aux microstructures sonores. Un<br />

ensemble de bibliothèques sont développées et utilisées<br />

pour le contrôle de différents outils d’analyse, de traitement<br />

et de synthèse sonores dans l’environnement OpenMusic.<br />

La bibliothèque OMChroma, développée par Jean Bresson<br />

en collaboration avec le compositeur Marco Stroppa, fait<br />

partie des composantes majeures de ce projet, proposant<br />

un ensemble d’objets OpenMusic représentant des « événements<br />

» attachés à différents processus de synthèse, ainsi<br />

que des modes de paramétrages puissants et originaux.<br />

L’article publié en 2011 dans Computer Music Journal synthétise<br />

les principaux concepts et outils proposés par cette<br />

bibliothèque. Par ailleurs, l’étude des aspects continus<br />

dans les structures de contrôle pour la synthèse sonore est<br />

au cœur des récentes avancées dans ce domaine. Celle-ci<br />

s’appuie sur le synthétiseur Chant, qui permet de créer des<br />

sons à l’aide d’un modèle de synthèse vocale basé sur des<br />

« fonctions d’ondes formantiques » (FOF) dont les caractéristiques<br />

peuvent être décrites par des règles de contrôle ou<br />

par des valeurs évoluant au cours du temps. Dans un premier<br />

temps, le développement de la bibliothèque OM-Chant<br />

a permis de convertir des données issues de l’environnement<br />

OpenMusic en séquences de contrôle adaptées au synthéti-<br />

IRCAM – RAPPORT D’ACTIVITÉ 2011<br />

88

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!