Untitled - WWW Ircam
Untitled - WWW Ircam
Untitled - WWW Ircam
- No tags were found...
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
4 RECHERCHE ET DÉVELOPPEMENT, L’UMR STMS<br />
cibles multiples ou abstraites tout en s’appuyant sur une<br />
vaste connaissance. Notre environnement offre également<br />
un cadre permettant une première approche des macro-articulations<br />
orchestrales par l’utilisation d’un système d’écriture<br />
permettant également un lien avec la synthèse sonore.<br />
Recherche efficace de séries temporelles<br />
Thèse Philippe Esling (EDITE), Dir. C. Agon, période 2009-2012<br />
La recherche de sons peut s’avérer une tâche pénible et<br />
laborieuse dans le cas de bases de données massives.<br />
Même lorsque des méta-informations sont disponibles, les<br />
résultats restent souvent loin de la représentation mentale<br />
imaginée par l’utilisateur. Aucun système ne permet actuellement<br />
la projection intuitive d’une idée sonore en requête<br />
efficace, les échantillons sonores ne permettant pas la même<br />
extraction d’information de haut niveau que les chansons<br />
(e.g. mélodie, paroles). Partant de cette observation, nous<br />
avons développé un système générique permettant d’effectuer<br />
des requêtes efficaces sur des formes temporelles et<br />
de prendre en compte la nature multidimensionelle de la<br />
perception sonore. Celle-ci permet d’effectuer des requêtes<br />
basées sur la forme temporelle de descripteurs plutôt que<br />
sur de simples valeurs moyennées. Ces descripteurs sont<br />
modélisés pour obtenir leur moyenne, écart-type ainsi que la<br />
forme de leur évolution temporelle grâce à une représentation<br />
symbolique permettant à la fois un stockage compact et<br />
une recherche efficace. Cependant, il était primordial que la<br />
comparaison des séries temporelles permette d’obtenir une<br />
similarité basée sur des critères perceptifs pour des objets<br />
pouvant être mathématiquement très divergents. En utilisant<br />
une mesure dérivant du Dynamic Time Warping (DTW),<br />
nous calculons une similarité robuste suivant les distorsions<br />
non linéaires aussi bien d’amplitude, de temps, de bruit et<br />
de valeurs singulières. Grâce à un algorithme d’indexation<br />
novateur, il est possible d’obtenir presque instantanément le<br />
meilleur élément d’une base de plusieurs millions d’échantillons<br />
sonores.<br />
Notre étude s’est ensuite ouverte à l’implémentation d’interactions<br />
de plus haut niveau. Nous avons étudié la possibilité<br />
d’une recherche pertinente sur plusieurs courbes<br />
temporelles simultanément, dépassant le cadre de la<br />
simple pondération de critères souvent peu pertinente. Ceci<br />
posant un problème générique encore peu étudié : l’analyse<br />
mutli-objectifs des séries temporelles. Il s’agit d’obtenir un<br />
ensemble de solutions qui optimisent conjointement différents<br />
critères temporels. Grâce à une heuristique novatrice,<br />
nous avons réalisé le premier algorithme exact de recherche<br />
multi-objectifs des séries temporelles. Ces techniques novatrices<br />
issues du champ musical s’appliquent potentiellement<br />
à tous les champs de recherche scientifique de par l’ubiquité<br />
de l’information temporelle. La recherche multi-objectifs de<br />
séries temporelles ouvre à de nombreuses applications dans<br />
divers domaines allant de l’analyse médicale à la robotique.<br />
Celle-ci permet également la mise en place d’un système de<br />
requête par imitation vocale basé sur de multiples descripteurs<br />
spectraux. Ils sont également à la base de la construction<br />
d’un prototype à interface multitouch pour la recherche<br />
et la gestion de bases de données massives d’échantillons<br />
sonores.<br />
Contrôle de la synthèse<br />
L’assimilation des techniques de traitement et synthèse<br />
sonores dans le domaine de la composition assistée par<br />
ordinateur permet de créer et manipuler le son au sein de<br />
processus compositionnels. Les possibilités de représentation<br />
et de calcul ainsi que les concepts de formalisation et<br />
modélisation proposés par l’outil informatique sont alors<br />
mis en œuvre dans une composition s’étendant des macrostructures<br />
musicales jusqu’aux microstructures sonores. Un<br />
ensemble de bibliothèques sont développées et utilisées<br />
pour le contrôle de différents outils d’analyse, de traitement<br />
et de synthèse sonores dans l’environnement OpenMusic.<br />
La bibliothèque OMChroma, développée par Jean Bresson<br />
en collaboration avec le compositeur Marco Stroppa, fait<br />
partie des composantes majeures de ce projet, proposant<br />
un ensemble d’objets OpenMusic représentant des « événements<br />
» attachés à différents processus de synthèse, ainsi<br />
que des modes de paramétrages puissants et originaux.<br />
L’article publié en 2011 dans Computer Music Journal synthétise<br />
les principaux concepts et outils proposés par cette<br />
bibliothèque. Par ailleurs, l’étude des aspects continus<br />
dans les structures de contrôle pour la synthèse sonore est<br />
au cœur des récentes avancées dans ce domaine. Celle-ci<br />
s’appuie sur le synthétiseur Chant, qui permet de créer des<br />
sons à l’aide d’un modèle de synthèse vocale basé sur des<br />
« fonctions d’ondes formantiques » (FOF) dont les caractéristiques<br />
peuvent être décrites par des règles de contrôle ou<br />
par des valeurs évoluant au cours du temps. Dans un premier<br />
temps, le développement de la bibliothèque OM-Chant<br />
a permis de convertir des données issues de l’environnement<br />
OpenMusic en séquences de contrôle adaptées au synthéti-<br />
IRCAM – RAPPORT D’ACTIVITÉ 2011<br />
88