26.01.2015 Views

Untitled - WWW Ircam

Untitled - WWW Ircam

Untitled - WWW Ircam

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

4 RECHERCHE ET DÉVELOPPEMENT, L’UMR STMS<br />

les canaux sont tout d’abord analysés séparément et les analyses<br />

résultantes sont combinées par la suite pour obtenir le<br />

résultat final. En comparant les résultats obtenus sur une<br />

base de fichier stéréo par l’algorithme initial (travaillant sur<br />

un seul canal après un down-mix du fichier stéréo) et la nouvelle<br />

version, nous observons une amélioration de 1-2 % de<br />

la performance. Par la suite, nous avons étendu l’algorithme<br />

de sorte à permettre une intégration simple de notre algorithme<br />

de détection de la mélodie principale. Nous avons<br />

aussi commencé à travailler sur la transcription de la ligne<br />

de basse du morceau.<br />

Synthèse sonore et transformation à partir d’un modèle<br />

source-filtre étendu des instruments de musique<br />

Thèse de H. Hahn, Projet Sample Orchestrator 2<br />

Ce projet vise à établir un modèle structuré de sons qui<br />

peut remplacer les échantillons dans un logiciel de synthèse<br />

à partir d’échantillons. Le modèle final doit permettre<br />

une synthèse expressive. À cette fin, un modèle étendu du<br />

type source filtre est utilisé et sera paramétré par « pitch »,<br />

intensité globale (forte, piano) et intensité locale, afin que le<br />

modèle réponde de façon réaliste aux changements de ces<br />

paramètres par une variation du timbre. Ces changements<br />

peuvent apparaître globalement (ex : changement d’intensité<br />

de forte à mezzo-forte) et/ou localement (modulation de fréquence<br />

et d’amplitude).<br />

Les contributions majeures en 2011 concernent l’entraînement<br />

du modèle pour la représentation des notes de musique<br />

en fonction de leur attributs (hauteur et intensité) à partir<br />

d’une banque d’échantillons instrumentaux (base de données<br />

d’Univers Sons). L’analyse est faite à partir d’une décomposition<br />

harmonique/bruit avec une attention particulière portée<br />

sur la modélisation des transitoires, le masquage des effets<br />

de filtre en peigne dans le bruit résiduel, ainsi que l’estimation<br />

et la représentation de l’inharmonicité. Le modèle des<br />

instruments de musique est effectué séparément pour les<br />

composantes harmoniques et pour le bruit. Il utilise une<br />

interpolation par B-splines pour générer les changement de<br />

filtre au cours du temps, reflets du timbre des instruments,<br />

et prenant en compte l’intensité, l’enveloppe d’amplitude, la<br />

hauteur, et les fréquences harmoniques comme paramètres.<br />

Pour adapter le modèle, nous avons évalué et employé des<br />

solutions explicites et des méthodes de gradient conjugué.<br />

Enfin, des algorithmes de resynthèse ont été développés pour<br />

la transformation des sons individuels et pour l’interpolation<br />

entre deux sons avec des options arbitraires de mixage. Une<br />

évaluation des configurations possibles avec les techniques<br />

d’état de l‘art est actuellement en cours.<br />

Excitation des partiels d’une trompette en fonction de l’intensité globale<br />

et locale de la note<br />

Modélisation et transformation de textures sonores et sons<br />

environnementaux<br />

Ce projet couvre une large classe de sons peu supportés par<br />

les différents modèles de sons : les sons environnementaux<br />

et les textures sonores. Ces types de sons, comme le son du<br />

vent, le roulement des vagues ou la marche des trains, sont<br />

omniprésents dans notre vie quotidienne. Dotés généralement<br />

de peu de composantes sinusoïdales et le bruit étant<br />

dominant, il faut donc les décrire au moyen de méthodes statistiques.<br />

Le but de cette recherche est d’obtenir une représentation,<br />

un modèle paramétrique du signal, qui permette l’analyse<br />

et la resynthèse transformée des sons environnementaux,<br />

et rende possible des transformations telles que le<br />

« stretching », la modification des caractéristiques perçues<br />

de la texture sonore, ainsi que le morphing, l’interpolation<br />

entre différentes textures sonores.<br />

L’idée est de préserver les caractéristiques perceptives<br />

liées aux propriétés statistiques lors de la transformation<br />

des sons. Actuellement, cette recherche est à un stade très<br />

précoce, et les efforts de recherche initiaux se sont penchés<br />

principalement sur la description des caractéristiques statis-<br />

IRCAM – RAPPORT D’ACTIVITÉ 2011<br />

79

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!