10.07.2015 Views

Modèles de Markov triplets en restauration des signaux

Modèles de Markov triplets en restauration des signaux

Modèles de Markov triplets en restauration des signaux

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

CHAPITRE III. ESTIMATION DES PARAMÈTRES◇ S’il existe <strong>de</strong>s composantes θ m pour lesquelles l’espérance ci-<strong>de</strong>ssus n’est pascalculable, on simule τ réalisations <strong>de</strong> X selon p(x∣y,θ q ) et on pose :pour toutes ces composantes.θ q+1m = 1 ττ∑i=1̂θ m (x i ,y)Dans certains cas, comme le cas <strong>de</strong>s CMC-BI classiques avec du bruit gaussi<strong>en</strong> [7],celui <strong>de</strong>s arbres <strong>de</strong> <strong>Markov</strong> cachés, avec bruit gaussi<strong>en</strong> ou pas [86], ou <strong>en</strong>core mélangesgaussi<strong>en</strong>s simples [87], les algorithmes EM, SEM et ICE peuv<strong>en</strong>t donner <strong>de</strong>s résultatstrès proches. Au plan théorique, les li<strong>en</strong>s <strong>en</strong>tre EM et ICE ont été étudiés parDelmas [33]. L’avantage <strong>de</strong> l’ICE est qu’il est facile à programmer et nous n’avons pas<strong>de</strong>s problèmes <strong>de</strong> maximisation sous contraintes contrairem<strong>en</strong>t à l’algorithme EM.En général, nous avons plusieurs choix pour les estimateurs <strong>de</strong> paramètres et parmices choix l’estimateur <strong>de</strong> maximum <strong>de</strong> vraisemblance. La vitesse <strong>de</strong> converg<strong>en</strong>ce <strong>de</strong>l’algorithme ICE dép<strong>en</strong>d ess<strong>en</strong>tiellem<strong>en</strong>t du choix <strong>de</strong> ces estimateurs. Une étu<strong>de</strong> surla converg<strong>en</strong>ce <strong>de</strong> ICE était prés<strong>en</strong>tée récemm<strong>en</strong>t par M. Pieczynski [95].III.3 ApplicationsNous prés<strong>en</strong>tons dans cette section <strong>de</strong>s applications <strong>de</strong> l’estimation <strong>de</strong>s paramètrespour quelques types <strong>de</strong> modèle à données incomplètes. Soit X=(X n ) n=1∶Nun processus aléatoire discret à valeurs dans un espace fini Ω={ω 1 ,...,ω K }. Xest inobservé, et les données que nous disposons sont représ<strong>en</strong>tées par le processusY=(Y n ) n=1∶N , qui est un processus réel. On note par Z=(Z n ) n=1∶N le couple(X,Y).La première modélisation classique que nous étudions est le cas d’un mélange indép<strong>en</strong>dantgaussi<strong>en</strong> fini.III.3.1 Mélange indép<strong>en</strong>dant gaussi<strong>en</strong> finiLes hypothèses <strong>de</strong> ce modèle sont les suivantes : les X n sont indép<strong>en</strong>dants, etles Y n sont indép<strong>en</strong>dants conditionnellem<strong>en</strong>t à X, Y n et(X t ) t≠n sont indép<strong>en</strong>dantsconditionnellem<strong>en</strong>t à X n .p(y∣x)=p(x)=N∏n=1N∏n=1p(y n ∣x)=p(x n )N∏n=1p(y n ∣x n )(III.14)(III.15)Dans le cas <strong>de</strong> mélange <strong>de</strong>s gaussi<strong>en</strong>nes considéré, la loi conditionnelle <strong>de</strong> Y n sachantx n = ω k est une gaussi<strong>en</strong>ne <strong>de</strong> moy<strong>en</strong>ne µ k et <strong>de</strong> variance σk 2N(µ k,σk 2 ). La logvraisemblanceest donnée par :46L c (z∣θ) = logp(x,y∣θ)=logp(x∣θ)+logp(y∣x,θ)=N∑n=1Nlogp(x n )+ ∑logp(y n ∣x n )n=1(III.16)(III.17)

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!