10.07.2015 Views

Modèles de Markov triplets en restauration des signaux

Modèles de Markov triplets en restauration des signaux

Modèles de Markov triplets en restauration des signaux

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

CHAPITRE IV. MODÈLE DE MARKOV TRIPLETLorsque la taille du processus à simuler n’est pas trop gran<strong>de</strong>, la simulation directeest la plus exacte et la plus rapi<strong>de</strong> parmi ces métho<strong>de</strong>s <strong>de</strong> simulation. Cep<strong>en</strong>dant,lorsque la taille du processus à simuler est trop gran<strong>de</strong>, il peut être préférable,afin d’éviter <strong>de</strong>s problèmes numériques, <strong>de</strong> recourir à une métho<strong>de</strong> indirecte commel’échantillonneur <strong>de</strong> Gibbs ou la simulation parallèle.IV.3.3 Champ Gaussi<strong>en</strong>-<strong>Markov</strong>i<strong>en</strong> cachéLe modèle du champ Gaussi<strong>en</strong>-<strong>Markov</strong>i<strong>en</strong> caché fait partie <strong>de</strong> modèles <strong>de</strong> <strong>Markov</strong>cachés (MMC). On suppose qu’il existe un champ Gaussi<strong>en</strong>-<strong>Markov</strong>i<strong>en</strong> U=(U n ) 1∶Nnon observé, qui est le processus d’intérêt défini sur une grille S. Les donnés dontnous disposonsy=(y n ) 1∶N sont la réalisation d’un autre champ aléatoireY=(Y n ) 1∶N .Nous nous intéressons dans cette partie au cas du champ Gaussi<strong>en</strong>-<strong>Markov</strong>i<strong>en</strong> à bruitindép<strong>en</strong>dant (CGMC-BI).Prés<strong>en</strong>tation du modèle CGMC-BIOn appelle « champ Gaussi<strong>en</strong>-<strong>Markov</strong>i<strong>en</strong> caché à bruit indép<strong>en</strong>dant » (CGMC-BI) le couple(U,Y)=(U n ,Y n ) 1∶N dont la loi est définie <strong>de</strong> la manière suivante. Lechamp inobservable U est Gaussi<strong>en</strong>-<strong>Markov</strong>i<strong>en</strong> ( U∼N N (µ,Σ=Q −1 )). Rappelonsque sa loi s’écrit alors :p(u)=(2.π) −N 2∣Q∣ 1 2 exp[− 1 2 (u−µ)T Q(u−µ)](IV.65)avec la matrice <strong>de</strong> covariance Σ telle que pour tout n∈{1,..,N}, la variable U nest indép<strong>en</strong>dante <strong>de</strong> l’<strong>en</strong>semble <strong>de</strong>s variables(U t ,t∉ν(n)) conditionnellem<strong>en</strong>t aux(U t ,t∈ν(n)) :p(u n ∣u t ,t≠n)=p(u n ∣u t ,t∈ν(n))(IV.66)La loi du champ observé Y conditionnelle au champ caché U est une loi quelconque( qui vérifie certaines conditions données dans la suite) : sachant U=u, les Y n sontindép<strong>en</strong>dantes et pour tout n∈{1,..,N}, la loi <strong>de</strong> Y n conditionnelle à U = u nedép<strong>en</strong>d que <strong>de</strong> U n :p(y∣u)=N∏n=1p(y n ∣u)=N∏n=1p(y n ∣u n )(IV.67)Le champ U conditionnellem<strong>en</strong>t à Y=y est alors égalem<strong>en</strong>t un champ Gaussi<strong>en</strong>-<strong>Markov</strong>i<strong>en</strong> [11], ce qui permet d’abor<strong>de</strong>r les problèmes <strong>de</strong> <strong>restauration</strong> <strong>de</strong> U à partir<strong>de</strong> Y . En effet, selon la formule <strong>de</strong> Bayes :p(u∣y)= p(u,y)p(y) =∝p(y∣u)p(u),(IV.68)nous avons donc :90p(u∣y)∝exp[− 1 2 (u−µ)T Q(u−µ)+ ∑logp(y n ∣u n )]Nn=1(IV.69)

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!