10.07.2015 Views

Modèles de Markov triplets en restauration des signaux

Modèles de Markov triplets en restauration des signaux

Modèles de Markov triplets en restauration des signaux

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

CHAPITRE I. MODÈLES DE MARKOV CLASSIQUESDéfinition I.10 Soit(X,Y)=(X n ,Y n ) 1∶N un processus aléatoire couple à valeursdans l’espace produit R×R.(X,Y) est dit une chaîne <strong>de</strong> <strong>Markov</strong> cachée à bruitindép<strong>en</strong>dant, si seulem<strong>en</strong>t si X est une chaîne <strong>de</strong> <strong>Markov</strong>, et la loi p(y∣x) vérifie :◻ les Y n sont indép<strong>en</strong>dants conditionnellem<strong>en</strong>t aux X 1∶N :◻∀n∈{1,..,N} :I.3.1 Infér<strong>en</strong>ce Bayési<strong>en</strong>nep(y 1∶N ∣x 1∶N )=N∏n=1p(y n ∣x 1∶N ),p(y n ∣x 1∶N )=p(y n ∣x n ).(I.28)(I.29)Le calcul <strong>de</strong>s probabilités à posteriori <strong>de</strong> X n conditionnellem<strong>en</strong>t à y=y 1∶N n’estpas toujours possible d’une manière exacte. Bi<strong>en</strong> que les démarches générales soi<strong>en</strong>tles mêmes que dans le cas <strong>de</strong>s CMC-BI, les sommes sont remplacées par <strong>de</strong>s intégralesne pouvant pas être calculées explicitem<strong>en</strong>t dans tous les cas. En effet, si on désignepar α n = p(x n ,y 1∶n ) les probabilités « Forward »et par β n = p(y n+1∶N ∣x n ,y 1∶n ) lesprobabilités « Backward », alors :et pour tout n∈{2,..,N}p(x 1 ∣y)=∝α 1 (x 1 )β 1 (x 1 )p(x n ∣y)=∝α n (x n )β n (x n ),avec α n et β n sont obt<strong>en</strong>us d’une manière recursive :1. Calcul <strong>de</strong> α n (.) :◻ Initialisation : α 1 (x 1 )=p(x 1 ,y 1 ),◻ Supposons α n calculé a l’étape n :α n+1 (x n+1 )=∫ Rα n (x n )p(x n+1 ,y n+1 ∣x n )dx n .2. Calcul <strong>de</strong> β n (.)◻ Initialisation : β N (x 1 )=1,◻ Supposons β n+1 calculé a l’étape n+1 :β n (x n )=∫ Rβ n+1 (x n+1 )p(x n+1 ,y n+1 ∣x n )dx n+1 .(I.30)(I.31)(I.32)(I.33)Nous traitons dans la suite le cas d’une chaîne <strong>de</strong> <strong>Markov</strong> cachée gaussi<strong>en</strong>ne. Dansce cas, nous avons les propriétés suivantes :– Pour tout n, X n est une variable aléatoire gaussi<strong>en</strong>ne;– Conditionnellem<strong>en</strong>t à X n = x n , le noyau <strong>de</strong> transition p(.∣x n ) est la <strong>de</strong>nsitéd’une loi gaussi<strong>en</strong>ne.Dans ce cas, le calcul <strong>de</strong> α n et <strong>de</strong> β n est possible <strong>de</strong> manière directe par le filtrage <strong>de</strong>Kalman et l’algorithme <strong>de</strong> Rauch-Tung-Striebel (RTS) [105], qui est un algorithme<strong>de</strong> lissage. Considérons l’écriture suivante du modèle :{ X n+1 =FX n +ǫ n ,Y n =m y +HX n +ξ n(I.34)avecX 1 ∼N(m 1 ,V 1 ), et lesǫ n ∼N(0,R) i<strong>de</strong>ntiquem<strong>en</strong>t distribués et tels queǫ n x n ,les ξ n ∼N(0,Q) et tels que ξ n x n . Dans la sous-section suivante, nous détaillonsle filtre <strong>de</strong> Kalman.17

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!