10.07.2015 Views

Modèles de Markov triplets en restauration des signaux

Modèles de Markov triplets en restauration des signaux

Modèles de Markov triplets en restauration des signaux

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

CHAPITRE V. CHAÎNES CONDITIONNELLEMENT LINÉAIRES À SAUTSMARKOVIENS1. p(x n+1 ∣x n ,y 1∶n )=p(x n+1 ∣x n );2. p(y n+1 ∣x n ,x n+1 ,y 1∶n )=p(y n+1 ∣x n+1 ,y 1∶n );3. p(y n+1 ∣x n+1 =ω i ,y 1∶n )=q i (y n+1 ∣y 1∶n ).Notons que dans une CMC-BC la chaîne cachée X est markovi<strong>en</strong>ne. La loi d’uneCMC-BG est ainsi donnée par la loi <strong>de</strong> X et K lois <strong>de</strong>s K processus gaussi<strong>en</strong>sdéfinies par les lois p(y 1∶n+1 ∣x n+1 = ω 1 ), ..., p(y 1∶n+1 ∣x n+1 = ω K ), ces <strong>de</strong>rnières étantdonnées par les K lois gaussi<strong>en</strong>nes, correspondant aux K classes, du vecteur Y 1∶N .Notons égalem<strong>en</strong>t que le point 2. n’est pas indisp<strong>en</strong>sable; cep<strong>en</strong>dant, on simplifielégèrem<strong>en</strong>t le modèle pour le r<strong>en</strong>dre plus "parlant" (dans la version simplifiée l<strong>en</strong>ombre <strong>de</strong>s bruitages gaussi<strong>en</strong>s différ<strong>en</strong>ts correspond au nombre <strong>de</strong>s classes).Les quantités p(z n ∣z n−1 ,y 1∶n−2 ) sont alors calculables dans une récurr<strong>en</strong>ce préalableprogressive. En effet, les moy<strong>en</strong>nes̃m xn+1 et les variances̃γ xn+1 <strong>de</strong>s loisp(y n+1 ∣x n+1 ,y 1∶n )peuv<strong>en</strong>t être calculées par les récurr<strong>en</strong>ces suivantes. On pose y 1 ∣x 1 ∼N(m x1 ,γ x1 (0))et pour tout 1≤n≤N− 1, y n+1 ∣x n+1 ∼N(m xn+1 ,γ xn+1 (0)). Les matrices d’autocorrélationcorrespondant aux K lois gaussi<strong>en</strong>nes du vecteur Y 1∶N sont donc supposéesconnues :Γ n+1x n+1=⎛⎜⎝γ xn+1 (0) γ xn+1 (1) ... γ xn+1 (n)γ xn+1 (1) γ xn+1 (0) ... γ xn+1 (n−1)⋮ ⋮ ⋱ ⋮γ xn+1 (n) γ xn+1 (n−1) ... γ xn+1 (0)⎞⎟⎠=( Γn x n+1 Γ 2,1x n+1Γ 1,2x n+1γ xn+1 (0) )En utilisant les propriétés <strong>de</strong> vecteurs gaussi<strong>en</strong>s (voir Annexe C), nous obt<strong>en</strong>ons :̃m xn+1 =m xn+1 +Γ 2,1x n+1(Γ n x n+1) −1 (y 1∶n −m n x n+1)(V.11)̃γ xn+1 =γ xn+1 −Γ 2,1x n+1(Γ n x n+1) −1 Γ 1,2x n+1(V.12)avecm n x n+1=(m xn+1 ,...,m xn+1 ). Nous pouvons égalem<strong>en</strong>t calculer les lois gaussi<strong>en</strong>nesn foisp(y 1∶n+1 ∣x 1∶n+1 )∼N(M x1∶n+1 ,Γ x1∶n+1 ) par récurr<strong>en</strong>ce :● Initialisation :M x1 =m x1 et Γ x1 =γ x1 (0)●∀ 2≤n≤NM x1∶n+1 =(M x1∶nm xn+1 +Γ 2,1x n+1(Γ n x n+1) −1 [M x1∶n −m n x n+1] ) et(V.13)Γ x1∶n+1 =(Γ x1∶n Γ x1∶n (Γ n x n+1) −1 Γ 1,2x n+1Γ 2,1x n+1(Γ n x n+1) −1 Γ x1∶n γ xn+1 (0)+Γ 2,1x n+1(Γ n x n+1) −1 [Γ x1∶n (Γ n x n+1) −1 Γ 1,2x n+1−Γ 1,2(V.14)Le modèle CMC-BG est général dans la mesure où les matrices <strong>de</strong>s covariance ci<strong>de</strong>ssussont quelconques. Lorsque ces matrices définiss<strong>en</strong>t <strong>de</strong>s distributions gaussi<strong>en</strong>nes« à mémoire longue », on obti<strong>en</strong>t le modèle « chaîne <strong>de</strong> <strong>Markov</strong> cachée pardu bruit gaussi<strong>en</strong> à mémoire longue » (CMC-GML) :104x n+1] )

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!