10.07.2015 Views

Modèles de Markov triplets en restauration des signaux

Modèles de Markov triplets en restauration des signaux

Modèles de Markov triplets en restauration des signaux

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

CHAPITRE V. CHAÎNES CONDITIONNELLEMENT LINÉAIRES À SAUTSMARKOVIENSet pour le filtrage :E[X n+1 ∣r n+1 ,y 1∶n+1 ] = ∑r nE[X n+1 ∣r n ,r n+1 ,y 1∶n+1 ]p(r n ∣r n+1 ,y 1∶n+1 )= ∑r nF n+1 (r n+1 ,y n+1 )E[X n ∣r n ,y 1∶n ]p(r n ∣r n+1 ,y 1∶n+1 )+∑r nH n+1 (r n+1 ,y n+1 )p(r n ∣r n+1 ,y 1∶n+1 )les probabilitésp(r n ∣r n+1 ,y 1∶N ) etp(r n ∣r n+1 ,y 1∶n+1 ) sont calculables dès quep(r n ,y n+1 ∣r n−1 ,y 1∶n−1 )sont calculables, nous avons :etp(r n ∣r n+1 ,y 1∶N ) = p(r n,r n+1 ,y 1∶N )p(r n+1 ,y 1∶N )= p(r n,y 1∶n )p(y n+1∶N ,r n+1 ∣r n ,y 1∶n )̃α n+1 (r n+1 )̃β n+1 (r n+1 )= p(r n,y 1∶n )p(y n+2∶N ∣r n+1 ,y 1∶n+1 )p(r n+1 ,y n+1 ∣r n ,y 1∶n )̃α n+1 (r n+1 )̃β n+1 (r n+1 )̃α n (r n )=̃α n+1 (r n+1 ) p(r n+1,y n+1 ∣r n ,y 1∶n )p(r n ∣r n+1 ,y 1∶n+1 ) = p(r n,r n+1 ,y 1∶n+1 )p(r n+1 ,y 1∶n+1 )= p(r n,y 1∶n )p(r n+1 ,y n+1 ∣r n ,y 1∶n )p(r n+1 ,y 1∶n+1 )p(r n ,y 1∶n )=p(r n+1 ,y 1∶n+1 ) p(r n+1,y n+1 ∣r n ,y 1∶n )L’hypothèse que(R,Y) est une chaîne Gaussi<strong>en</strong>ne partiellem<strong>en</strong>t <strong>de</strong> <strong>Markov</strong> permetainsi <strong>de</strong> pr<strong>en</strong>dre <strong>en</strong> considération <strong>de</strong>s chaînes à bruit <strong>de</strong> mémoire longue et <strong>de</strong> faire<strong>de</strong>s calculs exacts dans le cas d’un modèle à sauts markovi<strong>en</strong>s. On peut considérerle cas particulier <strong>de</strong>s CCLSM-BG, le le bruit gaussi<strong>en</strong> est "à mémoire longue". Nousappellerons ces modèles "chaîne conditionnellem<strong>en</strong>t linéaire à sauts markovi<strong>en</strong>s etbruit gaussi<strong>en</strong> à mémoire longue" (CCLSM-GML). En particulier, lorsque ce bruitest paramétré, il est possible d’estimer la loi <strong>de</strong>(R,Y) à partir <strong>de</strong> Y , ce qui permet<strong>de</strong> proposer <strong>de</strong>s métho<strong>de</strong>s <strong>de</strong> filtrage "semi-supervisées".Proposition V.5 SoitT=(X,R,Y)une chaîne conditionnellem<strong>en</strong>t linéaire à sautsmarkovi<strong>en</strong>s et bruit gaussi<strong>en</strong> à mémoire longue (CCLSM-GML). Alors le lissage (resp. le filtrage )est réalisable avec une complexité linéaire <strong>en</strong> N (resp. <strong>en</strong> n).Preuve : même preuve que la preuve <strong>de</strong> la proposition (V.4).Nous prés<strong>en</strong>tons dans la sous-section suivante quelques premiers résultats numériquesobt<strong>en</strong>us avec les modèles CCLSM-GML.110

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!