Modèles de Markov triplets en restauration des signaux
Modèles de Markov triplets en restauration des signaux
Modèles de Markov triplets en restauration des signaux
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
CHAPITRE V. CHAÎNES CONDITIONNELLEMENT LINÉAIRES À SAUTSMARKOVIENSet pour le filtrage :E[X n+1 ∣r n+1 ,y 1∶n+1 ] = ∑r nE[X n+1 ∣r n ,r n+1 ,y 1∶n+1 ]p(r n ∣r n+1 ,y 1∶n+1 )= ∑r nF n+1 (r n+1 ,y n+1 )E[X n ∣r n ,y 1∶n ]p(r n ∣r n+1 ,y 1∶n+1 )+∑r nH n+1 (r n+1 ,y n+1 )p(r n ∣r n+1 ,y 1∶n+1 )les probabilitésp(r n ∣r n+1 ,y 1∶N ) etp(r n ∣r n+1 ,y 1∶n+1 ) sont calculables dès quep(r n ,y n+1 ∣r n−1 ,y 1∶n−1 )sont calculables, nous avons :etp(r n ∣r n+1 ,y 1∶N ) = p(r n,r n+1 ,y 1∶N )p(r n+1 ,y 1∶N )= p(r n,y 1∶n )p(y n+1∶N ,r n+1 ∣r n ,y 1∶n )̃α n+1 (r n+1 )̃β n+1 (r n+1 )= p(r n,y 1∶n )p(y n+2∶N ∣r n+1 ,y 1∶n+1 )p(r n+1 ,y n+1 ∣r n ,y 1∶n )̃α n+1 (r n+1 )̃β n+1 (r n+1 )̃α n (r n )=̃α n+1 (r n+1 ) p(r n+1,y n+1 ∣r n ,y 1∶n )p(r n ∣r n+1 ,y 1∶n+1 ) = p(r n,r n+1 ,y 1∶n+1 )p(r n+1 ,y 1∶n+1 )= p(r n,y 1∶n )p(r n+1 ,y n+1 ∣r n ,y 1∶n )p(r n+1 ,y 1∶n+1 )p(r n ,y 1∶n )=p(r n+1 ,y 1∶n+1 ) p(r n+1,y n+1 ∣r n ,y 1∶n )L’hypothèse que(R,Y) est une chaîne Gaussi<strong>en</strong>ne partiellem<strong>en</strong>t <strong>de</strong> <strong>Markov</strong> permetainsi <strong>de</strong> pr<strong>en</strong>dre <strong>en</strong> considération <strong>de</strong>s chaînes à bruit <strong>de</strong> mémoire longue et <strong>de</strong> faire<strong>de</strong>s calculs exacts dans le cas d’un modèle à sauts markovi<strong>en</strong>s. On peut considérerle cas particulier <strong>de</strong>s CCLSM-BG, le le bruit gaussi<strong>en</strong> est "à mémoire longue". Nousappellerons ces modèles "chaîne conditionnellem<strong>en</strong>t linéaire à sauts markovi<strong>en</strong>s etbruit gaussi<strong>en</strong> à mémoire longue" (CCLSM-GML). En particulier, lorsque ce bruitest paramétré, il est possible d’estimer la loi <strong>de</strong>(R,Y) à partir <strong>de</strong> Y , ce qui permet<strong>de</strong> proposer <strong>de</strong>s métho<strong>de</strong>s <strong>de</strong> filtrage "semi-supervisées".Proposition V.5 SoitT=(X,R,Y)une chaîne conditionnellem<strong>en</strong>t linéaire à sautsmarkovi<strong>en</strong>s et bruit gaussi<strong>en</strong> à mémoire longue (CCLSM-GML). Alors le lissage (resp. le filtrage )est réalisable avec une complexité linéaire <strong>en</strong> N (resp. <strong>en</strong> n).Preuve : même preuve que la preuve <strong>de</strong> la proposition (V.4).Nous prés<strong>en</strong>tons dans la sous-section suivante quelques premiers résultats numériquesobt<strong>en</strong>us avec les modèles CCLSM-GML.110