CHAPITRE V. CHAÎNES CONDITIONNELLEMENT LINÉAIRES À SAUTSMARKOVIENSNotons que dans une CCPM nous avons l’indép<strong>en</strong>dance conditionnelle suivante :Z n+1∶N X 1∶n−1 ∣(Z n ,Y 1∶n−1 )(V.4)Par ailleurs, les transitions p(z n ∣z 1∶n−1 ) peuv<strong>en</strong>t s’écrire :p(z n ∣z 1∶n−1 )=p(x n ∣x n−1 ,y 1∶n−1 )p(y n ∣x n ,x n−1 ,y 1∶n−1 )(V.5)Notons égalem<strong>en</strong>t que dans le cas général, aucun <strong>de</strong>s processus X, Z n’est ainsinécessairem<strong>en</strong>t <strong>de</strong> <strong>Markov</strong>. Cep<strong>en</strong>dant, l’important est que la loi <strong>de</strong>X conditionnelleà Y est markovi<strong>en</strong>ne. Cette propriété fait l’objet <strong>de</strong> la proposition suivante.Proposition V.1 Soit Z =(X n ,Y n ) 1∶N une CCPM. Alors la distribution <strong>de</strong> Xconditionnelle à Y=y 1∶N est markovi<strong>en</strong>ne.Preuve : Nous avons :p(x n ∣x 1∶n−1 ,y) = ∑x n+1∶Np(x n ,x n+1∶N ∣x 1∶n−1 ,y)= ∑ x n+1∶Np(z)∑ xn∶Np(z)= ∑ x n+1∶Np(z 1∶n−1 )p(z n ,z n+1∶N ∣z 1∶n−1 )∑ xn∶Np(z 1∶n−1 )p(z n∶N ∣z 1∶n−1 )= ∑ x n+1∶Np(z 1∶n−1 )p(z n ∣z 1∶n−1 )p(z n+1∶N ∣z 1∶n )∑ xn∶Np(z 1∶n−1 )p(z n∶N ∣z 1∶n−1 )= p(z n ∣z 1∶n−1 ) ∑ x n+1∶Np(z n+1∶N ∣z 1∶n )∑ xn∶Np(z n∶N ∣z 1∶n−1 )D’après (V.5) on ap(z n ∣z 1∶n−1 )=p(z n ∣z n−1 ,y 1∶n−2 ) etp(z n∶N ∣z 1∶n−1 )=p(z n∶N ∣z n−1 ,y 1∶n−2 ),d’où :Par ailleurs :p(x n ∣x 1∶n−1 ,y) = p(z n ∣z n−1 ,y 1∶n−2 ) ∑ x n+1∶Np(z n+1∶N ∣z n ,y 1∶n−1 )∑ xn∶Np(z n∶N ∣z n−1 ,y 1∶n−2 )= p(z n ∣z n−1 ,y 1∶n−2 ) p(y n+1∶N∣z n ,y 1∶n−1 )p(y n∶N ∣z n−1 ,y 1∶n−2 )p(x n−1 ,y 1∶N ) = p(x n−1 ,y 1∶n−1 )p(y n∶N ∣x n−1 ,y 1∶n−1 )et <strong>en</strong> utilisant y n+1∶N x n−1 ∣z n ,y 1∶n−1 := p(x n−1 ,y 1∶n−1 )p(y n∶N ∣z n−1 ,y 1∶n−2 )102p(x n ,x n−1 ,y 1∶N ) = p(x n−1 ,y 1∶n−1 )p(x n ,y n∶N ∣x n−1 ,y 1∶n−1 )= p(x n−1 ,y 1∶n−1 )p(x n ,y n ∣x n−1 ,y 1∶n−1 )p(y n+1∶N ∣x n−1∶n ,y 1∶n )= p(x n−1 ,y 1∶n−1 )p(z n ∣z n−1 ,y 1∶n−2 )p(y n+1∶N ∣x n−1∶n ,y 1∶n )= p(x n−1 ,y 1∶n−1 )p(z n ∣z n−1 ,y 1∶n−2 )p(y n+1∶N ∣z n ,x n−1 ,y 1∶n−1 )= p(x n−1 ,y 1∶n−1 )p(z n ∣z n−1 ,y 1∶n−2 )p(y n+1∶N ∣z n ,y 1∶n−1 )
CHAPITRE V. CHAÎNES CONDITIONNELLEMENT LINÉAIRES À SAUTSMARKOVIENSpar i<strong>de</strong>ntification nous obt<strong>en</strong>ons :p(x n ∣x 1∶n−1 ,y 1∶N )=p(x n ∣x n−1 ,y 1∶N )(V.6)d’où le résultatLe fait que la loi a posteriori soit celle d’une chaîne <strong>de</strong> <strong>Markov</strong> permet d’utiliserles algorithmes classiques <strong>de</strong> <strong>restauration</strong> tels que le filtrage <strong>de</strong> Kalman ou l’algorithme<strong>de</strong> Baum-Welsh. Cep<strong>en</strong>dant, une condition supplém<strong>en</strong>taire liée à la mémoirelongue apparaît : les quantités p(z n ∣z n−1 ,y 1∶n−2 ) doiv<strong>en</strong>t être calculables. En effet,nous avons :p(x n ∣y 1∶N )∝̃α n (x n )̃β n (x n )(V.7)̃β n (x n )p(x n ∣x n−1 ,y 1∶N )=p(z n ∣z n−1 ,y 1∶n−2 )̃β n−1 (x n−1 )(V.8)avec les̃α n (x n )=p(x n ,y 1∶n ) et les̃β n (x n )=p(y n+1∶N ∣x n ,y 1∶n ) calculables par récurr<strong>en</strong>ce:̃α 1 (x 1 )=p(x 1 ,y 1 ) et∀n≥2, ̃α n (x n )=∑x n−1̃α n−1 (x n−1 )p(z n ∣z n−1 ,y 1∶n−2 )(V.9)̃β N (x N )=1 et∀n≤N−1, ̃βn (x n )=∑x n+1̃βn+1 (x n+1 )p(z n+1 ∣z n ,y 1∶n−1 )(V.10)Ainsi toutes quantités sont calculables dès que p(z n ∣z n−1 ,y 1∶n−2 ) apparaissant dans lecalcul <strong>de</strong>s̃α n (x n ) et les̃β n (x n ) sont calculables. Dans le cas où Y est un processusgaussi<strong>en</strong> conditionnellem<strong>en</strong>t à X, que nous précisons ci-après, ces quantités sontcalculables grâce aux propriétés <strong>de</strong>s vecteurs gaussi<strong>en</strong>s (voir Annexe.C). Dans lasuite nous nous intéressons au cas où p(y∣x) est la loi d’un processus gaussi<strong>en</strong> àmémoire longue.V.2.2 Chaînes <strong>de</strong> <strong>Markov</strong> cachées par du bruit gaussi<strong>en</strong>(CMC-BG)Plusieurs types <strong>de</strong> modèles ont été proposés par J. Lapuya<strong>de</strong> dans [70], quipermett<strong>en</strong>t <strong>de</strong> pr<strong>en</strong>dre <strong>en</strong> considération les données à mémoire longue et d’appliquerles algorithmes <strong>de</strong> <strong>restauration</strong> <strong>de</strong>s données manquantes. Parmi ces <strong>de</strong>rniers nouspouvons citer le modèle <strong>de</strong> la chaîne <strong>de</strong> <strong>Markov</strong> cachée par du bruit gaussi<strong>en</strong> (CMC-BG). Les hypothèses <strong>de</strong> ce modèle, dans lequel les calculs <strong>de</strong>s quantités d’intérêtsont possibles avec une complexité linéaire <strong>en</strong> N sont les suivantes :Définition V.5 Soit une chaîne couple Z=(X n ,Y n ) 1∶N , dont les X n sont à valeursdansX={ω 1 ,...,ω K } et les Y n sont à valeurs dansY= R. Soi<strong>en</strong>t q i ,..,q K distributionsgaussi<strong>en</strong>nes sur R N , chaqueq i définissantN−1 transitions q i (y 2 ∣y 1 ),..,q i (y N ∣y N−1 ).La chaîne Z est dite « chaîne <strong>de</strong> <strong>Markov</strong> cachée par du bruit gaussi<strong>en</strong> » (CMC-BG)si sa loi vérifie :103