CHAPITRE V. CHAÎNES CONDITIONNELLEMENT LINÉAIRES À SAUTSMARKOVIENSNous utilisons comme estimateur pour p i,j = p(x n = ω i ,x n+1 = ω j ) à partir <strong>de</strong>sdonnées complètes l’estimateur classique donné par :̂p i,j (x,y)=N−11(N−1)∑n=11(x n =ω i ,x n+1 =ω j )À chaque itération(q) <strong>de</strong> l’algorithme ICE, l’espérance conditionnelle <strong>de</strong> l’estimateur̂p i,j est calculable et elle est donnée par :p (q+1)i,j=N−11(N−1)∑n=1p(x n =ω i ,x n+1 =ω j ∣y 1∶N ,θ (q) )Le fait que la loi <strong>de</strong> y n dép<strong>en</strong>d <strong>de</strong> tous les x k 1≤k≤n r<strong>en</strong>d la tache d’estimation <strong>de</strong>sparamètres m ωi et γ ωi (0) à partir <strong>de</strong>s données complètes non triviale. Pour illustrercette difficulté <strong>de</strong>s exemples sont donnés dans [66, 70], ainsi que une <strong>de</strong>scription<strong>de</strong> l’algorithme ICE pour différ<strong>en</strong>ts types <strong>de</strong> modèles (bruit stationnaire <strong>de</strong> secondordre, bruits gaussi<strong>en</strong>s fractionnaires, FARIMA). Dans le cas du bruit stationnaire<strong>de</strong> second ordre avec une famille <strong>de</strong> covariances considérée <strong>de</strong> la forme donnée par(V.23), l’algorithme ICE, pour estimer m ωi , σ ωi et α ωi , se déroule <strong>de</strong> la manièresuivante [66,70] :Algorithme V.1 Estimation <strong>de</strong>s paramètres m ωi , σ ωi et α ωi par ICE cas <strong>de</strong> bruitstationnaire <strong>de</strong> second ordre (V.23) :1. Sous θ (q) , calculer les <strong>de</strong>nsités p(y 1∶n+1 ∣x 1∶n+1 ) par la récurr<strong>en</strong>ce progressive(décrite par les équations (V.13) et (V.14)) et <strong>en</strong> utilisant m ωi =m (q)ω iet Γ n ω i=Γ n,(q)ω i;2. Considérer J(i)={n 1 ,..,n r } sous-<strong>en</strong>semble <strong>de</strong>{1,..,N} tel que∀1≤l≤r,x nl =x nl +1=ω i . Considérer les r échantillons correspondants(y n1 ,y n1 +1),..,(y nr ,y nr+1);3. soi<strong>en</strong>t∀1≤l≤r, M x (q)nl ∶n l +1et Γ (q)x nl ∶n l +1les vecteurs moy<strong>en</strong>ne et matrices <strong>de</strong>covariance <strong>de</strong> p(y nl ∶n l +1∣x 1∶nl +1) calculées dans l’étape (1). Calculer les transformations<strong>de</strong> Cholesky (IV.2) Γ (q)x nl ∶n l +1= C l Cl T et Γ 2,(q)ω i= D l Dl T et construireles r nouveaux échantillons,∀1≤l≤r :( ỹn lỹ nl +1)=D l C −1l [( y n ly nl +1)−M (q)x nl ∶n l +1](C T l )−1 D T l +m 2,(q)ω i;4. estimer les paramètres m ωi , σ 2 ω iet α ωi à partir <strong>de</strong> r nouveaux échantillonsobt<strong>en</strong>us l’étape dans (3) par :m (q+1)ω i= 1 2 (m(q+1) ω i ,(1) +m(q+1) ω i ,(2) );(σ 2 ω i) (q+1) = 1 2 (̂γ (1)(0)+̂γ (2) (0));α (q+1)ω îγ(1)](σω 2 i) (q+1)log[= −log(2)112avec m (q+1) = 1 ω i ,(1) r ∑r l=1ỹ nl , m (q+1) = 1 ω i ,(2) r ∑r l=1ỹ nl +1,̂γ (1) (0)= 1 r ∑r l=1(ỹ nl −m (q+1)ω i ,(1) )2 ,̂γ (2) (0)= 1 r ∑r l=1(ỹ nl +1−m (q+1)ω i ,(2) )2 et̂γ(1)= 1 r ∑r l=1(ỹ nl −m (q+1) )(ỹ ω i ,(1) n l +1−m (q+1) ) ω i ,(2)
CHAPITRE V. CHAÎNES CONDITIONNELLEMENT LINÉAIRES À SAUTSMARKOVIENSLes résultats <strong>de</strong>s trois premières segm<strong>en</strong>tations, obt<strong>en</strong>ues avec CMC-BI, sontprés<strong>en</strong>tés à la figure (V.4), et les taux d’erreur sont donnés dans la première colonne<strong>de</strong> la table (V.1). Nous constatons que les données simulées selon CMC-BI sontpresque parfaitem<strong>en</strong>t restaurées; par contre, lorsque les données sont à mémoirelongue les résultats sont soit très mauvais, soit relativem<strong>en</strong>t médiocres. L’association<strong>de</strong> CMC-BI avec ICE apparaît ainsi, lorsque les données sont à mémoire longue,comme étant peu robuste.Les résultats <strong>de</strong>s trois segm<strong>en</strong>tations suivantes, obt<strong>en</strong>ues avec CCLSM-GML,sont prés<strong>en</strong>tés à la figure (V.5), et les taux d’erreur sont donnés dans la <strong>de</strong>uxièmecolonne <strong>de</strong> la table (V.1). Nous constatons que les données simulées selon CMC-BIsont restaurées avec la même qualité que celle donnée par la métho<strong>de</strong> fondée surCMC-BI. Ce constat est intéressant car CMC-BI n’est pas, à proprem<strong>en</strong>t parlé, uncas particulier <strong>de</strong> CCLSM-GML. Cela montre que CCLSM-GML peut gérer efficacem<strong>en</strong>t<strong>de</strong>s bruits non corrélés.Dans la <strong>de</strong>uxième série on s’intéresse au filtrage <strong>de</strong> Y .113