10.07.2015 Views

Modèles de Markov triplets en restauration des signaux

Modèles de Markov triplets en restauration des signaux

Modèles de Markov triplets en restauration des signaux

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

CHAPITRE III. ESTIMATION DES PARAMÈTRESL’algorithme EM procè<strong>de</strong> d’une manière iterative pour maximiser la log-vraisemblancecomplète (III.4) <strong>en</strong> utilisant l’espérance conditionnelle <strong>de</strong>(X,Y). Supposons que àl’itération q, nous disposons <strong>de</strong> la valeur courante θ q <strong>de</strong> θ alors l’accroissem<strong>en</strong>t estdonné par :L(y∣θ)−L(y∣θ q )=L c (z∣θ)−L c (z∣θ q )+log[ p(x∣y,θq )p(x∣y,θ) ],(III.7)et l’espérance <strong>de</strong> l’accroissem<strong>en</strong>t, qui est une constante car elle ne dép<strong>en</strong>d pas <strong>de</strong> X,est :L(y∣θ)−L(y∣θ q )=E θ q[L c (z∣θ)−L c (z∣θ q )∣Y=y]+E θ q[log[ p(x∣y,θq )]∣Y=y] (III.8)p(x∣y,θ)Le terme E θ q[log[ p(x∣y,θq )p(x∣y,θ) ]] s’appelle distance <strong>de</strong> Kullback <strong>de</strong> p(x∣y,θq ) par rapportà p(x∣y,θ), qui toujours positive ou nulle d’après l’inégalité <strong>de</strong> J<strong>en</strong>s<strong>en</strong> 1 .E θ q[log[ p(x∣y,θq )p(x∣y,θ) ]∣Y=y]≥0(III.9)Si on pose Q(θ,θ q )=E θ q[L c (Z∣θ)∣Y=y], nous obt<strong>en</strong>ons l’inégalité suivante, du faitque (III.9) est positive ou nulle :L(y∣θ)−L(y∣θ q )≥Q(θ,θ q )−Q(θ q ,θ q )(III.10)il <strong>en</strong> résulte que toute valeur <strong>de</strong> θ qui fait croître Q(θ,θ q )−Q(θ q ,θ q ) fait aussi croîtreL(y∣θ). Et puisque Q(θ q ,θ q ) est une constante par rapport à θ, il suffit <strong>de</strong> maximiserQ(θ,θ q ) par rapport à θ, pour obt<strong>en</strong>ir θ q+1 :θ q+1 =argmaxQ(θ,θ q ) (III.11)θ∈R MPour obt<strong>en</strong>ir l’étape <strong>de</strong> maximisation nous pouvons utiliser les algorithmes <strong>de</strong> maximisationtel que la <strong>de</strong>sc<strong>en</strong>te du gradi<strong>en</strong>t, le gradi<strong>en</strong>t conjugué ou <strong>en</strong>core l’algorithme<strong>de</strong> Newton Raphson dans le cas vectoriel. Finalem<strong>en</strong>t, le déroulem<strong>en</strong>t <strong>de</strong> l’algorithmeEM est le suivant :Algorithme III.1 Choix d’une valeur θ 0 comme valeur initiale;Répéter jusqu’à critère d’arrêt :◻ Étape (E) :Q(θ,θ q )=E[L c (X,Y∣θ)∣Y=y,θ q ]◻ Étape (M) : choisir θ q+1 tel que :θ q+1 =argmaxθ∈R M Q(θ,θ q )III.1.2 Variantes <strong>de</strong> l’algorithme EMLa mise <strong>en</strong> oeuvre <strong>de</strong> l’algorithme EM pose parfois <strong>de</strong>s problèmes et pour simplifierson implém<strong>en</strong>tation <strong>de</strong>s variantes <strong>de</strong> ce <strong>de</strong>rnier ont été proposées.1. Inégalité <strong>de</strong> J<strong>en</strong>s<strong>en</strong> : soit f une fonction convexe sur]a,b[ et X une v.a d’espérance fini, àvaleurs dans]a,b[ alors f(E[X])≤E[f(X)]43

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!