14.06.2014 Views

Introduction à la commande stochastique v.0.9 - Jean-Pierre ...

Introduction à la commande stochastique v.0.9 - Jean-Pierre ...

Introduction à la commande stochastique v.0.9 - Jean-Pierre ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

7. FILTRAGE ET COMMANDE EN OBSERVATION INCOMPLÈTE 145<br />

2. Si on appelle q <strong>la</strong> probabilité conditionnelle d’un état connaissant le<br />

passé des <strong>commande</strong>s et des observations jusqu’<strong>à</strong> l’étape n, <strong>la</strong>probabilité<br />

conditionnelle (q ′ (u))<strong>à</strong>l’étape n + 1dépend de <strong>la</strong> valeur de<br />

<strong>la</strong> <strong>commande</strong> u prise <strong>à</strong> l’instant n et prend les valeurs<br />

• q ′ (1) = qM 10 avec <strong>la</strong> probabilité 1 (probabilité pour que y =<br />

0) ;<br />

• q ′ (2) = ( 1 0 ) avec <strong>la</strong> probabilité q2 n (probabilité d’observer<br />

une panne compte tenu de l’observation du passé, dans le cas<br />

oùonatestélesystème);<br />

• q ′ (2) = qM 22 /q 1 avec <strong>la</strong> probabilité q 1 (probabilité d’observer<br />

le système en état de fonctionnement compte tenu des observations<br />

passées, dans le cas oùonatestélesystème).<br />

3. Le critère <strong>à</strong> optimiser<br />

min<br />

U<br />

E [<br />

n ∑<br />

0<br />

]<br />

c U n<br />

X n<br />

où U n désigne <strong>la</strong> suite des décisions prises et X n <strong>la</strong> suite des états de<br />

<strong>la</strong> chaîne de Markov avec<br />

( )<br />

0 k1<br />

c =<br />

,<br />

k 0 k 0 + k 1 + k 2<br />

où<strong>la</strong>première colonne correspond <strong>à</strong> <strong>la</strong> <strong>commande</strong> 1 et <strong>la</strong> deuxième<br />

colonne <strong>à</strong> <strong>la</strong> <strong>commande</strong> 2. Ce critère se réécrit en utilisant l’<br />

espérance conditionnelle q n calculée <strong>à</strong> <strong>la</strong> question précédente<br />

[ ]<br />

n<br />

min E ∑ ∑<br />

q n x<br />

U<br />

cU n<br />

x .<br />

0<br />

x<br />

4. q n étant un processus de Markov l’équation de <strong>la</strong> programmation<br />

dynamique en horizon fini s’écrit<br />

v n (q) = min{v n+1 (qM 10 ) + q 2 k 0 ,<br />

où<br />

v n+1 (( 1 0 )) q 2 + v n+1 (qM 22 /q 1 )q 1 + q.c 2 } ,<br />

v n (q) = min<br />

U<br />

[<br />

N E ∑ ∑<br />

k<br />

x<br />

q k x cU k<br />

x<br />

,<br />

| q n = q<br />

5. Pour résoudre ce problème il va falloir se ramener au contrôle d’une<br />

chaîne de Markov ayant un nombre fini d’états et donc discretiser<br />

l’ensemble q ∈ R 2 , q 1 + q 2 = 1, q 1 , q 2 ≥ 0enunensemblefini<strong>à</strong><br />

p + 1 valeurs en {[0, 1], [h,(p − 1)h], ··· , [1, 0]} avec h = 1/p et<br />

approximer les sauts faits par l’espérance conditionnelle de telle sorte<br />

qu’elle reste sur le mail<strong>la</strong>ge. On est ensuite ramené <strong>à</strong> un problème<br />

c<strong>la</strong>ssique de chaînes de Markov <strong>à</strong>états finis dans le cas de l’observation<br />

complète (l’espérance conditionnelle est en effet observé).<br />

]<br />

.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!