14.06.2014 Views

Introduction à la commande stochastique v.0.9 - Jean-Pierre ...

Introduction à la commande stochastique v.0.9 - Jean-Pierre ...

Introduction à la commande stochastique v.0.9 - Jean-Pierre ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

7. RÉALISATION ET IDENTIFICATION 57<br />

Si <strong>la</strong> chaîne de Markov a E états, q n est un processus aléatoire de sauts<br />

vivant dans le simplexe :<br />

{<br />

}<br />

n∑<br />

Z E = x | x i = 1, x i ≥ 0, i = 1, ··· , n .<br />

Ses sauts sont définis par :<br />

i=1<br />

q → qMy<br />

qM y 1 avec <strong>la</strong> probabilité qMy 1 .<br />

6.2. EQUATION DE LA PROGRAMMATION DYNAMIQUE<br />

Nous nous p<strong>la</strong>çons maintenant dans le cadre général d’une chaîne de<br />

Markov commandée en observation incomplète. Nous nous donnons donc<br />

le 7-uple:<br />

(T , E, F, G , M uy , p 0 , c uy )<br />

L’état <strong>à</strong>mémoriser pour pouvoir appliquer <strong>la</strong> programmation dynamique<br />

est <strong>la</strong> loi conditionnelle de l’état connaissant le passé des observations. La<br />

récurrence en temps devient alors ∀q ∈ Z E :<br />

[ }<br />

qM<br />

{v n+1 uy<br />

v n (q) = min<br />

u∈F<br />

∑<br />

y∈G<br />

qM uy 1<br />

]<br />

qM uy 1 + (q, c uy )<br />

L’argument du minimum donne une fonction de q qui est une fonction des<br />

observations par l’intermédiaire du filtre optimal.<br />

On remarque que <strong>la</strong> résolution de cette équation est d’un ordre de grandeur<br />

plus difficile <strong>à</strong>résoudre que l’équation de <strong>la</strong> programmation dynamique<br />

dans le cas de l’observation complète. En effet si dans ce dernier cas<br />

l’état est fini de cardinalité E, dans le cas de l’observation incomplète il est<br />

de dimension E − 1. La discrétisation de cet espace en n points sur chaque<br />

dimension conduit <strong>à</strong> une autre chaîne de Markov dont l’état est de cardinalité<br />

n E−1 . Cette complexité est tellement grande que cette approche est, en<br />

général, sans intérêt pratique.<br />

.<br />

7. RÉALISATION ET IDENTIFICATION<br />

Pour pouvoir faire de <strong>la</strong> <strong>commande</strong> il faut connaître <strong>la</strong> loi de <strong>la</strong> chaîne<br />

de Markov. Or bien souvent on ne <strong>la</strong> connaît pas. Par contre on observe<br />

souvent une trajectoire d’un processus que l’on aimerait bien modéliser par<br />

une chaîne de Markov. C’est le problème de l’identification. Nous donnons<br />

deux résultats : le premier est un résultat purement algébrique donnant <strong>la</strong><br />

cardinalité de l’espace d’état dans le cadre le plus général, le second est<br />

intéressant pratiquement, bien que trivial, il donne un estimateur de <strong>la</strong> matrice<br />

de transition. Ce dernier n’est va<strong>la</strong>ble que dans le cas particulier de<br />

l’observation complète.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!