Introduction à la commande stochastique v.0.9 - Jean-Pierre ...
Introduction à la commande stochastique v.0.9 - Jean-Pierre ...
Introduction à la commande stochastique v.0.9 - Jean-Pierre ...
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
7. RÉALISATION ET IDENTIFICATION 57<br />
Si <strong>la</strong> chaîne de Markov a E états, q n est un processus aléatoire de sauts<br />
vivant dans le simplexe :<br />
{<br />
}<br />
n∑<br />
Z E = x | x i = 1, x i ≥ 0, i = 1, ··· , n .<br />
Ses sauts sont définis par :<br />
i=1<br />
q → qMy<br />
qM y 1 avec <strong>la</strong> probabilité qMy 1 .<br />
6.2. EQUATION DE LA PROGRAMMATION DYNAMIQUE<br />
Nous nous p<strong>la</strong>çons maintenant dans le cadre général d’une chaîne de<br />
Markov commandée en observation incomplète. Nous nous donnons donc<br />
le 7-uple:<br />
(T , E, F, G , M uy , p 0 , c uy )<br />
L’état <strong>à</strong>mémoriser pour pouvoir appliquer <strong>la</strong> programmation dynamique<br />
est <strong>la</strong> loi conditionnelle de l’état connaissant le passé des observations. La<br />
récurrence en temps devient alors ∀q ∈ Z E :<br />
[ }<br />
qM<br />
{v n+1 uy<br />
v n (q) = min<br />
u∈F<br />
∑<br />
y∈G<br />
qM uy 1<br />
]<br />
qM uy 1 + (q, c uy )<br />
L’argument du minimum donne une fonction de q qui est une fonction des<br />
observations par l’intermédiaire du filtre optimal.<br />
On remarque que <strong>la</strong> résolution de cette équation est d’un ordre de grandeur<br />
plus difficile <strong>à</strong>résoudre que l’équation de <strong>la</strong> programmation dynamique<br />
dans le cas de l’observation complète. En effet si dans ce dernier cas<br />
l’état est fini de cardinalité E, dans le cas de l’observation incomplète il est<br />
de dimension E − 1. La discrétisation de cet espace en n points sur chaque<br />
dimension conduit <strong>à</strong> une autre chaîne de Markov dont l’état est de cardinalité<br />
n E−1 . Cette complexité est tellement grande que cette approche est, en<br />
général, sans intérêt pratique.<br />
.<br />
7. RÉALISATION ET IDENTIFICATION<br />
Pour pouvoir faire de <strong>la</strong> <strong>commande</strong> il faut connaître <strong>la</strong> loi de <strong>la</strong> chaîne<br />
de Markov. Or bien souvent on ne <strong>la</strong> connaît pas. Par contre on observe<br />
souvent une trajectoire d’un processus que l’on aimerait bien modéliser par<br />
une chaîne de Markov. C’est le problème de l’identification. Nous donnons<br />
deux résultats : le premier est un résultat purement algébrique donnant <strong>la</strong><br />
cardinalité de l’espace d’état dans le cadre le plus général, le second est<br />
intéressant pratiquement, bien que trivial, il donne un estimateur de <strong>la</strong> matrice<br />
de transition. Ce dernier n’est va<strong>la</strong>ble que dans le cas particulier de<br />
l’observation complète.