Introduction à la commande stochastique v.0.9 - Jean-Pierre ...
Introduction à la commande stochastique v.0.9 - Jean-Pierre ...
Introduction à la commande stochastique v.0.9 - Jean-Pierre ...
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
7. FILTRAGE ET COMMANDE EN OBSERVATION INCOMPLÈTE 141<br />
8. Par identification avec<br />
Ĥ(δ) = ⊕ t<br />
H t ⊗ δ t<br />
on peut déterminer les coefficients H t . L’expression Ŷ = Ĥ(δ) ⊗ Û<br />
montre alors que<br />
Y t = inf {H t−s + U s }<br />
s≥0<br />
c.a.d. que Y est obtenu en faisant l’inf-convolution de l’entrée U<br />
avec H qui peut être considérée comme <strong>la</strong> réponse impulsionnelle<br />
du système.<br />
Physiquement les coefficients H t de <strong>la</strong> réponse impulsionnelle<br />
sont obtenus en rendant disponible une suite infini de données <strong>à</strong><br />
l’entrée <strong>à</strong> l’instant 0 et en observant le nombre de sorties obtenu jusqu’a<br />
l’instant t.<br />
9. La modélisation dateur du processeur s’écrit<br />
X 1 n = max{U n, 1 + X 2 n−2 , 2 + X 1 n−1 } ,<br />
X 2 n = max{2 + X 1 n , 1 + X 2 n−1 } ,<br />
Y n = 1 + X 2 n .<br />
7. FILTRAGE ET COMMANDE EN OBSERVATION<br />
INCOMPLÈTE<br />
7.1. ENONCÉ<br />
Les deux questions sont indépendantes bien qu’il y ait une progression<br />
dans les notions utilisées.<br />
7.1.1. FILTRAGE. On considère une chaîne de Markov <strong>à</strong>2états dont <strong>la</strong><br />
probabilitédesauterdel’état 1 <strong>à</strong>l’état 2 est égale <strong>à</strong> celle de sauter de l’état<br />
2<strong>à</strong>l’état 1 et vaut p inconnu pouvant prendre les valeurs p 1 ou p 2 avec<br />
0 < p i < 1 pour i = 1, 2. On observe <strong>la</strong> trajectoire de <strong>la</strong> chaîne. On<br />
suppose qu’a priori il y ait une probabilité de 1/2 pour que <strong>la</strong> valeur de p<br />
soit p 1 et donc une valeur de 1/2 pour qu’elle soit p 2 .Audépart <strong>la</strong> chaîne<br />
de Markov est dans l’état 1.<br />
1. Ramenez le calcul de <strong>la</strong> probabilité a postériori que p soit égal <strong>à</strong><br />
p 1 (aprés n observations de l’état) <strong>à</strong> un problème de filtrage d’une<br />
chaîne de Markov sur un autre espace d’états.<br />
2. Donnez l’équation récurrente satisfaite par l’espérance conditionnelle<br />
pour que p = p 1 ou p 2 connaisant <strong>la</strong> trajectoire passée des<br />
états de <strong>la</strong> chaîne initiale.<br />
3. Supposons avoir observé <strong>la</strong> suite d’états (1,2,1,1). Quelle est <strong>la</strong> probabilité<br />
conditionnelle que p = p 1 .<br />
4. Supposons avoir observé k changements d’états pour N + 1 observations<br />
quelle est <strong>la</strong> probabilité conditionnelle pour que p = p 1 .