14.06.2014 Views

Introduction à la commande stochastique v.0.9 - Jean-Pierre ...

Introduction à la commande stochastique v.0.9 - Jean-Pierre ...

Introduction à la commande stochastique v.0.9 - Jean-Pierre ...

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

7. FILTRAGE ET COMMANDE EN OBSERVATION INCOMPLÈTE 141<br />

8. Par identification avec<br />

Ĥ(δ) = ⊕ t<br />

H t ⊗ δ t<br />

on peut déterminer les coefficients H t . L’expression Ŷ = Ĥ(δ) ⊗ Û<br />

montre alors que<br />

Y t = inf {H t−s + U s }<br />

s≥0<br />

c.a.d. que Y est obtenu en faisant l’inf-convolution de l’entrée U<br />

avec H qui peut être considérée comme <strong>la</strong> réponse impulsionnelle<br />

du système.<br />

Physiquement les coefficients H t de <strong>la</strong> réponse impulsionnelle<br />

sont obtenus en rendant disponible une suite infini de données <strong>à</strong><br />

l’entrée <strong>à</strong> l’instant 0 et en observant le nombre de sorties obtenu jusqu’a<br />

l’instant t.<br />

9. La modélisation dateur du processeur s’écrit<br />

X 1 n = max{U n, 1 + X 2 n−2 , 2 + X 1 n−1 } ,<br />

X 2 n = max{2 + X 1 n , 1 + X 2 n−1 } ,<br />

Y n = 1 + X 2 n .<br />

7. FILTRAGE ET COMMANDE EN OBSERVATION<br />

INCOMPLÈTE<br />

7.1. ENONCÉ<br />

Les deux questions sont indépendantes bien qu’il y ait une progression<br />

dans les notions utilisées.<br />

7.1.1. FILTRAGE. On considère une chaîne de Markov <strong>à</strong>2états dont <strong>la</strong><br />

probabilitédesauterdel’état 1 <strong>à</strong>l’état 2 est égale <strong>à</strong> celle de sauter de l’état<br />

2<strong>à</strong>l’état 1 et vaut p inconnu pouvant prendre les valeurs p 1 ou p 2 avec<br />

0 < p i < 1 pour i = 1, 2. On observe <strong>la</strong> trajectoire de <strong>la</strong> chaîne. On<br />

suppose qu’a priori il y ait une probabilité de 1/2 pour que <strong>la</strong> valeur de p<br />

soit p 1 et donc une valeur de 1/2 pour qu’elle soit p 2 .Audépart <strong>la</strong> chaîne<br />

de Markov est dans l’état 1.<br />

1. Ramenez le calcul de <strong>la</strong> probabilité a postériori que p soit égal <strong>à</strong><br />

p 1 (aprés n observations de l’état) <strong>à</strong> un problème de filtrage d’une<br />

chaîne de Markov sur un autre espace d’états.<br />

2. Donnez l’équation récurrente satisfaite par l’espérance conditionnelle<br />

pour que p = p 1 ou p 2 connaisant <strong>la</strong> trajectoire passée des<br />

états de <strong>la</strong> chaîne initiale.<br />

3. Supposons avoir observé <strong>la</strong> suite d’états (1,2,1,1). Quelle est <strong>la</strong> probabilité<br />

conditionnelle que p = p 1 .<br />

4. Supposons avoir observé k changements d’états pour N + 1 observations<br />

quelle est <strong>la</strong> probabilité conditionnelle pour que p = p 1 .

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!