Introduction à la commande stochastique v.0.9 - Jean-Pierre ...
Introduction à la commande stochastique v.0.9 - Jean-Pierre ...
Introduction à la commande stochastique v.0.9 - Jean-Pierre ...
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
146 8. PROBLÈMES<br />
8. STRATÉGIES<br />
On veut étudier <strong>la</strong> maintenance d’un système de production comprenant<br />
une suite infini d’étapes. On suppose que le système n’a que deux états<br />
possibles: soit il fonctionne (x = 1), soit il ne fonctionne pas (x = 0).<br />
Si le système ne fonctionne pas, on considère que ce<strong>la</strong> coûte 1 (manque <strong>à</strong><br />
gagner pour une étape). La politique de maintenance du système consiste <strong>à</strong><br />
décider de tester ou non le système avant chaque étape de fonctionnement.<br />
Le prix du test (et de <strong>la</strong> remise en état éventuelle) est α. Sionnetestepasle<br />
système (u = 0) avant une étape, il a une probabilité ɛ de tomber en panne<br />
<strong>à</strong><strong>la</strong>findecetteétape (pendant l’étape correspondante il fonctionne). Si on<br />
le teste (u = 1) et s’il ne fonctionne pas, il est remis en état pendant une<br />
étape (il ne fonctionne donc pas pendant cette étape mais il sera en état de<br />
marche <strong>à</strong>l’étape suivante). Si au cours du test on s’apercoit qu’il fonctionne<br />
normalement, le système est entretenu, et on est assuré (probabilité 1) qu’il<br />
ne tombera pas en panne <strong>à</strong><strong>la</strong>findel’étape du test.<br />
Une politique stationnaire consiste <strong>à</strong>décider, en fonction de l’état<br />
du système <strong>à</strong>l’étape précédente, de tester ou non le système, et ceci<br />
indépendamment du numéro de l’étape considérée.<br />
8.1. ENONCÉ<br />
Pour chaque politique stationnaire donnez :<br />
1. <strong>la</strong> matrice de transition de l’état du système,<br />
2. <strong>la</strong> ou les mesures invariantes extrêmales des chaînes de Markov correspondantes<br />
(celles dont le support est le plus petit possible lorsqu’il<br />
y en a plusieurs),<br />
3. les équations de Kolmogorov donnant le coût de chacune de ces politiques,<br />
dans le cas d’une infinité d’étapes actualisées avec un taux<br />
λ>0,<br />
4. les comportements asymptotiques (premier terme) de ces coûts<br />
lorsque le taux d’actualisation tend vers 0.<br />
Quelle est <strong>la</strong> meilleure politique, dans le cas actualisé, avec un taux<br />
d’actualisation tendant vers 0, lorsque ɛ est petit, beaucoup plus petit que α<br />
(on supposera également que α