14.06.2014 Views

Introduction à la commande stochastique v.0.9 - Jean-Pierre ...

Introduction à la commande stochastique v.0.9 - Jean-Pierre ...

Introduction à la commande stochastique v.0.9 - Jean-Pierre ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

146 8. PROBLÈMES<br />

8. STRATÉGIES<br />

On veut étudier <strong>la</strong> maintenance d’un système de production comprenant<br />

une suite infini d’étapes. On suppose que le système n’a que deux états<br />

possibles: soit il fonctionne (x = 1), soit il ne fonctionne pas (x = 0).<br />

Si le système ne fonctionne pas, on considère que ce<strong>la</strong> coûte 1 (manque <strong>à</strong><br />

gagner pour une étape). La politique de maintenance du système consiste <strong>à</strong><br />

décider de tester ou non le système avant chaque étape de fonctionnement.<br />

Le prix du test (et de <strong>la</strong> remise en état éventuelle) est α. Sionnetestepasle<br />

système (u = 0) avant une étape, il a une probabilité ɛ de tomber en panne<br />

<strong>à</strong><strong>la</strong>findecetteétape (pendant l’étape correspondante il fonctionne). Si on<br />

le teste (u = 1) et s’il ne fonctionne pas, il est remis en état pendant une<br />

étape (il ne fonctionne donc pas pendant cette étape mais il sera en état de<br />

marche <strong>à</strong>l’étape suivante). Si au cours du test on s’apercoit qu’il fonctionne<br />

normalement, le système est entretenu, et on est assuré (probabilité 1) qu’il<br />

ne tombera pas en panne <strong>à</strong><strong>la</strong>findel’étape du test.<br />

Une politique stationnaire consiste <strong>à</strong>décider, en fonction de l’état<br />

du système <strong>à</strong>l’étape précédente, de tester ou non le système, et ceci<br />

indépendamment du numéro de l’étape considérée.<br />

8.1. ENONCÉ<br />

Pour chaque politique stationnaire donnez :<br />

1. <strong>la</strong> matrice de transition de l’état du système,<br />

2. <strong>la</strong> ou les mesures invariantes extrêmales des chaînes de Markov correspondantes<br />

(celles dont le support est le plus petit possible lorsqu’il<br />

y en a plusieurs),<br />

3. les équations de Kolmogorov donnant le coût de chacune de ces politiques,<br />

dans le cas d’une infinité d’étapes actualisées avec un taux<br />

λ>0,<br />

4. les comportements asymptotiques (premier terme) de ces coûts<br />

lorsque le taux d’actualisation tend vers 0.<br />

Quelle est <strong>la</strong> meilleure politique, dans le cas actualisé, avec un taux<br />

d’actualisation tendant vers 0, lorsque ɛ est petit, beaucoup plus petit que α<br />

(on supposera également que α

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!