Introduction à la commande stochastique v.0.9 - Jean-Pierre ...
Introduction à la commande stochastique v.0.9 - Jean-Pierre ...
Introduction à la commande stochastique v.0.9 - Jean-Pierre ...
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
3. FEEDBACKS LOCAUX OPTIMAUX 83<br />
3.2. UN ALGORITHME DE RELAXATION POUR CALCULER UNE<br />
STRATÉGIE NASH OPTIMALE<br />
Pour résoudre (3.3) on pourra utiliser l’algorithme suivant qui n’est rien<br />
d’autre qu’un point fixe dans l’espace des stratégies :<br />
1. démarrer avec une stratégie s ∈ S L ,<br />
2. choisir un joueur j,<br />
3. calculer c js ,<br />
4. calculer une nouvelle stratégie s j en résolvant l’équationde<strong>la</strong>programmation<br />
dynamique pour le joueur j,<br />
5. remettre <strong>à</strong> jour <strong>la</strong> probabilité du joueur j en résolvant l’équation de<br />
Kolmogorov avant correspondante,<br />
6. retourner en 2) jusqu’<strong>à</strong> ce qu’il ne soit plus possible d’améliorer <strong>la</strong><br />
stratégie s quel que soit le joueur choisi <strong>à</strong>l’étape 2).<br />
Par cet algorithme on obtient une suite décroissante de coûts. Les coûts sont<br />
minorés si on fait l’hypothèse que c ≥ 0. Cette suite converge vers un coût<br />
Nash optimal — car inaméliorable par modification d’un feedback local <strong>à</strong><br />
<strong>la</strong> fois.<br />
REMARQUE 3.6. Dans cet algorithme <strong>la</strong> partie <strong>la</strong> plus difficile est le calcul<br />
des coûts c is . En fait on ne pourra faire ce calcul que dans des cas particuliers<br />
: lorsque le coût est de <strong>la</strong> forme c u x<br />
= ψ(∑ i ciui ).Onferaalorsdes<br />
x i<br />
convolutions réitérées pour calculer les c js .