30.06.2013 Views

Recueil d'Examens (2001 - 2004) Contrôle des EDP - lamsin

Recueil d'Examens (2001 - 2004) Contrôle des EDP - lamsin

Recueil d'Examens (2001 - 2004) Contrôle des EDP - lamsin

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Université de Tunis El Manar<br />

<strong>Recueil</strong> <strong>d'Examens</strong> (<strong>2001</strong> - <strong>2004</strong>)<br />

<strong>Contrôle</strong> <strong>des</strong> <strong>EDP</strong><br />

Mastère (DEA) de Mathématiques Appliquées<br />

Ecole Nationale d'Ingénieurs de Tunis<br />

B.P. 37 – 1002 Le Belvédère Tunis – Tunisie<br />

Tél. (+216) 71 874 700 Fax : (+216) 71 872 729 http://www.enit.rnu.tn


E.N.I.T. DEA de Mathématiques Appliquées<br />

Examen – <strong>Contrôle</strong> optimal<br />

Enseignants : F. Bonnans – H. El Fekih – J.P. Raymond<br />

Date : 2 mars 2002 Durée : 3H00<br />

Les parties A et B sont indépendantes.<br />

Partie A<br />

(Documents autorisés : polycopiés du cours et notes personnelles.)<br />

A.1- Un problème linéaire quadratique<br />

On considère le système dynamique<br />

<br />

¨x(t) + 2 ˙x(t) + x(t) = u(t), t ≥ 0,<br />

(1)<br />

x(0) = x0, ˙x(0) = v0,<br />

associé au critère<br />

(2)<br />

J(u, x) = 1<br />

T 2 2 2<br />

2 u(t) + αx(t) + β ˙x(t)<br />

0<br />

<br />

avec α ≥ 0 et β ≥ 0.<br />

On considère dans cette section le problème de minimisation de (2) sous contrainte (1).<br />

1. On se ramène au premier ordre en posant h(t) = x(t) et v(t) = ˙x(t), et on note ph, pv les<br />

composantes de l’état adjoint. Montrer que le hamiltonien du problème avec les nouvelles<br />

variables est<br />

H(u, h, v, ph, pv) = 1<br />

2 2 2<br />

2 u + αh + βv + phv + pv(u − h − 2v).<br />

2. Donner l’équation de l’état adjoint.<br />

3. Exprimer la commande en fonction de l’état et de l’état adjoint grâce au principe de<br />

Pontryagin.<br />

4. Donner le principe de l’application de l’algorithme de tir a cet exemple.<br />

A.2- Contrainte sur l’état<br />

Soit γ ∈ R. On ajoute au problème la contrainte sur l’état<br />

(3)<br />

h(t) ≤ γ<br />

On utilisera autant que possible les calculs déjà faits dans la partie précédente.<br />

1. Donner l’équation de l’état adjoint.<br />

2. Montrer que, sur un arc frontière, le multiplicateur est régulier.<br />

3. Montrer que, sur un arc frontière, l’état adjoint est constant, et calculer sa valeur ainsi<br />

que celles de u.<br />

4. En déduire la valeur de ˙η sur un arc frontière. Montrer que, si γ < 0, il ne peut y avoir<br />

d’arc frontière.<br />

5. Comment sera le saut de l’état adjoint en un point de jonction ?


Examen – <strong>Contrôle</strong> optimal 2 mars 2002<br />

Partie B<br />

(Documents non autorisés)<br />

Partie B.1<br />

Soit L et T deux nombres réels > 0, f ∈ L 2 ((0, L) × (0, T )), z0 ∈ L 2 (0, L) et u ∈ L 2 (0, T ).<br />

On considère l’équation<br />

(4)<br />

⎧<br />

⎨<br />

⎩<br />

zt − zxx + z = f, dans (0, L) × (0, T ),<br />

z(0, t) = 0, zx(L, t) = u(t), dans (0, T ),<br />

z(x, 0) = z0(x), dans (0, L),<br />

et on suppose qu’elle admet une solution faible unique dans C([0, T ]; L 2 (0, L)) vérifiant :<br />

z 2 C([0,T ];L 2 (0,L)) + z2 L 2 (0,T ;H 1 (0,L)) ≤ C(f2 L 2 ((0,L)×(0,T )) + u2 L 2 (0,T ) + z0 2 L 2 (0,L) )<br />

1- Soit J la fonctionnelle définie sur C([0, T ]; L 2 (0, L)) × L 2 (0, T ) par<br />

J(z, u) = 1<br />

2<br />

L<br />

0<br />

z(x, T ) 2 dx + 1<br />

2<br />

On considère le problème de contrôle<br />

<br />

(P1) inf<br />

T L<br />

0<br />

0<br />

z(x, t) 2 dx dt + 1<br />

2<br />

T<br />

u 2 (t) dt.<br />

J(z, u) | (z, u) ∈ C([0, T ]; L 2 (0, L)) × L 2 (0, T ) et (z, u) vérifie (4)<br />

1.1 Montrer que ce problème de contrôle admet une solution unique.<br />

1.2 Écrire les conditions d’optimalité permettant de caractériser le contrôle optimal ū à l’aide<br />

d’une équation adjointe.<br />

Partie B.2<br />

2- Pour tout g ∈ R, on note vg la solution de l’équation<br />

(5)<br />

−vxx + v = 0 dans (0, L), vx(0) = g, vx(L) = 0.<br />

Lorsque g ∈ L 2 (0, T ), on note vg(x, t) = v g(t)(x). Cela signifie que vg(x, t) est la solution de<br />

l’équation (5) correspondant à g = g(t), c’est à dire solution de<br />

(6)<br />

−vxx(x, t) + v(x, t) = 0 dans (0, L), vx(0, t) = g(t), vx(L, t) = 0,<br />

pour presque tout t ∈ (0, T ).<br />

On considère le système couplé<br />

(7)<br />

⎧<br />

zt − zxx + z = f,<br />

⎪⎨<br />

z(0, t) = 0, zx(L, t) = vg(L, t),<br />

z(x, 0) = z0(x),<br />

dans (0, L) × (0, T ),<br />

dans (0, T ),<br />

dans (0, L),<br />

⎪⎩<br />

Soit I la fonctionnelle<br />

I(z, g) = 1<br />

2<br />

−vxx(x, t) + v(x, t) = 0 dans (0, L) × (0, T )<br />

vx(0, t) = g(t), vx(L, t) = 0 dans (0, T ).<br />

L<br />

On considère le problème de contrôle<br />

<br />

(P2) inf<br />

0<br />

z(x, T ) 2 dx + 1<br />

T<br />

2 0<br />

L<br />

0<br />

0<br />

<br />

.<br />

z(x, t) 2 dx dt + 1<br />

T<br />

g<br />

2 0<br />

2 (t) dt.<br />

I(z, g) | (z, g) ∈ C([0, T ]; L 2 (0, L)) × L 2 (0, T ) et (z, g) vérifie (7)<br />

Montrer que ce problème de contrôle admet une solution unique.<br />

DEA Mathématiques Appliquées 2/4<br />

<br />

.


Examen – <strong>Contrôle</strong> optimal 2 mars 2002<br />

3- On note (z(g), v(g)) la solution de l’équation (7). Soit h ∈ L2 (0, T ). Quel est le système<br />

vérifié par le couple (ζ(h), w(h)) défini par<br />

<br />

<br />

(ζ(h), w(h)) = limλ→0 (z(g + λh), v(g + λh)) − (z(g), v(g)) /λ.<br />

Pour simplifier les écritures, z(g), v(g), ζ(h), w(h) seront notés z, v, ζ et w.<br />

4- On pose F (g) = I(z(g), g). Calculer F ′ (g)h en fonction de z, g, h et ζ.<br />

5-Intégrer par parties l’expression<br />

T L<br />

(ζt − ζxx + ζ)p dxdt,<br />

0<br />

0<br />

où p va jouer le rôle de l’état adjoint associé à z(g). Déterminer l’équation que doit vérifier p<br />

pour que<br />

L<br />

0<br />

T<br />

z(x, T )ζ(x, T ) dx +<br />

0<br />

6-Intégrer par parties l’expression<br />

L<br />

T<br />

z(x, t)ζ(x, t) dxdt = w(L, t)p(L, t) dt.<br />

0<br />

L<br />

(−wxx + w)q dxdt,<br />

0<br />

où q va jouer le rôle de l’état adjoint associé à v. Déterminer l’équation que doit vérifier q pour<br />

que<br />

T<br />

7- Exprimer F ′ (g)h en fonction de g, q et de h.<br />

0<br />

T<br />

w(L, t)p(L, t) dt = − h(t)q(0, t) dt.<br />

0<br />

8- Écrire les conditions d’optimalité permettant de caractériser le contrôle optimal ¯g de (P2) à<br />

l’aide d’un système couplé d’équations adjointes vérifiées par un couple (p, q).<br />

DEA Mathématiques Appliquées 3/4<br />

0


ENIT – Mastère de Mathématiques Appliquées Date : 3 avril 2003<br />

Examen – <strong>Contrôle</strong> optimal Durée : 3H30<br />

Enseignants : H. El Fekih – J.P. Raymond – H. Zidani Documents non autorisés<br />

Les parties A et B sont indépendantes.<br />

Les étudiants sont priés de remettre <strong>des</strong> copies séparées pour chaque partie.<br />

Partie A<br />

Soient M > 0 et T > 0 <strong>des</strong> constantes positives.<br />

I. <strong>Contrôle</strong> d’une équation elliptique avec conditions de Robin.<br />

1. Soit f ∈ L 2 (0, 1) et u ∈ R. Montrer, avec le théorème de Lax-Milgram, que l’équation<br />

(1)<br />

y − yxx = f dans (0, 1), y(0) = 0, yx(1) + My(1) = Mu,<br />

admet une solution unique dans un espace V que l’on définira avec précision.<br />

2. Pour tout y ∈ L 2 (0, 1) et tout u ∈ R on définit la fonctionnelle<br />

J(y, u) = 1<br />

2<br />

1<br />

0<br />

|y − yd| 2 dx + 1<br />

2 |u|2 ,<br />

où yd ∈ L2 (0, 1). On admet que le problème de contrôle<br />

<br />

<br />

(PR) inf J(y, u) | u ∈ R, (y, u) vérifie (1) ,<br />

admet une solution unique. Caractériser cette solution en écrivant les conditions d’optimalité<br />

du premier ordre à l’aide d’une équation adjointe.<br />

II. <strong>Contrôle</strong> d’une équation elliptique avec conditions de Dirichlet.<br />

3. Pour étudier l’équation<br />

(2)<br />

y − yxx = f dans (0, 1), y(0) = 0, y(1) = u ∈ R,<br />

on cherche y sous la forme y = z + w où w = x(2 − x)u. Écrire l’équation vérifiée par z. En<br />

déduire que l’équation (2) admet une solution unique dans H1 (0, 1).<br />

4. On admet que le problème de contrôle<br />

<br />

<br />

(PD) inf J(y, u) | u ∈ R, (y, u) vérifie (2) ,<br />

admet une solution unique. Caractériser cette solution en écrivant les conditions d’optimalité<br />

du premier ordre à l’aide d’une équation adjointe.<br />

III. <strong>Contrôle</strong> d’une équation parabolique avec conditions de Robin.<br />

5. On pose<br />

et<br />

Montrer que<br />

(3)<br />

D(A) = {y ∈ H 2 (0, 1) | y(0) = 0, yx(1) + My(1) = 0},<br />

1<br />

0<br />

Ay = yxx pour tout y ∈ D(A).<br />

yxxy dx ≤ 0 pour tout y ∈ D(A).


Examen – <strong>Contrôle</strong> optimal 3 avril 2003<br />

Nous rappelons que la condion (3) étant vérifiée, avec la question 1, on peut appliquer le<br />

Théorème de Hille-Yoshida pour montrer que (A, D(A)) est le générateur infinitésimal d’un<br />

semi-groupe de contractions dans L 2 (0, 1). Nous rappelons que, pour tout f ∈ L 2 ((0, 1)×(0, T )),<br />

l’équation ⎧⎪⎨<br />

(4)<br />

⎪⎩<br />

yt − yxx = f, dans (0, 1) × (0, T ),<br />

y(0, t) = 0, yx(1, t) + My(1, t) = 0, dans (0, T ),<br />

y(x, 0) = 0, dans (0, 1).<br />

admet une solution faible unique qui vérifie<br />

De plus, si y0 ∈ L 2 (0, 1) l’équation<br />

(5)<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

y L 2 (0,T ;H 2 (0,1)) + y C([0,T ];H 1 (0,1)) ≤ Cf L 2 (0,T ;L 2 (0,1)).<br />

yt − yxx = 0, dans (0, 1) × (0, T ),<br />

y(0, t) = 0, yx(1, t) + My(1, t) = 0, dans (0, T ),<br />

y(x, 0) = y0, dans (0, 1).<br />

admet une solution unique qui vérifie<br />

y L 2 (0,T ;H 1 (0,1)) + y C([0,T ];L 2 (0,1)) ≤ Cy0 L 2 (0,1).<br />

Pour étudier l’équation<br />

⎧<br />

⎪⎨<br />

yt − yxx = 0, dans (0, 1) × (0, T ),<br />

(6) y(0, t) = 0,<br />

⎪⎩<br />

y(x, 0) = y0,<br />

yx(1, t) + My(1, t) = Mu(t), dans (0, T ),<br />

dans (0, 1).<br />

avec u ∈ L2 (0, T ) on étudie d’abord le cas où u ∈ H1 0 (0, T ). On cherche y sous la forme y = z+w<br />

où w = x(2 − x)u. Écrire l’équation vérifiée par z. En déduire que, si u ∈ H1 0 (0, T ), l’équation<br />

(6) admet une solution unique dans L 2 (0, T ; H 1 (0, 1))∩C([0, T ]; L 2 (0, 1)) (on utilisera l’équation<br />

vérifiée par z). En utilisant directement l’équation (6) montrer que cette solution y vérifie<br />

(7)<br />

y L 2 (0,T ;H 1 (0,1)) + y C([0,T ];L 2 (0,1)) ≤ C(y0 L 2 (0,1) + u L 2 (0,T )).<br />

En déduire que si u ∈ L 2 (0, T ), l’équation (6) admet une solution unique dans L 2 (0, T ;<br />

H 1 (0, 1)) ∩ C([0, T ]; L 2 (0, 1)), et que cette solution vérifie l’estimation (7).<br />

6. On pose<br />

I(y, u) = 1<br />

2<br />

1<br />

0<br />

y(x, T ) 2 dx + 1<br />

T<br />

2 0<br />

avec yd ∈ L 2 (0, T ; L 2 (0, 1)). On admet que le problème de contrôle<br />

1<br />

0<br />

|y(x, t) − yd(x, t)| 2 dxdt + 1<br />

T<br />

|u(t)|<br />

2 0<br />

2 dt,<br />

<br />

(P PR) inf I(y, u) | u ∈ L 2 <br />

(0, T ), (y, u) vérifie (6) ,<br />

admet une solution unique. Caractériser cette solution en écrivant les conditions d’optimalité<br />

du premier ordre à l’aide d’une équation adjointe.<br />

IV. Passage à la limite.<br />

7. Montrer que la solution y de l’équation (1) vérifie<br />

1<br />

(y<br />

0<br />

2 x + y 2 )dx + M|y(1)| 2 1<br />

= My(1)u +<br />

0<br />

y f dx.<br />

ENIT-Mastère de Mathématiques Appliquées 2/4


Examen – <strong>Contrôle</strong> optimal 3 avril 2003<br />

En déduire que<br />

|y(1)| ≤ (|u| + f L 2 (0,1)),<br />

si M ≥ 1. En remarquant que la solution y de l’équation (1) vérifie<br />

avec g = y(1), montrer que<br />

y − yxx = f dans (0, 1), y(0) = 0, y(1) = g ∈ R,<br />

où la constante C1 est indépendante de M.<br />

y H 2 (0,1) ≤ C1(|u| + f L 2 (0,1)),<br />

8. Soit y M (u) la solution de l’équation (1) et y ∞ (u) la solution de l’équation (2). Montrer que<br />

lim<br />

M→∞ yM (u) − y ∞ (u)L2 (0,1) = 0.<br />

Indication : On pourra écrire l’équation vérifiée par y M (u) − y ∞ (u) avec <strong>des</strong> conditions de<br />

Dirichlet ou de Robin.<br />

9. Soit (¯y M , ū M ) la solution de (PR) et (¯y ∞ , ū ∞ ) la solution de (PD). Montrer que la suite<br />

(ū M )M est bornée dans R. Montrer que (¯y M , ū M )M converge dans L 2 (0, 1) × R vers (¯y ∞ , ū ∞ ).<br />

(On pourra montrer la convergence <strong>des</strong> états adjoints.)<br />

V. Étudier le passage à la limite quand M tend vers l’infini pour le problème parabolique.<br />

Partie B<br />

Exercice 1. Soit h une fonction de classe C 1 sur IR n et soit<br />

U = {u ∈ IR, |u| ≤ 1}.<br />

On considère le problème de contrôle optimal défini par l’équation d’état:<br />

(1) ˙ysx(t) = u(t) pour s < t < T, ysx(s) = x,<br />

et le critère:<br />

(2) J(ysx, u) = h(ysx(T )),<br />

avec encore u ∈ L 2 (]s, T [, U). On note V la fonction valeur :<br />

1. Montrer que:<br />

V (x, s) = Inf{J(ysx, u) | u ∈ L 2 (]s, T [, U), (ysx, u) vérifie (1)}.<br />

(3) V (x, s) = inf<br />

z∈IR n h(z),<br />

,|x−z|≤T −s<br />

pour x ∈ IR n et s < T .<br />

2. Montrer qu’il existe toujours au moins un contrôle optimal.<br />

3. Donner un exemple de non-unicité du contrôle optimal.<br />

4. Ecrire la condition nécessaire d’optimalité fournie par le principe de Pontryagine en<br />

exprimant le contrôle optimal en fonction de l’état adjoint (quand c’est possible). Est<br />

ce toujours une condition suffisante?<br />

ENIT-Mastère de Mathématiques Appliquées 3/4


Examen – <strong>Contrôle</strong> optimal 3 avril 2003<br />

5. Ecrire l’équation de Hamilton-Jacobi-Bellman vérifiée par V en tout point de différentiabilité<br />

et déterminer un feedback optimal.<br />

Exercice 2. Dans sa phase finale la manoeuvre d’alunissage peut être modélisée (après de<br />

gran<strong>des</strong> simplification) par l’équation:<br />

(1) ¨ h(t) = m −1 u(t), t ≥ 0,<br />

où h est l’altitude, m la masse de l’engin, et u la somme (normalisée) <strong>des</strong> forces extérieures<br />

supposée vérifier u(t) ∈] − 1, 1[ à tout instant. Le problème est d’emmener l’engin à vitesse et<br />

altitude nulles en un temps minimal.<br />

On notera v := ˙ h la vitesse, et (vo, ho) := (v(0), h(0) la condition initiale.<br />

1. Ecrire le problème de contrôle optimal. Est ce que le système est commandable?<br />

2. Expliquer pourqoi le problème a une solution unique et écrire les conditions d’optimalité<br />

sous forme de principe de Pontryagin. (Le contrôle optimal et le temps optimal seront<br />

désignés respectivement par ū et ¯ T )<br />

3. Montrer que l’état adjoint ne pourrait pas s’annuler sur tout l’intervalle (0, ¯ T ).<br />

4. En déduir que le contrôle optimal vérifie:<br />

et ū change de signe au plus 1 fois.<br />

ū(t) ∈ {−1, 1}<br />

5. Montrer que si ū ≡ 1 sur (0, ¯ T ), alors la trajectoire atteint la cible si et seulement si<br />

vo = ¯ T , et ho = − 1<br />

2 ¯ T 2 .<br />

Supposons maintenant que ū ≡ 1 sur (0, ¯ T ), sous quelle condition sur vo, ho, la trajectoire<br />

optimale atteint-elle la cible?<br />

6. Donner la synthèse de la solution optimale.<br />

ENIT-Mastère de Mathématiques Appliquées 4/4


E.N.I.T. Mastère de Mathématiques Appliquées<br />

Examen – Session de rattrapage<br />

<strong>Contrôle</strong> Optimal<br />

Enseignants : H. El Fekih – J.P. Raymond – H. Zidani Durée : 1H30<br />

Date : 30 avril 2003 Documents non autorisés<br />

Exercice 1<br />

On introduit le système dynamique<br />

<br />

¨x(t) + 2 ˙x(t) + x(t)<br />

(1)<br />

x(0) = x0, ˙x(0)<br />

=<br />

=<br />

u(t),<br />

v0,<br />

t ≥ 0,<br />

associé au critère<br />

(2) J(u, x) = 1<br />

2<br />

avec α ≥ 0 et β ≥ 0.<br />

T<br />

0<br />

u(t) 2 + αx(t) 2 + β ˙x(t) 2 <br />

On considère le problème de minimisation de (2) sous contrainte (1).<br />

1. On se ramène au premier ordre en posant h(t) = x(t) et v(t) = ˙x(t), et on note ph,<br />

pv les composantes de l’état adjoint. Montrer que le hamiltonien du problème avec les<br />

nouvelles variables est<br />

H(u, h, v, ph, pv) = 1<br />

2<br />

2. Donner l’équation de l’état adjoint.<br />

u 2 + αh 2 + βv 2 + phv + pv(u − h − 2v).<br />

3. Exprimer la commande en fonction de l’état et de l’état adjoint grâce au principe de<br />

Pontryagin.


Exercice 2<br />

On considère l’équation différentielle<br />

(1)<br />

<br />

˙x(t) + ax(t) = u(t),<br />

x(0) = x0<br />

t ∈ (0, T )<br />

avec T > 0, x0 ∈ R, a ∈ R ∗ + et u ∈ L 2 (0, T ).<br />

1– Donner la solution xu de (1) et montrer qu’elle est dans H 1 (0, T ).<br />

2– Montrer que l’application u ↦→ xu est continue et dérivable de L 2 (0, T ) dans L 2 (0, T ).<br />

3– Soit xd ∈ L 2 (0, T ) et J la fonction objectif définie par<br />

J(x, u) = 1<br />

2<br />

Montrer que le problème de contrôle<br />

(2)<br />

T<br />

0<br />

(x − xd) 2 dt + 1<br />

T<br />

u<br />

2 0<br />

2 dt<br />

min{J(x, u); u ∈ L 2 (0, T ), (x, u) vérifie (1)}<br />

admet une solution unique. Caratériser cette solution en écrivant les conditions d’optimalité<br />

du premier ordre à l’aide d’une équation adjointe. On notera p l’état adjoint, ¯x l’état optimal<br />

et ū le contrôle optimal.<br />

4– On suppose que xd ≡ 0. Montrer que p(t) = F (t)¯x(t) où F est solution de l’équation<br />

différentielle de Riccati :<br />

(3)<br />

˙<br />

F (t) − 2aF (t) − F 2 (t) + 1 = 0.<br />

Soit G(t) = F (T − t). Ecrire l’équation différentielle vérifiée par G en spécifiant la condition<br />

initiale. En déduire une loi de commande reliant le contrôle optimal et l’état optimal.<br />

2


ENIT – Mastère de Mathématiques Appliquées Date : 30 mars <strong>2004</strong><br />

Examen – <strong>Contrôle</strong> optimal Durée : 3H00<br />

Enseignants : F. Bonnans – H. El Fekih – M. Mnif Documents non autorisés<br />

Les parties A, B et C sont indépendantes.<br />

Les étudiants sont priés de remettre <strong>des</strong> copies séparées pour chaque partie.<br />

Partie A : <strong>Contrôle</strong> d’une équation elliptique avec condition de Robin<br />

Soit Ω un domaine borné de R2 , f ∈ L2 (Ω) et u ∈ L2 (Γ), Γ = ∂Ω. On considère le problème :<br />

<br />

−∆y = f, dans Ω<br />

(1)<br />

∂y<br />

+ y = u,<br />

∂n<br />

sur Γ<br />

A.1. Ecrire la formulation variationnelle du problème (1).<br />

A.2. Montrer que le problème (1) admet une solution unique y dans H 1 (Ω), vérifiant<br />

y H 1 (Ω) ≤ C(u L 2 (Γ) + f L 2 (Ω))<br />

où C désigne une constante réelle > 0.<br />

A.3. Pour tout u ∈ L 2 (Γ) et y ∈ L 2 (Ω), on définit la fonctionnelle objectif<br />

J(y, u) = 1<br />

2 y − yd 2 H1 1<br />

(Ω) +<br />

2 u2 L2 (Γ)<br />

où yd ∈ H1 (Ω). Montrer que le problème<br />

<br />

inf J(y, u) | u ∈ L 2 <br />

(2)<br />

(Γ), (y, u) vérifie (1)<br />

admet une solution unique.<br />

A.4. Caractériser cette solution en écrivant les conditions d’optimalité du premier ordre à<br />

l’aide d’une équation adjointe.<br />

A.5. Proposer un algorithme, en décrivant brièvement les principales étapes, pour calculer une<br />

approximation de la commande optimale solution de (2).<br />

Partie B : Gestion de portefeuille<br />

On considère un poblème de gestion de portefeuille en temps continu et sans consommation<br />

sur un horizon fini T > 0. On considère un investisseur possèdant un actif sans risque de prix<br />

S0(t) vérifiant<br />

dS0(t) = rS0(t)dt<br />

avec r > 0 et un actif risqué S1(t) vérifiant<br />

dS1(t) = αS1(t)dt + σS1(t)dW (t).<br />

L’investisseur a la possibilité d’acheter ou de vendre l’actif risqué à tout instant et sans coûts de<br />

transaction. On note s0(t) le capital détenu dans l’actif sans risque, s1(t) le capital investi dans<br />

l’actif risqué et ρ(t) = s0(t) + s1(t) la fortune totale de l’in vestisseur à l’instant t. On appelle<br />

politique d’investissement le processus y(t) = s1(t)<br />

ρ(t) représentant la proportion de capital investi<br />

dans l’actif risqué à chaque instant t. On dira q’une politique y(.) est admissible si ρ(t) ≥ 0,<br />

∀t ≤ T . L’objectif de l’investisseur est de calculer<br />

V (t, ρ) = sup<br />

y(.)admissible<br />

E{log ρ(T )|ρ(t) = ρ}


Examen – <strong>Contrôle</strong> optimal 30 mars <strong>2004</strong><br />

B.1. Vérifier que ρ(t) suit l’évolution:<br />

dρ(t) = (rρ(t) + ρ(t)(α − r)y(t))dt + ρ(t)σy(t)dW (t), ρ(0) = ρ<br />

B.2. Ecrire l’équation d’Hamiton-Jacobi-Bellman (HJB) satisfaite par la fonction valeur V .<br />

B.3. Résoudre l’équation HJB, pour cela, on cherchera V de la forme V (t, ρ) = log(ρ)+λ(T −t)<br />

où λ est une constante à déterminer.<br />

B.4. En déduire la politique optimale d’investissement.<br />

Partie C: Opérateurs non expansifs et schéma pour l’équation HJB<br />

Opérateurs non expansifs<br />

On étudie quelques propriétés générales liées à la non expansivité.<br />

Soit T : IR n → IR n . On dit que T est croissant si pour tout x et y dans IR n , avec x ≥ y (soit<br />

xi ≥ yi pour tout i) on a T (x) ≥ T (y).<br />

Si x ∈ IR et α ∈ IR, on note x + α le vecteur de coordonnées xi + α. On dit que T translate<br />

les constantes si T (x + α) = T (x) + α pour tout x ∈ IR et α ∈ IR.<br />

C.1. Soient x et y dans IR n . Montrer que<br />

(3)<br />

(4)<br />

T (y) ≤ T (x) + maxi(yi − xi).<br />

C.2. En déduire avec la relation symétrique que<br />

T (y) − T (x)∞ ≤ yi − xi∞.<br />

autrement dit que T est non expansif.<br />

C.3. Vérifier les hypothèses de croissance et de translation <strong>des</strong> constantes pour l’opérateur<br />

étudié dans la théorie de la commande optimale <strong>des</strong> chaînes de Markov,<br />

⎧<br />

⎨<br />

T (v) := β inf<br />

⎩ ci(u) + <br />

⎫<br />

⎬<br />

Mij(u)vj , i = 1, . . . , m.<br />

⎭ (5)<br />

u∈Ui<br />

j<br />

sous les notations et hypothèses du cours : Ui compact de IR m , Mij(ui) matrice stochastique<br />

quand ui ∈ Ui pour tout i, et ci(u) fonction continue.<br />

C.4. Soient K1 et K2 deux ensembles quelconques, et Tk1,k2 , pour k1 ∈ K1, et k2 ∈ K2,<br />

une famille d’opérateurs vérifiant chacun les hypothèses de croissance et de translation <strong>des</strong><br />

constantes. Montrer que<br />

T (x) := inf sup Tk1,k2 (x)<br />

(6)<br />

k1∈K1 k2∈K2<br />

vérifie aussi les hypothèses de croissance et de translation <strong>des</strong> constantes. (On pourra pour<br />

commencer supposer que K1 ou K2 est réduit à un seul élément).<br />

Schéma pour l’équation HJB<br />

On s’intéresse à l’équation (sans contrôle, ou si on préfère avec un seul contrôle possible)<br />

<br />

−DtV (t, x) = ℓ(t, x) + f(t, x) · DxV (t, x) + ∆V (t, x), t ∈ [0, T ], x ∈ IR n V (T, x)<br />

,<br />

= 0, x ∈ IR n (7)<br />

.<br />

avec ℓ et f lipschitziennes et bornées, et ∆V (t, x) = D2 x2V (t, x) + · · · + D<br />

1<br />

2 x2 V (t, x) opérateur de<br />

n<br />

Laplace.<br />

C.5. Montrer que cette équation a une solution unique au sens de viscosité.<br />

C.6. Interpéter cette solution comme l’espérance d’un critère associé à un système dynamique<br />

stochastique.<br />

ENIT-Mastère de Mathématiques Appliquées 2/4


Examen – <strong>Contrôle</strong> optimal 30 mars <strong>2004</strong><br />

C.7. Formuler un schéma de discrétisation, de type différences finies, qui s’interprète comme<br />

un principe de programmation dynamique pour un problème de commande optimale d’une chaîne<br />

de Markov que l’on explicitera.<br />

C.8. Mêmes questions avec cette fois l’équation<br />

(8)<br />

⎧<br />

⎨<br />

⎩<br />

−DtV (t, x) = ℓ(t, x) + f(t, x) · DxV (t, x)<br />

+ 2<br />

i,j=1 D2 xixj V (t, x), t ∈ [0, T ], x ∈ IRn ,<br />

V (T, x) = 0, x ∈ IR n .<br />

ENIT-Mastère de Mathématiques Appliquées 3/4

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!