Cours - Enseeiht
Cours - Enseeiht
Cours - Enseeiht
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
3. APPLICATIONS 25<br />
Démonstration<br />
L’implication est évidente. Démontrons la réciproque. Soit donc ¯x un minimum local. Supposons qu’il existe x ∗ tel<br />
que f(x ∗ ) < f(¯x). Puisque f est convexe nous avons<br />
f(αx ∗ + (1 − α)¯x) ≤ αf(x ∗ ) + (1 − α)f(¯x)<br />
< αf(¯x) + (1 − α)f(¯x)<br />
< f(¯x)<br />
Ceci pour tout α ∈]0, 1]. Soit maintenant ε > 0 et x = αx ∗ + (1 − α)¯x avec<br />
α =<br />
ε/2<br />
‖x ∗ − ¯x‖<br />
alors nous avons ‖x − ¯x‖ = α‖x ∗ − ¯x‖ = ε 2<br />
< ε et f(x) < f(¯x)<br />
Ce qui est en contradiction avec le fait que ¯x est un minimum local ✷<br />
Théorème 2.4.2. Soit (P) un problème d’optimisation convexe où f est dérivable en x ∗ . x ∗ est un minimum<br />
global si et seulement si<br />
∇f(x ∗ ) = 0<br />
Démonstration<br />
L’implication est le théorème (2.2.1) Démontrons la réciproque. Supposons que x ∗ ne soit pas un minimum alors<br />
in existe y tel que f(y) < f(x ∗ ). Posons η = f(x ∗ ) − f(y) > 0, alors puisque f est convexe nous avons<br />
Par suite nous avons<br />
Mais par définition de la dérivée nous avons<br />
et ∇f(x ∗ ) = 0, donc<br />
f(αy + (1 − α)x ∗ ) ≤ αf(y) + (1 − α)f(x ∗ )<br />
≤ α(f(x ∗ ) + f(y) − f(x ∗ )) + (1 − α)f(x ∗ )<br />
≤<br />
f(x ∗ ) − αη<br />
f(x ∗ + α(y − x ∗ )) − f(x ∗ )<br />
α<br />
≤ −η (4.2)<br />
f(x ∗ + α(y − x ∗ )) = f(x ∗ ) + α(∇f(x ∗ )/y − x ∗ ) + ‖α(y − x ∗ )‖ε(α(y − x ∗ ))<br />
f(x ∗ + α(y − x ∗ )) − f(x ∗ )<br />
α<br />
= ‖y − x ∗ ‖ε(α(y − x ∗ ))<br />
Cette quantité tend donc vers 0 quand α tend vers 0. Mais ceci est en contradiction avec (4.2) ✷<br />
Théorème 2.4.3. Si la fonctionnelle f est deux fois dérivable sur R n et que sa dérivée seconde soit toujours semidéfinie<br />
positive, alors x ∗ est un minimum globale si et seulement si l’équation d’Euler, ∇f(x ∗ ) = 0, est vérifiée en<br />
ce point.<br />
Démonstration<br />
Le théorème (2.3.4.3) implique que le problème d’optimisation est convexe. Le théorème précédent permet alors de<br />
conclure. ✷<br />
3 Applications<br />
3.1 Exemples<br />
Exemple 3.1.1. Reprenons l’exemple (1.1.1.1). Nous avons vu que la solution nécessaire de solution conduisait à<br />
la loi de Descartes. Or nous avons vu à l’exemple (2.3.4.5) que la fonctionnelle était convexe. Par suite nous avons<br />
bien démontré cette loi.<br />
Exemple 3.1.2. Considérons le problème aux moindres carrés linéaires. Nous avons f(β) = ‖Xβ − y‖. Montrons<br />
que β est un minimum global si et seulement si il vérifie le système linéaire à p équations et p inconnus, appelés<br />
équations normales, suivant :<br />
t XXβ = t Xy (4.3)