01.01.2015 Views

Cours - Enseeiht

Cours - Enseeiht

Cours - Enseeiht

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

3. APPLICATIONS 25<br />

Démonstration<br />

L’implication est évidente. Démontrons la réciproque. Soit donc ¯x un minimum local. Supposons qu’il existe x ∗ tel<br />

que f(x ∗ ) < f(¯x). Puisque f est convexe nous avons<br />

f(αx ∗ + (1 − α)¯x) ≤ αf(x ∗ ) + (1 − α)f(¯x)<br />

< αf(¯x) + (1 − α)f(¯x)<br />

< f(¯x)<br />

Ceci pour tout α ∈]0, 1]. Soit maintenant ε > 0 et x = αx ∗ + (1 − α)¯x avec<br />

α =<br />

ε/2<br />

‖x ∗ − ¯x‖<br />

alors nous avons ‖x − ¯x‖ = α‖x ∗ − ¯x‖ = ε 2<br />

< ε et f(x) < f(¯x)<br />

Ce qui est en contradiction avec le fait que ¯x est un minimum local ✷<br />

Théorème 2.4.2. Soit (P) un problème d’optimisation convexe où f est dérivable en x ∗ . x ∗ est un minimum<br />

global si et seulement si<br />

∇f(x ∗ ) = 0<br />

Démonstration<br />

L’implication est le théorème (2.2.1) Démontrons la réciproque. Supposons que x ∗ ne soit pas un minimum alors<br />

in existe y tel que f(y) < f(x ∗ ). Posons η = f(x ∗ ) − f(y) > 0, alors puisque f est convexe nous avons<br />

Par suite nous avons<br />

Mais par définition de la dérivée nous avons<br />

et ∇f(x ∗ ) = 0, donc<br />

f(αy + (1 − α)x ∗ ) ≤ αf(y) + (1 − α)f(x ∗ )<br />

≤ α(f(x ∗ ) + f(y) − f(x ∗ )) + (1 − α)f(x ∗ )<br />

≤<br />

f(x ∗ ) − αη<br />

f(x ∗ + α(y − x ∗ )) − f(x ∗ )<br />

α<br />

≤ −η (4.2)<br />

f(x ∗ + α(y − x ∗ )) = f(x ∗ ) + α(∇f(x ∗ )/y − x ∗ ) + ‖α(y − x ∗ )‖ε(α(y − x ∗ ))<br />

f(x ∗ + α(y − x ∗ )) − f(x ∗ )<br />

α<br />

= ‖y − x ∗ ‖ε(α(y − x ∗ ))<br />

Cette quantité tend donc vers 0 quand α tend vers 0. Mais ceci est en contradiction avec (4.2) ✷<br />

Théorème 2.4.3. Si la fonctionnelle f est deux fois dérivable sur R n et que sa dérivée seconde soit toujours semidéfinie<br />

positive, alors x ∗ est un minimum globale si et seulement si l’équation d’Euler, ∇f(x ∗ ) = 0, est vérifiée en<br />

ce point.<br />

Démonstration<br />

Le théorème (2.3.4.3) implique que le problème d’optimisation est convexe. Le théorème précédent permet alors de<br />

conclure. ✷<br />

3 Applications<br />

3.1 Exemples<br />

Exemple 3.1.1. Reprenons l’exemple (1.1.1.1). Nous avons vu que la solution nécessaire de solution conduisait à<br />

la loi de Descartes. Or nous avons vu à l’exemple (2.3.4.5) que la fonctionnelle était convexe. Par suite nous avons<br />

bien démontré cette loi.<br />

Exemple 3.1.2. Considérons le problème aux moindres carrés linéaires. Nous avons f(β) = ‖Xβ − y‖. Montrons<br />

que β est un minimum global si et seulement si il vérifie le système linéaire à p équations et p inconnus, appelés<br />

équations normales, suivant :<br />

t XXβ = t Xy (4.3)

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!