03.01.2015 Views

Théorie de Lyapunov, commande robuste et ... - LAAS CNRS

Théorie de Lyapunov, commande robuste et ... - LAAS CNRS

Théorie de Lyapunov, commande robuste et ... - LAAS CNRS

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

D. Arzelier<br />

<strong>LAAS</strong>-<strong>CNRS</strong> - UPR 8001<br />

Toulouse


Quelques éléments <strong>de</strong> contexte 2<br />

Algèbre linéaire<br />

<strong>Théorie</strong> <strong>de</strong> la complexité<br />

<strong>Théorie</strong> <strong>de</strong> l’information<br />

R.E. Kalman<br />

<strong>Théorie</strong> <strong>de</strong> Wiener−Hopf−Kalman<br />

<strong>Théorie</strong> <strong>de</strong>s systèmes dynamiques<br />

Analyse numérique<br />

Perturbations<br />

A. Turing<br />

Système<br />

dynamique<br />

P( ∆ )<br />

N. Wiener<br />

Sorties<br />

C. Shannon<br />

<strong>Théorie</strong> <strong>de</strong> l’ interpolation<br />

<strong>Théorie</strong> <strong>de</strong>s fonctions analytiques<br />

Actions<br />

Loi <strong>de</strong><br />

comman<strong>de</strong><br />

K<br />

Mesures<br />

H. Black<br />

H. Bo<strong>de</strong><br />

G. Zames<br />

<strong>Théorie</strong> <strong>de</strong>s opérateurs<br />

J.L. Lagrange<br />

A. <strong>Lyapunov</strong><br />

Programmation mathématique<br />

H. Nyquist<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Le modèle standard 3<br />

Le modèle standard : [Doyle 1983]<br />

Formulation générale <strong>et</strong> unifiée <strong>de</strong>s problèmes <strong>de</strong> modélisation, d’analyse <strong>et</strong> <strong>de</strong> synthèse <strong>de</strong>s<br />

systèmes <strong>de</strong> comman<strong>de</strong> à contre-réaction multivariables<br />

Hypothèse :<br />

w<br />

P<br />

z<br />

Le modèle généralisé P <strong>et</strong> le correcteur généralisé K<br />

u<br />

y<br />

sont <strong>de</strong>s modèles LTI<br />

K<br />

Schéma standard<br />

- Synthèse <strong>de</strong>s approches fréquentielles (outils graphiques, sensibilité, <strong>robuste</strong>sse) <strong>et</strong> espace<br />

d’état (Optimalité, LQG, théorie <strong>de</strong> <strong>Lyapunov</strong>)<br />

- Optimisation pour l’analyse <strong>de</strong> performance (analyse pire-cas) <strong>et</strong> <strong>de</strong>scription <strong>de</strong> l’incertitu<strong>de</strong><br />

<strong>de</strong> modélisation<br />

- Utilisation systématique <strong>de</strong>s normes systèmes (H ∞ , H 2 ...)<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Modélisation incertaine, analyse <strong>et</strong> synthèse <strong>robuste</strong>s 4<br />

w<br />

w ∆<br />

∆<br />

P<br />

z ∆<br />

z<br />

Problème 1 (modélisation incertaine)<br />

Choisir (w, u, z, y, z ∆ ,w ∆ ), caractériser la causalité entrée-sortie<br />

u<br />

K<br />

y<br />

<strong>et</strong> décrire ∆ ∈ ∆<br />

Problème 2 (synthèse <strong>robuste</strong>)<br />

w<br />

P( ∆ )<br />

z<br />

Déterminer K conférant à l’interconnexion stabilité <strong>et</strong> perfor-<br />

u<br />

y<br />

mances <strong>robuste</strong>s<br />

K<br />

∆<br />

Problème 3 (analyse <strong>robuste</strong>)<br />

w<br />

w ∆<br />

N<br />

z ∆<br />

z<br />

Pour K donné, déterminer si l’interconnexion est <strong>robuste</strong> en<br />

stabilité <strong>et</strong> performance<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Analyse <strong>et</strong> synthèse <strong>robuste</strong>s 5<br />

- La synthèse H ∞ [Zames 1981]<br />

min<br />

K∈K<br />

‖T zw(K)‖ ∞<br />

➊ Problème d’interpolation <strong>de</strong> fonctions analytiques, techniques <strong>de</strong> Nevanlinna-Pick-Schur,<br />

théorie <strong>de</strong>s opérateurs <strong>de</strong> Sarason, AAK, BH, [FHZ 84], [Doyle 84]<br />

➋ Problème <strong>de</strong> Nehari-Hankel, théorie <strong>de</strong> la factorisation, paramétrisation <strong>de</strong> Youla,<br />

argument <strong>de</strong> séparation [BSS80], [Glover 84], [DGKF 89]<br />

➌ Emergence <strong>de</strong> la formulation LMI [Willems 71], [GA 94]<br />

- La µ-analyse : [Popov 61], [Sandberg 63], [Doyle 1982], [Safonov 1982]<br />

µ ∆ (P )=<br />

1<br />

min {σ(∆) : ∆ ∈ ∆, <strong>de</strong>t(1 − P ∆) = 0}<br />

➊ Analyse fonctionnelle, théorie <strong>de</strong>s opérateurs [Zames 63], [Narendra 64]<br />

➋ Optimisation globale <strong>et</strong> optimisation convexe [YD 90], [YND 91], [FTD 91], [Ferreres 99]<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Analyse <strong>et</strong> synthèse <strong>robuste</strong>s 6<br />

- <strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong> <strong>et</strong> stabilité quadratique [LP 47], [Barmish 1985], [BPG 89] [BB 1991]<br />

P ≻ 0 A ′ (∆,K)P + P A(∆,K) ≺ 0<br />

➊ Algèbre <strong>de</strong>s polynômes <strong>et</strong> métho<strong>de</strong>s graphiques [Yakubovich 62], [Kalman 63]<br />

➋ Algèbre linéaire <strong>et</strong> numérique [Willems 1971]<br />

➌ Prog. SDP :PI[BF 63], [NN 1994] <strong>et</strong> appr. non diff. [Kelley 1960], [Overton 88]<br />

➥ Approches littérales ≠ Approches numériques<br />

”a wi<strong>de</strong> (but incompl<strong>et</strong>e) class of linear controller <strong>de</strong>sign problems can be cast as convex optimization problems”<br />

Pb. <strong>de</strong> comman<strong>de</strong> = Pb. <strong>de</strong> programmation mathématique +métho<strong>de</strong> numérique efficace<br />

➦ Résultats faibles ≠ Résultats forts<br />

Complexité calculatoire : P=NP<strong>et</strong> démonstrabilité globale : convexité<br />

• Problèmes ”faciles” : alternative numérique aux solutions littérales usuelles<br />

• Problèmes ”durs” : relaxations convexes<br />

Nota : SIAM J. of Control <strong>de</strong>vient SIAM J. of Control and Optimization en 1976<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


MPI + LMI = CR ou NLP + BMI = TC 7<br />

Bcp. <strong>de</strong> problèmes en comman<strong>de</strong> <strong>robuste</strong> sont encore non convexes (BMI) [Safonov 1994]<br />

I<strong>de</strong>ntification <strong>robuste</strong> :<br />

- I<strong>de</strong>ntification fréquentielle<br />

- Validation <strong>de</strong> modèle<br />

Synthèse :<br />

- µ-synthèse<br />

- Synthèse multiobjectifs<br />

- Synthèse avec contrainte <strong>de</strong> structure<br />

Analyse <strong>robuste</strong> en stabilité <strong>et</strong> performance :<br />

-Modèle incertain LFT : théorie du µ<br />

- Recherche <strong>de</strong> multiplieurs <strong>et</strong> théorie <strong>de</strong> la séparation <strong>de</strong>s graphes<br />

- Analyse <strong>robuste</strong> par les IQC’s<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Classes <strong>de</strong> problèmes d’optimisation non convexes 8<br />

Problème BMI : Problème avec contrainte <strong>de</strong> rang :<br />

min c ′ x<br />

min c ′ x<br />

sous<br />

n∑<br />

n∑ n∑<br />

F 0 + F i x i + G i,j x i x j ≻ 0<br />

sous F 0 +<br />

i=1<br />

i=1 j=i<br />

n∑<br />

F i x i ≻ 0<br />

i=1<br />

rang(G 0 +<br />

n∑<br />

G i x i ) ≤ N<br />

Problème <strong>de</strong> complémentarité conique : Minimisation concave :<br />

i=1<br />

min<br />

sous<br />

Trace(ZF)<br />

min f(x)<br />

(F , Z) ∈K ×K<br />

sous F 0 +<br />

n∑<br />

F i x i ≻ 0<br />

i=1<br />

f concave<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Exemple <strong>de</strong> problème LMI sous contrainte <strong>de</strong> rang 9<br />

10<br />

Ensemble réalisable :<br />

M ′ P M


✔ Les approches par relaxation :<br />

Quelques approches usuelles 10<br />

- Dualité <strong>et</strong> relaxation lagrangiennes<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, S-procédure, lemme <strong>de</strong> Finsler <strong>et</strong> d’élimination, relaxation<br />

<strong>de</strong> rang<br />

- Les relaxations hiérarchiques<br />

Polynômes positifs, SOS, théorie <strong>de</strong>s moments<br />

- Les relaxations heuristiques<br />

Relaxations croisées <strong>et</strong> algorithmes <strong>de</strong> <strong>de</strong>scente coordonnée<br />

✔ Les approches algorithmiques :<br />

- La métho<strong>de</strong> du gradient conditionnel<br />

- Les métho<strong>de</strong>s <strong>de</strong> pénalité <strong>et</strong> <strong>de</strong> barrière<br />

- L’optimisation non différentiable<br />

- L’optimisation globale<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Dualité <strong>et</strong> relaxation Lagrangiennes 11<br />

p ∗ = inf<br />

x∈X<br />

f(x)<br />

sous h i (x) ≤ 0 i =1, ··· ,m<br />

Le Lagrangien : L(x, λ) =f(x)+<br />

Le problème dual :<br />

m∑<br />

λ i h i (x) λ i ≥ 0<br />

i=1<br />

d ⋆ =<br />

sup<br />

λ∈R +m<br />

inf<br />

x∈X<br />

L(x, λ) = sup<br />

λ∈R m+<br />

θ(λ)<br />

- La fonction duale θ(λ) est concave <strong>et</strong> semi-continue supérieurement<br />

- Résoudre le dual du dual revient àrésoudre une relaxation convexe du pb. primal<br />

- Dualité faiblep ⋆ ≥ d ⋆ , dualité forte, théorèmes <strong>de</strong>s alternatives<br />

- Dualité SDP(Application <strong>de</strong> la dualité conique)<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Relaxation lagrangienne : la S-procédure 12<br />

Proposition 1 : f(x) ≥ 0 ∀ x ≠0∈X |h i (x) ≥ 0, i =1, ··· ,m<br />

m∑<br />

Proposition 2 : ∃ τ i ≥ 0, i =1, ··· ,m | f(x) − τ i h i (x) ≥ 0<br />

i=1<br />

S-procedure 1 ([Yakubovich 71])<br />

Pour f(x) =x ′ Ax, h i (x) =x ′ B i x, i =1, ··· ,m <strong>et</strong> X = R n :<br />

- Si ∃ x ∈ R n tel que h 1 (x) > 0 alors pour m =1,laS-procédure n’est pas pessimiste<br />

- Si m =2,laS-procédure peut être pessimiste<br />

Pessimisme <strong>de</strong> la S-procédure = saut <strong>de</strong> dualité [Fradkov 73]<br />

inf<br />

h i (x)≤0<br />

f(x) ≥ sup<br />

τ j ≥0<br />

inf<br />

x∈X<br />

m f(x) − ∑<br />

τ j h j (x)<br />

j=1<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Preuve <strong>de</strong> la S-procédure : m =1 13<br />

Propriétés <strong>de</strong> convexité <strong>de</strong> l’image <strong>de</strong> B⊂K n par <strong>de</strong>s transformations quadratiques<br />

[Toeplitz 1919], [Hausdorff 1919]<br />

Théorème 1 ([Dines 41])<br />

Pour (A, B 1 ) ∈ S n × S n alors K = {(u, v) =(x ′ Ax, x ′ B 1 x) : x ∈ R n } est un cône<br />

convexe fermé <strong>de</strong> R 2<br />

v<br />

Supposons que x ′ Ax ≥ 0 ⇒ x ′ B 1 x ≥ 0.<br />

Q<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

000000000000000000000<br />

000000000000000000000<br />

111111111111111111111<br />

111111111111111111111<br />

111111111111111111111<br />

K<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

000000000000000000000<br />

111111111111111111111<br />

u<br />

K∩Q= ∅ où Q = {v ≥ 0, u


Relaxation lagrangienne : théorèmes <strong>de</strong>s alternatives 14<br />

Soit l’application linéaire A : E → S<br />

A adj : S → E est l’application adjointe<br />

∀ x ∈ E, ∀ Z ∈ S, 〈A(x), Z〉 S<br />

=<br />

〈 〉<br />

x, A adj (Z)<br />

E<br />

Théorème 2 (Alternative forte)<br />

Une <strong>de</strong>s assertions suivantes est exactement vérifiée<br />

1- ∃ x ∈ E tel que A(x)+A 0 ≻ 0<br />

2- ∃ Z ∈ S +∗ telle que A adj (Z) =0 <strong>et</strong> 〈A 0 , Z〉 S<br />

≤ 0<br />

Théorème 3 (Alternative faible)<br />

Une <strong>de</strong>s assertions suivantes au plus est vérifiée<br />

1- ∃ x ∈ E tel que A(x)+A 0 0<br />

2- ∃ Z ∈ S +∗ telle que A adj (Z) =0 <strong>et</strong> 〈A 0 , Z〉 S<br />

≤ 0<br />

De plus, si A 0 = A(x 0 ) pour x 0 ∈ E ou si ̸ ∃ x ∈ E tel que A(x) 0 alors une seule <strong>de</strong>s<br />

assertions est exactement vraie.<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Relaxation lagrangienne <strong>et</strong> théorie <strong>de</strong> <strong>Lyapunov</strong> (I) 15<br />

Soit la sous-région D du plan complexe C<br />

D = {s ∈ C : d 0 + d 1 s + d ⋆ 1s ⋆ + d 2 s ⋆ s


Relaxation lagrangienne <strong>et</strong> théorie <strong>de</strong> <strong>Lyapunov</strong> (II) 16<br />

Formulation équivalente du problème <strong>de</strong> D-Stability :<br />

Λ(A) ⊂ D ssi µ ⋆ > 0 avec<br />

µ ⋆ = min<br />

s, q≠0<br />

sous<br />

q ⋆ (A − s1) ⋆ (A − s1)q<br />

s ∈ D C<br />

p = sq<br />

µ ⋆ = min<br />

p, q≠0<br />

[<br />

] ⎡<br />

q ⋆ p ⋆ ⎣ A′<br />

−1<br />

⎤<br />

⎦ [ A<br />

−1<br />

] ⎡ ⎣ q p<br />

⎤<br />

⎦<br />

sous<br />

[<br />

q<br />

p<br />

]<br />

D<br />

⎡<br />

⎣ q⋆<br />

p ⋆<br />

⎤<br />

⎦ ≽ 0<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Relaxation lagrangienne <strong>et</strong> théorie <strong>de</strong> <strong>Lyapunov</strong> (III) 17<br />

Posant A =[A<br />

− 1] <strong>et</strong> appliquant une relaxation lagrangienne<br />

Si ∃ P ∈ S + n telle que :<br />

⎡<br />

[ ]<br />

q ⋆ p ⋆ A ′ A ⎣ q p<br />

⎤ ⎡<br />

⎦ > trace ⎣P<br />

[<br />

q<br />

p<br />

]<br />

D<br />

⎡<br />

⎣ q⋆<br />

p ⋆<br />

⎤⎤<br />

⎦⎦<br />

alors µ ∗ > 0 <strong>et</strong> D ⊗ P −A ′ A≺0<br />

Par application du lemme <strong>de</strong> projection, une condition suffisante est<br />

∃ P ∈ S n |<br />

⎡<br />

⎢<br />

⎣<br />

[<br />

−<br />

1 A ′ ]<br />

D ⊗ P<br />

⎡<br />

⎣ 1 A<br />

⎤<br />

⎦ 0<br />

0 P<br />

⎤<br />

⎥<br />

⎦ ≻ 0<br />

La matrice <strong>de</strong> <strong>Lyapunov</strong> P une variable duale <strong>de</strong> Lagrange ou multiplieur <strong>de</strong> Lagrange<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Relaxation lagrangienne <strong>et</strong> théorie <strong>de</strong> <strong>Lyapunov</strong> (IV) 18<br />

Démonstration<strong>de</strong>lanécessité (saut <strong>de</strong> dualité nul)<br />

Théorème <strong>de</strong>s alternatives pour <strong>Lyapunov</strong> généralisé [Balakrishnan 03]<br />

1- ∃ P ∈ S n<br />

A(P )=<br />

⎡<br />

⎢<br />

⎣<br />

[<br />

−<br />

1 A ′ ]<br />

D ⊗ P<br />

⎡<br />

⎣ 1 A<br />

⎤<br />

⎦ 0<br />

⎤<br />

⎥<br />

⎦ ≻ 0<br />

0 P<br />

2- ∃ (Z 1 ,Z 2 ) ∈ S + n × S + n<br />

A adj (Z 1 , Z 2 )=Z 2 − [1 A]D ⊗ Z 1 [1 A] ′ = 0<br />

Si la proposition 2 est vérifiée (équivalent àlaproposition1nonvérifiée) alors le<br />

spectre <strong>de</strong> A n’est pas entièrement contenu dans D<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Relaxation lagrangienne <strong>et</strong> théorie <strong>de</strong> <strong>Lyapunov</strong> (V) 19<br />

⎡ ⎤<br />

⎤ ⎡ ⎤<br />

Soient Q =[1 0], P =[0 1] <strong>et</strong> F (P )= ⎣ Q ⎦ ⎣ d 0P d 1 P<br />

⎦ ⎣ Q ⎦ = D ⊗ P<br />

P d ⋆ 1P d 2 P P<br />

[<br />

La forme duale trace F (P )X = trace F D (X)P avec X = xx ⋆ (x ⋆ = q ⋆ p<br />

]) ⋆<br />

′ ⎡<br />

µ ⋆ = min<br />

X≠0<br />

sous<br />

trace A ′ AX<br />

F D (X) ≽ 0<br />

X ≽ 0<br />

rank X =1<br />

La relaxation <strong>de</strong> rang est duale <strong>de</strong> la relaxation lagrangienne<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Relaxation lagrangienne : le lemme <strong>de</strong> Finsler 20<br />

Soient H ∈ C n×m | rang(H) =r


Condition <strong>de</strong> stabilité étendue 21<br />

Théorème 4<br />

A est D-stable ssi ∃ P ∈ S n , F ∈ R n×n <strong>et</strong> G ∈ R n×n t.q.<br />

⎡<br />

⎢<br />

⎣<br />

D ⊗ P +<br />

⎡<br />

⎣ A′<br />

−1<br />

⎤<br />

⎦ [ F<br />

G<br />

]<br />

+<br />

⎡<br />

⎣ F ′<br />

G ′<br />

⎤<br />

⎦ [ A<br />

−1<br />

0 −P<br />

]<br />

0<br />

⎤<br />

⎥<br />

⎦ ≺ 0<br />

Nota ⎡:<br />

⎤<br />

P <strong>et</strong><br />

⎣ F G<br />

⎦ sont <strong>de</strong>s variables issues <strong>de</strong> relaxations Lagrangiennes successives!<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Condition <strong>de</strong> stabilité étendue : interprétation 22<br />

Théorème 5 ([Ebihara 05])<br />

A est D-stable ssi A 1 (s) =s1 − A est D-stable ssi ∃ F(s) multiplieur polynômial t.q.<br />

A ⋆ 1(s)F(s) + F ⋆ (s)A 1 (s) ≻ 0<br />

∀ s ∈ D C<br />

- Multiplieur polynômial d’ordre 1 : F(s) = F s + G<br />

- Multiplieur d’ordre supérieur :<br />

⎡<br />

F(s) = ⎣ s1 1<br />

⎤<br />

⎦<br />

⎡<br />

⎤<br />

⎣ H 11 F 11 G 11<br />

⎦ ⎢<br />

⎣<br />

H 10 F 10 G 10<br />

⋆ ⎡<br />

s 2 1<br />

s1<br />

1<br />

⎤<br />

⎥<br />

⎦<br />

Condition LMI équivalente :<br />

⎡<br />

⎢<br />

⎣<br />

1 0 0<br />

0 1 0<br />

0 1 0<br />

0 0 1<br />

⎤<br />

′<br />

⎥ D ⊗ P<br />

⎦<br />

⎡<br />

⎢<br />

⎣<br />

1 0 0<br />

0 1 0<br />

0 1 0<br />

0 0 1<br />

⎤<br />

⎡<br />

⎧⎪ ⎨ ⎥<br />

⎦ + He ⎢<br />

⎣<br />

⎪ ⎩<br />

⎤<br />

−1 0<br />

A ⋆ −1 ⎥<br />

⎦<br />

0 A ⋆<br />

[<br />

H11 F 11 G 11<br />

H 10 F 10 G 10<br />

] ⎫ ⎪ ⎬<br />

⎪ ⎭<br />

≺ 0<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Réduction du pessimisme <strong>de</strong>s relaxations 23<br />

Théorème 6 ([Peaucelle 00], [Ebihara 05])<br />

A ∈ A =co{A 1 , ··· ,A N } est D-stable <strong>de</strong> manière <strong>robuste</strong> si<br />

D ⊗ P i +<br />

[<br />

A<br />

′<br />

i<br />

−1<br />

] [<br />

F G<br />

]<br />

+<br />

[<br />

F<br />

′<br />

G ′ ] [<br />

A i −1<br />

]<br />

≺ 0<br />

- Fonction <strong>de</strong> <strong>Lyapunov</strong> dépendant <strong>de</strong>s paramètres P (δ) =<br />

N∑<br />

i=1<br />

δ i P i<br />

⎡<br />

⎢<br />

⎣<br />

1 0 0<br />

0 1 0<br />

0 1 0<br />

0 0 1<br />

⎤ ′ ⎡<br />

⎥ D ⊗ P i ⎢<br />

⎦ ⎣<br />

1 0 0<br />

0 1 0<br />

0 1 0<br />

0 0 1<br />

⎤<br />

⎡<br />

⎧⎪ ⎨ ⎥<br />

⎦ + He ⎢<br />

⎣<br />

⎪ ⎩<br />

−1 0<br />

A ⋆ i<br />

−1<br />

0 A ⋆ i<br />

⎤<br />

⎥<br />

⎦<br />

[<br />

H11 F 11 G 11<br />

H 10 F 10 G 10<br />

] ⎫ ⎪ ⎬<br />

⎪ ⎭<br />

≺ 0<br />

- Fonction <strong>de</strong> <strong>Lyapunov</strong> dépendant <strong>de</strong>s paramètres P (δ) =<br />

[<br />

A(δ)<br />

1<br />

] ⋆ ( N<br />

∑<br />

i=1<br />

δ i P i<br />

)[<br />

A(δ)<br />

1<br />

]<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05


Quelques enjeux <strong>de</strong> l’optimisation en Automatique 24<br />

Les enjeux théoriques <strong>et</strong> numériques liés à la non convexité<br />

- Approches directes<br />

Lagrangien augmenté (pénalité [Apkarian 02], barrière [Kočvara 02])<br />

Optimisation non différentiable [Oustry 00], [Overton 03]<br />

- Approches par relaxations convexes<br />

Evaluation systématique du pessimisme <strong>de</strong>s relaxations (successives) [Nesterov 97],<br />

[Ben-Tal 00]<br />

LMI <strong>et</strong> SDP représentabilité [Ben-Tal 01], [Helton 01]<br />

Au <strong>de</strong>là <strong>de</strong> la dualité SDP <strong>et</strong> Lagrangienne [Ramana 97]<br />

Les enjeux numériques liés aux LMI <strong>de</strong> gran<strong>de</strong> taille<br />

- Conditionnement numérique <strong>de</strong>s problèmes SDP [Miller 97], [Yildrim 03]<br />

- Temps <strong>de</strong> calcul, fiabilité, exploitation <strong>de</strong> la structure [Van<strong>de</strong>nberghe 02]<br />

Démarche transversale mélant concepts <strong>et</strong> outils<br />

<strong>Théorie</strong> <strong>de</strong> <strong>Lyapunov</strong>, comman<strong>de</strong> <strong>robuste</strong> <strong>et</strong> optimisation<br />

JNMACS<br />

06/09/05

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!