Analyse en composantes principales en météorologie & en ...

websites.isae.fr

Analyse en composantes principales en météorologie & en ...

Analyse en composantes

principales

en météorologie &

en mécanique des fluides

O.Pannekoucke

Météo-France/ CNRS, CNRM/GAME,

URA 1357

ISAE – Séminaire CPGE

9-11 Mai 2012, Toulouse


2

Problématique : pourquoi chercher à réduire l'information?

Si un champ complexe se projette sur quelques composantes, alors on peut:

- accélérer la prévision numérique en réduisant le coût de calcul

== Réduction de modèles

→ compression de l'information

→ application dans le contrôle en temps réel

→ modélisation simplifiée d'un système complexe

(Turbulence, interaction fluide-structure, coeur humain,...)

- mieux comprendre les interactions entre différentes régions du domaine

→ télé-connexion en climat

→ solution récurrente (régime de temps)

Problème:

- Comment savoir si un champ se prête à une simplification de la dynamique?

→ Il faut que la dynamique soit stationnaire

(i.e. qu'on ait toujours le même type de phénomènes)

- Comment déterminer ces motifs récurrents dans le phénomène observé ?

→ Une approche possible : l'analyse en composante principale (ACP)


3

Plan de la présentation

1. Rappel: définition et propriété d'une matrice de covariance

Première définition d'une composante principale

2. Direction (s) principale (s) comme direction(s) de plus forte variance

Deuxième définition d'une composante principale

3. Exemple d'une réduction de modèle par ACP (== PCA / EOF / POD)

Equation de Burger (EDP)

4. Introduction au TP : composantes principales & modèle de Lorenz 1963.


4

1. Rappel: définition et propriété d'une matrice de covariance


5

1. Rappel: définition et propriété d'une matrice de covariance

Covariance et distribution Gaussienne

T

Pi =ei ei i0

C

ei T

C=∑ i i ei ei D=diag i

Il existe une base orthonormale dans laquelle cette

métrique se représente par une matrice diagonale

représente le projecteur orthogonal suivant la direction

est la valeur propre de suivant

e i

Ces directions sont les composantes principales de

C

e i

C

e i


6

1. Rappel: définition et propriété d'une matrice de covariance

Densité de probabilité et densité empirique

e 1

e 2

x k'

x k


7

1. Rappel: définition et propriété d'une matrice de covariance

Formulation ensembliste des matrices de covariance

X=[ x 1 x 2⋯x N]

Soit la matrice dont les colonnes sont des

réalisations de la variable aléatoire

La matrice de covariance empirique est donnée par

C N=

x

1

N −1 ∑ N

x k=1 k− xx k−x T

x= 1

N ∑ N

k=1

Dans la suite, on suppose la moyenne empirique comme nulle.

La matrice de covariance empirique s'écrit alors

C N=

1

N−1

(dans la pratique, on utilise souvent des variables centrées)

x k

X X T


8

1. Rappel: définition et propriété d'une matrice de covariance

Utilisation en assimilation de données

x∈ℝ n ,n≈10 7 −10 8

En assimilation de données, et on

rencontre des matrices de très grande dimension

C∈M nℝ⇒n 2 coefficients i.e. O10 14 −10 16

Une manière de réduire leur complexité est d'adopter une

réduction de la matrice aux premières composantes princiaples

n

C=∑i=1 T

i ei ei ≈ Cm =∑i=1 Une autre possibilité est de supposer connues les composantes

principales ei de la matrice, il ne reste alors qu'à estimer la

diagonale ce qui réduit la représentation en machine de la matrice

à l'équivalent du stockage mémoire d'un seul vecteur

m

T

i ei ei , où m≪n


9

2. Direction (s) principale (s) comme direction (s) de plus forte variance


10

Direction de plus grande variance : optimisation sous contraintes

Quelle est la direction suivant laquelle l'information se projette le mieux ?

x i

2. Direction (s) principale (s) comme direction (s) de plus forte variance

e 1

→ On cherche une direction telle que la variance de la projection des états

suivant cette direction est maximale.

En particulier, est unitaire, i.e.

Ces composantes formes un vecteur ligne

V X e1=

e 1

la variance n'est autre que

∥e 1∥ 2 =1

T

X e1=e1 X

1

N−1 X T 1

e X = 1 e1

N−1 e T T T

1 X X e1=e1 C N e1= J e1 Le problème est donc de maximiser sous la contrainte

avec

ce 1=∥e 1∥ 2 −1

J e 1

ce 1=0


11

2. Direction (s) principale (s) comme direction (s) de plus forte variance

Résolution de l'optimisation sous contrainte & Lagrangien - 1

ce=0

2

J e ec= J e〈 ∇ J e∣ ec〉O ec ∇ J e1

∇ J e opt

∇ c e1 ∇ c e opt

∇ J e opt∈Ker dc eopt ⊥ =Imagedc eopt

∇ J e opt ∇ c e opt=0

J e=V X e

∇ J e2

∇ c e2

T T

⇒ {∃ w ,dce opt w=∇ J opt}

e


12

2. Direction (s) principale (s) comme direction (s) de plus forte variance

Résolution de l'optimisation sous contrainte & Lagrangien - 2

e opt

implique:

maximise J e sous la contrainte ce=0

1 ∇ J e opt opt ∇ c e opt=0

2 ce opt =0

Ce qui se résume à la stationnarité en e du « Lagrangien »

opt , opt

Le ,= J ece

est appelé le « multiplicateur de Lagrange »

En effet, L=∂ e L opt e∂ L opt =0

est équivalent à

1 ∂ e L opt =∇ J e opt opt ∇ c e opt=0

2 ∂ L opt =ce opt =0


13

2. Direction (s) principale (s) comme direction (s) de plus forte variance

Résolution de l'optimisation sous contrainte & Lagrangien - 2

Une condition nécessaire et non suffisante : sta

il peut y avoir plusieurs points stationnaires ei

reste à trouver lequel vérifie l'optimalité parmi ces points

ce=0

sta

e1 sta opt

e2 =e

J e=V X e

sta

e3


14

2. Direction (s) principale (s) comme direction (s) de plus forte variance

Résolution du problème avec contrainte pour l'ACP

1 C N e=e

2 ∥e∥ 2 =e T e=1

Le ,=e T C N e−∥e∥ 2 −1

e est un vecteur propre de C N associé à

1 V X e =e T C N e=

s'interprète comme la variance suivant la direction e

e 1

opt

est donc le vecteur propre de C associé à la plus

N

grande valeur propre


15

2. Direction (s) principale (s) comme direction (s) de plus forte variance

Résolution du problème avec contrainte pour l'ACP

Ayant trouvé la première direction principale e2, on cherche

une deuxième direction e1 , normalisée, avec comme autre

contrainte qu'elle soit orthogonale à la première direction.

e 1

e 2

T

Le 2 ,,=e 2

CN e2−∥e 2∥ 2 T

−1−e 1

e2

L'optimum est un point vérifiant la stationnarité du Lagrangien:

T

e2 C N e2 =

1 ∂ e2

L=C N e 2 −e 2 − e 1 =0

2 ∂ L=∥e 2 ∥ 2 −1=0

T

3 ∂ L=e1 e2 =0

T C N e 2 ==0 e 2

s'interprète comme la covariance entre et

s'interprète comme la variance suivant la direction e2 opt

est donc le vecteur propre de C associé à la

N

deuxième plus grande valeur propre.

L'analyse en composantes principales construit une base orthonormale dans laquelle

l'information se projette le mieux. Ces composantes sont les vecteurs propres de la

matrice de covariance C N

e 1


16

3. Exemple d'une réduction de modèle par ACP

aussi appelé:

Analyse en Composantes Principales (ACP)

Principal Component Analysis (PCA)

Empirical Orthogonal Function (EOF)

Proper Orthogonal Decomposition (POD)


17

3. Exemple d'une réduction de modèle par ACP

Réduction de modèle dans le cas d'une EDP : l'éq. de Burger

1 enx=e ikn x , k= 2

L


2 ux ,t=∑ u

n=−∞ nte nx 3 unt=〈e n∣u〉= 1

L ∫ L

ux ,te 0

nxdx ∞

4 ∂ x ux ,t=∑ n=−∞

2

E ∂tuu∂ x u=∂ x u

Sur un domaine circulaire de périmètre L

Supposons que les composantes principales soient les exponentielles circulaires

La dynamique s'exprime par la description de l'évolution en temps des

composantes dans cette base

5 ux ,t≈u T x ,t =∑ n=−T


unt∂ x enx=∑ u

n=−∞ nt ink enx T

u n te n x


18

3. Exemple d'une réduction de modèle par ACP

Réduction de modèle dans le cas d'une EDP : l'éq. de Burger

2

E ∂tuu∂ x u=∂ x u

La projection de Galerkin consiste à ré-écrire la dynamique (E) dans cette

représentation:

1

2

3

4

d

dt u 2

n〈e ∣u n T ∂x uT− ∂x uT 〉=0, ∀ n∈[−T ,T ]

d

dt u n〈e n ∣u T ∂ x u T 〉=−n 2 k 2 u n ,

d

dt un∑ u pq=n piqku q=−n 2 k 2 un ,

d

dt un=−∑ u pq=n piq kuq−n 2 k 2 un.


19

3. Exemple d'une réduction de modèle par ACP

Réduction de modèle dans le cas d'une EDP : l'éq. de Burger

t=0 t=0.4 t=0.6

2

E ∂tuu∂ x u=∂ x u

u u

t=0 t=0.4 t=0.6

x

T=200 T=50

x


20

4. Introduction au TP : composantes principales et modèle de Lorenz 1963.


21

4. Introduction au TP : composantes principales & modèle de Lorenz 1963.

ACP à partir d'une simulation ou d'observations

X=[ x 1 x 2 x 3 x 4 ⋯ x N]

C N=

1

T

X X

N−1

-1- Diagonalisation de pour construire les composantes principales

-2- Calcul des amplitudes du champ le long des premières composantes principales

-3- Représentation de cette dynamique dans l'espace réduit

x= 1

N ∑ N

k=1

x k=0


22

Conclusion

L'analyse en composante principale est un outil d'algèbre linéaire simple à

mettre en oeuvre.

Le formalisme qui repose sur l'optimisation sous contrainte d'égalité

(Lagrangien, multiplicateur de Lagrange).

Cet outil permet de simplifier la représentation d'un phénomène complexe

(champ de la mécanique des fluides, coeur humain,..)

On peut en déduire une dynamique réduite qui permet de diminuer le coût

d'une prévision et faciliter l'assimilation des données en recherchant la

solution dans un petit sous-espace.

Quelques questions à traiter :

Réduction de modèle pour quelques EDP simples

Étude de la convergence vers la solution théorique avec le nombre de

composantes sélectionnées

Assimilation de données dans le modèle réduit, comparaison avec celle dans

le modèle complet

Déduction de la dynamique dans l'espace réduit à partir d'une séquence

d'observations


Merci

More magazines by this user
Similar magazines