12.07.2015 Views

Tamtam Proceedings - lamsin

Tamtam Proceedings - lamsin

Tamtam Proceedings - lamsin

SHOW MORE
SHOW LESS
  • No tags were found...

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

422 AurouxLe problème de la minimisation de J se ramène alors à un problème de min-max (respectivementsur (u, v) et p), qui lui-même est équivalent (en supposant les opérateurs A et H ilinéaires) au problème de max-min. On peut donc réécrire le problème de minimisationde J sous la forme d’un problème de maximisation d’une fonctionnelle duale J D .On peut alors définir un opérateur sur l’espace des observations :• Considérons un vecteur m = (m 1 ...m N ) dans l’espace des observations (m i correspondà une observation du système à l’instant t i ).• On peut alors résoudre l’équation adjointe − ∂p m∂t (t) + A(t)T p m (t) =N∑Hi T m i δ(t − t i ) avec la condition initiale p m (T ) = 0.i=1• On pose alors y m (0) = P 0 p m (0) et on résoud ∂y m∂t (t) + A(t)y m(t) = Qp m (t).• Enfin, on définit D(m) = Hy m .La fonctionnelle duale J D s’écrit alors :J D (m) = 1 〈(D + R)m, m〉 − 〈d, m〉 (7)2où d = z − Hỹ est le vecteur d’innovation, ỹ étant la solution sans erreur du systèmedirect (1) (avec u = 0 et v = 0).On peut prouver [1] que la solution ŷ du système d’optimalité (5) est la somme de la solutionsans erreur ỹ et de la solution y ˆm correspondant au minimum ˆm de J D . Ceci montrel’équivalence des deux approches (4D-VAR/4D-PSAS) lorsque les opérateurs sont linéarisés.Cette méthode présente deux avantages certains sur le 4D-VAR : d’une part la prise encompte inhérente de l’erreur modèle (sans aucun surcoût de calcul ou stockage), et d’autrepart la minimisation de la fonctionnelle duale qui s’effectue dans l’espace des observationsdont la dimension est généralement de 1 à 2 ordres de grandeur inférieure à celle del’espace des états. Cette méthode peut être étendue pour des problèmes non linéaires etoù l’inversion du min et du max pour le lagrangien n’est en théorie plus possible [2].4. Un nouvel algorithme : le nudging direct et rétrogradeConsidérons à nouveau le modèle initial (1). On suppose toujours u et v sont inconnueset que nous disposons d’observations z(t, x).La méthode du nudging consiste à rajouter directement dans l’équation du modèle unterme de rappel aux observations :⎧⎨ ∂y(t, x) + A(t, x; y) = f(t, x) + K(z(t, x) − y(t, x)),∂t 0 < t < T (8)⎩y(0, x) = y 0 (x).TAMTAM –Tunis– 2005

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!