12.07.2015 Views

Tamtam Proceedings - lamsin

Tamtam Proceedings - lamsin

Tamtam Proceedings - lamsin

SHOW MORE
SHOW LESS
  • No tags were found...

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Assimilation de données pour l’environnement 423Le but des techniques d’assimilation de données étant de reconstruire une condition initiale,il nous faut un moyen de récupérer un état à l’instant 0 à partir de la trajectoirecorrespondant à (8). Pour cela, nous appliquons la méthode du nudging au système rétrogradeen repartant de la condition finale précédemment obtenue :⎧⎨ ∂ỹ(t, x) + A(t, x; ỹ) = f(t, x) − K(z(t, x) − ỹ(t, x)), T > t > 0∂t (9)⎩ỹ(T, x) = y(T, x).On peut alors réitérer le procédé un certain nombre de fois, et l’algorithme du nudgingdirect et rétrograde s’écrit alors :⎧⎨ ∂y k∂t (t, x) + A(t, x; y k) = f(t, x) + K(z(t, x) − y k (t, x)), 0 < t < T(10)⎩y k (0, x) = ỹ k−1 (0, x),⎧⎨⎩∂ỹ k∂t (t, x) + A(t, x; ỹ k) = f(t, x) − K(z(t, x) − ỹ k (t, x)), T > t > 0ỹ k (T, x) = y k (T, x),avec la convention ỹ −1 (0, x) = y 0 (x).D’un point de vue théorique, pour un opérateur linéaire symétrique compact (par exemplel’opérateur de la chaleur), on peut montrer que cet algorithme converge vers une trajectoirelimite y ∞ (t, x), indépendante de la condition initiale y 0 (x) [3]. De plus, à chaqueitération de (10) et (11), la trajectoire obtenue se rapproche des observations.D’un point de vue asymptotique, si K tend vers +∞, y k (t, x) tend vers z(t, x) pour toutt > 0, et y ∞ (t, x) tend vers z(t, x) pour tout t (même en t = 0). De même, si K est plusgrand qu’une constante ne dépendant que de l’opérateur A et si on fait tendre T vers l’infini,alors y ∞ (t, x) converge également, sous réserve que la fonction z(t, x) soit bornéeen temps [3].D’un point de vue pratique, sur un problème océanographique non linéaire (modèle quasigéostrophiquebarocline à 3 couches), on constate que cet algorithme permet d’obtenir desrésultats au moins similaires (et même meilleurs dans de nombreux cas) à ceux obtenuspar le 4D-VAR : la figure de gauche montre la décroissance de la fonction coût (2) du4D-VAR et de la norme de son gradient dans chaque couche en fonction du nombre d’itérationsdu processus de minimisation du 4D-VAR. La figure de droite montre la mêmechose pour l’algorithme du nudging direct et rétrograde.On constate que l’on gagne en moyenne 2 ordres de grandeur, aussi bien sur la fonctioncoût que sur son gradient, en une vingtaine d’itérations. Il faut noter que le temps decalcul d’une itération est comparable entre les deux méthodes puisque chaque itérationcomprend une résolution d’un modèle direct et une résolution d’un modèle rétrograde.Pour obtenir une estimation de la condition initiale du même ordre de grandeur que le4D-VAR (ou le 4D-PSAS), le nudging direct et rétrograde nécessite moins d’itérations (et(11)TAMTAM –Tunis– 2005

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!