28.10.2013 Aufrufe

1. Jahresbericht (german version) - Foresight & Policy Development

1. Jahresbericht (german version) - Foresight & Policy Development

1. Jahresbericht (german version) - Foresight & Policy Development

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

eport<br />

reclip:more<br />

research for<br />

climate protection:<br />

model run evaluation<br />

<strong>1.</strong> <strong>Jahresbericht</strong><br />

Wolfgang Loibl, Herbert Formayer<br />

Wolfgang Schöner, Bodo Ahrens<br />

Manfred Dorninger, Andreas Gobiet<br />

(Hrsg.)<br />

Dezember 2004<br />

ARC–sys-0032


eclip:more<br />

research for<br />

climate protection:<br />

model run evaluation<br />

<strong>1.</strong> <strong>Jahresbericht</strong><br />

zum Projekt Nr. 7.64.00210<br />

Berichtszeitraum 11/2003 - 06/2004<br />

Wolfgang Loibl, Herbert Formayer<br />

Wolfgang Schöner, Bodo Ahrens<br />

Manfred Dorninger, Andreas Gobiet<br />

(Hrsg.)<br />

Dezember 2004<br />

ARC–sys-0032


Kwiss-Programm reclip:more<br />

research for climate protection – model run evaluation<br />

Autorenschaft:<br />

Projektleiter ist Wolfgang Loibl<br />

Als Herausgeber fungieren die Teilprojektleiter der beteiligten Institutionen:<br />

Wolfgang Loibl, Herbert Formayer, Wolfgang Schöner, Bodo Ahrens, Manfred Dorninger, Andreas<br />

Gobiet<br />

ProjektbearbeiterInnen und damit Co-AutorInnen sind:<br />

Mario Köstl 1) , Wolfgang Loibl 1) , Johann Züger 1) , Elsa Dos Santos Cardoso 2) , Wolfgang Schöner 2) ,<br />

Herbert Formayer 3) , Andreas Frank 3) , Helga Kromp-Kolb 3) , Bernd C. Krüger 3) , Petra Seibert 3) ,<br />

Andreas Gobiet 4) , Gottfried Kirchengast 4) , Heimo Truhetz 4) , Bodo Ahrens 5) , Alexander Beck 5) , Barbara<br />

Chimani 5) , Theresa Gorgas 5) , Manfred Dorninger 5) , Reinhold Steinacker 5)<br />

Projektpartner: reclip:more<br />

Außeruniversitäre Institutionen<br />

1) systems research ARC systems research GmbH<br />

2) ZAMG Zentralanstalt für Meteorologie und Geodynamik<br />

Universitäten<br />

3) BOKU-Met Institut für Meteorologie der Universität für Bodenkultur, Wien<br />

4) IGAM Institut für Geophysik, Astrophysik und Meteorologie der Univ. Graz<br />

5) IMG Institut für Meteorologie und Geophysikder Universität Wien


Kurzfassung<br />

Hauptziel des Projekts ist, Szenarios des künftigen regioalen Klimas für Österreich in meso- und<br />

microskaliger Auflösung mit Hilfe regionaler Klimamodelle (RCM’s) und Methoden des Statistical<br />

Downscaling zu erzeugen, wobei die Möglichkeiten der eingesetztes Modelle und Downscaling-<br />

Methoden für den alpinen Raum evaluiert werden sollen. Durch Quantifizierung der Unsicherheiten<br />

und mittels Sensitivitätsanalysen der RCM-Simulationen um den Einfluss unterschiedlicher Modelparameter<br />

und IT-Prozesstechniken zu prüfen. Um diese Ergebnisse zu erzielen sind weiters vorbereitende<br />

Datenaufbereitung, zahlreiche gemeinsam durchzufürhrende Modellexperimente und eine<br />

genaue Datenkontrolle notwendig.<br />

Zwei regionale Klimamodelle – das französische Modell ALADIN und das USA-kandadische Model<br />

MM5 – werden dabei durch ERA-40 Reanalyse-Daten und ECHAM5 GCM-Daten angetrieben, die<br />

das aktuelle (1981-1990) und das künftige (2041-2050) Klima widerspiegeln sollen. Durch das Numerische<br />

Downscaling wird ausgehend von einer spektralen Auflösung T106 – also 120 km horizontale<br />

Auflösung – eine Auflösung von ca. 15 km erreicht werden, ein weiteres Downscaling auf ca. 1<br />

km wird mittels statistischer Methoden erreicht. Die Modellvalideirungs-Tasks erlauben ein Benchmarking<br />

der Ergebnisse der beiden eingesetzten RCM’s.<br />

Im ersten Projektjahr (November 2003 bis Juni 2004, gestreckt bis Oktober 2004), konzentrierten<br />

sich die Reclip-Teams auf vorbereitende Arbeiten für die 10-Jahres-RCM-Simulationen mit ERA-40<br />

Re-Analyse- und ECHAM5-Kontrollauf-Daten sowie auf Sensitivitätsstudien, um das optimale RCM-<br />

Setup zu finden. Für die Validierung wurden synoptische Daten aus Österreich und ganz Europa für<br />

den angestrebten Untersuchungszeitraum aufbereitet. Zusätzlich wurden weitere Methoden des<br />

Downscalings getestet bzw. eingesetzt, um eine Regionalisierung in einer horizontalen Auflösung<br />

von 5 bis 1 km zu erreichen: Für die Temperatur, den Niederschlag und die Sonneneinstrahlung<br />

wurde mit statistischen Verfahren unter Einsatz von Terrain-bezogenen Response-Variablen (für die<br />

Sonnenstrahlung zusätzlich mit numerischen Funktionen aus der Strahlungsphysik) gearbeitet, für<br />

den bodennahen Wind wurde ein weiteres dynamisches Downscaling via MM5 verwendet.


Abstract<br />

A reliable assessment of future climate impacts in Austria makes necessary to provide regional climate<br />

model (RCM) runs, and additional tasks to deliver high resolution downscaled datasets for past<br />

and future climate targeting the entire eastern alps covering Austria. The 3-year project reclip:more<br />

(Research for Climate Protection: Model Run Evaluation) is a cooperation of five academic instittions:<br />

The Department of Meteorology and Geophysics of Vienna University (IMG), the Institute of<br />

Meteorology of Vienna University of Natural Resources and Applied Life Sciences (BOKU-Met), the<br />

Institute for Geophysics, Astrophysics and Meteorology of the Graz University (IGAM), the Central<br />

Institute for Meteorology and Geodynamics (ZAMG) and ARC systems research GmbH (systems<br />

research), which is leading the project.<br />

The major goal of the project is to provide future regional climate model scenarios for Austria at meso-<br />

and microscale resolutions by applying regional climate models and statistical downscaling methods<br />

and to evaluate the capability of the applied models and methods to create climate scenarios<br />

for the Alpine region. The goals besides providing climate scenarion data are (1) – quantify the uncertainties<br />

of regional climate simulations elated to observed climate data, (2) – investigate the sensitivity<br />

of regional climate simulations and interpolated climate data to the influence of different model<br />

parameters and data processing techniques. To achieve this, data preparations, a set of common<br />

model experiments and data evaluations have to be carried out.<br />

Two regional circulation models – the French ALADIN model and the US/Canadian mesoscale model<br />

MM5 – will be driven by ERA-40 reanalysis data and by ECHAM5 global circulation model (GCM)<br />

results, representing current (1981-1990) and future (2041-2050) climate to accomplish dynamical<br />

downscaling from the coarse GCM resolution (spectral truncation T106, i.e. ~120 km horizontal resolution)<br />

to 15 km. Further downscaling to 1 km resolution will be accomplished by statistical methods.<br />

The model validation tasks will provide a benchmarking of the 2 regional climate models.<br />

In project year 1 (Nov. 2003 to June 2004, postponed to Oktober 2004), the reclip-teams focused on<br />

preparative work for 10-year RCM simulations, using ERA-40 data and and ECHAM5 control runs of<br />

current climate from the 1990ies, on sensitivity studies aiming at finding the optimal RCM-setup, on<br />

examinations concerning further statistical downscaling and on the preparation of validation data and<br />

methods. To compare the model results with observation data, monitoring data sets from 1990 and<br />

2000 for Austria and synoptical data sets for entire Europe have been prepared. Further downscaling<br />

of model results have been derived for a horizontal resolution of 5-1 km for temperature, precipitation<br />

and solar radiation by statistical methods, with the help of terrain-related response variables (for irradiation<br />

additionally with radiation-physics-related numerical functions), and for near-surface-wind by<br />

dynamical downscaling via MM5.


Inhaltsverzeichnis<br />

1<br />

2<br />

Vorbemerkungen<br />

Projektübersicht<br />

1<br />

3<br />

2.1 Zielsetzung von reclip:more 3<br />

2.2 Aufgabe und Teilprojekte von reclip:more (Model Run Evaluation) 3<br />

2.3 Projekt-Feinstruktur für das Projektjahr 1 5<br />

Workpackage 1 – Projektmanagement 5<br />

Workpackage 2 – Datenaufbereitung 5<br />

Workpackage 3 – Modellvalidierung, Sensitivitäts- und Validitätstests 5<br />

Workpackage 4 – Regionale Klimamodellierung 5<br />

Workpackage 5 – Regionalisierung 6<br />

3 Kurzbeschreibung der Tätigkeiten im ersten Projektjahr 7<br />

3.1 Workpackage 1 – Projektmanagement (Loibl) 7<br />

3.2 Workpackage 2 – Datenaufbereitung 8<br />

WP 2.1 Bereitstellung österreichischer Messdaten (Schöner) 8<br />

WP 2.2a Bereitstellung Synop-Daten Europa (Dorninger) 8<br />

WP 2.2b Bereitstellung MAP-Daten (Chimani) 8<br />

WP 2.2c Bereitstellung Radiosondendaten (Häberli) 8<br />

WP 2.3a ERA-40 Daten – Aufbereitung für ALADIN (Beck) 9<br />

WP 2.3b ERA-40 Daten – Aufbereitung f. MM5 (Züger) 9<br />

WP 2.4a ECHAM5 T106 Treiberdaten (1981-1990) (Gobiet) 9<br />

WP 2.4b ECHAM4 T106 Treiberdaten (2041-2050 - 2. Projektjahr) (Gobiet) 10<br />

3.3 Workpackage 3 – Modellvalidierung, Sensitivitäts- und Validitätstests 10<br />

WP3.1 Abstimmung der Sensitivitätsexperimente (fokussiert auf ALADIN) (Ahrens,<br />

Beck) 10<br />

WP3.2 Festlegen der Sensitivitäts- und Validitätstests, Entwurf des Benchmarks<br />

(Formayer) 11<br />

WP3.3 Modellvalidierung – VERACLIM (Dorninger) 11<br />

WP3.4 Vertikale Validierung (Gobiet) 12<br />

3.4 Workpackage 4 – Regionale Klimamodellierung 12<br />

WP4.1 MM5 – Fortran sourcen, Binärcode-Vergleichstests (Züger) 12<br />

WP4.2 Modellparameter: Domains, Zielauflösung, Study-areas (Züger, Loibl) 13<br />

WP4.3a MM5 test runs mit ERA-40 Daten, erste Sensitivitätsexperimente-ARC<br />

(Züger) 13<br />

WP4.3b MM5 test runs mit ERA-40 Daten, erste Sensitivitätsexperimente-IGAM<br />

(Truhetz, Gobiet) 14<br />

WP4.3c MM5 test runs mit ERA-40 Daten, erste Sensitivitätsexperimente-BOKU-Met<br />

(Formayer) 14<br />

WP4.4 ALADIN test runs mit ERA 40 Daten, Durchführung erster<br />

Sensitivitätsexperimente (Beck, Ahrens) 14


3.5 Workpackage 5 – Regionalisierung 15<br />

WP 5.1: Entwicklung einer Schnittstelle MM5/ALADIN – Regionalisierungstool<br />

(Schöner) 15<br />

WP 5.2a: Regionalisierungstool Temperatur mean (Schöner) 16<br />

WP 5.2b: Regionalisierungstool Temperatur min/ max (Loibl) 16<br />

WP 5.3: Regionalisierungstool Niederschlag (Schöner) 17<br />

WP 5.4: Regionalisierungstool Schneedecke (Schöner) 17<br />

WP 5.5: Regionalisierungstool Strahlung (Loibl) 17<br />

WP 5.6: Regionalisierungstool Wind (Truhetz) 18<br />

4 Auflistung der Workpackages geordnet nach Projektpartner 20<br />

4.1 IGM – Gruppe Dorninger 20<br />

4.2 IGM – Gruppe Ahrens 20<br />

4.3 ZAMG 20<br />

4.4 BOKU-Met 21<br />

4.5 IGAM 21<br />

4.6 systems research 21<br />

5 Ausblick Projektjahr 2: Oktober 2004 – Oktober 2005 22


Anhänge<br />

Anhang 1 Teilberichte der ProjektpartnerInnen<br />

Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />

Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />

Alexander Beck und Bodo Ahrens:<br />

Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />

Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />

Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle zu<br />

den regionalen Klimamodellen<br />

Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-<br />

Kolb:<br />

Validierung – Sensitivitätstests<br />

Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />

MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling,<br />

Mario Köstl, Wolfgang Loibl und Johann Züger:<br />

Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung<br />

Anhang 2 Protokolle der Projektmeetings<br />

Anhang 3 Folienübersicht der Vorträge<br />

Loibl – Präsentation von reclip:more am Klimatag 2004 der BOKU<br />

Keuler – Gastvortrag am 20.4.2004<br />

Benestad – Gastvortrag am 2<strong>1.</strong>6.2004<br />

Anhang 4 Nachfrage nach Klimadaten – Bedarfserhebung Herbst 2003<br />

Anhang 5 reclip:more Poster präsentiert bei<br />

High-resolution climate modelling: Assessment, added value and applications<br />

Lund, Sweden, 29 March – 2 April 2004


1 Vorbemerkungen<br />

Aufgrund der positiven Erfahrungen mit dem in systems research konzipierten technologiepolitischen<br />

Instrument K-plus wurde ein neues forschungspolitisches Instrument K-wiss entwickelt. Ziel<br />

dieses Instruments ist die Verknüpfung und Bündelung bestehender Kompetenzen universitärer und<br />

außeruniversitären Forschungseinrichtungen. Die wesentlichen Ziele sind:<br />

- Schaffung überkritischer Größen in wachsenden Forschungsfeldern<br />

- Schaffung eines längerfristig stabilen Kooperations-Netzwerks<br />

- Bündelung und Austausch von Wissen<br />

- Transfer von Wissen zu Anwendern<br />

- Gemeinnützige Forschung von hoher gesellschaftlicher Relevanz<br />

reclip – research for climate protection – ist das erste K-wiss-Programm. Es wurde von<br />

ARC systems research konzipiert, um die aktuellen bzw. angekündigten Bemühungen und<br />

Aktivitäten der Bundesregierung in der Klima- und Klimafolgenforschung auf regionaler Ebene sowie<br />

im Klimaschutz generell zu unterstützen und Synergien aus den Stärken der universitären und<br />

außeruniversitären Forschung zu generieren.<br />

Das Programm hat 2 zentrale Teilziele: Zum Einen die Abschätzung künftiger Klimaänderungen (die<br />

aufgrund der Erhöhung der Treibhausgaskonzentration in der Atmosphäre absehbar und bereits<br />

beobachtbar sind), zum Anderen Strategien zur Reduktion ebendieser Treibhausgase.<br />

Das <strong>1.</strong> Teilziel ist somit, aus Ergebnissen globaler Klimamodelle die Basis für die Abschätzung künftiger<br />

Klimaänderungen im regionalen Maßstab zu schaffen. Damit können wissenschaftlich fundierte<br />

Aussagen über konkrete, lokale Folgewirkungen einer Klimaänderung auf ökologische und soziökonomische<br />

Systeme getroffen werden. Eine vor allem für Wien wichtige Testregion ist das Wiener<br />

Becken, welches möglicherweise in besonderem Ausmaß einerseits von Starkregen und Hochwasser,<br />

andererseits von Trockenheit betroffen sein wird.<br />

Das 2. Teilziel ist die Erarbeitung einer Daten- und Methodenbasis für die Unterstützung einer vorausschauenden<br />

Umweltpolitik von Bund, Ländern und Gemeinden zur Optimierung von Maßnahmen<br />

für die Senkung der Treibhausgas-Emissionen.<br />

3 Projekte sind innerhalb des Programms vorgesehen:<br />

- reclip:more – Model Run Evaluation: mesoskalige Klimamodellierung als Vorbereitung für<br />

Klimafolgen-Forschung: Modellierung und Benchmarking (Details dazu umseitig)<br />

- reclip:tom – Technological Options for Mitigation: Modellierung der Emissionen aus Energieverbrauch,<br />

Produktions- und Entsorgungsprozessen sowie Landnutzung<br />

- reclip:strat – Strategische Begleitung und Evaluierung: Lessons learned für Kooperationen<br />

01


Der vorliegende Bericht befasst sich mit den Tätigkeiten und Ergebnissen des ersten Projektjahres<br />

des Teilprojektes reclip:more. Die Verzögerung der Berichtslegung um einige Monate ergab sich aus<br />

Abstimmungsproblemen zwischen den Gruppen, va. dort, wo Ergebnisse einer Gruppe Input für eine<br />

andere Gruppe war, durch Verzögerungen bei der Einigung auf zu nutzende Daten und der Datenbereitstellung<br />

und auch auf Grund längerer Diskussion über die idealen Zeitscheiben für die Modellierung<br />

und die Sensitivitätstests und Parametrisierung (vgl. Meeting-Protokolle im Anhang 2). Die Verzögerung<br />

ist aber im Sinne des Projekts, da sich durch die größere Sorgfalt in der Auswahl von Daten,<br />

Parametern und Anfangsbedingungen die Qualität der Ergebnisse der heranzuziehenen<br />

GCM-Treiberdaten verbessern lässt.<br />

02 reclip:more<br />

Research for Climate Protection:Model Run Evaluation


2 Projektübersicht<br />

2.1 Zielsetzung von reclip:more<br />

Innerhalb des reclip-Programms sind 3 Projekte geplant bzw. bereits in Bearbeitung:<br />

Mit dem Teilprojekt reclip:more (Model Run Evaluation) sollen ausgehend von den Ergebnissen<br />

Globaler Klimamodelle anhand von Modelläufen zweier regionaler Klimamodelle (LAMs – Limited<br />

Area Models) eine kleinräumige Datenbasis für die Abschätzung künftiger Klimaänderungen im regionalen<br />

Maßstab für Österreich geschaffen werden, mit der Hilfe wissenschaftlich fundierte Aussagen<br />

über konkrete, lokale Folgewirkungen auf ökologische und soziökonomische Systeme getroffen werden.<br />

Im Teilprojekt reclip:tom (Technological Options for Mitigation) sollen fundierte Abschätzungen der<br />

Emissionsentwicklung von Treibhausgasen in Österreich unter Berücksichtigung zukünftiger technologischer<br />

Entwicklungen getroffen werden.<br />

Im Teilprojekt reclip:strat erfolgt eine strategische Begleitung und Evaluierung des gesamten Programms<br />

sowie der beiden Teilprojekte.<br />

2.2 Aufgabe und Teilprojekte von reclip:more (Model Run<br />

Evaluation)<br />

Der vorliegende Bericht beschreibt nun die bisherigen Ergebnisse des im November begonnenen<br />

Projekts reclip:more – im Wesentlichen die Feinstrukturierung des Projektes sowie die Aufbereitung<br />

von Basisdaten.<br />

Folgende Tasks waren innerhalb von reclip:more geplant:<br />

- Aufbereitung der Datengrundlagen – ua. Messdaten aus Österreich, europäische Synop-<br />

Daten, von Höhenmodellen, Landnutzungsdaten und Antriebsdaten für die regionalen Klimamodelle<br />

(NCEP-Daten und ERA-40 Daten, sowie ECHAM5 GCM-Modell-Ergebnisse).<br />

- Durchführen von retrospektiven vergleichenden Modellläufen 2er regionaler Klimamodelle<br />

(MM5, ALADIN) unter Verwendung von NCEP-Daten und ERA-40 Daten für die Jahre<br />

1981-1990 bzw. 1999.<br />

- Recherche, Auswahl, Test und gegebenenfalls ergänzende Entwicklung von Modellvalidierungs-Methoden<br />

zur Überprüfung der Qualität der kleinräumigen Modellergebnisse im Hinblick<br />

auf die räumliche und zeitliche Übereinstimmung.<br />

- Recherche, Analyse und Entwicklung von Regionalisierungs-Verfahren – zB von ca. 10 km<br />

LAM-Ergebnissen auf zB 1 km regionale Auflösung.<br />

- Regionalisierung der retrospektiven LAM-Ergebnisse mittels GIS-basierender bzw. geostatistischer<br />

Verfahren – soweit notwendig - für ausgewählte Zeitscheiben und Testregionen der<br />

Modellergebnisse.<br />

- Benchmarking der Modell-Ergebnisse der ausgewählten Modelle für das gerechnete Modelljahr<br />

unter Verwendung der in Task 3 getesteten Validierungs-Methoden und Ergebnisindikatoren.<br />

03


- Durchführung prospektiver vergleichender Modellläufe der beiden ausgewählten LAMs mit<br />

gemeinsam festzulegenden GCM-Antriebsdaten (zB ECHAM5 T106) und denselben Eingabe-Daten<br />

für die Zeitspanne 2041 und 2050.<br />

- Weitere Regionalisierung der prospektiven LAM-Ergebnisse mittels GIS-basierender bzw.<br />

geostatistischer Verfahren für ausgewählte Zeitscheiben und Testregionen.<br />

Die folgende Abbildung zeigt eine Übersicht der Projekt-Teile, den groben zeitlichen Ablauf und die<br />

Arbeitsteilung zwischen ARC systems research, ZAMG sowie den Universitäten (letztere durch entsprechende<br />

Farbcodes).<br />

Abbildung 1: Projekt-Struktur des Teilprojekts reclip:more: Tasks, zeitliche Abfolge und Arbeitsteilung<br />

zwischen den Projektpartnergruppen<br />

04 reclip:more<br />

Research for Climate Protection:Model Run Evaluation


2.3 Projekt-Feinstruktur für das Projektjahr 1<br />

Workpackage 1 – Projektmanagement<br />

WP<strong>1.</strong>1 Projektentwicklung<br />

WP<strong>1.</strong>2 Projektcontrolling – inhaltlich, finanziell<br />

WP<strong>1.</strong>3 Vertragsangelegenheiten (Subverträge, Vortrags- und Tagungskostenbeiträge)<br />

WP<strong>1.</strong>4 Daten- und Methodenpool-Verwaltung (FTP-site,…)<br />

WP<strong>1.</strong>5 Projektpräsentation (Homepage, Poster)<br />

Workpackage 2 – Datenaufbereitung<br />

WP 2.1 Bereitstellung österreichischer Messdaten<br />

WP 2.2a Bereitstellung Synop-Daten Europa<br />

WP 2.2b Bereitstellung MAP-Daten<br />

WP 2.2c Bereitstellung Radiosondendaten<br />

WP 2.3a ERA-40 Daten – Aufbereitung f. ALADIN<br />

WP 2.3b ERA-40 Daten – Aufbereitung f. MM5<br />

WP 2.4a ECHAM4 T106 Treiberdaten (1981-1990,1999)<br />

WP 2.4b ECHAM4 T106 Treiberdaten (2041-2050 - 2. Projektjahr)<br />

Workpackage 3 – Modellvalidierung, Sensitivitäts- und Validitätstests<br />

WP3.1 Abstimmung der Sensitivitätsexperimente für ALADIN<br />

WP3.2 Festlegen der Sensitivitäts- und Validitätstests, Entwurf des Benchmarks<br />

WP3.3 Modellvalidierung – VERACLIM<br />

WP3.4 Vertikale Validierung<br />

Workpackage 4 – Regionale Klimamodellierung<br />

WP4.1 MM5 – Fortran sourcen, Binärcode-Vergleichstests<br />

WP4.2 Modellparameter: Domains, Zielauflösung, Studyareas<br />

WP4.3a MM5 test runs mit ERA 40 Daten, erste Sensitivitätsexperimente-ARC<br />

WP4.3b MM5 test runs mit ERA 40 Daten, erste Sensitivitätsexperimente-IGAM<br />

WP4.3c MM5 test runs mit ERA 40 Daten, erste Sensitivitätsexperimente-BOKU-Met<br />

WP4.4 ALADIN test runs mit ERA 40 Daten, Durchführung erster Sensitivitätsexperimente<br />

05


Workpackage 5 – Regionalisierung<br />

WP 5.1 Entwicklung einer Schnittstelle MM5/ALADIN – Regionalisierungstool<br />

WP 5.2a Regionalisierungstool Tmean<br />

WP 5.2b Regionalisierungstool Tmin und Tmax<br />

WP 5.3 Regionalisierungstool Niederschlag<br />

WP 5.4 Regionalisierungstool Schneedecke<br />

WP 5.5 Regionalisierungstool Strahlung<br />

WP 5.6 Regionalisierungstool Wind<br />

06 reclip:more<br />

Research for Climate Protection:Model Run Evaluation


3 Kurzbeschreibung der Tätigkeiten im ersten<br />

Projektjahr<br />

Im Folgenden erfolgt eine kurze Beschreibung der einzelnen Workpackages, zusätzlich ist der jeweilige<br />

Workpackage-Verantwortliche angeführt. Dies heißt jedoch nicht, dass nicht auch andere Projektpartner<br />

an den einzelnen Workpackages mitgearbeitet oder wesentliche Beiträge dazu geliefert<br />

haben. Eine ausführliche Behandlung der einzelnen Workpackages sowie eine Zusammenfassung<br />

der Ergebnisse sind in den Teilberichten der einzelnen Projekt-Partner im Anhang 1 zu finden.<br />

3.1 Workpackage 1 – Projektmanagement (Loibl)<br />

WP1 beinhaltet alle relevanten Fragen und Aufgaben der Projektentwicklung und des Projektupdates<br />

bzw. des inhaltlichen und finanziellen Projektcontrollings sowie die Aquisition der Finanzmittel. Zudem<br />

werden im Rahmen dieses Workpackages alle Vertragsangelegenheiten (Subverträge, Vortrags-<br />

und Tagungskostenbeiträge) und die Daten- und Methodenpool-Verwaltung koordiniert.<br />

Im Rahmen des WP <strong>1.</strong>4 wurde von systems research für den Daten- und Programmaustausch ein<br />

FTP-Server mit ausreichender Plattenkapazität bereitgestellt, der für alle reclip-Partner zugänglich<br />

ist. Neben den angeführten Tätigkeiten und der Organisation der regelmäßigen Projekttreffen wurden<br />

auch zwei Wissenschaftler eingeladen und deren Reisekosten finanziert: Klaus Keuler von der<br />

Universität Cottbus stellte das reclip:more ähnliche Quircs-Projekt vor, Rasmus Benestadt vom Norwegischen<br />

Met-Office referierte zu Fragen des Statistical Downscaling und präsentierte sein<br />

R-Paket clim.pact (siehe Folien im Anhang 3). Überdies wurde das Projekt auf Fachtagungen vorgestellt<br />

(etwa in beim RCM-Workshop in Lund oder in Wien beim BOKU-Klimatag).<br />

Die für die Kommunikation nach innen und außen notwendige Projekt-Homepage wurde aufgrund<br />

der bisher noch nicht abgeschlossenen Vorbereitungen für den neuen Internet-Auftritt von systems<br />

research noch nicht eingerichtet, dies ist aber mit Anfang 2005 geplant.<br />

In der Projekt-Vorphase wurde eine „Nachfragererhebung“ durchgeführt, um zu erfassen, welche<br />

Klimaparameter in welcher räumlichen bzw. zeitlichen Auflösung für potenziellen Daten-Nachfrager<br />

relevant sind. Darauf aufbauend wurde die konkrete Auswertung von Modellergebnissen und Ergebnissen<br />

der Regionalisierung ausgelegt: Als unbedingt notwendig wird eine Auflösung bis 10 km erachtet,<br />

teilweise wird 1km als notwendig bzw. wünschenswert angegeben. Bei der zeitlichen Auflösung<br />

wurden Ergebnisse auf Tagesbasis bzw. Derivate davon (zB Temperatursummen) als notwendig<br />

erachtet. Zusätzlich benötigt man Mittel-, Minimum- und Maximumtemperatur (dh. zumindest eine<br />

6-stündige Auflösung!), sowie Tagesmittelwerte und Tagessummen. Zusätzlich gewünschte Klimaparameter<br />

neben der Temperatur waren Niederschlag, Strahlung und Schneedecke, als evtl. entbehrlich<br />

wurden Luftfeuchte, Luftdruck und Bodenfeuchte bezeichnet.<br />

(Details dazu siehe Anhang 4).<br />

07


3.2 Workpackage 2 – Datenaufbereitung<br />

WP 2.1 Bereitstellung österreichischer Messdaten (Schöner)<br />

Im Rahmen des Projekts reclip-more wurden von der ZAMG Daten von ca. 70 Messstationen aus<br />

dem Projekt STARTCLIM im ASCII Format bereitgestellt. Dieser Datensatz ist qualitätsverbessert<br />

aber nicht homogenisiert. Auf Tageswertbasis liegen für 70 österreichische Stationen folgende Daten<br />

vor:<br />

- Minimum- und Maximumtemperatur<br />

- Mitteltemperatur<br />

- Niederschlagssumme und<br />

- Schneehöhe<br />

Die Daten wurden auf einer CD abgespeichert und den Projektpartnern zur Verfügung gestellt.<br />

WP 2.2a Bereitstellung Synop-Daten Europa (Dorninger)<br />

Im Rahmen dieses Workpackages wurden dreistündige SYNOP-Daten aus dem MARS-Archiv des<br />

ECMWF-Datensatz von 1979 bis 2000 für den Großraum Alpen extrahiert.<br />

In der Sitzung vom 30. Jänner 2004 (vgl. auch Protokoll) wurde jedem Projektpartner eine DVD überreicht.<br />

Auf dieser DVD befindet sich auch ein Word-File mit einer Kurzbeschreibung der Daten<br />

(Parameterliste, Einleseroutine, etc.), sowie einem Abriss, wie die Daten mittels READ Befehl eingelesen<br />

werden können. Die zur Verfügung gestellten Rohdaten wurden zwar in ASCII-Format aufbereitet,<br />

allerdings nicht qualitätskontrolliert!<br />

WP 2.2b Bereitstellung MAP-Daten (Chimani)<br />

Ebenfalls in der Sitzung vom 30. Jänner 2004 wurde der Inhalt der MAP-Datenbank erklärt. Gemeinsam<br />

mit den Projektpartnern erfolgte eine Definition der Parameter, der Zeiträume (seasons, episodes,<br />

GOP, SOP, IOP) sowie der Perioden für die Sensitivitätsstudien.<br />

Zusätzlich wurde eine Überprüfung der MAP-Datenbank auf vorhandene Niederschlagsanalysen (zB<br />

Frei et al.) und auf Verfügbarkeit von Niederschlagsdaten während der GOP (13 Monate) durchgeführt.<br />

Die Gruppe IMG-Dorninger erklärte sich bereit, auf Anfrage die Datensätze aus der MAP-Datenbank<br />

zu extrahieren. Bis August 2004 sind keine derartigen Anfragen gestellt worden. Das Angebot bleibt<br />

natürlich auch im 2. Projektjahr aufrecht.<br />

WP 2.2c Bereitstellung Radiosondendaten (Häberli)<br />

Aufgabe dieses Workpackages war die Aufbereitung des Comprehensive Alpine Radiosonde Data<br />

Set (CALRAS) für reclip:more. Der Datensatz beinhaltet hochaufgelöste qualitätskontrollierte Radiosondendaten<br />

der zentraleuropäischen Radiosondenstationen (Zeitraum: unterschiedlich nach Existenz<br />

der jeweiligen Station, Originaldaten aus dem MARS Archiv).<br />

08 reclip:more<br />

Research for Climate Protection:Model Run Evaluation


Die Übermittlung der Daten erfolgte in Form von zwei CD’s am 17.Februar 2004. Zusätzlich wurde<br />

eine umfangreiche Dokumentation angeführt:<br />

- Part I: File Format and Decoding Tables<br />

- Part II: Data Con<strong>version</strong> and Preprocessing<br />

- Part III: Level1 Quality Control<br />

WP 2.3a ERA-40 Daten – Aufbereitung für ALADIN (Beck)<br />

Nach Definition des für ALADIN geeigneten Datenformats und benötigten meteorologischen Parameter<br />

wurden die benötigten ERA-40 Daten des ECMWF für den Zeitraum 1999 aus dem MARS Archiv<br />

extrahiert und nach Wien ans IMGW transferiert, wo sie in für die regionale Klimamodellierung mit<br />

ALADIN in geeigneter Form aufbereitet wurden (Auflösungsanpassung horizontal und vertikal). Diese<br />

aufbereiteten Daten liegen derzeit auf einem Server des IMGW.<br />

Weiters wurden alle notwendigen Vorbereitungen für die Extraktion der weiteren MARS Daten für die<br />

retrospektiven long-runs im weiteren Projektverlauf durchgeführt, sodass die Daten gegebenenfalls<br />

rasch und effizient für die Nutzung in ALADIN zur Verfügung stehen.<br />

WP 2.3b ERA-40 Daten – Aufbereitung für MM5 (Züger)<br />

Nach Definition des Datenformates für MM5 und der benötigten meteorologischen Parameter wurden<br />

die relevanten ERA-40 Daten aus dem MARS Archiv des EZMW extrahiert und nach Wien an<br />

ARC-sys transferiert, wo sie in für die regionale Klimamodellierung mit MM5 geeigneter Form aufbereitet<br />

(Auflösungsanpassung horizontal und vertikal) und archiviert wurden.<br />

Derzeit sind die Daten für die Jahre 1993 bis 2000 auf einem Server in ARC-sys abgelegt - die Jahre<br />

1998 bis 2000 stehen auch auf dem FTP-Server von systems research zur Verfügung. Sie liegen als<br />

Rasterdaten auf Druckflächen vom Boden bis 50 hPa mit einer räumlichen Auflösung von 1°x1° vor.<br />

Es wurden dabei vor allem jene Parameter berücksichtigt, die zum Betrieb des Modells notwendig<br />

sind. Das Datenvolumen beträgt ca. 2 GB pro Jahr.<br />

Während des Herunterladens der Daten über das ECMWF Webportal zeigte sich, dass die bereitgestellten<br />

Daten und ihre entsprechende Beschreibung nicht immer übereinstimmten. Zwar konnten<br />

diese Fehler ausgeräumt werden, es traten aber immer wieder Diskrepanzen zwischen den erhaltenen<br />

Daten und ihrer Beschreibung auf den ECMWF Seiten. Daher musste einiges an den MM5 Inputroutinen<br />

geändert werden um die Antriebsdaten richtig einlesen zu können.<br />

Um für weitere Auswertungen einheitliche Formate zu gewährleisten, erstellte systems research<br />

Programme, die einerseits als Schnittstellen für die Validierung durch BOKU-Met und andererseits<br />

zur Übergabe an VERA (IMG) dienen. Diese Programme wurden den Projektpartnern zur Verfügung<br />

gestellt.<br />

WP 2.4a ECHAM5 T106 Treiberdaten (1981-1990) (Gobiet)<br />

Nach ausführlichen Diskussionen wurde auf die ursprünglich geplanten ECHAM4 Daten verzichtet.<br />

Stattdessen einigten sich die Projektpartner auf retrospektive Daten eines erst kürzlich erfolgten<br />

Zeitscheiben-Lauf des Institutes für Atmosphären- und Klimaforschung der ETH Zürich nun mit<br />

ECHAM5 (T106-Horizontalauflösung und 31 Vertikal-Levels), der die angestrebte „reclip“-Periode<br />

1981-1990 abdeckt. ECHAM5 T106 (1961-1990, 2041-2050*) hat den Vorteil, dass aufgrund des<br />

Zeitraums 1961-1990 – anders als beim ECHAM4-Lauf – den ECHAM-getriebenen RCM-Lauf nicht<br />

nur mit ERA-40, sondern auch mit Beobachtungen direkt validieren zu können.<br />

09


Um die Brauchbarkeit der ECHAM5 Datensätze für MM5 zu überprüfen wurde zunächst auf das<br />

MM5 Setup von systems research zurückgegriffen. Zusätzlich wurde ein Setup von BOKU-Met, ein<br />

reduzierte Version dieses Setups und ein Setup, das die räumlichen Gegebenheiten von ALADIN<br />

wiedergibt, konfiguriert. Zur Zeit der Berichtslegung war nur ein kleiner Datensatz der ETH am IGAM<br />

verfügbar, der allerdings genügte, um das Interface zwischen ECHAM5 und MM5 zu testen. Der<br />

Transfer des gesamten retrospektiven Datensatzes wird voraussichtlich im Dezember 2004 abgeschlossen<br />

sein.<br />

Als Ergebnis werden aufbereitete Inputdaten für MM5 und ALADIN vorliegen, die für alle Projektpartner<br />

zugänglich sind.<br />

WP 2.4b ECHAM4 T106 Treiberdaten (2041-2050 - 2. Projektjahr) (Gobiet)<br />

Zusätzlich zu den retrospektiven Daten werden auch prospektive Antriebsdaten aus einem ECHAM5<br />

Lauf in 6stündigen Intervallen für alle Partner zur Verfügung stehen. IMG (Ahrens, Beck) konnte eine<br />

Kooperation mit der ETH Zürich vereinbaren, um an der ETH einen IS92a Szenario-Lauf durchführen<br />

zu können. Dafür wird ein ECHAM4 T106 L19 Experiment mit ECHAM5 T106 L31 Ende 2004 wiederholt.<br />

IMG stellt hierfür die SST und die Meeres-Eis-Daten zur Verfügung.<br />

Eine ausführliche Beschreibung der in WP 2.4a und 2.4b erwähnten Setups bzw. der ECHAM5 Antriebsdaten<br />

und des ECHAM5-MM5 Interfaces findet sich im IGAM-Teilbericht im Anhang <strong>1.</strong><br />

3.3 Workpackage 3 – Modellvalidierung, Sensitivitäts- und<br />

Validitätstests<br />

WP3.1 Abstimmung der Sensitivitätsexperimente (fokussiert auf ALADIN) (Ahrens, Beck)<br />

Die Vorbereitung der Sensitivitätsexperimente (incl. der Spezifikation des Modellgebietes und der<br />

Zielauflösung sowie der Spezifikation der Modellparameter für die Validierung) geschah in enger<br />

Zusammenarbeit mit den Projektpartnern um einerseits den wissenschaftlichen Wert zu sichern als<br />

auch die größtmögliche wirtschaftliche Effizienz zu erzielen.<br />

Auf Grundlage der durchgeführten Experimente sowie von früheren Arbeiten, wurde das folgende<br />

Setup für ALADIN benutzt:<br />

- Direktes Nesting von ALADIN in die globalen Daten (ERA-40 bzw. ECHAM)<br />

- Keine Zwischeninterpolation der globalen Daten (zB auf Druckflächen)<br />

- Numerische Auflösung: 12km, 41 vertikale Schichten (eta-Flächen)<br />

- Modellgebiet: ~2800x2500km (s. Abbildung 2, „12km“ Box)<br />

- Zeitschema: Semi-Lagrange, semi-implizit mit ∆t=514s<br />

Für die Validierung werden die Parameter Temperatur, Spez. Feuchte und Geopotential jeweils auf<br />

850, 700 und 500 hPa, sowie der Niederschlag herangezogen (gem. Validierungsvorschlag BOKU-<br />

Met vom 2<strong>1.</strong>6.2004).<br />

10 reclip:more<br />

Research for Climate Protection:Model Run Evaluation


Zusätzlich wurde die Nutzbarkeit des CORINE bzw. des systems research-eigenen Landcover Modells<br />

in ALADIN geprüft. Dabei zeigte sich, dass eine Verwendung dieser Daten im Bodenschema<br />

von ALADIN derzeit nur mit sehr großem Aufwand möglich wäre, sodass eine Verwendung der CO-<br />

RINE-Daten (oder ARC-eigenen Daten) für ALADIN im Rahmen von reclip:more nicht praktikabel<br />

erscheint. Nichtsdestotrotz soll im Zuge der Weiterentwicklung des Bodenschemas die Möglichkeit<br />

der Verwendung von CORINE-Daten geprüft werden. Dies soll im Herbst 2004 im Rahmen eines<br />

mehrwöchigen Arbeitsbesuches von B. Ahrens in Toulouse diskutiert werden.<br />

WP3.2 Festlegen der Sensitivitäts- und Validitätstests, Entwurf des Benchmarks (Formayer)<br />

Das Festlegen der Validitätstests erfolgte nach Spezifikation der für die Validierung benötigten Beobachtungsdaten<br />

bzw. nach Vorliegen der ersten Ergebnisse aus WP 3.<strong>1.</strong><br />

Für die definierten Sensitivitätsexperimente wurden die geeigneten Beobachtungsdatensätze (zB<br />

VERA, Niederschlagsdaten von Frei, etc.) für die Validierung bestimmt, danach erfolgte die Festlegung<br />

der Domain-Setups, der von den Modellen auszugebenden meteorologischen Parameter und<br />

deren zeitliche Auflösung. Zusätzlich mussten die Anzahl und Länge der Modellläufe je Sensitivitätstest<br />

und die Termine für die jeweiligen Sensitivitätstests festgelegt werden, außerdem wurde festgelegt,<br />

welche Tests mit welchem Modell bzw. Modellierergruppe gerechnet werden.<br />

Das Ergebnis war ein ausgearbeiteter Arbeitsplan der durchzuführenden Sensitivitätstests. Zusätzlich<br />

wurde mit den Projektpartnern abgestimmt, welche Arbeitsgruppen welchen Testlauf durchführen,<br />

und wie die Vergleiche Modell/Beobachtung und Modell/Modell durchgeführt werden.<br />

Ein weiterer wichtiger Punkt dieses Workpackages war eine umfangreiche Recherche zur Definition<br />

der statistischen Vergleiche Modell/Beobachtung durch. Beides – sowohl die Beschreibung der geeigneten<br />

statistischen Parameter für die Ergebnisvalidierung wie auch die zu verwendende Evaluierungsstrategie<br />

– findet sich im ersten Teil des Teilberichts von BOKU-Met im Anhang <strong>1.</strong><br />

WP3.3 Modellvalidierung – VERACLIM (Dorninger)<br />

Als Validierungstool wird das seit rund 10 Jahren am IMG in Entwicklung stehende Vienna Enhanced<br />

Resolution Analysis System (VERA) verwendet. Details zu VERA findet man im Teilbericht der IMG-<br />

Gruppe Dorninger im Anhang <strong>1.</strong><br />

Am 4.Dezember 2003 erfolgte der erste Aufruf an die Modellgruppen Testoutputfiles der Modelle an<br />

das IMGW zur Programmierung der Schnittstellen zu senden. Dieser Aufruf wurde in der Sitzung<br />

vom 30. Jänner 2004 erneuert, die ersten Daten von IMGW-Ahrens (ALADIN) und systems research<br />

(Züger, MM5) wurden allerdings erst Anfang Mai (!) geliefert.<br />

Für die vorhandenen Testdatensätze wurden Vergleiche mit VERA-Analysen folgender Parameter<br />

durchgeführt (jeweils 2D):<br />

- vom Modell reduzierter Druck<br />

- mit Standardformeln reduzierter Druck von der untersten Modellfläche gerechnet<br />

- potentielle Temperatur<br />

- äquivalentpotentielle Temperatur<br />

- 2D Wind<br />

- Mischungsverhältnis<br />

11


Im Rahmen eines Treffens der Mitglieder der WP VALID 3-1 am 19. Februar 2004 wurde das Mischungsverhältnis<br />

als zusätzlicher VERA-Parameter gewünscht und auch implementiert. Die Parameter<br />

Tmin und Tmax für die Sensitivitätsläufe wurden als nicht notwendig erachtet, falls die Sensitivitätsläufe<br />

im dreistündigen Zeitintervall abgespeichert werden. Für den Jahreslauf reichen Tagesmittelwerte.<br />

Weiters wurde eine Dokumentation zum Modellvergleich verfasst und ein Vorschlag erarbeitet, das<br />

Untersuchungsgebiet in Klimazonen einzuteilen. Beides findet sich im Anhang des Teilberichts. Für<br />

die grafische Darstellung wurden entsprechend den Wünschen der Gruppen verschiedene Optionen<br />

der Darstellung (zB mit oder ohne Flüsse, Darstellung in Grauschattierungen oder Darstellung des<br />

Differenzfeldes und des Modellfeldes) implementiert.<br />

WP3.4 Vertikale Validierung (Gobiet)<br />

Für die Vertikale Validierung wurden die Modelläufe des IGAM, die ERA 40 Daten von systems<br />

research und die CALRAS Radiosondendaten von IMG-Dorninger benötigt.<br />

Ziel war einerseits die Entwicklung und Implementierung der Validierungsmethode basierend auf<br />

Vertikalprofilen von Temperatur, Feuchte und geopotentieller Höhe, andererseits sollte diese Methode<br />

anhand eines erstellten Testdatensatzes mit bekannter Fehlercharakteristik validiert werden.<br />

Im Rahmen von Workpackage 3.4 wurde dabei besonderes Augenmerk auf ein automatisches Auslesen<br />

der Validierungsdaten (CALRAS und ERA 40) und der vertikalen Profile aus MM5 entsprechend<br />

den zur Verfügung stehenden Validierungsdaten gelegt.<br />

Ausführliche Beschreibungen der Vorgehensweise, der Daten-Extraktion und der verwendeten Fehlerstatistik<br />

sowie eine Präsentation der ersten Validierungs-Ergebnisse sind in Kapitel 4.2 des Teilberichts<br />

des IGAM zu finden.<br />

3.4 Workpackage 4 – Regionale Klimamodellierung<br />

WP4.1 MM5 – Fortran sourcen, Binärcode-Vergleichstests (Züger)<br />

Vom National Center for Atmospheric Research (NCAR) werden laufend neue Versionen des mesoskaligen<br />

Modells MM5 veröffentlicht. Meist handelt es sich dabei um so genannte „minor releases“<br />

bei denen die Behebung von kleinen Fehlern im Vordergrund steht. Das „major release“ der Version<br />

3.6 hat sich in vorangegangenen Arbeiten bereits als äußerst stabil erwiesen.<br />

Seit Februar 2004 steht nun die neue Version 3.6.3 zur Verfügung. Da in diesem Release nur marginale<br />

Änderungen vorgenommen wurden und bei allen Projektpartnern bereits eine Version 3.6.x im<br />

operationellen Einsatz war, wurde in einer gemeinsamen Sitzung vereinbart, in Zukunft einheitlich<br />

MM5 in der Version 3.6.3 zu verwenden.<br />

Um abzuschätzen wie groß die Unterschiede der Ergebnisse auf den verschiedenen Hardware-<br />

Plattformen (zB Compiler, Zahlendarstellung, etc.) der einzelnen Projektpartner sind, wurden Vergleichsrechnungen<br />

für eine Episode durchgeführt. Dabei zeigte sich, dass die Abweichungen durchaus<br />

tolerierbar sind. Daher kann davon ausgegangen werden, dass künftige Modell-Ergebnisse<br />

ebenfalls vergleichbar sein werden.<br />

12 reclip:more<br />

Research for Climate Protection:Model Run Evaluation


WP4.2 Modellparameter: Domains, Zielauflösung, Study-areas (Züger, Loibl)<br />

Da der Antrieb des Modells nur über die Ränder erfolgt, hat es bei genügend großer Wahl des Modellgebietes<br />

im Inneren die Möglichkeit seine eigene Dynamik und seine eigenen Strukturen zu entwickeln.<br />

Zunächst standen Sensitivitätsexperimente zur Modelldynamik im Vordergrund, um zu klären,<br />

wie viel Dynamik das Modell entwickeln darf, ohne die globalen Strukturen der Antriebsdaten zu<br />

verlieren. Als Vorgaben für die Lage der Domänen wurde vereinbart, dass in der äußeren der größte<br />

Teil Europas, Teile des Atlantiks und der Mittelmeerraum abgedeckt werden. In der inneren Domäne<br />

sollte der Alpenbogen eine zentrale Lage einnehmen, aber auch der Golf von Genua sollte wegen<br />

seines Einflusses auf das Wettergeschehen südlich der Alpen berücksichtigt werden.<br />

Unter diesen Prämissen wurden von BOKU-Met insgesamt 4 geometrische Setups für die Größe und<br />

Lage der Domänen vorgeschlagen (vgl. WP 3.2). Die einzelnen Setups unterscheiden sich sowohl in<br />

ihrer Auflösung als auch in ihrer Ausdehnung. Die vertikale Auflösung wurde für die hier aufgeführten<br />

Tests mit 29 Levels zwischen dem Boden und einer Obergrenze von 50 hPa festgelegt – nur der von<br />

IGAM am Supercomputer des ECMWF durchgeführte Modelllauf wurde mit 42 Levels initialisiert.<br />

Die Simulationen mit MM5 wurden auf einem ARC-Doppelprozessor-Rechner unter Unix vorerst<br />

unter Einsatz der ERA-40 Daten durchgeführt.<br />

WP4.3a MM5 test runs mit ERA-40 Daten, erste Sensitivitätsexperimente-systems research<br />

(Züger)<br />

Für eine möglichst weit reichende Vergleichbarkeit der Modellergebnisse mit der „Wirklichkeit“ wurden<br />

die ersten Sensitivitätstests mit den besten zur Verfügung stehenden Daten anzutreiben. Für<br />

den europäischen Raum sind dies zurzeit die ERA-40-Daten des ECMWF. Diese Daten wurden<br />

auch für großräumige Vergleiche mit den Modellergebnissen herangezogen.<br />

Weiters wurden für die ersten Tests 2 Episoden ausgewählt, wobei die Rechnungen zu jeder Episode<br />

jeweils 2 Tage früher starteten, um dem Modell einen adäquaten Spin-up zu ermöglichen.<br />

Im Modell MM5 ist zur Beschreibung der Prozesse in der Atmosphäre und deren Wechselwirkung<br />

mit dem Boden eine Vielzahl unterschiedlichster Parametrisierungen implementiert. Da nicht alle<br />

Kombinationen sinnvoll sind und eine möglichst weit reichende Vergleichbarkeit der Ergebnisse zu<br />

gewährleisten ist, wurde die Parametrisierung des Modells wie folgt vereinbart:<br />

- Strahlung: RRTM longwave scheme IFRAD=4<br />

- PBL + SVAT: MRF + Noah land-surface scheme IBLTYP=5, ISOIL=2<br />

- Cumulus: Kain-Fritsch 2 + shallow convection ICUPA=8, ISHALLOW=1<br />

- Feuchte: Reisner 1 (Mixed-Phase) IMPHYS=5<br />

Wie sich auch aus den Analysen von BOKU-Met ergibt sind die Unterschiede in den Ergebnissen der<br />

einzelnen Tests relativ gering. Dies ist insofern bemerkenswert, als frühere Untersuchungen – zumindest<br />

jene von systems research – auf eine wesentlich stärkere Abhängigkeit der Modellergebnisse<br />

vom geometrischen Setup hingedeutet haben. Dieses Ergebnis ist jedoch vor dem Hintergrund<br />

des doch relativ kleinen Samples von 2 Episoden mit je 4 Tagen zu sehen. Um hier eine einigermaßen<br />

gesicherte Aussage zu ermöglichen werden noch weitere Sensitivitätstest über längere Zeiträume<br />

notwendig sein. Insbesondere der für die nächste Etappe geplante Modelllauf über ein ganzes<br />

Jahr sollte hier eine deutliche Verbesserung bringen.<br />

13


WP4.3b MM5 test runs mit ERA-40 Daten, erste Sensitivitätsexperimente-IGAM (Truhetz,<br />

Gobiet)<br />

Für die Überprüfung der zu entwickelnden Software-Tools VALVERT (WP 3.4) und WIND (WP 5.6),<br />

bzw. für die Validierung der Downscaling-Ergebnisse generell werden realistische MM5 Ergebnisse<br />

benötigt. Zu diesem Zweck wurde auf ERA-40 Re-Analyse Daten des ECMWF zurückgegriffen und<br />

zusammen mit systems research ein geeignetes Interface zwischen ERA-40 Daten und MM5 entwickelt.<br />

Nach einem Hardware-unabhängigen Modellvergleich zur Feststellung der Rechen-Genauigkeit erfolgten<br />

ein Abgleich mit den systems research Läufen sowie die ersten MM5 Episodenläufe/Testläufe.<br />

Zusätzlich wurden im Rahmen dieses Workpackages bereits Vorbereitungen der retrospektiven<br />

Langzeitläufe für das Projektjahr 2 durchgeführt. Hauptaugenmerk lag hierbei besonders auf der<br />

Installation von MM5 am ECMWF-Cluster, der Bestimmung der tatsächlichen Rechenleistung bzw.<br />

des benötigten Speicherbedarf, sowie wiederum auf der Hardware-unabhängigen Modellvergleichs-<br />

Rechengenauigkeit. Eine Zusammenfassung dieser Tätigkeiten ist im zweiten Teil von Kapitel 4.1<br />

des IGAM-Teilberichts.<br />

Als Ergebnisse werden in Zukunft ECHAM5 Antriebsdaten für retrospektive Modelläufe mit MM5 und<br />

ALADIN (extern) sowie Testdatensätze für WP 3.1 und WP 4.1 (intern) vorliegen.<br />

WP4.3c MM5 test runs mit ERA-40 Daten, erste Sensitivitätsexperimente-BOKU-Met<br />

(Formayer)<br />

Zur Durchführung der Tätigkeiten im Rahmen dieses Workpackages wurden das Domainsetting für<br />

das Modellierungsgebiet, die ERA-40 Re-Analysen von systems research sowie die exakten<br />

Domainsettings der Study-areas von systems research benötigt. Nach Festlegung der Validierungsstrategie<br />

und der Parameter-Setups wurden am BOKU-Met Simulationen mit MM5 unter Verwendung<br />

der ERA-40-Daten durchgeführt.<br />

Zur Durchführung der Parametertests ist es erforderlich, geeignete Termine und Episoden, die charakteristische<br />

Wettersituationen beinhalten, zu eruieren. Aufgrund der guten Datenlage sollten die<br />

Perioden, soweit möglich im Zeitraum der MAP Special Observing Periode (SOP) liegen. Da nicht<br />

alle für die Parametertests notwendigen Wetterlagen in diesem Zeitraum auftraten und um auch<br />

andere Jahreszeiten testen zu können wurde ein Schwerpunkt auf das Jahr 1999 gelegt, aber auch<br />

andere Jahre berücksichtigt.<br />

Eine Beschreibung der verwendeten Domain- und Parameter-Setups findet man im zweiten Teil des<br />

Teilberichts von BOKU-Met im Anhang <strong>1.</strong> Dort werden auch die Festlegungen der Parametrisierung<br />

und der Termine beschrieben. Abschließend sind auch die Ergebnisse der Vergleichsrechnungen<br />

MM5 – ALADIN detailiert beschrieben.<br />

WP4.4 ALADIN test runs mit ERA 40 Daten, Durchführung erster Sensitivitätsexperimente<br />

(Beck, Ahrens)<br />

Um eine effiziente Anwendung von ALADIN zum dynamischen Downscaling zu ermöglichen, wurde<br />

eine Reihe von Sensitivitätsexperimenten durchgeführt. Diese Experimente sind auf Grund des<br />

Downscalingmodes als ALADIN-spezifisch zu betrachten und konnten daher weitgehend unabhängig<br />

von den anderen Modelliergruppen durchgeführt werden. Für das dynamische Downscaling werden<br />

die atmosphärischen Parameter in ALADIN tägliche neu initialisiert. Die Bodenparameter können<br />

entweder ebenfalls täglich neu initialisiert werden oder aus dem vorherigen Lauf übernommen werden.<br />

Dadurch ist für den Boden eine Art „Klimalauf“ möglich.<br />

14 reclip:more<br />

Research for Climate Protection:Model Run Evaluation


Die Simulationen mit ALADIN wurden auf dem LINUX Cluster „Schrödinger II“ der Universität Wien<br />

durchgeführt, wobei geeignete Scripts zur Automatisierung zwischen Schrödinger und IMGW, sowie<br />

zur Datenreduktion entwickelt werden. Die Verwendung der ECHAM Daten für ALADIN erfordert<br />

eine Erweiterung der Schnittstelle zwischen den globalen Antriebsdaten und ALADIN.<br />

Es wurde eine Reihe von Experimenten durchgeführt und die Auswirkung verschiedener Nesting-<br />

Strategien auf die Niederschlagsvorhersage evaluiert. Es zeigte sich, dass für ein dynamisches<br />

Downscaling auf den betrachteten Skalen (globale Daten ~120km, ALADIN ~12km) eine direktes<br />

Nesting von ALADIN in Reanalysedaten möglich ist und im Vergleich zu aufwendigeren Verfahren<br />

ähnliche Ergebnisse liefert.<br />

Zusätzlich wurde für das Jahr 1999 der Einfluss von unterschiedlichen Boden-Setups (Neuinitialisierung,<br />

surface-blending, sowie Mischformen) untersucht. Da das derzeitige Bodenschema nicht für<br />

einen (freilaufenden) Klimalauf gedacht ist, scheint eine schwache Relaxation zu den globalen Bodenfeldern<br />

(aus ERA-40 oder ECHAM) notwendig. Diese Einschätzung wird durch die durchgeführten<br />

Experimente bestätigt. Die Modelldaten für diese Experimente liegen am IMG vor und können im<br />

Rahmen der Validierung weiter untersucht werden.<br />

In Hinblick auf die prospektiven Läufe wurden Sensitivitätsexperimente zum Einfluss der Auflösung<br />

der globalen Eingangsdaten durchgeführt. Hierzu wurden die ERA-40 Daten sowohl in der spektralen<br />

Auflösung T159 als auch in T106 verwendet. Um den Einfluss der verringerten spektralen Auflösung<br />

zu untersuchen, wurde für das Jahr 1999 ein ALADIN-Experiment mit T106 Eingangsdaten<br />

gerechnet. Ein subjektiver Vergleich der beiden Läufe (basierend auf T159 bzw. T106 Daten) zeigt<br />

eine gute Übereinstimmung sowohl auf Monatsbasis als auch für das gesamte Jahr 1999.<br />

Eine ausführliche Behandlung der eben erwähnten Punkte findet sich in Kapitel 2.3 des Teilberichtes<br />

der IMG-Gruppe Ahrens/Beck im Anhang <strong>1.</strong><br />

3.5 Workpackage 5 – Regionalisierung<br />

WP 5.1: Entwicklung einer Schnittstelle MM5/ALADIN – Regionalisierungstool (Schöner)<br />

Ziel dieses Workpackages war die Schaffung 2er Schnittstellen zwischen den beiden regionalen<br />

Klimamodellen und dem verwendeten Programmpaket CLIM.PACT. Dieses Tool, das bisher in<br />

Skandinavien Anwendung fand, war für den Alpenraum zu adaptieren und für ein Downscaling vieler<br />

Zeitreihen zu optimieren. Die geographische Verfeinerung sollte mittels Fortran Programmen oder<br />

ArcInfo Scripts ermöglicht werden.<br />

Ausgehend von den MM5- bzw. ALADIN-Datensätzen wurde eine einfache Extraktion von Rlesbaren<br />

Datensätzen für die einzelnen zu regionalisierenden Variablen entwickelt werden. Die<br />

Schnittstelle zwischen CLIM.PACT und MM5 bzw. ALADIN wurde über das NetCDF Datenformat<br />

gelöst. CLIM.PACT kann dieses Datenformat unmittelbar verwenden. Während MM5 einen Output<br />

im NetCDF Format ablegen kann, gab es eine derartige Schnittstelle für ALADIN nicht. Der Output<br />

wurde daher im ASCII Format zur Verfügung gestellt, wobei die „VERA-Struktur“ (Output für Validierung<br />

mit VERA) verwendet wurde. Dieser Output wird mit einer eigenen Einleseroutine (in R) gelesen<br />

und ebenfalls in das NetCDF Format gebracht. Dazu wird das R-Package NetCDF verwendet.<br />

Da auch für MM5 eine Schnittstelle geschaffen wurde, mit der ein Output in das VERA-ASCII Format<br />

gebracht werden kann, ist die Einleseroutine auch in gleicher Weise für die Schnittstelle MM5-<br />

CLIM.PACT verwendbar.<br />

Als Ergebnis können nun die von den Projektpartnern gewünschten Parameter direkt in das Statistikpaket<br />

R eingelesen werden. Das adaptierte Regionalisierungstool soll in Folge zur empirischen<br />

Verfeinerung der in den nächsten Punkten angeführten Parameter verwendet werden.<br />

15


WP 5.2a: Regionalisierungstool Temperatur mean (Schöner)<br />

Die Arbeiten des Workpackages 5.2a befassten sich mit der Implementierung einer Downscaling-<br />

Methode für T2m basierend auf MM5 bzw. ALADIN Model Runs. Die Tätigkeiten umfassten neben<br />

der Installation des Statistikpakets R und des Downscaling Moduls CLIM.PACT eine Anpassung von<br />

CLIM.PACT für den Alpenraum und ein Gridding der Stationsdaten. Das Downscaling an den Stationskoordinaten<br />

mittels CLIM.PACT kann entweder mittels Multipler Linearer Regression oder mittels<br />

Analogmethode erfolgen.<br />

Für die Regionalisierung der Stationswerte wird eine abgewandelte AURELHY-Methode verwendet.<br />

Diese Methode führt eine PCA-Analyse der Orographie durch und beschreibt die Geländeform durch<br />

eine Anzahl von Principal Components (PCs). Diese PCs sowie die Seehöhe, Longitude und Latitute<br />

werden als unabhängige Prediktoren für die Ermittlung einer multiplen linearen Regression verwendet.<br />

Die Anpassung des Regressionsmodells erfolgt mittels einer schrittweisen multiplen linearen Regression<br />

aus den bekannten Klimawerten an den Stationskoordinaten (abhängige Größe) und den<br />

zeitlich konstanten Geländeparametern (unabhängige Größen). Diese Regression ist für jeden Tag<br />

der Untersuchungsperiode zu bestimmen und anschließend die Residueninterpolation durchzuführen<br />

(mit Thin-Plate Spline, analog wäre auch eine Interpolation mit einem Kriging-Ansatz möglich).<br />

Als alternative Methode zu der abgewandelten AURELHY-Methode wurde auch eine Gridding-<br />

Methode unter Verwendung von bereits vorliegenden Grids monatlicher Klimanormalwerte 1961-90<br />

für alle Monate des Jahres entwickelt. Dabei wird aus den Monatsgrids für jeden Tag ein Tagesgrid<br />

der Klimanormalwerte interpoliert und anschließend die Residuen an den Stationskoordinaten ermittelt.<br />

Mittels Thin-Plate Spline erfolgt dann eine Interpolation des Residuenfeldes.<br />

Zusätzlich wurde Vergleiche verschiedener Downscaling-Methoden und eine Bestimmung von Rechenzeit<br />

und Speicherbedarf für die Long Runs durchgeführt. Von den ursprünglich ins Auge gefassten<br />

Downscaling-Methoden (CCA, Regression, Downscaling von Tageswerten und Monatswerten,<br />

Wettergenerator) wurde auf einen Wettergenerator verzichtet, da diese nicht in der Lage sind, räumlich<br />

korreliert Muster zu erzeugen. Eine CCA ist mit CLIM-PACT nicht möglich und wurde daher ebenfalls<br />

nicht verwendet. Die verschiedenen Methoden konnten nur mit Probedaten getestet werden,<br />

da die entsprechenden Daten für Österreich von MM5 und ALADIN noch nicht vorliegen.<br />

Als Ergebnis dieses Workpackages liegt nun eine für den Alpenraum geeignete Methode der Regionalisierung<br />

von Tagesmitteltemperaturen vor.<br />

WP 5.2b: Regionalisierungstool Temperatur min/ max (Loibl)<br />

Die Regionalisierung der Minimums- und Maximumstemperatur sollte ebenfalls mit dem im Rahmen<br />

von WP 5.2a entwickelten Regionalisierungstools durchgeführt werden, wobei Tmin über den mittleren<br />

Tagsgang der Monatsmittel-Temperatur und der Differenz zwischen dem Monatsmittel der Minimumstemperatur<br />

und aktuellen Temperatur um 6h, Tmax über den mittleren Tagsgang der Monatsmittel-Temperatur<br />

und Differenz zwischen Monatsmittel der Maximumstemperatur und der Temperatur<br />

um 12h abgeschätzt wird.<br />

Eine Berücksichtigung etwaiger Temperaturin<strong>version</strong>en in den dafür „anfälligen“ Regionen ist dabei<br />

abhängig von Wolkenbedeckung, Wind, Jahreszeit. Dafür ist allerdings eine umfassende Analyse<br />

der Messdaten in diesen Regionen notwendig, die bis jetzt noch nicht erfolgte.<br />

16 reclip:more<br />

Research for Climate Protection:Model Run Evaluation


Aufgrund von Verzögerungen bei der Entwicklung des unter WP 5.2a beschriebenen Ttools konnte<br />

WP 5.2b nicht mehr rechtzeitig für diesen Bericht bearbeitet werden. Die notwendigen Tätigkeiten<br />

werden zu Beginn des Jahres 2005 nachgeholt.<br />

WP 5.3: Regionalisierungstool Niederschlag (Schöner)<br />

Für die Regionalisierung der Tagessummen des Niederschlags wurde ebenfalls ein 2-stufiges Verfahren<br />

entwickelt. Im ersten Schritt erfolgt das Downscaling mittels CLIM.PACT, wobei für den Niederschlag<br />

auf Tageswertebasis die Analogmethode zu verwenden ist. Im zweiten Schritt erfolgt die<br />

geographische Verfeinerung mit der abgewandelten AURELHY-Methode.<br />

Eine Regionalisierung der täglichen Niederschlagssumme ist bekanntlich wesentlich schwieriger als<br />

eine Regionalisierung der Temperatur, dennoch scheint auch für diesen Parameter die adaptierte<br />

AURELHY-Methode ein zielführender Ansatz. Analog zum Tagesmittel der Lufttemperatur werden<br />

auch für die Niederschlagssumme EOF Felder der Orographie als Prädikatoren verwendet. Diese<br />

PCs werden wieder zusammen mit der Seehöhe, Longitude und Latitude für die multiple lineare Regression<br />

verwendet. Eine ausführliche Beschreibung des Regionalisierungstools findet man im Kapitel<br />

7 des Teilberichtes der ZAMG.<br />

Eine ausführliche Validierung war im Rahmen des ersten Projektjahres auf Grund der vorhandenen<br />

Ressourcen nicht möglich. Auch liegen keine hinreichend langen Zeitreihen der für die Validierung<br />

notwendigen Modellläufe der Regionalmodelle MM5 und ALADIN vor. Damit kann die notwendige<br />

Optimierung der dynamisch herunterskalierten Prädiktoren für das weitere empirische Downscaling<br />

nicht durchgeführt werden. Für diese Optimierung ist sowohl die Auswahl der benötigten Felder aus<br />

dem Regionalmodell als auch die räumliche Domain festzulegen.<br />

Um trotzdem eine Validierung der entwickelten Regionalsierungsmethoden zu ermöglichen, wurden<br />

mittels Analogmethode aus ERA-40 herunterskalierte Zeitreihen täglicher Niederschlagssummen aus<br />

dem Projekt StartClim 04 verwendet. Eine kurze Behandlung dieser Ergebnisse ist in Kapitel 8 des<br />

ZAMG-Teilberichts zu finden.<br />

WP 5.4: Regionalisierungstool Schneedecke (Schöner)<br />

Im Rahmen des Workpackages soll eine für den Alpenraum geeignete Methode zur Regionalisierung<br />

von Schneedecken-Parametern aus Tagesdaten der Lufttemperatur und des Niederschlags entwickelt<br />

werden. Ziel ist die Implementierung eines Modells zur Berechnung von täglichen Schneehöhen<br />

und Schneewasseräquivalenten. Dies soll unter Entwicklung eines statistischen Ansatzes zur<br />

Berechnung täglicher Neuschneemengen aus Temperatur und Niederschlag sowie unter Adaption<br />

eines Degree-days Models für die Berechnung der Schneeschmelze, Setzung und Schneehöhe<br />

geschehen.<br />

Auf Grund zu geringer Ressourcen konnte im ersten Projektjahr nur eine Übersicht verschiedener<br />

Regionalisierungsmethoden für Tageswerte der Schneehöhe zusammengestellt werden. Ein kurzer<br />

Abriss dieser Methoden ist in Kapitel 2 des Teilberichts der ZAMG zusammengefasst. Die Regionalisierung<br />

der Schneedecke wird im Projektjahr 2 realisiert.<br />

WP 5.5: Regionalisierungstool Strahlung (Loibl)<br />

Die Sonnenstrahlungsdaten werden entsprechend der Nachfrage-Erhebung von systems research<br />

vor allem für vegetations-ökologische Fragestellungen hinsichtlich Einfluss der Klimaänderung herangezogen<br />

werden. Für die Photosynthese und Pflanzenwachstum ist hier die kurzwellige Strahlung<br />

17


von Bedeutung. Die Wärmestrahlung geht über die Modellierung/Regionalisierung der Temperatur<br />

implizit in die Modellergebnisse ein und wird hier bei der Sonneneinstrahlungs-Regionalisierung außer<br />

Acht gelassen.<br />

Die Sonneneinstrahlungs-Modellergebnisse aus den Regionalmodellen MM5 und ALADIN liegen nur<br />

in einer relativ groben Auflösung vor, die auf Grund der Verwendung eines nur groben und daher<br />

„flachen“ digitalen Höhenmodells die Realität wenig trifft und so in keiner Weise das Expositions-<br />

Hangneigungsgefüge des Geländes und damit der Sonneneinstrahlung auf lokaler Ebene widerspiegelt.<br />

Die Regionalisierung erfolgt darum nicht durch Downscaling der Ergebnisse der Regionalmodelle,<br />

sondern durch ein schrittweises Verfahren.<br />

Als Input für die Regionalisierung der Sonnenstrahlungswerte dient die potenzielle Sonnenstrahlung<br />

in Abhängigkeit vom Sonnenstand (ausgehend von Jahreszeit und Uhrzeit) sowie von Hangneigung<br />

und Exposition sowie die Sonnenstrahlungs-Ergebnisse des jeweiligen regionalen Klimamodells auf<br />

Tagesbasis. Zunächst wird mit die direkte kurzwellige Sonneneinstrahlung bei wolkenlosem Himmel<br />

auf eine ebene Fläche berechnet. Die Modifizierung dieser theoretischen Sonneneinstrahlung durch<br />

Exposition und Hangneigung sowie durch direkte Abschattung wird danach mit einem feinen digitalen<br />

Höhenmodells (DHM) berechnet. Aus den Ergebnissen werden Mittelwerte für die Modellpunkte des<br />

Regionalmodells berechnet und die Residuen zu den Regionalmodellergebnissen berechnet. Die so<br />

generierte Residualfläche wird von der auf dem DHM basierenden Modellfläche des expliziten Strahlungsmodells<br />

subtrahiert.<br />

Ergebnis ist eine fein differenzierte – auf Topographie, Sonnenstand und Bewölkung abgestimmte<br />

Sonneneinstrahlungsfläche für die jeweilige gewünschte Zeitspanne. Die Strahlungssumme je Fläche<br />

für die gewählte Zeiteinheit wird etwa dieselbe sein, wie im Regionalmodell. Die kleinräumige<br />

Variation zeigt große Schwankungen und ergibt sich aus den Geländeformen, die großräumigen<br />

Unterschiede ergeben sich durch die Variation in der Bewölkungsintensität.<br />

Sobald die täglichen mittleren Strahlungssummen für die 70 Referenzstationen von der ZAMG zur<br />

Verfügung gestellt werden, ist eine konkrete Überprüfung der Ergebnisse und gegebenenfalls eine<br />

Anpassung der Regionalisierungsparameter möglich.<br />

Im Prinzip ist anstatt der kombinierten Berechnung der Sinneneinstrahlung auch die von Schöner in<br />

seinem Teilbericht vorgestellte EOF-Methode aus dem CLIM.PACT-Paket von R. Benestadt einsetzbar,<br />

allerdings stand sie bei den Arbeiten zur Strahlungsregionalisierung noch nicht zur Verfügung<br />

und wurde auch von Benestadt nocht dafür eingesetzt und paraemtrisiert, sodass Abstand davon<br />

genommen wird sie hier einzusetzen.<br />

WP 5.6: Regionalisierungstool Wind (Truhetz)<br />

Für die Windregionalisierung werden exakte Domainsettings der Studyareas, Windmessdaten der<br />

ZAMG zur Methodenvalidierung, MM5 Ergebnisse sowie der „beste“ MM5-Episodenlauf aller Gruppen<br />

benötigt. Ausgehend von der reclip:more „Standard“-Auflösung von 15 km wird eine zusätzliche<br />

Downscaling-Stufe eingeführt, um die Anfangsbedingungen für die Windsimulation auf 5km zu erhalten,<br />

die Zielauflösung des Windmodells beträgt 200m. Da die genauen Domain-Settings für die drei<br />

Studyareas noch nicht definiert sind, wurde zunächst nur mit „vorläufigen“ Testregionen gearbeitet.<br />

18 reclip:more<br />

Research for Climate Protection:Model Run Evaluation


Zunächst erfolgte die Installation von CALMET am IGAM-Cluster und die Durchführung erster Testläufe<br />

für NESTDOWN und CALMET. Die Implementierung der Downscaling-Methode für den bodennahen<br />

Wind wurde durch eine einfache Interpolation (NESTDOWN) und die anschließende Anwendung<br />

eines mikroskaligen, diagnostischen Modells (CALMET) inkl. einfacher Sensitivätsanalyse erreicht.<br />

Dazu waren Modifizierungen des MM5-Moduls NESTDOWN zur einfachen Berücksichtigung<br />

der Strömungsbeeinflussung bei hochaufgelöster Topographie notwendig.<br />

Nach Erstellung der topographischen Eingangsdaten erfolgte eine statistische Auswertung des bodennahen<br />

Windes. Für die notwendigen physio-geographischen Eingangsdaten stand ein von<br />

systems research auf 200 m resampleter CORINE Landcover Datensatz zur Verfügung. Die zusätzlich<br />

benötigten externen Parameter (Rauhigkeitslänge, Albedo, Bowen-Verhältnis und Oberflächen-<br />

Wärmefluß) wurden statistisch mit dem Landbedeckungsmodell verknüpft.<br />

Für die Visualisierung der Auswertungen und der Simulationsergebnisse von NESTDOWN und<br />

CALMET wurde das frei verfügbare Grid Analysis and Display System (GrADS) verwendet. Dafür<br />

musste allerdings eine Datenkonvertierung der CALMET-Ergebnisse entwickelt werden.<br />

Für die Sensitivitätsanalyse wurden Variationen diverser Modelleinstellungen des „besten“ MM5-<br />

Episodenlaufs verwendet, die Validierung von NESTDOWN und CALMET erfolgte anhand repräsentativer<br />

Windmessdaten. Eine ausführliche Zusammenfassung und eine kurze Präsentation der ersten<br />

Ergebnisse sind im Kapitel 4.3 des IGAM-Teilberichts im Anhang 1 zu finden.<br />

Die implementierte und getestete Wind-Downscaling Methode für MM5 wird wie vertraglich fixiert im<br />

Projektplan 2 an systems research weitergegeben.<br />

19


4 Auflistung der Workpackages geordnet nach<br />

Projektpartner<br />

Im Folgenden sind die einzelnen Workpackages der Projektpartner wie sie in den einzelnen Teilberichten<br />

aufscheinen zusammengefasst. Eine detaillierte Beschreibung der einzelnen Tasks ist aus<br />

dem Zwischenbericht vom März 2004 und dem vorhergehenden Kapitel 3 ersichtlich.<br />

4.1 IGM – Gruppe Dorninger<br />

WP id. WP Titel<br />

WP 2.2a Bereitstellung Synop-Daten Europa<br />

WP 2.2b Bereitstellung MAP-Daten<br />

WP 2.2c Bereitstellung Radiosondendaten<br />

WP 3.3 Modellvalidierung – VERACLIM<br />

4.2 IGM – Gruppe Ahrens<br />

WP id. WP Titel<br />

WP 2.3a ERA 40 Daten – Aufbereitung f. ALADIN<br />

Abstimmung der Sensitivitätsexperimente (vor allem für<br />

WP 3.1 ALADIN)<br />

ALADIN test runs mit ERA 40 Daten, Durchführung erster<br />

WP 4.4 Sensitivitätsexperimente<br />

4.3 ZAMG<br />

WP id. WP Titel<br />

WP 2.1 Bereitstellung österreichischer Messdaten<br />

Schnittstelle MM5 sowie ALADIN – Entwicklung der Regi-<br />

WP 5.1 onalisierungstools<br />

WP 5.2a Regionalisierungstool Temperatur mean<br />

WP 5.3 Regionalisierungstool Niederschlag<br />

WP 5.4 Regionalisierungstool Schneedecke<br />

20 reclip:more<br />

Research for Climate Protection:Model Run Evaluation


4.4 BOKU-Met<br />

WP id. WP Titel<br />

Festlegen der Sensitivitäts- und Validitätstests, Entwurf<br />

WP 3.2 des Benchmarks<br />

MM5 test runs mit ERA 40 Daten, erste Sensitivitätsexpe-<br />

WP 4.3c rimente<br />

4.5 IGAM<br />

WP id. WP Titel<br />

WP 2.4a ECHAM4 T106 Treiberdaten (1981-1990,1999)<br />

ECHAM4 T106 Treiberdaten (2041-2050) für das 2. Pro-<br />

WP 2.4b jektjahr<br />

WP 3.4 Vertikale Validierung<br />

MM5 test runs mit ERA 40 Daten, erste Sensitivitätsexpe-<br />

WP 4.3b rimente<br />

WP 5.6 Regionalisierungstool Wind<br />

4.6 systems research<br />

WP id. WP Titel<br />

WP 2.3b Datenaufbereitung<br />

WP 4.1 MM5 – Fortran sourcen, Binärcode-Vergleichstests<br />

Bestimmung der Modellparameter: Domains, Zielauflö-<br />

WP 4.2 sung, Studyareas<br />

WP 4.3a Sensitivitätsexperimente<br />

WP 5.2b Regionalisierungtool Temperatur min/max<br />

WP 5.5 Regionalisierungtool Sonnenstrahlung<br />

21


5 Ausblick Projektjahr 2: Oktober 2004 – Oktober 2005<br />

Als Schwerpunkte für das 2. Projektjahr sind geplant:<br />

<strong>1.</strong> Durchführung der retrospektiven transienten regionalen Klima-Modellläufe über 10 Jahre<br />

2. Durchführung der Sensitivitätstests sowie die Regionalisierung der Modellergebnisse für einen<br />

ausgewählten Zeitabschnitt<br />

3. Benchmarking der beiden RCM’s<br />

Überdies sollten natürlich alle Tasks des ersten Jahres, die nicht oder nicht vollständig abgearbeitet<br />

werden konnten, abgeschlossen werden.<br />

Die folgende Abbildung zeigt die vorgesehenen Arbeitschritte und deren Zusammenhänge.<br />

Abbildung 2: Arbeitsschritte für das Projektjahr 2 (in der ursprünglichen Zeitplanung – die sich<br />

nun 3 Monate nach hinten verschiebt.)<br />

22 reclip:more<br />

Research for Climate Protection:Model Run Evaluation


Anhang 1<br />

Teilberichte der Projektpartner<br />

Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />

Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />

Alexander Beck und Bodo Ahrens:<br />

Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />

Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />

Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />

zu den regionalen Klimamodellen<br />

Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />

Validierung – Sensitivitätstests<br />

Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />

MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />

Mario Köstl, Wolfgang Loibl und Johann Züger:<br />

Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung


Anhang 1<br />

Teilberichte der Projektpartner<br />

Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />

Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />

Alexander Beck und Bodo Ahrens:<br />

Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />

Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />

Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />

zu den regionalen Klimamodellen<br />

Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />

Validierung – Sensitivitätstests<br />

Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />

MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />

Mario Köstl, Wolfgang Loibl und Johann Züger:<br />

Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung


eclip:more<br />

Research for Climate Protection:<br />

Model Run Evaluation<br />

Projektjahr 1<br />

Projektteil IMG-Dorninger<br />

Datenaufbereitung, Modellvalidierung, Sensitivitäts- und<br />

Validitätstest<br />

Beispiel für ein synthetisches Feld (idealisierter Fingerprint), das den thermischen Einfluss der<br />

Alpen auf ein skalares Bodenfeld (zB Druck) repräsentiert<br />

Arbeitsbericht für den Zeitraum <strong>1.</strong>1<strong>1.</strong>2003 – 30.9.2004<br />

von<br />

Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold<br />

Steinacker<br />

Institut für Meteorologie und Geophysik<br />

Universität Wien, Österreich.<br />

17. Oktober 2004


INHALTSVERZEICHNIS<br />

1 Datenaufbereitung (WP 2).................................................................................. 1<br />

2 Modellvalidierung, Sensitivitäts- und Validitätstests (WP 3.3) ....................... 1<br />

2.1 Modellvalidierung mittels VERACLIM .............................................................. 1<br />

2.<strong>1.</strong>1 Methodik in 2-D......................................................................................... 3<br />

2.<strong>1.</strong>2 Qualitätskontrolle von Daten..................................................................... 4<br />

2.<strong>1.</strong>3 Analyse..................................................................................................... 8<br />

2.<strong>1.</strong>4 Downscaling ............................................................................................. 8<br />

2.2 Kurzbeschreibung des Modellvergleichs........................................................ 11<br />

2.3 Erste Ergebnisse:........................................................................................... 14<br />

Literatur................................................................................................................... 16<br />

ANHANG A – Klimagebiete .................................................................................... 19


1 Datenaufbereitung (WP 2)<br />

• Bereitstellung Synop-Daten Europa (WP 2.2a)<br />

• Bereitstellung MAP-Daten (WP 2.2b)<br />

• Bereitstellung Radiosondendaten WP (2.2c)<br />

Ad WP 2.2a:<br />

In der Sitzung vom 30. Jänner 2004 (vgl. auch Protokoll) wird jedem Projektpartner<br />

eine DVD (inkl. kurzem Word-Text mit Erklärungen und einem Abriss, wie die Daten<br />

mittels READ Befehl eingelesen werden können) mit dreistündigen SYNOP-Daten<br />

aus dem MARS-Archiv von 1979 bis 2000 für den Großraum Alpen (Rohdaten, zwar<br />

in ASCII-Format aufbereitet, allerdings nicht qualitätskontrolliert!) überreicht.<br />

Ad WP 2.2b:<br />

Ebenfalls in der Sitzung vom 30. Jänner 2004 wird der Inhalt der MAP-Datenbank<br />

erklärt. Die Gruppe IMG-Dorninger erklärt sich bereit, auf Anfrage die Datensätze<br />

aus der MAP-Datenbank zu extrahieren. Bis dato sind keine derartigen Anfragen<br />

gestellt worden. Das Angebot bleibt natürlich auch im 2. Projektjahr aufrecht.<br />

Ad WP2.2c:<br />

Übermittlung der CALRAS-Daten (Comprehensive Alpine Radiosonde Data Set) in<br />

Form von zwei CD’s und umfangreicher dreiteiliger Dokumentation an IGAM am<br />

17.Februar 2004.<br />

Die Daten (2.2a und 2.2c) wurden im Rahmen anderer Projekte am IMGW<br />

aufbereitet und werden dem Projekt reclip:more unentgeltlich zur Verfügung gestellt.<br />

2 Modellvalidierung, Sensitivitäts- und Validitätstests<br />

(WP 3.3)<br />

Als Validierungstool wird das seit rund 10 Jahren am IMG in Entwicklung stehende<br />

Vienna Enhanced Resolution Analysis System (VERA) verwendet.<br />

2.1 Modellvalidierung mittels VERACLIM<br />

Die Grundphilosophie von VERA lautet: „Der Ist-Zustand der Atmosphäre soll so<br />

genau als möglich und unter Nutzung des a priori Wissens der atmosphärischen<br />

Verhaltensmuster im Alpenraum feldmäßig dargestellt werden“. Dieser Anspruch<br />

beinhaltet folgende Schritte<br />

→ Qualitätskontrolle der Daten<br />

→ Interpolation auf ein regelmäßiges Gitter<br />

→ Downscaling (Erschließung von Skalen, die durch verfügbare Beobachtungen<br />

nicht explizit aufgelöst werden können)<br />

Anhand eines 1-D Beispiels soll das angewandte Verfahren demonstriert werden.<br />

(siehe Abb. 1).<br />

Anhang 1 1<br />

Teilbericht 1


Ψ<br />

x<br />

1 2 3 4 5<br />

Abb. 1: Schematische Darstellung der „spline“ Interpolation zwischen gegebenen Stützstellen 1 bis 5.<br />

Die Werte 1 bis 5 sollen vorliegende Messwerte (Datenpunkte) einer skalaren<br />

Feldvariablen Ψ darstellen. Die interpolierten Werte zwischen den Datenpunkten<br />

können prinzipiell durch eine beliebige Funktion (zB strichlierte Kurve) beschrieben<br />

werden, die alle gegebenen Stützstellen verbindet. Spannt man nun zB ein<br />

elastisches Lineal oder eine Weidenrute („spline“) an den Stützstellen ein, so wird die<br />

Form in etwa der durchgezogenen Linie entsprechen. Diese ist mathematisch<br />

definiert als genau d i e Funktion, deren gesamte Krümmung zwischen 1 und 5<br />

minimal ist („cubic spline“). Die mathematische Formulierung dafür lautet:<br />

5 2<br />

4<br />

⎛ ∂ Ψ ⎞<br />

∂ Ψ<br />

J = ∫ ⎜<br />

⎟ dx → Min<br />

(daraus folgt i. ü. = 0 ) (1)<br />

2<br />

4<br />

⎝ ∂x<br />

1 ⎠<br />

∂x<br />

Statt die spline-Funktion durch die fünf Punkte gehen zu lassen, kann sie alternativ<br />

durch eine Variation zB des Wertes an der Stützstelle 3 mit Hilfe des<br />

Minimierungsalgorithmus verändert werden (siehe Abb. 2):<br />

Ψ<br />

2<br />

1 2 3 4 5<br />

Abb. 2: Schematische Darstellung der Variation des Wertes an der Stützstelle 3.<br />

Dabei gilt dasselbe Minimierungsfunktional wie in (1). Dadurch wird genau der Wert<br />

gefunden, der für die gesamte Kurve die minimale Krümmung ergibt. Für die<br />

Bestimmung der Krümmung wird folgende Beziehung verwendet:<br />

∂J<br />

∂Ψ<br />

3<br />

∂<br />

=<br />

∂Ψ<br />

5<br />

∫<br />

3 1<br />

2<br />

2 ⎛ ∂ Ψ ⎞<br />

⎜ = 0<br />

2 ⎟ dx<br />

⎝ ∂x<br />

⎠<br />

2 Anhang 1<br />

Teilbericht 1<br />

(2)<br />

x


2.<strong>1.</strong>1 Methodik in 2-D<br />

Bei VERA wird das cubic spline Verfahren zT auf 2-D Felder angewandt. In der<br />

Mathematik steht dafür der Ausdruck „thin plate spline“, mit dem mechanischen<br />

Äquivalent eines elastischen Geflechts. Auch hier wird d i e Fläche als Lösung<br />

gesucht, deren Krümmung minimal wird. Die 2D-Krümmung ist jedoch nicht wie bei<br />

der 1D Anwendung durch nur eine zweite Ableitung, sondern durch deren drei<br />

definiert:<br />

2 2 2<br />

∂ Ψ ∂ Ψ ∂ Ψ<br />

, ,<br />

(3)<br />

2 2<br />

∂x<br />

∂y<br />

∂x∂y<br />

Es bieten sich nun mehrere Varianten der Minimierung an:<br />

2<br />

2<br />

2<br />

2<br />

2<br />

2<br />

⎡⎛<br />

∂ Ψ ⎞ ⎛ ∂ Ψ ⎞ ⎛ ∂ Ψ ⎞ ⎤<br />

J = ∫ ⎢⎜ ⎟ + ⎜ ⎟ + ⎜ ⎟ ⎥ dσ<br />

→ Min<br />

2<br />

2<br />

⎣⎝<br />

∂x<br />

⎠ ⎝ ∂y<br />

⎠ ⎝ ∂x∂y<br />

⎠ ⎥⎦<br />

Diese Formulierung beschreibt die allgemeine Bedingung für den thin plate spline.<br />

Alternativ können die Terme im Integrand von (4) gewichtet werden oder aber<br />

folgende Kombinationen der 2. Ableitung minimiert werden:<br />

2<br />

2<br />

⎡⎛<br />

∂ Ψ ⎞ ⎛ ∂ Ψ ⎞⎤<br />

⎢⎜<br />

⎟ + ⎜ ⎟<br />

2<br />

2 ⎥<br />

⎣⎝<br />

∂x<br />

⎠ ⎝ ∂y<br />

⎠⎦<br />

2<br />

2<br />

⎡⎛<br />

∂ Ψ ⎞ ⎛ ∂ Ψ ⎞⎤<br />

⎢ ⎜ 2 ⎟ + ⎜ 2 ⎟<br />

⎟⎥<br />

⎣⎝<br />

∂x<br />

⎠ ⎝ ∂y<br />

⎠⎦<br />

2<br />

2<br />

=<br />

[ ] 2 2<br />

∇ Ψ<br />

2<br />

2<br />

⎡⎛<br />

∂ Ψ ⎞ ⎛ ∂ Ψ ⎞⎤<br />

− ⎢ ⎜ 2 ⎟ − ⎜ 2 ⎟<br />

⎟⎥<br />

⎣⎝<br />

∂x<br />

⎠ ⎝ ∂y<br />

⎠⎦<br />

Anhang 1 3<br />

Teilbericht 1<br />

2<br />

2 ⎡⎛<br />

∂ Ψ ⎞⎤<br />

− ⎢ ⎜<br />

⎟<br />

⎟⎥<br />

⎣⎝<br />

∂x∂y<br />

⎠⎦<br />

Minimiert man „nur“ den Laplace (5) in der Domäne, so kann dies physikalisch so<br />

gedeutet werden, dass zB beim Druckfeld (Geopotentialfeld) die geostrophische<br />

Vorticity minimiert wird. Bei (6) resultiert als Ergebnis ein Feld, bei dem lang<br />

gezogene Strukturen, wie etwa bei Fronten, betont werden.<br />

Eine schematische Darstellung für eine 2-D Anwendung ist in Abbildung 3 zu sehen.<br />

Abb. 3: Schematische Anordnung von Stützstellen zur Bestimmung des „thin plate spline“.<br />

2<br />

(4)<br />

(5)<br />

(6)


Für eine solche 2-D Anwendung müssen jeweils Eckpunkte eines Fünfecks mit<br />

einem zentralen Punkt als Stützstellen vorliegen, die miteinander vernetzt sind, um<br />

den Satz von Gleichungen exakt lösen zu können. Dabei bedeuten<br />

k: Zentralstation/Gitterpunkt, die/der überprüft wird<br />

j: 5 Nachbarstationen (nah(k,j)) um k<br />

i: 5 Nachbarstationen (nahj(k,j,i) um j.<br />

Der spline Algorithmus erlaubt natürlich eine Erweiterung auf 3-D und 4-D. Das<br />

mechanische Äquivalent ist beim 3-D Ansatz durch ein elastisches Volumen<br />

gegeben, beim 4-D Ansatz durch ein elastisches Volumen mit Rotations-,<br />

Kompressions- und Deformations- Schwingungen bzw. -wellen.<br />

Für vektorielle Feldgrößen (zB Windvektor) kann der spline Algorithmus analog<br />

angewandt werden, wobei bei einer 2-D Anwendung auf 2-D Vektoren wahlweise<br />

gewichtete Kombinationen aus Rotation (ζ), Divergenz (D) und Deformation (E bzw.<br />

F) minimiert werden können, zB<br />

2<br />

2<br />

2 2<br />

J = ∫ [ ας + βD + γ(E + F ) ] dσ → Min , (7)<br />

wobei α, β und γ Gewichtungsfaktoren darstellen.<br />

Ist die spline Interpolation physikalisch sinnvoll?<br />

Falls die behandelte Feldvariable kontinuierlich verteilt ist (in der Atmosphäre etwa<br />

der Luftdruck; unendlich große Druckgradienten können ja nicht existieren !) und der<br />

Abstand der Stützstellen klein gegen die Längenskala des betrachteten Phänomens<br />

ist, liefert die cubic spline Interpolation die (statistisch) geringste Abweichung zu den<br />

„wahren“ Werten. Unter diesen Voraussetzungen konvergieren im Übrigen die<br />

Lösungen der „successive correction Methode“ und der „optimum Interpolation“<br />

gegen die Lösung des cubic spline. Aber auch bei Variablen mit Unstetigkeiten<br />

(Brüchen) in der Feldverteilung, zB bei der Temperatur an Fronten, lässt sich die<br />

spline Methode, durch eine entsprechende Wahl und Gewichtung der zu<br />

minimierenden Terme – wie zB in (6) – hervorragend anwenden.<br />

Der obige Ansatz kann sowohl in einem Qualitätskontroll- als auch in einem<br />

Analysemodus angewandt werden.<br />

2.<strong>1.</strong>2 Qualitätskontrolle von Daten<br />

Ist der Wert an der Stützstelle bekannt (Beobachtungspunkt), so kann der mittels<br />

Minimierungsverfahren interpolierte Wert an dieser Stelle mit dem Messwert<br />

verglichen werden. Auf statistischem Wege kann nun entschieden werden, ob der<br />

Messwert eine systematische Abweichung (bias) bezüglich der Nachbarstationen<br />

aufweist oder ob ein grober Fehler („gross error“) vorliegt. Dadurch kann dieser<br />

Messwert gegebenenfalls korrigiert werden. Es muss natürlich jeder Messwert in der<br />

betrachteten Domäne sukzessive diesem Prüfverfahren unterworfen werden, da ja<br />

nicht von vornherein bekannt ist, welcher Wert in welchem Umfang als fehlerhaft<br />

einzustufen ist. Derjenige Messwert der die größte „Beruhigung“ bezüglich der<br />

Krümmung der Kurve bewirkt, ist am wahrscheinlichsten fehlerbehaftet. Für<br />

mesoskalige Analysen ist die Qualitätskontrolle und Korrektur von fundamentaler<br />

Bedeutung. Das Anbringen aller berechneten Korrekturvorschläge repräsentiert<br />

einen Filter, der die kürzesten, durch die Stützstellen definierten Wellen dämpft, bzw.<br />

eliminiert.<br />

4 Anhang 1<br />

Teilbericht 1


Anhand von 1-D Beispielen (Abb. 4) soll die Vorgangsweise und Interpretation<br />

erläutert werden: Ist an der Zentralstation (siehe Abb. 4, oben) der Wert höher als an<br />

den umliegenden, so führt eine Korrektur auf den Wert der umliegenden Station zu<br />

einer signifikanten „Beruhigung“ der zweiten Ableitungen. Übersteigt diese Abweichung<br />

einen bestimmten Schwellwert („threshold“), so liegt die Vermutung nahe,<br />

dass es sich hierbei um einen gross error handelt. Allgemein bedeutet eine positive<br />

(negative) Abweichung, dass der jeweilige Parameter an einer Station höher (tiefer)<br />

als durch die Interpolation mittels der umliegenden Stationen „vorherzusehen“ ist. Ist<br />

die Abweichung klein, aber zeitlich konstant, so handelt es sich mit großer<br />

Wahrscheinlichkeit um einen systematischen Fehler der Station. Ist die Abweichung<br />

über bestimmte Zeitperioden ähnlich und wechselt gelegentlich ihr Vorzeichen, so<br />

weist dies auf eine mesoskalige (Wetterlagen-abhängige) Struktur hin; weisen die<br />

Abweichungen einen Tagesgang auf, so kann man die Station bezüglich ihrer<br />

spezifischen Lage charakterisieren, zB städtische Wärmeinsel, Hangstation, Küstenstation<br />

etc. Ist die Abweichung klein und zeitlich nicht korreliert, so kann man sie als<br />

meteorologischen Lärm klassifizieren und eine Korrektur anbringen (filtern).<br />

Abb. 4: Beispiele von Abweichungen: zentrale Station mit positiver Abweichung (oben), zentrale<br />

Station mit positiver, rechte Nachbarstation mit negativer Abweichung (Mitte) und Zentralstation und<br />

rechte Nachbarstation mit negativer Abweichung (unten).<br />

Anhang 1 5<br />

Teilbericht 1


Dies führt nicht nur die Korrektur der Zentralstation sondern auch der Nachbarstation<br />

zu einer signifikanten Beruhigung der zweiten Ableitungen (siehe Abb. 4, Mitte), so<br />

kann ebenfalls mittels Betrachtung des Zeitreihen-Verhaltens die wahrscheinliche<br />

Ursache dafür eruiert und gegebenenfalls eine Korrektur angebracht werden.<br />

Sind zwei benachbarte Stationen von einer ähnlich großen Abweichung mit gleichem<br />

Vorzeichen geprägt (siehe Abb. 4, unten), so wird die Korrektur vergleichsweise<br />

gering ausfallen, die Abweichung wird als meteorologisches Signal gewertet.<br />

In der Praxis berechnet man über einen längeren Zeitraum für jeden verfügbaren<br />

Termin den so genannten „Abweichungswert“, di. die Differenz zwischen dem auf die<br />

Station mittels thin plate spline interpolierten Wert und dem Messwert. Damit lassen<br />

sich systematische Fehler (zB Sensorprobleme) erkennen oder die so genannte<br />

„Charakterisierung“ einer Station durchführen, aber auch „gross errors“, die durch<br />

falsches Ablesen, Dekodierungs- und Datentransferprobleme auftreten können.<br />

Schließlich lassen sich auch so genannte mesoskalige meteorologische Signale, wie<br />

etwa durch Föhn bedingt, ablesen.<br />

Die bisher in der Praxis untersuchten Parameter sind der auf Meereshöhe reduzierte<br />

Druck, die potentielle Temperatur, die Feuchtigkeit (als Differenz zwischen der<br />

potentiellen und äquivalent potentiellen Temperatur) und die horizontalen Komponenten<br />

u und v des Bodenwindes von Stationen unterhalb von 750 m üM im<br />

Alpenraum.<br />

<strong>1.</strong> Beispiel:<br />

Abb. 5: Beispiel für Sensorprobleme. Abweichungen des reduzierten Druckes an einer Station für das<br />

Jahr 1999.<br />

In Abb. 5 ist eine klare positive Abweichung für die ersten 3 ¼ Monate zu erkennen.<br />

Da sich dies danach sprunghaft ändert und dann um den Nullpunkt schwankt, deutet<br />

alles auf ein Sensorproblem im ersten Quartal hin. Anfang April wurde der Sensor<br />

wahrscheinlich kalibriert, korrigiert bzw. ausgewechselt. Die durchgezogene Linie bei<br />

0,37 hPa gibt den Median über alle Werte an. Die gestrichelten Linien zeigen den<br />

dreifachen Wert der „interquartile range“.<br />

6 Anhang 1<br />

Teilbericht 1


2. Beispiel:<br />

Abb. 6: Beispiele für Repräsentationsprobleme. Abweichungen der potentiellen Temperatur an einer<br />

Station für den MAP-SOP-Zeitraum (07.09.1999-15.1<strong>1.</strong>1999).<br />

Da in diesem speziellen Fall die positiven Abweichungen zeitlich nur kurz auftreten,<br />

deutet dies auf ein meteorologisches Signal hin. Und wirklich stimmen die Zeitpunkte<br />

der hohen Abweichungswerte mit den Zeitpunkten der Föhnfälle überein. Dh., dass<br />

an dieser Station der Föhn bereits durchgegriffen hat, während er es an anderen<br />

(umliegenden) Stationen noch nicht getan hat. Oder anders interpretiert, die Föhnstation<br />

war zu diesem Zeitpunkt nicht repräsentativ für die lokale/regionale Skala.<br />

3. Beispiel<br />

Abb. 7: Beispiel für mögliche Übertragungsfehler. Abweichungen des reduzierten Druckes an einer<br />

Station für das Jahr 1999.<br />

Diese Station zeigt im letzten Viertel des Jahres fünf so genannte gross errors. Man<br />

kann sie deutlich von den meteorologischen Signalen und dem Rauschen<br />

unterscheiden.<br />

Anhang 1 7<br />

Teilbericht 1


2.<strong>1.</strong>3 Analyse<br />

Bei der Analyse wird im Gegensatz zum Qualitätskontroll-Modus wird der „thin plate<br />

spline“ Algorithmus auf ein regelmäßiges Gitterpunktsnetz angewandt. Anders als bei<br />

handelsüblichen Berechnungsroutinen wird jedoch die Lösung für die Werte an den<br />

Gitterpunkten nicht „global“, dh. für die gesamte Domäne in einem Schritt, sondern<br />

„lokal“, dh. für jeden einzelnen Gitterpunkt gesondert, gewonnen. Dabei werden um<br />

jeden Gitterpunkt fünf nahe gelegene und möglichst günstig verteilte Stationen als<br />

Stützstellen und um diese in gleicher Weise wie in Abb. 3 verteilte weitere Stationen<br />

gesucht. Wird der Gitterpunktswert mit 0 vorbelegt, so ist der Abweichungswert<br />

zugleich der gesuchte Analysewert. Das Ergebnis unterscheidet sich dabei nur<br />

unwesentlich von anderen Interpolations-Schemata (successive correction, optimum<br />

Interpolation, Kriging). Die Besonderheit von VERA liegt jedoch im zusätzlich<br />

durchgeführten Downscaling der Felder.<br />

Die 2-D Felder in VERA beziehen sich nicht auf die tatsächliche Topographie<br />

sondern auf die sog. „Minimum“-Topographie (siehe Abb. 8), di. die jeweils niedrigste<br />

Höhe innerhalb eines 10 km Radius um den Gitterpunkt. Dies bedeutet, dass die<br />

Analysewerte im Gebirge jeweils auf die Talsohlen, bzw. Passsenken bezogen sind.<br />

Abb. 8: Minimum Topographie in den Höhenstufen (Graustufen): 0 m (Meeresniveau), 0–500 m, 500-<br />

1000 m, 1000-1500 m und über 1500 m. Erläuterungen siehe Text.<br />

2.<strong>1.</strong>4 Downscaling<br />

Unter Downscaling versteht man die Erschließung von subskaligen Strukturen, die<br />

durch die Messwerte allein nicht explizit aufgelöst werden können. Wir wissen, dass<br />

ein Gebirge einen wesentlichen Einfluss auf die Atmosphäre ausübt. Gebirge bieten<br />

die Möglichkeit einer gehobenen Heiz- oder Kühlfläche. Durch die Volumenreduktion<br />

der Luft in Tälern und Becken ist zudem eine Amplifizierung der thermischen Tages-<br />

und Jahresgänge zu beobachten. Des Weiteren wirken Gebirge als ein Hindernis für<br />

Luftströmungen mit der Möglichkeit von Blockieren und Umströmen. Da die<br />

8 Anhang 1<br />

Teilbericht 1


topographische Information mit hoher räumlicher Auflösung gegeben ist, kann man<br />

die thermischen und dynamischen Feinstrukturen mit ebenso feiner Auflösung<br />

modellieren.<br />

Abb. 9 zeigt schematisch, wie man ein einfaches Downscaling im 1-D Fall<br />

durchführen kann. Im oberen Teil ist ein Querprofil durch ein Gebirge gezeichnet mit<br />

je zwei Stationen auf beiden Seiten der Barriere. Wendet man in einem solchen Fall<br />

ein herkömmliches Interpolationsverfahren an, so wird der strichlierte Verlauf der<br />

Kurve (unten) resultieren. Wenn man aber weiß, dass Barrieren extreme Gradienten<br />

der Feldverteilung meteorologischer Parameter bewirken, so kann man die Kurve so<br />

anpassen, dass sie zwar nach wie vor durch die Messwerte an den vier vorhandenen<br />

Stationen verläuft, jedoch den zu erwartenden scharfen Gradienten im Bereich der<br />

Barriere aufweist (durchgezogene Linie). Hierzu wird ein idealisierter Kurvenverlauf<br />

benötigt, der einen scharfen Gradienten und damit sehr hohe Werte der zweiten<br />

Ableitung im Bereich der Barriere aufweist.<br />

Abb. 9: Schematisches Querprofil eines Gebirges (oben) und der dazugehörigen 1-D Verteilung einer<br />

Variablen Ψ. Strichliert ist die durch ein gewöhnliches Interpolationsverfahren ermittelte Kurve,<br />

durchgezogen die durch eine künstliche Verschärfung des Gradienten an der Barriere erzeugte<br />

Kurve.<br />

Die modellierten hoch aufgelösten, orographisch induzierten 2-D Felder werden<br />

„Fingerprints“ genannt. Der „thermische Fingerprint“ (siehe Abb. 10) zeigt das Muster<br />

eines modellierten Hitzetiefs bzw. Kältehochs über den Alpen. Berücksichtigt ist<br />

dabei nicht nur die Höhenverteilung der mittleren Topographie, sondern auch der<br />

durch die Volumen-Verminderung in Tälern erzeugte Anteil.<br />

Anhang 1 9<br />

Teilbericht 1


Abb. 10: Thermischer Fingerprint mit Isolinien in relativen Einheiten.<br />

Abb. 11 zeigt den so genannten „dynamischen Süd-Fingerprint“, der den idealisierten<br />

Blocking-Effekt bei einer reinen Südströmung repräsentiert. Diese Fingerprints<br />

können wahlweise für ein Downscaling von Temperatur- oder Druckfeldern<br />

Verwendung finden, da diese beiden Parameter in ihrer kleinräumigen topographischen<br />

Struktur hoch korreliert sind.<br />

Abb. 11: Dynamischer Süd-Fingerprint mit Isolinien in relativen Einheiten.<br />

10 Anhang 1<br />

Teilbericht 1


Aus den idealen Fingerprints werden an jenen Punkten, wo Beobachtungsdaten<br />

vorliegen, die (Relativ-)werte abgegriffen. Aus diesen werden die 2. räumlichen<br />

Ableitungen berechnet und mit den Ableitungen aus den Beobachtungswerten verglichen.<br />

Der Quotient der Ableitungen ergibt den Faktor, mit dem der jeweilige<br />

Fingerprint in die Analyse eingebracht wird. Da diese Vorgangsweise lokal<br />

angewandt wird, gehen die Fingerprints mit unterschiedlicher Stärke in die Analyse<br />

ein. Es kann also durchaus vorkommen, dass zB im Ostalpenraum der Süd-Fingerprint<br />

noch deutlich präsent ist, während über den Westalpen bereits der West- oder<br />

Nord-Fingerprint in die Analyse eingeht.<br />

2.2 Kurzbeschreibung des Modellvergleichs<br />

Ziel des Modellvergleiches ist es, die Ergebnisse eines Modellaufes nicht nur an<br />

einzelnen Stationen bzw. Gitterpunkten mit den Messungen zu vergleichen, sondern<br />

eine möglichst flächenhafte Evaluierung des Modellergebnisses zu bekommen. Daher<br />

werden die Felder der Modellvorhersage mit einer objektiven, modellunabhängigen<br />

Analyse verglichen, wobei auf die Skalenverträglichkeit geachtet werden muss.<br />

In dem operationell laufenden Modellvergleich werden der auf Meeresniveau<br />

reduzierte Druck, der 10m-Wind, die potentielle und die äquivalentpotentielle<br />

Temperatur verglichen. Beim Druck wird sowohl der vom Modell gelieferte reduzierte<br />

Druck, als auch ein von der untersten Modellfläche nach dem standardmäßigen<br />

Reduktionsverfahren der Analyse reduzierter Druck verglichen. Es gehen dabei die<br />

Werte der untersten Modellfläche ein, wobei die Höhe dieser Fläche bekannt sein<br />

muss. Der Grund für diesen doppelten Vergleich ein und desselben Parameters liegt<br />

in den unterschiedlichen Reduktionsmethoden von Modell und VERA-Analyse. Um<br />

unterschiedlichen Anforderungen im Modell zu genügen, wird hier oft nicht die<br />

standardmäßige Reduktion, sondern eine modifizierte Methode verwendet, um die<br />

thermischen Druckgebilde zu unterdrücken. Dadurch ergeben sich deutliche Unterschiede<br />

im Alpenraum. Die Reduktion der Modelldruckdaten nach der Standard-<br />

Methode hat den Vorteil, dass die Daten der beiden Quellen auf die gleiche Art<br />

verändert werden und daher eine bessere Vergleichbarkeit gegeben ist (siehe weiter<br />

unten).<br />

Werte wie die potentielle Temperatur θ oder die äquivalentpotentielle Temperatur θe<br />

gehören nicht zum regulären Modelloutput und werden daher zu Beginn des<br />

Vergleiches aus den Parametern der untersten Modellfläche berechnet. Anschließend<br />

werden die Modelldaten mittels eines einfachen Interpolationsschemas<br />

(Cressman) auf die VERA-Gitterpunkte gebracht. Auf Grund der hohen Auflösung<br />

der Modelle ist diese einfache Interpolationsmethode zulässig. Es werden die in<br />

einem passend gewählten Umkreis um den Analysegitterpunkt liegenden Modellgitterpunkte<br />

mit einer Abstandsgewichtung versehen, um einen skalenkompatiblen<br />

Modellwert auf dem VERA-Gitter zu erhalten. Die Wahl des Cressman-Interpolationsradius<br />

richtet sich nach der Auflösung des Modells. Bei einem grobmaschigem<br />

Modell muss der Interpolationsradius größer gewählt werden als bei feinmaschigen,<br />

um eine Mindestanzahl von Gitterpunkten für die Interpolation heranzuziehen.<br />

Ansonsten resultiert ein unnatürlich strukturiertes (verrauschtes) Differenzfeld (siehe<br />

weiter unten).<br />

Anhang 1 11<br />

Teilbericht 1


Im Gegensatz zu dem reduzierten Druck ist bei θ und θe auch die unterschiedliche<br />

Topographie von Modell und Analyse zu beachten. Dabei werden unter Annahme<br />

einer Standardatmosphäre die auf der Modelltopographie berechneten Werte mit<br />

einem konstanten Gradienten auf die in VERA verwendete Topographie (Minimumtopographie)<br />

gebracht. Die Minimumtopographie repräsentiert an jedem Gitterpunkt<br />

die minimale Seehöhe aller im Umkreis eines vorgegebenen Radius befindlichen<br />

Gitterpunkte. Standardmäßig wird ein Radius von 10 km und ein topographisches<br />

Gitter im 1 km Raster verwendet.<br />

Abb. 12 zeigt wie unterschiedliche Druckreduktionen das Ergebnis beeinflussen<br />

können. Im linken Bild (Vergleich VERA – modellreduzierter Druck) sind die Beträge<br />

der Differenzen deutlich höher als im rechten Bild (Vergleich VERA – mit Standard-<br />

Methode reduziertem Modelldruck). Der nach dem Modellschema reduzierte Modelldruck<br />

war also über den Alpen höher als der nach dem Standard-Schema reduzierte<br />

Modelldruck, der wie man im rechten Bild sieht, deutlich besser mit der Analyse<br />

übereinstimmt.<br />

Abb. 12: Beispiel für die Auswirkungen unterschiedlicher Druckreduktionen<br />

Abb. 13 zeigt den Einfluss verschiedener Interpolationsradien. Im linken Bild wurde<br />

der Cressman-Interpolationsradius mit 30 km, im Rechten mit 50 km angesetzt. Das<br />

kleinräumige Rauschen ist in der rechten Abbildung nicht zu bemerken, die Strukturen<br />

stimmen jedoch in den beiden Bildern überein.<br />

Abb. 13: Beispiel für die Auswirkung unterschiedlicher Cressman-Radien<br />

12 Anhang 1<br />

Teilbericht 1


Bei einem Vergleich der Windfelder haben bisherige Auswertungen gezeigt, dass<br />

kein systematischer Unterschied zwischen den Differenzen über den Alpen und<br />

denen im Flachland besteht, so dass Korrekturen über dem komplexeren Gelände in<br />

dieser Auflösung nicht sinnvoll erscheinen. Allerdings ist zu beachten, dass durch die<br />

ausschließliche Verwendung von niedrig gelegenen (Tal-) Stationen in der Analyse<br />

Kanalisierungseffekte auftreten.<br />

Der oben beschriebene Modellvergleich wurde auf folgende Modellläufe angewandt:<br />

Laufinitialisierung Auflösung Gitterpunkte Eckpunkte<br />

ALADIN 05.-09.1<strong>1.</strong>99<br />

jeweils 00UTC<br />

9 km 153 x 101<br />

BOKU<br />

d1<br />

03.1<strong>1.</strong>99 00UTC 45 km 110 x 88<br />

BOKU<br />

d2<br />

03.1<strong>1.</strong>99 00UTC 15 km 82 x 58<br />

IGAM<br />

v12 d1<br />

03.1<strong>1.</strong>99 00UTC 45 km 110 x 88<br />

IGAM<br />

v12 d2<br />

03.1<strong>1.</strong>99 00UTC 15 km 82 x 58<br />

IGAM<br />

v17 d1<br />

03.1<strong>1.</strong>99 00UTC 45 km 110 x 88<br />

IGAM<br />

v17 d2<br />

03.1<strong>1.</strong>99 00UTC 15 km 82 x 58<br />

IGAM<br />

v18 d1<br />

03.1<strong>1.</strong>99 00UTC 45 km 110 x 88<br />

IGAM<br />

v18 d2<br />

03.1<strong>1.</strong>99 00UTC 15 km 82 x 58<br />

IGAM<br />

v21 d1<br />

03.1<strong>1.</strong>99 00UTC 45 km 50 x 50<br />

ÎGAM<br />

v21 d2<br />

03.1<strong>1.</strong>99 00UTC 15 km 82 x 58<br />

ARCS<br />

d1<br />

03.1<strong>1.</strong>99 00UTC 45 km 110 x 88<br />

ARCS<br />

d2<br />

03.1<strong>1.</strong>99 00UTC 15 km 82 x 88<br />

Kurzbeschreibung der IGAM – Versionen (von Heimo Truhetz):<br />

0,98/39,98<br />

24,08/51,95<br />

-13,92/31,70<br />

60,17/62,62<br />

4,04/42,41<br />

19,73/49,92<br />

-13,92/31,70<br />

60,17/62,62<br />

4,04/42,41<br />

19,73/49,92<br />

-13,92/31,70<br />

60,17/62,62<br />

4,04/42,41<br />

19,73/49,92<br />

-13,92/31,70<br />

60,17/62,62<br />

4,04/42,41<br />

19,73/49,92<br />

-0,71/37,08<br />

28,69/56,09<br />

4,05/42,26<br />

17,70/49,77<br />

-9,79/33,28<br />

46,77/59,15<br />

3,36/42,50<br />

17,92/49,54<br />

# Version | DATUM | Beschreibung<br />

#------------------------------------------------------------------------------------------------------<br />

# v12 | 29.09.2004 | (het) lowest SOIL-layer depth corrected<br />

# | | 268 cm -> 289 cm (Vtable.SOIL affected)<br />

# | | Code 235 (skin temp.) taken as skin temp.<br />

# | | (former: 235 taken as sea surface temp.)<br />

# | | MMINPUT contains initial cond. only.<br />

# v17 | 15.10.2004 | (het) High vertical resolution -> 42 levels<br />

# | | ERA40 model level data are vertically<br />

# | | interpolated to 43 pressure levels (afterburner)<br />

# | | bevor lateral boundary conditions are constructed.<br />

# v18 | 29.10.2004 | (het) shallow convection turned off; one-way nesting<br />

# v21 | 02.1<strong>1.</strong>2004 | (het) smaller DOMAIN 1: 88 x 110 -> 50 x 50 grid-cells<br />

# | | feedback (DOMAIN 2 -> 1) is heavily damped<br />

#------------------------------------------------------------------------------------------------------<br />

Anhang 1 13<br />

Teilbericht 1


Für die vorhandenen Testdatensätze wurden Vergleiche mit VERA-Analysen<br />

folgender Parameter durchgeführt (jeweils 2D):<br />

• vom Modell reduzierter Druck<br />

• mit Standardformeln reduzierter Druck von der untersten Modellfläche<br />

gerechnet<br />

• potentielle Temperatur<br />

• äquivalentpotentielle Temperatur<br />

• 2D Wind<br />

• Mischungsverhältnis<br />

Im Rahmen eines Treffens der Mitglieder der WP VALID 3-1 am 19. Februar 2004<br />

wurde das Mischungsverhältnis als zusätzlicher VERA-Parameter gewünscht und<br />

auch implementiert. Die Parameter Tmin und Tmax für die Sensitivitätsläufe wurden als<br />

nicht notwendig erachtet, falls die Sensitivitätsläufe im dreistündigen Zeitintervall<br />

abgespeichert werden. Für den Jahreslauf reichen Tagesmittelwerte. Sämtliche<br />

Punkte wurden im Treffen am 27.Mai 2004 von allen Projektmitgliedern befürwortet<br />

(siehe Protokoll ebendort).<br />

Die statistischen Maße wurden in der Sitzung vom 27. Mai 2004 festgelegt und<br />

implementiert. Dies sind:<br />

• Mittelwert,<br />

• RMSE,<br />

• Bias bzw. Bias-korrigierter RMSE,<br />

• das Taylor-Diagramm mit seinen Statistiken (Standardabweichungen<br />

Modell und Beobachtung, sowie Korrelationskoeffizient) sowie<br />

• der Fisher skill score,<br />

• der Bias skill score und<br />

• der total skill score<br />

Die Statistiken wurden für die entsprechend definierten Klimagebiete (siehe Anhang<br />

A) sowie für das Gesamtgebiet (=Summe der Klimagebiete) berechnet.<br />

2.3 Erste Ergebnisse:<br />

Die Fallstudie erlaubt noch kein einheitliches Bild der einzelnen Modell<strong>version</strong>en,<br />

dennoch lassen sich aber bereits erste Erkenntnisse über die Modellperformance<br />

gewinnen. Es wurden die Zeitverläufe sämtlicher Parameter für alle Klimagebiete und<br />

alle Modell<strong>version</strong>en berechnet. Ferner sind für die gesamte Episode Vergleiche für<br />

sämtliche Parameter und Modell<strong>version</strong>en vorhanden, ebenso die Taylor–diagramme.<br />

Dieses umfangreiche Material kann in diesem Endbericht nur exemplarisch<br />

gezeigt und diskutiert werden.<br />

Als Beispiel wird der reduzierte Bodendruck gezeigt:<br />

Die Abb. 14 und 15 zeigen BIAS bzw. das Taylordiagramm für den reduzierten<br />

Bodendruck, jeweils für den gesamten Vorhersagezeitraum. Zwei Modell<strong>version</strong>en<br />

zeigen einen höheren BIAS an, während alle anderen Versionen einen wesentlich<br />

geringen BIAS besitzen. Das ALADIN Modell ist durch wird alle 24 Stunden neu<br />

gestartet ist also mit den anderen Modellen nicht direkt vergleichbar. ARCS, BOKU<br />

und IGAM verwenden partiell das gleiche Modellsetup, trotzdem kommt es zu unterschiedlichen<br />

Ergebnissen. Dies ist noch weiter zu diskutieren. Im Taylordiagramm<br />

14 Anhang 1<br />

Teilbericht 1


liegen alle Läufe sehr nahe am Verifikationspunkt (rot). Dieses Diagramm erhält erst<br />

bei den geplanten Sensitivitätsstudien seine eigentliche Relevanz.<br />

BIAS<br />

6<br />

5<br />

4<br />

3<br />

2<br />

1<br />

0<br />

-1<br />

-2<br />

Gebietevergleich Aladin & MM5 (Domäne 1)<br />

alles rhein bayer nordo<br />

Klimagebiet<br />

suedo panno poebe<br />

Aladin<br />

BOKU d1<br />

ARCS d1<br />

IGAM v12 d1<br />

IGAM v17 d1<br />

IGAM v18 d1<br />

IGAM v21 d1<br />

Abb. 14: Modellvergleich des BIAS des reduzierten Bodendrucks aller Klimagebiete für den gesamten<br />

Vorhersagezeitraum<br />

Abb. 15: Taylordiagramm für den reduzierten Bodendruck für den gesamten Vorhersagezeitraum<br />

Anhang 1 15<br />

Teilbericht 1


Literatur<br />

Groehn, I., R. Steinacker, Ch. Häberli, W. Pöttschacher, M. Dorninger, 1998: Results of<br />

DAQUAMAP: Characteristics of Humidity Observations of Alpine Synoptic Network, MAP<br />

Newsletter Nr. 9, p. 54-55.<br />

Groehn, I., R. Steinacker, Ch. Häberli, W. Pöttschacher, M. Dorninger, 1999: DAQUAMAP-<br />

results and response of providers, MAP Newsletter Nr. 11, p. 76.<br />

Groehn, I., R. Steinacker, Ch. Häberli, W. Pöttschacher, M. Dorninger, 2000: DAQUAMAP<br />

after SOP, MAP Newsletter Nr. 12, p. 22.<br />

Groehn, I., R. Steinacker, Ch. Häberli, W. Pöttschacher, M. Dorninger, 2000: DAQUAMAP-<br />

results and response of providers, MAP Newsletter Nr. 13, pp. 6-8.<br />

Häberli, Ch. and R. Steinacker, 1998: Quality Assessment of Upper Air Soundings in MAP,<br />

MAP Newsletter Nr. 9, p. 68-69.<br />

Häberli, Ch. and M. Dorninger, 1999: Acquisition of GTS and Routine non GTS<br />

Meteorological Data during MAP.Part I: Surface Stations. http://www.univie.ac.at/IMG-<br />

Wien/daquamap/acqui<strong>1.</strong>pdf<br />

Häberli, Ch., 1999: Acquisition of GTS and Routine non GTS Meteorological Data during<br />

MAP.Part II: Upper Air Stations. http://www.univie.ac.at/IMG-Wien/daquamap/acqui2.pdf<br />

Pöttschacher, W., R. Steinacker, M. Dorninger, 1996: VERA - A high resolution analysis<br />

scheme for the Atmosphere over complex terrain. 7 th Int. Conf. Mesoscale Processes,<br />

Reading, Amer. Meteor. Soc., pp 245-247.<br />

Pöttschacher, W., Ch. Häberli, R. Steinacker, 1997: The Error Detection and Correction<br />

Module of CALRAS and VERA, MAP Newsletter 7.<br />

Pöttschacher, W. ,R. Steinacker, M. Dorninger, 1998: Topographically Induced Features in<br />

Mesoscale Analysis and Forecast Fields, MAP Newsletter 9, pp. 76-77.<br />

Pöttschacher, W., R. Steinacker, M. Dorninger, 1998: Fingerprint Technique, A Tool for the<br />

Validation of Mesoscale Weather Prediction Models. 25 th Int. Conf. on Alpine Meteorology,<br />

Turin, pp 245-247.<br />

Pöttschacher, W., R. Steinacker, M. Dorninger, 1998: VERA - A Tool for the Validation of<br />

Mesoscale Weather Prediction Models. 8 th Int. Conf. on Mountain Meteorology, Flagstaff,<br />

Amer. Meteor. Soc., pp 156-158.<br />

Schmölz, A., R. Steinacker, W. Pöttschacher, Ch. Häberli, M. Dorninger, 2000: VERA - Two<br />

Dimensional Wind and Air Mass Analyses, MAP Meeting in Bohinjska Bistrica 2000.<br />

Steinacker, R. et al., 1995: Meteorological applications of high resolution topographic data,<br />

MAP Newsletter 3, p. 73.<br />

Steinacker, R., M. Dorninger und W. Pöttschacher. 1996: A high resolution analysis scheme<br />

for the atmosphere over complex terrain: a contribution to MAP, Proceedings 24 th Int. Conf.<br />

Alpine Meteorology. Bled Slovenia, Sept 9-13, 1996.<br />

16 Anhang 1<br />

Teilbericht 1


Steinacker, R., Ch. Häberli, I. Groehn, W. Pöttschacher, M. Dorninger, 1998: DAQUAMAP –<br />

An Initiative to Assess the Performance of Surface Observations in MAP Using a Model<br />

Independent Method. 8 th Int. Conf. on Mountain Meteorology, Flagstaff, Amer. Meteor. Soc.,<br />

pp 113-118.<br />

Steinacker, R., Ch. Häberli, and W. Pöttschacher, 2000: A transparent method for the<br />

analysis and quality evaluation of irregularly distributed and noisy observational data. Mon.<br />

Wea. Rev., Vol. 128, No. 7, pp 2303-2316.<br />

Anhang 1 17<br />

Teilbericht 1


18 Anhang 1<br />

Teilbericht 1


ANHANG A – Klimagebiete<br />

Anhang 1 19<br />

Teilbericht 1


Anhang 1<br />

Teilberichte der Projektpartner<br />

Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />

Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />

Alexander Beck und Bodo Ahrens:<br />

Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />

Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />

Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />

zu den regionalen Klimamodellen<br />

Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />

Validierung – Sensitivitätstests<br />

Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />

MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />

Mario Köstl, Wolfgang Loibl und Johann Züger:<br />

Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung


UNIVERSITÄT WIEN<br />

INSTITUT FÜR METEOROLOGIE UND GEOPHYSIK<br />

VORSTAND: O.UNIV.-PROF. DR. REINHOLD STEINACKER<br />

reclip:more<br />

Research for Climate Protection:<br />

Model Run Evaluation<br />

Projektjahr1<br />

Projektteil IMG-Ahrens/Beck,<br />

Dynamisches Downscaling globaler Klimasimulationen<br />

mit ALADIN<br />

Mittlerer Tagesniederschlag für das Jahr 1999 [mm/d] aus ERA40 Daten und nach dem<br />

dynamischen Downscaling mit ALADIN.<br />

Arbeitsbericht für den Zeitraum <strong>1.</strong>1<strong>1.</strong>2003 – 30.9.2004<br />

von<br />

Alexander Beck und Bodo Ahrens<br />

Institut für Meteorologie und Geophysik (IMGW),<br />

Universität Wien, Österreich.<br />

4. September 2004


INHALTSVERZEICHNIS<br />

1 Bereitstellung der Reanalysedaten (ERA40) für ALADIN (WP 2.3a) .......... 1<br />

2 Abstimmung der geplanten Sensitivitätsexperimente (WP 3.1) ................ 2<br />

3 Durchführung erster Sensitivitätsexperimente (WP 4.4)............................ 4<br />

4 Literatur .......................................................................................................... 8<br />

5 Veröffentlichungen ........................................................................................ 8<br />

ANHANG – Das Limited-Area Modell ALADIN........................................................ 9


1 Bereitstellung der Reanalysedaten (ERA40) für<br />

ALADIN (WP 2.3a)<br />

• ERA40 Daten für das Jahr 1999 in spektraler Auflösung T159 und T106 (60<br />

Modellschichten)<br />

• Umwandlung der Daten in ein für ALADIN geeignete Format<br />

Die ERA40 Daten des EZMW wurden für den Zeitraum 1999 aus dem MARS Archiv<br />

extrahiert. Die für ALADIN aufbereiteten Daten liegen derzeit auf einem Server des<br />

IMGW. Das Datenvolumen beträgt rund 20GB/Jahr (bei T159).<br />

Abb. 1: ERA40 Orographie für das ALADIN Modellgebiet in spektraler Auflösung T159 (links) und<br />

T106 (rechts)<br />

Weiters wurden alle notwendigen Vorbereitungen für die Extraktion der weiteren<br />

MARS Daten für die retrospektiven long-runs im weiteren Projektverlauf durchgeführt,<br />

sodass die Daten gegebenenfalls rasch und effizient für die Nutzung in ALADIN<br />

zur Verfügung stehen.<br />

Anhang 1 1<br />

Teilbericht 2


2 Abstimmung der geplanten Sensitivitätsexperimente<br />

(WP 3.1)<br />

• Sensitivitätsexperimente mit ALADIN zur „Modelldynamik“ (siehe WP4.4)<br />

• Bereitstellung der Modelldaten im „VERA-Format“ für die Validierung (BOKU-<br />

Met)<br />

• Bereitstellung der Modelldaten für die Validierung mit VERA am IMGW<br />

• Bereitstellung von quick-look Karten gem. Vorschlag BOKU-Met vom<br />

2<strong>1.</strong>6.2004<br />

• ALADIN-Daten für „Domaintest MM5“ gem. Vorschlag BOKU-Met vom<br />

2<strong>1.</strong>6.2004<br />

Auf Grundlage der durchgeführten Experimente sowie von früheren Arbeiten, wird<br />

das folgende setup für ALADIN im Rahmen von reclip:more benutzt:<br />

• Direktes Nesting von ALADIN in die globalen Daten (ERA40 bzw. ECHAM)<br />

• Keine Zwischeninterpolation der globalen Daten (zB auf Druckflächen)<br />

• Numerische Auflösung: 12 km, 41 vertikale Schichten (eta-Flächen)<br />

• Modellgebiet: ~2800x2500 km (siehe Abbildung 2, „12 km“ Box)<br />

• Zeitschema: Semi-Lagrange, semi-implizit mit ∆t=514s<br />

Abb. 2: Modellgebiet und Orographie für ALADIN. Der kleinere, schwarz umrandete Bereich im linken<br />

Bild (12 km) umfasst das gewählte Modellgebiet. Der Einfluss einer zusätzlichen 50 km-Domain<br />

wurde in Beck et al. 2004 für das rote umrandete Validierungsgebiet untersucht<br />

Für die Validierung werden die Parameter Temperatur, Spez. Feuchte und Geopotential<br />

jeweils auf 850, 700 und 500 hPa, sowie der Niederschlag herangezogen<br />

(gem. Validierungsvorschlag BOKU-Met vom 2<strong>1.</strong>6.2004). Die Modellergebnisse<br />

werden 6-stündig im „VERA-Format“ für die Validierung bereitgestellt. Dies geschieht<br />

durch Übertragung der genannten Parameter auf den ftp-Server von BOKU-Met.<br />

Weiters werden ALADIN-Daten für das stochastische Downscaling zur Verfügung<br />

gestellt. Dies geschieht in enger Abstimmung mit W. Schöner (ZAMG). Der<br />

Austausch erfolgt ebenfalls im VERA-Format. Die Modelldaten für die gewünschten<br />

Parameter liegen auf dem Modellgitter in (zumindest) 6h zeitlicher Auflösung vor. Ein<br />

Testdatensatz wurde an W. Schöner (ZAMG) übermittelt.<br />

2 Anhang 1<br />

Teilbericht 2


Abb. 3: Beispiel für Wetterkarten wie sie an BOKU-Met geliefert werden: 500hPa und Vertikalbewegung<br />

(links) sowie T850 (rechts) der ALADIN Vorhersage für den <strong>1.</strong>7.1999<br />

Die Verwendung eines aufwendigeren Strahlungsschemas (FMR, eventuell RRTM)<br />

im Modell wird anhand eines Sensitivitätsexperimentes für 1999 untersucht. Die<br />

Vorbereitungen für dieses Experiment sind abgeschlossen, die Durchführung erfolgt<br />

im Laufe des August 2004. Dieses Experimentes soll als Entscheidungsgrundlage für<br />

das Strahlungsschema in den long-runs dienen. Insbesondere müssen die<br />

zusätzlichen Kosten (Rechenzeit!) im Vergleich zur möglichen Verbesserung der<br />

Ergebnisse beurteilt werden. Diese Evaluierung sollte im Rahmen der allgemeinen<br />

Validierung durch BOKU-Met passieren.<br />

Als ersten Schritt zur Untersuchung der Wechselwirkung Atmosphäre und Boden<br />

wurde die Möglichkeit der Verwendung von CORINE Daten in ALADIN untersucht.<br />

Eine Verwendung dieser Daten im Bodenschema von ALADIN (ISBA; Noilhan und<br />

Mahfouf, 1996) scheint derzeit nur mit sehr großem Aufwand möglich. Außerdem<br />

erfordert die Verwendung des CORINE-Datensatzes ein umfangreiches preprocessing<br />

um von den enthaltenen Bodenklassen die für ISBA notwendigen<br />

Parameter abzuleiten. Des Weiteren müsste im Vorfeld das Problem der vorhandenen<br />

„Datenlücken“ (also Länder für die keine CORINE-Daten vorliegen) geklärt<br />

werden. Ähnliche Probleme treten bei der Verwendung des ARC-eigenen Landcover<br />

Modells auf. Aus den genannten Gründen scheint eine Verwendung der CORINE-<br />

Daten (oder ARC-eigenen Daten) für ALADIN im Rahmen von reclip:more nicht<br />

praktikabel zu sein. Nichtsdestotrotz soll im Zuge der Weiterentwicklung des<br />

Bodenschemas die Möglichkeit der Verwendung von CORINE-Daten geprüft werden.<br />

Dies soll im Herbst 2004 im Rahmen eines mehrwöchigen Arbeitsbesuches von B.<br />

Ahrens in Toulouse diskutiert werden.<br />

Die ersten ALADIN-Daten (für das gesamte Jahr 1999) zur Validierung mit VERA<br />

wurden im Laufe des Frühjahrs an B. Chimani (IMGW) übermittelt.<br />

Die Abstimmung bezüglich der 3D-Validierung erfolgt mit den Kollegen am IGAM. Ein<br />

diesbezüglicher Vorschlag von A. Gobiet für das Datenformat liegt vor. ALADIN-<br />

Pseudotemps (im vereinbarten Format) für den Zeitraum 3.1<strong>1.</strong> – 9.1<strong>1.</strong>1999 wurden<br />

an IGAM übermittelt (2<strong>1.</strong>9.2004).<br />

Anhang 1 3<br />

Teilbericht 2


3 Durchführung erster Sensitivitätsexperimente (WP 4.4)<br />

• Sensitivitätsexperimente zur Nesting-Strategie beim regionalen Downscaling<br />

für Herbst 1999 (MAP SOP; Beck et al. 2004)<br />

• Sensitivitätsexperimente zum optimalen ALADIN-setup bei der Reinitialisierung<br />

für das gesamte Jahr 1999<br />

• Sensitivitätsexperimente zum Einfluss der Auflösung der Nesting-Daten im<br />

Hinblick auf die Verwendung von ECHAM Daten für das Jahr 1999<br />

Um eine möglichst effizient Anwendung von ALADIN zum dynamischen Downscaling<br />

zu ermöglichen, wurde eine Reihe von Sensitivitätsexperimenten durchgeführt. Diese<br />

Experimente sind auf Grund des Downscaling-modes als ALADIN-spezifisch zu<br />

betrachten und konnten daher weitgehend unabhängig von den anderen<br />

Modelliergruppen durchgeführt werden.<br />

Alle Läufe mit ALADIN werden auf dem LINUX-cluster Schroedinger II der Universität<br />

Wien durchgeführt (siehe http://www.univie.ac.at/ZID/schroedinger/). Das postprocessing<br />

der Modelldaten erfolgt am IMGW, wobei der Datentransfer zwischen<br />

cluster und Institut weitgehend automatisiert wurde (shell-scripts und secure-copy).<br />

Für eine möglichst effiziente, regionale Reanalyse, wie sie durch das dynamische<br />

Downscaling verwirklicht wird, ist das Modellnesting von großer Bedeutung. Hierzu<br />

wurde eine Reihe von Experimenten durchgeführt und die Auswirkung verschiedener<br />

Nesting-Strategien auf die Niederschlagsvorhersage evaluiert. Es zeigte sich, dass<br />

für ein dynamisches downscaling auf den betrachteten Skalen (globale Daten<br />

~120 km, ALADIN ~12 km) eine direktes Nesting von ALADIN in Reanalysedaten<br />

möglich ist und im Vergleich zu aufwendigeren Verfahren ähnliche Ergebnisse liefert<br />

(Beck et al. 2004). Daher soll im Rahmen von reclip:more ALADIN direkt in die<br />

globalen Antriebsdaten genestet werden.<br />

Für das dynamische Downscaling werden die atmosphärischen Parameter in<br />

ALADIN tägliche neu initialisiert. Die Bodenparameter können entweder ebenfalls<br />

täglich neu initialisiert werden, oder aus dem vorherigen ALADIN Lauf übernommen<br />

werden. Dadurch ist für den Boden eine Art „Klimalauf“ möglich. Diese Konfiguration<br />

wird als „surface-blending“ bezeichnet. Im Rahmen einer Reihe von Sensitivitätsexperimenten<br />

für das Jahr 1999 wurde der Einfluss von unterschiedlichen Bodensetups<br />

(Neuinitialisierung, surface-blending, sowie Mischformen) untersucht. Da das<br />

derzeitige Bodenschema nicht für einen (freilaufenden) Klimalauf gedacht ist, scheint<br />

eine schwache Relaxation zu den globalen Bodenfeldern (aus ERA40 oder ECHAM)<br />

notwendig. Diese Einschätzung wird durch die durchgeführten Experimente bestätigt,<br />

sodass im Rahmen von reclip:more eine surface-blending Konfiguration mit 3 %<br />

Relaxation verwendet werden soll. Die Modelldaten für diese Experimente liegen am<br />

IMG vor und können im Rahmen der Validierung weiter untersucht werden.<br />

4 Anhang 1<br />

Teilbericht 2


Abb. 4: Jahresniederschlag [mm] für das Jahr 1999 vom GPCC (links oben), auf Grundlage von<br />

ERA40-Daten (links unten) und nach dem dynamischen Downscaling mit ALADIN (rechts unten). Das<br />

Bild rechts oben zeigt die für die GPCC-Analyse verwendete Stationsanzahl pro Gitterbox (0.5 Grad)<br />

Abbildung 4 zeigt den Jahresniederschlag (in mm) aus der aktuellen Analyse des<br />

beim Deutschen Wetterdienst angesiedelten Global Precipitation Climatology<br />

Centers (GPCC) für das Jahr 1999 (Auflösung: 0.5 Grad). Man beachte die geringe<br />

Anzahl der verwendeten Messdaten in weiten Bereichen von Ost- und Südeuropa<br />

(Bild links oben). Ein subjektiver Vergleich mit dem Jahresniederschlag von ALADIN<br />

zeigt eine gute Übereinstimmung in Gebieten mit ausreichender Datenbedeckung.<br />

Der Vollständigkeit halber ist auch der ERA40-basierte Jahresniederschlag<br />

dargestellt. Die quantitative Evaluierung dieser Modellergebnisse erfolgt durch<br />

BOKU-Met.<br />

In Hinblick auf die prospektiven Läufe wurden Sensitivitätsexperimente zum Einfluss<br />

der Auflösung der globalen Eingangsdaten durchgeführt. Hierzu wurden die ERA40<br />

Daten sowohl in der spektralen Auflösung T159 als auch in T106 verwendet.<br />

Aufgrund des Modelldesigns am EZMW benutzt das T159 Modell dasselbe GAUSS-<br />

Gitter wie auch das T106 Modell. Diese scheinbare Diskrepanz entsteht durch die<br />

Semi-Lagrange Behandlung der Advektionsterme im EZMW Modell. Das T159<br />

Modell benutzt ein so genanntes lineares GAUSS-Gitter weil die Berechnung der<br />

nichtlinearen Produkte in den Advektionstermen durch die SL-Formulierung<br />

vermieden wird. Im ECHAM Modell muss aber ein so gennantes quadratisches<br />

Anhang 1 5<br />

Teilbericht 2


GAUSS-Gitter verwendet werden, wodurch bei gleicher Gitterpunktsanzahl nur ein<br />

geringere spektrale Auflösung (nämlich T106) numerisch möglich ist. Um den<br />

Einfluss der verringerten spektralen Auflösung zu untersuchen, wurde für das Jahr<br />

1999 ein ALADIN-Experiment mit T106 Eingangsdaten gerechnet. Ein subjektiver<br />

Vergleich der beiden Läufe (basierend auf T159 bzw. T106 Daten) zeigt eine gute<br />

Übereinstimmung sowohl auf Monatsbasis (siehe Abbildung 5) als auch für das<br />

gesamte Jahr 1999.<br />

Abb. 5: Mittlerer täglicher Niederschlag für den Zeitraum Juni-Juli-August 1999 in mm/Tag. Im linken<br />

Bild wurde ALADIN in globale ERA40-Daten mit spektraler Auflösung T159, im rechten Bild mit T106<br />

genestet<br />

Die Verwendung der hoch auflösenden Modelldaten beispielsweise in der hydrologischen<br />

Modellierung stellt nicht nur eine wichtige Anwendung meteorologischer<br />

Daten dar, sondern bietet auch die Möglichkeit einer „indirekten Validierung“ der<br />

Eingangsdaten durch unabhängige Messdaten (zB, Ahrens et al. 2003). Abbildung 6<br />

zeigt als Beispiel einer solchen Anwendung die simulierte Abflussganglinien in einem<br />

alpinen Einzugsgebiet basierend auf ALADIN-Niederschlagsdaten mit 12 km und<br />

50 km Gitterpunktsabstand. Das verwendete hydrologische Modell ist WaSim-ETH<br />

(Schulla 1997) Für die MAP SOP zeigen die ALADIN-basierten Simulationen eine<br />

zufriedenstellende Performance im Vergleich zur Simulation mit beobachteten<br />

Niederschlagsdaten. Außerdem zeigt sich eine signifikante Verbesserung des<br />

modellierten Abflusses, wenn Eingangsdaten mit 12 km anstatt mit 50 km verwendet<br />

werden. Diese Verbesserung bestätigt eindrücklich die (direkte) Anwendbarkeit von<br />

ALADIN auf der 12 km Skala auf Grundlage von grob aufgelösten (120 km)<br />

Eingangsdaten.<br />

6 Anhang 1<br />

Teilbericht 2


Abb. 6: Anwendung der ALADIN-Niederschlagssimulationen mit 12 km (rot) und 50 km (blau)<br />

Auflösung als Eingangsdaten für die hydrologische Modellierung. Die schwarze Linie (Stat) verwendet<br />

beobachtete Niederschläge und „Obs“ zeigt den gemessenen Gebietsabfluss<br />

Die Schnittstelle zwischen ECHAM Daten und ALADIN wurde vorbereitet. Nachdem<br />

die Festlegung auf ECHAM5 erst im Juni 2004 erfolgte, sind hier noch kleine<br />

Änderungen notwendig. Insbesondere werden in ECHAM5 neben Daten im GRIB-<br />

Format auch Daten im netCDF Format verwendet. Dies betrifft die klimatologischen<br />

Bodendaten, sowie SST und sea-ice. Da die Bodendaten auch teilweise für die<br />

Interpolation notwendig sind, müssen hier noch kleine Anpassungen an den<br />

Einleseroutinen vorgenommen werden.<br />

Ein Testdatensatz von einem ECHAM5 Lauf der ETH Zürich liegt vor und wurde den<br />

Projektpartner am IGAM übermittelt. Im Rahmen eines Besuches an der ETH Zürich<br />

durch A. Beck (2<strong>1.</strong> bis 23. Juli 2004, siehe Kurzbericht vom 25. Juli 2004) wurden<br />

Details zum Datenformat und den vorliegenden Parametern besprochen.<br />

Anhang 1 7<br />

Teilbericht 2


4 Literatur<br />

Ahrens, B., K. Jasper and J. Gurtz, 2003: On ALADIN precipitation modeling and validation<br />

in an Alpine watershed. Annales Geophysicae, 21, 627-637.<br />

Beck, A., B. Ahrens und K. Stadlbacher, 2004: Impact of nesting strategies in dynamical<br />

downscaling of reanalysis data. Geophysical Research Letters, in print.<br />

Noilhan, J. und J.-F. Mahfouf, 1996: The ISBA land surface parameterization scheme. Global<br />

and Plan. Change, 13, 145-159.<br />

Schulla, J., 1997: Hydrologische Modellierung von Flussgebieten zur Abschätzung der<br />

Folgen von Klimaänderungen. ETH Zürich, Zürcher Geographische Schriften, 69, 187pp.<br />

5 Veröffentlichungen<br />

Beck, A., B. Ahrens und K. Stadlbacher, 2004: Impact of nesting strategies in dynamical<br />

downscaling of reanalysis data (4 Seiten).<br />

Poster EGU 1 st general assembly 2004: Beck, A. und B. Ahrens, 2004: Dynamical<br />

downscaling of reanalysis data over Central Europe (Poster, 1 Seite).<br />

Extended Abstract workshop LUND: Dynamical Downscalig with the Limited-Area Model in<br />

the European Alps (2 Seiten).<br />

8 Anhang 1<br />

Teilbericht 2


ANHANG – Das Limited-Area Modell ALADIN –<br />

Ein Überblick<br />

Einleitung<br />

ALADIN (http://www.cnrm.meteo.fr/aladin/) ist ein spektrales limited-area model (LAM). Das<br />

Konzept des ALADIN Projektes wurde im Jahre 1990 von Météo-France initiiert. Das<br />

vorrangige Ziel war dabei, die Zusammenarbeit auf dem Gebiet der numerischen<br />

Wettervorhersage (NWP) mit den nationalen meteorologischen Diensten vorwiegend in<br />

Zentral- und Osteuropa. Das Akronym ALADIN (Aire Limitée Adaptation dynamique<br />

Développement InterNational) beschreibt auch diesen Gedanken: Gemeinsame Entwicklung<br />

eines LAM, das mit vergleichsweise geringem (numerischen) Aufwand lokale, hoch<br />

auflösende Kurzfristvorhersagen erlaubt. ALADIN wird operationell in fünfzehn Ländern auf<br />

unterschiedlichen Rechnersystemen betrieben (vom LINUX PC bis zum Supercomputer).<br />

ALADIN ist in das Vorhersagepaket ARPEGE/IFS integriert und nutzt einen Teil des codes<br />

von den beiden globalen Systemen. Insbesondere bietet sich die Möglichkeit, dass Teile des<br />

variationellen Assimilationssystems in ALADIN benutzt werden können. Des Weiteren bildet<br />

das (globale) Ensemblevorhersagesystem die Grundlage für entsprechende Systeme im<br />

Rahmen von ALADIN.<br />

Abb. 1: Die operationellen ALADIN Gebiete sowie die verwendeten Zwischennester.<br />

Im operationellen Betrieb wird ALADIN in ein oder mehreren Schritten in das von Meteo-<br />

France betriebene Globalmodell ARPEGE genestet. Die numerische Auflösung von<br />

ARPEGE beträgt über Europa ~20-30 km. Darin wird operationell ALADIN mit


Ausgewählte technische Details zu ALADIN<br />

ALADIN ist ein spektrales, hydrostatisches LAM mit druckbasierten, terrainfolgenden<br />

(hybriden) eta-Koordinaten in Analogie zu ARPEGE/IFS. Es benutzt ein effizientes semiimplizites,<br />

semi-lagrange'sches 2- oder 3-Ebenen Advektionsschema sowie ein umfangreiches<br />

Physik-Paket. Die existente nicht-hydrostatische Modell<strong>version</strong> wird weder im<br />

operationellen Betrieb noch im Rahmen von reclip:more benutzt und daher hier nicht weiter<br />

diskutiert.<br />

Die Anwendung von harmonischen Funktionen zur<br />

räumlichen Diskretisierung erfordert zusätzlich zur<br />

coupling- oder Relaxationszone noch eine so<br />

genannte „Extension zone“ am Nord- und Ostrand<br />

des Modellgebietes (s. Abbildung 2). Die Relaxation<br />

innerhalb der coupling-Zone (typisch, 8 Gitterpunkte<br />

breit) basiert auf einem Exponentialansatz nach<br />

Davies (1976), wobei unterschiedliche Exponenten<br />

für die verschiedenen Variablen benutzt werden.<br />

Die Parametrisierungen (Gerard 2001) umfassen<br />

Abb. 2: Modelldomäne (schematisch)<br />

unter anderem eine Grenzschicht- und Turbulenzformulierung nach Louis et al. (1982), eine<br />

Konvektionsparametrisierung nach Geleyn (1987), das Bodenschema ISBA (Noilhan und<br />

Planton 1989), sowie das Strahlungsschema von Ritter und Geleyn (1992). In der operationellen<br />

Anwendung (und auch im Rahmen von reclip:more) wird derzeit noch ein diagnostisches<br />

Wolken- und Niederschlagsschema nach Kessler (1969) benutzt. Wesentliche<br />

Teile des Physikpaketes stammen aus ARPEGE. Da ALADIN primär für die Wettervorhersage<br />

konzipiert ist, sind die Parametrisierungen mehr oder weniger stark für diese<br />

Anwendung optimiert.<br />

Das Projekt ALADIN-climate<br />

Der Einsatz von ALADIN zur regionalen Klimasimulation ist neu und stellt eine wesentliche<br />

Erweiterung gegenüber dem Einsatz in Rahmen von NWP dar. Das im Rahmen von<br />

reclip:more betriebene „Dynamische downscaling mit ALADIN“ kann als eine Art<br />

„Zwischenschritt“ in Richtung der regionalen Klimamodellierung gesehen werden. Die<br />

Entwicklung einer echten Klima<strong>version</strong> von ALADIN (ALADIN-climate) wird seit kurzer Zeit in<br />

Toulouse und Prag betrieben. Die Idee besteht darin, Erfahrungen aus der Entwicklung der<br />

Klima<strong>version</strong> von ARPEGE (ARPEGE-climate; zB Déqué und Piedelievre 1995) auch im<br />

Rahmen von ALADIN sinnvoll einzusetzen. Dies betrifft insbesondere die Modifikation der<br />

physikalischen Parametrisierungen für Klimaanwendungen (zB Strahlung, Bodenschema).<br />

Dynamisches Downscaling adaptiert die grobskaligen Muster, wie sie in ERA40 bzw.<br />

ECHAM5 dargestellt sind, an die hoch aufgelöste Orographie, Landnutzung, etc. Dabei wird<br />

die volle Dynamik und Physik des LAMs zur Adaptierung verwendet. Dadurch wird den<br />

grobskaligen Mustern ein regionales Klimaforcing aufgeprägt. Der Einsatz von ALADINclimate<br />

im Rahmen von reclip:more ist nicht geplant, da das Modell noch nicht ausreichend<br />

getestet werden konnte. Die Anwendung eines im Alpenraum nicht ausreichend evaluierten<br />

regionalen Klimamodells ALADIN-climate ist langfristig geplant, aber zum jetzigen Zeitpunkt<br />

verfrüht. Außerdem bietet sich durch das dynamische Downscaling eine „billige“ und robuste<br />

Methode zur Regionalisierung von globalen Klimasimulationen.<br />

10 Anhang 1<br />

Teilbericht 2


Zukunft<br />

Die Zukunft von ALADIN muss für die beiden Anwendungen NWP und Klima gesondert<br />

betrachtet werden. Für NWP Zwecke wird ALADIN auf Grundlage des französischen<br />

Forschungsmodells Meso-NH weiterentwickelt (siehe Abbildung 3). Konkret werden der<br />

nicht-hydrostatische dynamische Kern sowie die Gesamte Datenassimilation aus ALADIN<br />

mit der Physik von Meso-NH verschmolzen. Das dabei entstehende Modell ALARO soll in<br />

Zukunft für die operationelle Vorhersage auf der 2 km Skala eingesetzt werden.<br />

ALADIN-CLIMATE<br />

Abb. 3: Geplante Entwicklung im Zusammenhang mit ALADIN<br />

Im Bereich der Klimamodellierung (ALADIN-climate) scheint vorerst eine weitere Anbindung<br />

an ARPEGE-climate auf Grundlage des vorhandenen ALADIN Systems sinnvoll zu sein. Der<br />

Schritt in Richtung noch höherer Auflösung wie er im NWP Bereich mit ALARO gegangen<br />

wird, ist für Klimafragen wegen der enormen numerischen Kosten, aber auch methodischer<br />

Grenzen (predictability) vorerst wenig sinnvoll.<br />

Anhang 1 11<br />

Teilbericht 2


Literatur<br />

Bubnova, R., G. Hello, P. Bernard, and J.-F. Geleyn, 1995: Integration of the fully elastic<br />

equations cast in the hydrostatic pressure terrain–following coordinate in the framework of<br />

the ARPEGE/ALADIN NWP system, Mon. Wea. Rev., 123, 515–535.<br />

Davies, H., 1976: A lateral boundary formulation for multi–level prediction models, Quart. J.<br />

R. Met. Soc., 102, 405-418.<br />

Déqué, M., and J. Piedelievre, 1995: High resolution climate simulation over Europe. Clim.<br />

Dyn., 11, 321-33<br />

Geleyn, J.-F., 1987: Use of a modified Richardson number for parametrizing the effect of<br />

shallow convection. J. Meteor. Soc. Japan, Special NWP symposium issue, 141-<br />

149.<br />

Gerard, L., 2001: ALADIN's Operational Physics Documentation. http://www.cnrm.<br />

meteo.fr/ALADIN/MODELES/EXT/Physics.<br />

Horányi, A., I. Ihász, and G. Radnóti, 1996: ARPEGE/ALADIN: A numerical weather<br />

prediction model for Central-Europe with the participation of the Hungarian Meteorological<br />

Service. Idójárás, 100, 277-30<strong>1.</strong><br />

Kessler, E., 1969: On the distribution and continuity of water substance in atmospheric<br />

circulations. Meteor. Monogr., 10, 1-84.<br />

Louis, J.F., M. Tiedke, and J.-F. Geleyn, 1982: A short history of the PBL parameterizations<br />

at ECMWF. Proc. of the ECMWF workshop on planetary boundary parameterization,<br />

Reading, 25-27 Nov. 1981, 59-80.<br />

Noilhan, J., and S. Planton, 1989: A simple parameterization of land surface processes for<br />

meteorological models. Mon. Wea. Rev., 117, 536-550.<br />

Ritter, B., and J.-F. Geleyn, 1992: A comprehensive radiation scheme for numerical weather<br />

prediction models with potential applications in climate studies. Mon.Wea. Rev., 120, 303-<br />

325.<br />

12 Anhang 1<br />

Teilbericht 2


Anhang 1<br />

Teilberichte der Projektpartner<br />

Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />

Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />

Alexander Beck und Bodo Ahrens:<br />

Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />

Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />

Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />

zu den regionalen Klimamodellen<br />

Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />

Validierung – Sensitivitätstests<br />

Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />

MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />

Mario Köstl, Wolfgang Loibl und Johann Züger:<br />

Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung


eclip:more<br />

Research for Climate Protection:<br />

Model Run Evaluation<br />

Projektjahr 1<br />

Projektteil ZAMG<br />

Datenbereitstellung, Entwicklung von<br />

Regionalisierungstools und einer Schnittstelle zu den<br />

regionalen Klimamodellen<br />

Arbeitsbericht für den Zeitraum <strong>1.</strong>1<strong>1.</strong>2003 – 30.9.2004<br />

von<br />

Wolfgang Schöner und Elsa Dos Santos Cardoso<br />

Zentralanstalt<br />

für Meteorologie und Geodynamik<br />

Wien, 19. November 2004


INHALTSVERZEICHNIS<br />

1 Aufgabenstellung .............................................................................................. 1<br />

2 Stand der Forschung ........................................................................................ 1<br />

2.1 Regionalisierungsmethoden für das Tagesmittel der Lufttemperatur ........... 3<br />

2.2 Regionalisierungsmethoden für Tagessummen des Niederschlags............. 3<br />

2.3 Regionalisierungsmethoden für Tageswerte der Schneehöhe..................... 5<br />

3 ZAMG Datenbereitstellung ............................................................................... 6<br />

4 Statistisches Downscaling mit Clim.Pact........................................................ 6<br />

5 Schnittstelle MM5 beziehungsweise ALADIN mit Clim.Pact.......................... 8<br />

6 Regionalisierungstool basierend auf Klimanormalgrids ............................... 8<br />

7 Regionalisierungstool mit EOF Feldern der Orographie als Prädikator......10<br />

8 Erste Validierungsergebnisse .........................................................................18<br />

9 Ausblick ............................................................................................................23<br />

10 Literatur.............................................................................................................24<br />

ANHANG – AML-scripts für die Interpolation der Parameter...............................27


1 Aufgabenstellung<br />

Für das von systems research geleitete Projekt reclip:more war im Rahmen eines<br />

Werkvertrages ein Methodenwerkzeug für ein verfeinertes Downscaling von MM5-<br />

und ALADIN-Läufen zu entwickeln. Die gewünschte zeitliche Auflösung war mit 1<br />

Tag und die gewünschte räumliche Auflösung mit bis zu 1 km x 1 km vorgegeben.<br />

Die zu entwickelnden Tools sollen ein automatisiertes Downscaling langer Zeitreihen<br />

für die Klimaparameter Lufttemperaturmittel und Niederschlagssumme ermöglichen.<br />

Zusätzlich waren lange Zeitreihen auf Tageswertbasis für die Klimaparameter Lufttemperatur,<br />

Niederschlag und Schneehöhe für das Projekt bereitzustellen. Im Einzelnen<br />

waren folgende Workpackages der reclip:more Feinstruktur durchzuführen:<br />

WP 2.<strong>1.</strong> Bereitstellung österreichischer Messdaten<br />

WP 5.<strong>1.</strong> Schnittstelle MM5 bzw. ALADIN – Regionalisierungstool entwickeln<br />

WP 5.2a. Regionalisierungstool Temperatur mean<br />

WP 5.3. Regionalisierungstool Niederschlag<br />

WP 5.4. Regionalisierungstool Schneedecke<br />

Als wichtiges Methodenwerkzeug war in Vorgesprächen eine Festlegung auf das in R<br />

programmierte Downscalingtool CLIM.PACT (Benestad 2003a, 2003b) erfolgt. Dieses<br />

Tool, das bisher in Skandinavien Anwendung fand, war für den Alpenraum zu<br />

adaptieren und für ein Downscaling vieler Zeitreihen zu optimieren. Die geographische<br />

Verfeinerung sollte mittels Fortran Programmen oder ArcInfo Scripts ermöglicht<br />

werden.<br />

2 Stand der Forschung<br />

Upscaling bezeichnet die Übertragung von Information auf eine größere Skalenebene.<br />

Die Skalierung kann sich dabei sowohl auf Raum als auch Zeit beziehen. Downscaling<br />

bezeichnet den umgekehrten Vorgang (Übertragung auf kleinere Skalenebene).<br />

Die Skalierung wird im Allgemeinen auf ein regelmäßiges Gitter durchgeführt.<br />

Begriffe die ähnlicher Form verwendet werden sind zB Downward transformation oder<br />

Regionalisierung. Zu beachten ist in diesem Zusammenhang ob die Skalierung<br />

auf ein Gitter (Gitterpunktwerte) oder auf ein Grid (Pixelwerte, Gridbox, Mittelwerte<br />

der Zellflächen) gewünscht wird. Die folgende Zusammenfassung bezieht sich auf<br />

Ergebnisse des räumlichen Skalierens in der Klimaforschung (wobei die räumliche<br />

Skalierung nicht strikt von der zeitlichen Skalierung zu trennen ist). Der Fokus wird<br />

hier auf eine räumliche Skala bis ca. 1 km gelegt.<br />

Anhang 1 1<br />

Teilbericht 3


Ein Downscaling von Klimaläufen von GCMs wird im allgemeinen mittels statistischem<br />

(empirischen) Modell (Regression, CCA, Analogmethode etc.) oder mittels<br />

Kopplung mit einem Regionalmodell (zB MM5) durchgeführt. Eine Kombination von<br />

dynamischem und statistischem Downscaling wurde bis jetzt selten durchgeführt. Der<br />

Grund dafür ist, dass Regionalmodelle derzeit noch nicht auf hinreichende räumliche<br />

Auflösung hinunterskaliert werden können (siehe zB Ahrens 2003). Benestad (2004)<br />

hat einen derartige Methode für ein verfeinertes Downscaling für den skandinavischen<br />

Raum entwickelt. Der methodische Ansatz gliedert sich dabei in 2 Schritte:<br />

1) Empirisches Downscaling der Läufe des Regionalmodells an Stationskoordinaten<br />

2) Geographische Verfeinerung und Interpolation des empirischen Downscaling<br />

Die dabei erzielten Ergebnisse haben nicht nur eine bessere Anpassung an die geographischen<br />

Gegebenheiten der Klimastationen, sondern liegen dann auch als räumliche<br />

Grids vor. Dadurch sind sie für Climate Impact Modelle im Allgemeinen besser<br />

verwendbar.<br />

Methoden für das empirische Downscaling des Regionalmodells können analog den<br />

Methoden für das empirische Downscaling von Globalmodellen verwendet werden.<br />

Im Rahmen dieser Arbeit wurde dabei das von R. Benestad (met.no) entwickelte und<br />

frei erhältliche Programmpaket clim.pact (Benestad, 2003b) verwendet (http://cran.rproject.org).<br />

Dieses erlaubt eine umfangreiche EOF-Analyse (Empirical Orthogonal<br />

Function, siehe zB Storch und Zwiers, 1999) von meteorologischen Feldern und ein<br />

Downscaling mittels multipler linearer Regression. Als Erweiterung ist auch ein Modul<br />

für die Analogmethode verfügbar. Die Analogmethode ist besonders für das Downscaling<br />

des Niederschlags auf Tageswertbasis geeignet (Gamma-Verteilung der Tagessummen<br />

des Niederschlags).<br />

In ähnlicher Weise wie clim.pact gibt es auch SDSM (Statistical DownsScaling Model,<br />

https://co-public.lboro.ac.uk/cocwd/SDSM/) Dieses Programmpaket arbeitet unter<br />

Windows und ist jedoch weniger flexibel als clim.pact. Für Österreich wurden richtungsweisende<br />

Arbeiten für ein empirisches Downscaling von C. Matulla durchgeführt<br />

(zB Matulla und Haas 2003, Matulla et al., 2004). Dabei wurden CCA, (Canonical<br />

Correlation Analysis) MLR (Multiple Linear Regression) und Analogmethode für<br />

Österreich adaptiert. Diese Methoden wurden jedoch für die kommerzielle Software<br />

Matlab entwickelt und sind daher von einer Matlab-Lizenz abhängig.<br />

Für das „geographical refinement“ des empirischen Downscaling können zahlreiche<br />

Methoden des Upscaling verwendet werden. Die meisten Arbeiten in der Literatur<br />

zum Thema räumliches Upscaling im Bereich ca. 25 m-5 km sind für die Klimaelemente<br />

Lufttemperatur und Niederschlag zu finden. Die verwendete zeitliche Auflösung<br />

liegt dabei bei Tages- und Monatswerten, Jahreszeitenwerten, Jahres- oder<br />

Klimanormalwerten (nur selten Stundenwerten). Sehr oft wird für die notwendige Interpolation<br />

auf GIS-Softwareprodukte zurückgegriffen. Meist bedient man sich<br />

(geo)statistischer Interpolationsmethoden. Die häufigste Fragestellung ist die Übertragung<br />

von Punktinformationen (Klimastationen) in die Fläche. Im Allgemeinen sind<br />

im vorliegenden Maßstab rein geostatistische Interpolationen nicht zielführend, da die<br />

interessierenden räumlichen Muster nicht aufgelöst werden. Eine Modellierung des<br />

deterministischen Anteils ist notwendig, wobei sich als Prädiktoren zB eignen:<br />

2 Anhang 1<br />

Teilbericht 3


1) DHM:<br />

Seehöhe<br />

DHM-abgeleitete Info wie Hangneigung, Orientierung, Krümmung,<br />

EOF Komponenten des DHM,<br />

DHM-Statistiken<br />

2) Geographische Koordinaten und daraus abgeleitete Info wie Entfernung zur Küste<br />

3) Landnutztung:<br />

Rauhigkeit<br />

Albedo<br />

Hydrographische Info<br />

4) Klimamodelloutput:<br />

EOF von Druckfeldern<br />

Wetterlagen (Strömungslagen)<br />

5) Fernerkundungsdaten<br />

6) Radardaten<br />

2.1 Regionalisierungsmethoden für das Tagesmittel der Lufttemperatur<br />

Ansätze die den deterministischen Anteil der Interpolation nicht extra behandeln<br />

sondern die Punktwerte direkt interpolieren (zB Kriging, IDW, Radial Basis Function,...)<br />

sind für die betrachtete Skala nicht zielführend, da die räumlichen Strukturen<br />

nicht aufgelöst werden. Die meisten Ansätze zur Interpolation der Lufttemperatur beziehen<br />

sich daher auf die Höhenabhängigkeit der Temperatur (deterministischer Anteil)<br />

in Form von Regressionen (Abbildungen 1 und 2). Jedoch ist die Korrelation zwischen<br />

Tagesmitteltemperatur und Seehöhe nur in den Sommermonaten hoch. In den<br />

Wintermonaten ist auf Grund von In<strong>version</strong>swetterlagen oft keine Höhenabhängigkeit<br />

zu finden. Eine Verbesserung der Ergebnisse für die Wintermonate kann durch Einbeziehen<br />

topographischer Formen (zB durch EOF des Geländes, AURELHY Methode,<br />

Benichou, 1985) und Wetterlagen erzielt werden (zB Tveito, in prep.). Nach Behandlung<br />

des deterministischen Anteils kann durch Interpolation des stochastischen<br />

Anteils zB durch Residual-Kriging eine weitere Verbesserung des Ergebnisses erzielt<br />

werden.<br />

2.2 Regionalisierungsmethoden für Tagessummen des Niederschlags<br />

Eine gute Übersicht über Methoden der räumlichen Interpolation (Spatialisation) von<br />

Niederschlagsdaten findet sich in Mestre (2002).<br />

Recht gute Interpolationsergebnisse wurden bei wetterlagenabhängigen Algorithmen<br />

erzielt (zB Tveito et al., 2000 für Norwegen, Phillips and McGregor für England). Neben<br />

Methoden, die die Wetterlagenabhängigkeit des Niederschlags berücksichtigen,<br />

bewähren sich auch recht gut Methoden die die Orographie berücksichtigen. So bewährt<br />

sich zB die AURELHY Methode (EOF Analyse des DHM für deterministischen<br />

Anteil und anschließendes Residual-Kriging) (Benichiou, 1987) recht gut. Die AU-<br />

Anhang 1 3<br />

Teilbericht 3


RELHY Methode wurde international viel verwendet und modifiziert (zB Göbbel et al.,<br />

1998). Eine Verbesserung der räumlichen Information von Niederschlagsfeldern auf<br />

Tageswertbasis ist auch die kombinierte Verwendung von Radardaten und Stationsdaten<br />

zu erzielen.<br />

Die Verwendeten Methoden lassen sich grob in 3 Klassen einteilen:<br />

• einfache akkumulierte Radar/Stationsdaten Quotienten<br />

• geostatistische Ansätze besonders Co-Kriging<br />

• Neuronale Netze<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

-0.2<br />

-0.4<br />

-0.6<br />

-0.8<br />

-1<br />

-<strong>1.</strong>2<br />

0<strong>1.</strong>0<strong>1.</strong>1948<br />

0<strong>1.</strong>0<strong>1.</strong>1949<br />

CORRELATIO<br />

0<strong>1.</strong>0<strong>1.</strong>1950<br />

0<strong>1.</strong>0<strong>1.</strong>1951<br />

0<strong>1.</strong>0<strong>1.</strong>1952<br />

0<strong>1.</strong>0<strong>1.</strong>1953<br />

0<strong>1.</strong>0<strong>1.</strong>1954<br />

0<strong>1.</strong>0<strong>1.</strong>1955<br />

Abb. 1: Tägliche Korrelation zwischen Lufttemperatur und Seehöhe für 70 Österreichische Stationen<br />

0.02<br />

0.015<br />

0.01<br />

0.005<br />

0<br />

-0.005<br />

-0.01<br />

-0.015<br />

-0.02<br />

LAPSE RATE<br />

Abb. 2: Tägliche Höhengradienten der Temperatur für 70 Österreichische Stationen<br />

0<strong>1.</strong>0<strong>1.</strong>1956<br />

4 Anhang 1<br />

Teilbericht 3<br />

0<strong>1.</strong>0<strong>1.</strong>1957<br />

0<strong>1.</strong>0<strong>1.</strong>1958<br />

0<strong>1.</strong>0<strong>1.</strong>1959<br />

0<strong>1.</strong>0<strong>1.</strong>1960


Nykanen and Harris (2003) verwendeten für das Upscaling von Tagessummen einen<br />

Multi-Scale statistischen Ansatz (das Feld wird dabei durch 3 Parameter verschiedener<br />

Skala beschrieben zB Smoothness, Intermittency, Spikeness) um den<br />

Einfluss der Orographie zu untersuchen. Das verwendete Upscaling eignet sich gut<br />

für den Bereich 20 km auf 1 km.<br />

2.3 Regionalisierungsmethoden für Tageswerte der Schneehöhe<br />

Tageswerte der Neuschneehöhe und Gesamtschneehöhe liegen zB vom Schweizer<br />

Lawinenwarndienst (SLF) auf dessen Webpage vor. Da das Ziel jedoch nur eine<br />

räumliche Visualisierung ist (keine Gitterpunktswerte) und auch subjektive Ziele verfolgt<br />

ist die verwendete Methode nicht hoch auflösend. Jedoch existiert vom SLF<br />

auch ein hochkomplexes physikalisches Schneedeckenmodell (SNOWPACK, Lehning<br />

1998). Das Modell wird zunehmend auch für Klimafragestellungen verwendet.<br />

Abb. 3: Prozesse die ein Schneedeckenmodell beeinflussen<br />

Quelle: http://www.wsl.ch/slf/lwr/prozessmodelle/aufgaben.html<br />

In Frankreich wird mit Erfolg das SAFRAN Modell (Vormodell von CROCUS) für die<br />

Schneedeckenmodellierung verwendet (siehe zB Brun et al., 1992, Durand et al.,<br />

1993, Martin et al. 1997). SAFRAN erzeugt den meteorologischen Input für das<br />

Schneedeckenmodell CROCUS. In zeitlicher Auflösung von 1 Stunde werden die<br />

meteorologischen Felder berechnet. Die räumliche Verortung erfolgt nicht mit geographischen<br />

Koordinaten sondern für klimatologisch homogene Teilflächen (besonders<br />

für den Niederschlag, dh. für jedes Massiv werden gleiche Höhenzonen und<br />

Expositionen zusammengefasst). Folgende Analysefelder werden erzeugt: Temperatur,<br />

Wind (Richtung und Geschwindigkeit), Feuchte, Niederschlag, Bewölkung, Strahlung<br />

(Direkt- und Himmels-, Langwellig). Für die Interpolation wird Optimal Interpolation<br />

(OI) verwendet. Als guess-field für OI wird mit Ausnahme des Niederschlags<br />

ECMWF oder ARPEGE verwendet. Für den Niederschlag werden klimatologische<br />

Muster (Höhengradienten) für verschiedene Gebiete verwendet. Aufbauend auf den<br />

Anhang 1 5<br />

Teilbericht 3


meteorologischen Input wird die Schneedecke mittels des SAFRAN Modells modelliert<br />

wobei die Strahlungsbilanz, Energiebilanz und Massenbilanz berechnet werden.<br />

SAFRAN-CROCUS wurde mit Erfolg auch für die Untersuchung klimabedingter Änderung<br />

auf die Schneedecke, Hydrologie und Ökologie eingesetzt.<br />

Tveito et al. (in prep.) und Skaugen et al. (2003) haben für den operationellen Einsatz<br />

zur Berechnung von Tageswerten der Schneehöhe und des Wasseräquivalentes<br />

eine einfaches Indexmodell entwickelt, dass Tageswerte des Niederschlags<br />

und der Lufttemperatur verwendet.<br />

Für Österreich liegen umfangreiche Arbeiten von Blöschl (zB 1991) vor. Das verwendete<br />

physikalische Modell ist jedoch auf die Verwendung zur Abflussprognose auf<br />

Einzugsgebietsebene optimiert. Hantel et al., 1999 entwickelten ein statistisches Modell<br />

der Schneedeckendauer basierend auf einen nichtlinearen Zusammenhang zwischen<br />

Lufttemperatur, Seehöhe und Schneedeckendauer.<br />

3 ZAMG Datenbereitstellung<br />

Die ZAMG hat für das Projekt reclip:more auch die Bereitstellung von Stationsdaten<br />

übernommen. Dafür wurde der aus dem Projekt STARTCLIM bestehende Datensatz<br />

im ASCII Format bereitgestellt. Dieser Datensatz ist qualitätsverbessert aber nicht<br />

homogenisiert. Auf Tageswertbasis liegen für 70 österreichische Stationen folgende<br />

Daten vor:<br />

• Maximumtemperatur<br />

• Minimumtemperatur<br />

• Mitteltemperatur<br />

• Niederschlagssumme<br />

• Schneehöhe<br />

Die Daten sind auf der zum Bericht gehörenden CD abgespeichert.<br />

4 Statistisches Downscaling mit Clim.Pact<br />

Für die empirische Verfeinerung des dynamischen Downscaling (MM5, ALADIN) fiel<br />

die Wahl auf das von R. Benestad entwickelte Programmpaket clim.pact. Dieses Paket<br />

ist für die in Punkt 1 angeführten Zwecke sehr gut geeignet und mittlerweile auch<br />

ausreichend getestet (zB Benestad 2004a, 2004b) und dokumentiert. Eine Verwendung<br />

für den Alpenraum liegt bis jetzt nicht vor. Für das geographische Verfeinern<br />

auf ein 1km x 1km Gitter wird an das clim.pact Downscaling ein ArcInfo AML Skript<br />

angeschlossen (siehe Beschreibungen unter Punkt 6 und 7). Dieses zweistufige Verfahren<br />

hat zwei wesentliche Vorteile:<br />

a) Parallel zum dynamischen Downscaling kann mit clim.pact auch ein rein empirisches<br />

Downscaling von GCM Daten durchgeführt werden. Dadurch kann ein eventueller<br />

Fortschritt (und die Notwendigkeit des höheren Aufwandes) des zwi-<br />

6 Anhang 1<br />

Teilbericht 3


schengeschalteten dynamischen Downscaling gezeigt werden. Der zusätzliche<br />

Aufwand für das direkte empirische Downscaling ist relativ gering – der Nutzen<br />

sicherlich sehr groß (da bei beiden Downscaling-Methoden dieselben Ausgangsdaten<br />

verwendet werden können).<br />

b) Eventuell zukünftige Erweiterungen von clim.pact (z.B. die geplante Integration<br />

neuer Methoden wie Verwendung von Neuralen Netzwerken oder CCA) können<br />

sehr einfach mit dem „geographical refinement tool“ verknüpft werden.<br />

Abb. 4: Strukturgramm des Downscaling der adaptierten Version von clim.pact<br />

Zu Punkt a) ist die Arbeit von Hellström und Chen (2003) zu erwähnen, die für das<br />

Downscaling des Niederschlages auf Monatswertebasis in Schweden zeigen konnten,<br />

dass der wesentlich höhere Aufwand des kombinierten Ansatzes aus dynami-<br />

Anhang 1 7<br />

Teilbericht 3


schen und statistischem Downscaling nur eine geringfügig bessere Modellperformance<br />

bringt um den Jahresgang des Niederschlages zu beschreiben. Dieses<br />

Ergebnis kann natürlich nicht ohne weiters auf andere Regionen übertragen werden.<br />

Für die Beschreibung der von Benestad entwickelten empirischen Downscaling-<br />

Methode (MLR) beziehungsweise der Erweiterung für die Analogmethode sei auf die<br />

dem Bericht beigegebene CD mit den entsprechenden Beschreibungen verwiesen<br />

(Benestad, 2003a, 2003b bzw. http://cran.r-project.org/doc/packages/clim.pact.pdf<br />

und Imbert, 2003 bzw. http://cran.r-project.org/doc/packages/anm.pdf).<br />

5 Schnittstelle MM5 beziehungsweise ALADIN mit<br />

Clim.Pact<br />

Die Schnittstelle zwischen CLIM.PACT und MM5 bzw. ALADIN wurde über das<br />

NetCDF Datenformat gelöst. CLIM.PACT kann dieses Datenformat unmittelbar verwenden.<br />

Während MM5 einen Output im NetCDF Format ablegen kann, gibt es eine<br />

derartige Schnittstelle für ALADIN nicht. Der Output wird daher im ASCII Format zur<br />

Verfügung gestellt, wobei die „VERA-Struktur“ (Output für Validierung mit VERA)<br />

verwendet wird. Dieser Output wird mit einer eigenen Einleseroutine (in R) gelesen<br />

und ebenfalls in das NetCDF Format gebracht. Dazu wird das R-Package NetCDF<br />

verwendet. Da auch für MM5 eine Schnittstelle geschaffen wird, mit der ein Output in<br />

das VERA-ASCII Format gebracht werden kann, ist die Einleseroutine auch in gleicher<br />

Weise für die Schnittstelle MM5-clim.pact verwendbar.<br />

6 Regionalisierungstool basierend auf Klimanormalgrids<br />

Das Tool für die Regionalisierung basierend auf Klimanormalgrids auf den monatlichen<br />

Klimakarten der Periode 1961-90 (zB der Lufttemperaturberuht die im Rahmen<br />

des Projektes ÖKLIM erarbeitet wurden). Die monatlichen ÖKLIM Lufttemperaturgrids<br />

zeichnen sich durch eine detaillierte Modellierung der Temperaturstrukturen<br />

für das österreichische Gebiet aus (Böhm und Potzmann, 1999), berücksichtigen<br />

auch Gebiete mit häufigen In<strong>version</strong>en, Föhn oder Seeklima. Aus diesen Karten wird<br />

mittels gewichteter Mittelwertbildung für jeden Tag des Jahres eine Karte der Lufttemperatur<br />

berechnet. Anschließend werden die Differenzen der aktuellen Messwerte<br />

der Klimastationen eines Tages zu den entsprechenden Pixelwerten der Klimakarten<br />

berechnet. Diese Differenzen werden dann mittels eines Thin-Plate-Spline Algorithmus<br />

interpoliert und dann die Interpolierten Differenzen den Klimamittelkarten zugerechnet<br />

und so der endgültige Raster berechnet (Abbildung 5).<br />

8 Anhang 1<br />

Teilbericht 3


Am Beispiel der Lufttemperatur wäre das:<br />

T(x,y,m,d) = Tclim(x,y,m,d) + Te(x,y,m,d) + ε<br />

x,y .... geographische Koordinaten m ... Monat d ... Tag<br />

wobei Tclim der aus den Klimagrids berechnete Anteil ist (deterministischer Anteil) und<br />

Te das stochastisch erklärbare Residuenfeld ist (ε ist das weder deterministisch noch<br />

stochastisch erklärbare Residuum).<br />

Für die Mittelung wird folgender Ansatz verwendet (für Monate mit 30 Tage):<br />

Tclim(x,y,m,d) = (Tclim(x,y,m-1) * d + Tclim(x,y,m) * (15-d))/15 für d < 15<br />

Tclim(x,y,m,d) = Tclim(x,y,m) für d = 15<br />

Tclim(x,y,m,d) = ((Tclim(x,y,m) * (30-d) + Tclim(x,y,m+1) (d-15))/15 für d > 15<br />

Für die anderen Monate erfolgt eine analoge Gewichtung.<br />

Te(x,y,m,d) wird mittels Thin-plate-spline interpoliert. Diese Interpolationsmethode hat<br />

als mathematischen Ansatz die Minimierung der Krümmung der interpolierten Kurve.<br />

Abb. 5: Strukturgramm des Regionalisierungstools für die Temperatur<br />

Anhang 1 9<br />

Teilbericht 3


Diese Methode eignet sich für die Lufttemperatur aber nicht für den Niederschlag.<br />

Analog kann für die Lufttemperatur aber auch die unter Punkt 7. entwickelte Methode<br />

(abgewandelte AURELHY Methode) angewandt werden. Auch könnte eine bestehende<br />

Methode, die tägliche Höhengradienten der Lufttemperatur aus Stationswerten<br />

berechnet und dann mittels der ermittelten Regression in die Fläche interpoliert<br />

(und auch wieder eine Interpolation des Residuenfeldes durchführt) verwendet<br />

werden. Welche Methode zu welcher Jahreszeit besser funktioniert muss in einem<br />

nächsten Schritt validiert werden, wobei auch verschiedene Ansätze bei der EOF-<br />

Auswahl getestet werden müssten.<br />

7 Regionalisierungstool mit EOF Feldern der Orographie<br />

als Prädikator<br />

Für die Regionalisierung der Stationswerte auf einen 1x1km Raster wird eine Methode<br />

verwendet, die der so genannten AURELHY-Methode (Benichou, 1985) sehr ähnliche<br />

ist. Diese Methode führt eine PC-Analyse (Principle Component Analysis,<br />

Hauptkomponentenanalyse) der Orographie durch und beschreibt die Geländeform<br />

durch eine Anzahl von PCs (Principle Components, Hauptkomponenten). Dabei wird<br />

das digitale Geländemodell in quadratische Ausschnitte von 11x11 Pixel zerlegt. Von<br />

jedem Pixelwert im Ausschnitt wird die Höhe des Zentralpixels abgezogen und so<br />

eine relative Orographie bestimmt. Die 11x11=121 Höhenwerte werden mittels der<br />

PCA auf die Anzahl n der wichtigsten PCs reduziert. Diese PCs sowie die Seehöhe<br />

Longitude und Latitude werden als unabhängige Prädiktoren für die Ermittlung einer<br />

multiplen linearen Regression verwendet.<br />

In der derzeit erstellten Form des Regionalisierungstools erfolgt die Interpolation mit<br />

der Gleichung:<br />

X = b0 + b1DEM + b2LAT + b3LONG + b4EOF1-1 + b5EOF2-1 + b6EOF3-1 +<br />

b7EOF1-2 + b8EOF2-2 + b9EOF3-2 + Xs + ε<br />

mit: DEM Seehöhe des Gridpoints im DEM 1km Grid<br />

LAT geographische Breite des Gridpoints<br />

LONG geographische Länge des Gridpoints<br />

EOF1-1 Komponentenwert des 1ten EOFs basierend auf das 5 km DEM<br />

EOF2-1 Komponentenwert des 2ten EOFs basierend auf das 5 km DEM<br />

EOF3-1 Komponentenwert des 3ten EOFs basierend auf das 5 km DEM<br />

EOF1-2 Komponentenwert des 1ten EOFs basierend auf das 10 km DEM<br />

EOF2-2 Komponentenwert des 2ten EOFs basierend auf das 10 km DEM<br />

EOF3-2 Komponentenwert des 3ten EOFs basierend auf das 10 km DEM<br />

Xs stochastischeR Anteil (Thin-Plate Spline Interpolation)<br />

ε weder deterministisch noch stochastisch erklärbareS Residuum<br />

Die Anpassung des Regressionsmodells erfolgt mittels einer schrittweise multiplen<br />

linearen Regression aus den bekannten Klimawerten an den Stationskoordinaten<br />

10 Anhang 1<br />

Teilbericht 3


(abhängige Größe) und den zeitlich konstanten Geländeparametern (unabhängige<br />

Größen). Diese Regression ist für jeden Tag der Untersuchungsperiode zu bestimmen,<br />

anschließend ist die Residueninterpolation durchzuführen (mit Thin-Plate Spline,<br />

analog wäre auch eine Interpolation mit einem Kriging-Ansatz möglich). Die<br />

Struktur des Regionalisierungstools ist in Abbildung 7 dargestellt.<br />

Die Verwendung von Geländeformen zu räumlichen Modellierung des Niederschlags<br />

ist nahe liegend, da die Niederschlagssumme stark von der Geländeform beeinflusst<br />

wird. Gyalistras (2003) zählt jedoch zwei wesentliche Nachteile der AURELHY Methode<br />

auf:<br />

a) es wird nur ein räumlicher Scale des orographischen Einflusses berücksichtigt<br />

(dieser Scale ist jedoch nicht zeitlich und räumlich konstant, wie z.B. Neidhöfer<br />

(2000) zeigen konnte)<br />

b) für das gesamte Untersuchungsgebiet wird eine konstante Beziehung zwischen<br />

Orographie und Niederschlag verwendet<br />

Um die Nachteile von a) auszugleichen wurde im Rahmen dieser Arbeit die AUREL-<br />

HY Methode dahingehend erweitert, dass die PCs für verschiedene Scales bestimmt<br />

wurden und zwar:<br />

- für ein DEM mit 5km räumlicher Auflösung und einer Ausschnittgröße von 11x11<br />

Rasterzellen<br />

- für ein DEM mit 10km räumlicher Auflösung und einer Ausschnittsgröße von<br />

11x11 Rasterzellen.<br />

Nachteil b) sollte für die geplanten reclip-Regionalisierungen nicht von großer Bedeutung<br />

sein, da die Regionalisierungen nur für Study-regions geplant sind. Sollte eine<br />

Erweiterung für eine Regionalisierung größerer Gebiete geplant sein, müsste die Methode<br />

dahingehend adaptiert werden (Einbeziehen einer Wetterlagenabhängigkeit).<br />

Abb. 6: Strukturgramm des Regionalisierungstools für den Niederschlag<br />

Anhang 1 11<br />

Teilbericht 3


Abbildungen 6 zeigt die räumliche Verteilung der Ladungen der jeweils ersten 3 PCs<br />

der PCA der Orographie. Man erkennt deutlich dass die Strukturen im 5 km DEM und<br />

im 10km DEM sehr ähnlich sind. Der 1te PC beschreibt jeweils Kuppen- bzw. Muldenstrukturen<br />

die eine SW-NE Ausrichtung besitzen. Der 2te PC beschreibt S bzw.<br />

nach N ausgerichtete Hänge und der 3te PC schreibt WSW bzw. ENE ausgerichtete<br />

Hänge. Die durch die jeweils ersten 5 PCs erklärte Varianz ist in Tabelle 1 zusammengefasst.<br />

Man sieht sehr deutlich den hohen Anteil der erklärten Varianz durch<br />

den 1ten PC. Mit den ersten 3 PCs kann ein Großteil der Geländestruktur beschrieben<br />

werden.<br />

Tabelle 1: Erklärte Varianz (%) an der Orographiestruktur eines 5 km und 10 km Höhenraster durch<br />

die ersten 5 PCs<br />

Raster PC1 PC2 PC3 PC4 PC5<br />

5 km x 5 km 44.4 12.7 4.5 2.3 2.0<br />

10 km x 10 km 40.3 2<strong>1.</strong>8 4.6 2.8 <strong>1.</strong>8<br />

12 Anhang 1<br />

Teilbericht 3


Abb. 7: Strukturgramm des Regionalisierungstools mit EOF Feldern der Orographie als Prädiktor<br />

Der Ausschnitt des zugrunde liegenden Geländemodell (GTOPO30 des USGS) wird<br />

in Abbildung 8 und 9 gezeigt. Das Höhenraster wurde dafür auf eine räumliche Auflösung<br />

von 5 km und 10 km interpoliert. In den anschließenden Abbildungen 10 bis<br />

15 sind die räumlichen Verteilungen der Komponentenwerte für die jeweiligen PCs<br />

(sowohl für das 5km DEM als auch für das 10km DEM) dargestellt.<br />

Anhang 1 13<br />

Teilbericht 3


Abb. 8: Das verwendete DEM 5 km basierend auf USGS-GTOPO30<br />

Abb. 9: Das verwendete DEM 10 km basierend auf USGS-GTOPO30<br />

14 Anhang 1<br />

Teilbericht 3


Abb. 10: Räumliche Verteilung der Komponentenwerte für den PC1 für das DEM 5 km<br />

Abb. 11: Räumliche Verteilung der Komponentenwerte für den PC2 für das DEM 5 km<br />

Anhang 1 15<br />

Teilbericht 3


Abb. 12: Räumliche Verteilung der Komponentenwerte für den PC3 für das DEM 5 km<br />

Abb. 13: Räumliche Verteilung der Komponentenwerte für den PC1 für das DEM 10 km<br />

16 Anhang 1<br />

Teilbericht 3


Abb. 14: Räumliche Verteilung der Komponentenwerte für den PC2 für das DEM 10 km<br />

Abb. 15: Räumliche Verteilung der Komponentenwerte für den PC3 für das DEM 10 km<br />

Anhang 1 17<br />

Teilbericht 3


8 Erste Validierungsergebnisse<br />

Eine ausführliche Validierung war im Rahmen des ersten Projektjahres auf Grund der<br />

vorhandenen Resourcen nicht möglich. Auch liegen keine hinreichend langen Zeitreihen<br />

der für die Validierung notwendigen Modellläufe der Regionalmodelle MM5<br />

und ALADIN vor. Damit kann die notwendige Optimierung der dynamisch herunterskalierten<br />

Prädiktoren für das weitere empirische Downscaling nicht durchgeführt<br />

werden. Für diese Optimierung ist sowohl die Auswahl der benötigten Felder aus<br />

dem Regionalmodell als auch die räumliche Domain festzulegen.<br />

Um trotzdem eine erste Validierung der entwickelten Regionalsierungsmethoden zu<br />

ermöglichen, wurden mittels Analogmethode herunterskalierte Zeitreihen täglicher<br />

Niederschlagssummen aus dem Projekt StartClim 04 verwendet. Diese Zeitreihen<br />

liegen für alle 70 StartClim Stationen vor. Die von Matulla et al. (2004) entwickelte<br />

Analog Methode wurde in Matlab implementiert und verwendet mittels EOF-Analyse<br />

gefilterte ERA-40-Felder als Prädiktoren. Die in dieser Validierung verwendeten Niederschlagszeitreihen<br />

wurden von Matulla et al. (2004) aus dem MSLP-Feld (mean<br />

sea level pressure) bestimmt. Die von Matulla in Matlab angewandte Methode kann<br />

analog mit clim.pact durchgeführt werden. Für die folgenden Vergleiche wurde der<br />

Dezember 1980 aus dem StartClim04 Datensatz ausgewählt.<br />

Abb. 16: Das Stationsnetz des StartClim Datensatzes<br />

Das verwendete Stationsnetz ist aus Abbildung 16 zu ersehen. Es ist klar, dass die<br />

durch StartClim erreichte räumliche Dichte für die Interpolation des Niederschlags<br />

nicht hinreichend sein kann. So verwendeten etwa Schöner et al. (2001) für die Interpolation<br />

der Jahressumme des Niederschlags (der Klimanormalperiode 1961-90)<br />

in Österreich 900 Niederschlagsmessstellen. Zusätzlich ist auch die Abdeckung der<br />

StartClim Stationen im Höhenprofil nicht adäquat.<br />

Der ausgewählte Dezember 1980 ist durch Niederschläge am Monatsanfang (ca. 3.<br />

bis 6. Dezember) und durch mehrere Niederschlagstage zwischen ca. 13. und 27.<br />

Dezember gekennzeichnet. Die Niederschlagsmengen sind in Abbildung 17 durch<br />

18 Anhang 1<br />

Teilbericht 3


mehrere statistische Kenngrößen (Median, Mittel und Maximum) dargestellt. Basierend<br />

auf die herunterskalierten Tageswerte der Niederschlagssummen erfolgte die<br />

Anpassung des multiplen linearen Regressionsmodells (mittels Schrittweise Methode)<br />

für jeden Tag mit nennenswerten Niederschlag wobei die 6 EOFs sowie LAT,<br />

LONG und DEM als Prädiktoren verwendet wurden. Die täglichen Korrelationskoeffizienten<br />

sind in Abbildung 18 dargestellt, die täglichen Werte des RSME (root mean<br />

square error) sind aus Abbildung 19 zu ersehen.<br />

Man erkennt, dass die erreichten Korrelationskoeffizienten zwischen 0,3 und nahe<br />

0,9 liegen. Tage mit höherem Niederschlag zeigen im Allgemeinen höhere Korrelationen<br />

(der 5. Dezember ist aber eine markante Ausnahme). Die erzielten RMSE<br />

betragen bis nahezu 9 mm. Zieht man die ungenügende räumliche Dichte des Messnetzes<br />

und die Größe des Untersuchungsgebietes in Betracht, dann ist das Ergebnis<br />

als überraschend gut einzustufen. Dies wird auch durch den in Abbildung 18 dargestellten<br />

Vergleich der multiplen Methode mit einer einfachen Methode der Höhenabhängigkeit<br />

des Niederschlags deutlich. Die einfache Methode erzielt bedeutend<br />

schlechtere Korrelationskoeffizienten.<br />

Niederschlag (mm)<br />

50,0<br />

45,0<br />

40,0<br />

35,0<br />

30,0<br />

25,0<br />

20,0<br />

15,0<br />

10,0<br />

5,0<br />

0,0<br />

19801201<br />

19801202<br />

19801203<br />

19801204<br />

19801205<br />

19801206<br />

19801207<br />

19801208<br />

19801209<br />

19801210<br />

19801211<br />

19801212<br />

19801213<br />

19801214<br />

19801215<br />

Anhang 1 19<br />

Teilbericht 3<br />

19801216<br />

19801217<br />

19801218<br />

19801219<br />

Median Mittel Maximum<br />

Abb. 17: Tägliche Niederschlagssummen von 70 StartClim Stationen im Dezember 1980 bestimmt<br />

mittels Analogmethode aus ERA-40 MSLP (Quelle: Matulla et al., 2004)<br />

Pearson Korrelationskoeffizient<br />

1<br />

0,9<br />

0,8<br />

0,7<br />

0,6<br />

0,5<br />

0,4<br />

0,3<br />

0,2<br />

0,1<br />

0<br />

19801201<br />

19801202<br />

19801203<br />

19801204<br />

19801205<br />

19801206<br />

19801207<br />

19801208<br />

19801209<br />

19801210<br />

19801211<br />

19801212<br />

19801213<br />

19801214<br />

19801215<br />

Abb. 18: Täglicher Werte der multiplen Korrelationen zwischen Niederschlagssumme und 9 Prädiktoren<br />

(Lat, Long, 6 EOF Komponentenwerte, DEM) (Auswahl der Prädiktoren erfolgte mittels eines multiplen<br />

linearen Stepwise Regression Ansatzes) (rot) im Vergleich zur Korrelation zwischen Niederschlagssumme<br />

und DEM (blau)<br />

19801216<br />

19801217<br />

19801218<br />

19801219<br />

19801220<br />

19801220<br />

19801221<br />

19801221<br />

19801222<br />

19801222<br />

19801223<br />

19801223<br />

19801224<br />

19801224<br />

19801225<br />

19801225<br />

19801226<br />

19801226<br />

19801227<br />

19801227<br />

19801228<br />

19801228<br />

19801229<br />

19801229<br />

19801230<br />

19801230<br />

19801231<br />

19801231


RSME (mm)<br />

9<br />

8<br />

7<br />

6<br />

5<br />

4<br />

3<br />

2<br />

1<br />

0<br />

19801201<br />

19801202<br />

19801203<br />

19801204<br />

19801205<br />

19801206<br />

19801207<br />

19801208<br />

19801209<br />

19801210<br />

19801211<br />

19801212<br />

19801213<br />

19801214<br />

19801215<br />

Abb. 19: Täglicher Werte des RMSE der multiplen Korrelationen zwischen Niederschlagssumme und<br />

9 Prädiktoren (Lat, Long, 6 EOF Komponentenwerte, DEM); Auswahl der Prädiktoren erfolgte mittels<br />

eines multiplen linearen Stepwise Regression Ansatzes<br />

predicted<br />

y = x + 9E-07<br />

R 2 = 0.7332<br />

0<br />

-10 -5 0 5 10 15<br />

45<br />

03 12 1980<br />

y = x + 2E-06<br />

R 2 40<br />

= 0.1145<br />

35<br />

30<br />

25<br />

20<br />

15<br />

10<br />

5<br />

0<br />

05.12.1<br />

20<br />

15<br />

10<br />

5<br />

-5<br />

-10<br />

measured<br />

0 2 4 6 8 10 12 14 16 18<br />

measured<br />

Abb. 20: Vergleich der gemessenen mit den modellierten Werten der 70 StartClim Stationen für die<br />

Periode 3. bis 6.12.1980<br />

20 Anhang 1<br />

Teilbericht 3<br />

19801216<br />

predicted<br />

19801217<br />

19801218<br />

19801219<br />

y = x + 6E-08<br />

R 2 = 0.5675<br />

19801220<br />

19801221<br />

45<br />

40<br />

35<br />

30<br />

25<br />

20<br />

15<br />

10<br />

5<br />

19801222<br />

19801223<br />

19801224<br />

0<br />

-10 -5 0 5 10 15 20<br />

-5<br />

04 12 1980<br />

-10<br />

y = x - 8E-08<br />

R 2 = 0.563<br />

06.12.1<br />

50<br />

40<br />

30<br />

20<br />

10<br />

0<br />

-10<br />

19801225<br />

measured<br />

-10 -5 0 5 10 15 20 25 30<br />

measured<br />

19801226<br />

19801227<br />

19801228<br />

19801229<br />

19801230<br />

19801231


In Abbildung 20 und 21 sind die Ergebnisse der Modellierung mittels multipler linearer<br />

Regression (measured versus predicted) für die einzelnen Tage dargestellt. Einzelne<br />

Tage zeigen dabei im Vergleich zu den restlichen Tagen eine markant schlechte<br />

Modellperformance. Hier wäre in einem nächsten Schritt eine Verbesserung durch<br />

Einführen von Subregionen oder Wetterlagenäbhängigkeit zu überprüfen.<br />

predicted<br />

y = x + 4E-07<br />

R 2 = 0.5196<br />

20<br />

15<br />

10<br />

5<br />

0<br />

-4 -2 0 2 4 6 8 10 12<br />

18<br />

18 . 12 .1<br />

y = x - 9E-07<br />

R 2 16<br />

= 0.177<br />

14<br />

12<br />

10<br />

8<br />

6<br />

4<br />

2<br />

0<br />

20.12.1<br />

-5<br />

measured<br />

0 1 2 3 4 5 6 7 8 9<br />

y = x + 8E-07<br />

R 2 = 0.3197<br />

measured<br />

0<br />

-6 -4 -2 0 2 4 6 8<br />

22.12.1980<br />

20<br />

15<br />

10<br />

5<br />

-5<br />

-10<br />

measured<br />

y = x + 1E-07<br />

R 2 30<br />

= 0.6324<br />

25<br />

0<br />

-4 -2<br />

19 . 12 .1<br />

0 2 4 6 8 10 12 14 16<br />

-5<br />

Anhang 1 21<br />

Teilbericht 3<br />

20<br />

15<br />

10<br />

5<br />

y = x + 2E-07<br />

R 2 = 0.7743<br />

30<br />

25<br />

20<br />

15<br />

10<br />

5<br />

0<br />

-5<br />

-10<br />

measured<br />

-10 -5 0 5 10 15 20 25<br />

2<strong>1.</strong>12.19<br />

y = x - 2E-06<br />

R 2 = 0.3377<br />

50<br />

40<br />

30<br />

20<br />

10<br />

0<br />

-10<br />

-20<br />

measured<br />

-20 -15 -10 -5 0 5 10 15 20 25<br />

23.12.1<br />

measured<br />

Abb. 21: Vergleich der gemessenen mit den modellierten Werten der 70 StartClim Stationen für die<br />

Periode 18. bis 23.12.1980


Dass eine weitere Verfeinerung der Methode durch Einführung von Subregionen eine<br />

Verbesserung des Modells bringt, wird in den Abbildungen 22 bis 24 gezeigt. Hierfür<br />

wurde das Messnetz der ZAMG (ca. 260 Stationen) verwendet. Für die Periode <strong>1.</strong> bis<br />

15. August 2002 wurde sowohl für Gesamtösterreich als auch für einen Ausschnitt<br />

(ca. von Salzach bis Drau mit ca. 100 km WE-Erstreckung) für jeden Tag eine multiple<br />

lineare Regression (basierend auf den EOF-Feldern der Orographie als Prädiktor)<br />

berechnet. Die untersuchte Periode ist durch teilweise starke Niederschläge geprägt,<br />

die auf advektive Wetterlagen zurückzuführen sind. In den Abbildungen 22 und 23<br />

sind die täglichen multiplen Korrelationskoeffizienten der Untersuchungsperiode dargestellt.<br />

Die erzielten Korrelationskoeffizienten für die Subregion sind deutlich höher<br />

als für das Gesamtgebiet von Österreich, da die angenommene räumliche Konstanz<br />

der Beziehung zwischen Geländeform Niederschlagssumme besser stimmt. Weiters<br />

ist auch hier zu sehen, dass bei Tagen mit höheren Niederschlägen (hier mittels des<br />

Medians aller Stationswerte beschrieben, Abbildung 24) der erzielte Korrelationskoeffizient<br />

höher wird.<br />

1<br />

0,9<br />

0,8<br />

0,7<br />

0,6<br />

0,5<br />

0,4<br />

0,3<br />

0,2<br />

0,1<br />

0<br />

0<strong>1.</strong>08.2002<br />

02.08.2002<br />

03.08.2002<br />

04.08.2002<br />

05.08.2002<br />

06.08.2002<br />

R Gesamt<br />

07.08.2002<br />

08.08.2002<br />

09.08.2002<br />

10.08.2002<br />

1<strong>1.</strong>08.2002<br />

Abb. 22: Tägliche multiple Korrelationen für den Niederschlag unter Verwendung von 9 Prädiktoren<br />

für das Gesamtgebiet von Österreich für die Periode <strong>1.</strong> bis 15. August 2002<br />

1<br />

0,9<br />

0,8<br />

0,7<br />

0,6<br />

0,5<br />

0,4<br />

0,3<br />

0,2<br />

0,1<br />

0<br />

0<strong>1.</strong>08.2002<br />

02.08.2002<br />

03.08.2002<br />

04.08.2002<br />

05.08.2002<br />

06.08.2002<br />

R Ausschnitt<br />

07.08.2002<br />

08.08.2002<br />

09.08.2002<br />

10.08.2002<br />

1<strong>1.</strong>08.2002<br />

Abb. 23: Tägliche multiple Korrelationen für den Niederschlag unter Verwendung von 9 Prädiktoren<br />

für eine Subregion von Österreich für die Periode <strong>1.</strong> bis 15. August 2002<br />

22 Anhang 1<br />

Teilbericht 3<br />

12.08.2002<br />

12.08.2002<br />

13.08.2002<br />

13.08.2002<br />

14.08.2002<br />

14.08.2002<br />

15.08.2002<br />

15.08.2002


500<br />

450<br />

400<br />

350<br />

300<br />

250<br />

200<br />

150<br />

100<br />

50<br />

0<br />

0<strong>1.</strong>08.2002<br />

02.08.2002<br />

03.08.2002<br />

04.08.2002<br />

05.08.2002<br />

06.08.2002<br />

07.08.2002<br />

Median<br />

08.08.2002<br />

09.08.2002<br />

10.08.2002<br />

1<strong>1.</strong>08.2002<br />

Abb. 24: Die täglichen Werte des Medians des Niederschlags für Gesamtösterreich für die Periode <strong>1.</strong><br />

bis 15. August 2002<br />

9 Ausblick<br />

Eine Methode für das geographische Verfeinern von dynamisch herunterskalierten<br />

Klimazeitreihen konnte im Rahmen dieser Arbeit entwickelt werden. Die Methoden<br />

eignen sich für Lufttemperaturmittel und Niederschlagssumme auf Tageswertebasis<br />

oder höherer zeitlicher Aggregation. Erste Validierungsergebnisse zeigen die guten<br />

Möglichkeiten der Methode basierend auf EOF-Analyse der Orographie als Prädiktor.<br />

Für eine routinemäßige Verwendung der Methode sind als nächste Arbeitsschritte<br />

durchzuführen:<br />

1) Festlegung der dynamisch herunterskalierten Prädiktorfelder (MM5 und ALA-<br />

DIN) für das empirische Downscaling mit clim.pact und deren räumliche Auflösung<br />

2) Festlegung des notwendigen geographischen Ausschnittes der dynamisch herunterskalierten<br />

Prädiktorfelder<br />

3) Filterung der Prädiktorfelder mittels EOF-Analyse in clim.pact<br />

4) Weitere Optimierung der Prädiktorfelder für das Regionalsierungstool basierend<br />

auf multipler linearer Regression aus EOF-Analyse der Orographie<br />

5) Umfangreiche Validierung der Methoden<br />

Anhang 1 23<br />

Teilbericht 3<br />

12.08.2002<br />

13.08.2002<br />

14.08.2002<br />

15.08.2002


10 Literatur<br />

Ahrens B. 2003. Rainfall downscaling in an alpine watershed applying a multiresolution approach.<br />

Journal of Geophysical Research, Vol. 108, No. D8, 13-1 – 13-12.<br />

Benestad R. and I. Hanssen-Bauer. 2003a. Empirical-based refinement of dynamically<br />

downscaled temperature scenarios in southern Norway. Met.no Klima Report 07/03, 30p.<br />

Benestad R. 2003b. Clim.pact – V<strong>1.</strong>0. Met.no Klima Report 04/03<br />

Benestad R. 2004. Empirical-Statistical Downscaling in Climate Modeling. Eos, Vol. 85, No.<br />

42, 417-418.<br />

Benichou P. 1985. Classification automatique de configurations meteorologiques sur<br />

l’Europe occidentale. Note de travail du SCEM, n°18, Meteo-Franc Toulouse, 156p.<br />

Böhm, R. und R.Potzmann.1999. Systematic climate mapping in complicated terrain – part<br />

one: From point information to maps of means (a GIS-supported procedure including quantitative<br />

error analysis). ÖGM-bulletin, 99/1, 21-30<br />

Böhm R. I. Auer, M. Brunetti, M. Maugeri, T. Nanni, W. Schöner. 200<strong>1.</strong> Regional temperature<br />

variability in the European Alps: 1760–1998 from homogenized instrumental time series. International<br />

Journal of Climatology Vol. 21, 1779-1801<br />

Blöschl G., D. Gutknecht, R. Kirnbauer. 199<strong>1.</strong> Distributed snowmelt simulations in an Alpine<br />

catchement <strong>1.</strong> Model evaluation on the basis of snow cover patterns. Water resources research<br />

Vol 27, No. 12, 3171-3179<br />

Brun E., P. David, M. Sudul, G. Brunot. 1992. A numerical model to simulate snowcover<br />

stratigraphy for operational avalanche forecasting. Journal of Glaciology 35 (128), 13-22<br />

Carbone G.J., P.D. Bramante. 1995. Translating monthly temperature from regional to local<br />

scale in the southeastern United States. Climate Research Vol.5, 229-242<br />

Carrega P. 1995. A method for reconstruction of mountain air temperatures with automatic<br />

cartographic application. Theoretical and Applied Climatology, 52, 69-84<br />

Conford D. 1998. Incorporating terrain information into spatialisation with particular reference<br />

to daily minimum air temperatures. COST79 Proc. Workshop “Dealing on Spatialisation”,<br />

COST, EU, 69-100<br />

COST 79. 2000. Coordination and comparison of several interpolation methods of meteorological<br />

data (minimum temperature). COST, EU, 102p<br />

Courault D., P. Monestiez. 1998. Spatial variations of air temperature according to atmospheric<br />

circulation patterns. COST79 Proc. Workshop “Dealing on Spatialisation”, COST, EU,<br />

101-120<br />

Czeplak G., M. Noia, C.F. Ratto. 199<strong>1.</strong> An assesssment of a statistical method to estimate<br />

solar irradiance at the earth’s surface from geostattionary satellite data. Renewable Energy<br />

Vol. 1, 737-743<br />

24 Anhang 1<br />

Teilbericht 3


Daly. C., R.P. Neilson, D.L. Phillips. 1994. A statistical-topographic model for mapping climatological<br />

precipitation over mountainous terrain. Journal of Applied Meteorology Vol 33, 140-<br />

157<br />

Dodson R., D. Marks. 1997. Daily air temperature interpolated at high spatial resolution over<br />

a lagre mountainous region. Climate Research Vol. 8, 1-20<br />

Durand Y., E. Brun, L. Merindol, G. Guyomarch, B. Lesaffre, E. Martin. 1993. A meteorological<br />

estimation of relevant parameters for snow models. Annals of Glaciology 18, 65-71<br />

Göbel W., A.El Quali, M. Singh. 1998. Spatial interpolation of precipitation data an example<br />

from Morocco. COST79 Proc. Workshop “Dealing on Spatialisation”, COST, EU, 129-142<br />

Gyalistras D. 2003. <strong>Development</strong> and validation of a high-resolution monthly gridded precipitation<br />

and precipitation data set for Switzerland (1951-2000). Climate Research Vol. 25, 55-<br />

83.<br />

Hantel, M., M. Ehrendorfer and A. Haslinger, 1999: Climate sensitivity of snow cover duration<br />

in Austria. Int.. J. Climatology., 20, 615-640.<br />

Imbert A. 2003. The Analog method applied to downscaling of climate scenarios. Met.no<br />

Klima Report 08/03 11p.<br />

Lehning M., Bartelt P., Brown B., 1998: Operational Use of a Snowpack Model for the Avalanche<br />

Warning Service in Switzerland: Model <strong>Development</strong> and First Experiences, Proceedings<br />

of the NGI Anniversary Conference, Norwegian Geotechnical Institute May 1998, 169 -<br />

174.<br />

Lehning M., Bartelt P.B., Brown R.L., Fierz C., Satyawali P., 2002. A physical SNOWPACK<br />

model for the Swiss Avalanche Warning Services. Part III: Meteorological Boundary Conditions,<br />

Thin Layer Formation and Evaluation, Cold Reg. Sci. Technol., 35, 169-184<br />

Loibl W., Schwarz L., 2001: Regionalisierung von Niederschlagsdaten mit Hilfe von neuronalen<br />

Netzen - Möglichkeiten und Grenzen der Generierung österreichweiter Karten. In: Ö. Beiträge<br />

zu Meteorologie u. Geophysik ISSN Heft Nr 27/Publ. Nr. 399, CD-ROM, 18 pp (Proceedings<br />

DACH MT, Sept. 2001 - Wien )<br />

Lorentz P., G. Skoda. 1999. Ermittlung von Flächenmitteln des Niederschlages aus punktuellen<br />

Messungen. Mitteilungsblatt des Hydrographischen Dienstes in Österreich Nr. 78, 47-65<br />

Maestre Barcelo A. 2002. Report on rainfall spatialisation. COST 718.<br />

http://www.adobe.com/products/acrobat/readstep.html<br />

Martin, E., B. Timbal and E. Brun, 1997: Downscaling of general circulation model outputs:<br />

simulation of the snow climatology of the French Alps and sensitivity to climate change. Clim.<br />

Dyn., 13, 45–56.<br />

Matulla C. und P. Haas. 2003. Prädikatorsensitives Downscaling gekoppelt mit Wettergeneratoren:<br />

saisonale und tägliche CC-Szenarien in komplex strukturiertem Gelände. GKSS<br />

2003/24<br />

Matulla C., P. Haas, S. Wagner, E. Zorita, H. Formayer, H. Kromp-Kolb. 2004. Anwendung<br />

der Analog-Methode in komplexen Terrain: Klimaänderungsszenarien auf Tageswertbasis für<br />

Österreich. GKSS 2004/1<strong>1.</strong><br />

Anhang 1 25<br />

Teilbericht 3


Neidhöfer F. 2000. Interpolation and downscaling of precipitation in the Alps. PhD thesis,<br />

Institute of Geography, University of Bern.<br />

Nykanen, D. K. und D. Harris. 2003. Orographic influences on the multi-scale statistical<br />

properties of precipitation. Journal of Geophysical Research – Atmospheres, 108(D8), 8381<br />

Olseth J.A., A. Skartveit. 200<strong>1.</strong> Solar irradiance, sunshine duration and daylight illuminance<br />

derived from METEOSAT data for some European sites. Theoretical and Applied Climatology<br />

69, 239-252<br />

Percec Tadic M., K. Pandzic. 2002. Combined use of multiple linear regression, optimal interpolation<br />

and GIS in producing temperature maps. Paper presented at EGS02.<br />

Scheppler P. 2000. Schneedeckenmodellierung und Kalibrationsmöglichkeiten für ausgewählte<br />

Beobachtungsstationen. Diplomarbeit am Geographischen Institut der Universität<br />

Bern, 110p.<br />

Schöner W. 2001: Räumliche Modellierung von Klimaparametern mittels GIS, In: Ö. Beiträge<br />

zu Meteorologie u. Geophysik ISSN Heft Nr 27 / Publ. Nr. 399, CD-ROM,. (Proceedings<br />

DACH MT, Sept. 2001 - Wien)<br />

Skaugen T., S. Beldring, H.C. Udnaes. 2003. Dynamical properties of the spatial distribution<br />

of snow. Hydrology and Earth System Sciences, 7(5), 744-753.<br />

Storch H.v. und F. Zwiers. 1999. Statistical Analysis in Climate Research. Cambridge University<br />

Press, UK.<br />

Strobl J. 1988. Karten porentieller Sonnenscheindauer und Globalstrahlung im Land Salzburg.<br />

Salzburger Geographische Arbeiten Bd. 17, 255-270<br />

Tabony R.C. 1985. Relations between minimum temperature and topography in Great Britain.<br />

Journal of Climatology Vol. 5, 503-520<br />

Tveito O.E., E.J. Førland, I. Hanssen-Bauer, R. Benestad. 2000. Regionalisation of Norwegian<br />

precipitation. ECAC 2000 Pisa, CD-ROM<br />

Tveito. O.E. 2003 : Spatial distribution of winter temperatures in Norway related to topography<br />

and large-scale atmospheric circulation (Presented at IAHS-PUB kick off workshop in<br />

Brasilia, Brazil 20-22.November 2002)<br />

http://cost719.met.no/papers/PUB%20paper%20Tveito.pdf<br />

Tveito O.E., H.C. Udnaes, Z. Mengistu, R. Engeset, E.J. Forland. In prep. New Snow Maps<br />

for Norway.<br />

26 Anhang 1<br />

Teilbericht 3


ANHANG – AML-scripts für die Interpolation der Parameter<br />

/*=============================================================================<br />

/* t_grid.aml<br />

/* interpolation of daily temperature means from climate stations to grid<br />

/* based on available montly climate normals of temperature<br />

/* aml interpolates daily climate normal grids, computes residuals of point<br />

/* measurments to climate normal, interpolates residuals by thin-plate<br />

/* spline interpolation (minimizes the curvatures of curves) and compute<br />

/* daily values adding the residual field to the daily climate normal field<br />

/* input text file is at least with id, long, lat, T for each station<br />

/* input text file format is set to comma delimited<br />

/* projection is set to Austrian Lambert (see outcover.prj)<br />

/* extent is defined by coverage aussengrenze<br />

/* created by W. Schöner, ZAMG, Aug 2004<br />

/*=============================================================================<br />

/*=============================================================================<br />

/* useage "&run t_grid.aml beginmonth beginyear endmonth endyear"<br />

/* data format for both beginmonth and endmonth is mm<br />

/* data format for both beginyear and endyear is yyyy<br />

/*=============================================================================<br />

/*=============================================================================<br />

&args beginmonth beginyear endmonth endyear<br />

&echo &off<br />

&ty gridding<br />

&s number_y = %endyear% - %beginyear% + 1<br />

&s year = %beginyear% - 1<br />

&s tag = 0<br />

&ty %number_y%<br />

&do index = 1 &to %number_y%<br />

&s year = %year% + 1<br />

&if %endyear% = %beginyear% &then<br />

&do i = %beginmonth% &to %endmonth%<br />

&s mon = %i%<br />

&call gettagzahl<br />

&do j = 1 &to %tagzahl%<br />

&call namedefine<br />

&ty %filename%<br />

&call gridding_dt<br />

&end<br />

&end<br />

&else &do<br />

&if %year% = %endyear% &then<br />

&do i = 1 &to %endmonth%<br />

&s mon = %i%<br />

&call gettagzahl<br />

&do j = 1 &to %tagzahl%<br />

&call namedefine<br />

&ty %filename%<br />

&call gridding_dt<br />

&end<br />

&end<br />

&else<br />

&if %year% = %beginyear% &then<br />

&do i = %beginmonth% &to 12<br />

&s mon = %i%<br />

&call gettagzahl<br />

&do j = 1 &to %tagzahl%<br />

&call namedefine<br />

&ty %filename%<br />

&call gridding_dt<br />

&end<br />

&end<br />

&else<br />

&do i = 1 &to 12<br />

&s mon = %i%<br />

&call gettagzahl<br />

&do j = 1 &to %tagzahl%<br />

&call namedefine<br />

Anhang 1 27<br />

Teilbericht 3


&ty %filename%<br />

&call gridding_dt<br />

&end<br />

&end<br />

&end<br />

&end<br />

&return<br />

/*=============================================================================<br />

&routine gridding_dt<br />

&s closestat := [close -all]<br />

/*&call definfile<br />

&call txt2cov<br />

&call projectcov<br />

&call getklimagrid<br />

&call getresiduals<br />

&call makegrid<br />

&ty GRIDDING SUCCESSFULLY COMPLETED<br />

&return<br />

/*=============================================================================<br />

&routine namedefine<br />

/*&if [exists %filename% -table] &then kill %filename%<br />

/*&if %j% < 10 &then<br />

/* &s filename 0%j%%mon%%year%.txt<br />

/*&else<br />

&s filename %j%%mon%%year%.txt<br />

&return<br />

/*=============================================================================<br />

&routine gettagzahl<br />

&if %mon% = 1 &then &do<br />

&set tagzahl = 31<br />

&end<br />

&if %mon% = 2 &then &do<br />

&set tagzahl = 28<br />

&end<br />

&if %mon% = 3 &then &do<br />

&set tagzahl = 30<br />

&end<br />

&if %mon% = 4 &then &do<br />

&set tagzahl = 30<br />

&end<br />

&if %mon% = 5 &then &do<br />

&set tagzahl = 31<br />

&end<br />

&if %mon% = 6 &then &do<br />

&set tagzahl = 30<br />

&end<br />

&if %mon% = 7 &then &do<br />

&set tagzahl = 31<br />

&end<br />

&if %mon% = 8 &then &do<br />

&set tagzahl = 31<br />

&end<br />

&if %mon% = 9 &then &do<br />

28 Anhang 1<br />

Teilbericht 3


&set tagzahl = 30<br />

&end<br />

&if %mon% = 10 &then &do<br />

&set tagzahl = 31<br />

&end<br />

&if %mon% = 11 &then &do<br />

&set tagzahl = 30<br />

&end<br />

&if %mon% = 12 &then &do<br />

&set tagzahl = 31<br />

&end<br />

/*&if %mon% < 10 &then<br />

/* &do<br />

/* &s mon 0%mon%<br />

/* &end<br />

&return<br />

/*=============================================================================<br />

&routine definfile<br />

&s genfileunit [open %genfile% openstat -read]<br />

&if %openstat% 0 &then<br />

&do<br />

&s str Error reading %genfile%...;&call bailout<br />

&end<br />

&return<br />

/*=============================================================================<br />

&routine txt2cov<br />

&ty txt2cov<br />

/*&args genfile<br />

tables<br />

&if [exists maske2.pat -info] &then kill maske2.pat<br />

quit<br />

tables<br />

copy maske.pat maske2.pat<br />

select maske2.pat<br />

add from %filename%<br />

quit<br />

/* Add the word END to the generate file.<br />

&s filenameunit [open %filename% openstat -append]<br />

&if %openstat% 0 &then<br />

&do<br />

&s str Error opening temporary generate file...;&call bailout<br />

&end<br />

&s writestat [write %filenameunit% END]<br />

&if %writestat% 0 &then<br />

&do<br />

&s str Error writing to temporary generate file...;&call bailout<br />

&end<br />

&s closestat [close %filenameunit%]<br />

&if [exists outcover -cover] &then kill outcover<br />

generate outcover<br />

input %filename%<br />

points<br />

quit<br />

build outcover points<br />

joinitem outcover.pat maske2.pat outcover.pat OUTCOVER-ID OUTCOVER-ID<br />

tables<br />

Anhang 1 29<br />

Teilbericht 3


kill maske2.pat<br />

quit<br />

&ty txt2cov completed<br />

&return<br />

/*=============================================================================<br />

&routine projectcov<br />

&ty projectcov<br />

&if [exists outcover2 -cover] &then kill outcover2<br />

&do<br />

project cover outcover outcover2 outcover.prj<br />

&end<br />

kill outcover<br />

rename outcover2 outcover<br />

&ty projectcov completed<br />

&return<br />

/*=============================================================================<br />

&routine getklimagrid<br />

&ty getklimagrid<br />

&s subdd = [substr %filename% 5 2]<br />

&s submm = [substr %filename% 7 2]<br />

&s subjjjj = [substr %filename% 9 4]<br />

&if [exists klim%subdd%%submm%%subjjjj% -grid] &then kill klim%subdd%%submm%%subjjjj%<br />

&call assignvalue<br />

grid<br />

&if %days% eq 15 &then<br />

klim%subdd%%submm%%subjjjj% = %mnd%<br />

&if %days% lt 15 &then<br />

klim%subdd%%submm%%subjjjj% = (%mnd_vor% * (15 - %days%) + %mnd% * (15 + %days%)) / 30<br />

&if %days% gt 15 &then<br />

&if %submm% eq 02 &then<br />

klim%subdd%%submm%%subjjjj% = (%mnd_nach% * (43 - %days%) + %mnd% * (%days% - 15)) / 28<br />

&else &if %submm% eq 04 or %submm% eq 06 or %submm% eq 08 or %submm% eq 10 or %submm% eq 12 &then<br />

klim%subdd%%submm%%subjjjj% = (%mnd_nach% * (45 - %days%) + %mnd% * (%days% - 15)) / 30<br />

&else<br />

klim%subdd%%submm%%subjjjj% = (%mnd_nach% * (46 - %days%) + %mnd% * (%days% - 16)) / 30<br />

quit<br />

&ty getklimagrid completed<br />

&return<br />

/*=============================================================================<br />

&routine getresiduals<br />

&ty getresiduals<br />

/*additem outcover.pat outcover.pat klim 8 8 i<br />

ae<br />

edit outcover<br />

editfeature point<br />

select for T gt 900<br />

delete<br />

save<br />

q<br />

build outcover points<br />

projectcopy grid klim%subdd%%submm%%subjjjj% cover outcover<br />

latticespot klim%subdd%%submm%%subjjjj% outcover klim<br />

&ty schritt1<br />

additem outcover.pat outcover.pat resid 8 8 f 2<br />

&ty schritt2<br />

tables<br />

30 Anhang 1<br />

Teilbericht 3


sel outcover.pat<br />

calculate resid = T / 10 - klim<br />

quit<br />

&ty getresiduals completed<br />

&return<br />

/*=============================================================================<br />

&routine makegrid<br />

&ty makegrid<br />

&if [exists outgrid -grid] &then kill outgrid<br />

topogrid outgrid 1000<br />

point outcover resid<br />

enforce off<br />

boundary aussengrenze<br />

end<br />

&if [exists grid%subdd%%submm%%subjjjj% -grid] &then kill grid%subdd%%submm%%subjjjj%<br />

projectcopy grid klim%subdd%%submm%%subjjjj% grid outgrid<br />

grid<br />

grid%subdd%%submm%%subjjjj% = outgrid + klim%subdd%%submm%%subjjjj%<br />

quit<br />

kill outgrid<br />

kill klim%subdd%%submm%%subjjjj%<br />

&ty makegrid completed<br />

&return<br />

/*=============================================================================<br />

&routine bailout<br />

&if [show program] = TABLES &then quit<br />

&if not [variable str] &then &s str Bailing out of %aml$file%<br />

&return; &return &warning %str%<br />

/*=============================================================================<br />

&routine assignvalue<br />

&if %subdd% eq 01 &then &s days = 1<br />

&if %subdd% eq 02 &then &s days = 2<br />

&if %subdd% eq 03 &then &s days = 3<br />

&if %subdd% eq 04 &then &s days = 4<br />

&if %subdd% eq 05 &then &s days = 5<br />

&if %subdd% eq 06 &then &s days = 6<br />

&if %subdd% eq 07 &then &s days = 7<br />

&if %subdd% eq 08 &then &s days = 8<br />

&if %subdd% eq 09 &then &s days = 9<br />

&if %subdd% eq 10 &then &s days = 10<br />

&if %subdd% eq 11 &then &s days = 11<br />

&if %subdd% eq 12 &then &s days = 12<br />

&if %subdd% eq 13 &then &s days = 13<br />

&if %subdd% eq 14 &then &s days = 14<br />

&if %subdd% eq 15 &then &s days = 15<br />

&if %subdd% eq 16 &then &s days = 16<br />

&if %subdd% eq 17 &then &s days = 17<br />

&if %subdd% eq 18 &then &s days = 18<br />

&if %subdd% eq 19 &then &s days = 19<br />

&if %subdd% eq 20 &then &s days = 20<br />

&if %subdd% eq 21 &then &s days = 21<br />

&if %subdd% eq 22 &then &s days = 22<br />

&if %subdd% eq 23 &then &s days = 23<br />

&if %subdd% eq 24 &then &s days = 24<br />

&if %subdd% eq 25 &then &s days = 25<br />

&if %subdd% eq 26 &then &s days = 26<br />

&if %subdd% eq 27 &then &s days = 27<br />

&if %subdd% eq 28 &then &s days = 28<br />

&if %subdd% eq 29 &then &s days = 29<br />

&if %subdd% eq 30 &then &s days = 30<br />

Anhang 1 31<br />

Teilbericht 3


&if %subdd% eq 31 &then &s days = 31<br />

&if %submm% eq 01 &then<br />

&do<br />

&s mnd = tjan<br />

&s mnd_vor = tdec<br />

&s mnd_nach = tfeb<br />

&end<br />

&if %submm% eq 02 &then<br />

&do<br />

&s mnd = tfeb<br />

&s mnd_vor = tjan<br />

&s mnd_nach = tmar<br />

&end<br />

&if %submm% eq 03 &then<br />

&do<br />

&s mnd = tmar<br />

&s mnd_vor = tfeb<br />

&s mnd_nach = tapr<br />

&end<br />

&if %submm% eq 04 &then<br />

&do<br />

&s mnd = tapr<br />

&s mnd_vor = tmar<br />

&s mnd_nach = tmai<br />

&end<br />

&if %submm% eq 05 &then<br />

&do<br />

&s mnd = tmai<br />

&s mnd_vor = tapr<br />

&s mnd_nach = tjun<br />

&end<br />

&if %submm% eq 06 &then<br />

&do<br />

&s mnd = tjun<br />

&s mnd_vor = tmai<br />

&s mnd_nach = tjul<br />

&end<br />

&if %submm% eq 07 &then<br />

&do<br />

&s mnd = tjul<br />

&s mnd_vor = tjun<br />

&s mnd_nach = taug<br />

&end<br />

&if %submm% eq 08 &then<br />

&do<br />

&s mnd = taug<br />

&s mnd_vor = tjul<br />

&s mnd_nach = tsep<br />

&end<br />

&if %submm% eq 09 &then<br />

&do<br />

&s mnd = tsep<br />

&s mnd_vor = taug<br />

&s mnd_nach = tokt<br />

&end<br />

&if %submm% eq 10 &then<br />

&do<br />

&s mnd = tokt<br />

&s mnd_vor = tsep<br />

&s mnd_nach = tnov<br />

&end<br />

&if %submm% eq 11 &then<br />

&do<br />

&s mnd = tnov<br />

&s mnd_vor = tokt<br />

&s mnd_nach = tdez<br />

&end<br />

&if %submm% eq 12 &then<br />

&do<br />

&s mnd = tdez<br />

&s mnd_vor = tnov<br />

&s mnd_nach = tjan<br />

&end<br />

&return<br />

32 Anhang 1<br />

Teilbericht 3


*=============================================================================<br />

Anhang 1 33<br />

Teilbericht 3


*=============================================================================<br />

/* r_grid.aml<br />

/* interpolation of daily precipitation sums from climate stations to grid<br />

/* based on stepwise multiple linear regression between prec-sum at station<br />

/* and first 3 EOFs from 10km oro model, first 3 EOFs from 5km oro model,<br />

/* elevation, latitude and longitude<br />

/* aml interpolates daily precip grids with regression, computes residuals of<br />

/* point measurments at stations, interpolates residuals by thin-plate<br />

/* spline interpolation (minimizes the curvatures of curves) and compute<br />

/* daily values adding the residual field to the daily precip field from regression<br />

/* input text file is at least with id, long, lat, P for each station<br />

/* input text file format is set to comma delimited<br />

/* projection is set to Austrian Lambert (see outcover.prj)<br />

/* extent is defined by coverage aussengrenze<br />

/* created by W. Schöner, ZAMG, Aug 2004<br />

/*=============================================================================<br />

/*=============================================================================<br />

/* useage "&run r_grid.aml beginmonth beginyear endmonth endyear"<br />

/* data format for both beginmonth and endmonth is mm<br />

/* data format for both beginyear and endyear is yyyy<br />

/*=============================================================================<br />

/*=============================================================================<br />

&args beginmonth beginyear endmonth endyear<br />

&echo &off<br />

&ty gridding<br />

&s number_y = %endyear% - %beginyear% + 1<br />

&s year = %beginyear% - 1<br />

&s tag = 0<br />

&ty %number_y%<br />

&do index = 1 &to %number_y%<br />

&s year = %year% + 1<br />

&if %endyear% = %beginyear% &then<br />

&do i = %beginmonth% &to %endmonth%<br />

&s mon = %i%<br />

&call gettagzahl<br />

/* &do j = 1 &to %tagzahl%<br />

&do j = 1 &to 1<br />

&call namedefine<br />

&ty %filename%<br />

&call gridding_dt<br />

&end<br />

&end<br />

&else &do<br />

&if %year% = %endyear% &then<br />

&do i = 1 &to %endmonth%<br />

&s mon = %i%<br />

&call gettagzahl<br />

&do j = 1 &to %tagzahl%<br />

&call namedefine<br />

&ty %filename%<br />

&call gridding_dt<br />

&end<br />

&end<br />

&else<br />

&if %year% = %beginyear% &then<br />

&do i = %beginmonth% &to 12<br />

&s mon = %i%<br />

&call gettagzahl<br />

&do j = 1 &to %tagzahl%<br />

&call namedefine<br />

&ty %filename%<br />

&call gridding_dt<br />

&end<br />

&end<br />

&else<br />

&do i = 1 &to 12<br />

&s mon = %i%<br />

&call gettagzahl<br />

&do j = 1 &to %tagzahl%<br />

&call namedefine<br />

&ty %filename%<br />

34 Anhang 1<br />

Teilbericht 3


&call gridding_dt<br />

&end<br />

&end<br />

&end<br />

&end<br />

&return<br />

/*=============================================================================<br />

&routine gridding_dt<br />

&s closestat := [close -all]<br />

/*&call definfile<br />

&call txt2cov<br />

&call projectcov<br />

&call getregressgrid<br />

&call getresiduals<br />

&call makegrid<br />

&ty GRIDDING SUCCESSFULLY COMPLETED<br />

&return<br />

/*=============================================================================<br />

&routine namedefine<br />

/*&if [exists %filename% -table] &then kill %filename%<br />

/*&if %j% < 10 &then<br />

/* &s filename 0%j%%mon%%year%.txt<br />

/*&else<br />

&s filename %j%%mon%%year%.txt<br />

&return<br />

/*=============================================================================<br />

&routine gettagzahl<br />

&if %mon% = 1 &then &do<br />

&set tagzahl = 31<br />

&end<br />

&if %mon% = 2 &then &do<br />

&set tagzahl = 28<br />

&end<br />

&if %mon% = 3 &then &do<br />

&set tagzahl = 30<br />

&end<br />

&if %mon% = 4 &then &do<br />

&set tagzahl = 30<br />

&end<br />

&if %mon% = 5 &then &do<br />

&set tagzahl = 31<br />

&end<br />

&if %mon% = 6 &then &do<br />

&set tagzahl = 30<br />

&end<br />

&if %mon% = 7 &then &do<br />

&set tagzahl = 31<br />

&end<br />

&if %mon% = 8 &then &do<br />

&set tagzahl = 31<br />

&end<br />

&if %mon% = 9 &then &do<br />

&set tagzahl = 30<br />

Anhang 1 35<br />

Teilbericht 3


&end<br />

&if %mon% = 10 &then &do<br />

&set tagzahl = 31<br />

&end<br />

&if %mon% = 11 &then &do<br />

&set tagzahl = 30<br />

&end<br />

&if %mon% = 12 &then &do<br />

&set tagzahl = 31<br />

&end<br />

/*&if %mon% < 10 &then<br />

/* &do<br />

/* &s mon 0%mon%<br />

/* &end<br />

&return<br />

/*=============================================================================<br />

&routine definfile<br />

&s genfileunit [open %genfile% openstat -read]<br />

&if %openstat% 0 &then<br />

&do<br />

&s str Error reading %genfile%...;&call bailout<br />

&end<br />

&return<br />

/*=============================================================================<br />

&routine txt2cov<br />

&ty txt2cov<br />

/*&args genfile<br />

tables<br />

&if [exists maske2.pat -info] &then kill maske2.pat<br />

quit<br />

tables<br />

copy maske.pat maske2.pat<br />

select maske2.pat<br />

add from %filename%<br />

quit<br />

/* Add the word END to the generate file.<br />

&s filenameunit [open %filename% openstat -append]<br />

&if %openstat% 0 &then<br />

&do<br />

&s str Error opening temporary generate file...;&call bailout<br />

&end<br />

&s writestat [write %filenameunit% END]<br />

&if %writestat% 0 &then<br />

&do<br />

&s str Error writing to temporary generate file...;&call bailout<br />

&end<br />

&s closestat [close %filenameunit%]<br />

&if [exists outcover -cover] &then kill outcover<br />

generate outcover<br />

input %filename%<br />

points<br />

quit<br />

build outcover points<br />

joinitem outcover.pat maske2.pat outcover.pat OUTCOVER-ID OUTCOVER-ID<br />

tables<br />

kill maske2.pat<br />

36 Anhang 1<br />

Teilbericht 3


quit<br />

&ty txt2cov completed<br />

&return<br />

/*=============================================================================<br />

&routine projectcov<br />

&ty projectcov<br />

&if [exists outcover2 -cover] &then kill outcover2<br />

&do<br />

project cover outcover outcover2 outcover.prj<br />

&end<br />

kill outcover<br />

rename outcover2 outcover<br />

&ty projectcov completed<br />

&return<br />

/*=============================================================================<br />

&routine getregressgrid<br />

&ty getregressgrid<br />

&s subdd = [substr %filename% 5 2]<br />

&s submm = [substr %filename% 7 2]<br />

&s subjjjj = [substr %filename% 9 4]<br />

&if [exists prec%subdd%%submm%%subjjjj% -grid] &then kill prec%subdd%%submm%%subjjjj%<br />

&call assignvalue<br />

&if %mon% eq 1 &then &s mnd = 'JAN'<br />

&if %mon% eq 2 &then &s mnd = 'FEB'<br />

&if %mon% eq 3 &then &s mnd = 'MAR'<br />

&if %mon% eq 4 &then &s mnd = 'APR'<br />

&if %mon% eq 5 &then &s mnd = 'MAY'<br />

&if %mon% eq 6 &then &s mnd = 'JUN'<br />

&if %mon% eq 7 &then &s mnd = 'JUL'<br />

&if %mon% eq 8 &then &s mnd = 'AUG'<br />

&if %mon% eq 9 &then &s mnd = 'SEP'<br />

&if %mon% eq 10 &then &s mnd = 'OCT'<br />

&if %mon% eq 11 &then &s mnd = 'NOV'<br />

&if %mon% eq 12 &then &s mnd = 'DEC'<br />

&s reg_file = [open r_regression.txt openstat -read]<br />

&s string = [read %reg_file% readstat]<br />

&s string = [after %string% %mnd%]<br />

&s string = [after %string% ' ']<br />

&s string = [after %string% ' ']<br />

&s str1 = [after %string% ' ']<br />

&s str2 = [after %str1% ' ']<br />

&s str3 = [after %str2% ' ']<br />

&s str4 = [after %str3% ' ']<br />

&s str5 = [after %str4% ' ']<br />

&s str6 = [after %str5% ' ']<br />

&s str7 = [after %str6% ' ']<br />

&s str8 = [after %str7% ' ']<br />

&s str9 = [after %str8% ' ']<br />

&s str10 = [after %str9% ' ']<br />

&s reg9 = [after %str10% ' ']<br />

&s reg8 = [before %str9% ' ']<br />

&s reg7 = [before %str8% ' ']<br />

&s reg6 = [before %str7% ' ']<br />

&s reg5 = [before %str6% ' ']<br />

&s reg4 = [before %str5% ' ']<br />

&s reg3 = [before %str4% ' ']<br />

&s reg2 = [before %str3% ' ']<br />

&s reg1 = [before %str2% ' ']<br />

&s const = [before %str1% ' ']<br />

/*&s const = [unquote [before %str% %reg1%]]<br />

&lv<br />

Anhang 1 37<br />

Teilbericht 3


grid<br />

prec%subdd%%submm%%subjjjj% = %const% + %reg1% * eof1 + %reg2% * eof2 + %reg3% * eof3 +<br />

%reg4% * eof1_5km + %reg5% * eof2_5km + %reg6% * eof3_5km + %reg7% * oro_1km +<br />

%reg8% * lat + %reg9% * long<br />

&if [exists zwigrid -grid] &then kill zwigrid<br />

&if [exists zwigrid2 -grid] &then kill zwigrid2<br />

zwigrid = select(prec%subdd%%submm%%subjjjj%,'value


&if [exists zwigrid -grid] &then kill zwigrid<br />

&if [exists zwigrid2 -grid] &then kill zwigrid2<br />

zwigrid = select(grid%subdd%%submm%%subjjjj%,'value


&do<br />

&s mnd = tapr<br />

&s mnd_vor = tmar<br />

&s mnd_nach = tmai<br />

&end<br />

&if %submm% eq 05 &then<br />

&do<br />

&s mnd = tmai<br />

&s mnd_vor = tapr<br />

&s mnd_nach = tjun<br />

&end<br />

&if %submm% eq 06 &then<br />

&do<br />

&s mnd = tjun<br />

&s mnd_vor = tmai<br />

&s mnd_nach = tjul<br />

&end<br />

&if %submm% eq 07 &then<br />

&do<br />

&s mnd = tjul<br />

&s mnd_vor = tjun<br />

&s mnd_nach = taug<br />

&end<br />

&if %submm% eq 08 &then<br />

&do<br />

&s mnd = taug<br />

&s mnd_vor = tjul<br />

&s mnd_nach = tsep<br />

&end<br />

&if %submm% eq 09 &then<br />

&do<br />

&s mnd = tsep<br />

&s mnd_vor = taug<br />

&s mnd_nach = tokt<br />

&end<br />

&if %submm% eq 10 &then<br />

&do<br />

&s mnd = tokt<br />

&s mnd_vor = tsep<br />

&s mnd_nach = tnov<br />

&end<br />

&if %submm% eq 11 &then<br />

&do<br />

&s mnd = tnov<br />

&s mnd_vor = tokt<br />

&s mnd_nach = tdez<br />

&end<br />

&if %submm% eq 12 &then<br />

&do<br />

&s mnd = tdez<br />

&s mnd_vor = tnov<br />

&s mnd_nach = tjan<br />

&end<br />

&return<br />

/*=============================================================================<br />

40 Anhang 1<br />

Teilbericht 3


Anhang 1<br />

Teilberichte der Projektpartner<br />

Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />

Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />

Alexander Beck und Bodo Ahrens:<br />

Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />

Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />

Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />

zu den regionalen Klimamodellen<br />

Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />

Validierung – Sensitivitätstests<br />

Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />

MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />

Mario Köstl, Wolfgang Loibl und Johann Züger:<br />

Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung


eclip:more<br />

Research for Climate Protection:<br />

Model Run Evaluation<br />

Projektjahr 1<br />

Projektteil BOKU-Met<br />

Validierung – Sensitivitätstests<br />

Institut für Meteorologie<br />

Department Wasser – Atmosphäre – Umwelt<br />

Universität für Bodenkultur<br />

Arbeitsbericht für den Zeitraum <strong>1.</strong>1<strong>1.</strong>2003 – 30.9.2004<br />

von<br />

Andreas Frank<br />

Herbert Formayer<br />

Petra Seibert<br />

Bernd C. Krüger<br />

Helga Kromp-Kolb<br />

BOKU-Met


INHALTSVERZEICHNIS<br />

1 Ergebnisvalidierung – Definition statistischer Parameter....................1<br />

<strong>1.</strong>1 Einleitung .............................................................................................1<br />

<strong>1.</strong>2 Normalised root-mean square error (NMSE) .......................................1<br />

<strong>1.</strong>2.1 Das Problem ..................................................................................1<br />

<strong>1.</strong>2.2 Lösungsvorschläge ........................................................................2<br />

Zusätzliche Bemerkungen zur Normierung mit absoluten Werten .............2<br />

<strong>1.</strong>3 Figure of merit......................................................................................3<br />

<strong>1.</strong>4 Relative bias ........................................................................................4<br />

<strong>1.</strong>5 Die Rolle des Korrelationskoeffizienten................................................4<br />

<strong>1.</strong>6 Einfluss des BIAS auf den RMSE ........................................................4<br />

<strong>1.</strong>7 Taylor Diagramm .................................................................................5<br />

<strong>1.</strong>8 Vorschlag eines total skill score ...........................................................6<br />

2 Evaluierungsstrategie .............................................................................7<br />

2.1 Einleitung .............................................................................................7<br />

2.2 Datenquellen........................................................................................7<br />

2.3 Arten von Läufen und Grundsätzliches zu ihrer Evaluierung ...............8<br />

2.3.1 S1 – freie Episodensimulationen....................................................8<br />

2.3.2 S2 – Episodensimulationen mit Nudging........................................9<br />

2.3.3 S3 – 1-Jahr-Simulation ohne Nudging ...........................................9<br />

2.4 Statistische Standardparameter...........................................................9<br />

2.5 Evaluierungsmethoden für die verschiedenen Datenquellen .............10<br />

2.5.1 D1 – ERA-40................................................................................10<br />

2.5.2 D4 – Radiosonden .......................................................................10<br />

2.6 Domain-Setup ....................................................................................11<br />

2.6.1 Domaingrößen .............................................................................12<br />

2.6.2 Validierungsstrategie....................................................................13<br />

3 Parameter-Setup MM5, Aladin ..............................................................13<br />

4 Termine...................................................................................................14<br />

5 Erste Vergleichsrechnungen MM5 – Aladin.........................................16<br />

5.1 Festlegung der MM5- Parametrisierungen.........................................16<br />

5.2 Festlegung der für diesen Test sinnvollen Termine ...........................16<br />

5.3 Auswertung der Ergebnisse ...............................................................17<br />

5.3.1 Detailierte Ergebnisdiskussion für die Temperatur in 850 hPa.....18<br />

5.3.2 Geopotential in 850 hPa...............................................................27<br />

5.3.3 Geopotential in 500 hPa...............................................................29<br />

5.3.4 Spezifische Feuchte in 700 hPa...................................................29<br />

5.3.5 Niederschlagsverteilung...............................................................31<br />

5.3.6 Rechenzeit ...................................................................................32<br />

5.3.7 Synopsis – Schlussfolgerungen ...................................................33<br />

6 Ausblick – weitere Schritte ...................................................................33<br />

Literatur ........................................................................................................35<br />

BILDANHANG...............................................................................................36


1 Ergebnisvalidierung – Definition statistischer Parameter<br />

<strong>1.</strong>1 Einleitung<br />

Bestimmte Sets statistischer Parameter wurden speziell in der „Air pollution<br />

modeling community“, in Europa im Rahmen von ATMES (Klug et al, 1992),<br />

ETEX (Mosca et al., 1998a, b) und der so genannten Harmonisierungsinitiative<br />

in Nordamerika Standard, um Modelle untereinander und mit Beobachtungen<br />

quantitativ zu vergleichen.<br />

Einige von ihnen – NMSE, fractional bias und figure of merit beispielsweise –<br />

sind problematisch und sollten durch modifizierte Größen ersetzt werden. Die<br />

Details dazu werden in diesem Kapitel des Berichts kurz erläutert.<br />

Keinesfalls stellt diese Zusammenstellung einen kompletten Überblick der<br />

statistischen Parameter zur Modellevaluierung dar, es wird auch nicht versucht<br />

einen umfassenden Vorschlag eines empfohlenen Sets von Parametern<br />

zu formulieren.<br />

Wir nehmen an, dass wir es mit paarweise angeordneten Daten zu tun haben<br />

o m ( xi<br />

, xi<br />

) , i ∈ [ 1,<br />

N]<br />

, wobei das hochgestellte o für beobachtete Werte und das m<br />

für modellierte Werte steht. Im Falle von Modellvergleichen können zwei Modelle<br />

paarweise miteinander verglichen werden, dann bezeichnet o das eine<br />

2<br />

Modell und m das andere (für ein Set von M Modellen bedeutet dies, M − M<br />

Paare).<br />

<strong>1.</strong>2 Normalised root-mean square error (NMSE)<br />

<strong>1.</strong>2.1 Das Problem<br />

Häufig (zB von Mosca et al., 1998b), ist es üblich den normalised meansquare<br />

error (NMSE) folgend zu definieren:<br />

und den mean-square error (MSE) folgendermaßen zu definieren:<br />

mit<br />

Dieser kann folgendermaßen mit dem normalen root-mean-square error<br />

(RMSE) in Verbindung gebracht werden:<br />

Der NMSE hängt in der obigen Definition sowohl von den quadratischen Differenzen<br />

der Datenpunkte als auch vom Mittel sowohl der modellierten als auch<br />

der beobachteten Daten (oder von beiden Modellen im Fall eines Modellvergleichs)<br />

ab.<br />

Anhang 1 1<br />

Teilbericht 4<br />

2


Er hat die Eigenschaft für Modelle die überschätzen kleiner (besser) zu sein,<br />

als für solche die unterschätzen, auch dann wenn beide Modelle denselben<br />

RMSE aufweisen. Diese Eigenschaft ist unbefriedigend.<br />

<strong>1.</strong>2.2 Lösungsvorschläge<br />

Die einfachste Lösung besteht darin, den RMSE nicht zu normieren, ein Weg<br />

der in all jenen Fällen möglich ist, wo keine relativen Werte benötigt werden.<br />

Eine Normierung ist immer dann nötig, wenn verschiedene Größen miteinander<br />

vergleichbar gemacht werden sollen (zB in einer Kostenfunktion).<br />

In all jenen Fällen wo Beobachtungen (Messwerte) zur Verfügung stehen,<br />

sollte man immer diese zur Normierung heranziehen:<br />

Für direkte Modellvergleiche, wenn man also keine Bebachtungen zum normieren<br />

heranziehen kann, ist es am besten eine charakteristische Magnitude,<br />

welche nicht von den Eigenschaften des Modellpaars abhängt zu verwenden:<br />

∈ kann der (quadratische)<br />

Scale von 2<br />

x * als das Mittel der quadratischen Mittelwerte all dieser Modelle<br />

angesetzt werden:<br />

Im Falle eines Vergleichs mehrerer Modelle m [ 1,<br />

M ]<br />

Zu Beachten ist, dass sich dies im Fall von M=2 nicht mit der standard Definition<br />

des NMSE (1) deckt. Falls dies erwünscht ist, sollte der quadratische<br />

Scale folgendermaßen definiert werden:<br />

Ich weiß keine Argumente warum (8) bevorzugt verwendet werden sollte als<br />

(7). Auf der anderen Seite, wenn wir den hypothetischen Fall annehmen, dass<br />

ein Modell nur sehr kleinen Werten beinhaltet, dann würde die Definition 8 zu<br />

einem extrem großen NMSE Wert führen. Speziell in Fällen wo M ≤ 3 ist erscheint<br />

dies unbefriedigend, weshalb wir die Verwendung der Definition 7<br />

empfehlen würden.<br />

Zusätzliche Bemerkungen zur Normierung mit absoluten Werten<br />

Die Normierung mit Größen die auf Mittelwerten beruhen ist nur für jene Daten<br />

sinnvoll, wo diese Mittelwerte die Größenordnung der Varianz repräsentieren.<br />

Dies ist zum Beispiel für die Konzentration atmosphärischer Spurenbestandteile,<br />

wo der Hintergrund bereits abgezogen wurde, wie zum Beispiel der<br />

ETEX-Daten, der Fall.<br />

2 Anhang 1<br />

Teilbericht 4


In einem allgemeineren Zusammenhang erscheint es jedenfalls besser den<br />

MSE mit der Varianz der Daten zu normieren. Ein typisches Beispiel einer<br />

Größe bei der dies nötig erscheint ist die Temperatur. Für den einen oder anderen<br />

mag es durchaus nahe liegend erscheinen diese Form der Normierung<br />

auch auf die Daten der Spurenbestandteilkonzentration anzuwenden.<br />

Für den Vergleich von Modellwerten mit Beobachtungen, könnte der Scale<br />

von<br />

x dann folgendermaßen aussehen:<br />

2<br />

*<br />

und im Falle des direkten Vergleichs mehrerer Modelle m [ 1,<br />

M ]<br />

tel der Varianzen all dieser Modelle:<br />

∈ als das Mit-<br />

In der statistischen Optimierungstheorie kann gezeigt werden, dass eine Kostenfunktion<br />

unter Berücksichtigung der Varianz zu den wahrscheinlichsten<br />

Ergebnissen führt. Weiters sollte, falls eine Kovarianzstruktur erkennbar ist,<br />

die Kovarianzmatrix zur Normierung verwendet werden. Dieser Punkt wird<br />

speziell dann relevant, wenn die verwendeten Beobachtungen korreliert sind,<br />

was im Falle der Meteorologie oft der Fall ist. Während dies mittlerweile zumindest<br />

in einer angenäherten Form in Algorithmen wie der variationellen Datenanalyse<br />

berücksichtigt wird, findet es bei der Modellevaluierung kaum Anerkennung.<br />

<strong>1.</strong>3 Figure of merit<br />

Klug et al. (1992) und Mosca et al. (1998b) definierten eine figure of merit in<br />

space und eine figure of merit in time. Sie sind definiert als die Überlappungsfläche<br />

der beiden Gebiete A m und A o geteilt durch die Gesamtfläche von Beobachtung<br />

und Modell. A m ist hier die Modellfläche, in der ein vorgegebener<br />

Schwellwert überschritten wurde und A o die entsprechende Fläche in den Beobachtungen:<br />

Die Auswertung kann entweder auf Landkarten erfolgen (merit in space, FMS)<br />

oder in Form von beispielsweise Zeitreihen der Konzentration (merit in time,<br />

FMT).<br />

Auch hier tritt das gleiche Problem wie beim NMS auf und man kann es auf<br />

die gleiche Weise lösen, nämlich derart anstatt mit der Vereinigungsfläche nur<br />

mit der Beobachtungsfläche A o zu normieren oder mit der mittleren Fläche der<br />

Modelle ∑<br />

− m<br />

M A<br />

m<br />

1<br />

, falls es sich um einen Vergleich mehrerer Modelle handelt.<br />

Anhang 1 3<br />

Teilbericht 4


<strong>1.</strong>4 Relative bias<br />

Der Bias repräsentiert die mittlere (oder auch systematische) Abweichung<br />

zwischen zwei Datenquellen:<br />

und ein relative bias könnte folgendermaßen definiert werden:<br />

Manchmal (zB Stohl et al., 1998) wird diese Größe als fractional bias bezeichnet.<br />

Dies führt erneut zum Problem welches oben diskutiert wurde und sollte auf<br />

dieselbe Art und Weise vermieden werden.<br />

<strong>1.</strong>5 Die Rolle des Korrelationskoeffizienten<br />

Korrelationskoeffizienten (üblicherweise der Pearson-Korrelationskoeffizient,<br />

manchmal eine Rankkorrelation) werden gerne verwendet, um die Modellperformance<br />

zu beschreiben, entweder in Form des Korrelationskoeffizienten r<br />

oder in Form des erklärten Varianzanteils r².<br />

Will man r² verwenden, so muss man sich davon überzeugen, dass r positive<br />

ist, andernfalls könnten falsche Schlussfolgerungen gezogen werden.<br />

Das Hauptproblem bei Verwendung des Korrelationskoeffizienten ist jenes,<br />

dass er eine notwendige aber keine ausreichende Bedingung für eine gute<br />

Übereinstimmung ist. Eine perfekte Korrelation wird nicht nur dann erreicht,<br />

wenn Modell und Beobachtung ideal zusammenpassen, sondern auch dann,<br />

wenn diese in einen linearen Zusammenhang zueinander stehen, beispielsweise,<br />

wenn das Modell konstant um 50% unterschätzt. Die Korrelation misst<br />

wie gut die Daten zu irgendeiner linearen Funktion passen, wogegen das Ziel<br />

eines Models die Erfüllung der ganz speziellen linearen Beziehung x o =x m sein<br />

muss.<br />

Außerdem hängt der Korrelationskoeffizient vom Datenbereich ab: Bei gleichem<br />

RMSE nimmt die Korrelation mit steigendem Datenbereich zu. Daher<br />

kann der Korrelationskoeffizient als zusätzliche Entscheidungshilfe herangezogen<br />

werden aber die Hauptentscheidung über die Modellperformance sollte<br />

auf anderen Größen basieren.<br />

<strong>1.</strong>6 Einfluss des BIAS auf den RMSE<br />

Der Bias repräsentiert die mittlere (oder auch systematische) Abweichung<br />

zwischen zwei Datenquellen, wogegen der RMSE die mittlere Differenz (im<br />

Sinne des RMS) zwischen den entsprechenden Datenpunkten beschreibt. Ein<br />

hoher Wert des Bias impliziert einen hohen Wert des RMSE, obwohl die Daten<br />

womöglich nur um einen gewissen Offset gegeneinander verschoben sind<br />

und ansonsten sehr gut übereinstimmen. Daher macht die Definition einer<br />

dritten Größe, nämlich des bias-corrected RMSE Sinn:<br />

4 Anhang 1<br />

Teilbericht 4


Nach Sachs (1992, p. 128) kann diese Größe auch folgendermaßen berechnet<br />

werden:<br />

Manchmal (zB, Crescenti, 1997) wird diese Größe als precision bezeichnet,<br />

aber da diese Bezeichnung nicht klar ist und auch sonst weitverbreitet sollte<br />

man sie hier vermeiden.<br />

Wir denken der relative Bias und der normierte bias-korrigierte RMSE:<br />

mit x∗ definiert nach (8) oder (9) sind sehr brauchbare Gütemaße für viele Anwendungen.<br />

Wie auch immer Daten mit einer angenäherten log-normal Verteilung<br />

sollten besser vor der Berechnung dieser Größe transformiert werden.<br />

<strong>1.</strong>7 Taylor Diagramm<br />

Taylor (2001) zeigte auf, dass es eine Beziehung gibt zwischen dem biascorrected<br />

RMSE, der Varianz und dem Korrelationskoeffizient zweier Datensets.<br />

In unserer Notation sieht dies folgendermaßen aus:<br />

Er empfiehlt ein Polardiagramm, wo die Radialkoordinate die Standardabweichung<br />

repräsentiert und die Winkelkoordinate derart definiert ist, dass r=cosϕ<br />

ist. Die Referenz (Beobachtung) wird dann bei ϕ=0 und Radius σ o geplottet<br />

und das Modell bei ϕ=r und Radius σ m . Die Distanz zwischen diesen beiden<br />

Punkten stellt dann den BC RMSE (in denselben Einheiten wie die Standardabweichung)<br />

dar. Mit anderen Worten, für eine gegebene Referenz können<br />

nur mehr zwei der verbleibenden Parameter (Standardabweichung Modell,<br />

BC RMSE, r) unabhängig von einander variieren.<br />

Weiters schlug er zwei Formeln vor, die diese Parameter zu einen einzigen<br />

skill score Sr vereinigen. Die Hauptbedingungen dazu sind die folgenden:<br />

Diese Bedingung ist für hohe Korrelationen durch den Kehrwert des BC<br />

RMSE erfüllt, aber für kleine Korrelationen muss die Korrelation selbst in der<br />

Skillscore-Formulierung berücksichtigt werden.<br />

Die einfachste Formel, welche dem BC RMSE ein relativ hohes Gewicht gibt<br />

ist die folgende:<br />

(hier ist angenommen, dass Sr=1 für r=1; Taylor hat vorgeschlagen, diesen<br />

Wert durch die „erzielbare Korrelation“ zu ersetzen.) Die Standardabweichung<br />

des Modells wird in diesem Fall mit jener der Beobachtung normiert. Man<br />

kann dies genauso im Diagramm machen, indem man die Radialachse in<br />

Einheiten von σ o skaliert.<br />

Anhang 1 5<br />

Teilbericht 4


Abbildung 1 zeigt ein Beispiel eines Taylor Diagramms mit Isolinien von Sr.<br />

Man sollte allerdings beachten, dass dabei der Bias in Taylor’s skill score<br />

nicht berücksichtigt wird.<br />

Abb.1: Taylor Diagramms mit Isolinien des skill scores Sr und Niederschlagswerten über<br />

Indien, die mit 28 Modellen simuliert wurden (aus Taylor, 2001, Fig. 10.)<br />

<strong>1.</strong>8 Vorschlag eines total skill score<br />

Wie wir gesehen haben kann die Idee des normierten bias korrigierten RMSE<br />

zu Taylor’s skill score erweitert werden, indem ein Korrelationsanteil, der speziell<br />

für große Werte des NBC RMSE wichtig wird, hinzugefügt wird. Wollen<br />

wir zusätzlich den (relativ) BIAS im skill score berücksichtigen, so muss zuerst<br />

eine Formulierung gefunden werden, die den relativ BIAS (RB) in einen skill<br />

sccore Sb mit 0 ≤ Sb ≤ 1transformiert,<br />

wobei 1 für RB=0 erreicht wird. Ein sinnvolles<br />

Ergebnis kann zB mit folgender Formel erzielt werden:<br />

Das Setzen des Wertes a=10 scheint eine vernünftige Abbildung solch eines<br />

skill scores zu sein, wie in Tabelle 1 zu sehen ist.<br />

Nun können beide skill scores zu einem Gesamt skill score S kombiniert werden:<br />

Tab.1: Einige Zahlenwerte des Bias skill scores definiert nach Gl.19 mit a=10<br />

6 Anhang 1<br />

Teilbericht 4<br />

.


2 Evaluierungsstrategie<br />

2.1 Einleitung<br />

Die Modellevaluierung soll im Rahmen von RECLIP zwei Zielen dienen:<br />

• Auswahl eines möglichst optimalen Setups für MM5 und gegebenenfalls<br />

auch Aladin (Gebiete, Gitter, Modellphysik)<br />

• Vergleichender Test der Leistungsfähigkeit der beiden Modelle im Hinblick<br />

auf Klimaanwendungen<br />

Für die Tests wird folgende Reihenfolge vorschlagen:<br />

<strong>1.</strong> Festlegung von Gebiet und horizontalem Gitter<br />

2. Untersuchung, ob Zängl-Version (Zängl, 2003) sinnvoll ist<br />

3. Tests mit Optionen zur Modellphysik (außer SVAT)<br />

4. (Langzeit-)Test des/der SVAT(s)<br />

2.2 Datenquellen<br />

Folgende Datenquellen stehen prinzipiell zum Vergleich mit den Ergebnissen<br />

der Modelle zur Verfügung:<br />

ERA-40 Felder:<br />

Am Europäischen Zentrum für mittelfristige Wettervorhersage (ECMWF) wurde<br />

mit Hilfe des operationellen Vorhersagemodells (in reduzierter Auflösung)<br />

ein 3D-Analysendatensatz erstellt (Kållberg, 2004). Datengrundlage dieses<br />

Modellaufs sind die Beobachtungen der letzten 45 Jahre, weshalb man quasi<br />

3D Beobachtungen zur Verfügung hat, also fast die wirklichen Felder jedes<br />

einzelnen Tages. Diese Daten sind mit einer horizontalen Auflösung von 1°<br />

auf 60 Modellflächen oder 23 Druckflächen verfügbar und werden im Rahmen<br />

dieses Projekts auch zum Antrieb der mesoskaligen Modelle verwendet.<br />

VERA-Analysen:<br />

VERA (Vienna Enhanced Resolution Analysis) wurde am Institut für Meteorologie<br />

und Geophysik der Universität Wien entwickelt. Dieses Interpolationsverfahren<br />

dient der hochauflösenden Analyse von zweidimensionalen Feldern<br />

wie etwa dem Druck oder der Temperatur (Steinacker et al. 2000).<br />

Niederschlagsanalyen:<br />

24-std. Niederschlagssummen aufbereitet von Christoph Frei stehen auf einem<br />

regelmäßigen Gitter im Alpenraum für die Perioden 1971-1995 sowie<br />

7.9.-15.1<strong>1.</strong>1999 (MAP-SOP) zur Verfügung. Das Gitter ist ein Lat-Lon-Gitter<br />

mit ∆x=0.3° und ∆y=0.22°, also etwa 25 km Maschenweite. Zusätzlich zu diesen<br />

sehr genauen Daten sollen noch grober aufgelöste Daten für andere Perioden<br />

vom Weltniederschlagszentrum in Offenbach für spätere Tests zur Verfügung<br />

stehen.<br />

Anhang 1 7<br />

Teilbericht 4


Radiosonden:<br />

Hier steht ein homogenisierter, qualitätsgeprüfter Radiosonden-Datensatz von<br />

Christian Häberli (Comprehensive Alpine Radiosonde Data Set – CALRAS 1 )<br />

zur Verfügung. Daten (Teil A [Hauptdruckflächen] und B [markante Punkte],<br />

teilweise auch in noch höherer Auflösung) von ca. 25 Stationen im und um<br />

den Alpenraum sind für den Zeitraum 1980-2000 am IGAM vorhanden.<br />

Stationsdaten:<br />

Im Rahmen des Mesoscale Alpine Program (MAP) wurde im Herbst 1999<br />

(7.9. - 15.11) ein dichtes Stationsmessnetz im Alpenraum betrieben, welches<br />

eine sehr gute Datengrundlage für die Validierung der Modellergebnisse mit<br />

Bodenstationen bildet. In diesem Zeitraum und auch schon die Monate davor<br />

liegen sehr viele qualitätsgeprüfte Beobachtungen vor. Viele Stationen wurden<br />

zusätzlich zu den permanent verfügbaren Synop- und Klimastationen, die<br />

natürlich auch zur Evaluierung herangezogen werden können, betrieben.<br />

2.3 Arten von Läufen und Grundsätzliches zu ihrer Evaluierung<br />

Da sie jeweils unterschiedliche Methoden der Evaluierung erfordern, ist es<br />

wichtig, die verschiedenen Arten von Modell-Läufen zu beachten:<br />

• Episodensimulationen mit Randbedingungen aus ERA-40 zur Optimierung<br />

vor allem von Gebiet und Gitter, evt. auch manchen Modellphysik-<br />

Optionen<br />

• Episodensimulationen mit Randbedingungen und Gitterpunkt-Nudging<br />

aus ERA-40 zur Optimierung von Modellphysik und Gitter<br />

• 1-Jahr-Simulation mit Randbedingungen aus ERA-40 zur Optimierung<br />

des SVAT-Schemas und für den vergleichenden Test der beiden Modelle,<br />

sowie zur generellen Abschätzung der Leistungsfähigkeit der<br />

Modelle<br />

Im ersten Projektjahr wurden von allen Projektpartnern die jeweils nötigen<br />

Tools entwickelt, und für die später folgende Auswertung und zum Testen der<br />

entwickelten Module wurde mit dem ersten Test begonnen; alle weiteren<br />

Tests werden sukzessive im zweiten Projektjahr durchgeführt. Trotzdem soll<br />

hier gleich die gesamte Evaluierungsstrategie erläutert werden, damit ein klares<br />

Gesamtbild zur Evaluierung entsteht.<br />

2.3.1 S1 – freie Episodensimulationen<br />

Die Größe des Modellgebietes soll so gewählt werden, dass der Einfluss der<br />

Ränder so stark ist, dass das im Inneren vom Modell generierte Wetter noch<br />

determiniert ist, jedoch nicht zu stark, so dass die höhere Auflösung im Vergleich<br />

zu ERA-40 (bzw. GCM) die Freiheit hat, abweichende – hoffentlich<br />

bessere – Strukturen zu produzieren. Die Prüfung, ob das generierte Wetter<br />

noch realistisch ist, kann anhand von ERA-40 Daten erfolgen. Dazu muss ein<br />

1<br />

Siehe http://homepage.univie.ac.at/christian.haeberli/CALRAS.htm, dort auch eine technische Beschreibung<br />

8 Anhang 1<br />

Teilbericht 4


Upscaling auf die Auflösung von ERA-40 erfolgen. Die Prüfung sollte im Gesamtgebiet<br />

mit Ausnahme der randnahen Zonen erfolgen. Die Fähigkeit, bessere<br />

Strukturen zu erzeugen, soll primär im Alpenraum und Umgebung geprüft<br />

werden. Wenn wir die Gebiete der innersten Nester der diversen Testläufe<br />

(verschiedene MM5- und ggf. Aladin-Varianten) i mit Ai bezeichnen, sollte<br />

dieses Gebiet i A I _ (größtes noch allen Läufen gemeinsames Gebiet) sein.<br />

Prüfung zusätzlich zu D1 (siehe unten) anhand von D3, D5 und möglichst<br />

auch D2.<br />

Da die Freisetzung latenter Wärme ein wesentlicher Faktor der Zyklogenese<br />

ist (Pichler and Steinacker, 1975), bieten sich S1-Simulationen auch für die<br />

Beurteilung von Konvektions- und Feuchteschemata an.<br />

2.3.2 S2 – Episodensimulationen mit Nudging<br />

Diese Simulationen sollen der Optimierung von Modellphysik-Optionen dienen.<br />

Wir wollen, dass die Phase und Amplitude der synoptischen Systeme<br />

keine groben Fehler aufweist, so dass die Vergleiche mit den Beobachtungen<br />

Auskunft über die Qualität der kleinräumigen, orographisch und durch die Unterlage<br />

bestimmten Phänomene geben. Die Datensätze D2-D5 sollen für die<br />

Prüfung herangezogen werden. Je nach Fragestellung können unterschiedliche<br />

Episoden verwendet werden.<br />

2.3.3 S3 – 1-Jahr-Simulation ohne Nudging<br />

Das Jahr 1999 soll als Ganzes simuliert werden, um einen Eindruck von der<br />

Qualität des Ergebnisses zu erhalten, das dann auch für die eigentlichen Klimarechnungen<br />

erwartet werden kann.<br />

Da sich die Landoberflächen-Schemata (SVAT) erst auf dieser Zeitskala deutlich<br />

auswirken, soll diese Simulation, wenn möglich bzw. noch erforderlich<br />

auch der Auswahl zwischen den im MM5 möglichen SVAT-Schemata dienen.<br />

Alle Datensätze (D1-D5) sollen für die Evaluierung verwendet werden.<br />

2.4 Statistische Standardparameter<br />

Folgende statistischen Standardparameter sind zu berechnen, wobei die jeweiligen<br />

Parameter und Grundgesamtheiten bei den entsprechenden Datenquellen<br />

bzw. Tests spezifiziert werden:<br />

o<br />

P-<strong>1.</strong> x (Gl. 3)<br />

P-2. RMSE (Gl. 4)<br />

P-3. Bias (Gl. 12)<br />

P-4. Bias-korrigierter RMSE (Gl. 14)<br />

P-5. Inputdaten für das Taylor-Diagramm: Standardabweichungen Modell<br />

und Beobachtung sowie Korrelationskoeffizient<br />

P-6. Fisher’s skill score (Gl. 18)<br />

−1<br />

P-7. Bias skill score (Gl. 19 mit RB = Bσ<br />

x , siehe Gl. 9, und a=10)<br />

P-8. Total skill score (Gl. 20 mit α=0.5)<br />

Anhang 1 9<br />

Teilbericht 4


2.5 Evaluierungsmethoden für die verschiedenen Datenquellen<br />

Die detaillierte Ausarbeitung der Evaluierung mit bestimmten Daten erfolgte<br />

vorerst für ERA-40 Daten, da diese für die ersten Tests vorrangig verwendet<br />

werden und für Radiosondendaten, damit sich die dafür zuständigen Kollegen<br />

ein Bild der von uns vorgeschlagene Evaluierungsmethodik machen können.<br />

2.5.1 D1 – ERA-40<br />

Die zu evaluierende meteorologische Parameter sind:<br />

• Geopot. Höhe der 850 hPa Fläche (Gebiete mit Topographie, die höher<br />

reicht, sind auszunehmen, wobei dieses Gebiet für alle Tests und<br />

Modelle einheitlich zu definieren ist)<br />

• Temperatur auf der 850 hPa Fläche (Gebiet wie oben)<br />

• absolute Feuchte (g Wasserdampf pro kg feuchter Luft) auf der 850 hPa<br />

Fläche (Gebiet wie oben). (Von der Kombination zu Θe wird abgesehen,<br />

um die Feuchte auch getrennt untersuchen zu können, die u.U.<br />

von manchen Parametrisierungen extra beeinflusst ist).<br />

• Geopot. Höhe der 500 hPa Fläche<br />

Dies setzt die Extraktion der entsprechenden Druckflächen-Daten (oder ihre<br />

Berechnung durch Interpolation) und die Definition der wegen der Topographie<br />

auszulassenden Gebiete voraus.<br />

Die Evaluierung soll sich auf die Felder zu den synoptischen Hauptterminen<br />

(00,06,12,18 UTC) stützen und 48 h nach Modellstart beginnen.<br />

Mit Hilfe von Postprozessoren werden die Modellergebnisse auf Druckflächen<br />

gebracht und anschließend mittels Cressman-Methode auf das ERA-40 Gitter<br />

interpoliert.<br />

Zu berechnende Kenngrößen sind die Standardparameter P-1 bis P-8<br />

(a) für jeden Evaluierungs-Zeitschritt und jeden meteorologischen Parameter<br />

(b) für die gesamte Evaluierungsperiode und jeden meteorologischen Parameter<br />

(c) der Gesamt skill score gemittelt über alle meteorologischen Parameter<br />

für die gesamte Evaluierungsperiode.<br />

Wetterkarten der gewählten Parameter, die für die subjektive Interpretation<br />

und Bewertung der Ergebnisse hilfreich erscheinen, sollten von den Modellbetreibern<br />

miterzeugt werden.<br />

2.5.2 D4 – Radiosonden<br />

Radiosonden sind die einzigen uns zur Verfügung stehenden Daten, die kleinräumige<br />

Phänomene in der freien Atmosphäre bzw. im vertikalen Profil beschreiben.<br />

Sie eignen sich daher vor allem für die Anwendung im Alpenraum<br />

und Umgebung und sollten nur mit dem feinen Nest verglichen werden. Sie<br />

sollen vor allem zur Prüfung der kleinräumigen Strömungs-Strukturen und der<br />

10 Anhang 1<br />

Teilbericht 4


Grenzschicht-Parametrisierung eingesetzt werden. Es wird daher vorgeschlagen,<br />

Daten bis 3500 m über Grund zu verwenden.<br />

Die Datenaufbereitung erfolgt durch lineare Interpolation von Temperatur, relativer<br />

Feuchte, u- und v-Komponente sowie Betrag des Windes auf den vorgegebenen<br />

Höhen über Grund, sowohl im Modell wie auch in den Beobachtungen.<br />

Vorschlag für die Höhen [in m agl]:<br />

50 - 100 - 150 - 200 - 300 - 400 - 500 - 700 - 900 - 1200 - 1500 - 1800 - 2200 - 2600 -<br />

3000 – 3500<br />

Die Berechnung der statistischen Parameter erfolgt wie oben für<br />

(a) jede Station, jede Höhe und jeden Parameter über jeweils eine Episode,<br />

(b) dasselbe, jedoch getrennt für 00 Z und 12 Z Aufstiege (Zwischenaufstiege<br />

sind hier nicht berücksichtigt),<br />

(c) die Ergebnisse von (a) und (b) gemittelt über alle Stationen,<br />

(d) den skill score gemittelt über alle Stationen und Parameter für jedes<br />

Niveau, wobei der skill score folgendermaßen gewichtet wird:<br />

2 1 2<br />

ST + SU<br />

+ ( 0.<br />

3SU<br />

+ 0.<br />

3Sv<br />

+ 0.<br />

4S<br />

ff ) , und<br />

5 5 5<br />

(e) die skill scores nach (d) gemittelt über alle Niveaus.<br />

2.6 Domain-Setup<br />

Um sicher zu gehen, dass die für Europa meteorologisch wichtigen Prozesse<br />

gut erfasst werden schien es uns notwenig, das mit MM5 modellierte Gebiet in<br />

Richtung Atlantik auszudehnen. Wir wählten ein großes Gebiet G2, in dem<br />

Island noch mit simuliert wird, und ein kleineres Gebiet G1, das im Südwesten<br />

bis 10°W reicht (siehe Abbildung 2).<br />

Da im Osten die Erstreckung bis zum Ural hin sicherlich für das Wetter in Alpenraum<br />

ausreichend ist, wurde die Domain so gelegt, dass ihr Zentrum nicht<br />

in Österreich liegt, sondern bei 52.5° / 1<strong>1.</strong>3° für die große Domain und<br />

49.5°/1<strong>1.</strong>3° für die kleine Domain. Das große Gebiet entspricht etwa jenem,<br />

welches von den meisten im EU-Project PRUDENCE beteiligten Modellen<br />

abgedeckt wird. Durch diese Verschiebung des Domainzentrums nach Nordwesten<br />

konnte das Gesamtgebiet verkleinert werden, weshalb nur mehr ein<br />

Nest notwenig wurde. Dies ermöglichte es, den Rechenaufwand erträglich zu<br />

halten. Ob die Auflösung von 30 km im großen Gebiet bzw. 10 km im Nest<br />

große Vorteile gegenüber der gröberen Auflösung von 45 km / 15 km erbringt,<br />

muss bei der Auswertung der Tests festgestellt werden. Der Faktor drei zwischen<br />

den Neststufen ist vom Programm vorgegeben. Die horizontale Modellauflösung<br />

bestimmt den verwendbaren Zeitschritt im Modell, da dieser in<br />

der Regel dreimal länger sein muss, als die horizontale Gitterauflösung, um<br />

das CFL-Kriterium zu erfüllen.<br />

Die Frage der vertikalen Auflösung muss ebenfalls noch behandelt werden.<br />

Ursprünglich war geplant, diese im Rahmen der Grenzschichtparametrisierung<br />

zu behandeln. Jedoch könnte es sein, dass die Auflösung in der freien Atmo-<br />

Anhang 1 11<br />

Teilbericht 4


sphäre auch ein relevanter Parameter ist, und dann wäre sie in Zusammenhang<br />

mit dem Domainsetup zu untersuchen.<br />

2.6.1 Domaingrößen<br />

Im Folgenden sollen nun die 4 verschiedenen Domainsetups ein wenig erläutert<br />

werden.<br />

In der Abbildung 2 sind die verschiedenen Ausschnitte und Auflösungen zu<br />

erkennen. Es sind hier auch zusätzlich die Aladin-Domain und eine zusätzliche<br />

MM5-Domain, welche ähnlich jener des Aladin ist, um die direkten Vergleiche<br />

ehrlicher zu machen, abgebildet. Dargestellt ist die Temperatur in 850<br />

hPa für einen Tag aus der 2. Episode, da nur für diese die MM5-Aladindomain<br />

mitgerechnet wurde. In allen MM5-Domains liegt noch ein Nest, welches die<br />

jeweilige Feinauflösung (15 km bzw. 10 km) über dem Alpenraum enthält.<br />

Dies ist der Übersichtlichkeit wegen hier nicht eingezeichnet.<br />

Abb. 2: Domain-Setups für MM5 und Aladin. A005 bezeichnet die große MM5 Domain mit<br />

45km Auflösung. A006 bezeichnet die kleine MM5 Domain mit 45km Auflösung. In der 2.Zeile<br />

sind die beiden Domains mit jeweils 30 km Auflösung dargestellt (A007:groß, A008: klein). In<br />

der untersten Zeile ist links die Aladin-Domain dargestellt und rechts die MM5-Doamin, welche<br />

ähnlich jener des Aladin gestaltet ist.<br />

12 Anhang 1<br />

Teilbericht 4


2.6.2 Validierungsstrategie<br />

Test für äußere Domain D01 (mit grober 45 k) Auflösung):<br />

G1 kleineres Gebiet<br />

G2 großes Gebiet<br />

Test für Nestdomain D02 (mit grober (15 km) Auflösung):<br />

N1 kleiner<br />

N2 größer<br />

Test zur Auflösung:<br />

45 km – 15 km<br />

30 km – 10 km<br />

Dh. zur Festlegung der Domain und Auflösung sind<br />

mindestens 6 Rechnungen notwendig.<br />

3 Parameter-Setup MM5, Aladin<br />

Das PSU/NCAR Mesoscale Model (bekannt als MM5) wurde an der Penn<br />

State University und am NCAR als gemeinsames Modell entwickelt (Grell et<br />

al. 1994). Es ist ein kleinräumiges, nicht hydrostatisches geländefolgendes<br />

Modell in sigma-Koordinaten und wurde zur Simulierung mesoskaliger atmosphärischer<br />

Prozesse entwickelt.<br />

Das Modell wird üblicherweise mit meteorologischen Vorhersagedaten (zB<br />

ECMWF) betrieben. Mit Hilfe eines Nesting-Verfahrens wird eine horizontale<br />

Auflösung im km-Bereich erreicht.<br />

MM5 beinhaltet zahlreiche Parametrisierungen physikalischer Prozessen, die<br />

in unterschiedlichen Kombinationen miteinander verwendet werden können<br />

(vgl. Abb.3). So stehen zB 8 Varianten zur Cumulus-Parametrisierung, 7 unterschiedliche<br />

Grenzschicht-Schemata, 8 explizite Niederschlags-Parametrisierungen,<br />

4 Möglichkeiten zur Strahlungs-Parametrisierung und 3 Boden-<br />

Schemata zur Verfügung. All diese Parametrisierungen sind stark miteinander<br />

gekoppelt und manche davon ohne bestimmte andere gar nicht anwendbar.<br />

Die Vielzahl an verfügbaren Parametrisierungen ermöglicht es für die verschiedensten<br />

Anwendungen ein geeignetes Modell zur Verfügung zu haben.<br />

Die Aufgabe des Modellierers besteht nun darin das für die jeweilige Fragestellung<br />

optimale Setup zu finden. Für die übliche Anwendung des Modells,<br />

nämlich kurzfristige hoch aufgelöste Wettervorhersagen, findet man jede<br />

Menge Empfehlungen und Literatur über die geeignete Wahl der Parameter.<br />

Der in diesem Projekt verfolgte Ansatz, nämlich ein dynamisches Klimadownscaling<br />

im Alpenraum durchzuführen, ist hingegen innovativ, weshalb<br />

das bestmögliche Parameter-Setup erst gefunden werden muss, und dafür<br />

diverse Tests durchzuführen sind.<br />

Anhang 1 13<br />

Teilbericht 4<br />

Gx<br />

GxNx<br />

GxNxA


Auch für das zweite zum Einsatz kommende mesoskalige Modell, ALADIN,<br />

muss das passende Setup gefunden werden. Dies wird jedoch von den Modellbetreibern<br />

festgelegt und diese stellen zu jedem von uns für das MM5 vorgeschlagenen<br />

Test adäquate Aladinergebnisse zur gemeinsamen Validierung<br />

zur Verfügung.<br />

Abb. 3: MM5-Parametrsierungswechselwirkungen<br />

4 Termine<br />

Zur Durchführung der Parametertests ist es erforderlich, geeignete Termine<br />

und Episoden, die charakteristische Wettersituationen beinhalten, zu eruieren.<br />

Aufgrund der guten Datenlage sollten die Perioden, soweit möglich im Zeitraum<br />

der MAP Special Observing Periode (SOP) liegen. Da nicht alle für die<br />

Parametertests notwendigen Wetterlagen in diesem Zeitraum auftraten und<br />

um auch andere Jahreszeiten testen zu können wurde ein Schwerpunkt auf<br />

das Jahr 1999 gelegt, aber auch andere Jahre berücksichtigt.<br />

In Tabelle 2 sind die einzelnen Episoden, sowie ein charakteristisches Fallkürzel<br />

und das aufgetretene Wetter vermerkt. Die Perioden wurden zum einen<br />

mit Hilfe der MAP-Datenbank zum anderen aufgrund der täglichen Klima- und<br />

Wetterinformation der ZAMG, sowie der Analyse von Wetterkarten ausgewählt.<br />

14 Anhang 1<br />

Teilbericht 4


Tab.2: Wetterlagen und Termine für Tests der physikalischen Parametrisierungen und Domains.<br />

Die Spin-up Zeit ist noch nicht berücksichtigt (Vorschlag 2-3Tage) Jeder Fall ist durch<br />

ein Kürzel eindeutig definiert. Die Abkürzungen sind wie folgt zu lesen: Mp = MAP-Episode,<br />

Ep = Episode, ST = Strahlung, SF = Südföhn, NF = Nordföhn, BL = Bodenfeuchte/ Grenzschicht,<br />

KO = Konvektion, RR = Niederschlag.<br />

Fallkürzel Beginn Ende Dauer(d) Wetter<br />

MpSF1 18.09.99 2<strong>1.</strong>09.99 3 Südföhn/Stauniederschlag<br />

MpSF2 2<strong>1.</strong>10.99 25.10.99 5 Südföhn<br />

MpSF3 29.10.99 30.10.99 2 Südföhn<br />

MpSF4 04.1<strong>1.</strong>99 05.1<strong>1.</strong>99 2 Südföhn<br />

MpNF1 07.1<strong>1.</strong>99 07.1<strong>1.</strong>99 1 Nordföhn<br />

MpBL1 15.10.99 19.10.99 5 Boden-Hochnebel<br />

MpST1 1<strong>1.</strong>09.99 1<strong>1.</strong>09.99 1 (Hochdrucklage) (Wien wolkenlos)<br />

MpST2 07.1<strong>1.</strong>99 07.1<strong>1.</strong>99 1 (Frontdurchgang, durchwegs bedeckt)<br />

EpRK1 07.08.99 07.08.99 1 Gewitteraktivität<br />

EpRK2 13.07.99 13.07.99 1 Gewitteraktivität<br />

EpRR1 2<strong>1.</strong>07.92 22.07.92 2 HERA-Fall konvektiver Niederschlag<br />

EpRR2 04.07.94 06.07.94 3 HERA-Fall konvektiver Niederschlag<br />

EpRR3 22.07.95 22.07.95 1 HERA-Fall konvektiver Niederschlag<br />

EpSF1 14.04.99 15.04.99 2 Föhn<br />

EpSF2 28.04.99 29.04.99 2 Föhn<br />

EpSF3 17.05.99 19.05.99 3 Föhn<br />

EpSF4 05.06.99 06.06.99 2 Föhn<br />

EpST1 18.0<strong>1.</strong>98 18.0<strong>1.</strong>98 1 Hochdruck, Winterstrahlungstest<br />

EpST2 0<strong>1.</strong>02.98 0<strong>1.</strong>02.98 1 H.W: BEW: 0,6,1<br />

EpST3 05.02.98 05.02.98 1 H.W: BEW: 0,0,0<br />

EpST4 30.03.98 3<strong>1.</strong>03.98 2 H.W: BEW: 1,0,0- 1,3,4<br />

EpST5 08.0<strong>1.</strong>98 13.0<strong>1.</strong>98 6 Nebel od. Hochnebel<br />

EpST6 09.02.98 15.02.98 7 wolkenlos, Hochnebel<br />

EpST7 16.0<strong>1.</strong>99 24.0<strong>1.</strong>99 9 wolkenlos, Hochnebel<br />

EpKO3 07.05.98 13.05.98 7<br />

Hochdruck-Quellwolken-<br />

Schauer/Wärmegewitter<br />

EpKO4 23.05.99 0<strong>1.</strong>06.99 10<br />

Hochdruck-Quellwolken-<br />

Schauer/Wärmegewitter<br />

EpKO5 18.07.99 25.07.99 8<br />

Hochdruck, sommerlich, subtropisch, labil<br />

bzw. feuchtlabil<br />

EpRR4 03.12.88 03.12.88 1 Startclim-zykl. Nordwestwetterlage<br />

EpRR5 02.08.87 02.08.87 1 Startclim-zykl. Nordwestwetterlage<br />

EpRR6 17.12.87 17.12.87 1 Startclim-zykl. Nordwestwetterlage<br />

EpRK7 10.07.90 10.07.90 1 Startclim-Kaltlufttropfen<br />

EpRK8 20.07.81 20.07.81 1 Startclim-Kaltlufttropfen<br />

EpRR9 08.10.93 08.10.93 1 Startclim-Südstau<br />

EpRR10 04.10.92 05.10.92 2 Startclim-Südstau<br />

Anhang 1 15<br />

Teilbericht 4


5 Erste Vergleichsrechnungen MM5 – Aladin<br />

Um die von allen erarbeiteten Tools auch einem praktischen Test zu unterziehen,<br />

wurde ein MM5-Setup festgelegt und damit für zwei meteorologisch<br />

sehr interessante Episoden aus der MAP-SOP Simulationen durchgeführt.<br />

5.1 Festlegung der MM5- Parametrisierungen<br />

Für die MM5 Modellierung wurden folgende Parametrisierungsvorgaben vorgeschlagen:<br />

- Radiation: RRTM longwave scheme IFRAD=4<br />

- PBL + SVAT: MRF + Noah land-surface scheme IBLTYP=5, ISOIL=2<br />

- Cumulus: Kain Fritsch 2 + ishallow ICUPA=8, ISHALLOW=1 (falls nötig)<br />

- Moisture: Reisner1 (Mixed-Phase) IMPHYS=5<br />

Die Wahl dieser Parametersetups richtete sich zum einen nach der möglichen<br />

Kombinationsfähigkeit dieser, zum anderen nach Empfehlungen von G. Zängl<br />

(Zängl, 2004), der bereits zahlreiche hoch aufgelöste MM5 – Simulationen im<br />

Alpenraum durchführte und eine für komplexes Terrain verbesserte Modell<strong>version</strong><br />

(Zängl, 2003) entwickelt hat. Die neuen Module dieser MM5 Version<br />

sollen in Kürze in die nächste offizielle MM5-Version übernommen werden,<br />

wir haben die neue Version bereits bei uns am Institut installiert und die Lauffähigkeit<br />

getestet. Ob diese Version deutliche Verbesserungen für unsere<br />

Klimaanwendung erbringt soll in einem der in diesem Jahr folgenden Tests<br />

überprüft werden, denn die Vorteile der neuen Methode liegen vor allem bei<br />

Auflösungen im oder unter dem km-Bereich.<br />

5.2 Festlegung der für diesen Test sinnvollen Termine<br />

Um die Effekte der Domaingröße und Wahl aufzuzeigen, sollten Episoden<br />

gewählt werden, die viel Dynamik beinhalten. Da mit dem Aladin bereits die<br />

gesamte MAP-SOP simuliert war, sollten die Episoden aus dieser Zeitperiode<br />

entnommen werden.<br />

Als meteorologisch interessante Episoden wurden die folgenden beiden ausgewählt,<br />

wobei jeweils vorne weg noch zwei Tage mehr gerechnet wurden,<br />

als so genannter Spin-up, der bei der Evaluierung nicht berücksichtigt wird:<br />

Episode 1: 18.9.1999 – 2<strong>1.</strong>9.1999<br />

Episode 2: 5.1<strong>1.</strong>1999 – 8.1<strong>1.</strong>1999<br />

Die Spin-up Zeit des mesoskaligen Modells ist jene Zeitperiode, die erforderlich<br />

ist, damit sich kleinräumige Strukturen aufgrund der spezifischen Parametrisierungen<br />

sowie der besser aufgelösten unteren Randbedingung entwickeln<br />

können. Erst nach diesem Zeitraum kann das Modell den Zustand der<br />

Atmosphäre besser beschreiben als er bereits von den Antriebsdaten vorgegeben<br />

ist.<br />

16 Anhang 1<br />

Teilbericht 4


5.3 Auswertung der Ergebnisse<br />

Im Folgenden sollen nun erste Auswertungen der bisher durchgeführten<br />

Rechnungen präsentiert werden. Zum Einen sollen die Vor- und Nachteile der<br />

verschiedenen Scores erläutert werden, zum Anderen aber auch ein erster<br />

Vergleich der Modelle. Auch auf die Wahl des Domainsetups soll etwas detaillierter<br />

eingegangen werden, da ja für unterschiedlich große Gebiete und mit<br />

unterschiedlichen Auflösungen simuliert wurde. Für die zweite Episode erfolge<br />

ein Modellvergleich zwischen den potentiellen MM5-Betreibern (systems research,<br />

BOKU-Met, IGAM), außerdem wurde für diese Episode ein zusätzliches<br />

MM5-Domain festgelegt, welches jenem des ALADIN-Modells ähnlich<br />

ist.<br />

Die Bezeichnung der diversen Domainsetups erfolgte so: Alle Berechnungen<br />

die von ARC-SYS durchgeführt wurden haben Namen, die mit A beginnen,<br />

die BOKU-Met-Berechnungen beginnen mit B und die Aladin-Ergebnisse mit<br />

C. Mit dem Buchstaben D wurden die Ergebnisse des IGAM bezeichnet. Da<br />

für die MM5-Berechnungen ursprünglich 4 verschiedene Domainsettings vorgesehen<br />

waren heißen die Fälle der <strong>1.</strong>Episode A001 bis A004 und jene der<br />

2.Episode A005-A008, Aladin hat nur 1 Setup, daher C001 für die <strong>1.</strong>Episode<br />

und C002 für die 2.Episode. Die MM5-Aladindomain wurde nachträglich mit<br />

A000 bezeichnet und bezieht sich auf die 2.Episode.<br />

Die Auswertung mit den statistischen Parametern erfolgt auf einem Gebiet,<br />

welches von allen Modellläufen abgedeckt wird, daher stellt das Aladinmodell<br />

den limitierenden Faktor dar. Die Ergebnisse des Aladinmodells würden von<br />

der Auflösung jenem der MM5-Nester entsprechen. Da diese aber nur den<br />

Alpenraum, also das Zielgebiet der Klimamodellierung, abdecken und bei der<br />

Auswertung ein Vergleich mit den 1° aufgelösten ERA-40 Daten erfolgen soll,<br />

wird vorerst die grobe MM5 Auflösung mit der feinen Aladin Auflösung verglichen,<br />

weshalb bei diesem ersten Vergleich, der in erster Linie die Methodik<br />

der Auswertung aufzeigen soll, immer die Aladinergebnisse besser sind.<br />

Um den Vergleich mit den grob aufgelösten ERA-40 Daten durchführen zu<br />

können, werden die Modellergebnisse mittels Cressman-Interpolation auf das<br />

1°-Gitter gebracht. Bei diesem Verfahren werden in einem vordefiniertem Umkreis<br />

(in unserem Fall 90 km) alle Modellgitterpunkte, gewichtet mit der Entfernung<br />

zum Zielgitterpunkt, gemittelt und liefern den neuen groben Gitterpunktswert.<br />

Die Wahl des Cressman-Radius orientierte sich an der gesuchten Zielauflösung.<br />

Bei 90 km Radius stehen immer genügend Gitterpunkte zur Verfügung,<br />

um die Interpolation sinnvoll durchführen zu können. Da bei der Auswertung<br />

nur ein Gebiet betrachtet wurde, welches von allen Modelläufen abgedeckt<br />

wird, gehen die Randwerte der Modelle nicht in die Auswertung mit ein. In<br />

Abbildung 4 ist dieses Gebiet als schwarzes Rechteck dargestellt. Es reicht<br />

von 4°E – 30°E und von 36°N – 54°N.<br />

Anhang 1 17<br />

Teilbericht 4


Abb. 4: Definition des Evaluierungsbereichs. Alle statistischen Vergleichsparameter wurden<br />

nur in dem mit dem schwarzen Rechteck begrenzten Gebiet berechnet, da dieses von allen<br />

Modellen abgedeckt wird. Farblich hinterlegt ist hier ein Temperaturdifferenzfeld der großen<br />

MM5-Domain.<br />

Wie bereits bei der Evaluierungsstrategie angesprochen, sollen vorerst folgende<br />

Parameter ausgewertete werden:<br />

• Temperatur in 850 hPa<br />

• Geopotential in 850 hPa<br />

• Geopotential in 500 hPa<br />

• Spezifische Feuchte in 700 hPa<br />

• Niederschlag<br />

Für die ersten vier Parameter werden statistische Parameter zwischen dem<br />

jeweiligen Modellergebnis und den ERA-40 Daten berechnet, für den Niederschlag<br />

wird in einem ersten Schritt der prozentuelle Anteil der Modellfläche<br />

betrachtet, in der über 0.5 mm Niederschlag in 6h gefallen sind und dieser nur<br />

zwischen den einzelnen Modelläufen und mit keiner Beobachtung verglichen.<br />

Anhand der Temperatur in 850 hPa sollen nun die verschiedenen Tools diskutiert<br />

werden, für die übrigen Parameter finden sich ähnliche Abbildungen und<br />

Tabellen im Anhang.<br />

5.3.1 Detailierte Ergebnisdiskussion für die Temperatur in 850 hPa<br />

Betrachtet man zunächst nur die <strong>1.</strong>Episode und davon als ersten Schritt die<br />

für die Gesamtperiode berechneten statistischen Werte so zeigt sich (siehe<br />

Tabelle 3), dass alle Modelläufe recht ähnliche Mittelwerte liefern und diese<br />

auch sehr gut zum Mittelwert der Temperatur des ERA-40-Feldes passen.<br />

Beim Bias erkennt man, dass die Temperatur in 850 hPa vom MM5 leicht unterschätzt<br />

wird, während das Aladin einen leicht positiven Bias aufweist, doch<br />

auch hier bewegen sich die Werte im 1/10 Grad-Bereich oder darunter, weshalb<br />

man mit dem Ergebnis durchaus zufrieden sein kann. Der Korrelationskoeffizient<br />

liegt auch in allen Läufen über 0.9 und auch die skill scores<br />

liegen fast beim Maximum von 1, weshalb man durchaus sagen kann, dass<br />

die Temperatur in 850 hPa betrachtet über die gesamte Episode von allen<br />

Modellen gut simuliert wurde.<br />

18 Anhang 1<br />

Teilbericht 4


Tab. 3: Statistikscores der <strong>1.</strong>Episode für alle verfügbaren Modelläufe. A001-A004 entsprechen<br />

den Vergleichen der 4 MM5-Domains mit den ERA-40-Daten, C001 dem Vergleich Aladin-<br />

ERA40. Bei den statistischen Parametern handelt es sich von oben nach unten um: Mittelwert-Modell,<br />

Mittelwert-ERA-40, root-mean-square error (RMSE), Standardabweichung-<br />

Modell, Standardabweichung-ERA-40, Korrelationskoeffizient (R), bias corrected RMSE<br />

(BCRMSE), relative bias (relBIAS), Bias-Score, Fisher-Score, Total-Score, prozentuelle Modellfläche<br />

im Auswertegebiet in der über 0,5mm Niederschlag gefallen sind (RR>0.5)<br />

A001 A002 A003 A004 C001<br />

MOD-MEAN 284.92 284.81 284.90 284.81 285.09<br />

ERA40-MEAN 285.00 285.00 285.00 285.00 285.00<br />

RMSE <strong>1.</strong>30 <strong>1.</strong>07 <strong>1.</strong>42 <strong>1.</strong>06 <strong>1.</strong>01<br />

BIAS -0.08 -0.19 -0.10 -0.20 0.09<br />

MOD-STD 3.30 3.33 3.24 3.29 3.26<br />

ERA40-STD 3.40 3.40 3.40 3.40 3.40<br />

R 0.93 0.95 0.91 0.95 0.96<br />

BCRMSE <strong>1.</strong>30 <strong>1.</strong>06 <strong>1.</strong>41 <strong>1.</strong>05 <strong>1.</strong>00<br />

REL.BIAS -0.03 -0.06 -0.03 -0.06 0.03<br />

B-SCORE 0.99 0.97 0.99 0.97 0.99<br />

F-SCORE 0.96 0.98 0.95 0.98 0.98<br />

T-SCORE 0.98 0.97 0.97 0.97 0.99<br />

RR> 0.5[%] 19.81 17.15 2<strong>1.</strong>09 18.08 19.97<br />

Will man sich nun auch ein wenig die Unterschiede der verschiedenen Auflösungen<br />

ansehen, so empfiehlt es sich, die Werte jedes einzelnen Prognosezeitschritts<br />

heranzuziehen, da sich manche statistischen Parameter über die<br />

gesamte Episode wieder ausgleichen können. In Abbildung 5 ist der Fisher<br />

skill score für jeden Prognosezeitschritt dargestellt. Zeitschritt 1 kennzeichnet<br />

die ersten 6 Stunden des dritten modellierten Tages, da 2 Tage Spin-up vorne<br />

weg nicht ausgewertet werden.<br />

Bei diesem Score sieht man bereits recht schön den Effekt der Domaingröße,<br />

denn die beiden untersten (und somit schlechtesten) Kurven sind jene der<br />

größten Domain und die überwiegend oberste Kurve ist jene des Aladinmodells.<br />

Dennoch sollte man auch hier nicht außer Acht lassen, dass alle<br />

Werte zwischen 0,92 und 0,99 liegen, also wirklich sehr gut sind. Die Knicke<br />

in den Kurven deuten ein wenig an, dass es die Modelle bei dieser dynamischen<br />

Wetterlage nicht immer schaffen, die Feinstrukturen im Inneren sofort<br />

richtig zu reproduzieren.<br />

Anhang 1 19<br />

Teilbericht 4


Abb. 5: Fisher skill score berechnet zwischen den jeweiligen Era-40 Gitterpunkten und den<br />

dort hin interpolierten Modellwerten. Dargestellt ist der Wert für jeden Prognosezeitschritt,<br />

also alle 6 Stunden.<br />

Als einen weiteren Parameter für die zeitliche Entwicklung der Modelgüte wollen<br />

wir uns den Bias skill score (Abbildung 6) anschauen. Dieser gibt Auskunft<br />

darüber, ob ein Modell im Mittel zu kalt oder zu warm ist; er soll hauptsächlich<br />

dazu dienen, um rasch zu erkennen, ob sich ein Modell immer weiter von der<br />

Realität entfernt, es also langsam davon driftet. Dieser Aspekt wird bei einem<br />

später folgenden Klimalauf von Bedeutung sein, bei einer Berechnung über<br />

eine Woche sollte dieses Phänomen noch nicht auftreten.<br />

Abb. 6: Bias skill score berechnet zwischen den jeweiligen Era-40 Gitterpunkten und den<br />

dorthin interpolierten Modellwerten.<br />

20 Anhang 1<br />

Teilbericht 4


Betrachtet man die Kurven in Abbildung 6 so fällt auf, dass alle MM5 Läufe,<br />

egal welches Domainsetup, sehr ähnlich verlaufen, hingegen das Aladinmodell<br />

einen anderen Charakter aufzeigt. Wie wir schon bei der Berechnung<br />

der Statistikwerte über alle Zeitschritte gesehen haben, sind die Modellergebnisse<br />

durchaus sehr gut, weshalb diese Schwankungen hier von einem<br />

Zeitschritt zum nächsten wohl eher ein Schwingen um den Grundzustand darstellen,<br />

denn wenn der Wetterablauf, bei dieser sehr dynamischen Wetterlage<br />

ein wenig zu schnell oder zu langsam prognostiziert wird, wirkt sich dies im<br />

Bias des jeweiligen Zeitschritts aus. In Summe über den gesamten Prognosezeitraum<br />

gleichen sich solche marginalen Schwankungen wieder aus und<br />

können vor allem für den Klimalauf außer Acht gelassen werden.<br />

Um die Tatsache aufzuzeigen, dass es sich bei den Signalen im Bias-Score<br />

wirklich nur um ein Schwanken um die Nulllage handelt, sollte man sich zumindest<br />

einige meteorologische Felder genauer ansehen. Dazu ist es nützlich,<br />

Differenzfelder zu untersuchen. In Abbildung 7 sind diese für die Zeitschritte<br />

12 und 13 der Episode dargestellt, wobei im Vergleich dazu auch immer<br />

im Bild darunter das ERA-40 Feld abgebildet ist, um die Streuung in diesem<br />

Feld, die ja auch für die Scoreberechnung berücksichtig wird, ein wenig<br />

abschätzen zu können. Der Untersuchungssauschnitt, in dem die statistischen<br />

Parameter berechnet wurden, ist mit dem schwarzen Rechteck gekennzeichnet.<br />

Abb. 7: Vergleich zwischen Aladinprognose und ERA-40 Feld. Links für den 12.Zeitschritt der<br />

Episode, rechts für den 13. Im oberen Teil der Abbildung ist immer das Differenzfeld (ERA-<br />

Aladin) dargestellt, wobei grüne Farben unterschiede kleiner 1°C darstellen, blaue (kühle)<br />

Farben negative Werte und rote (warme) Farben positive Werte. Im unteren Teil der Abbildung<br />

ist das ERA-40 Feld des jeweiligen Zeitschritts dargestellt.<br />

Anhang 1 21<br />

Teilbericht 4


Man erkennt sehr gut, dass im linken oberen Bild, also dem Differenzbild von<br />

Zeitschritt 12, ausschließlich grüne und blaue Farbtöne vorkommen. Diese<br />

Farben signalisieren, dass die Temperatur im Aladinfeld größer als jene im<br />

ERA40-Feld ist und daher die Differenz nahe Null (grün) bis negativ (blau) ist.<br />

Im rechten oberen Teil der Abbildung überwiegen eher die wärmeren Farbtöne,<br />

was erkennen lässt, dass die Aladintemperatur etwas niedriger ist als jene<br />

im ERA-40 Feld. In den beiden ERA-40 Feldern erkennt man das Ende der<br />

Föhnperiode und die von Westen herannahende Kaltfront. Wie man an den<br />

Differenzbildern schön erkennt ist der Bias im Zeitschritt 12 negativ, im Zeitschritt<br />

13 positiv, das Modell driftet also nicht davon.<br />

Zur Darstellung eines Gesamtbildes der <strong>1.</strong> Episode können wir den Total skill<br />

score (Abbildung 8) hernehmen, denn dieser vereinigt den Fisher skill score<br />

und den Bias skill score zu einem Wert, wobei der Fisher-Score doppeltes<br />

Gewicht bekommt. Zum einen spiegelt sich darin der sprunghafte Charakter<br />

des Bias-Scores, zum anderen aber auch der mit zunehmender Prognosedauer<br />

stattfindende Abfall der Prognosegüte, wie dies bereits in den beiden<br />

einzelnen Scores zu sehen war. Da die 4 verschiedenen MM5-Ergebnisse<br />

(A001-A004) zu jedem Zeitschritt einen sehr ähnlichen Bias-Score aufweisen,<br />

rücken die Kurven beim Total skill score im Vergleich zum Fisher skill score<br />

ziemlich nahe aneinander, weshalb es in solch einem Fall, wo man schon<br />

weiß, dass es im Bias kaum Unterschiede gibt, nahe liegender erscheint,<br />

gleich den F-Score zu betrachten, um die Unterschiede der einzelnen Modellläufe<br />

klarer zu erkennen.<br />

Abb. 8: Total skill score für die erste Episode. Dargestellt ist der Wert zu jedem Prognosezeitschritt<br />

also alle 6 Stunden. A001-004 bezeichnen die vier MM5-Ergebnisse, C001 das<br />

Aladinergebnis.<br />

22 Anhang 1<br />

Teilbericht 4


Zieht man nun den Total skill score dazu heran, um zu entscheiden welcher<br />

Modellauf verglichen mit den ERA-40 Daten die besten Ergebnisse liefert, so<br />

erkennt man in Abbildung 7, dass dies vom treibenden Wettercharakter abhängig<br />

ist und die verschiedenen Modelle (Aladin, MM5) bei manchen Zeitschritten<br />

besser und bei anderen schlechter sind. Der starke Abfall des<br />

T-Scores für das Aladinmodell am Ende der Rechenperiode ist zum Großteil<br />

auf den Bias-Score-Abfall zurückzuführen. Hier muss man dann ins Detail<br />

schauen und erkennt, dass in den MM5-Feldern innerhalb des Auswertegebiets<br />

stark positive und ziemlich gleich stark negative Werte auftreten, weshalb<br />

der Bias über das Feld gemittelt sehr klein wird. Beim Aladin treten keine<br />

derart starken Unterschiede zu den ERA-40 Daten auf, aber eben eher in eine<br />

Richtung und nicht zu gleich positiv und negativ, weshalb der Gesamtbias des<br />

Felds größer wird. Nochmals sei hier darauf hingewiesen, dass der Bias skill<br />

score hauptsächlich für die Klimaanwendung entwickelt wurde, um ein mögliches<br />

Davondriften des Modells erkennen zu können.<br />

Abschließend kann man feststellen, dass beide Modelle durchaus in der Lage<br />

sind, den Wettercharakter der ERA-40 Daten widerzuspiegeln. Welcher Modelllauf<br />

das bodennahe Wetter am besten simuliert, sollte in einem weiteren<br />

Schritt, zB mittels VERA-Analysen von Stationsdaten, ermittelt werden. Aus<br />

dem Vergleich mit den ERA-40 Daten erkennt man, dass es von Zeitschritt zu<br />

Zeitschritt gelegentlich zu schwachen Phasenverschiebungen zwischen den<br />

Modellen und den ERA-40 Daten kommt, was im Bias ersichtlich ist. Generell<br />

zeigt sich weiters, dass im Vergleich mit ERA-40 Daten die Größe der Rechendomain<br />

entscheidend ist. Wie im F-Score klar ersichtlich ist, werden die<br />

Resultate umso besser, je kleiner die Rechendomain ist, also je näher der<br />

Rand an der Auswertedomain liegt.<br />

Wechseln wir nun zur 2. Episode, wo auch die MM5-Vergleichsrechnungen<br />

des IGAM (D005) und der BOKU-Met (B005) mit ausgewertet wurden. Diese<br />

Wetterphase ist zum einen durch viel Dynamik, zum anderen durch Zyklogenese<br />

im Modellgebiet dominiert. Als ersten Schritt empfiehlt es sich wieder<br />

die Statistik der über die gesamte Evaluierungsperiode berechneten Werte<br />

anzuschauen.<br />

In Tabelle 4 sind diese Werte eingetragen. Bereits bei den Mittelwerten über<br />

das ganze Feld und alle Zeiten erkennt man, anders als bei der vorherigen<br />

Episode, Unterschiede zwischen den Modelläufen und den ERA-40 Daten um<br />

bis zu 0.6°C. Der Korrelationskoeffizient ist bei allen MM5-Läufen unter 0,9<br />

gesunken und liegt nur beim Aladin und dem Aladin-Vergleichslauf über diesem<br />

Wert. Diese beiden Läufe sind auch die Einzigen, welche einen sehr guten<br />

Bias skill score aufweisen. Bereits bei der Betrachtung dieser für die gesamte<br />

Episode gültigen Werte erkennt man, dass die Modelle den Wettercharakter<br />

nicht so gut treffen wie dies bei der zuvor betrachteten Wetterlage der<br />

Fall war. Woran dies liegt, ob also einzelne Zeitschritte das Ergebnis negativ<br />

beeinflussen, oder ob die Modellqualität in diesem Fall generell auf einem<br />

niedrigeren Niveau angesiedelt ist wird bei der Betrachtung einzelner Parameter<br />

für jeden Zeitschritt extra verdeutlicht.<br />

Anhang 1 23<br />

Teilbericht 4


Tab.4: Statistikscores der 2.Episode für alle verfügbaren Modelläufe. A005-A008 entsprechen<br />

den Vergleichen der 4 MM5-Domains mit den ERA-40-Daten, C002 dem Vergleich Aladin-<br />

ERA40. A000 bezeichnet die mit MM5 nachgerechnete Aladindomain und bei den Spalten<br />

B005 und D005 handelt es sich um die Vergleichsrechnungen der BOKU und des IGAM. Bei<br />

den statistischen Parametern handelt es sich um die gleichen wie in Tabelle <strong>1.</strong><br />

A005 B005 D005 A006 A007 A008 A000 C002<br />

MOD-MEAN 277.96 278.09 277.74 277.72 278.06 277.64 277.55 277.49<br />

ERA40-MEAN 277.49 277.49 277.49 277.49 277.49 277.49 277.49 277.49<br />

RMSE 2.00 <strong>1.</strong>96 2.11 <strong>1.</strong>58 2.06 <strong>1.</strong>54 <strong>1.</strong>52 <strong>1.</strong>20<br />

BIAS 0.47 0.60 0.25 0.23 0.58 0.16 0.07 0.00<br />

MOD-STD 2.64 2.68 2.49 2.98 2.61 3.08 3.27 3.21<br />

ERA40-STD 3.35 3.35 3.35 3.35 3.35 3.35 3.35 3.35<br />

R 0.82 0.83 0.78 0.89 0.81 0.89 0.90 0.94<br />

BCRMSE <strong>1.</strong>94 <strong>1.</strong>87 2.09 <strong>1.</strong>56 <strong>1.</strong>98 <strong>1.</strong>53 <strong>1.</strong>52 <strong>1.</strong>20<br />

REL.BIAS 0.14 0.18 0.08 0.07 0.17 0.05 0.02 0.00<br />

B-SCORE 0.83 0.76 0.95 0.95 0.77 0.98 <strong>1.</strong>00 <strong>1.</strong>00<br />

F-SCORE 0.86 0.87 0.82 0.93 0.85 0.94 0.95 0.97<br />

T-SCORE 0.85 0.81 0.88 0.94 0.81 0.96 0.97 0.98<br />

RR> 0.5[%] 2<strong>1.</strong>75 2<strong>1.</strong>55 25.21 20.87 23.12 22.19 23.49 27.75<br />

Bei Betrachtung des F-Scores (Abbildung 9) spalten sich die Ergebnisse bereits<br />

nach wenigen Zeitschritten deutlich auf. Bis zum 4. Zeitschritt liefern alle<br />

Modellergebnisse ziemlich ähnlich gute Scorewerte, doch ab diesem Zeitschritt<br />

spalten sich zum einen die Läufe mit verschiedenen MM5-Domaingrößen<br />

auf und zum anderen beginnen die Modellierungen mit dem Aladin<br />

bzw. dem MM5-Aladindomain an Güte zu gewinnen.<br />

Ein weiterer auffälliger Punkt in Abbildung 9 sind die doch erheblichen Unterschiede<br />

zwischen den als ident angenommenen MM5-Modellierungen (A005,<br />

B005, D005). Der permanente Abfall des skill scores für den D005-Lauf lässt<br />

die Vermutung aufkommen, dass hier nicht alle einzustellenden Parameter<br />

des MM5 gleich verwendet wurden wie bei den Läufen A005 bzw. B005 die<br />

doch weit ähnlicher, wenn auch nicht exakt gleich verlaufen. Da die wählbaren<br />

physikalischen Parametrisierungen des MM5 bei allen drei Läufen gleich gewählt<br />

wurden, liegen die Unterschiede möglicherweise an der unterschiedlichen<br />

Aufbereitung der Inputdaten die das MM5 benötigt. Hier sind drei verschiedene<br />

Postprozessorschritte nötig, wobei es bei jedem einige Feineinstellungen<br />

gibt. Dass die Läufe mit dem großen Domains in diesem Fall so<br />

stark abfallen, liegt daran, dass es das Modell nicht schafft eine Tiefdruckentwicklung,<br />

die im Inneren des Modellgebiets stattfindet richtig zu simulieren<br />

(Abb. siehe Anhang). Bei den übrigen MM5-Läufen sind die Domaingrößen<br />

gerade so, dass der Randeinfluss noch ausreicht, um die Tiefdruckentwicklung<br />

zumindest in abgeschwächter Form von außen ins Modell zu bringen.<br />

24 Anhang 1<br />

Teilbericht 4


Da man von einem mesoskaligen Modell erwarten sollte, dass das im Inneren<br />

generierte Wetter besser mit der Realität übereinstimmt, als jenes des treibenden<br />

groben Modells, kann davon ausgegangen werden, dass die gewählten<br />

physikalischen Parametrisierungen für diesen Wetterablauf unzureichend<br />

sind. Aufgrund dieses Phänomens haben wir beschlossen mit dem MM5 auch<br />

noch das Aladindomain nachzurechnen, um den direkten Vergleich der beiden<br />

Modelle fairer zu machen. Bei der Beurteilung aller in diesem Bericht folgenden<br />

Ergebnisse des MM5-Aladinlaufs (A000) sollte man nicht vergessen,<br />

dass dieser mit einer Auflösung von 30 km gerechnet wurde und erst das darin<br />

liegende Nest (über den Alpen) mit 10 km Auflösung gerechnet ist, hingegen<br />

das Aladinmodell im gesamten Evaluierungsausschnitt eine Auflösung<br />

von 12.5 km aufweist.<br />

Abb. 9: Fisher skill score berechnet zwischen den jeweiligen Era-40 Gitterpunkten und den<br />

dort hin interpolierten Modellwerten. Dargestellt ist der Wert für jeden Prognosezeitschritt,<br />

also alle 6 Stunden für die 2. Episode (5.1<strong>1.</strong>1999 – 8.1<strong>1.</strong>1999).<br />

Die Untersuchung des Bias skill scores (Abbildung 10) zeigt, dass die Mehrzahl<br />

der Modelläufe zum Zeitschritt 4 und 5 ein Problem damit haben, der<br />

starken Dynamik des ERA-40 Feldes zu folgen. In den Zeitschritten 6 bis 8<br />

dürfte sich der Wettercharakter wieder ein wenig beruhigen, da eigentlich alle<br />

Modelle einen über das Feld gemittelten sehr guten Bias vorweisen. Gegen<br />

Ende der Wetterlage, wo im Modellinneren eine Tiefdruckentwicklung stattfindet,<br />

driften die MM5 Läufe mit der großen Domain davon, da sie diese Entwicklung<br />

nicht erkennen und daher ein zu warmes Feld prognostizieren. Die<br />

MM5-Läufe, welche für die kleinere Domain gerechnet wurden (A006, A008),<br />

erfassen die Tiefdruckentwicklung zum Teil, weshalb der Score gegen Ende<br />

nicht weiter abfällt. Das Aladinmodell (C002) hingegen kann sich fast zur<br />

Gänze von diesem Einbruch im Score erholen und auch der MM5-Aladin-Vergleichslauf<br />

(A000) erfasst diese Wetterentwicklung einigermaßen zufrieden<br />

stellend.<br />

Anhang 1 25<br />

Teilbericht 4


Abb. 10: Bias skill score berechnet zwischen den jeweiligen Era-40 Gitterpunkten und den<br />

dort hin interpolierten Modellwerten. Dargestellt ist der Wert für jeden Prognosezeitschritt,<br />

also alle 6 Stunden für die 2. Episode (5.1<strong>1.</strong>1999 – 8.1<strong>1.</strong>1999).<br />

Werfen wir abschließend noch einen Blick auf den Total skill score (Abb. 11),<br />

so erkennen wir den Abfall der MM5-Läufe für die große Domain am Beginn<br />

des letzten Drittels des Prognosefensters sehr deutlich. Der Score sinkt gegen<br />

Ende der Episode auf 0.5 ab, weshalb man hier nicht mehr von einer gelungenen<br />

Prognose sprechen kann. Bei dieser Wetterlage ist eindeutig die Größe<br />

der verwendeten Domain von entscheidender Bedeutung, weshalb das Aladinmodell<br />

am besten abschneidet, aber auch das MM5-Modell gerechnet für<br />

die Aladindomain ganz gute Ergebnisse liefert. Die Wetterlage scheint eine<br />

große Modellherausforderung darzustellen, denn auch die operationelle<br />

Prognose des ECMWF hat die genaue Tiefdruckentwicklung, die das MM5 bei<br />

großem Domainsetup nicht richtig erfasst, erst wenige Tage vorher einigermaßen<br />

korrekt prognostiziert. Da man alle Modelle nahezu mit der Wirklichkeit<br />

treibt (ERA-40 Daten) werden die Ergebnisse immer besser je näher man mit<br />

diesen Daten an das Evaluierungsgebiet rückt, also die Domain verkleinert.<br />

Das mesoskalige Modell hat in diesem Fall dann weniger Möglichkeiten eine<br />

„falsche“ eigene Wetterentwicklung zu simulieren. Ein geeigneter Test, um die<br />

Domaingröße objektiv abschätzen zu können, also zu erkennen, ab welcher<br />

Größe das MM5 in der Lage ist bessere Strukturen zu produzieren als jene<br />

die von außen vorgegebne werden (bei den ERA-40 Daten ist dies über Europa<br />

eigentlich fast nicht mehr möglich) würde darin bestehen, dass MM5 mit<br />

einer ECMWF – Prognose passender Auflösung (T106) zu betreiben und<br />

dann die Ergebnisse mit Messwerten zu vergleichen.<br />

26 Anhang 1<br />

Teilbericht 4


Nachdem die Temperatur in 850 hPa bei der ersten betrachteten Episode<br />

sehr gut von den Modellen reproduziert wurde, ist dies bei der zweiten Episode<br />

nicht mehr so eindeutig der Fall. Das Aladin liefert hier zwar bei der Temperatur<br />

die besten Resultate, dies liegt aber auch daran, dass die kleinste<br />

Domain und die feinste Auflösung verwendet wird und daher die „Wahrheit“<br />

der treibenden Randdaten (ERA-40) einen besonders starken Einfluss bis ins<br />

Evaluierungsgebiet hat.<br />

Abb. 11: Total skill Score des Parameters Temperatur in 850hPa für die 2.Episode. Die mit A<br />

beginnenden Abkürzungen bezeichnen die MM5-Berechnungen von systems research; B005<br />

jene der BOKU-Met und D005 die Berechnung des IGAM. C002 ist das Ergebnis der Aladinvalidierung<br />

dieser Episode.<br />

5.3.2 Geopotential in 850 hPa<br />

Für das Geopotential und alle weiteren zu betrachtenden Parameter wollen<br />

wir nur mehr den Total skill score betrachten. Die Tücken bei der Interpretation<br />

dieser Größe wurden bereits bei der Temperatur anhand der Einzelscores<br />

erläutert. In Abbildung 12 sehen wir die Scores für die erste Episode. Recht<br />

deutlich zu erkennen ist der Unterschied zwischen den verschiedenen MM5-<br />

Domaingrößen. Auch hier ist wiederum die große Domain schlechter als die<br />

kleinere, was am selben Phänomen wie bei der Temperatur, nämlich den<br />

Treiberdaten liegt. Ob nun eine feinere Auflösung bessere Ergebnisse liefert<br />

oder doch eine gröbere ist hingegen nicht erkennbar, denn bei den kleineren<br />

Domains (A002/A004) liefert die feinere Auflösung die besseren Ergebnisse,<br />

hingegen bei den großen Domains (A001/A003) die Gröbere. Diese Entscheidung<br />

muss letztendlich beim Vergleich mit Messwerten (zB VERA) erfolgen.<br />

Das Aladin kann diese Wetterlage scheinbar wieder perfekt reproduzieren,<br />

zumindest was den Vergleich mit den ERA-40 Daten betrifft.<br />

Anhang 1 27<br />

Teilbericht 4


Abb. 12: Total skill score des Parameters Geopotential der 850 hPa Druckfläche für die Episode<br />

<strong>1.</strong><br />

Bei der zweiten Episode (Abbildung 13) sehen wir ein ähnliches Bild, wie wir<br />

es schon bei der Temperatur hatten. Man erkennt auch hier recht deutlich den<br />

dramatischen Abfall der Prognosegüte der MM5-Läufe gegen Ende des Vorhersagefensters.<br />

Anders als bei der Temperatur ist beim Geopotential der 850<br />

hPa Druckfläche der MM5-Lauf der BOKU-Met der schlechteste und jener des<br />

IGAM zeigt relativ gute Werte an.<br />

Abb. 13: Total skill score des Parameters Geopotential der 850 hPa Druckfläche für die Episode<br />

2.<br />

28 Anhang 1<br />

Teilbericht 4


Betrachtet man so wie bei der Temperatur nur die Felder der verschiedenen<br />

MM5-Betreiber (A005, B005 und D005) so erkennt man, dass beim Geopotential<br />

das Ergebnis des IGAM sehr gut ist, hingegen jenes von BOKU-Met<br />

am schlechtesten. Die Tatsache, dass der skill score unterschiedlicher meteorologischer<br />

Parameter nicht immer beim gleichen Modellbetreiber am<br />

schlechtesten ist, lässt erkennen, dass nicht nur die unterschiedliche Hardware<br />

(IGAM, BOKU), sondern sehr wohl verschiedene Modellsetups oder<br />

auch Aufbereitung der Inputdaten zu den unterschiedlichen Ergebnissen führten.<br />

5.3.3 Geopotential in 500 hPa<br />

Da die Skill-score-Auswertung des Geopotentials der 500 hPa Druckfläche<br />

keinen gravierenden Unterschied zu jener der 850 hPa Druckfläche aufweist,<br />

wird diese hier nicht näher erläutert. Die entsprechenden Abbildungen der<br />

diversen skill scores sind der Vollständigkeit wegen im Anhang zu diesem<br />

Bericht enthalten, sollen hier aber nicht näher diskutiert werden.<br />

5.3.4 Spezifische Feuchte in 700 hPa<br />

Die spezifische Feuchte in 700 hPa repräsentiert einen meteorologischen Parameter,<br />

an dem man sehr schön frontale Systeme erkennen kann. Da die<br />

Lage von solchen Systemen oft auch vom operationellen Wettervorhersagemodell<br />

nicht exakt getroffen wird, sollte man dies auch nicht von unseren hier<br />

validierten Modellen erwarten, schon gar nicht dann, wenn noch kein optimales<br />

Parametersetup gefunden wurde. Am Total skill score in Abbildung 14<br />

für die Episode 1 und Abbildung 15 für die Episode 2 sieht man bereits, dass<br />

dieser meteorologische Parameter losgelöst von den übrigen ist, denn weder<br />

der starke gebündelte Abfall der Episode 2 ist hier zu erkennen, noch der<br />

recht homogene Lauf der Episode 1 wie dies bei den anderen Parametern der<br />

Fall war.<br />

Der Total skill score der spezifischen Feuchte zeigt auch nur bedingt den Vorteil<br />

der kleineren Domain an und zwischen den unterschiedlichen Gitter-<br />

Auflösungen (45 km/30 km) kommt auch kein deutlicher Unterschied heraus.<br />

Signifikant in den beiden nachfolgenden Abbildungen 14 und 15 ist hingegen<br />

der Tagesgang im Total skill score der spezifischen Feuchte des Aladin-<br />

Modells. Immer um 00 UTC erreicht der skill score seinen Maximalwert von <strong>1.</strong><br />

Dieses Phänomen sollte in weiteren Tests im Auge behalten werden und mit<br />

den Modellbetreibern diskutiert werden. Da der Niederschlag eine wichtige<br />

Zielgröße ist, wollen wir uns als letzten Parameter diesen anschauen.<br />

Anhang 1 29<br />

Teilbericht 4


Abb. 14: Total skill score der spezifischen Feuchte der 700 hPa Druckfläche für die Episode 1<br />

Abb. 15: Total skill score der spezifischen Feuchte der 700 hPa Druckfläche für die Episode 2<br />

30 Anhang 1<br />

Teilbericht 4


5.3.5 Niederschlagsverteilung<br />

Bei der Niederschlagsverteilung innerhalb des Feldes wurde keiner der oben<br />

definierten traditionellen statistischen Werte berechnet, sondern einfach die<br />

Anzahl der Gitterpunkte, an denen mehr als 0,5mm Niederschlag gefallen ist,<br />

in Relation zur gesamten Gitterpunktsanzahl gesetzt. Der Wert auf der<br />

y-Achse in den Abbildungen 16 und 17 stellt also den Flächenanteil des Evaluierungsgebiets<br />

dar, in dem Niederschlag gefallen ist.<br />

Abb. 16: Flächenanteil des Gebiets mit Niederschlag für die Episode 1<br />

Abb. 17: Flächenanteil des Gebiets mit Niederschlag für die Episode 2<br />

Anhang 1 31<br />

Teilbericht 4


Die großen Unterschiede der verschiedenen Modelle beim <strong>1.</strong> Zeitschritt lassen<br />

sich damit erklären, dass beim MM5 aus akkumulierten Werten 6h-Werte<br />

rückgerechnet werden mussten und daher der <strong>1.</strong> Wert von den davor gefallenen<br />

Niederschlagsmengen und der Methode der Deakkumulierung abhängt.<br />

Diese erfolgte derzeit offensichtlich nicht. Abgesehen davon passen die Kurven<br />

der verschiedenen Modelläufe sehr gut zusammen, weshalb man sagen<br />

kann, dass alle in etwa gleich viel Niederschlag im Evaluierungsgebiet fallen<br />

lassen, ob hingegen auch die räumliche Verteilung passt, muss mit Beobachtungen<br />

verglichen werden und kann aus diesem ersten Test nicht abgeleitet<br />

werden. Dieser Punkt wird speziell für die Wahl der physikalischen Parametrisierungen<br />

von Konvektions- und Feuchteregime wichtig.<br />

5.3.6 Rechenzeit<br />

Ein wesentlicher Punkt bei der Beurteilung der verschiedenen Modelläufe ist<br />

die dafür benötigte Rechenzeit. Diese richtet sich zum einen nach der Anzahl<br />

der verwendeten Gitterpunkte und zum anderen nach dem Zeitschritt mit dem<br />

man das Modell betreibt. Natürlich hängt sie auch von der verwendeten Computerinfrastruktur<br />

und den verwendeten Modellparametrisierungen ab. Für das<br />

Aladinmodell wurde das Domain-Setup bereits ausgewählt. Beim Modell MM5<br />

ist die Rechenzeit ein wesentlicher Faktor der Evaluierung und wird sicherlich<br />

mitentscheidend sein, welche Domain für die Klimaläufe verwendet werden<br />

wird. Man hat nicht viel von einem Modell, welches exakt das aufgetretene<br />

Wetter simulieren kann, dafür aber länger braucht, als der Simulationszeitraum<br />

ist. Für Anwendungen im Klimamodus, bei denen ja mehrere Jahre gerechnet<br />

werden sollen, sollte das verwendete Modell in der Lage sein, um einiges<br />

schneller als real-time zu rechnen.<br />

In Tabelle 5 sind die Rechenzeiten der verschiedenen Läufe aufgelistet. Die<br />

Fälle A001-004 betreffen die erste Episode, die Zeilen A005-A008 die zweite<br />

Episode. Will man also die beiden Episoden vergleichen, um zu sehen welchen<br />

Einfluss die jeweilige Wetterlage auf das Ergebnis hat, so kann man<br />

Lauf A001 mit A005, A002 mit A006 usw. vergleichen.<br />

Tab. 5: Rechenzeit der verschiedenen Simulationen: Die Modelläufe A000-A008 wurden alle<br />

vom systems research durchgeführt und immer die gleiche Infrastruktur verwendet. A001-<br />

A004 sind die Läufe für die 4 versch. Domains der <strong>1.</strong>Episode, A005-A008 jene der 2.Episode.<br />

D005 ist das Ergebnis des IGAM und B005 jenes von BOKU-Met.<br />

Modellauf Laufzeit (h) Infrastruktur<br />

A001 3.4<br />

A002 2.5<br />

A003 1<strong>1.</strong>9<br />

A004 8.7<br />

A005 3.6<br />

A006 2.6<br />

A007 1<strong>1.</strong>4<br />

A008 9.1<br />

Compaq ES40 6/667 Model 1 (4CPUs<br />

(Alpha), 667 MHz, 2GB Memory,<br />

True64Unix 5.<strong>1.</strong><br />

A000 6.4<br />

D005 6.9 Athlon MP1800 - 2CPUs<br />

B005 17.6 Intel XEON 1700 - 1CPU, Redhat-7.1<br />

32 Anhang 1<br />

Teilbericht 4


Bei drei der vier Domainsetups erkennt man, dass die Episode 2 ein wenig<br />

rechenintensiver war, lediglich beim dritten Setup ist dies umgekehrt. In diesem<br />

Fall kann man davon ausgehen, dass der Rechner beim dritten Lauf der<br />

Episode 1 (A003) nicht immer ausschließlich für die Modellierung verwendet<br />

wurde und daher die Episode 2, die vielleicht über das Wochenende gerechnet<br />

wurde, schneller fertig war. Generell betrachtet ist der Unterschied zwischen<br />

den beiden Episoden in einer Größenordnung die man bei der Evaluierung<br />

vernachlässigen kann.<br />

Betrachtet man die Unterschiede der verschiedenen Domainsetups (A001 –<br />

A004) so treten doch erhebliche Rechenzeitunterschiede auf. Die Berechnung<br />

der kleineren Domain ist im Vergleich zur größeren bei gleicher Auflösung (zB<br />

A002/A001) um ca. 30 % früher fertig, während die Berechnung mit feinerer<br />

Auflösung bei gleicher Domaingröße etwa 3,5 x so lange dauert wie die mit<br />

grober Auflösung<br />

5.3.7 Synopsis – Schlussfolgerungen<br />

Abschließend kann festgestellt werden, dass die MM5-Läufe von systems<br />

research, IGAM und BOKU-Met trotz scheinbar gleichem Modellsetup unterschiedliche<br />

Resultate geliefert haben, was als nächster Schritt sicher einer<br />

Klärung bedarf.<br />

Als weiterer Punkt kann festgestellt werden, dass die ERA-40 Daten schon<br />

dermaßen gut die Realität wieder geben, dass eine Aussage über die nötige<br />

Domaingröße mit diesen Tests nicht möglich ist, da man bei kleinerer Domainwahl<br />

mit der treibenden Realität (ERA-40) näher am Evaluierungsgebiet<br />

ist und damit zwangsläufig die Resultate bei kleinerer Domainwahl besser<br />

werden. Zieht man nun daraus den Schluss, das die kleinstmögliche Domain,<br />

die besten Resultate liefert, so mag dies für ERA-40 Daten über Europa zutreffen,<br />

da sie fast das reale Wetter widerspiegeln. Betreibt man die Modelle<br />

später hingegen mit Klimaänderungs-Szenarien, so sollte das regionale Modell<br />

in der Lage sein, Phänomene wie beispielsweise die Tiefdruckentwicklung<br />

im Modellinneren ohne genaue Vorgaben von außen selbstständig zu simulieren.<br />

Mit den Parametersetup der Episode 2 ist dies noch nicht gelungen.<br />

6 Ausblick – weitere Schritte<br />

Um ein für Klimaanwendungen optimales Modellsetup zu finden ist aus unserer<br />

Sicht nun folgende Vorgehensweise sinnvoll:<br />

Zuerst gilt es die Ursachen des Unterschieds zwischen den Ergebnissen von<br />

systems research, BOKU-Met und IGAM zu klären und möglicherweise nach<br />

erfolgter Übereinstimmung des Setups einen neuerlichen Test zu rechnen, um<br />

zu sehen ob und wenn ja welcher Unterschied alleine Hardware-bedingt auftritt.<br />

Als weiterer Schritt, um die MM5- Ergebnisse konsistent zu machen, sollte die<br />

Niederschlagsdeakkumulierung vereinheitlicht werden, so dass die Werte bereits<br />

ab dem <strong>1.</strong> Zeitschritt der Evaluierungsperiode zur Verfügung stehen.<br />

Anhang 1 33<br />

Teilbericht 4


Für den Test mit der MM5-Aladindomain-Version muss man sich überlegen,<br />

wie man darin das Nest legt, da ja nur dieses in der feinen Auflösung von<br />

10 km gerechnet wird. Da die äußere Domain ja doch um einiges kleiner als<br />

die übrigen MM5-Domains ist, stellt sich die Frage, ob man dann das Nest<br />

nicht ähnlich groß wie die äußere Domain ansetzt, damit das Evaluierungsgebiet<br />

(siehe Abbildung 4) und damit der ehrliche Vergleich mit dem Aladin für<br />

großräumige Vergleiche nicht zu klein wird.<br />

Sind diese eher schnell zu entscheidenden Fragen geklärt, sollte ein geeigneter<br />

Test zur definitiven Entscheidung, welches Domainsetup, die besten Resultate<br />

liefert, erfolgen. Dieser könnte zum Beispiel so wie schon weiter oben<br />

beschrieben derartig aussehen, dass man das mesoskalige Modell mit einer<br />

ECMWF – Vorhersage verringerter Auflösung betreibt und dann anhand von<br />

Stationsdaten oder ERA-40 auswertet, welches Setup die besten Resultate<br />

liefert. Ob man für diesen Test Daten des ECMWF-Ensembles heranzieht und<br />

ob solche Daten leicht als MM5-Input aufbereitet werden können oder ob es<br />

noch andere leicht verfügbare brauchbare Daten gibt, soll mit allen Projektpartnern<br />

diskutiert werden.<br />

Ist die Domainlage und die Anzahl bzw. Lage der Niveaus des MM5-Modells<br />

entschieden, sollte als nächster Test ein Vergleich mit dem von Günther Zängl<br />

modifiziertem MM5 erfolgen. Dieser Vergleichstest kann gleichzeitig zum Austesten<br />

der Grenzschichtparametrisierung herangezogen werden und wird vom<br />

BOKU-Met durchgeführt.<br />

Um zu einer Final<strong>version</strong> des MM5-Setups für eine Klimamodellierung im Alpenraum<br />

zu gelangen, sind zahlreiche Testrechnungen mit unterschiedlichen<br />

physikalischen Parametrisierungen erforderlich. Aufgrund der vorgegebenen<br />

Termine sind bereits Episoden bekannt, an Hand deren Wetterverläufe die<br />

Tests zügig voran gehen sollten. Da sämtliche Tools zur Evaluierung bereits<br />

entwickelt wurden, bedarf es zur optimalen Auswertung noch des Schritts der<br />

Automatisierung. Aus diversesten Gründen ist es bisher noch nicht gelungen,<br />

Modellergebnisse, unmittelbar nachdem die Berechnungen abgeschlossen<br />

wurden, in geeigneter Weise für andere Projektpartner verfügbar zu machen<br />

und diese sofort über die Verfügbarkeit der Daten zu verständigen. Dieser<br />

Prozess bedarf zum einen einer stabilen Austauschplattform (FTP-Bereich),<br />

zum anderen einer klaren Definition welche Daten wer für wen bereitstellt.<br />

Beides sollte in einem kommenden Workshop diskutiert und fixiert werden.<br />

34 Anhang 1<br />

Teilbericht 4


Literatur<br />

Crescenti, G. H. (1997): A look back on two decades of Doppler sodar comparison<br />

studies. Bull. Amer. Meteor. Soc. 78(4), 651–673.<br />

Grell G.A., Dudhia J. and Stauffer D.R. (1994): A description of the fifth-generation<br />

Penn State/NCAR Mesoscale Model (MM5). NCAR technical note TN-398+STR, 122<br />

pp., National Center for Atmospheric Research, Boulder, CO, USA.<br />

Hanna, S. R. and R. J. Paine (1989): Hybrid Plume Dispersion Model (HPDM), development<br />

and evaluation. J. Appl. Meteorol. 28(2), 206–224.<br />

Kållberg, P., A. Simmons, S. Uppala and M. Fuentes:<br />

The ERA-40 archive. ERA-40 Project Report Series No. 17 September 2004<br />

Klug,W., G. Graziani, G. Grippa, D. Pierce, and C. Tassone (1992): Evaluation of<br />

Long Range Atmospheric Transport Models Using Environmental Radioactivity Data<br />

from the Chernobyl Accident: The ATMES Report. Elsevier Applied Science, London,<br />

366 pp.<br />

Mosca, S., R. Bianconi, R. Bellasio, G. Graziani, andW. Klug (1998a): ATMES II –<br />

Evaluation of long-range dispersion models using data of the 1st ETEX release. EUR<br />

17756 EN, Office for Official Publications of the European Communities, L-2985 Luxembourg,<br />

459 pp. + app.<br />

Mosca, S., G. Graziani, W. Klug, R. Bellasio, and R. Bianconi (1998b): A statistical<br />

methodology for the evaluation of long-range atmospheric dispersion models: an<br />

application to the ETEX exercise. Atmos. Environ. 32(24), 4307–4327.<br />

Sachs, L. (1992): Angewandte Statistik. Springer-Verlag, Berlin, 846 pp.<br />

Pichler, H. and R. Steinacker (1975): Zur Frage der Zyklogenese in den mittleren<br />

Breiten unter Ber¨ucksichtigung von freiwerdender Kondensationsw¨arme. Arch. Met.<br />

Geoph. Biokl. A24, 117–129.<br />

Steinacker, R., C. Häberli, W. Pöttschacher (2000): A Transparent Method for the<br />

Analysis and Quality Evaluation of Irregularly Distributed and Noisy Observational<br />

Data. Monthly Weather Review, 128, 2303-2316<br />

Stohl, A., M. Hittenberger, and G. Wotawa (1998): Validation of the Lagrangian particle<br />

dispersion model Flexpart against large-scale tracer experiment data. Atmos.<br />

Environ. 32(24), 4245–4264.<br />

Taylor, K. E. (2001): Summarizing multiple aspects of model performance in a single<br />

diagram. J. Geophys. Res. 106(D7), 7183–7192.<br />

Zängl, G. (2003): A generalized sigma coordinate system for the MM5, Mon. Wea.<br />

Rev., 131, 2875-2884.<br />

Zängl, G., L. Gantner, G. Hartjenstein, and H. Noppel (2004): Numerical errors above<br />

steep topography: A model intercomparison, Meteorol. Zeitschrift, 13, 69-76<br />

Anhang 1 35<br />

Teilbericht 4


BILDANHANG<br />

Im folgenden Bildanhang sind jeweils der Bias- und der Fisher skill score für<br />

die Parameter H850, H500 und Q700 dargestellt. Zuerst immer für die erste<br />

Episode (A001,A002, A003,A004,C001) und gleich anschließend für die<br />

2.Episode (A005, A006, A007, A008, C002, B005, D005, A000).<br />

36 Anhang 1<br />

Teilbericht 4


Anhang 1 37<br />

Teilbericht 4


38 Anhang 1<br />

Teilbericht 4


Anhang 1 39<br />

Teilbericht 4


40 Anhang 1<br />

Teilbericht 4


Die Vergleichsplots der einzelnen Läufe und Parameter zwischen ERA-40 und<br />

dem Modell finden sich aufgrund der Dateigröße am FTP Server von systems<br />

research.<br />

Anhang 1 41<br />

Teilbericht 4


Anhang 1<br />

Teilberichte der Projektpartner<br />

Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />

Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />

Alexander Beck und Bodo Ahrens:<br />

Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />

Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />

Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />

zu den regionalen Klimamodellen<br />

Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />

Validierung – Sensitivitätstests<br />

Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />

MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />

Mario Köstl, Wolfgang Loibl und Johann Züger:<br />

Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung


Institute for Geophysics, Astrophysics, and Meteorology<br />

Institute of Physics, University of Graz<br />

Atmospheric Remote Sensing and Climate System Research Group<br />

ARS CliSys – on the art of understanding the climate system<br />

reclip:more<br />

Research for Climate Protection:<br />

Model Run Evaluation<br />

Project Year 1<br />

reclip:more – IGAM Report #1,<br />

IGAM/UniGraz Technical Report for ARC No. 1/2004<br />

Working Report for Project Year 1: <strong>1.</strong>1<strong>1.</strong>2003 – 30.9.2004<br />

by<br />

Andreas Gobiet, Heimo Truhetz, and Gottfried Kirchengast<br />

Institute for Geophysics, Astrophysics and Meteorology (IGAM),<br />

Institute of Physics, University of Graz, Austria<br />

Version 2 – Nov 15, 2004<br />

Institute for Geophysics, Astrophysics, and Meteorology, University of Graz, Universitaetsplatz 5, A-8010 Graz, Austria<br />

ARSCliSys E-Mail: arsclisys.igam@uni-graz.at, Web: http://www.uni-graz.at/igam-arsclisys


Table of Content<br />

1 Project Summary ................................................................................................ 1<br />

2 reclip:more-IGAM Team Members .................................................................... 1<br />

3 Financial and Contractual Issues...................................................................... 1<br />

4 Major Outcome ................................................................................................... 2<br />

4.1 MM5 Modeling (WP MODEL)....................................................................... 2<br />

4.<strong>1.</strong>1 MM5 Setup ............................................................................................... 2<br />

4.<strong>1.</strong>2 ECHAM5 for Driving MM5 ........................................................................ 5<br />

4.<strong>1.</strong>3 ERA-40 for Driving MM5........................................................................... 8<br />

4.<strong>1.</strong>4 Effects of Different Hardware and Compilers.......................................... 11<br />

4.<strong>1.</strong>5 MM5 Multi-Processor Performance ........................................................ 15<br />

4.<strong>1.</strong>6 Summary and Conclusions..................................................................... 16<br />

4.2 Vertical Validation (WP VALVERT) ............................................................ 17<br />

4.2.1 Reference Dataset – CALRAS................................................................ 17<br />

4.2.2 Data Extraction ....................................................................................... 18<br />

4.2.3 Error-Statistics ........................................................................................ 19<br />

4.2.4 First Validation Results ........................................................................... 20<br />

4.2.5 Summary and Conclusions..................................................................... 23<br />

4.3 Wind Downscaling (WP WIND) .................................................................. 26<br />

4.3.1 Methodology ........................................................................................... 26<br />

4.3.2 Realization.............................................................................................. 27<br />

4.3.3 Validation................................................................................................ 31<br />

4.3.4 Related Publication................................................................................. 31<br />

4.3.5 Summary and Conclusion....................................................................... 32<br />

Acknowledgements................................................................................................ 34<br />

References .............................................................................................................. 34


1 Project Summary<br />

The 3-year project “Research for Climate Protection: Model Run Evaluation” (reclip:more)<br />

is a cooperation of five academic institutions in Austria (Austrian Research<br />

Centers Systems Research (ARC-sys), Department of Meteorology and Geophysics,<br />

Univ. of Vienna (IMG), Institute for Meteorology, Agricultural Univ. of Vienna (BOKU-<br />

Met), Central Institute for Meteorology and Geodynamics (ZAMG), and Inst. for Geophysics,<br />

Astrophysics, and Meteorology, Univ. of Graz (IGAM)) and is led by ARCsys.<br />

The major aim of the project is to evaluate the capability of dynamical and statistical<br />

downscaling methods in the Alpine region to create climate scenarios at<br />

mesoscale and microscale resolutions. Two regional circulation models (RCMs)<br />

ALADIN (Aire Limitée Adaptation dynamique Développement International, see<br />

http://www.cnrm.meteo.fr/aladin) and the PSU/NCAR mesoscale model MM5 [Dudhia<br />

et al., 2004] will be driven by ERA-40 reanalysis data [Simmons et al., 2000] and<br />

ECHAM5 [Roeckner et al., 2003] global circulation model (GCM) results, representing<br />

current (1981-1990) and future (2041-2050) climate to accomplish dynamical<br />

downscaling from the coarse GCM resolution (spectral truncation T106, i.e. ~120 km<br />

horizontal resolution) to 15 km. Further downscaling to 1 km resolution will be accomplished<br />

by various, mainly statistical, methods.<br />

In project year 1 (Nov. 2003 to Jun. 2004), the reclip-team focused on preparative<br />

work for 10-year RCM simulations, on sensitivity studies aiming at finding the optimal<br />

RCM-setup, and on the preparation of validation data and methods. In the framework<br />

of this project, the contribution of IGAM can be subdivided into three thematic areas<br />

or work packages (WP) as follows:<br />

- WP MODEL: Dynamical downscaling of retrospective and prospective of<br />

ECHAM5 global climate simulations using the MM5 mesoscale model (15 km<br />

target resolution).<br />

- WP VALVERT: Vertical validation of RCM-results using radiosonde data.<br />

- WP WIND: Downscaling of near-surface wind (200 m target resolution)<br />

-<br />

2 reclip:more-IGAM Team Members<br />

The core team of reclip-IGAM consists of:<br />

- Prof. Dr. Gottfried Kirchengast, project advisor.<br />

- Mag. Andreas Gobiet, project manager, work package manager (VALVERT).<br />

- Mag. Heimo Truhetz, work package manager (MODEL, WIND).<br />

3 Financial and Contractual Issues<br />

After several preparative meetings of the reclip:more team, starting Jul. 2003,<br />

IGAM submitted the reclip:more-IGAM project year 1 proposal on Oct. 22, 2003 to<br />

ARC-sys who accepted it on Nov. 3, 2003 (appointment 4570000148). IGAM received<br />

the first two rates according to the appointment by ARC-sys and will invoice<br />

the third and final rate for reclip:more-IGAM project year 1 as soon as this report is<br />

accepted by ARC-sys. As follow-up to relip:more-IGAM project year 1, IGAM has<br />

submitted a proposal for reclip:more-IGAM project year 2 in Sept. 2004 to ARC-sys.<br />

Anhang 1 1<br />

Teilbericht 5


4 Major Outcome<br />

This chapter contains the three major written deliverables of reclip-IGAM project<br />

year 1: The progress reports on WP MODEL (Sect. 4.1), WP VALVERT (Sect. 4.2),<br />

and WP WIND (Sect. 4.3).<br />

4.1 MM5 Modeling (WP MODEL)<br />

In project year 1 the main goals of WP MODEL was to provide MM5 test-datasets<br />

for wind downscaling and vertical validation methods (see Sect. 4.<strong>1.</strong>3), to select the<br />

best GCM driving dataset for the planned GCM-driven RCM runs, to build the interface<br />

between GCM-data and the MM5 pre-processors (see Sect. 4.<strong>1.</strong>2), and to prepare<br />

for the retrospective GCM-driven 10-year MM5 run planned for project year 2 in<br />

general. Additionally various tests concerning different hardware-platforms, compiler<br />

configurations, multi-processor efficiency, and domain settings were performed (see<br />

Sects. 4.<strong>1.</strong>5 and 4.2.4). All MM5-runs described in this report are performed in “climate-mode”,<br />

i.e., apart from initialization at starting time and boundary conditions<br />

delivered by a GCM (ECHAM5) or global analyses (ERA-40), MM5 is not constrained<br />

by any kind of background data during the entire model integration time.<br />

4.<strong>1.</strong>1 MM5 Setup<br />

Basic Setup<br />

In order to test the usability of ECHAM5 datasets as driving data for MM5 on one<br />

hand, and to produce MM5 test-datasets for internal usage (see Sect. 4.<strong>1.</strong>3) on the<br />

other hand, a preliminary spatial MM5 setup (originally proposed by H. Züger, ARCsys)<br />

was implemented. The setting consists of three nested domains coupled with<br />

heavily damped feedback from the smaller to the bigger domains. The horizontal grid<br />

spacing amounts 90 km, 30 km, and 10 km for domains 1, 2, and 3, respectively and<br />

25 vertical layers were used (see Tab. 4.2 and Fig. 4.1). An overview about the selected<br />

physical parameterizations is given in Table 4.<strong>1.</strong><br />

Figure 4.1: Basic setting for MM5 testing purposes: Three nested domains with 90 km, 30 km and<br />

10 km horizontal grid spacing, respectively.<br />

2 Anhang 1<br />

Teilbericht 5


Table 4.1: MM5 physical parameterization.<br />

Model <strong>version</strong> MM5 v3.6.3<br />

Cumulus scheme Kain-Fritsch 2 with shallow convection<br />

Planetary boundary layer scheme MRF<br />

Explicit moisture scheme Mixed phase (Reisner 1)<br />

Radiation scheme RRTM long wave<br />

Surface scheme NOAH-LSM with snow cover effects<br />

Table 4.2: MM5 basic spatial and temporal setup.<br />

Technical details.<br />

Domain 1 Domain 2 Domain 3<br />

Num. grid points Y 40 73 94<br />

Num. grid points X 70 106 139<br />

Grid distance [km] 90 30 10<br />

Num. layers 25 25 25<br />

Top layer [hPa] 10 10 10<br />

Time step [s] 270 90 30<br />

Nest type one-way two-way two-way<br />

Table 4.3: MM5 boku_1 spatial-temporal<br />

setup. Technical details.<br />

Domain 1 Domain 2<br />

Num. grid points Y 88 58<br />

Num. grid points X 110 82<br />

Grid distance [km] 45 15<br />

Num. layers 42 42<br />

Top layer [hPa] 50 50<br />

Time step [s] 135 45<br />

Nest type one-way two-way<br />

Setup for Comparison Purposes (boku_1)<br />

A setup proposed by BOKU-Met (“boku_1”) was implemented at IGAM and ARCsys<br />

to assure consistency between the two MM5 installations and the methods of<br />

ingesting ERA-40 driving data. It consists of two nested domains (45 km and 15 km<br />

horizontal resolution) coupled with moderate damped feedback from the smaller to<br />

the bigger domain (see Tab. 4.3 and Fig. 4.2). The physical parameterization used<br />

for MM5 runs in this setting is given in Table 4.1 (except shallow convection is turned<br />

off). In opposite to the original BOKU-Met setting with 29 layers IGAM introduced 42<br />

layers.<br />

Figure 4.2: MM5 boku_1 setting. Two nested domains with to 45 km and 15 km grid spacing, respectively.<br />

Anhang 1 3<br />

Teilbericht 5


Additional Setups (aladin, boku_1 reduced)<br />

Additionally, two MM5 domains were set up at IGAM to test the sensitivity of MM5<br />

results to domain sizes. The first setting mimics the spatial setup used by IMG for<br />

dynamically downscaling ERA-40 data with ALADIN (“aladin”, see Tab. 4.4, Fig. 4.3,<br />

and Beck et al. [2004]) and consists of two nested domains with 30 km and 10 km<br />

grid spacing, respectively.<br />

Figure 4.3: MM5 aladin setting. Two nested domains with to 30 km and 10 km grid spacing, respectively.<br />

Figure 4.4: MM5 boku_1 reduced setting. Two nested domains with to 45 km and 15 km grid spacing.<br />

4 Anhang 1<br />

Teilbericht 5


Table 4.4: MM5 aladin spatial-temporal setup.<br />

Technical details.<br />

Domain 1 Domain 2<br />

Num. grid points Y 83 79<br />

Num. grid points X 94 115<br />

Grid distance [km] 30 10<br />

Num. layers 42 42<br />

Top layer [hPa] 1 1<br />

Time step [s] 50 16.7<br />

Nest type one-way two-way<br />

Table 4.5: MM5 boku_1 reduced spatialtemporal<br />

setup. Technical details.<br />

Domain 1 Domain 2<br />

Num. grid points Y 50 58<br />

Num. grid points X 50 82<br />

Grid distance [km] 45 15<br />

Num. layers 42 42<br />

Top layer [hPa] 50 50<br />

Time step [s] 120 40<br />

Nest type one-way two-way<br />

The second additional setup is a reduced <strong>version</strong> of the original boku_1 setup<br />

comprising 50 x 50 instead of 88 x 110 grid points in domain1 (“boku_1 reduced”,<br />

see Tab. 4.5 and Fig. 4.4) and contains, consistent with the boku_1 setting, two<br />

nested domains with 45 km and 15 km horizontal resolution, respectively. The physical<br />

parameterization used for MM5 runs in both spatial settings is given in Table 4.1<br />

(with shallow convection turned on).<br />

4.<strong>1.</strong>2 ECHAM5 for Driving MM5<br />

Provision of GCM Driving Data<br />

After extensive discussions on the best GCM-data to drive the reclip:more RCM<br />

runs, the reclip-team decided on retrospective and prospective data from the new<br />

ECHAM5 GCM with a spectral truncation of T106 (corresponding to <strong>1.</strong>125° or<br />

~120 km horizontal grid spacing) and 31 vertical model levels (L31) as basis for the<br />

planned 10-year downscaling runs. On one hand this decision assures sufficient<br />

horizontal resolution for the nesting strategy planned by IMG (in contrast to the twonest<br />

strategy planned for MM5 involving a resolution jump of ~4, the ALADIN experiment<br />

will be performed using only one nest involving a large resolution jump of factor<br />

~10). On the other hand, reclip:more will benefit from the latest advancements in the<br />

ECHAM model formulation including, among others, better performance with high<br />

vertical resolution, a new advection scheme for positive definite model variables, an<br />

updated long-wave radiation scheme, and various enhancements in the modeling of<br />

land surface processes and land surface-atmosphere coupling [Roeckner et al.,<br />

2003].<br />

The reclip-retrospective period (1981-1990) will be covered by a time-slice experiment<br />

recently performed at the Institute for Atmospheric and Climate Science,<br />

ETH Zurich by M. Wild and P. Tschuck who model the 1960-1990 period with<br />

ECHAM5 (T106 L31) driven by observed sea surface temperatures (SST) and<br />

greenhouse gas concentrations.<br />

For the prospective reclip-period 2041-2050, IMG (Ahrens, Beck) could arrange<br />

cooperation with ETH Zurich to perform an IS92a [Leggett et al., 1992] scenario run<br />

at ETH. For this purpose, a past ECHAM4 T106 L19 experiment is repeated with<br />

ECHAM5 T106 L31 at ETH in late 2004 (B. Ahrens, A. Beck, P. Tschuck, pers.<br />

communication, 2004). IMG assists ETH preparing SST and sea-ice data and starting<br />

the simulation.<br />

Currently, a small ECHAM5 test-dataset from ETH is available at IGAM. This<br />

dataset was sufficient to test the interface between ECHAM5 and MM5 as described<br />

Anhang 1 5<br />

Teilbericht 5


in the following paragraphs. The transfer of the total retrospective GCM dataset<br />

(1981-1990) is initiated and is expected to be finished in Dec. 2004.<br />

The ECHAM5-MM5 Interface<br />

In order to set up all needed initial and boundary conditions for MM5 the following<br />

pre-processor modules are used in general:<br />

- TERRAIN re-projects and interpolates given global elevation and land use datasets<br />

as well as deep soil temperatures, soil categories, vegetation categories and<br />

vegetation fractions onto MM5’s domain settings.<br />

- REGRID reads archived gridded meteorological datasets (numerical weather prediction<br />

(NWP) analyses and forecasts or GCM results) on pressure levels and interpolates<br />

them from some native grid and map projection to the horizontal grid<br />

and map projection as defined by the MM5 pre-processor program TERRAIN.<br />

REGRID handles pressure-level and surface analyses. Two-dimensional interpolation<br />

is performed on these levels.<br />

- Finally, INTERPF serves as interface between the pre-processing modules and<br />

MM5 by performing vertical interpolation, diagnostic computation, and data reformatting.<br />

INTERPF takes REGRID output data as input to generate the models initial,<br />

lateral boundary conditions and the lower boundary conditions respectively.<br />

The original ECHAM5 output consists of several GRIB-formatted (edition 1) and<br />

netCDF-formatted files. The data are stored at 6-hour intervals within the Julian calendar<br />

(30 days per month, 360 days per year). Due to ECHAM5’s method to solve<br />

the partial differential equations the output does not contain any velocity components,<br />

but instead divergence and vorticity are given.<br />

In order to achieve compatibility between ECHAM5 output data and the MM5 preprocessor<br />

modules a data transformation tool has been designed performing several<br />

additional pre-processing tasks before REGRID is able to read the ECHAM5datasets<br />

successfully:<br />

- Transformation from ECHAM5’s model levels to pressure levels.<br />

- Derivation of Cartesian velocities from divergence and vorticity.<br />

- Con<strong>version</strong> of all spectral represented data into Gaussian or pure latitudelongitude<br />

grids.<br />

- Extraction of all needed variables from netCDF-Files and con<strong>version</strong> into GRIB<br />

format.<br />

- Transformation of physical units.<br />

These additionally pre-processing steps are preformed automatically by a<br />

script-based tool using the programs “afterburner” (available at<br />

http://www.mpimet.mpg.de/~afterburner/), “cdo” [Schulzweida, 2004] and “PINGO” [Wasz-<br />

6 Anhang 1<br />

Teilbericht 5


kewitz et al., 2001].<br />

REGRID identifies a certain variable within a GRIB-formatted file by its GRIBcode,<br />

its level-code and its levels themselves. Therefore REGRID uses special tables<br />

(VTable) to let the user connect variables with the codes. For the incorporation of<br />

ECHAM5 data, the VTable shown in Tab. 4.6 has been developed.<br />

Since MM5 uses the NOAH land surface model, special soil variables like sea surface<br />

temperature or skin temperature (SKINTEMP), sea ice concentration (SEAICE),<br />

the land sea mask (LANDSEA), geo-potential (GEOPT) or soil height and soil temperatures<br />

(SOILTxxx) and moistures (SOILMxxx) at multiple layers beneath the surface<br />

are needed (“xxx” denotes the layer’s depths beneath the surface in [cm]). Unfortunately<br />

ECHAM5 does not supply all of these variables. The soil moisture, e.g., is<br />

given as soil wetness, which is the complete water content of soil in [m] and no vertical<br />

distribution is available. Instead, the maximum field capacity of soil water [m] is<br />

given. In order to initialize the NOAH land surface model, the ratio between soil wetness<br />

and the field capacity are treated as volumetric soil moisture. They are left constant<br />

with the vertical layers. In consequence of this simplification, MM5-expriments<br />

should be started with some one-year spin-up time to lead to realistic soil moisture<br />

distributions (S. Hagemann, pers. communication, 2004).<br />

The available test-dataset also omits the sea ice concentration. This missing data<br />

is taken by MM5 as no sea ice at all, which leads to wrong roughness length and surface<br />

albedo over the oceans. Since sea ice is generally available in ECHAM5-datasets,<br />

this problem will be solved as soon as the total retrospective dataset is available<br />

from ETH Zuerich.<br />

Table 4.6: VTable for the ECHAM5-MM5 interface<br />

GRIB Level Level Level REGRID REGRID REGRID<br />

Code Code 1 2 Name Units Description<br />

156 100 * HGT gpm Geopotential Height<br />

130 100 * T K Air temperature<br />

131 100 * U m/s Horizontal wind-component U<br />

132 100 * V m/s Horizontal wind-component V<br />

133 100 * SPECHUMD kg/kg<br />

RH % Relative humidity<br />

129 1 0 GEOPT m2/s2 Surface geopotential<br />

134 1 0 PSFC Pa Surface pressure<br />

151 1 0 PMSL Pa Mean sea level pressure<br />

130 105 10 T K Temperature 2m agl<br />

131 105 10 U m s{-1} U at 10m agl<br />

132 105 10 V m s{-1} V at 10m agl<br />

141 1 0 WEASD kg/m2 Snow depth (water equiv.)<br />

169 1 0 SKINTEMP K Surface temperature<br />

210 1 0 SEAICE flag Sea Ice flag<br />

172 1 0 LANDSEA flag Land sea mask<br />

39 1 0 SOILM003 fraction Volumetric soil water layer 1<br />

40 1 0 SOILM019 fraction Volumetric soil water layer 2<br />

41 1 0 SOILM078 fraction Volumetric soil water layer 3<br />

42 1 0 SOILM268 fraction Volumetric soil water layer 4<br />

207 111 3 SOILT003 K Soil temperature level 1<br />

207 111 19 SOILT019 K Soil temperature level 2<br />

207 111 78 SOILT078 K Soil temperature level 3<br />

207 111 268 SOILT268 K Soil temperature level 4<br />

In Figure 4.5, the successful incorporation of ECHAM5 data into MM5 and, at the<br />

Anhang 1 7<br />

Teilbericht 5


same time, the first dynamically downscaled results are demonstrated.<br />

In the upper panel, the original ECHAM5 dataset is shown (grid spacing ~120 km),<br />

in the lower panel the MM5 results in the 3rd nest (see Sect. 4.<strong>1.</strong>1) after 18 hours<br />

integration time is depicted (grid spacing 10 km).<br />

Figure 4.5: Original ECHAM5 test dataset (upper panel, ~120 km horizontal resolution) and MM5 (basic<br />

setting; see Tab.4.2) in the 3 rd nest (lower panel, 10 km horizontal resolution) representing the Decmber<br />

1 1960, 18:00 UTC. Mean sea level pressure [hPa] (colored contours), temp at 2 m agl [°C] (bold contour<br />

lines) and wind at 10 m agl (light stream lines) is shown. The MM5 integration time was 18 hours.<br />

4.<strong>1.</strong>3 ERA-40 for Driving MM5<br />

In order to test the performance of software tools developed in the framework of<br />

WPs VALVERT and WIND (see Sects. 4.2 and 4.3) and to validate downscaling results<br />

against observation in general, realistic MM5 downscaling results are needed<br />

(i.e., modeled atmospheric fields comparable the “true” state of the atmosphere at a<br />

certain time). For this purpose the ECHAM5-driven MM5 test-dataset is not suitable<br />

since it cannot be expected that the driving climate model represents the weather at<br />

a certain date. Therefore it was necessary to perform an MM5-run driven by meteorological<br />

data. One of the best datasets for this purpose is provided by the new reanalysis<br />

project (ERA-40) of the European Centre for Medium-Range Weather Forecasts<br />

(ECMWF) [Simmons and Gibson, 2000]. We use this dataset in its full resolution<br />

on a regular latitude-longitude grid (<strong>1.</strong>125° x <strong>1.</strong>125° or ~120 km).<br />

Similar to ECHAM5 3-dimensional ERA-40 datasets are processed by “afterburner”<br />

to raise the vertical resolution of the needed data from 23 to 43 pressurelevels.<br />

Mathematical operations to correct units and to perform coordinate transformations<br />

from spherical harmonics to latitude-longitude grids as well as cutting out<br />

certain geographical regions to reduce the data-transfer are executed during dataretrieval<br />

from the Meteorological Archival and Retrieval System (MARS) and after the<br />

application of the afterburner at ECMWF. In cooperation with ARC-sys the following<br />

8 Anhang 1<br />

Teilbericht 5


VTable has been worked out (Tab. 4.7).<br />

The domain and parameterization settings for the creation of the test-dataset are<br />

described in Section 4.<strong>1.</strong><strong>1.</strong> Additionally, for WP WIND one additional nesting step is<br />

applied to enforce the grid resolution to 5 km within certain study areas (see Sect. 4.3<br />

for details). Using this setup, an 8-day MM5 run in the period of Sept. 18 – 25, 1999<br />

was performed. The resulting near-surface fields in the 3rd MM5-nest are shown in<br />

Figure 4.6.<br />

Table 4.7: VTable for the ERA-40 - MM5 interface<br />

GRIB Level Level Level REGRID REGRID REGRID<br />

Code Code 1 2 Name Units Description<br />

129 100 * GEOPT m2/s2<br />

HGT gpm Geopotential Height<br />

130 100 * T K Temperature<br />

157 100 * RH % Relative Humidity<br />

131 100 * U m s{-1} U<br />

132 100 * V m s{-1} V<br />

129 1 0 GEOPT m2/s2<br />

167 1 0 T K Temperature 2m agl<br />

168 1 0 DEWPT K Dew point temp. at 2m agl<br />

165 1 0 U m s{-1} U at 10m agl<br />

166 1 0 V m s{-1} V at 10m agl<br />

151 1 0 PMSL Pa Sea-level Pressure<br />

141 1 0 WEASD kg/m2 Snow depth (water equiv.)<br />

235 1 0 SKINTEMP K Sea Surface Temperature<br />

31 1 0 SEAICE 0/1 Flag Ice flag<br />

172 1 0 LANDSEA flag land sea mask<br />

39 112 0 7 SOILM007 fraction Volumetric soil water layer 1<br />

40 112 7 28 SOILM028 fraction Volumetric soil water layer 2<br />

41 112 28 100 SOILM100 fraction Volumetric soil water layer 3<br />

42 112 100 255 SOILM289 fraction Volumetric soil water layer 4<br />

139 112 0 7 SOILT007 K Soil temperature level 1<br />

170 112 7 28 SOILT028 K Soil temperature level 2<br />

183 112 28 100 SOILT100 K Soil temperature level 3<br />

236 112 100 255 SOILT289 K Soil temperature level 4<br />

Additionally, the period from Nov. 3. 1999, 00:00 UTC to Nov. 9. 1999, 00:00 UTC<br />

(“Episode 2”) was modeled by driving MM5 with ERA-40 in order to cross-validate<br />

ARC-sys’ and IGAM’s procedure to incorporate ERA-40 data and to get a first idea of<br />

data quality by validating the results against observational data (see Sect. 4.2). The<br />

domains and physical parameterizations were set as described in Sect. 4.<strong>1.</strong>1<br />

(boku_1, aladin, and boku_1 reduced domain setting) and the VTable described<br />

above (Tab. 4.7) were used. Resulting near-surface fields in the 2 nd MM5-nest of the<br />

boku_1-setting are depicted in Figure 4.7.<br />

Anhang 1 9<br />

Teilbericht 5


Figure 4.6: ERA-40 (upper panel, ~120 km grid spacing) and MM5 (basic setting; see Tab. 4.2, 3 rd<br />

nest, 10 km grid spacing, lower panel) representing Sept. 22. 1999, 00:00 UTC after 96 hours model<br />

integration. Mean sea level pressure [hPa] (colored contours), temperature at 2 m agl [°C] (bold contour<br />

lines) and wind at 10 m agl (light stream lines).<br />

Figure 4.7: Like Fig. 4.6, but for boku_1 setting (see Tab. 4.3) in the 2 nd nest (15 km horizontal grid<br />

spacing) and representing Nov. 5. 1999, 18:00 UTC, after 42 hours model integration.<br />

10 Anhang 1<br />

Teilbericht 5


4.<strong>1.</strong>4 Effects of Different Hardware and Compilers<br />

Since the reclip:more modeling-team consists of various departments and institutions<br />

using different hardware and compilers and since the representation of floatingpoint<br />

values and the results of floating-point operations depend on the hardware and<br />

on the utilization of it’s resources, the same MM5 setup can lead to different results<br />

depending on the hardware or compiler used. This, and the fact that MM5 handles<br />

non-linear differential equations, raises a fundamental question: Is it possible that two<br />

MM5 experiments conducted on tow different computer systems yield two completely<br />

different meteorological states, even if identical MM5-<strong>version</strong>s, parameterizations,<br />

and initial and boundary conditions were used?<br />

Treating this question in a comprehensive way is out of the scope of IGAM’s share<br />

in this project, but nevertheless, it is important to get a feeling about the quantity of<br />

the numerical effects addressed above to be able to interpret comparisons between<br />

different model-experiments later on. The first test addressing this question was a<br />

comparison of the usual “Storm of the Century”-case (SOC) as it included in the<br />

MM5-source code package for testing purposes. We used the PSU/UCAR-run (Alpha-DEC<br />

optimized compilation) as control experiment and compared it to results<br />

from 12-hour modeling experiments conducted on the IGAM-cluster (Athlon MP, Intel<br />

Fortran Compiler 7.1) using different compiler optimization switches. The deviations<br />

are evaluated via the normalized root mean square difference (NRMS, eq. 4.1) of<br />

temperature, pressure perturbation, and humidity (complete 3d-fields) and are depicted<br />

in Figure 4.8.<br />

N xyz<br />

∑<br />

i=<br />

1<br />

M<br />

2<br />

1 M 2 ( x − x ) [ % ]<br />

1<br />

NRMS = 100<br />

M 1 M 2 i i<br />

(4.1)<br />

N x x<br />

xyz<br />

N xyz Total amount of grid points within a 3-dimensional domain<br />

M1<br />

x Value at grid cell i from model 1<br />

i<br />

2 x Value at grid cell i from model 2<br />

M<br />

i<br />

M1<br />

x 3-dimensional average of model 1<br />

M 2 x 3-dimensional average of model 2<br />

The results depicted in Figure 4.8 show NRMSs of comparable size for all settings<br />

and that different model variables are affected differently. The NRMSs amount to<br />

~0.05 % for temperature, ~0.3 % for pressure perturbation, and ~3.5 % for specific<br />

humidity. For all further investigations compiler switches number 8 are used, mainly<br />

because these settings utilize IGAM’s hardware most efficiently.<br />

Anhang 1 11<br />

Teilbericht 5


Normalized Root Mean Square Diff. [%] (Press., Temp.)<br />

0.45<br />

0.40<br />

0.35<br />

0.30<br />

0.25<br />

0.20<br />

0.15<br />

0.10<br />

0.05<br />

0.00<br />

T_NRMS<br />

PP_NRMS<br />

Q_NRMS<br />

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20<br />

12 Anhang 1<br />

Teilbericht 5<br />

4.5<br />

4.0<br />

3.5<br />

3.0<br />

2.5<br />

2.0<br />

<strong>1.</strong>5<br />

<strong>1.</strong>0<br />

0.5<br />

0.0<br />

Normalized Root Mean Square Diff. [%] (Spec. Hum.)<br />

#Compiler switches<br />

1-O3 -w -tpp7 -mp -prec_div<br />

2-O3 -w -tpp7 -mp<br />

3-O3 -w -tpp7<br />

4-O2 -w -tpp7<br />

5-O3 -w -tpp6 -mp -prec_div<br />

6-O3 -w -tpp6 -mp<br />

7-O3 -w -tpp6<br />

8-O2 -w -tpp6<br />

9-O2 -w -tpp6 -unroll -prefetch<br />

10 -O3 -w -tpp6 -unroll -prefetch -mp -<br />

prec div<br />

11 -O2 -w -tpp6 -unroll -prefetch -mp -<br />

prec div<br />

12-O3 -w -tpp6 -unroll -prefetch -mp<br />

13 -O3 -w -tpp7 -unroll -prefetch -mp<br />

14 -O2 -w -unroll -prefetch -mp -<br />

prec div<br />

15-O2 -w -unroll -prefetch -mp<br />

16 -O2 -w -tpp6 -unroll -prefetch -xiM<br />

17-O2 -w -tpp6 -unroll -prefetch<br />

18-O2 -w -tpp6 -safe_cray_ptr<br />

19 -O2 -w -unroll -prefetch -mp -<br />

prec div<br />

20 -O2 -w -unroll -prefetch -mp1 -<br />

prec div<br />

Figure 4.8: Comparison of 3d atmospheric fields obtained from the identical MM5-experiments (SOCtest<br />

case, 12 hours) performed by PSU/UCAR (control run) and by IGAM (Athlon MP, Intel Fortran<br />

Compiler 7.1) using different compiler switches (cases 1 to 20). Normalized mean square differences<br />

of temperature (T, red), pressure perturbation (PP, green) and specific humidity (Q, blue).<br />

In a second test the parallel <strong>version</strong> of MM5 (multiple processes and distributed<br />

memory feature is accomplished by the implementation of the Message Passing Interface,<br />

MPI) is compared to the single CPU <strong>version</strong>. The aim of this test is, on one<br />

hand, to examine the quantity of numerical errors in a different setting and, on the<br />

other hand, to examine the evolution of numerical deviations in time when performing<br />

longer modeling experiments. Both runs are conducted on the IGAM Linux cluster<br />

and compiler-switches were selected as described above (no. 8 in Fig. 4.8). The domain<br />

settings are selected as described in Section 4.<strong>1.</strong>1 and the modeled period<br />

spans from Sept. 18 1999, 00:00 UTC to Sept. 26 1999, 00:00 UTC. The simulation<br />

with the MPI-<strong>version</strong> (6 CPUs) takes 7:51 hours, the single CPU-<strong>version</strong> 31:36 hours.<br />

The results (described in terms of NRMS, see Fig. 4.9) show that the differences<br />

are increasing within the first days, reaching their maximum values after 3 days and<br />

are bounded within an interval in the same order of magnitude as the temporal mean<br />

values shown in Figure 4.8. After an integration time of 3 days the differences vary<br />

around values consistent with the temporal means. The time evolution of NRMS and<br />

the consistency of the two experiments indicate that the total numerical error is<br />

bounded and can be roughly quantified to amount 0.05 %, 0.35 %, and 3 % for the 3dimensional<br />

fields of temperature, pressure perturbation, and humidity, respectively.


Nomralized Root Mean Square Diff. [%] (Press. Pert., Temp.)<br />

0.7<br />

0.6<br />

0.5<br />

0.4<br />

0.3<br />

0.2<br />

0.1<br />

0<br />

18.09 00:00<br />

Pressure Perturbation<br />

Temperature<br />

Spec. Humidity<br />

19.09 00:00<br />

20.09 00:00<br />

2<strong>1.</strong>09 00:00<br />

22.09 00:00<br />

Figure 4.9: Comparison of model results from MPI-<strong>version</strong> of MM5 against the single CPU-<strong>version</strong><br />

through the period from 1999.09.18 00:00 (UTC) to 1999.09.26 00:00 (UTC). Normalized Root Mean<br />

Square Difference [%] of the 3-dimensional temperature (T, red), pressure perturbation (PP, green)<br />

(primary ordinate) and specific humidity (Q, blue) (secondary ordinate) are shown.<br />

NRMS does not distinguish between random and systematic error. Systematic errors<br />

(biases) are of greatest importance since they can have essential impact on the<br />

climatological interpretation of long-term model runs. For this reason, a rough check<br />

whether numerical artifacts cause essential biases in the MM5-output data or not<br />

were performed by analyzing the relative differences of accumulated precipitation<br />

water at the end of the model period described above. The spatial mean of the relative<br />

differences (shown in Figure 4.10) amounts only to 0.053 % but the differences<br />

vary locally from –50 % up to 280 %. From the spatial distribution of the absolute accumulated<br />

precipitation water (Figure 4.11) it can be seen, that most high values of<br />

relative differences occur within areas of low absolute values, i.e., correspond to<br />

small absolute errors. However, some local features shown would be worth a closer<br />

examination.<br />

Anhang 1 13<br />

Teilbericht 5<br />

23.09 00:00<br />

24.09 00:00<br />

25.09 00:00<br />

26.09 00:00<br />

7<br />

6<br />

5<br />

4<br />

3<br />

2<br />

1<br />

0<br />

Normalized Root Mean Square Difference [%] (Spec. Hum.)


Figure 4.10: Relative difference [%] between MPI-<strong>version</strong> and single CPU-<strong>version</strong> of the accumulated<br />

precipitation water at the end of the period from 1999.09.18 00:00 (UTC) to 1999.09.26 00:00 (UTC).<br />

Figure 4.11: Absolute amount of accumulated precipitation water [cm] (MPI-<strong>version</strong>) at the end of the<br />

period from 1999.09.18 00:00 (UTC) to 1999.09.26 00:00 (UTC).<br />

14 Anhang 1<br />

Teilbericht 5


4.<strong>1.</strong>5 MM5 Multi-Processor Performance<br />

Another field of interest is the scalability of MM5 at the IGAM-cluster. The IGAMcluster<br />

consists of 8 nodes, each of them equipped with 2 Athlon 1900+ MP processors<br />

running at 1600 MHz and connected with Gigabit-network. In order to apply timing<br />

tests, the SOC-experiment is performed several times using varying numbers of<br />

CPUs ranging from single-CPU to 12-CPUs in parallel mode (Fig. 4.12).<br />

real clock time [s]<br />

450<br />

400<br />

350<br />

300<br />

250<br />

200<br />

150<br />

100<br />

50<br />

0<br />

real [s]<br />

ideal [s]<br />

load [%]<br />

0 2 4 6 CPUs [#] 8 10 12 14<br />

Figure 4.12: Average load [%] (blue squares) and real clock time [s] (red diamonds) with respect to<br />

the number of CPUs at the IGAM-cluster compared to an ideal network (dashed line). The vertical<br />

distribution results from different possibilities to set up the multi-CPU experiments.<br />

The real clock time (real duration of the SOC-experiment) decreases by adding<br />

more CPUs, but since the inter-processing communication increases with increasing<br />

number of CPUs the average load of one single CPU decreases. In consequence,<br />

the utilization of more than 8 CPUs hardly results in a gain of processing time. It is<br />

pointed out, that these results vary depending on the MM5 domain setting. The SOCcase<br />

has small memory consumption; therefore the inter-processing communication<br />

surpasses the numerical computations. In experiments using larger domains and<br />

more vertical layers resources are utilized more efficiently and it might make sense to<br />

use more than 8 CPUs. However, this performance test shows, consistent with comparable<br />

results of Renold et al. [2004] that multi-processor performance on a Linuxcluster<br />

is clearly limited by network speed and can not be in infinitely enhanced by<br />

adding more nodes. This implies that it pays to perform large simulations on supercomputer<br />

systems like ECMWF’s High Performance Computing Facility (HPCF) [e.g.,<br />

Storer et al., 2003].<br />

Anhang 1 15<br />

Teilbericht 5<br />

100%<br />

90%<br />

80%<br />

70%<br />

60%<br />

50%<br />

40%<br />

30%<br />

20%<br />

10%<br />

0%<br />

mean load per CPU [%]


4.<strong>1.</strong>6 Summary and Conclusions<br />

In preparation for the planned 10-year downscaling runs and for validation purposes<br />

IGAM prepared the interface to both driving data sets relevant in reclip:more:<br />

ECHAM5 GCM results and ERA-40 reanalysis. Various MM5 test runs driven by<br />

ERA-40 were performed and are available for validation against an analysis of observational<br />

surface data, the Vienna Enhanced Resolution Analysis (VERA)<br />

[Steinacker et al, 1997] by IMG, to the driving dataset ERA-40 by BOKU-Met, and<br />

radio soundings by IGAM (see Sect. 4.2). To ensure consistency, the same software<br />

tools from ARC-Sys (readv3_mm5p_vera, readv3_mm5_vera), BOKU-Met (readv3),<br />

and IGAM (ExtractMM5_v8) are used to extract data from MM5 output datasets delivered<br />

by the various groups.<br />

Concerning the provision GCM driving data (ECHAM5 T106 L31), a cooperation<br />

with ETH Zuerich has been established by IMG leading to a retrospective dataset<br />

(1981-1990) now available from ETH. The data transfer to IGAM is initiated and is<br />

expected to be finished in Dec. 2004. ECHAM5 driving data for the prospective reclip-period<br />

(2041-2050, scenario IS92a) is currently produced ETH, the model run is<br />

expected to be finished and available for transfer in late 2004.<br />

Various test concerning numeric MM5 errors has been performed at IGAM. The<br />

time evolution of these errors is bounded and can be roughly quantified to amount<br />

0.05 %, 0.35 %, and 3 % for the 3-dimensional fields of temperature, pressure perturbation,<br />

and humidity, respectively. No substantial biases were found for the spatial<br />

mean of accumulated precipitation but some local features would be worth a closer<br />

examination. The results from these tests provide only a first glimpse on the topic of<br />

numerical errors and are by no means comprehensive. Due to lack of resources and<br />

funding we could not perform quantitative and systematic studies. However, these<br />

results are important to establish basic confidence in the soft- and hardware used<br />

and show no strong indication for huge or unbounded numerical errors.<br />

Multi-processor performance test showed that the performance on a Linux-cluster<br />

is clearly limited by network speed and cannot be in infinitely enhanced by adding<br />

more nodes. This implies that it pays to perform large simulations on super-computer<br />

systems like ECMWF’s High Performance Computing Facility (HPCF). First test runs<br />

on HPCF showed that a 10-year run as planned for reclip:more can be accomplished<br />

within 10 – 20 days depending on the model setup. However, the huge amount of in-<br />

and output data still causes problems to be solved.<br />

16 Anhang 1<br />

Teilbericht 5


4.2 Vertical Validation (WP VALVERT)<br />

In order to be able to validate the vertical structure of atmospheric fields delivered<br />

by retrospective high-resolution RCM experiments, IGAM prepared a validation database<br />

and method. The method is based on radio soundings as reference dataset<br />

(Sect. 4.2.1), is focused on the free atmosphere, and operates on pressure levels. It<br />

includes automatic extraction of radiosonde and model data (Sect. 4.2.2) and the<br />

creation of error statistics and benchmarks (Sect. 4.2.3). For demonstration purposes<br />

and as preliminary validation, error statistics of first results from dynamically downscaling<br />

the ERA-40 global reanalysis with MM5 at IGAM (datasets described in<br />

Sect. 4.<strong>1.</strong>3) and ARC-sys, and with ALADIN at IMG are show in Section 4.2.4.<br />

4.2.1 Reference Dataset – CALRAS<br />

CALRAS [Häberli, 2003] is a comprehensive collection of radio-soundings in the<br />

Alpine region consisting of 47 stations as displayed in Figure 4.13. The primary<br />

source of the CALRAS dataset is the Meteorological Archival and Retrieval System<br />

(MARS) of ECMWF, but additionally data from various European weather services<br />

and the U.S. National Climatic Data Center (NCDC) are used. The captured period<br />

ranges from 1980 to 1999 though many stations don’t span the total period. Some<br />

highly relevant stations for reclip:more are listed in Table 4.8 and marked green in<br />

Fig. 4.13. Data from these stations (except stations marked with an asterisk in the<br />

table) served as reference dataset in a preliminary MM5 and ALADIN vertical validation<br />

study presented in Sect. 4.2.4 of this report.<br />

lyo<br />

nim<br />

nic<br />

ton<br />

nan stu<br />

sig<br />

alt<br />

pay<br />

Anhang 1 17<br />

Teilbericht 5<br />

cun<br />

mil<br />

spi<br />

kbk<br />

mun<br />

hpb<br />

ibk<br />

udi<br />

lin<br />

brn<br />

vie<br />

gra<br />

lju zag<br />

Figure 4.13: Map of the CALRAS radiosonde stations. Big blue square: Validation area (see Sect.<br />

4.2.4, latitude: 42.8°N – 49.7°N, longitude: 4.0°E – 18.5°E). Green diamonds: Stations inside the validation<br />

area that delivered data during the validation period (Nov. 3. – Nov. 8. 1999).


Table 4.8: CALRAS stations in the area between 42.8°N - 49.7°N and 4.0°E - 18.5°E. Stations marked<br />

with an asterisk (*) did not deliver data during the validation period (Nov. 3. – Nov. 8. 1999) used in Sect.<br />

4.2.4.<br />

CALR<br />

ID<br />

Name<br />

WMO<br />

ID<br />

Lat. Lon.<br />

alt ALTENSTADT 10954 47.83 10.87<br />

brn* BRNO/TURANY 11722 49.12 16.75<br />

cun CUNEO-LEVALDIGI 16113 44.53 7.62<br />

gra GRAZ-THALERHOF-FLUGHAFEN 11240 47.00 15.43<br />

hpb HOHENPEISSENBERG 10962 47.80 1<strong>1.</strong>02<br />

ibk INNSBRUCK-FLUGHAFEN 11120 47.27 1<strong>1.</strong>35<br />

kbk KUEMMERSBRUCK 10771 49.43 1<strong>1.</strong>90<br />

lin LINZ/HOERSCHING-FLUGHAFEN 11010 48.23 14.18<br />

lju LJUBLJANA/BEZIGRAD 14015 46.07 14.52<br />

lyo LYON-SATOLAS 07481 45.73 5.08<br />

mil MILANO/LINATE 16080 45.43 9.28<br />

mun MUENCHEN-OBERSCHLEISSHEIM 10868 48.25 1<strong>1.</strong>55<br />

nan NANCY-ESSEY 07180 48.68 6.22<br />

nic NICE 07690 43.65 7.20<br />

nim NIMES-COURBESSAC 07645 43.87 4.40<br />

pay PAYERNE 06610 46.82 6.95<br />

sig SIGMARINGEN 10828 48.10 9.25<br />

spi S. PIET. CAPO. MOLI. (BOLOGNA) 16144 44.65 1<strong>1.</strong>62<br />

stu STUTTGART/SCHNARRENBERG 10739 48.83 9.20<br />

ton* TOULON 07660 43.10 5.93<br />

udi UDINE/CAMPOFORMIDO 16044 46.03 13.18<br />

vie WIEN/HOHE WARTE 11035 48.25 16.37<br />

zag ZAGREB/MAKSIMIR 14240 45.82 16.03<br />

4.2.2 Data Extraction<br />

Barom.<br />

height Data availability<br />

[m asl]<br />

757 1995-1999<br />

246 1996-1999<br />

386 1999<br />

347 1982, 1986-1999<br />

986 1980-1982, 1984-1999<br />

584 1995-1999<br />

418 1981, 1982, 1994-1999<br />

313 1986-1999<br />

298 1996-1999<br />

240 1980-1999<br />

103 1980-1999<br />

489 1980-1999<br />

212 1980-1999<br />

27 1999<br />

62 1980-1999<br />

491 1980-1999<br />

646 1995-1999<br />

11 1986-1999<br />

315 1980-1999<br />

25 1992,1993<br />

94 1980-1999<br />

200 1980-1999<br />

128 1980-1991, 1992-1999<br />

A tool for the extraction of data from the raw CALRAS dataset has been developed<br />

that is capable to analyze user selected geographic regions and/or single stations,<br />

single time-slices (spatial means) or periods (temporal or spatial-temporal means)<br />

and the selective analysis of single synoptic hours. The program automatically extracts<br />

all soundings specified in an input file from the compressed CALARAS database<br />

as well as the corresponding profiles from MM5 output datasets. Model-data is<br />

extracted at the longitude and latitude of the radiosonde station via bilinear interpolation<br />

using the neighboring four grid points of the model. At present, the trajectory of<br />

the ascending sonde is approximated to be vertical, a approximation is regarded to<br />

be non-critical but could, under extreme conditions, result in artificial deviations between<br />

radiosonde and model data in the vertical validation procedure at high altitudes.<br />

E.g., a mean wind speed of 10 m/s would cause a horizontal displacement of<br />

the sonde of 16 km in 8 km altitude, which is in the order of one MM5 grid cell.<br />

According to the available observed atmospheric parameters, following parameters<br />

are extracted from the MM5 results (on pressure levels): Temperature T [K], relative<br />

humidity RH [%], dew point temperature Tdp [K], wind velocity (u- and vcomponents)<br />

[m/s], and geopotential height Z [gpm]. MM5 data is extracted on<br />

model-levels, interpolated to the WMO mandatory pressure levels 1 [WMO, 1995], and<br />

subsequently stored in CALRAS ASCII format [Häberli, 2003]. Additionally a list containing<br />

all necessary information to extract the corresponding profiles from ALADIN<br />

model output is created and an input-interface for reading these data is available.<br />

1<br />

WMO Mandatory pressure levels up to 10 hPa: 1000, 925, 850, 700, 500, 400, 300, 250, 200, 150, 100, 70, 50,<br />

30, 20, 10 [hPa].<br />

18 Anhang 1<br />

Teilbericht 5


4.2.3 Error-Statistics<br />

Table 4.9: Statistical parameters calculated for vertical validation of RCM data (“model”) on each pressure<br />

level. Reference data (“observation”): CLARAS. n denotes the number of data used for calculating<br />

the error statistics.<br />

Basic statistics<br />

Sample mean (observation) o<br />

Sample mean (model) m<br />

Sample variance (observation)<br />

Sample variance (model)<br />

Sample covariance om<br />

Mean difference (Bias) x d<br />

Variance of differences 2<br />

n<br />

x ∑ xoi<br />

n i=<br />

1<br />

Anhang 1 19<br />

Teilbericht 5<br />

1<br />

1<br />

x<br />

n<br />

∑ xmi<br />

n i=<br />

1<br />

2<br />

o<br />

n 1<br />

∑ n −1<br />

i=<br />

1<br />

2<br />

m<br />

n 1<br />

∑ n −1<br />

i=<br />

1<br />

s ( x − x )<br />

s ( x − x )<br />

1<br />

n<br />

∑ n −1<br />

i=<br />

1<br />

n 1<br />

∑ xdi<br />

n i=<br />

1<br />

s ( x − x )( x − x )<br />

2<br />

d<br />

oi<br />

mi<br />

oi<br />

x x − x<br />

( di = mi oi )<br />

n 1<br />

1<br />

xdi<br />

− xd<br />

∑ n − i=<br />

1<br />

s ( )<br />

Derived statistics and skill scores<br />

Mean square difference 4.2.3.<strong>1.</strong><strong>1.</strong><strong>1.</strong><strong>1.</strong><strong>1.</strong>1 MS<br />

1 n<br />

(<br />

Correlation r<br />

∑<br />

i=<br />

1<br />

n<br />

s<br />

s s<br />

Fisher’s skill score Sr 2(<br />

1−<br />

r )<br />

Bias skill score Sb<br />

Total skill score St<br />

o<br />

om<br />

m<br />

x<br />

di<br />

)<br />

2<br />

⎛ s<br />

⎜<br />

⎝ s<br />

1<br />

1+<br />

10 x<br />

S + S<br />

r<br />

2<br />

m<br />

o<br />

o<br />

o<br />

m<br />

2<br />

2<br />

2<br />

n −1<br />

= s<br />

n<br />

s<br />

+<br />

s<br />

( ) 2<br />

b<br />

d xo<br />

Basic statistical parameters and derived skill scores are calculated on each pressure<br />

level for each atmospheric parameter listed in Section 4.2.2. Table 4.9 lists all<br />

statistical parameters currently implemented; further parameters can easily be implemented<br />

according to user requests.<br />

2 2<br />

sd is the unbiased estimator for the variance of the model – observation differences and is related to the so called ‘bias corrected mean<br />

square error’ (<br />

2 2 n<br />

BC_MS = MS-x<br />

) by: s BC_MS<br />

d d = .<br />

n −1<br />

o<br />

m<br />

⎞<br />

⎟<br />

⎠<br />

−2<br />

mi<br />

2<br />

d<br />

+ x<br />

m<br />

2<br />

d


4.2.4 First Validation Results<br />

Figures 4.14 – 4.19 show preliminary vertical validation results of temperature.<br />

The statistics show spatial-temporal mean values including all stations inside the<br />

validation area defined in Sect. 4.2.<strong>1.</strong> In each Figure, the model- and radiosonde<br />

mean temperature profile (upper left panel), the standard deviation profile of model-<br />

and radiosonde temperatures (upper right panel), the number of data points used for<br />

calculation of statistics and the correlation between model and radiosonde temperatures<br />

(lower left panel), and the bias (model – observation) and standard deviation of<br />

differences is shown.<br />

Figures 4.14 and 4.15 show the results of MM5 runs performed by IGAM<br />

(Fig. 4.14) and ARC-sys (Fig. 4.15) using the boku_1 setting (see Sect. 4.<strong>1.</strong>1). Both<br />

groups operated MM5 in climate mode. The validation period (Nov. 3. – Nov. 8.<br />

1999) is divided into three two-day time slices to allow the interpretation of the temporal<br />

evolution of model errors. The results from both groups show qualitatively the<br />

same characteristics, especially in the first two days (left panels) when MM5 is near<br />

its initial state. This demonstrates that both independent implementations of ingesting<br />

initialization and driving data from ERA-40 are consistent.<br />

The middle panels (days 3 and 4 of the simulation) show growing differences regarding<br />

variance of data and errors (~5 K) but the bias remains near zero. In the last<br />

two-day slice (days 6 and 7) MM5 apparently looses track, the model-observation<br />

correlation drops below 0.5 and huge standard deviations (~25 K and above) occur.<br />

Interestingly, the temperature bias still stays near zero.<br />

Since MM5 is apparently not able to follow the large-scale synoptic state of the<br />

atmosphere in the test-period using the boku_1 setting, we repeated the simulation<br />

using smaller domains to constrain the RCM tighter to driving data. The results of<br />

these simulations are shown in Figure 4.16 (aladin setting, see Sect. 4.<strong>1.</strong>1) and 4.17<br />

(boku_1 reduced setting, see Sect. 4.<strong>1.</strong>1). The results are generally much closer to<br />

the reference dataset, but still days 5 and 6 of the model period (right panels) show<br />

substantial errors.<br />

In Figure 4.18 the results of the corresponding ALADIN experiment performed by<br />

IMG is shown. In contrary to all MM5 runs presented in this report, ALADIN is operated<br />

in forecast-mode by daily initializing the RCM with ERA-40 data at 0 UT (‘direct<br />

mode’ as described by Beck et al. [2004]). Only the noon synoptic hour (12 UT) was<br />

validated since in this case the model state at the other main synoptic hour (0 UT)<br />

simply represents the driving data (ERA-40) interpolated to the ALADIN grid. The<br />

results show a very close agreement with observational data according to all aspects<br />

of the error statistics.<br />

In order to directly compare MM5 to ALADIN results both models have to be operated<br />

in the same mode (climate or forecast). Such a comparison has not been conducted<br />

yet but the results 12 hours after the model start (Nov. 3., 1999, 12 UT) can<br />

be taken as a first indication on how the direct comparison in forecast-mode will look<br />

like. The Nov. 3., 12 UT validation results are depicted in Fig. 4.19, the left panel<br />

showing ALADIN-IMG results and the middle and right panels showing the MM5-<br />

IGAM results using the boku_1 reduced and aladin domain settings, respectively.<br />

20 Anhang 1<br />

Teilbericht 5


All three simulations agree very closely according to all respects of the error statistics<br />

showing a correlation with the observed temperatures between 0.9 and 1 (except for<br />

the 250 hPa level where the variance of the data drops to near-zero), biases below<br />

2 K and error standard deviations in the order of the bias.<br />

Figure 4.14: Temperature error statistics profiles of MM5-IGAM in climate mode relative to radiosonde<br />

data from CALRAS (all available stations). Domain setup: boku_1, domain 2 (see Table 4.3). Left<br />

panel: Nov. 3 – Nov. 4 1999, middle panel: Nov. 5 – Nov. 6 1999, right panel: Nov. 7 – Nov. 8 1999.<br />

Figure 4.15: Temperature error statistics profiles of MM5-ARC-sys in climate mode relative to radiosonde<br />

data from CALRAS (all available stations). Domain setup: boku_1, domain 2 (setup similar to<br />

Table 4.3, but only 29 vertical layers). Left panel: Nov. 3 – Nov. 4 1999 (spin up time), middle panel:<br />

Nov. 5 – Nov. 6 1999, right panel: Nov. 7 – Nov. 8 1999.<br />

Anhang 1 21<br />

Teilbericht 5


Figure 4.16: Temperature error statistics profiles of MM5-IGAM in climate mode relative to radiosonde<br />

data from CALRAS (all stations, see Tab. 4.8), Domain setup: aladin domain 2 (see Table 4.4). Left<br />

panel: Nov. 3 – Nov. 4 1999, middle panel: Nov. 5 – Nov. 6 1999, right panel: Nov. 7 – Nov. 8 1999.<br />

Figure 4.17: Temperature error statistics profiles of MM5-IGAM in climate mode, relative to radiosonde<br />

data from CALRAS (all stations, see Tab. 4.8), Domain setup: boku_1 reduced domain 2<br />

(see Table 4.5). Left panel: Nov. 3 – Nov. 4 1999, middle panel: Nov. 5 – Nov. 6 1999, right panel:<br />

Nov. 7 – Nov. 8 1999.<br />

22 Anhang 1<br />

Teilbericht 5


Figure 4.18: Temperature error statistics profiles of ALADIN-IMG in forecast-mode (“direct mode” as<br />

described by Beck et al. [2004]) relative to radiosonde data from CALRAS (all stations, see Tab. 4.8).<br />

Left panel: Nov. 3 – Nov. 4 1999, middle panel: Nov. 5 – Nov. 6 1999, right panel: Nov. 7 – Nov. 8<br />

1999.<br />

Figure 4.19: Temperature error statistic profiles of ALADIN-IMG in forecast mode and MM5-IGAM in<br />

climate mode relative to radiosonde data from CALRAS (all stations, see Tab. 4.8). Only data from<br />

Nov. 3, 12 UT (12 hours after initialization) are shown. Left panel: ALADIN-IMG, middle panel: MM5-<br />

IGAM aladin domain 2 (see Tab. 4.4), right panel: MM5-IGAM, boku_1 reduced domain 2 (see<br />

Tab. 4.5).<br />

4.2.5 Summary and Conclusions<br />

A tool for validating the vertical structure of RCM results with respect to radio<br />

soundings has been demonstrated. The validation procedure is operating on pressure-levels<br />

and it is well suited for the free atmosphere where direct influence of the<br />

surface is negligible. In the planetary boundary layer (PBL) where the influence of the<br />

surface is essential, comparisons based on pressure levels have to be interpreted<br />

with care. The “meters above ground level”-scale (magl) might be the better choice<br />

very close to the ground but it is difficult to reliably define the transition-zone (top of<br />

the PBL) above where the magl-scale would artificially introduce biases into the error<br />

statistics due to the differences between the smoother digital elevation model (DEM)<br />

Anhang 1 23<br />

Teilbericht 5


used by the models and the real-world surface elevation. Furthermore the magl-scale<br />

does not resolve the main problem in the interpretation of near-surface model versus<br />

observation comparison, the missing indirect effects of sub-scale surface features.<br />

Despite of these difficulties, an additional validation product focusing on the PBL and<br />

regarding the distance from the surface is planned to be implemented during reclip:more<br />

project year 2 for selected radiosonde sites.<br />

Figure 4.20: 500 hPa temperature in the validation area after 120 hours model integration time (Nov.<br />

8. 1999, 0:00 UT). Upper panel: driving data (ERA-40), middle panel: MM5-IGAM with boku_1 setting,<br />

lower panel: MM5-IGAM with boku_1 reduced setting.<br />

24 Anhang 1<br />

Teilbericht 5


Preliminary results from the vertical validation scheme using temperatures demonstrate<br />

that the MM5 implementations (including ERA-40 data ingestion) at IGAM and<br />

ARC-sys work consistently but that MM5 in climate mode, especially when operating<br />

in big domains, is “running away” from the synoptic state of the atmosphere after 4 –<br />

5 days model integration time. This is also demonstrated in Fig. 4.20 showing the<br />

500 hPa temperatures after 5 days MM5 integration time (Nov. 8. 1999, 0:00 UT).<br />

The bulk large-scale features of the ERA-40 driving data set (upper panel) are lost<br />

when using the boku_1 setting while a smaller setting (boku_1 reduced, lower panel)<br />

enables MM5 to keep the large-scale features partially intact but still yields unsatisfactory<br />

results. However, the deviations are mainly visible in the spatial/temporal correlations<br />

and error standard deviations but not in area-means. The mean temperature<br />

over the entire validation area is virtually unbiased for all settings (see<br />

Figs. 3.14 – 3.17).<br />

Results from ALADIN operated by IMG in forecast mode (daily re-initialization)<br />

show a very good agreement with observational data (Fig. 4.18) but cannot be directly<br />

compared to the MM5 simulations operated in climate mode. However, comparisons<br />

of the ALADIN-IMG and MM5-IGAM temperatures after 12 hours integration<br />

time are comparable and indicate roughly similar quality of temperatures in the free<br />

atmosphere (Fig. 4.19).<br />

These preliminary results show that both, domain setting strategy, and RCM operation<br />

mode (climate, grid-nudging, 3DVar, forecast,...) should be carefully reconsidered.<br />

More tests, especially regarding the operation mode are recommended. Additional<br />

test (not presented in detail in this report) showed that the optimization of<br />

other important factors like physical parameterization, nesting feedback, vertical<br />

resolution and extent is, regarding the quantity of the present uncertainties, of secondary<br />

relevance and should be deferred.<br />

We refrain from further interpreting the results since they are very preliminary and<br />

not yet combined with validation relative to ground station data and hope that the<br />

new possibility to quickly evaluate MM5 and ALADIN results against radiosonde-data<br />

will aid the sensitivity studies currently going on at BOKU-Met and ARC-sys.<br />

Anhang 1 25<br />

Teilbericht 5


4.3 Wind Downscaling (WP WIND)<br />

4.3.1 Methodology<br />

In order to approximate near surface wind at a final resolution of 200 m a combined<br />

application of prognostic and diagnostic models will be performed within three<br />

study areas (Lower Austria, South-East Styrian, and Hohe Tauern regions). The<br />

downscaling process consists of two main steps (see Fig. 4.21 for a structure chart of<br />

the wind-downscaling process):<br />

Figure 4.21: Structure chart of the wind-downscaling process. Mesoscale model results at ~15 m spatial<br />

resolution are downscaled to 200 m resolution with respect to near surface wind. Needed input<br />

data are listed.<br />

Starting from the reclip:more ‘standard resolution’ of 15 km after dynamic downscaling,<br />

another dynamic downscaling step is added to prepare initial conditions for<br />

the actual wind downscaling at 5 km resolution using MM5 in one-way nesting mode.<br />

26 Anhang 1<br />

Teilbericht 5


The second step is carried out by a modified <strong>version</strong> of the micro-scale model<br />

CALMET [Scire et al., 1999]. It computes a three dimensional divergence-free wind<br />

field in a diagnostic manner for each single time-slice stored in the MM5 output files<br />

at a resolution of 200 m. Therefore, it is very important to use MM5 results at a high<br />

time resolution (e.g. 1 hour) in order to perform statistical analysis afterwards.<br />

Compared to dynamic downscaling, this procedure is time saving but still provides<br />

a more sophisticated way to approximate the stratification of the atmosphere than<br />

pure statistical downscaling methods. Depending on user-defined configurations,<br />

CALMET can account for kinematical terrain-effects, slope flows, and thermodynamic<br />

blocking-effects. To set up the lower boundary conditions a high resolution elevation<br />

model and physio-geographic data (external parameters), such as roughness length,<br />

surface albedo, Bowen ratio (ratio between sensible heat flux and latent heat flux)<br />

and surface heat flux parameter (ratio between heat flux into the ground and net incoming<br />

radiation) are needed at the final resolution (200 m, see sect. 4.3.2).<br />

4.3.2 Realization<br />

Domain Settings, MM5 Setup<br />

While the sensitivity studies regarding the optimal MM5 setup are left unfinished,<br />

MM5-test data as well as the domain and parameterizations settings from WP<br />

MODEL (Sect. 4.1) are used for testing purposes. The exact domain settings of additional<br />

nests (the ‘study areas’ Lower Austria, Styria, and Hohe Tauern) are not yet<br />

exactly defined for reclip:more and have been set up preliminary for testing purposes<br />

(see Fig. 4.22 and Tab. 4.10). At the current stage, the wind-downscaling is operational<br />

within Hohe Tauern region (domain 4) only.<br />

Table 4.10: MM5 basic spatio- temporal setup for wind downscaling test-runs<br />

Domain 3 Domain 4 Domain 5 Domain 6 CALMET<br />

Num. grid points Y 94 41 41 41 348<br />

Num. grid points X 193 41 41 41 700<br />

Grid distance [km] 10 5 5 5 0.2<br />

Num. Layers 25 35 35 35 20<br />

time step [s] 30 20 20 20 -<br />

Nest type two-way one-way one-way one-way -<br />

Anhang 1 27<br />

Teilbericht 5


Figure 4.22: Preliminary domain settings for the reclip:more study areas: Hohe Tauern (green), Styria<br />

(yellow), and Lower Austria (gray). The red area marks the working domain of CALMET. The encompassing<br />

blue region represents domain 3 from the preliminary setting (see chapter 4.1).<br />

Provision of elevation and physio-geographical data<br />

For high resolution downscaling of wind a digital elevation model (DEM) and several<br />

external parameters are needed at a spatial resolution of 200 m. The major part<br />

of the elevation model used here was computed from the Shuttle Radar Topography<br />

Mission (SRTM) [Rabus et al., 2004] that is available at 3 arc seconds, tiled into<br />

1 x 1° pieces. These pieces were patched together by ARC-sys to obtain the DEM for<br />

MM5 domain 3 at high resolution. Unfortunately, the data turned out to have gaps<br />

and is shifted about 80 m towards West. The west-shift could be corrected manually,<br />

but additional elevation models and statistical methods were necessary to fill data<br />

gaps. A regularized spline interpolation method [Mitasova, 1993] combined with other<br />

DEMs for adding sampling points (SRTM at 30 arc seconds and a DEM at 250 m<br />

resolution provided by ARC-sys) were applied. Finally the elevation data set was resampled,<br />

smoothed to 200 m resolution, and projected to CALMET’s coordinate system<br />

(Lambert Conformal Conic). Figure 4.23 shows the raw SRTM/3’’ data compared<br />

to the corrected DEM finally used for wind downscaling. The spline interpolation<br />

method is very successful in most regions but a smoothed elevation model in regions<br />

with large data gaps cannot be avoided.<br />

28 Anhang 1<br />

Teilbericht 5


Figure 4.23: Comparison of original and interpolated SRTM data at 3 arc seconds resolution. The<br />

shown region represents the Inn valley between Innsbruck (west) and Schwaz (east). The Karwendel<br />

is heavily affected by missing gaps (white areas).<br />

To obtain the physio-geographic external parameters such as roughness length,<br />

surface albedo, Bowen ratio (ratio between sensible heat flux and latent heat flux)<br />

and surface heat flux parameter (ratio between heat flux into the ground and net incoming<br />

radiation), a combination of the CORINE land cover dataset CLC90 [EEA,<br />

1995], <strong>version</strong> 12/2000, (available at 250 m resolution, resampling to 200 m was performed<br />

by ARC-sys) and literature data [Hagemann, 2002; Pineda et al., 2004] were<br />

used. The physio-geographic data from literature were statically linked to CORINE<br />

land cover data. However, in a later <strong>version</strong> of our wind downscaling tool, we plan to<br />

refine the provision of external parameters by approximating them directly from the<br />

driving mesoscale model to achieve both, more sophisticated results and a consistent<br />

model chain on all scales involved.<br />

Modifications to CALMET<br />

CALMET usually works on Mircosoft® Windows systems and the code had to be<br />

exported to UNIX/Linux for reclip:more to be able to use the available computing resources.<br />

At the same time, a bug (index overflow) was corrected. Since surface albedo<br />

is mainly affected by the snow cover, a trigger was implemented into CALMET<br />

to adjust the albedo in a similar way as it done in the simple land surface scheme of<br />

MM5: If snow cover exists the albedo is raised by 50 %. Concerning the kinematical<br />

Anhang 1 29<br />

Teilbericht 5


effects, the tuning option was modified to allow for a seamless adjustment between 0<br />

and 100 %. Since air density is an important variable in some applications of wind<br />

downscaling such as wind turbines, a 3-dimensional pressure field was introduced in<br />

addition to the existing variables to allow a comprehensive calculation of air density.<br />

Test Runs<br />

For testing purposes several time slices from the ERA-40 driven MM5-test datasets<br />

from WP MODEL (see Sect. 4.1) were successfully downscaled to the final resolution<br />

of 200 m. The CALMET computation time for the area shown in Fig. 4.23 is<br />

about 188 seconds per time-slice, the size of the output-file amounts about 110 MB if<br />

all variables are stored. One exemplary downscaling result is shown in Figure 4.24.<br />

The 10 m wind field in 5 km (upper panel) and 200 m (lower panel) grid spacing over<br />

“Großglockner” shows that during night (3:00 UTC) stream flows are mainly controlled<br />

by kinematical effects.<br />

Figure 4.24: Comparison between the intermediate MM5 result (5 km grid spacing) and CALMET<br />

(200 m grid spacing) representing the 18. September 1999 at 03:00 (UTC) over the Großglockner.<br />

Near surface wind at 10 magl [m/s] (stream lines) and the digital elevation model (contour lines) are<br />

shown.<br />

30 Anhang 1<br />

Teilbericht 5


Visualization and Statistical Analysis Tools<br />

In order to be able to use the freely available Grid Analysis and Display System<br />

(GrADS) [Doty and Kinter, 1992] <strong>version</strong> <strong>1.</strong>8s11 for visualization purposes, functions<br />

to convert CALMET-results to GrADS-formatted files were developed. One example<br />

for CALMET-results displayed with GrADS is shown in figure 4.23.<br />

In addition to simply displaying the results in maps, it is necessary to quantify<br />

properties of the wind-field. For this purpose, programs to perform 3-dimensional statistical<br />

analysis according to mean wind speed, main wind direction, speed of main<br />

direction, maximum wind speed, direction of maximum speed, etc. have been developed<br />

and are ready to use.<br />

4.3.3 Validation<br />

Since the sensitivity analysis aiming at finding the optimal MM5 setup is left unfinished,<br />

the validation and the optimization of the parameterization settings of the microscale<br />

model are addressed to project year 2 and only a short overview and outlook<br />

is given here. The method is currently under evaluation using the MM5 test<br />

dataset from WP MODEL. Since this dataset was produced using a preliminary MM5<br />

setup it is used to check technical performance and the basic functionality of the wind<br />

downscaling system only. In a second step, MM5-will be rerun using optimized operation<br />

mode and domain and parameterization settings (see Sect. 4.2.5). Wind statistics<br />

and vertical profiles will be extracted from CALMET-results and compared<br />

against observational data recorded during the Mesoscale Alpine Programme (MAP)<br />

[Bougeault et al., 2001]. Exposed surface observations surrounded by homogeneous<br />

land use types and SODAR observations will be first checked against icing and<br />

calms then compared to the modeled data using Kolmogorov-Smirnov and Kuiper<br />

tests [Fisher, 1995; Press et al., 1992].<br />

4.3.4 Related Publication<br />

The European Environmental Agency (EEA) is planning a high-level launch event<br />

for CORINE Land Cover, <strong>version</strong> 2000, in November 2004 in Brussels. In order to<br />

support this event, the EEA and the Joint Research Centre (JRC) will collaborate on<br />

a joint publication, which should serve as future reference for the project. At this occasion<br />

the EEA will present a brochure with CORINE applications and invited H. Truhetz<br />

(IGAM) for joining the brochure with a description of CORINE’s application concerning<br />

the wind-downscaling method. In answer to this invitation the following paper<br />

has been submitted on June 28 th , 2004:<br />

Downscaling of Near Surface Wind in the Alpine Region<br />

Heimo Truhetz 1 , Andreas Gobiet 1 , Wolfgang Loibl 2 , and Gottfried Kirchengast 1<br />

1 Institute for Geophysics, Astrophysics, and Meteorology (IGAM), University of Graz, Austria<br />

2 Austrian Research Centers (ARC) Systems Research GmbH, Austria<br />

Anhang 1 31<br />

Teilbericht 5


4.3.5 Summary and Conclusion<br />

A combined downscaling procedure, consisting of a dynamical downscaling step<br />

with MM5 and the microscale diagnostic model CALMET, was introduced and its<br />

primary functionality was successfully demonstrated. The needed digital elevation<br />

model has been generated from SRTM 3 and SRTM 30 arc seconds data by applying<br />

spline interpolation methods to fill in missing gaps. The external parameters concerning<br />

the lower boundary conditions were derived from CORINE land use data by<br />

statically linking the land use classes to conventional data taken from literature.<br />

Proper software-tools for statistical analysis and visualization of the resulting datasets<br />

were developed.<br />

Regarding future work, the following developments are planned. Since funding for<br />

the wind downscaling work at IGAM is only partly available via reclip:more, it depends<br />

on possible co-funding from other projects whether all or only parts of these<br />

developments can be realized.<br />

- As it is shown in the structure chart, MM5 results are currently passed through a<br />

module called CALMM5. To avoid this intermediate step, CALMM5 should be implemented<br />

into CALMET.<br />

- The vertical interpolation between sigma levels (MM5) and height above ground<br />

(CALMET) should be updated according to state of the art interpolation schemes<br />

as they are used within MM5.<br />

- The vertical wind components from the MM5 datasets should be considered by<br />

CALMET’s initialization step.<br />

- Surface heat and momentum fluxes are computed from energy budget model and<br />

Monin-Obukhov similarity theory through iteration. The external parameters are<br />

treated as first guess conditions and are kept constant during the whole downscaling<br />

process. The involved parameters and their dependency from snow cover<br />

should be derived from the driving MM5 datasets.<br />

- Surface roughness should be updated due to biological impacts (e.g. seasonal leaf<br />

area index), topographical impacts from sub-grid variability of terrain elevation and<br />

snow cover.<br />

- Currently the application of Monin-Obukhov similarity theory does not recognize<br />

displacement heights. This circumstance leads to a miss-representation of airflow<br />

over forests and other land use categories with high obstacles.<br />

- To determine snow cover effects a proper downscaling method for snow from<br />

ZAMG and/or ARC-sys should be implemented.<br />

- More sophisticated methods (e.g. four-point method) to calculate derivatives of 1st<br />

order within CALMET’s divergence minimization scheme should be applied to<br />

avoid numerical miss-interpretations.<br />

- Statistical tests concerning turbulence should be added to the 3-dimensional<br />

analysis procedures.<br />

32 Anhang 1<br />

Teilbericht 5


- To avoid huge storage demands in the face of long-term model runs CALMET’s<br />

save-routines should be replaced with the statistical analysis procedures.<br />

- Since wind gusts are poorly produced by mesoscale models a suggested postprocessing<br />

algorithm (Goyette et al, 2003) should be implemented.<br />

Anhang 1 33<br />

Teilbericht 5


Acknowledgements<br />

The authors gratefully acknowledge IMG, University of Vienna, especially A. Beck<br />

and B. Ahrens, for their activities regarding the provision of ECHAM5 driving data.<br />

We thank, for fruitful scientific discussions, all partners from all reclip:more teams.<br />

We also thank ARC-sys, especially W. Loibl, for his commitment to the difficult task of<br />

coordinating the different groups involved. H.T. received financial support for this<br />

work from the reclip:more project funded by the K-wiss program of the ARC Holding.<br />

A.G. received partial support from the START research award of G.K. funded by the<br />

Austrian Ministry for Education, Science, and Culture and managed under Program<br />

No. Y103-N03 of the Austrian Science Fund (FWF).<br />

References<br />

Beck, A., B. Ahrens, and K. Stadlbacher (2004): Impact of nesting strategies in dynamical<br />

downscaling of reanalysis data. Geophys. Res. Lett., 31, L19101, doi:10.1029/2004<br />

GL020115.<br />

Bougeault, P., P. Binder, A. Buzzi, R. Dirks, R. Houze, J. Kuettner, R.B. Smith, R.<br />

Steinacker, and H. Volkert (2001): The MAP Special Observing Period, Bull. Amer. Meteor.<br />

Soc., 83, 3, 433-462.<br />

Doty, B., J.L. Kinter III (1992): The Grid Analysis and Display System (GrADS): A practical<br />

tool for earch science visualization, paper presented at 8th International Conference on Interactive<br />

Information and Procession Systems, 5-10 January, Atlanta.<br />

Dudhia, J., D. Gill, K. Manning, W. Wang, and C. Bruyere (2004): PSU/NCAR Mesoscale<br />

Modeling System Tutorial Class Notes and User’s Guide: MM5 Modeling System Version 3,<br />

Software Manual, Mesoscale and Microscale Meteorology Division of the National Center<br />

for Atmospheric Research, Boulder.<br />

EEA (1995): CORINE Land Cover, European Environmental Agency Report, Commission of<br />

the European Communities OPOCE (Office for official publications of the European Communities),<br />

Luxembourg.<br />

Eidenshink, J.C., J.L. Faundeen (1994): The 1 km AVHRR global land data set: First stages<br />

in implementation, Int. J. Remote Sens., 15, 17, 3443-3462.<br />

Fisher, N.I. (1995): Statistical analysis of circular data, Cambridge University Press, Cambridge.<br />

Goyette, S., O. Brasseur, M. Beniston (2003): Application of a new wind gust parameterisation:<br />

Multiscale case studies performed with the Canadian regional climate model, J. Geophys.<br />

Res., 108, D13, 4374-4389.<br />

Häberli, C. (2003): CALRAS - The Comprehensive Alpine Radiosonde Data Set, technical<br />

documentation, parts 1-3, Dept. of Meteorology and Geophysics, Univ. of Vienna.<br />

Hagemann, S. (2002): An Improved Land Surface Parameter Dataset for Global and Regional<br />

Climate Models, Report 336, Max Planck Institute for Meteorology (MPI), Hamburg.<br />

Justice, C.O. et al. (1998): The Moderate Resolution Imaging Spectroradiometer (MODIS):<br />

Land Remote Sensing for Global Change Research, IEEE T. Geosci. Remote, 36, 4, 1228-<br />

1249.<br />

34 Anhang 1<br />

Teilbericht 5


Leggett, J., W.J. Pepper, and R.J. Swart (1992): Emissions scenarios for the IPCC: an update<br />

in Climate change 1992: the supplementary report to the IPCC scientific assessment<br />

edited by J.T. Houghton, B.A. Callander, and S.K. Varney, pp.75-95, Cambridge Univ.<br />

Press, Cambridge.<br />

Pineda, N., O. Jorba, J. Jorge, J.M. Baldasano (2004): Using NOAA AVHRR and SPOT VGT<br />

data to estimate surface parameters: application to a mesocale meteorological model, Int.<br />

J. Remote Sens., 25, 1, 129-143.<br />

Press, W.H., S.A. Teukolsky, W.T. Vatterling, B.P. Flennery (1992): Numerical Recipes in<br />

FORTRAN 77: The Art of Scientific Computing, University Press, Cambridge.<br />

Rabus, B., M. Eineder, a. Roth, r. Bamler (2003): The shuttle radar topography mission - a<br />

new class of digital elevation models acquired by space-borne radar, ISPRS J. Photogramm.,<br />

57, 241-262.<br />

Renold, M., U. Beyerle, C.C. Raible, R. Knutti, and T.F. Stocker (2004): Climate Modeling<br />

with a Linux Cluster, EOS, Transactions, 85, 40, 290.<br />

Roeckner, E., G. Baeuml, L. Bonaventura, R. Brokopf, M. Esch, M. Giorgetta, S. Hagemann,<br />

I. Kirchner, L. Kornblueh, E. Manzini, A. Rhodin, U. Schlese, U. Schulzweida, A. Tompkins<br />

(2003): The Atmospheric General Circulation Model ECHAM5. Part 1: Model Description,<br />

Report 349, Max Planck Institute for Meteorology (MPI), Hamburg.<br />

Schutzweida, U. (2004): CDO’s Useres Guide. Climate Data Operators, <strong>version</strong> 0.8.9, software<br />

manual, Max Planck Institute for Meteorology (MPI), Hamburg.<br />

Scire, J.S., F.R. Robe, M.E. Fernau, R.J. Yamartino (2000): A User’s Guide for the CALMET<br />

Meteorological Model (Version 5), software manual, Earth Tech Inc., Concorde.<br />

Simmons, A.J., J.K. Gibson (2000): The ERA-40 Project Plan, ERA-40 Project Report Series<br />

No. 1, European Centre for Medium-Range Weather Forecasts (ECMWF), Reading.<br />

Steinacker, R., W. Pöttschacher, M. Dorninger (1997): Enhanced Resolution Analysis of the<br />

Atmosphere over the Alps Using the Fingerprint Technique. Annalen der Meteorologie, 35,<br />

235- 237.<br />

Storer, N., J. Hennessy, D. Salmond (2003): Migration of the high-performance computing<br />

service to the new IBM supercomputers, ECMWF Newsletter, 97, 20-23.<br />

Waszkewitz, J., P. Lenzen, N. Gillet (2001): The PINGO packages – Procedural Interface for<br />

Grib formatted Objects, software manual, Deutsches Klimarechenzentrum GmbH (DKRZ)<br />

and Max Planck Institute for Meteorology (MPI), Hamburg.<br />

WMO (1995): 306 - Manual on codes, WMO publication, WMO, Geneva.<br />

Anhang 1 35<br />

Teilbericht 5


Anhang 1<br />

Teilberichte der Projektpartner<br />

Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />

Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />

Alexander Beck und Bodo Ahrens:<br />

Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />

Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />

Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />

zu den regionalen Klimamodellen<br />

Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />

Validierung – Sensitivitätstests<br />

Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />

MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />

Mario Köstl, Wolfgang Loibl und Johann Züger:<br />

Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung


eclip:more<br />

Research for Climate Protection:<br />

Model Run Evaluation<br />

Projektjahr 1<br />

Projektteil systems research<br />

Datenaufbereitung, Regionale Klimamodellierung und<br />

Regionalisierungstool Strahlung<br />

Arbeitsbericht für den Zeitraum <strong>1.</strong>1<strong>1.</strong>2003 – 30.9.2004<br />

von<br />

Mario Köstl, Wolfgang Loibl und Johann Züger<br />

ARC systems research GmbH<br />

Seibersdorf, 29. November 2004


Inhaltsverzeichnis<br />

1 Datenaufbereitung (WP 2.3a) 1<br />

2 Regionale Klimamodellierung (WP4.1 + WP4.2) 1<br />

3 Sensitivitätsexperimente (WP 4.3a) 3<br />

4 Regionalisierung der Sonnenstrahlung (WP5.5) 13<br />

4.1 Modellergebnisse – Teilergebnisse für die einzelnen Schritte 14<br />

4.2 Integration der Residuen in das clear-sky-Strahlungsmodellergebnis 18<br />

Literatur 19<br />

ANHANG A Das Mathematisch-physikalische Sonnenstrahlungsmodell 21<br />

ANHANG B AML-Script zur Berechnung der clear-sky Strahlung 23


1 Datenaufbereitung (WP 2.3a)<br />

Nachdem sich das reclip Team auf ERA-40-Daten des ECMWF als Antriebsdaten geeinigt hatte,<br />

wurde mit dem Herunterladen dieser Daten begonnen. Diese sind zur Zeit für die Jahre 1993 bis<br />

2000 auf einem Server in systems research abgelegt - die Jahre 1998 bis 2000 stehen auch auf<br />

dem FTP-Server von systems research zur Verfügung. Sie liegen als Rasterdaten auf Druckflächen<br />

vom Boden bis 50 hPa mit einer räumlichen Auflösung von 1°x1° vor. Es wurden dabei vor<br />

allem jene Parameter berücksichtigt, die zum Betrieb des Modells notwendig sind. Das Datenvolumen<br />

beträgt ca. 2 GB pro Jahr.<br />

Während des Herunterladens der Daten über das ECMWF Webportal wurden bereits erste Modellläufe<br />

und verschiedene Tests durchgeführt. Dabei zeigte sich, dass die bereitgestellten Daten<br />

nicht immer mit ihrer Beschreibung übereinstimmten. Anfangs wurden zum Teil andere Parameter<br />

als in der Downloadanforderung spezifiziert ausgegeben – dies lag wahrscheinlich daran, dass<br />

das Webportal des ECMWF damals noch ziemlich neu und damit fehlerbehaftete war. In der Folge<br />

konnten zwar diese Fehler ausgeräumt werden, es traten aber immer wieder Diskrepanzen<br />

zwischen den erhaltenen Daten und ihrer Beschreibung auf den ECMWF Seiten auf – so wurden<br />

zB Geopotentiale [m 2 /s 2 ] als Höhen [m] beschrieben oder die Grenzen der Bodenschichten nicht<br />

richtig wiedergegeben. Es musste auch einiges an den MM5 Inputroutinen geändert werden um<br />

die Antriebsdaten richtig einlesen zu können.<br />

Um für weitere Auswertungen einheitliche Formate zu gewährleisten, erstellte systems research<br />

Programme, die einerseits als Schnittstellen für die Validierung durch BOKU-Met und andererseits<br />

zur Übergabe an VERA (IMG) dienen, und stellte diese auch den Projektpartnern zur Verfügung.<br />

Um einen möglichst reibungsfreien Austausch von Daten, Routinen und Ergebnissen zu gewährleisten,<br />

wurde bei systems research ein FTP-Server mit entsprechender Speichekapazität installiert.<br />

Auf diesem haben alle Projektpartner mittels sFTP und einer gemeinsamen Kennung uneingeschränkten<br />

Zugang zu allen Daten und Programmen.<br />

2 Regionale Klimamodellierung (WP4.1 + WP4.2)<br />

Vom National Center for Atmospheric Research (NCAR) werden laufend neue Versionen des<br />

mesoskaligen Modells MM5 veröffentlicht. Meist handelt es sich dabei um so genannte „minor<br />

releases“ bei denen die Behebung von kleinen Fehlern im Vordergrund steht. Das „major release“<br />

der Version 3.6 hat sich in vorangegangenen Arbeiten bereits als äußerst stabil erwiesen. Seit<br />

Februar 2004 – also unmittelbar vor Beginn dieses Arbeitsschrittes – steht nun die neue Version<br />

3.6.3 zur Verfügung. Da in diesem Release nur marginale Änderungen vorgenommen wurden und<br />

bei allen Projektpartnern bereits eine Version 3.6.x im operationellen Einsatz war, wurde in einer<br />

gemeinsamen Sitzung vereinbart, in Zukunft einheitlich MM5 in der Version 3.6.3 zu verwenden.<br />

Um abzuschätzen wie groß die Unterschiede der Ergebnisse auf den verschiedenen Hardware-<br />

Plattformen (zB Compiler, Zahlendarstellung, etc.) der einzelnen Projektpartner sind, wurden Vergleichsrechnungen<br />

für eine Episode durchgeführt. Dabei zeigte sich, dass die Abweichungen<br />

durchaus tolerierbar sind. Daher kann davon ausgegangen werden, dass künftige Modell-<br />

Ergebnisse ebenfalls vergleichbar sein werden.<br />

Um eine möglichst weit reichende Vergleichbarkeit der Modellergebnisse mit der „Wirklichkeit“ zu<br />

gewährleisten, wurde vereinbart die ersten Sensitivitätstests mit den besten zur Verfügung stehenden<br />

Daten anzutreiben. Für den europäischen Raum sind diese im Moment die ERA-40-Daten<br />

des ECMWF mit einer geometrischen Auflösung von 1° und 6h zeitlicher Auflösung. Diese Daten<br />

werden außerdem auch für großräumige Vergleiche mit den Modellergebnissen herangezogen.<br />

Man muss bei den Auswertungen und Interpretationen allerdings vorsichtig sein, da die vermeintliche<br />

„Wirklichkeit“ auch das Ergebnis eines Modells ist.<br />

Anhang 1 1<br />

Teilbericht 6


Wie von systems research bereits in vorangegangen Arbeiten aufgezeigt wurde, hängen die Modellergebnisse<br />

wesentlich von der Wahl der Domänengröße und der Lage ab. Da der Antrieb des<br />

Modells nur über die Ränder – dh. die äußersten drei Gitterzellen des mother domains - erfolgt,<br />

hat es bei genügend großer Wahl des Modellgebietes im Inneren die Möglichkeit seine eigene<br />

Dynamik und seine eigenen Strukturen zu entwickeln. Es gilt hier aber die Frage zu klären, wie<br />

viel Dynamik das Modell entwickeln darf ohne die globalen Strukturen der Antriebsdaten zu verlieren<br />

– dh. wie weit kann oder muss man die Ränder nach außen verschieben um einerseits die<br />

Entwicklung kleinräumiger Strukturen zu ermöglichen, in größeren Maßstäben jedoch möglichst<br />

geringe Abweichungen gegenüber den Antriebsdaten zu erhalten. Aus diesem Grund standen in<br />

einem ersten Schritt Sensitivitätsexperimente zur Modelldynamik im Vordergrund (vgl. Abb. 2).<br />

Als Vorgaben für die räumliche Lage der Domänen wurde vereinbart, dass in der äußeren der<br />

größte Teil Europas, Teile des Atlantiks und der Mittelmeerraum abgedeckt werden. In der inneren<br />

Domäne sollte der Alpenbogen eine zentrale Lage einnehmen, aber auch der Golf von Genua<br />

sollte wegen seines entscheidenden Einflusses auf das Wettergeschehen südlich der Alpen berücksichtigt<br />

werden. Unter diesen Prämissen wurden von BOKU-Met insgesamt 4 geometrische<br />

Setups für die Größe und Lage der Domänen vorgeschlagen (siehe Tabelle 1). Das geometrische<br />

Setup für die Fälle 1 und 2 bzw. 3 und 4 unterscheidet sich nur in der Anzahl der Gitterpunkte in x-<br />

und y-Richtung. In den Fällen 1 und 3 bzw. 2 und 4 blieb die Lage der Domänen unverändert, die<br />

Auflösung wurde jedoch von 45/15 km auf 30/10 km reduziert.<br />

Tabelle 1: Geometrische Domänenfestlegung für Sensitivitätstests<br />

Case# Domäne<br />

Gitterpunkte<br />

W/O<br />

Gitterpunkte<br />

N/S<br />

Maschenweite<br />

[km]<br />

Ausdehnung<br />

W/O [km]<br />

Ausdehnung<br />

N/S [km]<br />

1 1 110 88 45 4950 3960<br />

2 82 58 15 1230 870<br />

2 1 90 70 45 4050 3150<br />

2 76 52 15 1140 780<br />

3 1 165 132 30 4950 3960<br />

2 124 88 10 1240 880<br />

4 1 135 105 30 4050 3150<br />

2 115 79 10 1150 790<br />

Die einzelnen Setups unterscheiden sich also sowohl in ihrer Auflösung als auch in ihrer Ausdehnung,<br />

wobei die Größe der Domänen für die Fälle 1 und 3, bzw. 2 und 4 identisch sind (vgl. Abb. 1).<br />

Abb. 1: Lage der Domänen für Testcase #1 und #3 (links) und Testcase #2 und #4 (rechts)<br />

2 Anhang 1<br />

Teilbericht 6


Die vertikale Auflösung wurde für die hier aufgeführten Tests mit 29 Levels zwischen dem Boden<br />

und einer Obergrenze von 50 hPa festgelegt – nur der von IGAM am Supercomputer des ECMWF<br />

durchgeführte Modelllauf wurde mit 42 Levels initialisiert.<br />

Weiters wurden für die ersten Tests 2 Episoden ausgewählt:<br />

Episode 1: 18.09.1999 bis 2<strong>1.</strong>09.1999<br />

Episode 2: 05.1<strong>1.</strong>1999 bis 08.1<strong>1.</strong>1999<br />

Die Rechnungen zu jeder Episode starteten jeweils 2 Tage früher um dem Modell einen adäquaten<br />

Spin-up zu ermöglichen.<br />

Im Modell MM5 sind unterschiedlichste Parametrisierungen implementiert. Dadurch kann der Benutzer<br />

je nach Wahl der einzelnen Parametersets durchaus unterschiedliche Modelle generieren. Da<br />

aber nicht alle Kombinationen sinnvoll sind und eine möglichst weit reichende Vergleichbarkeit der<br />

Ergebnisse zu gewährleisten ist, wurde die Parametrisierung des Modells wie folgt vereinbart:<br />

- Strahlung: RRTM longwave scheme IFRAD=4<br />

- PBL + SVAT: MRF + Noah land-surface scheme IBLTYP=5, ISOIL=2<br />

- Cumulus: Kain-Fritsch 2 + shallow convection ICUPA=8, ISHALLOW=1<br />

- Feuchte: Reisner 1 (Mixed-Phase) IMPHYS=5<br />

3 Sensitivitätsexperimente (WP 4.3a)<br />

Die aus den oben erwähnten Vorgaben resultierenden Testläufe wurden von systems research mit<br />

dem mesoskaligen Modell MM5 in der Version 3.6.3 durchgeführt.<br />

Da sich die MM5 Domänen hinsichtlich Lage, Größe und Auflösung deutlich von den von ALADIN<br />

verwendeten unterscheiden, können die Ergebnisse von MM5 und ALADIN nur eingeschränkt miteinander<br />

verglichen werden. Um eine bessere Vergleichbarkeit der MM5 und ALADIN Rechnungen<br />

zu ermöglichen, wurde von systems research zusätzlich ein MM5 Lauf mit einem der ALADIN Domäne<br />

vergleichbaren Setup gerechnet. Es wurde dabei die äußere Domäne so gewählt, dass sie<br />

möglichst mit der ALADIN Domäne übereinstimmt, die innere sollte weitestgehend mit der inneren<br />

Domäne der übrigen MM5 Rechnungen deckungsgleich sein. Wie aus Tabelle 2 zu ersehen ist, sind<br />

die Abmessungen der ALADIN Domäne deutlich kleiner als die der übrigen Testcases (siehe Abb. 2,<br />

letzte Zeile).<br />

Tabelle 2: Geometrisches Setup für ALADIN Vergleichsrechnung<br />

Case# Domäne<br />

Gitterpunkte<br />

W/O<br />

Gitterpunkte<br />

N/S<br />

Maschenweite<br />

[km]<br />

Ausdehnung<br />

W/O [km]<br />

Ausdehnung<br />

N/S [km]<br />

0 1 50 50 45 2250 2250<br />

2 82 58 15 1230 870<br />

Anhang 1 3<br />

Teilbericht 6


Die vertikale Auflösung beträgt hier 29 Levels zwischen dem Boden und der Obergrenze von 50<br />

hPa. Weiters wurde die Parametrisierung des Modells von den übrigen Testläufen übernommen und<br />

die Berechnungen für die 2. Episode (5. bis 8. 1<strong>1.</strong> 1999) analog zu den anderen Experimenten mit 2<br />

zusätzlichen Tagen für das Spin-up des Modells durchgeführt.<br />

Um die einzelnen Testläufe von systems research und den übrigen Projektpartnern einfach unterscheiden<br />

zu können, wurde eine eigene Nomenklatur in der Form eines Buchstaben und dreier Zahlen<br />

eingeführt. Demgemäß werden alle von systems research durchgeführten MM5-Läufe mit „Axxx“,<br />

jene von BOKU-Met mit „Bxxx“, die IMG ALADIN Läufe mit “Cxxx“ und die IGAM MM5-Rechnungen<br />

mit „Dxxx“ bezeichnet wobei „xxx“ für die jeweilige Case# steht. Die insgesamt 9 Testläufe von<br />

systems research – in der Folge als „A000“ bis „A008“ bezeichnet – wurden weiters durch einzelne<br />

Berechnungen von BOKU-Met („B005“) und IGAM („D005“, „ECMWF“) ergänzt.<br />

Es sollen hier keine eingehenden statistischen Analysen durchgeführt werden, da diese von BOKU-<br />

Met in ihrem Teil ausführlich beschrieben und diskutiert werden. Für die einzelnen Testläufe werden<br />

nur die Minimum-, Maximum- und die mittlere Temperatur auf der 850 hPa Fläche für die äußere<br />

Domäne (Tab. 3a) und die innere Domäne (Tab. 3b) aufgelistet. Wie aus den Zahlen in Tabelle 3a<br />

abzulesen ist, kann die Zeile für die Vergleichsrechnung MM5/ALADIN (A000) für die äußere Domäne<br />

nicht wirklich mit den anderen verglichen werden, da ein ganz anderes Einzugsgebiet abgedeckt<br />

wird. Für die innere Domäne sollte dies jedoch durch die Wahl des MM5 Setups gewährleistet sein.<br />

Wie aus Tabelle 3b ersichtlich ist, sind die einzelnen Testläufe – mit Ausnahme des Laufs A000 –<br />

einander einigermaßen ähnlich, weichen jedoch alle relativ deutlich von den ERA-40 Antriebsdaten<br />

ab.<br />

Tabelle 3a: min-, max- und mean-Temperatur auf der 850 hPa Fläche in der äußeren Domäne<br />

6. 1<strong>1.</strong> - 12:00 7. 1<strong>1.</strong> - 12:00 8. 1<strong>1.</strong> - 12:00<br />

Min Max Mean Min Max Mean Min Max Mean<br />

ERA-40 – D1 -15,5 23,9 2,7 -14,7 23 2,9 -14,9 21,1 3,1<br />

A005 – D1 -16,4 19,9 2 -14,2 18,6 2,3 -15,3 17,4 2,4<br />

B005 – D1 -16,4 19,9 2,2 -14,2 18,6 2,4 -15,4 17,4 2,6<br />

D005 – D1 -16,4 19,9 1,9 -14,2 18,5 2,1 -15,3 17,4 2,3<br />

ECMWF – D1 -16,5 19,9 1,8 -13,8 18,6 2 -15,4 17,5 2<br />

A000 – D1 -6,3 14,8 4,3 -7 15,4 3,1 -7,7 16,4 3<br />

Tabelle 3b: min-, max- und mean-Temperatur auf der 850 hPa Fläche in der inneren Domäne<br />

6. 1<strong>1.</strong> - 12:00 7. 1<strong>1.</strong> - 12:00 8. 1<strong>1.</strong> - 12:00<br />

Min Max Mean Min Max Mean Min Max Mean<br />

ERA-40 - D2 -8,8 15,8 7,3 -5,8 15,5 5,8 -7,6 15,6 5,5<br />

A005 - D2 -1,4 8,3 4 -5,3 8,9 2,6 -2,7 14,6 3,8<br />

B005 - D2 -1,3 9,6 4,2 -5,6 9,7 2,5 -0,9 14,5 3,8<br />

D005 - D2 -1,6 7,7 3,4 -5,4 8 2 -3 11,6 2,8<br />

ECMWF - D2 -2,1 9,2 3,6 -4,8 12 1,7 -2,7 13,9 2,4<br />

A000 - D2 -2,9 8,7 3 -4,8 11,9 0,7 -3,8 12,1 1,1<br />

4 Anhang 1<br />

Teilbericht 6


Im Folgenden werden an Hand einiger Graphiken die Ähnlichkeiten bzw. Unterschiede der einzelnen<br />

Ergebnisse illustriert. Abseits von Statistiken und Kennzahlen soll hier der Versuch unternommen<br />

werden, die Möglichkeiten bzw. Beschränkungen einer schnellen optischen Beurteilung unter Verwendung<br />

des Geographischen Informationssystems ARC/INFO bzw. ArcView aufzuzeigen.<br />

Zu diesem Zweck wurde eine Reihe von Auswerteroutinen erstellt, die aus dem MM5 Output möglichst<br />

automatisiert alle relevanten Parameter und die Daten für das geometrische Setup extrahieren<br />

und daraus ARC/INFO ASCII-Grids erstellen. Diese werden in entsprechenden Verzeichnissen abgelegt<br />

und danach mittels AML-Prozeduren in ARC/INFO Grids übergeführt. Die daraus resultierenden<br />

Karten können in der Folge sehr einfach und schnell mit ArcView visualisiert werden.<br />

Parallel dazu wurden einerseits sämtliche Ergebnisse für eine weiterführende statistische Analyse<br />

aufbereitet und an BOKU-Met übermittelt, andererseits in ein vordefiniertes Format übergeführt, um<br />

eine Validierung der Modellergebnisse mit Daten des VERA Modells am IGM zu ermöglichen.<br />

Auf der folgenden Seite ist in Abb. 2 der Vergleich der Temperatur auf der 850 hPa Fläche für<br />

Case# 5 zwischen den ERA-40 Antriebsdaten und den Ergebnissen von systems research, BOKU-<br />

Met und IGAM zu sehen. Die Bilder in der Spalte ganz links orientieren sich an der Größe der äußeren<br />

Domäne mit 45 bzw. 30 km Auflösung, die mittlere und rechte Spalte zeigen die innere mit 15<br />

bzw. 10 km Rasterweite. Von oben nach unten sind der Reihe nach die ERA-40 Ausgangsdaten, die<br />

Ergebnisse von systems research, BOKU-Met, IGAM, eines von IGAM am Großrechner des<br />

ECMWF durchgeführten Testlaufs und der MM5 Lauf von systems research mit dem ALADIN Setup<br />

zu sehen.<br />

Für das Standard MM5 Setup sind die einzelnen Strukturen sowohl auf der 45 km als auch auf der<br />

15 km Skala sehr ähnlich und weisen nur geringfügige Differenzen auf. Generell unterscheiden sie<br />

sich alle – vor allem über den Alpen – deutlich von den Antriebsdaten. Nur die Ergebnisse des MM5-<br />

ALADAIN-Vergleichslaufes heben sich von diesem Bild ab und sind den ERA-40 Eingangsdaten<br />

deutlich ähnlicher.<br />

Dieser Testlauf ist der einzige der den Kaltluftsee über den Alpen – zumindest für den 7. November<br />

– in einer zu den ERA-40 Daten vergleichbaren Art und Weise wiedergeben kann. Dies liegt hauptsächlich<br />

an der Tatsache, dass auf Grund der deutlich kleineren Domäne das Modell in seinen Freiheiten<br />

eingeschränkt ist und daher eher die Charakteristiken der Antriebsdaten widerspiegelt. In der<br />

letzten Reihe ist im ersten Bild der Unterschied in der Abmessung der äußeren Domäne zwischen<br />

den MM5 Rechnungen und der MM5-ALADIN-Vergleichsrechnung zu sehen.<br />

Anhang 1 5<br />

Teilbericht 6


Abb. 2: Vergleich der 850 hPa Temperatur – Era40 Antriebsdaten (<strong>1.</strong> Zeile), MM5 systems research (2.<br />

Zeile), MM5 BOKU (3. Zeile), MM5 IGAM (4. Zeile), MM5 ECMWF (5. Zeile) und MM5 systems research/Aladin-Setup<br />

(6. Zeile) für den 6., 7. und 8. Nov. 1999 – 12:00 Uhr (von links nach rechts).<br />

Erfahrungsgemäß können Modelle die Temperatur meist recht gut wiedergeben, bei Niederschlägen<br />

ist dies schon deutlich schwieriger. In Abbildung 3 sind analog zu Abbildung 2 die von den einzelnen<br />

Projektpartnern für den Case# 5 berechneten akkumulierten Niederschlagssummen für den 6., 7.<br />

und 8. November 1999 jeweils 18:00 Uhr dargestellt. Der in der mittleren und rechten Spalte gewählte<br />

Ausschnitt repräsentiert ungefähr die Größe der inneren Domäne.<br />

6 Anhang 1<br />

Teilbericht 6


Ein Vergleich mit ERA-40 muss hier entfallen, da diese Daten nicht verfügbar sind. Die Verteilungsmuster<br />

sind auch hier in allen Fällen sehr ähnlich, die lokalen Intensitäten können aber durchaus<br />

unterschiedlich sein.<br />

Abb. 3: Vergleich akkumulierter Niederschlag – MM5 systems research (<strong>1.</strong> Zeile), MM5 BOKU (2. Zeile),<br />

MM5 IGAM (3. Zeile), MM5 ECMWF (4. Zeile) und MM5 systems research/Aladin-Setup (5. Zeile) für<br />

den 6., 7. und 8. Nov. 1999 – 18:00 Uhr (von links nach rechts).<br />

Abbildung 4a soll an Hand der Temperatur auf der 850 hPa Fläche die Unterschiede für die einzelnen<br />

geometrischen Setups aufzeigen. Dargestellt sind in den einzelnen Reihen die für die Testcases#<br />

1- 4 berechneten Temperaturen für den 19., 20. und 2<strong>1.</strong> September 1999 (Episode 1) jeweils<br />

12:00 Uhr. Im Großen und Ganzen ähneln die zu beobachtenden Muster einander sehr. Am ehesten<br />

sind Unterschiede an der Kälteinsel ganz in Nordosten zu erkennen. In den Differenzkarten (Abb. 4b)<br />

wird dieser Eindruck hingegen nicht bestätigt. Hier zeigen sich die größten Abweichungen im Bereich<br />

der Alpen bzw. Voralpen. Generell ist zu bemerken, dass Unterschiede bei den größeren Domänen<br />

(A001/A003) wesentlich stärker hervortreten.<br />

Anhang 1 7<br />

Teilbericht 6


Abb. 4a: Vergleich der 850 hPa Temperatur: Testcases# 1 - 4 (von oben nach unten) für den 19., 20.<br />

und 2<strong>1.</strong> September 1999 - 12:00 Uhr (von links nach rechts)<br />

Abb. 4b: Differenz der 850 hPa Temperatur: Testcases# 1/3 und 2/4 (von oben nach unten) für den 19.,<br />

20. und 2<strong>1.</strong> September 1999 –12:00 Uhr (von links nach rechts)<br />

8 Anhang 1<br />

Teilbericht 6


Abbildung 5a auf der nächsten Seite zeigt die Temperatur auf der 850 hPa Ebene für den 6., 7. und<br />

8. November 1999 (Episode 2) jeweils 12:00 Uhr. Auch hier sind auf den ersten Blick in den großräumigen<br />

Mustern keine ausgeprägten Unterschiede zu erkennen. Zwar treten auch hier Differenzen<br />

in den Temperaturen aufn, aber die Bilder sind doch sehr ähnlich. Die Differenzkarten (Abb. 5b)<br />

zeichnen auch hier ein etwas anderes Bild. Die größten Unterschiede finden sich an den Rändern<br />

der kalten Bereiche, wo zB warme Mittelmeerluft über den Alpen auf kalte Luft aus dem Norden trifft.<br />

Neben der Größe bzw. der geometrischen Auflösung ist hier auch der Zeitpunkt entscheidend. Die<br />

Übereinstimmung wird gegen Ende der Episode deutlich schlechter.<br />

Abb. 5a: Vergleich der 850 hPa Temperatur – Testcases# 5 - 8 (von oben nach unten) für den 6., 7. und<br />

8. November 1999 - 12:00 Uhr (von links nach rechts)<br />

Anhang 1 9<br />

Teilbericht 6


Abb. 5b: Differenz der 850 hPa Temperatur – Testcases# 5/7 und 6/8 (von oben nach unten) für den 6.,<br />

7. und 8. November 1999 - 12:00 Uhr (von links nach rechts)<br />

Der Niederschlag zeigt überraschenderweise ein sehr homogenes Bild für alle 4 Testcases (Abb.<br />

6a). Sowohl die Verteilung als auch die Mengen stimmen in allen Berechnungen sehr gut überein.<br />

Auch die Differenzkarten (Abb. 6b) weisen keine größeren Abweichungen aus. Es sind dort nur einige<br />

kleine, räumlich sehr begrenzte Unterschiede über der Schweiz und in Norditalien zu erkennen.<br />

Abb. 6a: Vergleich akkumulierter Niederschlag – Testcases #1 – #4 (von oben nach unten) für den<br />

19., 20. und 2<strong>1.</strong> September 1999 – 12:00 Uhr (von links nach rechts)<br />

10 Anhang 1<br />

Teilbericht 6


Abb. 6b: Differenz akkumulierter Niederschlag – Testcases #1/3 - #2/4 (von oben nach unten) für den<br />

19., 20. und 2<strong>1.</strong> September 1999 - 12:00 Uhr (von links nach rechts)<br />

Das Bild des akkumulierten Niederschlags für die zweite Episode (6., 7. und 8. November 1999)<br />

präsentiert sich ähnlich dem vorherigen sehr einheitlich (Abb. 7a). Die markantesten Unterschiede<br />

treten über Norditalien, der nördlichen Adria und über dem Meer zwischen der Südspitze Italiens und<br />

Griechenland auf. Ein Blick auf die Differenzkarten (Abb. 7b) bestätigt diesen Eindruck.<br />

Abb. 7a: Vergleich akkumulierter Niederschlag – Testcases #5 - #8 (von oben nach unten) für den 6., 7.<br />

und 8. November 1999 - 12:00 Uhr (von links nach rechts)<br />

Anhang 1 11<br />

Teilbericht 6


Abb. 7b: Differenz akkumulierter Niederschlag – Testcases #5/7 - #4/8 (von oben nach unten) für den 6.,<br />

7. und 8. November 1999 - 12:00 Uhr (von links nach rechts)<br />

Wie frühere Untersuchungen – zumindest jene von systems research – gezeigt haben, sind die Modellergebnisse<br />

stark vom geometrischen Setup abhängig. In den Analysen von BOKU-Met treten<br />

deutlichere Unterschiede in den Ergebnissen der einzelnen Tests vor allem während der 2. Episode<br />

auf. Gerade die Alpen stellen für Modelle eine besondere Herausforderung dar und meist treten dort<br />

auch größere Differenzen auf. Daher sollte dieser Bereich einer genaueren Betrachtung unterzogen<br />

werden. Während sich die statistischen Kennzahlen auf eine ganze Domäne beziehen, sollte hier der<br />

Versuch unternommen werden, die Bereiche mit den größten Abweichungen zu lokalisieren.<br />

Es konnten in dieser Studie während der ersten Episode für die unterschiedlichen räumlichen Bedingungen<br />

keine dramatischen Abweichungen gefunden werden, die eine eindeutige Präferenz für ein<br />

bestimmtes Setup rechtfertigen würden. Bei der zweiten Episode sind die Unterschiede zwischen<br />

den einzelnen Testläufen zwar am Anfang relativ gering, verstärken sich aber gegen Ende doch<br />

deutlich. All diese Ergebnisse sind jedoch vor dem Hintergrund des doch relativ kleinen Samples von<br />

2 Episoden mit je 4 Tagen zu sehen. Um hier eine einigermaßen gesicherte Aussage zu ermöglichen<br />

werden noch weitere Sensitivitätstest über längere Zeiträume notwendig sein. Insbesondere der für<br />

die nächste Etappe geplante Modelllauf über ein ganzes Jahr sollte hier eine deutliche Verbesserung<br />

bringen.<br />

12 Anhang 1<br />

Teilbericht 6


4 Regionalisierung der Sonnenstrahlung (WP5.5)<br />

Die Sonnenstrahlungsdaten werden entsprechend der Nachfrage-Erhebung von systems research<br />

vor allem für vegetationsökologische Fragestellungen herangezogen werden. Für die Photosynthese<br />

und Pflanzenwachstum ist hier die kurzwellige Strahlung von Bedeutung. Die Wärmestrahlung geht<br />

über die Modellierung bzw. Regionalisierung der Temperatur implizit in die Modellergebnisse ein und<br />

wird hier bei der Sonneneinstrahlungs-Regionalisierung außer Acht gelassen.<br />

Die Sonneneinstrahlungs-Modellergebnisse aus den Regionalmodellen MM5 und Aladin liegen nur in<br />

einer relativ groben Auflösung vor, die aufgrund der Verwendung eines nur groben und „flachen“<br />

digitalen Höhenmodells die Realität wenig trifft und in keiner Weise das Expositions-Hangneigungsgefüge<br />

des Geländes und damit der Sonneneinstrahlung auf lokaler Ebene widerspiegelt.<br />

Die Regionalisierung erfolgt darum nicht durch Downscaling der Ergebnisse der Regionalmodelle,<br />

sondern durch ein schrittweises Verfahren:<br />

<strong>1.</strong> Zunächst wird mit einem physikalisch-mathematischen Modells für die vom Regionalmodell<br />

verwendete Zeitspanne unter Beachtung der Solarkonstante, des Sonnenstandes aufgrund von<br />

Jahreszeit und Uhrzeit (Inklination, etc.) und der geographischen Breite die direkte kurzwellige<br />

Sonneneinstrahlung bei wolkenlosem Himmel auf eine ebene Fläche berechnet.<br />

2. Die Modifizierung dieser theoretischen Sonneneinstrahlung durch Exposition und Hangneigung<br />

sowie durch direkte Abschattung wird des Weiteren mit Hilfe eines feinen digitalen Höhenmodells<br />

(DHM), dessen Auflösung jener der gewünschten Regionalisierungsergebnisse entspricht,<br />

berechnet.<br />

3. Aus den Ergebnissen werden Mittelwerte für die Modellpunkte berechnet und die Differenz (die<br />

Residuen) zu den Regionalmodellergebnissen berechnete.<br />

4. Die Differenzen werden im Regelfall positiv sein – dh. die Ergebnisse des Strahlungsmodells<br />

sind höher als die im Regionalmodell integrierten Sonnenstrahlungs-Ergebnisse, da diese ja<br />

den Einfluss der Bewölkung enthalten.<br />

5. Die Residuen werden interpoliert - entweder linear mittels IDW, mit thin plate splines oder mittels<br />

Variogrammfunktion und Co-Kriging unter Verwendung der Seehöhe als Co-Variable - und<br />

die so generierte Residualfläche von der auf dem DHM basierenden Modellfläche des expliziten<br />

Strahlungsmodell subtrahiert. (Im Prinzip ist auch die von Schöner in seinem Teilbericht vorgestellte<br />

EOF-Methode aus dem CLIM.PACT-Paket von R. Benestadt einsetzbar, allerdings stand<br />

diese zum Zeitpunkt der Arbeiten an der Strahlungsregionalisierung noch nicht zur Verfügung.)<br />

6. Das Ergebnis ist nun eine fein differenzierte - auf Topographie, Sonnenstand und Bewölkung<br />

abgestimmte Sonneneinstrahlungsfläche für die jeweilige gewünschte Zeitspanne. Die Strahlungssumme<br />

je Fläche für die gewählte Zeiteinheit wird etwa dieselbe sein, wie im Regionalmodell.<br />

Die kleinräumige Variation zeigt große Schwankungen und ergibt sich aus den Geländeformen,<br />

die großräumigen Unterschiede ergeben sich durch die Variation in der Bewölkungsintensität.<br />

Eine kurze Abhandlung des verwendeten Sonnenstrahlung-Modells ist in Anhang 1 zu finden, das<br />

verwendete AML-Script in Anhang 2.<br />

Anhang 1 13<br />

Teilbericht 6


Die folgende Abbildung fasst den Ablauf der einzelnen Modellier-Schritte der Strahlungs-<br />

Regionalisierung zusammen.<br />

Abb. 8: Regionalisierung der Strahlung unter Berücksichtigung des Geländes und der Bewölkung<br />

4.1 Modellergebnisse – Teilergebnisse für die einzelnen Schritte<br />

Die folgenden 5 Abbildungen zeigen Resultate der von MM5 generierten Sonnenstrahlung, der potenziellen<br />

clear-sky Sonnenstrahlung, der auf MM5-Auflösung gemittelten clear-sky Sonnenstrahlung,<br />

Differenzen zwischen den beiden Modellen und schließlich 2 kompilierte Endergebnisses unter<br />

Beachtung der Bewölkungseffekte für den 16.9.1999. Aus Gründen der Vergleichbarkeit wurden die<br />

Klassengrenzen und Legendenfarben ident gehalten.<br />

14 Anhang 1<br />

Teilbericht 6


Abb. 9: MM5 – Modellergebnisse: Sonnenstrahlung in KJ /m2 am 16.9.1999 (10 km Auflösung)<br />

Abb. 10: potenzielle clear-sky Sonnenstrahlung in KJ/m2 am 16.9.1999 (topographische Basis bzw.<br />

geometrische Auflösung 1000m DHM)<br />

Anhang 1 15<br />

Teilbericht 6


Abb. 11: Potenzielle clear-sky Einstrahlung in KJ/m2 am 16.9. 1999 gemittelt auf MM5 Modell-<br />

Gitterpunkte (10km Auflösung)<br />

Abb. 12: Differenzen zwischen den MM5-Ergebnissen und der potenziellen clear-sky Einstrahlung in<br />

KJ/m2 am 16.9.1999 (10 km-Auflösung)<br />

16 Anhang 1<br />

Teilbericht 6


Abb. 13: aktuelle Sonnenstrahlung in KJ/m² am 16.9.1999 unter Berücksichtigung der Bewölkung (anhand<br />

der interpolierten Differenzen aus Abb. 5) und der Topographie (DHM Auflösung 1000m)<br />

Die Kombination beider Karten zeigt zu hohe Werte für die wolkenfreien Gebiete, da das MM5-<br />

Ergebnis eben höhere Strahlung generiert als das physikalisch-mathematische Modell liefert (hier<br />

clear-sky Strahlung). In einem ersten Schritt werden nur die negativen Abweichungen weiter<br />

herangezogen – in der Annahme, dass diese die Effekte der Bewölkung auf die Sonnenstrahlungsintensität<br />

zeigen.<br />

Abb. 14: aktuelle Sonnenstrahlung in KJ/m² am 16.9.1999 unter Berücksichtigung der Bewölkung (anhand<br />

der interpolierten negativen Differenzen aus Abb. 5) und der Topographie (DHM Auflösung 1000m)<br />

Anhang 1 17<br />

Teilbericht 6


4.2 Integration der Residuen in das clear-sky-<br />

Strahlungsmodellergebnis<br />

Diskussion:<br />

Im Prinzip funktioniert der Ansatz, auch wenn es noch einige Ausreißer-Flächen nach der Integration<br />

der Residuen-Fläche gibt. Insgesamt scheint es, dass das regionale Klimamodell zu hohe Sonnenstrahlungswerte<br />

generiert, was zu regional gelegentlich unplausiblen Abweichungen gegenüber den<br />

clear-sky Werten führt. Dies äußert sich dahingehend, dass die Differenzen in den nicht oder nur<br />

wenig bewölkten Gebieten hoch positive Abweichungen zeigen, während in den an diesem Modell-<br />

Tag stark bewölkten Gebieten - im nördlichen Wiener Becken und in den Nordtiroler Kalkalpen –zT<br />

stark negative Abweichungen auftreten.<br />

Es wird daher vorgeschlagen, das MM5-Modell anhand von Messdaten sowie anhand von physikalisch-mathematischen<br />

Modellergebnissen zu überprüfen.<br />

In einem ersten korrigierenden Schritt wurden die positiven Residuen außer Acht gelassen, was<br />

dazu führt, dass die Ergebnisse weit realistischer scheinen und die Charakteristik der Ergebnisse<br />

beider Modelle integrieren.<br />

Um ein Regional-Modell anhand von clear-sky Modellergebnissen zu kalibrieren, ist es notwendig<br />

clear-sky Tage mit dem jeweiligen Modell zu generieren und dann die Sonnenstrahlungsdifferenzen<br />

zum mathematisch–physikalischen Modell zu interpretieren und gegebenenfalls die Modellparameter<br />

zu adaptieren. Wenn dies nicht den gewünschten Erfolg liefert, sind zumindest die Regionalmodell-<br />

Ergebnisse mit einem Korrekturfaktor zu gewichten.<br />

Nachtrag:<br />

Inzwischen wurde eine zusätzliche Variante entwickelt, um die Problematik der Sonn-Schatt-Seiten-<br />

Differenzen im Gebirge und die sich daraus ergebenden positiven Abweichungen in den Griff zu<br />

bekommen. Diese kommen nach der modifizierten Berechnungsform nun nicht mehr vor, sodass<br />

tatsächlich davon ausgegangen werden kann, dass die Abweichungen zwischen den MM5-<br />

Ergebnissen und der auf MM5-Auflösung geglätteten clear-sky Einstrahlungs-Modellierung tatsächlich<br />

bewölkungsbedingt sind und die „Rückrechnung“ die tatsächliche lokale und zeitbezogene Situation<br />

gut widerspiegelt . Zur Überprüfung sind hierzu noch die Strahlungsdaten der ZAMG notwendig,<br />

die zur Zeit der Berichtslegung noch nicht vorhanden waren. Die Details dazu werden nach entsprechender<br />

quantitativer Validierung im nächsten Bericht im Detail erörtert werden.<br />

18 Anhang 1<br />

Teilbericht 6


Literatur<br />

Bernhard, L. & R. Weibel (1999)<br />

Modelling snowmelt using a digital terrain model and GIS based techniques. – In: Dikau, R. & H. Saurer (Hg.): GIS<br />

for earth surface systems. Borntraeger: Berlin, Stuttgart, S. 25-46.<br />

Bernhardt, F. & H. Philipps (1958):<br />

Die räumliche und zeitliche Verteilung der Einstrahlung, der Ausstrahlung und der Strahlungsbilanz im Meeresniveau.<br />

Teil 1: Die Einstrahlung. (= Abhandlungen des Meteorologischen und Hydrologischen Dienstes der DDR 45) –<br />

Meteorologischer Dienst der DDR: Berlin.<br />

Hastenrath, S. (1984):<br />

The glaciers of Equatorial East Africa. – Reidel: Dordrecht, Boston, Lancaster.<br />

Hock, R. (1999):<br />

A distributed temperature-index ice- and snowmelt model including potential direct solar radiation. – In: Journal of<br />

Glaciology, Vol. 45, H. 149, S. 101-11<strong>1.</strong><br />

Iqbal, M. (1983):<br />

An introduction to solar radiation. – Academic Press: Toronto, New York, London.<br />

Kumar L., Skidmore A. K., Knowles E. (1997):<br />

Modelling topographic variation in solar radiation in a GIS environment. – In: International Journal of Geographic<br />

Information Science, Vol. 11, No. 5, S. 475-498.<br />

Liljequist, H. & K. Cehak (1994):<br />

Allgemeine Meteorologie. – Viehweg: Braunschweig, 3. Aufl.<br />

Mölg, T. (2001):<br />

Modellierung der Globalstrahlung in Zusammenhang mit neuzeitlichen Gletscherschwankungen am Ruwenzori. –<br />

Diplomarbeit, Institut für Geographie der Universität Innsbruck: Innsbruck.<br />

Schafmeister, M.T. (1999):<br />

Geostatistik für die hydrogeologische Praxis. – Springer: Berlin, Heidelberg, New York.<br />

Anhang 1 19<br />

Teilbericht 6


20 Anhang 1<br />

Teilbericht 6


ANHANG A Das Mathematisch-physikalische<br />

Sonnenstrahlungsmodell<br />

Physikalisch-mathematische Basis des Strahlungsmodells ist die Berechnung der direkten kurzwelligen<br />

Sonneneinstrahlung bei wolkenlosem Himmel SW↓ (dir) auf eine ebene Fläche.<br />

Die Strahlungsleistung der Sonne die auf der Erde pro Quadratmeter ankommt wird als<br />

Solarkonstante I0 bezeichnet und beträgt bei einer mittleren Sonnenentfernung am Oberrande der<br />

Erdatmosphäre 1367 Wm -2 (Jansen, 1985). Da der Abstand der Erde von der Sonne aufgrund der<br />

Exzentrizität der Erdbahn während eines Jahres schwankt, ist ein Korrekturfaktor ε notwendig.<br />

Daraus ergibt sich die Einstrahlung G0 auf eine Ebene senkrecht zur Sonnenstrahlung [Wm-2]:<br />

G0 = I0 ε (1)<br />

Nach Kreith & Kreider (1978) bzw. Duffie & Beckmann(1991) kann für ε folgender Ansatz<br />

angenommen werden:<br />

ε = 1 + 0.03344 cos (360° N/365) (2)<br />

wo N die laufende Tageszahl von <strong>1.</strong> Jänner bis 3<strong>1.</strong> Dezember ist.<br />

Die Sonneneinstrahlung auf ebenes Gelände normal zum Einstrahlungswinkel B0c [Wm-2], bei<br />

wolkenfreiem Himmel ergibt sich aus:<br />

Bhc = G0 sin h0 (3)<br />

wobei h0 dem Sonnenwinkel entspricht.<br />

Die Sonnenstrahlung auf einer geneigten Fläche Bic [Wm -2 ] ist:<br />

Bic = B0c sin δexp (4)<br />

wobei δexp dem Winkel zwischen Sonne und der geneigten Fläche entspricht.<br />

Der Winkel wird anhand der Sonnenposition und einem aus dem Höhenmodell abgeleiteten<br />

Neigungs- und Expositionsmodell bestimmt. Die Sonnenposition in Relation zur ebenen Fläche (vgl.<br />

Kumar et al., 1997) ergibt sich aus der Deklination h0 (= Winkel zwischen Sonnenstand und der<br />

ebenen Fläche) und dem Azimut A0 (= horizontaler Winkel zwischen der Sonne und dem Meridian<br />

von Osten aus):<br />

wobei<br />

sin α = sin L sin δs + cos L cos δs cos hs (5)<br />

α = der Sonnenwinkel<br />

L = geographische Breite<br />

δ = die Sonnendeklination (Winkel zw. Ebene und Sonnenstand)<br />

hs = Stundenwinkel (Azimut)<br />

Anhang 1 21<br />

Teilbericht 6


Bei der Strahlung wird hier vereinfachend nur zwischen direkter und diffuser Strahlung<br />

unterschieden. Die direkte Strahlung wird anhand Boughers’ Gesetz berechnet (Kumar et al., 1997):<br />

Ib = Io e -kM (6)<br />

k ist dabei die Absorptionskonstante und M das Luftmassen-Verhältnis, also das Verhältnis zwischen<br />

der Luftmasse, welche die Strahlung bei gegebenem Sonnenwinkel passieren muss, und jener<br />

Masse die passiert wird, wenn die Sonne im Zenit stehen würde. Die Ermittlung von k und M wird<br />

hier nicht weiter ausgeführt, hier sei auf Kumar et al. (1997) verwiesen.<br />

Die diffuse Strahlung resultiert vor allem aus der Lichtstreuung an Luftmolekülen. Die Berechnung<br />

der diffusen und reflektierten Strahlung Id basiert – Kumar et al. (1997) folgend – auf Gates (1980):<br />

wobei<br />

Id = Io τd cos 2 β/2 sin α (7)<br />

τd = der Strahlungsdiffusionskoeffizient<br />

α = der Expositionswinkel der beleuchteten Fläche<br />

β = der Hangneigungswinkel der beleuchteten Fläche<br />

Mangels Bewölkungsdaten wird die Minderung durch Bewölkung aus dem Modell berechnet, sondern<br />

anhand der tagesspezifischen Ergebnisse eines regionalen Klimamodells über die Residuen.<br />

(Die Residuen werden durch Subtraktion des Flächemittels der theoretischen Einstrahlung bei wolkenlosem<br />

Himmel des mathematisch-physikalischen Modells von den die Bewölkung berücksichtigenden<br />

Einstrahlungsergebnissen für die Modellpunkte aus dem Regionalmodell erzeugt.)<br />

Das Strahlungsmodell wurde vorerst im Grid-Modul von ARC/INFO implementiert, das verwendete<br />

AML-Script ist in Anhang 2 zu finden.<br />

Abb. A1: Schema der Einstrahlungsformen – direkte (1), diffuse (2) und reflektierte (3) Strahlung<br />

22 Anhang 1<br />

Teilbericht 6


ANHANG B AML-Script zur Berechnung der clear-sky<br />

Strahlung<br />

* =========================================================================<br />

/* @(#)shortwavb.aml <strong>1.</strong>4 09/14/2000 11:22:17<br />

/*-------------------------------------------------------------------------<br />

/* Original Code<br />

/* Lab for synthetic dynamic vegephenomenology<br />

/*-------------------------------------------------------------------------<br />

/* Program: SHORTWAVB.AML<br />

/* Purpose: This program calculates the shortwave radiation received<br />

/* at the surface of the earth over a period of time. For the<br />

/* given day(s), it calculates the sunset and sunrise times<br />

/* and intergrates solar radiation from sunrise to sunset each<br />

/* day.<br />

/* Reference: This AML program was used originally for work published as:<br />

/* Kumar, L., Skidmore, A.K., Knowles, E., (1997) Modelling<br />

/* Topographic Variation in Solar Radiation in a GIS Envi-<br />

/* ronment. International Journal of Geographical Informa-<br />

/* tion Science, 11(5): 475-497.<br />

/*-------------------------------------------------------------------------<br />

/* Usage: &r shortwavb<br />

/*-------------------------------------------------------------------------<br />

/* Notes: This AML was originally coded as "shortwave.aml" by Lalit<br />

/* Kumar. For northern hemispheres, the code had an error.<br />

/* When calculating the terrain-based overhsadowing, the<br />

/* sun passed always north of the target cell. However, the<br />

/* calculation of the radiation intensity was correct. To<br />

/* adjust the code for northern hemispheres, the shortwavc.aml<br />

/* was developed.<br />

/*-------------------------------------------------------------------------<br />

/* Addresses: Lalit Kumar<br />

/* School of Geography, University of New South Wales<br />

/* Sydney, Australia<br />

/*<br />

/* adapted for northern hemisphere<br />

/* Niklaus E. Zimmermann<br />

/* Swiss Federal Research Institute WSL<br />

/* CH-8903 Birmensdorf, Switzerland<br />

/*<br />

/* adapted for reclip:more application by Hans Zueger<br />

/* ARC systems research GmbH<br />

/* A 2444 Seibersdorf<br />

/*-------------------------------------------------------------------------<br />

/* Input: DEM<br />

/* Output: radiation covers<br />

/*-------------------------------------------------------------------------<br />

/* History: Lalit Kumar - ... - Original coding<br />

/* Lalit Kumar - 5/08/1997 - Last Modifications<br />

/* Niklaus E. Zimmermann - 11/21/1998 - Corrections (N-hemisph.)<br />

/*=========================================================================<br />

&args cover outgrid latdeg daystart dayend timeint<br />

&if [show program] ne GRID &then<br />

grid<br />

&if ^ [exists %cover% -grid] &then<br />

&return &error Grid %cover% does not exist.<br />

&if [exist %outgrid% -grid] &then<br />

&return &error Grid %outgrid% already exists.<br />

&if ^ [variable latdeg] &then<br />

&return &error need a valid latitude<br />

&if ^ [variable daystart] or %daystart% < 1 or %daystart% > 365 &then<br />

&return &error please enter a start day between 1 and 365<br />

&if ^ [variable dayend] or %dayend% < 1 or %dayend% > 365 &then<br />

&return &error please enter an end day between 1 and 365<br />

&if ^ [variable timeint] or %timeint%


&s time = %timeint% * 0.0043633 /* convert minutes into radians<br />

&s daynumber = %daystart%<br />

&s pi = 22 / 7<br />

&s degtorad = 2 * %pi% / 360<br />

&s latitude = %latdeg% * %degtorad%<br />

&if [exist slopegrid -grid] &then kill slopegrid all<br />

slopegrid = slope(%cover%)<br />

&if [exist slopegrid2 -grid] &then kill slopegrid2 all<br />

slopegrid2 = slopegrid * %degtorad%<br />

&if [exist aspectgrid -grid] &then kill aspectgrid all<br />

aspectgrid = aspect(%cover%)<br />

&if [exist aspectgrid1 -grid] &then kill aspectgrid1 all<br />

/* change so that surface azimuth is zero at south<br />

if (aspectgrid == -1) aspectgrid1 = 0<br />

else if (aspectgrid le 180) aspectgrid1 = 180 - aspectgrid<br />

else aspectgrid1 = 540 - aspectgrid<br />

&if [exist aspectgrid2 -grid] &then kill aspectgrid2 all<br />

aspectgrid2 = aspectgrid1 * %degtorad%<br />

&if [exist outgrid0 -grid] &then kill outgrid0 all<br />

outgrid0 = hillshade (%cover%, 0, 0, shadow)<br />

&if [exist initialgrid -grid] &then kill initialgrid all<br />

initialgrid = outgrid0 * 0<br />

kill outgrid0 all<br />

kill slopegrid all<br />

kill aspectgrid all<br />

kill aspectgrid1 all<br />

&if [exist sungrid -grid] &then kill sungrid all<br />

&if [exist wattsgrid -grid] &then kill wattsgrid all<br />

&if [exist wattsgrid2 -grid] &then kill wattsgrid2 all<br />

&if [exist shaded -grid] &then kill shaded all<br />

&if [exist cosi -grid] &then kill cosi all<br />

&do &until %daynumber% > %dayend%<br />

/* See Eq 7<br />

&s Io = [calc <strong>1.</strong>367 * ( 1 + 0.034 * [cos [calc 360 * %degtorad% * ~<br />

%daynumber% / 365]] )]<br />

/* See Eq 4<br />

&s decl = [calc 23.45 * %degtorad% * [sin [calc %degtorad% * 360 * ~<br />

( 284 + %daynumber% ) / 365]]]<br />

/* See Eq 6<br />

/* This line needed to be adjusted to latitudes exceeding 66.5° N/S<br />

&if [calc -1 * [tan %latitude%] * [tan %decl%]] lt -<strong>1.</strong>0 &then /*nez: check that x<br />

is not ><strong>1.</strong>0 for acos(x)<br />

&s sunrise = [acos -<strong>1.</strong>0] /*nez:<br />

"<br />

&else &if [calc -1 * [tan %latitude%] * [tan %decl%]] gt <strong>1.</strong>0 &then /*nez:<br />

"<br />

&s sunrise = [acos <strong>1.</strong>0] /*nez:<br />

"<br />

&else /*nez:<br />

"<br />

&s sunrise = [acos [calc -1 * [tan %latitude%] * [tan %decl%]]] /*orig<br />

"<br />

&s sunset = -1 * %sunrise%<br />

/* To ensure calculations are at half the time interval<br />

&s hourangle = %sunrise% - ( %time% / 2 )<br />

&s pass = 1<br />

&do &until %hourangle% < %sunset%<br />

&ty day : %daynumber%<br />

&ty pass: %pass%<br />

/* See Eq 2<br />

24 Anhang 1<br />

Teilbericht 6


powers)<br />

alt%]] <br />

alt%]]<br />

/*nez<br />

/*nez<br />

/*nez<br />

&s solaralt = [asin [calc [sin %latitude%] * [sin %decl%] + [cos %latitude%] * ~<br />

[cos %decl%] * [cos %hourangle%]]]<br />

&s test = [tan %decl%] / [tan %latitude%]<br />

/* See Eq 3<br />

&if ( [cos %hourangle%] > %test% ) &then<br />

&s solaraz = [asin [calc [cos %decl%] * [sin %hourangle%] / [cos %solaralt%]]]<br />

&else &if ( [cos %hourangle%] < %test% ) &then<br />

&s solaraz = %pi% - [asin [calc [cos %decl%] * [sin %hourangle%] / [cos %solaralt%]]]<br />

&else &if ( %test% = [cos %hourangle%] and %hourangle% >= 0 ) &then<br />

&s solaraz = %pi% / 2<br />

&else &if ( %test% = [cos %hourangle%] and %hourangle% < 0 ) &then<br />

&s solaraz = -1 * %pi% / 2<br />

&end /* don't ask :))<br />

&if ( %solaraz% >= 0 ) &then<br />

&s solarazdeg = %solaraz% * 57.29578<br />

&else<br />

&s solarazdeg = 360 - ( [abs %solaraz%] * 57.29578 )<br />

/* See Eq 11<br />

/* Below is the original code, which doesn't run under AI 8.0.2 (no raise to fractional<br />

/*&s M = [calc ( 1229 + ( 614 * [sin %solaralt%] ) ** 2 ) ** 0.5 - 614 * [sin %solar-<br />

/* Calvin Tolkamp proposed the workaround below:<br />

&s M = [calc [sqrt [calc 1229 + ( 614 * [sin %solaralt%] ) ** 2 ]] - 614 * [sin %solar-<br />

&s e = 2.7182818<br />

/*This is to back-calculate the tau-value<br />

/*&s tau = [calc ( 0.56 * ( %e% ** ( -0.65 * %M% ) + %e% ** ( -0.095 * %M% ) ) )]<br />

/*&ty Solaralt: %solaralt%, Air mass: %M%, Tau: %tau%<br />

/* See Eq 15<br />

/* Below is the original code, which doesn't run under AI 8.0.2 (no raise to fractional<br />

powers)<br />

/*&s Is = %Io% * 0.56 * ( %e% ** ( -0.65 * %M% ) + %e% ** ( -0.095 * %M% ) )<br />

/* Calvin Tolkamp proposed the workaround below:<br />

&s Is = %Io% * 0.56 * ( [exp [calc -0.65 * %M% ]] + [exp [calc -0.095 * %M% ]] )<br />

&s solaraltdeg = %solaralt% * 57.29578<br />

/*sungrid = HILLSHADE (%cover%, %solarazdeg%, %solaraltdeg%, shadow) /*nez: was<br />

disabled because it is wrong in N-lat.<br />

&if ( %solarazdeg%


* Trust me on the following two lines (You always need to fudge a little).<br />

if (cosi lt 0) shaded = 0<br />

else shaded = 1<br />

wattsgrid = %Is% * cosi * sungrid * shaded * 60 * %timeint%<br />

wattsgrid2 = wattsgrid + initialgrid<br />

kill wattsgrid all<br />

kill initialgrid all<br />

kill sungrid all<br />

kill shaded all<br />

kill cosi all<br />

rename wattsgrid2 initialgrid<br />

&s hourangle = %hourangle% - %time%<br />

&s pass = %pass% + 1<br />

&end<br />

&s daynumber = %daynumber% + 1<br />

&end<br />

%outgrid% = int(initialgrid)<br />

/* NOTE : THE UNITS FOR RADIATION IN THE OUTGRID ARE kJ/m^2/timeperiod<br />

/* If these are to be converted to MJ/m^2/day, then they should be divided by 1000 * no. of<br />

days.<br />

kill initialgrid all<br />

kill aspectgrid2 all<br />

kill slopegrid2 all<br />

26 Anhang 1<br />

Teilbericht 6


Anhang 2<br />

Protokolle der Projektmeetings


Protokoll:<br />

3. Projektvorbereitungsmeeting<br />

zum K-Wiss-Programm reclip:more<br />

‘‘research for climate protection: model run evaluation‘‘<br />

(Meeting fand erst nach offiziellen Projektbeginn statt)<br />

Do. 13.1<strong>1.</strong> 2003 ARC systems research Stadtbüro/Kolingasse 11/11, 1090 Wien<br />

10:00 – 13:00<br />

Themen:+ Allg. Vertragsbedingungen – revidiert<br />

Teilnehmer:<br />

+ Bereinigung von Unklarheiten hinsichtlich der einzelnen Leistungspakete<br />

+ Diskussion der jeweiligen Verantwortlichkeiten laut eingereichter Offerte<br />

+ Klärung offener Fragen inhaltlicher Art<br />

Name Institution E-mail<br />

Manfred Dorninger IMG - Uni Wien manfred.dorninger@univie.ac.at<br />

Bodo Ahrens IMG - Uni Wien bodo.ahrens@univie.ac.at<br />

Alexander Beck<br />

IMG - Uni Wien alexander.beck@univie.ac.at<br />

Herbert Formayer IMP - Boku herbert.formayer@boku.ac.at<br />

Wolfgang Schöner ZAMG wolfgang.schoener@zamg.ac.at<br />

Andreas Gobiet IGAM - Uni Graz andreas.gobiet@uni-graz.at<br />

Heimo Truhetz IGAM - Uni Graz heimo.truhetz@uni-graz.at<br />

(heimo.truhetz@utanet.at)<br />

Wolfgang Loibl ARC sys wolfgang.loibl@arcs.ac.at<br />

Johann Züger ARC sys johann.zueger@arcs.ac.at<br />

Mario Köstl ARC sys mario.koestl@arcs.ac.at<br />

Protokoll: Köstl, mit Ergänzungen von Loibl<br />

Allgemeine Vertragsbedingungen, Zahlungsmodalitäten<br />

ARC systems research ist zwar ein eigenständiges Tochterunternehmen der ARC<br />

Holding, allerdings an gewisse Vorgaben seitens der Holding und „Traditionen“ gebunden.<br />

Die allgemeinen Vertragsbedingungen stammen noch von der Muttergesellschaft ARC<br />

Seibersdorf research und sind für Forschungskooperationen nicht wirklich geeignet –<br />

etwa das Publikationsverbot von eigenen Entwicklungen – IGAM hat dies bemerkt und<br />

ARC systems research diesbezüglich kontaktiert.<br />

Anhang 2 1


Loibl hat darauf revidierte Vertragsbedingungen entworfen und diese an alle Projektpartner<br />

ausgeschickt. Nach Zustimmung der Partner wurden die neuen Bedingungen<br />

mit einem Begleitschreiben, in dem die alten Vertragsbedingungen als gegenstandslos<br />

erklärt werden, den Vertragspartner übergeben.<br />

Die Verträge mit den Standardvertragsbedingungen bzw. die kaufmännische Abwicklung<br />

von Projekten wird, was Rechnungslegung und Zahlungen betrifft, für die<br />

nächsten 2 Jahre von der ARC business services als weiterer ARC Holding Tochter<br />

abgewickelt. Somit hat ARC systems research nur bedingt auf Form und Art der Vertragserrichtung,<br />

Auftragsbestätigung etc. Einfluss. Deshalb wurden die Teilzahlungs-<br />

Modalitäten – wie mit den Partnern besprochen – nicht in den Vertragstext bzw. das<br />

Auftragsschreiben aufgenommen. ARC systems research wird trotzdem das 2. Drittell<br />

nach gemeinsamer Erstellung der Feinstruktur und der individuellen Arbeitsberichte zu<br />

Methoden und Datenbereitstellung und nach Rechnungslegung auszahlen.<br />

Bereinigung von Unklarheiten hinsichtlich Antriebsdaten<br />

Ahrens kümmert sich um ERA-40 für Aladin (Umfang ca. 30 GB pro Jahr).<br />

Da dieses Modell eventuell andere Felder als MM5 benötigt, übernimmt systems<br />

research die Verantwortung für den ERA-40-Download – Züger wird die Daten<br />

archivieren und den Partnern für MM5 zur Verfügung stellen. Grundsätzlich wurde<br />

festgehalten, alle ERA-40 Daten va. bezogen auf die Bodenfelder zu nutzen.<br />

(Anm. Köstl: Dies wurde von Züger bereits begonnen. Nach Recherchen von Züger ist<br />

für eine Auflösung von 2,5 ° kein gesonderter Antrag an das ECMWF zu richten,<br />

sondern nur die im Downloadformular angeführten Bedingungen für die wissenschaftliche<br />

Verwendung der Daten zu erfüllen. Die für die Verwendung feinerer<br />

Auflösung benötigte Befugnis, wird von systems research beantragt. Da die Daten in<br />

grib-Format vorliegen, sind keine Schwierigkeiten bei der Aufbereitung zu erwarten.)<br />

Die Wahl der Auflösung der Antriebsdaten – ECHAM T42 oder T106 – wurde zwischen<br />

den Beteiligten (Ahrens, Gobiet, Formayer, Loibl) diskutiert, aber noch keine definitive<br />

Entscheidung getroffen. Hier wird weiter recherchiert, ob besser geeignete T106-<br />

Antriebsdaten verfügbar gemacht werden können (Ahrens).<br />

Es ist allen Projektpartnern klar, dass ein höher aufgelöstes GCM erstrebenswert wäre,<br />

da jede zusätzliche Nestingstufe eine Unsicherheitsquelle darstellt. Auch die Tatsache,<br />

dass im T42 der Effekt der Alpen wohl kaum zum Tragen (Loibl „Flache Flunder“)<br />

kommt, kann problematisch werden.<br />

Gobiet regt an, sich zunächst auf T42 zu konzentrieren (da dieses ausgereift und<br />

verfügbar) und T106 je nach Notwendigkeit für Sensitivitätstest einzusetzen. Sollten<br />

keine T106 Läufe für die gewünschten Zeiträume zur Verfügung stehen, könnten/<br />

sollten allerdings für ausgewählte kürzere Zeitfenster Vergleiche zwischen T42- und<br />

T106-getriebene RCM’s im Rahmen der Sensitivitätsuntersuchen durchgeführt werden.<br />

Gobiet verweist weiters auf den DMI-Datensatz, der die Jahre 1970 – 1994 bzw.<br />

2060 – 2090 abdeckt. Dieser könnte ebenfalls – zumindest für die retrospektiven Tests<br />

– verwendet werden.<br />

In Zusammenhang mit der Wahl des GCM wurden auch die zu rechnenden Zeiträume<br />

diskutiert – allerdings auch hier noch keine definitive Entscheidung getroffen, da dies<br />

von den verfügbaren Zeitfenstern der Antriebsdaten abhängt.<br />

2 Anhang 2


Bei der Auswahl der Zeitscheiben f. Control runs soll nach Meinung von Dorninger in<br />

Kombination mit synoptischen Daten erfolgen: zB VERACLIM 1980-2000<br />

Dorninger verweist zusätzlich auf Lücken in MARS-Archiv vor 1980er Jahren, die nur<br />

mit unrealistisch hohem Aufwand zu füllen wären. Zusätzlich seien auch die VERA-<br />

Daten nach 1980 wesentlich besser. Er meint auch, dass MAP Perioden berücksichtigt<br />

werden sollten, da für diese umfangreiche Datensätze zur Verfügung stünden (auch in<br />

Hinsicht auf Zyklogenese, Starkniederschlag, Föhn – sehr gute Daten liegen für den<br />

Zeitraum 7.9.99 – 15.1<strong>1.</strong>99 vor).<br />

Formayer verweist in diesem Zusammenhang auch auf Notwendigkeit einer<br />

Winterperiode, um Schneebedeckung gut nachvollziehen zu können.<br />

Einigung auf Zeitraum späte 1980er und 1990 – 2000 für Kontrollläufe, da diese Jahre<br />

durch Daten am besten abgedeckt sind (zB ERA15 1979 – 1994, aber auch MAP,<br />

insbesondere MAP-SOP).<br />

Bezüglich der Zeitscheiben f. prospektive runs verweist Loibl auf CERA-Datenbank:<br />

dzt. verfügbar ETH 2041-2050, DMI 2060-2089)<br />

Ahrens berichtet von einem geplanten REMO-Lauf, der allerdings prognostisch den<br />

Zeitraum 2070 – 2100 abdeckt, somit wohl für reclip.more nicht in Frage kommt.<br />

(Nachträgliche Anm. Loibl: Der von möglichen Anwendern präferierte Zeitraum für<br />

prospektive Model runs 2020 – 2050 (vgl. Auswertung der systems research<br />

Anwender-Umfrage vom letzten Mal) kann nur dann berücksichtigt werden, wenn<br />

ausreichend getestete Antriebsdaten verfügbar sind. Allerdings scheint es im Lichte der<br />

Erkenntnisse, nämlich dass für den Zeitraum um 2020 noch keine Unterschiede<br />

zwischen „business as usual“ und IPCC- CO2-Anstiegs-Szenarien zu erwarten sind-<br />

und die Ergebnisse etwa der Charakteristik der Control runs entsprechen werden,<br />

klüger hier Antriebsdaten aus spätere Zeitscheiben zu nutzen.)<br />

Auf die Frage von Gobiet, ob denn 10 Jahre für long runs nicht ausreichen würden,<br />

antwortet Formayer, dass sich hier die Frage stelle, welche Dekade man wählt und<br />

verweist auf Ergebnisse prognostischer Läufe, bei denen zB die 2020er Jahre<br />

verhältnismäßig kühl – etwa vergleichbar mit den 1980er Jahren – wären und somit<br />

eine Dekade nicht ausreichend wäre, um etwaige Klimaänderungen erkennen zu<br />

können. Generell wären 10 Jahre für Klimastatistiken wohl zu kurz. Formayer ist da für<br />

eine 30 jährige Reihe, um die Variabilität des Klimas über die Zeit auszugleichen.<br />

Validierung und Sensitivitäts-Untersuchungen<br />

Sensitivitätstests<br />

Es herrscht Konsens zw. der Gruppe der Modellierer und der Validierer, eine Liste<br />

möglicher Sensitivitätstests zu erstellen, um abschätzen zu können, welche Parameter<br />

überhaupt benötigt werden. Dies geschieht insbesondere im Hinblick auf den<br />

(Witterungs-/Klima-bezogenen) Einfluß der Alpen.<br />

Dazu meint Formayer, er werde mit KollegInnen am IMP eine Liste sinnvoller Test<br />

zusammenstellen, die dann von den Projektpartnern bezüglich Notwendigkeit und<br />

Machbarkeit bewertet werden sollte. Dann kann gestrichen werden, was nicht machbar<br />

ist. Allgemeine Zustimmung.<br />

Anhang 2 3


Da diese Tests maßgeblichen Einfluss auf benötigte Input-Daten und den<br />

Validierungsvorgang haben, sollte daher nach Meinung Formayers eine Klärung dieser<br />

Frage hintangestellt werden. Auch sollten noch Schnittstellen zwischen den einzelnen<br />

Tasks (va. Validierung und Modellierung) definiert werden. Als Validierungs-Tool sollte<br />

VERA verwendet werden, da dies ein „standartisiertes“ Gitter wäre.<br />

Validierung<br />

Dorninger berichtet kurz von semioperativen Erfahrungen mit diversen Modellen<br />

(Aladin, LM) und wünscht von Modellbettreibern die Nennung der Outputformate,<br />

insbesondere Parameteranzahl und -art.<br />

Auf die Frage Formayers, inwieweit VERA für Verwendung in reclip:more adaptiert<br />

werden müsste, erklärt Dorninger, dass derzeit Bodendruck, T2m, Wind und Feuchte<br />

(als Differenz zwischen der äquivalent-potentiellen und potentiellen Temperatur) operational<br />

zur Verfügung stünden, Tmin und Tmax hingegen nicht. Diese zu implementieren<br />

sollte allerdings keine Probleme bereiten.<br />

Auf Frage von Köstl, ob man nicht auch statistische Methoden zur Validierung<br />

verwenden sollte, antwortet Formayer, dass die zwar für die Temperatur machbar sei<br />

(und auch schon durchgeführt wurde), beim Niederschlag hingegen eher schlechte<br />

Ergebnisse erzielt wurden: Statistical downscaling bringt für T einen r 2 von 0,7 während<br />

der Niederschlag nur einen r 2 von 0.2 bis 0.3 liefert.<br />

Bezüglich der Frage, auf welchem Scale die Validierung stattfinden sollte, erklärt<br />

Ahrens, dass sich hierfür 20 – 40 km eignen würden, da dies einerseits dem VERA-<br />

Gitter entspräche (und auch ERA-40 eine vergleichbare Auflösung besitzt) und<br />

andererseits RCM-Ergebnisse auf 10 km-Basis ebenfalls zunächst um einen Faktor 4<br />

upgescalt werden müssen, um anschließend mittels dynamischen Downscalings<br />

höhere Auflösungen erreichen zu können. Würde dies nicht gemacht, würden man<br />

unrealistische räumliche Verteilungsmuster erzielen. Vorsicht sei auch bei GCM-<br />

Validierung der Control runs geboten: T42 Extremereignisse sind nicht unbedingt T106<br />

Extremereignisse.<br />

Formayer verweist in diesem Zusammenhang auf Ergebnisse von PRUDENCE und<br />

erklärt, dass, sollten auf dem VERA-Scale zB die Temperatur nicht stimmen, diese<br />

auch auf feineren Scales nicht verbessert werden könne.<br />

Laut Schöner und Formayer sollte die Validierung jedenfalls auf keinen Fall auf<br />

Punktdaten erfolgen, da hier zu viel lokale Information mit eingehen würden).<br />

Loibl wünscht sich zur Validierung für Detailregionen zumindest 1 km. Auf Bedenken<br />

von Gobiet, dass dies doch eine zusätzlicher Interpolationschritt wäre, meint Ahrens,<br />

dass es sich hierbei nur um ein Upscaling handelt und dieses ohnehin notwendig wäre,<br />

ob aber dafür VERA geeignet wäre, muss man noch diskutieren.<br />

Auf Frage von Gobiet, wird festgestellt, dass Bodenfelder mittels VERA, vertikale<br />

Profile hingegen mit Radiosonden verifiziert werden sollten.<br />

Regionalisierung<br />

Schöner: Neben der flächenhaften Umlegung von Punktinformationen (Upscaling),<br />

birgt auch der umgekehrte Vorgang (oder zumindest das Downscaling von einer<br />

groben Auflösung auf zB 1 km) für klimatologische Fragestellungen eine große<br />

Unsicherheit.<br />

4 Anhang 2


Laut Formayer ist eine Adaption von MOST (Model Output Statistics) für Klimafragen<br />

nicht trivial und im Rahmen von reclip.more nicht machbar. Dies wäre allerdings<br />

sinnvoll und könnte ev. im Rahmen des FORNE-Programms (neuerdings unter<br />

PROVISION) geschehen.<br />

Gobiet meint, zunächst die Ergebnisse der Sensitivitäts-Studien ab zu warteten.<br />

Truhetz berichtet von Projektteil Wind für die noch zu definierenden study areas:<br />

Hierfür soll ein mikroskaliges Modell auf MM5 mit feinem DHM aufgesetzt werden. Der<br />

Plan ist, das bodennahe Windfeld auf eine Auflösung < 1 km zu regionalisieren. Er<br />

wünscht ein möglichst feines DHM.<br />

Loibl erklärt darauf, dass in systems research im Prinzip DHMs für Ö mit 250m<br />

Auflösung bereitstehen, 100 m Auflösung kann für (noch zu bestimmende) study areas<br />

generiert werden. Für Europa gibt’s das 30“ DHM des USGS, das ebenfalls verfügbar<br />

wäre.<br />

Er meint weiters, dass Abweichungen vom DHM durchaus berücksichtigt werden<br />

sollten und hierfür auch Methodenentwicklungen (zB mittels Residuen-Ausgleich)<br />

überlegt werden sollten.<br />

Auf Frage Loibls, wie dies in VERA gehandhabt wird, erklärt Dorninger, dass zunächst<br />

Modell-Gitterpunkte auf das VERA-Gitter übertragen werden (und wegen der gröberen<br />

Auflösung dafür mehrere Punkte zur Verfügung stehen) und dann die Höheninformation<br />

berücksichtigt wird.<br />

Loibl: können auch Tagesgänge – etwa über empirisch gewonnene Funktionen<br />

berücksichtigt werden? Dorninger muss hier nachfragen.<br />

Ahrens erklärt, dass Niederschlag und Strahlung nicht in VERA enthalten wären und<br />

Informationen bezüglich der Bodenfeuchte ohnehin nur aus ERA-Daten zu extrahieren<br />

sind. Formayer bestätigt, dass mit VERA im Wesentlichen nur die Dynamik überprüft<br />

werden kann, ansonsten Klimadaten (ev. auf Monatsbasis) verwendet werden müssen.<br />

Truhetz erklärt, dass MM5 zur Berechnung der Bodenfeuchte Landbedeckungssdaten<br />

benötigt. Ahrens verweist diesbezüglich auf neuen NOAA-Datensatz (Anmerkung Loibl<br />

zu grob – besser CORINE-Landcover für Europa nehmen).<br />

Formayer meint, dass Landbedeckung und Bodenschemata sehr kritische Punkte<br />

wären (vor allem in Hinsicht auf die Energiebilanz) und verweist auf PRUDENCE-<br />

Ergebnisse. Diese Punkte müssen unbedingt im Rahmen der Sensitivitätsuntersuchungen<br />

geklärt werden. Auch auf die Strahlungsbilanz sollte große Aufmerksamkeit<br />

gelegt werden!<br />

Köstl erklärt sich auf Fragen von Ahrens, Beck und Truhetz in Zusammenhang mit<br />

Landnutzung und -bedeckung bereit, ARC-Daten zu durchforschen (zB CORINE-<br />

Daten) und Information darüber den Fragenstellern zukommen zu lassen.<br />

Laut Züger ist in MM5 V3.6.1 das neue Noah Land-Surface Scheme implementiert.<br />

Dieses ersetzt das alte OSU Land-Surface Scheme. In MM5 sind weltweite Daten für<br />

DEM, Landuse, Vegetation (25 Kategorien) und Soil (17 Kategorien) in Auflösungen bis<br />

zu 30“ implementiert.<br />

Anhang 2 5


Zeitliche Auflösung<br />

Auf Frage von Gobiet, welche Zeitschritte benötigt würden und deshalb abgespeichert<br />

werden müssten (Problem Datenmenge!), antwortet Formayer, dass die von der<br />

jeweiligen Fragestellung abhinge.<br />

So würden zB für die Fragen bezüglich Bodenfeuchte und Schneeakkumulation<br />

tägliche bzw. monatliche Daten ausreichen. Allerdings müsste man diese im Rahmen<br />

einer Sensitivitätsanalyse (zB bei Fragen der Schneebedeckung) für mehrere Jahre<br />

abspeichern. Man sollte bedenken, dass auch short runs für die Sensitivitätstests<br />

mitunter mehrere Jahre dauern müssten!<br />

Nach allgemeiner Diskussion stellte sich ein 6-stündiger Output als geeigneter<br />

Kompromiss heraus, da damit über die Variabilität des Tagesganges auch Tmin und<br />

Tmax geschätzt werden können.<br />

Dorninger gibt zu bedenken, dass auch Tagesgänge sinnvoll seien.<br />

Loibl verweist auf einen Datensatz von systems research (Temperatur – Tagesgänge<br />

für 2 Jahre der 90er Jahre), der zur verfügung gestellt werden könnte.<br />

Für die Windmodellierung sind laut Truhetz auch stündliche Daten notwendig<br />

Züger bietet an, die Modell-Output-Routinen zu durchforsten, und nur notwendige<br />

Parameter auszugeben.<br />

Da letztendlich all diese Fragen nur nach Definition der Sensitivitäts-Studien geklärt<br />

werden können, wird von Formayer nochmals auf die zu erstellende Liste (vgl. oben)<br />

hingewiesen.<br />

Allgemeines<br />

Gobiet regt Bildung von Workpackages an (zB Sensitivitätsanalyse – Validierung –<br />

Regionalisierung Modellierung der short runs – Modellierung der long runs, da sich in<br />

diesen die einzelnen Projektpartner leichter wieder finden könnten.<br />

Loibl wird diesbezüglich (und auch hinsichtlich aller oben besprochenen Punkte)<br />

modifizieren und an alle Partner weiterleiten (siehe Anhang).<br />

Die Überlegung von Loibl, Subroutinen zum Datenoutput zu erstellen und direkt in die<br />

Modelle zu inkludieren wird nach allgemeiner Diskussion verworfen. Vielmehr sollte ein<br />

Interface geschaffen werden, um den Datenaustausch sicherzustellen.<br />

Die Berechnungen sollten nach Meinung von Schöner wenn möglich mit R (SASbasierende<br />

Statistik free ware) erfolgen werden.<br />

Loibl meint, das wäre zu überlegen, letztendlich sei aber hier keine Batchroutine,<br />

sondern ein flexibles Programm notwendig, das direkt auf die RCM-Ergebnisse aufsetzen<br />

kann.<br />

Die Ergebnisse der jeweiligen Modellläufe sollten von den einzelnen Modelliergruppen<br />

geprüft werden. Hier sollte Eigenverantwortlichkeit herrschen und letztlich nur<br />

abschließend ein „Supervision“ eines Subteams erfolgen.<br />

6 Anhang 2


Weitere Vorgehensweise:<br />

Die von Formayer zusammengestellte Liste möglicher Sensitivitätstests wird via E-mail<br />

an alle Projektpartner gehen. Aus dieser Liste sollen dann jene Experimente gewählt<br />

werden, die mit machbarem Aufwand durchgeführt werden können<br />

Bezüglich der Methoden des Upscalings und der Aufgabenteilung in diesem Task<br />

werden sich Schöner und Loibl ca. in den nächsten 2 Wochen besprechen.<br />

Die gebildeten Sub-Gruppen sollten sich wenn möglich noch vor Jahresende treffen,<br />

um die Feinstrukturierung der Tasks zu diskutieren (dies kann auch per E-mail<br />

geschehen)<br />

Anm. Gobiet: wir sollten uns endlich auf eine gemeinsame Nomenklatur einigen!<br />

Anscheinend verwenden Geographen den Begriff Upscaling wo Meteorologen den<br />

Begriff Downscaling verwenden. Vielleicht genügt ja der Begriff ‚Regionalisierung’.<br />

Für Jänner 2004 ist ein das nächste Meeting vorgesehen<br />

Im Februar 2004 soll ein Workshop mit internationaler Beteiligung (zB von STARDEX,<br />

QUIRCS, etc.) stattfinden.<br />

Anhang 2 7


8 Anhang 2


Protokoll:<br />

<strong>1.</strong> Projektmeeting<br />

zum K-Wiss-Programm reclip:more<br />

‘‘research for climate protection: model run evaluation‘‘<br />

Fr. 30.<strong>1.</strong> 2004 IMG – UZA II/ Althanstraße 14, 1090 Wien,<br />

10:00 – 13:00<br />

Themen: + Allgemeines zur Rechnungslegung<br />

Teilnehmer:<br />

+ Stand der Bearbeitung – Kurzberichte<br />

+ Projektfeinstruktur<br />

+ reclip:strat - Vorstellung der strategischen Begleitforschung<br />

+ Allfälliges<br />

Name Institution E-mail<br />

Manfred Dorninger IMG - Uni Wien manfred.dorninger@univie.ac.at<br />

Barbara Chimani<br />

IMG - Uni Wien barbara.chimani@univie.ac.at<br />

Bodo Ahrens IMG - Uni Wien bodo.ahrens@univie.ac.at<br />

Alexander Beck<br />

IMG - Uni Wien alexander.beck@univie.ac.at<br />

Herbert Formayer IMP - Boku herbert.formayer@boku.ac.at<br />

Wolfgang Schöner ZAMG wolfgang.schoener@zamg.ac.at<br />

Andreas Gobiet IGAM - Uni Graz andreas.gobiet@uni-graz.at<br />

Heimo Truhetz IGAM - Uni Graz heimo.truhetz@uni-graz.at<br />

Wolfgang Loibl ARC sys wolfgang.loibl@arcs.ac.at<br />

Johann Züger ARC sys johann.zueger@arcs.ac.at<br />

Thomas Roediger-Schluga ARC sys Thomas.roediger-schluga@arcs.ac.at<br />

Mario Köstl ARC sys mario.koestl@arcs.ac.at<br />

Protokoll: Köstl, Ergänzungen: Züger, Loibl<br />

Allgemeines zur Rechnungslegung<br />

Die Auftragsbestätigungen für 3 Partner (MIG-Dorninger,IMG-Ahrens; BOKU) mit<br />

Ersuchen um Überweisung der Anzahlung wurden von ARC business services nicht<br />

als Rechnung akzeptiert – dies allerdings erst Ende Jänner auf Nachfrage den ARC<br />

systems research mitgeteilt.<br />

Anhang 2 9


Loibl übermittelt an die Institute Vorschläge für die Formulierung einer<br />

Anzahlungsdrechnung (Anm. Köstl: bereits erledigt). Mehrere Teilnehmer geben zu<br />

bedenken, dass es aufgrund der Universitätsreform nun keine Institute mehr gibt und<br />

deswegen Rechnungen künftig über das Dekanat gehen müssen.<br />

Stand der Bearbeitung<br />

A) Daten, Antriebsdaten<br />

• Messdaten<br />

Schöner überreicht 2 CDs mit startclim-Daten; bezüglich der mittleren Tagesgänge (ca.<br />

15 Jahre, regionalisiert) möchte er noch etwas abwarten und die Daten-Ansprüche der<br />

Projektpartner abklären (Je eine CD geht an systems research und an IGAM, da die<br />

anderen Partner in StartClim involviert sind und die Daten auf direktem Wege<br />

bekommen, bzw. evtl. bereits bekommen haben)<br />

Bezüglich der Zugänglichkeit bzw. der Einrichtung einer Datenbank regt Loibl an, bei<br />

allen Institutionen wenn notwendig eine FTP-download area, für die Projektpartner<br />

einzurichten, systems research wird dies jedenfalls tun; weiters wurde diskutiert, eine<br />

Metadatenbank einzurichten, wo die Dateiname, Inhalte und FTP-Adressen der<br />

verfügbaren Datensätze erfasst sind.<br />

Formayer regt eine einheitliche Nomenklatur an. Auf Vorschlag von Loibl, sich da an<br />

StartClim zu orientieren, meint Formayer, dass dies dort nicht immer so einheitlich<br />

passiert wäre…)<br />

• EU-Synop-Daten, MAP-Daten, Wettersondendaten<br />

Dorninger überreicht jedem der Partner eine DVD (incl. kurzen word-Text mit<br />

Erklärungen und einem Abriss, wie die Daten mittels READ Befehl eingelesen werden<br />

können) mit dreistündigen SYNOP-Daten aus dem MARS-Archiv von 1979 bis 2000 für<br />

den Großraum Alpen (Rohdaten, zwar in ASCII-Format aufbereitet, allerdings nicht<br />

qualitätskontroliert!) und bittet die Projektpartner die Daten (laut ECMWF-Richtlinien)<br />

nicht außerhalb des Projektes zu verwenden bzw. diese nicht an Dritte weiter zu<br />

geben;<br />

Auf Frage von Truhetz zur Qualitätskontrolle erklärt er, dass bei diesen Daten der flag<br />

nicht berücksichtigt wurde, da VERA Clim eine eigene Qualitätskontrolle durchführt;<br />

Bei den MAP-Daten verweist Dorninger auf die Datenbank der ETH Zürich<br />

(http://www.map.ethz.ch/map-doc/datacenter.htm; dort gibt es zwei Kategorien von<br />

Daten – einerseits solche, die für alle Interessierten frei zugänglich sind, und<br />

andererseits sensible Daten, für die ein spezielles Zugriffsrecht notwendig ist (hierfür<br />

muss man das Projekt angeben, danach sollte man innerhalb von drei bis vier Wochen<br />

eine Zugriffsermächtigung erhalten); empfiehlt allen Validierern, sich die Datenbank<br />

anzusehen, um sich eine Meinung bezüglich der gewünschten Daten und der Termine<br />

zu machen);<br />

<strong>1.</strong> MAP-seasons umfassen die Jahre 1992-1999 jeweils von 16.-30-1<strong>1.</strong> jedes Jahres.<br />

Parameter: GTS Daten, 24h accumulated precipitation (Analyse nach Christoph Frei)<br />

2. MAP episodes sind spezielle, nach Wettersituation ausgesuchte Episoden. Es liegen<br />

vor: synoptische Beschreibung, verschiedenste Daten (nicht einheitlich), Ergebnisse<br />

von Modellsimulationen etc.<br />

3. zusätzliches Datenmaterial und ultra fine scale Simulationen während der SOP/IOPs.<br />

Die Frage von Formayer, ob, wenn der Zeitraum einmal definiert ist, ob dann nicht<br />

Dorninger die Daten downloaden könnte, bejaht dieser.<br />

10 Anhang 2


Auf Frage von Truhetz, ob auch Windmessungen vorhanden wären, wird auf spezielle<br />

Teilprojekte (zB FORM - Messungen im Rheintal – wo 3D-Windfelder zur Verfügung<br />

stehen) bzw. Radiosondenmaterial verwiesen. (Allerdings besitzen diese meist einen<br />

Feuchtebias, dh. sie sind i.d.R. zu trocken hier ist Qualitätskontrolle notwendig).<br />

Für die Verwendung der CALRAS Daten (qualitätskontrollierter Radiosondendatensatz)<br />

wurde Herr Häberli von Dorninger vor ca. zwei Monaten wegen der Datenbereitstellung<br />

kontaktiert. Dieser wird sich beim nächsten Wien-Aufenthalt darum kümmern (da es<br />

sich hier auch um high resolution data handelt, geht es hier auch um die Einholung<br />

einer Genehmigung von diversen Wetterdiensten);<br />

• ERA-40 Daten<br />

Loibl informiert, dass kein Ansuchen für ein special project notwendig wäre, um Daten<br />

zu erhalten, sondern ein einfacher Antrag um Genehmigung zum Datendownload via<br />

ZAMG/Dr. Wiehl genügt – dieser Antrag ist gestellt, die Zugangscodes sind für die<br />

kommenden Wochen zu erwarten; Züger berichtet, dass ein Datensatz mit 2,5° frei<br />

zugänglich ist, den er bereits für Probeläufe verwendet (allerdings war es dafür<br />

notwendig, den Zeitschritt zu halbieren, da es sonst immer wieder zu Verletzungen des<br />

CFL-Kriteriums kam);<br />

Anschließend erfolgte eine kurze Diskussion über numerische Instabilitäten: Truhetz<br />

verweist auf alternative Verwendung von CERA-Datenbank; Formayer gibt zu<br />

Bedenken, dass wahrscheinlich noch kleinere Zeitschritte notwendig sein werden;<br />

Beck sieht das Problem ev. in der vertikale Interpolation(von ERA-40 auf MM5<br />

Niveaus); für Ahrens’ Aladin-Rechnungen bestehen bei ERA-40-Daten keine<br />

Probleme;<br />

• GCM-Daten<br />

Truhetz berichtet von zwei in Frage kommenden transienten Läufen (ECHAM 4,<br />

T42/19 levels); nach Anfrage von Ahrens, ob man sich nicht schon auf T106 geeinigt<br />

hätte, kommt es zu reger Diskussion:<br />

Laut Protokoll vom 13.1<strong>1.</strong>2003 (Punkt B – Bereinigung von Unklarheiten hinsichtlich<br />

Antriebsdaten) gab es diese nicht, allerdings wurde von den meisten Meeting-Teil–<br />

nehmern T106 bevorzugt, sofern diese Daten zur Verfügung stünden. Gobiet regte<br />

damals an, sich zunächst auf T42 zu konzentrieren (da dieser Datensätze ausgereift<br />

und gut verfügbar sind) und T106 je nach Notwendigkeit für Sensitivitätstest einzusetzen.<br />

Formayer stellt u.a die Frage, ob in 6 oder 12-stündigen Intervallen abgespeichert<br />

werden sollte ( Datenmenge), Ahrens verweist darauf, dass dies von<br />

Domainlage/-größe und speziellen Wetterlagen abhängig wäre;<br />

Formayer schlägt vor, im Rahmen der Sensitivitätsstudien zu untersuchen, welche<br />

Unterschiede sich bei 6- bzw. 12-stündigen Forcing ergäben;<br />

Als Ergebnis der Diskussion gibt es eine Einigung auf T106 (dzt. verfügbar in CERA-<br />

Datenbank: ETH: 2041-2050, DMI: 2060-2089) mit 6stündigen Intervallen; dass diese<br />

Läufe ev. spätere Dekaden als geplant abdecken sollte kein Problem sein (da ohnehin<br />

vor 2050 keine großen Unterschiede der Szenarien zu erwarten sind). Gobiet und<br />

Truhetz nehmen dies zu Kenntnis;<br />

Bezüglich der control runs wendet Formayer ein, man sollte nicht die extremen 90er<br />

Jahre des 20. Jhdts. verwenden (ua. auch wegen Einfluss verstärkter Vulkantätigkeit),<br />

daher Einigung auf Zeitraum 1980er Jahre und das Jahr 1999 für die short-runs;<br />

Anhang 2 11


Dass GCMs laut Truhetz mit 30 Tagen pro Monat rechnen, ist laut Züger kein Problem,<br />

einzig der Beginn und die Länge des Zeitraums seien ausschlaggebend, da Sonnengang<br />

ohnehin auf 360 Tage bezogen wird; zusätzlich berichtet Truhetz, dass es einige<br />

spezielle Bezeichnungsdifferenzen bzgl. Datum/Jahreszahlen gibt, die ev. Änderungen<br />

des Modell-Codes erforderlich machen würden;<br />

Dass für verschieden Bodentiefen keine soil moisture, sondern nur eine gesamte soil<br />

wetness ausgegeben wird, sollte ebenfalls keine Probleme bereiten, da ohnehin bei<br />

der Initialisierung der LAMs der Boden als gesättigt angenommen wird;<br />

B) Sensitivitätstests – Validierung – (MM5-Programm-Kompatibilität)<br />

Formayer verweist auf Vorschlag von IMP-Gruppe und Rückmeldungen einiger<br />

Projektmitglieder (siehe E-mails vom 19.<strong>1.</strong>2004):<br />

Im Wesentlichen sollen Cumulus- und Grenzschicht-Parametrisierung, das explicit<br />

moisture scheme, die Strahlung und das SVAT (Soil Vegetation Atmosphere<br />

Transphere) Schema untersucht werden. Zusätzlich sollen Tests zur Dynamik des<br />

Modells über den Alpen (zB Südföhn, Nordföhn, Lee-Zyklogenese im Mittelmeer, Vb-<br />

Wetterlage, Kaltfront mit Starkwind an Alpennordseite) durchgeführt werden;<br />

Alle diese Untersuchungen sollten wenn möglich innerhalb eines Jahres durchgeführt<br />

werden (Ahrens verweist hierbei wegen MAP SOP auf das Jahr 1999.<br />

Nach Diskussion gibt es Einigung für 1999 als retrospektive short-run Episode.<br />

Ahrens möchte mit Aladin va. das SVAT Schema mit verschiedenen Klimafiles<br />

untersuchen (zB durch Austausch div. Kennzahlen). Zusätzlich könnte das IMG auch<br />

Untersuchungen bezüglich inkompatibler Parametersettings durchführen. Auch längere<br />

Läufe (1 Jahr oder mehr) können (und werden) am IMG durchgeführt werden.<br />

Im Zusammenhang mit den Sensitivitätstest verweist Formayer auch auf eine E-mail<br />

von Chr. Frei, in der dieser auf die Notwendigkeit von Tests für die Festlegung der<br />

Modelldomains, der Nestingstufen (Auflösungsschritte) und der Update-Frequency<br />

hinweist und zu bedenken gibt, dass Test von jeweils 2-3 Episoden mit einer Dauer<br />

von 2-5 Tagen eine sehr kleine Stichprobe für eine Entscheidung der geeigneten<br />

Parametrisierungsoption wäre. Frei schlägt vor die Episodenzahl zu vergrößern, im<br />

Sommer sogar mindestens zu verdoppeln. Je nach der Größe des Modellgebietes<br />

braucht es auch eine gewisse Zeit bis sich die feinskaligen Strukturen entwickelt<br />

haben. Die Spin up Zeit für ein Europäisches Modellgebiet liegt laut Frei in der Größenordnung<br />

von 2-4 Tagen. Damit das Verhalten der Parametrisierungen im Klimamode<br />

getestet werden können, müssten möglicherweise größere Episodendauern betrachtet<br />

werden.<br />

Zusätzlich muss geklärt werden, welche Felder (zB für Vergleich mit VERA Clim)<br />

ausgegeben werden sollten. Für spezielle Untersuchungen könnte das IMG punktuelle<br />

Versuchsdaten der BOKU zur Verfügung stellen.<br />

Auf Frage von Schöner, ob MAP episodes oder seasons verwendet werden sollen,<br />

erklärt Dorninger, dass beides sinnvoll und machbar wäre; Bezüglich Schneedaten<br />

verweist Formayer auf StartClim.<br />

Ahrens erklärt, dass er mit Aladin eine umgekehrte Vorgangsweise wählt: Ausgehend<br />

vom fixen Bodenschema sollen dabei die diversen Kennzahlen ermittelt werden;<br />

12 Anhang 2


Für VERA Clim stellt Dorninger die Frage nach der gewünschten Auflösung. Er wird die<br />

Arbeiten erst durchführen, nachdem man sich auf eine Auflösung geeinigt hat.<br />

Dorninger und Chimani bitten nochmals eindringlich die Modellierer, Probefiles der<br />

Modellausgaben zu übermitteln! Hierfür sollten die Modellierer so bald wie möglich<br />

jeweils ein Outputfile an barbara.chimani@univie.ac.at zwecks genauerer Spezifikation<br />

schicken. Um den Vergleich der Modelloutputs mit den VERA-Feldern zu berechnen<br />

sind folgende Felder notwendig: eine Datei mit der Modelltopographie (möglichst in der<br />

Form: Lambda, Phi, Höhe von jedem Gitterpunkt) und eine Datei mit den Daten für<br />

jeden Gitterpunkt:<br />

• Parameter der untersten Modellfläche: Temperatur, Druck, Feuchtemaß (spez. Feuchte<br />

oder Taupunkt), Höhe<br />

• Bodenparameter: T2m, Bodendruck und auf Meeresniveau reduzierter Druck,<br />

Feuchtemaß (rel. Feuchte oder Taupunkt), Tmin, Tmax, v10m (u- v- Windkomponente)<br />

Ein Format mit Lambda, Phi und anschließend den verschiedenen Parameter in<br />

einzelnen Spalten wäre von Vorteil. Wichtig natürlich jeweils in der Auflösung mit der<br />

sie dann die retrospektiven Läufe durchführen werden (vgl. e-mail vom 4.12.2003).<br />

C) Modellierung<br />

• Modellierung mit MM5<br />

Züger berichtet über Erfahrungen bezüglich Domain-Festlegung bzw. Auswirkungen<br />

durch Verschiebungen der Domains (besonders des Mother Domains).<br />

Es gab bereits Untersuchungen der verschiedenen Schemata und Randbedingungen,<br />

allerdings kann hier nicht beurteilt werden, ob eine Parametrisierung besser ist als eine<br />

andere (die Ergebnisse sind anders, aber nicht wirklich besser oder schlechter).<br />

Jedenfalls kann gesagt werden, dass die Wahl der Lage und der Größe der Domains<br />

großen Einfluss auf die Ergebnisse hat.<br />

Das in systems research momentan verwendete Setup verwendet 3 Domains mit<br />

40x70, 61x76 und 94x139 Gitterpunkten und Auflösungen von 90, 30 und 10 km. Es<br />

wird momentan eine Lambert-Projektion mit dem Zentrum bei 13°30’ Länge und 48°<br />

Breite und den 1 st und 2 nd TrueLatidutes bei 46° und 49° verwendet. In Zukunft wird<br />

dies auf Werte der in Österreich aktuell gebräuchlichen Lambert-Projektion geändert<br />

(Zentrum bei 13°20’ und 47°30’). Die äußerste Domäne reicht vom Atlantik bis zur<br />

Kaspischen See und von Nordafrika bis Südskandinavien, die 2. Domäne von der<br />

Atlantikküste bis zum Bosporus und von Sizilien bis Dänemark, die innerste Domäne<br />

vom Golf von Genua bis Südpolen.<br />

Formayer merkt die Wichtigkeit der Tatsache an, dass Übergänge der einzelnen<br />

Nestings sorgfältig ausgewählt werden müssen (zB nicht bei Gebirgskämmen etc.) da<br />

es sonst zu Schwierigkeiten kommen kann.<br />

Truhetz berichtet von Versuchen mit MM5 V3.6.2 das Ergebnis des Datensatzes<br />

„storm of the century“ des NCAR mit nachzurechen: Dabei wurden für einzelne<br />

Parameter Abweichungen von 1/10 % beobachtet, obwohl nur 12 Stunden gerechnet<br />

wurden! Als Erklärung dafür wurden unterschiedliche Compiler bzw. Plattformen<br />

genannt. Die wahrscheinlichste Erklärung allerdings dürfte sein, dass das NCAR nicht<br />

mit IEEE Festlegung gerechnet hat (auf IEEE-Maschinen mit den entsprechenden<br />

compilern müsste laut Beck vollständige Übereinstimmung erreichbar sein! In der<br />

Praxis, sprich bei sehr komplexen Programmen, geht das oft nicht. Was aber jedenfalls<br />

moeglich sein sollte, ist dass bei erzwungener IEEE-Kompatibilität die Unterschiede<br />

am geringsten sein müssen.);<br />

Anhang 2 13


Beck regt deswegen Tests der beteiligten Institutionen ARC – IGAM – IGM an,<br />

Formayer schränkt ein, dies wäre nur dort notwendig, wo Plattformübergreifende Tests<br />

für dieselben Zeiträume durchgeführt werden.<br />

Auf Frage von Truhetz bezüglich der Zängl-Version von MM5 meint Formayer, das bei<br />

der in reclip:more angestrebten Auflösung wahrscheinlich keine maßgeblichen<br />

Unterschiede zu erwarten sind, er könnte sich diesbezüglich aber Sensitivitätstest<br />

vorstellen;<br />

• Modellierung mit Aladin<br />

Ahrens berichtet von coupling-Strategien bei Aladin: es ist nur eine Nestigstufe mit<br />

260 x 220 Zellen vorgesehen (Mehrfaches nesting verschlechtert laut Ahrens die<br />

Performance erheblich), dies würde eine Auflösung von ca. 15 km ergeben (Züger<br />

meint, dass bei Verwendung von T106 bei MM5 auch nur 2 nests notwendig wären);<br />

Zusätzlich bemerkt Ahrens nochmals, dass für die Modellvergleiche ohnehin eine<br />

Aggregierung von ca. 4 Gitterzellen notwendig ist (dh. der Vergleich müsste auf einer<br />

Skala von 40 – 60 km erfolgen;<br />

Formayer meint, dass subskalige Effekte aus VERA herausgerechnet werden müssen<br />

und ein Gitterzellen-Vergleich daher durchaus sinnvoll sei; Beck meint hingegen, dass<br />

dies aufgrund numerisch unterschiedlicher Gitterpunkte nicht sinnvoll wäre;<br />

Nach kurzer Diskussion sind sich alle Teilnehmer einig, dass durch Verwendung des<br />

„standardisierten“ Gitter von VERA Clim keine Problem beim Vergleich auftreten<br />

sollten;<br />

D) Regionalisierung<br />

Loibl gibt kurze Einführung und berichtet kurz von 2 Regionalisierungs-Meetings mit<br />

Schöner wo Literatur gesichtet und über unterschiedliche Methoden diskutiert wurde.<br />

Für die Modellierung von Tmean, Tmax, Tmin, Niederschlag ist geplant die AURHELY-<br />

Methode einzusetzen, Schneedecke wird aus NS und Temperatur abgeleitet.<br />

Globalstrahlung wird mit einem physikalischen Modell über Sonnenstand, Evwölkung<br />

und Exposition gerechnet. Wind wird ebenfalls numerisch gerechnet.<br />

Schöner merkt an, dass es sich bei der Regionalisierung um zwei Schwerpunkte<br />

handelt: einerseits um ein herkömmliches Downscalingverfahren und andererseits um<br />

die Verfeinerung auf ca. 1 km. Va. für das Downscaling von Tmin, Tmax sind noch<br />

zusätzliche Recherchen und gegebenenfalls Überlegungen notwendig.<br />

Truhetz erläutert nochmals kurz den Projektteil Wind. Hierfür soll das diagnostische<br />

mikroskalige Modell CALMET auf MM5 mit feinem DHM aufgesetzt werden. Der Plan<br />

ist, das bodennahe Windfeld auf eine Auflösung < 1 km zu regionalisieren. Für die<br />

benötigten Eingangsdaten Rauhigkeitslänge [m], Albedo der Oberfläche (hierbei ist die<br />

schneefreie Albedo gemeint), Bowen-Verhältnis Wärmeflussparameter des Bodens Cg<br />

und (optional) Anthropogenetischer Wärmeeintrag Qf [W/m2] stehen eine Übernahme<br />

von Werten aus Fachliteratur, ev. Fernerkundungsdaten bzw. Modellergebnisse von<br />

Aladin bzw. MM5 zu Auswahl.<br />

Formayer gibt zu bedenken, dass die Auflösung der Landbedeckung ev. ein Problem<br />

darstellen könnte; auf seine Frage bezüglich extremer Windgeschwindigkeiten meint<br />

Truhetz, dass thermische Effekte vernachlässigt werden müssen, da ansonsten<br />

größere Probleme zu erwarten sind;<br />

14 Anhang 2


Projektfeinstruktur<br />

Loibl stellt sich folgende Einteilung bzw. Verantwortlichkeiten vor:<br />

Daten:<br />

Ö Messdaten: Schöner<br />

EU Daten: Dorninger<br />

ERA-40: Ahrens + Züger<br />

GCM: Gobiet /Truhetz<br />

Modellierung, Modellparametrisierung:<br />

MM5: Züger (Version, Code-Abgleich, Binär-Ergebnis-Check);<br />

Mitarbeit Gobiet/Truhetz, Formayer<br />

Aladin: Ahrens Mitarbeit Beck<br />

Validierung und Sensitivitätstest:<br />

Formayer - Mitarbeit Gruppe IMP, Ahrens/IMG, Dorninger/IMG<br />

Mitarbeit Chimani, Gobiet (3D), Köstl, Züger<br />

Regionalisierung:<br />

Loibl (Tmin, Tmax, Strahlung)<br />

Mitarbeit: Schöner (Tmean, NS, Schnee), Truhetz (Wind),<br />

Züger (Program-Coding systems research)<br />

Da dies von den Projektpartnern akzeptiert wird, sollen bis Mitte/Ende Februar<br />

Entwürfe der tatsächlichen Umsetzung der Workpackages (sofern sie nicht bereits<br />

vorliegen: zB IGAM, IGM, tw. BOKU) erfolgen;<br />

reclip:strat – Vorstellung der strategischen Begleitforschung<br />

Thomas Rödiger-Schluga stellt Aufgaben und Ziele von reclip:strat vor, bietet für alle<br />

Projekteilnehmer Unterstützung an und vereinbart Interviewtermine;<br />

Allfälliges<br />

Zur Einladung von internationalen Experten für den geplanten Workshop kämen laut<br />

Loibl für Herrn Keuler/Uni Cottbus (Projektleiter Quirks) der 16.4. in Frage: Mit Rasmus<br />

Benestad/ Met.No wurde seitens Schöner Kontakt aufgenommen.<br />

Schöner kann am 15.-16.4. definitiv nicht, weshalb Loibl zusagt, mit Herrn Keuler einen<br />

neuen Termin auszuverhandeln.<br />

Dorninger wünscht sich, dass Keuler/Benestad ev. auch am wöchentlichen Kolloquium<br />

am Institut (immer Dienstag!) Vortragen würde.<br />

Formayer berichtet von stattfindenden Workshop in Lund (Schweden) zwischen 29.3.<br />

und 2.4. und meint, dass unbedingt ein bis zwei Projektpartner (Formayer, Züger ?)<br />

daran teilnehmen sollten, da dort die wichtigsten Fachleute auf dem Gebiet Regionalmodellierung<br />

anwesend sein werden – eine Anmeldung hierfür wäre noch möglich<br />

(nähere Details finden sich unter http://dvsun2.gkss.de/workshoplund bzw..<br />

https://dvsun2.gkss.de/domino/html/lund.nsf)<br />

Gobiet erzählt von geplantem PRUDENCE-Workshop, bei dem ebenfalls jemand aus<br />

der Gruppe teilnehmen sollte – genauere Details wären ihm aber nicht bekannt;<br />

Anhang 2 15


Von den Projektpartnern wurde eine reclip:more-Homepage und ein reclip:more –<br />

Poster angeregt, wobei letzteres bei allen relevanten Tagungen aufgehängt werden<br />

sollte. Loibl wird die Anregung aufnehmen.<br />

Loibl berichtet von ProVision, wo Klima-/Folgen-/Forschungsrelevante Themen<br />

Themen eingereicht werden sollten. Termin für Proposaldrafts 28.2.2004, Start-up<br />

Workshop 9.3.2004.<br />

Loibl dankt den Anwesenden für ihre Beiträge und ihre Beteiligung an den<br />

Diskussionen und schließt die Sitzung pünktlich(!) um 13 h.<br />

16 Anhang 2


Protokoll:<br />

2. Projektmeeting<br />

zum K-Wiss-Programm reclip:more<br />

‘‘research for climate protection: model run evaluation‘‘<br />

Do. 27.05. 2004 ARC systems research Stadtbüro/ Kolingasse 11/11, 1090 Wien<br />

11:00 – 14:30<br />

Themen<br />

1) Diskussion ECHAM Antriebsdaten<br />

2) Berichte über den Arbeitsfortschritt<br />

2a) allgemeine Datenbereitstellung: Antriebsdaten, diverses<br />

systems research<br />

2b) Modellierung:<br />

IMG-Ahrens, IGAM, systems research<br />

2c) Sensitivitäts-Tests- Vorgaben:<br />

IMG-Ahrens, BOKU-Met<br />

2d) Modell-Evaluierung/Modell-Vergleich-Vorgaben:<br />

BOKU-Met, IMG-Dorninger<br />

3) Allfälliges<br />

Bemerkung: die geplanten Tagesordnungspunkte „Regionalisierung, Abstimmung“<br />

(bezüglich zu liefernder Ergebnisse und Teilberichte) und „Offerte für Projektjahr 2“<br />

(Inhalte, Termine) wurden auf das nächste Treffen verschoben<br />

Teilnehmer:<br />

Name Institution E-mail<br />

Manfred Dorninger IMG – Uni Wien manfred.dorninger@univie.ac.at<br />

Barbara Chimani IMG – Uni Wien barbara.chimani@univie.ac.at<br />

Bodo Ahrens IMG – Uni Wien bodo.ahrens@univie.ac.at<br />

Andreas Frank BOKU-Met reclip@imp<strong>1.</strong>boku.ac.at<br />

Petra Seibert BOKU-Met petra.seibert@imp<strong>1.</strong>boku.ac.at bzw.<br />

reclip@imp<strong>1.</strong>boku.ac.at<br />

Elsa Dos Santos Cardoso ZAMG elsa.santos@zamg.ac.at<br />

Wolfgang Schöner ZAMG wolfgang.schoener@zamg.ac.at<br />

Andreas Gobiet IMAG - Uni Graz andreas.gobiet@uni-graz.at<br />

Heimo Truhetz IMAG - Uni Graz heimo.truhetz@uni-graz.at<br />

Wolfgang Loibl ARC sys wolfgang.loibl@arcs.ac.at<br />

Johann Züger ARC sys johann.zueger@arcs.ac.at<br />

Mario Köstl ARC sys mario.koestl@arcs.ac.at<br />

Protokoll: Köstl, mit Ergänzungen von Züger und & Loibl, Korrekturen von Seibert &<br />

Frank<br />

Anhang 2 17


1) Diskussion ECHAM Antriebsdaten<br />

In den letzten Wochen (s. ua. Mails von Ahrens und Gobiet vom 3.5, 4.5. 1<strong>1.</strong>5. und<br />

17.5.) hat sich eine interessante Alternativen zu den bis dato geplanten Modell<br />

ECHAM4 T106 (Lugano-Experiment (IS92a): 1971-1980, 2041-2050.) ergeben:<br />

ECHAM5 T106 (1960-1990, 2041-2050*) hätte den Vorteil, dass aufgrund des<br />

Zeitraums (60-90) – anders als beim ECHAM4-Lauf – den ECHAM-getriebenen RCM-<br />

Lauf nicht nur mit ERA-40, sondern auch mit Beobachtungen direkt zu validieren. Das<br />

Modell hat sich weiterentwickelt, und ist durchaus zu verwenden.<br />

Laut Ahrens (nach Kontakt mit Martin Wild von der ETH Zürich) ist der retrospektive<br />

Lauf schon dokumentiert.<br />

Da auch das „Lugano-Experiment“ als KEIN control run mit fixierter CO2-Konzentration<br />

ist, sondern mit gemessenen CO2-Konzentrationen gerechnet wurde, würde kein<br />

zusätzliches Problem entstehen. Ahrens meint sogar, da ERA-40 ja auch „was<br />

transientes ist„ dies sogar ein Vorteil wäre.<br />

Zusätzlich meint Gobiet, dass in 2 Jahren, wenn die ersten Ergebnisse von reclip<br />

ECHAM4 Antriebsdaten nicht mehr als 'state of the art' argumentierbar seien.<br />

Der Nachteil wäre, dass noch kein prospektiver Lauf existiert (es gibt aber eine<br />

informelle Zusage von Martin Wild diesen Lauf für die reclip-Gruppe durchzuführen).<br />

Zusätzlich ist auch zu bedenken, dass der ECHAM4-Lauf besser untersucht und<br />

Schwächen besser bekannt sind.<br />

Gobiet und auch Ahrens tendieren stark zu ECHAM5, haben aber praktische<br />

Bedenken und schlagen deshalb folgende Vorgehensweise vor:<br />

Ahrens wird in den nächsten Wochen mit Martin Wild konkret ausmachen, dass der<br />

prospektive Lauf in einer für reclip nutzbaren Form tatsächlich gerechnet und zur<br />

Verfügung stehen wird. Falls bis zu bewissen Stichtag (voraussichtlich der 17. Juni)<br />

keine definitive Zusage zu erreichen ist, bleibt wir beim Lugano-Experiment (ECHAM4).<br />

Auf Frage von Seibert „Warum überhaupt 1980er Zeitraum?“, wird auf bessere<br />

Datengrundlage (Marsarchiv, VERA – vgl. Protokoll vom 13.1<strong>1.</strong>) hingewiesen. Seibert<br />

meint hingegen, „die Beobachtungsdaten seien in diesem Zeitraum auch nicht viel<br />

besser“.<br />

Züger & Loibl schließen sich Argumentation von Gobiet und Ahrens an, Seibert gibt<br />

nochmals allg. Skepsis des (nichtanwesenden) Formayer wider (Stichwort nicht<br />

repräsentive, außerordnentliche Vulkantätigkeit in diesem Jahrzehnt) und fragt ob<br />

ECHAM5 Lauf Variationen in den externen Randbedingungen wie zB Vulkanaerosol<br />

beinhaltet. Dies wird verneint.<br />

Nach allgemeiner Diskussion wird Vorschlag „ECHAM5 – wenn möglich“ akzeptiert.<br />

Zusätzlich steht bereits ein 2tägiger Testdatensatz zur Verfügung.<br />

2) Berichte über den Arbeitsfortschritt<br />

2a) allgemeine Datenbereitstellung: Antriebsdaten, Diverses:<br />

Züger berichtet von Problemen mit ERA-Daten: Er hat Datensätze vom Web-Portal<br />

(Jahr 1999, nördl. Hemisphäre mit 1° Auflösung, alle Druckflächen) heruntergeladen –<br />

18 Anhang 2


(ca. 10 Gbyte). Beim Downloaden kam es zeitweise zu Fehlern, so dass die falschen<br />

Felder extrahiert wurden und teilweise unrealistische Bodentemperaturen von über 70°<br />

Celsius auftreten. Die genauen Analysen, wo der Fehler liegt sind zurzeit im Laufen.<br />

Zusätzliche Probleme ergeben sich durch Definition der Bodenschichten. Diese sind<br />

laut ECMWF-Beschreibung in Intervallen von 0-7 cm, 7-28 cm, 28-100 cm und<br />

100-289 cm gegeben. Die letzte Schicht ist aber in den Datensätzen mit 100-255 cm<br />

abgespeichert. Es mussten deshalb einige Routinen der MM5-Präprozessoren<br />

geändert werden, da dies sonst gewisse Parametersetzungen nicht erkennen.<br />

Seibert wünscht genauere Spezifikationen über Art und Anzahl der Levels und<br />

Parameter. Generell besteht aber offensichtlich ein Problem bei der Dokumentation.<br />

Dies sollte laut Seibert geklärt werden.<br />

Züger sagt zu, eine Tabelle mit entsprechenden Angaben als Anhang dem Protokoll<br />

beizufügen. (Dies wurde bereits mit Protokoll<strong>version</strong> 1 verschickt)<br />

Im Anschluss kommt es zur allgemeinen Diskussion bezüglich der Datenaufbereitung.<br />

Gobiet verweist auf unbedingte Notwendigkeit einer gemeinsamen Datenaufbereitung.<br />

Züger meint er hätte Pregrid ohne größeren Aufwand modifiziert, diese veränderte<br />

Version stellt er gerne den anderen Projektpartnern zur Verfügung<br />

Ahrens stellt Frage, ob die Datenaufbereitung auf Druckflächen erfolge (bei Aladin<br />

geschehe die auf den Modellflächen, bei MM5 laut Züger auf Druckflächen). Frage der<br />

Zusammenführung der Ergebnisse von Aladin nach Modellflächen und bei MM5 nach<br />

Druckflächen blieb offen?<br />

Truhetz verweist für Daten-Interpretation auf Einlesemodul Pingos als geeignetes<br />

Werkzeug.<br />

Die Anwesenden einigen sich darauf, dass die Originaldaten nicht verändert werden<br />

sollten, sondern die Einleseroutinen angepasst werden müssen<br />

Frage von Loibl an Ahrens, ob auch bei Aladin vergleichbare Probleme mit ERA-40<br />

Daten auftreten wird verneint. Es wurden bereits mehrfache Läufe für das Jahr 1999<br />

ohne Probleme durchgeführt<br />

Seibert fordert Kontroll-Vergleich mit IGM-Ahrens/Beck. Die Seibersdorfer Daten<br />

sollten nochmals überprüft werden. Loibl stimmt dem zu und avisiert Kontakt Züger-<br />

Beck.<br />

Frank verweist auf MetView als Tool zur Datenüberprüfung, Züger verwendet den in<br />

MM5 integrierten Grib-Analyser;<br />

Dorninger sieht möglicherweise Probleme bei ECMWF-Daten Diskussion über Grib-<br />

Format.<br />

Züger: Das Grib-Format der ERA-40-Daten ist bei ECMWF dokumentiert, wird von den<br />

MM5-Präprozessoren im Allgemeinen auch verstanden und sollte daher kein Problem<br />

darstellen.<br />

Anhang 2 19


2b) Modellierung:<br />

Ahrens berichtet von durchgeführten Testläufen (zT in Lund präsentiert), va. bezüglich<br />

diverser Kopplungsstrategien. Das Jahr 1999 wurde mit verschiedenen Varianten<br />

gerechnet, wobei jeder Tag neu initialisiert wurde. Derzeit erfolgt eine umfassende<br />

Auswertung (siehe ua. auch: Beck et.al., Geophys. res. letters (in press) Impact of<br />

nesting strategies in dynamical downscaling of reanalysis data (attachment zur<br />

.Ahrens-mail vom 10.03.2004))<br />

Das Downscaling erfolgte von 120 km auf 12 km ohne Zwischennest. Probleme<br />

können an den Rändern von großen Domains auftreten, da es hier zu Verzerrungen<br />

kommt. Dabei stellt sich die Frage (auch von Seibert gestellt) ob und in wieweit die<br />

interne Dynamik zugelassen werden soll.<br />

Ahrens meint, die tägliche Initialisierung erfolgte hauptsächlich deswegen, weil Aladin<br />

kein eigentliches Klimamodell wäre und daher das regionale Modellklima nicht<br />

unbedingt verlässlich sei. Zwar würde das Modell „nicht schlecht“ funktionieren, aber<br />

es bestünde in diesem Zusammenhang einfach noch zu geringe Erfahrung.<br />

Loibl schlägt vor, einen Vergleich mit und ohne täglicher Initialisierung in die Sensitivitätsuntersuchungen<br />

aufzunehmen.<br />

Züger verweist auf Determinierung durch die Randbedingungen und berichtet von<br />

Ergebnissen bei denen sich die Werte bei unterschiedlichen Startterminen nach ca. 4-5<br />

Tagen wieder angleichen.<br />

Seibert fordert, dass sich MM5 und Aladin-Modellierer auf einheitliches Setup (Neu-<br />

Initialisierung, Nudging, Domaingröße etc.) einigen und meint, dass ein LAM doch in<br />

der Lage sein muss, die feinen Skalenphänomene besser zu beschreiben und<br />

gleichzeitig die großräumigen Skalenphänomene zu erhalten. Dies könne doch durch<br />

ein Nudging im Inneren besser erreicht werden, einem täglichen Initialisieren stehe sie<br />

sehr skeptisch gegenüber.<br />

Replik von Truhetz und Züger: „Nudging sei ein durchaus „ein zweischneidiges<br />

Schwert“; Züger erwähnt hierbei auch ähnliche Diskussionen diesbezüglich in Lund.<br />

Die Frage hier wie dort ist nämlich: Wollen wir ein möglichst genaues Abbild der<br />

Antriebsdaten auf kleinräumige Strukturen (=dynamisches Downscaling), oder soll das<br />

Modell in der Lage sein auf Grund seiner eigenen Physik die Vorgänge in der<br />

Atmosphäre zu beschreiben (=regionales Klimamodell).<br />

Ahrens weist darauf hin, dass man zwischen eigentlicher (Regional)Klimaforschung<br />

einerseits und der Generierung der „besten“ Ergebnisse für Anwendungen<br />

unterscheiden müsse. Regionale Effekte blieben durch das „Bodengedächtnis“ durchaus<br />

erhalten.<br />

Truhetz meint, dass eine ständige Neuinitialisierung bei MM5 nicht so ohneweiters<br />

möglich wäre und deshalb Nudging hier durchaus sinnvoll ist.<br />

Gobiet drängt darauf, dass diese Betrachtungen (mit/ohne Nudging/Neuinitialisierung)<br />

Ebenfalls im Rahmen der Sensitivitätstests untersucht werden sollen. Dem stimmen<br />

die Anwesenden zu.<br />

20 Anhang 2


Züger berichtet bei Verwendung von ERA-40-Daten von Verletzungen des CFL-Kriteriums.<br />

Es wurden deshalb Tests mit unterschiedlichen internen Zeitschritten durchgeführt.<br />

Halbiert man den Zeitschritt so kommt es zu großräumigen Unterschieden der<br />

Temperatur von bis zu 6° Celsius!<br />

Ausgehend von Frage von Seibert, ob es in MM5 eine Trennung zwischen Advektion<br />

und Diffusion (sowohl vertikal wie horizontal) gibt und ob hier die Ursache liegen könne<br />

(Crank-Nicholson sei zwar stabil, hätte aber einen großen truncation error), kommt es<br />

zur einer Diskussion bezüglich der Unterschiede zwischen expliziten, semi-expliziten<br />

und impliziten Schemata.<br />

Truhetz meint in diesem Zusammenhang, dass es sich sicherlich um ein implizites<br />

Schema handelt, allerdings gäbe es in MM5 eine Vielzahl verschiedener Varianten zur<br />

Beschreibung der PBL (MRF zum Beispiel verwendet für die vertikale Diffusion ein<br />

implizites Schema).<br />

Truhetz berichtet kurz von Fortschreiten der Windmodellierung: Es wurde ein DHM mit<br />

90m Auflösung der SRTM Mission generiert; Fehler (va. durch Schattenphänomene)<br />

wurden mittels SRMT30 (gleiche Datengrundlage, aber 30’ Auflösung) semistatistisch<br />

bereinigt. Dabei gab es Probleme aufgrund von Versetzungen gegenüber GTOPO30.<br />

2c) Sensitivitäts-Tests- Vorgaben:<br />

Seibert und Frank verteilen die von BOKU-Met erarbeiteten Vorschläge zur<br />

Modellevaluierung und stellen diese zur Diskussion:<br />

Die Modellevaluierung soll einerseits die Auswahl eines möglichst optimalen Setups für<br />

MM5 und Aladin (Domain, Gitter, Modellphysik) dienen und andererseits einen<br />

vergleichenden Test der Leistungsfähigkeit der beiden Modelle in Hinblick auf<br />

Klimaanwendungen ermöglichen. Vorgeschlagen werden ua. Episodensimulationen mit<br />

Randbedingungen aus ERA-40 mit und ohne Nudging sowie eine 1-Jahres-Simulation<br />

mit Randbedingungen aus ERA-40 zur Optimierung des SVAT-Schemas und für<br />

vergleichenden Test der beiden Modelle sowie zur Abschätzung der Leistungsfähigkeit<br />

der Modelle.<br />

Neben den statistischen Standardparametern sollen auch zusätzliche, zT neuentwickelte<br />

Parameter berechnet werden (Ausführliches siehe Mail von Seibert vom<br />

14.5.2004). Zusätzlich werden Evaluierungsmethoden für die verschiedenen Datenquellen<br />

bzw. Parameter vorgeschlagen.<br />

Bezüglich der Validierungsstrategien schlägt Frank eine leicht veränderte Domainlage<br />

vor (vgl. Seite 1-3, Unterlage 2) und empfiehlt von der bisher geplanten Vorgehensweise<br />

eines zweifachen Nestings bei MM5 (90 – 30 – 10 km) abzugehen und nur eine<br />

Nestingstufe zu verwenden (30/10 km oder 45/15 km) (falls dies im Hinblick auf die<br />

dann notwendigen größeren Domains mit feinerer Auflösung rechentechnisch<br />

leististbar ist). Der Unterschied der Auflösung zwischen 15 km und 10 km soll mittels<br />

Sensitivitätstest ermittelt werden (vgl. Seite 3, Unterlage 2), es wird aber angenommen,<br />

dass sich keine gravierenden Unterschiede ergeben.<br />

Nach kurzer Diskussion mit Züger und Gobiet stimmen die Anwesenden dem zu.<br />

Dorninger erklärt auf Anfrage von Truhetz und Gobiet nochmals die VERA-Spezifikation<br />

(Gitterpunkt zu Gitterpunkt 20 km).<br />

Anhang 2 21


Ausgehend von der vorgeschlagenen Episoden-Auswahl (Seite 4, Unterlage 2) entwickelt<br />

sich nochmals eine Diskussion bezüglich des Einflusses von „kurzfristigen“<br />

Phänomen bei runs im Klimamodus (vgl. oben – Stichwort Neuinitialisierung). Züger<br />

bezweifelt Notwendigkeit/Sinnhaftigkeit. Dorninger hält fest, dass unter Annahme bestmöglicher<br />

Rand und Anfangsbedingungen es durchaus wichtig ist, zu untersuchen<br />

inwieweit die Modelle synoptische Phänomene wiederzugeben in der Lage sind.<br />

Ahrens verweist hingegen darauf, das es bei Einzel/Episodenereignissen ev. zu Verschiebungen<br />

im Vergleich zu ERA-40 kommen kann.<br />

Als statistische Parameter sollten<br />

• Mittelwert,<br />

• RMSE,<br />

• Bias bzw. Bias-korrigierter RMSE,<br />

• das Taylor-Diagramm mit seinen Statistiken (Standardabweichungen zwischen<br />

Modell und Beobachtung sowie der Korrelationskoeffizient)<br />

• der Fisher skill score,<br />

• der Bias skill score und<br />

• der total skill score<br />

zur Verwendung kommen.<br />

Seibert verweist vor allem auf die Generierung eines „total skill score“ hin und fragt, ob<br />

dieser akzeptabel wäre. Dorninger gibt Bedenken bezüglich des Namens an (wegen<br />

ev. fehlenden Referenz), Seibert sieht dies nicht so („vergleichen ja mit Beobachtungen“).<br />

Grundsätzlich wird den vorgeschlagenen Parametern zugestimmt, Gobiet will jedoch<br />

sichergestellt wissen, dass auch die statistischen Einzelgrößen gespeichert bleiben.<br />

Dem wird zugestimmt.<br />

Seibert schlägt namens BOKU-Met vor, ein Programm zur Berechnung der statistischen<br />

Parameter zu zu erstellen, dass den Projektpartnern zur Verfügung gestellt<br />

wird, damit diese die Indikatoren selbst berechnen (und nur die Analyse-Ergebnisse an<br />

BOKU-Met übermitteln anstatt der Modellergebnisse). Dies wird von den Anwesenden<br />

akzeptiert.<br />

Als zu evaluierende meteorologische Parameter schlägt Seibert primär Geopotential<br />

und Temperatur der 850 hPa Fläche vor (wobei beide nur in Gebieten mit darunter<br />

liegender Topographie, d.h. außerhalb der Alpen evaluiert werden sollen), sowie als<br />

Feuchtemaß die spezifische Feuchte (g Wasserdampf pro kg feuchter Luft) vor, da der<br />

Dampfdruck höhenabhängig ist und sowohl ERA als auch MM5 und Aladin die<br />

spezifische Feuchte verwenden (850 hPa, Gebiet wie bei beiden anderen Parametern).<br />

Zusätzlich stellt sie Bodendruck und 500 hPa Geopotential zur Diskussion.<br />

Zusätzlich ist laut Dorninger ist die 500 hPa Fläche zusätzlich sinnvoll, da man diese<br />

ev. für Vergleiche mit Radiosondenaufstiegen verwenden kann. Beim Bodendruck<br />

sollte der (auf VERA-Topographie?) reduzierte Druck evaluiert werden, da dieser sehr<br />

vertrauenswürdig wäre.<br />

Es wird Einigung dahin gehend erzielt, dass die 500 hPa Fläche verwendet werden<br />

soll, der Bodendruck jedoch nicht.<br />

22 Anhang 2


Die Evaluierung soll sich auf Felder zu den synoptischen Hauptterminen (00, 06, 12, 18<br />

– also sechsstündig) stützen und nach Berücksichtigung der Spin-up-Zeit (48h, ev.<br />

72h, laut Züger sogar mehr) beginnen.<br />

Als Upscaling-Methode wird die Überführung der Parameter auf Druckflächen mittels<br />

Modell-Postprozessoren und anschließender Interpolation auf das ERA-40 Gitter<br />

mittels Cressman-Methode vorgeschlagen. Der großräumige Vergleich sollte auf einer<br />

Skala von 500 oder 100 km („Varianz auf 1° Gitter?“) vorgenommen werden, ev. sollte<br />

vorher eine Glättung erfolgen. Ahrens verweist hierbei auf LACE-Domain.<br />

Auf die Frage von Truhetz zur Eignung der Cressman-Methode meint Ahrens, dass<br />

diese zwar eigentlich für Punktvergleiche entwickelt worden wäre, sie aber wegen der<br />

stattfindenden Glättung durchaus auch für Flächen geeignet wäre.<br />

Als Kenngrößen sollten alle oa. 8 Kenngrößen für jeden Evaluierungszeitschritt und<br />

jeden meteorologischen Parameter, für die gesamte Evaluierungsperiode und jeden<br />

met. Parameter sowie der Gesamt-Skill-Score gemittelt über alle met. Parameter für<br />

die gesamte Evaluierungsperiode berechnet werden. Dorninger meint dazu, dass die<br />

Angabe eines Gesamt-Skill-Scores zu wenig wäre.<br />

Gobiet spricht sich prinzipiell für Vergleiche zwischen GCM und ERA aus.<br />

Auf die Anmerkung von Ahrens, dass noch Sensitivitätstests mit gröberer ERA-<br />

Auflösung für die Auswahl des Modellsetups fehlen würde, entwickelt sich allgemeine<br />

Diskussion. Seibert will wissen welche Auflösung die jeweiligen Daten (sowohl ERA als<br />

auch ECHAM) haben. Es stellt sich heraus, dass die GCM Daten T106 Auflösung<br />

haben, ERA-40 wurde jedoch mit T160 gerechnet. Auf Antwort von Züger, dass<br />

mehrere die ERA-Daten in einer Auflösung, welche T106 entspricht, heruntergeladen<br />

werden könntenladbar seien, meint Seibert, es reiche nicht aus einfach gröbere Daten<br />

herunterzuladen, vielmehr muss verifiziert werden, wie diese Daten erzeugt werden.<br />

Dies gilt auch für die Daten des Mars-Archivs: wurde spektral abgeschnitten, wenn ja<br />

wie?<br />

Um Vergleichbarkeit zu gewährleisten, muss spektral abgeschnitten werden, nicht<br />

einfach nur die T160-Daten auf einem <strong>1.</strong>5-Grad Gitter abgegriffen werden.<br />

Züger und Truhetz erklären sich bereit, dies bis zum nächsten Mal zu klären.<br />

Seibert bezweifelt den Sinn eines dynamischen Downscalings der Reanalyse und<br />

verweist dabei auf die Kosten.<br />

Loibl meint, dies geschehe, um die Effekte der LAMs mit den „besten“ zur Verfügung<br />

stehenden Antriebsdaten zu zeigen. Der Vergleich mit den GCM geschehe ja nur beim<br />

long run. Seibert bleibt skeptisch und gibt zu bedenken, dass dies bei der Entwicklung<br />

des Modellsetups zu berücksichtigen ist.<br />

Schließlich sind die meisten Anwesenden der Meinung, die bereits bei den letzten<br />

Meetings fixierte Vorgehensweise beizubehalten.<br />

Bezüglich der Parameter für die Evaluierung mit ERA-40 Daten zu liefender Karten<br />

bzw. Querschnitte einigen sich die Anwesenden auf H500, T850 und S700 (anstatt<br />

S850).<br />

Es sollen Karten von Testmodell und/oder ERA-40 sowie der Differenzen erzeugt<br />

werden. Zwecks Effizienterhöhung könnte. Diese Differenzkarten sollten sowohl<br />

geglättet wie auch ungeglättet erzeugt werden.<br />

Anhang 2 23


Weiters wurde auf Inititative von Seibert der Ablauf des Datentransfers zwischen den<br />

Projektpartnern besprochen: Wer liefert welche Daten wohin?<br />

Generell warnt Seibert vor „zu umfangreichen“ Datentransfer und meint dass<br />

grundsätzlich nur die nötigen Daten (2D-Felder, Vertikalprofile, unmittelbar erzeugte<br />

Plots) ausgetauscht werden sollen. Diese Daten werden von den Modellbetreibern an<br />

die jeweiligen Evaluatoren geliefert: für VERA an IMG, für ERA-40 und Niederschlag<br />

an BOKU-Met, für die Vertikalprofile an IGAM. IMG und IGAM senden dann die<br />

Evaluierungsprodukte an BOKU-Met. Jedenfalls muss ein einheitliches Datenformat<br />

definiert werden, das auch Metainformationen (welcher Run, welche Fläche, usw.)<br />

beinhaltet.<br />

Gobiet könnte sich das CALRAS-Format vorstellen, gibt aber zu bedenken, dass<br />

dieses nicht freiformatig wäre. (Anmerkung BOKU-Met: Das bezieht sich nur auf<br />

Vertikalprofile?)<br />

Dorninger und Chimani verweisen in diesen Zusammenhang auf die von VERA<br />

benötigten Spezifikationen und dass dies bereits geklärt sei (vgl. Protokoll vom 30.<strong>1.</strong><br />

bzw. E-Mail von Chimani vom 4. 12. 2003). Falls Seibert und Frank diese nicht erhalten<br />

hätten, werden diese Spezifikationen nochmals an BOKU-Met weitergeleitet.<br />

Seibert will allerdings hierbei noch Verbesserungen machen und fordert zumindest<br />

eine „freiformatige Einlesbarkeit“.<br />

Ahrens meint, da ohnehin nur mehr 2-D-Felder transferiert werden, spiele das<br />

Datenformat was die Größe anginge (er schlägt ASCII vor) keine große Rolle.<br />

Wer letztendlich welche Karten (aus Modellergebnssen, Sensitivitätsanalysen und<br />

Validierungs-Schritten) produziert und zwischen welchen Partnern der Datentransfer<br />

erfolgen soll, muß noch geklärt werden! (Anmerkung: Boku-Met plädiert dafür, dies bei<br />

der nächsten Sitzung zu diskutieren)<br />

BOKU-Met wird jedenfalls einen Ftp-Bereich eröffnen, auf den alle relevanten<br />

Ergebnisse kopiert werden sollen. Die Endevaluierung erfolgt dann durch BOKU-Met.<br />

Eine Einrichtung eines Zentralarchiv durch systems research (dieses kann auch als<br />

Backup dienen) ist geplant und wird in den nächsten Monaten realisiert.<br />

Bei den Radiosonden-Daten schlägt Seibert eine Höheneinteilung vor (vgl. verteilte<br />

Unterlage 1, Seite 5) die va. für die Grenzschichtbetrachtungen geeignet ist. Ahrens<br />

wünscht sich allerdings auch Levels innerhalb der oberen Troposphäre. Es besteht<br />

Konsens, dass zusätzliche Niveaus einbezogen werden können, aber die untersten<br />

3500 m auf jeden Fall getrennt ausgewiesen werden.<br />

Eine Berücksichtigung der Radiosonden-Abdrift ist laut Gobiet vorgesehen, Seibert<br />

meint allerdings das diese ohnehin i.d.R. vernachlässigbar sei, da sie sich maximal in<br />

der Größenordnung eines Gitterzelle bewege. Aus MM5 und Aladin müssen<br />

Pseudoaufstiege extrahiert und dem IGAM für die Vergleiche mit CALRAS zur<br />

Verfügung gestellt werden. Da dies unter Berücksichtigung der Abdrift wesentlich<br />

komplizierter wird (mehrere Gitterpunkte pro Aufstieg), wird beschlossen auf die<br />

standardmäßige Berücksichtigung der Versetzung zu verzichten.<br />

Gobiet erklärt, er besitze ein Programm, das eine einfache Vertikalprofil-Berechnung<br />

Extraktion? ermöglicht und stellt dieses den Projektpartnern gerne zur Verfügung.<br />

24 Anhang 2


2d) Modell-Evaluierung/Modell-Vergleich-Vorgaben:<br />

Dorninger berichtet kurz von einem informellen Treffen am 19.2.2004. Wesentlich<br />

dabei war die Einigung auf 3-stündige Zeitintervalle (nur für die Sensitivitätsrechnungen!),<br />

so dass Tmin und Tmax nicht mehr notwendig wären. Dies wird von<br />

allen Anwesenden akzeptiert. Für den Jahreslauf werden Tagesmittelwerte ausreichen.<br />

Ein grundlegendes Problem sind die Niederschlagsdaten 1999, da diese wegen<br />

Mangel an qualitätsgeprüften Messdaten nicht sinnvoll mit VERA zu analysieren sind.<br />

Auf Frage von Seibert, was dann zu tun sei bzw. welche zusätzlichen Datensätze<br />

verwendbar wären entspringt eine umfangreiche Diskussion.<br />

Ahrens meint, man könnte für großräumige Skalenuntersuchungen GPCC-Daten mit 1°<br />

Auflösung verwenden. Diese hätte er für 1999 auf Tagesbasis, allerdings nur für Ö und<br />

CH. Evtl. könnte man zusätzlich Synopdaten (TARNET/TAWES?, HZB) verwenden.<br />

Auf 100 km und Monatsbasis sollte dies kein großes Problem sein. Schöner gibt<br />

Qualitätsprobleme zu bedenken.<br />

Seibert spricht sich zumindest für GPCC aus, jedenfalls sollte der Niederschlag<br />

quantitativ betrachtet werden.<br />

Schöner erklärt sich nach Ersuchen von Loibl bereit, die zusätzlichen Niederschlagsdaten<br />

zu besorgen.<br />

Dorninger zeigt Beispiele von Ergebnis-Plotts von VERA-Analysen für Aladin-Felder<br />

und berichtet, dass demnächst auch für MM5 Auswertungen beginnen werden. Ein<br />

diesbezügliches MM5-Interface hätte Züger in den letzten Wochen fertig gestellt und<br />

steht nun zur Verfügung. Beispiele von VERA-Analysen sind auf der MAP-Datenbank<br />

zu sehen ( http://www.map.ethz.ch/map-doc/datacenter.htm ).<br />

Zusätzlich wird derzeit von Chimani eine Liste von Parametern für statistische<br />

Untersuchungen zusammengestellt (incl. was aus welcher Maßzahl herauslesbar ist)<br />

und bis Ende Juni an alle Projektpartner per E-Mail verschickt. Generell werden die<br />

Felder vom FTP-Server geholt und nur (vorher zu definierende) Auswerteprodukte<br />

wieder an die Projektpartner verteilt. Bei den Karten stünden GIF- bzw. Postscript-<br />

Format zu Auswahl.<br />

Graphiken will Seibert im Postscript-Format abgespeichert bzw. transferiert sehen.<br />

Seibert wünscht sich auch genaue Spezifikationen (zB generalisierte Küsten, ev.<br />

Weglassen von Grenzen und Flüssen, Farbkeil, Isolinien ja/nein?). Vor allem eine<br />

Reduktion geographischer Details in den VERA-Plots (Küstenlinien, Grenzen, Flüsse<br />

usw.) könnte verhindern, dass die einzelnen Dateien zu groß werden. Der Farbkeil<br />

sollte eine gute Lesbarkeit gewährleisten, nicht nur zwei Grundfarben für 15 Stufen.<br />

Loibl schlägt vor, den Farbkeil so zu wählen, dass auch Schwarz-Weiß-Ausdrucke<br />

noch lesbar seien.<br />

Anhang 2 25


3) Allfälliges<br />

Schöner drängt auf Fixierung des geplanten Vortrags von Rasmus Benestad/Met.No –<br />

dieser sollte vor Juli 2004 stattfinden, damit analog zu den Keuler-Benefits für die<br />

Modellierung auch von den Erkenntnissen von Benestadt für den Regionalisierungstasks<br />

profitiert wird.<br />

Auf Anfrage von Seibert berichtet Züger kurz von Lund.<br />

Die Quintessenz dort war dieselbe wie die vom Keuler-Vortrag. Am Anfang stand eine<br />

allgemeine (und durchaus ergebnislose) Diskussion ob regionale Klimamodelle in<br />

Anbetracht der immer besseren Auflösung der GCMs überhaupt einen „added value“<br />

bieten können. Einige sehen im Testen von Hochauflösenden Parametrisierungen für<br />

GCMs einen Weg, andere in einem Zweiweg-Nesting in GCMs, wieder andere im<br />

dynamischen Downscaling.<br />

Im Laufe des Workshops kristallisierte sich in den Vorträgen immer mehr heraus, dass<br />

es keine „besseren“ oder „schlechteren“ Modelle gibt, sondern jedes Modell in gewissen<br />

Bereichen Stärken und dafür in anderen Schwächen hat. Eine beträchtliche<br />

Anzahl von Personen/Gruppen setzen vermehrt auf Berechnungen mit Ensembles von<br />

Modellen. Der Vergleich mit „Messdaten“ erfolgt dann sowohl mit einem Ensemble-<br />

Mean als auch mit einem Mittel der „Messdaten“, da auch diese Streuungen in einer<br />

mit den Modellen vergleichbaren Größenordnung aufweisen. Weiters werden<br />

Evaluierungen nicht auf einzelnen Gitter- und Zeitpunkten durchgeführt, sondern immer<br />

auf Flächen- und Zeitmitteln (zB Abflussmengen in größeren Einzugsgebieten wie<br />

Donau oder Rhein auf Monats/saisonaler Basis).<br />

Die gesammelten Publikationen (erweiterte Abstracts, Poster etc.) des Workshops sind<br />

unter folgendem Link zu finden:<br />

http://www.natgeo.lu.se/Lars.barring/RCMworkshop/RCMhome.htm<br />

Als Termin für ein nächstes Treffen stehen folgende Tage zur Diskussion: Woche 14-<br />

18.6, oder der 2<strong>1.</strong>6 bzw. der 24.6. Der genaue Termin wird demnächst abgeklärt<br />

werden und per E-Mail an alle versendet werden – er wird sich nach den Möglichkeiten<br />

eines Benestad-Vortrages richten. Beim nächsten Meeting sollen dann auch die nicht<br />

behandelten Tagesordnungspunkte Regionalisierung, Endbericht und Offerte 2004/<br />

2005 behandelt werden.<br />

26 Anhang 2


Protokoll:<br />

3. Projektmeeting<br />

zum K-Wiss-Programm reclip:more<br />

‘‘research for climate protection: model run evaluation‘‘<br />

Mo. 2<strong>1.</strong>06. 2004 ZAMG, 1190 Hohe Warte, Klimaabteilung 14:00 – 17:30<br />

Thema:<br />

1) Vortrag R. Benestad – "Methods of empirical downscaling for temperature and<br />

precipitation scenarios<br />

2) Berichte über den Arbeitsfortschritt Regionalisierung – Temperatur,<br />

Niederschlag, Strahlung, Wind ( Schöner – Loibl – Truhetz)<br />

3) offene Fragen aus der letzten Sitzung<br />

a) Validierung: Anaylsen BOKU-Tool & Vor-Ort Analyse vs.<br />

Ergebnistransfer an BOKU<br />

b) Definitive Festlegung der Testvorgaben betreffend Validierung,<br />

Sensitivität<br />

c) Modell-Ergebnispräsentationen: Text, Tabellen, Karten - Festlegungen<br />

d) Validierungspräsentationen: Text, Indikatoren, Tabellen, Karten –<br />

Festlegungen<br />

4) Abstimmung Ergebnisse Termine<br />

5) Offerte für ProjektJahr 2: Inhalte Termine<br />

6) Allfälliges<br />

Teilnehmer:<br />

Name Institution E-mail<br />

Barbara Chimani IMG – Uni Wien barbara.chimani@univie.ac.at<br />

Bodo Ahrens IMG – Uni Wien bodo.ahrens@univie.ac.at<br />

Alexander Beck IMG – Uni Wien alexander.beck@univie.ac.at<br />

Andreas Frank BOKU-Met reclip@imp<strong>1.</strong>boku.ac.at<br />

Herbert Formayer BOKU-Met reclip@imp<strong>1.</strong>boku.ac.at<br />

Elsa Dos Santos Cardoso ZAMG elsa.santos@zamg.ac.at<br />

Wolfgang Schöner ZAMG wolfgang.schoener@zamg.ac.at<br />

Andreas Gobiet IMAG - Uni Graz andreas.gobiet@uni-graz.at<br />

Heimo Truhetz IMAG - Uni Graz heimo.truhetz@uni-graz.at<br />

Wolfgang Loibl ARC sys wolfgang.loibl@arcs.ac.at<br />

Johann Züger ARC sys johann.zueger@arcs.ac.at<br />

Mario Köstl ARC sys mario.koestl@arcs.ac.at<br />

Protokoll: Köstl, Ergänzungen von Züger & Loibl, Korrekturen von Frank und Schöner<br />

Anhang 2 27


1) Vortrag R. Benestad<br />

siehe Folien des Vortrages im Anhang 1 (zamg2004.zip – incl. der nicht präsentierten<br />

Ergebnisse von Clim.pact!!)<br />

2) Berichte über den Arbeitsfortschritt Regionalisierung<br />

Truhetz berichtet von Projektteil Wind – hierfür wird ein mikroskaliges diagnostisches<br />

Modell auf MM5 mit feinem DHM aufgesetzt. Neben einem möglichst feinen DHM<br />

(derzeit 200m) benötigt er hierfür spezielle physiogeographische Eingangsdaten:<br />

Rauhigkeitslänge, Albedo der Oberfläche, das Bowen-Verhältnis sowie den Wärmeflussparameter<br />

des Bodens Cg und (optional) den anthropogenen Wärmeeintrag Qf.<br />

Diese benötigten Eingangsdaten werden aus einer Tabelle für die jeweilige Landnutzungsklasse<br />

in das Modell eingebracht.<br />

Derzeit „läuft“ das Modell, allerdings wäre ein feineres DHM wünschenswert. Vor allem<br />

bei der Strahlungsberechnung kommt es wegen zu geringen Hangneigungen und der<br />

dadurch ungenauen Beschattung in Gebieten mit differenzierter Orographie zu<br />

ungenauen Ergebnissen (vgl. auch unten bei Loibl).<br />

Als Alternative könnte das aus der SRTM Mission generierte DHM mit 90m Auflösung<br />

(allerdings fehlerhaft – vgl. Protokoll vom 27.5.2004) oder eventuell ein DHM von<br />

einem Projektpartner (zB: Loibl Tirol 70m (ging an ZAMG), Kärnten 50m (hat ZAMG)<br />

zur Verwendung kommen.<br />

ZAMG wird aus den SRTM Daten ein möglichst lückenloses und möglichst fehlerfreies<br />

DHM mit 90m Rasterweite erstellen. Dieses kann bei Bedarf weitergegeben werden.<br />

Ein 50m Modell von Kärnten kann nicht weitergegeben werden.<br />

Loibl fragt, ob und wie das Windmodell mit Aladin-Input arbeiten kann bzw. soll. Ahrens<br />

meint, dass es bei einer Verwendung des Windmodells mit ALADIN zu Problemen<br />

beim Dateneinlesen kommen könnte. Dieses „Interfaceproblem“ müsste ebenfalls bei<br />

der Validierung berücksichtigt werden.<br />

Auf Frage von Formayer, ob die Windmodellierung überhaupt für beide Modelle (MM5<br />

und ALADIN) notwendig bzw. gewünscht ist, stellt Gobiet klar, dass das Windmodell<br />

eigentlich nur für einen Einsatz mit MM5 geplant ist und dieses nach Projektende bei<br />

systems research installiert werden soll. Für ALADIN könnte er sich nur eine gewisse<br />

Hilfestellung (wenn gewünscht) vorstellen, sich aber keine eigene Modellentwicklung.<br />

Schöner berichtet von den Fortschritten bei der Downscaling-Methode nach R.<br />

Benestad mit Punktdaten (vgl. tw. auch Vortrag). Die Berechnungen werden mit<br />

Modellen des free-ware Statistikpaketes R (S-plus–basierend) erfolgen. Eine diesbezügliche<br />

Kurzeinschulung erfolgt durch R. Benestad.<br />

Bisher wurden lediglich Versuche mit der Temperatur gemacht. Die Methode des<br />

Downscaling für den Niederschlag liegt ebenfalls vor, ist aber noch nicht ausgetestet<br />

worden. Generell können endgültige Methoden des Downscaling für Temperatur und<br />

Niederschlag erst bei Vorliegen der retrospektiven Klimaläufe erarbeitet werden, da<br />

diese die notwendigen Prediktorenfelder liefern. Schnee wird aus Temperatur und<br />

Niederschlag abgeleitet und fehlt noch generell.<br />

Auf Fragen von Ahrens und Formayer nach geeigneten Prediktoren, erklärt Schöner,<br />

dass die Methode einerseits sowohl auf Monats- wie auch auf Tagesbasis funktioniere<br />

und den SLP, die T2m Temperaturen und das Bodenniederschlagsfeld als Prediktoren<br />

verwendet. Die geographische Verfeinerung auf 1 km Zielauflösung erfolgt in einerm<br />

28 Anhang 2


zweiten Schritt aus den Downscalingdaten an den Stationen um den Rechenaufwand<br />

zu minimieren.<br />

Bis jetzt wurde dies nur mit ERA-40 Daten gemacht, Loibl meint daher, es sei<br />

unbedingt notwendig, auch Modelldaten zu verwenden. Hierfür stünde laut Ahrens ein<br />

einjähriger Datensatz von 1999 des IMG zur Verfügung. Züger meint, er hätte dafür<br />

ebenfalls einen Datensatz. Beide werden der ZAMG so bald wie möglich zur Verfügung<br />

gestellt. Ausschnitt und Parameter bzw. das Datenformat (NetCDF?) müssen allerdings<br />

noch definiert werden<br />

Loibl berichtet über die Regionalisierung der Tmin und Tmax. An sich ist geplant hier auf<br />

die Adaptierungen von Schöner /ZAMG aufzubauen, was allerdings erst dann sinn<br />

macht, wenn die Implementierung zufrieden stellend läuft und ausgetestet ist.<br />

Für das Tagesminimum liegten eine Vielzahl an Arbeiten zur kleinräumigen<br />

Interpolation vor. Dabei zeigt sich, dass geostatistische Interpolationen der Punktwerte<br />

keine zielführenden Ergebnisse liefern.<br />

Ein praktikables Modell ist das AURELHY-Modell. Es basiert auf einer EOF (empirical<br />

orthogonal function, bzw. Hauptkomponentenanalyse) mit einer Vielzahl von Prädiktoren<br />

(DEM –Daten, Landnutzungsdaten und ca. 100 daraus abgeleiteten Variablen). Die<br />

5 Hauptkomponenten der EOF dienen dann als Basis für eine Regressionsanalyse.<br />

Nach Berechnung des deterministischen Anteils mit 5 PCs (predicted terrain-driven<br />

temperature) erfolgt ein Residualkriging. Dieses Verfahren kann im Prinzip mit R<br />

nachprogrammiert werden.<br />

(Anm. Schöner: Die AURELHY Methode verwendet nur die PCA Analyse der<br />

Topographie. Das mit den aus der Landnutzung und dem DHM abgeleiteten<br />

Parametern ist eine andere Methode basierend auf einem GIS. Ich würde das nicht in<br />

R machen, sondern wenn man diesen Ansatz wählt mittels eines aml-Skript.)<br />

Einfache Verfahren kommen mit (lokalen) Regressionsfunktionen aus – problematisch<br />

ist die Berücksichtigung von Kaltluftseen – hier bieten sich geknickte Regressionsgleichungen<br />

an, die für die Nahbereiche der Täler und Becken mit Temperaturin<strong>version</strong><br />

berechnet werden und für die alle anderen ein klassischer Höhengradient berechnet<br />

wird. Bei der definitiven Methodenwahl werden noch die Ergebnisse von Schöner<br />

abgewartet.<br />

Die verwendeten Ansätze für Tagesmaximum sind meist analog zum Tagesminimum<br />

Courault and Monestiez (1998) haben die INRA Methode (Wettertypenabhängige<br />

Interpolation) auch für Tmax verwendet. Bei der definitiven Methodewahl werden<br />

ebenfalls noch die Ergebnisse von Schöner abgewartet.<br />

Loibl berichtet von der Regionalisierung der Strahlung. Die Regionalisierung kann mit<br />

LAM-Daten auf ca. 10 km oder mittels GIS (unter Berücksichtigung des durchschnittlichen<br />

Tagesganges) auf ca. 1 km erfolgen<br />

Es bieten sich 2 Varianten an.<br />

1) ausgehend von den LAM-Ergebnissen (MM5/Aladin) und nachträglichem<br />

downscaling /Gewichtung der Ergebnisse mittels „Abschattungsfaktoren“<br />

anhand Topographie, Monat, Uhrzeit.<br />

2) ausgehend von Geographischer Lage, Topographie, Monat, Uhrzeit<br />

unter Einbezug der Regional-Modell-Bewölkungs-Daten in den Intervallen der<br />

MM5-Outputs<br />

Anhang 2 29


Ein Hauptproblem ist das zu grobe und damit im Hinblick auf Hangneigungen zu flache<br />

Höhenmodell, das aufgrund der Flachheit die Beschattung durch Gegenhänge unterschätzt<br />

und somit zu hohe Strahlungswerte generiert (vgl. oben).<br />

Auf die Frage von Loibl, ob ein feineres DHM verwendet werden sollte, verweist Gobiet<br />

auf die vergleichbaren Probleme bei der Windmodellierung. Schöner meint, ein ausgebessertes<br />

SRTM-Höhenmodell wäre eine sehr gute Alternative.<br />

Formayer regt Vergleiche von MM5 mit Realität an. Züger verweist auf die zahlreichen<br />

Strahlungsschemata von MM5 und und meint, dass auch geklärt werden müsste,<br />

welches hierbei die „sinnvollsten“ Ergebnisse liefere.<br />

Abschließend verweist Gobiet noch auf mögliche Interaktionen zwischen reclip und<br />

ALPCHANGE, va. bei der Schneemodellierung. Schöner rät, man sollte bei den bestehenden<br />

Schneemodellen (die T und RR verwenden und daraus den Schnee berechnen)<br />

bleiben.<br />

3) offene Fragen aus der letzten Sitzung<br />

3a) Analysen BOKU-Tool & Vor-Ort Analyse vs. Ergebnistransfer an BOKU<br />

Ahrens berichtet, dass der gesamte 1999-Datensatz (6-stündige Werte) für VERA ca.<br />

2 GByte benötigt und meint, dass daher die Datenmenge kein Problem darstellen<br />

würde. Es wird festgehalten, dass die statistische Auswertung durch BOKU-Met erfolgt.<br />

Frank benötigt dafür noch Einlese-Routinen mit speziellen Header-Eigenschaften<br />

(siehe Pkt. 2, Anhang 2 „Validierungsvorschläge BOKU-Met“). Loibl schlägt vor, den<br />

Header einheitlich zu definieren:<br />

in Zeile1 Zahl (n) der Headerzeilen, in Zeile2 – (n-1) Kommentare, in Zeile n die<br />

jeweiligen Spaltenüberschriften; Für jeden Zeitpunkt soll ein File mit 12 Spalten<br />

(3 Druckflächen x 4 Parametern) geschickt werden.<br />

(Anm. Frank: Nach Einigung auf quasi VERA-Format werden keine Einleseroutinen<br />

benötigt.)<br />

Formayer verweist auf unbedingte Notwendigkeit diesind aber ERA 40-Daten zu<br />

bekommen, sowohl für die Validierungs-Experimente als auch für die MM5-Testläufe<br />

von BOKU-Met. Diese werden so bald wie möglich von Züger zur Verfügung gestellt.<br />

3b) Definitive Festlegung der Testvorgaben betreffend Validierung, Sensitivität<br />

Formayer schlägt verschiedene Validierungs-Versuche vor (siehe Pkt. 1, Anhang 2<br />

„Validierungsvorschläge BOKU-Met“).<br />

Für die Domaintests liefert Züger die monatlichen 2D- und 3D-Felder von Sept./Nov.<br />

1999 in den nächsten Tagen. Züger berichtet kurz von seinen Fortschritt bei der ERA<br />

40 Boden-Temp.-Korrektur. Der Fehler lag in den SOILHGTs, die nicht wie vom<br />

ECMWF beschrieben in Meter sondern in Dezimeter gespeichert sind. Da die MM5-<br />

Präprozessoren eine Höhenkorrektur der Bodentemperaturen durchführen, kommt es<br />

bei einer Höhe von zB 1100 m zu einer Korrektur von 11000 m nach 1100 m – mit<br />

einem Korrekturfaktor von ca. 6°C/1000 m dann zu um ca. 60 °C zu hohen Werten für<br />

die Bodentemperatur. Züger wird ein Shell-Skript für eine automatische Installation der<br />

geänderten MM5-Unterprogramme und nachfolgende Berechnungen erstellen und<br />

dieses an alle interessierten Partner verschickt.<br />

30 Anhang 2


Formayer schlägt weiters eine „sukzessive“ Definierung der Tests vor – zunächst<br />

sollen Domaintests mit ERA 40 erfolgen (Lage der Domains, Orographie).<br />

3c/d) Modell-Ergebnis und Validierungspräsentationen: Festlegungen von Text,<br />

Indikatoren, Tabellen, Karten<br />

Die Wetterkarten sind von den Modellbetreibern zu erzeugen und als Postscript oder<br />

PDF Dateien an BOKU-Met zu schicken. Diese Karten dienen BOKU-Met quasi als<br />

erster Quicklook. Der Farbkeil soll dabei so definiert werden, dass auch S/W-<br />

Ausdrucke möglich sind.<br />

4) Abstimmung Ergebnisse Termine<br />

Die von BOKU-Met benötigten ERA 40 Daten sind bereits auf den systems researchj<br />

FTP Server platziert. Die von BOKU-Met benötigten Modelldaten (MM5 und ALADIN,<br />

für die Termine der Domaintest; VERA-Format!!) werde in der kommenden Woche<br />

gerechnet/übermittelt.<br />

Die ersten Validierungs-Ergebnisse der BOKU-Met sollen Ende Juli geliefert werden.<br />

Auf Frage von Ahrens, wie und ob ein Domain-Test mit VERA-Daten erfolgt, meint<br />

Formayer, dass diese Tests mit ERA-40 Daten validiert werden.<br />

Chimani fragt, ob die Programmierung des Interfaces MM5/VERA durch Züger bereits<br />

erfolgt sei. Züger erklärt, dass die Erstellung des VERA-Inputs derzeit nur testweise<br />

und speziell auf die Datenstrukturen auf dem eigenen Rechner abgestimmt funktioniert.<br />

An einer Version, die für alle funktioniert wird noch gearbeitet. Probleme bereitet dabei<br />

im Moment eine nicht zufrieden stellende Lösung zur Berechnung des SLP. Diese<br />

sollte mit Abschluss der ersten Testrechnungen und Übermittlung an BOKU-Met<br />

bereitstehen.<br />

Frank erklärt, die Arbeiten von BOKU-Met würden durchgeführt, sobald das Setup<br />

endgültig geklärt ist, also nach den Parametertests.<br />

BOKU-Met rechnet Vergleich mit Zaengl-Version des MM5, um Unterschiede und<br />

mögliche Verbesserungen zu erkennen, sobald die Domaintests abgeschlossen sind<br />

(dafür sind ERA-40-Daten als MM5-Input nötig). Die Festlegung des Domain-Setups ist<br />

erst der <strong>1.</strong>Teil der „Parametertests“, danach folgen die Parametertests zum Festlegen<br />

der physikalischen Optionen im MM5.<br />

Schöner versichert, erste Ergebnisse Mitte August liefern zu können.<br />

Bezüglich der Teilberichte, meint Schöner, dass sein Beitrag Ende August zur<br />

Verfügung stünde. Ahrens berichtet, dass IMG Teil weitgehend fertig ist und Ende Juli<br />

an systems research geliefert wird.<br />

Formayer meint, BOKU-Met könnte erst nach Erhalt der Daten (vgl. oben) beginnen.<br />

Erste Ergebnisse könnten Mitte Juli vorhanden sein. Zusätzlich sollte bis dahin die<br />

Kurzbeschreibung des statistischen Tools vorliegen. Für den Teilbericht könnten<br />

allgemeine Beschreibung der geplanten Durchführung der diversen Tests und einige<br />

beispielhafte Testergebnisse bis Mitte Juli zur Verfügung gestellt werden<br />

Eine Umfassende Darstellung der ersten Sensitivitätstests kann bis Ende August<br />

geliefert werden.<br />

Chimani sagt die IMG-Beiträge bis Ende Juli zu.<br />

Anhang 2 31


Loibl ersucht alle Projektpartner, die Beiträge für den Endbericht des ersten<br />

Projektjahres so zeitgerecht an ARC zu mailen, dass dieser zumindest im September<br />

zusammengeführt und fertig layoutiert werden kann.<br />

Exkurs: Antriebsdaten<br />

Ahrens berichtet, dass er oder Beck im Juli zu Martin Wild an die ETH Zürich fahren,<br />

um endgültig zu klären, ob ein prospektiver ECHAM 5 Lauf für reclip zur Verfügung<br />

stünde (was laut Ahrens sehr wahrscheinlich ist). Gobiet bezweifelt, ob die Festlegung<br />

auf den retrospektiven ECHAM 5 Laufes sinnvoll ist, bevor geklärt ist, ob auch ein<br />

prospektiver Lauf zur Verfügung steht. Formayer meint in diesem Zusammenhang,<br />

dass unabhängig vom Gesprächsergebnis in Zürich in den nächsten 6 – 12 Monaten<br />

ein diesbezüglicher Lauf vom MPI Hamburg angeboten werden wird, da laut Cubasch<br />

für IPCC 2007 nur mehr ECHAM 5 verwendet werden soll“. Ahrens ist überzeugt, dass<br />

der retrospektive Lauf in jedem Fall verwendet werden soll und verweist hierbei auf<br />

mögliche Vergleiche mit PRUDENCE. Gobiet gibt zu bedenken, dass Modell<br />

„retrospektiv“ und „prospektiv“ vergleichbar sein sollten.<br />

Letztlich einigen sich die Anwesenden, bei der beim letzten Meeting vorgeschlagenen<br />

Vorgangsweise zu bleiben.(1981-1990 mit ECHAM 5 rechnen, die prospektiven läufe<br />

hoffentlich (ab Sommer 2005) auch mit ECHAM5)<br />

5) Offerte für das zweite Projektjahr<br />

Loibl wünscht sich möglichst noch mit Ende Juli „einigermaßen“ klare Beschreibung<br />

der Inhalte, damit die Inhalte zwischen den Partner abgestimmt werden können.. Das<br />

2. Projektjahr soll mit September 2004 beauftragt werden und bis Juni 2005 laufen,<br />

sodass eine wahrscheinliche Verzögerung bis August, 2005 angefangen werden kann<br />

und das 3. Projektjahr im September 2005 starten kann.<br />

Als Vorgangsweise schlägt Loibl vor, analog zu ersten Projektjahr zunächst Drafts<br />

analog zu den Formularen im „<strong>1.</strong> Zwischenbericht“ zu schicken und Rückmeldungen<br />

abzuwarten, damit die einzelnen Aufgaben geklärt werden.<br />

6) Allfälliges<br />

Ahrens erinnert an morgigen Vortrag um von PD Dr. F. Berger von der TU Dresden:<br />

„Wasserhaushaltsuntersuchungen mit Fernerkundungsdaten“<br />

Schöner verweist ebenfalls auf zusätzlichen Vortrag am Dienstag von R. Benestad.<br />

Die offizielle Sitzung wird um 17:15h geschlossen. Dann erfolgt eine informelle<br />

Präsentation des Clim-pact Paketes für R von Benestad, die bis ca. 19:00 h. dauert.<br />

32 Anhang 2


Loibl – Präsentation von reclip:more am Klimatag 2004 der BOKU<br />

Keuler – Gastvortrag am 20.4.2004<br />

Benestad – Gastvortrag am 2<strong>1.</strong>6.2004<br />

Anhang 3<br />

Folienübersicht der Vorträge


Loibl – Präsentation von reclip:more am Klimatag 2004 der BOKU<br />

Keuler – Gastvortrag am 20.4.2004<br />

Benestad – Gastvortrag am 2<strong>1.</strong>6.2004<br />

Anhang 3<br />

Folienübersicht der Vorträge


Anhang 3<br />

Teil 1<br />

Projekt: reclip:more<br />

Research for Climate Protection – Model run evaluation<br />

Vorstellung der Projektziele und des Projektablaufs 2003 - 2006<br />

Wolfgang Loibl, 20. April 2004<br />

Projekt -Team:<br />

Wolfgang Loibl 1 , Johann Züger 1 , Mario Köstl 1 (Projektleitung, MM5-Modellierung, Downscaling)<br />

Andreas Gobiet 2 , Heimo Truhetz 2 (MM5-Modellierung, Validierung, Downscaling)<br />

Herbert Formayer 3 , Petra Seibert 3 , Andreas Frank 3 , Bernd Krüger 3 (Validierung, Modelltests)<br />

Bodo Ahrens 4 , Alexander Beck 4 (Aladin-Modellierung, Sensitivitätstests)<br />

Manfred Dorninger 5 , Barbara Chimani 5 (Datenbereitstellung, Validierung mit VERACLIM)<br />

Wolfgang Schöner 6 , Elsa Dos Santos Cardoso 6 (Bereitstellung von Ö-Daten, Downscaling)<br />

1 ARC-sys ARC systems research, Wien - Seibersdorf<br />

2 IGAM Institut für Geophysik, Astrophysik & Meteorologie der Universität Graz<br />

3 BOKU-Met Institut für Meteorologie der Universität für Bodenkultur, Wien<br />

4 IMG Institut für Meteorologie und Geophysik der Universität Wien<br />

5 ZAMG Zentralanstalt für Meteorologie und Geodynamik, Wien<br />

1


Anhang 3<br />

Teil 1<br />

reclip – Research for Climate Protection<br />

Ein Programm zur österreichischen Klimaschutzforschung 2003-2006<br />

Programm-Inhalte:<br />

reclip:more – Model run Evaluation<br />

Klimamodellierung als Basis für eine gesamtösterreichische<br />

und regionsbezogene Klimafolgenforschung<br />

reclip:tom – Technical Options for Mitigation of Green<br />

House Gas Emissions<br />

Systemische Modellierung der Emissionen aus Energie-<br />

Produktions- und Entsorgungsprozessen<br />

reclip:strat – Strategische Begleitung und Optimierung<br />

Lessons learned für Kooperationen universitäre –<br />

außeruniversitäre Forschung<br />

© systems research<br />

reclip:more – Ziele und Aufgaben: Übersicht<br />

Regionale Klimamodellierung – Methoden, Tests und Ergebnisse als<br />

Basis für eine Österreich- und regionsbezogene Klimafolgenforschung<br />

Datenbedarf – Erhebung (ARC-sys)<br />

Dynamische, regionale Klimamodellierung (ARC-sys, IMG, IGAM)<br />

Modellierung (ca. 10 km Ziel-Auflösung) mit den Modellen MM5 und Aladin<br />

retrospektive Läufe 1980-1990 mit 2 alternativen Antriebsdaten (ERA40, ECHAM 4 T106 92a) ,<br />

Sensitivitätstests<br />

prospektive Modellläufe 2030-2040 mit identen Antriebsdaten (ECHAM 4 T106, 92a),<br />

Sensitivitätstests<br />

Validierung / Vergleich der Modellergebnisse (BOKU-Met, IMG, IGAM)<br />

Downscaling der Modellergebnisse 10km -> 1km (ZAMG, ARC-sys, IGAM)<br />

(Temperatur, Niederschlag, Schnee, Strahlung, Wind…) für 3 Study-Regions<br />

(Zentralalpen, SE-Steiermark, Ost-Österreich)<br />

Aufbereitung regionaler Modellergebnisse (ARC-sys)<br />

© systems research<br />

2


Anhang 3<br />

Teil 1<br />

Ziele und Aufgaben – Details<br />

Dynamische regionale Klimamodellierung und Sensitivitätsanalysen<br />

Tests und Vergleiche – Antriebsdaten, Modell-Domains, Perioden<br />

Downscaling von Messdaten und Modellergebnissen<br />

für 3 Testregionen mit einer Auflösung von 1 km<br />

Benchmarking der retrospektiven Modelläufe<br />

Vergleichende Analyse und Validierung der Modellergebnisse aller<br />

retrospektiven Modellläufe und der Messergebnisse<br />

Dokumentation der Vor- und Nachteile der Modellvarianten, der<br />

unterschiedlichen Antriebsdaten und verschiedener Modellparametrisierungen<br />

Vergleich der Modellergebnisse der prospektiven Modellläufe analog 4)<br />

Bereitstellung von regionalisierten Modellergebnissen<br />

Tagesdaten T mean , T max , T min , Strahlung, Feuchtigkeit, Wind, Niederschlag)<br />

für Österreich in 10km- sowie in 1km Auflösung für 3 Testregionen<br />

© systems research<br />

reclip:more – Arbeitspakete<br />

Modell –<br />

Validierung,<br />

Benchmarking<br />

Upscaling<br />

Messdaten &<br />

Modellergebnisse<br />

Dynamische<br />

Modellierung<br />

Partner<br />

UNI‘s<br />

ZAMG<br />

ARC<br />

© systems research<br />

Validierungsmethoden<br />

Messdaten<br />

199x<br />

Re-Analysedaten<br />

Benchmark 199x<br />

Downscaling-methoden<br />

Downscaling<br />

Messdaten<br />

& Model runs 199x<br />

Retrospektive<br />

model runs 199x<br />

GCM-<br />

Daten<br />

Ergebnisvergleich<br />

Downscaling<br />

Model runs<br />

203x<br />

Prospektive<br />

model runs 203x<br />

GCM-<br />

Daten<br />

11/2003 12/2004 12/2005<br />

transiente<br />

regionale<br />

Ergebnisse<br />

für<br />

Klimafolgen<br />

-forschung<br />

6/2006<br />

3


Anhang 3<br />

Teil 1<br />

Datenbedarf für Klimafolgenforschung (1)<br />

Erhebung:<br />

Fragen-Formular versendet an rd. 90 WissenschaftlerInnen (aus<br />

Austroclim/FORNE-Liste)<br />

21 brauchbare Antworten,<br />

davon teilweise nur schriftl. und nicht im Forumuar ausgefüllt<br />

zahlreiche Zusatzwünsche<br />

18 für quantitative Auswertung verwendbar - 6 Fachgebiete:<br />

© systems research<br />

Botanik und Vegetationsökologie<br />

Forstwirtschaft/Waldbau<br />

Zoologie<br />

Kulturtechnik<br />

Human- u. Sozial-Ökologie<br />

(Volks-)Wirtschaft<br />

Datenbedarf für Klimafolgenforschung (2)<br />

Ergebnisse: raumzeitliche Auflösung, Dateninhalte<br />

© systems research<br />

Erhebung 2003:<br />

ARC Systems research<br />

4


Anhang 3<br />

Teil 1<br />

Datenbedarf für Klimafolgenforschung (3)<br />

Trends:<br />

Klimaparameter:<br />

Insgesamt alle nachgefragt: v.a. Temperatur, Niederschlag, Strahlung, Schneedecke<br />

Evtl. entbehrlich: Luftfeuchte, Luftdruck, Bodenfeuchte<br />

räumliche Auflösung:<br />

Notwendig: bis 10 km<br />

z.T. notwendig bzw. wünschenswert: 1 km<br />

v.a. für Botanik (für Sonderfragen), Zoologie, Kulturtechnik (Niederschlag)<br />

(Human- und Sozialökologie (1 von 2 Personen) nennt alle Parameter mit 1 km als notwendig).<br />

zeitliche Auflösung:<br />

Tagesbasis bzw . Derivate davon nachgefragt. T min,T max (6std Auflösung!),T mean, T sum<br />

study-regions:<br />

Stubaier und Ötztaler Alpen, Zentralalpen, Eisenwurzen, Ost-Österreich<br />

Typen: urban (Wien), alpin, strukturschwach (O-Stmk/S-Bgld)<br />

© systems research<br />

Modellierung<br />

regionale Klima-Modellierung (ca. 10 km Ziel-Auflösung) mit<br />

den Modellen MM5 und Aladin<br />

Überprüfung Rechengenauigkeit der MM5-sources mit<br />

verschiedenen Compilern<br />

retrospektive Läufe 1981-1990, aktuelle… mit den Antriebsdaten<br />

ERA40,<br />

ECHAM 5 T106, 92a)<br />

Sensitivitätstests<br />

prospektive Modellläufe 2041-2050 mit den Antriebsdaten<br />

ECHAM 5 T106, 92a)<br />

Sensitivitätstests, Validitätsanalyse<br />

Inputdaten: Startclim 24h (ZAMG, 80 Stationen), EU-Synop 3h,<br />

MAP 24h , CALRAS<br />

© systems research<br />

5


Anhang 3<br />

Teil 1<br />

Modellierung – Prüfung der Rechengenauigkeit: IGAM<br />

Vergleich DEC Alpha : ATHLON<br />

Datensatz Storm of the Century (SOC)<br />

© systems research<br />

Modellierung – Prüfung der Rechengenauigkeit: IGAM<br />

Datensatz Storm of the Century (SOC) – Vergleich DEC Alpha : ATHLON<br />

Temperatur Windgeschwindigkeit Windfeld<br />

Nach 6 Stunden:<br />

(+0,8; -0,9) %<br />

Nach 12 Stunden:<br />

(+3,8; -2,8) %<br />

© systems research<br />

Nach 6 Stunden:<br />

(+8; -14) %<br />

Nach 12 Stunden:<br />

(+14; -9) %<br />

Nach 6 Stunden:<br />

0,8 m/s<br />

Nach 12 Stunden:<br />

0,95 m/s<br />

6


Anhang 3<br />

Teil 1<br />

Modellierung – Tests & Vergleiche (1) (MM5: ARC-sys)<br />

derzeit: Retrospektive Modell-Läufe: Tests und Vergleiche<br />

© systems research<br />

Temperatur-Verlauf<br />

August 1986:<br />

Messung und MM5-<br />

Modellvergleiche<br />

Modellierung – Tests & Vergleiche (2) (MM5: ARC-sys)<br />

Niederschlag & Luftdruck am 25.7.2002, alternative Antriebsdaten<br />

© systems research<br />

7


Anhang 3<br />

Teil 1<br />

Modellierung: Validierung, Sensitivitätstests (BOKU-Met)<br />

Ziele:<br />

<strong>1.</strong> Feststellung, in welcher Modellkonfiguration die LAMs die besten<br />

rechentechnisch leistbaren) Ergebnisse für Österreich bzw. den<br />

Alpenraum in der angestrebten Auflösung von ~10 km liefern<br />

(Modellparametrisierung)<br />

2. Aufzeigen, welche Phänomene die LAMs mit dieser Auflösung<br />

reproduzieren können und welche nicht. (>>> Vortrag Ahrens)<br />

Tests zur Dynamik des Modells über den Alpen:<br />

Einfluss der Domain-Position und Größe<br />

Einfluss des Übergangs Randbedingung/Nestingstufen<br />

Föhn, Leezyklogenese im Mittelmeer, Vb-Lage, Nord - Kaltfront<br />

Einfluss der verwendeten Orographie (unterschiedliche Glättungsverfahren?)<br />

Einfluss unterschiedlicher Landnutzungsmodelle (USGS, CORINE, ARC-sys)<br />

3. Vergleich MM5 – Aladin, im Hinblick auf Vor- und Nachteile des<br />

jeweiligen Modells<br />

© systems research<br />

Modellierung: Sensitivitätstests, Validierung (IMG)<br />

Beispiel: Differenzfelder Veraclim/Messdaten - ALADIN<br />

© systems research<br />

24.06.2002<br />

Bodendruck Temperatur<br />

8


Anhang 3<br />

Teil 1<br />

Downscaling: Beispiel Niederschlag (ARC-sys, ZAMG)<br />

Tests - Downscaling des täglichen Niederschlags<br />

IDW-interpoliert Co-Kriging<br />

Höhengradient, Residuen IDW höhengeschichtete IDW-Interpolation<br />

© systems research<br />

Downscaling: Beispiel Wind (IGAM)<br />

MM5:<br />

Modellierungszeitraum: <strong>1.</strong>9.03 -<strong>1.</strong>10.03<br />

Domäne 1: 81 km Gitter<br />

Domäne 2: 27 km Gitter<br />

Domäne 3: 9 km Gitter<br />

Domäne 4: 3 km Gitter<br />

Domäne 5: 1 km Gitter (interpoliert)<br />

NOAH – Land Surface Model<br />

Antriebsdaten: NCEP Analysis (ds083.2) 1 x 1 ° Auflösung<br />

CALMET (nachgeschaltet):<br />

Modellierungszeitraum: <strong>1.</strong>9.03 - <strong>1.</strong>10.03<br />

7 x 7 km mit 50 m Gitter<br />

Kinematische Effekte<br />

Hangwindsysteme<br />

Froude-Effekt<br />

Antriebsdaten: MM5-Ergebnis Domain 5<br />

© systems research<br />

9


Anhang 3<br />

Teil 1<br />

Downscaling: Input - Wind 1km / 10 m (IGAM)<br />

© systems research<br />

Anwendungsbeispiel - Windpark Oberzeiring<br />

Downscaling: Calmet – Wind 50m / 10 m (IGAM)<br />

© systems research<br />

Anwendungsbeispiel - Windpark Oberzeiring<br />

Kinematische Effekte<br />

Hangwindsysteme<br />

Froude-Effekt….<br />

10


Anhang 3<br />

Teil 1<br />

reclip:more – PJ1<br />

Literaturrecherche<br />

Feinstrukturierung<br />

Festlegung<br />

Messdaten,<br />

Reanalyse,GCM<br />

Festlegung,<br />

Validierungsmethoden<br />

WP 3.x<br />

Festlegung,<br />

Regionalisierungsmethoden<br />

WP4.x<br />

Festlegung,<br />

Domains,<br />

Zeitspanne,<br />

Sensitivitätstests<br />

WP 2.1, WP 2.2<br />

© systems research<br />

Messdaten,<br />

Methoden<br />

Messdaten-<br />

WP <strong>1.</strong>1, <strong>1.</strong>2<br />

Entwicklung /Test<br />

Validierungsmethoden<br />

WP 3.1, 3.2, 3.3<br />

Entwicklung /Test<br />

Regionalisierung-<br />

Methoden<br />

WP 4.1, 4.2, 4.3<br />

ERA40-<br />

Reanalysedaten<br />

WP <strong>1.</strong>3<br />

GCM-Control runs<br />

WP <strong>1.</strong>4<br />

Modelltests<br />

Regionalisierung<br />

Messdaten –<br />

Veraclim WP3.2<br />

Retrospektive<br />

Model test runs<br />

Model short runs,<br />

Sensitivitätstests<br />

WP 5.1, 5.2, 5.3, 5.4, 5.5<br />

Regionalisierung,<br />

Validierung<br />

Validierung<br />

WP 8, WP 3.2<br />

Regionalisierung<br />

Modelldaten:Tests<br />

WP 4.4, 4.5, 4.6,<br />

Validierung<br />

WP8<br />

11/2003 06/2004<br />

Methoden/Daten – PJ1<br />

Messdaten,<br />

Methoden<br />

Messdaten<br />

WP <strong>1.</strong>1, <strong>1.</strong>2<br />

Entwicklung /Test<br />

Validierungsmethoden<br />

WP 3.1, 3.2, 3.3<br />

Festlegung,<br />

Regionalisierungsmethoden<br />

WP 4.x<br />

Festlegung,<br />

Domains,<br />

Zeitspanne,<br />

Sensitivitätstests<br />

WP 2.1, 2.2<br />

Re-Analysedaten<br />

GCM control runs<br />

WP <strong>1.</strong>3<br />

© systems research<br />

07/2004<br />

reclip:more – PJ2<br />

Modellläufe retrospektiv:<br />

short runs, long runs, Regionalisierung<br />

Retrospektive<br />

Model short runs,<br />

WP 5.1, 5.2, 5.4, 5.5<br />

Valid./Regionalisierung<br />

Messdaten - Veraclim,<br />

WP 3.2<br />

Regionalisierung<br />

Modelldaten<br />

WP 7.1, 7.2, 7.3<br />

Retrospektive<br />

Model long runs,<br />

WP 6.1, 6.2<br />

Benchmark<br />

Benchmark<br />

WP 8<br />

06/2005<br />

11


Anhang 3<br />

Teil 1<br />

Methoden – PJ1<br />

Methoden<br />

Entwicklung /Test<br />

Validierungsmethoden<br />

WP 3.1, 3.2, 3.3<br />

Entwicklung /Test<br />

Regionalisierungmethoden<br />

WP4.1,4.2,4.3<br />

Festlegung, Domains,<br />

Zeitspanne,<br />

Sensitivitätstests<br />

WP 2.1, 2.2<br />

© systems research<br />

GCM<br />

WP<strong>1.</strong>4<br />

07/2005<br />

reclip:more – PJ3<br />

Modellläufe prospektiv:<br />

short runs, long runs; Regionalisierung<br />

Prospektive Model<br />

short runs<br />

Sensitivitätstests<br />

WP 9.1, 9.2, 9.3, 9.4<br />

Regionalisierung<br />

Modelldaten:<br />

WP10.1,10.2,10.3<br />

Prospektive Model<br />

long runs<br />

WP 1<strong>1.</strong>1, 1<strong>1.</strong>2,<br />

Plausibilitäts-Test<br />

Daten-Exzerpt<br />

Plausibilitäts-Test<br />

Datenexzerpt<br />

WP 12.1, 12.2<br />

06/2006<br />

12


Loibl – Präsentation von reclip:more am Klimatag 2004 der BOKU<br />

Keuler – Gastvortrag am 20.4.2004<br />

Benestad – Gastvortrag am 2<strong>1.</strong>6.2004<br />

Anhang 3<br />

Folienübersicht der Vorträge


Loibl – Präsentation von reclip:more am Klimatag 2004 der BOKU<br />

Keuler – Gastvortrag am 20.4.2004<br />

Benestad – Gastvortrag am 2<strong>1.</strong>6.2004<br />

Anhang 3<br />

Folienübersicht der Vorträge


Statistical tatistical Downscaling Methods - Theoretical<br />

Background & Experiences from Practical Work<br />

Rasmus.benestad@met.no<br />

Outline<br />

● Theoretical basis.<br />

R.E. Benestad<br />

– Why do we need downscaling?<br />

● Methods.<br />

– Dynamical v.s. empirical-statistical<br />

– The common EOF frame-work<br />

– Statistical models: Regression, CCA, SVD, …<br />

– Empirical-statistical: e.g linear, analog<br />

● Uncertainties.<br />

● Clim.pact and SDSM.<br />

1


Principles rinciples of Downscaling ownscaling<br />

Why downscaling?<br />

“Skillful spatial scale”: ~ 8 grid-pts.<br />

Grotch & McCracken (1991), J. Clim, 4, p. 286<br />

Principles rinciples of Downscaling ownscaling<br />

Large-scale<br />

(GCMs, re-analysis)<br />

Latitude<br />

90<br />

80<br />

70<br />

60<br />

50<br />

40<br />

30<br />

slp: 1st EOF: var=25.7968%<br />

X region : large-scale regional condition<br />

20<br />

eof an ea slp atl.nc<br />

J u m n<br />

−150 −100 −50 0<br />

Longitude<br />

50 100 150<br />

Xlocal local = f(X<br />

(Xregion, region<br />

temperature<br />

6000<br />

4000<br />

−2000<br />

−4000<br />

−6000<br />

0 2 4 6 8<br />

oslo<br />

oksoy<br />

nesbyen<br />

Interpolated Temperatures v.s. station Observations<br />

Local climatic differences<br />

are not resolved in GCMs.<br />

Annual ECHAM4−GSDIO<br />

Empirical-statistical downscaling:<br />

1850 1900 1950 2000 2050<br />

Time<br />

Interpolated NCEP & AOGCM and station observations<br />

2000<br />

Incorporates influence of regional<br />

0<br />

conditions and geographical influences<br />

using information from the past.<br />

, physiography)<br />

physiography<br />

Geographical influence (physiography)<br />

Small-scale<br />

(Direct measurements)<br />

2


Methods ethods<br />

Empirical-statistical & Dynamical downscaling: 2 completely<br />

different approaches - independent modelling strategies.<br />

Deg C<br />

2.5<br />

2.0<br />

<strong>1.</strong>5<br />

<strong>1.</strong>0<br />

0.5<br />

Projected change in annual mean temperature<br />

DD<br />

ED<br />

Dynamical DS not necessarily ‘better’ than<br />

empirical-statistical. 0.0 Stationarity-problems<br />

associated with parameterisation (statistical) and<br />

Hanssen-Bauer<br />

not<br />

et<br />

more<br />

al. (2003)<br />

‘physically<br />

Clim. Res.,<br />

consistent’<br />

25, 15<br />

(systematic<br />

biases – also see figure!).<br />

Methods ethods<br />

R1 R2 R3 R4 R5 R6<br />

2-dimensional data matrix converted to a 1D vector:<br />

Y ij → ỹ ∈ℜ n×m<br />

m<br />

n<br />

A question of of how to to organize<br />

the the data…before EOF anaysis.<br />

Latitude (deg N)<br />

X14<br />

X13<br />

X12<br />

X11<br />

X24<br />

X23<br />

X22<br />

X21<br />

X11<br />

X12<br />

...<br />

Time<br />

X34<br />

X33<br />

X32<br />

X31<br />

Example of data grid<br />

X44<br />

X43<br />

X42<br />

X41<br />

X54<br />

X53<br />

X52<br />

X51<br />

X64<br />

X63<br />

X62<br />

X61<br />

Longitude (deg E)<br />

Observations Model<br />

X74<br />

X73<br />

X72<br />

X71<br />

X84<br />

X83<br />

X82<br />

X81<br />

X94<br />

X93<br />

X92<br />

X91<br />

3


Methods ethods<br />

EOFs and so forth…<br />

● Why do we do it?<br />

– Convenient way of compressing informaton. Handy<br />

for regression analysis.<br />

– Nice mathematical properties (orthogonality). Handy<br />

for regression analysis.<br />

– Seperate time structures from space.<br />

● Physically meaningful??<br />

Methods ethods<br />

Empirical Orthogonal Functions (EOFs) and Principal<br />

Component Analysis (PCA).<br />

Eigenvectors of the co-variance matrix:<br />

‘S-mode’ and ‘T-mode’<br />

Variance-covariance matrix S of X’ is<br />

1/(n-1) X’ T X where<br />

X’ = X - X<br />

S e = λ e (Eigenfunctions)<br />

x’ =E u<br />

u m = e T m x’<br />

Singular Vector Decomposition (SVD)<br />

(different notations E=U, but u is not the<br />

vector form for U)<br />

X = U Σ V T<br />

[x 1 , x 2 ,..x m ] →X<br />

e T ie j =δ ij<br />

[e 1 , e 2 ,..e n ] →E<br />

Literature:<br />

Wilks, D.S. (1995) Statistical Methods in the Atmospheric Sciences. Academic Press<br />

Press W.H., Flannery B.P., Teukolsky S.A, & Vetterling W.T..(1989) Numerical Recipes, Cambridge<br />

Preisendorfer R.W. (1989) Principal Component Analysis in Meteorology and Oceanology, Elsevier Science Press<br />

4


Methods ethods<br />

Gridded Observations/ re-analysis<br />

Time axis<br />

PCA: Singular Vector Decomposition (SVD):<br />

X = U Σ V T<br />

U Σ V<br />

Mathematically identical to<br />

Empirical orthogonal functions (EOF).<br />

Methods ethods<br />

Precipitation (mm)<br />

0 10 20 30 40 50 60<br />

U Σ V U Σ V<br />

PCA: observations PCA: GCM<br />

‘Prefect prognosis’<br />

Traditional downscaling<br />

common EOF : : combine two<br />

different data sets<br />

GCM results<br />

space<br />

U: spatial pattern common<br />

Σ: ‘Eigenvalues’ (variance)<br />

V: time series describing the<br />

loadings (principal components)<br />

U Σ<br />

Common PCA<br />

V<br />

Common EOF based<br />

downscaling<br />

VT VT<br />

VT OSLO − BLINDERN<br />

1950 1960 1970 1980 1990 2000<br />

Time<br />

met.no Klima DataVareHus<br />

Regression →ψ<br />

U<br />

U<br />

Match<br />

Patterns→ϕ<br />

ϕψ<br />

scenario<br />

Precipitation (mm)<br />

0 10 20 30 40 50 60<br />

OSLO − BLINDERN<br />

1950 1960 1970 1980 1990 2000<br />

Time<br />

met.no Klima DataVareHus<br />

Regression →ψ<br />

ψ<br />

scenario<br />

5


Methods ethods<br />

Regression & other Statistical models on Relationships<br />

Methods ethods<br />

Tmpr ( deg C )<br />

20 30 40 50 60 70<br />

Regression:<br />

Example: lm versus projection<br />

single & multiple regression.<br />

Least Squares fit Projection of y= a0 + a1 x1 + a2 x2 + a3 x3 + …<br />

−10 −5 0 5<br />

data<br />

multivariate regression & matrix projection.<br />

Projection & least squares: A x = y → y= A(A T A) -1 A T x<br />

y = a x → a = (x T y)/(x T x)<br />

Strang, G. (1988) Linear Algebra and its Applications, Harcourt Brace & Company<br />

Benestad (1999) MVR applied to Statistical Downscaling for Prediction of Monthly<br />

Mean Land Surface Temperatures: Model Documentation, DNMI Klima, 2/99. pp.35<br />

Oslo Temperature (deg C)<br />

lm<br />

linear models, generalised linear models, non-linear models.<br />

Regression example for Innsbruck…<br />

Empirical Downscaling ( ncep_t2m [ 10W50E−30N60N ] −> Tmpr )<br />

−80 −60 −40 −20 0 20 40<br />

Time<br />

Calibration: Jan Tmpr at INNSBRUCK using ncep_t2m: R2=81%, p−value=0%.<br />

d2<br />

−6 −4 −2 0 2 4<br />

Tmpr ( deg C )<br />

−6 −4 −2 0 2<br />

d1<br />

Ualand Temperature (deg C)<br />

Empirical Downscaling ( ncep_t2m [ 10W50E−30N60N ] −> Tmpr )<br />

Obs.<br />

Fit<br />

GCM<br />

Trends<br />

Jan: Trend fit: P−value=92%; Projected trend= 0.02+−0.25 deg C/decade<br />

1960 1970 1980<br />

Time<br />

1990<br />

Calibration: Jan Tmpr at INNSBRUCK using ncep_t2m: R2=81%, p−value=0%.<br />

6


Methods ethods<br />

Methods ethods<br />

Canonical Correlation Analysis (CCA)<br />

classical & Barnet-Preisendorfer CCA.<br />

ECHAM4<br />

Bretherton et al. (1992) An Intercomparison of Methods for finding<br />

Coupled Patterns in Climate Data, J. Clim., 5, 54<strong>1.</strong><br />

T(2m).<br />

SLP.<br />

Benestad (1998) CCA applied to Statistical Downscaling for Prediction of<br />

Obs.<br />

Monthly Mean Land Surface Temperatures: Model Documentation, DNMI Klima,<br />

28/98, pp.96<br />

T(2m).<br />

Singular Vector Decomposition (SVD)<br />

not to be confused with Singular Vector<br />

Decomposition (SVD)<br />

Coupled fields (from CCA).<br />

SLP.<br />

Find patterns with the<br />

maximum correlation.<br />

X 1 = G U T , X 2 =HV T<br />

U T V = L M R T = C<br />

Downscaling:<br />

X 1 = G M (H T H) -1 X 2<br />

Benestad (1998) SVD applied to Statistical Downscaling for Prediction of<br />

Monthly Mean Land Surface Temperatures: Model Documentation, DNMI Klima, 30/98,<br />

pp. 38<br />

X 1 = G svd S 12 S 22 -1 H T svd X 2<br />

Maximize co-variance (CCA maximizes correlation)<br />

Other types of models…<br />

Neural nets and Self-Organising Maps…<br />

7


Methods ethods<br />

Methods ethods<br />

Example of downscaling: ‘Perfect prog’ & common EOF<br />

Common EOF<br />

‘Perfect prog’<br />

Benestad (2001) Int. J. Clim. 21 1645<br />

Experiment: downscaling using a set of different predictor domains.<br />

Check robustness (flat structure).<br />

Common EOF<br />

‘Perfect prog’<br />

Benestad (2001) Int. J. Clim. 21 1645<br />

8


Methods ethods & Uncertainties ncertainties<br />

Choice of domain can affect your results…<br />

Annual mean temperature No No at ‘inflation’ bjoernoeya−99710 has been used<br />

here. Less need for for inflation<br />

Bjoernoeya: 19.02°E,74.52°N<br />

than in in ‘Perfect Prog’ approach<br />

(von (von Storch, 1999, J. J. Clim, 12, 12, 3505)<br />

Temperature (deg C)<br />

−8 −6 −4 −2 0 2 4 6<br />

1900 1950 2000 2050<br />

Time (year)<br />

Downcaled from ECHAM4/OPYC3 GSDIO<br />

Benestad (2002) Clim. Res.,21 (2), p. 105-125: warning about domain choice.<br />

Methods ethods & Uncertainties ncertainties<br />

Strong & well-understood<br />

relationship (reflecting a physical<br />

mechanism)<br />

Field that GCMs can skilfully<br />

reproduce<br />

Parameters that carry the essential<br />

signal (e.g. a gradual global<br />

warming is not well-represented in<br />

SLP)<br />

Which parameters as predictors?<br />

Temperature trend (deg C per decade)<br />

−2 −1 0 1 2<br />

obs<br />

−10E50E52N75N<br />

−40E20E67N85N<br />

−40E40E52N80N<br />

−60E40E42N70N<br />

.slp. .slp.temp. .temp.<br />

9


Methods ethods & Uncertainties ncertainties<br />

Choice of method: e.g. linear v.s. analog<br />

Other methods may also be be<br />

incorporated into clim.pact<br />

in in the the future, such as as neural<br />

nets. Various regression<br />

models are are available (lm,<br />

glm, etc.), and CCA/SVDbased<br />

models may also be be<br />

included in in the the future.<br />

In In the the common EOF framework it it is is<br />

possible to to add corrections to to the the<br />

model results: by by setting<br />

PC PC loadings for for ‘present-day’<br />

climate to to have same spread and<br />

location (µ (µ & σ) σ) as as in in the the<br />

observations and use the the same<br />

adjustments for for the the future.<br />

Methods ethods & Uncertainties ncertainties<br />

Probing uncertainties through multi-model ensembles:<br />

Spread caused by different model shortcomings, natural<br />

variability & different initialisation processes.<br />

10


Uncertainties ncertainties<br />

Re-cap of Uncertainties…<br />

● Model shortcomings (systematic biases).<br />

– Can be explored to a certain extent through multi-model<br />

ensembles.<br />

– Analysis, validations, & diagnostics (clim.pact)<br />

● Imperfect downscaling methods and choice of set-up.<br />

– Can be explored through different choices and methods (eg<br />

clim.pact, SDSM, & nested models)<br />

– Validation exercises.<br />

● Natural variability, GCM initiation, & additional forcing<br />

factors.<br />

– Ensembles of GCM exmperiments.<br />

● Emission scenarios.<br />

Clim.pact lim.pact & SDSM DSM<br />

– Multi-emission scenario ensembles.<br />

Other types of empirical-statistical downscaling:<br />

Obs<br />

So far: pattern matching. GSDIO<br />

met.no−B2<br />

Simpler: circulation indices & E.S.C.−B2<br />

classifications.<br />

monthly mean T(2m) (degree Celsius)<br />

−15 −10 −5 0<br />

Pattern matching: incorporate a form of quality control/validation.<br />

Clim.pact for R and SDSM<br />

Wise to to use different tools<br />

in in downscaling in in order to to<br />

check robustness!<br />

Time series<br />

1900 1950 2000 2050 2100<br />

Time<br />

Dec − Feb monthly mean T(2m) at NESBYEN<br />

C.W. Dawson & Rob Wilby: Wilby<br />

https://co-public.lboro.ac.uk/cocwd/SDSM<br />

https://co public.lboro.ac.uk/cocwd/SDSM/<br />

11


Clim.pact lim.pact<br />

Http://cran.p-project.org/<br />

Clim.pact lim.pact<br />

Clim.pact<br />

An analytical tool for climate analysis<br />

R.E. Benestad<br />

A cook book recipe<br />

Can be run on PCs (click), in emacs on Linux (with the<br />

ESS package installed, or in ordinary shells:<br />

12


Clim.pact lim.pact<br />

Clim.pact lim.pact<br />

To start R<br />

● In emacs:<br />

– Type 'Esc' & 'X'<br />

– Type 'R'<br />

– or name of<br />

working directory.<br />

Basic commands:<br />

● help.start()<br />

● quit()<br />

● library(clim.pact)<br />

● ls()<br />

● A


Clim.pact lim.pact<br />

Selected clim.pact functions.<br />

● DS()<br />

Clim.pact lim.pact<br />

● EOF()<br />

● getnacd()<br />

● mixFields()<br />

● catFields()<br />

● mapField()<br />

● plotDS()/plotEOF()<br />

● satellite()<br />

● corField()<br />

● Empirical DownScaling.<br />

● EOF analysis.<br />

● Reads NACD data.<br />

● Mixes data fields (eg SLP & T2m).<br />

● Concatinates fields (obs + model).<br />

● Shows a map of fields values<br />

● Plots the results (DS or EOF).<br />

● Polarstereographic view.<br />

● Correlation analysis.<br />

Sample session:Station record<br />

rm(list=ls())<br />

1<br />

2<br />

avail.locs()<br />

mestad.rr Figs 1 & 2<br />

plotStation(mestad,mon=1) # -> Figs 3 & 4<br />

3 4<br />

14


Clim.pact lim.pact<br />

Clim.pact lim.pact<br />

Sample session: Presenting maps<br />

slp


Clim.pact lim.pact<br />

Clim.pact lim.pact<br />

Sample session: spatial correlation<br />

data(tromsoe.t2m)<br />

obs.t2m


Clim.pact lim.pact<br />

Clim.pact lim.pact<br />

Downscaling with real observations.<br />

data(eof.slp)<br />

data(bergen.t2m)<br />

DS(preds=eof.slp,dat=bergen.t2m)<br />

Sample session: downscaling<br />

slp.obs


Clim.pact lim.pact<br />

Documentation<br />

● Online manual & PDF: clim.pact.pdf<br />

● met.no KLIMA report 01/03 for V0.9<br />

● Met.no KLIMA, 04/03, pp. 85.<br />

Rasmus.benestad@met.no<br />

18


Anhang 4<br />

Nachfrage nach Klimadaten – Bedarfserhebung Herbst 2003


Nachfrage nach Klimadaten – Bedarfserhebung Herbst 2003<br />

Die Modellrechnungen erfolgen in mehreren Nestingstufen, wobei ausgehend von<br />

Modellergebnissen für ein grobes Raster Ergebnisse für ein feineres Raster<br />

berechnet werden – für Europa, für den Alpenraum, für die Ostalpen etc. Aufgrund<br />

der beschränkten Finanz- und Rechenkapazitäten können nicht alle potenziellen<br />

Datenwünsche der Klimafolgen-ForscherInnen-Gemeinde erfüllt werden.<br />

Um jedoch die auszuwertenden Modellergebnisse an den Bedarf der Klimafolgen-<br />

ForscherInnen soweit als möglich anzupassen, wurde im September 2003 von ARC<br />

systems research eine Erhebung unter den Interessenten der FORNE-Initiative<br />

(Forschung für Nachhaltige Entwicklung) durchgeführt.<br />

Mittels standardisierten Erhebungsbogen wurde erfragt, welche Klimaparameter als<br />

wichtig erachtet werden und welche räumliche bzw. zeitliche Auflösung für eine<br />

Befassung des Fachgebietes mit der Thematik notwendig scheint.<br />

Insgesamt wurden 85 Institute bzw. WissenschaftlerInnen angeschrieben. 20 davon<br />

retournierten den Erhebungsbogen, wobei 18 quantitativ auswertbare Antworten<br />

lieferten.<br />

Die Adressaten dieser Antworten entstammen folgenden Fachgebieten:<br />

- Botanik und Vegetationsökologie<br />

- Forstwirtschaft/Waldbau<br />

- Zoologie<br />

- Kulturtechnik<br />

- Human- u. Sozialökologie<br />

- Volkswirtschaft<br />

Die Auswertung der Antworten lässt sich nach Fachgebieten und getrennt in<br />

räumliche und zeitliche Auflösung wie folgt zusammenfassen:<br />

Anhang 4 1


Tab. 1: Auswertung der Datennachfragepräferenzen im Hinblick auf die räumliche Genauigkeit<br />

nach Fachgebieten<br />

X heißt, dass eine Mehrheit diese Ausprägung als notwendig erachtet<br />

(x heißt, dass hier keine Mehrheit gegeben ist – bei 50:50 Bewertung)<br />

0 gibt eine indifferente Meinung an – zT notwendig, zT wünschenswert<br />

- benennt jene Ausprägungen die zT als wünschenswert, von einer Minderheit als notwendig erachtet wurden.<br />

Tab. 2: Auswertung der Datennachfragepräferenzen im Hinblick auf die zeitliche Auflösung nach<br />

Fachgebieten<br />

X heißt, dass eine Mehrheit diese Ausprägung als notwendig erachtet<br />

(x heißt, dass hier keine Mehrheit gegeben ist – bei 50:50 Bewertung)<br />

0 gibt eine indifferente Meinung an – zT notwendig, zT wünschenswert<br />

- benennt jene Ausprägungen die zT als wünschenswert, von einer Minderheit als notwendig erachtet wurden.<br />

2 Anhang 4


Die Gesamtauswertung stellt sich wie folgt dar:<br />

Tab. 3: Auswertung der Datennachfragepräferenzen insgesamt<br />

Die Nachfragetrends lassen sich folgendermaßen zusammenfassen:<br />

Räumliche Auflösungen<br />

Als unbedingt notwendig wird generell eine Auflösung bis 10 km erachtet, teilweise<br />

wird 1 km als notwendig bzw. wünschenswert angegeben (va. für Sonderfragen der<br />

Botanik). Zoologie, Kulturtechnik (wo va. der Niederschlag interessiert) sowie<br />

Human- und Sozialökologie (1 von 2 Personen) halten alle Parameter mit 1 km<br />

Auflösung als notwendig.<br />

Als gewünschte Study-Regions mit 1 km Auflösung oder feiner wurden genannt:<br />

die Stubaier und Ötztaler Alpen, die Zentralalpen, die Region Eisenwurzen, der<br />

Seewinkel, das Marchfeld und Wien; damit wären drei Regionstypen, nämlich urban<br />

(Wien), alpin und strukturschwach (zB O-Stmk/S-Bgld) abgedeckt.<br />

Zeitliche Auflösungen<br />

Bei der zeitlichen Auflösung wurden Ergebnisse auf Tagesbasis bzw. Derivate<br />

davon (zB Temperatursummen) als notwendig erachtet. Zusätzlich benötigt man<br />

Tmean, Tmin, Tmax (dh. zumindest eine 6-stündige Auflösung!), bzw.<br />

Tagesmittelwerte und Tagessummen.<br />

Gewünschte Klimaparameter<br />

Von allen nachgefragt wurde va. T, NS, Strahlung und Schneedecke. Als evtl.<br />

entbehrlich erscheinen Luftfeuchte, Luftdruck und Bodenfeuchte.<br />

Anhang 4 3


präsentiert bei<br />

High-resolution climate modelling: Assessment, added value and applications<br />

Lund, Sweden, 29 March – 2 April 2004<br />

Anhang 5<br />

reclip:more Poster


eclip:more<br />

research research<br />

for climate climate<br />

protection: rotection: model model<br />

run un evaluation valuation<br />

Johann Züger, ARC systems research, A-2444 Seibersdorf<br />

Goals of reclip:more<br />

The project reclip:more was started to carry out regional climate model runs, sensitivity analysis, model benchmarking of 2 different<br />

regional climate models and finally to provide validated high resolution datasets for Austria. The overall objective referring to data is to<br />

produce transient regional climate model (RCM) results of the daily weather conditions for a past decade (~1990-2000) as control run for<br />

model validation purposes and for a future decade (~2040-2050). A Model validation task shall perform a benchmarking of 2 different<br />

limited area models: MM5 and ALADIN. The major scientific goals are to quantify the uncertainties, investigate the sensitivity of regional<br />

climate simulations and create regional scale climate change scenarios with a resolution of 10 km for the eastern Alps covering Austria.<br />

Further downscaling shall deliver results with 1km resolution for some selected test regions.<br />

Tasks in detail:<br />

(1) <strong>Development</strong> and application of methods and<br />

tests:<br />

Model validation - statistical methods, indicators.<br />

Up/Downscaling - regionalization of observation and<br />

gridded model results.<br />

(2) Dynamical regional climate modeling:<br />

Retrospective model runs of 2 LAMs with Reanalysis<br />

and GCM data sets for 1990-2000.<br />

Prospective model runs of 2 LAMs with GCM data<br />

sets for 2040-2050 (possibly 2070-2100).<br />

(3) Up / Down Scaling:<br />

Regionalization of observation data and gridded<br />

model results for validation and finally for delivery of<br />

model results.<br />

(4) Benchmarking of retrospective model runs:<br />

Comparative analysis of high resolution model<br />

results and monitoring data.<br />

Documentation of advantages and disadvantages<br />

of different model settings within the LAMs.<br />

(5) Comparison of results of prospective model<br />

runs<br />

(6) Delivery of high resolution model results for<br />

future climate:<br />

Temperature (mean, max, min), humidity, radiation,<br />

wind (6-h speed, direction), precipitation (daily).<br />

K-wiss<br />

reclip:strat reclip:tom<br />

Model<br />

Validation,<br />

Benchmarking<br />

Up/Down<br />

Scaling Data<br />

and Model<br />

Results<br />

Dynamical<br />

modeling<br />

Partners:<br />

Universities<br />

ZAMG<br />

ARC<br />

Data<br />

1999<br />

Work Packages & Schedule<br />

Validation Methods<br />

Reanalysis<br />

Data<br />

Benchmarking 1999<br />

Up/Down Scaling<br />

Methods<br />

Up/Down Scaling Data<br />

& Model Runs 199x<br />

Retrospective Model<br />

Runs 199x<br />

GCM<br />

Data<br />

GCM<br />

Data<br />

Results Comparison<br />

Up/Down Scaling<br />

Model Runs 204x<br />

Prospective Model Runs<br />

204x<br />

Transient<br />

Regional<br />

Results for<br />

Climate<br />

Change<br />

Research<br />

2003 2004 2005 2006<br />

The reclip:more Team:<br />

ARC systems research<br />

Project management, data preparation for MM5, MM5 short runs, sensitivity tests.<br />

Downscaling: T-min, T-max, Rad.<br />

Contact: wolfgang.loibl@arcs.ac.at<br />

IMGW - University of Vienna<br />

(1) SYNOP-,MAP-,CALRAS datasets, model run validation with VERA, sensitivity tests.<br />

(2) Data preparation for ALADIN, ALADIN short runs, sensitivity tests, long runs.<br />

Contact: (1) manfred.dorninger@univie.ac.at, (2) bodo.ahrens@univie.ac.at<br />

BOKU-Met - University of Agriculture Vienna<br />

Sensitivity tests concept, model validation concept, RCM benchmarking.<br />

Contact: herbert.formayer@boku.ac.at<br />

IGAM - University Graz<br />

MM5 long runs, vertical validation, downscaling wind.<br />

Contact: andreas.gobiet@uni-graz.at, heimo.truhetz@uni-graz.at<br />

ZAMG - Austrian Weather Service<br />

Austrian monitoring data, downscaling T-mean, P, Snow.<br />

Contact: wolfgang.schoener@zamg.ac.at<br />

Acknowledgement<br />

The project reclip:more is funded by the K-wiss program of the Austrian Research Centers (ARC). The main goal of the K-wiss program is to enhance the cooperation between universities and other<br />

research institutions. One of the tasks within K-wiss is reclip conducted by ARC systems research.<br />

Reclip is divided into three branches:<br />

reclip:more (research for climate protection: model run evaluation)<br />

reclip:tom (research for climate protection: Technological Options for Mitigation )<br />

reclip:strat (research for climate protection: Strategic Accompanying and Evaluation).<br />

Contact:<br />

Wolfgang Loibl<br />

ARC systems research<br />

A-2444 Seibersdorf<br />

reclip:more<br />

Tel.: +43(0)50550-3875<br />

Fax: +43(0)50550-3888<br />

email: wolfgang.loibl@arcs.ac.at<br />

URL: http://www.systemsresearch.ac.at


Impressum<br />

Als Manuskript vervielfältigt. Für diesen Bericht<br />

behalten wir uns alle Rechte vor.<br />

ARC-Berichte<br />

Herausgeber, Verleger, Redaktion, Hersteller :<br />

ARC systems research GmbH<br />

A-2444 Seibersdorf<br />

T : +43(0)50550-3880<br />

F : +43(0)50550-3888<br />

sys@arcs.at<br />

www.systemsresearch.ac.at

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!