1. Jahresbericht (german version) - Foresight & Policy Development
1. Jahresbericht (german version) - Foresight & Policy Development
1. Jahresbericht (german version) - Foresight & Policy Development
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
eport<br />
reclip:more<br />
research for<br />
climate protection:<br />
model run evaluation<br />
<strong>1.</strong> <strong>Jahresbericht</strong><br />
Wolfgang Loibl, Herbert Formayer<br />
Wolfgang Schöner, Bodo Ahrens<br />
Manfred Dorninger, Andreas Gobiet<br />
(Hrsg.)<br />
Dezember 2004<br />
ARC–sys-0032
eclip:more<br />
research for<br />
climate protection:<br />
model run evaluation<br />
<strong>1.</strong> <strong>Jahresbericht</strong><br />
zum Projekt Nr. 7.64.00210<br />
Berichtszeitraum 11/2003 - 06/2004<br />
Wolfgang Loibl, Herbert Formayer<br />
Wolfgang Schöner, Bodo Ahrens<br />
Manfred Dorninger, Andreas Gobiet<br />
(Hrsg.)<br />
Dezember 2004<br />
ARC–sys-0032
Kwiss-Programm reclip:more<br />
research for climate protection – model run evaluation<br />
Autorenschaft:<br />
Projektleiter ist Wolfgang Loibl<br />
Als Herausgeber fungieren die Teilprojektleiter der beteiligten Institutionen:<br />
Wolfgang Loibl, Herbert Formayer, Wolfgang Schöner, Bodo Ahrens, Manfred Dorninger, Andreas<br />
Gobiet<br />
ProjektbearbeiterInnen und damit Co-AutorInnen sind:<br />
Mario Köstl 1) , Wolfgang Loibl 1) , Johann Züger 1) , Elsa Dos Santos Cardoso 2) , Wolfgang Schöner 2) ,<br />
Herbert Formayer 3) , Andreas Frank 3) , Helga Kromp-Kolb 3) , Bernd C. Krüger 3) , Petra Seibert 3) ,<br />
Andreas Gobiet 4) , Gottfried Kirchengast 4) , Heimo Truhetz 4) , Bodo Ahrens 5) , Alexander Beck 5) , Barbara<br />
Chimani 5) , Theresa Gorgas 5) , Manfred Dorninger 5) , Reinhold Steinacker 5)<br />
Projektpartner: reclip:more<br />
Außeruniversitäre Institutionen<br />
1) systems research ARC systems research GmbH<br />
2) ZAMG Zentralanstalt für Meteorologie und Geodynamik<br />
Universitäten<br />
3) BOKU-Met Institut für Meteorologie der Universität für Bodenkultur, Wien<br />
4) IGAM Institut für Geophysik, Astrophysik und Meteorologie der Univ. Graz<br />
5) IMG Institut für Meteorologie und Geophysikder Universität Wien
Kurzfassung<br />
Hauptziel des Projekts ist, Szenarios des künftigen regioalen Klimas für Österreich in meso- und<br />
microskaliger Auflösung mit Hilfe regionaler Klimamodelle (RCM’s) und Methoden des Statistical<br />
Downscaling zu erzeugen, wobei die Möglichkeiten der eingesetztes Modelle und Downscaling-<br />
Methoden für den alpinen Raum evaluiert werden sollen. Durch Quantifizierung der Unsicherheiten<br />
und mittels Sensitivitätsanalysen der RCM-Simulationen um den Einfluss unterschiedlicher Modelparameter<br />
und IT-Prozesstechniken zu prüfen. Um diese Ergebnisse zu erzielen sind weiters vorbereitende<br />
Datenaufbereitung, zahlreiche gemeinsam durchzufürhrende Modellexperimente und eine<br />
genaue Datenkontrolle notwendig.<br />
Zwei regionale Klimamodelle – das französische Modell ALADIN und das USA-kandadische Model<br />
MM5 – werden dabei durch ERA-40 Reanalyse-Daten und ECHAM5 GCM-Daten angetrieben, die<br />
das aktuelle (1981-1990) und das künftige (2041-2050) Klima widerspiegeln sollen. Durch das Numerische<br />
Downscaling wird ausgehend von einer spektralen Auflösung T106 – also 120 km horizontale<br />
Auflösung – eine Auflösung von ca. 15 km erreicht werden, ein weiteres Downscaling auf ca. 1<br />
km wird mittels statistischer Methoden erreicht. Die Modellvalideirungs-Tasks erlauben ein Benchmarking<br />
der Ergebnisse der beiden eingesetzten RCM’s.<br />
Im ersten Projektjahr (November 2003 bis Juni 2004, gestreckt bis Oktober 2004), konzentrierten<br />
sich die Reclip-Teams auf vorbereitende Arbeiten für die 10-Jahres-RCM-Simulationen mit ERA-40<br />
Re-Analyse- und ECHAM5-Kontrollauf-Daten sowie auf Sensitivitätsstudien, um das optimale RCM-<br />
Setup zu finden. Für die Validierung wurden synoptische Daten aus Österreich und ganz Europa für<br />
den angestrebten Untersuchungszeitraum aufbereitet. Zusätzlich wurden weitere Methoden des<br />
Downscalings getestet bzw. eingesetzt, um eine Regionalisierung in einer horizontalen Auflösung<br />
von 5 bis 1 km zu erreichen: Für die Temperatur, den Niederschlag und die Sonneneinstrahlung<br />
wurde mit statistischen Verfahren unter Einsatz von Terrain-bezogenen Response-Variablen (für die<br />
Sonnenstrahlung zusätzlich mit numerischen Funktionen aus der Strahlungsphysik) gearbeitet, für<br />
den bodennahen Wind wurde ein weiteres dynamisches Downscaling via MM5 verwendet.
Abstract<br />
A reliable assessment of future climate impacts in Austria makes necessary to provide regional climate<br />
model (RCM) runs, and additional tasks to deliver high resolution downscaled datasets for past<br />
and future climate targeting the entire eastern alps covering Austria. The 3-year project reclip:more<br />
(Research for Climate Protection: Model Run Evaluation) is a cooperation of five academic instittions:<br />
The Department of Meteorology and Geophysics of Vienna University (IMG), the Institute of<br />
Meteorology of Vienna University of Natural Resources and Applied Life Sciences (BOKU-Met), the<br />
Institute for Geophysics, Astrophysics and Meteorology of the Graz University (IGAM), the Central<br />
Institute for Meteorology and Geodynamics (ZAMG) and ARC systems research GmbH (systems<br />
research), which is leading the project.<br />
The major goal of the project is to provide future regional climate model scenarios for Austria at meso-<br />
and microscale resolutions by applying regional climate models and statistical downscaling methods<br />
and to evaluate the capability of the applied models and methods to create climate scenarios<br />
for the Alpine region. The goals besides providing climate scenarion data are (1) – quantify the uncertainties<br />
of regional climate simulations elated to observed climate data, (2) – investigate the sensitivity<br />
of regional climate simulations and interpolated climate data to the influence of different model<br />
parameters and data processing techniques. To achieve this, data preparations, a set of common<br />
model experiments and data evaluations have to be carried out.<br />
Two regional circulation models – the French ALADIN model and the US/Canadian mesoscale model<br />
MM5 – will be driven by ERA-40 reanalysis data and by ECHAM5 global circulation model (GCM)<br />
results, representing current (1981-1990) and future (2041-2050) climate to accomplish dynamical<br />
downscaling from the coarse GCM resolution (spectral truncation T106, i.e. ~120 km horizontal resolution)<br />
to 15 km. Further downscaling to 1 km resolution will be accomplished by statistical methods.<br />
The model validation tasks will provide a benchmarking of the 2 regional climate models.<br />
In project year 1 (Nov. 2003 to June 2004, postponed to Oktober 2004), the reclip-teams focused on<br />
preparative work for 10-year RCM simulations, using ERA-40 data and and ECHAM5 control runs of<br />
current climate from the 1990ies, on sensitivity studies aiming at finding the optimal RCM-setup, on<br />
examinations concerning further statistical downscaling and on the preparation of validation data and<br />
methods. To compare the model results with observation data, monitoring data sets from 1990 and<br />
2000 for Austria and synoptical data sets for entire Europe have been prepared. Further downscaling<br />
of model results have been derived for a horizontal resolution of 5-1 km for temperature, precipitation<br />
and solar radiation by statistical methods, with the help of terrain-related response variables (for irradiation<br />
additionally with radiation-physics-related numerical functions), and for near-surface-wind by<br />
dynamical downscaling via MM5.
Inhaltsverzeichnis<br />
1<br />
2<br />
Vorbemerkungen<br />
Projektübersicht<br />
1<br />
3<br />
2.1 Zielsetzung von reclip:more 3<br />
2.2 Aufgabe und Teilprojekte von reclip:more (Model Run Evaluation) 3<br />
2.3 Projekt-Feinstruktur für das Projektjahr 1 5<br />
Workpackage 1 – Projektmanagement 5<br />
Workpackage 2 – Datenaufbereitung 5<br />
Workpackage 3 – Modellvalidierung, Sensitivitäts- und Validitätstests 5<br />
Workpackage 4 – Regionale Klimamodellierung 5<br />
Workpackage 5 – Regionalisierung 6<br />
3 Kurzbeschreibung der Tätigkeiten im ersten Projektjahr 7<br />
3.1 Workpackage 1 – Projektmanagement (Loibl) 7<br />
3.2 Workpackage 2 – Datenaufbereitung 8<br />
WP 2.1 Bereitstellung österreichischer Messdaten (Schöner) 8<br />
WP 2.2a Bereitstellung Synop-Daten Europa (Dorninger) 8<br />
WP 2.2b Bereitstellung MAP-Daten (Chimani) 8<br />
WP 2.2c Bereitstellung Radiosondendaten (Häberli) 8<br />
WP 2.3a ERA-40 Daten – Aufbereitung für ALADIN (Beck) 9<br />
WP 2.3b ERA-40 Daten – Aufbereitung f. MM5 (Züger) 9<br />
WP 2.4a ECHAM5 T106 Treiberdaten (1981-1990) (Gobiet) 9<br />
WP 2.4b ECHAM4 T106 Treiberdaten (2041-2050 - 2. Projektjahr) (Gobiet) 10<br />
3.3 Workpackage 3 – Modellvalidierung, Sensitivitäts- und Validitätstests 10<br />
WP3.1 Abstimmung der Sensitivitätsexperimente (fokussiert auf ALADIN) (Ahrens,<br />
Beck) 10<br />
WP3.2 Festlegen der Sensitivitäts- und Validitätstests, Entwurf des Benchmarks<br />
(Formayer) 11<br />
WP3.3 Modellvalidierung – VERACLIM (Dorninger) 11<br />
WP3.4 Vertikale Validierung (Gobiet) 12<br />
3.4 Workpackage 4 – Regionale Klimamodellierung 12<br />
WP4.1 MM5 – Fortran sourcen, Binärcode-Vergleichstests (Züger) 12<br />
WP4.2 Modellparameter: Domains, Zielauflösung, Study-areas (Züger, Loibl) 13<br />
WP4.3a MM5 test runs mit ERA-40 Daten, erste Sensitivitätsexperimente-ARC<br />
(Züger) 13<br />
WP4.3b MM5 test runs mit ERA-40 Daten, erste Sensitivitätsexperimente-IGAM<br />
(Truhetz, Gobiet) 14<br />
WP4.3c MM5 test runs mit ERA-40 Daten, erste Sensitivitätsexperimente-BOKU-Met<br />
(Formayer) 14<br />
WP4.4 ALADIN test runs mit ERA 40 Daten, Durchführung erster<br />
Sensitivitätsexperimente (Beck, Ahrens) 14
3.5 Workpackage 5 – Regionalisierung 15<br />
WP 5.1: Entwicklung einer Schnittstelle MM5/ALADIN – Regionalisierungstool<br />
(Schöner) 15<br />
WP 5.2a: Regionalisierungstool Temperatur mean (Schöner) 16<br />
WP 5.2b: Regionalisierungstool Temperatur min/ max (Loibl) 16<br />
WP 5.3: Regionalisierungstool Niederschlag (Schöner) 17<br />
WP 5.4: Regionalisierungstool Schneedecke (Schöner) 17<br />
WP 5.5: Regionalisierungstool Strahlung (Loibl) 17<br />
WP 5.6: Regionalisierungstool Wind (Truhetz) 18<br />
4 Auflistung der Workpackages geordnet nach Projektpartner 20<br />
4.1 IGM – Gruppe Dorninger 20<br />
4.2 IGM – Gruppe Ahrens 20<br />
4.3 ZAMG 20<br />
4.4 BOKU-Met 21<br />
4.5 IGAM 21<br />
4.6 systems research 21<br />
5 Ausblick Projektjahr 2: Oktober 2004 – Oktober 2005 22
Anhänge<br />
Anhang 1 Teilberichte der ProjektpartnerInnen<br />
Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />
Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />
Alexander Beck und Bodo Ahrens:<br />
Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />
Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />
Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle zu<br />
den regionalen Klimamodellen<br />
Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-<br />
Kolb:<br />
Validierung – Sensitivitätstests<br />
Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />
MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling,<br />
Mario Köstl, Wolfgang Loibl und Johann Züger:<br />
Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung<br />
Anhang 2 Protokolle der Projektmeetings<br />
Anhang 3 Folienübersicht der Vorträge<br />
Loibl – Präsentation von reclip:more am Klimatag 2004 der BOKU<br />
Keuler – Gastvortrag am 20.4.2004<br />
Benestad – Gastvortrag am 2<strong>1.</strong>6.2004<br />
Anhang 4 Nachfrage nach Klimadaten – Bedarfserhebung Herbst 2003<br />
Anhang 5 reclip:more Poster präsentiert bei<br />
High-resolution climate modelling: Assessment, added value and applications<br />
Lund, Sweden, 29 March – 2 April 2004
1 Vorbemerkungen<br />
Aufgrund der positiven Erfahrungen mit dem in systems research konzipierten technologiepolitischen<br />
Instrument K-plus wurde ein neues forschungspolitisches Instrument K-wiss entwickelt. Ziel<br />
dieses Instruments ist die Verknüpfung und Bündelung bestehender Kompetenzen universitärer und<br />
außeruniversitären Forschungseinrichtungen. Die wesentlichen Ziele sind:<br />
- Schaffung überkritischer Größen in wachsenden Forschungsfeldern<br />
- Schaffung eines längerfristig stabilen Kooperations-Netzwerks<br />
- Bündelung und Austausch von Wissen<br />
- Transfer von Wissen zu Anwendern<br />
- Gemeinnützige Forschung von hoher gesellschaftlicher Relevanz<br />
reclip – research for climate protection – ist das erste K-wiss-Programm. Es wurde von<br />
ARC systems research konzipiert, um die aktuellen bzw. angekündigten Bemühungen und<br />
Aktivitäten der Bundesregierung in der Klima- und Klimafolgenforschung auf regionaler Ebene sowie<br />
im Klimaschutz generell zu unterstützen und Synergien aus den Stärken der universitären und<br />
außeruniversitären Forschung zu generieren.<br />
Das Programm hat 2 zentrale Teilziele: Zum Einen die Abschätzung künftiger Klimaänderungen (die<br />
aufgrund der Erhöhung der Treibhausgaskonzentration in der Atmosphäre absehbar und bereits<br />
beobachtbar sind), zum Anderen Strategien zur Reduktion ebendieser Treibhausgase.<br />
Das <strong>1.</strong> Teilziel ist somit, aus Ergebnissen globaler Klimamodelle die Basis für die Abschätzung künftiger<br />
Klimaänderungen im regionalen Maßstab zu schaffen. Damit können wissenschaftlich fundierte<br />
Aussagen über konkrete, lokale Folgewirkungen einer Klimaänderung auf ökologische und soziökonomische<br />
Systeme getroffen werden. Eine vor allem für Wien wichtige Testregion ist das Wiener<br />
Becken, welches möglicherweise in besonderem Ausmaß einerseits von Starkregen und Hochwasser,<br />
andererseits von Trockenheit betroffen sein wird.<br />
Das 2. Teilziel ist die Erarbeitung einer Daten- und Methodenbasis für die Unterstützung einer vorausschauenden<br />
Umweltpolitik von Bund, Ländern und Gemeinden zur Optimierung von Maßnahmen<br />
für die Senkung der Treibhausgas-Emissionen.<br />
3 Projekte sind innerhalb des Programms vorgesehen:<br />
- reclip:more – Model Run Evaluation: mesoskalige Klimamodellierung als Vorbereitung für<br />
Klimafolgen-Forschung: Modellierung und Benchmarking (Details dazu umseitig)<br />
- reclip:tom – Technological Options for Mitigation: Modellierung der Emissionen aus Energieverbrauch,<br />
Produktions- und Entsorgungsprozessen sowie Landnutzung<br />
- reclip:strat – Strategische Begleitung und Evaluierung: Lessons learned für Kooperationen<br />
01
Der vorliegende Bericht befasst sich mit den Tätigkeiten und Ergebnissen des ersten Projektjahres<br />
des Teilprojektes reclip:more. Die Verzögerung der Berichtslegung um einige Monate ergab sich aus<br />
Abstimmungsproblemen zwischen den Gruppen, va. dort, wo Ergebnisse einer Gruppe Input für eine<br />
andere Gruppe war, durch Verzögerungen bei der Einigung auf zu nutzende Daten und der Datenbereitstellung<br />
und auch auf Grund längerer Diskussion über die idealen Zeitscheiben für die Modellierung<br />
und die Sensitivitätstests und Parametrisierung (vgl. Meeting-Protokolle im Anhang 2). Die Verzögerung<br />
ist aber im Sinne des Projekts, da sich durch die größere Sorgfalt in der Auswahl von Daten,<br />
Parametern und Anfangsbedingungen die Qualität der Ergebnisse der heranzuziehenen<br />
GCM-Treiberdaten verbessern lässt.<br />
02 reclip:more<br />
Research for Climate Protection:Model Run Evaluation
2 Projektübersicht<br />
2.1 Zielsetzung von reclip:more<br />
Innerhalb des reclip-Programms sind 3 Projekte geplant bzw. bereits in Bearbeitung:<br />
Mit dem Teilprojekt reclip:more (Model Run Evaluation) sollen ausgehend von den Ergebnissen<br />
Globaler Klimamodelle anhand von Modelläufen zweier regionaler Klimamodelle (LAMs – Limited<br />
Area Models) eine kleinräumige Datenbasis für die Abschätzung künftiger Klimaänderungen im regionalen<br />
Maßstab für Österreich geschaffen werden, mit der Hilfe wissenschaftlich fundierte Aussagen<br />
über konkrete, lokale Folgewirkungen auf ökologische und soziökonomische Systeme getroffen werden.<br />
Im Teilprojekt reclip:tom (Technological Options for Mitigation) sollen fundierte Abschätzungen der<br />
Emissionsentwicklung von Treibhausgasen in Österreich unter Berücksichtigung zukünftiger technologischer<br />
Entwicklungen getroffen werden.<br />
Im Teilprojekt reclip:strat erfolgt eine strategische Begleitung und Evaluierung des gesamten Programms<br />
sowie der beiden Teilprojekte.<br />
2.2 Aufgabe und Teilprojekte von reclip:more (Model Run<br />
Evaluation)<br />
Der vorliegende Bericht beschreibt nun die bisherigen Ergebnisse des im November begonnenen<br />
Projekts reclip:more – im Wesentlichen die Feinstrukturierung des Projektes sowie die Aufbereitung<br />
von Basisdaten.<br />
Folgende Tasks waren innerhalb von reclip:more geplant:<br />
- Aufbereitung der Datengrundlagen – ua. Messdaten aus Österreich, europäische Synop-<br />
Daten, von Höhenmodellen, Landnutzungsdaten und Antriebsdaten für die regionalen Klimamodelle<br />
(NCEP-Daten und ERA-40 Daten, sowie ECHAM5 GCM-Modell-Ergebnisse).<br />
- Durchführen von retrospektiven vergleichenden Modellläufen 2er regionaler Klimamodelle<br />
(MM5, ALADIN) unter Verwendung von NCEP-Daten und ERA-40 Daten für die Jahre<br />
1981-1990 bzw. 1999.<br />
- Recherche, Auswahl, Test und gegebenenfalls ergänzende Entwicklung von Modellvalidierungs-Methoden<br />
zur Überprüfung der Qualität der kleinräumigen Modellergebnisse im Hinblick<br />
auf die räumliche und zeitliche Übereinstimmung.<br />
- Recherche, Analyse und Entwicklung von Regionalisierungs-Verfahren – zB von ca. 10 km<br />
LAM-Ergebnissen auf zB 1 km regionale Auflösung.<br />
- Regionalisierung der retrospektiven LAM-Ergebnisse mittels GIS-basierender bzw. geostatistischer<br />
Verfahren – soweit notwendig - für ausgewählte Zeitscheiben und Testregionen der<br />
Modellergebnisse.<br />
- Benchmarking der Modell-Ergebnisse der ausgewählten Modelle für das gerechnete Modelljahr<br />
unter Verwendung der in Task 3 getesteten Validierungs-Methoden und Ergebnisindikatoren.<br />
03
- Durchführung prospektiver vergleichender Modellläufe der beiden ausgewählten LAMs mit<br />
gemeinsam festzulegenden GCM-Antriebsdaten (zB ECHAM5 T106) und denselben Eingabe-Daten<br />
für die Zeitspanne 2041 und 2050.<br />
- Weitere Regionalisierung der prospektiven LAM-Ergebnisse mittels GIS-basierender bzw.<br />
geostatistischer Verfahren für ausgewählte Zeitscheiben und Testregionen.<br />
Die folgende Abbildung zeigt eine Übersicht der Projekt-Teile, den groben zeitlichen Ablauf und die<br />
Arbeitsteilung zwischen ARC systems research, ZAMG sowie den Universitäten (letztere durch entsprechende<br />
Farbcodes).<br />
Abbildung 1: Projekt-Struktur des Teilprojekts reclip:more: Tasks, zeitliche Abfolge und Arbeitsteilung<br />
zwischen den Projektpartnergruppen<br />
04 reclip:more<br />
Research for Climate Protection:Model Run Evaluation
2.3 Projekt-Feinstruktur für das Projektjahr 1<br />
Workpackage 1 – Projektmanagement<br />
WP<strong>1.</strong>1 Projektentwicklung<br />
WP<strong>1.</strong>2 Projektcontrolling – inhaltlich, finanziell<br />
WP<strong>1.</strong>3 Vertragsangelegenheiten (Subverträge, Vortrags- und Tagungskostenbeiträge)<br />
WP<strong>1.</strong>4 Daten- und Methodenpool-Verwaltung (FTP-site,…)<br />
WP<strong>1.</strong>5 Projektpräsentation (Homepage, Poster)<br />
Workpackage 2 – Datenaufbereitung<br />
WP 2.1 Bereitstellung österreichischer Messdaten<br />
WP 2.2a Bereitstellung Synop-Daten Europa<br />
WP 2.2b Bereitstellung MAP-Daten<br />
WP 2.2c Bereitstellung Radiosondendaten<br />
WP 2.3a ERA-40 Daten – Aufbereitung f. ALADIN<br />
WP 2.3b ERA-40 Daten – Aufbereitung f. MM5<br />
WP 2.4a ECHAM4 T106 Treiberdaten (1981-1990,1999)<br />
WP 2.4b ECHAM4 T106 Treiberdaten (2041-2050 - 2. Projektjahr)<br />
Workpackage 3 – Modellvalidierung, Sensitivitäts- und Validitätstests<br />
WP3.1 Abstimmung der Sensitivitätsexperimente für ALADIN<br />
WP3.2 Festlegen der Sensitivitäts- und Validitätstests, Entwurf des Benchmarks<br />
WP3.3 Modellvalidierung – VERACLIM<br />
WP3.4 Vertikale Validierung<br />
Workpackage 4 – Regionale Klimamodellierung<br />
WP4.1 MM5 – Fortran sourcen, Binärcode-Vergleichstests<br />
WP4.2 Modellparameter: Domains, Zielauflösung, Studyareas<br />
WP4.3a MM5 test runs mit ERA 40 Daten, erste Sensitivitätsexperimente-ARC<br />
WP4.3b MM5 test runs mit ERA 40 Daten, erste Sensitivitätsexperimente-IGAM<br />
WP4.3c MM5 test runs mit ERA 40 Daten, erste Sensitivitätsexperimente-BOKU-Met<br />
WP4.4 ALADIN test runs mit ERA 40 Daten, Durchführung erster Sensitivitätsexperimente<br />
05
Workpackage 5 – Regionalisierung<br />
WP 5.1 Entwicklung einer Schnittstelle MM5/ALADIN – Regionalisierungstool<br />
WP 5.2a Regionalisierungstool Tmean<br />
WP 5.2b Regionalisierungstool Tmin und Tmax<br />
WP 5.3 Regionalisierungstool Niederschlag<br />
WP 5.4 Regionalisierungstool Schneedecke<br />
WP 5.5 Regionalisierungstool Strahlung<br />
WP 5.6 Regionalisierungstool Wind<br />
06 reclip:more<br />
Research for Climate Protection:Model Run Evaluation
3 Kurzbeschreibung der Tätigkeiten im ersten<br />
Projektjahr<br />
Im Folgenden erfolgt eine kurze Beschreibung der einzelnen Workpackages, zusätzlich ist der jeweilige<br />
Workpackage-Verantwortliche angeführt. Dies heißt jedoch nicht, dass nicht auch andere Projektpartner<br />
an den einzelnen Workpackages mitgearbeitet oder wesentliche Beiträge dazu geliefert<br />
haben. Eine ausführliche Behandlung der einzelnen Workpackages sowie eine Zusammenfassung<br />
der Ergebnisse sind in den Teilberichten der einzelnen Projekt-Partner im Anhang 1 zu finden.<br />
3.1 Workpackage 1 – Projektmanagement (Loibl)<br />
WP1 beinhaltet alle relevanten Fragen und Aufgaben der Projektentwicklung und des Projektupdates<br />
bzw. des inhaltlichen und finanziellen Projektcontrollings sowie die Aquisition der Finanzmittel. Zudem<br />
werden im Rahmen dieses Workpackages alle Vertragsangelegenheiten (Subverträge, Vortrags-<br />
und Tagungskostenbeiträge) und die Daten- und Methodenpool-Verwaltung koordiniert.<br />
Im Rahmen des WP <strong>1.</strong>4 wurde von systems research für den Daten- und Programmaustausch ein<br />
FTP-Server mit ausreichender Plattenkapazität bereitgestellt, der für alle reclip-Partner zugänglich<br />
ist. Neben den angeführten Tätigkeiten und der Organisation der regelmäßigen Projekttreffen wurden<br />
auch zwei Wissenschaftler eingeladen und deren Reisekosten finanziert: Klaus Keuler von der<br />
Universität Cottbus stellte das reclip:more ähnliche Quircs-Projekt vor, Rasmus Benestadt vom Norwegischen<br />
Met-Office referierte zu Fragen des Statistical Downscaling und präsentierte sein<br />
R-Paket clim.pact (siehe Folien im Anhang 3). Überdies wurde das Projekt auf Fachtagungen vorgestellt<br />
(etwa in beim RCM-Workshop in Lund oder in Wien beim BOKU-Klimatag).<br />
Die für die Kommunikation nach innen und außen notwendige Projekt-Homepage wurde aufgrund<br />
der bisher noch nicht abgeschlossenen Vorbereitungen für den neuen Internet-Auftritt von systems<br />
research noch nicht eingerichtet, dies ist aber mit Anfang 2005 geplant.<br />
In der Projekt-Vorphase wurde eine „Nachfragererhebung“ durchgeführt, um zu erfassen, welche<br />
Klimaparameter in welcher räumlichen bzw. zeitlichen Auflösung für potenziellen Daten-Nachfrager<br />
relevant sind. Darauf aufbauend wurde die konkrete Auswertung von Modellergebnissen und Ergebnissen<br />
der Regionalisierung ausgelegt: Als unbedingt notwendig wird eine Auflösung bis 10 km erachtet,<br />
teilweise wird 1km als notwendig bzw. wünschenswert angegeben. Bei der zeitlichen Auflösung<br />
wurden Ergebnisse auf Tagesbasis bzw. Derivate davon (zB Temperatursummen) als notwendig<br />
erachtet. Zusätzlich benötigt man Mittel-, Minimum- und Maximumtemperatur (dh. zumindest eine<br />
6-stündige Auflösung!), sowie Tagesmittelwerte und Tagessummen. Zusätzlich gewünschte Klimaparameter<br />
neben der Temperatur waren Niederschlag, Strahlung und Schneedecke, als evtl. entbehrlich<br />
wurden Luftfeuchte, Luftdruck und Bodenfeuchte bezeichnet.<br />
(Details dazu siehe Anhang 4).<br />
07
3.2 Workpackage 2 – Datenaufbereitung<br />
WP 2.1 Bereitstellung österreichischer Messdaten (Schöner)<br />
Im Rahmen des Projekts reclip-more wurden von der ZAMG Daten von ca. 70 Messstationen aus<br />
dem Projekt STARTCLIM im ASCII Format bereitgestellt. Dieser Datensatz ist qualitätsverbessert<br />
aber nicht homogenisiert. Auf Tageswertbasis liegen für 70 österreichische Stationen folgende Daten<br />
vor:<br />
- Minimum- und Maximumtemperatur<br />
- Mitteltemperatur<br />
- Niederschlagssumme und<br />
- Schneehöhe<br />
Die Daten wurden auf einer CD abgespeichert und den Projektpartnern zur Verfügung gestellt.<br />
WP 2.2a Bereitstellung Synop-Daten Europa (Dorninger)<br />
Im Rahmen dieses Workpackages wurden dreistündige SYNOP-Daten aus dem MARS-Archiv des<br />
ECMWF-Datensatz von 1979 bis 2000 für den Großraum Alpen extrahiert.<br />
In der Sitzung vom 30. Jänner 2004 (vgl. auch Protokoll) wurde jedem Projektpartner eine DVD überreicht.<br />
Auf dieser DVD befindet sich auch ein Word-File mit einer Kurzbeschreibung der Daten<br />
(Parameterliste, Einleseroutine, etc.), sowie einem Abriss, wie die Daten mittels READ Befehl eingelesen<br />
werden können. Die zur Verfügung gestellten Rohdaten wurden zwar in ASCII-Format aufbereitet,<br />
allerdings nicht qualitätskontrolliert!<br />
WP 2.2b Bereitstellung MAP-Daten (Chimani)<br />
Ebenfalls in der Sitzung vom 30. Jänner 2004 wurde der Inhalt der MAP-Datenbank erklärt. Gemeinsam<br />
mit den Projektpartnern erfolgte eine Definition der Parameter, der Zeiträume (seasons, episodes,<br />
GOP, SOP, IOP) sowie der Perioden für die Sensitivitätsstudien.<br />
Zusätzlich wurde eine Überprüfung der MAP-Datenbank auf vorhandene Niederschlagsanalysen (zB<br />
Frei et al.) und auf Verfügbarkeit von Niederschlagsdaten während der GOP (13 Monate) durchgeführt.<br />
Die Gruppe IMG-Dorninger erklärte sich bereit, auf Anfrage die Datensätze aus der MAP-Datenbank<br />
zu extrahieren. Bis August 2004 sind keine derartigen Anfragen gestellt worden. Das Angebot bleibt<br />
natürlich auch im 2. Projektjahr aufrecht.<br />
WP 2.2c Bereitstellung Radiosondendaten (Häberli)<br />
Aufgabe dieses Workpackages war die Aufbereitung des Comprehensive Alpine Radiosonde Data<br />
Set (CALRAS) für reclip:more. Der Datensatz beinhaltet hochaufgelöste qualitätskontrollierte Radiosondendaten<br />
der zentraleuropäischen Radiosondenstationen (Zeitraum: unterschiedlich nach Existenz<br />
der jeweiligen Station, Originaldaten aus dem MARS Archiv).<br />
08 reclip:more<br />
Research for Climate Protection:Model Run Evaluation
Die Übermittlung der Daten erfolgte in Form von zwei CD’s am 17.Februar 2004. Zusätzlich wurde<br />
eine umfangreiche Dokumentation angeführt:<br />
- Part I: File Format and Decoding Tables<br />
- Part II: Data Con<strong>version</strong> and Preprocessing<br />
- Part III: Level1 Quality Control<br />
WP 2.3a ERA-40 Daten – Aufbereitung für ALADIN (Beck)<br />
Nach Definition des für ALADIN geeigneten Datenformats und benötigten meteorologischen Parameter<br />
wurden die benötigten ERA-40 Daten des ECMWF für den Zeitraum 1999 aus dem MARS Archiv<br />
extrahiert und nach Wien ans IMGW transferiert, wo sie in für die regionale Klimamodellierung mit<br />
ALADIN in geeigneter Form aufbereitet wurden (Auflösungsanpassung horizontal und vertikal). Diese<br />
aufbereiteten Daten liegen derzeit auf einem Server des IMGW.<br />
Weiters wurden alle notwendigen Vorbereitungen für die Extraktion der weiteren MARS Daten für die<br />
retrospektiven long-runs im weiteren Projektverlauf durchgeführt, sodass die Daten gegebenenfalls<br />
rasch und effizient für die Nutzung in ALADIN zur Verfügung stehen.<br />
WP 2.3b ERA-40 Daten – Aufbereitung für MM5 (Züger)<br />
Nach Definition des Datenformates für MM5 und der benötigten meteorologischen Parameter wurden<br />
die relevanten ERA-40 Daten aus dem MARS Archiv des EZMW extrahiert und nach Wien an<br />
ARC-sys transferiert, wo sie in für die regionale Klimamodellierung mit MM5 geeigneter Form aufbereitet<br />
(Auflösungsanpassung horizontal und vertikal) und archiviert wurden.<br />
Derzeit sind die Daten für die Jahre 1993 bis 2000 auf einem Server in ARC-sys abgelegt - die Jahre<br />
1998 bis 2000 stehen auch auf dem FTP-Server von systems research zur Verfügung. Sie liegen als<br />
Rasterdaten auf Druckflächen vom Boden bis 50 hPa mit einer räumlichen Auflösung von 1°x1° vor.<br />
Es wurden dabei vor allem jene Parameter berücksichtigt, die zum Betrieb des Modells notwendig<br />
sind. Das Datenvolumen beträgt ca. 2 GB pro Jahr.<br />
Während des Herunterladens der Daten über das ECMWF Webportal zeigte sich, dass die bereitgestellten<br />
Daten und ihre entsprechende Beschreibung nicht immer übereinstimmten. Zwar konnten<br />
diese Fehler ausgeräumt werden, es traten aber immer wieder Diskrepanzen zwischen den erhaltenen<br />
Daten und ihrer Beschreibung auf den ECMWF Seiten. Daher musste einiges an den MM5 Inputroutinen<br />
geändert werden um die Antriebsdaten richtig einlesen zu können.<br />
Um für weitere Auswertungen einheitliche Formate zu gewährleisten, erstellte systems research<br />
Programme, die einerseits als Schnittstellen für die Validierung durch BOKU-Met und andererseits<br />
zur Übergabe an VERA (IMG) dienen. Diese Programme wurden den Projektpartnern zur Verfügung<br />
gestellt.<br />
WP 2.4a ECHAM5 T106 Treiberdaten (1981-1990) (Gobiet)<br />
Nach ausführlichen Diskussionen wurde auf die ursprünglich geplanten ECHAM4 Daten verzichtet.<br />
Stattdessen einigten sich die Projektpartner auf retrospektive Daten eines erst kürzlich erfolgten<br />
Zeitscheiben-Lauf des Institutes für Atmosphären- und Klimaforschung der ETH Zürich nun mit<br />
ECHAM5 (T106-Horizontalauflösung und 31 Vertikal-Levels), der die angestrebte „reclip“-Periode<br />
1981-1990 abdeckt. ECHAM5 T106 (1961-1990, 2041-2050*) hat den Vorteil, dass aufgrund des<br />
Zeitraums 1961-1990 – anders als beim ECHAM4-Lauf – den ECHAM-getriebenen RCM-Lauf nicht<br />
nur mit ERA-40, sondern auch mit Beobachtungen direkt validieren zu können.<br />
09
Um die Brauchbarkeit der ECHAM5 Datensätze für MM5 zu überprüfen wurde zunächst auf das<br />
MM5 Setup von systems research zurückgegriffen. Zusätzlich wurde ein Setup von BOKU-Met, ein<br />
reduzierte Version dieses Setups und ein Setup, das die räumlichen Gegebenheiten von ALADIN<br />
wiedergibt, konfiguriert. Zur Zeit der Berichtslegung war nur ein kleiner Datensatz der ETH am IGAM<br />
verfügbar, der allerdings genügte, um das Interface zwischen ECHAM5 und MM5 zu testen. Der<br />
Transfer des gesamten retrospektiven Datensatzes wird voraussichtlich im Dezember 2004 abgeschlossen<br />
sein.<br />
Als Ergebnis werden aufbereitete Inputdaten für MM5 und ALADIN vorliegen, die für alle Projektpartner<br />
zugänglich sind.<br />
WP 2.4b ECHAM4 T106 Treiberdaten (2041-2050 - 2. Projektjahr) (Gobiet)<br />
Zusätzlich zu den retrospektiven Daten werden auch prospektive Antriebsdaten aus einem ECHAM5<br />
Lauf in 6stündigen Intervallen für alle Partner zur Verfügung stehen. IMG (Ahrens, Beck) konnte eine<br />
Kooperation mit der ETH Zürich vereinbaren, um an der ETH einen IS92a Szenario-Lauf durchführen<br />
zu können. Dafür wird ein ECHAM4 T106 L19 Experiment mit ECHAM5 T106 L31 Ende 2004 wiederholt.<br />
IMG stellt hierfür die SST und die Meeres-Eis-Daten zur Verfügung.<br />
Eine ausführliche Beschreibung der in WP 2.4a und 2.4b erwähnten Setups bzw. der ECHAM5 Antriebsdaten<br />
und des ECHAM5-MM5 Interfaces findet sich im IGAM-Teilbericht im Anhang <strong>1.</strong><br />
3.3 Workpackage 3 – Modellvalidierung, Sensitivitäts- und<br />
Validitätstests<br />
WP3.1 Abstimmung der Sensitivitätsexperimente (fokussiert auf ALADIN) (Ahrens, Beck)<br />
Die Vorbereitung der Sensitivitätsexperimente (incl. der Spezifikation des Modellgebietes und der<br />
Zielauflösung sowie der Spezifikation der Modellparameter für die Validierung) geschah in enger<br />
Zusammenarbeit mit den Projektpartnern um einerseits den wissenschaftlichen Wert zu sichern als<br />
auch die größtmögliche wirtschaftliche Effizienz zu erzielen.<br />
Auf Grundlage der durchgeführten Experimente sowie von früheren Arbeiten, wurde das folgende<br />
Setup für ALADIN benutzt:<br />
- Direktes Nesting von ALADIN in die globalen Daten (ERA-40 bzw. ECHAM)<br />
- Keine Zwischeninterpolation der globalen Daten (zB auf Druckflächen)<br />
- Numerische Auflösung: 12km, 41 vertikale Schichten (eta-Flächen)<br />
- Modellgebiet: ~2800x2500km (s. Abbildung 2, „12km“ Box)<br />
- Zeitschema: Semi-Lagrange, semi-implizit mit ∆t=514s<br />
Für die Validierung werden die Parameter Temperatur, Spez. Feuchte und Geopotential jeweils auf<br />
850, 700 und 500 hPa, sowie der Niederschlag herangezogen (gem. Validierungsvorschlag BOKU-<br />
Met vom 2<strong>1.</strong>6.2004).<br />
10 reclip:more<br />
Research for Climate Protection:Model Run Evaluation
Zusätzlich wurde die Nutzbarkeit des CORINE bzw. des systems research-eigenen Landcover Modells<br />
in ALADIN geprüft. Dabei zeigte sich, dass eine Verwendung dieser Daten im Bodenschema<br />
von ALADIN derzeit nur mit sehr großem Aufwand möglich wäre, sodass eine Verwendung der CO-<br />
RINE-Daten (oder ARC-eigenen Daten) für ALADIN im Rahmen von reclip:more nicht praktikabel<br />
erscheint. Nichtsdestotrotz soll im Zuge der Weiterentwicklung des Bodenschemas die Möglichkeit<br />
der Verwendung von CORINE-Daten geprüft werden. Dies soll im Herbst 2004 im Rahmen eines<br />
mehrwöchigen Arbeitsbesuches von B. Ahrens in Toulouse diskutiert werden.<br />
WP3.2 Festlegen der Sensitivitäts- und Validitätstests, Entwurf des Benchmarks (Formayer)<br />
Das Festlegen der Validitätstests erfolgte nach Spezifikation der für die Validierung benötigten Beobachtungsdaten<br />
bzw. nach Vorliegen der ersten Ergebnisse aus WP 3.<strong>1.</strong><br />
Für die definierten Sensitivitätsexperimente wurden die geeigneten Beobachtungsdatensätze (zB<br />
VERA, Niederschlagsdaten von Frei, etc.) für die Validierung bestimmt, danach erfolgte die Festlegung<br />
der Domain-Setups, der von den Modellen auszugebenden meteorologischen Parameter und<br />
deren zeitliche Auflösung. Zusätzlich mussten die Anzahl und Länge der Modellläufe je Sensitivitätstest<br />
und die Termine für die jeweiligen Sensitivitätstests festgelegt werden, außerdem wurde festgelegt,<br />
welche Tests mit welchem Modell bzw. Modellierergruppe gerechnet werden.<br />
Das Ergebnis war ein ausgearbeiteter Arbeitsplan der durchzuführenden Sensitivitätstests. Zusätzlich<br />
wurde mit den Projektpartnern abgestimmt, welche Arbeitsgruppen welchen Testlauf durchführen,<br />
und wie die Vergleiche Modell/Beobachtung und Modell/Modell durchgeführt werden.<br />
Ein weiterer wichtiger Punkt dieses Workpackages war eine umfangreiche Recherche zur Definition<br />
der statistischen Vergleiche Modell/Beobachtung durch. Beides – sowohl die Beschreibung der geeigneten<br />
statistischen Parameter für die Ergebnisvalidierung wie auch die zu verwendende Evaluierungsstrategie<br />
– findet sich im ersten Teil des Teilberichts von BOKU-Met im Anhang <strong>1.</strong><br />
WP3.3 Modellvalidierung – VERACLIM (Dorninger)<br />
Als Validierungstool wird das seit rund 10 Jahren am IMG in Entwicklung stehende Vienna Enhanced<br />
Resolution Analysis System (VERA) verwendet. Details zu VERA findet man im Teilbericht der IMG-<br />
Gruppe Dorninger im Anhang <strong>1.</strong><br />
Am 4.Dezember 2003 erfolgte der erste Aufruf an die Modellgruppen Testoutputfiles der Modelle an<br />
das IMGW zur Programmierung der Schnittstellen zu senden. Dieser Aufruf wurde in der Sitzung<br />
vom 30. Jänner 2004 erneuert, die ersten Daten von IMGW-Ahrens (ALADIN) und systems research<br />
(Züger, MM5) wurden allerdings erst Anfang Mai (!) geliefert.<br />
Für die vorhandenen Testdatensätze wurden Vergleiche mit VERA-Analysen folgender Parameter<br />
durchgeführt (jeweils 2D):<br />
- vom Modell reduzierter Druck<br />
- mit Standardformeln reduzierter Druck von der untersten Modellfläche gerechnet<br />
- potentielle Temperatur<br />
- äquivalentpotentielle Temperatur<br />
- 2D Wind<br />
- Mischungsverhältnis<br />
11
Im Rahmen eines Treffens der Mitglieder der WP VALID 3-1 am 19. Februar 2004 wurde das Mischungsverhältnis<br />
als zusätzlicher VERA-Parameter gewünscht und auch implementiert. Die Parameter<br />
Tmin und Tmax für die Sensitivitätsläufe wurden als nicht notwendig erachtet, falls die Sensitivitätsläufe<br />
im dreistündigen Zeitintervall abgespeichert werden. Für den Jahreslauf reichen Tagesmittelwerte.<br />
Weiters wurde eine Dokumentation zum Modellvergleich verfasst und ein Vorschlag erarbeitet, das<br />
Untersuchungsgebiet in Klimazonen einzuteilen. Beides findet sich im Anhang des Teilberichts. Für<br />
die grafische Darstellung wurden entsprechend den Wünschen der Gruppen verschiedene Optionen<br />
der Darstellung (zB mit oder ohne Flüsse, Darstellung in Grauschattierungen oder Darstellung des<br />
Differenzfeldes und des Modellfeldes) implementiert.<br />
WP3.4 Vertikale Validierung (Gobiet)<br />
Für die Vertikale Validierung wurden die Modelläufe des IGAM, die ERA 40 Daten von systems<br />
research und die CALRAS Radiosondendaten von IMG-Dorninger benötigt.<br />
Ziel war einerseits die Entwicklung und Implementierung der Validierungsmethode basierend auf<br />
Vertikalprofilen von Temperatur, Feuchte und geopotentieller Höhe, andererseits sollte diese Methode<br />
anhand eines erstellten Testdatensatzes mit bekannter Fehlercharakteristik validiert werden.<br />
Im Rahmen von Workpackage 3.4 wurde dabei besonderes Augenmerk auf ein automatisches Auslesen<br />
der Validierungsdaten (CALRAS und ERA 40) und der vertikalen Profile aus MM5 entsprechend<br />
den zur Verfügung stehenden Validierungsdaten gelegt.<br />
Ausführliche Beschreibungen der Vorgehensweise, der Daten-Extraktion und der verwendeten Fehlerstatistik<br />
sowie eine Präsentation der ersten Validierungs-Ergebnisse sind in Kapitel 4.2 des Teilberichts<br />
des IGAM zu finden.<br />
3.4 Workpackage 4 – Regionale Klimamodellierung<br />
WP4.1 MM5 – Fortran sourcen, Binärcode-Vergleichstests (Züger)<br />
Vom National Center for Atmospheric Research (NCAR) werden laufend neue Versionen des mesoskaligen<br />
Modells MM5 veröffentlicht. Meist handelt es sich dabei um so genannte „minor releases“<br />
bei denen die Behebung von kleinen Fehlern im Vordergrund steht. Das „major release“ der Version<br />
3.6 hat sich in vorangegangenen Arbeiten bereits als äußerst stabil erwiesen.<br />
Seit Februar 2004 steht nun die neue Version 3.6.3 zur Verfügung. Da in diesem Release nur marginale<br />
Änderungen vorgenommen wurden und bei allen Projektpartnern bereits eine Version 3.6.x im<br />
operationellen Einsatz war, wurde in einer gemeinsamen Sitzung vereinbart, in Zukunft einheitlich<br />
MM5 in der Version 3.6.3 zu verwenden.<br />
Um abzuschätzen wie groß die Unterschiede der Ergebnisse auf den verschiedenen Hardware-<br />
Plattformen (zB Compiler, Zahlendarstellung, etc.) der einzelnen Projektpartner sind, wurden Vergleichsrechnungen<br />
für eine Episode durchgeführt. Dabei zeigte sich, dass die Abweichungen durchaus<br />
tolerierbar sind. Daher kann davon ausgegangen werden, dass künftige Modell-Ergebnisse<br />
ebenfalls vergleichbar sein werden.<br />
12 reclip:more<br />
Research for Climate Protection:Model Run Evaluation
WP4.2 Modellparameter: Domains, Zielauflösung, Study-areas (Züger, Loibl)<br />
Da der Antrieb des Modells nur über die Ränder erfolgt, hat es bei genügend großer Wahl des Modellgebietes<br />
im Inneren die Möglichkeit seine eigene Dynamik und seine eigenen Strukturen zu entwickeln.<br />
Zunächst standen Sensitivitätsexperimente zur Modelldynamik im Vordergrund, um zu klären,<br />
wie viel Dynamik das Modell entwickeln darf, ohne die globalen Strukturen der Antriebsdaten zu<br />
verlieren. Als Vorgaben für die Lage der Domänen wurde vereinbart, dass in der äußeren der größte<br />
Teil Europas, Teile des Atlantiks und der Mittelmeerraum abgedeckt werden. In der inneren Domäne<br />
sollte der Alpenbogen eine zentrale Lage einnehmen, aber auch der Golf von Genua sollte wegen<br />
seines Einflusses auf das Wettergeschehen südlich der Alpen berücksichtigt werden.<br />
Unter diesen Prämissen wurden von BOKU-Met insgesamt 4 geometrische Setups für die Größe und<br />
Lage der Domänen vorgeschlagen (vgl. WP 3.2). Die einzelnen Setups unterscheiden sich sowohl in<br />
ihrer Auflösung als auch in ihrer Ausdehnung. Die vertikale Auflösung wurde für die hier aufgeführten<br />
Tests mit 29 Levels zwischen dem Boden und einer Obergrenze von 50 hPa festgelegt – nur der von<br />
IGAM am Supercomputer des ECMWF durchgeführte Modelllauf wurde mit 42 Levels initialisiert.<br />
Die Simulationen mit MM5 wurden auf einem ARC-Doppelprozessor-Rechner unter Unix vorerst<br />
unter Einsatz der ERA-40 Daten durchgeführt.<br />
WP4.3a MM5 test runs mit ERA-40 Daten, erste Sensitivitätsexperimente-systems research<br />
(Züger)<br />
Für eine möglichst weit reichende Vergleichbarkeit der Modellergebnisse mit der „Wirklichkeit“ wurden<br />
die ersten Sensitivitätstests mit den besten zur Verfügung stehenden Daten anzutreiben. Für<br />
den europäischen Raum sind dies zurzeit die ERA-40-Daten des ECMWF. Diese Daten wurden<br />
auch für großräumige Vergleiche mit den Modellergebnissen herangezogen.<br />
Weiters wurden für die ersten Tests 2 Episoden ausgewählt, wobei die Rechnungen zu jeder Episode<br />
jeweils 2 Tage früher starteten, um dem Modell einen adäquaten Spin-up zu ermöglichen.<br />
Im Modell MM5 ist zur Beschreibung der Prozesse in der Atmosphäre und deren Wechselwirkung<br />
mit dem Boden eine Vielzahl unterschiedlichster Parametrisierungen implementiert. Da nicht alle<br />
Kombinationen sinnvoll sind und eine möglichst weit reichende Vergleichbarkeit der Ergebnisse zu<br />
gewährleisten ist, wurde die Parametrisierung des Modells wie folgt vereinbart:<br />
- Strahlung: RRTM longwave scheme IFRAD=4<br />
- PBL + SVAT: MRF + Noah land-surface scheme IBLTYP=5, ISOIL=2<br />
- Cumulus: Kain-Fritsch 2 + shallow convection ICUPA=8, ISHALLOW=1<br />
- Feuchte: Reisner 1 (Mixed-Phase) IMPHYS=5<br />
Wie sich auch aus den Analysen von BOKU-Met ergibt sind die Unterschiede in den Ergebnissen der<br />
einzelnen Tests relativ gering. Dies ist insofern bemerkenswert, als frühere Untersuchungen – zumindest<br />
jene von systems research – auf eine wesentlich stärkere Abhängigkeit der Modellergebnisse<br />
vom geometrischen Setup hingedeutet haben. Dieses Ergebnis ist jedoch vor dem Hintergrund<br />
des doch relativ kleinen Samples von 2 Episoden mit je 4 Tagen zu sehen. Um hier eine einigermaßen<br />
gesicherte Aussage zu ermöglichen werden noch weitere Sensitivitätstest über längere Zeiträume<br />
notwendig sein. Insbesondere der für die nächste Etappe geplante Modelllauf über ein ganzes<br />
Jahr sollte hier eine deutliche Verbesserung bringen.<br />
13
WP4.3b MM5 test runs mit ERA-40 Daten, erste Sensitivitätsexperimente-IGAM (Truhetz,<br />
Gobiet)<br />
Für die Überprüfung der zu entwickelnden Software-Tools VALVERT (WP 3.4) und WIND (WP 5.6),<br />
bzw. für die Validierung der Downscaling-Ergebnisse generell werden realistische MM5 Ergebnisse<br />
benötigt. Zu diesem Zweck wurde auf ERA-40 Re-Analyse Daten des ECMWF zurückgegriffen und<br />
zusammen mit systems research ein geeignetes Interface zwischen ERA-40 Daten und MM5 entwickelt.<br />
Nach einem Hardware-unabhängigen Modellvergleich zur Feststellung der Rechen-Genauigkeit erfolgten<br />
ein Abgleich mit den systems research Läufen sowie die ersten MM5 Episodenläufe/Testläufe.<br />
Zusätzlich wurden im Rahmen dieses Workpackages bereits Vorbereitungen der retrospektiven<br />
Langzeitläufe für das Projektjahr 2 durchgeführt. Hauptaugenmerk lag hierbei besonders auf der<br />
Installation von MM5 am ECMWF-Cluster, der Bestimmung der tatsächlichen Rechenleistung bzw.<br />
des benötigten Speicherbedarf, sowie wiederum auf der Hardware-unabhängigen Modellvergleichs-<br />
Rechengenauigkeit. Eine Zusammenfassung dieser Tätigkeiten ist im zweiten Teil von Kapitel 4.1<br />
des IGAM-Teilberichts.<br />
Als Ergebnisse werden in Zukunft ECHAM5 Antriebsdaten für retrospektive Modelläufe mit MM5 und<br />
ALADIN (extern) sowie Testdatensätze für WP 3.1 und WP 4.1 (intern) vorliegen.<br />
WP4.3c MM5 test runs mit ERA-40 Daten, erste Sensitivitätsexperimente-BOKU-Met<br />
(Formayer)<br />
Zur Durchführung der Tätigkeiten im Rahmen dieses Workpackages wurden das Domainsetting für<br />
das Modellierungsgebiet, die ERA-40 Re-Analysen von systems research sowie die exakten<br />
Domainsettings der Study-areas von systems research benötigt. Nach Festlegung der Validierungsstrategie<br />
und der Parameter-Setups wurden am BOKU-Met Simulationen mit MM5 unter Verwendung<br />
der ERA-40-Daten durchgeführt.<br />
Zur Durchführung der Parametertests ist es erforderlich, geeignete Termine und Episoden, die charakteristische<br />
Wettersituationen beinhalten, zu eruieren. Aufgrund der guten Datenlage sollten die<br />
Perioden, soweit möglich im Zeitraum der MAP Special Observing Periode (SOP) liegen. Da nicht<br />
alle für die Parametertests notwendigen Wetterlagen in diesem Zeitraum auftraten und um auch<br />
andere Jahreszeiten testen zu können wurde ein Schwerpunkt auf das Jahr 1999 gelegt, aber auch<br />
andere Jahre berücksichtigt.<br />
Eine Beschreibung der verwendeten Domain- und Parameter-Setups findet man im zweiten Teil des<br />
Teilberichts von BOKU-Met im Anhang <strong>1.</strong> Dort werden auch die Festlegungen der Parametrisierung<br />
und der Termine beschrieben. Abschließend sind auch die Ergebnisse der Vergleichsrechnungen<br />
MM5 – ALADIN detailiert beschrieben.<br />
WP4.4 ALADIN test runs mit ERA 40 Daten, Durchführung erster Sensitivitätsexperimente<br />
(Beck, Ahrens)<br />
Um eine effiziente Anwendung von ALADIN zum dynamischen Downscaling zu ermöglichen, wurde<br />
eine Reihe von Sensitivitätsexperimenten durchgeführt. Diese Experimente sind auf Grund des<br />
Downscalingmodes als ALADIN-spezifisch zu betrachten und konnten daher weitgehend unabhängig<br />
von den anderen Modelliergruppen durchgeführt werden. Für das dynamische Downscaling werden<br />
die atmosphärischen Parameter in ALADIN tägliche neu initialisiert. Die Bodenparameter können<br />
entweder ebenfalls täglich neu initialisiert werden oder aus dem vorherigen Lauf übernommen werden.<br />
Dadurch ist für den Boden eine Art „Klimalauf“ möglich.<br />
14 reclip:more<br />
Research for Climate Protection:Model Run Evaluation
Die Simulationen mit ALADIN wurden auf dem LINUX Cluster „Schrödinger II“ der Universität Wien<br />
durchgeführt, wobei geeignete Scripts zur Automatisierung zwischen Schrödinger und IMGW, sowie<br />
zur Datenreduktion entwickelt werden. Die Verwendung der ECHAM Daten für ALADIN erfordert<br />
eine Erweiterung der Schnittstelle zwischen den globalen Antriebsdaten und ALADIN.<br />
Es wurde eine Reihe von Experimenten durchgeführt und die Auswirkung verschiedener Nesting-<br />
Strategien auf die Niederschlagsvorhersage evaluiert. Es zeigte sich, dass für ein dynamisches<br />
Downscaling auf den betrachteten Skalen (globale Daten ~120km, ALADIN ~12km) eine direktes<br />
Nesting von ALADIN in Reanalysedaten möglich ist und im Vergleich zu aufwendigeren Verfahren<br />
ähnliche Ergebnisse liefert.<br />
Zusätzlich wurde für das Jahr 1999 der Einfluss von unterschiedlichen Boden-Setups (Neuinitialisierung,<br />
surface-blending, sowie Mischformen) untersucht. Da das derzeitige Bodenschema nicht für<br />
einen (freilaufenden) Klimalauf gedacht ist, scheint eine schwache Relaxation zu den globalen Bodenfeldern<br />
(aus ERA-40 oder ECHAM) notwendig. Diese Einschätzung wird durch die durchgeführten<br />
Experimente bestätigt. Die Modelldaten für diese Experimente liegen am IMG vor und können im<br />
Rahmen der Validierung weiter untersucht werden.<br />
In Hinblick auf die prospektiven Läufe wurden Sensitivitätsexperimente zum Einfluss der Auflösung<br />
der globalen Eingangsdaten durchgeführt. Hierzu wurden die ERA-40 Daten sowohl in der spektralen<br />
Auflösung T159 als auch in T106 verwendet. Um den Einfluss der verringerten spektralen Auflösung<br />
zu untersuchen, wurde für das Jahr 1999 ein ALADIN-Experiment mit T106 Eingangsdaten<br />
gerechnet. Ein subjektiver Vergleich der beiden Läufe (basierend auf T159 bzw. T106 Daten) zeigt<br />
eine gute Übereinstimmung sowohl auf Monatsbasis als auch für das gesamte Jahr 1999.<br />
Eine ausführliche Behandlung der eben erwähnten Punkte findet sich in Kapitel 2.3 des Teilberichtes<br />
der IMG-Gruppe Ahrens/Beck im Anhang <strong>1.</strong><br />
3.5 Workpackage 5 – Regionalisierung<br />
WP 5.1: Entwicklung einer Schnittstelle MM5/ALADIN – Regionalisierungstool (Schöner)<br />
Ziel dieses Workpackages war die Schaffung 2er Schnittstellen zwischen den beiden regionalen<br />
Klimamodellen und dem verwendeten Programmpaket CLIM.PACT. Dieses Tool, das bisher in<br />
Skandinavien Anwendung fand, war für den Alpenraum zu adaptieren und für ein Downscaling vieler<br />
Zeitreihen zu optimieren. Die geographische Verfeinerung sollte mittels Fortran Programmen oder<br />
ArcInfo Scripts ermöglicht werden.<br />
Ausgehend von den MM5- bzw. ALADIN-Datensätzen wurde eine einfache Extraktion von Rlesbaren<br />
Datensätzen für die einzelnen zu regionalisierenden Variablen entwickelt werden. Die<br />
Schnittstelle zwischen CLIM.PACT und MM5 bzw. ALADIN wurde über das NetCDF Datenformat<br />
gelöst. CLIM.PACT kann dieses Datenformat unmittelbar verwenden. Während MM5 einen Output<br />
im NetCDF Format ablegen kann, gab es eine derartige Schnittstelle für ALADIN nicht. Der Output<br />
wurde daher im ASCII Format zur Verfügung gestellt, wobei die „VERA-Struktur“ (Output für Validierung<br />
mit VERA) verwendet wurde. Dieser Output wird mit einer eigenen Einleseroutine (in R) gelesen<br />
und ebenfalls in das NetCDF Format gebracht. Dazu wird das R-Package NetCDF verwendet.<br />
Da auch für MM5 eine Schnittstelle geschaffen wurde, mit der ein Output in das VERA-ASCII Format<br />
gebracht werden kann, ist die Einleseroutine auch in gleicher Weise für die Schnittstelle MM5-<br />
CLIM.PACT verwendbar.<br />
Als Ergebnis können nun die von den Projektpartnern gewünschten Parameter direkt in das Statistikpaket<br />
R eingelesen werden. Das adaptierte Regionalisierungstool soll in Folge zur empirischen<br />
Verfeinerung der in den nächsten Punkten angeführten Parameter verwendet werden.<br />
15
WP 5.2a: Regionalisierungstool Temperatur mean (Schöner)<br />
Die Arbeiten des Workpackages 5.2a befassten sich mit der Implementierung einer Downscaling-<br />
Methode für T2m basierend auf MM5 bzw. ALADIN Model Runs. Die Tätigkeiten umfassten neben<br />
der Installation des Statistikpakets R und des Downscaling Moduls CLIM.PACT eine Anpassung von<br />
CLIM.PACT für den Alpenraum und ein Gridding der Stationsdaten. Das Downscaling an den Stationskoordinaten<br />
mittels CLIM.PACT kann entweder mittels Multipler Linearer Regression oder mittels<br />
Analogmethode erfolgen.<br />
Für die Regionalisierung der Stationswerte wird eine abgewandelte AURELHY-Methode verwendet.<br />
Diese Methode führt eine PCA-Analyse der Orographie durch und beschreibt die Geländeform durch<br />
eine Anzahl von Principal Components (PCs). Diese PCs sowie die Seehöhe, Longitude und Latitute<br />
werden als unabhängige Prediktoren für die Ermittlung einer multiplen linearen Regression verwendet.<br />
Die Anpassung des Regressionsmodells erfolgt mittels einer schrittweisen multiplen linearen Regression<br />
aus den bekannten Klimawerten an den Stationskoordinaten (abhängige Größe) und den<br />
zeitlich konstanten Geländeparametern (unabhängige Größen). Diese Regression ist für jeden Tag<br />
der Untersuchungsperiode zu bestimmen und anschließend die Residueninterpolation durchzuführen<br />
(mit Thin-Plate Spline, analog wäre auch eine Interpolation mit einem Kriging-Ansatz möglich).<br />
Als alternative Methode zu der abgewandelten AURELHY-Methode wurde auch eine Gridding-<br />
Methode unter Verwendung von bereits vorliegenden Grids monatlicher Klimanormalwerte 1961-90<br />
für alle Monate des Jahres entwickelt. Dabei wird aus den Monatsgrids für jeden Tag ein Tagesgrid<br />
der Klimanormalwerte interpoliert und anschließend die Residuen an den Stationskoordinaten ermittelt.<br />
Mittels Thin-Plate Spline erfolgt dann eine Interpolation des Residuenfeldes.<br />
Zusätzlich wurde Vergleiche verschiedener Downscaling-Methoden und eine Bestimmung von Rechenzeit<br />
und Speicherbedarf für die Long Runs durchgeführt. Von den ursprünglich ins Auge gefassten<br />
Downscaling-Methoden (CCA, Regression, Downscaling von Tageswerten und Monatswerten,<br />
Wettergenerator) wurde auf einen Wettergenerator verzichtet, da diese nicht in der Lage sind, räumlich<br />
korreliert Muster zu erzeugen. Eine CCA ist mit CLIM-PACT nicht möglich und wurde daher ebenfalls<br />
nicht verwendet. Die verschiedenen Methoden konnten nur mit Probedaten getestet werden,<br />
da die entsprechenden Daten für Österreich von MM5 und ALADIN noch nicht vorliegen.<br />
Als Ergebnis dieses Workpackages liegt nun eine für den Alpenraum geeignete Methode der Regionalisierung<br />
von Tagesmitteltemperaturen vor.<br />
WP 5.2b: Regionalisierungstool Temperatur min/ max (Loibl)<br />
Die Regionalisierung der Minimums- und Maximumstemperatur sollte ebenfalls mit dem im Rahmen<br />
von WP 5.2a entwickelten Regionalisierungstools durchgeführt werden, wobei Tmin über den mittleren<br />
Tagsgang der Monatsmittel-Temperatur und der Differenz zwischen dem Monatsmittel der Minimumstemperatur<br />
und aktuellen Temperatur um 6h, Tmax über den mittleren Tagsgang der Monatsmittel-Temperatur<br />
und Differenz zwischen Monatsmittel der Maximumstemperatur und der Temperatur<br />
um 12h abgeschätzt wird.<br />
Eine Berücksichtigung etwaiger Temperaturin<strong>version</strong>en in den dafür „anfälligen“ Regionen ist dabei<br />
abhängig von Wolkenbedeckung, Wind, Jahreszeit. Dafür ist allerdings eine umfassende Analyse<br />
der Messdaten in diesen Regionen notwendig, die bis jetzt noch nicht erfolgte.<br />
16 reclip:more<br />
Research for Climate Protection:Model Run Evaluation
Aufgrund von Verzögerungen bei der Entwicklung des unter WP 5.2a beschriebenen Ttools konnte<br />
WP 5.2b nicht mehr rechtzeitig für diesen Bericht bearbeitet werden. Die notwendigen Tätigkeiten<br />
werden zu Beginn des Jahres 2005 nachgeholt.<br />
WP 5.3: Regionalisierungstool Niederschlag (Schöner)<br />
Für die Regionalisierung der Tagessummen des Niederschlags wurde ebenfalls ein 2-stufiges Verfahren<br />
entwickelt. Im ersten Schritt erfolgt das Downscaling mittels CLIM.PACT, wobei für den Niederschlag<br />
auf Tageswertebasis die Analogmethode zu verwenden ist. Im zweiten Schritt erfolgt die<br />
geographische Verfeinerung mit der abgewandelten AURELHY-Methode.<br />
Eine Regionalisierung der täglichen Niederschlagssumme ist bekanntlich wesentlich schwieriger als<br />
eine Regionalisierung der Temperatur, dennoch scheint auch für diesen Parameter die adaptierte<br />
AURELHY-Methode ein zielführender Ansatz. Analog zum Tagesmittel der Lufttemperatur werden<br />
auch für die Niederschlagssumme EOF Felder der Orographie als Prädikatoren verwendet. Diese<br />
PCs werden wieder zusammen mit der Seehöhe, Longitude und Latitude für die multiple lineare Regression<br />
verwendet. Eine ausführliche Beschreibung des Regionalisierungstools findet man im Kapitel<br />
7 des Teilberichtes der ZAMG.<br />
Eine ausführliche Validierung war im Rahmen des ersten Projektjahres auf Grund der vorhandenen<br />
Ressourcen nicht möglich. Auch liegen keine hinreichend langen Zeitreihen der für die Validierung<br />
notwendigen Modellläufe der Regionalmodelle MM5 und ALADIN vor. Damit kann die notwendige<br />
Optimierung der dynamisch herunterskalierten Prädiktoren für das weitere empirische Downscaling<br />
nicht durchgeführt werden. Für diese Optimierung ist sowohl die Auswahl der benötigten Felder aus<br />
dem Regionalmodell als auch die räumliche Domain festzulegen.<br />
Um trotzdem eine Validierung der entwickelten Regionalsierungsmethoden zu ermöglichen, wurden<br />
mittels Analogmethode aus ERA-40 herunterskalierte Zeitreihen täglicher Niederschlagssummen aus<br />
dem Projekt StartClim 04 verwendet. Eine kurze Behandlung dieser Ergebnisse ist in Kapitel 8 des<br />
ZAMG-Teilberichts zu finden.<br />
WP 5.4: Regionalisierungstool Schneedecke (Schöner)<br />
Im Rahmen des Workpackages soll eine für den Alpenraum geeignete Methode zur Regionalisierung<br />
von Schneedecken-Parametern aus Tagesdaten der Lufttemperatur und des Niederschlags entwickelt<br />
werden. Ziel ist die Implementierung eines Modells zur Berechnung von täglichen Schneehöhen<br />
und Schneewasseräquivalenten. Dies soll unter Entwicklung eines statistischen Ansatzes zur<br />
Berechnung täglicher Neuschneemengen aus Temperatur und Niederschlag sowie unter Adaption<br />
eines Degree-days Models für die Berechnung der Schneeschmelze, Setzung und Schneehöhe<br />
geschehen.<br />
Auf Grund zu geringer Ressourcen konnte im ersten Projektjahr nur eine Übersicht verschiedener<br />
Regionalisierungsmethoden für Tageswerte der Schneehöhe zusammengestellt werden. Ein kurzer<br />
Abriss dieser Methoden ist in Kapitel 2 des Teilberichts der ZAMG zusammengefasst. Die Regionalisierung<br />
der Schneedecke wird im Projektjahr 2 realisiert.<br />
WP 5.5: Regionalisierungstool Strahlung (Loibl)<br />
Die Sonnenstrahlungsdaten werden entsprechend der Nachfrage-Erhebung von systems research<br />
vor allem für vegetations-ökologische Fragestellungen hinsichtlich Einfluss der Klimaänderung herangezogen<br />
werden. Für die Photosynthese und Pflanzenwachstum ist hier die kurzwellige Strahlung<br />
17
von Bedeutung. Die Wärmestrahlung geht über die Modellierung/Regionalisierung der Temperatur<br />
implizit in die Modellergebnisse ein und wird hier bei der Sonneneinstrahlungs-Regionalisierung außer<br />
Acht gelassen.<br />
Die Sonneneinstrahlungs-Modellergebnisse aus den Regionalmodellen MM5 und ALADIN liegen nur<br />
in einer relativ groben Auflösung vor, die auf Grund der Verwendung eines nur groben und daher<br />
„flachen“ digitalen Höhenmodells die Realität wenig trifft und so in keiner Weise das Expositions-<br />
Hangneigungsgefüge des Geländes und damit der Sonneneinstrahlung auf lokaler Ebene widerspiegelt.<br />
Die Regionalisierung erfolgt darum nicht durch Downscaling der Ergebnisse der Regionalmodelle,<br />
sondern durch ein schrittweises Verfahren.<br />
Als Input für die Regionalisierung der Sonnenstrahlungswerte dient die potenzielle Sonnenstrahlung<br />
in Abhängigkeit vom Sonnenstand (ausgehend von Jahreszeit und Uhrzeit) sowie von Hangneigung<br />
und Exposition sowie die Sonnenstrahlungs-Ergebnisse des jeweiligen regionalen Klimamodells auf<br />
Tagesbasis. Zunächst wird mit die direkte kurzwellige Sonneneinstrahlung bei wolkenlosem Himmel<br />
auf eine ebene Fläche berechnet. Die Modifizierung dieser theoretischen Sonneneinstrahlung durch<br />
Exposition und Hangneigung sowie durch direkte Abschattung wird danach mit einem feinen digitalen<br />
Höhenmodells (DHM) berechnet. Aus den Ergebnissen werden Mittelwerte für die Modellpunkte des<br />
Regionalmodells berechnet und die Residuen zu den Regionalmodellergebnissen berechnet. Die so<br />
generierte Residualfläche wird von der auf dem DHM basierenden Modellfläche des expliziten Strahlungsmodells<br />
subtrahiert.<br />
Ergebnis ist eine fein differenzierte – auf Topographie, Sonnenstand und Bewölkung abgestimmte<br />
Sonneneinstrahlungsfläche für die jeweilige gewünschte Zeitspanne. Die Strahlungssumme je Fläche<br />
für die gewählte Zeiteinheit wird etwa dieselbe sein, wie im Regionalmodell. Die kleinräumige<br />
Variation zeigt große Schwankungen und ergibt sich aus den Geländeformen, die großräumigen<br />
Unterschiede ergeben sich durch die Variation in der Bewölkungsintensität.<br />
Sobald die täglichen mittleren Strahlungssummen für die 70 Referenzstationen von der ZAMG zur<br />
Verfügung gestellt werden, ist eine konkrete Überprüfung der Ergebnisse und gegebenenfalls eine<br />
Anpassung der Regionalisierungsparameter möglich.<br />
Im Prinzip ist anstatt der kombinierten Berechnung der Sinneneinstrahlung auch die von Schöner in<br />
seinem Teilbericht vorgestellte EOF-Methode aus dem CLIM.PACT-Paket von R. Benestadt einsetzbar,<br />
allerdings stand sie bei den Arbeiten zur Strahlungsregionalisierung noch nicht zur Verfügung<br />
und wurde auch von Benestadt nocht dafür eingesetzt und paraemtrisiert, sodass Abstand davon<br />
genommen wird sie hier einzusetzen.<br />
WP 5.6: Regionalisierungstool Wind (Truhetz)<br />
Für die Windregionalisierung werden exakte Domainsettings der Studyareas, Windmessdaten der<br />
ZAMG zur Methodenvalidierung, MM5 Ergebnisse sowie der „beste“ MM5-Episodenlauf aller Gruppen<br />
benötigt. Ausgehend von der reclip:more „Standard“-Auflösung von 15 km wird eine zusätzliche<br />
Downscaling-Stufe eingeführt, um die Anfangsbedingungen für die Windsimulation auf 5km zu erhalten,<br />
die Zielauflösung des Windmodells beträgt 200m. Da die genauen Domain-Settings für die drei<br />
Studyareas noch nicht definiert sind, wurde zunächst nur mit „vorläufigen“ Testregionen gearbeitet.<br />
18 reclip:more<br />
Research for Climate Protection:Model Run Evaluation
Zunächst erfolgte die Installation von CALMET am IGAM-Cluster und die Durchführung erster Testläufe<br />
für NESTDOWN und CALMET. Die Implementierung der Downscaling-Methode für den bodennahen<br />
Wind wurde durch eine einfache Interpolation (NESTDOWN) und die anschließende Anwendung<br />
eines mikroskaligen, diagnostischen Modells (CALMET) inkl. einfacher Sensitivätsanalyse erreicht.<br />
Dazu waren Modifizierungen des MM5-Moduls NESTDOWN zur einfachen Berücksichtigung<br />
der Strömungsbeeinflussung bei hochaufgelöster Topographie notwendig.<br />
Nach Erstellung der topographischen Eingangsdaten erfolgte eine statistische Auswertung des bodennahen<br />
Windes. Für die notwendigen physio-geographischen Eingangsdaten stand ein von<br />
systems research auf 200 m resampleter CORINE Landcover Datensatz zur Verfügung. Die zusätzlich<br />
benötigten externen Parameter (Rauhigkeitslänge, Albedo, Bowen-Verhältnis und Oberflächen-<br />
Wärmefluß) wurden statistisch mit dem Landbedeckungsmodell verknüpft.<br />
Für die Visualisierung der Auswertungen und der Simulationsergebnisse von NESTDOWN und<br />
CALMET wurde das frei verfügbare Grid Analysis and Display System (GrADS) verwendet. Dafür<br />
musste allerdings eine Datenkonvertierung der CALMET-Ergebnisse entwickelt werden.<br />
Für die Sensitivitätsanalyse wurden Variationen diverser Modelleinstellungen des „besten“ MM5-<br />
Episodenlaufs verwendet, die Validierung von NESTDOWN und CALMET erfolgte anhand repräsentativer<br />
Windmessdaten. Eine ausführliche Zusammenfassung und eine kurze Präsentation der ersten<br />
Ergebnisse sind im Kapitel 4.3 des IGAM-Teilberichts im Anhang 1 zu finden.<br />
Die implementierte und getestete Wind-Downscaling Methode für MM5 wird wie vertraglich fixiert im<br />
Projektplan 2 an systems research weitergegeben.<br />
19
4 Auflistung der Workpackages geordnet nach<br />
Projektpartner<br />
Im Folgenden sind die einzelnen Workpackages der Projektpartner wie sie in den einzelnen Teilberichten<br />
aufscheinen zusammengefasst. Eine detaillierte Beschreibung der einzelnen Tasks ist aus<br />
dem Zwischenbericht vom März 2004 und dem vorhergehenden Kapitel 3 ersichtlich.<br />
4.1 IGM – Gruppe Dorninger<br />
WP id. WP Titel<br />
WP 2.2a Bereitstellung Synop-Daten Europa<br />
WP 2.2b Bereitstellung MAP-Daten<br />
WP 2.2c Bereitstellung Radiosondendaten<br />
WP 3.3 Modellvalidierung – VERACLIM<br />
4.2 IGM – Gruppe Ahrens<br />
WP id. WP Titel<br />
WP 2.3a ERA 40 Daten – Aufbereitung f. ALADIN<br />
Abstimmung der Sensitivitätsexperimente (vor allem für<br />
WP 3.1 ALADIN)<br />
ALADIN test runs mit ERA 40 Daten, Durchführung erster<br />
WP 4.4 Sensitivitätsexperimente<br />
4.3 ZAMG<br />
WP id. WP Titel<br />
WP 2.1 Bereitstellung österreichischer Messdaten<br />
Schnittstelle MM5 sowie ALADIN – Entwicklung der Regi-<br />
WP 5.1 onalisierungstools<br />
WP 5.2a Regionalisierungstool Temperatur mean<br />
WP 5.3 Regionalisierungstool Niederschlag<br />
WP 5.4 Regionalisierungstool Schneedecke<br />
20 reclip:more<br />
Research for Climate Protection:Model Run Evaluation
4.4 BOKU-Met<br />
WP id. WP Titel<br />
Festlegen der Sensitivitäts- und Validitätstests, Entwurf<br />
WP 3.2 des Benchmarks<br />
MM5 test runs mit ERA 40 Daten, erste Sensitivitätsexpe-<br />
WP 4.3c rimente<br />
4.5 IGAM<br />
WP id. WP Titel<br />
WP 2.4a ECHAM4 T106 Treiberdaten (1981-1990,1999)<br />
ECHAM4 T106 Treiberdaten (2041-2050) für das 2. Pro-<br />
WP 2.4b jektjahr<br />
WP 3.4 Vertikale Validierung<br />
MM5 test runs mit ERA 40 Daten, erste Sensitivitätsexpe-<br />
WP 4.3b rimente<br />
WP 5.6 Regionalisierungstool Wind<br />
4.6 systems research<br />
WP id. WP Titel<br />
WP 2.3b Datenaufbereitung<br />
WP 4.1 MM5 – Fortran sourcen, Binärcode-Vergleichstests<br />
Bestimmung der Modellparameter: Domains, Zielauflö-<br />
WP 4.2 sung, Studyareas<br />
WP 4.3a Sensitivitätsexperimente<br />
WP 5.2b Regionalisierungtool Temperatur min/max<br />
WP 5.5 Regionalisierungtool Sonnenstrahlung<br />
21
5 Ausblick Projektjahr 2: Oktober 2004 – Oktober 2005<br />
Als Schwerpunkte für das 2. Projektjahr sind geplant:<br />
<strong>1.</strong> Durchführung der retrospektiven transienten regionalen Klima-Modellläufe über 10 Jahre<br />
2. Durchführung der Sensitivitätstests sowie die Regionalisierung der Modellergebnisse für einen<br />
ausgewählten Zeitabschnitt<br />
3. Benchmarking der beiden RCM’s<br />
Überdies sollten natürlich alle Tasks des ersten Jahres, die nicht oder nicht vollständig abgearbeitet<br />
werden konnten, abgeschlossen werden.<br />
Die folgende Abbildung zeigt die vorgesehenen Arbeitschritte und deren Zusammenhänge.<br />
Abbildung 2: Arbeitsschritte für das Projektjahr 2 (in der ursprünglichen Zeitplanung – die sich<br />
nun 3 Monate nach hinten verschiebt.)<br />
22 reclip:more<br />
Research for Climate Protection:Model Run Evaluation
Anhang 1<br />
Teilberichte der Projektpartner<br />
Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />
Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />
Alexander Beck und Bodo Ahrens:<br />
Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />
Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />
Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />
zu den regionalen Klimamodellen<br />
Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />
Validierung – Sensitivitätstests<br />
Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />
MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />
Mario Köstl, Wolfgang Loibl und Johann Züger:<br />
Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung
Anhang 1<br />
Teilberichte der Projektpartner<br />
Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />
Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />
Alexander Beck und Bodo Ahrens:<br />
Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />
Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />
Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />
zu den regionalen Klimamodellen<br />
Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />
Validierung – Sensitivitätstests<br />
Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />
MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />
Mario Köstl, Wolfgang Loibl und Johann Züger:<br />
Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung
eclip:more<br />
Research for Climate Protection:<br />
Model Run Evaluation<br />
Projektjahr 1<br />
Projektteil IMG-Dorninger<br />
Datenaufbereitung, Modellvalidierung, Sensitivitäts- und<br />
Validitätstest<br />
Beispiel für ein synthetisches Feld (idealisierter Fingerprint), das den thermischen Einfluss der<br />
Alpen auf ein skalares Bodenfeld (zB Druck) repräsentiert<br />
Arbeitsbericht für den Zeitraum <strong>1.</strong>1<strong>1.</strong>2003 – 30.9.2004<br />
von<br />
Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold<br />
Steinacker<br />
Institut für Meteorologie und Geophysik<br />
Universität Wien, Österreich.<br />
17. Oktober 2004
INHALTSVERZEICHNIS<br />
1 Datenaufbereitung (WP 2).................................................................................. 1<br />
2 Modellvalidierung, Sensitivitäts- und Validitätstests (WP 3.3) ....................... 1<br />
2.1 Modellvalidierung mittels VERACLIM .............................................................. 1<br />
2.<strong>1.</strong>1 Methodik in 2-D......................................................................................... 3<br />
2.<strong>1.</strong>2 Qualitätskontrolle von Daten..................................................................... 4<br />
2.<strong>1.</strong>3 Analyse..................................................................................................... 8<br />
2.<strong>1.</strong>4 Downscaling ............................................................................................. 8<br />
2.2 Kurzbeschreibung des Modellvergleichs........................................................ 11<br />
2.3 Erste Ergebnisse:........................................................................................... 14<br />
Literatur................................................................................................................... 16<br />
ANHANG A – Klimagebiete .................................................................................... 19
1 Datenaufbereitung (WP 2)<br />
• Bereitstellung Synop-Daten Europa (WP 2.2a)<br />
• Bereitstellung MAP-Daten (WP 2.2b)<br />
• Bereitstellung Radiosondendaten WP (2.2c)<br />
Ad WP 2.2a:<br />
In der Sitzung vom 30. Jänner 2004 (vgl. auch Protokoll) wird jedem Projektpartner<br />
eine DVD (inkl. kurzem Word-Text mit Erklärungen und einem Abriss, wie die Daten<br />
mittels READ Befehl eingelesen werden können) mit dreistündigen SYNOP-Daten<br />
aus dem MARS-Archiv von 1979 bis 2000 für den Großraum Alpen (Rohdaten, zwar<br />
in ASCII-Format aufbereitet, allerdings nicht qualitätskontrolliert!) überreicht.<br />
Ad WP 2.2b:<br />
Ebenfalls in der Sitzung vom 30. Jänner 2004 wird der Inhalt der MAP-Datenbank<br />
erklärt. Die Gruppe IMG-Dorninger erklärt sich bereit, auf Anfrage die Datensätze<br />
aus der MAP-Datenbank zu extrahieren. Bis dato sind keine derartigen Anfragen<br />
gestellt worden. Das Angebot bleibt natürlich auch im 2. Projektjahr aufrecht.<br />
Ad WP2.2c:<br />
Übermittlung der CALRAS-Daten (Comprehensive Alpine Radiosonde Data Set) in<br />
Form von zwei CD’s und umfangreicher dreiteiliger Dokumentation an IGAM am<br />
17.Februar 2004.<br />
Die Daten (2.2a und 2.2c) wurden im Rahmen anderer Projekte am IMGW<br />
aufbereitet und werden dem Projekt reclip:more unentgeltlich zur Verfügung gestellt.<br />
2 Modellvalidierung, Sensitivitäts- und Validitätstests<br />
(WP 3.3)<br />
Als Validierungstool wird das seit rund 10 Jahren am IMG in Entwicklung stehende<br />
Vienna Enhanced Resolution Analysis System (VERA) verwendet.<br />
2.1 Modellvalidierung mittels VERACLIM<br />
Die Grundphilosophie von VERA lautet: „Der Ist-Zustand der Atmosphäre soll so<br />
genau als möglich und unter Nutzung des a priori Wissens der atmosphärischen<br />
Verhaltensmuster im Alpenraum feldmäßig dargestellt werden“. Dieser Anspruch<br />
beinhaltet folgende Schritte<br />
→ Qualitätskontrolle der Daten<br />
→ Interpolation auf ein regelmäßiges Gitter<br />
→ Downscaling (Erschließung von Skalen, die durch verfügbare Beobachtungen<br />
nicht explizit aufgelöst werden können)<br />
Anhand eines 1-D Beispiels soll das angewandte Verfahren demonstriert werden.<br />
(siehe Abb. 1).<br />
Anhang 1 1<br />
Teilbericht 1
Ψ<br />
x<br />
1 2 3 4 5<br />
Abb. 1: Schematische Darstellung der „spline“ Interpolation zwischen gegebenen Stützstellen 1 bis 5.<br />
Die Werte 1 bis 5 sollen vorliegende Messwerte (Datenpunkte) einer skalaren<br />
Feldvariablen Ψ darstellen. Die interpolierten Werte zwischen den Datenpunkten<br />
können prinzipiell durch eine beliebige Funktion (zB strichlierte Kurve) beschrieben<br />
werden, die alle gegebenen Stützstellen verbindet. Spannt man nun zB ein<br />
elastisches Lineal oder eine Weidenrute („spline“) an den Stützstellen ein, so wird die<br />
Form in etwa der durchgezogenen Linie entsprechen. Diese ist mathematisch<br />
definiert als genau d i e Funktion, deren gesamte Krümmung zwischen 1 und 5<br />
minimal ist („cubic spline“). Die mathematische Formulierung dafür lautet:<br />
5 2<br />
4<br />
⎛ ∂ Ψ ⎞<br />
∂ Ψ<br />
J = ∫ ⎜<br />
⎟ dx → Min<br />
(daraus folgt i. ü. = 0 ) (1)<br />
2<br />
4<br />
⎝ ∂x<br />
1 ⎠<br />
∂x<br />
Statt die spline-Funktion durch die fünf Punkte gehen zu lassen, kann sie alternativ<br />
durch eine Variation zB des Wertes an der Stützstelle 3 mit Hilfe des<br />
Minimierungsalgorithmus verändert werden (siehe Abb. 2):<br />
Ψ<br />
2<br />
1 2 3 4 5<br />
Abb. 2: Schematische Darstellung der Variation des Wertes an der Stützstelle 3.<br />
Dabei gilt dasselbe Minimierungsfunktional wie in (1). Dadurch wird genau der Wert<br />
gefunden, der für die gesamte Kurve die minimale Krümmung ergibt. Für die<br />
Bestimmung der Krümmung wird folgende Beziehung verwendet:<br />
∂J<br />
∂Ψ<br />
3<br />
∂<br />
=<br />
∂Ψ<br />
5<br />
∫<br />
3 1<br />
2<br />
2 ⎛ ∂ Ψ ⎞<br />
⎜ = 0<br />
2 ⎟ dx<br />
⎝ ∂x<br />
⎠<br />
2 Anhang 1<br />
Teilbericht 1<br />
(2)<br />
x
2.<strong>1.</strong>1 Methodik in 2-D<br />
Bei VERA wird das cubic spline Verfahren zT auf 2-D Felder angewandt. In der<br />
Mathematik steht dafür der Ausdruck „thin plate spline“, mit dem mechanischen<br />
Äquivalent eines elastischen Geflechts. Auch hier wird d i e Fläche als Lösung<br />
gesucht, deren Krümmung minimal wird. Die 2D-Krümmung ist jedoch nicht wie bei<br />
der 1D Anwendung durch nur eine zweite Ableitung, sondern durch deren drei<br />
definiert:<br />
2 2 2<br />
∂ Ψ ∂ Ψ ∂ Ψ<br />
, ,<br />
(3)<br />
2 2<br />
∂x<br />
∂y<br />
∂x∂y<br />
Es bieten sich nun mehrere Varianten der Minimierung an:<br />
2<br />
2<br />
2<br />
2<br />
2<br />
2<br />
⎡⎛<br />
∂ Ψ ⎞ ⎛ ∂ Ψ ⎞ ⎛ ∂ Ψ ⎞ ⎤<br />
J = ∫ ⎢⎜ ⎟ + ⎜ ⎟ + ⎜ ⎟ ⎥ dσ<br />
→ Min<br />
2<br />
2<br />
⎣⎝<br />
∂x<br />
⎠ ⎝ ∂y<br />
⎠ ⎝ ∂x∂y<br />
⎠ ⎥⎦<br />
Diese Formulierung beschreibt die allgemeine Bedingung für den thin plate spline.<br />
Alternativ können die Terme im Integrand von (4) gewichtet werden oder aber<br />
folgende Kombinationen der 2. Ableitung minimiert werden:<br />
2<br />
2<br />
⎡⎛<br />
∂ Ψ ⎞ ⎛ ∂ Ψ ⎞⎤<br />
⎢⎜<br />
⎟ + ⎜ ⎟<br />
2<br />
2 ⎥<br />
⎣⎝<br />
∂x<br />
⎠ ⎝ ∂y<br />
⎠⎦<br />
2<br />
2<br />
⎡⎛<br />
∂ Ψ ⎞ ⎛ ∂ Ψ ⎞⎤<br />
⎢ ⎜ 2 ⎟ + ⎜ 2 ⎟<br />
⎟⎥<br />
⎣⎝<br />
∂x<br />
⎠ ⎝ ∂y<br />
⎠⎦<br />
2<br />
2<br />
=<br />
[ ] 2 2<br />
∇ Ψ<br />
2<br />
2<br />
⎡⎛<br />
∂ Ψ ⎞ ⎛ ∂ Ψ ⎞⎤<br />
− ⎢ ⎜ 2 ⎟ − ⎜ 2 ⎟<br />
⎟⎥<br />
⎣⎝<br />
∂x<br />
⎠ ⎝ ∂y<br />
⎠⎦<br />
Anhang 1 3<br />
Teilbericht 1<br />
2<br />
2 ⎡⎛<br />
∂ Ψ ⎞⎤<br />
− ⎢ ⎜<br />
⎟<br />
⎟⎥<br />
⎣⎝<br />
∂x∂y<br />
⎠⎦<br />
Minimiert man „nur“ den Laplace (5) in der Domäne, so kann dies physikalisch so<br />
gedeutet werden, dass zB beim Druckfeld (Geopotentialfeld) die geostrophische<br />
Vorticity minimiert wird. Bei (6) resultiert als Ergebnis ein Feld, bei dem lang<br />
gezogene Strukturen, wie etwa bei Fronten, betont werden.<br />
Eine schematische Darstellung für eine 2-D Anwendung ist in Abbildung 3 zu sehen.<br />
Abb. 3: Schematische Anordnung von Stützstellen zur Bestimmung des „thin plate spline“.<br />
2<br />
(4)<br />
(5)<br />
(6)
Für eine solche 2-D Anwendung müssen jeweils Eckpunkte eines Fünfecks mit<br />
einem zentralen Punkt als Stützstellen vorliegen, die miteinander vernetzt sind, um<br />
den Satz von Gleichungen exakt lösen zu können. Dabei bedeuten<br />
k: Zentralstation/Gitterpunkt, die/der überprüft wird<br />
j: 5 Nachbarstationen (nah(k,j)) um k<br />
i: 5 Nachbarstationen (nahj(k,j,i) um j.<br />
Der spline Algorithmus erlaubt natürlich eine Erweiterung auf 3-D und 4-D. Das<br />
mechanische Äquivalent ist beim 3-D Ansatz durch ein elastisches Volumen<br />
gegeben, beim 4-D Ansatz durch ein elastisches Volumen mit Rotations-,<br />
Kompressions- und Deformations- Schwingungen bzw. -wellen.<br />
Für vektorielle Feldgrößen (zB Windvektor) kann der spline Algorithmus analog<br />
angewandt werden, wobei bei einer 2-D Anwendung auf 2-D Vektoren wahlweise<br />
gewichtete Kombinationen aus Rotation (ζ), Divergenz (D) und Deformation (E bzw.<br />
F) minimiert werden können, zB<br />
2<br />
2<br />
2 2<br />
J = ∫ [ ας + βD + γ(E + F ) ] dσ → Min , (7)<br />
wobei α, β und γ Gewichtungsfaktoren darstellen.<br />
Ist die spline Interpolation physikalisch sinnvoll?<br />
Falls die behandelte Feldvariable kontinuierlich verteilt ist (in der Atmosphäre etwa<br />
der Luftdruck; unendlich große Druckgradienten können ja nicht existieren !) und der<br />
Abstand der Stützstellen klein gegen die Längenskala des betrachteten Phänomens<br />
ist, liefert die cubic spline Interpolation die (statistisch) geringste Abweichung zu den<br />
„wahren“ Werten. Unter diesen Voraussetzungen konvergieren im Übrigen die<br />
Lösungen der „successive correction Methode“ und der „optimum Interpolation“<br />
gegen die Lösung des cubic spline. Aber auch bei Variablen mit Unstetigkeiten<br />
(Brüchen) in der Feldverteilung, zB bei der Temperatur an Fronten, lässt sich die<br />
spline Methode, durch eine entsprechende Wahl und Gewichtung der zu<br />
minimierenden Terme – wie zB in (6) – hervorragend anwenden.<br />
Der obige Ansatz kann sowohl in einem Qualitätskontroll- als auch in einem<br />
Analysemodus angewandt werden.<br />
2.<strong>1.</strong>2 Qualitätskontrolle von Daten<br />
Ist der Wert an der Stützstelle bekannt (Beobachtungspunkt), so kann der mittels<br />
Minimierungsverfahren interpolierte Wert an dieser Stelle mit dem Messwert<br />
verglichen werden. Auf statistischem Wege kann nun entschieden werden, ob der<br />
Messwert eine systematische Abweichung (bias) bezüglich der Nachbarstationen<br />
aufweist oder ob ein grober Fehler („gross error“) vorliegt. Dadurch kann dieser<br />
Messwert gegebenenfalls korrigiert werden. Es muss natürlich jeder Messwert in der<br />
betrachteten Domäne sukzessive diesem Prüfverfahren unterworfen werden, da ja<br />
nicht von vornherein bekannt ist, welcher Wert in welchem Umfang als fehlerhaft<br />
einzustufen ist. Derjenige Messwert der die größte „Beruhigung“ bezüglich der<br />
Krümmung der Kurve bewirkt, ist am wahrscheinlichsten fehlerbehaftet. Für<br />
mesoskalige Analysen ist die Qualitätskontrolle und Korrektur von fundamentaler<br />
Bedeutung. Das Anbringen aller berechneten Korrekturvorschläge repräsentiert<br />
einen Filter, der die kürzesten, durch die Stützstellen definierten Wellen dämpft, bzw.<br />
eliminiert.<br />
4 Anhang 1<br />
Teilbericht 1
Anhand von 1-D Beispielen (Abb. 4) soll die Vorgangsweise und Interpretation<br />
erläutert werden: Ist an der Zentralstation (siehe Abb. 4, oben) der Wert höher als an<br />
den umliegenden, so führt eine Korrektur auf den Wert der umliegenden Station zu<br />
einer signifikanten „Beruhigung“ der zweiten Ableitungen. Übersteigt diese Abweichung<br />
einen bestimmten Schwellwert („threshold“), so liegt die Vermutung nahe,<br />
dass es sich hierbei um einen gross error handelt. Allgemein bedeutet eine positive<br />
(negative) Abweichung, dass der jeweilige Parameter an einer Station höher (tiefer)<br />
als durch die Interpolation mittels der umliegenden Stationen „vorherzusehen“ ist. Ist<br />
die Abweichung klein, aber zeitlich konstant, so handelt es sich mit großer<br />
Wahrscheinlichkeit um einen systematischen Fehler der Station. Ist die Abweichung<br />
über bestimmte Zeitperioden ähnlich und wechselt gelegentlich ihr Vorzeichen, so<br />
weist dies auf eine mesoskalige (Wetterlagen-abhängige) Struktur hin; weisen die<br />
Abweichungen einen Tagesgang auf, so kann man die Station bezüglich ihrer<br />
spezifischen Lage charakterisieren, zB städtische Wärmeinsel, Hangstation, Küstenstation<br />
etc. Ist die Abweichung klein und zeitlich nicht korreliert, so kann man sie als<br />
meteorologischen Lärm klassifizieren und eine Korrektur anbringen (filtern).<br />
Abb. 4: Beispiele von Abweichungen: zentrale Station mit positiver Abweichung (oben), zentrale<br />
Station mit positiver, rechte Nachbarstation mit negativer Abweichung (Mitte) und Zentralstation und<br />
rechte Nachbarstation mit negativer Abweichung (unten).<br />
Anhang 1 5<br />
Teilbericht 1
Dies führt nicht nur die Korrektur der Zentralstation sondern auch der Nachbarstation<br />
zu einer signifikanten Beruhigung der zweiten Ableitungen (siehe Abb. 4, Mitte), so<br />
kann ebenfalls mittels Betrachtung des Zeitreihen-Verhaltens die wahrscheinliche<br />
Ursache dafür eruiert und gegebenenfalls eine Korrektur angebracht werden.<br />
Sind zwei benachbarte Stationen von einer ähnlich großen Abweichung mit gleichem<br />
Vorzeichen geprägt (siehe Abb. 4, unten), so wird die Korrektur vergleichsweise<br />
gering ausfallen, die Abweichung wird als meteorologisches Signal gewertet.<br />
In der Praxis berechnet man über einen längeren Zeitraum für jeden verfügbaren<br />
Termin den so genannten „Abweichungswert“, di. die Differenz zwischen dem auf die<br />
Station mittels thin plate spline interpolierten Wert und dem Messwert. Damit lassen<br />
sich systematische Fehler (zB Sensorprobleme) erkennen oder die so genannte<br />
„Charakterisierung“ einer Station durchführen, aber auch „gross errors“, die durch<br />
falsches Ablesen, Dekodierungs- und Datentransferprobleme auftreten können.<br />
Schließlich lassen sich auch so genannte mesoskalige meteorologische Signale, wie<br />
etwa durch Föhn bedingt, ablesen.<br />
Die bisher in der Praxis untersuchten Parameter sind der auf Meereshöhe reduzierte<br />
Druck, die potentielle Temperatur, die Feuchtigkeit (als Differenz zwischen der<br />
potentiellen und äquivalent potentiellen Temperatur) und die horizontalen Komponenten<br />
u und v des Bodenwindes von Stationen unterhalb von 750 m üM im<br />
Alpenraum.<br />
<strong>1.</strong> Beispiel:<br />
Abb. 5: Beispiel für Sensorprobleme. Abweichungen des reduzierten Druckes an einer Station für das<br />
Jahr 1999.<br />
In Abb. 5 ist eine klare positive Abweichung für die ersten 3 ¼ Monate zu erkennen.<br />
Da sich dies danach sprunghaft ändert und dann um den Nullpunkt schwankt, deutet<br />
alles auf ein Sensorproblem im ersten Quartal hin. Anfang April wurde der Sensor<br />
wahrscheinlich kalibriert, korrigiert bzw. ausgewechselt. Die durchgezogene Linie bei<br />
0,37 hPa gibt den Median über alle Werte an. Die gestrichelten Linien zeigen den<br />
dreifachen Wert der „interquartile range“.<br />
6 Anhang 1<br />
Teilbericht 1
2. Beispiel:<br />
Abb. 6: Beispiele für Repräsentationsprobleme. Abweichungen der potentiellen Temperatur an einer<br />
Station für den MAP-SOP-Zeitraum (07.09.1999-15.1<strong>1.</strong>1999).<br />
Da in diesem speziellen Fall die positiven Abweichungen zeitlich nur kurz auftreten,<br />
deutet dies auf ein meteorologisches Signal hin. Und wirklich stimmen die Zeitpunkte<br />
der hohen Abweichungswerte mit den Zeitpunkten der Föhnfälle überein. Dh., dass<br />
an dieser Station der Föhn bereits durchgegriffen hat, während er es an anderen<br />
(umliegenden) Stationen noch nicht getan hat. Oder anders interpretiert, die Föhnstation<br />
war zu diesem Zeitpunkt nicht repräsentativ für die lokale/regionale Skala.<br />
3. Beispiel<br />
Abb. 7: Beispiel für mögliche Übertragungsfehler. Abweichungen des reduzierten Druckes an einer<br />
Station für das Jahr 1999.<br />
Diese Station zeigt im letzten Viertel des Jahres fünf so genannte gross errors. Man<br />
kann sie deutlich von den meteorologischen Signalen und dem Rauschen<br />
unterscheiden.<br />
Anhang 1 7<br />
Teilbericht 1
2.<strong>1.</strong>3 Analyse<br />
Bei der Analyse wird im Gegensatz zum Qualitätskontroll-Modus wird der „thin plate<br />
spline“ Algorithmus auf ein regelmäßiges Gitterpunktsnetz angewandt. Anders als bei<br />
handelsüblichen Berechnungsroutinen wird jedoch die Lösung für die Werte an den<br />
Gitterpunkten nicht „global“, dh. für die gesamte Domäne in einem Schritt, sondern<br />
„lokal“, dh. für jeden einzelnen Gitterpunkt gesondert, gewonnen. Dabei werden um<br />
jeden Gitterpunkt fünf nahe gelegene und möglichst günstig verteilte Stationen als<br />
Stützstellen und um diese in gleicher Weise wie in Abb. 3 verteilte weitere Stationen<br />
gesucht. Wird der Gitterpunktswert mit 0 vorbelegt, so ist der Abweichungswert<br />
zugleich der gesuchte Analysewert. Das Ergebnis unterscheidet sich dabei nur<br />
unwesentlich von anderen Interpolations-Schemata (successive correction, optimum<br />
Interpolation, Kriging). Die Besonderheit von VERA liegt jedoch im zusätzlich<br />
durchgeführten Downscaling der Felder.<br />
Die 2-D Felder in VERA beziehen sich nicht auf die tatsächliche Topographie<br />
sondern auf die sog. „Minimum“-Topographie (siehe Abb. 8), di. die jeweils niedrigste<br />
Höhe innerhalb eines 10 km Radius um den Gitterpunkt. Dies bedeutet, dass die<br />
Analysewerte im Gebirge jeweils auf die Talsohlen, bzw. Passsenken bezogen sind.<br />
Abb. 8: Minimum Topographie in den Höhenstufen (Graustufen): 0 m (Meeresniveau), 0–500 m, 500-<br />
1000 m, 1000-1500 m und über 1500 m. Erläuterungen siehe Text.<br />
2.<strong>1.</strong>4 Downscaling<br />
Unter Downscaling versteht man die Erschließung von subskaligen Strukturen, die<br />
durch die Messwerte allein nicht explizit aufgelöst werden können. Wir wissen, dass<br />
ein Gebirge einen wesentlichen Einfluss auf die Atmosphäre ausübt. Gebirge bieten<br />
die Möglichkeit einer gehobenen Heiz- oder Kühlfläche. Durch die Volumenreduktion<br />
der Luft in Tälern und Becken ist zudem eine Amplifizierung der thermischen Tages-<br />
und Jahresgänge zu beobachten. Des Weiteren wirken Gebirge als ein Hindernis für<br />
Luftströmungen mit der Möglichkeit von Blockieren und Umströmen. Da die<br />
8 Anhang 1<br />
Teilbericht 1
topographische Information mit hoher räumlicher Auflösung gegeben ist, kann man<br />
die thermischen und dynamischen Feinstrukturen mit ebenso feiner Auflösung<br />
modellieren.<br />
Abb. 9 zeigt schematisch, wie man ein einfaches Downscaling im 1-D Fall<br />
durchführen kann. Im oberen Teil ist ein Querprofil durch ein Gebirge gezeichnet mit<br />
je zwei Stationen auf beiden Seiten der Barriere. Wendet man in einem solchen Fall<br />
ein herkömmliches Interpolationsverfahren an, so wird der strichlierte Verlauf der<br />
Kurve (unten) resultieren. Wenn man aber weiß, dass Barrieren extreme Gradienten<br />
der Feldverteilung meteorologischer Parameter bewirken, so kann man die Kurve so<br />
anpassen, dass sie zwar nach wie vor durch die Messwerte an den vier vorhandenen<br />
Stationen verläuft, jedoch den zu erwartenden scharfen Gradienten im Bereich der<br />
Barriere aufweist (durchgezogene Linie). Hierzu wird ein idealisierter Kurvenverlauf<br />
benötigt, der einen scharfen Gradienten und damit sehr hohe Werte der zweiten<br />
Ableitung im Bereich der Barriere aufweist.<br />
Abb. 9: Schematisches Querprofil eines Gebirges (oben) und der dazugehörigen 1-D Verteilung einer<br />
Variablen Ψ. Strichliert ist die durch ein gewöhnliches Interpolationsverfahren ermittelte Kurve,<br />
durchgezogen die durch eine künstliche Verschärfung des Gradienten an der Barriere erzeugte<br />
Kurve.<br />
Die modellierten hoch aufgelösten, orographisch induzierten 2-D Felder werden<br />
„Fingerprints“ genannt. Der „thermische Fingerprint“ (siehe Abb. 10) zeigt das Muster<br />
eines modellierten Hitzetiefs bzw. Kältehochs über den Alpen. Berücksichtigt ist<br />
dabei nicht nur die Höhenverteilung der mittleren Topographie, sondern auch der<br />
durch die Volumen-Verminderung in Tälern erzeugte Anteil.<br />
Anhang 1 9<br />
Teilbericht 1
Abb. 10: Thermischer Fingerprint mit Isolinien in relativen Einheiten.<br />
Abb. 11 zeigt den so genannten „dynamischen Süd-Fingerprint“, der den idealisierten<br />
Blocking-Effekt bei einer reinen Südströmung repräsentiert. Diese Fingerprints<br />
können wahlweise für ein Downscaling von Temperatur- oder Druckfeldern<br />
Verwendung finden, da diese beiden Parameter in ihrer kleinräumigen topographischen<br />
Struktur hoch korreliert sind.<br />
Abb. 11: Dynamischer Süd-Fingerprint mit Isolinien in relativen Einheiten.<br />
10 Anhang 1<br />
Teilbericht 1
Aus den idealen Fingerprints werden an jenen Punkten, wo Beobachtungsdaten<br />
vorliegen, die (Relativ-)werte abgegriffen. Aus diesen werden die 2. räumlichen<br />
Ableitungen berechnet und mit den Ableitungen aus den Beobachtungswerten verglichen.<br />
Der Quotient der Ableitungen ergibt den Faktor, mit dem der jeweilige<br />
Fingerprint in die Analyse eingebracht wird. Da diese Vorgangsweise lokal<br />
angewandt wird, gehen die Fingerprints mit unterschiedlicher Stärke in die Analyse<br />
ein. Es kann also durchaus vorkommen, dass zB im Ostalpenraum der Süd-Fingerprint<br />
noch deutlich präsent ist, während über den Westalpen bereits der West- oder<br />
Nord-Fingerprint in die Analyse eingeht.<br />
2.2 Kurzbeschreibung des Modellvergleichs<br />
Ziel des Modellvergleiches ist es, die Ergebnisse eines Modellaufes nicht nur an<br />
einzelnen Stationen bzw. Gitterpunkten mit den Messungen zu vergleichen, sondern<br />
eine möglichst flächenhafte Evaluierung des Modellergebnisses zu bekommen. Daher<br />
werden die Felder der Modellvorhersage mit einer objektiven, modellunabhängigen<br />
Analyse verglichen, wobei auf die Skalenverträglichkeit geachtet werden muss.<br />
In dem operationell laufenden Modellvergleich werden der auf Meeresniveau<br />
reduzierte Druck, der 10m-Wind, die potentielle und die äquivalentpotentielle<br />
Temperatur verglichen. Beim Druck wird sowohl der vom Modell gelieferte reduzierte<br />
Druck, als auch ein von der untersten Modellfläche nach dem standardmäßigen<br />
Reduktionsverfahren der Analyse reduzierter Druck verglichen. Es gehen dabei die<br />
Werte der untersten Modellfläche ein, wobei die Höhe dieser Fläche bekannt sein<br />
muss. Der Grund für diesen doppelten Vergleich ein und desselben Parameters liegt<br />
in den unterschiedlichen Reduktionsmethoden von Modell und VERA-Analyse. Um<br />
unterschiedlichen Anforderungen im Modell zu genügen, wird hier oft nicht die<br />
standardmäßige Reduktion, sondern eine modifizierte Methode verwendet, um die<br />
thermischen Druckgebilde zu unterdrücken. Dadurch ergeben sich deutliche Unterschiede<br />
im Alpenraum. Die Reduktion der Modelldruckdaten nach der Standard-<br />
Methode hat den Vorteil, dass die Daten der beiden Quellen auf die gleiche Art<br />
verändert werden und daher eine bessere Vergleichbarkeit gegeben ist (siehe weiter<br />
unten).<br />
Werte wie die potentielle Temperatur θ oder die äquivalentpotentielle Temperatur θe<br />
gehören nicht zum regulären Modelloutput und werden daher zu Beginn des<br />
Vergleiches aus den Parametern der untersten Modellfläche berechnet. Anschließend<br />
werden die Modelldaten mittels eines einfachen Interpolationsschemas<br />
(Cressman) auf die VERA-Gitterpunkte gebracht. Auf Grund der hohen Auflösung<br />
der Modelle ist diese einfache Interpolationsmethode zulässig. Es werden die in<br />
einem passend gewählten Umkreis um den Analysegitterpunkt liegenden Modellgitterpunkte<br />
mit einer Abstandsgewichtung versehen, um einen skalenkompatiblen<br />
Modellwert auf dem VERA-Gitter zu erhalten. Die Wahl des Cressman-Interpolationsradius<br />
richtet sich nach der Auflösung des Modells. Bei einem grobmaschigem<br />
Modell muss der Interpolationsradius größer gewählt werden als bei feinmaschigen,<br />
um eine Mindestanzahl von Gitterpunkten für die Interpolation heranzuziehen.<br />
Ansonsten resultiert ein unnatürlich strukturiertes (verrauschtes) Differenzfeld (siehe<br />
weiter unten).<br />
Anhang 1 11<br />
Teilbericht 1
Im Gegensatz zu dem reduzierten Druck ist bei θ und θe auch die unterschiedliche<br />
Topographie von Modell und Analyse zu beachten. Dabei werden unter Annahme<br />
einer Standardatmosphäre die auf der Modelltopographie berechneten Werte mit<br />
einem konstanten Gradienten auf die in VERA verwendete Topographie (Minimumtopographie)<br />
gebracht. Die Minimumtopographie repräsentiert an jedem Gitterpunkt<br />
die minimale Seehöhe aller im Umkreis eines vorgegebenen Radius befindlichen<br />
Gitterpunkte. Standardmäßig wird ein Radius von 10 km und ein topographisches<br />
Gitter im 1 km Raster verwendet.<br />
Abb. 12 zeigt wie unterschiedliche Druckreduktionen das Ergebnis beeinflussen<br />
können. Im linken Bild (Vergleich VERA – modellreduzierter Druck) sind die Beträge<br />
der Differenzen deutlich höher als im rechten Bild (Vergleich VERA – mit Standard-<br />
Methode reduziertem Modelldruck). Der nach dem Modellschema reduzierte Modelldruck<br />
war also über den Alpen höher als der nach dem Standard-Schema reduzierte<br />
Modelldruck, der wie man im rechten Bild sieht, deutlich besser mit der Analyse<br />
übereinstimmt.<br />
Abb. 12: Beispiel für die Auswirkungen unterschiedlicher Druckreduktionen<br />
Abb. 13 zeigt den Einfluss verschiedener Interpolationsradien. Im linken Bild wurde<br />
der Cressman-Interpolationsradius mit 30 km, im Rechten mit 50 km angesetzt. Das<br />
kleinräumige Rauschen ist in der rechten Abbildung nicht zu bemerken, die Strukturen<br />
stimmen jedoch in den beiden Bildern überein.<br />
Abb. 13: Beispiel für die Auswirkung unterschiedlicher Cressman-Radien<br />
12 Anhang 1<br />
Teilbericht 1
Bei einem Vergleich der Windfelder haben bisherige Auswertungen gezeigt, dass<br />
kein systematischer Unterschied zwischen den Differenzen über den Alpen und<br />
denen im Flachland besteht, so dass Korrekturen über dem komplexeren Gelände in<br />
dieser Auflösung nicht sinnvoll erscheinen. Allerdings ist zu beachten, dass durch die<br />
ausschließliche Verwendung von niedrig gelegenen (Tal-) Stationen in der Analyse<br />
Kanalisierungseffekte auftreten.<br />
Der oben beschriebene Modellvergleich wurde auf folgende Modellläufe angewandt:<br />
Laufinitialisierung Auflösung Gitterpunkte Eckpunkte<br />
ALADIN 05.-09.1<strong>1.</strong>99<br />
jeweils 00UTC<br />
9 km 153 x 101<br />
BOKU<br />
d1<br />
03.1<strong>1.</strong>99 00UTC 45 km 110 x 88<br />
BOKU<br />
d2<br />
03.1<strong>1.</strong>99 00UTC 15 km 82 x 58<br />
IGAM<br />
v12 d1<br />
03.1<strong>1.</strong>99 00UTC 45 km 110 x 88<br />
IGAM<br />
v12 d2<br />
03.1<strong>1.</strong>99 00UTC 15 km 82 x 58<br />
IGAM<br />
v17 d1<br />
03.1<strong>1.</strong>99 00UTC 45 km 110 x 88<br />
IGAM<br />
v17 d2<br />
03.1<strong>1.</strong>99 00UTC 15 km 82 x 58<br />
IGAM<br />
v18 d1<br />
03.1<strong>1.</strong>99 00UTC 45 km 110 x 88<br />
IGAM<br />
v18 d2<br />
03.1<strong>1.</strong>99 00UTC 15 km 82 x 58<br />
IGAM<br />
v21 d1<br />
03.1<strong>1.</strong>99 00UTC 45 km 50 x 50<br />
ÎGAM<br />
v21 d2<br />
03.1<strong>1.</strong>99 00UTC 15 km 82 x 58<br />
ARCS<br />
d1<br />
03.1<strong>1.</strong>99 00UTC 45 km 110 x 88<br />
ARCS<br />
d2<br />
03.1<strong>1.</strong>99 00UTC 15 km 82 x 88<br />
Kurzbeschreibung der IGAM – Versionen (von Heimo Truhetz):<br />
0,98/39,98<br />
24,08/51,95<br />
-13,92/31,70<br />
60,17/62,62<br />
4,04/42,41<br />
19,73/49,92<br />
-13,92/31,70<br />
60,17/62,62<br />
4,04/42,41<br />
19,73/49,92<br />
-13,92/31,70<br />
60,17/62,62<br />
4,04/42,41<br />
19,73/49,92<br />
-13,92/31,70<br />
60,17/62,62<br />
4,04/42,41<br />
19,73/49,92<br />
-0,71/37,08<br />
28,69/56,09<br />
4,05/42,26<br />
17,70/49,77<br />
-9,79/33,28<br />
46,77/59,15<br />
3,36/42,50<br />
17,92/49,54<br />
# Version | DATUM | Beschreibung<br />
#------------------------------------------------------------------------------------------------------<br />
# v12 | 29.09.2004 | (het) lowest SOIL-layer depth corrected<br />
# | | 268 cm -> 289 cm (Vtable.SOIL affected)<br />
# | | Code 235 (skin temp.) taken as skin temp.<br />
# | | (former: 235 taken as sea surface temp.)<br />
# | | MMINPUT contains initial cond. only.<br />
# v17 | 15.10.2004 | (het) High vertical resolution -> 42 levels<br />
# | | ERA40 model level data are vertically<br />
# | | interpolated to 43 pressure levels (afterburner)<br />
# | | bevor lateral boundary conditions are constructed.<br />
# v18 | 29.10.2004 | (het) shallow convection turned off; one-way nesting<br />
# v21 | 02.1<strong>1.</strong>2004 | (het) smaller DOMAIN 1: 88 x 110 -> 50 x 50 grid-cells<br />
# | | feedback (DOMAIN 2 -> 1) is heavily damped<br />
#------------------------------------------------------------------------------------------------------<br />
Anhang 1 13<br />
Teilbericht 1
Für die vorhandenen Testdatensätze wurden Vergleiche mit VERA-Analysen<br />
folgender Parameter durchgeführt (jeweils 2D):<br />
• vom Modell reduzierter Druck<br />
• mit Standardformeln reduzierter Druck von der untersten Modellfläche<br />
gerechnet<br />
• potentielle Temperatur<br />
• äquivalentpotentielle Temperatur<br />
• 2D Wind<br />
• Mischungsverhältnis<br />
Im Rahmen eines Treffens der Mitglieder der WP VALID 3-1 am 19. Februar 2004<br />
wurde das Mischungsverhältnis als zusätzlicher VERA-Parameter gewünscht und<br />
auch implementiert. Die Parameter Tmin und Tmax für die Sensitivitätsläufe wurden als<br />
nicht notwendig erachtet, falls die Sensitivitätsläufe im dreistündigen Zeitintervall<br />
abgespeichert werden. Für den Jahreslauf reichen Tagesmittelwerte. Sämtliche<br />
Punkte wurden im Treffen am 27.Mai 2004 von allen Projektmitgliedern befürwortet<br />
(siehe Protokoll ebendort).<br />
Die statistischen Maße wurden in der Sitzung vom 27. Mai 2004 festgelegt und<br />
implementiert. Dies sind:<br />
• Mittelwert,<br />
• RMSE,<br />
• Bias bzw. Bias-korrigierter RMSE,<br />
• das Taylor-Diagramm mit seinen Statistiken (Standardabweichungen<br />
Modell und Beobachtung, sowie Korrelationskoeffizient) sowie<br />
• der Fisher skill score,<br />
• der Bias skill score und<br />
• der total skill score<br />
Die Statistiken wurden für die entsprechend definierten Klimagebiete (siehe Anhang<br />
A) sowie für das Gesamtgebiet (=Summe der Klimagebiete) berechnet.<br />
2.3 Erste Ergebnisse:<br />
Die Fallstudie erlaubt noch kein einheitliches Bild der einzelnen Modell<strong>version</strong>en,<br />
dennoch lassen sich aber bereits erste Erkenntnisse über die Modellperformance<br />
gewinnen. Es wurden die Zeitverläufe sämtlicher Parameter für alle Klimagebiete und<br />
alle Modell<strong>version</strong>en berechnet. Ferner sind für die gesamte Episode Vergleiche für<br />
sämtliche Parameter und Modell<strong>version</strong>en vorhanden, ebenso die Taylor–diagramme.<br />
Dieses umfangreiche Material kann in diesem Endbericht nur exemplarisch<br />
gezeigt und diskutiert werden.<br />
Als Beispiel wird der reduzierte Bodendruck gezeigt:<br />
Die Abb. 14 und 15 zeigen BIAS bzw. das Taylordiagramm für den reduzierten<br />
Bodendruck, jeweils für den gesamten Vorhersagezeitraum. Zwei Modell<strong>version</strong>en<br />
zeigen einen höheren BIAS an, während alle anderen Versionen einen wesentlich<br />
geringen BIAS besitzen. Das ALADIN Modell ist durch wird alle 24 Stunden neu<br />
gestartet ist also mit den anderen Modellen nicht direkt vergleichbar. ARCS, BOKU<br />
und IGAM verwenden partiell das gleiche Modellsetup, trotzdem kommt es zu unterschiedlichen<br />
Ergebnissen. Dies ist noch weiter zu diskutieren. Im Taylordiagramm<br />
14 Anhang 1<br />
Teilbericht 1
liegen alle Läufe sehr nahe am Verifikationspunkt (rot). Dieses Diagramm erhält erst<br />
bei den geplanten Sensitivitätsstudien seine eigentliche Relevanz.<br />
BIAS<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
-1<br />
-2<br />
Gebietevergleich Aladin & MM5 (Domäne 1)<br />
alles rhein bayer nordo<br />
Klimagebiet<br />
suedo panno poebe<br />
Aladin<br />
BOKU d1<br />
ARCS d1<br />
IGAM v12 d1<br />
IGAM v17 d1<br />
IGAM v18 d1<br />
IGAM v21 d1<br />
Abb. 14: Modellvergleich des BIAS des reduzierten Bodendrucks aller Klimagebiete für den gesamten<br />
Vorhersagezeitraum<br />
Abb. 15: Taylordiagramm für den reduzierten Bodendruck für den gesamten Vorhersagezeitraum<br />
Anhang 1 15<br />
Teilbericht 1
Literatur<br />
Groehn, I., R. Steinacker, Ch. Häberli, W. Pöttschacher, M. Dorninger, 1998: Results of<br />
DAQUAMAP: Characteristics of Humidity Observations of Alpine Synoptic Network, MAP<br />
Newsletter Nr. 9, p. 54-55.<br />
Groehn, I., R. Steinacker, Ch. Häberli, W. Pöttschacher, M. Dorninger, 1999: DAQUAMAP-<br />
results and response of providers, MAP Newsletter Nr. 11, p. 76.<br />
Groehn, I., R. Steinacker, Ch. Häberli, W. Pöttschacher, M. Dorninger, 2000: DAQUAMAP<br />
after SOP, MAP Newsletter Nr. 12, p. 22.<br />
Groehn, I., R. Steinacker, Ch. Häberli, W. Pöttschacher, M. Dorninger, 2000: DAQUAMAP-<br />
results and response of providers, MAP Newsletter Nr. 13, pp. 6-8.<br />
Häberli, Ch. and R. Steinacker, 1998: Quality Assessment of Upper Air Soundings in MAP,<br />
MAP Newsletter Nr. 9, p. 68-69.<br />
Häberli, Ch. and M. Dorninger, 1999: Acquisition of GTS and Routine non GTS<br />
Meteorological Data during MAP.Part I: Surface Stations. http://www.univie.ac.at/IMG-<br />
Wien/daquamap/acqui<strong>1.</strong>pdf<br />
Häberli, Ch., 1999: Acquisition of GTS and Routine non GTS Meteorological Data during<br />
MAP.Part II: Upper Air Stations. http://www.univie.ac.at/IMG-Wien/daquamap/acqui2.pdf<br />
Pöttschacher, W., R. Steinacker, M. Dorninger, 1996: VERA - A high resolution analysis<br />
scheme for the Atmosphere over complex terrain. 7 th Int. Conf. Mesoscale Processes,<br />
Reading, Amer. Meteor. Soc., pp 245-247.<br />
Pöttschacher, W., Ch. Häberli, R. Steinacker, 1997: The Error Detection and Correction<br />
Module of CALRAS and VERA, MAP Newsletter 7.<br />
Pöttschacher, W. ,R. Steinacker, M. Dorninger, 1998: Topographically Induced Features in<br />
Mesoscale Analysis and Forecast Fields, MAP Newsletter 9, pp. 76-77.<br />
Pöttschacher, W., R. Steinacker, M. Dorninger, 1998: Fingerprint Technique, A Tool for the<br />
Validation of Mesoscale Weather Prediction Models. 25 th Int. Conf. on Alpine Meteorology,<br />
Turin, pp 245-247.<br />
Pöttschacher, W., R. Steinacker, M. Dorninger, 1998: VERA - A Tool for the Validation of<br />
Mesoscale Weather Prediction Models. 8 th Int. Conf. on Mountain Meteorology, Flagstaff,<br />
Amer. Meteor. Soc., pp 156-158.<br />
Schmölz, A., R. Steinacker, W. Pöttschacher, Ch. Häberli, M. Dorninger, 2000: VERA - Two<br />
Dimensional Wind and Air Mass Analyses, MAP Meeting in Bohinjska Bistrica 2000.<br />
Steinacker, R. et al., 1995: Meteorological applications of high resolution topographic data,<br />
MAP Newsletter 3, p. 73.<br />
Steinacker, R., M. Dorninger und W. Pöttschacher. 1996: A high resolution analysis scheme<br />
for the atmosphere over complex terrain: a contribution to MAP, Proceedings 24 th Int. Conf.<br />
Alpine Meteorology. Bled Slovenia, Sept 9-13, 1996.<br />
16 Anhang 1<br />
Teilbericht 1
Steinacker, R., Ch. Häberli, I. Groehn, W. Pöttschacher, M. Dorninger, 1998: DAQUAMAP –<br />
An Initiative to Assess the Performance of Surface Observations in MAP Using a Model<br />
Independent Method. 8 th Int. Conf. on Mountain Meteorology, Flagstaff, Amer. Meteor. Soc.,<br />
pp 113-118.<br />
Steinacker, R., Ch. Häberli, and W. Pöttschacher, 2000: A transparent method for the<br />
analysis and quality evaluation of irregularly distributed and noisy observational data. Mon.<br />
Wea. Rev., Vol. 128, No. 7, pp 2303-2316.<br />
Anhang 1 17<br />
Teilbericht 1
18 Anhang 1<br />
Teilbericht 1
ANHANG A – Klimagebiete<br />
Anhang 1 19<br />
Teilbericht 1
Anhang 1<br />
Teilberichte der Projektpartner<br />
Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />
Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />
Alexander Beck und Bodo Ahrens:<br />
Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />
Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />
Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />
zu den regionalen Klimamodellen<br />
Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />
Validierung – Sensitivitätstests<br />
Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />
MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />
Mario Köstl, Wolfgang Loibl und Johann Züger:<br />
Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung
UNIVERSITÄT WIEN<br />
INSTITUT FÜR METEOROLOGIE UND GEOPHYSIK<br />
VORSTAND: O.UNIV.-PROF. DR. REINHOLD STEINACKER<br />
reclip:more<br />
Research for Climate Protection:<br />
Model Run Evaluation<br />
Projektjahr1<br />
Projektteil IMG-Ahrens/Beck,<br />
Dynamisches Downscaling globaler Klimasimulationen<br />
mit ALADIN<br />
Mittlerer Tagesniederschlag für das Jahr 1999 [mm/d] aus ERA40 Daten und nach dem<br />
dynamischen Downscaling mit ALADIN.<br />
Arbeitsbericht für den Zeitraum <strong>1.</strong>1<strong>1.</strong>2003 – 30.9.2004<br />
von<br />
Alexander Beck und Bodo Ahrens<br />
Institut für Meteorologie und Geophysik (IMGW),<br />
Universität Wien, Österreich.<br />
4. September 2004
INHALTSVERZEICHNIS<br />
1 Bereitstellung der Reanalysedaten (ERA40) für ALADIN (WP 2.3a) .......... 1<br />
2 Abstimmung der geplanten Sensitivitätsexperimente (WP 3.1) ................ 2<br />
3 Durchführung erster Sensitivitätsexperimente (WP 4.4)............................ 4<br />
4 Literatur .......................................................................................................... 8<br />
5 Veröffentlichungen ........................................................................................ 8<br />
ANHANG – Das Limited-Area Modell ALADIN........................................................ 9
1 Bereitstellung der Reanalysedaten (ERA40) für<br />
ALADIN (WP 2.3a)<br />
• ERA40 Daten für das Jahr 1999 in spektraler Auflösung T159 und T106 (60<br />
Modellschichten)<br />
• Umwandlung der Daten in ein für ALADIN geeignete Format<br />
Die ERA40 Daten des EZMW wurden für den Zeitraum 1999 aus dem MARS Archiv<br />
extrahiert. Die für ALADIN aufbereiteten Daten liegen derzeit auf einem Server des<br />
IMGW. Das Datenvolumen beträgt rund 20GB/Jahr (bei T159).<br />
Abb. 1: ERA40 Orographie für das ALADIN Modellgebiet in spektraler Auflösung T159 (links) und<br />
T106 (rechts)<br />
Weiters wurden alle notwendigen Vorbereitungen für die Extraktion der weiteren<br />
MARS Daten für die retrospektiven long-runs im weiteren Projektverlauf durchgeführt,<br />
sodass die Daten gegebenenfalls rasch und effizient für die Nutzung in ALADIN<br />
zur Verfügung stehen.<br />
Anhang 1 1<br />
Teilbericht 2
2 Abstimmung der geplanten Sensitivitätsexperimente<br />
(WP 3.1)<br />
• Sensitivitätsexperimente mit ALADIN zur „Modelldynamik“ (siehe WP4.4)<br />
• Bereitstellung der Modelldaten im „VERA-Format“ für die Validierung (BOKU-<br />
Met)<br />
• Bereitstellung der Modelldaten für die Validierung mit VERA am IMGW<br />
• Bereitstellung von quick-look Karten gem. Vorschlag BOKU-Met vom<br />
2<strong>1.</strong>6.2004<br />
• ALADIN-Daten für „Domaintest MM5“ gem. Vorschlag BOKU-Met vom<br />
2<strong>1.</strong>6.2004<br />
Auf Grundlage der durchgeführten Experimente sowie von früheren Arbeiten, wird<br />
das folgende setup für ALADIN im Rahmen von reclip:more benutzt:<br />
• Direktes Nesting von ALADIN in die globalen Daten (ERA40 bzw. ECHAM)<br />
• Keine Zwischeninterpolation der globalen Daten (zB auf Druckflächen)<br />
• Numerische Auflösung: 12 km, 41 vertikale Schichten (eta-Flächen)<br />
• Modellgebiet: ~2800x2500 km (siehe Abbildung 2, „12 km“ Box)<br />
• Zeitschema: Semi-Lagrange, semi-implizit mit ∆t=514s<br />
Abb. 2: Modellgebiet und Orographie für ALADIN. Der kleinere, schwarz umrandete Bereich im linken<br />
Bild (12 km) umfasst das gewählte Modellgebiet. Der Einfluss einer zusätzlichen 50 km-Domain<br />
wurde in Beck et al. 2004 für das rote umrandete Validierungsgebiet untersucht<br />
Für die Validierung werden die Parameter Temperatur, Spez. Feuchte und Geopotential<br />
jeweils auf 850, 700 und 500 hPa, sowie der Niederschlag herangezogen<br />
(gem. Validierungsvorschlag BOKU-Met vom 2<strong>1.</strong>6.2004). Die Modellergebnisse<br />
werden 6-stündig im „VERA-Format“ für die Validierung bereitgestellt. Dies geschieht<br />
durch Übertragung der genannten Parameter auf den ftp-Server von BOKU-Met.<br />
Weiters werden ALADIN-Daten für das stochastische Downscaling zur Verfügung<br />
gestellt. Dies geschieht in enger Abstimmung mit W. Schöner (ZAMG). Der<br />
Austausch erfolgt ebenfalls im VERA-Format. Die Modelldaten für die gewünschten<br />
Parameter liegen auf dem Modellgitter in (zumindest) 6h zeitlicher Auflösung vor. Ein<br />
Testdatensatz wurde an W. Schöner (ZAMG) übermittelt.<br />
2 Anhang 1<br />
Teilbericht 2
Abb. 3: Beispiel für Wetterkarten wie sie an BOKU-Met geliefert werden: 500hPa und Vertikalbewegung<br />
(links) sowie T850 (rechts) der ALADIN Vorhersage für den <strong>1.</strong>7.1999<br />
Die Verwendung eines aufwendigeren Strahlungsschemas (FMR, eventuell RRTM)<br />
im Modell wird anhand eines Sensitivitätsexperimentes für 1999 untersucht. Die<br />
Vorbereitungen für dieses Experiment sind abgeschlossen, die Durchführung erfolgt<br />
im Laufe des August 2004. Dieses Experimentes soll als Entscheidungsgrundlage für<br />
das Strahlungsschema in den long-runs dienen. Insbesondere müssen die<br />
zusätzlichen Kosten (Rechenzeit!) im Vergleich zur möglichen Verbesserung der<br />
Ergebnisse beurteilt werden. Diese Evaluierung sollte im Rahmen der allgemeinen<br />
Validierung durch BOKU-Met passieren.<br />
Als ersten Schritt zur Untersuchung der Wechselwirkung Atmosphäre und Boden<br />
wurde die Möglichkeit der Verwendung von CORINE Daten in ALADIN untersucht.<br />
Eine Verwendung dieser Daten im Bodenschema von ALADIN (ISBA; Noilhan und<br />
Mahfouf, 1996) scheint derzeit nur mit sehr großem Aufwand möglich. Außerdem<br />
erfordert die Verwendung des CORINE-Datensatzes ein umfangreiches preprocessing<br />
um von den enthaltenen Bodenklassen die für ISBA notwendigen<br />
Parameter abzuleiten. Des Weiteren müsste im Vorfeld das Problem der vorhandenen<br />
„Datenlücken“ (also Länder für die keine CORINE-Daten vorliegen) geklärt<br />
werden. Ähnliche Probleme treten bei der Verwendung des ARC-eigenen Landcover<br />
Modells auf. Aus den genannten Gründen scheint eine Verwendung der CORINE-<br />
Daten (oder ARC-eigenen Daten) für ALADIN im Rahmen von reclip:more nicht<br />
praktikabel zu sein. Nichtsdestotrotz soll im Zuge der Weiterentwicklung des<br />
Bodenschemas die Möglichkeit der Verwendung von CORINE-Daten geprüft werden.<br />
Dies soll im Herbst 2004 im Rahmen eines mehrwöchigen Arbeitsbesuches von B.<br />
Ahrens in Toulouse diskutiert werden.<br />
Die ersten ALADIN-Daten (für das gesamte Jahr 1999) zur Validierung mit VERA<br />
wurden im Laufe des Frühjahrs an B. Chimani (IMGW) übermittelt.<br />
Die Abstimmung bezüglich der 3D-Validierung erfolgt mit den Kollegen am IGAM. Ein<br />
diesbezüglicher Vorschlag von A. Gobiet für das Datenformat liegt vor. ALADIN-<br />
Pseudotemps (im vereinbarten Format) für den Zeitraum 3.1<strong>1.</strong> – 9.1<strong>1.</strong>1999 wurden<br />
an IGAM übermittelt (2<strong>1.</strong>9.2004).<br />
Anhang 1 3<br />
Teilbericht 2
3 Durchführung erster Sensitivitätsexperimente (WP 4.4)<br />
• Sensitivitätsexperimente zur Nesting-Strategie beim regionalen Downscaling<br />
für Herbst 1999 (MAP SOP; Beck et al. 2004)<br />
• Sensitivitätsexperimente zum optimalen ALADIN-setup bei der Reinitialisierung<br />
für das gesamte Jahr 1999<br />
• Sensitivitätsexperimente zum Einfluss der Auflösung der Nesting-Daten im<br />
Hinblick auf die Verwendung von ECHAM Daten für das Jahr 1999<br />
Um eine möglichst effizient Anwendung von ALADIN zum dynamischen Downscaling<br />
zu ermöglichen, wurde eine Reihe von Sensitivitätsexperimenten durchgeführt. Diese<br />
Experimente sind auf Grund des Downscaling-modes als ALADIN-spezifisch zu<br />
betrachten und konnten daher weitgehend unabhängig von den anderen<br />
Modelliergruppen durchgeführt werden.<br />
Alle Läufe mit ALADIN werden auf dem LINUX-cluster Schroedinger II der Universität<br />
Wien durchgeführt (siehe http://www.univie.ac.at/ZID/schroedinger/). Das postprocessing<br />
der Modelldaten erfolgt am IMGW, wobei der Datentransfer zwischen<br />
cluster und Institut weitgehend automatisiert wurde (shell-scripts und secure-copy).<br />
Für eine möglichst effiziente, regionale Reanalyse, wie sie durch das dynamische<br />
Downscaling verwirklicht wird, ist das Modellnesting von großer Bedeutung. Hierzu<br />
wurde eine Reihe von Experimenten durchgeführt und die Auswirkung verschiedener<br />
Nesting-Strategien auf die Niederschlagsvorhersage evaluiert. Es zeigte sich, dass<br />
für ein dynamisches downscaling auf den betrachteten Skalen (globale Daten<br />
~120 km, ALADIN ~12 km) eine direktes Nesting von ALADIN in Reanalysedaten<br />
möglich ist und im Vergleich zu aufwendigeren Verfahren ähnliche Ergebnisse liefert<br />
(Beck et al. 2004). Daher soll im Rahmen von reclip:more ALADIN direkt in die<br />
globalen Antriebsdaten genestet werden.<br />
Für das dynamische Downscaling werden die atmosphärischen Parameter in<br />
ALADIN tägliche neu initialisiert. Die Bodenparameter können entweder ebenfalls<br />
täglich neu initialisiert werden, oder aus dem vorherigen ALADIN Lauf übernommen<br />
werden. Dadurch ist für den Boden eine Art „Klimalauf“ möglich. Diese Konfiguration<br />
wird als „surface-blending“ bezeichnet. Im Rahmen einer Reihe von Sensitivitätsexperimenten<br />
für das Jahr 1999 wurde der Einfluss von unterschiedlichen Bodensetups<br />
(Neuinitialisierung, surface-blending, sowie Mischformen) untersucht. Da das<br />
derzeitige Bodenschema nicht für einen (freilaufenden) Klimalauf gedacht ist, scheint<br />
eine schwache Relaxation zu den globalen Bodenfeldern (aus ERA40 oder ECHAM)<br />
notwendig. Diese Einschätzung wird durch die durchgeführten Experimente bestätigt,<br />
sodass im Rahmen von reclip:more eine surface-blending Konfiguration mit 3 %<br />
Relaxation verwendet werden soll. Die Modelldaten für diese Experimente liegen am<br />
IMG vor und können im Rahmen der Validierung weiter untersucht werden.<br />
4 Anhang 1<br />
Teilbericht 2
Abb. 4: Jahresniederschlag [mm] für das Jahr 1999 vom GPCC (links oben), auf Grundlage von<br />
ERA40-Daten (links unten) und nach dem dynamischen Downscaling mit ALADIN (rechts unten). Das<br />
Bild rechts oben zeigt die für die GPCC-Analyse verwendete Stationsanzahl pro Gitterbox (0.5 Grad)<br />
Abbildung 4 zeigt den Jahresniederschlag (in mm) aus der aktuellen Analyse des<br />
beim Deutschen Wetterdienst angesiedelten Global Precipitation Climatology<br />
Centers (GPCC) für das Jahr 1999 (Auflösung: 0.5 Grad). Man beachte die geringe<br />
Anzahl der verwendeten Messdaten in weiten Bereichen von Ost- und Südeuropa<br />
(Bild links oben). Ein subjektiver Vergleich mit dem Jahresniederschlag von ALADIN<br />
zeigt eine gute Übereinstimmung in Gebieten mit ausreichender Datenbedeckung.<br />
Der Vollständigkeit halber ist auch der ERA40-basierte Jahresniederschlag<br />
dargestellt. Die quantitative Evaluierung dieser Modellergebnisse erfolgt durch<br />
BOKU-Met.<br />
In Hinblick auf die prospektiven Läufe wurden Sensitivitätsexperimente zum Einfluss<br />
der Auflösung der globalen Eingangsdaten durchgeführt. Hierzu wurden die ERA40<br />
Daten sowohl in der spektralen Auflösung T159 als auch in T106 verwendet.<br />
Aufgrund des Modelldesigns am EZMW benutzt das T159 Modell dasselbe GAUSS-<br />
Gitter wie auch das T106 Modell. Diese scheinbare Diskrepanz entsteht durch die<br />
Semi-Lagrange Behandlung der Advektionsterme im EZMW Modell. Das T159<br />
Modell benutzt ein so genanntes lineares GAUSS-Gitter weil die Berechnung der<br />
nichtlinearen Produkte in den Advektionstermen durch die SL-Formulierung<br />
vermieden wird. Im ECHAM Modell muss aber ein so gennantes quadratisches<br />
Anhang 1 5<br />
Teilbericht 2
GAUSS-Gitter verwendet werden, wodurch bei gleicher Gitterpunktsanzahl nur ein<br />
geringere spektrale Auflösung (nämlich T106) numerisch möglich ist. Um den<br />
Einfluss der verringerten spektralen Auflösung zu untersuchen, wurde für das Jahr<br />
1999 ein ALADIN-Experiment mit T106 Eingangsdaten gerechnet. Ein subjektiver<br />
Vergleich der beiden Läufe (basierend auf T159 bzw. T106 Daten) zeigt eine gute<br />
Übereinstimmung sowohl auf Monatsbasis (siehe Abbildung 5) als auch für das<br />
gesamte Jahr 1999.<br />
Abb. 5: Mittlerer täglicher Niederschlag für den Zeitraum Juni-Juli-August 1999 in mm/Tag. Im linken<br />
Bild wurde ALADIN in globale ERA40-Daten mit spektraler Auflösung T159, im rechten Bild mit T106<br />
genestet<br />
Die Verwendung der hoch auflösenden Modelldaten beispielsweise in der hydrologischen<br />
Modellierung stellt nicht nur eine wichtige Anwendung meteorologischer<br />
Daten dar, sondern bietet auch die Möglichkeit einer „indirekten Validierung“ der<br />
Eingangsdaten durch unabhängige Messdaten (zB, Ahrens et al. 2003). Abbildung 6<br />
zeigt als Beispiel einer solchen Anwendung die simulierte Abflussganglinien in einem<br />
alpinen Einzugsgebiet basierend auf ALADIN-Niederschlagsdaten mit 12 km und<br />
50 km Gitterpunktsabstand. Das verwendete hydrologische Modell ist WaSim-ETH<br />
(Schulla 1997) Für die MAP SOP zeigen die ALADIN-basierten Simulationen eine<br />
zufriedenstellende Performance im Vergleich zur Simulation mit beobachteten<br />
Niederschlagsdaten. Außerdem zeigt sich eine signifikante Verbesserung des<br />
modellierten Abflusses, wenn Eingangsdaten mit 12 km anstatt mit 50 km verwendet<br />
werden. Diese Verbesserung bestätigt eindrücklich die (direkte) Anwendbarkeit von<br />
ALADIN auf der 12 km Skala auf Grundlage von grob aufgelösten (120 km)<br />
Eingangsdaten.<br />
6 Anhang 1<br />
Teilbericht 2
Abb. 6: Anwendung der ALADIN-Niederschlagssimulationen mit 12 km (rot) und 50 km (blau)<br />
Auflösung als Eingangsdaten für die hydrologische Modellierung. Die schwarze Linie (Stat) verwendet<br />
beobachtete Niederschläge und „Obs“ zeigt den gemessenen Gebietsabfluss<br />
Die Schnittstelle zwischen ECHAM Daten und ALADIN wurde vorbereitet. Nachdem<br />
die Festlegung auf ECHAM5 erst im Juni 2004 erfolgte, sind hier noch kleine<br />
Änderungen notwendig. Insbesondere werden in ECHAM5 neben Daten im GRIB-<br />
Format auch Daten im netCDF Format verwendet. Dies betrifft die klimatologischen<br />
Bodendaten, sowie SST und sea-ice. Da die Bodendaten auch teilweise für die<br />
Interpolation notwendig sind, müssen hier noch kleine Anpassungen an den<br />
Einleseroutinen vorgenommen werden.<br />
Ein Testdatensatz von einem ECHAM5 Lauf der ETH Zürich liegt vor und wurde den<br />
Projektpartner am IGAM übermittelt. Im Rahmen eines Besuches an der ETH Zürich<br />
durch A. Beck (2<strong>1.</strong> bis 23. Juli 2004, siehe Kurzbericht vom 25. Juli 2004) wurden<br />
Details zum Datenformat und den vorliegenden Parametern besprochen.<br />
Anhang 1 7<br />
Teilbericht 2
4 Literatur<br />
Ahrens, B., K. Jasper and J. Gurtz, 2003: On ALADIN precipitation modeling and validation<br />
in an Alpine watershed. Annales Geophysicae, 21, 627-637.<br />
Beck, A., B. Ahrens und K. Stadlbacher, 2004: Impact of nesting strategies in dynamical<br />
downscaling of reanalysis data. Geophysical Research Letters, in print.<br />
Noilhan, J. und J.-F. Mahfouf, 1996: The ISBA land surface parameterization scheme. Global<br />
and Plan. Change, 13, 145-159.<br />
Schulla, J., 1997: Hydrologische Modellierung von Flussgebieten zur Abschätzung der<br />
Folgen von Klimaänderungen. ETH Zürich, Zürcher Geographische Schriften, 69, 187pp.<br />
5 Veröffentlichungen<br />
Beck, A., B. Ahrens und K. Stadlbacher, 2004: Impact of nesting strategies in dynamical<br />
downscaling of reanalysis data (4 Seiten).<br />
Poster EGU 1 st general assembly 2004: Beck, A. und B. Ahrens, 2004: Dynamical<br />
downscaling of reanalysis data over Central Europe (Poster, 1 Seite).<br />
Extended Abstract workshop LUND: Dynamical Downscalig with the Limited-Area Model in<br />
the European Alps (2 Seiten).<br />
8 Anhang 1<br />
Teilbericht 2
ANHANG – Das Limited-Area Modell ALADIN –<br />
Ein Überblick<br />
Einleitung<br />
ALADIN (http://www.cnrm.meteo.fr/aladin/) ist ein spektrales limited-area model (LAM). Das<br />
Konzept des ALADIN Projektes wurde im Jahre 1990 von Météo-France initiiert. Das<br />
vorrangige Ziel war dabei, die Zusammenarbeit auf dem Gebiet der numerischen<br />
Wettervorhersage (NWP) mit den nationalen meteorologischen Diensten vorwiegend in<br />
Zentral- und Osteuropa. Das Akronym ALADIN (Aire Limitée Adaptation dynamique<br />
Développement InterNational) beschreibt auch diesen Gedanken: Gemeinsame Entwicklung<br />
eines LAM, das mit vergleichsweise geringem (numerischen) Aufwand lokale, hoch<br />
auflösende Kurzfristvorhersagen erlaubt. ALADIN wird operationell in fünfzehn Ländern auf<br />
unterschiedlichen Rechnersystemen betrieben (vom LINUX PC bis zum Supercomputer).<br />
ALADIN ist in das Vorhersagepaket ARPEGE/IFS integriert und nutzt einen Teil des codes<br />
von den beiden globalen Systemen. Insbesondere bietet sich die Möglichkeit, dass Teile des<br />
variationellen Assimilationssystems in ALADIN benutzt werden können. Des Weiteren bildet<br />
das (globale) Ensemblevorhersagesystem die Grundlage für entsprechende Systeme im<br />
Rahmen von ALADIN.<br />
Abb. 1: Die operationellen ALADIN Gebiete sowie die verwendeten Zwischennester.<br />
Im operationellen Betrieb wird ALADIN in ein oder mehreren Schritten in das von Meteo-<br />
France betriebene Globalmodell ARPEGE genestet. Die numerische Auflösung von<br />
ARPEGE beträgt über Europa ~20-30 km. Darin wird operationell ALADIN mit
Ausgewählte technische Details zu ALADIN<br />
ALADIN ist ein spektrales, hydrostatisches LAM mit druckbasierten, terrainfolgenden<br />
(hybriden) eta-Koordinaten in Analogie zu ARPEGE/IFS. Es benutzt ein effizientes semiimplizites,<br />
semi-lagrange'sches 2- oder 3-Ebenen Advektionsschema sowie ein umfangreiches<br />
Physik-Paket. Die existente nicht-hydrostatische Modell<strong>version</strong> wird weder im<br />
operationellen Betrieb noch im Rahmen von reclip:more benutzt und daher hier nicht weiter<br />
diskutiert.<br />
Die Anwendung von harmonischen Funktionen zur<br />
räumlichen Diskretisierung erfordert zusätzlich zur<br />
coupling- oder Relaxationszone noch eine so<br />
genannte „Extension zone“ am Nord- und Ostrand<br />
des Modellgebietes (s. Abbildung 2). Die Relaxation<br />
innerhalb der coupling-Zone (typisch, 8 Gitterpunkte<br />
breit) basiert auf einem Exponentialansatz nach<br />
Davies (1976), wobei unterschiedliche Exponenten<br />
für die verschiedenen Variablen benutzt werden.<br />
Die Parametrisierungen (Gerard 2001) umfassen<br />
Abb. 2: Modelldomäne (schematisch)<br />
unter anderem eine Grenzschicht- und Turbulenzformulierung nach Louis et al. (1982), eine<br />
Konvektionsparametrisierung nach Geleyn (1987), das Bodenschema ISBA (Noilhan und<br />
Planton 1989), sowie das Strahlungsschema von Ritter und Geleyn (1992). In der operationellen<br />
Anwendung (und auch im Rahmen von reclip:more) wird derzeit noch ein diagnostisches<br />
Wolken- und Niederschlagsschema nach Kessler (1969) benutzt. Wesentliche<br />
Teile des Physikpaketes stammen aus ARPEGE. Da ALADIN primär für die Wettervorhersage<br />
konzipiert ist, sind die Parametrisierungen mehr oder weniger stark für diese<br />
Anwendung optimiert.<br />
Das Projekt ALADIN-climate<br />
Der Einsatz von ALADIN zur regionalen Klimasimulation ist neu und stellt eine wesentliche<br />
Erweiterung gegenüber dem Einsatz in Rahmen von NWP dar. Das im Rahmen von<br />
reclip:more betriebene „Dynamische downscaling mit ALADIN“ kann als eine Art<br />
„Zwischenschritt“ in Richtung der regionalen Klimamodellierung gesehen werden. Die<br />
Entwicklung einer echten Klima<strong>version</strong> von ALADIN (ALADIN-climate) wird seit kurzer Zeit in<br />
Toulouse und Prag betrieben. Die Idee besteht darin, Erfahrungen aus der Entwicklung der<br />
Klima<strong>version</strong> von ARPEGE (ARPEGE-climate; zB Déqué und Piedelievre 1995) auch im<br />
Rahmen von ALADIN sinnvoll einzusetzen. Dies betrifft insbesondere die Modifikation der<br />
physikalischen Parametrisierungen für Klimaanwendungen (zB Strahlung, Bodenschema).<br />
Dynamisches Downscaling adaptiert die grobskaligen Muster, wie sie in ERA40 bzw.<br />
ECHAM5 dargestellt sind, an die hoch aufgelöste Orographie, Landnutzung, etc. Dabei wird<br />
die volle Dynamik und Physik des LAMs zur Adaptierung verwendet. Dadurch wird den<br />
grobskaligen Mustern ein regionales Klimaforcing aufgeprägt. Der Einsatz von ALADINclimate<br />
im Rahmen von reclip:more ist nicht geplant, da das Modell noch nicht ausreichend<br />
getestet werden konnte. Die Anwendung eines im Alpenraum nicht ausreichend evaluierten<br />
regionalen Klimamodells ALADIN-climate ist langfristig geplant, aber zum jetzigen Zeitpunkt<br />
verfrüht. Außerdem bietet sich durch das dynamische Downscaling eine „billige“ und robuste<br />
Methode zur Regionalisierung von globalen Klimasimulationen.<br />
10 Anhang 1<br />
Teilbericht 2
Zukunft<br />
Die Zukunft von ALADIN muss für die beiden Anwendungen NWP und Klima gesondert<br />
betrachtet werden. Für NWP Zwecke wird ALADIN auf Grundlage des französischen<br />
Forschungsmodells Meso-NH weiterentwickelt (siehe Abbildung 3). Konkret werden der<br />
nicht-hydrostatische dynamische Kern sowie die Gesamte Datenassimilation aus ALADIN<br />
mit der Physik von Meso-NH verschmolzen. Das dabei entstehende Modell ALARO soll in<br />
Zukunft für die operationelle Vorhersage auf der 2 km Skala eingesetzt werden.<br />
ALADIN-CLIMATE<br />
Abb. 3: Geplante Entwicklung im Zusammenhang mit ALADIN<br />
Im Bereich der Klimamodellierung (ALADIN-climate) scheint vorerst eine weitere Anbindung<br />
an ARPEGE-climate auf Grundlage des vorhandenen ALADIN Systems sinnvoll zu sein. Der<br />
Schritt in Richtung noch höherer Auflösung wie er im NWP Bereich mit ALARO gegangen<br />
wird, ist für Klimafragen wegen der enormen numerischen Kosten, aber auch methodischer<br />
Grenzen (predictability) vorerst wenig sinnvoll.<br />
Anhang 1 11<br />
Teilbericht 2
Literatur<br />
Bubnova, R., G. Hello, P. Bernard, and J.-F. Geleyn, 1995: Integration of the fully elastic<br />
equations cast in the hydrostatic pressure terrain–following coordinate in the framework of<br />
the ARPEGE/ALADIN NWP system, Mon. Wea. Rev., 123, 515–535.<br />
Davies, H., 1976: A lateral boundary formulation for multi–level prediction models, Quart. J.<br />
R. Met. Soc., 102, 405-418.<br />
Déqué, M., and J. Piedelievre, 1995: High resolution climate simulation over Europe. Clim.<br />
Dyn., 11, 321-33<br />
Geleyn, J.-F., 1987: Use of a modified Richardson number for parametrizing the effect of<br />
shallow convection. J. Meteor. Soc. Japan, Special NWP symposium issue, 141-<br />
149.<br />
Gerard, L., 2001: ALADIN's Operational Physics Documentation. http://www.cnrm.<br />
meteo.fr/ALADIN/MODELES/EXT/Physics.<br />
Horányi, A., I. Ihász, and G. Radnóti, 1996: ARPEGE/ALADIN: A numerical weather<br />
prediction model for Central-Europe with the participation of the Hungarian Meteorological<br />
Service. Idójárás, 100, 277-30<strong>1.</strong><br />
Kessler, E., 1969: On the distribution and continuity of water substance in atmospheric<br />
circulations. Meteor. Monogr., 10, 1-84.<br />
Louis, J.F., M. Tiedke, and J.-F. Geleyn, 1982: A short history of the PBL parameterizations<br />
at ECMWF. Proc. of the ECMWF workshop on planetary boundary parameterization,<br />
Reading, 25-27 Nov. 1981, 59-80.<br />
Noilhan, J., and S. Planton, 1989: A simple parameterization of land surface processes for<br />
meteorological models. Mon. Wea. Rev., 117, 536-550.<br />
Ritter, B., and J.-F. Geleyn, 1992: A comprehensive radiation scheme for numerical weather<br />
prediction models with potential applications in climate studies. Mon.Wea. Rev., 120, 303-<br />
325.<br />
12 Anhang 1<br />
Teilbericht 2
Anhang 1<br />
Teilberichte der Projektpartner<br />
Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />
Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />
Alexander Beck und Bodo Ahrens:<br />
Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />
Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />
Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />
zu den regionalen Klimamodellen<br />
Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />
Validierung – Sensitivitätstests<br />
Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />
MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />
Mario Köstl, Wolfgang Loibl und Johann Züger:<br />
Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung
eclip:more<br />
Research for Climate Protection:<br />
Model Run Evaluation<br />
Projektjahr 1<br />
Projektteil ZAMG<br />
Datenbereitstellung, Entwicklung von<br />
Regionalisierungstools und einer Schnittstelle zu den<br />
regionalen Klimamodellen<br />
Arbeitsbericht für den Zeitraum <strong>1.</strong>1<strong>1.</strong>2003 – 30.9.2004<br />
von<br />
Wolfgang Schöner und Elsa Dos Santos Cardoso<br />
Zentralanstalt<br />
für Meteorologie und Geodynamik<br />
Wien, 19. November 2004
INHALTSVERZEICHNIS<br />
1 Aufgabenstellung .............................................................................................. 1<br />
2 Stand der Forschung ........................................................................................ 1<br />
2.1 Regionalisierungsmethoden für das Tagesmittel der Lufttemperatur ........... 3<br />
2.2 Regionalisierungsmethoden für Tagessummen des Niederschlags............. 3<br />
2.3 Regionalisierungsmethoden für Tageswerte der Schneehöhe..................... 5<br />
3 ZAMG Datenbereitstellung ............................................................................... 6<br />
4 Statistisches Downscaling mit Clim.Pact........................................................ 6<br />
5 Schnittstelle MM5 beziehungsweise ALADIN mit Clim.Pact.......................... 8<br />
6 Regionalisierungstool basierend auf Klimanormalgrids ............................... 8<br />
7 Regionalisierungstool mit EOF Feldern der Orographie als Prädikator......10<br />
8 Erste Validierungsergebnisse .........................................................................18<br />
9 Ausblick ............................................................................................................23<br />
10 Literatur.............................................................................................................24<br />
ANHANG – AML-scripts für die Interpolation der Parameter...............................27
1 Aufgabenstellung<br />
Für das von systems research geleitete Projekt reclip:more war im Rahmen eines<br />
Werkvertrages ein Methodenwerkzeug für ein verfeinertes Downscaling von MM5-<br />
und ALADIN-Läufen zu entwickeln. Die gewünschte zeitliche Auflösung war mit 1<br />
Tag und die gewünschte räumliche Auflösung mit bis zu 1 km x 1 km vorgegeben.<br />
Die zu entwickelnden Tools sollen ein automatisiertes Downscaling langer Zeitreihen<br />
für die Klimaparameter Lufttemperaturmittel und Niederschlagssumme ermöglichen.<br />
Zusätzlich waren lange Zeitreihen auf Tageswertbasis für die Klimaparameter Lufttemperatur,<br />
Niederschlag und Schneehöhe für das Projekt bereitzustellen. Im Einzelnen<br />
waren folgende Workpackages der reclip:more Feinstruktur durchzuführen:<br />
WP 2.<strong>1.</strong> Bereitstellung österreichischer Messdaten<br />
WP 5.<strong>1.</strong> Schnittstelle MM5 bzw. ALADIN – Regionalisierungstool entwickeln<br />
WP 5.2a. Regionalisierungstool Temperatur mean<br />
WP 5.3. Regionalisierungstool Niederschlag<br />
WP 5.4. Regionalisierungstool Schneedecke<br />
Als wichtiges Methodenwerkzeug war in Vorgesprächen eine Festlegung auf das in R<br />
programmierte Downscalingtool CLIM.PACT (Benestad 2003a, 2003b) erfolgt. Dieses<br />
Tool, das bisher in Skandinavien Anwendung fand, war für den Alpenraum zu<br />
adaptieren und für ein Downscaling vieler Zeitreihen zu optimieren. Die geographische<br />
Verfeinerung sollte mittels Fortran Programmen oder ArcInfo Scripts ermöglicht<br />
werden.<br />
2 Stand der Forschung<br />
Upscaling bezeichnet die Übertragung von Information auf eine größere Skalenebene.<br />
Die Skalierung kann sich dabei sowohl auf Raum als auch Zeit beziehen. Downscaling<br />
bezeichnet den umgekehrten Vorgang (Übertragung auf kleinere Skalenebene).<br />
Die Skalierung wird im Allgemeinen auf ein regelmäßiges Gitter durchgeführt.<br />
Begriffe die ähnlicher Form verwendet werden sind zB Downward transformation oder<br />
Regionalisierung. Zu beachten ist in diesem Zusammenhang ob die Skalierung<br />
auf ein Gitter (Gitterpunktwerte) oder auf ein Grid (Pixelwerte, Gridbox, Mittelwerte<br />
der Zellflächen) gewünscht wird. Die folgende Zusammenfassung bezieht sich auf<br />
Ergebnisse des räumlichen Skalierens in der Klimaforschung (wobei die räumliche<br />
Skalierung nicht strikt von der zeitlichen Skalierung zu trennen ist). Der Fokus wird<br />
hier auf eine räumliche Skala bis ca. 1 km gelegt.<br />
Anhang 1 1<br />
Teilbericht 3
Ein Downscaling von Klimaläufen von GCMs wird im allgemeinen mittels statistischem<br />
(empirischen) Modell (Regression, CCA, Analogmethode etc.) oder mittels<br />
Kopplung mit einem Regionalmodell (zB MM5) durchgeführt. Eine Kombination von<br />
dynamischem und statistischem Downscaling wurde bis jetzt selten durchgeführt. Der<br />
Grund dafür ist, dass Regionalmodelle derzeit noch nicht auf hinreichende räumliche<br />
Auflösung hinunterskaliert werden können (siehe zB Ahrens 2003). Benestad (2004)<br />
hat einen derartige Methode für ein verfeinertes Downscaling für den skandinavischen<br />
Raum entwickelt. Der methodische Ansatz gliedert sich dabei in 2 Schritte:<br />
1) Empirisches Downscaling der Läufe des Regionalmodells an Stationskoordinaten<br />
2) Geographische Verfeinerung und Interpolation des empirischen Downscaling<br />
Die dabei erzielten Ergebnisse haben nicht nur eine bessere Anpassung an die geographischen<br />
Gegebenheiten der Klimastationen, sondern liegen dann auch als räumliche<br />
Grids vor. Dadurch sind sie für Climate Impact Modelle im Allgemeinen besser<br />
verwendbar.<br />
Methoden für das empirische Downscaling des Regionalmodells können analog den<br />
Methoden für das empirische Downscaling von Globalmodellen verwendet werden.<br />
Im Rahmen dieser Arbeit wurde dabei das von R. Benestad (met.no) entwickelte und<br />
frei erhältliche Programmpaket clim.pact (Benestad, 2003b) verwendet (http://cran.rproject.org).<br />
Dieses erlaubt eine umfangreiche EOF-Analyse (Empirical Orthogonal<br />
Function, siehe zB Storch und Zwiers, 1999) von meteorologischen Feldern und ein<br />
Downscaling mittels multipler linearer Regression. Als Erweiterung ist auch ein Modul<br />
für die Analogmethode verfügbar. Die Analogmethode ist besonders für das Downscaling<br />
des Niederschlags auf Tageswertbasis geeignet (Gamma-Verteilung der Tagessummen<br />
des Niederschlags).<br />
In ähnlicher Weise wie clim.pact gibt es auch SDSM (Statistical DownsScaling Model,<br />
https://co-public.lboro.ac.uk/cocwd/SDSM/) Dieses Programmpaket arbeitet unter<br />
Windows und ist jedoch weniger flexibel als clim.pact. Für Österreich wurden richtungsweisende<br />
Arbeiten für ein empirisches Downscaling von C. Matulla durchgeführt<br />
(zB Matulla und Haas 2003, Matulla et al., 2004). Dabei wurden CCA, (Canonical<br />
Correlation Analysis) MLR (Multiple Linear Regression) und Analogmethode für<br />
Österreich adaptiert. Diese Methoden wurden jedoch für die kommerzielle Software<br />
Matlab entwickelt und sind daher von einer Matlab-Lizenz abhängig.<br />
Für das „geographical refinement“ des empirischen Downscaling können zahlreiche<br />
Methoden des Upscaling verwendet werden. Die meisten Arbeiten in der Literatur<br />
zum Thema räumliches Upscaling im Bereich ca. 25 m-5 km sind für die Klimaelemente<br />
Lufttemperatur und Niederschlag zu finden. Die verwendete zeitliche Auflösung<br />
liegt dabei bei Tages- und Monatswerten, Jahreszeitenwerten, Jahres- oder<br />
Klimanormalwerten (nur selten Stundenwerten). Sehr oft wird für die notwendige Interpolation<br />
auf GIS-Softwareprodukte zurückgegriffen. Meist bedient man sich<br />
(geo)statistischer Interpolationsmethoden. Die häufigste Fragestellung ist die Übertragung<br />
von Punktinformationen (Klimastationen) in die Fläche. Im Allgemeinen sind<br />
im vorliegenden Maßstab rein geostatistische Interpolationen nicht zielführend, da die<br />
interessierenden räumlichen Muster nicht aufgelöst werden. Eine Modellierung des<br />
deterministischen Anteils ist notwendig, wobei sich als Prädiktoren zB eignen:<br />
2 Anhang 1<br />
Teilbericht 3
1) DHM:<br />
Seehöhe<br />
DHM-abgeleitete Info wie Hangneigung, Orientierung, Krümmung,<br />
EOF Komponenten des DHM,<br />
DHM-Statistiken<br />
2) Geographische Koordinaten und daraus abgeleitete Info wie Entfernung zur Küste<br />
3) Landnutztung:<br />
Rauhigkeit<br />
Albedo<br />
Hydrographische Info<br />
4) Klimamodelloutput:<br />
EOF von Druckfeldern<br />
Wetterlagen (Strömungslagen)<br />
5) Fernerkundungsdaten<br />
6) Radardaten<br />
2.1 Regionalisierungsmethoden für das Tagesmittel der Lufttemperatur<br />
Ansätze die den deterministischen Anteil der Interpolation nicht extra behandeln<br />
sondern die Punktwerte direkt interpolieren (zB Kriging, IDW, Radial Basis Function,...)<br />
sind für die betrachtete Skala nicht zielführend, da die räumlichen Strukturen<br />
nicht aufgelöst werden. Die meisten Ansätze zur Interpolation der Lufttemperatur beziehen<br />
sich daher auf die Höhenabhängigkeit der Temperatur (deterministischer Anteil)<br />
in Form von Regressionen (Abbildungen 1 und 2). Jedoch ist die Korrelation zwischen<br />
Tagesmitteltemperatur und Seehöhe nur in den Sommermonaten hoch. In den<br />
Wintermonaten ist auf Grund von In<strong>version</strong>swetterlagen oft keine Höhenabhängigkeit<br />
zu finden. Eine Verbesserung der Ergebnisse für die Wintermonate kann durch Einbeziehen<br />
topographischer Formen (zB durch EOF des Geländes, AURELHY Methode,<br />
Benichou, 1985) und Wetterlagen erzielt werden (zB Tveito, in prep.). Nach Behandlung<br />
des deterministischen Anteils kann durch Interpolation des stochastischen<br />
Anteils zB durch Residual-Kriging eine weitere Verbesserung des Ergebnisses erzielt<br />
werden.<br />
2.2 Regionalisierungsmethoden für Tagessummen des Niederschlags<br />
Eine gute Übersicht über Methoden der räumlichen Interpolation (Spatialisation) von<br />
Niederschlagsdaten findet sich in Mestre (2002).<br />
Recht gute Interpolationsergebnisse wurden bei wetterlagenabhängigen Algorithmen<br />
erzielt (zB Tveito et al., 2000 für Norwegen, Phillips and McGregor für England). Neben<br />
Methoden, die die Wetterlagenabhängigkeit des Niederschlags berücksichtigen,<br />
bewähren sich auch recht gut Methoden die die Orographie berücksichtigen. So bewährt<br />
sich zB die AURELHY Methode (EOF Analyse des DHM für deterministischen<br />
Anteil und anschließendes Residual-Kriging) (Benichiou, 1987) recht gut. Die AU-<br />
Anhang 1 3<br />
Teilbericht 3
RELHY Methode wurde international viel verwendet und modifiziert (zB Göbbel et al.,<br />
1998). Eine Verbesserung der räumlichen Information von Niederschlagsfeldern auf<br />
Tageswertbasis ist auch die kombinierte Verwendung von Radardaten und Stationsdaten<br />
zu erzielen.<br />
Die Verwendeten Methoden lassen sich grob in 3 Klassen einteilen:<br />
• einfache akkumulierte Radar/Stationsdaten Quotienten<br />
• geostatistische Ansätze besonders Co-Kriging<br />
• Neuronale Netze<br />
0.8<br />
0.6<br />
0.4<br />
0.2<br />
0<br />
-0.2<br />
-0.4<br />
-0.6<br />
-0.8<br />
-1<br />
-<strong>1.</strong>2<br />
0<strong>1.</strong>0<strong>1.</strong>1948<br />
0<strong>1.</strong>0<strong>1.</strong>1949<br />
CORRELATIO<br />
0<strong>1.</strong>0<strong>1.</strong>1950<br />
0<strong>1.</strong>0<strong>1.</strong>1951<br />
0<strong>1.</strong>0<strong>1.</strong>1952<br />
0<strong>1.</strong>0<strong>1.</strong>1953<br />
0<strong>1.</strong>0<strong>1.</strong>1954<br />
0<strong>1.</strong>0<strong>1.</strong>1955<br />
Abb. 1: Tägliche Korrelation zwischen Lufttemperatur und Seehöhe für 70 Österreichische Stationen<br />
0.02<br />
0.015<br />
0.01<br />
0.005<br />
0<br />
-0.005<br />
-0.01<br />
-0.015<br />
-0.02<br />
LAPSE RATE<br />
Abb. 2: Tägliche Höhengradienten der Temperatur für 70 Österreichische Stationen<br />
0<strong>1.</strong>0<strong>1.</strong>1956<br />
4 Anhang 1<br />
Teilbericht 3<br />
0<strong>1.</strong>0<strong>1.</strong>1957<br />
0<strong>1.</strong>0<strong>1.</strong>1958<br />
0<strong>1.</strong>0<strong>1.</strong>1959<br />
0<strong>1.</strong>0<strong>1.</strong>1960
Nykanen and Harris (2003) verwendeten für das Upscaling von Tagessummen einen<br />
Multi-Scale statistischen Ansatz (das Feld wird dabei durch 3 Parameter verschiedener<br />
Skala beschrieben zB Smoothness, Intermittency, Spikeness) um den<br />
Einfluss der Orographie zu untersuchen. Das verwendete Upscaling eignet sich gut<br />
für den Bereich 20 km auf 1 km.<br />
2.3 Regionalisierungsmethoden für Tageswerte der Schneehöhe<br />
Tageswerte der Neuschneehöhe und Gesamtschneehöhe liegen zB vom Schweizer<br />
Lawinenwarndienst (SLF) auf dessen Webpage vor. Da das Ziel jedoch nur eine<br />
räumliche Visualisierung ist (keine Gitterpunktswerte) und auch subjektive Ziele verfolgt<br />
ist die verwendete Methode nicht hoch auflösend. Jedoch existiert vom SLF<br />
auch ein hochkomplexes physikalisches Schneedeckenmodell (SNOWPACK, Lehning<br />
1998). Das Modell wird zunehmend auch für Klimafragestellungen verwendet.<br />
Abb. 3: Prozesse die ein Schneedeckenmodell beeinflussen<br />
Quelle: http://www.wsl.ch/slf/lwr/prozessmodelle/aufgaben.html<br />
In Frankreich wird mit Erfolg das SAFRAN Modell (Vormodell von CROCUS) für die<br />
Schneedeckenmodellierung verwendet (siehe zB Brun et al., 1992, Durand et al.,<br />
1993, Martin et al. 1997). SAFRAN erzeugt den meteorologischen Input für das<br />
Schneedeckenmodell CROCUS. In zeitlicher Auflösung von 1 Stunde werden die<br />
meteorologischen Felder berechnet. Die räumliche Verortung erfolgt nicht mit geographischen<br />
Koordinaten sondern für klimatologisch homogene Teilflächen (besonders<br />
für den Niederschlag, dh. für jedes Massiv werden gleiche Höhenzonen und<br />
Expositionen zusammengefasst). Folgende Analysefelder werden erzeugt: Temperatur,<br />
Wind (Richtung und Geschwindigkeit), Feuchte, Niederschlag, Bewölkung, Strahlung<br />
(Direkt- und Himmels-, Langwellig). Für die Interpolation wird Optimal Interpolation<br />
(OI) verwendet. Als guess-field für OI wird mit Ausnahme des Niederschlags<br />
ECMWF oder ARPEGE verwendet. Für den Niederschlag werden klimatologische<br />
Muster (Höhengradienten) für verschiedene Gebiete verwendet. Aufbauend auf den<br />
Anhang 1 5<br />
Teilbericht 3
meteorologischen Input wird die Schneedecke mittels des SAFRAN Modells modelliert<br />
wobei die Strahlungsbilanz, Energiebilanz und Massenbilanz berechnet werden.<br />
SAFRAN-CROCUS wurde mit Erfolg auch für die Untersuchung klimabedingter Änderung<br />
auf die Schneedecke, Hydrologie und Ökologie eingesetzt.<br />
Tveito et al. (in prep.) und Skaugen et al. (2003) haben für den operationellen Einsatz<br />
zur Berechnung von Tageswerten der Schneehöhe und des Wasseräquivalentes<br />
eine einfaches Indexmodell entwickelt, dass Tageswerte des Niederschlags<br />
und der Lufttemperatur verwendet.<br />
Für Österreich liegen umfangreiche Arbeiten von Blöschl (zB 1991) vor. Das verwendete<br />
physikalische Modell ist jedoch auf die Verwendung zur Abflussprognose auf<br />
Einzugsgebietsebene optimiert. Hantel et al., 1999 entwickelten ein statistisches Modell<br />
der Schneedeckendauer basierend auf einen nichtlinearen Zusammenhang zwischen<br />
Lufttemperatur, Seehöhe und Schneedeckendauer.<br />
3 ZAMG Datenbereitstellung<br />
Die ZAMG hat für das Projekt reclip:more auch die Bereitstellung von Stationsdaten<br />
übernommen. Dafür wurde der aus dem Projekt STARTCLIM bestehende Datensatz<br />
im ASCII Format bereitgestellt. Dieser Datensatz ist qualitätsverbessert aber nicht<br />
homogenisiert. Auf Tageswertbasis liegen für 70 österreichische Stationen folgende<br />
Daten vor:<br />
• Maximumtemperatur<br />
• Minimumtemperatur<br />
• Mitteltemperatur<br />
• Niederschlagssumme<br />
• Schneehöhe<br />
Die Daten sind auf der zum Bericht gehörenden CD abgespeichert.<br />
4 Statistisches Downscaling mit Clim.Pact<br />
Für die empirische Verfeinerung des dynamischen Downscaling (MM5, ALADIN) fiel<br />
die Wahl auf das von R. Benestad entwickelte Programmpaket clim.pact. Dieses Paket<br />
ist für die in Punkt 1 angeführten Zwecke sehr gut geeignet und mittlerweile auch<br />
ausreichend getestet (zB Benestad 2004a, 2004b) und dokumentiert. Eine Verwendung<br />
für den Alpenraum liegt bis jetzt nicht vor. Für das geographische Verfeinern<br />
auf ein 1km x 1km Gitter wird an das clim.pact Downscaling ein ArcInfo AML Skript<br />
angeschlossen (siehe Beschreibungen unter Punkt 6 und 7). Dieses zweistufige Verfahren<br />
hat zwei wesentliche Vorteile:<br />
a) Parallel zum dynamischen Downscaling kann mit clim.pact auch ein rein empirisches<br />
Downscaling von GCM Daten durchgeführt werden. Dadurch kann ein eventueller<br />
Fortschritt (und die Notwendigkeit des höheren Aufwandes) des zwi-<br />
6 Anhang 1<br />
Teilbericht 3
schengeschalteten dynamischen Downscaling gezeigt werden. Der zusätzliche<br />
Aufwand für das direkte empirische Downscaling ist relativ gering – der Nutzen<br />
sicherlich sehr groß (da bei beiden Downscaling-Methoden dieselben Ausgangsdaten<br />
verwendet werden können).<br />
b) Eventuell zukünftige Erweiterungen von clim.pact (z.B. die geplante Integration<br />
neuer Methoden wie Verwendung von Neuralen Netzwerken oder CCA) können<br />
sehr einfach mit dem „geographical refinement tool“ verknüpft werden.<br />
Abb. 4: Strukturgramm des Downscaling der adaptierten Version von clim.pact<br />
Zu Punkt a) ist die Arbeit von Hellström und Chen (2003) zu erwähnen, die für das<br />
Downscaling des Niederschlages auf Monatswertebasis in Schweden zeigen konnten,<br />
dass der wesentlich höhere Aufwand des kombinierten Ansatzes aus dynami-<br />
Anhang 1 7<br />
Teilbericht 3
schen und statistischem Downscaling nur eine geringfügig bessere Modellperformance<br />
bringt um den Jahresgang des Niederschlages zu beschreiben. Dieses<br />
Ergebnis kann natürlich nicht ohne weiters auf andere Regionen übertragen werden.<br />
Für die Beschreibung der von Benestad entwickelten empirischen Downscaling-<br />
Methode (MLR) beziehungsweise der Erweiterung für die Analogmethode sei auf die<br />
dem Bericht beigegebene CD mit den entsprechenden Beschreibungen verwiesen<br />
(Benestad, 2003a, 2003b bzw. http://cran.r-project.org/doc/packages/clim.pact.pdf<br />
und Imbert, 2003 bzw. http://cran.r-project.org/doc/packages/anm.pdf).<br />
5 Schnittstelle MM5 beziehungsweise ALADIN mit<br />
Clim.Pact<br />
Die Schnittstelle zwischen CLIM.PACT und MM5 bzw. ALADIN wurde über das<br />
NetCDF Datenformat gelöst. CLIM.PACT kann dieses Datenformat unmittelbar verwenden.<br />
Während MM5 einen Output im NetCDF Format ablegen kann, gibt es eine<br />
derartige Schnittstelle für ALADIN nicht. Der Output wird daher im ASCII Format zur<br />
Verfügung gestellt, wobei die „VERA-Struktur“ (Output für Validierung mit VERA)<br />
verwendet wird. Dieser Output wird mit einer eigenen Einleseroutine (in R) gelesen<br />
und ebenfalls in das NetCDF Format gebracht. Dazu wird das R-Package NetCDF<br />
verwendet. Da auch für MM5 eine Schnittstelle geschaffen wird, mit der ein Output in<br />
das VERA-ASCII Format gebracht werden kann, ist die Einleseroutine auch in gleicher<br />
Weise für die Schnittstelle MM5-clim.pact verwendbar.<br />
6 Regionalisierungstool basierend auf Klimanormalgrids<br />
Das Tool für die Regionalisierung basierend auf Klimanormalgrids auf den monatlichen<br />
Klimakarten der Periode 1961-90 (zB der Lufttemperaturberuht die im Rahmen<br />
des Projektes ÖKLIM erarbeitet wurden). Die monatlichen ÖKLIM Lufttemperaturgrids<br />
zeichnen sich durch eine detaillierte Modellierung der Temperaturstrukturen<br />
für das österreichische Gebiet aus (Böhm und Potzmann, 1999), berücksichtigen<br />
auch Gebiete mit häufigen In<strong>version</strong>en, Föhn oder Seeklima. Aus diesen Karten wird<br />
mittels gewichteter Mittelwertbildung für jeden Tag des Jahres eine Karte der Lufttemperatur<br />
berechnet. Anschließend werden die Differenzen der aktuellen Messwerte<br />
der Klimastationen eines Tages zu den entsprechenden Pixelwerten der Klimakarten<br />
berechnet. Diese Differenzen werden dann mittels eines Thin-Plate-Spline Algorithmus<br />
interpoliert und dann die Interpolierten Differenzen den Klimamittelkarten zugerechnet<br />
und so der endgültige Raster berechnet (Abbildung 5).<br />
8 Anhang 1<br />
Teilbericht 3
Am Beispiel der Lufttemperatur wäre das:<br />
T(x,y,m,d) = Tclim(x,y,m,d) + Te(x,y,m,d) + ε<br />
x,y .... geographische Koordinaten m ... Monat d ... Tag<br />
wobei Tclim der aus den Klimagrids berechnete Anteil ist (deterministischer Anteil) und<br />
Te das stochastisch erklärbare Residuenfeld ist (ε ist das weder deterministisch noch<br />
stochastisch erklärbare Residuum).<br />
Für die Mittelung wird folgender Ansatz verwendet (für Monate mit 30 Tage):<br />
Tclim(x,y,m,d) = (Tclim(x,y,m-1) * d + Tclim(x,y,m) * (15-d))/15 für d < 15<br />
Tclim(x,y,m,d) = Tclim(x,y,m) für d = 15<br />
Tclim(x,y,m,d) = ((Tclim(x,y,m) * (30-d) + Tclim(x,y,m+1) (d-15))/15 für d > 15<br />
Für die anderen Monate erfolgt eine analoge Gewichtung.<br />
Te(x,y,m,d) wird mittels Thin-plate-spline interpoliert. Diese Interpolationsmethode hat<br />
als mathematischen Ansatz die Minimierung der Krümmung der interpolierten Kurve.<br />
Abb. 5: Strukturgramm des Regionalisierungstools für die Temperatur<br />
Anhang 1 9<br />
Teilbericht 3
Diese Methode eignet sich für die Lufttemperatur aber nicht für den Niederschlag.<br />
Analog kann für die Lufttemperatur aber auch die unter Punkt 7. entwickelte Methode<br />
(abgewandelte AURELHY Methode) angewandt werden. Auch könnte eine bestehende<br />
Methode, die tägliche Höhengradienten der Lufttemperatur aus Stationswerten<br />
berechnet und dann mittels der ermittelten Regression in die Fläche interpoliert<br />
(und auch wieder eine Interpolation des Residuenfeldes durchführt) verwendet<br />
werden. Welche Methode zu welcher Jahreszeit besser funktioniert muss in einem<br />
nächsten Schritt validiert werden, wobei auch verschiedene Ansätze bei der EOF-<br />
Auswahl getestet werden müssten.<br />
7 Regionalisierungstool mit EOF Feldern der Orographie<br />
als Prädikator<br />
Für die Regionalisierung der Stationswerte auf einen 1x1km Raster wird eine Methode<br />
verwendet, die der so genannten AURELHY-Methode (Benichou, 1985) sehr ähnliche<br />
ist. Diese Methode führt eine PC-Analyse (Principle Component Analysis,<br />
Hauptkomponentenanalyse) der Orographie durch und beschreibt die Geländeform<br />
durch eine Anzahl von PCs (Principle Components, Hauptkomponenten). Dabei wird<br />
das digitale Geländemodell in quadratische Ausschnitte von 11x11 Pixel zerlegt. Von<br />
jedem Pixelwert im Ausschnitt wird die Höhe des Zentralpixels abgezogen und so<br />
eine relative Orographie bestimmt. Die 11x11=121 Höhenwerte werden mittels der<br />
PCA auf die Anzahl n der wichtigsten PCs reduziert. Diese PCs sowie die Seehöhe<br />
Longitude und Latitude werden als unabhängige Prädiktoren für die Ermittlung einer<br />
multiplen linearen Regression verwendet.<br />
In der derzeit erstellten Form des Regionalisierungstools erfolgt die Interpolation mit<br />
der Gleichung:<br />
X = b0 + b1DEM + b2LAT + b3LONG + b4EOF1-1 + b5EOF2-1 + b6EOF3-1 +<br />
b7EOF1-2 + b8EOF2-2 + b9EOF3-2 + Xs + ε<br />
mit: DEM Seehöhe des Gridpoints im DEM 1km Grid<br />
LAT geographische Breite des Gridpoints<br />
LONG geographische Länge des Gridpoints<br />
EOF1-1 Komponentenwert des 1ten EOFs basierend auf das 5 km DEM<br />
EOF2-1 Komponentenwert des 2ten EOFs basierend auf das 5 km DEM<br />
EOF3-1 Komponentenwert des 3ten EOFs basierend auf das 5 km DEM<br />
EOF1-2 Komponentenwert des 1ten EOFs basierend auf das 10 km DEM<br />
EOF2-2 Komponentenwert des 2ten EOFs basierend auf das 10 km DEM<br />
EOF3-2 Komponentenwert des 3ten EOFs basierend auf das 10 km DEM<br />
Xs stochastischeR Anteil (Thin-Plate Spline Interpolation)<br />
ε weder deterministisch noch stochastisch erklärbareS Residuum<br />
Die Anpassung des Regressionsmodells erfolgt mittels einer schrittweise multiplen<br />
linearen Regression aus den bekannten Klimawerten an den Stationskoordinaten<br />
10 Anhang 1<br />
Teilbericht 3
(abhängige Größe) und den zeitlich konstanten Geländeparametern (unabhängige<br />
Größen). Diese Regression ist für jeden Tag der Untersuchungsperiode zu bestimmen,<br />
anschließend ist die Residueninterpolation durchzuführen (mit Thin-Plate Spline,<br />
analog wäre auch eine Interpolation mit einem Kriging-Ansatz möglich). Die<br />
Struktur des Regionalisierungstools ist in Abbildung 7 dargestellt.<br />
Die Verwendung von Geländeformen zu räumlichen Modellierung des Niederschlags<br />
ist nahe liegend, da die Niederschlagssumme stark von der Geländeform beeinflusst<br />
wird. Gyalistras (2003) zählt jedoch zwei wesentliche Nachteile der AURELHY Methode<br />
auf:<br />
a) es wird nur ein räumlicher Scale des orographischen Einflusses berücksichtigt<br />
(dieser Scale ist jedoch nicht zeitlich und räumlich konstant, wie z.B. Neidhöfer<br />
(2000) zeigen konnte)<br />
b) für das gesamte Untersuchungsgebiet wird eine konstante Beziehung zwischen<br />
Orographie und Niederschlag verwendet<br />
Um die Nachteile von a) auszugleichen wurde im Rahmen dieser Arbeit die AUREL-<br />
HY Methode dahingehend erweitert, dass die PCs für verschiedene Scales bestimmt<br />
wurden und zwar:<br />
- für ein DEM mit 5km räumlicher Auflösung und einer Ausschnittgröße von 11x11<br />
Rasterzellen<br />
- für ein DEM mit 10km räumlicher Auflösung und einer Ausschnittsgröße von<br />
11x11 Rasterzellen.<br />
Nachteil b) sollte für die geplanten reclip-Regionalisierungen nicht von großer Bedeutung<br />
sein, da die Regionalisierungen nur für Study-regions geplant sind. Sollte eine<br />
Erweiterung für eine Regionalisierung größerer Gebiete geplant sein, müsste die Methode<br />
dahingehend adaptiert werden (Einbeziehen einer Wetterlagenabhängigkeit).<br />
Abb. 6: Strukturgramm des Regionalisierungstools für den Niederschlag<br />
Anhang 1 11<br />
Teilbericht 3
Abbildungen 6 zeigt die räumliche Verteilung der Ladungen der jeweils ersten 3 PCs<br />
der PCA der Orographie. Man erkennt deutlich dass die Strukturen im 5 km DEM und<br />
im 10km DEM sehr ähnlich sind. Der 1te PC beschreibt jeweils Kuppen- bzw. Muldenstrukturen<br />
die eine SW-NE Ausrichtung besitzen. Der 2te PC beschreibt S bzw.<br />
nach N ausgerichtete Hänge und der 3te PC schreibt WSW bzw. ENE ausgerichtete<br />
Hänge. Die durch die jeweils ersten 5 PCs erklärte Varianz ist in Tabelle 1 zusammengefasst.<br />
Man sieht sehr deutlich den hohen Anteil der erklärten Varianz durch<br />
den 1ten PC. Mit den ersten 3 PCs kann ein Großteil der Geländestruktur beschrieben<br />
werden.<br />
Tabelle 1: Erklärte Varianz (%) an der Orographiestruktur eines 5 km und 10 km Höhenraster durch<br />
die ersten 5 PCs<br />
Raster PC1 PC2 PC3 PC4 PC5<br />
5 km x 5 km 44.4 12.7 4.5 2.3 2.0<br />
10 km x 10 km 40.3 2<strong>1.</strong>8 4.6 2.8 <strong>1.</strong>8<br />
12 Anhang 1<br />
Teilbericht 3
Abb. 7: Strukturgramm des Regionalisierungstools mit EOF Feldern der Orographie als Prädiktor<br />
Der Ausschnitt des zugrunde liegenden Geländemodell (GTOPO30 des USGS) wird<br />
in Abbildung 8 und 9 gezeigt. Das Höhenraster wurde dafür auf eine räumliche Auflösung<br />
von 5 km und 10 km interpoliert. In den anschließenden Abbildungen 10 bis<br />
15 sind die räumlichen Verteilungen der Komponentenwerte für die jeweiligen PCs<br />
(sowohl für das 5km DEM als auch für das 10km DEM) dargestellt.<br />
Anhang 1 13<br />
Teilbericht 3
Abb. 8: Das verwendete DEM 5 km basierend auf USGS-GTOPO30<br />
Abb. 9: Das verwendete DEM 10 km basierend auf USGS-GTOPO30<br />
14 Anhang 1<br />
Teilbericht 3
Abb. 10: Räumliche Verteilung der Komponentenwerte für den PC1 für das DEM 5 km<br />
Abb. 11: Räumliche Verteilung der Komponentenwerte für den PC2 für das DEM 5 km<br />
Anhang 1 15<br />
Teilbericht 3
Abb. 12: Räumliche Verteilung der Komponentenwerte für den PC3 für das DEM 5 km<br />
Abb. 13: Räumliche Verteilung der Komponentenwerte für den PC1 für das DEM 10 km<br />
16 Anhang 1<br />
Teilbericht 3
Abb. 14: Räumliche Verteilung der Komponentenwerte für den PC2 für das DEM 10 km<br />
Abb. 15: Räumliche Verteilung der Komponentenwerte für den PC3 für das DEM 10 km<br />
Anhang 1 17<br />
Teilbericht 3
8 Erste Validierungsergebnisse<br />
Eine ausführliche Validierung war im Rahmen des ersten Projektjahres auf Grund der<br />
vorhandenen Resourcen nicht möglich. Auch liegen keine hinreichend langen Zeitreihen<br />
der für die Validierung notwendigen Modellläufe der Regionalmodelle MM5<br />
und ALADIN vor. Damit kann die notwendige Optimierung der dynamisch herunterskalierten<br />
Prädiktoren für das weitere empirische Downscaling nicht durchgeführt<br />
werden. Für diese Optimierung ist sowohl die Auswahl der benötigten Felder aus<br />
dem Regionalmodell als auch die räumliche Domain festzulegen.<br />
Um trotzdem eine erste Validierung der entwickelten Regionalsierungsmethoden zu<br />
ermöglichen, wurden mittels Analogmethode herunterskalierte Zeitreihen täglicher<br />
Niederschlagssummen aus dem Projekt StartClim 04 verwendet. Diese Zeitreihen<br />
liegen für alle 70 StartClim Stationen vor. Die von Matulla et al. (2004) entwickelte<br />
Analog Methode wurde in Matlab implementiert und verwendet mittels EOF-Analyse<br />
gefilterte ERA-40-Felder als Prädiktoren. Die in dieser Validierung verwendeten Niederschlagszeitreihen<br />
wurden von Matulla et al. (2004) aus dem MSLP-Feld (mean<br />
sea level pressure) bestimmt. Die von Matulla in Matlab angewandte Methode kann<br />
analog mit clim.pact durchgeführt werden. Für die folgenden Vergleiche wurde der<br />
Dezember 1980 aus dem StartClim04 Datensatz ausgewählt.<br />
Abb. 16: Das Stationsnetz des StartClim Datensatzes<br />
Das verwendete Stationsnetz ist aus Abbildung 16 zu ersehen. Es ist klar, dass die<br />
durch StartClim erreichte räumliche Dichte für die Interpolation des Niederschlags<br />
nicht hinreichend sein kann. So verwendeten etwa Schöner et al. (2001) für die Interpolation<br />
der Jahressumme des Niederschlags (der Klimanormalperiode 1961-90)<br />
in Österreich 900 Niederschlagsmessstellen. Zusätzlich ist auch die Abdeckung der<br />
StartClim Stationen im Höhenprofil nicht adäquat.<br />
Der ausgewählte Dezember 1980 ist durch Niederschläge am Monatsanfang (ca. 3.<br />
bis 6. Dezember) und durch mehrere Niederschlagstage zwischen ca. 13. und 27.<br />
Dezember gekennzeichnet. Die Niederschlagsmengen sind in Abbildung 17 durch<br />
18 Anhang 1<br />
Teilbericht 3
mehrere statistische Kenngrößen (Median, Mittel und Maximum) dargestellt. Basierend<br />
auf die herunterskalierten Tageswerte der Niederschlagssummen erfolgte die<br />
Anpassung des multiplen linearen Regressionsmodells (mittels Schrittweise Methode)<br />
für jeden Tag mit nennenswerten Niederschlag wobei die 6 EOFs sowie LAT,<br />
LONG und DEM als Prädiktoren verwendet wurden. Die täglichen Korrelationskoeffizienten<br />
sind in Abbildung 18 dargestellt, die täglichen Werte des RSME (root mean<br />
square error) sind aus Abbildung 19 zu ersehen.<br />
Man erkennt, dass die erreichten Korrelationskoeffizienten zwischen 0,3 und nahe<br />
0,9 liegen. Tage mit höherem Niederschlag zeigen im Allgemeinen höhere Korrelationen<br />
(der 5. Dezember ist aber eine markante Ausnahme). Die erzielten RMSE<br />
betragen bis nahezu 9 mm. Zieht man die ungenügende räumliche Dichte des Messnetzes<br />
und die Größe des Untersuchungsgebietes in Betracht, dann ist das Ergebnis<br />
als überraschend gut einzustufen. Dies wird auch durch den in Abbildung 18 dargestellten<br />
Vergleich der multiplen Methode mit einer einfachen Methode der Höhenabhängigkeit<br />
des Niederschlags deutlich. Die einfache Methode erzielt bedeutend<br />
schlechtere Korrelationskoeffizienten.<br />
Niederschlag (mm)<br />
50,0<br />
45,0<br />
40,0<br />
35,0<br />
30,0<br />
25,0<br />
20,0<br />
15,0<br />
10,0<br />
5,0<br />
0,0<br />
19801201<br />
19801202<br />
19801203<br />
19801204<br />
19801205<br />
19801206<br />
19801207<br />
19801208<br />
19801209<br />
19801210<br />
19801211<br />
19801212<br />
19801213<br />
19801214<br />
19801215<br />
Anhang 1 19<br />
Teilbericht 3<br />
19801216<br />
19801217<br />
19801218<br />
19801219<br />
Median Mittel Maximum<br />
Abb. 17: Tägliche Niederschlagssummen von 70 StartClim Stationen im Dezember 1980 bestimmt<br />
mittels Analogmethode aus ERA-40 MSLP (Quelle: Matulla et al., 2004)<br />
Pearson Korrelationskoeffizient<br />
1<br />
0,9<br />
0,8<br />
0,7<br />
0,6<br />
0,5<br />
0,4<br />
0,3<br />
0,2<br />
0,1<br />
0<br />
19801201<br />
19801202<br />
19801203<br />
19801204<br />
19801205<br />
19801206<br />
19801207<br />
19801208<br />
19801209<br />
19801210<br />
19801211<br />
19801212<br />
19801213<br />
19801214<br />
19801215<br />
Abb. 18: Täglicher Werte der multiplen Korrelationen zwischen Niederschlagssumme und 9 Prädiktoren<br />
(Lat, Long, 6 EOF Komponentenwerte, DEM) (Auswahl der Prädiktoren erfolgte mittels eines multiplen<br />
linearen Stepwise Regression Ansatzes) (rot) im Vergleich zur Korrelation zwischen Niederschlagssumme<br />
und DEM (blau)<br />
19801216<br />
19801217<br />
19801218<br />
19801219<br />
19801220<br />
19801220<br />
19801221<br />
19801221<br />
19801222<br />
19801222<br />
19801223<br />
19801223<br />
19801224<br />
19801224<br />
19801225<br />
19801225<br />
19801226<br />
19801226<br />
19801227<br />
19801227<br />
19801228<br />
19801228<br />
19801229<br />
19801229<br />
19801230<br />
19801230<br />
19801231<br />
19801231
RSME (mm)<br />
9<br />
8<br />
7<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
19801201<br />
19801202<br />
19801203<br />
19801204<br />
19801205<br />
19801206<br />
19801207<br />
19801208<br />
19801209<br />
19801210<br />
19801211<br />
19801212<br />
19801213<br />
19801214<br />
19801215<br />
Abb. 19: Täglicher Werte des RMSE der multiplen Korrelationen zwischen Niederschlagssumme und<br />
9 Prädiktoren (Lat, Long, 6 EOF Komponentenwerte, DEM); Auswahl der Prädiktoren erfolgte mittels<br />
eines multiplen linearen Stepwise Regression Ansatzes<br />
predicted<br />
y = x + 9E-07<br />
R 2 = 0.7332<br />
0<br />
-10 -5 0 5 10 15<br />
45<br />
03 12 1980<br />
y = x + 2E-06<br />
R 2 40<br />
= 0.1145<br />
35<br />
30<br />
25<br />
20<br />
15<br />
10<br />
5<br />
0<br />
05.12.1<br />
20<br />
15<br />
10<br />
5<br />
-5<br />
-10<br />
measured<br />
0 2 4 6 8 10 12 14 16 18<br />
measured<br />
Abb. 20: Vergleich der gemessenen mit den modellierten Werten der 70 StartClim Stationen für die<br />
Periode 3. bis 6.12.1980<br />
20 Anhang 1<br />
Teilbericht 3<br />
19801216<br />
predicted<br />
19801217<br />
19801218<br />
19801219<br />
y = x + 6E-08<br />
R 2 = 0.5675<br />
19801220<br />
19801221<br />
45<br />
40<br />
35<br />
30<br />
25<br />
20<br />
15<br />
10<br />
5<br />
19801222<br />
19801223<br />
19801224<br />
0<br />
-10 -5 0 5 10 15 20<br />
-5<br />
04 12 1980<br />
-10<br />
y = x - 8E-08<br />
R 2 = 0.563<br />
06.12.1<br />
50<br />
40<br />
30<br />
20<br />
10<br />
0<br />
-10<br />
19801225<br />
measured<br />
-10 -5 0 5 10 15 20 25 30<br />
measured<br />
19801226<br />
19801227<br />
19801228<br />
19801229<br />
19801230<br />
19801231
In Abbildung 20 und 21 sind die Ergebnisse der Modellierung mittels multipler linearer<br />
Regression (measured versus predicted) für die einzelnen Tage dargestellt. Einzelne<br />
Tage zeigen dabei im Vergleich zu den restlichen Tagen eine markant schlechte<br />
Modellperformance. Hier wäre in einem nächsten Schritt eine Verbesserung durch<br />
Einführen von Subregionen oder Wetterlagenäbhängigkeit zu überprüfen.<br />
predicted<br />
y = x + 4E-07<br />
R 2 = 0.5196<br />
20<br />
15<br />
10<br />
5<br />
0<br />
-4 -2 0 2 4 6 8 10 12<br />
18<br />
18 . 12 .1<br />
y = x - 9E-07<br />
R 2 16<br />
= 0.177<br />
14<br />
12<br />
10<br />
8<br />
6<br />
4<br />
2<br />
0<br />
20.12.1<br />
-5<br />
measured<br />
0 1 2 3 4 5 6 7 8 9<br />
y = x + 8E-07<br />
R 2 = 0.3197<br />
measured<br />
0<br />
-6 -4 -2 0 2 4 6 8<br />
22.12.1980<br />
20<br />
15<br />
10<br />
5<br />
-5<br />
-10<br />
measured<br />
y = x + 1E-07<br />
R 2 30<br />
= 0.6324<br />
25<br />
0<br />
-4 -2<br />
19 . 12 .1<br />
0 2 4 6 8 10 12 14 16<br />
-5<br />
Anhang 1 21<br />
Teilbericht 3<br />
20<br />
15<br />
10<br />
5<br />
y = x + 2E-07<br />
R 2 = 0.7743<br />
30<br />
25<br />
20<br />
15<br />
10<br />
5<br />
0<br />
-5<br />
-10<br />
measured<br />
-10 -5 0 5 10 15 20 25<br />
2<strong>1.</strong>12.19<br />
y = x - 2E-06<br />
R 2 = 0.3377<br />
50<br />
40<br />
30<br />
20<br />
10<br />
0<br />
-10<br />
-20<br />
measured<br />
-20 -15 -10 -5 0 5 10 15 20 25<br />
23.12.1<br />
measured<br />
Abb. 21: Vergleich der gemessenen mit den modellierten Werten der 70 StartClim Stationen für die<br />
Periode 18. bis 23.12.1980
Dass eine weitere Verfeinerung der Methode durch Einführung von Subregionen eine<br />
Verbesserung des Modells bringt, wird in den Abbildungen 22 bis 24 gezeigt. Hierfür<br />
wurde das Messnetz der ZAMG (ca. 260 Stationen) verwendet. Für die Periode <strong>1.</strong> bis<br />
15. August 2002 wurde sowohl für Gesamtösterreich als auch für einen Ausschnitt<br />
(ca. von Salzach bis Drau mit ca. 100 km WE-Erstreckung) für jeden Tag eine multiple<br />
lineare Regression (basierend auf den EOF-Feldern der Orographie als Prädiktor)<br />
berechnet. Die untersuchte Periode ist durch teilweise starke Niederschläge geprägt,<br />
die auf advektive Wetterlagen zurückzuführen sind. In den Abbildungen 22 und 23<br />
sind die täglichen multiplen Korrelationskoeffizienten der Untersuchungsperiode dargestellt.<br />
Die erzielten Korrelationskoeffizienten für die Subregion sind deutlich höher<br />
als für das Gesamtgebiet von Österreich, da die angenommene räumliche Konstanz<br />
der Beziehung zwischen Geländeform Niederschlagssumme besser stimmt. Weiters<br />
ist auch hier zu sehen, dass bei Tagen mit höheren Niederschlägen (hier mittels des<br />
Medians aller Stationswerte beschrieben, Abbildung 24) der erzielte Korrelationskoeffizient<br />
höher wird.<br />
1<br />
0,9<br />
0,8<br />
0,7<br />
0,6<br />
0,5<br />
0,4<br />
0,3<br />
0,2<br />
0,1<br />
0<br />
0<strong>1.</strong>08.2002<br />
02.08.2002<br />
03.08.2002<br />
04.08.2002<br />
05.08.2002<br />
06.08.2002<br />
R Gesamt<br />
07.08.2002<br />
08.08.2002<br />
09.08.2002<br />
10.08.2002<br />
1<strong>1.</strong>08.2002<br />
Abb. 22: Tägliche multiple Korrelationen für den Niederschlag unter Verwendung von 9 Prädiktoren<br />
für das Gesamtgebiet von Österreich für die Periode <strong>1.</strong> bis 15. August 2002<br />
1<br />
0,9<br />
0,8<br />
0,7<br />
0,6<br />
0,5<br />
0,4<br />
0,3<br />
0,2<br />
0,1<br />
0<br />
0<strong>1.</strong>08.2002<br />
02.08.2002<br />
03.08.2002<br />
04.08.2002<br />
05.08.2002<br />
06.08.2002<br />
R Ausschnitt<br />
07.08.2002<br />
08.08.2002<br />
09.08.2002<br />
10.08.2002<br />
1<strong>1.</strong>08.2002<br />
Abb. 23: Tägliche multiple Korrelationen für den Niederschlag unter Verwendung von 9 Prädiktoren<br />
für eine Subregion von Österreich für die Periode <strong>1.</strong> bis 15. August 2002<br />
22 Anhang 1<br />
Teilbericht 3<br />
12.08.2002<br />
12.08.2002<br />
13.08.2002<br />
13.08.2002<br />
14.08.2002<br />
14.08.2002<br />
15.08.2002<br />
15.08.2002
500<br />
450<br />
400<br />
350<br />
300<br />
250<br />
200<br />
150<br />
100<br />
50<br />
0<br />
0<strong>1.</strong>08.2002<br />
02.08.2002<br />
03.08.2002<br />
04.08.2002<br />
05.08.2002<br />
06.08.2002<br />
07.08.2002<br />
Median<br />
08.08.2002<br />
09.08.2002<br />
10.08.2002<br />
1<strong>1.</strong>08.2002<br />
Abb. 24: Die täglichen Werte des Medians des Niederschlags für Gesamtösterreich für die Periode <strong>1.</strong><br />
bis 15. August 2002<br />
9 Ausblick<br />
Eine Methode für das geographische Verfeinern von dynamisch herunterskalierten<br />
Klimazeitreihen konnte im Rahmen dieser Arbeit entwickelt werden. Die Methoden<br />
eignen sich für Lufttemperaturmittel und Niederschlagssumme auf Tageswertebasis<br />
oder höherer zeitlicher Aggregation. Erste Validierungsergebnisse zeigen die guten<br />
Möglichkeiten der Methode basierend auf EOF-Analyse der Orographie als Prädiktor.<br />
Für eine routinemäßige Verwendung der Methode sind als nächste Arbeitsschritte<br />
durchzuführen:<br />
1) Festlegung der dynamisch herunterskalierten Prädiktorfelder (MM5 und ALA-<br />
DIN) für das empirische Downscaling mit clim.pact und deren räumliche Auflösung<br />
2) Festlegung des notwendigen geographischen Ausschnittes der dynamisch herunterskalierten<br />
Prädiktorfelder<br />
3) Filterung der Prädiktorfelder mittels EOF-Analyse in clim.pact<br />
4) Weitere Optimierung der Prädiktorfelder für das Regionalsierungstool basierend<br />
auf multipler linearer Regression aus EOF-Analyse der Orographie<br />
5) Umfangreiche Validierung der Methoden<br />
Anhang 1 23<br />
Teilbericht 3<br />
12.08.2002<br />
13.08.2002<br />
14.08.2002<br />
15.08.2002
10 Literatur<br />
Ahrens B. 2003. Rainfall downscaling in an alpine watershed applying a multiresolution approach.<br />
Journal of Geophysical Research, Vol. 108, No. D8, 13-1 – 13-12.<br />
Benestad R. and I. Hanssen-Bauer. 2003a. Empirical-based refinement of dynamically<br />
downscaled temperature scenarios in southern Norway. Met.no Klima Report 07/03, 30p.<br />
Benestad R. 2003b. Clim.pact – V<strong>1.</strong>0. Met.no Klima Report 04/03<br />
Benestad R. 2004. Empirical-Statistical Downscaling in Climate Modeling. Eos, Vol. 85, No.<br />
42, 417-418.<br />
Benichou P. 1985. Classification automatique de configurations meteorologiques sur<br />
l’Europe occidentale. Note de travail du SCEM, n°18, Meteo-Franc Toulouse, 156p.<br />
Böhm, R. und R.Potzmann.1999. Systematic climate mapping in complicated terrain – part<br />
one: From point information to maps of means (a GIS-supported procedure including quantitative<br />
error analysis). ÖGM-bulletin, 99/1, 21-30<br />
Böhm R. I. Auer, M. Brunetti, M. Maugeri, T. Nanni, W. Schöner. 200<strong>1.</strong> Regional temperature<br />
variability in the European Alps: 1760–1998 from homogenized instrumental time series. International<br />
Journal of Climatology Vol. 21, 1779-1801<br />
Blöschl G., D. Gutknecht, R. Kirnbauer. 199<strong>1.</strong> Distributed snowmelt simulations in an Alpine<br />
catchement <strong>1.</strong> Model evaluation on the basis of snow cover patterns. Water resources research<br />
Vol 27, No. 12, 3171-3179<br />
Brun E., P. David, M. Sudul, G. Brunot. 1992. A numerical model to simulate snowcover<br />
stratigraphy for operational avalanche forecasting. Journal of Glaciology 35 (128), 13-22<br />
Carbone G.J., P.D. Bramante. 1995. Translating monthly temperature from regional to local<br />
scale in the southeastern United States. Climate Research Vol.5, 229-242<br />
Carrega P. 1995. A method for reconstruction of mountain air temperatures with automatic<br />
cartographic application. Theoretical and Applied Climatology, 52, 69-84<br />
Conford D. 1998. Incorporating terrain information into spatialisation with particular reference<br />
to daily minimum air temperatures. COST79 Proc. Workshop “Dealing on Spatialisation”,<br />
COST, EU, 69-100<br />
COST 79. 2000. Coordination and comparison of several interpolation methods of meteorological<br />
data (minimum temperature). COST, EU, 102p<br />
Courault D., P. Monestiez. 1998. Spatial variations of air temperature according to atmospheric<br />
circulation patterns. COST79 Proc. Workshop “Dealing on Spatialisation”, COST, EU,<br />
101-120<br />
Czeplak G., M. Noia, C.F. Ratto. 199<strong>1.</strong> An assesssment of a statistical method to estimate<br />
solar irradiance at the earth’s surface from geostattionary satellite data. Renewable Energy<br />
Vol. 1, 737-743<br />
24 Anhang 1<br />
Teilbericht 3
Daly. C., R.P. Neilson, D.L. Phillips. 1994. A statistical-topographic model for mapping climatological<br />
precipitation over mountainous terrain. Journal of Applied Meteorology Vol 33, 140-<br />
157<br />
Dodson R., D. Marks. 1997. Daily air temperature interpolated at high spatial resolution over<br />
a lagre mountainous region. Climate Research Vol. 8, 1-20<br />
Durand Y., E. Brun, L. Merindol, G. Guyomarch, B. Lesaffre, E. Martin. 1993. A meteorological<br />
estimation of relevant parameters for snow models. Annals of Glaciology 18, 65-71<br />
Göbel W., A.El Quali, M. Singh. 1998. Spatial interpolation of precipitation data an example<br />
from Morocco. COST79 Proc. Workshop “Dealing on Spatialisation”, COST, EU, 129-142<br />
Gyalistras D. 2003. <strong>Development</strong> and validation of a high-resolution monthly gridded precipitation<br />
and precipitation data set for Switzerland (1951-2000). Climate Research Vol. 25, 55-<br />
83.<br />
Hantel, M., M. Ehrendorfer and A. Haslinger, 1999: Climate sensitivity of snow cover duration<br />
in Austria. Int.. J. Climatology., 20, 615-640.<br />
Imbert A. 2003. The Analog method applied to downscaling of climate scenarios. Met.no<br />
Klima Report 08/03 11p.<br />
Lehning M., Bartelt P., Brown B., 1998: Operational Use of a Snowpack Model for the Avalanche<br />
Warning Service in Switzerland: Model <strong>Development</strong> and First Experiences, Proceedings<br />
of the NGI Anniversary Conference, Norwegian Geotechnical Institute May 1998, 169 -<br />
174.<br />
Lehning M., Bartelt P.B., Brown R.L., Fierz C., Satyawali P., 2002. A physical SNOWPACK<br />
model for the Swiss Avalanche Warning Services. Part III: Meteorological Boundary Conditions,<br />
Thin Layer Formation and Evaluation, Cold Reg. Sci. Technol., 35, 169-184<br />
Loibl W., Schwarz L., 2001: Regionalisierung von Niederschlagsdaten mit Hilfe von neuronalen<br />
Netzen - Möglichkeiten und Grenzen der Generierung österreichweiter Karten. In: Ö. Beiträge<br />
zu Meteorologie u. Geophysik ISSN Heft Nr 27/Publ. Nr. 399, CD-ROM, 18 pp (Proceedings<br />
DACH MT, Sept. 2001 - Wien )<br />
Lorentz P., G. Skoda. 1999. Ermittlung von Flächenmitteln des Niederschlages aus punktuellen<br />
Messungen. Mitteilungsblatt des Hydrographischen Dienstes in Österreich Nr. 78, 47-65<br />
Maestre Barcelo A. 2002. Report on rainfall spatialisation. COST 718.<br />
http://www.adobe.com/products/acrobat/readstep.html<br />
Martin, E., B. Timbal and E. Brun, 1997: Downscaling of general circulation model outputs:<br />
simulation of the snow climatology of the French Alps and sensitivity to climate change. Clim.<br />
Dyn., 13, 45–56.<br />
Matulla C. und P. Haas. 2003. Prädikatorsensitives Downscaling gekoppelt mit Wettergeneratoren:<br />
saisonale und tägliche CC-Szenarien in komplex strukturiertem Gelände. GKSS<br />
2003/24<br />
Matulla C., P. Haas, S. Wagner, E. Zorita, H. Formayer, H. Kromp-Kolb. 2004. Anwendung<br />
der Analog-Methode in komplexen Terrain: Klimaänderungsszenarien auf Tageswertbasis für<br />
Österreich. GKSS 2004/1<strong>1.</strong><br />
Anhang 1 25<br />
Teilbericht 3
Neidhöfer F. 2000. Interpolation and downscaling of precipitation in the Alps. PhD thesis,<br />
Institute of Geography, University of Bern.<br />
Nykanen, D. K. und D. Harris. 2003. Orographic influences on the multi-scale statistical<br />
properties of precipitation. Journal of Geophysical Research – Atmospheres, 108(D8), 8381<br />
Olseth J.A., A. Skartveit. 200<strong>1.</strong> Solar irradiance, sunshine duration and daylight illuminance<br />
derived from METEOSAT data for some European sites. Theoretical and Applied Climatology<br />
69, 239-252<br />
Percec Tadic M., K. Pandzic. 2002. Combined use of multiple linear regression, optimal interpolation<br />
and GIS in producing temperature maps. Paper presented at EGS02.<br />
Scheppler P. 2000. Schneedeckenmodellierung und Kalibrationsmöglichkeiten für ausgewählte<br />
Beobachtungsstationen. Diplomarbeit am Geographischen Institut der Universität<br />
Bern, 110p.<br />
Schöner W. 2001: Räumliche Modellierung von Klimaparametern mittels GIS, In: Ö. Beiträge<br />
zu Meteorologie u. Geophysik ISSN Heft Nr 27 / Publ. Nr. 399, CD-ROM,. (Proceedings<br />
DACH MT, Sept. 2001 - Wien)<br />
Skaugen T., S. Beldring, H.C. Udnaes. 2003. Dynamical properties of the spatial distribution<br />
of snow. Hydrology and Earth System Sciences, 7(5), 744-753.<br />
Storch H.v. und F. Zwiers. 1999. Statistical Analysis in Climate Research. Cambridge University<br />
Press, UK.<br />
Strobl J. 1988. Karten porentieller Sonnenscheindauer und Globalstrahlung im Land Salzburg.<br />
Salzburger Geographische Arbeiten Bd. 17, 255-270<br />
Tabony R.C. 1985. Relations between minimum temperature and topography in Great Britain.<br />
Journal of Climatology Vol. 5, 503-520<br />
Tveito O.E., E.J. Førland, I. Hanssen-Bauer, R. Benestad. 2000. Regionalisation of Norwegian<br />
precipitation. ECAC 2000 Pisa, CD-ROM<br />
Tveito. O.E. 2003 : Spatial distribution of winter temperatures in Norway related to topography<br />
and large-scale atmospheric circulation (Presented at IAHS-PUB kick off workshop in<br />
Brasilia, Brazil 20-22.November 2002)<br />
http://cost719.met.no/papers/PUB%20paper%20Tveito.pdf<br />
Tveito O.E., H.C. Udnaes, Z. Mengistu, R. Engeset, E.J. Forland. In prep. New Snow Maps<br />
for Norway.<br />
26 Anhang 1<br />
Teilbericht 3
ANHANG – AML-scripts für die Interpolation der Parameter<br />
/*=============================================================================<br />
/* t_grid.aml<br />
/* interpolation of daily temperature means from climate stations to grid<br />
/* based on available montly climate normals of temperature<br />
/* aml interpolates daily climate normal grids, computes residuals of point<br />
/* measurments to climate normal, interpolates residuals by thin-plate<br />
/* spline interpolation (minimizes the curvatures of curves) and compute<br />
/* daily values adding the residual field to the daily climate normal field<br />
/* input text file is at least with id, long, lat, T for each station<br />
/* input text file format is set to comma delimited<br />
/* projection is set to Austrian Lambert (see outcover.prj)<br />
/* extent is defined by coverage aussengrenze<br />
/* created by W. Schöner, ZAMG, Aug 2004<br />
/*=============================================================================<br />
/*=============================================================================<br />
/* useage "&run t_grid.aml beginmonth beginyear endmonth endyear"<br />
/* data format for both beginmonth and endmonth is mm<br />
/* data format for both beginyear and endyear is yyyy<br />
/*=============================================================================<br />
/*=============================================================================<br />
&args beginmonth beginyear endmonth endyear<br />
&echo &off<br />
&ty gridding<br />
&s number_y = %endyear% - %beginyear% + 1<br />
&s year = %beginyear% - 1<br />
&s tag = 0<br />
&ty %number_y%<br />
&do index = 1 &to %number_y%<br />
&s year = %year% + 1<br />
&if %endyear% = %beginyear% &then<br />
&do i = %beginmonth% &to %endmonth%<br />
&s mon = %i%<br />
&call gettagzahl<br />
&do j = 1 &to %tagzahl%<br />
&call namedefine<br />
&ty %filename%<br />
&call gridding_dt<br />
&end<br />
&end<br />
&else &do<br />
&if %year% = %endyear% &then<br />
&do i = 1 &to %endmonth%<br />
&s mon = %i%<br />
&call gettagzahl<br />
&do j = 1 &to %tagzahl%<br />
&call namedefine<br />
&ty %filename%<br />
&call gridding_dt<br />
&end<br />
&end<br />
&else<br />
&if %year% = %beginyear% &then<br />
&do i = %beginmonth% &to 12<br />
&s mon = %i%<br />
&call gettagzahl<br />
&do j = 1 &to %tagzahl%<br />
&call namedefine<br />
&ty %filename%<br />
&call gridding_dt<br />
&end<br />
&end<br />
&else<br />
&do i = 1 &to 12<br />
&s mon = %i%<br />
&call gettagzahl<br />
&do j = 1 &to %tagzahl%<br />
&call namedefine<br />
Anhang 1 27<br />
Teilbericht 3
&ty %filename%<br />
&call gridding_dt<br />
&end<br />
&end<br />
&end<br />
&end<br />
&return<br />
/*=============================================================================<br />
&routine gridding_dt<br />
&s closestat := [close -all]<br />
/*&call definfile<br />
&call txt2cov<br />
&call projectcov<br />
&call getklimagrid<br />
&call getresiduals<br />
&call makegrid<br />
&ty GRIDDING SUCCESSFULLY COMPLETED<br />
&return<br />
/*=============================================================================<br />
&routine namedefine<br />
/*&if [exists %filename% -table] &then kill %filename%<br />
/*&if %j% < 10 &then<br />
/* &s filename 0%j%%mon%%year%.txt<br />
/*&else<br />
&s filename %j%%mon%%year%.txt<br />
&return<br />
/*=============================================================================<br />
&routine gettagzahl<br />
&if %mon% = 1 &then &do<br />
&set tagzahl = 31<br />
&end<br />
&if %mon% = 2 &then &do<br />
&set tagzahl = 28<br />
&end<br />
&if %mon% = 3 &then &do<br />
&set tagzahl = 30<br />
&end<br />
&if %mon% = 4 &then &do<br />
&set tagzahl = 30<br />
&end<br />
&if %mon% = 5 &then &do<br />
&set tagzahl = 31<br />
&end<br />
&if %mon% = 6 &then &do<br />
&set tagzahl = 30<br />
&end<br />
&if %mon% = 7 &then &do<br />
&set tagzahl = 31<br />
&end<br />
&if %mon% = 8 &then &do<br />
&set tagzahl = 31<br />
&end<br />
&if %mon% = 9 &then &do<br />
28 Anhang 1<br />
Teilbericht 3
&set tagzahl = 30<br />
&end<br />
&if %mon% = 10 &then &do<br />
&set tagzahl = 31<br />
&end<br />
&if %mon% = 11 &then &do<br />
&set tagzahl = 30<br />
&end<br />
&if %mon% = 12 &then &do<br />
&set tagzahl = 31<br />
&end<br />
/*&if %mon% < 10 &then<br />
/* &do<br />
/* &s mon 0%mon%<br />
/* &end<br />
&return<br />
/*=============================================================================<br />
&routine definfile<br />
&s genfileunit [open %genfile% openstat -read]<br />
&if %openstat% 0 &then<br />
&do<br />
&s str Error reading %genfile%...;&call bailout<br />
&end<br />
&return<br />
/*=============================================================================<br />
&routine txt2cov<br />
&ty txt2cov<br />
/*&args genfile<br />
tables<br />
&if [exists maske2.pat -info] &then kill maske2.pat<br />
quit<br />
tables<br />
copy maske.pat maske2.pat<br />
select maske2.pat<br />
add from %filename%<br />
quit<br />
/* Add the word END to the generate file.<br />
&s filenameunit [open %filename% openstat -append]<br />
&if %openstat% 0 &then<br />
&do<br />
&s str Error opening temporary generate file...;&call bailout<br />
&end<br />
&s writestat [write %filenameunit% END]<br />
&if %writestat% 0 &then<br />
&do<br />
&s str Error writing to temporary generate file...;&call bailout<br />
&end<br />
&s closestat [close %filenameunit%]<br />
&if [exists outcover -cover] &then kill outcover<br />
generate outcover<br />
input %filename%<br />
points<br />
quit<br />
build outcover points<br />
joinitem outcover.pat maske2.pat outcover.pat OUTCOVER-ID OUTCOVER-ID<br />
tables<br />
Anhang 1 29<br />
Teilbericht 3
kill maske2.pat<br />
quit<br />
&ty txt2cov completed<br />
&return<br />
/*=============================================================================<br />
&routine projectcov<br />
&ty projectcov<br />
&if [exists outcover2 -cover] &then kill outcover2<br />
&do<br />
project cover outcover outcover2 outcover.prj<br />
&end<br />
kill outcover<br />
rename outcover2 outcover<br />
&ty projectcov completed<br />
&return<br />
/*=============================================================================<br />
&routine getklimagrid<br />
&ty getklimagrid<br />
&s subdd = [substr %filename% 5 2]<br />
&s submm = [substr %filename% 7 2]<br />
&s subjjjj = [substr %filename% 9 4]<br />
&if [exists klim%subdd%%submm%%subjjjj% -grid] &then kill klim%subdd%%submm%%subjjjj%<br />
&call assignvalue<br />
grid<br />
&if %days% eq 15 &then<br />
klim%subdd%%submm%%subjjjj% = %mnd%<br />
&if %days% lt 15 &then<br />
klim%subdd%%submm%%subjjjj% = (%mnd_vor% * (15 - %days%) + %mnd% * (15 + %days%)) / 30<br />
&if %days% gt 15 &then<br />
&if %submm% eq 02 &then<br />
klim%subdd%%submm%%subjjjj% = (%mnd_nach% * (43 - %days%) + %mnd% * (%days% - 15)) / 28<br />
&else &if %submm% eq 04 or %submm% eq 06 or %submm% eq 08 or %submm% eq 10 or %submm% eq 12 &then<br />
klim%subdd%%submm%%subjjjj% = (%mnd_nach% * (45 - %days%) + %mnd% * (%days% - 15)) / 30<br />
&else<br />
klim%subdd%%submm%%subjjjj% = (%mnd_nach% * (46 - %days%) + %mnd% * (%days% - 16)) / 30<br />
quit<br />
&ty getklimagrid completed<br />
&return<br />
/*=============================================================================<br />
&routine getresiduals<br />
&ty getresiduals<br />
/*additem outcover.pat outcover.pat klim 8 8 i<br />
ae<br />
edit outcover<br />
editfeature point<br />
select for T gt 900<br />
delete<br />
save<br />
q<br />
build outcover points<br />
projectcopy grid klim%subdd%%submm%%subjjjj% cover outcover<br />
latticespot klim%subdd%%submm%%subjjjj% outcover klim<br />
&ty schritt1<br />
additem outcover.pat outcover.pat resid 8 8 f 2<br />
&ty schritt2<br />
tables<br />
30 Anhang 1<br />
Teilbericht 3
sel outcover.pat<br />
calculate resid = T / 10 - klim<br />
quit<br />
&ty getresiduals completed<br />
&return<br />
/*=============================================================================<br />
&routine makegrid<br />
&ty makegrid<br />
&if [exists outgrid -grid] &then kill outgrid<br />
topogrid outgrid 1000<br />
point outcover resid<br />
enforce off<br />
boundary aussengrenze<br />
end<br />
&if [exists grid%subdd%%submm%%subjjjj% -grid] &then kill grid%subdd%%submm%%subjjjj%<br />
projectcopy grid klim%subdd%%submm%%subjjjj% grid outgrid<br />
grid<br />
grid%subdd%%submm%%subjjjj% = outgrid + klim%subdd%%submm%%subjjjj%<br />
quit<br />
kill outgrid<br />
kill klim%subdd%%submm%%subjjjj%<br />
&ty makegrid completed<br />
&return<br />
/*=============================================================================<br />
&routine bailout<br />
&if [show program] = TABLES &then quit<br />
&if not [variable str] &then &s str Bailing out of %aml$file%<br />
&return; &return &warning %str%<br />
/*=============================================================================<br />
&routine assignvalue<br />
&if %subdd% eq 01 &then &s days = 1<br />
&if %subdd% eq 02 &then &s days = 2<br />
&if %subdd% eq 03 &then &s days = 3<br />
&if %subdd% eq 04 &then &s days = 4<br />
&if %subdd% eq 05 &then &s days = 5<br />
&if %subdd% eq 06 &then &s days = 6<br />
&if %subdd% eq 07 &then &s days = 7<br />
&if %subdd% eq 08 &then &s days = 8<br />
&if %subdd% eq 09 &then &s days = 9<br />
&if %subdd% eq 10 &then &s days = 10<br />
&if %subdd% eq 11 &then &s days = 11<br />
&if %subdd% eq 12 &then &s days = 12<br />
&if %subdd% eq 13 &then &s days = 13<br />
&if %subdd% eq 14 &then &s days = 14<br />
&if %subdd% eq 15 &then &s days = 15<br />
&if %subdd% eq 16 &then &s days = 16<br />
&if %subdd% eq 17 &then &s days = 17<br />
&if %subdd% eq 18 &then &s days = 18<br />
&if %subdd% eq 19 &then &s days = 19<br />
&if %subdd% eq 20 &then &s days = 20<br />
&if %subdd% eq 21 &then &s days = 21<br />
&if %subdd% eq 22 &then &s days = 22<br />
&if %subdd% eq 23 &then &s days = 23<br />
&if %subdd% eq 24 &then &s days = 24<br />
&if %subdd% eq 25 &then &s days = 25<br />
&if %subdd% eq 26 &then &s days = 26<br />
&if %subdd% eq 27 &then &s days = 27<br />
&if %subdd% eq 28 &then &s days = 28<br />
&if %subdd% eq 29 &then &s days = 29<br />
&if %subdd% eq 30 &then &s days = 30<br />
Anhang 1 31<br />
Teilbericht 3
&if %subdd% eq 31 &then &s days = 31<br />
&if %submm% eq 01 &then<br />
&do<br />
&s mnd = tjan<br />
&s mnd_vor = tdec<br />
&s mnd_nach = tfeb<br />
&end<br />
&if %submm% eq 02 &then<br />
&do<br />
&s mnd = tfeb<br />
&s mnd_vor = tjan<br />
&s mnd_nach = tmar<br />
&end<br />
&if %submm% eq 03 &then<br />
&do<br />
&s mnd = tmar<br />
&s mnd_vor = tfeb<br />
&s mnd_nach = tapr<br />
&end<br />
&if %submm% eq 04 &then<br />
&do<br />
&s mnd = tapr<br />
&s mnd_vor = tmar<br />
&s mnd_nach = tmai<br />
&end<br />
&if %submm% eq 05 &then<br />
&do<br />
&s mnd = tmai<br />
&s mnd_vor = tapr<br />
&s mnd_nach = tjun<br />
&end<br />
&if %submm% eq 06 &then<br />
&do<br />
&s mnd = tjun<br />
&s mnd_vor = tmai<br />
&s mnd_nach = tjul<br />
&end<br />
&if %submm% eq 07 &then<br />
&do<br />
&s mnd = tjul<br />
&s mnd_vor = tjun<br />
&s mnd_nach = taug<br />
&end<br />
&if %submm% eq 08 &then<br />
&do<br />
&s mnd = taug<br />
&s mnd_vor = tjul<br />
&s mnd_nach = tsep<br />
&end<br />
&if %submm% eq 09 &then<br />
&do<br />
&s mnd = tsep<br />
&s mnd_vor = taug<br />
&s mnd_nach = tokt<br />
&end<br />
&if %submm% eq 10 &then<br />
&do<br />
&s mnd = tokt<br />
&s mnd_vor = tsep<br />
&s mnd_nach = tnov<br />
&end<br />
&if %submm% eq 11 &then<br />
&do<br />
&s mnd = tnov<br />
&s mnd_vor = tokt<br />
&s mnd_nach = tdez<br />
&end<br />
&if %submm% eq 12 &then<br />
&do<br />
&s mnd = tdez<br />
&s mnd_vor = tnov<br />
&s mnd_nach = tjan<br />
&end<br />
&return<br />
32 Anhang 1<br />
Teilbericht 3
*=============================================================================<br />
Anhang 1 33<br />
Teilbericht 3
*=============================================================================<br />
/* r_grid.aml<br />
/* interpolation of daily precipitation sums from climate stations to grid<br />
/* based on stepwise multiple linear regression between prec-sum at station<br />
/* and first 3 EOFs from 10km oro model, first 3 EOFs from 5km oro model,<br />
/* elevation, latitude and longitude<br />
/* aml interpolates daily precip grids with regression, computes residuals of<br />
/* point measurments at stations, interpolates residuals by thin-plate<br />
/* spline interpolation (minimizes the curvatures of curves) and compute<br />
/* daily values adding the residual field to the daily precip field from regression<br />
/* input text file is at least with id, long, lat, P for each station<br />
/* input text file format is set to comma delimited<br />
/* projection is set to Austrian Lambert (see outcover.prj)<br />
/* extent is defined by coverage aussengrenze<br />
/* created by W. Schöner, ZAMG, Aug 2004<br />
/*=============================================================================<br />
/*=============================================================================<br />
/* useage "&run r_grid.aml beginmonth beginyear endmonth endyear"<br />
/* data format for both beginmonth and endmonth is mm<br />
/* data format for both beginyear and endyear is yyyy<br />
/*=============================================================================<br />
/*=============================================================================<br />
&args beginmonth beginyear endmonth endyear<br />
&echo &off<br />
&ty gridding<br />
&s number_y = %endyear% - %beginyear% + 1<br />
&s year = %beginyear% - 1<br />
&s tag = 0<br />
&ty %number_y%<br />
&do index = 1 &to %number_y%<br />
&s year = %year% + 1<br />
&if %endyear% = %beginyear% &then<br />
&do i = %beginmonth% &to %endmonth%<br />
&s mon = %i%<br />
&call gettagzahl<br />
/* &do j = 1 &to %tagzahl%<br />
&do j = 1 &to 1<br />
&call namedefine<br />
&ty %filename%<br />
&call gridding_dt<br />
&end<br />
&end<br />
&else &do<br />
&if %year% = %endyear% &then<br />
&do i = 1 &to %endmonth%<br />
&s mon = %i%<br />
&call gettagzahl<br />
&do j = 1 &to %tagzahl%<br />
&call namedefine<br />
&ty %filename%<br />
&call gridding_dt<br />
&end<br />
&end<br />
&else<br />
&if %year% = %beginyear% &then<br />
&do i = %beginmonth% &to 12<br />
&s mon = %i%<br />
&call gettagzahl<br />
&do j = 1 &to %tagzahl%<br />
&call namedefine<br />
&ty %filename%<br />
&call gridding_dt<br />
&end<br />
&end<br />
&else<br />
&do i = 1 &to 12<br />
&s mon = %i%<br />
&call gettagzahl<br />
&do j = 1 &to %tagzahl%<br />
&call namedefine<br />
&ty %filename%<br />
34 Anhang 1<br />
Teilbericht 3
&call gridding_dt<br />
&end<br />
&end<br />
&end<br />
&end<br />
&return<br />
/*=============================================================================<br />
&routine gridding_dt<br />
&s closestat := [close -all]<br />
/*&call definfile<br />
&call txt2cov<br />
&call projectcov<br />
&call getregressgrid<br />
&call getresiduals<br />
&call makegrid<br />
&ty GRIDDING SUCCESSFULLY COMPLETED<br />
&return<br />
/*=============================================================================<br />
&routine namedefine<br />
/*&if [exists %filename% -table] &then kill %filename%<br />
/*&if %j% < 10 &then<br />
/* &s filename 0%j%%mon%%year%.txt<br />
/*&else<br />
&s filename %j%%mon%%year%.txt<br />
&return<br />
/*=============================================================================<br />
&routine gettagzahl<br />
&if %mon% = 1 &then &do<br />
&set tagzahl = 31<br />
&end<br />
&if %mon% = 2 &then &do<br />
&set tagzahl = 28<br />
&end<br />
&if %mon% = 3 &then &do<br />
&set tagzahl = 30<br />
&end<br />
&if %mon% = 4 &then &do<br />
&set tagzahl = 30<br />
&end<br />
&if %mon% = 5 &then &do<br />
&set tagzahl = 31<br />
&end<br />
&if %mon% = 6 &then &do<br />
&set tagzahl = 30<br />
&end<br />
&if %mon% = 7 &then &do<br />
&set tagzahl = 31<br />
&end<br />
&if %mon% = 8 &then &do<br />
&set tagzahl = 31<br />
&end<br />
&if %mon% = 9 &then &do<br />
&set tagzahl = 30<br />
Anhang 1 35<br />
Teilbericht 3
&end<br />
&if %mon% = 10 &then &do<br />
&set tagzahl = 31<br />
&end<br />
&if %mon% = 11 &then &do<br />
&set tagzahl = 30<br />
&end<br />
&if %mon% = 12 &then &do<br />
&set tagzahl = 31<br />
&end<br />
/*&if %mon% < 10 &then<br />
/* &do<br />
/* &s mon 0%mon%<br />
/* &end<br />
&return<br />
/*=============================================================================<br />
&routine definfile<br />
&s genfileunit [open %genfile% openstat -read]<br />
&if %openstat% 0 &then<br />
&do<br />
&s str Error reading %genfile%...;&call bailout<br />
&end<br />
&return<br />
/*=============================================================================<br />
&routine txt2cov<br />
&ty txt2cov<br />
/*&args genfile<br />
tables<br />
&if [exists maske2.pat -info] &then kill maske2.pat<br />
quit<br />
tables<br />
copy maske.pat maske2.pat<br />
select maske2.pat<br />
add from %filename%<br />
quit<br />
/* Add the word END to the generate file.<br />
&s filenameunit [open %filename% openstat -append]<br />
&if %openstat% 0 &then<br />
&do<br />
&s str Error opening temporary generate file...;&call bailout<br />
&end<br />
&s writestat [write %filenameunit% END]<br />
&if %writestat% 0 &then<br />
&do<br />
&s str Error writing to temporary generate file...;&call bailout<br />
&end<br />
&s closestat [close %filenameunit%]<br />
&if [exists outcover -cover] &then kill outcover<br />
generate outcover<br />
input %filename%<br />
points<br />
quit<br />
build outcover points<br />
joinitem outcover.pat maske2.pat outcover.pat OUTCOVER-ID OUTCOVER-ID<br />
tables<br />
kill maske2.pat<br />
36 Anhang 1<br />
Teilbericht 3
quit<br />
&ty txt2cov completed<br />
&return<br />
/*=============================================================================<br />
&routine projectcov<br />
&ty projectcov<br />
&if [exists outcover2 -cover] &then kill outcover2<br />
&do<br />
project cover outcover outcover2 outcover.prj<br />
&end<br />
kill outcover<br />
rename outcover2 outcover<br />
&ty projectcov completed<br />
&return<br />
/*=============================================================================<br />
&routine getregressgrid<br />
&ty getregressgrid<br />
&s subdd = [substr %filename% 5 2]<br />
&s submm = [substr %filename% 7 2]<br />
&s subjjjj = [substr %filename% 9 4]<br />
&if [exists prec%subdd%%submm%%subjjjj% -grid] &then kill prec%subdd%%submm%%subjjjj%<br />
&call assignvalue<br />
&if %mon% eq 1 &then &s mnd = 'JAN'<br />
&if %mon% eq 2 &then &s mnd = 'FEB'<br />
&if %mon% eq 3 &then &s mnd = 'MAR'<br />
&if %mon% eq 4 &then &s mnd = 'APR'<br />
&if %mon% eq 5 &then &s mnd = 'MAY'<br />
&if %mon% eq 6 &then &s mnd = 'JUN'<br />
&if %mon% eq 7 &then &s mnd = 'JUL'<br />
&if %mon% eq 8 &then &s mnd = 'AUG'<br />
&if %mon% eq 9 &then &s mnd = 'SEP'<br />
&if %mon% eq 10 &then &s mnd = 'OCT'<br />
&if %mon% eq 11 &then &s mnd = 'NOV'<br />
&if %mon% eq 12 &then &s mnd = 'DEC'<br />
&s reg_file = [open r_regression.txt openstat -read]<br />
&s string = [read %reg_file% readstat]<br />
&s string = [after %string% %mnd%]<br />
&s string = [after %string% ' ']<br />
&s string = [after %string% ' ']<br />
&s str1 = [after %string% ' ']<br />
&s str2 = [after %str1% ' ']<br />
&s str3 = [after %str2% ' ']<br />
&s str4 = [after %str3% ' ']<br />
&s str5 = [after %str4% ' ']<br />
&s str6 = [after %str5% ' ']<br />
&s str7 = [after %str6% ' ']<br />
&s str8 = [after %str7% ' ']<br />
&s str9 = [after %str8% ' ']<br />
&s str10 = [after %str9% ' ']<br />
&s reg9 = [after %str10% ' ']<br />
&s reg8 = [before %str9% ' ']<br />
&s reg7 = [before %str8% ' ']<br />
&s reg6 = [before %str7% ' ']<br />
&s reg5 = [before %str6% ' ']<br />
&s reg4 = [before %str5% ' ']<br />
&s reg3 = [before %str4% ' ']<br />
&s reg2 = [before %str3% ' ']<br />
&s reg1 = [before %str2% ' ']<br />
&s const = [before %str1% ' ']<br />
/*&s const = [unquote [before %str% %reg1%]]<br />
&lv<br />
Anhang 1 37<br />
Teilbericht 3
grid<br />
prec%subdd%%submm%%subjjjj% = %const% + %reg1% * eof1 + %reg2% * eof2 + %reg3% * eof3 +<br />
%reg4% * eof1_5km + %reg5% * eof2_5km + %reg6% * eof3_5km + %reg7% * oro_1km +<br />
%reg8% * lat + %reg9% * long<br />
&if [exists zwigrid -grid] &then kill zwigrid<br />
&if [exists zwigrid2 -grid] &then kill zwigrid2<br />
zwigrid = select(prec%subdd%%submm%%subjjjj%,'value
&if [exists zwigrid -grid] &then kill zwigrid<br />
&if [exists zwigrid2 -grid] &then kill zwigrid2<br />
zwigrid = select(grid%subdd%%submm%%subjjjj%,'value
&do<br />
&s mnd = tapr<br />
&s mnd_vor = tmar<br />
&s mnd_nach = tmai<br />
&end<br />
&if %submm% eq 05 &then<br />
&do<br />
&s mnd = tmai<br />
&s mnd_vor = tapr<br />
&s mnd_nach = tjun<br />
&end<br />
&if %submm% eq 06 &then<br />
&do<br />
&s mnd = tjun<br />
&s mnd_vor = tmai<br />
&s mnd_nach = tjul<br />
&end<br />
&if %submm% eq 07 &then<br />
&do<br />
&s mnd = tjul<br />
&s mnd_vor = tjun<br />
&s mnd_nach = taug<br />
&end<br />
&if %submm% eq 08 &then<br />
&do<br />
&s mnd = taug<br />
&s mnd_vor = tjul<br />
&s mnd_nach = tsep<br />
&end<br />
&if %submm% eq 09 &then<br />
&do<br />
&s mnd = tsep<br />
&s mnd_vor = taug<br />
&s mnd_nach = tokt<br />
&end<br />
&if %submm% eq 10 &then<br />
&do<br />
&s mnd = tokt<br />
&s mnd_vor = tsep<br />
&s mnd_nach = tnov<br />
&end<br />
&if %submm% eq 11 &then<br />
&do<br />
&s mnd = tnov<br />
&s mnd_vor = tokt<br />
&s mnd_nach = tdez<br />
&end<br />
&if %submm% eq 12 &then<br />
&do<br />
&s mnd = tdez<br />
&s mnd_vor = tnov<br />
&s mnd_nach = tjan<br />
&end<br />
&return<br />
/*=============================================================================<br />
40 Anhang 1<br />
Teilbericht 3
Anhang 1<br />
Teilberichte der Projektpartner<br />
Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />
Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />
Alexander Beck und Bodo Ahrens:<br />
Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />
Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />
Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />
zu den regionalen Klimamodellen<br />
Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />
Validierung – Sensitivitätstests<br />
Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />
MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />
Mario Köstl, Wolfgang Loibl und Johann Züger:<br />
Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung
eclip:more<br />
Research for Climate Protection:<br />
Model Run Evaluation<br />
Projektjahr 1<br />
Projektteil BOKU-Met<br />
Validierung – Sensitivitätstests<br />
Institut für Meteorologie<br />
Department Wasser – Atmosphäre – Umwelt<br />
Universität für Bodenkultur<br />
Arbeitsbericht für den Zeitraum <strong>1.</strong>1<strong>1.</strong>2003 – 30.9.2004<br />
von<br />
Andreas Frank<br />
Herbert Formayer<br />
Petra Seibert<br />
Bernd C. Krüger<br />
Helga Kromp-Kolb<br />
BOKU-Met
INHALTSVERZEICHNIS<br />
1 Ergebnisvalidierung – Definition statistischer Parameter....................1<br />
<strong>1.</strong>1 Einleitung .............................................................................................1<br />
<strong>1.</strong>2 Normalised root-mean square error (NMSE) .......................................1<br />
<strong>1.</strong>2.1 Das Problem ..................................................................................1<br />
<strong>1.</strong>2.2 Lösungsvorschläge ........................................................................2<br />
Zusätzliche Bemerkungen zur Normierung mit absoluten Werten .............2<br />
<strong>1.</strong>3 Figure of merit......................................................................................3<br />
<strong>1.</strong>4 Relative bias ........................................................................................4<br />
<strong>1.</strong>5 Die Rolle des Korrelationskoeffizienten................................................4<br />
<strong>1.</strong>6 Einfluss des BIAS auf den RMSE ........................................................4<br />
<strong>1.</strong>7 Taylor Diagramm .................................................................................5<br />
<strong>1.</strong>8 Vorschlag eines total skill score ...........................................................6<br />
2 Evaluierungsstrategie .............................................................................7<br />
2.1 Einleitung .............................................................................................7<br />
2.2 Datenquellen........................................................................................7<br />
2.3 Arten von Läufen und Grundsätzliches zu ihrer Evaluierung ...............8<br />
2.3.1 S1 – freie Episodensimulationen....................................................8<br />
2.3.2 S2 – Episodensimulationen mit Nudging........................................9<br />
2.3.3 S3 – 1-Jahr-Simulation ohne Nudging ...........................................9<br />
2.4 Statistische Standardparameter...........................................................9<br />
2.5 Evaluierungsmethoden für die verschiedenen Datenquellen .............10<br />
2.5.1 D1 – ERA-40................................................................................10<br />
2.5.2 D4 – Radiosonden .......................................................................10<br />
2.6 Domain-Setup ....................................................................................11<br />
2.6.1 Domaingrößen .............................................................................12<br />
2.6.2 Validierungsstrategie....................................................................13<br />
3 Parameter-Setup MM5, Aladin ..............................................................13<br />
4 Termine...................................................................................................14<br />
5 Erste Vergleichsrechnungen MM5 – Aladin.........................................16<br />
5.1 Festlegung der MM5- Parametrisierungen.........................................16<br />
5.2 Festlegung der für diesen Test sinnvollen Termine ...........................16<br />
5.3 Auswertung der Ergebnisse ...............................................................17<br />
5.3.1 Detailierte Ergebnisdiskussion für die Temperatur in 850 hPa.....18<br />
5.3.2 Geopotential in 850 hPa...............................................................27<br />
5.3.3 Geopotential in 500 hPa...............................................................29<br />
5.3.4 Spezifische Feuchte in 700 hPa...................................................29<br />
5.3.5 Niederschlagsverteilung...............................................................31<br />
5.3.6 Rechenzeit ...................................................................................32<br />
5.3.7 Synopsis – Schlussfolgerungen ...................................................33<br />
6 Ausblick – weitere Schritte ...................................................................33<br />
Literatur ........................................................................................................35<br />
BILDANHANG...............................................................................................36
1 Ergebnisvalidierung – Definition statistischer Parameter<br />
<strong>1.</strong>1 Einleitung<br />
Bestimmte Sets statistischer Parameter wurden speziell in der „Air pollution<br />
modeling community“, in Europa im Rahmen von ATMES (Klug et al, 1992),<br />
ETEX (Mosca et al., 1998a, b) und der so genannten Harmonisierungsinitiative<br />
in Nordamerika Standard, um Modelle untereinander und mit Beobachtungen<br />
quantitativ zu vergleichen.<br />
Einige von ihnen – NMSE, fractional bias und figure of merit beispielsweise –<br />
sind problematisch und sollten durch modifizierte Größen ersetzt werden. Die<br />
Details dazu werden in diesem Kapitel des Berichts kurz erläutert.<br />
Keinesfalls stellt diese Zusammenstellung einen kompletten Überblick der<br />
statistischen Parameter zur Modellevaluierung dar, es wird auch nicht versucht<br />
einen umfassenden Vorschlag eines empfohlenen Sets von Parametern<br />
zu formulieren.<br />
Wir nehmen an, dass wir es mit paarweise angeordneten Daten zu tun haben<br />
o m ( xi<br />
, xi<br />
) , i ∈ [ 1,<br />
N]<br />
, wobei das hochgestellte o für beobachtete Werte und das m<br />
für modellierte Werte steht. Im Falle von Modellvergleichen können zwei Modelle<br />
paarweise miteinander verglichen werden, dann bezeichnet o das eine<br />
2<br />
Modell und m das andere (für ein Set von M Modellen bedeutet dies, M − M<br />
Paare).<br />
<strong>1.</strong>2 Normalised root-mean square error (NMSE)<br />
<strong>1.</strong>2.1 Das Problem<br />
Häufig (zB von Mosca et al., 1998b), ist es üblich den normalised meansquare<br />
error (NMSE) folgend zu definieren:<br />
und den mean-square error (MSE) folgendermaßen zu definieren:<br />
mit<br />
Dieser kann folgendermaßen mit dem normalen root-mean-square error<br />
(RMSE) in Verbindung gebracht werden:<br />
Der NMSE hängt in der obigen Definition sowohl von den quadratischen Differenzen<br />
der Datenpunkte als auch vom Mittel sowohl der modellierten als auch<br />
der beobachteten Daten (oder von beiden Modellen im Fall eines Modellvergleichs)<br />
ab.<br />
Anhang 1 1<br />
Teilbericht 4<br />
2
Er hat die Eigenschaft für Modelle die überschätzen kleiner (besser) zu sein,<br />
als für solche die unterschätzen, auch dann wenn beide Modelle denselben<br />
RMSE aufweisen. Diese Eigenschaft ist unbefriedigend.<br />
<strong>1.</strong>2.2 Lösungsvorschläge<br />
Die einfachste Lösung besteht darin, den RMSE nicht zu normieren, ein Weg<br />
der in all jenen Fällen möglich ist, wo keine relativen Werte benötigt werden.<br />
Eine Normierung ist immer dann nötig, wenn verschiedene Größen miteinander<br />
vergleichbar gemacht werden sollen (zB in einer Kostenfunktion).<br />
In all jenen Fällen wo Beobachtungen (Messwerte) zur Verfügung stehen,<br />
sollte man immer diese zur Normierung heranziehen:<br />
Für direkte Modellvergleiche, wenn man also keine Bebachtungen zum normieren<br />
heranziehen kann, ist es am besten eine charakteristische Magnitude,<br />
welche nicht von den Eigenschaften des Modellpaars abhängt zu verwenden:<br />
∈ kann der (quadratische)<br />
Scale von 2<br />
x * als das Mittel der quadratischen Mittelwerte all dieser Modelle<br />
angesetzt werden:<br />
Im Falle eines Vergleichs mehrerer Modelle m [ 1,<br />
M ]<br />
Zu Beachten ist, dass sich dies im Fall von M=2 nicht mit der standard Definition<br />
des NMSE (1) deckt. Falls dies erwünscht ist, sollte der quadratische<br />
Scale folgendermaßen definiert werden:<br />
Ich weiß keine Argumente warum (8) bevorzugt verwendet werden sollte als<br />
(7). Auf der anderen Seite, wenn wir den hypothetischen Fall annehmen, dass<br />
ein Modell nur sehr kleinen Werten beinhaltet, dann würde die Definition 8 zu<br />
einem extrem großen NMSE Wert führen. Speziell in Fällen wo M ≤ 3 ist erscheint<br />
dies unbefriedigend, weshalb wir die Verwendung der Definition 7<br />
empfehlen würden.<br />
Zusätzliche Bemerkungen zur Normierung mit absoluten Werten<br />
Die Normierung mit Größen die auf Mittelwerten beruhen ist nur für jene Daten<br />
sinnvoll, wo diese Mittelwerte die Größenordnung der Varianz repräsentieren.<br />
Dies ist zum Beispiel für die Konzentration atmosphärischer Spurenbestandteile,<br />
wo der Hintergrund bereits abgezogen wurde, wie zum Beispiel der<br />
ETEX-Daten, der Fall.<br />
2 Anhang 1<br />
Teilbericht 4
In einem allgemeineren Zusammenhang erscheint es jedenfalls besser den<br />
MSE mit der Varianz der Daten zu normieren. Ein typisches Beispiel einer<br />
Größe bei der dies nötig erscheint ist die Temperatur. Für den einen oder anderen<br />
mag es durchaus nahe liegend erscheinen diese Form der Normierung<br />
auch auf die Daten der Spurenbestandteilkonzentration anzuwenden.<br />
Für den Vergleich von Modellwerten mit Beobachtungen, könnte der Scale<br />
von<br />
x dann folgendermaßen aussehen:<br />
2<br />
*<br />
und im Falle des direkten Vergleichs mehrerer Modelle m [ 1,<br />
M ]<br />
tel der Varianzen all dieser Modelle:<br />
∈ als das Mit-<br />
In der statistischen Optimierungstheorie kann gezeigt werden, dass eine Kostenfunktion<br />
unter Berücksichtigung der Varianz zu den wahrscheinlichsten<br />
Ergebnissen führt. Weiters sollte, falls eine Kovarianzstruktur erkennbar ist,<br />
die Kovarianzmatrix zur Normierung verwendet werden. Dieser Punkt wird<br />
speziell dann relevant, wenn die verwendeten Beobachtungen korreliert sind,<br />
was im Falle der Meteorologie oft der Fall ist. Während dies mittlerweile zumindest<br />
in einer angenäherten Form in Algorithmen wie der variationellen Datenanalyse<br />
berücksichtigt wird, findet es bei der Modellevaluierung kaum Anerkennung.<br />
<strong>1.</strong>3 Figure of merit<br />
Klug et al. (1992) und Mosca et al. (1998b) definierten eine figure of merit in<br />
space und eine figure of merit in time. Sie sind definiert als die Überlappungsfläche<br />
der beiden Gebiete A m und A o geteilt durch die Gesamtfläche von Beobachtung<br />
und Modell. A m ist hier die Modellfläche, in der ein vorgegebener<br />
Schwellwert überschritten wurde und A o die entsprechende Fläche in den Beobachtungen:<br />
Die Auswertung kann entweder auf Landkarten erfolgen (merit in space, FMS)<br />
oder in Form von beispielsweise Zeitreihen der Konzentration (merit in time,<br />
FMT).<br />
Auch hier tritt das gleiche Problem wie beim NMS auf und man kann es auf<br />
die gleiche Weise lösen, nämlich derart anstatt mit der Vereinigungsfläche nur<br />
mit der Beobachtungsfläche A o zu normieren oder mit der mittleren Fläche der<br />
Modelle ∑<br />
− m<br />
M A<br />
m<br />
1<br />
, falls es sich um einen Vergleich mehrerer Modelle handelt.<br />
Anhang 1 3<br />
Teilbericht 4
<strong>1.</strong>4 Relative bias<br />
Der Bias repräsentiert die mittlere (oder auch systematische) Abweichung<br />
zwischen zwei Datenquellen:<br />
und ein relative bias könnte folgendermaßen definiert werden:<br />
Manchmal (zB Stohl et al., 1998) wird diese Größe als fractional bias bezeichnet.<br />
Dies führt erneut zum Problem welches oben diskutiert wurde und sollte auf<br />
dieselbe Art und Weise vermieden werden.<br />
<strong>1.</strong>5 Die Rolle des Korrelationskoeffizienten<br />
Korrelationskoeffizienten (üblicherweise der Pearson-Korrelationskoeffizient,<br />
manchmal eine Rankkorrelation) werden gerne verwendet, um die Modellperformance<br />
zu beschreiben, entweder in Form des Korrelationskoeffizienten r<br />
oder in Form des erklärten Varianzanteils r².<br />
Will man r² verwenden, so muss man sich davon überzeugen, dass r positive<br />
ist, andernfalls könnten falsche Schlussfolgerungen gezogen werden.<br />
Das Hauptproblem bei Verwendung des Korrelationskoeffizienten ist jenes,<br />
dass er eine notwendige aber keine ausreichende Bedingung für eine gute<br />
Übereinstimmung ist. Eine perfekte Korrelation wird nicht nur dann erreicht,<br />
wenn Modell und Beobachtung ideal zusammenpassen, sondern auch dann,<br />
wenn diese in einen linearen Zusammenhang zueinander stehen, beispielsweise,<br />
wenn das Modell konstant um 50% unterschätzt. Die Korrelation misst<br />
wie gut die Daten zu irgendeiner linearen Funktion passen, wogegen das Ziel<br />
eines Models die Erfüllung der ganz speziellen linearen Beziehung x o =x m sein<br />
muss.<br />
Außerdem hängt der Korrelationskoeffizient vom Datenbereich ab: Bei gleichem<br />
RMSE nimmt die Korrelation mit steigendem Datenbereich zu. Daher<br />
kann der Korrelationskoeffizient als zusätzliche Entscheidungshilfe herangezogen<br />
werden aber die Hauptentscheidung über die Modellperformance sollte<br />
auf anderen Größen basieren.<br />
<strong>1.</strong>6 Einfluss des BIAS auf den RMSE<br />
Der Bias repräsentiert die mittlere (oder auch systematische) Abweichung<br />
zwischen zwei Datenquellen, wogegen der RMSE die mittlere Differenz (im<br />
Sinne des RMS) zwischen den entsprechenden Datenpunkten beschreibt. Ein<br />
hoher Wert des Bias impliziert einen hohen Wert des RMSE, obwohl die Daten<br />
womöglich nur um einen gewissen Offset gegeneinander verschoben sind<br />
und ansonsten sehr gut übereinstimmen. Daher macht die Definition einer<br />
dritten Größe, nämlich des bias-corrected RMSE Sinn:<br />
4 Anhang 1<br />
Teilbericht 4
Nach Sachs (1992, p. 128) kann diese Größe auch folgendermaßen berechnet<br />
werden:<br />
Manchmal (zB, Crescenti, 1997) wird diese Größe als precision bezeichnet,<br />
aber da diese Bezeichnung nicht klar ist und auch sonst weitverbreitet sollte<br />
man sie hier vermeiden.<br />
Wir denken der relative Bias und der normierte bias-korrigierte RMSE:<br />
mit x∗ definiert nach (8) oder (9) sind sehr brauchbare Gütemaße für viele Anwendungen.<br />
Wie auch immer Daten mit einer angenäherten log-normal Verteilung<br />
sollten besser vor der Berechnung dieser Größe transformiert werden.<br />
<strong>1.</strong>7 Taylor Diagramm<br />
Taylor (2001) zeigte auf, dass es eine Beziehung gibt zwischen dem biascorrected<br />
RMSE, der Varianz und dem Korrelationskoeffizient zweier Datensets.<br />
In unserer Notation sieht dies folgendermaßen aus:<br />
Er empfiehlt ein Polardiagramm, wo die Radialkoordinate die Standardabweichung<br />
repräsentiert und die Winkelkoordinate derart definiert ist, dass r=cosϕ<br />
ist. Die Referenz (Beobachtung) wird dann bei ϕ=0 und Radius σ o geplottet<br />
und das Modell bei ϕ=r und Radius σ m . Die Distanz zwischen diesen beiden<br />
Punkten stellt dann den BC RMSE (in denselben Einheiten wie die Standardabweichung)<br />
dar. Mit anderen Worten, für eine gegebene Referenz können<br />
nur mehr zwei der verbleibenden Parameter (Standardabweichung Modell,<br />
BC RMSE, r) unabhängig von einander variieren.<br />
Weiters schlug er zwei Formeln vor, die diese Parameter zu einen einzigen<br />
skill score Sr vereinigen. Die Hauptbedingungen dazu sind die folgenden:<br />
Diese Bedingung ist für hohe Korrelationen durch den Kehrwert des BC<br />
RMSE erfüllt, aber für kleine Korrelationen muss die Korrelation selbst in der<br />
Skillscore-Formulierung berücksichtigt werden.<br />
Die einfachste Formel, welche dem BC RMSE ein relativ hohes Gewicht gibt<br />
ist die folgende:<br />
(hier ist angenommen, dass Sr=1 für r=1; Taylor hat vorgeschlagen, diesen<br />
Wert durch die „erzielbare Korrelation“ zu ersetzen.) Die Standardabweichung<br />
des Modells wird in diesem Fall mit jener der Beobachtung normiert. Man<br />
kann dies genauso im Diagramm machen, indem man die Radialachse in<br />
Einheiten von σ o skaliert.<br />
Anhang 1 5<br />
Teilbericht 4
Abbildung 1 zeigt ein Beispiel eines Taylor Diagramms mit Isolinien von Sr.<br />
Man sollte allerdings beachten, dass dabei der Bias in Taylor’s skill score<br />
nicht berücksichtigt wird.<br />
Abb.1: Taylor Diagramms mit Isolinien des skill scores Sr und Niederschlagswerten über<br />
Indien, die mit 28 Modellen simuliert wurden (aus Taylor, 2001, Fig. 10.)<br />
<strong>1.</strong>8 Vorschlag eines total skill score<br />
Wie wir gesehen haben kann die Idee des normierten bias korrigierten RMSE<br />
zu Taylor’s skill score erweitert werden, indem ein Korrelationsanteil, der speziell<br />
für große Werte des NBC RMSE wichtig wird, hinzugefügt wird. Wollen<br />
wir zusätzlich den (relativ) BIAS im skill score berücksichtigen, so muss zuerst<br />
eine Formulierung gefunden werden, die den relativ BIAS (RB) in einen skill<br />
sccore Sb mit 0 ≤ Sb ≤ 1transformiert,<br />
wobei 1 für RB=0 erreicht wird. Ein sinnvolles<br />
Ergebnis kann zB mit folgender Formel erzielt werden:<br />
Das Setzen des Wertes a=10 scheint eine vernünftige Abbildung solch eines<br />
skill scores zu sein, wie in Tabelle 1 zu sehen ist.<br />
Nun können beide skill scores zu einem Gesamt skill score S kombiniert werden:<br />
Tab.1: Einige Zahlenwerte des Bias skill scores definiert nach Gl.19 mit a=10<br />
6 Anhang 1<br />
Teilbericht 4<br />
.
2 Evaluierungsstrategie<br />
2.1 Einleitung<br />
Die Modellevaluierung soll im Rahmen von RECLIP zwei Zielen dienen:<br />
• Auswahl eines möglichst optimalen Setups für MM5 und gegebenenfalls<br />
auch Aladin (Gebiete, Gitter, Modellphysik)<br />
• Vergleichender Test der Leistungsfähigkeit der beiden Modelle im Hinblick<br />
auf Klimaanwendungen<br />
Für die Tests wird folgende Reihenfolge vorschlagen:<br />
<strong>1.</strong> Festlegung von Gebiet und horizontalem Gitter<br />
2. Untersuchung, ob Zängl-Version (Zängl, 2003) sinnvoll ist<br />
3. Tests mit Optionen zur Modellphysik (außer SVAT)<br />
4. (Langzeit-)Test des/der SVAT(s)<br />
2.2 Datenquellen<br />
Folgende Datenquellen stehen prinzipiell zum Vergleich mit den Ergebnissen<br />
der Modelle zur Verfügung:<br />
ERA-40 Felder:<br />
Am Europäischen Zentrum für mittelfristige Wettervorhersage (ECMWF) wurde<br />
mit Hilfe des operationellen Vorhersagemodells (in reduzierter Auflösung)<br />
ein 3D-Analysendatensatz erstellt (Kållberg, 2004). Datengrundlage dieses<br />
Modellaufs sind die Beobachtungen der letzten 45 Jahre, weshalb man quasi<br />
3D Beobachtungen zur Verfügung hat, also fast die wirklichen Felder jedes<br />
einzelnen Tages. Diese Daten sind mit einer horizontalen Auflösung von 1°<br />
auf 60 Modellflächen oder 23 Druckflächen verfügbar und werden im Rahmen<br />
dieses Projekts auch zum Antrieb der mesoskaligen Modelle verwendet.<br />
VERA-Analysen:<br />
VERA (Vienna Enhanced Resolution Analysis) wurde am Institut für Meteorologie<br />
und Geophysik der Universität Wien entwickelt. Dieses Interpolationsverfahren<br />
dient der hochauflösenden Analyse von zweidimensionalen Feldern<br />
wie etwa dem Druck oder der Temperatur (Steinacker et al. 2000).<br />
Niederschlagsanalyen:<br />
24-std. Niederschlagssummen aufbereitet von Christoph Frei stehen auf einem<br />
regelmäßigen Gitter im Alpenraum für die Perioden 1971-1995 sowie<br />
7.9.-15.1<strong>1.</strong>1999 (MAP-SOP) zur Verfügung. Das Gitter ist ein Lat-Lon-Gitter<br />
mit ∆x=0.3° und ∆y=0.22°, also etwa 25 km Maschenweite. Zusätzlich zu diesen<br />
sehr genauen Daten sollen noch grober aufgelöste Daten für andere Perioden<br />
vom Weltniederschlagszentrum in Offenbach für spätere Tests zur Verfügung<br />
stehen.<br />
Anhang 1 7<br />
Teilbericht 4
Radiosonden:<br />
Hier steht ein homogenisierter, qualitätsgeprüfter Radiosonden-Datensatz von<br />
Christian Häberli (Comprehensive Alpine Radiosonde Data Set – CALRAS 1 )<br />
zur Verfügung. Daten (Teil A [Hauptdruckflächen] und B [markante Punkte],<br />
teilweise auch in noch höherer Auflösung) von ca. 25 Stationen im und um<br />
den Alpenraum sind für den Zeitraum 1980-2000 am IGAM vorhanden.<br />
Stationsdaten:<br />
Im Rahmen des Mesoscale Alpine Program (MAP) wurde im Herbst 1999<br />
(7.9. - 15.11) ein dichtes Stationsmessnetz im Alpenraum betrieben, welches<br />
eine sehr gute Datengrundlage für die Validierung der Modellergebnisse mit<br />
Bodenstationen bildet. In diesem Zeitraum und auch schon die Monate davor<br />
liegen sehr viele qualitätsgeprüfte Beobachtungen vor. Viele Stationen wurden<br />
zusätzlich zu den permanent verfügbaren Synop- und Klimastationen, die<br />
natürlich auch zur Evaluierung herangezogen werden können, betrieben.<br />
2.3 Arten von Läufen und Grundsätzliches zu ihrer Evaluierung<br />
Da sie jeweils unterschiedliche Methoden der Evaluierung erfordern, ist es<br />
wichtig, die verschiedenen Arten von Modell-Läufen zu beachten:<br />
• Episodensimulationen mit Randbedingungen aus ERA-40 zur Optimierung<br />
vor allem von Gebiet und Gitter, evt. auch manchen Modellphysik-<br />
Optionen<br />
• Episodensimulationen mit Randbedingungen und Gitterpunkt-Nudging<br />
aus ERA-40 zur Optimierung von Modellphysik und Gitter<br />
• 1-Jahr-Simulation mit Randbedingungen aus ERA-40 zur Optimierung<br />
des SVAT-Schemas und für den vergleichenden Test der beiden Modelle,<br />
sowie zur generellen Abschätzung der Leistungsfähigkeit der<br />
Modelle<br />
Im ersten Projektjahr wurden von allen Projektpartnern die jeweils nötigen<br />
Tools entwickelt, und für die später folgende Auswertung und zum Testen der<br />
entwickelten Module wurde mit dem ersten Test begonnen; alle weiteren<br />
Tests werden sukzessive im zweiten Projektjahr durchgeführt. Trotzdem soll<br />
hier gleich die gesamte Evaluierungsstrategie erläutert werden, damit ein klares<br />
Gesamtbild zur Evaluierung entsteht.<br />
2.3.1 S1 – freie Episodensimulationen<br />
Die Größe des Modellgebietes soll so gewählt werden, dass der Einfluss der<br />
Ränder so stark ist, dass das im Inneren vom Modell generierte Wetter noch<br />
determiniert ist, jedoch nicht zu stark, so dass die höhere Auflösung im Vergleich<br />
zu ERA-40 (bzw. GCM) die Freiheit hat, abweichende – hoffentlich<br />
bessere – Strukturen zu produzieren. Die Prüfung, ob das generierte Wetter<br />
noch realistisch ist, kann anhand von ERA-40 Daten erfolgen. Dazu muss ein<br />
1<br />
Siehe http://homepage.univie.ac.at/christian.haeberli/CALRAS.htm, dort auch eine technische Beschreibung<br />
8 Anhang 1<br />
Teilbericht 4
Upscaling auf die Auflösung von ERA-40 erfolgen. Die Prüfung sollte im Gesamtgebiet<br />
mit Ausnahme der randnahen Zonen erfolgen. Die Fähigkeit, bessere<br />
Strukturen zu erzeugen, soll primär im Alpenraum und Umgebung geprüft<br />
werden. Wenn wir die Gebiete der innersten Nester der diversen Testläufe<br />
(verschiedene MM5- und ggf. Aladin-Varianten) i mit Ai bezeichnen, sollte<br />
dieses Gebiet i A I _ (größtes noch allen Läufen gemeinsames Gebiet) sein.<br />
Prüfung zusätzlich zu D1 (siehe unten) anhand von D3, D5 und möglichst<br />
auch D2.<br />
Da die Freisetzung latenter Wärme ein wesentlicher Faktor der Zyklogenese<br />
ist (Pichler and Steinacker, 1975), bieten sich S1-Simulationen auch für die<br />
Beurteilung von Konvektions- und Feuchteschemata an.<br />
2.3.2 S2 – Episodensimulationen mit Nudging<br />
Diese Simulationen sollen der Optimierung von Modellphysik-Optionen dienen.<br />
Wir wollen, dass die Phase und Amplitude der synoptischen Systeme<br />
keine groben Fehler aufweist, so dass die Vergleiche mit den Beobachtungen<br />
Auskunft über die Qualität der kleinräumigen, orographisch und durch die Unterlage<br />
bestimmten Phänomene geben. Die Datensätze D2-D5 sollen für die<br />
Prüfung herangezogen werden. Je nach Fragestellung können unterschiedliche<br />
Episoden verwendet werden.<br />
2.3.3 S3 – 1-Jahr-Simulation ohne Nudging<br />
Das Jahr 1999 soll als Ganzes simuliert werden, um einen Eindruck von der<br />
Qualität des Ergebnisses zu erhalten, das dann auch für die eigentlichen Klimarechnungen<br />
erwartet werden kann.<br />
Da sich die Landoberflächen-Schemata (SVAT) erst auf dieser Zeitskala deutlich<br />
auswirken, soll diese Simulation, wenn möglich bzw. noch erforderlich<br />
auch der Auswahl zwischen den im MM5 möglichen SVAT-Schemata dienen.<br />
Alle Datensätze (D1-D5) sollen für die Evaluierung verwendet werden.<br />
2.4 Statistische Standardparameter<br />
Folgende statistischen Standardparameter sind zu berechnen, wobei die jeweiligen<br />
Parameter und Grundgesamtheiten bei den entsprechenden Datenquellen<br />
bzw. Tests spezifiziert werden:<br />
o<br />
P-<strong>1.</strong> x (Gl. 3)<br />
P-2. RMSE (Gl. 4)<br />
P-3. Bias (Gl. 12)<br />
P-4. Bias-korrigierter RMSE (Gl. 14)<br />
P-5. Inputdaten für das Taylor-Diagramm: Standardabweichungen Modell<br />
und Beobachtung sowie Korrelationskoeffizient<br />
P-6. Fisher’s skill score (Gl. 18)<br />
−1<br />
P-7. Bias skill score (Gl. 19 mit RB = Bσ<br />
x , siehe Gl. 9, und a=10)<br />
P-8. Total skill score (Gl. 20 mit α=0.5)<br />
Anhang 1 9<br />
Teilbericht 4
2.5 Evaluierungsmethoden für die verschiedenen Datenquellen<br />
Die detaillierte Ausarbeitung der Evaluierung mit bestimmten Daten erfolgte<br />
vorerst für ERA-40 Daten, da diese für die ersten Tests vorrangig verwendet<br />
werden und für Radiosondendaten, damit sich die dafür zuständigen Kollegen<br />
ein Bild der von uns vorgeschlagene Evaluierungsmethodik machen können.<br />
2.5.1 D1 – ERA-40<br />
Die zu evaluierende meteorologische Parameter sind:<br />
• Geopot. Höhe der 850 hPa Fläche (Gebiete mit Topographie, die höher<br />
reicht, sind auszunehmen, wobei dieses Gebiet für alle Tests und<br />
Modelle einheitlich zu definieren ist)<br />
• Temperatur auf der 850 hPa Fläche (Gebiet wie oben)<br />
• absolute Feuchte (g Wasserdampf pro kg feuchter Luft) auf der 850 hPa<br />
Fläche (Gebiet wie oben). (Von der Kombination zu Θe wird abgesehen,<br />
um die Feuchte auch getrennt untersuchen zu können, die u.U.<br />
von manchen Parametrisierungen extra beeinflusst ist).<br />
• Geopot. Höhe der 500 hPa Fläche<br />
Dies setzt die Extraktion der entsprechenden Druckflächen-Daten (oder ihre<br />
Berechnung durch Interpolation) und die Definition der wegen der Topographie<br />
auszulassenden Gebiete voraus.<br />
Die Evaluierung soll sich auf die Felder zu den synoptischen Hauptterminen<br />
(00,06,12,18 UTC) stützen und 48 h nach Modellstart beginnen.<br />
Mit Hilfe von Postprozessoren werden die Modellergebnisse auf Druckflächen<br />
gebracht und anschließend mittels Cressman-Methode auf das ERA-40 Gitter<br />
interpoliert.<br />
Zu berechnende Kenngrößen sind die Standardparameter P-1 bis P-8<br />
(a) für jeden Evaluierungs-Zeitschritt und jeden meteorologischen Parameter<br />
(b) für die gesamte Evaluierungsperiode und jeden meteorologischen Parameter<br />
(c) der Gesamt skill score gemittelt über alle meteorologischen Parameter<br />
für die gesamte Evaluierungsperiode.<br />
Wetterkarten der gewählten Parameter, die für die subjektive Interpretation<br />
und Bewertung der Ergebnisse hilfreich erscheinen, sollten von den Modellbetreibern<br />
miterzeugt werden.<br />
2.5.2 D4 – Radiosonden<br />
Radiosonden sind die einzigen uns zur Verfügung stehenden Daten, die kleinräumige<br />
Phänomene in der freien Atmosphäre bzw. im vertikalen Profil beschreiben.<br />
Sie eignen sich daher vor allem für die Anwendung im Alpenraum<br />
und Umgebung und sollten nur mit dem feinen Nest verglichen werden. Sie<br />
sollen vor allem zur Prüfung der kleinräumigen Strömungs-Strukturen und der<br />
10 Anhang 1<br />
Teilbericht 4
Grenzschicht-Parametrisierung eingesetzt werden. Es wird daher vorgeschlagen,<br />
Daten bis 3500 m über Grund zu verwenden.<br />
Die Datenaufbereitung erfolgt durch lineare Interpolation von Temperatur, relativer<br />
Feuchte, u- und v-Komponente sowie Betrag des Windes auf den vorgegebenen<br />
Höhen über Grund, sowohl im Modell wie auch in den Beobachtungen.<br />
Vorschlag für die Höhen [in m agl]:<br />
50 - 100 - 150 - 200 - 300 - 400 - 500 - 700 - 900 - 1200 - 1500 - 1800 - 2200 - 2600 -<br />
3000 – 3500<br />
Die Berechnung der statistischen Parameter erfolgt wie oben für<br />
(a) jede Station, jede Höhe und jeden Parameter über jeweils eine Episode,<br />
(b) dasselbe, jedoch getrennt für 00 Z und 12 Z Aufstiege (Zwischenaufstiege<br />
sind hier nicht berücksichtigt),<br />
(c) die Ergebnisse von (a) und (b) gemittelt über alle Stationen,<br />
(d) den skill score gemittelt über alle Stationen und Parameter für jedes<br />
Niveau, wobei der skill score folgendermaßen gewichtet wird:<br />
2 1 2<br />
ST + SU<br />
+ ( 0.<br />
3SU<br />
+ 0.<br />
3Sv<br />
+ 0.<br />
4S<br />
ff ) , und<br />
5 5 5<br />
(e) die skill scores nach (d) gemittelt über alle Niveaus.<br />
2.6 Domain-Setup<br />
Um sicher zu gehen, dass die für Europa meteorologisch wichtigen Prozesse<br />
gut erfasst werden schien es uns notwenig, das mit MM5 modellierte Gebiet in<br />
Richtung Atlantik auszudehnen. Wir wählten ein großes Gebiet G2, in dem<br />
Island noch mit simuliert wird, und ein kleineres Gebiet G1, das im Südwesten<br />
bis 10°W reicht (siehe Abbildung 2).<br />
Da im Osten die Erstreckung bis zum Ural hin sicherlich für das Wetter in Alpenraum<br />
ausreichend ist, wurde die Domain so gelegt, dass ihr Zentrum nicht<br />
in Österreich liegt, sondern bei 52.5° / 1<strong>1.</strong>3° für die große Domain und<br />
49.5°/1<strong>1.</strong>3° für die kleine Domain. Das große Gebiet entspricht etwa jenem,<br />
welches von den meisten im EU-Project PRUDENCE beteiligten Modellen<br />
abgedeckt wird. Durch diese Verschiebung des Domainzentrums nach Nordwesten<br />
konnte das Gesamtgebiet verkleinert werden, weshalb nur mehr ein<br />
Nest notwenig wurde. Dies ermöglichte es, den Rechenaufwand erträglich zu<br />
halten. Ob die Auflösung von 30 km im großen Gebiet bzw. 10 km im Nest<br />
große Vorteile gegenüber der gröberen Auflösung von 45 km / 15 km erbringt,<br />
muss bei der Auswertung der Tests festgestellt werden. Der Faktor drei zwischen<br />
den Neststufen ist vom Programm vorgegeben. Die horizontale Modellauflösung<br />
bestimmt den verwendbaren Zeitschritt im Modell, da dieser in<br />
der Regel dreimal länger sein muss, als die horizontale Gitterauflösung, um<br />
das CFL-Kriterium zu erfüllen.<br />
Die Frage der vertikalen Auflösung muss ebenfalls noch behandelt werden.<br />
Ursprünglich war geplant, diese im Rahmen der Grenzschichtparametrisierung<br />
zu behandeln. Jedoch könnte es sein, dass die Auflösung in der freien Atmo-<br />
Anhang 1 11<br />
Teilbericht 4
sphäre auch ein relevanter Parameter ist, und dann wäre sie in Zusammenhang<br />
mit dem Domainsetup zu untersuchen.<br />
2.6.1 Domaingrößen<br />
Im Folgenden sollen nun die 4 verschiedenen Domainsetups ein wenig erläutert<br />
werden.<br />
In der Abbildung 2 sind die verschiedenen Ausschnitte und Auflösungen zu<br />
erkennen. Es sind hier auch zusätzlich die Aladin-Domain und eine zusätzliche<br />
MM5-Domain, welche ähnlich jener des Aladin ist, um die direkten Vergleiche<br />
ehrlicher zu machen, abgebildet. Dargestellt ist die Temperatur in 850<br />
hPa für einen Tag aus der 2. Episode, da nur für diese die MM5-Aladindomain<br />
mitgerechnet wurde. In allen MM5-Domains liegt noch ein Nest, welches die<br />
jeweilige Feinauflösung (15 km bzw. 10 km) über dem Alpenraum enthält.<br />
Dies ist der Übersichtlichkeit wegen hier nicht eingezeichnet.<br />
Abb. 2: Domain-Setups für MM5 und Aladin. A005 bezeichnet die große MM5 Domain mit<br />
45km Auflösung. A006 bezeichnet die kleine MM5 Domain mit 45km Auflösung. In der 2.Zeile<br />
sind die beiden Domains mit jeweils 30 km Auflösung dargestellt (A007:groß, A008: klein). In<br />
der untersten Zeile ist links die Aladin-Domain dargestellt und rechts die MM5-Doamin, welche<br />
ähnlich jener des Aladin gestaltet ist.<br />
12 Anhang 1<br />
Teilbericht 4
2.6.2 Validierungsstrategie<br />
Test für äußere Domain D01 (mit grober 45 k) Auflösung):<br />
G1 kleineres Gebiet<br />
G2 großes Gebiet<br />
Test für Nestdomain D02 (mit grober (15 km) Auflösung):<br />
N1 kleiner<br />
N2 größer<br />
Test zur Auflösung:<br />
45 km – 15 km<br />
30 km – 10 km<br />
Dh. zur Festlegung der Domain und Auflösung sind<br />
mindestens 6 Rechnungen notwendig.<br />
3 Parameter-Setup MM5, Aladin<br />
Das PSU/NCAR Mesoscale Model (bekannt als MM5) wurde an der Penn<br />
State University und am NCAR als gemeinsames Modell entwickelt (Grell et<br />
al. 1994). Es ist ein kleinräumiges, nicht hydrostatisches geländefolgendes<br />
Modell in sigma-Koordinaten und wurde zur Simulierung mesoskaliger atmosphärischer<br />
Prozesse entwickelt.<br />
Das Modell wird üblicherweise mit meteorologischen Vorhersagedaten (zB<br />
ECMWF) betrieben. Mit Hilfe eines Nesting-Verfahrens wird eine horizontale<br />
Auflösung im km-Bereich erreicht.<br />
MM5 beinhaltet zahlreiche Parametrisierungen physikalischer Prozessen, die<br />
in unterschiedlichen Kombinationen miteinander verwendet werden können<br />
(vgl. Abb.3). So stehen zB 8 Varianten zur Cumulus-Parametrisierung, 7 unterschiedliche<br />
Grenzschicht-Schemata, 8 explizite Niederschlags-Parametrisierungen,<br />
4 Möglichkeiten zur Strahlungs-Parametrisierung und 3 Boden-<br />
Schemata zur Verfügung. All diese Parametrisierungen sind stark miteinander<br />
gekoppelt und manche davon ohne bestimmte andere gar nicht anwendbar.<br />
Die Vielzahl an verfügbaren Parametrisierungen ermöglicht es für die verschiedensten<br />
Anwendungen ein geeignetes Modell zur Verfügung zu haben.<br />
Die Aufgabe des Modellierers besteht nun darin das für die jeweilige Fragestellung<br />
optimale Setup zu finden. Für die übliche Anwendung des Modells,<br />
nämlich kurzfristige hoch aufgelöste Wettervorhersagen, findet man jede<br />
Menge Empfehlungen und Literatur über die geeignete Wahl der Parameter.<br />
Der in diesem Projekt verfolgte Ansatz, nämlich ein dynamisches Klimadownscaling<br />
im Alpenraum durchzuführen, ist hingegen innovativ, weshalb<br />
das bestmögliche Parameter-Setup erst gefunden werden muss, und dafür<br />
diverse Tests durchzuführen sind.<br />
Anhang 1 13<br />
Teilbericht 4<br />
Gx<br />
GxNx<br />
GxNxA
Auch für das zweite zum Einsatz kommende mesoskalige Modell, ALADIN,<br />
muss das passende Setup gefunden werden. Dies wird jedoch von den Modellbetreibern<br />
festgelegt und diese stellen zu jedem von uns für das MM5 vorgeschlagenen<br />
Test adäquate Aladinergebnisse zur gemeinsamen Validierung<br />
zur Verfügung.<br />
Abb. 3: MM5-Parametrsierungswechselwirkungen<br />
4 Termine<br />
Zur Durchführung der Parametertests ist es erforderlich, geeignete Termine<br />
und Episoden, die charakteristische Wettersituationen beinhalten, zu eruieren.<br />
Aufgrund der guten Datenlage sollten die Perioden, soweit möglich im Zeitraum<br />
der MAP Special Observing Periode (SOP) liegen. Da nicht alle für die<br />
Parametertests notwendigen Wetterlagen in diesem Zeitraum auftraten und<br />
um auch andere Jahreszeiten testen zu können wurde ein Schwerpunkt auf<br />
das Jahr 1999 gelegt, aber auch andere Jahre berücksichtigt.<br />
In Tabelle 2 sind die einzelnen Episoden, sowie ein charakteristisches Fallkürzel<br />
und das aufgetretene Wetter vermerkt. Die Perioden wurden zum einen<br />
mit Hilfe der MAP-Datenbank zum anderen aufgrund der täglichen Klima- und<br />
Wetterinformation der ZAMG, sowie der Analyse von Wetterkarten ausgewählt.<br />
14 Anhang 1<br />
Teilbericht 4
Tab.2: Wetterlagen und Termine für Tests der physikalischen Parametrisierungen und Domains.<br />
Die Spin-up Zeit ist noch nicht berücksichtigt (Vorschlag 2-3Tage) Jeder Fall ist durch<br />
ein Kürzel eindeutig definiert. Die Abkürzungen sind wie folgt zu lesen: Mp = MAP-Episode,<br />
Ep = Episode, ST = Strahlung, SF = Südföhn, NF = Nordföhn, BL = Bodenfeuchte/ Grenzschicht,<br />
KO = Konvektion, RR = Niederschlag.<br />
Fallkürzel Beginn Ende Dauer(d) Wetter<br />
MpSF1 18.09.99 2<strong>1.</strong>09.99 3 Südföhn/Stauniederschlag<br />
MpSF2 2<strong>1.</strong>10.99 25.10.99 5 Südföhn<br />
MpSF3 29.10.99 30.10.99 2 Südföhn<br />
MpSF4 04.1<strong>1.</strong>99 05.1<strong>1.</strong>99 2 Südföhn<br />
MpNF1 07.1<strong>1.</strong>99 07.1<strong>1.</strong>99 1 Nordföhn<br />
MpBL1 15.10.99 19.10.99 5 Boden-Hochnebel<br />
MpST1 1<strong>1.</strong>09.99 1<strong>1.</strong>09.99 1 (Hochdrucklage) (Wien wolkenlos)<br />
MpST2 07.1<strong>1.</strong>99 07.1<strong>1.</strong>99 1 (Frontdurchgang, durchwegs bedeckt)<br />
EpRK1 07.08.99 07.08.99 1 Gewitteraktivität<br />
EpRK2 13.07.99 13.07.99 1 Gewitteraktivität<br />
EpRR1 2<strong>1.</strong>07.92 22.07.92 2 HERA-Fall konvektiver Niederschlag<br />
EpRR2 04.07.94 06.07.94 3 HERA-Fall konvektiver Niederschlag<br />
EpRR3 22.07.95 22.07.95 1 HERA-Fall konvektiver Niederschlag<br />
EpSF1 14.04.99 15.04.99 2 Föhn<br />
EpSF2 28.04.99 29.04.99 2 Föhn<br />
EpSF3 17.05.99 19.05.99 3 Föhn<br />
EpSF4 05.06.99 06.06.99 2 Föhn<br />
EpST1 18.0<strong>1.</strong>98 18.0<strong>1.</strong>98 1 Hochdruck, Winterstrahlungstest<br />
EpST2 0<strong>1.</strong>02.98 0<strong>1.</strong>02.98 1 H.W: BEW: 0,6,1<br />
EpST3 05.02.98 05.02.98 1 H.W: BEW: 0,0,0<br />
EpST4 30.03.98 3<strong>1.</strong>03.98 2 H.W: BEW: 1,0,0- 1,3,4<br />
EpST5 08.0<strong>1.</strong>98 13.0<strong>1.</strong>98 6 Nebel od. Hochnebel<br />
EpST6 09.02.98 15.02.98 7 wolkenlos, Hochnebel<br />
EpST7 16.0<strong>1.</strong>99 24.0<strong>1.</strong>99 9 wolkenlos, Hochnebel<br />
EpKO3 07.05.98 13.05.98 7<br />
Hochdruck-Quellwolken-<br />
Schauer/Wärmegewitter<br />
EpKO4 23.05.99 0<strong>1.</strong>06.99 10<br />
Hochdruck-Quellwolken-<br />
Schauer/Wärmegewitter<br />
EpKO5 18.07.99 25.07.99 8<br />
Hochdruck, sommerlich, subtropisch, labil<br />
bzw. feuchtlabil<br />
EpRR4 03.12.88 03.12.88 1 Startclim-zykl. Nordwestwetterlage<br />
EpRR5 02.08.87 02.08.87 1 Startclim-zykl. Nordwestwetterlage<br />
EpRR6 17.12.87 17.12.87 1 Startclim-zykl. Nordwestwetterlage<br />
EpRK7 10.07.90 10.07.90 1 Startclim-Kaltlufttropfen<br />
EpRK8 20.07.81 20.07.81 1 Startclim-Kaltlufttropfen<br />
EpRR9 08.10.93 08.10.93 1 Startclim-Südstau<br />
EpRR10 04.10.92 05.10.92 2 Startclim-Südstau<br />
Anhang 1 15<br />
Teilbericht 4
5 Erste Vergleichsrechnungen MM5 – Aladin<br />
Um die von allen erarbeiteten Tools auch einem praktischen Test zu unterziehen,<br />
wurde ein MM5-Setup festgelegt und damit für zwei meteorologisch<br />
sehr interessante Episoden aus der MAP-SOP Simulationen durchgeführt.<br />
5.1 Festlegung der MM5- Parametrisierungen<br />
Für die MM5 Modellierung wurden folgende Parametrisierungsvorgaben vorgeschlagen:<br />
- Radiation: RRTM longwave scheme IFRAD=4<br />
- PBL + SVAT: MRF + Noah land-surface scheme IBLTYP=5, ISOIL=2<br />
- Cumulus: Kain Fritsch 2 + ishallow ICUPA=8, ISHALLOW=1 (falls nötig)<br />
- Moisture: Reisner1 (Mixed-Phase) IMPHYS=5<br />
Die Wahl dieser Parametersetups richtete sich zum einen nach der möglichen<br />
Kombinationsfähigkeit dieser, zum anderen nach Empfehlungen von G. Zängl<br />
(Zängl, 2004), der bereits zahlreiche hoch aufgelöste MM5 – Simulationen im<br />
Alpenraum durchführte und eine für komplexes Terrain verbesserte Modell<strong>version</strong><br />
(Zängl, 2003) entwickelt hat. Die neuen Module dieser MM5 Version<br />
sollen in Kürze in die nächste offizielle MM5-Version übernommen werden,<br />
wir haben die neue Version bereits bei uns am Institut installiert und die Lauffähigkeit<br />
getestet. Ob diese Version deutliche Verbesserungen für unsere<br />
Klimaanwendung erbringt soll in einem der in diesem Jahr folgenden Tests<br />
überprüft werden, denn die Vorteile der neuen Methode liegen vor allem bei<br />
Auflösungen im oder unter dem km-Bereich.<br />
5.2 Festlegung der für diesen Test sinnvollen Termine<br />
Um die Effekte der Domaingröße und Wahl aufzuzeigen, sollten Episoden<br />
gewählt werden, die viel Dynamik beinhalten. Da mit dem Aladin bereits die<br />
gesamte MAP-SOP simuliert war, sollten die Episoden aus dieser Zeitperiode<br />
entnommen werden.<br />
Als meteorologisch interessante Episoden wurden die folgenden beiden ausgewählt,<br />
wobei jeweils vorne weg noch zwei Tage mehr gerechnet wurden,<br />
als so genannter Spin-up, der bei der Evaluierung nicht berücksichtigt wird:<br />
Episode 1: 18.9.1999 – 2<strong>1.</strong>9.1999<br />
Episode 2: 5.1<strong>1.</strong>1999 – 8.1<strong>1.</strong>1999<br />
Die Spin-up Zeit des mesoskaligen Modells ist jene Zeitperiode, die erforderlich<br />
ist, damit sich kleinräumige Strukturen aufgrund der spezifischen Parametrisierungen<br />
sowie der besser aufgelösten unteren Randbedingung entwickeln<br />
können. Erst nach diesem Zeitraum kann das Modell den Zustand der<br />
Atmosphäre besser beschreiben als er bereits von den Antriebsdaten vorgegeben<br />
ist.<br />
16 Anhang 1<br />
Teilbericht 4
5.3 Auswertung der Ergebnisse<br />
Im Folgenden sollen nun erste Auswertungen der bisher durchgeführten<br />
Rechnungen präsentiert werden. Zum Einen sollen die Vor- und Nachteile der<br />
verschiedenen Scores erläutert werden, zum Anderen aber auch ein erster<br />
Vergleich der Modelle. Auch auf die Wahl des Domainsetups soll etwas detaillierter<br />
eingegangen werden, da ja für unterschiedlich große Gebiete und mit<br />
unterschiedlichen Auflösungen simuliert wurde. Für die zweite Episode erfolge<br />
ein Modellvergleich zwischen den potentiellen MM5-Betreibern (systems research,<br />
BOKU-Met, IGAM), außerdem wurde für diese Episode ein zusätzliches<br />
MM5-Domain festgelegt, welches jenem des ALADIN-Modells ähnlich<br />
ist.<br />
Die Bezeichnung der diversen Domainsetups erfolgte so: Alle Berechnungen<br />
die von ARC-SYS durchgeführt wurden haben Namen, die mit A beginnen,<br />
die BOKU-Met-Berechnungen beginnen mit B und die Aladin-Ergebnisse mit<br />
C. Mit dem Buchstaben D wurden die Ergebnisse des IGAM bezeichnet. Da<br />
für die MM5-Berechnungen ursprünglich 4 verschiedene Domainsettings vorgesehen<br />
waren heißen die Fälle der <strong>1.</strong>Episode A001 bis A004 und jene der<br />
2.Episode A005-A008, Aladin hat nur 1 Setup, daher C001 für die <strong>1.</strong>Episode<br />
und C002 für die 2.Episode. Die MM5-Aladindomain wurde nachträglich mit<br />
A000 bezeichnet und bezieht sich auf die 2.Episode.<br />
Die Auswertung mit den statistischen Parametern erfolgt auf einem Gebiet,<br />
welches von allen Modellläufen abgedeckt wird, daher stellt das Aladinmodell<br />
den limitierenden Faktor dar. Die Ergebnisse des Aladinmodells würden von<br />
der Auflösung jenem der MM5-Nester entsprechen. Da diese aber nur den<br />
Alpenraum, also das Zielgebiet der Klimamodellierung, abdecken und bei der<br />
Auswertung ein Vergleich mit den 1° aufgelösten ERA-40 Daten erfolgen soll,<br />
wird vorerst die grobe MM5 Auflösung mit der feinen Aladin Auflösung verglichen,<br />
weshalb bei diesem ersten Vergleich, der in erster Linie die Methodik<br />
der Auswertung aufzeigen soll, immer die Aladinergebnisse besser sind.<br />
Um den Vergleich mit den grob aufgelösten ERA-40 Daten durchführen zu<br />
können, werden die Modellergebnisse mittels Cressman-Interpolation auf das<br />
1°-Gitter gebracht. Bei diesem Verfahren werden in einem vordefiniertem Umkreis<br />
(in unserem Fall 90 km) alle Modellgitterpunkte, gewichtet mit der Entfernung<br />
zum Zielgitterpunkt, gemittelt und liefern den neuen groben Gitterpunktswert.<br />
Die Wahl des Cressman-Radius orientierte sich an der gesuchten Zielauflösung.<br />
Bei 90 km Radius stehen immer genügend Gitterpunkte zur Verfügung,<br />
um die Interpolation sinnvoll durchführen zu können. Da bei der Auswertung<br />
nur ein Gebiet betrachtet wurde, welches von allen Modelläufen abgedeckt<br />
wird, gehen die Randwerte der Modelle nicht in die Auswertung mit ein. In<br />
Abbildung 4 ist dieses Gebiet als schwarzes Rechteck dargestellt. Es reicht<br />
von 4°E – 30°E und von 36°N – 54°N.<br />
Anhang 1 17<br />
Teilbericht 4
Abb. 4: Definition des Evaluierungsbereichs. Alle statistischen Vergleichsparameter wurden<br />
nur in dem mit dem schwarzen Rechteck begrenzten Gebiet berechnet, da dieses von allen<br />
Modellen abgedeckt wird. Farblich hinterlegt ist hier ein Temperaturdifferenzfeld der großen<br />
MM5-Domain.<br />
Wie bereits bei der Evaluierungsstrategie angesprochen, sollen vorerst folgende<br />
Parameter ausgewertete werden:<br />
• Temperatur in 850 hPa<br />
• Geopotential in 850 hPa<br />
• Geopotential in 500 hPa<br />
• Spezifische Feuchte in 700 hPa<br />
• Niederschlag<br />
Für die ersten vier Parameter werden statistische Parameter zwischen dem<br />
jeweiligen Modellergebnis und den ERA-40 Daten berechnet, für den Niederschlag<br />
wird in einem ersten Schritt der prozentuelle Anteil der Modellfläche<br />
betrachtet, in der über 0.5 mm Niederschlag in 6h gefallen sind und dieser nur<br />
zwischen den einzelnen Modelläufen und mit keiner Beobachtung verglichen.<br />
Anhand der Temperatur in 850 hPa sollen nun die verschiedenen Tools diskutiert<br />
werden, für die übrigen Parameter finden sich ähnliche Abbildungen und<br />
Tabellen im Anhang.<br />
5.3.1 Detailierte Ergebnisdiskussion für die Temperatur in 850 hPa<br />
Betrachtet man zunächst nur die <strong>1.</strong>Episode und davon als ersten Schritt die<br />
für die Gesamtperiode berechneten statistischen Werte so zeigt sich (siehe<br />
Tabelle 3), dass alle Modelläufe recht ähnliche Mittelwerte liefern und diese<br />
auch sehr gut zum Mittelwert der Temperatur des ERA-40-Feldes passen.<br />
Beim Bias erkennt man, dass die Temperatur in 850 hPa vom MM5 leicht unterschätzt<br />
wird, während das Aladin einen leicht positiven Bias aufweist, doch<br />
auch hier bewegen sich die Werte im 1/10 Grad-Bereich oder darunter, weshalb<br />
man mit dem Ergebnis durchaus zufrieden sein kann. Der Korrelationskoeffizient<br />
liegt auch in allen Läufen über 0.9 und auch die skill scores<br />
liegen fast beim Maximum von 1, weshalb man durchaus sagen kann, dass<br />
die Temperatur in 850 hPa betrachtet über die gesamte Episode von allen<br />
Modellen gut simuliert wurde.<br />
18 Anhang 1<br />
Teilbericht 4
Tab. 3: Statistikscores der <strong>1.</strong>Episode für alle verfügbaren Modelläufe. A001-A004 entsprechen<br />
den Vergleichen der 4 MM5-Domains mit den ERA-40-Daten, C001 dem Vergleich Aladin-<br />
ERA40. Bei den statistischen Parametern handelt es sich von oben nach unten um: Mittelwert-Modell,<br />
Mittelwert-ERA-40, root-mean-square error (RMSE), Standardabweichung-<br />
Modell, Standardabweichung-ERA-40, Korrelationskoeffizient (R), bias corrected RMSE<br />
(BCRMSE), relative bias (relBIAS), Bias-Score, Fisher-Score, Total-Score, prozentuelle Modellfläche<br />
im Auswertegebiet in der über 0,5mm Niederschlag gefallen sind (RR>0.5)<br />
A001 A002 A003 A004 C001<br />
MOD-MEAN 284.92 284.81 284.90 284.81 285.09<br />
ERA40-MEAN 285.00 285.00 285.00 285.00 285.00<br />
RMSE <strong>1.</strong>30 <strong>1.</strong>07 <strong>1.</strong>42 <strong>1.</strong>06 <strong>1.</strong>01<br />
BIAS -0.08 -0.19 -0.10 -0.20 0.09<br />
MOD-STD 3.30 3.33 3.24 3.29 3.26<br />
ERA40-STD 3.40 3.40 3.40 3.40 3.40<br />
R 0.93 0.95 0.91 0.95 0.96<br />
BCRMSE <strong>1.</strong>30 <strong>1.</strong>06 <strong>1.</strong>41 <strong>1.</strong>05 <strong>1.</strong>00<br />
REL.BIAS -0.03 -0.06 -0.03 -0.06 0.03<br />
B-SCORE 0.99 0.97 0.99 0.97 0.99<br />
F-SCORE 0.96 0.98 0.95 0.98 0.98<br />
T-SCORE 0.98 0.97 0.97 0.97 0.99<br />
RR> 0.5[%] 19.81 17.15 2<strong>1.</strong>09 18.08 19.97<br />
Will man sich nun auch ein wenig die Unterschiede der verschiedenen Auflösungen<br />
ansehen, so empfiehlt es sich, die Werte jedes einzelnen Prognosezeitschritts<br />
heranzuziehen, da sich manche statistischen Parameter über die<br />
gesamte Episode wieder ausgleichen können. In Abbildung 5 ist der Fisher<br />
skill score für jeden Prognosezeitschritt dargestellt. Zeitschritt 1 kennzeichnet<br />
die ersten 6 Stunden des dritten modellierten Tages, da 2 Tage Spin-up vorne<br />
weg nicht ausgewertet werden.<br />
Bei diesem Score sieht man bereits recht schön den Effekt der Domaingröße,<br />
denn die beiden untersten (und somit schlechtesten) Kurven sind jene der<br />
größten Domain und die überwiegend oberste Kurve ist jene des Aladinmodells.<br />
Dennoch sollte man auch hier nicht außer Acht lassen, dass alle<br />
Werte zwischen 0,92 und 0,99 liegen, also wirklich sehr gut sind. Die Knicke<br />
in den Kurven deuten ein wenig an, dass es die Modelle bei dieser dynamischen<br />
Wetterlage nicht immer schaffen, die Feinstrukturen im Inneren sofort<br />
richtig zu reproduzieren.<br />
Anhang 1 19<br />
Teilbericht 4
Abb. 5: Fisher skill score berechnet zwischen den jeweiligen Era-40 Gitterpunkten und den<br />
dort hin interpolierten Modellwerten. Dargestellt ist der Wert für jeden Prognosezeitschritt,<br />
also alle 6 Stunden.<br />
Als einen weiteren Parameter für die zeitliche Entwicklung der Modelgüte wollen<br />
wir uns den Bias skill score (Abbildung 6) anschauen. Dieser gibt Auskunft<br />
darüber, ob ein Modell im Mittel zu kalt oder zu warm ist; er soll hauptsächlich<br />
dazu dienen, um rasch zu erkennen, ob sich ein Modell immer weiter von der<br />
Realität entfernt, es also langsam davon driftet. Dieser Aspekt wird bei einem<br />
später folgenden Klimalauf von Bedeutung sein, bei einer Berechnung über<br />
eine Woche sollte dieses Phänomen noch nicht auftreten.<br />
Abb. 6: Bias skill score berechnet zwischen den jeweiligen Era-40 Gitterpunkten und den<br />
dorthin interpolierten Modellwerten.<br />
20 Anhang 1<br />
Teilbericht 4
Betrachtet man die Kurven in Abbildung 6 so fällt auf, dass alle MM5 Läufe,<br />
egal welches Domainsetup, sehr ähnlich verlaufen, hingegen das Aladinmodell<br />
einen anderen Charakter aufzeigt. Wie wir schon bei der Berechnung<br />
der Statistikwerte über alle Zeitschritte gesehen haben, sind die Modellergebnisse<br />
durchaus sehr gut, weshalb diese Schwankungen hier von einem<br />
Zeitschritt zum nächsten wohl eher ein Schwingen um den Grundzustand darstellen,<br />
denn wenn der Wetterablauf, bei dieser sehr dynamischen Wetterlage<br />
ein wenig zu schnell oder zu langsam prognostiziert wird, wirkt sich dies im<br />
Bias des jeweiligen Zeitschritts aus. In Summe über den gesamten Prognosezeitraum<br />
gleichen sich solche marginalen Schwankungen wieder aus und<br />
können vor allem für den Klimalauf außer Acht gelassen werden.<br />
Um die Tatsache aufzuzeigen, dass es sich bei den Signalen im Bias-Score<br />
wirklich nur um ein Schwanken um die Nulllage handelt, sollte man sich zumindest<br />
einige meteorologische Felder genauer ansehen. Dazu ist es nützlich,<br />
Differenzfelder zu untersuchen. In Abbildung 7 sind diese für die Zeitschritte<br />
12 und 13 der Episode dargestellt, wobei im Vergleich dazu auch immer<br />
im Bild darunter das ERA-40 Feld abgebildet ist, um die Streuung in diesem<br />
Feld, die ja auch für die Scoreberechnung berücksichtig wird, ein wenig<br />
abschätzen zu können. Der Untersuchungssauschnitt, in dem die statistischen<br />
Parameter berechnet wurden, ist mit dem schwarzen Rechteck gekennzeichnet.<br />
Abb. 7: Vergleich zwischen Aladinprognose und ERA-40 Feld. Links für den 12.Zeitschritt der<br />
Episode, rechts für den 13. Im oberen Teil der Abbildung ist immer das Differenzfeld (ERA-<br />
Aladin) dargestellt, wobei grüne Farben unterschiede kleiner 1°C darstellen, blaue (kühle)<br />
Farben negative Werte und rote (warme) Farben positive Werte. Im unteren Teil der Abbildung<br />
ist das ERA-40 Feld des jeweiligen Zeitschritts dargestellt.<br />
Anhang 1 21<br />
Teilbericht 4
Man erkennt sehr gut, dass im linken oberen Bild, also dem Differenzbild von<br />
Zeitschritt 12, ausschließlich grüne und blaue Farbtöne vorkommen. Diese<br />
Farben signalisieren, dass die Temperatur im Aladinfeld größer als jene im<br />
ERA40-Feld ist und daher die Differenz nahe Null (grün) bis negativ (blau) ist.<br />
Im rechten oberen Teil der Abbildung überwiegen eher die wärmeren Farbtöne,<br />
was erkennen lässt, dass die Aladintemperatur etwas niedriger ist als jene<br />
im ERA-40 Feld. In den beiden ERA-40 Feldern erkennt man das Ende der<br />
Föhnperiode und die von Westen herannahende Kaltfront. Wie man an den<br />
Differenzbildern schön erkennt ist der Bias im Zeitschritt 12 negativ, im Zeitschritt<br />
13 positiv, das Modell driftet also nicht davon.<br />
Zur Darstellung eines Gesamtbildes der <strong>1.</strong> Episode können wir den Total skill<br />
score (Abbildung 8) hernehmen, denn dieser vereinigt den Fisher skill score<br />
und den Bias skill score zu einem Wert, wobei der Fisher-Score doppeltes<br />
Gewicht bekommt. Zum einen spiegelt sich darin der sprunghafte Charakter<br />
des Bias-Scores, zum anderen aber auch der mit zunehmender Prognosedauer<br />
stattfindende Abfall der Prognosegüte, wie dies bereits in den beiden<br />
einzelnen Scores zu sehen war. Da die 4 verschiedenen MM5-Ergebnisse<br />
(A001-A004) zu jedem Zeitschritt einen sehr ähnlichen Bias-Score aufweisen,<br />
rücken die Kurven beim Total skill score im Vergleich zum Fisher skill score<br />
ziemlich nahe aneinander, weshalb es in solch einem Fall, wo man schon<br />
weiß, dass es im Bias kaum Unterschiede gibt, nahe liegender erscheint,<br />
gleich den F-Score zu betrachten, um die Unterschiede der einzelnen Modellläufe<br />
klarer zu erkennen.<br />
Abb. 8: Total skill score für die erste Episode. Dargestellt ist der Wert zu jedem Prognosezeitschritt<br />
also alle 6 Stunden. A001-004 bezeichnen die vier MM5-Ergebnisse, C001 das<br />
Aladinergebnis.<br />
22 Anhang 1<br />
Teilbericht 4
Zieht man nun den Total skill score dazu heran, um zu entscheiden welcher<br />
Modellauf verglichen mit den ERA-40 Daten die besten Ergebnisse liefert, so<br />
erkennt man in Abbildung 7, dass dies vom treibenden Wettercharakter abhängig<br />
ist und die verschiedenen Modelle (Aladin, MM5) bei manchen Zeitschritten<br />
besser und bei anderen schlechter sind. Der starke Abfall des<br />
T-Scores für das Aladinmodell am Ende der Rechenperiode ist zum Großteil<br />
auf den Bias-Score-Abfall zurückzuführen. Hier muss man dann ins Detail<br />
schauen und erkennt, dass in den MM5-Feldern innerhalb des Auswertegebiets<br />
stark positive und ziemlich gleich stark negative Werte auftreten, weshalb<br />
der Bias über das Feld gemittelt sehr klein wird. Beim Aladin treten keine<br />
derart starken Unterschiede zu den ERA-40 Daten auf, aber eben eher in eine<br />
Richtung und nicht zu gleich positiv und negativ, weshalb der Gesamtbias des<br />
Felds größer wird. Nochmals sei hier darauf hingewiesen, dass der Bias skill<br />
score hauptsächlich für die Klimaanwendung entwickelt wurde, um ein mögliches<br />
Davondriften des Modells erkennen zu können.<br />
Abschließend kann man feststellen, dass beide Modelle durchaus in der Lage<br />
sind, den Wettercharakter der ERA-40 Daten widerzuspiegeln. Welcher Modelllauf<br />
das bodennahe Wetter am besten simuliert, sollte in einem weiteren<br />
Schritt, zB mittels VERA-Analysen von Stationsdaten, ermittelt werden. Aus<br />
dem Vergleich mit den ERA-40 Daten erkennt man, dass es von Zeitschritt zu<br />
Zeitschritt gelegentlich zu schwachen Phasenverschiebungen zwischen den<br />
Modellen und den ERA-40 Daten kommt, was im Bias ersichtlich ist. Generell<br />
zeigt sich weiters, dass im Vergleich mit ERA-40 Daten die Größe der Rechendomain<br />
entscheidend ist. Wie im F-Score klar ersichtlich ist, werden die<br />
Resultate umso besser, je kleiner die Rechendomain ist, also je näher der<br />
Rand an der Auswertedomain liegt.<br />
Wechseln wir nun zur 2. Episode, wo auch die MM5-Vergleichsrechnungen<br />
des IGAM (D005) und der BOKU-Met (B005) mit ausgewertet wurden. Diese<br />
Wetterphase ist zum einen durch viel Dynamik, zum anderen durch Zyklogenese<br />
im Modellgebiet dominiert. Als ersten Schritt empfiehlt es sich wieder<br />
die Statistik der über die gesamte Evaluierungsperiode berechneten Werte<br />
anzuschauen.<br />
In Tabelle 4 sind diese Werte eingetragen. Bereits bei den Mittelwerten über<br />
das ganze Feld und alle Zeiten erkennt man, anders als bei der vorherigen<br />
Episode, Unterschiede zwischen den Modelläufen und den ERA-40 Daten um<br />
bis zu 0.6°C. Der Korrelationskoeffizient ist bei allen MM5-Läufen unter 0,9<br />
gesunken und liegt nur beim Aladin und dem Aladin-Vergleichslauf über diesem<br />
Wert. Diese beiden Läufe sind auch die Einzigen, welche einen sehr guten<br />
Bias skill score aufweisen. Bereits bei der Betrachtung dieser für die gesamte<br />
Episode gültigen Werte erkennt man, dass die Modelle den Wettercharakter<br />
nicht so gut treffen wie dies bei der zuvor betrachteten Wetterlage der<br />
Fall war. Woran dies liegt, ob also einzelne Zeitschritte das Ergebnis negativ<br />
beeinflussen, oder ob die Modellqualität in diesem Fall generell auf einem<br />
niedrigeren Niveau angesiedelt ist wird bei der Betrachtung einzelner Parameter<br />
für jeden Zeitschritt extra verdeutlicht.<br />
Anhang 1 23<br />
Teilbericht 4
Tab.4: Statistikscores der 2.Episode für alle verfügbaren Modelläufe. A005-A008 entsprechen<br />
den Vergleichen der 4 MM5-Domains mit den ERA-40-Daten, C002 dem Vergleich Aladin-<br />
ERA40. A000 bezeichnet die mit MM5 nachgerechnete Aladindomain und bei den Spalten<br />
B005 und D005 handelt es sich um die Vergleichsrechnungen der BOKU und des IGAM. Bei<br />
den statistischen Parametern handelt es sich um die gleichen wie in Tabelle <strong>1.</strong><br />
A005 B005 D005 A006 A007 A008 A000 C002<br />
MOD-MEAN 277.96 278.09 277.74 277.72 278.06 277.64 277.55 277.49<br />
ERA40-MEAN 277.49 277.49 277.49 277.49 277.49 277.49 277.49 277.49<br />
RMSE 2.00 <strong>1.</strong>96 2.11 <strong>1.</strong>58 2.06 <strong>1.</strong>54 <strong>1.</strong>52 <strong>1.</strong>20<br />
BIAS 0.47 0.60 0.25 0.23 0.58 0.16 0.07 0.00<br />
MOD-STD 2.64 2.68 2.49 2.98 2.61 3.08 3.27 3.21<br />
ERA40-STD 3.35 3.35 3.35 3.35 3.35 3.35 3.35 3.35<br />
R 0.82 0.83 0.78 0.89 0.81 0.89 0.90 0.94<br />
BCRMSE <strong>1.</strong>94 <strong>1.</strong>87 2.09 <strong>1.</strong>56 <strong>1.</strong>98 <strong>1.</strong>53 <strong>1.</strong>52 <strong>1.</strong>20<br />
REL.BIAS 0.14 0.18 0.08 0.07 0.17 0.05 0.02 0.00<br />
B-SCORE 0.83 0.76 0.95 0.95 0.77 0.98 <strong>1.</strong>00 <strong>1.</strong>00<br />
F-SCORE 0.86 0.87 0.82 0.93 0.85 0.94 0.95 0.97<br />
T-SCORE 0.85 0.81 0.88 0.94 0.81 0.96 0.97 0.98<br />
RR> 0.5[%] 2<strong>1.</strong>75 2<strong>1.</strong>55 25.21 20.87 23.12 22.19 23.49 27.75<br />
Bei Betrachtung des F-Scores (Abbildung 9) spalten sich die Ergebnisse bereits<br />
nach wenigen Zeitschritten deutlich auf. Bis zum 4. Zeitschritt liefern alle<br />
Modellergebnisse ziemlich ähnlich gute Scorewerte, doch ab diesem Zeitschritt<br />
spalten sich zum einen die Läufe mit verschiedenen MM5-Domaingrößen<br />
auf und zum anderen beginnen die Modellierungen mit dem Aladin<br />
bzw. dem MM5-Aladindomain an Güte zu gewinnen.<br />
Ein weiterer auffälliger Punkt in Abbildung 9 sind die doch erheblichen Unterschiede<br />
zwischen den als ident angenommenen MM5-Modellierungen (A005,<br />
B005, D005). Der permanente Abfall des skill scores für den D005-Lauf lässt<br />
die Vermutung aufkommen, dass hier nicht alle einzustellenden Parameter<br />
des MM5 gleich verwendet wurden wie bei den Läufen A005 bzw. B005 die<br />
doch weit ähnlicher, wenn auch nicht exakt gleich verlaufen. Da die wählbaren<br />
physikalischen Parametrisierungen des MM5 bei allen drei Läufen gleich gewählt<br />
wurden, liegen die Unterschiede möglicherweise an der unterschiedlichen<br />
Aufbereitung der Inputdaten die das MM5 benötigt. Hier sind drei verschiedene<br />
Postprozessorschritte nötig, wobei es bei jedem einige Feineinstellungen<br />
gibt. Dass die Läufe mit dem großen Domains in diesem Fall so<br />
stark abfallen, liegt daran, dass es das Modell nicht schafft eine Tiefdruckentwicklung,<br />
die im Inneren des Modellgebiets stattfindet richtig zu simulieren<br />
(Abb. siehe Anhang). Bei den übrigen MM5-Läufen sind die Domaingrößen<br />
gerade so, dass der Randeinfluss noch ausreicht, um die Tiefdruckentwicklung<br />
zumindest in abgeschwächter Form von außen ins Modell zu bringen.<br />
24 Anhang 1<br />
Teilbericht 4
Da man von einem mesoskaligen Modell erwarten sollte, dass das im Inneren<br />
generierte Wetter besser mit der Realität übereinstimmt, als jenes des treibenden<br />
groben Modells, kann davon ausgegangen werden, dass die gewählten<br />
physikalischen Parametrisierungen für diesen Wetterablauf unzureichend<br />
sind. Aufgrund dieses Phänomens haben wir beschlossen mit dem MM5 auch<br />
noch das Aladindomain nachzurechnen, um den direkten Vergleich der beiden<br />
Modelle fairer zu machen. Bei der Beurteilung aller in diesem Bericht folgenden<br />
Ergebnisse des MM5-Aladinlaufs (A000) sollte man nicht vergessen,<br />
dass dieser mit einer Auflösung von 30 km gerechnet wurde und erst das darin<br />
liegende Nest (über den Alpen) mit 10 km Auflösung gerechnet ist, hingegen<br />
das Aladinmodell im gesamten Evaluierungsausschnitt eine Auflösung<br />
von 12.5 km aufweist.<br />
Abb. 9: Fisher skill score berechnet zwischen den jeweiligen Era-40 Gitterpunkten und den<br />
dort hin interpolierten Modellwerten. Dargestellt ist der Wert für jeden Prognosezeitschritt,<br />
also alle 6 Stunden für die 2. Episode (5.1<strong>1.</strong>1999 – 8.1<strong>1.</strong>1999).<br />
Die Untersuchung des Bias skill scores (Abbildung 10) zeigt, dass die Mehrzahl<br />
der Modelläufe zum Zeitschritt 4 und 5 ein Problem damit haben, der<br />
starken Dynamik des ERA-40 Feldes zu folgen. In den Zeitschritten 6 bis 8<br />
dürfte sich der Wettercharakter wieder ein wenig beruhigen, da eigentlich alle<br />
Modelle einen über das Feld gemittelten sehr guten Bias vorweisen. Gegen<br />
Ende der Wetterlage, wo im Modellinneren eine Tiefdruckentwicklung stattfindet,<br />
driften die MM5 Läufe mit der großen Domain davon, da sie diese Entwicklung<br />
nicht erkennen und daher ein zu warmes Feld prognostizieren. Die<br />
MM5-Läufe, welche für die kleinere Domain gerechnet wurden (A006, A008),<br />
erfassen die Tiefdruckentwicklung zum Teil, weshalb der Score gegen Ende<br />
nicht weiter abfällt. Das Aladinmodell (C002) hingegen kann sich fast zur<br />
Gänze von diesem Einbruch im Score erholen und auch der MM5-Aladin-Vergleichslauf<br />
(A000) erfasst diese Wetterentwicklung einigermaßen zufrieden<br />
stellend.<br />
Anhang 1 25<br />
Teilbericht 4
Abb. 10: Bias skill score berechnet zwischen den jeweiligen Era-40 Gitterpunkten und den<br />
dort hin interpolierten Modellwerten. Dargestellt ist der Wert für jeden Prognosezeitschritt,<br />
also alle 6 Stunden für die 2. Episode (5.1<strong>1.</strong>1999 – 8.1<strong>1.</strong>1999).<br />
Werfen wir abschließend noch einen Blick auf den Total skill score (Abb. 11),<br />
so erkennen wir den Abfall der MM5-Läufe für die große Domain am Beginn<br />
des letzten Drittels des Prognosefensters sehr deutlich. Der Score sinkt gegen<br />
Ende der Episode auf 0.5 ab, weshalb man hier nicht mehr von einer gelungenen<br />
Prognose sprechen kann. Bei dieser Wetterlage ist eindeutig die Größe<br />
der verwendeten Domain von entscheidender Bedeutung, weshalb das Aladinmodell<br />
am besten abschneidet, aber auch das MM5-Modell gerechnet für<br />
die Aladindomain ganz gute Ergebnisse liefert. Die Wetterlage scheint eine<br />
große Modellherausforderung darzustellen, denn auch die operationelle<br />
Prognose des ECMWF hat die genaue Tiefdruckentwicklung, die das MM5 bei<br />
großem Domainsetup nicht richtig erfasst, erst wenige Tage vorher einigermaßen<br />
korrekt prognostiziert. Da man alle Modelle nahezu mit der Wirklichkeit<br />
treibt (ERA-40 Daten) werden die Ergebnisse immer besser je näher man mit<br />
diesen Daten an das Evaluierungsgebiet rückt, also die Domain verkleinert.<br />
Das mesoskalige Modell hat in diesem Fall dann weniger Möglichkeiten eine<br />
„falsche“ eigene Wetterentwicklung zu simulieren. Ein geeigneter Test, um die<br />
Domaingröße objektiv abschätzen zu können, also zu erkennen, ab welcher<br />
Größe das MM5 in der Lage ist bessere Strukturen zu produzieren als jene<br />
die von außen vorgegebne werden (bei den ERA-40 Daten ist dies über Europa<br />
eigentlich fast nicht mehr möglich) würde darin bestehen, dass MM5 mit<br />
einer ECMWF – Prognose passender Auflösung (T106) zu betreiben und<br />
dann die Ergebnisse mit Messwerten zu vergleichen.<br />
26 Anhang 1<br />
Teilbericht 4
Nachdem die Temperatur in 850 hPa bei der ersten betrachteten Episode<br />
sehr gut von den Modellen reproduziert wurde, ist dies bei der zweiten Episode<br />
nicht mehr so eindeutig der Fall. Das Aladin liefert hier zwar bei der Temperatur<br />
die besten Resultate, dies liegt aber auch daran, dass die kleinste<br />
Domain und die feinste Auflösung verwendet wird und daher die „Wahrheit“<br />
der treibenden Randdaten (ERA-40) einen besonders starken Einfluss bis ins<br />
Evaluierungsgebiet hat.<br />
Abb. 11: Total skill Score des Parameters Temperatur in 850hPa für die 2.Episode. Die mit A<br />
beginnenden Abkürzungen bezeichnen die MM5-Berechnungen von systems research; B005<br />
jene der BOKU-Met und D005 die Berechnung des IGAM. C002 ist das Ergebnis der Aladinvalidierung<br />
dieser Episode.<br />
5.3.2 Geopotential in 850 hPa<br />
Für das Geopotential und alle weiteren zu betrachtenden Parameter wollen<br />
wir nur mehr den Total skill score betrachten. Die Tücken bei der Interpretation<br />
dieser Größe wurden bereits bei der Temperatur anhand der Einzelscores<br />
erläutert. In Abbildung 12 sehen wir die Scores für die erste Episode. Recht<br />
deutlich zu erkennen ist der Unterschied zwischen den verschiedenen MM5-<br />
Domaingrößen. Auch hier ist wiederum die große Domain schlechter als die<br />
kleinere, was am selben Phänomen wie bei der Temperatur, nämlich den<br />
Treiberdaten liegt. Ob nun eine feinere Auflösung bessere Ergebnisse liefert<br />
oder doch eine gröbere ist hingegen nicht erkennbar, denn bei den kleineren<br />
Domains (A002/A004) liefert die feinere Auflösung die besseren Ergebnisse,<br />
hingegen bei den großen Domains (A001/A003) die Gröbere. Diese Entscheidung<br />
muss letztendlich beim Vergleich mit Messwerten (zB VERA) erfolgen.<br />
Das Aladin kann diese Wetterlage scheinbar wieder perfekt reproduzieren,<br />
zumindest was den Vergleich mit den ERA-40 Daten betrifft.<br />
Anhang 1 27<br />
Teilbericht 4
Abb. 12: Total skill score des Parameters Geopotential der 850 hPa Druckfläche für die Episode<br />
<strong>1.</strong><br />
Bei der zweiten Episode (Abbildung 13) sehen wir ein ähnliches Bild, wie wir<br />
es schon bei der Temperatur hatten. Man erkennt auch hier recht deutlich den<br />
dramatischen Abfall der Prognosegüte der MM5-Läufe gegen Ende des Vorhersagefensters.<br />
Anders als bei der Temperatur ist beim Geopotential der 850<br />
hPa Druckfläche der MM5-Lauf der BOKU-Met der schlechteste und jener des<br />
IGAM zeigt relativ gute Werte an.<br />
Abb. 13: Total skill score des Parameters Geopotential der 850 hPa Druckfläche für die Episode<br />
2.<br />
28 Anhang 1<br />
Teilbericht 4
Betrachtet man so wie bei der Temperatur nur die Felder der verschiedenen<br />
MM5-Betreiber (A005, B005 und D005) so erkennt man, dass beim Geopotential<br />
das Ergebnis des IGAM sehr gut ist, hingegen jenes von BOKU-Met<br />
am schlechtesten. Die Tatsache, dass der skill score unterschiedlicher meteorologischer<br />
Parameter nicht immer beim gleichen Modellbetreiber am<br />
schlechtesten ist, lässt erkennen, dass nicht nur die unterschiedliche Hardware<br />
(IGAM, BOKU), sondern sehr wohl verschiedene Modellsetups oder<br />
auch Aufbereitung der Inputdaten zu den unterschiedlichen Ergebnissen führten.<br />
5.3.3 Geopotential in 500 hPa<br />
Da die Skill-score-Auswertung des Geopotentials der 500 hPa Druckfläche<br />
keinen gravierenden Unterschied zu jener der 850 hPa Druckfläche aufweist,<br />
wird diese hier nicht näher erläutert. Die entsprechenden Abbildungen der<br />
diversen skill scores sind der Vollständigkeit wegen im Anhang zu diesem<br />
Bericht enthalten, sollen hier aber nicht näher diskutiert werden.<br />
5.3.4 Spezifische Feuchte in 700 hPa<br />
Die spezifische Feuchte in 700 hPa repräsentiert einen meteorologischen Parameter,<br />
an dem man sehr schön frontale Systeme erkennen kann. Da die<br />
Lage von solchen Systemen oft auch vom operationellen Wettervorhersagemodell<br />
nicht exakt getroffen wird, sollte man dies auch nicht von unseren hier<br />
validierten Modellen erwarten, schon gar nicht dann, wenn noch kein optimales<br />
Parametersetup gefunden wurde. Am Total skill score in Abbildung 14<br />
für die Episode 1 und Abbildung 15 für die Episode 2 sieht man bereits, dass<br />
dieser meteorologische Parameter losgelöst von den übrigen ist, denn weder<br />
der starke gebündelte Abfall der Episode 2 ist hier zu erkennen, noch der<br />
recht homogene Lauf der Episode 1 wie dies bei den anderen Parametern der<br />
Fall war.<br />
Der Total skill score der spezifischen Feuchte zeigt auch nur bedingt den Vorteil<br />
der kleineren Domain an und zwischen den unterschiedlichen Gitter-<br />
Auflösungen (45 km/30 km) kommt auch kein deutlicher Unterschied heraus.<br />
Signifikant in den beiden nachfolgenden Abbildungen 14 und 15 ist hingegen<br />
der Tagesgang im Total skill score der spezifischen Feuchte des Aladin-<br />
Modells. Immer um 00 UTC erreicht der skill score seinen Maximalwert von <strong>1.</strong><br />
Dieses Phänomen sollte in weiteren Tests im Auge behalten werden und mit<br />
den Modellbetreibern diskutiert werden. Da der Niederschlag eine wichtige<br />
Zielgröße ist, wollen wir uns als letzten Parameter diesen anschauen.<br />
Anhang 1 29<br />
Teilbericht 4
Abb. 14: Total skill score der spezifischen Feuchte der 700 hPa Druckfläche für die Episode 1<br />
Abb. 15: Total skill score der spezifischen Feuchte der 700 hPa Druckfläche für die Episode 2<br />
30 Anhang 1<br />
Teilbericht 4
5.3.5 Niederschlagsverteilung<br />
Bei der Niederschlagsverteilung innerhalb des Feldes wurde keiner der oben<br />
definierten traditionellen statistischen Werte berechnet, sondern einfach die<br />
Anzahl der Gitterpunkte, an denen mehr als 0,5mm Niederschlag gefallen ist,<br />
in Relation zur gesamten Gitterpunktsanzahl gesetzt. Der Wert auf der<br />
y-Achse in den Abbildungen 16 und 17 stellt also den Flächenanteil des Evaluierungsgebiets<br />
dar, in dem Niederschlag gefallen ist.<br />
Abb. 16: Flächenanteil des Gebiets mit Niederschlag für die Episode 1<br />
Abb. 17: Flächenanteil des Gebiets mit Niederschlag für die Episode 2<br />
Anhang 1 31<br />
Teilbericht 4
Die großen Unterschiede der verschiedenen Modelle beim <strong>1.</strong> Zeitschritt lassen<br />
sich damit erklären, dass beim MM5 aus akkumulierten Werten 6h-Werte<br />
rückgerechnet werden mussten und daher der <strong>1.</strong> Wert von den davor gefallenen<br />
Niederschlagsmengen und der Methode der Deakkumulierung abhängt.<br />
Diese erfolgte derzeit offensichtlich nicht. Abgesehen davon passen die Kurven<br />
der verschiedenen Modelläufe sehr gut zusammen, weshalb man sagen<br />
kann, dass alle in etwa gleich viel Niederschlag im Evaluierungsgebiet fallen<br />
lassen, ob hingegen auch die räumliche Verteilung passt, muss mit Beobachtungen<br />
verglichen werden und kann aus diesem ersten Test nicht abgeleitet<br />
werden. Dieser Punkt wird speziell für die Wahl der physikalischen Parametrisierungen<br />
von Konvektions- und Feuchteregime wichtig.<br />
5.3.6 Rechenzeit<br />
Ein wesentlicher Punkt bei der Beurteilung der verschiedenen Modelläufe ist<br />
die dafür benötigte Rechenzeit. Diese richtet sich zum einen nach der Anzahl<br />
der verwendeten Gitterpunkte und zum anderen nach dem Zeitschritt mit dem<br />
man das Modell betreibt. Natürlich hängt sie auch von der verwendeten Computerinfrastruktur<br />
und den verwendeten Modellparametrisierungen ab. Für das<br />
Aladinmodell wurde das Domain-Setup bereits ausgewählt. Beim Modell MM5<br />
ist die Rechenzeit ein wesentlicher Faktor der Evaluierung und wird sicherlich<br />
mitentscheidend sein, welche Domain für die Klimaläufe verwendet werden<br />
wird. Man hat nicht viel von einem Modell, welches exakt das aufgetretene<br />
Wetter simulieren kann, dafür aber länger braucht, als der Simulationszeitraum<br />
ist. Für Anwendungen im Klimamodus, bei denen ja mehrere Jahre gerechnet<br />
werden sollen, sollte das verwendete Modell in der Lage sein, um einiges<br />
schneller als real-time zu rechnen.<br />
In Tabelle 5 sind die Rechenzeiten der verschiedenen Läufe aufgelistet. Die<br />
Fälle A001-004 betreffen die erste Episode, die Zeilen A005-A008 die zweite<br />
Episode. Will man also die beiden Episoden vergleichen, um zu sehen welchen<br />
Einfluss die jeweilige Wetterlage auf das Ergebnis hat, so kann man<br />
Lauf A001 mit A005, A002 mit A006 usw. vergleichen.<br />
Tab. 5: Rechenzeit der verschiedenen Simulationen: Die Modelläufe A000-A008 wurden alle<br />
vom systems research durchgeführt und immer die gleiche Infrastruktur verwendet. A001-<br />
A004 sind die Läufe für die 4 versch. Domains der <strong>1.</strong>Episode, A005-A008 jene der 2.Episode.<br />
D005 ist das Ergebnis des IGAM und B005 jenes von BOKU-Met.<br />
Modellauf Laufzeit (h) Infrastruktur<br />
A001 3.4<br />
A002 2.5<br />
A003 1<strong>1.</strong>9<br />
A004 8.7<br />
A005 3.6<br />
A006 2.6<br />
A007 1<strong>1.</strong>4<br />
A008 9.1<br />
Compaq ES40 6/667 Model 1 (4CPUs<br />
(Alpha), 667 MHz, 2GB Memory,<br />
True64Unix 5.<strong>1.</strong><br />
A000 6.4<br />
D005 6.9 Athlon MP1800 - 2CPUs<br />
B005 17.6 Intel XEON 1700 - 1CPU, Redhat-7.1<br />
32 Anhang 1<br />
Teilbericht 4
Bei drei der vier Domainsetups erkennt man, dass die Episode 2 ein wenig<br />
rechenintensiver war, lediglich beim dritten Setup ist dies umgekehrt. In diesem<br />
Fall kann man davon ausgehen, dass der Rechner beim dritten Lauf der<br />
Episode 1 (A003) nicht immer ausschließlich für die Modellierung verwendet<br />
wurde und daher die Episode 2, die vielleicht über das Wochenende gerechnet<br />
wurde, schneller fertig war. Generell betrachtet ist der Unterschied zwischen<br />
den beiden Episoden in einer Größenordnung die man bei der Evaluierung<br />
vernachlässigen kann.<br />
Betrachtet man die Unterschiede der verschiedenen Domainsetups (A001 –<br />
A004) so treten doch erhebliche Rechenzeitunterschiede auf. Die Berechnung<br />
der kleineren Domain ist im Vergleich zur größeren bei gleicher Auflösung (zB<br />
A002/A001) um ca. 30 % früher fertig, während die Berechnung mit feinerer<br />
Auflösung bei gleicher Domaingröße etwa 3,5 x so lange dauert wie die mit<br />
grober Auflösung<br />
5.3.7 Synopsis – Schlussfolgerungen<br />
Abschließend kann festgestellt werden, dass die MM5-Läufe von systems<br />
research, IGAM und BOKU-Met trotz scheinbar gleichem Modellsetup unterschiedliche<br />
Resultate geliefert haben, was als nächster Schritt sicher einer<br />
Klärung bedarf.<br />
Als weiterer Punkt kann festgestellt werden, dass die ERA-40 Daten schon<br />
dermaßen gut die Realität wieder geben, dass eine Aussage über die nötige<br />
Domaingröße mit diesen Tests nicht möglich ist, da man bei kleinerer Domainwahl<br />
mit der treibenden Realität (ERA-40) näher am Evaluierungsgebiet<br />
ist und damit zwangsläufig die Resultate bei kleinerer Domainwahl besser<br />
werden. Zieht man nun daraus den Schluss, das die kleinstmögliche Domain,<br />
die besten Resultate liefert, so mag dies für ERA-40 Daten über Europa zutreffen,<br />
da sie fast das reale Wetter widerspiegeln. Betreibt man die Modelle<br />
später hingegen mit Klimaänderungs-Szenarien, so sollte das regionale Modell<br />
in der Lage sein, Phänomene wie beispielsweise die Tiefdruckentwicklung<br />
im Modellinneren ohne genaue Vorgaben von außen selbstständig zu simulieren.<br />
Mit den Parametersetup der Episode 2 ist dies noch nicht gelungen.<br />
6 Ausblick – weitere Schritte<br />
Um ein für Klimaanwendungen optimales Modellsetup zu finden ist aus unserer<br />
Sicht nun folgende Vorgehensweise sinnvoll:<br />
Zuerst gilt es die Ursachen des Unterschieds zwischen den Ergebnissen von<br />
systems research, BOKU-Met und IGAM zu klären und möglicherweise nach<br />
erfolgter Übereinstimmung des Setups einen neuerlichen Test zu rechnen, um<br />
zu sehen ob und wenn ja welcher Unterschied alleine Hardware-bedingt auftritt.<br />
Als weiterer Schritt, um die MM5- Ergebnisse konsistent zu machen, sollte die<br />
Niederschlagsdeakkumulierung vereinheitlicht werden, so dass die Werte bereits<br />
ab dem <strong>1.</strong> Zeitschritt der Evaluierungsperiode zur Verfügung stehen.<br />
Anhang 1 33<br />
Teilbericht 4
Für den Test mit der MM5-Aladindomain-Version muss man sich überlegen,<br />
wie man darin das Nest legt, da ja nur dieses in der feinen Auflösung von<br />
10 km gerechnet wird. Da die äußere Domain ja doch um einiges kleiner als<br />
die übrigen MM5-Domains ist, stellt sich die Frage, ob man dann das Nest<br />
nicht ähnlich groß wie die äußere Domain ansetzt, damit das Evaluierungsgebiet<br />
(siehe Abbildung 4) und damit der ehrliche Vergleich mit dem Aladin für<br />
großräumige Vergleiche nicht zu klein wird.<br />
Sind diese eher schnell zu entscheidenden Fragen geklärt, sollte ein geeigneter<br />
Test zur definitiven Entscheidung, welches Domainsetup, die besten Resultate<br />
liefert, erfolgen. Dieser könnte zum Beispiel so wie schon weiter oben<br />
beschrieben derartig aussehen, dass man das mesoskalige Modell mit einer<br />
ECMWF – Vorhersage verringerter Auflösung betreibt und dann anhand von<br />
Stationsdaten oder ERA-40 auswertet, welches Setup die besten Resultate<br />
liefert. Ob man für diesen Test Daten des ECMWF-Ensembles heranzieht und<br />
ob solche Daten leicht als MM5-Input aufbereitet werden können oder ob es<br />
noch andere leicht verfügbare brauchbare Daten gibt, soll mit allen Projektpartnern<br />
diskutiert werden.<br />
Ist die Domainlage und die Anzahl bzw. Lage der Niveaus des MM5-Modells<br />
entschieden, sollte als nächster Test ein Vergleich mit dem von Günther Zängl<br />
modifiziertem MM5 erfolgen. Dieser Vergleichstest kann gleichzeitig zum Austesten<br />
der Grenzschichtparametrisierung herangezogen werden und wird vom<br />
BOKU-Met durchgeführt.<br />
Um zu einer Final<strong>version</strong> des MM5-Setups für eine Klimamodellierung im Alpenraum<br />
zu gelangen, sind zahlreiche Testrechnungen mit unterschiedlichen<br />
physikalischen Parametrisierungen erforderlich. Aufgrund der vorgegebenen<br />
Termine sind bereits Episoden bekannt, an Hand deren Wetterverläufe die<br />
Tests zügig voran gehen sollten. Da sämtliche Tools zur Evaluierung bereits<br />
entwickelt wurden, bedarf es zur optimalen Auswertung noch des Schritts der<br />
Automatisierung. Aus diversesten Gründen ist es bisher noch nicht gelungen,<br />
Modellergebnisse, unmittelbar nachdem die Berechnungen abgeschlossen<br />
wurden, in geeigneter Weise für andere Projektpartner verfügbar zu machen<br />
und diese sofort über die Verfügbarkeit der Daten zu verständigen. Dieser<br />
Prozess bedarf zum einen einer stabilen Austauschplattform (FTP-Bereich),<br />
zum anderen einer klaren Definition welche Daten wer für wen bereitstellt.<br />
Beides sollte in einem kommenden Workshop diskutiert und fixiert werden.<br />
34 Anhang 1<br />
Teilbericht 4
Literatur<br />
Crescenti, G. H. (1997): A look back on two decades of Doppler sodar comparison<br />
studies. Bull. Amer. Meteor. Soc. 78(4), 651–673.<br />
Grell G.A., Dudhia J. and Stauffer D.R. (1994): A description of the fifth-generation<br />
Penn State/NCAR Mesoscale Model (MM5). NCAR technical note TN-398+STR, 122<br />
pp., National Center for Atmospheric Research, Boulder, CO, USA.<br />
Hanna, S. R. and R. J. Paine (1989): Hybrid Plume Dispersion Model (HPDM), development<br />
and evaluation. J. Appl. Meteorol. 28(2), 206–224.<br />
Kållberg, P., A. Simmons, S. Uppala and M. Fuentes:<br />
The ERA-40 archive. ERA-40 Project Report Series No. 17 September 2004<br />
Klug,W., G. Graziani, G. Grippa, D. Pierce, and C. Tassone (1992): Evaluation of<br />
Long Range Atmospheric Transport Models Using Environmental Radioactivity Data<br />
from the Chernobyl Accident: The ATMES Report. Elsevier Applied Science, London,<br />
366 pp.<br />
Mosca, S., R. Bianconi, R. Bellasio, G. Graziani, andW. Klug (1998a): ATMES II –<br />
Evaluation of long-range dispersion models using data of the 1st ETEX release. EUR<br />
17756 EN, Office for Official Publications of the European Communities, L-2985 Luxembourg,<br />
459 pp. + app.<br />
Mosca, S., G. Graziani, W. Klug, R. Bellasio, and R. Bianconi (1998b): A statistical<br />
methodology for the evaluation of long-range atmospheric dispersion models: an<br />
application to the ETEX exercise. Atmos. Environ. 32(24), 4307–4327.<br />
Sachs, L. (1992): Angewandte Statistik. Springer-Verlag, Berlin, 846 pp.<br />
Pichler, H. and R. Steinacker (1975): Zur Frage der Zyklogenese in den mittleren<br />
Breiten unter Ber¨ucksichtigung von freiwerdender Kondensationsw¨arme. Arch. Met.<br />
Geoph. Biokl. A24, 117–129.<br />
Steinacker, R., C. Häberli, W. Pöttschacher (2000): A Transparent Method for the<br />
Analysis and Quality Evaluation of Irregularly Distributed and Noisy Observational<br />
Data. Monthly Weather Review, 128, 2303-2316<br />
Stohl, A., M. Hittenberger, and G. Wotawa (1998): Validation of the Lagrangian particle<br />
dispersion model Flexpart against large-scale tracer experiment data. Atmos.<br />
Environ. 32(24), 4245–4264.<br />
Taylor, K. E. (2001): Summarizing multiple aspects of model performance in a single<br />
diagram. J. Geophys. Res. 106(D7), 7183–7192.<br />
Zängl, G. (2003): A generalized sigma coordinate system for the MM5, Mon. Wea.<br />
Rev., 131, 2875-2884.<br />
Zängl, G., L. Gantner, G. Hartjenstein, and H. Noppel (2004): Numerical errors above<br />
steep topography: A model intercomparison, Meteorol. Zeitschrift, 13, 69-76<br />
Anhang 1 35<br />
Teilbericht 4
BILDANHANG<br />
Im folgenden Bildanhang sind jeweils der Bias- und der Fisher skill score für<br />
die Parameter H850, H500 und Q700 dargestellt. Zuerst immer für die erste<br />
Episode (A001,A002, A003,A004,C001) und gleich anschließend für die<br />
2.Episode (A005, A006, A007, A008, C002, B005, D005, A000).<br />
36 Anhang 1<br />
Teilbericht 4
Anhang 1 37<br />
Teilbericht 4
38 Anhang 1<br />
Teilbericht 4
Anhang 1 39<br />
Teilbericht 4
40 Anhang 1<br />
Teilbericht 4
Die Vergleichsplots der einzelnen Läufe und Parameter zwischen ERA-40 und<br />
dem Modell finden sich aufgrund der Dateigröße am FTP Server von systems<br />
research.<br />
Anhang 1 41<br />
Teilbericht 4
Anhang 1<br />
Teilberichte der Projektpartner<br />
Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />
Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />
Alexander Beck und Bodo Ahrens:<br />
Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />
Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />
Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />
zu den regionalen Klimamodellen<br />
Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />
Validierung – Sensitivitätstests<br />
Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />
MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />
Mario Köstl, Wolfgang Loibl und Johann Züger:<br />
Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung
Institute for Geophysics, Astrophysics, and Meteorology<br />
Institute of Physics, University of Graz<br />
Atmospheric Remote Sensing and Climate System Research Group<br />
ARS CliSys – on the art of understanding the climate system<br />
reclip:more<br />
Research for Climate Protection:<br />
Model Run Evaluation<br />
Project Year 1<br />
reclip:more – IGAM Report #1,<br />
IGAM/UniGraz Technical Report for ARC No. 1/2004<br />
Working Report for Project Year 1: <strong>1.</strong>1<strong>1.</strong>2003 – 30.9.2004<br />
by<br />
Andreas Gobiet, Heimo Truhetz, and Gottfried Kirchengast<br />
Institute for Geophysics, Astrophysics and Meteorology (IGAM),<br />
Institute of Physics, University of Graz, Austria<br />
Version 2 – Nov 15, 2004<br />
Institute for Geophysics, Astrophysics, and Meteorology, University of Graz, Universitaetsplatz 5, A-8010 Graz, Austria<br />
ARSCliSys E-Mail: arsclisys.igam@uni-graz.at, Web: http://www.uni-graz.at/igam-arsclisys
Table of Content<br />
1 Project Summary ................................................................................................ 1<br />
2 reclip:more-IGAM Team Members .................................................................... 1<br />
3 Financial and Contractual Issues...................................................................... 1<br />
4 Major Outcome ................................................................................................... 2<br />
4.1 MM5 Modeling (WP MODEL)....................................................................... 2<br />
4.<strong>1.</strong>1 MM5 Setup ............................................................................................... 2<br />
4.<strong>1.</strong>2 ECHAM5 for Driving MM5 ........................................................................ 5<br />
4.<strong>1.</strong>3 ERA-40 for Driving MM5........................................................................... 8<br />
4.<strong>1.</strong>4 Effects of Different Hardware and Compilers.......................................... 11<br />
4.<strong>1.</strong>5 MM5 Multi-Processor Performance ........................................................ 15<br />
4.<strong>1.</strong>6 Summary and Conclusions..................................................................... 16<br />
4.2 Vertical Validation (WP VALVERT) ............................................................ 17<br />
4.2.1 Reference Dataset – CALRAS................................................................ 17<br />
4.2.2 Data Extraction ....................................................................................... 18<br />
4.2.3 Error-Statistics ........................................................................................ 19<br />
4.2.4 First Validation Results ........................................................................... 20<br />
4.2.5 Summary and Conclusions..................................................................... 23<br />
4.3 Wind Downscaling (WP WIND) .................................................................. 26<br />
4.3.1 Methodology ........................................................................................... 26<br />
4.3.2 Realization.............................................................................................. 27<br />
4.3.3 Validation................................................................................................ 31<br />
4.3.4 Related Publication................................................................................. 31<br />
4.3.5 Summary and Conclusion....................................................................... 32<br />
Acknowledgements................................................................................................ 34<br />
References .............................................................................................................. 34
1 Project Summary<br />
The 3-year project “Research for Climate Protection: Model Run Evaluation” (reclip:more)<br />
is a cooperation of five academic institutions in Austria (Austrian Research<br />
Centers Systems Research (ARC-sys), Department of Meteorology and Geophysics,<br />
Univ. of Vienna (IMG), Institute for Meteorology, Agricultural Univ. of Vienna (BOKU-<br />
Met), Central Institute for Meteorology and Geodynamics (ZAMG), and Inst. for Geophysics,<br />
Astrophysics, and Meteorology, Univ. of Graz (IGAM)) and is led by ARCsys.<br />
The major aim of the project is to evaluate the capability of dynamical and statistical<br />
downscaling methods in the Alpine region to create climate scenarios at<br />
mesoscale and microscale resolutions. Two regional circulation models (RCMs)<br />
ALADIN (Aire Limitée Adaptation dynamique Développement International, see<br />
http://www.cnrm.meteo.fr/aladin) and the PSU/NCAR mesoscale model MM5 [Dudhia<br />
et al., 2004] will be driven by ERA-40 reanalysis data [Simmons et al., 2000] and<br />
ECHAM5 [Roeckner et al., 2003] global circulation model (GCM) results, representing<br />
current (1981-1990) and future (2041-2050) climate to accomplish dynamical<br />
downscaling from the coarse GCM resolution (spectral truncation T106, i.e. ~120 km<br />
horizontal resolution) to 15 km. Further downscaling to 1 km resolution will be accomplished<br />
by various, mainly statistical, methods.<br />
In project year 1 (Nov. 2003 to Jun. 2004), the reclip-team focused on preparative<br />
work for 10-year RCM simulations, on sensitivity studies aiming at finding the optimal<br />
RCM-setup, and on the preparation of validation data and methods. In the framework<br />
of this project, the contribution of IGAM can be subdivided into three thematic areas<br />
or work packages (WP) as follows:<br />
- WP MODEL: Dynamical downscaling of retrospective and prospective of<br />
ECHAM5 global climate simulations using the MM5 mesoscale model (15 km<br />
target resolution).<br />
- WP VALVERT: Vertical validation of RCM-results using radiosonde data.<br />
- WP WIND: Downscaling of near-surface wind (200 m target resolution)<br />
-<br />
2 reclip:more-IGAM Team Members<br />
The core team of reclip-IGAM consists of:<br />
- Prof. Dr. Gottfried Kirchengast, project advisor.<br />
- Mag. Andreas Gobiet, project manager, work package manager (VALVERT).<br />
- Mag. Heimo Truhetz, work package manager (MODEL, WIND).<br />
3 Financial and Contractual Issues<br />
After several preparative meetings of the reclip:more team, starting Jul. 2003,<br />
IGAM submitted the reclip:more-IGAM project year 1 proposal on Oct. 22, 2003 to<br />
ARC-sys who accepted it on Nov. 3, 2003 (appointment 4570000148). IGAM received<br />
the first two rates according to the appointment by ARC-sys and will invoice<br />
the third and final rate for reclip:more-IGAM project year 1 as soon as this report is<br />
accepted by ARC-sys. As follow-up to relip:more-IGAM project year 1, IGAM has<br />
submitted a proposal for reclip:more-IGAM project year 2 in Sept. 2004 to ARC-sys.<br />
Anhang 1 1<br />
Teilbericht 5
4 Major Outcome<br />
This chapter contains the three major written deliverables of reclip-IGAM project<br />
year 1: The progress reports on WP MODEL (Sect. 4.1), WP VALVERT (Sect. 4.2),<br />
and WP WIND (Sect. 4.3).<br />
4.1 MM5 Modeling (WP MODEL)<br />
In project year 1 the main goals of WP MODEL was to provide MM5 test-datasets<br />
for wind downscaling and vertical validation methods (see Sect. 4.<strong>1.</strong>3), to select the<br />
best GCM driving dataset for the planned GCM-driven RCM runs, to build the interface<br />
between GCM-data and the MM5 pre-processors (see Sect. 4.<strong>1.</strong>2), and to prepare<br />
for the retrospective GCM-driven 10-year MM5 run planned for project year 2 in<br />
general. Additionally various tests concerning different hardware-platforms, compiler<br />
configurations, multi-processor efficiency, and domain settings were performed (see<br />
Sects. 4.<strong>1.</strong>5 and 4.2.4). All MM5-runs described in this report are performed in “climate-mode”,<br />
i.e., apart from initialization at starting time and boundary conditions<br />
delivered by a GCM (ECHAM5) or global analyses (ERA-40), MM5 is not constrained<br />
by any kind of background data during the entire model integration time.<br />
4.<strong>1.</strong>1 MM5 Setup<br />
Basic Setup<br />
In order to test the usability of ECHAM5 datasets as driving data for MM5 on one<br />
hand, and to produce MM5 test-datasets for internal usage (see Sect. 4.<strong>1.</strong>3) on the<br />
other hand, a preliminary spatial MM5 setup (originally proposed by H. Züger, ARCsys)<br />
was implemented. The setting consists of three nested domains coupled with<br />
heavily damped feedback from the smaller to the bigger domains. The horizontal grid<br />
spacing amounts 90 km, 30 km, and 10 km for domains 1, 2, and 3, respectively and<br />
25 vertical layers were used (see Tab. 4.2 and Fig. 4.1). An overview about the selected<br />
physical parameterizations is given in Table 4.<strong>1.</strong><br />
Figure 4.1: Basic setting for MM5 testing purposes: Three nested domains with 90 km, 30 km and<br />
10 km horizontal grid spacing, respectively.<br />
2 Anhang 1<br />
Teilbericht 5
Table 4.1: MM5 physical parameterization.<br />
Model <strong>version</strong> MM5 v3.6.3<br />
Cumulus scheme Kain-Fritsch 2 with shallow convection<br />
Planetary boundary layer scheme MRF<br />
Explicit moisture scheme Mixed phase (Reisner 1)<br />
Radiation scheme RRTM long wave<br />
Surface scheme NOAH-LSM with snow cover effects<br />
Table 4.2: MM5 basic spatial and temporal setup.<br />
Technical details.<br />
Domain 1 Domain 2 Domain 3<br />
Num. grid points Y 40 73 94<br />
Num. grid points X 70 106 139<br />
Grid distance [km] 90 30 10<br />
Num. layers 25 25 25<br />
Top layer [hPa] 10 10 10<br />
Time step [s] 270 90 30<br />
Nest type one-way two-way two-way<br />
Table 4.3: MM5 boku_1 spatial-temporal<br />
setup. Technical details.<br />
Domain 1 Domain 2<br />
Num. grid points Y 88 58<br />
Num. grid points X 110 82<br />
Grid distance [km] 45 15<br />
Num. layers 42 42<br />
Top layer [hPa] 50 50<br />
Time step [s] 135 45<br />
Nest type one-way two-way<br />
Setup for Comparison Purposes (boku_1)<br />
A setup proposed by BOKU-Met (“boku_1”) was implemented at IGAM and ARCsys<br />
to assure consistency between the two MM5 installations and the methods of<br />
ingesting ERA-40 driving data. It consists of two nested domains (45 km and 15 km<br />
horizontal resolution) coupled with moderate damped feedback from the smaller to<br />
the bigger domain (see Tab. 4.3 and Fig. 4.2). The physical parameterization used<br />
for MM5 runs in this setting is given in Table 4.1 (except shallow convection is turned<br />
off). In opposite to the original BOKU-Met setting with 29 layers IGAM introduced 42<br />
layers.<br />
Figure 4.2: MM5 boku_1 setting. Two nested domains with to 45 km and 15 km grid spacing, respectively.<br />
Anhang 1 3<br />
Teilbericht 5
Additional Setups (aladin, boku_1 reduced)<br />
Additionally, two MM5 domains were set up at IGAM to test the sensitivity of MM5<br />
results to domain sizes. The first setting mimics the spatial setup used by IMG for<br />
dynamically downscaling ERA-40 data with ALADIN (“aladin”, see Tab. 4.4, Fig. 4.3,<br />
and Beck et al. [2004]) and consists of two nested domains with 30 km and 10 km<br />
grid spacing, respectively.<br />
Figure 4.3: MM5 aladin setting. Two nested domains with to 30 km and 10 km grid spacing, respectively.<br />
Figure 4.4: MM5 boku_1 reduced setting. Two nested domains with to 45 km and 15 km grid spacing.<br />
4 Anhang 1<br />
Teilbericht 5
Table 4.4: MM5 aladin spatial-temporal setup.<br />
Technical details.<br />
Domain 1 Domain 2<br />
Num. grid points Y 83 79<br />
Num. grid points X 94 115<br />
Grid distance [km] 30 10<br />
Num. layers 42 42<br />
Top layer [hPa] 1 1<br />
Time step [s] 50 16.7<br />
Nest type one-way two-way<br />
Table 4.5: MM5 boku_1 reduced spatialtemporal<br />
setup. Technical details.<br />
Domain 1 Domain 2<br />
Num. grid points Y 50 58<br />
Num. grid points X 50 82<br />
Grid distance [km] 45 15<br />
Num. layers 42 42<br />
Top layer [hPa] 50 50<br />
Time step [s] 120 40<br />
Nest type one-way two-way<br />
The second additional setup is a reduced <strong>version</strong> of the original boku_1 setup<br />
comprising 50 x 50 instead of 88 x 110 grid points in domain1 (“boku_1 reduced”,<br />
see Tab. 4.5 and Fig. 4.4) and contains, consistent with the boku_1 setting, two<br />
nested domains with 45 km and 15 km horizontal resolution, respectively. The physical<br />
parameterization used for MM5 runs in both spatial settings is given in Table 4.1<br />
(with shallow convection turned on).<br />
4.<strong>1.</strong>2 ECHAM5 for Driving MM5<br />
Provision of GCM Driving Data<br />
After extensive discussions on the best GCM-data to drive the reclip:more RCM<br />
runs, the reclip-team decided on retrospective and prospective data from the new<br />
ECHAM5 GCM with a spectral truncation of T106 (corresponding to <strong>1.</strong>125° or<br />
~120 km horizontal grid spacing) and 31 vertical model levels (L31) as basis for the<br />
planned 10-year downscaling runs. On one hand this decision assures sufficient<br />
horizontal resolution for the nesting strategy planned by IMG (in contrast to the twonest<br />
strategy planned for MM5 involving a resolution jump of ~4, the ALADIN experiment<br />
will be performed using only one nest involving a large resolution jump of factor<br />
~10). On the other hand, reclip:more will benefit from the latest advancements in the<br />
ECHAM model formulation including, among others, better performance with high<br />
vertical resolution, a new advection scheme for positive definite model variables, an<br />
updated long-wave radiation scheme, and various enhancements in the modeling of<br />
land surface processes and land surface-atmosphere coupling [Roeckner et al.,<br />
2003].<br />
The reclip-retrospective period (1981-1990) will be covered by a time-slice experiment<br />
recently performed at the Institute for Atmospheric and Climate Science,<br />
ETH Zurich by M. Wild and P. Tschuck who model the 1960-1990 period with<br />
ECHAM5 (T106 L31) driven by observed sea surface temperatures (SST) and<br />
greenhouse gas concentrations.<br />
For the prospective reclip-period 2041-2050, IMG (Ahrens, Beck) could arrange<br />
cooperation with ETH Zurich to perform an IS92a [Leggett et al., 1992] scenario run<br />
at ETH. For this purpose, a past ECHAM4 T106 L19 experiment is repeated with<br />
ECHAM5 T106 L31 at ETH in late 2004 (B. Ahrens, A. Beck, P. Tschuck, pers.<br />
communication, 2004). IMG assists ETH preparing SST and sea-ice data and starting<br />
the simulation.<br />
Currently, a small ECHAM5 test-dataset from ETH is available at IGAM. This<br />
dataset was sufficient to test the interface between ECHAM5 and MM5 as described<br />
Anhang 1 5<br />
Teilbericht 5
in the following paragraphs. The transfer of the total retrospective GCM dataset<br />
(1981-1990) is initiated and is expected to be finished in Dec. 2004.<br />
The ECHAM5-MM5 Interface<br />
In order to set up all needed initial and boundary conditions for MM5 the following<br />
pre-processor modules are used in general:<br />
- TERRAIN re-projects and interpolates given global elevation and land use datasets<br />
as well as deep soil temperatures, soil categories, vegetation categories and<br />
vegetation fractions onto MM5’s domain settings.<br />
- REGRID reads archived gridded meteorological datasets (numerical weather prediction<br />
(NWP) analyses and forecasts or GCM results) on pressure levels and interpolates<br />
them from some native grid and map projection to the horizontal grid<br />
and map projection as defined by the MM5 pre-processor program TERRAIN.<br />
REGRID handles pressure-level and surface analyses. Two-dimensional interpolation<br />
is performed on these levels.<br />
- Finally, INTERPF serves as interface between the pre-processing modules and<br />
MM5 by performing vertical interpolation, diagnostic computation, and data reformatting.<br />
INTERPF takes REGRID output data as input to generate the models initial,<br />
lateral boundary conditions and the lower boundary conditions respectively.<br />
The original ECHAM5 output consists of several GRIB-formatted (edition 1) and<br />
netCDF-formatted files. The data are stored at 6-hour intervals within the Julian calendar<br />
(30 days per month, 360 days per year). Due to ECHAM5’s method to solve<br />
the partial differential equations the output does not contain any velocity components,<br />
but instead divergence and vorticity are given.<br />
In order to achieve compatibility between ECHAM5 output data and the MM5 preprocessor<br />
modules a data transformation tool has been designed performing several<br />
additional pre-processing tasks before REGRID is able to read the ECHAM5datasets<br />
successfully:<br />
- Transformation from ECHAM5’s model levels to pressure levels.<br />
- Derivation of Cartesian velocities from divergence and vorticity.<br />
- Con<strong>version</strong> of all spectral represented data into Gaussian or pure latitudelongitude<br />
grids.<br />
- Extraction of all needed variables from netCDF-Files and con<strong>version</strong> into GRIB<br />
format.<br />
- Transformation of physical units.<br />
These additionally pre-processing steps are preformed automatically by a<br />
script-based tool using the programs “afterburner” (available at<br />
http://www.mpimet.mpg.de/~afterburner/), “cdo” [Schulzweida, 2004] and “PINGO” [Wasz-<br />
6 Anhang 1<br />
Teilbericht 5
kewitz et al., 2001].<br />
REGRID identifies a certain variable within a GRIB-formatted file by its GRIBcode,<br />
its level-code and its levels themselves. Therefore REGRID uses special tables<br />
(VTable) to let the user connect variables with the codes. For the incorporation of<br />
ECHAM5 data, the VTable shown in Tab. 4.6 has been developed.<br />
Since MM5 uses the NOAH land surface model, special soil variables like sea surface<br />
temperature or skin temperature (SKINTEMP), sea ice concentration (SEAICE),<br />
the land sea mask (LANDSEA), geo-potential (GEOPT) or soil height and soil temperatures<br />
(SOILTxxx) and moistures (SOILMxxx) at multiple layers beneath the surface<br />
are needed (“xxx” denotes the layer’s depths beneath the surface in [cm]). Unfortunately<br />
ECHAM5 does not supply all of these variables. The soil moisture, e.g., is<br />
given as soil wetness, which is the complete water content of soil in [m] and no vertical<br />
distribution is available. Instead, the maximum field capacity of soil water [m] is<br />
given. In order to initialize the NOAH land surface model, the ratio between soil wetness<br />
and the field capacity are treated as volumetric soil moisture. They are left constant<br />
with the vertical layers. In consequence of this simplification, MM5-expriments<br />
should be started with some one-year spin-up time to lead to realistic soil moisture<br />
distributions (S. Hagemann, pers. communication, 2004).<br />
The available test-dataset also omits the sea ice concentration. This missing data<br />
is taken by MM5 as no sea ice at all, which leads to wrong roughness length and surface<br />
albedo over the oceans. Since sea ice is generally available in ECHAM5-datasets,<br />
this problem will be solved as soon as the total retrospective dataset is available<br />
from ETH Zuerich.<br />
Table 4.6: VTable for the ECHAM5-MM5 interface<br />
GRIB Level Level Level REGRID REGRID REGRID<br />
Code Code 1 2 Name Units Description<br />
156 100 * HGT gpm Geopotential Height<br />
130 100 * T K Air temperature<br />
131 100 * U m/s Horizontal wind-component U<br />
132 100 * V m/s Horizontal wind-component V<br />
133 100 * SPECHUMD kg/kg<br />
RH % Relative humidity<br />
129 1 0 GEOPT m2/s2 Surface geopotential<br />
134 1 0 PSFC Pa Surface pressure<br />
151 1 0 PMSL Pa Mean sea level pressure<br />
130 105 10 T K Temperature 2m agl<br />
131 105 10 U m s{-1} U at 10m agl<br />
132 105 10 V m s{-1} V at 10m agl<br />
141 1 0 WEASD kg/m2 Snow depth (water equiv.)<br />
169 1 0 SKINTEMP K Surface temperature<br />
210 1 0 SEAICE flag Sea Ice flag<br />
172 1 0 LANDSEA flag Land sea mask<br />
39 1 0 SOILM003 fraction Volumetric soil water layer 1<br />
40 1 0 SOILM019 fraction Volumetric soil water layer 2<br />
41 1 0 SOILM078 fraction Volumetric soil water layer 3<br />
42 1 0 SOILM268 fraction Volumetric soil water layer 4<br />
207 111 3 SOILT003 K Soil temperature level 1<br />
207 111 19 SOILT019 K Soil temperature level 2<br />
207 111 78 SOILT078 K Soil temperature level 3<br />
207 111 268 SOILT268 K Soil temperature level 4<br />
In Figure 4.5, the successful incorporation of ECHAM5 data into MM5 and, at the<br />
Anhang 1 7<br />
Teilbericht 5
same time, the first dynamically downscaled results are demonstrated.<br />
In the upper panel, the original ECHAM5 dataset is shown (grid spacing ~120 km),<br />
in the lower panel the MM5 results in the 3rd nest (see Sect. 4.<strong>1.</strong>1) after 18 hours<br />
integration time is depicted (grid spacing 10 km).<br />
Figure 4.5: Original ECHAM5 test dataset (upper panel, ~120 km horizontal resolution) and MM5 (basic<br />
setting; see Tab.4.2) in the 3 rd nest (lower panel, 10 km horizontal resolution) representing the Decmber<br />
1 1960, 18:00 UTC. Mean sea level pressure [hPa] (colored contours), temp at 2 m agl [°C] (bold contour<br />
lines) and wind at 10 m agl (light stream lines) is shown. The MM5 integration time was 18 hours.<br />
4.<strong>1.</strong>3 ERA-40 for Driving MM5<br />
In order to test the performance of software tools developed in the framework of<br />
WPs VALVERT and WIND (see Sects. 4.2 and 4.3) and to validate downscaling results<br />
against observation in general, realistic MM5 downscaling results are needed<br />
(i.e., modeled atmospheric fields comparable the “true” state of the atmosphere at a<br />
certain time). For this purpose the ECHAM5-driven MM5 test-dataset is not suitable<br />
since it cannot be expected that the driving climate model represents the weather at<br />
a certain date. Therefore it was necessary to perform an MM5-run driven by meteorological<br />
data. One of the best datasets for this purpose is provided by the new reanalysis<br />
project (ERA-40) of the European Centre for Medium-Range Weather Forecasts<br />
(ECMWF) [Simmons and Gibson, 2000]. We use this dataset in its full resolution<br />
on a regular latitude-longitude grid (<strong>1.</strong>125° x <strong>1.</strong>125° or ~120 km).<br />
Similar to ECHAM5 3-dimensional ERA-40 datasets are processed by “afterburner”<br />
to raise the vertical resolution of the needed data from 23 to 43 pressurelevels.<br />
Mathematical operations to correct units and to perform coordinate transformations<br />
from spherical harmonics to latitude-longitude grids as well as cutting out<br />
certain geographical regions to reduce the data-transfer are executed during dataretrieval<br />
from the Meteorological Archival and Retrieval System (MARS) and after the<br />
application of the afterburner at ECMWF. In cooperation with ARC-sys the following<br />
8 Anhang 1<br />
Teilbericht 5
VTable has been worked out (Tab. 4.7).<br />
The domain and parameterization settings for the creation of the test-dataset are<br />
described in Section 4.<strong>1.</strong><strong>1.</strong> Additionally, for WP WIND one additional nesting step is<br />
applied to enforce the grid resolution to 5 km within certain study areas (see Sect. 4.3<br />
for details). Using this setup, an 8-day MM5 run in the period of Sept. 18 – 25, 1999<br />
was performed. The resulting near-surface fields in the 3rd MM5-nest are shown in<br />
Figure 4.6.<br />
Table 4.7: VTable for the ERA-40 - MM5 interface<br />
GRIB Level Level Level REGRID REGRID REGRID<br />
Code Code 1 2 Name Units Description<br />
129 100 * GEOPT m2/s2<br />
HGT gpm Geopotential Height<br />
130 100 * T K Temperature<br />
157 100 * RH % Relative Humidity<br />
131 100 * U m s{-1} U<br />
132 100 * V m s{-1} V<br />
129 1 0 GEOPT m2/s2<br />
167 1 0 T K Temperature 2m agl<br />
168 1 0 DEWPT K Dew point temp. at 2m agl<br />
165 1 0 U m s{-1} U at 10m agl<br />
166 1 0 V m s{-1} V at 10m agl<br />
151 1 0 PMSL Pa Sea-level Pressure<br />
141 1 0 WEASD kg/m2 Snow depth (water equiv.)<br />
235 1 0 SKINTEMP K Sea Surface Temperature<br />
31 1 0 SEAICE 0/1 Flag Ice flag<br />
172 1 0 LANDSEA flag land sea mask<br />
39 112 0 7 SOILM007 fraction Volumetric soil water layer 1<br />
40 112 7 28 SOILM028 fraction Volumetric soil water layer 2<br />
41 112 28 100 SOILM100 fraction Volumetric soil water layer 3<br />
42 112 100 255 SOILM289 fraction Volumetric soil water layer 4<br />
139 112 0 7 SOILT007 K Soil temperature level 1<br />
170 112 7 28 SOILT028 K Soil temperature level 2<br />
183 112 28 100 SOILT100 K Soil temperature level 3<br />
236 112 100 255 SOILT289 K Soil temperature level 4<br />
Additionally, the period from Nov. 3. 1999, 00:00 UTC to Nov. 9. 1999, 00:00 UTC<br />
(“Episode 2”) was modeled by driving MM5 with ERA-40 in order to cross-validate<br />
ARC-sys’ and IGAM’s procedure to incorporate ERA-40 data and to get a first idea of<br />
data quality by validating the results against observational data (see Sect. 4.2). The<br />
domains and physical parameterizations were set as described in Sect. 4.<strong>1.</strong>1<br />
(boku_1, aladin, and boku_1 reduced domain setting) and the VTable described<br />
above (Tab. 4.7) were used. Resulting near-surface fields in the 2 nd MM5-nest of the<br />
boku_1-setting are depicted in Figure 4.7.<br />
Anhang 1 9<br />
Teilbericht 5
Figure 4.6: ERA-40 (upper panel, ~120 km grid spacing) and MM5 (basic setting; see Tab. 4.2, 3 rd<br />
nest, 10 km grid spacing, lower panel) representing Sept. 22. 1999, 00:00 UTC after 96 hours model<br />
integration. Mean sea level pressure [hPa] (colored contours), temperature at 2 m agl [°C] (bold contour<br />
lines) and wind at 10 m agl (light stream lines).<br />
Figure 4.7: Like Fig. 4.6, but for boku_1 setting (see Tab. 4.3) in the 2 nd nest (15 km horizontal grid<br />
spacing) and representing Nov. 5. 1999, 18:00 UTC, after 42 hours model integration.<br />
10 Anhang 1<br />
Teilbericht 5
4.<strong>1.</strong>4 Effects of Different Hardware and Compilers<br />
Since the reclip:more modeling-team consists of various departments and institutions<br />
using different hardware and compilers and since the representation of floatingpoint<br />
values and the results of floating-point operations depend on the hardware and<br />
on the utilization of it’s resources, the same MM5 setup can lead to different results<br />
depending on the hardware or compiler used. This, and the fact that MM5 handles<br />
non-linear differential equations, raises a fundamental question: Is it possible that two<br />
MM5 experiments conducted on tow different computer systems yield two completely<br />
different meteorological states, even if identical MM5-<strong>version</strong>s, parameterizations,<br />
and initial and boundary conditions were used?<br />
Treating this question in a comprehensive way is out of the scope of IGAM’s share<br />
in this project, but nevertheless, it is important to get a feeling about the quantity of<br />
the numerical effects addressed above to be able to interpret comparisons between<br />
different model-experiments later on. The first test addressing this question was a<br />
comparison of the usual “Storm of the Century”-case (SOC) as it included in the<br />
MM5-source code package for testing purposes. We used the PSU/UCAR-run (Alpha-DEC<br />
optimized compilation) as control experiment and compared it to results<br />
from 12-hour modeling experiments conducted on the IGAM-cluster (Athlon MP, Intel<br />
Fortran Compiler 7.1) using different compiler optimization switches. The deviations<br />
are evaluated via the normalized root mean square difference (NRMS, eq. 4.1) of<br />
temperature, pressure perturbation, and humidity (complete 3d-fields) and are depicted<br />
in Figure 4.8.<br />
N xyz<br />
∑<br />
i=<br />
1<br />
M<br />
2<br />
1 M 2 ( x − x ) [ % ]<br />
1<br />
NRMS = 100<br />
M 1 M 2 i i<br />
(4.1)<br />
N x x<br />
xyz<br />
N xyz Total amount of grid points within a 3-dimensional domain<br />
M1<br />
x Value at grid cell i from model 1<br />
i<br />
2 x Value at grid cell i from model 2<br />
M<br />
i<br />
M1<br />
x 3-dimensional average of model 1<br />
M 2 x 3-dimensional average of model 2<br />
The results depicted in Figure 4.8 show NRMSs of comparable size for all settings<br />
and that different model variables are affected differently. The NRMSs amount to<br />
~0.05 % for temperature, ~0.3 % for pressure perturbation, and ~3.5 % for specific<br />
humidity. For all further investigations compiler switches number 8 are used, mainly<br />
because these settings utilize IGAM’s hardware most efficiently.<br />
Anhang 1 11<br />
Teilbericht 5
Normalized Root Mean Square Diff. [%] (Press., Temp.)<br />
0.45<br />
0.40<br />
0.35<br />
0.30<br />
0.25<br />
0.20<br />
0.15<br />
0.10<br />
0.05<br />
0.00<br />
T_NRMS<br />
PP_NRMS<br />
Q_NRMS<br />
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20<br />
12 Anhang 1<br />
Teilbericht 5<br />
4.5<br />
4.0<br />
3.5<br />
3.0<br />
2.5<br />
2.0<br />
<strong>1.</strong>5<br />
<strong>1.</strong>0<br />
0.5<br />
0.0<br />
Normalized Root Mean Square Diff. [%] (Spec. Hum.)<br />
#Compiler switches<br />
1-O3 -w -tpp7 -mp -prec_div<br />
2-O3 -w -tpp7 -mp<br />
3-O3 -w -tpp7<br />
4-O2 -w -tpp7<br />
5-O3 -w -tpp6 -mp -prec_div<br />
6-O3 -w -tpp6 -mp<br />
7-O3 -w -tpp6<br />
8-O2 -w -tpp6<br />
9-O2 -w -tpp6 -unroll -prefetch<br />
10 -O3 -w -tpp6 -unroll -prefetch -mp -<br />
prec div<br />
11 -O2 -w -tpp6 -unroll -prefetch -mp -<br />
prec div<br />
12-O3 -w -tpp6 -unroll -prefetch -mp<br />
13 -O3 -w -tpp7 -unroll -prefetch -mp<br />
14 -O2 -w -unroll -prefetch -mp -<br />
prec div<br />
15-O2 -w -unroll -prefetch -mp<br />
16 -O2 -w -tpp6 -unroll -prefetch -xiM<br />
17-O2 -w -tpp6 -unroll -prefetch<br />
18-O2 -w -tpp6 -safe_cray_ptr<br />
19 -O2 -w -unroll -prefetch -mp -<br />
prec div<br />
20 -O2 -w -unroll -prefetch -mp1 -<br />
prec div<br />
Figure 4.8: Comparison of 3d atmospheric fields obtained from the identical MM5-experiments (SOCtest<br />
case, 12 hours) performed by PSU/UCAR (control run) and by IGAM (Athlon MP, Intel Fortran<br />
Compiler 7.1) using different compiler switches (cases 1 to 20). Normalized mean square differences<br />
of temperature (T, red), pressure perturbation (PP, green) and specific humidity (Q, blue).<br />
In a second test the parallel <strong>version</strong> of MM5 (multiple processes and distributed<br />
memory feature is accomplished by the implementation of the Message Passing Interface,<br />
MPI) is compared to the single CPU <strong>version</strong>. The aim of this test is, on one<br />
hand, to examine the quantity of numerical errors in a different setting and, on the<br />
other hand, to examine the evolution of numerical deviations in time when performing<br />
longer modeling experiments. Both runs are conducted on the IGAM Linux cluster<br />
and compiler-switches were selected as described above (no. 8 in Fig. 4.8). The domain<br />
settings are selected as described in Section 4.<strong>1.</strong>1 and the modeled period<br />
spans from Sept. 18 1999, 00:00 UTC to Sept. 26 1999, 00:00 UTC. The simulation<br />
with the MPI-<strong>version</strong> (6 CPUs) takes 7:51 hours, the single CPU-<strong>version</strong> 31:36 hours.<br />
The results (described in terms of NRMS, see Fig. 4.9) show that the differences<br />
are increasing within the first days, reaching their maximum values after 3 days and<br />
are bounded within an interval in the same order of magnitude as the temporal mean<br />
values shown in Figure 4.8. After an integration time of 3 days the differences vary<br />
around values consistent with the temporal means. The time evolution of NRMS and<br />
the consistency of the two experiments indicate that the total numerical error is<br />
bounded and can be roughly quantified to amount 0.05 %, 0.35 %, and 3 % for the 3dimensional<br />
fields of temperature, pressure perturbation, and humidity, respectively.
Nomralized Root Mean Square Diff. [%] (Press. Pert., Temp.)<br />
0.7<br />
0.6<br />
0.5<br />
0.4<br />
0.3<br />
0.2<br />
0.1<br />
0<br />
18.09 00:00<br />
Pressure Perturbation<br />
Temperature<br />
Spec. Humidity<br />
19.09 00:00<br />
20.09 00:00<br />
2<strong>1.</strong>09 00:00<br />
22.09 00:00<br />
Figure 4.9: Comparison of model results from MPI-<strong>version</strong> of MM5 against the single CPU-<strong>version</strong><br />
through the period from 1999.09.18 00:00 (UTC) to 1999.09.26 00:00 (UTC). Normalized Root Mean<br />
Square Difference [%] of the 3-dimensional temperature (T, red), pressure perturbation (PP, green)<br />
(primary ordinate) and specific humidity (Q, blue) (secondary ordinate) are shown.<br />
NRMS does not distinguish between random and systematic error. Systematic errors<br />
(biases) are of greatest importance since they can have essential impact on the<br />
climatological interpretation of long-term model runs. For this reason, a rough check<br />
whether numerical artifacts cause essential biases in the MM5-output data or not<br />
were performed by analyzing the relative differences of accumulated precipitation<br />
water at the end of the model period described above. The spatial mean of the relative<br />
differences (shown in Figure 4.10) amounts only to 0.053 % but the differences<br />
vary locally from –50 % up to 280 %. From the spatial distribution of the absolute accumulated<br />
precipitation water (Figure 4.11) it can be seen, that most high values of<br />
relative differences occur within areas of low absolute values, i.e., correspond to<br />
small absolute errors. However, some local features shown would be worth a closer<br />
examination.<br />
Anhang 1 13<br />
Teilbericht 5<br />
23.09 00:00<br />
24.09 00:00<br />
25.09 00:00<br />
26.09 00:00<br />
7<br />
6<br />
5<br />
4<br />
3<br />
2<br />
1<br />
0<br />
Normalized Root Mean Square Difference [%] (Spec. Hum.)
Figure 4.10: Relative difference [%] between MPI-<strong>version</strong> and single CPU-<strong>version</strong> of the accumulated<br />
precipitation water at the end of the period from 1999.09.18 00:00 (UTC) to 1999.09.26 00:00 (UTC).<br />
Figure 4.11: Absolute amount of accumulated precipitation water [cm] (MPI-<strong>version</strong>) at the end of the<br />
period from 1999.09.18 00:00 (UTC) to 1999.09.26 00:00 (UTC).<br />
14 Anhang 1<br />
Teilbericht 5
4.<strong>1.</strong>5 MM5 Multi-Processor Performance<br />
Another field of interest is the scalability of MM5 at the IGAM-cluster. The IGAMcluster<br />
consists of 8 nodes, each of them equipped with 2 Athlon 1900+ MP processors<br />
running at 1600 MHz and connected with Gigabit-network. In order to apply timing<br />
tests, the SOC-experiment is performed several times using varying numbers of<br />
CPUs ranging from single-CPU to 12-CPUs in parallel mode (Fig. 4.12).<br />
real clock time [s]<br />
450<br />
400<br />
350<br />
300<br />
250<br />
200<br />
150<br />
100<br />
50<br />
0<br />
real [s]<br />
ideal [s]<br />
load [%]<br />
0 2 4 6 CPUs [#] 8 10 12 14<br />
Figure 4.12: Average load [%] (blue squares) and real clock time [s] (red diamonds) with respect to<br />
the number of CPUs at the IGAM-cluster compared to an ideal network (dashed line). The vertical<br />
distribution results from different possibilities to set up the multi-CPU experiments.<br />
The real clock time (real duration of the SOC-experiment) decreases by adding<br />
more CPUs, but since the inter-processing communication increases with increasing<br />
number of CPUs the average load of one single CPU decreases. In consequence,<br />
the utilization of more than 8 CPUs hardly results in a gain of processing time. It is<br />
pointed out, that these results vary depending on the MM5 domain setting. The SOCcase<br />
has small memory consumption; therefore the inter-processing communication<br />
surpasses the numerical computations. In experiments using larger domains and<br />
more vertical layers resources are utilized more efficiently and it might make sense to<br />
use more than 8 CPUs. However, this performance test shows, consistent with comparable<br />
results of Renold et al. [2004] that multi-processor performance on a Linuxcluster<br />
is clearly limited by network speed and can not be in infinitely enhanced by<br />
adding more nodes. This implies that it pays to perform large simulations on supercomputer<br />
systems like ECMWF’s High Performance Computing Facility (HPCF) [e.g.,<br />
Storer et al., 2003].<br />
Anhang 1 15<br />
Teilbericht 5<br />
100%<br />
90%<br />
80%<br />
70%<br />
60%<br />
50%<br />
40%<br />
30%<br />
20%<br />
10%<br />
0%<br />
mean load per CPU [%]
4.<strong>1.</strong>6 Summary and Conclusions<br />
In preparation for the planned 10-year downscaling runs and for validation purposes<br />
IGAM prepared the interface to both driving data sets relevant in reclip:more:<br />
ECHAM5 GCM results and ERA-40 reanalysis. Various MM5 test runs driven by<br />
ERA-40 were performed and are available for validation against an analysis of observational<br />
surface data, the Vienna Enhanced Resolution Analysis (VERA)<br />
[Steinacker et al, 1997] by IMG, to the driving dataset ERA-40 by BOKU-Met, and<br />
radio soundings by IGAM (see Sect. 4.2). To ensure consistency, the same software<br />
tools from ARC-Sys (readv3_mm5p_vera, readv3_mm5_vera), BOKU-Met (readv3),<br />
and IGAM (ExtractMM5_v8) are used to extract data from MM5 output datasets delivered<br />
by the various groups.<br />
Concerning the provision GCM driving data (ECHAM5 T106 L31), a cooperation<br />
with ETH Zuerich has been established by IMG leading to a retrospective dataset<br />
(1981-1990) now available from ETH. The data transfer to IGAM is initiated and is<br />
expected to be finished in Dec. 2004. ECHAM5 driving data for the prospective reclip-period<br />
(2041-2050, scenario IS92a) is currently produced ETH, the model run is<br />
expected to be finished and available for transfer in late 2004.<br />
Various test concerning numeric MM5 errors has been performed at IGAM. The<br />
time evolution of these errors is bounded and can be roughly quantified to amount<br />
0.05 %, 0.35 %, and 3 % for the 3-dimensional fields of temperature, pressure perturbation,<br />
and humidity, respectively. No substantial biases were found for the spatial<br />
mean of accumulated precipitation but some local features would be worth a closer<br />
examination. The results from these tests provide only a first glimpse on the topic of<br />
numerical errors and are by no means comprehensive. Due to lack of resources and<br />
funding we could not perform quantitative and systematic studies. However, these<br />
results are important to establish basic confidence in the soft- and hardware used<br />
and show no strong indication for huge or unbounded numerical errors.<br />
Multi-processor performance test showed that the performance on a Linux-cluster<br />
is clearly limited by network speed and cannot be in infinitely enhanced by adding<br />
more nodes. This implies that it pays to perform large simulations on super-computer<br />
systems like ECMWF’s High Performance Computing Facility (HPCF). First test runs<br />
on HPCF showed that a 10-year run as planned for reclip:more can be accomplished<br />
within 10 – 20 days depending on the model setup. However, the huge amount of in-<br />
and output data still causes problems to be solved.<br />
16 Anhang 1<br />
Teilbericht 5
4.2 Vertical Validation (WP VALVERT)<br />
In order to be able to validate the vertical structure of atmospheric fields delivered<br />
by retrospective high-resolution RCM experiments, IGAM prepared a validation database<br />
and method. The method is based on radio soundings as reference dataset<br />
(Sect. 4.2.1), is focused on the free atmosphere, and operates on pressure levels. It<br />
includes automatic extraction of radiosonde and model data (Sect. 4.2.2) and the<br />
creation of error statistics and benchmarks (Sect. 4.2.3). For demonstration purposes<br />
and as preliminary validation, error statistics of first results from dynamically downscaling<br />
the ERA-40 global reanalysis with MM5 at IGAM (datasets described in<br />
Sect. 4.<strong>1.</strong>3) and ARC-sys, and with ALADIN at IMG are show in Section 4.2.4.<br />
4.2.1 Reference Dataset – CALRAS<br />
CALRAS [Häberli, 2003] is a comprehensive collection of radio-soundings in the<br />
Alpine region consisting of 47 stations as displayed in Figure 4.13. The primary<br />
source of the CALRAS dataset is the Meteorological Archival and Retrieval System<br />
(MARS) of ECMWF, but additionally data from various European weather services<br />
and the U.S. National Climatic Data Center (NCDC) are used. The captured period<br />
ranges from 1980 to 1999 though many stations don’t span the total period. Some<br />
highly relevant stations for reclip:more are listed in Table 4.8 and marked green in<br />
Fig. 4.13. Data from these stations (except stations marked with an asterisk in the<br />
table) served as reference dataset in a preliminary MM5 and ALADIN vertical validation<br />
study presented in Sect. 4.2.4 of this report.<br />
lyo<br />
nim<br />
nic<br />
ton<br />
nan stu<br />
sig<br />
alt<br />
pay<br />
Anhang 1 17<br />
Teilbericht 5<br />
cun<br />
mil<br />
spi<br />
kbk<br />
mun<br />
hpb<br />
ibk<br />
udi<br />
lin<br />
brn<br />
vie<br />
gra<br />
lju zag<br />
Figure 4.13: Map of the CALRAS radiosonde stations. Big blue square: Validation area (see Sect.<br />
4.2.4, latitude: 42.8°N – 49.7°N, longitude: 4.0°E – 18.5°E). Green diamonds: Stations inside the validation<br />
area that delivered data during the validation period (Nov. 3. – Nov. 8. 1999).
Table 4.8: CALRAS stations in the area between 42.8°N - 49.7°N and 4.0°E - 18.5°E. Stations marked<br />
with an asterisk (*) did not deliver data during the validation period (Nov. 3. – Nov. 8. 1999) used in Sect.<br />
4.2.4.<br />
CALR<br />
ID<br />
Name<br />
WMO<br />
ID<br />
Lat. Lon.<br />
alt ALTENSTADT 10954 47.83 10.87<br />
brn* BRNO/TURANY 11722 49.12 16.75<br />
cun CUNEO-LEVALDIGI 16113 44.53 7.62<br />
gra GRAZ-THALERHOF-FLUGHAFEN 11240 47.00 15.43<br />
hpb HOHENPEISSENBERG 10962 47.80 1<strong>1.</strong>02<br />
ibk INNSBRUCK-FLUGHAFEN 11120 47.27 1<strong>1.</strong>35<br />
kbk KUEMMERSBRUCK 10771 49.43 1<strong>1.</strong>90<br />
lin LINZ/HOERSCHING-FLUGHAFEN 11010 48.23 14.18<br />
lju LJUBLJANA/BEZIGRAD 14015 46.07 14.52<br />
lyo LYON-SATOLAS 07481 45.73 5.08<br />
mil MILANO/LINATE 16080 45.43 9.28<br />
mun MUENCHEN-OBERSCHLEISSHEIM 10868 48.25 1<strong>1.</strong>55<br />
nan NANCY-ESSEY 07180 48.68 6.22<br />
nic NICE 07690 43.65 7.20<br />
nim NIMES-COURBESSAC 07645 43.87 4.40<br />
pay PAYERNE 06610 46.82 6.95<br />
sig SIGMARINGEN 10828 48.10 9.25<br />
spi S. PIET. CAPO. MOLI. (BOLOGNA) 16144 44.65 1<strong>1.</strong>62<br />
stu STUTTGART/SCHNARRENBERG 10739 48.83 9.20<br />
ton* TOULON 07660 43.10 5.93<br />
udi UDINE/CAMPOFORMIDO 16044 46.03 13.18<br />
vie WIEN/HOHE WARTE 11035 48.25 16.37<br />
zag ZAGREB/MAKSIMIR 14240 45.82 16.03<br />
4.2.2 Data Extraction<br />
Barom.<br />
height Data availability<br />
[m asl]<br />
757 1995-1999<br />
246 1996-1999<br />
386 1999<br />
347 1982, 1986-1999<br />
986 1980-1982, 1984-1999<br />
584 1995-1999<br />
418 1981, 1982, 1994-1999<br />
313 1986-1999<br />
298 1996-1999<br />
240 1980-1999<br />
103 1980-1999<br />
489 1980-1999<br />
212 1980-1999<br />
27 1999<br />
62 1980-1999<br />
491 1980-1999<br />
646 1995-1999<br />
11 1986-1999<br />
315 1980-1999<br />
25 1992,1993<br />
94 1980-1999<br />
200 1980-1999<br />
128 1980-1991, 1992-1999<br />
A tool for the extraction of data from the raw CALRAS dataset has been developed<br />
that is capable to analyze user selected geographic regions and/or single stations,<br />
single time-slices (spatial means) or periods (temporal or spatial-temporal means)<br />
and the selective analysis of single synoptic hours. The program automatically extracts<br />
all soundings specified in an input file from the compressed CALARAS database<br />
as well as the corresponding profiles from MM5 output datasets. Model-data is<br />
extracted at the longitude and latitude of the radiosonde station via bilinear interpolation<br />
using the neighboring four grid points of the model. At present, the trajectory of<br />
the ascending sonde is approximated to be vertical, a approximation is regarded to<br />
be non-critical but could, under extreme conditions, result in artificial deviations between<br />
radiosonde and model data in the vertical validation procedure at high altitudes.<br />
E.g., a mean wind speed of 10 m/s would cause a horizontal displacement of<br />
the sonde of 16 km in 8 km altitude, which is in the order of one MM5 grid cell.<br />
According to the available observed atmospheric parameters, following parameters<br />
are extracted from the MM5 results (on pressure levels): Temperature T [K], relative<br />
humidity RH [%], dew point temperature Tdp [K], wind velocity (u- and vcomponents)<br />
[m/s], and geopotential height Z [gpm]. MM5 data is extracted on<br />
model-levels, interpolated to the WMO mandatory pressure levels 1 [WMO, 1995], and<br />
subsequently stored in CALRAS ASCII format [Häberli, 2003]. Additionally a list containing<br />
all necessary information to extract the corresponding profiles from ALADIN<br />
model output is created and an input-interface for reading these data is available.<br />
1<br />
WMO Mandatory pressure levels up to 10 hPa: 1000, 925, 850, 700, 500, 400, 300, 250, 200, 150, 100, 70, 50,<br />
30, 20, 10 [hPa].<br />
18 Anhang 1<br />
Teilbericht 5
4.2.3 Error-Statistics<br />
Table 4.9: Statistical parameters calculated for vertical validation of RCM data (“model”) on each pressure<br />
level. Reference data (“observation”): CLARAS. n denotes the number of data used for calculating<br />
the error statistics.<br />
Basic statistics<br />
Sample mean (observation) o<br />
Sample mean (model) m<br />
Sample variance (observation)<br />
Sample variance (model)<br />
Sample covariance om<br />
Mean difference (Bias) x d<br />
Variance of differences 2<br />
n<br />
x ∑ xoi<br />
n i=<br />
1<br />
Anhang 1 19<br />
Teilbericht 5<br />
1<br />
1<br />
x<br />
n<br />
∑ xmi<br />
n i=<br />
1<br />
2<br />
o<br />
n 1<br />
∑ n −1<br />
i=<br />
1<br />
2<br />
m<br />
n 1<br />
∑ n −1<br />
i=<br />
1<br />
s ( x − x )<br />
s ( x − x )<br />
1<br />
n<br />
∑ n −1<br />
i=<br />
1<br />
n 1<br />
∑ xdi<br />
n i=<br />
1<br />
s ( x − x )( x − x )<br />
2<br />
d<br />
oi<br />
mi<br />
oi<br />
x x − x<br />
( di = mi oi )<br />
n 1<br />
1<br />
xdi<br />
− xd<br />
∑ n − i=<br />
1<br />
s ( )<br />
Derived statistics and skill scores<br />
Mean square difference 4.2.3.<strong>1.</strong><strong>1.</strong><strong>1.</strong><strong>1.</strong><strong>1.</strong>1 MS<br />
1 n<br />
(<br />
Correlation r<br />
∑<br />
i=<br />
1<br />
n<br />
s<br />
s s<br />
Fisher’s skill score Sr 2(<br />
1−<br />
r )<br />
Bias skill score Sb<br />
Total skill score St<br />
o<br />
om<br />
m<br />
x<br />
di<br />
)<br />
2<br />
⎛ s<br />
⎜<br />
⎝ s<br />
1<br />
1+<br />
10 x<br />
S + S<br />
r<br />
2<br />
m<br />
o<br />
o<br />
o<br />
m<br />
2<br />
2<br />
2<br />
n −1<br />
= s<br />
n<br />
s<br />
+<br />
s<br />
( ) 2<br />
b<br />
d xo<br />
Basic statistical parameters and derived skill scores are calculated on each pressure<br />
level for each atmospheric parameter listed in Section 4.2.2. Table 4.9 lists all<br />
statistical parameters currently implemented; further parameters can easily be implemented<br />
according to user requests.<br />
2 2<br />
sd is the unbiased estimator for the variance of the model – observation differences and is related to the so called ‘bias corrected mean<br />
square error’ (<br />
2 2 n<br />
BC_MS = MS-x<br />
) by: s BC_MS<br />
d d = .<br />
n −1<br />
o<br />
m<br />
⎞<br />
⎟<br />
⎠<br />
−2<br />
mi<br />
2<br />
d<br />
+ x<br />
m<br />
2<br />
d
4.2.4 First Validation Results<br />
Figures 4.14 – 4.19 show preliminary vertical validation results of temperature.<br />
The statistics show spatial-temporal mean values including all stations inside the<br />
validation area defined in Sect. 4.2.<strong>1.</strong> In each Figure, the model- and radiosonde<br />
mean temperature profile (upper left panel), the standard deviation profile of model-<br />
and radiosonde temperatures (upper right panel), the number of data points used for<br />
calculation of statistics and the correlation between model and radiosonde temperatures<br />
(lower left panel), and the bias (model – observation) and standard deviation of<br />
differences is shown.<br />
Figures 4.14 and 4.15 show the results of MM5 runs performed by IGAM<br />
(Fig. 4.14) and ARC-sys (Fig. 4.15) using the boku_1 setting (see Sect. 4.<strong>1.</strong>1). Both<br />
groups operated MM5 in climate mode. The validation period (Nov. 3. – Nov. 8.<br />
1999) is divided into three two-day time slices to allow the interpretation of the temporal<br />
evolution of model errors. The results from both groups show qualitatively the<br />
same characteristics, especially in the first two days (left panels) when MM5 is near<br />
its initial state. This demonstrates that both independent implementations of ingesting<br />
initialization and driving data from ERA-40 are consistent.<br />
The middle panels (days 3 and 4 of the simulation) show growing differences regarding<br />
variance of data and errors (~5 K) but the bias remains near zero. In the last<br />
two-day slice (days 6 and 7) MM5 apparently looses track, the model-observation<br />
correlation drops below 0.5 and huge standard deviations (~25 K and above) occur.<br />
Interestingly, the temperature bias still stays near zero.<br />
Since MM5 is apparently not able to follow the large-scale synoptic state of the<br />
atmosphere in the test-period using the boku_1 setting, we repeated the simulation<br />
using smaller domains to constrain the RCM tighter to driving data. The results of<br />
these simulations are shown in Figure 4.16 (aladin setting, see Sect. 4.<strong>1.</strong>1) and 4.17<br />
(boku_1 reduced setting, see Sect. 4.<strong>1.</strong>1). The results are generally much closer to<br />
the reference dataset, but still days 5 and 6 of the model period (right panels) show<br />
substantial errors.<br />
In Figure 4.18 the results of the corresponding ALADIN experiment performed by<br />
IMG is shown. In contrary to all MM5 runs presented in this report, ALADIN is operated<br />
in forecast-mode by daily initializing the RCM with ERA-40 data at 0 UT (‘direct<br />
mode’ as described by Beck et al. [2004]). Only the noon synoptic hour (12 UT) was<br />
validated since in this case the model state at the other main synoptic hour (0 UT)<br />
simply represents the driving data (ERA-40) interpolated to the ALADIN grid. The<br />
results show a very close agreement with observational data according to all aspects<br />
of the error statistics.<br />
In order to directly compare MM5 to ALADIN results both models have to be operated<br />
in the same mode (climate or forecast). Such a comparison has not been conducted<br />
yet but the results 12 hours after the model start (Nov. 3., 1999, 12 UT) can<br />
be taken as a first indication on how the direct comparison in forecast-mode will look<br />
like. The Nov. 3., 12 UT validation results are depicted in Fig. 4.19, the left panel<br />
showing ALADIN-IMG results and the middle and right panels showing the MM5-<br />
IGAM results using the boku_1 reduced and aladin domain settings, respectively.<br />
20 Anhang 1<br />
Teilbericht 5
All three simulations agree very closely according to all respects of the error statistics<br />
showing a correlation with the observed temperatures between 0.9 and 1 (except for<br />
the 250 hPa level where the variance of the data drops to near-zero), biases below<br />
2 K and error standard deviations in the order of the bias.<br />
Figure 4.14: Temperature error statistics profiles of MM5-IGAM in climate mode relative to radiosonde<br />
data from CALRAS (all available stations). Domain setup: boku_1, domain 2 (see Table 4.3). Left<br />
panel: Nov. 3 – Nov. 4 1999, middle panel: Nov. 5 – Nov. 6 1999, right panel: Nov. 7 – Nov. 8 1999.<br />
Figure 4.15: Temperature error statistics profiles of MM5-ARC-sys in climate mode relative to radiosonde<br />
data from CALRAS (all available stations). Domain setup: boku_1, domain 2 (setup similar to<br />
Table 4.3, but only 29 vertical layers). Left panel: Nov. 3 – Nov. 4 1999 (spin up time), middle panel:<br />
Nov. 5 – Nov. 6 1999, right panel: Nov. 7 – Nov. 8 1999.<br />
Anhang 1 21<br />
Teilbericht 5
Figure 4.16: Temperature error statistics profiles of MM5-IGAM in climate mode relative to radiosonde<br />
data from CALRAS (all stations, see Tab. 4.8), Domain setup: aladin domain 2 (see Table 4.4). Left<br />
panel: Nov. 3 – Nov. 4 1999, middle panel: Nov. 5 – Nov. 6 1999, right panel: Nov. 7 – Nov. 8 1999.<br />
Figure 4.17: Temperature error statistics profiles of MM5-IGAM in climate mode, relative to radiosonde<br />
data from CALRAS (all stations, see Tab. 4.8), Domain setup: boku_1 reduced domain 2<br />
(see Table 4.5). Left panel: Nov. 3 – Nov. 4 1999, middle panel: Nov. 5 – Nov. 6 1999, right panel:<br />
Nov. 7 – Nov. 8 1999.<br />
22 Anhang 1<br />
Teilbericht 5
Figure 4.18: Temperature error statistics profiles of ALADIN-IMG in forecast-mode (“direct mode” as<br />
described by Beck et al. [2004]) relative to radiosonde data from CALRAS (all stations, see Tab. 4.8).<br />
Left panel: Nov. 3 – Nov. 4 1999, middle panel: Nov. 5 – Nov. 6 1999, right panel: Nov. 7 – Nov. 8<br />
1999.<br />
Figure 4.19: Temperature error statistic profiles of ALADIN-IMG in forecast mode and MM5-IGAM in<br />
climate mode relative to radiosonde data from CALRAS (all stations, see Tab. 4.8). Only data from<br />
Nov. 3, 12 UT (12 hours after initialization) are shown. Left panel: ALADIN-IMG, middle panel: MM5-<br />
IGAM aladin domain 2 (see Tab. 4.4), right panel: MM5-IGAM, boku_1 reduced domain 2 (see<br />
Tab. 4.5).<br />
4.2.5 Summary and Conclusions<br />
A tool for validating the vertical structure of RCM results with respect to radio<br />
soundings has been demonstrated. The validation procedure is operating on pressure-levels<br />
and it is well suited for the free atmosphere where direct influence of the<br />
surface is negligible. In the planetary boundary layer (PBL) where the influence of the<br />
surface is essential, comparisons based on pressure levels have to be interpreted<br />
with care. The “meters above ground level”-scale (magl) might be the better choice<br />
very close to the ground but it is difficult to reliably define the transition-zone (top of<br />
the PBL) above where the magl-scale would artificially introduce biases into the error<br />
statistics due to the differences between the smoother digital elevation model (DEM)<br />
Anhang 1 23<br />
Teilbericht 5
used by the models and the real-world surface elevation. Furthermore the magl-scale<br />
does not resolve the main problem in the interpretation of near-surface model versus<br />
observation comparison, the missing indirect effects of sub-scale surface features.<br />
Despite of these difficulties, an additional validation product focusing on the PBL and<br />
regarding the distance from the surface is planned to be implemented during reclip:more<br />
project year 2 for selected radiosonde sites.<br />
Figure 4.20: 500 hPa temperature in the validation area after 120 hours model integration time (Nov.<br />
8. 1999, 0:00 UT). Upper panel: driving data (ERA-40), middle panel: MM5-IGAM with boku_1 setting,<br />
lower panel: MM5-IGAM with boku_1 reduced setting.<br />
24 Anhang 1<br />
Teilbericht 5
Preliminary results from the vertical validation scheme using temperatures demonstrate<br />
that the MM5 implementations (including ERA-40 data ingestion) at IGAM and<br />
ARC-sys work consistently but that MM5 in climate mode, especially when operating<br />
in big domains, is “running away” from the synoptic state of the atmosphere after 4 –<br />
5 days model integration time. This is also demonstrated in Fig. 4.20 showing the<br />
500 hPa temperatures after 5 days MM5 integration time (Nov. 8. 1999, 0:00 UT).<br />
The bulk large-scale features of the ERA-40 driving data set (upper panel) are lost<br />
when using the boku_1 setting while a smaller setting (boku_1 reduced, lower panel)<br />
enables MM5 to keep the large-scale features partially intact but still yields unsatisfactory<br />
results. However, the deviations are mainly visible in the spatial/temporal correlations<br />
and error standard deviations but not in area-means. The mean temperature<br />
over the entire validation area is virtually unbiased for all settings (see<br />
Figs. 3.14 – 3.17).<br />
Results from ALADIN operated by IMG in forecast mode (daily re-initialization)<br />
show a very good agreement with observational data (Fig. 4.18) but cannot be directly<br />
compared to the MM5 simulations operated in climate mode. However, comparisons<br />
of the ALADIN-IMG and MM5-IGAM temperatures after 12 hours integration<br />
time are comparable and indicate roughly similar quality of temperatures in the free<br />
atmosphere (Fig. 4.19).<br />
These preliminary results show that both, domain setting strategy, and RCM operation<br />
mode (climate, grid-nudging, 3DVar, forecast,...) should be carefully reconsidered.<br />
More tests, especially regarding the operation mode are recommended. Additional<br />
test (not presented in detail in this report) showed that the optimization of<br />
other important factors like physical parameterization, nesting feedback, vertical<br />
resolution and extent is, regarding the quantity of the present uncertainties, of secondary<br />
relevance and should be deferred.<br />
We refrain from further interpreting the results since they are very preliminary and<br />
not yet combined with validation relative to ground station data and hope that the<br />
new possibility to quickly evaluate MM5 and ALADIN results against radiosonde-data<br />
will aid the sensitivity studies currently going on at BOKU-Met and ARC-sys.<br />
Anhang 1 25<br />
Teilbericht 5
4.3 Wind Downscaling (WP WIND)<br />
4.3.1 Methodology<br />
In order to approximate near surface wind at a final resolution of 200 m a combined<br />
application of prognostic and diagnostic models will be performed within three<br />
study areas (Lower Austria, South-East Styrian, and Hohe Tauern regions). The<br />
downscaling process consists of two main steps (see Fig. 4.21 for a structure chart of<br />
the wind-downscaling process):<br />
Figure 4.21: Structure chart of the wind-downscaling process. Mesoscale model results at ~15 m spatial<br />
resolution are downscaled to 200 m resolution with respect to near surface wind. Needed input<br />
data are listed.<br />
Starting from the reclip:more ‘standard resolution’ of 15 km after dynamic downscaling,<br />
another dynamic downscaling step is added to prepare initial conditions for<br />
the actual wind downscaling at 5 km resolution using MM5 in one-way nesting mode.<br />
26 Anhang 1<br />
Teilbericht 5
The second step is carried out by a modified <strong>version</strong> of the micro-scale model<br />
CALMET [Scire et al., 1999]. It computes a three dimensional divergence-free wind<br />
field in a diagnostic manner for each single time-slice stored in the MM5 output files<br />
at a resolution of 200 m. Therefore, it is very important to use MM5 results at a high<br />
time resolution (e.g. 1 hour) in order to perform statistical analysis afterwards.<br />
Compared to dynamic downscaling, this procedure is time saving but still provides<br />
a more sophisticated way to approximate the stratification of the atmosphere than<br />
pure statistical downscaling methods. Depending on user-defined configurations,<br />
CALMET can account for kinematical terrain-effects, slope flows, and thermodynamic<br />
blocking-effects. To set up the lower boundary conditions a high resolution elevation<br />
model and physio-geographic data (external parameters), such as roughness length,<br />
surface albedo, Bowen ratio (ratio between sensible heat flux and latent heat flux)<br />
and surface heat flux parameter (ratio between heat flux into the ground and net incoming<br />
radiation) are needed at the final resolution (200 m, see sect. 4.3.2).<br />
4.3.2 Realization<br />
Domain Settings, MM5 Setup<br />
While the sensitivity studies regarding the optimal MM5 setup are left unfinished,<br />
MM5-test data as well as the domain and parameterizations settings from WP<br />
MODEL (Sect. 4.1) are used for testing purposes. The exact domain settings of additional<br />
nests (the ‘study areas’ Lower Austria, Styria, and Hohe Tauern) are not yet<br />
exactly defined for reclip:more and have been set up preliminary for testing purposes<br />
(see Fig. 4.22 and Tab. 4.10). At the current stage, the wind-downscaling is operational<br />
within Hohe Tauern region (domain 4) only.<br />
Table 4.10: MM5 basic spatio- temporal setup for wind downscaling test-runs<br />
Domain 3 Domain 4 Domain 5 Domain 6 CALMET<br />
Num. grid points Y 94 41 41 41 348<br />
Num. grid points X 193 41 41 41 700<br />
Grid distance [km] 10 5 5 5 0.2<br />
Num. Layers 25 35 35 35 20<br />
time step [s] 30 20 20 20 -<br />
Nest type two-way one-way one-way one-way -<br />
Anhang 1 27<br />
Teilbericht 5
Figure 4.22: Preliminary domain settings for the reclip:more study areas: Hohe Tauern (green), Styria<br />
(yellow), and Lower Austria (gray). The red area marks the working domain of CALMET. The encompassing<br />
blue region represents domain 3 from the preliminary setting (see chapter 4.1).<br />
Provision of elevation and physio-geographical data<br />
For high resolution downscaling of wind a digital elevation model (DEM) and several<br />
external parameters are needed at a spatial resolution of 200 m. The major part<br />
of the elevation model used here was computed from the Shuttle Radar Topography<br />
Mission (SRTM) [Rabus et al., 2004] that is available at 3 arc seconds, tiled into<br />
1 x 1° pieces. These pieces were patched together by ARC-sys to obtain the DEM for<br />
MM5 domain 3 at high resolution. Unfortunately, the data turned out to have gaps<br />
and is shifted about 80 m towards West. The west-shift could be corrected manually,<br />
but additional elevation models and statistical methods were necessary to fill data<br />
gaps. A regularized spline interpolation method [Mitasova, 1993] combined with other<br />
DEMs for adding sampling points (SRTM at 30 arc seconds and a DEM at 250 m<br />
resolution provided by ARC-sys) were applied. Finally the elevation data set was resampled,<br />
smoothed to 200 m resolution, and projected to CALMET’s coordinate system<br />
(Lambert Conformal Conic). Figure 4.23 shows the raw SRTM/3’’ data compared<br />
to the corrected DEM finally used for wind downscaling. The spline interpolation<br />
method is very successful in most regions but a smoothed elevation model in regions<br />
with large data gaps cannot be avoided.<br />
28 Anhang 1<br />
Teilbericht 5
Figure 4.23: Comparison of original and interpolated SRTM data at 3 arc seconds resolution. The<br />
shown region represents the Inn valley between Innsbruck (west) and Schwaz (east). The Karwendel<br />
is heavily affected by missing gaps (white areas).<br />
To obtain the physio-geographic external parameters such as roughness length,<br />
surface albedo, Bowen ratio (ratio between sensible heat flux and latent heat flux)<br />
and surface heat flux parameter (ratio between heat flux into the ground and net incoming<br />
radiation), a combination of the CORINE land cover dataset CLC90 [EEA,<br />
1995], <strong>version</strong> 12/2000, (available at 250 m resolution, resampling to 200 m was performed<br />
by ARC-sys) and literature data [Hagemann, 2002; Pineda et al., 2004] were<br />
used. The physio-geographic data from literature were statically linked to CORINE<br />
land cover data. However, in a later <strong>version</strong> of our wind downscaling tool, we plan to<br />
refine the provision of external parameters by approximating them directly from the<br />
driving mesoscale model to achieve both, more sophisticated results and a consistent<br />
model chain on all scales involved.<br />
Modifications to CALMET<br />
CALMET usually works on Mircosoft® Windows systems and the code had to be<br />
exported to UNIX/Linux for reclip:more to be able to use the available computing resources.<br />
At the same time, a bug (index overflow) was corrected. Since surface albedo<br />
is mainly affected by the snow cover, a trigger was implemented into CALMET<br />
to adjust the albedo in a similar way as it done in the simple land surface scheme of<br />
MM5: If snow cover exists the albedo is raised by 50 %. Concerning the kinematical<br />
Anhang 1 29<br />
Teilbericht 5
effects, the tuning option was modified to allow for a seamless adjustment between 0<br />
and 100 %. Since air density is an important variable in some applications of wind<br />
downscaling such as wind turbines, a 3-dimensional pressure field was introduced in<br />
addition to the existing variables to allow a comprehensive calculation of air density.<br />
Test Runs<br />
For testing purposes several time slices from the ERA-40 driven MM5-test datasets<br />
from WP MODEL (see Sect. 4.1) were successfully downscaled to the final resolution<br />
of 200 m. The CALMET computation time for the area shown in Fig. 4.23 is<br />
about 188 seconds per time-slice, the size of the output-file amounts about 110 MB if<br />
all variables are stored. One exemplary downscaling result is shown in Figure 4.24.<br />
The 10 m wind field in 5 km (upper panel) and 200 m (lower panel) grid spacing over<br />
“Großglockner” shows that during night (3:00 UTC) stream flows are mainly controlled<br />
by kinematical effects.<br />
Figure 4.24: Comparison between the intermediate MM5 result (5 km grid spacing) and CALMET<br />
(200 m grid spacing) representing the 18. September 1999 at 03:00 (UTC) over the Großglockner.<br />
Near surface wind at 10 magl [m/s] (stream lines) and the digital elevation model (contour lines) are<br />
shown.<br />
30 Anhang 1<br />
Teilbericht 5
Visualization and Statistical Analysis Tools<br />
In order to be able to use the freely available Grid Analysis and Display System<br />
(GrADS) [Doty and Kinter, 1992] <strong>version</strong> <strong>1.</strong>8s11 for visualization purposes, functions<br />
to convert CALMET-results to GrADS-formatted files were developed. One example<br />
for CALMET-results displayed with GrADS is shown in figure 4.23.<br />
In addition to simply displaying the results in maps, it is necessary to quantify<br />
properties of the wind-field. For this purpose, programs to perform 3-dimensional statistical<br />
analysis according to mean wind speed, main wind direction, speed of main<br />
direction, maximum wind speed, direction of maximum speed, etc. have been developed<br />
and are ready to use.<br />
4.3.3 Validation<br />
Since the sensitivity analysis aiming at finding the optimal MM5 setup is left unfinished,<br />
the validation and the optimization of the parameterization settings of the microscale<br />
model are addressed to project year 2 and only a short overview and outlook<br />
is given here. The method is currently under evaluation using the MM5 test<br />
dataset from WP MODEL. Since this dataset was produced using a preliminary MM5<br />
setup it is used to check technical performance and the basic functionality of the wind<br />
downscaling system only. In a second step, MM5-will be rerun using optimized operation<br />
mode and domain and parameterization settings (see Sect. 4.2.5). Wind statistics<br />
and vertical profiles will be extracted from CALMET-results and compared<br />
against observational data recorded during the Mesoscale Alpine Programme (MAP)<br />
[Bougeault et al., 2001]. Exposed surface observations surrounded by homogeneous<br />
land use types and SODAR observations will be first checked against icing and<br />
calms then compared to the modeled data using Kolmogorov-Smirnov and Kuiper<br />
tests [Fisher, 1995; Press et al., 1992].<br />
4.3.4 Related Publication<br />
The European Environmental Agency (EEA) is planning a high-level launch event<br />
for CORINE Land Cover, <strong>version</strong> 2000, in November 2004 in Brussels. In order to<br />
support this event, the EEA and the Joint Research Centre (JRC) will collaborate on<br />
a joint publication, which should serve as future reference for the project. At this occasion<br />
the EEA will present a brochure with CORINE applications and invited H. Truhetz<br />
(IGAM) for joining the brochure with a description of CORINE’s application concerning<br />
the wind-downscaling method. In answer to this invitation the following paper<br />
has been submitted on June 28 th , 2004:<br />
Downscaling of Near Surface Wind in the Alpine Region<br />
Heimo Truhetz 1 , Andreas Gobiet 1 , Wolfgang Loibl 2 , and Gottfried Kirchengast 1<br />
1 Institute for Geophysics, Astrophysics, and Meteorology (IGAM), University of Graz, Austria<br />
2 Austrian Research Centers (ARC) Systems Research GmbH, Austria<br />
Anhang 1 31<br />
Teilbericht 5
4.3.5 Summary and Conclusion<br />
A combined downscaling procedure, consisting of a dynamical downscaling step<br />
with MM5 and the microscale diagnostic model CALMET, was introduced and its<br />
primary functionality was successfully demonstrated. The needed digital elevation<br />
model has been generated from SRTM 3 and SRTM 30 arc seconds data by applying<br />
spline interpolation methods to fill in missing gaps. The external parameters concerning<br />
the lower boundary conditions were derived from CORINE land use data by<br />
statically linking the land use classes to conventional data taken from literature.<br />
Proper software-tools for statistical analysis and visualization of the resulting datasets<br />
were developed.<br />
Regarding future work, the following developments are planned. Since funding for<br />
the wind downscaling work at IGAM is only partly available via reclip:more, it depends<br />
on possible co-funding from other projects whether all or only parts of these<br />
developments can be realized.<br />
- As it is shown in the structure chart, MM5 results are currently passed through a<br />
module called CALMM5. To avoid this intermediate step, CALMM5 should be implemented<br />
into CALMET.<br />
- The vertical interpolation between sigma levels (MM5) and height above ground<br />
(CALMET) should be updated according to state of the art interpolation schemes<br />
as they are used within MM5.<br />
- The vertical wind components from the MM5 datasets should be considered by<br />
CALMET’s initialization step.<br />
- Surface heat and momentum fluxes are computed from energy budget model and<br />
Monin-Obukhov similarity theory through iteration. The external parameters are<br />
treated as first guess conditions and are kept constant during the whole downscaling<br />
process. The involved parameters and their dependency from snow cover<br />
should be derived from the driving MM5 datasets.<br />
- Surface roughness should be updated due to biological impacts (e.g. seasonal leaf<br />
area index), topographical impacts from sub-grid variability of terrain elevation and<br />
snow cover.<br />
- Currently the application of Monin-Obukhov similarity theory does not recognize<br />
displacement heights. This circumstance leads to a miss-representation of airflow<br />
over forests and other land use categories with high obstacles.<br />
- To determine snow cover effects a proper downscaling method for snow from<br />
ZAMG and/or ARC-sys should be implemented.<br />
- More sophisticated methods (e.g. four-point method) to calculate derivatives of 1st<br />
order within CALMET’s divergence minimization scheme should be applied to<br />
avoid numerical miss-interpretations.<br />
- Statistical tests concerning turbulence should be added to the 3-dimensional<br />
analysis procedures.<br />
32 Anhang 1<br />
Teilbericht 5
- To avoid huge storage demands in the face of long-term model runs CALMET’s<br />
save-routines should be replaced with the statistical analysis procedures.<br />
- Since wind gusts are poorly produced by mesoscale models a suggested postprocessing<br />
algorithm (Goyette et al, 2003) should be implemented.<br />
Anhang 1 33<br />
Teilbericht 5
Acknowledgements<br />
The authors gratefully acknowledge IMG, University of Vienna, especially A. Beck<br />
and B. Ahrens, for their activities regarding the provision of ECHAM5 driving data.<br />
We thank, for fruitful scientific discussions, all partners from all reclip:more teams.<br />
We also thank ARC-sys, especially W. Loibl, for his commitment to the difficult task of<br />
coordinating the different groups involved. H.T. received financial support for this<br />
work from the reclip:more project funded by the K-wiss program of the ARC Holding.<br />
A.G. received partial support from the START research award of G.K. funded by the<br />
Austrian Ministry for Education, Science, and Culture and managed under Program<br />
No. Y103-N03 of the Austrian Science Fund (FWF).<br />
References<br />
Beck, A., B. Ahrens, and K. Stadlbacher (2004): Impact of nesting strategies in dynamical<br />
downscaling of reanalysis data. Geophys. Res. Lett., 31, L19101, doi:10.1029/2004<br />
GL020115.<br />
Bougeault, P., P. Binder, A. Buzzi, R. Dirks, R. Houze, J. Kuettner, R.B. Smith, R.<br />
Steinacker, and H. Volkert (2001): The MAP Special Observing Period, Bull. Amer. Meteor.<br />
Soc., 83, 3, 433-462.<br />
Doty, B., J.L. Kinter III (1992): The Grid Analysis and Display System (GrADS): A practical<br />
tool for earch science visualization, paper presented at 8th International Conference on Interactive<br />
Information and Procession Systems, 5-10 January, Atlanta.<br />
Dudhia, J., D. Gill, K. Manning, W. Wang, and C. Bruyere (2004): PSU/NCAR Mesoscale<br />
Modeling System Tutorial Class Notes and User’s Guide: MM5 Modeling System Version 3,<br />
Software Manual, Mesoscale and Microscale Meteorology Division of the National Center<br />
for Atmospheric Research, Boulder.<br />
EEA (1995): CORINE Land Cover, European Environmental Agency Report, Commission of<br />
the European Communities OPOCE (Office for official publications of the European Communities),<br />
Luxembourg.<br />
Eidenshink, J.C., J.L. Faundeen (1994): The 1 km AVHRR global land data set: First stages<br />
in implementation, Int. J. Remote Sens., 15, 17, 3443-3462.<br />
Fisher, N.I. (1995): Statistical analysis of circular data, Cambridge University Press, Cambridge.<br />
Goyette, S., O. Brasseur, M. Beniston (2003): Application of a new wind gust parameterisation:<br />
Multiscale case studies performed with the Canadian regional climate model, J. Geophys.<br />
Res., 108, D13, 4374-4389.<br />
Häberli, C. (2003): CALRAS - The Comprehensive Alpine Radiosonde Data Set, technical<br />
documentation, parts 1-3, Dept. of Meteorology and Geophysics, Univ. of Vienna.<br />
Hagemann, S. (2002): An Improved Land Surface Parameter Dataset for Global and Regional<br />
Climate Models, Report 336, Max Planck Institute for Meteorology (MPI), Hamburg.<br />
Justice, C.O. et al. (1998): The Moderate Resolution Imaging Spectroradiometer (MODIS):<br />
Land Remote Sensing for Global Change Research, IEEE T. Geosci. Remote, 36, 4, 1228-<br />
1249.<br />
34 Anhang 1<br />
Teilbericht 5
Leggett, J., W.J. Pepper, and R.J. Swart (1992): Emissions scenarios for the IPCC: an update<br />
in Climate change 1992: the supplementary report to the IPCC scientific assessment<br />
edited by J.T. Houghton, B.A. Callander, and S.K. Varney, pp.75-95, Cambridge Univ.<br />
Press, Cambridge.<br />
Pineda, N., O. Jorba, J. Jorge, J.M. Baldasano (2004): Using NOAA AVHRR and SPOT VGT<br />
data to estimate surface parameters: application to a mesocale meteorological model, Int.<br />
J. Remote Sens., 25, 1, 129-143.<br />
Press, W.H., S.A. Teukolsky, W.T. Vatterling, B.P. Flennery (1992): Numerical Recipes in<br />
FORTRAN 77: The Art of Scientific Computing, University Press, Cambridge.<br />
Rabus, B., M. Eineder, a. Roth, r. Bamler (2003): The shuttle radar topography mission - a<br />
new class of digital elevation models acquired by space-borne radar, ISPRS J. Photogramm.,<br />
57, 241-262.<br />
Renold, M., U. Beyerle, C.C. Raible, R. Knutti, and T.F. Stocker (2004): Climate Modeling<br />
with a Linux Cluster, EOS, Transactions, 85, 40, 290.<br />
Roeckner, E., G. Baeuml, L. Bonaventura, R. Brokopf, M. Esch, M. Giorgetta, S. Hagemann,<br />
I. Kirchner, L. Kornblueh, E. Manzini, A. Rhodin, U. Schlese, U. Schulzweida, A. Tompkins<br />
(2003): The Atmospheric General Circulation Model ECHAM5. Part 1: Model Description,<br />
Report 349, Max Planck Institute for Meteorology (MPI), Hamburg.<br />
Schutzweida, U. (2004): CDO’s Useres Guide. Climate Data Operators, <strong>version</strong> 0.8.9, software<br />
manual, Max Planck Institute for Meteorology (MPI), Hamburg.<br />
Scire, J.S., F.R. Robe, M.E. Fernau, R.J. Yamartino (2000): A User’s Guide for the CALMET<br />
Meteorological Model (Version 5), software manual, Earth Tech Inc., Concorde.<br />
Simmons, A.J., J.K. Gibson (2000): The ERA-40 Project Plan, ERA-40 Project Report Series<br />
No. 1, European Centre for Medium-Range Weather Forecasts (ECMWF), Reading.<br />
Steinacker, R., W. Pöttschacher, M. Dorninger (1997): Enhanced Resolution Analysis of the<br />
Atmosphere over the Alps Using the Fingerprint Technique. Annalen der Meteorologie, 35,<br />
235- 237.<br />
Storer, N., J. Hennessy, D. Salmond (2003): Migration of the high-performance computing<br />
service to the new IBM supercomputers, ECMWF Newsletter, 97, 20-23.<br />
Waszkewitz, J., P. Lenzen, N. Gillet (2001): The PINGO packages – Procedural Interface for<br />
Grib formatted Objects, software manual, Deutsches Klimarechenzentrum GmbH (DKRZ)<br />
and Max Planck Institute for Meteorology (MPI), Hamburg.<br />
WMO (1995): 306 - Manual on codes, WMO publication, WMO, Geneva.<br />
Anhang 1 35<br />
Teilbericht 5
Anhang 1<br />
Teilberichte der Projektpartner<br />
Manfred Dorninger, Barbara Chimani, Theresa Gorgas und Reinhold Steinacker:<br />
Datenaufbereitung, Modellvalidierung, Sensitivitäts- und Validitätstest<br />
Alexander Beck und Bodo Ahrens:<br />
Dynamisches Downscaling globaler Klimasimulationen mit ALADIN<br />
Wolfgang Schöner und Elsa Dos Santos Cardoso:<br />
Datenbereitstellung, Entwicklung von Regionalisierungstools und einer Schnittstelle<br />
zu den regionalen Klimamodellen<br />
Andreas Frank, Herbert Formayer, Petra Seibert, Bernd C. Krüger und Helga Kromp-Kolb:<br />
Validierung – Sensitivitätstests<br />
Andreas Gobiet, Heimo Truhetz und Gottfried Kirchengast:<br />
MM5-Modell-Performance-Tests, Vertical Validation, Wind-downscaling<br />
Mario Köstl, Wolfgang Loibl und Johann Züger:<br />
Datenaufbereitung, Regionale Klimamodellierung und Regionalisierungstool Strahlung
eclip:more<br />
Research for Climate Protection:<br />
Model Run Evaluation<br />
Projektjahr 1<br />
Projektteil systems research<br />
Datenaufbereitung, Regionale Klimamodellierung und<br />
Regionalisierungstool Strahlung<br />
Arbeitsbericht für den Zeitraum <strong>1.</strong>1<strong>1.</strong>2003 – 30.9.2004<br />
von<br />
Mario Köstl, Wolfgang Loibl und Johann Züger<br />
ARC systems research GmbH<br />
Seibersdorf, 29. November 2004
Inhaltsverzeichnis<br />
1 Datenaufbereitung (WP 2.3a) 1<br />
2 Regionale Klimamodellierung (WP4.1 + WP4.2) 1<br />
3 Sensitivitätsexperimente (WP 4.3a) 3<br />
4 Regionalisierung der Sonnenstrahlung (WP5.5) 13<br />
4.1 Modellergebnisse – Teilergebnisse für die einzelnen Schritte 14<br />
4.2 Integration der Residuen in das clear-sky-Strahlungsmodellergebnis 18<br />
Literatur 19<br />
ANHANG A Das Mathematisch-physikalische Sonnenstrahlungsmodell 21<br />
ANHANG B AML-Script zur Berechnung der clear-sky Strahlung 23
1 Datenaufbereitung (WP 2.3a)<br />
Nachdem sich das reclip Team auf ERA-40-Daten des ECMWF als Antriebsdaten geeinigt hatte,<br />
wurde mit dem Herunterladen dieser Daten begonnen. Diese sind zur Zeit für die Jahre 1993 bis<br />
2000 auf einem Server in systems research abgelegt - die Jahre 1998 bis 2000 stehen auch auf<br />
dem FTP-Server von systems research zur Verfügung. Sie liegen als Rasterdaten auf Druckflächen<br />
vom Boden bis 50 hPa mit einer räumlichen Auflösung von 1°x1° vor. Es wurden dabei vor<br />
allem jene Parameter berücksichtigt, die zum Betrieb des Modells notwendig sind. Das Datenvolumen<br />
beträgt ca. 2 GB pro Jahr.<br />
Während des Herunterladens der Daten über das ECMWF Webportal wurden bereits erste Modellläufe<br />
und verschiedene Tests durchgeführt. Dabei zeigte sich, dass die bereitgestellten Daten<br />
nicht immer mit ihrer Beschreibung übereinstimmten. Anfangs wurden zum Teil andere Parameter<br />
als in der Downloadanforderung spezifiziert ausgegeben – dies lag wahrscheinlich daran, dass<br />
das Webportal des ECMWF damals noch ziemlich neu und damit fehlerbehaftete war. In der Folge<br />
konnten zwar diese Fehler ausgeräumt werden, es traten aber immer wieder Diskrepanzen<br />
zwischen den erhaltenen Daten und ihrer Beschreibung auf den ECMWF Seiten auf – so wurden<br />
zB Geopotentiale [m 2 /s 2 ] als Höhen [m] beschrieben oder die Grenzen der Bodenschichten nicht<br />
richtig wiedergegeben. Es musste auch einiges an den MM5 Inputroutinen geändert werden um<br />
die Antriebsdaten richtig einlesen zu können.<br />
Um für weitere Auswertungen einheitliche Formate zu gewährleisten, erstellte systems research<br />
Programme, die einerseits als Schnittstellen für die Validierung durch BOKU-Met und andererseits<br />
zur Übergabe an VERA (IMG) dienen, und stellte diese auch den Projektpartnern zur Verfügung.<br />
Um einen möglichst reibungsfreien Austausch von Daten, Routinen und Ergebnissen zu gewährleisten,<br />
wurde bei systems research ein FTP-Server mit entsprechender Speichekapazität installiert.<br />
Auf diesem haben alle Projektpartner mittels sFTP und einer gemeinsamen Kennung uneingeschränkten<br />
Zugang zu allen Daten und Programmen.<br />
2 Regionale Klimamodellierung (WP4.1 + WP4.2)<br />
Vom National Center for Atmospheric Research (NCAR) werden laufend neue Versionen des<br />
mesoskaligen Modells MM5 veröffentlicht. Meist handelt es sich dabei um so genannte „minor<br />
releases“ bei denen die Behebung von kleinen Fehlern im Vordergrund steht. Das „major release“<br />
der Version 3.6 hat sich in vorangegangenen Arbeiten bereits als äußerst stabil erwiesen. Seit<br />
Februar 2004 – also unmittelbar vor Beginn dieses Arbeitsschrittes – steht nun die neue Version<br />
3.6.3 zur Verfügung. Da in diesem Release nur marginale Änderungen vorgenommen wurden und<br />
bei allen Projektpartnern bereits eine Version 3.6.x im operationellen Einsatz war, wurde in einer<br />
gemeinsamen Sitzung vereinbart, in Zukunft einheitlich MM5 in der Version 3.6.3 zu verwenden.<br />
Um abzuschätzen wie groß die Unterschiede der Ergebnisse auf den verschiedenen Hardware-<br />
Plattformen (zB Compiler, Zahlendarstellung, etc.) der einzelnen Projektpartner sind, wurden Vergleichsrechnungen<br />
für eine Episode durchgeführt. Dabei zeigte sich, dass die Abweichungen<br />
durchaus tolerierbar sind. Daher kann davon ausgegangen werden, dass künftige Modell-<br />
Ergebnisse ebenfalls vergleichbar sein werden.<br />
Um eine möglichst weit reichende Vergleichbarkeit der Modellergebnisse mit der „Wirklichkeit“ zu<br />
gewährleisten, wurde vereinbart die ersten Sensitivitätstests mit den besten zur Verfügung stehenden<br />
Daten anzutreiben. Für den europäischen Raum sind diese im Moment die ERA-40-Daten<br />
des ECMWF mit einer geometrischen Auflösung von 1° und 6h zeitlicher Auflösung. Diese Daten<br />
werden außerdem auch für großräumige Vergleiche mit den Modellergebnissen herangezogen.<br />
Man muss bei den Auswertungen und Interpretationen allerdings vorsichtig sein, da die vermeintliche<br />
„Wirklichkeit“ auch das Ergebnis eines Modells ist.<br />
Anhang 1 1<br />
Teilbericht 6
Wie von systems research bereits in vorangegangen Arbeiten aufgezeigt wurde, hängen die Modellergebnisse<br />
wesentlich von der Wahl der Domänengröße und der Lage ab. Da der Antrieb des<br />
Modells nur über die Ränder – dh. die äußersten drei Gitterzellen des mother domains - erfolgt,<br />
hat es bei genügend großer Wahl des Modellgebietes im Inneren die Möglichkeit seine eigene<br />
Dynamik und seine eigenen Strukturen zu entwickeln. Es gilt hier aber die Frage zu klären, wie<br />
viel Dynamik das Modell entwickeln darf ohne die globalen Strukturen der Antriebsdaten zu verlieren<br />
– dh. wie weit kann oder muss man die Ränder nach außen verschieben um einerseits die<br />
Entwicklung kleinräumiger Strukturen zu ermöglichen, in größeren Maßstäben jedoch möglichst<br />
geringe Abweichungen gegenüber den Antriebsdaten zu erhalten. Aus diesem Grund standen in<br />
einem ersten Schritt Sensitivitätsexperimente zur Modelldynamik im Vordergrund (vgl. Abb. 2).<br />
Als Vorgaben für die räumliche Lage der Domänen wurde vereinbart, dass in der äußeren der<br />
größte Teil Europas, Teile des Atlantiks und der Mittelmeerraum abgedeckt werden. In der inneren<br />
Domäne sollte der Alpenbogen eine zentrale Lage einnehmen, aber auch der Golf von Genua<br />
sollte wegen seines entscheidenden Einflusses auf das Wettergeschehen südlich der Alpen berücksichtigt<br />
werden. Unter diesen Prämissen wurden von BOKU-Met insgesamt 4 geometrische<br />
Setups für die Größe und Lage der Domänen vorgeschlagen (siehe Tabelle 1). Das geometrische<br />
Setup für die Fälle 1 und 2 bzw. 3 und 4 unterscheidet sich nur in der Anzahl der Gitterpunkte in x-<br />
und y-Richtung. In den Fällen 1 und 3 bzw. 2 und 4 blieb die Lage der Domänen unverändert, die<br />
Auflösung wurde jedoch von 45/15 km auf 30/10 km reduziert.<br />
Tabelle 1: Geometrische Domänenfestlegung für Sensitivitätstests<br />
Case# Domäne<br />
Gitterpunkte<br />
W/O<br />
Gitterpunkte<br />
N/S<br />
Maschenweite<br />
[km]<br />
Ausdehnung<br />
W/O [km]<br />
Ausdehnung<br />
N/S [km]<br />
1 1 110 88 45 4950 3960<br />
2 82 58 15 1230 870<br />
2 1 90 70 45 4050 3150<br />
2 76 52 15 1140 780<br />
3 1 165 132 30 4950 3960<br />
2 124 88 10 1240 880<br />
4 1 135 105 30 4050 3150<br />
2 115 79 10 1150 790<br />
Die einzelnen Setups unterscheiden sich also sowohl in ihrer Auflösung als auch in ihrer Ausdehnung,<br />
wobei die Größe der Domänen für die Fälle 1 und 3, bzw. 2 und 4 identisch sind (vgl. Abb. 1).<br />
Abb. 1: Lage der Domänen für Testcase #1 und #3 (links) und Testcase #2 und #4 (rechts)<br />
2 Anhang 1<br />
Teilbericht 6
Die vertikale Auflösung wurde für die hier aufgeführten Tests mit 29 Levels zwischen dem Boden<br />
und einer Obergrenze von 50 hPa festgelegt – nur der von IGAM am Supercomputer des ECMWF<br />
durchgeführte Modelllauf wurde mit 42 Levels initialisiert.<br />
Weiters wurden für die ersten Tests 2 Episoden ausgewählt:<br />
Episode 1: 18.09.1999 bis 2<strong>1.</strong>09.1999<br />
Episode 2: 05.1<strong>1.</strong>1999 bis 08.1<strong>1.</strong>1999<br />
Die Rechnungen zu jeder Episode starteten jeweils 2 Tage früher um dem Modell einen adäquaten<br />
Spin-up zu ermöglichen.<br />
Im Modell MM5 sind unterschiedlichste Parametrisierungen implementiert. Dadurch kann der Benutzer<br />
je nach Wahl der einzelnen Parametersets durchaus unterschiedliche Modelle generieren. Da<br />
aber nicht alle Kombinationen sinnvoll sind und eine möglichst weit reichende Vergleichbarkeit der<br />
Ergebnisse zu gewährleisten ist, wurde die Parametrisierung des Modells wie folgt vereinbart:<br />
- Strahlung: RRTM longwave scheme IFRAD=4<br />
- PBL + SVAT: MRF + Noah land-surface scheme IBLTYP=5, ISOIL=2<br />
- Cumulus: Kain-Fritsch 2 + shallow convection ICUPA=8, ISHALLOW=1<br />
- Feuchte: Reisner 1 (Mixed-Phase) IMPHYS=5<br />
3 Sensitivitätsexperimente (WP 4.3a)<br />
Die aus den oben erwähnten Vorgaben resultierenden Testläufe wurden von systems research mit<br />
dem mesoskaligen Modell MM5 in der Version 3.6.3 durchgeführt.<br />
Da sich die MM5 Domänen hinsichtlich Lage, Größe und Auflösung deutlich von den von ALADIN<br />
verwendeten unterscheiden, können die Ergebnisse von MM5 und ALADIN nur eingeschränkt miteinander<br />
verglichen werden. Um eine bessere Vergleichbarkeit der MM5 und ALADIN Rechnungen<br />
zu ermöglichen, wurde von systems research zusätzlich ein MM5 Lauf mit einem der ALADIN Domäne<br />
vergleichbaren Setup gerechnet. Es wurde dabei die äußere Domäne so gewählt, dass sie<br />
möglichst mit der ALADIN Domäne übereinstimmt, die innere sollte weitestgehend mit der inneren<br />
Domäne der übrigen MM5 Rechnungen deckungsgleich sein. Wie aus Tabelle 2 zu ersehen ist, sind<br />
die Abmessungen der ALADIN Domäne deutlich kleiner als die der übrigen Testcases (siehe Abb. 2,<br />
letzte Zeile).<br />
Tabelle 2: Geometrisches Setup für ALADIN Vergleichsrechnung<br />
Case# Domäne<br />
Gitterpunkte<br />
W/O<br />
Gitterpunkte<br />
N/S<br />
Maschenweite<br />
[km]<br />
Ausdehnung<br />
W/O [km]<br />
Ausdehnung<br />
N/S [km]<br />
0 1 50 50 45 2250 2250<br />
2 82 58 15 1230 870<br />
Anhang 1 3<br />
Teilbericht 6
Die vertikale Auflösung beträgt hier 29 Levels zwischen dem Boden und der Obergrenze von 50<br />
hPa. Weiters wurde die Parametrisierung des Modells von den übrigen Testläufen übernommen und<br />
die Berechnungen für die 2. Episode (5. bis 8. 1<strong>1.</strong> 1999) analog zu den anderen Experimenten mit 2<br />
zusätzlichen Tagen für das Spin-up des Modells durchgeführt.<br />
Um die einzelnen Testläufe von systems research und den übrigen Projektpartnern einfach unterscheiden<br />
zu können, wurde eine eigene Nomenklatur in der Form eines Buchstaben und dreier Zahlen<br />
eingeführt. Demgemäß werden alle von systems research durchgeführten MM5-Läufe mit „Axxx“,<br />
jene von BOKU-Met mit „Bxxx“, die IMG ALADIN Läufe mit “Cxxx“ und die IGAM MM5-Rechnungen<br />
mit „Dxxx“ bezeichnet wobei „xxx“ für die jeweilige Case# steht. Die insgesamt 9 Testläufe von<br />
systems research – in der Folge als „A000“ bis „A008“ bezeichnet – wurden weiters durch einzelne<br />
Berechnungen von BOKU-Met („B005“) und IGAM („D005“, „ECMWF“) ergänzt.<br />
Es sollen hier keine eingehenden statistischen Analysen durchgeführt werden, da diese von BOKU-<br />
Met in ihrem Teil ausführlich beschrieben und diskutiert werden. Für die einzelnen Testläufe werden<br />
nur die Minimum-, Maximum- und die mittlere Temperatur auf der 850 hPa Fläche für die äußere<br />
Domäne (Tab. 3a) und die innere Domäne (Tab. 3b) aufgelistet. Wie aus den Zahlen in Tabelle 3a<br />
abzulesen ist, kann die Zeile für die Vergleichsrechnung MM5/ALADIN (A000) für die äußere Domäne<br />
nicht wirklich mit den anderen verglichen werden, da ein ganz anderes Einzugsgebiet abgedeckt<br />
wird. Für die innere Domäne sollte dies jedoch durch die Wahl des MM5 Setups gewährleistet sein.<br />
Wie aus Tabelle 3b ersichtlich ist, sind die einzelnen Testläufe – mit Ausnahme des Laufs A000 –<br />
einander einigermaßen ähnlich, weichen jedoch alle relativ deutlich von den ERA-40 Antriebsdaten<br />
ab.<br />
Tabelle 3a: min-, max- und mean-Temperatur auf der 850 hPa Fläche in der äußeren Domäne<br />
6. 1<strong>1.</strong> - 12:00 7. 1<strong>1.</strong> - 12:00 8. 1<strong>1.</strong> - 12:00<br />
Min Max Mean Min Max Mean Min Max Mean<br />
ERA-40 – D1 -15,5 23,9 2,7 -14,7 23 2,9 -14,9 21,1 3,1<br />
A005 – D1 -16,4 19,9 2 -14,2 18,6 2,3 -15,3 17,4 2,4<br />
B005 – D1 -16,4 19,9 2,2 -14,2 18,6 2,4 -15,4 17,4 2,6<br />
D005 – D1 -16,4 19,9 1,9 -14,2 18,5 2,1 -15,3 17,4 2,3<br />
ECMWF – D1 -16,5 19,9 1,8 -13,8 18,6 2 -15,4 17,5 2<br />
A000 – D1 -6,3 14,8 4,3 -7 15,4 3,1 -7,7 16,4 3<br />
Tabelle 3b: min-, max- und mean-Temperatur auf der 850 hPa Fläche in der inneren Domäne<br />
6. 1<strong>1.</strong> - 12:00 7. 1<strong>1.</strong> - 12:00 8. 1<strong>1.</strong> - 12:00<br />
Min Max Mean Min Max Mean Min Max Mean<br />
ERA-40 - D2 -8,8 15,8 7,3 -5,8 15,5 5,8 -7,6 15,6 5,5<br />
A005 - D2 -1,4 8,3 4 -5,3 8,9 2,6 -2,7 14,6 3,8<br />
B005 - D2 -1,3 9,6 4,2 -5,6 9,7 2,5 -0,9 14,5 3,8<br />
D005 - D2 -1,6 7,7 3,4 -5,4 8 2 -3 11,6 2,8<br />
ECMWF - D2 -2,1 9,2 3,6 -4,8 12 1,7 -2,7 13,9 2,4<br />
A000 - D2 -2,9 8,7 3 -4,8 11,9 0,7 -3,8 12,1 1,1<br />
4 Anhang 1<br />
Teilbericht 6
Im Folgenden werden an Hand einiger Graphiken die Ähnlichkeiten bzw. Unterschiede der einzelnen<br />
Ergebnisse illustriert. Abseits von Statistiken und Kennzahlen soll hier der Versuch unternommen<br />
werden, die Möglichkeiten bzw. Beschränkungen einer schnellen optischen Beurteilung unter Verwendung<br />
des Geographischen Informationssystems ARC/INFO bzw. ArcView aufzuzeigen.<br />
Zu diesem Zweck wurde eine Reihe von Auswerteroutinen erstellt, die aus dem MM5 Output möglichst<br />
automatisiert alle relevanten Parameter und die Daten für das geometrische Setup extrahieren<br />
und daraus ARC/INFO ASCII-Grids erstellen. Diese werden in entsprechenden Verzeichnissen abgelegt<br />
und danach mittels AML-Prozeduren in ARC/INFO Grids übergeführt. Die daraus resultierenden<br />
Karten können in der Folge sehr einfach und schnell mit ArcView visualisiert werden.<br />
Parallel dazu wurden einerseits sämtliche Ergebnisse für eine weiterführende statistische Analyse<br />
aufbereitet und an BOKU-Met übermittelt, andererseits in ein vordefiniertes Format übergeführt, um<br />
eine Validierung der Modellergebnisse mit Daten des VERA Modells am IGM zu ermöglichen.<br />
Auf der folgenden Seite ist in Abb. 2 der Vergleich der Temperatur auf der 850 hPa Fläche für<br />
Case# 5 zwischen den ERA-40 Antriebsdaten und den Ergebnissen von systems research, BOKU-<br />
Met und IGAM zu sehen. Die Bilder in der Spalte ganz links orientieren sich an der Größe der äußeren<br />
Domäne mit 45 bzw. 30 km Auflösung, die mittlere und rechte Spalte zeigen die innere mit 15<br />
bzw. 10 km Rasterweite. Von oben nach unten sind der Reihe nach die ERA-40 Ausgangsdaten, die<br />
Ergebnisse von systems research, BOKU-Met, IGAM, eines von IGAM am Großrechner des<br />
ECMWF durchgeführten Testlaufs und der MM5 Lauf von systems research mit dem ALADIN Setup<br />
zu sehen.<br />
Für das Standard MM5 Setup sind die einzelnen Strukturen sowohl auf der 45 km als auch auf der<br />
15 km Skala sehr ähnlich und weisen nur geringfügige Differenzen auf. Generell unterscheiden sie<br />
sich alle – vor allem über den Alpen – deutlich von den Antriebsdaten. Nur die Ergebnisse des MM5-<br />
ALADAIN-Vergleichslaufes heben sich von diesem Bild ab und sind den ERA-40 Eingangsdaten<br />
deutlich ähnlicher.<br />
Dieser Testlauf ist der einzige der den Kaltluftsee über den Alpen – zumindest für den 7. November<br />
– in einer zu den ERA-40 Daten vergleichbaren Art und Weise wiedergeben kann. Dies liegt hauptsächlich<br />
an der Tatsache, dass auf Grund der deutlich kleineren Domäne das Modell in seinen Freiheiten<br />
eingeschränkt ist und daher eher die Charakteristiken der Antriebsdaten widerspiegelt. In der<br />
letzten Reihe ist im ersten Bild der Unterschied in der Abmessung der äußeren Domäne zwischen<br />
den MM5 Rechnungen und der MM5-ALADIN-Vergleichsrechnung zu sehen.<br />
Anhang 1 5<br />
Teilbericht 6
Abb. 2: Vergleich der 850 hPa Temperatur – Era40 Antriebsdaten (<strong>1.</strong> Zeile), MM5 systems research (2.<br />
Zeile), MM5 BOKU (3. Zeile), MM5 IGAM (4. Zeile), MM5 ECMWF (5. Zeile) und MM5 systems research/Aladin-Setup<br />
(6. Zeile) für den 6., 7. und 8. Nov. 1999 – 12:00 Uhr (von links nach rechts).<br />
Erfahrungsgemäß können Modelle die Temperatur meist recht gut wiedergeben, bei Niederschlägen<br />
ist dies schon deutlich schwieriger. In Abbildung 3 sind analog zu Abbildung 2 die von den einzelnen<br />
Projektpartnern für den Case# 5 berechneten akkumulierten Niederschlagssummen für den 6., 7.<br />
und 8. November 1999 jeweils 18:00 Uhr dargestellt. Der in der mittleren und rechten Spalte gewählte<br />
Ausschnitt repräsentiert ungefähr die Größe der inneren Domäne.<br />
6 Anhang 1<br />
Teilbericht 6
Ein Vergleich mit ERA-40 muss hier entfallen, da diese Daten nicht verfügbar sind. Die Verteilungsmuster<br />
sind auch hier in allen Fällen sehr ähnlich, die lokalen Intensitäten können aber durchaus<br />
unterschiedlich sein.<br />
Abb. 3: Vergleich akkumulierter Niederschlag – MM5 systems research (<strong>1.</strong> Zeile), MM5 BOKU (2. Zeile),<br />
MM5 IGAM (3. Zeile), MM5 ECMWF (4. Zeile) und MM5 systems research/Aladin-Setup (5. Zeile) für<br />
den 6., 7. und 8. Nov. 1999 – 18:00 Uhr (von links nach rechts).<br />
Abbildung 4a soll an Hand der Temperatur auf der 850 hPa Fläche die Unterschiede für die einzelnen<br />
geometrischen Setups aufzeigen. Dargestellt sind in den einzelnen Reihen die für die Testcases#<br />
1- 4 berechneten Temperaturen für den 19., 20. und 2<strong>1.</strong> September 1999 (Episode 1) jeweils<br />
12:00 Uhr. Im Großen und Ganzen ähneln die zu beobachtenden Muster einander sehr. Am ehesten<br />
sind Unterschiede an der Kälteinsel ganz in Nordosten zu erkennen. In den Differenzkarten (Abb. 4b)<br />
wird dieser Eindruck hingegen nicht bestätigt. Hier zeigen sich die größten Abweichungen im Bereich<br />
der Alpen bzw. Voralpen. Generell ist zu bemerken, dass Unterschiede bei den größeren Domänen<br />
(A001/A003) wesentlich stärker hervortreten.<br />
Anhang 1 7<br />
Teilbericht 6
Abb. 4a: Vergleich der 850 hPa Temperatur: Testcases# 1 - 4 (von oben nach unten) für den 19., 20.<br />
und 2<strong>1.</strong> September 1999 - 12:00 Uhr (von links nach rechts)<br />
Abb. 4b: Differenz der 850 hPa Temperatur: Testcases# 1/3 und 2/4 (von oben nach unten) für den 19.,<br />
20. und 2<strong>1.</strong> September 1999 –12:00 Uhr (von links nach rechts)<br />
8 Anhang 1<br />
Teilbericht 6
Abbildung 5a auf der nächsten Seite zeigt die Temperatur auf der 850 hPa Ebene für den 6., 7. und<br />
8. November 1999 (Episode 2) jeweils 12:00 Uhr. Auch hier sind auf den ersten Blick in den großräumigen<br />
Mustern keine ausgeprägten Unterschiede zu erkennen. Zwar treten auch hier Differenzen<br />
in den Temperaturen aufn, aber die Bilder sind doch sehr ähnlich. Die Differenzkarten (Abb. 5b)<br />
zeichnen auch hier ein etwas anderes Bild. Die größten Unterschiede finden sich an den Rändern<br />
der kalten Bereiche, wo zB warme Mittelmeerluft über den Alpen auf kalte Luft aus dem Norden trifft.<br />
Neben der Größe bzw. der geometrischen Auflösung ist hier auch der Zeitpunkt entscheidend. Die<br />
Übereinstimmung wird gegen Ende der Episode deutlich schlechter.<br />
Abb. 5a: Vergleich der 850 hPa Temperatur – Testcases# 5 - 8 (von oben nach unten) für den 6., 7. und<br />
8. November 1999 - 12:00 Uhr (von links nach rechts)<br />
Anhang 1 9<br />
Teilbericht 6
Abb. 5b: Differenz der 850 hPa Temperatur – Testcases# 5/7 und 6/8 (von oben nach unten) für den 6.,<br />
7. und 8. November 1999 - 12:00 Uhr (von links nach rechts)<br />
Der Niederschlag zeigt überraschenderweise ein sehr homogenes Bild für alle 4 Testcases (Abb.<br />
6a). Sowohl die Verteilung als auch die Mengen stimmen in allen Berechnungen sehr gut überein.<br />
Auch die Differenzkarten (Abb. 6b) weisen keine größeren Abweichungen aus. Es sind dort nur einige<br />
kleine, räumlich sehr begrenzte Unterschiede über der Schweiz und in Norditalien zu erkennen.<br />
Abb. 6a: Vergleich akkumulierter Niederschlag – Testcases #1 – #4 (von oben nach unten) für den<br />
19., 20. und 2<strong>1.</strong> September 1999 – 12:00 Uhr (von links nach rechts)<br />
10 Anhang 1<br />
Teilbericht 6
Abb. 6b: Differenz akkumulierter Niederschlag – Testcases #1/3 - #2/4 (von oben nach unten) für den<br />
19., 20. und 2<strong>1.</strong> September 1999 - 12:00 Uhr (von links nach rechts)<br />
Das Bild des akkumulierten Niederschlags für die zweite Episode (6., 7. und 8. November 1999)<br />
präsentiert sich ähnlich dem vorherigen sehr einheitlich (Abb. 7a). Die markantesten Unterschiede<br />
treten über Norditalien, der nördlichen Adria und über dem Meer zwischen der Südspitze Italiens und<br />
Griechenland auf. Ein Blick auf die Differenzkarten (Abb. 7b) bestätigt diesen Eindruck.<br />
Abb. 7a: Vergleich akkumulierter Niederschlag – Testcases #5 - #8 (von oben nach unten) für den 6., 7.<br />
und 8. November 1999 - 12:00 Uhr (von links nach rechts)<br />
Anhang 1 11<br />
Teilbericht 6
Abb. 7b: Differenz akkumulierter Niederschlag – Testcases #5/7 - #4/8 (von oben nach unten) für den 6.,<br />
7. und 8. November 1999 - 12:00 Uhr (von links nach rechts)<br />
Wie frühere Untersuchungen – zumindest jene von systems research – gezeigt haben, sind die Modellergebnisse<br />
stark vom geometrischen Setup abhängig. In den Analysen von BOKU-Met treten<br />
deutlichere Unterschiede in den Ergebnissen der einzelnen Tests vor allem während der 2. Episode<br />
auf. Gerade die Alpen stellen für Modelle eine besondere Herausforderung dar und meist treten dort<br />
auch größere Differenzen auf. Daher sollte dieser Bereich einer genaueren Betrachtung unterzogen<br />
werden. Während sich die statistischen Kennzahlen auf eine ganze Domäne beziehen, sollte hier der<br />
Versuch unternommen werden, die Bereiche mit den größten Abweichungen zu lokalisieren.<br />
Es konnten in dieser Studie während der ersten Episode für die unterschiedlichen räumlichen Bedingungen<br />
keine dramatischen Abweichungen gefunden werden, die eine eindeutige Präferenz für ein<br />
bestimmtes Setup rechtfertigen würden. Bei der zweiten Episode sind die Unterschiede zwischen<br />
den einzelnen Testläufen zwar am Anfang relativ gering, verstärken sich aber gegen Ende doch<br />
deutlich. All diese Ergebnisse sind jedoch vor dem Hintergrund des doch relativ kleinen Samples von<br />
2 Episoden mit je 4 Tagen zu sehen. Um hier eine einigermaßen gesicherte Aussage zu ermöglichen<br />
werden noch weitere Sensitivitätstest über längere Zeiträume notwendig sein. Insbesondere der für<br />
die nächste Etappe geplante Modelllauf über ein ganzes Jahr sollte hier eine deutliche Verbesserung<br />
bringen.<br />
12 Anhang 1<br />
Teilbericht 6
4 Regionalisierung der Sonnenstrahlung (WP5.5)<br />
Die Sonnenstrahlungsdaten werden entsprechend der Nachfrage-Erhebung von systems research<br />
vor allem für vegetationsökologische Fragestellungen herangezogen werden. Für die Photosynthese<br />
und Pflanzenwachstum ist hier die kurzwellige Strahlung von Bedeutung. Die Wärmestrahlung geht<br />
über die Modellierung bzw. Regionalisierung der Temperatur implizit in die Modellergebnisse ein und<br />
wird hier bei der Sonneneinstrahlungs-Regionalisierung außer Acht gelassen.<br />
Die Sonneneinstrahlungs-Modellergebnisse aus den Regionalmodellen MM5 und Aladin liegen nur in<br />
einer relativ groben Auflösung vor, die aufgrund der Verwendung eines nur groben und „flachen“<br />
digitalen Höhenmodells die Realität wenig trifft und in keiner Weise das Expositions-Hangneigungsgefüge<br />
des Geländes und damit der Sonneneinstrahlung auf lokaler Ebene widerspiegelt.<br />
Die Regionalisierung erfolgt darum nicht durch Downscaling der Ergebnisse der Regionalmodelle,<br />
sondern durch ein schrittweises Verfahren:<br />
<strong>1.</strong> Zunächst wird mit einem physikalisch-mathematischen Modells für die vom Regionalmodell<br />
verwendete Zeitspanne unter Beachtung der Solarkonstante, des Sonnenstandes aufgrund von<br />
Jahreszeit und Uhrzeit (Inklination, etc.) und der geographischen Breite die direkte kurzwellige<br />
Sonneneinstrahlung bei wolkenlosem Himmel auf eine ebene Fläche berechnet.<br />
2. Die Modifizierung dieser theoretischen Sonneneinstrahlung durch Exposition und Hangneigung<br />
sowie durch direkte Abschattung wird des Weiteren mit Hilfe eines feinen digitalen Höhenmodells<br />
(DHM), dessen Auflösung jener der gewünschten Regionalisierungsergebnisse entspricht,<br />
berechnet.<br />
3. Aus den Ergebnissen werden Mittelwerte für die Modellpunkte berechnet und die Differenz (die<br />
Residuen) zu den Regionalmodellergebnissen berechnete.<br />
4. Die Differenzen werden im Regelfall positiv sein – dh. die Ergebnisse des Strahlungsmodells<br />
sind höher als die im Regionalmodell integrierten Sonnenstrahlungs-Ergebnisse, da diese ja<br />
den Einfluss der Bewölkung enthalten.<br />
5. Die Residuen werden interpoliert - entweder linear mittels IDW, mit thin plate splines oder mittels<br />
Variogrammfunktion und Co-Kriging unter Verwendung der Seehöhe als Co-Variable - und<br />
die so generierte Residualfläche von der auf dem DHM basierenden Modellfläche des expliziten<br />
Strahlungsmodell subtrahiert. (Im Prinzip ist auch die von Schöner in seinem Teilbericht vorgestellte<br />
EOF-Methode aus dem CLIM.PACT-Paket von R. Benestadt einsetzbar, allerdings stand<br />
diese zum Zeitpunkt der Arbeiten an der Strahlungsregionalisierung noch nicht zur Verfügung.)<br />
6. Das Ergebnis ist nun eine fein differenzierte - auf Topographie, Sonnenstand und Bewölkung<br />
abgestimmte Sonneneinstrahlungsfläche für die jeweilige gewünschte Zeitspanne. Die Strahlungssumme<br />
je Fläche für die gewählte Zeiteinheit wird etwa dieselbe sein, wie im Regionalmodell.<br />
Die kleinräumige Variation zeigt große Schwankungen und ergibt sich aus den Geländeformen,<br />
die großräumigen Unterschiede ergeben sich durch die Variation in der Bewölkungsintensität.<br />
Eine kurze Abhandlung des verwendeten Sonnenstrahlung-Modells ist in Anhang 1 zu finden, das<br />
verwendete AML-Script in Anhang 2.<br />
Anhang 1 13<br />
Teilbericht 6
Die folgende Abbildung fasst den Ablauf der einzelnen Modellier-Schritte der Strahlungs-<br />
Regionalisierung zusammen.<br />
Abb. 8: Regionalisierung der Strahlung unter Berücksichtigung des Geländes und der Bewölkung<br />
4.1 Modellergebnisse – Teilergebnisse für die einzelnen Schritte<br />
Die folgenden 5 Abbildungen zeigen Resultate der von MM5 generierten Sonnenstrahlung, der potenziellen<br />
clear-sky Sonnenstrahlung, der auf MM5-Auflösung gemittelten clear-sky Sonnenstrahlung,<br />
Differenzen zwischen den beiden Modellen und schließlich 2 kompilierte Endergebnisses unter<br />
Beachtung der Bewölkungseffekte für den 16.9.1999. Aus Gründen der Vergleichbarkeit wurden die<br />
Klassengrenzen und Legendenfarben ident gehalten.<br />
14 Anhang 1<br />
Teilbericht 6
Abb. 9: MM5 – Modellergebnisse: Sonnenstrahlung in KJ /m2 am 16.9.1999 (10 km Auflösung)<br />
Abb. 10: potenzielle clear-sky Sonnenstrahlung in KJ/m2 am 16.9.1999 (topographische Basis bzw.<br />
geometrische Auflösung 1000m DHM)<br />
Anhang 1 15<br />
Teilbericht 6
Abb. 11: Potenzielle clear-sky Einstrahlung in KJ/m2 am 16.9. 1999 gemittelt auf MM5 Modell-<br />
Gitterpunkte (10km Auflösung)<br />
Abb. 12: Differenzen zwischen den MM5-Ergebnissen und der potenziellen clear-sky Einstrahlung in<br />
KJ/m2 am 16.9.1999 (10 km-Auflösung)<br />
16 Anhang 1<br />
Teilbericht 6
Abb. 13: aktuelle Sonnenstrahlung in KJ/m² am 16.9.1999 unter Berücksichtigung der Bewölkung (anhand<br />
der interpolierten Differenzen aus Abb. 5) und der Topographie (DHM Auflösung 1000m)<br />
Die Kombination beider Karten zeigt zu hohe Werte für die wolkenfreien Gebiete, da das MM5-<br />
Ergebnis eben höhere Strahlung generiert als das physikalisch-mathematische Modell liefert (hier<br />
clear-sky Strahlung). In einem ersten Schritt werden nur die negativen Abweichungen weiter<br />
herangezogen – in der Annahme, dass diese die Effekte der Bewölkung auf die Sonnenstrahlungsintensität<br />
zeigen.<br />
Abb. 14: aktuelle Sonnenstrahlung in KJ/m² am 16.9.1999 unter Berücksichtigung der Bewölkung (anhand<br />
der interpolierten negativen Differenzen aus Abb. 5) und der Topographie (DHM Auflösung 1000m)<br />
Anhang 1 17<br />
Teilbericht 6
4.2 Integration der Residuen in das clear-sky-<br />
Strahlungsmodellergebnis<br />
Diskussion:<br />
Im Prinzip funktioniert der Ansatz, auch wenn es noch einige Ausreißer-Flächen nach der Integration<br />
der Residuen-Fläche gibt. Insgesamt scheint es, dass das regionale Klimamodell zu hohe Sonnenstrahlungswerte<br />
generiert, was zu regional gelegentlich unplausiblen Abweichungen gegenüber den<br />
clear-sky Werten führt. Dies äußert sich dahingehend, dass die Differenzen in den nicht oder nur<br />
wenig bewölkten Gebieten hoch positive Abweichungen zeigen, während in den an diesem Modell-<br />
Tag stark bewölkten Gebieten - im nördlichen Wiener Becken und in den Nordtiroler Kalkalpen –zT<br />
stark negative Abweichungen auftreten.<br />
Es wird daher vorgeschlagen, das MM5-Modell anhand von Messdaten sowie anhand von physikalisch-mathematischen<br />
Modellergebnissen zu überprüfen.<br />
In einem ersten korrigierenden Schritt wurden die positiven Residuen außer Acht gelassen, was<br />
dazu führt, dass die Ergebnisse weit realistischer scheinen und die Charakteristik der Ergebnisse<br />
beider Modelle integrieren.<br />
Um ein Regional-Modell anhand von clear-sky Modellergebnissen zu kalibrieren, ist es notwendig<br />
clear-sky Tage mit dem jeweiligen Modell zu generieren und dann die Sonnenstrahlungsdifferenzen<br />
zum mathematisch–physikalischen Modell zu interpretieren und gegebenenfalls die Modellparameter<br />
zu adaptieren. Wenn dies nicht den gewünschten Erfolg liefert, sind zumindest die Regionalmodell-<br />
Ergebnisse mit einem Korrekturfaktor zu gewichten.<br />
Nachtrag:<br />
Inzwischen wurde eine zusätzliche Variante entwickelt, um die Problematik der Sonn-Schatt-Seiten-<br />
Differenzen im Gebirge und die sich daraus ergebenden positiven Abweichungen in den Griff zu<br />
bekommen. Diese kommen nach der modifizierten Berechnungsform nun nicht mehr vor, sodass<br />
tatsächlich davon ausgegangen werden kann, dass die Abweichungen zwischen den MM5-<br />
Ergebnissen und der auf MM5-Auflösung geglätteten clear-sky Einstrahlungs-Modellierung tatsächlich<br />
bewölkungsbedingt sind und die „Rückrechnung“ die tatsächliche lokale und zeitbezogene Situation<br />
gut widerspiegelt . Zur Überprüfung sind hierzu noch die Strahlungsdaten der ZAMG notwendig,<br />
die zur Zeit der Berichtslegung noch nicht vorhanden waren. Die Details dazu werden nach entsprechender<br />
quantitativer Validierung im nächsten Bericht im Detail erörtert werden.<br />
18 Anhang 1<br />
Teilbericht 6
Literatur<br />
Bernhard, L. & R. Weibel (1999)<br />
Modelling snowmelt using a digital terrain model and GIS based techniques. – In: Dikau, R. & H. Saurer (Hg.): GIS<br />
for earth surface systems. Borntraeger: Berlin, Stuttgart, S. 25-46.<br />
Bernhardt, F. & H. Philipps (1958):<br />
Die räumliche und zeitliche Verteilung der Einstrahlung, der Ausstrahlung und der Strahlungsbilanz im Meeresniveau.<br />
Teil 1: Die Einstrahlung. (= Abhandlungen des Meteorologischen und Hydrologischen Dienstes der DDR 45) –<br />
Meteorologischer Dienst der DDR: Berlin.<br />
Hastenrath, S. (1984):<br />
The glaciers of Equatorial East Africa. – Reidel: Dordrecht, Boston, Lancaster.<br />
Hock, R. (1999):<br />
A distributed temperature-index ice- and snowmelt model including potential direct solar radiation. – In: Journal of<br />
Glaciology, Vol. 45, H. 149, S. 101-11<strong>1.</strong><br />
Iqbal, M. (1983):<br />
An introduction to solar radiation. – Academic Press: Toronto, New York, London.<br />
Kumar L., Skidmore A. K., Knowles E. (1997):<br />
Modelling topographic variation in solar radiation in a GIS environment. – In: International Journal of Geographic<br />
Information Science, Vol. 11, No. 5, S. 475-498.<br />
Liljequist, H. & K. Cehak (1994):<br />
Allgemeine Meteorologie. – Viehweg: Braunschweig, 3. Aufl.<br />
Mölg, T. (2001):<br />
Modellierung der Globalstrahlung in Zusammenhang mit neuzeitlichen Gletscherschwankungen am Ruwenzori. –<br />
Diplomarbeit, Institut für Geographie der Universität Innsbruck: Innsbruck.<br />
Schafmeister, M.T. (1999):<br />
Geostatistik für die hydrogeologische Praxis. – Springer: Berlin, Heidelberg, New York.<br />
Anhang 1 19<br />
Teilbericht 6
20 Anhang 1<br />
Teilbericht 6
ANHANG A Das Mathematisch-physikalische<br />
Sonnenstrahlungsmodell<br />
Physikalisch-mathematische Basis des Strahlungsmodells ist die Berechnung der direkten kurzwelligen<br />
Sonneneinstrahlung bei wolkenlosem Himmel SW↓ (dir) auf eine ebene Fläche.<br />
Die Strahlungsleistung der Sonne die auf der Erde pro Quadratmeter ankommt wird als<br />
Solarkonstante I0 bezeichnet und beträgt bei einer mittleren Sonnenentfernung am Oberrande der<br />
Erdatmosphäre 1367 Wm -2 (Jansen, 1985). Da der Abstand der Erde von der Sonne aufgrund der<br />
Exzentrizität der Erdbahn während eines Jahres schwankt, ist ein Korrekturfaktor ε notwendig.<br />
Daraus ergibt sich die Einstrahlung G0 auf eine Ebene senkrecht zur Sonnenstrahlung [Wm-2]:<br />
G0 = I0 ε (1)<br />
Nach Kreith & Kreider (1978) bzw. Duffie & Beckmann(1991) kann für ε folgender Ansatz<br />
angenommen werden:<br />
ε = 1 + 0.03344 cos (360° N/365) (2)<br />
wo N die laufende Tageszahl von <strong>1.</strong> Jänner bis 3<strong>1.</strong> Dezember ist.<br />
Die Sonneneinstrahlung auf ebenes Gelände normal zum Einstrahlungswinkel B0c [Wm-2], bei<br />
wolkenfreiem Himmel ergibt sich aus:<br />
Bhc = G0 sin h0 (3)<br />
wobei h0 dem Sonnenwinkel entspricht.<br />
Die Sonnenstrahlung auf einer geneigten Fläche Bic [Wm -2 ] ist:<br />
Bic = B0c sin δexp (4)<br />
wobei δexp dem Winkel zwischen Sonne und der geneigten Fläche entspricht.<br />
Der Winkel wird anhand der Sonnenposition und einem aus dem Höhenmodell abgeleiteten<br />
Neigungs- und Expositionsmodell bestimmt. Die Sonnenposition in Relation zur ebenen Fläche (vgl.<br />
Kumar et al., 1997) ergibt sich aus der Deklination h0 (= Winkel zwischen Sonnenstand und der<br />
ebenen Fläche) und dem Azimut A0 (= horizontaler Winkel zwischen der Sonne und dem Meridian<br />
von Osten aus):<br />
wobei<br />
sin α = sin L sin δs + cos L cos δs cos hs (5)<br />
α = der Sonnenwinkel<br />
L = geographische Breite<br />
δ = die Sonnendeklination (Winkel zw. Ebene und Sonnenstand)<br />
hs = Stundenwinkel (Azimut)<br />
Anhang 1 21<br />
Teilbericht 6
Bei der Strahlung wird hier vereinfachend nur zwischen direkter und diffuser Strahlung<br />
unterschieden. Die direkte Strahlung wird anhand Boughers’ Gesetz berechnet (Kumar et al., 1997):<br />
Ib = Io e -kM (6)<br />
k ist dabei die Absorptionskonstante und M das Luftmassen-Verhältnis, also das Verhältnis zwischen<br />
der Luftmasse, welche die Strahlung bei gegebenem Sonnenwinkel passieren muss, und jener<br />
Masse die passiert wird, wenn die Sonne im Zenit stehen würde. Die Ermittlung von k und M wird<br />
hier nicht weiter ausgeführt, hier sei auf Kumar et al. (1997) verwiesen.<br />
Die diffuse Strahlung resultiert vor allem aus der Lichtstreuung an Luftmolekülen. Die Berechnung<br />
der diffusen und reflektierten Strahlung Id basiert – Kumar et al. (1997) folgend – auf Gates (1980):<br />
wobei<br />
Id = Io τd cos 2 β/2 sin α (7)<br />
τd = der Strahlungsdiffusionskoeffizient<br />
α = der Expositionswinkel der beleuchteten Fläche<br />
β = der Hangneigungswinkel der beleuchteten Fläche<br />
Mangels Bewölkungsdaten wird die Minderung durch Bewölkung aus dem Modell berechnet, sondern<br />
anhand der tagesspezifischen Ergebnisse eines regionalen Klimamodells über die Residuen.<br />
(Die Residuen werden durch Subtraktion des Flächemittels der theoretischen Einstrahlung bei wolkenlosem<br />
Himmel des mathematisch-physikalischen Modells von den die Bewölkung berücksichtigenden<br />
Einstrahlungsergebnissen für die Modellpunkte aus dem Regionalmodell erzeugt.)<br />
Das Strahlungsmodell wurde vorerst im Grid-Modul von ARC/INFO implementiert, das verwendete<br />
AML-Script ist in Anhang 2 zu finden.<br />
Abb. A1: Schema der Einstrahlungsformen – direkte (1), diffuse (2) und reflektierte (3) Strahlung<br />
22 Anhang 1<br />
Teilbericht 6
ANHANG B AML-Script zur Berechnung der clear-sky<br />
Strahlung<br />
* =========================================================================<br />
/* @(#)shortwavb.aml <strong>1.</strong>4 09/14/2000 11:22:17<br />
/*-------------------------------------------------------------------------<br />
/* Original Code<br />
/* Lab for synthetic dynamic vegephenomenology<br />
/*-------------------------------------------------------------------------<br />
/* Program: SHORTWAVB.AML<br />
/* Purpose: This program calculates the shortwave radiation received<br />
/* at the surface of the earth over a period of time. For the<br />
/* given day(s), it calculates the sunset and sunrise times<br />
/* and intergrates solar radiation from sunrise to sunset each<br />
/* day.<br />
/* Reference: This AML program was used originally for work published as:<br />
/* Kumar, L., Skidmore, A.K., Knowles, E., (1997) Modelling<br />
/* Topographic Variation in Solar Radiation in a GIS Envi-<br />
/* ronment. International Journal of Geographical Informa-<br />
/* tion Science, 11(5): 475-497.<br />
/*-------------------------------------------------------------------------<br />
/* Usage: &r shortwavb<br />
/*-------------------------------------------------------------------------<br />
/* Notes: This AML was originally coded as "shortwave.aml" by Lalit<br />
/* Kumar. For northern hemispheres, the code had an error.<br />
/* When calculating the terrain-based overhsadowing, the<br />
/* sun passed always north of the target cell. However, the<br />
/* calculation of the radiation intensity was correct. To<br />
/* adjust the code for northern hemispheres, the shortwavc.aml<br />
/* was developed.<br />
/*-------------------------------------------------------------------------<br />
/* Addresses: Lalit Kumar<br />
/* School of Geography, University of New South Wales<br />
/* Sydney, Australia<br />
/*<br />
/* adapted for northern hemisphere<br />
/* Niklaus E. Zimmermann<br />
/* Swiss Federal Research Institute WSL<br />
/* CH-8903 Birmensdorf, Switzerland<br />
/*<br />
/* adapted for reclip:more application by Hans Zueger<br />
/* ARC systems research GmbH<br />
/* A 2444 Seibersdorf<br />
/*-------------------------------------------------------------------------<br />
/* Input: DEM<br />
/* Output: radiation covers<br />
/*-------------------------------------------------------------------------<br />
/* History: Lalit Kumar - ... - Original coding<br />
/* Lalit Kumar - 5/08/1997 - Last Modifications<br />
/* Niklaus E. Zimmermann - 11/21/1998 - Corrections (N-hemisph.)<br />
/*=========================================================================<br />
&args cover outgrid latdeg daystart dayend timeint<br />
&if [show program] ne GRID &then<br />
grid<br />
&if ^ [exists %cover% -grid] &then<br />
&return &error Grid %cover% does not exist.<br />
&if [exist %outgrid% -grid] &then<br />
&return &error Grid %outgrid% already exists.<br />
&if ^ [variable latdeg] &then<br />
&return &error need a valid latitude<br />
&if ^ [variable daystart] or %daystart% < 1 or %daystart% > 365 &then<br />
&return &error please enter a start day between 1 and 365<br />
&if ^ [variable dayend] or %dayend% < 1 or %dayend% > 365 &then<br />
&return &error please enter an end day between 1 and 365<br />
&if ^ [variable timeint] or %timeint%
&s time = %timeint% * 0.0043633 /* convert minutes into radians<br />
&s daynumber = %daystart%<br />
&s pi = 22 / 7<br />
&s degtorad = 2 * %pi% / 360<br />
&s latitude = %latdeg% * %degtorad%<br />
&if [exist slopegrid -grid] &then kill slopegrid all<br />
slopegrid = slope(%cover%)<br />
&if [exist slopegrid2 -grid] &then kill slopegrid2 all<br />
slopegrid2 = slopegrid * %degtorad%<br />
&if [exist aspectgrid -grid] &then kill aspectgrid all<br />
aspectgrid = aspect(%cover%)<br />
&if [exist aspectgrid1 -grid] &then kill aspectgrid1 all<br />
/* change so that surface azimuth is zero at south<br />
if (aspectgrid == -1) aspectgrid1 = 0<br />
else if (aspectgrid le 180) aspectgrid1 = 180 - aspectgrid<br />
else aspectgrid1 = 540 - aspectgrid<br />
&if [exist aspectgrid2 -grid] &then kill aspectgrid2 all<br />
aspectgrid2 = aspectgrid1 * %degtorad%<br />
&if [exist outgrid0 -grid] &then kill outgrid0 all<br />
outgrid0 = hillshade (%cover%, 0, 0, shadow)<br />
&if [exist initialgrid -grid] &then kill initialgrid all<br />
initialgrid = outgrid0 * 0<br />
kill outgrid0 all<br />
kill slopegrid all<br />
kill aspectgrid all<br />
kill aspectgrid1 all<br />
&if [exist sungrid -grid] &then kill sungrid all<br />
&if [exist wattsgrid -grid] &then kill wattsgrid all<br />
&if [exist wattsgrid2 -grid] &then kill wattsgrid2 all<br />
&if [exist shaded -grid] &then kill shaded all<br />
&if [exist cosi -grid] &then kill cosi all<br />
&do &until %daynumber% > %dayend%<br />
/* See Eq 7<br />
&s Io = [calc <strong>1.</strong>367 * ( 1 + 0.034 * [cos [calc 360 * %degtorad% * ~<br />
%daynumber% / 365]] )]<br />
/* See Eq 4<br />
&s decl = [calc 23.45 * %degtorad% * [sin [calc %degtorad% * 360 * ~<br />
( 284 + %daynumber% ) / 365]]]<br />
/* See Eq 6<br />
/* This line needed to be adjusted to latitudes exceeding 66.5° N/S<br />
&if [calc -1 * [tan %latitude%] * [tan %decl%]] lt -<strong>1.</strong>0 &then /*nez: check that x<br />
is not ><strong>1.</strong>0 for acos(x)<br />
&s sunrise = [acos -<strong>1.</strong>0] /*nez:<br />
"<br />
&else &if [calc -1 * [tan %latitude%] * [tan %decl%]] gt <strong>1.</strong>0 &then /*nez:<br />
"<br />
&s sunrise = [acos <strong>1.</strong>0] /*nez:<br />
"<br />
&else /*nez:<br />
"<br />
&s sunrise = [acos [calc -1 * [tan %latitude%] * [tan %decl%]]] /*orig<br />
"<br />
&s sunset = -1 * %sunrise%<br />
/* To ensure calculations are at half the time interval<br />
&s hourangle = %sunrise% - ( %time% / 2 )<br />
&s pass = 1<br />
&do &until %hourangle% < %sunset%<br />
&ty day : %daynumber%<br />
&ty pass: %pass%<br />
/* See Eq 2<br />
24 Anhang 1<br />
Teilbericht 6
powers)<br />
alt%]] <br />
alt%]]<br />
/*nez<br />
/*nez<br />
/*nez<br />
&s solaralt = [asin [calc [sin %latitude%] * [sin %decl%] + [cos %latitude%] * ~<br />
[cos %decl%] * [cos %hourangle%]]]<br />
&s test = [tan %decl%] / [tan %latitude%]<br />
/* See Eq 3<br />
&if ( [cos %hourangle%] > %test% ) &then<br />
&s solaraz = [asin [calc [cos %decl%] * [sin %hourangle%] / [cos %solaralt%]]]<br />
&else &if ( [cos %hourangle%] < %test% ) &then<br />
&s solaraz = %pi% - [asin [calc [cos %decl%] * [sin %hourangle%] / [cos %solaralt%]]]<br />
&else &if ( %test% = [cos %hourangle%] and %hourangle% >= 0 ) &then<br />
&s solaraz = %pi% / 2<br />
&else &if ( %test% = [cos %hourangle%] and %hourangle% < 0 ) &then<br />
&s solaraz = -1 * %pi% / 2<br />
&end /* don't ask :))<br />
&if ( %solaraz% >= 0 ) &then<br />
&s solarazdeg = %solaraz% * 57.29578<br />
&else<br />
&s solarazdeg = 360 - ( [abs %solaraz%] * 57.29578 )<br />
/* See Eq 11<br />
/* Below is the original code, which doesn't run under AI 8.0.2 (no raise to fractional<br />
/*&s M = [calc ( 1229 + ( 614 * [sin %solaralt%] ) ** 2 ) ** 0.5 - 614 * [sin %solar-<br />
/* Calvin Tolkamp proposed the workaround below:<br />
&s M = [calc [sqrt [calc 1229 + ( 614 * [sin %solaralt%] ) ** 2 ]] - 614 * [sin %solar-<br />
&s e = 2.7182818<br />
/*This is to back-calculate the tau-value<br />
/*&s tau = [calc ( 0.56 * ( %e% ** ( -0.65 * %M% ) + %e% ** ( -0.095 * %M% ) ) )]<br />
/*&ty Solaralt: %solaralt%, Air mass: %M%, Tau: %tau%<br />
/* See Eq 15<br />
/* Below is the original code, which doesn't run under AI 8.0.2 (no raise to fractional<br />
powers)<br />
/*&s Is = %Io% * 0.56 * ( %e% ** ( -0.65 * %M% ) + %e% ** ( -0.095 * %M% ) )<br />
/* Calvin Tolkamp proposed the workaround below:<br />
&s Is = %Io% * 0.56 * ( [exp [calc -0.65 * %M% ]] + [exp [calc -0.095 * %M% ]] )<br />
&s solaraltdeg = %solaralt% * 57.29578<br />
/*sungrid = HILLSHADE (%cover%, %solarazdeg%, %solaraltdeg%, shadow) /*nez: was<br />
disabled because it is wrong in N-lat.<br />
&if ( %solarazdeg%
* Trust me on the following two lines (You always need to fudge a little).<br />
if (cosi lt 0) shaded = 0<br />
else shaded = 1<br />
wattsgrid = %Is% * cosi * sungrid * shaded * 60 * %timeint%<br />
wattsgrid2 = wattsgrid + initialgrid<br />
kill wattsgrid all<br />
kill initialgrid all<br />
kill sungrid all<br />
kill shaded all<br />
kill cosi all<br />
rename wattsgrid2 initialgrid<br />
&s hourangle = %hourangle% - %time%<br />
&s pass = %pass% + 1<br />
&end<br />
&s daynumber = %daynumber% + 1<br />
&end<br />
%outgrid% = int(initialgrid)<br />
/* NOTE : THE UNITS FOR RADIATION IN THE OUTGRID ARE kJ/m^2/timeperiod<br />
/* If these are to be converted to MJ/m^2/day, then they should be divided by 1000 * no. of<br />
days.<br />
kill initialgrid all<br />
kill aspectgrid2 all<br />
kill slopegrid2 all<br />
26 Anhang 1<br />
Teilbericht 6
Anhang 2<br />
Protokolle der Projektmeetings
Protokoll:<br />
3. Projektvorbereitungsmeeting<br />
zum K-Wiss-Programm reclip:more<br />
‘‘research for climate protection: model run evaluation‘‘<br />
(Meeting fand erst nach offiziellen Projektbeginn statt)<br />
Do. 13.1<strong>1.</strong> 2003 ARC systems research Stadtbüro/Kolingasse 11/11, 1090 Wien<br />
10:00 – 13:00<br />
Themen:+ Allg. Vertragsbedingungen – revidiert<br />
Teilnehmer:<br />
+ Bereinigung von Unklarheiten hinsichtlich der einzelnen Leistungspakete<br />
+ Diskussion der jeweiligen Verantwortlichkeiten laut eingereichter Offerte<br />
+ Klärung offener Fragen inhaltlicher Art<br />
Name Institution E-mail<br />
Manfred Dorninger IMG - Uni Wien manfred.dorninger@univie.ac.at<br />
Bodo Ahrens IMG - Uni Wien bodo.ahrens@univie.ac.at<br />
Alexander Beck<br />
IMG - Uni Wien alexander.beck@univie.ac.at<br />
Herbert Formayer IMP - Boku herbert.formayer@boku.ac.at<br />
Wolfgang Schöner ZAMG wolfgang.schoener@zamg.ac.at<br />
Andreas Gobiet IGAM - Uni Graz andreas.gobiet@uni-graz.at<br />
Heimo Truhetz IGAM - Uni Graz heimo.truhetz@uni-graz.at<br />
(heimo.truhetz@utanet.at)<br />
Wolfgang Loibl ARC sys wolfgang.loibl@arcs.ac.at<br />
Johann Züger ARC sys johann.zueger@arcs.ac.at<br />
Mario Köstl ARC sys mario.koestl@arcs.ac.at<br />
Protokoll: Köstl, mit Ergänzungen von Loibl<br />
Allgemeine Vertragsbedingungen, Zahlungsmodalitäten<br />
ARC systems research ist zwar ein eigenständiges Tochterunternehmen der ARC<br />
Holding, allerdings an gewisse Vorgaben seitens der Holding und „Traditionen“ gebunden.<br />
Die allgemeinen Vertragsbedingungen stammen noch von der Muttergesellschaft ARC<br />
Seibersdorf research und sind für Forschungskooperationen nicht wirklich geeignet –<br />
etwa das Publikationsverbot von eigenen Entwicklungen – IGAM hat dies bemerkt und<br />
ARC systems research diesbezüglich kontaktiert.<br />
Anhang 2 1
Loibl hat darauf revidierte Vertragsbedingungen entworfen und diese an alle Projektpartner<br />
ausgeschickt. Nach Zustimmung der Partner wurden die neuen Bedingungen<br />
mit einem Begleitschreiben, in dem die alten Vertragsbedingungen als gegenstandslos<br />
erklärt werden, den Vertragspartner übergeben.<br />
Die Verträge mit den Standardvertragsbedingungen bzw. die kaufmännische Abwicklung<br />
von Projekten wird, was Rechnungslegung und Zahlungen betrifft, für die<br />
nächsten 2 Jahre von der ARC business services als weiterer ARC Holding Tochter<br />
abgewickelt. Somit hat ARC systems research nur bedingt auf Form und Art der Vertragserrichtung,<br />
Auftragsbestätigung etc. Einfluss. Deshalb wurden die Teilzahlungs-<br />
Modalitäten – wie mit den Partnern besprochen – nicht in den Vertragstext bzw. das<br />
Auftragsschreiben aufgenommen. ARC systems research wird trotzdem das 2. Drittell<br />
nach gemeinsamer Erstellung der Feinstruktur und der individuellen Arbeitsberichte zu<br />
Methoden und Datenbereitstellung und nach Rechnungslegung auszahlen.<br />
Bereinigung von Unklarheiten hinsichtlich Antriebsdaten<br />
Ahrens kümmert sich um ERA-40 für Aladin (Umfang ca. 30 GB pro Jahr).<br />
Da dieses Modell eventuell andere Felder als MM5 benötigt, übernimmt systems<br />
research die Verantwortung für den ERA-40-Download – Züger wird die Daten<br />
archivieren und den Partnern für MM5 zur Verfügung stellen. Grundsätzlich wurde<br />
festgehalten, alle ERA-40 Daten va. bezogen auf die Bodenfelder zu nutzen.<br />
(Anm. Köstl: Dies wurde von Züger bereits begonnen. Nach Recherchen von Züger ist<br />
für eine Auflösung von 2,5 ° kein gesonderter Antrag an das ECMWF zu richten,<br />
sondern nur die im Downloadformular angeführten Bedingungen für die wissenschaftliche<br />
Verwendung der Daten zu erfüllen. Die für die Verwendung feinerer<br />
Auflösung benötigte Befugnis, wird von systems research beantragt. Da die Daten in<br />
grib-Format vorliegen, sind keine Schwierigkeiten bei der Aufbereitung zu erwarten.)<br />
Die Wahl der Auflösung der Antriebsdaten – ECHAM T42 oder T106 – wurde zwischen<br />
den Beteiligten (Ahrens, Gobiet, Formayer, Loibl) diskutiert, aber noch keine definitive<br />
Entscheidung getroffen. Hier wird weiter recherchiert, ob besser geeignete T106-<br />
Antriebsdaten verfügbar gemacht werden können (Ahrens).<br />
Es ist allen Projektpartnern klar, dass ein höher aufgelöstes GCM erstrebenswert wäre,<br />
da jede zusätzliche Nestingstufe eine Unsicherheitsquelle darstellt. Auch die Tatsache,<br />
dass im T42 der Effekt der Alpen wohl kaum zum Tragen (Loibl „Flache Flunder“)<br />
kommt, kann problematisch werden.<br />
Gobiet regt an, sich zunächst auf T42 zu konzentrieren (da dieses ausgereift und<br />
verfügbar) und T106 je nach Notwendigkeit für Sensitivitätstest einzusetzen. Sollten<br />
keine T106 Läufe für die gewünschten Zeiträume zur Verfügung stehen, könnten/<br />
sollten allerdings für ausgewählte kürzere Zeitfenster Vergleiche zwischen T42- und<br />
T106-getriebene RCM’s im Rahmen der Sensitivitätsuntersuchen durchgeführt werden.<br />
Gobiet verweist weiters auf den DMI-Datensatz, der die Jahre 1970 – 1994 bzw.<br />
2060 – 2090 abdeckt. Dieser könnte ebenfalls – zumindest für die retrospektiven Tests<br />
– verwendet werden.<br />
In Zusammenhang mit der Wahl des GCM wurden auch die zu rechnenden Zeiträume<br />
diskutiert – allerdings auch hier noch keine definitive Entscheidung getroffen, da dies<br />
von den verfügbaren Zeitfenstern der Antriebsdaten abhängt.<br />
2 Anhang 2
Bei der Auswahl der Zeitscheiben f. Control runs soll nach Meinung von Dorninger in<br />
Kombination mit synoptischen Daten erfolgen: zB VERACLIM 1980-2000<br />
Dorninger verweist zusätzlich auf Lücken in MARS-Archiv vor 1980er Jahren, die nur<br />
mit unrealistisch hohem Aufwand zu füllen wären. Zusätzlich seien auch die VERA-<br />
Daten nach 1980 wesentlich besser. Er meint auch, dass MAP Perioden berücksichtigt<br />
werden sollten, da für diese umfangreiche Datensätze zur Verfügung stünden (auch in<br />
Hinsicht auf Zyklogenese, Starkniederschlag, Föhn – sehr gute Daten liegen für den<br />
Zeitraum 7.9.99 – 15.1<strong>1.</strong>99 vor).<br />
Formayer verweist in diesem Zusammenhang auch auf Notwendigkeit einer<br />
Winterperiode, um Schneebedeckung gut nachvollziehen zu können.<br />
Einigung auf Zeitraum späte 1980er und 1990 – 2000 für Kontrollläufe, da diese Jahre<br />
durch Daten am besten abgedeckt sind (zB ERA15 1979 – 1994, aber auch MAP,<br />
insbesondere MAP-SOP).<br />
Bezüglich der Zeitscheiben f. prospektive runs verweist Loibl auf CERA-Datenbank:<br />
dzt. verfügbar ETH 2041-2050, DMI 2060-2089)<br />
Ahrens berichtet von einem geplanten REMO-Lauf, der allerdings prognostisch den<br />
Zeitraum 2070 – 2100 abdeckt, somit wohl für reclip.more nicht in Frage kommt.<br />
(Nachträgliche Anm. Loibl: Der von möglichen Anwendern präferierte Zeitraum für<br />
prospektive Model runs 2020 – 2050 (vgl. Auswertung der systems research<br />
Anwender-Umfrage vom letzten Mal) kann nur dann berücksichtigt werden, wenn<br />
ausreichend getestete Antriebsdaten verfügbar sind. Allerdings scheint es im Lichte der<br />
Erkenntnisse, nämlich dass für den Zeitraum um 2020 noch keine Unterschiede<br />
zwischen „business as usual“ und IPCC- CO2-Anstiegs-Szenarien zu erwarten sind-<br />
und die Ergebnisse etwa der Charakteristik der Control runs entsprechen werden,<br />
klüger hier Antriebsdaten aus spätere Zeitscheiben zu nutzen.)<br />
Auf die Frage von Gobiet, ob denn 10 Jahre für long runs nicht ausreichen würden,<br />
antwortet Formayer, dass sich hier die Frage stelle, welche Dekade man wählt und<br />
verweist auf Ergebnisse prognostischer Läufe, bei denen zB die 2020er Jahre<br />
verhältnismäßig kühl – etwa vergleichbar mit den 1980er Jahren – wären und somit<br />
eine Dekade nicht ausreichend wäre, um etwaige Klimaänderungen erkennen zu<br />
können. Generell wären 10 Jahre für Klimastatistiken wohl zu kurz. Formayer ist da für<br />
eine 30 jährige Reihe, um die Variabilität des Klimas über die Zeit auszugleichen.<br />
Validierung und Sensitivitäts-Untersuchungen<br />
Sensitivitätstests<br />
Es herrscht Konsens zw. der Gruppe der Modellierer und der Validierer, eine Liste<br />
möglicher Sensitivitätstests zu erstellen, um abschätzen zu können, welche Parameter<br />
überhaupt benötigt werden. Dies geschieht insbesondere im Hinblick auf den<br />
(Witterungs-/Klima-bezogenen) Einfluß der Alpen.<br />
Dazu meint Formayer, er werde mit KollegInnen am IMP eine Liste sinnvoller Test<br />
zusammenstellen, die dann von den Projektpartnern bezüglich Notwendigkeit und<br />
Machbarkeit bewertet werden sollte. Dann kann gestrichen werden, was nicht machbar<br />
ist. Allgemeine Zustimmung.<br />
Anhang 2 3
Da diese Tests maßgeblichen Einfluss auf benötigte Input-Daten und den<br />
Validierungsvorgang haben, sollte daher nach Meinung Formayers eine Klärung dieser<br />
Frage hintangestellt werden. Auch sollten noch Schnittstellen zwischen den einzelnen<br />
Tasks (va. Validierung und Modellierung) definiert werden. Als Validierungs-Tool sollte<br />
VERA verwendet werden, da dies ein „standartisiertes“ Gitter wäre.<br />
Validierung<br />
Dorninger berichtet kurz von semioperativen Erfahrungen mit diversen Modellen<br />
(Aladin, LM) und wünscht von Modellbettreibern die Nennung der Outputformate,<br />
insbesondere Parameteranzahl und -art.<br />
Auf die Frage Formayers, inwieweit VERA für Verwendung in reclip:more adaptiert<br />
werden müsste, erklärt Dorninger, dass derzeit Bodendruck, T2m, Wind und Feuchte<br />
(als Differenz zwischen der äquivalent-potentiellen und potentiellen Temperatur) operational<br />
zur Verfügung stünden, Tmin und Tmax hingegen nicht. Diese zu implementieren<br />
sollte allerdings keine Probleme bereiten.<br />
Auf Frage von Köstl, ob man nicht auch statistische Methoden zur Validierung<br />
verwenden sollte, antwortet Formayer, dass die zwar für die Temperatur machbar sei<br />
(und auch schon durchgeführt wurde), beim Niederschlag hingegen eher schlechte<br />
Ergebnisse erzielt wurden: Statistical downscaling bringt für T einen r 2 von 0,7 während<br />
der Niederschlag nur einen r 2 von 0.2 bis 0.3 liefert.<br />
Bezüglich der Frage, auf welchem Scale die Validierung stattfinden sollte, erklärt<br />
Ahrens, dass sich hierfür 20 – 40 km eignen würden, da dies einerseits dem VERA-<br />
Gitter entspräche (und auch ERA-40 eine vergleichbare Auflösung besitzt) und<br />
andererseits RCM-Ergebnisse auf 10 km-Basis ebenfalls zunächst um einen Faktor 4<br />
upgescalt werden müssen, um anschließend mittels dynamischen Downscalings<br />
höhere Auflösungen erreichen zu können. Würde dies nicht gemacht, würden man<br />
unrealistische räumliche Verteilungsmuster erzielen. Vorsicht sei auch bei GCM-<br />
Validierung der Control runs geboten: T42 Extremereignisse sind nicht unbedingt T106<br />
Extremereignisse.<br />
Formayer verweist in diesem Zusammenhang auf Ergebnisse von PRUDENCE und<br />
erklärt, dass, sollten auf dem VERA-Scale zB die Temperatur nicht stimmen, diese<br />
auch auf feineren Scales nicht verbessert werden könne.<br />
Laut Schöner und Formayer sollte die Validierung jedenfalls auf keinen Fall auf<br />
Punktdaten erfolgen, da hier zu viel lokale Information mit eingehen würden).<br />
Loibl wünscht sich zur Validierung für Detailregionen zumindest 1 km. Auf Bedenken<br />
von Gobiet, dass dies doch eine zusätzlicher Interpolationschritt wäre, meint Ahrens,<br />
dass es sich hierbei nur um ein Upscaling handelt und dieses ohnehin notwendig wäre,<br />
ob aber dafür VERA geeignet wäre, muss man noch diskutieren.<br />
Auf Frage von Gobiet, wird festgestellt, dass Bodenfelder mittels VERA, vertikale<br />
Profile hingegen mit Radiosonden verifiziert werden sollten.<br />
Regionalisierung<br />
Schöner: Neben der flächenhaften Umlegung von Punktinformationen (Upscaling),<br />
birgt auch der umgekehrte Vorgang (oder zumindest das Downscaling von einer<br />
groben Auflösung auf zB 1 km) für klimatologische Fragestellungen eine große<br />
Unsicherheit.<br />
4 Anhang 2
Laut Formayer ist eine Adaption von MOST (Model Output Statistics) für Klimafragen<br />
nicht trivial und im Rahmen von reclip.more nicht machbar. Dies wäre allerdings<br />
sinnvoll und könnte ev. im Rahmen des FORNE-Programms (neuerdings unter<br />
PROVISION) geschehen.<br />
Gobiet meint, zunächst die Ergebnisse der Sensitivitäts-Studien ab zu warteten.<br />
Truhetz berichtet von Projektteil Wind für die noch zu definierenden study areas:<br />
Hierfür soll ein mikroskaliges Modell auf MM5 mit feinem DHM aufgesetzt werden. Der<br />
Plan ist, das bodennahe Windfeld auf eine Auflösung < 1 km zu regionalisieren. Er<br />
wünscht ein möglichst feines DHM.<br />
Loibl erklärt darauf, dass in systems research im Prinzip DHMs für Ö mit 250m<br />
Auflösung bereitstehen, 100 m Auflösung kann für (noch zu bestimmende) study areas<br />
generiert werden. Für Europa gibt’s das 30“ DHM des USGS, das ebenfalls verfügbar<br />
wäre.<br />
Er meint weiters, dass Abweichungen vom DHM durchaus berücksichtigt werden<br />
sollten und hierfür auch Methodenentwicklungen (zB mittels Residuen-Ausgleich)<br />
überlegt werden sollten.<br />
Auf Frage Loibls, wie dies in VERA gehandhabt wird, erklärt Dorninger, dass zunächst<br />
Modell-Gitterpunkte auf das VERA-Gitter übertragen werden (und wegen der gröberen<br />
Auflösung dafür mehrere Punkte zur Verfügung stehen) und dann die Höheninformation<br />
berücksichtigt wird.<br />
Loibl: können auch Tagesgänge – etwa über empirisch gewonnene Funktionen<br />
berücksichtigt werden? Dorninger muss hier nachfragen.<br />
Ahrens erklärt, dass Niederschlag und Strahlung nicht in VERA enthalten wären und<br />
Informationen bezüglich der Bodenfeuchte ohnehin nur aus ERA-Daten zu extrahieren<br />
sind. Formayer bestätigt, dass mit VERA im Wesentlichen nur die Dynamik überprüft<br />
werden kann, ansonsten Klimadaten (ev. auf Monatsbasis) verwendet werden müssen.<br />
Truhetz erklärt, dass MM5 zur Berechnung der Bodenfeuchte Landbedeckungssdaten<br />
benötigt. Ahrens verweist diesbezüglich auf neuen NOAA-Datensatz (Anmerkung Loibl<br />
zu grob – besser CORINE-Landcover für Europa nehmen).<br />
Formayer meint, dass Landbedeckung und Bodenschemata sehr kritische Punkte<br />
wären (vor allem in Hinsicht auf die Energiebilanz) und verweist auf PRUDENCE-<br />
Ergebnisse. Diese Punkte müssen unbedingt im Rahmen der Sensitivitätsuntersuchungen<br />
geklärt werden. Auch auf die Strahlungsbilanz sollte große Aufmerksamkeit<br />
gelegt werden!<br />
Köstl erklärt sich auf Fragen von Ahrens, Beck und Truhetz in Zusammenhang mit<br />
Landnutzung und -bedeckung bereit, ARC-Daten zu durchforschen (zB CORINE-<br />
Daten) und Information darüber den Fragenstellern zukommen zu lassen.<br />
Laut Züger ist in MM5 V3.6.1 das neue Noah Land-Surface Scheme implementiert.<br />
Dieses ersetzt das alte OSU Land-Surface Scheme. In MM5 sind weltweite Daten für<br />
DEM, Landuse, Vegetation (25 Kategorien) und Soil (17 Kategorien) in Auflösungen bis<br />
zu 30“ implementiert.<br />
Anhang 2 5
Zeitliche Auflösung<br />
Auf Frage von Gobiet, welche Zeitschritte benötigt würden und deshalb abgespeichert<br />
werden müssten (Problem Datenmenge!), antwortet Formayer, dass die von der<br />
jeweiligen Fragestellung abhinge.<br />
So würden zB für die Fragen bezüglich Bodenfeuchte und Schneeakkumulation<br />
tägliche bzw. monatliche Daten ausreichen. Allerdings müsste man diese im Rahmen<br />
einer Sensitivitätsanalyse (zB bei Fragen der Schneebedeckung) für mehrere Jahre<br />
abspeichern. Man sollte bedenken, dass auch short runs für die Sensitivitätstests<br />
mitunter mehrere Jahre dauern müssten!<br />
Nach allgemeiner Diskussion stellte sich ein 6-stündiger Output als geeigneter<br />
Kompromiss heraus, da damit über die Variabilität des Tagesganges auch Tmin und<br />
Tmax geschätzt werden können.<br />
Dorninger gibt zu bedenken, dass auch Tagesgänge sinnvoll seien.<br />
Loibl verweist auf einen Datensatz von systems research (Temperatur – Tagesgänge<br />
für 2 Jahre der 90er Jahre), der zur verfügung gestellt werden könnte.<br />
Für die Windmodellierung sind laut Truhetz auch stündliche Daten notwendig<br />
Züger bietet an, die Modell-Output-Routinen zu durchforsten, und nur notwendige<br />
Parameter auszugeben.<br />
Da letztendlich all diese Fragen nur nach Definition der Sensitivitäts-Studien geklärt<br />
werden können, wird von Formayer nochmals auf die zu erstellende Liste (vgl. oben)<br />
hingewiesen.<br />
Allgemeines<br />
Gobiet regt Bildung von Workpackages an (zB Sensitivitätsanalyse – Validierung –<br />
Regionalisierung Modellierung der short runs – Modellierung der long runs, da sich in<br />
diesen die einzelnen Projektpartner leichter wieder finden könnten.<br />
Loibl wird diesbezüglich (und auch hinsichtlich aller oben besprochenen Punkte)<br />
modifizieren und an alle Partner weiterleiten (siehe Anhang).<br />
Die Überlegung von Loibl, Subroutinen zum Datenoutput zu erstellen und direkt in die<br />
Modelle zu inkludieren wird nach allgemeiner Diskussion verworfen. Vielmehr sollte ein<br />
Interface geschaffen werden, um den Datenaustausch sicherzustellen.<br />
Die Berechnungen sollten nach Meinung von Schöner wenn möglich mit R (SASbasierende<br />
Statistik free ware) erfolgen werden.<br />
Loibl meint, das wäre zu überlegen, letztendlich sei aber hier keine Batchroutine,<br />
sondern ein flexibles Programm notwendig, das direkt auf die RCM-Ergebnisse aufsetzen<br />
kann.<br />
Die Ergebnisse der jeweiligen Modellläufe sollten von den einzelnen Modelliergruppen<br />
geprüft werden. Hier sollte Eigenverantwortlichkeit herrschen und letztlich nur<br />
abschließend ein „Supervision“ eines Subteams erfolgen.<br />
6 Anhang 2
Weitere Vorgehensweise:<br />
Die von Formayer zusammengestellte Liste möglicher Sensitivitätstests wird via E-mail<br />
an alle Projektpartner gehen. Aus dieser Liste sollen dann jene Experimente gewählt<br />
werden, die mit machbarem Aufwand durchgeführt werden können<br />
Bezüglich der Methoden des Upscalings und der Aufgabenteilung in diesem Task<br />
werden sich Schöner und Loibl ca. in den nächsten 2 Wochen besprechen.<br />
Die gebildeten Sub-Gruppen sollten sich wenn möglich noch vor Jahresende treffen,<br />
um die Feinstrukturierung der Tasks zu diskutieren (dies kann auch per E-mail<br />
geschehen)<br />
Anm. Gobiet: wir sollten uns endlich auf eine gemeinsame Nomenklatur einigen!<br />
Anscheinend verwenden Geographen den Begriff Upscaling wo Meteorologen den<br />
Begriff Downscaling verwenden. Vielleicht genügt ja der Begriff ‚Regionalisierung’.<br />
Für Jänner 2004 ist ein das nächste Meeting vorgesehen<br />
Im Februar 2004 soll ein Workshop mit internationaler Beteiligung (zB von STARDEX,<br />
QUIRCS, etc.) stattfinden.<br />
Anhang 2 7
8 Anhang 2
Protokoll:<br />
<strong>1.</strong> Projektmeeting<br />
zum K-Wiss-Programm reclip:more<br />
‘‘research for climate protection: model run evaluation‘‘<br />
Fr. 30.<strong>1.</strong> 2004 IMG – UZA II/ Althanstraße 14, 1090 Wien,<br />
10:00 – 13:00<br />
Themen: + Allgemeines zur Rechnungslegung<br />
Teilnehmer:<br />
+ Stand der Bearbeitung – Kurzberichte<br />
+ Projektfeinstruktur<br />
+ reclip:strat - Vorstellung der strategischen Begleitforschung<br />
+ Allfälliges<br />
Name Institution E-mail<br />
Manfred Dorninger IMG - Uni Wien manfred.dorninger@univie.ac.at<br />
Barbara Chimani<br />
IMG - Uni Wien barbara.chimani@univie.ac.at<br />
Bodo Ahrens IMG - Uni Wien bodo.ahrens@univie.ac.at<br />
Alexander Beck<br />
IMG - Uni Wien alexander.beck@univie.ac.at<br />
Herbert Formayer IMP - Boku herbert.formayer@boku.ac.at<br />
Wolfgang Schöner ZAMG wolfgang.schoener@zamg.ac.at<br />
Andreas Gobiet IGAM - Uni Graz andreas.gobiet@uni-graz.at<br />
Heimo Truhetz IGAM - Uni Graz heimo.truhetz@uni-graz.at<br />
Wolfgang Loibl ARC sys wolfgang.loibl@arcs.ac.at<br />
Johann Züger ARC sys johann.zueger@arcs.ac.at<br />
Thomas Roediger-Schluga ARC sys Thomas.roediger-schluga@arcs.ac.at<br />
Mario Köstl ARC sys mario.koestl@arcs.ac.at<br />
Protokoll: Köstl, Ergänzungen: Züger, Loibl<br />
Allgemeines zur Rechnungslegung<br />
Die Auftragsbestätigungen für 3 Partner (MIG-Dorninger,IMG-Ahrens; BOKU) mit<br />
Ersuchen um Überweisung der Anzahlung wurden von ARC business services nicht<br />
als Rechnung akzeptiert – dies allerdings erst Ende Jänner auf Nachfrage den ARC<br />
systems research mitgeteilt.<br />
Anhang 2 9
Loibl übermittelt an die Institute Vorschläge für die Formulierung einer<br />
Anzahlungsdrechnung (Anm. Köstl: bereits erledigt). Mehrere Teilnehmer geben zu<br />
bedenken, dass es aufgrund der Universitätsreform nun keine Institute mehr gibt und<br />
deswegen Rechnungen künftig über das Dekanat gehen müssen.<br />
Stand der Bearbeitung<br />
A) Daten, Antriebsdaten<br />
• Messdaten<br />
Schöner überreicht 2 CDs mit startclim-Daten; bezüglich der mittleren Tagesgänge (ca.<br />
15 Jahre, regionalisiert) möchte er noch etwas abwarten und die Daten-Ansprüche der<br />
Projektpartner abklären (Je eine CD geht an systems research und an IGAM, da die<br />
anderen Partner in StartClim involviert sind und die Daten auf direktem Wege<br />
bekommen, bzw. evtl. bereits bekommen haben)<br />
Bezüglich der Zugänglichkeit bzw. der Einrichtung einer Datenbank regt Loibl an, bei<br />
allen Institutionen wenn notwendig eine FTP-download area, für die Projektpartner<br />
einzurichten, systems research wird dies jedenfalls tun; weiters wurde diskutiert, eine<br />
Metadatenbank einzurichten, wo die Dateiname, Inhalte und FTP-Adressen der<br />
verfügbaren Datensätze erfasst sind.<br />
Formayer regt eine einheitliche Nomenklatur an. Auf Vorschlag von Loibl, sich da an<br />
StartClim zu orientieren, meint Formayer, dass dies dort nicht immer so einheitlich<br />
passiert wäre…)<br />
• EU-Synop-Daten, MAP-Daten, Wettersondendaten<br />
Dorninger überreicht jedem der Partner eine DVD (incl. kurzen word-Text mit<br />
Erklärungen und einem Abriss, wie die Daten mittels READ Befehl eingelesen werden<br />
können) mit dreistündigen SYNOP-Daten aus dem MARS-Archiv von 1979 bis 2000 für<br />
den Großraum Alpen (Rohdaten, zwar in ASCII-Format aufbereitet, allerdings nicht<br />
qualitätskontroliert!) und bittet die Projektpartner die Daten (laut ECMWF-Richtlinien)<br />
nicht außerhalb des Projektes zu verwenden bzw. diese nicht an Dritte weiter zu<br />
geben;<br />
Auf Frage von Truhetz zur Qualitätskontrolle erklärt er, dass bei diesen Daten der flag<br />
nicht berücksichtigt wurde, da VERA Clim eine eigene Qualitätskontrolle durchführt;<br />
Bei den MAP-Daten verweist Dorninger auf die Datenbank der ETH Zürich<br />
(http://www.map.ethz.ch/map-doc/datacenter.htm; dort gibt es zwei Kategorien von<br />
Daten – einerseits solche, die für alle Interessierten frei zugänglich sind, und<br />
andererseits sensible Daten, für die ein spezielles Zugriffsrecht notwendig ist (hierfür<br />
muss man das Projekt angeben, danach sollte man innerhalb von drei bis vier Wochen<br />
eine Zugriffsermächtigung erhalten); empfiehlt allen Validierern, sich die Datenbank<br />
anzusehen, um sich eine Meinung bezüglich der gewünschten Daten und der Termine<br />
zu machen);<br />
<strong>1.</strong> MAP-seasons umfassen die Jahre 1992-1999 jeweils von 16.-30-1<strong>1.</strong> jedes Jahres.<br />
Parameter: GTS Daten, 24h accumulated precipitation (Analyse nach Christoph Frei)<br />
2. MAP episodes sind spezielle, nach Wettersituation ausgesuchte Episoden. Es liegen<br />
vor: synoptische Beschreibung, verschiedenste Daten (nicht einheitlich), Ergebnisse<br />
von Modellsimulationen etc.<br />
3. zusätzliches Datenmaterial und ultra fine scale Simulationen während der SOP/IOPs.<br />
Die Frage von Formayer, ob, wenn der Zeitraum einmal definiert ist, ob dann nicht<br />
Dorninger die Daten downloaden könnte, bejaht dieser.<br />
10 Anhang 2
Auf Frage von Truhetz, ob auch Windmessungen vorhanden wären, wird auf spezielle<br />
Teilprojekte (zB FORM - Messungen im Rheintal – wo 3D-Windfelder zur Verfügung<br />
stehen) bzw. Radiosondenmaterial verwiesen. (Allerdings besitzen diese meist einen<br />
Feuchtebias, dh. sie sind i.d.R. zu trocken hier ist Qualitätskontrolle notwendig).<br />
Für die Verwendung der CALRAS Daten (qualitätskontrollierter Radiosondendatensatz)<br />
wurde Herr Häberli von Dorninger vor ca. zwei Monaten wegen der Datenbereitstellung<br />
kontaktiert. Dieser wird sich beim nächsten Wien-Aufenthalt darum kümmern (da es<br />
sich hier auch um high resolution data handelt, geht es hier auch um die Einholung<br />
einer Genehmigung von diversen Wetterdiensten);<br />
• ERA-40 Daten<br />
Loibl informiert, dass kein Ansuchen für ein special project notwendig wäre, um Daten<br />
zu erhalten, sondern ein einfacher Antrag um Genehmigung zum Datendownload via<br />
ZAMG/Dr. Wiehl genügt – dieser Antrag ist gestellt, die Zugangscodes sind für die<br />
kommenden Wochen zu erwarten; Züger berichtet, dass ein Datensatz mit 2,5° frei<br />
zugänglich ist, den er bereits für Probeläufe verwendet (allerdings war es dafür<br />
notwendig, den Zeitschritt zu halbieren, da es sonst immer wieder zu Verletzungen des<br />
CFL-Kriteriums kam);<br />
Anschließend erfolgte eine kurze Diskussion über numerische Instabilitäten: Truhetz<br />
verweist auf alternative Verwendung von CERA-Datenbank; Formayer gibt zu<br />
Bedenken, dass wahrscheinlich noch kleinere Zeitschritte notwendig sein werden;<br />
Beck sieht das Problem ev. in der vertikale Interpolation(von ERA-40 auf MM5<br />
Niveaus); für Ahrens’ Aladin-Rechnungen bestehen bei ERA-40-Daten keine<br />
Probleme;<br />
• GCM-Daten<br />
Truhetz berichtet von zwei in Frage kommenden transienten Läufen (ECHAM 4,<br />
T42/19 levels); nach Anfrage von Ahrens, ob man sich nicht schon auf T106 geeinigt<br />
hätte, kommt es zu reger Diskussion:<br />
Laut Protokoll vom 13.1<strong>1.</strong>2003 (Punkt B – Bereinigung von Unklarheiten hinsichtlich<br />
Antriebsdaten) gab es diese nicht, allerdings wurde von den meisten Meeting-Teil–<br />
nehmern T106 bevorzugt, sofern diese Daten zur Verfügung stünden. Gobiet regte<br />
damals an, sich zunächst auf T42 zu konzentrieren (da dieser Datensätze ausgereift<br />
und gut verfügbar sind) und T106 je nach Notwendigkeit für Sensitivitätstest einzusetzen.<br />
Formayer stellt u.a die Frage, ob in 6 oder 12-stündigen Intervallen abgespeichert<br />
werden sollte ( Datenmenge), Ahrens verweist darauf, dass dies von<br />
Domainlage/-größe und speziellen Wetterlagen abhängig wäre;<br />
Formayer schlägt vor, im Rahmen der Sensitivitätsstudien zu untersuchen, welche<br />
Unterschiede sich bei 6- bzw. 12-stündigen Forcing ergäben;<br />
Als Ergebnis der Diskussion gibt es eine Einigung auf T106 (dzt. verfügbar in CERA-<br />
Datenbank: ETH: 2041-2050, DMI: 2060-2089) mit 6stündigen Intervallen; dass diese<br />
Läufe ev. spätere Dekaden als geplant abdecken sollte kein Problem sein (da ohnehin<br />
vor 2050 keine großen Unterschiede der Szenarien zu erwarten sind). Gobiet und<br />
Truhetz nehmen dies zu Kenntnis;<br />
Bezüglich der control runs wendet Formayer ein, man sollte nicht die extremen 90er<br />
Jahre des 20. Jhdts. verwenden (ua. auch wegen Einfluss verstärkter Vulkantätigkeit),<br />
daher Einigung auf Zeitraum 1980er Jahre und das Jahr 1999 für die short-runs;<br />
Anhang 2 11
Dass GCMs laut Truhetz mit 30 Tagen pro Monat rechnen, ist laut Züger kein Problem,<br />
einzig der Beginn und die Länge des Zeitraums seien ausschlaggebend, da Sonnengang<br />
ohnehin auf 360 Tage bezogen wird; zusätzlich berichtet Truhetz, dass es einige<br />
spezielle Bezeichnungsdifferenzen bzgl. Datum/Jahreszahlen gibt, die ev. Änderungen<br />
des Modell-Codes erforderlich machen würden;<br />
Dass für verschieden Bodentiefen keine soil moisture, sondern nur eine gesamte soil<br />
wetness ausgegeben wird, sollte ebenfalls keine Probleme bereiten, da ohnehin bei<br />
der Initialisierung der LAMs der Boden als gesättigt angenommen wird;<br />
B) Sensitivitätstests – Validierung – (MM5-Programm-Kompatibilität)<br />
Formayer verweist auf Vorschlag von IMP-Gruppe und Rückmeldungen einiger<br />
Projektmitglieder (siehe E-mails vom 19.<strong>1.</strong>2004):<br />
Im Wesentlichen sollen Cumulus- und Grenzschicht-Parametrisierung, das explicit<br />
moisture scheme, die Strahlung und das SVAT (Soil Vegetation Atmosphere<br />
Transphere) Schema untersucht werden. Zusätzlich sollen Tests zur Dynamik des<br />
Modells über den Alpen (zB Südföhn, Nordföhn, Lee-Zyklogenese im Mittelmeer, Vb-<br />
Wetterlage, Kaltfront mit Starkwind an Alpennordseite) durchgeführt werden;<br />
Alle diese Untersuchungen sollten wenn möglich innerhalb eines Jahres durchgeführt<br />
werden (Ahrens verweist hierbei wegen MAP SOP auf das Jahr 1999.<br />
Nach Diskussion gibt es Einigung für 1999 als retrospektive short-run Episode.<br />
Ahrens möchte mit Aladin va. das SVAT Schema mit verschiedenen Klimafiles<br />
untersuchen (zB durch Austausch div. Kennzahlen). Zusätzlich könnte das IMG auch<br />
Untersuchungen bezüglich inkompatibler Parametersettings durchführen. Auch längere<br />
Läufe (1 Jahr oder mehr) können (und werden) am IMG durchgeführt werden.<br />
Im Zusammenhang mit den Sensitivitätstest verweist Formayer auch auf eine E-mail<br />
von Chr. Frei, in der dieser auf die Notwendigkeit von Tests für die Festlegung der<br />
Modelldomains, der Nestingstufen (Auflösungsschritte) und der Update-Frequency<br />
hinweist und zu bedenken gibt, dass Test von jeweils 2-3 Episoden mit einer Dauer<br />
von 2-5 Tagen eine sehr kleine Stichprobe für eine Entscheidung der geeigneten<br />
Parametrisierungsoption wäre. Frei schlägt vor die Episodenzahl zu vergrößern, im<br />
Sommer sogar mindestens zu verdoppeln. Je nach der Größe des Modellgebietes<br />
braucht es auch eine gewisse Zeit bis sich die feinskaligen Strukturen entwickelt<br />
haben. Die Spin up Zeit für ein Europäisches Modellgebiet liegt laut Frei in der Größenordnung<br />
von 2-4 Tagen. Damit das Verhalten der Parametrisierungen im Klimamode<br />
getestet werden können, müssten möglicherweise größere Episodendauern betrachtet<br />
werden.<br />
Zusätzlich muss geklärt werden, welche Felder (zB für Vergleich mit VERA Clim)<br />
ausgegeben werden sollten. Für spezielle Untersuchungen könnte das IMG punktuelle<br />
Versuchsdaten der BOKU zur Verfügung stellen.<br />
Auf Frage von Schöner, ob MAP episodes oder seasons verwendet werden sollen,<br />
erklärt Dorninger, dass beides sinnvoll und machbar wäre; Bezüglich Schneedaten<br />
verweist Formayer auf StartClim.<br />
Ahrens erklärt, dass er mit Aladin eine umgekehrte Vorgangsweise wählt: Ausgehend<br />
vom fixen Bodenschema sollen dabei die diversen Kennzahlen ermittelt werden;<br />
12 Anhang 2
Für VERA Clim stellt Dorninger die Frage nach der gewünschten Auflösung. Er wird die<br />
Arbeiten erst durchführen, nachdem man sich auf eine Auflösung geeinigt hat.<br />
Dorninger und Chimani bitten nochmals eindringlich die Modellierer, Probefiles der<br />
Modellausgaben zu übermitteln! Hierfür sollten die Modellierer so bald wie möglich<br />
jeweils ein Outputfile an barbara.chimani@univie.ac.at zwecks genauerer Spezifikation<br />
schicken. Um den Vergleich der Modelloutputs mit den VERA-Feldern zu berechnen<br />
sind folgende Felder notwendig: eine Datei mit der Modelltopographie (möglichst in der<br />
Form: Lambda, Phi, Höhe von jedem Gitterpunkt) und eine Datei mit den Daten für<br />
jeden Gitterpunkt:<br />
• Parameter der untersten Modellfläche: Temperatur, Druck, Feuchtemaß (spez. Feuchte<br />
oder Taupunkt), Höhe<br />
• Bodenparameter: T2m, Bodendruck und auf Meeresniveau reduzierter Druck,<br />
Feuchtemaß (rel. Feuchte oder Taupunkt), Tmin, Tmax, v10m (u- v- Windkomponente)<br />
Ein Format mit Lambda, Phi und anschließend den verschiedenen Parameter in<br />
einzelnen Spalten wäre von Vorteil. Wichtig natürlich jeweils in der Auflösung mit der<br />
sie dann die retrospektiven Läufe durchführen werden (vgl. e-mail vom 4.12.2003).<br />
C) Modellierung<br />
• Modellierung mit MM5<br />
Züger berichtet über Erfahrungen bezüglich Domain-Festlegung bzw. Auswirkungen<br />
durch Verschiebungen der Domains (besonders des Mother Domains).<br />
Es gab bereits Untersuchungen der verschiedenen Schemata und Randbedingungen,<br />
allerdings kann hier nicht beurteilt werden, ob eine Parametrisierung besser ist als eine<br />
andere (die Ergebnisse sind anders, aber nicht wirklich besser oder schlechter).<br />
Jedenfalls kann gesagt werden, dass die Wahl der Lage und der Größe der Domains<br />
großen Einfluss auf die Ergebnisse hat.<br />
Das in systems research momentan verwendete Setup verwendet 3 Domains mit<br />
40x70, 61x76 und 94x139 Gitterpunkten und Auflösungen von 90, 30 und 10 km. Es<br />
wird momentan eine Lambert-Projektion mit dem Zentrum bei 13°30’ Länge und 48°<br />
Breite und den 1 st und 2 nd TrueLatidutes bei 46° und 49° verwendet. In Zukunft wird<br />
dies auf Werte der in Österreich aktuell gebräuchlichen Lambert-Projektion geändert<br />
(Zentrum bei 13°20’ und 47°30’). Die äußerste Domäne reicht vom Atlantik bis zur<br />
Kaspischen See und von Nordafrika bis Südskandinavien, die 2. Domäne von der<br />
Atlantikküste bis zum Bosporus und von Sizilien bis Dänemark, die innerste Domäne<br />
vom Golf von Genua bis Südpolen.<br />
Formayer merkt die Wichtigkeit der Tatsache an, dass Übergänge der einzelnen<br />
Nestings sorgfältig ausgewählt werden müssen (zB nicht bei Gebirgskämmen etc.) da<br />
es sonst zu Schwierigkeiten kommen kann.<br />
Truhetz berichtet von Versuchen mit MM5 V3.6.2 das Ergebnis des Datensatzes<br />
„storm of the century“ des NCAR mit nachzurechen: Dabei wurden für einzelne<br />
Parameter Abweichungen von 1/10 % beobachtet, obwohl nur 12 Stunden gerechnet<br />
wurden! Als Erklärung dafür wurden unterschiedliche Compiler bzw. Plattformen<br />
genannt. Die wahrscheinlichste Erklärung allerdings dürfte sein, dass das NCAR nicht<br />
mit IEEE Festlegung gerechnet hat (auf IEEE-Maschinen mit den entsprechenden<br />
compilern müsste laut Beck vollständige Übereinstimmung erreichbar sein! In der<br />
Praxis, sprich bei sehr komplexen Programmen, geht das oft nicht. Was aber jedenfalls<br />
moeglich sein sollte, ist dass bei erzwungener IEEE-Kompatibilität die Unterschiede<br />
am geringsten sein müssen.);<br />
Anhang 2 13
Beck regt deswegen Tests der beteiligten Institutionen ARC – IGAM – IGM an,<br />
Formayer schränkt ein, dies wäre nur dort notwendig, wo Plattformübergreifende Tests<br />
für dieselben Zeiträume durchgeführt werden.<br />
Auf Frage von Truhetz bezüglich der Zängl-Version von MM5 meint Formayer, das bei<br />
der in reclip:more angestrebten Auflösung wahrscheinlich keine maßgeblichen<br />
Unterschiede zu erwarten sind, er könnte sich diesbezüglich aber Sensitivitätstest<br />
vorstellen;<br />
• Modellierung mit Aladin<br />
Ahrens berichtet von coupling-Strategien bei Aladin: es ist nur eine Nestigstufe mit<br />
260 x 220 Zellen vorgesehen (Mehrfaches nesting verschlechtert laut Ahrens die<br />
Performance erheblich), dies würde eine Auflösung von ca. 15 km ergeben (Züger<br />
meint, dass bei Verwendung von T106 bei MM5 auch nur 2 nests notwendig wären);<br />
Zusätzlich bemerkt Ahrens nochmals, dass für die Modellvergleiche ohnehin eine<br />
Aggregierung von ca. 4 Gitterzellen notwendig ist (dh. der Vergleich müsste auf einer<br />
Skala von 40 – 60 km erfolgen;<br />
Formayer meint, dass subskalige Effekte aus VERA herausgerechnet werden müssen<br />
und ein Gitterzellen-Vergleich daher durchaus sinnvoll sei; Beck meint hingegen, dass<br />
dies aufgrund numerisch unterschiedlicher Gitterpunkte nicht sinnvoll wäre;<br />
Nach kurzer Diskussion sind sich alle Teilnehmer einig, dass durch Verwendung des<br />
„standardisierten“ Gitter von VERA Clim keine Problem beim Vergleich auftreten<br />
sollten;<br />
D) Regionalisierung<br />
Loibl gibt kurze Einführung und berichtet kurz von 2 Regionalisierungs-Meetings mit<br />
Schöner wo Literatur gesichtet und über unterschiedliche Methoden diskutiert wurde.<br />
Für die Modellierung von Tmean, Tmax, Tmin, Niederschlag ist geplant die AURHELY-<br />
Methode einzusetzen, Schneedecke wird aus NS und Temperatur abgeleitet.<br />
Globalstrahlung wird mit einem physikalischen Modell über Sonnenstand, Evwölkung<br />
und Exposition gerechnet. Wind wird ebenfalls numerisch gerechnet.<br />
Schöner merkt an, dass es sich bei der Regionalisierung um zwei Schwerpunkte<br />
handelt: einerseits um ein herkömmliches Downscalingverfahren und andererseits um<br />
die Verfeinerung auf ca. 1 km. Va. für das Downscaling von Tmin, Tmax sind noch<br />
zusätzliche Recherchen und gegebenenfalls Überlegungen notwendig.<br />
Truhetz erläutert nochmals kurz den Projektteil Wind. Hierfür soll das diagnostische<br />
mikroskalige Modell CALMET auf MM5 mit feinem DHM aufgesetzt werden. Der Plan<br />
ist, das bodennahe Windfeld auf eine Auflösung < 1 km zu regionalisieren. Für die<br />
benötigten Eingangsdaten Rauhigkeitslänge [m], Albedo der Oberfläche (hierbei ist die<br />
schneefreie Albedo gemeint), Bowen-Verhältnis Wärmeflussparameter des Bodens Cg<br />
und (optional) Anthropogenetischer Wärmeeintrag Qf [W/m2] stehen eine Übernahme<br />
von Werten aus Fachliteratur, ev. Fernerkundungsdaten bzw. Modellergebnisse von<br />
Aladin bzw. MM5 zu Auswahl.<br />
Formayer gibt zu bedenken, dass die Auflösung der Landbedeckung ev. ein Problem<br />
darstellen könnte; auf seine Frage bezüglich extremer Windgeschwindigkeiten meint<br />
Truhetz, dass thermische Effekte vernachlässigt werden müssen, da ansonsten<br />
größere Probleme zu erwarten sind;<br />
14 Anhang 2
Projektfeinstruktur<br />
Loibl stellt sich folgende Einteilung bzw. Verantwortlichkeiten vor:<br />
Daten:<br />
Ö Messdaten: Schöner<br />
EU Daten: Dorninger<br />
ERA-40: Ahrens + Züger<br />
GCM: Gobiet /Truhetz<br />
Modellierung, Modellparametrisierung:<br />
MM5: Züger (Version, Code-Abgleich, Binär-Ergebnis-Check);<br />
Mitarbeit Gobiet/Truhetz, Formayer<br />
Aladin: Ahrens Mitarbeit Beck<br />
Validierung und Sensitivitätstest:<br />
Formayer - Mitarbeit Gruppe IMP, Ahrens/IMG, Dorninger/IMG<br />
Mitarbeit Chimani, Gobiet (3D), Köstl, Züger<br />
Regionalisierung:<br />
Loibl (Tmin, Tmax, Strahlung)<br />
Mitarbeit: Schöner (Tmean, NS, Schnee), Truhetz (Wind),<br />
Züger (Program-Coding systems research)<br />
Da dies von den Projektpartnern akzeptiert wird, sollen bis Mitte/Ende Februar<br />
Entwürfe der tatsächlichen Umsetzung der Workpackages (sofern sie nicht bereits<br />
vorliegen: zB IGAM, IGM, tw. BOKU) erfolgen;<br />
reclip:strat – Vorstellung der strategischen Begleitforschung<br />
Thomas Rödiger-Schluga stellt Aufgaben und Ziele von reclip:strat vor, bietet für alle<br />
Projekteilnehmer Unterstützung an und vereinbart Interviewtermine;<br />
Allfälliges<br />
Zur Einladung von internationalen Experten für den geplanten Workshop kämen laut<br />
Loibl für Herrn Keuler/Uni Cottbus (Projektleiter Quirks) der 16.4. in Frage: Mit Rasmus<br />
Benestad/ Met.No wurde seitens Schöner Kontakt aufgenommen.<br />
Schöner kann am 15.-16.4. definitiv nicht, weshalb Loibl zusagt, mit Herrn Keuler einen<br />
neuen Termin auszuverhandeln.<br />
Dorninger wünscht sich, dass Keuler/Benestad ev. auch am wöchentlichen Kolloquium<br />
am Institut (immer Dienstag!) Vortragen würde.<br />
Formayer berichtet von stattfindenden Workshop in Lund (Schweden) zwischen 29.3.<br />
und 2.4. und meint, dass unbedingt ein bis zwei Projektpartner (Formayer, Züger ?)<br />
daran teilnehmen sollten, da dort die wichtigsten Fachleute auf dem Gebiet Regionalmodellierung<br />
anwesend sein werden – eine Anmeldung hierfür wäre noch möglich<br />
(nähere Details finden sich unter http://dvsun2.gkss.de/workshoplund bzw..<br />
https://dvsun2.gkss.de/domino/html/lund.nsf)<br />
Gobiet erzählt von geplantem PRUDENCE-Workshop, bei dem ebenfalls jemand aus<br />
der Gruppe teilnehmen sollte – genauere Details wären ihm aber nicht bekannt;<br />
Anhang 2 15
Von den Projektpartnern wurde eine reclip:more-Homepage und ein reclip:more –<br />
Poster angeregt, wobei letzteres bei allen relevanten Tagungen aufgehängt werden<br />
sollte. Loibl wird die Anregung aufnehmen.<br />
Loibl berichtet von ProVision, wo Klima-/Folgen-/Forschungsrelevante Themen<br />
Themen eingereicht werden sollten. Termin für Proposaldrafts 28.2.2004, Start-up<br />
Workshop 9.3.2004.<br />
Loibl dankt den Anwesenden für ihre Beiträge und ihre Beteiligung an den<br />
Diskussionen und schließt die Sitzung pünktlich(!) um 13 h.<br />
16 Anhang 2
Protokoll:<br />
2. Projektmeeting<br />
zum K-Wiss-Programm reclip:more<br />
‘‘research for climate protection: model run evaluation‘‘<br />
Do. 27.05. 2004 ARC systems research Stadtbüro/ Kolingasse 11/11, 1090 Wien<br />
11:00 – 14:30<br />
Themen<br />
1) Diskussion ECHAM Antriebsdaten<br />
2) Berichte über den Arbeitsfortschritt<br />
2a) allgemeine Datenbereitstellung: Antriebsdaten, diverses<br />
systems research<br />
2b) Modellierung:<br />
IMG-Ahrens, IGAM, systems research<br />
2c) Sensitivitäts-Tests- Vorgaben:<br />
IMG-Ahrens, BOKU-Met<br />
2d) Modell-Evaluierung/Modell-Vergleich-Vorgaben:<br />
BOKU-Met, IMG-Dorninger<br />
3) Allfälliges<br />
Bemerkung: die geplanten Tagesordnungspunkte „Regionalisierung, Abstimmung“<br />
(bezüglich zu liefernder Ergebnisse und Teilberichte) und „Offerte für Projektjahr 2“<br />
(Inhalte, Termine) wurden auf das nächste Treffen verschoben<br />
Teilnehmer:<br />
Name Institution E-mail<br />
Manfred Dorninger IMG – Uni Wien manfred.dorninger@univie.ac.at<br />
Barbara Chimani IMG – Uni Wien barbara.chimani@univie.ac.at<br />
Bodo Ahrens IMG – Uni Wien bodo.ahrens@univie.ac.at<br />
Andreas Frank BOKU-Met reclip@imp<strong>1.</strong>boku.ac.at<br />
Petra Seibert BOKU-Met petra.seibert@imp<strong>1.</strong>boku.ac.at bzw.<br />
reclip@imp<strong>1.</strong>boku.ac.at<br />
Elsa Dos Santos Cardoso ZAMG elsa.santos@zamg.ac.at<br />
Wolfgang Schöner ZAMG wolfgang.schoener@zamg.ac.at<br />
Andreas Gobiet IMAG - Uni Graz andreas.gobiet@uni-graz.at<br />
Heimo Truhetz IMAG - Uni Graz heimo.truhetz@uni-graz.at<br />
Wolfgang Loibl ARC sys wolfgang.loibl@arcs.ac.at<br />
Johann Züger ARC sys johann.zueger@arcs.ac.at<br />
Mario Köstl ARC sys mario.koestl@arcs.ac.at<br />
Protokoll: Köstl, mit Ergänzungen von Züger und & Loibl, Korrekturen von Seibert &<br />
Frank<br />
Anhang 2 17
1) Diskussion ECHAM Antriebsdaten<br />
In den letzten Wochen (s. ua. Mails von Ahrens und Gobiet vom 3.5, 4.5. 1<strong>1.</strong>5. und<br />
17.5.) hat sich eine interessante Alternativen zu den bis dato geplanten Modell<br />
ECHAM4 T106 (Lugano-Experiment (IS92a): 1971-1980, 2041-2050.) ergeben:<br />
ECHAM5 T106 (1960-1990, 2041-2050*) hätte den Vorteil, dass aufgrund des<br />
Zeitraums (60-90) – anders als beim ECHAM4-Lauf – den ECHAM-getriebenen RCM-<br />
Lauf nicht nur mit ERA-40, sondern auch mit Beobachtungen direkt zu validieren. Das<br />
Modell hat sich weiterentwickelt, und ist durchaus zu verwenden.<br />
Laut Ahrens (nach Kontakt mit Martin Wild von der ETH Zürich) ist der retrospektive<br />
Lauf schon dokumentiert.<br />
Da auch das „Lugano-Experiment“ als KEIN control run mit fixierter CO2-Konzentration<br />
ist, sondern mit gemessenen CO2-Konzentrationen gerechnet wurde, würde kein<br />
zusätzliches Problem entstehen. Ahrens meint sogar, da ERA-40 ja auch „was<br />
transientes ist„ dies sogar ein Vorteil wäre.<br />
Zusätzlich meint Gobiet, dass in 2 Jahren, wenn die ersten Ergebnisse von reclip<br />
ECHAM4 Antriebsdaten nicht mehr als 'state of the art' argumentierbar seien.<br />
Der Nachteil wäre, dass noch kein prospektiver Lauf existiert (es gibt aber eine<br />
informelle Zusage von Martin Wild diesen Lauf für die reclip-Gruppe durchzuführen).<br />
Zusätzlich ist auch zu bedenken, dass der ECHAM4-Lauf besser untersucht und<br />
Schwächen besser bekannt sind.<br />
Gobiet und auch Ahrens tendieren stark zu ECHAM5, haben aber praktische<br />
Bedenken und schlagen deshalb folgende Vorgehensweise vor:<br />
Ahrens wird in den nächsten Wochen mit Martin Wild konkret ausmachen, dass der<br />
prospektive Lauf in einer für reclip nutzbaren Form tatsächlich gerechnet und zur<br />
Verfügung stehen wird. Falls bis zu bewissen Stichtag (voraussichtlich der 17. Juni)<br />
keine definitive Zusage zu erreichen ist, bleibt wir beim Lugano-Experiment (ECHAM4).<br />
Auf Frage von Seibert „Warum überhaupt 1980er Zeitraum?“, wird auf bessere<br />
Datengrundlage (Marsarchiv, VERA – vgl. Protokoll vom 13.1<strong>1.</strong>) hingewiesen. Seibert<br />
meint hingegen, „die Beobachtungsdaten seien in diesem Zeitraum auch nicht viel<br />
besser“.<br />
Züger & Loibl schließen sich Argumentation von Gobiet und Ahrens an, Seibert gibt<br />
nochmals allg. Skepsis des (nichtanwesenden) Formayer wider (Stichwort nicht<br />
repräsentive, außerordnentliche Vulkantätigkeit in diesem Jahrzehnt) und fragt ob<br />
ECHAM5 Lauf Variationen in den externen Randbedingungen wie zB Vulkanaerosol<br />
beinhaltet. Dies wird verneint.<br />
Nach allgemeiner Diskussion wird Vorschlag „ECHAM5 – wenn möglich“ akzeptiert.<br />
Zusätzlich steht bereits ein 2tägiger Testdatensatz zur Verfügung.<br />
2) Berichte über den Arbeitsfortschritt<br />
2a) allgemeine Datenbereitstellung: Antriebsdaten, Diverses:<br />
Züger berichtet von Problemen mit ERA-Daten: Er hat Datensätze vom Web-Portal<br />
(Jahr 1999, nördl. Hemisphäre mit 1° Auflösung, alle Druckflächen) heruntergeladen –<br />
18 Anhang 2
(ca. 10 Gbyte). Beim Downloaden kam es zeitweise zu Fehlern, so dass die falschen<br />
Felder extrahiert wurden und teilweise unrealistische Bodentemperaturen von über 70°<br />
Celsius auftreten. Die genauen Analysen, wo der Fehler liegt sind zurzeit im Laufen.<br />
Zusätzliche Probleme ergeben sich durch Definition der Bodenschichten. Diese sind<br />
laut ECMWF-Beschreibung in Intervallen von 0-7 cm, 7-28 cm, 28-100 cm und<br />
100-289 cm gegeben. Die letzte Schicht ist aber in den Datensätzen mit 100-255 cm<br />
abgespeichert. Es mussten deshalb einige Routinen der MM5-Präprozessoren<br />
geändert werden, da dies sonst gewisse Parametersetzungen nicht erkennen.<br />
Seibert wünscht genauere Spezifikationen über Art und Anzahl der Levels und<br />
Parameter. Generell besteht aber offensichtlich ein Problem bei der Dokumentation.<br />
Dies sollte laut Seibert geklärt werden.<br />
Züger sagt zu, eine Tabelle mit entsprechenden Angaben als Anhang dem Protokoll<br />
beizufügen. (Dies wurde bereits mit Protokoll<strong>version</strong> 1 verschickt)<br />
Im Anschluss kommt es zur allgemeinen Diskussion bezüglich der Datenaufbereitung.<br />
Gobiet verweist auf unbedingte Notwendigkeit einer gemeinsamen Datenaufbereitung.<br />
Züger meint er hätte Pregrid ohne größeren Aufwand modifiziert, diese veränderte<br />
Version stellt er gerne den anderen Projektpartnern zur Verfügung<br />
Ahrens stellt Frage, ob die Datenaufbereitung auf Druckflächen erfolge (bei Aladin<br />
geschehe die auf den Modellflächen, bei MM5 laut Züger auf Druckflächen). Frage der<br />
Zusammenführung der Ergebnisse von Aladin nach Modellflächen und bei MM5 nach<br />
Druckflächen blieb offen?<br />
Truhetz verweist für Daten-Interpretation auf Einlesemodul Pingos als geeignetes<br />
Werkzeug.<br />
Die Anwesenden einigen sich darauf, dass die Originaldaten nicht verändert werden<br />
sollten, sondern die Einleseroutinen angepasst werden müssen<br />
Frage von Loibl an Ahrens, ob auch bei Aladin vergleichbare Probleme mit ERA-40<br />
Daten auftreten wird verneint. Es wurden bereits mehrfache Läufe für das Jahr 1999<br />
ohne Probleme durchgeführt<br />
Seibert fordert Kontroll-Vergleich mit IGM-Ahrens/Beck. Die Seibersdorfer Daten<br />
sollten nochmals überprüft werden. Loibl stimmt dem zu und avisiert Kontakt Züger-<br />
Beck.<br />
Frank verweist auf MetView als Tool zur Datenüberprüfung, Züger verwendet den in<br />
MM5 integrierten Grib-Analyser;<br />
Dorninger sieht möglicherweise Probleme bei ECMWF-Daten Diskussion über Grib-<br />
Format.<br />
Züger: Das Grib-Format der ERA-40-Daten ist bei ECMWF dokumentiert, wird von den<br />
MM5-Präprozessoren im Allgemeinen auch verstanden und sollte daher kein Problem<br />
darstellen.<br />
Anhang 2 19
2b) Modellierung:<br />
Ahrens berichtet von durchgeführten Testläufen (zT in Lund präsentiert), va. bezüglich<br />
diverser Kopplungsstrategien. Das Jahr 1999 wurde mit verschiedenen Varianten<br />
gerechnet, wobei jeder Tag neu initialisiert wurde. Derzeit erfolgt eine umfassende<br />
Auswertung (siehe ua. auch: Beck et.al., Geophys. res. letters (in press) Impact of<br />
nesting strategies in dynamical downscaling of reanalysis data (attachment zur<br />
.Ahrens-mail vom 10.03.2004))<br />
Das Downscaling erfolgte von 120 km auf 12 km ohne Zwischennest. Probleme<br />
können an den Rändern von großen Domains auftreten, da es hier zu Verzerrungen<br />
kommt. Dabei stellt sich die Frage (auch von Seibert gestellt) ob und in wieweit die<br />
interne Dynamik zugelassen werden soll.<br />
Ahrens meint, die tägliche Initialisierung erfolgte hauptsächlich deswegen, weil Aladin<br />
kein eigentliches Klimamodell wäre und daher das regionale Modellklima nicht<br />
unbedingt verlässlich sei. Zwar würde das Modell „nicht schlecht“ funktionieren, aber<br />
es bestünde in diesem Zusammenhang einfach noch zu geringe Erfahrung.<br />
Loibl schlägt vor, einen Vergleich mit und ohne täglicher Initialisierung in die Sensitivitätsuntersuchungen<br />
aufzunehmen.<br />
Züger verweist auf Determinierung durch die Randbedingungen und berichtet von<br />
Ergebnissen bei denen sich die Werte bei unterschiedlichen Startterminen nach ca. 4-5<br />
Tagen wieder angleichen.<br />
Seibert fordert, dass sich MM5 und Aladin-Modellierer auf einheitliches Setup (Neu-<br />
Initialisierung, Nudging, Domaingröße etc.) einigen und meint, dass ein LAM doch in<br />
der Lage sein muss, die feinen Skalenphänomene besser zu beschreiben und<br />
gleichzeitig die großräumigen Skalenphänomene zu erhalten. Dies könne doch durch<br />
ein Nudging im Inneren besser erreicht werden, einem täglichen Initialisieren stehe sie<br />
sehr skeptisch gegenüber.<br />
Replik von Truhetz und Züger: „Nudging sei ein durchaus „ein zweischneidiges<br />
Schwert“; Züger erwähnt hierbei auch ähnliche Diskussionen diesbezüglich in Lund.<br />
Die Frage hier wie dort ist nämlich: Wollen wir ein möglichst genaues Abbild der<br />
Antriebsdaten auf kleinräumige Strukturen (=dynamisches Downscaling), oder soll das<br />
Modell in der Lage sein auf Grund seiner eigenen Physik die Vorgänge in der<br />
Atmosphäre zu beschreiben (=regionales Klimamodell).<br />
Ahrens weist darauf hin, dass man zwischen eigentlicher (Regional)Klimaforschung<br />
einerseits und der Generierung der „besten“ Ergebnisse für Anwendungen<br />
unterscheiden müsse. Regionale Effekte blieben durch das „Bodengedächtnis“ durchaus<br />
erhalten.<br />
Truhetz meint, dass eine ständige Neuinitialisierung bei MM5 nicht so ohneweiters<br />
möglich wäre und deshalb Nudging hier durchaus sinnvoll ist.<br />
Gobiet drängt darauf, dass diese Betrachtungen (mit/ohne Nudging/Neuinitialisierung)<br />
Ebenfalls im Rahmen der Sensitivitätstests untersucht werden sollen. Dem stimmen<br />
die Anwesenden zu.<br />
20 Anhang 2
Züger berichtet bei Verwendung von ERA-40-Daten von Verletzungen des CFL-Kriteriums.<br />
Es wurden deshalb Tests mit unterschiedlichen internen Zeitschritten durchgeführt.<br />
Halbiert man den Zeitschritt so kommt es zu großräumigen Unterschieden der<br />
Temperatur von bis zu 6° Celsius!<br />
Ausgehend von Frage von Seibert, ob es in MM5 eine Trennung zwischen Advektion<br />
und Diffusion (sowohl vertikal wie horizontal) gibt und ob hier die Ursache liegen könne<br />
(Crank-Nicholson sei zwar stabil, hätte aber einen großen truncation error), kommt es<br />
zur einer Diskussion bezüglich der Unterschiede zwischen expliziten, semi-expliziten<br />
und impliziten Schemata.<br />
Truhetz meint in diesem Zusammenhang, dass es sich sicherlich um ein implizites<br />
Schema handelt, allerdings gäbe es in MM5 eine Vielzahl verschiedener Varianten zur<br />
Beschreibung der PBL (MRF zum Beispiel verwendet für die vertikale Diffusion ein<br />
implizites Schema).<br />
Truhetz berichtet kurz von Fortschreiten der Windmodellierung: Es wurde ein DHM mit<br />
90m Auflösung der SRTM Mission generiert; Fehler (va. durch Schattenphänomene)<br />
wurden mittels SRMT30 (gleiche Datengrundlage, aber 30’ Auflösung) semistatistisch<br />
bereinigt. Dabei gab es Probleme aufgrund von Versetzungen gegenüber GTOPO30.<br />
2c) Sensitivitäts-Tests- Vorgaben:<br />
Seibert und Frank verteilen die von BOKU-Met erarbeiteten Vorschläge zur<br />
Modellevaluierung und stellen diese zur Diskussion:<br />
Die Modellevaluierung soll einerseits die Auswahl eines möglichst optimalen Setups für<br />
MM5 und Aladin (Domain, Gitter, Modellphysik) dienen und andererseits einen<br />
vergleichenden Test der Leistungsfähigkeit der beiden Modelle in Hinblick auf<br />
Klimaanwendungen ermöglichen. Vorgeschlagen werden ua. Episodensimulationen mit<br />
Randbedingungen aus ERA-40 mit und ohne Nudging sowie eine 1-Jahres-Simulation<br />
mit Randbedingungen aus ERA-40 zur Optimierung des SVAT-Schemas und für<br />
vergleichenden Test der beiden Modelle sowie zur Abschätzung der Leistungsfähigkeit<br />
der Modelle.<br />
Neben den statistischen Standardparametern sollen auch zusätzliche, zT neuentwickelte<br />
Parameter berechnet werden (Ausführliches siehe Mail von Seibert vom<br />
14.5.2004). Zusätzlich werden Evaluierungsmethoden für die verschiedenen Datenquellen<br />
bzw. Parameter vorgeschlagen.<br />
Bezüglich der Validierungsstrategien schlägt Frank eine leicht veränderte Domainlage<br />
vor (vgl. Seite 1-3, Unterlage 2) und empfiehlt von der bisher geplanten Vorgehensweise<br />
eines zweifachen Nestings bei MM5 (90 – 30 – 10 km) abzugehen und nur eine<br />
Nestingstufe zu verwenden (30/10 km oder 45/15 km) (falls dies im Hinblick auf die<br />
dann notwendigen größeren Domains mit feinerer Auflösung rechentechnisch<br />
leististbar ist). Der Unterschied der Auflösung zwischen 15 km und 10 km soll mittels<br />
Sensitivitätstest ermittelt werden (vgl. Seite 3, Unterlage 2), es wird aber angenommen,<br />
dass sich keine gravierenden Unterschiede ergeben.<br />
Nach kurzer Diskussion mit Züger und Gobiet stimmen die Anwesenden dem zu.<br />
Dorninger erklärt auf Anfrage von Truhetz und Gobiet nochmals die VERA-Spezifikation<br />
(Gitterpunkt zu Gitterpunkt 20 km).<br />
Anhang 2 21
Ausgehend von der vorgeschlagenen Episoden-Auswahl (Seite 4, Unterlage 2) entwickelt<br />
sich nochmals eine Diskussion bezüglich des Einflusses von „kurzfristigen“<br />
Phänomen bei runs im Klimamodus (vgl. oben – Stichwort Neuinitialisierung). Züger<br />
bezweifelt Notwendigkeit/Sinnhaftigkeit. Dorninger hält fest, dass unter Annahme bestmöglicher<br />
Rand und Anfangsbedingungen es durchaus wichtig ist, zu untersuchen<br />
inwieweit die Modelle synoptische Phänomene wiederzugeben in der Lage sind.<br />
Ahrens verweist hingegen darauf, das es bei Einzel/Episodenereignissen ev. zu Verschiebungen<br />
im Vergleich zu ERA-40 kommen kann.<br />
Als statistische Parameter sollten<br />
• Mittelwert,<br />
• RMSE,<br />
• Bias bzw. Bias-korrigierter RMSE,<br />
• das Taylor-Diagramm mit seinen Statistiken (Standardabweichungen zwischen<br />
Modell und Beobachtung sowie der Korrelationskoeffizient)<br />
• der Fisher skill score,<br />
• der Bias skill score und<br />
• der total skill score<br />
zur Verwendung kommen.<br />
Seibert verweist vor allem auf die Generierung eines „total skill score“ hin und fragt, ob<br />
dieser akzeptabel wäre. Dorninger gibt Bedenken bezüglich des Namens an (wegen<br />
ev. fehlenden Referenz), Seibert sieht dies nicht so („vergleichen ja mit Beobachtungen“).<br />
Grundsätzlich wird den vorgeschlagenen Parametern zugestimmt, Gobiet will jedoch<br />
sichergestellt wissen, dass auch die statistischen Einzelgrößen gespeichert bleiben.<br />
Dem wird zugestimmt.<br />
Seibert schlägt namens BOKU-Met vor, ein Programm zur Berechnung der statistischen<br />
Parameter zu zu erstellen, dass den Projektpartnern zur Verfügung gestellt<br />
wird, damit diese die Indikatoren selbst berechnen (und nur die Analyse-Ergebnisse an<br />
BOKU-Met übermitteln anstatt der Modellergebnisse). Dies wird von den Anwesenden<br />
akzeptiert.<br />
Als zu evaluierende meteorologische Parameter schlägt Seibert primär Geopotential<br />
und Temperatur der 850 hPa Fläche vor (wobei beide nur in Gebieten mit darunter<br />
liegender Topographie, d.h. außerhalb der Alpen evaluiert werden sollen), sowie als<br />
Feuchtemaß die spezifische Feuchte (g Wasserdampf pro kg feuchter Luft) vor, da der<br />
Dampfdruck höhenabhängig ist und sowohl ERA als auch MM5 und Aladin die<br />
spezifische Feuchte verwenden (850 hPa, Gebiet wie bei beiden anderen Parametern).<br />
Zusätzlich stellt sie Bodendruck und 500 hPa Geopotential zur Diskussion.<br />
Zusätzlich ist laut Dorninger ist die 500 hPa Fläche zusätzlich sinnvoll, da man diese<br />
ev. für Vergleiche mit Radiosondenaufstiegen verwenden kann. Beim Bodendruck<br />
sollte der (auf VERA-Topographie?) reduzierte Druck evaluiert werden, da dieser sehr<br />
vertrauenswürdig wäre.<br />
Es wird Einigung dahin gehend erzielt, dass die 500 hPa Fläche verwendet werden<br />
soll, der Bodendruck jedoch nicht.<br />
22 Anhang 2
Die Evaluierung soll sich auf Felder zu den synoptischen Hauptterminen (00, 06, 12, 18<br />
– also sechsstündig) stützen und nach Berücksichtigung der Spin-up-Zeit (48h, ev.<br />
72h, laut Züger sogar mehr) beginnen.<br />
Als Upscaling-Methode wird die Überführung der Parameter auf Druckflächen mittels<br />
Modell-Postprozessoren und anschließender Interpolation auf das ERA-40 Gitter<br />
mittels Cressman-Methode vorgeschlagen. Der großräumige Vergleich sollte auf einer<br />
Skala von 500 oder 100 km („Varianz auf 1° Gitter?“) vorgenommen werden, ev. sollte<br />
vorher eine Glättung erfolgen. Ahrens verweist hierbei auf LACE-Domain.<br />
Auf die Frage von Truhetz zur Eignung der Cressman-Methode meint Ahrens, dass<br />
diese zwar eigentlich für Punktvergleiche entwickelt worden wäre, sie aber wegen der<br />
stattfindenden Glättung durchaus auch für Flächen geeignet wäre.<br />
Als Kenngrößen sollten alle oa. 8 Kenngrößen für jeden Evaluierungszeitschritt und<br />
jeden meteorologischen Parameter, für die gesamte Evaluierungsperiode und jeden<br />
met. Parameter sowie der Gesamt-Skill-Score gemittelt über alle met. Parameter für<br />
die gesamte Evaluierungsperiode berechnet werden. Dorninger meint dazu, dass die<br />
Angabe eines Gesamt-Skill-Scores zu wenig wäre.<br />
Gobiet spricht sich prinzipiell für Vergleiche zwischen GCM und ERA aus.<br />
Auf die Anmerkung von Ahrens, dass noch Sensitivitätstests mit gröberer ERA-<br />
Auflösung für die Auswahl des Modellsetups fehlen würde, entwickelt sich allgemeine<br />
Diskussion. Seibert will wissen welche Auflösung die jeweiligen Daten (sowohl ERA als<br />
auch ECHAM) haben. Es stellt sich heraus, dass die GCM Daten T106 Auflösung<br />
haben, ERA-40 wurde jedoch mit T160 gerechnet. Auf Antwort von Züger, dass<br />
mehrere die ERA-Daten in einer Auflösung, welche T106 entspricht, heruntergeladen<br />
werden könntenladbar seien, meint Seibert, es reiche nicht aus einfach gröbere Daten<br />
herunterzuladen, vielmehr muss verifiziert werden, wie diese Daten erzeugt werden.<br />
Dies gilt auch für die Daten des Mars-Archivs: wurde spektral abgeschnitten, wenn ja<br />
wie?<br />
Um Vergleichbarkeit zu gewährleisten, muss spektral abgeschnitten werden, nicht<br />
einfach nur die T160-Daten auf einem <strong>1.</strong>5-Grad Gitter abgegriffen werden.<br />
Züger und Truhetz erklären sich bereit, dies bis zum nächsten Mal zu klären.<br />
Seibert bezweifelt den Sinn eines dynamischen Downscalings der Reanalyse und<br />
verweist dabei auf die Kosten.<br />
Loibl meint, dies geschehe, um die Effekte der LAMs mit den „besten“ zur Verfügung<br />
stehenden Antriebsdaten zu zeigen. Der Vergleich mit den GCM geschehe ja nur beim<br />
long run. Seibert bleibt skeptisch und gibt zu bedenken, dass dies bei der Entwicklung<br />
des Modellsetups zu berücksichtigen ist.<br />
Schließlich sind die meisten Anwesenden der Meinung, die bereits bei den letzten<br />
Meetings fixierte Vorgehensweise beizubehalten.<br />
Bezüglich der Parameter für die Evaluierung mit ERA-40 Daten zu liefender Karten<br />
bzw. Querschnitte einigen sich die Anwesenden auf H500, T850 und S700 (anstatt<br />
S850).<br />
Es sollen Karten von Testmodell und/oder ERA-40 sowie der Differenzen erzeugt<br />
werden. Zwecks Effizienterhöhung könnte. Diese Differenzkarten sollten sowohl<br />
geglättet wie auch ungeglättet erzeugt werden.<br />
Anhang 2 23
Weiters wurde auf Inititative von Seibert der Ablauf des Datentransfers zwischen den<br />
Projektpartnern besprochen: Wer liefert welche Daten wohin?<br />
Generell warnt Seibert vor „zu umfangreichen“ Datentransfer und meint dass<br />
grundsätzlich nur die nötigen Daten (2D-Felder, Vertikalprofile, unmittelbar erzeugte<br />
Plots) ausgetauscht werden sollen. Diese Daten werden von den Modellbetreibern an<br />
die jeweiligen Evaluatoren geliefert: für VERA an IMG, für ERA-40 und Niederschlag<br />
an BOKU-Met, für die Vertikalprofile an IGAM. IMG und IGAM senden dann die<br />
Evaluierungsprodukte an BOKU-Met. Jedenfalls muss ein einheitliches Datenformat<br />
definiert werden, das auch Metainformationen (welcher Run, welche Fläche, usw.)<br />
beinhaltet.<br />
Gobiet könnte sich das CALRAS-Format vorstellen, gibt aber zu bedenken, dass<br />
dieses nicht freiformatig wäre. (Anmerkung BOKU-Met: Das bezieht sich nur auf<br />
Vertikalprofile?)<br />
Dorninger und Chimani verweisen in diesen Zusammenhang auf die von VERA<br />
benötigten Spezifikationen und dass dies bereits geklärt sei (vgl. Protokoll vom 30.<strong>1.</strong><br />
bzw. E-Mail von Chimani vom 4. 12. 2003). Falls Seibert und Frank diese nicht erhalten<br />
hätten, werden diese Spezifikationen nochmals an BOKU-Met weitergeleitet.<br />
Seibert will allerdings hierbei noch Verbesserungen machen und fordert zumindest<br />
eine „freiformatige Einlesbarkeit“.<br />
Ahrens meint, da ohnehin nur mehr 2-D-Felder transferiert werden, spiele das<br />
Datenformat was die Größe anginge (er schlägt ASCII vor) keine große Rolle.<br />
Wer letztendlich welche Karten (aus Modellergebnssen, Sensitivitätsanalysen und<br />
Validierungs-Schritten) produziert und zwischen welchen Partnern der Datentransfer<br />
erfolgen soll, muß noch geklärt werden! (Anmerkung: Boku-Met plädiert dafür, dies bei<br />
der nächsten Sitzung zu diskutieren)<br />
BOKU-Met wird jedenfalls einen Ftp-Bereich eröffnen, auf den alle relevanten<br />
Ergebnisse kopiert werden sollen. Die Endevaluierung erfolgt dann durch BOKU-Met.<br />
Eine Einrichtung eines Zentralarchiv durch systems research (dieses kann auch als<br />
Backup dienen) ist geplant und wird in den nächsten Monaten realisiert.<br />
Bei den Radiosonden-Daten schlägt Seibert eine Höheneinteilung vor (vgl. verteilte<br />
Unterlage 1, Seite 5) die va. für die Grenzschichtbetrachtungen geeignet ist. Ahrens<br />
wünscht sich allerdings auch Levels innerhalb der oberen Troposphäre. Es besteht<br />
Konsens, dass zusätzliche Niveaus einbezogen werden können, aber die untersten<br />
3500 m auf jeden Fall getrennt ausgewiesen werden.<br />
Eine Berücksichtigung der Radiosonden-Abdrift ist laut Gobiet vorgesehen, Seibert<br />
meint allerdings das diese ohnehin i.d.R. vernachlässigbar sei, da sie sich maximal in<br />
der Größenordnung eines Gitterzelle bewege. Aus MM5 und Aladin müssen<br />
Pseudoaufstiege extrahiert und dem IGAM für die Vergleiche mit CALRAS zur<br />
Verfügung gestellt werden. Da dies unter Berücksichtigung der Abdrift wesentlich<br />
komplizierter wird (mehrere Gitterpunkte pro Aufstieg), wird beschlossen auf die<br />
standardmäßige Berücksichtigung der Versetzung zu verzichten.<br />
Gobiet erklärt, er besitze ein Programm, das eine einfache Vertikalprofil-Berechnung<br />
Extraktion? ermöglicht und stellt dieses den Projektpartnern gerne zur Verfügung.<br />
24 Anhang 2
2d) Modell-Evaluierung/Modell-Vergleich-Vorgaben:<br />
Dorninger berichtet kurz von einem informellen Treffen am 19.2.2004. Wesentlich<br />
dabei war die Einigung auf 3-stündige Zeitintervalle (nur für die Sensitivitätsrechnungen!),<br />
so dass Tmin und Tmax nicht mehr notwendig wären. Dies wird von<br />
allen Anwesenden akzeptiert. Für den Jahreslauf werden Tagesmittelwerte ausreichen.<br />
Ein grundlegendes Problem sind die Niederschlagsdaten 1999, da diese wegen<br />
Mangel an qualitätsgeprüften Messdaten nicht sinnvoll mit VERA zu analysieren sind.<br />
Auf Frage von Seibert, was dann zu tun sei bzw. welche zusätzlichen Datensätze<br />
verwendbar wären entspringt eine umfangreiche Diskussion.<br />
Ahrens meint, man könnte für großräumige Skalenuntersuchungen GPCC-Daten mit 1°<br />
Auflösung verwenden. Diese hätte er für 1999 auf Tagesbasis, allerdings nur für Ö und<br />
CH. Evtl. könnte man zusätzlich Synopdaten (TARNET/TAWES?, HZB) verwenden.<br />
Auf 100 km und Monatsbasis sollte dies kein großes Problem sein. Schöner gibt<br />
Qualitätsprobleme zu bedenken.<br />
Seibert spricht sich zumindest für GPCC aus, jedenfalls sollte der Niederschlag<br />
quantitativ betrachtet werden.<br />
Schöner erklärt sich nach Ersuchen von Loibl bereit, die zusätzlichen Niederschlagsdaten<br />
zu besorgen.<br />
Dorninger zeigt Beispiele von Ergebnis-Plotts von VERA-Analysen für Aladin-Felder<br />
und berichtet, dass demnächst auch für MM5 Auswertungen beginnen werden. Ein<br />
diesbezügliches MM5-Interface hätte Züger in den letzten Wochen fertig gestellt und<br />
steht nun zur Verfügung. Beispiele von VERA-Analysen sind auf der MAP-Datenbank<br />
zu sehen ( http://www.map.ethz.ch/map-doc/datacenter.htm ).<br />
Zusätzlich wird derzeit von Chimani eine Liste von Parametern für statistische<br />
Untersuchungen zusammengestellt (incl. was aus welcher Maßzahl herauslesbar ist)<br />
und bis Ende Juni an alle Projektpartner per E-Mail verschickt. Generell werden die<br />
Felder vom FTP-Server geholt und nur (vorher zu definierende) Auswerteprodukte<br />
wieder an die Projektpartner verteilt. Bei den Karten stünden GIF- bzw. Postscript-<br />
Format zu Auswahl.<br />
Graphiken will Seibert im Postscript-Format abgespeichert bzw. transferiert sehen.<br />
Seibert wünscht sich auch genaue Spezifikationen (zB generalisierte Küsten, ev.<br />
Weglassen von Grenzen und Flüssen, Farbkeil, Isolinien ja/nein?). Vor allem eine<br />
Reduktion geographischer Details in den VERA-Plots (Küstenlinien, Grenzen, Flüsse<br />
usw.) könnte verhindern, dass die einzelnen Dateien zu groß werden. Der Farbkeil<br />
sollte eine gute Lesbarkeit gewährleisten, nicht nur zwei Grundfarben für 15 Stufen.<br />
Loibl schlägt vor, den Farbkeil so zu wählen, dass auch Schwarz-Weiß-Ausdrucke<br />
noch lesbar seien.<br />
Anhang 2 25
3) Allfälliges<br />
Schöner drängt auf Fixierung des geplanten Vortrags von Rasmus Benestad/Met.No –<br />
dieser sollte vor Juli 2004 stattfinden, damit analog zu den Keuler-Benefits für die<br />
Modellierung auch von den Erkenntnissen von Benestadt für den Regionalisierungstasks<br />
profitiert wird.<br />
Auf Anfrage von Seibert berichtet Züger kurz von Lund.<br />
Die Quintessenz dort war dieselbe wie die vom Keuler-Vortrag. Am Anfang stand eine<br />
allgemeine (und durchaus ergebnislose) Diskussion ob regionale Klimamodelle in<br />
Anbetracht der immer besseren Auflösung der GCMs überhaupt einen „added value“<br />
bieten können. Einige sehen im Testen von Hochauflösenden Parametrisierungen für<br />
GCMs einen Weg, andere in einem Zweiweg-Nesting in GCMs, wieder andere im<br />
dynamischen Downscaling.<br />
Im Laufe des Workshops kristallisierte sich in den Vorträgen immer mehr heraus, dass<br />
es keine „besseren“ oder „schlechteren“ Modelle gibt, sondern jedes Modell in gewissen<br />
Bereichen Stärken und dafür in anderen Schwächen hat. Eine beträchtliche<br />
Anzahl von Personen/Gruppen setzen vermehrt auf Berechnungen mit Ensembles von<br />
Modellen. Der Vergleich mit „Messdaten“ erfolgt dann sowohl mit einem Ensemble-<br />
Mean als auch mit einem Mittel der „Messdaten“, da auch diese Streuungen in einer<br />
mit den Modellen vergleichbaren Größenordnung aufweisen. Weiters werden<br />
Evaluierungen nicht auf einzelnen Gitter- und Zeitpunkten durchgeführt, sondern immer<br />
auf Flächen- und Zeitmitteln (zB Abflussmengen in größeren Einzugsgebieten wie<br />
Donau oder Rhein auf Monats/saisonaler Basis).<br />
Die gesammelten Publikationen (erweiterte Abstracts, Poster etc.) des Workshops sind<br />
unter folgendem Link zu finden:<br />
http://www.natgeo.lu.se/Lars.barring/RCMworkshop/RCMhome.htm<br />
Als Termin für ein nächstes Treffen stehen folgende Tage zur Diskussion: Woche 14-<br />
18.6, oder der 2<strong>1.</strong>6 bzw. der 24.6. Der genaue Termin wird demnächst abgeklärt<br />
werden und per E-Mail an alle versendet werden – er wird sich nach den Möglichkeiten<br />
eines Benestad-Vortrages richten. Beim nächsten Meeting sollen dann auch die nicht<br />
behandelten Tagesordnungspunkte Regionalisierung, Endbericht und Offerte 2004/<br />
2005 behandelt werden.<br />
26 Anhang 2
Protokoll:<br />
3. Projektmeeting<br />
zum K-Wiss-Programm reclip:more<br />
‘‘research for climate protection: model run evaluation‘‘<br />
Mo. 2<strong>1.</strong>06. 2004 ZAMG, 1190 Hohe Warte, Klimaabteilung 14:00 – 17:30<br />
Thema:<br />
1) Vortrag R. Benestad – "Methods of empirical downscaling for temperature and<br />
precipitation scenarios<br />
2) Berichte über den Arbeitsfortschritt Regionalisierung – Temperatur,<br />
Niederschlag, Strahlung, Wind ( Schöner – Loibl – Truhetz)<br />
3) offene Fragen aus der letzten Sitzung<br />
a) Validierung: Anaylsen BOKU-Tool & Vor-Ort Analyse vs.<br />
Ergebnistransfer an BOKU<br />
b) Definitive Festlegung der Testvorgaben betreffend Validierung,<br />
Sensitivität<br />
c) Modell-Ergebnispräsentationen: Text, Tabellen, Karten - Festlegungen<br />
d) Validierungspräsentationen: Text, Indikatoren, Tabellen, Karten –<br />
Festlegungen<br />
4) Abstimmung Ergebnisse Termine<br />
5) Offerte für ProjektJahr 2: Inhalte Termine<br />
6) Allfälliges<br />
Teilnehmer:<br />
Name Institution E-mail<br />
Barbara Chimani IMG – Uni Wien barbara.chimani@univie.ac.at<br />
Bodo Ahrens IMG – Uni Wien bodo.ahrens@univie.ac.at<br />
Alexander Beck IMG – Uni Wien alexander.beck@univie.ac.at<br />
Andreas Frank BOKU-Met reclip@imp<strong>1.</strong>boku.ac.at<br />
Herbert Formayer BOKU-Met reclip@imp<strong>1.</strong>boku.ac.at<br />
Elsa Dos Santos Cardoso ZAMG elsa.santos@zamg.ac.at<br />
Wolfgang Schöner ZAMG wolfgang.schoener@zamg.ac.at<br />
Andreas Gobiet IMAG - Uni Graz andreas.gobiet@uni-graz.at<br />
Heimo Truhetz IMAG - Uni Graz heimo.truhetz@uni-graz.at<br />
Wolfgang Loibl ARC sys wolfgang.loibl@arcs.ac.at<br />
Johann Züger ARC sys johann.zueger@arcs.ac.at<br />
Mario Köstl ARC sys mario.koestl@arcs.ac.at<br />
Protokoll: Köstl, Ergänzungen von Züger & Loibl, Korrekturen von Frank und Schöner<br />
Anhang 2 27
1) Vortrag R. Benestad<br />
siehe Folien des Vortrages im Anhang 1 (zamg2004.zip – incl. der nicht präsentierten<br />
Ergebnisse von Clim.pact!!)<br />
2) Berichte über den Arbeitsfortschritt Regionalisierung<br />
Truhetz berichtet von Projektteil Wind – hierfür wird ein mikroskaliges diagnostisches<br />
Modell auf MM5 mit feinem DHM aufgesetzt. Neben einem möglichst feinen DHM<br />
(derzeit 200m) benötigt er hierfür spezielle physiogeographische Eingangsdaten:<br />
Rauhigkeitslänge, Albedo der Oberfläche, das Bowen-Verhältnis sowie den Wärmeflussparameter<br />
des Bodens Cg und (optional) den anthropogenen Wärmeeintrag Qf.<br />
Diese benötigten Eingangsdaten werden aus einer Tabelle für die jeweilige Landnutzungsklasse<br />
in das Modell eingebracht.<br />
Derzeit „läuft“ das Modell, allerdings wäre ein feineres DHM wünschenswert. Vor allem<br />
bei der Strahlungsberechnung kommt es wegen zu geringen Hangneigungen und der<br />
dadurch ungenauen Beschattung in Gebieten mit differenzierter Orographie zu<br />
ungenauen Ergebnissen (vgl. auch unten bei Loibl).<br />
Als Alternative könnte das aus der SRTM Mission generierte DHM mit 90m Auflösung<br />
(allerdings fehlerhaft – vgl. Protokoll vom 27.5.2004) oder eventuell ein DHM von<br />
einem Projektpartner (zB: Loibl Tirol 70m (ging an ZAMG), Kärnten 50m (hat ZAMG)<br />
zur Verwendung kommen.<br />
ZAMG wird aus den SRTM Daten ein möglichst lückenloses und möglichst fehlerfreies<br />
DHM mit 90m Rasterweite erstellen. Dieses kann bei Bedarf weitergegeben werden.<br />
Ein 50m Modell von Kärnten kann nicht weitergegeben werden.<br />
Loibl fragt, ob und wie das Windmodell mit Aladin-Input arbeiten kann bzw. soll. Ahrens<br />
meint, dass es bei einer Verwendung des Windmodells mit ALADIN zu Problemen<br />
beim Dateneinlesen kommen könnte. Dieses „Interfaceproblem“ müsste ebenfalls bei<br />
der Validierung berücksichtigt werden.<br />
Auf Frage von Formayer, ob die Windmodellierung überhaupt für beide Modelle (MM5<br />
und ALADIN) notwendig bzw. gewünscht ist, stellt Gobiet klar, dass das Windmodell<br />
eigentlich nur für einen Einsatz mit MM5 geplant ist und dieses nach Projektende bei<br />
systems research installiert werden soll. Für ALADIN könnte er sich nur eine gewisse<br />
Hilfestellung (wenn gewünscht) vorstellen, sich aber keine eigene Modellentwicklung.<br />
Schöner berichtet von den Fortschritten bei der Downscaling-Methode nach R.<br />
Benestad mit Punktdaten (vgl. tw. auch Vortrag). Die Berechnungen werden mit<br />
Modellen des free-ware Statistikpaketes R (S-plus–basierend) erfolgen. Eine diesbezügliche<br />
Kurzeinschulung erfolgt durch R. Benestad.<br />
Bisher wurden lediglich Versuche mit der Temperatur gemacht. Die Methode des<br />
Downscaling für den Niederschlag liegt ebenfalls vor, ist aber noch nicht ausgetestet<br />
worden. Generell können endgültige Methoden des Downscaling für Temperatur und<br />
Niederschlag erst bei Vorliegen der retrospektiven Klimaläufe erarbeitet werden, da<br />
diese die notwendigen Prediktorenfelder liefern. Schnee wird aus Temperatur und<br />
Niederschlag abgeleitet und fehlt noch generell.<br />
Auf Fragen von Ahrens und Formayer nach geeigneten Prediktoren, erklärt Schöner,<br />
dass die Methode einerseits sowohl auf Monats- wie auch auf Tagesbasis funktioniere<br />
und den SLP, die T2m Temperaturen und das Bodenniederschlagsfeld als Prediktoren<br />
verwendet. Die geographische Verfeinerung auf 1 km Zielauflösung erfolgt in einerm<br />
28 Anhang 2
zweiten Schritt aus den Downscalingdaten an den Stationen um den Rechenaufwand<br />
zu minimieren.<br />
Bis jetzt wurde dies nur mit ERA-40 Daten gemacht, Loibl meint daher, es sei<br />
unbedingt notwendig, auch Modelldaten zu verwenden. Hierfür stünde laut Ahrens ein<br />
einjähriger Datensatz von 1999 des IMG zur Verfügung. Züger meint, er hätte dafür<br />
ebenfalls einen Datensatz. Beide werden der ZAMG so bald wie möglich zur Verfügung<br />
gestellt. Ausschnitt und Parameter bzw. das Datenformat (NetCDF?) müssen allerdings<br />
noch definiert werden<br />
Loibl berichtet über die Regionalisierung der Tmin und Tmax. An sich ist geplant hier auf<br />
die Adaptierungen von Schöner /ZAMG aufzubauen, was allerdings erst dann sinn<br />
macht, wenn die Implementierung zufrieden stellend läuft und ausgetestet ist.<br />
Für das Tagesminimum liegten eine Vielzahl an Arbeiten zur kleinräumigen<br />
Interpolation vor. Dabei zeigt sich, dass geostatistische Interpolationen der Punktwerte<br />
keine zielführenden Ergebnisse liefern.<br />
Ein praktikables Modell ist das AURELHY-Modell. Es basiert auf einer EOF (empirical<br />
orthogonal function, bzw. Hauptkomponentenanalyse) mit einer Vielzahl von Prädiktoren<br />
(DEM –Daten, Landnutzungsdaten und ca. 100 daraus abgeleiteten Variablen). Die<br />
5 Hauptkomponenten der EOF dienen dann als Basis für eine Regressionsanalyse.<br />
Nach Berechnung des deterministischen Anteils mit 5 PCs (predicted terrain-driven<br />
temperature) erfolgt ein Residualkriging. Dieses Verfahren kann im Prinzip mit R<br />
nachprogrammiert werden.<br />
(Anm. Schöner: Die AURELHY Methode verwendet nur die PCA Analyse der<br />
Topographie. Das mit den aus der Landnutzung und dem DHM abgeleiteten<br />
Parametern ist eine andere Methode basierend auf einem GIS. Ich würde das nicht in<br />
R machen, sondern wenn man diesen Ansatz wählt mittels eines aml-Skript.)<br />
Einfache Verfahren kommen mit (lokalen) Regressionsfunktionen aus – problematisch<br />
ist die Berücksichtigung von Kaltluftseen – hier bieten sich geknickte Regressionsgleichungen<br />
an, die für die Nahbereiche der Täler und Becken mit Temperaturin<strong>version</strong><br />
berechnet werden und für die alle anderen ein klassischer Höhengradient berechnet<br />
wird. Bei der definitiven Methodenwahl werden noch die Ergebnisse von Schöner<br />
abgewartet.<br />
Die verwendeten Ansätze für Tagesmaximum sind meist analog zum Tagesminimum<br />
Courault and Monestiez (1998) haben die INRA Methode (Wettertypenabhängige<br />
Interpolation) auch für Tmax verwendet. Bei der definitiven Methodewahl werden<br />
ebenfalls noch die Ergebnisse von Schöner abgewartet.<br />
Loibl berichtet von der Regionalisierung der Strahlung. Die Regionalisierung kann mit<br />
LAM-Daten auf ca. 10 km oder mittels GIS (unter Berücksichtigung des durchschnittlichen<br />
Tagesganges) auf ca. 1 km erfolgen<br />
Es bieten sich 2 Varianten an.<br />
1) ausgehend von den LAM-Ergebnissen (MM5/Aladin) und nachträglichem<br />
downscaling /Gewichtung der Ergebnisse mittels „Abschattungsfaktoren“<br />
anhand Topographie, Monat, Uhrzeit.<br />
2) ausgehend von Geographischer Lage, Topographie, Monat, Uhrzeit<br />
unter Einbezug der Regional-Modell-Bewölkungs-Daten in den Intervallen der<br />
MM5-Outputs<br />
Anhang 2 29
Ein Hauptproblem ist das zu grobe und damit im Hinblick auf Hangneigungen zu flache<br />
Höhenmodell, das aufgrund der Flachheit die Beschattung durch Gegenhänge unterschätzt<br />
und somit zu hohe Strahlungswerte generiert (vgl. oben).<br />
Auf die Frage von Loibl, ob ein feineres DHM verwendet werden sollte, verweist Gobiet<br />
auf die vergleichbaren Probleme bei der Windmodellierung. Schöner meint, ein ausgebessertes<br />
SRTM-Höhenmodell wäre eine sehr gute Alternative.<br />
Formayer regt Vergleiche von MM5 mit Realität an. Züger verweist auf die zahlreichen<br />
Strahlungsschemata von MM5 und und meint, dass auch geklärt werden müsste,<br />
welches hierbei die „sinnvollsten“ Ergebnisse liefere.<br />
Abschließend verweist Gobiet noch auf mögliche Interaktionen zwischen reclip und<br />
ALPCHANGE, va. bei der Schneemodellierung. Schöner rät, man sollte bei den bestehenden<br />
Schneemodellen (die T und RR verwenden und daraus den Schnee berechnen)<br />
bleiben.<br />
3) offene Fragen aus der letzten Sitzung<br />
3a) Analysen BOKU-Tool & Vor-Ort Analyse vs. Ergebnistransfer an BOKU<br />
Ahrens berichtet, dass der gesamte 1999-Datensatz (6-stündige Werte) für VERA ca.<br />
2 GByte benötigt und meint, dass daher die Datenmenge kein Problem darstellen<br />
würde. Es wird festgehalten, dass die statistische Auswertung durch BOKU-Met erfolgt.<br />
Frank benötigt dafür noch Einlese-Routinen mit speziellen Header-Eigenschaften<br />
(siehe Pkt. 2, Anhang 2 „Validierungsvorschläge BOKU-Met“). Loibl schlägt vor, den<br />
Header einheitlich zu definieren:<br />
in Zeile1 Zahl (n) der Headerzeilen, in Zeile2 – (n-1) Kommentare, in Zeile n die<br />
jeweiligen Spaltenüberschriften; Für jeden Zeitpunkt soll ein File mit 12 Spalten<br />
(3 Druckflächen x 4 Parametern) geschickt werden.<br />
(Anm. Frank: Nach Einigung auf quasi VERA-Format werden keine Einleseroutinen<br />
benötigt.)<br />
Formayer verweist auf unbedingte Notwendigkeit diesind aber ERA 40-Daten zu<br />
bekommen, sowohl für die Validierungs-Experimente als auch für die MM5-Testläufe<br />
von BOKU-Met. Diese werden so bald wie möglich von Züger zur Verfügung gestellt.<br />
3b) Definitive Festlegung der Testvorgaben betreffend Validierung, Sensitivität<br />
Formayer schlägt verschiedene Validierungs-Versuche vor (siehe Pkt. 1, Anhang 2<br />
„Validierungsvorschläge BOKU-Met“).<br />
Für die Domaintests liefert Züger die monatlichen 2D- und 3D-Felder von Sept./Nov.<br />
1999 in den nächsten Tagen. Züger berichtet kurz von seinen Fortschritt bei der ERA<br />
40 Boden-Temp.-Korrektur. Der Fehler lag in den SOILHGTs, die nicht wie vom<br />
ECMWF beschrieben in Meter sondern in Dezimeter gespeichert sind. Da die MM5-<br />
Präprozessoren eine Höhenkorrektur der Bodentemperaturen durchführen, kommt es<br />
bei einer Höhe von zB 1100 m zu einer Korrektur von 11000 m nach 1100 m – mit<br />
einem Korrekturfaktor von ca. 6°C/1000 m dann zu um ca. 60 °C zu hohen Werten für<br />
die Bodentemperatur. Züger wird ein Shell-Skript für eine automatische Installation der<br />
geänderten MM5-Unterprogramme und nachfolgende Berechnungen erstellen und<br />
dieses an alle interessierten Partner verschickt.<br />
30 Anhang 2
Formayer schlägt weiters eine „sukzessive“ Definierung der Tests vor – zunächst<br />
sollen Domaintests mit ERA 40 erfolgen (Lage der Domains, Orographie).<br />
3c/d) Modell-Ergebnis und Validierungspräsentationen: Festlegungen von Text,<br />
Indikatoren, Tabellen, Karten<br />
Die Wetterkarten sind von den Modellbetreibern zu erzeugen und als Postscript oder<br />
PDF Dateien an BOKU-Met zu schicken. Diese Karten dienen BOKU-Met quasi als<br />
erster Quicklook. Der Farbkeil soll dabei so definiert werden, dass auch S/W-<br />
Ausdrucke möglich sind.<br />
4) Abstimmung Ergebnisse Termine<br />
Die von BOKU-Met benötigten ERA 40 Daten sind bereits auf den systems researchj<br />
FTP Server platziert. Die von BOKU-Met benötigten Modelldaten (MM5 und ALADIN,<br />
für die Termine der Domaintest; VERA-Format!!) werde in der kommenden Woche<br />
gerechnet/übermittelt.<br />
Die ersten Validierungs-Ergebnisse der BOKU-Met sollen Ende Juli geliefert werden.<br />
Auf Frage von Ahrens, wie und ob ein Domain-Test mit VERA-Daten erfolgt, meint<br />
Formayer, dass diese Tests mit ERA-40 Daten validiert werden.<br />
Chimani fragt, ob die Programmierung des Interfaces MM5/VERA durch Züger bereits<br />
erfolgt sei. Züger erklärt, dass die Erstellung des VERA-Inputs derzeit nur testweise<br />
und speziell auf die Datenstrukturen auf dem eigenen Rechner abgestimmt funktioniert.<br />
An einer Version, die für alle funktioniert wird noch gearbeitet. Probleme bereitet dabei<br />
im Moment eine nicht zufrieden stellende Lösung zur Berechnung des SLP. Diese<br />
sollte mit Abschluss der ersten Testrechnungen und Übermittlung an BOKU-Met<br />
bereitstehen.<br />
Frank erklärt, die Arbeiten von BOKU-Met würden durchgeführt, sobald das Setup<br />
endgültig geklärt ist, also nach den Parametertests.<br />
BOKU-Met rechnet Vergleich mit Zaengl-Version des MM5, um Unterschiede und<br />
mögliche Verbesserungen zu erkennen, sobald die Domaintests abgeschlossen sind<br />
(dafür sind ERA-40-Daten als MM5-Input nötig). Die Festlegung des Domain-Setups ist<br />
erst der <strong>1.</strong>Teil der „Parametertests“, danach folgen die Parametertests zum Festlegen<br />
der physikalischen Optionen im MM5.<br />
Schöner versichert, erste Ergebnisse Mitte August liefern zu können.<br />
Bezüglich der Teilberichte, meint Schöner, dass sein Beitrag Ende August zur<br />
Verfügung stünde. Ahrens berichtet, dass IMG Teil weitgehend fertig ist und Ende Juli<br />
an systems research geliefert wird.<br />
Formayer meint, BOKU-Met könnte erst nach Erhalt der Daten (vgl. oben) beginnen.<br />
Erste Ergebnisse könnten Mitte Juli vorhanden sein. Zusätzlich sollte bis dahin die<br />
Kurzbeschreibung des statistischen Tools vorliegen. Für den Teilbericht könnten<br />
allgemeine Beschreibung der geplanten Durchführung der diversen Tests und einige<br />
beispielhafte Testergebnisse bis Mitte Juli zur Verfügung gestellt werden<br />
Eine Umfassende Darstellung der ersten Sensitivitätstests kann bis Ende August<br />
geliefert werden.<br />
Chimani sagt die IMG-Beiträge bis Ende Juli zu.<br />
Anhang 2 31
Loibl ersucht alle Projektpartner, die Beiträge für den Endbericht des ersten<br />
Projektjahres so zeitgerecht an ARC zu mailen, dass dieser zumindest im September<br />
zusammengeführt und fertig layoutiert werden kann.<br />
Exkurs: Antriebsdaten<br />
Ahrens berichtet, dass er oder Beck im Juli zu Martin Wild an die ETH Zürich fahren,<br />
um endgültig zu klären, ob ein prospektiver ECHAM 5 Lauf für reclip zur Verfügung<br />
stünde (was laut Ahrens sehr wahrscheinlich ist). Gobiet bezweifelt, ob die Festlegung<br />
auf den retrospektiven ECHAM 5 Laufes sinnvoll ist, bevor geklärt ist, ob auch ein<br />
prospektiver Lauf zur Verfügung steht. Formayer meint in diesem Zusammenhang,<br />
dass unabhängig vom Gesprächsergebnis in Zürich in den nächsten 6 – 12 Monaten<br />
ein diesbezüglicher Lauf vom MPI Hamburg angeboten werden wird, da laut Cubasch<br />
für IPCC 2007 nur mehr ECHAM 5 verwendet werden soll“. Ahrens ist überzeugt, dass<br />
der retrospektive Lauf in jedem Fall verwendet werden soll und verweist hierbei auf<br />
mögliche Vergleiche mit PRUDENCE. Gobiet gibt zu bedenken, dass Modell<br />
„retrospektiv“ und „prospektiv“ vergleichbar sein sollten.<br />
Letztlich einigen sich die Anwesenden, bei der beim letzten Meeting vorgeschlagenen<br />
Vorgangsweise zu bleiben.(1981-1990 mit ECHAM 5 rechnen, die prospektiven läufe<br />
hoffentlich (ab Sommer 2005) auch mit ECHAM5)<br />
5) Offerte für das zweite Projektjahr<br />
Loibl wünscht sich möglichst noch mit Ende Juli „einigermaßen“ klare Beschreibung<br />
der Inhalte, damit die Inhalte zwischen den Partner abgestimmt werden können.. Das<br />
2. Projektjahr soll mit September 2004 beauftragt werden und bis Juni 2005 laufen,<br />
sodass eine wahrscheinliche Verzögerung bis August, 2005 angefangen werden kann<br />
und das 3. Projektjahr im September 2005 starten kann.<br />
Als Vorgangsweise schlägt Loibl vor, analog zu ersten Projektjahr zunächst Drafts<br />
analog zu den Formularen im „<strong>1.</strong> Zwischenbericht“ zu schicken und Rückmeldungen<br />
abzuwarten, damit die einzelnen Aufgaben geklärt werden.<br />
6) Allfälliges<br />
Ahrens erinnert an morgigen Vortrag um von PD Dr. F. Berger von der TU Dresden:<br />
„Wasserhaushaltsuntersuchungen mit Fernerkundungsdaten“<br />
Schöner verweist ebenfalls auf zusätzlichen Vortrag am Dienstag von R. Benestad.<br />
Die offizielle Sitzung wird um 17:15h geschlossen. Dann erfolgt eine informelle<br />
Präsentation des Clim-pact Paketes für R von Benestad, die bis ca. 19:00 h. dauert.<br />
32 Anhang 2
Loibl – Präsentation von reclip:more am Klimatag 2004 der BOKU<br />
Keuler – Gastvortrag am 20.4.2004<br />
Benestad – Gastvortrag am 2<strong>1.</strong>6.2004<br />
Anhang 3<br />
Folienübersicht der Vorträge
Loibl – Präsentation von reclip:more am Klimatag 2004 der BOKU<br />
Keuler – Gastvortrag am 20.4.2004<br />
Benestad – Gastvortrag am 2<strong>1.</strong>6.2004<br />
Anhang 3<br />
Folienübersicht der Vorträge
Anhang 3<br />
Teil 1<br />
Projekt: reclip:more<br />
Research for Climate Protection – Model run evaluation<br />
Vorstellung der Projektziele und des Projektablaufs 2003 - 2006<br />
Wolfgang Loibl, 20. April 2004<br />
Projekt -Team:<br />
Wolfgang Loibl 1 , Johann Züger 1 , Mario Köstl 1 (Projektleitung, MM5-Modellierung, Downscaling)<br />
Andreas Gobiet 2 , Heimo Truhetz 2 (MM5-Modellierung, Validierung, Downscaling)<br />
Herbert Formayer 3 , Petra Seibert 3 , Andreas Frank 3 , Bernd Krüger 3 (Validierung, Modelltests)<br />
Bodo Ahrens 4 , Alexander Beck 4 (Aladin-Modellierung, Sensitivitätstests)<br />
Manfred Dorninger 5 , Barbara Chimani 5 (Datenbereitstellung, Validierung mit VERACLIM)<br />
Wolfgang Schöner 6 , Elsa Dos Santos Cardoso 6 (Bereitstellung von Ö-Daten, Downscaling)<br />
1 ARC-sys ARC systems research, Wien - Seibersdorf<br />
2 IGAM Institut für Geophysik, Astrophysik & Meteorologie der Universität Graz<br />
3 BOKU-Met Institut für Meteorologie der Universität für Bodenkultur, Wien<br />
4 IMG Institut für Meteorologie und Geophysik der Universität Wien<br />
5 ZAMG Zentralanstalt für Meteorologie und Geodynamik, Wien<br />
1
Anhang 3<br />
Teil 1<br />
reclip – Research for Climate Protection<br />
Ein Programm zur österreichischen Klimaschutzforschung 2003-2006<br />
Programm-Inhalte:<br />
reclip:more – Model run Evaluation<br />
Klimamodellierung als Basis für eine gesamtösterreichische<br />
und regionsbezogene Klimafolgenforschung<br />
reclip:tom – Technical Options for Mitigation of Green<br />
House Gas Emissions<br />
Systemische Modellierung der Emissionen aus Energie-<br />
Produktions- und Entsorgungsprozessen<br />
reclip:strat – Strategische Begleitung und Optimierung<br />
Lessons learned für Kooperationen universitäre –<br />
außeruniversitäre Forschung<br />
© systems research<br />
reclip:more – Ziele und Aufgaben: Übersicht<br />
Regionale Klimamodellierung – Methoden, Tests und Ergebnisse als<br />
Basis für eine Österreich- und regionsbezogene Klimafolgenforschung<br />
Datenbedarf – Erhebung (ARC-sys)<br />
Dynamische, regionale Klimamodellierung (ARC-sys, IMG, IGAM)<br />
Modellierung (ca. 10 km Ziel-Auflösung) mit den Modellen MM5 und Aladin<br />
retrospektive Läufe 1980-1990 mit 2 alternativen Antriebsdaten (ERA40, ECHAM 4 T106 92a) ,<br />
Sensitivitätstests<br />
prospektive Modellläufe 2030-2040 mit identen Antriebsdaten (ECHAM 4 T106, 92a),<br />
Sensitivitätstests<br />
Validierung / Vergleich der Modellergebnisse (BOKU-Met, IMG, IGAM)<br />
Downscaling der Modellergebnisse 10km -> 1km (ZAMG, ARC-sys, IGAM)<br />
(Temperatur, Niederschlag, Schnee, Strahlung, Wind…) für 3 Study-Regions<br />
(Zentralalpen, SE-Steiermark, Ost-Österreich)<br />
Aufbereitung regionaler Modellergebnisse (ARC-sys)<br />
© systems research<br />
2
Anhang 3<br />
Teil 1<br />
Ziele und Aufgaben – Details<br />
Dynamische regionale Klimamodellierung und Sensitivitätsanalysen<br />
Tests und Vergleiche – Antriebsdaten, Modell-Domains, Perioden<br />
Downscaling von Messdaten und Modellergebnissen<br />
für 3 Testregionen mit einer Auflösung von 1 km<br />
Benchmarking der retrospektiven Modelläufe<br />
Vergleichende Analyse und Validierung der Modellergebnisse aller<br />
retrospektiven Modellläufe und der Messergebnisse<br />
Dokumentation der Vor- und Nachteile der Modellvarianten, der<br />
unterschiedlichen Antriebsdaten und verschiedener Modellparametrisierungen<br />
Vergleich der Modellergebnisse der prospektiven Modellläufe analog 4)<br />
Bereitstellung von regionalisierten Modellergebnissen<br />
Tagesdaten T mean , T max , T min , Strahlung, Feuchtigkeit, Wind, Niederschlag)<br />
für Österreich in 10km- sowie in 1km Auflösung für 3 Testregionen<br />
© systems research<br />
reclip:more – Arbeitspakete<br />
Modell –<br />
Validierung,<br />
Benchmarking<br />
Upscaling<br />
Messdaten &<br />
Modellergebnisse<br />
Dynamische<br />
Modellierung<br />
Partner<br />
UNI‘s<br />
ZAMG<br />
ARC<br />
© systems research<br />
Validierungsmethoden<br />
Messdaten<br />
199x<br />
Re-Analysedaten<br />
Benchmark 199x<br />
Downscaling-methoden<br />
Downscaling<br />
Messdaten<br />
& Model runs 199x<br />
Retrospektive<br />
model runs 199x<br />
GCM-<br />
Daten<br />
Ergebnisvergleich<br />
Downscaling<br />
Model runs<br />
203x<br />
Prospektive<br />
model runs 203x<br />
GCM-<br />
Daten<br />
11/2003 12/2004 12/2005<br />
transiente<br />
regionale<br />
Ergebnisse<br />
für<br />
Klimafolgen<br />
-forschung<br />
6/2006<br />
3
Anhang 3<br />
Teil 1<br />
Datenbedarf für Klimafolgenforschung (1)<br />
Erhebung:<br />
Fragen-Formular versendet an rd. 90 WissenschaftlerInnen (aus<br />
Austroclim/FORNE-Liste)<br />
21 brauchbare Antworten,<br />
davon teilweise nur schriftl. und nicht im Forumuar ausgefüllt<br />
zahlreiche Zusatzwünsche<br />
18 für quantitative Auswertung verwendbar - 6 Fachgebiete:<br />
© systems research<br />
Botanik und Vegetationsökologie<br />
Forstwirtschaft/Waldbau<br />
Zoologie<br />
Kulturtechnik<br />
Human- u. Sozial-Ökologie<br />
(Volks-)Wirtschaft<br />
Datenbedarf für Klimafolgenforschung (2)<br />
Ergebnisse: raumzeitliche Auflösung, Dateninhalte<br />
© systems research<br />
Erhebung 2003:<br />
ARC Systems research<br />
4
Anhang 3<br />
Teil 1<br />
Datenbedarf für Klimafolgenforschung (3)<br />
Trends:<br />
Klimaparameter:<br />
Insgesamt alle nachgefragt: v.a. Temperatur, Niederschlag, Strahlung, Schneedecke<br />
Evtl. entbehrlich: Luftfeuchte, Luftdruck, Bodenfeuchte<br />
räumliche Auflösung:<br />
Notwendig: bis 10 km<br />
z.T. notwendig bzw. wünschenswert: 1 km<br />
v.a. für Botanik (für Sonderfragen), Zoologie, Kulturtechnik (Niederschlag)<br />
(Human- und Sozialökologie (1 von 2 Personen) nennt alle Parameter mit 1 km als notwendig).<br />
zeitliche Auflösung:<br />
Tagesbasis bzw . Derivate davon nachgefragt. T min,T max (6std Auflösung!),T mean, T sum<br />
study-regions:<br />
Stubaier und Ötztaler Alpen, Zentralalpen, Eisenwurzen, Ost-Österreich<br />
Typen: urban (Wien), alpin, strukturschwach (O-Stmk/S-Bgld)<br />
© systems research<br />
Modellierung<br />
regionale Klima-Modellierung (ca. 10 km Ziel-Auflösung) mit<br />
den Modellen MM5 und Aladin<br />
Überprüfung Rechengenauigkeit der MM5-sources mit<br />
verschiedenen Compilern<br />
retrospektive Läufe 1981-1990, aktuelle… mit den Antriebsdaten<br />
ERA40,<br />
ECHAM 5 T106, 92a)<br />
Sensitivitätstests<br />
prospektive Modellläufe 2041-2050 mit den Antriebsdaten<br />
ECHAM 5 T106, 92a)<br />
Sensitivitätstests, Validitätsanalyse<br />
Inputdaten: Startclim 24h (ZAMG, 80 Stationen), EU-Synop 3h,<br />
MAP 24h , CALRAS<br />
© systems research<br />
5
Anhang 3<br />
Teil 1<br />
Modellierung – Prüfung der Rechengenauigkeit: IGAM<br />
Vergleich DEC Alpha : ATHLON<br />
Datensatz Storm of the Century (SOC)<br />
© systems research<br />
Modellierung – Prüfung der Rechengenauigkeit: IGAM<br />
Datensatz Storm of the Century (SOC) – Vergleich DEC Alpha : ATHLON<br />
Temperatur Windgeschwindigkeit Windfeld<br />
Nach 6 Stunden:<br />
(+0,8; -0,9) %<br />
Nach 12 Stunden:<br />
(+3,8; -2,8) %<br />
© systems research<br />
Nach 6 Stunden:<br />
(+8; -14) %<br />
Nach 12 Stunden:<br />
(+14; -9) %<br />
Nach 6 Stunden:<br />
0,8 m/s<br />
Nach 12 Stunden:<br />
0,95 m/s<br />
6
Anhang 3<br />
Teil 1<br />
Modellierung – Tests & Vergleiche (1) (MM5: ARC-sys)<br />
derzeit: Retrospektive Modell-Läufe: Tests und Vergleiche<br />
© systems research<br />
Temperatur-Verlauf<br />
August 1986:<br />
Messung und MM5-<br />
Modellvergleiche<br />
Modellierung – Tests & Vergleiche (2) (MM5: ARC-sys)<br />
Niederschlag & Luftdruck am 25.7.2002, alternative Antriebsdaten<br />
© systems research<br />
7
Anhang 3<br />
Teil 1<br />
Modellierung: Validierung, Sensitivitätstests (BOKU-Met)<br />
Ziele:<br />
<strong>1.</strong> Feststellung, in welcher Modellkonfiguration die LAMs die besten<br />
rechentechnisch leistbaren) Ergebnisse für Österreich bzw. den<br />
Alpenraum in der angestrebten Auflösung von ~10 km liefern<br />
(Modellparametrisierung)<br />
2. Aufzeigen, welche Phänomene die LAMs mit dieser Auflösung<br />
reproduzieren können und welche nicht. (>>> Vortrag Ahrens)<br />
Tests zur Dynamik des Modells über den Alpen:<br />
Einfluss der Domain-Position und Größe<br />
Einfluss des Übergangs Randbedingung/Nestingstufen<br />
Föhn, Leezyklogenese im Mittelmeer, Vb-Lage, Nord - Kaltfront<br />
Einfluss der verwendeten Orographie (unterschiedliche Glättungsverfahren?)<br />
Einfluss unterschiedlicher Landnutzungsmodelle (USGS, CORINE, ARC-sys)<br />
3. Vergleich MM5 – Aladin, im Hinblick auf Vor- und Nachteile des<br />
jeweiligen Modells<br />
© systems research<br />
Modellierung: Sensitivitätstests, Validierung (IMG)<br />
Beispiel: Differenzfelder Veraclim/Messdaten - ALADIN<br />
© systems research<br />
24.06.2002<br />
Bodendruck Temperatur<br />
8
Anhang 3<br />
Teil 1<br />
Downscaling: Beispiel Niederschlag (ARC-sys, ZAMG)<br />
Tests - Downscaling des täglichen Niederschlags<br />
IDW-interpoliert Co-Kriging<br />
Höhengradient, Residuen IDW höhengeschichtete IDW-Interpolation<br />
© systems research<br />
Downscaling: Beispiel Wind (IGAM)<br />
MM5:<br />
Modellierungszeitraum: <strong>1.</strong>9.03 -<strong>1.</strong>10.03<br />
Domäne 1: 81 km Gitter<br />
Domäne 2: 27 km Gitter<br />
Domäne 3: 9 km Gitter<br />
Domäne 4: 3 km Gitter<br />
Domäne 5: 1 km Gitter (interpoliert)<br />
NOAH – Land Surface Model<br />
Antriebsdaten: NCEP Analysis (ds083.2) 1 x 1 ° Auflösung<br />
CALMET (nachgeschaltet):<br />
Modellierungszeitraum: <strong>1.</strong>9.03 - <strong>1.</strong>10.03<br />
7 x 7 km mit 50 m Gitter<br />
Kinematische Effekte<br />
Hangwindsysteme<br />
Froude-Effekt<br />
Antriebsdaten: MM5-Ergebnis Domain 5<br />
© systems research<br />
9
Anhang 3<br />
Teil 1<br />
Downscaling: Input - Wind 1km / 10 m (IGAM)<br />
© systems research<br />
Anwendungsbeispiel - Windpark Oberzeiring<br />
Downscaling: Calmet – Wind 50m / 10 m (IGAM)<br />
© systems research<br />
Anwendungsbeispiel - Windpark Oberzeiring<br />
Kinematische Effekte<br />
Hangwindsysteme<br />
Froude-Effekt….<br />
10
Anhang 3<br />
Teil 1<br />
reclip:more – PJ1<br />
Literaturrecherche<br />
Feinstrukturierung<br />
Festlegung<br />
Messdaten,<br />
Reanalyse,GCM<br />
Festlegung,<br />
Validierungsmethoden<br />
WP 3.x<br />
Festlegung,<br />
Regionalisierungsmethoden<br />
WP4.x<br />
Festlegung,<br />
Domains,<br />
Zeitspanne,<br />
Sensitivitätstests<br />
WP 2.1, WP 2.2<br />
© systems research<br />
Messdaten,<br />
Methoden<br />
Messdaten-<br />
WP <strong>1.</strong>1, <strong>1.</strong>2<br />
Entwicklung /Test<br />
Validierungsmethoden<br />
WP 3.1, 3.2, 3.3<br />
Entwicklung /Test<br />
Regionalisierung-<br />
Methoden<br />
WP 4.1, 4.2, 4.3<br />
ERA40-<br />
Reanalysedaten<br />
WP <strong>1.</strong>3<br />
GCM-Control runs<br />
WP <strong>1.</strong>4<br />
Modelltests<br />
Regionalisierung<br />
Messdaten –<br />
Veraclim WP3.2<br />
Retrospektive<br />
Model test runs<br />
Model short runs,<br />
Sensitivitätstests<br />
WP 5.1, 5.2, 5.3, 5.4, 5.5<br />
Regionalisierung,<br />
Validierung<br />
Validierung<br />
WP 8, WP 3.2<br />
Regionalisierung<br />
Modelldaten:Tests<br />
WP 4.4, 4.5, 4.6,<br />
Validierung<br />
WP8<br />
11/2003 06/2004<br />
Methoden/Daten – PJ1<br />
Messdaten,<br />
Methoden<br />
Messdaten<br />
WP <strong>1.</strong>1, <strong>1.</strong>2<br />
Entwicklung /Test<br />
Validierungsmethoden<br />
WP 3.1, 3.2, 3.3<br />
Festlegung,<br />
Regionalisierungsmethoden<br />
WP 4.x<br />
Festlegung,<br />
Domains,<br />
Zeitspanne,<br />
Sensitivitätstests<br />
WP 2.1, 2.2<br />
Re-Analysedaten<br />
GCM control runs<br />
WP <strong>1.</strong>3<br />
© systems research<br />
07/2004<br />
reclip:more – PJ2<br />
Modellläufe retrospektiv:<br />
short runs, long runs, Regionalisierung<br />
Retrospektive<br />
Model short runs,<br />
WP 5.1, 5.2, 5.4, 5.5<br />
Valid./Regionalisierung<br />
Messdaten - Veraclim,<br />
WP 3.2<br />
Regionalisierung<br />
Modelldaten<br />
WP 7.1, 7.2, 7.3<br />
Retrospektive<br />
Model long runs,<br />
WP 6.1, 6.2<br />
Benchmark<br />
Benchmark<br />
WP 8<br />
06/2005<br />
11
Anhang 3<br />
Teil 1<br />
Methoden – PJ1<br />
Methoden<br />
Entwicklung /Test<br />
Validierungsmethoden<br />
WP 3.1, 3.2, 3.3<br />
Entwicklung /Test<br />
Regionalisierungmethoden<br />
WP4.1,4.2,4.3<br />
Festlegung, Domains,<br />
Zeitspanne,<br />
Sensitivitätstests<br />
WP 2.1, 2.2<br />
© systems research<br />
GCM<br />
WP<strong>1.</strong>4<br />
07/2005<br />
reclip:more – PJ3<br />
Modellläufe prospektiv:<br />
short runs, long runs; Regionalisierung<br />
Prospektive Model<br />
short runs<br />
Sensitivitätstests<br />
WP 9.1, 9.2, 9.3, 9.4<br />
Regionalisierung<br />
Modelldaten:<br />
WP10.1,10.2,10.3<br />
Prospektive Model<br />
long runs<br />
WP 1<strong>1.</strong>1, 1<strong>1.</strong>2,<br />
Plausibilitäts-Test<br />
Daten-Exzerpt<br />
Plausibilitäts-Test<br />
Datenexzerpt<br />
WP 12.1, 12.2<br />
06/2006<br />
12
Loibl – Präsentation von reclip:more am Klimatag 2004 der BOKU<br />
Keuler – Gastvortrag am 20.4.2004<br />
Benestad – Gastvortrag am 2<strong>1.</strong>6.2004<br />
Anhang 3<br />
Folienübersicht der Vorträge
Loibl – Präsentation von reclip:more am Klimatag 2004 der BOKU<br />
Keuler – Gastvortrag am 20.4.2004<br />
Benestad – Gastvortrag am 2<strong>1.</strong>6.2004<br />
Anhang 3<br />
Folienübersicht der Vorträge
Statistical tatistical Downscaling Methods - Theoretical<br />
Background & Experiences from Practical Work<br />
Rasmus.benestad@met.no<br />
Outline<br />
● Theoretical basis.<br />
R.E. Benestad<br />
– Why do we need downscaling?<br />
● Methods.<br />
– Dynamical v.s. empirical-statistical<br />
– The common EOF frame-work<br />
– Statistical models: Regression, CCA, SVD, …<br />
– Empirical-statistical: e.g linear, analog<br />
● Uncertainties.<br />
● Clim.pact and SDSM.<br />
1
Principles rinciples of Downscaling ownscaling<br />
Why downscaling?<br />
“Skillful spatial scale”: ~ 8 grid-pts.<br />
Grotch & McCracken (1991), J. Clim, 4, p. 286<br />
Principles rinciples of Downscaling ownscaling<br />
Large-scale<br />
(GCMs, re-analysis)<br />
Latitude<br />
90<br />
80<br />
70<br />
60<br />
50<br />
40<br />
30<br />
slp: 1st EOF: var=25.7968%<br />
X region : large-scale regional condition<br />
20<br />
eof an ea slp atl.nc<br />
J u m n<br />
−150 −100 −50 0<br />
Longitude<br />
50 100 150<br />
Xlocal local = f(X<br />
(Xregion, region<br />
temperature<br />
6000<br />
4000<br />
−2000<br />
−4000<br />
−6000<br />
0 2 4 6 8<br />
oslo<br />
oksoy<br />
nesbyen<br />
Interpolated Temperatures v.s. station Observations<br />
Local climatic differences<br />
are not resolved in GCMs.<br />
Annual ECHAM4−GSDIO<br />
Empirical-statistical downscaling:<br />
1850 1900 1950 2000 2050<br />
Time<br />
Interpolated NCEP & AOGCM and station observations<br />
2000<br />
Incorporates influence of regional<br />
0<br />
conditions and geographical influences<br />
using information from the past.<br />
, physiography)<br />
physiography<br />
Geographical influence (physiography)<br />
Small-scale<br />
(Direct measurements)<br />
2
Methods ethods<br />
Empirical-statistical & Dynamical downscaling: 2 completely<br />
different approaches - independent modelling strategies.<br />
Deg C<br />
2.5<br />
2.0<br />
<strong>1.</strong>5<br />
<strong>1.</strong>0<br />
0.5<br />
Projected change in annual mean temperature<br />
DD<br />
ED<br />
Dynamical DS not necessarily ‘better’ than<br />
empirical-statistical. 0.0 Stationarity-problems<br />
associated with parameterisation (statistical) and<br />
Hanssen-Bauer<br />
not<br />
et<br />
more<br />
al. (2003)<br />
‘physically<br />
Clim. Res.,<br />
consistent’<br />
25, 15<br />
(systematic<br />
biases – also see figure!).<br />
Methods ethods<br />
R1 R2 R3 R4 R5 R6<br />
2-dimensional data matrix converted to a 1D vector:<br />
Y ij → ỹ ∈ℜ n×m<br />
m<br />
n<br />
A question of of how to to organize<br />
the the data…before EOF anaysis.<br />
Latitude (deg N)<br />
X14<br />
X13<br />
X12<br />
X11<br />
X24<br />
X23<br />
X22<br />
X21<br />
X11<br />
X12<br />
...<br />
Time<br />
X34<br />
X33<br />
X32<br />
X31<br />
Example of data grid<br />
X44<br />
X43<br />
X42<br />
X41<br />
X54<br />
X53<br />
X52<br />
X51<br />
X64<br />
X63<br />
X62<br />
X61<br />
Longitude (deg E)<br />
Observations Model<br />
X74<br />
X73<br />
X72<br />
X71<br />
X84<br />
X83<br />
X82<br />
X81<br />
X94<br />
X93<br />
X92<br />
X91<br />
3
Methods ethods<br />
EOFs and so forth…<br />
● Why do we do it?<br />
– Convenient way of compressing informaton. Handy<br />
for regression analysis.<br />
– Nice mathematical properties (orthogonality). Handy<br />
for regression analysis.<br />
– Seperate time structures from space.<br />
● Physically meaningful??<br />
Methods ethods<br />
Empirical Orthogonal Functions (EOFs) and Principal<br />
Component Analysis (PCA).<br />
Eigenvectors of the co-variance matrix:<br />
‘S-mode’ and ‘T-mode’<br />
Variance-covariance matrix S of X’ is<br />
1/(n-1) X’ T X where<br />
X’ = X - X<br />
S e = λ e (Eigenfunctions)<br />
x’ =E u<br />
u m = e T m x’<br />
Singular Vector Decomposition (SVD)<br />
(different notations E=U, but u is not the<br />
vector form for U)<br />
X = U Σ V T<br />
[x 1 , x 2 ,..x m ] →X<br />
e T ie j =δ ij<br />
[e 1 , e 2 ,..e n ] →E<br />
Literature:<br />
Wilks, D.S. (1995) Statistical Methods in the Atmospheric Sciences. Academic Press<br />
Press W.H., Flannery B.P., Teukolsky S.A, & Vetterling W.T..(1989) Numerical Recipes, Cambridge<br />
Preisendorfer R.W. (1989) Principal Component Analysis in Meteorology and Oceanology, Elsevier Science Press<br />
4
Methods ethods<br />
Gridded Observations/ re-analysis<br />
Time axis<br />
PCA: Singular Vector Decomposition (SVD):<br />
X = U Σ V T<br />
U Σ V<br />
Mathematically identical to<br />
Empirical orthogonal functions (EOF).<br />
Methods ethods<br />
Precipitation (mm)<br />
0 10 20 30 40 50 60<br />
U Σ V U Σ V<br />
PCA: observations PCA: GCM<br />
‘Prefect prognosis’<br />
Traditional downscaling<br />
common EOF : : combine two<br />
different data sets<br />
GCM results<br />
space<br />
U: spatial pattern common<br />
Σ: ‘Eigenvalues’ (variance)<br />
V: time series describing the<br />
loadings (principal components)<br />
U Σ<br />
Common PCA<br />
V<br />
Common EOF based<br />
downscaling<br />
VT VT<br />
VT OSLO − BLINDERN<br />
1950 1960 1970 1980 1990 2000<br />
Time<br />
met.no Klima DataVareHus<br />
Regression →ψ<br />
U<br />
U<br />
Match<br />
Patterns→ϕ<br />
ϕψ<br />
scenario<br />
Precipitation (mm)<br />
0 10 20 30 40 50 60<br />
OSLO − BLINDERN<br />
1950 1960 1970 1980 1990 2000<br />
Time<br />
met.no Klima DataVareHus<br />
Regression →ψ<br />
ψ<br />
scenario<br />
5
Methods ethods<br />
Regression & other Statistical models on Relationships<br />
Methods ethods<br />
Tmpr ( deg C )<br />
20 30 40 50 60 70<br />
Regression:<br />
Example: lm versus projection<br />
single & multiple regression.<br />
Least Squares fit Projection of y= a0 + a1 x1 + a2 x2 + a3 x3 + …<br />
−10 −5 0 5<br />
data<br />
multivariate regression & matrix projection.<br />
Projection & least squares: A x = y → y= A(A T A) -1 A T x<br />
y = a x → a = (x T y)/(x T x)<br />
Strang, G. (1988) Linear Algebra and its Applications, Harcourt Brace & Company<br />
Benestad (1999) MVR applied to Statistical Downscaling for Prediction of Monthly<br />
Mean Land Surface Temperatures: Model Documentation, DNMI Klima, 2/99. pp.35<br />
Oslo Temperature (deg C)<br />
lm<br />
linear models, generalised linear models, non-linear models.<br />
Regression example for Innsbruck…<br />
Empirical Downscaling ( ncep_t2m [ 10W50E−30N60N ] −> Tmpr )<br />
−80 −60 −40 −20 0 20 40<br />
Time<br />
Calibration: Jan Tmpr at INNSBRUCK using ncep_t2m: R2=81%, p−value=0%.<br />
d2<br />
−6 −4 −2 0 2 4<br />
Tmpr ( deg C )<br />
−6 −4 −2 0 2<br />
d1<br />
Ualand Temperature (deg C)<br />
Empirical Downscaling ( ncep_t2m [ 10W50E−30N60N ] −> Tmpr )<br />
Obs.<br />
Fit<br />
GCM<br />
Trends<br />
Jan: Trend fit: P−value=92%; Projected trend= 0.02+−0.25 deg C/decade<br />
1960 1970 1980<br />
Time<br />
1990<br />
Calibration: Jan Tmpr at INNSBRUCK using ncep_t2m: R2=81%, p−value=0%.<br />
6
Methods ethods<br />
Methods ethods<br />
Canonical Correlation Analysis (CCA)<br />
classical & Barnet-Preisendorfer CCA.<br />
ECHAM4<br />
Bretherton et al. (1992) An Intercomparison of Methods for finding<br />
Coupled Patterns in Climate Data, J. Clim., 5, 54<strong>1.</strong><br />
T(2m).<br />
SLP.<br />
Benestad (1998) CCA applied to Statistical Downscaling for Prediction of<br />
Obs.<br />
Monthly Mean Land Surface Temperatures: Model Documentation, DNMI Klima,<br />
28/98, pp.96<br />
T(2m).<br />
Singular Vector Decomposition (SVD)<br />
not to be confused with Singular Vector<br />
Decomposition (SVD)<br />
Coupled fields (from CCA).<br />
SLP.<br />
Find patterns with the<br />
maximum correlation.<br />
X 1 = G U T , X 2 =HV T<br />
U T V = L M R T = C<br />
Downscaling:<br />
X 1 = G M (H T H) -1 X 2<br />
Benestad (1998) SVD applied to Statistical Downscaling for Prediction of<br />
Monthly Mean Land Surface Temperatures: Model Documentation, DNMI Klima, 30/98,<br />
pp. 38<br />
X 1 = G svd S 12 S 22 -1 H T svd X 2<br />
Maximize co-variance (CCA maximizes correlation)<br />
Other types of models…<br />
Neural nets and Self-Organising Maps…<br />
7
Methods ethods<br />
Methods ethods<br />
Example of downscaling: ‘Perfect prog’ & common EOF<br />
Common EOF<br />
‘Perfect prog’<br />
Benestad (2001) Int. J. Clim. 21 1645<br />
Experiment: downscaling using a set of different predictor domains.<br />
Check robustness (flat structure).<br />
Common EOF<br />
‘Perfect prog’<br />
Benestad (2001) Int. J. Clim. 21 1645<br />
8
Methods ethods & Uncertainties ncertainties<br />
Choice of domain can affect your results…<br />
Annual mean temperature No No at ‘inflation’ bjoernoeya−99710 has been used<br />
here. Less need for for inflation<br />
Bjoernoeya: 19.02°E,74.52°N<br />
than in in ‘Perfect Prog’ approach<br />
(von (von Storch, 1999, J. J. Clim, 12, 12, 3505)<br />
Temperature (deg C)<br />
−8 −6 −4 −2 0 2 4 6<br />
1900 1950 2000 2050<br />
Time (year)<br />
Downcaled from ECHAM4/OPYC3 GSDIO<br />
Benestad (2002) Clim. Res.,21 (2), p. 105-125: warning about domain choice.<br />
Methods ethods & Uncertainties ncertainties<br />
Strong & well-understood<br />
relationship (reflecting a physical<br />
mechanism)<br />
Field that GCMs can skilfully<br />
reproduce<br />
Parameters that carry the essential<br />
signal (e.g. a gradual global<br />
warming is not well-represented in<br />
SLP)<br />
Which parameters as predictors?<br />
Temperature trend (deg C per decade)<br />
−2 −1 0 1 2<br />
obs<br />
−10E50E52N75N<br />
−40E20E67N85N<br />
−40E40E52N80N<br />
−60E40E42N70N<br />
.slp. .slp.temp. .temp.<br />
9
Methods ethods & Uncertainties ncertainties<br />
Choice of method: e.g. linear v.s. analog<br />
Other methods may also be be<br />
incorporated into clim.pact<br />
in in the the future, such as as neural<br />
nets. Various regression<br />
models are are available (lm,<br />
glm, etc.), and CCA/SVDbased<br />
models may also be be<br />
included in in the the future.<br />
In In the the common EOF framework it it is is<br />
possible to to add corrections to to the the<br />
model results: by by setting<br />
PC PC loadings for for ‘present-day’<br />
climate to to have same spread and<br />
location (µ (µ & σ) σ) as as in in the the<br />
observations and use the the same<br />
adjustments for for the the future.<br />
Methods ethods & Uncertainties ncertainties<br />
Probing uncertainties through multi-model ensembles:<br />
Spread caused by different model shortcomings, natural<br />
variability & different initialisation processes.<br />
10
Uncertainties ncertainties<br />
Re-cap of Uncertainties…<br />
● Model shortcomings (systematic biases).<br />
– Can be explored to a certain extent through multi-model<br />
ensembles.<br />
– Analysis, validations, & diagnostics (clim.pact)<br />
● Imperfect downscaling methods and choice of set-up.<br />
– Can be explored through different choices and methods (eg<br />
clim.pact, SDSM, & nested models)<br />
– Validation exercises.<br />
● Natural variability, GCM initiation, & additional forcing<br />
factors.<br />
– Ensembles of GCM exmperiments.<br />
● Emission scenarios.<br />
Clim.pact lim.pact & SDSM DSM<br />
– Multi-emission scenario ensembles.<br />
Other types of empirical-statistical downscaling:<br />
Obs<br />
So far: pattern matching. GSDIO<br />
met.no−B2<br />
Simpler: circulation indices & E.S.C.−B2<br />
classifications.<br />
monthly mean T(2m) (degree Celsius)<br />
−15 −10 −5 0<br />
Pattern matching: incorporate a form of quality control/validation.<br />
Clim.pact for R and SDSM<br />
Wise to to use different tools<br />
in in downscaling in in order to to<br />
check robustness!<br />
Time series<br />
1900 1950 2000 2050 2100<br />
Time<br />
Dec − Feb monthly mean T(2m) at NESBYEN<br />
C.W. Dawson & Rob Wilby: Wilby<br />
https://co-public.lboro.ac.uk/cocwd/SDSM<br />
https://co public.lboro.ac.uk/cocwd/SDSM/<br />
11
Clim.pact lim.pact<br />
Http://cran.p-project.org/<br />
Clim.pact lim.pact<br />
Clim.pact<br />
An analytical tool for climate analysis<br />
R.E. Benestad<br />
A cook book recipe<br />
Can be run on PCs (click), in emacs on Linux (with the<br />
ESS package installed, or in ordinary shells:<br />
12
Clim.pact lim.pact<br />
Clim.pact lim.pact<br />
To start R<br />
● In emacs:<br />
– Type 'Esc' & 'X'<br />
– Type 'R'<br />
– or name of<br />
working directory.<br />
Basic commands:<br />
● help.start()<br />
● quit()<br />
● library(clim.pact)<br />
● ls()<br />
● A
Clim.pact lim.pact<br />
Selected clim.pact functions.<br />
● DS()<br />
Clim.pact lim.pact<br />
● EOF()<br />
● getnacd()<br />
● mixFields()<br />
● catFields()<br />
● mapField()<br />
● plotDS()/plotEOF()<br />
● satellite()<br />
● corField()<br />
● Empirical DownScaling.<br />
● EOF analysis.<br />
● Reads NACD data.<br />
● Mixes data fields (eg SLP & T2m).<br />
● Concatinates fields (obs + model).<br />
● Shows a map of fields values<br />
● Plots the results (DS or EOF).<br />
● Polarstereographic view.<br />
● Correlation analysis.<br />
Sample session:Station record<br />
rm(list=ls())<br />
1<br />
2<br />
avail.locs()<br />
mestad.rr Figs 1 & 2<br />
plotStation(mestad,mon=1) # -> Figs 3 & 4<br />
3 4<br />
14
Clim.pact lim.pact<br />
Clim.pact lim.pact<br />
Sample session: Presenting maps<br />
slp
Clim.pact lim.pact<br />
Clim.pact lim.pact<br />
Sample session: spatial correlation<br />
data(tromsoe.t2m)<br />
obs.t2m
Clim.pact lim.pact<br />
Clim.pact lim.pact<br />
Downscaling with real observations.<br />
data(eof.slp)<br />
data(bergen.t2m)<br />
DS(preds=eof.slp,dat=bergen.t2m)<br />
Sample session: downscaling<br />
slp.obs
Clim.pact lim.pact<br />
Documentation<br />
● Online manual & PDF: clim.pact.pdf<br />
● met.no KLIMA report 01/03 for V0.9<br />
● Met.no KLIMA, 04/03, pp. 85.<br />
Rasmus.benestad@met.no<br />
18
Anhang 4<br />
Nachfrage nach Klimadaten – Bedarfserhebung Herbst 2003
Nachfrage nach Klimadaten – Bedarfserhebung Herbst 2003<br />
Die Modellrechnungen erfolgen in mehreren Nestingstufen, wobei ausgehend von<br />
Modellergebnissen für ein grobes Raster Ergebnisse für ein feineres Raster<br />
berechnet werden – für Europa, für den Alpenraum, für die Ostalpen etc. Aufgrund<br />
der beschränkten Finanz- und Rechenkapazitäten können nicht alle potenziellen<br />
Datenwünsche der Klimafolgen-ForscherInnen-Gemeinde erfüllt werden.<br />
Um jedoch die auszuwertenden Modellergebnisse an den Bedarf der Klimafolgen-<br />
ForscherInnen soweit als möglich anzupassen, wurde im September 2003 von ARC<br />
systems research eine Erhebung unter den Interessenten der FORNE-Initiative<br />
(Forschung für Nachhaltige Entwicklung) durchgeführt.<br />
Mittels standardisierten Erhebungsbogen wurde erfragt, welche Klimaparameter als<br />
wichtig erachtet werden und welche räumliche bzw. zeitliche Auflösung für eine<br />
Befassung des Fachgebietes mit der Thematik notwendig scheint.<br />
Insgesamt wurden 85 Institute bzw. WissenschaftlerInnen angeschrieben. 20 davon<br />
retournierten den Erhebungsbogen, wobei 18 quantitativ auswertbare Antworten<br />
lieferten.<br />
Die Adressaten dieser Antworten entstammen folgenden Fachgebieten:<br />
- Botanik und Vegetationsökologie<br />
- Forstwirtschaft/Waldbau<br />
- Zoologie<br />
- Kulturtechnik<br />
- Human- u. Sozialökologie<br />
- Volkswirtschaft<br />
Die Auswertung der Antworten lässt sich nach Fachgebieten und getrennt in<br />
räumliche und zeitliche Auflösung wie folgt zusammenfassen:<br />
Anhang 4 1
Tab. 1: Auswertung der Datennachfragepräferenzen im Hinblick auf die räumliche Genauigkeit<br />
nach Fachgebieten<br />
X heißt, dass eine Mehrheit diese Ausprägung als notwendig erachtet<br />
(x heißt, dass hier keine Mehrheit gegeben ist – bei 50:50 Bewertung)<br />
0 gibt eine indifferente Meinung an – zT notwendig, zT wünschenswert<br />
- benennt jene Ausprägungen die zT als wünschenswert, von einer Minderheit als notwendig erachtet wurden.<br />
Tab. 2: Auswertung der Datennachfragepräferenzen im Hinblick auf die zeitliche Auflösung nach<br />
Fachgebieten<br />
X heißt, dass eine Mehrheit diese Ausprägung als notwendig erachtet<br />
(x heißt, dass hier keine Mehrheit gegeben ist – bei 50:50 Bewertung)<br />
0 gibt eine indifferente Meinung an – zT notwendig, zT wünschenswert<br />
- benennt jene Ausprägungen die zT als wünschenswert, von einer Minderheit als notwendig erachtet wurden.<br />
2 Anhang 4
Die Gesamtauswertung stellt sich wie folgt dar:<br />
Tab. 3: Auswertung der Datennachfragepräferenzen insgesamt<br />
Die Nachfragetrends lassen sich folgendermaßen zusammenfassen:<br />
Räumliche Auflösungen<br />
Als unbedingt notwendig wird generell eine Auflösung bis 10 km erachtet, teilweise<br />
wird 1 km als notwendig bzw. wünschenswert angegeben (va. für Sonderfragen der<br />
Botanik). Zoologie, Kulturtechnik (wo va. der Niederschlag interessiert) sowie<br />
Human- und Sozialökologie (1 von 2 Personen) halten alle Parameter mit 1 km<br />
Auflösung als notwendig.<br />
Als gewünschte Study-Regions mit 1 km Auflösung oder feiner wurden genannt:<br />
die Stubaier und Ötztaler Alpen, die Zentralalpen, die Region Eisenwurzen, der<br />
Seewinkel, das Marchfeld und Wien; damit wären drei Regionstypen, nämlich urban<br />
(Wien), alpin und strukturschwach (zB O-Stmk/S-Bgld) abgedeckt.<br />
Zeitliche Auflösungen<br />
Bei der zeitlichen Auflösung wurden Ergebnisse auf Tagesbasis bzw. Derivate<br />
davon (zB Temperatursummen) als notwendig erachtet. Zusätzlich benötigt man<br />
Tmean, Tmin, Tmax (dh. zumindest eine 6-stündige Auflösung!), bzw.<br />
Tagesmittelwerte und Tagessummen.<br />
Gewünschte Klimaparameter<br />
Von allen nachgefragt wurde va. T, NS, Strahlung und Schneedecke. Als evtl.<br />
entbehrlich erscheinen Luftfeuchte, Luftdruck und Bodenfeuchte.<br />
Anhang 4 3
präsentiert bei<br />
High-resolution climate modelling: Assessment, added value and applications<br />
Lund, Sweden, 29 March – 2 April 2004<br />
Anhang 5<br />
reclip:more Poster
eclip:more<br />
research research<br />
for climate climate<br />
protection: rotection: model model<br />
run un evaluation valuation<br />
Johann Züger, ARC systems research, A-2444 Seibersdorf<br />
Goals of reclip:more<br />
The project reclip:more was started to carry out regional climate model runs, sensitivity analysis, model benchmarking of 2 different<br />
regional climate models and finally to provide validated high resolution datasets for Austria. The overall objective referring to data is to<br />
produce transient regional climate model (RCM) results of the daily weather conditions for a past decade (~1990-2000) as control run for<br />
model validation purposes and for a future decade (~2040-2050). A Model validation task shall perform a benchmarking of 2 different<br />
limited area models: MM5 and ALADIN. The major scientific goals are to quantify the uncertainties, investigate the sensitivity of regional<br />
climate simulations and create regional scale climate change scenarios with a resolution of 10 km for the eastern Alps covering Austria.<br />
Further downscaling shall deliver results with 1km resolution for some selected test regions.<br />
Tasks in detail:<br />
(1) <strong>Development</strong> and application of methods and<br />
tests:<br />
Model validation - statistical methods, indicators.<br />
Up/Downscaling - regionalization of observation and<br />
gridded model results.<br />
(2) Dynamical regional climate modeling:<br />
Retrospective model runs of 2 LAMs with Reanalysis<br />
and GCM data sets for 1990-2000.<br />
Prospective model runs of 2 LAMs with GCM data<br />
sets for 2040-2050 (possibly 2070-2100).<br />
(3) Up / Down Scaling:<br />
Regionalization of observation data and gridded<br />
model results for validation and finally for delivery of<br />
model results.<br />
(4) Benchmarking of retrospective model runs:<br />
Comparative analysis of high resolution model<br />
results and monitoring data.<br />
Documentation of advantages and disadvantages<br />
of different model settings within the LAMs.<br />
(5) Comparison of results of prospective model<br />
runs<br />
(6) Delivery of high resolution model results for<br />
future climate:<br />
Temperature (mean, max, min), humidity, radiation,<br />
wind (6-h speed, direction), precipitation (daily).<br />
K-wiss<br />
reclip:strat reclip:tom<br />
Model<br />
Validation,<br />
Benchmarking<br />
Up/Down<br />
Scaling Data<br />
and Model<br />
Results<br />
Dynamical<br />
modeling<br />
Partners:<br />
Universities<br />
ZAMG<br />
ARC<br />
Data<br />
1999<br />
Work Packages & Schedule<br />
Validation Methods<br />
Reanalysis<br />
Data<br />
Benchmarking 1999<br />
Up/Down Scaling<br />
Methods<br />
Up/Down Scaling Data<br />
& Model Runs 199x<br />
Retrospective Model<br />
Runs 199x<br />
GCM<br />
Data<br />
GCM<br />
Data<br />
Results Comparison<br />
Up/Down Scaling<br />
Model Runs 204x<br />
Prospective Model Runs<br />
204x<br />
Transient<br />
Regional<br />
Results for<br />
Climate<br />
Change<br />
Research<br />
2003 2004 2005 2006<br />
The reclip:more Team:<br />
ARC systems research<br />
Project management, data preparation for MM5, MM5 short runs, sensitivity tests.<br />
Downscaling: T-min, T-max, Rad.<br />
Contact: wolfgang.loibl@arcs.ac.at<br />
IMGW - University of Vienna<br />
(1) SYNOP-,MAP-,CALRAS datasets, model run validation with VERA, sensitivity tests.<br />
(2) Data preparation for ALADIN, ALADIN short runs, sensitivity tests, long runs.<br />
Contact: (1) manfred.dorninger@univie.ac.at, (2) bodo.ahrens@univie.ac.at<br />
BOKU-Met - University of Agriculture Vienna<br />
Sensitivity tests concept, model validation concept, RCM benchmarking.<br />
Contact: herbert.formayer@boku.ac.at<br />
IGAM - University Graz<br />
MM5 long runs, vertical validation, downscaling wind.<br />
Contact: andreas.gobiet@uni-graz.at, heimo.truhetz@uni-graz.at<br />
ZAMG - Austrian Weather Service<br />
Austrian monitoring data, downscaling T-mean, P, Snow.<br />
Contact: wolfgang.schoener@zamg.ac.at<br />
Acknowledgement<br />
The project reclip:more is funded by the K-wiss program of the Austrian Research Centers (ARC). The main goal of the K-wiss program is to enhance the cooperation between universities and other<br />
research institutions. One of the tasks within K-wiss is reclip conducted by ARC systems research.<br />
Reclip is divided into three branches:<br />
reclip:more (research for climate protection: model run evaluation)<br />
reclip:tom (research for climate protection: Technological Options for Mitigation )<br />
reclip:strat (research for climate protection: Strategic Accompanying and Evaluation).<br />
Contact:<br />
Wolfgang Loibl<br />
ARC systems research<br />
A-2444 Seibersdorf<br />
reclip:more<br />
Tel.: +43(0)50550-3875<br />
Fax: +43(0)50550-3888<br />
email: wolfgang.loibl@arcs.ac.at<br />
URL: http://www.systemsresearch.ac.at
Impressum<br />
Als Manuskript vervielfältigt. Für diesen Bericht<br />
behalten wir uns alle Rechte vor.<br />
ARC-Berichte<br />
Herausgeber, Verleger, Redaktion, Hersteller :<br />
ARC systems research GmbH<br />
A-2444 Seibersdorf<br />
T : +43(0)50550-3880<br />
F : +43(0)50550-3888<br />
sys@arcs.at<br />
www.systemsresearch.ac.at