01.07.2013 Aufrufe

Zweijahresbericht 2004/2005 - Bibliothek - GFZ

Zweijahresbericht 2004/2005 - Bibliothek - GFZ

Zweijahresbericht 2004/2005 - Bibliothek - GFZ

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

418<br />

Abb. 10: Architektur der eScience-Plattform. Eine Service-<br />

Plattform stellt standardisierte Dienste für projekt- und<br />

anwendungsspezifische Portale zur Verfügung.<br />

Architecture of the eScience Platform. A service platform<br />

is offering standardised services for project and application<br />

specific portals.<br />

Speicherarchitektur, die über eine zeitgemäße Dienstplattform<br />

zugänglich sind. Die Maßnahmen werden dazu<br />

beitragen, die Potentiale von eScience für geowissenschaftliche<br />

Anwendungsfelder zu erschließen (Abb. 10).<br />

Die entstehende eScience-Plattform unterstützt:<br />

• die Prozessierung von Messdaten aus den vielfältigen<br />

Forschungsprojekten mit dem Schwerpunkt Satellitenmissionen<br />

und globale Experimente,<br />

• die Modellierung von komplexen geowissenschaftlichen<br />

Prozessen,<br />

• die Ausführung von zeitkritischen Simulationen, z. B.<br />

im Rahmen der Frühwarnung bei unmittelbar drohenden<br />

Naturkatastrophen,<br />

• die Suche von und Zugang zu Messdaten, prozessierten<br />

Daten und hochwertigen Informationsprodukten<br />

und<br />

• die langfristige Sicherung und Verfügbarkeit wichtiger,<br />

hochvolumiger, wissenschaftlicher Daten, z. B.<br />

Monitoring-Daten.<br />

Die Funktionen der Plattform sollen dem<br />

Anwender als Dienste einer Service-<br />

Orientierten Architektur (SOA) über<br />

anwendungsspezifische Portale angeboten<br />

werden. Auf diese Weise können verfügbare<br />

Ressourcen wesentlich flexibler<br />

im Rahmen unterschiedlicher Aufgabenstellungen<br />

und Anwendungen kombiniert<br />

und genutzt werden. Für die Intensivierung<br />

der Vernetzung mit Hochschulen, anderen<br />

Forschungsinstituten und der Wirtschaft<br />

ergeben sich signifikante Impulse.<br />

Der Aufbau der eScience-Plattform beinhaltet<br />

sowohl eine wesentliche Verstär-<br />

kung der Computing-Ressourcen als auch den Ausbau der<br />

Kapazitäten für die Speicherung und Archivierung von<br />

Daten. Durch bereits durchgeführte Umfragen und Studien<br />

liegen konkrete Vorstellungen über die Gestaltung der<br />

Plattform vor. Darüber hinaus soll die Nutzung dieser<br />

Angebote durch leistungsfähige aber kostengünstige Projekt-<br />

und/oder Anwendungsportale gefördert werden. Der<br />

Aufbau der eScience-Plattform im <strong>GFZ</strong> Potsdam beinhaltet<br />

folgende, konkrete Maßnahmen:<br />

Breitbandausbau Netzwerk: Zum gegenwärtigen Zeitpunkt<br />

sind die Leitungs- und Vermittlungsinfrastrukturen<br />

auf dem Telegraphenberg überwiegend auf einen Durchsatz<br />

von maximal 100 Mbit/s ausgelegt. Die Anbindung<br />

einzelner Gebäude und Einheiten erfolgt allerdings noch<br />

mit Kapazitäten von 10 Mbit/s. Durch den Ausbau des<br />

Netzwerks (Gbit/s) auf dem Telegrafenberg wird es möglich,<br />

nicht nur den Zugriff auf und den Datentransfer zwischen<br />

Diensten zu verbessern, sondern auch die Möglichkeiten<br />

des Massendatenmanagements zu erweitern.<br />

Erweiterung des High Performance Cluster (HPC): Der Aufbau<br />

des Compute-Services mit mindesten 256 Knoten<br />

basiert auf dem Einsatz von Standard-Cluster-Technologien.<br />

Damit steht eine ausreichende Rechnerleistung für die Prozessierung,<br />

Modellrechnungen, Simulationen und verteilte<br />

Applikationen zur Verfügung (Abb. 11). Eine optimale Performance<br />

kann durch High-Speed-Connections (Infini-<br />

Band) erreicht werden, die den Datenfluss zwischen den einzelnen<br />

Knoten optimieren, die Latenzzeiten verringern und<br />

die nutzbare Bandbreite zur Datenübertragung erhöhen. Die<br />

Steuerung des HPC erfolgt über eine Managementsoftware,<br />

mit der das System konfi-guriert, die Lastverteilung überwacht<br />

und die Nutzer-Accounts verwaltet werden. Beim<br />

Transfer existierender Anwendungen auf das HPC ist ein<br />

entsprechender Support für die effiziente Parallelisierung<br />

und die detaillierte Code-Optimierung erforderlich.<br />

Redesign Massendatenmanagement: Im August <strong>2004</strong><br />

wurde im Rahmen einer externen Studie eine Situationsanalyse<br />

zum Massendatenmanagement im <strong>GFZ</strong> durchgeführt.<br />

Diese zeigte, dass die wachsenden Anforderungen<br />

nicht länger durch einen rein quantitativen Ausbau der<br />

Speichersysteme erreicht werden können. Vielmehr schlägt<br />

Abb. 11: Entwicklung des Rechenzeitbedarfs von 2000 bis 2010<br />

Development of computing demand from 2000 to 2010<br />

<strong>Zweijahresbericht</strong> <strong>2004</strong>/<strong>2005</strong> GeoForschungsZentrum Potsdam

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!