25.02.2013 Aufrufe

Neuer Cluster-Computer am Albert-Einstein-Institut macht Schwarze ...

Neuer Cluster-Computer am Albert-Einstein-Institut macht Schwarze ...

Neuer Cluster-Computer am Albert-Einstein-Institut macht Schwarze ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

MAX-PLANCK-INSTITUT FÜR GRAVITATIONSPHYSIK<br />

ALBERT-EINSTEIN-INSTITUT<br />

Presseinformation<br />

Potsd<strong>am</strong>, 06. Mai 2003<br />

<strong>Neuer</strong> <strong>Cluster</strong>-<strong>Computer</strong> <strong>am</strong> <strong>Albert</strong>-<strong>Einstein</strong>-<strong>Institut</strong><br />

<strong>macht</strong> <strong>Schwarze</strong> Löcher berechenbar<br />

In Golm bei Potsd<strong>am</strong> etabliert sich ein Kompetenzzentrum für wissenschaftliches<br />

Rechnen<br />

Knapp 100 Jahre nach der Entwicklung der Relativitätstheorie durch <strong>Albert</strong> <strong>Einstein</strong> ist unser<br />

Wissen über die Gravitationsphysik rasant angewachsen. Zweifelte <strong>Einstein</strong> z.B. die Existenz<br />

<strong>Schwarze</strong>r Löcher noch stark an, sind wir heute sicher, dass es sie gibt. Diese Sicherheit<br />

verdanken wir u.a. den Fortschritten der <strong>Computer</strong>forschung. Immer schneller arbeitende<br />

<strong>Computer</strong> ermöglichen heute, die komplexen Denkmodelle und Theorien der Gravitationsphysiker<br />

zu testen, realistische astrophysikalische Systeme zu simulieren und sie dreidimensional zu<br />

visualisieren.<br />

Aber schnell ist manchmal nicht schnell genug. Am Golmer Max-Planck-<strong>Institut</strong> für<br />

Gravitationsphysik (<strong>Albert</strong>-<strong>Einstein</strong>-<strong>Institut</strong>, AEI), dem internationalen Zentrum der<br />

Relativitätstheorie, sitzen die weltweit führenden Köpfe der Gravitationsphysik. Die Forschung hier<br />

ist in eine Dimension vorgedrungen, der der 1997 in Betrieb genommene Hochleistungsrechner<br />

SGI-CRAY Origin 2000 nicht mehr gerecht wurde. Übergangsweise wurden Rechenläufe daher an<br />

internationalen Hochleistungsrechenzentren, wie etwa dem NCSA in den USA durchgeführt. Da<br />

dies jedoch ist mit einem hohen Abwicklungsaufwand verbunden ist, hat das AEI nun ein<br />

Hochleistungs-Linux Compute <strong>Cluster</strong> mit der ca. 20-fachen Leistung der CRAY beschafft.<br />

„Wir sind glücklich, unsere Theorien und Modelle z.B. zu astrophysikalischen Ereignissen, wie dem<br />

Verschmelzen zweier <strong>Schwarze</strong>r Löcher, jetzt unmittelbar <strong>am</strong> <strong>Institut</strong> testen und somit schneller<br />

und effektiver arbeiten zu können“, so Prof. Bernard Schutz, Geschäftsführender Direktor des AEI.<br />

„Wir leisten d<strong>am</strong>it auch einen entscheidenden Beitrag zum Fortschritt internationaler Großprojekte<br />

wie GEO600 (erdgebundene Gravitationswellenmessung) oder LISA (Gravitationswellenmessung<br />

im Weltraum).“


PEYOTE<br />

Der neue <strong>Cluster</strong> <strong>am</strong> AEI bek<strong>am</strong> von der Gruppe Numerische Relativitätstheorie um Prof. Edward<br />

Seidel den N<strong>am</strong>en PEYOTE – wie "Parallel Execute Your Own Theoretical Equation". Peyote ist<br />

auch der N<strong>am</strong>e einer hauptsächlich in Mexiko beheimateten Kakteenart (in Deutschland bekannt<br />

unter dem N<strong>am</strong>en Schnapskopfkaktus). Der N<strong>am</strong>e lag daher auch insofern nahe, als das<br />

Progr<strong>am</strong>m, das überwiegend auf dem <strong>Cluster</strong> verwendet wird, seinerseits weltweit unter dem<br />

N<strong>am</strong>en CACTUS bekannt ist (www.cactuscode.org).<br />

Hauptbenutzergruppe sind die Wissenschaftler der Abteilung Astrophysikalische Relativitätstheorie<br />

und insbesondere von der Gruppe Numerische Relativitätstheorie unter Leitung von Prof. Seidel.<br />

Aber auch Wissenschaftler anderer Gruppen und Kooperationspartner sind Benutzer dieses<br />

Hochleistungsclusters.<br />

Das <strong>Cluster</strong> eignet sich insbesondere für Probleme, die sich gut parallelisieren lassen. Das sind<br />

Matrizenoperationen, wie sie maßgeblich auch für Simulationsberechnungen verwendet werden.<br />

Dafür müssen die einzelnen Knoten des <strong>Cluster</strong>s besonders schnell und effektiv miteinander<br />

kommunizieren können. Die Berechnung der <strong>Einstein</strong>-Gleichungen für astrophysikalisch<br />

interessante Fälle wie etwa den Zus<strong>am</strong>menstoß <strong>Schwarze</strong>r Löcher oder Neutronensterne ist das<br />

Hauptforschungsgebiet der Gruppe Numerische Relativitätstheorie. Die Ergebnisse dieser<br />

Simulationsberechnungen werden entweder auf dem Headnode des <strong>Cluster</strong>s oder auf<br />

Workstations, die besonders für Graphikausgabe geeignet sind, visualisiert.<br />

Das Max-Planck-<strong>Institut</strong> für Gravitationsphysik<br />

Das Max-Planck-<strong>Institut</strong> für Gravitationsphysik (<strong>Albert</strong>-<strong>Einstein</strong>-<strong>Institut</strong>) in Golm bei Potsd<strong>am</strong> hat<br />

sich seit seiner Gründung 1995 als international führendes Forschungszentrum für<br />

Gravitationsphysik etabliert. Über 90 Wissenschaftlerinnen und Wissenschaftler sowie jährlich<br />

mehr als 150 Gastforscher arbeiten hier an allen Aspekten der Gravitationsphysik.


Das <strong>Cluster</strong> / technische Daten<br />

Es handelt sich um ein Hochleistungs Linux Compute <strong>Cluster</strong>. Es besteht aus 64 Rechenknoten,<br />

mit jeweils 2 Intel XEON P4 Prozessoren mit einer Leistung von je 2.66 GHz und 2 GB RAM und<br />

lokalem Speicherplatz von 120 GB pro Knoten.<br />

Vier so genannte Storageknoten werden die großen Mengen von Ergebnisdaten auf einem ca. 5<br />

TB großen Speichersystem aufnehmen. Drei Netzwerke sorgen für die Kommunikation der<br />

einzelnen Rechner untereinander. Jedes dieser Netzwerke hat seine ganz besondere Aufgabe.<br />

Herzstück des Hochleistungsclusters ist das Netzwerk und d<strong>am</strong>it der entsprechende Switch, der<br />

für die Interprozesskommunikation sorgt. Diesen Switch lieferte die Firma Force10Networks. Hier<br />

kommt es in besonderem Maße auf kleine Latenzzeiten und verzögerungsfreie Datenübertragung<br />

an, die durch die GigaBit Ethernet Technologie gewährleistet wird.<br />

Obwohl heute vielfach Myrinet, eine Hochleistungsswitchtechnik, eine große Rolle spielt, hat man<br />

sich für GigaBit entschieden, da dieser Quasistandard auch in der Zukunft günstige<br />

Ausbaumöglichkeiten und ein optimales Preis/Leistungsverhältnis verspricht.<br />

Da typische Rechenläufe mehrere Tage oder gar Wochen dauern, werden die Runs durch ein<br />

Batchsystem verwaltet. Die Benutzer kommunizieren über Managementknoten mit dem <strong>Cluster</strong>. Er<br />

compiliert dort seine Progr<strong>am</strong>me und visualisiert auf diesen Knoten die Ergebnisse. Ein ganz<br />

wesentlicher Teil für all die rechnerischen Aufgaben der Wissenschaftler des AEI übernimmt der<br />

<strong>am</strong> AEI entwickelte CACTUS Code (www.cactuscode.org), ein flexible Auswahl von Tools, die es<br />

allen Wissenschaftlern leicht ermöglicht, Problemstellungen computergerecht zu formulieren und<br />

Berechnungen ausführen zu lassen.<br />

Schon jetzt plant man die 2. Ausbaustufe des Hochleistungsclusters, so dass Ende 2003 das<br />

<strong>Cluster</strong> aus 128 PC-Knoten mit mindestens 12 TB Speicherbereich bestehen wird. Angestrebt ist<br />

ein Ausbau auf 256 PC Knoten für das <strong>Cluster</strong>.


Weitere Informationen<br />

www.cactuscode.org<br />

Prof. Edward Seidel (Leiter der Gruppe Numerische Relativitätstheorie)<br />

eseidel@aei.mpg.de<br />

Tel. 0331-567 7210<br />

Christa Hausmann-Jasmin (Leiterin der EDV-Abteilung)<br />

christa.hausmann-j<strong>am</strong>in@aei.mpg.de<br />

Tel. 0331-567 7302<br />

Dr. Elke Müller (Presse- und Öffentlichkeitsarbeit)<br />

elke.mueller@aei.mpg.de<br />

Tel. 0331-567 7303


Technische Daten<br />

64 PC Knoten a 2 Prozessoren a 2.66 GHz/533 FSB (Front Side Bus)<br />

Prozessortyp: Intel XEON mit Hyperthreading Technologie<br />

Pro Knoten:<br />

2 GByte RAM Memory<br />

120 GB Speicherkapazität<br />

3 Netzwerkkarten<br />

4 Storageknoten mit je 1.5 TB Speicherkapazität<br />

1 Headnode oder auch Access- bzw. Managementknoten genannt<br />

Storage und Headnodes sind den Computenodes ähnlich, haben allerdings je 4GB RAM memory,<br />

2 disks (z.B. 2x 73 GB) und benötigen kein InterprocessNetzwerk. Die Stromversorgungseinheiten<br />

sind redundant ausgelegt.<br />

Auf allen Rechnern ist das Betriebsystem Linux mit der Distribution RedHat installiert.<br />

Details<br />

Jeder Rechen-Knoten hat drei Netzwerkkarten für drei spezifische Netzwerke.<br />

Das wichtigste ist das InterconnectNetzwerk, das die Rechenknoten mit 1000Mbit/s (1Gbit/s)<br />

Leitungen über einen besonders leistungsstarken Switch miteinander verbindet. Hier wird ein<br />

Switch der Fa. Force10Networks eingesetzt. (Switchbeschreibung siehe unten). Er hat eine<br />

Backplane (BUS-Leiterplatte)-Kapazität von 600 Mbit/s<br />

Das zweite, ebenfalls sehr wichtige Netzwerk dient der Übertragung der Ergebnisse der einzelnen<br />

Knoten auf die so genannten Storagenodes (Speicherknoten). Wegen der enormen Datenausgabe<br />

der Rechenknoten empfiehlt es sich die Last auf mehrere Knoten zu verteilen. So wird der Output<br />

von 16 Knoten auf jeweils einen Storagenode geschrieben. Dieses Netzwerk wird durch eine HP<br />

ProCurve 4108gl Switch bedient. Er hat eine Backplane von 36 Gbit/s. Das reicht aus, um eine<br />

Last von 4 Mbyte/s von jedem! Rechenknoten gleichzeitig zu bewältigen.<br />

Das dritte Netzwerk dient dazu alle Komponenten des <strong>Cluster</strong>s überhaupt bedienen zu können.<br />

Hier wird ebenfalls ein Switch der Firma HP eingesetzt. Um die Kabellängen möglichst kurz zu<br />

halten, werden in diesem Netz noch zusätzlich 2 weitere Switche eingesetzt. Hier ist der Hersteller<br />

die Firma 3Com.<br />

Kühlung des <strong>Cluster</strong>s<br />

Wegen des geringen Platzbedarfs hat man sich für SlashTwo Gehäuse entschieden. Diese<br />

gepackte Form erfordert besondere Berücksichtigung der Luftströme in dem Gehäuse, da die<br />

Prozessoren eine enorme Wärme abgeben, die möglichst schnell abtransportiert werden muss.<br />

Die Raumluft sollte 20°C nicht überschreiten<br />

Es muss dafür gesorgt werden, dass ein Luftvolumen von 4 x 1400 qm vorhanden ist und<br />

umgewälzt werden kann.<br />

Die vorhandene Klimaanlage kann diese Werte bewältigen und hat eine Leistung von ca. 50kW.<br />

Die vorhandenen Deckengeräte stehen für die besonders sonnenintensiven Sommertage als<br />

Reserve zur Verfügung und leisten zusätzlich 24 kW.<br />

Stromversorgung<br />

Das <strong>Cluster</strong> wird mit 6x25A Leitungen versorgt. Eine USV (Unterbrechungsfreie Stromversorgung)<br />

sorgt im Falle eines Stromausfalls für max. 20 Minuten für eine gleichmäßige Stromversorgung der<br />

Storage- und Headnodes.<br />

Spezielle Software sorgt dafür, dass diese Rechner dann automatisch ordnungsgemäß<br />

heruntergefahren und ausgeschaltet werden.


Weitere Maßangaben<br />

<strong>Cluster</strong><br />

Pro Rack (19" Schrank):<br />

Gewicht: 400 kg mit 16 SlashTwo Gehäusen<br />

240 kg für den Netzwerkschrank<br />

250 kg für das Rack mit den Storage-und Headnodes, einschließlich der 6 TB Speichereinheiten<br />

Netzwerk<br />

Force10Networks E600<br />

Gewicht: 110 kg<br />

Stromverbrauch: 2800 W<br />

Abwärme: 1400W - 3500W<br />

Netzspezifikationen<br />

Backplanekapazität: 600 Gbit/s<br />

Spezielle Software<br />

Obwohl das <strong>Cluster</strong> als eine Einheit betrachtet werden kann, müssen doch die einzelnen<br />

Komponenten softwaremäßig einzeln benutzbar sein. Hier sorgt spezielle Software, eine so<br />

genannte Managementsoftware für enorme Vereinfachung. Die Firma Megware hat dazu eine<br />

<strong>Cluster</strong>managementsoftware n<strong>am</strong>ens Clustware entwickelt<br />

Besonderheiten des <strong>Cluster</strong>s<br />

PeakPerformance des <strong>Cluster</strong>s<br />

Theoretisch: 128 x 2 x 2,66GHz = 680GFlops/s (128 CPUs , pro CPU 2 Floating Point Units,<br />

2.66GHz pro Unit)<br />

Die wahren Werte werden sich in den Benchmarks herausstellen.<br />

Ein einzelner PC, wie er im <strong>Cluster</strong> (2 CPUs) verwendet wird und als DesktopWorkstation einigen<br />

Wissenschaftlern <strong>am</strong> AEI zur Verfügung steht, leistet 10 Gflops/s<br />

Das Communication network basiert auf Gigabit Ethernet. Diese Netzwerkkarte wurde gewählt,<br />

weil man davon ausgeht, dass die Entwicklung von Ethernet weiter voranschreitet. Der<br />

InterprocessSwitch ist bereits für 10 Gigabit Ehternet ausgelegt.<br />

Vergleich mit anderen Rechnern<br />

Dem <strong>Institut</strong> steht zusätzlich eine ORIGIN 2000 mit Virtual Realiyty Graphics Engine zur<br />

Verfügung. Dieser 1997 als Hochleistungsrechner beschaffte Parallelrechner kann mit den<br />

heutigen Anforderungen nicht mehr mithalten.<br />

Die ORIGIN ist mit 32 CPU ausgestattet und hat 8GB memory. Immerhin hat sie eine Leistung von<br />

20 - 40 Gflops, was vor 3 Jahren eine sehr gute Leistung war. Heute kann man die Systeme nicht<br />

mehr vergleichen, denn ein einzelner PC, wie er im <strong>Cluster</strong> (2 CPUs) verwendet wird, leistet<br />

bereits 10 Gflops/s. Ein tatsächlicher Vergleich mit anderen <strong>Cluster</strong>n und anderen<br />

Hochleistungssystemen wird sich daher erst im Laufe der nächsten Wochen und Monate anstellen<br />

lassen.<br />

Trotzdem hier Angaben eines anderen <strong>Cluster</strong> (High Performance Computing Center North<br />

(HPC2N):<br />

240 CPU's in 120 Dual nodes<br />

2 AMD Athlon MP2000+ Processors<br />

1 Tyan Tiger MPX Motherboard<br />

1-4 GB Memory<br />

1 Western Digital 20GB Hard disk<br />

1 Fast ethernet NIC<br />

1 Wulfkit3 SCI<br />

Für dieses <strong>Cluster</strong> wird eine PeakPerformance von 800 Gflops/s angegeben.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!