Neuer Cluster-Computer am Albert-Einstein-Institut macht Schwarze ...
Neuer Cluster-Computer am Albert-Einstein-Institut macht Schwarze ...
Neuer Cluster-Computer am Albert-Einstein-Institut macht Schwarze ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
MAX-PLANCK-INSTITUT FÜR GRAVITATIONSPHYSIK<br />
ALBERT-EINSTEIN-INSTITUT<br />
Presseinformation<br />
Potsd<strong>am</strong>, 06. Mai 2003<br />
<strong>Neuer</strong> <strong>Cluster</strong>-<strong>Computer</strong> <strong>am</strong> <strong>Albert</strong>-<strong>Einstein</strong>-<strong>Institut</strong><br />
<strong>macht</strong> <strong>Schwarze</strong> Löcher berechenbar<br />
In Golm bei Potsd<strong>am</strong> etabliert sich ein Kompetenzzentrum für wissenschaftliches<br />
Rechnen<br />
Knapp 100 Jahre nach der Entwicklung der Relativitätstheorie durch <strong>Albert</strong> <strong>Einstein</strong> ist unser<br />
Wissen über die Gravitationsphysik rasant angewachsen. Zweifelte <strong>Einstein</strong> z.B. die Existenz<br />
<strong>Schwarze</strong>r Löcher noch stark an, sind wir heute sicher, dass es sie gibt. Diese Sicherheit<br />
verdanken wir u.a. den Fortschritten der <strong>Computer</strong>forschung. Immer schneller arbeitende<br />
<strong>Computer</strong> ermöglichen heute, die komplexen Denkmodelle und Theorien der Gravitationsphysiker<br />
zu testen, realistische astrophysikalische Systeme zu simulieren und sie dreidimensional zu<br />
visualisieren.<br />
Aber schnell ist manchmal nicht schnell genug. Am Golmer Max-Planck-<strong>Institut</strong> für<br />
Gravitationsphysik (<strong>Albert</strong>-<strong>Einstein</strong>-<strong>Institut</strong>, AEI), dem internationalen Zentrum der<br />
Relativitätstheorie, sitzen die weltweit führenden Köpfe der Gravitationsphysik. Die Forschung hier<br />
ist in eine Dimension vorgedrungen, der der 1997 in Betrieb genommene Hochleistungsrechner<br />
SGI-CRAY Origin 2000 nicht mehr gerecht wurde. Übergangsweise wurden Rechenläufe daher an<br />
internationalen Hochleistungsrechenzentren, wie etwa dem NCSA in den USA durchgeführt. Da<br />
dies jedoch ist mit einem hohen Abwicklungsaufwand verbunden ist, hat das AEI nun ein<br />
Hochleistungs-Linux Compute <strong>Cluster</strong> mit der ca. 20-fachen Leistung der CRAY beschafft.<br />
„Wir sind glücklich, unsere Theorien und Modelle z.B. zu astrophysikalischen Ereignissen, wie dem<br />
Verschmelzen zweier <strong>Schwarze</strong>r Löcher, jetzt unmittelbar <strong>am</strong> <strong>Institut</strong> testen und somit schneller<br />
und effektiver arbeiten zu können“, so Prof. Bernard Schutz, Geschäftsführender Direktor des AEI.<br />
„Wir leisten d<strong>am</strong>it auch einen entscheidenden Beitrag zum Fortschritt internationaler Großprojekte<br />
wie GEO600 (erdgebundene Gravitationswellenmessung) oder LISA (Gravitationswellenmessung<br />
im Weltraum).“
PEYOTE<br />
Der neue <strong>Cluster</strong> <strong>am</strong> AEI bek<strong>am</strong> von der Gruppe Numerische Relativitätstheorie um Prof. Edward<br />
Seidel den N<strong>am</strong>en PEYOTE – wie "Parallel Execute Your Own Theoretical Equation". Peyote ist<br />
auch der N<strong>am</strong>e einer hauptsächlich in Mexiko beheimateten Kakteenart (in Deutschland bekannt<br />
unter dem N<strong>am</strong>en Schnapskopfkaktus). Der N<strong>am</strong>e lag daher auch insofern nahe, als das<br />
Progr<strong>am</strong>m, das überwiegend auf dem <strong>Cluster</strong> verwendet wird, seinerseits weltweit unter dem<br />
N<strong>am</strong>en CACTUS bekannt ist (www.cactuscode.org).<br />
Hauptbenutzergruppe sind die Wissenschaftler der Abteilung Astrophysikalische Relativitätstheorie<br />
und insbesondere von der Gruppe Numerische Relativitätstheorie unter Leitung von Prof. Seidel.<br />
Aber auch Wissenschaftler anderer Gruppen und Kooperationspartner sind Benutzer dieses<br />
Hochleistungsclusters.<br />
Das <strong>Cluster</strong> eignet sich insbesondere für Probleme, die sich gut parallelisieren lassen. Das sind<br />
Matrizenoperationen, wie sie maßgeblich auch für Simulationsberechnungen verwendet werden.<br />
Dafür müssen die einzelnen Knoten des <strong>Cluster</strong>s besonders schnell und effektiv miteinander<br />
kommunizieren können. Die Berechnung der <strong>Einstein</strong>-Gleichungen für astrophysikalisch<br />
interessante Fälle wie etwa den Zus<strong>am</strong>menstoß <strong>Schwarze</strong>r Löcher oder Neutronensterne ist das<br />
Hauptforschungsgebiet der Gruppe Numerische Relativitätstheorie. Die Ergebnisse dieser<br />
Simulationsberechnungen werden entweder auf dem Headnode des <strong>Cluster</strong>s oder auf<br />
Workstations, die besonders für Graphikausgabe geeignet sind, visualisiert.<br />
Das Max-Planck-<strong>Institut</strong> für Gravitationsphysik<br />
Das Max-Planck-<strong>Institut</strong> für Gravitationsphysik (<strong>Albert</strong>-<strong>Einstein</strong>-<strong>Institut</strong>) in Golm bei Potsd<strong>am</strong> hat<br />
sich seit seiner Gründung 1995 als international führendes Forschungszentrum für<br />
Gravitationsphysik etabliert. Über 90 Wissenschaftlerinnen und Wissenschaftler sowie jährlich<br />
mehr als 150 Gastforscher arbeiten hier an allen Aspekten der Gravitationsphysik.
Das <strong>Cluster</strong> / technische Daten<br />
Es handelt sich um ein Hochleistungs Linux Compute <strong>Cluster</strong>. Es besteht aus 64 Rechenknoten,<br />
mit jeweils 2 Intel XEON P4 Prozessoren mit einer Leistung von je 2.66 GHz und 2 GB RAM und<br />
lokalem Speicherplatz von 120 GB pro Knoten.<br />
Vier so genannte Storageknoten werden die großen Mengen von Ergebnisdaten auf einem ca. 5<br />
TB großen Speichersystem aufnehmen. Drei Netzwerke sorgen für die Kommunikation der<br />
einzelnen Rechner untereinander. Jedes dieser Netzwerke hat seine ganz besondere Aufgabe.<br />
Herzstück des Hochleistungsclusters ist das Netzwerk und d<strong>am</strong>it der entsprechende Switch, der<br />
für die Interprozesskommunikation sorgt. Diesen Switch lieferte die Firma Force10Networks. Hier<br />
kommt es in besonderem Maße auf kleine Latenzzeiten und verzögerungsfreie Datenübertragung<br />
an, die durch die GigaBit Ethernet Technologie gewährleistet wird.<br />
Obwohl heute vielfach Myrinet, eine Hochleistungsswitchtechnik, eine große Rolle spielt, hat man<br />
sich für GigaBit entschieden, da dieser Quasistandard auch in der Zukunft günstige<br />
Ausbaumöglichkeiten und ein optimales Preis/Leistungsverhältnis verspricht.<br />
Da typische Rechenläufe mehrere Tage oder gar Wochen dauern, werden die Runs durch ein<br />
Batchsystem verwaltet. Die Benutzer kommunizieren über Managementknoten mit dem <strong>Cluster</strong>. Er<br />
compiliert dort seine Progr<strong>am</strong>me und visualisiert auf diesen Knoten die Ergebnisse. Ein ganz<br />
wesentlicher Teil für all die rechnerischen Aufgaben der Wissenschaftler des AEI übernimmt der<br />
<strong>am</strong> AEI entwickelte CACTUS Code (www.cactuscode.org), ein flexible Auswahl von Tools, die es<br />
allen Wissenschaftlern leicht ermöglicht, Problemstellungen computergerecht zu formulieren und<br />
Berechnungen ausführen zu lassen.<br />
Schon jetzt plant man die 2. Ausbaustufe des Hochleistungsclusters, so dass Ende 2003 das<br />
<strong>Cluster</strong> aus 128 PC-Knoten mit mindestens 12 TB Speicherbereich bestehen wird. Angestrebt ist<br />
ein Ausbau auf 256 PC Knoten für das <strong>Cluster</strong>.
Weitere Informationen<br />
www.cactuscode.org<br />
Prof. Edward Seidel (Leiter der Gruppe Numerische Relativitätstheorie)<br />
eseidel@aei.mpg.de<br />
Tel. 0331-567 7210<br />
Christa Hausmann-Jasmin (Leiterin der EDV-Abteilung)<br />
christa.hausmann-j<strong>am</strong>in@aei.mpg.de<br />
Tel. 0331-567 7302<br />
Dr. Elke Müller (Presse- und Öffentlichkeitsarbeit)<br />
elke.mueller@aei.mpg.de<br />
Tel. 0331-567 7303
Technische Daten<br />
64 PC Knoten a 2 Prozessoren a 2.66 GHz/533 FSB (Front Side Bus)<br />
Prozessortyp: Intel XEON mit Hyperthreading Technologie<br />
Pro Knoten:<br />
2 GByte RAM Memory<br />
120 GB Speicherkapazität<br />
3 Netzwerkkarten<br />
4 Storageknoten mit je 1.5 TB Speicherkapazität<br />
1 Headnode oder auch Access- bzw. Managementknoten genannt<br />
Storage und Headnodes sind den Computenodes ähnlich, haben allerdings je 4GB RAM memory,<br />
2 disks (z.B. 2x 73 GB) und benötigen kein InterprocessNetzwerk. Die Stromversorgungseinheiten<br />
sind redundant ausgelegt.<br />
Auf allen Rechnern ist das Betriebsystem Linux mit der Distribution RedHat installiert.<br />
Details<br />
Jeder Rechen-Knoten hat drei Netzwerkkarten für drei spezifische Netzwerke.<br />
Das wichtigste ist das InterconnectNetzwerk, das die Rechenknoten mit 1000Mbit/s (1Gbit/s)<br />
Leitungen über einen besonders leistungsstarken Switch miteinander verbindet. Hier wird ein<br />
Switch der Fa. Force10Networks eingesetzt. (Switchbeschreibung siehe unten). Er hat eine<br />
Backplane (BUS-Leiterplatte)-Kapazität von 600 Mbit/s<br />
Das zweite, ebenfalls sehr wichtige Netzwerk dient der Übertragung der Ergebnisse der einzelnen<br />
Knoten auf die so genannten Storagenodes (Speicherknoten). Wegen der enormen Datenausgabe<br />
der Rechenknoten empfiehlt es sich die Last auf mehrere Knoten zu verteilen. So wird der Output<br />
von 16 Knoten auf jeweils einen Storagenode geschrieben. Dieses Netzwerk wird durch eine HP<br />
ProCurve 4108gl Switch bedient. Er hat eine Backplane von 36 Gbit/s. Das reicht aus, um eine<br />
Last von 4 Mbyte/s von jedem! Rechenknoten gleichzeitig zu bewältigen.<br />
Das dritte Netzwerk dient dazu alle Komponenten des <strong>Cluster</strong>s überhaupt bedienen zu können.<br />
Hier wird ebenfalls ein Switch der Firma HP eingesetzt. Um die Kabellängen möglichst kurz zu<br />
halten, werden in diesem Netz noch zusätzlich 2 weitere Switche eingesetzt. Hier ist der Hersteller<br />
die Firma 3Com.<br />
Kühlung des <strong>Cluster</strong>s<br />
Wegen des geringen Platzbedarfs hat man sich für SlashTwo Gehäuse entschieden. Diese<br />
gepackte Form erfordert besondere Berücksichtigung der Luftströme in dem Gehäuse, da die<br />
Prozessoren eine enorme Wärme abgeben, die möglichst schnell abtransportiert werden muss.<br />
Die Raumluft sollte 20°C nicht überschreiten<br />
Es muss dafür gesorgt werden, dass ein Luftvolumen von 4 x 1400 qm vorhanden ist und<br />
umgewälzt werden kann.<br />
Die vorhandene Klimaanlage kann diese Werte bewältigen und hat eine Leistung von ca. 50kW.<br />
Die vorhandenen Deckengeräte stehen für die besonders sonnenintensiven Sommertage als<br />
Reserve zur Verfügung und leisten zusätzlich 24 kW.<br />
Stromversorgung<br />
Das <strong>Cluster</strong> wird mit 6x25A Leitungen versorgt. Eine USV (Unterbrechungsfreie Stromversorgung)<br />
sorgt im Falle eines Stromausfalls für max. 20 Minuten für eine gleichmäßige Stromversorgung der<br />
Storage- und Headnodes.<br />
Spezielle Software sorgt dafür, dass diese Rechner dann automatisch ordnungsgemäß<br />
heruntergefahren und ausgeschaltet werden.
Weitere Maßangaben<br />
<strong>Cluster</strong><br />
Pro Rack (19" Schrank):<br />
Gewicht: 400 kg mit 16 SlashTwo Gehäusen<br />
240 kg für den Netzwerkschrank<br />
250 kg für das Rack mit den Storage-und Headnodes, einschließlich der 6 TB Speichereinheiten<br />
Netzwerk<br />
Force10Networks E600<br />
Gewicht: 110 kg<br />
Stromverbrauch: 2800 W<br />
Abwärme: 1400W - 3500W<br />
Netzspezifikationen<br />
Backplanekapazität: 600 Gbit/s<br />
Spezielle Software<br />
Obwohl das <strong>Cluster</strong> als eine Einheit betrachtet werden kann, müssen doch die einzelnen<br />
Komponenten softwaremäßig einzeln benutzbar sein. Hier sorgt spezielle Software, eine so<br />
genannte Managementsoftware für enorme Vereinfachung. Die Firma Megware hat dazu eine<br />
<strong>Cluster</strong>managementsoftware n<strong>am</strong>ens Clustware entwickelt<br />
Besonderheiten des <strong>Cluster</strong>s<br />
PeakPerformance des <strong>Cluster</strong>s<br />
Theoretisch: 128 x 2 x 2,66GHz = 680GFlops/s (128 CPUs , pro CPU 2 Floating Point Units,<br />
2.66GHz pro Unit)<br />
Die wahren Werte werden sich in den Benchmarks herausstellen.<br />
Ein einzelner PC, wie er im <strong>Cluster</strong> (2 CPUs) verwendet wird und als DesktopWorkstation einigen<br />
Wissenschaftlern <strong>am</strong> AEI zur Verfügung steht, leistet 10 Gflops/s<br />
Das Communication network basiert auf Gigabit Ethernet. Diese Netzwerkkarte wurde gewählt,<br />
weil man davon ausgeht, dass die Entwicklung von Ethernet weiter voranschreitet. Der<br />
InterprocessSwitch ist bereits für 10 Gigabit Ehternet ausgelegt.<br />
Vergleich mit anderen Rechnern<br />
Dem <strong>Institut</strong> steht zusätzlich eine ORIGIN 2000 mit Virtual Realiyty Graphics Engine zur<br />
Verfügung. Dieser 1997 als Hochleistungsrechner beschaffte Parallelrechner kann mit den<br />
heutigen Anforderungen nicht mehr mithalten.<br />
Die ORIGIN ist mit 32 CPU ausgestattet und hat 8GB memory. Immerhin hat sie eine Leistung von<br />
20 - 40 Gflops, was vor 3 Jahren eine sehr gute Leistung war. Heute kann man die Systeme nicht<br />
mehr vergleichen, denn ein einzelner PC, wie er im <strong>Cluster</strong> (2 CPUs) verwendet wird, leistet<br />
bereits 10 Gflops/s. Ein tatsächlicher Vergleich mit anderen <strong>Cluster</strong>n und anderen<br />
Hochleistungssystemen wird sich daher erst im Laufe der nächsten Wochen und Monate anstellen<br />
lassen.<br />
Trotzdem hier Angaben eines anderen <strong>Cluster</strong> (High Performance Computing Center North<br />
(HPC2N):<br />
240 CPU's in 120 Dual nodes<br />
2 AMD Athlon MP2000+ Processors<br />
1 Tyan Tiger MPX Motherboard<br />
1-4 GB Memory<br />
1 Western Digital 20GB Hard disk<br />
1 Fast ethernet NIC<br />
1 Wulfkit3 SCI<br />
Für dieses <strong>Cluster</strong> wird eine PeakPerformance von 800 Gflops/s angegeben.