25.02.2013 Aufrufe

Neuer Cluster-Computer am Albert-Einstein-Institut macht Schwarze ...

Neuer Cluster-Computer am Albert-Einstein-Institut macht Schwarze ...

Neuer Cluster-Computer am Albert-Einstein-Institut macht Schwarze ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Technische Daten<br />

64 PC Knoten a 2 Prozessoren a 2.66 GHz/533 FSB (Front Side Bus)<br />

Prozessortyp: Intel XEON mit Hyperthreading Technologie<br />

Pro Knoten:<br />

2 GByte RAM Memory<br />

120 GB Speicherkapazität<br />

3 Netzwerkkarten<br />

4 Storageknoten mit je 1.5 TB Speicherkapazität<br />

1 Headnode oder auch Access- bzw. Managementknoten genannt<br />

Storage und Headnodes sind den Computenodes ähnlich, haben allerdings je 4GB RAM memory,<br />

2 disks (z.B. 2x 73 GB) und benötigen kein InterprocessNetzwerk. Die Stromversorgungseinheiten<br />

sind redundant ausgelegt.<br />

Auf allen Rechnern ist das Betriebsystem Linux mit der Distribution RedHat installiert.<br />

Details<br />

Jeder Rechen-Knoten hat drei Netzwerkkarten für drei spezifische Netzwerke.<br />

Das wichtigste ist das InterconnectNetzwerk, das die Rechenknoten mit 1000Mbit/s (1Gbit/s)<br />

Leitungen über einen besonders leistungsstarken Switch miteinander verbindet. Hier wird ein<br />

Switch der Fa. Force10Networks eingesetzt. (Switchbeschreibung siehe unten). Er hat eine<br />

Backplane (BUS-Leiterplatte)-Kapazität von 600 Mbit/s<br />

Das zweite, ebenfalls sehr wichtige Netzwerk dient der Übertragung der Ergebnisse der einzelnen<br />

Knoten auf die so genannten Storagenodes (Speicherknoten). Wegen der enormen Datenausgabe<br />

der Rechenknoten empfiehlt es sich die Last auf mehrere Knoten zu verteilen. So wird der Output<br />

von 16 Knoten auf jeweils einen Storagenode geschrieben. Dieses Netzwerk wird durch eine HP<br />

ProCurve 4108gl Switch bedient. Er hat eine Backplane von 36 Gbit/s. Das reicht aus, um eine<br />

Last von 4 Mbyte/s von jedem! Rechenknoten gleichzeitig zu bewältigen.<br />

Das dritte Netzwerk dient dazu alle Komponenten des <strong>Cluster</strong>s überhaupt bedienen zu können.<br />

Hier wird ebenfalls ein Switch der Firma HP eingesetzt. Um die Kabellängen möglichst kurz zu<br />

halten, werden in diesem Netz noch zusätzlich 2 weitere Switche eingesetzt. Hier ist der Hersteller<br />

die Firma 3Com.<br />

Kühlung des <strong>Cluster</strong>s<br />

Wegen des geringen Platzbedarfs hat man sich für SlashTwo Gehäuse entschieden. Diese<br />

gepackte Form erfordert besondere Berücksichtigung der Luftströme in dem Gehäuse, da die<br />

Prozessoren eine enorme Wärme abgeben, die möglichst schnell abtransportiert werden muss.<br />

Die Raumluft sollte 20°C nicht überschreiten<br />

Es muss dafür gesorgt werden, dass ein Luftvolumen von 4 x 1400 qm vorhanden ist und<br />

umgewälzt werden kann.<br />

Die vorhandene Klimaanlage kann diese Werte bewältigen und hat eine Leistung von ca. 50kW.<br />

Die vorhandenen Deckengeräte stehen für die besonders sonnenintensiven Sommertage als<br />

Reserve zur Verfügung und leisten zusätzlich 24 kW.<br />

Stromversorgung<br />

Das <strong>Cluster</strong> wird mit 6x25A Leitungen versorgt. Eine USV (Unterbrechungsfreie Stromversorgung)<br />

sorgt im Falle eines Stromausfalls für max. 20 Minuten für eine gleichmäßige Stromversorgung der<br />

Storage- und Headnodes.<br />

Spezielle Software sorgt dafür, dass diese Rechner dann automatisch ordnungsgemäß<br />

heruntergefahren und ausgeschaltet werden.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!