Neuer Cluster-Computer am Albert-Einstein-Institut macht Schwarze ...
Neuer Cluster-Computer am Albert-Einstein-Institut macht Schwarze ...
Neuer Cluster-Computer am Albert-Einstein-Institut macht Schwarze ...
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Technische Daten<br />
64 PC Knoten a 2 Prozessoren a 2.66 GHz/533 FSB (Front Side Bus)<br />
Prozessortyp: Intel XEON mit Hyperthreading Technologie<br />
Pro Knoten:<br />
2 GByte RAM Memory<br />
120 GB Speicherkapazität<br />
3 Netzwerkkarten<br />
4 Storageknoten mit je 1.5 TB Speicherkapazität<br />
1 Headnode oder auch Access- bzw. Managementknoten genannt<br />
Storage und Headnodes sind den Computenodes ähnlich, haben allerdings je 4GB RAM memory,<br />
2 disks (z.B. 2x 73 GB) und benötigen kein InterprocessNetzwerk. Die Stromversorgungseinheiten<br />
sind redundant ausgelegt.<br />
Auf allen Rechnern ist das Betriebsystem Linux mit der Distribution RedHat installiert.<br />
Details<br />
Jeder Rechen-Knoten hat drei Netzwerkkarten für drei spezifische Netzwerke.<br />
Das wichtigste ist das InterconnectNetzwerk, das die Rechenknoten mit 1000Mbit/s (1Gbit/s)<br />
Leitungen über einen besonders leistungsstarken Switch miteinander verbindet. Hier wird ein<br />
Switch der Fa. Force10Networks eingesetzt. (Switchbeschreibung siehe unten). Er hat eine<br />
Backplane (BUS-Leiterplatte)-Kapazität von 600 Mbit/s<br />
Das zweite, ebenfalls sehr wichtige Netzwerk dient der Übertragung der Ergebnisse der einzelnen<br />
Knoten auf die so genannten Storagenodes (Speicherknoten). Wegen der enormen Datenausgabe<br />
der Rechenknoten empfiehlt es sich die Last auf mehrere Knoten zu verteilen. So wird der Output<br />
von 16 Knoten auf jeweils einen Storagenode geschrieben. Dieses Netzwerk wird durch eine HP<br />
ProCurve 4108gl Switch bedient. Er hat eine Backplane von 36 Gbit/s. Das reicht aus, um eine<br />
Last von 4 Mbyte/s von jedem! Rechenknoten gleichzeitig zu bewältigen.<br />
Das dritte Netzwerk dient dazu alle Komponenten des <strong>Cluster</strong>s überhaupt bedienen zu können.<br />
Hier wird ebenfalls ein Switch der Firma HP eingesetzt. Um die Kabellängen möglichst kurz zu<br />
halten, werden in diesem Netz noch zusätzlich 2 weitere Switche eingesetzt. Hier ist der Hersteller<br />
die Firma 3Com.<br />
Kühlung des <strong>Cluster</strong>s<br />
Wegen des geringen Platzbedarfs hat man sich für SlashTwo Gehäuse entschieden. Diese<br />
gepackte Form erfordert besondere Berücksichtigung der Luftströme in dem Gehäuse, da die<br />
Prozessoren eine enorme Wärme abgeben, die möglichst schnell abtransportiert werden muss.<br />
Die Raumluft sollte 20°C nicht überschreiten<br />
Es muss dafür gesorgt werden, dass ein Luftvolumen von 4 x 1400 qm vorhanden ist und<br />
umgewälzt werden kann.<br />
Die vorhandene Klimaanlage kann diese Werte bewältigen und hat eine Leistung von ca. 50kW.<br />
Die vorhandenen Deckengeräte stehen für die besonders sonnenintensiven Sommertage als<br />
Reserve zur Verfügung und leisten zusätzlich 24 kW.<br />
Stromversorgung<br />
Das <strong>Cluster</strong> wird mit 6x25A Leitungen versorgt. Eine USV (Unterbrechungsfreie Stromversorgung)<br />
sorgt im Falle eines Stromausfalls für max. 20 Minuten für eine gleichmäßige Stromversorgung der<br />
Storage- und Headnodes.<br />
Spezielle Software sorgt dafür, dass diese Rechner dann automatisch ordnungsgemäß<br />
heruntergefahren und ausgeschaltet werden.