CPU 24/7 Unternehmensmagazin
CPU 24/7 Unternehmensmagazin
CPU 24/7 Unternehmensmagazin
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Dabei gilt es aber zu beachten, dass die Rechenperformance<br />
und Kundenprozesse nicht beeinträchtigt<br />
werden dürfen. Auf der Hardware-Seite testen wir<br />
verschiedene Komponenten sowie dessen Kombinationen<br />
auf das Verhältnis von Energieeffizienz<br />
und Performance. Eine entsprechende Aufrüstung<br />
neuer effizienterer Hardwarekomponenten ist dann<br />
der nächste Schritt. Damit einher geht die Verbesserung<br />
der Cluster-Performance durch Einsatz<br />
innovativer Hardware wie z.B. durch Intel ® Xeon<br />
Phi Co-Prozessoren. Das bedeutet, Berechnungen<br />
können schneller durchgeführt werden und die<br />
Zeiten hoher Last werden minimiert, was auch im<br />
Sinne unserer Kunden ist. Die Effizienz-Kontrolle<br />
solcher neuer Techniken geschieht durch regelmäßige<br />
Energiemessungen in Kombination mit Performance-Benchmarks<br />
wie HPCC oder NPB.<br />
Ist die Umsetzung in naher Zukunft realisierbar?<br />
Die theoretischen Grundlagen zum Thema Green-<br />
IT im HPC-Bereich sind vorhanden und können in<br />
praktische Lösungen umgesetzt und ggf. optimiert<br />
und weiterentwickelt werden. Mit der Implementierung<br />
können wir also sofort beginnen.<br />
Was sind Trends für die Zukunft? In welche Richtung<br />
entwickelt sich Green-IT?<br />
Die gängigen DPM-Lösungen werden sich stetig<br />
weiterentwickeln und verbessern. Dazu kommt<br />
die Entwicklung weiterer energieeffizienter Hardwarekomponenten,<br />
wie bspw. bei Intel ® . Die Cluster-Performance<br />
wird sich durch den Einsatz von<br />
Techniken und Architekturen wie GPGPU oder<br />
Intel ® Xeon Phi erhöhen. Ein weiterer Trend ist die<br />
Nutzung von Abwärme von Clustern zur Erzeugung<br />
von Heizenergie und Warmwasser für Büroräume<br />
o.ä..<br />
„Innerhalb der Computergemeinschaft<br />
lebt man nach der<br />
Grundregel, die Gegenwart<br />
sei ein Programmfehler, der<br />
in der nächsten Ausgabe<br />
behoben sein wird.<br />
“<br />
— Clifford Stoll<br />
Senkung des Energieverbrauchs und/oder Minimierung<br />
der Laufzeit von Anwendungen<br />
Ansätze und Lösungen speziell für den HPC-Bereich<br />
werden in der Literatur bereits stark diskutiert. Dabei<br />
kann die Energieeffizienz auf zwei Wegen verbessert werden:<br />
einerseits durch die Senkung des Energieverbrauchs<br />
sowie andererseits durch die Minimierung der Laufzeit von<br />
Anwendungen. Durch den effektiveren Einsatz von Hardware<br />
und Technik kommt es zu einer Verbesserung der<br />
Performance.<br />
„Es können bspw. innovative höchstparallele Hardwarekomponenten<br />
wie GPUs oder Co-Prozessoren eingesetzt werden.<br />
Network-Bottlenecks können während des HPC-Betriebs<br />
z.B. durch den Einsatz von InfiniBand vermieden werden. Ein<br />
verbessertes Mapping bzw. Scheduling von Anwendungen auf<br />
Cluster-Elementen trägt ebenfalls dazu bei, die Performance<br />
zu erhöhen.“<br />
Static und Dynamic Power Management<br />
Zwei Ansätze sind das Static Power Management (SPM)<br />
und das Dynamic Power Management (DPM). Bei SPM<br />
geht es um den Einsatz energieeffizienterer Hardware,<br />
dem gegenüber stehen aber oft sehr hohe Investitionskosten.<br />
DPM bezeichnet hingegen die Steuerung eines<br />
Clusters in Abhängigkeit von seinen gerade benötigten<br />
Ressourcen. Dazu zählen Ansätze des DVFS (Dynamic<br />
voltage and frequency scaling) und des Load Balancings.<br />
DVFS wird eingesetzt, um den Energieverbrauch zur Laufzeit<br />
von Nutzeranwendungen dynamisch zu regulieren. Die<br />
Konzentration liegt dabei vorwiegend auf Komponenten,<br />
die sehr viel Strom verbrauchen, also vor allem auf <strong>CPU</strong>s<br />
und Speicherelementen. DVFS hat allerdings den Nachteil,<br />
dass Einsparungen beim Energieverbrauch oftmals auf<br />
Kosten der Performance gehen. Dies bedeutet, dass sich<br />
die Laufzeit der Anwendungen erhöht. Load Balancing wird<br />
hingegen eingesetzt, um die Verteilung von Workloads und<br />
Jobs auf die Cluster-Knoten zu regeln. Dadurch verbessert<br />
sich die Ressourcen-Ausnutzung im Cluster.<br />
„Weiterhin wird darauf geachtet, dass die Überlastung einzelner<br />
Elemente vermieden wird, wenn gleichzeitig andere<br />
Elemente nur wenig oder gar nicht ausgelastet sind. Bei<br />
einem geringen Workload können einzelne Knoten in<br />
den Stand-by-Modus gesetzt oder komplett abgeschaltet<br />
werden“, so Unger.<br />
Weitere Vorteile durch verbesserte Energieeffizienz<br />
Die Erhöhung der Energieeffizienz in IT-Unternehmen hat<br />
noch einen weiteren positiven Nebeneffekt. Die Zuverlässigkeit<br />
der Systemkomponenten verbessert sich, wodurch zur<br />
Verbesserung der Energieeffizienz einer hohen Wärmeentwicklung<br />
in Clustern vorgebeugt werden kann. Fakt ist, Berechnungen<br />
bei hohen Temperaturen sind fehleranfälliger.<br />
Ein Wärmeanstieg von 10 Grad Celsius hat eine Verdopplung<br />
der Fehleranfälligkeit zur Folge. Daher sollten Berechnungen<br />
stets bei geringeren Temperaturen durchgeführt<br />
werden. Durch die geringere Wärmeentwicklung im Cluster<br />
kann wiederum auch Energie bei der Kühlung der Komponenten<br />
gespart werden. Systemlüfter können mit geringeren<br />
Drehzahlen laufen und verbrauchen so weniger Strom.<br />
Klimaanlagen können ggf. herunter reguliert werden.<br />
<strong>24</strong><br />
25