18.04.2014 Aufrufe

CPU 24/7 Unternehmensmagazin

CPU 24/7 Unternehmensmagazin

CPU 24/7 Unternehmensmagazin

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Dabei gilt es aber zu beachten, dass die Rechenperformance<br />

und Kundenprozesse nicht beeinträchtigt<br />

werden dürfen. Auf der Hardware-Seite testen wir<br />

verschiedene Komponenten sowie dessen Kombinationen<br />

auf das Verhältnis von Energieeffizienz<br />

und Performance. Eine entsprechende Aufrüstung<br />

neuer effizienterer Hardwarekomponenten ist dann<br />

der nächste Schritt. Damit einher geht die Verbesserung<br />

der Cluster-Performance durch Einsatz<br />

innovativer Hardware wie z.B. durch Intel ® Xeon<br />

Phi Co-Prozessoren. Das bedeutet, Berechnungen<br />

können schneller durchgeführt werden und die<br />

Zeiten hoher Last werden minimiert, was auch im<br />

Sinne unserer Kunden ist. Die Effizienz-Kontrolle<br />

solcher neuer Techniken geschieht durch regelmäßige<br />

Energiemessungen in Kombination mit Performance-Benchmarks<br />

wie HPCC oder NPB.<br />

Ist die Umsetzung in naher Zukunft realisierbar?<br />

Die theoretischen Grundlagen zum Thema Green-<br />

IT im HPC-Bereich sind vorhanden und können in<br />

praktische Lösungen umgesetzt und ggf. optimiert<br />

und weiterentwickelt werden. Mit der Implementierung<br />

können wir also sofort beginnen.<br />

Was sind Trends für die Zukunft? In welche Richtung<br />

entwickelt sich Green-IT?<br />

Die gängigen DPM-Lösungen werden sich stetig<br />

weiterentwickeln und verbessern. Dazu kommt<br />

die Entwicklung weiterer energieeffizienter Hardwarekomponenten,<br />

wie bspw. bei Intel ® . Die Cluster-Performance<br />

wird sich durch den Einsatz von<br />

Techniken und Architekturen wie GPGPU oder<br />

Intel ® Xeon Phi erhöhen. Ein weiterer Trend ist die<br />

Nutzung von Abwärme von Clustern zur Erzeugung<br />

von Heizenergie und Warmwasser für Büroräume<br />

o.ä..<br />

„Innerhalb der Computergemeinschaft<br />

lebt man nach der<br />

Grundregel, die Gegenwart<br />

sei ein Programmfehler, der<br />

in der nächsten Ausgabe<br />

behoben sein wird.<br />

“<br />

— Clifford Stoll<br />

Senkung des Energieverbrauchs und/oder Minimierung<br />

der Laufzeit von Anwendungen<br />

Ansätze und Lösungen speziell für den HPC-Bereich<br />

werden in der Literatur bereits stark diskutiert. Dabei<br />

kann die Energieeffizienz auf zwei Wegen verbessert werden:<br />

einerseits durch die Senkung des Energieverbrauchs<br />

sowie andererseits durch die Minimierung der Laufzeit von<br />

Anwendungen. Durch den effektiveren Einsatz von Hardware<br />

und Technik kommt es zu einer Verbesserung der<br />

Performance.<br />

„Es können bspw. innovative höchstparallele Hardwarekomponenten<br />

wie GPUs oder Co-Prozessoren eingesetzt werden.<br />

Network-Bottlenecks können während des HPC-Betriebs<br />

z.B. durch den Einsatz von InfiniBand vermieden werden. Ein<br />

verbessertes Mapping bzw. Scheduling von Anwendungen auf<br />

Cluster-Elementen trägt ebenfalls dazu bei, die Performance<br />

zu erhöhen.“<br />

Static und Dynamic Power Management<br />

Zwei Ansätze sind das Static Power Management (SPM)<br />

und das Dynamic Power Management (DPM). Bei SPM<br />

geht es um den Einsatz energieeffizienterer Hardware,<br />

dem gegenüber stehen aber oft sehr hohe Investitionskosten.<br />

DPM bezeichnet hingegen die Steuerung eines<br />

Clusters in Abhängigkeit von seinen gerade benötigten<br />

Ressourcen. Dazu zählen Ansätze des DVFS (Dynamic<br />

voltage and frequency scaling) und des Load Balancings.<br />

DVFS wird eingesetzt, um den Energieverbrauch zur Laufzeit<br />

von Nutzeranwendungen dynamisch zu regulieren. Die<br />

Konzentration liegt dabei vorwiegend auf Komponenten,<br />

die sehr viel Strom verbrauchen, also vor allem auf <strong>CPU</strong>s<br />

und Speicherelementen. DVFS hat allerdings den Nachteil,<br />

dass Einsparungen beim Energieverbrauch oftmals auf<br />

Kosten der Performance gehen. Dies bedeutet, dass sich<br />

die Laufzeit der Anwendungen erhöht. Load Balancing wird<br />

hingegen eingesetzt, um die Verteilung von Workloads und<br />

Jobs auf die Cluster-Knoten zu regeln. Dadurch verbessert<br />

sich die Ressourcen-Ausnutzung im Cluster.<br />

„Weiterhin wird darauf geachtet, dass die Überlastung einzelner<br />

Elemente vermieden wird, wenn gleichzeitig andere<br />

Elemente nur wenig oder gar nicht ausgelastet sind. Bei<br />

einem geringen Workload können einzelne Knoten in<br />

den Stand-by-Modus gesetzt oder komplett abgeschaltet<br />

werden“, so Unger.<br />

Weitere Vorteile durch verbesserte Energieeffizienz<br />

Die Erhöhung der Energieeffizienz in IT-Unternehmen hat<br />

noch einen weiteren positiven Nebeneffekt. Die Zuverlässigkeit<br />

der Systemkomponenten verbessert sich, wodurch zur<br />

Verbesserung der Energieeffizienz einer hohen Wärmeentwicklung<br />

in Clustern vorgebeugt werden kann. Fakt ist, Berechnungen<br />

bei hohen Temperaturen sind fehleranfälliger.<br />

Ein Wärmeanstieg von 10 Grad Celsius hat eine Verdopplung<br />

der Fehleranfälligkeit zur Folge. Daher sollten Berechnungen<br />

stets bei geringeren Temperaturen durchgeführt<br />

werden. Durch die geringere Wärmeentwicklung im Cluster<br />

kann wiederum auch Energie bei der Kühlung der Komponenten<br />

gespart werden. Systemlüfter können mit geringeren<br />

Drehzahlen laufen und verbrauchen so weniger Strom.<br />

Klimaanlagen können ggf. herunter reguliert werden.<br />

<strong>24</strong><br />

25

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!