29.02.2016 Aufrufe

State of HPC Ausgabe 02/2016 - german

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>Ausgabe</strong> <strong>02</strong><br />

<strong>State</strong> <strong>of</strong> <strong>HPC</strong><br />

The <strong>HPC</strong> Magazine<br />

OPEN SOURCE/OpenFOAM<br />

Referenz KIT // Turnkey-Systeme<br />

GPU-Computing mit Virtualisierung // Interview mit Dr. Oliver Tennert<br />

Open Source im CAD Bereich


BIG DATA ANALYTICS<br />

Datenverarbeitung bei<br />

hohem Volumen<br />

PRODUKTIVITÄTSWACHSTUM<br />

INNOVATIONEN | KUNDENNUTZEN<br />

Auswertung <br />

großer Datenmengen<br />

leistungsstarke <br />

Computing Systeme für<br />

High Performance Data Analytics (HPDA)<br />

In-Memory <br />

Datenbanken für eine schnelle Analyse,<br />

dies ermöglicht Echtzeitanalyse der Geschäftsdaten<br />

2 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Vorwort<br />

Vorstand<br />

<strong>HPC</strong> für alle!<br />

Dass <strong>HPC</strong>-Anwendungen im Trend liegen,<br />

ist keine Frage mehr. Vor allem große<br />

Konzerne und Unternehmen sowie<br />

Forschungsinstitute und Universitäten<br />

nutzen sie seit Längerem. Aber auch in<br />

kleinen und mittelständischen Firmen<br />

nahezu jeder Branche wird der Einsatz<br />

zunehmen. <strong>HPC</strong> hat sich mittlerweile als<br />

fester Bestandteil des Produktentwicklungsprozesses<br />

in allen modernen Unternehmen<br />

etabliert. Dafür gibt es zwei<br />

Gründe: zum einen ist die Nutzung von<br />

<strong>HPC</strong>-Applikationen nicht mehr mit extrem hohen Kosten<br />

verbunden, zum anderen wird die schnelle Auswertung<br />

großer Datenmengen zur Sicherung der Wettbewerbsfähigkeit<br />

für Unternehmen an Bedeutung gewinnen.<br />

Mittelstand und Großindustrie unterscheiden sich hierbei<br />

höchstens in der Quantität, nicht in der Qualität des Einsatzes<br />

von <strong>HPC</strong>-Umgebungen. Selbstverständlich besitzt<br />

ein großer Automobilkonzern deutlich mehr Rechenkapazität<br />

als ein mittelständisches Unternehmen. Der gesamte<br />

Wertschöpfungsprozess jedoch – und <strong>HPC</strong> ist hier ein<br />

wichtiger Bestandteil – unterscheidet sich im Grundsatz<br />

weder nach Branchen noch nach Größe des Unternehmens.<br />

Es ist hierbei also vollkommen irrelevant, ob ein Automotive-Konzern<br />

Crash-Simulationen durchführt, ein mittelständischer<br />

Ingenieursdienstleister die Eigenschaften<br />

von Türschlössern unter den vielseitigsten Bedingungen<br />

simuliert oder ein Bio- bzw. Pharmaunternehmen die dreidimensionale<br />

Faltung von Proteinen für die Medikamentenherstellung<br />

berechnet.<br />

problemlos betreiben. Natürlich gibt<br />

es <strong>HPC</strong>-Lösungen, die in Preiskategorien<br />

von 100.000 bis rund 2 Millionen<br />

Euro liegen. Allerdings geht es auch<br />

wesentlich günstiger: Eine Cluster-<br />

Lösung mit 4 bis 8 Knoten ist – abhängig<br />

von der konkreten Ausstattung<br />

– bereits ab 25.000 Euro erhältlich. Angesichts<br />

des überragenden Nutzens<br />

von <strong>HPC</strong> sollte die Investition in einer<br />

solchen Größenordnung für die meisten<br />

Mittelständler keine Frage sein.<br />

Die Datenvolumina wachsen in nahezu allen unternehmenskritischen<br />

Systemen dermaßen schnell an, dass konventionelle<br />

Rechnersysteme für deren Auswertung an<br />

ihre Grenzen stoßen. Die Gewinnung nutzbarer Erkenntnisse<br />

aus dieser Datenflut – Stichpunkt „Big Data“ – ist<br />

in Zukunft praktisch nur noch mit hochleistungsfähigen<br />

<strong>HPC</strong>-Systemen zu bewältigen und eine Grundvoraussetzung,<br />

um die Wettbewerbsfähigkeit und künftige Innovationskraft<br />

eines Unternehmens sicherzustellen. Das betrifft<br />

auch mittelständische Unternehmen, die in einem zunehmend<br />

globalisierten Markt einem immer höheren Konkurrenzdruck<br />

ausgesetzt sind.<br />

Im vorliegenden Magazin zeigen wir Ihnen den Mehrwert<br />

des Einsatzes von <strong>HPC</strong> in Ihrem Business auf.<br />

Viel Freude mit der <strong>Ausgabe</strong> “Open Source/OpenFOAM”<br />

wünscht Ihnen Ihr<br />

In der Vergangenheit erforderten <strong>HPC</strong>-Systeme den Einsatz<br />

von teuren Großrechnern und Supercomputern. Inzwischen<br />

werden aber im <strong>HPC</strong>-Bereich verstärkt auch wesentlich<br />

kostengünstigere Cluster auf Basis standardisierter<br />

x86-Systeme genutzt. Auch kleine und mittlere Unternehmen<br />

können deshalb heute leistungsfähige <strong>HPC</strong>-Systeme<br />

Hans-Jürgen Bahde<br />

CEO/Vorstand der transtec AG<br />

3 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Inhalt<br />

Easy to manage –<br />

Easy to use<br />

Hohe Rechenleistung und<br />

Sicherheit durch GPU & ...<br />

Open Source im CAD<br />

Bereich<br />

High Performance Computing muss<br />

sich <strong>of</strong>tmals gegen Vorbehalte behaupten.<br />

Im Interview räumt Dr. Oliver<br />

Tennert mit diesen auf, beschreibt Einsatzgebiete<br />

von <strong>HPC</strong>-Lösungen und<br />

erläutert, weshalb eine ganzheitliche<br />

Betrachtung notwenig ist.<br />

GPU-Computing und Virtualisierung<br />

müssen sich nicht ausschließen.<br />

transtec bietet mit einer neuen CU-<br />

DA-Workstation eine schlüsselfertige<br />

Lösung an, die eine hohe Performance<br />

auf Basis der Tesla- und GRID-Architektur<br />

von NVIDIA bietet. Sie ist sowohl<br />

für den Citrix XenServer als auch für<br />

VMware vSphere zertifiziert.<br />

Bei der Produktentwicklung sind in<br />

der Industrie CAE-Verfahren wie die<br />

Simulation und Strömungsanalyse<br />

Standard. Als Alternative zu kommerziellen<br />

Applikationen setzen sich heute<br />

verstärkt Open Source-Lösungen<br />

durch. Unternehmen sparen damit<br />

Lizenzkosten, passen die S<strong>of</strong>tware einfacher<br />

an ihre Anforderungen an und<br />

optimieren ihre Produkte.<br />

4 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Inhalt<br />

transtec<br />

your provider<br />

for comprehensive <strong>HPC</strong> solutions...<br />

KIT – Karlsruher Institut<br />

für Technologie<br />

Einfach den Schlüssel<br />

umdrehen...<br />

Impressum<br />

Das Karlsruher Institut für Technologie<br />

baute im Rahmen des Forschungshochleistungsrechners<br />

(ForHLR) bis<br />

Ende 2015 einen <strong>HPC</strong>-Cluster mit<br />

über 1.100 Rechenknoten auf. Die<br />

Lösung mit einem Gesamtvolumen<br />

von 6,9 Millionen Euro lieferte der<br />

<strong>HPC</strong>-Spezialist transtec. Es ist der<br />

größte Einzelauftrag seiner Firmengeschichte.<br />

... und los geht‘s mit der komplexen<br />

Berechnung. Highend-Rechencluster<br />

wollen auf die Bedürfnisse des Kunden<br />

sorgfältig zugeschnitten sein. Dies<br />

verlangt nach pr<strong>of</strong>unden Kenntnissen<br />

bei der Systemintegration, zumal die<br />

Auswahl an Hardware-Komponenten<br />

beachtlich ist.<br />

5 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Easy to manage<br />

EASY TO USE<br />

Im Interview: Dr. Oliver Tennert, Director Technology Management and <strong>HPC</strong> Solutions<br />

<strong>State</strong> <strong>of</strong> <strong>HPC</strong>: Herr Dr. Tennert, was sind die derzeitigen<br />

Trends im High Performance Computing (<strong>HPC</strong>)?<br />

Die Frage kann man gar nicht pauschal beantworten. Das<br />

Thema Remote-Visualisierung im Zusammenhang mit<br />

Workflow-Optimierung, Kollaboration und zentraler Datenhaltung<br />

gewinnt im CAE-Umfeld immer mehr an Bedeutung<br />

– die Technologie dahinter ist hingegen nicht neu,<br />

sondern existiert bereits seit geraumer Zeit. Hier ist eher<br />

ein Umdenken auf Seiten der Kunden bzw. der Anwender zu<br />

verzeichnen. Dagegen spielen insgesamt parallele Filesysteme<br />

im gesamten <strong>HPC</strong>-Bereich eine immer stärkere Rolle.<br />

Insbesondere in Deutschland erfreut sich BeeGFS hierbei<br />

einer ständig steigenden Beliebtheit. Aus rein technischer<br />

Sicht kommen immer mehr Kühlkonzepte auf Wasser- bzw.<br />

Liquid-Basis auf den Markt: indirect liquid cooling, direct<br />

liquid cooling oder gar directly immersed cooling als Extremform<br />

kommen in unterschiedlichsten Ausprägungen durch<br />

verschiedene Anbieter vor. Hier ist allerdings mittelfristig<br />

sicher mit starken Konsolidierungstendenzen zu rechnen.<br />

<strong>State</strong> <strong>of</strong> <strong>HPC</strong>: Für welche Anwendungen in der Produktentwicklung<br />

ist <strong>HPC</strong> prädestiniert? Bitte nennen Sie uns ein<br />

paar Beispiele.<br />

<strong>HPC</strong>-Systeme findet man in den Entwicklungsabteilungen<br />

sämtlicher Branchen: in der Automobilindustrie ebenso<br />

wie in Luft- und Raumfahrt, Maschinenbau, Materialentwicklung,<br />

Chipdesign und der Pharmaindustrie. Mittlerweile<br />

gibt es ja nahezu kein Bauteil eines Autos mehr, dessen<br />

6 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Interview<br />

Easy to manage – Easty to use<br />

Verhalten unter verschiedensten Randbedingungen im besonderer Wert auf ein effizientes Datenmanagement mit<br />

Rahmen des Entwicklungs-Workflows nicht auf auf einem effektiver Zugriffskontrolle gelegt werden. Ebenfalls sollten<br />

<strong>HPC</strong>-Cluster simuliert wird, egal ob es um das Einspritzverhalten<br />

des Treibst<strong>of</strong>f-Sprays in die Kolben, die Crash- Rechenzentrum und Arbeitsplätzen der Anwender physi-<br />

selbstverständlich die Netzwerkverbindungen zwischen<br />

Simulation oder das Akustik- bzw. Vibrationsverhalten der kalisch abgesichert sein. Dies gilt vor allem dann, wenn<br />

Karosserie auf einer holprigen Straße geht. Bauteile wie „Private Cloud“-Szenarien standortübergreifend realisiert<br />

Flugzeugtragflächen werden auf ihre aerodynamischen sind, um beispielsweise die Kollaboration auch über<br />

Eigenschaften hin analysiert und Schiffsschrauben im Länder- und Zeitzonengrenzen hinweg zu ermöglichen.<br />

Zusammenhang mit Turbulenzentwicklung<br />

im Rückstrom untersucht.<br />

Auch die Logik von komplexen, integrierten<br />

Schaltkreisen in der Chipentwicklung<br />

wird simuliert ebenso wie<br />

das dreidimensionale Faltungsverhalten<br />

von Proteinmolekülen in der Molekularbiologie<br />

bzw. der Biophysik.<br />

<strong>State</strong> <strong>of</strong> <strong>HPC</strong>: Viele mittelständische<br />

Unternehmen halten High Performance<br />

Computing für zu komplex in der<br />

Administration und für zu kostspielig.<br />

Wie sehen Sie das als <strong>HPC</strong>-Experte?<br />

Nun, wir haben in der Vergangenheit zahlreiche Kunden<br />

mit <strong>HPC</strong>-Lösungen ausgestattet, die sich selbst durchaus<br />

als ,,normalsterblich” bezeichnen würden. Aber Sie haben<br />

recht: Es gilt, bei einem anspruchsvollen <strong>HPC</strong>-System, das<br />

eine gewisse intrinsische Komplexität besitzt, genau diese<br />

vor Anwendern und Administratoren zu verbergen. Unter<br />

der Haube ist ein Auto ebenfalls komplex, aber während der<br />

Aut<strong>of</strong>ahrt muss sich der Fahrer auch nicht um Dinge kümmern<br />

wie Getriebetechnik und ABS-Elektronik. Daher ist es<br />

wichtig, bei der Implementierung stets auf ein vorhandenes<br />

unternehmenstaugliches und dennoch einfaches Management-<br />

und Bedienkonzept zu achten. Wir bieten hier ein<br />

durchdachtes Portfolio an Service- und Managementkonzepten<br />

nach der Devise ,,easy to manage“ und ,,easy to use“.<br />

<strong>State</strong> <strong>of</strong> <strong>HPC</strong>: Dabei nimmt das Thema Sicherheit eine<br />

wichtige Rolle ein. Wie lassen sich <strong>HPC</strong>-Systeme effektiv<br />

schützen?<br />

Im Grunde gilt für <strong>HPC</strong>-Systeme mit Bezug auf IT-Sicherheit<br />

nichts anderes wie für Firmennotebooks und Workstations<br />

auch: der Zugriff durch Unbefugte muss eben IT-technisch<br />

unterbunden sein. Aber wie oben beschrieben häufen sich<br />

auf einem <strong>HPC</strong>-System unternehmenskritische Daten in großer<br />

Menge. Aus diesem Grund sollte in <strong>HPC</strong>-Umgebungen<br />

„Nun, wir haben in der<br />

Vergangenheit zahlreiche<br />

Kunden mit <strong>HPC</strong>-Lösungen<br />

ausgestattet, die sich<br />

selbst durchaus als<br />

– normalsterblich –<br />

bezeichnen würden.“<br />

Dr. Oliver Tennert<br />

<strong>State</strong> <strong>of</strong> <strong>HPC</strong>: Welche <strong>HPC</strong>-Lösungen<br />

bietet transtec insbesondere mittelständischen<br />

Kunden an?<br />

Wir sind ein umfassender Lösungsanbieter,<br />

der die gesamte Produktpalette<br />

innerhalb des Bereichs High<br />

Performance Computing abdeckt –<br />

von Servern, Schränken, Storage-<br />

Lösungen bis hin zu innovativen<br />

Kühlkonzepten. Daneben bieten wir<br />

ein umfassendes Service-Portfolio, um<br />

Kunden nicht nur eine umfassende Betreuung zu gewähren,<br />

die weit über den klassischen Hardware-Support hinausgeht,<br />

sondern auch betriebsunterstützende Leistungen bis<br />

hin zum Regelbetrieb der <strong>HPC</strong>-Lösung.<br />

<strong>State</strong> <strong>of</strong> <strong>HPC</strong>: Die Remote-Visualisierung ist auf dem Vormarsch.<br />

Welche Vorteile eröffnet diese Technologie den<br />

Anwendern und was ist dabei zu beachten?<br />

Der klassische Workflow im CAE-Umfeld beinhaltet nach<br />

wie vor wiederholtes Hin- und Herkopieren von Ergebnisdaten<br />

zur späteren Auswertung, dem Post-Processing. Für<br />

das Renedering des meist visuellen Verfahrens ist eine<br />

entsprechende Grafikleistung notwendig, wie sie typischerweise<br />

in lokalen Workstations vorhanden ist. Remote-<br />

Visualisierung ermöglicht es, dieses Post-Processing dort<br />

durchzuführen, wo die Daten im Vorfeld auch erzeugt<br />

wurden, nämlich auf dem <strong>HPC</strong>-Cluster. Dedizierte Visualisierungsserver,<br />

die – entsprechend mit GPUs ausgestattet<br />

– das Renedering im Rechenzentrum übernehmen, sorgen<br />

dafür, dass unter dem Strich eine bessere Hardwareauslastung<br />

gegeben ist und dadurch letztlich Hardware<br />

eingespart werden kann. Die zentrale Datenhaltung<br />

ermöglicht es darüber hinaus, Kollaborationsszenarien<br />

über verteilte Standorte hinweg zu ermöglichen, ohne<br />

dass eine Duplizierung der Daten durch weiteres Hin- und<br />

Herkopieren erfolgt.<br />

7 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Hohe Rechenleistung<br />

und Sicherheit<br />

durch GPU-Computing mit<br />

Virtualisierung<br />

GPU-Computing und Virtualisierung müssen sich nicht ausschließen. transtec bietet<br />

mit einer neuen CUDA-Workstation eine schlüsselfertige Lösung an, die eine<br />

hohe Performance auf Basis der Tesla- und GRID-Architektur von NVIDIA bietet.<br />

Sie ist sowohl für den Citrix XenServer als auch für VMware vSphere zertifiziert.<br />

Verteilte Entwicklerteams, die an hochkomplexen Projekten<br />

arbeiten, sind in Tätigkeitsfeldern wie CAE, CAM oder<br />

CAD keine Ausnahme, sondern die Regel. Das Problem dabei<br />

liegt auf der Hand: Verschiedene dezentrale Datenbestände<br />

beeinträchtigen die Datenaktualität und erfordern<br />

zeitaufwändige Übertragungen umfangreicher Datenmengen,<br />

bei denen zusätzlich Bandbreitenrestriktionen negativ<br />

ins Gewicht fallen. Von der Sicherheitsgefahr, die die lokale<br />

Datenspeicherung – beispielsweise auch bei externen<br />

Dienstleistern wie Ingenieurbüros – mit sich bringt, ganz<br />

zu schweigen.<br />

Abhilfe schafft hier eine zentrale Datenhaltung im Rechenzentrum,<br />

die natürlich konkrete Anforderungen an<br />

Hardware und S<strong>of</strong>tware nach sich zieht. Zwei wesentliche<br />

Bausteine sind dabei eine hochperformante Hardware wie<br />

eine GPU-Workstation und die Virtualisierung. Hier stellt<br />

sich zunächst die Frage: GPU-Computing und Virtualisierung<br />

– passt das zusammen? In der Vergangenheit war<br />

das tatsächlich eine komplexe Herausforderung, heute<br />

aber vor allem dank Optimierungen bei der NVIDIA-GRID-<br />

Architektur und aktuellen Versionen der Virtualisierungstechnologien<br />

VMware vSphere oder Citrix XenServer ohne<br />

Weiteres realisierbar. Das heißt, es ist beispielsweise<br />

auch möglich, umfangreiche Datenmengen wie komplexe<br />

3D-Grafiken zentral im Rechenzentrum vorzuhalten und<br />

sie über LAN oder WAN Remote-Anwendern bereitzustellen.<br />

Diese zentrale Datenablage bedeutet ein deutliches<br />

Plus an Sicherheit und Schutz vor Datenverlust oder<br />

-diebstahl.<br />

8 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Fachartikel<br />

3D-Visualisierung<br />

Grafikvirtualisierung ist der nächste Schritt<br />

Grafik-beschleunigte virtuelle Systeme und Anwendungen<br />

können unter Nutzung der NVIDIA-GRID-Technologie, die<br />

unter anderem eine Hardware-Virtualisierung des Grafikprozessors<br />

umfasst, schnell bereitgestellt werden. Im Hinblick<br />

auf den Virtualisierungs-Hypervisor bot sich in der<br />

Vergangenheit der Citrix XenServer an, der die NVIDIA-<br />

Technologien und -Karten am besten unterstützte. Doch die<br />

Auswahl ist inzwischen größer geworden und das kann dem<br />

ganzen Virtualisierungsthema im GPU-Computing-Kontext<br />

einen entscheidenden Wachstumsschub geben. Der Grund<br />

ist klar: Virtualisierung im Unternehmensbereich bedeutet<br />

heute in der Regel VMware, doch im Zusammenhang mit<br />

GPU-Computing war das bisher eher eine Herausforderung.<br />

Mit der neuen VMware-vSphere-Unterstützung der NVIDIA-<br />

GRID-vGPU-Technologie kann hier aber eine neue Zeitrechnung<br />

beginnen.<br />

Grafikbeschleunigung bringt entscheidenden<br />

Leistungsschub<br />

Komplexe Berechnungen, Datenanalysen, aufwändige<br />

Simulationen oder auch die Grafik- und Videobearbeitung<br />

erfordern generell eine extrem hohe Rechenleistung. Prädestiniert<br />

dafür ist das GPU-Computing. Eine neue Lösung<br />

in diesem Bereich bietet transtec mit der Workstation<br />

CUDA 4240, ein GPU-Compute-Node mit zwei Höheneinheiten.<br />

Zur Hardware-Ausstattung gehören maximal zwei<br />

Intel Xeon Prozessoren der E5-2600 V3 Serie (Haswell EP),<br />

bis zu 1.<strong>02</strong>4 GB Hauptspeicher (LRDIMM) und maximal<br />

sechs NVIDIA-Tesla-GPUs. Eingesetzt werden können die<br />

GPU-Computing-Modelle NVIDIA Tesla K8, K10, K20, K20X,<br />

K40M und K80 (Kepler) oder, im Rahmen einer virtualisierten<br />

Lösung, bis zu vier NVIDIA GRID K1 und K2 (Kepler).<br />

Wir haben unsere neuen GPU-Workstation dahingehend<br />

ausgelegt. Sie unterstützt neben Citrix XenServer 6.5 auch<br />

VMware vSphere 5.5 Update 2. Und das bedeutet: Auch<br />

Unternehmen, die auf eine Virtualisierung mit VMware-<br />

Lösungen setzen, können künftig das GPU-Computing einfach,<br />

schnell und effizient nutzen.<br />

Mit der neuen Workstation adressieren wir primär mittelständische<br />

Kunden wie Ingenieurbüros, aber auch Entwicklungs-<br />

oder CAD-Abteilungen größerer Unternehmen. Allen<br />

Anwendern steht mit der Workstation eine schlüsselfertige<br />

Lösung zur Verfügung, die eine hohe Rechenleistung auf<br />

Basis von NVIDIA-Technologie und eine umfassende Virtualisierungs-Unterstützung<br />

bietet.<br />

Die Workstations basieren auf der speziell für das High<br />

Performance Computing (<strong>HPC</strong>) konzipierten NVIDIA-Tesla-<br />

Architektur. Die Tesla-GPUs bieten pro Karte bis zu 4.992<br />

parallele Recheneinheiten (Cores). Damit können tausende<br />

Threads simultan verarbeitet werden. Die Leistungswerte<br />

bei der Floating Point Performance liegen bei bis zu<br />

5,6 TeraFLOPS Single-Precision und bis zu 1,87 TeraFLOPS<br />

Double-Precision. Optional vorinstalliert ist auch die<br />

CUDA-Entwicklungsumgebung für die Durchführung paralleler<br />

Berechnungen.<br />

Autor: Michael Hohl<br />

Director Technical Sales Europe, Enterprise Solutions<br />

9 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Open Source trumpft auf bei der<br />

STRÖMUNGSANALYSE<br />

Bei der Produktentwicklung sind in der Industrie CAE-Verfahren wie die Simulation<br />

und Strömungsanalyse Standard. Als Alternative zu kommerziellen Applikationen<br />

setzen sich heute verstärkt Open Source-Lösungen durch. Unternehmen<br />

sparen damit Lizenzkosten, passen die S<strong>of</strong>tware einfacher an ihre Anforderungen<br />

an und optimieren ihre Produkte.<br />

10 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Titelthema<br />

Open Source<br />

Wie muss der Außenspiegel bei einem neuen Fahrzeugmodell<br />

geformt sein, damit er den geringsten Luftwiderstand<br />

aufweist? Wie muss die Tragfläche eines Flugzeugs<br />

beschaffen sein, damit es möglichst wenig Kerosin verbraucht?<br />

Fragen wie diese sind Alltag in den CAE-Abteilungen<br />

der Automobilindustrie oder Luftfahrt. Auch beim<br />

Bau von Turbinen und Pumpen spielen Temperatur- und<br />

Strömungsanalysen auf Basis numerischer Strömungssimulationen<br />

(Computational Fluid Dynamics, CFD) eine<br />

zentrale Rolle. Hier sind permanente Optimierung und<br />

Weiterentwicklung gefragt. Lösungen, die gestern als das<br />

Optimum galten, sind heute überholt. Es muss permanent<br />

an tausenden von Parametern „gedreht“ werden. Das ist<br />

wie beim Hochleistungssport – es geht immer noch höher,<br />

schneller und weiter. Sogenannte „Stochastik-Jobs“ variieren<br />

parallel eine Vielzahl an Parametern und testen deren<br />

Auswirkungen auf das Simulationsergebnis.<br />

Open Source-S<strong>of</strong>tware eignet sich für<br />

CAE-Szenarien<br />

Open Source-S<strong>of</strong>tware zeichnet sich bekanntermaßen dadurch<br />

aus, dass ihr Quellcode, alle Algorithmen, Numerik<br />

und Modelle frei verfügbar sind und viele meist unabhängige<br />

Programmierer sie gemeinsam weiterentwickeln. Zudem<br />

fallen für die Nutzung der S<strong>of</strong>tware keine Lizenzkosten an.<br />

Der Großteil der Open Source CFD-Pakete wird unter der GPL<br />

(GNU General Public License)-, BSD (Berkeley S<strong>of</strong>tware Distribution)-Lizenz<br />

oder MIT (Massachusetts Institute <strong>of</strong> Technology)-Lizenz<br />

lizenziert und darf in gewerblichen Projekten<br />

verwendet werden. Die einzige Einschränkung bezieht<br />

sich auf eine Weiterverteilung der S<strong>of</strong>tware oder ihrer Derivate.<br />

Unternehmen müssen den Quellcode freigeben, wenn<br />

sie Weiterentwicklungen verkaufen oder neu verteilen<br />

wollen. Im Übrigen gilt natürlich auch beim Einsatz von<br />

Open Source-Produkten die Produkthaftung und Gewährleistung.<br />

Damit stehen Unternehmen beim Einsatz von<br />

Open Source-S<strong>of</strong>tware rechtlich nicht anders da als bei anderen<br />

Lizenzformen.<br />

Innovative Entwicklung in der Community<br />

Einige erfolgreiche Open Source-Beispiele, wie Linux, Libre-<br />

Office oder GNU Compiler zeigen, dass eine Community<br />

aus weltweit verteilten Entwicklern auch hochkomplexe<br />

Systeme erfolgreich entwickeln und pflegen kann. Da viele<br />

Entwickler mit geballter Expertise zusammenarbeiten und<br />

den Quellcode frei bearbeiten können, ermöglicht Open<br />

Source hohe Qualität, schnellere Innovationen und kürzere<br />

Release-Zyklen.<br />

Zudem verschwindet die Abhängigkeit vom proprietären<br />

Angebot eines einzigen Unternehmens, wenn der Programmcode<br />

frei verfügbar ist: es kommt zu keinem Lock-in.<br />

Weil sich Open Source-S<strong>of</strong>tware an allgemein anerkannten<br />

Standards orientiert, kann der Kunde sicher sein, dass er<br />

einen Großteil der Funktionen auch beim Wechsel des Produkts<br />

wiederverwenden kann.<br />

Voraussetzung für den Erfolg von Open Source ist eine<br />

starke Unterstützung und Motivation in der Community.<br />

Finden sich jedoch nicht genügend Entwickler, die den Code<br />

mit der notwendigen Motivation weiterentwickeln, kann<br />

das Projekt zu einer Geister-S<strong>of</strong>tware werden. Wichtige<br />

Erfolgsfaktoren sind gute Businessmodelle für Dienstleistungen<br />

oder Zusatz-S<strong>of</strong>tware sowie große, stabile Sponsoren,<br />

die ein vitales Eigeninteresse an der Weiterentwicklung<br />

der S<strong>of</strong>tware besitzen.<br />

Vorher<br />

Nachher<br />

Formoptimierung eines Außenspiegels<br />

11 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Für CFD – und auch andere CAE-Anwendungen – gibt es<br />

neben kommerzieller S<strong>of</strong>tware und Eigenentwicklungen<br />

mittlerweile auch Open Source-Produkte. Eine der bekanntesten<br />

und erfolgreichsten Anwendungen aus diesem Bereich<br />

ist OpenFOAM (Field Operation And Manipulation), ein<br />

in C++ geschriebenes Simulationsprogramm für Strömungsanalysen<br />

und das Lösen von Strömungsproblemen.<br />

PIV measurements <strong>of</strong><br />

the wake structure<br />

Force measurements and<br />

oil-film-flow visualisation<br />

Bei OpenFOAM, dem Paradebeispiel für erfolgreiche Open<br />

Source-S<strong>of</strong>tware im CAE-Umfeld, treffen alle drei Erfolgsfaktoren<br />

zusammen: Die Weiterentwicklung des Codes und<br />

auch der Support laufen <strong>of</strong>t erstaunlich schnell und gut,<br />

da die Entwickler sehr engagiert und etwa über WhatsApp<br />

oder Internet-Foren sehr gut vernetzt sind. Zudem gibt<br />

es viele Unternehmen, die weitere<br />

Services rund um die S<strong>of</strong>tware für Jets <strong>of</strong>f<br />

Strömungs-Simulationen anbieten.<br />

Die notwendigen finanziellen Mittel<br />

stammen von einem führenden Automobilhersteller,<br />

der an der Optimierung<br />

von OpenFOAM interessiert ist,<br />

weil er damit Zeit und Kosten bei der<br />

Produktentwicklung spart.<br />

Flexiblere Anpassung an<br />

Anforderungen<br />

Ein weiterer wichtiger Vorteil: Unternehmen<br />

können den Quellcode<br />

und die Compiler-Einstellungen viel<br />

freier und einfacher an ihre individuellen<br />

Anforderungen anpassen und<br />

optimieren, als dies bei kommerzieller<br />

S<strong>of</strong>tware der Fall ist. So führen<br />

manchmal geringe Änderungen an<br />

den Compiler-Einstellungen zu signifikant höheren Rechengeschwindigkeiten.<br />

Darüber hinaus arbeiten die eigenentwickelten<br />

und ergänzten Module oder Funktionen auch<br />

nach einem S<strong>of</strong>tware-Update noch reibungslos, da das Unternehmen<br />

selbst die Kontrolle behält – s<strong>of</strong>ern es qualifizierte<br />

Open Source-Experten in seinen Reihen beschäftigt.<br />

Hier liegt die Crux. Ingenieure mit Know-how zum Kompilieren<br />

und Ändern von Open Source Code sind derzeit nicht<br />

einfach zu finden, da Open Source-Lösungen an den Universitäten<br />

(noch) nicht im Zentrum der Lehre stehen. Unternehmen<br />

müssen daher viel in die Expertise ihrer Mitarbeiter investieren<br />

und versuchen, diese durch ein attraktives Gehalt<br />

und andere Incentives an sich zu binden.<br />

Doch wenn Sie Open Source-Experten beschäftigen, haben<br />

Unternehmen mehr Spielraum bei der Entwicklung und können<br />

vor allem bei Parameter-Studien oder automatischen<br />

Optimierungen Kosten sparen. Hier werden im Rahmen<br />

von Finite-Elemente-Modellen verschiedene Parameter<br />

wie Werkst<strong>of</strong>f- oder Geometriedaten variiert und kombiniert,<br />

um die ideale Lösung – etwa für die Bauform eines<br />

Produkts oder Bauelements – zu finden. Parameter-Studien<br />

erfordern die hohe Rechenleistung von <strong>HPC</strong>-Systemen mit<br />

vielen Rechenkernen (Cores). Da viele Anbieter kommerzieller<br />

CAE-S<strong>of</strong>tware ihre Lizenzkosten nach der<br />

Anzahl der Cores berechnen, vermeiden Unternehmen<br />

mit Open Source-S<strong>of</strong>tware teilweise Millionen von<br />

Euro an Lizenzkosten.<br />

-300 -200 -100 0 100 200 300 400 500<br />

Jets on<br />

x [mm]<br />

-300 -200 -100 0 100 200 300 400 500<br />

PIV measurements in the symmetry plane <strong>of</strong> the XL1 wake.<br />

30.0<br />

27.5<br />

25.0<br />

22.5<br />

20.0<br />

17.5<br />

15.0<br />

12.5<br />

10.0<br />

7.5<br />

5.0<br />

2.5<br />

0.0<br />

30.0<br />

27.5<br />

25.0<br />

22.5<br />

20.0<br />

17.5<br />

15.0<br />

12.5<br />

10.0<br />

7.5<br />

5.0<br />

2.5<br />

0.0<br />

12 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Titelthema<br />

Open Source<br />

Für wen eignet sich Open Source-CAE?<br />

Ob ein Unternehmen Open-Source-S<strong>of</strong>tware einsetzt, ist<br />

eine strategische Entscheidung. Wenn die Firma für ihre IT<br />

eine restriktive Windows-Umgebung diktiert, kommt freie<br />

S<strong>of</strong>tware kaum in Frage. Das größte Hindernis ist geringe<br />

Open Source-Expertise in der CAE-Abteilung, da es <strong>of</strong>t an<br />

Mitarbeitern mangelt, die über die benötigten Erfahrungen<br />

verfügen. Zudem kann nicht jede CAE-Abteilung die zunächst<br />

höheren Personalkosten rechtfertigen, die mit der<br />

Beschäftigung der raren, aber begehrten Ingenieure mit<br />

Open Source-Know-how verbunden sind. Mittel- bis langfristig<br />

aber werden Unternehmen insbesondere bei CFD-Anwendungen<br />

mit Parameter-Studien und Optimierungen<br />

vom Open Source-Ansatz auch finanziell pr<strong>of</strong>itieren, indem<br />

sie bei den Lizenzkosten gespartes Kapital in ihre Mitarbeiter,<br />

spezifische Methoden und Funktionen investieren.<br />

Auch wir benutzen intensiv Open Source-S<strong>of</strong>tware, um<br />

Cluster zu betreiben. Dies sind auf der Ebene der Betriebssysteme<br />

CentOS, Scientific Linux und Ubuntu. Beim <strong>HPC</strong><br />

Clustermanagement kommen so populäre Tools wie xCat<br />

für die Cluster Provisionierung, Ganglia für Monitoring und<br />

Nagios für das Event Handling zum Einsatz.<br />

Die Liste der Tools ist lang. Im Bereich der parallelen Filesysteme<br />

setzt man auf „Lustre“, während man für die Micros<strong>of</strong>t<br />

Integration <strong>of</strong>t Samba einsetzt, um beide Welten zu verbinden.<br />

Der Kunde pr<strong>of</strong>itiert von dem fundierten Know-how<br />

der transtec Engineers in diesem Bereich und von günstigen<br />

Supportkosten. Open Source ist einer der Treiber- bzw. Katalysatoren<br />

der <strong>HPC</strong> Cluster Community.<br />

Autor: Arno Ziebart, Director <strong>HPC</strong> Sales Europe<br />

Ausgewählte Open Source-Tools für CAE-Anwendungen<br />

Elmer<br />

Code Aster<br />

SU2 Code<br />

Elmer Code Aster SU2 Code<br />

Finite-Elemente-Programm für strukturmechanische<br />

Simulationen zur<br />

Belastung von Komponenten und<br />

Baugruppen sowie für numerische<br />

Strömungssimulationen. Elmer wird<br />

als freie S<strong>of</strong>tware unter der GNU<br />

General Public License (GPL, Version 2)<br />

verbreitet.<br />

Die S<strong>of</strong>tware ist in Python und<br />

Fortran geschrieben. Sie bietet Finite-<br />

Elemente-Analysen und numerische<br />

Simulation zur Berechnung mechanischer,<br />

thermischer, statischer und<br />

dynamischer Effekte für feste und<br />

flüssige St<strong>of</strong>fe.<br />

Primäre Anwendungen sind numerische<br />

Strömungssimulationen (CFD) und<br />

die aerodynamische Optimierung von<br />

Formen; mittlerweile wurde die S<strong>of</strong>tware<br />

für die Lösung allgemeinerer<br />

Gleichungen wie in der Elektrodynamik<br />

und bei chemisch reagierenden<br />

Strömungen erweitert.<br />

CalculiX<br />

OpenFOAM<br />

GetFEM ++<br />

Calculix OpenFOAM GetFEM ++<br />

Freies Finite-Elemente-Programm für<br />

dreidimensionale Strukturberechnungen<br />

auf Basis des ABAQUS-Eingabeformats<br />

für den Gleichungslöser. Daher<br />

ist das Programm mit zahlreichen<br />

Prä- und Postprozessoren kompatibel.<br />

OpenFOAM (Field Operation And Manipulation):<br />

das Vorzeigeprojekt für<br />

Open Source CFD. Heute beschränkt<br />

sich die S<strong>of</strong>tware nicht mehr nur auf<br />

Strömungsanalysen, sondern ermöglicht<br />

auch Finite-Elemente-Analysen<br />

(FEA).<br />

Eine generische Finite-Elemente-<br />

Bibliothek auf Basis von C ++ mit<br />

Schnittstellen für Python, Matlab und<br />

Scilab. Sie konzentriert sich auf die Modellierung<br />

im Bereich Kontaktmechanik<br />

und Diskontinuitäten (z. B. Risse).<br />

DAKOTA<br />

MaxFEM<br />

FEniCS<br />

DAKOTA MaxFEM FEniCS<br />

DAKOTA (Design Analysis Kit for Optimization<br />

and Terascale Applications):<br />

umfassende Open Source-Bibliothek<br />

für die multidisziplinäre Optimierung<br />

von Produkten.<br />

S<strong>of</strong>tware für elektromagnetische<br />

Simulationen auf Basis der Finite-<br />

Elemente-Methode (FEM).<br />

S<strong>of</strong>tware-Paket auf Basis von Dolfin<br />

(C++-Bibliothek mit Python Interface)<br />

mit dem Ziel, Differentialgleichungen<br />

automatisiert zu lösen.<br />

13 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Forschungshochleistungsrechner<br />

erobert Karlsruher<br />

Institut für Technologie<br />

Das Karlsruher Institut für Technologie baute im Rahmen des Forschungshochleistungsrechners<br />

Phase 2 (ForHLR II) bis Ende 2015 einen <strong>HPC</strong>-Cluster mit über<br />

1.100 Rechenknoten auf. Die Lösung mit einem Gesamtvolumen von 6,9 Millionen<br />

Euro lieferte der <strong>HPC</strong>-Spezialist transtec. Es ist der größte Einzelauftrag<br />

seiner Firmengeschichte.<br />

14 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Referenz<br />

KIT<br />

Das Karlsruher Institut für Technologie (KIT) ist eine Technische<br />

Universität des Landes Baden-Württemberg und transtec das Hochleistungsrechnersystem ForHLR2 beim<br />

Im Rahmen des bis Ende 2015 angelegten <strong>HPC</strong>-Projektes hat<br />

ein nationales Forschungszentrum in der Helmholtz-Gemeinschaft.<br />

Das Institut betreibt unter anderem Grundla-<br />

auf NeXtScale-Systemen von Lenovo und kombiniert neu-<br />

KIT implementiert und in Betrieb genommen. Es basiert<br />

gen- und angewandte Forschung in Bereichen wie Materialwissenschaften,<br />

Umwelt, Energie oder Nanotechnologie. effizienz. In der Lösung sind NeXtScale-Systeme mit<br />

este Technologie mit hoher Zuverlässigkeit und Energie-<br />

Aufgrund der zahlreichen rechenintensiven Datenanalysen direkter Heißwasserkühlung zum Einsatz gekommen, um<br />

und komplexen Simulationen, die in diesem Umfeld er-<br />

alle Systembestandteile wie Prozessoren, Arbeitsspeicher<br />

forderlich sind, entschied sich<br />

das KIT zum Aufbau einer<br />

<strong>HPC</strong>-Cluster-Lösung im eigenen<br />

Rechenzentrum.<br />

Als Lösungs- und Integrationspartner<br />

hat das KIT die transtec<br />

AG aus Reutlingen ausgewählt.<br />

transtec konnte sich in dem<br />

EU-weiten Ausschreibungsverfahren<br />

ForHLR Phase 2 (TED<br />

2014/S 162-290100) gegen nam-<br />

„Es freut uns sehr, dass wir dieses<br />

große <strong>HPC</strong>-Projekt, das innovative<br />

Konzepte mit technischer<br />

Leistungsfähigkeit verbindet,<br />

an einem der renommiertesten<br />

Forschungsstandorte Europas<br />

durchführen durften“ Dr. Oliver Tennert<br />

oder I/O-Karten effizient kühlen<br />

zu können. Diese Systeme bieten<br />

eine um 40 Prozent höhere Energieeffizienz<br />

und rund 10 Prozent<br />

mehr Leistung als Lösungen, die<br />

auf Luftkühlung basieren. Weiterer<br />

Vorteil ist, dass ein Großteil<br />

der Abwärme auch für andere<br />

Aufgaben genutzt werden kann,<br />

zum Beispiel für die Beheizung<br />

von Gebäuden.<br />

hafte und international agierende Wettbewerber behaupten.<br />

Ausschlaggebend war, dass transtec gemeinsam mit bei einem geringen Energieverbrauch von maximal 420 kW,<br />

„Mit einer Peak-Leistung im PetaFLOPS-Bereich, und das<br />

seinem Technologiepartner Lenovo eine integrierte Gesamtlösung<br />

anbieten konnte, die neben der hohen Perforentesten<br />

<strong>HPC</strong>-Clustern weltweit“, erklärte Robin Kienecker,<br />

gehört unsere Lösung zu den schnellsten und energieeffizimance<br />

vor allem eine extrem hohe Energieeffizienz bietet. Sales Manager Technical Computing bei der transtec AG in<br />

Damit lassen sich auf Dauer auch die Gesamtbetriebskosten<br />

für die Lösung niedrig halten.<br />

Reutlingen.<br />

„Es freut uns sehr, dass wir dieses große <strong>HPC</strong>-Projekt, das innovative<br />

Konzepte mit technischer Leistungsfähigkeit verbindet,<br />

an einem der renommiertesten Forschungsstandorte<br />

Europas durchführen durften“, fügt Dr. Oliver Tennert,<br />

Director <strong>HPC</strong> Solutions bei der transtec AG, hinzu.<br />

Hans-Jürgen Bahde, Vorstand der transtec AG, ergänzt: „Mit<br />

einem Netto-Auftragsvolumen von rund sieben Millionen<br />

Euro ist es für transtec der größte Auftrag in seiner 35-jährigen<br />

Firmengeschichte und ein weiterer Beweis für unsere<br />

Kompetenz und unsere Leistungsfähigkeit im <strong>HPC</strong>-Markt.<br />

Auch sind wir damit unserem Ziel, der größte europäische<br />

konzernunabhängige <strong>HPC</strong>-Player zu werden, ein weiteres<br />

entscheidendes Stück näher gekommen.“<br />

15 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


16 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Fachartikel<br />

Turnkey-Solutions<br />

Einfach den<br />

SCHLÜSSEL<br />

umdrehen...<br />

...und los geht‘s mit der komplexen<br />

Berechnung. Highend-Rechencluster<br />

wollen auf die Bedürfnisse des<br />

Kunden sorgfältig zugeschnitten sein.<br />

Dies verlangt nach pr<strong>of</strong>unden Kenntnissen<br />

bei der Systemintegration, zumal<br />

die Auswahl an Hardware-Komponenten<br />

beachtlich ist.<br />

Der Mittelstand könnte von High Performance Computing<br />

(<strong>HPC</strong>) pr<strong>of</strong>itieren, doch zeigt er ihm bisher nur die kalte<br />

Schulter. Einer von uns durchgeführten Umfrage zufolge<br />

setzen gerade einmal 5 Prozent des Mittelstands <strong>HPC</strong>-Systeme<br />

ein, obwohl der potenzielle Nutzen, gerade in Zeiten<br />

von Industrie 4.0 & Co, auch für kleine und mittlere Betriebe<br />

erheblich ist und die eigene Wettbewerbsfähigkeit steigern<br />

kann. Die Befragung wurde unter 254 IT-Verantwortlichen<br />

in technisch-orientierten Unternehmen mit bis 1.000 Mitarbeitern<br />

durchgeführt. Datenvolumina wachsen in allen<br />

Bereichen dermaßen schnell an, dass konventionelle Rechnersysteme<br />

für deren Auswertung an ihre Grenzen stoßen.<br />

17 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Die Gewinnung nutzbarer Erkenntnisse aus dieser<br />

Datenflut – Stichpunkt „Big Data“ – ist in Zukunft praktisch<br />

nur noch mit hochleistungsfähigen <strong>HPC</strong>-Systemen zu<br />

bewältigen.<br />

Nutzen Sie bereits <strong>HPC</strong>-Lösungen?<br />

„Weiß nicht“ 11,8%<br />

Nein 83,1%<br />

Ja 5,1%<br />

empfinden sie als adäquat. Andererseits haben sich noch<br />

wenige Unternehmen mit der tatsächlichen Auswertung<br />

von Big Data auseinander gesetzt oder nutzen nicht moderne<br />

S<strong>of</strong>twarelösungen für Simulations- oder Entwicklungszwecke,<br />

die ja deutlich mehr Rechenkapazität einfordern.“<br />

In der Tat ist eine auffällige Korrelation erkennbar:<br />

Bei Unternehmen mit bis zu 500 Mitarbeitern sind für rund<br />

9 Prozent der Befragten die Systeme für rechenintensive<br />

Anwendungen zu langsam, bei solchen mit mehr als 500<br />

Mitarbeitern beklagen sich über drei Mal so viel, insgesamt<br />

rund 31 Prozent, über mangelnde Geschwindigkeit.<br />

Zu lange Wartezeiten?<br />

„Weiß nicht“ 17,0%<br />

Entsprechend der Unternehmensgröße, so ist in der Studie<br />

weiter zu lesen, steigt jedoch die Nutzung von <strong>HPC</strong>-Systemen.<br />

Über 9 Prozent der Unternehmen ab 201 Mitarbeitern<br />

geben an, sie einzusetzen. Diese Zahl fällt auf rund 3 Prozent<br />

bei Unternehmen mit 11 bis 200 Mitarbeitern. Von den<br />

befragten Kleinstbetrieben mit bis zu 10 Mitarbeitern nutzt<br />

indes kein einziger eine <strong>HPC</strong>-Lösung. Da liegt also noch Geld<br />

auf der Straße.<br />

Über alle Unternehmensgrößen hinweg liegt der Durchschnitt<br />

bei 5,1 Prozent. Der Rest der befragten Unternehmen<br />

gibt an, keine <strong>HPC</strong>-Lösung einzusetzen oder es nicht<br />

zu wissen. Allerdings beklagen sich lediglich 12 Prozent<br />

über zu lange Wartezeiten bei rechenintensiven Anwendungen,<br />

ganz so, als gäbe es kaum Bedarf für schnellere Lösungen.<br />

„Diese Zahl hat uns überrascht“, erklärt Oliver Tennert,<br />

Director Technology Management and <strong>HPC</strong> Solutions<br />

bei transtec, im Gespräch mit der Redaktion. „Wir erklären<br />

uns das so: Einerseits haben sich viele Anwender an eine<br />

gemächliche Gangart ihrer Rechnersysteme gewöhnt und<br />

Nein 70,5%<br />

Ja 12,4%<br />

Mit ganzheitlichem Anspruch<br />

Wir sehen uns als einen umfassenden <strong>HPC</strong>-Lösungsanbieter<br />

einschließlich eines breit gefächerten Dienstleistungsangebots.<br />

Unser Augenmerk liegt hierbei auch auf mittelständischen<br />

Fertigungsbetrieben, jedoch beschränken wir uns<br />

nicht darauf, die komplette Hardware-Infrastruktur für ein<br />

<strong>HPC</strong>-System zu liefern. Wir haben den Anspruch, den Kunden<br />

entlang des kompletten Lebenszyklus der Lösung zu begleiten.<br />

Dies fängt mit der Beratung vor dem Kauf an, dem<br />

sogenannten Presales Consulting. Dabei geht es um die Dimensionierung<br />

des geplanten Clusters unter den folgenden<br />

Gesichtspunkten: Braucht es ein schnelles Netzwerk? Welche<br />

CPU-Typen kommen in Frage? Wie viel RAM ist notwendig?<br />

„Wir führen umfassende Benchmarks durch, um präzise<br />

Entscheidungshilfe leisten zu können“, sagt Tennert. Sobald<br />

wir mit dem Kunden gemeinsam die beste Lösung<br />

erarbeitet haben, wird das schlüsselfertige System geliefert<br />

und in Betrieb genommen. Wir sind in ein Ökosystem<br />

eingebettet, das sich speist aus dem, wie die Kundenanforderungen<br />

gelagert sind. Es kommen Produkte unterschiedlicher<br />

Originalhersteller zum Einsatz, nicht nur für<br />

die Hardware, sondern zum Beispiel unter anderem auch<br />

18 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


Fachartikel<br />

Turnkey-Solutions<br />

für die Cluster-Management-S<strong>of</strong>tware. Zu unseren Kunden<br />

zählen öffentliche Institutionen und Unternehmen aus einer<br />

Vielzahl an Branchen.<br />

Europaweit gibt es um die zehn Konkurrenten, davon in<br />

Deutschland drei, die im Systemgeschäft mit <strong>HPC</strong>-Lösungen<br />

tätig sind. Uns zeichnet jedoch insbesondere aus, eine<br />

sehr starke Präsenz im industriellen Umfeld vorweisen zu<br />

können. Und dies bereits seit gut zwei Dekaden. Wir bedienen<br />

das Preissegment von 100.000 bis rund zwei Millionen<br />

Euro. Allerdings geht es auch günstiger: „Ein 4- bis 8-Knoten<br />

Cluster ist – je nach Ausstattung – bereits ab 25.000 Euro zu<br />

haben, was den Einstieg erleichtert. Eine <strong>HPC</strong>-Lösung kann<br />

drei bis fünf Jahre betrieben werden. Dann ist sie, technologisch<br />

gesehen, veraltet und auch der Wartungsvertrag ist<br />

bis dahin ausgelaufen“, sagt Tennert.<br />

Typische Anwendungsfelder von <strong>HPC</strong> in der Industrie lassen<br />

sich in zwei Segmente unterteilen: die Analyse umfangreicher<br />

Berechnungsmodelle und die Auswertung großer<br />

Datenmengen. Beim Fahrzeughersteller Daimler in der<br />

Automobilindustrie zum Beispiel werden in einem Monat<br />

durchschnittlich hunderte von virtuellen Crash-Tests von<br />

Entwicklungsderivaten durchgeführt, jedoch nur noch einige<br />

wenige physischer Crash-Versuche zu reinen Validierungszwecken.<br />

Auch in der chemischen und pharmazeutischen<br />

Industrie wird massiv in Simulation und Berechnung<br />

investiert.<br />

Bezüglich Trends im <strong>HPC</strong>-Umfeld kann man sagen, dass ab<br />

dem Jahr 2008 Rechnen auf Grafikkarten en vogue geworden<br />

ist. Vorreiter war NVIDIA mit den Tesla-Karten. Das aktuelle<br />

Flaggschiff ist die K80-Karte. Doch hat in den letzten<br />

drei Jahren Intel nachgezogen und eigene Grafikkarten – Beschleunigerkarten<br />

– ins Feld geführt, die sogenannten Xeon-<br />

Phi-Karten. InfiniBband ist inzwischen der Marktführer bei<br />

Hochgeschwindigkeitsnetzwerken. Der einzig verbleibende<br />

Bottleneck, so Tennert weiter, war in der Vergangenheit<br />

beim Zugriff auf den Massenspeicher (Storage) zu finden.<br />

Doch sei hier der Trend hin zu parallelen File-Systemen zu<br />

erkennen. „Inzwischen wird skalierbares Storage angeboten,<br />

das über ein Netzwerk angeschlossen wird. Das Wichtigste<br />

ist dabei, dass eine sehr hohe Bandbreite im Netzwerk<br />

zur Verfügung steht“, sagt Tennert.<br />

Wie zu erkennen ist, stehen wir dem Kunden beratend zur<br />

Seite, wenn es um die beste Systemarchitektur für seine individuelle<br />

Aufgabenstellung geht. „Der Kunde ist meistens<br />

nicht in der Lage, die Anforderungen seiner Applikation auf<br />

die IT abzubilden. Genau dieses Sizing ist unser Job! Es gibt<br />

Applikationen, die sehr gut skalieren und die folglich auf<br />

mehrere Knoten verteilt werden können. In diesem Fall ist<br />

es möglicherweise sinnvoll, von InfiniBand Gebrauch zu<br />

machen.<br />

Number Crunching im industriellen Umfeld<br />

Andererseits gibt es aber auch Applikationen, die sich<br />

überhaupt nicht parallelisieren lassen. Es macht hier nur<br />

Sinn, sie auf einem Knoten laufen zu lassen. Es kann sich<br />

aber auszahlen, den Job auf mehrere CPU-Kerne mit vielen<br />

RAM-Bausteinen laufen zu lassen.“<br />

Zum Schluss eine Frage an Oliver Tennert, die im Zusammenhang<br />

mit moderner Engineering-IT kommen muss: zu<br />

Cloud Computing. „Am Ende spart man kein Geld, wenn man<br />

Rechenzeit on-demand mietet, anstatt ein eigenes <strong>HPC</strong>-System<br />

anzuschaffen. Bei den meisten unserer Kunden ist der<br />

Bedarf an Compute-Power so hoch, dass sich der Einsatz<br />

einer Cloud-basierten Lösung einfach nicht rechnet.“ Na,<br />

dann doch lieber gleich den Cluster kaufen.<br />

19 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>


transtec<br />

your provider<br />

for comprehensive <strong>HPC</strong> solutions...<br />

HIGH PERFORMANCE<br />

COMPUTING<br />

Imprint<br />

transtec AG<br />

Gerhard-Kindler-Straße 8<br />

72770 Reutlingen, Germany<br />

Tel. +49 (0) 7121/2678 - 0 | Fax +49 (0) 7121/2678 - 139<br />

E-Mail: hpc@transtec.de | www.transtec.de<br />

Editing and Coordination:<br />

Tobias Seidel, transtec AG<br />

Jennifer Kemmler, transtec AG<br />

Author:<br />

Dr. Oliver Tennert, transtec AG<br />

Michael Hohl, transtec AG<br />

Arno Ziebart, transtec AG<br />

Layout, Design:<br />

Fanny Schwarz, transtec AG<br />

Jennifer Kemmler, transtec AG<br />

Photos, Renderings:<br />

Fotolia, iStockphoto<br />

Sebastian Friedmann, transtec AG<br />

This magazine including all the articles, diagrams and illustrations are protected by copyright. With the<br />

exception <strong>of</strong> the cases permitted by the copyright law, utilisation without prior consent <strong>of</strong> the publisher<br />

is a punishable <strong>of</strong>fence. The publisher is not liable for unsolicited articles.

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!