State of HPC Ausgabe 02/2016 - german
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
<strong>Ausgabe</strong> <strong>02</strong><br />
<strong>State</strong> <strong>of</strong> <strong>HPC</strong><br />
The <strong>HPC</strong> Magazine<br />
OPEN SOURCE/OpenFOAM<br />
Referenz KIT // Turnkey-Systeme<br />
GPU-Computing mit Virtualisierung // Interview mit Dr. Oliver Tennert<br />
Open Source im CAD Bereich
BIG DATA ANALYTICS<br />
Datenverarbeitung bei<br />
hohem Volumen<br />
PRODUKTIVITÄTSWACHSTUM<br />
INNOVATIONEN | KUNDENNUTZEN<br />
Auswertung <br />
großer Datenmengen<br />
leistungsstarke <br />
Computing Systeme für<br />
High Performance Data Analytics (HPDA)<br />
In-Memory <br />
Datenbanken für eine schnelle Analyse,<br />
dies ermöglicht Echtzeitanalyse der Geschäftsdaten<br />
2 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Vorwort<br />
Vorstand<br />
<strong>HPC</strong> für alle!<br />
Dass <strong>HPC</strong>-Anwendungen im Trend liegen,<br />
ist keine Frage mehr. Vor allem große<br />
Konzerne und Unternehmen sowie<br />
Forschungsinstitute und Universitäten<br />
nutzen sie seit Längerem. Aber auch in<br />
kleinen und mittelständischen Firmen<br />
nahezu jeder Branche wird der Einsatz<br />
zunehmen. <strong>HPC</strong> hat sich mittlerweile als<br />
fester Bestandteil des Produktentwicklungsprozesses<br />
in allen modernen Unternehmen<br />
etabliert. Dafür gibt es zwei<br />
Gründe: zum einen ist die Nutzung von<br />
<strong>HPC</strong>-Applikationen nicht mehr mit extrem hohen Kosten<br />
verbunden, zum anderen wird die schnelle Auswertung<br />
großer Datenmengen zur Sicherung der Wettbewerbsfähigkeit<br />
für Unternehmen an Bedeutung gewinnen.<br />
Mittelstand und Großindustrie unterscheiden sich hierbei<br />
höchstens in der Quantität, nicht in der Qualität des Einsatzes<br />
von <strong>HPC</strong>-Umgebungen. Selbstverständlich besitzt<br />
ein großer Automobilkonzern deutlich mehr Rechenkapazität<br />
als ein mittelständisches Unternehmen. Der gesamte<br />
Wertschöpfungsprozess jedoch – und <strong>HPC</strong> ist hier ein<br />
wichtiger Bestandteil – unterscheidet sich im Grundsatz<br />
weder nach Branchen noch nach Größe des Unternehmens.<br />
Es ist hierbei also vollkommen irrelevant, ob ein Automotive-Konzern<br />
Crash-Simulationen durchführt, ein mittelständischer<br />
Ingenieursdienstleister die Eigenschaften<br />
von Türschlössern unter den vielseitigsten Bedingungen<br />
simuliert oder ein Bio- bzw. Pharmaunternehmen die dreidimensionale<br />
Faltung von Proteinen für die Medikamentenherstellung<br />
berechnet.<br />
problemlos betreiben. Natürlich gibt<br />
es <strong>HPC</strong>-Lösungen, die in Preiskategorien<br />
von 100.000 bis rund 2 Millionen<br />
Euro liegen. Allerdings geht es auch<br />
wesentlich günstiger: Eine Cluster-<br />
Lösung mit 4 bis 8 Knoten ist – abhängig<br />
von der konkreten Ausstattung<br />
– bereits ab 25.000 Euro erhältlich. Angesichts<br />
des überragenden Nutzens<br />
von <strong>HPC</strong> sollte die Investition in einer<br />
solchen Größenordnung für die meisten<br />
Mittelständler keine Frage sein.<br />
Die Datenvolumina wachsen in nahezu allen unternehmenskritischen<br />
Systemen dermaßen schnell an, dass konventionelle<br />
Rechnersysteme für deren Auswertung an<br />
ihre Grenzen stoßen. Die Gewinnung nutzbarer Erkenntnisse<br />
aus dieser Datenflut – Stichpunkt „Big Data“ – ist<br />
in Zukunft praktisch nur noch mit hochleistungsfähigen<br />
<strong>HPC</strong>-Systemen zu bewältigen und eine Grundvoraussetzung,<br />
um die Wettbewerbsfähigkeit und künftige Innovationskraft<br />
eines Unternehmens sicherzustellen. Das betrifft<br />
auch mittelständische Unternehmen, die in einem zunehmend<br />
globalisierten Markt einem immer höheren Konkurrenzdruck<br />
ausgesetzt sind.<br />
Im vorliegenden Magazin zeigen wir Ihnen den Mehrwert<br />
des Einsatzes von <strong>HPC</strong> in Ihrem Business auf.<br />
Viel Freude mit der <strong>Ausgabe</strong> “Open Source/OpenFOAM”<br />
wünscht Ihnen Ihr<br />
In der Vergangenheit erforderten <strong>HPC</strong>-Systeme den Einsatz<br />
von teuren Großrechnern und Supercomputern. Inzwischen<br />
werden aber im <strong>HPC</strong>-Bereich verstärkt auch wesentlich<br />
kostengünstigere Cluster auf Basis standardisierter<br />
x86-Systeme genutzt. Auch kleine und mittlere Unternehmen<br />
können deshalb heute leistungsfähige <strong>HPC</strong>-Systeme<br />
Hans-Jürgen Bahde<br />
CEO/Vorstand der transtec AG<br />
3 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Inhalt<br />
Easy to manage –<br />
Easy to use<br />
Hohe Rechenleistung und<br />
Sicherheit durch GPU & ...<br />
Open Source im CAD<br />
Bereich<br />
High Performance Computing muss<br />
sich <strong>of</strong>tmals gegen Vorbehalte behaupten.<br />
Im Interview räumt Dr. Oliver<br />
Tennert mit diesen auf, beschreibt Einsatzgebiete<br />
von <strong>HPC</strong>-Lösungen und<br />
erläutert, weshalb eine ganzheitliche<br />
Betrachtung notwenig ist.<br />
GPU-Computing und Virtualisierung<br />
müssen sich nicht ausschließen.<br />
transtec bietet mit einer neuen CU-<br />
DA-Workstation eine schlüsselfertige<br />
Lösung an, die eine hohe Performance<br />
auf Basis der Tesla- und GRID-Architektur<br />
von NVIDIA bietet. Sie ist sowohl<br />
für den Citrix XenServer als auch für<br />
VMware vSphere zertifiziert.<br />
Bei der Produktentwicklung sind in<br />
der Industrie CAE-Verfahren wie die<br />
Simulation und Strömungsanalyse<br />
Standard. Als Alternative zu kommerziellen<br />
Applikationen setzen sich heute<br />
verstärkt Open Source-Lösungen<br />
durch. Unternehmen sparen damit<br />
Lizenzkosten, passen die S<strong>of</strong>tware einfacher<br />
an ihre Anforderungen an und<br />
optimieren ihre Produkte.<br />
4 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Inhalt<br />
transtec<br />
your provider<br />
for comprehensive <strong>HPC</strong> solutions...<br />
KIT – Karlsruher Institut<br />
für Technologie<br />
Einfach den Schlüssel<br />
umdrehen...<br />
Impressum<br />
Das Karlsruher Institut für Technologie<br />
baute im Rahmen des Forschungshochleistungsrechners<br />
(ForHLR) bis<br />
Ende 2015 einen <strong>HPC</strong>-Cluster mit<br />
über 1.100 Rechenknoten auf. Die<br />
Lösung mit einem Gesamtvolumen<br />
von 6,9 Millionen Euro lieferte der<br />
<strong>HPC</strong>-Spezialist transtec. Es ist der<br />
größte Einzelauftrag seiner Firmengeschichte.<br />
... und los geht‘s mit der komplexen<br />
Berechnung. Highend-Rechencluster<br />
wollen auf die Bedürfnisse des Kunden<br />
sorgfältig zugeschnitten sein. Dies<br />
verlangt nach pr<strong>of</strong>unden Kenntnissen<br />
bei der Systemintegration, zumal die<br />
Auswahl an Hardware-Komponenten<br />
beachtlich ist.<br />
5 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Easy to manage<br />
EASY TO USE<br />
Im Interview: Dr. Oliver Tennert, Director Technology Management and <strong>HPC</strong> Solutions<br />
<strong>State</strong> <strong>of</strong> <strong>HPC</strong>: Herr Dr. Tennert, was sind die derzeitigen<br />
Trends im High Performance Computing (<strong>HPC</strong>)?<br />
Die Frage kann man gar nicht pauschal beantworten. Das<br />
Thema Remote-Visualisierung im Zusammenhang mit<br />
Workflow-Optimierung, Kollaboration und zentraler Datenhaltung<br />
gewinnt im CAE-Umfeld immer mehr an Bedeutung<br />
– die Technologie dahinter ist hingegen nicht neu,<br />
sondern existiert bereits seit geraumer Zeit. Hier ist eher<br />
ein Umdenken auf Seiten der Kunden bzw. der Anwender zu<br />
verzeichnen. Dagegen spielen insgesamt parallele Filesysteme<br />
im gesamten <strong>HPC</strong>-Bereich eine immer stärkere Rolle.<br />
Insbesondere in Deutschland erfreut sich BeeGFS hierbei<br />
einer ständig steigenden Beliebtheit. Aus rein technischer<br />
Sicht kommen immer mehr Kühlkonzepte auf Wasser- bzw.<br />
Liquid-Basis auf den Markt: indirect liquid cooling, direct<br />
liquid cooling oder gar directly immersed cooling als Extremform<br />
kommen in unterschiedlichsten Ausprägungen durch<br />
verschiedene Anbieter vor. Hier ist allerdings mittelfristig<br />
sicher mit starken Konsolidierungstendenzen zu rechnen.<br />
<strong>State</strong> <strong>of</strong> <strong>HPC</strong>: Für welche Anwendungen in der Produktentwicklung<br />
ist <strong>HPC</strong> prädestiniert? Bitte nennen Sie uns ein<br />
paar Beispiele.<br />
<strong>HPC</strong>-Systeme findet man in den Entwicklungsabteilungen<br />
sämtlicher Branchen: in der Automobilindustrie ebenso<br />
wie in Luft- und Raumfahrt, Maschinenbau, Materialentwicklung,<br />
Chipdesign und der Pharmaindustrie. Mittlerweile<br />
gibt es ja nahezu kein Bauteil eines Autos mehr, dessen<br />
6 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Interview<br />
Easy to manage – Easty to use<br />
Verhalten unter verschiedensten Randbedingungen im besonderer Wert auf ein effizientes Datenmanagement mit<br />
Rahmen des Entwicklungs-Workflows nicht auf auf einem effektiver Zugriffskontrolle gelegt werden. Ebenfalls sollten<br />
<strong>HPC</strong>-Cluster simuliert wird, egal ob es um das Einspritzverhalten<br />
des Treibst<strong>of</strong>f-Sprays in die Kolben, die Crash- Rechenzentrum und Arbeitsplätzen der Anwender physi-<br />
selbstverständlich die Netzwerkverbindungen zwischen<br />
Simulation oder das Akustik- bzw. Vibrationsverhalten der kalisch abgesichert sein. Dies gilt vor allem dann, wenn<br />
Karosserie auf einer holprigen Straße geht. Bauteile wie „Private Cloud“-Szenarien standortübergreifend realisiert<br />
Flugzeugtragflächen werden auf ihre aerodynamischen sind, um beispielsweise die Kollaboration auch über<br />
Eigenschaften hin analysiert und Schiffsschrauben im Länder- und Zeitzonengrenzen hinweg zu ermöglichen.<br />
Zusammenhang mit Turbulenzentwicklung<br />
im Rückstrom untersucht.<br />
Auch die Logik von komplexen, integrierten<br />
Schaltkreisen in der Chipentwicklung<br />
wird simuliert ebenso wie<br />
das dreidimensionale Faltungsverhalten<br />
von Proteinmolekülen in der Molekularbiologie<br />
bzw. der Biophysik.<br />
<strong>State</strong> <strong>of</strong> <strong>HPC</strong>: Viele mittelständische<br />
Unternehmen halten High Performance<br />
Computing für zu komplex in der<br />
Administration und für zu kostspielig.<br />
Wie sehen Sie das als <strong>HPC</strong>-Experte?<br />
Nun, wir haben in der Vergangenheit zahlreiche Kunden<br />
mit <strong>HPC</strong>-Lösungen ausgestattet, die sich selbst durchaus<br />
als ,,normalsterblich” bezeichnen würden. Aber Sie haben<br />
recht: Es gilt, bei einem anspruchsvollen <strong>HPC</strong>-System, das<br />
eine gewisse intrinsische Komplexität besitzt, genau diese<br />
vor Anwendern und Administratoren zu verbergen. Unter<br />
der Haube ist ein Auto ebenfalls komplex, aber während der<br />
Aut<strong>of</strong>ahrt muss sich der Fahrer auch nicht um Dinge kümmern<br />
wie Getriebetechnik und ABS-Elektronik. Daher ist es<br />
wichtig, bei der Implementierung stets auf ein vorhandenes<br />
unternehmenstaugliches und dennoch einfaches Management-<br />
und Bedienkonzept zu achten. Wir bieten hier ein<br />
durchdachtes Portfolio an Service- und Managementkonzepten<br />
nach der Devise ,,easy to manage“ und ,,easy to use“.<br />
<strong>State</strong> <strong>of</strong> <strong>HPC</strong>: Dabei nimmt das Thema Sicherheit eine<br />
wichtige Rolle ein. Wie lassen sich <strong>HPC</strong>-Systeme effektiv<br />
schützen?<br />
Im Grunde gilt für <strong>HPC</strong>-Systeme mit Bezug auf IT-Sicherheit<br />
nichts anderes wie für Firmennotebooks und Workstations<br />
auch: der Zugriff durch Unbefugte muss eben IT-technisch<br />
unterbunden sein. Aber wie oben beschrieben häufen sich<br />
auf einem <strong>HPC</strong>-System unternehmenskritische Daten in großer<br />
Menge. Aus diesem Grund sollte in <strong>HPC</strong>-Umgebungen<br />
„Nun, wir haben in der<br />
Vergangenheit zahlreiche<br />
Kunden mit <strong>HPC</strong>-Lösungen<br />
ausgestattet, die sich<br />
selbst durchaus als<br />
– normalsterblich –<br />
bezeichnen würden.“<br />
Dr. Oliver Tennert<br />
<strong>State</strong> <strong>of</strong> <strong>HPC</strong>: Welche <strong>HPC</strong>-Lösungen<br />
bietet transtec insbesondere mittelständischen<br />
Kunden an?<br />
Wir sind ein umfassender Lösungsanbieter,<br />
der die gesamte Produktpalette<br />
innerhalb des Bereichs High<br />
Performance Computing abdeckt –<br />
von Servern, Schränken, Storage-<br />
Lösungen bis hin zu innovativen<br />
Kühlkonzepten. Daneben bieten wir<br />
ein umfassendes Service-Portfolio, um<br />
Kunden nicht nur eine umfassende Betreuung zu gewähren,<br />
die weit über den klassischen Hardware-Support hinausgeht,<br />
sondern auch betriebsunterstützende Leistungen bis<br />
hin zum Regelbetrieb der <strong>HPC</strong>-Lösung.<br />
<strong>State</strong> <strong>of</strong> <strong>HPC</strong>: Die Remote-Visualisierung ist auf dem Vormarsch.<br />
Welche Vorteile eröffnet diese Technologie den<br />
Anwendern und was ist dabei zu beachten?<br />
Der klassische Workflow im CAE-Umfeld beinhaltet nach<br />
wie vor wiederholtes Hin- und Herkopieren von Ergebnisdaten<br />
zur späteren Auswertung, dem Post-Processing. Für<br />
das Renedering des meist visuellen Verfahrens ist eine<br />
entsprechende Grafikleistung notwendig, wie sie typischerweise<br />
in lokalen Workstations vorhanden ist. Remote-<br />
Visualisierung ermöglicht es, dieses Post-Processing dort<br />
durchzuführen, wo die Daten im Vorfeld auch erzeugt<br />
wurden, nämlich auf dem <strong>HPC</strong>-Cluster. Dedizierte Visualisierungsserver,<br />
die – entsprechend mit GPUs ausgestattet<br />
– das Renedering im Rechenzentrum übernehmen, sorgen<br />
dafür, dass unter dem Strich eine bessere Hardwareauslastung<br />
gegeben ist und dadurch letztlich Hardware<br />
eingespart werden kann. Die zentrale Datenhaltung<br />
ermöglicht es darüber hinaus, Kollaborationsszenarien<br />
über verteilte Standorte hinweg zu ermöglichen, ohne<br />
dass eine Duplizierung der Daten durch weiteres Hin- und<br />
Herkopieren erfolgt.<br />
7 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Hohe Rechenleistung<br />
und Sicherheit<br />
durch GPU-Computing mit<br />
Virtualisierung<br />
GPU-Computing und Virtualisierung müssen sich nicht ausschließen. transtec bietet<br />
mit einer neuen CUDA-Workstation eine schlüsselfertige Lösung an, die eine<br />
hohe Performance auf Basis der Tesla- und GRID-Architektur von NVIDIA bietet.<br />
Sie ist sowohl für den Citrix XenServer als auch für VMware vSphere zertifiziert.<br />
Verteilte Entwicklerteams, die an hochkomplexen Projekten<br />
arbeiten, sind in Tätigkeitsfeldern wie CAE, CAM oder<br />
CAD keine Ausnahme, sondern die Regel. Das Problem dabei<br />
liegt auf der Hand: Verschiedene dezentrale Datenbestände<br />
beeinträchtigen die Datenaktualität und erfordern<br />
zeitaufwändige Übertragungen umfangreicher Datenmengen,<br />
bei denen zusätzlich Bandbreitenrestriktionen negativ<br />
ins Gewicht fallen. Von der Sicherheitsgefahr, die die lokale<br />
Datenspeicherung – beispielsweise auch bei externen<br />
Dienstleistern wie Ingenieurbüros – mit sich bringt, ganz<br />
zu schweigen.<br />
Abhilfe schafft hier eine zentrale Datenhaltung im Rechenzentrum,<br />
die natürlich konkrete Anforderungen an<br />
Hardware und S<strong>of</strong>tware nach sich zieht. Zwei wesentliche<br />
Bausteine sind dabei eine hochperformante Hardware wie<br />
eine GPU-Workstation und die Virtualisierung. Hier stellt<br />
sich zunächst die Frage: GPU-Computing und Virtualisierung<br />
– passt das zusammen? In der Vergangenheit war<br />
das tatsächlich eine komplexe Herausforderung, heute<br />
aber vor allem dank Optimierungen bei der NVIDIA-GRID-<br />
Architektur und aktuellen Versionen der Virtualisierungstechnologien<br />
VMware vSphere oder Citrix XenServer ohne<br />
Weiteres realisierbar. Das heißt, es ist beispielsweise<br />
auch möglich, umfangreiche Datenmengen wie komplexe<br />
3D-Grafiken zentral im Rechenzentrum vorzuhalten und<br />
sie über LAN oder WAN Remote-Anwendern bereitzustellen.<br />
Diese zentrale Datenablage bedeutet ein deutliches<br />
Plus an Sicherheit und Schutz vor Datenverlust oder<br />
-diebstahl.<br />
8 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Fachartikel<br />
3D-Visualisierung<br />
Grafikvirtualisierung ist der nächste Schritt<br />
Grafik-beschleunigte virtuelle Systeme und Anwendungen<br />
können unter Nutzung der NVIDIA-GRID-Technologie, die<br />
unter anderem eine Hardware-Virtualisierung des Grafikprozessors<br />
umfasst, schnell bereitgestellt werden. Im Hinblick<br />
auf den Virtualisierungs-Hypervisor bot sich in der<br />
Vergangenheit der Citrix XenServer an, der die NVIDIA-<br />
Technologien und -Karten am besten unterstützte. Doch die<br />
Auswahl ist inzwischen größer geworden und das kann dem<br />
ganzen Virtualisierungsthema im GPU-Computing-Kontext<br />
einen entscheidenden Wachstumsschub geben. Der Grund<br />
ist klar: Virtualisierung im Unternehmensbereich bedeutet<br />
heute in der Regel VMware, doch im Zusammenhang mit<br />
GPU-Computing war das bisher eher eine Herausforderung.<br />
Mit der neuen VMware-vSphere-Unterstützung der NVIDIA-<br />
GRID-vGPU-Technologie kann hier aber eine neue Zeitrechnung<br />
beginnen.<br />
Grafikbeschleunigung bringt entscheidenden<br />
Leistungsschub<br />
Komplexe Berechnungen, Datenanalysen, aufwändige<br />
Simulationen oder auch die Grafik- und Videobearbeitung<br />
erfordern generell eine extrem hohe Rechenleistung. Prädestiniert<br />
dafür ist das GPU-Computing. Eine neue Lösung<br />
in diesem Bereich bietet transtec mit der Workstation<br />
CUDA 4240, ein GPU-Compute-Node mit zwei Höheneinheiten.<br />
Zur Hardware-Ausstattung gehören maximal zwei<br />
Intel Xeon Prozessoren der E5-2600 V3 Serie (Haswell EP),<br />
bis zu 1.<strong>02</strong>4 GB Hauptspeicher (LRDIMM) und maximal<br />
sechs NVIDIA-Tesla-GPUs. Eingesetzt werden können die<br />
GPU-Computing-Modelle NVIDIA Tesla K8, K10, K20, K20X,<br />
K40M und K80 (Kepler) oder, im Rahmen einer virtualisierten<br />
Lösung, bis zu vier NVIDIA GRID K1 und K2 (Kepler).<br />
Wir haben unsere neuen GPU-Workstation dahingehend<br />
ausgelegt. Sie unterstützt neben Citrix XenServer 6.5 auch<br />
VMware vSphere 5.5 Update 2. Und das bedeutet: Auch<br />
Unternehmen, die auf eine Virtualisierung mit VMware-<br />
Lösungen setzen, können künftig das GPU-Computing einfach,<br />
schnell und effizient nutzen.<br />
Mit der neuen Workstation adressieren wir primär mittelständische<br />
Kunden wie Ingenieurbüros, aber auch Entwicklungs-<br />
oder CAD-Abteilungen größerer Unternehmen. Allen<br />
Anwendern steht mit der Workstation eine schlüsselfertige<br />
Lösung zur Verfügung, die eine hohe Rechenleistung auf<br />
Basis von NVIDIA-Technologie und eine umfassende Virtualisierungs-Unterstützung<br />
bietet.<br />
Die Workstations basieren auf der speziell für das High<br />
Performance Computing (<strong>HPC</strong>) konzipierten NVIDIA-Tesla-<br />
Architektur. Die Tesla-GPUs bieten pro Karte bis zu 4.992<br />
parallele Recheneinheiten (Cores). Damit können tausende<br />
Threads simultan verarbeitet werden. Die Leistungswerte<br />
bei der Floating Point Performance liegen bei bis zu<br />
5,6 TeraFLOPS Single-Precision und bis zu 1,87 TeraFLOPS<br />
Double-Precision. Optional vorinstalliert ist auch die<br />
CUDA-Entwicklungsumgebung für die Durchführung paralleler<br />
Berechnungen.<br />
Autor: Michael Hohl<br />
Director Technical Sales Europe, Enterprise Solutions<br />
9 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Open Source trumpft auf bei der<br />
STRÖMUNGSANALYSE<br />
Bei der Produktentwicklung sind in der Industrie CAE-Verfahren wie die Simulation<br />
und Strömungsanalyse Standard. Als Alternative zu kommerziellen Applikationen<br />
setzen sich heute verstärkt Open Source-Lösungen durch. Unternehmen<br />
sparen damit Lizenzkosten, passen die S<strong>of</strong>tware einfacher an ihre Anforderungen<br />
an und optimieren ihre Produkte.<br />
10 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Titelthema<br />
Open Source<br />
Wie muss der Außenspiegel bei einem neuen Fahrzeugmodell<br />
geformt sein, damit er den geringsten Luftwiderstand<br />
aufweist? Wie muss die Tragfläche eines Flugzeugs<br />
beschaffen sein, damit es möglichst wenig Kerosin verbraucht?<br />
Fragen wie diese sind Alltag in den CAE-Abteilungen<br />
der Automobilindustrie oder Luftfahrt. Auch beim<br />
Bau von Turbinen und Pumpen spielen Temperatur- und<br />
Strömungsanalysen auf Basis numerischer Strömungssimulationen<br />
(Computational Fluid Dynamics, CFD) eine<br />
zentrale Rolle. Hier sind permanente Optimierung und<br />
Weiterentwicklung gefragt. Lösungen, die gestern als das<br />
Optimum galten, sind heute überholt. Es muss permanent<br />
an tausenden von Parametern „gedreht“ werden. Das ist<br />
wie beim Hochleistungssport – es geht immer noch höher,<br />
schneller und weiter. Sogenannte „Stochastik-Jobs“ variieren<br />
parallel eine Vielzahl an Parametern und testen deren<br />
Auswirkungen auf das Simulationsergebnis.<br />
Open Source-S<strong>of</strong>tware eignet sich für<br />
CAE-Szenarien<br />
Open Source-S<strong>of</strong>tware zeichnet sich bekanntermaßen dadurch<br />
aus, dass ihr Quellcode, alle Algorithmen, Numerik<br />
und Modelle frei verfügbar sind und viele meist unabhängige<br />
Programmierer sie gemeinsam weiterentwickeln. Zudem<br />
fallen für die Nutzung der S<strong>of</strong>tware keine Lizenzkosten an.<br />
Der Großteil der Open Source CFD-Pakete wird unter der GPL<br />
(GNU General Public License)-, BSD (Berkeley S<strong>of</strong>tware Distribution)-Lizenz<br />
oder MIT (Massachusetts Institute <strong>of</strong> Technology)-Lizenz<br />
lizenziert und darf in gewerblichen Projekten<br />
verwendet werden. Die einzige Einschränkung bezieht<br />
sich auf eine Weiterverteilung der S<strong>of</strong>tware oder ihrer Derivate.<br />
Unternehmen müssen den Quellcode freigeben, wenn<br />
sie Weiterentwicklungen verkaufen oder neu verteilen<br />
wollen. Im Übrigen gilt natürlich auch beim Einsatz von<br />
Open Source-Produkten die Produkthaftung und Gewährleistung.<br />
Damit stehen Unternehmen beim Einsatz von<br />
Open Source-S<strong>of</strong>tware rechtlich nicht anders da als bei anderen<br />
Lizenzformen.<br />
Innovative Entwicklung in der Community<br />
Einige erfolgreiche Open Source-Beispiele, wie Linux, Libre-<br />
Office oder GNU Compiler zeigen, dass eine Community<br />
aus weltweit verteilten Entwicklern auch hochkomplexe<br />
Systeme erfolgreich entwickeln und pflegen kann. Da viele<br />
Entwickler mit geballter Expertise zusammenarbeiten und<br />
den Quellcode frei bearbeiten können, ermöglicht Open<br />
Source hohe Qualität, schnellere Innovationen und kürzere<br />
Release-Zyklen.<br />
Zudem verschwindet die Abhängigkeit vom proprietären<br />
Angebot eines einzigen Unternehmens, wenn der Programmcode<br />
frei verfügbar ist: es kommt zu keinem Lock-in.<br />
Weil sich Open Source-S<strong>of</strong>tware an allgemein anerkannten<br />
Standards orientiert, kann der Kunde sicher sein, dass er<br />
einen Großteil der Funktionen auch beim Wechsel des Produkts<br />
wiederverwenden kann.<br />
Voraussetzung für den Erfolg von Open Source ist eine<br />
starke Unterstützung und Motivation in der Community.<br />
Finden sich jedoch nicht genügend Entwickler, die den Code<br />
mit der notwendigen Motivation weiterentwickeln, kann<br />
das Projekt zu einer Geister-S<strong>of</strong>tware werden. Wichtige<br />
Erfolgsfaktoren sind gute Businessmodelle für Dienstleistungen<br />
oder Zusatz-S<strong>of</strong>tware sowie große, stabile Sponsoren,<br />
die ein vitales Eigeninteresse an der Weiterentwicklung<br />
der S<strong>of</strong>tware besitzen.<br />
Vorher<br />
Nachher<br />
Formoptimierung eines Außenspiegels<br />
11 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Für CFD – und auch andere CAE-Anwendungen – gibt es<br />
neben kommerzieller S<strong>of</strong>tware und Eigenentwicklungen<br />
mittlerweile auch Open Source-Produkte. Eine der bekanntesten<br />
und erfolgreichsten Anwendungen aus diesem Bereich<br />
ist OpenFOAM (Field Operation And Manipulation), ein<br />
in C++ geschriebenes Simulationsprogramm für Strömungsanalysen<br />
und das Lösen von Strömungsproblemen.<br />
PIV measurements <strong>of</strong><br />
the wake structure<br />
Force measurements and<br />
oil-film-flow visualisation<br />
Bei OpenFOAM, dem Paradebeispiel für erfolgreiche Open<br />
Source-S<strong>of</strong>tware im CAE-Umfeld, treffen alle drei Erfolgsfaktoren<br />
zusammen: Die Weiterentwicklung des Codes und<br />
auch der Support laufen <strong>of</strong>t erstaunlich schnell und gut,<br />
da die Entwickler sehr engagiert und etwa über WhatsApp<br />
oder Internet-Foren sehr gut vernetzt sind. Zudem gibt<br />
es viele Unternehmen, die weitere<br />
Services rund um die S<strong>of</strong>tware für Jets <strong>of</strong>f<br />
Strömungs-Simulationen anbieten.<br />
Die notwendigen finanziellen Mittel<br />
stammen von einem führenden Automobilhersteller,<br />
der an der Optimierung<br />
von OpenFOAM interessiert ist,<br />
weil er damit Zeit und Kosten bei der<br />
Produktentwicklung spart.<br />
Flexiblere Anpassung an<br />
Anforderungen<br />
Ein weiterer wichtiger Vorteil: Unternehmen<br />
können den Quellcode<br />
und die Compiler-Einstellungen viel<br />
freier und einfacher an ihre individuellen<br />
Anforderungen anpassen und<br />
optimieren, als dies bei kommerzieller<br />
S<strong>of</strong>tware der Fall ist. So führen<br />
manchmal geringe Änderungen an<br />
den Compiler-Einstellungen zu signifikant höheren Rechengeschwindigkeiten.<br />
Darüber hinaus arbeiten die eigenentwickelten<br />
und ergänzten Module oder Funktionen auch<br />
nach einem S<strong>of</strong>tware-Update noch reibungslos, da das Unternehmen<br />
selbst die Kontrolle behält – s<strong>of</strong>ern es qualifizierte<br />
Open Source-Experten in seinen Reihen beschäftigt.<br />
Hier liegt die Crux. Ingenieure mit Know-how zum Kompilieren<br />
und Ändern von Open Source Code sind derzeit nicht<br />
einfach zu finden, da Open Source-Lösungen an den Universitäten<br />
(noch) nicht im Zentrum der Lehre stehen. Unternehmen<br />
müssen daher viel in die Expertise ihrer Mitarbeiter investieren<br />
und versuchen, diese durch ein attraktives Gehalt<br />
und andere Incentives an sich zu binden.<br />
Doch wenn Sie Open Source-Experten beschäftigen, haben<br />
Unternehmen mehr Spielraum bei der Entwicklung und können<br />
vor allem bei Parameter-Studien oder automatischen<br />
Optimierungen Kosten sparen. Hier werden im Rahmen<br />
von Finite-Elemente-Modellen verschiedene Parameter<br />
wie Werkst<strong>of</strong>f- oder Geometriedaten variiert und kombiniert,<br />
um die ideale Lösung – etwa für die Bauform eines<br />
Produkts oder Bauelements – zu finden. Parameter-Studien<br />
erfordern die hohe Rechenleistung von <strong>HPC</strong>-Systemen mit<br />
vielen Rechenkernen (Cores). Da viele Anbieter kommerzieller<br />
CAE-S<strong>of</strong>tware ihre Lizenzkosten nach der<br />
Anzahl der Cores berechnen, vermeiden Unternehmen<br />
mit Open Source-S<strong>of</strong>tware teilweise Millionen von<br />
Euro an Lizenzkosten.<br />
-300 -200 -100 0 100 200 300 400 500<br />
Jets on<br />
x [mm]<br />
-300 -200 -100 0 100 200 300 400 500<br />
PIV measurements in the symmetry plane <strong>of</strong> the XL1 wake.<br />
30.0<br />
27.5<br />
25.0<br />
22.5<br />
20.0<br />
17.5<br />
15.0<br />
12.5<br />
10.0<br />
7.5<br />
5.0<br />
2.5<br />
0.0<br />
30.0<br />
27.5<br />
25.0<br />
22.5<br />
20.0<br />
17.5<br />
15.0<br />
12.5<br />
10.0<br />
7.5<br />
5.0<br />
2.5<br />
0.0<br />
12 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Titelthema<br />
Open Source<br />
Für wen eignet sich Open Source-CAE?<br />
Ob ein Unternehmen Open-Source-S<strong>of</strong>tware einsetzt, ist<br />
eine strategische Entscheidung. Wenn die Firma für ihre IT<br />
eine restriktive Windows-Umgebung diktiert, kommt freie<br />
S<strong>of</strong>tware kaum in Frage. Das größte Hindernis ist geringe<br />
Open Source-Expertise in der CAE-Abteilung, da es <strong>of</strong>t an<br />
Mitarbeitern mangelt, die über die benötigten Erfahrungen<br />
verfügen. Zudem kann nicht jede CAE-Abteilung die zunächst<br />
höheren Personalkosten rechtfertigen, die mit der<br />
Beschäftigung der raren, aber begehrten Ingenieure mit<br />
Open Source-Know-how verbunden sind. Mittel- bis langfristig<br />
aber werden Unternehmen insbesondere bei CFD-Anwendungen<br />
mit Parameter-Studien und Optimierungen<br />
vom Open Source-Ansatz auch finanziell pr<strong>of</strong>itieren, indem<br />
sie bei den Lizenzkosten gespartes Kapital in ihre Mitarbeiter,<br />
spezifische Methoden und Funktionen investieren.<br />
Auch wir benutzen intensiv Open Source-S<strong>of</strong>tware, um<br />
Cluster zu betreiben. Dies sind auf der Ebene der Betriebssysteme<br />
CentOS, Scientific Linux und Ubuntu. Beim <strong>HPC</strong><br />
Clustermanagement kommen so populäre Tools wie xCat<br />
für die Cluster Provisionierung, Ganglia für Monitoring und<br />
Nagios für das Event Handling zum Einsatz.<br />
Die Liste der Tools ist lang. Im Bereich der parallelen Filesysteme<br />
setzt man auf „Lustre“, während man für die Micros<strong>of</strong>t<br />
Integration <strong>of</strong>t Samba einsetzt, um beide Welten zu verbinden.<br />
Der Kunde pr<strong>of</strong>itiert von dem fundierten Know-how<br />
der transtec Engineers in diesem Bereich und von günstigen<br />
Supportkosten. Open Source ist einer der Treiber- bzw. Katalysatoren<br />
der <strong>HPC</strong> Cluster Community.<br />
Autor: Arno Ziebart, Director <strong>HPC</strong> Sales Europe<br />
Ausgewählte Open Source-Tools für CAE-Anwendungen<br />
Elmer<br />
Code Aster<br />
SU2 Code<br />
Elmer Code Aster SU2 Code<br />
Finite-Elemente-Programm für strukturmechanische<br />
Simulationen zur<br />
Belastung von Komponenten und<br />
Baugruppen sowie für numerische<br />
Strömungssimulationen. Elmer wird<br />
als freie S<strong>of</strong>tware unter der GNU<br />
General Public License (GPL, Version 2)<br />
verbreitet.<br />
Die S<strong>of</strong>tware ist in Python und<br />
Fortran geschrieben. Sie bietet Finite-<br />
Elemente-Analysen und numerische<br />
Simulation zur Berechnung mechanischer,<br />
thermischer, statischer und<br />
dynamischer Effekte für feste und<br />
flüssige St<strong>of</strong>fe.<br />
Primäre Anwendungen sind numerische<br />
Strömungssimulationen (CFD) und<br />
die aerodynamische Optimierung von<br />
Formen; mittlerweile wurde die S<strong>of</strong>tware<br />
für die Lösung allgemeinerer<br />
Gleichungen wie in der Elektrodynamik<br />
und bei chemisch reagierenden<br />
Strömungen erweitert.<br />
CalculiX<br />
OpenFOAM<br />
GetFEM ++<br />
Calculix OpenFOAM GetFEM ++<br />
Freies Finite-Elemente-Programm für<br />
dreidimensionale Strukturberechnungen<br />
auf Basis des ABAQUS-Eingabeformats<br />
für den Gleichungslöser. Daher<br />
ist das Programm mit zahlreichen<br />
Prä- und Postprozessoren kompatibel.<br />
OpenFOAM (Field Operation And Manipulation):<br />
das Vorzeigeprojekt für<br />
Open Source CFD. Heute beschränkt<br />
sich die S<strong>of</strong>tware nicht mehr nur auf<br />
Strömungsanalysen, sondern ermöglicht<br />
auch Finite-Elemente-Analysen<br />
(FEA).<br />
Eine generische Finite-Elemente-<br />
Bibliothek auf Basis von C ++ mit<br />
Schnittstellen für Python, Matlab und<br />
Scilab. Sie konzentriert sich auf die Modellierung<br />
im Bereich Kontaktmechanik<br />
und Diskontinuitäten (z. B. Risse).<br />
DAKOTA<br />
MaxFEM<br />
FEniCS<br />
DAKOTA MaxFEM FEniCS<br />
DAKOTA (Design Analysis Kit for Optimization<br />
and Terascale Applications):<br />
umfassende Open Source-Bibliothek<br />
für die multidisziplinäre Optimierung<br />
von Produkten.<br />
S<strong>of</strong>tware für elektromagnetische<br />
Simulationen auf Basis der Finite-<br />
Elemente-Methode (FEM).<br />
S<strong>of</strong>tware-Paket auf Basis von Dolfin<br />
(C++-Bibliothek mit Python Interface)<br />
mit dem Ziel, Differentialgleichungen<br />
automatisiert zu lösen.<br />
13 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Forschungshochleistungsrechner<br />
erobert Karlsruher<br />
Institut für Technologie<br />
Das Karlsruher Institut für Technologie baute im Rahmen des Forschungshochleistungsrechners<br />
Phase 2 (ForHLR II) bis Ende 2015 einen <strong>HPC</strong>-Cluster mit über<br />
1.100 Rechenknoten auf. Die Lösung mit einem Gesamtvolumen von 6,9 Millionen<br />
Euro lieferte der <strong>HPC</strong>-Spezialist transtec. Es ist der größte Einzelauftrag<br />
seiner Firmengeschichte.<br />
14 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Referenz<br />
KIT<br />
Das Karlsruher Institut für Technologie (KIT) ist eine Technische<br />
Universität des Landes Baden-Württemberg und transtec das Hochleistungsrechnersystem ForHLR2 beim<br />
Im Rahmen des bis Ende 2015 angelegten <strong>HPC</strong>-Projektes hat<br />
ein nationales Forschungszentrum in der Helmholtz-Gemeinschaft.<br />
Das Institut betreibt unter anderem Grundla-<br />
auf NeXtScale-Systemen von Lenovo und kombiniert neu-<br />
KIT implementiert und in Betrieb genommen. Es basiert<br />
gen- und angewandte Forschung in Bereichen wie Materialwissenschaften,<br />
Umwelt, Energie oder Nanotechnologie. effizienz. In der Lösung sind NeXtScale-Systeme mit<br />
este Technologie mit hoher Zuverlässigkeit und Energie-<br />
Aufgrund der zahlreichen rechenintensiven Datenanalysen direkter Heißwasserkühlung zum Einsatz gekommen, um<br />
und komplexen Simulationen, die in diesem Umfeld er-<br />
alle Systembestandteile wie Prozessoren, Arbeitsspeicher<br />
forderlich sind, entschied sich<br />
das KIT zum Aufbau einer<br />
<strong>HPC</strong>-Cluster-Lösung im eigenen<br />
Rechenzentrum.<br />
Als Lösungs- und Integrationspartner<br />
hat das KIT die transtec<br />
AG aus Reutlingen ausgewählt.<br />
transtec konnte sich in dem<br />
EU-weiten Ausschreibungsverfahren<br />
ForHLR Phase 2 (TED<br />
2014/S 162-290100) gegen nam-<br />
„Es freut uns sehr, dass wir dieses<br />
große <strong>HPC</strong>-Projekt, das innovative<br />
Konzepte mit technischer<br />
Leistungsfähigkeit verbindet,<br />
an einem der renommiertesten<br />
Forschungsstandorte Europas<br />
durchführen durften“ Dr. Oliver Tennert<br />
oder I/O-Karten effizient kühlen<br />
zu können. Diese Systeme bieten<br />
eine um 40 Prozent höhere Energieeffizienz<br />
und rund 10 Prozent<br />
mehr Leistung als Lösungen, die<br />
auf Luftkühlung basieren. Weiterer<br />
Vorteil ist, dass ein Großteil<br />
der Abwärme auch für andere<br />
Aufgaben genutzt werden kann,<br />
zum Beispiel für die Beheizung<br />
von Gebäuden.<br />
hafte und international agierende Wettbewerber behaupten.<br />
Ausschlaggebend war, dass transtec gemeinsam mit bei einem geringen Energieverbrauch von maximal 420 kW,<br />
„Mit einer Peak-Leistung im PetaFLOPS-Bereich, und das<br />
seinem Technologiepartner Lenovo eine integrierte Gesamtlösung<br />
anbieten konnte, die neben der hohen Perforentesten<br />
<strong>HPC</strong>-Clustern weltweit“, erklärte Robin Kienecker,<br />
gehört unsere Lösung zu den schnellsten und energieeffizimance<br />
vor allem eine extrem hohe Energieeffizienz bietet. Sales Manager Technical Computing bei der transtec AG in<br />
Damit lassen sich auf Dauer auch die Gesamtbetriebskosten<br />
für die Lösung niedrig halten.<br />
Reutlingen.<br />
„Es freut uns sehr, dass wir dieses große <strong>HPC</strong>-Projekt, das innovative<br />
Konzepte mit technischer Leistungsfähigkeit verbindet,<br />
an einem der renommiertesten Forschungsstandorte<br />
Europas durchführen durften“, fügt Dr. Oliver Tennert,<br />
Director <strong>HPC</strong> Solutions bei der transtec AG, hinzu.<br />
Hans-Jürgen Bahde, Vorstand der transtec AG, ergänzt: „Mit<br />
einem Netto-Auftragsvolumen von rund sieben Millionen<br />
Euro ist es für transtec der größte Auftrag in seiner 35-jährigen<br />
Firmengeschichte und ein weiterer Beweis für unsere<br />
Kompetenz und unsere Leistungsfähigkeit im <strong>HPC</strong>-Markt.<br />
Auch sind wir damit unserem Ziel, der größte europäische<br />
konzernunabhängige <strong>HPC</strong>-Player zu werden, ein weiteres<br />
entscheidendes Stück näher gekommen.“<br />
15 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
16 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Fachartikel<br />
Turnkey-Solutions<br />
Einfach den<br />
SCHLÜSSEL<br />
umdrehen...<br />
...und los geht‘s mit der komplexen<br />
Berechnung. Highend-Rechencluster<br />
wollen auf die Bedürfnisse des<br />
Kunden sorgfältig zugeschnitten sein.<br />
Dies verlangt nach pr<strong>of</strong>unden Kenntnissen<br />
bei der Systemintegration, zumal<br />
die Auswahl an Hardware-Komponenten<br />
beachtlich ist.<br />
Der Mittelstand könnte von High Performance Computing<br />
(<strong>HPC</strong>) pr<strong>of</strong>itieren, doch zeigt er ihm bisher nur die kalte<br />
Schulter. Einer von uns durchgeführten Umfrage zufolge<br />
setzen gerade einmal 5 Prozent des Mittelstands <strong>HPC</strong>-Systeme<br />
ein, obwohl der potenzielle Nutzen, gerade in Zeiten<br />
von Industrie 4.0 & Co, auch für kleine und mittlere Betriebe<br />
erheblich ist und die eigene Wettbewerbsfähigkeit steigern<br />
kann. Die Befragung wurde unter 254 IT-Verantwortlichen<br />
in technisch-orientierten Unternehmen mit bis 1.000 Mitarbeitern<br />
durchgeführt. Datenvolumina wachsen in allen<br />
Bereichen dermaßen schnell an, dass konventionelle Rechnersysteme<br />
für deren Auswertung an ihre Grenzen stoßen.<br />
17 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Die Gewinnung nutzbarer Erkenntnisse aus dieser<br />
Datenflut – Stichpunkt „Big Data“ – ist in Zukunft praktisch<br />
nur noch mit hochleistungsfähigen <strong>HPC</strong>-Systemen zu<br />
bewältigen.<br />
Nutzen Sie bereits <strong>HPC</strong>-Lösungen?<br />
„Weiß nicht“ 11,8%<br />
Nein 83,1%<br />
Ja 5,1%<br />
empfinden sie als adäquat. Andererseits haben sich noch<br />
wenige Unternehmen mit der tatsächlichen Auswertung<br />
von Big Data auseinander gesetzt oder nutzen nicht moderne<br />
S<strong>of</strong>twarelösungen für Simulations- oder Entwicklungszwecke,<br />
die ja deutlich mehr Rechenkapazität einfordern.“<br />
In der Tat ist eine auffällige Korrelation erkennbar:<br />
Bei Unternehmen mit bis zu 500 Mitarbeitern sind für rund<br />
9 Prozent der Befragten die Systeme für rechenintensive<br />
Anwendungen zu langsam, bei solchen mit mehr als 500<br />
Mitarbeitern beklagen sich über drei Mal so viel, insgesamt<br />
rund 31 Prozent, über mangelnde Geschwindigkeit.<br />
Zu lange Wartezeiten?<br />
„Weiß nicht“ 17,0%<br />
Entsprechend der Unternehmensgröße, so ist in der Studie<br />
weiter zu lesen, steigt jedoch die Nutzung von <strong>HPC</strong>-Systemen.<br />
Über 9 Prozent der Unternehmen ab 201 Mitarbeitern<br />
geben an, sie einzusetzen. Diese Zahl fällt auf rund 3 Prozent<br />
bei Unternehmen mit 11 bis 200 Mitarbeitern. Von den<br />
befragten Kleinstbetrieben mit bis zu 10 Mitarbeitern nutzt<br />
indes kein einziger eine <strong>HPC</strong>-Lösung. Da liegt also noch Geld<br />
auf der Straße.<br />
Über alle Unternehmensgrößen hinweg liegt der Durchschnitt<br />
bei 5,1 Prozent. Der Rest der befragten Unternehmen<br />
gibt an, keine <strong>HPC</strong>-Lösung einzusetzen oder es nicht<br />
zu wissen. Allerdings beklagen sich lediglich 12 Prozent<br />
über zu lange Wartezeiten bei rechenintensiven Anwendungen,<br />
ganz so, als gäbe es kaum Bedarf für schnellere Lösungen.<br />
„Diese Zahl hat uns überrascht“, erklärt Oliver Tennert,<br />
Director Technology Management and <strong>HPC</strong> Solutions<br />
bei transtec, im Gespräch mit der Redaktion. „Wir erklären<br />
uns das so: Einerseits haben sich viele Anwender an eine<br />
gemächliche Gangart ihrer Rechnersysteme gewöhnt und<br />
Nein 70,5%<br />
Ja 12,4%<br />
Mit ganzheitlichem Anspruch<br />
Wir sehen uns als einen umfassenden <strong>HPC</strong>-Lösungsanbieter<br />
einschließlich eines breit gefächerten Dienstleistungsangebots.<br />
Unser Augenmerk liegt hierbei auch auf mittelständischen<br />
Fertigungsbetrieben, jedoch beschränken wir uns<br />
nicht darauf, die komplette Hardware-Infrastruktur für ein<br />
<strong>HPC</strong>-System zu liefern. Wir haben den Anspruch, den Kunden<br />
entlang des kompletten Lebenszyklus der Lösung zu begleiten.<br />
Dies fängt mit der Beratung vor dem Kauf an, dem<br />
sogenannten Presales Consulting. Dabei geht es um die Dimensionierung<br />
des geplanten Clusters unter den folgenden<br />
Gesichtspunkten: Braucht es ein schnelles Netzwerk? Welche<br />
CPU-Typen kommen in Frage? Wie viel RAM ist notwendig?<br />
„Wir führen umfassende Benchmarks durch, um präzise<br />
Entscheidungshilfe leisten zu können“, sagt Tennert. Sobald<br />
wir mit dem Kunden gemeinsam die beste Lösung<br />
erarbeitet haben, wird das schlüsselfertige System geliefert<br />
und in Betrieb genommen. Wir sind in ein Ökosystem<br />
eingebettet, das sich speist aus dem, wie die Kundenanforderungen<br />
gelagert sind. Es kommen Produkte unterschiedlicher<br />
Originalhersteller zum Einsatz, nicht nur für<br />
die Hardware, sondern zum Beispiel unter anderem auch<br />
18 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
Fachartikel<br />
Turnkey-Solutions<br />
für die Cluster-Management-S<strong>of</strong>tware. Zu unseren Kunden<br />
zählen öffentliche Institutionen und Unternehmen aus einer<br />
Vielzahl an Branchen.<br />
Europaweit gibt es um die zehn Konkurrenten, davon in<br />
Deutschland drei, die im Systemgeschäft mit <strong>HPC</strong>-Lösungen<br />
tätig sind. Uns zeichnet jedoch insbesondere aus, eine<br />
sehr starke Präsenz im industriellen Umfeld vorweisen zu<br />
können. Und dies bereits seit gut zwei Dekaden. Wir bedienen<br />
das Preissegment von 100.000 bis rund zwei Millionen<br />
Euro. Allerdings geht es auch günstiger: „Ein 4- bis 8-Knoten<br />
Cluster ist – je nach Ausstattung – bereits ab 25.000 Euro zu<br />
haben, was den Einstieg erleichtert. Eine <strong>HPC</strong>-Lösung kann<br />
drei bis fünf Jahre betrieben werden. Dann ist sie, technologisch<br />
gesehen, veraltet und auch der Wartungsvertrag ist<br />
bis dahin ausgelaufen“, sagt Tennert.<br />
Typische Anwendungsfelder von <strong>HPC</strong> in der Industrie lassen<br />
sich in zwei Segmente unterteilen: die Analyse umfangreicher<br />
Berechnungsmodelle und die Auswertung großer<br />
Datenmengen. Beim Fahrzeughersteller Daimler in der<br />
Automobilindustrie zum Beispiel werden in einem Monat<br />
durchschnittlich hunderte von virtuellen Crash-Tests von<br />
Entwicklungsderivaten durchgeführt, jedoch nur noch einige<br />
wenige physischer Crash-Versuche zu reinen Validierungszwecken.<br />
Auch in der chemischen und pharmazeutischen<br />
Industrie wird massiv in Simulation und Berechnung<br />
investiert.<br />
Bezüglich Trends im <strong>HPC</strong>-Umfeld kann man sagen, dass ab<br />
dem Jahr 2008 Rechnen auf Grafikkarten en vogue geworden<br />
ist. Vorreiter war NVIDIA mit den Tesla-Karten. Das aktuelle<br />
Flaggschiff ist die K80-Karte. Doch hat in den letzten<br />
drei Jahren Intel nachgezogen und eigene Grafikkarten – Beschleunigerkarten<br />
– ins Feld geführt, die sogenannten Xeon-<br />
Phi-Karten. InfiniBband ist inzwischen der Marktführer bei<br />
Hochgeschwindigkeitsnetzwerken. Der einzig verbleibende<br />
Bottleneck, so Tennert weiter, war in der Vergangenheit<br />
beim Zugriff auf den Massenspeicher (Storage) zu finden.<br />
Doch sei hier der Trend hin zu parallelen File-Systemen zu<br />
erkennen. „Inzwischen wird skalierbares Storage angeboten,<br />
das über ein Netzwerk angeschlossen wird. Das Wichtigste<br />
ist dabei, dass eine sehr hohe Bandbreite im Netzwerk<br />
zur Verfügung steht“, sagt Tennert.<br />
Wie zu erkennen ist, stehen wir dem Kunden beratend zur<br />
Seite, wenn es um die beste Systemarchitektur für seine individuelle<br />
Aufgabenstellung geht. „Der Kunde ist meistens<br />
nicht in der Lage, die Anforderungen seiner Applikation auf<br />
die IT abzubilden. Genau dieses Sizing ist unser Job! Es gibt<br />
Applikationen, die sehr gut skalieren und die folglich auf<br />
mehrere Knoten verteilt werden können. In diesem Fall ist<br />
es möglicherweise sinnvoll, von InfiniBand Gebrauch zu<br />
machen.<br />
Number Crunching im industriellen Umfeld<br />
Andererseits gibt es aber auch Applikationen, die sich<br />
überhaupt nicht parallelisieren lassen. Es macht hier nur<br />
Sinn, sie auf einem Knoten laufen zu lassen. Es kann sich<br />
aber auszahlen, den Job auf mehrere CPU-Kerne mit vielen<br />
RAM-Bausteinen laufen zu lassen.“<br />
Zum Schluss eine Frage an Oliver Tennert, die im Zusammenhang<br />
mit moderner Engineering-IT kommen muss: zu<br />
Cloud Computing. „Am Ende spart man kein Geld, wenn man<br />
Rechenzeit on-demand mietet, anstatt ein eigenes <strong>HPC</strong>-System<br />
anzuschaffen. Bei den meisten unserer Kunden ist der<br />
Bedarf an Compute-Power so hoch, dass sich der Einsatz<br />
einer Cloud-basierten Lösung einfach nicht rechnet.“ Na,<br />
dann doch lieber gleich den Cluster kaufen.<br />
19 | <strong>State</strong> <strong>of</strong> <strong>HPC</strong> <strong>Ausgabe</strong> <strong>02</strong>
transtec<br />
your provider<br />
for comprehensive <strong>HPC</strong> solutions...<br />
HIGH PERFORMANCE<br />
COMPUTING<br />
Imprint<br />
transtec AG<br />
Gerhard-Kindler-Straße 8<br />
72770 Reutlingen, Germany<br />
Tel. +49 (0) 7121/2678 - 0 | Fax +49 (0) 7121/2678 - 139<br />
E-Mail: hpc@transtec.de | www.transtec.de<br />
Editing and Coordination:<br />
Tobias Seidel, transtec AG<br />
Jennifer Kemmler, transtec AG<br />
Author:<br />
Dr. Oliver Tennert, transtec AG<br />
Michael Hohl, transtec AG<br />
Arno Ziebart, transtec AG<br />
Layout, Design:<br />
Fanny Schwarz, transtec AG<br />
Jennifer Kemmler, transtec AG<br />
Photos, Renderings:<br />
Fotolia, iStockphoto<br />
Sebastian Friedmann, transtec AG<br />
This magazine including all the articles, diagrams and illustrations are protected by copyright. With the<br />
exception <strong>of</strong> the cases permitted by the copyright law, utilisation without prior consent <strong>of</strong> the publisher<br />
is a punishable <strong>of</strong>fence. The publisher is not liable for unsolicited articles.