04.06.2018 Aufrufe

antriebstechnik 6/2018

antriebstechnik 6/2018

antriebstechnik 6/2018

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Anteile [%]<br />

CFD-Modell<br />

CHT-Modell<br />

Rechenzeit f/tn [s]<br />

Effizienz E(n) [%]<br />

Speedup-Faktor S(n) [-]<br />

08<br />

Simulationsmodelle mit ihren Randbedingungen im<br />

Vergleich<br />

Gleichung weiter zu (9). Die Fluiderwärmung infolge innerer Reibung<br />

wird zunächst in Form des Terms berücksichtigt, gleiches<br />

gilt für die Wärmeleitung im Fluid in Form des Terms .<br />

Q in<br />

= P H<br />

≤ 2.8 kW<br />

Fluid<br />

T amb<br />

= 20 °C<br />

a= 5 W/m 2 K<br />

P<br />

out,abs = 1 bar<br />

V in<br />

≤ 14 l/min<br />

T in<br />

= 20 °C<br />

out<br />

Fluid<br />

in<br />

Im CHT-Modell (Conjugate Heat Transfer, siehe Bild 08) wird zusätzlich<br />

zur erzwungenen Konvektion im Fluid (CFD-Modell) die<br />

Wärmeleitung in den Festkörpern (Heizelement, Kühlhülse und<br />

Gehäuse) berücksichtigt. Dazu wird in den Festkörpern die Energietransportgleichung<br />

entsprechend Gl. (10) gelöst. Da der Festkörper<br />

starr ist und keine inneren Energiequellen existieren vereinfacht<br />

sich der Ansatz für den stationären Fall zu Gl. (11).<br />

09<br />

Performance-Betrachtungen für verschiedene Gittertypen<br />

und Parallelisierung mit bis zu 48 Prozessoren. a) Rechenzeit<br />

pro Iteration; b) Speedup-Faktor S(n); c) Effizienz E(n)<br />

a)<br />

b)<br />

c)<br />

10<br />

30<br />

25<br />

20<br />

15<br />

512<br />

256<br />

128<br />

64<br />

32<br />

16<br />

8<br />

4<br />

2<br />

0 4 8 12 16 20 24 28 32 36 40 44 48<br />

20<br />

15<br />

10<br />

5<br />

0<br />

100<br />

90<br />

80<br />

70<br />

60<br />

50<br />

40<br />

30<br />

20<br />

10<br />

ideal<br />

S(n) =<br />

E(n) =<br />

n . t n<br />

0 4 8 12 16 20 24 28 32 36 40 44 48<br />

t 1<br />

Prozessoranzahl n [–]<br />

Rechenzeit pro Iteration t n<br />

Prozessoranzahl n [–]<br />

t 1<br />

t n<br />

grobes Hex<br />

n = 2k<br />

n = 2k + 1<br />

feines O-Grid<br />

n = 2k<br />

n = 2k + 1<br />

Tet + Prism<br />

n = 2k<br />

n = 2k + 1<br />

MPI Local Parallel<br />

Linux 3.0.<br />

101-0.47.79<br />

CELSIUS R940<br />

Intel® Xeon (R)<br />

CPU E5-2690 v3<br />

2.60 GHz x 48<br />

126 GB Ram<br />

Dimensionsloser Wandabstand y + der verschiedenen<br />

Fluidgitter im Vergleich<br />

grobe Hexaeder<br />

Tetraeder<br />

feines O-Grid<br />

feine Hexaeder<br />

Tetraeder mit Prismen<br />

Überschrift bold<br />

Normaler Text<br />

Ergebnisse<br />

Parallelisierung der Simulationsberechnungen<br />

Insbesondere für große Simulationsmodelle von mehr als<br />

800 000 Knoten verspricht eine Parallelisierung eine deutliche Reduzierung<br />

der Berechnungszeiten im Vergleich zur Rechnung auf<br />

einem einzelnen Prozessor. Um dies zu überprüfen, wurden drei<br />

der erstellten Gitter (grobes Hexaeder-, feines O-Grid- und Tetraedernetz<br />

mit Prismenrandschicht, Vgl. Tabelle 02) mit Prozessorzahlen<br />

von bis zu 48 CPUs berechnet. Die Ergebnisse der Berechnungen<br />

sowie die PC-Spezifikationen sind in Bild 09 dargestellt.<br />

Bild 09a zeigt die tatsächliche Berechnungszeit pro Iteration in Abhängigkeit<br />

der Anzahl der Prozessoren. Die Laufzeitreduzierung<br />

wird durch den sogenannten Speedup-Faktor S(n) gemessen,<br />

welcher nach [21] entsprechend Gl. (12) berechnet wird und in<br />

Bild 09b dargestellt ist. Idealerweise ist der Speedup-Faktor 1:1<br />

linear von der Anzahl der Prozessoren (siehe blau gestrichelte Kurve)<br />

abhängig. Da mit zunehmenden Prozessorkernen auch die Zeit für<br />

den Datenzugriff und den Datenaustausch zwischen diesen steigt,<br />

ist dieses Verhalten in der Realität nicht zu erreichen. Demnach erscheint<br />

eine Parallelisierung mit mehr als 32 CPUs nicht sinnvoll.<br />

Eine weitere Größe zur Charakterisierung paralleler Berechnungen<br />

ist die Effizienz E(n) (siehe Bild 09c) [21]. Sie ist ein Maß dafür,<br />

wie viel Zeit die einzelnen Prozessoren während der Berechnung<br />

tatsächlich verwendet werden und wird anhand Gl. (13) berechnet.<br />

Überschrift bold<br />

Normaler Text<br />

10<br />

5<br />

0<br />

10 -1<br />

10 0 10 1 10 2 y+<br />

Zusammenfassend machen die Ergebnisse deutlich, dass Hexaedernetze<br />

weitestgehend besser parallelisierbar sind als Tetraedernetze<br />

und nach Möglichkeit eine gerade Anzahl an Prozessoren zu<br />

70 <strong>antriebstechnik</strong> 6/<strong>2018</strong>

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!