15.01.2013 Aufrufe

Numerische Optimierung dreidimensional parametrisierter ...

Numerische Optimierung dreidimensional parametrisierter ...

Numerische Optimierung dreidimensional parametrisierter ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Die <strong>Optimierung</strong> stellt mathematisch eine vieldimensionale Extremstellensuche (normalerweise<br />

Minimum35 ) der skalaren Funktion F( x ) dar. Zusätzlich müssen dabei Ungleichheitsrestriktionen<br />

gi( x)<br />

≥ 0 und Gleichheitsrestriktionen hj( x)<br />

= 0 eingehalten werden.<br />

Ausgangspunkt der iterativen Parametersuche ist der Startvektor x0 . Auf Basis dieses Startvektors<br />

oder mehrerer Startvektoren erfolgen Suchzyklen. Durch die jeweilige Bewertung der<br />

Zielfunktion und der Einhaltung der Nebenbedingungen werden bessere Parametervektor(en),<br />

als Ausgangspunkt für den nächsten Suchzyklus mit Hilfe einer zu wählenden Strategie<br />

gesucht. Mathematisches Ziel der iterativen Suche über verschiedene xk ist dabei eine Konvergenz<br />

der Funktion F( x ), zumindest in einem lokalen Optimum und die Beendigung des<br />

Verfahrens durch ein Abbruchkriterium. Ein Zielfunktionsaufruf durch den <strong>Optimierung</strong>salgorithmus<br />

für einen Parametervektor xk<br />

erfordert hier jeweils einen Ablauf der oben beschriebenen<br />

Auslegungskette. Die Zahl der Zielfunktionsaufrufe, bis zu einer Verbesserung der<br />

Zielfunktion (Minimierung), soll dabei aus Zeitgründen minimal gehalten werden. Die<br />

Rechenzeit des <strong>Optimierung</strong>salgorithmus selbst ist angesichts der benötigten Zeit der Strömungssimulation<br />

nahezu vernachlässigbar.<br />

5.1 Arten von <strong>Optimierung</strong>salgorithmen<br />

Die verschiedenen <strong>Optimierung</strong>salgorithmen lassen sich nach Aufbau, Vorgehensweise und<br />

mathematischem Aufbau einteilen. Die wichtigsten Charakteristiken stellen dabei die Art der<br />

Suchstrategie, ob partielle Ableitungen der Zielfunktion gebildet werden, und die Behandlung<br />

von Nebenbedingungen dar. Aufgrund der hier zu untersuchenden Zielfunktion kommen nur<br />

nicht diskrete36 und nichtlineare Algorithmen in Betracht.<br />

Stochastische Verfahren wählen neue Parameterzusammenstellungen für neue Suchzyklen<br />

zufällig aus. Partielle Ableitungen der Ergebnisse werden nicht verwendet. Ein Vertreter der<br />

zufälligen Suche stellt z. B. die Monte Carlo Methode dar. Die Ergebnisse vorangegangener<br />

Suchschritte bleiben dabei unberücksichtigt. Daraus ergibt sich eine sehr langwierige Suche<br />

nach dem Optimum. Herkömmliche genetische Algorithmen basieren darauf, die Variablen der<br />

<strong>Optimierung</strong> in einen Binärcode zu überführen. Der maßgebliche Mechanismus besteht darin,<br />

zwischen verschiedenen Mitgliedern einer Population Teile des Binärcodes kreuzweise auszutauschen.<br />

Durch zufällige Änderung einzelner Elemente des Binärcodes (Gene) erfolgt dann<br />

ein Mutationsvorgang. Anschließend beginnt eine Selektion der Population. Die Darstellung<br />

vieler Variablen führt dabei intern zu einem langen Binärcode mit entsprechend vielen internen<br />

<strong>Optimierung</strong>svariablen. Bei den sich an der Natur orientierenden Evolutionsstrategien werden<br />

neue Parametervektoren auf der Basis bestehender Parametersätze ebenfalls mittels Rekombi-<br />

x x<br />

35. Die Extremstellensuche ist durch die Beziehung max[F(<br />

bar.<br />

)] = - min[F( )] auf den jeweiligen Typ umform-<br />

36. Nicht diskrete <strong>Optimierung</strong>salgorithmen behandeln nur nicht ganzzahlige Variablen.<br />

55

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!