Numerische Optimierung dreidimensional parametrisierter ...
Numerische Optimierung dreidimensional parametrisierter ...
Numerische Optimierung dreidimensional parametrisierter ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Die <strong>Optimierung</strong> stellt mathematisch eine vieldimensionale Extremstellensuche (normalerweise<br />
Minimum35 ) der skalaren Funktion F( x ) dar. Zusätzlich müssen dabei Ungleichheitsrestriktionen<br />
gi( x)<br />
≥ 0 und Gleichheitsrestriktionen hj( x)<br />
= 0 eingehalten werden.<br />
Ausgangspunkt der iterativen Parametersuche ist der Startvektor x0 . Auf Basis dieses Startvektors<br />
oder mehrerer Startvektoren erfolgen Suchzyklen. Durch die jeweilige Bewertung der<br />
Zielfunktion und der Einhaltung der Nebenbedingungen werden bessere Parametervektor(en),<br />
als Ausgangspunkt für den nächsten Suchzyklus mit Hilfe einer zu wählenden Strategie<br />
gesucht. Mathematisches Ziel der iterativen Suche über verschiedene xk ist dabei eine Konvergenz<br />
der Funktion F( x ), zumindest in einem lokalen Optimum und die Beendigung des<br />
Verfahrens durch ein Abbruchkriterium. Ein Zielfunktionsaufruf durch den <strong>Optimierung</strong>salgorithmus<br />
für einen Parametervektor xk<br />
erfordert hier jeweils einen Ablauf der oben beschriebenen<br />
Auslegungskette. Die Zahl der Zielfunktionsaufrufe, bis zu einer Verbesserung der<br />
Zielfunktion (Minimierung), soll dabei aus Zeitgründen minimal gehalten werden. Die<br />
Rechenzeit des <strong>Optimierung</strong>salgorithmus selbst ist angesichts der benötigten Zeit der Strömungssimulation<br />
nahezu vernachlässigbar.<br />
5.1 Arten von <strong>Optimierung</strong>salgorithmen<br />
Die verschiedenen <strong>Optimierung</strong>salgorithmen lassen sich nach Aufbau, Vorgehensweise und<br />
mathematischem Aufbau einteilen. Die wichtigsten Charakteristiken stellen dabei die Art der<br />
Suchstrategie, ob partielle Ableitungen der Zielfunktion gebildet werden, und die Behandlung<br />
von Nebenbedingungen dar. Aufgrund der hier zu untersuchenden Zielfunktion kommen nur<br />
nicht diskrete36 und nichtlineare Algorithmen in Betracht.<br />
Stochastische Verfahren wählen neue Parameterzusammenstellungen für neue Suchzyklen<br />
zufällig aus. Partielle Ableitungen der Ergebnisse werden nicht verwendet. Ein Vertreter der<br />
zufälligen Suche stellt z. B. die Monte Carlo Methode dar. Die Ergebnisse vorangegangener<br />
Suchschritte bleiben dabei unberücksichtigt. Daraus ergibt sich eine sehr langwierige Suche<br />
nach dem Optimum. Herkömmliche genetische Algorithmen basieren darauf, die Variablen der<br />
<strong>Optimierung</strong> in einen Binärcode zu überführen. Der maßgebliche Mechanismus besteht darin,<br />
zwischen verschiedenen Mitgliedern einer Population Teile des Binärcodes kreuzweise auszutauschen.<br />
Durch zufällige Änderung einzelner Elemente des Binärcodes (Gene) erfolgt dann<br />
ein Mutationsvorgang. Anschließend beginnt eine Selektion der Population. Die Darstellung<br />
vieler Variablen führt dabei intern zu einem langen Binärcode mit entsprechend vielen internen<br />
<strong>Optimierung</strong>svariablen. Bei den sich an der Natur orientierenden Evolutionsstrategien werden<br />
neue Parametervektoren auf der Basis bestehender Parametersätze ebenfalls mittels Rekombi-<br />
x x<br />
35. Die Extremstellensuche ist durch die Beziehung max[F(<br />
bar.<br />
)] = - min[F( )] auf den jeweiligen Typ umform-<br />
36. Nicht diskrete <strong>Optimierung</strong>salgorithmen behandeln nur nicht ganzzahlige Variablen.<br />
55