Vorträge Optimierung und Robustheits - Dynardo GmbH

dynardo

Vorträge Optimierung und Robustheits - Dynardo GmbH

Vorträge

Optimierung und Robustheitsbewertung

in der virtuellen

Produktentwicklung

Johannes Will

präsentiert auf dem CADFEM Users’ Meeting 2006

Quelle: www.dynardo.de/de/bibliothek


Summary

Optimierung und Robustheitsbwertung in der

virtuellen Produktentwicklung

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz

Johannes Will

Dynardo GmbH, Weimar, Germany

Optimization as well as robustness evaluation are key technologies of virtual product development.

The optimization, i.e. improvement of product characteristics, has been an integral part of this

development for several years now. On the other hand, the robustness of a construction, i.e. the

reliable function within admissible boundaries, is becoming more and more focused on, recently. In

fact, robustness is an additional demand on „optimized“ designs.

The optimization and robustness evaluation are either performed consecutively or simultaneously, and

numerous methods are available for this. In the following, existing methods shall shortly be introduced

and discussed from a practical point of view regarding their appliance in virtual prototyping processes.

Three optimization method classes are discussed. These are: mathematical optimization methods

using gradients, response surface methods, and stochastic search algorithms. Pareto optimization will

be shortly mentioned.

Within the robustness analysis, the sensitivity of the unavoidable scatter of environmental conditions

and their impact on the most important structural responses is evaluated. Especially in case of

processes were significant scattering is expedcted or for highly nonlinear structural behavior it is

mandatory to analyze the robustness with respect to the most important random variations of the

design parameters. Robustness evaluation is restricted to relatively frequently occurring events. To

cover rare events, methods of reliability analysis have to be employed.

Additionally, methods for a simultaneous performance of the optimization and the robustness

evaluation task are introduced. Practical applications serve to point out potential application areas.

Keywords

robustness evaluation, stochastic analysis, optimization; identification, Robust Design optimization


1. Einleitung

Optimierung und stochastische Analyse in Form von Robustheitsbewertung und

Zuverlässigkeitsanalyse sind Schlüsseltechnologien virtueller Produktentwicklung. Die Optimierung ist

bereits seit einigen Jahren fester Bestandteil virtueller Produktentwicklung. Die Robustheit einer

Konstruktion, also die zuverlässige Funktionsweise innerhalb erlaubter Toleranzen, rückt mehr und

mehr ins Blickfeld. Sie ist im Grunde eine zusätzliche Anforderung an „optimale“ Designs. Für die

notwendige iterative Bearbeitung oder gleichzeitiger Bearbeitung von Optimierung und

Robustheitsbewertung bzw. Zuverlässigkeitsanalyse stehen zahlreiche Methoden zur Verfügung.

Deren Eignung und deren „Bezahlbarkeit“ (Anzahl notwendiger externe CAE-Solver Auswertungen)

sowie im Besonderen deren Zuverlässigkeit in der Prognose ist allerdings nicht a priori gesichert. Hier

ist neben erheblicher Rechenpower auch mit einem nennenswerten Integrationsaufwand für eine

erfolgreiche Einführung in die bestehenden Produktentwicklungsprozesse zu rechnen. Andererseits ist

man sich einig, dass eine Kombination von Optimierung und stochastischer Analyse bei immer

kürzeren Entwicklungszyklen zwingend notwendig ist und hier großes Potential für Innovation und

Wettbewerbsvorteil erhofft wird.

Im Folgenden sollen Methoden der Optimierung und der Robustheitsbewertung aus Sicht der

praktischen Anwendung in virtuellen Produktentwicklungsprozessen kurz vorgestellt und diskutiert

werden. Dabei sollen weniger methodische Details als viel mehr Anforderungen, Restriktionen und

Anwendungsgebiete diskutiert werden. Für methodische Details wird auf die Literatur verwiesen.

Naturgemäß zwingt eine möglichst konkrete und verständliche Bewertung der zahlreichen

Algorithmen zu Vereinfachungen und Konzentration auf bisher erfolgreiche Anwendungen. Mittels

hybrider Ansätze oder Spezialisierungen und Erweiterungen einzelner Methoden sind die Grenzen der

Anwendungsgebiete dieser Methoden verschiebbar. Es ist allerdings auch in naher Zukunft davon

auszugehen, dass nicht ein einzelner Algorithmus zur Verfügung steht, der die Mehrheit der

Optimierungs- und Zuverlässigkeitsaufgabenstellungen effektiv, also wirtschaftlich, und zufrieden

stellend lösen kann.

2. Optimierung

Für Optimierungsaufgabenstellungen wird der Variationsraum oder Designraum durch

Optimierungsvariablen definiert. Diese können kontinuierliche Werte zwischen unterer und oberer

Grenze oder diskrete Zustände annehmen. Gewünschte Eigenschaften eines „optimalen“ Designs

werden mittels Nebenbedingungen und Zielfunktionen definiert. Optimierungsverfahren durchsuchen

dann den Designraum auf eine möglichst gute Annäherung an Nebenbedingungen und Zielfunktion.

Werden dabei mehrere Berechnungsdisziplinen gleichzeitig bearbeitet, spricht man von

multidisziplinärer Optimierung. Werden mehrere Zielfunktionen definiert, spricht man von

multikriterieller Optimierung. Zur Bearbeitung des Optimierungsproblems stehen grundsätzlich

mindestens drei Verfahrensklassen zur Auswahl: mathematische Optimierungsverfahren mittels

Gradienten (Gradientenverfahren), Response Surface Methoden (RSM) und stochastische

Suchstrategien.

2.1 Mathematische Optimierungsverfahren mittels Gradienteninformationen

Mathematische Optimierungsverfahren [11,12], welche mittels Gradienteninformationen

Suchrichtungen ermitteln, bieten von allen oben genannten Verfahren das beste Konvergenzverhalten

zum Optimum. Sie stellen aber auch die höchsten Anforderungen an die mathematische

Beschaffenheit der numerischen Problemformulierung, an Stetigkeit, Differenzierbarkeit, Glattheit,

Skalierbarkeit sowie an die Genauigkeit der Gradientenbestimmung.

Am kritischsten aus praktischer Sicht ist eine Nichtverfügbarkeit analytischer bzw. semianalytischer

Gradienten gegenüber wichtigen zu bewertenden Ergebnisgrößen bzw. die Unbrauchbarkeit

numerischer Gradienten zum Beispiel bei verrauschten Problemstellungen, nicht differenzierbaren

Problemstellungen oder Genauigkeitsproblemen bei der Bestimmung numerischer Gradienten. Ein

erfolgreicher praktischer Einsatz konzentriert sich folgerichtig auf Optimierungsprobleme mit

kontinuierlichen Optimierungsvariablen, mit mathematisch geeigneten Problemformulierungen bei

denen geeignete Gradienten berechnet werden können, wie zum Beispiel lineare/nichtlineare implizite

FEM. Gradientenverfahren sollten dabei möglichst in zulässigen Designbereichen, in denen die

Nebenbedingungen erfüllt sind, starten. Um lokale Optima zu identifizieren sollten sie von

verschiedenen Startpunkten ausgeführt werden.

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz


2.2 Response Surface Methoden

Wenn mathematische Optimierungsverfahren nicht erfolgreich sind und die Anzahl der

Optimierungsvariablen auf wenige Variablen (5…15) begrenzt werden kann, bieten Response Surface

Methoden [6] attraktive Optimierungsmöglichkeiten. Diese Methoden erzeugen mittels

Approximationsfunktionen auf einem geeigneten Set von Stützstellen (Stichproben des

Variabelenraumes) eine Approximation des Designraumes. Die Stützstellen sollten dabei mit auf die

verwendeten Approximationsfunktionen optimalen Stützstellenmustern (Design of Experiments –DOE)

ermittelt werden. Die Approximationsfunktionen haben in der Regel für mathematische Optimierung

geeignete Eigenschaften, so dass zur Suche des Optimums im Ersatzraum mathematische

Optimierungsverfahren eingesetzt werden.

Achillesverse der Response Surface Methoden ist der Nachweis, dass die Approximation an

interessanten Stellen des Designraumes brauchbar bzw. für die Optimierung genau genug ist. Zur

Sicherung der Approximationsgüte werden Adaptionsschemen verwendet. Hierbei sind adaptive

Response Surface Methoden, die den Approximationsraum solange zoomen und verschieben bis das

Optimum auf der Response Surface konvergiert, am erfolgreichsten [13].

Die kritische Größe aus Sicht praktischer Anwendung ist vor allem die Anzahl der

Optimierungsvariablen. Heute werden adaptive Response Surface Methoden erfolgreich zum Beispiel

bei verrauchten Problemstellungen (explizite FEM/MKS, Crash) mit bis ca. 15 Optimierungsvariablen

eingesetzt.

2.3 Evolutionäre Suchstrategien

Führen die zuvor genannten Verfahrensklassen nicht zum Ziel, verbleiben zur Bearbeitung der

Problemstellung stochastische Suchverfahren, von denen evolutionäre Verfahren mit den

Untergruppen genetische Algorithmen [5] und evolutionäre Strategien [9] am erfolgreichsten sind. Der

Begriff stochastische Suchverfahren wird hier verwendet, weil „zufällige“ Ereignisse zur

Designveränderung führen.

Weil stochastische Suchstrategien gegenüber mathematischen Optimierungsverfahren eine

wesentlich schlechtere Konvergenz in der Nähe des Optimums aufweisen und eine sehr große Anzahl

von Designevaluationen zur Konvergenz benötigen, wird oft von einer Designverbesserung und nicht

von einer Optimierung gesprochen.

Wichtiges Unterscheidungsmerkmal zwischen genetischen Algorithmen und evolutionären Strategien

ist die Art und Weise der evolutionären Entwicklung der Optimierungsvariablen. Wichtigster

Evolutionsprozess genetischer Algorithmen ist der zufällige Austausch von Genen

(Optimierungsvariablen) zwischen zwei Elterndesigns zur Erzeugung der Nachkommen. Wichtigster

Evolutionsprozess evolutionärer Suchstrategien ist die Mutation (zufällige Änderung) einzelner Gene

eines Elterndesigns zur Erzeugung eines Nachkommen.

Genetische Algorithmen eignen sich dabei besonders gut für eine relativ weiträumige Durchsuchung

des Designraumes. Deshalb werden sie häufig für die Suche verschiedener Designgebiete ähnlich

guter Performance (Inselsuche) [17] oder für eine Designverbesserung ohne in die Evolution

eingeführtes Vorwissen eingesetzt. Evolutionäre Strategien eignen sich besonders gut für eine

Designverbesserung „voroptimierter“ Designinseln oder Konstruktionsstände mit in die Startgeneration

oder in die Evolutionsoperatoren integriertem Vorwissen. Um die Geschwindigkeit von

Designverbesserungen zu optimieren werden heute verstärkt adaptive Mutationsstrategien verwendet

[Blum]. Mittels selbstregelnder Evolutionsstrategien lassen sich die Vorteile genetischer und

evolutionärer Strategien verknüpfen und die Designverbesserung weiter beschleunigen.

2.4 Sensitivitätsstudien

Wie die bisherige Diskussion zeigt, ist das Wissen um die Eigenschaften des Variationsraums wichtig

für die Wahl einer geeigneten Optimierungsmethode aber auch für die Formulierung der

Nebenbedingungen und Zielfunktionen. Ist ein solches Vorwissen nicht vorhanden, werden

Sensitivitätsstudien empfohlen.

Parameterstudien, also die Variation einzelner Parameter, gehören seit langem zum Ingenieuralltag.

In Analogie dazu können in kleinen Parameterräumen Design of Experiments Methoden, die

systematisch einzelne Parameter und Parameterkombination berechnen, verwendet werden. Nimmt

die Dimension oder die Nichtlinearität des Parameterraumes zu, sind stochastische

Samplingstrategien zur Erzeugung des Stützstellensets zu bevorzugen.

Ein zusätzlicher Vorteil der stochastischen Samplingstrategien im Vergleich zum Design of

Experiments ist, dass sie darüber hinaus eine statistische Bewertung in Form von Korrelations- und

Variationsanalysen der Sensitivitäten im Variationsraum erlauben. Um mit einer möglichst kleinen

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz


Anzahl von Durchrechnungen einen möglichst kleinen Fehler der statistischen Maße sicherzustellen,

sollten dabei Latin Hypercube Samplings bevorzugt werden.

Mittels Sensitivitätsstudien können dann globale Korrelationsstrukturen (welche

Optimierungsvariablen wirken wie auf welche Ergebnisgrößen) und Abschätzungen des

Variationspotentials der Ergebnisgrößen ermittelt werden. Damit ermöglichen Sensitivitätsstudien

gegebenenfalls eine Reduktion des Parameterraumes für anschließende

Optimierungsaufgabenstellungen. Das Vorwissen aus den Sensitivitätsstudien über Eigenschaften

des Designraumes ist darüber hinaus häufig für eine geeignete Formulierung von Nebenbedingungen

und Zielfunktionen sehr hilfreich.

2.5 Pareto Optimierungsstrategien

Es ist schon darauf hingewiesen worden, dass Optimierungsprobleme mehrere Zielkriterien

(multikriterielle Optimierung) besitzen können.

Sind diese Kriterien nicht in Konflikt, können Wichtungsstrategien zum Zusammenfassen mehrerer

Kriterien zu einer Zielfunktion verwendet werden. Verschiedene Wichtungen der Einzelkriterien wirken

dann aus mathematischer Sicht „nur“ auf die Konvergenzgeschwindigkeit derselben. Aus praktischer

Sicht können allerdings auch im Falle nicht in Konflikt stehender Zielkriterien unterschiedliche

Wichtungen zu unterschiedlichen Optimierungsergebnissen führen. Ursachen hierfür können lokale

Optima, „flache“ optimale Bereiche oder nicht konvergierte Zustände sein.

Stehen einzelne Zielkriterien in Konflikt, existiert schon aus mathematischer Sicht nicht mehr ein

Optimum. Stattdessen existiert eine Menge „optimaler“ Kompromisslösungen. Dann bestimmen die

Wichtungen der einzelnen Zielkriterien in noch stärkerem Maße den „optimalen“ Kompromiss.

Alternativ können zur Bestimmung der Kompromissmenge können Verfahren der Pareto Optimierung

eingesetzt werden. Das erlaubt dem Bearbeiter mittels a posteriori Wichtung im Nachgang und nicht

vor Beginn der Optimierung die optimale Kompromisslösung auszuwählen. Erfolgreiche Verfahren der

Pareto Optimierung verwenden in der Regel evolutionäre Strategien wie zum Beispiel Strength

Evolutionary Pareto Algorithmen [18]. Erfolgreiche praktische Anwendungen begrenzen sich auf zwei

und drei-dimensionale multikriterielle Aufgabenstellungen. Dabei sind weniger die zu Grunde

liegenden Algorithmen selbst auf zwei bis drei Dimensionen beschränkt als die Möglichkeiten, die

Kompromisslösung geeignet darzustellen. Eine solche Darstellung ist aber für eine a posteriori

Auswahl unerlässlich.

Wenn nicht mehr ein optimaler Punkt, sondern eine Menge optimaler Punkte bestimmt werden sollen,

ist nicht verwunderlich, dass der Berechnungsaufwand in der Regel nennenswert ansteigt. Das legt

nahe, dass Pareto Optimierungsstrategien nicht am Anfang einer Bearbeitung der

Optimierungsaufgabenstellung stehen sollten. Sie haben ihre Berechtigung, wenn die Struktur des

Optimierungsproblems (wichtige Eingangsgrößen und wichtige Nebenbedingungen) gut bekannt ist

und sicher ist, dass zwei oder drei wichtige Zielkriterien in Konflikt stehen.

3. Stochatische Analyse und Robustheitsbewertung

Zur Einführung des Begriffes der Robustheitsbewertung soll in sehr verkürzter Art und Weise das

Konzept stochastischer Berechnungsmethoden wiedergegeben werden.

3.1 Stochastische Berechnungsmethoden

In den bisherigen Ausführungen wurde vom rein deterministischen Konzept ausgegangen. Dieses

berücksichtigt keinerlei Unsicherheiten (Streuungen) und damit nur einen möglichen Zustand des

Designs sowie der Randbedingungen und Lasten beschreibt, analysiert und als Bewertungsgrundlage

heranzieht. Im Sinne stochastischer Methoden entspricht das zum Beispiel einer Analyse mit

Mittelwerten (Erwartungswerten). Wenn Streuungen um diese Mittelwerte der Eingangsgrößen sowie

auch die resultierende Streuungen wichtiger Antwortgrößen klein sind, beschreibt eine

deterministische Analyse die Problemstellung ausreichend genau.

Wenn aber signifikante Streuungen der Perfomancegrößen erwartet werden oder das Wissen um

Widerstände beziehungsweise von Lasten unsicher oder mit großen Streuungen behaftet ist, oder ein

nichtlineares Übertragungsverhalten der Streuungen zu Ergebnisgrößen außerhalb von

Toleranzbereichen führt, muss der Einfluss streuender Eingangsgrößen untersucht werden.

Das haben Ingenieure natürlich auch schon vor der Einführung stochastischer Berechnungskonzepte

zum Beispiel mittels Variantenstudien oder worst case Szenarien berücksichtigt. Angesichts immer

komplexer werdender Berechnungsmodelle und immer höher werdender Anforderungen an Qualität

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz


und Zuverlässigkeit und nicht zuletzt aus ökonomischen Zwängen werden jedoch quantitative

Bewertungen der Streuung mittels stochastischer Berechnungsmethoden erforderlich. Quantitativ

meint in diesem Zusammenhang, dass über die in Natura vorhandenen Streuungen auf der

Eingangsseite ein Basiswissen vorhanden sein muss, das in Verteilungsfunktionen statistisch

beschrieben wird. Mittels stochastischer Berechnungsverfahren und statistischer Auswertung wird

daraus die Streuung in den Ergebnisgrößen oder die Wahrscheinlichkeit von Ereignissen geschätzt.

Grundsätzlich hängt dabei das erreichbare Genauigkeitsniveau, hier das erreichbare

Wahrscheinlichkeitsniveau im Ergebnisraum, von der Genauigkeit des Wissens um die

Eingangsgrößen, in diesem Fall die Kenntnis der Verteilungsfunktionen, ab. Das heißt, sollen

Ereignisse mit einer Wahrscheinlichkeit von 5% ausgeschlossen werden, können schon relativ grobe

Kenntnisse der vorhandenen Unsicherheiten und Streuungen der Eingangsvariablen ausreichend

sein. Möchte man seltenere Ereignisse (1 von einer Million) absichern, wird wesentlich exakteres

Wissen um Eingangsstreuungen benötigt.

Zusätzlich muss die gewählte stochastische Berechnungsmethode eine gewünschte Genauigkeit der

Schätzung der statistischen Größen gewährleisten können. Während der Berechnungsingenieur bei

der deterministischen Optimierung das erreichte Ergebnis seinen bisherigen Bewertungsmaßstäben

unterziehen kann, so entziehen sich die statistischen Maße stochastischer Berechnungen häufig

herkömmlichen Bewertungsstrukturen. Obige Gründe legen nahe, dass die Einführung stochastischer

Analysen in virtuelle Produktentwicklungsprozesse mit Sensitivitätsuntersuchungen gegenüber

vermuteten und bekannten Streuungen von Eingangsgrößen (sogenannten Robustheitsbewertungen

[16]) beginnen sollte.

Die Ergebnisse von Robustheitsbewertungen, die Sensitivität von Eingangs- auf Ausgangsstreuungen

sowie die Abschätzung der Ausgangsstreuung sollten in Übereinstimmung mit Erfahrungswerten und

Versuchsergebnissen gebracht werden, die zugrunde liegenden Übertragungsmechanismen der

Streuungen müssen nachvollzogen werden. Robustheitsbewertungen können dann ein erster Schritt

zu stochastischen Berechnungen sein. Relativ grobes Wissen um vermutete Streuungen der

Eingangsgrößen ermöglicht die Ermittlung von deren Sensitivität auf die Streuung der

Ergebnisgrößen. Robustheitsbewertungen bewerten dann in aller Regel Streuungen um Mittelwerte

der Eingangsgrößen und deren Einfluss auf die Streuung der Ergebnisgrößen, und sichern gleichzeitig

relativ häufige Ereignisse (Auftretenswahrscheinlichkeit im Prozentbereich) ab.

Sollen seltenere Ereignisse abgesichert werden, werden Verfahren der Zuverlässigkeitsanalyse

notwendig. Diese schätzen kleine Wahrscheinlichkeiten in Approximationen der

Grenzzustandsfunktion mittels Graditenverfahren (FORM/SORM [8]), durch spezielle

Samplingstrategien (adaptive sampling [2], directional sampling [4]) oder durch eine Kombination aus

beiden (ISPUD [1]). Weil die Verfahren der Zuverlässigkeitsanalyse häufig nur in kleinen

Parameterräumen bezahlbar sind, sind Robustheitsbewertungen oft eine notwendige Vorstufe um

diese Parameterräume zu reduzieren. Es sei darauf hingewiesen, dass für Zuverlässigkeitsaussagen

kleiner Ereigniswahrscheinlichkeiten in aller Regel ein wesentlich größerer Berechnungsaufwand

notwendig wird und die Verteilungsfunktionen der streuenden Eingangsgrößen wesentlich genauer

bekannt sein sollten.

3.2 Robustheitsbewertungen

Robustheitsbewertungen können auch als Sensitivitätsanalysen der Streuung der Antwortgrößen

gegenüber Streuungen um Mittelwerte der Eingangsgrößen bezeichnet werden. Neben der Schätzung

der Streuung der Antwortgrößen identifizieren Robustheitsbewertungen die dafür verantwortlichen

streuenden Eingangsgrößen und können relativ häufige Ereignisse mit Auftretenswahrscheinlichkeiten

im Prozentbereich absichern.

Im Unterschied zu den Sensitivitätsanalysen in Variationsräumen, die im Abschnitt 2.4 vorgestellt

wurden, werden die Streuungen der Eingangsgrößen nicht mit unterer und oberer Variationsgrenze

beschrieben. Bei Robustheitsbewertungen kommen hierfür Verteilungsfunktionen zum Einsatz, die die

in Natura vorhandenen vermuteten Streuungen um die Mittelwerte repräsentieren. Mittels

Samplingverfahren werden eine Anzahl möglicher Designrealisierungen erzeugt. Nach der

Durchrechnung der Stützstellen werden zur quantitativen Bewertung der Streuung der Antwortgrößen

Mittelwerte, Variationskoeffizienten und Verteilungsfunktionen in den Histogrammen der

Antwortgrößen geschätzt.

Zur Ermittlung der Korrelationsstrukturen werden Korrelationskoeffizienten bestimmt. Üblicherweise

wird mit linearer Korrelationshypothese begonnen. Die linearen Korrelationskoeffizienten zeigen den

linearen Zusammenhang zwischen der Variation von zwei Variablen, zum Beispiel einer Inputgröße zu

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz


einer Antwortgröße. Dagegen kann mit Hilfe eine Principal Component Analyse

(Eigenwertberechnung der linearen Korrelationsmatrix) höherdimensionale Korrelationen, d.h. die

Auffälligkeiten von linearen Korrelationen einer Gruppe von Inputvariablen zu einer Gruppe von

Antwortvariablen, untersucht. Neben solchen höherdimensionalen Informationen über lineare

Korrelationen zerlegt die Principal Component Analyse die lineare Korrelationsstruktur in die einzelnen

Übertragungsmechanismen der Streuungen und erlaubt dadurch dem Ingenieur gegebenenfalls die

Zerlegung des Problems in mehrere Unterräume. Mittels Bestimmtheitsmaßen sollte ermittelt werden,

wie viel Prozent der Variation wichtiger Ergebnisgrößen mit linearer Korrelationshypothese erklärt

werden kann. Sind nenneswerte Anteile der Variation der Ergebnisgrößen nicht mit linerarer

Korrelationshypothese zu erklären sollten quadratische Korrelationen herangezogen sowie die

Anthilplots auf Clusterungen oder Nichtlinearitäten (Ausreißer) untersucht werden.

Die Anzahl der Stützstellen sollte in Abhängigkeit der statistischen Maße gewählt werden, welche

ausgewertet werden sollen. Grundsätzlich stehen dabei Monte Carlo Sampling oder Varianten des

Latin Hypercube Sampling zur Verfügung. Weil mittels Latin Hypercube Sampling wesentlich weniger

Stützstellen zum Erreichen vergleichbarer Vertrauensintervalle der statistischen Größen als mit Monte

Carlo Sampling erforderlich sind, sind Latin Hypercube Samplings zu bevorzugen.

Für eine statistische Bewertung der Einzelgrößen (Mittelwert, Histogramm, Variationskoeffizient) wird

für Latin Hypercube Verfahren eine Mindeststichprobenanzahl von 2*(Anzahl der zufälligen

Responsegrößen) empfohlen. Für eine statistische Absicherung der linearen Korrelationsstruktur wird

mindestens eine Stichprobenanzahl von 2*(Eingangs- und Antwortgrößen) empfohlen. In kleinen

Dimensionen (d.h weniger als 20 Eingangs- und Antwortgrößen), bei stark nichtlinearen oder

verrauschten Problemen kann die notwendige Anzahl für eine Ermittlung der linearen

Korrelationskoeffizienten obige Mindestanzahl deutlich übersteigen. Aus unseren Erfahrungen sollte

die Stichprobenanzahl dann mindestens 50 bis 100 betragen. Darüber hinaus werden für wichtige

Korrelationskoeffizienten Konvergenzbetrachtungen empfohlen. Eine genauere Abschätzung der

notwendigen Stützstellenanzahlen ist unter Vorgabe der Größenordung der zu ermittelnden

Korrelationskoeffizienten, des angestrebten Vertrauensniveaus und des angestrebten

Toleranzintervalls möglich [7].

3.3 Kombination von Optimierung und Robustheitsbewertung

Am Anfang der Einführung von Optimierung und Robustheitsbewertungen in die virtuellen

Produktentwicklungsprozesse wird sehr wahrscheinlich eine iterative Bearbeitung stehen. Dabei

werden für optimierte Designs beziehungsweise an definierten Meilensteinen der virtuellen

Produktentwicklung Robustheitsbewertungen durchgeführt. Wird hier hinsichtlich der Robustheit

Verbesserungspotential erkannt, kann das Rückwirkungen auf die Designanforderungen haben. Bei

Robustheitsproblemen sind mindestens 3 Maßnahmen vorstellbar. Die Begrenzung von

Eingangsstreuungen, das Verschieben von Mittelwerten streuender Eingangsgrößen oder das Ändern

von Übertragungsmechanismen von Streuungen.

Im Sinne einer möglichst vollständigen Optimierungsaufgabenstellung kann es aber auch zu einer

Verschmelzung von Optimierung und stochastischer Analyse kommen. Hierbei erweitert sich die

Optimierungsaufgabenstellung um die Minimierung von Streuungen wichtiger Ergebnisgrößen.

Abhängig vom Wahrscheinlichkeitsniveau kann in zwei Verfahrensklassen der stochastischen

Optimierung [10] unterschieden werden.

Werden Varianzen minimiert, können Methoden der Robust Design Optimization angewendet werden,

welche in der Regel Response Surface Approximationen der deterministischen

Optimierungsvariablen, der streuungsbehafteten Optimierungsvariablen sowie weiterer streuender

Designvariablen, z.B. Randbedingungen oder Lasten, miteinander verknüpfen.

Es sei angemerkt, dass die Response Surface Approximationen für die Varianzschätzung anderen

Anforderungen genügen müssen, als die Response Surface Approximationen, die für die

Optimierungsaufgabenstellung genutzt werden. Eine zu starke Glättung des Antwortraumes führt im

Zweifelsfall zu viel kleineren Varianzschätzungen auf der Response Surface im Vergleich zum realen

Designraum. Folgerichtig werden Response Surface Approximationen bevorzugt, die lokale

Informationen erhalten können (Krigin Modelle, moving least square Ansätze oder neuronale Netze).

Hauptrestriktion der Nutzung von Response Surface Methoden für die praktische Anwendung ist

wiederum die relativ kleine Anzahl möglicher Variablen (5 bis 10) , wobei hier Optimierungs- und

streuende Variablen zusammengenommen werden müssen.

Es liegt also auch hier auf der Hand, dass Konflikte zwischen Optimierung und Robustheit bekannt

sein sollten und häufig eine Reduktion der Parameterräume mittels Sensitivitätsanalysen und

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz


Robustheitsbewertungen notwendig sind. Es ist auch bei Robust Design Methoden empfehlenswert,

für finale Designs von virtuellen Produktentwicklungsprozessen Robustheitsbewertungen mittels

Samplingverfahren im originalen Designraum durchzuführen. So kann überprüft werden, ob die

Schätzung der Varianz auf Response Surfaces der Varianz im originalen Designraum entspricht.

Werden Ereigniswahrscheinlichkeiten in die Optimierungsaufgabenstellung integriert, spricht man von

zuverlässigkeitsbasierter Optimierung. Neben Response Surface Methoden stehen hierfür

gradientenbasierte Methoden (FORM/SORM) zur Verfügung. Es sei darauf hingewiesen, dass bei der

Verwendung von Response Surface Methoden für die Ermittlung von (häufig sehr kleinen)

Ereigniswahrscheinlichkeiten die Grenzzustandsfunktion durch Response Surfaces approximiert

werden sollte [3]. In einigen Fällen sind weder Response Surface Methode noch gradientenbasierte

Methoden anwendbar, weil es einerseits nicht möglich ist, in beiden Räumen (Optimierungsvariablen

und streuende Variablen) geeignete Gradienten zu gewinnen, und andererseits die Anzahl von

Optimierungsvariablen und streuenden Variablen die kritische Anzahl für Response Surface Methoden

überschreitet. Dann verbleiben zur Bearbeitung Kombinationen stochastischer Verfahren und

Optimierungsverfahren, beispielsweise genetischer Optimierung für die Optimierungsvariablen und

FORM für die stochastischen Variablen. Das bedeutet allerdings einen weiteren Anstieg des

notwendigen Berechnungsaufwandes. Häufig lassen diese Verfahren nur noch eine kleine Anzahl von

Parametern zu oder führen zu einem exorbitanten Anstieg der Anzahl notwendiger externer CAE-

Solver Auswertungen. Für alle Problemstellungen mit nennenswerten externen CAE Durchlaufzeiten

stehen automatische Kombinationen von Optimierung und stochastischer Analyse daher sicherlich am

Ende eines langen Weges und erfordern eine gute Grundlage zur Formulierung der

Problemstellungen und einen hohen Berechnungsaufwand.

4. Anwendungen

In der Folge sollen an praktischen Anwendungsbeispielen potentielle Einsatzgebiete von

Optimierungsverfahren und Robustheitsbewertungen aufgezeigt werden. In allen Anwendungen

wurde für die Optimierung und Robustheitsbewertung die Software OptiSLang [7] verwendet.

4.1 Optimierung und Robustheitsbewertung eines Rückhaltesystem

Innerhalb eines Verifikationsprojektes von Methoden der Optimierung und Robustheitsbewertungen

wurden für ein Rückhaltesystem Optimierungen der Parameter Gurtkraft, Laufkraft und Venthole

durchgeführt. Dabei sollte die erreichbare Anzahl von Sternen bei einer Euro NCAP und US NCAP

Bewertung erhöht werden. Da der Ergebnisraum der Mehrkörpersimulation verrauscht war, kamen

genetische Optimierungsstrategien und adaptiven Response Surface Strategien zum Einsatz. Beide

Strategien ergaben sehr ähnliche „Optima“, wobei adaptive Response Surface Strategien

erwartungsgemäß in diesen kleinen Dimensionen eine bessere Konvergenz zeigten.

Abb. 1 Rückhaltesystem und Konvergenz der adaptiven Response Surface Methode. Nach zehn

adaptiven Response Surface Approximationen waren alle Parameter konvergiert

Eine anschließende Robustheitsbewertung des optimierten Design ergab unter Berücksichtigung von

Streuungen der optimierten Variablen sowie von Dummypositionen und Airbagkennwerten

Robustheitsprobleme gegenüber der Bewertung nach Euro NCAP. In den Korrelationsstrukturen der

Robustheitsbewertung konnte dabei die dafür verantwortlichen streuenden Eingangsvariablen sowie

ein Konflikt zwischen der Einstellung der Gurtkraft und den Bewertungen nach Euro NCAP und US

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz


NCAP identifiziert werden. Durch eine Verschiebung der Mittelwerte der optimierten Variablen

Gurtkraft und Laufkraft konnte ein Design eingestellt werden, das zwar als deterministischer

Berechnungslauf eine etwas geringere Performance zeigte, aber bei Berücksichtigung der Streuungen

einen besseren Mittelwert mit geringeren Streuungen aufwies.

Im kleinen Optimierungsraum (3 Variablen) wäre eine Pareto-Optimierung

zur Ermittlung der

Kompromissmenge der Gurtkrafteinstellung bezüglich der erreichbaren Anzahl der Sterne Euro NCAP

und US NCAP möglich gewesen. Vorteilhafter erwies sich hier jedoch, weitere Variablen des

Rückhaltesystems zur Optimierung freizugeben. In einem Parameterraum mit 11 Variablen konnte der

Konflikt bei der Einstellung der Gurtkraft weitestgehend aufgelöst werden und die Performance des

Rückhaltesystems konnte erhöht werden.

Abb.

2 Anthillplot Gurtkraft gegenüber Bewertung nach EURO NCAP. Die zwei abfallenden Cluster

zeigen zwei Mechanismen des Performanceverlustes an.

4.2 Robustheitsbewertungen des Fahrkomfortverhaltens

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz

Cluster with runforce/venthole

Cluster with seatbeltforce

Für das Fahrkomfortverhalten von Gesamtfahrzeugmodellen

wurden Robustheitsbewertungen

durchgeführt [16]. In verschiedenen Lastfällen wurde die Sensitivität einer großen Anzahl von

streuenden Variablen untersucht. Zur Beschreibung der streuenden Eingangsgrößen wurden

normalverteilte Verteilungsfunktionen aus vorhandenen Wissen möglicher prozentualer Streuungen

um die Mittelwerte abgeschätzt.

Während der Durchrechnungen

wurden die Korrelationsstrukturen (lineare Korrelationsmatrix)

beobachtet. Konnte mit zunehmender Anzahl von Durchrechnungen keine nennenswerte

Veränderung mehr festgestellt werden, waren die Korrelationsstrukturen zuverlässig bestimmt. Das

heißt, die notwendige Samplezahl ist erreicht und die statistischen Maße sind vertrauenswürdig.

Erfreulicherweise konnten sehr stabile Korrelationsstrukturen beobachtet werden.

Oft dominieren nur wenige Variablen die Korrelations- und Variationsstrukturen und es können wenige

dominierende Nichtlinearitäten im Übertragungsverhalten in den Anthill-Plots identifiziert werden.

Damit konnten die Robustheitsbewertungen zuverlässig die wichtigsten streuenden Eingangsgrößen

identifizieren. Gleichzeitig liefern die Robustheitsbewertungen wertvolle Hinweise für die

Übertragungswege der Streuungen und zu deren Optimierungspotential.

Im hier dokumentierten Fall werden Robustheitsbewertungen für 76 streuende

Lagersteifigkeiten

bezüglich der Schalldruckpegel an vier verschiedenen Innenraumpositionen durchgeführt. Dabei

werden zwei Motoranregungen untersucht. Die sich ergebenden Korrelations- oder

Variationsstrukturen werden von den Steifigkeiten von Motor- und Getriebelager bestimmt. Im ersten

Lastfall liegen die Korrelationskoeffizienten der Antwortgrößen zum Getriebelager alle nahe 1.0 und

zeigen damit den linearen Zusammenhang der Streuungen aller Ausgangsgrößen zur Streuung des

Getriebelagers an.


Abb. 3: FE- Fahrzeugmodell (Explosionsdarstellung)

s

t

r

e

u

e

n

d

e

V

a

r

i

a

b

l

e

n

Pos. Ohr 1 Pos. Ohr 2 Pos. Ohr 3 Pos. Ohr 4

Steifigkeit Getriebelager

Steifigkeit Motorlager

LF1 LF2 LF1 LF2 LF1 LF2 LF1 LF2

Abb. 4: Lineare Korrelationsmatrix

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz

Antwortgrößen


Amplitude

Komfortgröße

Variation Designgröße

Abb. 5 Anthill- Plot zwischen Getriebelagersteifigkeit und Antwortgröße

Im zweiten Lastfall liegen die Korrelationskoeffizienten der Antwortgrößen zur Motorlagersteifigkeit

zwischen 0.6 und 0.9 und zeigen, dass neben der Motorlagersteifigkeit weitere Eingangsgrößen

Einfluss auf die Streuungen der Antwortgrößen haben. Insgesamt ist die Streuung der

Schalldruckpegel moderat und unterhalb unerwünschter Amplituden. Durch die Auswertung der

Korrelations- und Variationsstrukturen konnten die zwei dominierenden Eingangsvariablen sicher

identifiziert werden. Damit können diese zwei Lastfälle über die Variation dieser wenigen Kennwerte

deutlich beeinflusst werden.

Komfortpunkt Ohr

Frequenz [Hz]

Rot Referenzdesign

Schwarz 199 Robustheitsläufe

Abb. 6: Visualisierung der Streuung des Schalldruckpegels

4.3 Identifikation des dynamischen Verhaltens von Glockentürmen [19] mittels

automatisierten Abgleichs zwischen Messung und Nachrechnung

Der Abgleich zwischen Messung und Nachrechnung gehört zu den klassischen Aufgabenstellungen

einer Modellvalidierung. Ist die Differenz zwischen Messung und Nachrechnung zu groß, kann daraus

eine Optimierungsaufgabenstellung der Minimierung der Differenzen formuliert werden.

Optimierungsaufgabenstellungen des Abgleichs zwischen Messung und Nachrechnung werden häufig

als Identifikationsproblem bezeichnet. In der Vergangenheit wurde diese Aufgabenstellung i.d.R.

durch iterative Anpassung einzelner Kennwerte bearbeitet. Mit der Verfügbarkeit von

Parameteroptimierungsprogrammen kann der iterative händische Abgleich automatisiert werden und

es können komplexere Aufgabenstellungen bearbeitet werden. Die Notwendigkeit derart

automatisierter Identifikationsprozeduren wird auch durch die Innovationsgeschwindigkeit in heutigen

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz


Produktentwicklungsprozessen erhöht. Innerhalb des Virtual Prototyping ist Virtual Testing dabei der

Schlüssel zur Reduktion von Hardwaretests. Nur wenn an Referenzexperimenten ein Abgleich

wichtiger Ergebnisgrößen zwischen Messung und Simulation gelingt, kann davon ausgegangen

werden, dass alle für das reale Testergebnis relevanten Phänomene im virtuellen Modell enthalten

sind und damit prognosefähige Modelle für das Virtual Testing zur Verfügung stehen [20].

Bei Identifikationsaufgabenstellungen sind die „Optimierungsvariablen“ dann diejenigen Kennwerte

des numerischen Modells in denen Unterschiede zwischen Messung und Nachrechnung vermutet

werden beziehungsweise deren Werte unbekannt oder unsicher sind. Dann wird in einem

Designraum, welcher durch variierende „Eingangsvariablen“ der numerischen Modelle definiert ist,

mittels Optimierungsverfahren ein Abgleich zwischen Simulation und experimentellen Ergebnis

gesucht. Die Komplexität einer solchen Aufgabenstellung variiert vom Abgleich eines Kennwertes bis

zur Identifikation unbekannter Systemeigenschaften. Während der Abgleich einzelner Ergebnisgrößen

durch das „Einstellen“ einzelner Kennwerte jedem Berechnungsingenieur wohl vertraut ist, können

Identifikationsaufgabenstellungen ungekannter Kennwertsätze und damit verbundener

Systemeigenschaften sehr komplex werden.

Glockentürme historischer Kirchen sind ein gutes Beispiel für Strukturen, deren dynamisches

Verhalten unbekannt ist und wo mittels Systemidentifikation realitätsnahe Berechnungsmodelle

gesucht werden. Wichtigste dynamische Anregung der Strukturen ist das Läuten der Glocken. Beim

hier diskutierten Beispiel der Sankt Michael Kirche in Jena wurde mittels dynamischer Messungen die

Stabilität des Glockenturmes unter dem Lastfall „Läuten der Glocken“ untersucht. Weiterhin wurde die

Sanierung des Glockenturmes mittels Messung und Nachrechnung begleitet und überprüft ob die

Sanierungsmaßnahmen zur gewünschten Ertüchtigung des Glockenturmes beitragen.

Abb. 7. Links-Glockenturm in der Sanierung, Mitte-Baugeschichte, Rechts-Positionen des

Vibrators und der Messstellen

Der Glockenturm wurde mittels servo-hydraulischen Vibrationsgenerator dynamisch angeregt. Die

Geschwindigkeitssignale wurden auf verschiedenen Ebenen aufgenommen und aus dem Abgleich

zwischen den Übertragungsfunktionen der Messergebnisse und dem numerischen Modell wurden

Eigenfrequenzen und Eigenformen identifiziert.

Für den Abgleich des unsanierten Glockenturmes wurden 39 Kennwerte (Elastizitätsmoduli,

Rohdichten, Querdehnzahlen, Steifigkeiten von Verbindungen/Verbindungsmittels und modale

Dämpfungsfaktoren) variiert. Die Zielfunktion wurde aus Differenzen in den Eigenfrequenzen und

Eigenformen (über einen MAC-Abgleich) definiert. Als Optimierungsverfahren wurde ein genetischer

Optimierungsalgorithmus verwendet. Es wurden verschiedene Kombinationen der

Zielfunktionsdefinition verwendet, die alle zu ähnlichen Abgleichsniveaus (siehe Abb. 9) führen. Bei

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz


allen Varianten der Zielfunktion konnte die Frequenz des zweiten Modes nicht gut abgeglichen

werden. Beim dritten bis fünften Mode ist der Abgleich mäßig erfolgreich und stark vom Zielfunktional

abhängig, was darauf schließen lässt, dass deren Gewicht in der Zielfunktion im Vergleich zum ersten

und zweiten gering ist.

Abb.8 Finite Element Modell

Abb. 9 Abgleich unsanierter Glockenturm

Für den Abgleich des sanierten Turmes wurden 60 Kennwerte variiert. Die Zielfunktion wurde aus

Differenzen der Eigenwerte und Eigenformen definiert. Im ersten Fall (model1) wurden nur der erste

und zweite Eigenmode abgeglichen, im zweiten Fall (model2) wurden die ersten 5 Eigenformen

abgeglichen. Es konnte gezeigt werden, dass ein Abgleich der Eigenfrequenzen und Eigenformen 1

bis 4 möglich ist, aber im definierten Designraum mit den gewählten Zielfunktionen Konflikte existieren

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz


(siehe Abb. 10). Ein zufrieden stellender Abgleich aller 4 ersten Eigenformen mit einem Kennwertsatz

konnte nicht erzielt werden.

Abb. 10 Abgleich sanierter Glockenturm

Aus Sicht der Autoren von [11] konnte mittels der Identifikation die primäre Aufgabenstellung

nachgewiesen werden, dass die Sanierungsmaßnahme die dynamische Tragfähigkeit signifikant

erhöht hat und dass die Eigenfrequenzen der Glocken einen ausreichenden Abstand zu den

Eigenwerten des Turmes haben.

Bei der Definition des Designraumes, der Definition der Zielfunktion sowie beim

Optimierungsalgorithmus wird Verbesserungspotential gesehen. Wahrscheinlich ist allerdings auch

mit erhöhtem Aufwand in der Zielfunktionsbeschreibung und den Optimierungsalgorithmen im

gewählten Designraum kein wesentlich besserer Abgleich zu erreichen. Angesichts der unbekannten

mechanischen Eigenschaften der Mauerwerksstrukturen historischer Glockentürme erscheint es

Erfolg versprechend die FEM-Modellierung des Glockenturmes für Eigenschaften, deren Abgleich

unbefriedigend ist, gezielt zu verbessern. Um die Eignung des Unterraums für die Identifikation zu

überprüfen, werden Sensitivitätsstudien unter Berücksichtigung aller potentiell unterschiedlichen

Kennwerte empfohlen.

5. Zusammenfassung und Ausblick

Es werden heute in zunehmenden Maße Methoden der Parameteroptimierung zur Verbesserung von

Produkteigenschaften innerhalb virtueller Produktentwicklungsprozesse angewendet. In den letzten

Jahren sind solverunabhängige Plattformen zur Parameteroptimierung entscheidend verbessert

worden und es stehen heute einfach zu benutzenden Tools mit leistungsstarken

Optimierungsalgorithmen für die verschiedenen Anwendungsgebiete zur Verfügung.

Nachdem Methoden der Optimierung in virtuelle Produktentwicklungsprozesse integriert sind, rücken

Robustheitsbewertungen, die rechnerische Untersuchung der Robustheit des Designs gegenüber zu

erwartenden Streuungen von Eingangsgrößen ins Blickfeld. In einigen Anwendungsgebieten werden

darüber hinaus rechnerische Zuverlässigkeitsnachweise wichtiger Funktionen gesucht oder es werden

Robustheits- und Zuverlässigkeitsanforderungen in die Optimierungsaufgabenstellungen (Robust

Design) integriert. Dabei können die Einzeldisziplinen parametrische Optimierung und

Robustheitsbewertung zum Stand der Technik gezählt werden, hier existieren mittlerweile zahlreiche

erfolgreiche Anwendungen und der Mehrwert der Anwendung der Methodik in der virtuellen

Produktentwicklung ist vielfach dokumentiert worden. Von Zuverlässigkeitsanalyse und Robust Design

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz


verspricht man sich ebenso großes Potenial für die virtuelle Produktentwicklung, diese Methoden sind

allerdings mit wesentlich größerem rechnerischen Aufwand verbunden und verlangen ein detailliertes

Wissen über zu erwartenden Streuugen. Mindestens aus diesen zwei Gründen sind erfolgreiche

praktische Anwendungen zur Zeit noch wesentlich seltener.

6. References

[1] U. Bourgund, C. Bucher: „Importance Sampling Procedure Using Design Point (ISPUD) – a

Users Manual, Bericht Nr. 8-86, Institut für Mechanik, Universität Innsbruck, 1986

[2] C. Bucher: “ Adaptive Sampling – An Iterative Fast Monte Carlo Procedure” Structural Safety

5, Nr. 2, 1988

[3] C. Bucher, M. Macke: “Response Surfaces for Reliability Assesment”; www.dynardo.de

[4] O. Ditlevsen, P Bjerager, P. Olesen, R. Hasover:„ Directional Simulation in Gaussian

Processes”, Probabilistic Engineering Mechanics 3, 1988, Nr. 4, S. 207-217

[5] D. E. Goldberg: „Evolution strategies ii: Theoretical aspects”; In Genetic Algorithms in

Engineering and Computer Science, chapter 7; Wiley, Chichester, 1995

[6] H. Myers, C. Montgomery: Response Surface Methodology: Process and Product

Optimization Using Designed Experiments”, Wiley, New York, 1995

[7] OptiSLang - the Optimizing Structural Language Version 2.1, DYNARDO, Weimar, 2006,

www.dynardo.de

[8] R. Rackwitz, B. Fissler:”Structural reliability under combined under combined random load

sequences”, Computers and Structures 9, S. 489-494, 1988

[9] I. Rechenberg: „Evolutionsstrategie '94“; Werkstatt Bionik und Evolutionstechnik Vol. 1;

Frommann-Holzboog, Stuttgart, 1994

[10] D. Roos, C. Bucher: “Methoden der stochastischen Optimierung”; Proceedings Weimarer

Optimierungs- und Stochastiktage 1.0, Dezember 2004, Weimar, www.dynardo.de

[11] K. Schittkowski: “NLPQL A Fortran subroutine solving constrained nonlinear programming

problems” Annals of Operation Research; Vol. 5 S. 485-500, 1985/86

[12] K. Schittkowski, C. Zillober, R. Zotemantel:“Numerical comparison of nonlinear programming

algorithms for structural optimization”; Structural Optimization, Vol.7, Nr.1, S. 1-28

[13] N. Stander, K. Craig: “ On The Robustness of a Simple Domain Reduction Scheme for

Simulation-Based Optimization”, Int. Journal for Computer-Aided Engineering and Software, 2002

[14] J. Unger, D. Roos: “Investigation and benchmarks of algorithms for reliability analysis”,

Proceedings Weimarer Optimierungs- und Stochastiktage 1.0, Dezember 2004, Weimar,

www.dynardo.de

[15] J. Will, J-St. Möller, E. Bauer: " Robustheitsbewertungen des Fahrkomfortverhaltens an

Gesamtfahrzeugmodellen mittels stochastischer Analyse ", VDI-Berichte Nr. 1846, 2004, S.505-525

[16] J. Will, C. Bucher: “Robustness Analysis in Stochastic Structural Mechanics”, Proceedings

NAFEMS Seminar Use of Stochastics in FEM Analyses; May 2003, Wiesbaden, www.dynardo.de

[17] J. Will, I. Raasch, C. Bucher, J. Riedel: „Suche nach alternativen Gesamtfahrzeugkonzepten

mit OptiSLang“; Proceedings Weimarer Optimierungs- und Stochastiktage 1.0, Dezember 2004,

Weimar, www.dynardo.de

[18] E. Zitzler, L. Thiele:“ An Evolutionary Algorithm for Multiobjective Optimization: The Strength

Pareto Approach”; Technical Report 43, Computer Engineering and Communication Networks Lab

(TIK); Swiss Federal Institute of Technology (ETH), Zurich, Switzerland, May 1998

[19] V. Zabel and C. Bucher. The investigation of the dynamic behaviour of a historical bell tower.

In J. M. Ko and Y. L. Xu, editors, Advances in Structural Dynamics, Vol II, pages 1101–1108. Elsevier,

Amsterdam,2000.

[20] J. Will: Der Abgleich von Messung und Simulation als Optimierungsaufgabe, Proceeding

NAFEMS Seminar Virtual Testing – Simulationsverfahren als integrierter Baustein einer effizienten

Produktentwicklung“” April 2006, Wiesbaden, Germany, www.dynardo.de

11rd Schweizer CADFEM Users’ Meeting 2006

Juni 22 – 23, 2006, Zürich, Schweiz

Weitere Magazine dieses Users
Ähnliche Magazine