25.10.2014 Views

Optimisation multidisciplinaire : étude théorique et application ... - ISAE

Optimisation multidisciplinaire : étude théorique et application ... - ISAE

Optimisation multidisciplinaire : étude théorique et application ... - ISAE

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

THÈSE<br />

En vue de l'obtention du<br />

DOCTORAT DE L’UNIVERSITÉ DE TOULOUSE<br />

Délivré par l’Institut Supérieur de l’Aéronautique <strong>et</strong> de l’Espace<br />

Spécialité : Mathématiques appliquées<br />

Présentée <strong>et</strong> soutenue par Joël CLÉMENT<br />

le 9 juin 2009<br />

<strong>Optimisation</strong> <strong>multidisciplinaire</strong> :<br />

<strong>étude</strong> <strong>théorique</strong> <strong>et</strong> <strong>application</strong> à la conception des avions<br />

en phase d'avant proj<strong>et</strong><br />

JURY<br />

M. Philippe Dépincé, président du jury<br />

Mme Nathalie Bartoli<br />

M. Christophe Blondeau<br />

M. Jean-Antoine Désidéri, rapporteur<br />

M. Thierry Druot<br />

M. Jean Herm<strong>et</strong>z, co-directeur de thèse<br />

M. Mohamed Masmoudi, directeur de thèse<br />

M. Patrick Siarry, rapporteur<br />

École doctorale<br />

Unité de recherche<br />

: Aéronautique-Astronautique<br />

: Équipe d'accueil <strong>ISAE</strong>–ONERA MOIS<br />

Directeur de thèse : M. Mohamed Masmoudi<br />

Co-directeur de thèse : M. Jean Herm<strong>et</strong>z


Remerciements<br />

Ce n'est pas une chose simple de résumer ici, en quelques lignes, combien ont pu compter<br />

pour moi les personnes qui ont participé de près ou de loin à ce doctorat, que ce soit en travaillant<br />

avec moi, ou bien en partageant des instants de vie.<br />

Je remercie...<br />

... tout d'abord Mohamed Masmoudi, mon directeur de thèse, pour sa conance <strong>et</strong> pour<br />

m'avoir permis de mener c<strong>et</strong>te thèse au bout.<br />

... mes encadrants à l'Onera, Nathalie Bartoli <strong>et</strong> Jean Herm<strong>et</strong>z, pour leur conseils concernant<br />

l'optimisation <strong>et</strong> la conception des avions, pour avoir fait une relecture méticuleuse<br />

du manuscrit de thèse, <strong>et</strong> surtout pour leur soutien.<br />

... Patrick Siarry <strong>et</strong> Jean-Antoine Désidéri pour avoir accepté d'être mes rapporteurs de<br />

thèse, <strong>et</strong> pour avoir jugé mon travail de doctorat avec la plus grande attention.<br />

... Philippe Dépincé <strong>et</strong> Thierry Druot pour avoir accepté de participer à mon jury de thèse.<br />

... Grégoire Casalis, directeur de l'école doctorale ED-AA, ainsi que Maryse Herbillon <strong>et</strong> Annie<br />

Carles-Baillé pour tous les services rendus.<br />

... l'ensemble des personnes avec qui j'ai été amené à travailler au cours de ces trois années<br />

<strong>et</strong> demi, <strong>et</strong> avec qui j'ai participé aux proj<strong>et</strong>s DOOM <strong>et</strong> OMD-RNTL, en particulier<br />

Christophe Blondeau <strong>et</strong> Jean-Sébastien Schotté pour leurs échanges sur la MDO, Sébastien<br />

Defoort, <strong>et</strong> Yogesh Parte pour son sérieux <strong>et</strong> son enthousiasme.<br />

... l'équipe du DPRS/SAE, Bruno Lamiscare, Thomas(s), Martin, Louis, P<strong>et</strong>er, Jean-Louis,<br />

Yaz, Murielle, Sébastien, Armand, ainsi que tous les nouveaux embauchés, jeunes <strong>et</strong> plein<br />

d'avenir comme Michel ; l'équipe DTIM/M2SN, Pierre Maz<strong>et</strong>, François Rogier, Manuel<br />

Samuelides, Dominique Kalfon, Guillaume, Patricia, Vincent ; <strong>et</strong> toutes les personnes de<br />

l'institut de mathématiques de Toulouse, dont Jérôme, Sophie, Marc, Jean-Luc, Nadia,<br />

Samy, Didier, Delphine. Un remerciement particulier à Noëlle Desblancs, secrétaire du<br />

DPRS, ainsi qu'à Monique Perron pour leur enthousiasme <strong>et</strong> leur énergie.<br />

... toutes les personnes, avec qui j'ai pu partager l'intimité de mon bureau <strong>et</strong> mon quotidien,<br />

à commencer par François avec qui les échanges furent riches sur les mathématiques,<br />

le jonglage (5 balles), l'acrobatie, l'escalade <strong>et</strong> le dessin, Mathieu, Laurent (3 balles), <strong>et</strong><br />

Franck (4 balles) pour ses précieux conseils concernant les avions, ses discussions sur la<br />

vie, l'univers <strong>et</strong> tout le reste.


ii<br />

... tous les doctorants de l'Onera, en particulier, Éric, Laurence, Antoine, Edouardo, Jean-<br />

Baptiste, Cédric, Florent, Mickel, Laurent, Romain pour le squash, Stéphanie pour la<br />

Danse, Julien, Domi, Sophie pour son énergie <strong>et</strong> sa joie de vivre inépuisable (mais alors<br />

vraiment inépuisable [Tar07]), Pierre pour l'escalade <strong>et</strong> le cinéma.<br />

... Nico (blond) pour toutes les fois où on a du sauver le monde, pour le séjour à Berlin, <strong>et</strong><br />

pour la soirée cirque présentée ensemble à Sup-aéro, Angel pour les semaines en espagnol<br />

<strong>et</strong> les semaines en français, les potes de Sup-Aéro, Romain, Fabien, Pierre-Yves <strong>et</strong> les autres.<br />

... tous les toits qui m'ont abrité au cours de c<strong>et</strong>te thèse, <strong>et</strong> les personnes qui étaient dessous<br />

avec moi : l'INSA avec Sze Ming ; la Tannerie avec Manu, Vincent, puis Gatien puis Seb ;<br />

re l'INSA ; rue Cujas chez Julie ; <strong>et</strong> enn la maison rue Santos Dumont avec, encore une<br />

fois Manu <strong>et</strong> Vincent, Nico (roux), Nacho, Aline, Miguel, Yannick, Antoine. Merci pour<br />

tous les moments partagés, les repas, les fêtes <strong>et</strong> les dimanches après-midi sous la pluie.<br />

... le LIDO, école de cirque de Toulouse, pour tous ces moments magiques que sont les essais<br />

de cirque le mercredi soir, en en particulier Carlos, Sylvain, Isa, Yann, Héloïse, Cola, Lucia,<br />

Rauni, Raoul, <strong>et</strong> tous les autres.<br />

... Enrique Fraga pour les cours d'espagnol, Louise <strong>et</strong> Félicie pour les cours de dessins, Guy<br />

de Toulza pour les cours d'histoire de l'art <strong>et</strong> Emmanuel Zenou pour les cours en traitement<br />

d'image.<br />

... les compagnons de galère Rémi <strong>et</strong> Jéré, toujours là pour aider à ramer.<br />

... Guillaume qui m'a montré sa conance <strong>et</strong> son amitié en me faisant témoin de son mariage.<br />

... Irène pour son café le dimanche matin à Saint Aubin.<br />

... tous les gens qui m'ont été important <strong>et</strong> qui m'ont marqué pendant ces trois années <strong>et</strong><br />

demi, Gégé, Thomas, Anaïs, Jérôme, Gilles, Georey, Kako, Sarah, Maude(s), Gaëlle <strong>et</strong><br />

Godot, Typhaine <strong>et</strong> Elia, Viol<strong>et</strong>te, Thomas <strong>et</strong> Amandine, Romain, Coralie, Sophie, Carmen,<br />

Maélis, Molej, Bruno(s), Charlotte, Guillaume, Le p<strong>et</strong>it Manu, Totom, Seb de Boudu,<br />

Rémi <strong>et</strong> Elise, Christelle, Guislain <strong>et</strong> Sonia, Julien, Camille(s), Etienne(s), Aude, Alex(s),<br />

Victor, Louis, Henri, les funkyroots du luberon, Mathieu, Chiara, Yuki, Marguerite, Yrja,<br />

Marion, Claire, Nadia <strong>et</strong> sa famille, Estelle, Mathilde, Paul, Gé, Jonas, Gar<strong>et</strong>, Amy, Odile,<br />

Aude <strong>et</strong> Arnaud, Arthur, Hélène, Irène, Ludovic, Chin, Laure(s), Borja, Sylvie, Ines Efron,<br />

Olivier, Sonia, Juliana, Max, Yannick, la famille Roussier-Michon <strong>et</strong> tous les autres. . .<br />

... <strong>et</strong> toute ma famille.


Résumé :<br />

L'optimisation multi-disciplinaire propose des solutions aux problèmes de conception de systèmes<br />

complexes. Le terme optimisation multi-disciplinaire laisse sous-entendre à tort qu'il ne<br />

s'agit que d'un problème d'optimisation. Nous lui préférons ici le terme de conception collaborative.<br />

En e<strong>et</strong>, l'optimisation ne représente qu'un aspect, qui ne peut être séparée du reste<br />

du problème de conception. Le but n'est pas de créer un processus automatique, mais de faciliter<br />

les échanges entre les équipes des diérentes disciplines.<br />

De nombreuses méthodes, appelées communément formulations MDO (de Multi-Disciplinary<br />

Optimization), apparaissent dans la littérature (MDF, IDF, AAO, BLISS, CO). Elles proposent<br />

des stratégies perm<strong>et</strong>tant, d'une part, d'assurer la cohérence de la description du système complexe<br />

<strong>et</strong>, d'autre part, d'eectuer la recherche de la conguration optimale. Dans un premier<br />

temps, nous dressons un état de l'art des formulations MDO. Nous m<strong>et</strong>tons en avant leurs points<br />

communs <strong>et</strong> leurs diérences, an de proposer une implémentation de la manière la plus générale<br />

qui soit. Ces méthodes sont construites avec le même noyau, ce qui perm<strong>et</strong> de passer de l'une à<br />

l'autre avec une grande exibilité.<br />

Nous proposons, avec la méthode DIVE (Discipline Interaction Variable Elimination), un<br />

cadre d'utilisation de méta-modèles au sein des formulations MDO. Le méta-modèle peut se<br />

limiter à une approximation linéaire ou quadratique. Il peut s'appuyer sur des méthodes classiques<br />

d'apprentissage, telles que les réseaux neuronaux, le Krigeage ou la SVM. Il peut également<br />

faire appel à des techniques de projection sur des sous-espaces telles que la méthode POD.<br />

Chaque méta-modèle est accompagné d'une région de conance qui en détermine la validité.<br />

C<strong>et</strong>te approche par approximations locales <strong>et</strong> successives perm<strong>et</strong> d'aborder les problèmes de<br />

grande dimension.<br />

Nous présentons des résultats obtenus avec deux cas-tests d'avions d'aaires supersoniques<br />

obtenus sous deux environnements diérents (Scilab <strong>et</strong> ModelCenter).<br />

Mots-clés : optimisation multi-disciplinaire, conception avion avant-proj<strong>et</strong>, méta-modèles.


Abstract :<br />

Multidisciplinary optimization proposes solutions for complex system design problems. The<br />

name multidisciplinary optimization is often taken literally. We prefer to call it collaborative<br />

design optimization. Indeed, the optimization tool is only one part which can not be separated<br />

from the total design process. The goal of collaborative optimization is not to create an automatic<br />

design process based on optimization algorithms but to allow easy interaction amongst teams<br />

from dierent disciplines.<br />

Many m<strong>et</strong>hods, commonly called MDO formulations (of Multi-Disciplinary Optimization),<br />

appear in literature (MDF, IDF, AAO, BLISS, CO). They propose strategies making it possible,<br />

on the one hand, to ensure the coherence of the complex system description, on the other hand,<br />

to carry out the research of the optimal conguration. Initially, we draw up a state of the art<br />

of MDO formulations. We show up their common points and dierences. Then we propose an<br />

implementation in the most general way. These m<strong>et</strong>hods are built with the same core, which<br />

makes it possible to pass from the one to the other with a great exibility.<br />

We propose, with the DIVE m<strong>et</strong>hod (Discipline Interaction Variable Elimination), a framework<br />

for using surrogates models within MDO formulations. M<strong>et</strong>a-model can be limited to a<br />

linear or quadratic approximation. It can be based on traditional learning m<strong>et</strong>hods, such as<br />

neural n<strong>et</strong>works, Kriging or SVM. One can also use projection techniques such as POD. The<br />

m<strong>et</strong>a-model provides an area of condence which d<strong>et</strong>ermines its validity. This approach by local<br />

and successive approximations makes it possible to tackle problems with a large number of<br />

variables.<br />

We have results obtained with two test-cases of supersonic business j<strong>et</strong> whitin two dierent<br />

frameworks (Scilab and ModelCenter).<br />

Key words : multidisciplinary optimization, conceptual aircraft design, m<strong>et</strong>a-models.


Table des matières<br />

v<br />

Table des matières<br />

Introduction 1<br />

1 La conception d'un avion en phase avant-proj<strong>et</strong> 7<br />

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

1.1 Présentation générale de la conception avion . . . . . . . . . . . . . . . . . . . . . 9<br />

1.1.1 Avant propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

1.1.2 Quel périmètre pour la conception avion ? . . . . . . . . . . . . . . . . . . 10<br />

1.1.3 Démarche de conception . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

1.1.4 Paramètres de conception en phase d'avant-proj<strong>et</strong> . . . . . . . . . . . . . . 15<br />

1.1.5 Principales sorties en conception en phase avant-proj<strong>et</strong> . . . . . . . . . . . 15<br />

1.2 Le cas-test Sobieski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

1.2.1 Description du cas-test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

1.2.2 Problème d'optimisation associé . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

1.3 Le cas-test Dassault . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

1.3.1 Description du cas-test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

1.3.2 Problème d'optimisation associé . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

2 Les formulations pour l'optimisation multi-disciplinaire 29<br />

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />

2.1 Outils <strong>et</strong> dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

2.1.1 Disciplines, paramètres, sorties <strong>et</strong> notations . . . . . . . . . . . . . . . . . 31<br />

2.1.2 Analyse multi-disciplinaire (MDA) . . . . . . . . . . . . . . . . . . . . . . 33<br />

2.1.3 Calcul des gradients (GSE) . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

2.1.4 Dénition de l'optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

2.1.5 Méta-modèles disciplinaires . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

2.2 Les formulations MDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

2.2.1 MDF : Multi-Disciplinary Feasible . . . . . . . . . . . . . . . . . . . . . . 41<br />

2.2.2 IDF : Individual Disciplinary Feasible . . . . . . . . . . . . . . . . . . . . 41<br />

2.2.3 AAO : All-At-Once . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

2.2.4 CO : Collaborative Optimization . . . . . . . . . . . . . . . . . . . . . . . 45<br />

2.2.5 BLISS : Bi-Level Integration System Synthesis . . . . . . . . . . . . . . . . 47<br />

2.2.6 BLISS 2000 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />

2.2.7 DIVE : Disciplinary Interaction Variable Elimination . . . . . . . . . . . . 51<br />

Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54


vi<br />

Table des matières<br />

3 Implémentation des formulations MDO 57<br />

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58<br />

3.1 Implémentation sous ModelCenter . . . . . . . . . . . . . . . . . . . . . . . . . . 58<br />

3.1.1 Les composants discipline du cas-test SSBJ . . . . . . . . . . . . . . . . 59<br />

3.1.2 MDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60<br />

3.1.3 IDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

3.1.4 CO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />

3.1.5 DIVE (optimisation disciplinaire) . . . . . . . . . . . . . . . . . . . . . . . 64<br />

3.1.6 R<strong>et</strong>our d'expérience de ModelCenter . . . . . . . . . . . . . . . . . . . . . 65<br />

3.2 Implémentation sous Scilab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />

3.2.1 Principes repris de ModelCenter . . . . . . . . . . . . . . . . . . . . . . . 67<br />

3.2.2 Implémentation des formulations MDO . . . . . . . . . . . . . . . . . . . . 67<br />

3.2.3 Cas particulier de BLISS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70<br />

3.2.4 Outils supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71<br />

3.2.5 Interface graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71<br />

Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72<br />

4 Résultats obtenus avec les formulations MDO 75<br />

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />

4.1 Résultats pour le cas test Sobieski avec ModelCenter . . . . . . . . . . . . . . . . 76<br />

4.1.1 MDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77<br />

4.1.2 IDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79<br />

4.1.3 CO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80<br />

4.1.4 DIVE (sans méta-modèle) . . . . . . . . . . . . . . . . . . . . . . . . . . . 82<br />

4.1.5 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83<br />

4.2 Résultats pour le cas-test Sobieski avec Scilab . . . . . . . . . . . . . . . . . . . . 84<br />

4.2.1 Analyse multi-disciplinaire (MDA) . . . . . . . . . . . . . . . . . . . . . . 84<br />

4.2.2 Les formulations MDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />

4.2.3 Multi-start pour DIVE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />

4.2.4 Front de Par<strong>et</strong>o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />

4.2.5 Coecients de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />

4.2.6 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93<br />

4.3 Résultats pour le cas-test Dassault avec Scilab . . . . . . . . . . . . . . . . . . . . 93<br />

4.3.1 Analyse multi-disciplinaire (MDA) . . . . . . . . . . . . . . . . . . . . . . 94<br />

4.3.2 Les formulations MDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96<br />

4.3.3 Multi-start pour DIVE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />

4.3.4 Front de Par<strong>et</strong>o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />

4.3.5 Coecients de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />

4.3.6 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />

Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102<br />

Conclusion générale <strong>et</strong> perpectives 107<br />

A Fonctions objectifs <strong>et</strong> contraintes pour la méthode BLISS 111<br />

A.1 <strong>Optimisation</strong>s disciplinaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111<br />

A.2 <strong>Optimisation</strong> globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112<br />

A.2.1 Calcul de la dérivée de f par rapport aux variables globales z . . . . . . . 112<br />

A.2.2 Calcul de la dérivée de g par rapport aux variables globales z . . . . . . . 114<br />

A.2.3 Problème d'optimisation en z . . . . . . . . . . . . . . . . . . . . . . . . . 116


Table des matières<br />

vii<br />

B Algorithmes d'optimisation 117<br />

B.1 Algorithme de Gauss-Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117<br />

B.2 Méthode des objectifs bornés (construction d'un front de Par<strong>et</strong>o) . . . . . . . . . 118<br />

B.3 Optimiseur LIN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />

Références bibliographiques 123


1<br />

Introduction<br />

Dénition de l'optimisation multi-disciplinaire<br />

La conception de système complexe (avions, hélicoptères, drones, <strong>et</strong>c. . .) est un suj<strong>et</strong> d'optimisation<br />

multi-disciplinaire par excellence. La recherche de la meilleure performance, de la<br />

meilleure qualité, au meilleur coût, est un enjeu majeur dans le domaine aérospatial. La maîtrise<br />

de la conception <strong>et</strong> de la mise en ÷uvre des engins volants est primordiale. Chaque erreur peut<br />

avoir des conséquences graves d'un point de vue économique ou opérationnel.<br />

La complexité de c<strong>et</strong> exercice provient de plusieurs facteurs que nous allons énumérer cidessous.<br />

• Il y a un grand nombre de domaines d'expertise ou disciplines impliqués.<br />

La modélisation des phénomènes qui régissent le système complexe demande un eort<br />

conséquent, <strong>et</strong> sollicite un grand nombre de domaines physiques (par exemple la mécanique<br />

des structures, la mécanique des uides, la thermodynamique pour la propulsion).<br />

Il existe des interactions entre ces diérents domaines, <strong>et</strong> il va falloir trouver un équilibre<br />

entre les réponses des disciplines, an d'obtenir une description cohérente du système.<br />

Les compétences <strong>et</strong> les modélisations disponibles dans chaque discipline ou sous-système<br />

sont maîtrisées par des services spéciques, qui peinent à collaborer étroitement, non<br />

par volonté délibérée, mais par la confrontation de cultures diérentes <strong>et</strong> une certaine<br />

méconnaissance des contraintes <strong>et</strong> de la complexité des domaines voisins.<br />

• Les temps de calcul des codes décrivant la physique des disciplines sont importants. Ils peuvent<br />

également requérir une intervention humaine pour la bonne conguration des conditions<br />

de calcul. Cela ne les rend pas toujours compatibles avec un processus d'optimisation.<br />

• Les codes décrivant la physique des diérents domaines peuvent être entachés d'erreurs,<br />

<strong>et</strong> posséder des imprécisions ou des irrégularités, ce qui va compliquer la recherche d'une<br />

conguration optimale.<br />

Le terme optimisation multi-disciplinaire laisse sous-entendre à tort qu'il ne s'agit que<br />

d'un problème d'optimisation. Nous lui préférons ici le terme de conception collaborative. En<br />

e<strong>et</strong>, l'optimisation ne représente qu'un aspect, qui ne peut être séparée du reste du problème<br />

de conception (qui concerne avant tout les interactions entre les disciplines qui composent le<br />

système). Le but n'est pas de créer un processus automatique, mais de faciliter les échanges<br />

entre les équipes des diérentes disciplines.<br />

On cherche à dénir un cadre qui perm<strong>et</strong>te de faciliter les échanges entre les diérentes disciplines,<br />

an d'aider à la recherche de congurations optimales <strong>et</strong> à l'obtention de compromis entre


2 Introduction<br />

les besoins des diérentes disciplines. Les décisions importantes concernant les congurations à<br />

r<strong>et</strong>enir sont bien évidemment laissées au jugement des acteurs de la conception.<br />

L'optimisation multi-disciplinaire va essayer d'appuyer le processus de conception avec des<br />

méthodes de natures diérentes.<br />

• Recherche de l'équilibre entre les disciplines : il convient tout d'abord de clarier<br />

quelles seront les variables qui participent à l'interaction entre les diérentes disciplines.<br />

Par exemple, si deux disciplines échangent un nombre très important de variables (les<br />

noeuds d'un maillage par exemple), il convient de les considérer comme une seule discipline.<br />

L'équilibre entre ces deux disciplines sera obtenu avec une méthode appropriée. On<br />

diminuera ainsi la complexité de l'échange entre les disciplines au niveau global. L'équilibre<br />

entre les diérents domaines peut être obtenu par plusieurs méthodes. On peut le<br />

voir comme un problème d'optimisation, ou bien comme l'ajout d'une contrainte supplémentaire<br />

au niveau de l'optimiseur global. Pour un système complexe donné, il faut être<br />

capable de choisir la méthode la plus appropriée pour résoudre le problème de cohérence<br />

interdisciplinaire.<br />

• Maîtrises des outils d'optimisation : pour la recherche de la conguration optimale,<br />

les diérentes techniques d'optimisation doivent être considérées (optimisation à base de<br />

gradient, algorithmes génétiques, méthodes locales ou globales). Il convient de trouver la<br />

méthode la plus adaptée au problème de conception posé, an de le résoudre de la manière<br />

la plus ecace qui soit.<br />

• Dénition du rôle des disciplines : les sollicitations des disciplines peuvent être de<br />

natures diérentes :<br />

les disciplines contribuent seulement à la description des phénomènes physiques, <strong>et</strong> les<br />

principaux choix de conception se font au niveau système, il s'agit d'analyse distribuée<br />

;<br />

les variables qui ne concernent que la discipline en question sont utilisées pour optimiser<br />

localement les sorties de la discipline concernée. On parle alors de conception<br />

distribuée : ici les disciplines participent aux choix de conception en agissant sur les<br />

variables qui leur sont propres, <strong>et</strong> le niveau système assure que l'optimisation se déroule<br />

bien dans le sens de l'objectif global.<br />

• Utilisation de méta-modèles : an de faciliter l'échange entre les disciplines, il est<br />

intéressant de pouvoir remplacer les codes de calculs souvent très gourmands en temps<br />

d'exécution par des méta-modèles 1 . Ces substitutions perm<strong>et</strong>tent d'avoir une réponse quasi<br />

instantanée <strong>et</strong> perm<strong>et</strong>tent ainsi un échange uide entre les disciplines. An de garder un<br />

sens physique au niveau des réponses des disciplines, il est primordial que les méta-modèles<br />

soient adaptés à la discipline considérée, ainsi qu'à la conguration étudiée. Il faut pour<br />

cela des méta-modèles qui s'adaptent <strong>et</strong> qui se réactualisent en fonction des réponses des<br />

codes de calculs plus ns. On arrive ainsi à des résultats précis sur les sorties des disciplines<br />

lorsque l'on atteint la solution optimale. Les méta-modèles perm<strong>et</strong>tent aussi parfois<br />

de régulariser les sorties des disciplines, <strong>et</strong> de faciliter ainsi la tâche à l'optimiseur.<br />

1 Méta-modèles : ces modèles simpliés perm<strong>et</strong>tent d'obtenir des réponses en un temps raisonnable. En contrepartie,<br />

la délité des réponses est dégradée. Ces méta-modèles peuvent tenir compte de la physique en jeu ou<br />

non


3<br />

Nous dénissons par stratégies pour l'optimisation multi-disciplinaire (plus communément<br />

appelées formulations MDO 2 ) les méthodes qui utilisent ces diérents outils, an d'aider à la<br />

recherche d'une conguration optimale.<br />

Base documentaire sur l'optimisation multi-disciplinaire<br />

L'optimisation multi-disciplinaire était peu représentée dans la littérature, mais les dernières<br />

années ont vu paraître de nombreux papiers sur le suj<strong>et</strong>. Nous les classons ici en trois catégories.<br />

Nous présentons tout d'abord les publications qui donnent une vue d'ensemble de l'optimisation<br />

multi-disciplinaire, ainsi que des challenges actuels dans le domaine. Puis nous montrons quelques<br />

articles qui décrivent une stratégie d'optimisation multi-disciplinaire en particulier. Enn, nous<br />

donnons certaines références pour les suj<strong>et</strong>s connexes à la MDO, tels que les algorithmes d'optimisation<br />

ou les méta-modèles.<br />

• Pour une vision globale de l'optimisation multi-disciplinaire, nous proposons plusieurs publications.<br />

Les articles [SH96, BG98, Bar98] dénissent la MDO de manière générale, ainsi<br />

que son <strong>application</strong> pour les challenges industriels. On peut trouver une présentation des<br />

diérentes méthodes pour la MDO dans [CDF + 93, AL00, Ale]. L'article [MAP05] propose<br />

une revue des diérentes stratégies d'optimisation <strong>et</strong> traite de suj<strong>et</strong>s connexes à la MDO,<br />

comme l'importance de la dénition des paramètres ou l'<strong>application</strong> de la théorie des jeux<br />

à l'optimisation multi-disciplinaire. Nous pouvons trouver aussi des cours qui présentent<br />

les formulations MDO <strong>et</strong> montrent des résultats sur des exemples analytiques <strong>et</strong> appliqués<br />

[Sim98, WW04].<br />

• Certaines publications sont plus axées sur une formulation MDO en particulier.<br />

Collaborative Optimization (CO) : nous pouvons trouver une description de c<strong>et</strong>te méthode<br />

dans [BGKS96, NMA99, AR00]. En particulier, l'article [Lin04] propose une analyse<br />

<strong>théorique</strong> de c<strong>et</strong>te approche.<br />

Concurrent Sub-Space Optimization (CSSO) : une description, ainsi qu'une implémentation<br />

de c<strong>et</strong>te méthode sous iSight, sont données dans [TNRB98].<br />

Bi-Level Integrated System Synthesis (BLISS) : il existe de nombreuses publications<br />

sur c<strong>et</strong>te méthode. La version de base est présentée dans [KRS + 04]. Une autre version<br />

utilisant les méta-modèles est décrite dans [Alt02]. La méthode BLISS 2000, qui propose<br />

une généralisation de l'utilisation des méta-modèles, est décrite dans [Agt00].<br />

Discipline Interaction Variable Elimination (DIVE) : [MP06] propose un cadre nouveau<br />

d'utilisation des méta-modèles pour l'optimisation multi-disciplinaire.<br />

D'autres articles présentent les développements récents <strong>et</strong> proposent une approche différente.<br />

Il existe d'autres modes d'organisation de la conception qui ne sont pas basés<br />

sur un découpage disciplinaire, mais sur une organisation hiérarchique <strong>et</strong> sur une restriction<br />

de la communication entre les diérents niveaux [MP00]. Une méthode telle que<br />

ATC (Analytical Targ<strong>et</strong> Cascading) [Kim01, MP00, MKP99] est plus appropriée dans<br />

ce cas d'organisation hiérarchique. La comparaison des méthodes ATC, CO <strong>et</strong> d'autres<br />

approches, est exposée dans [All04]. Une nouvelle méthode basée sur ATC <strong>et</strong> CO est<br />

exposée dans [AKZP05].<br />

• Enn, l'optimisation multi-disciplinaire requiert plusieurs outils qui sont décrits dans la<br />

littérature.<br />

2 MDO : multi-disciplinary optimization ou optimisation multi-disciplinaire


4 Introduction<br />

Algorithmes d'optimisation : les principales méthodes utilisées en optimisation sont<br />

présentées dans [Van01b, Gui03]. L'algorithme SQP qui sera utilisé dans la thèse est<br />

décrit dans [Law01, Ber04]. Des éléments d'optimisation multiobjectif sont donnés dans<br />

[SC02].<br />

Global Sensitivity Equation (GSE) ou calcul par l'adjoint : une description de c<strong>et</strong>te<br />

méthode de calcul de gradients est donnée dans [HBSS90, Cea86, MP01, Jam90].<br />

La description <strong>et</strong> l'utilisation de méta-modèles fait l'obj<strong>et</strong> de nombreuses publications.<br />

Pour les méthodes de surface de réponse, nous pouvons nous référer à [CST00, Vap95,<br />

Pla99]. Les méthodes tenant compte de la physique de la discipline, telles que les POD,<br />

sont décrites dans [GM97].<br />

Cadre de la thèse<br />

La thèse se déroule dans le cadre de l'École Doctorale Aéronautique <strong>et</strong> Astronautique (EDAA)<br />

de l'Institut Supérieur de l'Aéronautique <strong>et</strong> de l'Espace (<strong>ISAE</strong>). Elle est dirigée par le Professeur<br />

Mohamed Masmoudi du laboratoire Mathématique pour l'Industrie <strong>et</strong> la Physique (MIP) de l'université<br />

Toulouse III. Le travail de recherche est eectué au sein de l'Oce Nationale d'<strong>étude</strong>s<br />

<strong>et</strong> recherches aérospatiales (ONERA). Il est encadré par Jean Herm<strong>et</strong>z, chef d'unité Système<br />

AéronautiquEs du Département PRospectives <strong>et</strong> Synthèse (DPRS/SAE), <strong>et</strong> par Nathalie Bartoli,<br />

ingénieur de recherche à l'unité Modélisation Mathématique <strong>et</strong> Numérique du Département<br />

Traitement de l'Information <strong>et</strong> Modélisation (DTIM/M2SN).<br />

La thèse se situe au coeur de deux proj<strong>et</strong>s sur l'optimisation multi-disciplinaire.<br />

• Le proj<strong>et</strong> DOOM (Démarche Outillée pour l'<strong>Optimisation</strong> Multi-disciplinaire).<br />

De 2005 à 2008, l'ONERA a décidé de m<strong>et</strong>tre un place le proj<strong>et</strong> fédérateur pluriannuel<br />

DOOM (Démarche Outillée pour l'optimisation Multidisciplinaire), an de mener une<br />

réexion approfondie sur le thème de la MDO, en analysant diérentes formulations de<br />

problèmes <strong>et</strong> diérentes techniques d'optimisation. Le but est de développer des outils<br />

adéquats <strong>et</strong> de les tester sur deux cas d'<strong>application</strong> choisis dans les domaines avion <strong>et</strong><br />

missile. Ce proj<strong>et</strong> a donné lieu à plusieurs publications internes :<br />

[BS06] concernant les formulations MDO ;<br />

[BKS06] concernant les algorithmes d'optimisation ;<br />

[BSBM07] concernant les méta-modèles ;<br />

[Mor06] concernant la conception avion.<br />

• Le proj<strong>et</strong> OMD-RNTL 3 .<br />

Ce proj<strong>et</strong> réunit plusieurs universités <strong>et</strong> centres de recherche français ( l'INRIA, l'université<br />

Paul Sabatier de Toulouse au travers du laboratoire MIP, les Unités mixtes CNRS-Mines<br />

de Saint-Etienne <strong>et</strong> CNRS-Ecole Centrale de Nantes, l'UTC, ENS à Cachan <strong>et</strong>c. . .), ainsi<br />

que plusieurs industriels (Dassault, Astrium, Renault), an de mener une réexion globale<br />

sur l'optimisation multi-disciplinaire. Le but ici est de confronter le savoir des acteurs<br />

de la recherche aux problèmes rencontrés par les industriels. Ce proj<strong>et</strong> a donné lieu à<br />

la rédaction d'un ouvrage qui vient de paraître chez Hermes [OMD09] sur l'optimisation<br />

multi-disciplinaire.<br />

3 http ://omd.lri.fr


5<br />

D'autres thèses concernant l'optimisation <strong>multidisciplinaire</strong> on été eectuées durant c<strong>et</strong>te<br />

thèse. Nous pouvons citer la thèse de Céline Badue [Bad07], la thèse de Yogesh Parte concerant<br />

l'optimisation multi-disciplinaire <strong>et</strong> encadrée par M. Masmoudi <strong>et</strong> la thèse <strong>Optimisation</strong><br />

<strong>multidisciplinaire</strong> appliquée aux fusées lanceuses de satellites de Jérôme Picard.<br />

Objectifs <strong>et</strong> apports de la thèse<br />

Le but de c<strong>et</strong>te thèse est d'étudier, d'implémenter, <strong>et</strong> de comparer les diérentes formulations<br />

MDO présentes dans la littérature. Nous le ferons pour les méthodes MDF, IDF, CO, BLISS <strong>et</strong><br />

DIVE. Le cadre applicatif se situe dans la conception avion au stade avant-proj<strong>et</strong>. Nous avons à<br />

notre disposition deux cas-tests de ce type.<br />

Nous proposons une vision des formulations MDO la plus générale possible. Toutes les méthodes<br />

reposent sur le même noyau <strong>et</strong> penvent être implémentées modulo un certain nombre de<br />

choix, ce qui nous perm<strong>et</strong>tra de passer de l'une à l'autre avec une grande exibilité.<br />

Notre contribution consiste à proposer un cadre pour l'utilisation de méta-modèles disciplinaires<br />

au sein du problème de conception. Nous donnons aux méta-modèles un sens général,<br />

commençant par les approximations linéaires ou quadratiques, en passant par les méthodes de<br />

surfaces de réponses (krigging, réseau de neurones) <strong>et</strong> les réductions physiques de modèles (POD),<br />

<strong>et</strong> même en considérant le modèle exact, lorsque le code présente une exécution rapide.<br />

Le but de c<strong>et</strong>te thèse n'est pas de faire une <strong>étude</strong> exhaustive sur les méta-modèles. L'idée<br />

importante que nous souhaitons montrer est la viabilité de l'utilisation de méta-modèles disciplinaires<br />

dans le cadre de l'optimisation multi-disciplinaire. Nous chercherons à prouver l'ecacité<br />

de ce principe avec un exemple des plus simples qui soit, c'est-à-dire en utilisant des méta-modèles<br />

linéaires. Ces méta-modèles présentent l'inconvénient de n'être valides que dans une p<strong>et</strong>ite région<br />

de conance, mais c<strong>et</strong>te région peut s'adapter au processus d'optimisation <strong>et</strong> on s'aranchit de<br />

la dimension du problème.<br />

Si l'on montre que c<strong>et</strong>te méthode fonctionne avec des méta-modèles très simples, on peut<br />

espérer qu'elle marchera d'autant mieux avec des méta-modèles plus perfectionnés. Le choix du<br />

méta-modèle sera par la suite laissé aux soins de la discipline, qui saura proposer le méta-modèle<br />

le plus adapté.<br />

Plan de la thèse<br />

Nous allons tout d'abord donner dans le chapitre 1 une vue générale de la conception avion<br />

au stade avant-proj<strong>et</strong>. Nous y présentons les diérents domaines qui interviennent, la démarche<br />

de conception qui peut être découpée en plusieurs phases, <strong>et</strong> les paramètres qui peuvent servir de<br />

variables de conception en phase avant-proj<strong>et</strong>. An d'illustrer c<strong>et</strong>te problématique de conception,<br />

deux cas-tests de type avion d'aaires supersonique sont introduits. Ils perm<strong>et</strong>tent de décrire le<br />

comportement physique de l'avion pour un nombre limité de paramètres, <strong>et</strong> de tester diérentes<br />

stratégies d'optimisation, qui appuieront la recherche de compromis.<br />

Nous donnons dans le chapitre 2 un cadre général pour l'optimisation multi-disciplinaire <strong>et</strong><br />

nous présentons plusieurs formulations MDO. La première partie du chapitre présente les éléments<br />

qui constituent ces méthodes : les diérents types de variables, le problème d'équilibre<br />

interdisciplinaire, les méthodes de calcul de gradients, le problème d'optimisation associé au<br />

problème de conception <strong>et</strong> les méta-modèles disciplinaires. Dans une deuxième partie, nous allons<br />

expliciter certaines formulations MDO, à savoir MDF, IDF, AAO, CO, BLISS, BLISS 2000<br />

<strong>et</strong> DIVE.


6 Introduction<br />

Nous décrivons dans le chapitre 3 l'implémentation des formulations MDO avec deux environnements<br />

diérents : ModelCenter, qui est un logiciel facile d'utilisation <strong>et</strong> très pratique pour<br />

la MDO, mais payant, <strong>et</strong> Scilab, un logiciel libre.<br />

Dans le chapitre 4, nous analysons les résultats obtenus avec les environnements <strong>et</strong> les cas-tests<br />

présentés auparavant, <strong>et</strong> nous cherchons à en tirer des conclusions sur l'ecacité des diérentes<br />

formulations MDO <strong>et</strong> plus particulièrement sur la viabilité de l'utilisation de méta-modèles disciplinaires.<br />

Enn, nous essayons en conclusion générale de proposer notre vision de l'optimisation <strong>multidisciplinaire</strong>,<br />

<strong>et</strong> de donner quelques perspectives sur ce que pourrait être la suite de travail de<br />

recherche.<br />

En annexe, nous précisons la construction des fonctions objectifs <strong>et</strong> contraintes pour la méthode<br />

BLISS, <strong>et</strong> nous détaillons quelques algorithmes d'optimisation.


Chapitre 1<br />

La conception d'un avion en phase<br />

avant-proj<strong>et</strong><br />

Sommaire<br />

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

1.1 Présentation générale de la conception avion . . . . . . . . . . . . . . 9<br />

1.1.1 Avant propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

1.1.2 Quel périmètre pour la conception avion ? . . . . . . . . . . . . . . . . . 10<br />

1.1.3 Démarche de conception . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

1.1.4 Paramètres de conception en phase d'avant-proj<strong>et</strong> . . . . . . . . . . . . 15<br />

1.1.5 Principales sorties en conception en phase avant-proj<strong>et</strong> . . . . . . . . . . 15<br />

1.2 Le cas-test Sobieski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

1.2.1 Description du cas-test . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

1.2.2 Problème d'optimisation associé . . . . . . . . . . . . . . . . . . . . . . 23<br />

1.3 Le cas-test Dassault . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

1.3.1 Description du cas-test . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

1.3.2 Problème d'optimisation associé . . . . . . . . . . . . . . . . . . . . . . 28<br />

Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28


8 La conception d'un avion en phase avant-proj<strong>et</strong><br />

Introduction<br />

La conception d'un avion est une démarche qui consiste à trouver un compromis entre les<br />

demandes des utilisateurs <strong>et</strong> ce que perm<strong>et</strong>tent de réaliser les moyens actuels. Ces demandes<br />

peuvent provenir des compagnies aériennes pour le transport de personnes <strong>et</strong> de marchandises,<br />

des besoins militaires avec les avions de combat <strong>et</strong> les drones, <strong>et</strong>c. . .<br />

Avant même de construire l'engin volant, on doit être capable de le modéliser par des moyens<br />

informatiques, an d'évaluer la viabilité du proj<strong>et</strong> :<br />

en terme physique : l'avion proposé est-il capable de répondre aux objectifs qui lui sont<br />

demandés ?<br />

en terme économique : son utilisation commerciale est-elle viable <strong>et</strong> perm<strong>et</strong>-elle d'assumer<br />

ses coûts de conception, de construction, d'utilisation <strong>et</strong> d'entr<strong>et</strong>ien ?<br />

en terme écologique : est-il conforme aux normes environnementales sur la pollution,<br />

s'inscrit-il dans une démarche de développement durable ?<br />

C<strong>et</strong>te modélisation va solliciter diérents domaines de la physique, tels que la mécanique des<br />

structures, l'aérodynamique, l'énergétique <strong>et</strong> la propulsion, l'acoustique, <strong>et</strong>c. . . Il va falloir être<br />

capable de marier toutes ces disciplines an d'obtenir une description cohérente <strong>et</strong> able des<br />

performances estimées de l'avion.<br />

Les codes de calcul qui traduisent la modélisation de ces diérentes disciplines sont rapidement<br />

gourmands en temps d'exécution. An de faciliter les échanges entre les diérents domaines,<br />

on doit pouvoir disposer de codes plus simples, traduisant une modélisation approchée, rendant<br />

compte des tendances principales au premier ordre, mais dont les temps d'exécution perm<strong>et</strong>tront<br />

d'eectuer le calcul de ces disciplines couplées. Ces méta-modèles doivent s'adapter à la<br />

conguration étudiée an de pouvoir donner des résultats cohérents.<br />

La conception avion se déroule généralement en trois phases :<br />

la phase de conceptual design, ou d'<strong>étude</strong> de concept perm<strong>et</strong> d'évaluer des concepts d'avions<br />

diérents <strong>et</strong> de déterminer les grandes tendances des performances estimées pour un nombre<br />

restreint de paramètres inuant au premier ordre ;<br />

la phase de preliminary design, ou d'<strong>étude</strong> préliminaire sert à déterminer la viabilité d'un<br />

concept <strong>et</strong> de l'améliorer dans un voisinage restreint ;<br />

la phase de d<strong>et</strong>ailed design ou de conception détaillée étudie en détail une conguration<br />

donnée <strong>et</strong> perm<strong>et</strong> de préparer la fabrication de l'engin volant.<br />

Le nombre de paramètres considérés augmente à chaque phase 1 . Ces paramètres sont le fruit<br />

de l'expérience acquise par les concepteurs au cours des années.<br />

Une vision globale de la conception avion est donnée dans la section 1.1. Nous y présentons les<br />

diérents domaines qui interviennent (cf section 1.1.2), puis la démarche de conception selon ces<br />

diérentes phases (cf section 1.1.3), <strong>et</strong> enn nous exposons les diérents paramètres qui peuvent<br />

servir de variables de conception en phase avant-proj<strong>et</strong> (cf section 1.1.4).<br />

An d'illustrer c<strong>et</strong>te problématique de conception, deux cas-tests de type avion d'aaire<br />

supersonique sont introduits. Ils perm<strong>et</strong>tent de décrire le comportement physique de l'avion pour<br />

un nombre de paramètres limités, <strong>et</strong> de tester diérentes stratégies d'optimisation qui appuieront<br />

la recherche de compromis. Ils sont décrits dans les sections 1.2 <strong>et</strong> 1.3. Pour chacun d'entre eux,<br />

nous donnons une description des diérentes disciplines qui le composent <strong>et</strong> nous exposons le<br />

problème d'optimisation associé.<br />

1 Le plus souvent, ce sont les paramètres locaux qui augmentent. Ils peuvent aussi changer de nature. Par<br />

exemple, un paramètre scalaire en phase de conceptual design peut devenir un vecteur en phase de preliminary<br />

design.


1.1 Présentation générale de la conception avion 9<br />

1.1 Présentation générale de la conception avion<br />

1.1.1 Avant propos<br />

Les systèmes aéronautiques, avions, hélicoptères, drones notamment, sont le fruit de compromis<br />

techniques <strong>et</strong> économiques. Ces derniers sont établis sur la base d'un cahier des charges<br />

contenant les principales spécications correspondant au besoin de l'utilisateur à couvrir. La<br />

recherche de ces compromis est typiquement l'activité du concepteur : il va chercher les meilleures<br />

congurations possibles au travers d'une approche heuristique mêlant expertise <strong>et</strong> techniques<br />

d'optimisation. Les résultats obtenus <strong>et</strong> leur analyse peuvent alors conduire à une éventuelle<br />

remise en cause des spécications initiales, traduisant le besoin exprimé par le client (ou issue de<br />

l'analyse de marché). Le schéma 1.1 illustre c<strong>et</strong>te démarche globale. Le bouclage entre l'analyse<br />

des résultats de conception <strong>et</strong> le besoin utilisateur constitue la recherche du meilleur compromis.<br />

✲<br />

Spécications<br />

Besoin utilisateur<br />

✲<br />

❄<br />

Conguration<br />

✻<br />

Évaluation<br />

✛<br />

Fig. 1.1 Processus global de conception système.<br />

Dans les grandes lignes, le besoin utilisateur (ou besoin opérationnel) évoqué ci-avant correspond<br />

à l'obtention d'une performance minimale, pour un emploi particulier déni, en respectant<br />

des contraintes d'emploi, réglementaires <strong>et</strong> de sécurité. Par exemple, on souhaite concevoir<br />

un avion transportant n passagers <strong>et</strong> capable d'atteindre une distance franchissable donnée.<br />

L'obtention de c<strong>et</strong>te performance est généralement assuj<strong>et</strong>tie à la minimisation d'un paramètre<br />

économique, proche de la notion de coût : selon la destination opérationnelle du véhicule, on<br />

parlera de coût de possession (par exemple pour un véhicule militaire) ou de coût opérationnel<br />

direct (DOC 2 ) pour les appareils civils.<br />

C<strong>et</strong>te notion de coût doit être comprise au sens large : aujourd'hui, les impératifs de développement<br />

durable introduisent dans celui-ci des notions d'impact écologique, dont la traduction est<br />

essentiellement liée à la mise en place de taxes (taxe carbone, taxe d'atterrissage pour l'aide<br />

aux riverains pour l'isolation acoustique). On notera que ces deux exemples typiques d'impact<br />

environnemental peuvent être eux-mêmes des objectifs de conception.<br />

On établit ainsi tous les éléments d'une optimisation sur lesquels un concepteur va s'appuyer :<br />

fonction(s) à optimiser, contraintes à satisfaire. Il reste à préciser, d'une part, quels sont les<br />

paramètres de conception sur lesquels il va pouvoir jouer, <strong>et</strong>, d'autre part, quelle sera la démarche<br />

suivie pour aboutir à l'émergence des meilleurs compromis.<br />

2 DOC : Direct Operating Cost.


10 La conception d'un avion en phase avant-proj<strong>et</strong><br />

1.1.2 Quel périmètre pour la conception avion ?<br />

Il y a plusieurs façons d'aborder la conception avion. Selon la section précédente, elle doit<br />

aboutir à un appareil atteignant certaines performances, qui constituent soit un objectif de<br />

conception, soit une contrainte à satisfaire (par exemple la vitesse minimale d'approche ou la<br />

distance de décollage).<br />

Prenons un exemple simple : un avion civil est généralement conçu pour emmener d'un point<br />

A à un point B des passagers, il doit donc disposer d'une distance franchissable R que l'on peut<br />

approcher à l'aide de l'équation de Brégu<strong>et</strong> :<br />

R = F.V<br />

g.C s<br />

ln( M i<br />

M f<br />

). (1.1)<br />

C<strong>et</strong>te performance, fondamentale pour des appareils commerciaux civils, dépend :<br />

de l'aérodynamique du véhicule au travers de la notion de nesse F (rapport du coecient<br />

de portance sur le coecient de traînée) ;<br />

de sa vitesse de vol V ;<br />

de la consommation spécique du moteur C s ;<br />

de sa masse, au sens large, intégrant la charge utile, mais aussi <strong>et</strong> surtout sa masse propre<br />

(ou masse à vide équipée/en ordre d'exploitation), qui se décline ici en masse en n de vol<br />

(M f ) <strong>et</strong> masse au début du vol (M i ),<br />

de g, l'accélération gravitationnelle (g = 9.81m.s −2 ).<br />

L'aérodynamique du véhicule, comme sa structure, dépendent des dimensions de l'appareil.<br />

L'impact de celles-ci sur les caractéristiques correspondantes, ici aérodynamiques <strong>et</strong> massiques,<br />

est établi au travers de modèles qui traduisent une certaine représentation de la physique<br />

en jeu. Ces modèles établissent le lien entre les paramètres qui décrivent l'avion, que l'on peut<br />

également qualier de variables de conception, <strong>et</strong> les performances calculées.<br />

D'autres caractéristiques, mises sous la forme de contraintes à respecter, proviennent de<br />

diérentes disciplines, comme par exemple l'empreinte acoustique.<br />

Généralement, on désigne par discipline un domaine d'expertise particulier. Cela peut correspondre<br />

à un domaine physique, comme la mécanique des uides par exemple, ou bien à un<br />

sous-système regroupant plusieurs domaines physique.<br />

La discipline aérodynamique<br />

C<strong>et</strong>te discipline fournit des caractéristiques de deux types diérents :<br />

aérodynamique basse vitesse pour les performances au décollage (<strong>et</strong> montée) <strong>et</strong> à l'atterrissage<br />

(<strong>et</strong> en approche) ;<br />

aérodynamique en croisière : subsonique ou transsonique pour les avions commerciaux<br />

actuels, supersonique pour les appareils de combat, bas subsonique (ou subsonique incompressible)<br />

pour les avions légers, <strong>et</strong>c. . .<br />

Selon les besoins <strong>et</strong> les missions, ces modèles peuvent être capables de restituer des caractéristiques<br />

instationnaires de façon à représenter des phases transitoires requises pour des<br />

aspects relevant de la dynamique du véhicule.<br />

La discipline structure<br />

La masse d'un système mécanique, quel qu'il soit, est le résultat du dimensionnement de ses<br />

constituants assurant la reprise d'eort que c<strong>et</strong>te structure subie. En première approche,<br />

les eorts sont liés à :<br />

la gravité, naturelle ou augmentée par les man÷uvres que l'appareil est susceptible de<br />

faire (on parle de charges) ;


1.1 Présentation générale de la conception avion 11<br />

la pression dynamique exercée par l'air <strong>et</strong> dépendant des conditions de vol (vitesse <strong>et</strong><br />

altitude) ;<br />

les conditions atmosphériques pouvant être rencontrées sur l'ensemble du domaine de vol<br />

de l'appareil, qui vont notamment dénir les eorts liés aux rafales. Ce domaine est tantôt<br />

le résultat de compromis entre performances, coûts, <strong>et</strong> respect des contraintes réglementaires<br />

pour les avions commerciaux, tantôt imposé par des considérations opérationnelles<br />

pour les avions militaires ;<br />

des considérations en rapport avec la charge marchande : les passagers requièrent des<br />

conditions de confort (conditionnement d'air <strong>et</strong> pressurisation) qui sont dimensionnantes<br />

pour la structure de l'appareil ;<br />

les man÷uvres, décidées par le pilote, qui agissent indirectement sur la nature de la<br />

charge mais qui induisent également des eorts locaux de déformation des structures (par<br />

exemple déformation en torsion d'une voilure sous l'action de braquage d'un aileron).<br />

On pourrait ajouter d'autres considérations liées à l'échauement cinétique (pour le vol<br />

supersonique ou hypersonique) <strong>et</strong> toutes les contraintes logistiques. On notera également<br />

que se cachent derrière la discipline structure plusieurs autres domaines ou disciplines,<br />

comme les matériaux, les techniques de fabrication <strong>et</strong> de maintenance, <strong>et</strong>c. . .<br />

La discipline performance opérationnelle<br />

En plus du rayon d'action donné par la formule de Brégu<strong>et</strong> (voir équation (1.1)), de nombreuses<br />

performances sont attendues généralement d'un appareil. Leur calcul se fait en<br />

considérant en quelque sorte l'avion comme un point matériel (son centre de gravité) <strong>et</strong> en<br />

s'intéressant exclusivement à la trajectoire de celui-ci. On considère donc généralement des<br />

performances établies sur la base :<br />

des équations de la mécanique du vol issues du principe fondamental de la dynamique :<br />

mise en relation des forces de propulsion <strong>et</strong> aérodynamiques <strong>et</strong> des forces liées à la gravité<br />

<strong>et</strong> à l'inertie, l'appareil étant supposé en régime permanent équilibré ;<br />

de l'équation diérentielle de consommation instantanée : C = − dM c<br />

. Son intégrale sur<br />

dt<br />

la durée de la mission nous donne la masse de carburant M c consommée.<br />

Naturellement, l'examen des besoins conduit à la dénition de niveaux de performances<br />

spéciques aux missions à remplir. Si l'on reste sur les avions civils, on considère généralement<br />

:<br />

les performances pour une trajectoire donnée, c'est-à-dire les taux de montée, consommation<br />

en croisière (distance franchissable), consommation en phase d'attente (durée de<br />

vol) ;<br />

les performances de décollage (longueur de piste au décollage, distance d'accélérationarrêt),<br />

<strong>et</strong> d'atterrissage (vitesse d'approche, distance d'atterrissage).<br />

Ces performances sont analysées pour diérentes conditions atmosphériques (temps chaud<br />

ou froid, aérodrome en altitude, <strong>et</strong>c. . .), <strong>et</strong> pour diérentes conditions d'utilisation (vol à<br />

pleine charge, moteur en panne si il y en a plusieurs, <strong>et</strong>c. . .).<br />

La discipline qualité de vol<br />

Celle-ci s'intéresse au comportement de l'avion autour de son centre de gravité, donc à ses<br />

capacités à man÷uvrer. Au travers des équations de la mécanique du vol, c<strong>et</strong>te discipline<br />

intègre tous les facteurs conditionnant les mouvements de l'appareil : matrice d'inertie, amplitude<br />

<strong>et</strong> variation des forces aérodynamiques <strong>et</strong> de propulsion <strong>et</strong> paramètres de commande<br />

(par exemple, les eorts aérodynamiques liés à une action du pilote au travers d'une gouverne).<br />

Ces qualités de vol sont examinées pour diérentes conditions de vol. Elles doivent


12 La conception d'un avion en phase avant-proj<strong>et</strong><br />

répondre à des niveaux d'exigences liés à l'emploi du véhicule : on ne demandera pas les<br />

mêmes capacités de man÷uvre à un avion de type Airbus ou à un appareil de voltige.<br />

La discipline énergétique <strong>et</strong> propulsion<br />

C<strong>et</strong>te discipline englobe les caractéristiques <strong>et</strong> performances du groupe propulsif de l'appareil.<br />

Un moteur est un système complexe en soi : il intègre les domaines cités auparavant :<br />

aérodynamique (interne c<strong>et</strong>te fois), structure <strong>et</strong> matériaux, combustion, thermique <strong>et</strong>c. . .<br />

D'un point de vue système, la propulsion est vue de façon simpliée au travers d'une<br />

représentation macroscopique (i.e. ne traduisant pas tous les détails techniques d'un moteur,<br />

mais globalisant plutôt ses performances, par exemple la poussée fournie). Compte<br />

tenu de l'importance grandissante de l'impact environnemental des avions, ce domaine est<br />

plus que jamais fondamental pour la conception d'un avion.<br />

La discipline acoustique<br />

Les frottements aérodynamiques, internes (moteur) ou externes (cellule de l'avion), la combustion,<br />

génèrent des ondes acoustiques intenses <strong>et</strong> multispectrales dont il est aujourd'hui<br />

indispensable de tenir compte. L'impact acoustique est désormais considéré au même titre<br />

que les autres contraintes opérationnelles <strong>et</strong> doit donc être envisagé au plus tôt dans la<br />

conception d'un appareil.<br />

La discipline thermique<br />

L'importance de c<strong>et</strong>te discipline dépend du type de système à concevoir. Les avions militaires,<br />

par exemple, comme les missiles, vont connaître des écarts de température très<br />

importants requérant une analyse thermique de leur structure. Pour un avion de transport<br />

civil, les ux thermiques, bien que plus constants, imposent néanmoins des dispositifs de<br />

conditionnement d'air <strong>et</strong> d'isolation non négligeables en termes de masse <strong>et</strong> d'encombrement.<br />

Ce simple énoncé des disciplines intervenant dans la conception de systèmes aéronautiques<br />

appelle plusieurs commentaires.<br />

La délité des modèles : les modèles assurant les analyses disciplinaires peuvent être de niveaux<br />

de délité variés. Par exemple, il existe plusieurs modèles, plus ou moins sophistiqués,<br />

pour estimer la masse de structure d'une voilure soumise à des eorts dénis. Ces modèles<br />

allant d'une simple loi issue d'observations expérimentales (analyse statistique, modèle<br />

semi-empirique), à des calculs éléments nis en passant par des analogies de mécaniques<br />

des solides (type modèle de poutre RDM 3 ). Le nombre de variables intervenant dans la discipline<br />

augmente généralement avec la complexité du modèle. Les modèles statistiques se<br />

contenteront de données dimensionnelles générales de la voilure (envergure, cordes, épaisseur<br />

relative, èche <strong>et</strong>c. . .), soit quelques unités, alors qu'un modèle n de type éléments<br />

nis. possède un nombre de variables qui augmente avec le ranement du maillage utilisé,<br />

<strong>et</strong> la complexité des variables (nature des matériaux utilisés : métallique ou composite).<br />

Selon les besoins, il faudra être capable de jongler entre les niveaux de délité. Par exemple,<br />

lorsque l'on veut faire des calculs précis sur une conguration bien dénie, on doit disposer<br />

de codes de haute délité qui perm<strong>et</strong>tront d'approcher au mieux la physique. Dans le<br />

cadre d'une recherche de conguration optimale, on préfèrera utiliser des modélisations<br />

simpliées, <strong>et</strong> plus enclins à répondre à un grand nombre de sollicitations en un temps<br />

3 Résistance des matériaux.


1.1 Présentation générale de la conception avion 13<br />

raisonnable. Au cours de l'optimisation, ces modèles simpliés pourront évoluer en tenant<br />

compte des résultats obtenus avec les modèles de plus haute délité, an d'assurer une<br />

certaine conance sur leurs sorties.<br />

La nature des modèles : chaque domaine peut être abordé suivant plusieurs points de vue :<br />

un point de vue analyse, où le modèle fournit une évaluation des performances pour des<br />

caractéristiques données ;<br />

un point de vue dimensionnement, où on attend du modèle local une proposition de<br />

caractéristiques perm<strong>et</strong>tant d'optimiser un objectif propre à la discipline ou d'atteindre<br />

une performance souhaitée.<br />

L'interaction entre les modèles : nous pouvons considérer l'exemple de la discipline aérodynamique<br />

<strong>et</strong> la discipline structure. La discipline aérodynamique calcule le champ de<br />

pression autour de l'aile, pour des conditions de vol données. La discipline structure va<br />

traduire ce champ de pression en eorts exercés sur l'aile <strong>et</strong> va dimensionner c<strong>et</strong>te dernière<br />

de manière à ce qu'elle résiste à ces eorts. La forme de l'aile ayant été modiée, le champ<br />

de pression autour de l'aile le sera également. Il y a donc un équilibre à établir entre les<br />

disciplines, an de dénir correctement la physique de notre problème.<br />

La pluridisciplinarité des modèles : un modèle peut se situer à la jonction de plusieurs domaines.<br />

À titre d'exemple :<br />

le dimensionnement d'une structure se fait sur des contraintes de tenue statique <strong>et</strong> dynamique,<br />

c<strong>et</strong>te dernière pouvant être le lieu de sollicitations aérodynamiques périodiques<br />

entrant en phase avec ses modes propres. On aborde ces phénomènes au travers d'une<br />

discipline spécique, l'aéroélasticité, couplant structure <strong>et</strong> aérodynamique de façon intime<br />

;<br />

les nuisances sonores sont établies à travers la propagation d'ondes acoustiques dans un<br />

environnement. C<strong>et</strong>te propagation est perturbée, en champ proche par l'avion, en champ<br />

plus lointain par l'atmosphère généralement turbulente <strong>et</strong> siège de gradients thermiques<br />

<strong>et</strong> éoliens. Il faut donc être capable de fusionner les deux disciplines en une seule appelée<br />

aéroacoustique ;<br />

le comportement de l'appareil <strong>et</strong> ses réponses aux sollicitations du pilote, automatique<br />

ou non, est la conjonction de son inertie, de sa souplesse éventuelle <strong>et</strong> de la réponse des<br />

gouvernes <strong>et</strong> actionneurs.<br />

Ainsi, la conception d'un avion se trouve confrontée à l'association de nombreuses disciplines<br />

couplées. Ces disciplines peuvent être chacune abordée de plusieurs points de vue <strong>et</strong> suivant<br />

plusieurs niveaux de complexité. Le concepteur devra choisir parmi les diérents modèles proposés<br />

par les disciplines en fonction de la délité requise sur les performances à calculer.<br />

1.1.3 Démarche de conception<br />

Découpage de la démarche de conception<br />

La démarche de conception est conventionnellement séquencée en trois phases successives,<br />

nommées respectivement conceptual design, preliminary design <strong>et</strong> d<strong>et</strong>ailed design. Chacune d'entre<br />

elles ge progressivement la dénition du véhicule considéré. Elles s'appuient chacune sur un<br />

processus de conception faisant intervenir des modélisations adaptées à ses objectifs propres. Le<br />

schéma 1.2 issu de [Ray94] illustre leurs objectifs respectifs.<br />

Chacune de ces étapes possède un rôle bien déni.<br />

Étude de concept : (conceptual design) c<strong>et</strong>te phase perm<strong>et</strong> de réaliser les grands choix de<br />

conception. Elle va perm<strong>et</strong>tre de se faire une première idée de la conguration de l'appareil,


14 La conception d'un avion en phase avant-proj<strong>et</strong><br />

❅<br />

Étude de concept<br />

• Quelles spécications doit on suivre ?<br />

❅<br />

Spécications ❅ • À quoi le concept doit il ressembler ? Poids ? Coût ?<br />

<br />

<br />

<br />

• Quels compromis doivent être pris en compte ?<br />

• Quelles technologies doivent être utilisées ?<br />

• Ces spécications mènent elles à des congurations<br />

❛ ❛❛❛❛❛❛❛<br />

faisable ? rentable ?<br />

❛ ❛❛❛❛❛❛❛<br />

❛ ❛❛❛❛❛❛❛<br />

✦ ✦✦✦✦✦✦✦<br />

Étude préliminaire<br />

• Fixer la conguration<br />

• Dénir la surface (lofting)<br />

• Développer une base de données analytiques<br />

• Concevoir les éléments majeur ?<br />

• Développer un modèle analytique de calcul du coût<br />

✦ ✦✦✦✦✦✦✦<br />

Conception détaillée<br />

• Concevoir les pieces à fabriquer<br />

• Concevoir les procédés de fabrication<br />

• Tester les principaux éléments<br />

• Finaliser les estimations de poids<br />

<strong>et</strong> de performances<br />

Fabrication<br />

✦ ✦✦✦✦✦<br />

✦ ✦<br />

Fig. 1.2 Phases de la démarche de conception [Ray94].<br />

de ses principales dimensions <strong>et</strong> caractéristiques, comme le nombre de moteurs ou la nature<br />

des propulseurs, le nombre de surfaces portantes <strong>et</strong> de contrôle <strong>et</strong>c. . ..<br />

À ce niveau, la relative simplicité des modèles 4 perm<strong>et</strong> des <strong>étude</strong>s paramétriques nombreuses<br />

<strong>et</strong> variées, à même d'explorer toutes les options <strong>et</strong> de dégager les paramètres les<br />

plus discriminants. On relèvera cependant que la qualité des réponses peut très rapidement<br />

être mise en défaut lors de l'<strong>étude</strong> de nouveaux concepts <strong>et</strong> de nouvelles technologies, pour<br />

lesquels la connaissance est parcellaire <strong>et</strong> peu able.<br />

Étude préliminaire : (preliminary design) lorsque la conguration de l'appareil est gée dans<br />

ses grandes lignes, c<strong>et</strong>te phase vient préciser ses caractéristiques, avec un niveau de dénition<br />

plus élevé <strong>et</strong> estimer de façon plus aboutie ses performances, en réponse aux spécications<br />

initiales. Dans c<strong>et</strong>te phase, la mise en ÷uvre d'outils <strong>et</strong> de modèles plus sophistiqués<br />

requiert un eort de calcul plus conséquent : toute remise en cause des choix faits à l'étape<br />

précédente est alors coûteuse.<br />

4 Ces modèles peuvent être simples dans leur expression, mais traduire une connaissance solide, lorsqu'il s'agit<br />

de technologies maîtrisées sur des types d'appareil bien connus.


1.1 Présentation générale de la conception avion 15<br />

Conception détaillée : (d<strong>et</strong>ailed design) C<strong>et</strong>te phase prend le relais de l'étape précédente en<br />

anant le véhicule au niveau requis pour lancer sa fabrication. C'est à ce niveau de connaissance<br />

très intime du véhicule que la qualité des estimations est la plus proche de la<br />

réalité. À ce niveau, toute remise en cause des choix faits aux étapes précédentes s'avère<br />

extrêmement coûteuse, voire impossible.<br />

Compte tenu de ses objectifs propres, chacune de ces phases va faire appel à un niveau de<br />

connaissance <strong>et</strong> de modélisation adapté. La première d'entre elles doit explorer le domaine de conception<br />

de la façon la plus vaste possible, quitte à estimer de façon peu dèle les caractéristiques<br />

attendues, pourvu que leurs tendances restent acceptables. La seconde <strong>et</strong> la troisième doivent a<br />

contrario analyser en détail une conguration, <strong>et</strong>, dans la mesure du possible, son voisinage, en<br />

s'attachant à être le plus proche possible de la réalité physique du véhicule.<br />

C<strong>et</strong>te présentation en phases reste arbitraire, bien que couramment admise <strong>et</strong> pratiquée. La<br />

frontière entre les diérentes phases est généralement formalisée par chaque constructeur, en<br />

fonction de son expérience <strong>et</strong> des savoir-faire internes à ses équipes.<br />

La tendance actuelle, au travers des approches de conception, est triple :<br />

formaliser <strong>et</strong> automatiser le processus de conception, <strong>et</strong> pour cela tenter de réduire les<br />

délais de chacune de ces phases, <strong>et</strong> essentiellement de la seconde, de façon à réduire le cycle<br />

compl<strong>et</strong> de conception ;<br />

faciliter les allers <strong>et</strong> r<strong>et</strong>ours entre les diérentes phases, de façon à disposer d'une meilleure<br />

conance dans le calcul des performances du concept, sans pour autant ger la conguration<br />

prématurément ;<br />

conserver le plus longtemps possible des propositions alternatives, situation qui n'est actuellement<br />

accessible qu'au niveau de la phase de conceptual design, mais qui peut être concrétisée<br />

lorsque les deux points précédents sont maîtrisés.<br />

1.1.4 Paramètres de conception en phase d'avant-proj<strong>et</strong><br />

Pour la conception d'un avion en phase d'avant-proj<strong>et</strong> (ou phase de conceptual design), nous<br />

allons limiter le nombre de paramètres servant à décrire l'avion. Ces paramètres proviennent en<br />

général de l'expérience des concepteurs, <strong>et</strong> correspondent à ceux qui impactent au premier ordre<br />

les objectifs de conception établis dans le cahier des charges. Nous allons présenter dans c<strong>et</strong>te<br />

section les principaux paramètres qui peuvent être utilisés comme des variables de conception,<br />

dans le cadre plus précis de cas-tests de type avion d'aaires supersonique.<br />

Les paramètres qui perm<strong>et</strong>tent de décrire la géométrie de l'avion sont illustrés sur la gure<br />

1.3. Leur description, ainsi que celle de paramètres plus divers, sont données dans le tableau 1.1.<br />

1.1.5 Principales sorties en conception en phase avant-proj<strong>et</strong><br />

Nous donnons dans le tableau 1.2 certaines sorties que peuvent fournir les codes de conception.<br />

Dans les sections qui suivent, nous allons illustrer la phase de conceptual design avec la description<br />

de deux cas-tests d'avion de type SSBJ 5 . Ces deux cas-tests seront ensuite repris pour<br />

illustrer les diérentes stratégies d'optimisation étudiées (cf chapitre 2).<br />

5 SSBJ : Super Sonic Business J<strong>et</strong>.


16 La conception d'un avion en phase avant-proj<strong>et</strong><br />

D fus<br />

✛ ✲<br />

t<br />

✻<br />

.<br />

❄<br />

★<br />

❅❅<br />

.❤❤❤❤❤❤❤❤❤❤❤✭<br />

✧✭✭✭✭✭✭✭✭✭✭<br />

✛<br />

✲<br />

c<br />

✻<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁<br />

✁ D mot<br />

✛ ✲<br />

.<br />

✻<br />

L mot<br />

✁<br />

.<br />

<br />

❆ ✆<br />

✻<br />

❆<br />

❆<br />

❆<br />

❆<br />

❆<br />

❆<br />

❆<br />

❆<br />

❆<br />

❆ C r<br />

❆<br />

❆<br />

❆<br />

❆<br />

❆<br />

❆<br />

❆<br />

❆<br />

✻<br />

L fus<br />

C tip<br />

❄<br />

❆<br />

❆❆<br />

❄<br />

<br />

✆<br />

✘✘ ✘✘ ✘ ✘✘ ✘ ✘✘ ✘❳❳ ❄<br />

❳❳<br />

❳ ❳❳ Φ<br />

❳ 100 ❳❳<br />

❳<br />

✛<br />

b<br />

✲<br />

❄<br />

❅❅<br />

<br />

t der<br />

.<br />

✻<br />

❄<br />

★❤❤❤❤❤❤❤❤❤❤❤✭<br />

✧✭✭✭✭✭✭✭✭✭✭<br />

✛<br />

✲<br />

c der<br />

❅ ❅<br />

Φ 0<br />

b der<br />

✛Ctip<br />

der<br />

✲<br />

✟<br />

✟<br />

✟<br />

✟<br />

✟<br />

✟<br />

✁ ✁ ✟<br />

✁<br />

✟<br />

✟<br />

Φ der<br />

0 ✟<br />

Φ ✄ ☎<br />

✟<br />

der ✁ ✁ 100<br />

✄ ☎✟<br />

✟<br />

✁<br />

✟✟<br />

✁<br />

✛<br />

✲<br />

Cr<br />

der<br />

✻<br />

❄<br />

Fig. 1.3 Une possibilité de paramètres géométriques de l'avion.


1.1 Présentation générale de la conception avion 17<br />

Type Nom Description<br />

Géométrie<br />

Voilure S surface de la voilure<br />

b<br />

envergure de la voilure<br />

AR allongement relatif voilure(AR = b2 S )<br />

C r corde à l'emplanture de l'aile<br />

(généralement dans le plan de symétrie)<br />

C tip corde à l'extrémité de l'aile<br />

λ ou Xl w element (λ = C tip<br />

C r<br />

)<br />

Φ 0 ou Λ èche en bord d'attaque voilure<br />

Φ 100 èche en bord de fuite voilure<br />

c<br />

corde en une section de l'aile<br />

t<br />

épaisseur en une section de l'aile<br />

épaisseur relative<br />

t<br />

c ou tw c<br />

Dérive S der surface de la dérive<br />

b der envergure de la dérive<br />

AR der allongement relatif de la dérive<br />

Cr<br />

der corde à l'emplanture de la dérive<br />

Ctip<br />

der corde à l'extrémité de la dérive<br />

λ der ou Xl t element dérive<br />

Φ der<br />

0 èche en bord d'attaque dérive<br />

Φ der<br />

100 èche en bord de fuite dérive<br />

c der corde en une section de la dérive<br />

t der épaisseur en une section de la dérive<br />

der ou t t c épaisseur relative dérive<br />

t<br />

c<br />

Fuselage D fus diamètre du fuselage<br />

L fus longueur du fuselage<br />

Moteur D mot diamètre du moteur<br />

L mot longueur du moteur<br />

Paramètres de vol<br />

Divers<br />

h<br />

M<br />

N mot<br />

altitude de vol<br />

nombre de Mach en croisière<br />

nombre de moteurs<br />

type de propulseur<br />

architecture générale<br />

(monoplan/biplan, <strong>et</strong>c. . .)<br />

Tab. 1.1 Les paramètres de conception géométriques


18 La conception d'un avion en phase avant-proj<strong>et</strong><br />

Discipline Nom Description<br />

Structure<br />

Propulsion<br />

Aérodynamique<br />

Performance<br />

T OW ou W T<br />

W F<br />

W E<br />

W W<br />

W D<br />

σ<br />

Θ<br />

masse totale au décollage<br />

masse de carburant<br />

masse des moteurs<br />

masse des ailes<br />

masse de la dérive<br />

eorts physiques exercés sur l'avion<br />

vrillage de l'aile<br />

F<br />

poussée<br />

T emp température en sortie du moteur<br />

SF C consommation spécique (Specic Fuel Consumption)<br />

D<br />

traînée<br />

L<br />

portance<br />

L/D nesse<br />

R<br />

D décollage<br />

V approche<br />

rayon d'action<br />

distance au décollage<br />

vitesse en approche<br />

1.2 Le cas-test Sobieski<br />

Tab. 1.2 Les sorties des disciplines<br />

Le cas-test d'avion d'aaires supersonique proposé par Sobieszczanski-Sobiesky [SAS98] est<br />

dédié aux formulations MDO. Il perm<strong>et</strong> la description <strong>et</strong> l'analyse simpliée des performances<br />

d'un véhicule de type avion d'aaires supersonique. C'est un code de phase avant-proj<strong>et</strong> (ou<br />

conceptual design) <strong>et</strong> présente l'avantage de ne pas être coûteux en temps de calcul.<br />

1.2.1 Description du cas-test<br />

Le but de ce cas-test est de chercher la conguration qui maximise le rayon d'action R, tout<br />

en respectant certaines contraintes disciplinaires.<br />

Nous voyons sur le schéma 1.4 l'organisation du cas test.<br />

Quatre disciplines composent ce cas-test. Les disciplines structure, aérodynamique <strong>et</strong> propulsion<br />

sont couplées : les sorties de l'une seront des entrées pour les autres, <strong>et</strong> chaque variation dans<br />

l'une va entraîner des changements pour les autres. La discipline performance prend en entrée<br />

des sorties des trois autres disciplines pour calculer le rayon d'action. Chacune de ces disciplines<br />

possède plusieurs types de variables :<br />

les variables locales : ces variables sont propres à une discipline, par exemple l'element λ<br />

pour la structure ;<br />

les variables partagées : ces variables sont communes à deux disciplines au moins, comme<br />

par exemple l'altitude h ;<br />

les variables de couplage : certaines sorties de discipline sont des entrées pour d'autres. Par


1.2 Le cas-test Sobieski 19<br />

Variables de conception<br />

Codes de conception<br />

W E ✛ ESF ✛ Propulsion<br />

❄<br />

✲ SF C<br />

[t/c, h, M, AR, Λ, S ref ]<br />

t/c, AR t/c, h, M<br />

Λ, S ref AR, Λ, S ref [M, h] [M, h]<br />

❄<br />

Structure<br />

❄<br />

❄<br />

✲ W ✲<br />

T , Θ<br />

W T , W F<br />

[λ, x]<br />

✻<br />

❄<br />

Aérodynamique ❄<br />

❄<br />

L ✛<br />

✲ D<br />

✲ L/D<br />

✻<br />

[C f ]<br />

✻<br />

❄<br />

[T ]<br />

❄<br />

Performance<br />

<strong>Optimisation</strong><br />

❄<br />

σ 1→5 ≤ 1.09<br />

0.96 ≤ σ ≤ 1.04<br />

❄<br />

❄<br />

dp/dx ≤ 1.04 0.5 ≤ ESF ≤ 1.5<br />

DT ≤ 0<br />

T emp ≤ 1.02<br />

❄<br />

R<br />

Fig. 1.4 Diagramme du cas-test Sobieski.<br />

exemple, la masse totale W T est calculée par la discipline structure <strong>et</strong> sert d'entrée pour<br />

la discipline aérodynamique.<br />

Nous allons maintenant voir plus en détail chacune de ces disciplines.<br />

La discipline structure<br />

La discipline structure (cf tableau 1.3) a pour objectif de calculer les masses <strong>et</strong> les eorts<br />

mécaniques subis par l'avion.<br />

Elle prend en entrée les principales caractéristiques géométriques de l'appareil, telles que<br />

l'allongement relatif AR, la èche Λ, l'épaisseur relative t/c <strong>et</strong> la surface de référence S REF . Ses<br />

variables locales sont ici la section de caisson x <strong>et</strong> l'element λ.<br />

Elle va calculer les contraintes subies par l'aile σ 1 → σ 5 , ainsi que l'angle de vrillage de la<br />

voilure Θ, en fonction de la portance L fournie par la discipline aérodynamique <strong>et</strong> des dimensions<br />

de l'avion. Elle va ensuite calculer la masse de carburant W F que peut contenir l'avion en fonction<br />

des dimensions, <strong>et</strong> la masse totale W T , en fonction des dimensions, de la masse des moteurs W E<br />

fournie par la discipline propulsion <strong>et</strong> de la masse totale estimée ŴT (ici égale à la portance).


20 La conception d'un avion en phase avant-proj<strong>et</strong><br />

type nom description unité min max<br />

entrée<br />

locale λ element 0.1 0.4<br />

. x section caisson 0.75 1.25<br />

partagée AR allongement relatif 2.5 8.5<br />

. Λ èche des ailes deg 40 70<br />

. t/c épaisseur relative 0.01 0.09<br />

. S REF surface de référence voilure ft 2 500 1500<br />

aérodynamique L portance lb . .<br />

propulsion W E masse moteur lb . .<br />

sortie<br />

constante<br />

interne<br />

W T masse totale lb . .<br />

W F masse carburant lb . .<br />

Θ vrillage de la voilure 0.98 1.02<br />

σ 1 → σ 5 eorts sur l'aile (stress on wing) . 1.09<br />

W F masse de carburant non consommable lb 2000<br />

W O masses diverses lb 25000<br />

N z facteur de charge extrême g 6<br />

t = t/c S REF √ SREF AR<br />

b = √ S REF AR<br />

R = 1+2λ<br />

3(1+λ)<br />

Θ = pf(x, b/2, R, L)<br />

F o1 = pf(x)<br />

Ŵ T = L<br />

W W = F o1(0.0051(ŴT N Z ) 0.557 S REF 0.649 AR 0.5 (t/c) −0.4 (1 + λ) 0.1 (0.1875S REF ) 0.1 /cos(Λ))<br />

W F W = (5S REF /18)(2t/3)42.5<br />

W F = W F W + W F O<br />

W T = W O + W w + W F + W E<br />

σ 1 → σ 5 = pf(t/c, L, x, b/2, R)<br />

Tab. 1.3 Discipline structure du cas-test Sobieski.<br />

La discipline aérodynamique<br />

La discipline aérodynamique présentée dans le tableau 1.4 calcule les caractéristiques aérodynamiques<br />

résultantes de l'avion, c'est-à-dire la portance, la traînée, la nesse <strong>et</strong> le gradient de<br />

pression sur l'aile.<br />

Elle prend en entrée toutes les variables partagées : les variables traduisant les dimensions<br />

de l'appareil vues précédemment avec la discipline structure, ainsi que les variables exprimant<br />

les conditions de vol que sont l'altitude h <strong>et</strong> le nombre de Mach M. Sa variable locale est le<br />

coecient de traînée C f .<br />

C<strong>et</strong>te discipline calcule la portance L (ici directement égale à la masse totale W T fournie par<br />

la discipline structure), la traînée D en fonction des dimensions de l'avion, des dimensions du


1.2 Le cas-test Sobieski 21<br />

moteur ESF (Engine Scale Factor) <strong>et</strong> de la masse totale W T , pour en déduire la nesse L/D.<br />

Le gradient de pression sur la voilure dp/dx ne dépend ici que de l'épaisseur relative t/c.<br />

type nom description unité min max<br />

entrée<br />

locale C f coecient de frottement 0.75 1.25<br />

partagée AR allongement relatif 2.5 8.5<br />

. Λ èche des ailes deg 40 70<br />

. t/c épaisseur relative 0.01 0.09<br />

. S REF surface de référence voilure ft 2 500 1500<br />

. h altitude de vol ft 30000 60000<br />

. M Mach de croisière 1.4 1.8<br />

structure W T masse totale lb . .<br />

structure Θ vrillage . .<br />

propulsion ESF facteur d'échelle moteur . .<br />

sortie<br />

constante<br />

interne<br />

si h ≤ 36089ft<br />

sinon<br />

L portance lb . .<br />

D traînée lb . .<br />

L/D nesse . .<br />

dp/dx gradient de pression . 1.04<br />

W F masse de carburant non consommable lb 2000<br />

W O masses diverses lb 25000<br />

N z facteur de charge extrême g 6<br />

W BE masse moteur de référence lb 4360<br />

CD minM


22 La conception d'un avion en phase avant-proj<strong>et</strong><br />

La discipline propulsion<br />

La discipline propulsion présentée dans le tableau 1.5 calcule les principales caractéristiques<br />

du moteur, ici ses dimensions, sa masse, sa consommation <strong>et</strong> sa température.<br />

Elle prend en entrée les conditions de vol : l'altitude h <strong>et</strong> le nombre de Mach M. Sa variable<br />

locale T traduit la position de la man<strong>et</strong>te des gaz.<br />

Elle calcule la température en fonction de ces dernières variables. La dimension des moteurs<br />

ESF est fonction de la traînée D fournie par l'aérodynamique <strong>et</strong> de la variable T . La consommation<br />

spécique de l'avion provient d'une formule semi-empirique, qui dépend des variables T ,<br />

h <strong>et</strong> M. La masse des moteurs dépend de sa dimension ESF . La sortie DT perm<strong>et</strong> de vérier si<br />

la man<strong>et</strong>te des gaz est susamment enclenchée pour fournir la poussée nécessaire.<br />

type nom description unité min max<br />

entrée<br />

locale T position man<strong>et</strong>te des gaz (initial throttle<br />

0.1 1<br />

s<strong>et</strong>ting)<br />

partagée h altitude de vol ft 30000 60000<br />

. M Mach de croisière 1.4 1.8<br />

aérodynamique D traînée lb . .<br />

sortie<br />

SF C consommation spécique de carburant hr −1 . .<br />

W E masse moteur lb . .<br />

ESF facteur d'échelle moteur 0.5 1.5<br />

DT diérence entre la poussée demandée <strong>et</strong> . 0<br />

la poussée disponible<br />

T emp température . 1.02<br />

constante<br />

interne<br />

W F masse de carburant non consommable lb 2000<br />

W O masses diverses lb 25000<br />

N z facteur de charge extrême g 6<br />

W BE masse moteur de référence lb 4360<br />

T = T ∗ 16168.<br />

T emp = pf(M, h, T )<br />

ESF = (D/3)/T<br />

SF C = 1.1324 + 1.5344M − 3.2956e −05 h − 1.6379e −04 T − 0.31623M 2 + 8.2138e −06 Mh<br />

−10.496e −05 T M − 8.574e −11 h 2 + 3.8042e −09 T h + 1.0600e −08 T 2<br />

W E = 3W BE ESF 1.05<br />

T UA = 11484 + 10856M − 0.50802h + 3200.2M 2 − 0.29326Mh + (6.8572e −06 )h 2<br />

DT = T − T UA<br />

Tab. 1.5 Discipline propulsion du cas-test Sobieski.


1.2 Le cas-test Sobieski 23<br />

La discipline performance<br />

La discipline performance présentée dans le tableau 1.6 calcule le rayon d'action avec la formule<br />

de Brégu<strong>et</strong> (cf équation (1.1)). Elle prend en entrée les conditions de vol M <strong>et</strong> h. La discipline<br />

structure fournit la masse totale W T <strong>et</strong> la masse de carburant W F , la discipline aérodynamique<br />

fournit la nesse L/D <strong>et</strong> la propulsion fournit la consommation spécique SF C.<br />

type nom description unité min max<br />

entrée<br />

partagée h altitude de vol ft 30000 60000<br />

. M Mach de croisière 1.4 1.8<br />

structure W T masse totale lb . .<br />

aérodynamique L/D nesse lb . .<br />

propulsion SF C consommation spécique de carburant hr −1 . .<br />

sortie<br />

R rayon d'action Nm . .<br />

interne<br />

si h ≤ 36089<br />

sinon<br />

n si<br />

R = M(L/D)661√ θ<br />

SF C<br />

θ = 1 − 6.875e −06 h<br />

θ = 0.7519<br />

( )<br />

W T<br />

ln<br />

W T − W F<br />

Tab. 1.6 Discipline performance du cas-test Sobieski.<br />

La fonction pf<br />

Elle est utilisée dans la plupart des disciplines. Selon les cas, la fonction pf nous donne une<br />

approximation linéaire ou quadratique de certaines variables.<br />

1.2.2 Problème d'optimisation associé<br />

Nous allons voir ici le problème d'optimisation qui traduit la démarche de conception globale.<br />

Nous allons aussi dénir des fonctions objectifs spéciques à chaque discipline, qui serviront à<br />

poser des problèmes d'optimisation locaux.<br />

Le problème d'optimisation global<br />

La discipline performance nous donne le rayon d'action, qui sera notre fonction à maximiser.<br />

Les diérentes disciplines nous donnent au total 12 contraintes d'inégalité sur leurs sorties. Le<br />

problème d'optimisation à résoudre est alors le suivant :


24 La conception d'un avion en phase avant-proj<strong>et</strong><br />

⎧<br />

Soit X = [λ, x, C f , T, AR, Λ, t/c, S REF , h, M]<br />

⎪⎨<br />

⎪⎩<br />

max R(X)<br />

X<br />

sous contraintes :<br />

0.98 ≤ Θ(X) ≤ 1.02<br />

σ 1 → σ 5 (X) ≤ 1.09<br />

dp/dx(X) ≤ 1.04<br />

0.5 ≤ ESF (X) ≤ 1.5<br />

DT (X) ≤ 0<br />

T emp(X) ≤ 1.02<br />

La résolution du problème d'optimisation (1.2) va nous mener à la conguration optimale<br />

qui maximise le rayon d'action.<br />

Les fonctions objectifs disciplinaires<br />

Les disciplines peuvent aussi avoir un rôle dimensionnant. Elles doivent alors choisir la valeur<br />

de leurs variables locales. Il faut alors trouver des objectifs locaux pour chaque discipline. Chacune<br />

résout un problème d'optimisation qui lui est propre, <strong>et</strong> renvoie une réponse optimisée par rapport<br />

à ses variables locales.<br />

Avec ce cas-test, on peut trouver des fonctions objectifs disciplinaires allant dans le sens de<br />

la fonction coût globale, c'est-à-dire maximiser le rayon d'action R. On peut montrer qu'il s'agit<br />

de minimiser la masse totale W T pour la discipline structure, de maximiser la nesse L/D pour<br />

la discipline aérodynamique <strong>et</strong> de minimiser la consommation spécique SF C pour la discipline<br />

propulsion.<br />

On analyse la formule du rayon d'action :<br />

R = M(L/D)661√ θ<br />

SF C<br />

(1.2)<br />

( )<br />

W T<br />

ln<br />

. (1.3)<br />

W T − W F<br />

Nous souhaitons connaître les sensibilités du rayon d'action aux variables locales que nous allons<br />

nommer x = [x 1 , x 2 , x 3 ] : x 1 pour la discipline structure, x 2 pour la discipline aérodynamique<br />

<strong>et</strong> x 3 pour la discipline propulsion.<br />

R(x + ∆x) = R(x) + ∂R<br />

∂x 1<br />

∆x 1 + ∂R<br />

∂x 2<br />

∆x 2 + ∂R<br />

∂x 3<br />

∆x 3 .<br />

Soit Y i une sortie de la discipline i qui soit une entrée de la discipline performance, on a :<br />

∂R<br />

= ∂R ∂Y i<br />

.<br />

∂x i ∂Y i ∂x i<br />

On cherche à maximiser le rayon d'action : lorsque ∂R est négatif, on cherchera à minimiser<br />

∂Y i<br />

Y i par rapport aux variables locales x i . Dans le cas contraire on cherchera à maximiser Y i . Nous<br />

allons voir cela en détail pour les trois disciplines.<br />

La discipline structure<br />

Nous avons :<br />

∂R<br />

∂x 1<br />

=<br />

∂R<br />

∂W T<br />

∂W T<br />

∂x 1<br />

+ ∂R<br />

∂W F<br />

∂W F<br />

∂x 1<br />

.


1.3 Le cas-test Dassault 25<br />

On peut remarquer que la masse de carburant W F ne dépend que des variables partagées,<br />

d'où ∂W F<br />

= 0. Nous ne nous en occuperons pas dans les optimisations disciplinaires.<br />

∂x 1<br />

∂R α 1 W F<br />

= −<br />

∂W T W T (W T − W F ) , α 1 > 0.<br />

∂R<br />

La masse de carburant est inférieure à la masse totale, nous avons donc < 0. Par<br />

∂W T<br />

conséquent, nous allons chercher à minimiser la masse totale W T par rapport aux variables<br />

locales x 1 , an d'augmenter la contribution du terme ∂R ∆x 1 .<br />

∂x 1<br />

La discipline aérodynamique<br />

Nous avons :<br />

∂R<br />

=<br />

∂R ∂(L/D)<br />

,<br />

∂x 2 ∂(L/D) ∂x 2<br />

<strong>et</strong><br />

∂R<br />

∂(L/D) = α 2(L/D), α 2 > 0,<br />

∂R<br />

d'où > 0, on cherchera alors à maximiser la nesse L/D par rapport à la variable<br />

∂(L/D)<br />

x 2 , an d'augmenter la contribution du terme ∂R ∆x 2 .<br />

∂x 2<br />

La discipline propulsion<br />

Nous avons :<br />

<strong>et</strong><br />

∂R<br />

∂x 3<br />

=<br />

∂R ∂SF C<br />

,<br />

∂SF C ∂x 3<br />

∂R<br />

∂SF C = − α 3<br />

SF C 2 , α 3 > 0,<br />

∂R<br />

d'où < 0, on cherchera alors à minimiser la consommation spécique SF C par<br />

∂SF C<br />

rapport à la variable x 3 , an d'augmenter la contribution du terme ∂R ∆x 3 .<br />

∂x 3<br />

Nous allons voir dans la section suivante un autre exemple de cas-test du même type.<br />

1.3 Le cas-test Dassault<br />

Ce cas-test d'avion d'aaires supersonique a été proposé par DASSAULT dans le cadre du<br />

proj<strong>et</strong> OMD-RNTL 6 . C'est un cas-test de type conception avant-proj<strong>et</strong>. Il perm<strong>et</strong> d'évaluer les<br />

performances d'un avion d'aaires supersonique avec des codes de calcul simpliés. Il est décrit<br />

brièvement dans c<strong>et</strong>te partie. Pour plus de détails, nous renvoyons le lecteur à [Rav07]. Certaines<br />

des formules proviennent de [Ray94], qui est l'une des grandes références dans le domaine de la<br />

conception avion.<br />

1.3.1 Description du cas-test<br />

L'objectif ici sera de minimiser la masse au décollage de l'appareil, tout en respecant certaines<br />

contraintes sur des performances, comme le rayon d'action ou la distance de décollage.


26 La conception d'un avion en phase avant-proj<strong>et</strong><br />

Conception<br />

T OW<br />

Structure<br />

✛<br />

❄<br />

traînée<br />

✻<br />

✻<br />

portance<br />

Aérodynamique<br />

❄<br />

✻<br />

taille moteur(F 0)<br />

Propulsion<br />

masse moteur(F 0)<br />

T OW , F 0<br />

❄<br />

Performance<br />

Rayon d'action<br />

Distance décollage<br />

Vitesse d'approche<br />

Fig. 1.5 Diagramme du cas-test Dassault.<br />

L'organisation des disciplines est présentée sur la gure 1.5.<br />

Il y a trois disciplines de conception :<br />

la discipline structure évalue les masses, dont la masse de l'avion au décollage, en fonction<br />

des paramètres de forme, de la masse au décollage elle-même (estimée), de la portance <strong>et</strong><br />

de la masse moteur. La masse au décollage est alors réactualisée ;<br />

l'aérodynamique calcule la portance nécessaire en croisière en fonction de la masse, ainsi<br />

que la traînée, en fonction des paramètres de forme, dont les dimensions du moteur fournies<br />

par la propulsion ;<br />

la discipline propulsion dimensionne les moteurs pour atteindre la poussée nécessaire.<br />

Elle inue donc sur la discipline aérodynamique, au travers des dimensions des moteurs<br />

<strong>et</strong> sur la discipline structure avec la masse des moteurs.<br />

Le tableau 1.7 présente les diérents paramètres choisis pour c<strong>et</strong>te <strong>application</strong>.<br />

Dans ce cas-test, l'équilibre entre ces trois disciplines est assuré par la convergence des variables<br />

que sont la masse au décollage T OW <strong>et</strong> la poussée F 0. Les autres sorties, telles que la<br />

portance, la traînée ou la masse du moteur dépendent directement de ces dernières, <strong>et</strong> sont donc<br />

considérées comme transparentes. Le tableau 1.8 présente les variables de couplage que l'on va<br />

chercher à équilibrer.<br />

Lorsque l'équilibre disciplinaire est eectué, c'est-à-dire que l'on a déni les valeurs des variables<br />

T OW <strong>et</strong> F 0 pour une conguration donnée, on peut calculer certaines sorties qui seront<br />

les critères dimensionnants pour l'avion. Ces critères peuvent être classés en deux catégories.<br />

• Les performances en croisière :<br />

6 Le site du proj<strong>et</strong> : http ://omd.lri.fr.


1.3 Le cas-test Dassault 27<br />

Rubrique Variable Unité Description<br />

Conditions de vol Z m altitude<br />

X mach<br />

nombre de Mach<br />

W fuel kg masse de carburant<br />

Géométrie Voilure S m 2 surface de référence voilure<br />

φ w 0 deg èche bord d'attaque voilure<br />

φ w 100 deg èche bord de fuite voilure<br />

Xl w<br />

element voilure<br />

épaisseur relative voilure<br />

t w c<br />

Géométrie Dérive φ t 0 deg èche bord d'attaque dérive<br />

φ t 100 deg èche bord de fuite dérive<br />

Xl t<br />

element dérive<br />

épaisseur relative pour la dérive<br />

t t c<br />

Géométrie Fuselage D fus m diamètre du fuselage<br />

Divers α deg incidence max<br />

Xfac<br />

masse à l'atterrissage<br />

masse au décollage<br />

Tab. 1.7 Variables de conception du cas-test Dassault<br />

Rubrique Variable Unité Description<br />

Interaction T OW kg masse au décollage<br />

F 0 N poussée<br />

Tab. 1.8 Variables d'interaction du cas-test Dassault<br />

le rayon d'action : un avion doit pouvoir franchir une distance donnée an de s'inscrire<br />

dans le segment de marché souhaité. Le rayon d'action est calculé avec la formule de<br />

Bregu<strong>et</strong> (cf équation (1.1)).<br />

• Les performances basse vitesse, l'avion doit respecter les contraintes réglementaires <strong>et</strong> liées<br />

aux aéroports :<br />

la distance au décollage : l'avion doit pouvoir décoller sur une distance acceptable an<br />

d'accéder à la plupart des aéroports,<br />

la vitesse d'approche : l'avion doit pouvoir voler à une vitesse susamment basse sans<br />

risquer de décrocher, an d'atterrir dans de bonnes conditions.<br />

Les critères en croisière <strong>et</strong> les critères basse vitesse sont antagonistes. En e<strong>et</strong>, une conguration<br />

optimisée pour le rayon d'action seulement n'aura jamais la portance nécessaire en basse<br />

vitesse pour satisfaire les critères de distance de décollage <strong>et</strong> de vitesse d'approche.


28 La conception d'un avion en phase avant-proj<strong>et</strong><br />

1.3.2 Problème d'optimisation associé<br />

Le problème proposé ici est de minimiser la masse totale au décollage (T OW ) tout en respectant<br />

les contraintes suivantes sur les sorties de la discipline performance :<br />

⎧<br />

min T OW<br />

⎪⎨<br />

⎪⎩<br />

R action ≥ 6500 km,<br />

D décollage ≤ 1828 m,<br />

V approche ≤ 70 m.s −1 .<br />

On pourra bien sûr faire d'autres choix pour ce problème, <strong>et</strong> permuter une des contraintes<br />

avec la fonction objectif. Le problème peut alors devenir le suivant :<br />

⎧<br />

min R action<br />

Conclusion<br />

⎪⎨<br />

⎪⎩<br />

T OW ≤ 50000 kg,<br />

D décollage ≤ 1828 m,<br />

V approche ≤ 70 m.s −1 .<br />

Nous avons donné dans ce chapitre une vision globale de la conception avion, avec ses différentes<br />

disciplines, ses diérentes phases <strong>et</strong> ses diérents paramètres de conception.<br />

Ces notions ont été illustrées à l'aide de deux cas-tests. Ces derniers sont de même nature :<br />

ils représentent assez bien l'organisation qui existe entre les diérentes disciplines <strong>et</strong> perm<strong>et</strong>tent<br />

de tester plusieurs stratégies de conception. Cependant, la validité physique des modèles est<br />

discutable : on ne r<strong>et</strong>rouve pas la complexité des problèmes industriels, dans lesquels on doit<br />

gérer un grand nombre de variables <strong>et</strong> où le temps d'exécution des modèles est conséquent. Ils<br />

perm<strong>et</strong>tent tout de même de tester diérentes approches de conception.<br />

Il va falloir maintenant associer le processus de conception (ici les modèles qui perm<strong>et</strong>tent<br />

de décrire l'avion) au processus d'optimisation (les méthodes <strong>et</strong> algorithmes d'optimisation).<br />

Nous allons voir dans le chapitre suivant les stratégies d'optimisation que l'on peut utiliser<br />

pour appuyer la démarche de conception. Ces méthodes sont aussi appelées formulations pour<br />

l'optimisation <strong>multidisciplinaire</strong> (ou formulations MDO).<br />

Nous exposerons aussi l'utilisation de méta-modèles adaptatifs au sein d'un processus d'optimisation,<br />

en l'illustrant avec deux méthodes : BLISS2000 <strong>et</strong> DIVE.<br />

(1.4)<br />

(1.5)


Chapitre 2<br />

Les formulations pour l'optimisation<br />

multi-disciplinaire<br />

Sommaire<br />

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />

2.1 Outils <strong>et</strong> dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

2.1.1 Disciplines, paramètres, sorties <strong>et</strong> notations . . . . . . . . . . . . . . . . 31<br />

2.1.2 Analyse multi-disciplinaire (MDA) . . . . . . . . . . . . . . . . . . . . . 33<br />

2.1.3 Calcul des gradients (GSE) . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

2.1.4 Dénition de l'optimisation . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

2.1.5 Méta-modèles disciplinaires . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

2.2 Les formulations MDO . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

2.2.1 MDF : Multi-Disciplinary Feasible . . . . . . . . . . . . . . . . . . . . . 41<br />

2.2.2 IDF : Individual Disciplinary Feasible . . . . . . . . . . . . . . . . . . . 41<br />

2.2.3 AAO : All-At-Once . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

2.2.4 CO : Collaborative Optimization . . . . . . . . . . . . . . . . . . . . . . 45<br />

2.2.5 BLISS : Bi-Level Integration System Synthesis . . . . . . . . . . . . . . 47<br />

2.2.6 BLISS 2000 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />

2.2.7 DIVE : Disciplinary Interaction Variable Elimination . . . . . . . . . . 51<br />

Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54


30 Les formulations pour l'optimisation multi-disciplinaire<br />

Introduction<br />

Ce chapitre expose plusieurs stratégies d'optimisation multi-disciplinaire. Elles peuvent aussi<br />

être appelées formulations pour l'optimisation multi-disciplinaire, ou bien plus communément<br />

formulations MDO.<br />

Le mot optimisation multi-disciplinaire laisse entendre à tort qu'il ne s'agit ici que d'un<br />

problème d'optimisation. Il faut bien garder à l'esprit que l'optimisation n'est qu'une partie du<br />

processus de conception <strong>et</strong> qu'elle vient appuyer la recherche de la conguration répondant le<br />

mieux à la demande exprimée par le cahier des charges. Il faut considérer les formulations MDO<br />

comme des outils qui perm<strong>et</strong>tent de faciliter la gestion de l'interaction entre les disciplines <strong>et</strong> qui<br />

peuvent servir d'aide à la décision. Le choix des paramètres <strong>et</strong> des modélisations disciplinaires,<br />

la mise en place du problème <strong>et</strong> les décisions importantes concernant les congurations à r<strong>et</strong>enir<br />

sont bien évidemment laissés au jugement des acteurs de la conception.<br />

Il convient tout d'abord de bien dénir les paramètres. Les codes de calcul des diérentes<br />

disciplines prennent en entrée diérentes variables qui peuvent être classées en trois catégories :<br />

les variables locales, spéciques à une seule discipline ;<br />

les variables partagées, qui ont des e<strong>et</strong>s directs sur plusieurs disciplines à la fois ;<br />

les variables d'interaction ou de couplage, qui servent de lien entre les disciplines.<br />

Les variables de couplage sont les entrées d'une discipline qui proviennent d'autres disciplines.<br />

Une modication dans une discipline peut entraîner un changement dans toutes les autres.<br />

L'analyse multi-disciplinaire doit prendre en compte c<strong>et</strong>te interaction <strong>et</strong> chercher un équilibre au<br />

travers des variables de couplage. En général, l'eectuer revient à résoudre la physique autour<br />

de l'avion.<br />

Une fois l'analyse multi-disciplinaire eectuée, on peut calculer les gradients (par exemple<br />

à l'aide des méthodes adjointes). Ce calcul, lorsqu'il est eectué de manière ecace <strong>et</strong> précise,<br />

perm<strong>et</strong>tra d'améliorer fortement les performances des algorithmes d'optimisation.<br />

Les sorties disciplinaires serviront à dénir les objectifs <strong>et</strong> contraintes qui constitueront notre<br />

problème d'optimisation. Les formulations MDO constituent diérentes façons d'assembler les<br />

codes disciplinaires <strong>et</strong> les codes d'optimisation. Chacune possède sa manière de gérer l'interaction<br />

entre les disciplines ou de séparer l'optimisation en plusieurs étapes : certaines variables sont<br />

gérées par l'optimiseur système <strong>et</strong> d'autres sont xées par les disciplines au travers d'optimisations<br />

locales.<br />

Les codes disciplinaires peuvent être très gourmands en temps de calcul, <strong>et</strong> donc peu compatibles<br />

avec un processus d'optimisation, qui va les solliciter un grand nombre de fois. Par<br />

conséquent, il s'avère nécessaire d'utiliser des méta-modèles qui fourniront une approximation<br />

des sorties disciplinaires <strong>et</strong> perm<strong>et</strong>tront de mener à bien l'optimisation. Leur domaine de validité<br />

pourra être amené à évoluer en fonction du déroulement de l'optimisation.<br />

L'utilisation des méta-modèles au sein de processus d'optimisation est un des enjeux majeurs<br />

de la recherche actuelle en optimisation multi-disciplinaire. Les formulations BLISS 2000 <strong>et</strong> DIVE<br />

(cf sections 2.2.6 <strong>et</strong> 2.2.7) proposent des solutions pour construire <strong>et</strong> actualiser les méta-modèles.<br />

La première partie du chapitre (cf section 2.1) présente les éléments qui constituent les formulations<br />

MDO. Les diérentes variables sont exposées (cf section 2.1.1), on dénit le problème<br />

d'équilibre interdisciplinaire <strong>et</strong> on propose des méthodes pour le résoudre (cf section 2.1.2). Une<br />

méthode adjointe pour calculer les gradients dans un contexte multi-disciplinaire est donnée (cf<br />

section 2.1.3). Le problème d'optimisation est posé (cf section 2.1.4) <strong>et</strong> on introduit les méta-


2.1 Outils <strong>et</strong> dénitions 31<br />

modèles disciplinaires (cf section 2.1.5).<br />

Dans une deuxième partie (cf section 2.2), nous allons expliciter certaines formulations MDO,<br />

à savoir MDF, IDF, AAO, CO, BLISS, BLISS 2000 <strong>et</strong> DIVE (cf sections 2.2.1 à 2.2.7).<br />

La mise en ÷uvre de ces formulations <strong>et</strong> l'analyse des résultats obtenus avec les deux cas-tests<br />

du chapitre 1 sont présentées dans les chapitres 3 <strong>et</strong> 4.<br />

2.1 Outils <strong>et</strong> dénitions<br />

2.1.1 Disciplines, paramètres, sorties <strong>et</strong> notations<br />

Dans c<strong>et</strong>te section, nous allons dénir les diérents paramètres <strong>et</strong> variables qui interviennent<br />

dans la conception des systèmes complexes. Nous considérons ici les diérentes variables <strong>et</strong> sorties<br />

comme des vecteurs. Pour simplier l'exposé, nous allons considérer ici un système contenant<br />

deux disciplines (D 1 <strong>et</strong> D 2 ), représenté sur le schéma 2.1.<br />

z<br />

x 1<br />

✲<br />

D 1<br />

Y 1 (x 1 , z, y 2 )<br />

✲<br />

✟ ✟✟✟✟✟✟✯<br />

❍ ❍❍❍❍❍❍❥<br />

✻<br />

y 2 y 1<br />

❄<br />

x 2<br />

✲<br />

D 2<br />

Y 2 (x 2 , z, y 1 )<br />

✲<br />

Fig. 2.1 Système à deux disciplines.<br />

Les diérentes variables <strong>et</strong> sorties représentées sur c<strong>et</strong>te gure sont :<br />

x les variables de conception locales : les variables x 1 sont propres à la discipline 1 <strong>et</strong><br />

les variables x 2 sont propres à la discipline 2 ;<br />

z les variables de conception partagées ;<br />

p = [x, z] l'ensemble des variables de conception ;<br />

y les variables de couplage, ou d'interaction : ici les variables y 1 (resp. 2) proviennent<br />

de la discipline 1 (resp. 2) <strong>et</strong> sont utilisées comme paramètres de la discipline 2 (resp. 1) ;<br />

Y l'ensemble des sorties provenant des codes de calcul disciplinaires : Y 1 représente les<br />

résultats des calculs de la discipline 1 <strong>et</strong> Y 2 ceux de la discipline 2.<br />

Nous avons ici trois types de variables : les variables locales, les variables partagées <strong>et</strong> les variables<br />

d'interaction, que nous allons dénir plus précisément ci-dessous. Ce type de classication<br />

des variables est courant dans la littérature, nous reprenons ici les notations de [SAS98].<br />

Variables locales x<br />

Nous appelons variable locale (ou privée) une variable qui intervient dans une discipline<br />

seulement. Par exemple, le choix du matériau ou l'épaisseur des renforts internes à la structure


32 Les formulations pour l'optimisation multi-disciplinaire<br />

n'aectent pas directement l'écoulement autour de l'avion.<br />

Variables de conception partagées z<br />

Lorsqu'une variable locale possède une interaction avec une autre discipline, il convient de la<br />

considérer comme une variable partagée : les variables partagées (ou publiques) possèdent des<br />

e<strong>et</strong>s directs sur plusieurs disciplines à la fois.<br />

Par exemple, l'épaisseur d'une aile intervient dans le calcul de la traînée <strong>et</strong> dans le calcul en<br />

mécanique des structures.<br />

La détermination de ces paramètres publics est un enjeu majeur dans le processus de conception.<br />

La solution obtenue dépend fortement de l'ensemble des paramètres choisis. Ce choix se<br />

base, d'une part, sur l'art de l'ingénieur, <strong>et</strong> d'autre part, sur l'utilisation des méthodes adjointes :<br />

l'expérience des équipes d'ingénieurs sur le dimensionnement des paramètres de forme doit<br />

être prise en compte pour le choix des critères : par exemple, en aérodynamique, le choix<br />

de la courbure du bord d'attaque de l'aile est le fruit d'une longue expérience ;<br />

les méthodes adjointes perm<strong>et</strong>tent de calculer les gradients de manière ecace. On peut<br />

ainsi eectuer un calcul de gradients de nos critères pour un grand nombre de paramètres.<br />

La distribution de ces gradients sur la surface de la conguration initiale indique les régions<br />

les plus importantes. On peut alors déterminer un ensemble de paramètres pertinents avec<br />

l'utilisation des méthodes adjointes.<br />

Une approche hiérarchique pour déterminer les paramètres les plus signicatifs est présentée<br />

dans [TD02]. La méthode GSE expliquée en section 2.1.3 est une méthode adjointe<br />

qui perm<strong>et</strong> de calculer les gradients dans un contexte de disciplines couplées. Pour la description<br />

des méthodes adjointes, nous renvoyons à [Cea86, MP01, Jam90]. Les méthodes<br />

de diérentiation automatique peuvent être utilisées pour la génération du code adjoint<br />

[Gri00, MP01].<br />

Dans un contexte multi-disciplinaire, nous ne pouvons considérer qu'un nombre réduit de<br />

paramètres partagés.<br />

Variables de couplage y<br />

Les disciplines prennent en entrée des données provenant d'autres disciplines. Ce sont les<br />

variables de couplage ou d'interaction que nous noterons y.<br />

Par exemple, le champ de pression autour de l'aile perm<strong>et</strong>tra à la discipline structure d'en<br />

calculer la déformation. De même, la déformation élastique de l'aile a un e<strong>et</strong> sur le comportement<br />

aérodynamique de l'aile.<br />

On parle de couplage fort, en cas de problèmes multi-physiques. Le couplage est déjà présent<br />

au niveau de l'analyse disciplinaire. En général, le vecteur y est porté par le maillage du problème.<br />

C'est le cas de l'aéroélasticité ou du couplage uide-thermique. Il convient alors de considérer<br />

que les deux disciplines n'en forment qu'une à l'échelle de l'optimisation multi-disciplinaire. En<br />

e<strong>et</strong>, le fait de découpler ces deux disciplines ne ferait qu'augmenter la complexité du problème<br />

global, en ajoutant un nombre de variables d'interaction conséquent.<br />

On ne s'intéresse ici qu'au cas d'un couplage faible, où les variables d'interaction sont de<br />

l'ordre de quelques dizaines.


2.1 Outils <strong>et</strong> dénitions 33<br />

2.1.2 Analyse multi-disciplinaire (MDA)<br />

Les disciplines sont reliées entre elles par des variables d'interaction : le moindre changement<br />

dans une discipline aura une inuence sur toutes les autres. Il convient donc de trouver un<br />

équilibre entre les disciplines au travers de ces variables d'interaction. Nous allons exposer le<br />

problème d'équilibre interdisciplinaire dans c<strong>et</strong>te section.<br />

Le terme anglais MDA (MultiDisciplinary Analysis) signie analyse multi-disciplinaire. Pour<br />

une conguration p = [x, z] donnée, les variables de couplage doivent vérier l'équation d'état :<br />

ou bien, de façon équivalente :<br />

y = Y (p, y), (2.1)<br />

R(p, y) = y − Y (p, y) = 0, (2.2)<br />

où R(p, y) représente le résidu, que l'on souhaite annuler.<br />

Lorsque l'on considère deux disciplines, le problème s'écrit :<br />

⎧<br />

⎨ R 1 (p, y 1 , y 2 ) = y 1 − Y 1 (p, y 2 ) = 0,<br />

⎩<br />

R 2 (p, y 1 , y 2 ) = y 2 − Y 2 (p, y 1 ) = 0.<br />

(2.3)<br />

Eectuer une MDA revient à résoudre l'équation (2.2) en y. C<strong>et</strong>te équation peut être vue<br />

comme une équation d'état du problème. Elle décrit la physique du système. C<strong>et</strong>te équation doit<br />

être résolue d'une manière très précise. On peut aboutir à des performances qui peuvent paraître<br />

intéressantes au niveau de la fonction objectif, mais avec un système qui ne satisfait pas les lois<br />

de la physique.<br />

Une MDA correspond donc à une analyse du système, qui tient compte des interactions entre<br />

les disciplines, <strong>et</strong> qui cherche à équilibrer les sorties des disciplines. On dispose de plusieurs<br />

méthodes pour résoudre ce problème, que l'on peut classer selon trois types :<br />

recherche de zéros,<br />

minimisation des résidus,<br />

pénalisation de l'équation d'état.<br />

Recherche de zéros :<br />

on va chercher ici à annuler le résidu de l'équation d'état (2.2).<br />

Méthode du point xe : on redénit y égal à la sortie du code de calcul Y (p, y), <strong>et</strong> on itère<br />

c<strong>et</strong>te opération jusqu'à la convergence. On considère que l'on a la convergence lorsque les<br />

résidus R(p, y) de l'équation d'état sont assez p<strong>et</strong>its. C<strong>et</strong>te méthode ne marche que si le<br />

système a de bonnes propriétés : l'<strong>application</strong> qui à y associe Y (p, y) doit être contractante 1 .<br />

Méthode de Newton : lorsque l'on a accès aux gradients de la fonction Y , on peut utiliser<br />

la méthode de Newton [Gui03]. Partant du point y, on cherche un point y + h tel que<br />

R(p, y + h) = 0. On développe l'équation à l'ordre 1. La direction h sera solution de<br />

l'équation (2.4) :<br />

Soit :<br />

∂ y R(p, y)h = −R(p, y). (2.4)<br />

(I d − ∂ y Y (p, y)) h = − (y − Y (p, y)) . (2.5)<br />

1 L'<strong>application</strong> Y : y ↦→ Y (p, y) est dite contractante si <strong>et</strong> seulement si ∀(y, y ′ ) ‖Y (p, y) − Y (p, y ′ )‖ < ‖y − y ′ ‖


34 Les formulations pour l'optimisation multi-disciplinaire<br />

Une recherche linéaire dans la direction h donne alors le pas optimal α :<br />

min<br />

α<br />

‖R(p, y + αh)‖. (2.6)<br />

Les variables de couplage sont actualisées : y n+1 = y n + αh. Le processus continue avec le<br />

nouveau point y n+1 , jusqu'à la convergence.<br />

Minimisation des résidus<br />

La résolution de l'équation d'état peut être vue comme un problème d'optimisation : étant<br />

donnée une conguration p, les variables de couplage y doivent minimiser les résidus de l'équation<br />

d'état :<br />

min<br />

y<br />

‖y − Y (p, y)‖ 2 . (2.7)<br />

Pour résoudre ecacement ce problème de minimisation, les variables de couplage doivent<br />

être normalisées. On peut choisir d'utiliser des méthodes d'optimisation classiques. La méthode<br />

de Gauss-Newton (voir annexe B.1) s'avère très ecace pour ce genre de problème.<br />

Pénalisation de l'équation d'état<br />

Dans certaines approches MDO, une autre méthode consiste à rajouter une ou plusieurs contraintes<br />

d'égalité dans le cadre d'une optimisation en fonction des variables y <strong>et</strong> p. La contrainte<br />

d'égalité n'est autre que l'équation d'état du système :<br />

y − Y (p, y) = 0. (2.8)<br />

Il apparaît plus naturel de résoudre l'équation d'état de manière précise pour chacune des<br />

congurations étudiées, plutôt que de le faire en cours d'optimisation <strong>et</strong> de ne satisfaire c<strong>et</strong>te<br />

équation qu'à la n du processus. Cependant, il peut arriver que, pour certaines congurations<br />

p, il n'existe pas de variables de couplage y p perm<strong>et</strong>tant de satisfaire l'équation d'état. Dans<br />

ce cas, le problème d'équilibre interdisciplinaire ne dépend plus seulement de y, mais aussi des<br />

variables de conception p. On ne peut donc plus utiliser les méthodes de recherche de zéros ou<br />

de minimisation des résidus vues précédemment. Seule la méthode de pénalisation de l'équation<br />

d'état va pouvoir trouver des congurations perm<strong>et</strong>tant de satisfaire l'équation d'état.<br />

2.1.3 Calcul des gradients (GSE)<br />

En optimisation, pour l'utilisation des algorithmes de descente, il est important d'avoir de<br />

bonnes informations sur les gradients des objectifs <strong>et</strong> des contraintes. En général, les codes de<br />

calcul dont nous disposons ne fournissent pas le gradient. Dans le cas où ils le fournissent, il est<br />

évident qu'il faut les utiliser <strong>et</strong> les injecter dans l'optimiseur. Sinon, on les calcule par diérences<br />

nies ou bien avec la méthode GSE (Global Sensitivity Equation), deux approches que nous allons<br />

détailler dans c<strong>et</strong>te section.<br />

Calcul par diérences nies<br />

Soit une fonction F dénie sur R n à valeurs dans R. On souhaite calculer le gradient de F au<br />

point p. Nous avons besoin pour cela de calculer n + 1 fois la fonction F : aux points p <strong>et</strong> p + h i e i<br />

(h i e i étant une perturbation du i me paramètre de conception, avec e i vecteur de base normé <strong>et</strong><br />

h i scalaire). Le pas h i doit être choisi susamment p<strong>et</strong>it pour avoir une bonne approximation<br />

des gradients. Le gradient est ensuite donné par :


2.1 Outils <strong>et</strong> dénitions 35<br />

∇F (p) =<br />

(<br />

..., F (p + h )<br />

ie i ) − F (p)<br />

, ... . (2.9)<br />

h i<br />

Lorsque le calcul de F nécessite une analyse multi-disciplinaire, le calcul du gradient par<br />

c<strong>et</strong>te méthode s'avère coûteux en temps de calcul.<br />

Le choix du pas h peut s'avérer délicat. D'un côté, il doit être assez p<strong>et</strong>it, an d'avoir une<br />

bonne approximation du gradient. De l'autre côté, lorsque ce pas est trop p<strong>et</strong>it, l'erreur provenant<br />

de la résolution de l'équation d'état (c<strong>et</strong>te résolution n'est jamais exacte, il reste toujours un<br />

résidu qu'il faut prendre en compte, aussi p<strong>et</strong>it soit-il) n'est plus négligeable devant la quantité<br />

à calculer (dans notre cas, la diérence des sorties entre deux congurations très proches). C<strong>et</strong>te<br />

erreur peut venir fausser les résultats du calcul de gradient lorsque le pas h i est trop p<strong>et</strong>it.<br />

On peut remarquer que plus on sera précis sur la résolution de l'équation d'état, plus on<br />

pourra choisir h p<strong>et</strong>it. On aura alors une meilleure approximation du gradient, mais celle-ci sera<br />

plus gourmande en temps de calcul.<br />

GSE : Global Sensitivity Equation<br />

La méthode GSE est une méthode adjointe, on utilise l'information apportée par l'équation<br />

d'état <strong>et</strong> sa dérivée. C<strong>et</strong>te méthode est décrite dans [BS06, SAS98, CDF + 93].<br />

Considérons p = [x, z] l'ensemble des variables de conception.<br />

On eectue une analyse multi-disciplinaire, ce qui nous donne y p = [y p 1 , yp 2 ], en utilisant les<br />

équations d'état (cf équation (2.3)) :<br />

R(p, y p ) = 0 ⇐⇒<br />

{<br />

R1 (p, y p 1 , yp 2 ) = yp 1 − Y 1(p, y p 2 ) = 0,<br />

R 2 (p, y p 1 , yp 2 ) = yp 2 − Y 2(p, y p 1 ) = 0.<br />

On considère que, pour toutes les congurations p ′ proches de la conguration p, on peut<br />

résoudre le système couplé <strong>et</strong> dénir des variables de couplage y p′ satisfaisant l'équation<br />

d'état :<br />

∀p ′ ∈ V p , R(p ′ , y p′ ) = 0. (2.10)<br />

Alors la dérivée de R par rapport à p est nulle, c'est-à-dire : D p R = 0.<br />

Par dénition de R, on obtient les équations suivantes :<br />

{<br />

Dp y 1 − ∂ p Y 1 − ∂ y2 Y 1 D p y 2 = 0,<br />

D p y 2 − ∂ p Y 2 − ∂ y1 Y 2 D p y 1 = 0.<br />

(2.11)<br />

On arrive ainsi au système linéaire suivant :<br />

⎛<br />

⎝<br />

⎞ ⎛<br />

I d −∂ y2 Y 1<br />

⎠ ⎝<br />

−∂ y1 Y 2 I d<br />

⎞ ⎛<br />

D p y 1<br />

⎠ = ⎝<br />

D p y 2<br />

⎞<br />

∂ p Y 1<br />

⎠ (GSE). (2.12)<br />

∂ p Y 2<br />

Les sensibilités disciplinaires ∂ y2 Y 1 , ∂ y1 Y 2 , <strong>et</strong> ∂ p Y i peuvent être fournies par les disciplines,<br />

ou bien, au pire des cas, calculées par diérences nies.<br />

La résolution du système linéaire (GSE) nous donne les sensibilités globales : D p y.


36 Les formulations pour l'optimisation multi-disciplinaire<br />

La méthode GSE est bien moins coûteuse en terme de calcul que la méthode des diérences<br />

nies, qui nécessite un calcul couplé par variables de conception. Avec la méthode GSE, il y a un<br />

seul calcul couplé <strong>et</strong> les dérivées sont soit fournies par les disciplines, soit calculées par diérences<br />

nies, discipline par discipline, ce qui n'implique pas de calcul couplé supplémentaire. On peut<br />

donc payer le prix en temps de calcul pour résoudre l'équation d'état de manière très précise,<br />

c<strong>et</strong>te dernière n'étant résolue qu'une seule fois, <strong>et</strong> ainsi obtenir des gradients avec une bonne<br />

précision.<br />

La méthode GSE perm<strong>et</strong> de calculer les gradients pour un plus grand nombre de paramètres.<br />

On peut ainsi déterminer lesquels ont le plus d'inuence sur les critères étudiés, <strong>et</strong> choisir l'ensemble<br />

des paramètres les plus pertinents (cf section 2.1.1).<br />

2.1.4 Dénition de l'optimisation<br />

Les sorties de ces disciplines détermineront les fonctions objectifs <strong>et</strong> contraintes. L'optimisation<br />

peut se faire à un niveau global, où toutes les diérentes variables seront traitées au même<br />

niveau. Il peut aussi y avoir des optimisations sur diérents niveaux, où certaines variables seront<br />

optimisées par leur discipline, <strong>et</strong> un optimiseur fédérera les calculs au niveau système. Nous appellerons<br />

variables système les variables qui sont gérées par l'optimiseur système, <strong>et</strong> variables<br />

disciplinaires celles qui sont gérées par des optimiseurs disciplinaires.<br />

Nous verrons cela plus en détail dans la section 2.2 traitant des formulations pour l'optimisation<br />

multi-disciplinaire. En ce qui concerne l'optimisation <strong>et</strong> ses algorithmes, nous nous référerons<br />

à [BKS06, Van01b, Gui03]. L'algorithme généralement utilisé pour ce genre de problème est l'algorithme<br />

SQP 2 . Il perm<strong>et</strong> de traiter les problème sde minimisation sous contraintes non linéaires.<br />

Une description de c<strong>et</strong> algorithme est donné dans [Ber04] 3 .<br />

Fonction(s) objectif<br />

L'objectif recherché est fonction des sorties disciplinaires Y . Par exemple une discipline peut<br />

traiter de la performance de l'avion <strong>et</strong> l'objectif peut représenter le rayon d'action ou DOC 4 .<br />

Lorsque l'on a une optimisation sur plusieurs niveaux, il faut pouvoir dénir des objectifs<br />

pour chaque discipline. Minimiser la masse pour la structure, ou maximiser la nesse en ce qui<br />

concerne l'aérodynamique, sont des exemples d'objectifs disciplinaires.<br />

Contraintes<br />

Les contraintes peuvent intervenir sur plusieurs niveaux. Soit elles ne concernent qu'une seule<br />

discipline, soit elles interviennent au niveau système.<br />

Les contraintes de borne limitent le champ d'exploration d'une variable. Dans de nombreux<br />

cas, à l'optimum, les variables arrivent en butée pour la plupart de ces contraintes. Le choix<br />

des valeurs des bornes joue un rôle essentiel pour la conguration optimale obtenue.<br />

p l ≤ p ≤ p u .<br />

Les contraintes d'inégalité limitent en général les sorties des disciplines :<br />

G(p, y) ≤ 0.<br />

2 SQP : Sequential Quadratic Programming.<br />

3 http ://www.applied-mathematics.n<strong>et</strong>/optimization/thesis_optimization.pdf<br />

4 DOC : Direct Operating Cost.


2.1 Outils <strong>et</strong> dénitions 37<br />

Les contraintes d'égalité peuvent servir à la gestion des variables de couplage, en considérant<br />

l'équation d'état (cf section 2.1.2) :<br />

H(p, y) = R(p, y) = y − Y (p, y) = 0.<br />

Problème d'optimisation<br />

Au nal, le problème d'optimisation sera décrit de la façon suivante :<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

min F (p, y),<br />

p,y<br />

G(p, y) ≤ 0,<br />

H(p, y) = 0,<br />

p l ≤ p ≤ p u .<br />

(2.13)<br />

On peut aussi considérer le cas où l'on a plusieurs objectifs à minimiser, les fonctions F 1 <strong>et</strong><br />

F 2 par exemple. Dans ce cas, on ne cherchera pas une conguration optimale, mais un ensemble<br />

de congurations qui seront optimales au sens de Par<strong>et</strong>o [SC02]. Une conguration p est Par<strong>et</strong>o<br />

optimale si <strong>et</strong> seulement si ∀p ′ :<br />

⎧<br />

⎨<br />

⎩<br />

F 1 (p) ≤ F 1 (p ′ ),<br />

ou<br />

F 2 (p) ≤ F 2 (p ′ ).<br />

Une méthode perm<strong>et</strong>tant de trouver ce front de Par<strong>et</strong>o est donnée en annexe B.2.<br />

2.1.5 Méta-modèles disciplinaires<br />

(2.14)<br />

Lorsque les temps d'exécution des codes de calculs disciplinaires sont importants, il est essentiel<br />

de travailler avec des approximations des modèles, que l'on appelle méta-modèles, <strong>et</strong> qui<br />

présentent l'avantage de fournir des résultats beaucoup plus rapidement que les modèles originaux.<br />

Les spécialistes des disciplines choisissent le méta-modèle qui convient le mieux. Il existe<br />

des méta-modèles spéciques à une discipline qui prennent en compte la physique en jeu, <strong>et</strong> au<br />

contraire des méta-modèles généralistes.<br />

Nous allons passer en revue les diérents méta-modèles. On pourra se référer au rapport<br />

fait dans le cadre du proj<strong>et</strong> DOOM qui décrit ces méthodes [BSBM07]. Les modèles réduits<br />

fournissent un moyen pratique pour réduire la complexité en MDO. Ces derniers possèdent une<br />

validité locale, à l'intérieur d'une région de conance appropriée :<br />

la linéarisation est valide pour un grand nombre de paramètres, si l'on utilise les méthodes<br />

adjointes, mais uniquement dans une p<strong>et</strong>ite région de conance ;<br />

les méthodes de surface de réponse ont en général un domaine de validité assez grand, mais<br />

pour un p<strong>et</strong>it nombre de paramètres.<br />

Le schéma 2.2 montre la construction d'un méta-modèle disciplinaire.<br />

Approximation du premier ordre<br />

La façon la plus simple de construire un méta-modèle disciplinaire local est de linéariser les<br />

sorties disciplinaires Y (x, y, z) :<br />

On obtient :<br />

Ỹ (x,y,z) (x ′ , y ′ , z ′ ) = Y (x, y, z) + ∂ x Y.(x ′ − x) + ∂ z Y.(z ′ − z) + ∂ y Y.(y ′ − y) (2.15)


38 Les formulations pour l'optimisation multi-disciplinaire<br />

x ′ , z ′ , y ′<br />

❄<br />

Méta-modèle(x, z, y, Y )<br />

x, z, y k<br />

❄<br />

Discipline i<br />

Y k<br />

❄<br />

Ŷ (x ′ , z ′ , y ′ )<br />

❄<br />

Fig. 2.2 Méta-modèle disciplinaire.<br />

Dans certains cas, il est plus commode d'utiliser une transformation des variables pour effectuer<br />

l'approximation linéaire (par exemple, en mécanique des structures, il est fréquent de<br />

linéairiser selon l'inverse des variables de propriété de matériaux).<br />

Le prix à payer pour l'utilisation de c<strong>et</strong>te méthode est d'avoir une taille de région de conance<br />

p<strong>et</strong>ite. Le domaine de validité du méta-modèle disciplinaire peut être déterminé avec la méthode<br />

des régions de conance [Rav07]. Nous pouvons aussi choisir une taille xe. Il faut qu'elle soit<br />

assez p<strong>et</strong>ite pour perm<strong>et</strong>tre à l'optimiseur de ne pas partir vers des congurations fausses, mais il<br />

faut aussi qu'elle soit assez grande pour perm<strong>et</strong>tre d'atteindre l'optimum sans avoir à réactualiser<br />

le méta-modèle un trop grand nombre de fois.<br />

L'avantage de c<strong>et</strong>te méthode est que l'on peut s'aranchir du nombre de variables. En e<strong>et</strong>,<br />

la méthode adjointe (mode inverse en diérentiation automatique) peut être considérée pour les<br />

calculs des gradients en grande dimension [Gri00, Mor85]. Dans ce cas, le coût de calcul des<br />

gradients est guère plus élevé que celui les fonctions objectifs <strong>et</strong> contraintes, <strong>et</strong> reste indépendant<br />

du nombre de variables.<br />

Approximation par surface de réponse<br />

Pour construire des modèles réduits, on procède de la façon suivante :<br />

1. choix d'un échantillon d'entrée : nous utilisons des méthodes DOE (Design Of Experiments)<br />

pour sélectionner un échantillon de points : x, z, y de taille n où n est p<strong>et</strong>it ;<br />

2. calcul des sorties Y k pour chacun des points x, z, y k (k ∈ [1, n]), avec le code de calcul<br />

correspondant au modèle physique original ;<br />

3. construction d'un méta-modèle,<br />

4. le méta-modèle donne Ŷ (x′ , z ′ , y ′ ) : l'approximation des sorties au point [x ′ , z ′ , y ′ ].<br />

Il existe deux catégories de méthodes pout construire les méta-modèles :


2.1 Outils <strong>et</strong> dénitions 39<br />

l'approximation des fonctions objectifs <strong>et</strong> contraintes utilisant les méthodes de surface de<br />

réponse [CST00, Vap95, Pla99], telles que les approximations polynômiales, les réseaux de<br />

neurones, les SVM (Support Vector Machine), les RBF (Radial Basis Function), <strong>et</strong>c. ;<br />

certains méta-modèles perm<strong>et</strong>tent de prendre en compte la connaissance du modèle, <strong>et</strong> ainsi<br />

de préserver une partie de la physique représentée. Nous pouvons citer comme exemple la<br />

méthode POD (Proper Orthogonal Decomposition) [GM97, LTB96, LA04, SK00].<br />

Avec l'utilisation de méta-modèles, l'évaluation de la fonction coût est si peu coûteuse qu'il<br />

est possible d'utiliser des algorithmes génétiques [MNP98, Pér98], <strong>et</strong> d'autres algorithmes d'optimisation<br />

globale [Kel99b, Kel99a, MKRHU99].<br />

An d'être cohérent au sein d'une optimisation (en particulier dans le cas d'algorithmes déterministes<br />

à base de gradient), les méta-modèles doivent satisfaire plusieurs conditions.<br />

• Les méta-modèles doivent évoluer avec le point. Ils doivent fournir un domaine de validité.<br />

À l'intérieur de ce domaine, la qualité des réponses est acceptable dans le cadre d'une<br />

optimisation. Lorsqu'on arrive au bord de ce domaine, il faut réactualiser le méta-modèle,<br />

an qu'il soit able autour du point de conception courant.<br />

• La construction <strong>et</strong> l'utilisation du méta-modèle au sein de l'optimisation ne doit pas être<br />

plus coûteuse que l'utilisation du code de calcul brut. Il convient pour cela de choisir des<br />

méta-modèles ecaces <strong>et</strong> adaptés.<br />

• À l'optimum, on cherche à maximiser la abilité des réponses du méta-modèle. Il faut,<br />

d'une part, que les sorties du méta-modèle soient exactes au point courant, an d'être sûr<br />

des valeurs des objectifs <strong>et</strong> des contraintes obtenues. Il faut aussi que les dérivées soient<br />

exactes au point courant, an de s'assurer que les conditions d'optimalité du premier ordre<br />

soient bien respectées.<br />

[Pow07] préconise que même la dérivée seconde doit être exacte à l'optimum.<br />

Ces propriétés sont présentes dans le cas des méta-modèles linéaires. Pour montrer la viabilité<br />

de l'utilisation de méta-modèles dans l'optimisation multi-disciplinaire, on peut commencer<br />

avec les approximations linéaires. An d'obtenir de meilleurs résultats, on peut essayer d'autres<br />

méta-modèles plus évolués <strong>et</strong> plus adaptés aux disciplines, mais qui respectent les conditions<br />

vues précédemment.<br />

Conclusion<br />

Nous avons vu dans c<strong>et</strong>te section les diérents outils qui serviront à constituer des stratégies<br />

d'optimisation multi-disciplinaire. Les disciplines prennent en entrée diérentes variables, dont<br />

les variables de couplage, qui perm<strong>et</strong>tront d'assurer l'équilibre interdisciplinaire avec une MDA ;<br />

on pourra ensuite calculer les gradients des sorties disciplinaires à l'aide de la méthode GSE.<br />

Les sorties des disciplines déniront les fonctions objectifs <strong>et</strong> contraintes de notre problème<br />

d'optimisation. Leurs évaluations pourront être eectuées au travers de méta-modèles, ce qui<br />

perm<strong>et</strong>tra de réduire le temps de réponse des disciplines, <strong>et</strong> ainsi la durée globale du processus<br />

de conception.<br />

Ces notions seront utilisées dans la suite du document. Elles constituent le vocabulaire de<br />

base, qui perm<strong>et</strong>tra de décrire les formulations pour l'optimisation multi-disciplinaire, exposées<br />

dans la section qui suit.


40 Les formulations pour l'optimisation multi-disciplinaire<br />

2.2 Les formulations MDO<br />

Nous allons voir dans c<strong>et</strong>te section diérentes formulations d'optimisation multi-disciplinaire<br />

(MDO). Une formulation MDO est une manière d'associer une analyse d'un système complexe<br />

à des outils d'optimisation.<br />

Nous pouvons classer ces méthodes selon deux critères.<br />

1. L'optimisation peut se faire sur un ou plusieurs niveaux :<br />

toutes les variables de conception sont au même niveau, nous avons une formulation<br />

mono-niveau, on parle alors d'analyse distribuée : les disciplines contribuent seulement<br />

à la description des phénomènes physiques, <strong>et</strong> les principaux choix de conception se font<br />

au niveau système ;<br />

les variables locales peuvent être optimisées par leur propre discipline, c'est une formulation<br />

multi-niveaux, on parle alors de conception distribuée : ici, les disciplines<br />

participent aux choix de conception, en choisissant les valeurs des variables qui leur sont<br />

attitrées, <strong>et</strong> le niveau système assure que l'optimisation se déroule dans le sens de l'objectif<br />

global.<br />

2. Les variables de couplage peuvent être gérées soit au niveau du solveur multi-disciplinaire,<br />

soit au niveau de l'analyse système :<br />

à chaque analyse système, on résout une MDA,<br />

les variables de couplage sont ajoutées aux inconnues du problème d'optimisation. Elles<br />

doivent satisfaire des contraintes d'égalité du type : Y (p, y) − y = 0. Ces contraintes expriment<br />

le fait que l'équation d'état est satisfaite.<br />

Nous allons voir plusieurs formulations MDO, à savoir les méthodes MDF, IDF, AA0, CO,<br />

BLISS, sa variante BLISS 2000, <strong>et</strong> DIVE. Ces dernières sont classées dans le tableau 2.1, selon<br />

ces deux critères.<br />

MDA<br />

contraintes d'égalité sur<br />

l'équation d'état<br />

optimisation<br />

mono-niveau MDF IDF / AAO<br />

optimisation<br />

multi-niveaux BLISS / DIVE CO / BLISS 2000<br />

Tab. 2.1 Classication des formulations MDO.<br />

Les méthodes DIVE <strong>et</strong> BLISS 2000 présentent des solutions pour utiliser des méta-modèles<br />

adaptatifs au sein de l'optimisation multi-disciplinaire.<br />

Comme pour la section précédente, an de simplier l'exposé des formulations, nous considérons<br />

ici un système composé de deux disciplines.


2.2 Les formulations MDO 41<br />

2.2.1 MDF : Multi-Disciplinary Feasible<br />

C<strong>et</strong>te méthode est la plus classique. On la r<strong>et</strong>rouve aussi sous le nom de AIO (All In One),<br />

ou FIO (Fully Integrated Optimization) [CDF + 93, BS06, Lab04].<br />

Principe<br />

C'est une formulation mono-niveau, où le couplage est pris en charge par une MDA. L'optimisation<br />

se fait sur les variables de conception p = [x, z].<br />

Le système eectue une analyse couplée, an de déterminer les sorties des disciplines qui<br />

assurent l'équilibre du système. Il eectue ensuite le calcul des gradients, par exemple avec la<br />

méthode GSE (cf section 2.1.3). L'optimiseur récupère les valeurs de la fonction coût <strong>et</strong> des<br />

contraintes, ainsi que leurs gradients. À partir de ces informations, il va demander une analyse<br />

système pour un nouveau point. Du point de vue de l'optimiseur, le système entier peut être<br />

considéré comme une boîte noire.<br />

Algorithme<br />

Voici la procédure de la formulation MDF :<br />

1. point de départ : p = [x, z] ;<br />

2. l'analyse multi-disciplinaire (MDA) détermine les variables de couplage y ;<br />

3. on en déduit les fonctions coût F <strong>et</strong> les contraintes G ;<br />

4. le calcul des gradients (méthode GSE) donne les sensibilités globales D p y ;<br />

5. on en déduit les gradients des objectifs D p F <strong>et</strong> des contraintes D p G ;<br />

6. l'optimiseur choisit un nouveau point p ;<br />

7. on itère les étapes 1-6 jusqu'à la convergence de la procédure.<br />

Remarque<br />

L'avantage de c<strong>et</strong>te méthode est qu'elle satisfait l'équation d'état pour chaque point de calcul.<br />

Lorsque l'on utilise par exemple l'algorithme CFSQP (C code for Feasible Sequential Quadratic<br />

Programming [LT01]), on est assuré, dès que l'on trouve un point satisfaisant les contraintes, que<br />

les points suivants restent admissibles.<br />

Il est important d'avoir une précision sur l'analyse du système (MDA) plus ne que le pas<br />

utilisé pour le calcul des sensibilités, an d'avoir des gradients cohérents. Cependant, la résolution<br />

d'un système couplé en chaque point de l'optimisation peut s'avérer coûteuse en temps.<br />

La méthode IDF que nous décrivons dans la section suivante essaye de traiter les variables<br />

de couplage diéremment.<br />

Le schéma 2.3 représente le fonctionnement de la méthodologie MDF.<br />

2.2.2 IDF : Individual Disciplinary Feasible<br />

Le premier constat pour la méthode MDF (décrite dans la section précédente) est que la<br />

répétition des calculs couplés peut s'avérer lourde en temps de calcul. La solution proposée avec<br />

les méthodes de type IDF consiste à remplacer les liens directs entre les disciplines, c'est-à-dire le<br />

couplage, par des contraintes d'égalité. Ces contraintes perm<strong>et</strong>tent à l'optimiseur d'assurer une<br />

cohésion interdisciplinaire. C<strong>et</strong>te formulation est exposée dans [CDF + 93, BS06, Sim98, Bro04,<br />

NMA99].


42 Les formulations pour l'optimisation multi-disciplinaire<br />

Analyse système<br />

❄<br />

MDA<br />

D 1<br />

✻<br />

y 2<br />

y 1<br />

❄<br />

D 2<br />

p = [x, z]<br />

F G D p F D p G<br />

❄<br />

<strong>Optimisation</strong> système<br />

min F (p)<br />

p<br />

sous contraintes :<br />

p l ≤ p ≤ p u<br />

G(p) ≤ 0<br />

Fig. 2.3 Diagramme de la formulation MDF.


2.2 Les formulations MDO 43<br />

Principe<br />

C'est une méthode mono-niveau, où le couplage est géré par des contraintes d'égalité.<br />

L'optimiseur contrôle toutes les variables : locales x, partagées z <strong>et</strong> de couplage y.<br />

Une contrainte d'égalité perm<strong>et</strong> d'assurer que l'équation d'état est satisfaite, <strong>et</strong> garantit la<br />

cohérence interdisciplinaire. C<strong>et</strong>te contrainte est la suivante :<br />

Y (p, y) − y = 0. (2.16)<br />

À chaque analyse du système, un seul appel à chaque discipline est eectué. Il renvoie à l'optimiseur<br />

les valeurs des sorties Y .<br />

Algorithme<br />

Voici la procédure de la formulation IDF :<br />

1. donnée du point de départ : [x, z, y] ;<br />

2. l'analyse disciplinaire détermine les sorties Y ;<br />

3. calcul des fonctions coût F , contraintes d'inégalité G <strong>et</strong> d'égalité H = Y − y ;<br />

4. calcul des sensibilités disciplinaires : donne ∂ [x,z,y] Y ;<br />

5. calcul de ∂ [x,z,y] F ; ∂ [x,z,y] G <strong>et</strong> ∂ [x,z,y] H ;<br />

6. choix d'un nouveau point [x, z, y] par l'optimiseur ;<br />

7. on itère 1-6 jusqu'à la convergence.<br />

Remarques<br />

Il y a autant de contraintes d'égalité que de variables de couplage. Un nombre élevé de variables<br />

de couplage peut poser problème, car les algorithmes d'optimisation ont plus de dicultés<br />

à gérer un grand nombre de contraintes d'égalité non linéaires.<br />

L'avantage de ces méthodes utilisant les contraintes d'égalité sur l'équation d'état interdisciplinaire,<br />

par rapport aux méthodes utilisant la MDA, est qu'elles perm<strong>et</strong>tent de traiter les<br />

problèmes où il existe des congurations non faisables (avec des congurations dites non faisables,<br />

on ne peut pas trouver de variables de couplage associées satisfaisant l'équation d'état).<br />

On peut avoir des congurations trop mauvaises, pour lesquelles il devient dicile de calculer<br />

la physique qui les régit, ou du moins d'en assurer la cohérence. Le problème d'équilibre interdisciplinaire<br />

ne dépend plus seulement des variables de couplage y, mais aussi des variables de<br />

conception p. La méthode IDF perm<strong>et</strong> de pallier ce genre de problème, <strong>et</strong> c'est son principal<br />

avantage par rapport à la méthode MDF.<br />

Le schéma 2.4 illustre c<strong>et</strong>te formulation.<br />

2.2.3 AAO : All-At-Once<br />

La méthode AAO est aussi appelée one shot, SAND ou SAD (Simultaneous Analysis and<br />

Design) [BGKS96, AL00, GHN96].<br />

Principe<br />

De même que pour la méthode IDF, les variables de conception <strong>et</strong> de couplage sont traitées<br />

au même niveau, <strong>et</strong> la cohérence interdisciplinaire est assurée par une équation d'égalité sur<br />

l'équation d'état du système. La diérence avec la méthode IDF est que les équations d'état


44 Les formulations pour l'optimisation multi-disciplinaire<br />

Analyse disciplinaire<br />

❄<br />

x 2 , z, y 1<br />

❄<br />

x 1 , z, y 2<br />

D [x,z,y] [F, G, Y ]<br />

D 1<br />

D 2<br />

x, z, y<br />

F, G, Y<br />

❄<br />

<strong>Optimisation</strong> système<br />

min F (x, z, y)<br />

x,z,y<br />

sous contraintes :<br />

x l ≤ x ≤ x u<br />

z l ≤ z ≤ z u<br />

G(x, z, y) ≤ 0<br />

Y − y = 0<br />

Fig. 2.4 Diagramme de la formulation IDF.<br />

disciplinaires (dont la résolution perm<strong>et</strong> de déterminer les sorties disciplinaires) ne sont plus<br />

résolues au niveau de la discipline, mais au niveau de l'optimiseur système. Par exemple, le<br />

problème de mécanique des structures peut être vu comme la minimisation de l'énergie potentielle<br />

<strong>et</strong> revient à la résolution d'un système linéaire. Ce dernier donnera lieu à une contrainte d'égalité<br />

dans le problème d'optimisation (lignes équations d'état disciplinaires dans (2.17)) :<br />

⎧<br />

min F (x, z, y 1, y 2 ),<br />

x,z,y<br />

⎪⎨<br />

⎪⎩<br />

G(x, z, y 1 , y 2 ) ≤ 0,<br />

x l ≤ x ≤ x u ,<br />

z l ≤ z ≤ z u ,<br />

y 1 = t 1 ,<br />

y 2 = t 2 ,<br />

t 1 = Y 1 (x, z, y 2 ),<br />

t 2 = Y 2 (x, z, y 1 ).<br />

cohésion interdisciplinaire<br />

équations d'état disciplinaires<br />

(2.17)<br />

Remarque<br />

C<strong>et</strong>te méthode peut être très ecace, mais sa convergence est compromise lorsque certaines<br />

des équations d'état disciplinaires sont fortement non-linéaires. Nous pouvons prendre comme<br />

exemple l'équation de Navier-Stokes pour la discipline mécanique des uides : même dans un<br />

contexte monodisciplinaire, la convergence n'est pas toujours acquise.


2.2 Les formulations MDO 45<br />

2.2.4 CO : Collaborative Optimization<br />

C<strong>et</strong>te méthode est présentée dans [BS06, Bro04, BGKS96, AKZP05, NMA99, Lin04, AR00].<br />

Principe<br />

C'est une méthode multi-niveaux, où le couplage est géré avec des contraintes d'égalité. Elle<br />

reproduit le fonctionnement des entreprises, où le niveau système donne des consignes que les<br />

disciplines essayent de respecter.<br />

L'optimisation se fait sur deux niveaux : système <strong>et</strong> discipline.<br />

Au niveau système, l'optimiseur gère les variables partagées z <strong>et</strong> les variables de couplage y,<br />

de manière à minimiser la fonction coût, tout en respectant les contraintes système.<br />

Au niveau disciplinaire, le système envoie les variables de couplage y comme consignes aux<br />

disciplines, <strong>et</strong> les valeurs des variables partagées z. La discipline i gère ses variables locales x i ,<br />

ainsi qu'une copie des variables partagées z i . Elle choisit les valeurs de x i <strong>et</strong> z i de manière à<br />

respecter au mieux les consignes données par le système, <strong>et</strong> de coller au mieux aux variables<br />

partagées z, tout en respectant les contraintes disciplinaires. Par exemple, pour déterminer x 1<br />

<strong>et</strong> z 1 , la discipline 1 résout le problème de minimisation sous contraintes suivant :<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

min ‖y 1 − Y 1 (x 1 , z 1 , y 2 )‖ 2 + ‖z − z 1 ‖ 2 .<br />

x 1 ,z 1<br />

G 1 (x 1 , z 1 , z, y 2 ) ≤ 0<br />

x l 1 ≤ x 1 ≤ x u 1<br />

z l 1 ≤ z 1 ≤ z u 1<br />

(2.18)<br />

Le couplage, ainsi que la convergence des copies des variables partagées z 1 <strong>et</strong> z 2 , sont assurés<br />

au niveau système par les contraintes suivantes d'égalité :<br />

⎧<br />

⎨ Y (x, z, y) − y = 0,<br />

H = z − z 1 = 0,<br />

(2.19)<br />

⎩<br />

z − z 2 = 0.<br />

Algorithme<br />

La procédure de la méthode CO est la suivante :<br />

1. Point de départ : [z, y] ;<br />

2. optimisations disciplinaires : on cherche les variables locales <strong>et</strong> les copies des variables<br />

partagées z i qui optimisent le problème (2.18) : détermination de x 1 , x 2 , z 1 , z 2 <strong>et</strong> Y ;<br />

3. on en déduit les fonctions coût F , <strong>et</strong> les contraintes d'inégalité G <strong>et</strong> d'égalité H ;<br />

4. le calcul des sensibilités disciplinaires donne ∂ [z,y] Y ;<br />

5. on en déduit les gradients ∂ [z,y] F , ∂ [z,y] G <strong>et</strong> ∂ [z,y] H ;<br />

6. l'optimiseur choisit un nouveau point [z, y] ;<br />

7. on itère 1-6 jusqu'à la convergence.<br />

La gure 2.5 représente la méthode CO.


46 Les formulations pour l'optimisation multi-disciplinaire<br />

✲<br />

<strong>Optimisation</strong> disciplinaire 1<br />

‖y 1 − Y 1 (x 1 , z 1 , y 2 )‖ 2 + ‖z − z 1 ‖ 2<br />

x 1,z 1<br />

sous contraintes :<br />

x l 1 ≤ x 1 ≤ x u 1<br />

z l 1 ≤ z 1 ≤ z u 1<br />

G 1 (x 1 , z 1 , y 2 ) ≤ 0<br />

✲<br />

<strong>Optimisation</strong> disciplinaire 2<br />

min ‖y 2 − Y 2 (x 2 , z 2 , y 1 )‖ 2 + ‖z − z 2 ‖ 2<br />

x 2,z 2<br />

sous contraintes :<br />

x l 2 ≤ x 2 ≤ x u 2<br />

z l 2 ≤ z 2 ≤ z u 2<br />

G 2 (x 2 , z 2 , y 1 ) ≤ 0<br />

z, y<br />

<strong>Optimisation</strong> système<br />

Y, z 1 , z 2<br />

❄ ❄<br />

min<br />

min F (z, y)<br />

z,y<br />

sous contraintes :<br />

z l ≤ z ≤ z u<br />

G(z, y) ≤ 0<br />

y − Y = 0<br />

z − z 1 = 0<br />

z − z 2 = 0<br />

Fig. 2.5 Diagramme de la formulation CO.


2.2 Les formulations MDO 47<br />

2.2.5 BLISS : Bi-Level Integration System Synthesis<br />

C<strong>et</strong>te formulation est exposée dans [BS06, SAS98, KY00].<br />

Principe<br />

C'est une méthode multi-niveaux, où les variables de couplage sont gérées par une MDA.<br />

On part du point p 0 = [x 0 , z 0 ]. Une analyse multi-disciplinaire détermine les variables de<br />

couplage y 0 , <strong>et</strong> les valeurs des fonctions objectifs F 0 = F (x 0 , z 0 ) <strong>et</strong> contraintes G 0 = G(x 0 , z 0 ).<br />

Une analyse de sensibilité globale (GSE) nous donne les valeurs des gradients D p F 0 <strong>et</strong> D p G 0 .<br />

Nous pouvons construire en p 0 une approximation linéaire locale de F <strong>et</strong> G :<br />

⎧<br />

⎨ ˜F (p) = F 0 + D p F 0 (p − p 0 ),<br />

(2.20)<br />

⎩ ˜G(p) = F 0 + D p G 0 (p − p 0 ).<br />

<strong>Optimisation</strong> des variables locales x i de la discipline i<br />

⎧<br />

min ∂ xi F 0 (x i − x<br />

⎪⎨<br />

0 i ),<br />

x i<br />

G 0 + ∂ xi G 0 (x i − x 0 i ), ≤ 0<br />

(2.21)<br />

⎪⎩<br />

x l i ≤ x i ≤ x u i .<br />

On récupère les optima x opt <strong>et</strong> les coecients de Lagrange λ associés aux contraintes. On<br />

pose :<br />

F x opt = F 0 + ∂ x F 0 (x opt − x 0 ),<br />

G x opt = G 0 + ∂ x G 0 (x opt − x 0 ).<br />

(2.22)<br />

Les fonctions coût <strong>et</strong> contrainte au niveau global sont les suivantes (voir annexe A) :<br />

f(Z) = F x opt + ( ∂ z F 0 + λ T ∂ z G 0<br />

)<br />

(z − z 0 ),<br />

g(Z) = G − x opt + ∂ z G − 0 (z − z0 ),<br />

(2.23)<br />

où G − x opt<br />

correspond aux contraintes non saturées après les optimisations disciplinaires.<br />

<strong>Optimisation</strong> des variables globales z<br />

An d'obtenir z opt , on résout le système suivant :<br />

⎧ (<br />

min ∂z F 0 + λ<br />

⎪⎨<br />

T )<br />

∂ z G 0 (z − z 0 ),<br />

z<br />

G − x<br />

+ ∂ opt z G − 0 (z − z0 ) ≤ 0,<br />

⎪⎩<br />

z l ≤ z ≤ z u .<br />

(2.24)


48 Les formulations pour l'optimisation multi-disciplinaire<br />

Algorithme<br />

Voici le processus de la formulation BLISS :<br />

1. nous partons du point : p 0 = [x 0 , z 0 ] ;<br />

2. une analyse multi-disciplinaire nous donne les valeurs de F 0 <strong>et</strong> G 0 ;<br />

3. l'analyse de sensibilité globale nous donne ∂ x F 0 , ∂ x G 0 , ∂ z F 0 <strong>et</strong> ∂ z G 0 ;<br />

4. optimisation disciplinaire : x opt <strong>et</strong> λ (paramètres de Lagrange) ;<br />

5. optimisation des variables globales : z opt ;<br />

6. mise à jour des variables : x 0 = x opt <strong>et</strong> z 0 = z opt ;<br />

7. on itère 1-6 jusqu'à la convergence.<br />

Remarque<br />

Il convient d'utiliser une méthode de région de conance pour la gestion des variables partagées,<br />

an d'assurer une bonne abilité de l'approximation linéaire.<br />

C<strong>et</strong>te formulation est représentée sur la gure 2.6.<br />

[x 0 , z 0 ]<br />

✲<br />

MDA<br />

GSE<br />

y, F 0 , G 0<br />

❄<br />

∂ z F 0 ∂ z G 0<br />

<strong>Optimisation</strong> disciplinaire<br />

∂ x F 0 ∂ x G 0<br />

❄<br />

❄<br />

x opt λ<br />

❄<br />

<strong>Optimisation</strong> système<br />

❄<br />

z opt<br />

Mise à jour des variables<br />

x 0 = x opt<br />

z 0 = z opt<br />

Fig. 2.6 Diagramme de la formulation BLISS.


2.2 Les formulations MDO 49<br />

2.2.6 BLISS 2000<br />

La méthode BLISS 2000 dérive de la méthode précédente. Elle généralise ici l'utilisation de<br />

méta-modèles disciplinaires. C<strong>et</strong>te formulation est décrite dans l'article [Agt00].<br />

Principe<br />

C'est une formulation multi-niveaux où le couplage est géré par une pénalisation de l'équation<br />

d'état. Nous montrons ici comment chaque discipline choisit ses variables locales, puis comment<br />

sont construits les diérents méta-modèles, <strong>et</strong> enn nous exposons le problème d'optimisation<br />

global.<br />

<strong>Optimisation</strong>s locales<br />

Les variables locales sont solutions d'un problème d'optimisation disciplinaire. Ce problème<br />

dépend des variables partagées z, des variables de couplage y <strong>et</strong> des poids w. Ces poids<br />

vont servir à déterminer la fonction coût. La variable w se décompose en w = [w 1 , w 2 ],<br />

où w 1 (resp. w 2 ) sont les poids de la discipline 1 (resp. discipline 2). Par exemple, pour<br />

la discipline 1, chaque poids w 1j va servir à pondérer les sorties disciplinaire Y 1j pour<br />

construire la fonction coût disciplinaire F 1 au point [z, y, w] :<br />

∑n 1<br />

F 1 (x 1 , z, y 2 ) = w 1j Y 1j (x 1 , z, y 2 ), (2.25)<br />

j=1<br />

où n 1 est le nombre de sorties Y 1 de la discipline 1. Le problème d'optimisation disciplinaire<br />

pour la discipline 1 est alors :<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

∑<br />

min w 1j Y 1j (x 1 , z, y 2 ),<br />

n 1<br />

x 1 j=1<br />

(2.26)<br />

G 1 (x 1 , z, y 2 ) ≤ 0,<br />

x l 1 ≤ x 1 ≤ x u 1 .<br />

Construction des méta-modèles disciplinaires<br />

On choisit un échantillon de points z, y, w. La méthode de tirage de l'échantillon peut être<br />

un hypercube latin.<br />

Pour chacun des points z, y, w k = [z k , y k , w k ] de c<strong>et</strong> échantillon, on eectue une optimisation<br />

locale pour chaque discipline.<br />

Les sorties optimisées seront notées Y k : Y k = Y (x optk , z k , y k ), avec x optk les valeurs locales<br />

optimales trouvées pour la conguration [z k , y k , w k ].<br />

Après avoir eectué les optimisations disciplinaires pour tout l'échantillon z, y, w, on obtient<br />

un échantillon de sorties Y .<br />

On peut alors construire les méta-modèles disciplinaires à partir des échantillons d'entrées<br />

<strong>et</strong> de sorties (cf section 2.1.5). Ces méta-modèles prennent en entrée les variables [z, y, w],<br />

<strong>et</strong> renvoient en sortie une approximation des sorties disciplinaires optimisées : Ŷi(z, y, w).<br />

<strong>Optimisation</strong> globale<br />

La fonction coût globale F est l'une des sorties des disciplines, par exemple de la discipline<br />

performance. L'optimisation système se fait au travers des méta-modèles. Les variables


50 Les formulations pour l'optimisation multi-disciplinaire<br />

[z, y, w] doivent être solutions du problème (2.27) :<br />

⎧<br />

min F (z, y, w),<br />

z<br />

⎪⎨<br />

⎪⎩<br />

y − Ŷ (z, y, w) = 0,<br />

G(z, y, w) ≤ 0,<br />

z l ≤ z ≤ z u ,<br />

y l ≤ y ≤ y u ,<br />

w l ≤ w ≤ w u .<br />

(2.27)<br />

La cohérence interdisciplinaire est assurée par la contrainte y − Ŷ (z, y, w) = 0.<br />

On eectue un calcul disciplinaire au point [z, y, w] opt obtenu <strong>et</strong> on vérie que l'erreur entre<br />

les vraies sorties des codes Y (z, y, w) <strong>et</strong> celles des méta-modèles Ŷ (z, y, w) est assez p<strong>et</strong>ite pour<br />

armer la convergence du processus.<br />

Si elle est trop grande, on réduit l'intervalle de variation des variables z, y, <strong>et</strong> w en le centrant<br />

autour des valeurs optimales trouvées <strong>et</strong> on itère le processus.<br />

Algorithme<br />

La procédure de BLISS 2000 est la suivante :<br />

1. choix d'un échantillon de points z, y, w ;<br />

2. optimisations disciplinaires pour chaque point de z, y, w → échantillon des sorties disciplinaires<br />

optimisées Y ;<br />

3. constructions de méta-modèles disciplinaires à partir z, y, w <strong>et</strong> Y ;<br />

4. optimisation du système approché par les méta-modèles → [z opt , y opt , w opt ] ;<br />

5. test de convergence sur la diérence entre les sorties des méta-modèles <strong>et</strong> les sorties des<br />

vrais codes disciplinaires : Y (z opt , y opt , w opt ) − Ŷ (zopt , y opt , w opt ) ;<br />

si oui, arrêt,<br />

si non r<strong>et</strong>our à 1.<br />

Remarque<br />

Les poids w sont choisis par une méthode d'échantillonage dans un intervalle donné. Par<br />

exemple, pour la discipline 1, les poids w 1j associés à la sortie Y 1j sont pris dans l'intervalle<br />

[w 1jmin , w 1jmax ]. Lorsque l'on ne possède pas d'information particulière sur la fonction coût<br />

disciplinaire, l'intervalle conseillé dans l'article de référence [Agt00] est [−2, 2] pour chacun des<br />

poids. Lorsque l'on sait quelle sortie peut faire oce de fonction coût, on peut xer le poids<br />

correspondant à 1 pour minimiser c<strong>et</strong>te sortie ou -1 pour la maximiser, <strong>et</strong> m<strong>et</strong>tre à 0 les autres<br />

poids pour c<strong>et</strong>te discipline.<br />

C<strong>et</strong>te formulation est représentée sur la gure 2.7.


2.2 Les formulations MDO 51<br />

Choix d'un échantillon de points z, y, w<br />

✛<br />

z, y, w<br />

❄<br />

<strong>Optimisation</strong>s disciplinaires<br />

Y<br />

❄<br />

Contruction de méta-modèles disciplinaires<br />

Ŷ<br />

❄<br />

<strong>Optimisation</strong> système<br />

[z opt , y opt , w opt ]<br />

❄<br />

Convergence ? Y − Ŷ non<br />

✲ Réduction des intervalles de z, y, <strong>et</strong> w<br />

oui<br />

❄<br />

Stop<br />

Fig. 2.7 Diagramme de la formulation BLISS 2000.<br />

2.2.7 DIVE : Disciplinary Interaction Variable Elimination<br />

La formulation DIVE, inspirée de la méthode BLISS 2000 (cf section 2.2.6), est décrite dans<br />

[MPHC08].<br />

Principe<br />

C'est une méthode multi-niveaux où le couplage est géré avec une MDA. Comme son nom<br />

l'indique, c<strong>et</strong>te méthode cherche à réduire la complexité du problème d'optimisation par une<br />

élimination en trois temps des diérents types de variables.<br />

Élimination des variables locales x<br />

Dans un premier temps, chaque discipline optimise par rapport à ses variables locales x,<br />

an de minimiser une fonction objectif qui lui est propre. Elle doit aussi tenir compte<br />

des contraintes locales. Cela peut être par exemple minimiser la masse pour la discipline<br />

structure ou maximiser la nesse pour le module aérodynamique.<br />

Nous laissons à chaque discipline le soin de dénir sa fonction objectif F i .


52 Les formulations pour l'optimisation multi-disciplinaire<br />

Les problèmes d'optimisation disciplinaires sont alors les suivants :<br />

⎧<br />

⎪⎨ min F i (x i , z, y),<br />

x i<br />

G i (x i , z, y) ≤ 0,<br />

(2.28)<br />

⎪⎩<br />

x l i ≤ x i ≤ x u i .<br />

Les variables locales x i sont donc gérées par les disciplines qui fourniront des sorties optimisées<br />

par rapport à ces dernières, <strong>et</strong> elles seront transparentes pour le reste du système.<br />

Dans certains cas, il est plus commode de traiter les variables locales comme des variables<br />

globales. On évite de faire une optimisation par rapport à x à chaque sollicitation de la<br />

discipline.<br />

Élimination des variables de couplage y<br />

Les variables de couplage y doivent minimiser les résidus de l'équation d'état :<br />

min<br />

y<br />

‖Y (z, y) − y‖ 2 . (2.29)<br />

C<strong>et</strong>te approche spécique à la méthode DIVE pour résoudre les équations d'état du système<br />

dière des autres formulations où l'on trouve le plus souvent l'utilisation d'une méthode de<br />

point xe (MDF : cf section 2.2.1, BLISS : cf section 2.2.5) ou bien l'ajout de contraintes<br />

d'égalité (IDF : cf section 2.2.2, CO : cf section 2.2.4). C<strong>et</strong>te caractéristique fait de DIVE<br />

une méthode plus robuste, car elle pose mieux le problème de résolution de l'équation<br />

d'état <strong>et</strong> perm<strong>et</strong> de le traiter de façon plus ecace avec des techniques de minimisation<br />

classiques. La méthode de Gauss-Newton est certainement la mieux adaptée à la résolution<br />

de ce type de problèmes. On trouve aussi des cas où la méthode de point xe s'avère très<br />

ecace.<br />

Élimination des variables globales z<br />

Les variables partagées sont traitées au niveau de l'optimiseur système. Les contraintes ne<br />

pouvant pas être satisfaites aux niveaux disciplinaires seront remontées au niveau système,<br />

où elles ne dépendent désormais que des variables partagées z.<br />

Les disciplines utilisent des méta-modèles pour leurs sorties, comme ceux vus en section<br />

2.1.5. Ces méta-modèles disciplinaires renvoient, en plus des sorties Y , un indice α i sur la<br />

abilité de la réponse fournie par le méta-modèle. Lorsque α i < 0, le méta-modèle est valide<br />

en ce point, sinon, il faut le réévaluer, an d'avoir une évaluation disciplinaire correcte. C<strong>et</strong><br />

indice, qui peut traduire la fonction indicatrice d'une région de conance, perm<strong>et</strong> de savoir<br />

s'il faut ou non réactualiser le méta-modèle disciplinaire.<br />

Le problème qu'il faut résoudre au niveau global est le suivant :<br />

⎧<br />

min F (x, z, y),<br />

⎪⎨ z<br />

G i (z) ≤ 0,<br />

(2.30)<br />

α i (z) ≤ 0,<br />

⎪⎩<br />

z l ≤ z ≤ z u .<br />

La solution obtenue doit satisfaire plusieurs conditions pour être considérée comme solution<br />

du problème de conception :<br />

la abilité de chaque méta-modèle doit être vériée au point optimal ;<br />

si l'optimum est situé sur le bord du domaine de validité du méta-modèle (c'est-à-dire<br />

lorsque l'indice de abilité vérie α i = 0), il faut réévaluer ce méta-modèle autour de<br />

l'optimum <strong>et</strong> relancer l'optimisation ;


2.2 Les formulations MDO 53<br />

si les équations d'état ne sont pas résolues de manière assez précise, il faut aussi réévaluer<br />

les méta-modèles.<br />

La conguration va ainsi évoluer dans l'espace de conception, jusqu'à l'obtention d'une<br />

solution globale.<br />

Algorithme<br />

L'algorithme de la méthode DIVE est le suivant :<br />

1. initialisation des variables z <strong>et</strong> des méta-modèles disciplinaires ;<br />

2. élimination des variables locales x ;<br />

3. élimination des variables de couplage y ;<br />

4. résolution du problème d'optimisation en z ;<br />

5. vérication de la qualité de la solution optimale z opt :<br />

si la solution est sur le bord du domaine de validité, ou si les équations d'état ne sont<br />

pas satisfaites : ré-actualisation des méta-modèles autour de ce point,<br />

si c<strong>et</strong>te solution est valide, arrêt.<br />

Remarques<br />

Voici les principales particularités de c<strong>et</strong>te formulation :<br />

le choix des optimisations disciplinaires est laissé aux expert des disciplines (un exemple<br />

de choix de fonctions coût allant dans le sens de la fonction objectif globale est donné pour<br />

le cas-test Sobieski (cf section 1.2.2)) ;<br />

une importance particulière est donnée à la résolution précise des équations d'état en<br />

formulant c<strong>et</strong>te étape comme un problème d'optimisation <strong>et</strong> en vériant qu'à l'optimum<br />

ces équations sont bien résolues de manière précise ;<br />

l'évaluation de la abilité des méta-modèles disciplinaires fait de la méthode DIVE une<br />

généralisation de la méthode des régions de conance ;<br />

dans certaines circonstances, la formulation DIVE est similaire à d'autres formulations :<br />

si l'on n'utilise pas de méta-modèles <strong>et</strong> que l'on considère toutes les variables au niveau<br />

global, cela revient à la formulation MDF ;<br />

l'évaluation de la qualité de l'optimum, par rapport à la abilité donnée par chacun des<br />

méta-modèles disciplinaires <strong>et</strong> à la précision de la résolution des équations d'état, assure<br />

la robustesse de c<strong>et</strong>te méthode.<br />

La méthode DIVE est inspirée de la méthode BLISS 2000, les principales diérences entre<br />

ces deux formulations sont les suivantes.<br />

Les fonctions coût disciplinaires sont déterminées par la discipline. Ce n'est pas une somme<br />

pondérée par les variables w comme avec BLISS 2000. On réduit le nombre de variables à<br />

gérer au niveau système, car les poids n'interviennent pas dans DIVE.<br />

Pour BLISS 2000, les variables de couplage sont traitées au même niveau que les variables<br />

partagées, avec une pénalisation de l'équation d'état. Pour DIVE, elles sont traitées séparément<br />

en amont. On réduit encore le nombre de variables au niveau système on résout<br />

avec précision l'équation d'état.<br />

An de prouver la viabilité de c<strong>et</strong>te formulation, on peut utiliser par exemple les méta-modèles<br />

linéaires (cf section 2.1.5), avec une région de conance assez p<strong>et</strong>ite pour assurer la convergence


54 Les formulations pour l'optimisation multi-disciplinaire<br />

du processus.<br />

Le schéma de la formulation DIVE est exposé sur la gure 2.8.<br />

NON<br />

z opt acceptable ?<br />

✻<br />

OUI<br />

✲<br />

z opt<br />

Niveau système<br />

min F (z)<br />

z<br />

sous contraintes :<br />

G(z) ≤ 0<br />

α i ≤ 0, indices de abilité des méta-modèles<br />

z l ≤ z ≤ z u<br />

z<br />

✛<br />

Y<br />

α i<br />

❄<br />

Élimination des variables de couplage<br />

min<br />

y<br />

‖Y − y‖ 2<br />

✻<br />

Y<br />

y<br />

❄<br />

Niveau disciplinaire<br />

D 1 : x 1<br />

D 2 : x 2<br />

✻<br />

✻<br />

✲<br />

Actualise Méta-Modèles<br />

Fig. 2.8 Diagramme de la formulation DIVE.<br />

Conclusion<br />

Nous avons dressé un état de l'art des formulations MDO dans ce chapitre, en dénissant<br />

les éléments de base <strong>et</strong> en montrant les diérentes manières de les assembler pour en faire des<br />

stratégies d'optimisation.<br />

Le prochain chapitre va s'intéresser à la mise en ÷uvre pratique <strong>et</strong> à l'implémentation informatique<br />

des formulations MDO. Il faudra parfois prendre quelques libertés par rapport aux


2.2 Les formulations MDO 55<br />

dénitions des formulations données dans la littérature, <strong>et</strong> y apporter quelques modications,<br />

pour les appliquer aux diérents cas-tests. Nous nous intéresserons aussi à la substitution des<br />

codes de calcul disciplinaires par des méta-modèles linéaires <strong>et</strong> adaptatifs.


Chapitre 3<br />

Implémentation des formulations MDO<br />

Sommaire<br />

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58<br />

3.1 Implémentation sous ModelCenter . . . . . . . . . . . . . . . . . . . . 58<br />

3.1.1 Les composants discipline du cas-test SSBJ . . . . . . . . . . . . . . . 59<br />

3.1.2 MDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60<br />

3.1.3 IDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

3.1.4 CO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />

3.1.5 DIVE (optimisation disciplinaire) . . . . . . . . . . . . . . . . . . . . . . 64<br />

3.1.6 R<strong>et</strong>our d'expérience de ModelCenter . . . . . . . . . . . . . . . . . . . . 65<br />

3.2 Implémentation sous Scilab . . . . . . . . . . . . . . . . . . . . . . . . 66<br />

3.2.1 Principes repris de ModelCenter . . . . . . . . . . . . . . . . . . . . . . 67<br />

3.2.2 Implémentation des formulations MDO . . . . . . . . . . . . . . . . . . 67<br />

3.2.3 Cas particulier de BLISS . . . . . . . . . . . . . . . . . . . . . . . . . . 70<br />

3.2.4 Outils supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71<br />

3.2.5 Interface graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71<br />

Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72


58 Implémentation des formulations MDO<br />

Introduction<br />

Nous allons voir dans ce chapitre diérentes voies pour implémenter les formulations MDO.<br />

Nous proposons ici deux approches conceptuellement opposées : tout d'abord, l'utilisation de<br />

ModelCenter, un logiciel payant dédié à l'intégration de processus distribués, puis l'utilisation<br />

de Scilab, un logiciel libre pour le calcul scientique. Le choix de ces deux logiciels s'inscrit dans<br />

le contexte des proj<strong>et</strong>s liés à la thèse. En e<strong>et</strong>, l'implémentation des formulations MDO sous<br />

ModelCenter a été motivée par le proj<strong>et</strong> DOOM, <strong>et</strong> l'utilisation du logiciel Scilab vient du proj<strong>et</strong><br />

OMD-RNTL, qui cherche à promouvoir ce logiciel.<br />

Dans une première partie, nous allons examiner l'implémentation sous ModelCenter, qui est<br />

un logiciel facile d'utilisation <strong>et</strong> très pratique pour la MDO, mais payant. Nous y intégrons le<br />

cas-test Sobieski vu dans le chapitre 1 (cf section 3.1.1) <strong>et</strong> nous implémentons les formulations<br />

MDF, IDF , CO <strong>et</strong> DIVE (cf sections 3.1.2 à 3.1.5), à l'aide des outils proposés par le logiciel.<br />

Nous ne parlons pas ici des méta-modèles.<br />

Puis nous allons voir dans une deuxième partie la mise en place sous Scilab d'une <strong>application</strong><br />

dotée d'une interface graphique pour la MDO, ainsi que l'implémentation des formulations. L'implémentation<br />

sous ModelCenter a permis de se faire la main sur l'implémentation des méthodes<br />

<strong>et</strong> d'en tirer quelques enseignements. Les principes vus sous ModelCenter peuvent être repris<br />

pour notre <strong>application</strong> développée sous Scilab (cf section 3.2.1). En particulier, nous pouvons<br />

reprendre le principe qui consiste à partir de l'implémentation d'une formulation pour en créer<br />

une autre. Nous cherchons alors à implémenter les formulations de la manière la plus générale<br />

qui soit. On propose le choix d'utiliser l'optimisation des variables locales ou non, ou encore le<br />

choix d'utiliser les méta-modèles linéaires ou non. An d'obtenir des résultats complémentaires,<br />

nous développons aussi des outils, comme les points de départ multiples ou la construction de<br />

front de Par<strong>et</strong>o (cf section 3.2.4). L'<strong>application</strong> prendra la forme d'une interface graphique qui<br />

perm<strong>et</strong>tra entre autres, de choisir les paramètres de l'optimisation, d'exécuter les formulations<br />

MDO <strong>et</strong> de visualiser l'évolution des variables <strong>et</strong> des sorties (cf section 3.2.5).<br />

Nous présenterons les avantages <strong>et</strong> inconvénients des deux approches, l'une avec ModelCenter,<br />

facile d'accès mais où il devient dicile de sortir des sentiers battus (que ce soit pour des raisons<br />

de prix, ou parce qu'il est dicile d'implémenter de nouveaux outils pour la MDO), <strong>et</strong> l'autre avec<br />

Scilab, où l'on possède une grande liberté d'action <strong>et</strong> une grande maîtrise de l'environnement,<br />

mais où chaque outil reste à créer, ce qui demande un eort conséquent en implémentation.<br />

3.1 Implémentation sous ModelCenter<br />

Dans c<strong>et</strong>te partie, nous présentons l'implémentation du cas-test Sobieski (cf section 1.2) sous<br />

ModelCenter. Le logiciel ModelCenter est un logiciel développé par la société Phoenix.Il est<br />

très ergonomique <strong>et</strong> perm<strong>et</strong> de m<strong>et</strong>tre en place rapidement des modèles <strong>et</strong> analyses de système,<br />

<strong>et</strong> de les coupler avec des optimiseurs, avec comme particularité la possibilité d'accéder à des<br />

modèles distribués via le réseau (protocole HTTP). Les diérentes disciplines ont été codées en<br />

Fortran. Elles se présentent dans ModelCenter sous forme de composants. Un composant est<br />

l'encapsulation d'un code de calcul dont on décrit, à l'aide d'un langage de script, les entrées <strong>et</strong><br />

sorties d'exécution.<br />

Le logiciel propose des composants spéciques :<br />

un composant nommé convergeur, pour la recherche de zéros. Il perm<strong>et</strong>, lorsqu'on lui spécie<br />

les variables de couplage <strong>et</strong> les sorties associées, de trouver l'équilibre interdisciplinaire


3.1 Implémentation sous ModelCenter 59<br />

à l'aide d'une méthode de point xe (cf section 2.1.2) ;<br />

un composant pour l'optimisation. Il propose plusieurs algorithmes, dont un dérivé de SQP<br />

<strong>et</strong> distribué par Vanderplaast R&D : DOT-SQP (voir [Van01a]). On lui spécie les sorties<br />

qui détermineront les fonctions coût <strong>et</strong> contraintes, ainsi que les variables à optimiser. On<br />

dénit ainsi le problème d'optimisation global. On peut attribuer un optimiseur une discipline<br />

ou un sous-ensemble de composants, pour qu'il optimise ses variables locales par<br />

rapport à un objectif qui lui est propre.<br />

Les liens entres les diérentes disciplines, le composant convergeur <strong>et</strong> les modules d'optimisation<br />

sont créés grâce à l'éditeur de liens proposé par le logiciel. On peut ainsi attribuer les<br />

variables aux diérentes disciplines, spécier au composant convergeur les variables de couplage<br />

<strong>et</strong> les sorties associées, spécier aux composants pour l'optimisation les variables à optimiser, <strong>et</strong><br />

spécier quelles sorties seront les objectifs <strong>et</strong> les contraintes de l'optimisation.<br />

Nous allons tout d'abord détailler l'intégration des codes disciplinaires sous forme de composants<br />

(cf section 3.1.1), puis nous allons détailler l'implémentation de quatre formulations<br />

MDO : la méthode MDF, la méthode IDF, la méthode CO <strong>et</strong> la méthode DIVE (cf sections 3.1.2<br />

à 3.1.5).<br />

3.1.1 Les composants discipline du cas-test SSBJ<br />

Les disciplines sont représentées par leur code de calcul. Ici, les codes sont écrits en langage<br />

FORTRAN, <strong>et</strong> fonctionnent avec des chiers de données d'entrée <strong>et</strong> de sortie. Nous pouvons les<br />

intégrer dans ModelCenter sous la forme de composants.<br />

Nous allons prendre l'exemple de la discipline performance qui calcule le rayon d'action. Pour<br />

en faire un composant, nous devons créer un chier Range.filewrapper, qui contient les instructions<br />

RunCommand, RowFieldInputFile inputFile <strong>et</strong> RowFieldOutputFile outputFile.<br />

À l'appel de la discipline, on va exécuter l'instruction RunCommand :<br />

_________________________________________________________________________________<br />

RunCommand<br />

{<br />

generate inputFile<br />

run "Range"<br />

parse outputFile<br />

}<br />

_________________________________________________________________________________<br />

Nous allons détailler les trois temps de l'exécution de c<strong>et</strong>te commande.<br />

1. Dans un premier temps, l'instruction generate inputFile perm<strong>et</strong> de créer un chier<br />

d'entrée Range.txt, à partir des valeurs des variables présentes dans ModelCenter. L'instruction<br />

RowFieldInputFile inputFile 1 décrit le nom du chier à générer, ainsi que<br />

les diérentes variables :<br />

_________________________________________________________________________________<br />

RowFieldInputFile inputFile<br />

{<br />

templateFile: Range.txt.template<br />

fileToGenerate: Range.txt<br />

1 inputFile <strong>et</strong> ouputFile sont des labels perm<strong>et</strong>tant de renvoyer à la section correspondante.


60 Implémentation des formulations MDO<br />

variable: M double 2 4 description="Mach"<br />

variable: H double 3 4 description="Altitude"<br />

variable: Fin double 4 4 description="Finesse"<br />

variable: Wt double 5 5 description="Masse totale"<br />

variable: Wf double 6 6 description="Masse de carburant"<br />

variable: Sfc double 7 5 description="Consommation spécifique"<br />

}<br />

_________________________________________________________________________________<br />

On va donc prendre dans ModelCenter la valeur des diérentes variables d'entrée du code<br />

Range <strong>et</strong> les écrire dans le chier Range.txt :<br />

_________________________________________________________________________________<br />

Valeur courante<br />

M Mach : 1.4<br />

H Altitude : 60000.0<br />

Fin Finesse : 7.172897<br />

Wt Masse totale : 73713.833041<br />

Wf Masse de carburant : 19291.560467<br />

Sfc Consommation spécifique : 0.931565<br />

_________________________________________________________________________________<br />

2. L'instruction run "Range" va exécuter le code de la discipline performance. Ce code ira<br />

lire dans le chier Range.txt les valeurs des variables d'entrée, eectuera le calcul du rayon<br />

d'action <strong>et</strong> écrira les sorties dans le chier ResRange.txt :<br />

_________________________________________________________________________________<br />

R Rayon d'action: 1874.825010<br />

_________________________________________________________________________________<br />

3. Enn, l'instruction parse outputFile perm<strong>et</strong> à ModelCenter de lire les valeurs des sorties<br />

dans le chier ResRange.txt :<br />

_________________________________________________________________________________<br />

RowFieldOutputFile outputFile<br />

{<br />

fileToParse: ResRange.txt<br />

variable: R double 1 4 description="Rayon d'action"<br />

}<br />

_________________________________________________________________________________<br />

Pour intégrer les codes disciplinaires sous forme de composants ModelCenter, il faudra donc<br />

écrire un chier .filewrapper pour chacune des disciplines. À chaque appel d'un code, les<br />

sorties sont gardées en mémoire. On n'exécutera le composant que si les variables d'entrée ont<br />

été modiées depuis le dernier appel.<br />

3.1.2 MDF<br />

La formulation MDF (Multi Disciplinary Feasible, cf section 2.2.1) est la méthode la plus<br />

naturelle : en chaque point de conception, une analyse multi-disciplinaire est eectuée <strong>et</strong> les<br />

sorties sont ensuite communiquées à l'optimiseur. Nous voyons dans la gure 3.1 l'implémentation<br />

de la méthode MDF sous ModelCenter.


3.1 Implémentation sous ModelCenter 61<br />

Fig. 3.1 Implémentation de MDF sous ModelCenter.<br />

Nous voyons sur c<strong>et</strong>te gure les quatre disciplines alignées en diagonale. Les trois premières<br />

en partant du coin en haut à gauche, sont les disciplines de conception (la discipline structure, la<br />

discipline aérodynamique <strong>et</strong> la discipline propulsion). Elle sont reliées au composant convergeur<br />

situé en bas à gauche, qui perm<strong>et</strong> d'eectuer l'analyse multi-disciplinaire.<br />

Ces disciplines, une fois le processus d'équilibre interdisciplinaire convergé, envoient leurs<br />

sorties à la discipline performance située en bas à droite, qui va calculer le rayon d'action (notre<br />

fonction objectif à maximiser) <strong>et</strong> le communiquer à l'optimiseur.<br />

Les valeurs du rayon d'action <strong>et</strong> des contraintes disciplinaires sont visibles dans les tableaux<br />

situés à droite. Nous voyons aussi la valeur des 10 variables de conception dans le tableau situé<br />

en haut à gauche, ainsi que le nombre d'appels aux disciplines dans le tableau situé en haut au<br />

milieu.<br />

Avec l'algorithme DOT-SQP, le calcul des gradients (cf section 2.1.3) est eectué par diérences<br />

nies <strong>et</strong> il n'y a pas la possibilité de fournir les gradients par un autre moyen (par exemple, avec<br />

la méthode GSE). En chaque point de conception où l'on souhaite calculer ce gradient, il faudra<br />

donc faire autant de calculs couplés qu'il y a de variables de conception.<br />

3.1.3 IDF<br />

La méthode IDF (Individual Disciplinary Feasible, cf section 2.2.2), perm<strong>et</strong> de casser les liens<br />

directs qui existent entre les disciplines, <strong>et</strong> de traiter le problème de couplage non plus au niveau<br />

de l'analyse du système, mais désormais au niveau de l'optimiseur. Nous voyons sur la gure 3.2<br />

l'implémentation de la méthode IDF sous ModelCenter.<br />

Comme nous pouvons le voir sur la gure, dans le tableau en haut à gauche, le nombre de<br />

variables à optimiser a augmenté. L'optimiseur gère désormais les variables de conception <strong>et</strong> les<br />

variables de couplage. Les quatre disciplines sont situées sur la diagonale. Elles ne sont plus<br />

reliées entre elles au travers du convergeur, comme pour la méthode MDF (cf section 3.1.2). Le


62 Implémentation des formulations MDO<br />

Fig. 3.2 Implémentation de IDF sous ModelCenter.<br />

couplage est géré par l'optimiseur avec l'ajout de contraintes d'égalité sur l'équation d'état (cf<br />

section 2.1.2) :<br />

y − Y (p, y) = 0 (3.1)<br />

Ces contraintes doivent être normalisées, on utilisera par exemple les contraintes suivantes :<br />

y − Y (p, y)<br />

Y (p, y)<br />

= 0 (3.2)<br />

En pratique, l'algorithme DOT-SQP ne propose pas de prendre en compte les contraintes d'égalité.<br />

Une solution est de changer c<strong>et</strong>te contrainte en deux contraintes d'inégalité :<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

y − Y (p, y)<br />

− ≤ 0<br />

Y (p, y)<br />

y − Y (p, y)<br />

≤ 0<br />

Y (p, y)<br />

L'algorithme DOT-SQP possède comme paramètre de réglage le seuil d'activation des contraintes<br />

c a , ainsi que le seuil de violation des contraintes c v (c a <strong>et</strong> c v sont strictement positifs).<br />

(3.3)<br />

Soit G i (p, y) une contrainte d'inégalité (on va chercher à avoir G i (p, y) < 0 ,<br />

lorsque G i (p, y) ≥ −c a , la contrainte est considérée comme active, elle doit être prise en<br />

compte ;<br />

lorsque G i (p, y) ≥ c v , la contrainte est dépassée, il faut faire en sorte de la réduire.<br />

Nous voyons sur la gure 3.3, une illustration de ces paramètres.<br />

Si l'on choisit ces paramètres trop p<strong>et</strong>its, l'optimiseur s'arrête prématurément, avec une erreur<br />

signalant qu'il ne peut pas satisfaire les contraintes d'égalité. Si on les relâche trop, les valeurs<br />

des variables de couplage ne sont plus ables, <strong>et</strong> les valeurs des fonctions objectif <strong>et</strong> contraintes<br />

ne sont plus valables : on arrive à des performances intéressantes, mais qui ne reètent plus la<br />

réalité. Ce dosage empirique <strong>et</strong> délicat détermine très fortement l'issue de l'optimisation.


3.1 Implémentation sous ModelCenter 63<br />

G(p,y)>0<br />

G(p,y)


64 Implémentation des formulations MDO<br />

locales, <strong>et</strong> il n'y a plus de copie des variables partagées. Ici, les disciplines cherchent à ce que<br />

leurs sorties correspondent aux valeurs demandées par le système, tout en respectant leurs propres<br />

contraintes.<br />

Par exemple, le système va donner une masse totale y W T <strong>et</strong> un angle de vrillage yΘ comme<br />

objectifs à la discipline structure. Pour déterminer ses variables locales que sont x la section de<br />

caisson <strong>et</strong> λ l'element, c<strong>et</strong>te discipline doit résoudre le problème suivant :<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

min<br />

x,λ (yΘ − Y Θ ) 2 + (y W T<br />

− Y W T<br />

) 2 ,<br />

sous contraintes :<br />

0.98 ≤ Y Θ ≤ 1.02,<br />

σ 1 → σ 5 ≤ 1.09.<br />

À chaque appel d'une discipline, on lance une optimisation disciplinaire.<br />

De même que pour la méthode IDF (cf section 3.1.3), l'équilibre interdisciplinaire est alors<br />

assuré par la contrainte normalisée :<br />

y − Y<br />

= 0. (3.5)<br />

Y<br />

Nous r<strong>et</strong>rouvons ici la même diculté pour le réglage des paramètres de seuil d'activation <strong>et</strong><br />

de violation des contraintes spéciques à l'algorithme DOT-SQP.<br />

(3.4)<br />

3.1.5 DIVE (optimisation disciplinaire)<br />

La méthode DIVE (Disciplinary Interaction Variable Elimination, cf section 2.2.7) essaie de<br />

réduire la complexité du problème global en éliminant successivement les diérentes variables.<br />

Nous implémentons ici une version sans la gestion des méta-modèles, <strong>et</strong> nous ferons appel aux<br />

vrais codes disciplinaires. La gure 3.5 expose l'implémentation de la méthode DIVE.<br />

Fig. 3.5 Implémentation de DIVE sous ModelCenter.


3.1 Implémentation sous ModelCenter 65<br />

La première étape de la méthode DIVE est l'élimination des variables locales. Les trois<br />

disciplines de conception sont couplées avec un optimiseur. Les optimisations locales se font<br />

selon des critères choisis au préalable. Dans notre cas, nous choisissons de minimiser la masse<br />

totale W T pour la structure, maximiser la nesse L/D pour l'aérodynamique <strong>et</strong> minimiser la<br />

consommation spécique du moteur SF C pour la propulsion (ce choix de fonctions objectif<br />

disciplinaires est justié dans la section 1.2.2).<br />

La deuxième étape consiste en l'élimination des variables de couplage. Les disciplines sont<br />

reliées entre elles par le module convergeur. Ce dernier va chercher les valeurs des variables<br />

de couplage qui vont satisfaire l'équation d'état interdisciplinaire. On peut aussi remplacer le<br />

composant convergeur par un composant optimiseur, <strong>et</strong> poser le problème de cohérence interdisciplinaire<br />

comme un problème d'optimisation.<br />

Enn, la troisième étape consiste à eectuer l'optimisation globale. L'optimiseur principal<br />

(ou système) ne gère ici que les variables partagées <strong>et</strong> va chercher à optimiser le rayon d'action,<br />

tout en s'occupant des contraintes qui n'ont pas été satisfaites lors des optimisations locales.<br />

En pratique, l'algorithme est le suivant :<br />

1. l'optimiseur système gère les variables partagées, <strong>et</strong> cherche à maximiser le rayon d'action ;<br />

2. pour chaque calcul du rayon d'action, le composant convergeur est mis en route pour<br />

rechercher la cohérence disciplinaire, il s'occupe des variables d'interaction ;<br />

3. enn, à chaque fois que le composant convergeur fait appel à une discipline, une optimisation<br />

des variables locales correspondantes est eectuée.<br />

3.1.6 R<strong>et</strong>our d'expérience de ModelCenter<br />

Nous avons vu dans c<strong>et</strong>te section l'implémentation du cas-test SSBJ sous ModelCenter <strong>et</strong> de<br />

plusieurs formulations MDO, à savoir les méthodes MDF, IDF, IDF séquentiel, CO <strong>et</strong> DIVE.<br />

Nous pouvons désormais faire le point sur les diérents avantages <strong>et</strong> inconvénients que l'on peut<br />

rencontrer lors de l'utilisation de ce logiciel.<br />

Les principaux avantages de ModelCenter sont :<br />

• une grande simplicité d'utilisation, il est facile de créer des composants à partir de codes<br />

existants, <strong>et</strong> de les coupler avec les optimiseurs ;<br />

• c'est un outil ergonomique, on voit graphiquement l'organisation de notre système <strong>et</strong> on<br />

peut interpréter rapidement les diérentes formulations ;<br />

• il est intuitif, on peut facilement jongler avec les diérentes variables, grâce au link editor ;<br />

• le module d'optimisation DOT-SQP est un outil ecace <strong>et</strong> robuste, <strong>et</strong> il est très pratique de<br />

pouvoir créer autant de composants optimiseur que l'on souhaite ;<br />

• de nombreux outils perm<strong>et</strong>tent d'analyser les résultats ;<br />

• il perm<strong>et</strong> d'exécuter des codes situés sur diérentes machines éloignées physiquement.<br />

Cependant, il y a aussi plusieurs inconvénients :<br />

• le module d'optimisation DOT-SQP ne perm<strong>et</strong> pas de choisir le mode de calcul des gradients<br />

ou d'intégrer nos propres gradients. Seul le calcul de gradients par diérences nies est<br />

disponible. On ne peut donc pas utiliser la méthode GSE (cf section 2.1.3), qui perm<strong>et</strong>trait<br />

de gagner un temps conséquent sur le calcul des gradients.<br />

• il est possible d'intégrer ses propres codes d'optimisation, dans lesquels on pourrait fournir<br />

les gradients, mais cela constitue un travail d'informaticien chevronné.<br />

• c'est un logiciel qui coûte assez cher : la licence de base ne fournit pas tous les diérents<br />

outils <strong>et</strong> l'on est contraint de payer, à chaque fois que l'on doit utiliser de nouveaux mod-


66 Implémentation des formulations MDO<br />

ules (par exemple le module DARWIN pour l'optimisation avec des algorithmes génétiques).<br />

C<strong>et</strong> outil présente donc l'avantage d'être pratique, intuitif <strong>et</strong> simple d'utilisation. Mais son<br />

utilisation est limitée par son coût <strong>et</strong> l'intégration de nouveaux outils d'optimisation n'est pas<br />

une tâche aisée.<br />

3.2 Implémentation sous Scilab<br />

Une alternative à ModelCenter est d'utiliser un logiciel libre, <strong>et</strong> nous allons voir dans c<strong>et</strong>te<br />

section l'implémentation des formulations MDO sous Scilab 2 . Nous pourrons nous inspirer des<br />

principes <strong>et</strong> des outils vus avec ModelCenter, <strong>et</strong> en établir de nouveaux. Ce logiciel présente<br />

l'avantage d'être gratuit <strong>et</strong> nous donne la possibilité d'en maîtriser chaque partie. Cependant ce<br />

n'est pas un logiciel conçu spécialement pour l'optimisation multi-disciplinaire <strong>et</strong> son utilisation<br />

pour la MDO va demander un plus grand eort de programmation. Comme son nom l'indique :<br />

Scilab pour Scientic Laboratory, est un logiciel dédié au calcul scientique. Il se présente<br />

comme une alternative libre au logiciel commercial Matlab 3 . Le choix du logiciel Scilab pour<br />

l'implémentation des formulations MDO n'est pas anodin. Tout d'abord, des logiciels comme<br />

Scilab ou Matlab orent la possibilité d'implémenter <strong>et</strong> de tester des programmes rapidement.<br />

Un des avantages de Scilab par rapport à Matlab est que, même s'il ne regroupe pas tous les<br />

outils présents dans Matlab, il perm<strong>et</strong> de réaliser la plupart des programmes courants <strong>et</strong> surtout<br />

il est gratuit. De plus, un des objectifs du proj<strong>et</strong> OMD-RNTL est de promouvoir l'utilisation du<br />

logiciel Scilab. Il était donc important, dans ce contexte, de développer une <strong>application</strong> avec ce<br />

logiciel. Nous donnons dans c<strong>et</strong>te section un plan d'ensemble des ambitions de ce logiciel. Le but<br />

de c<strong>et</strong> outil est de prouver la capacité du logiciel Scilab pour l'optimisation multi-disciplinaire.<br />

Pour cela, on souhaite créer un programme perm<strong>et</strong>tant de tester ces diérentes méthodes sur<br />

plusieurs cas-tests.<br />

L'implémentation sous ModelCenter nous a permis de comprendre certains principes que<br />

nous pouvons reprendre pour ce programme sous Scilab (cf section 3.2.1).<br />

Nous souhaitons créer un outil qui puisse être utilisé par plusieurs cas-tests. Nous m<strong>et</strong>tons en<br />

place une interface entre les codes de calcul <strong>et</strong> notre programme. Nous implémentons des outils<br />

pour l'optimisation multi-disciplinaire, qui seront utilisables par n'importe quel code de calcul<br />

disciplinaire, <strong>et</strong> par conséquent tout cas-test pourra être réalisé.<br />

Les formulations MDO possèdent souvent plusieurs points communs, <strong>et</strong> on peut passer de<br />

l'une à l'autre en changeant certains éléments de l'implémentation. Par exemple, la méthode<br />

MDF utilise une analyse système de type MDA. Lorsqu'on choisit d'utiliser une analyse système<br />

de type IDA (pour laquelle les disciplines sont appelées indépendamment, <strong>et</strong> où la cohérence<br />

interdisciplinaire est assurée par des contraintes d'égalité) nous obtenons la méthode IDF. Nous<br />

allons donc implémenter les formulations MDO de la manière la plus générale possible (cf section<br />

3.2.2).<br />

Nous proposons notamment le choix de la fonction objectif <strong>et</strong> des contraintes sur les sorties<br />

an de ne pas se limiter à un seul problème d'optimisation.<br />

Des outils qui perm<strong>et</strong>tront d'obtenir des résultats supplémentaires sont réalisés, comme les<br />

points de départ multiples ou la construction de fronts de Par<strong>et</strong>o (cf section 3.2.4).<br />

L'<strong>application</strong> prendra la forme d'une interface graphique, qui perm<strong>et</strong>tra entre autres, de<br />

choisir les paramètres de l'optimisation, d'exécuter les formulations MDO <strong>et</strong> de visualiser l'évolution<br />

des variables <strong>et</strong> des sorties (cf section 3.2.5).<br />

2 http ://www.scilab.org<br />

3 http ://www.mathworks.fr


3.2 Implémentation sous Scilab 67<br />

3.2.1 Principes repris de ModelCenter<br />

La mise en place des formulations MDO sous ModelCenter (cf section 3.1) a permis de nous<br />

faire une première expérience, <strong>et</strong> d'en tirer quelques enseignements sur leur implémentation. Nous<br />

r<strong>et</strong>enons tout particulièrement trois points.<br />

1. Sous ModelCenter, les codes disciplinaires ne sont exécutés que dans le cas où les variables<br />

d'entrée ont été modiées depuis le dernier appel ; an d'éviter les calculs inutiles, nous<br />

pouvons donc garder en mémoire les dernières sorties <strong>et</strong> faire un test sur les variables, <strong>et</strong><br />

ainsi réduire le nombre d'appels aux codes de calcul ;<br />

2. L'optimiseur DOT-SQP disponible sous ModelCenter gère les contraintes d'égalité sous la<br />

forme de deux contraintes d'inégalité (Y − y < 0 <strong>et</strong> Y − y > 0), nous pouvons implémenter<br />

les contraintes d'égalité sous c<strong>et</strong>te forme, ou bien de façon classique (Y − y = 0) ;<br />

3. On peut partir de l'implémentation d'une formulation pour en créer une autre. Par exemple,<br />

en partant de la formulation MDF, si l'on supprime le composant convergeur qui assure<br />

la cohérence interdisciplinaire, <strong>et</strong> que l'on ajoute des contraintes d'égalité pour assurer<br />

c<strong>et</strong>te cohérence, on obtient la formulation IDF. Toujours en partant de la formulation<br />

MDF, si l'on attribue des optimiseurs locaux à chaque discipline, on se rapproche, en<br />

première analyse, de la formulation DIVE. Dans notre logiciel sous Scilab, nous cherchons<br />

à implémenter les formulations de la manière la plus générale qui soit. Cela perm<strong>et</strong>tra de<br />

passer facilement d'une formulation à l'autre.<br />

3.2.2 Implémentation des formulations MDO<br />

Nous cherchons à implémenter les formulations MDO de la manière la plus générale possible.<br />

Nous nous inspirons fortement de la méthode DIVE (cf section 2.2.7). Comme nous pouvons le<br />

voir sur la gure 3.6, une formulation MDO peut se composer de trois parties.<br />

1. Niveau disciplinaire : à ce niveau, nous dénissons le type d'appel aux disciplines.<br />

Les disciplines peuvent être appelées de façon normale, ou bien elles peuvent être reliées à<br />

un optimiseur qui va eectuer l'optimisation des variables locales, à chaque appel du code<br />

de calcul disciplinaire.<br />

Ces réponses disciplinaires (optimisées localement ou non) peuvent être approchées par des<br />

méta-modèles. Chaque discipline doit être en mesure de proposer le méta-modèle qui lui<br />

convient le mieux. Au niveau système, nous considérons que les réponses des sollicitations<br />

aux disciplines sont fournies par les méta-modèles. L'appel brut au code disciplinaire doit<br />

être considéré comme un méta-modèle valide en chaque point.<br />

An de prouver la viabilité de l'utilisation des méta-modèles dans un processus d'optimisation<br />

multi-disciplinaire, nous proposons ici des approximations linéaires, avec une taille<br />

de région de conance xe. Nous chercherons empiriquement la bonne taille qui perm<strong>et</strong>te<br />

d'assurer la cohérence des sorties au cours de l'optimisation, tout en laissant la possibilité<br />

d'atteindre rapidement l'optimum. Nous faisons l'hypothèse que, si c<strong>et</strong>te méthode marche<br />

avec ces méta-modèles très simples, alors elle ne pourra que mieux fonctionner avec d'autres<br />

méta-modèles plus élaborés, <strong>et</strong> surtout plus adaptés 4 .<br />

2. Niveau système : nous pouvons faire le choix entre deux types d'analyses système.<br />

4 Il faut garder à l'esprit que la complexité d'un méta-modèle ne fait pas toujours son ecacité ; il reste à<br />

trouver une approximation qui soit en adéquation avec la modélisation disciplinaire.


68 Implémentation des formulations MDO<br />

Initialiser / Régénérer Méta-modèles<br />

✲<br />

Mode d'appel aux disciplines<br />

• optimisation locale :<br />

✲<br />

D ✛ Optimiseur local<br />

ou<br />

• appel normal<br />

Type de Méta-modèle<br />

• code de calcul brut<br />

ou<br />

• approximation linéaire<br />

Méta-modèles disciplinaires<br />

❄<br />

Analyse système<br />

Type analyse système<br />

• MDA<br />

ou<br />

- point xe<br />

- Gauss-Newton<br />

- optimisation<br />

• IDA<br />

Calcul de gradient<br />

si MDA :<br />

• diérences nies<br />

ou<br />

• GSE<br />

Sorties, Gradients<br />

❄<br />

✻<br />

Variables<br />

<strong>Optimisation</strong> système<br />

Optimiseur système<br />

• CFSQP<br />

ou<br />

• LIN<br />

Cohérence interdisciplinaire<br />

si IDA :<br />

• Y − y = 0<br />

ou<br />

• |Y − y| < ε<br />

Point optimal<br />

❄<br />

Non<br />

• méta-modèle valide ?<br />

• équation d'état résolue ?<br />

Oui<br />

✲ Convergence<br />

Fig. 3.6 Implémentation des formulations MDO sous Scilab.


3.2 Implémentation sous Scilab 69<br />

• MDA (Multi-Disciplinary Analysis) : les disciplines sont dépendantes les unes des autres.<br />

L'analyse système perm<strong>et</strong> de résoudre l'équation d'état interdisciplinaire <strong>et</strong> de dénir<br />

ainsi la valeur des variables d'interaction. Pour eectuer c<strong>et</strong>te MDA, nous pouvons<br />

choisir les méthodes de point xe, de Gauss-Newton <strong>et</strong> de minimisation vues dans la<br />

section 2.1.2.<br />

Lorsque l'on choisit une analyse système de type MDA, on peut aussi faire un choix pour<br />

le calcul des gradients : utiliser les diérences nies ou bien la méthode GSE.<br />

• IDA (Individual Disciplinary Analysis) : les disciplines sont considérées indépendantes.<br />

On ne tient pas compte à ce niveau de l'interaction entre les disciplines. L'équilibre<br />

interdisciplinaire est assuré par des contraintes d'égalité au niveau de l'optimiseur.<br />

Pour l'analyse système de type IDA, on peut faire le choix de considérer ces contraintes<br />

d'égalité en tant que telles (Y − y = 0), ou bien de les considérer comme des contraintes<br />

d'inégalité (|Y − y| < ε).<br />

3. Optimiseur système : dans le logiciel Scilab, il n'y a pas d'optimiseur perm<strong>et</strong>tant de<br />

gérer les contraintes d'égalité ou d'inégalité non linéaires.<br />

Il existe cependant une interface avec le code CFSQP [Law01] qui implémente la méthode<br />

SQP (Sequential Quadratic Programming).<br />

Il existe aussi la fonction linpro qui perm<strong>et</strong> de résoudre des problèmes d'optimisation<br />

linéaires. Nous pouvons créer avec c<strong>et</strong>te fonction une méthode itérative, qui linéarise notre<br />

problème <strong>et</strong> qui utilise la méthode des régions de conance. Nous appelons c<strong>et</strong> optimiseur<br />

LIN. C<strong>et</strong> optimiseur est détaillé en annexe B.3<br />

Ce logiciel propose le choix parmi ces deux optimiseurs système.<br />

Nous pouvons alors dénir 6 choix pour l'implémentation d'une formulation MDO : 3 choix<br />

majeurs qui détermineront sa nature <strong>et</strong> 3 choix mineurs qui seront des options supplémentaires.<br />

Ces choix sont proposés par l'interface graphique (cf gure 3.7).<br />

Choix majeurs :<br />

Fig. 3.7 Fenêtre de choix pour la formulation MDO.<br />

• optimisation disciplinaire : sans ou avec optimisation disciplinaire de type CO ou<br />

DIVE ;


70 Implémentation des formulations MDO<br />

• méta-modèle disciplinaire : sans ou avec utilisation d'approximations linéaires ;<br />

• analyse du système : MDA ou IDA.<br />

Choix mineurs :<br />

• optimiseur système : CFSQP ou LIN ;<br />

• calcul de gradient (si MDA) : diérences nies ou GSE ;<br />

• contraintes d'égalité sur l'équation d'état (si IDA) : Y − y = 0 ou |Y − y| < ε.<br />

L'exécution de la formulation MDO va donc se dérouler de la sorte :<br />

1. Initialisation / Régénération des méta-modèles :<br />

Si nous utilisons des méta-modèles, ces derniers sont actualisés au point courant. Leur domaine<br />

de validité est déni. Lorsqu'il n'y a pas de méta-modèle, nous utilisons directement<br />

les sorties des codes de calcul disciplinaires (optimisées par rapport aux variables locales<br />

ou non) <strong>et</strong> nous les considérons pour la suite comme des méta-modèles valides en tout point.<br />

2. <strong>Optimisation</strong><br />

L'optimisation se déroule au travers des méta-modèles. Pour dénir le problème d'optimisation<br />

nous devons :<br />

choisir une des sorties des disciplines comme notre fonction objectif à maximiser ou<br />

minimiser,<br />

déterminer les valeurs de bornes pour les variables en fonction des régions de conance,<br />

xer des bornes pour les sorties, qui déniront nos contraintes d'inégalité.<br />

3. Vérication de la validité du point optimum : on regarde si le point optimal trouvé<br />

satisfait bien les conditions suivantes :<br />

le point trouvé n'est pas sur le bord de la région de conance,<br />

l'équation d'état est bien satisfaite en ce point,<br />

la validité du méta-modèle est maximale en ce point (par exemple, pour les méta-modèles<br />

linéaires, l'évaluation est exacte au centre de la région de conance).<br />

Si oui, nous pouvons considérer que la conguration optimale est atteinte. Dans le cas<br />

contraire, on reprend à partir du point 1.<br />

3.2.3 Cas particulier de BLISS<br />

La formulation BLISS (cf section 2.2.5) dière des autres, dans le sens où les optimisations<br />

locales <strong>et</strong> globales se font en série. Voici l'implémentation faite pour un cycle de BLISS. On<br />

utilise tout d'abord des appels normaux aux disciplines, pour eectuer l'analyse système de type<br />

MDA, <strong>et</strong> le calcul des gradients de type GSE. Une fois les sorties <strong>et</strong> les gradients calculés, on<br />

peut procéder aux optimisations disciplinaires.<br />

Nous implémentons les instructions pour calculer les fonctions objectifs <strong>et</strong> contraintes disciplinaires,<br />

à partir d'une approximation à l'ordre 1 des sorties disciplinaires. Pour l'optimisation<br />

de la discipline performance, on ajoute l'information donnée par les coecients de Lagrange<br />

obtenus avec les autres disciplines (cf section 2.2.5).


3.2 Implémentation sous Scilab 71<br />

3.2.4 Outils supplémentaires<br />

Nous avons aussi implémenté deux outils pour pouvoir mieux analyser les formulations. Tout<br />

d'abord, nous pouvons exécuter une formulation en partant de plusieurs points initiaux. Ces<br />

points sont sélectionnés aléatoirement dans l'espace de conception, via l'outil MULTI-START mis<br />

en place.<br />

L'outil PARETO perm<strong>et</strong> de construire un front de Par<strong>et</strong>o pour deux fonctions objectifs choisies,<br />

en utilisant la méthode des objectifs contraints (voir annexe B.2).<br />

Le logiciel perm<strong>et</strong> de visualiser les valeurs des gradients, ainsi que celles des coecients de<br />

Lagrange associés aux contraintes du problème :<br />

avec les gradients, on peut voir l'inuence des variables sur les diérentes sorties ;<br />

les coecients de Lagrange perm<strong>et</strong>tent de mesurer l'impact de la variation d'une contrainte<br />

sur le résultat obtenu. En e<strong>et</strong>, les coecients de Lagrange nous donnent la sensibilité de la<br />

fonction coût à la variation des contraintes : λ = df . En considérant le problème linéarisé<br />

dg<br />

autour de l'optimum, lorsque l'on relâche une contrainte d'une quantité dg, la fonction<br />

objectif peut alors être améliorée d'une quantité λdg. Nous pouvons ainsi déterminer quelles<br />

sont les contraintes qui possèdent le plus d'inuence sur notre solution.<br />

3.2.5 Interface graphique<br />

L'interface graphique se compose de quatre parties :<br />

la fenêtre principale, qui perm<strong>et</strong> de choisir le cas-test, régler les options <strong>et</strong> lancer les formulations<br />

;<br />

la fenêtre d'achage des variables ;<br />

la fenêtre d'achage des sorties ;<br />

le compteur du nombre d'appels aux codes disciplinaires.<br />

• La fenêtre principale (voir gure 3.8) perm<strong>et</strong> d'eectuer diérentes actions :<br />

choisir <strong>et</strong> charger un cas test (Sobieski ou Dassault) ;<br />

choisir la formulation MDO (directement, ou avec la fenêtre de choix présente dans la<br />

gure 3.7) ;<br />

régler des paramètres de l'optimisation :<br />

dx : pas pour les diérences nies,<br />

eps : paramètre de CFSQP pour la convergence,<br />

tol : tolérance pour la convergence de la MDA,<br />

miter : nombre maximal d'itérations,<br />

iprint : mode d'achage de CFSQP,<br />

epsilon : seuil de la contrainte |(Y − y)‖ ≤ ɛ,<br />

nb_multistart : nombre de points dans l'échantillon pour le multistart,<br />

taille_rc : taille par défaut de la région de conance,<br />

da : nombre de points du front de Par<strong>et</strong>o.<br />

Les boutons perm<strong>et</strong>tent d'eectuer plusieurs actions :<br />

CHARGER_CAS_TEST : charger un cas-test ;<br />

INIT : initialisation de points par les milieux des bornes ;<br />

RAND : initialisation aléatoire ;<br />

EXEC : exécuter la formulation MDO sélectionnée ;<br />

COURBE : tracer l'évolution des variables ou des sorties sélectionnées ;<br />

MULTI : eectuer la formulation en partant de plusieurs points diérents ;


72 Implémentation des formulations MDO<br />

ABORT : arrêter l'optimisation en cours ;<br />

GRADIENT : acher les valeurs des gradients des sorties sélectionnées ;<br />

LAGRANGE : calculer <strong>et</strong> acher les coecients de Lagrange associés aux contraintes.<br />

Fig. 3.8 Fenêtre principale de l'<strong>application</strong> Scilab.<br />

• La fenêtre des variables perm<strong>et</strong> l'achage des valeurs des variables au cours de l'optimisation.<br />

Elle perm<strong>et</strong> aussi le choix des valeurs initiales des variables <strong>et</strong> de leurs contraintes<br />

de borne.<br />

• La fenêtre des sorties perm<strong>et</strong> de choisir la (ou les, dans le cas de l'optimisation multiobjectif)<br />

fonction(s) coût, ainsi que les contraintes de borne sur les sorties, qui déniront<br />

les contraintes d'inégalité du problème d'optimisation.<br />

Sur ces deux fenêtres, on peut visualiser les coecients de Lagrange associés aux contraintes<br />

de borne ou aux contraintes d'inégalité.<br />

• Enn, une dernière fenêtre perm<strong>et</strong> de visualiser le nombre d'appels aux disciplines.<br />

Les fenêtres des variables, des sorties <strong>et</strong> des compteurs sont présentées sur la gure 3.9.<br />

Conclusion<br />

Nous avons vu dans ce chapitre l'implémentation des diérentes formulations MDO, sous deux<br />

environnements, ModelCenter <strong>et</strong> Scilab. Dans le chapitre qui suit, nous allons voir <strong>et</strong> analyser les<br />

résultats obtenus sur chacun des deux cas-tests présentés dans le chapitre 1. Nous pourrons ainsi<br />

les comparer <strong>et</strong> tirer des conclusions quant à l'utilité <strong>et</strong> l'ecacité des diérentes formulations.<br />

Nous essaierons aussi de montrer ce que l'on peut gagner en substituant aux codes de calcul<br />

disciplinaires des méta-modèles évolutifs.


3.2 Implémentation sous Scilab 73<br />

Fig. 3.9 Fenêtres des variables, des sorties <strong>et</strong> des compteurs.


Chapitre 4<br />

Résultats obtenus avec les formulations<br />

MDO<br />

Sommaire<br />

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />

4.1 Résultats pour le cas test Sobieski avec ModelCenter . . . . . . . . 76<br />

4.1.1 MDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77<br />

4.1.2 IDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79<br />

4.1.3 CO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80<br />

4.1.4 DIVE (sans méta-modèle) . . . . . . . . . . . . . . . . . . . . . . . . . . 82<br />

4.1.5 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83<br />

4.2 Résultats pour le cas-test Sobieski avec Scilab . . . . . . . . . . . . . 84<br />

4.2.1 Analyse multi-disciplinaire (MDA) . . . . . . . . . . . . . . . . . . . . . 84<br />

4.2.2 Les formulations MDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />

4.2.3 Multi-start pour DIVE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />

4.2.4 Front de Par<strong>et</strong>o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />

4.2.5 Coecients de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />

4.2.6 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93<br />

4.3 Résultats pour le cas-test Dassault avec Scilab . . . . . . . . . . . . . 93<br />

4.3.1 Analyse multi-disciplinaire (MDA) . . . . . . . . . . . . . . . . . . . . . 94<br />

4.3.2 Les formulations MDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96<br />

4.3.3 Multi-start pour DIVE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />

4.3.4 Front de Par<strong>et</strong>o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />

4.3.5 Coecients de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />

4.3.6 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />

Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102


76 Résultats obtenus avec les formulations MDO<br />

Introduction<br />

Dans ce chapitre, nous allons montrer les résultats obtenus avec les diérentes implémentations<br />

vues dans le chapitre 3. Le but ici est de montrer avec ces résultats les performances<br />

des diérentes formulations, mais aussi la viabilité <strong>et</strong> l'ecacité de l'utilisation de méta-modèles<br />

linéaires. Les codes du cas-test Sobieski sous ModelCenter <strong>et</strong> Scilab présentent quelques différences,<br />

qui peuvent se r<strong>et</strong>rouver au niveau des résultats obtenus.<br />

Dans une première section, nous présentons les résultats obtenus avec le cas-test Sobieski<br />

implémenté sous ModelCenter (cf section 4.1). Dans les sections suivantes, nous présentons les<br />

résultats obtenus avec le logiciel Scilab : pour le cas-test Sobieski (cf section 4.2), <strong>et</strong> pour le<br />

cas-test Dassault (cf section 4.3).<br />

En conclusion, nous essaierons de tirer, à partir de ces résultats, des remarques générales sur<br />

les formulations MDO, <strong>et</strong> sur l'utilisation des méta-modèles dans l'optimisation multi-disciplinaire.<br />

4.1 Résultats pour le cas test Sobieski avec ModelCenter<br />

Dans c<strong>et</strong>te partie, nous analysons les résultats obtenus avec le cas-test Sobieski (cf section 1.2)<br />

sous ModelCenter. Les formulations testées ici sont les formulations MDF, IDF, CO <strong>et</strong> DIVE.<br />

On rappelle que l'objectif ici est de maximiser le rayon d'action.<br />

Les tableaux 4.1 à 4.4 donnent les résultats suivants :<br />

• les rayons d'action atteints par chacune des formulations (cf tableau 4.1) ;<br />

• les variables optimales obtenues (cf tableau 4.2) ;<br />

• le nombre d'appels eectués par les codes de calcul disciplinaires (cf tableau 4.3) ;<br />

• les sorties des disciplines (cf tableau 4.4) :<br />

le rayon d'action R <strong>et</strong> les sorties directement liées à son calcul, à savoir la masse totale<br />

W T , la masse de carburant W F , la nesse L/D <strong>et</strong> la consommation spécique SF C ;<br />

les sorties des disciplines qui serviront de contraintes d'inégalité pour le problème d'optimisation.<br />

Type Sorties MDF CO IDF DIVE<br />

Rayon d'action R 3495 3249 3452 3504<br />

Après MDA . 3241 3499 .<br />

Tab. 4.1 Rayons d'action atteints (Sobieski, ModelCenter).


4.1 Résultats pour le cas test Sobieski avec ModelCenter 77<br />

Type Variables MDF CO IDF DIVE lb ub<br />

Partagées<br />

Locales<br />

t/c 0.06 0.055 0.06 0.06 0.01 0.09<br />

h 60000 60000 60000 60000 30000 60000<br />

M 1.4 1.4 1.4 1.4 1.4 1.8<br />

AR 2.5 2.5 2.5 2.5 2.5 8.5<br />

Λ 70 70 69.4 70 70 140<br />

S REF 1500 1483.1 1477.9 1500 500 1500<br />

Structure λ 0.26 0.25 0.28 0.1 0.1 0.4<br />

x 0.76 1.04 0.88 0.75 0.75 1.25<br />

Aérodynamique C f 0.75 0.75 0.75 0.75 0.75 1.25<br />

Propulsion T 0.16 0.14 0.16 0.16 0.1 1<br />

Tab. 4.2 Variables optimales obtenues (Sobieski, ModelCenter).<br />

Nombre d'appels MDF CO IDF DIVE<br />

Structure 239 639 104 693<br />

Aérodynamique 239 717 120 78<br />

Propulsion 239 440 64 271<br />

Performance 45 77 136 15<br />

Total 762 1873 424 1057<br />

Itérations DOT-SQP 4 4 8 2<br />

Tab. 4.3 Nombres d'appels aux disciplines (Sobieski, ModelCenter).<br />

En première remarque, nous pouvons dire que chacune des formulations converge vers une<br />

même conguration optimale. Nous allons tout d'abord analyser ces résultats pour chacune des<br />

formulations, puis nous essayerons, par une analyse comparative, de faire ressortir des remarques<br />

générales.<br />

4.1.1 MDF<br />

Pour c<strong>et</strong>te méthode présentée en section 2.2.1, nous remarquons que :<br />

• le convergeur fait entre 4 <strong>et</strong> 8 appels à chaque discipline, avant d'obtenir un équilibre interdisciplinaire<br />

avec une précision relative de 10 −5 . Nous pouvons dire ici que la recherche<br />

de la cohérence interdisciplinaire est assez facile, puisqu'elle peut être résolue avec une<br />

méthode de point xe avec un nombre d'itérations faible.<br />

• Le rayon d'action maximum est obtenu en 4 itérations de l'algorithme DOT-SQP, il at-


78 Résultats obtenus avec les formulations MDO<br />

Type Sorties MDF CO IDF DIVE lb ub<br />

Performance R 3495 3249 3452 3504<br />

L/D 13.4 14.1 12.7 13.2<br />

W T 74253.3 74971 70778.1 73446.2<br />

W F 19317.9 17651.2 18959.9 19350.6<br />

Sfc 0.92 0.93 0.92 0.92<br />

Contraintes<br />

Structure Θ 0.96 1.03 0.97 0.96 0.95 1.05<br />

σ 1 0.99 0.93 0.96 1.01 1.09<br />

σ 2 1.00 0.95 0.97 1.01 1.09<br />

σ 3 1.00 0.97 0.98 1.01 1.09<br />

σ 4 1.00 0.97 0.98 1.01 1.09<br />

σ 5 1.00 0.98 0.99 1.01 1.09<br />

Aérodynamique dp/dx 1.04 1.02 1.04 1.04 1.04<br />

Propulsion ESF 0.73 0.80 0.75 0.73 0.5 1.5<br />

DT 0.003 -325.5 -0.48 -0.01 0<br />

T emp 0.84 0.84 0.84 0.84 1.02<br />

Tab. 4.4 Les sorties optimales obtenues (Sobieski, ModelCenter).<br />

teint la valeur de 3495 Nm 1 . La gure 4.1 montre l'évolution du rayon d'action au cours<br />

des itérations.<br />

• Il y a 6 variables de conception qui atteignent leurs bornes : l'altitude h, le nombre de<br />

Mach M, l'allongement AR, la surface de référence S REF , la èche Λ <strong>et</strong> le coecient de<br />

frottement C F .<br />

• Les contraintes non-linéaires saturées sont : dp/dx <strong>et</strong> DT .<br />

• Le nombre d'appels aux disciplines est de 239 pour chacune des disciplines de conception<br />

(Structure, Aérodynamique <strong>et</strong> Propulsion) <strong>et</strong> de 45 pour la discipline performance. Pour<br />

chaque analyse du système, le convergeur va appeler le même nombre de fois les disciplines<br />

de conception.<br />

• Les gradients sont calculés par diérences nies. On pourrait avoir moins d'appels aux<br />

codes de calcul disciplinaires en utilisant la méthode GSE. Malheureusement, l'algorithme<br />

DOT-SQP, présent dans ModelCenter, établit lui même les gradients par diérences nies <strong>et</strong><br />

ne perm<strong>et</strong> pas de les lui transm<strong>et</strong>tre par ailleurs.<br />

1 Nautic Miles


4.1 Résultats pour le cas test Sobieski avec ModelCenter 79<br />

Fig. 4.1 Évolution du rayon d'action avec la formulation MDF (Sobieski, ModelCenter).<br />

4.1.2 IDF<br />

C<strong>et</strong>te formulation (cf section 2.2.2) présente un nombre d'appels aux disciplines beaucoup<br />

moins important que celui obtenu avec la méthode MDF. Cependant, elle présente plus de dif-<br />

cultés pour le réglage des paramètres de l'optimiseur DOT-SQP (cf section 3.1.3), <strong>et</strong> l'équation<br />

d'état interdisciplinaire est résolue de manière moins précise, ce qui va aecter directement la<br />

qualité des résultats.<br />

• Nous avons obtenu des résultats corrects avec les paramètres de l'optimiseur suivant : 0.01<br />

pour le seuil d'activation <strong>et</strong> 0.1 pour le seuil de violation des contraintes. Pour d'autres<br />

réglages de ces seuils, nous n'obtenons pas de résultats satisfaisants. Si l'on serre trop ces<br />

paramètres, l'optimiseur s'arrête avec une erreur signalant qu'il ne peut pas satisfaire les<br />

contraintes d'égalité. Si on les relâche trop, les valeurs des variables de couplage ne sont plus<br />

ables <strong>et</strong> l'optimiseur s'arrête bien avant d'obtenir un rayon d'action correct. Ce dosage<br />

est empirique <strong>et</strong> détermine très fortement l'issue de l'optimisation.<br />

• Nous obtenons ici un rayon d'action R de 3452 Nm, la gure 4.2 montre l'évolution du<br />

rayon d'action R.<br />

• À la n de l'optimisation, les plus grandes erreurs de couplage en relatif sont de l'ordre de<br />

0.2, ce qui reste assez important. On ne peut pas se contenter d'une précision relative aussi<br />

peu satisfaisante <strong>et</strong> les résultats obtenus ici ne sont pas utilisables à un niveau industriel.


80 Résultats obtenus avec les formulations MDO<br />

• An de se faire une idée des vrais résultats que l'on peut atteindre avec c<strong>et</strong>te méthode, on<br />

refait un calcul couplé (MDA) avec les variables de conception optimales obtenues avec la<br />

formulation IDF. Le tableau 4.1 présente les résultats obtenus après une MDA, on obtient<br />

un rayon d'action de 3499 Nm. Il y a donc une diérence entre le rayon d'action de 3452<br />

Nm calculé avec la méthode IDF <strong>et</strong> la vraie valeur pour la conguration obtenue.<br />

• La variable S REF obtenue est de 1477 ft 2 . Si l'on prend une surface de référence S REF de<br />

1500 ft 2 , on obtient un rayon d'action de 3450 Nm <strong>et</strong> les contraintes sont toujours respectées.<br />

La méthode IDF n'a pas convergé ici exactement sur la conguration optimale.<br />

• C<strong>et</strong>te méthode est donc avantageuse en terme de nombre d'appels aux disciplines <strong>et</strong> s'avère<br />

peu précise <strong>et</strong> peu robuste.<br />

Fig. 4.2 Évolution du rayon d'action avec la formulation IDF (Sobieski, ModelCenter).<br />

4.1.3 CO<br />

La formulation CO est présentée en section 2.2.4. On rappelle ici qu'il s'agit d'une version<br />

simpliée (cf section 3.1.4).<br />

• Le rayon d'action obtenu avec c<strong>et</strong>te méthode est de 3249 Nm, la gure 4.3 montre l'évolution<br />

du rayon d'action R.


4.1 Résultats pour le cas test Sobieski avec ModelCenter 81<br />

• Pour avoir une idée des vraies valeurs des sorties obtenues avec c<strong>et</strong>te méthode, on eectue<br />

une MDA avec les paramètres de conception obtenus [x CO , z CO ] , on obtient alors un rayon<br />

d'action d'une valeur de 3241 Nm, ce qui reste proche du résultat précédent. On constate<br />

cependant que la contrainte de la discipline structure sur le vrillage Θ n'est plus respectée.<br />

• Le nombre d'appels aux diérentes fonctions est largement supérieur à celui de la méthode<br />

MDF, nombre bien évidemment dû aux optimisations disciplinaires.<br />

• An de réduire ce nombre d'appels, on peut essayer de ne pas imposer de point de départ<br />

sur les variables locales pour les optimisations disciplinaires, c'est-à-dire de repartir<br />

du dernier point optimal trouvé. Cependant, on se rend compte que c<strong>et</strong>te technique ne<br />

marche pas toujours bien <strong>et</strong> il apparaît des problèmes de robustesse. Les tests que nous<br />

avons eectués montrent que l'on peut le faire seulement avec les variables locales de la<br />

discipline propulsion. Lorsqu'on le fait avec d'autres disciplines, nous obtenons de mauvais<br />

résultats, car l'optimisation s'arrête (non-convergence) avant de trouver un optimum satisfaisant.<br />

• La robustesse des optimisations locales joue un rôle essentiel dans les formulations de type<br />

multi-niveaux.<br />

Fig. 4.3 Évolution du rayon d'action avec la formulation CO (Sobieski, ModelCenter)


82 Résultats obtenus avec les formulations MDO<br />

4.1.4 DIVE (sans méta-modèle)<br />

La méthode DIVE est implémentée ici sans la gestion des méta-modèles (cf section 3.1.5).<br />

• Le rayon d'action obtenu avec c<strong>et</strong>te méthode est de 3504 Nm. Le couplage est bien assuré.<br />

La contrainte dp/dx est saturée. Seules les variables t/c <strong>et</strong> T n'atteignent pas leurs bornes.<br />

• La diérence avec le résultat obtenu avec MDF s'expliquerait principalement par une masse<br />

de carburant W F plus élevée, due à une épaisseur relative t/c légèrement plus importante<br />

<strong>et</strong> malgré une nesse L/D plus basse. Ces résultats sont cohérents du point de vue de la<br />

physique.<br />

• Le nombre d'appels aux disciplines est assez élevé, à cause des optimisations locales. On<br />

peut essayer de ne pas forcer un point de départ identique pour toutes les optimisations<br />

locales, mais on rencontre, comme pour la méthode CO, des problèmes de robustesse (échec<br />

de la convergence au niveau global).<br />

• Cependant, le nombre d'itérations de l'algorithme DOT-SQP est très bas : seulement 2 itérations.<br />

On peut faire l'hypothèse que, comme la plupart des variables partagées z atteignent<br />

leurs bornes, leur optimisation est plus aisée, <strong>et</strong> que l'optimisation des variables locales est<br />

plus sensible <strong>et</strong> doit être laissée aux experts des disciplines.<br />

La gure 4.4 représente l'évolution du rayon d'action au cours des itérations de l'algorithme<br />

DOT-SQP.


4.1 Résultats pour le cas test Sobieski avec ModelCenter 83<br />

Fig. 4.4 Évolution du rayon d'action avec la formulation DIVE (Sobieski, ModelCenter)<br />

4.1.5 Remarques<br />

Les formulations testées nous mènent vers la même conguration optimale. Quelques points<br />

perm<strong>et</strong>tent de les comparer :<br />

• la performance obtenue : lorsque que l'on regarde les vrais résultats (ceux obtenus après<br />

une MDA), la méthode qui nous mène à la meilleure performance est la formulation DIVE,<br />

ce qui montre à la fois l'importance de l'optimisation multi-niveaux, <strong>et</strong> la pertinence des<br />

fonctions coût disciplinaires choisies (cf section 1.2.2) ;<br />

• la précision des résultats obtenus : les méthodes MDF <strong>et</strong> DIVE nous donnent, de par leur<br />

nature <strong>et</strong> de par les résultats obtenus, une très bonne précision sur les sorties fournies ; la<br />

méthode CO nous donne ici une précision acceptable, quant à la méthode IDF, elle fournit<br />

une précision passable <strong>et</strong> qui ne peut être satisfaisante, même à un niveau de conceptual<br />

design ;<br />

• le nombre d'appels aux disciplines : la méthode la plus rapide est IDF (on pourrait imaginer<br />

utiliser c<strong>et</strong>te méthode IDF pour une première approche de l'optimum <strong>et</strong> terminer la<br />

recherche de c<strong>et</strong> optimum avec une autre méthode plus précise) ; les méthodes multi-niveaux<br />

sont plus gourmandes en temps de calcul, par le fait que l'on eectue une optimisation locale<br />

à chaque appel de la discipline ;


84 Résultats obtenus avec les formulations MDO<br />

• la diculté d'implémentation : les méthodes qui traitent le problème de couplage avec des<br />

contraintes d'égalité sont plus diciles à m<strong>et</strong>tre en place, car elles demandent un réglage<br />

n de l'optimiseur. En général, il vaut mieux utiliser les formulations utilisant une MDA,<br />

car elles sont plus faciles à régler, l'équation d'état est résolue de façon précise <strong>et</strong> la qualité<br />

des résultats obtenus est donc meilleure.<br />

Nous allons voir dans les sections qui suivent les résultats obtenus avec les cas-test Sobieski<br />

<strong>et</strong> Dassault sous Scilab. Nous pourrons ainsi confronter ces remarques à l'implémentation sous<br />

un autre logiciel, ainsi qu'à un nouveau cas-test.<br />

4.2 Résultats pour le cas-test Sobieski avec Scilab<br />

Nous voyons dans c<strong>et</strong>te partie les résultats obtenus pour le cas-test Sobieski (cf section 1.2).<br />

Dans un premier temps, nous analysons la convergence de l'analyse multi-disciplinaire (cf<br />

section 4.2.1) pour les trois méthodes disponibles avec le logiciel développé sous Scilab.Nous<br />

voyons ensuite les résultats obtenus pour plusieurs formulations (cf section 4.2.2), à savoir les<br />

méthodes MDF, DIVE, IDF, CO <strong>et</strong> BLISS, <strong>et</strong> nous comparons leurs performances respectives.<br />

Nous montrons quelques résultats complémentaires pour la méthode DIVE. Nous testons la<br />

robustesse de c<strong>et</strong>te méthode en la lançant à partir de plusieurs points de départ tirés aléatoirement<br />

dans l'espace de conception (cf section 4.2.3). Nous cherchons à obtenir un front de Par<strong>et</strong>o pour<br />

deux fonctions objectifs, à savoir minimiser la masse totale W T <strong>et</strong> maximiser le rayon d'action<br />

R (cf section 4.2.4). Nous montrons enn les coecients de Lagrange associés à chacune des<br />

contraintes du problème, an de voir quelles contraintes jouent un rôle prédominant dans le<br />

problème d'optimisation (cf section 4.2.5).<br />

4.2.1 Analyse multi-disciplinaire (MDA)<br />

L'analyse multi-disciplinaire revient à trouver un équilibre entre les diérentes disciplines (cf<br />

section 2.1.2). Nous avons à notre disposition trois méthodes :<br />

la méthode du point xe (MDA FP) ;<br />

la minimisation des résidus (MDA OPTIM) ;<br />

la méthode de Gauss-Newton (MDA GN).<br />

Nous allons voir dans c<strong>et</strong>te section l'ecacité de chacune de ces méthodes, pour deux cas<br />

diérents :<br />

1. appels directs aux disciplines ;<br />

2. appels aux disciplines avec optimisation des variables locales ;<br />

Appels directs aux disciplines<br />

Nous considérons dans un premier temps les appels aux codes disciplinaires bruts. La gure<br />

4.5 montre la convergence en précision de ces méthodes (log 10 ( ∑ i<br />

‖Y i − y i ‖ 2 )), en fonction du<br />

nombre d'analyses disciplinaires. La précision désirée pour la MDA est de 10 −15 . Les oscillations<br />

observées avec la méthode de Gauss-Newton ne comprom<strong>et</strong>tent en rien sa convergence, <strong>et</strong> c<strong>et</strong>te<br />

méthode atteint la précision demandée.


4.2 Résultats pour le cas-test Sobieski avec Scilab 85<br />

Fig. 4.5 Convergence de la MDA, appels directs aux disciplines(Sobieski, Scilab).<br />

Le tableau 4.5 montre le nombre réel d'appels pour chaque discipline (en e<strong>et</strong>, lorsqu'une<br />

discipline est sollicitée, alors que ses entrées n'ont pas été modiées depuis le dernier calcul, on<br />

récupère les sorties en mémoire <strong>et</strong> on ne réeectue pas le même calcul).<br />

Nombre d'appels MDA FP MDA OPTIM MDA GN<br />

Analyses disciplinaires 5 95 221<br />

Structure 5 70 158<br />

Aérodynamique 5 70 158<br />

Propulsion 5 44 96<br />

Performance 1 1 1<br />

Tab. 4.5 Nombres d'appels aux disciplines, MDA (Sobieski, Scilab).<br />

Au vu de ces résultats, la méthode de point xe semble être la plus ecace. Il est cependant<br />

important d'avoir d'autres possibilités, au cas où on aurait aaire à un cas-test plus dicile,<br />

pour lequel la méthode de point xe ne convergerait pas.<br />

<strong>Optimisation</strong> des variables locales<br />

Nous considérons des appels aux disciplines avec optimisation des variables locales. Les fonctions<br />

coût disciplinaires sont celles démontrées dans la section 1.2.2 (minimiser la masse totale<br />

pour la discipline structure, maximiser la nesse pour la discipline aérodynamique <strong>et</strong> minimiser<br />

la consommation spécique pour la discipline propulsion).


86 Résultats obtenus avec les formulations MDO<br />

La gure 4.6 montre la convergence en précision de ces méthodes (log 10 ( ∑ ‖Y i − y i ‖ 2 )), en<br />

i<br />

fonction du nombre d'analyses disciplinaires. La précision désirée pour la MDA est de 10 −15 . Les<br />

oscillations observées avec la méthode de Gauss-Newton ne comprom<strong>et</strong>tent en rien sa convergence,<br />

<strong>et</strong> c<strong>et</strong>te méthode atteint la précision demandée.<br />

Fig. 4.6 Convergence de la MDA, optimisation des variables locales (Sobieski, Scilab).<br />

Le tableau 4.6 montre le nombre d'appels pour chaque code de calcul disciplinaire (ce qui<br />

comprend les appels pour les optimisations disciplinaires).<br />

Nombre d'appels MDA FP MDA OPTIM MDA GN<br />

Analyses disciplinaires 6 89 289<br />

Structure 24 296 873<br />

Aérodynamique 16 184 582<br />

Propulsion 24 208 592<br />

Performance 1 1 1<br />

Tab. 4.6 Nombres d'appels aux disciplines, MDA OPT (Sobieski, Scilab).<br />

Ici, les nombres d'analyses des disciplines sont voisins de ceux obtenus avec des appels aux<br />

disciplines normaux. Le nombre d'appels aux codes de calculs disciplinaires est plus élevé, en<br />

raison des optimisations disciplinaires.<br />

En conlusion de c<strong>et</strong>te analyse, nous ferons appel à la méthode de point xe pour assurer la<br />

convergence de la MDA.


4.2 Résultats pour le cas-test Sobieski avec Scilab 87<br />

4.2.2 Les formulations MDO<br />

Dans c<strong>et</strong>te section, nous testons plusieurs formulations MDO avec le cas-test Sobieski, à<br />

savoir MDF, DIVE, IDF, CO <strong>et</strong> BLISS.<br />

Nous voyons dans le tableau 4.7 le point de départ pour toutes les formulations, ainsi que<br />

la meilleure conguration trouvée. Nous rappelons l'intervalle de variation [lb,ub] des variables.<br />

L'objectif de c<strong>et</strong> exercice est de maximiser le rayon d'action (R).<br />

Variables Valeur initiale Valeur optimale lb ub<br />

λ 0.25 0.12 0.1 0.4<br />

x 1 0.75 0.75 1.25<br />

C f 1 0.75 0.75 1.25<br />

T 0.5 0.156 0.1 1<br />

t c 0.05 0.06 0.01 0.9<br />

h 45000 60000 30000 60000<br />

M 1.6 1.4 1.4 1.8<br />

AR 5.5 2.5 2.5 8.5<br />

Λ 55 70 40 70<br />

S REF 1000 1500 500 1500<br />

R 536 3494<br />

Tab. 4.7 Congurations initiale <strong>et</strong> optimale (Sobieski, Scilab).<br />

Pour la suite, nous considérons que les congurations obtenues avec les diérentes formulations<br />

sont proches de celle-ci <strong>et</strong> nous n'en donnerons pas les détails. Nous préciserons juste, pour<br />

chacune des formulations, le rayon d'action <strong>et</strong> le nombre d'appels aux disciplines.<br />

MDF <strong>et</strong> DIVE<br />

Le tableau 4.8 présente les résultats obtenus avec les formulations MDF <strong>et</strong> DIVE.<br />

• Ici, la diérence fondamentale entre ces deux formulations est l'utilisation des méta-modèles<br />

disciplinaires avec la méthode DIVE.<br />

• La précision exigée pour la MDA est de 10 −15 .<br />

• Le pas choisi pour les calculs de gradients par diérences nies est de 10 −2 .<br />

• Nous testons ces deux formulations avec les deux optimiseurs disponibles : CFSQP <strong>et</strong> LIN.<br />

Les résultats obtenus avec CFSQP sont moins bons, en termes de rayon d'action <strong>et</strong> de<br />

nombre d'appels. Par souci de clarté, nous montrons uniquement les résultats obtenus avec<br />

l'optimiseur LIN.<br />

• La formulation DIVE utilise les méta-modèles linéaires. An d'avoir de bons résultats en<br />

terme de nombre d'appels, la taille de la région de conance des méta-modèles disciplinaires<br />

est xée à 1 (nous utilisons des variables normalisées).<br />

• Les formulations MDF <strong>et</strong> DIVE obtiennent le même rayon d'action de 3494 Nm.<br />

• La formulation DIVE est la plus performante, en terme de nombre d'appels.


88 Résultats obtenus avec les formulations MDO<br />

Formulation MDF DIVE<br />

R 3494 3494<br />

Nombre d'appels<br />

Structure 221 117<br />

Aérodynamique 261 143<br />

Propulsion 141 65<br />

Performance 140 91<br />

Total 763 416<br />

Tab. 4.8 Résultats pour les formulations MDF <strong>et</strong> DIVE (Sobieski, Scilab).<br />

• L'utilisation de méta-modèles locaux <strong>et</strong> adaptatifs perm<strong>et</strong> donc d'arriver à des solutions<br />

cohérentes (la qualité de la solution obtenue est la même que pour le cas sans méta-modèle),<br />

tout en réduisant de manière conséquente le nombre d'appels.<br />

Fig. 4.7 Déplacement des régions de conance, formulation DIVE (Sobieski, Scilab).<br />

La gure 4.7 montre le déplacement des régions de conance pour deux variables. An d'illustrer<br />

ce phénomène, la taille de la région de conance est xée ici à 0.05 . La variable en abscisse<br />

est l'element <strong>et</strong> la variable en ordonnée est la position de la man<strong>et</strong>te des gaz T . Les valeurs des<br />

variables sont normalisées.


4.2 Résultats pour le cas-test Sobieski avec Scilab 89<br />

DIVE avec optimisation des variables locales<br />

Nous nous intéressons à l'optimisation des variables locales. Les fonctions coût disciplinaires<br />

sont ici celles démontrées dans la section 1.2.2 (minimiser la masse totale pour la discipline<br />

structure, maximiser la nesse pour la discipline aérodynamique <strong>et</strong> minimiser la consommation<br />

spécique pour la discipline propulsion).<br />

• Nous testons ici deux versions :<br />

1. DIVE OPT : optimisation des variables locales ;<br />

2. DIVE MM OPT : utilisation des méta-modèles linéaires <strong>et</strong> optimisation des variables<br />

locales.<br />

• La précision exigée pour la MDA est de 10 −15 .<br />

• Le pas choisi pour les calculs de gradients par diérences nies est de 10 −2 .<br />

• Nous testons ces deux formulations avec les deux optimiseurs disponibles : CFSQP <strong>et</strong> LIN.<br />

Les résultats obtenus avec CFSQP sont moins bons, en termes de rayon d'action <strong>et</strong> de<br />

nombre d'appels. Par souci de clarté, nous montrons uniquement les résultats obtenus avec<br />

l'optimiseur LIN.<br />

• An d'avoir de bons résultats, en terme de nombre d'appels, la taille de la région de con-<br />

ance des méta-modèles disciplinaires est xée à 1.<br />

Le tableau 4.9 présente les résultats obtenus.<br />

Formulation DIVE OPT DIVE MM OPT<br />

R 3489 3492<br />

Nombre d'appels<br />

Structure 183 465<br />

Aérodynamique 120 1993<br />

Propulsion 104 311<br />

Performance 28 119<br />

Total 435 2888<br />

Tab. 4.9 Résultats pour la formulation DIVE avec optimisation des variables locales (Sobieski,<br />

Scilab).<br />

DIVE OPT<br />

• L'utilisation de l'optimisation disciplinaire s'avère assez ecace. La solution est trouvée en<br />

4 itérations de l'optimiseur global.<br />

• En conséquence, le nombre d'appels obtenu est meilleur que pour la formulation MDF (cf<br />

tableau 4.8).<br />

• La solution obtenue n'est pas tout à fait la solution optimale.<br />

DIVE MM OPT<br />

• Dans ce cas, l'optimisation de méta-modèles linéaires ne conduit pas forcément à de<br />

meilleurs résultats.


90 Résultats obtenus avec les formulations MDO<br />

• La qualité de la solution est meilleure (3492 Nm pour DIVE MM OPT, contre 3489 Nm<br />

pour DIVE OPT).<br />

• Les nombres d'appels aux disciplines sont assez importants.<br />

L'optimisation des variables locales (DIVE OPT) donne un bon résultat en terme de performance.<br />

Par contre, dans ce cas, l'utilisation des méta-modèles (DIVE MM OPT) devient trop<br />

coûteuse <strong>et</strong> n'apporte pas d'amélioration conséquente.<br />

IDF<br />

Le tableau 4.10 présente les résultats obtenus avec la formulation IDF (cf section 2.2.2).<br />

Formulation<br />

IDF<br />

R 3596<br />

après MDA 3455<br />

Nombre d'appels<br />

Structure 1188<br />

Aérodynamique 1188<br />

Propulsion 678<br />

Performance 1527<br />

Total 4581<br />

Tab. 4.10 Résultats pour la formulation IDF (Sobieski, Scilab).<br />

• Le pas choisi pour le calcul des gradients par diérences nies est de 10 −4 , <strong>et</strong> le seuil de la<br />

contrainte ‖y − Y ‖ < ɛ est xé à 0.1.<br />

• L'optimiseur utilisé ici est CFSQP, nous n'obtenons pas de bons résultats avec l'optimiseur<br />

LIN.<br />

• Les essais eectués avec l'utilisation de contraintes de la forme ‖y − Y ‖ = 0 ne sont pas<br />

concluants.<br />

• Le rayon d'action obtenu avec la formulation IDF est de 3596 Nm. Cependant, comme<br />

l'équation d'état n'est pas résolue de façon précise, ce rayon d'action n'est pas utilisable<br />

en l'état. Il convient d'eectuer une MDA en partant de la conguration optimale an de<br />

récupérer le vrai rayon d'action, qui est de 3455 Nm.<br />

• C<strong>et</strong>te méthode requiert un grand nombre d'appels <strong>et</strong> obtient un résultat moyen <strong>et</strong> peu<br />

précis.<br />

CO<br />

Le tableau 4.11 présente les résultats obtenus avec la formulation CO (cf section 2.2.4).<br />

• De même que pour la méthode IDF, nous n'obtenons pas de bons résultats avec l'optimiseur<br />

LIN, nous utilisons donc l'optimiseur CFSQP.<br />

• Les contraintes d'égalité du type Y − y = 0 ne donnent pas non plus de bon résultats.<br />

• Nous utilisons donc les contraintes du type ‖Y − y‖ < ɛ, avec ɛ = 0.1.<br />

• Le pas choisi pour les calculs des gradients par diérences nies est de 10 −4 .


4.2 Résultats pour le cas-test Sobieski avec Scilab 91<br />

Formulation<br />

CO<br />

R 3451<br />

après MDA 3165<br />

Nombre d'appels<br />

Structure 49964<br />

Aérodynamique 3851<br />

Propulsion 27435<br />

Performance 1544<br />

Total 82794<br />

Tab. 4.11 Résultats pour la formulation CO (Sobieski, Scilab).<br />

• Le rayon d'action obtenu avec la méthode CO est de 3451 Nm. De même que pour IDF,<br />

l'équation d'état n'étant pas résolue de manière précise, ce résultat n'est pas utilisable.<br />

Après une MDA, nous obtenons le vrai rayon d'action, qui est de 3165 Nm.<br />

• C<strong>et</strong>te méthode fait littéralement exploser le nombre d'appels aux disciplines.<br />

BLISS<br />

Le tableau 4.12 présente les résultats obtenus avec la formulation BLISS (cf section 2.2.5).<br />

• Les problèmes d'optimisation de niveau disciplinaire <strong>et</strong> de niveau système étant linéaires,<br />

nous utilisons ici l'optimiseur LIN.<br />

• La précision exigée pour la MDA est de 10 −15 .<br />

• Le pas choisi pour les calculs de gradients par diérences nies est de 10 −2 .<br />

Formulation<br />

BLISS<br />

R 3485<br />

Nombre d'appels<br />

Structure 54<br />

Aérodynamique 62<br />

Propulsion 38<br />

Performance 29<br />

Total 183<br />

Tab. 4.12 Résultats pour la formulation BLISS (Sobieski, Scilab).<br />

De même que pour la méthode DIVE avec optimisation des variables locales, la convergence se<br />

fait en 4 itérations. Les nombres d'appels obtenus correspondent à 4 analyses multi-disciplinaires<br />

(MDA) <strong>et</strong> 4 calculs de gradients (GSE). Nous obtenons avec c<strong>et</strong>te formulation le meilleur résultat,<br />

en terme de nombre d'appels aux codes de calculs disciplinaires, mais pas le meilleur rayon<br />

d'action.


92 Résultats obtenus avec les formulations MDO<br />

4.2.3 Multi-start pour DIVE<br />

Les formulations perm<strong>et</strong>tant d'avoir le meilleur rayon d'action sont MDF <strong>et</strong> DIVE avec<br />

l'optimiseur LIN. Parmi ces deux, celle qui perm<strong>et</strong> d'eectuer le moins d'appels est la méthode<br />

DIVE. An de tester sa robustesse 2 , nous eectuons c<strong>et</strong>te formulation avec 100 points de départ<br />

pris au hasard dans l'espace de conception.<br />

La formulation trouve une solution dans tous les cas. Comme le résume le tableau 4.13, nous<br />

obtenons 2 rayons d'action diérents : 3494 Nm dans 94% des cas <strong>et</strong> 2516 Nm dans 6% des cas.<br />

R % nombre d'appels moyen<br />

3494 94 473<br />

2516 6 752<br />

Tab. 4.13 Multistart avec la formulation DIVE (Sobieski, Scilab).<br />

• Nous pouvons constater ici que ce problème possède un minimum local à 2516 Nm.<br />

• À titre de comparaison, le nombre total d'appels obtenu précédemment avec la formulation<br />

DIVE utilisant les méta-modèles linéaires est de 412 (cf tableau 4.8).<br />

• Dans la grande majorité des cas (94%), la formulation converge vers le bon optimum, <strong>et</strong><br />

ce, avec un nombre d'appels aux codes de calcul disciplinaires qui reste faible.<br />

• Ces résultats nous montrent la robustesse de la méthode DIVE.<br />

4.2.4 Front de Par<strong>et</strong>o<br />

Nous cherchons ici à optimiser deux objectifs diérents : à savoir minimiser la masse totale <strong>et</strong><br />

maximiser le rayon d'action. Pour cela, nous recherchons l'ensemble des solutions non-dominées<br />

qui constituent le front de Par<strong>et</strong>o.<br />

La gure 4.8 présente le front de Par<strong>et</strong>o obtenu avec la méthode des objectifs contraints (cf<br />

section B.2). La formulation utilisée est la méthode DIVE avec les méta-modèles linéaires.<br />

• En abscisse, nous avons la masse totale W T <strong>et</strong> en ordonnée nous avons le rayon d'action<br />

R.<br />

• La croix bleue en bas à gauche indique la conguration qui minimise la masse totale W T .<br />

• La croix bleue en haut à droite indique la conguration qui maximise le rayon d'action R.<br />

• La courbe en points bleus est obtenue en minimisant la masse totale W T avec une contrainte<br />

sur le rayon d'action R.<br />

• La courbe rouge est obtenue en maximisant le rayon d'action avec une contrainte sur la<br />

masse W T .<br />

• Nous pouvons constater que ces deux courbes concordent, ce qui perm<strong>et</strong> d'armer que<br />

nous avons le bon front de Par<strong>et</strong>o.<br />

4.2.5 Coecients de Lagrange<br />

Les coecients de Lagrange λ déterminent la sensibilité de la fonction objectif f aux contraintes<br />

g : λ = df<br />

dg .<br />

2 Nous dénissons ici la robustesse comme la capacité d'une méthode à trouver la bonne solution pour n'importe<br />

quel point de départ.


4.3 Résultats pour le cas-test Dassault avec Scilab 93<br />

Fig. 4.8 Front de Par<strong>et</strong>o Masse / Rayon d'action (Sobieski, Scilab).<br />

Les contraintes qui possèdent les plus grands coecients de Lagrange sont donc celles qu'il<br />

va falloir essayer de relâcher pour améliorer notre objectif. À l'optimum, nous pouvons regarder<br />

les coecients de Lagrange, an de savoir quelles sont les contraintes les plus importantes.<br />

Le tableau 4.14 présente les diérentes variables <strong>et</strong> sorties, ainsi que leurs coecients de<br />

Lagrange associés. Ici les contraintes les plus déterminantes sur notre rayon d'action sont les<br />

contraintes de bornes sur les variables de coecient de frottement C f , de nombre de Mach M,<br />

<strong>et</strong> d'allongement relatif AR <strong>et</strong> la contrainte sur la sortie de gradient de pression dp/dx.<br />

4.2.6 Remarques<br />

Les résultats obtenus dans c<strong>et</strong>te section nous perm<strong>et</strong>tent de faire les remarques suivantes :<br />

• Pour ce cas-test, la méthode de point xe est la plus ecace pour eectuer l'analyse <strong>multidisciplinaire</strong>,<br />

<strong>et</strong> ce, dans tous les cas de gure considérés (appels normaux, optimisation<br />

des variables locales).<br />

• Le méthodes IDF <strong>et</strong> CO, où la cohérence interdisciplinaire est gérée avec des contraintes<br />

d'égalité sur l'équation d'état, ne donnent pas de bon résultats.<br />

• Les méthodes DIVE <strong>et</strong> BLISS perm<strong>et</strong>tent d'obtenir les meilleurs résultats, en terme de<br />

nombre d'appels. Parmi ces deux formulations, la méthode DIVE est celle qui atteint le<br />

meilleur rayon d'action.<br />

• C<strong>et</strong>te méthode est robuste, comme le prouvent les résultats obtenus avec le multi-start,<br />

ainsi que la construction du front de Par<strong>et</strong>o pour deux objectifs distincts.<br />

4.3 Résultats pour le cas-test Dassault avec Scilab<br />

Nous voyons dans c<strong>et</strong>te partie les résultats obtenus pour le cas-test Dassault (cf section 1.3).<br />

Contrairement au cas-test Sobieski vu précédemment, ce cas-test ne présente pas de variables


94 Résultats obtenus avec les formulations MDO<br />

Variables Valeur lb ub Lagrange<br />

λ 0.12 0.1 0.4 0<br />

x 0.75 0.75 1.25 -10.5<br />

C f 0.75 0.75 1.25 -544<br />

T 0.156 0.1 1 0<br />

t c 0.06 0.01 0.9 0<br />

h 60000 30000 60000 0.24<br />

M 1.4 1.4 1.8 -5488<br />

AR 2.5 2.5 8.5 -722<br />

Λ 70 40 70 72.4<br />

S REF 1500 500 1500 1.07<br />

Sorties<br />

Θ 1.03 0.97 1.03 78.8<br />

ESF 0.73 0.5 1.5 0<br />

σ 1 0.91 1.05 0<br />

σ 2 0.93 1.05 0<br />

σ 3 0.95 1.05 0<br />

σ 4 0.96 1.05 0<br />

σ 5 0.96 1.05 0<br />

dp/dx 1.04 1.04 7179<br />

DT 0 0 350.3<br />

Tab. 4.14 Coecients de Lagrange à l'optimum (Sobieski, Scilab).<br />

locales.<br />

Dans un premier temps, nous analysons la convergence de l'analyse multi-disciplinaire (cf section<br />

4.3.1) pour les trois méthodes disponibles avec le logiciel développé sous Scilab. Nous voyons<br />

ensuite les résultats obtenus pour plusieurs formulations (cf section 4.3.2), à savoir les méthodes<br />

MDF, DIVE <strong>et</strong> IDF.Nous montrons quelques résultats complémentaires pour la méthode DIVE.<br />

Nous testons la robustesse de c<strong>et</strong>te méthode en la lançant à partir de plusieurs points de départ<br />

tirés aléatoirement dans l'espace de conception (cf section 4.3.3). Nous cherchons à obtenir un<br />

front de Par<strong>et</strong>o pour deux fonctions objectifs, à savoir minimiser la masse totale W T <strong>et</strong> maximiser<br />

le rayon d'action R (cf section 4.3.4). Nous montrons enn les coecients de Lagrange associés à<br />

chacune des contraintes du problème, an de voir quelles contraintes jouent un rôle prédominant<br />

dans le problème d'optimisation (cf section 4.3.5).<br />

4.3.1 Analyse multi-disciplinaire (MDA)<br />

L'analyse multi-disciplinaire revient à trouver un équilibre entre les diérentes disciplines (cf<br />

section 2.1.2). Nous avons à notre disposition trois méthodes :<br />

la méthode du point xe (MDA FP) ;


4.3 Résultats pour le cas-test Dassault avec Scilab 95<br />

la minimisation des résidus (MDA OPTIM) ;<br />

la méthode de Gauss-Newton (MDA GN).<br />

Nous allons voir dans c<strong>et</strong>te section l'ecacité de chacune de ces méthodes pour deux cas :<br />

1. appels directs aux disciplines ;<br />

2. utilisation de méta-modèles linéaires.<br />

Appels directs aux disciplines<br />

Nous considérons dans un premier temps les appels aux codes disciplinaires bruts.<br />

La gure 4.9 montre la convergence en précision de ces méthodes (log 10 ( ∑ ‖Y i − y i ‖ 2 )), en<br />

i<br />

fonction du nombre d'analyses disciplinaires.<br />

Fig. 4.9 Convergence de la MDA, appels directs aux disciplines (Dassault, Scilab).<br />

Le tableau 4.15 montre le nombre réel d'appels pour chaque discipline (en e<strong>et</strong>, lorsqu'une<br />

discipline est sollicitée, alors que ses entrées n'ont pas été modiées depuis le dernier calcul, on<br />

récupère les sorties en mémoire <strong>et</strong> on ne réeectue pas le même calcul).<br />

• La méthode de point xe est la plus rapide jusqu'à une précision d'environ 10 −11 .<br />

• Au delà, la méthode de minimisation des résidus devient la plus ecace.<br />

Appels aux méta-modèles linéaires<br />

Dans c<strong>et</strong>te section, nous regardons la convergence de l'analyse multi-disciplinaire, lorsque<br />

les disciplines sont substituées par des méta-modèles linéaires. La gure 4.10 montre la convergence<br />

en précision de ces méthodes (log 10 ( ∑ ‖Y i − y i ‖ 2 )), en fonction du nombre d'analyses<br />

i<br />

disciplinaires.


96 Résultats obtenus avec les formulations MDO<br />

Nombre d'appels MDA FP MDA OPTIM MDA GN<br />

Analyse disciplinaires 25 22 97<br />

Structure 25 22 97<br />

Aérodynamique 25 22 97<br />

Propulsion 25 22 97<br />

Performance 1 1 1<br />

Tab. 4.15 Nombres d'appels aux disciplines, MDA (Dassault, Scilab).<br />

Fig. 4.10 Convergence de la MDA, utilisation de méta-modèles linéaires (Dassault, Scilab).<br />

Le tableau 4.16 montre le nombre d'appels pour chaque code de calcul disciplinaire brut<br />

(qui sera ici le nombre d'appels aux codes de calcul disciplinaires pour élaborer le méta-modèle<br />

linéaire).<br />

• Le comportement des courbes reste similaire au cas des appels normaux aux disciplines.<br />

• La méthode de point xe est la plus rapide, pour une précision de l'ordre de 10 −12 . Au<br />

delà, la méthode de minimisation des résidus est la plus ecace.<br />

• Le nombre d'appels aux disciplines est ici le nombre d'appels nécessaire à la génération des<br />

méta-modèles linéaires.<br />

4.3.2 Les formulations MDO<br />

Ce cas-test ne possède pas de variables locales, nous ne testons que les formulations MDO<br />

mono-niveau, à savoir MDF, DIVE <strong>et</strong> IDF.<br />

Nous voyons dans le tableau 4.17 le point de départ pour toutes les formulations, ainsi que


4.3 Résultats pour le cas-test Dassault avec Scilab 97<br />

Nombre d'appels MDA FP MDA OPTIM MDA GN<br />

IDA 23 21 103<br />

Structure 18 18 18<br />

Aérodynamique 18 18 18<br />

Propulsion 19 19 19<br />

Performance 21 21 21<br />

Tab. 4.16 Nombres d'appels aux disciplines, MDA MM (Dassault, Scilab).<br />

la meilleure conguration trouvée. Nous rappelons l'intervalle de variation [lb,ub] des variables.<br />

L'objectif de c<strong>et</strong> exercice est de minimiser la masse totale au décollage (TOW).<br />

Variables Valeur initiale Valeur optimale lb ub<br />

z 13250 14894 8000 18500<br />

xmach 1.8 1.6 1.6 2<br />

S 150 100 100 200<br />

φ w 0 55 46.8 40 70<br />

φ w 100 5 -5.3 -10 20<br />

xl w 0.275 0.05 0.05 0.5<br />

t w c 0.06 0.04 0.04 0.08<br />

φ w 0 55 70 40 70<br />

φ w 100 5 0 0 10<br />

xl w 0.275 0.05 0.05 0.5<br />

t w c 0.065 0.05 0.05 0.08<br />

D fus 2.25 2 2 2.5<br />

W fuel 27500 15000 15000 40000<br />

α 12.5 15 10 15<br />

xfac 0.9 0.85 0.85 0.95<br />

T OW 55875 33065 50000<br />

Tab. 4.17 Congurations initiale <strong>et</strong> optimale (Dassault, Scilab).<br />

Pour la suite, nous considèrerons que les congurations obtenues avec les diérentes formulations<br />

sont proches de celle-ci <strong>et</strong> nous n'en donnerons pas les détails. Nous préciserons juste, pour<br />

chacune des formulations, la masse au décollage (TOW) <strong>et</strong> le nombre d'appels aux disciplines.<br />

MDF <strong>et</strong> DIVE<br />

Nous donnons dans le tableau 4.18 les résultats obtenus avec les formulations MDF <strong>et</strong> DIVE<br />

avec méta-modèles linéaires.<br />

• La précision exigée pour la MDA est de 10 −15 .


98 Résultats obtenus avec les formulations MDO<br />

• Le pas choisi pour les calculs de gradients par diérences nies est de 10 −2 .<br />

• Nous testons ces deux formulations avec les deux optimiseurs disponibles : CFSQP <strong>et</strong> LIN.<br />

• La formulation DIVE utilise les méta-modèles linéaires. An d'avoir de bons résultats en<br />

terme de nombre d'appels, la taille de la région de conance des méta-modèles disciplinaires<br />

est xée à 0.2 (c<strong>et</strong>te valeur est déterminée empiriquement, en deçà le nombre d'appels sera<br />

plus élevé, au delà nous n'obtenons pas la convergence du processus).<br />

Formulation MDF CFSQP DIVE CFSQP MDF LIN DIVE LIN<br />

TOW 33207 33203 33065 33065<br />

Nombre d'appels<br />

Structure 1475 234 1564 576<br />

Aérodynamique 1475 234 1564 576<br />

Propulsion 1506 247 1599 608<br />

Performance 1568 273 1699 672<br />

Total 6024 988 6426 2432<br />

Tab. 4.18 Résultats pour les formulations MDF <strong>et</strong> DIVE (Dassault, Scilab).<br />

• Pour chacun des optimiseurs, les formulations MDF <strong>et</strong> DIVE obtiennent quasiment les<br />

mêmes résultats (33207 kg pour MDF CFSQP <strong>et</strong> 33203 kg pour DIVE CFSQP, 33065<br />

kg pour MDF LIN <strong>et</strong> DIVE LIN). L'utilisation des méta-modèles adaptatifs perm<strong>et</strong><br />

donc d'arriver à la bonne solution.<br />

• L'optimiseur CFSQP est le plus ecace, en terme de nombre d'appels. Cependant, pour<br />

un coût un peu plus élevé, l'optimiseur LIN atteint la meilleure solution.<br />

• La formulation DIVE est la plus performante, en terme de nombre d'appels, ce qui justie<br />

l'utilisation des méta-modèles.<br />

La gure 4.11 montre le déplacement des régions de conance pour deux variables. An<br />

d'illustrer ce phénomène, la taille de la région de conance est xée ici à 0.05 . La variable en<br />

abscisse est la èche en bord de fuite de l'aile φ w 100 <strong>et</strong> la variable en ordonnée est la èche en<br />

bord de fuite de la dérive φ t 100. Les valeurs des variables sont normalisées.<br />

IDF<br />

Le tableau 4.19 présente les résultats obtenus avec la formulation IDF. Nous y voyons trois<br />

versions diérentes :<br />

• IDF CFSQP : on utilise l'optimiseur CFSQP <strong>et</strong> la gestion des contraintes d'égalité est<br />

de la forme ‖Y − y‖ ≤ ɛ, où epsilon = 0.01.<br />

• IDF LIN : on utilise l'optimiseur LIN <strong>et</strong> la gestion des contraintes d'égalité est de la<br />

forme : ‖Y − y‖ = 0.<br />

• IDF LIN MM : on utilise les méta-modèles linéaires, ainsi que l'optimiseur LIN. La gestion<br />

des contraintes d'égalité est de la forme : ‖Y − y‖ = 0.<br />

• Avec la première méthode IDF CFSQP, nous avons un nombre d'appels peu élevé. On se


4.3 Résultats pour le cas-test Dassault avec Scilab 99<br />

Fig. 4.11 Évolution des régions de conance, formulation DIVE (Dassault, Scilab).<br />

Formulation IDF CFSQP IDF LIN IDF LIN MM<br />

TOW 32847 33065 33065<br />

après MDA 33135<br />

Nombre d'appels<br />

Structure 550 924 486<br />

Aérodynamique 550 924 486<br />

Propulsion 550 924 486<br />

Performance 550 924 486<br />

Total 2200 3696 1944<br />

Tab. 4.19 Résultats pour la formulation IDF (Dassault, Scilab).<br />

rend compte après une MDA que le résultat n'est pas très précis.<br />

• La méthode IDF LIN nous mène à la masse au décollage optimale de 33065 kg.<br />

• La méthode IDF LIN MM nous mène à ce même résultat, mais avec un nombre d'appels<br />

aux codes de calcul disciplinaires moindre. Ce résultat justie l'utilisation de méta-modèles.<br />

• La méthode IDF avec l'optimiseur LIN, s'avère très ecace pour ce cas-test, qui ne possède<br />

que deux variables de couplage.<br />

• L'utilisation de méta-modèles linéaires s'avère encore très ecace <strong>et</strong> s'adapte tout à fait à<br />

la méthode IDF.


100 Résultats obtenus avec les formulations MDO<br />

4.3.3 Multi-start pour DIVE<br />

An de tester la robustesse de la formulation DIVE avec utilisation de méta-modèles linéaires,<br />

nous eectuons c<strong>et</strong>te formulation pour 100 points de départ pris au hasard dans l'espace de<br />

conception. Nous utilisons ici l'optimiseur LIN.<br />

Pour les 100 points, nous obtenons ici deux cas de gure diérents :<br />

R % nb appels moyen<br />

30065 98 2558<br />

Nan 2 190<br />

Tab. 4.20 Multistart avec la formulation DIVE (Dassault, Scilab).<br />

• Sauf pour deux points, où l'analyse des codes disciplinaires pose problème, nous obtenons<br />

ici un très bon résultat, avec 98 points qui convergent vers la solution optimale.<br />

• À titre de comparaison, le nombre total d'appels obtenu précédemment avec la formulation<br />

DIVE utilisant les méta-modèles linéaires était de 2432 (cf tableau 4.11).<br />

4.3.4 Front de Par<strong>et</strong>o<br />

Nous cherchons ici à optimiser deux objectifs diérents : à savoir minimiser la masse totale <strong>et</strong><br />

maximiser le rayon d'action. Pour cela, nous recherchons l'ensemble des solutions non-dominées<br />

qui constituent le front de Par<strong>et</strong>o.<br />

La gure 4.12 présente le front de Par<strong>et</strong>o obtenu avec la méthode des objectifs contraints (cf<br />

section B.2). La formulation utilisée est la méthode DIVE avec les méta-modèles linéaires.<br />

• en abscisse, nous avons la masse totale W T En ordonnée nous avons le rayon d'action R.<br />

• La croix bleue en bas à gauche indique la conguration qui minimise la masse totale W T .<strong>et</strong><br />

• La croix bleue en haut à droite indique la conguration qui maximise le rayon d'action R.<br />

• La courbe en points bleus est obtenue en minimisant la masse totale W T avec une contrainte<br />

sur le rayon d'action R.<br />

• La courbe rouge est obtenue en maximisant le rayon d'action, avec une contrainte sur la<br />

masse W T .<br />

• Ici la maximisation du rayon d'action (courbe rouge) pose quelques problèmes de convergence.<br />

• Pour se faire une idée du front de Par<strong>et</strong>o, nous nous erons d'avantage à la courbe bleue<br />

<strong>et</strong> non à la courbe rouge.


4.3 Résultats pour le cas-test Dassault avec Scilab 101<br />

Fig. 4.12 Front de Par<strong>et</strong>o Masse / Rayon d'action (Dassault, Scilab).<br />

4.3.5 Coecients de Lagrange<br />

Les coecients de Lagrange λ déterminent la sensibilité de la fonction objectif f aux contraintes<br />

g : λ = df<br />

dg .<br />

Les contraintes qui possèdent les plus grands coecients de Lagrange sont donc celles qu'il<br />

va falloir essayer de relâcher pour améliorer notre objectif. À l'optimum, nous pouvons regarder<br />

les coecients de Lagrange, an de savoir quelles sont les contraintes les plus importantes.<br />

Le tableau 4.21 présente les diérentes variables <strong>et</strong> sorties, ainsi que leurs coecients de<br />

Lagrange associés.<br />

Ici, les contraintes les plus déterminantes sur notre rayon d'action sont les contraintes de<br />

bornes sur les variables d'épaisseur relative de l'aile t w c , d'element voilure xl w , de nombre de<br />

Mach xmach <strong>et</strong> de rapport masse à l'atterrissage sur masse au décollage xfac.<br />

4.3.6 Remarques<br />

Les résultats obtenus dans c<strong>et</strong>te section nous perm<strong>et</strong>tent de faire les remarques suivantes :<br />

• L'analyse multi-disciplinaire peut être eectuée avec l'algorithme de point xe, lorsque<br />

nous ne demandons pas une précision trop élevée. Dans le cas contraire, on peut utiliser la<br />

minimisation des résidus.<br />

• La méthode DIVE, avec l'utilisation de l'optimiseur LIN <strong>et</strong> des méta-modèles linéaires,<br />

perm<strong>et</strong> d'obtenir les meilleurs résultats, avec une masse au décollage T OW optimale, pour<br />

un nombre d'appels correct.<br />

• La méthode DIVE est robuste, comme le prouvent les résultats obtenus avec le multi-start.


102 Résultats obtenus avec les formulations MDO<br />

Variables Valeur lb ub Lagrange<br />

z 14894 8000 18500 0<br />

xmach 1.6 1.6 2 1858<br />

S 100 100 200 37<br />

φ w 0 46.8 40 70 0<br />

φ w 100 -5.3 -10 20 0<br />

xl w 0.05 0.05 0.5 2517<br />

t w c 0.04 0.04 0.08 12425<br />

φ t 0 70 40 70 0.77<br />

φ t 100 0 0 10 0.05<br />

xl t 0.05 0.05 0.5 28<br />

t t c 0.05 0.05 0.08 1429<br />

D fus 2 2 2.5 445<br />

W fuel 15000 15000 40000 1.06<br />

α 15 10 15 200<br />

xfac 0.85 0.85 0.95 2433<br />

Sorties<br />

T OW 33065 50000 0<br />

R 6500 6500 0.00036<br />

D 1828 1828 0.91<br />

V 70 70 59.2<br />

Tab. 4.21 Coecients de Lagrange à l'optimum (Dassault, Scilab).<br />

• La méthode IDF marche bien pour ce cas-test, car il ne possède que deux variables de<br />

couplage. De très bons résultats sont obtenus avec l'optimiseur LIN. Pour ce cas-test,<br />

les méta-modèles linéaires s'adaptent très bien à c<strong>et</strong>te méthode. Leur utilisation perm<strong>et</strong><br />

d'améliorer les résultats, en terme de nombre d'appels.<br />

• La maximisation du rayon d'action pose quelques problèmes de convergence, ce qui ne nous<br />

perm<strong>et</strong> pas d'obtenir un front de Par<strong>et</strong>o compl<strong>et</strong>.<br />

Conclusion<br />

Nous avons pu tester les formulations vues au chapitre 2 sur deux environnements (Model-<br />

Center <strong>et</strong> Scilab), <strong>et</strong> pour deux cas-tests (Sobieski <strong>et</strong> Dassault).<br />

Nous essayons ici de donner quelques remarques générales sur les formulations MDO.<br />

1. L'analyse multi-disciplinaire (MDA) : on a pu voir l'ecacité des trois méthodes<br />

disponibles sur les diérents cas-tests.


4.3 Résultats pour le cas-test Dassault avec Scilab 103<br />

Pour le cas-test Sobieski, la méthode la plus ecace est clairement la méthode de point<br />

xe.<br />

Pour le cas-test Dassault, tout dépend de la précision demandée pour la MDA. Pour une<br />

précision correcte, nous choisirons la méthode de point xe, <strong>et</strong> pour une précision très<br />

forte, nous choisirons la méthode de minimisation des résidus de l'équation d'état.<br />

2. Les optimiseurs : sous Scilab, nous avons à notre disposition deux optimiseurs : LIN <strong>et</strong><br />

CFSQP. Le résultat obtenu dépend aussi de l'optimiseur utilisé.<br />

L'optimiseur LIN donne une solution beaucoup plus précise, <strong>et</strong> en général avec un nombre<br />

d'appels moindre que l'optimiseur CFSQP.<br />

L'optimiseur CFSQP perm<strong>et</strong> d'obtenir une solution avec la méthode IDF <strong>et</strong> en utilisant<br />

les contraintes sur l'équation d'état de la forme ‖Y − y‖ ≤ ε.<br />

Sous ModelCenter, l'optimiseur DOT-SQP s'avère très ecace, mais ne perm<strong>et</strong> pas de calculer<br />

les gradients autrement que par diérences nies (an d'utiliser la méthode GSE par<br />

exemple).<br />

3. Les formulations mono-niveau : nous donnons ici quelques remarques sur les formulations<br />

les plus basiques, que sont les méthodes MDF <strong>et</strong> IDF.<br />

• MDF (Multi-Disciplinary Feasible)<br />

C<strong>et</strong>te formulation est la plus naturelle. Le principe est de résoudre l'équation d'état<br />

interdisciplinaire. Nous obtenons de bons résultats avec c<strong>et</strong>te formulation. Ces résultats<br />

peuvent servir de référence, <strong>et</strong> l'on peut dire qu'une méthode est ecace si elle perm<strong>et</strong><br />

de faire mieux que la formulation MDF.<br />

Lorsque l'analyse multi-disciplinaire demande beaucoup d'appels aux disciplines, c<strong>et</strong>te<br />

formulation peut s'avérer trop coûteuse.<br />

• IDF (Individual Disciplinary Feasible)<br />

C<strong>et</strong>te formulation peut s'avérer très ecace lorsque les contraintes sur l'équation d'état<br />

interdisciplinaire sont peu nombreuses.<br />

Dans le cas contraire, il est dicile d'obtenir de bons résultats.<br />

Les contraintes d'égalité du type ‖Y − y‖ ≤ ɛ perm<strong>et</strong>tent parfois d'arriver à une con-<br />

guration proche de la solution optimale, mais ne perm<strong>et</strong>tent pas d'avoir des résultats<br />

assez précis pour être exploités.<br />

4. Les formulations multi-niveaux : les optimisations disciplinaires perm<strong>et</strong>tent d'améliorer<br />

la qualité des réponses aux sollicitations disciplinaires, <strong>et</strong> donc de faciliter l'optimisation<br />

au niveau système. Cependant ces optimisations supplémentaires peuvent avoir un coût<br />

conséquent sur le nombre d'appels aux disciplines.<br />

• CO (Collaborative Optimization)<br />

La nature des optimisations disciplinaires perm<strong>et</strong> d'assurer le couplage. En e<strong>et</strong>, les<br />

disciplines cherchent à obtenir les sorties les plus proches possibles des consignes données<br />

par le niveau système.<br />

Cependant, les réponses des disciplines ne vont pas forcément dans le sens de la fonction<br />

objectif système.


104 Résultats obtenus avec les formulations MDO<br />

Les résultats obtenus montrent que le nombre d'appels explose avec c<strong>et</strong>te méthode.<br />

• DIVE sans méta-modèles (Discipline Interaction Variable Elimination)<br />

Il y a peu d'itérations au niveau de l'optimiseur global : les optimisations locales étant<br />

gérées par les disciplines, l'optimisation globale en devient plus ecace <strong>et</strong> plus rapide.<br />

Nous arrivons avec l'implémentation sous Scilab à obtenir un nombre d'appels similaire<br />

à celui obtenu avec la méthode MDF.<br />

• BLISS (Bi-Level Integrated System Synthesis)<br />

Nous avons ici la meilleure formulation au niveau du nombre d'appels.<br />

Cependant, le résultat obtenu avec c<strong>et</strong>te méthode est un peu moins précis que pour la<br />

méthode MDF.<br />

5. Utilisation de méta-modèles linéaires. Nous montrons ici la viabilité de l'utilisation<br />

des méta-modèles linéaires, ainsi que leurs limitations.<br />

• DIVE<br />

L'utilisation des méta-modèles linéaires perm<strong>et</strong> d'obtenir des résultats très proches,<br />

voire identiques à ceux obtenus avec la formulation MDF. Ces méta-modèles locaux<br />

s'adaptent avec l'évolution de la conguration, au cours de l'optimisation. Par ce biais,<br />

ils perm<strong>et</strong>tent donc d'obtenir une solution précise.<br />

C<strong>et</strong>te méthode nécessite beaucoup moins d'appels aux codes de calcul disciplinaires<br />

que la méthode MDF.<br />

C<strong>et</strong>te méthode perm<strong>et</strong> d'obtenir de bons résultats, <strong>et</strong> de manière plus rapide.<br />

Ces résultats montrent donc la viabilité <strong>et</strong> l'ecacité de c<strong>et</strong>te formulation.<br />

• IDF<br />

L'utilisation des méta-modèles linéaires avec la formulation IDF peut s'avérer fructueuse.<br />

Les résultats obtenus avec le cas-test Dassault nous montrent l'ecacité de c<strong>et</strong>te<br />

méthode.<br />

• <strong>Optimisation</strong> disciplinaire <strong>et</strong> méta-modèles : dans ce cas, les résultats ne sont pas aussi<br />

concluants que dans le cas mono-niveau.<br />

Nous considérons ici les résultats obtenus avec le cas-test Sobieski, dans le cas où les<br />

disciplines optimisent leurs variables locales.<br />

Les solutions obtenues avec l'utilisation des méta-modèles <strong>et</strong> sans méta-modèles sont<br />

identiques <strong>et</strong> proches de la solution optimale.<br />

Cependant, le nombre d'appels est plus élevé avec l'utilisation des méta-modèles que<br />

sans.<br />

L'utilisation des méta-modèles linéaires s'avère donc viable, mais pas forcément ecace.<br />

Nous pouvons considérer que la génération du méta-modèle est trop coûteuse<br />

dans ce cas.<br />

• Recommandations sur les méta-modèles à utiliser : les méta-modèles linéaires utilisés ici<br />

sont les plus simples qui soient. Malgré cela, nous obtenons de très bons résultats. C<strong>et</strong>te<br />

formulation peut être beaucoup plus ecace si l'on utilise des méta-modèles plus adaptés<br />

aux disciplines. Nous conseillons cependant d'utiliser des méta-modèles respectant<br />

certains critères :


4.3 Résultats pour le cas-test Dassault avec Scilab 105<br />

(a) la construction du méta-modèle ne doit pas être trop coûteuse en nombre d'appels<br />

aux disciplines (comme cela peut être le cas quand la discipline optimise ses variables<br />

locales) ;<br />

(b) le méta-modèle doit être adaptatif, an d'être able autour du point de conception<br />

demandé par l'optimiseur ;<br />

(c) à l'optimum, nous devons maximiser la abilité. Pour cela, il faut que les méta-modèles<br />

utilisés fournissent des sorties exactes au point courant (an d'être sûr des sorties qui<br />

seront exploitées par la suite), ainsi que des dérivées exactes en ce point (an d'être<br />

sûr de vérier les conditions d'optimalité au premier ordre).


107<br />

Conclusion générale <strong>et</strong> perpectives<br />

Nous avons pu voir dans c<strong>et</strong>te thèse diérents éléments concernant l'optimisation <strong>multidisciplinaire</strong>.<br />

Nous avons tout d'abord apporté une vision globale de la conception avion, <strong>et</strong><br />

donné l'exemple de deux cas-tests pour la conception avion avant-proj<strong>et</strong>. Puis nous avons posé<br />

les éléments de base de l'optimisation disciplinaire, à savoir la dénition des variables <strong>et</strong> des<br />

sorties, le problème d'interaction entre les disciplines, les diérentes méthodes pour calculer les<br />

gradients, la manière de poser le problème d'optimisation <strong>et</strong> l'utilisation de méta-modèles disciplinaires.<br />

À partir de ces éléments de base, nous avons pu décrire les diérentes formulations<br />

MDO.<br />

Dans une troisième partie, nous avons fait part de notre expérience sur l'implémentation<br />

de ces formulations sous deux environnements diérents (ModelCenter <strong>et</strong> Scilab) <strong>et</strong> pour deux<br />

cas-tests (Sobieski <strong>et</strong> Dassault). ModelCenter est un logiciel très pratique, mais payant, <strong>et</strong> on<br />

se r<strong>et</strong>rouve parfois limité pour l'implémentation des diérents outils. Avec Scilab, on possède<br />

plus de liberté, mais l'eort en implémentation est plus conséquent. Pour le logiciel développé<br />

sous Scilab, nous avons réalisé une implémentation des formulations MDO de la manière la plus<br />

générale qui soit : nous avons mis toutes ces formulations sous le même chapeau, ce qui nous<br />

perm<strong>et</strong> de passer de l'une à l'autre avec une grande exibilité.<br />

Dans ce travail, nous avons mis en oeuvre des méta-modèles, tout en nous acquittant de<br />

la diculté posée par la dimension. En grande dimension, le méta-modèle est fourni avec une<br />

région qui peut être de p<strong>et</strong>ite taille. C<strong>et</strong>te région de conance suit le processus d'optimisation.<br />

Le méta-modèle peut se limiter à une approximation linéaire ou quadratique. Il peut s'appuyer<br />

sur des méthodes classiques d'apprentissage, telles que les réseaux neuronaux, le Krigeage ou la<br />

SVM. Il peut également faire appel à des techniques de projection sur des sous-espaces, telles<br />

que la méthode POD. Dans le cas où le modèle d'origine est simple, il peut jouer le rôle de<br />

méta-modèle.<br />

La méthode DIVE, introduite dans le cadre de c<strong>et</strong>te thèse a de nombreuses propriétés intéressantes.<br />

En particulier, en conant à chaque discipline le soin de construire le méta-modèle qui<br />

lui est propre, on augmente l'autonomie de chaque discipline. On n'impose pas de méta-modèle<br />

particulier <strong>et</strong> chaque discipline choisit son méta-modèle en fonction des propriétés du modèle en<br />

question. L'une des qualités majeures de DIVE est de satisfaire avec la plus grande précision<br />

les contraintes d'interaction du système. Ces contraintes représentent la physique du système <strong>et</strong><br />

l'optimisation au niveau système ne peut donner de résultats cohérents que si ces contraintes<br />

sont satisfaites.<br />

Nous avons pu tester <strong>et</strong> comparer les diérentes formulations MDO. Les résultats obtenus<br />

avec les deux cas-tests nous ont permis d'en tirer certaines conclusions :<br />

• l'équation d'état doit être résolue de façon précise. Nous préconisons les méthodes utilisant


108 Conclusion<br />

la MDA. Les méthodes qui traitent le couplage à l'aide de contraintes d'égalité sur l'équation<br />

d'état demandent un eort conséquent en réglage de l'optimiseur, <strong>et</strong> ne sont ecaces<br />

que dans le cas où il y a peu de variables de couplage.<br />

• L'utilisation des méta-modèles linéaires dans le cadre de la formulation DIVE s'est avérée<br />

très performante. On obtient des résultats aussi précis que dans le cas sans méta-modèle,<br />

<strong>et</strong> avec un nombre d'appels aux codes de calcul disciplinaires fortement diminué. Ces<br />

résultats incitent fortement à essayer d'améliorer ces résultats en étudiant c<strong>et</strong>te méthode<br />

avec des méta-modèles plus élaborés <strong>et</strong> plus adaptés aux disciplines. Il faudra cependant<br />

qu'il respectent plusieurs conditions :<br />

il doivent être capables de se réactualiser lorsque leur abilité n'est plus assez bonne,<br />

an de s'adapter à la conguration étudiée ;<br />

durant l'optimisation, on cherche seulement à ce que la sortie des méta-modèles ait une<br />

précision correcte, an de ne pas tomber sur des congurations aberrantes ;<br />

à l'optimum, on cherche à maximiser la abilité, les sorties <strong>et</strong> les gradients fournis par<br />

les méta-modèles doivent alors être exacts au point courant.<br />

• L'utilisation de ces méta-modèles présente aussi des limites. Par exemple, lorsque l'on<br />

cherche à construire un méta-modèle à partir des réponses des disciplines optimisées par<br />

rapport à leurs variables locales, on se rend compte que la construction du méta-modèle<br />

coûte trop cher, <strong>et</strong> on se r<strong>et</strong>rouve avec un nombre d'appels aux codes de calcul plus élevé.<br />

Nous essayons de donner ici quelques remarques sur ce que doit être le rôle de l'ingénieur en<br />

optimisation multi-disciplinaire. Sans être un spécialiste dans chacun des domaines, les acteurs<br />

de l'optimisation multi-disciplinaire doivent posséder une culture dans plusieurs domaines de<br />

natures variées.<br />

• <strong>Optimisation</strong> : il faut connaître les diérents algorithmes d'optimisation existants <strong>et</strong> être<br />

capable de les adapter au problème de conception posé.<br />

• Conception de système complexe : an de traiter au mieux la recherche de la conguration<br />

optimale, il est essentiel de posséder une bonne connaissance du système complexe<br />

étudié.<br />

Organisation du processus de conception : il faut posséder une bonne vue d'ensemble<br />

de l'organisation du système, connaître les diérentes disciplines impliquées dans le<br />

processus <strong>et</strong> savoir de quelle manière elles interagissent entre elles.<br />

Pour chacune des disciplines, il faut avoir une bonne culture sur le domaine <strong>et</strong> en<br />

particulier sur plusieurs points.<br />

Connaître la physique des disciplines impliquées : chacune des discipline va solliciter<br />

un ou plusieurs domaines de la physique. Il faut pouvoir appréhender la nature du<br />

problème physique donné, an de mieux connaître la modélisation que l'on va pouvoir<br />

faire pour décrire le comportement du système.<br />

Code haute précision : la modélisation va donner lieu à un code de calcul qui va<br />

perm<strong>et</strong>tre de calculer avec précision la physique du domaine. Il est essentiel d'en connaître<br />

les principes, les entrées <strong>et</strong> les sorties, ainsi que les domaines d'<strong>application</strong> de


109<br />

ces modélisations.<br />

Méta-modèles ou codes de substitution : ces codes haute précision peuvent être gourmands<br />

en temps de calcul, <strong>et</strong> ne sont pas toujours compatibles avec un processus<br />

d'optimisation. Il faut pouvoir leur substituer des méta-modèles, dont le domaine<br />

d'<strong>application</strong> sera plus restreint <strong>et</strong> dont les réponses seront moins précises. An de<br />

garder une cohérence physique, il est essentiel que les méta-modèles s'adaptent avec<br />

l'évolution de la conguration, par exemple en tenant compte des réponses données<br />

par les codes haute délité.<br />

<strong>Optimisation</strong> disciplinaire : lorsque la discipline cherche à optimiser la valeur de ses<br />

variables locales, on doit être en mesure de choisir la méthode d'optimisation la plus<br />

adaptée.<br />

Équilibre entre les disciplines : an de donner une description cohérente du système<br />

complexe, il est essentiel de tenir compte de l'interaction entre les diérentes sorties.<br />

On se doit alors d'équilibrer les entrées <strong>et</strong> les sorties qui participent au couplage des<br />

disciplines. An d'obtenir une réponse dans un temps raisonnable <strong>et</strong> qui pourra être<br />

intégrée dans un processus d'optimisation, on pourra rechercher c<strong>et</strong> équilibre au travers<br />

des réponses données par les méta-modèles.<br />

• Connaissance des outils informatiques : l'implémentation du système complexe <strong>et</strong> du<br />

processus d'optimisation demande une bonne connaissance des environnements informatiques.<br />

Il faut maîtriser les codes de calcul des diérentes disciplines <strong>et</strong> arriver à les faire<br />

communiquer de façon ecace. Une fois le système complexe implémenté, il faut pouvoir<br />

le faire interagir avec les codes d'optimisation.<br />

Une connaissance solide dans chacun de ces domaines perm<strong>et</strong>tra au spécialiste de l'optimisation<br />

multi-disciplinaire d'être au c÷ur de la conception de système complexe <strong>et</strong> d'aider à la<br />

communication entre les diérentes équipes impliquées.


111<br />

Annexe A<br />

Fonctions objectifs <strong>et</strong> contraintes pour<br />

la méthode BLISS<br />

Nous allons montrer dans c<strong>et</strong>te annexe comment sont construits les problèmes d'optimisation<br />

dans la formulation BLISS (Bi-Level Integrated System Synthesis, cf section 2.2.5). L'optimisation<br />

disciplinaire des variables locales sera exposée dans la section A.1. Le problème d'optimisation<br />

global sera donné dans la section A.2, où l'on précisera l'information apportée par les optimisations<br />

locales.<br />

Nous partons du point de conception p 0 = [x 0 , z 0 ]. Une MDA nous perm<strong>et</strong> de dénir les<br />

variables de couplage y, qui seront transparentes pour la suite. On en déduit les valeurs des<br />

fonctions objectifs <strong>et</strong> contrainte.<br />

{<br />

F0 = F (x 0 , z 0 ),<br />

G 0 = G(x 0 , z 0 ).<br />

(A.1)<br />

Une analyse de sensibilité globale (GSE) nous donne les gradients :<br />

{<br />

Dp F 0 = D p F (x 0 , z 0 ),<br />

D p G 0 = D p G(x 0 , z 0 ).<br />

Hypothèse 1. Nous allons faire l'approximation suivante. Les gradients ∂ z G(x, z) seront supposés<br />

constants <strong>et</strong> égaux à ∂ p G 0 autour du point [x 0 , z 0 ].<br />

A.1 <strong>Optimisation</strong>s disciplinaires<br />

Nous allons tout d'abord optimiser les variables locales x pour chacune des disciplines. Les<br />

x seront solutions du problème (A.2) qui dépend de z.<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

min<br />

x<br />

̂Fx (x).<br />

G(x, z) ≤ 0<br />

x l ≤ x ≤ x u<br />

(A.2)<br />

Les fonctions coût seront les linéarisations de la fonction coût globale par rapport aux variables<br />

locales, obtenues précédemment avec GSE.


112 Fonctions objectifs <strong>et</strong> contraintes pour la méthode BLISS<br />

̂F x (x) = F 0 + ∂ x F 0 (x − x 0 ).<br />

(A.3)<br />

Le problème (A.2) est équivalent au problème suivant :<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

min<br />

x<br />

∂ x F 0 (x − x 0 ).<br />

G(x, z) ≤ 0<br />

x l ≤ x ≤ x u<br />

(A.4)<br />

Nous noterons x z les variables optimales <strong>et</strong> λ z les coecients de Lagrange associés. Ils doivent<br />

satisfaire les conditions d'optimalité d'ordre 1 (théorème KKT [Gui03]) :<br />

∂ x F 0 + (λ z ) T ∂ x G = 0,<br />

λ zT G(x, z) = 0,<br />

λ z ≥ 0.<br />

(A.5)<br />

(A.6)<br />

L'optimisation sera eectuée avec z = z 0 . Les solutions du problème en z 0 sont x z0 <strong>et</strong> λ z0 .<br />

Nous dénissons pour la suite les valeurs :<br />

⎧<br />

⎨<br />

⎩<br />

A.2 <strong>Optimisation</strong> globale<br />

̂F x opt = ̂F (x z0 , z 0 ),<br />

G x opt = G(x z0 , z 0 ).<br />

Nous allons alors dénir les fonctions coût <strong>et</strong> contrainte globales :<br />

{<br />

f(z) = ̂F (x z , z),<br />

g(z) = Ĝ(x z, z).<br />

Pour pouvoir poser notre problème d'optimisation global, il nous faut obtenir des informations<br />

sur les gradients de f <strong>et</strong> g.<br />

A.2.1<br />

Calcul de la dérivée de f par rapport aux variables globales z<br />

Dans c<strong>et</strong>te section, nous souhaitons connaître les sensibilités de f <strong>et</strong> g. Nous allons montrer<br />

le résultat suivant :<br />

Propriété 1.<br />

D z f = ∂ z F 0 + (λ z ) T ∂ z G 0 .<br />

(A.7)<br />

Démonstration. La fonction coût globale est :<br />

f(z) = ̂F (x z , z) = F 0 + ∂ x F 0 (x z − x 0 ) + ∂ z F 0 (z − z 0 ).


A.2 <strong>Optimisation</strong> globale 113<br />

La dérivée de f par rapport aux variables globales z est donnée par :<br />

D z f = ∂ x F 0 D z x + ∂ z F 0 .<br />

(A.8)<br />

Le terme D z x étant dicile à calculer, il nous faut parvenir à une expression de D z f diérente.<br />

On dérive la condition de KKT sur l'optimalité des problèmes d'optimisation locaux (A.6)<br />

par rapport à z.<br />

⎛<br />

⎝<br />

...<br />

D z λ i (G i (x z , z 0 )) + λ z i (∂ xG i D z x + ∂ z G i ) = 0<br />

...<br />

⎞<br />

⎠ .<br />

(A.9)<br />

Nous avons alors :<br />

pour les λ z i nuls, λz i (∂ xG i D z x + ∂ z G i ) = 0 ;<br />

lorsque λ z i > 0, la contrainte G i(x z , z) est saturée, c'est-à-dire égale à zéro. En utilisant ce<br />

résultat dans (A.9), le premier terme s'annule <strong>et</strong> on obtient : λ z i (∂ xG i D z x + ∂ z G i ) = 0.<br />

D'où :<br />

∀i, λ z i (∂ x G i D z x + ∂ z G i ) = 0.<br />

(A.10)<br />

Soit :<br />

(λ z ) T (∂ x GD z x + ∂ z G) = 0,<br />

(λ z ) T ∂ x GD z x = −(λ z ) T ∂ z G. (A.11)<br />

On déduit de (A.5) que :<br />

(λ z ) T ∂ x G = −∂ x F 0 ,<br />

puis on injecte ce résultat dans (A.11) pour avoir :<br />

(λ z ) T ∂ z G = ∂ x F 0 D z x.<br />

Le terme ∂ x F 0 D z x qui posait problème dans (A.8) peut être remplacé par (λ z ) T ∂ z G. Les coef-<br />

cients de Lagrange (λ z ) nous perm<strong>et</strong>tent de remonter l'information donnée par les optimisations<br />

disciplinaires.<br />

Nous faisons ici l'hypothèse (ou l'approximation) que les contraintes disciplinaires sont linéairement<br />

dépendantes en z autour du point [x 0 , z 0 ]. Soit ∂ z G(x z , z) = ∂ z G 0 .<br />

On a alors :<br />

D z f = ∂ z F 0 + (λ z ) T ∂ z G 0 .<br />

Les variables x sont optimisées au point z 0 . La fonction coût que nous allons considérer au<br />

niveau global est alors :


114 Fonctions objectifs <strong>et</strong> contraintes pour la méthode BLISS<br />

<strong>et</strong> sa dérivée :<br />

f(z) = F x opt + (∂ z F 0 + (λ z0 ) T ∂ z G 0 )(z − z 0 ),<br />

D z f = ∂ z F 0 + (λ z0 ) T ∂ z G 0 .<br />

Nous avons alors démontré le résultat recherché.<br />

A.2.2 Calcul de la dérivée de g par rapport aux variables globales z<br />

On rappelle l'expression de g :<br />

g(z) = G(x z , z).<br />

Dans c<strong>et</strong>te section, nous allons voir que les contraintes qui sont déjà saturées après les optimisations<br />

disciplinaires ne dépendent plus des variables globales z. Nous proposerons aussi une<br />

façon de traiter les autres contraintes dans le problème d'optimisation global.<br />

Propriété 2.<br />

D z g = ∂ z G − 0 ,<br />

où G − sont les contraintes non saturées par les optimisations locales.<br />

Démonstration.<br />

D z g = ∂ x GD z x + ∂ z G.<br />

Le vecteur des contraintes G peut se décomposer en deux sous-ensembles :<br />

G(x z , z) =<br />

( G 0 (x z , z)<br />

G − (x z , z)<br />

)<br />

(A.12)<br />

G 0 (x z , z) = 0, ce sont les contraintes actives,<br />

G − (x z , z) < 0, ce sont les contraintes satisfaites.<br />

• G 0 : nous avons pour les composantes i de λ z associées à G 0 (x z , z) : λ z i > 0.<br />

D'après (A.10) nous avons :<br />

∂ x G i D z x + ∂ z G i = 0.<br />

(A.13)<br />

Nous avons alors :<br />

∀i / λ i > 0, D z g i = 0.<br />

Les composantes de g qui ont déjà été saturées par les optimisations disciplinaires ne<br />

varieront plus lors de l'optimisation en z. Elles resteront saturées. Nous ne tiendrons plus<br />

compte de ces contraintes lors de l'optimisation en z.


A.2 <strong>Optimisation</strong> globale 115<br />

• G − : nous faisons le choix de ne pas tenir compte, dans sa dérivée, du terme ∂ x G − D z x, <strong>et</strong><br />

de ne garder que la dépendance directe en z : ∂ z G −<br />

Nous faisons ici l'hypothèse (ou l'approximation) que les contraintes disciplinaires non<br />

actives sont linéairement dépendantes en z autour du point [x 0 , z 0 ]. Soit ∂ z G − (x z , z) =<br />

∂ z G − 0 .<br />

Nous rappelons que l'optimisation globale s'est faite autour de z 0 . La fonction contrainte du<br />

problème d'optimisation global sera alors :<br />

Sa dérivée sera alors donnée par :<br />

g(z) = G − x opt + ∂ z G − 0 (z − z0 ).<br />

D z g = ∂ z G − 0 .<br />

Nous avons montré dans c<strong>et</strong>te section les deux résultats suivants :<br />

{<br />

Dz f = ∂ z F 0 + (λ z ) T ∂ z G 0 ,<br />

D z g = ∂ z G − 0 .


116 Fonctions objectifs <strong>et</strong> contraintes pour la méthode BLISS<br />

A.2.3<br />

Problème d'optimisation en z<br />

Les fonctions coût <strong>et</strong> contrainte du problème global sont alors :<br />

⎧<br />

⎨<br />

⎩<br />

f(z) = F xopt + ∂ z F 0 + (λ z0 ) T ∂ z G 0<br />

g(z) = G − x opt + ∂ z G − 0 (z − z0 )<br />

Le problème d'optimisation global à résoudre en z sera :<br />

⎧<br />

⎪⎨<br />

min<br />

z<br />

∂ z F 0 + (λ z0 ) T ∂ z G 0 (z − z 0 ),<br />

⎪⎩<br />

G − x opt + ∂ z G − 0 (z − z0 ) ≤ 0,<br />

z l ≤ z ≤ z u .<br />

Il faut cependant rappeler que nous faisons ici une approximation en considérant les termes<br />

∂ z G(x z , z) = ∂ z G 0 constants autour de [z 0 , x 0 ]. Il en va de même pour la linéarisation de la<br />

fonction coût. On peut m<strong>et</strong>tre en place une région de conance pour les variables partagées z<br />

pour éviter de s'éloigner trop du point initial <strong>et</strong> d'utiliser une information sur les gradients trop<br />

dégradée.


117<br />

Annexe B<br />

Algorithmes d'optimisation<br />

Dans c<strong>et</strong>te annexe, nous allons présenter certains algorithmes <strong>et</strong> méthodes d'optimisation<br />

cités dans c<strong>et</strong>te thèse. La section B.1 expose la méthode de Gauss-Newton <strong>et</strong> la méthode des<br />

objectifs bornés perm<strong>et</strong>tant de déterminer un front de Par<strong>et</strong>o est donnée en section B.2. Nous<br />

présentons un optimiseur LIN qui linéarise notre problème <strong>et</strong> qui utilise la méthode des régions<br />

de conance en section B.3.<br />

B.1 Algorithme de Gauss-Newton<br />

C<strong>et</strong>te méthode s'applique aux problèmes de moindres carrés du type :<br />

j(h) = 1 2 ‖J(h)‖2 = 1 2<br />

∑N t<br />

i=1<br />

‖J i (h)‖ 2 .<br />

(B.1)<br />

où J est une <strong>application</strong> de R Nt dans lui-même.<br />

On note DJ la diérentielle de J. Le gradient de j est donné par :<br />

∇j(h) = DJ(h) T J(h).<br />

(B.2)<br />

Nous allons chercher à annuler ce gradient pour obtenir un minimum. Pour cela, on eectue<br />

un développement limité du gradient dans une direction d :<br />

∇j(h + d) = ∇j(h) + ∇ 2 j(h)d + O(d 2 ).<br />

(B.3)<br />

Nous négligeons les termes d'ordres supérieurs <strong>et</strong> nous recherchons un d tel que :<br />

∇j(h + d) = 0.<br />

(B.4)<br />

Le vecteur d doit donc satisfaire l'équation :<br />

∇ 2 j(h)d = −∇j(h).<br />

(B.5)<br />

Le calcul de la matrice Hessienne est en général très coûteux. Cependant, nous pouvons<br />

remarquer que :<br />

m∑<br />

∇ 2 j(h) = DJ(h) T DJ(h) + J i (h)∇ 2 J i (h).<br />

(B.6)<br />

Nous pouvons ignorer le second terme de la Hessienne. Cela présente l'avantage de ne pas<br />

avoir à calculer les dérivées secondes de J. C<strong>et</strong>te approximation est justiée si les quantités<br />

i=1


118 Algorithmes d'optimisation<br />

J i (h)∇ 2 J i (h) sont négligeables, soit parce que les termes J i (h) sont proches de 0, ce que nous<br />

espérons, soit parce que les termes de dérivée seconde ∇ 2 J i (h) sont faibles autour de ce minimum.<br />

Dans ce cas, on peut approcher la Hessienne par :<br />

∇ 2 J i (h) ≃ DJ(h) T DJ(h)<br />

Nous avons alors le système suivant à résoudre :<br />

DJ(h) T DJ(h)d = −DJ(h) T J(h)<br />

(B.7)<br />

(B.8)<br />

Lorsque la matrice DJ(h) T DJ(h) n'est pas inversible, mais au moins semi-dénie positive,<br />

nous pouvons remplacer le système (B.8) par :<br />

(DJ(h) T DJ(h) + λ)d = −DJ(h) T J(h), λ > 0<br />

(B.9)<br />

L'utilisation d'une méthode directe est peu appropriée pour ce genre de problème. En e<strong>et</strong>,<br />

le calcul de la matrice DJ(h) est très coûteux. Nous préférerons utiliser des méthodes itératives,<br />

qui perm<strong>et</strong>tent de se servir uniquement des produits matrice-vecteur z = DJ(h)d puis DJ(h) T z<br />

pour obtenir DJ(h) T DJ(h)d .<br />

Un bon exemple de méthode itérative très performante est celui du Gradient Conjugué (voir<br />

[Gui03]).<br />

B.2 Méthode des objectifs bornés (construction d'un front de<br />

Par<strong>et</strong>o)<br />

Il arrive que l'on ne cherche pas à optimiser un objectif en particulier, mais plutôt à trouver<br />

un compromis entre plusieurs critères. Nous allons montrer ici la construction d'un front de<br />

Par<strong>et</strong>o pour deux fonctions f 1 (x) <strong>et</strong> f 2 (x) à minimiser selon la variable x. Nous présentons la<br />

méthode des objectifs bornés dite aussi méthode ε-contrainte (voir [SC02]). Le front de Par<strong>et</strong>o<br />

est l'ensemble des solutions non dominées, au sens de Par<strong>et</strong>o, ou Par<strong>et</strong>o-optimales.<br />

Un point p est sur ce front si <strong>et</strong> seulement si :<br />

⎧<br />

⎨<br />

∀y.<br />

⎩<br />

f 1 (p) ≤ f 1 (y)<br />

ou<br />

f 2 (p) ≤ f 2 (y).<br />

(B.10)<br />

Voici une méthode simple pour déterminer le front de Par<strong>et</strong>o pour ces deux fonctions.<br />

• On calcule les optima de chacune des fonctions f 1 <strong>et</strong> f 2 :<br />

x 1 minimise f 1 <strong>et</strong> x 2 minimise f 2 .<br />

La gure B.1 présente en abscisse la valeur de la fonction f 2 <strong>et</strong> en ordonnée la valeur<br />

de f 1 . Les deux optima x 1 <strong>et</strong> x 2 sont représentés par leurs coordonnées respectives<br />

(f 2 (x 1 ), f 1 (x 1 )) <strong>et</strong> (f 2 (x 2 ), f 1 (x 2 )).<br />

• On part du point x 2 <strong>et</strong> on résout le problème (B.11) pour plusieurs valeurs du réel c 1 prises<br />

dans un ordre croissant dans l'intervalle [f 2 (x 2 ), f 2 (x 1 )] :<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

min f 1 (x)<br />

x<br />

sous contraintes :<br />

f 2 (x) ≤ c 1 .<br />

(B.11)<br />

L'ensemble des solutions obtenues seront notées x c1 . Elles sont sur le front de Par<strong>et</strong>o <strong>et</strong><br />

représentées par les symboles o sur la gure B.2. Les contraintes d'inégalité f 2 (x) ≤ c 1<br />

sont représentées par les lignes en pointillés.


B.2 Méthode des objectifs bornés (construction d'un front de Par<strong>et</strong>o) 119<br />

f 1<br />

f 2 (x 2 )<br />

f 1 (x 2 )<br />

✻<br />

.<br />

*<br />

f 1 (x 1 )<br />

x 2<br />

x 1<br />

*<br />

o<br />

*<br />

o<br />

o<br />

o<br />

.<br />

✲<br />

Fig. B.1 Optima x 1 <strong>et</strong> x 2 .<br />

f 2 (x 1 ) f 2<br />

f 1<br />

f 2 (x 2 )<br />

f 1 (x 2 )<br />

✻<br />

.<br />

*<br />

f 1 (x 1 )<br />

x 2<br />

x 1<br />

*<br />

o<br />

*<br />

o<br />

o<br />

o<br />

.<br />

✲<br />

f 2 ≤ c 1<br />

f 2 (x 1 ) f 2<br />

Fig. B.2 Solution des problèmes (B.11).<br />

On remarque que, lorsque c 1 est proche de f 2 (x 2 ), le point obtenu est proche de x 2 .<br />

Lorsque c 1 tend vers f 2 (x 1 ), le point se rapproche de x 1 .<br />

• On peut aussi construire le front dans l'autre sens : on part du point x 1 <strong>et</strong> on résout le<br />

problème (B.12) pour des valeurs croissantes de c 2 ∈ [f 1 (x 1 ), f 1 (x 2 )].<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

min f 2 (x)<br />

x<br />

sous contraintes :<br />

f 1 (x) ≤ c 2 .<br />

(B.12)<br />

f 1<br />

f 2 (x 2 )<br />

f 1 (x 2 )<br />

✻<br />

.<br />

*<br />

f 1 ≤ c 2<br />

Fig. B.3 Solution des problèmes (B.12).<br />

f 1 (x 1 )<br />

x 2<br />

x 1<br />

*<br />

o<br />

*<br />

o<br />

o<br />

o<br />

.<br />

✲<br />

f 2 (x 1 ) f 2


120 Algorithmes d'optimisation<br />

L'ensemble des solutions obtenues seront notées x c2 . Elles sont sur le front de Par<strong>et</strong>o <strong>et</strong><br />

représentées par les symboles * sur la gure B.3. Les contraintes d'inégalité f 1 (x) ≤ c 2<br />

sont représentées par les lignes en pointillés. On doit vérier que les deux fronts de Par<strong>et</strong>o<br />

concordent.<br />

• Le fait de construire le front de Par<strong>et</strong>o dans les deux sens perm<strong>et</strong> d'en avoir une meilleure<br />

représentation.<br />

B.3 Optimiseur LIN<br />

An de pouvoir juger les performances de l'optimiseur CFSQP, nous avons programmé l'optimiseur<br />

LIN. Son principe est de linéariser le problème d'optimisation, tout en utilisant une région<br />

de conance, pour s'assurer de la bonne qualité des optimisations. Voici le déroulement de c<strong>et</strong><br />

algorithme :<br />

1. point de départ X cur , taille de région de conance ∆ ;<br />

2. calcul des fonctions coût <strong>et</strong> contraintes : f(X cur ) <strong>et</strong> g(X cur )<br />

3. calcul des gradients : ∂ X f(X cur ) <strong>et</strong> ∂ X g(X cur )<br />

4. résolution du problème d'optimisation linéaire :<br />

⎧<br />

min ∂ Xf(X cur ).(X − X cur ),<br />

X<br />

⎪⎨ g(X cur ) + ∂ X g(X cur ).(X − X cur ) ≤ 0,<br />

⎪⎩<br />

X l ≤ X ≤ X u ,<br />

X − ∆ ≤ X ≤ X + ∆;<br />

(B.13)<br />

où ∆ est la taille de la région de conance choisie à l'étape 1. Pour résoudre le problème<br />

(B.13), on se sert de la fonction linpro de Scilab ;<br />

5. calcul des sorties au point X opt : f(X opt ) <strong>et</strong> g(X opt ) ;<br />

6. actualisation de la région de conance (voir [Rav07]). On cherche à estimer la qualité de<br />

l'approximation. Pour cela on dénit ρ tel que :<br />

(<br />

f(X opt ) − f(X cur )<br />

ρ = min<br />

∂ X f(X cur ).(X opt − X cur ) , ..., g i (X opt ) − g i (X cur )<br />

)<br />

∂ X g i (X cur ).(X opt − X cur ) ... . (B.14)<br />

On regarde le rapport entre la variation des sorties réelles <strong>et</strong> la variation des sorties de<br />

l'approximation<br />

y(X opt ) − y(X cur )<br />

∂ X y(X cur ).(X opt − X cur ) ,<br />

pour la fonction coût <strong>et</strong> les contraintes ; plus le rapport est proche de 1, plus la qualité de<br />

notre approximation est bonne ; on choisit la nouvelle taille de la région de conance en<br />

fonction de ρ :<br />

on considère les réels η 1 <strong>et</strong> η 2 0 < η 1 < η 2 < 1,<br />

ρ > η 2 : la validité de l'approximation linéaire est très bonne, on peut augmenter la taille<br />

de la région de conance ∆ (par exemple en la multipliant par 1.5) <strong>et</strong> on repart du point<br />

X opt ,<br />

η 1 ≤ ρ ≤ η 2 : la validité de l'approximation est considérée comme bonne, on garde la<br />

même taille de région de conance <strong>et</strong> on repart du point X opt ,


B.3 Optimiseur LIN 121<br />

ρ < η 1 : l'approximation linéaire n'est plus valide, on diminue la taille de la région de<br />

conance ∆ (en la divisant par 2) <strong>et</strong> on repart du point précédent X cur ,<br />

on prendra comme valeurs numériques des constantes : η 1 = 0.01 <strong>et</strong> η 2 = 0.9 ;<br />

7. on teste la convergence, par exemple sur l'évolution des variables.


Références bibliographiques 123<br />

Références bibliographiques<br />

[Agt00] J. S. Agte. A tool for <strong>application</strong> of bi-level integrated system synthesis (BLISS)<br />

to multi-disciplinary optimization problem, 2000.<br />

[AKZP05] J. T. Allison, M. Kokkolaras, M. Zawislak, and P. Papalambros. On the use of<br />

anlaytical targ<strong>et</strong> cascading and collaborative optimization for complex system design.<br />

In 6th World congress on Structural and Multidisciplinary Optimization, Rio<br />

de Janeiro, 30 May-03 June 2005.<br />

[AL00] N. M. Alexandrov and R. Lewis. Algorithmic perspectives on problem formulations<br />

in MDO. In 8th AIAA/USAF/NASA/ISSMO Symposium on Multidisciplinary<br />

Analysis and Optimization, 2000. AIAA Paper 2000-4719.<br />

[Ale] N. M. Alexandrov. Problem synthesis in MDO : an overview.<br />

[All04] J. T. Allison. Complex system optimization : A review of analytical targ<strong>et</strong> cascading,<br />

collaborative optimization, and other formulations. Master's thesis, Department<br />

of Mechanical Engineering, University of Michigan, 2004.<br />

[Alt02] Troy David Altus. A response surface m<strong>et</strong>hodology for bi-level integrated system<br />

synthesis (BLISS). Technical Report NASA/CR-2002-211652, NASA Langley<br />

Research Center, 2002.<br />

[AR00] N. M. Alexandrov and Lewis M. Robert. Analytical and computational aspects<br />

of collaborative optimization. Technical Report 886733, NASA Langley Technical<br />

Report Server, 2000.<br />

[Bad07] C. Badue. Dénition conceptuelle d'avions : vers une optimisation multiobjectif,<br />

robuste <strong>et</strong> incertaine. PhD thesis, Université Paul Sabatier Toulouse III, 2007.<br />

[Bar98] P<strong>et</strong>er Bartholomew. The role of MDO within aerospace design and progress toward<br />

an MDO capability. In AIAA-98-4705, 1998.<br />

[Ber04] Frank Vanden Berghen. CONDOR : a constrained, non-linear, derivative-free parallel<br />

optimizer for continuous, high computing load, noisy objective functions. PhD<br />

thesis, Université Libre de Bruxelles, 2004.<br />

[BG98] J. F. M. Barthelemy and J. P. Giesing. A summary of industry MDO <strong>application</strong>s<br />

and needs. In 7th AIAA/USAF/NASA/ISSMO Symposium on Multidisciplinary<br />

Analysis and Optimization, number 98-4737, 1998.<br />

[BGKS96] R. Braun, P. Gage, I. Kroo, and I. Sobieski. Implementation and performance issues<br />

in collaborative optimization. Technical Report NASA-AIAA-96-4017, AIAA, 1996.<br />

[BKS06] N. Bartoli, D. Kalfon, and M. Samuelides. Revue d'algorithmes d'optimisation.<br />

Technical Report RT 1/10436/DTIM, ONERA, 2006.<br />

[Bro04] N. Brown. Evaluation of MDO techniques applied to a reusable launch vehicle.<br />

Technical Report AIAA-2005-707, Giorgia Institute of Technology, 2004.<br />

[BS06] C. Blondeau and J.-S. Schotté. Méthodologies MDO. Technical Report RT 3/11576,<br />

ONERA, 2006.


124 Références bibliographiques<br />

[BSBM07]<br />

N. Bartoli, M. Samuelides, D. Bailly, and M. Marcel<strong>et</strong>. Revue de modèles réduits<br />

pour l'optimisation. Technical Report RT 2/11576/DTIM, ONERA, 2007.<br />

[CDF + 93] E. J. Cramer, J. E. Dennis, P. D. Frank, Paul D. Frank, R. M. Lewis, and G. R.<br />

Shubin. Problem formulation for multidisciplinary optimization. SIAM Journal on<br />

Optimization, 4 :754776, 1993.<br />

[Cea86]<br />

[CST00]<br />

[GHN96]<br />

[GM97]<br />

[Gri00]<br />

J. Cea. Conception optimale ou identication de forme, calcul rapide de la dérivée<br />

directionnelle de la fonction coût. M. A. A. N., 20(3) :371402, 1986.<br />

N. Cristianini and J. Shawe-Taylor. An introduction to support vector machines.<br />

Cambridge University Press, 2000.<br />

C. R. Gumbert, J. W. Hou, and P. A. Newman. Aiaa 20011107 simultaneous aerodynamic<br />

analysis and design optimization (saado) for a 3d exible wing. In With<br />

Automatic Dierentiation (ADIFOR), Computational Aerosciences Workshop 95,<br />

pages 8285, 1996.<br />

P. Guillaume and M. Masmoudi. Solution to the time-harmonic maxwell's equations<br />

in a waveguide ; use of higher-order derivatives for solving the discr<strong>et</strong>e problem.<br />

SIAM J. Numer. Anal., 34(4) :13061330, 1997.<br />

A. Griewank. Evaluating derivatives : Principles and techniques of algorithmic<br />

dierentiation. (19), 2000.<br />

[Gui03] P. Guillaume. <strong>Optimisation</strong> non linéaire. MIP INSA Toulouse, 2002/2003.<br />

[HBSS90]<br />

P Hajela, C.L. Bloebaum, and J Sobieszczanski-Sobieski. Application of global<br />

sensitivity equations in multidisciplinary aircraft synthesis. Journal of Aircraft,<br />

(12) :10021010, 1990.<br />

[Jam90] A. Jameson. Control theory <strong>application</strong>s for optimum design of aerodynamic<br />

shapes. In 29th IEEE Conference on Decision and Control, pages 176179, Honolulu,<br />

Dec. 1990.<br />

[Kel99a] C. T. Kelley. D<strong>et</strong>ection and remediation of stagnation in the Nelder-Mead algorithm<br />

using a sucient decrease condition. SIAM Journal of Optimization,<br />

10(1) :4355, 1999.<br />

[Kel99b]<br />

[Kim01]<br />

[KRS + 04]<br />

[KY00]<br />

[LA04]<br />

[Lab04]<br />

C. T. Kelley. Iterative m<strong>et</strong>hods for optimization. Frontiers in Applied Mathematics,<br />

SIAM, pages 4052, 1999.<br />

H. M. Kim. Targ<strong>et</strong> cascading in optimal system design. PhD thesis, University of<br />

Michigan, U.S.A, 2001.<br />

H. Kim, S. Ragon, G. Soremekun, B. Malone, and J. Sobieski. Supersonic business<br />

j<strong>et</strong> design through bi-level integrated system synthesis. In 1999 World Aviation<br />

Conference, number 1999-01-5622, 2004.<br />

S. Kodiyalam and C. Yuan. Evaluation of m<strong>et</strong>hods for multidisciplinary design<br />

optimization (MDO), part ii. Technical Report NASA/CR-2000-210313, NASA,<br />

Langley Research Center, november 2000.<br />

P. A. LeGresley and J. J. Alonso. Improving the performance of design decomposition<br />

m<strong>et</strong>hods with POD. In 10th AIAA/ISSMO Multidisciplinary Analysis. AIAA,<br />

2004. AIAA 2004-4465.<br />

M. Laban. Multi-disciplinary analysis and optimisation of supersonic transport<br />

aircraft wing planforms. In 10th AIAA/ISSMO Multidisciplinary Analysis and<br />

Optimization Conference, 2004.


Références bibliographiques 125<br />

[Law01] C. Lawrence. User's guide for CFSQP version 2.5 a c code for solving (large<br />

scale) constrained nonlinear (minmax) optimization problems, generating iterates<br />

satisfyng all inequality constraints. Technical Report TR-94-16-r1, University of<br />

Maryland, College Park, MD 20742, 2001.<br />

[Lin04]<br />

[LT01]<br />

[LTB96]<br />

[MAP05]<br />

[MKP99]<br />

J. G. Lin. Analysis and enhancement of collaborative optimization for multidisicplinary<br />

design. AIAA journal, Vol 42, No 2, February 2004.<br />

C. T. Lawrence and A. L. Tits. A computationally ecient feasible sequential<br />

quadratic programming algorithm. In SIAM J. OPTIM, Vol. 11, NO 4, pp 1092-<br />

1118, 2001.<br />

S. Lawrence, A. C. Tsoi, and A. D. Back. Function approximation with neural n<strong>et</strong>works<br />

and local m<strong>et</strong>hods : bias, variance and smoothness. In Australian Conference<br />

on Neural N<strong>et</strong>works, pages 1621. Australian National Univ., 1996.<br />

Mohamed Masmoudi, Didier Auroux, and Yogesh Parte. The state of the art in<br />

collaborative design. 2005. Post SAROD Workshop-2005.<br />

N. Michelena, H. M. Kim, and P.Y. Pampalambros. A system partitioning and<br />

optimization approach to targ<strong>et</strong> cascading. In Proc. 12th Int. Conf. on Engineering<br />

Design, (U. Lindemann <strong>et</strong> al., Eds, pages 11091112, Munich, Germany, 1999.<br />

[MKRHU99] M. Mongeau, H. Karsenty, V. Rouzé, and J.-B. Hiriart-Urruty. Comparison of<br />

public-domain software for black box global optimization. Optimization M<strong>et</strong>hods<br />

and Software, 1999.<br />

[MNP98]<br />

[Mor85]<br />

[Mor06]<br />

[MP00]<br />

[MP01]<br />

[MP06]<br />

[MPHC08]<br />

[NMA99]<br />

R. Mäkinen, P. Neittaanmäki, and J. Périaux. A gen<strong>et</strong>ic algorithm for multiobjective<br />

design optimization in aerodynamics and electromagn<strong>et</strong>ics. In Papailiou<br />

<strong>et</strong> al., editor, Computation Fluid Dynamics 98, Proceedings of the ECCOMAS 98<br />

Conference, volume 2, pages 418422, Athens, Greece, 1998. Wiley.<br />

J. Morgenstern. How to compute fast a function and all its derivatives, a variation<br />

on the theorem of Baur-Strassen. SIGACT News, 16(4) :6062, 1985.<br />

Franck Morel. Cahier des charge de l'<strong>application</strong> avion (proj<strong>et</strong> DOOM). Technical<br />

Report RT 1/11576/DPRS, ONERA, 2006.<br />

N. Michelena and P.Y. Pampalambros. Trends and challenges in system design<br />

optimization. In International Workshop on Multidisciplinary Design Optimization,<br />

Pr<strong>et</strong>oria, S. Africa, August 7-10 2000.<br />

B. Mohammadi and O. Pironneau. Applied Shape Optimization for Fluids. Oxford<br />

University Press, 2001.<br />

M. Masmoudi and Y. Parte. Disciplinary interaction variable elimination (DIVE)<br />

approach for MDO. ECCOMAS CFD 2006, 2006.<br />

M. Masmoudi, Y. Parte, J. Herm<strong>et</strong>z, and J. Clément. DIVE : A New Approach<br />

for Multidisciplinary Optimization. ECCOMAS, Venice, 2008.<br />

R. M. Lewis N. M. Alexandrov. Comparative properties of collaborative optimization<br />

and other approaches to MDO. In First ASMO UK/ISSMO CONFERENCE<br />

on Engineering Design Optimization, 1999.<br />

[OMD09] Consorsium OMD-RNTL. <strong>Optimisation</strong> multi-disciplinaire en mécanique (à<br />

paraître). Hermes, 2009.<br />

[Pla99]<br />

J. C. Platt. Advances in Kernel M<strong>et</strong>hods - Support Vector Learning, chapter Fast<br />

training of support vector machines using sequential minimal optimization, pages<br />

185208. Number 12. MIT Press, Cambridge, Massachus<strong>et</strong>ts, 1999.


126 Références bibliographiques<br />

[Pow07] M. J. D. Powell. Developments of NEWUOA for unconstrained minimization<br />

whithout derivatives. Technical Report DAMTP 2007/NA05, Centre for Mathmatical<br />

Sciences, 2007.<br />

[Pér98] J. Périaux. Gen<strong>et</strong>ic Algorithms and Evolution Strategy in Engineering and Computer<br />

Science : Recent Advances and Industrial Applications. John Wiley & Son<br />

Ldt, 1998.<br />

[Rav07] M. Ravachol. Rapport d'avancement. "optimisation <strong>multidisciplinaire</strong>". Technical<br />

report, DASSAULT AVIATION / OMD-RNTL, 2007.<br />

[Ray94] D. P. Raymer. Aircraft design : A conceptual approach. AIAA Education Series,<br />

New York, 1994.<br />

[SAS98] J. Sobieski, J. S. Agte, and R. Sandusky. Bi-level integrated system synthesis<br />

(BLISS). In AIAA/USAF/NASA/ISSMO Symposium, number AIAA 98-4916,<br />

1998.<br />

[SC02] P. Siarry and Y. Coll<strong>et</strong>te. <strong>Optimisation</strong> Multiobjectif. Groupe Eyrolles, 2002.<br />

[SH96] J. Sobieski and R. T. Haftka. Multidisciplinary aerospace design optimization :<br />

Survey of recent developments. Structural Optimization, 14 :123, 1996.<br />

[Sim98] T. W. Simpson. Approaches to multidisiciplinary design optimization, 1998.<br />

[SK00] I. P. Sobieski and I. M. Kroo. Collaborative optimization using response surface<br />

estimation. AIAA Journal, 38(10) :19311938, 2000.<br />

[Tar07] N. Taraud. Modélisation asymptotique des plasmas, approche par la méthode des<br />

développements asymptotiques raccordés. Master's thesis, <strong>ISAE</strong>, 2007.<br />

[TD02] Z. L. Tang and J. A. Désidéri. Towards self-adaptive param<strong>et</strong>erization of Bezier<br />

curves for airfoil aerodynamic design. Technical Report RR-4572, INRIA, October<br />

2002. URL :http ://www-sop.inria.fr/rapports/sophia/RR-4572.html.<br />

[TNRB98] R Tapp<strong>et</strong>a, S Nagendra, JE Renaud, and K Badhrinath. Concurrent sub-space<br />

optimization (csso) MDO algorithms in iSIGHT : Validation and testing. Technical<br />

Report 97CRD186, GE Research & Develoment Center, 1998.<br />

[Van01a] G. N. Vanderplaast. DOT USERS MANUAL Version 4.2. Vanderplaast R&D Inc.,<br />

Colorado Springs, 2001.<br />

[Van01b] G. N. Vanderplaats. Numerical Optimization Techniques for Engineering Design.<br />

Vanderplaast R&D Inc., Colorado Springs, 2001.<br />

[Vap95] V. N. Vapnik. The Nature of Statistical Learning Theory. Springer-Verlag, 1995.<br />

[WW04] G. J. Weck and A. S. Wilcox. Multidisicplinary system design optimization<br />

(MSDO), decomposition and coupling, 2004.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!