Optimisation multidisciplinaire : étude théorique et application ... - ISAE
Optimisation multidisciplinaire : étude théorique et application ... - ISAE
Optimisation multidisciplinaire : étude théorique et application ... - ISAE
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
THÈSE<br />
En vue de l'obtention du<br />
DOCTORAT DE L’UNIVERSITÉ DE TOULOUSE<br />
Délivré par l’Institut Supérieur de l’Aéronautique <strong>et</strong> de l’Espace<br />
Spécialité : Mathématiques appliquées<br />
Présentée <strong>et</strong> soutenue par Joël CLÉMENT<br />
le 9 juin 2009<br />
<strong>Optimisation</strong> <strong>multidisciplinaire</strong> :<br />
<strong>étude</strong> <strong>théorique</strong> <strong>et</strong> <strong>application</strong> à la conception des avions<br />
en phase d'avant proj<strong>et</strong><br />
JURY<br />
M. Philippe Dépincé, président du jury<br />
Mme Nathalie Bartoli<br />
M. Christophe Blondeau<br />
M. Jean-Antoine Désidéri, rapporteur<br />
M. Thierry Druot<br />
M. Jean Herm<strong>et</strong>z, co-directeur de thèse<br />
M. Mohamed Masmoudi, directeur de thèse<br />
M. Patrick Siarry, rapporteur<br />
École doctorale<br />
Unité de recherche<br />
: Aéronautique-Astronautique<br />
: Équipe d'accueil <strong>ISAE</strong>–ONERA MOIS<br />
Directeur de thèse : M. Mohamed Masmoudi<br />
Co-directeur de thèse : M. Jean Herm<strong>et</strong>z
Remerciements<br />
Ce n'est pas une chose simple de résumer ici, en quelques lignes, combien ont pu compter<br />
pour moi les personnes qui ont participé de près ou de loin à ce doctorat, que ce soit en travaillant<br />
avec moi, ou bien en partageant des instants de vie.<br />
Je remercie...<br />
... tout d'abord Mohamed Masmoudi, mon directeur de thèse, pour sa conance <strong>et</strong> pour<br />
m'avoir permis de mener c<strong>et</strong>te thèse au bout.<br />
... mes encadrants à l'Onera, Nathalie Bartoli <strong>et</strong> Jean Herm<strong>et</strong>z, pour leur conseils concernant<br />
l'optimisation <strong>et</strong> la conception des avions, pour avoir fait une relecture méticuleuse<br />
du manuscrit de thèse, <strong>et</strong> surtout pour leur soutien.<br />
... Patrick Siarry <strong>et</strong> Jean-Antoine Désidéri pour avoir accepté d'être mes rapporteurs de<br />
thèse, <strong>et</strong> pour avoir jugé mon travail de doctorat avec la plus grande attention.<br />
... Philippe Dépincé <strong>et</strong> Thierry Druot pour avoir accepté de participer à mon jury de thèse.<br />
... Grégoire Casalis, directeur de l'école doctorale ED-AA, ainsi que Maryse Herbillon <strong>et</strong> Annie<br />
Carles-Baillé pour tous les services rendus.<br />
... l'ensemble des personnes avec qui j'ai été amené à travailler au cours de ces trois années<br />
<strong>et</strong> demi, <strong>et</strong> avec qui j'ai participé aux proj<strong>et</strong>s DOOM <strong>et</strong> OMD-RNTL, en particulier<br />
Christophe Blondeau <strong>et</strong> Jean-Sébastien Schotté pour leurs échanges sur la MDO, Sébastien<br />
Defoort, <strong>et</strong> Yogesh Parte pour son sérieux <strong>et</strong> son enthousiasme.<br />
... l'équipe du DPRS/SAE, Bruno Lamiscare, Thomas(s), Martin, Louis, P<strong>et</strong>er, Jean-Louis,<br />
Yaz, Murielle, Sébastien, Armand, ainsi que tous les nouveaux embauchés, jeunes <strong>et</strong> plein<br />
d'avenir comme Michel ; l'équipe DTIM/M2SN, Pierre Maz<strong>et</strong>, François Rogier, Manuel<br />
Samuelides, Dominique Kalfon, Guillaume, Patricia, Vincent ; <strong>et</strong> toutes les personnes de<br />
l'institut de mathématiques de Toulouse, dont Jérôme, Sophie, Marc, Jean-Luc, Nadia,<br />
Samy, Didier, Delphine. Un remerciement particulier à Noëlle Desblancs, secrétaire du<br />
DPRS, ainsi qu'à Monique Perron pour leur enthousiasme <strong>et</strong> leur énergie.<br />
... toutes les personnes, avec qui j'ai pu partager l'intimité de mon bureau <strong>et</strong> mon quotidien,<br />
à commencer par François avec qui les échanges furent riches sur les mathématiques,<br />
le jonglage (5 balles), l'acrobatie, l'escalade <strong>et</strong> le dessin, Mathieu, Laurent (3 balles), <strong>et</strong><br />
Franck (4 balles) pour ses précieux conseils concernant les avions, ses discussions sur la<br />
vie, l'univers <strong>et</strong> tout le reste.
ii<br />
... tous les doctorants de l'Onera, en particulier, Éric, Laurence, Antoine, Edouardo, Jean-<br />
Baptiste, Cédric, Florent, Mickel, Laurent, Romain pour le squash, Stéphanie pour la<br />
Danse, Julien, Domi, Sophie pour son énergie <strong>et</strong> sa joie de vivre inépuisable (mais alors<br />
vraiment inépuisable [Tar07]), Pierre pour l'escalade <strong>et</strong> le cinéma.<br />
... Nico (blond) pour toutes les fois où on a du sauver le monde, pour le séjour à Berlin, <strong>et</strong><br />
pour la soirée cirque présentée ensemble à Sup-aéro, Angel pour les semaines en espagnol<br />
<strong>et</strong> les semaines en français, les potes de Sup-Aéro, Romain, Fabien, Pierre-Yves <strong>et</strong> les autres.<br />
... tous les toits qui m'ont abrité au cours de c<strong>et</strong>te thèse, <strong>et</strong> les personnes qui étaient dessous<br />
avec moi : l'INSA avec Sze Ming ; la Tannerie avec Manu, Vincent, puis Gatien puis Seb ;<br />
re l'INSA ; rue Cujas chez Julie ; <strong>et</strong> enn la maison rue Santos Dumont avec, encore une<br />
fois Manu <strong>et</strong> Vincent, Nico (roux), Nacho, Aline, Miguel, Yannick, Antoine. Merci pour<br />
tous les moments partagés, les repas, les fêtes <strong>et</strong> les dimanches après-midi sous la pluie.<br />
... le LIDO, école de cirque de Toulouse, pour tous ces moments magiques que sont les essais<br />
de cirque le mercredi soir, en en particulier Carlos, Sylvain, Isa, Yann, Héloïse, Cola, Lucia,<br />
Rauni, Raoul, <strong>et</strong> tous les autres.<br />
... Enrique Fraga pour les cours d'espagnol, Louise <strong>et</strong> Félicie pour les cours de dessins, Guy<br />
de Toulza pour les cours d'histoire de l'art <strong>et</strong> Emmanuel Zenou pour les cours en traitement<br />
d'image.<br />
... les compagnons de galère Rémi <strong>et</strong> Jéré, toujours là pour aider à ramer.<br />
... Guillaume qui m'a montré sa conance <strong>et</strong> son amitié en me faisant témoin de son mariage.<br />
... Irène pour son café le dimanche matin à Saint Aubin.<br />
... tous les gens qui m'ont été important <strong>et</strong> qui m'ont marqué pendant ces trois années <strong>et</strong><br />
demi, Gégé, Thomas, Anaïs, Jérôme, Gilles, Georey, Kako, Sarah, Maude(s), Gaëlle <strong>et</strong><br />
Godot, Typhaine <strong>et</strong> Elia, Viol<strong>et</strong>te, Thomas <strong>et</strong> Amandine, Romain, Coralie, Sophie, Carmen,<br />
Maélis, Molej, Bruno(s), Charlotte, Guillaume, Le p<strong>et</strong>it Manu, Totom, Seb de Boudu,<br />
Rémi <strong>et</strong> Elise, Christelle, Guislain <strong>et</strong> Sonia, Julien, Camille(s), Etienne(s), Aude, Alex(s),<br />
Victor, Louis, Henri, les funkyroots du luberon, Mathieu, Chiara, Yuki, Marguerite, Yrja,<br />
Marion, Claire, Nadia <strong>et</strong> sa famille, Estelle, Mathilde, Paul, Gé, Jonas, Gar<strong>et</strong>, Amy, Odile,<br />
Aude <strong>et</strong> Arnaud, Arthur, Hélène, Irène, Ludovic, Chin, Laure(s), Borja, Sylvie, Ines Efron,<br />
Olivier, Sonia, Juliana, Max, Yannick, la famille Roussier-Michon <strong>et</strong> tous les autres. . .<br />
... <strong>et</strong> toute ma famille.
Résumé :<br />
L'optimisation multi-disciplinaire propose des solutions aux problèmes de conception de systèmes<br />
complexes. Le terme optimisation multi-disciplinaire laisse sous-entendre à tort qu'il ne<br />
s'agit que d'un problème d'optimisation. Nous lui préférons ici le terme de conception collaborative.<br />
En e<strong>et</strong>, l'optimisation ne représente qu'un aspect, qui ne peut être séparée du reste<br />
du problème de conception. Le but n'est pas de créer un processus automatique, mais de faciliter<br />
les échanges entre les équipes des diérentes disciplines.<br />
De nombreuses méthodes, appelées communément formulations MDO (de Multi-Disciplinary<br />
Optimization), apparaissent dans la littérature (MDF, IDF, AAO, BLISS, CO). Elles proposent<br />
des stratégies perm<strong>et</strong>tant, d'une part, d'assurer la cohérence de la description du système complexe<br />
<strong>et</strong>, d'autre part, d'eectuer la recherche de la conguration optimale. Dans un premier<br />
temps, nous dressons un état de l'art des formulations MDO. Nous m<strong>et</strong>tons en avant leurs points<br />
communs <strong>et</strong> leurs diérences, an de proposer une implémentation de la manière la plus générale<br />
qui soit. Ces méthodes sont construites avec le même noyau, ce qui perm<strong>et</strong> de passer de l'une à<br />
l'autre avec une grande exibilité.<br />
Nous proposons, avec la méthode DIVE (Discipline Interaction Variable Elimination), un<br />
cadre d'utilisation de méta-modèles au sein des formulations MDO. Le méta-modèle peut se<br />
limiter à une approximation linéaire ou quadratique. Il peut s'appuyer sur des méthodes classiques<br />
d'apprentissage, telles que les réseaux neuronaux, le Krigeage ou la SVM. Il peut également<br />
faire appel à des techniques de projection sur des sous-espaces telles que la méthode POD.<br />
Chaque méta-modèle est accompagné d'une région de conance qui en détermine la validité.<br />
C<strong>et</strong>te approche par approximations locales <strong>et</strong> successives perm<strong>et</strong> d'aborder les problèmes de<br />
grande dimension.<br />
Nous présentons des résultats obtenus avec deux cas-tests d'avions d'aaires supersoniques<br />
obtenus sous deux environnements diérents (Scilab <strong>et</strong> ModelCenter).<br />
Mots-clés : optimisation multi-disciplinaire, conception avion avant-proj<strong>et</strong>, méta-modèles.
Abstract :<br />
Multidisciplinary optimization proposes solutions for complex system design problems. The<br />
name multidisciplinary optimization is often taken literally. We prefer to call it collaborative<br />
design optimization. Indeed, the optimization tool is only one part which can not be separated<br />
from the total design process. The goal of collaborative optimization is not to create an automatic<br />
design process based on optimization algorithms but to allow easy interaction amongst teams<br />
from dierent disciplines.<br />
Many m<strong>et</strong>hods, commonly called MDO formulations (of Multi-Disciplinary Optimization),<br />
appear in literature (MDF, IDF, AAO, BLISS, CO). They propose strategies making it possible,<br />
on the one hand, to ensure the coherence of the complex system description, on the other hand,<br />
to carry out the research of the optimal conguration. Initially, we draw up a state of the art<br />
of MDO formulations. We show up their common points and dierences. Then we propose an<br />
implementation in the most general way. These m<strong>et</strong>hods are built with the same core, which<br />
makes it possible to pass from the one to the other with a great exibility.<br />
We propose, with the DIVE m<strong>et</strong>hod (Discipline Interaction Variable Elimination), a framework<br />
for using surrogates models within MDO formulations. M<strong>et</strong>a-model can be limited to a<br />
linear or quadratic approximation. It can be based on traditional learning m<strong>et</strong>hods, such as<br />
neural n<strong>et</strong>works, Kriging or SVM. One can also use projection techniques such as POD. The<br />
m<strong>et</strong>a-model provides an area of condence which d<strong>et</strong>ermines its validity. This approach by local<br />
and successive approximations makes it possible to tackle problems with a large number of<br />
variables.<br />
We have results obtained with two test-cases of supersonic business j<strong>et</strong> whitin two dierent<br />
frameworks (Scilab and ModelCenter).<br />
Key words : multidisciplinary optimization, conceptual aircraft design, m<strong>et</strong>a-models.
Table des matières<br />
v<br />
Table des matières<br />
Introduction 1<br />
1 La conception d'un avion en phase avant-proj<strong>et</strong> 7<br />
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />
1.1 Présentation générale de la conception avion . . . . . . . . . . . . . . . . . . . . . 9<br />
1.1.1 Avant propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />
1.1.2 Quel périmètre pour la conception avion ? . . . . . . . . . . . . . . . . . . 10<br />
1.1.3 Démarche de conception . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />
1.1.4 Paramètres de conception en phase d'avant-proj<strong>et</strong> . . . . . . . . . . . . . . 15<br />
1.1.5 Principales sorties en conception en phase avant-proj<strong>et</strong> . . . . . . . . . . . 15<br />
1.2 Le cas-test Sobieski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
1.2.1 Description du cas-test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
1.2.2 Problème d'optimisation associé . . . . . . . . . . . . . . . . . . . . . . . . 23<br />
1.3 Le cas-test Dassault . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />
1.3.1 Description du cas-test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />
1.3.2 Problème d'optimisation associé . . . . . . . . . . . . . . . . . . . . . . . . 28<br />
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />
2 Les formulations pour l'optimisation multi-disciplinaire 29<br />
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />
2.1 Outils <strong>et</strong> dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />
2.1.1 Disciplines, paramètres, sorties <strong>et</strong> notations . . . . . . . . . . . . . . . . . 31<br />
2.1.2 Analyse multi-disciplinaire (MDA) . . . . . . . . . . . . . . . . . . . . . . 33<br />
2.1.3 Calcul des gradients (GSE) . . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />
2.1.4 Dénition de l'optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />
2.1.5 Méta-modèles disciplinaires . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />
2.2 Les formulations MDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />
2.2.1 MDF : Multi-Disciplinary Feasible . . . . . . . . . . . . . . . . . . . . . . 41<br />
2.2.2 IDF : Individual Disciplinary Feasible . . . . . . . . . . . . . . . . . . . . 41<br />
2.2.3 AAO : All-At-Once . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />
2.2.4 CO : Collaborative Optimization . . . . . . . . . . . . . . . . . . . . . . . 45<br />
2.2.5 BLISS : Bi-Level Integration System Synthesis . . . . . . . . . . . . . . . . 47<br />
2.2.6 BLISS 2000 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />
2.2.7 DIVE : Disciplinary Interaction Variable Elimination . . . . . . . . . . . . 51<br />
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
vi<br />
Table des matières<br />
3 Implémentation des formulations MDO 57<br />
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58<br />
3.1 Implémentation sous ModelCenter . . . . . . . . . . . . . . . . . . . . . . . . . . 58<br />
3.1.1 Les composants discipline du cas-test SSBJ . . . . . . . . . . . . . . . . 59<br />
3.1.2 MDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60<br />
3.1.3 IDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />
3.1.4 CO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />
3.1.5 DIVE (optimisation disciplinaire) . . . . . . . . . . . . . . . . . . . . . . . 64<br />
3.1.6 R<strong>et</strong>our d'expérience de ModelCenter . . . . . . . . . . . . . . . . . . . . . 65<br />
3.2 Implémentation sous Scilab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66<br />
3.2.1 Principes repris de ModelCenter . . . . . . . . . . . . . . . . . . . . . . . 67<br />
3.2.2 Implémentation des formulations MDO . . . . . . . . . . . . . . . . . . . . 67<br />
3.2.3 Cas particulier de BLISS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70<br />
3.2.4 Outils supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71<br />
3.2.5 Interface graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71<br />
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72<br />
4 Résultats obtenus avec les formulations MDO 75<br />
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />
4.1 Résultats pour le cas test Sobieski avec ModelCenter . . . . . . . . . . . . . . . . 76<br />
4.1.1 MDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77<br />
4.1.2 IDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79<br />
4.1.3 CO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80<br />
4.1.4 DIVE (sans méta-modèle) . . . . . . . . . . . . . . . . . . . . . . . . . . . 82<br />
4.1.5 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83<br />
4.2 Résultats pour le cas-test Sobieski avec Scilab . . . . . . . . . . . . . . . . . . . . 84<br />
4.2.1 Analyse multi-disciplinaire (MDA) . . . . . . . . . . . . . . . . . . . . . . 84<br />
4.2.2 Les formulations MDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />
4.2.3 Multi-start pour DIVE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />
4.2.4 Front de Par<strong>et</strong>o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />
4.2.5 Coecients de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />
4.2.6 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93<br />
4.3 Résultats pour le cas-test Dassault avec Scilab . . . . . . . . . . . . . . . . . . . . 93<br />
4.3.1 Analyse multi-disciplinaire (MDA) . . . . . . . . . . . . . . . . . . . . . . 94<br />
4.3.2 Les formulations MDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96<br />
4.3.3 Multi-start pour DIVE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />
4.3.4 Front de Par<strong>et</strong>o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />
4.3.5 Coecients de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />
4.3.6 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102<br />
Conclusion générale <strong>et</strong> perpectives 107<br />
A Fonctions objectifs <strong>et</strong> contraintes pour la méthode BLISS 111<br />
A.1 <strong>Optimisation</strong>s disciplinaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111<br />
A.2 <strong>Optimisation</strong> globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112<br />
A.2.1 Calcul de la dérivée de f par rapport aux variables globales z . . . . . . . 112<br />
A.2.2 Calcul de la dérivée de g par rapport aux variables globales z . . . . . . . 114<br />
A.2.3 Problème d'optimisation en z . . . . . . . . . . . . . . . . . . . . . . . . . 116
Table des matières<br />
vii<br />
B Algorithmes d'optimisation 117<br />
B.1 Algorithme de Gauss-Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117<br />
B.2 Méthode des objectifs bornés (construction d'un front de Par<strong>et</strong>o) . . . . . . . . . 118<br />
B.3 Optimiseur LIN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120<br />
Références bibliographiques 123
1<br />
Introduction<br />
Dénition de l'optimisation multi-disciplinaire<br />
La conception de système complexe (avions, hélicoptères, drones, <strong>et</strong>c. . .) est un suj<strong>et</strong> d'optimisation<br />
multi-disciplinaire par excellence. La recherche de la meilleure performance, de la<br />
meilleure qualité, au meilleur coût, est un enjeu majeur dans le domaine aérospatial. La maîtrise<br />
de la conception <strong>et</strong> de la mise en ÷uvre des engins volants est primordiale. Chaque erreur peut<br />
avoir des conséquences graves d'un point de vue économique ou opérationnel.<br />
La complexité de c<strong>et</strong> exercice provient de plusieurs facteurs que nous allons énumérer cidessous.<br />
• Il y a un grand nombre de domaines d'expertise ou disciplines impliqués.<br />
La modélisation des phénomènes qui régissent le système complexe demande un eort<br />
conséquent, <strong>et</strong> sollicite un grand nombre de domaines physiques (par exemple la mécanique<br />
des structures, la mécanique des uides, la thermodynamique pour la propulsion).<br />
Il existe des interactions entre ces diérents domaines, <strong>et</strong> il va falloir trouver un équilibre<br />
entre les réponses des disciplines, an d'obtenir une description cohérente du système.<br />
Les compétences <strong>et</strong> les modélisations disponibles dans chaque discipline ou sous-système<br />
sont maîtrisées par des services spéciques, qui peinent à collaborer étroitement, non<br />
par volonté délibérée, mais par la confrontation de cultures diérentes <strong>et</strong> une certaine<br />
méconnaissance des contraintes <strong>et</strong> de la complexité des domaines voisins.<br />
• Les temps de calcul des codes décrivant la physique des disciplines sont importants. Ils peuvent<br />
également requérir une intervention humaine pour la bonne conguration des conditions<br />
de calcul. Cela ne les rend pas toujours compatibles avec un processus d'optimisation.<br />
• Les codes décrivant la physique des diérents domaines peuvent être entachés d'erreurs,<br />
<strong>et</strong> posséder des imprécisions ou des irrégularités, ce qui va compliquer la recherche d'une<br />
conguration optimale.<br />
Le terme optimisation multi-disciplinaire laisse sous-entendre à tort qu'il ne s'agit que<br />
d'un problème d'optimisation. Nous lui préférons ici le terme de conception collaborative. En<br />
e<strong>et</strong>, l'optimisation ne représente qu'un aspect, qui ne peut être séparée du reste du problème<br />
de conception (qui concerne avant tout les interactions entre les disciplines qui composent le<br />
système). Le but n'est pas de créer un processus automatique, mais de faciliter les échanges<br />
entre les équipes des diérentes disciplines.<br />
On cherche à dénir un cadre qui perm<strong>et</strong>te de faciliter les échanges entre les diérentes disciplines,<br />
an d'aider à la recherche de congurations optimales <strong>et</strong> à l'obtention de compromis entre
2 Introduction<br />
les besoins des diérentes disciplines. Les décisions importantes concernant les congurations à<br />
r<strong>et</strong>enir sont bien évidemment laissées au jugement des acteurs de la conception.<br />
L'optimisation multi-disciplinaire va essayer d'appuyer le processus de conception avec des<br />
méthodes de natures diérentes.<br />
• Recherche de l'équilibre entre les disciplines : il convient tout d'abord de clarier<br />
quelles seront les variables qui participent à l'interaction entre les diérentes disciplines.<br />
Par exemple, si deux disciplines échangent un nombre très important de variables (les<br />
noeuds d'un maillage par exemple), il convient de les considérer comme une seule discipline.<br />
L'équilibre entre ces deux disciplines sera obtenu avec une méthode appropriée. On<br />
diminuera ainsi la complexité de l'échange entre les disciplines au niveau global. L'équilibre<br />
entre les diérents domaines peut être obtenu par plusieurs méthodes. On peut le<br />
voir comme un problème d'optimisation, ou bien comme l'ajout d'une contrainte supplémentaire<br />
au niveau de l'optimiseur global. Pour un système complexe donné, il faut être<br />
capable de choisir la méthode la plus appropriée pour résoudre le problème de cohérence<br />
interdisciplinaire.<br />
• Maîtrises des outils d'optimisation : pour la recherche de la conguration optimale,<br />
les diérentes techniques d'optimisation doivent être considérées (optimisation à base de<br />
gradient, algorithmes génétiques, méthodes locales ou globales). Il convient de trouver la<br />
méthode la plus adaptée au problème de conception posé, an de le résoudre de la manière<br />
la plus ecace qui soit.<br />
• Dénition du rôle des disciplines : les sollicitations des disciplines peuvent être de<br />
natures diérentes :<br />
les disciplines contribuent seulement à la description des phénomènes physiques, <strong>et</strong> les<br />
principaux choix de conception se font au niveau système, il s'agit d'analyse distribuée<br />
;<br />
les variables qui ne concernent que la discipline en question sont utilisées pour optimiser<br />
localement les sorties de la discipline concernée. On parle alors de conception<br />
distribuée : ici les disciplines participent aux choix de conception en agissant sur les<br />
variables qui leur sont propres, <strong>et</strong> le niveau système assure que l'optimisation se déroule<br />
bien dans le sens de l'objectif global.<br />
• Utilisation de méta-modèles : an de faciliter l'échange entre les disciplines, il est<br />
intéressant de pouvoir remplacer les codes de calculs souvent très gourmands en temps<br />
d'exécution par des méta-modèles 1 . Ces substitutions perm<strong>et</strong>tent d'avoir une réponse quasi<br />
instantanée <strong>et</strong> perm<strong>et</strong>tent ainsi un échange uide entre les disciplines. An de garder un<br />
sens physique au niveau des réponses des disciplines, il est primordial que les méta-modèles<br />
soient adaptés à la discipline considérée, ainsi qu'à la conguration étudiée. Il faut pour<br />
cela des méta-modèles qui s'adaptent <strong>et</strong> qui se réactualisent en fonction des réponses des<br />
codes de calculs plus ns. On arrive ainsi à des résultats précis sur les sorties des disciplines<br />
lorsque l'on atteint la solution optimale. Les méta-modèles perm<strong>et</strong>tent aussi parfois<br />
de régulariser les sorties des disciplines, <strong>et</strong> de faciliter ainsi la tâche à l'optimiseur.<br />
1 Méta-modèles : ces modèles simpliés perm<strong>et</strong>tent d'obtenir des réponses en un temps raisonnable. En contrepartie,<br />
la délité des réponses est dégradée. Ces méta-modèles peuvent tenir compte de la physique en jeu ou<br />
non
3<br />
Nous dénissons par stratégies pour l'optimisation multi-disciplinaire (plus communément<br />
appelées formulations MDO 2 ) les méthodes qui utilisent ces diérents outils, an d'aider à la<br />
recherche d'une conguration optimale.<br />
Base documentaire sur l'optimisation multi-disciplinaire<br />
L'optimisation multi-disciplinaire était peu représentée dans la littérature, mais les dernières<br />
années ont vu paraître de nombreux papiers sur le suj<strong>et</strong>. Nous les classons ici en trois catégories.<br />
Nous présentons tout d'abord les publications qui donnent une vue d'ensemble de l'optimisation<br />
multi-disciplinaire, ainsi que des challenges actuels dans le domaine. Puis nous montrons quelques<br />
articles qui décrivent une stratégie d'optimisation multi-disciplinaire en particulier. Enn, nous<br />
donnons certaines références pour les suj<strong>et</strong>s connexes à la MDO, tels que les algorithmes d'optimisation<br />
ou les méta-modèles.<br />
• Pour une vision globale de l'optimisation multi-disciplinaire, nous proposons plusieurs publications.<br />
Les articles [SH96, BG98, Bar98] dénissent la MDO de manière générale, ainsi<br />
que son <strong>application</strong> pour les challenges industriels. On peut trouver une présentation des<br />
diérentes méthodes pour la MDO dans [CDF + 93, AL00, Ale]. L'article [MAP05] propose<br />
une revue des diérentes stratégies d'optimisation <strong>et</strong> traite de suj<strong>et</strong>s connexes à la MDO,<br />
comme l'importance de la dénition des paramètres ou l'<strong>application</strong> de la théorie des jeux<br />
à l'optimisation multi-disciplinaire. Nous pouvons trouver aussi des cours qui présentent<br />
les formulations MDO <strong>et</strong> montrent des résultats sur des exemples analytiques <strong>et</strong> appliqués<br />
[Sim98, WW04].<br />
• Certaines publications sont plus axées sur une formulation MDO en particulier.<br />
Collaborative Optimization (CO) : nous pouvons trouver une description de c<strong>et</strong>te méthode<br />
dans [BGKS96, NMA99, AR00]. En particulier, l'article [Lin04] propose une analyse<br />
<strong>théorique</strong> de c<strong>et</strong>te approche.<br />
Concurrent Sub-Space Optimization (CSSO) : une description, ainsi qu'une implémentation<br />
de c<strong>et</strong>te méthode sous iSight, sont données dans [TNRB98].<br />
Bi-Level Integrated System Synthesis (BLISS) : il existe de nombreuses publications<br />
sur c<strong>et</strong>te méthode. La version de base est présentée dans [KRS + 04]. Une autre version<br />
utilisant les méta-modèles est décrite dans [Alt02]. La méthode BLISS 2000, qui propose<br />
une généralisation de l'utilisation des méta-modèles, est décrite dans [Agt00].<br />
Discipline Interaction Variable Elimination (DIVE) : [MP06] propose un cadre nouveau<br />
d'utilisation des méta-modèles pour l'optimisation multi-disciplinaire.<br />
D'autres articles présentent les développements récents <strong>et</strong> proposent une approche différente.<br />
Il existe d'autres modes d'organisation de la conception qui ne sont pas basés<br />
sur un découpage disciplinaire, mais sur une organisation hiérarchique <strong>et</strong> sur une restriction<br />
de la communication entre les diérents niveaux [MP00]. Une méthode telle que<br />
ATC (Analytical Targ<strong>et</strong> Cascading) [Kim01, MP00, MKP99] est plus appropriée dans<br />
ce cas d'organisation hiérarchique. La comparaison des méthodes ATC, CO <strong>et</strong> d'autres<br />
approches, est exposée dans [All04]. Une nouvelle méthode basée sur ATC <strong>et</strong> CO est<br />
exposée dans [AKZP05].<br />
• Enn, l'optimisation multi-disciplinaire requiert plusieurs outils qui sont décrits dans la<br />
littérature.<br />
2 MDO : multi-disciplinary optimization ou optimisation multi-disciplinaire
4 Introduction<br />
Algorithmes d'optimisation : les principales méthodes utilisées en optimisation sont<br />
présentées dans [Van01b, Gui03]. L'algorithme SQP qui sera utilisé dans la thèse est<br />
décrit dans [Law01, Ber04]. Des éléments d'optimisation multiobjectif sont donnés dans<br />
[SC02].<br />
Global Sensitivity Equation (GSE) ou calcul par l'adjoint : une description de c<strong>et</strong>te<br />
méthode de calcul de gradients est donnée dans [HBSS90, Cea86, MP01, Jam90].<br />
La description <strong>et</strong> l'utilisation de méta-modèles fait l'obj<strong>et</strong> de nombreuses publications.<br />
Pour les méthodes de surface de réponse, nous pouvons nous référer à [CST00, Vap95,<br />
Pla99]. Les méthodes tenant compte de la physique de la discipline, telles que les POD,<br />
sont décrites dans [GM97].<br />
Cadre de la thèse<br />
La thèse se déroule dans le cadre de l'École Doctorale Aéronautique <strong>et</strong> Astronautique (EDAA)<br />
de l'Institut Supérieur de l'Aéronautique <strong>et</strong> de l'Espace (<strong>ISAE</strong>). Elle est dirigée par le Professeur<br />
Mohamed Masmoudi du laboratoire Mathématique pour l'Industrie <strong>et</strong> la Physique (MIP) de l'université<br />
Toulouse III. Le travail de recherche est eectué au sein de l'Oce Nationale d'<strong>étude</strong>s<br />
<strong>et</strong> recherches aérospatiales (ONERA). Il est encadré par Jean Herm<strong>et</strong>z, chef d'unité Système<br />
AéronautiquEs du Département PRospectives <strong>et</strong> Synthèse (DPRS/SAE), <strong>et</strong> par Nathalie Bartoli,<br />
ingénieur de recherche à l'unité Modélisation Mathématique <strong>et</strong> Numérique du Département<br />
Traitement de l'Information <strong>et</strong> Modélisation (DTIM/M2SN).<br />
La thèse se situe au coeur de deux proj<strong>et</strong>s sur l'optimisation multi-disciplinaire.<br />
• Le proj<strong>et</strong> DOOM (Démarche Outillée pour l'<strong>Optimisation</strong> Multi-disciplinaire).<br />
De 2005 à 2008, l'ONERA a décidé de m<strong>et</strong>tre un place le proj<strong>et</strong> fédérateur pluriannuel<br />
DOOM (Démarche Outillée pour l'optimisation Multidisciplinaire), an de mener une<br />
réexion approfondie sur le thème de la MDO, en analysant diérentes formulations de<br />
problèmes <strong>et</strong> diérentes techniques d'optimisation. Le but est de développer des outils<br />
adéquats <strong>et</strong> de les tester sur deux cas d'<strong>application</strong> choisis dans les domaines avion <strong>et</strong><br />
missile. Ce proj<strong>et</strong> a donné lieu à plusieurs publications internes :<br />
[BS06] concernant les formulations MDO ;<br />
[BKS06] concernant les algorithmes d'optimisation ;<br />
[BSBM07] concernant les méta-modèles ;<br />
[Mor06] concernant la conception avion.<br />
• Le proj<strong>et</strong> OMD-RNTL 3 .<br />
Ce proj<strong>et</strong> réunit plusieurs universités <strong>et</strong> centres de recherche français ( l'INRIA, l'université<br />
Paul Sabatier de Toulouse au travers du laboratoire MIP, les Unités mixtes CNRS-Mines<br />
de Saint-Etienne <strong>et</strong> CNRS-Ecole Centrale de Nantes, l'UTC, ENS à Cachan <strong>et</strong>c. . .), ainsi<br />
que plusieurs industriels (Dassault, Astrium, Renault), an de mener une réexion globale<br />
sur l'optimisation multi-disciplinaire. Le but ici est de confronter le savoir des acteurs<br />
de la recherche aux problèmes rencontrés par les industriels. Ce proj<strong>et</strong> a donné lieu à<br />
la rédaction d'un ouvrage qui vient de paraître chez Hermes [OMD09] sur l'optimisation<br />
multi-disciplinaire.<br />
3 http ://omd.lri.fr
5<br />
D'autres thèses concernant l'optimisation <strong>multidisciplinaire</strong> on été eectuées durant c<strong>et</strong>te<br />
thèse. Nous pouvons citer la thèse de Céline Badue [Bad07], la thèse de Yogesh Parte concerant<br />
l'optimisation multi-disciplinaire <strong>et</strong> encadrée par M. Masmoudi <strong>et</strong> la thèse <strong>Optimisation</strong><br />
<strong>multidisciplinaire</strong> appliquée aux fusées lanceuses de satellites de Jérôme Picard.<br />
Objectifs <strong>et</strong> apports de la thèse<br />
Le but de c<strong>et</strong>te thèse est d'étudier, d'implémenter, <strong>et</strong> de comparer les diérentes formulations<br />
MDO présentes dans la littérature. Nous le ferons pour les méthodes MDF, IDF, CO, BLISS <strong>et</strong><br />
DIVE. Le cadre applicatif se situe dans la conception avion au stade avant-proj<strong>et</strong>. Nous avons à<br />
notre disposition deux cas-tests de ce type.<br />
Nous proposons une vision des formulations MDO la plus générale possible. Toutes les méthodes<br />
reposent sur le même noyau <strong>et</strong> penvent être implémentées modulo un certain nombre de<br />
choix, ce qui nous perm<strong>et</strong>tra de passer de l'une à l'autre avec une grande exibilité.<br />
Notre contribution consiste à proposer un cadre pour l'utilisation de méta-modèles disciplinaires<br />
au sein du problème de conception. Nous donnons aux méta-modèles un sens général,<br />
commençant par les approximations linéaires ou quadratiques, en passant par les méthodes de<br />
surfaces de réponses (krigging, réseau de neurones) <strong>et</strong> les réductions physiques de modèles (POD),<br />
<strong>et</strong> même en considérant le modèle exact, lorsque le code présente une exécution rapide.<br />
Le but de c<strong>et</strong>te thèse n'est pas de faire une <strong>étude</strong> exhaustive sur les méta-modèles. L'idée<br />
importante que nous souhaitons montrer est la viabilité de l'utilisation de méta-modèles disciplinaires<br />
dans le cadre de l'optimisation multi-disciplinaire. Nous chercherons à prouver l'ecacité<br />
de ce principe avec un exemple des plus simples qui soit, c'est-à-dire en utilisant des méta-modèles<br />
linéaires. Ces méta-modèles présentent l'inconvénient de n'être valides que dans une p<strong>et</strong>ite région<br />
de conance, mais c<strong>et</strong>te région peut s'adapter au processus d'optimisation <strong>et</strong> on s'aranchit de<br />
la dimension du problème.<br />
Si l'on montre que c<strong>et</strong>te méthode fonctionne avec des méta-modèles très simples, on peut<br />
espérer qu'elle marchera d'autant mieux avec des méta-modèles plus perfectionnés. Le choix du<br />
méta-modèle sera par la suite laissé aux soins de la discipline, qui saura proposer le méta-modèle<br />
le plus adapté.<br />
Plan de la thèse<br />
Nous allons tout d'abord donner dans le chapitre 1 une vue générale de la conception avion<br />
au stade avant-proj<strong>et</strong>. Nous y présentons les diérents domaines qui interviennent, la démarche<br />
de conception qui peut être découpée en plusieurs phases, <strong>et</strong> les paramètres qui peuvent servir de<br />
variables de conception en phase avant-proj<strong>et</strong>. An d'illustrer c<strong>et</strong>te problématique de conception,<br />
deux cas-tests de type avion d'aaires supersonique sont introduits. Ils perm<strong>et</strong>tent de décrire le<br />
comportement physique de l'avion pour un nombre limité de paramètres, <strong>et</strong> de tester diérentes<br />
stratégies d'optimisation, qui appuieront la recherche de compromis.<br />
Nous donnons dans le chapitre 2 un cadre général pour l'optimisation multi-disciplinaire <strong>et</strong><br />
nous présentons plusieurs formulations MDO. La première partie du chapitre présente les éléments<br />
qui constituent ces méthodes : les diérents types de variables, le problème d'équilibre<br />
interdisciplinaire, les méthodes de calcul de gradients, le problème d'optimisation associé au<br />
problème de conception <strong>et</strong> les méta-modèles disciplinaires. Dans une deuxième partie, nous allons<br />
expliciter certaines formulations MDO, à savoir MDF, IDF, AAO, CO, BLISS, BLISS 2000<br />
<strong>et</strong> DIVE.
6 Introduction<br />
Nous décrivons dans le chapitre 3 l'implémentation des formulations MDO avec deux environnements<br />
diérents : ModelCenter, qui est un logiciel facile d'utilisation <strong>et</strong> très pratique pour<br />
la MDO, mais payant, <strong>et</strong> Scilab, un logiciel libre.<br />
Dans le chapitre 4, nous analysons les résultats obtenus avec les environnements <strong>et</strong> les cas-tests<br />
présentés auparavant, <strong>et</strong> nous cherchons à en tirer des conclusions sur l'ecacité des diérentes<br />
formulations MDO <strong>et</strong> plus particulièrement sur la viabilité de l'utilisation de méta-modèles disciplinaires.<br />
Enn, nous essayons en conclusion générale de proposer notre vision de l'optimisation <strong>multidisciplinaire</strong>,<br />
<strong>et</strong> de donner quelques perspectives sur ce que pourrait être la suite de travail de<br />
recherche.<br />
En annexe, nous précisons la construction des fonctions objectifs <strong>et</strong> contraintes pour la méthode<br />
BLISS, <strong>et</strong> nous détaillons quelques algorithmes d'optimisation.
Chapitre 1<br />
La conception d'un avion en phase<br />
avant-proj<strong>et</strong><br />
Sommaire<br />
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />
1.1 Présentation générale de la conception avion . . . . . . . . . . . . . . 9<br />
1.1.1 Avant propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />
1.1.2 Quel périmètre pour la conception avion ? . . . . . . . . . . . . . . . . . 10<br />
1.1.3 Démarche de conception . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />
1.1.4 Paramètres de conception en phase d'avant-proj<strong>et</strong> . . . . . . . . . . . . 15<br />
1.1.5 Principales sorties en conception en phase avant-proj<strong>et</strong> . . . . . . . . . . 15<br />
1.2 Le cas-test Sobieski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
1.2.1 Description du cas-test . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />
1.2.2 Problème d'optimisation associé . . . . . . . . . . . . . . . . . . . . . . 23<br />
1.3 Le cas-test Dassault . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />
1.3.1 Description du cas-test . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />
1.3.2 Problème d'optimisation associé . . . . . . . . . . . . . . . . . . . . . . 28<br />
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
8 La conception d'un avion en phase avant-proj<strong>et</strong><br />
Introduction<br />
La conception d'un avion est une démarche qui consiste à trouver un compromis entre les<br />
demandes des utilisateurs <strong>et</strong> ce que perm<strong>et</strong>tent de réaliser les moyens actuels. Ces demandes<br />
peuvent provenir des compagnies aériennes pour le transport de personnes <strong>et</strong> de marchandises,<br />
des besoins militaires avec les avions de combat <strong>et</strong> les drones, <strong>et</strong>c. . .<br />
Avant même de construire l'engin volant, on doit être capable de le modéliser par des moyens<br />
informatiques, an d'évaluer la viabilité du proj<strong>et</strong> :<br />
en terme physique : l'avion proposé est-il capable de répondre aux objectifs qui lui sont<br />
demandés ?<br />
en terme économique : son utilisation commerciale est-elle viable <strong>et</strong> perm<strong>et</strong>-elle d'assumer<br />
ses coûts de conception, de construction, d'utilisation <strong>et</strong> d'entr<strong>et</strong>ien ?<br />
en terme écologique : est-il conforme aux normes environnementales sur la pollution,<br />
s'inscrit-il dans une démarche de développement durable ?<br />
C<strong>et</strong>te modélisation va solliciter diérents domaines de la physique, tels que la mécanique des<br />
structures, l'aérodynamique, l'énergétique <strong>et</strong> la propulsion, l'acoustique, <strong>et</strong>c. . . Il va falloir être<br />
capable de marier toutes ces disciplines an d'obtenir une description cohérente <strong>et</strong> able des<br />
performances estimées de l'avion.<br />
Les codes de calcul qui traduisent la modélisation de ces diérentes disciplines sont rapidement<br />
gourmands en temps d'exécution. An de faciliter les échanges entre les diérents domaines,<br />
on doit pouvoir disposer de codes plus simples, traduisant une modélisation approchée, rendant<br />
compte des tendances principales au premier ordre, mais dont les temps d'exécution perm<strong>et</strong>tront<br />
d'eectuer le calcul de ces disciplines couplées. Ces méta-modèles doivent s'adapter à la<br />
conguration étudiée an de pouvoir donner des résultats cohérents.<br />
La conception avion se déroule généralement en trois phases :<br />
la phase de conceptual design, ou d'<strong>étude</strong> de concept perm<strong>et</strong> d'évaluer des concepts d'avions<br />
diérents <strong>et</strong> de déterminer les grandes tendances des performances estimées pour un nombre<br />
restreint de paramètres inuant au premier ordre ;<br />
la phase de preliminary design, ou d'<strong>étude</strong> préliminaire sert à déterminer la viabilité d'un<br />
concept <strong>et</strong> de l'améliorer dans un voisinage restreint ;<br />
la phase de d<strong>et</strong>ailed design ou de conception détaillée étudie en détail une conguration<br />
donnée <strong>et</strong> perm<strong>et</strong> de préparer la fabrication de l'engin volant.<br />
Le nombre de paramètres considérés augmente à chaque phase 1 . Ces paramètres sont le fruit<br />
de l'expérience acquise par les concepteurs au cours des années.<br />
Une vision globale de la conception avion est donnée dans la section 1.1. Nous y présentons les<br />
diérents domaines qui interviennent (cf section 1.1.2), puis la démarche de conception selon ces<br />
diérentes phases (cf section 1.1.3), <strong>et</strong> enn nous exposons les diérents paramètres qui peuvent<br />
servir de variables de conception en phase avant-proj<strong>et</strong> (cf section 1.1.4).<br />
An d'illustrer c<strong>et</strong>te problématique de conception, deux cas-tests de type avion d'aaire<br />
supersonique sont introduits. Ils perm<strong>et</strong>tent de décrire le comportement physique de l'avion pour<br />
un nombre de paramètres limités, <strong>et</strong> de tester diérentes stratégies d'optimisation qui appuieront<br />
la recherche de compromis. Ils sont décrits dans les sections 1.2 <strong>et</strong> 1.3. Pour chacun d'entre eux,<br />
nous donnons une description des diérentes disciplines qui le composent <strong>et</strong> nous exposons le<br />
problème d'optimisation associé.<br />
1 Le plus souvent, ce sont les paramètres locaux qui augmentent. Ils peuvent aussi changer de nature. Par<br />
exemple, un paramètre scalaire en phase de conceptual design peut devenir un vecteur en phase de preliminary<br />
design.
1.1 Présentation générale de la conception avion 9<br />
1.1 Présentation générale de la conception avion<br />
1.1.1 Avant propos<br />
Les systèmes aéronautiques, avions, hélicoptères, drones notamment, sont le fruit de compromis<br />
techniques <strong>et</strong> économiques. Ces derniers sont établis sur la base d'un cahier des charges<br />
contenant les principales spécications correspondant au besoin de l'utilisateur à couvrir. La<br />
recherche de ces compromis est typiquement l'activité du concepteur : il va chercher les meilleures<br />
congurations possibles au travers d'une approche heuristique mêlant expertise <strong>et</strong> techniques<br />
d'optimisation. Les résultats obtenus <strong>et</strong> leur analyse peuvent alors conduire à une éventuelle<br />
remise en cause des spécications initiales, traduisant le besoin exprimé par le client (ou issue de<br />
l'analyse de marché). Le schéma 1.1 illustre c<strong>et</strong>te démarche globale. Le bouclage entre l'analyse<br />
des résultats de conception <strong>et</strong> le besoin utilisateur constitue la recherche du meilleur compromis.<br />
✲<br />
Spécications<br />
Besoin utilisateur<br />
✲<br />
❄<br />
Conguration<br />
✻<br />
Évaluation<br />
✛<br />
Fig. 1.1 Processus global de conception système.<br />
Dans les grandes lignes, le besoin utilisateur (ou besoin opérationnel) évoqué ci-avant correspond<br />
à l'obtention d'une performance minimale, pour un emploi particulier déni, en respectant<br />
des contraintes d'emploi, réglementaires <strong>et</strong> de sécurité. Par exemple, on souhaite concevoir<br />
un avion transportant n passagers <strong>et</strong> capable d'atteindre une distance franchissable donnée.<br />
L'obtention de c<strong>et</strong>te performance est généralement assuj<strong>et</strong>tie à la minimisation d'un paramètre<br />
économique, proche de la notion de coût : selon la destination opérationnelle du véhicule, on<br />
parlera de coût de possession (par exemple pour un véhicule militaire) ou de coût opérationnel<br />
direct (DOC 2 ) pour les appareils civils.<br />
C<strong>et</strong>te notion de coût doit être comprise au sens large : aujourd'hui, les impératifs de développement<br />
durable introduisent dans celui-ci des notions d'impact écologique, dont la traduction est<br />
essentiellement liée à la mise en place de taxes (taxe carbone, taxe d'atterrissage pour l'aide<br />
aux riverains pour l'isolation acoustique). On notera que ces deux exemples typiques d'impact<br />
environnemental peuvent être eux-mêmes des objectifs de conception.<br />
On établit ainsi tous les éléments d'une optimisation sur lesquels un concepteur va s'appuyer :<br />
fonction(s) à optimiser, contraintes à satisfaire. Il reste à préciser, d'une part, quels sont les<br />
paramètres de conception sur lesquels il va pouvoir jouer, <strong>et</strong>, d'autre part, quelle sera la démarche<br />
suivie pour aboutir à l'émergence des meilleurs compromis.<br />
2 DOC : Direct Operating Cost.
10 La conception d'un avion en phase avant-proj<strong>et</strong><br />
1.1.2 Quel périmètre pour la conception avion ?<br />
Il y a plusieurs façons d'aborder la conception avion. Selon la section précédente, elle doit<br />
aboutir à un appareil atteignant certaines performances, qui constituent soit un objectif de<br />
conception, soit une contrainte à satisfaire (par exemple la vitesse minimale d'approche ou la<br />
distance de décollage).<br />
Prenons un exemple simple : un avion civil est généralement conçu pour emmener d'un point<br />
A à un point B des passagers, il doit donc disposer d'une distance franchissable R que l'on peut<br />
approcher à l'aide de l'équation de Brégu<strong>et</strong> :<br />
R = F.V<br />
g.C s<br />
ln( M i<br />
M f<br />
). (1.1)<br />
C<strong>et</strong>te performance, fondamentale pour des appareils commerciaux civils, dépend :<br />
de l'aérodynamique du véhicule au travers de la notion de nesse F (rapport du coecient<br />
de portance sur le coecient de traînée) ;<br />
de sa vitesse de vol V ;<br />
de la consommation spécique du moteur C s ;<br />
de sa masse, au sens large, intégrant la charge utile, mais aussi <strong>et</strong> surtout sa masse propre<br />
(ou masse à vide équipée/en ordre d'exploitation), qui se décline ici en masse en n de vol<br />
(M f ) <strong>et</strong> masse au début du vol (M i ),<br />
de g, l'accélération gravitationnelle (g = 9.81m.s −2 ).<br />
L'aérodynamique du véhicule, comme sa structure, dépendent des dimensions de l'appareil.<br />
L'impact de celles-ci sur les caractéristiques correspondantes, ici aérodynamiques <strong>et</strong> massiques,<br />
est établi au travers de modèles qui traduisent une certaine représentation de la physique<br />
en jeu. Ces modèles établissent le lien entre les paramètres qui décrivent l'avion, que l'on peut<br />
également qualier de variables de conception, <strong>et</strong> les performances calculées.<br />
D'autres caractéristiques, mises sous la forme de contraintes à respecter, proviennent de<br />
diérentes disciplines, comme par exemple l'empreinte acoustique.<br />
Généralement, on désigne par discipline un domaine d'expertise particulier. Cela peut correspondre<br />
à un domaine physique, comme la mécanique des uides par exemple, ou bien à un<br />
sous-système regroupant plusieurs domaines physique.<br />
La discipline aérodynamique<br />
C<strong>et</strong>te discipline fournit des caractéristiques de deux types diérents :<br />
aérodynamique basse vitesse pour les performances au décollage (<strong>et</strong> montée) <strong>et</strong> à l'atterrissage<br />
(<strong>et</strong> en approche) ;<br />
aérodynamique en croisière : subsonique ou transsonique pour les avions commerciaux<br />
actuels, supersonique pour les appareils de combat, bas subsonique (ou subsonique incompressible)<br />
pour les avions légers, <strong>et</strong>c. . .<br />
Selon les besoins <strong>et</strong> les missions, ces modèles peuvent être capables de restituer des caractéristiques<br />
instationnaires de façon à représenter des phases transitoires requises pour des<br />
aspects relevant de la dynamique du véhicule.<br />
La discipline structure<br />
La masse d'un système mécanique, quel qu'il soit, est le résultat du dimensionnement de ses<br />
constituants assurant la reprise d'eort que c<strong>et</strong>te structure subie. En première approche,<br />
les eorts sont liés à :<br />
la gravité, naturelle ou augmentée par les man÷uvres que l'appareil est susceptible de<br />
faire (on parle de charges) ;
1.1 Présentation générale de la conception avion 11<br />
la pression dynamique exercée par l'air <strong>et</strong> dépendant des conditions de vol (vitesse <strong>et</strong><br />
altitude) ;<br />
les conditions atmosphériques pouvant être rencontrées sur l'ensemble du domaine de vol<br />
de l'appareil, qui vont notamment dénir les eorts liés aux rafales. Ce domaine est tantôt<br />
le résultat de compromis entre performances, coûts, <strong>et</strong> respect des contraintes réglementaires<br />
pour les avions commerciaux, tantôt imposé par des considérations opérationnelles<br />
pour les avions militaires ;<br />
des considérations en rapport avec la charge marchande : les passagers requièrent des<br />
conditions de confort (conditionnement d'air <strong>et</strong> pressurisation) qui sont dimensionnantes<br />
pour la structure de l'appareil ;<br />
les man÷uvres, décidées par le pilote, qui agissent indirectement sur la nature de la<br />
charge mais qui induisent également des eorts locaux de déformation des structures (par<br />
exemple déformation en torsion d'une voilure sous l'action de braquage d'un aileron).<br />
On pourrait ajouter d'autres considérations liées à l'échauement cinétique (pour le vol<br />
supersonique ou hypersonique) <strong>et</strong> toutes les contraintes logistiques. On notera également<br />
que se cachent derrière la discipline structure plusieurs autres domaines ou disciplines,<br />
comme les matériaux, les techniques de fabrication <strong>et</strong> de maintenance, <strong>et</strong>c. . .<br />
La discipline performance opérationnelle<br />
En plus du rayon d'action donné par la formule de Brégu<strong>et</strong> (voir équation (1.1)), de nombreuses<br />
performances sont attendues généralement d'un appareil. Leur calcul se fait en<br />
considérant en quelque sorte l'avion comme un point matériel (son centre de gravité) <strong>et</strong> en<br />
s'intéressant exclusivement à la trajectoire de celui-ci. On considère donc généralement des<br />
performances établies sur la base :<br />
des équations de la mécanique du vol issues du principe fondamental de la dynamique :<br />
mise en relation des forces de propulsion <strong>et</strong> aérodynamiques <strong>et</strong> des forces liées à la gravité<br />
<strong>et</strong> à l'inertie, l'appareil étant supposé en régime permanent équilibré ;<br />
de l'équation diérentielle de consommation instantanée : C = − dM c<br />
. Son intégrale sur<br />
dt<br />
la durée de la mission nous donne la masse de carburant M c consommée.<br />
Naturellement, l'examen des besoins conduit à la dénition de niveaux de performances<br />
spéciques aux missions à remplir. Si l'on reste sur les avions civils, on considère généralement<br />
:<br />
les performances pour une trajectoire donnée, c'est-à-dire les taux de montée, consommation<br />
en croisière (distance franchissable), consommation en phase d'attente (durée de<br />
vol) ;<br />
les performances de décollage (longueur de piste au décollage, distance d'accélérationarrêt),<br />
<strong>et</strong> d'atterrissage (vitesse d'approche, distance d'atterrissage).<br />
Ces performances sont analysées pour diérentes conditions atmosphériques (temps chaud<br />
ou froid, aérodrome en altitude, <strong>et</strong>c. . .), <strong>et</strong> pour diérentes conditions d'utilisation (vol à<br />
pleine charge, moteur en panne si il y en a plusieurs, <strong>et</strong>c. . .).<br />
La discipline qualité de vol<br />
Celle-ci s'intéresse au comportement de l'avion autour de son centre de gravité, donc à ses<br />
capacités à man÷uvrer. Au travers des équations de la mécanique du vol, c<strong>et</strong>te discipline<br />
intègre tous les facteurs conditionnant les mouvements de l'appareil : matrice d'inertie, amplitude<br />
<strong>et</strong> variation des forces aérodynamiques <strong>et</strong> de propulsion <strong>et</strong> paramètres de commande<br />
(par exemple, les eorts aérodynamiques liés à une action du pilote au travers d'une gouverne).<br />
Ces qualités de vol sont examinées pour diérentes conditions de vol. Elles doivent
12 La conception d'un avion en phase avant-proj<strong>et</strong><br />
répondre à des niveaux d'exigences liés à l'emploi du véhicule : on ne demandera pas les<br />
mêmes capacités de man÷uvre à un avion de type Airbus ou à un appareil de voltige.<br />
La discipline énergétique <strong>et</strong> propulsion<br />
C<strong>et</strong>te discipline englobe les caractéristiques <strong>et</strong> performances du groupe propulsif de l'appareil.<br />
Un moteur est un système complexe en soi : il intègre les domaines cités auparavant :<br />
aérodynamique (interne c<strong>et</strong>te fois), structure <strong>et</strong> matériaux, combustion, thermique <strong>et</strong>c. . .<br />
D'un point de vue système, la propulsion est vue de façon simpliée au travers d'une<br />
représentation macroscopique (i.e. ne traduisant pas tous les détails techniques d'un moteur,<br />
mais globalisant plutôt ses performances, par exemple la poussée fournie). Compte<br />
tenu de l'importance grandissante de l'impact environnemental des avions, ce domaine est<br />
plus que jamais fondamental pour la conception d'un avion.<br />
La discipline acoustique<br />
Les frottements aérodynamiques, internes (moteur) ou externes (cellule de l'avion), la combustion,<br />
génèrent des ondes acoustiques intenses <strong>et</strong> multispectrales dont il est aujourd'hui<br />
indispensable de tenir compte. L'impact acoustique est désormais considéré au même titre<br />
que les autres contraintes opérationnelles <strong>et</strong> doit donc être envisagé au plus tôt dans la<br />
conception d'un appareil.<br />
La discipline thermique<br />
L'importance de c<strong>et</strong>te discipline dépend du type de système à concevoir. Les avions militaires,<br />
par exemple, comme les missiles, vont connaître des écarts de température très<br />
importants requérant une analyse thermique de leur structure. Pour un avion de transport<br />
civil, les ux thermiques, bien que plus constants, imposent néanmoins des dispositifs de<br />
conditionnement d'air <strong>et</strong> d'isolation non négligeables en termes de masse <strong>et</strong> d'encombrement.<br />
Ce simple énoncé des disciplines intervenant dans la conception de systèmes aéronautiques<br />
appelle plusieurs commentaires.<br />
La délité des modèles : les modèles assurant les analyses disciplinaires peuvent être de niveaux<br />
de délité variés. Par exemple, il existe plusieurs modèles, plus ou moins sophistiqués,<br />
pour estimer la masse de structure d'une voilure soumise à des eorts dénis. Ces modèles<br />
allant d'une simple loi issue d'observations expérimentales (analyse statistique, modèle<br />
semi-empirique), à des calculs éléments nis en passant par des analogies de mécaniques<br />
des solides (type modèle de poutre RDM 3 ). Le nombre de variables intervenant dans la discipline<br />
augmente généralement avec la complexité du modèle. Les modèles statistiques se<br />
contenteront de données dimensionnelles générales de la voilure (envergure, cordes, épaisseur<br />
relative, èche <strong>et</strong>c. . .), soit quelques unités, alors qu'un modèle n de type éléments<br />
nis. possède un nombre de variables qui augmente avec le ranement du maillage utilisé,<br />
<strong>et</strong> la complexité des variables (nature des matériaux utilisés : métallique ou composite).<br />
Selon les besoins, il faudra être capable de jongler entre les niveaux de délité. Par exemple,<br />
lorsque l'on veut faire des calculs précis sur une conguration bien dénie, on doit disposer<br />
de codes de haute délité qui perm<strong>et</strong>tront d'approcher au mieux la physique. Dans le<br />
cadre d'une recherche de conguration optimale, on préfèrera utiliser des modélisations<br />
simpliées, <strong>et</strong> plus enclins à répondre à un grand nombre de sollicitations en un temps<br />
3 Résistance des matériaux.
1.1 Présentation générale de la conception avion 13<br />
raisonnable. Au cours de l'optimisation, ces modèles simpliés pourront évoluer en tenant<br />
compte des résultats obtenus avec les modèles de plus haute délité, an d'assurer une<br />
certaine conance sur leurs sorties.<br />
La nature des modèles : chaque domaine peut être abordé suivant plusieurs points de vue :<br />
un point de vue analyse, où le modèle fournit une évaluation des performances pour des<br />
caractéristiques données ;<br />
un point de vue dimensionnement, où on attend du modèle local une proposition de<br />
caractéristiques perm<strong>et</strong>tant d'optimiser un objectif propre à la discipline ou d'atteindre<br />
une performance souhaitée.<br />
L'interaction entre les modèles : nous pouvons considérer l'exemple de la discipline aérodynamique<br />
<strong>et</strong> la discipline structure. La discipline aérodynamique calcule le champ de<br />
pression autour de l'aile, pour des conditions de vol données. La discipline structure va<br />
traduire ce champ de pression en eorts exercés sur l'aile <strong>et</strong> va dimensionner c<strong>et</strong>te dernière<br />
de manière à ce qu'elle résiste à ces eorts. La forme de l'aile ayant été modiée, le champ<br />
de pression autour de l'aile le sera également. Il y a donc un équilibre à établir entre les<br />
disciplines, an de dénir correctement la physique de notre problème.<br />
La pluridisciplinarité des modèles : un modèle peut se situer à la jonction de plusieurs domaines.<br />
À titre d'exemple :<br />
le dimensionnement d'une structure se fait sur des contraintes de tenue statique <strong>et</strong> dynamique,<br />
c<strong>et</strong>te dernière pouvant être le lieu de sollicitations aérodynamiques périodiques<br />
entrant en phase avec ses modes propres. On aborde ces phénomènes au travers d'une<br />
discipline spécique, l'aéroélasticité, couplant structure <strong>et</strong> aérodynamique de façon intime<br />
;<br />
les nuisances sonores sont établies à travers la propagation d'ondes acoustiques dans un<br />
environnement. C<strong>et</strong>te propagation est perturbée, en champ proche par l'avion, en champ<br />
plus lointain par l'atmosphère généralement turbulente <strong>et</strong> siège de gradients thermiques<br />
<strong>et</strong> éoliens. Il faut donc être capable de fusionner les deux disciplines en une seule appelée<br />
aéroacoustique ;<br />
le comportement de l'appareil <strong>et</strong> ses réponses aux sollicitations du pilote, automatique<br />
ou non, est la conjonction de son inertie, de sa souplesse éventuelle <strong>et</strong> de la réponse des<br />
gouvernes <strong>et</strong> actionneurs.<br />
Ainsi, la conception d'un avion se trouve confrontée à l'association de nombreuses disciplines<br />
couplées. Ces disciplines peuvent être chacune abordée de plusieurs points de vue <strong>et</strong> suivant<br />
plusieurs niveaux de complexité. Le concepteur devra choisir parmi les diérents modèles proposés<br />
par les disciplines en fonction de la délité requise sur les performances à calculer.<br />
1.1.3 Démarche de conception<br />
Découpage de la démarche de conception<br />
La démarche de conception est conventionnellement séquencée en trois phases successives,<br />
nommées respectivement conceptual design, preliminary design <strong>et</strong> d<strong>et</strong>ailed design. Chacune d'entre<br />
elles ge progressivement la dénition du véhicule considéré. Elles s'appuient chacune sur un<br />
processus de conception faisant intervenir des modélisations adaptées à ses objectifs propres. Le<br />
schéma 1.2 issu de [Ray94] illustre leurs objectifs respectifs.<br />
Chacune de ces étapes possède un rôle bien déni.<br />
Étude de concept : (conceptual design) c<strong>et</strong>te phase perm<strong>et</strong> de réaliser les grands choix de<br />
conception. Elle va perm<strong>et</strong>tre de se faire une première idée de la conguration de l'appareil,
14 La conception d'un avion en phase avant-proj<strong>et</strong><br />
❅<br />
Étude de concept<br />
• Quelles spécications doit on suivre ?<br />
❅<br />
Spécications ❅ • À quoi le concept doit il ressembler ? Poids ? Coût ?<br />
<br />
<br />
<br />
• Quels compromis doivent être pris en compte ?<br />
• Quelles technologies doivent être utilisées ?<br />
• Ces spécications mènent elles à des congurations<br />
❛ ❛❛❛❛❛❛❛<br />
faisable ? rentable ?<br />
❛ ❛❛❛❛❛❛❛<br />
❛ ❛❛❛❛❛❛❛<br />
✦ ✦✦✦✦✦✦✦<br />
Étude préliminaire<br />
• Fixer la conguration<br />
• Dénir la surface (lofting)<br />
• Développer une base de données analytiques<br />
• Concevoir les éléments majeur ?<br />
• Développer un modèle analytique de calcul du coût<br />
✦ ✦✦✦✦✦✦✦<br />
Conception détaillée<br />
• Concevoir les pieces à fabriquer<br />
• Concevoir les procédés de fabrication<br />
• Tester les principaux éléments<br />
• Finaliser les estimations de poids<br />
<strong>et</strong> de performances<br />
Fabrication<br />
✦ ✦✦✦✦✦<br />
✦ ✦<br />
Fig. 1.2 Phases de la démarche de conception [Ray94].<br />
de ses principales dimensions <strong>et</strong> caractéristiques, comme le nombre de moteurs ou la nature<br />
des propulseurs, le nombre de surfaces portantes <strong>et</strong> de contrôle <strong>et</strong>c. . ..<br />
À ce niveau, la relative simplicité des modèles 4 perm<strong>et</strong> des <strong>étude</strong>s paramétriques nombreuses<br />
<strong>et</strong> variées, à même d'explorer toutes les options <strong>et</strong> de dégager les paramètres les<br />
plus discriminants. On relèvera cependant que la qualité des réponses peut très rapidement<br />
être mise en défaut lors de l'<strong>étude</strong> de nouveaux concepts <strong>et</strong> de nouvelles technologies, pour<br />
lesquels la connaissance est parcellaire <strong>et</strong> peu able.<br />
Étude préliminaire : (preliminary design) lorsque la conguration de l'appareil est gée dans<br />
ses grandes lignes, c<strong>et</strong>te phase vient préciser ses caractéristiques, avec un niveau de dénition<br />
plus élevé <strong>et</strong> estimer de façon plus aboutie ses performances, en réponse aux spécications<br />
initiales. Dans c<strong>et</strong>te phase, la mise en ÷uvre d'outils <strong>et</strong> de modèles plus sophistiqués<br />
requiert un eort de calcul plus conséquent : toute remise en cause des choix faits à l'étape<br />
précédente est alors coûteuse.<br />
4 Ces modèles peuvent être simples dans leur expression, mais traduire une connaissance solide, lorsqu'il s'agit<br />
de technologies maîtrisées sur des types d'appareil bien connus.
1.1 Présentation générale de la conception avion 15<br />
Conception détaillée : (d<strong>et</strong>ailed design) C<strong>et</strong>te phase prend le relais de l'étape précédente en<br />
anant le véhicule au niveau requis pour lancer sa fabrication. C'est à ce niveau de connaissance<br />
très intime du véhicule que la qualité des estimations est la plus proche de la<br />
réalité. À ce niveau, toute remise en cause des choix faits aux étapes précédentes s'avère<br />
extrêmement coûteuse, voire impossible.<br />
Compte tenu de ses objectifs propres, chacune de ces phases va faire appel à un niveau de<br />
connaissance <strong>et</strong> de modélisation adapté. La première d'entre elles doit explorer le domaine de conception<br />
de la façon la plus vaste possible, quitte à estimer de façon peu dèle les caractéristiques<br />
attendues, pourvu que leurs tendances restent acceptables. La seconde <strong>et</strong> la troisième doivent a<br />
contrario analyser en détail une conguration, <strong>et</strong>, dans la mesure du possible, son voisinage, en<br />
s'attachant à être le plus proche possible de la réalité physique du véhicule.<br />
C<strong>et</strong>te présentation en phases reste arbitraire, bien que couramment admise <strong>et</strong> pratiquée. La<br />
frontière entre les diérentes phases est généralement formalisée par chaque constructeur, en<br />
fonction de son expérience <strong>et</strong> des savoir-faire internes à ses équipes.<br />
La tendance actuelle, au travers des approches de conception, est triple :<br />
formaliser <strong>et</strong> automatiser le processus de conception, <strong>et</strong> pour cela tenter de réduire les<br />
délais de chacune de ces phases, <strong>et</strong> essentiellement de la seconde, de façon à réduire le cycle<br />
compl<strong>et</strong> de conception ;<br />
faciliter les allers <strong>et</strong> r<strong>et</strong>ours entre les diérentes phases, de façon à disposer d'une meilleure<br />
conance dans le calcul des performances du concept, sans pour autant ger la conguration<br />
prématurément ;<br />
conserver le plus longtemps possible des propositions alternatives, situation qui n'est actuellement<br />
accessible qu'au niveau de la phase de conceptual design, mais qui peut être concrétisée<br />
lorsque les deux points précédents sont maîtrisés.<br />
1.1.4 Paramètres de conception en phase d'avant-proj<strong>et</strong><br />
Pour la conception d'un avion en phase d'avant-proj<strong>et</strong> (ou phase de conceptual design), nous<br />
allons limiter le nombre de paramètres servant à décrire l'avion. Ces paramètres proviennent en<br />
général de l'expérience des concepteurs, <strong>et</strong> correspondent à ceux qui impactent au premier ordre<br />
les objectifs de conception établis dans le cahier des charges. Nous allons présenter dans c<strong>et</strong>te<br />
section les principaux paramètres qui peuvent être utilisés comme des variables de conception,<br />
dans le cadre plus précis de cas-tests de type avion d'aaires supersonique.<br />
Les paramètres qui perm<strong>et</strong>tent de décrire la géométrie de l'avion sont illustrés sur la gure<br />
1.3. Leur description, ainsi que celle de paramètres plus divers, sont données dans le tableau 1.1.<br />
1.1.5 Principales sorties en conception en phase avant-proj<strong>et</strong><br />
Nous donnons dans le tableau 1.2 certaines sorties que peuvent fournir les codes de conception.<br />
Dans les sections qui suivent, nous allons illustrer la phase de conceptual design avec la description<br />
de deux cas-tests d'avion de type SSBJ 5 . Ces deux cas-tests seront ensuite repris pour<br />
illustrer les diérentes stratégies d'optimisation étudiées (cf chapitre 2).<br />
5 SSBJ : Super Sonic Business J<strong>et</strong>.
16 La conception d'un avion en phase avant-proj<strong>et</strong><br />
D fus<br />
✛ ✲<br />
t<br />
✻<br />
.<br />
❄<br />
★<br />
❅❅<br />
.❤❤❤❤❤❤❤❤❤❤❤✭<br />
✧✭✭✭✭✭✭✭✭✭✭<br />
✛<br />
✲<br />
c<br />
✻<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁<br />
✁ D mot<br />
✛ ✲<br />
.<br />
✻<br />
L mot<br />
✁<br />
.<br />
<br />
❆ ✆<br />
✻<br />
❆<br />
❆<br />
❆<br />
❆<br />
❆<br />
❆<br />
❆<br />
❆<br />
❆<br />
❆ C r<br />
❆<br />
❆<br />
❆<br />
❆<br />
❆<br />
❆<br />
❆<br />
❆<br />
✻<br />
L fus<br />
C tip<br />
❄<br />
❆<br />
❆❆<br />
❄<br />
<br />
✆<br />
✘✘ ✘✘ ✘ ✘✘ ✘ ✘✘ ✘❳❳ ❄<br />
❳❳<br />
❳ ❳❳ Φ<br />
❳ 100 ❳❳<br />
❳<br />
✛<br />
b<br />
✲<br />
❄<br />
❅❅<br />
<br />
t der<br />
.<br />
✻<br />
❄<br />
★❤❤❤❤❤❤❤❤❤❤❤✭<br />
✧✭✭✭✭✭✭✭✭✭✭<br />
✛<br />
✲<br />
c der<br />
❅ ❅<br />
Φ 0<br />
b der<br />
✛Ctip<br />
der<br />
✲<br />
✟<br />
✟<br />
✟<br />
✟<br />
✟<br />
✟<br />
✁ ✁ ✟<br />
✁<br />
✟<br />
✟<br />
Φ der<br />
0 ✟<br />
Φ ✄ ☎<br />
✟<br />
der ✁ ✁ 100<br />
✄ ☎✟<br />
✟<br />
✁<br />
✟✟<br />
✁<br />
✛<br />
✲<br />
Cr<br />
der<br />
✻<br />
❄<br />
Fig. 1.3 Une possibilité de paramètres géométriques de l'avion.
1.1 Présentation générale de la conception avion 17<br />
Type Nom Description<br />
Géométrie<br />
Voilure S surface de la voilure<br />
b<br />
envergure de la voilure<br />
AR allongement relatif voilure(AR = b2 S )<br />
C r corde à l'emplanture de l'aile<br />
(généralement dans le plan de symétrie)<br />
C tip corde à l'extrémité de l'aile<br />
λ ou Xl w element (λ = C tip<br />
C r<br />
)<br />
Φ 0 ou Λ èche en bord d'attaque voilure<br />
Φ 100 èche en bord de fuite voilure<br />
c<br />
corde en une section de l'aile<br />
t<br />
épaisseur en une section de l'aile<br />
épaisseur relative<br />
t<br />
c ou tw c<br />
Dérive S der surface de la dérive<br />
b der envergure de la dérive<br />
AR der allongement relatif de la dérive<br />
Cr<br />
der corde à l'emplanture de la dérive<br />
Ctip<br />
der corde à l'extrémité de la dérive<br />
λ der ou Xl t element dérive<br />
Φ der<br />
0 èche en bord d'attaque dérive<br />
Φ der<br />
100 èche en bord de fuite dérive<br />
c der corde en une section de la dérive<br />
t der épaisseur en une section de la dérive<br />
der ou t t c épaisseur relative dérive<br />
t<br />
c<br />
Fuselage D fus diamètre du fuselage<br />
L fus longueur du fuselage<br />
Moteur D mot diamètre du moteur<br />
L mot longueur du moteur<br />
Paramètres de vol<br />
Divers<br />
h<br />
M<br />
N mot<br />
altitude de vol<br />
nombre de Mach en croisière<br />
nombre de moteurs<br />
type de propulseur<br />
architecture générale<br />
(monoplan/biplan, <strong>et</strong>c. . .)<br />
Tab. 1.1 Les paramètres de conception géométriques
18 La conception d'un avion en phase avant-proj<strong>et</strong><br />
Discipline Nom Description<br />
Structure<br />
Propulsion<br />
Aérodynamique<br />
Performance<br />
T OW ou W T<br />
W F<br />
W E<br />
W W<br />
W D<br />
σ<br />
Θ<br />
masse totale au décollage<br />
masse de carburant<br />
masse des moteurs<br />
masse des ailes<br />
masse de la dérive<br />
eorts physiques exercés sur l'avion<br />
vrillage de l'aile<br />
F<br />
poussée<br />
T emp température en sortie du moteur<br />
SF C consommation spécique (Specic Fuel Consumption)<br />
D<br />
traînée<br />
L<br />
portance<br />
L/D nesse<br />
R<br />
D décollage<br />
V approche<br />
rayon d'action<br />
distance au décollage<br />
vitesse en approche<br />
1.2 Le cas-test Sobieski<br />
Tab. 1.2 Les sorties des disciplines<br />
Le cas-test d'avion d'aaires supersonique proposé par Sobieszczanski-Sobiesky [SAS98] est<br />
dédié aux formulations MDO. Il perm<strong>et</strong> la description <strong>et</strong> l'analyse simpliée des performances<br />
d'un véhicule de type avion d'aaires supersonique. C'est un code de phase avant-proj<strong>et</strong> (ou<br />
conceptual design) <strong>et</strong> présente l'avantage de ne pas être coûteux en temps de calcul.<br />
1.2.1 Description du cas-test<br />
Le but de ce cas-test est de chercher la conguration qui maximise le rayon d'action R, tout<br />
en respectant certaines contraintes disciplinaires.<br />
Nous voyons sur le schéma 1.4 l'organisation du cas test.<br />
Quatre disciplines composent ce cas-test. Les disciplines structure, aérodynamique <strong>et</strong> propulsion<br />
sont couplées : les sorties de l'une seront des entrées pour les autres, <strong>et</strong> chaque variation dans<br />
l'une va entraîner des changements pour les autres. La discipline performance prend en entrée<br />
des sorties des trois autres disciplines pour calculer le rayon d'action. Chacune de ces disciplines<br />
possède plusieurs types de variables :<br />
les variables locales : ces variables sont propres à une discipline, par exemple l'element λ<br />
pour la structure ;<br />
les variables partagées : ces variables sont communes à deux disciplines au moins, comme<br />
par exemple l'altitude h ;<br />
les variables de couplage : certaines sorties de discipline sont des entrées pour d'autres. Par
1.2 Le cas-test Sobieski 19<br />
Variables de conception<br />
Codes de conception<br />
W E ✛ ESF ✛ Propulsion<br />
❄<br />
✲ SF C<br />
[t/c, h, M, AR, Λ, S ref ]<br />
t/c, AR t/c, h, M<br />
Λ, S ref AR, Λ, S ref [M, h] [M, h]<br />
❄<br />
Structure<br />
❄<br />
❄<br />
✲ W ✲<br />
T , Θ<br />
W T , W F<br />
[λ, x]<br />
✻<br />
❄<br />
Aérodynamique ❄<br />
❄<br />
L ✛<br />
✲ D<br />
✲ L/D<br />
✻<br />
[C f ]<br />
✻<br />
❄<br />
[T ]<br />
❄<br />
Performance<br />
<strong>Optimisation</strong><br />
❄<br />
σ 1→5 ≤ 1.09<br />
0.96 ≤ σ ≤ 1.04<br />
❄<br />
❄<br />
dp/dx ≤ 1.04 0.5 ≤ ESF ≤ 1.5<br />
DT ≤ 0<br />
T emp ≤ 1.02<br />
❄<br />
R<br />
Fig. 1.4 Diagramme du cas-test Sobieski.<br />
exemple, la masse totale W T est calculée par la discipline structure <strong>et</strong> sert d'entrée pour<br />
la discipline aérodynamique.<br />
Nous allons maintenant voir plus en détail chacune de ces disciplines.<br />
La discipline structure<br />
La discipline structure (cf tableau 1.3) a pour objectif de calculer les masses <strong>et</strong> les eorts<br />
mécaniques subis par l'avion.<br />
Elle prend en entrée les principales caractéristiques géométriques de l'appareil, telles que<br />
l'allongement relatif AR, la èche Λ, l'épaisseur relative t/c <strong>et</strong> la surface de référence S REF . Ses<br />
variables locales sont ici la section de caisson x <strong>et</strong> l'element λ.<br />
Elle va calculer les contraintes subies par l'aile σ 1 → σ 5 , ainsi que l'angle de vrillage de la<br />
voilure Θ, en fonction de la portance L fournie par la discipline aérodynamique <strong>et</strong> des dimensions<br />
de l'avion. Elle va ensuite calculer la masse de carburant W F que peut contenir l'avion en fonction<br />
des dimensions, <strong>et</strong> la masse totale W T , en fonction des dimensions, de la masse des moteurs W E<br />
fournie par la discipline propulsion <strong>et</strong> de la masse totale estimée ŴT (ici égale à la portance).
20 La conception d'un avion en phase avant-proj<strong>et</strong><br />
type nom description unité min max<br />
entrée<br />
locale λ element 0.1 0.4<br />
. x section caisson 0.75 1.25<br />
partagée AR allongement relatif 2.5 8.5<br />
. Λ èche des ailes deg 40 70<br />
. t/c épaisseur relative 0.01 0.09<br />
. S REF surface de référence voilure ft 2 500 1500<br />
aérodynamique L portance lb . .<br />
propulsion W E masse moteur lb . .<br />
sortie<br />
constante<br />
interne<br />
W T masse totale lb . .<br />
W F masse carburant lb . .<br />
Θ vrillage de la voilure 0.98 1.02<br />
σ 1 → σ 5 eorts sur l'aile (stress on wing) . 1.09<br />
W F masse de carburant non consommable lb 2000<br />
W O masses diverses lb 25000<br />
N z facteur de charge extrême g 6<br />
t = t/c S REF √ SREF AR<br />
b = √ S REF AR<br />
R = 1+2λ<br />
3(1+λ)<br />
Θ = pf(x, b/2, R, L)<br />
F o1 = pf(x)<br />
Ŵ T = L<br />
W W = F o1(0.0051(ŴT N Z ) 0.557 S REF 0.649 AR 0.5 (t/c) −0.4 (1 + λ) 0.1 (0.1875S REF ) 0.1 /cos(Λ))<br />
W F W = (5S REF /18)(2t/3)42.5<br />
W F = W F W + W F O<br />
W T = W O + W w + W F + W E<br />
σ 1 → σ 5 = pf(t/c, L, x, b/2, R)<br />
Tab. 1.3 Discipline structure du cas-test Sobieski.<br />
La discipline aérodynamique<br />
La discipline aérodynamique présentée dans le tableau 1.4 calcule les caractéristiques aérodynamiques<br />
résultantes de l'avion, c'est-à-dire la portance, la traînée, la nesse <strong>et</strong> le gradient de<br />
pression sur l'aile.<br />
Elle prend en entrée toutes les variables partagées : les variables traduisant les dimensions<br />
de l'appareil vues précédemment avec la discipline structure, ainsi que les variables exprimant<br />
les conditions de vol que sont l'altitude h <strong>et</strong> le nombre de Mach M. Sa variable locale est le<br />
coecient de traînée C f .<br />
C<strong>et</strong>te discipline calcule la portance L (ici directement égale à la masse totale W T fournie par<br />
la discipline structure), la traînée D en fonction des dimensions de l'avion, des dimensions du
1.2 Le cas-test Sobieski 21<br />
moteur ESF (Engine Scale Factor) <strong>et</strong> de la masse totale W T , pour en déduire la nesse L/D.<br />
Le gradient de pression sur la voilure dp/dx ne dépend ici que de l'épaisseur relative t/c.<br />
type nom description unité min max<br />
entrée<br />
locale C f coecient de frottement 0.75 1.25<br />
partagée AR allongement relatif 2.5 8.5<br />
. Λ èche des ailes deg 40 70<br />
. t/c épaisseur relative 0.01 0.09<br />
. S REF surface de référence voilure ft 2 500 1500<br />
. h altitude de vol ft 30000 60000<br />
. M Mach de croisière 1.4 1.8<br />
structure W T masse totale lb . .<br />
structure Θ vrillage . .<br />
propulsion ESF facteur d'échelle moteur . .<br />
sortie<br />
constante<br />
interne<br />
si h ≤ 36089ft<br />
sinon<br />
L portance lb . .<br />
D traînée lb . .<br />
L/D nesse . .<br />
dp/dx gradient de pression . 1.04<br />
W F masse de carburant non consommable lb 2000<br />
W O masses diverses lb 25000<br />
N z facteur de charge extrême g 6<br />
W BE masse moteur de référence lb 4360<br />
CD minM
22 La conception d'un avion en phase avant-proj<strong>et</strong><br />
La discipline propulsion<br />
La discipline propulsion présentée dans le tableau 1.5 calcule les principales caractéristiques<br />
du moteur, ici ses dimensions, sa masse, sa consommation <strong>et</strong> sa température.<br />
Elle prend en entrée les conditions de vol : l'altitude h <strong>et</strong> le nombre de Mach M. Sa variable<br />
locale T traduit la position de la man<strong>et</strong>te des gaz.<br />
Elle calcule la température en fonction de ces dernières variables. La dimension des moteurs<br />
ESF est fonction de la traînée D fournie par l'aérodynamique <strong>et</strong> de la variable T . La consommation<br />
spécique de l'avion provient d'une formule semi-empirique, qui dépend des variables T ,<br />
h <strong>et</strong> M. La masse des moteurs dépend de sa dimension ESF . La sortie DT perm<strong>et</strong> de vérier si<br />
la man<strong>et</strong>te des gaz est susamment enclenchée pour fournir la poussée nécessaire.<br />
type nom description unité min max<br />
entrée<br />
locale T position man<strong>et</strong>te des gaz (initial throttle<br />
0.1 1<br />
s<strong>et</strong>ting)<br />
partagée h altitude de vol ft 30000 60000<br />
. M Mach de croisière 1.4 1.8<br />
aérodynamique D traînée lb . .<br />
sortie<br />
SF C consommation spécique de carburant hr −1 . .<br />
W E masse moteur lb . .<br />
ESF facteur d'échelle moteur 0.5 1.5<br />
DT diérence entre la poussée demandée <strong>et</strong> . 0<br />
la poussée disponible<br />
T emp température . 1.02<br />
constante<br />
interne<br />
W F masse de carburant non consommable lb 2000<br />
W O masses diverses lb 25000<br />
N z facteur de charge extrême g 6<br />
W BE masse moteur de référence lb 4360<br />
T = T ∗ 16168.<br />
T emp = pf(M, h, T )<br />
ESF = (D/3)/T<br />
SF C = 1.1324 + 1.5344M − 3.2956e −05 h − 1.6379e −04 T − 0.31623M 2 + 8.2138e −06 Mh<br />
−10.496e −05 T M − 8.574e −11 h 2 + 3.8042e −09 T h + 1.0600e −08 T 2<br />
W E = 3W BE ESF 1.05<br />
T UA = 11484 + 10856M − 0.50802h + 3200.2M 2 − 0.29326Mh + (6.8572e −06 )h 2<br />
DT = T − T UA<br />
Tab. 1.5 Discipline propulsion du cas-test Sobieski.
1.2 Le cas-test Sobieski 23<br />
La discipline performance<br />
La discipline performance présentée dans le tableau 1.6 calcule le rayon d'action avec la formule<br />
de Brégu<strong>et</strong> (cf équation (1.1)). Elle prend en entrée les conditions de vol M <strong>et</strong> h. La discipline<br />
structure fournit la masse totale W T <strong>et</strong> la masse de carburant W F , la discipline aérodynamique<br />
fournit la nesse L/D <strong>et</strong> la propulsion fournit la consommation spécique SF C.<br />
type nom description unité min max<br />
entrée<br />
partagée h altitude de vol ft 30000 60000<br />
. M Mach de croisière 1.4 1.8<br />
structure W T masse totale lb . .<br />
aérodynamique L/D nesse lb . .<br />
propulsion SF C consommation spécique de carburant hr −1 . .<br />
sortie<br />
R rayon d'action Nm . .<br />
interne<br />
si h ≤ 36089<br />
sinon<br />
n si<br />
R = M(L/D)661√ θ<br />
SF C<br />
θ = 1 − 6.875e −06 h<br />
θ = 0.7519<br />
( )<br />
W T<br />
ln<br />
W T − W F<br />
Tab. 1.6 Discipline performance du cas-test Sobieski.<br />
La fonction pf<br />
Elle est utilisée dans la plupart des disciplines. Selon les cas, la fonction pf nous donne une<br />
approximation linéaire ou quadratique de certaines variables.<br />
1.2.2 Problème d'optimisation associé<br />
Nous allons voir ici le problème d'optimisation qui traduit la démarche de conception globale.<br />
Nous allons aussi dénir des fonctions objectifs spéciques à chaque discipline, qui serviront à<br />
poser des problèmes d'optimisation locaux.<br />
Le problème d'optimisation global<br />
La discipline performance nous donne le rayon d'action, qui sera notre fonction à maximiser.<br />
Les diérentes disciplines nous donnent au total 12 contraintes d'inégalité sur leurs sorties. Le<br />
problème d'optimisation à résoudre est alors le suivant :
24 La conception d'un avion en phase avant-proj<strong>et</strong><br />
⎧<br />
Soit X = [λ, x, C f , T, AR, Λ, t/c, S REF , h, M]<br />
⎪⎨<br />
⎪⎩<br />
max R(X)<br />
X<br />
sous contraintes :<br />
0.98 ≤ Θ(X) ≤ 1.02<br />
σ 1 → σ 5 (X) ≤ 1.09<br />
dp/dx(X) ≤ 1.04<br />
0.5 ≤ ESF (X) ≤ 1.5<br />
DT (X) ≤ 0<br />
T emp(X) ≤ 1.02<br />
La résolution du problème d'optimisation (1.2) va nous mener à la conguration optimale<br />
qui maximise le rayon d'action.<br />
Les fonctions objectifs disciplinaires<br />
Les disciplines peuvent aussi avoir un rôle dimensionnant. Elles doivent alors choisir la valeur<br />
de leurs variables locales. Il faut alors trouver des objectifs locaux pour chaque discipline. Chacune<br />
résout un problème d'optimisation qui lui est propre, <strong>et</strong> renvoie une réponse optimisée par rapport<br />
à ses variables locales.<br />
Avec ce cas-test, on peut trouver des fonctions objectifs disciplinaires allant dans le sens de<br />
la fonction coût globale, c'est-à-dire maximiser le rayon d'action R. On peut montrer qu'il s'agit<br />
de minimiser la masse totale W T pour la discipline structure, de maximiser la nesse L/D pour<br />
la discipline aérodynamique <strong>et</strong> de minimiser la consommation spécique SF C pour la discipline<br />
propulsion.<br />
On analyse la formule du rayon d'action :<br />
R = M(L/D)661√ θ<br />
SF C<br />
(1.2)<br />
( )<br />
W T<br />
ln<br />
. (1.3)<br />
W T − W F<br />
Nous souhaitons connaître les sensibilités du rayon d'action aux variables locales que nous allons<br />
nommer x = [x 1 , x 2 , x 3 ] : x 1 pour la discipline structure, x 2 pour la discipline aérodynamique<br />
<strong>et</strong> x 3 pour la discipline propulsion.<br />
R(x + ∆x) = R(x) + ∂R<br />
∂x 1<br />
∆x 1 + ∂R<br />
∂x 2<br />
∆x 2 + ∂R<br />
∂x 3<br />
∆x 3 .<br />
Soit Y i une sortie de la discipline i qui soit une entrée de la discipline performance, on a :<br />
∂R<br />
= ∂R ∂Y i<br />
.<br />
∂x i ∂Y i ∂x i<br />
On cherche à maximiser le rayon d'action : lorsque ∂R est négatif, on cherchera à minimiser<br />
∂Y i<br />
Y i par rapport aux variables locales x i . Dans le cas contraire on cherchera à maximiser Y i . Nous<br />
allons voir cela en détail pour les trois disciplines.<br />
La discipline structure<br />
Nous avons :<br />
∂R<br />
∂x 1<br />
=<br />
∂R<br />
∂W T<br />
∂W T<br />
∂x 1<br />
+ ∂R<br />
∂W F<br />
∂W F<br />
∂x 1<br />
.
1.3 Le cas-test Dassault 25<br />
On peut remarquer que la masse de carburant W F ne dépend que des variables partagées,<br />
d'où ∂W F<br />
= 0. Nous ne nous en occuperons pas dans les optimisations disciplinaires.<br />
∂x 1<br />
∂R α 1 W F<br />
= −<br />
∂W T W T (W T − W F ) , α 1 > 0.<br />
∂R<br />
La masse de carburant est inférieure à la masse totale, nous avons donc < 0. Par<br />
∂W T<br />
conséquent, nous allons chercher à minimiser la masse totale W T par rapport aux variables<br />
locales x 1 , an d'augmenter la contribution du terme ∂R ∆x 1 .<br />
∂x 1<br />
La discipline aérodynamique<br />
Nous avons :<br />
∂R<br />
=<br />
∂R ∂(L/D)<br />
,<br />
∂x 2 ∂(L/D) ∂x 2<br />
<strong>et</strong><br />
∂R<br />
∂(L/D) = α 2(L/D), α 2 > 0,<br />
∂R<br />
d'où > 0, on cherchera alors à maximiser la nesse L/D par rapport à la variable<br />
∂(L/D)<br />
x 2 , an d'augmenter la contribution du terme ∂R ∆x 2 .<br />
∂x 2<br />
La discipline propulsion<br />
Nous avons :<br />
<strong>et</strong><br />
∂R<br />
∂x 3<br />
=<br />
∂R ∂SF C<br />
,<br />
∂SF C ∂x 3<br />
∂R<br />
∂SF C = − α 3<br />
SF C 2 , α 3 > 0,<br />
∂R<br />
d'où < 0, on cherchera alors à minimiser la consommation spécique SF C par<br />
∂SF C<br />
rapport à la variable x 3 , an d'augmenter la contribution du terme ∂R ∆x 3 .<br />
∂x 3<br />
Nous allons voir dans la section suivante un autre exemple de cas-test du même type.<br />
1.3 Le cas-test Dassault<br />
Ce cas-test d'avion d'aaires supersonique a été proposé par DASSAULT dans le cadre du<br />
proj<strong>et</strong> OMD-RNTL 6 . C'est un cas-test de type conception avant-proj<strong>et</strong>. Il perm<strong>et</strong> d'évaluer les<br />
performances d'un avion d'aaires supersonique avec des codes de calcul simpliés. Il est décrit<br />
brièvement dans c<strong>et</strong>te partie. Pour plus de détails, nous renvoyons le lecteur à [Rav07]. Certaines<br />
des formules proviennent de [Ray94], qui est l'une des grandes références dans le domaine de la<br />
conception avion.<br />
1.3.1 Description du cas-test<br />
L'objectif ici sera de minimiser la masse au décollage de l'appareil, tout en respecant certaines<br />
contraintes sur des performances, comme le rayon d'action ou la distance de décollage.
26 La conception d'un avion en phase avant-proj<strong>et</strong><br />
Conception<br />
T OW<br />
Structure<br />
✛<br />
❄<br />
traînée<br />
✻<br />
✻<br />
portance<br />
Aérodynamique<br />
❄<br />
✻<br />
taille moteur(F 0)<br />
Propulsion<br />
masse moteur(F 0)<br />
T OW , F 0<br />
❄<br />
Performance<br />
Rayon d'action<br />
Distance décollage<br />
Vitesse d'approche<br />
Fig. 1.5 Diagramme du cas-test Dassault.<br />
L'organisation des disciplines est présentée sur la gure 1.5.<br />
Il y a trois disciplines de conception :<br />
la discipline structure évalue les masses, dont la masse de l'avion au décollage, en fonction<br />
des paramètres de forme, de la masse au décollage elle-même (estimée), de la portance <strong>et</strong><br />
de la masse moteur. La masse au décollage est alors réactualisée ;<br />
l'aérodynamique calcule la portance nécessaire en croisière en fonction de la masse, ainsi<br />
que la traînée, en fonction des paramètres de forme, dont les dimensions du moteur fournies<br />
par la propulsion ;<br />
la discipline propulsion dimensionne les moteurs pour atteindre la poussée nécessaire.<br />
Elle inue donc sur la discipline aérodynamique, au travers des dimensions des moteurs<br />
<strong>et</strong> sur la discipline structure avec la masse des moteurs.<br />
Le tableau 1.7 présente les diérents paramètres choisis pour c<strong>et</strong>te <strong>application</strong>.<br />
Dans ce cas-test, l'équilibre entre ces trois disciplines est assuré par la convergence des variables<br />
que sont la masse au décollage T OW <strong>et</strong> la poussée F 0. Les autres sorties, telles que la<br />
portance, la traînée ou la masse du moteur dépendent directement de ces dernières, <strong>et</strong> sont donc<br />
considérées comme transparentes. Le tableau 1.8 présente les variables de couplage que l'on va<br />
chercher à équilibrer.<br />
Lorsque l'équilibre disciplinaire est eectué, c'est-à-dire que l'on a déni les valeurs des variables<br />
T OW <strong>et</strong> F 0 pour une conguration donnée, on peut calculer certaines sorties qui seront<br />
les critères dimensionnants pour l'avion. Ces critères peuvent être classés en deux catégories.<br />
• Les performances en croisière :<br />
6 Le site du proj<strong>et</strong> : http ://omd.lri.fr.
1.3 Le cas-test Dassault 27<br />
Rubrique Variable Unité Description<br />
Conditions de vol Z m altitude<br />
X mach<br />
nombre de Mach<br />
W fuel kg masse de carburant<br />
Géométrie Voilure S m 2 surface de référence voilure<br />
φ w 0 deg èche bord d'attaque voilure<br />
φ w 100 deg èche bord de fuite voilure<br />
Xl w<br />
element voilure<br />
épaisseur relative voilure<br />
t w c<br />
Géométrie Dérive φ t 0 deg èche bord d'attaque dérive<br />
φ t 100 deg èche bord de fuite dérive<br />
Xl t<br />
element dérive<br />
épaisseur relative pour la dérive<br />
t t c<br />
Géométrie Fuselage D fus m diamètre du fuselage<br />
Divers α deg incidence max<br />
Xfac<br />
masse à l'atterrissage<br />
masse au décollage<br />
Tab. 1.7 Variables de conception du cas-test Dassault<br />
Rubrique Variable Unité Description<br />
Interaction T OW kg masse au décollage<br />
F 0 N poussée<br />
Tab. 1.8 Variables d'interaction du cas-test Dassault<br />
le rayon d'action : un avion doit pouvoir franchir une distance donnée an de s'inscrire<br />
dans le segment de marché souhaité. Le rayon d'action est calculé avec la formule de<br />
Bregu<strong>et</strong> (cf équation (1.1)).<br />
• Les performances basse vitesse, l'avion doit respecter les contraintes réglementaires <strong>et</strong> liées<br />
aux aéroports :<br />
la distance au décollage : l'avion doit pouvoir décoller sur une distance acceptable an<br />
d'accéder à la plupart des aéroports,<br />
la vitesse d'approche : l'avion doit pouvoir voler à une vitesse susamment basse sans<br />
risquer de décrocher, an d'atterrir dans de bonnes conditions.<br />
Les critères en croisière <strong>et</strong> les critères basse vitesse sont antagonistes. En e<strong>et</strong>, une conguration<br />
optimisée pour le rayon d'action seulement n'aura jamais la portance nécessaire en basse<br />
vitesse pour satisfaire les critères de distance de décollage <strong>et</strong> de vitesse d'approche.
28 La conception d'un avion en phase avant-proj<strong>et</strong><br />
1.3.2 Problème d'optimisation associé<br />
Le problème proposé ici est de minimiser la masse totale au décollage (T OW ) tout en respectant<br />
les contraintes suivantes sur les sorties de la discipline performance :<br />
⎧<br />
min T OW<br />
⎪⎨<br />
⎪⎩<br />
R action ≥ 6500 km,<br />
D décollage ≤ 1828 m,<br />
V approche ≤ 70 m.s −1 .<br />
On pourra bien sûr faire d'autres choix pour ce problème, <strong>et</strong> permuter une des contraintes<br />
avec la fonction objectif. Le problème peut alors devenir le suivant :<br />
⎧<br />
min R action<br />
Conclusion<br />
⎪⎨<br />
⎪⎩<br />
T OW ≤ 50000 kg,<br />
D décollage ≤ 1828 m,<br />
V approche ≤ 70 m.s −1 .<br />
Nous avons donné dans ce chapitre une vision globale de la conception avion, avec ses différentes<br />
disciplines, ses diérentes phases <strong>et</strong> ses diérents paramètres de conception.<br />
Ces notions ont été illustrées à l'aide de deux cas-tests. Ces derniers sont de même nature :<br />
ils représentent assez bien l'organisation qui existe entre les diérentes disciplines <strong>et</strong> perm<strong>et</strong>tent<br />
de tester plusieurs stratégies de conception. Cependant, la validité physique des modèles est<br />
discutable : on ne r<strong>et</strong>rouve pas la complexité des problèmes industriels, dans lesquels on doit<br />
gérer un grand nombre de variables <strong>et</strong> où le temps d'exécution des modèles est conséquent. Ils<br />
perm<strong>et</strong>tent tout de même de tester diérentes approches de conception.<br />
Il va falloir maintenant associer le processus de conception (ici les modèles qui perm<strong>et</strong>tent<br />
de décrire l'avion) au processus d'optimisation (les méthodes <strong>et</strong> algorithmes d'optimisation).<br />
Nous allons voir dans le chapitre suivant les stratégies d'optimisation que l'on peut utiliser<br />
pour appuyer la démarche de conception. Ces méthodes sont aussi appelées formulations pour<br />
l'optimisation <strong>multidisciplinaire</strong> (ou formulations MDO).<br />
Nous exposerons aussi l'utilisation de méta-modèles adaptatifs au sein d'un processus d'optimisation,<br />
en l'illustrant avec deux méthodes : BLISS2000 <strong>et</strong> DIVE.<br />
(1.4)<br />
(1.5)
Chapitre 2<br />
Les formulations pour l'optimisation<br />
multi-disciplinaire<br />
Sommaire<br />
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />
2.1 Outils <strong>et</strong> dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />
2.1.1 Disciplines, paramètres, sorties <strong>et</strong> notations . . . . . . . . . . . . . . . . 31<br />
2.1.2 Analyse multi-disciplinaire (MDA) . . . . . . . . . . . . . . . . . . . . . 33<br />
2.1.3 Calcul des gradients (GSE) . . . . . . . . . . . . . . . . . . . . . . . . . 34<br />
2.1.4 Dénition de l'optimisation . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />
2.1.5 Méta-modèles disciplinaires . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />
2.2 Les formulations MDO . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />
2.2.1 MDF : Multi-Disciplinary Feasible . . . . . . . . . . . . . . . . . . . . . 41<br />
2.2.2 IDF : Individual Disciplinary Feasible . . . . . . . . . . . . . . . . . . . 41<br />
2.2.3 AAO : All-At-Once . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />
2.2.4 CO : Collaborative Optimization . . . . . . . . . . . . . . . . . . . . . . 45<br />
2.2.5 BLISS : Bi-Level Integration System Synthesis . . . . . . . . . . . . . . 47<br />
2.2.6 BLISS 2000 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />
2.2.7 DIVE : Disciplinary Interaction Variable Elimination . . . . . . . . . . 51<br />
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
30 Les formulations pour l'optimisation multi-disciplinaire<br />
Introduction<br />
Ce chapitre expose plusieurs stratégies d'optimisation multi-disciplinaire. Elles peuvent aussi<br />
être appelées formulations pour l'optimisation multi-disciplinaire, ou bien plus communément<br />
formulations MDO.<br />
Le mot optimisation multi-disciplinaire laisse entendre à tort qu'il ne s'agit ici que d'un<br />
problème d'optimisation. Il faut bien garder à l'esprit que l'optimisation n'est qu'une partie du<br />
processus de conception <strong>et</strong> qu'elle vient appuyer la recherche de la conguration répondant le<br />
mieux à la demande exprimée par le cahier des charges. Il faut considérer les formulations MDO<br />
comme des outils qui perm<strong>et</strong>tent de faciliter la gestion de l'interaction entre les disciplines <strong>et</strong> qui<br />
peuvent servir d'aide à la décision. Le choix des paramètres <strong>et</strong> des modélisations disciplinaires,<br />
la mise en place du problème <strong>et</strong> les décisions importantes concernant les congurations à r<strong>et</strong>enir<br />
sont bien évidemment laissés au jugement des acteurs de la conception.<br />
Il convient tout d'abord de bien dénir les paramètres. Les codes de calcul des diérentes<br />
disciplines prennent en entrée diérentes variables qui peuvent être classées en trois catégories :<br />
les variables locales, spéciques à une seule discipline ;<br />
les variables partagées, qui ont des e<strong>et</strong>s directs sur plusieurs disciplines à la fois ;<br />
les variables d'interaction ou de couplage, qui servent de lien entre les disciplines.<br />
Les variables de couplage sont les entrées d'une discipline qui proviennent d'autres disciplines.<br />
Une modication dans une discipline peut entraîner un changement dans toutes les autres.<br />
L'analyse multi-disciplinaire doit prendre en compte c<strong>et</strong>te interaction <strong>et</strong> chercher un équilibre au<br />
travers des variables de couplage. En général, l'eectuer revient à résoudre la physique autour<br />
de l'avion.<br />
Une fois l'analyse multi-disciplinaire eectuée, on peut calculer les gradients (par exemple<br />
à l'aide des méthodes adjointes). Ce calcul, lorsqu'il est eectué de manière ecace <strong>et</strong> précise,<br />
perm<strong>et</strong>tra d'améliorer fortement les performances des algorithmes d'optimisation.<br />
Les sorties disciplinaires serviront à dénir les objectifs <strong>et</strong> contraintes qui constitueront notre<br />
problème d'optimisation. Les formulations MDO constituent diérentes façons d'assembler les<br />
codes disciplinaires <strong>et</strong> les codes d'optimisation. Chacune possède sa manière de gérer l'interaction<br />
entre les disciplines ou de séparer l'optimisation en plusieurs étapes : certaines variables sont<br />
gérées par l'optimiseur système <strong>et</strong> d'autres sont xées par les disciplines au travers d'optimisations<br />
locales.<br />
Les codes disciplinaires peuvent être très gourmands en temps de calcul, <strong>et</strong> donc peu compatibles<br />
avec un processus d'optimisation, qui va les solliciter un grand nombre de fois. Par<br />
conséquent, il s'avère nécessaire d'utiliser des méta-modèles qui fourniront une approximation<br />
des sorties disciplinaires <strong>et</strong> perm<strong>et</strong>tront de mener à bien l'optimisation. Leur domaine de validité<br />
pourra être amené à évoluer en fonction du déroulement de l'optimisation.<br />
L'utilisation des méta-modèles au sein de processus d'optimisation est un des enjeux majeurs<br />
de la recherche actuelle en optimisation multi-disciplinaire. Les formulations BLISS 2000 <strong>et</strong> DIVE<br />
(cf sections 2.2.6 <strong>et</strong> 2.2.7) proposent des solutions pour construire <strong>et</strong> actualiser les méta-modèles.<br />
La première partie du chapitre (cf section 2.1) présente les éléments qui constituent les formulations<br />
MDO. Les diérentes variables sont exposées (cf section 2.1.1), on dénit le problème<br />
d'équilibre interdisciplinaire <strong>et</strong> on propose des méthodes pour le résoudre (cf section 2.1.2). Une<br />
méthode adjointe pour calculer les gradients dans un contexte multi-disciplinaire est donnée (cf<br />
section 2.1.3). Le problème d'optimisation est posé (cf section 2.1.4) <strong>et</strong> on introduit les méta-
2.1 Outils <strong>et</strong> dénitions 31<br />
modèles disciplinaires (cf section 2.1.5).<br />
Dans une deuxième partie (cf section 2.2), nous allons expliciter certaines formulations MDO,<br />
à savoir MDF, IDF, AAO, CO, BLISS, BLISS 2000 <strong>et</strong> DIVE (cf sections 2.2.1 à 2.2.7).<br />
La mise en ÷uvre de ces formulations <strong>et</strong> l'analyse des résultats obtenus avec les deux cas-tests<br />
du chapitre 1 sont présentées dans les chapitres 3 <strong>et</strong> 4.<br />
2.1 Outils <strong>et</strong> dénitions<br />
2.1.1 Disciplines, paramètres, sorties <strong>et</strong> notations<br />
Dans c<strong>et</strong>te section, nous allons dénir les diérents paramètres <strong>et</strong> variables qui interviennent<br />
dans la conception des systèmes complexes. Nous considérons ici les diérentes variables <strong>et</strong> sorties<br />
comme des vecteurs. Pour simplier l'exposé, nous allons considérer ici un système contenant<br />
deux disciplines (D 1 <strong>et</strong> D 2 ), représenté sur le schéma 2.1.<br />
z<br />
x 1<br />
✲<br />
D 1<br />
Y 1 (x 1 , z, y 2 )<br />
✲<br />
✟ ✟✟✟✟✟✟✯<br />
❍ ❍❍❍❍❍❍❥<br />
✻<br />
y 2 y 1<br />
❄<br />
x 2<br />
✲<br />
D 2<br />
Y 2 (x 2 , z, y 1 )<br />
✲<br />
Fig. 2.1 Système à deux disciplines.<br />
Les diérentes variables <strong>et</strong> sorties représentées sur c<strong>et</strong>te gure sont :<br />
x les variables de conception locales : les variables x 1 sont propres à la discipline 1 <strong>et</strong><br />
les variables x 2 sont propres à la discipline 2 ;<br />
z les variables de conception partagées ;<br />
p = [x, z] l'ensemble des variables de conception ;<br />
y les variables de couplage, ou d'interaction : ici les variables y 1 (resp. 2) proviennent<br />
de la discipline 1 (resp. 2) <strong>et</strong> sont utilisées comme paramètres de la discipline 2 (resp. 1) ;<br />
Y l'ensemble des sorties provenant des codes de calcul disciplinaires : Y 1 représente les<br />
résultats des calculs de la discipline 1 <strong>et</strong> Y 2 ceux de la discipline 2.<br />
Nous avons ici trois types de variables : les variables locales, les variables partagées <strong>et</strong> les variables<br />
d'interaction, que nous allons dénir plus précisément ci-dessous. Ce type de classication<br />
des variables est courant dans la littérature, nous reprenons ici les notations de [SAS98].<br />
Variables locales x<br />
Nous appelons variable locale (ou privée) une variable qui intervient dans une discipline<br />
seulement. Par exemple, le choix du matériau ou l'épaisseur des renforts internes à la structure
32 Les formulations pour l'optimisation multi-disciplinaire<br />
n'aectent pas directement l'écoulement autour de l'avion.<br />
Variables de conception partagées z<br />
Lorsqu'une variable locale possède une interaction avec une autre discipline, il convient de la<br />
considérer comme une variable partagée : les variables partagées (ou publiques) possèdent des<br />
e<strong>et</strong>s directs sur plusieurs disciplines à la fois.<br />
Par exemple, l'épaisseur d'une aile intervient dans le calcul de la traînée <strong>et</strong> dans le calcul en<br />
mécanique des structures.<br />
La détermination de ces paramètres publics est un enjeu majeur dans le processus de conception.<br />
La solution obtenue dépend fortement de l'ensemble des paramètres choisis. Ce choix se<br />
base, d'une part, sur l'art de l'ingénieur, <strong>et</strong> d'autre part, sur l'utilisation des méthodes adjointes :<br />
l'expérience des équipes d'ingénieurs sur le dimensionnement des paramètres de forme doit<br />
être prise en compte pour le choix des critères : par exemple, en aérodynamique, le choix<br />
de la courbure du bord d'attaque de l'aile est le fruit d'une longue expérience ;<br />
les méthodes adjointes perm<strong>et</strong>tent de calculer les gradients de manière ecace. On peut<br />
ainsi eectuer un calcul de gradients de nos critères pour un grand nombre de paramètres.<br />
La distribution de ces gradients sur la surface de la conguration initiale indique les régions<br />
les plus importantes. On peut alors déterminer un ensemble de paramètres pertinents avec<br />
l'utilisation des méthodes adjointes.<br />
Une approche hiérarchique pour déterminer les paramètres les plus signicatifs est présentée<br />
dans [TD02]. La méthode GSE expliquée en section 2.1.3 est une méthode adjointe<br />
qui perm<strong>et</strong> de calculer les gradients dans un contexte de disciplines couplées. Pour la description<br />
des méthodes adjointes, nous renvoyons à [Cea86, MP01, Jam90]. Les méthodes<br />
de diérentiation automatique peuvent être utilisées pour la génération du code adjoint<br />
[Gri00, MP01].<br />
Dans un contexte multi-disciplinaire, nous ne pouvons considérer qu'un nombre réduit de<br />
paramètres partagés.<br />
Variables de couplage y<br />
Les disciplines prennent en entrée des données provenant d'autres disciplines. Ce sont les<br />
variables de couplage ou d'interaction que nous noterons y.<br />
Par exemple, le champ de pression autour de l'aile perm<strong>et</strong>tra à la discipline structure d'en<br />
calculer la déformation. De même, la déformation élastique de l'aile a un e<strong>et</strong> sur le comportement<br />
aérodynamique de l'aile.<br />
On parle de couplage fort, en cas de problèmes multi-physiques. Le couplage est déjà présent<br />
au niveau de l'analyse disciplinaire. En général, le vecteur y est porté par le maillage du problème.<br />
C'est le cas de l'aéroélasticité ou du couplage uide-thermique. Il convient alors de considérer<br />
que les deux disciplines n'en forment qu'une à l'échelle de l'optimisation multi-disciplinaire. En<br />
e<strong>et</strong>, le fait de découpler ces deux disciplines ne ferait qu'augmenter la complexité du problème<br />
global, en ajoutant un nombre de variables d'interaction conséquent.<br />
On ne s'intéresse ici qu'au cas d'un couplage faible, où les variables d'interaction sont de<br />
l'ordre de quelques dizaines.
2.1 Outils <strong>et</strong> dénitions 33<br />
2.1.2 Analyse multi-disciplinaire (MDA)<br />
Les disciplines sont reliées entre elles par des variables d'interaction : le moindre changement<br />
dans une discipline aura une inuence sur toutes les autres. Il convient donc de trouver un<br />
équilibre entre les disciplines au travers de ces variables d'interaction. Nous allons exposer le<br />
problème d'équilibre interdisciplinaire dans c<strong>et</strong>te section.<br />
Le terme anglais MDA (MultiDisciplinary Analysis) signie analyse multi-disciplinaire. Pour<br />
une conguration p = [x, z] donnée, les variables de couplage doivent vérier l'équation d'état :<br />
ou bien, de façon équivalente :<br />
y = Y (p, y), (2.1)<br />
R(p, y) = y − Y (p, y) = 0, (2.2)<br />
où R(p, y) représente le résidu, que l'on souhaite annuler.<br />
Lorsque l'on considère deux disciplines, le problème s'écrit :<br />
⎧<br />
⎨ R 1 (p, y 1 , y 2 ) = y 1 − Y 1 (p, y 2 ) = 0,<br />
⎩<br />
R 2 (p, y 1 , y 2 ) = y 2 − Y 2 (p, y 1 ) = 0.<br />
(2.3)<br />
Eectuer une MDA revient à résoudre l'équation (2.2) en y. C<strong>et</strong>te équation peut être vue<br />
comme une équation d'état du problème. Elle décrit la physique du système. C<strong>et</strong>te équation doit<br />
être résolue d'une manière très précise. On peut aboutir à des performances qui peuvent paraître<br />
intéressantes au niveau de la fonction objectif, mais avec un système qui ne satisfait pas les lois<br />
de la physique.<br />
Une MDA correspond donc à une analyse du système, qui tient compte des interactions entre<br />
les disciplines, <strong>et</strong> qui cherche à équilibrer les sorties des disciplines. On dispose de plusieurs<br />
méthodes pour résoudre ce problème, que l'on peut classer selon trois types :<br />
recherche de zéros,<br />
minimisation des résidus,<br />
pénalisation de l'équation d'état.<br />
Recherche de zéros :<br />
on va chercher ici à annuler le résidu de l'équation d'état (2.2).<br />
Méthode du point xe : on redénit y égal à la sortie du code de calcul Y (p, y), <strong>et</strong> on itère<br />
c<strong>et</strong>te opération jusqu'à la convergence. On considère que l'on a la convergence lorsque les<br />
résidus R(p, y) de l'équation d'état sont assez p<strong>et</strong>its. C<strong>et</strong>te méthode ne marche que si le<br />
système a de bonnes propriétés : l'<strong>application</strong> qui à y associe Y (p, y) doit être contractante 1 .<br />
Méthode de Newton : lorsque l'on a accès aux gradients de la fonction Y , on peut utiliser<br />
la méthode de Newton [Gui03]. Partant du point y, on cherche un point y + h tel que<br />
R(p, y + h) = 0. On développe l'équation à l'ordre 1. La direction h sera solution de<br />
l'équation (2.4) :<br />
Soit :<br />
∂ y R(p, y)h = −R(p, y). (2.4)<br />
(I d − ∂ y Y (p, y)) h = − (y − Y (p, y)) . (2.5)<br />
1 L'<strong>application</strong> Y : y ↦→ Y (p, y) est dite contractante si <strong>et</strong> seulement si ∀(y, y ′ ) ‖Y (p, y) − Y (p, y ′ )‖ < ‖y − y ′ ‖
34 Les formulations pour l'optimisation multi-disciplinaire<br />
Une recherche linéaire dans la direction h donne alors le pas optimal α :<br />
min<br />
α<br />
‖R(p, y + αh)‖. (2.6)<br />
Les variables de couplage sont actualisées : y n+1 = y n + αh. Le processus continue avec le<br />
nouveau point y n+1 , jusqu'à la convergence.<br />
Minimisation des résidus<br />
La résolution de l'équation d'état peut être vue comme un problème d'optimisation : étant<br />
donnée une conguration p, les variables de couplage y doivent minimiser les résidus de l'équation<br />
d'état :<br />
min<br />
y<br />
‖y − Y (p, y)‖ 2 . (2.7)<br />
Pour résoudre ecacement ce problème de minimisation, les variables de couplage doivent<br />
être normalisées. On peut choisir d'utiliser des méthodes d'optimisation classiques. La méthode<br />
de Gauss-Newton (voir annexe B.1) s'avère très ecace pour ce genre de problème.<br />
Pénalisation de l'équation d'état<br />
Dans certaines approches MDO, une autre méthode consiste à rajouter une ou plusieurs contraintes<br />
d'égalité dans le cadre d'une optimisation en fonction des variables y <strong>et</strong> p. La contrainte<br />
d'égalité n'est autre que l'équation d'état du système :<br />
y − Y (p, y) = 0. (2.8)<br />
Il apparaît plus naturel de résoudre l'équation d'état de manière précise pour chacune des<br />
congurations étudiées, plutôt que de le faire en cours d'optimisation <strong>et</strong> de ne satisfaire c<strong>et</strong>te<br />
équation qu'à la n du processus. Cependant, il peut arriver que, pour certaines congurations<br />
p, il n'existe pas de variables de couplage y p perm<strong>et</strong>tant de satisfaire l'équation d'état. Dans<br />
ce cas, le problème d'équilibre interdisciplinaire ne dépend plus seulement de y, mais aussi des<br />
variables de conception p. On ne peut donc plus utiliser les méthodes de recherche de zéros ou<br />
de minimisation des résidus vues précédemment. Seule la méthode de pénalisation de l'équation<br />
d'état va pouvoir trouver des congurations perm<strong>et</strong>tant de satisfaire l'équation d'état.<br />
2.1.3 Calcul des gradients (GSE)<br />
En optimisation, pour l'utilisation des algorithmes de descente, il est important d'avoir de<br />
bonnes informations sur les gradients des objectifs <strong>et</strong> des contraintes. En général, les codes de<br />
calcul dont nous disposons ne fournissent pas le gradient. Dans le cas où ils le fournissent, il est<br />
évident qu'il faut les utiliser <strong>et</strong> les injecter dans l'optimiseur. Sinon, on les calcule par diérences<br />
nies ou bien avec la méthode GSE (Global Sensitivity Equation), deux approches que nous allons<br />
détailler dans c<strong>et</strong>te section.<br />
Calcul par diérences nies<br />
Soit une fonction F dénie sur R n à valeurs dans R. On souhaite calculer le gradient de F au<br />
point p. Nous avons besoin pour cela de calculer n + 1 fois la fonction F : aux points p <strong>et</strong> p + h i e i<br />
(h i e i étant une perturbation du i me paramètre de conception, avec e i vecteur de base normé <strong>et</strong><br />
h i scalaire). Le pas h i doit être choisi susamment p<strong>et</strong>it pour avoir une bonne approximation<br />
des gradients. Le gradient est ensuite donné par :
2.1 Outils <strong>et</strong> dénitions 35<br />
∇F (p) =<br />
(<br />
..., F (p + h )<br />
ie i ) − F (p)<br />
, ... . (2.9)<br />
h i<br />
Lorsque le calcul de F nécessite une analyse multi-disciplinaire, le calcul du gradient par<br />
c<strong>et</strong>te méthode s'avère coûteux en temps de calcul.<br />
Le choix du pas h peut s'avérer délicat. D'un côté, il doit être assez p<strong>et</strong>it, an d'avoir une<br />
bonne approximation du gradient. De l'autre côté, lorsque ce pas est trop p<strong>et</strong>it, l'erreur provenant<br />
de la résolution de l'équation d'état (c<strong>et</strong>te résolution n'est jamais exacte, il reste toujours un<br />
résidu qu'il faut prendre en compte, aussi p<strong>et</strong>it soit-il) n'est plus négligeable devant la quantité<br />
à calculer (dans notre cas, la diérence des sorties entre deux congurations très proches). C<strong>et</strong>te<br />
erreur peut venir fausser les résultats du calcul de gradient lorsque le pas h i est trop p<strong>et</strong>it.<br />
On peut remarquer que plus on sera précis sur la résolution de l'équation d'état, plus on<br />
pourra choisir h p<strong>et</strong>it. On aura alors une meilleure approximation du gradient, mais celle-ci sera<br />
plus gourmande en temps de calcul.<br />
GSE : Global Sensitivity Equation<br />
La méthode GSE est une méthode adjointe, on utilise l'information apportée par l'équation<br />
d'état <strong>et</strong> sa dérivée. C<strong>et</strong>te méthode est décrite dans [BS06, SAS98, CDF + 93].<br />
Considérons p = [x, z] l'ensemble des variables de conception.<br />
On eectue une analyse multi-disciplinaire, ce qui nous donne y p = [y p 1 , yp 2 ], en utilisant les<br />
équations d'état (cf équation (2.3)) :<br />
R(p, y p ) = 0 ⇐⇒<br />
{<br />
R1 (p, y p 1 , yp 2 ) = yp 1 − Y 1(p, y p 2 ) = 0,<br />
R 2 (p, y p 1 , yp 2 ) = yp 2 − Y 2(p, y p 1 ) = 0.<br />
On considère que, pour toutes les congurations p ′ proches de la conguration p, on peut<br />
résoudre le système couplé <strong>et</strong> dénir des variables de couplage y p′ satisfaisant l'équation<br />
d'état :<br />
∀p ′ ∈ V p , R(p ′ , y p′ ) = 0. (2.10)<br />
Alors la dérivée de R par rapport à p est nulle, c'est-à-dire : D p R = 0.<br />
Par dénition de R, on obtient les équations suivantes :<br />
{<br />
Dp y 1 − ∂ p Y 1 − ∂ y2 Y 1 D p y 2 = 0,<br />
D p y 2 − ∂ p Y 2 − ∂ y1 Y 2 D p y 1 = 0.<br />
(2.11)<br />
On arrive ainsi au système linéaire suivant :<br />
⎛<br />
⎝<br />
⎞ ⎛<br />
I d −∂ y2 Y 1<br />
⎠ ⎝<br />
−∂ y1 Y 2 I d<br />
⎞ ⎛<br />
D p y 1<br />
⎠ = ⎝<br />
D p y 2<br />
⎞<br />
∂ p Y 1<br />
⎠ (GSE). (2.12)<br />
∂ p Y 2<br />
Les sensibilités disciplinaires ∂ y2 Y 1 , ∂ y1 Y 2 , <strong>et</strong> ∂ p Y i peuvent être fournies par les disciplines,<br />
ou bien, au pire des cas, calculées par diérences nies.<br />
La résolution du système linéaire (GSE) nous donne les sensibilités globales : D p y.
36 Les formulations pour l'optimisation multi-disciplinaire<br />
La méthode GSE est bien moins coûteuse en terme de calcul que la méthode des diérences<br />
nies, qui nécessite un calcul couplé par variables de conception. Avec la méthode GSE, il y a un<br />
seul calcul couplé <strong>et</strong> les dérivées sont soit fournies par les disciplines, soit calculées par diérences<br />
nies, discipline par discipline, ce qui n'implique pas de calcul couplé supplémentaire. On peut<br />
donc payer le prix en temps de calcul pour résoudre l'équation d'état de manière très précise,<br />
c<strong>et</strong>te dernière n'étant résolue qu'une seule fois, <strong>et</strong> ainsi obtenir des gradients avec une bonne<br />
précision.<br />
La méthode GSE perm<strong>et</strong> de calculer les gradients pour un plus grand nombre de paramètres.<br />
On peut ainsi déterminer lesquels ont le plus d'inuence sur les critères étudiés, <strong>et</strong> choisir l'ensemble<br />
des paramètres les plus pertinents (cf section 2.1.1).<br />
2.1.4 Dénition de l'optimisation<br />
Les sorties de ces disciplines détermineront les fonctions objectifs <strong>et</strong> contraintes. L'optimisation<br />
peut se faire à un niveau global, où toutes les diérentes variables seront traitées au même<br />
niveau. Il peut aussi y avoir des optimisations sur diérents niveaux, où certaines variables seront<br />
optimisées par leur discipline, <strong>et</strong> un optimiseur fédérera les calculs au niveau système. Nous appellerons<br />
variables système les variables qui sont gérées par l'optimiseur système, <strong>et</strong> variables<br />
disciplinaires celles qui sont gérées par des optimiseurs disciplinaires.<br />
Nous verrons cela plus en détail dans la section 2.2 traitant des formulations pour l'optimisation<br />
multi-disciplinaire. En ce qui concerne l'optimisation <strong>et</strong> ses algorithmes, nous nous référerons<br />
à [BKS06, Van01b, Gui03]. L'algorithme généralement utilisé pour ce genre de problème est l'algorithme<br />
SQP 2 . Il perm<strong>et</strong> de traiter les problème sde minimisation sous contraintes non linéaires.<br />
Une description de c<strong>et</strong> algorithme est donné dans [Ber04] 3 .<br />
Fonction(s) objectif<br />
L'objectif recherché est fonction des sorties disciplinaires Y . Par exemple une discipline peut<br />
traiter de la performance de l'avion <strong>et</strong> l'objectif peut représenter le rayon d'action ou DOC 4 .<br />
Lorsque l'on a une optimisation sur plusieurs niveaux, il faut pouvoir dénir des objectifs<br />
pour chaque discipline. Minimiser la masse pour la structure, ou maximiser la nesse en ce qui<br />
concerne l'aérodynamique, sont des exemples d'objectifs disciplinaires.<br />
Contraintes<br />
Les contraintes peuvent intervenir sur plusieurs niveaux. Soit elles ne concernent qu'une seule<br />
discipline, soit elles interviennent au niveau système.<br />
Les contraintes de borne limitent le champ d'exploration d'une variable. Dans de nombreux<br />
cas, à l'optimum, les variables arrivent en butée pour la plupart de ces contraintes. Le choix<br />
des valeurs des bornes joue un rôle essentiel pour la conguration optimale obtenue.<br />
p l ≤ p ≤ p u .<br />
Les contraintes d'inégalité limitent en général les sorties des disciplines :<br />
G(p, y) ≤ 0.<br />
2 SQP : Sequential Quadratic Programming.<br />
3 http ://www.applied-mathematics.n<strong>et</strong>/optimization/thesis_optimization.pdf<br />
4 DOC : Direct Operating Cost.
2.1 Outils <strong>et</strong> dénitions 37<br />
Les contraintes d'égalité peuvent servir à la gestion des variables de couplage, en considérant<br />
l'équation d'état (cf section 2.1.2) :<br />
H(p, y) = R(p, y) = y − Y (p, y) = 0.<br />
Problème d'optimisation<br />
Au nal, le problème d'optimisation sera décrit de la façon suivante :<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
min F (p, y),<br />
p,y<br />
G(p, y) ≤ 0,<br />
H(p, y) = 0,<br />
p l ≤ p ≤ p u .<br />
(2.13)<br />
On peut aussi considérer le cas où l'on a plusieurs objectifs à minimiser, les fonctions F 1 <strong>et</strong><br />
F 2 par exemple. Dans ce cas, on ne cherchera pas une conguration optimale, mais un ensemble<br />
de congurations qui seront optimales au sens de Par<strong>et</strong>o [SC02]. Une conguration p est Par<strong>et</strong>o<br />
optimale si <strong>et</strong> seulement si ∀p ′ :<br />
⎧<br />
⎨<br />
⎩<br />
F 1 (p) ≤ F 1 (p ′ ),<br />
ou<br />
F 2 (p) ≤ F 2 (p ′ ).<br />
Une méthode perm<strong>et</strong>tant de trouver ce front de Par<strong>et</strong>o est donnée en annexe B.2.<br />
2.1.5 Méta-modèles disciplinaires<br />
(2.14)<br />
Lorsque les temps d'exécution des codes de calculs disciplinaires sont importants, il est essentiel<br />
de travailler avec des approximations des modèles, que l'on appelle méta-modèles, <strong>et</strong> qui<br />
présentent l'avantage de fournir des résultats beaucoup plus rapidement que les modèles originaux.<br />
Les spécialistes des disciplines choisissent le méta-modèle qui convient le mieux. Il existe<br />
des méta-modèles spéciques à une discipline qui prennent en compte la physique en jeu, <strong>et</strong> au<br />
contraire des méta-modèles généralistes.<br />
Nous allons passer en revue les diérents méta-modèles. On pourra se référer au rapport<br />
fait dans le cadre du proj<strong>et</strong> DOOM qui décrit ces méthodes [BSBM07]. Les modèles réduits<br />
fournissent un moyen pratique pour réduire la complexité en MDO. Ces derniers possèdent une<br />
validité locale, à l'intérieur d'une région de conance appropriée :<br />
la linéarisation est valide pour un grand nombre de paramètres, si l'on utilise les méthodes<br />
adjointes, mais uniquement dans une p<strong>et</strong>ite région de conance ;<br />
les méthodes de surface de réponse ont en général un domaine de validité assez grand, mais<br />
pour un p<strong>et</strong>it nombre de paramètres.<br />
Le schéma 2.2 montre la construction d'un méta-modèle disciplinaire.<br />
Approximation du premier ordre<br />
La façon la plus simple de construire un méta-modèle disciplinaire local est de linéariser les<br />
sorties disciplinaires Y (x, y, z) :<br />
On obtient :<br />
Ỹ (x,y,z) (x ′ , y ′ , z ′ ) = Y (x, y, z) + ∂ x Y.(x ′ − x) + ∂ z Y.(z ′ − z) + ∂ y Y.(y ′ − y) (2.15)
38 Les formulations pour l'optimisation multi-disciplinaire<br />
x ′ , z ′ , y ′<br />
❄<br />
Méta-modèle(x, z, y, Y )<br />
x, z, y k<br />
❄<br />
Discipline i<br />
Y k<br />
❄<br />
Ŷ (x ′ , z ′ , y ′ )<br />
❄<br />
Fig. 2.2 Méta-modèle disciplinaire.<br />
Dans certains cas, il est plus commode d'utiliser une transformation des variables pour effectuer<br />
l'approximation linéaire (par exemple, en mécanique des structures, il est fréquent de<br />
linéairiser selon l'inverse des variables de propriété de matériaux).<br />
Le prix à payer pour l'utilisation de c<strong>et</strong>te méthode est d'avoir une taille de région de conance<br />
p<strong>et</strong>ite. Le domaine de validité du méta-modèle disciplinaire peut être déterminé avec la méthode<br />
des régions de conance [Rav07]. Nous pouvons aussi choisir une taille xe. Il faut qu'elle soit<br />
assez p<strong>et</strong>ite pour perm<strong>et</strong>tre à l'optimiseur de ne pas partir vers des congurations fausses, mais il<br />
faut aussi qu'elle soit assez grande pour perm<strong>et</strong>tre d'atteindre l'optimum sans avoir à réactualiser<br />
le méta-modèle un trop grand nombre de fois.<br />
L'avantage de c<strong>et</strong>te méthode est que l'on peut s'aranchir du nombre de variables. En e<strong>et</strong>,<br />
la méthode adjointe (mode inverse en diérentiation automatique) peut être considérée pour les<br />
calculs des gradients en grande dimension [Gri00, Mor85]. Dans ce cas, le coût de calcul des<br />
gradients est guère plus élevé que celui les fonctions objectifs <strong>et</strong> contraintes, <strong>et</strong> reste indépendant<br />
du nombre de variables.<br />
Approximation par surface de réponse<br />
Pour construire des modèles réduits, on procède de la façon suivante :<br />
1. choix d'un échantillon d'entrée : nous utilisons des méthodes DOE (Design Of Experiments)<br />
pour sélectionner un échantillon de points : x, z, y de taille n où n est p<strong>et</strong>it ;<br />
2. calcul des sorties Y k pour chacun des points x, z, y k (k ∈ [1, n]), avec le code de calcul<br />
correspondant au modèle physique original ;<br />
3. construction d'un méta-modèle,<br />
4. le méta-modèle donne Ŷ (x′ , z ′ , y ′ ) : l'approximation des sorties au point [x ′ , z ′ , y ′ ].<br />
Il existe deux catégories de méthodes pout construire les méta-modèles :
2.1 Outils <strong>et</strong> dénitions 39<br />
l'approximation des fonctions objectifs <strong>et</strong> contraintes utilisant les méthodes de surface de<br />
réponse [CST00, Vap95, Pla99], telles que les approximations polynômiales, les réseaux de<br />
neurones, les SVM (Support Vector Machine), les RBF (Radial Basis Function), <strong>et</strong>c. ;<br />
certains méta-modèles perm<strong>et</strong>tent de prendre en compte la connaissance du modèle, <strong>et</strong> ainsi<br />
de préserver une partie de la physique représentée. Nous pouvons citer comme exemple la<br />
méthode POD (Proper Orthogonal Decomposition) [GM97, LTB96, LA04, SK00].<br />
Avec l'utilisation de méta-modèles, l'évaluation de la fonction coût est si peu coûteuse qu'il<br />
est possible d'utiliser des algorithmes génétiques [MNP98, Pér98], <strong>et</strong> d'autres algorithmes d'optimisation<br />
globale [Kel99b, Kel99a, MKRHU99].<br />
An d'être cohérent au sein d'une optimisation (en particulier dans le cas d'algorithmes déterministes<br />
à base de gradient), les méta-modèles doivent satisfaire plusieurs conditions.<br />
• Les méta-modèles doivent évoluer avec le point. Ils doivent fournir un domaine de validité.<br />
À l'intérieur de ce domaine, la qualité des réponses est acceptable dans le cadre d'une<br />
optimisation. Lorsqu'on arrive au bord de ce domaine, il faut réactualiser le méta-modèle,<br />
an qu'il soit able autour du point de conception courant.<br />
• La construction <strong>et</strong> l'utilisation du méta-modèle au sein de l'optimisation ne doit pas être<br />
plus coûteuse que l'utilisation du code de calcul brut. Il convient pour cela de choisir des<br />
méta-modèles ecaces <strong>et</strong> adaptés.<br />
• À l'optimum, on cherche à maximiser la abilité des réponses du méta-modèle. Il faut,<br />
d'une part, que les sorties du méta-modèle soient exactes au point courant, an d'être sûr<br />
des valeurs des objectifs <strong>et</strong> des contraintes obtenues. Il faut aussi que les dérivées soient<br />
exactes au point courant, an de s'assurer que les conditions d'optimalité du premier ordre<br />
soient bien respectées.<br />
[Pow07] préconise que même la dérivée seconde doit être exacte à l'optimum.<br />
Ces propriétés sont présentes dans le cas des méta-modèles linéaires. Pour montrer la viabilité<br />
de l'utilisation de méta-modèles dans l'optimisation multi-disciplinaire, on peut commencer<br />
avec les approximations linéaires. An d'obtenir de meilleurs résultats, on peut essayer d'autres<br />
méta-modèles plus évolués <strong>et</strong> plus adaptés aux disciplines, mais qui respectent les conditions<br />
vues précédemment.<br />
Conclusion<br />
Nous avons vu dans c<strong>et</strong>te section les diérents outils qui serviront à constituer des stratégies<br />
d'optimisation multi-disciplinaire. Les disciplines prennent en entrée diérentes variables, dont<br />
les variables de couplage, qui perm<strong>et</strong>tront d'assurer l'équilibre interdisciplinaire avec une MDA ;<br />
on pourra ensuite calculer les gradients des sorties disciplinaires à l'aide de la méthode GSE.<br />
Les sorties des disciplines déniront les fonctions objectifs <strong>et</strong> contraintes de notre problème<br />
d'optimisation. Leurs évaluations pourront être eectuées au travers de méta-modèles, ce qui<br />
perm<strong>et</strong>tra de réduire le temps de réponse des disciplines, <strong>et</strong> ainsi la durée globale du processus<br />
de conception.<br />
Ces notions seront utilisées dans la suite du document. Elles constituent le vocabulaire de<br />
base, qui perm<strong>et</strong>tra de décrire les formulations pour l'optimisation multi-disciplinaire, exposées<br />
dans la section qui suit.
40 Les formulations pour l'optimisation multi-disciplinaire<br />
2.2 Les formulations MDO<br />
Nous allons voir dans c<strong>et</strong>te section diérentes formulations d'optimisation multi-disciplinaire<br />
(MDO). Une formulation MDO est une manière d'associer une analyse d'un système complexe<br />
à des outils d'optimisation.<br />
Nous pouvons classer ces méthodes selon deux critères.<br />
1. L'optimisation peut se faire sur un ou plusieurs niveaux :<br />
toutes les variables de conception sont au même niveau, nous avons une formulation<br />
mono-niveau, on parle alors d'analyse distribuée : les disciplines contribuent seulement<br />
à la description des phénomènes physiques, <strong>et</strong> les principaux choix de conception se font<br />
au niveau système ;<br />
les variables locales peuvent être optimisées par leur propre discipline, c'est une formulation<br />
multi-niveaux, on parle alors de conception distribuée : ici, les disciplines<br />
participent aux choix de conception, en choisissant les valeurs des variables qui leur sont<br />
attitrées, <strong>et</strong> le niveau système assure que l'optimisation se déroule dans le sens de l'objectif<br />
global.<br />
2. Les variables de couplage peuvent être gérées soit au niveau du solveur multi-disciplinaire,<br />
soit au niveau de l'analyse système :<br />
à chaque analyse système, on résout une MDA,<br />
les variables de couplage sont ajoutées aux inconnues du problème d'optimisation. Elles<br />
doivent satisfaire des contraintes d'égalité du type : Y (p, y) − y = 0. Ces contraintes expriment<br />
le fait que l'équation d'état est satisfaite.<br />
Nous allons voir plusieurs formulations MDO, à savoir les méthodes MDF, IDF, AA0, CO,<br />
BLISS, sa variante BLISS 2000, <strong>et</strong> DIVE. Ces dernières sont classées dans le tableau 2.1, selon<br />
ces deux critères.<br />
MDA<br />
contraintes d'égalité sur<br />
l'équation d'état<br />
optimisation<br />
mono-niveau MDF IDF / AAO<br />
optimisation<br />
multi-niveaux BLISS / DIVE CO / BLISS 2000<br />
Tab. 2.1 Classication des formulations MDO.<br />
Les méthodes DIVE <strong>et</strong> BLISS 2000 présentent des solutions pour utiliser des méta-modèles<br />
adaptatifs au sein de l'optimisation multi-disciplinaire.<br />
Comme pour la section précédente, an de simplier l'exposé des formulations, nous considérons<br />
ici un système composé de deux disciplines.
2.2 Les formulations MDO 41<br />
2.2.1 MDF : Multi-Disciplinary Feasible<br />
C<strong>et</strong>te méthode est la plus classique. On la r<strong>et</strong>rouve aussi sous le nom de AIO (All In One),<br />
ou FIO (Fully Integrated Optimization) [CDF + 93, BS06, Lab04].<br />
Principe<br />
C'est une formulation mono-niveau, où le couplage est pris en charge par une MDA. L'optimisation<br />
se fait sur les variables de conception p = [x, z].<br />
Le système eectue une analyse couplée, an de déterminer les sorties des disciplines qui<br />
assurent l'équilibre du système. Il eectue ensuite le calcul des gradients, par exemple avec la<br />
méthode GSE (cf section 2.1.3). L'optimiseur récupère les valeurs de la fonction coût <strong>et</strong> des<br />
contraintes, ainsi que leurs gradients. À partir de ces informations, il va demander une analyse<br />
système pour un nouveau point. Du point de vue de l'optimiseur, le système entier peut être<br />
considéré comme une boîte noire.<br />
Algorithme<br />
Voici la procédure de la formulation MDF :<br />
1. point de départ : p = [x, z] ;<br />
2. l'analyse multi-disciplinaire (MDA) détermine les variables de couplage y ;<br />
3. on en déduit les fonctions coût F <strong>et</strong> les contraintes G ;<br />
4. le calcul des gradients (méthode GSE) donne les sensibilités globales D p y ;<br />
5. on en déduit les gradients des objectifs D p F <strong>et</strong> des contraintes D p G ;<br />
6. l'optimiseur choisit un nouveau point p ;<br />
7. on itère les étapes 1-6 jusqu'à la convergence de la procédure.<br />
Remarque<br />
L'avantage de c<strong>et</strong>te méthode est qu'elle satisfait l'équation d'état pour chaque point de calcul.<br />
Lorsque l'on utilise par exemple l'algorithme CFSQP (C code for Feasible Sequential Quadratic<br />
Programming [LT01]), on est assuré, dès que l'on trouve un point satisfaisant les contraintes, que<br />
les points suivants restent admissibles.<br />
Il est important d'avoir une précision sur l'analyse du système (MDA) plus ne que le pas<br />
utilisé pour le calcul des sensibilités, an d'avoir des gradients cohérents. Cependant, la résolution<br />
d'un système couplé en chaque point de l'optimisation peut s'avérer coûteuse en temps.<br />
La méthode IDF que nous décrivons dans la section suivante essaye de traiter les variables<br />
de couplage diéremment.<br />
Le schéma 2.3 représente le fonctionnement de la méthodologie MDF.<br />
2.2.2 IDF : Individual Disciplinary Feasible<br />
Le premier constat pour la méthode MDF (décrite dans la section précédente) est que la<br />
répétition des calculs couplés peut s'avérer lourde en temps de calcul. La solution proposée avec<br />
les méthodes de type IDF consiste à remplacer les liens directs entre les disciplines, c'est-à-dire le<br />
couplage, par des contraintes d'égalité. Ces contraintes perm<strong>et</strong>tent à l'optimiseur d'assurer une<br />
cohésion interdisciplinaire. C<strong>et</strong>te formulation est exposée dans [CDF + 93, BS06, Sim98, Bro04,<br />
NMA99].
42 Les formulations pour l'optimisation multi-disciplinaire<br />
Analyse système<br />
❄<br />
MDA<br />
D 1<br />
✻<br />
y 2<br />
y 1<br />
❄<br />
D 2<br />
p = [x, z]<br />
F G D p F D p G<br />
❄<br />
<strong>Optimisation</strong> système<br />
min F (p)<br />
p<br />
sous contraintes :<br />
p l ≤ p ≤ p u<br />
G(p) ≤ 0<br />
Fig. 2.3 Diagramme de la formulation MDF.
2.2 Les formulations MDO 43<br />
Principe<br />
C'est une méthode mono-niveau, où le couplage est géré par des contraintes d'égalité.<br />
L'optimiseur contrôle toutes les variables : locales x, partagées z <strong>et</strong> de couplage y.<br />
Une contrainte d'égalité perm<strong>et</strong> d'assurer que l'équation d'état est satisfaite, <strong>et</strong> garantit la<br />
cohérence interdisciplinaire. C<strong>et</strong>te contrainte est la suivante :<br />
Y (p, y) − y = 0. (2.16)<br />
À chaque analyse du système, un seul appel à chaque discipline est eectué. Il renvoie à l'optimiseur<br />
les valeurs des sorties Y .<br />
Algorithme<br />
Voici la procédure de la formulation IDF :<br />
1. donnée du point de départ : [x, z, y] ;<br />
2. l'analyse disciplinaire détermine les sorties Y ;<br />
3. calcul des fonctions coût F , contraintes d'inégalité G <strong>et</strong> d'égalité H = Y − y ;<br />
4. calcul des sensibilités disciplinaires : donne ∂ [x,z,y] Y ;<br />
5. calcul de ∂ [x,z,y] F ; ∂ [x,z,y] G <strong>et</strong> ∂ [x,z,y] H ;<br />
6. choix d'un nouveau point [x, z, y] par l'optimiseur ;<br />
7. on itère 1-6 jusqu'à la convergence.<br />
Remarques<br />
Il y a autant de contraintes d'égalité que de variables de couplage. Un nombre élevé de variables<br />
de couplage peut poser problème, car les algorithmes d'optimisation ont plus de dicultés<br />
à gérer un grand nombre de contraintes d'égalité non linéaires.<br />
L'avantage de ces méthodes utilisant les contraintes d'égalité sur l'équation d'état interdisciplinaire,<br />
par rapport aux méthodes utilisant la MDA, est qu'elles perm<strong>et</strong>tent de traiter les<br />
problèmes où il existe des congurations non faisables (avec des congurations dites non faisables,<br />
on ne peut pas trouver de variables de couplage associées satisfaisant l'équation d'état).<br />
On peut avoir des congurations trop mauvaises, pour lesquelles il devient dicile de calculer<br />
la physique qui les régit, ou du moins d'en assurer la cohérence. Le problème d'équilibre interdisciplinaire<br />
ne dépend plus seulement des variables de couplage y, mais aussi des variables de<br />
conception p. La méthode IDF perm<strong>et</strong> de pallier ce genre de problème, <strong>et</strong> c'est son principal<br />
avantage par rapport à la méthode MDF.<br />
Le schéma 2.4 illustre c<strong>et</strong>te formulation.<br />
2.2.3 AAO : All-At-Once<br />
La méthode AAO est aussi appelée one shot, SAND ou SAD (Simultaneous Analysis and<br />
Design) [BGKS96, AL00, GHN96].<br />
Principe<br />
De même que pour la méthode IDF, les variables de conception <strong>et</strong> de couplage sont traitées<br />
au même niveau, <strong>et</strong> la cohérence interdisciplinaire est assurée par une équation d'égalité sur<br />
l'équation d'état du système. La diérence avec la méthode IDF est que les équations d'état
44 Les formulations pour l'optimisation multi-disciplinaire<br />
Analyse disciplinaire<br />
❄<br />
x 2 , z, y 1<br />
❄<br />
x 1 , z, y 2<br />
D [x,z,y] [F, G, Y ]<br />
D 1<br />
D 2<br />
x, z, y<br />
F, G, Y<br />
❄<br />
<strong>Optimisation</strong> système<br />
min F (x, z, y)<br />
x,z,y<br />
sous contraintes :<br />
x l ≤ x ≤ x u<br />
z l ≤ z ≤ z u<br />
G(x, z, y) ≤ 0<br />
Y − y = 0<br />
Fig. 2.4 Diagramme de la formulation IDF.<br />
disciplinaires (dont la résolution perm<strong>et</strong> de déterminer les sorties disciplinaires) ne sont plus<br />
résolues au niveau de la discipline, mais au niveau de l'optimiseur système. Par exemple, le<br />
problème de mécanique des structures peut être vu comme la minimisation de l'énergie potentielle<br />
<strong>et</strong> revient à la résolution d'un système linéaire. Ce dernier donnera lieu à une contrainte d'égalité<br />
dans le problème d'optimisation (lignes équations d'état disciplinaires dans (2.17)) :<br />
⎧<br />
min F (x, z, y 1, y 2 ),<br />
x,z,y<br />
⎪⎨<br />
⎪⎩<br />
G(x, z, y 1 , y 2 ) ≤ 0,<br />
x l ≤ x ≤ x u ,<br />
z l ≤ z ≤ z u ,<br />
y 1 = t 1 ,<br />
y 2 = t 2 ,<br />
t 1 = Y 1 (x, z, y 2 ),<br />
t 2 = Y 2 (x, z, y 1 ).<br />
cohésion interdisciplinaire<br />
équations d'état disciplinaires<br />
(2.17)<br />
Remarque<br />
C<strong>et</strong>te méthode peut être très ecace, mais sa convergence est compromise lorsque certaines<br />
des équations d'état disciplinaires sont fortement non-linéaires. Nous pouvons prendre comme<br />
exemple l'équation de Navier-Stokes pour la discipline mécanique des uides : même dans un<br />
contexte monodisciplinaire, la convergence n'est pas toujours acquise.
2.2 Les formulations MDO 45<br />
2.2.4 CO : Collaborative Optimization<br />
C<strong>et</strong>te méthode est présentée dans [BS06, Bro04, BGKS96, AKZP05, NMA99, Lin04, AR00].<br />
Principe<br />
C'est une méthode multi-niveaux, où le couplage est géré avec des contraintes d'égalité. Elle<br />
reproduit le fonctionnement des entreprises, où le niveau système donne des consignes que les<br />
disciplines essayent de respecter.<br />
L'optimisation se fait sur deux niveaux : système <strong>et</strong> discipline.<br />
Au niveau système, l'optimiseur gère les variables partagées z <strong>et</strong> les variables de couplage y,<br />
de manière à minimiser la fonction coût, tout en respectant les contraintes système.<br />
Au niveau disciplinaire, le système envoie les variables de couplage y comme consignes aux<br />
disciplines, <strong>et</strong> les valeurs des variables partagées z. La discipline i gère ses variables locales x i ,<br />
ainsi qu'une copie des variables partagées z i . Elle choisit les valeurs de x i <strong>et</strong> z i de manière à<br />
respecter au mieux les consignes données par le système, <strong>et</strong> de coller au mieux aux variables<br />
partagées z, tout en respectant les contraintes disciplinaires. Par exemple, pour déterminer x 1<br />
<strong>et</strong> z 1 , la discipline 1 résout le problème de minimisation sous contraintes suivant :<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
min ‖y 1 − Y 1 (x 1 , z 1 , y 2 )‖ 2 + ‖z − z 1 ‖ 2 .<br />
x 1 ,z 1<br />
G 1 (x 1 , z 1 , z, y 2 ) ≤ 0<br />
x l 1 ≤ x 1 ≤ x u 1<br />
z l 1 ≤ z 1 ≤ z u 1<br />
(2.18)<br />
Le couplage, ainsi que la convergence des copies des variables partagées z 1 <strong>et</strong> z 2 , sont assurés<br />
au niveau système par les contraintes suivantes d'égalité :<br />
⎧<br />
⎨ Y (x, z, y) − y = 0,<br />
H = z − z 1 = 0,<br />
(2.19)<br />
⎩<br />
z − z 2 = 0.<br />
Algorithme<br />
La procédure de la méthode CO est la suivante :<br />
1. Point de départ : [z, y] ;<br />
2. optimisations disciplinaires : on cherche les variables locales <strong>et</strong> les copies des variables<br />
partagées z i qui optimisent le problème (2.18) : détermination de x 1 , x 2 , z 1 , z 2 <strong>et</strong> Y ;<br />
3. on en déduit les fonctions coût F , <strong>et</strong> les contraintes d'inégalité G <strong>et</strong> d'égalité H ;<br />
4. le calcul des sensibilités disciplinaires donne ∂ [z,y] Y ;<br />
5. on en déduit les gradients ∂ [z,y] F , ∂ [z,y] G <strong>et</strong> ∂ [z,y] H ;<br />
6. l'optimiseur choisit un nouveau point [z, y] ;<br />
7. on itère 1-6 jusqu'à la convergence.<br />
La gure 2.5 représente la méthode CO.
46 Les formulations pour l'optimisation multi-disciplinaire<br />
✲<br />
<strong>Optimisation</strong> disciplinaire 1<br />
‖y 1 − Y 1 (x 1 , z 1 , y 2 )‖ 2 + ‖z − z 1 ‖ 2<br />
x 1,z 1<br />
sous contraintes :<br />
x l 1 ≤ x 1 ≤ x u 1<br />
z l 1 ≤ z 1 ≤ z u 1<br />
G 1 (x 1 , z 1 , y 2 ) ≤ 0<br />
✲<br />
<strong>Optimisation</strong> disciplinaire 2<br />
min ‖y 2 − Y 2 (x 2 , z 2 , y 1 )‖ 2 + ‖z − z 2 ‖ 2<br />
x 2,z 2<br />
sous contraintes :<br />
x l 2 ≤ x 2 ≤ x u 2<br />
z l 2 ≤ z 2 ≤ z u 2<br />
G 2 (x 2 , z 2 , y 1 ) ≤ 0<br />
z, y<br />
<strong>Optimisation</strong> système<br />
Y, z 1 , z 2<br />
❄ ❄<br />
min<br />
min F (z, y)<br />
z,y<br />
sous contraintes :<br />
z l ≤ z ≤ z u<br />
G(z, y) ≤ 0<br />
y − Y = 0<br />
z − z 1 = 0<br />
z − z 2 = 0<br />
Fig. 2.5 Diagramme de la formulation CO.
2.2 Les formulations MDO 47<br />
2.2.5 BLISS : Bi-Level Integration System Synthesis<br />
C<strong>et</strong>te formulation est exposée dans [BS06, SAS98, KY00].<br />
Principe<br />
C'est une méthode multi-niveaux, où les variables de couplage sont gérées par une MDA.<br />
On part du point p 0 = [x 0 , z 0 ]. Une analyse multi-disciplinaire détermine les variables de<br />
couplage y 0 , <strong>et</strong> les valeurs des fonctions objectifs F 0 = F (x 0 , z 0 ) <strong>et</strong> contraintes G 0 = G(x 0 , z 0 ).<br />
Une analyse de sensibilité globale (GSE) nous donne les valeurs des gradients D p F 0 <strong>et</strong> D p G 0 .<br />
Nous pouvons construire en p 0 une approximation linéaire locale de F <strong>et</strong> G :<br />
⎧<br />
⎨ ˜F (p) = F 0 + D p F 0 (p − p 0 ),<br />
(2.20)<br />
⎩ ˜G(p) = F 0 + D p G 0 (p − p 0 ).<br />
<strong>Optimisation</strong> des variables locales x i de la discipline i<br />
⎧<br />
min ∂ xi F 0 (x i − x<br />
⎪⎨<br />
0 i ),<br />
x i<br />
G 0 + ∂ xi G 0 (x i − x 0 i ), ≤ 0<br />
(2.21)<br />
⎪⎩<br />
x l i ≤ x i ≤ x u i .<br />
On récupère les optima x opt <strong>et</strong> les coecients de Lagrange λ associés aux contraintes. On<br />
pose :<br />
F x opt = F 0 + ∂ x F 0 (x opt − x 0 ),<br />
G x opt = G 0 + ∂ x G 0 (x opt − x 0 ).<br />
(2.22)<br />
Les fonctions coût <strong>et</strong> contrainte au niveau global sont les suivantes (voir annexe A) :<br />
f(Z) = F x opt + ( ∂ z F 0 + λ T ∂ z G 0<br />
)<br />
(z − z 0 ),<br />
g(Z) = G − x opt + ∂ z G − 0 (z − z0 ),<br />
(2.23)<br />
où G − x opt<br />
correspond aux contraintes non saturées après les optimisations disciplinaires.<br />
<strong>Optimisation</strong> des variables globales z<br />
An d'obtenir z opt , on résout le système suivant :<br />
⎧ (<br />
min ∂z F 0 + λ<br />
⎪⎨<br />
T )<br />
∂ z G 0 (z − z 0 ),<br />
z<br />
G − x<br />
+ ∂ opt z G − 0 (z − z0 ) ≤ 0,<br />
⎪⎩<br />
z l ≤ z ≤ z u .<br />
(2.24)
48 Les formulations pour l'optimisation multi-disciplinaire<br />
Algorithme<br />
Voici le processus de la formulation BLISS :<br />
1. nous partons du point : p 0 = [x 0 , z 0 ] ;<br />
2. une analyse multi-disciplinaire nous donne les valeurs de F 0 <strong>et</strong> G 0 ;<br />
3. l'analyse de sensibilité globale nous donne ∂ x F 0 , ∂ x G 0 , ∂ z F 0 <strong>et</strong> ∂ z G 0 ;<br />
4. optimisation disciplinaire : x opt <strong>et</strong> λ (paramètres de Lagrange) ;<br />
5. optimisation des variables globales : z opt ;<br />
6. mise à jour des variables : x 0 = x opt <strong>et</strong> z 0 = z opt ;<br />
7. on itère 1-6 jusqu'à la convergence.<br />
Remarque<br />
Il convient d'utiliser une méthode de région de conance pour la gestion des variables partagées,<br />
an d'assurer une bonne abilité de l'approximation linéaire.<br />
C<strong>et</strong>te formulation est représentée sur la gure 2.6.<br />
[x 0 , z 0 ]<br />
✲<br />
MDA<br />
GSE<br />
y, F 0 , G 0<br />
❄<br />
∂ z F 0 ∂ z G 0<br />
<strong>Optimisation</strong> disciplinaire<br />
∂ x F 0 ∂ x G 0<br />
❄<br />
❄<br />
x opt λ<br />
❄<br />
<strong>Optimisation</strong> système<br />
❄<br />
z opt<br />
Mise à jour des variables<br />
x 0 = x opt<br />
z 0 = z opt<br />
Fig. 2.6 Diagramme de la formulation BLISS.
2.2 Les formulations MDO 49<br />
2.2.6 BLISS 2000<br />
La méthode BLISS 2000 dérive de la méthode précédente. Elle généralise ici l'utilisation de<br />
méta-modèles disciplinaires. C<strong>et</strong>te formulation est décrite dans l'article [Agt00].<br />
Principe<br />
C'est une formulation multi-niveaux où le couplage est géré par une pénalisation de l'équation<br />
d'état. Nous montrons ici comment chaque discipline choisit ses variables locales, puis comment<br />
sont construits les diérents méta-modèles, <strong>et</strong> enn nous exposons le problème d'optimisation<br />
global.<br />
<strong>Optimisation</strong>s locales<br />
Les variables locales sont solutions d'un problème d'optimisation disciplinaire. Ce problème<br />
dépend des variables partagées z, des variables de couplage y <strong>et</strong> des poids w. Ces poids<br />
vont servir à déterminer la fonction coût. La variable w se décompose en w = [w 1 , w 2 ],<br />
où w 1 (resp. w 2 ) sont les poids de la discipline 1 (resp. discipline 2). Par exemple, pour<br />
la discipline 1, chaque poids w 1j va servir à pondérer les sorties disciplinaire Y 1j pour<br />
construire la fonction coût disciplinaire F 1 au point [z, y, w] :<br />
∑n 1<br />
F 1 (x 1 , z, y 2 ) = w 1j Y 1j (x 1 , z, y 2 ), (2.25)<br />
j=1<br />
où n 1 est le nombre de sorties Y 1 de la discipline 1. Le problème d'optimisation disciplinaire<br />
pour la discipline 1 est alors :<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
∑<br />
min w 1j Y 1j (x 1 , z, y 2 ),<br />
n 1<br />
x 1 j=1<br />
(2.26)<br />
G 1 (x 1 , z, y 2 ) ≤ 0,<br />
x l 1 ≤ x 1 ≤ x u 1 .<br />
Construction des méta-modèles disciplinaires<br />
On choisit un échantillon de points z, y, w. La méthode de tirage de l'échantillon peut être<br />
un hypercube latin.<br />
Pour chacun des points z, y, w k = [z k , y k , w k ] de c<strong>et</strong> échantillon, on eectue une optimisation<br />
locale pour chaque discipline.<br />
Les sorties optimisées seront notées Y k : Y k = Y (x optk , z k , y k ), avec x optk les valeurs locales<br />
optimales trouvées pour la conguration [z k , y k , w k ].<br />
Après avoir eectué les optimisations disciplinaires pour tout l'échantillon z, y, w, on obtient<br />
un échantillon de sorties Y .<br />
On peut alors construire les méta-modèles disciplinaires à partir des échantillons d'entrées<br />
<strong>et</strong> de sorties (cf section 2.1.5). Ces méta-modèles prennent en entrée les variables [z, y, w],<br />
<strong>et</strong> renvoient en sortie une approximation des sorties disciplinaires optimisées : Ŷi(z, y, w).<br />
<strong>Optimisation</strong> globale<br />
La fonction coût globale F est l'une des sorties des disciplines, par exemple de la discipline<br />
performance. L'optimisation système se fait au travers des méta-modèles. Les variables
50 Les formulations pour l'optimisation multi-disciplinaire<br />
[z, y, w] doivent être solutions du problème (2.27) :<br />
⎧<br />
min F (z, y, w),<br />
z<br />
⎪⎨<br />
⎪⎩<br />
y − Ŷ (z, y, w) = 0,<br />
G(z, y, w) ≤ 0,<br />
z l ≤ z ≤ z u ,<br />
y l ≤ y ≤ y u ,<br />
w l ≤ w ≤ w u .<br />
(2.27)<br />
La cohérence interdisciplinaire est assurée par la contrainte y − Ŷ (z, y, w) = 0.<br />
On eectue un calcul disciplinaire au point [z, y, w] opt obtenu <strong>et</strong> on vérie que l'erreur entre<br />
les vraies sorties des codes Y (z, y, w) <strong>et</strong> celles des méta-modèles Ŷ (z, y, w) est assez p<strong>et</strong>ite pour<br />
armer la convergence du processus.<br />
Si elle est trop grande, on réduit l'intervalle de variation des variables z, y, <strong>et</strong> w en le centrant<br />
autour des valeurs optimales trouvées <strong>et</strong> on itère le processus.<br />
Algorithme<br />
La procédure de BLISS 2000 est la suivante :<br />
1. choix d'un échantillon de points z, y, w ;<br />
2. optimisations disciplinaires pour chaque point de z, y, w → échantillon des sorties disciplinaires<br />
optimisées Y ;<br />
3. constructions de méta-modèles disciplinaires à partir z, y, w <strong>et</strong> Y ;<br />
4. optimisation du système approché par les méta-modèles → [z opt , y opt , w opt ] ;<br />
5. test de convergence sur la diérence entre les sorties des méta-modèles <strong>et</strong> les sorties des<br />
vrais codes disciplinaires : Y (z opt , y opt , w opt ) − Ŷ (zopt , y opt , w opt ) ;<br />
si oui, arrêt,<br />
si non r<strong>et</strong>our à 1.<br />
Remarque<br />
Les poids w sont choisis par une méthode d'échantillonage dans un intervalle donné. Par<br />
exemple, pour la discipline 1, les poids w 1j associés à la sortie Y 1j sont pris dans l'intervalle<br />
[w 1jmin , w 1jmax ]. Lorsque l'on ne possède pas d'information particulière sur la fonction coût<br />
disciplinaire, l'intervalle conseillé dans l'article de référence [Agt00] est [−2, 2] pour chacun des<br />
poids. Lorsque l'on sait quelle sortie peut faire oce de fonction coût, on peut xer le poids<br />
correspondant à 1 pour minimiser c<strong>et</strong>te sortie ou -1 pour la maximiser, <strong>et</strong> m<strong>et</strong>tre à 0 les autres<br />
poids pour c<strong>et</strong>te discipline.<br />
C<strong>et</strong>te formulation est représentée sur la gure 2.7.
2.2 Les formulations MDO 51<br />
Choix d'un échantillon de points z, y, w<br />
✛<br />
z, y, w<br />
❄<br />
<strong>Optimisation</strong>s disciplinaires<br />
Y<br />
❄<br />
Contruction de méta-modèles disciplinaires<br />
Ŷ<br />
❄<br />
<strong>Optimisation</strong> système<br />
[z opt , y opt , w opt ]<br />
❄<br />
Convergence ? Y − Ŷ non<br />
✲ Réduction des intervalles de z, y, <strong>et</strong> w<br />
oui<br />
❄<br />
Stop<br />
Fig. 2.7 Diagramme de la formulation BLISS 2000.<br />
2.2.7 DIVE : Disciplinary Interaction Variable Elimination<br />
La formulation DIVE, inspirée de la méthode BLISS 2000 (cf section 2.2.6), est décrite dans<br />
[MPHC08].<br />
Principe<br />
C'est une méthode multi-niveaux où le couplage est géré avec une MDA. Comme son nom<br />
l'indique, c<strong>et</strong>te méthode cherche à réduire la complexité du problème d'optimisation par une<br />
élimination en trois temps des diérents types de variables.<br />
Élimination des variables locales x<br />
Dans un premier temps, chaque discipline optimise par rapport à ses variables locales x,<br />
an de minimiser une fonction objectif qui lui est propre. Elle doit aussi tenir compte<br />
des contraintes locales. Cela peut être par exemple minimiser la masse pour la discipline<br />
structure ou maximiser la nesse pour le module aérodynamique.<br />
Nous laissons à chaque discipline le soin de dénir sa fonction objectif F i .
52 Les formulations pour l'optimisation multi-disciplinaire<br />
Les problèmes d'optimisation disciplinaires sont alors les suivants :<br />
⎧<br />
⎪⎨ min F i (x i , z, y),<br />
x i<br />
G i (x i , z, y) ≤ 0,<br />
(2.28)<br />
⎪⎩<br />
x l i ≤ x i ≤ x u i .<br />
Les variables locales x i sont donc gérées par les disciplines qui fourniront des sorties optimisées<br />
par rapport à ces dernières, <strong>et</strong> elles seront transparentes pour le reste du système.<br />
Dans certains cas, il est plus commode de traiter les variables locales comme des variables<br />
globales. On évite de faire une optimisation par rapport à x à chaque sollicitation de la<br />
discipline.<br />
Élimination des variables de couplage y<br />
Les variables de couplage y doivent minimiser les résidus de l'équation d'état :<br />
min<br />
y<br />
‖Y (z, y) − y‖ 2 . (2.29)<br />
C<strong>et</strong>te approche spécique à la méthode DIVE pour résoudre les équations d'état du système<br />
dière des autres formulations où l'on trouve le plus souvent l'utilisation d'une méthode de<br />
point xe (MDF : cf section 2.2.1, BLISS : cf section 2.2.5) ou bien l'ajout de contraintes<br />
d'égalité (IDF : cf section 2.2.2, CO : cf section 2.2.4). C<strong>et</strong>te caractéristique fait de DIVE<br />
une méthode plus robuste, car elle pose mieux le problème de résolution de l'équation<br />
d'état <strong>et</strong> perm<strong>et</strong> de le traiter de façon plus ecace avec des techniques de minimisation<br />
classiques. La méthode de Gauss-Newton est certainement la mieux adaptée à la résolution<br />
de ce type de problèmes. On trouve aussi des cas où la méthode de point xe s'avère très<br />
ecace.<br />
Élimination des variables globales z<br />
Les variables partagées sont traitées au niveau de l'optimiseur système. Les contraintes ne<br />
pouvant pas être satisfaites aux niveaux disciplinaires seront remontées au niveau système,<br />
où elles ne dépendent désormais que des variables partagées z.<br />
Les disciplines utilisent des méta-modèles pour leurs sorties, comme ceux vus en section<br />
2.1.5. Ces méta-modèles disciplinaires renvoient, en plus des sorties Y , un indice α i sur la<br />
abilité de la réponse fournie par le méta-modèle. Lorsque α i < 0, le méta-modèle est valide<br />
en ce point, sinon, il faut le réévaluer, an d'avoir une évaluation disciplinaire correcte. C<strong>et</strong><br />
indice, qui peut traduire la fonction indicatrice d'une région de conance, perm<strong>et</strong> de savoir<br />
s'il faut ou non réactualiser le méta-modèle disciplinaire.<br />
Le problème qu'il faut résoudre au niveau global est le suivant :<br />
⎧<br />
min F (x, z, y),<br />
⎪⎨ z<br />
G i (z) ≤ 0,<br />
(2.30)<br />
α i (z) ≤ 0,<br />
⎪⎩<br />
z l ≤ z ≤ z u .<br />
La solution obtenue doit satisfaire plusieurs conditions pour être considérée comme solution<br />
du problème de conception :<br />
la abilité de chaque méta-modèle doit être vériée au point optimal ;<br />
si l'optimum est situé sur le bord du domaine de validité du méta-modèle (c'est-à-dire<br />
lorsque l'indice de abilité vérie α i = 0), il faut réévaluer ce méta-modèle autour de<br />
l'optimum <strong>et</strong> relancer l'optimisation ;
2.2 Les formulations MDO 53<br />
si les équations d'état ne sont pas résolues de manière assez précise, il faut aussi réévaluer<br />
les méta-modèles.<br />
La conguration va ainsi évoluer dans l'espace de conception, jusqu'à l'obtention d'une<br />
solution globale.<br />
Algorithme<br />
L'algorithme de la méthode DIVE est le suivant :<br />
1. initialisation des variables z <strong>et</strong> des méta-modèles disciplinaires ;<br />
2. élimination des variables locales x ;<br />
3. élimination des variables de couplage y ;<br />
4. résolution du problème d'optimisation en z ;<br />
5. vérication de la qualité de la solution optimale z opt :<br />
si la solution est sur le bord du domaine de validité, ou si les équations d'état ne sont<br />
pas satisfaites : ré-actualisation des méta-modèles autour de ce point,<br />
si c<strong>et</strong>te solution est valide, arrêt.<br />
Remarques<br />
Voici les principales particularités de c<strong>et</strong>te formulation :<br />
le choix des optimisations disciplinaires est laissé aux expert des disciplines (un exemple<br />
de choix de fonctions coût allant dans le sens de la fonction objectif globale est donné pour<br />
le cas-test Sobieski (cf section 1.2.2)) ;<br />
une importance particulière est donnée à la résolution précise des équations d'état en<br />
formulant c<strong>et</strong>te étape comme un problème d'optimisation <strong>et</strong> en vériant qu'à l'optimum<br />
ces équations sont bien résolues de manière précise ;<br />
l'évaluation de la abilité des méta-modèles disciplinaires fait de la méthode DIVE une<br />
généralisation de la méthode des régions de conance ;<br />
dans certaines circonstances, la formulation DIVE est similaire à d'autres formulations :<br />
si l'on n'utilise pas de méta-modèles <strong>et</strong> que l'on considère toutes les variables au niveau<br />
global, cela revient à la formulation MDF ;<br />
l'évaluation de la qualité de l'optimum, par rapport à la abilité donnée par chacun des<br />
méta-modèles disciplinaires <strong>et</strong> à la précision de la résolution des équations d'état, assure<br />
la robustesse de c<strong>et</strong>te méthode.<br />
La méthode DIVE est inspirée de la méthode BLISS 2000, les principales diérences entre<br />
ces deux formulations sont les suivantes.<br />
Les fonctions coût disciplinaires sont déterminées par la discipline. Ce n'est pas une somme<br />
pondérée par les variables w comme avec BLISS 2000. On réduit le nombre de variables à<br />
gérer au niveau système, car les poids n'interviennent pas dans DIVE.<br />
Pour BLISS 2000, les variables de couplage sont traitées au même niveau que les variables<br />
partagées, avec une pénalisation de l'équation d'état. Pour DIVE, elles sont traitées séparément<br />
en amont. On réduit encore le nombre de variables au niveau système on résout<br />
avec précision l'équation d'état.<br />
An de prouver la viabilité de c<strong>et</strong>te formulation, on peut utiliser par exemple les méta-modèles<br />
linéaires (cf section 2.1.5), avec une région de conance assez p<strong>et</strong>ite pour assurer la convergence
54 Les formulations pour l'optimisation multi-disciplinaire<br />
du processus.<br />
Le schéma de la formulation DIVE est exposé sur la gure 2.8.<br />
NON<br />
z opt acceptable ?<br />
✻<br />
OUI<br />
✲<br />
z opt<br />
Niveau système<br />
min F (z)<br />
z<br />
sous contraintes :<br />
G(z) ≤ 0<br />
α i ≤ 0, indices de abilité des méta-modèles<br />
z l ≤ z ≤ z u<br />
z<br />
✛<br />
Y<br />
α i<br />
❄<br />
Élimination des variables de couplage<br />
min<br />
y<br />
‖Y − y‖ 2<br />
✻<br />
Y<br />
y<br />
❄<br />
Niveau disciplinaire<br />
D 1 : x 1<br />
D 2 : x 2<br />
✻<br />
✻<br />
✲<br />
Actualise Méta-Modèles<br />
Fig. 2.8 Diagramme de la formulation DIVE.<br />
Conclusion<br />
Nous avons dressé un état de l'art des formulations MDO dans ce chapitre, en dénissant<br />
les éléments de base <strong>et</strong> en montrant les diérentes manières de les assembler pour en faire des<br />
stratégies d'optimisation.<br />
Le prochain chapitre va s'intéresser à la mise en ÷uvre pratique <strong>et</strong> à l'implémentation informatique<br />
des formulations MDO. Il faudra parfois prendre quelques libertés par rapport aux
2.2 Les formulations MDO 55<br />
dénitions des formulations données dans la littérature, <strong>et</strong> y apporter quelques modications,<br />
pour les appliquer aux diérents cas-tests. Nous nous intéresserons aussi à la substitution des<br />
codes de calcul disciplinaires par des méta-modèles linéaires <strong>et</strong> adaptatifs.
Chapitre 3<br />
Implémentation des formulations MDO<br />
Sommaire<br />
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58<br />
3.1 Implémentation sous ModelCenter . . . . . . . . . . . . . . . . . . . . 58<br />
3.1.1 Les composants discipline du cas-test SSBJ . . . . . . . . . . . . . . . 59<br />
3.1.2 MDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60<br />
3.1.3 IDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />
3.1.4 CO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />
3.1.5 DIVE (optimisation disciplinaire) . . . . . . . . . . . . . . . . . . . . . . 64<br />
3.1.6 R<strong>et</strong>our d'expérience de ModelCenter . . . . . . . . . . . . . . . . . . . . 65<br />
3.2 Implémentation sous Scilab . . . . . . . . . . . . . . . . . . . . . . . . 66<br />
3.2.1 Principes repris de ModelCenter . . . . . . . . . . . . . . . . . . . . . . 67<br />
3.2.2 Implémentation des formulations MDO . . . . . . . . . . . . . . . . . . 67<br />
3.2.3 Cas particulier de BLISS . . . . . . . . . . . . . . . . . . . . . . . . . . 70<br />
3.2.4 Outils supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71<br />
3.2.5 Interface graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71<br />
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
58 Implémentation des formulations MDO<br />
Introduction<br />
Nous allons voir dans ce chapitre diérentes voies pour implémenter les formulations MDO.<br />
Nous proposons ici deux approches conceptuellement opposées : tout d'abord, l'utilisation de<br />
ModelCenter, un logiciel payant dédié à l'intégration de processus distribués, puis l'utilisation<br />
de Scilab, un logiciel libre pour le calcul scientique. Le choix de ces deux logiciels s'inscrit dans<br />
le contexte des proj<strong>et</strong>s liés à la thèse. En e<strong>et</strong>, l'implémentation des formulations MDO sous<br />
ModelCenter a été motivée par le proj<strong>et</strong> DOOM, <strong>et</strong> l'utilisation du logiciel Scilab vient du proj<strong>et</strong><br />
OMD-RNTL, qui cherche à promouvoir ce logiciel.<br />
Dans une première partie, nous allons examiner l'implémentation sous ModelCenter, qui est<br />
un logiciel facile d'utilisation <strong>et</strong> très pratique pour la MDO, mais payant. Nous y intégrons le<br />
cas-test Sobieski vu dans le chapitre 1 (cf section 3.1.1) <strong>et</strong> nous implémentons les formulations<br />
MDF, IDF , CO <strong>et</strong> DIVE (cf sections 3.1.2 à 3.1.5), à l'aide des outils proposés par le logiciel.<br />
Nous ne parlons pas ici des méta-modèles.<br />
Puis nous allons voir dans une deuxième partie la mise en place sous Scilab d'une <strong>application</strong><br />
dotée d'une interface graphique pour la MDO, ainsi que l'implémentation des formulations. L'implémentation<br />
sous ModelCenter a permis de se faire la main sur l'implémentation des méthodes<br />
<strong>et</strong> d'en tirer quelques enseignements. Les principes vus sous ModelCenter peuvent être repris<br />
pour notre <strong>application</strong> développée sous Scilab (cf section 3.2.1). En particulier, nous pouvons<br />
reprendre le principe qui consiste à partir de l'implémentation d'une formulation pour en créer<br />
une autre. Nous cherchons alors à implémenter les formulations de la manière la plus générale<br />
qui soit. On propose le choix d'utiliser l'optimisation des variables locales ou non, ou encore le<br />
choix d'utiliser les méta-modèles linéaires ou non. An d'obtenir des résultats complémentaires,<br />
nous développons aussi des outils, comme les points de départ multiples ou la construction de<br />
front de Par<strong>et</strong>o (cf section 3.2.4). L'<strong>application</strong> prendra la forme d'une interface graphique qui<br />
perm<strong>et</strong>tra entre autres, de choisir les paramètres de l'optimisation, d'exécuter les formulations<br />
MDO <strong>et</strong> de visualiser l'évolution des variables <strong>et</strong> des sorties (cf section 3.2.5).<br />
Nous présenterons les avantages <strong>et</strong> inconvénients des deux approches, l'une avec ModelCenter,<br />
facile d'accès mais où il devient dicile de sortir des sentiers battus (que ce soit pour des raisons<br />
de prix, ou parce qu'il est dicile d'implémenter de nouveaux outils pour la MDO), <strong>et</strong> l'autre avec<br />
Scilab, où l'on possède une grande liberté d'action <strong>et</strong> une grande maîtrise de l'environnement,<br />
mais où chaque outil reste à créer, ce qui demande un eort conséquent en implémentation.<br />
3.1 Implémentation sous ModelCenter<br />
Dans c<strong>et</strong>te partie, nous présentons l'implémentation du cas-test Sobieski (cf section 1.2) sous<br />
ModelCenter. Le logiciel ModelCenter est un logiciel développé par la société Phoenix.Il est<br />
très ergonomique <strong>et</strong> perm<strong>et</strong> de m<strong>et</strong>tre en place rapidement des modèles <strong>et</strong> analyses de système,<br />
<strong>et</strong> de les coupler avec des optimiseurs, avec comme particularité la possibilité d'accéder à des<br />
modèles distribués via le réseau (protocole HTTP). Les diérentes disciplines ont été codées en<br />
Fortran. Elles se présentent dans ModelCenter sous forme de composants. Un composant est<br />
l'encapsulation d'un code de calcul dont on décrit, à l'aide d'un langage de script, les entrées <strong>et</strong><br />
sorties d'exécution.<br />
Le logiciel propose des composants spéciques :<br />
un composant nommé convergeur, pour la recherche de zéros. Il perm<strong>et</strong>, lorsqu'on lui spécie<br />
les variables de couplage <strong>et</strong> les sorties associées, de trouver l'équilibre interdisciplinaire
3.1 Implémentation sous ModelCenter 59<br />
à l'aide d'une méthode de point xe (cf section 2.1.2) ;<br />
un composant pour l'optimisation. Il propose plusieurs algorithmes, dont un dérivé de SQP<br />
<strong>et</strong> distribué par Vanderplaast R&D : DOT-SQP (voir [Van01a]). On lui spécie les sorties<br />
qui détermineront les fonctions coût <strong>et</strong> contraintes, ainsi que les variables à optimiser. On<br />
dénit ainsi le problème d'optimisation global. On peut attribuer un optimiseur une discipline<br />
ou un sous-ensemble de composants, pour qu'il optimise ses variables locales par<br />
rapport à un objectif qui lui est propre.<br />
Les liens entres les diérentes disciplines, le composant convergeur <strong>et</strong> les modules d'optimisation<br />
sont créés grâce à l'éditeur de liens proposé par le logiciel. On peut ainsi attribuer les<br />
variables aux diérentes disciplines, spécier au composant convergeur les variables de couplage<br />
<strong>et</strong> les sorties associées, spécier aux composants pour l'optimisation les variables à optimiser, <strong>et</strong><br />
spécier quelles sorties seront les objectifs <strong>et</strong> les contraintes de l'optimisation.<br />
Nous allons tout d'abord détailler l'intégration des codes disciplinaires sous forme de composants<br />
(cf section 3.1.1), puis nous allons détailler l'implémentation de quatre formulations<br />
MDO : la méthode MDF, la méthode IDF, la méthode CO <strong>et</strong> la méthode DIVE (cf sections 3.1.2<br />
à 3.1.5).<br />
3.1.1 Les composants discipline du cas-test SSBJ<br />
Les disciplines sont représentées par leur code de calcul. Ici, les codes sont écrits en langage<br />
FORTRAN, <strong>et</strong> fonctionnent avec des chiers de données d'entrée <strong>et</strong> de sortie. Nous pouvons les<br />
intégrer dans ModelCenter sous la forme de composants.<br />
Nous allons prendre l'exemple de la discipline performance qui calcule le rayon d'action. Pour<br />
en faire un composant, nous devons créer un chier Range.filewrapper, qui contient les instructions<br />
RunCommand, RowFieldInputFile inputFile <strong>et</strong> RowFieldOutputFile outputFile.<br />
À l'appel de la discipline, on va exécuter l'instruction RunCommand :<br />
_________________________________________________________________________________<br />
RunCommand<br />
{<br />
generate inputFile<br />
run "Range"<br />
parse outputFile<br />
}<br />
_________________________________________________________________________________<br />
Nous allons détailler les trois temps de l'exécution de c<strong>et</strong>te commande.<br />
1. Dans un premier temps, l'instruction generate inputFile perm<strong>et</strong> de créer un chier<br />
d'entrée Range.txt, à partir des valeurs des variables présentes dans ModelCenter. L'instruction<br />
RowFieldInputFile inputFile 1 décrit le nom du chier à générer, ainsi que<br />
les diérentes variables :<br />
_________________________________________________________________________________<br />
RowFieldInputFile inputFile<br />
{<br />
templateFile: Range.txt.template<br />
fileToGenerate: Range.txt<br />
1 inputFile <strong>et</strong> ouputFile sont des labels perm<strong>et</strong>tant de renvoyer à la section correspondante.
60 Implémentation des formulations MDO<br />
variable: M double 2 4 description="Mach"<br />
variable: H double 3 4 description="Altitude"<br />
variable: Fin double 4 4 description="Finesse"<br />
variable: Wt double 5 5 description="Masse totale"<br />
variable: Wf double 6 6 description="Masse de carburant"<br />
variable: Sfc double 7 5 description="Consommation spécifique"<br />
}<br />
_________________________________________________________________________________<br />
On va donc prendre dans ModelCenter la valeur des diérentes variables d'entrée du code<br />
Range <strong>et</strong> les écrire dans le chier Range.txt :<br />
_________________________________________________________________________________<br />
Valeur courante<br />
M Mach : 1.4<br />
H Altitude : 60000.0<br />
Fin Finesse : 7.172897<br />
Wt Masse totale : 73713.833041<br />
Wf Masse de carburant : 19291.560467<br />
Sfc Consommation spécifique : 0.931565<br />
_________________________________________________________________________________<br />
2. L'instruction run "Range" va exécuter le code de la discipline performance. Ce code ira<br />
lire dans le chier Range.txt les valeurs des variables d'entrée, eectuera le calcul du rayon<br />
d'action <strong>et</strong> écrira les sorties dans le chier ResRange.txt :<br />
_________________________________________________________________________________<br />
R Rayon d'action: 1874.825010<br />
_________________________________________________________________________________<br />
3. Enn, l'instruction parse outputFile perm<strong>et</strong> à ModelCenter de lire les valeurs des sorties<br />
dans le chier ResRange.txt :<br />
_________________________________________________________________________________<br />
RowFieldOutputFile outputFile<br />
{<br />
fileToParse: ResRange.txt<br />
variable: R double 1 4 description="Rayon d'action"<br />
}<br />
_________________________________________________________________________________<br />
Pour intégrer les codes disciplinaires sous forme de composants ModelCenter, il faudra donc<br />
écrire un chier .filewrapper pour chacune des disciplines. À chaque appel d'un code, les<br />
sorties sont gardées en mémoire. On n'exécutera le composant que si les variables d'entrée ont<br />
été modiées depuis le dernier appel.<br />
3.1.2 MDF<br />
La formulation MDF (Multi Disciplinary Feasible, cf section 2.2.1) est la méthode la plus<br />
naturelle : en chaque point de conception, une analyse multi-disciplinaire est eectuée <strong>et</strong> les<br />
sorties sont ensuite communiquées à l'optimiseur. Nous voyons dans la gure 3.1 l'implémentation<br />
de la méthode MDF sous ModelCenter.
3.1 Implémentation sous ModelCenter 61<br />
Fig. 3.1 Implémentation de MDF sous ModelCenter.<br />
Nous voyons sur c<strong>et</strong>te gure les quatre disciplines alignées en diagonale. Les trois premières<br />
en partant du coin en haut à gauche, sont les disciplines de conception (la discipline structure, la<br />
discipline aérodynamique <strong>et</strong> la discipline propulsion). Elle sont reliées au composant convergeur<br />
situé en bas à gauche, qui perm<strong>et</strong> d'eectuer l'analyse multi-disciplinaire.<br />
Ces disciplines, une fois le processus d'équilibre interdisciplinaire convergé, envoient leurs<br />
sorties à la discipline performance située en bas à droite, qui va calculer le rayon d'action (notre<br />
fonction objectif à maximiser) <strong>et</strong> le communiquer à l'optimiseur.<br />
Les valeurs du rayon d'action <strong>et</strong> des contraintes disciplinaires sont visibles dans les tableaux<br />
situés à droite. Nous voyons aussi la valeur des 10 variables de conception dans le tableau situé<br />
en haut à gauche, ainsi que le nombre d'appels aux disciplines dans le tableau situé en haut au<br />
milieu.<br />
Avec l'algorithme DOT-SQP, le calcul des gradients (cf section 2.1.3) est eectué par diérences<br />
nies <strong>et</strong> il n'y a pas la possibilité de fournir les gradients par un autre moyen (par exemple, avec<br />
la méthode GSE). En chaque point de conception où l'on souhaite calculer ce gradient, il faudra<br />
donc faire autant de calculs couplés qu'il y a de variables de conception.<br />
3.1.3 IDF<br />
La méthode IDF (Individual Disciplinary Feasible, cf section 2.2.2), perm<strong>et</strong> de casser les liens<br />
directs qui existent entre les disciplines, <strong>et</strong> de traiter le problème de couplage non plus au niveau<br />
de l'analyse du système, mais désormais au niveau de l'optimiseur. Nous voyons sur la gure 3.2<br />
l'implémentation de la méthode IDF sous ModelCenter.<br />
Comme nous pouvons le voir sur la gure, dans le tableau en haut à gauche, le nombre de<br />
variables à optimiser a augmenté. L'optimiseur gère désormais les variables de conception <strong>et</strong> les<br />
variables de couplage. Les quatre disciplines sont situées sur la diagonale. Elles ne sont plus<br />
reliées entre elles au travers du convergeur, comme pour la méthode MDF (cf section 3.1.2). Le
62 Implémentation des formulations MDO<br />
Fig. 3.2 Implémentation de IDF sous ModelCenter.<br />
couplage est géré par l'optimiseur avec l'ajout de contraintes d'égalité sur l'équation d'état (cf<br />
section 2.1.2) :<br />
y − Y (p, y) = 0 (3.1)<br />
Ces contraintes doivent être normalisées, on utilisera par exemple les contraintes suivantes :<br />
y − Y (p, y)<br />
Y (p, y)<br />
= 0 (3.2)<br />
En pratique, l'algorithme DOT-SQP ne propose pas de prendre en compte les contraintes d'égalité.<br />
Une solution est de changer c<strong>et</strong>te contrainte en deux contraintes d'inégalité :<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
y − Y (p, y)<br />
− ≤ 0<br />
Y (p, y)<br />
y − Y (p, y)<br />
≤ 0<br />
Y (p, y)<br />
L'algorithme DOT-SQP possède comme paramètre de réglage le seuil d'activation des contraintes<br />
c a , ainsi que le seuil de violation des contraintes c v (c a <strong>et</strong> c v sont strictement positifs).<br />
(3.3)<br />
Soit G i (p, y) une contrainte d'inégalité (on va chercher à avoir G i (p, y) < 0 ,<br />
lorsque G i (p, y) ≥ −c a , la contrainte est considérée comme active, elle doit être prise en<br />
compte ;<br />
lorsque G i (p, y) ≥ c v , la contrainte est dépassée, il faut faire en sorte de la réduire.<br />
Nous voyons sur la gure 3.3, une illustration de ces paramètres.<br />
Si l'on choisit ces paramètres trop p<strong>et</strong>its, l'optimiseur s'arrête prématurément, avec une erreur<br />
signalant qu'il ne peut pas satisfaire les contraintes d'égalité. Si on les relâche trop, les valeurs<br />
des variables de couplage ne sont plus ables, <strong>et</strong> les valeurs des fonctions objectif <strong>et</strong> contraintes<br />
ne sont plus valables : on arrive à des performances intéressantes, mais qui ne reètent plus la<br />
réalité. Ce dosage empirique <strong>et</strong> délicat détermine très fortement l'issue de l'optimisation.
3.1 Implémentation sous ModelCenter 63<br />
G(p,y)>0<br />
G(p,y)
64 Implémentation des formulations MDO<br />
locales, <strong>et</strong> il n'y a plus de copie des variables partagées. Ici, les disciplines cherchent à ce que<br />
leurs sorties correspondent aux valeurs demandées par le système, tout en respectant leurs propres<br />
contraintes.<br />
Par exemple, le système va donner une masse totale y W T <strong>et</strong> un angle de vrillage yΘ comme<br />
objectifs à la discipline structure. Pour déterminer ses variables locales que sont x la section de<br />
caisson <strong>et</strong> λ l'element, c<strong>et</strong>te discipline doit résoudre le problème suivant :<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
min<br />
x,λ (yΘ − Y Θ ) 2 + (y W T<br />
− Y W T<br />
) 2 ,<br />
sous contraintes :<br />
0.98 ≤ Y Θ ≤ 1.02,<br />
σ 1 → σ 5 ≤ 1.09.<br />
À chaque appel d'une discipline, on lance une optimisation disciplinaire.<br />
De même que pour la méthode IDF (cf section 3.1.3), l'équilibre interdisciplinaire est alors<br />
assuré par la contrainte normalisée :<br />
y − Y<br />
= 0. (3.5)<br />
Y<br />
Nous r<strong>et</strong>rouvons ici la même diculté pour le réglage des paramètres de seuil d'activation <strong>et</strong><br />
de violation des contraintes spéciques à l'algorithme DOT-SQP.<br />
(3.4)<br />
3.1.5 DIVE (optimisation disciplinaire)<br />
La méthode DIVE (Disciplinary Interaction Variable Elimination, cf section 2.2.7) essaie de<br />
réduire la complexité du problème global en éliminant successivement les diérentes variables.<br />
Nous implémentons ici une version sans la gestion des méta-modèles, <strong>et</strong> nous ferons appel aux<br />
vrais codes disciplinaires. La gure 3.5 expose l'implémentation de la méthode DIVE.<br />
Fig. 3.5 Implémentation de DIVE sous ModelCenter.
3.1 Implémentation sous ModelCenter 65<br />
La première étape de la méthode DIVE est l'élimination des variables locales. Les trois<br />
disciplines de conception sont couplées avec un optimiseur. Les optimisations locales se font<br />
selon des critères choisis au préalable. Dans notre cas, nous choisissons de minimiser la masse<br />
totale W T pour la structure, maximiser la nesse L/D pour l'aérodynamique <strong>et</strong> minimiser la<br />
consommation spécique du moteur SF C pour la propulsion (ce choix de fonctions objectif<br />
disciplinaires est justié dans la section 1.2.2).<br />
La deuxième étape consiste en l'élimination des variables de couplage. Les disciplines sont<br />
reliées entre elles par le module convergeur. Ce dernier va chercher les valeurs des variables<br />
de couplage qui vont satisfaire l'équation d'état interdisciplinaire. On peut aussi remplacer le<br />
composant convergeur par un composant optimiseur, <strong>et</strong> poser le problème de cohérence interdisciplinaire<br />
comme un problème d'optimisation.<br />
Enn, la troisième étape consiste à eectuer l'optimisation globale. L'optimiseur principal<br />
(ou système) ne gère ici que les variables partagées <strong>et</strong> va chercher à optimiser le rayon d'action,<br />
tout en s'occupant des contraintes qui n'ont pas été satisfaites lors des optimisations locales.<br />
En pratique, l'algorithme est le suivant :<br />
1. l'optimiseur système gère les variables partagées, <strong>et</strong> cherche à maximiser le rayon d'action ;<br />
2. pour chaque calcul du rayon d'action, le composant convergeur est mis en route pour<br />
rechercher la cohérence disciplinaire, il s'occupe des variables d'interaction ;<br />
3. enn, à chaque fois que le composant convergeur fait appel à une discipline, une optimisation<br />
des variables locales correspondantes est eectuée.<br />
3.1.6 R<strong>et</strong>our d'expérience de ModelCenter<br />
Nous avons vu dans c<strong>et</strong>te section l'implémentation du cas-test SSBJ sous ModelCenter <strong>et</strong> de<br />
plusieurs formulations MDO, à savoir les méthodes MDF, IDF, IDF séquentiel, CO <strong>et</strong> DIVE.<br />
Nous pouvons désormais faire le point sur les diérents avantages <strong>et</strong> inconvénients que l'on peut<br />
rencontrer lors de l'utilisation de ce logiciel.<br />
Les principaux avantages de ModelCenter sont :<br />
• une grande simplicité d'utilisation, il est facile de créer des composants à partir de codes<br />
existants, <strong>et</strong> de les coupler avec les optimiseurs ;<br />
• c'est un outil ergonomique, on voit graphiquement l'organisation de notre système <strong>et</strong> on<br />
peut interpréter rapidement les diérentes formulations ;<br />
• il est intuitif, on peut facilement jongler avec les diérentes variables, grâce au link editor ;<br />
• le module d'optimisation DOT-SQP est un outil ecace <strong>et</strong> robuste, <strong>et</strong> il est très pratique de<br />
pouvoir créer autant de composants optimiseur que l'on souhaite ;<br />
• de nombreux outils perm<strong>et</strong>tent d'analyser les résultats ;<br />
• il perm<strong>et</strong> d'exécuter des codes situés sur diérentes machines éloignées physiquement.<br />
Cependant, il y a aussi plusieurs inconvénients :<br />
• le module d'optimisation DOT-SQP ne perm<strong>et</strong> pas de choisir le mode de calcul des gradients<br />
ou d'intégrer nos propres gradients. Seul le calcul de gradients par diérences nies est<br />
disponible. On ne peut donc pas utiliser la méthode GSE (cf section 2.1.3), qui perm<strong>et</strong>trait<br />
de gagner un temps conséquent sur le calcul des gradients.<br />
• il est possible d'intégrer ses propres codes d'optimisation, dans lesquels on pourrait fournir<br />
les gradients, mais cela constitue un travail d'informaticien chevronné.<br />
• c'est un logiciel qui coûte assez cher : la licence de base ne fournit pas tous les diérents<br />
outils <strong>et</strong> l'on est contraint de payer, à chaque fois que l'on doit utiliser de nouveaux mod-
66 Implémentation des formulations MDO<br />
ules (par exemple le module DARWIN pour l'optimisation avec des algorithmes génétiques).<br />
C<strong>et</strong> outil présente donc l'avantage d'être pratique, intuitif <strong>et</strong> simple d'utilisation. Mais son<br />
utilisation est limitée par son coût <strong>et</strong> l'intégration de nouveaux outils d'optimisation n'est pas<br />
une tâche aisée.<br />
3.2 Implémentation sous Scilab<br />
Une alternative à ModelCenter est d'utiliser un logiciel libre, <strong>et</strong> nous allons voir dans c<strong>et</strong>te<br />
section l'implémentation des formulations MDO sous Scilab 2 . Nous pourrons nous inspirer des<br />
principes <strong>et</strong> des outils vus avec ModelCenter, <strong>et</strong> en établir de nouveaux. Ce logiciel présente<br />
l'avantage d'être gratuit <strong>et</strong> nous donne la possibilité d'en maîtriser chaque partie. Cependant ce<br />
n'est pas un logiciel conçu spécialement pour l'optimisation multi-disciplinaire <strong>et</strong> son utilisation<br />
pour la MDO va demander un plus grand eort de programmation. Comme son nom l'indique :<br />
Scilab pour Scientic Laboratory, est un logiciel dédié au calcul scientique. Il se présente<br />
comme une alternative libre au logiciel commercial Matlab 3 . Le choix du logiciel Scilab pour<br />
l'implémentation des formulations MDO n'est pas anodin. Tout d'abord, des logiciels comme<br />
Scilab ou Matlab orent la possibilité d'implémenter <strong>et</strong> de tester des programmes rapidement.<br />
Un des avantages de Scilab par rapport à Matlab est que, même s'il ne regroupe pas tous les<br />
outils présents dans Matlab, il perm<strong>et</strong> de réaliser la plupart des programmes courants <strong>et</strong> surtout<br />
il est gratuit. De plus, un des objectifs du proj<strong>et</strong> OMD-RNTL est de promouvoir l'utilisation du<br />
logiciel Scilab. Il était donc important, dans ce contexte, de développer une <strong>application</strong> avec ce<br />
logiciel. Nous donnons dans c<strong>et</strong>te section un plan d'ensemble des ambitions de ce logiciel. Le but<br />
de c<strong>et</strong> outil est de prouver la capacité du logiciel Scilab pour l'optimisation multi-disciplinaire.<br />
Pour cela, on souhaite créer un programme perm<strong>et</strong>tant de tester ces diérentes méthodes sur<br />
plusieurs cas-tests.<br />
L'implémentation sous ModelCenter nous a permis de comprendre certains principes que<br />
nous pouvons reprendre pour ce programme sous Scilab (cf section 3.2.1).<br />
Nous souhaitons créer un outil qui puisse être utilisé par plusieurs cas-tests. Nous m<strong>et</strong>tons en<br />
place une interface entre les codes de calcul <strong>et</strong> notre programme. Nous implémentons des outils<br />
pour l'optimisation multi-disciplinaire, qui seront utilisables par n'importe quel code de calcul<br />
disciplinaire, <strong>et</strong> par conséquent tout cas-test pourra être réalisé.<br />
Les formulations MDO possèdent souvent plusieurs points communs, <strong>et</strong> on peut passer de<br />
l'une à l'autre en changeant certains éléments de l'implémentation. Par exemple, la méthode<br />
MDF utilise une analyse système de type MDA. Lorsqu'on choisit d'utiliser une analyse système<br />
de type IDA (pour laquelle les disciplines sont appelées indépendamment, <strong>et</strong> où la cohérence<br />
interdisciplinaire est assurée par des contraintes d'égalité) nous obtenons la méthode IDF. Nous<br />
allons donc implémenter les formulations MDO de la manière la plus générale possible (cf section<br />
3.2.2).<br />
Nous proposons notamment le choix de la fonction objectif <strong>et</strong> des contraintes sur les sorties<br />
an de ne pas se limiter à un seul problème d'optimisation.<br />
Des outils qui perm<strong>et</strong>tront d'obtenir des résultats supplémentaires sont réalisés, comme les<br />
points de départ multiples ou la construction de fronts de Par<strong>et</strong>o (cf section 3.2.4).<br />
L'<strong>application</strong> prendra la forme d'une interface graphique, qui perm<strong>et</strong>tra entre autres, de<br />
choisir les paramètres de l'optimisation, d'exécuter les formulations MDO <strong>et</strong> de visualiser l'évolution<br />
des variables <strong>et</strong> des sorties (cf section 3.2.5).<br />
2 http ://www.scilab.org<br />
3 http ://www.mathworks.fr
3.2 Implémentation sous Scilab 67<br />
3.2.1 Principes repris de ModelCenter<br />
La mise en place des formulations MDO sous ModelCenter (cf section 3.1) a permis de nous<br />
faire une première expérience, <strong>et</strong> d'en tirer quelques enseignements sur leur implémentation. Nous<br />
r<strong>et</strong>enons tout particulièrement trois points.<br />
1. Sous ModelCenter, les codes disciplinaires ne sont exécutés que dans le cas où les variables<br />
d'entrée ont été modiées depuis le dernier appel ; an d'éviter les calculs inutiles, nous<br />
pouvons donc garder en mémoire les dernières sorties <strong>et</strong> faire un test sur les variables, <strong>et</strong><br />
ainsi réduire le nombre d'appels aux codes de calcul ;<br />
2. L'optimiseur DOT-SQP disponible sous ModelCenter gère les contraintes d'égalité sous la<br />
forme de deux contraintes d'inégalité (Y − y < 0 <strong>et</strong> Y − y > 0), nous pouvons implémenter<br />
les contraintes d'égalité sous c<strong>et</strong>te forme, ou bien de façon classique (Y − y = 0) ;<br />
3. On peut partir de l'implémentation d'une formulation pour en créer une autre. Par exemple,<br />
en partant de la formulation MDF, si l'on supprime le composant convergeur qui assure<br />
la cohérence interdisciplinaire, <strong>et</strong> que l'on ajoute des contraintes d'égalité pour assurer<br />
c<strong>et</strong>te cohérence, on obtient la formulation IDF. Toujours en partant de la formulation<br />
MDF, si l'on attribue des optimiseurs locaux à chaque discipline, on se rapproche, en<br />
première analyse, de la formulation DIVE. Dans notre logiciel sous Scilab, nous cherchons<br />
à implémenter les formulations de la manière la plus générale qui soit. Cela perm<strong>et</strong>tra de<br />
passer facilement d'une formulation à l'autre.<br />
3.2.2 Implémentation des formulations MDO<br />
Nous cherchons à implémenter les formulations MDO de la manière la plus générale possible.<br />
Nous nous inspirons fortement de la méthode DIVE (cf section 2.2.7). Comme nous pouvons le<br />
voir sur la gure 3.6, une formulation MDO peut se composer de trois parties.<br />
1. Niveau disciplinaire : à ce niveau, nous dénissons le type d'appel aux disciplines.<br />
Les disciplines peuvent être appelées de façon normale, ou bien elles peuvent être reliées à<br />
un optimiseur qui va eectuer l'optimisation des variables locales, à chaque appel du code<br />
de calcul disciplinaire.<br />
Ces réponses disciplinaires (optimisées localement ou non) peuvent être approchées par des<br />
méta-modèles. Chaque discipline doit être en mesure de proposer le méta-modèle qui lui<br />
convient le mieux. Au niveau système, nous considérons que les réponses des sollicitations<br />
aux disciplines sont fournies par les méta-modèles. L'appel brut au code disciplinaire doit<br />
être considéré comme un méta-modèle valide en chaque point.<br />
An de prouver la viabilité de l'utilisation des méta-modèles dans un processus d'optimisation<br />
multi-disciplinaire, nous proposons ici des approximations linéaires, avec une taille<br />
de région de conance xe. Nous chercherons empiriquement la bonne taille qui perm<strong>et</strong>te<br />
d'assurer la cohérence des sorties au cours de l'optimisation, tout en laissant la possibilité<br />
d'atteindre rapidement l'optimum. Nous faisons l'hypothèse que, si c<strong>et</strong>te méthode marche<br />
avec ces méta-modèles très simples, alors elle ne pourra que mieux fonctionner avec d'autres<br />
méta-modèles plus élaborés, <strong>et</strong> surtout plus adaptés 4 .<br />
2. Niveau système : nous pouvons faire le choix entre deux types d'analyses système.<br />
4 Il faut garder à l'esprit que la complexité d'un méta-modèle ne fait pas toujours son ecacité ; il reste à<br />
trouver une approximation qui soit en adéquation avec la modélisation disciplinaire.
68 Implémentation des formulations MDO<br />
Initialiser / Régénérer Méta-modèles<br />
✲<br />
Mode d'appel aux disciplines<br />
• optimisation locale :<br />
✲<br />
D ✛ Optimiseur local<br />
ou<br />
• appel normal<br />
Type de Méta-modèle<br />
• code de calcul brut<br />
ou<br />
• approximation linéaire<br />
Méta-modèles disciplinaires<br />
❄<br />
Analyse système<br />
Type analyse système<br />
• MDA<br />
ou<br />
- point xe<br />
- Gauss-Newton<br />
- optimisation<br />
• IDA<br />
Calcul de gradient<br />
si MDA :<br />
• diérences nies<br />
ou<br />
• GSE<br />
Sorties, Gradients<br />
❄<br />
✻<br />
Variables<br />
<strong>Optimisation</strong> système<br />
Optimiseur système<br />
• CFSQP<br />
ou<br />
• LIN<br />
Cohérence interdisciplinaire<br />
si IDA :<br />
• Y − y = 0<br />
ou<br />
• |Y − y| < ε<br />
Point optimal<br />
❄<br />
Non<br />
• méta-modèle valide ?<br />
• équation d'état résolue ?<br />
Oui<br />
✲ Convergence<br />
Fig. 3.6 Implémentation des formulations MDO sous Scilab.
3.2 Implémentation sous Scilab 69<br />
• MDA (Multi-Disciplinary Analysis) : les disciplines sont dépendantes les unes des autres.<br />
L'analyse système perm<strong>et</strong> de résoudre l'équation d'état interdisciplinaire <strong>et</strong> de dénir<br />
ainsi la valeur des variables d'interaction. Pour eectuer c<strong>et</strong>te MDA, nous pouvons<br />
choisir les méthodes de point xe, de Gauss-Newton <strong>et</strong> de minimisation vues dans la<br />
section 2.1.2.<br />
Lorsque l'on choisit une analyse système de type MDA, on peut aussi faire un choix pour<br />
le calcul des gradients : utiliser les diérences nies ou bien la méthode GSE.<br />
• IDA (Individual Disciplinary Analysis) : les disciplines sont considérées indépendantes.<br />
On ne tient pas compte à ce niveau de l'interaction entre les disciplines. L'équilibre<br />
interdisciplinaire est assuré par des contraintes d'égalité au niveau de l'optimiseur.<br />
Pour l'analyse système de type IDA, on peut faire le choix de considérer ces contraintes<br />
d'égalité en tant que telles (Y − y = 0), ou bien de les considérer comme des contraintes<br />
d'inégalité (|Y − y| < ε).<br />
3. Optimiseur système : dans le logiciel Scilab, il n'y a pas d'optimiseur perm<strong>et</strong>tant de<br />
gérer les contraintes d'égalité ou d'inégalité non linéaires.<br />
Il existe cependant une interface avec le code CFSQP [Law01] qui implémente la méthode<br />
SQP (Sequential Quadratic Programming).<br />
Il existe aussi la fonction linpro qui perm<strong>et</strong> de résoudre des problèmes d'optimisation<br />
linéaires. Nous pouvons créer avec c<strong>et</strong>te fonction une méthode itérative, qui linéarise notre<br />
problème <strong>et</strong> qui utilise la méthode des régions de conance. Nous appelons c<strong>et</strong> optimiseur<br />
LIN. C<strong>et</strong> optimiseur est détaillé en annexe B.3<br />
Ce logiciel propose le choix parmi ces deux optimiseurs système.<br />
Nous pouvons alors dénir 6 choix pour l'implémentation d'une formulation MDO : 3 choix<br />
majeurs qui détermineront sa nature <strong>et</strong> 3 choix mineurs qui seront des options supplémentaires.<br />
Ces choix sont proposés par l'interface graphique (cf gure 3.7).<br />
Choix majeurs :<br />
Fig. 3.7 Fenêtre de choix pour la formulation MDO.<br />
• optimisation disciplinaire : sans ou avec optimisation disciplinaire de type CO ou<br />
DIVE ;
70 Implémentation des formulations MDO<br />
• méta-modèle disciplinaire : sans ou avec utilisation d'approximations linéaires ;<br />
• analyse du système : MDA ou IDA.<br />
Choix mineurs :<br />
• optimiseur système : CFSQP ou LIN ;<br />
• calcul de gradient (si MDA) : diérences nies ou GSE ;<br />
• contraintes d'égalité sur l'équation d'état (si IDA) : Y − y = 0 ou |Y − y| < ε.<br />
L'exécution de la formulation MDO va donc se dérouler de la sorte :<br />
1. Initialisation / Régénération des méta-modèles :<br />
Si nous utilisons des méta-modèles, ces derniers sont actualisés au point courant. Leur domaine<br />
de validité est déni. Lorsqu'il n'y a pas de méta-modèle, nous utilisons directement<br />
les sorties des codes de calcul disciplinaires (optimisées par rapport aux variables locales<br />
ou non) <strong>et</strong> nous les considérons pour la suite comme des méta-modèles valides en tout point.<br />
2. <strong>Optimisation</strong><br />
L'optimisation se déroule au travers des méta-modèles. Pour dénir le problème d'optimisation<br />
nous devons :<br />
choisir une des sorties des disciplines comme notre fonction objectif à maximiser ou<br />
minimiser,<br />
déterminer les valeurs de bornes pour les variables en fonction des régions de conance,<br />
xer des bornes pour les sorties, qui déniront nos contraintes d'inégalité.<br />
3. Vérication de la validité du point optimum : on regarde si le point optimal trouvé<br />
satisfait bien les conditions suivantes :<br />
le point trouvé n'est pas sur le bord de la région de conance,<br />
l'équation d'état est bien satisfaite en ce point,<br />
la validité du méta-modèle est maximale en ce point (par exemple, pour les méta-modèles<br />
linéaires, l'évaluation est exacte au centre de la région de conance).<br />
Si oui, nous pouvons considérer que la conguration optimale est atteinte. Dans le cas<br />
contraire, on reprend à partir du point 1.<br />
3.2.3 Cas particulier de BLISS<br />
La formulation BLISS (cf section 2.2.5) dière des autres, dans le sens où les optimisations<br />
locales <strong>et</strong> globales se font en série. Voici l'implémentation faite pour un cycle de BLISS. On<br />
utilise tout d'abord des appels normaux aux disciplines, pour eectuer l'analyse système de type<br />
MDA, <strong>et</strong> le calcul des gradients de type GSE. Une fois les sorties <strong>et</strong> les gradients calculés, on<br />
peut procéder aux optimisations disciplinaires.<br />
Nous implémentons les instructions pour calculer les fonctions objectifs <strong>et</strong> contraintes disciplinaires,<br />
à partir d'une approximation à l'ordre 1 des sorties disciplinaires. Pour l'optimisation<br />
de la discipline performance, on ajoute l'information donnée par les coecients de Lagrange<br />
obtenus avec les autres disciplines (cf section 2.2.5).
3.2 Implémentation sous Scilab 71<br />
3.2.4 Outils supplémentaires<br />
Nous avons aussi implémenté deux outils pour pouvoir mieux analyser les formulations. Tout<br />
d'abord, nous pouvons exécuter une formulation en partant de plusieurs points initiaux. Ces<br />
points sont sélectionnés aléatoirement dans l'espace de conception, via l'outil MULTI-START mis<br />
en place.<br />
L'outil PARETO perm<strong>et</strong> de construire un front de Par<strong>et</strong>o pour deux fonctions objectifs choisies,<br />
en utilisant la méthode des objectifs contraints (voir annexe B.2).<br />
Le logiciel perm<strong>et</strong> de visualiser les valeurs des gradients, ainsi que celles des coecients de<br />
Lagrange associés aux contraintes du problème :<br />
avec les gradients, on peut voir l'inuence des variables sur les diérentes sorties ;<br />
les coecients de Lagrange perm<strong>et</strong>tent de mesurer l'impact de la variation d'une contrainte<br />
sur le résultat obtenu. En e<strong>et</strong>, les coecients de Lagrange nous donnent la sensibilité de la<br />
fonction coût à la variation des contraintes : λ = df . En considérant le problème linéarisé<br />
dg<br />
autour de l'optimum, lorsque l'on relâche une contrainte d'une quantité dg, la fonction<br />
objectif peut alors être améliorée d'une quantité λdg. Nous pouvons ainsi déterminer quelles<br />
sont les contraintes qui possèdent le plus d'inuence sur notre solution.<br />
3.2.5 Interface graphique<br />
L'interface graphique se compose de quatre parties :<br />
la fenêtre principale, qui perm<strong>et</strong> de choisir le cas-test, régler les options <strong>et</strong> lancer les formulations<br />
;<br />
la fenêtre d'achage des variables ;<br />
la fenêtre d'achage des sorties ;<br />
le compteur du nombre d'appels aux codes disciplinaires.<br />
• La fenêtre principale (voir gure 3.8) perm<strong>et</strong> d'eectuer diérentes actions :<br />
choisir <strong>et</strong> charger un cas test (Sobieski ou Dassault) ;<br />
choisir la formulation MDO (directement, ou avec la fenêtre de choix présente dans la<br />
gure 3.7) ;<br />
régler des paramètres de l'optimisation :<br />
dx : pas pour les diérences nies,<br />
eps : paramètre de CFSQP pour la convergence,<br />
tol : tolérance pour la convergence de la MDA,<br />
miter : nombre maximal d'itérations,<br />
iprint : mode d'achage de CFSQP,<br />
epsilon : seuil de la contrainte |(Y − y)‖ ≤ ɛ,<br />
nb_multistart : nombre de points dans l'échantillon pour le multistart,<br />
taille_rc : taille par défaut de la région de conance,<br />
da : nombre de points du front de Par<strong>et</strong>o.<br />
Les boutons perm<strong>et</strong>tent d'eectuer plusieurs actions :<br />
CHARGER_CAS_TEST : charger un cas-test ;<br />
INIT : initialisation de points par les milieux des bornes ;<br />
RAND : initialisation aléatoire ;<br />
EXEC : exécuter la formulation MDO sélectionnée ;<br />
COURBE : tracer l'évolution des variables ou des sorties sélectionnées ;<br />
MULTI : eectuer la formulation en partant de plusieurs points diérents ;
72 Implémentation des formulations MDO<br />
ABORT : arrêter l'optimisation en cours ;<br />
GRADIENT : acher les valeurs des gradients des sorties sélectionnées ;<br />
LAGRANGE : calculer <strong>et</strong> acher les coecients de Lagrange associés aux contraintes.<br />
Fig. 3.8 Fenêtre principale de l'<strong>application</strong> Scilab.<br />
• La fenêtre des variables perm<strong>et</strong> l'achage des valeurs des variables au cours de l'optimisation.<br />
Elle perm<strong>et</strong> aussi le choix des valeurs initiales des variables <strong>et</strong> de leurs contraintes<br />
de borne.<br />
• La fenêtre des sorties perm<strong>et</strong> de choisir la (ou les, dans le cas de l'optimisation multiobjectif)<br />
fonction(s) coût, ainsi que les contraintes de borne sur les sorties, qui déniront<br />
les contraintes d'inégalité du problème d'optimisation.<br />
Sur ces deux fenêtres, on peut visualiser les coecients de Lagrange associés aux contraintes<br />
de borne ou aux contraintes d'inégalité.<br />
• Enn, une dernière fenêtre perm<strong>et</strong> de visualiser le nombre d'appels aux disciplines.<br />
Les fenêtres des variables, des sorties <strong>et</strong> des compteurs sont présentées sur la gure 3.9.<br />
Conclusion<br />
Nous avons vu dans ce chapitre l'implémentation des diérentes formulations MDO, sous deux<br />
environnements, ModelCenter <strong>et</strong> Scilab. Dans le chapitre qui suit, nous allons voir <strong>et</strong> analyser les<br />
résultats obtenus sur chacun des deux cas-tests présentés dans le chapitre 1. Nous pourrons ainsi<br />
les comparer <strong>et</strong> tirer des conclusions quant à l'utilité <strong>et</strong> l'ecacité des diérentes formulations.<br />
Nous essaierons aussi de montrer ce que l'on peut gagner en substituant aux codes de calcul<br />
disciplinaires des méta-modèles évolutifs.
3.2 Implémentation sous Scilab 73<br />
Fig. 3.9 Fenêtres des variables, des sorties <strong>et</strong> des compteurs.
Chapitre 4<br />
Résultats obtenus avec les formulations<br />
MDO<br />
Sommaire<br />
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76<br />
4.1 Résultats pour le cas test Sobieski avec ModelCenter . . . . . . . . 76<br />
4.1.1 MDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77<br />
4.1.2 IDF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79<br />
4.1.3 CO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80<br />
4.1.4 DIVE (sans méta-modèle) . . . . . . . . . . . . . . . . . . . . . . . . . . 82<br />
4.1.5 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83<br />
4.2 Résultats pour le cas-test Sobieski avec Scilab . . . . . . . . . . . . . 84<br />
4.2.1 Analyse multi-disciplinaire (MDA) . . . . . . . . . . . . . . . . . . . . . 84<br />
4.2.2 Les formulations MDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />
4.2.3 Multi-start pour DIVE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />
4.2.4 Front de Par<strong>et</strong>o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />
4.2.5 Coecients de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . 92<br />
4.2.6 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93<br />
4.3 Résultats pour le cas-test Dassault avec Scilab . . . . . . . . . . . . . 93<br />
4.3.1 Analyse multi-disciplinaire (MDA) . . . . . . . . . . . . . . . . . . . . . 94<br />
4.3.2 Les formulations MDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96<br />
4.3.3 Multi-start pour DIVE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />
4.3.4 Front de Par<strong>et</strong>o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100<br />
4.3.5 Coecients de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />
4.3.6 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />
Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
76 Résultats obtenus avec les formulations MDO<br />
Introduction<br />
Dans ce chapitre, nous allons montrer les résultats obtenus avec les diérentes implémentations<br />
vues dans le chapitre 3. Le but ici est de montrer avec ces résultats les performances<br />
des diérentes formulations, mais aussi la viabilité <strong>et</strong> l'ecacité de l'utilisation de méta-modèles<br />
linéaires. Les codes du cas-test Sobieski sous ModelCenter <strong>et</strong> Scilab présentent quelques différences,<br />
qui peuvent se r<strong>et</strong>rouver au niveau des résultats obtenus.<br />
Dans une première section, nous présentons les résultats obtenus avec le cas-test Sobieski<br />
implémenté sous ModelCenter (cf section 4.1). Dans les sections suivantes, nous présentons les<br />
résultats obtenus avec le logiciel Scilab : pour le cas-test Sobieski (cf section 4.2), <strong>et</strong> pour le<br />
cas-test Dassault (cf section 4.3).<br />
En conclusion, nous essaierons de tirer, à partir de ces résultats, des remarques générales sur<br />
les formulations MDO, <strong>et</strong> sur l'utilisation des méta-modèles dans l'optimisation multi-disciplinaire.<br />
4.1 Résultats pour le cas test Sobieski avec ModelCenter<br />
Dans c<strong>et</strong>te partie, nous analysons les résultats obtenus avec le cas-test Sobieski (cf section 1.2)<br />
sous ModelCenter. Les formulations testées ici sont les formulations MDF, IDF, CO <strong>et</strong> DIVE.<br />
On rappelle que l'objectif ici est de maximiser le rayon d'action.<br />
Les tableaux 4.1 à 4.4 donnent les résultats suivants :<br />
• les rayons d'action atteints par chacune des formulations (cf tableau 4.1) ;<br />
• les variables optimales obtenues (cf tableau 4.2) ;<br />
• le nombre d'appels eectués par les codes de calcul disciplinaires (cf tableau 4.3) ;<br />
• les sorties des disciplines (cf tableau 4.4) :<br />
le rayon d'action R <strong>et</strong> les sorties directement liées à son calcul, à savoir la masse totale<br />
W T , la masse de carburant W F , la nesse L/D <strong>et</strong> la consommation spécique SF C ;<br />
les sorties des disciplines qui serviront de contraintes d'inégalité pour le problème d'optimisation.<br />
Type Sorties MDF CO IDF DIVE<br />
Rayon d'action R 3495 3249 3452 3504<br />
Après MDA . 3241 3499 .<br />
Tab. 4.1 Rayons d'action atteints (Sobieski, ModelCenter).
4.1 Résultats pour le cas test Sobieski avec ModelCenter 77<br />
Type Variables MDF CO IDF DIVE lb ub<br />
Partagées<br />
Locales<br />
t/c 0.06 0.055 0.06 0.06 0.01 0.09<br />
h 60000 60000 60000 60000 30000 60000<br />
M 1.4 1.4 1.4 1.4 1.4 1.8<br />
AR 2.5 2.5 2.5 2.5 2.5 8.5<br />
Λ 70 70 69.4 70 70 140<br />
S REF 1500 1483.1 1477.9 1500 500 1500<br />
Structure λ 0.26 0.25 0.28 0.1 0.1 0.4<br />
x 0.76 1.04 0.88 0.75 0.75 1.25<br />
Aérodynamique C f 0.75 0.75 0.75 0.75 0.75 1.25<br />
Propulsion T 0.16 0.14 0.16 0.16 0.1 1<br />
Tab. 4.2 Variables optimales obtenues (Sobieski, ModelCenter).<br />
Nombre d'appels MDF CO IDF DIVE<br />
Structure 239 639 104 693<br />
Aérodynamique 239 717 120 78<br />
Propulsion 239 440 64 271<br />
Performance 45 77 136 15<br />
Total 762 1873 424 1057<br />
Itérations DOT-SQP 4 4 8 2<br />
Tab. 4.3 Nombres d'appels aux disciplines (Sobieski, ModelCenter).<br />
En première remarque, nous pouvons dire que chacune des formulations converge vers une<br />
même conguration optimale. Nous allons tout d'abord analyser ces résultats pour chacune des<br />
formulations, puis nous essayerons, par une analyse comparative, de faire ressortir des remarques<br />
générales.<br />
4.1.1 MDF<br />
Pour c<strong>et</strong>te méthode présentée en section 2.2.1, nous remarquons que :<br />
• le convergeur fait entre 4 <strong>et</strong> 8 appels à chaque discipline, avant d'obtenir un équilibre interdisciplinaire<br />
avec une précision relative de 10 −5 . Nous pouvons dire ici que la recherche<br />
de la cohérence interdisciplinaire est assez facile, puisqu'elle peut être résolue avec une<br />
méthode de point xe avec un nombre d'itérations faible.<br />
• Le rayon d'action maximum est obtenu en 4 itérations de l'algorithme DOT-SQP, il at-
78 Résultats obtenus avec les formulations MDO<br />
Type Sorties MDF CO IDF DIVE lb ub<br />
Performance R 3495 3249 3452 3504<br />
L/D 13.4 14.1 12.7 13.2<br />
W T 74253.3 74971 70778.1 73446.2<br />
W F 19317.9 17651.2 18959.9 19350.6<br />
Sfc 0.92 0.93 0.92 0.92<br />
Contraintes<br />
Structure Θ 0.96 1.03 0.97 0.96 0.95 1.05<br />
σ 1 0.99 0.93 0.96 1.01 1.09<br />
σ 2 1.00 0.95 0.97 1.01 1.09<br />
σ 3 1.00 0.97 0.98 1.01 1.09<br />
σ 4 1.00 0.97 0.98 1.01 1.09<br />
σ 5 1.00 0.98 0.99 1.01 1.09<br />
Aérodynamique dp/dx 1.04 1.02 1.04 1.04 1.04<br />
Propulsion ESF 0.73 0.80 0.75 0.73 0.5 1.5<br />
DT 0.003 -325.5 -0.48 -0.01 0<br />
T emp 0.84 0.84 0.84 0.84 1.02<br />
Tab. 4.4 Les sorties optimales obtenues (Sobieski, ModelCenter).<br />
teint la valeur de 3495 Nm 1 . La gure 4.1 montre l'évolution du rayon d'action au cours<br />
des itérations.<br />
• Il y a 6 variables de conception qui atteignent leurs bornes : l'altitude h, le nombre de<br />
Mach M, l'allongement AR, la surface de référence S REF , la èche Λ <strong>et</strong> le coecient de<br />
frottement C F .<br />
• Les contraintes non-linéaires saturées sont : dp/dx <strong>et</strong> DT .<br />
• Le nombre d'appels aux disciplines est de 239 pour chacune des disciplines de conception<br />
(Structure, Aérodynamique <strong>et</strong> Propulsion) <strong>et</strong> de 45 pour la discipline performance. Pour<br />
chaque analyse du système, le convergeur va appeler le même nombre de fois les disciplines<br />
de conception.<br />
• Les gradients sont calculés par diérences nies. On pourrait avoir moins d'appels aux<br />
codes de calcul disciplinaires en utilisant la méthode GSE. Malheureusement, l'algorithme<br />
DOT-SQP, présent dans ModelCenter, établit lui même les gradients par diérences nies <strong>et</strong><br />
ne perm<strong>et</strong> pas de les lui transm<strong>et</strong>tre par ailleurs.<br />
1 Nautic Miles
4.1 Résultats pour le cas test Sobieski avec ModelCenter 79<br />
Fig. 4.1 Évolution du rayon d'action avec la formulation MDF (Sobieski, ModelCenter).<br />
4.1.2 IDF<br />
C<strong>et</strong>te formulation (cf section 2.2.2) présente un nombre d'appels aux disciplines beaucoup<br />
moins important que celui obtenu avec la méthode MDF. Cependant, elle présente plus de dif-<br />
cultés pour le réglage des paramètres de l'optimiseur DOT-SQP (cf section 3.1.3), <strong>et</strong> l'équation<br />
d'état interdisciplinaire est résolue de manière moins précise, ce qui va aecter directement la<br />
qualité des résultats.<br />
• Nous avons obtenu des résultats corrects avec les paramètres de l'optimiseur suivant : 0.01<br />
pour le seuil d'activation <strong>et</strong> 0.1 pour le seuil de violation des contraintes. Pour d'autres<br />
réglages de ces seuils, nous n'obtenons pas de résultats satisfaisants. Si l'on serre trop ces<br />
paramètres, l'optimiseur s'arrête avec une erreur signalant qu'il ne peut pas satisfaire les<br />
contraintes d'égalité. Si on les relâche trop, les valeurs des variables de couplage ne sont plus<br />
ables <strong>et</strong> l'optimiseur s'arrête bien avant d'obtenir un rayon d'action correct. Ce dosage<br />
est empirique <strong>et</strong> détermine très fortement l'issue de l'optimisation.<br />
• Nous obtenons ici un rayon d'action R de 3452 Nm, la gure 4.2 montre l'évolution du<br />
rayon d'action R.<br />
• À la n de l'optimisation, les plus grandes erreurs de couplage en relatif sont de l'ordre de<br />
0.2, ce qui reste assez important. On ne peut pas se contenter d'une précision relative aussi<br />
peu satisfaisante <strong>et</strong> les résultats obtenus ici ne sont pas utilisables à un niveau industriel.
80 Résultats obtenus avec les formulations MDO<br />
• An de se faire une idée des vrais résultats que l'on peut atteindre avec c<strong>et</strong>te méthode, on<br />
refait un calcul couplé (MDA) avec les variables de conception optimales obtenues avec la<br />
formulation IDF. Le tableau 4.1 présente les résultats obtenus après une MDA, on obtient<br />
un rayon d'action de 3499 Nm. Il y a donc une diérence entre le rayon d'action de 3452<br />
Nm calculé avec la méthode IDF <strong>et</strong> la vraie valeur pour la conguration obtenue.<br />
• La variable S REF obtenue est de 1477 ft 2 . Si l'on prend une surface de référence S REF de<br />
1500 ft 2 , on obtient un rayon d'action de 3450 Nm <strong>et</strong> les contraintes sont toujours respectées.<br />
La méthode IDF n'a pas convergé ici exactement sur la conguration optimale.<br />
• C<strong>et</strong>te méthode est donc avantageuse en terme de nombre d'appels aux disciplines <strong>et</strong> s'avère<br />
peu précise <strong>et</strong> peu robuste.<br />
Fig. 4.2 Évolution du rayon d'action avec la formulation IDF (Sobieski, ModelCenter).<br />
4.1.3 CO<br />
La formulation CO est présentée en section 2.2.4. On rappelle ici qu'il s'agit d'une version<br />
simpliée (cf section 3.1.4).<br />
• Le rayon d'action obtenu avec c<strong>et</strong>te méthode est de 3249 Nm, la gure 4.3 montre l'évolution<br />
du rayon d'action R.
4.1 Résultats pour le cas test Sobieski avec ModelCenter 81<br />
• Pour avoir une idée des vraies valeurs des sorties obtenues avec c<strong>et</strong>te méthode, on eectue<br />
une MDA avec les paramètres de conception obtenus [x CO , z CO ] , on obtient alors un rayon<br />
d'action d'une valeur de 3241 Nm, ce qui reste proche du résultat précédent. On constate<br />
cependant que la contrainte de la discipline structure sur le vrillage Θ n'est plus respectée.<br />
• Le nombre d'appels aux diérentes fonctions est largement supérieur à celui de la méthode<br />
MDF, nombre bien évidemment dû aux optimisations disciplinaires.<br />
• An de réduire ce nombre d'appels, on peut essayer de ne pas imposer de point de départ<br />
sur les variables locales pour les optimisations disciplinaires, c'est-à-dire de repartir<br />
du dernier point optimal trouvé. Cependant, on se rend compte que c<strong>et</strong>te technique ne<br />
marche pas toujours bien <strong>et</strong> il apparaît des problèmes de robustesse. Les tests que nous<br />
avons eectués montrent que l'on peut le faire seulement avec les variables locales de la<br />
discipline propulsion. Lorsqu'on le fait avec d'autres disciplines, nous obtenons de mauvais<br />
résultats, car l'optimisation s'arrête (non-convergence) avant de trouver un optimum satisfaisant.<br />
• La robustesse des optimisations locales joue un rôle essentiel dans les formulations de type<br />
multi-niveaux.<br />
Fig. 4.3 Évolution du rayon d'action avec la formulation CO (Sobieski, ModelCenter)
82 Résultats obtenus avec les formulations MDO<br />
4.1.4 DIVE (sans méta-modèle)<br />
La méthode DIVE est implémentée ici sans la gestion des méta-modèles (cf section 3.1.5).<br />
• Le rayon d'action obtenu avec c<strong>et</strong>te méthode est de 3504 Nm. Le couplage est bien assuré.<br />
La contrainte dp/dx est saturée. Seules les variables t/c <strong>et</strong> T n'atteignent pas leurs bornes.<br />
• La diérence avec le résultat obtenu avec MDF s'expliquerait principalement par une masse<br />
de carburant W F plus élevée, due à une épaisseur relative t/c légèrement plus importante<br />
<strong>et</strong> malgré une nesse L/D plus basse. Ces résultats sont cohérents du point de vue de la<br />
physique.<br />
• Le nombre d'appels aux disciplines est assez élevé, à cause des optimisations locales. On<br />
peut essayer de ne pas forcer un point de départ identique pour toutes les optimisations<br />
locales, mais on rencontre, comme pour la méthode CO, des problèmes de robustesse (échec<br />
de la convergence au niveau global).<br />
• Cependant, le nombre d'itérations de l'algorithme DOT-SQP est très bas : seulement 2 itérations.<br />
On peut faire l'hypothèse que, comme la plupart des variables partagées z atteignent<br />
leurs bornes, leur optimisation est plus aisée, <strong>et</strong> que l'optimisation des variables locales est<br />
plus sensible <strong>et</strong> doit être laissée aux experts des disciplines.<br />
La gure 4.4 représente l'évolution du rayon d'action au cours des itérations de l'algorithme<br />
DOT-SQP.
4.1 Résultats pour le cas test Sobieski avec ModelCenter 83<br />
Fig. 4.4 Évolution du rayon d'action avec la formulation DIVE (Sobieski, ModelCenter)<br />
4.1.5 Remarques<br />
Les formulations testées nous mènent vers la même conguration optimale. Quelques points<br />
perm<strong>et</strong>tent de les comparer :<br />
• la performance obtenue : lorsque que l'on regarde les vrais résultats (ceux obtenus après<br />
une MDA), la méthode qui nous mène à la meilleure performance est la formulation DIVE,<br />
ce qui montre à la fois l'importance de l'optimisation multi-niveaux, <strong>et</strong> la pertinence des<br />
fonctions coût disciplinaires choisies (cf section 1.2.2) ;<br />
• la précision des résultats obtenus : les méthodes MDF <strong>et</strong> DIVE nous donnent, de par leur<br />
nature <strong>et</strong> de par les résultats obtenus, une très bonne précision sur les sorties fournies ; la<br />
méthode CO nous donne ici une précision acceptable, quant à la méthode IDF, elle fournit<br />
une précision passable <strong>et</strong> qui ne peut être satisfaisante, même à un niveau de conceptual<br />
design ;<br />
• le nombre d'appels aux disciplines : la méthode la plus rapide est IDF (on pourrait imaginer<br />
utiliser c<strong>et</strong>te méthode IDF pour une première approche de l'optimum <strong>et</strong> terminer la<br />
recherche de c<strong>et</strong> optimum avec une autre méthode plus précise) ; les méthodes multi-niveaux<br />
sont plus gourmandes en temps de calcul, par le fait que l'on eectue une optimisation locale<br />
à chaque appel de la discipline ;
84 Résultats obtenus avec les formulations MDO<br />
• la diculté d'implémentation : les méthodes qui traitent le problème de couplage avec des<br />
contraintes d'égalité sont plus diciles à m<strong>et</strong>tre en place, car elles demandent un réglage<br />
n de l'optimiseur. En général, il vaut mieux utiliser les formulations utilisant une MDA,<br />
car elles sont plus faciles à régler, l'équation d'état est résolue de façon précise <strong>et</strong> la qualité<br />
des résultats obtenus est donc meilleure.<br />
Nous allons voir dans les sections qui suivent les résultats obtenus avec les cas-test Sobieski<br />
<strong>et</strong> Dassault sous Scilab. Nous pourrons ainsi confronter ces remarques à l'implémentation sous<br />
un autre logiciel, ainsi qu'à un nouveau cas-test.<br />
4.2 Résultats pour le cas-test Sobieski avec Scilab<br />
Nous voyons dans c<strong>et</strong>te partie les résultats obtenus pour le cas-test Sobieski (cf section 1.2).<br />
Dans un premier temps, nous analysons la convergence de l'analyse multi-disciplinaire (cf<br />
section 4.2.1) pour les trois méthodes disponibles avec le logiciel développé sous Scilab.Nous<br />
voyons ensuite les résultats obtenus pour plusieurs formulations (cf section 4.2.2), à savoir les<br />
méthodes MDF, DIVE, IDF, CO <strong>et</strong> BLISS, <strong>et</strong> nous comparons leurs performances respectives.<br />
Nous montrons quelques résultats complémentaires pour la méthode DIVE. Nous testons la<br />
robustesse de c<strong>et</strong>te méthode en la lançant à partir de plusieurs points de départ tirés aléatoirement<br />
dans l'espace de conception (cf section 4.2.3). Nous cherchons à obtenir un front de Par<strong>et</strong>o pour<br />
deux fonctions objectifs, à savoir minimiser la masse totale W T <strong>et</strong> maximiser le rayon d'action<br />
R (cf section 4.2.4). Nous montrons enn les coecients de Lagrange associés à chacune des<br />
contraintes du problème, an de voir quelles contraintes jouent un rôle prédominant dans le<br />
problème d'optimisation (cf section 4.2.5).<br />
4.2.1 Analyse multi-disciplinaire (MDA)<br />
L'analyse multi-disciplinaire revient à trouver un équilibre entre les diérentes disciplines (cf<br />
section 2.1.2). Nous avons à notre disposition trois méthodes :<br />
la méthode du point xe (MDA FP) ;<br />
la minimisation des résidus (MDA OPTIM) ;<br />
la méthode de Gauss-Newton (MDA GN).<br />
Nous allons voir dans c<strong>et</strong>te section l'ecacité de chacune de ces méthodes, pour deux cas<br />
diérents :<br />
1. appels directs aux disciplines ;<br />
2. appels aux disciplines avec optimisation des variables locales ;<br />
Appels directs aux disciplines<br />
Nous considérons dans un premier temps les appels aux codes disciplinaires bruts. La gure<br />
4.5 montre la convergence en précision de ces méthodes (log 10 ( ∑ i<br />
‖Y i − y i ‖ 2 )), en fonction du<br />
nombre d'analyses disciplinaires. La précision désirée pour la MDA est de 10 −15 . Les oscillations<br />
observées avec la méthode de Gauss-Newton ne comprom<strong>et</strong>tent en rien sa convergence, <strong>et</strong> c<strong>et</strong>te<br />
méthode atteint la précision demandée.
4.2 Résultats pour le cas-test Sobieski avec Scilab 85<br />
Fig. 4.5 Convergence de la MDA, appels directs aux disciplines(Sobieski, Scilab).<br />
Le tableau 4.5 montre le nombre réel d'appels pour chaque discipline (en e<strong>et</strong>, lorsqu'une<br />
discipline est sollicitée, alors que ses entrées n'ont pas été modiées depuis le dernier calcul, on<br />
récupère les sorties en mémoire <strong>et</strong> on ne réeectue pas le même calcul).<br />
Nombre d'appels MDA FP MDA OPTIM MDA GN<br />
Analyses disciplinaires 5 95 221<br />
Structure 5 70 158<br />
Aérodynamique 5 70 158<br />
Propulsion 5 44 96<br />
Performance 1 1 1<br />
Tab. 4.5 Nombres d'appels aux disciplines, MDA (Sobieski, Scilab).<br />
Au vu de ces résultats, la méthode de point xe semble être la plus ecace. Il est cependant<br />
important d'avoir d'autres possibilités, au cas où on aurait aaire à un cas-test plus dicile,<br />
pour lequel la méthode de point xe ne convergerait pas.<br />
<strong>Optimisation</strong> des variables locales<br />
Nous considérons des appels aux disciplines avec optimisation des variables locales. Les fonctions<br />
coût disciplinaires sont celles démontrées dans la section 1.2.2 (minimiser la masse totale<br />
pour la discipline structure, maximiser la nesse pour la discipline aérodynamique <strong>et</strong> minimiser<br />
la consommation spécique pour la discipline propulsion).
86 Résultats obtenus avec les formulations MDO<br />
La gure 4.6 montre la convergence en précision de ces méthodes (log 10 ( ∑ ‖Y i − y i ‖ 2 )), en<br />
i<br />
fonction du nombre d'analyses disciplinaires. La précision désirée pour la MDA est de 10 −15 . Les<br />
oscillations observées avec la méthode de Gauss-Newton ne comprom<strong>et</strong>tent en rien sa convergence,<br />
<strong>et</strong> c<strong>et</strong>te méthode atteint la précision demandée.<br />
Fig. 4.6 Convergence de la MDA, optimisation des variables locales (Sobieski, Scilab).<br />
Le tableau 4.6 montre le nombre d'appels pour chaque code de calcul disciplinaire (ce qui<br />
comprend les appels pour les optimisations disciplinaires).<br />
Nombre d'appels MDA FP MDA OPTIM MDA GN<br />
Analyses disciplinaires 6 89 289<br />
Structure 24 296 873<br />
Aérodynamique 16 184 582<br />
Propulsion 24 208 592<br />
Performance 1 1 1<br />
Tab. 4.6 Nombres d'appels aux disciplines, MDA OPT (Sobieski, Scilab).<br />
Ici, les nombres d'analyses des disciplines sont voisins de ceux obtenus avec des appels aux<br />
disciplines normaux. Le nombre d'appels aux codes de calculs disciplinaires est plus élevé, en<br />
raison des optimisations disciplinaires.<br />
En conlusion de c<strong>et</strong>te analyse, nous ferons appel à la méthode de point xe pour assurer la<br />
convergence de la MDA.
4.2 Résultats pour le cas-test Sobieski avec Scilab 87<br />
4.2.2 Les formulations MDO<br />
Dans c<strong>et</strong>te section, nous testons plusieurs formulations MDO avec le cas-test Sobieski, à<br />
savoir MDF, DIVE, IDF, CO <strong>et</strong> BLISS.<br />
Nous voyons dans le tableau 4.7 le point de départ pour toutes les formulations, ainsi que<br />
la meilleure conguration trouvée. Nous rappelons l'intervalle de variation [lb,ub] des variables.<br />
L'objectif de c<strong>et</strong> exercice est de maximiser le rayon d'action (R).<br />
Variables Valeur initiale Valeur optimale lb ub<br />
λ 0.25 0.12 0.1 0.4<br />
x 1 0.75 0.75 1.25<br />
C f 1 0.75 0.75 1.25<br />
T 0.5 0.156 0.1 1<br />
t c 0.05 0.06 0.01 0.9<br />
h 45000 60000 30000 60000<br />
M 1.6 1.4 1.4 1.8<br />
AR 5.5 2.5 2.5 8.5<br />
Λ 55 70 40 70<br />
S REF 1000 1500 500 1500<br />
R 536 3494<br />
Tab. 4.7 Congurations initiale <strong>et</strong> optimale (Sobieski, Scilab).<br />
Pour la suite, nous considérons que les congurations obtenues avec les diérentes formulations<br />
sont proches de celle-ci <strong>et</strong> nous n'en donnerons pas les détails. Nous préciserons juste, pour<br />
chacune des formulations, le rayon d'action <strong>et</strong> le nombre d'appels aux disciplines.<br />
MDF <strong>et</strong> DIVE<br />
Le tableau 4.8 présente les résultats obtenus avec les formulations MDF <strong>et</strong> DIVE.<br />
• Ici, la diérence fondamentale entre ces deux formulations est l'utilisation des méta-modèles<br />
disciplinaires avec la méthode DIVE.<br />
• La précision exigée pour la MDA est de 10 −15 .<br />
• Le pas choisi pour les calculs de gradients par diérences nies est de 10 −2 .<br />
• Nous testons ces deux formulations avec les deux optimiseurs disponibles : CFSQP <strong>et</strong> LIN.<br />
Les résultats obtenus avec CFSQP sont moins bons, en termes de rayon d'action <strong>et</strong> de<br />
nombre d'appels. Par souci de clarté, nous montrons uniquement les résultats obtenus avec<br />
l'optimiseur LIN.<br />
• La formulation DIVE utilise les méta-modèles linéaires. An d'avoir de bons résultats en<br />
terme de nombre d'appels, la taille de la région de conance des méta-modèles disciplinaires<br />
est xée à 1 (nous utilisons des variables normalisées).<br />
• Les formulations MDF <strong>et</strong> DIVE obtiennent le même rayon d'action de 3494 Nm.<br />
• La formulation DIVE est la plus performante, en terme de nombre d'appels.
88 Résultats obtenus avec les formulations MDO<br />
Formulation MDF DIVE<br />
R 3494 3494<br />
Nombre d'appels<br />
Structure 221 117<br />
Aérodynamique 261 143<br />
Propulsion 141 65<br />
Performance 140 91<br />
Total 763 416<br />
Tab. 4.8 Résultats pour les formulations MDF <strong>et</strong> DIVE (Sobieski, Scilab).<br />
• L'utilisation de méta-modèles locaux <strong>et</strong> adaptatifs perm<strong>et</strong> donc d'arriver à des solutions<br />
cohérentes (la qualité de la solution obtenue est la même que pour le cas sans méta-modèle),<br />
tout en réduisant de manière conséquente le nombre d'appels.<br />
Fig. 4.7 Déplacement des régions de conance, formulation DIVE (Sobieski, Scilab).<br />
La gure 4.7 montre le déplacement des régions de conance pour deux variables. An d'illustrer<br />
ce phénomène, la taille de la région de conance est xée ici à 0.05 . La variable en abscisse<br />
est l'element <strong>et</strong> la variable en ordonnée est la position de la man<strong>et</strong>te des gaz T . Les valeurs des<br />
variables sont normalisées.
4.2 Résultats pour le cas-test Sobieski avec Scilab 89<br />
DIVE avec optimisation des variables locales<br />
Nous nous intéressons à l'optimisation des variables locales. Les fonctions coût disciplinaires<br />
sont ici celles démontrées dans la section 1.2.2 (minimiser la masse totale pour la discipline<br />
structure, maximiser la nesse pour la discipline aérodynamique <strong>et</strong> minimiser la consommation<br />
spécique pour la discipline propulsion).<br />
• Nous testons ici deux versions :<br />
1. DIVE OPT : optimisation des variables locales ;<br />
2. DIVE MM OPT : utilisation des méta-modèles linéaires <strong>et</strong> optimisation des variables<br />
locales.<br />
• La précision exigée pour la MDA est de 10 −15 .<br />
• Le pas choisi pour les calculs de gradients par diérences nies est de 10 −2 .<br />
• Nous testons ces deux formulations avec les deux optimiseurs disponibles : CFSQP <strong>et</strong> LIN.<br />
Les résultats obtenus avec CFSQP sont moins bons, en termes de rayon d'action <strong>et</strong> de<br />
nombre d'appels. Par souci de clarté, nous montrons uniquement les résultats obtenus avec<br />
l'optimiseur LIN.<br />
• An d'avoir de bons résultats, en terme de nombre d'appels, la taille de la région de con-<br />
ance des méta-modèles disciplinaires est xée à 1.<br />
Le tableau 4.9 présente les résultats obtenus.<br />
Formulation DIVE OPT DIVE MM OPT<br />
R 3489 3492<br />
Nombre d'appels<br />
Structure 183 465<br />
Aérodynamique 120 1993<br />
Propulsion 104 311<br />
Performance 28 119<br />
Total 435 2888<br />
Tab. 4.9 Résultats pour la formulation DIVE avec optimisation des variables locales (Sobieski,<br />
Scilab).<br />
DIVE OPT<br />
• L'utilisation de l'optimisation disciplinaire s'avère assez ecace. La solution est trouvée en<br />
4 itérations de l'optimiseur global.<br />
• En conséquence, le nombre d'appels obtenu est meilleur que pour la formulation MDF (cf<br />
tableau 4.8).<br />
• La solution obtenue n'est pas tout à fait la solution optimale.<br />
DIVE MM OPT<br />
• Dans ce cas, l'optimisation de méta-modèles linéaires ne conduit pas forcément à de<br />
meilleurs résultats.
90 Résultats obtenus avec les formulations MDO<br />
• La qualité de la solution est meilleure (3492 Nm pour DIVE MM OPT, contre 3489 Nm<br />
pour DIVE OPT).<br />
• Les nombres d'appels aux disciplines sont assez importants.<br />
L'optimisation des variables locales (DIVE OPT) donne un bon résultat en terme de performance.<br />
Par contre, dans ce cas, l'utilisation des méta-modèles (DIVE MM OPT) devient trop<br />
coûteuse <strong>et</strong> n'apporte pas d'amélioration conséquente.<br />
IDF<br />
Le tableau 4.10 présente les résultats obtenus avec la formulation IDF (cf section 2.2.2).<br />
Formulation<br />
IDF<br />
R 3596<br />
après MDA 3455<br />
Nombre d'appels<br />
Structure 1188<br />
Aérodynamique 1188<br />
Propulsion 678<br />
Performance 1527<br />
Total 4581<br />
Tab. 4.10 Résultats pour la formulation IDF (Sobieski, Scilab).<br />
• Le pas choisi pour le calcul des gradients par diérences nies est de 10 −4 , <strong>et</strong> le seuil de la<br />
contrainte ‖y − Y ‖ < ɛ est xé à 0.1.<br />
• L'optimiseur utilisé ici est CFSQP, nous n'obtenons pas de bons résultats avec l'optimiseur<br />
LIN.<br />
• Les essais eectués avec l'utilisation de contraintes de la forme ‖y − Y ‖ = 0 ne sont pas<br />
concluants.<br />
• Le rayon d'action obtenu avec la formulation IDF est de 3596 Nm. Cependant, comme<br />
l'équation d'état n'est pas résolue de façon précise, ce rayon d'action n'est pas utilisable<br />
en l'état. Il convient d'eectuer une MDA en partant de la conguration optimale an de<br />
récupérer le vrai rayon d'action, qui est de 3455 Nm.<br />
• C<strong>et</strong>te méthode requiert un grand nombre d'appels <strong>et</strong> obtient un résultat moyen <strong>et</strong> peu<br />
précis.<br />
CO<br />
Le tableau 4.11 présente les résultats obtenus avec la formulation CO (cf section 2.2.4).<br />
• De même que pour la méthode IDF, nous n'obtenons pas de bons résultats avec l'optimiseur<br />
LIN, nous utilisons donc l'optimiseur CFSQP.<br />
• Les contraintes d'égalité du type Y − y = 0 ne donnent pas non plus de bon résultats.<br />
• Nous utilisons donc les contraintes du type ‖Y − y‖ < ɛ, avec ɛ = 0.1.<br />
• Le pas choisi pour les calculs des gradients par diérences nies est de 10 −4 .
4.2 Résultats pour le cas-test Sobieski avec Scilab 91<br />
Formulation<br />
CO<br />
R 3451<br />
après MDA 3165<br />
Nombre d'appels<br />
Structure 49964<br />
Aérodynamique 3851<br />
Propulsion 27435<br />
Performance 1544<br />
Total 82794<br />
Tab. 4.11 Résultats pour la formulation CO (Sobieski, Scilab).<br />
• Le rayon d'action obtenu avec la méthode CO est de 3451 Nm. De même que pour IDF,<br />
l'équation d'état n'étant pas résolue de manière précise, ce résultat n'est pas utilisable.<br />
Après une MDA, nous obtenons le vrai rayon d'action, qui est de 3165 Nm.<br />
• C<strong>et</strong>te méthode fait littéralement exploser le nombre d'appels aux disciplines.<br />
BLISS<br />
Le tableau 4.12 présente les résultats obtenus avec la formulation BLISS (cf section 2.2.5).<br />
• Les problèmes d'optimisation de niveau disciplinaire <strong>et</strong> de niveau système étant linéaires,<br />
nous utilisons ici l'optimiseur LIN.<br />
• La précision exigée pour la MDA est de 10 −15 .<br />
• Le pas choisi pour les calculs de gradients par diérences nies est de 10 −2 .<br />
Formulation<br />
BLISS<br />
R 3485<br />
Nombre d'appels<br />
Structure 54<br />
Aérodynamique 62<br />
Propulsion 38<br />
Performance 29<br />
Total 183<br />
Tab. 4.12 Résultats pour la formulation BLISS (Sobieski, Scilab).<br />
De même que pour la méthode DIVE avec optimisation des variables locales, la convergence se<br />
fait en 4 itérations. Les nombres d'appels obtenus correspondent à 4 analyses multi-disciplinaires<br />
(MDA) <strong>et</strong> 4 calculs de gradients (GSE). Nous obtenons avec c<strong>et</strong>te formulation le meilleur résultat,<br />
en terme de nombre d'appels aux codes de calculs disciplinaires, mais pas le meilleur rayon<br />
d'action.
92 Résultats obtenus avec les formulations MDO<br />
4.2.3 Multi-start pour DIVE<br />
Les formulations perm<strong>et</strong>tant d'avoir le meilleur rayon d'action sont MDF <strong>et</strong> DIVE avec<br />
l'optimiseur LIN. Parmi ces deux, celle qui perm<strong>et</strong> d'eectuer le moins d'appels est la méthode<br />
DIVE. An de tester sa robustesse 2 , nous eectuons c<strong>et</strong>te formulation avec 100 points de départ<br />
pris au hasard dans l'espace de conception.<br />
La formulation trouve une solution dans tous les cas. Comme le résume le tableau 4.13, nous<br />
obtenons 2 rayons d'action diérents : 3494 Nm dans 94% des cas <strong>et</strong> 2516 Nm dans 6% des cas.<br />
R % nombre d'appels moyen<br />
3494 94 473<br />
2516 6 752<br />
Tab. 4.13 Multistart avec la formulation DIVE (Sobieski, Scilab).<br />
• Nous pouvons constater ici que ce problème possède un minimum local à 2516 Nm.<br />
• À titre de comparaison, le nombre total d'appels obtenu précédemment avec la formulation<br />
DIVE utilisant les méta-modèles linéaires est de 412 (cf tableau 4.8).<br />
• Dans la grande majorité des cas (94%), la formulation converge vers le bon optimum, <strong>et</strong><br />
ce, avec un nombre d'appels aux codes de calcul disciplinaires qui reste faible.<br />
• Ces résultats nous montrent la robustesse de la méthode DIVE.<br />
4.2.4 Front de Par<strong>et</strong>o<br />
Nous cherchons ici à optimiser deux objectifs diérents : à savoir minimiser la masse totale <strong>et</strong><br />
maximiser le rayon d'action. Pour cela, nous recherchons l'ensemble des solutions non-dominées<br />
qui constituent le front de Par<strong>et</strong>o.<br />
La gure 4.8 présente le front de Par<strong>et</strong>o obtenu avec la méthode des objectifs contraints (cf<br />
section B.2). La formulation utilisée est la méthode DIVE avec les méta-modèles linéaires.<br />
• En abscisse, nous avons la masse totale W T <strong>et</strong> en ordonnée nous avons le rayon d'action<br />
R.<br />
• La croix bleue en bas à gauche indique la conguration qui minimise la masse totale W T .<br />
• La croix bleue en haut à droite indique la conguration qui maximise le rayon d'action R.<br />
• La courbe en points bleus est obtenue en minimisant la masse totale W T avec une contrainte<br />
sur le rayon d'action R.<br />
• La courbe rouge est obtenue en maximisant le rayon d'action avec une contrainte sur la<br />
masse W T .<br />
• Nous pouvons constater que ces deux courbes concordent, ce qui perm<strong>et</strong> d'armer que<br />
nous avons le bon front de Par<strong>et</strong>o.<br />
4.2.5 Coecients de Lagrange<br />
Les coecients de Lagrange λ déterminent la sensibilité de la fonction objectif f aux contraintes<br />
g : λ = df<br />
dg .<br />
2 Nous dénissons ici la robustesse comme la capacité d'une méthode à trouver la bonne solution pour n'importe<br />
quel point de départ.
4.3 Résultats pour le cas-test Dassault avec Scilab 93<br />
Fig. 4.8 Front de Par<strong>et</strong>o Masse / Rayon d'action (Sobieski, Scilab).<br />
Les contraintes qui possèdent les plus grands coecients de Lagrange sont donc celles qu'il<br />
va falloir essayer de relâcher pour améliorer notre objectif. À l'optimum, nous pouvons regarder<br />
les coecients de Lagrange, an de savoir quelles sont les contraintes les plus importantes.<br />
Le tableau 4.14 présente les diérentes variables <strong>et</strong> sorties, ainsi que leurs coecients de<br />
Lagrange associés. Ici les contraintes les plus déterminantes sur notre rayon d'action sont les<br />
contraintes de bornes sur les variables de coecient de frottement C f , de nombre de Mach M,<br />
<strong>et</strong> d'allongement relatif AR <strong>et</strong> la contrainte sur la sortie de gradient de pression dp/dx.<br />
4.2.6 Remarques<br />
Les résultats obtenus dans c<strong>et</strong>te section nous perm<strong>et</strong>tent de faire les remarques suivantes :<br />
• Pour ce cas-test, la méthode de point xe est la plus ecace pour eectuer l'analyse <strong>multidisciplinaire</strong>,<br />
<strong>et</strong> ce, dans tous les cas de gure considérés (appels normaux, optimisation<br />
des variables locales).<br />
• Le méthodes IDF <strong>et</strong> CO, où la cohérence interdisciplinaire est gérée avec des contraintes<br />
d'égalité sur l'équation d'état, ne donnent pas de bon résultats.<br />
• Les méthodes DIVE <strong>et</strong> BLISS perm<strong>et</strong>tent d'obtenir les meilleurs résultats, en terme de<br />
nombre d'appels. Parmi ces deux formulations, la méthode DIVE est celle qui atteint le<br />
meilleur rayon d'action.<br />
• C<strong>et</strong>te méthode est robuste, comme le prouvent les résultats obtenus avec le multi-start,<br />
ainsi que la construction du front de Par<strong>et</strong>o pour deux objectifs distincts.<br />
4.3 Résultats pour le cas-test Dassault avec Scilab<br />
Nous voyons dans c<strong>et</strong>te partie les résultats obtenus pour le cas-test Dassault (cf section 1.3).<br />
Contrairement au cas-test Sobieski vu précédemment, ce cas-test ne présente pas de variables
94 Résultats obtenus avec les formulations MDO<br />
Variables Valeur lb ub Lagrange<br />
λ 0.12 0.1 0.4 0<br />
x 0.75 0.75 1.25 -10.5<br />
C f 0.75 0.75 1.25 -544<br />
T 0.156 0.1 1 0<br />
t c 0.06 0.01 0.9 0<br />
h 60000 30000 60000 0.24<br />
M 1.4 1.4 1.8 -5488<br />
AR 2.5 2.5 8.5 -722<br />
Λ 70 40 70 72.4<br />
S REF 1500 500 1500 1.07<br />
Sorties<br />
Θ 1.03 0.97 1.03 78.8<br />
ESF 0.73 0.5 1.5 0<br />
σ 1 0.91 1.05 0<br />
σ 2 0.93 1.05 0<br />
σ 3 0.95 1.05 0<br />
σ 4 0.96 1.05 0<br />
σ 5 0.96 1.05 0<br />
dp/dx 1.04 1.04 7179<br />
DT 0 0 350.3<br />
Tab. 4.14 Coecients de Lagrange à l'optimum (Sobieski, Scilab).<br />
locales.<br />
Dans un premier temps, nous analysons la convergence de l'analyse multi-disciplinaire (cf section<br />
4.3.1) pour les trois méthodes disponibles avec le logiciel développé sous Scilab. Nous voyons<br />
ensuite les résultats obtenus pour plusieurs formulations (cf section 4.3.2), à savoir les méthodes<br />
MDF, DIVE <strong>et</strong> IDF.Nous montrons quelques résultats complémentaires pour la méthode DIVE.<br />
Nous testons la robustesse de c<strong>et</strong>te méthode en la lançant à partir de plusieurs points de départ<br />
tirés aléatoirement dans l'espace de conception (cf section 4.3.3). Nous cherchons à obtenir un<br />
front de Par<strong>et</strong>o pour deux fonctions objectifs, à savoir minimiser la masse totale W T <strong>et</strong> maximiser<br />
le rayon d'action R (cf section 4.3.4). Nous montrons enn les coecients de Lagrange associés à<br />
chacune des contraintes du problème, an de voir quelles contraintes jouent un rôle prédominant<br />
dans le problème d'optimisation (cf section 4.3.5).<br />
4.3.1 Analyse multi-disciplinaire (MDA)<br />
L'analyse multi-disciplinaire revient à trouver un équilibre entre les diérentes disciplines (cf<br />
section 2.1.2). Nous avons à notre disposition trois méthodes :<br />
la méthode du point xe (MDA FP) ;
4.3 Résultats pour le cas-test Dassault avec Scilab 95<br />
la minimisation des résidus (MDA OPTIM) ;<br />
la méthode de Gauss-Newton (MDA GN).<br />
Nous allons voir dans c<strong>et</strong>te section l'ecacité de chacune de ces méthodes pour deux cas :<br />
1. appels directs aux disciplines ;<br />
2. utilisation de méta-modèles linéaires.<br />
Appels directs aux disciplines<br />
Nous considérons dans un premier temps les appels aux codes disciplinaires bruts.<br />
La gure 4.9 montre la convergence en précision de ces méthodes (log 10 ( ∑ ‖Y i − y i ‖ 2 )), en<br />
i<br />
fonction du nombre d'analyses disciplinaires.<br />
Fig. 4.9 Convergence de la MDA, appels directs aux disciplines (Dassault, Scilab).<br />
Le tableau 4.15 montre le nombre réel d'appels pour chaque discipline (en e<strong>et</strong>, lorsqu'une<br />
discipline est sollicitée, alors que ses entrées n'ont pas été modiées depuis le dernier calcul, on<br />
récupère les sorties en mémoire <strong>et</strong> on ne réeectue pas le même calcul).<br />
• La méthode de point xe est la plus rapide jusqu'à une précision d'environ 10 −11 .<br />
• Au delà, la méthode de minimisation des résidus devient la plus ecace.<br />
Appels aux méta-modèles linéaires<br />
Dans c<strong>et</strong>te section, nous regardons la convergence de l'analyse multi-disciplinaire, lorsque<br />
les disciplines sont substituées par des méta-modèles linéaires. La gure 4.10 montre la convergence<br />
en précision de ces méthodes (log 10 ( ∑ ‖Y i − y i ‖ 2 )), en fonction du nombre d'analyses<br />
i<br />
disciplinaires.
96 Résultats obtenus avec les formulations MDO<br />
Nombre d'appels MDA FP MDA OPTIM MDA GN<br />
Analyse disciplinaires 25 22 97<br />
Structure 25 22 97<br />
Aérodynamique 25 22 97<br />
Propulsion 25 22 97<br />
Performance 1 1 1<br />
Tab. 4.15 Nombres d'appels aux disciplines, MDA (Dassault, Scilab).<br />
Fig. 4.10 Convergence de la MDA, utilisation de méta-modèles linéaires (Dassault, Scilab).<br />
Le tableau 4.16 montre le nombre d'appels pour chaque code de calcul disciplinaire brut<br />
(qui sera ici le nombre d'appels aux codes de calcul disciplinaires pour élaborer le méta-modèle<br />
linéaire).<br />
• Le comportement des courbes reste similaire au cas des appels normaux aux disciplines.<br />
• La méthode de point xe est la plus rapide, pour une précision de l'ordre de 10 −12 . Au<br />
delà, la méthode de minimisation des résidus est la plus ecace.<br />
• Le nombre d'appels aux disciplines est ici le nombre d'appels nécessaire à la génération des<br />
méta-modèles linéaires.<br />
4.3.2 Les formulations MDO<br />
Ce cas-test ne possède pas de variables locales, nous ne testons que les formulations MDO<br />
mono-niveau, à savoir MDF, DIVE <strong>et</strong> IDF.<br />
Nous voyons dans le tableau 4.17 le point de départ pour toutes les formulations, ainsi que
4.3 Résultats pour le cas-test Dassault avec Scilab 97<br />
Nombre d'appels MDA FP MDA OPTIM MDA GN<br />
IDA 23 21 103<br />
Structure 18 18 18<br />
Aérodynamique 18 18 18<br />
Propulsion 19 19 19<br />
Performance 21 21 21<br />
Tab. 4.16 Nombres d'appels aux disciplines, MDA MM (Dassault, Scilab).<br />
la meilleure conguration trouvée. Nous rappelons l'intervalle de variation [lb,ub] des variables.<br />
L'objectif de c<strong>et</strong> exercice est de minimiser la masse totale au décollage (TOW).<br />
Variables Valeur initiale Valeur optimale lb ub<br />
z 13250 14894 8000 18500<br />
xmach 1.8 1.6 1.6 2<br />
S 150 100 100 200<br />
φ w 0 55 46.8 40 70<br />
φ w 100 5 -5.3 -10 20<br />
xl w 0.275 0.05 0.05 0.5<br />
t w c 0.06 0.04 0.04 0.08<br />
φ w 0 55 70 40 70<br />
φ w 100 5 0 0 10<br />
xl w 0.275 0.05 0.05 0.5<br />
t w c 0.065 0.05 0.05 0.08<br />
D fus 2.25 2 2 2.5<br />
W fuel 27500 15000 15000 40000<br />
α 12.5 15 10 15<br />
xfac 0.9 0.85 0.85 0.95<br />
T OW 55875 33065 50000<br />
Tab. 4.17 Congurations initiale <strong>et</strong> optimale (Dassault, Scilab).<br />
Pour la suite, nous considèrerons que les congurations obtenues avec les diérentes formulations<br />
sont proches de celle-ci <strong>et</strong> nous n'en donnerons pas les détails. Nous préciserons juste, pour<br />
chacune des formulations, la masse au décollage (TOW) <strong>et</strong> le nombre d'appels aux disciplines.<br />
MDF <strong>et</strong> DIVE<br />
Nous donnons dans le tableau 4.18 les résultats obtenus avec les formulations MDF <strong>et</strong> DIVE<br />
avec méta-modèles linéaires.<br />
• La précision exigée pour la MDA est de 10 −15 .
98 Résultats obtenus avec les formulations MDO<br />
• Le pas choisi pour les calculs de gradients par diérences nies est de 10 −2 .<br />
• Nous testons ces deux formulations avec les deux optimiseurs disponibles : CFSQP <strong>et</strong> LIN.<br />
• La formulation DIVE utilise les méta-modèles linéaires. An d'avoir de bons résultats en<br />
terme de nombre d'appels, la taille de la région de conance des méta-modèles disciplinaires<br />
est xée à 0.2 (c<strong>et</strong>te valeur est déterminée empiriquement, en deçà le nombre d'appels sera<br />
plus élevé, au delà nous n'obtenons pas la convergence du processus).<br />
Formulation MDF CFSQP DIVE CFSQP MDF LIN DIVE LIN<br />
TOW 33207 33203 33065 33065<br />
Nombre d'appels<br />
Structure 1475 234 1564 576<br />
Aérodynamique 1475 234 1564 576<br />
Propulsion 1506 247 1599 608<br />
Performance 1568 273 1699 672<br />
Total 6024 988 6426 2432<br />
Tab. 4.18 Résultats pour les formulations MDF <strong>et</strong> DIVE (Dassault, Scilab).<br />
• Pour chacun des optimiseurs, les formulations MDF <strong>et</strong> DIVE obtiennent quasiment les<br />
mêmes résultats (33207 kg pour MDF CFSQP <strong>et</strong> 33203 kg pour DIVE CFSQP, 33065<br />
kg pour MDF LIN <strong>et</strong> DIVE LIN). L'utilisation des méta-modèles adaptatifs perm<strong>et</strong><br />
donc d'arriver à la bonne solution.<br />
• L'optimiseur CFSQP est le plus ecace, en terme de nombre d'appels. Cependant, pour<br />
un coût un peu plus élevé, l'optimiseur LIN atteint la meilleure solution.<br />
• La formulation DIVE est la plus performante, en terme de nombre d'appels, ce qui justie<br />
l'utilisation des méta-modèles.<br />
La gure 4.11 montre le déplacement des régions de conance pour deux variables. An<br />
d'illustrer ce phénomène, la taille de la région de conance est xée ici à 0.05 . La variable en<br />
abscisse est la èche en bord de fuite de l'aile φ w 100 <strong>et</strong> la variable en ordonnée est la èche en<br />
bord de fuite de la dérive φ t 100. Les valeurs des variables sont normalisées.<br />
IDF<br />
Le tableau 4.19 présente les résultats obtenus avec la formulation IDF. Nous y voyons trois<br />
versions diérentes :<br />
• IDF CFSQP : on utilise l'optimiseur CFSQP <strong>et</strong> la gestion des contraintes d'égalité est<br />
de la forme ‖Y − y‖ ≤ ɛ, où epsilon = 0.01.<br />
• IDF LIN : on utilise l'optimiseur LIN <strong>et</strong> la gestion des contraintes d'égalité est de la<br />
forme : ‖Y − y‖ = 0.<br />
• IDF LIN MM : on utilise les méta-modèles linéaires, ainsi que l'optimiseur LIN. La gestion<br />
des contraintes d'égalité est de la forme : ‖Y − y‖ = 0.<br />
• Avec la première méthode IDF CFSQP, nous avons un nombre d'appels peu élevé. On se
4.3 Résultats pour le cas-test Dassault avec Scilab 99<br />
Fig. 4.11 Évolution des régions de conance, formulation DIVE (Dassault, Scilab).<br />
Formulation IDF CFSQP IDF LIN IDF LIN MM<br />
TOW 32847 33065 33065<br />
après MDA 33135<br />
Nombre d'appels<br />
Structure 550 924 486<br />
Aérodynamique 550 924 486<br />
Propulsion 550 924 486<br />
Performance 550 924 486<br />
Total 2200 3696 1944<br />
Tab. 4.19 Résultats pour la formulation IDF (Dassault, Scilab).<br />
rend compte après une MDA que le résultat n'est pas très précis.<br />
• La méthode IDF LIN nous mène à la masse au décollage optimale de 33065 kg.<br />
• La méthode IDF LIN MM nous mène à ce même résultat, mais avec un nombre d'appels<br />
aux codes de calcul disciplinaires moindre. Ce résultat justie l'utilisation de méta-modèles.<br />
• La méthode IDF avec l'optimiseur LIN, s'avère très ecace pour ce cas-test, qui ne possède<br />
que deux variables de couplage.<br />
• L'utilisation de méta-modèles linéaires s'avère encore très ecace <strong>et</strong> s'adapte tout à fait à<br />
la méthode IDF.
100 Résultats obtenus avec les formulations MDO<br />
4.3.3 Multi-start pour DIVE<br />
An de tester la robustesse de la formulation DIVE avec utilisation de méta-modèles linéaires,<br />
nous eectuons c<strong>et</strong>te formulation pour 100 points de départ pris au hasard dans l'espace de<br />
conception. Nous utilisons ici l'optimiseur LIN.<br />
Pour les 100 points, nous obtenons ici deux cas de gure diérents :<br />
R % nb appels moyen<br />
30065 98 2558<br />
Nan 2 190<br />
Tab. 4.20 Multistart avec la formulation DIVE (Dassault, Scilab).<br />
• Sauf pour deux points, où l'analyse des codes disciplinaires pose problème, nous obtenons<br />
ici un très bon résultat, avec 98 points qui convergent vers la solution optimale.<br />
• À titre de comparaison, le nombre total d'appels obtenu précédemment avec la formulation<br />
DIVE utilisant les méta-modèles linéaires était de 2432 (cf tableau 4.11).<br />
4.3.4 Front de Par<strong>et</strong>o<br />
Nous cherchons ici à optimiser deux objectifs diérents : à savoir minimiser la masse totale <strong>et</strong><br />
maximiser le rayon d'action. Pour cela, nous recherchons l'ensemble des solutions non-dominées<br />
qui constituent le front de Par<strong>et</strong>o.<br />
La gure 4.12 présente le front de Par<strong>et</strong>o obtenu avec la méthode des objectifs contraints (cf<br />
section B.2). La formulation utilisée est la méthode DIVE avec les méta-modèles linéaires.<br />
• en abscisse, nous avons la masse totale W T En ordonnée nous avons le rayon d'action R.<br />
• La croix bleue en bas à gauche indique la conguration qui minimise la masse totale W T .<strong>et</strong><br />
• La croix bleue en haut à droite indique la conguration qui maximise le rayon d'action R.<br />
• La courbe en points bleus est obtenue en minimisant la masse totale W T avec une contrainte<br />
sur le rayon d'action R.<br />
• La courbe rouge est obtenue en maximisant le rayon d'action, avec une contrainte sur la<br />
masse W T .<br />
• Ici la maximisation du rayon d'action (courbe rouge) pose quelques problèmes de convergence.<br />
• Pour se faire une idée du front de Par<strong>et</strong>o, nous nous erons d'avantage à la courbe bleue<br />
<strong>et</strong> non à la courbe rouge.
4.3 Résultats pour le cas-test Dassault avec Scilab 101<br />
Fig. 4.12 Front de Par<strong>et</strong>o Masse / Rayon d'action (Dassault, Scilab).<br />
4.3.5 Coecients de Lagrange<br />
Les coecients de Lagrange λ déterminent la sensibilité de la fonction objectif f aux contraintes<br />
g : λ = df<br />
dg .<br />
Les contraintes qui possèdent les plus grands coecients de Lagrange sont donc celles qu'il<br />
va falloir essayer de relâcher pour améliorer notre objectif. À l'optimum, nous pouvons regarder<br />
les coecients de Lagrange, an de savoir quelles sont les contraintes les plus importantes.<br />
Le tableau 4.21 présente les diérentes variables <strong>et</strong> sorties, ainsi que leurs coecients de<br />
Lagrange associés.<br />
Ici, les contraintes les plus déterminantes sur notre rayon d'action sont les contraintes de<br />
bornes sur les variables d'épaisseur relative de l'aile t w c , d'element voilure xl w , de nombre de<br />
Mach xmach <strong>et</strong> de rapport masse à l'atterrissage sur masse au décollage xfac.<br />
4.3.6 Remarques<br />
Les résultats obtenus dans c<strong>et</strong>te section nous perm<strong>et</strong>tent de faire les remarques suivantes :<br />
• L'analyse multi-disciplinaire peut être eectuée avec l'algorithme de point xe, lorsque<br />
nous ne demandons pas une précision trop élevée. Dans le cas contraire, on peut utiliser la<br />
minimisation des résidus.<br />
• La méthode DIVE, avec l'utilisation de l'optimiseur LIN <strong>et</strong> des méta-modèles linéaires,<br />
perm<strong>et</strong> d'obtenir les meilleurs résultats, avec une masse au décollage T OW optimale, pour<br />
un nombre d'appels correct.<br />
• La méthode DIVE est robuste, comme le prouvent les résultats obtenus avec le multi-start.
102 Résultats obtenus avec les formulations MDO<br />
Variables Valeur lb ub Lagrange<br />
z 14894 8000 18500 0<br />
xmach 1.6 1.6 2 1858<br />
S 100 100 200 37<br />
φ w 0 46.8 40 70 0<br />
φ w 100 -5.3 -10 20 0<br />
xl w 0.05 0.05 0.5 2517<br />
t w c 0.04 0.04 0.08 12425<br />
φ t 0 70 40 70 0.77<br />
φ t 100 0 0 10 0.05<br />
xl t 0.05 0.05 0.5 28<br />
t t c 0.05 0.05 0.08 1429<br />
D fus 2 2 2.5 445<br />
W fuel 15000 15000 40000 1.06<br />
α 15 10 15 200<br />
xfac 0.85 0.85 0.95 2433<br />
Sorties<br />
T OW 33065 50000 0<br />
R 6500 6500 0.00036<br />
D 1828 1828 0.91<br />
V 70 70 59.2<br />
Tab. 4.21 Coecients de Lagrange à l'optimum (Dassault, Scilab).<br />
• La méthode IDF marche bien pour ce cas-test, car il ne possède que deux variables de<br />
couplage. De très bons résultats sont obtenus avec l'optimiseur LIN. Pour ce cas-test,<br />
les méta-modèles linéaires s'adaptent très bien à c<strong>et</strong>te méthode. Leur utilisation perm<strong>et</strong><br />
d'améliorer les résultats, en terme de nombre d'appels.<br />
• La maximisation du rayon d'action pose quelques problèmes de convergence, ce qui ne nous<br />
perm<strong>et</strong> pas d'obtenir un front de Par<strong>et</strong>o compl<strong>et</strong>.<br />
Conclusion<br />
Nous avons pu tester les formulations vues au chapitre 2 sur deux environnements (Model-<br />
Center <strong>et</strong> Scilab), <strong>et</strong> pour deux cas-tests (Sobieski <strong>et</strong> Dassault).<br />
Nous essayons ici de donner quelques remarques générales sur les formulations MDO.<br />
1. L'analyse multi-disciplinaire (MDA) : on a pu voir l'ecacité des trois méthodes<br />
disponibles sur les diérents cas-tests.
4.3 Résultats pour le cas-test Dassault avec Scilab 103<br />
Pour le cas-test Sobieski, la méthode la plus ecace est clairement la méthode de point<br />
xe.<br />
Pour le cas-test Dassault, tout dépend de la précision demandée pour la MDA. Pour une<br />
précision correcte, nous choisirons la méthode de point xe, <strong>et</strong> pour une précision très<br />
forte, nous choisirons la méthode de minimisation des résidus de l'équation d'état.<br />
2. Les optimiseurs : sous Scilab, nous avons à notre disposition deux optimiseurs : LIN <strong>et</strong><br />
CFSQP. Le résultat obtenu dépend aussi de l'optimiseur utilisé.<br />
L'optimiseur LIN donne une solution beaucoup plus précise, <strong>et</strong> en général avec un nombre<br />
d'appels moindre que l'optimiseur CFSQP.<br />
L'optimiseur CFSQP perm<strong>et</strong> d'obtenir une solution avec la méthode IDF <strong>et</strong> en utilisant<br />
les contraintes sur l'équation d'état de la forme ‖Y − y‖ ≤ ε.<br />
Sous ModelCenter, l'optimiseur DOT-SQP s'avère très ecace, mais ne perm<strong>et</strong> pas de calculer<br />
les gradients autrement que par diérences nies (an d'utiliser la méthode GSE par<br />
exemple).<br />
3. Les formulations mono-niveau : nous donnons ici quelques remarques sur les formulations<br />
les plus basiques, que sont les méthodes MDF <strong>et</strong> IDF.<br />
• MDF (Multi-Disciplinary Feasible)<br />
C<strong>et</strong>te formulation est la plus naturelle. Le principe est de résoudre l'équation d'état<br />
interdisciplinaire. Nous obtenons de bons résultats avec c<strong>et</strong>te formulation. Ces résultats<br />
peuvent servir de référence, <strong>et</strong> l'on peut dire qu'une méthode est ecace si elle perm<strong>et</strong><br />
de faire mieux que la formulation MDF.<br />
Lorsque l'analyse multi-disciplinaire demande beaucoup d'appels aux disciplines, c<strong>et</strong>te<br />
formulation peut s'avérer trop coûteuse.<br />
• IDF (Individual Disciplinary Feasible)<br />
C<strong>et</strong>te formulation peut s'avérer très ecace lorsque les contraintes sur l'équation d'état<br />
interdisciplinaire sont peu nombreuses.<br />
Dans le cas contraire, il est dicile d'obtenir de bons résultats.<br />
Les contraintes d'égalité du type ‖Y − y‖ ≤ ɛ perm<strong>et</strong>tent parfois d'arriver à une con-<br />
guration proche de la solution optimale, mais ne perm<strong>et</strong>tent pas d'avoir des résultats<br />
assez précis pour être exploités.<br />
4. Les formulations multi-niveaux : les optimisations disciplinaires perm<strong>et</strong>tent d'améliorer<br />
la qualité des réponses aux sollicitations disciplinaires, <strong>et</strong> donc de faciliter l'optimisation<br />
au niveau système. Cependant ces optimisations supplémentaires peuvent avoir un coût<br />
conséquent sur le nombre d'appels aux disciplines.<br />
• CO (Collaborative Optimization)<br />
La nature des optimisations disciplinaires perm<strong>et</strong> d'assurer le couplage. En e<strong>et</strong>, les<br />
disciplines cherchent à obtenir les sorties les plus proches possibles des consignes données<br />
par le niveau système.<br />
Cependant, les réponses des disciplines ne vont pas forcément dans le sens de la fonction<br />
objectif système.
104 Résultats obtenus avec les formulations MDO<br />
Les résultats obtenus montrent que le nombre d'appels explose avec c<strong>et</strong>te méthode.<br />
• DIVE sans méta-modèles (Discipline Interaction Variable Elimination)<br />
Il y a peu d'itérations au niveau de l'optimiseur global : les optimisations locales étant<br />
gérées par les disciplines, l'optimisation globale en devient plus ecace <strong>et</strong> plus rapide.<br />
Nous arrivons avec l'implémentation sous Scilab à obtenir un nombre d'appels similaire<br />
à celui obtenu avec la méthode MDF.<br />
• BLISS (Bi-Level Integrated System Synthesis)<br />
Nous avons ici la meilleure formulation au niveau du nombre d'appels.<br />
Cependant, le résultat obtenu avec c<strong>et</strong>te méthode est un peu moins précis que pour la<br />
méthode MDF.<br />
5. Utilisation de méta-modèles linéaires. Nous montrons ici la viabilité de l'utilisation<br />
des méta-modèles linéaires, ainsi que leurs limitations.<br />
• DIVE<br />
L'utilisation des méta-modèles linéaires perm<strong>et</strong> d'obtenir des résultats très proches,<br />
voire identiques à ceux obtenus avec la formulation MDF. Ces méta-modèles locaux<br />
s'adaptent avec l'évolution de la conguration, au cours de l'optimisation. Par ce biais,<br />
ils perm<strong>et</strong>tent donc d'obtenir une solution précise.<br />
C<strong>et</strong>te méthode nécessite beaucoup moins d'appels aux codes de calcul disciplinaires<br />
que la méthode MDF.<br />
C<strong>et</strong>te méthode perm<strong>et</strong> d'obtenir de bons résultats, <strong>et</strong> de manière plus rapide.<br />
Ces résultats montrent donc la viabilité <strong>et</strong> l'ecacité de c<strong>et</strong>te formulation.<br />
• IDF<br />
L'utilisation des méta-modèles linéaires avec la formulation IDF peut s'avérer fructueuse.<br />
Les résultats obtenus avec le cas-test Dassault nous montrent l'ecacité de c<strong>et</strong>te<br />
méthode.<br />
• <strong>Optimisation</strong> disciplinaire <strong>et</strong> méta-modèles : dans ce cas, les résultats ne sont pas aussi<br />
concluants que dans le cas mono-niveau.<br />
Nous considérons ici les résultats obtenus avec le cas-test Sobieski, dans le cas où les<br />
disciplines optimisent leurs variables locales.<br />
Les solutions obtenues avec l'utilisation des méta-modèles <strong>et</strong> sans méta-modèles sont<br />
identiques <strong>et</strong> proches de la solution optimale.<br />
Cependant, le nombre d'appels est plus élevé avec l'utilisation des méta-modèles que<br />
sans.<br />
L'utilisation des méta-modèles linéaires s'avère donc viable, mais pas forcément ecace.<br />
Nous pouvons considérer que la génération du méta-modèle est trop coûteuse<br />
dans ce cas.<br />
• Recommandations sur les méta-modèles à utiliser : les méta-modèles linéaires utilisés ici<br />
sont les plus simples qui soient. Malgré cela, nous obtenons de très bons résultats. C<strong>et</strong>te<br />
formulation peut être beaucoup plus ecace si l'on utilise des méta-modèles plus adaptés<br />
aux disciplines. Nous conseillons cependant d'utiliser des méta-modèles respectant<br />
certains critères :
4.3 Résultats pour le cas-test Dassault avec Scilab 105<br />
(a) la construction du méta-modèle ne doit pas être trop coûteuse en nombre d'appels<br />
aux disciplines (comme cela peut être le cas quand la discipline optimise ses variables<br />
locales) ;<br />
(b) le méta-modèle doit être adaptatif, an d'être able autour du point de conception<br />
demandé par l'optimiseur ;<br />
(c) à l'optimum, nous devons maximiser la abilité. Pour cela, il faut que les méta-modèles<br />
utilisés fournissent des sorties exactes au point courant (an d'être sûr des sorties qui<br />
seront exploitées par la suite), ainsi que des dérivées exactes en ce point (an d'être<br />
sûr de vérier les conditions d'optimalité au premier ordre).
107<br />
Conclusion générale <strong>et</strong> perpectives<br />
Nous avons pu voir dans c<strong>et</strong>te thèse diérents éléments concernant l'optimisation <strong>multidisciplinaire</strong>.<br />
Nous avons tout d'abord apporté une vision globale de la conception avion, <strong>et</strong><br />
donné l'exemple de deux cas-tests pour la conception avion avant-proj<strong>et</strong>. Puis nous avons posé<br />
les éléments de base de l'optimisation disciplinaire, à savoir la dénition des variables <strong>et</strong> des<br />
sorties, le problème d'interaction entre les disciplines, les diérentes méthodes pour calculer les<br />
gradients, la manière de poser le problème d'optimisation <strong>et</strong> l'utilisation de méta-modèles disciplinaires.<br />
À partir de ces éléments de base, nous avons pu décrire les diérentes formulations<br />
MDO.<br />
Dans une troisième partie, nous avons fait part de notre expérience sur l'implémentation<br />
de ces formulations sous deux environnements diérents (ModelCenter <strong>et</strong> Scilab) <strong>et</strong> pour deux<br />
cas-tests (Sobieski <strong>et</strong> Dassault). ModelCenter est un logiciel très pratique, mais payant, <strong>et</strong> on<br />
se r<strong>et</strong>rouve parfois limité pour l'implémentation des diérents outils. Avec Scilab, on possède<br />
plus de liberté, mais l'eort en implémentation est plus conséquent. Pour le logiciel développé<br />
sous Scilab, nous avons réalisé une implémentation des formulations MDO de la manière la plus<br />
générale qui soit : nous avons mis toutes ces formulations sous le même chapeau, ce qui nous<br />
perm<strong>et</strong> de passer de l'une à l'autre avec une grande exibilité.<br />
Dans ce travail, nous avons mis en oeuvre des méta-modèles, tout en nous acquittant de<br />
la diculté posée par la dimension. En grande dimension, le méta-modèle est fourni avec une<br />
région qui peut être de p<strong>et</strong>ite taille. C<strong>et</strong>te région de conance suit le processus d'optimisation.<br />
Le méta-modèle peut se limiter à une approximation linéaire ou quadratique. Il peut s'appuyer<br />
sur des méthodes classiques d'apprentissage, telles que les réseaux neuronaux, le Krigeage ou la<br />
SVM. Il peut également faire appel à des techniques de projection sur des sous-espaces, telles<br />
que la méthode POD. Dans le cas où le modèle d'origine est simple, il peut jouer le rôle de<br />
méta-modèle.<br />
La méthode DIVE, introduite dans le cadre de c<strong>et</strong>te thèse a de nombreuses propriétés intéressantes.<br />
En particulier, en conant à chaque discipline le soin de construire le méta-modèle qui<br />
lui est propre, on augmente l'autonomie de chaque discipline. On n'impose pas de méta-modèle<br />
particulier <strong>et</strong> chaque discipline choisit son méta-modèle en fonction des propriétés du modèle en<br />
question. L'une des qualités majeures de DIVE est de satisfaire avec la plus grande précision<br />
les contraintes d'interaction du système. Ces contraintes représentent la physique du système <strong>et</strong><br />
l'optimisation au niveau système ne peut donner de résultats cohérents que si ces contraintes<br />
sont satisfaites.<br />
Nous avons pu tester <strong>et</strong> comparer les diérentes formulations MDO. Les résultats obtenus<br />
avec les deux cas-tests nous ont permis d'en tirer certaines conclusions :<br />
• l'équation d'état doit être résolue de façon précise. Nous préconisons les méthodes utilisant
108 Conclusion<br />
la MDA. Les méthodes qui traitent le couplage à l'aide de contraintes d'égalité sur l'équation<br />
d'état demandent un eort conséquent en réglage de l'optimiseur, <strong>et</strong> ne sont ecaces<br />
que dans le cas où il y a peu de variables de couplage.<br />
• L'utilisation des méta-modèles linéaires dans le cadre de la formulation DIVE s'est avérée<br />
très performante. On obtient des résultats aussi précis que dans le cas sans méta-modèle,<br />
<strong>et</strong> avec un nombre d'appels aux codes de calcul disciplinaires fortement diminué. Ces<br />
résultats incitent fortement à essayer d'améliorer ces résultats en étudiant c<strong>et</strong>te méthode<br />
avec des méta-modèles plus élaborés <strong>et</strong> plus adaptés aux disciplines. Il faudra cependant<br />
qu'il respectent plusieurs conditions :<br />
il doivent être capables de se réactualiser lorsque leur abilité n'est plus assez bonne,<br />
an de s'adapter à la conguration étudiée ;<br />
durant l'optimisation, on cherche seulement à ce que la sortie des méta-modèles ait une<br />
précision correcte, an de ne pas tomber sur des congurations aberrantes ;<br />
à l'optimum, on cherche à maximiser la abilité, les sorties <strong>et</strong> les gradients fournis par<br />
les méta-modèles doivent alors être exacts au point courant.<br />
• L'utilisation de ces méta-modèles présente aussi des limites. Par exemple, lorsque l'on<br />
cherche à construire un méta-modèle à partir des réponses des disciplines optimisées par<br />
rapport à leurs variables locales, on se rend compte que la construction du méta-modèle<br />
coûte trop cher, <strong>et</strong> on se r<strong>et</strong>rouve avec un nombre d'appels aux codes de calcul plus élevé.<br />
Nous essayons de donner ici quelques remarques sur ce que doit être le rôle de l'ingénieur en<br />
optimisation multi-disciplinaire. Sans être un spécialiste dans chacun des domaines, les acteurs<br />
de l'optimisation multi-disciplinaire doivent posséder une culture dans plusieurs domaines de<br />
natures variées.<br />
• <strong>Optimisation</strong> : il faut connaître les diérents algorithmes d'optimisation existants <strong>et</strong> être<br />
capable de les adapter au problème de conception posé.<br />
• Conception de système complexe : an de traiter au mieux la recherche de la conguration<br />
optimale, il est essentiel de posséder une bonne connaissance du système complexe<br />
étudié.<br />
Organisation du processus de conception : il faut posséder une bonne vue d'ensemble<br />
de l'organisation du système, connaître les diérentes disciplines impliquées dans le<br />
processus <strong>et</strong> savoir de quelle manière elles interagissent entre elles.<br />
Pour chacune des disciplines, il faut avoir une bonne culture sur le domaine <strong>et</strong> en<br />
particulier sur plusieurs points.<br />
Connaître la physique des disciplines impliquées : chacune des discipline va solliciter<br />
un ou plusieurs domaines de la physique. Il faut pouvoir appréhender la nature du<br />
problème physique donné, an de mieux connaître la modélisation que l'on va pouvoir<br />
faire pour décrire le comportement du système.<br />
Code haute précision : la modélisation va donner lieu à un code de calcul qui va<br />
perm<strong>et</strong>tre de calculer avec précision la physique du domaine. Il est essentiel d'en connaître<br />
les principes, les entrées <strong>et</strong> les sorties, ainsi que les domaines d'<strong>application</strong> de
109<br />
ces modélisations.<br />
Méta-modèles ou codes de substitution : ces codes haute précision peuvent être gourmands<br />
en temps de calcul, <strong>et</strong> ne sont pas toujours compatibles avec un processus<br />
d'optimisation. Il faut pouvoir leur substituer des méta-modèles, dont le domaine<br />
d'<strong>application</strong> sera plus restreint <strong>et</strong> dont les réponses seront moins précises. An de<br />
garder une cohérence physique, il est essentiel que les méta-modèles s'adaptent avec<br />
l'évolution de la conguration, par exemple en tenant compte des réponses données<br />
par les codes haute délité.<br />
<strong>Optimisation</strong> disciplinaire : lorsque la discipline cherche à optimiser la valeur de ses<br />
variables locales, on doit être en mesure de choisir la méthode d'optimisation la plus<br />
adaptée.<br />
Équilibre entre les disciplines : an de donner une description cohérente du système<br />
complexe, il est essentiel de tenir compte de l'interaction entre les diérentes sorties.<br />
On se doit alors d'équilibrer les entrées <strong>et</strong> les sorties qui participent au couplage des<br />
disciplines. An d'obtenir une réponse dans un temps raisonnable <strong>et</strong> qui pourra être<br />
intégrée dans un processus d'optimisation, on pourra rechercher c<strong>et</strong> équilibre au travers<br />
des réponses données par les méta-modèles.<br />
• Connaissance des outils informatiques : l'implémentation du système complexe <strong>et</strong> du<br />
processus d'optimisation demande une bonne connaissance des environnements informatiques.<br />
Il faut maîtriser les codes de calcul des diérentes disciplines <strong>et</strong> arriver à les faire<br />
communiquer de façon ecace. Une fois le système complexe implémenté, il faut pouvoir<br />
le faire interagir avec les codes d'optimisation.<br />
Une connaissance solide dans chacun de ces domaines perm<strong>et</strong>tra au spécialiste de l'optimisation<br />
multi-disciplinaire d'être au c÷ur de la conception de système complexe <strong>et</strong> d'aider à la<br />
communication entre les diérentes équipes impliquées.
111<br />
Annexe A<br />
Fonctions objectifs <strong>et</strong> contraintes pour<br />
la méthode BLISS<br />
Nous allons montrer dans c<strong>et</strong>te annexe comment sont construits les problèmes d'optimisation<br />
dans la formulation BLISS (Bi-Level Integrated System Synthesis, cf section 2.2.5). L'optimisation<br />
disciplinaire des variables locales sera exposée dans la section A.1. Le problème d'optimisation<br />
global sera donné dans la section A.2, où l'on précisera l'information apportée par les optimisations<br />
locales.<br />
Nous partons du point de conception p 0 = [x 0 , z 0 ]. Une MDA nous perm<strong>et</strong> de dénir les<br />
variables de couplage y, qui seront transparentes pour la suite. On en déduit les valeurs des<br />
fonctions objectifs <strong>et</strong> contrainte.<br />
{<br />
F0 = F (x 0 , z 0 ),<br />
G 0 = G(x 0 , z 0 ).<br />
(A.1)<br />
Une analyse de sensibilité globale (GSE) nous donne les gradients :<br />
{<br />
Dp F 0 = D p F (x 0 , z 0 ),<br />
D p G 0 = D p G(x 0 , z 0 ).<br />
Hypothèse 1. Nous allons faire l'approximation suivante. Les gradients ∂ z G(x, z) seront supposés<br />
constants <strong>et</strong> égaux à ∂ p G 0 autour du point [x 0 , z 0 ].<br />
A.1 <strong>Optimisation</strong>s disciplinaires<br />
Nous allons tout d'abord optimiser les variables locales x pour chacune des disciplines. Les<br />
x seront solutions du problème (A.2) qui dépend de z.<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
min<br />
x<br />
̂Fx (x).<br />
G(x, z) ≤ 0<br />
x l ≤ x ≤ x u<br />
(A.2)<br />
Les fonctions coût seront les linéarisations de la fonction coût globale par rapport aux variables<br />
locales, obtenues précédemment avec GSE.
112 Fonctions objectifs <strong>et</strong> contraintes pour la méthode BLISS<br />
̂F x (x) = F 0 + ∂ x F 0 (x − x 0 ).<br />
(A.3)<br />
Le problème (A.2) est équivalent au problème suivant :<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
min<br />
x<br />
∂ x F 0 (x − x 0 ).<br />
G(x, z) ≤ 0<br />
x l ≤ x ≤ x u<br />
(A.4)<br />
Nous noterons x z les variables optimales <strong>et</strong> λ z les coecients de Lagrange associés. Ils doivent<br />
satisfaire les conditions d'optimalité d'ordre 1 (théorème KKT [Gui03]) :<br />
∂ x F 0 + (λ z ) T ∂ x G = 0,<br />
λ zT G(x, z) = 0,<br />
λ z ≥ 0.<br />
(A.5)<br />
(A.6)<br />
L'optimisation sera eectuée avec z = z 0 . Les solutions du problème en z 0 sont x z0 <strong>et</strong> λ z0 .<br />
Nous dénissons pour la suite les valeurs :<br />
⎧<br />
⎨<br />
⎩<br />
A.2 <strong>Optimisation</strong> globale<br />
̂F x opt = ̂F (x z0 , z 0 ),<br />
G x opt = G(x z0 , z 0 ).<br />
Nous allons alors dénir les fonctions coût <strong>et</strong> contrainte globales :<br />
{<br />
f(z) = ̂F (x z , z),<br />
g(z) = Ĝ(x z, z).<br />
Pour pouvoir poser notre problème d'optimisation global, il nous faut obtenir des informations<br />
sur les gradients de f <strong>et</strong> g.<br />
A.2.1<br />
Calcul de la dérivée de f par rapport aux variables globales z<br />
Dans c<strong>et</strong>te section, nous souhaitons connaître les sensibilités de f <strong>et</strong> g. Nous allons montrer<br />
le résultat suivant :<br />
Propriété 1.<br />
D z f = ∂ z F 0 + (λ z ) T ∂ z G 0 .<br />
(A.7)<br />
Démonstration. La fonction coût globale est :<br />
f(z) = ̂F (x z , z) = F 0 + ∂ x F 0 (x z − x 0 ) + ∂ z F 0 (z − z 0 ).
A.2 <strong>Optimisation</strong> globale 113<br />
La dérivée de f par rapport aux variables globales z est donnée par :<br />
D z f = ∂ x F 0 D z x + ∂ z F 0 .<br />
(A.8)<br />
Le terme D z x étant dicile à calculer, il nous faut parvenir à une expression de D z f diérente.<br />
On dérive la condition de KKT sur l'optimalité des problèmes d'optimisation locaux (A.6)<br />
par rapport à z.<br />
⎛<br />
⎝<br />
...<br />
D z λ i (G i (x z , z 0 )) + λ z i (∂ xG i D z x + ∂ z G i ) = 0<br />
...<br />
⎞<br />
⎠ .<br />
(A.9)<br />
Nous avons alors :<br />
pour les λ z i nuls, λz i (∂ xG i D z x + ∂ z G i ) = 0 ;<br />
lorsque λ z i > 0, la contrainte G i(x z , z) est saturée, c'est-à-dire égale à zéro. En utilisant ce<br />
résultat dans (A.9), le premier terme s'annule <strong>et</strong> on obtient : λ z i (∂ xG i D z x + ∂ z G i ) = 0.<br />
D'où :<br />
∀i, λ z i (∂ x G i D z x + ∂ z G i ) = 0.<br />
(A.10)<br />
Soit :<br />
(λ z ) T (∂ x GD z x + ∂ z G) = 0,<br />
(λ z ) T ∂ x GD z x = −(λ z ) T ∂ z G. (A.11)<br />
On déduit de (A.5) que :<br />
(λ z ) T ∂ x G = −∂ x F 0 ,<br />
puis on injecte ce résultat dans (A.11) pour avoir :<br />
(λ z ) T ∂ z G = ∂ x F 0 D z x.<br />
Le terme ∂ x F 0 D z x qui posait problème dans (A.8) peut être remplacé par (λ z ) T ∂ z G. Les coef-<br />
cients de Lagrange (λ z ) nous perm<strong>et</strong>tent de remonter l'information donnée par les optimisations<br />
disciplinaires.<br />
Nous faisons ici l'hypothèse (ou l'approximation) que les contraintes disciplinaires sont linéairement<br />
dépendantes en z autour du point [x 0 , z 0 ]. Soit ∂ z G(x z , z) = ∂ z G 0 .<br />
On a alors :<br />
D z f = ∂ z F 0 + (λ z ) T ∂ z G 0 .<br />
Les variables x sont optimisées au point z 0 . La fonction coût que nous allons considérer au<br />
niveau global est alors :
114 Fonctions objectifs <strong>et</strong> contraintes pour la méthode BLISS<br />
<strong>et</strong> sa dérivée :<br />
f(z) = F x opt + (∂ z F 0 + (λ z0 ) T ∂ z G 0 )(z − z 0 ),<br />
D z f = ∂ z F 0 + (λ z0 ) T ∂ z G 0 .<br />
Nous avons alors démontré le résultat recherché.<br />
A.2.2 Calcul de la dérivée de g par rapport aux variables globales z<br />
On rappelle l'expression de g :<br />
g(z) = G(x z , z).<br />
Dans c<strong>et</strong>te section, nous allons voir que les contraintes qui sont déjà saturées après les optimisations<br />
disciplinaires ne dépendent plus des variables globales z. Nous proposerons aussi une<br />
façon de traiter les autres contraintes dans le problème d'optimisation global.<br />
Propriété 2.<br />
D z g = ∂ z G − 0 ,<br />
où G − sont les contraintes non saturées par les optimisations locales.<br />
Démonstration.<br />
D z g = ∂ x GD z x + ∂ z G.<br />
Le vecteur des contraintes G peut se décomposer en deux sous-ensembles :<br />
G(x z , z) =<br />
( G 0 (x z , z)<br />
G − (x z , z)<br />
)<br />
(A.12)<br />
G 0 (x z , z) = 0, ce sont les contraintes actives,<br />
G − (x z , z) < 0, ce sont les contraintes satisfaites.<br />
• G 0 : nous avons pour les composantes i de λ z associées à G 0 (x z , z) : λ z i > 0.<br />
D'après (A.10) nous avons :<br />
∂ x G i D z x + ∂ z G i = 0.<br />
(A.13)<br />
Nous avons alors :<br />
∀i / λ i > 0, D z g i = 0.<br />
Les composantes de g qui ont déjà été saturées par les optimisations disciplinaires ne<br />
varieront plus lors de l'optimisation en z. Elles resteront saturées. Nous ne tiendrons plus<br />
compte de ces contraintes lors de l'optimisation en z.
A.2 <strong>Optimisation</strong> globale 115<br />
• G − : nous faisons le choix de ne pas tenir compte, dans sa dérivée, du terme ∂ x G − D z x, <strong>et</strong><br />
de ne garder que la dépendance directe en z : ∂ z G −<br />
Nous faisons ici l'hypothèse (ou l'approximation) que les contraintes disciplinaires non<br />
actives sont linéairement dépendantes en z autour du point [x 0 , z 0 ]. Soit ∂ z G − (x z , z) =<br />
∂ z G − 0 .<br />
Nous rappelons que l'optimisation globale s'est faite autour de z 0 . La fonction contrainte du<br />
problème d'optimisation global sera alors :<br />
Sa dérivée sera alors donnée par :<br />
g(z) = G − x opt + ∂ z G − 0 (z − z0 ).<br />
D z g = ∂ z G − 0 .<br />
Nous avons montré dans c<strong>et</strong>te section les deux résultats suivants :<br />
{<br />
Dz f = ∂ z F 0 + (λ z ) T ∂ z G 0 ,<br />
D z g = ∂ z G − 0 .
116 Fonctions objectifs <strong>et</strong> contraintes pour la méthode BLISS<br />
A.2.3<br />
Problème d'optimisation en z<br />
Les fonctions coût <strong>et</strong> contrainte du problème global sont alors :<br />
⎧<br />
⎨<br />
⎩<br />
f(z) = F xopt + ∂ z F 0 + (λ z0 ) T ∂ z G 0<br />
g(z) = G − x opt + ∂ z G − 0 (z − z0 )<br />
Le problème d'optimisation global à résoudre en z sera :<br />
⎧<br />
⎪⎨<br />
min<br />
z<br />
∂ z F 0 + (λ z0 ) T ∂ z G 0 (z − z 0 ),<br />
⎪⎩<br />
G − x opt + ∂ z G − 0 (z − z0 ) ≤ 0,<br />
z l ≤ z ≤ z u .<br />
Il faut cependant rappeler que nous faisons ici une approximation en considérant les termes<br />
∂ z G(x z , z) = ∂ z G 0 constants autour de [z 0 , x 0 ]. Il en va de même pour la linéarisation de la<br />
fonction coût. On peut m<strong>et</strong>tre en place une région de conance pour les variables partagées z<br />
pour éviter de s'éloigner trop du point initial <strong>et</strong> d'utiliser une information sur les gradients trop<br />
dégradée.
117<br />
Annexe B<br />
Algorithmes d'optimisation<br />
Dans c<strong>et</strong>te annexe, nous allons présenter certains algorithmes <strong>et</strong> méthodes d'optimisation<br />
cités dans c<strong>et</strong>te thèse. La section B.1 expose la méthode de Gauss-Newton <strong>et</strong> la méthode des<br />
objectifs bornés perm<strong>et</strong>tant de déterminer un front de Par<strong>et</strong>o est donnée en section B.2. Nous<br />
présentons un optimiseur LIN qui linéarise notre problème <strong>et</strong> qui utilise la méthode des régions<br />
de conance en section B.3.<br />
B.1 Algorithme de Gauss-Newton<br />
C<strong>et</strong>te méthode s'applique aux problèmes de moindres carrés du type :<br />
j(h) = 1 2 ‖J(h)‖2 = 1 2<br />
∑N t<br />
i=1<br />
‖J i (h)‖ 2 .<br />
(B.1)<br />
où J est une <strong>application</strong> de R Nt dans lui-même.<br />
On note DJ la diérentielle de J. Le gradient de j est donné par :<br />
∇j(h) = DJ(h) T J(h).<br />
(B.2)<br />
Nous allons chercher à annuler ce gradient pour obtenir un minimum. Pour cela, on eectue<br />
un développement limité du gradient dans une direction d :<br />
∇j(h + d) = ∇j(h) + ∇ 2 j(h)d + O(d 2 ).<br />
(B.3)<br />
Nous négligeons les termes d'ordres supérieurs <strong>et</strong> nous recherchons un d tel que :<br />
∇j(h + d) = 0.<br />
(B.4)<br />
Le vecteur d doit donc satisfaire l'équation :<br />
∇ 2 j(h)d = −∇j(h).<br />
(B.5)<br />
Le calcul de la matrice Hessienne est en général très coûteux. Cependant, nous pouvons<br />
remarquer que :<br />
m∑<br />
∇ 2 j(h) = DJ(h) T DJ(h) + J i (h)∇ 2 J i (h).<br />
(B.6)<br />
Nous pouvons ignorer le second terme de la Hessienne. Cela présente l'avantage de ne pas<br />
avoir à calculer les dérivées secondes de J. C<strong>et</strong>te approximation est justiée si les quantités<br />
i=1
118 Algorithmes d'optimisation<br />
J i (h)∇ 2 J i (h) sont négligeables, soit parce que les termes J i (h) sont proches de 0, ce que nous<br />
espérons, soit parce que les termes de dérivée seconde ∇ 2 J i (h) sont faibles autour de ce minimum.<br />
Dans ce cas, on peut approcher la Hessienne par :<br />
∇ 2 J i (h) ≃ DJ(h) T DJ(h)<br />
Nous avons alors le système suivant à résoudre :<br />
DJ(h) T DJ(h)d = −DJ(h) T J(h)<br />
(B.7)<br />
(B.8)<br />
Lorsque la matrice DJ(h) T DJ(h) n'est pas inversible, mais au moins semi-dénie positive,<br />
nous pouvons remplacer le système (B.8) par :<br />
(DJ(h) T DJ(h) + λ)d = −DJ(h) T J(h), λ > 0<br />
(B.9)<br />
L'utilisation d'une méthode directe est peu appropriée pour ce genre de problème. En e<strong>et</strong>,<br />
le calcul de la matrice DJ(h) est très coûteux. Nous préférerons utiliser des méthodes itératives,<br />
qui perm<strong>et</strong>tent de se servir uniquement des produits matrice-vecteur z = DJ(h)d puis DJ(h) T z<br />
pour obtenir DJ(h) T DJ(h)d .<br />
Un bon exemple de méthode itérative très performante est celui du Gradient Conjugué (voir<br />
[Gui03]).<br />
B.2 Méthode des objectifs bornés (construction d'un front de<br />
Par<strong>et</strong>o)<br />
Il arrive que l'on ne cherche pas à optimiser un objectif en particulier, mais plutôt à trouver<br />
un compromis entre plusieurs critères. Nous allons montrer ici la construction d'un front de<br />
Par<strong>et</strong>o pour deux fonctions f 1 (x) <strong>et</strong> f 2 (x) à minimiser selon la variable x. Nous présentons la<br />
méthode des objectifs bornés dite aussi méthode ε-contrainte (voir [SC02]). Le front de Par<strong>et</strong>o<br />
est l'ensemble des solutions non dominées, au sens de Par<strong>et</strong>o, ou Par<strong>et</strong>o-optimales.<br />
Un point p est sur ce front si <strong>et</strong> seulement si :<br />
⎧<br />
⎨<br />
∀y.<br />
⎩<br />
f 1 (p) ≤ f 1 (y)<br />
ou<br />
f 2 (p) ≤ f 2 (y).<br />
(B.10)<br />
Voici une méthode simple pour déterminer le front de Par<strong>et</strong>o pour ces deux fonctions.<br />
• On calcule les optima de chacune des fonctions f 1 <strong>et</strong> f 2 :<br />
x 1 minimise f 1 <strong>et</strong> x 2 minimise f 2 .<br />
La gure B.1 présente en abscisse la valeur de la fonction f 2 <strong>et</strong> en ordonnée la valeur<br />
de f 1 . Les deux optima x 1 <strong>et</strong> x 2 sont représentés par leurs coordonnées respectives<br />
(f 2 (x 1 ), f 1 (x 1 )) <strong>et</strong> (f 2 (x 2 ), f 1 (x 2 )).<br />
• On part du point x 2 <strong>et</strong> on résout le problème (B.11) pour plusieurs valeurs du réel c 1 prises<br />
dans un ordre croissant dans l'intervalle [f 2 (x 2 ), f 2 (x 1 )] :<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
min f 1 (x)<br />
x<br />
sous contraintes :<br />
f 2 (x) ≤ c 1 .<br />
(B.11)<br />
L'ensemble des solutions obtenues seront notées x c1 . Elles sont sur le front de Par<strong>et</strong>o <strong>et</strong><br />
représentées par les symboles o sur la gure B.2. Les contraintes d'inégalité f 2 (x) ≤ c 1<br />
sont représentées par les lignes en pointillés.
B.2 Méthode des objectifs bornés (construction d'un front de Par<strong>et</strong>o) 119<br />
f 1<br />
f 2 (x 2 )<br />
f 1 (x 2 )<br />
✻<br />
.<br />
*<br />
f 1 (x 1 )<br />
x 2<br />
x 1<br />
*<br />
o<br />
*<br />
o<br />
o<br />
o<br />
.<br />
✲<br />
Fig. B.1 Optima x 1 <strong>et</strong> x 2 .<br />
f 2 (x 1 ) f 2<br />
f 1<br />
f 2 (x 2 )<br />
f 1 (x 2 )<br />
✻<br />
.<br />
*<br />
f 1 (x 1 )<br />
x 2<br />
x 1<br />
*<br />
o<br />
*<br />
o<br />
o<br />
o<br />
.<br />
✲<br />
f 2 ≤ c 1<br />
f 2 (x 1 ) f 2<br />
Fig. B.2 Solution des problèmes (B.11).<br />
On remarque que, lorsque c 1 est proche de f 2 (x 2 ), le point obtenu est proche de x 2 .<br />
Lorsque c 1 tend vers f 2 (x 1 ), le point se rapproche de x 1 .<br />
• On peut aussi construire le front dans l'autre sens : on part du point x 1 <strong>et</strong> on résout le<br />
problème (B.12) pour des valeurs croissantes de c 2 ∈ [f 1 (x 1 ), f 1 (x 2 )].<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
min f 2 (x)<br />
x<br />
sous contraintes :<br />
f 1 (x) ≤ c 2 .<br />
(B.12)<br />
f 1<br />
f 2 (x 2 )<br />
f 1 (x 2 )<br />
✻<br />
.<br />
*<br />
f 1 ≤ c 2<br />
Fig. B.3 Solution des problèmes (B.12).<br />
f 1 (x 1 )<br />
x 2<br />
x 1<br />
*<br />
o<br />
*<br />
o<br />
o<br />
o<br />
.<br />
✲<br />
f 2 (x 1 ) f 2
120 Algorithmes d'optimisation<br />
L'ensemble des solutions obtenues seront notées x c2 . Elles sont sur le front de Par<strong>et</strong>o <strong>et</strong><br />
représentées par les symboles * sur la gure B.3. Les contraintes d'inégalité f 1 (x) ≤ c 2<br />
sont représentées par les lignes en pointillés. On doit vérier que les deux fronts de Par<strong>et</strong>o<br />
concordent.<br />
• Le fait de construire le front de Par<strong>et</strong>o dans les deux sens perm<strong>et</strong> d'en avoir une meilleure<br />
représentation.<br />
B.3 Optimiseur LIN<br />
An de pouvoir juger les performances de l'optimiseur CFSQP, nous avons programmé l'optimiseur<br />
LIN. Son principe est de linéariser le problème d'optimisation, tout en utilisant une région<br />
de conance, pour s'assurer de la bonne qualité des optimisations. Voici le déroulement de c<strong>et</strong><br />
algorithme :<br />
1. point de départ X cur , taille de région de conance ∆ ;<br />
2. calcul des fonctions coût <strong>et</strong> contraintes : f(X cur ) <strong>et</strong> g(X cur )<br />
3. calcul des gradients : ∂ X f(X cur ) <strong>et</strong> ∂ X g(X cur )<br />
4. résolution du problème d'optimisation linéaire :<br />
⎧<br />
min ∂ Xf(X cur ).(X − X cur ),<br />
X<br />
⎪⎨ g(X cur ) + ∂ X g(X cur ).(X − X cur ) ≤ 0,<br />
⎪⎩<br />
X l ≤ X ≤ X u ,<br />
X − ∆ ≤ X ≤ X + ∆;<br />
(B.13)<br />
où ∆ est la taille de la région de conance choisie à l'étape 1. Pour résoudre le problème<br />
(B.13), on se sert de la fonction linpro de Scilab ;<br />
5. calcul des sorties au point X opt : f(X opt ) <strong>et</strong> g(X opt ) ;<br />
6. actualisation de la région de conance (voir [Rav07]). On cherche à estimer la qualité de<br />
l'approximation. Pour cela on dénit ρ tel que :<br />
(<br />
f(X opt ) − f(X cur )<br />
ρ = min<br />
∂ X f(X cur ).(X opt − X cur ) , ..., g i (X opt ) − g i (X cur )<br />
)<br />
∂ X g i (X cur ).(X opt − X cur ) ... . (B.14)<br />
On regarde le rapport entre la variation des sorties réelles <strong>et</strong> la variation des sorties de<br />
l'approximation<br />
y(X opt ) − y(X cur )<br />
∂ X y(X cur ).(X opt − X cur ) ,<br />
pour la fonction coût <strong>et</strong> les contraintes ; plus le rapport est proche de 1, plus la qualité de<br />
notre approximation est bonne ; on choisit la nouvelle taille de la région de conance en<br />
fonction de ρ :<br />
on considère les réels η 1 <strong>et</strong> η 2 0 < η 1 < η 2 < 1,<br />
ρ > η 2 : la validité de l'approximation linéaire est très bonne, on peut augmenter la taille<br />
de la région de conance ∆ (par exemple en la multipliant par 1.5) <strong>et</strong> on repart du point<br />
X opt ,<br />
η 1 ≤ ρ ≤ η 2 : la validité de l'approximation est considérée comme bonne, on garde la<br />
même taille de région de conance <strong>et</strong> on repart du point X opt ,
B.3 Optimiseur LIN 121<br />
ρ < η 1 : l'approximation linéaire n'est plus valide, on diminue la taille de la région de<br />
conance ∆ (en la divisant par 2) <strong>et</strong> on repart du point précédent X cur ,<br />
on prendra comme valeurs numériques des constantes : η 1 = 0.01 <strong>et</strong> η 2 = 0.9 ;<br />
7. on teste la convergence, par exemple sur l'évolution des variables.
Références bibliographiques 123<br />
Références bibliographiques<br />
[Agt00] J. S. Agte. A tool for <strong>application</strong> of bi-level integrated system synthesis (BLISS)<br />
to multi-disciplinary optimization problem, 2000.<br />
[AKZP05] J. T. Allison, M. Kokkolaras, M. Zawislak, and P. Papalambros. On the use of<br />
anlaytical targ<strong>et</strong> cascading and collaborative optimization for complex system design.<br />
In 6th World congress on Structural and Multidisciplinary Optimization, Rio<br />
de Janeiro, 30 May-03 June 2005.<br />
[AL00] N. M. Alexandrov and R. Lewis. Algorithmic perspectives on problem formulations<br />
in MDO. In 8th AIAA/USAF/NASA/ISSMO Symposium on Multidisciplinary<br />
Analysis and Optimization, 2000. AIAA Paper 2000-4719.<br />
[Ale] N. M. Alexandrov. Problem synthesis in MDO : an overview.<br />
[All04] J. T. Allison. Complex system optimization : A review of analytical targ<strong>et</strong> cascading,<br />
collaborative optimization, and other formulations. Master's thesis, Department<br />
of Mechanical Engineering, University of Michigan, 2004.<br />
[Alt02] Troy David Altus. A response surface m<strong>et</strong>hodology for bi-level integrated system<br />
synthesis (BLISS). Technical Report NASA/CR-2002-211652, NASA Langley<br />
Research Center, 2002.<br />
[AR00] N. M. Alexandrov and Lewis M. Robert. Analytical and computational aspects<br />
of collaborative optimization. Technical Report 886733, NASA Langley Technical<br />
Report Server, 2000.<br />
[Bad07] C. Badue. Dénition conceptuelle d'avions : vers une optimisation multiobjectif,<br />
robuste <strong>et</strong> incertaine. PhD thesis, Université Paul Sabatier Toulouse III, 2007.<br />
[Bar98] P<strong>et</strong>er Bartholomew. The role of MDO within aerospace design and progress toward<br />
an MDO capability. In AIAA-98-4705, 1998.<br />
[Ber04] Frank Vanden Berghen. CONDOR : a constrained, non-linear, derivative-free parallel<br />
optimizer for continuous, high computing load, noisy objective functions. PhD<br />
thesis, Université Libre de Bruxelles, 2004.<br />
[BG98] J. F. M. Barthelemy and J. P. Giesing. A summary of industry MDO <strong>application</strong>s<br />
and needs. In 7th AIAA/USAF/NASA/ISSMO Symposium on Multidisciplinary<br />
Analysis and Optimization, number 98-4737, 1998.<br />
[BGKS96] R. Braun, P. Gage, I. Kroo, and I. Sobieski. Implementation and performance issues<br />
in collaborative optimization. Technical Report NASA-AIAA-96-4017, AIAA, 1996.<br />
[BKS06] N. Bartoli, D. Kalfon, and M. Samuelides. Revue d'algorithmes d'optimisation.<br />
Technical Report RT 1/10436/DTIM, ONERA, 2006.<br />
[Bro04] N. Brown. Evaluation of MDO techniques applied to a reusable launch vehicle.<br />
Technical Report AIAA-2005-707, Giorgia Institute of Technology, 2004.<br />
[BS06] C. Blondeau and J.-S. Schotté. Méthodologies MDO. Technical Report RT 3/11576,<br />
ONERA, 2006.
124 Références bibliographiques<br />
[BSBM07]<br />
N. Bartoli, M. Samuelides, D. Bailly, and M. Marcel<strong>et</strong>. Revue de modèles réduits<br />
pour l'optimisation. Technical Report RT 2/11576/DTIM, ONERA, 2007.<br />
[CDF + 93] E. J. Cramer, J. E. Dennis, P. D. Frank, Paul D. Frank, R. M. Lewis, and G. R.<br />
Shubin. Problem formulation for multidisciplinary optimization. SIAM Journal on<br />
Optimization, 4 :754776, 1993.<br />
[Cea86]<br />
[CST00]<br />
[GHN96]<br />
[GM97]<br />
[Gri00]<br />
J. Cea. Conception optimale ou identication de forme, calcul rapide de la dérivée<br />
directionnelle de la fonction coût. M. A. A. N., 20(3) :371402, 1986.<br />
N. Cristianini and J. Shawe-Taylor. An introduction to support vector machines.<br />
Cambridge University Press, 2000.<br />
C. R. Gumbert, J. W. Hou, and P. A. Newman. Aiaa 20011107 simultaneous aerodynamic<br />
analysis and design optimization (saado) for a 3d exible wing. In With<br />
Automatic Dierentiation (ADIFOR), Computational Aerosciences Workshop 95,<br />
pages 8285, 1996.<br />
P. Guillaume and M. Masmoudi. Solution to the time-harmonic maxwell's equations<br />
in a waveguide ; use of higher-order derivatives for solving the discr<strong>et</strong>e problem.<br />
SIAM J. Numer. Anal., 34(4) :13061330, 1997.<br />
A. Griewank. Evaluating derivatives : Principles and techniques of algorithmic<br />
dierentiation. (19), 2000.<br />
[Gui03] P. Guillaume. <strong>Optimisation</strong> non linéaire. MIP INSA Toulouse, 2002/2003.<br />
[HBSS90]<br />
P Hajela, C.L. Bloebaum, and J Sobieszczanski-Sobieski. Application of global<br />
sensitivity equations in multidisciplinary aircraft synthesis. Journal of Aircraft,<br />
(12) :10021010, 1990.<br />
[Jam90] A. Jameson. Control theory <strong>application</strong>s for optimum design of aerodynamic<br />
shapes. In 29th IEEE Conference on Decision and Control, pages 176179, Honolulu,<br />
Dec. 1990.<br />
[Kel99a] C. T. Kelley. D<strong>et</strong>ection and remediation of stagnation in the Nelder-Mead algorithm<br />
using a sucient decrease condition. SIAM Journal of Optimization,<br />
10(1) :4355, 1999.<br />
[Kel99b]<br />
[Kim01]<br />
[KRS + 04]<br />
[KY00]<br />
[LA04]<br />
[Lab04]<br />
C. T. Kelley. Iterative m<strong>et</strong>hods for optimization. Frontiers in Applied Mathematics,<br />
SIAM, pages 4052, 1999.<br />
H. M. Kim. Targ<strong>et</strong> cascading in optimal system design. PhD thesis, University of<br />
Michigan, U.S.A, 2001.<br />
H. Kim, S. Ragon, G. Soremekun, B. Malone, and J. Sobieski. Supersonic business<br />
j<strong>et</strong> design through bi-level integrated system synthesis. In 1999 World Aviation<br />
Conference, number 1999-01-5622, 2004.<br />
S. Kodiyalam and C. Yuan. Evaluation of m<strong>et</strong>hods for multidisciplinary design<br />
optimization (MDO), part ii. Technical Report NASA/CR-2000-210313, NASA,<br />
Langley Research Center, november 2000.<br />
P. A. LeGresley and J. J. Alonso. Improving the performance of design decomposition<br />
m<strong>et</strong>hods with POD. In 10th AIAA/ISSMO Multidisciplinary Analysis. AIAA,<br />
2004. AIAA 2004-4465.<br />
M. Laban. Multi-disciplinary analysis and optimisation of supersonic transport<br />
aircraft wing planforms. In 10th AIAA/ISSMO Multidisciplinary Analysis and<br />
Optimization Conference, 2004.
Références bibliographiques 125<br />
[Law01] C. Lawrence. User's guide for CFSQP version 2.5 a c code for solving (large<br />
scale) constrained nonlinear (minmax) optimization problems, generating iterates<br />
satisfyng all inequality constraints. Technical Report TR-94-16-r1, University of<br />
Maryland, College Park, MD 20742, 2001.<br />
[Lin04]<br />
[LT01]<br />
[LTB96]<br />
[MAP05]<br />
[MKP99]<br />
J. G. Lin. Analysis and enhancement of collaborative optimization for multidisicplinary<br />
design. AIAA journal, Vol 42, No 2, February 2004.<br />
C. T. Lawrence and A. L. Tits. A computationally ecient feasible sequential<br />
quadratic programming algorithm. In SIAM J. OPTIM, Vol. 11, NO 4, pp 1092-<br />
1118, 2001.<br />
S. Lawrence, A. C. Tsoi, and A. D. Back. Function approximation with neural n<strong>et</strong>works<br />
and local m<strong>et</strong>hods : bias, variance and smoothness. In Australian Conference<br />
on Neural N<strong>et</strong>works, pages 1621. Australian National Univ., 1996.<br />
Mohamed Masmoudi, Didier Auroux, and Yogesh Parte. The state of the art in<br />
collaborative design. 2005. Post SAROD Workshop-2005.<br />
N. Michelena, H. M. Kim, and P.Y. Pampalambros. A system partitioning and<br />
optimization approach to targ<strong>et</strong> cascading. In Proc. 12th Int. Conf. on Engineering<br />
Design, (U. Lindemann <strong>et</strong> al., Eds, pages 11091112, Munich, Germany, 1999.<br />
[MKRHU99] M. Mongeau, H. Karsenty, V. Rouzé, and J.-B. Hiriart-Urruty. Comparison of<br />
public-domain software for black box global optimization. Optimization M<strong>et</strong>hods<br />
and Software, 1999.<br />
[MNP98]<br />
[Mor85]<br />
[Mor06]<br />
[MP00]<br />
[MP01]<br />
[MP06]<br />
[MPHC08]<br />
[NMA99]<br />
R. Mäkinen, P. Neittaanmäki, and J. Périaux. A gen<strong>et</strong>ic algorithm for multiobjective<br />
design optimization in aerodynamics and electromagn<strong>et</strong>ics. In Papailiou<br />
<strong>et</strong> al., editor, Computation Fluid Dynamics 98, Proceedings of the ECCOMAS 98<br />
Conference, volume 2, pages 418422, Athens, Greece, 1998. Wiley.<br />
J. Morgenstern. How to compute fast a function and all its derivatives, a variation<br />
on the theorem of Baur-Strassen. SIGACT News, 16(4) :6062, 1985.<br />
Franck Morel. Cahier des charge de l'<strong>application</strong> avion (proj<strong>et</strong> DOOM). Technical<br />
Report RT 1/11576/DPRS, ONERA, 2006.<br />
N. Michelena and P.Y. Pampalambros. Trends and challenges in system design<br />
optimization. In International Workshop on Multidisciplinary Design Optimization,<br />
Pr<strong>et</strong>oria, S. Africa, August 7-10 2000.<br />
B. Mohammadi and O. Pironneau. Applied Shape Optimization for Fluids. Oxford<br />
University Press, 2001.<br />
M. Masmoudi and Y. Parte. Disciplinary interaction variable elimination (DIVE)<br />
approach for MDO. ECCOMAS CFD 2006, 2006.<br />
M. Masmoudi, Y. Parte, J. Herm<strong>et</strong>z, and J. Clément. DIVE : A New Approach<br />
for Multidisciplinary Optimization. ECCOMAS, Venice, 2008.<br />
R. M. Lewis N. M. Alexandrov. Comparative properties of collaborative optimization<br />
and other approaches to MDO. In First ASMO UK/ISSMO CONFERENCE<br />
on Engineering Design Optimization, 1999.<br />
[OMD09] Consorsium OMD-RNTL. <strong>Optimisation</strong> multi-disciplinaire en mécanique (à<br />
paraître). Hermes, 2009.<br />
[Pla99]<br />
J. C. Platt. Advances in Kernel M<strong>et</strong>hods - Support Vector Learning, chapter Fast<br />
training of support vector machines using sequential minimal optimization, pages<br />
185208. Number 12. MIT Press, Cambridge, Massachus<strong>et</strong>ts, 1999.
126 Références bibliographiques<br />
[Pow07] M. J. D. Powell. Developments of NEWUOA for unconstrained minimization<br />
whithout derivatives. Technical Report DAMTP 2007/NA05, Centre for Mathmatical<br />
Sciences, 2007.<br />
[Pér98] J. Périaux. Gen<strong>et</strong>ic Algorithms and Evolution Strategy in Engineering and Computer<br />
Science : Recent Advances and Industrial Applications. John Wiley & Son<br />
Ldt, 1998.<br />
[Rav07] M. Ravachol. Rapport d'avancement. "optimisation <strong>multidisciplinaire</strong>". Technical<br />
report, DASSAULT AVIATION / OMD-RNTL, 2007.<br />
[Ray94] D. P. Raymer. Aircraft design : A conceptual approach. AIAA Education Series,<br />
New York, 1994.<br />
[SAS98] J. Sobieski, J. S. Agte, and R. Sandusky. Bi-level integrated system synthesis<br />
(BLISS). In AIAA/USAF/NASA/ISSMO Symposium, number AIAA 98-4916,<br />
1998.<br />
[SC02] P. Siarry and Y. Coll<strong>et</strong>te. <strong>Optimisation</strong> Multiobjectif. Groupe Eyrolles, 2002.<br />
[SH96] J. Sobieski and R. T. Haftka. Multidisciplinary aerospace design optimization :<br />
Survey of recent developments. Structural Optimization, 14 :123, 1996.<br />
[Sim98] T. W. Simpson. Approaches to multidisiciplinary design optimization, 1998.<br />
[SK00] I. P. Sobieski and I. M. Kroo. Collaborative optimization using response surface<br />
estimation. AIAA Journal, 38(10) :19311938, 2000.<br />
[Tar07] N. Taraud. Modélisation asymptotique des plasmas, approche par la méthode des<br />
développements asymptotiques raccordés. Master's thesis, <strong>ISAE</strong>, 2007.<br />
[TD02] Z. L. Tang and J. A. Désidéri. Towards self-adaptive param<strong>et</strong>erization of Bezier<br />
curves for airfoil aerodynamic design. Technical Report RR-4572, INRIA, October<br />
2002. URL :http ://www-sop.inria.fr/rapports/sophia/RR-4572.html.<br />
[TNRB98] R Tapp<strong>et</strong>a, S Nagendra, JE Renaud, and K Badhrinath. Concurrent sub-space<br />
optimization (csso) MDO algorithms in iSIGHT : Validation and testing. Technical<br />
Report 97CRD186, GE Research & Develoment Center, 1998.<br />
[Van01a] G. N. Vanderplaast. DOT USERS MANUAL Version 4.2. Vanderplaast R&D Inc.,<br />
Colorado Springs, 2001.<br />
[Van01b] G. N. Vanderplaats. Numerical Optimization Techniques for Engineering Design.<br />
Vanderplaast R&D Inc., Colorado Springs, 2001.<br />
[Vap95] V. N. Vapnik. The Nature of Statistical Learning Theory. Springer-Verlag, 1995.<br />
[WW04] G. J. Weck and A. S. Wilcox. Multidisicplinary system design optimization<br />
(MSDO), decomposition and coupling, 2004.