25.11.2020 Views

Essais & Simulations n°117

La simulation, élément indissociable des essais

La simulation, élément indissociable des essais

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

www.mesures-et-tests.com<br />

La simulation, élément indissociable des essais<br />

Page 46<br />

MESURES ET MÉTHODES DE MESURES<br />

Moyens de mesure en production<br />

et acquisition de données<br />

Page 9<br />

ESSAIS ET MODÉLISATION<br />

Congrès Nafems et Forum Teratec :<br />

2 événements majeurs<br />

Page 26<br />

N° 117 • JUIN 2014 • TRIMESTRIEL • 20 €


Edito<br />

<strong>Essais</strong> et simulation,<br />

désormais inséparables<br />

D’aucuns l’affirment désormais comme une loi cartésienne, les essais sont indissociables<br />

de la simulation numérique, mettant ainsi un terme à une pseudo-vérité qui ne<br />

manquai pas de hérisser le poil des grands laboratoires d’essais, celle qui, il n’y a pas<br />

si longtemps encore, promettait que les essais physiques ne seraient qu’un lointain souvenir.<br />

Certes, des souffleries centenaires comme celle qu’avait créée Gustave Eiffel dans le 16 e<br />

arrondissement de Paris, et toujours en activité (cf. <strong>Essais</strong> & <strong>Simulations</strong> n°110), ne courent<br />

plus les rues. Et le métier a beaucoup évolué depuis. Mais l’idée largement diffusée dans les<br />

années 90 consistant à affirmer que la simulation numérique aura raison des essais en environnement<br />

est aujourd’hui considérée comme vaine.<br />

Enterrée la hache de guerre ? Pas si simple. Car si l’on considère que les essais en vol d’un<br />

avion ou d’un hélicoptère seront toujours incontournables pour valider les résultats de calculs<br />

assidûment menés dans les bureaux d’études, d’autres secteurs d’activité tels que l’aéronautique<br />

ont longtemps creusé le fossé, donnant une quasi-exclusivité à la simulation pour valider<br />

la conception et le développement d’un produit, jusqu’à sa sortie sur le marché.<br />

Il n’en demeure pas moins que les deux domaines sont complémentaires. L’un servant inexorablement<br />

l’autre. La simulation a permis, d’une part, de réduire considérablement la durée<br />

et le coût des essais. De plus, elle a simplifié les campagnes de tests ; les industriels sont<br />

désormais capables de mener des campagnes en interne, chose qui n’était pas forcément le<br />

cas hier. D’autre part, de par ces avantages, elle a élargi le champ des possibles en poussant<br />

les ingénieurs à effectuer des opérations de simulation dépassant le cadre des cahiers des<br />

charges. Aller plus vite permettra toujours d’aller plus loin.<br />

Ce numéro spécial consacré à deux événements majeurs, le Congrès Nafems et le Forum<br />

Teratec, et dont <strong>Essais</strong> & <strong>Simulations</strong> est partenaire, a tenu à montrer l’importance de la simulation<br />

– et donc de la nécessité des moyens de calculs haute performance (HPC) – dans les<br />

essais, leurs défis et le rôle croissant qu’elle joue aujourd’hui. La rédaction a également tenu<br />

à montrer la place grandissante qu’occupe la France qui, après bien des efforts, rattrape le retard<br />

accusé ces dernières années en termes de moyens de calcul. En espérant que les essais<br />

profitent de cette dynamique.<br />

Olivier Guillon<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 1


EXPERT EN<br />

VIBRO ACOUSTIQUE<br />

Acquisition<br />

de données<br />

<strong>Simulations</strong><br />

numériques<br />

• analyse modale expérimentale<br />

• modélisation par éléments finis<br />

• déformées opérationnelles<br />

• simulations acoustiques<br />

Laboratoire d’essais<br />

• <strong>Essais</strong> vibratoires jusqu’à 80 000 Newton<br />

• <strong>Essais</strong> acoustiques (salle réverbérante, tube de Kundt)<br />

• <strong>Essais</strong> climatiques<br />

Pour le respect des critères de discrétion vibratoire et acoustique.<br />

Pour caractériser le comportement de vos structures.<br />

Pour fiabiliser vos produits.<br />

Pour caractériser les propriétés acoustiques de vos produits.<br />

dBVib Groupe<br />

Montée de Malissol<br />

38 200 - VIENNE - FRANCE<br />

Tél : +0033 4 74 16 19 90 - Fax : +0033 4 74 16 19 99<br />

contact.cons@dbvib.com<br />

www.dbvib.com<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 2


Sommaire<br />

Actualités<br />

Partenariat entre SpaceClaim et le Cetim ................4<br />

De nouveaux modèles de machine<br />

d’essais haute capacité ..........................................4<br />

Le CNRS fait appel à Marc, de MSC ........................5<br />

Le Cetim double ses moyens d’essais<br />

à Casablanca ...........................................................6<br />

Mesures et Méthodes de mesure<br />

Bien choisir ses équipements<br />

d'acquisition de données .......................................10<br />

Mesure en production :<br />

un panorama des technologies .............................13<br />

Mecaclim<br />

Variabilité de l’environnement climatique ..............17<br />

<strong>Essais</strong> et Modélisations<br />

Dossier<br />

SIMULATION<br />

L'INTERVIEW : « Les essais<br />

demeureront incontournables » ............................46<br />

Airbus, DGA TA et Intespace, ensemble pour<br />

relever les défis de l’A350 ...................................48<br />

Prédiction et correction des distorsions<br />

géométriques issues de la fabrication<br />

de pièces composites hautes performances<br />

pour l’industrie automobile ....................................49<br />

Poclain Hydraulics optimise ses solutions<br />

avec un outil de simulation ....................................55<br />

Simuler la thermoacoustique<br />

avec Comsol Multiphysics .....................................58<br />

Diagnostic de défauts dans les structures<br />

mécaniques par Subspace Fitting .........................60<br />

Impression 3D, la signature d’une nouvelle<br />

révolution industrielle ? ...........................................22<br />

Quand l’armée de l’air fait appel<br />

à la fabrication additive ........................................24<br />

>> Spécial Congrès Nafems France<br />

Le Congrès Nafems ouvre ses portes à Paris .....26<br />

Airbus simule un essai complet ..........................29<br />

La simulation numérique se professionnalise ........30<br />

Redonner aux essais leurs lettres de noblesse ......32<br />

La simulation face à ses défis de demain ............33<br />

>> Spécial Forum Teratec<br />

Le Forum Teratec réaffirme l’importance<br />

de la simulation et du calcul intensif .....................36<br />

La simulation numérique : un élément<br />

incontournable de l’industrie actuelle ....................38<br />

La parole à… une entreprise confirmée ................40<br />

La parole à… une start-up .....................................41<br />

La parole à… une PME ..........................................43<br />

La parole à… un laboratoire ...................................44<br />

Vie de l’ASTE<br />

Journée ASTE- LAAS/CNRS « Capteurs<br />

innovants pour les essais d’environnement » ............61<br />

Outils<br />

Programme des formations ......................................63<br />

Répertoires des annonceurs .....................................64<br />

<strong>Essais</strong> & <strong>Simulations</strong> est la revue partenaire exclusive<br />

de l’ASTE (Association pour le développement<br />

des sciences et techniques de l’environnement).<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 3


Actualités<br />

Entreprise et Marché<br />

Hutchinson crée un centre technique<br />

de pointe dédié aux composites<br />

Implanté à Châlette-sur-Loing (Loiret),<br />

le centre technique composite (CTeC)<br />

est consacré au développement de<br />

nouveaux produits, matériaux et procédés<br />

composites, et comprendra une<br />

cinquantaine de personnes fin 2014.<br />

Adossé au centre R&D d’Hutchinson,<br />

le CTeC bénéficie de l’expertise<br />

du groupe en acoustique, mécanique<br />

vibratoire, protection thermique et<br />

également de ses moyens d’analyse<br />

de premier ordre (calcul intensif, salle<br />

réverbérante, chambre anéchoïque). Il<br />

travaillera sur de nouveaux procédés<br />

de fabrication à temps de cycle beaucoup<br />

plus courts tels que l’injection<br />

sous toutes ses formes, l’estampage,<br />

le thermoformage, l’enroulement filamentaire<br />

ou la pultrusion, mais également<br />

sur de nouveaux matériaux<br />

tels que des alliages thermoplastiques<br />

spécifiques.<br />

Optis fournit un centre de réalité<br />

virtuelle à Avic Chine<br />

L’éditeur de solutions logicielles décisionnelles<br />

de simulation optique, de<br />

la lumière et de la vision humaine, basées<br />

sur la physique, a livré et mis en<br />

service à Avic Chine le premier centre<br />

de réalité virtuelle dédié à la simulation<br />

réaliste du ciel, Optis Sky Simulator.<br />

Cette solution combine matériels<br />

et logiciels dans un centre de réalité<br />

virtuelle, afin de couvrir l’intégralité<br />

des niveaux de lumière rencontrés<br />

dans la vie réelle, rapprochant à présent<br />

le monde numérique du monde<br />

réel. Cette solution renforce ainsi la<br />

stratégie du groupe visant à offrir une<br />

plateforme de prototypage virtuel intégrale<br />

à un large éventail d’industries.<br />

Simulation<br />

Partenariat entre SpaceClaim<br />

et le Cetim<br />

Le Cetim, Institut technologique<br />

de mécanique<br />

annonce son partenariat<br />

avec SpaceClaim, leader<br />

du marché des logiciels<br />

de modélisation directe<br />

permettant à tous les ingénieurs<br />

de travailler en<br />

3D. Le Cetim peut ainsi proposer<br />

une solution packagée « modeleur<br />

3D + calcul aux éléments finis » à un<br />

tarif abordable « Cette solution est<br />

pour nous l’avenir du développement<br />

commercial de notre logiciel maison<br />

« Castor Concept » et de sa suite logicielle<br />

associée : Castor Elec 3D et<br />

Procor » indique Laurent Berteloot,<br />

du Cetim.<br />

La solution logicielle de SpaceClaim<br />

permet notamment la concrétisation<br />

rapide d’une idée par une<br />

modélisation 3D directe,<br />

mais aussi la récupération<br />

automatique de tout fichier<br />

CAO, l’édition et la modification<br />

du modèle quelque<br />

soit son logiciel d’origine,<br />

ainsi que la préparation aisée<br />

d’un modèle pour un calcul aux<br />

éléments finis, et offre une interface<br />

directe avec Castor Concept Pro.<br />

Par ailleurs, Castor Concept Pro permet<br />

une analyse mécanique répondant<br />

à 80% des besoins de calcul,<br />

pour des structures mécano-soudées,<br />

les pièces volumiques et les<br />

assemblages. Il est ainsi possible<br />

d’utiliser SpaceClaim pour concevoir<br />

la pièce et Castor Concept pour la<br />

calculer.<br />

Contrôle qualité<br />

De nouveaux modèles de machine<br />

d’essais haute capacité<br />

Shimadzu, un des leaders mondiaux de l'instrumentation analytique<br />

et des essais de matériaux, a lancé ses derniers instruments<br />

pour essais destructifs. La célèbre série AGS-X s’enrichit<br />

de quatre nouveaux modèles allant jusqu'à 300 000 N et d’une<br />

nouvelle version du logiciel ultra performant. Ces nouveaux modèles<br />

sont destinés au contrôle qualité et à la R&D.<br />

Bonne tenue pour la troisième<br />

édition de Microwave & RF<br />

Côté visiteurs, la fréquentation est<br />

stable, puisque 1 902 visiteurs sont<br />

venus découvrir les nouveautés produits<br />

des soixante-dix sociétés exposantes.<br />

Moment fort du salon, les huit<br />

cycles de conférences ont été suivis<br />

par 749 auditeurs. Les conférences<br />

de Microwave & RF permettent de<br />

faire le point sur les avancées technologiques<br />

ou sur des sujets particuliers<br />

réclamant des réponses à la fois<br />

spécifiques et pointues. En proposant<br />

des thèmes qui sont au cœur des<br />

préoccupations des auditeurs, Microwave<br />

& RF répond aux attentes et<br />

aux questions des ingénieurs et chefs<br />

de projets qui viennent chercher une<br />

information utile pour la conception de<br />

leurs projets.<br />

Les nouveaux modèles AGS-X haute<br />

capacité sont équipés d'un contrôleur<br />

interne puissant capable d'envoyer<br />

des données de mesure jusqu'à 1000<br />

Hz. Les cellules de charge ont également<br />

été améliorées et couvrent<br />

désormais une plus large gamme de<br />

mesure de 1/1 à 1/500 de la capacité<br />

nominale.<br />

Selon la norme ISO 7500-1 et normes<br />

équivalentes, la précision est donc de<br />

classe 1, voire de classe 0,5. Ainsi, il<br />

est maintenant possible de mesurer<br />

tout échantillon, de la toile d’araignée<br />

(0,002 N) à l’acier haute résistance<br />

(300 000 N) en utilisant le même<br />

châssis. En plus des essais de traction,<br />

compression et flexion, un large<br />

éventail de tests complémentaires<br />

peuvent être effectués tels que le pelage,<br />

les frottements, l’adhésion ou<br />

encore les tests de texture. Combiné<br />

avec un extensomètre approprié, la<br />

série AGS-X répond entièrement aux<br />

normes ISO-6892 et ISO-527.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 4


Actualités<br />

Produits et Technologies<br />

En application<br />

Le CNRS fait appel à Marc, de MSC<br />

Le CNRS a fait le choix de Marc, une solution d'analyse non linéaire et multiphysique de MSC Software,<br />

pour simuler l'hydroformage des miroirs optiques. Dans ce cas précis, la simulation numérique a permis de<br />

corréler les résultats expérimentaux et de réduire les temps de production.<br />

L’éditeur de logiciels et solutions de<br />

simulation MSC Software Corporation<br />

a annoncé que les chercheurs du Laboratoire<br />

d'astrophysique de Marseille<br />

(LAM, sous tutelle du CNRS), utilisent<br />

désormais sa solution d'analyse non<br />

linéaire par la méthode des éléments<br />

finis ; baptisée Marc, cette solution les<br />

aide à simuler un nouveau procédé<br />

permettant d'utiliser l'hydroformage<br />

pour obtenir les formes extrêmes de<br />

miroir optique nécessaires à la nouvelle<br />

génération de télescopes et<br />

instruments astronomiques, tout en<br />

réduisant les coûts et les délais de production<br />

de ces miroirs. « Nous avons<br />

choisi Marc pour analyser le processus<br />

d'hydroformage parce que ce logiciel a<br />

démontré la précision de ses résultats<br />

dans les problèmes de changements<br />

non linéaires complexes en géométrie<br />

et en propriétés des matériaux,<br />

explique Zalpha Challita, post-doctorante<br />

au CNRS-LAM. Marc a montré<br />

sa capacité à modéliser avec précision<br />

le processus d'hydroformage, et sera<br />

donc largement utilisé à l'avenir. »<br />

Un processus d'hydroformage difficile<br />

à optimiser<br />

Les surfaces de miroirs de forme libre,<br />

c'est-à-dire les surfaces ayant une<br />

forme plus complexe que celles des miroirs<br />

symétriques classiques (sphère,<br />

parabole, hyperbole, etc.), offrent d'importants<br />

avantages : les degrés de<br />

liberté supplémentaires qu'elles autorisent<br />

permettent d'améliorer les performances<br />

optiques des instruments,<br />

réduisant ainsi leur masse et leur taille.<br />

La technique d'hydroformage consiste<br />

à déformer le matériau en une seule<br />

étape pour lui donner sa forme finale,<br />

ceci en le mettant en contact avec un<br />

moule de forme spécifique par application<br />

d'un fluide à haute pression sur<br />

la surface optique. Ce procédé donne<br />

également la possibilité de produire<br />

une surface de qualité élevée car il élimine<br />

la nécessité d'un outil mécanique<br />

au contact de la surface du miroir.<br />

Toutefois, le processus d'hydroformage<br />

est difficile à concevoir et à<br />

optimiser, car le miroir doit subir une<br />

déformation plastique pour former une<br />

surface optique de forme libre. L'analyse<br />

par éléments finis (FEA) réalisée<br />

avec Marc a permis de quantifier les<br />

erreurs résiduelles après l'hydroformage<br />

et d'optimiser le système. Les<br />

capacités de l’outil en optimisation permettent<br />

de corréler les résultats expérimentaux,<br />

en tenant compte du bilan<br />

d'erreur de quelques micromètres autorisé<br />

en optique astronomique.<br />

Calcul, codes et conseils<br />

Tout pour fiabiliser vos équipements dès la conception<br />

Le Cetim met à votre disposition ses moyens et ses experts<br />

pour réaliser et vérifier vos calculs:<br />

P Selon les réglementations: Directives européennes, arrêtés, etc.<br />

P selon les codes des ESP et de tuyauterie : CODAP, ASME VIII, EN13445, CODRES,<br />

CODETI, ASME B31.3 …<br />

P selon les conditions (sismiques, vent, etc.)<br />

P Calculs de frangibilité et mise en sécurité des bacs<br />

Et pour :<br />

P Le diagnostic mécanique complet de vos installations<br />

P La vérification de la conformité de vos équipements<br />

P La conception des mesures correctives<br />

Le Cetim, 40 ans d’écriture de codes<br />

Bruno Vandenberghe<br />

Tél. : 03 44 67 36 82<br />

sqr@ cetim.fr<br />

1201-016<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 5


Actualités<br />

Produits et Technologies<br />

Reportage<br />

Le Cetim double ses moyens d’essais<br />

à Casablanca<br />

Cetim Maroc Développement, filiale du Centre technique des industries mécaniques, a inauguré ses<br />

nouveaux laboratoires d’essais métalliques, non loin de l’aéroport Mohamed V de Casablanca. Ces<br />

laboratoires abritent des dizaines de machines d’essais et des salles équipées pour les opérations de<br />

métrologie et de qualité. Avec ce nouveau bâtiment, Cetim Maroc se pose aujourd’hui comme une véritable<br />

vitrine technologique pour le Cetim qui entend bien poursuivre son développement à l’étranger.<br />

Face à la croissance industrielle marocaine,<br />

en particulier dans le secteur<br />

aéronautique, très présent dans le<br />

nord du pays, la première filiale internationale<br />

du Cetim a investi dans<br />

d’importants moyens d’essais, inaugurés<br />

en grande pompe par la députée<br />

parlementaire Aatimad Zahidi,<br />

l’ancien ministre français Luc Châtel,<br />

aujourd’hui président du groupe parlementaire<br />

Amitié France-Maroc, de<br />

Ludovic Molliex, directeur Matériaux<br />

et Procédés du groupe Safran, Karim<br />

Cheikh, directeur général de Cetim<br />

Maroc Développement et d’Emmanuel<br />

Vielliard, président du Cetim. Mais ces<br />

importants moyens d’essais sont aussi<br />

là pour répondre aux exigences fortes<br />

en matière d’utilisation de matériaux<br />

métalliques plus performants, moins<br />

coûteux et permettant de produire des<br />

pièces allégées.<br />

Implanté sur la Technopôle Nouasser à<br />

Casablanca, Cetim Maroc est devenu<br />

un laboratoire de référence mondiale<br />

dans le domaine de la caractérisation<br />

mécanique et métallurgique des<br />

pièces aéronautiques ; surtout depuis<br />

qu’il a investi pas moins de 6 millions<br />

d’euros pour l’acquisition de nouveaux<br />

20 000 opérations d’essais sont réalisées par an<br />

moyens d’essais de haute technologie.<br />

Débutés en mai 2013, les travaux<br />

se sont achevés à la mi-avril 2014.<br />

Aujourd’hui, Cetim Maroc dispose<br />

de 4 800 mètres carrés de surface et<br />

l’ensemble de ses moyens techniques<br />

permettent des capacités d’essais métalliques<br />

uniques au Maroc, en Afrique<br />

du nord mais aussi en Europe.<br />

Au total, le nouveau bâtiment abrite sur<br />

3 000 mètres carrés un laboratoire (accrédité<br />

Cofrac) comprenant pas moins<br />

de treize microscopes optiques, six polisseuses,<br />

deux microscopes électroniques<br />

à balayage, cinquante-quatre<br />

machines de fatigue et dix-huit machines<br />

de fluage, huit machines Dwell,<br />

trois machines de traction ainsi que six<br />

machines de fissuration. Ces dizaines<br />

d’équipements permettent d’assurer<br />

près de 20 000 opérations d’essais par<br />

an. Au premier étage du bâtiment se<br />

situent le service administratif et, de<br />

manière plus significative, toute la partie<br />

dédiée à la métallurgie, en particulier<br />

à la préparation de l’état de surface<br />

de métaux et d’alliages de métal, inconel,<br />

aluminium et autre titane.<br />

De l’état de surface…<br />

Plusieurs salles se succèdent et sont<br />

destinées à la préparation des échantillons<br />

et aux opérations de pré-polissage<br />

et de polissage, de tronçonnage<br />

et d’enrobage. Ici s’agitent les six<br />

polisseurs, une enrobeuse et un analyseur<br />

d’hydrogène. Le rôle de ces<br />

laboratoires est bien de procéder à<br />

une sorte d’échographie et de l’analyse<br />

métallique. Les microscopes permettent<br />

de révéler l’état de surface de<br />

pièces aéronautiques, qu’il s’agisse de<br />

nouvelles pièces ou des pièces ayant<br />

subi des avaries. « Dans la salle de<br />

microscopie, nous disposons à la fois<br />

de matériel de pointe avec l’installation<br />

de treize appareils mais aussi d’un<br />

personnel très qualifié, insiste Salah<br />

Darkaoui, directeur général adjoint.<br />

Nos collaborateurs sont des ingénieurs<br />

métallurgistes que nous formons aussi<br />

en interne afin qu’ils soient capables<br />

d’analyser tous types de matériaux ».<br />

Les équipes procèdent d’abord à<br />

une cartographie de la pièce, puis au<br />

fibrage et à la cotation avant d’analyser<br />

l’image avec précision.<br />

Avec le microscope électronique à<br />

balayage, il est possible de déterminer<br />

les causes de fatigue de rupture<br />

liées à la fatigue et pas à autre chose<br />

comme les défauts de conception par<br />

exemple. Les moyens employés sont<br />

de taille et permettent à un échantillon<br />

de 4mm. d’être grossi jusqu’à 50 000<br />

fois.<br />

En termes de qualité et de métrologie,<br />

des indicateurs révèlent chaque<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 6


Actualités<br />

Produits et Technologies<br />

mois les délais de livraison, les performances<br />

des essais, les éventuels<br />

écarts entre les délais et les prévisions<br />

accompagnés des temps de réponse<br />

avec un objectif de cinq jours maximum.<br />

Par ailleurs, une salle de planification<br />

logistique a donné lieu au<br />

développement en interne d’une application<br />

locale destinée à répondre<br />

dans l’heure à toute sollicitation de la<br />

part des clients. Enfin, une salle d’appui<br />

technique emploie un système de<br />

dépouillement de résultats entièrement<br />

automatisé pour le suivi, l’analyse et la<br />

récupération des données. « ici sont<br />

jugés les essais menés en laboratoire.<br />

Il s’agit de donner un regard extérieur<br />

et de mener un arbitrage systématique<br />

sans passer par l’ingénieur d’essai ».<br />

… aux essais mécaniques<br />

Au rez-de-chaussée, on pénètre dans<br />

le monde des essais mécaniques.<br />

La salle de fluage et d’opérations de<br />

traction permet d’assurer les essais<br />

mécaniques et statiques. La cadence<br />

et l’état des vingt-quatre machines de<br />

fluage et des deux machines de traction<br />

(ambiante et hachée) sont surveillés<br />

par un système de supervision qui<br />

permet de suivre les essais en cours,<br />

d’envoyer des informations, lesquelles<br />

peuvent également être consultées<br />

à la demande du client. Les équipements<br />

sont dotés de thermocouples<br />

haut et bas et assurent les déplacements<br />

nécessaires. Sur les machines<br />

sont disposées des éprouvettes de<br />

traction de très petites tailles, usinées<br />

avec finesse et une extrême précision.<br />

Plus loin, un laboratoire d’essais de<br />

rupture est consacré aux opérations<br />

de ténacité et de fissuration ; « on<br />

crée un défaut dans une éprouvette<br />

puis on en suit l’évolution, précise Salah<br />

Darkaoui. Pour ce faire, nous effectuons<br />

une entaille dans la matière<br />

afin de créer le défaut défini dans le<br />

cahier des charges. À partir de là, on<br />

sollicite l’éprouvette via un effort cyclique<br />

jusqu’à la rupture. S’en suivent de<br />

nombreux calculs pour valider ou non<br />

l’essai ».<br />

Salle d'essais mécaniques et statiques<br />

À côté de ces essais effectués sur<br />

cinq machines de fissuration – et dont<br />

la durée peut atteindre un mois – se<br />

trouvent les tests de fatigue à haute<br />

fréquence (HCF), allant de 60 à 80<br />

hertz. Ici, on fatigue l’éprouvette en<br />

tirant et en relâchant soixante fois en<br />

l’espace d’une seconde et sous des<br />

températures élevées allant jusqu’à<br />

1 100°. Ces essais vibratoires, tout<br />

comme le reste des phases de tests,<br />

qu’il s’agisse de l’étalonnage des<br />

équipements, des alignements ou<br />

des températures par exemple ainsi<br />

que l’extensométrie, sont entièrement<br />

conformes aux normes Cofrac. Enfin,<br />

la plus grande salle concerne les essais<br />

de fatigue à basse fréquence (allant<br />

de 2 à 10 hertz) et abrite pas moins<br />

de quarante-deux machines disposées<br />

en ligne. Pour ce type d’essai, la durée<br />

des phases de test va de trois à une<br />

vingtaine de jours. Fortement sollicitée,<br />

cette étape nécessite pas moins<br />

de treize personnes travaillant en 3-8.<br />

Une vitrine internationale pour le<br />

Cetim<br />

Cette entité créée il y a huit ans atteint<br />

aujourd’hui un chiffre d’affaires de plus<br />

de 6M€ pour des essais concernant<br />

actuellement pas moins de 1 500 moteurs<br />

par an et rassemble une soixantaine<br />

de collaborateurs. Impulsée par<br />

le renouvellement pour cinq ans d’un<br />

contrat avec le groupe Safran, la filiale<br />

marocaine entend prendre part<br />

au développement industriel du pays<br />

tout entier, et pas seulement dans l’aéronautique<br />

; le TGV marocain est par<br />

exemple fera partie des prochaines<br />

missions du Cetim. « Il est important<br />

de souligner que l’activité ’’testing’’<br />

connaît un essor significatif au sein du<br />

Cetim, avec une croissance de 25%<br />

en quatre ans, représentant un chiffre<br />

d’affaires de quelque 10M€ », a indiqué<br />

lors de l’inauguration Emmanuel<br />

Vielliard, qui rappelle au passage que<br />

la filiale marocaine « est en train de<br />

devenir la vitrine du développement du<br />

Cetim à l’international ». Des projets<br />

à l’étranger sont d’ailleurs en cours, à<br />

commencer par la Malaisie, où l’aéronautique<br />

occupe également une place<br />

croissante.<br />

Près de 45% des salariés de Cetim Maroc sont des femmes<br />

Olivier Guillon<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 7


Actualités<br />

Produits et Technologies<br />

Le couplage essai et simulation est désormais indissociable<br />

>> Entretien avec Ludovic Molliex, directeur Matériaux et Procédés du groupe Safran<br />

Ancien responsable des essais matériaux chez Snecma, Ludovic Molliex<br />

était, avant 2006, à la recherche d’une plateforme d’essais intégrée rassemblant<br />

à la fois les opérations de prélèvement de matière, d’analyse<br />

et d’essais de fatigue. En France, les recherches se sont révélées infructueuses<br />

jusqu’à sa rencontre avec David Richet, du Cetim. C’est à ce<br />

moment là que l’aventure marocaine a démarré.<br />

<strong>Essais</strong> & <strong>Simulations</strong><br />

Comment expliquez-vous les difficultés rencontrées au cours de vos recherches ?<br />

Ludovic Molliex<br />

En 2006, il y a eu un réel rebond du secteur aéronautique et nous avions besoin d’une plateforme d’essais entièrement<br />

intégrée. Or tous les grands opérateurs d’essais, déjà de moins en moins nombreux en raison de la concentration du<br />

marché des laboratoires, étaient tous occupés à assurer les commandes de grands donneurs d’ordres tels qu’Airbus<br />

ou Boeing et d’autres motoristes. Notre voix comptait peu et nous devions attendre notre tour, ce qui était bien entendu<br />

inenvisageable. De plus, en France, les partenaires potentiels ne souhaitaient pas sortir de leurs compétences et de<br />

leur cœur de métier. Quant aux pays de l’est, nous n’avons pas trouvé les compétences suffisantes pour faire émerger<br />

une telle plateforme de taille critique.<br />

Que vous apporte cette plateforme ?<br />

Nous étions en mesure de procéder aux différentes étapes d’essais mais cela aurait posé un gros problème de coordination<br />

entre les services, surtout face à la demande croissante dans nos activités. Pour donner un ordre de grandeur,<br />

le Cetim Maroc a réduit d’un facteur 3 la durée des opérations par une complète intégration de l’ensemble des étapes.<br />

Pourquoi le Maroc ?<br />

Ce fut le choix du Cetim qui souhaitait se développer ici en créant cette structure de ce type. Nous l’avons donc suivi.<br />

Évidemment, le fait que le Maroc soit un pays best-cost ne nous a pas dérangé ! Mais ce fut ne fut en aucun cas la raison<br />

principale. Notre secteur implique de ne pas transiger avec la qualité et les compétences. Celles-ci sont d’ailleurs<br />

très bien formées : en plus de son cursus, chaque nouveau collaborateur passe un examen afin de montrer qu’il a bien<br />

saisi les problématiques de cet établissement un peu particulier. Par ailleurs, nous entretenons à travers le groupe<br />

Safran d’importants liens avec le Maroc qui reste le pays d’Afrique où nous sommes le mieux implanté avec près de<br />

2 100 salariés.<br />

Plus globalement, comment ont évolué les essais chez Safran ?<br />

Ceux-ci sont de plus en plus instrumentés. Ici, on trouve des essais de fissuration mais aussi des essais de fatigue<br />

à charge et à contrainte imposées. L’idée est de faire de l’essai afin de recueillir un maximum de données. Il en est<br />

de même chez Safran qui reste à la pointe de techniques telles que l’émission acoustique, la corrélation d’images, la<br />

thermographie, l’extensométrie pour haute température, les sollicitations mécaniques complexes (biaxiées). Mais la<br />

principale évolution réside dans l’idée que désormais, le couplage « essai et simulation » est indissociable. Cela tient<br />

bien sûr de la puissance des équipements informatiques et des logiciels mais aussi et surtout du chaînage permettant<br />

de transporter en des temps réduits et de manière optimale les informations, de la simulation d’une pièce de forge par<br />

exemple à la production, jusqu’à la prise en compte de son cycle de vie dans son environnement.<br />

Propos recueillis par Olivier Guillon<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 8


Maîtrisez et tracez vos<br />

essais en toute simplicité<br />

1<br />

Définir le banc d’essai<br />

2<br />

Sélectionner les enceintes<br />

metroview2<br />

3<br />

Positionner les sondes<br />

Caractérisation et<br />

vérification des<br />

enceintes<br />

climatiques<br />

et<br />

thermostatiques<br />

Selon les normes<br />

FD X 15-140 et<br />

ISO 60068-3 (5,6,7 et 11)<br />

4<br />

Déterminer la plage des<br />

résultats<br />

5<br />

Editer le rapport<br />

Tél : +33 (0)4 72 18 09 90<br />

commercial@implex.fr<br />

www.implex.fr<br />

SYSTEME MANAGEMENT<br />

CERTIFIE<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 9


Mesures et Methodes de Mesure<br />

En pratique<br />

Bien choisir<br />

ses équipements d'acquisition de données<br />

L’acquisition de données est de plus en plus sollicitée dans l’industrie, qu’il s’agisse des essais ou au<br />

niveau de la production pour traiter toutes les informations qui transitent au pied de la machine. Ainsi,<br />

recueillir des informations est une étape essentielle pour documenter un système ou analyser un phénomène,<br />

anormal ou non.<br />

Les systèmes d’acquisition de données<br />

se présentent sous la forme de<br />

produits ou de procédés permettant<br />

d’enregistrer la température d'un moteur<br />

ou d’un four par exemple. Toutefois,<br />

les informations révélées par des<br />

capteurs et des moyens de mesure<br />

toujours plus nombreux et performants<br />

a poussé les fournisseurs de technologies<br />

d’acquisition de données de<br />

suivre les progrès qui n’ont cessé de<br />

s’accélérer ces dernières années. Ainsi,<br />

« au fur et à mesure que la technologie<br />

a progressé, ce type de processus<br />

a été simplifié et rendu plus précis, polyvalent<br />

et fiable grâce à l'équipement<br />

électronique, indique-t-on chez Omega<br />

Engeneering. L'équipement varie en<br />

allant des enregistreurs simples à des<br />

systèmes informatiques sophistiqués.<br />

Les produits d'acquisition de données<br />

servent en tant que point focal dans les<br />

systèmes, car ils créent un lien entre<br />

une grande variété de produits, tels<br />

que les capteurs qui indiquent les températures,<br />

débits, niveaux, ou pressions<br />

». Par ailleurs, l’entreprise énumère<br />

certains termes d'acquisition de<br />

données d'un usage courant et ceux-ci<br />

sont particulièrement nombreux.<br />

Se familiariser avec un vocabulaire<br />

spécifique<br />

Tout d’abord, le convertisseur analogique-numérique<br />

(CAN) ; il s’agit d’un<br />

dispositif électronique qui convertit les<br />

signaux analogiques en format numérique<br />

équivalent. Le convertisseur<br />

analogique-numérique est au cœur de<br />

la plupart des systèmes d'acquisition<br />

de données. Il existe aussi le convertisseur<br />

numérique-analogique (N/A),<br />

composant électronique se trouvant<br />

Exemple de capture d’écran tirée du progiciel d’acquisition, de traitement des mesures<br />

et de gestion des essais développé par la société Implex. Cette solution globale<br />

est utilisée pour la gestion des données depuis leur forme brute jusqu’au rapport final<br />

avec une exploitation immédiate et efficace de l’information.<br />

dans de nombreux dispositifs d'acquisition<br />

de données qui produisent un<br />

signal de sortie analogique.<br />

Le terme « entrée/sortie numérique »<br />

(E/S) fait référence à un type de signal<br />

d'acquisition de données. Les E/S numériques<br />

sont des signaux discrets<br />

qui démontrent une configuration par<br />

rapport à l'autre: ces configurations<br />

peuvent être sous/hors tension, haut/<br />

bas, 1/0, etc. Les E/S numériques sont<br />

également appelés binaires E/S.<br />

L’entrée simple fait quant à elle référence<br />

à la manière dont un signal est<br />

raccordé à un dispositif d'acquisition<br />

de données. Avec le câblage à entrée<br />

unique, chaque entrée analogique dispose<br />

d'une connexion unique élevée,<br />

mais tous les canaux partagent une<br />

connexion de mise à la terre commune.<br />

Les dispositifs d'acquisition de<br />

données ont des entrées asymétriques<br />

ou différentielles; de nombreux appareils<br />

prennent en charge les deux<br />

configurations. Enfin, l’entrée différentielle<br />

concerne un signal raccordé<br />

à un dispositif d'acquisition de données.<br />

Les entrées différentielles ont<br />

une connexion haute unique et une<br />

connexion basse unique pour chaque<br />

canal. Les dispositifs d'acquisition de<br />

données possèdent des entrées asymétriques<br />

ou différentielles ; de nombreux<br />

appareils prennent en charge les<br />

deux configurations.<br />

D’autres termes appartiennent également<br />

au langage de l’acquisition de<br />

données. Par exemple, le General Purpose<br />

Interface Bus (GPIB) se présente<br />

comme le bus standard utilisé pour<br />

contrôler les instruments électroniques<br />

avec un ordinateur. Il est également<br />

appelé IEEE 488 en référence à la définition<br />

de la norme ANSI/IEEE. La résolution<br />

se définit quant à elle comme<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 10


Votre source unique pour<br />

la mesure et le contrôle de procédés<br />

> 100 000 produits en ligne<br />

> Commande en ligne facile<br />

> Support technique complet<br />

> Personnalisation rapide<br />

> Prix réduit de 20%<br />

Visitez-nous aujourd’hui sur omega.fr<br />

Séries B-P, B-J, B-K,<br />

B-T, B-N<br />

Séries XTA, XMO, XPA, XIN<br />

Série PX409<br />

DPGM8000<br />

Ensembles Pt100 &<br />

thermocouple<br />

Sondes de thermocouple<br />

exotiques<br />

Transducteurs en silicium<br />

micro-usinés<br />

Manomètre numérique<br />

Série OSXL-E<br />

Série OS-MINI<br />

Série CN4000<br />

Série CNi16<br />

Caméras thermiques<br />

Capteur de température<br />

infrarouge<br />

Régulateurs de<br />

température/procédé<br />

Controllers with RS-232 &<br />

RS-485 communications<br />

Tous nos domaines d’expertise<br />

Température<br />

Acquisition de données<br />

Pression & Force<br />

pH<br />

Automatisation<br />

Éléments chauffants<br />

Débit<br />

Livraison le<br />

jour suivant<br />

0805 541 038<br />

commercial@omega.fr<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 11<br />

© COPYRIGHT 2014 OMEGA ENGINEERING,LTD. ALL RIGHTS RESERVED


Mesures et Methodes de Mesure<br />

le plus petit incrément de signal qui<br />

pouvant être détecté par un système<br />

d'acquisition de données. La résolution<br />

peut être exprimée en bits, proportions,<br />

ou en pourcentage de la pleine<br />

échelle. Par exemple, un système possède<br />

une résolution de 12-bit, une partie<br />

de résolution 4096, et 0,0244 pour<br />

cent de la pleine échelle.<br />

Être au fait des normes<br />

Au domaine des acquisitions de données<br />

correspondent plusieurs normes.<br />

La RS232 concerne les communications<br />

série qui se trouve dans de nombreux<br />

systèmes d'acquisition de données.<br />

RS232 est la communication de<br />

série la plus courante; cependant, elle<br />

est quelque peu limitée en ce qu'elle<br />

ne supporte que la communication à<br />

un seul dispositif connecté au bus à<br />

un moment et elle est spécifiée pour<br />

des distances de transmission allant<br />

jusqu'à 15 mètres, même si dans la<br />

pratique de nombreuses applications<br />

fonctionnent sur des distances beaucoup<br />

plus longues. La RS485 est une<br />

norme pour les communications série<br />

qui se trouve dans de nombreux<br />

systèmes d'acquisition de données.<br />

RS485 n'est pas aussi populaire que<br />

RS232 ; néanmoins, il est plus flexible<br />

en ce qu'il prend en charge la communication<br />

avec un maximum de 32 périphériques<br />

sur le bus à un moment (et<br />

davantage avec l'aide des répéteurs)<br />

et des distances de transmission d'environ<br />

1 500 mètres.<br />

Enfin, il convient de prendre en compte<br />

la fréquence d'échantillonnage, c’est-àdire<br />

la vitesse à laquelle un système<br />

d'acquisition de données recueille les<br />

données. La vitesse est normalement<br />

exprimée en échantillons par seconde.<br />

Pour les dispositifs d'acquisition de données<br />

multicanaux, la fréquence d'échantillonnage<br />

est généralement donnée en<br />

tant que la vitesse du convertisseur analogique-numérique<br />

(A/N). Pour obtenir<br />

le taux d'échantillonnage des canaux individuels,<br />

vous devez diviser la vitesse<br />

de l'A/N par le nombre de canaux étant<br />

échantillonnés.<br />

Distribué et intégré en France par la société Johne + Reilhofer, le module de mesure<br />

de synchronisation d’allumage Cansas-IGN est une unité de mesure compacte avec<br />

sortie CAN universelle de la vitesse et du moment d’allumage par cylindre de tous<br />

moteurs à explosion jusqu’à 12 cylindres.<br />

Quelques critères de choix d’un<br />

équipement<br />

Appareils de base ou équipements<br />

sophistiqués, il importe aux industriels<br />

de bien orienter ses futurs investissements<br />

en fonction de ses besoins.<br />

Or cette tâche n’est pas simple, d’où<br />

l’importance d’avoir à l’esprit plus facteurs.<br />

Par exemple, il est recommandé<br />

au futur acquéreur de s’assurer que<br />

l'équipement dispose bien des sondes<br />

et des capteurs nécessaires. Ensuite,<br />

il convient de déterminer combien de<br />

voies d'acquisition on a besoin, 4, 6, 8,<br />

16 ou 32 voies, ou davantage. Il ne faut<br />

voir trop large même s’il est conseillé<br />

de prévoir quelques voies supplémentaires<br />

aux besoins initiaux. Au niveau<br />

de la fréquence de mesures, , dans le<br />

cas d'automatisation industrielle ou de<br />

systèmes de communication, le flux<br />

de données à enregistrer peut s’avérer<br />

dense donc la fréquence d'échantillonnage<br />

doit être assez élevée (100<br />

Méch/s voire plus). La durée d'acquisition<br />

des données est également un<br />

élément important et joue sur la capacité<br />

de la mémoire, limitée en fonction<br />

du niveau élevé de la fréquence<br />

d'échantillonnage ; il ne pas omettre<br />

dans ce cas de penser à recourir à une<br />

mémoire externe (via un port USB). La<br />

résolution du dispositif doit également<br />

être prise en compte, dans la mesure<br />

où plus celle-ci sera élevée, plus elle<br />

sera gourmande en capacité mémoire.<br />

Enfin, il est essentiel de penser à l’aspect<br />

portatif de l’équipement (batterie)<br />

ainsi que sa résistance aux chocs ou<br />

aux éventuelles intempéries, dans la<br />

mesure où, bien souvent, il sera utilisé<br />

sur site et en dehors, directement<br />

sur le terrain. De même, outre l'interface<br />

utilisateur qui se doit d’être la plus<br />

conviviale possible, il est utile de réfléchir<br />

aux besoins en terme de connectivité<br />

et la facilité de transfert de l'information,<br />

notamment via le Web ou les<br />

serveurs type ftp.<br />

Parallèlement à l’achat d’équipement,<br />

il ne faut pas oublier la location, pouvant<br />

se révéler comme une solution<br />

adaptée aux « petits » utilisateurs, pour<br />

des utilisations ponctuelles et dont on<br />

peut adapter le matériel en fonction<br />

des puissances et des capacités dont<br />

on a besoin à un instant T.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 12


Mesures et Methodes de Mesure<br />

Solutions<br />

Mesure en production :<br />

un panorama des technologies<br />

Les moyens et les outils de mesure en production, dans les environnements parfois sévères, dans les laboratoires<br />

d’essais, sur site ou directement au pied de la machine se multiplient dans l’industrie. Plus précises<br />

mais aussi plus légères et ergonomiques, ces solutions sont également de plus en plus abordables et donc<br />

accessibles.<br />

Une chaine de mesure d’émission<br />

acoustique spécifique pour environnements<br />

sévères<br />

Kistler a lancé sur le marché une solution<br />

destinée à la maintenance conditionnelle<br />

dans les environnements<br />

soumis à des fortes températures<br />

ou dans des lieux critiques IEC/Ex.<br />

Cette solution se constitue du capteur<br />

d’émission acoustique Piezotron<br />

Type 8152C et du coupleur d’émission<br />

acoustique Piezotron 5125C. Cette<br />

combinaison s’adapte à la mesure<br />

d’ondes de surface de haute énergie<br />

supérieures à 50 kHz situées sur des<br />

composants, structures ou systèmes<br />

métalliques. Ces émissions résultent<br />

la plupart du temps de perturbations,<br />

de fuites, de déformations du plastique<br />

de matériaux, de formations de crevasses,<br />

fractures, friction ou fatigue<br />

des matériaux eux-mêmes.<br />

Les chaines de mesure d’émission<br />

acoustique développées par Kistler<br />

sont utilisées sur une large gamme<br />

d’application depuis de nombreuses<br />

années. Elles sont notamment utilisées<br />

dans le contrôle non destructif et<br />

la surveillance en ligne pour maintenance<br />

conditionnelle et préventive. Enfin,<br />

cette nouvelle génération peut être<br />

désormais utilisée jusqu’à 165°C. Une<br />

option ATEX permet de l’utiliser dans<br />

des environnements critiques (gaz explosifs,<br />

poussières...).<br />

Une solution clé-en-main pour<br />

l’étalonnage de capteurs de vibration<br />

industriels<br />

PCB Piezotronics met à disposition<br />

des techniciens de maintenance ou<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 13


Mesures et Methodes de Mesure<br />

des services de métrologie des systèmes<br />

d’étalonnage vibratoire portables.<br />

Ceux-ci ont été conçus de manière<br />

à être plus faciles à transporter,<br />

simples à utiliser et rapides à exploiter.<br />

Effectuer l’étalonnage de ses instruments<br />

de mesure permet de s’assurer<br />

de leur efficacité et de leur précision<br />

lors de leur utilisation sur site. Effectué<br />

en moyenne une fois par an, voire tous<br />

les deux ans, il est désormais possible<br />

de le mettre en place plus régulièrement,<br />

sur l’ensemble de son parc, sans<br />

contraintes logistiques, rapidement et<br />

de façon autonome. PCB Piezotronics<br />

propose pour cela un système d’étalonnage<br />

portable qui permet, rapidement,<br />

simplement et en toute sécurité,<br />

d’étalonner ses capteurs ou transmetteurs<br />

de vibration.<br />

Le système portable 9110D est un calibrateur<br />

de terrain durable et robuste,<br />

destiné à délivrer une validation des<br />

capteurs dynamiques directement sur<br />

site. Ce système propose ainsi un set<br />

complet d’étalonnage des capteurs en<br />

une seule valise, sur batterie. Il permet<br />

également de procéder à une calibration<br />

des accéléromètres, transmetteurs<br />

4-20 mA, vibroswitches électroniques,<br />

sondes de proximité, systèmes<br />

PLC, DCS et SCADA, systèmes online<br />

et analyseurs. Le paramétrage et l’affichage<br />

des données se fait en temps<br />

réel. Outre sa mémoire interne (allant<br />

jusqu’à 500 enregistrements), le système<br />

9110D permet un transfert des<br />

données via clé USB puis l’exploitation<br />

des résultats sous Excel sur ordinateur.<br />

En quelques minutes, l’opérateur<br />

peut valider le bon fonctionnement de<br />

ses capteurs et obtenir ses certificats<br />

d’étalonnage en un tour de main.<br />

Deux nouvelles solutions pyrométriques<br />

conçues pour mesurer la<br />

température sans contact dans les<br />

procédés industriels<br />

Le leader mondial des systèmes infrarouges<br />

conçus pour mesurer la température<br />

sans contact dans les environnements<br />

industriels, a récemment<br />

présenté deux nouveautés. D’une part,<br />

le capteur miniature Raytek MI3LTH a<br />

été développé pour fonctionner à des<br />

températures ambiantes élevées sans<br />

refroidissement. Séparée des composants<br />

électroniques, la tête de mesure<br />

supporte des températures pouvant<br />

atteindre +180 °C. Cette avancée<br />

étend les possibilités d'application des<br />

systèmes sans contact. Ils peuvent<br />

ainsi remplacer les sondes de contact<br />

mesurant les températures jusqu'à<br />

1000 °C.<br />

D’autre part, le système de balayage<br />

linéaire infrarouge Ircon ScanIR3<br />

a été conçu pour créer des images<br />

thermiques en temps réel dans les<br />

secteurs du verre, des métaux, des<br />

semi-conducteurs et du plastique.<br />

Les scanners en ligne conviennent au<br />

contrôle de la température des procédés<br />

continus et discontinus. La série<br />

comprend huit modèles aux plages<br />

de températures et longueurs d'onde<br />

diverses. Intégrant une visée laser, un<br />

système de refroidissement par eau et<br />

une purge à air, ces unités robustes<br />

fonctionnent dans les conditions les<br />

plus difficiles. Intégrés sur les lignes de<br />

production, les pyromètres, scanners<br />

en lignes et autres imageurs fixes des<br />

gammes Raytek et Ircon permettent de<br />

détecter et de documenter en temps<br />

réel toute anomalie thermique sur un<br />

procédé.<br />

Deux nouveaux capteurs à ultrasons<br />

pour la commutation et la<br />

mesure<br />

Ces capteurs à ultrasons, dans un boîtier<br />

entièrement métallique d'indice de<br />

protection IP 67 avec des portées très<br />

élevées, viennent élargir les domaines<br />

d'application et compléter la gamme<br />

des capteurs à ultrasons de Leuze<br />

electronic. Ces appareils de commutation<br />

et de mesure –HTU 418B<br />

et DMU 418B – ont une portée allant<br />

jusqu'à 1,30 mètre ; les appareils de<br />

mesure DMU 430B vont jusqu'à 3<br />

mètres. Disponibles dans un boîtier<br />

métallique cylindrique M18 voire M30,<br />

ces séries sont nettement plus courtes<br />

que les modèles précédents. Elles<br />

peuvent ainsi être installées simplement<br />

à l'aide d’écrous de blocage sur<br />

les filets extérieurs, même sur les sites<br />

d'application les plus étroits.<br />

Les deux séries sont dotées d'une<br />

fonction d'apprentissage perfectionnée<br />

: deux boutons permettant de<br />

régler deux points de commutation<br />

indépendants simplifient la configuration<br />

et augmentent la flexibilité d'utilisation<br />

des capteurs. Ces types d'appareils<br />

dotés d'une interface IO-Link<br />

garantissent un rattachement et une<br />

commande intelligents, simples et<br />

conviviaux des capteurs. La compensation<br />

thermique permet d'éviter les<br />

erreurs de mesure pouvant survenir<br />

dans des conditions ambiantes différentes.<br />

Quatre modes de fonctionnement,<br />

par exemple pour basculer<br />

d'un fonctionnement synchrone à un<br />

mode multiplex, confèrent une grande<br />

flexibilité dans l'application. Les capteurs<br />

à ultrasons savent convaincre<br />

par leur pouvoir de commutation quasiment<br />

indépendant des propriétés<br />

de la surface pour les matériaux avec<br />

réflexion du son. Ils sont disponibles<br />

avec différents lobes acoustiques et<br />

donc divers angles d'ouverture. Ces<br />

capteurs à ultrasons cylindriques dont<br />

le lobe acoustique est particulièrement<br />

mince sont conçus spécialement pour<br />

la détection de petits objets ou d’objets<br />

dans des ouvertures minimales et pour<br />

la mesure de distance, de hauteur ou<br />

de dimension d’objets<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 14


Mesures et Methodes de Mesure<br />

Cas d’application en production<br />

Keyence contrôle les segments de piston chez PSA<br />

PSA réalise un contrôle automatisé des segments de piston avec des capteurs de déplacement laser de<br />

Keyence. Cette mesure fine est réalisée en continu et avec succès depuis plusieurs années.<br />

Créée en 1979, l’usine de Trémery,<br />

située à vingt kilomètres de Metz,<br />

compte 3 740 salariés. Elle est spécialisée<br />

dans la fabrication de moteurs<br />

diesel quatre cylindres. La production<br />

journalière est de 6 500 unités, ce qui<br />

en fait la première usine de fabrication<br />

de moteurs diesel dans le monde et<br />

la quatrième toutes énergies confondues.<br />

Les segments de piston sont posés<br />

par un robot. Munis d’une ouverture, ils<br />

sont écartés et glissés sur des gorges<br />

usinées à cet effet sur le piston. Ce<br />

sont des composants critiques. Ils<br />

servent principalement à empêcher le<br />

passage des gaz de combustion dans<br />

le carter moteur afin d’éviter toute perte<br />

de pression des gaz et donc une perte<br />

de puissance du moteur. De même, ils<br />

doivent empêcher les huiles de lubrification<br />

de passer du moteur vers la<br />

chambre de combustion. Ils doivent<br />

aussi assurer une épaisseur de film de<br />

lubrification bien définie sur l’ensemble<br />

du cylindre. La pose de ces pièces<br />

d’étanchéité dynamique est essentielle<br />

au bon fonctionnement du moteur.<br />

Un contrôle précis et multiple pour<br />

chaque piston<br />

Les pistons sont dotés de trois segments<br />

: le segment racleur, le plus<br />

critique à contrôler car il est très fin et<br />

il comporte un petit ressort qui risque<br />

de casser. Le segment d’étanchéité et<br />

enfin le segment « coupe-feu » qui fait<br />

3 mm et qui est le plus simple à contrôler.<br />

Le contrôle des segments de piston<br />

est automatisé sur l’usine de PSA Trémery.<br />

Un robot pose le piston sur une<br />

table rotative. Quatre capteurs sont<br />

disposés de part et d’autre du piston<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 15


Mesures et Methodes de Mesure<br />

en face des deux premiers segments.<br />

Chaque capteur contrôle la moitié d’un<br />

segment. Une première rotation à 180°<br />

permet de vérifier les deux premiers<br />

segments avec les quatre capteurs.<br />

Ensuite, la table fait une élévation sur<br />

l’axe Z. Une deuxième rotation est réalisée<br />

en sens inverse pour contrôler<br />

le troisième segment en utilisant deux<br />

capteurs. Si un segment se révèle non<br />

conforme, il est contrôlé une deuxième<br />

fois puis une troisième fois. Si le défaut<br />

se confirme, le piston est confié à un<br />

opérateur pour une analyse complémentaire.<br />

« Les capteurs de déplacement<br />

prennent toutes les cotes de chacun<br />

des demi-périmètres qu’ils analysent,<br />

explique Claude Tritz, Technicien<br />

maintenance montage au sein de PSA<br />

Trémery. Environ 2 500 mesures sont<br />

prises par tour, soit un pas inférieur<br />

au dixième de millimètre. Un cycle de<br />

contrôle des trois segments dure environ<br />

cinq secondes. Nous avons établi<br />

des seuils pour contrôler la présence<br />

et la position des trois segments dans<br />

le milieu de la gorge ainsi que la taille<br />

et l’emplacement de l’ouverture. On<br />

vérifie aussi le ressort du segment<br />

racleur via ses ouvertures. Pour cela,<br />

nous avons sélectionné le modèle de<br />

haute précision LK-G32 à spot fin de<br />

30 microns de Keyence, car sinon le<br />

spot était trop large pour rentrer dans<br />

les ouvertures ». Deux modèles de<br />

LK-G ont été utilisés : deux têtes à<br />

spot fin diamètre 30 microns (LK-G32)<br />

pour le contrôle du segment racleur<br />

et étanchéité supérieure et 2 LK-G82<br />

destinés aux détections du segment<br />

coup de feu.<br />

Le contrôle de 3 000 moteurs produits<br />

chaque jour<br />

Les LKG sont des capteurs laser de<br />

déplacement. Ils offrent une vitesse<br />

d’échantillonnage de 50 kHz pour une<br />

répétabilité de 0,05 μm pour les modèles<br />

les plus précis. Les segments de<br />

piston sont des pièces réfléchissantes,<br />

ce qui perturbe les mesures. Les<br />

LK-G permettent une détection stable<br />

d’objets transparents, en plastique<br />

et métalliques grâce à des fonctions<br />

de corrections. La technologie ABLE<br />

(Active Balanced Laser control Engine)<br />

détecte la surface d’une cible et<br />

ajuste l’intensité de la lumière du laser<br />

au niveau optimal. ABLE commande<br />

intelligemment les trois paramètres<br />

de la durée d’émission du laser, de la<br />

puissance du laser et du gain (facteur<br />

d’amplification du CCD), ce qui offre<br />

une large plage de réglage de l’intensité<br />

de la lumière jusqu’à quatre-vingtdix<br />

fois supérieure à celle des modèles<br />

conventionnels.<br />

L’algorithme MRC (Multiple Reflection<br />

Cancel) permet l’élimination des réflexions<br />

multiples d’une surface métallique.<br />

Quand au moins deux crêtes<br />

sont générées par des réflexions multiples,<br />

l’algorithme compare les formes<br />

d’ondes à la dernière forme d’onde<br />

lumineuse reçue et détermine laquelle<br />

présente le plus de similitudes avec la<br />

forme d’onde correcte. « Nous utilisons<br />

cette solution depuis des années, par<br />

rapport à la solution précédente, nous<br />

avons beaucoup réduit le nombre de<br />

faux défauts. Il est à noter également<br />

que 3 000 moteurs sont produits en<br />

continu chaque jours sur les lignes<br />

contrôlées par les LK-G et ce dans un<br />

environnement très difficile. En dépit<br />

de cela, les LK-G résistent très bien »,<br />

conclut Claude Tritz.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 16


Mecaclim<br />

Méthode<br />

Variabilité de l’environnement climatique – coefficient de<br />

variation associé aux températures extrêmes mensuelles<br />

La méthode « résistance - contrainte » est basée sur l’interaction probabiliste entre deux distributions<br />

statistiques. Dans le domaine climatique, la température est une contrainte d’environnement dont la<br />

distribution doit être caractérisée par une valeur moyenne et un coefficient de variation. Or dans ce<br />

but, les bases de données climatiques ne sont pas facilement utilisables. À partir des températures<br />

maximales journalières, on montre comment déterminer la valeur moyenne et le coefficient de variation<br />

d’une température mensuelle qui serait dépassée avec une probabilité conventionnelle de 1%.<br />

Mots-clés<br />

méthode « résistance - contrainte », température maximale journalière, température maximale mensuelle, loi normale,<br />

loi extrémale, probabilité de dépassement ;<br />

Abstract<br />

The “stress-strength” method is based on a probabilistic interaction between two statistical distributions. In the climatic<br />

field the temperature is an environmental stress which the distribution must be characterised by a mean value<br />

and a coefficient of variation. Now with this object the climatic data bases are not easily usable. Starting from the<br />

maximum daily temperatures, we show how to determine the mean value and the coefficient of variation of a monthly<br />

temperature which would be over-passed with a conventional exceeding probability of 1%.<br />

Key-words<br />

«stress-strength» method, daily maximum temperature, monthly maximum temperature, normal distribution, extreme<br />

distribution, exceeding probability;<br />

1. Introduction et objectifs<br />

L’objectif des activités engagées par la<br />

Commission MECA-CLIM de l’ASTE,<br />

créée fin 2012, consiste à réviser les<br />

normes AFNOR relatives à « l’application<br />

de la démarche de personnalisation<br />

en environnement ». Ceci implique<br />

un transfert et une adaptation de tout<br />

ou partie du contenu des Annexes de<br />

la GAM-EG13 dont la version la plus<br />

récente est le fruit des travaux soutenus<br />

au cours des dernières années<br />

[GRZ-13]. Ceux-ci ont permis d’introduire<br />

dans les versions antérieures de<br />

nombreuses améliorations et extensions,<br />

dont le détail et les justifications<br />

seront regroupés ultérieurement dans<br />

un « Fascicule de Documentation »<br />

accompagnant les normes AFNOR.<br />

Au fil du temps, les sujets concernés<br />

ayant fait l’objet de notes ou rapports<br />

internes non publiés, ils le seront dans<br />

cette rubrique, sous forme d’articles<br />

courts. La présente note concerne la<br />

variabilité des températures extrêmes<br />

rencontrées dans divers environnements<br />

climatiques. Elle est caractérisée<br />

par un coefficient de variation qui<br />

intervient dans la détermination du<br />

coefficient de garantie présenté dans<br />

la Partie 5 de la future norme AFNOR<br />

[NFX-13].<br />

2. Problématique<br />

L’objectif de personnalisation adopté<br />

dans le cadre de la méthode « Résistance<br />

– Contrainte » nécessite de<br />

définir aussi précisément que possible<br />

les données relatives aux facteurs<br />

d’environnement, en particulier la température.<br />

En effet, la détermination<br />

d’un coefficient de garantie implique<br />

de définir une distribution adéquate de<br />

la température, caractérisée par une<br />

valeur moyenne et un coefficient de<br />

variation. Pour un site géographique<br />

donné, on dispose généralement de<br />

séries chronologiques de températures<br />

extrêmes maximales relatives à<br />

diverses échelles temporelles (horaire,<br />

journalière, mensuelle, annuelle) dont<br />

l’exploitation est loin d’être évidente.<br />

Nous montrons comment définir la<br />

distribution et le coefficient de variation<br />

des températures maximales<br />

mensuelles à partir d’un minimum d’informations<br />

disponibles, à savoir les<br />

moyennes et écart-types des températures<br />

journalières. Puis nous déterminons<br />

la valeur moyenne et le coefficient<br />

de variation des températures<br />

mensuelles susceptibles d’être dépassées<br />

avec une probabilité conventionnelle<br />

de 1%. Pour un site climatique<br />

donné, cette température, spécifique<br />

de chaque mois de l’année, est une<br />

donnée cohérente, pratiquement utilisable<br />

au sens où elle représente une<br />

valeur maximale statistiquement réa-<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 17


Mecaclim<br />

liste. Ces développements actualisent<br />

une approche alternative initialement<br />

basée sur une méthode d’interpolation<br />

moins précise, ayant permis de dégager<br />

l’ordre de grandeur des coefficients<br />

de variation relatifs aux valeurs des<br />

maxima et minima mensuels [PIE-10].<br />

Ici, nous avons abandonné la considération<br />

des températures minimales car<br />

les phénomènes qu’elles peuvent engendrer<br />

(gel, condensation) dépendent<br />

conjointement d’autres facteurs (hygrométrie).<br />

De telles situations qui<br />

font intervenir au moins deux facteurs<br />

d’environnement, n’entrent pas dans<br />

le cadre d’une méthode « résistance<br />

– contrainte », intrinsèquement limitée<br />

à l’interaction entre une résistance et<br />

une seule contrainte.<br />

3. Consistance de la démarche<br />

3.1. Contexte général<br />

Compte tenu de la variabilité intrinsèque<br />

des températures et des échelles temporelles<br />

considérées (horaire, journalière,<br />

mensuelle, annuelle) la présentation<br />

des données correspondantes<br />

(abaques, valeurs tabulées), liée à la<br />

diversité et à l’évolution des sources<br />

disponibles [GRZ-11] rend leur interprétation<br />

(donc leur exploitation), pour<br />

le moins assez difficiles. Dans l’optique<br />

d’une personnalisation de la méthode<br />

« résistance - contrainte », La source<br />

la plus pertinente à laquelle nous<br />

avons pu accéder à ce jour [GUI-10]<br />

résulte d’une procédure de validation<br />

[MAR-99], réalisée dans le cadre de la<br />

révision d’une version antérieure de la<br />

base de données [STA-09]. L’annexe<br />

6 de [GUI-10] fournit des tableaux de<br />

valeurs mensuelles correspondant<br />

à diverses zones climatiques notées<br />

(Z-1 à Z-11), censées couvrir la climatologie<br />

mondiale (les 3 zones Z-12 à<br />

Z-14 ne sont pas renseignées). En vue<br />

de sa validation, une application numérique<br />

de la méthodologie proposée<br />

fera référence à la zone Z-7, relative<br />

à un climat tempéré frais. De plus, les<br />

valeurs maximales mensuelles dépassées<br />

avec une probabilité conventionnelle<br />

de 1% ainsi que leurs coefficients<br />

de variation seront calculés pour le<br />

mois le plus chaud de chacune des 11<br />

zones climatiques.<br />

3.2. Nature & définition des grandeurs<br />

[GUI-10]<br />

Pour chacun des 12 mois de l’année,<br />

les diverses températures maximales<br />

sont définies comme suit :<br />

• TMJ : moyenne mensuelle des valeurs<br />

maximales (M) journalières (J),<br />

• SIGM : écart-type moyen des valeurs<br />

maximales (M) journalières,<br />

• TMM : moyenne des températures<br />

maximales (M) mensuelles (M),<br />

• TME : valeur extrême (E) mensuelle<br />

(M) ;<br />

Par suite de leurs définitions statistiques,<br />

ces valeurs sont ordonnées de<br />

la façon suivante :<br />

TME > TMM > TMJ<br />

On notera en particulier, que TME est<br />

une valeur unique, dite « record », qui<br />

n’est pas reliée statistiquement aux<br />

longues séries d’observations météorologiques<br />

ayant permis de définir les<br />

autres grandeurs. L’utiliser dans le<br />

cadre de la méthode « résistance –<br />

contrainte » ne serait donc pas très réaliste<br />

car ceci conduirait à des marges<br />

de sécurité excessives et non probabilisables<br />

en terme de risque de dépassement.<br />

3.3. Analyse critique & orientations<br />

L’interprétation statistique de ces différentes<br />

grandeurs et leurs relations mutuelles<br />

a conduit [MAR-99] à reconstituer<br />

et à valider les distributions des<br />

températures maximales à partir des<br />

trois températures indiquées systématiquement<br />

dans les bases de données<br />

météorologiques : TMJ, TMM, TME.<br />

Ces distributions sont calculées numériquement<br />

et représentées sous forme<br />

d’abaques, compte tenu en particulier :<br />

des estimations statistiques basées<br />

sur des échantillons de grande taille<br />

(30 années de 365 jours),<br />

de l’hypothèse de normalité des températures<br />

extrêmes journalières, non<br />

biaisées et peu dispersées, en tant<br />

que quantiles déterminés à partir des<br />

températures horaires,<br />

de l’indépendance des valeurs de températures<br />

extrêmes maximales à une<br />

échelle temporelle de 2 jours;<br />

Ce travail important a permis de déterminer<br />

les écart-types SIGM relatifs<br />

aux TMJ, ce qui permet d’estimer les<br />

coefficients de variation correspondant<br />

à ces valeurs journalières. Toutefois,<br />

le coefficient de variation des autres<br />

grandeurs, en particulier celui de TMM,<br />

n’est pas indiqué. Or cette température<br />

spécifique ne correspond pas nécessairement<br />

à l’une de celles qui sont<br />

définies ci-dessus et il est important,<br />

si l’on vise une cohérence avec la probabilité<br />

de dépassement assignée au<br />

facteur d’essai, de pouvoir déterminer<br />

une température associée à une probabilité<br />

de dépassement quelconque<br />

(par exemple : 1%, 5%, 10%). Pour ce<br />

faire, nous allons utiliser comme grandeurs<br />

de base, uniquement les valeurs<br />

moyennes mensuelles des maxima<br />

journaliers (TMJ) et leurs écart-types<br />

(SIGM). Nous pourrons ainsi retrouver<br />

les valeurs moyennes des températures<br />

maximales mensuelles (TMM),<br />

les situer par rapport aux valeurs « record<br />

» (TME) et valider la méthode de<br />

reconstitution proposée.<br />

3.4. Choix de l’échelle des températures<br />

Les températures sont exprimées<br />

habituellement en utilisant l’échelle<br />

centésimale (degré Celsius), mais on<br />

a montré que la définition du coefficient<br />

de garantie implique de considérer<br />

uniquement des températures<br />

strictement positives [PIE-13]. Des<br />

températures négatives apparaissent<br />

presque systématiquement dans le<br />

cas des températures extrêmes minimales<br />

(non considérées ici) et aussi<br />

pour quelques mois, dans le cas de<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 18


Mecaclim<br />

températures extrêmes maximales, en<br />

particulier pour les zones climatiques<br />

de plus en plus froides. Cette difficulté<br />

peut être évitée en utilisant une échelle<br />

de température thermodynamique, ce<br />

qui nécessite de transformer préalablement<br />

les degrés Celsius en degrés<br />

Kelvin:{T(K) = ϑ(°C)+T 0 }, la constante<br />

(T 0<br />

= 273.15K) étant la température<br />

absolue conventionnelle du point triple<br />

de l’eau. Dans l’exemple exposé plus<br />

loin, toutes les températures relatives<br />

au mois le plus chaud (Juillet) de la<br />

zone climatique (Z-7) étant positives,<br />

les résultats seront exprimés, à titre<br />

comparatif, dans les deux échelles de<br />

température. Ceci permettra de constater<br />

l’absence d’unicité des coefficients<br />

de variation et, afin de préserver la définition<br />

du coefficient de garantie, de<br />

justifier la nécessité d’exprimer toutes<br />

les températures (contrainte d’environnement<br />

et résistance du composant)<br />

dans une même échelle (systématiquement<br />

Kelvin ou Celsius quand c’est<br />

possible).<br />

4. Températures mensuelles maximales<br />

4.1. Valeur moyenne & coefficient de<br />

variation<br />

Partant de la moyenne mensuelle<br />

des maxima journaliers (TMJ) et de<br />

leur écart-type (SIGM) nous montrons<br />

d’abord comment retrouver analytiquement<br />

la valeur moyenne des maxima<br />

mensuels (TMM), puis nous déterminons<br />

le coefficient de variation correspondant.<br />

Ensuite, nous déterminons la<br />

valeur correspondant à une probabilité<br />

de dépassement conventionnelle de<br />

1%, ainsi que son coefficient de variation.<br />

Si la distribution des maxima journaliers<br />

(TMJ) est une loi normale N j<br />

(m j<br />

,s j<br />

),<br />

son extension mensuelle est une loi<br />

des extrêmes G m<br />

(u m<br />

,σ m<br />

) [GUM-58],<br />

dont les paramètres de localisation et<br />

de dispersion (u m<br />

,σ m<br />

) sont définis en<br />

fonction des paramètres (m j<br />

,s j<br />

) et du<br />

nombre (n = 15) jours considérés dans<br />

le mois. Les observations météorologiques<br />

réalisées pendant 30 ans considèrent<br />

seulement 15 maxima diurnes<br />

indépendants par mois (et non 30),<br />

parce que la rémanence des périodes<br />

chaudes est de l’ordre de 2 jours.<br />

Dans ces conditions, on obtient :<br />

(1)<br />

(2)<br />

La relation (1) montre que la dispersion<br />

de la loi extrémale mensuelle est plus<br />

faible que celle de la loi normale journalière.<br />

La relation (2) permet de tenir<br />

compte des paramètres de la loi normale,<br />

sachant que le paramètre réduit<br />

U m<br />

(n) correspond à une loi normale<br />

standardisée.<br />

Les paramètres statistiques (moyenne<br />

et variance) de la loi mensuelle sont<br />

les suivants :<br />

(3)<br />

(4)<br />

Sachant que (E ≈ 0.577) est la<br />

constante d’Euler et en introduisant les<br />

valeurs numériques : √2-Ln(15) ≈ 2.33<br />

& Um(15) ≈ 1.57, on obtient finalement<br />

en fonction du coefficient<br />

de variation de la moyenne journalière<br />

: CV(TMJ) = (SIGM/TMJ) :<br />

(5)<br />

(6)<br />

4.2. Valeur dépassée à 1% & coefficient<br />

de variation<br />

Quant à la valeur des températures<br />

maximales mensuelles dépassées<br />

avec une probabilité conventionnelle<br />

(p=1%), elle peut être tirée de la relation<br />

qui lie la variable réduite Z(p%)<br />

de la loi G m<br />

(u m<br />

,σ m<br />

), à la probabilité de<br />

dépassement (p%):<br />

(7)<br />

Sachant que (p=1%) correspond à<br />

Z(1%) ≈ 4.600, on obtient sa valeur<br />

moyenne et son coefficient de variation :<br />

(8)<br />

(9)<br />

5. Application numérique ponctuelle<br />

Elle a pour but d’illustrer et de valider la<br />

méthode proposée.<br />

5.1. Données d’entrée<br />

On considère le mois le plus chaud<br />

(juillet) de la zone climatique (Z-7) pour<br />

lequel on connaît :<br />

• TMJ = 29.4 °C (302.55 K)<br />

• SIGM = 3.3 °C (3.3 K)<br />

On en tire :<br />

• CV(TMJ) ≈ 11.224% dans l'échelle<br />

Celsius<br />

• CV(TMJ) ≈ 1.091% dans l’échelle<br />

Kelvin<br />

Le tableau suivant regroupe, à titre<br />

comparatif, les valeurs d’entrée et<br />

les valeurs calculées dans les deux<br />

échelles de température :<br />

NOTA : ligne supérieure (°C) & ligne inférieure (K)<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 19


Mecaclim<br />

5.2. Valeur moyenne & coefficient de<br />

variation<br />

• d’après (5) : E(TMM) ≈ 308.55K: soit<br />

35.4 °C, la valeur moyenne ainsi déterminée<br />

étant indépendante de l’échelle<br />

de température considérée.<br />

• d’après (6) : CV(TMM) ≈5.126% dans<br />

l’échelle Celsius & CV(TMM) ≈ 0.588%<br />

dans l’échelle Kelvin.<br />

La valeur moyenne est en bon accord<br />

(à 0.2°C près) avec celle tabulée<br />

(35.6 °C), ce qui constitue un critère de<br />

validation de la procédure de calcul basée<br />

sur une assimilation des données<br />

à une loi des valeurs extrêmes maximales.<br />

Par contre, les coefficients de variation,<br />

nettement différents suivant<br />

l’échelle de température adoptée sont<br />

dans le rapport [PIE-13] :<br />

(10)<br />

5.3. Valeur dépassée à 1% & coefficient<br />

de variation<br />

Reprenons les données d’entrée avec<br />

(p=1%) ce qui donne :<br />

• d’après (7) : Z(1%) ≈ 4.600<br />

• d’après (8) : T(1%) ≈ 314.26K soit<br />

41.11 °C, cette valeur étant là encore,<br />

indépendante de l’échelle de température<br />

considérée.<br />

• d’après (9) : CV(T1%) ≈ 4.414% dans<br />

l’échelle Celsius & CV(T1%) ≈ 0.577%<br />

dans l’échelle Kelvin.<br />

Cette valeur extrême, supérieure à la<br />

valeur moyenne (TMM = 35.6 °C), se<br />

rapproche logiquement de la valeur<br />

« record » indiquée: TME = 42.6 °C :<br />

TMM=35.6°C TME (06) = 47.8°C : mais écart non significatif (0.1 K)<br />

(3) TM(1%) = 43.2°C > TME (07) = 40.0 °C : mais dispersion importante CVj = 16 %<br />

(4) TM(1%) = 40.1°C > TME (07) = 35.6°C : mais CVj = 20 % & TME(Z -11) = 45 °C<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 20


Mecaclim<br />

6.2. Analyse des résultats<br />

Tout d’abord, on constate que les valeurs<br />

calculées coïncident<br />

à mieux que 0.3 K près avec celles<br />

(TMM) indiquées dans [GUI-10], ce<br />

qui tend à confirmer la validité de<br />

l’approche proposée. Toutefois, dans<br />

quelques cas (cf. Nota 1 à 4), certaines<br />

valeurs TM (1%) excèdent les valeurs<br />

« record » TME, résultats qui pourraient<br />

se justifier comme suit :<br />

• L’extrapolation des TMJ aux TM (1%)<br />

est basée sur une loi asymptotique des<br />

valeurs extrêmes ( ) vers laquelle la loi<br />

réelle ( ) ne converge pas très rapidement.<br />

Or cette loi asymptotique fournit<br />

un majorant d’autant plus accentué<br />

que la variabilité de TMJ est importante<br />

(cf. en particulier Nota 3 & 4),<br />

• Une valeur TME « record » est une<br />

observation unique correspondant au<br />

mois le plus chaud dans une série<br />

chronologique de plusieurs années<br />

consécutives. Or, pour une durée de<br />

30 ans, ceci pourrait correspondre à<br />

une probabilité maximale de l’ordre<br />

de 3% (en fait moins si l’on considère<br />

que plusieurs valeurs voisines du « record<br />

» apparaissent au voisinage du<br />

mois réputé le plus chaud), ordre de<br />

grandeur pouvant excéder la probabilité<br />

conventionnelle de 1% ;<br />

En cas de doute, il conviendrait d’analyser<br />

et d’interpréter plus précisément<br />

les données disponibles, sachant que<br />

les probabilités de dépassement déterminées<br />

à partir de l’équation (7) correspondraient<br />

pour les cas notés (1 à<br />

4), respectivement à [3.52% , 1.11%,<br />

5.02%, 8.78%].<br />

Bien que le coefficient de variation affectant<br />

les températures journalières<br />

majore celui affectant les températures<br />

mensuelles, il ne serait pas justifié de<br />

le considérer ex-abrupto comme la<br />

valeur la plus défavorable, dite « refuge<br />

». Il est possible d’éviter ce choix<br />

en remarquant que :<br />

• d’une part les coefficients de variation<br />

affectant les moyennes mensuelles et<br />

les valeurs maximales dépassées à 1<br />

% sont comparables en ordre de grandeur,<br />

• d’autre part ces coefficients de variation<br />

sont grossièrement de l’ordre de la<br />

moitié du coefficient de variation affectant<br />

les températures journalières ;<br />

Ces propriétés sont d’autant mieux<br />

respectées que l’on utilise préférentiellement<br />

l’échelle thermodynamique.<br />

7. Conclusions<br />

Les températures moyennes des<br />

maxima journaliers et leurs écarttypes<br />

sont disponibles dans [GUI-10],<br />

pour chaque mois de l’année et pour<br />

11 zones climatiques mondiales. En<br />

utilisant les propriétés statistiques des<br />

lois extrémales, on a pu retrouver les<br />

valeurs moyennes des maxima mensuels<br />

et déterminer leurs coefficients<br />

de variation. Dans une optique de personnalisation<br />

de la méthode « résistance<br />

– contrainte », si l’on s’intéresse<br />

à une période mensuelle particulière<br />

(par exemple le mois le plus chaud<br />

d’une zone climatique), le choix d’une<br />

température moyenne n’est pas toujours<br />

justifié. En effet, on peut considérer<br />

qu’il s’agit d’une valeur optimiste,<br />

car susceptible d’être dépassée avec<br />

une probabilité trop importante (environ<br />

43 %). A l’opposé, le choix d’une<br />

température « record » ne serait pas<br />

réaliste, car il s’agit d’une valeur trop<br />

élevée, observée une seule fois durant<br />

une période d’observation de plusieurs<br />

dizaines d’années, donc avec<br />

une faible probabilité. Pour les besoins<br />

de la pratique, nous avons défini une<br />

température mensuelle « maximale »,<br />

dépassée avec une probabilité de 1%,<br />

correspondant à une période de retour<br />

centennale, laquelle couvre largement<br />

la durée de vie de la plupart des systèmes<br />

industriels ou des ouvrages<br />

d’art. A partir des valeurs moyennes et<br />

écart-types journaliers, on a déterminé<br />

analytiquement sa valeur et son coefficient<br />

de variation. Dans un contexte de<br />

personnalisation spécifique (cycle de<br />

vie de durée plus courte), la démarche<br />

peut être étendue sans difficulté à la<br />

détermination d’une température mensuelle<br />

qui serait dépassée avec une<br />

probabilité différente, (par exemple 4<br />

% pour 25 ans ou 10% pour 10 ans).<br />

L’utilisation d’une échelle de température<br />

absolue (requise par la considération<br />

des températures minimales<br />

fréquemment négatives) se traduit par<br />

des coefficients de variation intrinsèquement<br />

faibles (de l’ordre de 1%).<br />

Ceux-ci sont strictement inférieurs<br />

à ceux des températures moyennes<br />

journalières, par suite de la réduction<br />

de variabilité inhérente à la répétition<br />

des valeurs correspondantes. L’ordre<br />

de grandeur du coefficient de variation<br />

des températures mensuelles<br />

(moyenne & valeur à 1%) avoisinerait<br />

la moitié du coefficient de variation<br />

affectant les températures moyennes<br />

journalières. On notera que dans le<br />

cadre de la méthode « résistance –<br />

contrainte », une faible variabilité de<br />

la contrainte d’environnement ne saurait<br />

être négligée, dès lors qu’elle est<br />

commensurable avec celle de la résistance.<br />

8. Références<br />

[GRZ-11] H. Grzeskowiak, « Prise en<br />

compte de l’environnement climatique,<br />

étape 2 : caractéristiques de l’environnement<br />

réel », Stage ASTE, septembre<br />

2011<br />

[GRZ-13] H. Grzeskowiak, « Commission<br />

Méca-Clim de l’Aste », <strong>Essais</strong> &<br />

<strong>Simulations</strong>, N°113, Avril 2013<br />

[GUI-10] « Guide de prise en compte<br />

de l’environnement climatique », Annexe<br />

Générale Climatique « Tome 6 :<br />

Modèles & données d’environnement<br />

climatique », ASTE, 06-12-2010<br />

[GUM-58] E.J. Gumbel, « Statistics<br />

of Extremes », Columbia University<br />

Press, New York, 1958<br />

[MAR-99] T. Marot & J. Moriceau ,<br />

« Distribution statistique des températures<br />

météorologiques », p. 1-8, Document<br />

LRBA, Astelab 1999<br />

[NFX-13] Norme Française NFX 50-<br />

144-3 « Application de la démarche de<br />

personnalisation en environnement :<br />

Partie 5 Coefficient de garantie »,<br />

AFNOR, à paraître en 2013-2014<br />

[PIE-10] L. Pierrat, « Estimation du<br />

coefficient de variation associé à une<br />

température extrême maximale », rapport<br />

interne, LJ-Consulting, Mai 2010<br />

[PIE-13] L. Pierrat & H. Grzeskowiak,<br />

«Variabilité de l’environnement thermique<br />

: choix d’une unité de température<br />

adéquate», <strong>Essais</strong> & <strong>Simulations</strong>,<br />

N° 115, 18-20, Octobre 2013<br />

[STA-09] « Extrêmes climatiques et<br />

conditions dérivées à utiliser dans la<br />

définition des critères de conception<br />

et d’essai pour les matériels destinés<br />

aux forces de l’OTAN », STANAG 2895<br />

(dernière édition : Ed. 1, May 2009)<br />

Lambert Pierrat<br />

LJ-Consulting & LJK-LAB,<br />

Grenoble, Expert ASTE<br />

e_zainescu@yahoo.com - 04 76 42 14 36<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 21


<strong>Essais</strong> et Modelisation<br />

Analyse Marché<br />

Impression 3D, la signature<br />

d’une nouvelle révolution industrielle ?<br />

L’impression 3D connaît un essor sans précédent. Il suffit d’assister aux différentes éditions d’événements<br />

tels que le 3D Print Show – qui se déroulent successivement à Paris, Londres et New-York<br />

– pour voir l’importance du phénomène. Bien entendu, la large médiatisation de ce procédé pourtant<br />

pas si nouveau s’explique par l’ouverture au grand public des technologies nécessaires à faire de l’impression<br />

3D. Mais les industriels se sentent également de plus en plus concernés par un phénomène<br />

qui, dit-on dans la sphère de la production, pourrait révolutionner toute l’industrie.<br />

Bien loin des spéculations de toutes<br />

sortes, il est important d’avoir à l’esprit<br />

que dans un futur proche, la production<br />

additive jouera un rôle prépondérant<br />

au point de devenir un élément<br />

incontournable. Mais quelles sont les<br />

raisons d’un tel essor ? « Si l’impression<br />

3D connaît une telle croissance<br />

depuis quelques années, c’est avant<br />

tout grâce au progrès du numérique<br />

qui permet désormais de mieux gérer<br />

la machine », introduit Étienne Bernot<br />

de l’entreprise A4 Technologie, société<br />

française de vingt-cinq personnes<br />

créée au début des années 90 aux Ulis<br />

(Essonne) pour concevoir et fabriquer<br />

du matériel pédagogique destiné à<br />

l’enseignement technologique.<br />

Le directeur d’A4 Technologie ne<br />

manque pas non plus de rappeler que<br />

deux procédés de production historiques<br />

existent : « soit on taille dans<br />

la matière – il s’agit dans ce cas de<br />

l’enlèvement de matière –, soit on procède<br />

à une déformation de matière,<br />

comme le moulage par exemple. Puis<br />

s’est ajoutée la fabrication additive qui<br />

consiste à déposer – ou ajouter – de la<br />

matière. Le principe a été rendu possible<br />

grâce au numérique qui a permis<br />

de concevoir un modèle 3D (et donc<br />

virtuel) puis de le reconstituer couche<br />

par couche ». Et c’est comme ça que<br />

la première machine 3D a vu le jour<br />

dans les années 80, donnant lieu au<br />

dépôt d’un brevet en 1985. Il est ainsi<br />

devenu possible de découper un modèle<br />

virtuel en tranches fines (« slice »<br />

en anglais, selon le terme usuellement<br />

employé), puis de le reconstituer dans<br />

une machine qui dépose une matière<br />

pour reconstituer la pièce tranche par<br />

tranche, couche après couche.<br />

Une multitude de technologies<br />

Le premier brevet de 1985 fait référence<br />

au procédé de stéréolithographie<br />

de Charles Hull, aujourd’hui<br />

président du géant 3D Systems. La<br />

première machine a vu le jour à peine<br />

trois ans plus tard, mettant en œuvre<br />

un procédé qui permet de figer les<br />

résines liquides photosensibles par<br />

rayons UV pour en obtenir une pièce<br />

en résine unique. Par ailleurs, la résine<br />

UV s’appuie sur une autre technique,<br />

semblable à celle du jet d’encre dans<br />

une imprimante : ce procédé consiste<br />

Nouvelle gamme d'imprimantes 3D de table UP EASY<br />

à « cracher » des microgouttes de résine<br />

qu’une lampe UV vient ensuite figer<br />

et polymériser.<br />

Autre technique d’impression 3D :<br />

le dépôt de poudre (ou frittage de<br />

poudre). On réduit en poudre un matériau<br />

fusible que l’on dépose en<br />

couches fines. Entre chaque couche<br />

un laser vient fondre la poudre aux<br />

endroits propices pour solidifier le modèle.<br />

À la fin, on sort un modèle solide<br />

d’un bloc de poudre. Cette technique<br />

permet d’utiliser pratiquement tout<br />

matériau fusible (plastique, métaux,<br />

verre, etc.). Il s’agit d’une technologie<br />

très prometteuse, en particulier dans<br />

l’aéronautique pour des pièces en titane.<br />

Le dépôt de fil fait également<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 22


<strong>Essais</strong> et Modelisation<br />

partie des techniques d’impression 3D.<br />

C’est cette technique qui est utilisée<br />

dans les nouvelles machines compactes<br />

de table accessibles ; « il s’agit<br />

grosso modo d’un mini pistolet à colle<br />

qui fait fondre un thermoplastique à<br />

la chaleur. Le plastique fondu est déposé<br />

par une petite buse pour constituer<br />

couche après couche une pièce<br />

en volume. » Enfin, parmi les autres<br />

technologies d’impression 3D existe la<br />

strato-conception ; celle-ci consiste à<br />

empiler des plaques prédécoupées à<br />

l’aide de machines-outils de découpe.<br />

« Ce procédé présente un intérêt certain<br />

pour réaliser des pièces de grande<br />

taille avec un classique centre d’usinage<br />

».<br />

Autre point important, un problème<br />

se pose à l’impression 3D, celui de la<br />

« pyramide à l’envers ». Concrètement,<br />

pour déposer de la matière au-dessus<br />

du vide (parties en porte-à-faux par<br />

exemple), il faut construire une sorte<br />

d’échafaudage provisoire que l’on appelle<br />

« support d’impression ». La plupart<br />

des procédés utilisent pour cela<br />

deux matières : la matière de la pièce à<br />

fabriquer et une seconde matière pour<br />

la construction des supports ; cette dernière<br />

étant le plus souvent soluble dans<br />

un solvant pour l’éliminer facilement à<br />

la fin du processus d’impression. Ainsi,<br />

les machines industrielles possèdent<br />

le plus souvent deux têtes d’impression.<br />

Une innovation importante qui a<br />

permis la production de ces nouvelles<br />

imprimantes 3D compactes et peu<br />

couteuses est la mise au point d’un<br />

procédé avec une seule matière et une<br />

seule tête d’impression pour construire<br />

la pièce et ses supports d’impression.<br />

Des astuces ont été trouvées pour que<br />

les supports se détachent facilement<br />

du modèle lui-même.<br />

Quand le grand public fait réagir<br />

l’industrie<br />

Les progrès en matière de fabrication<br />

additive ont permis à l’industrie d’avancer<br />

considérablement en passant de<br />

l’étape du simple « prototypage rapide<br />

» à celui de la fabrication par<br />

impression 3D de pièces réellement<br />

fonctionnelles. « Depuis les années<br />

80, les technologies d’impression 3D<br />

n’ont cessé de se perfectionner ; de<br />

nouvelles techniques ont été inventées<br />

et, dans le même temps, la diffusion<br />

plus large des matériels a permis<br />

une baisse régulière de leurs coûts »<br />

se souvient Étienne Bernot. Ce mouvement<br />

s’est accéléré ces dernières<br />

années avec en particulier l’arrivée<br />

dans le domaine public des premiers<br />

brevets des années 80. C’est d’ailleurs<br />

comme cela qu’a été reprise et<br />

simplifiée la technologie du dépôt de<br />

fil pour la réalisation d’imprimantes 3D<br />

simples, compactes et relativement faciles<br />

à produire. Cela c’est fait d’abord<br />

au sein d’universités (MIT), dans un<br />

système collaboratif. Aujourd’hui on ne<br />

compte plus les laboratoires d’université,<br />

les fab lab et les Startup qui travaillent<br />

à mettre au point ou améliorer<br />

des imprimantes 3D.<br />

Ce phénomène prend de l’importance<br />

si l’on considère que cette technologie<br />

est plutôt simple et nécessite seulement<br />

une sorte de mini pistolet à colle<br />

piloté par un ordinateur et capable<br />

de se déplacer sur trois axes. Parallèlement,<br />

des logiciels libres « open<br />

source » sont devenus de plus en plus<br />

performants et accessibles.<br />

L’ancien président de Makerbot, avant<br />

de créer la première grande entreprise<br />

à produire des machines bon marché,<br />

a beaucoup travaillé avec les laboratoires.<br />

Parallèlement à ce phénomène, les<br />

grands industriels historiques du secteur<br />

de l’impression 3D s’y mettent<br />

à leur tour pour proposer des petites<br />

machines compactes et bon marché<br />

à dépôt de fil. C’est ainsi que Makerbot<br />

a été racheté l’an dernier par<br />

Stratasys, un des leaders mondiaux<br />

de l’impression 3D. De la même façon<br />

que l’Anglais BFB a été racheté<br />

par 3D Systems. Enfin, TierTime, un<br />

grand fabricant d’imprimantes professionnelles,<br />

a créé sa propre gamme<br />

de machines compactes de table en<br />

s’appuyant sur ses moyens et son savoir-faire<br />

industriel.<br />

Cet engouement pour l’impression 3D<br />

se ressent encore essentiellement auprès<br />

du grand public et des amateurs<br />

désireux de se lancer eux-mêmes dans<br />

la fabrication du produit de leurs rêves.<br />

Les nouvelles machines accessibles<br />

font découvrir au plus grand nombre<br />

l’impression 3D, jusqu’alors onéreuse<br />

et compliquée, réservée aux domaines<br />

professionnels de pointe. D’autant que<br />

la diffusion de plans et de logiciels<br />

open-source par Internet, la baisse des<br />

prix et la disponibilité « sur étagère »<br />

des composants nécessaires pour<br />

concevoir une machine 3D ont alimenté<br />

cette mouvance. Il faut noter que le<br />

plus souvent, ces machines issues de<br />

l’ « open source » sont proposées en<br />

kit pour ne répondre à aucune certification<br />

de norme. Dans ce cas, il est probable<br />

que ce modèle n’a pas d’avenir<br />

en dehors des quelques passionnés<br />

bricoleurs.<br />

Des limites restent à franchir<br />

L’intérêt de la fabrication additive réside<br />

avant tout dans les possibilités<br />

qu’elle ouvre pour réaliser presque<br />

sans contrainte et presque sans intervention<br />

humaine n’importe quelle<br />

forme, même complexe, contrairement<br />

aux procédés classiques comme le<br />

moulage ou l’usinage qui nécessitent<br />

de dessiner des pièces démoulables<br />

ou usinables. Ces procédés dits classiques<br />

mettent en œuvre aussi des<br />

machines et des outils nécessitant une<br />

formation solide des opérateurs. Par<br />

exemple, dans l’usinage, pour réaliser<br />

un trou, il faut choisir le bon foret<br />

adapté à la matière à percer, choisir la<br />

bonne vitesse de perçage, fixer correctement<br />

la pièce, régler la machine pour<br />

percer où il faut et à la bonne profondeur.<br />

Et le trou ne pourra être que rond<br />

et droit. Alors que par impression 3D,<br />

on peut dessiner un trou de n’importe<br />

quel profil et qui serpente comme on<br />

veut à l’intérieur d’une pièce ; ensuite,<br />

il suffira presque d’appuyer sur la commande<br />

« imprimer » pour que la machine<br />

réalise toute seule la pièce finie.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 23


<strong>Essais</strong> et Modelisation<br />

« Avec ce système, on repousse les<br />

limites du possible… ».<br />

Mais l’impression 3D reste aujourd’hui<br />

un procédé long et peu – ou pas –<br />

adapté aux productions de masse ;<br />

une machine ne peut pas produire des<br />

dizaines de pièces par jour. Dans ce<br />

cas, de grandes séries les procédés<br />

par moulage ou usinage restent infiniment<br />

plus rentables. Ainsi, l’impression<br />

3D ouvre certes la possibilité nouvelle<br />

de réalisations de pièces jusqu’alors<br />

impossibles à réaliser par les techniques<br />

« traditionnelles » mais reste<br />

réservée à la production de prototypes,<br />

pièces uniques ou en très petites séries.<br />

Pour la production, l’impression<br />

3D n’est économiquement viable que<br />

dans le cas ou les quantités produites<br />

ne remboursent pas les investissements<br />

d’outillages spécifiques comme<br />

des moules d’injection et le temps de<br />

réglage et mise en route des machines.<br />

Toutefois, pour le bureau d’études et le<br />

prototypage, l’impression 3D permet<br />

un gain de temps important et offre<br />

au concepteur la possibilité nouvelle<br />

de tester presque immédiatement une<br />

pièce. « Ce que nous pouvons espérer<br />

pour l’avenir, ce serait des machines<br />

moins chères et beaucoup plus rapides<br />

», résume Étienne Bernot, dont<br />

l’entreprise qu’il dirige a investi plus de<br />

100 000 euros dans une imprimante<br />

3D à dépôt de résine pour la fabrication<br />

de pièces spéciales pour des maquettes<br />

pédagogiques produites en<br />

petites séries comprises entre 100 et<br />

200 pièces par an.<br />

Pour que la révolution industrielle annoncée<br />

autour de l’impression 3D devienne<br />

vraiment une réalité, il reste<br />

encore aux industriels à rendre leurs<br />

machines plus performantes et plus<br />

accessibles et élargir leur clientèle<br />

jusqu’aux PME et particuliers. Les<br />

nouvelles « petites » imprimantes<br />

3D à dépôt de fil (compactes et peu<br />

chères) ouvrent la voie d’un nouveau<br />

marché. Mais curieusement, à l’exception<br />

de quelques grands fabricants<br />

de machines cités plus haut, les professionnels<br />

historiques du secteur ne<br />

semblent aujourd’hui pas concernés<br />

par le phénomène. Ils considèrent<br />

souvent sans avoir vu de près ces<br />

nouvelles machines de table avant de<br />

les considérer comme des gadgets.<br />

D’ailleurs, dans les médias « grand<br />

public », on n’entend parler que de<br />

jeunes spécialistes lancés depuis un<br />

ou deux ans dans l’aventure, et qui<br />

ne connaissent que les fab lab et les<br />

imprimantes « de table ». Il reste donc<br />

aux industriels d’orienter leurs efforts<br />

vers des machines plus performantes<br />

et plus accessibles pour, enfin, marquer<br />

d’une pierre blanche l’arrivée<br />

d’une nouvelle révolution industrielle…<br />

Olivier Guillon<br />

En application<br />

Quand l’armée de l’air<br />

fait appel à la fabrication additive<br />

Le grand centre de formation texan de l’armée de l’air américaine a recours à de nombreux outils pour<br />

assurer l’enseignement des pilotes et des soldats. Afin de gagner du temps et réduire les coûts affectés<br />

au développement de ces précieux outils de formation, le Trainer Development Flight (TDF) a fait appel<br />

à Stratasys, leader mondial de la fabrication additive et de l’impression 3D.<br />

Installé sur la Sheppard Air Force<br />

Base, Wichita Falls, au Texas, le TDF<br />

est une installation où sont conçus, développés<br />

et fabriqués des outils pour<br />

les formateurs et la formation pour<br />

l'armée de l'air et toutes les branches<br />

de la défense, selon les besoins. Ces<br />

outils sont utilisés dans de nombreux<br />

environnements de formation, notamment<br />

les avions, les armes et les systèmes<br />

d'alimentation en combustible,<br />

la préparation médicale, les HVAC et<br />

les systèmes de télécommunications.<br />

Les outils pour les formateurs et la formation<br />

peuvent être soit des produits<br />

originaux ou des répliques de ces<br />

derniers, en fonction de l'objectif de la<br />

formation. Certains dispositifs ne sont<br />

pas des unités fonctionnelles, il n'est<br />

donc pas rentable d'acheter le vrai élément.<br />

Pour la plupart des applications<br />

de formation, cela revient moins cher<br />

de former les étudiants sur des répliques,<br />

plutôt que sur un équipement<br />

souvent très onéreux.<br />

Le TDF utilise la fabrication numérique<br />

directe pour fabriquer la grande majorité<br />

de ses produits de formation. Pour<br />

cela, ils emploient quatre machines de<br />

fabrication additive dans une installation<br />

centralisée avec des processus<br />

AFSO 21 (Lean) incorporés au processus<br />

global.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 24


<strong>Essais</strong> et Modelisation<br />

Le défi<br />

Avant d'intégrer à ses processus la<br />

fabrication numérique directe, le TDF<br />

réalisait ses produits à l'aide de méthodes<br />

de fabrication traditionnelles. La<br />

fabrication conventionnelle demande<br />

des délais plus longs, car elle se déroule<br />

souvent en plusieurs étapes,<br />

notamment l'usinage, le tournage, la<br />

soudure, le pliage et le découpage<br />

des plaques en tôle. Le même type de<br />

difficulté survient lors de la production<br />

d'outillage pour mouler une pièce.<br />

« La majorité de nos projets sont soit<br />

uniques soit en très faible volume, les<br />

méthodes conventionnelles reviennent<br />

donc très cher, indique Mitchell<br />

Weatherly, directeur de TDF. Seuls<br />

10 % de notre travail concerne le prototypage,<br />

les 90 % restants sont de la<br />

production. »<br />

Une solution<br />

Avant d'adopter le procédé de dépôt<br />

de fil tendu (fused deposition modeling<br />

: FDM), le TDF a examiné « une<br />

multitude » de processus additifs, explique<br />

le directeur du centre. « Avec la<br />

FDM, l'investissement se fait au début,<br />

il n'est pas permanent, affirme-t-il. Les<br />

pièces sont durables et offrent le degré<br />

de détail élevé dont nous avons<br />

besoin. De plus, le processus est respectueux<br />

de l'environnement et 100 %<br />

‘écologique’ sans aucun déchet. »<br />

Le TDF est chargé de la conception et<br />

de la fabrication d'une réplique exacte<br />

d'un véhicule aérien sans pilote (UAV)<br />

ou “drone” pour la formation des techniciens<br />

de maintenance. De nombreux<br />

éléments internes et externes ont été<br />

construits à l'aide des machines FDM.<br />

Ils incluent de nombreuses pièces du<br />

corps de l'appareil, ainsi que plusieurs<br />

capots, hélices et antennes. Le TDF a<br />

également acheté un certain nombre<br />

de vrais éléments de l'UAV auprès de<br />

l'équipementier.<br />

Des avantages significatifs<br />

La production d'une grande antenne<br />

pour l'UAV, à l'aide des machines FDM,<br />

a pris un dixième du temps qu'aurait<br />

demandé le même travail par des méthodes<br />

traditionnelles. De plus, le retour<br />

sur investissement obtenu s'est<br />

élevé à plus de 12 000 dollars. Mais,<br />

les économies ne sont uniquement<br />

liées au temps. Pour réaliser cette antenne,<br />

un atelier externe aurait nécessité<br />

vingt jours contre seulement deux<br />

avec la FDM — pour quinze à vingt<br />

minutes de travail. Si l'on considère<br />

la totalité du projet d'UAV, le temps<br />

économisé atteint trois ans dans certains<br />

domaines. Ce projet, ainsi que<br />

d'autres économies en matière de formation,<br />

a été réellement impressionnant,<br />

avec des économies réalisées<br />

de 800 000 dollars sur les quatre dernières<br />

années.<br />

« Les principaux avantages du système<br />

FDM sont sa vitesse par rapport<br />

à d'autres processus ou méthodes de<br />

construction, sa polyvalence par rapport<br />

au moulage par injection, et sa<br />

capacité à fabriquer plusieurs pièces<br />

simultanément », déclare Mitchell<br />

Weatherly. Il offre également une maintenance<br />

simple, ainsi que la possibilité<br />

d'utiliser plusieurs matériaux pour<br />

tout un tas de buts différents. « Les<br />

capacités supplémentaires incluent la<br />

possibilité de penser selon l'objectif à<br />

atteindre et pas selon des contraintes<br />

de fabrication, ainsi que la possibilité<br />

d'appliquer immédiatement les modifications,<br />

pour un faible coût additionnel.<br />

La polyvalence qui nous permet<br />

de fabriquer n'importe quel élément,<br />

sans produire aucun déchet dangereux,<br />

constitue l'un des avantages<br />

majeurs pour l'armée de l'air, affirme le<br />

directeur du TDF. Les machines FDM<br />

ont été utilisées pour de nombreux<br />

projets de formation au budget très<br />

serré. Nous avons également utilisé le<br />

processus FDM pour la recherche et<br />

le développement, afin de permettre à<br />

nos aviateurs et à nos soldats de s'entraîner<br />

en situation réelle. »<br />

« Lors de l'achat de notre première<br />

machine FDM, nous avions prévu un<br />

ROI sur quatre ans, mais dix-huit mois<br />

ont suffi, explique Mitchell Weatherly.<br />

Pour l'achat de notre seconde machine<br />

FDM, le ROI a été réalisé en neuf<br />

mois. On ne peut pas éviter d'appliquer<br />

des méthodes conventionnelles<br />

et d'employer des techniciens très<br />

compétents, mais on peut leur fournir<br />

les outils appropriés et une nouvelle<br />

technologie qui peut rendre leur travail<br />

plus facile et plus compétitif. Je pense<br />

que la FDM est l'une des méthodes de<br />

fabrication disponible les plus avancées<br />

au niveau technologique. Depuis<br />

2004, l'année où nous avons acheté la<br />

première de nos quatre machines, le<br />

processus FDM a permis au gouvernement<br />

d'économiser 3,8 M$, et les prévisions<br />

sont d'une économie de 15 M$<br />

sur dix à quinze ans. »<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 25


Congrès Nafems<br />

<strong>Essais</strong> et Modelisation<br />

Événement<br />

Le Congrès Nafems ouvre ses portes à Paris<br />

Les 4 et 5 juin prochains se tiendra, comme tous les deux ans à Paris, le Congrès Nafems. Cette édition<br />

aura pour thème général « La simulation numérique : moteur de performance » et fera intervenir<br />

au cours de ces deux jours de conférences des acteurs éminents de la simulation issus de grandes<br />

entreprises et de laboratoires reconnus à travers toute l’Europe.<br />

Se déroulant au Novotel de Charenton<br />

(Val-de-Marne) les 4 et 5 juin prochains,<br />

cette nouvelle édition nationale<br />

du Congrès Nafems traitera l’ensemble<br />

des domaines d’étude liés à la mécanique<br />

des solides (FEA), la mécanique<br />

des fluides (CFD), la simulation multiphysique<br />

ainsi que des technologies<br />

adjacentes. Présentant un programme<br />

de conférences toujours de haut vol,<br />

l’événement accueillera des intervenants<br />

issus des milieux universitaires<br />

avec la présence de personnalités<br />

étrangères venus de l’université de<br />

Liège, de Polytechnique de Zürich ou<br />

encore le directeur du laboratoire de<br />

Calcul de l’université de Barcelone,<br />

sans oublier quelques représentants<br />

nationaux de la recherche de l’Onera,<br />

du Cemef (Calcul intensif en mécanique),<br />

de l’École Centrale ou de l’institut<br />

Femto-ST (Franche-Comté Électronique<br />

mécanique thermique et optique<br />

– Sciences et technologies).<br />

Mais le Congrès Nafems mettra aussi<br />

et surtout en avant les atouts de la<br />

simulation numérique en matière de<br />

performances en entreprise et dans<br />

l’industrie, et donc en tant que levier<br />

incontournable de compétitivité. Ainsi,<br />

seront présents des fleurons de l’industrie<br />

française venus partager leur expérience<br />

et leur savoir-faire en la matière.<br />

De grands noms comme EDF R&D, la<br />

division « Énergie renouvelable » d’Areva,<br />

Alstom Transport, Valeo, le groupe<br />

PSA ou encore Airbus, représenteront<br />

différents secteurs (aéronautique et<br />

spatial, transport, automobile, énergie<br />

etc.) fervents utilisateurs de la simulation<br />

numérique depuis de nombreuses<br />

années.<br />

Un grand mouvement dans la communauté<br />

de la simulation<br />

Variés, les thèmes porteront sur le<br />

couplage multiphysique, les méthodes<br />

particulières, les bonnes pratiques<br />

de maillage, les incertitudes, en passant<br />

bien entendu par la mécanique<br />

des fluides et des structures, les essais<br />

virtuels ainsi que la validation des<br />

modèles (la liste n’est pas exhaustive<br />

– voir le programme en encadré). Au<br />

total, pas moins de soixante communications<br />

s’enchaineront sur les deux<br />

jours de cet événement parisien qui est<br />

loin d’être isolé. « Ce congrès se tient<br />

Programme du Congrès Nafems<br />

>> Marc Grimmé, directeur technique de Carmat et Pascal Dubuis, président<br />

directeur général d’Inoprod<br />

« De la prouesse technologique multidisciplinaire à l'ingénierie biomécanique<br />

robuste »<br />

>> Christine De Jouette, directrice du Centre de technologie Areva Wind-<br />

France<br />

« Enjeux et usage de la simulation pour l'éolien offshore »<br />

>> Guillaume Devauchelle, vice-président innovation et développement<br />

scientifique de Valeo<br />

« Évolution du marché automobile et influence sur les besoins en simulation »<br />

>> Stéphane Andrieux, directeur scientifique d’EDF R&D<br />

« Enjeux et problématiques de la simulation dans la production d'énergie »<br />

>> Serge Ripailles, Responsable projet PLM, PSA Peugeot Citroën<br />

« PLM : traçabilité des données au service de la simulation »<br />

>> Michel Mahé, Senior Expert Dynamic Analysis, AIRBUS<br />

« Large scale models for A350 »<br />

>> Antonio Huerta, université Polytechnique de Catalogne (Espagne)<br />

« Réduction de modèles et méthodes avancées pour l’ingénierie numérique »<br />

>> Jean Philippe Ponthot, université de Liège (Belgique)<br />

« Nouvelles avancées pour les maillages évolutifs en grandes déformations<br />

tridimensionnelles. Applications à la mise en forme, à l'usure et à la propagation<br />

des fissures »<br />

>> Bruno Sudret, École Polytechnique fédérale de Zurich (Suisse)<br />

« Quantification des incertitudes en ingénierie – Principes et applications »<br />

>> Scott Cogan, Institut Femto-ST<br />

« Robustesse des décisions de conception vis-à-vis des incertitudes épistémiques<br />

en dynamique des structures »<br />

>> Éric Deletombe, Onera Lille<br />

« Modélisation des matériaux et structures composites soumis à des sollicitations<br />

de type chocs hydrodynamiques »<br />

>> Elisabeth Massoni, Cemef-Mines Paris Tech<br />

« Approche multi-physique et multi-échelle des procédés de mise en forme<br />

des matériaux »<br />

>> Jean-Jacques Sinou, École Centrale Lyon<br />

« Ingénierie et méthodologies avancées en dynamique des structures non-linéaires<br />

– Quelques exemples et perspectives de recherche »<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 26


NAFEMS FRANCE<br />

CONGRÈS<br />

2014<br />

Paris - 4-5 Juin<br />

Centre de Conférences Novotel Charenton<br />

Simulation Numérique :<br />

moteur de performance<br />

état de l’art - pratiques - tendances - impact industriel<br />

2 jours 100 % utiles<br />

pour découvrir, approfondir,<br />

confronter, progresser<br />

état de l’art<br />

tendances<br />

bonnes pratiques<br />

vision industrielle<br />

technologies<br />

méthodologies<br />

applications<br />

études de cas<br />

Agenda, information, inscription<br />

www.nafems.org/fr2014<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 27


Les essais aggravés :<br />

Congrès Nafems<br />

<strong>Essais</strong> et Modelisation<br />

en parallèle avec d’autres événements<br />

de même type et d’importance similaire<br />

à travers l’Europe et en Amérique du<br />

nord courant les mois de mai et de juin,<br />

précise François Costes, président de<br />

l’association Nafems France. Il s’agit<br />

d’un grand mouvement commun qui<br />

montre le dynamisme du secteur ».<br />

À Charenton, près de 300 personnes<br />

sont attendues, provenant pour la<br />

grande majorité du monde industriel.<br />

« Les participants sont fidèles à ce<br />

congrès en raison du fait qu’il s’agit, à<br />

ce jour, de la seule manifestation entièrement<br />

dédiée à la simulation numérique<br />

industrielle en France ». Il faut<br />

dire que ce ne sont pas les besoins qui<br />

manquent. L’allègement constant des<br />

essais et l’exigence d’une confiance<br />

totale dans les résultats de simulation<br />

sans oublier les performances des systèmes<br />

font que les industriels sont de<br />

plus en plus attentifs aux possibilités<br />

que l’on peut atteindre aujourd’hui et<br />

des moyens à mettre en œuvre pour<br />

les atteindre. On conçoit aujourd’hui<br />

des modèles de plus en plus poussés<br />

et complexes. Airbus par exemple réalise<br />

des opérations de simulations sur<br />

la totalité de la structure de ses appareils<br />

pour mieux préparer ses essais<br />

de rupture physique comme les ailes. Il<br />

s’agit ici de simulations à cent millions<br />

de degrés de liberté. L’objectif étant de<br />

connaître la probabilité de rupture mais<br />

aussi de voir où se trouvent précisément<br />

les points de fragilité. De là, on<br />

vient placer des jauges et des capteurs<br />

au bon endroit. La simulation permet<br />

ainsi de faire du monitoring intelligent<br />

directement sur l’appareil.<br />

Dans le domaine de l’énergie, au niveau<br />

des phases « aval », on trouve les<br />

fabricants de dispositifs comme Areva<br />

et Alstom pour les turbines. Mais dans<br />

cette filière, les opérations de simulation<br />

s’effectuent surtout en amont, au sein<br />

par exemple des cellules de recherche<br />

et de développement d’Areva (Areva<br />

Research) ou d’EDF (EDF-R&D). Ces<br />

départements sont souvent confrontés<br />

à des problèmes multiphysiques<br />

ou au niveau du couplage des structures<br />

fluides, thermiques voire électronique,<br />

en particulier dans le nucléaire.<br />

Ce domaine impose aussi de réaliser<br />

des essais de vibration, de frottement<br />

etc. Enfin, de plus en plus d’études se<br />

font en amont au niveau des simulations<br />

systèmes, c’est-à-dire pour ce qui<br />

concerne la modélisation de l’ensemble<br />

du comportement avant même d’avoir<br />

pris connaissances des géométries de<br />

la pièce. Ainsi, les résultats obtenus<br />

donneront de précieuses indications<br />

à ceux qui devront ensuite concevoir<br />

des systèmes, lesquels seront en mesure<br />

d’optimiser directement la forme<br />

et la matière des produits. L’intérêt ?<br />

Réaliser des prototypes moins coûteux<br />

et les casser. On ne fait dès lors des<br />

expérimentations efficaces que sur les<br />

produits finis.<br />

Abonnez-vous en ligne sur www.essais-simulations.com<br />

Offre spéciale<br />

Bénéficiez d’un abonnement<br />

découverte d’un an<br />

DOSSIER<br />

Dégradabilité des<br />

matériaux<br />

Page 16<br />

DOSSIER<br />

Compatibilité<br />

électromagnétique<br />

La CEM aujourd’hui ...<br />

Page 15<br />

www.essais-simulations.com<br />

www.essais-simulations.com<br />

DOSSIER<br />

Page 46<br />

55€*TTC<br />

au lieu de 80€**<br />

ESSAIS ET MODÉLISATION<br />

Les logiciels de simulation<br />

Page 10<br />

ESSAIS ET MODÉLISATION<br />

N° 107 JUILLET, AOÛT, SEPTEMBRE 2011 TRIMESTRIEL 20 €<br />

MÉTHODES DE MESURES<br />

Les nouveaux usages<br />

des capteurs dans les essais.<br />

Page 11<br />

Numéro spécial MesurexpoVision<br />

Page 48<br />

MÉTHODES DE MESURES<br />

N° 108 OCTOBRE, NOVEMBRE, DÉCEMBRE 2011 TRIMESTRIEL 20 €<br />

où en sommes-nous ?<br />

PRODUITS & TECHNOLOGIES<br />

Les nouveaux outils<br />

de mesure<br />

Mesurer la qualité, l’humidité et la<br />

température de l’air.<br />

Page 30<br />

Page 14<br />

N° 109 JANVIER, FEVRIER, MARS 2012 TRIMESTRIEL 20 €<br />

ÉTALONNAGE<br />

MÉTHODES DE MESURES<br />

Système d’instrumentation<br />

analytique<br />

Page 20<br />

Page 30<br />

Quelles mesures dans<br />

l’analyse industrielle ?<br />

Cet abonnement peut être pris en compte dans vos frais généraux ou votre budget formation<br />

* Pour tout paiement en ligne par carte bleue **TVA 19,6%. Offre réservée à la France métropolitaine. DOM-TOM et étranger : 80€<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 28


Congrès Nafems<br />

<strong>Essais</strong> et Modelisation<br />

Interview<br />

Airbus simule un essai complet<br />

Michel Mahé, ingénieur au sein du département Calculs et structures d’Airbus, interviendra lors du prochain<br />

Congrès Nafems France. Il exposera les résultats d’un projet réussi consistant à simuler l’essai complet de<br />

l’A350. Une prouesse qui ouvre de nouvelles possibilités en termes de simulation numérique, à condition<br />

toutefois de progresser dans les temps de mise en place du modèle.<br />

<strong>Essais</strong> & <strong>Simulations</strong><br />

Michel Mahé, vous travaillez sur le<br />

calcul non linéaire de structures.<br />

Que couvre ce domaine dans les<br />

métiers des essais ?<br />

Michel Mahé<br />

Les calculs non-linéaires concernent<br />

par exemple les endommagements ou<br />

les ruptures intervenant sur une partie<br />

de la pièce ou un élément de l’appareil.<br />

Il s’agit plus précisément de quantifier<br />

l’instabilité du flambement des structures<br />

composites et métalliques en cas<br />

de charges extrêmes, c’est-à-dire les<br />

charges au-delà desquelles l’avion est<br />

amené à subir des instabilités dues à<br />

des phénomènes de flambement. Ces<br />

phénomènes peuvent fortement jouer<br />

sur la rigidité de l’appareil ; agir sur ces<br />

problèmes de flambement, c’est aussi<br />

maintenir le niveau déjà très élevé<br />

de qualification et de tenue de l’avion.<br />

C’est pourquoi ces essais nous permettent<br />

d’aller très loin dans la mesure<br />

où l’on joue entre les charges limites et<br />

les charges extrêmes. Cela représente<br />

un atout majeur en termes d’optimisation<br />

des structures, tout en respectant<br />

les exigences ultimes de sécurité.<br />

Qu’allez-vous présenter sur le<br />

Congrès Nafems ?<br />

Je vais mettre en lumière une innovation<br />

qui n’a, à ma connaissance, pas<br />

encore été abordée en tant que telle<br />

par nos concurrents. Pour cela, nous<br />

nous sommes appuyés sur la maturité<br />

de la simulation numérique acquise<br />

ces vingt dernières années pour l’amélioration<br />

de la fiabilité du calcul non<br />

linéaire du comportement des structures<br />

sur l’A350. Ces calculs, nous les<br />

avons mis en œuvre avant les essais<br />

d’ensemble (les essais physiques). On<br />

a donc virtuellement chargé l’avion à<br />

l’extrême et sollicité sa structure. Ainsi,<br />

pour la première fois, nous avons simulé<br />

l’essai – pratiquement – complet !<br />

Quel est l’objectif de cette démarche<br />

?<br />

Il s’agit avant tout de sécuriser au maximum<br />

une campagne d’essai. Réaliser<br />

le calcul numérique, au niveau des<br />

calculs non linéaires, de l’essai complet<br />

de l’ensemble de l’appareil chargé<br />

à l’extrême, sécurise avant tout le planning<br />

de l’essai. Il faut en effet toujours<br />

avoir à l’esprit que la moindre anomalie<br />

peut engendrer des semaines voire<br />

des mois de retard, d’abord pour identifier<br />

l’origine du problème, ensuite pour<br />

le régler. Ces délais sont, d’un point de<br />

vue industriel, impensables. L’idée est<br />

donc d’anticiper un comportement le<br />

plus en amont possible de l’essai physique<br />

pour accroître la confiance lors<br />

du premier vol de l’appareil et détecter<br />

la moindre anomalie.<br />

Comment traitez-vous ces anomalies<br />

?<br />

Nous travaillons sur des problèmes<br />

potentiels. Il existe trois catégories<br />

d’interventions. La première consiste à<br />

renforcer la structure en ajoutant des<br />

caméras et en réalisant des modèles<br />

plus fins voire en procédant à de petits<br />

essais partiels. La deuxième concerne<br />

plutôt l’ajout d’éléments comme des<br />

jauges supplémentaires. Enfin, la dernière<br />

catégorie intervient lorsque le<br />

modèle montre que l’avion n’est pas<br />

capable de soutenir les charges extrêmes.<br />

Dans ce cas, soit nous renforçons<br />

la structure, soit, plus simplement,<br />

nous procédons à une nouvelle<br />

répartition des charges, chose qui<br />

n’est pas visible par l’analyse linéaire,<br />

d’où l’avantage de cette méthode. En<br />

somme, on aiguille les efforts à côté,<br />

Michel Mahé, en quelques mots…<br />

Ingénieur au sein du département Calculs et structures d’Airbus, Michel<br />

Mahé travaille plus précisément sur la résistance des matériaux. Formé<br />

à l’Ecole supérieure nationale (ENS) de Cachant, l’ingénieur fraîchement<br />

diplômé s’est vu l’opportunité d’effectuer un doctorat à l’Aérospatial<br />

(ex-Airbus) et ainsi de soutenir une thèse concernant le monde industriel<br />

et à l’issue de laquelle il reçut une proposition d’embauche en tant qu’expert<br />

en calculs de structures, et tout particulièrement dans le domaine<br />

non-linéaire. Ce domaine concerne notamment les endommagements, les<br />

contacts et les ruptures etc. A ce jour, Michel Mahé travaille chez Airbus<br />

depuis vingt ans.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 29


Congrès Nafems<br />

<strong>Essais</strong> et Modelisation<br />

puis on ajoute les fixations nécessaires,<br />

nous évitant ainsi d’effectuer<br />

des communications majeures.<br />

Quels ont été les résultats de ces<br />

opérations de simulation lors du<br />

premier essai ?<br />

Le premier vol a été réalisé le 14 juin<br />

2013, le deuxième au second semestre.<br />

Les essais ont été concluants,<br />

montrant que la structure était très<br />

saine, tout en sachant que l’A350 est le<br />

premier avion véritablement hybride ;<br />

sa structure étant composée à plus de<br />

50% de matériaux composites.<br />

Quels ont été les principaux défis<br />

de ce projet ?<br />

Nous avons incité nos partenaires à<br />

redoubler d’efforts, à commencer nos<br />

fournisseurs de code qui ont dû repousser<br />

certaines limites. Il faut dire<br />

que lorsque l’on travaille sur un seul<br />

tronçon, on atteint déjà 70 millions de<br />

degrés de liberté. Aujourd’hui, on a<br />

dû multiplier par dix ce nombre. Nous<br />

avons travaillé avec Dassault Systèmes<br />

et sa suite logicielle Abaqus. Il<br />

s’agit d’un partenariat à la fois intense<br />

et pleinement réussi. Toutefois, dans<br />

le domaine de la simulation, il reste<br />

beaucoup à faire dans la mesure où<br />

cette partie représente encore plus<br />

de 50% du volume horaire du projet !<br />

Les efforts sont à fournir en matière de<br />

CAO et de simplification, mais aussi<br />

au niveau du maillage et de la mise en<br />

place des interfaces.<br />

Il en est de même pour le post-traitement<br />

: on étudie une dizaine de cas de<br />

charges comme la flexion de la voilure,<br />

et dans lesquels on étudie plusieurs dizaines<br />

de critères avec des millions de<br />

degrés de liberté. Tout est automatisé<br />

mais en termes de carte graphique et<br />

de l’aspect hardware, on atteint très vite<br />

la limite, de même que le codage logiciel.<br />

Mais nous avons réussi, d’autant<br />

que nous sommes parvenus à travailler<br />

avec l’ensemble des sites d’Airbus,<br />

que ce soit à Toulouse, à Hambourg,<br />

au Royaume-Uni ou en Espagne ; l’ensemble<br />

des tronçons était concerné.<br />

Pensez-vous reprendre ce modèle<br />

pour les prochains développements<br />

d’Airbus ?<br />

Oui, nous allons travailler davantage<br />

sur des approches similaires. Nous<br />

pensons en effet qu’à l’avenir, c’est<br />

comme cela qu’il faut travailler, en particulier<br />

pour les questions de robustesse<br />

de façon à être le plus proche<br />

possible de la réalité mécanique pour<br />

des raisons de sécurité avant tout. Cela<br />

permet également d’éviter de lancer<br />

des dizaines de modèles de tronçons.<br />

Enfin, outre le facteur inhérent d’économies,<br />

obtenir un modèle d’ensemble<br />

permet à tous les départements d’en<br />

faire référent sur lequel il possible de<br />

travailler à l’échelle du groupe. Mais<br />

ce modèle d’ensemble n’est véritablement<br />

possible que dès lors qu’on aura<br />

pu suffisamment réduire les temps de<br />

mises en place des modèles numériques.<br />

Aujourd’hui, nous avons prototypé<br />

un système ; demain, il faudra<br />

l’industrialiser.<br />

Propos recueillis par Olivier Guillon<br />

Métiers<br />

La simulation numérique se professionnalise<br />

Si l’aéronautique, l’énergie ou encore le ferroviaire ont considérablement progressé dans le domaine<br />

de la simulation numérique, l’automobile maintient toujours son avance sur les autres secteurs d’activité.<br />

Mais au sein de ce même secteur, certains constructeurs, à commencer par le groupe PSA Peugeot<br />

Citroën, sont allés plus loin en ayant professionnalisé certaines activités comme la création de méthodologies<br />

et la formation à la conception et à l’utilisation d’outils de plus en plus performants.<br />

Chez PSA, le métier d’ingénieur en<br />

méthodologies numériques dans l'aérodynamique<br />

des moteurs est une activité<br />

à part entière. Ce métier existe<br />

même depuis près de vingt ans au sein<br />

du groupe. Arrivé en 2002 chez PSA<br />

Peugeot Citroën, d’abord en tant que<br />

prestataire extérieur durant trois ans<br />

avant d’être pleinement intégré chez<br />

le constructeur français, Olivier Davodet,<br />

maintenant expert numérique à la<br />

direction chaine de traction et châssis,<br />

a occupé ce poste en ayant pleinement<br />

conscience d’être l’un des rares<br />

en France à exercer une profession<br />

encore peu connue, y compris dans le<br />

secteur automobile. En quoi consiste-telle<br />

? Tout simplement à créer des méthodologies<br />

numériques, à former les<br />

métiers de la conception à l’utilisation<br />

des logiciels de calcul. « Notre rôle est<br />

d’aider les bureaux d’études à trouver<br />

le logiciel le plus adapté aux défis de<br />

développement et de production, à<br />

bien s’en servir, de le paramétrer correctement<br />

afin de réaliser une simulation<br />

numérique, exercer le bon maillage,<br />

la mise en données et réaliser<br />

du post-traitement de ces données »,<br />

résume Olivier Davodet. En somme, le<br />

service crée et forme aux méthodologies,<br />

puis supporte au quotidien le personnel<br />

dans l’utilisation des logiciels.<br />

Vu bien souvent comme un centre de<br />

coûts, le département des méthodologies<br />

numériques présente pourtant<br />

des intérêts évidents, et le construc-<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 30


Congrès Nafems<br />

<strong>Essais</strong> et Modelisation<br />

Congrès Nafems - une intervention sur les engrenages<br />

Le groupe PSA Peugeot Citroën présentera un projet pour les engrenages<br />

de boîtes de vitesses qui subissent des procédés en usine pour<br />

les rendre plus durs. Ces pièces sont par exemple mises dans des bains<br />

d’azote et de carbone pour accroître leur dureté puis trempées dans<br />

l’huile pour les refroidir. Or cela les déforme. Ainsi, pour maintenir les<br />

mêmes propriétés géométriques, on modélise l’ensemble des procédés<br />

en numérique, ainsi que l’enchainement multiphysique des calculs, par<br />

la mécanique des solides et des fluides pour la trempe d’huile. Après un<br />

mois de phases de calculs, on sait comment les pièces sont déformées,<br />

et ce selon des critères bien définis par un cahier des charges rédigé par<br />

le donneur d'ordres.<br />

mérique », formant ainsi une véritable<br />

lame de fond dans le paysage industriel.<br />

« Le souffle du numérique croît<br />

continuellement et a rendu possible<br />

un nombre bien plus élevé du nombre<br />

d’opérations de simulation ». De<br />

même, avec l’évolution des moyens<br />

de calcul, « nous sommes passé d’un<br />

stade où l’on ‘’faisait au mieux avec<br />

ce que l’on avait’’ à une époque où<br />

l’on simule désormais tout ce que l’on<br />

veut. On va donc beaucoup plus loin<br />

dans l’analyse tout en ajoutant des aspects<br />

multiphysiques. Nous sommes<br />

également capables d’explorer plus<br />

de possibilités et plus rapidement ».<br />

Dans l’automobile, Olivier Davodet<br />

ne ressent pas d’essoufflement particulier<br />

quant aux progrès et à l’utilisation<br />

de la simulation numérique. Bien<br />

au contraire. Outre des évolutions<br />

franches dans les outils et les moyens<br />

logiciels disponibles sur le marché,<br />

l’ingénieur constate que la simulation<br />

est aussi utilisée de façon bien plus<br />

pragmatique. Mais cela semble être<br />

davantage lié aux impératifs du secteur<br />

automobile et ses délais courts,<br />

contraignant les acteurs de la simulation<br />

à faire des tentatives fiables pour<br />

répondre très rapidement aux exigences<br />

émises par les autres services.<br />

Ces progrès sont pour l’essentiel liés<br />

à la puissance des moyens de calcul.<br />

D’ailleurs, le constructeur français possède<br />

deux centres de calculs, l’un en<br />

région parisienne, l’autre dans l’est de<br />

la France. L’objectif étant de toujours<br />

maintenir cette avance de façon à réduire<br />

le coût des calculs et être à la fois<br />

plus précis et compétitifs.<br />

teur français ne s’y est pas trompé.<br />

Tout d’abord, le fait de disposer de ressources<br />

compétentes dans le domaine<br />

du numérique et très spécialisées<br />

procure un avantage concurrentiel.<br />

De plus, cela permet de combler le décalage<br />

entre le projet et le produit fini ;<br />

« le service permet de ‘’bencher’’ les logiciels<br />

et de prendre un peu de hauteur<br />

sur les solutions existantes de manière<br />

à mieux les choisir et les adapter aux<br />

besoins ». Enfin, ce service est transversal<br />

et, dans un contexte où les opérations<br />

sur des aspects multiphysiques<br />

prennent de plus en plus d’ampleur,<br />

il permet d’entretenir des liens très<br />

proches entre les métiers, comme par<br />

exemple entre la mécanique et l’aérodynamique.<br />

Toutefois, il faut prendre<br />

gare à ne pas trop s’éloigner de la<br />

conception et à maintenir des connaissances<br />

pointues à propos du produit<br />

final ; « nous travaillons beaucoup sur<br />

cet aspect en interrogeant tous les métiers<br />

de façon à ne pas éloigner la modélisation<br />

des attentes des bureaux de<br />

conceptions ».<br />

Un métier toujours en constante<br />

évolution<br />

Le métier s’est beaucoup professionnalisé.<br />

Désormais, le « numérique »<br />

n’est plus une option mais bel et bien<br />

un levier inévitable de compétitivité.<br />

Progressivement, on a assisté au remplacement<br />

du « physique » par le « nu-<br />

Des défis à relever pour « démocratiser<br />

» la simulation numérique<br />

Une puissance de calcul infinie… c’est<br />

en quelque sorte le rêve d’un ingénieur<br />

méthodologie numérique. « La puissance<br />

de calcul demeure en effet le<br />

nerf de la guerre. L’augmentation de<br />

cette puissance, c’est l’un des défis de<br />

la simulation aujourd’hui. Par ailleurs,<br />

on perd encore trop de temps sur les<br />

outils de CAO dans le pré-traitement<br />

des données ». A l’avenir, Olivier Davodet<br />

nourrit l’espoir d’une simulation numérique<br />

« démocratisée ». Aujourd’hui,<br />

le métier d’ingénieur calculs est encore<br />

trop peu vulgarisé dans l’entreprise.<br />

Pourtant, son rôle est dynamique et<br />

continue d’évoluer. Il promet d’occuper<br />

une place de plus en plus importante.<br />

« Je vois de la simulation partout !<br />

C'est pourquoi nous devons la rendre<br />

accessible à tous, jusqu’au technicien.<br />

Pour cela, la simulation ne doit pas<br />

rester trop complexe ».<br />

Olivier Guillon<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 31


Congrès Nafems<br />

<strong>Essais</strong> et Modelisation<br />

Tendances<br />

Redonner aux essais leurs lettres de noblesse<br />

Pour bien comprendre l’évolution de la simulation numérique dans les phases d’essais et la place<br />

qu’elle occupe aujourd’hui, il nous a paru intéressant de nous pencher sur la biographie de l’un des<br />

intervenants du prochain Congrès Nafems Paris qui aura lieu début juin à Charenton (Val-de-Marne).<br />

Le parcours d’Éric Deletombe, chargé de mission au sein de l’Onera, met en lumière en effet le virage<br />

qu’a pris la simulation et sa part grandissante dans l’industrie, en particulier l’aéronautique. Il traduit<br />

également des avancées technologiques (en termes de puissance de calcul et de précision notamment)<br />

stimulées par une course effrénée vers les gains de qualité, de temps et de coûts.<br />

Diplômé en 1988 de l’école Supaéro<br />

de Toulouse, Éric Deletombe intègre<br />

l’Onera début 1991 dans le laboratoire<br />

de mécanique des structures afin de<br />

travailler sur la simulation numérique<br />

de crashes de structures métalliques<br />

dans l’aéronautique. C’est le début<br />

d’une nouvelle ère dans le calcul par<br />

éléments finis des structures avec de<br />

nombreuses tentatives d’essais sur<br />

des structures à échelle réduite. La<br />

raison de cet essor tient essentiellement<br />

dans le coût élevé de ces tests.<br />

La mission d’Éric Deletombe a donc<br />

été d’évaluer les avancées dans le<br />

domaine de la simulation numérique<br />

(dont les plus abouties se trouvaient<br />

pour le crash dans le secteur automobile)<br />

et de l’intégrer dans les activités<br />

de l’Onera afin de simuler des phénomènes<br />

de situations accidentelles.<br />

Cinq ans plus tard, un projet avec Eurocopter<br />

a permis de mettre en avant les<br />

atouts de la simulation dans l’étude de<br />

crash d’un hélicoptère dont la structure<br />

était conçue en matériaux composites.<br />

Ce fut également le cas pour la gestion<br />

de phénomènes de collisions à haute<br />

vitesse et des impacts qu’elles produisent.<br />

« Les impacts balistiques se<br />

présentent comme des phénomènes<br />

par certains aspects plus compliqués<br />

que les crashes », assure Éric Deletombe.<br />

D’où l’objet de son intervention<br />

les 4 et 5 juin prochains sur les lieux<br />

du Congrès Nafems, et qui portera sur<br />

la vulnérabilité des structures composites<br />

face aux impacts à haute vitesse.<br />

Cette intervention se consacrera plus<br />

exactement à l’impact balistique dans<br />

un réservoir d’avion.<br />

Les essais remis à l’honneur dès les<br />

années 2000<br />

De 1999 à 2009, Éric Deletombe dirige<br />

l’unité de recherche Conception<br />

et résistance des structures et, parallèlement<br />

à l’émergence des grands<br />

moyens de calcul, assiste à l’idée de<br />

plus en plus convaincue que la simulation<br />

numérique remplacera purement<br />

et simplement les essais physiques.<br />

« Nous avons par exemple abandonné<br />

les essais dans le nucléaire pour<br />

les remplacer par la simulation. Mais<br />

les années 2000 ont mis en avant la<br />

complexité que l’on connaît dans le<br />

domaine dynamique et mécanique. On<br />

a compris que si la simulation permettait<br />

incontestablement d’aller plus loin<br />

dans l’appréhension des phénomènes,<br />

elle ne pouvait en aucun cas les prévoir<br />

dans l'absolu». Il fallait en effet<br />

prouver que les résultats obtenus en<br />

simulation étaient bien exacts en procédant<br />

à des opérations de validation<br />

des outils numériques.<br />

Ce type d’opérations figure néanmoins<br />

comme une évolution majeure dans<br />

les phases d’essais. En outre, devant<br />

la complexité des structures et le besoin<br />

d’être de plus en plus rapide, les<br />

années 2000 ont redonné aux essais<br />

un caractère noble, « dans la mesure<br />

où nous avons pris conscience que<br />

la simulation numérique pouvait faire<br />

tout et son contraire », concède Éric<br />

Deletombe. La clé réside alors dans<br />

la conciliation et de l’association des<br />

deux. C’est pourquoi de nombreux<br />

moyens expérimentaux de grandes<br />

capacités ont été développés et mis en<br />

place à l’Onera dans le but d’étudier la<br />

mécanique des structures mais aussi<br />

leur caractérisation dynamique et faire<br />

de la validation numérique sur des cas<br />

bien particuliers : comme l’impact sur<br />

des réservoirs d’avion, le traitement<br />

mécanique d’un fluide dans le cas d’un<br />

appareil abîmé en pleine mer, sans oublier<br />

les études sur les structures faites<br />

de matériaux composites. « Notre rôle<br />

est d’aller plus loin dans la précision<br />

des modèles en développant des algorithmes<br />

et des modèles bien spécifiques<br />

pour mettre au point les matériaux<br />

et structures les plus résistants ».<br />

Bouleversement de la pyramide<br />

des essais<br />

Dans l’aéronautique, comme dans<br />

bien d’autres secteurs d’activité aux<br />

exigences de qualité extrêmes, la<br />

conception des structures doit être la<br />

plus sûre possible. Pas le droit à l’erreur<br />

; on comprend bien pourquoi. Pour<br />

répondre à ces exigences de qualité,<br />

les essais de structures suivent un<br />

échelonnement bien précis, lequel se<br />

présente sous une forme pyramidale.<br />

En haut de la pyramide se trouve l’essai<br />

complet sur un prototype de l’appa-<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 32


Congrès Nafems<br />

<strong>Essais</strong> et Modelisation<br />

reil. Idéalement, il n’y en a qu’un. Décisif,<br />

cet essai est aussi le plus onéreux.<br />

C’est pourquoi, plus on descend vers<br />

la base de la pyramide, plus les essais<br />

sont nombreux, plus rapides et moins<br />

coûteux. Au fil des années, cet échelonnement<br />

de phases d’essais a pris<br />

sa forme pyramidale dans la mesure<br />

où il a fallu réduire au maximum les essais<br />

de structures entières d’avion pour<br />

multiplier les opérations de tests sur de<br />

plus petits morceaux de l’appareil.<br />

Le nombre d’essais, globalement, a<br />

donc considérablement augmenté,<br />

notamment avec l’arrivée massive des<br />

matériaux composites. « Nous menons<br />

aujourd’hui de nombreux essais<br />

sur des éprouvettes matériaux afin de<br />

choisir les plus adaptés mais aussi et<br />

surtout pour développer nos outils de<br />

simulation numérique car celle-ci a<br />

besoin d’être préalablement alimentée<br />

avec des données d’entrée », précise<br />

Éric Deletombe. Ainsi, pour schématiser,<br />

à la base de la pyramide se trouve<br />

une multitude de petits essais peu<br />

coûteux et au sommet, un essai complet.<br />

A l’inverse, auparavant, les essais<br />

intermédiaires étaient beaucoup plus<br />

nombreux.<br />

Pour autant, le coût global des campagnes<br />

d’essais demeure une préoccupation<br />

majeure. N’oublions pas<br />

que le nombre de petits essais a fortement<br />

augmenté et, à l’échelle de la<br />

recherche, le coût expérimental reste<br />

très important. « A l’Onera, nous avons<br />

par exemple réalisé un prototype de<br />

fuselage à une échelle réduite et, déjà,<br />

les montants sont élevés, faisant état<br />

de près d’un million d’euros rien que<br />

pour la simulation numérique et les<br />

essais, sur les 2,5 millions d’euros<br />

nécessaires à l'étude de conception<br />

numérique et la production du prototype<br />

». Ainsi, 20% sont toujours, au<br />

stade de la recherche, inhérents au<br />

développement d’un produit d’une telle<br />

envergure destiné à l'essai. Les essais<br />

jouent donc toujours un rôle prépondérant,<br />

d’autant que les problématiques<br />

nouvelles, souvent liées à la sécurité,<br />

à la santé ou à l’environnement, mais<br />

également dans l’approche multidisciplinaire,<br />

sont apparues ces dernières<br />

années. Reste aujourd’hui à attendre<br />

une nouvelle ère informatique ; « nous<br />

sommes aujourd’hui encore limités en<br />

termes de puissance et confrontés à<br />

des temps de résolution trop longs qui<br />

poussent les industriels à devoir simplifier<br />

leurs modèles. Il nous faut une<br />

nouvelle révolution informatique pour<br />

relever les défis ».<br />

Olivier Guillon<br />

Entretien<br />

La simulation face à ses défis de demain<br />

Professeur des universités au sein de l’École Centrale de Lyon, Jean-Jacques Sinou dirige le département<br />

de Mécanique des solides, génie mécanique et génie civil et mène ses activités de recherche au sein du<br />

Laboratoire de Tribologie et Dynamique des Systèmes. À l’occasion du prochain Congrès Nafems France<br />

organisé les 4 et 5 juin à Charenton, le professeur reviendra sur les problématiques liées à la dynamique<br />

des structures non linéaires et la nécessité de mieux comprendre ces phénomènes pour répondre aux<br />

enjeux de l’industrie. Dans cet entretien accordé à la revue <strong>Essais</strong> & <strong>Simulations</strong>, Jean-Jacques Sinou fait<br />

également un point sur l’état de la simulation aujourd’hui et ses grands défis de demain.<br />

<strong>Essais</strong> & <strong>Simulations</strong><br />

Sur quelle thématique allez-vous<br />

intervenir lors du Congrès<br />

Nafems ?<br />

Jean-Jacques Sinou<br />

Le thème s’intitule « Ingénierie et<br />

méthodologies avancées en dynamique<br />

des structures non-linéaires –<br />

Quelques exemples et perspectives<br />

de recherche ». Cette intervention<br />

porte sur les problématiques que l’on<br />

rencontre en ingénierie et la prise en<br />

compte de ces phénomènes dans l’industrie<br />

au niveau des structures mécaniques.<br />

L’industrie a en effet besoin<br />

de mieux comprendre les structures<br />

Calcul de crissement<br />

afin de mieux les dimensionner. L’objet<br />

de mon intervention sera de mettre en<br />

avant des méthodologies et stratégies<br />

numériques à travers une approche<br />

duale expérimentale numérique dans<br />

le but de mieux comprendre l’impact<br />

de des phénomènes non linéaires et<br />

des comportements vibratoires qui en<br />

résultent.<br />

Sur quels exemples allez-vous<br />

vous appuyer ?<br />

Je mettrai en lumière une application<br />

qui concerne les systèmes dynamiques<br />

comportant des interfaces<br />

« frottantes » en se focalisant sur<br />

l’étude du crissement et des vibrations<br />

auto-entretenues. L’exemple traitera le<br />

cas d’un système de frein ferroviaire;<br />

le freinage d’un train émet en effet un<br />

bruit aigu qu’il faut essayer de réduire<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 33


Congrès Nafems<br />

<strong>Essais</strong> et Modelisation<br />

Crissement de frein<br />

pour améliorer le confort. Ce projet<br />

« Acoufren » financé par l’Agence de<br />

l’environnement et de la maîtrise de<br />

l’énergie (Ademe) a été mené et dirigé<br />

par la SCNF. L’idée est de montrer<br />

ici comment nous avons traité ce<br />

problème complexe en alliant expérimentations,<br />

modélisation et développement<br />

de techniques numériques<br />

avancées afin de prédire le comportement<br />

vibratoire non-linéaire du système<br />

de freinage et les phénomènes<br />

de crissement apparaissant lors des<br />

contacts et pertes de contact entre<br />

pièces. Or, pour l’heure, les logiciels<br />

permettent difficilement d’obtenir des<br />

résultats suffisamment intéressants<br />

dans le domaine du crissement.<br />

Est-ce l’un des défis de la simulation<br />

numérique ?<br />

La simulation occupe aujourd’hui une<br />

place très importante et s’est imposée<br />

comme un moyen à la fois efficace et<br />

économiquement peu coûteux en comparaison<br />

à la réalisation d’essais expérimentaux.<br />

La simulation numérique se<br />

présente comme une solution possible<br />

dans la logique de faire toujours plus<br />

vite, plus performant, maîtrisé et moins<br />

cher. Elle permet en effet la mise en<br />

œuvre et l’adaptation numérique de<br />

modèles théoriques et mathématiques<br />

de plus en plus complexes pour tenter<br />

de mieux restituer le fonctionnement<br />

des systèmes mécaniques complexes<br />

et mener des prédictions de scénarios<br />

possibles et statuer sur les paramètres<br />

physiques prépondérants. De plus,<br />

nous assistons ces dernières années à<br />

l’apparition de techniques numériques<br />

très performantes avec des modélisations<br />

multi-échelles et multi-physique<br />

qui nous permettent de reproduire<br />

des situations de fonctionnement très<br />

complexes et toujours plus proche de<br />

la réalité.<br />

Néanmoins, il ne faut pas oublier que<br />

la simulation tente de restituer le fonctionnement<br />

d’un système complexe<br />

suivant une modélisation choisie ; en<br />

d’autres termes, elle va de paire avec<br />

la modélisation, ce qui implique qu’elle<br />

doit être maîtrisée et la plus proche<br />

possible de la réalité. C’est l’expérience<br />

qui alimente le modèle et par<br />

conséquent la simulation ; cette notion<br />

est capitale, la simulation numérique<br />

ne doit pas supplanter l’expérimentation<br />

même s’il est tentant d’aller vers le<br />

« tout numérique ».<br />

Signature du crissement<br />

Quelles sont les limites de la simulation<br />

?<br />

Les limites concernent avant tout le dialogue<br />

avec la machine. Je m’explique :<br />

certains phénomènes physiques demeurent<br />

mal compris ou peuvent être<br />

difficilement mis en équations. De plus,<br />

les modèles sont de plus en plus complexes,<br />

nécessitant des puissances de<br />

calcul jusqu’à présent indisponibles. À<br />

titre d’exemple, le nombre d’opérations<br />

pour la résolution d’un modèle croît en<br />

fonction de la précision que l’on souhaite.<br />

Or cette recherche de précision<br />

ne fait qu’augmenter pour répondre<br />

aux besoins des industriels.<br />

Par ailleurs, on continue de hiérarchiser<br />

les opérations de simulation et<br />

on procède toujours étape par étape ;<br />

c’est une erreur. Pour élaborer des<br />

systèmes complets, nous devons simuler<br />

l’ensemble mais cela nécessite<br />

une nouvelle fois des moyens de<br />

calculs et des logiciels toujours plus<br />

performants. Le rôle du chercheur est<br />

donc de proposer aux industriels des<br />

stratégies globales ainsi que des techniques<br />

numériques innovantes qui leur<br />

permettront de répondre aux attentes<br />

futures. Par exemple, dans le cas du<br />

crissement de frein, on se focalise<br />

toujours trop – et quasi-exclusivement<br />

– sur le frein et pas suffisamment sur<br />

l’environnement global du véhicule. Or<br />

le profil d’une chaussée, les conditions<br />

climatiques mais aussi le comportement<br />

routier de chacun des conducteurs,<br />

sans oublier les cas de freinages<br />

d’urgence sont autant de paramètres à<br />

prendre en compte. On en est encore<br />

loin mais on y arrivera un jour…<br />

Propos recueillis par Olivier Guillon<br />

Le couplage essai et simulation est désormais indissociable<br />

Ingénieur de l’École nationale supérieure des ingénieurs des études et techniques d'armement<br />

(Ensieta), aujourd’hui connue sous le nom d’ENSTA Bretagne et située à Brest,<br />

Jean-Jacques Sinou a également effectué un master Recherche au sein de l’École Centrale<br />

de Lyon avant d’entamer une thèse sur la dynamique des structures soutenue en<br />

2002. En 2003, il se rend à l’Université de Swansea, aux Pays-de-Galles, pour travailler<br />

sur la dynamique des systèmes tournants. Un an plus tard, Jean-Jacques Sinou revient<br />

à Lyon et intègre l’école Centrale en tant que maître de conférences avant de devenir<br />

professeur des universités à partir de 2010. Il dirige aujourd’hui le département de Mécanique<br />

des solides, génie mécanique et génie civil.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 34


1 & 2 juillet/july 2014<br />

École Polytechnique<br />

Palaiseau - France<br />

Le rendez-vous international<br />

HPC & SIMULATION<br />

The International Meeting<br />

Forum<br />

2014<br />

SIMULER POUR INNOVER<br />

INNOVATION BY SIMULATION<br />

Inscription/Registration www.teratec.eu<br />

Platinum Sponsors<br />

Gold Sponsors<br />

Silver Sponsors<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 35


Forum Teratec<br />

<strong>Essais</strong> et Modelisation<br />

Événement<br />

Le Forum Teratec réaffirme<br />

l’importance de la simulation et du calcul intensif<br />

Le rendez-vous des experts internationaux de la conception et de la simulation numérique a haute<br />

performance se déroulera les 1er et 2 juillet 2014 à l’École Polytechnique, à Palaiseau (Essonne).<br />

Cette neuvième édition portera sur le thème suivant : “Simulation et calcul intensif, enjeux majeurs de<br />

la compétitivité »<br />

La conception et la simulation numérique<br />

à haute performance jouent un<br />

rôle essentiel pour l'innovation dans<br />

l'ensemble des secteurs de l'industrie<br />

et pour l'amélioration de la compétitivité<br />

des entreprises. Et l'usage de ces<br />

technologies devient aujourd'hui accessible<br />

aux PME grâce notamment à<br />

des offres « SaaS ».<br />

Le Forum Teratec pour sa neuvième<br />

édition de juillet prochain, va mettre<br />

l'accent sur la diversité accrue des<br />

usages de la simulation numérique<br />

et du calcul intensif au sein de nombreuses<br />

filières industrielles et d'entreprises<br />

utilisatrices, notamment les<br />

PME et ETI : Cycle de sessions plénières,<br />

ateliers techniques et applicatifs,<br />

exposition de matériels, logiciels et<br />

services vont illustrer pendant 2 jours<br />

les évolutions les plus récentes en la<br />

matière.<br />

Les sessions plénières du mardi 1er<br />

juillet feront état de l'impact grandissant<br />

du HPC dans de très nombreux<br />

domaines de l'industrie et de la recherche<br />

et son rôle dans les grands<br />

défis scientifiques et technologiques.<br />

Cette journée, qui verra notamment<br />

des présentations faites par les responsables<br />

d'AIRBUS, de la plateforme européenne<br />

ETP4HPC, du projet Square<br />

Kilometre Array (SKA), de UberCloud<br />

HPC Experiment, de DISTENE, sera<br />

marquée par la présence de Monsieur<br />

Arnaud Montebourg, ministre de l'économie,<br />

du redressement productif et<br />

du numérique et sera l'occasion d'une<br />

présentation du Plan Supercalculateurs<br />

qui fait partie des 34 plans de reconquête<br />

de la Nouvelle France Industrielle<br />

annoncé par le gouvernement en<br />

septembre 2013.<br />

Les huit ateliers du mercredi 2 juillet,<br />

orientés "technologies" ou "usage", seront<br />

animés par les principaux acteurs<br />

du marché et des experts reconnus<br />

qui feront le point sur les technologies<br />

émergentes et sur de nouveaux secteurs<br />

d’application du HPC.<br />

Une large part consacrée aux technologies<br />

Les ateliers « technologies » porteront<br />

sur plusieurs problématiques :<br />

Évolutions des applications et des<br />

architectures HPC & Big Data – Influences,<br />

confluences. Eclairage sur<br />

les perspectives et l’état de l’art des architectures<br />

et plateformes matérielles<br />

et logicielles adaptées à l’exploitation<br />

et la valorisation de ces grands calculs<br />

et masses de données complexes.<br />

Conception numérique optimale des<br />

systèmes complexes: état de l'art et<br />

verrous technologiques: Le point sur<br />

les verrous majeurs de la conception<br />

optimisée : verrous principaux et état<br />

de l'art associé des méthodes permettant<br />

de les lever.<br />

Calcul scientifique & Open Source :<br />

pratiques industrielles des logiciels<br />

libres : témoignages d’utilisateurs et<br />

d’offreurs de solutions, pour dresser<br />

un vaste panorama des pratiques de<br />

l’Open Source dans des milieux industriels<br />

comme le spatial, l’aéronautique,<br />

l’énergie, le médical ou encore la micro-électronique.<br />

HPC & Big Data – logiciels et outils :<br />

Etat de l’art et perspectives sur la maîtrise<br />

de la consommation énergétique,<br />

la programmation efficace et l'exécution<br />

optimisée, la résilience et la tolérance<br />

aux pannes.<br />

Les ateliers orientés vers l’usage<br />

Simulation des matériaux: nouveaux<br />

matériaux, usage et tenue en fonction :<br />

De par les nombreux degrés de liberté<br />

que leur description implique, les<br />

matériaux sont très consommateurs<br />

de puissance machine. Dans ce sens,<br />

l'adaptation des codes aux nouvelles<br />

générations de machines constitue un<br />

des défis pour le futur.<br />

Technologies numériques pour le végétal<br />

: Enjeux et problématiques liés<br />

au végétal, outils et méthodes de simulation<br />

de la croissance des plantes<br />

et d’aide à la décision, techniques de<br />

traitement des données d’imagerie et<br />

de grandes applications : semences et<br />

transformations.<br />

HPC et Santé : De la recherche thérapeutique<br />

à la médecine personnalisée<br />

: Le domaine de la santé bénéficie<br />

aussi de la progression des technologies<br />

de modélisation et de calcul.<br />

L’augmentation de la capacité des supercalculateurs<br />

permet aujourd’hui de<br />

modéliser davantage de phénomènes<br />

physico-chimiques et physiologiques,<br />

pour, à terme, aller vers une médecine<br />

de plus en plus personnalisée.<br />

Modélisation et simulation des systèmes<br />

urbains : Comment les outils<br />

logiciels de modélisation et de simulation,<br />

de gouvernance et de management<br />

des systèmes urbains, représentent<br />

une opportunité pour analyser,<br />

simuler et optimiser le fonctionnement<br />

des systèmes urbains vus en tant que<br />

système global, et la prise de décision<br />

éclairée des acteurs de la ville.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 36


<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 37


Forum Teratec<br />

<strong>Essais</strong> et Modelisation<br />

Avis d’expert<br />

La simulation numérique :<br />

un élément incontournable de l’industrie actuelle<br />

Le rôle croissant que joue la simulation numérique depuis de nombreuses années se confirme, au point<br />

de toucher tous les pans de l’industrie. Véritable élément désormais incontournable, la simulation a<br />

su bénéficier des progrès considérables en termes de calcul haute performance (HPC). Elle connaît<br />

néanmoins des limites qu’elle devra franchir pour répondre pleinement aux besoins des industriels, à<br />

commencer par la maîtrise du calcul parallèle.<br />

Comment envisager de nos jours un<br />

monde industriel sans simulation numérique<br />

? Peut-on imaginer revenir à<br />

la planche à dessin et abandonner les<br />

outils de CAO ? Peut-on imaginer que<br />

les pilotes de lignes commencent leur<br />

apprentissage sur des avions réels ?<br />

Peut-on faire des prototypes de produits<br />

pour tester leur robustesse sans<br />

avoir préalablement simulé leur tenue<br />

mécanique ? Va-t-on forer un puits de<br />

pétrole à l’endroit indiqué par une baguette<br />

de sourcier ?<br />

La simulation numérique est tellement<br />

présente dans nos métiers qu’elle est<br />

une évidence. Au même titre que de<br />

piloter un avion ou une Formule 1 depuis<br />

son salon semble à la portée de<br />

tous grâce à sa console de jeu. Dans<br />

la plupart des cas, la question n’est<br />

donc plus : « puis-je le simuler ? » mais<br />

plutôt « Quel effort dois-je faire pour<br />

réaliser ma simulation ? », « Quel est<br />

le niveau de représentativité de ma simulation<br />

? » ou encore « Ma simulation<br />

va-t-elle être réalisée dans un temps<br />

suffisamment court ? »<br />

Les enjeux de la simulation, c’est d’être<br />

capable de prendre en compte simultanément<br />

de plus en plus d’éléments<br />

et de phénomènes, de façon plus précise,<br />

dans des temps de traitement<br />

Cnes – Portage et optimisation de code : maintien en condition opérationnelle des applications<br />

HPC pour la DSI en charge des moyens des calculs mutualisés et du HPC<br />

Airbus – Optimisation et portage : parallélisation des outils pour les simulateurs de vol, prise<br />

en compte du HPC pour les outils aérodynamiques du bureau d’étude<br />

toujours plus courts. La réponse à ces<br />

enjeux passe par une augmentation<br />

exponentielle du nombre d’information<br />

à traiter.<br />

Le HPC (High Performance Computing)<br />

: c’est donner les outils pour<br />

traiter efficacement ces données<br />

de simulation<br />

À titre d’exemple, le volume de données<br />

à traiter pour une simulation est<br />

désormais de l’ordre de plusieurs TeraOctets<br />

(1000 Go), que ce soit pour<br />

des applications de dimensionnement<br />

de champs pétrolifères, de simulation<br />

de réaction nucléaire ou de tenue<br />

structurale d’un avion. Traiter cette<br />

masse de données dans des temps<br />

raisonnables nécessite :<br />

Des infrastructures matérielles adaptées<br />

à la fois pour effectuer les calculs<br />

(serveurs de calcul HPC), pour stocker<br />

les données et faire transiter les donner<br />

entre les processeurs et les espaces<br />

de stockage.<br />

Des infrastructures logicielles pour administrer<br />

les infrastructures matérielles<br />

et optimiser leur utilisation (soumission<br />

des calculs, visualisation à distance,<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 38


Forum Teratec<br />

<strong>Essais</strong> et Modelisation<br />

Sogeti High Tech et le HPC<br />

Dans la course à la simulation numérique, Sogeti High-Tech, grâce d’une<br />

part à son positionnement fort sur la simulation et d’autre part avec son<br />

expérience sur des thématiques HPC pour des acteurs majeurs (Airbus,<br />

CEA, Total, CNES…) possède les compétences pour garantir la pérennité<br />

et l’efficacité du parc applicatif des outils de simulation au regard des<br />

infrastructures HPC existantes. Même si Sogeti High-Tech est clairement<br />

positionnée sur la partie applicative du HPC, elle sait également répondre<br />

globalement aux problématiques de ses clients. Sogeti High Tech peut<br />

en effet s’appuyer sur l’apport du groupe (Sogeti) et des partenaires en<br />

dehors du groupe, en particulier grâce à l’alliance IBM. Sogeti High-Tech<br />

est également membre de l’association Ter@tec dont le but est de promouvoir<br />

l’usage du HPC.<br />

Total – Audit, architecture et maintenance des<br />

outils simulation géoscience : préconisation<br />

et implémentation d’un supervisuer de jobs,<br />

maintenance des codes de calculs<br />

gestion des droits d’utilisation, gestion<br />

des licences, monitoring…)<br />

Des applications de simulation<br />

conçues pour exploiter au mieux les<br />

infrastructures existantes<br />

Ces trois éléments constituent l’écosystème<br />

du HPC qui fournit l’ensemble<br />

des moyens pour une simulation numérique<br />

efficace.<br />

L’efficacité à traiter un problème de<br />

simulation est grandement liée au<br />

nombre d’« opérations à virgule flottante<br />

par seconde » (FLOPS) réalisées<br />

par le calculateur.<br />

Pour fixer quelques ordres de grandeurs<br />

:<br />

En 1964, la barre du mégaFLOPS (106<br />

FLOPS) a été franchie par le superordinateur<br />

américain Control Data 6600.<br />

En 1985, la barre du gigaFLOPS (109<br />

FLOPS) a été franchie par le superordinateur<br />

américain Cray-2.<br />

En 1997, la barre du téraFLOPS (1012<br />

FLOPS) a été franchie par le superordinateur<br />

américain ASCI Red .<br />

En 2008, la barre du pétaFLOPS (1015<br />

FLOPS) a été franchie par le superordinateur<br />

américain Roadrunner.<br />

Le passage à l’exascale est attendu<br />

dans moins d’une décennie, ce qui engendrera<br />

une rupture radicale.<br />

Maitriser les techniques du calcul<br />

parallèle<br />

Initialement, l’augmentation de la puissance<br />

de calcul était obtenue par augmentation<br />

de la fréquence d’horloge<br />

des microprocesseurs. Ce schéma de<br />

progression s’est rapidement heurté<br />

aux limites énergétiques et de dissipation<br />

de chaleur nécessaire (la puissance<br />

nécessaire grandissant comme<br />

le cube de la fréquence). Désormais,<br />

les fréquences commercialisées plafonnent<br />

entre 1 et 5 Ghz. Mais la performance<br />

continue d’augmenter grâce<br />

à l’utilisation simultanée de plusieurs<br />

cœurs de calculs en parallèle. Ainsi,<br />

nous sommes passés d’une performance<br />

individuelle à une performance<br />

collective voire de masse.<br />

Pour traduire ce changement au quotidien,<br />

prenons l’exemple des ordinateurs<br />

individuels. Il y a quelques années,<br />

les fabricants indiquaient avec<br />

fierté la fréquence des processeurs<br />

utilisés sur des stickers. De nos jours,<br />

cette information a disparu et a été<br />

remplacée par le nombre de cœurs<br />

présents (CoreDuo, Core i5…) dans la<br />

machine.<br />

Le changement d’architecture matérielle<br />

a un fort impact sur la façon de<br />

concevoir et de développer les applications<br />

de simulation. L’utilisation<br />

optimale des ressources matérielles<br />

par les logiciels nécessite de maitriser<br />

les techniques du calcul parallèle. De<br />

même que la gestion des personnes<br />

sur un projet de grande taille nécessite<br />

une forte gestion de projet, l’ordonnancement<br />

des calculs sur plusieurs<br />

cœurs nécessite une attention particulière<br />

: transmettre la bonne donnée<br />

au bon moment aux processeurs,<br />

démarrer un calcul quand le résultat<br />

d’un autre est obtenu, … Dans le HPC<br />

comme dans la vie, la parallélisation a<br />

ses limites : « Neuf femmes ne font pas<br />

un enfant en un mois ! ». L’enjeu pour<br />

la simulation est désormais de penser<br />

parallèle dès la conception des codes<br />

de calcul quitte à remettre en cause<br />

certaines méthodes de résolution.<br />

Dans ce contexte où la masse de données<br />

à traiter ne cesse d’augmenter et<br />

où son traitement est de plus en plus<br />

distribué physiquement, l’un des principaux<br />

enjeux est le déplacement de la<br />

donnée : que ce soit vers les processeurs,<br />

vers les espaces de stockage,<br />

vers les serveurs de calcul.<br />

EDF – Audit et architecture : analyse d’architecture de supervision d’une chaîne neutronique,<br />

étude de faisabilité et préconisations<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 39


Forum Teratec<br />

<strong>Essais</strong> et Modelisation<br />

La parole à… une entreprise confirmée<br />

Entretien avec Vincent Chaillou,<br />

directeur-général délégué d’ESI Group<br />

<strong>Essais</strong> & <strong>Simulations</strong><br />

Décrivez-nous les activités d’ESI<br />

Group<br />

ESI Group est un fournisseur de logiciels<br />

et services pour simuler virtuellement<br />

la fabrication, les tests et l’utilisation<br />

de produits existants ou futurs.<br />

Pour bien décrire notre activité, il est<br />

important de comprendre la vision<br />

d’ESI. Celle-ci est différente des autres<br />

éditeurs dans la mesure où l’équipe<br />

fondatrice s’est avant tout intéressée à<br />

la partie « matériaux ». Cette expertise<br />

a émergé au sein d’ESI depuis maintenant<br />

quarante ans.<br />

Qui sont vos clients (leurs secteurs<br />

d'activité) et qu'attendent-ils de<br />

vous ?<br />

Grâce aux développements d’ESI dans<br />

les logiciels de prototypage virtuel, aux<br />

solutions co-créées avec nos clients,<br />

et, parallèlement, à des opérations<br />

successives de croissance externe,<br />

nous avons pu réaliser des enchaînements<br />

de tests virtuels pour nos clients<br />

dans l’automobile avec Volkswagen.<br />

Il s’agit d’une étape importante mais<br />

qui nécessite encore de nombreux<br />

développements car la difficulté ne réside<br />

plus dans les tests virtuels mais<br />

dans le couplage et l’enchaînement de<br />

ces tests ; nécessitant alors des puissances<br />

de calcul gigantesques.<br />

Avant, l’objectif de nos clients était de<br />

réaliser de meilleurs tests. Puis, ils<br />

Historiquement, ESI a été un pionnier<br />

dans le domaine du crash - avec le tout<br />

premier crash test virtuel en 1985 pour<br />

Volkswagen... Puis on a répété ce modèle<br />

dans la sécurité du passager puis<br />

dans les tests sur les procédés de fabrication<br />

en commençant par l’emboutissage,<br />

où l’on vient simuler l’écrasement<br />

de la tôle en fonction de ses propriétés<br />

matérielles et du procédé utilisé. Enfin,<br />

ESI Group a, au fil des années, ajouté<br />

d’autres cordes à son arc en adressant<br />

des marchés supplémentaires tels que<br />

la fonderie et la soudure. Le savoir-faire<br />

et la valeur ajoutée d’ESI résident dans<br />

la combinaison de technologies complexes,<br />

avec notamment l’utilisation de<br />

la réalité virtuelle pour manipuler les<br />

prototypes virtuels dès la conception<br />

des produits.<br />

Modélisation des fluides autour d’une<br />

centrale nucléaire<br />

(et les clients de nos clients !). Ceux-ci<br />

nous demandent aujourd’hui de modéliser<br />

les composants sur lesquels ils<br />

vont réaliser tous leurs essais virtuels<br />

pour assurer la pré-certification.<br />

Pendant longtemps, la demande de<br />

nos clients était émulée – ou freinée ! –<br />

par la puissance des ordinateurs. Petit<br />

à petit, ils sont capables de sortir des<br />

modèles de plus en plus larges, précis<br />

et complets… mais toujours limités<br />

à la puissance disponible. Toutefois,<br />

progressivement, les niveaux de puissance<br />

industrielle et la miniaturisation<br />

des postes de travail ont permis de virtualiser<br />

les process. Le prototypage virtuel<br />

est devenu une réalité depuis environ<br />

cinq ans. Du côté des industriels,<br />

un premier déploiement d’un véhicule<br />

devrait voir le jour à compter de 2015<br />

Exemple de Réalité Virtuelle, logiciel IC.IDO (crédit photo : Renault)<br />

ont souhaité sauter cette étape. Aujourd’hui,<br />

les industriels misent tout sur<br />

le prototypage dans le but d’optimiser<br />

les tests virtuels afin de développer<br />

des produits qui consomment moins<br />

et sont à la fois plus légers et attractifs<br />

etc. Mais la restriction, outre les<br />

puissances disponibles, réside dans<br />

le budget et la possibilité de justifier<br />

un tel investissement. Le ROI se situe<br />

désormais au cœur de toutes les problématiques.<br />

Quand êtes-vous arrivés sur le<br />

Campus et en quoi est-ce un atout<br />

pour vous pour répondre aux demandes<br />

de vos clients ?<br />

En tant que membre fondateur de l’association<br />

Teratec, il était tout naturel<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 40


Forum Teratec<br />

<strong>Essais</strong> et Modelisation<br />

d’être physiquement présent sur le<br />

Campus. Nous nous devions d’en faire<br />

partie et c’est pourquoi, nous avons<br />

commencé par y installer un laboratoire<br />

d’une dizaine de personnes ; ce<br />

nombre devrait d’ailleurs augmenter<br />

en fonction des projets que l’on mènera<br />

à l’avenir.<br />

L’un de nos rôles est d’anticiper les<br />

évolutions en matière de hardware ;<br />

or, les visionnaires présents sur Teratec<br />

nous font bien comprendre que les<br />

besoins de puissances sont infinis. De<br />

15 à 64 puis 128, aujourd’hui nous en<br />

sommes souvent à 10 000 cœurs par<br />

job (c’est-à-dire une tâche de calcul<br />

– NDLR), et nous nous préparons à<br />

franchir dans le futur la marche des<br />

100 000 cœurs par job ! ESI se doit<br />

d’anticiper l’accroissement des capacités<br />

de calcul HPC, et met au point des<br />

logiciels dans le but de répondre aux<br />

attentes futures des industriels.<br />

Autre demande croissante de nos<br />

clients : le calcul d’éléments physiques<br />

en temps réel. Pour vous donner un<br />

ordre d’idées, au cours des dix dernières<br />

années, un calcul qui prenait<br />

seize heures a été réduit à quelques<br />

minutes, ce qui représente un progrès<br />

significatif. Mais parallèlement, les modèles<br />

à traiter sont devenus de plus en<br />

plus gros et complexes… Pour les plus<br />

importants d’entre eux, il arrive encore<br />

que les calculs durent seize heures !<br />

Or aujourd’hui, les industriels veulent<br />

des calculs qui prendraient quelques<br />

millisecondes, de la prise en compte<br />

du prototype à l’expérimentation en<br />

temps réel.<br />

toute une communauté d’acteurs destinés<br />

à travailler ensemble à travers des<br />

plateaux-projets. Cela nous permet<br />

d’une part de disposer de moyens nous<br />

évitant de perdre en taille de modèles<br />

et un gain de temps considérable.<br />

À titre d’exemple, nous avons renouvelé<br />

notre huitième contrat avec Volkswagen<br />

qui souhaitait, pour valider<br />

notre accord, être certain que nous<br />

serions capables le suivre dans ses<br />

perspectives de développement. En<br />

d’autres termes, le constructeur allemand<br />

souhaite à terme passer de 1<br />

000 à 10 000 cœurs par job … ce qui<br />

nous a poussé à démontrer que nos<br />

solutions étaient en mesure de suivre<br />

le nombre et l’évolution de ses machines,<br />

et que la scalabilité ( capacité<br />

d’un logiciel à adapter sa performance<br />

à un changement d’ordre de grandeur<br />

de la montée en charge grâce au<br />

nombre de processeurs – NDLR) de<br />

nos logiciels pourra assurer les calculs<br />

de performance au crash, de sécurité<br />

ou et de confort vibratoire autour d’un<br />

même modèle, permettant ainsi d’entrer<br />

dans des stratégies d’optimisation.<br />

Cette démonstration, nous avons pu la<br />

réaliser ici grâce à la présence d’équipements<br />

de calcul suffisamment puissants<br />

et importants.<br />

Où se place la place la France dans<br />

le domaine du HPC ?<br />

Teratec a replacé la France dans la<br />

course du HPC. Il faut dire qu’il a été<br />

astucieux de la part du CEA de se doter<br />

d’une mission de prestations dans<br />

les domaines à risque puis dans des<br />

applications très variées comme l’automobile,<br />

le ferroviaire et les loisirs.<br />

Ainsi, de grands noms tels qu’Airbus,<br />

Renault ou L’Oréal ont recours au Très<br />

Grand centre de calcul (TGCC) du<br />

CEA, revitalisant le HPC sur le territoire<br />

alors que nous nous étions laissé<br />

devancer ces dernières années. Nous<br />

avons aussi la chance d’avoir Bull, une<br />

société qui a très bien su s’accrocher<br />

au wagon en devenant un chef de file<br />

pour vendre nos systèmes. La France<br />

dispose désormais d’un constructeur<br />

de taille. Enfin, il existe en France de<br />

nombreux chercheurs dont les travaux<br />

peuvent incontestablement mener à<br />

des créations d’entreprises. La route<br />

est donc ouverte.<br />

Outre le HPC, le Big Data prend de<br />

plus en plus d’importance. Par essence,<br />

les métiers du calcul haute-performance<br />

créent immédiatement de<br />

profondes connaissances dans ce domaine,<br />

relançant ainsi par ricochet le<br />

développement de nouvelles technologies<br />

et de progrès comme le cloud.<br />

Cette émulsion que l’on connaît en<br />

France, mais aussi en Espagne et en<br />

Italie notamment, va donc ouvrir de<br />

nouveaux champs d’application. Mais<br />

nous ne devons pas nous endormir sur<br />

ces acquis et poursuivre nos efforts de<br />

réindustrialisation, en nous adressant<br />

tout particulièrement aux PME.<br />

Propos recueillis par Olivier Guillon<br />

En quoi peut-on dire que le Campus<br />

Teratec est un « écosystème » ?<br />

Est-il favorable à votre activité et<br />

dans quelle mesure ?<br />

Oui, la création de Teratec va dans le<br />

sens de la création d’un écosystème<br />

physique et concret (pas virtuel), avec<br />

la présence du CEA qui est un partenaire<br />

historique d’ESI. L’implantation<br />

de Bull est également essentielle, tout<br />

comme Intel qui a rejoint le campus,<br />

nVidia ou encore Genci qui nous permettent<br />

d’accéder à des équipements<br />

hors du commun. Teratec rassemble<br />

Quelques mots sur Vincent Chaillou<br />

Vincent Chaillou, directeur-général délégué d’ESI Group, s’occupe plus<br />

particulièrement de la direction technique, des produits et de l’engineering,<br />

c’est-à-dire de tout ce qui concerne l’édition de logiciels. Ainsi, depuis<br />

une vingtaine d’années, il gère les équipes de R&D et de marketing<br />

produits pour ce qui relève du domaine du prototypage virtuel. Avant d’intégrer<br />

ESI, Vincent Chaillou a acquis une solide expérience dans le CAD-<br />

CAM, en créant notamment la filiale Computervision en France, avant<br />

d’en devenir vice-président aux États-Unis puis en Asie. Son parcours lui<br />

confère donc une expérience à la fois dans le software et le hardware à<br />

travers la création de produits spécifiques.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 41


Forum Teratec<br />

<strong>Essais</strong> et Modelisation<br />

La parole à… une start-up<br />

Entretien avec Laurent Anné,<br />

directeur commercial et co-fondateur de Distene<br />

<strong>Essais</strong> & <strong>Simulations</strong><br />

Laurent Anné, quel est votre parcours<br />

et quand avez-vous créé<br />

Distene ?<br />

Laurent Anné<br />

Après avoir soutenu ma thèse dans<br />

le domaine de l’analyse numérique et<br />

des mathématiques appliquées, j’ai<br />

intégré la société de service Simulog,<br />

alors première start-up de l’Inria<br />

et spécialiste à l’époque des logiciels<br />

de simulation. Puis, avec Mark Loriot,<br />

aujourd’hui président et co-fondateur<br />

de Distene, nous avons démarré une<br />

activité à part au sein de Simulog,<br />

orientée vers le développement de<br />

composants. Puis d’une simple activité,<br />

Distene est devenue un service à<br />

part entière avant d’être une filiale de<br />

Simulog. Lors de la mise en vente de la<br />

société, nous avons tous les deux racheté<br />

la filiale pour en faire une société<br />

officiellement créée en 2004. À ce jour,<br />

Distene compte douze personnes,<br />

dont onze sont présentes sur le Campus<br />

Teratec ; la douzième travaille au<br />

sein d’un I-Lab (laboratoire commun)<br />

créé en partenariat avec l’Inria, The<br />

Meshing Lab.<br />

Quelles sont les activités de Distene<br />

aujourd’hui ?<br />

Les activités de l’entreprise sont de<br />

deux ordres. Le premier concerne le<br />

cœur de métier de Distene, à savoir<br />

la conception et le développement<br />

de composants destinés aux développeurs<br />

de logiciels. Ces composants<br />

logiciels de génération de maillage interviennent<br />

entre la CAO et la phase<br />

de calcul. Distene travaille sur cette<br />

étape intermédiaire mais au lieu de<br />

fournir un logiciel à des utilisateurs finaux,<br />

la société développe des composants<br />

qui servent ensuite à ceux qui<br />

mettent au point ces logiciels de simulation,<br />

à savoir les éditeurs de logiciels<br />

de simulation numérique. Cette activité<br />

de composants logiciels (dont le nom<br />

de la gamme est MeshGems) représente<br />

environ 65% de notre chiffre<br />

d’affaires et s’adresse aux éditeurs de<br />

logiciels présents à travers le monde.<br />

Les 35% restants de notre activité sont<br />

consacrés à la commercialisation en<br />

France et en Europe du sud d’EnSight,<br />

un outil de post-traitement et de visualisation<br />

scientifique ; cette solution<br />

met en image les données obtenues<br />

à partir de résultats de simulation de<br />

manière à les rendre visibles de manière<br />

réaliste (comme, par exemple,<br />

le crash d’un véhicule ou l’écoulement<br />

d’un fluide autour la d’une voiture ou<br />

d’un avion, etc.). L’objectif est, pour les<br />

ingénieurs, de mieux comprendre ce<br />

qui se passe.<br />

Que représente pour vous le Campus<br />

Teratec ?<br />

Nous nous sommes installés à<br />

Bruyère-la-Chapelle dès 2004, lors<br />

de la création de la société Distene<br />

en tant qu’entité à part entière. Teratec<br />

symbolise très concrètement notre<br />

croissance de plus de 150% en huit<br />

ans d’activité, soit près de 20% de<br />

croissance annuelle. Nous occupons<br />

des locaux de près de 300 m2 au sein<br />

du nouveau Campus contre 115m2<br />

seulement dans nos anciens locaux.<br />

Nous tenons à ce titre à remercier la<br />

CCI de l’Essonne qui a beaucoup aidé<br />

dans la création de cette structure et<br />

contribue fortement à son animation.<br />

Même si le Campus Teratec n’a pas fini<br />

de se développer et d’attirer d’autres<br />

entreprises dans les années à venir,<br />

nous collaborons déjà avec des acteurs<br />

significatifs qu’il aurait été difficile<br />

d’approcher si nous nous n’étions<br />

pas installés ici. Nous travaillons par<br />

exemple avec Bull, (qui est différente<br />

du Campus en lui-même ; notamment<br />

tous les membres de l’association Teratec<br />

ne sont pas physiquement présents<br />

sur le Campus Teratec) dans le<br />

cadre du projet FUI baptisé TIMCO, ce<br />

rapprochement ayant eu lieu au travers<br />

de l’association Teratec. Et d’autre<br />

part, nous collaborons avec Bull dans<br />

le cadre de leur projet Xtreme Factory.<br />

Dans ce cas, le fait d’être présent<br />

sur le Campus nous a permis de rencontrer<br />

les ingénieurs en charge de ce<br />

projet et de travailler avec elles. Il en<br />

est de même, dans le sens inverse,<br />

avec la société de service Eagocom;<br />

nous faisons appel à cette entreprise,<br />

présente sur le Campus Teratec, pour<br />

assurer notre maintenance informatique<br />

ce qui nous permet de dégager<br />

un temps précieux pour nos activités<br />

de R&D.<br />

Que vous apporte-t-il ?<br />

Le fait d’être physiquement présents<br />

sur le Campus Teratec nous ouvre<br />

des portes car nous rencontrons directement<br />

les acteurs ; car une collaboration,<br />

c‘est avant tout une histoire<br />

d’hommes et de rencontres. On apprend<br />

à se connaître et à savoir ce que<br />

fait chacun. De là, les idées émergent<br />

et les projets naissent rapidement.<br />

D’autant que notre raison d’être, c’est<br />

l’innovation et la recherche de performance<br />

dans le maillage afin de répondre<br />

aux exigences de clients toujours<br />

plus gourmands en opérations<br />

de calcul et en modèles de simulation ;<br />

et le prochain défi est précisément la<br />

génération HPC (Haute Performance)<br />

de maillages.<br />

Propos recueillis par Olivier Guillon<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 42


Forum Teratec<br />

<strong>Essais</strong> et Modelisation<br />

La parole à… une PME<br />

Entretien avec Dr. Samir Ben Chaabane,<br />

Manager Business Line Simulation Numérique chez Silkan<br />

<strong>Essais</strong> & <strong>Simulations</strong><br />

Présentez-vous ainsi que l'entreprise<br />

et son contexte de création<br />

Samir Ben Chaabane<br />

J’ai rejoint le groupe Silkan en 2012 en<br />

tant que Business Line Manager pour<br />

développer l'activité Simulation Numérique.<br />

Docteur ingénieur diplômé en<br />

modélisation numérique de l'Université<br />

de Technologie de Compiègne, j’ai<br />

occupé durant une vingtaine d’années<br />

plusieurs postes dans l'enseignement<br />

supérieur et la recherche en tant qu’ingénieur<br />

R&D, professeur, directeur<br />

de département, directeur adjoint de<br />

l'école d’ingénieur du Pôle Léonard de<br />

Vinci... qui m’ont permis de mener de<br />

nombreux projets de R&D de grande<br />

envergure en relation avec la simulation<br />

numérique.<br />

Silkan Group est une entreprise innovante<br />

à la pointe des technologies numériques<br />

et un acteur majeur français<br />

dans le domaine de la simulation. Elle<br />

a succédé en 2012 à HPC-Project fondée<br />

en 2007 qui était spécialisée dans<br />

le développement de solutions et de<br />

stratégies pour le Calcul Haute Performance.<br />

L’entreprise emploie quatrevingts<br />

collaborateurs et des implantations<br />

en Ile-de-France : à Meudon où<br />

se trouve le siège social, à Bièvres, et<br />

à Bruyères-Le-Châtel sur le Campus<br />

Teratec, mais aussi en région PACA<br />

(à Aix-en-Provence et à Montpellier).<br />

Enfin, Silkan a ouvert deux filiales aux<br />

États-Unis (Los Altos, Californie) et au<br />

Canada (Montréal).<br />

Quels sont les savoir-faire de l'entreprise<br />

? Que propose Silkan aux<br />

industriels et à quelles de leurs<br />

problématiques répond-elle ?<br />

L’offre du groupe Silkan comprend l’intégration<br />

de systèmes de simulation<br />

technico-opérationnelle, des solutions<br />

de simulation numérique ainsi que<br />

l’intégration de systèmes embarqués<br />

critiques répondant aux exigences<br />

de sureté de fonctionnement. Silkan<br />

adresse ainsi tous les marchés où les<br />

opérations de sureté nécessitent l’analyse<br />

de comportement de systèmes,<br />

le contrôle-commande, la formation et<br />

l’entrainement, tels que les secteurs de<br />

l’aéronautique, de la défense, de l’automobile,<br />

de l’énergie…<br />

Le groupe Silkan dispose de capacités<br />

d'intégration et d'optimisation de solutions<br />

métiers basées sur la simulation<br />

numérique réduisant le temps de développement<br />

des produits innovants ainsi<br />

que leur coût tout en améliorant leur<br />

robustesse. Le groupe dispose également<br />

de capacités de développement<br />

de solutions utilisant des systèmes<br />

embarqués temps réel (hardware et<br />

software) fiables, intégrant les phases<br />

de conception, de modélisation et de<br />

tests. Enfin, l’entreprise est en mesure<br />

de développer des simulateurs d'entrainement<br />

et systèmes de gestion de<br />

crises haute fidélité intégrant la physique<br />

du problème considéré.<br />

À titre d'exemple, on peut citer Builder,<br />

le nouveau produit que nous venons<br />

de lancer sur le marché. Cette suite<br />

logicielle permet de gérer la conception<br />

de pièces mécaniques à travers<br />

la simulation de leur comportement en<br />

service, de leurs procédés de fabrication,<br />

de leur durée de vie... Toutes ces<br />

simulations sont pilotées à travers une<br />

interface conviviale, utilisant des outils<br />

mathématiques d'analyse, de fiabilité<br />

et d'optimisation garantissant leur robustesse<br />

et leur sureté de fonctionnement<br />

et pouvant faire appel au HPC.<br />

Comment a évolué l'entreprise<br />

depuis sa création et quelle place<br />

occupe-t-elle aujourd'hui sur le<br />

marché ?<br />

Le Groupe SILKAN a connu une forte<br />

expansion (interne et externe) de son<br />

activité et de son chiffre d'affaires et<br />

a vu son expertise s'étendre à plusieurs<br />

secteurs comme les systèmes<br />

embarqués temps réel, la simulation<br />

numérique et les simulateurs d'entrainement.<br />

Ainsi, l’entreprise s’est vue mise à<br />

l’honneur en 2013 en recevant le Prix<br />

de Champion du Pôle de Compétitivité<br />

Systematic Paris-Region et en<br />

figurant dans les meilleurs classements<br />

du Technology Fast50 France<br />

(9ème/50) et Technology Fast500<br />

EMEA (46ème/500) qui récompensent<br />

les plus belles progressions de croissance<br />

des entreprises technologiques<br />

françaises.<br />

Quel rôle joue Silkan au sein de Teratec<br />

et quand s'est-il implanté sur<br />

le Campus ?<br />

Le Groupe SILKAN est un membre<br />

actif de Teratec et d’ETP4HPC, plateforme<br />

européenne pour la promotion<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 43


Forum Teratec<br />

<strong>Essais</strong> et Modelisation<br />

du Calcul Haute Performance. Le<br />

HPC étant une brique technologique<br />

à l'origine de la création de l’entreprise<br />

(alors dénommée HPC-Project),<br />

il demeure aujourd'hui le moteur des<br />

activités. La décision de s'installer sur<br />

le Campus Teratec a été prise dès le<br />

lancement de ce programme. SILKAN<br />

s'est installé effectivement sur le campus<br />

depuis février 2013, l’inauguration<br />

des locaux en présence des partenaires<br />

s’est déroulée le 6 novembre<br />

dernier, réunissant plus d’une centaine<br />

de participants.<br />

Que vous apporte le fait d'être sur<br />

le Campus dans votre activité ?<br />

La proximité avec le TGCC et le CEA<br />

DAM, et la présence sur le site de<br />

grandes entreprises et de PME innovantes<br />

du software et du hardware<br />

permettent à SILKAN de mieux développer<br />

ses solutions en relation avec<br />

le HPC et de nouer des relations avec<br />

ces partenaires en simulations complexes,<br />

parallélisassions de codes...<br />

Peut-on parler d'un écosystème ?<br />

Effectivement on peut parler d'écosystème<br />

car ce Campus représente la première<br />

technopole Européenne dédiée<br />

à la simulation et au Calcul hautes<br />

performances et qui regroupe des entreprises<br />

complémentaires impliquées<br />

dans le HPC. Cet écosystème est très<br />

ouvert, il suffit de voir le nombre et la<br />

variété d'entreprises adhérentes à Teratec<br />

et qui ne sont pas présentes sur<br />

le Campus. Tout cela est boosté par la<br />

présence du TGCC du CEA, l’un des<br />

plus gros centres de calcul d’Europe.<br />

Quelle place occupe aujourd'hui<br />

la France dans le domaine du HPC<br />

? EN quoi Teratec joue-t-il un rôle<br />

majeur ?<br />

La France a toujours été bien placée<br />

dans le domaine du HPC. La course<br />

au calculateur le plus puissant fait<br />

rage et implique aujourd'hui, outre les<br />

pays occidentaux à la pointe dans le<br />

domaine (USA, France, Allemagne et<br />

Japon), des pays émergents comme la<br />

Chine, l'Inde, le Brésil et même l'Arabie<br />

Saoudite. Mais la France reste l'un des<br />

leaders incontestables quand à l'usage<br />

du HPC par les entreprises et les laboratoires<br />

de recherche.<br />

On assiste aujourd'hui au développement<br />

de nouvelles technologies<br />

(processeurs, bus et ordinateurs) qui<br />

donnent accès à des puissances de<br />

calcul phénoménales et qui nécessitent<br />

des efforts non négligeables<br />

pour développer les algorithmes et<br />

logiciels appropriés. C’est ce qui était<br />

d’ailleurs détaillé dans l’excellent rapport<br />

réalisé par Gérard Roucairol, président<br />

de Teratec et de l’Académie des<br />

Technologies pour le compte du Commissariat<br />

général aux investissements<br />

et à la Direction générale de la compétitivité,<br />

de l’industrie et des services<br />

(DGCIS), intitulé "La simulation haute<br />

performance au service de la compétitivité<br />

des entreprises". Ce rapport qui<br />

visait à renforcer et étendre l'usage de<br />

la simulation et du HPC en France est<br />

à l'origine du lancement par le Gouvernement<br />

français en octobre 2013 du<br />

programme "Calcul intensif et simulation<br />

numérique" doté d’un budget de<br />

plus 150M€.<br />

La parole à… un laboratoire<br />

Marie-Christine Sawley,<br />

directrice Intel du laboratoire Exascale Computing Research<br />

<strong>Essais</strong> & <strong>Simulations</strong><br />

Présentez-vous en quelques mots<br />

ainsi que le positionnement du laboratoire<br />

Marie-Christine Sawley<br />

J’occupe la fonction de directrice Intel<br />

du laboratoire Exascale Computing<br />

Research, qui est actuellement<br />

en cours d’installation sur le Campus<br />

Teratec. Je suis arrivée chez Intel il y<br />

a trois ans et demi pour prendre en<br />

charge le laboratoire. J’ai soutenu ma<br />

thèse sur la physique des plasmas en<br />

1985 et j’ai continué ma carrière en<br />

pilotant des projets de HPC, à a fois<br />

matériel et applicatifs. J’ai notamment<br />

dirigé le centre national (suisse) de<br />

calcul scientifique.<br />

Mon parcours lié au management de<br />

la recherche et de la technologie a motivé<br />

Intel à m’intégrer pour diriger ce<br />

laboratoire (qui rassemble quatre personnes<br />

du côté d’Intel) aux côtés de<br />

plusieurs partenaires. L’un d’eux est<br />

le laboratoire Parallélisme, réseaux,<br />

systèmes, modélisation (PRiSM) du<br />

Pr. William Jalby qui dépend de l’uni-<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 44


Forum Teratec<br />

<strong>Essais</strong> et Modelisation<br />

versité de Versailles Saint-Quentin-en-<br />

Yvelines (UVSQ) et rassemble le plus<br />

grand nombre de chercheurs avec une<br />

vingtaine de personnes travaillant avec<br />

nous. Le CEA est également partenaire<br />

d’Exascale Computing Research<br />

et travaille sur le développement<br />

d’infrastructures logicielles et sur de<br />

nombreux domaines d’application. Le<br />

Genci, groupe créé en 2006 pour rassembler<br />

les grands acteurs du calcul<br />

intensif (émanation de l’Agence nationale<br />

de la recherche (ANR) – NDLR)<br />

est le quatrième partenaire du laboratoire.<br />

Quel est le rôle de ce laboratoire ?<br />

Exascale a été fondé par les quatre<br />

partenaires évoqués précédemment<br />

il y a bientôt quatre ans. Son rôle est<br />

de mener conjointement des travaux<br />

pour mettre au point des outils et<br />

des méthodes permettant de mieux<br />

comprendre le comportement des applications<br />

sur nos architectures. Le<br />

laboratoire travaille également avec<br />

certaines applications du monde académique<br />

et industriel sur les technologies<br />

d’avenir. Le laboratoire se<br />

concentre sur les aspects logiciels de<br />

l’Exascale, à la fois au développement<br />

d’outils et méthodes pour caractériser<br />

la performance et rendre les applications<br />

plus efficaces, ainsi que sur certaines<br />

applications représentatives du<br />

monde de la simulation. Le laboratoire<br />

héberge des étudiants en master ainsi<br />

que des doctorants sur ces outils et<br />

ces méthodes afin de pouvoir les appliquer<br />

au mieux dans leur carrière par la<br />

suite dans l’industrie.<br />

Dans quel contexte Exascale a-t-il<br />

été créé ?<br />

Pour comprendre les raisons de sa<br />

création, il faut revenir en arrière. Les<br />

gains en puissance de calcul ont été<br />

obtenus sur les vingt dernières années<br />

en utilisant un nombre croissant<br />

de processeurs de plus en plus puissants<br />

(Loi de Moore) ; c’est ainsi que<br />

nous avons passé la barre du Petascale<br />

en 2008, gagnant six ordres de<br />

grandeur en vingt ans Avec l’exascale,<br />

nous allons franchir un nouveau cap<br />

en termes de puissance de calcul et<br />

de complexité des architectures, à un<br />

point tel que ces trois ordres de grandeur<br />

posent des problématiques qui<br />

deviennent aigues. Le premier d’entre<br />

eux est la consommation énergétique :<br />

l’ordinateur au sommet du TOP500 aujourd’hui<br />

consomme aux alentours de<br />

17 mégawatts. On comprend dès lors<br />

que l’on a atteint une limite critique,<br />

fixée par les utilisateurs à 20 MW. Une<br />

autre problématique résidait dans la<br />

question du parallélisme massif ; auparavant,<br />

un superordinateur comprenait<br />

quelques centaines de cœurs de<br />

calcul. Aujourd’hui, c’est autour de 1<br />

million de cœurs qui équipent les plus<br />

grandes machines.<br />

Comment explique-t-on cette<br />

hausse exponentielle des cœurs de<br />

calcul ?<br />

Tout simplement pour des applications<br />

de plus en plus complexes, en particulier<br />

dans l’industrie aéronautique (avec<br />

des simulations non plus au niveau d’un<br />

élément mais de l’appareil complet), le<br />

naval, l’automotive, l’astrophysique ou<br />

encore la science des matériaux ; ce<br />

dernier domaine de recherche a pris<br />

un essor extraordinaire ces quinze<br />

dernières années, avec des capacités<br />

de simulation multi-échelle allant depuis<br />

les atomes à des objets microscopiques.<br />

Il existe un domaine qui tient<br />

le calcul haute performance au cœur<br />

de son métier depuis bien longtemps,<br />

celui de la météorologie. Ce domaine<br />

de recherche bénéficie d’avancées significatives<br />

permettant aux chercheurs<br />

de calculer avec précision la vitesse du<br />

vent, la présence de nuages pouvant<br />

former de la grêle et tomber à tel ou tel<br />

endroit, à un moment bien déterminé.<br />

Cette modélisation permet une plus<br />

grande finesse des données et de les<br />

traiter en temps réel.<br />

Qu’apporte concrètement le laboratoire<br />

Exascale aux industriels ?<br />

Le monde de l’ingénierie (en particulier<br />

pour la conception de moteurs ou<br />

de turbines par exemple) a besoin de<br />

résolution importante et d’une précision<br />

extrême, exigeant dès lors des<br />

maillages de plus en plus fins. Les ingénieurs<br />

doivent en outre intégrer des<br />

phénomènes physiques de plus en<br />

plus complexes, associant les phénomènes<br />

thermiques et l’environnement<br />

de la pièce dans son ensemble. Enfin,<br />

ils sont demandeurs d’outils de simulation<br />

leur permettant de développer à<br />

moindre coût et en des temps réduits<br />

les prototypes nécessaires au développement<br />

de leurs produits.<br />

L’industrie pharmaceutique s’intéresse<br />

aussi de façon croissante à la simulation,<br />

notamment en biologie afin de<br />

mettre au point des molécules complexes.<br />

Celles-ci font ensuite l’objet<br />

d’opérations très fines de ciblage avant<br />

de procéder aux phases de tests in<br />

vitro. Nous travaillons en amont, sur<br />

des développements qui permettent<br />

de tester certains algorithmes ou méthodes<br />

sur nos processeurs actuels et<br />

de se préparer aux futures architectures<br />

qui offriront plus de parallélisme<br />

et d’hétérogénéité.<br />

Qu'est-ce qui a motivé le choix<br />

d'Intel de s'implanter sur le Campus<br />

Teratec ?<br />

Nous sommes toujours en cours d’installation.<br />

Bientôt, plus de vingt-cinq<br />

personnes y travaillent à temps plein.<br />

Nous menons aussi des collaborations<br />

« satellites » dans le cadre notamment<br />

de programmes européens. Nous prévoyons<br />

naturellement de nous impliquer<br />

dans des projets avec les autres<br />

membres de la communauté Teratec<br />

qui doit devenir un creuset d’idées<br />

nouvelles pour faire avancer le calcul<br />

scientifique d’une façon significative<br />

Propos recueillis par Olivier Guillon<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 45


Dossier<br />

L’interview<br />

Interview<br />

« Les essais demeureront incontournables »<br />

Jean-François Imbert, ancien vice-président Engineering d’Airbus et ancien directeur-adjoint d’Intespace,<br />

nous dresse un panorama de l’évolution des essais et de la simulation. Pour lui, l’essor actuel<br />

de la simulation ne remet pas en cause l’existence et l’importance des essais, mais il insiste sur la<br />

nécessité pour ces deux domaines de collaborer plus étroitement.<br />

<strong>Essais</strong> & <strong>Simulations</strong><br />

Quelle place occupe aujourd’hui la<br />

simulation par rapport aux essais ?<br />

Jean-François Imbert<br />

Clairement, la simulation joue aujourd’hui<br />

un rôle croissant. Elle a connu<br />

des évolutions considérables dans ces<br />

dernières décennies, notamment par<br />

rapport à l’époque où elle ne jouait<br />

qu’un rôle de support durant les phases<br />

de qualification et de certification. Aujourd’hui,<br />

elle intervient dans toutes les<br />

phases du cycle de vie notamment en<br />

amont pour optimiser le produit et en<br />

aval, pendant sa vie opérationnelle.<br />

La simulation joue un rôle incontournable<br />

lorsqu’il est impossible de tester<br />

le système en vraie grandeur notamment<br />

pour les scénarios d’accident,<br />

par exemple dans le secteur nucléaire.<br />

Elle joue maintenant un rôle essentiel<br />

dans la quête de performance dans<br />

des secteurs comme l’aéronautique<br />

ou elle est reconnue comme moyen<br />

de conformité à part entière, si elle est<br />

validée les essais. Ainsi, les décisions<br />

industrielles critiques et les démonstrations<br />

de conformité reposent de plus<br />

en plus sur la simulation.<br />

Comment ont évolué les essais ?<br />

Il est important de rappeler qu’il y a plusieurs<br />

types d’essais : les essais liés à<br />

la recherche technologique (R&T), qui<br />

concernent notamment la compréhension<br />

de phénomènes, les essais d’industrialisation<br />

de nouvelles technologies,<br />

les essais de développement, les<br />

essais de certification etc. Pour ces différents<br />

essais, on a pu constater récemment<br />

deux grandes tendances, le<br />

besoin persistant de programmes d’essais<br />

importants compte tenu de l’introduction<br />

massive de nouvelles technologies,<br />

mais aussi un besoin croissant<br />

d’essais de validation induit par le rôle<br />

croissant de la simulation. Ainsi les essais<br />

« physiques » qui constituaient la<br />

part essentielle des démonstrations de<br />

conformité changent progressivement<br />

de finalité et deviennent des référents<br />

de validation des calculs.<br />

Qu’en est-il d’un point de vue de la<br />

certification ?<br />

La certification, c’est la démonstration<br />

formelle de la conformité aux exigences<br />

réglementaires. Traditionnellement,<br />

les essais sont reconnus comme<br />

un moyen de conformité privilégié.<br />

Mais maintenant, c’est aussi le cas de<br />

la simulation… si elle est validée par<br />

les essais.<br />

La certification des produits industriels<br />

complexes a toujours reposé sur l’approche<br />

pyramidale. Elle consiste à<br />

décomposer le produit considéré en<br />

entités de complexité décroissante<br />

depuis le niveau des essais d’ensemble<br />

puis, en descendant, par les<br />

sous-ensembles …, jusqu’aux essais<br />

élémentaires sur éprouvette à la base<br />

de la pyramide. Prenons l’exemple de<br />

la certification des structures aéronautiques<br />

; jusqu’aux années 90, on a utilisé<br />

une approche pyramidale essentiellement<br />

basée sur les essais ; puis<br />

cette pyramide des démonstrations de<br />

conformité a progressivement évolué<br />

en une pyramide simulation/essais.<br />

Par ailleurs, la construction d’une pyramide<br />

optimale est un véritable défi ;<br />

il s’agit de planifier à chaque niveau,<br />

le dosage optimal « essais et simulation<br />

». Très schématiquement on assiste<br />

à une rationalisation des essais<br />

dans la partie haute de la pyramide<br />

(essais d’ensemble, composants principaux<br />

…), tout en constatant une<br />

demande croissante d’essais de validation<br />

ou calibration des modèles, et<br />

de caractérisation de variabilité dans<br />

la partie basse (coupons, jonctions,<br />

détails …).<br />

Quels rapports existe-t-il aujourd’hui<br />

entre essais et simulation<br />

et quelles tendances futures<br />

voyez-vous se dessiner ?<br />

Avec le rôle accru de la simulation, la<br />

demande en essais de validation de<br />

modèles va s’amplifier. Or ces essais<br />

sont généralement difficiles à cause<br />

de difficultés techniques et organisationnelles.<br />

Ainsi, leur réussite repose<br />

toujours sur une synergie renforcée<br />

entre les essais et la simulation, une<br />

vieille préoccupation toujours difficile<br />

car les départements calculs et essais<br />

ont toujours du mal à travailler étroi-<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 46


Dossier<br />

L’interview<br />

tement ensemble. Cette étroite collaboration,<br />

au-delà de la simple relation<br />

client-fournisseur, doit être effective<br />

à chaque étape du processus, établissement<br />

des spécifications d’essai,<br />

conception et la simulation de l’essai,<br />

réalisation de l’essai… A noter également<br />

l’intérêt particulier pour « l’essayeur<br />

», de la simulation avant essai<br />

qui permet de valider la conception de<br />

l’essai, notamment sa configuration,<br />

ses conditions, ainsi que son instrumentation,<br />

par rapport aux exigences<br />

de validation.<br />

En quoi la simulation devrait-elle<br />

prendre encore davantage de<br />

place ?<br />

Compte tenu des capacités de calcul<br />

accrues, la simulation va encore progresser<br />

notamment dans les domaines<br />

suivants, optimisation multidisciplinaire<br />

(MDO), une meilleure intégration au<br />

PLM (Product Life Cycle Management<br />

ou management du produit durant son<br />

cycle de vie) , simulation multi-physique,<br />

et simulation réaliste (ou « haute<br />

fidélité »)… Ainsi, dès aujourd’hui en<br />

aéronautique, on utilise des modèles<br />

de simulation réaliste avec plus de 50<br />

millions de degrés de liberté pour maitriser<br />

les risques industriels de l’essai<br />

statique au niveau de l’avion complet.<br />

La réussite de l’implantation industrielle<br />

de ces nouvelles capacités de simulation<br />

reposera sur un renforcement<br />

des processus de V&V (Vérification et<br />

Validation) propres à la simulation. En<br />

effet l’objectif n’est pas seulement de<br />

démontrer que l’on est capable de reproduire<br />

avec une certaine précision<br />

des résultats d’essais physiques, mais<br />

que les modèles ont une réelle capacité<br />

prédictive pour un plus large domaine<br />

d’utilisation et que nous avons<br />

donc une véritable capacité «d’essais<br />

virtuels ». Ainsi, il est devenu essentiel<br />

de quantifier les incertitudes des deux<br />

cotés (simulation et essais) et leur<br />

propagation grâce aux approches probabilistes.<br />

Notons que ces méthodologies<br />

sont couramment pratiquées dans<br />

le nucléaire et s’étendent aujourd’hui<br />

aux autres secteurs.<br />

Et du côté des essais ?<br />

La perception des différents acteurs<br />

industriels vis-à-vis des essais a sensiblement<br />

évolué ces dernières années.<br />

L’attitude traditionnelle de certains<br />

responsables techniques ou de programme,<br />

exigeant systématiquement<br />

des essais physiques pour pouvoir<br />

prendre des décisions importantes, et<br />

n’accordant que peu de crédit à la simulation,<br />

semble faire place à une perception<br />

apparemment opposée : « la<br />

simulation permet la prise de décision<br />

plus tôt dans le programme et permet<br />

de rationaliser les essais physiques<br />

et donc de réduire couts et cycles de<br />

développement ». Certains extrapolent<br />

cette dernière opinion en prévoyant la<br />

disparition des essais physiques à plus<br />

ou moins brève échéance en pariant<br />

sur la virtualisation totale des processus<br />

industriels. Inutile de préciser que<br />

je ne suis pas de cet avis ; les essais<br />

ont encore de beaux jours devant eux,<br />

mais ils doivent s’inscrire dans une<br />

évolution des processus industriels,<br />

avec notamment, des essais de certification<br />

rationalisés et une synergie<br />

réussie avec les simulations.<br />

Quels sont les défis à relever ?<br />

Les fortes exigences de compétitivité<br />

industrielle induisent généralement l’introduction<br />

massive de nouvelles technologies.<br />

Je pense à titre d’exemple au<br />

cas des aérostructures et à l’utilisation<br />

croissante des matériaux composites.<br />

Ce recours à l’innovation conduit à des<br />

essais spécifiques et plus complexes<br />

dont beaucoup nécessitent une collaboration<br />

étroite avec la simulation. Un<br />

défi majeur du futur pour les essais est<br />

donc celui de la maitrise des processus<br />

collaboratifs entre les services essais<br />

et simulation, rendantD’autre part,<br />

les incertitudes encore persistantes<br />

dans les opérations de simulation numérique<br />

nécessitent l’utilisation de<br />

nombreuses techniques de mesure. Il<br />

est important de bien évaluer ces incertitudes,<br />

du capteur au traitement du<br />

indispensable la mise en place d’ outils<br />

collaboratifs efficaces, qui ne sont pas<br />

encore entrés dans la pratique courante.<br />

Je citerai comme exemple de<br />

bonne pratique, le processus MyTest<br />

d’Airbus, récemment utilisé pour les<br />

essais structuraux et basé sur le progiciel<br />

Dynaworks d’Intespace. Il y a un<br />

autre défi que je souhaite souligner ici,<br />

celui de la maitrise de la quantification<br />

des incertitudes en essai, d’une part<br />

les incertitudes liées au moyen d’essai<br />

et à son pilotage, d’autre part, les incertitudes<br />

de la chaine de mesure, du<br />

capteur aux processus de traitement<br />

du signal qu’il est primordial de bien<br />

évaluer pour pouvoir établir une corrélation<br />

avec les résultats de simulation.<br />

Et concernant les évolutions futures<br />

?<br />

La vision 2050 pour l’Aviation (« Flightpath<br />

2050 Europe’s Vision for Aviation<br />

») du Comité européen ACARE<br />

(Advisory Council for Aviation Research<br />

and Innovation in Europe),<br />

prévoit une implantation accrue et<br />

massive de la virtualisation donc de<br />

la simulation numérique, et tout en<br />

poursuivant l’amélioration de la sécurité<br />

aérienne, l’avènement de la certification<br />

virtuelle, pouvant aller dans le<br />

futur jusqu’à la suppression partielle de<br />

certains essais de certification. Cette<br />

vision confirme bien les tendances<br />

que j’ai décrites. Les essais sont donc<br />

amenés à poursuivre leur évolution,<br />

tout en continuant à jouer un rôle essentiel.<br />

Il faut pour cela réussir le défi<br />

de la synergie avec la simulation.<br />

Propos recueillis par Olivier Guillon<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 47


Dossier<br />

<strong>Essais</strong> et Modelisation<br />

Partenariat<br />

Airbus, DGA TA et Intespace,<br />

ensemble pour relever les défis de l’A350<br />

Un essai statique d’ensemble, situé au sommet de la pyramide des essais de certification d’un avion,<br />

est une aventure humaine et industrielle. De par leurs tailles et le dimensionnement des équipes qui<br />

les conçoivent et les exploitent, ce sont des installations hors norme dans le monde des essais structuraux.<br />

Pour répondre au challenge du programme A350, DGA TA et Intespace se sont associés pour<br />

proposer une offre d’essai clé en main à Airbus.<br />

Dès 2009, une organisation en plateau<br />

sur le site Airbus de Lagardère a été<br />

mise en place entre Airbus, DGA TA et<br />

Intespace. Cette organisation a permis<br />

une meilleure réactivité en intégrant<br />

les personnels des trois entités dans<br />

une seule équipe.<br />

Durant les deux années de conception,<br />

la définition de l’installation d’essai est<br />

devenue mature en même temps que<br />

le design de l’avion, ce qui n’est pas<br />

sans poser des difficultés au niveau<br />

des interfaces, et c’est grâce à un travail<br />

conjoint entre les équipes des trois<br />

entités que les jalons ont pu être passés<br />

et l’installation a pu être livrée en<br />

temps et heure.<br />

L’autre challenge de la phase de<br />

conception a consisté en la définition<br />

d’une installation d’essai permettant<br />

de réduire les durées de reconfiguration<br />

de l’installation entre chaque cas<br />

d’essais. Ainsi, la capacité des vérins<br />

en efforts et en déplacement permettait<br />

de ne pas avoir de changement à<br />

effectuer en cours de campagne. De<br />

même, des systèmes de débrochage<br />

des lignes d’efforts ont été développés<br />

pour faciliter les tâches de reconfiguration<br />

de l’installation entre les cas<br />

d’essais. Pour finir, les accès au spécimen<br />

ont été optimisés pour réduire les<br />

temps d’inspections et d’instrumentations,<br />

éléments dimensionnant sur une<br />

campagne d’essai statique full scale.<br />

Le portique de l’A380 a été adapté pour<br />

permettre un chargement homogène<br />

et conforme aux déformées attendues.<br />

Les cheminements des efforts étant différents<br />

entre le chargement de l’A380<br />

et de l’A350, des renforcements locaux<br />

ont été mis en œuvres sur le portique.<br />

De même, le génie civil a été modifié<br />

pour permettre les reprises d’efforts<br />

par la chape du bâtiment. Les équipes<br />

de différents intervenants ont travaillée<br />

en 2x8 et six jours sur sept pour arriver<br />

à tenir le challenge du planning.<br />

Pour tenir le challenge du planning<br />

dans les phases d’intégration et d’exploitation,<br />

Intespace a également mis<br />

en œuvre des techniques de management<br />

visuel basés sur la méthode<br />

Obeya, issue des principes du lean<br />

manufacturing de Toyota.<br />

Des réunions courtes autour d’un support<br />

visuel réunissant toutes les entités<br />

œuvrant sur le projet ont permis une<br />

amélioration de la communication et<br />

un gain significatif dans la prise de<br />

décision. Ces réunions participatives<br />

sont animées à tour de rôle par les<br />

membres des équipes, elles adressent<br />

les points dur du projet de façon systématique<br />

et permet de passer les jalons<br />

projet.<br />

L’utilisation du Logiciel MyTest, développé<br />

par Intespace et basé sur le logiciel<br />

Dynaworks, a permis également<br />

un gain de temps significatif dans la<br />

campagne d’essai.<br />

D’une part grâce au module instrumentation<br />

qui permet aux différents<br />

concepteurs de faire leurs demandes<br />

d’installation de jauges par le biais<br />

d’une interface basée sur la maquette<br />

virtuelle du spécimen.<br />

D’autre part grâce au module monitoring<br />

qui permet de configurer les pages<br />

de visualisation de façon intuitive et qui<br />

facilite la superposition des prévisions<br />

issues des calculs aux mesures en<br />

temps réel sur le spécimen.<br />

Ces résultats ont été reconnus par le<br />

management d’Airbus qui a gratifié les<br />

équipes d’un Award pour la significative<br />

compression du planning et d’un<br />

second pour la mise en œuvre du logiciel<br />

MyTest qui ont permis à l’A350<br />

d’effectuer son premier vol le 14 juin<br />

2013, quelques jour avant le salon du<br />

Bourget.<br />

Laurent Ferré, chef de projet (Intespace)<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 48


Dossier<br />

<strong>Essais</strong> et Modelisation<br />

Cas d’application<br />

Prédiction et correction des distorsions<br />

géométriques issues de la fabrication<br />

de pièces composites hautes performances<br />

pour l’industrie automobile<br />

Introduction<br />

La prise de conscience de l’impact<br />

environnemental, les régulations,<br />

la faible consommation d’essence<br />

comme argument de vente et le besoin<br />

d’une autonomie croissante<br />

des véhicules électriques dirigent<br />

les constructeurs automobiles vers<br />

des matériaux permettant un allégement<br />

des véhicules. Dans ce cadre,<br />

l’utilisation accrue des matériaux<br />

composites pour des composants<br />

structuraux à hautes contraintes mécaniques<br />

en remplacement de pièces<br />

métalliques représente aujourd’hui<br />

un réel challenge.<br />

Le premier critère à atteindre lors<br />

de la transition d’un matériau métallique<br />

vers un matériau composite<br />

pour des composants structuraux est<br />

la non-régression du comportement<br />

mécanique sous chargement statique<br />

ou dynamique.<br />

Or, le comportement mécanique<br />

d’une pièce composite va certes dépendre<br />

de sa conception (choix des<br />

matériaux, séquence d’empilement,<br />

taille des plis, etc.) mais également de<br />

Mots clefs<br />

Chaine de simulation de fabrication<br />

des matériaux composites,<br />

distorsions géométriques,<br />

conception Produit/<br />

Procédé<br />

Résumé<br />

La validité d’approches numériques pour l’optimisation de manière fiable<br />

et rapide de procédés de fabrication tel l’estampage de tissus secs ou<br />

encore pour la conception d’une stratégie d’injection ou d’infusion de résine<br />

dans une préforme est aujourd’hui largement démontrée. Les outils<br />

d’analyse numérique permettent également la prédiction en amont de la<br />

phase de développement de défauts tels des plissements ou de la délamination<br />

survenant lors du thermoformage de pré-imprégnés à matrice<br />

thermoplastique ou thermodurcissable.<br />

L’un des principaux défis des concepteurs et fabricants de pièces composites<br />

est aujourd’hui de garantir la conformité du produit final aux tolérances<br />

géométriques imposées par le cahier des charges et minimisant la<br />

génération de contraintes lors de l’assemblage.<br />

Ce papier explique les différentes approches numériques pour la prédiction<br />

de contraintes résiduelles et des distorsions résultant du procédé de<br />

fabrication pour des pièces composites à fibres continues et matrice thermodurcissable.<br />

Ce papier vise également à démontrer l’importance de<br />

l’intégration de ces prédictions de distorsions dans une chaine numérique<br />

de fabrication complète.<br />

son procédé de fabrication. La pièce<br />

fabriquée, contrairement à la pièce<br />

telle que conçue, contiendra quoiqu’il<br />

en soit des imperfections telles que<br />

des micros porosités, du cisaillement<br />

dans les fibres, des contraintes résiduelles,<br />

des variations d’épaisseur,<br />

etc. Il se trouve que ces légers défauts<br />

locaux peuvent fortement impacter<br />

le comportement en service<br />

du produit fini. L’importance de cette<br />

interdépendance entre la conception<br />

produit et la conception du procédé<br />

de fabrication a déjà clairement été<br />

identifiée par l’industrie automobile<br />

avec l’utilisation croissante de métaux<br />

avancés (HLE, Aluminium) l’introduction<br />

des matériaux composites<br />

pour des applications hautes performances<br />

consolide ce besoin pour<br />

une approche de conception produit/<br />

procédé.<br />

Ce papier se concentre sur un défaut<br />

spécifique qui est la distorsion<br />

géométrique observée en fin de fabrication.<br />

Le non-respect des tolérances<br />

géométriques résulte en des<br />

contraintes supplémentaires générées<br />

lors de la phase d’assemblage,<br />

qui impacteront par la suite les performances<br />

du produit fini. Il est par<br />

conséquent critique de minimiser ces<br />

distorsions. Une approche numérique<br />

permettant la prévention de ces<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 49


Dossier<br />

Simulation<br />

défauts en amont de la phase de développement<br />

est ici présentée.<br />

Procédés de fabrication de pièces<br />

composites adaptés à une production<br />

de masse<br />

Les critères de performances recherchés<br />

pour des pièces structurelles<br />

imposent dans la majorité des cas<br />

l’utilisation de matériaux composites<br />

à fibres continues pour lesquels le<br />

savoir-faire et l’expérience en matière<br />

de conception et de fabrication<br />

proviennent essentiellement de l’industrie<br />

aéronautique. Cependant, le<br />

transfert de technologie d’une industrie<br />

à l’autre, soit de l’aéronautique à<br />

l’automobile n’est pas si simple. En<br />

effet, des contraintes spécifiques à<br />

l’industrie automobile telles les temps<br />

de cycle ou la nécessité d’une automatisation<br />

complète de la fabrication<br />

s’ajoutent ici. D’autre part, le coût du<br />

produit fini qui est directement lié aux<br />

coûts des matériaux et de production,<br />

impacte directement le prix de vente<br />

du véhicule et est donc de la plus<br />

haute importance. Enfin, pour améliorer<br />

le cycle de vie des véhicules<br />

et pour se conformer aux récentes<br />

régulations, les paramètres de recyclages<br />

ne peuvent être négligés.<br />

Pour résumer, l’utilisation des matériaux<br />

composites pour des applications<br />

structurelles dans la production<br />

de masse automobile est sujette aux<br />

contraintes suivantes :<br />

• Temps de cycle de production<br />

• Automatisation du procédé<br />

• Coût du produit fini<br />

• Recyclage<br />

• Performances (non régression permises<br />

en comparaison aux métaux)<br />

La nécessité d’une automatisation<br />

du procédé de fabrication et les<br />

contraintes de temps de cycle (plusieurs<br />

milliers de pièces par jours)<br />

éliminent certains procédés standard<br />

utilisés dans l’aéronautique telle la<br />

dépose manuelle de tissus secs ou<br />

pré-imprégnés, la dépose de bande,<br />

l’enroulement filamentaire, etc.<br />

D’autres procédés dédiés aux fibres<br />

non-continues (fibres longues ou<br />

courtes) tels le SMC (Sheet Moulding<br />

Compound, le BMC (Bulk Moulding<br />

Compound), le GMT (Glass fiber Mat<br />

reinforced Thermoplastics) et le LFT<br />

(Long Fiber reinforced Thermoplastics)<br />

répondent quant à eux aux<br />

contraintes de temps de cycle et sont<br />

d’ailleurs déjà largement utilisés dans<br />

l’automobile mais ils ne répondent<br />

Image 1 : Chaine de fabrication pour<br />

pré-imprégnés thermoplastiques<br />

pas, de par la nature des fibres<br />

(non-continues), aux comportements<br />

mécaniques requis pour des pièces<br />

structurelles. Enfin, les pré-imprégnés<br />

et en particulier ceux à matrice<br />

Image 2 : Chaine de fabrication tissu<br />

sec / matrice thermodurcissable<br />

thermodurcissable sont relativement<br />

chers avec des contraintes de stockage<br />

couteuses et des durées de vie<br />

courtes et par conséquent non adaptés<br />

à l’industrie automobile.<br />

Pour ces raisons, il s’opère une sélection<br />

naturelle des procédés de<br />

fabrication adaptés à la production<br />

de masse de pièces structurelles automobile.<br />

Les deux principaux procédés<br />

sont les suivants :<br />

• Thermoformage de pré-imprégnés<br />

thermoplastiques (le matériau reste<br />

cher mais offre des qualités de recyclage<br />

non négligeables et ne nécessite<br />

pas de précaution de stockage<br />

coûteuses). La chaine de fabrication<br />

associée est représentée dans<br />

l’image 1.<br />

Préformage automatisé de tissu sec<br />

(estampage) suivi d’une injection de<br />

résine dans un moule fermé (RTM:<br />

Resin Transfer Molding). La chaine<br />

de fabrication associée est représentée<br />

dans l’image 2.<br />

Les deux procédés de fabrication<br />

représentés ci-dessus génèrent des<br />

contraintes dans la pièce qui résultent<br />

en sa déformation ou distorsion<br />

géométrique lors du démoulage.<br />

Afin d’obtenir la forme recherchée,<br />

soit une pièce dans les tolérances<br />

imposées par le cahier des charges,<br />

la géométrie de l’outil doit dans la plupart<br />

des cas être compensée. Il s’agit<br />

ici de générer un outil « faux » pour<br />

une bonne pièce finale.<br />

Pour des pièces simples (simples<br />

en terme de complexité de leur géométrie<br />

et/ou d’empilement), les distorsions<br />

géométriques peuvent être<br />

minimisées en respectant certaines<br />

recommandations concernant le procédé<br />

de fabrication et les paramètres<br />

influant et en suivant des règles de<br />

conception provenant d’approches<br />

empiriques ou encore basées sur l’expérience.<br />

Cependant, cette approche<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 50


Dossier<br />

Simulation<br />

se révèle très souvent insuffisante<br />

pour des pièces plus complexes et<br />

malgré le respect de certaines règles<br />

établies dans l’entreprise, des distorsions<br />

géométriques hors tolérances<br />

sont observées après démoulage.<br />

Dans ce cas de figure, très fréquent<br />

dans l’industrie, l’obtention d’une<br />

pièce dans les tolérances géométriques<br />

requises et respectant les<br />

critères de qualités imposés passe<br />

par de nombreux essais expérimentaux,<br />

visant à mesurer l’impact des<br />

différents paramètres du procédé de<br />

fabrication, et par plusieurs itérations<br />

de compensation d’outil. Ces essais<br />

sont en général très coûteux et les<br />

délais de production en résultent<br />

conséquents.<br />

La réalisation de ces essais à travers<br />

des outils de simulation numériques<br />

peut donc représenter un gain de<br />

temps et une économie financière<br />

très importante. D’autre part la simulation<br />

permet une multiplication des<br />

essais dans des temps très courts,<br />

ce qui ne serait pas réalisable expérimentalement.<br />

Cette multiplication<br />

des essais « virtuels » permet une<br />

meilleure compréhension des paramètres<br />

influant les distorsions géométriques<br />

et vise à obtenir la solution<br />

optimale à ces défauts.<br />

Cependant, l’adoption d’outils numériques<br />

par les industriels pour la<br />

prédiction et la correction des distorsions<br />

géométriques des pièces<br />

composites ne sont possibles que<br />

si une confiance en les résultats des<br />

outils de simulation est établie. Un<br />

second critère d’acceptation de ces<br />

outils est leur facilité d’utilisation qui<br />

ne doit pas rendre la tâche des ingénieurs<br />

plus compliquée. Alors que<br />

l’analyse par éléments finis (FEA)<br />

est déjà complétement adoptée par<br />

les industriels pour la résolution des<br />

problèmes de retours élastiques de<br />

pièces métalliques, l’adoption (soit le<br />

remplacement quasi-total des essais<br />

physiques par la simulation comme<br />

ce que l’on peut observer pour les<br />

métaux) des outils existants pour les<br />

pièces composites par les industriels<br />

n’est aujourd’hui pas atteinte.<br />

Cette observation a conduit ESI<br />

Group, éditeur de logiciel spécialisé<br />

dans la physique des matériaux et<br />

expert dans la simulation des procédés<br />

de fabrication des matériaux<br />

composites à fibres continues et à<br />

matrice thermoplastique ou thermodurcissable,<br />

à travailler lors des<br />

quatre dernières années sur différents<br />

projets R&D se focalisant sur<br />

les phénomènes physiques générant<br />

la distorsion des pièces composites<br />

à matrices thermodurcissables. Une<br />

douzaine de projets industriels réalisés<br />

lors de ces deux dernières années<br />

ont permis de valider l’approche<br />

numérique développée et ont conduit<br />

à l’industrialisation de cette approche<br />

dans une solution commerciale, nommée<br />

PAM-DISTORTION, qui vient<br />

compléter la chaine numérique de<br />

fabrication existante (PAM-FORM et<br />

PAM-RTM).<br />

Distorsions géométriques des<br />

pièces composites à matrice thermodurcissable<br />

Ce chapitre se focalise sur la chaine<br />

de fabrication représentée dans<br />

l’image 2 dans laquelle un empilement<br />

de plis de tissus secs est placé<br />

entre des outils de formage afin d’obtenir<br />

la préforme qui est elle-même<br />

ensuite placée dans un moule RTM<br />

pour que la résine thermodurcissable<br />

y soit injectée et cuite (cuisson pouvant<br />

démarrer pendant l’injection) ;<br />

enfin, la pièce est démoulée.<br />

Les déformations géométriques observées<br />

sur le produit fini sont une<br />

conséquence des contraintes générées<br />

lors de la fabrication de la pièce.<br />

Ces contraintes, pour leur majeure<br />

partie, proviennent de la phase de<br />

cuisson durant laquelle la résine<br />

thermodurcissable passe de l’état liquide<br />

à l’état caoutchouteux puis de<br />

l’état caoutchouteux à l’état solide. La<br />

pièce non cuite est portée à une température<br />

dite de cuisson pour ensuite<br />

être refroidie à une température ambiante.<br />

Lors de ce cycle, deux types<br />

de déformations affectant directement<br />

les distorsions géométriques<br />

sont observés :<br />

• Les déformations thermiques dues<br />

aux changements de température<br />

de la résine thermodurcissable et du<br />

renfort. Ces déformations sont fonction<br />

de l’état de la résine : l’expansion<br />

thermique de la résine dans l’état<br />

Image 3 : Évolution des propriétés de la<br />

résine lors d’un cycle simple de cuisson<br />

caoutchouteux est très différente de<br />

celle dans l’état vitreux.<br />

• Le rétreint chimique lié au changement<br />

d’état de la résine thermodurcissable<br />

de l’état liquide à l’état<br />

vitreux (solide).<br />

Le relâchement, durant le démoulage,<br />

des contraintes générées lors<br />

de la cuisson résulte en une défor-<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 51


Dossier<br />

Simulation<br />

mation géométrique (distorsion) du<br />

produit final.<br />

Un cycle simple de cuisson et des<br />

phénomènes physiques observés<br />

(transformation de phase, évolution<br />

du degré de cuisson et de la température)<br />

sont résumés dans l’image 3.<br />

La base d’une prédiction précise des<br />

distorsions est évidemment une prédiction<br />

précise des contraintes. Or,<br />

la précision dans la prédiction des<br />

contraintes ne peut être atteinte que<br />

si l’ensemble des phénomènes physiques<br />

impliqués est considéré.<br />

La plupart des logiciels disponibles<br />

sur le marché négligent le changement<br />

de phase se produisant lors de<br />

la cuisson ; l’évolution des propriétés<br />

physiques de la résine lors de<br />

la cuisson et donc de ses changements<br />

d’états n’est donc pas prise en<br />

compte.<br />

Cette première approche n’est pas<br />

inutile. Elle peut en effet donner une<br />

première estimation des distorsions.<br />

Cependant, elle peut également<br />

conduire à la conclusion abusive que<br />

les outils de simulation, de manière<br />

générale, ne peuvent correctement<br />

prédire les déformations finales de la<br />

pièce.<br />

La seconde approche telle que intégrée<br />

par ESI dans PAM-DISTOR-<br />

TION vise à considérer l’ensemble<br />

des phénomènes physiques impliqués<br />

lors de la cuisson tout en permettant<br />

également une approche<br />

simplifiée (telle que décrite précédemment).<br />

La contrepartie de cette seconde approche<br />

est la nécessité des propriétés<br />

matériaux de la résine thermodurcissable<br />

dans l’état caoutchouteux<br />

ainsi que dans l’état vitreux. Alors que<br />

les propriétés dans l’état vitreux sont<br />

généralement connues, l’obtention<br />

des données dans l’état caoutchouteux<br />

peut être plus compliquée : ces<br />

données peuvent soit être estimées à<br />

partir des données dans l’état vitreux<br />

ou soit mesurées à travers des essais<br />

matériaux.<br />

Les propriétés matériaux étant une<br />

donnée de base de la simulation et<br />

les standards manquant pour certaines<br />

caractéristiques (comme par<br />

exemple le coefficient de rétreint<br />

chimique), il est par conséquent important<br />

d’adopter une approche pas<br />

à pas pour une utilisation efficace des<br />

outils de simulation sur des pièces industrielles.<br />

La première étape consiste donc à<br />

valider les propriétés matériaux utilisées<br />

dans la modélisation : un calibrage<br />

de ces données est réalisé<br />

sur des géométries simples par comparaison<br />

des résultats d’essais avec<br />

la simulation. Une fois cette première<br />

étape effectuée, tous les phénomènes<br />

physiques étant considérés<br />

dans l’outil de simulation, les pièces<br />

industrielles peuvent être analysées<br />

avec confiance.<br />

Simulation des distorsions géométriques<br />

Image 4 : Contour de température issu<br />

de la simulation de cuisson et visualisé sur<br />

une section du panneau de fuselage<br />

Image 5 : Historique de température sur un<br />

élément du modèle pendant la cuisson avec<br />

un pic dû à la réaction exotherme. Courbe<br />

verte : température imposée à la surface<br />

de la pièce. Courbe rouge : Température<br />

calculée dans le plan milieu de la pièce<br />

Image 6 : Déplacement de chacun des<br />

nœuds du panneau de fuselage calculé par<br />

PAM-DISTORTION à l’issue de la cuisson<br />

Ce chapitre décrit les trois principales<br />

étapes dans la simulation des distorsions<br />

géométriques d’une pièce<br />

composite à matrice thermodurcissable.<br />

Quel que soit le logiciel utilisé<br />

(si on considère que celui-ci prend en<br />

compte l’ensemble des phénomènes<br />

physiques impliqués – voir description<br />

de la seconde approche), les<br />

trois étapes suivantes sont respectées<br />

:<br />

• Création d’un maillage solide de la<br />

pièce;<br />

• Simulation du procédé de cuisson<br />

pour obtenir l’évolution au cours du<br />

temps de la température et du degré<br />

de cuisson en tous points de la<br />

pièce ;<br />

• Simulation des distorsions à partir<br />

des historiques de température et<br />

de degré de cuisson calculés dans<br />

l’étape précédente.<br />

La création du maillage est une étape<br />

critique et aussi la plus coûteuse en<br />

temps.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 52


Dossier<br />

Simulation<br />

Image 7 : Déplacement de chacun des<br />

nœuds du panneau de fuselage calculé par<br />

PAM-DISTORTION à l’issue de la cuisson<br />

et visualisé sur une section du modèle<br />

Deux stratégies de modélisation<br />

sont possibles : soit chaque pli de<br />

l’empilement est représenté par une<br />

couche d’éléments solides, soit une<br />

couche d’éléments solides représente<br />

plusieurs plis. Cette deuxième<br />

option implique une homogénéisation<br />

des propriétés matériaux pouvant<br />

être réalisée « manuellement »<br />

ou en utilisant une application intégrée<br />

au logiciel. Cette seconde option<br />

présente l’avantage de réduire<br />

considérablement la taille (en termes<br />

de nombre d’éléments) des modèles<br />

numériques, cette taille étant pour<br />

certains logiciels disponibles sur le<br />

marché une limitation importante.<br />

ou encore la taille des détails géométriques<br />

sur les pièces automobile.<br />

La plupart des logiciels n’ont pas la<br />

capacité de calcul nécessaire au<br />

traitement de modèles excédant<br />

quelques centaines de milliers d’éléments<br />

et ainsi optent pour une analyse<br />

par section et non sur l’ensemble<br />

de la pièce. Cette approche qui n’est<br />

qu’une conséquence des limitations<br />

des capacités de calcul impacte la<br />

précision des résultats.<br />

Le maillage alors crée est utilisé<br />

pour le calcul de cuisson. La simulation<br />

de cuisson est une analyse<br />

thermochimique permettant le calcul<br />

de l’évolution de la température et<br />

du degré de cuisson en fonction du<br />

temps et en tous points (nœuds) de<br />

la pièce. Cette simulation doit considérer<br />

l’aspect exotherme de la réaction<br />

de cuisson. Des résultats types<br />

de simulation de cuisson sur un panneau<br />

de fuselage sont représentés<br />

sur les images 4 et 5.<br />

Enfin, l’étape finale est le calcul des<br />

sion dans l’autoclave, contact avec<br />

le moule, etc.). L’un des résultats du<br />

calcul est le déplacement normal de<br />

chacun des nœuds du modèle.<br />

Deux conclusions sont alors possibles<br />

au calcul de distorsion : la<br />

pièce remplie les critères d’acceptation<br />

en matière de tolérance géométrique<br />

ou, la pièce est en dehors de<br />

ces tolérances.<br />

Dans ce second cas, un procédé<br />

itératif de simulation est utilisé pour<br />

corriger ces distorsions. Des itérations<br />

peuvent dans un premier temps<br />

être réalisées sur les paramètres du<br />

procédé de fabrication (comme par<br />

exemple la modification du cycle de<br />

température dans le procédé de cuisson)<br />

afin de vérifier si ces distorsions<br />

peuvent être réduites à moindre coût<br />

soit sans nécessiter une revalidation<br />

complète du modèle. Cependant, ces<br />

itérations « à moindre coût » sont généralement<br />

insuffisantes et des itérations<br />

sur la géométrie du moule sont<br />

alors nécessaires. Dans ce cas, les<br />

déplacements aux nœuds calculés<br />

lors de l’analyse de distorsion sont<br />

utilisés pour générer un nouvel outil<br />

compensé, un déplacement inverse<br />

(pondéré ou non) étant appliqué aux<br />

nœuds de l’outil. L’outil final conduisant<br />

à une pièce dans les tolérances<br />

Image 8 : Zoom sur un détail du panneau<br />

de fuselage. Pièce avant distorsion<br />

(contour noir) et après calcul des distorsions<br />

avec PAM-DISTORTION<br />

Quel que soit la stratégie de maillage<br />

adoptée, de nombreux cas industriels<br />

résultent en des modèles de plusieurs<br />

centaines de milliers d’éléments, la<br />

raison étant par exemple la dimension<br />

des pièces dans l’aéronautique<br />

Image 9 : Représentation schématique<br />

de l’impact de l’orientation des fibres sur la<br />

rigidité locale de la pièce<br />

distorsions : analyse mécanique qui<br />

prend en compte les contraintes internes<br />

thermiques et chimiques (à<br />

partir des historiques de température<br />

et de degré de cuisson calculés lors<br />

de l’étape précédente de cuisson)<br />

et des chargements externes (pres-<br />

Image 10 : Chaine de simulation itérative<br />

pour la prédiction et la correction des distorsions<br />

géométriques<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 53


Dossier<br />

Simulation<br />

géométriques requises est la plupart<br />

du temps le résultat de plusieurs itérations<br />

de compensation du moule.<br />

La simulation de la distorsion :<br />

maillon d’une chaine numérique<br />

Comme présenté dans le chapitre<br />

précédent, les distorsions géométriques<br />

d’une pièce composites ne<br />

peuvent dans certains cas être corrigées<br />

qu’à travers une nouvelle géométrie<br />

d’outil, soit un moule compensé<br />

à partir des résultats d’analyse de<br />

distorsion. Il est alors indispensable<br />

de vérifier que ces modifications<br />

géométriques du moule (ouverture<br />

ou fermeture de murs, changement<br />

de rayon ou de courbure, etc.) n’ont<br />

pas de conséquences néfastes sur<br />

les étapes précédentes du procédé<br />

de fabrication. En effet, en prenant<br />

l’exemple de la chaine de fabrication<br />

présentée dans l’image 2, une modification<br />

de moule se répercute directement<br />

sur les outils de préformage<br />

et de RTM.<br />

Un changement de rayon ou d’ouverture<br />

d’angle, même très faible, peut<br />

impacter la qualité de la préforme de<br />

manière importante: le même procédé<br />

de fabrication avec une géométrie<br />

légèrement différente peut par<br />

exemple générer des plissements ou<br />

tout simplement modifier le cisaillement<br />

des fibres.<br />

Les performances mécaniques d’une<br />

pièce composite à fibres continues<br />

dépendent grandement du cisaillement<br />

dans les fibres. L’image 9<br />

illustre l’impact de cette variation<br />

d’angle dans les fibres sur la rigidité.<br />

De la même manière, un des paramètres<br />

clefs des procédés d’infusion<br />

ou d’injection (tel par exemple le<br />

RTM) est la perméabilité du renfort<br />

Glossaire<br />

HLE : Haute Limite Elastique<br />

SMC : Sheet Moulding Compound<br />

BMC : Bulk Moulding Compound<br />

GMT : Glass fiber Mat reinforced Thermoplastics<br />

LFT : Long Fiber reinforced Thermoplastics<br />

FEA : Finite Element Analysis<br />

(la préforme). Or, cette perméabilité<br />

est fonction du cisaillement dans triques observé à l’issue de chaines<br />

phénomène de distorsions géomé-<br />

les fibres. En effet, la résine circule<br />

de fabrication types de pièces structurelles<br />

automobiles à fibres continues<br />

plus rapidement dans la direction<br />

des fibres ; des changements dans<br />

et matrices thermodurcissable. Les<br />

le cisaillement de la préforme modifient<br />

donc le flux de résine et peuvent différentes approches numériques<br />

par conséquent impacter la qualité implémentées dans les logiciels commerciaux<br />

ont été présentées.<br />

du procédé d’injection (comme par<br />

exemple un rallongement du temps<br />

L’objectif de la simulation de distorsion<br />

peut tout simplement être de va-<br />

de remplissage) ou encore la qualité<br />

du produit final (comme par exemple<br />

l’apparition de zones sèches ou l’augmentation<br />

du niveau de porosité). dans la plupart des cas, il vise à troulider<br />

un procédé de fabrication mais,<br />

Pour résumer, les distorsions géométriques<br />

d’une pièce composite à ma-<br />

géométriques hors tolérances.<br />

ver une solution à des déformations<br />

trice thermodurcissable sont prédites<br />

Le dernier chapitre démontre l’interdépendance<br />

des différentes étapes<br />

à partir des contraintes générées lors<br />

de la cuisson mais la correction de<br />

ces distorsions est un processus itératif<br />

qui ne se réduit pas à la phase conséquent la nécessité du chaine<br />

du procédé de fabrication et par<br />

de cuisson mais qui doit considérer<br />

de simulation complète telle que proposée<br />

par ESI Group pour la valida-<br />

la chaine complète de fabrication en<br />

raison de l’interdépendance entre<br />

tion des modifications géométriques<br />

les différentes étapes du procédé.<br />

Une modification de la géométrie du d’un moule.<br />

moule ne peut être validée que par la<br />

simulation de l’ensemble des opérations<br />

du procédé. L’image 10 illustre<br />

ce processus itératif de validation<br />

à travers une chaine de simulation<br />

complète.<br />

Mathilde Chabin et David Prono, ESI<br />

Group, Campus de Ker Lann, rue<br />

Maupertuis, Bâtiment B, 35170 Bruz,<br />

Conclusion<br />

France<br />

Cet article est une introduction au >> Infos : composites@esi-group.com<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 54


Dossier<br />

Simulation<br />

Équipements<br />

Poclain Hydraulics optimise ses solutions<br />

avec un outil de simulation<br />

Les performances offertes par l'outil de simulation LMS ont permis à Poclain Hydraulics, fabricant de<br />

systèmes hydrostatiques, à concevoir des solutions moins gourmandes en carburant, plus innovantes<br />

et surtout plus durables.<br />

Le projet,<br />

en quelques lignes<br />

Produit<br />

LMS<br />

Défis<br />

Réduction des délais de mise<br />

sur le marché<br />

Évaluation rapide de plusieurs<br />

nouveaux concepts<br />

Optimisation des produits<br />

avant la fabrication<br />

Au démarrage du projet, l'idée a été<br />

d'imaginer de nouvelles solutions basées<br />

sur une meilleure compréhension.<br />

Poclain Hydraulics* a donc choisi<br />

d'utiliser le logiciel LMS Imagine.Lab<br />

Amesim de Siemens PLM Software<br />

pour concevoir des systèmes hydrostatiques<br />

robustes, comme les transmissions<br />

destinées aux véhicules<br />

lourds. Depuis quelques années, les<br />

équipementiers automobiles ne se<br />

contentent plus de fournir des pièces<br />

à leurs clients constructeurs (OEM),<br />

ils proposent des systèmes complets.<br />

Poclain Hydraulics a également opéré<br />

cette mutation en s'appuyant sur de<br />

nouvelles compétences grâce auxquelles<br />

il est désormais en mesure<br />

de simuler l'intégralité du système de<br />

transmission des véhicules de ses<br />

clients.<br />

LMS Amesim permet à Poclain Hydraulics<br />

de simuler le comportement<br />

de la transmission pour aider ses ingénieurs<br />

à développer plus rapidement<br />

et à moindre coût des réponses<br />

à des problèmes donnés. « LMS<br />

Amesim nous permet d'imaginer de<br />

nouvelles solutions grâce à une meilleure<br />

compréhension du système, explique<br />

Gilles Lemaire, responsable du<br />

support scientifique chez Poclain Hydraulics.<br />

Grâce à la simulation, nous<br />

pouvons notamment nous focaliser<br />

sur des variables qui ne sont même<br />

pas mesurables et tester de nouveaux<br />

Clés de la réussite<br />

Possibilité d'utiliser différents<br />

niveaux de simulation<br />

Représentation claire de tous<br />

les composants<br />

Meilleure compréhension des<br />

phénomènes physiques sousjacents<br />

aux modèles<br />

Résultats<br />

Réduction significative des essais<br />

et prototypes physiques<br />

nécessaires<br />

Accélération du processus de<br />

conception<br />

Réduction des coûts<br />

Réduction de l'impact environnemental<br />

Systèmes plus innovants<br />

concepts sans avoir à recourir à des<br />

prototypes coûteux. Pour la simulation<br />

de véhicules, même si nous disposons<br />

d'une bonne connaissance de chaque<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 55


Dossier<br />

Simulation<br />

composant, l’interaction entre les différents<br />

composants n'est pas toujours<br />

facile à évaluer. »<br />

Poclain Hydraulics a choisi LMS Amesim<br />

pour ce projet en raison de la diversité<br />

des bibliothèques disponibles<br />

ainsi que des différents niveaux de<br />

simulation proposés, du détail des<br />

pièces hydrauliques aux systèmes<br />

Offre de transmission hydrostatique standard<br />

de Poclain Hydraulics.<br />

hydrauliques globaux et véhicules<br />

complets. La possibilité d'obtenir une<br />

simulation du système global intégrant<br />

une représentation explicite des composants,<br />

comme les pompes, moteurs<br />

et soupapes etc., a également été un<br />

critère déterminant.<br />

Construire un car de tourisme au<br />

rendement énergétique amélioré<br />

Dans un projet de nouveau véhicule tel<br />

qu'un car de tourisme hybride, Poclain<br />

Hydraulics s'efforce dans un premier<br />

temps de comprendre les éléments<br />

d'efficacité d'un car existant, en tenant<br />

compte du cycle de service du véhicule,<br />

du conducteur et des conditions<br />

de circulation locales. La deuxième<br />

phase consiste à étudier de nouvelles<br />

solutions et analyser leur rendement,<br />

non seulement pour le cycle de service<br />

réel, mais aussi en termes de robustesse<br />

de la solution face à différents<br />

cas de charge.<br />

La principale difficulté pour le projet de<br />

car consiste à stocker autant d'énergie<br />

de freinage que possible et à la<br />

restituer avec une efficacité optimale.<br />

Pour stocker le maximum d'énergie, le<br />

système doit être dimensionné de manière<br />

à pouvoir répondre aux besoins<br />

du conducteur à n'importe quel moment<br />

du cycle de service, quelles que<br />

soient les conditions de service. Grâce<br />

à la connaissance du rendement de<br />

chaque composant du système hydraulique<br />

à n'importe quelle phase du<br />

cycle procurée par la simulation, il est<br />

ainsi possible d'optimiser le rendement<br />

global de la restitution d'énergie. Cela<br />

n'est pas facile à mesurer sur un véhicule<br />

réel mais peut être aisément simulé<br />

par informatique.<br />

L’essentiel de la contribution de la<br />

simulation réside dans l'analyse de<br />

l'impact du système sur la consommation<br />

de carburant du véhicule, en<br />

fonction de la transmission mécanique<br />

principale et du moteur. Par exemple,<br />

en diminuant la demande d'énergie<br />

« Les fonctionnalités de simulation de LMS Amesim nous ont permis<br />

d'identifier la meilleure manière de restituer l'énergie stockée en améliorant<br />

le contrôle des systèmes hydromécaniques. Nous nous sommes<br />

également particulièrement intéressés à la manière dont la boîte de vitesses<br />

est commandée pendant le freinage pour permettre le fonctionnement<br />

coordonné de tous les systèmes. Il est ainsi possible d’optimiser<br />

d'une part l'expérience de conduite pour le conducteur et d'autre part la<br />

régénération d'énergie. » - Gilles Lemaire<br />

« LMS Amesim nous permet d'imaginer de nouvelles solutions grâce à<br />

une meilleure compréhension du système. Avec la simulation, nous pouvons<br />

notamment nous focaliser sur des variables qui ne sont même pas<br />

mesurables et tester de nouveaux concepts sans avoir à recourir à des<br />

prototypes coûteux. Pour la simulation de véhicules, même si nous disposons<br />

d'une bonne connaissance de chaque composant, l'interaction entre<br />

les différents composants n'est pas toujours facile à évaluer. » - Gilles<br />

Lemaire, responsable du support scientifique chez Poclain Hydraulics<br />

au niveau du moteur lors des phases<br />

de restitution, l'impact sur son rendement<br />

n'était pas toujours positif. « Les<br />

fonctionnalités de simulation de LMS<br />

Amesim nous ont permis d'identifier la<br />

meilleure manière de restituer l'énergie<br />

stockée en améliorant le contrôle des<br />

systèmes hydromécaniques, explique<br />

Gilles Lemaire. Nous nous sommes<br />

également particulièrement intéressés<br />

à la manière dont la boîte de vitesses<br />

est commandée pendant le freinage<br />

pour permettre le fonctionnement coordonné<br />

de tous les systèmes. Il est ainsi<br />

possible d'optimiser d'une part l'expérience<br />

de conduite pour le conducteur<br />

et d'autre part la régénération d'énergie.<br />

»<br />

À partir de cette analyse, les ingénieurs<br />

de Poclain Hydraulics adaptent<br />

Assistance hydrostatique pour camions<br />

AddiDrive Assist.<br />

de nouveaux composants avec des<br />

rendements supérieurs tout en dimensionnant<br />

ces composants comme il<br />

convient, avec à l'esprit les résultats<br />

pour différents cycles de service. « Au<br />

bout du compte, nous disposons d'une<br />

bonne connaissance de l'application,<br />

d'une bonne compréhension de ses<br />

fonctionnalités et de clés décisives<br />

pour son amélioration, souligne Gilles<br />

Lemaire. À un niveau supérieur, cette<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 56


Dossier<br />

Simulation<br />

Système de freinage régénératif hydrostatique<br />

pour camions et autobus Regen<br />

expérience nous permet de pouvoir<br />

analyser une nouvelle application,<br />

comme un « véhicule ayant un cycle de<br />

travail plus dynamique » par exemple,<br />

de manière à identifier des solutions<br />

de régénération d'énergie potentielles.<br />

» De son côté, Yohann Brunel,<br />

ingénieur d'études avancées au sein<br />

de Poclain Hydraulics, explique que<br />

« parallèlement, nous exploitons les<br />

différents niveaux de détails offerts par<br />

LMS Amesim pour étudier des phases<br />

transitoires. Nous sommes en mesure<br />

d'étudier un comportement, comme<br />

l'accouplement ou le désaccouplement<br />

des moteurs, à partir d'une représentation<br />

complète de chaque piston de moteur,<br />

pour permettre la synchronisation<br />

avec la vitesse de rotation des roues. »<br />

Définition de différents niveaux de<br />

contrôle<br />

Pour obtenir un fonctionnement harmonieux<br />

de l'ensemble, sans conflit ni<br />

problème d'instabilité, Poclain Hydraulics<br />

avait besoin de pouvoir définir différents<br />

niveaux de contrôle. Le niveau<br />

de contrôle supérieur contribue à la<br />

gestion de l'énergie en répartissant la<br />

puissance entre les deux systèmes,<br />

tandis que le niveau intermédiaire<br />

permet de faire en sorte que chaque<br />

sous-système fournisse à tout moment<br />

l'énergie requise. Le niveau inférieur<br />

gère les limites fonctionnelles des systèmes.<br />

Tous les contrôles élémentaires<br />

ont été effectués en important la bibliothèque<br />

de signaux et contrôles directement<br />

de LMS Amesim.<br />

« La stratégie de commande est validée à l'aide de LMS Amesim. La<br />

principale difficulté consiste à trouver une stratégie robuste, quel que soit<br />

le cycle de service. Il peut en outre être nécessaire d'adapter la stratégie<br />

lorsque la dimension du système est modifiée. » - Yohann Brunel, Ingénieur<br />

d'études avancées au sein de Poclain Hydraulics<br />

Pour améliorer le système, par<br />

exemple en choisissant les meilleurs<br />

composants et la meilleure manière de<br />

les contrôler, l'analyse consiste à observer<br />

l'énergie qui transite par le système<br />

à la décélération et à l'accélération.<br />

Cela permet à Poclain Hydraulics<br />

de faire un suivi de l'énergie perdue ou<br />

non récupérable. Les principaux critères<br />

sont la consommation de carburant<br />

sur un cycle de service donné et le<br />

retour sur investissement (RI). L'usure<br />

des freins peut également être étudiée<br />

par le biais de cette analyse. « La stratégie<br />

de commande est validée à l'aide<br />

de LMS Amesim, précise Yohann Brunel.<br />

La principale difficulté consiste à<br />

trouver une stratégie robuste, quel que<br />

soit le cycle de service. Il peut en outre<br />

être nécessaire d'adapter la stratégie<br />

lorsque la dimension du système est<br />

modifiée. »<br />

Créer des solutions à forte valeur<br />

ajoutée<br />

L'ingénierie système basée sur les<br />

modèles est un excellent moyen de<br />

réduire les coûts de développement<br />

sur des concepts existants et de trouver<br />

des idées innovantes, comme le<br />

montre l'exemple de Poclain Hydraulics.<br />

Elle permet également un travail<br />

d'équipe plus efficace, du concepteur<br />

de la pièce au programmeur du logiciel<br />

de commande-contrôle en passant par<br />

le concepteur du système.<br />

D'après Yohann Brunel, l'approche<br />

de l'ingénierie système basée sur les<br />

modèles est également un excellent<br />

moyen de travailler en collaboration<br />

avec les clients. « Le degré de collaboration<br />

varie. Certains clients définissent<br />

leur cahier des charges précis<br />

et demandent à Poclain Hydraulics de<br />

fournir le composant approprié pour répondre<br />

à leurs besoins. L'expertise de<br />

l'entreprise en matière de contraintes<br />

mécaniques et l'utilisation de LMS<br />

Amesim sont des facteurs essentiels<br />

dans sa capacité à fournir des solutions<br />

complètes à forte valeur ajoutée,<br />

au même titre que sa connaissance<br />

des systèmes durables. »<br />

Parmi les solutions de mobilité durables<br />

proposées par Poclain Hydraulics,<br />

la solution d'assistance pour camions<br />

AddiDrive Assist et le système<br />

stop and start hybride CleanStart sont<br />

déjà disponibles sur le marché et s'appuient<br />

sur la capacité de l'entreprise<br />

à concevoir des systèmes dédiés<br />

pour ses clients. « Le développement<br />

durable est un enjeu de plus en plus<br />

important sur le marché, explique Yannick<br />

Seeleuthner, responsable marketing<br />

du groupe Poclain Hydraulics.<br />

Cela n'a rien de nouveau pour Poclain<br />

Hydraulics qui a toujours fait du développement<br />

durable une de ses valeurs<br />

clés. Les transmissions hydrauliques<br />

offrent depuis toujours le meilleur rendement<br />

énergétique pour les applications<br />

mobiles. Par ailleurs, nos produits<br />

sont recyclables à 100 % et nous disposons<br />

dans nos usines de solutions<br />

pour minimiser encore notre empreinte<br />

environnementale. Réduire la consommation<br />

de carburant des machines de<br />

nos clients est un moteur essentiel<br />

dans nos processus de conception. »<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 57


Dossier<br />

Simulation<br />

En pratique<br />

Simuler la thermoacoustique<br />

avec Comsol Multiphysics<br />

Quand le son se propage dans des structures et des géométries de petites dimensions, les ondes<br />

acoustiques s'atténuent du fait de pertes thermiques et visqueuses. Ce phénomène connu intervient<br />

dans les couches limites thermiques et visqueuses proches des parois, dont l'importance est d'autant<br />

plus grande que la géométrie est petite. C’est la cas par exemple dans des microphones MEMS, pour<br />

l'impédance de transfert d'une plaque perforée, dans des dispositifs d'aide à l'audition ou en photoacoustique.<br />

Une simulation correcte, par exemple avec l'interface spécialisée Thermoacoustics du module<br />

Acoustics de Comsol Multiphysics, nécessite donc la prise en compte de ces pertes.<br />

La simulation des phénomènes thermoacoustiques<br />

nécessite quelques<br />

précautions. Tout d'abord, la physique<br />

doit être correctement définie et la<br />

taille du maillage suffisamment fine<br />

pour capturer les couches limites visqueuses<br />

et thermiques. Il est important<br />

par ailleurs de noter qu'un modèle<br />

thermoacoustique résout la pression,<br />

le champ de vitesse (ce sera 3 composantes<br />

en 3D par exemple) et la température.<br />

De ce fait, la résolution d'un<br />

modèle implique un grand nombre de<br />

degrés de liberté et requiert une mémoire<br />

vive importante.<br />

Distribution de pression (‡ gauche) dans<br />

un simulateur du conduit auditif de l'oreille<br />

à 7850 Hz, pour comparaison (‡ droite)<br />

avec les données de référence IEC 60318-<br />

4. L'impédance de transfert du coupleur<br />

(en bleu, avec les pertes thermiques et<br />

visqueuses) est comparée à différentes<br />

fréquences avec les données de référence<br />

(en rouge) et une courbe d'un modèle sans<br />

perte (en vert).<br />

Une définition erronée des coefficients<br />

de dilatation et de compression<br />

thermique est également une source<br />

courante d'erreurs de modélisation.<br />

Si les coefficients sont faux ou nuls, il<br />

en résulte des ondes acoustiques se<br />

propageant à une vitesse du son incorrecte<br />

ou ne se propageant pas du tout.<br />

La vitesse du son est en effet reliée à<br />

ces deux coefficients. Une vérification<br />

simple consiste ‡ afficher ces paramètres<br />

après le calcul et à vérifier ainsi<br />

leurs valeurs.<br />

Mailler un modèle thermoacoustique<br />

Le maillage d'un modèle thermoacoustique<br />

doit être suffisamment fin<br />

pour capturer les phénomènes en jeu<br />

dans les couches limites proches des<br />

parois. Cependant, un maillage par défaut<br />

conduit souvent à un nombre élevé<br />

de mailles. Voici quelques astuces<br />

pour minimiser le nombre de mailles :<br />

- Créez des paramètres de contrôle<br />

de votre maillage. Par exemple, si<br />

votre analyse est fréquentielle, il est<br />

possible de définir un paramètre de<br />

l'épaisseur de la couche limite visqueuse<br />

(ou thermique) à cette fréquence<br />

f0. Dans l'air, nous savons<br />

que l'épaisseur de la couche limite<br />

visqueuse à 100Hz est de 0.22mm,<br />

et de façon générale, l'épaisseur vaut<br />

dvisc = 0.22[mm]*sqrt(100[Hz]/f0). Si<br />

vous faites varier la fréquence, ce paramètre<br />

permettra de préciser la taille<br />

maximale des mailles proches des parois.<br />

- Utilisez un maillage de couche limite.<br />

Cela permettra de conserver le même<br />

nombre de mailles quelque soit la fréquence.<br />

Ce qui est particulièrement intéressant<br />

en 3D. Si vous précisez seulement<br />

la taille maximale des mailles<br />

proches des parois, le nombre de<br />

mailles augmente quand l'épaisseur<br />

de la couche limite diminue.<br />

- Utilisez une expression logique pour<br />

définir le maillage. Par exemple, utilisez<br />

la fonction min(,) pour définir<br />

la taille maximale des éléments ou<br />

l'épaisseur d'une couche limite. Dans<br />

la figure 2, des maillages (de la section)<br />

à différentes fréquences sont proposés<br />

pour une conduite circulaire de<br />

diamètre 2a=2mm. La taille maximale<br />

des éléments est fixée à a/3 et le maillage<br />

de couche limite utilise par défaut<br />

5 mailles dans l'épaisseur, définie<br />

par min(a/30,0.3*dvisc). Cela permet<br />

de conserver un nombre de mailles<br />

constant autour de 500Hz (avec un<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 58


Dossier<br />

Simulation<br />

Exemple de maillage à nombre de mailles<br />

constant pour quatre fréquences. Ce maillage<br />

capture néanmoins les effets de la<br />

couche limite acoustique pour les différentes<br />

fréquences, en adaptant l'épaisseur<br />

des mailles proches de la paroi avec celle<br />

de l'épaisseur de la couche limite. Les couleurs<br />

représentent la vitesse RMS d'une<br />

onde se propageant dans une conduite circulaire,<br />

de diamètre de 2mm et de longueur<br />

infinie.<br />

maillage de bonne qualité dans le<br />

volume) et d'obtenir une finesse de<br />

mailles proches des parois comparable<br />

à l'épaisseur de la couche limite,<br />

quelque soit la fréquence.<br />

Une autre approche est de préparer<br />

différents maillages, potentiellement<br />

un par intervalle de fréquence de 1000<br />

Hz, et de lancer plusieurs études, une<br />

par intervalle de fréquences.<br />

Des astuces à appliquer au cas par<br />

cas<br />

Afin de réduire les exigences du calcul<br />

(notamment en mémoire vive), il est<br />

pertinent de ne résoudre la thermoacoustique<br />

que là où elle a de l'importance.<br />

Voici quelques suggestions<br />

concrètes :<br />

- Couplez un modèle thermoacoustique<br />

avec un modèle acoustique<br />

(résolution de la pression<br />

uniquement avec l'équation<br />

d'Helmholtz). Quand dans<br />

une géométrie coexistent<br />

des zones de grande taille et<br />

des zones de petite taille, il<br />

est pertinent de ne résoudre Exemple d'un maillage thermoacoustique tenant<br />

la thermoacoustique que compte des effets de la couche limite acoustique.<br />

dans les zones de petite<br />

taille et l'acoustique dans les<br />

numériques quand la taille des modèles<br />

devient très grande.<br />

autres. Dans Comsol Multiphysics,<br />

l'interface Thermoacoustic est<br />

automatiquement couplée avec l'interface<br />

Pressure Acoustics.<br />

En résumé<br />

- Utilisez des sous-modèles et des modèles<br />

réduits. Par exemple, calculez<br />

l'impédance de transfert dans un modèle<br />

détaillé de thermoacoustique et<br />

utilisez la dans un modèle de pression<br />

acoustique.<br />

- Quand la fréquence augmente, la<br />

couche limite acoustique décroît en<br />

épaisseur et en importance. Cela implique<br />

qu'à partir d'une certaine fréquence,<br />

les pertes liées à la couche<br />

limite deviennent négligeables, et que<br />

vous pouvez ne résoudre qu'un modèle<br />

de pression acoustique.<br />

- Dans des structures de section<br />

constante, vous pouvez utiliser un<br />

modèle de Narrow Region Acoustics<br />

disponible dans l'interface Pressure<br />

Acoustics. Dans ces modèles, le fluide<br />

est homogénéisé et les pertes liées à<br />

la couche limite sont lissées dans tout<br />

le domaine fluide. C'est une première<br />

approche de la réponse du système<br />

sans le coût numérique d'un modèle<br />

thermoacoustique complet.<br />

- La documentation de l'interface Thermoacoustic<br />

précise différentes astuces<br />

pour configurer au mieux les solveurs<br />

Les points les plus importants à retenir<br />

quand on simule l'acoustique avec l'interface<br />

Thermoacoustic sont :<br />

- Résoudre la thermoacoustique seulement<br />

là où c'est nécessaire, en particulier<br />

là où la couche limite thermique<br />

ou visqueuse est comparable à la taille<br />

de la géométrie (ce qui dépend de la<br />

fréquence et de l'échelle de la géométrie).<br />

- Vérifier les données matériaux, notamment<br />

que les valeurs des coefficients<br />

de compressibilité et de dilatation<br />

thermique sont bien non-nulles.<br />

- Comparez la taille des mailles<br />

proches des parois et l'épaisseur de la<br />

couche limite visqueuse et thermique.<br />

Mads Herring Jensen<br />

Comsol blog sur http://www.comsol.fr/<br />

blogs/modeling-thermoacoustic-interfacecomsol/<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 59


Dossier<br />

Simulation<br />

Méthode<br />

Diagnostic de défauts dans les structures<br />

mécaniques par Subspace Fitting<br />

La localisation de défauts dans les<br />

structures mécaniques est une tache<br />

cruciale pour de nombreuses applications<br />

industrielles. Prédire de manière<br />

précoce un endommagement permet<br />

alors de réduire considérablement les<br />

coûts liés à la maintenance. Dans cette<br />

optique de nombreuses méthodes basées<br />

sur l’analyse vibratoire ont émergé<br />

ces dernières années.<br />

Plus particulièrement, les méthodes<br />

basées sur le recalage de modèles<br />

Eléments Finis (EF) visent à corréler<br />

un modèle numérique avec des<br />

données expérimentales issues de la<br />

structure surveillée. La corrélation est<br />

effectuée en ajustant les paramètres<br />

incertains du modèle. Lorsque ces paramètres<br />

sont sensibles aux défauts, il<br />

est alors possible de les diagnostiquer.<br />

La méthode présentée est basée sur le<br />

recalage d’une matrice d’observabilité<br />

obtenue par EF à partir d’une matrice<br />

d’observabilité identifiée expérimentalement<br />

par une méthode temporelle de<br />

sous-espaces. Cette technique appelée<br />

Subspace Fitting est illustrée par<br />

la localisation d’une fissure dans une<br />

poutre.<br />

Théorie<br />

Le SF est un concept qui vise à faire<br />

correspondre le comportement dynamique<br />

d’une matrice d’observabilité<br />

construite par EF () avec celle obtenue<br />

expérimentalement () à partir d’une<br />

identification par sous-espaces. Un<br />

problème de la forme<br />

est obtenu, où sont les paramètres du<br />

modèle EF à recaler. L’optimisation est<br />

conduite au travers d’un algorithme de<br />

Gauss-Newton. La synoptique de la<br />

méthode est reportée en Figure 1.<br />

Pour les systèmes mécaniques, une<br />

fissure peut être modélisée par une<br />

perte de rigidité locale. D’un point de<br />

vue du modèle EF, cela se traduit par<br />

une variation du module d’Young au niveau<br />

de l’endommagement.<br />

Pour diagnostiquer ce défaut le modèle<br />

EF est partitionné en deux sous-structures.<br />

L’une d’entre elle étant associé<br />

au défaut. En choisissant comme paramètres<br />

à recaler la largeur, la position<br />

du centre et le module d’Young de<br />

cette sous-structure, la méthode permet<br />

alors de localiser l’endommagement<br />

et d’en estimer son importance.<br />

Application expérimentale pour<br />

une poutre<br />

La méthode proposée est appliquée<br />

à la localisation d’un défaut dans une<br />

poutre. Cette poutre possède les caractéristiques<br />

géométriques suivantes :<br />

une longueur de 1 m, une largeur de<br />

0.0249 m et une épaisseur de 0.0053<br />

m. Ses caractéristiques physiques sont<br />

celles de l’acier, c’est à dire un module<br />

d’Young de 200 GPa, une densité de 7<br />

850 kg/m3 et un coefficient de Poisson<br />

de 0.3. Cette poutre est encastrée à<br />

l’une de ses extrémités.<br />

La poutre est excitée par un marteau<br />

d’impact à 0.25 m de l’encastrement.<br />

Trois accéléromètres sont utilisés pour<br />

enregistrer la réponse temporelle,<br />

d’une durée de 5s, échantillonnée à 2<br />

048 Hz, positionnés à 0.1 m, 0.5 m et<br />

0.9 m de l’encastrement (Figure 2).<br />

Le défaut est obtenu en sciant la<br />

poutre sur une largeur de 0.0006 m et<br />

une profondeur de 0.004 m, à 0.2 m de<br />

l’encastrement.<br />

À la fin de la procédure, le défaut est<br />

localisé entre les postions 0.19 m et<br />

0.21 m avec une réduction du module<br />

d’Young de 77%. Les résultats de la<br />

localisation de l’endommagement sont<br />

reportés en Figure 3.<br />

Conclusion<br />

Remerciements<br />

Les auteurs remercient l’Union<br />

européenne (Feder Centre) et<br />

le Conseil régional du Centre<br />

pour leur soutien financier.<br />

Une méthode de recalage de modèle<br />

EF est utilisée pour diagnostiquer un<br />

défaut dans une poutre. La méthode<br />

est basée sur le SF et l’emploi d’un<br />

modèle EF sous-structuré. La méthode<br />

est appliquée pour la localisation d’un<br />

défaut dans une poutre, en recalant<br />

les paramètres de la sous-structure relative<br />

au défaut. Après recalage le défaut<br />

est localisé avec une bonne précision.<br />

Cette méthode est applicable,<br />

en utilisant une stratégie différente de<br />

localisation, au diagnostic de plusieurs<br />

défauts, et pour des structures mécaniques<br />

plus complexes.<br />

Roger Serra (ENI Val-de-Loire)<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 60


Vie de l’ASTE<br />

Compte-rendu<br />

Journée ASTE- LAAS/CNRS « Capteurs<br />

innovants pour les essais d’environnement »<br />

À Toulouse le 26 mars 2014…<br />

Dans les laboratoires d’essais d’environnement<br />

la qualité de la mesure est<br />

essentielle, puisque ceux-ci vendent<br />

des mesures sur les matériels qui<br />

leur sont confiés. Lors de la caractérisation<br />

des environnements auxquels<br />

sont soumis ces matériels, la qualité<br />

des mesures est encore fondamentale,<br />

d’autant que c’est à partir de ces<br />

mesures que sont établies les spécifications<br />

d’essais de validation du design.<br />

À la source de ces mesures, on<br />

trouve les capteurs (transducteurs) qui<br />

peuvent être thermiques mécaniques<br />

ou acoustiques. En fait, les capteurs<br />

thermiques sont ceux qui sont le plus<br />

souvent utilisés par ces laboratoires.<br />

Aussi l’association ASTE, le LAAS-<br />

CNRS et le Club des Affiliés se sont<br />

associés pour organiser une journée<br />

permettant de découvrir certaines innovations<br />

dans le domaine des capteurs,<br />

essentiellement thermiques, innovations<br />

importantes pour les laboratoires<br />

d’environnement. Cette journée a eu<br />

lieu le 26 mars dernier au LAAS/CNRS<br />

à Toulouse. Elle a bénéficiée du parrainage<br />

du pôle Aerospace Valley et<br />

de la plateforme Fahrenheit, ainsi que<br />

du soutien du programme CAP’Tronic.<br />

Près de quarante-cinq personnes ont<br />

assisté à l’évènement.<br />

Les participants ont été accueillis dans<br />

la salle de conférence du LAAS par<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 61


Vie de l’ASTE<br />

André Peyre-Lavigne, l’animateur du<br />

Club des Affiliés du LAAS. La journée<br />

a commencé par les présentations des<br />

organisateurs. Anne Marie Gue, la directrice<br />

adjointe du LAAS, a décrit les<br />

activités du LAAS/CNRS et Joseph<br />

Merlet, Président de l’ASTE, a présenté<br />

l’association. Les exposés techniques<br />

de la journée ont débuté avec<br />

une conférence de Xavier Lafontan de<br />

la société INTESENS sur un capteur<br />

de température miniature sans fil autonome.<br />

Anis Ziadi de la société DSi a<br />

présenté, dans le deuxième exposé,<br />

un nouvel outil pour la mesure rapide<br />

de température avec un thermocouple.<br />

Après une pause riche en échanges,<br />

les conférences ont repris avec une intervention<br />

de Jean-Jacques Bois de la<br />

société Nanolike sur l’application des<br />

nanotechnologies pour le développement<br />

de capteurs de température et<br />

de jauges de déformation, un exposé<br />

de David Garnier de la société Texys<br />

intitulé « Nouveau capteur de mesure<br />

de température sans contact » et celui<br />

de Patrick Pons du LAAS sur les capteurs<br />

passifs sans fils à transduction<br />

électromagnétique. Chaque conférence<br />

a été suivie de questions et d’un<br />

échange très riche avec les auditeurs.<br />

Les participants ont ensuite partagé un<br />

buffet-déjeuner dans le grand hall du<br />

LAAS et ont profité de ce moment<br />

convivial pour discuter et nouer des<br />

contacts.<br />

L’après-midi a débuté par un exposé<br />

d’Elian Coment intitulé « Conception et<br />

réalisation de fluxmètre thermique ».<br />

Ensuite, avant de commencer les visites<br />

du LAAS, Hervé Aubert, le responsable<br />

adjoint de la plateforme<br />

MIcro et Nanosystèmes pour les Communications<br />

sans fils, a apporté des<br />

explications très détaillées sur l’activité<br />

de la plateforme de micro et nanotechnologies<br />

du LAAS-CNRS. Le premier<br />

groupe de participants a pu visiter la<br />

salle blanche de cette plateforme, le<br />

second a assisté à la présentation de<br />

la plateforme Adream, support expérimental<br />

de recherche et bâtiment intelligent<br />

du LAAS-CNRS.<br />

Toutes les visites ont suscité un grand<br />

intérêt chez les participants, qui ont<br />

posé de nombreuses questions.<br />

La journée s’est terminée par une table<br />

ronde animée par Joseph Merlet. Le<br />

président de l’ASTE a remercié toute<br />

l’équipe du LAAS qui a participé à cette<br />

journée, pour l’accueil et l’organisation<br />

qui ont contribué à la réussite totale de<br />

cet événement.<br />

Assemblée générale de l’ASTE<br />

La prochaine AG annuelle de l’ASTE<br />

se tiendra le 12 juin 2014 à Vélizy-Villacoublay<br />

et donnera lieu à renouvellement<br />

du Conseil d’Administration.<br />

ASTE va donc procéder à un « appel<br />

à candidature » pour ce nouveau<br />

Conseil qui élira, à la suite de la tenue<br />

de l’AG, les nouveaux membres du Bureau<br />

lors d’une réunion du Conseil qui<br />

aura lieu en suivant.<br />

Le bureau sortant présentera, lors de<br />

cette AG, le rapport moral et le rapport<br />

financier annuel de l’association.<br />

GAM PME<br />

L'ASTE a reçu l'appui du ministère<br />

de l'Industrie/DGCIS pour la réalisation<br />

d'un outil d'aide à la décision en<br />

matière de câblage des appareils de<br />

mesure en environnement industriel.<br />

Cet outil, sous forme d'un guide interactif,<br />

sera mis gratuitement à la disposition<br />

des PME pour les aider à faire<br />

des mesures de qualité sans investissement<br />

complémentaire en matériel.<br />

L’ASTE en est actuellement à la phase<br />

de finalisation des résultats et dissémination.<br />

Un petit-déjeuner gratuit de présentation<br />

de l’outil GAM PME a eu lieu le<br />

vendredi 14 mars 2014 à Vélizy-Villacoublay<br />

Une autre présentation est organisée<br />

à l’Aerospace Valley de Toulouse sous<br />

forme d’un « TEA-TIME » de 17 h à 19<br />

h le lundi 19 mai : « Comment maximiser<br />

la réussite de vos mesures »<br />

Programme :<br />

• Accueil des participants<br />

• Présentation de l’ASTE par Joseph<br />

Merlet<br />

• Présentation du projet GAM PME par<br />

Jean-Paul Prulhière<br />

• Présentation du Guide de bonnes<br />

pratiques pour une bonne CEP des<br />

systèmes de mesure<br />

• Présentation du logiciel GAM PME<br />

par Jean-Paul Prulhière<br />

• Questions-Réponses<br />

• D’autres présentations sont en cours<br />

d’organisation en coordination avec<br />

l’association CAP’TRONIC ; une présentation<br />

est prévue au Laboratoire<br />

national de métrologie et d’essais<br />

(LNE) le 10 ou 12 septembre 2014<br />

ACCORD ASTE-INSA-CVL<br />

Un accord devrait être signé le 21 mai<br />

entre ASTE-INSA-CVL pour l’organisation<br />

d’une manifestation commune :<br />

Colloque « Analyse Vibratoire expérimentale<br />

» et Colloque Astelab, ainsi<br />

qu’un salon pour les professionnels<br />

rassemblant les principaux acteurs<br />

dans le domaine des « Vibrations, des<br />

chocs, de l’analyse modale et des simulations<br />

associées » qui aura lieu du<br />

18 au 20 novembre 2014.<br />

À cette occasion, un appel à communication<br />

va être lancé pour Astelab : plusieurs<br />

sessions seront ouvertes.<br />

Nouveaux stages de formation<br />

pour 2014<br />

Trois nouvelles formations sont proposées<br />

par l’IUT de Limoges « Analyses<br />

Physico-Chimiques et Matériaux »<br />

dans le cadre du catalogue de formation<br />

de l’ASTE :<br />

• Techniques spectroscopiques les 8 et<br />

9 juillet<br />

• Techniques de caractérisation de<br />

composés organiques les 30 septembre<br />

et 1er octobre<br />

• Contrôles non destructifs les 4 et 5<br />

novembre<br />

Pour vous inscrire ou obtenir des informations<br />

supplémentaires, contactez Véronique<br />

Lanéry au 01 61 38 96 32 ou info@<br />

aste.asso.fr<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 62


Formations<br />

ASTE<br />

Association pour le développement<br />

des Sciences et Techniques de l’Environnement<br />

<br />

Programme des formations 2014<br />

PROGRAMME DES FORMATIONS<br />

<br />

<br />

Mécanique vibratoire<br />

Mesure et analyses des phénomènes vibratoires<br />

(Niveau 1)<br />

Mesure et analyses des phénomènes vibratoires<br />

(Niveau 2)<br />

Application au domaine industriel<br />

IUT du Limousin<br />

INTESPACE-31<br />

SOPEMEA-78<br />

<br />

<br />

<br />

3,5 1 620 €<br />

4 1 800 €<br />

3 1 500 €<br />

<br />

15-18 avril<br />

2-5 sept<br />

12-16 mai<br />

8-12 sept<br />

10-12 juin<br />

14-16 oct<br />

Chocs mécaniques : mesures, spécifications,<br />

essais et analyses de risques<br />

ASTE (78) 3 1 500 €<br />

1-3 avril<br />

4-6 nov<br />

Acquisition et traitement des<br />

signaux<br />

Pilotage des générateurs de<br />

vibrations<br />

Principes de base et caractérisation des signaux IUT du Limousin 3,5 1 620 € 20-13 mai<br />

Traitement du signal avancé des signaux<br />

vibratoires<br />

ASTE 3 1 500 € 16-18 sept<br />

Principes utilisés et applications SOPEMEA 4 1 800 € 24-27 nov<br />

Analyse modale<br />

Analyse modale expérimentale et Initiation<br />

aux calculs de structure et essais<br />

INTESPACE 4 1 800 €<br />

2-5 juin<br />

27-30 oct<br />

Acoustique<br />

Principes de base, mesures et application<br />

aux essais industriels<br />

INTESPACE 4 1 800 € 17-20 nov<br />

Climatique<br />

Principes de base et mesure des phénomènes<br />

thermiques<br />

IUT du Limousin 3 1 500 € 18-20 nov<br />

Application au domaine industriel INTESPACE 4 1 800 € 7-10 oct<br />

Electromagnétisme<br />

Sensibilisation à la compatibilité<br />

électromagnétique<br />

Application à la prise en compte de la CEM<br />

dans le domaine industriel<br />

Exploitation des normes CEM<br />

Prise en compte de l'environnement<br />

dans un programme industriel<br />

IUT du Limousin 4 1 800 € 7-11 avril<br />

INTESPACE 3 1 500 € 16-18 sept<br />

EMITECH<br />

78 - Versailles<br />

2 1 100 € 19-20 février<br />

2 1 100 € 11-12 sept<br />

Personnalisation du produit<br />

à son environnement<br />

Prise en compte de l’environnement mécanique 3 1 500 € 21-23 oct<br />

Utilisation des outils de synthèse mécanique<br />

ASTE (78)<br />

pour la conception et le pré dimensionnement<br />

3 1 500 € 12-14 nov<br />

des équipements<br />

Prise en compte de l’environnement climatique 3 1 500 € 23-25 sept<br />

Prise en compte de l’environnement<br />

électromagnétique<br />

EMITECH<br />

78-Versailles<br />

3 1 500 € 22-24 avril<br />

Mesure<br />

Extensomètrie : collage de jauge, analyse<br />

des résultats et de leur qualité<br />

Concevoir, réaliser, exploiter une campagne<br />

de mesures<br />

ASTE (78) 3 1 700€<br />

17-19 juin<br />

18-20 nov<br />

ASTE (78) 2 1 100 € 3-4 déc<br />

<br />

<strong>Essais</strong><br />

Simulation<br />

Bonne pratique des mesures IUT DU LIMOUSIN 2 1100 € 1-2 juin<br />

Conception et validation de la fiabilité -<br />

Dimensionnement des essais pour la validation<br />

de la conception des produits<br />

Fiabilité, déverminage, essais (accélérés,<br />

aggravés)<br />

Accroissement de la fiabilité<br />

par les méthodes HALT & HASS<br />

Caractérisation métrologique des systèmes<br />

de mesure et essais - NOUVEAU<br />

IFMA<br />

(63175 AUBIERE)<br />

3 1 500€ 3-5 juin<br />

ASTE (78) 2 1 100 € 10-11 sept<br />

EMITECH (78) 1 850€<br />

ASTE (78) 2 1 100 €<br />

5 juin<br />

10 sept<br />

9-10 avril<br />

16-17 oct<br />

Accréditation des laboratoires d’essais ISTIA ANGERS (49) 2 1 100 € 9-10 sept<br />

Méthodes statistiques appliquées<br />

aux essais<br />

La simulation numérique et les essais :<br />

complémentarités - comparaisons<br />

ISTIA ANGERS (49)<br />

ASTE (78)<br />

2 1 100 € 2-3 juillet<br />

2 1 100 €<br />

26-27 mars<br />

13-14 oct<br />

CONTACT : Patrycja PERRIN - Tél. 01 61 38 96 32 - info@aste.asso.fr<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 63


Au sommaire<br />

du prochain numéro<br />

Dossier<br />

Des capteurs innovants pour les essais d'environnement<br />

Mesures et méthodes de mesure<br />

Contrôle en production :<br />

Solutions technologiques et mises en pratique<br />

Mesures optiques :<br />

La qualité de la production grâce à la mesure optique<br />

<strong>Essais</strong> et modélisation<br />

Optimisation de production :<br />

Suivi du cycle de vie des produits : du PLM au SLM...<br />

<strong>Essais</strong> :<br />

Bancs de test traction, fatigue… sur les chaînes de production<br />

END<br />

La place des END dans les centres de tests<br />

Sans oublier<br />

Des avis d'experts ainsi que toutes les informations concernant la vie de<br />

l'ASTE et du Gamac, les événements, les formations et les actualités du marché<br />

de la mesure, des essais, de la modélisation et de la simulation.<br />

Répertoire des annonceurs<br />

ASTE ...................................61<br />

CETIM ...................................5<br />

IMPLEX .................................9<br />

JOHNE + REILHOFER ........13<br />

CONCEPTION ÉDITORIALE & RÉALISATION<br />

MRJ<br />

54, Boulevard Rodin - 92130 Issy les Moulineaux<br />

Tél. : 01 73 79 35 67<br />

Fax. : 01 34 29 61 02<br />

www.mrj-presse.fr<br />

(la rédaction n’est pas responssable des documents qui lui sont<br />

adressés, sauf demande express, ceux-ci ne sont pas retournés)<br />

DIRECTEUR DE LA PUBLICATION<br />

Jérémie Roboh<br />

RÉDACTION<br />

Olivier Guillon<br />

(o.guillon@mrj-corp.fr)<br />

Comité de rédaction :<br />

Raymond Buisson, Adbérafi Charki (Istia), Bernard Colomiès (Sopemea<br />

- ASTE), François Derkx (IFSTTAR), Jean-Claude Frölich (ASTE); Olivier<br />

Guillon (MRJ), Henri Grzeskowiak (HG Consultant), Michel Roger<br />

Moreau (Gamac - ASTE), Joseph Merlet (ASTE), Lambert Pierrat (LJ<br />

Consulting), Jean Paul Prulhière (Metexo), Philippe Sissoko (LCIE),<br />

Pierre Touboul (Onera)<br />

On participé à ce numéro :<br />

Mathilde Chabin (ESI Group), Laurent Ferré (Intespace), Mads<br />

Herring Jensen (Comsol), Lambert Pierrat (LJ-Consulting & LJK-<br />

LAB), David Prono (ESI Group), Roger Serra (ENI Val-de-Loire)<br />

ÉDITION<br />

Maquette et couverture :<br />

RVJ-WEB (www.rvj-web.com)<br />

PUBLICITÉ<br />

MRJ - Tél. 01 73 79 35 67<br />

Patrick Barlier - p.barlier@mrj-corp.fr<br />

Sonia Cheniti - s.cheniti@mrj-corp.fr<br />

DIFFUSION ET ABONNEMENTS<br />

Camille Laurès (abonnement@essais-siimulations.com)<br />

www.essais-simulations.com<br />

Abonnement 1 an (4 numéros) : 58 €<br />

Prix au numéro : 20 €<br />

Règlement par chèque bancaire à l’ordre de<br />

MRJ<br />

(DOM-TOM et étranger : nous consulter)<br />

Photo de couverture : COMSOL<br />

COMSOL ...............4e de couv.<br />

DB VIB ...................................2<br />

ENOVA PARIS........3e de couv.<br />

ESI GROUP ...........2e de couv.<br />

FORUM TERATEC .............35<br />

M+P INTERNATIONAL ........15<br />

MESURES & TESTS ..........16<br />

NAFEMS FRANCE ..............27<br />

OMEGA ENGINEERING .....11<br />

SOGETI ...............................37<br />

Trimestriel - N° 117<br />

Juin 2014<br />

Editeur : MRJ<br />

SARL au capital de 50 000 euros<br />

54, Boulevard Rodin - 92130 Issy les Moulineaux<br />

RCS Paris B 491 495 743<br />

TVA intracommunautaire : FR 38491495743<br />

N° ISSN : 2103-8260<br />

Dépôt légal : à parution<br />

Imprimeur : Imprimerie de Champagne<br />

Z.I. Les Franchises - 52200 Langres<br />

Toute reproduction partielle ou globale est soumise à<br />

l’autorisation écrite préalable de MRJ.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 64


De l’innovation à l’application<br />

Le salon des technologies en<br />

électronique, mesure, vision et optique<br />

BADGE GRATUIT<br />

www.enova-event.com<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 65<br />

16 -17-18 SEPTEMBRE<br />

Paris expo Porte de Versailles<br />

VISITEUR


ECHANGEUR DE CHALEUR: Modèle d’échangeur tube calandre<br />

permettant l’échange de chaleur entre eau (tube) et air (calandre).<br />

TESTEZ ET OPTIMISEZ VOS DESIGNS AVEC<br />

COMSOL MULTIPHYSICS<br />

®<br />

Nos outils de simulation multiphysique intègrent<br />

tous les effets physiques du monde réel. De ce fait, ils<br />

reproduisent avec précision le comportement de vos<br />

designs. Pour en savoir plus sur COMSOL Multiphysics,<br />

rendez-vous sur www.comsol.fr/introvideo<br />

Product Suite<br />

COMSOL Multiphysics<br />

ELECTRICAL<br />

AC/DC Module<br />

RF Module<br />

Wave Optics Module<br />

MEMS Module<br />

Plasma Module<br />

Semiconductor Module<br />

MECHANICAL<br />

Heat Transfer Module<br />

Structural Mechanics Module<br />

Nonlinear Structural Materials Module<br />

Geomechanics Module<br />

Fatigue Module<br />

Multibody Dynamics Module<br />

Acoustics Module<br />

FLUID<br />

CFD Module<br />

Mixer Module<br />

Microfl uidics Module<br />

Subsurface Flow Module<br />

Pipe Flow Module<br />

Molecular Flow Module<br />

CHEMICAL<br />

Chemical Reaction Engineering Module<br />

Batteries & Fuel Cells Module<br />

Electrodeposition Module<br />

Corrosion Module<br />

Electrochemistry Module<br />

MULTIPURPOSE<br />

Optimization Module<br />

Material Library<br />

Particle Tracing Module<br />

INTERFACING<br />

LiveLink for MATLAB ®<br />

LiveLink for Excel ®<br />

CAD Import Module<br />

ECAD Import Module<br />

LiveLink for SolidWorks ®<br />

LiveLink for SpaceClaim ®<br />

LiveLink for Inventor ®<br />

LiveLink for AutoCAD ®<br />

LiveLink for Creo Parametric<br />

LiveLink for Pro/ENGINEER ®<br />

LiveLink for Solid Edge ®<br />

File Import for CATIA ® V5<br />

© Copyright 2013–2014 COMSOL. COMSOL, COMSOL Multiphysics, Capture the Concept, COMSOL Desktop, and LiveLink are either registered trademarks or trademarks of COMSOL AB. All other trademarks are the property of their respective owners, and COMSOL AB and<br />

its subsidiaries and products are not affi liated with, endorsed by, sponsored by, or supported by those trademark owners. For a list of such trademark owners, see www.comsol.com/trademarks<br />

<strong>Essais</strong> & <strong>Simulations</strong> • JUIN 2014 • PAGE 66

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!