25.11.2020 Views

Essais & Simulations n°104-105

Dossier : Essais virtuels

Dossier : Essais virtuels

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Essais</strong><br />

virtuels<br />

Page 15 11<br />

La méthode de la flèche<br />

Page 26<br />

Applications Industrielles<br />

Mesure des pyrochocs,<br />

les limites des accéléromètres<br />

Page 30<br />

N° 104-<strong>105</strong> ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● TRIMESTRIEL ● 18 €


Cap sur le futur<br />

VOIR LE MONDE EN INFRAROUGE :<br />

NOUVEAU<br />

NOUVEAU<br />

testo 876<br />

Grand confort de prise<br />

de vue avec écran rotatif<br />

testo 882<br />

Détecteur de 320x240 pixels<br />

pour une thermographie d'expert<br />

testo 875<br />

19200 pixels et l'un<br />

des meilleurs rapport<br />

performances/prix au pixel!<br />

testo 881<br />

Une sensibilité<br />

thermique < 0.05°C<br />

CAMÉRAS THERMIQUES: TOUTE UNE GAMME DÉDIÉE INDUSTRIE<br />

Commun à l'ensemble des modèles<br />

a Un détecteur de min. 160x120 pixels<br />

a Une sensibilité thermique min. de 0.08°C<br />

a Ecran de 3.5" pour un confort d'utilisation<br />

a Adapté aux applications en maintenance<br />

préventive électrique et mécanique<br />

www.testo.fr - 03 87 29 29 29


Intespace : Jean-Claude Pasquet .......................2<br />

Entreprises & Marché<br />

Risques industriels :<br />

que risque la Tour Eiffel ?..................................4<br />

Acquisition :<br />

Alicat Scientific rachetée par Halma ...................5<br />

Événement : dans la Mesure et la Métrologie,<br />

l’union fait la force !..........................................6<br />

Coopération :<br />

Ades et MicroVu ne perdent pas le Nord ............6<br />

Distinction :<br />

KSB remporte le Grand Prix 2010<br />

de la Recherche scientifique collaborative ..........7<br />

Produits & Technologies<br />

Simulation numérique :<br />

nouvelle version de COMSOL .............................8<br />

Matériaux :<br />

nouveaux films et feuilles fins et ultrafins...........9<br />

Marché :<br />

la société stéphanoise Adetests<br />

rejoint le Groupe Emitech ..................................9<br />

Logiciels :<br />

Vasco 1.0 dédié aux essais industriels.............10<br />

Mesure acoustique :<br />

01dB-Metravib innove en Duo ..........................11<br />

Simulation numérique :<br />

nouvelle version de la plateforme<br />

OpenSource numérique SALOME......................12<br />

Optimisation :<br />

tests et analyse dynamique des systèmes<br />

logiciels embarqués ........................................13<br />

Extensométrie<br />

L’interview<br />

Actualités<br />

Avis d’experts<br />

Méthode de la flèche : détermination des<br />

contraintes résiduelles sur pièces de forte<br />

épaisseur. Partie 1 : rappel du principe<br />

de la méthode ................................................26<br />

Applications industrielles<br />

Mesure des pyrochocs :<br />

les limites des accéléromètres ........................30<br />

Chocs et vibrations : apport de la simulation<br />

lors d’un essai de qualification ........................34<br />

Expérimentation : tolérance aux dommages<br />

et machine d’impacts, un moyen original<br />

développé par Astrium.....................................38<br />

La vie de l’Aste<br />

Dossier<br />

<strong>Essais</strong> virtuels<br />

Les essais virtuels : pour quoi faire ? .............15<br />

Virtualisation des essais CEM en phase amont :<br />

des essais de validation plus robustes,<br />

des taux de réussite améliorés<br />

et la transversalité d’exploitation optimisée .....16<br />

Aerospace :<br />

Virtual Vibration Test System for the Satellite...21<br />

Outils<br />

Compte rendu colloque d’Astelab 2010............42<br />

Fusion du GAMAC au sein de l’ASTE ................45<br />

Agenda....................................................46<br />

Formations ..........................................47<br />

Répertoire des annonceurs .............................48<br />

ESSAIS & SIMULATIONS est la revue partenaire<br />

exclusive de l’ASTE (Association pour le<br />

développement des sciences et techniques<br />

de l’environnement).<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 1


Intespace<br />

Jean-Claude Pasquet<br />

Au sein de la société Intespace depuis 30 ans, Jean-Claude Pasquet a<br />

exercé de multiples fonctions pour être aujourd’hui directeur adjoint de<br />

l’entreprise. Fort de cette expérience unique, il propose un regard très<br />

lucide sur le monde des essais et sur sa virtualisation.<br />

Curriculum vitae<br />

Quelles sont vos activités au sein<br />

d’Intespace ?<br />

Jean-Claude Pasquet : Mon activité principale<br />

est orientée vers l’acquisition<br />

d’affaires dans nos trois domaines d’activité<br />

:<br />

- les essais dans les secteurs du spatial,<br />

de l’aéronautique et de la défense.<br />

Nous couvrons les essais mécaniques<br />

(vibrations, acoustique et chocs), thermiques<br />

(vide thermique et climatique)<br />

et CEM/radio-fréquence ;<br />

“<br />

Un soutien technique<br />

auprès de mes équipes<br />

afin de retransmettre<br />

l’expérience acquise.<br />

”<br />

- l’ingénierie d’essais et l’ingénierie de<br />

centres d’essais & de moyens ;<br />

- DynaWorks : nous sommes éditeur de<br />

ce logiciel qui permet la gestion et l’analyse<br />

des résultats de simulations et<br />

d’essais.<br />

J’ai également la responsabilité de la<br />

direction essais, en charge de l’exécution<br />

des essais.<br />

Nous sommes une filiale d’Astrium, qui<br />

est aussi notre premier<br />

client.<br />

“<br />

Quel est votre quotidien<br />

?<br />

Jean-Claude Pasquet : C’est<br />

le management d’équipes<br />

(commerciale et technique)<br />

afin de répondre à la satisfaction de nos<br />

clients. J’effectue également des actions<br />

commerciales et de lobbying auprès de<br />

nos principaux clients.<br />

Mon quotidien, c’est aussi un soutien<br />

technique auprès de mes équipes afin<br />

de retransmettre l’expérience acquise.<br />

Quelle est votre spécialité technique<br />

?<br />

Jean-Claude Pasquet : Je me suis<br />

spécialisé dans les essais mécaniques<br />

et de vide thermique. Ainsi, au début<br />

de ma carrière, j’ai été chef de projet<br />

de moyens de vibrations systèmes et<br />

chargé de l’évolution de nos caissons<br />

de vide thermique. Aujourd’hui, je<br />

consacre la majorité de mes activités<br />

au management et au pilotage opérationnel<br />

de l’entreprise.<br />

Comment les essais virtuels sontils<br />

considérés aujourd’hui ?<br />

Jean-Claude Pasquet : C’est vrai que<br />

l’on n’en parlait pas beaucoup il y a<br />

dix ans. Mais compte tenu de la<br />

complexité des essais actuels et des<br />

coûts associés, les essais virtuels sont<br />

de plus en plus présents. Une prise de<br />

conscience a eu lieu et elle a permis le<br />

développement de la simulation, ce que<br />

l’on appelle aussi le virtual testing. Ce<br />

type de simulation s’inscrira dans le<br />

process de qualification des spécimens<br />

afin d’optimiser les tests et de démontrer<br />

la faisabilité de certains essais.<br />

J’ai eu beaucoup de chance<br />

de travailler au moment où<br />

le spatial européen débutait.<br />

”<br />

Ces essais virtuels peuvent à la fois<br />

influencer les méthodes d’essais et les<br />

plans de qualification d’un équipement.<br />

La simulation permet également de s’assurer<br />

de la faisabilité d’un essai réel et<br />

DR<br />

Jean-Claude Pasquet<br />

Né le 24 juillet 1955<br />

Directeur adjoint et membre du conseil<br />

d’administration d’Intespace, en charge<br />

des business acquisitions et responsable<br />

des essais.<br />

Formation<br />

Ingénieur mécanique diplômé de l’INSA<br />

de Toulouse et diplômé de l’Institut français<br />

de gestion en management et gestion<br />

d’entreprise.<br />

Parcours professionnel<br />

1979-1988 : ingénieur chez Sopemea (qui<br />

deviendra Intespace en 1983), responsable<br />

du département ingénierie de centres et<br />

de moyens d’essais.<br />

1988-1992 : responsable du département<br />

d’essais de simulation spatiale, Intespace.<br />

1992-2004 : responsable de la sousdirection<br />

des essais, Intespace.<br />

2004-2008 : directeur technique et<br />

commercial, Intespace.<br />

Depuis 2008 : directeur adjoint et membre<br />

du conseil d’administration, Intespace.<br />

Autres activités<br />

1997 : mise en place du consortium<br />

COMET, en charge de l’exploitation et de<br />

la maintenance des moyens d’essais de<br />

l’agence spatiale européenne.<br />

2000 : mise en place de la filiale ETS (European<br />

Tests Services) aux Pays-Bas, en<br />

charge des moyens d’essais de l’ESA et<br />

membre du conseil d’administration de<br />

celle-ci.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 2


“<br />

Les essais virtuels peuvent<br />

à la fois influencer<br />

les méthodes d’essais<br />

et les plans de qualification<br />

d’un équipement.<br />

”<br />

de proposer à nos clients une analyse plus précise des essais,<br />

et notamment de connaître l’impact du moyen d’essais sur les<br />

résultats d’essais.<br />

À Intespace, nous travaillons sur ces simulations et notamment<br />

sur l’établissement des modèles de nos moyens. Nous<br />

effectuons les comparaisons par rapport aux essais réels pour<br />

qualifier nos modèles. Notre équipe de R&D investit beaucoup<br />

dans ce domaine.<br />

Quelle est la plus grande satisfaction de votre carrière ?<br />

Jean-Claude Pasquet : En tant qu’ingénieur, j’ai eu la satisfaction<br />

de pouvoir travailler dans des domaines très variés et<br />

touchant des secteurs très techniques en liaison avec l’activité<br />

spatiale.<br />

J’ai également eu beaucoup de chance de travailler au moment<br />

où le spatial européen débutait et j’ai ainsi pu participer à tout<br />

le développement de ce secteur, notamment avec la filière<br />

Ariane.<br />

En trente ans, nous sommes passés de “l’artisanat” à l’industrialisation<br />

du secteur spatial, nous avons pris le virage et<br />

avons abandonné notre laboratoire d’essais pour construire<br />

un centre d’essais industriel, leader dans le secteur des essais<br />

spatiaux européens.<br />

Enfin, j’ai l’impression qu’il y aura d’autres sources de satisfaction<br />

dans mon activité, car Intespace se diversifie et s’ouvre<br />

de plus en plus à l’aéronautique et à la défense.<br />

Notre partenariat avec DGA-TA nous a permis notamment de<br />

gagner les essais statiques et dynamiques de l’A350.<br />

Des moyens d’essais sont en cours de développement<br />

et permettront de réaliser les essais sur l’avion complet<br />

en 2012 ●<br />

Propos recueillis<br />

par Nicolas Gosse<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 3


Risques industriels<br />

Que risque la Tour Eiffel ?<br />

Dans le cadre de son offre concernant la prévention des risques et la<br />

prolongation des infrastructures, le Cetim a ausculté la Tour Eiffel grâce<br />

au numérique.<br />

La Dame de Fer est née en 1889 pour l’Exposition<br />

universelle qui se tenait à Paris. Installation<br />

temporaire, elle est encore aujourd’hui<br />

sur pied et a même gagné 25 mètres avec<br />

ses antennes, pour atteindre maintenant la<br />

hauteur de 325 mètres.<br />

Elle affiche une masse de 11 700 tonnes,<br />

dont 7 300 de charpente métallique. Elle est<br />

composée de 2 millions et demi de rivets et<br />

de plus de 18 000 éléments en acier puddlé.<br />

Depuis 2005, c’est la Sete (Société d’exploitation<br />

de la Tour Eiffel) qui exploite la<br />

Tour et veille à sa pérennité.<br />

Un modèle numérique<br />

comme référentiel<br />

La Sete s’est donc lancée dans l’élaboration<br />

d’un schéma directeur de maintenance<br />

avec le souhait de disposer d’un référentiel<br />

d’aide à la décision. Pour répondre à<br />

cette demande, le Cetim a alors proposé<br />

un ensemble d’actions intégrant notamment<br />

l’élaboration d’un modèle numérique<br />

du monument.<br />

Ce projet a mobilisé une équipe pluridisciplinaire<br />

de 6 ingénieurs et techniciens<br />

pendant 14 mois. Il comprend différentes<br />

phases de travail de terrain, de laboratoire<br />

et de modélisation rassemblant des spécialistes<br />

des matériaux, de calcul et simulation.<br />

Premier résultat de cette investigation : la<br />

Tour Eiffel est bien conçue ! C’est ce que<br />

montrent distinctement les simulations<br />

numériques obtenues.<br />

Un outil pour l’avenir<br />

Avec la réalisation de cet ensemble d’actions,<br />

la Sete dispose désormais d’un<br />

modèle numérique de la Tour dans sa configuration<br />

actuelle.<br />

Ce modèle prend notamment en compte le<br />

vent, les contraintes thermiques ou encore<br />

les charges d’exploitation.<br />

DR<br />

Le modèle numérique complet<br />

de la Tour Eiffel permet de simuler<br />

les changements de comportements<br />

afin d’adapter au mieux les opérations<br />

de maintenance.<br />

Les résultats permettent de mettre en<br />

évidence les zones fortement sollicitées et<br />

de réaliser des zooms numériques locaux<br />

afin de connaître avec précision l’état de<br />

contrainte.<br />

En fonction de scénarios de maintenance<br />

envisagés, des simulations complémentaires<br />

peuvent être réalisées pour examiner<br />

les conséquences sur la structure. Tous<br />

ces résultats numériques permettent de<br />

préciser et de compléter les orientations<br />

du schéma directeur de maintenance.<br />

L’offre du Cetim<br />

Les méthodes utilisées<br />

Pour parvenir à ce constat, les experts<br />

travaillant sur la Tour ont d’abord procédé<br />

à une évaluation de la structure (caractérisation<br />

des aciers par le biais d’analyses<br />

chimiques, d’examens micrographiques et<br />

d’essais mécaniques). Puis, il a fallu passer<br />

à la collecte des informations. Ensuite, c’est<br />

la modélisation numérique proprement dite<br />

(confronter les résultats de l’évaluation de la<br />

structure aux données existantes sous<br />

formes de plans ou de notes). La modélisation<br />

s’appuie sur la méthode des éléments<br />

finis, méthode mathématique conçue pour<br />

résoudre des problèmes de physique ou plus<br />

généralement des équations différentielles<br />

avec conditions aux limites. On décompose<br />

la structure en éléments “simples” auxquels<br />

on applique des lois de comportement.<br />

Enfin, c’est la simulation. Sur la base du<br />

modèle numérique filaire complet ainsi<br />

obtenu, on peut alors simuler le comportement<br />

de la structure en fonction des efforts<br />

qu’on lui applique. On peut également<br />

simuler les conséquences de modifications.<br />

C’est ainsi que les gens de la Tour Eiffel se<br />

sont voulus rassurants. Même si on l’ampute<br />

d’un pied, la Tour tient encore debout…<br />

Afin de mieux maîtriser les risques liés au vieillissement des équipements industriels français,<br />

un plan d’action a d’ailleurs été élaboré et présenté en début d’année par le ministre d’État,<br />

Jean-Louis Borloo, et Chantal Jouanno, secrétaire d’État chargée de l’Écologie. Fort de<br />

plus de 40 ans d’expérience dans l’expertise et l’analyse d’avaries, le Cetim rassemble<br />

aujourd’hui ses savoir-faire au sein d’une offre spécifiquement dédiée à la prévention des<br />

risques et à la prolongation des infrastructures. Il propose ainsi d’accompagner les exploitants<br />

dans leur démarche pour assurer la maîtrise de l’exploitation en toute sécurité, pour anticiper<br />

les défaillances des infrastructures et pour mettre en place un schéma directeur de<br />

maintenance à partir d’un diagnostic approfondi. Le Cetim évalue la sécurité en exploitation<br />

et la durée de vie résiduelle d’un équipement et propose un diagnostic de sa conformité<br />

réglementaire, ainsi que des audits ou des prescriptions de programmes de maintenance<br />

et de surveillance. Sécurité réglementaire, comportement des matériaux métalliques ou<br />

composites, conception et dimensionnement, technologies d’exécution et procédés<br />

d’assemblage, contrôle et essais, modes de défaillance en service (rupture fragile, fatigue,<br />

mécanique de la rupture, corrosion)… sont passés au crible.<br />

N. G.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 4


Acquisition<br />

Alicat Scientific<br />

rachetée par Halma<br />

Le fabricant d’instruments intègre le groupe de technologie de fluides<br />

d’une société multinationale d’Halma.<br />

DR<br />

Alicat Scientific, le fabricant de matériels<br />

de technologie de débit massique et de<br />

pression, a été racheté par Halma, le<br />

leader des matériels de sécurité, de<br />

santé et de capteurs. Alicat intégrera le<br />

groupe international de fabricants de<br />

technologie des fluides d’Halma.<br />

Fondée en 1991, Alicat a été un pionnier<br />

dans l’utilisation de la mesure de la différence<br />

de pression dans ses produits,<br />

accélérant les temps de réponse et les<br />

multipliant par 1000 par rapport à la<br />

technologie de mesure concurrente<br />

basée sur la température.<br />

Les appareils de débit massique de la<br />

société sont utilisés dans l’instrumentation<br />

scientifique et médicale, ainsi que<br />

dans des applications industrielles<br />

spécialisées. Ses produits comprennent<br />

des compteurs et des contrôleurs<br />

massiques et de débits de liquides, des<br />

contrôleurs de pression, des jauges de<br />

pression et de vide digitales, des débitmètres<br />

portables, des normes d’étalonnage<br />

ainsi que des logiciels et des<br />

accessoires.<br />

Halma est une société holding de 36 filiales<br />

internationales qui développent et<br />

fabriquent des produits pour améliorer<br />

la qualité de la vie.<br />

Les groupes d’entreprises de la société<br />

se concentrent sur la sécurité industrielle,<br />

la santé, l’analyse et les capteurs<br />

Les produits Alicat Scientific intègrent<br />

désormais la société Halma.<br />

d’infrastructures. Alicat intègre le secteur<br />

de la technologie des fluides du<br />

groupe d’entreprise du secteur santé<br />

et analyses.<br />

Ces marques établies fabriquent des<br />

composants critiques tels que des pompes,<br />

des sondes, des valves, des connecteurs<br />

et des tubes utilisés par des<br />

fabricants d’instruments scientifiques,<br />

environnementaux et de diagnostics<br />

médicaux, pour les applications rigoureuses<br />

de manipulation des fluides.<br />

Halma rachète habituellement des entreprises<br />

dans des marchés qu’elle connaît<br />

ou dans des secteurs très proches. Alicat<br />

partage un grand nombre de clients clés<br />

et de créneaux de marché avec ses<br />

nouvelles sociétés sœurs que sont<br />

Bio-Chem Fluidics, Diba Industries et<br />

Perma Pure. Le rachat d’Alicat et de ses<br />

technologies complémentaires permettra<br />

de créer des opportunités de collaboration<br />

technique et commerciale, alors<br />

qu’Halma continue de se développer<br />

dans ce secteur.<br />

« La société Alicat essayait de gagner<br />

des parts de marché sur des organisations<br />

bien plus grandes ayant des<br />

moyens bien plus importants, explique<br />

le président d’Alicat, David Lashbrook.<br />

En nous joignant à Halma, nous aurons<br />

accès à des ressources tangibles qui<br />

nous permettront de gagner des parts<br />

de marché. Les ressources intellectuelles<br />

d’Halma en termes d’expérience organisationnelle<br />

et de gouvernance d’entreprise<br />

permettront à Alicat d’établir une<br />

structure d’entreprise simplifiée. […] La<br />

présence globale d’Halma permettra à<br />

Alicat de se servir de cette stratégie dans<br />

de nouveaux marchés internationaux,<br />

avec un minimum de risques. »<br />

www.alicatscientific.com<br />

www.halma.com<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 5


Événement<br />

Dans la Mesure et la Métrologie…<br />

L’union fait la force !<br />

Mesurexpovision et le Congrès international de métrologie seront organisés<br />

conjointement du 3 au 6 octobre 2011 à Paris, Porte de Versailles.<br />

Les organisateurs du Congrès international<br />

de métrologie et de Mesurexpovision<br />

ont décidé d’unir leurs efforts pour<br />

créer un évènement de dimension européenne<br />

consacré à leurs activités.<br />

Rappelons que Mesurexpovision est un<br />

salon de référence pour les professionnels<br />

de la mesure, du test et des solutions<br />

de vision en France.<br />

Le Congrès international de métrologie<br />

quant à lui, unique en Europe, est le lieu<br />

d’échanges techniques entre tous les<br />

acteurs du monde de la mesure :<br />

experts, organismes, fabricants et utilisateurs<br />

industriels.<br />

Ces deux évènements orientés l’un vers<br />

le business et l’autre vers le partage<br />

d’expériences et l’expertise se sont<br />

parfois trouvés en concurrence directe.<br />

Aujourd’hui et après plusieurs années de<br />

négociations, leurs organisateurs (le<br />

Collège français de métrologie et GL<br />

events exhibitions) ont mis en évidence<br />

les nombreuses synergies existantes et<br />

trouvé les bases d’un accord pérenne.<br />

Le Congrès va conserver son haut niveau<br />

de contenu et bénéficier de l’attractivité<br />

du Salon et de l’offre très étendue qui y<br />

est présentée. De nombreux acteurs,<br />

utilisateurs, chercheurs et industriels qui<br />

devaient parfois faire un choix entre les<br />

deux manifestations pourront désormais<br />

les trouver réunies.<br />

Ce rassemblement est ainsi l’occasion<br />

de proposer à l’ensemble de la profession,<br />

sur un même lieu et aux mêmes<br />

dates, une offre économique et responsable,<br />

cohérente et complète.<br />

Le rapprochement permet aussi de créer<br />

un ensemble de manifestations destiné<br />

à devenir une référence européenne de<br />

la mesure et de la métrologie et ses<br />

organisateurs attendent une croissance<br />

significative de chacune des composantes.<br />

Le montage est ambitieux, et c’est un<br />

événement en soi dans le milieu de la<br />

mesure. Il a aussi une vocation durable<br />

et doit ainsi répondre aux attentes de<br />

tous.<br />

Coopération<br />

Ades et MicroVu<br />

ne perdent pas le Nord<br />

Ades et MicroVu ont annoncé lors des rencontres industrielles de<br />

Maubeuge leur accord de coopération technique et commerciale destiné<br />

à proposer une solution globale aux industriels de la région Nord.<br />

Après la signature d’un accord de coopération<br />

avec Altimet, MicroVu Europe<br />

continue sa politique de partenariat.<br />

C’est désormais avec Ades, laboratoire<br />

spécialisé en métrologie dimensionnelle,<br />

qu’un accord a été trouvé.<br />

Pour Christian Moreau, président de MicroVu<br />

Europe : « l’une des clés de notre succès<br />

est notre volonté de toujours axer notre<br />

développement sur la proximité, le suivi et<br />

le service offerts à nos clients […]. Depuis<br />

2009, nous avons décidé de renforcer<br />

encore cette stratégie, véritable vecteur<br />

de différenciation dans notre métier. Nous<br />

avons mis en place des partenariats<br />

avec des laboratoires de métrologie très<br />

implantés régionalement et reconnus pour<br />

la qualité de leur expertise et service. »<br />

C’est donc Ades qui bénéficie de cette stratégie<br />

dans la région Nord. « Le choix de<br />

travailler ensemble est venu naturellement<br />

tellement notre organisation, notre métier<br />

et notre façon d’appréhender notre relation<br />

client sont proches et complémentaires »,<br />

continue-t-il.<br />

Côté Ades, la présidente Marie-Christine<br />

Moretti explique quant à elle que sa<br />

société « a souhaité élargir son offre de<br />

mesure sur des volumes de pièces de<br />

petites dimensions par vision et palpage<br />

en concordance avec la demande de ses<br />

clients. » Les deux sociétés se sont donc<br />

entendues et ont pu répondre aux<br />

exigences mutuelles.<br />

Cet accord devrait apporter une solution<br />

globale pour le contrôle qualité avec un<br />

seul interlocuteur présent localement<br />

et s’appuyant sur un fabricant mondial.<br />

Ades apportera à MicroVu l’expertise et<br />

la cohérence avec la normalisation.<br />

En effet, Olivier Moretti siège au sein de<br />

différentes commissions sur ce sujet<br />

(AFNOR, UNM, BNAE) et il est animateur<br />

du groupe de travail WG10 de la TC213<br />

à l’ISO, notamment sur la série des<br />

normes NF EN ISO 10360 “Réception<br />

des machines à mesurer tridimensionnelles”.<br />

MicroVu apportera l’innovation<br />

et le développement selon les besoins<br />

des clients industriels d’Ades.<br />

www.ades-metrology.com<br />

www.microvueurope.com<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 6


Distinction<br />

KSB remporte le Grand Prix 2010<br />

de la Recherche scientifique<br />

collaborative<br />

Le Grand Prix scientifique, décerné tous les deux ans par le Stifterverband<br />

für die Deutsche Wissenschaft (Fondation de donateurs en faveur<br />

de la science allemande), récompense d’éminents projets de recherche<br />

collaborative dans le domaine des sciences appliquées. Cette année,<br />

c’est KSB qui a remporté le prix.<br />

Ces projets s’inscrivent toujours dans le<br />

cadre de coopérations entre les Instituts<br />

Fraunhofer (1) et des entreprises. Cette<br />

année, KSB, constructeur de pompes, de<br />

robinetterie et de systèmes, figure parmi<br />

les partenaires industriels récompensés.<br />

Lors d’une cérémonie qui a eu lieu à<br />

Leipzig, KSB a reçu le prix des mains de<br />

la ministre fédérale de la Formation et de<br />

la Recherche, Annette Schavan.<br />

Diamant et céramique<br />

Le projet récompensé visait à développer<br />

et à tester un nouveau matériau composite<br />

extrêmement résistant, basé sur deux<br />

éléments éprouvés : le diamant et la céramique.<br />

La combinaison de ces deux matériaux<br />

permet de fabriquer de nouveaux<br />

produits offrant de meilleures performances<br />

et une rentabilité accrue par rapport<br />

aux produits actuels. Des chercheurs d’un<br />

Institut Fraunhofer ont ainsi recouvert des<br />

composants en céramique d’une infime<br />

couche de diamant.<br />

KSB a joué un rôle important en tant que<br />

partenaire industriel disposant d’équipements<br />

de production et d’essais. Pour<br />

répondre aux attentes très élevées de ses<br />

clients en matière de longévité des pompes,<br />

KSB propose depuis longtemps des paliers<br />

lisses en céramique présentant d’excellentes<br />

caractéristiques de fonctionnement<br />

et une résistance absolue à l’usure. Des<br />

difficultés surviennent toutefois souvent<br />

lorsque l’exploitation des installations n’est<br />

pas conforme aux consignes de la notice<br />

de service. Il peut s’agir, par exemple, de<br />

problèmes de lubrification insuffisante ou<br />

de marche à sec des paliers. C’est exactement<br />

dans ces conditions défavorables<br />

que KSB a testé les nouveaux composants<br />

de pompe en céramique avec revêtement<br />

diamant. Résultat : avec le nouveau matériau<br />

composite développé par les chercheurs<br />

de l’Institut Fraunhofer, les composants<br />

soumis à de fortes sollicitations résistent<br />

nettement plus longtemps.<br />

Dans le cadre d’un test d‘endurance en<br />

conditions réelles d’exploitation, les spécialistes<br />

KSB en ingénierie des matériaux<br />

observent actuellement le comportement<br />

d’une pompe équipée de composants en<br />

céramique à revêtement diamant. Le<br />

constructeur se montre confiant et s’attend<br />

à ce que ce test vienne corroborer les résultats<br />

déjà obtenus jusqu’ici. Grâce à ces<br />

nouveaux composants, KSB peut proposer<br />

à ses clients des produits hautement<br />

fiables pour des applications spéciales.<br />

Ainsi, même dans des conditions défavorables,<br />

les pompes garantissent de longues<br />

années d’exploitation.<br />

Les pièces fabriquées dans ce nouveau<br />

matériau composite peuvent être montées<br />

sans problème sur des pompes existantes,<br />

en remplacement des mêmes pièces de<br />

composition “classique”. Ainsi, l’exploitant<br />

pourra, à moindre frais, augmenter durablement<br />

la longévité et l’efficacité de son<br />

parc de groupes motopompes.<br />

www.ksb.com<br />

(1) Les Instituts Fraunhofer sont au nombre<br />

de 57 répartis sur 40 sites à travers<br />

l’Allemagne, chacun spécialisé dans un<br />

domaine de recherche particulier. Ils<br />

emploient au total 13 000 personnes, ce<br />

qui fait de ce réseau l’un des principaux<br />

organismes de recherche au niveau<br />

international. Leur financement est assuré<br />

en partie par l’État, mais les deux tiers du<br />

budget proviennent de contrats de<br />

recherche passés avec des industriels.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 7


Simulation numérique<br />

Nouvelle version de COMSOL<br />

COMSOL version 4.1 a été présenté lors de la conférence COMSOL de<br />

Paris. Cette version se concentre sur la productivité.<br />

COMSOL a révélé à Paris une préversion<br />

de son environnement de modélisation<br />

et de simulation multiphysique, COMSOL<br />

Multiphysics version 4.1. Des licences<br />

d’évaluation ont été distribuées aux participants<br />

lors de la 6 e conférence annuelle<br />

COMSOL à Paris, les 17-19 novembre.<br />

La productivité est le point majeur de<br />

cette version 4.1. Cette version s’appuie<br />

sur les ruptures d’architecture de la version<br />

4 et propose des dizaines de caractéristiques<br />

nouvelles qui rendent le processus<br />

de modélisation et de simulation<br />

plus efficace.<br />

« La version 4.1 rendra nos utilisateurs<br />

immédiatement plus productifs. L’ajout<br />

du copier/coller et de duplication des<br />

caractéristiques de l’arbre du modèle<br />

implique que celui-ci peut être modifié et<br />

étendu facilement et rapidement. C’est<br />

une façon efficace d’éviter les tâches<br />

répétitives inutiles », commente le VP of<br />

Product Management Bjorn Sjodin.<br />

Une modélisation intuitive<br />

Les principales mises à jour de la version<br />

4.1 concernent le Model Builder et<br />

rendent le processus de modélisation<br />

et de simulation plus intuitif. En particulier,<br />

les possibilités de copier/coller<br />

ou de dupliquer les fonctionnalités de<br />

l’arbre du modèle simplifient la mise en<br />

place de séquences de simulation, pour<br />

la définition de fonctions, la sélection<br />

de géométries, de graphiques, et pour<br />

créer de nouvelles images ou de nouvelles<br />

analyses.<br />

Des résultats de simulation<br />

plus rapidement<br />

Caractéristiques majeures de la version 4.1<br />

- Mise en place rapide des modèles grâce aux fonctionnalités de copier/coller des nœuds de<br />

l’arbre du modèle ;<br />

- sauvegarde et recouvrement automatique des modèles ;<br />

- affichage des équations résolues ;<br />

- de nouveaux outils pour construire des CAO ;<br />

- courbes paramétrées en 2D et 3D ;<br />

- extrusion 3D à partir des courbes paramétrées ;<br />

- maillage automatisé et optimisé en fonction de la physique pour la CFD et les plasmas ;<br />

- interruption et reprise du calcul par simple clic ;<br />

- graphiques en coordonnées polaires ;<br />

- courants électriques en milieu poreux dans le module AC/DC ;<br />

- le module Batteries and Fuel Cells propose une nouvelle interface pour les batteries au plomb ;<br />

- le module CFD propose un modèle supplémentaire de turbulence Spalart-Allmaras.<br />

DR<br />

Le Model Builder de COMSOL accroît<br />

sa productivité grâce à de nombreuses<br />

améliorations tout au long<br />

du processus de modélisation<br />

et de simulation.<br />

Une nouvelle caractéristique de maillage<br />

a vu le jour dans la version 4.1 : un<br />

maillage automatisé contrôlé par la physique,<br />

ce qui facilite le travail des utilisateurs<br />

et réduit le temps nécessaire à<br />

l’élaboration d’un maillage efficace.<br />

Implémenté tout d’abord pour les interfaces<br />

physiques de CFD et de plasma,<br />

le maillage est défini automatiquement<br />

en fonction de la physique. Par exemple,<br />

les interfaces d’écoulement spécifient<br />

un maillage de frontière fin proche<br />

des parois et un maillage plus lâche<br />

dans le volume de l’écoulement.<br />

La nouvelle fonctionnalité de maillage<br />

contrôlé par la physique de COMSOL<br />

adapte la taille et le type de maillage<br />

selon les prérequis de la physique en<br />

jeu. La figure montre un maillage optimisé<br />

et généré automatiquement pour<br />

une simulation CFD, avec des éléments<br />

en forme de prisme (gris), d’hexaèdre<br />

(cyan) et de pyramide (rouge). Le volume<br />

restant (non montré) est maillé en<br />

éléments tétraèdres.<br />

COMSOL Multiphysics version 4.1 introduit<br />

également des outils robustes de<br />

gestion des jobs de calcul. La sauvegarde<br />

et le recouvrement automatiques des modèles<br />

durant la résolution interviennent<br />

même en cas d’arrêt inopiné. Intéressant<br />

quand une simulation dure plusieurs<br />

jours ! Et pratique dans n’importe quelle<br />

simulation, pour arrêter et relancer le calcul<br />

quand l’utilisateur le souhaite.<br />

Suivant sa tradition de transparence,<br />

COMSOL 4.1 montre dans les interfaces<br />

physiques les équations résolues.<br />

En géométrie, un nouvel outil intervient<br />

pour générer des courbes paramétrées.<br />

Rendre les résultats de<br />

simulation compréhensibles<br />

La version 4.1 propose des outils pour<br />

faciliter la représentation et la communication<br />

des résultats de simulation.<br />

Les simulations temporelles sont ainsi<br />

analysables en fréquence, au travers<br />

d’une transformée de Fourier rapide<br />

(FFT). Les graphiques en coordonnées<br />

polaires sont utilisables pour montrer<br />

par exemple le rayonnement d’une<br />

antenne selon l’angle et le rayon. Des<br />

grandeurs prédéfinies sont disponibles,<br />

telles que le maximum, le minimum, les<br />

moyennes ou les intégrales en temps<br />

et en espace de toutes les grandeurs<br />

physiques calculées.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 8


Matériaux<br />

Nouveaux films<br />

et feuilles fins et ultrafins<br />

Goodfellow propose des centaines de films polymères et plus d’un millier de<br />

feuilles métalliques en petites quantités dédiés à des applications dans le domaine<br />

de la recherche et du développement de prototypes pour l’industrie.<br />

DR<br />

Depuis 40 ans, Goodfellow fournit une<br />

vaste gamme de métaux et matériaux en<br />

petites quantités (métaux purs, alliages,<br />

céramiques, polymères…) pour répondre<br />

aux besoins de la R&D et de la production<br />

spécialisée dans le domaine de la<br />

science et de l’industrie dans le monde<br />

entier. Pour compléter ses activités aux<br />

États-Unis et en Europe, la compagnie<br />

est également présente en Chine et au<br />

Goodfellow élargit sa gamme<br />

de matériaux avec des films polymères<br />

et des feuilles de métal.<br />

Japon. C’est dans cet environnement que<br />

la société propose à présent des<br />

centaines de films polymères et plus d’un<br />

millier de feuilles métalliques.<br />

Cette gamme de matériaux comprend :<br />

- des films polymères allant jusqu’à<br />

0,0005 mm d’épaisseur ;<br />

- des films polymères métallisés allant<br />

jusqu’à 0,002 mm d’épaisseur ;<br />

- des feuilles de métal entre 0,0005 mm<br />

et 2,0 mm d´épaisseur ;<br />

- des microfeuilles ultrafines (de 0,01 micron<br />

à 1,0 micron) : feuilles de métal<br />

montées sur un support amovible ;<br />

- des microfeuilles ultrafines (de 0,25 micron<br />

à 1,0 micron) : feuilles de métal<br />

montées sur un support permanent.<br />

En plus des films et feuilles, Goodfellow<br />

est à même de fournir d’autres formes<br />

de polymères et de métaux ainsi que des<br />

céramiques, des composites et des<br />

composés intermétalliques.<br />

www.goodfellow.fr<br />

Marché<br />

La société stéphanoise Adetests<br />

rejoint le Groupe Emitech<br />

Issu du Groupe Montblanc Technologies, le laboratoire Adetests est devenu<br />

début septembre la seconde filiale du Groupe Emitech après Eurocem.<br />

Situé à Saint-Étienne (42), Adetests est<br />

spécialisé dans les essais en environnement<br />

et réalise couramment des qualifications<br />

selon des normes telles que<br />

RTCA DO160, MIL-STD, GAM EG13, NF<br />

EN 60068...<br />

Cette opération renforce globalement<br />

l’offre nationale d’Emitech avec trois<br />

laboratoires pouvant accueillir les qualifications<br />

climatiques et mécaniques :<br />

Versailles (78), Angoulême (16) et Saint-<br />

Étienne (42).<br />

Doté d’un fort potentiel de développement,<br />

ce onzième centre du Groupe Emitech<br />

accueillera prochainement un renforcement<br />

de ses moyens d’essais et proposera dès<br />

le printemps 2011 des formations en vibration<br />

et acoustique en complément de ses<br />

prestations d’ingénierie.<br />

www.adetests.fr<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 9


Logiciels<br />

Vasco 1.0 dédié aux essais industriels<br />

La société Nérys a lancé à l’occasion du salon MesurexpoVision un logiciel<br />

dédié aux essais industriels, Vasco 1.0, capable de tester et de<br />

valider toute une palette d’équipements.<br />

Les équipements capables de passer<br />

entre les octets du logiciel Vasco vont du<br />

plus simple, comme un disjoncteur, au<br />

plus complexe, tel un turboréacteur<br />

d’avion de chasse. Le logiciel permet à<br />

ses utilisateurs de répondre aux normes<br />

tout en simplifiant leur tâche. Grâce à<br />

son architecture évolutive, ils réalisent<br />

eux-mêmes les développements liés à<br />

leur métier.<br />

Doté d’une architecture modulaire et<br />

basé sur l’environnement de développement<br />

graphique Labview et sur un<br />

système de gestion de base de données<br />

MySQL, Vasco est totalement ouvert,<br />

paramétrable, personnalisable et évolutif.<br />

Il offre à l’utilisateur la possibilité<br />

d’ajouter lui-même ses développements<br />

spécifiques ou de configurer un système<br />

clés en main, au rythme de l’évolution<br />

de ses besoins, réduisant ainsi de façon<br />

très significative le coût de sa plateforme<br />

d’essais. Vasco traite des fonctions multiples<br />

comme l’acquisition de données<br />

dynamique, la supervision de process,<br />

le contrôle-commande, la régulation, le<br />

séquencement d’essais. Son objectif est<br />

de permettre aux utilisateurs de répondre<br />

à des normes, de comprendre le comportement<br />

des équipements, de contrôler la<br />

qualité et le fonctionnement d’un produit<br />

fini tout en assurant la traçabilité des<br />

essais et des données enregistrées.<br />

3 modules principaux<br />

Le logiciel Vasco est composé de trois<br />

modules principaux.<br />

Le premier concerne la “configuration” et<br />

permet à l’utilisateur de créer son environnement<br />

d’essais. Ce dernier peut ajouter<br />

ou supprimer des voies de mesure, du<br />

matériel, configurer la base de données<br />

capteur selon ses choix d’étalonnage et<br />

d’historique, paramétrer des fréquences<br />

d’échantillonnage ou de calcul, créer des<br />

interfaces hommes/machines, des fonctions<br />

de calcul ou de sécurité, ou encore<br />

gérer les droits d’accès des utilisateurs.<br />

Sans développement logiciel, les fonctionnalités<br />

offertes par ce module concernent<br />

donc la gestion des essais (création de<br />

configurations réutilisables), les paramètres<br />

de l’acquisition (fréquences d’échantillonnage,<br />

fréquences de calcul, profondeurs<br />

des buffers…), l’ajout/suppression de matériels,<br />

de voies, d’interfaces hommes/machines<br />

ou de calculs temps réel et<br />

tendances (sauf Compact-RIO), les paramètres<br />

équipements et banc (traçabilité<br />

sur le produit testé ou sur le moyen d’essais),<br />

la base de données capteurs (gestion<br />

d’étalonnage, de la validité et de l’historique<br />

capteur), la gestion des utilisateurs<br />

(droits d’accès).<br />

Ensuite, un module “essais” réalise l’acquisition<br />

de données (compatible avec<br />

toutes les cartes National Instruments liées<br />

au driver NI-DaqmX), surveille les seuils<br />

et déclenche alarmes et arrêts, effectue<br />

les calculs temps réel, génère des tableaux<br />

de bord, des synoptiques ou autres types<br />

d’enregistrements.<br />

Les fonctionnalités détaillées de ce module<br />

concernent l’acquisition standard (compatibles<br />

avec toutes les cartes National<br />

Instruments liées au driver NI-DaqmX), les<br />

IHM standard (graphe temporel, graphe<br />

tendances, graphe XY, tableau de valeurs,<br />

indicateurs numériques, journal de bord,<br />

synoptiques standard, enregistrement,<br />

scénario), les calculs temps réel standard<br />

(PID, FFT, filtres, calculs entre voies…), l’automatisation<br />

des essais (écriture de<br />

scénario), le pilotage standard (génération<br />

de fonctions triangle, carré, sinus, ou<br />

lecture d’un fichier .txt), la surveillance de<br />

seuils et le déclenchement de fonctions<br />

d’alarme ou d’arrêt et les enregistrements<br />

manuels ou déclenchés.<br />

Enfin, un module “exploitation” permet en<br />

sortie la lecture de fichiers de données,<br />

la visualisation temporelle et sur des<br />

axes XY, la superposition de données, l’export<br />

vers un format tableur ou encore l’impression<br />

ou l’export d’écrans. Les<br />

fonctionnalités détaillées de ce module sont<br />

la lecture des fichiers de données, la visualisation<br />

temporelle et XY, la superposition<br />

de données essais (par exemple avant et<br />

après endurance), l’export vers un format<br />

tableur ou TDMS (Diadem de National<br />

Instruments), l’impression ou export<br />

d’écrans (avec annotations).<br />

www.nerys.biz<br />

DR<br />

Vasco, un logiciel dédié aux essais industriels capable de tester<br />

et valider toute une palette d’équipements.<br />

Créée en 2007 par des fondateurs issus<br />

du monde de la mesure, Nerys, partenaire<br />

de National Instruments, est une société<br />

dédiée à l’ingénierie des systèmes de<br />

mesure et des bancs d’essais. Basée<br />

à Gardanne (Bouches du Rhône), Nerys<br />

aréalisé en 2009 un chiffre d’affaires<br />

de 760 K€.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 10


Mesure acoustique<br />

01dB-Metravib<br />

innove en Duo<br />

Prévus pour la mesure portable mais répondant également aux<br />

exigences des mesures longues, les nouveaux instruments Duo de<br />

01dB-Metravib ont été présentés en avant-première aux acousticiens.<br />

Succès immédiat.<br />

« C’est un tout nouveau produit, car il<br />

représente la quintessence de la technologie<br />

de ces quinze dernières années ! »<br />

Patrick Luquet, à la tête de 01dB-Metravib,<br />

n’est pas peu fier de son innovation. Son<br />

“Duo” a été conçu pour l’environnement,<br />

la réduction des nuisances et l’amélioration<br />

du confort des usagers. Il constitue<br />

une gamme métrologique innovante<br />

appelée “Smart Noise Monitor”. Cette<br />

génération d’instrument est intermédiaire<br />

entre les solutions de sonométrie classique<br />

et de surveillance acoustique.<br />

Doté d’innovations technologiques, de<br />

fonctionnalités et de performances innovantes,<br />

il assure des perspectives iné-<br />

dites en matière de mesurage du bruit<br />

dans l’environnement. Sa conception<br />

“tout intégré” et ses atouts en termes<br />

de synchronisation et de codage facilitent<br />

les interventions de l’acousticien.<br />

Sur site, le choix des emplacements de<br />

mesure du bruit et l’installation du matériel<br />

sont extrêmement rapides. Le calibrage<br />

des appareils est immédiat, suite<br />

à la mise en place de la source sonore<br />

étalon sur les microphones fabriqués par<br />

un partenaire de l’entreprise. Ces derniers<br />

intègrent d’ailleurs une innovation<br />

de taille, puisque ce sont les premiers<br />

microphones à être complètement étanches.<br />

Les instruments Duo peuvent donc être<br />

exposés à toutes les intempéries sans<br />

protection particulière et continuent de<br />

fonctionner normalement.<br />

Le lancement du stockage des données<br />

est simple, à partir de l’écran des appareils<br />

Duo ou de l’interface déportée<br />

dBDuo, au choix. Solution sans fil Wi-Fi<br />

et communicante via le modem 3G<br />

intégré, Duo permet le suivi des mesures<br />

à distance en temps réel, sur l’ensemble<br />

des instruments installés, partout dans<br />

le monde. Le rapatriement des informations<br />

se déroule également sans nécessiter<br />

la présence de l’opérateur in situ.<br />

L’analyse des résultats est optimisée<br />

grâce à d’innovants post-traitements<br />

automatisés de codage.<br />

DR<br />

Les instruments Duo, à la fois<br />

sonomètres et station de surveillance,<br />

fonctionnent par tout temps…<br />

D’une fiabilité métrologique classe 1,<br />

Duo dispose d’un système intégré d’autocontrôle,<br />

pour la vérification périodique<br />

du bon fonctionnement de la chaîne de<br />

mesure.<br />

N. G.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 11


Simulation numérique<br />

Nouvelle version de la plateforme<br />

OpenSource numérique SALOME<br />

La Direction de l’Énergie nucléaire du CEA, EDF R&D et OpenCASCADE<br />

annoncent la mise à disposition de la version 5.1.4 de leur plateforme<br />

d’intégration et d’environnement pour la simulation numérique SALOME.<br />

Diffusée en open source, la plateforme<br />

favorise l’accès aux outils de simulation<br />

numérique et participe au développement<br />

des compétences dans ce domaine. Elle<br />

est particulièrement appréciée par les<br />

communautés scientifique, académique<br />

et industrielle.<br />

Les équipes de développement<br />

ont intégré plus de<br />

150 évolutions, tenant compte<br />

des retours des utilisateurs<br />

de la plateforme.<br />

”<br />

SALOME fournit à EDF et au CEA un environnement<br />

de référence pour la production<br />

multiphysique autour de codes de<br />

calculs qu’ils développent dans les<br />

domaines de la thermomécanique, de la<br />

thermohydraulique ou de la neutronique.<br />

SALOME résulte d’une volonté forte du<br />

CEA et d’EDF de fédérer les spécialistes<br />

de différents domaines physiques autour<br />

Qui est SALOME ?<br />

d’une plateforme homogène et de répondre<br />

aux besoins sans cesse croissants<br />

de la simulation.<br />

Son architecture modulaire et évolutive<br />

confère aux industriels et aux chercheurs<br />

la possibilité d’intégrer leurs propres<br />

outils de calcul et de les étendre avec<br />

des modules métier spécifiques.<br />

Dans le cadre de l’accord<br />

tripartite de R&D, au sein<br />

duquel est développé l’es-DRsentiel<br />

des modèles physiques,<br />

AREVA, partenaire<br />

du CEA et d’EDF, utilise<br />

pour des besoins spécifiques<br />

certaines applications intégrées<br />

à la plateforme.<br />

Dans cette nouvelle version, les équipes<br />

de développement ont intégré plus de<br />

150 évolutions, tenant compte des<br />

retours des utilisateurs de la plateforme.<br />

Parmi celles-ci :<br />

- l’introduction d’un “Notebook” dans le<br />

SALOME est une plateforme logicielle offrant une base pour la construction d’applications de simulation<br />

numérique pour le calcul scientifique, codéveloppée par la Direction de l’Énergie nucléaire du CEA, EDF<br />

R&D et OpenCASCADE (filiale du groupe Euriware).<br />

SALOME permet de couvrir toutes les étapes d’une étude susceptible d’être réalisée par un utilisateur industriel<br />

ou de R&D. À ce titre, elle fournit aux ingénieurs et aux physiciens un ensemble d’outils industriels et<br />

robustes de pré et post-traitement, de mise en données, de supervision et de couplage multiphysique.<br />

SALOME permet de définir des applications métier qui peuvent être multiphysiques dans des domaines<br />

aussi variés que la thermomécanique, la thermohydraulique, la neutronique ou l’électromagnétisme.<br />

Grâce à son mode de diffusion libre, elle bénéficie d’une notoriété internationale dans le monde académique,<br />

universitaire, participe au développement des compétences et favorise l’émergence de solutions<br />

innovantes.<br />

La Direction de l’Énergie nucléaire<br />

du CEA, EDF R&D et OpenCASCADE<br />

annoncent la mise à disposition<br />

de la version 5.1.4 de leur plateforme<br />

d’intégration et d’environnement<br />

pour la simulation numérique SALOME.<br />

gestionnaire d’études permettant les<br />

études paramétrées ;<br />

- de nombreuses évolutions apportées<br />

aux modules de CAO et Maillage (ergonomie,<br />

introduction des cartes de taille<br />

pour les mailleurs 2D et 3D) ;<br />

- le développement d’un module de<br />

supervision de nouvelle génération<br />

nommé YACS, permettant d’exécuter<br />

des schémas de calculs simples, paramétriques<br />

ou multiphysiques. Ces<br />

schémas peuvent être conçus aisément<br />

grâce à un éditeur graphique puissant ;<br />

- la refonte en profondeur de l’interface<br />

utilisateur et son portage en Qt 4.<br />

SALOME 5.1.4 fonctionne sous de<br />

nombreuses distributions de Linux en<br />

version qualifiée et sous Windows et<br />

MacOS en version expérimentale.<br />

La plateforme est disponible en téléchargement<br />

sur : www.salome-platform.org.<br />

www.salome-platform.org<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 12


Optimisation<br />

Tests et analyse dynamique<br />

des systèmes logiciels embarqués<br />

Wind River annonce la disponibilité de la nouvelle version de Wind River Test Management, solution de test<br />

automatisé qui permet de contrôler, exécuter et gérer les tests des logiciels embarqués.<br />

Wind River Test Management inclut une technologie d’analyse<br />

offrant une vue dynamique du fonctionnement des<br />

systèmes embarqués durant le test. Les développeurs peuvent<br />

ainsi s’appuyer sur une information opérationnelle et fiable<br />

pour livrer en toute confiance des produits de haute qualité,<br />

en respectant leur calendrier et leur budget.<br />

Wind River Test Management remonte des données durant<br />

l’exécution qui permettent aux équipes de prendre des décisions<br />

en connaissance de cause pour améliorer la qualité du<br />

logiciel et éviter les retards potentiels durant le processus de<br />

test. Il est possible d’exécuter des tests complexes sur une<br />

version de production du logiciel en collectant dynamiquement<br />

des données durant son exécution, sans avoir à compiler des<br />

versions pré-instrumentées.<br />

Cette approche mène à de nouvelles techniques de test de<br />

boîte blanche qui donnent aux équipes une vue du fonctionnement<br />

de leurs systèmes embarqués et les aident à déterminer<br />

à quel niveau de détail les tester, à identifier rapidement<br />

les défauts et problèmes de performance, et à concentrer leurs<br />

efforts sur les sections de logiciel qui nécessitent davantage<br />

de tests.<br />

- un nouveau type de test hybride combinant des étapes<br />

manuelles et des scripts, autorisant la mise au point de<br />

séquences de test hybrides sophistiquées et facilitant la<br />

migration vers un test entièrement automatique ;<br />

- un nouveau modèle de test à base de composants, avec<br />

possibilité d’attacher des fichiers séparés, permettant de<br />

développer des tests plus autonomes, pilotés par les données,<br />

plus modulaires et plus faciles à maintenir ;<br />

- un support amélioré des bancs de test de systèmes multicœurs<br />

et de multiples systèmes, pour exécuter en parallèle<br />

des scénarios de tests complexes et la collecte dynamique<br />

de données, tout en simplifiant la gestion des équipements<br />

de test du laboratoire.<br />

www.windriver.com/products/test_management<br />

Wind River Test Management inclut le support de nouvelles<br />

méthodes de test itératives et agiles incluant des tests répétés<br />

de versions intermédiaires, contrairement au processus traditionnel<br />

où le test est mené en fin du cycle de développement<br />

sur le logiciel abouti. Une fonction de “test piloté par les changements”<br />

indique automatiquement aux équipes où se trouvent<br />

exactement les nouveaux composants logiciels, et quels<br />

sont les tests à mettre en œuvre pour les vérifier.<br />

« Spécifiquement conçu pour le test des systèmes embarqués,<br />

Wind River Test Management permet aux équipes de réagir<br />

face à l’information collectée en cours d’exécution pour<br />

mesurer, recentrer et optimiser leur processus de test »,<br />

explique Amit Ronen, vice-président et directeur général, Test<br />

embarqué chez Wind River.<br />

Les principales évolutions de la nouvelle version de Wind River<br />

Test Management sont les suivantes :<br />

- la multiplication par dix de la capacité de couverture de<br />

test dynamique, permettant l’analyse de très grandes applications<br />

;<br />

- de nouvelles fonctions de suivi des modifications du code,<br />

afin d’automatiser les tests induits par ces changements et<br />

ainsi d’optimiser les méthodes de test itératives et agiles ;<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 13


E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 14


<strong>Essais</strong> virtuels<br />

Présentation<br />

Les essais virtuels : pour quoi faire ?<br />

Le contexte actuel des essais n’est pas des plus porteurs, bien que le<br />

souci de sécurité de nos concitoyens pousse à faire des essais afin<br />

d’assurer une sécurité maximale. En effet, le coût des essais n’est pas<br />

un poste négligeable dans le développement d’un produit nouveau, et<br />

l’on voit en parallèle se développer la simulation dans beaucoup de<br />

domaines de la physique. Ainsi, on peut être tenté d’envisager à terme<br />

la suppression sinon la réduction des essais.<br />

On voit d’ailleurs, dans tel projet européen, comme objectif de haut<br />

niveau une réduction des essais de 20 %. Et pour pouvoir assurer cet<br />

objectif, un poste de recherche porte sur les essais virtuels et même<br />

la certification virtuelle !<br />

Qu’est-ce donc que ces essais virtuels et quel en est l’intérêt pour le<br />

laboratoire d’essais et son client ?<br />

Le concept<br />

d’essais virtuels<br />

Dans ce numéro d’<strong>Essais</strong> & <strong>Simulations</strong>,<br />

un article de M. Maurice précise les différences<br />

entre les mondes virtuel, théorique<br />

et réel. Au risque d’une redite, je<br />

dirais qu’un essai virtuel n’est pas la<br />

simulation du comportement d’un produit<br />

dans son environnement au sens où<br />

nous l’entendons à l’ASTE : environnement<br />

vibratoire, thermique et électrique.<br />

Un essai virtuel n’est pas non plus la<br />

simulation fonctionnelle du produit, qu’on<br />

désigne parfois par émulation. Qu’estce<br />

donc ?<br />

L’essai virtuel, c’est la simulation d’un<br />

essai du produit. Par exemple, un essai<br />

virtuel de vibration est la simulation de<br />

l’ensemble pot vibrant, adaptateur,<br />

spécimen.<br />

Pour faire bonne mesure et pour bien<br />

maîtriser l’ensemble, il est bon d’inclure<br />

dans cette simulation les moyens de<br />

contrôle afin de bien évaluer l’interaction<br />

entre la réponse dynamique du spécimen<br />

et le pilotage de l’installation. Dans le<br />

cas d’un essai en chambre climatique,<br />

on modélisera l’atmosphère de la<br />

chambre, l’influence des parois vis-àvis<br />

du spécimen, si l’essai est dynamique<br />

on modélisera la machinerie et son<br />

système de contrôle et l’on couplera l’ensemble<br />

au modèle thermique du<br />

spécimen.<br />

On voit ainsi que l’essai virtuel est une<br />

simulation complexe et complète d’un<br />

essai. La revue <strong>Essais</strong> & <strong>Simulations</strong> ne<br />

pouvait se passer de traiter de ce sujet !<br />

Ce que l’on peut retirer<br />

des essais virtuels<br />

On vient de voir que les essais virtuels<br />

sont une simulation très complète et bien<br />

supérieure en complexité à la simulation<br />

classique, elle entraîne une simulation<br />

multiphysique prenant en compte le<br />

contrôle du moyen d’essai.<br />

Que peut-on en retirer ?<br />

On voit là l’opportunité pour le centre<br />

d’essais de monter en compétence dans<br />

le domaine de la simulation et aussi dans<br />

son métier de base : car il faut mettre<br />

au point et valider les modèles de ses<br />

moyens d’essais.<br />

Autre avantage pour le laboratoire<br />

d’essai : la diminution des risques. En<br />

effet en simulant un essai, on peut prévoir<br />

sa durée, les consommations d’énergie,<br />

de fluides, la précision du contrôle, etc.<br />

Les coûts sont ainsi mieux maîtrisés, de<br />

même que les risques techniques.<br />

Toujours pour le laboratoire d’essais, il<br />

peut optimiser les lois de pilotage et ainsi<br />

optimiser la durée et les coûts associés,<br />

ce qui est important dans les essais thermiques.<br />

La rentabilité de l’essai est améliorée<br />

d’un point de vue technique. En effet, en<br />

calculant la réponse du spécimen en<br />

essai, on peut optimiser la position des<br />

capteurs.<br />

Enfin, pour le client grâce à l’essai virtuel,<br />

le laboratoire d’essais peut proposer un<br />

outil pour la validation du modèle du<br />

spécimen de son client. En effet, l’essai<br />

virtuel permet de prédire la réponse du<br />

spécimen dans l’environnement précis<br />

de l’essai, on peut donc comparer les<br />

prévisions du calcul aux résultats de<br />

l’essai et ainsi évaluer la distance entre<br />

le modèle du spécimen et le comportement<br />

réel.<br />

Conclusion<br />

Cette introduction rapide aux essais<br />

virtuels montre que ceux-ci, loin de<br />

supprimer les essais, ne font qu’améliorer<br />

leur rentabilité, tant du point de vue<br />

du laboratoire d’essais que du point de<br />

vue de son client. Malgré tous ces intérêts,<br />

bien des problèmes se posent pour<br />

la réalisation de ces essais virtuels,<br />

comme la mise à disposition par le client<br />

d’un modèle spécimen correspondant au<br />

spécimen en essai, la propriété des<br />

modèles, le surcoût de l’essai, etc., mais<br />

tout cela est le lot de toute technique<br />

nouvelle qui cherche à se répandre ●<br />

Joseph Merlet (1)<br />

(1) Directeur technique, INTESPACE.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 15


<strong>Essais</strong> virtuels<br />

Virtualisation des essais CEM en phase amont<br />

Des essais de validation plus robustes<br />

Des taux de réussite améliorés<br />

et la transversalité d’exploitation optimisée<br />

Nous discutons dans cet article de l’apport des moyens virtuels dans<br />

la maîtrise de la compatibilité électromagnétique des systèmes<br />

complexes. Ces techniques peuvent permettre de relier les approches<br />

au niveau équipement aux performances attendues au niveau système,<br />

et de justifier précisément de la déclinaison des contraintes.<br />

Mots-clés<br />

CEM systèmes, CEM équipements, virtualisation,<br />

analyse tensorielle des réseaux,<br />

invariances.<br />

Encore trop souvent, des projets<br />

partent en essais de validation<br />

CEM alors qu’aucune étude<br />

amont de leur système n’a été menée.<br />

Partant de règles métier, supposant les<br />

résultats précédents sur une électronique<br />

proche conservés ou convaincus d’une<br />

faible variabilité du hardware sans impact<br />

sur les performances CEM, les chefs de<br />

projets sont très surpris pour ne pas dire<br />

désemparés lorsque les résultats de nonconformité<br />

tombent comme une catastrophe.<br />

Pourtant, on dispose aujourd’hui de techniques<br />

avancées pour prévoir ces risques<br />

et trouver des leviers tout autant que<br />

pour concevoir des produits à même de<br />

couvrir les exigences de façon transversale<br />

pour plusieurs cibles client.<br />

On se propose dans cet article de<br />

discuter des difficultés inhérentes à la<br />

sous-traitance des composants pour un<br />

système et de l’apport de la virtualisation<br />

amont pour répondre à cet objectif.<br />

On présente plus particulièrement l’apport<br />

potentiel de la théorie tensorielle<br />

des réseaux pour couvrir les besoins<br />

d’outils socles mathématiques afin de<br />

développer les outils futurs.<br />

Le concept<br />

de “virtualisation”<br />

On peut discerner 3 mondes : le monde<br />

réel, le monde théorique et le monde<br />

virtuel. Le premier est le monde des<br />

expérimentations concrètes, le second<br />

regroupe les modèles physiques et<br />

mathématiques sur lesquels se basent<br />

les calculs et les modélisations du<br />

monde réel, le troisième est le monde<br />

des simulations ou des calculs numériques.<br />

Il est essentiel de discerner les<br />

2 notions de simulation et modélisation<br />

avant de parler du concept de virtualisation.<br />

“ ”<br />

Le calcul est potentiellement<br />

capable de modéliser<br />

la simplexité.<br />

La simulation, comme son nom l’indique,<br />

est l’action qui consiste à simuler le fonctionnement<br />

d’une électronique, c’est-àdire<br />

« faire paraître comme réel quelque<br />

chose qui ne l’est pas » (1) . Pour la CEM,<br />

la simulation consiste en l’emploi soit<br />

de logiciels numériques qui résolvent les<br />

équations de Maxwell, soit de fonctions<br />

qui sont autant de macromodèles reliés<br />

en chaîne. Ces simulations, qui s’appuient<br />

sur des modèles théoriques,<br />

tentent de présenter un ensemble de<br />

caractères semblables au système<br />

simulé. Par définition, la similitude n’est<br />

pas parfaite, sans quoi cela signifierait<br />

que l’on reproduit le système réel (seul<br />

un système identique serait similaire en<br />

tout point y compris géométrique, photométrique,<br />

etc.), mais elle est suffisamment<br />

identique sur un domaine borné<br />

pour pouvoir, sur ce domaine, ressembler<br />

en tout point au système simulé.<br />

La modélisation est l’action qui consiste<br />

à créer ou disposer d’expressions mathé-<br />

matiques basées sur les lois de la<br />

physique et de la chimie pour représenter<br />

le comportement d’un système en courbes<br />

ou graphes. On trace ainsi dans<br />

l’espace des phases la trajectoire d’un<br />

solide en mécanique, comme on calcule<br />

la trajectoire des planètes en astronomie.<br />

Ces tracés sont extraits de variables<br />

présentes dans des équations<br />

de la physique qui sont<br />

autant de modèles du monde<br />

réel.<br />

La virtualisation est l’action<br />

de créer un programme (ou<br />

un ensemble de programmes) informatiques<br />

qui vont représenter numériquement,<br />

par le biais d’images de<br />

synthèse ou de tracés de graphes, voire<br />

d’actionneurs sensibles (capteurs, hautparleurs…),<br />

le fonctionnement d’un<br />

système. Pour atteindre cette représentation,<br />

le monde virtuel s’appuie sur les<br />

équations analytiques des modèles<br />

physiques du système “virtualisé”. D’excellents<br />

exemples de mondes virtuels<br />

sont les jeux comme le golf. L’utilisateur<br />

paramètre les données d’entrée (puissance<br />

du coup, direction, etc.) et le logiciel<br />

calcule par les équations de la<br />

dynamique la trajectoire de la balle.<br />

Ensuite, un écran permet de suivre<br />

l’image de cette balle comme celle que<br />

l’on aurait pu voir dans la réalité. La<br />

réalité virtuelle ici ne cesse de progresser<br />

pour redonner l’illusion parfaite de cette<br />

visualisation.<br />

(1) Définition du Petit Larousse illustré,<br />

édition 2006.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 16


<strong>Essais</strong> virtuels<br />

On peut se poser la question de l’intérêt<br />

d’une telle recherche, mais le sentiment<br />

de réalité contribue au réalisme concret<br />

de la virtualisation. Ce réalisme n’est<br />

d’ailleurs atteint que par la mise en<br />

œuvre de plusieurs métiers de la<br />

physique (ce que l’on référence souvent<br />

sous la dénomination “multiphysique”).<br />

Ainsi, aussi réaliste que puisse paraître<br />

l’image d’un plat, elle ne provoquera la<br />

sensation de réel que si elle s’accompagne<br />

des odeurs correspondantes.<br />

Les difficultés<br />

de la virtualisation<br />

Le monde réel est beaucoup plus<br />

complet que le monde virtuel. Cette<br />

dimension se traduit par un ensemble<br />

de phénomènes physiques et de<br />

modèles liés mis en jeu infiniment plus<br />

grand que le monde virtuel. Les codes<br />

de simulation sont basés sur des méthodes<br />

numériques aux limites précises.<br />

Ces limites sont à la fois des limites sur<br />

les tailles simulables – et l’on sait aujourd’hui<br />

traiter des millions de données, sur<br />

les domaines de la physique pris en<br />

compte mais aussi sur les ruptures de<br />

modèles. Ce deuxième point est beaucoup<br />

plus difficile à traiter. Il signifie<br />

qu’une physique elle-même repose<br />

toujours sur plusieurs modèles définis<br />

sur des domaines connexes. Par exemple,<br />

une ligne en basses fréquences se<br />

modélise par 2 impédances, alors que<br />

dès que les phénomènes de propagation<br />

interviennent, son modèle nécessite<br />

2 impédances additionnées d’une fonction<br />

de couplage. On aboutit toujours au<br />

constat que la simplicité des comportements<br />

utiles des systèmes est le résultat<br />

d’agencement de processus complexes.<br />

Et c’est cette simplexité (2) qui n’est pas<br />

réalisable par les codes de simulation.<br />

Cette incapacité provient de la conception<br />

de ces logiciels qui partent d’un<br />

maillage pour y projeter les équations à<br />

résoudre dans l’hypothèse que le macromonde<br />

est une simple construction de<br />

briques du micromonde. Or cette hypothèse<br />

trop simpliste ne considère pas<br />

l’existence de propriétés propres aux<br />

macro-objets. Ainsi, avec de l’oxygène et<br />

de l’hydrogène, on peut fabriquer de<br />

l’eau. Mais l’eau a ses propriétés<br />

propres que l’on ne retrouve pas dans<br />

chacun de ses composants séparés.<br />

En toute rigueur, on peut affirmer que<br />

le monde réel contient le monde virtuel<br />

– qui a sa propre réalité – mais que l’inverse<br />

est évidemment faux. C’est cette<br />

lacune de couverture qui conduit souvent<br />

à dire que les simulations “ne servent à<br />

rien”. Je vais essayer de démontrer qu’il<br />

n’en est rien, au contraire, et cela à<br />

2 niveaux. D’une part, les réflexions de<br />

réduction de complexité qu’impose leur<br />

emploi assurent une maîtrise dans la<br />

conception du système qui permettra<br />

d’éviter les fausses interprétations en<br />

essais, de prédire les risques de nontenue<br />

aux exigences et les solutions<br />

associées et enfin de prédire les résultats<br />

pour des essais variés. D’autre part,<br />

on a peut-être abandonné trop vite l’idée<br />

que le calcul, intégrant des fonctions<br />

analytiques issues de lois physiques ou<br />

de régressions de simulations ou d’expérimentations<br />

locales (au sens qu’elles<br />

ne portent que sur une caractérisation<br />

d’une partie du système), élaboré sur un<br />

formalisme mathématique suffisamment<br />

puissant, pouvait constituer une nouvelle<br />

voie pour la virtualisation. Le calcul est<br />

potentiellement capable de modéliser la<br />

simplexité et l’on peut penser que les<br />

outils informatiques de demain utiliseront<br />

ces progrès dans la modélisation.<br />

Du découpage<br />

des problèmes<br />

en sous-problèmes simples<br />

Que ce soit pour concevoir un système<br />

ou interpréter des résultats d’expérimentations,<br />

l’ingénieur découpe le système<br />

en sous-fonctions élémentaires<br />

connectées entre elles par des pistes,<br />

des câbles ou des guides. Il comprend<br />

le fonctionnement du système connecté<br />

comme la simple réunion des sousfonctions<br />

devenues liées certes, mais<br />

restant indépendantes au niveau des<br />

caractéristiques électromagnétiques. Les<br />

effets d’interférences fortes ne sont pas<br />

intuitifs. Par exemple, un effet presque<br />

toujours oublié est celui de l’impédance<br />

ramenée. Lorsque l’on connecte un équipement<br />

à un autre, chaque équipement<br />

ne voit pas l’impédance de son voisin,<br />

mais la vue de cette impédance au<br />

travers de la ligne de liaison en fonction<br />

de sa longueur et de la rapidité des<br />

formes d’ondes.<br />

Dès que le spectre des signaux est un<br />

peu élevé, le découpage du système<br />

n’est plus trivial. Ainsi, les volontés de<br />

représentativité des configurations d’essais<br />

sont souvent mises à mal par la<br />

dure réalité des variations d’impédances.<br />

Il est fréquent que des “set-up” soient<br />

remplis de câbles extrêmement longs,<br />

enchevêtrés, incluant des bancs de tests<br />

avec des “impédances représentatives”.<br />

Mais ces démarches ne sont valables<br />

qu’en basses fréquences. Dès que la<br />

fréquence est assez haute, les différences<br />

de boîtiers, les cheminements<br />

différents des câblages font que l’impédance<br />

vue par l’équipement n’est de<br />

toute façon pas celle qu’il verra une fois<br />

installé sur le système réel.<br />

Pourtant, beaucoup sont convaincus de<br />

la crédibilité de ces approches pour<br />

n’avoir pas évalué la sensibilité des variations<br />

d’impédances en fonction des paramètres<br />

de hauteur, longueur et géométrie<br />

des interfaces. Évidemment, ces écarts<br />

sont exacerbés si l’on considère qu’en<br />

général, la connaissance exacte des<br />

circuits d’interfaces n’est présente que<br />

chez chaque concepteur d’équipement.<br />

Il faut se résoudre à l’idée que l’espoir<br />

de représentativité est vain, de même<br />

que les raisonnements intuitifs sont rarement<br />

corrects. La seule solution robuste<br />

consiste à caractériser chaque élément<br />

unitairement soit par l’intermédiaire de<br />

simulations, soit par des expérimentations<br />

spécifiques, puis de calculer le<br />

système résultant de connexions de ces<br />

éléments.<br />

L’analyse étape par étape de la constitution<br />

du système à partir de réseaux<br />

dits “primitifs” (sous-fonctions élémentaires)<br />

va permettre de bien comprendre<br />

ses comportements, de visualiser les<br />

signaux échangés, d’identifier les familles<br />

de signaux et de gérer les incertitudes.<br />

Car qu’elles que soient les approches,<br />

on dispose heureusement d’un invariant :<br />

les perturbations d’un système comme<br />

ses émissions dépendent des composants<br />

utilisés dans ses électroniques.<br />

C’est à partir de cet invariant que nous<br />

pourrons virtualiser la conception et<br />

définir les configurations en essais<br />

d’équipements, qui démontrent la tenue<br />

des exigences et les réponses aux<br />

besoins système.<br />

(2) Voir Simplexité d’Alain Berthoz chez<br />

Odile Jacob.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 17


<strong>Essais</strong> virtuels<br />

Analyse tensorielle<br />

des réseaux<br />

comme fondement<br />

de la virtualisation<br />

Que ce soit en essai au niveau équipement<br />

ou sur système, on peut montrer<br />

que la puissance transmise aux composants<br />

est invariante (3) , c’est-à-dire que le<br />

seuil de puissance transmise pour une<br />

perturbation donnée reste le même quels<br />

que soient les circuits en amont des<br />

composants. Cela signifie, en simplifiant<br />

un peu, qu’un produit d’une tension<br />

complexe V aux bornes d’une entrée de<br />

composant par le courant complexe<br />

conjugué I * rentrant sur le même accès<br />

au moment où une perturbation est<br />

observée est une quantité qui caractérise<br />

le composant de façon intrinsèque.<br />

Quoi que seront les connexions de ce<br />

composant vers d’autres électroniques,<br />

ce produit que nous noterons s est<br />

toujours le même. L’ensemble des interactions<br />

d’un composant vers son environnement<br />

est complètement défini<br />

dans un tableau de fonctions appelé<br />

“métrique” et noté Z.<br />

Cette métrique regroupe tous les opérateurs<br />

d’impédance en conduction (inductances,<br />

condensateurs, résistances,<br />

transistors…) ou en rayonné (impédance<br />

de rayonnement, etc.). On montre dans<br />

le cadre de la topologie que cette métrique<br />

est un tenseur. Elle constitue<br />

l’objet central de notre virtualisation.<br />

Pour l’ingénieur, cette métrique se présente<br />

comme une matrice dont les<br />

termes diagonaux sont les impédances<br />

de chacune des branches du circuit et<br />

les termes extra-diagonaux sont les fonctions<br />

de couplage entre ces branches.<br />

Considérons par exemple un simple<br />

transformateur avec une résistance R1<br />

au primaire et une résistance R2 au<br />

secondaire. La première branche est une<br />

résistance, la seconde l’inductance du<br />

primaire L1, la troisième l’inductance du<br />

secondaire L2 et la quatrième la résistance<br />

de charge au secondaire. Les<br />

éléments diagonaux de la métrique<br />

décrite dans l’espace des branches avec<br />

l’opérateur de Laplace p se trouvent organisés<br />

suivant :<br />

Pour coupler les 2 circuits et fabriquer<br />

notre transformateur, il suffit d’ajouter à<br />

cet objet la mutuelle inductance M entre<br />

les 2 inductances (notre modèle de transformateur<br />

est simpliste mais a pour seul<br />

objectif ici d’expliquer la notion de<br />

métrique) :<br />

On reconnaît bien ici sur les termes<br />

diagonaux les propriétés des branches<br />

du circuit et en termes extra-diagonaux<br />

les couplages qui peuvent exister entre<br />

ces branches.<br />

Lorsque l’on calcule l’illumination de<br />

l’équipement et son environnement<br />

(alimentations, charges, etc.) à des<br />

agressions électromagnétiques, on définit<br />

des sources d’énergie E. Par ailleurs, ce<br />

sous-système dispose de ses propres<br />

sources d’énergie, Eo. L’ensemble des<br />

sources intervenant dans le soussystème<br />

constitue un vecteur T = E+Eo,<br />

lui-même somme des 2 vecteurs des<br />

sources externes E et propres Eo. Par<br />

exemple, l’alimentation de l’équipement<br />

est la 7 e composante du vecteur T (j’aurais<br />

pu dire la 8 e ou la 3 276 e ).<br />

L’ensemble des courants qui seront<br />

engendrés par les générateurs en calcul<br />

comme en test au niveau équipement<br />

est déterminé par une équation qui a une<br />

forme du type : T=ZI. Cet ensemble de<br />

courant I constitue un vecteur également.<br />

Le courant rentrant dans le composant<br />

considéré précédemment est par<br />

exemple la 7 e composante de ce<br />

vecteur I. Z est une matrice que l’on peut<br />

inverser pour calculer ce vecteur<br />

courant I. Dès lors, la composante particulière<br />

I 7 (le 7 en exposant indiquant que<br />

l’on pointe la 7 e composante de I) est<br />

aussi déterminée par la résolution du<br />

système T = ZI. On trouve alors la puissance<br />

transmise sur l’entrée considérée<br />

en calculant p(7)=V 7 I 7* (la tension V 7 se<br />

déduit du courant I 7 connaissant l’impédance<br />

d’entrée du composant). L’essai<br />

de validation, s’il est bien géré et<br />

maîtrisé, reprendra le set-up défini au<br />

travers des modèles utilisés dans le<br />

calcul pour accéder à p(7).<br />

Des essais éventuels de caractérisation<br />

donneront une valeur de seuil po pour<br />

laquelle les perturbations apparaissent<br />

(nous simplifions ici aussi un peu l’analyse,<br />

mais ses fondements sont exactement<br />

similaires).<br />

Passons maintenant sur système. La<br />

nouvelle architecture sous test est représentée<br />

par une métrique Zs différente<br />

de la précédente, sauf au niveau de l’entrée<br />

du composant où elle reste identique.<br />

Pour ce test système, on définit<br />

aussi des sources. Les sources propres<br />

sont inchangées, mais les sources<br />

externes E’ sont différentes. On trouve<br />

un nouveau système à résoudre avec<br />

T’=ZsI, où T’=E’+Eo. De même, on<br />

inverse Zs pour trouver I et extraire p(7).<br />

On peut ensuite comparer p(7) trouvé<br />

dans ces conditions avec le seuil po(7)<br />

de perturbation. On voit que cette<br />

démarche suppose que l’on a pu au<br />

préalable caractériser po(7).<br />

Mais qu’en est-il de l’écart entre Z et<br />

Zs ? Toute une catégorie d’impédances<br />

est aussi identique entre les 2 expériences,<br />

qu’elles soient réelles ou<br />

virtuelles là aussi. On ne va en fait modifier<br />

que les interactions entre les<br />

éléments de la sous-chaîne qui, elle,<br />

reste identique dans tous les cas. Or<br />

cette modification passe par des transformations<br />

de Z vers Zs que l’on peut<br />

traduire mathématiquement au travers<br />

de 2 objets : la métrique elle-même d’une<br />

part, et les connexions d’autre part.<br />

C’est ici que l’analyse virtuelle amont va<br />

apporter beaucoup : en travaillant pour<br />

ne modifier que la métrique, on prouve<br />

la conservation des exigences entre le<br />

test au niveau équipement et au niveau<br />

système. Changer les connexions signifie<br />

par exemple qu’on déplace un fil qui allait<br />

de l’entrée n à l’entrée m, pour le placer<br />

entre les entrées n et p. Mais on veille<br />

à ne pas réaliser de telles opérations.<br />

Ce qui signifie que les mêmes liaisons<br />

sont réalisées entre les 2 analyses du<br />

système et de l’équipement (ou de la<br />

sous-fonction, ce qui revient au même).<br />

Par contre, les longueurs de câblages,<br />

les hauteurs aux plans, etc., elles, (et là<br />

nous nous référons à notre discussion<br />

précédente, nous n’avons pas le choix :<br />

(3) O. Maurice, J. Pigneret, “Susceptibilité<br />

hyperfréquence des composants<br />

numériques”, Radec’s 97. F. Lafon,<br />

EMCCOMPO09, et bien d’autres références<br />

sur le sujet.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 18


<strong>Essais</strong> virtuels<br />

elles changent !) peuvent changer. En<br />

écrivant Z’=Zo+Z et Zs’=Zo+Zs, où Zo<br />

est la partie invariante des opérateurs<br />

d’impédances, on peut définir un ensemble<br />

d’opérations de rotations et de<br />

translations appliquées à Z’ qui conduisent<br />

à Zs’ regroupées sous la forme<br />

d’une équation tensorielle de transformation<br />

: Zs’ = Λ’Z’Λ (l’exposant prime<br />

sur la matrice Λ indiquant l’emploi d’une<br />

matrice transposée ou image, ou en<br />

général différente de la première). Alors<br />

l’équation au niveau système devient :<br />

T’ = Λ’Z’ΛΙ.<br />

Reprenons notre exemple précédent<br />

mais en considérant 2 spires éloignées.<br />

Nous pouvons séparer Z en 2 termes :<br />

Zo, qui contient les impédances invariantes<br />

propres (charges et inductances<br />

des spires) et Zs, qui contient la fonction<br />

de couplage (qui dépend de la<br />

distance entre les 2 spires et de l’angle<br />

entre leurs normales si l’on suppose<br />

l’une perpendiculaire à la ligne de visée<br />

et dans le plan formé par la ligne de visée<br />

et le champ magnétique) :<br />

Le coefficient de couplages (4) entre 2 spires<br />

est fonction de la distance entre spires R,<br />

de leurs surfaces A et A’ et de la longueur<br />

d’onde λ :<br />

Dans le coefficient M interviennent<br />

2 paramètres : l’angle et la distance. On<br />

peut appliquer à la matrice Zs une série<br />

de transformations visant par exemple à<br />

modifier les angles. Le lecteur pourra<br />

vérifier que les 2 matrices suivantes,<br />

image l’une de l’autre, permettent de<br />

modifier la valeur angulaire, traduisant<br />

par là une rotation α appliquée aux spires<br />

lors d’une nouvelle installation :<br />

L’algèbre tensorielle offre une panoplie<br />

gigantesque de transformations disponibles<br />

qui permet de traduire mathématiquement<br />

toutes les transformations<br />

opérées.<br />

On sait prédire les performances au<br />

niveau système à partir des résultats<br />

équipements. Cela après un travail de<br />

réflexion sur les natures intrinsèques des<br />

électroniques d’une part, l’existence d’un<br />

invariant et le contrôle des transformations<br />

appliquées entre les configurations<br />

équipement et système d’autre part.<br />

La démarche amont va permettre de justifier<br />

les set-up d’essais de validation dans<br />

un objectif de répondre au mieux aux<br />

exigences système. Elle va aussi permettre<br />

de faire les choix de protections,<br />

etc., en prenant en compte les incertitudes<br />

de valeurs en travaillant sur des<br />

enveloppes de valeurs d’impédances. Elle<br />

va permettre d’identifier les points sensibles<br />

de la fonction, pour ensuite aller beaucoup<br />

plus vite dans l’analyse en cas de<br />

problèmes révélés lors des essais de validation.<br />

Enfin, c’est par ce seul biais que<br />

l’on peut démontrer une robustesse transverse<br />

en analysant différentes hypothèses<br />

d’architecture système.<br />

Notons que nous n’avons pas parlé des<br />

sources. Les sources doivent être maintenues<br />

constantes. On caractérisera donc<br />

les composants à des formes d’ondes<br />

prédéfinies. Certains pourraient objecter<br />

que ces caractérisations sont limitatives.<br />

Certes, mais d’une part on peut se référer<br />

aux travaux du passé sur les contraintes<br />

enveloppe, d’autre part, même dans une<br />

démarche normative plus classique, les<br />

formes d’ondes appliquées ne sont pas<br />

plus exhaustives, loin s’en faut !<br />

Application aux essais<br />

en compatibilité<br />

électromagnétique<br />

Dans le cas de la compatibilité électromagnétique,<br />

les transformations opérées<br />

sont des changements d’échelles (modification<br />

des longueurs de câblages), de<br />

hauteur aux plans. Ces transformations<br />

font partie du groupe des translations.<br />

Puis l’on peut changer les courbures de<br />

câbles, incliner les équipements, modifier<br />

l’incidence des sources, etc. C’est<br />

le groupe des rotations.<br />

L’étude des différentes hypothèses d’architectures<br />

systèmes constitue un groupe<br />

de transformations reliées à chacune de<br />

ces hypothèses. Les incertitudes portant<br />

sur ces architectures se traduisent en<br />

plans d’expérience (ou équivalents) où l’on<br />

va explorer les différentes combinaisons<br />

de valeurs des facteurs intervenant, pour<br />

en déduire les facteurs influents et les lieux<br />

des protections à apporter pour pallier ces<br />

méconnaissances du système final.<br />

Ces tâches seront à terme prises en<br />

charge par des interfaces homme-machine<br />

élaborées qui aideront l’ingénieur dans sa<br />

conception. Aujourd’hui, les travaux se<br />

focalisent sur la mise en œuvre des formalismes<br />

tensoriels d’analyse des réseaux<br />

et leurs implémentations numériques (5) .<br />

De nombreux travaux ont vu le jour en ce<br />

sens. Ils confirment les capacités de la<br />

méthode à répondre à la problématique<br />

et à donner une base mathématique<br />

formelle à l’objectif de virtualisation<br />

amont (6) . Mais déjà aujourd’hui, des simulations<br />

restreintes peuvent être réalisées<br />

en utilisant des logiciels de circuits et de<br />

calcul (7) , pour faire “manuellement” les<br />

analyses discutées dans cet article. Par<br />

ailleurs, d’autres approches visent à optimiser<br />

les connexions entre logiciels (techniques<br />

de logiciels hybrides, liens<br />

dynamiques entre programmes, etc.).<br />

Un exemple simple<br />

illustratif<br />

Imaginons un exemple très simple et pourtant<br />

qui couvre déjà de nombreuses situations<br />

rencontrées sur les systèmes réels.<br />

On considère 2 équipements reliés par<br />

une liaison bus via une ligne monofilaire<br />

référencée à une structure de plancher<br />

métallique. Chaque équipement a son<br />

impédance d’entrée. Dans un modèle de<br />

Branin (8) , la ligne est modélisée par son<br />

impédance et sa vitesse de propagation.<br />

Pour mettre en évidence les aspects<br />

matriciels, nous dupliquons cette liaison<br />

entre les 2 équipements. L’équipement 1<br />

est émetteur, l’équipement 2 récepteur.<br />

La figure 1 montre le circuit équivalent<br />

dans lequel les lignes sont supposées<br />

adaptées pour faire plus simple dans<br />

cette illustration.<br />

(4) Lire par exemple Antennas, de Kraus<br />

et Marhefka, Mc Graw Hill.<br />

(5) O. Maurice, CEM des systèmes<br />

complexes, chez Hermès-Sciences, 2007.<br />

(6) Thèse de S.Leman, laboratoire TELICE.<br />

Thèse de K.El Fellous, laboratoire Xlim.<br />

Publication aux comptes rendus de<br />

l’académie des sciences.<br />

(7) Voir aussi les logiciels opensource :<br />

Qucs, SCILAB, etc.<br />

(8) On peut lire sur ce sujet<br />

Electromagnetics for Engineers de Clayton<br />

R.Paul, Wiley.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 19


<strong>Essais</strong> virtuels<br />

DR<br />

Le modèle de Branin nous donne les<br />

expressions des tensions reçues sur les<br />

entrées de l’équipement 2 :<br />

Les paramètres ζ et η sont obtenus par<br />

le rapport entre la longueur de la ligne<br />

et la vitesse de groupe dans la ligne. La<br />

métrique déduite de ce schéma a pour<br />

composante de couplages dans l’espace<br />

des mailles :<br />

Chaque élément de ce tenseur est luimême<br />

un tenseur 4x4 après changement<br />

de base de l’espace des branches vers<br />

l’espace des mailles.<br />

Si l’on installe ce système dans un autre<br />

environnement où les longueurs des liaisons<br />

évoluent, une transformation s’opère<br />

sur le tenseur Zs précédent pour modifier<br />

les constantes de retard ζ et η. La transformation<br />

est similaire à celle réalisée<br />

pour le transformateur si ce n’est qu’elle<br />

a pour but de changer la longueur – elle<br />

correspond donc à une dilatation – et non<br />

un angle de rotation. Le changement de<br />

l’espace des branches à l’espace des<br />

mailles permet de passer dans un espace<br />

de description plus pertinent pour le<br />

problème à traiter. Pour réaliser ce changement,<br />

on crée une matrice de connectivité<br />

L qui relie les courants de branches<br />

aux courants de mailles.<br />

Dans notre exemple, les branches 1 et 2<br />

appartiennent à la maille 1, les branches<br />

Figure 1.<br />

3 et 4 à la maille 2, etc. La connexion est<br />

donc définie par une matrice faite de “1”<br />

là où courants de branches et de mailles<br />

coïncident et de “0” là où ils ne coïncident<br />

pas. C’est une autre capacité de l’algèbre<br />

tensoriel de profiter d’un invariant<br />

pour autoriser l’expression des éléments<br />

dans différents espaces sans changer<br />

les résultats. La transformation pour un<br />

tenseur d’ordre 2 suit toujours une forme<br />

du type : Z=L’ZL. z restant intrinsèquement<br />

le même objet mais vu suivant des<br />

bases variées. Que les sources soient<br />

internes ou proviennent de couplage avec<br />

le champ ne change rien à la démarche.<br />

On peut toujours passer d’une architecture<br />

à une autre par des transformations.<br />

Conclusion<br />

La démarche “appliquer des règles et<br />

valider en essai” n’est plus acceptable<br />

pour les systèmes complexes modernes.<br />

L’idée de virtualiser les conceptions<br />

amont est incontournable pour répondre<br />

aux besoins de maîtrise des risques, les<br />

essais ne démontrant pas la couverture<br />

effective de test vis-à-vis de la multiplicité<br />

des contraintes électromagnétiques<br />

dans les environnements d’aujourd’hui.<br />

L’outil mathématique de l’algèbre tensorielle<br />

fournit les bases formelles pour<br />

développer une théorie qui permette de<br />

démontrer les performances atteintes<br />

dès les phases de conception. Son implémentation<br />

en outils d’aide à la conception<br />

en est à ses débuts, mais l’ingénieur<br />

peut déjà y travailler par l’usage d’outils<br />

plus spécialisés mais offrant des<br />

premières plateformes de simulation pour<br />

la prédiction des risques et la gestion des<br />

Abstract<br />

This paper presents the interest of virtual<br />

means in the skill of electromagnetic<br />

compatibility of complex systems. These<br />

techniques can allow to make some links<br />

between the approaches at equipment<br />

level and the expected performances at<br />

system level. These techniques can also<br />

allow to justify the allocation of constraints.<br />

Firstly, we propose a definition of the<br />

concept of virtualisation, with a reminder<br />

of the differences between real, theoretical<br />

and virtual worlds. Afterwards, we try<br />

to list the difficulties in the use of the virtual<br />

tools to approach the knowledge of<br />

“diakoptics”, knowledge originally introduced<br />

by Gabriel Kron. This notion has for<br />

object to divide a complex system in<br />

simpliest and coupled subsystems. The<br />

tensorial network analysis, which is a<br />

mathematical basis for this technique,<br />

gives all the means for the division and the<br />

building of the links between systems and<br />

subsystems. We show how the virtual tools<br />

using this algebra will allow to fully study<br />

during the design phase the interactions<br />

between a system and its environment and<br />

how these interactions are cascaded at<br />

equipment level. At the end of this paper,<br />

we present the large potential capabilities<br />

of the future virtual tools and we conclude<br />

on the mandatory use of these features<br />

in order to exit of the no future behaviours<br />

where the tests are not able to give the<br />

understanding and the solution of badly<br />

designed system since the debugging is<br />

made after the design phase.<br />

incertitudes. Les essais ne doivent plus<br />

être que des validations sur des cas particuliers<br />

choisis et justifiés, qui synthétisent<br />

le travail effectué en amont.<br />

Cela constituera de plus l’occasion de<br />

redonner aux essais toute l’attention<br />

qu’ils méritent et la qualité qui leur est<br />

due plutôt que de multiplier ces essais<br />

dans des approches de déverminages et<br />

d’investigations menées dans l’urgence<br />

et dans l’idée de résoudre des problèmes<br />

de non-conformités découvertes lors de<br />

tests qui devaient être originellement des<br />

tests de qualification ●<br />

(9) Gerac, Trappes,<br />

olivier.maurice@gerac.com.<br />

Olivier Maurice (9)<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 20


<strong>Essais</strong> virtuels<br />

Aerospace<br />

Virtual Vibration Test System<br />

for the Satellite<br />

Abstract : the virtual vibration test can prefigure the test result for the test design.<br />

The vibration test system is studied firstly. According to the facility and the transfer<br />

of signal, the system is divided into 5 subsystems. The simulation method for<br />

the virtual vibration test system is determined by the characteristic of every<br />

subsystem. Secondly, the simulation methods for the shaker and the vibration<br />

control system are introduced. Finally, connecting the FEM of a satellite, the<br />

virtual vibration platform for the satellite has been built. A series of the virtual<br />

vibration test have been done in the virtual vibration platform. The procedures<br />

of the virtual tests are the same as the real tests. The numerical results are<br />

compared with those from the real test, and the results show that the two of<br />

them are agree well. The system and platform will be more important in the satellite<br />

development.<br />

Introduction<br />

The vibration test is important in the<br />

satellite development. The capabilities<br />

of the satellite in the environment are<br />

evaluated by the test. But by the test<br />

conditions, test objects, test time limits,<br />

shaking table test can not achieve the<br />

desired objectives. With the structural<br />

design and technological development,<br />

the virtual vibration test is an effective<br />

measure of these problems; the technology<br />

is becoming the forefront of<br />

applied research topics 1 .<br />

The virtual vibration test system is built<br />

by this technology. The system is helpful<br />

to the design of the satellite and the<br />

vibration test that the responses of the<br />

important points will be got before the<br />

test; the results of the high level vibration<br />

will be forecasted by the results of<br />

the low level vibration.<br />

The system contains ALL of the subsystems<br />

in the vibration test. The virtual<br />

vibration test can prefigure the test<br />

results. The results are very close to that<br />

of the real test.<br />

Analyze the vibration<br />

test system<br />

Vibration test is usually accomplished<br />

using a shaker, as shown by the schematic<br />

diagram in fig. 1. According to the<br />

facility and the transfer of signal, the<br />

system is divided into 5 subsystems: the<br />

Mots-clés<br />

Virtual vibration test, satellite, FEM (Finite<br />

element model), shaker control, transfert<br />

fonctions.<br />

vibration controller, power amplifier,<br />

shaker, control sensor, the filter and<br />

amplifier. The satellite is secured to the<br />

shaker by the fixture. The vibration<br />

controller’s output signal is amplified<br />

by the power amplifier, and the signal<br />

enters the shaker. The shaker began to<br />

vibrate with the fixture and the satellite.<br />

The acceleration responses are transferred<br />

to the electronic signals by the<br />

control sensors. These signals enter the<br />

computer through the filter and the amplifier.<br />

The vibration controller compares<br />

the average of the control signals with<br />

the test condition, and exports the fit<br />

output signal to the power amplifier.<br />

The power amplifier<br />

The power amplifier is the important<br />

device in the vibration test system. It is<br />

the power source of the system. The<br />

amplifier system receives the output<br />

voltage signal of the vibration controller,<br />

and gives the enough, undistorted<br />

current signal to the shaker that drives<br />

the vibration of the satellite and the<br />

fixture. The transfer function of the power<br />

amplifier is the ratio of the current signal<br />

to the shaker and the voltage signal from<br />

the controller.<br />

DR<br />

Figure 1: the vibration test system.<br />

Figure 2 shows the transfer functions of<br />

the power amplifier in a satellite centre<br />

tube test and a satellite test. As shown<br />

from the two graphs, the transfer functions<br />

of the different structure are the<br />

same. It is indicated that the transfer<br />

function of the power amplifier is independent<br />

of the test structure. The curves<br />

of the different levels are the same<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 21


<strong>Essais</strong> virtuels<br />

shape, and are just a high degree of difference<br />

in the logarithmic coordinates, indicating<br />

that there is only a constant factor<br />

of them. After checking the test record, the<br />

gains are different in the different levels,<br />

so the high degrees of the curves are different.<br />

All the transfer functions in the 5~10Hz<br />

are slowly climbing, in the 60~70Hz near<br />

the peak, which is the characteristics of<br />

power amplifier system itself.<br />

The shaker<br />

The shaker can convert the electrical<br />

energy into the mechanical energy. It<br />

consists of the moving part, the magnetic<br />

circuit system, the support spring and so<br />

on. The working principle is: in a constant<br />

magnetic field, an alternating electromagnetic<br />

force is generated by the alternating<br />

current, which stimulates the movement<br />

component of the vibration. The electromagnetic<br />

force is proportional to the<br />

magnetic intensity, the alternating current<br />

and the effective length of the coil. The<br />

transfer function of the shaker is the ratio<br />

of the control sensor’s signal and the<br />

current signal from the power amplifier.<br />

Figure 3 shows the transfer functions of<br />

the shaker in a satellite centre tube test<br />

and a satellite test. When the objects<br />

of the vibration test are not same, the<br />

transfer functions are different. For the<br />

same object, the transfer functions of<br />

the different levels are same.<br />

The filter and the amplifier<br />

DR<br />

DR<br />

Figure 2: the transfer functions of the power amplifier.<br />

Figure 3: the transfer functions of the shaker.<br />

Usually the signals of the control sensors<br />

are weak and there are many noises in<br />

these signals. The filter and the amplifier<br />

upgrade the signals before the<br />

signals are fed into the controller. The<br />

transfer function of the filter and the<br />

amplifier is the ratio of the signal to the<br />

controller and the control sensor’s signal.<br />

Figure 4 shows the transfer functions of<br />

the filter and the amplifier in a satellite<br />

centre tube test and a satellite test. As<br />

shown from the two graphs, the transfer<br />

functions equal the constant 1.<br />

The vibration controller<br />

The closed-loop control system of the<br />

satellite vibration test is composed of<br />

the digital vibration controller, shaker and<br />

DR<br />

Figure 4: the transfer functions of the filter and amplifier.<br />

the other equipments. It adjusts the<br />

magnitude of the output voltage signal to<br />

meet the test condition. Tests generally<br />

use the control methods: an average of<br />

4 points. The equation of the average is:<br />

(1)<br />

Where: A i (f) is the acceleration amplitude<br />

of the point i. A I (f) is the average acceleration<br />

amplitude of the 4 points. The<br />

point I is a virtual control point which isn’t<br />

existing.<br />

Firstly, the digital vibration controller<br />

calculates the average acceleration amplitude<br />

of the 4 points’ accelerations by the<br />

Eq. (1), compares the average with the<br />

reference acceleration and computes the<br />

error. Secondly, the new drive signal’s<br />

amplitude is calculated by the system<br />

transfer function, compression speed,<br />

scan rate and other parameters. Finally,<br />

the sine drive signal is generated by the<br />

discrete sine wave generating mechanism<br />

and the D/A digital-analogy conversion<br />

device.<br />

Summary<br />

According to the facility and the transfer<br />

of signal, the system is divided into 5<br />

subsystems: the vibration control system,<br />

power amplifier, shaker, acceleration<br />

transducer, the filter and amplifier. In<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 22


<strong>Essais</strong> virtuels<br />

addition to the shaker, the other four<br />

subsystems handle the electronic<br />

signals: current, voltage. The shaker<br />

converts the current to the electromagnetic<br />

force, which is a forced response<br />

analysis in the virtual vibration test<br />

system.<br />

Design the virtual vibration<br />

test system<br />

Overall scheme<br />

In the virtual vibration test system, all<br />

the analysis is carried out in the<br />

frequency domain. The subsystems associated<br />

with the electronic signals are<br />

simulated in MATLAB and the selfprogrammed<br />

software. The forced<br />

response analysis of the shaker is<br />

applied in MSC.Patran/MSC.Nastran and<br />

LMS.Virtual.Lab.<br />

DR<br />

Figure 5: the flow chart of the shaker modelling.<br />

For the power amplifier, the filter and<br />

amplifier, the control sensors, the<br />

transfer functions are between the<br />

frequency and the ratio of output and<br />

input. The table look-up method is used<br />

in MATLAB. Next, the simulation methods<br />

for the shaker and the vibration control<br />

system are focused.<br />

Simulation method of the Shaker<br />

The forced response analysis is very<br />

important in the shaker’s simulation. The<br />

finite element model (FEM) is established<br />

for the shaker by stepping up method.<br />

The shaker has been separated into<br />

several substructures. The FEM is established<br />

and the model test is made for<br />

every substructure. The FEM is modified<br />

by the experimental data. The shaker’s<br />

FEM is constructed via the modified<br />

substructures. This method includes four<br />

steps:<br />

1) Build the sub-structure primary model;<br />

2) Do the vibration tests of the sub-structures;<br />

3) Analyze the relativity of the test result<br />

and the calculation result;<br />

4) Modify the universal sub-structure<br />

model.<br />

The simulation of the shaker test has two<br />

steps in approach. The first step is to<br />

predigest the structure and build the FEA<br />

model to ensure that the numerical value<br />

of the model is right. The second step is<br />

basis the fact experiment data to modify<br />

the FEA model in order to make the FEA<br />

model accord with the dynamic characteristic<br />

of the reality structure and get<br />

the true analysis result of the model.<br />

Figure 5 is the flow chart of modelling<br />

the shaker and satellite. Figure 2 is the<br />

detailed flow chart of simulation testing<br />

of the table-control vibration.<br />

Model testing data is a criterion of the<br />

mathematic model improvement, and the<br />

FRF of the vibration test can be used to<br />

check whether the model is right or not.<br />

But the FRF error will directly infect the<br />

result of model refinement, and influence<br />

the precision of the simulation analysis.<br />

Model improvement usually includes two<br />

steps, one is the model diagnosis and<br />

the other is the model updating. About<br />

the model diagnosis, firstly we should<br />

study the modal shape relativity of calculating<br />

and testing and use the model<br />

shapes and energy distribution to<br />

diagnose the regions of leading error and<br />

the parameters that should be modified.<br />

Then we can adjust the local nodes and<br />

elements of the error area to form the<br />

new analysis model and ascertain these<br />

parameters value. We should make the<br />

number of the updated parameters fewer,<br />

or else the process is very complex and<br />

difficult.<br />

Simulation method<br />

of the vibration controller<br />

The vibration controller is the core of the<br />

virtual vibration test system. It is a signal<br />

source which can auto-adjust the output<br />

signal frequency and amplitude of vibration<br />

parameters. The controller can be divided<br />

into sine and random vibration controller.<br />

Figure 6 shows the flow chart of the sinusoidal<br />

vibration control system.<br />

Firstly, all the parameters are set include<br />

the test level, the frequency range, the<br />

compression speed and so on.<br />

Secondly, a smaller drive signal is<br />

created. According to the system transfer<br />

functions, the response is calculated,<br />

and the drive signal is modified until the<br />

response equal the start level. The<br />

process is:<br />

The initial frequency is f 0 . The start level<br />

is α T . The compression speed is α. The<br />

initial voltage of the drive signal is U 0 .<br />

The transfer function is H(f). So the<br />

response is:<br />

(2)<br />

Calculate the error between the response<br />

and the start level:<br />

(3)<br />

The next response is:<br />

(4)<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 23


<strong>Essais</strong> virtuels<br />

DR<br />

Figure 7: the structure of the virtual vibration test system.<br />

DR<br />

Figure 6: the flow chart of the<br />

sinusoidal vibration control system.<br />

The voltage of the drive signal is:<br />

(5)<br />

The drive signal is modified until the<br />

response equal the start level by<br />

Eq.(2)~Eq.(5).<br />

DR<br />

Figure 8: the virtual vibration test<br />

system of the shaker.<br />

DR<br />

Figure 9: the computational curve<br />

of the driver.<br />

(6)<br />

The voltage of the drive signal is:<br />

(9)<br />

While the ⎢∆a n ⎢ less than 10 -5 , the level<br />

is fit, begin the vibration test.<br />

The controller outputs the drive signal to<br />

the power amplifier, and gets the<br />

response signals from the filter and the<br />

amplifier. The next frequency is calculated<br />

and is compared with the max<br />

frequency. If the frequency is not until<br />

the max, the new drive signal’s amplitude<br />

is calculated by the system transfer<br />

function, compression speed, scan rate<br />

and other parameters, and to continue<br />

the test. The process is:<br />

Calculate the error of the frequency, the<br />

a c (f n ) is the average response of the<br />

control points.<br />

(7)<br />

The expecting response at the next<br />

frequency is:<br />

(8)<br />

While the frequency is greater than the<br />

max frequency, end the test.<br />

Simulation method<br />

of the vibration test system<br />

According to the simulation methods of the<br />

various subsystems, the virtual vibration<br />

test system is assembled by the 5 subsystems.<br />

Figure 7 shows the structure of the<br />

virtual vibration test system include every<br />

subsystem, every software, every signal.<br />

The analysis results need to compare with<br />

the test results. According to test data, the<br />

system is modified. The virtual vibration test<br />

can prefigure the test results. The results<br />

are very close to that of the real test.<br />

The virtual vibration test<br />

of the shaker<br />

Application of the virtual vibration test<br />

system, the empty shaker was tested (see<br />

Figure 8). The test condition is 0.2g vertically,<br />

the frequency range is 5 ~ 500Hz.<br />

DR<br />

Figure 10: the control curves of<br />

the virtual testing vs. the true testing.<br />

Figure 9 shows the voltage of the drive<br />

signal to the power amplifier. Based on the<br />

test condition, the control curve of the<br />

virtual test is quite closed to the true test<br />

(see Figure 10).<br />

Figure 11 shows the point a15, a19<br />

vertical acceleration response curves of<br />

the virtual test and the true test. The old<br />

curves are for the open-loop analysis 2 ,<br />

the new curves are for the closed-loop<br />

analysis. From the figure we can see that<br />

the calculated curve at low frequencies<br />

more consistent with the test curve by<br />

5~100Hz, the error is less than 15%; the<br />

calculated curve at high frequency error<br />

is greater. At the high frequency, the error<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 24


<strong>Essais</strong> virtuels<br />

DR<br />

a15<br />

Figure 11: the a15, a19 acceleration response curves of the virtual testing vs.<br />

the true testing.<br />

a19<br />

Bibliographie<br />

[1] Xiang Shuhong, Yan Tingfei, Qiu Jibao.<br />

Research on the computer simulate technology<br />

of vibration virtual environment for tests about<br />

40T shaker. Journal of Astronautics 25,375-<br />

380(2004).<br />

[2] Xiang Shuhong, Liu Chuang. “Virtual vibration<br />

test and verification for the satellite”. The<br />

Fourteenth International Congress on Sound<br />

and Vibration, 2007.<br />

[3] Xiang Shuhong, Yu Dan, Yan Tingfei. “Some<br />

key technique of dynamic virtual test for safellites”.<br />

Spacecraft Environment Engineering 19,<br />

13-22(2002).<br />

[4] Klenke S. and Baca T. “Structural Dynamics<br />

Test Simulation and Optimization for Aerospace<br />

Components”. Proceedings of the Second Test<br />

and Evaluation International Aerospace Forum,<br />

June 1996, pp.82-89.<br />

[5] Clarence W. de Silva. “Vibration and Shock<br />

Handbook”. Taylor & Francis Group. 2005.<br />

DR<br />

DR<br />

Figure 12: the virtual vibration test<br />

system of a satellite centre tube.<br />

Figure 14: the control curves<br />

of the virtual test vs.<br />

the true test.<br />

of the closed-loop method is less than<br />

that of the open-loop method. This indicates<br />

that the virtual test method has<br />

greatly improved at the high frequency.<br />

The virtual vibration<br />

test of the satellite<br />

centre tube<br />

Application of the virtual vibration test<br />

system, a satellite centre tube was<br />

tested (see Figure 8). The test condition<br />

is 0.8g vertically, the frequency range is<br />

5~100Hz. Figure 9 shows the control<br />

points average acceleration response to<br />

0.8g. Based on the test condition, the<br />

control curve of the virtual test is quite<br />

closed to the true test (see Figure 10).<br />

DR<br />

DR<br />

Figure 13: the computational curve<br />

of the driver.<br />

Figure 15: the PA3Z acceleration<br />

response curves of the virtual test vs.<br />

the true test.<br />

Figure 11 shows the PA3Z vertical acceleration<br />

response curves of the virtual<br />

test and the true test. The two curves<br />

are agree well except 40~50Hz. Analysis<br />

the centre tube, there is the 2 nd mode<br />

at 40~50Hz. The FEM of the tube could<br />

be modified in the future.<br />

Conclusion<br />

The system contains ALL of the subsystems<br />

in the vibration test. The virtual<br />

vibration test can prefigure the test<br />

results. The procedures of the virtual<br />

tests are the same as the real tests. The<br />

numerical results are compared with<br />

those from the real test, and the results<br />

show that the two of them are agree well.<br />

Résumé<br />

Les essais de vibration virtuels servent à<br />

prédire les résultats d’essais pour le<br />

donneur d’ordre de l’essai. Dans cet article,<br />

tout d’abord, le système moyen d’essai en<br />

vibration est présenté. En analysant le<br />

système moyen d’essai de vibration, on<br />

aboutit à une division en 5 sous-systèmes.<br />

La méthode de simulation permettant de<br />

réaliser un essai de vibration virtuel est<br />

déterminée par la prise en compte de l’ensemble<br />

des caractéristiques de chaque<br />

sous-système. Ensuite, le modèle de l’excitateur<br />

et celui du système de contrôle<br />

sont présentés. Enfin, la connexion du<br />

Modèle élément fini du satellite est faite<br />

avec la plateforme virtuelle de vibration.<br />

Une série d’essais virtuels ont été réalisés<br />

suivant cette modélisation. Les procédures<br />

pour les essais virtuels sont les mêmes<br />

que celles des essais réels. Les résultats<br />

numériques des essais réels et des essais<br />

simulés sont comparés, et cette comparaison<br />

montre une bonne corrélation. Ceci<br />

permet de dire que les essais virtuels sont<br />

très importants pour préparer efficacement<br />

une campagne d’essais de satellite.<br />

The system and platform will be more<br />

important in the satellite development ●<br />

LIU Chuang (1) , XIANG Shu-hong (1) ,<br />

FENG Yao-qi (1)<br />

(1) Beijing Institute of Spacecraft<br />

Environment Engineering, Beijing, China.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 25


Méthode de la flèche<br />

Détermination des contraintes<br />

résiduelles sur pièces de forte épaisseur<br />

Partie 1 : rappel du principe de la méthode<br />

La mise en œuvre de la “méthode de la flèche” est présentée dans<br />

cet article au travers d’un exemple qui se rapporte à des pièces en<br />

forme de panneaux de fortes épaisseurs (100 mm) et de grandes<br />

dimensions transversales.<br />

Après un rappel du principe de fonctionnement de la méthode, une<br />

technique de mesure permettant de relever avec une grande exactitude<br />

les variations de flèches au cours de l’enlèvement des couches<br />

successives est proposée.<br />

Les résultats obtenus sont ensuite donnés et commentés. Ils permettent<br />

de mettre en évidence l’origine des anomalies de comportement des<br />

pièces dans lesquelles les contraintes résiduelles sont déterminées.<br />

Mots-clés<br />

Contraintes résiduelles, contraintes en<br />

service, détermination des contraintes résiduelles<br />

par diffraction X, méthode du trou,<br />

méthode de la flèche, répartition des<br />

contraintes résiduelles, méthode de relaxation.<br />

plus juste aux exigences de tenue en<br />

service.<br />

Avec le dimensionnement au plus<br />

juste des pièces mécaniques,<br />

l’optimisation des procédés<br />

de fabrication et l’augmentation des<br />

cadences de fonctionnement, il y a de<br />

plus en plus souvent des anomalies de<br />

comportement et/ou de fonctionnement<br />

des machines industrielles qui ont pour<br />

origine la présence de contraintes résiduelles.<br />

Il est à présent nécessaire d’en<br />

tenir compte au moment de la phase de<br />

conception dimensionnement. Mais les<br />

contraintes résiduelles ne peuvent pratiquement<br />

être déterminées qu’expérimentalement<br />

à l’aide de mesures.<br />

Les méthodes habituelles ne permettent<br />

de déterminer les contraintes résiduelles<br />

que sur une couche de faible épaisseur<br />

à la surface des pièces (au maximum<br />

quelques millimètres). Lorsque les pièces<br />

sont beaucoup plus épaisses et que la<br />

répartition des contraintes résiduelles<br />

dans leur épaisseur n’est pas uniforme,<br />

il faut avoir recours à des méthodes<br />

spéciales, parmi lesquelles la “méthode<br />

de la flèche”.<br />

Présentation<br />

de la “méthode de la flèche”<br />

Il y a quelques dizaines d’années, la<br />

plupart des mécaniciens ne se préoccupaient<br />

pas des contraintes résiduelles.<br />

Ce n’est pas pour autant que celles-ci<br />

n’existaient pas. Mais du fait que les<br />

coefficients de sécurité, utilisés dans les<br />

calculs de dimensionnement, étaient relativement<br />

élevés et qu’il n’y avait pas de<br />

limitation dans les durées des procédés<br />

de fabrication, même si des contraintes<br />

résiduelles existaient, celles-ci n’avaient<br />

pas des niveaux exagérés et leur effets<br />

ne se voyaient pas.<br />

De nos jours, il n’est plus possible de<br />

nier la présence éventuelle de contraintes<br />

résiduelles gênantes dans les pièces<br />

mécaniques.<br />

Actuellement les calculs de dimensionnement<br />

sont réalisés, la plupart du<br />

temps, par ordinateur. Ils sont donc plus<br />

rigoureux et, du coup, les coefficients de<br />

sécurité sont souvent plus faibles.<br />

Ceci est mis à profit pour répondre aux<br />

exigences économiques actuelles ainsi<br />

qu’aux impératifs de préservation de l’environnement.<br />

Ceci aboutit d’une part à<br />

des réductions de masses, et d’autre<br />

part à des choix de procédés de fabrication<br />

moins coûteux ayant des durées<br />

de mises en œuvre plus courtes. Les<br />

pièces sont optimisées pour répondre au<br />

Il en résulte que les contraintes résiduelles<br />

sont, en général, plus élevées<br />

qu’auparavant. À côté de cela, elles sont<br />

rarement prises en compte dans les<br />

calculs. Les coefficients de sécurité étant<br />

plus faibles, les marges par rapport aux<br />

limites de rupture sont également plus<br />

faibles et le cumul des contraintes résiduelles<br />

avec les contraintes en service<br />

conduit à des niveaux de contraintes que<br />

les matériaux ne peuvent plus supporter.<br />

Il en résulte des défaillances en service.<br />

Contrairement aux contraintes en service,<br />

les niveaux des contraintes résiduelles<br />

sont, en général, très difficiles,<br />

voire impossibles à prévoir. C’est d’ailleurs<br />

pour cela qu’elles sont rarement prises<br />

en compte dans les calculs de dimensionnement.<br />

Cependant, actuellement un constructeur<br />

de produits mécaniques qui ignore<br />

l’existence possible de contraintes résiduelles<br />

s’expose à de sévères déboires.<br />

Mais alors, comment faire pour prendre<br />

en compte des contraintes résiduelles<br />

qu’il n’est pas possible de prévoir ?<br />

Il n’y a qu’un moyen, c’est de les déterminer<br />

expérimentalement par des mesures<br />

relevées directement sur les<br />

pièces incriminées.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 26


Par contre, il existe plusieurs techniques<br />

de mesures pour faire cela.<br />

Les 2 principales techniques rencontrées<br />

dans l’industrie sont : la détermination<br />

des contraintes résiduelles par rayons X<br />

et la détermination des contraintes résiduelles<br />

par les méthodes du trou.<br />

Ces techniques sont dites non destructives<br />

ou semi-destructives car elles ne<br />

compromettent pas l’utilisation des<br />

pièces sur lesquelles elles sont appliquées.<br />

Les méthodes du trou sont des méthodes<br />

de détermination des contraintes<br />

résiduelles par relaxation. Ce sont des<br />

méthodes indirectes qui consistent à<br />

retirer de la matière des pièces étudiées<br />

et à remonter aux contraintes qu’il y avait<br />

dans cette matière en faisant des<br />

mesures avant et après les retraits de<br />

matière.<br />

Chacune d’elles présente certaines limitations.<br />

Comme les limitations de l’une<br />

ne sont pas obligatoirement les mêmes<br />

que les limitations de l’autre, elles sont<br />

souvent complémentaires.<br />

Par contre, ces méthodes ne permettent<br />

de faire des mesures que dans des<br />

couches d’au maximum quelques millimètres<br />

d’épaisseur à la surface des<br />

pièces. Elles ne permettent pas de déterminer<br />

les contraintes résiduelles dans<br />

les pièces de fortes épaisseurs à l’intérieur<br />

desquelles la répartition de ces<br />

contraintes résiduelles n’est pas uniforme.<br />

Il faut alors avoir recours à d’autres techniques,<br />

qui sont en général des méthodes<br />

destructives.<br />

Nous présentons la mise en œuvre de la<br />

méthode dite “de la flèche” en 2 parties.<br />

La première partie, objet de ce numéro,<br />

traite du principe de fonctionnement de<br />

la méthode.<br />

La deuxième partie, qui concerne la technique<br />

de mesure permettant de relever<br />

avec une grande exactitude les variations<br />

de flèche au cours de l’enlèvement des<br />

couches successives, sera développée<br />

dans le numéro suivant.<br />

La méthode de la flèche est une méthode<br />

de détermination des contraintes résiduelles<br />

par relaxation. L’un de ses avantages<br />

est d’obtenir la répartition des<br />

contraintes résiduelles dans l’épaisseur<br />

des pièces en forme de plaques planes<br />

DR<br />

DR<br />

Figure 1 : plaque dans laquelle il y a des contraintes résiduelles.<br />

Figure 2 : forme de la pièce après le retrait d’une couche d’épaisseur de.<br />

ou même légèrement incurvées à partir<br />

de simples variations de flèches.<br />

Le principe<br />

de fonctionnement<br />

de la méthode de la flèche<br />

La méthode de la flèche s’applique aux<br />

pièces planes ou approximativement<br />

planes en forme de plaques dans<br />

lesquelles les contraintes résiduelles ont<br />

une répartition uniforme en surface.<br />

C’est-à-dire qu’à une profondeur donnée<br />

dans l’épaisseur de la plaque, les<br />

tenseurs des contraintes résiduelles sont<br />

identiques. Par contre, ils évoluent avec<br />

la profondeur.<br />

Cette technique consiste à retirer, par<br />

un procédé d’usinage donné (usinage<br />

électrochimique ou usinage conventionnel<br />

par outil coupant ou autre) des<br />

couches successives d’épaisseurs constantes<br />

de faibles valeurs.<br />

Chaque fois qu’une couche est retirée,<br />

en général la forme de la plaque varie<br />

légèrement. Elle se cambre un peu.<br />

La technique de mesure qui va permettre<br />

de remonter aux contraintes résiduelles<br />

qu’il y avait dans la pièce de départ<br />

consiste à mesurer les variations de<br />

flèches qui apparaissent après le retrait<br />

de chaque couche.<br />

Soit une plaque parallélépipédique en<br />

matériau de module d’élasticité E, de<br />

longueur L, de largeur b et d’épaisseur H<br />

comme celle représentée sur la figure 1.<br />

Lorsqu’une couche d’épaisseur de, dans<br />

laquelle il y a, par exemple, des<br />

contraintes résiduelles de traction σ(e),<br />

DR<br />

est retirée, il apparaît, pour commencer,<br />

une variation de flèche df e comme<br />

indiqué sur la figure 2.<br />

La contrainte σ(e) qu’il y avait dans cette<br />

couche peut se déduire de la variation<br />

de flèche df e par la relation :<br />

Mais, en plus de la variation de flèche,<br />

le retrait d’une couche provoque une<br />

légère modification des contraintes résiduelles<br />

dans le reste de la pièce.<br />

Toujours dans le cas du retrait d’une couche<br />

avec des contraintes résiduelles de traction,<br />

cette modification se caractérise par<br />

une variation de répartition des contraintes<br />

existant dans le reste de la plaque du type<br />

de celle représentée figure 3.<br />

C’est une répartition linéaire équilibrée<br />

sur la hauteur totale de la section avec<br />

de la traction du côté de la couche retirée<br />

Figure 3 : variation de la répartition<br />

des contraintes dans les sections<br />

droites de la plaque suite au retrait<br />

d’une couche dans laquelle il y a<br />

des contraintes de traction.<br />

(1)<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 27


SPECIALTY TESTING & DEVELOPMENT CO<br />

Figure 4 : exemple montrant<br />

une application de la théorie de<br />

la méthode de la flèche à un dispositif<br />

de mesure des contraintes résiduelles<br />

dans un dépôt en couche mince.<br />

et de la compression d’amplitude égale<br />

de l’autre côté.<br />

L’amplitude maximum de cette répartition<br />

de contrainte σ’ m s’exprime à<br />

nouveau en fonction de la flèche à l’aide<br />

de la relation :<br />

Les contraintes résiduelles qu’il y avait<br />

dans la première couche se déduisent<br />

directement de la mesure de la variation<br />

de la flèche df e comme ceci a été vu<br />

précédemment. Par contre, dans les<br />

autres couches, il faut tenir compte des<br />

modifications de contraintes provoquées<br />

par les retraits successifs des couches<br />

précédentes.<br />

Ainsi, les contraintes résiduelles qu’il y<br />

avait dans la p e couche peuvent être<br />

déterminées après le retrait de cette<br />

couche en utilisant la relation :<br />

(1)<br />

(1)<br />

DR<br />

Figure 5 : autre exemple d’utilisation de la méthode de la flèche pour déterminer<br />

des contraintes résiduelles : schémas d’un dispositif de mesures de contraintes<br />

résiduelles in situ : KURODA, 1988 (a.), MATEJICEK 2003 (b.).<br />

Si la mesure de flèche est faite sur la<br />

face opposée à la face usinée de la<br />

plaque, alors la relation permettant de<br />

déterminer les contraintes résiduelles<br />

dans la couche retirée est :<br />

À l’aide de l’expression présentée ciavant,<br />

il est facile de déterminer les<br />

contraintes résiduelles dans les différentes<br />

couches de la plaque au fur et à<br />

mesure de leur retrait.<br />

Une simple feuille de calcul Excel suffit<br />

à cela, comme indiqué dans l’exemple<br />

d’utilisation de cette méthode pour la<br />

détermination des contraintes résiduelles<br />

dans une éprouvette tirée de l’ébauche<br />

d’un panneau usiné de grandes dimensions<br />

présenté dans la partie 2 de cet<br />

article, à paraître dans le prochain<br />

numéro d’<strong>Essais</strong> & <strong>Simulations</strong>.<br />

Cette méthode permet de tracer la<br />

courbe de répartition dans l’épaisseur<br />

des contraintes résiduelles existant à<br />

l’intérieur des plaques.<br />

Elle donne de bons résultats.<br />

Par contre, il est nécessaire de prendre<br />

un certain nombre de précautions lors<br />

de sa mise en œuvre. Les trois principales<br />

sont :<br />

- le choix de techniques d’usinage qui ne<br />

provoquent pas de nouvelles contraintes<br />

résiduelles (l’usinage à l’outil coupant<br />

est possible à condition, d’une part,<br />

d’utiliser des outils parfaitement<br />

adaptés au matériau, affûtés de<br />

manière à limiter au maximum les<br />

efforts de coupe et, d’autre part, de<br />

choisir des conditions de coupe avec<br />

des avances et des profondeurs de<br />

passes faibles) ;<br />

- la mesure des variations de flèches<br />

avec une technique présentant une<br />

grande résolution et une grande exactitude<br />

(la résolution doit, en général,<br />

être au moins de l’ordre du micron) ;<br />

- la libération parfaite des sollicitations<br />

mécaniques appliquées à la plaque au<br />

moment des relevés des variations de<br />

flèches.<br />

En réalité, ces précautions ne sont, en<br />

général, pas très difficiles à prendre, l’essentiel<br />

étant surtout de ne pas les<br />

oublier.<br />

Une fois que toutes les couches sont retirées<br />

et que la répartition des contraintes<br />

résiduelles dans toute l’épaisseur de la<br />

pièce est obtenue, il est conseillé de faire<br />

un test d’équilibre de la répartition des<br />

contraintes. En effet, une pièce non sollicitée<br />

dans laquelle il y a des contraintes<br />

résiduelles est en équilibre. L’intégrale<br />

des contraintes résiduelles sur l’aire<br />

(1) Au besoin, se reporter au document<br />

intitulé “Théorie du fonctionnement de la<br />

méthode de la flèche pour la détermination<br />

des contraintes résiduelles”, à consulter<br />

dans la bibliothèque de l’ASTE.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 28


pièces en forme de panneaux de fortes<br />

épaisseurs (100 mm) et de grandes<br />

dimensions transversales ●<br />

Stéphane Auger (2) ,<br />

Raymond Buisson (3)<br />

DR<br />

Figure 6 : jauges de déformations mécaniques placées sur la pièce.<br />

complète d’une section droite doit donc<br />

être égale à zéro.<br />

En pratique, il faut que la valeur absolue<br />

de ce critère soit inférieure à quelques %<br />

de la contrainte résiduelle maximale<br />

multipliée par l’aire de la section droite.<br />

La méthode<br />

de la flèche modifiée<br />

Il existe une variante de cette méthode<br />

qui se différencie de la méthode de base<br />

par le fait que les grandeurs mesurées<br />

pendant le retrait par usinage des<br />

couches ne sont pas les variations de<br />

flèches, mais les variations de déformations<br />

mécaniques apparaissant sur la<br />

face opposée à la face usinée.<br />

Pour cela, des jauges sont collées sur<br />

l’une des faces de la pièce comme<br />

indiqué figure 6.<br />

L’établissement des relations permettant<br />

de déterminer les contraintes résiduelles<br />

à l’intérieur de la pièce à partir<br />

des indications des jauges de déformations<br />

mécaniques fait l’objet des traités<br />

de mécanique théorique se rapportant à<br />

ce sujet (1) .<br />

Pour obtenir les contraintes résiduelles<br />

qu’il y avait à l’origine dans la matière<br />

de la pièce qui est enlevée au cours des<br />

passes successives, il faut donc utiliser<br />

les relations récurrentes présentées ciaprès.<br />

En utilisant les variables indicées<br />

suivantes :<br />

- e p : l’épaisseur au centre de l’éprouvette<br />

après le retrait de la (p-1) e couche ;<br />

- de p : la profondeur de la p e couche de<br />

matière retirée par usinage ;<br />

- dε Lp et dε Tp : les déformations mécaniques<br />

mesurées par les jauges après<br />

le retrait de la p e couche ;<br />

- σ L (e p ) et σ T (e p ) : les contraintes résiduelles<br />

qu’il y avait dans la p e couche<br />

de matière retirée, ces relations sont :<br />

Avec ces relations, il est facile de déterminer<br />

les contraintes résiduelles dans<br />

une pièce au fur et à mesure du retrait<br />

par usinage des différentes couches de<br />

matière.<br />

Il suffit pour cela de préparer une feuille<br />

de calcul Excel. On peut ainsi d’une part<br />

saisir les caractéristiques dimensionnelles<br />

de chaque couche retirée ainsi<br />

que les variations de déformations<br />

correspondantes indiquées par les<br />

jauges, et d’autre part faire automatiquement<br />

les calculs donnant les<br />

contraintes résiduelles relatives à<br />

chacune des couches.<br />

Pour illustrer cette méthode et sa variante,<br />

le numéro suivant traitera d’un<br />

exemple d’utilisation de la détermination<br />

des contraintes résiduelles par cette<br />

méthode. Cet exemple concernera des<br />

Bibliographie<br />

- “Mécaniciens : attention aux contraintes résiduelles”,<br />

J.-F. C., Mesures – Régulation – Automatisme,août-septembre<br />

1979.<br />

- “Méthode de la flèche, méthode de la source<br />

des contraintes résiduelles”, A. Niku-Lari, Cetim.<br />

- “Handbook of Residual Stress and Deformation<br />

of Steel (p. 118-119 : “Stress Determination in<br />

coating: Deflection Method”)”, ASM International,<br />

edited by G. Totten, M. Howes, T. Inoue.<br />

Abstract<br />

With the design as close to the needs as<br />

possible of mechanical parts, the optimization<br />

of production processes and the<br />

increase of running cycles rates, failures<br />

due to residual stresses occur more and<br />

more frequently during the service of<br />

industrial machines.<br />

Now, it’s necessary to deal with these residual<br />

stresses as soon as the beginning of<br />

the engineering process of mechanical<br />

parts. But residual stresses can’t, mostly,<br />

be known in other way than experimentally<br />

by the mean of measurements.<br />

Usual residual stresses determination<br />

methods only give stresses values inside<br />

a thin layer (some millimeters) at the<br />

surface of the mechanical parts.<br />

When these ones are thicker a lot and<br />

when stresses distribution in the thickness<br />

is not uniform, it’s necessary to take<br />

special methods.<br />

The use of such one called “deflection<br />

method” is given hereafter through an<br />

example dealing with parts having the<br />

shape of flat panels with a heavy thickness<br />

(100 mm) with large transversal<br />

dimensions.<br />

After the running principle of the method<br />

remind, a measurement technique giving<br />

very precise deflections variations is<br />

proposed.<br />

Then results of residual stresses determination<br />

and comments on these results are<br />

given. These ones point out the origin of<br />

the mistakes in the behavior of the parts in<br />

which the residual stresses are determined.<br />

(2) Cetim.<br />

(3) Expert consultant.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 29


Applications Industrielles<br />

Mesure des pyrochocs<br />

Les limites des accéléromètres<br />

En 1983, un fournisseur américain développe une gamme d’accéléromètres<br />

piézo-résistifs de technologie MEMS présentant une résonance<br />

variant de quelques centaines de kHz à plus d’1 MHz. L’intention originale<br />

est d’atteindre une fréquence de résonance suffisamment élevée<br />

pour que le capteur ne réagisse pas aux chocs d’origine mécanique ou<br />

pyrotechnique (nommés pyrochocs). Malheureusement, les avantages<br />

procurés par les fréquences de résonance élevées de ces accéléromètres<br />

sont compensés par l’amortissement intrinsèque extrêmement<br />

faible du silicium, qui provoque souvent le dépassement de la plage<br />

de mesure et les conséquences en découlant.<br />

Mots-clés<br />

Accéléromètre MEMS, choc pyrotechnique.<br />

- NASA HDBK-7003 : accélération supérieure<br />

à 5 000 g, contenu fréquentiel<br />

supérieur à 100 000 Hz.<br />

En 2008, PCB Piezotronics conçoit<br />

et met sur le marché les nouveaux<br />

accéléromètres piézorésistifs<br />

MEMS de la série 3500. Ils se distinguent<br />

principalement par un amortissement<br />

interne (visqueux, ~0,05 de<br />

l’amortissement critique, Q = 10) et des<br />

arrêts en fin de plage.<br />

Le but de l’amortissement est de réduire<br />

le coefficient Q du capteur à sa fréquence<br />

de résonance. On attend d’une valeur Q<br />

plus faible qu’elle réduise la fragilité et<br />

les problèmes associés de dépassement<br />

de la plage de mesure constatés chez<br />

les accéléromètres MEMS lors des chocs<br />

d’origine pyrotechnique. Pour permettre<br />

l’amortissement, il faut augmenter la<br />

souplesse de l’élément sensible du<br />

modèle 3500, c’est-à-dire réduire sa rigidité.<br />

C’est là l’origine de la réflexion<br />

faisant l’objet de cet article : jusqu’où<br />

faut-il augmenter la fréquence dans le<br />

mesurage des accélérations ? L’auteur<br />

contribue à cette réflexion avec l’opinion<br />

que 20 kHz est une limite supérieure<br />

réaliste, et nous présentons ici ce qui<br />

sous-tend cette opinion.<br />

De fait, l’auteur a déjà été confronté deux<br />

fois à cette question. Au début des<br />

années 1970, lors d’un atelier sur les<br />

transducteurs financé par le DoD National<br />

Test Ranges (États-Unis), est apparu un<br />

besoin d’accéléromètres capables de<br />

mesurer jusqu’à 100 kHz lors d’expériences<br />

en physique des ondes de choc.<br />

À cette époque, il n’existait pas le<br />

moindre concept pour un tel accéléromètre.<br />

En 1976 chez Sandia National<br />

Laboratories, l’auteur a de nouveau reçu<br />

une demande pour le mesurage d’accélérations<br />

à des fréquences extrêmement<br />

élevées. Le but était de caractériser les<br />

données structurelles des véhicules<br />

hypersoniques traversant un orage. La<br />

théorie indiquait que le contenu fréquentiel<br />

de leur DSP (densité spectrale de<br />

puissance) était supérieur à 50 kHz.<br />

Nous avons effectué plusieurs calculs<br />

qui décourageaient toute tentative de<br />

mesurage sur une série d’essai.<br />

Dans les années qui ont suivi, plusieurs<br />

normes ont évolué pour définir et encadrer<br />

les essais de pyrochocs. En particulier<br />

:<br />

- IEST-RP-DTE032.1, Pyroshock Testing<br />

Techniques (en cours de révision et de<br />

mise à jour) ;<br />

- MIL-STD-810F, Méthode 517 (des modifications<br />

sont actuellement proposées) ;<br />

- NASA HDBK-7003.<br />

Ces normes comportent des définitions<br />

pour les essais de pyrochocs à courte<br />

distance. Voici les définitions d’accélération<br />

et de contenu fréquentiel pour<br />

chacune d’elles :<br />

- IEST-RP-DTE032.1 : aucune spécification<br />

d’accélération, contenu fréquentiel<br />

supérieur à 10 000 Hz ;<br />

- MIL-STD-810F : accélération supérieure<br />

à 5 000 g, contenu fréquentiel supérieur<br />

à 100 000 Hz ;<br />

Ces définitions peuvent impliquer que les<br />

fréquences très supérieures à 10 000 Hz<br />

peuvent et devraient être mesurées par<br />

des accéléromètres montés en surface.<br />

Nous pensons que cette implication est<br />

incorrecte, pour les quatre raisons<br />

suivantes :<br />

- les limites de l’étalonnage du système<br />

national de normes empêchent de vérifier<br />

les performances des accéléromètres<br />

au-dessus de 20 kHz ;<br />

- la modélisation structurelle d’une unité<br />

sous essai (UUT) à très hautes fréquences<br />

manque généralement de<br />

capacités prédictives permettant une<br />

corrélation avec les mesures expérimentales<br />

de structure ;<br />

- par leurs dimensions, les accéléromètres<br />

tendent à fournir une moyenne<br />

spatiale de la réponse structurelle de<br />

l’UUT aux fréquences élevées ;<br />

- aux très hautes fréquences, la présence<br />

de l’accéléromètre altère la réponse de<br />

la structure à laquelle il est fixé.<br />

Nous allons approfondir et détailler<br />

chacune de ces raisons.<br />

Mesurages de pyrochocs<br />

La figure 1 montre un accéléromètre PCB<br />

modèle 3500 et sa dimension par<br />

rapport à une pièce d’un cent étatsunien.<br />

Cette pièce a un diamètre de<br />

19 mm et une épaisseur de 1,27 mm.<br />

La fréquence de résonance du premier<br />

mode de vibration de la pièce seule, en<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 30


Applications Industrielles<br />

DR<br />

Figure 1 : accéléromètre PCB<br />

modèle 355 sur une pièce<br />

d’un cent états-unien.<br />

bords libres, est calculée à 12 470 Hz.<br />

La pièce pèse environ 2,57 g.<br />

On imagine à quel point la fixation de<br />

l’accéléromètre à la pièce ferait chuter<br />

cette fréquence de résonance, par<br />

augmentation de la rigidité et de la<br />

masse (avec 1,28 g supplémentaire). La<br />

prémisse de l’article s’appuie sur cette<br />

observation. C’est-à-dire qu’il existe une<br />

limite supérieure de fréquence au-delà<br />

de laquelle la réponse structurelle d’une<br />

UUT fournie par un accéléromètre cesse<br />

d’être signifiante. La difficulté est maintenant<br />

de définir cette limite.<br />

Limites de l’étalonnage<br />

De nombreux pays développés disposent<br />

de services publics centralisés d’étalonnage.<br />

Aux États-Unis, c’est le NIST<br />

(National Institute of Standards and Technology).<br />

Au NIST, la limite supérieure de<br />

fréquence pour le service d’étalonnage<br />

des accéléromètres est de 20 000 Hz.<br />

Spécifiquement, l’étalonnage est effectué<br />

entre 3 et 20 kHz pour un déplacement<br />

constant et égal à 121,10 nm, ce<br />

qui permet un mesurage exact. L’accélération<br />

qui en résulte varie entre environ<br />

4g à 3 kHz et 200 g à 20 kHz. L’incertitude<br />

de mesure se situe entre 1 et 3 %.<br />

Au-dessus de 20 kHz, les pots vibrants<br />

sur palier à air qui créent généralement<br />

le mouvement linéaire atteignent leur<br />

limite opérationnelle. De plus, quelle que<br />

soit la valeur constante de l’accélération,<br />

l’augmentation de la fréquence des vibrations<br />

se traduit par une baisse des déplacements<br />

associés et donc de l’exactitude<br />

des mesures interférométriques par<br />

laser. Or ces mesures interférométriques<br />

et les fréquences déterminées de<br />

manière indépendante sont la base de<br />

l’étalonnage. En résumé, 20 kHz est la<br />

limite supérieure de fréquence pour l’étalonnage<br />

quantitatif des accéléromètres,<br />

sur les plans national et international.<br />

DR<br />

Figure 2 : résultats de l’essai de vibrations sur le modèle 3500.<br />

Toujours dans le domaine de l’étalonnage,<br />

les accéléromètres piézorésistifs<br />

MEMS produisent typiquement des<br />

sorties maximales entre 100 et 200 mV.<br />

Par conséquent, un accéléromètre à<br />

20 000 g utilisé pour le mesurage des<br />

pyrochocs produirait des niveaux de<br />

signal entre 0,02 et 0,04 mV à 4g et<br />

entre 1 et 2 mV à 200 g.<br />

Ces faibles niveaux de signal augmentent<br />

encore l’incertitude de la fonction<br />

fréquence-réponse d’un accéléromètre<br />

(figure 2). La courbe rouge est la réponse<br />

la plus probable du modèle 3500, et les<br />

données d’essai réel (en bleu) comportent<br />

une incertitude due au bas niveau<br />

de signal. Les fonctions fréquenceréponse<br />

sont donc encore plus difficiles<br />

à déterminer avec les bas niveaux de<br />

signal provenant de l’accéléromètre<br />

soumis à essai.<br />

Cela apporte une justification supplémentaire<br />

à la limite supérieure de 20 kHz<br />

pour la certification de performance des<br />

accéléromètres. Au-delà de cette valeur,<br />

des résonances imprévues à l’intérieur<br />

de l’élément sensible, en torsion ou latérales,<br />

des résonances du boîtier de l’accéléromètre<br />

et de son fil conducteur<br />

peuvent fausser le signal interprété<br />

comme la réponse structurelle de l’UUT.<br />

Aucune de ces résonances ne serait identifiée<br />

lors du processus d’étalonnage.<br />

Enfin, les anomalies de montage peuvent<br />

également contribuer à l’erreur.<br />

Limites de la modélisation<br />

aux fréquences élevées<br />

Les techniques d’essai de pyrochocs<br />

sont initialement apparues dans le<br />

secteur aérospatial. La plupart des UUT<br />

de ce secteur sont de dimensions assez<br />

importantes (allant de satellites de<br />

quelques milliers de cm 3 à d’énormes<br />

véhicules de lancement). Par conséquent,<br />

leur fréquence de résonance fondamentale<br />

est faible. On s’intéresse cependant<br />

aux fréquences élevées lorsqu’il faut<br />

évaluer la réponse à un pyrochoc des<br />

petits éléments électroniques et d’autres<br />

composants fragiles de l’UUT.<br />

La modélisation de la réponse des structures<br />

complexes aux fréquences élevées<br />

exige leur discrétisation en un très grand<br />

nombre d’éléments finis : ils peuvent être<br />

des milliers, des dizaines de milliers ou<br />

plus encore.<br />

Pour une structure donnée, la dimension<br />

des éléments finis diminue avec l’augmentation<br />

de leur nombre. Même si les<br />

dimensions de l’UUT sont importantes,<br />

l’accéléromètre mesure la réponse de<br />

l’élément auquel il est fixé. Lorsque nous<br />

tentons d’établir une corrélation expérimentale<br />

entre les mesures dynamiques<br />

de structure et les modèles prédictifs<br />

aux hautes fréquences, nous sommes<br />

ramenés au dilemme dimensionnel du<br />

paragraphe précédent.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 31


Applications Industrielles<br />

On pourrait envisager d’inclure les caractéristiques<br />

structurelles de l’accéléromètre<br />

dans la modélisation. Mais ces<br />

caractéristiques ne sont pas bien définies<br />

(en particulier celles du fil conducteur)<br />

et la fixation crée des variables<br />

supplémentaires. Par exemple, un article<br />

de Machine Design (du 15/11/2002)<br />

dénombre 75 facteurs influant sur le couple<br />

appliqué à un seul boulon. Cette réflexion<br />

sur les limites de la modélisation ne produit<br />

pas de valeur limite de fréquence jusqu’à<br />

laquelle les mesures des accéléromètres<br />

seraient signifiantes, mais elle confirme<br />

qu’une telle limite doit exister.<br />

Moyennage spatial<br />

Pour conserver le contenu fréquentiel<br />

des données échantillonnées, il faut au<br />

moins deux échantillons par cycle de<br />

sinusoïde. Cette exigence provient du<br />

célèbre théorème de Nyquist-Shannon,<br />

et un échantillonnage le respectant est<br />

un échantillonnage de Nyquist.<br />

Cependant, si le but du mesurage est<br />

d’obtenir une valeur crête expérimentale<br />

d’un signal sinusoïdal, la fréquence<br />

d’échantillonnage doit être au moins<br />

10 fois supérieure à la fréquence du<br />

signal. L’erreur sur la valeur crête est<br />

alors inférieure à 5 %. On déduit de cette<br />

exigence que la longueur d’onde de toute<br />

onde élastique se propageant dans la<br />

structure est particulièrement importante<br />

pour établir la densité spatiale minimale<br />

de montage de l’accéléromètre, cette<br />

densité minimale étant elle-même requise<br />

pour définir la limite supérieure du<br />

contenu fréquentiel, pour un pyrochoc ou<br />

un autre évènement générant des hautes<br />

fréquences. Cette longueur d’onde doit<br />

donc permettre de définir une limite supérieure<br />

de fréquence pour les mesures<br />

signifiantes.<br />

La vitesse de propagation des ondes<br />

élastiques dans un solide est définie par<br />

les constantes de Lamé λ et µ. Supposons<br />

un milieu solide isotrope non borné.<br />

La surface d’une discontinuité avance<br />

dans le solide à la vitesse de :<br />

(1)<br />

pour les ondes de compression et de :<br />

(2)<br />

pour les ondes de cisaillement.<br />

DR<br />

Toutes les ondes planes se propagent<br />

aux vitesses (1) ou (2). Il existe un troisième<br />

type d’ondes (de Raleigh), qui se<br />

propagent à la surface des corps solides<br />

et élastiques. Leur vitesse étant toujours<br />

comprise entre les deux précédentes,<br />

les ondes de compression et de cisaillement<br />

sont évaluées en tant que cas<br />

limites. Les constantes de Lamé sont<br />

liées aux propriétés du matériau E<br />

(module de Young) et υ (coefficient de<br />

Poisson).<br />

Prenons l’acier (E = 210 000 MPa, υ =<br />

0,33) pour effectuer quelques calculs<br />

représentatifs. Dans ce matériau, la<br />

vitesse nominale théorique de l’onde de<br />

compression (onde P) est de 6 000 m/s.<br />

Celle de l’onde de cisaillement (onde S)<br />

est de 3 000 m/s. Comme mentionné<br />

plus haut, l’onde de Raleigh possède une<br />

vitesse intermédiaire.<br />

Grâce à la relation :<br />

(longueur d’onde) x (fréquence) = vitesse (3)<br />

on calcule les longueurs d’onde des<br />

ondes P et S dans l’acier à 20 kHz. Leur<br />

valeur nominale théorique est de 30 cm<br />

pour l’onde P et de 15 cm pour l’onde S.<br />

Sur une structure, les accéléromètres<br />

sont montés à une distance minimale<br />

typique de 2,5 cm. Compte tenu de l’exigence<br />

ci-dessus (présentée avant la<br />

formule (1), en italique) de 10 échantillons<br />

par cycle pour définir à 5% près<br />

la valeur crête d’une onde sinusoïdale<br />

Explosion dans un bunker.<br />

(l’erreur maximale étant donc de 18°),<br />

10 accéléromètres distants de 2,5 cm<br />

conviennent pour une longueur d’onde<br />

de 25 cm. Par conséquent, l’ordre de<br />

grandeur des longueurs d’onde ci-dessus<br />

(15 et 30 cm) indique également que<br />

20 kHz est une limite supérieure approximative<br />

pour le mesurage quantitatif dynamique<br />

au moyen d’accéléromètres.<br />

Altération de la réponse<br />

structurelle<br />

L’impédance mécanique peut être considérée<br />

comme la résistance d’une structure<br />

au mouvement. Soient F la force<br />

harmonique crête appliquée à une structure<br />

et V la vitesse réponse en un point.<br />

Pour une fréquence donnée, l’impédance<br />

mécanique est :<br />

Z mech = (F/V)e jθ (4)<br />

Un accéléromètre peut être approximé<br />

par une masse pure à environ 80 % de<br />

la fréquence de résonance fondamentale<br />

de son support sismique. En effet, s’il<br />

est bien conçu, même si la fréquence<br />

approche la valeur de résonance du<br />

support sismique de l’accéléromètre, la<br />

réponse sera dominée par celle du<br />

boîtier, plus grand et plus rigide. L’impédance<br />

mécanique Z d’un accéléromètre<br />

peut donc être calculée ainsi :<br />

(5)<br />

où ω est la vitesse angulaire, A est le<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 32


Applications Industrielles<br />

déplacement à ω, j 2 = –1 et m accel est la<br />

masse de l’accéléromètre.<br />

On remarque que l’impédance de l’accéléromètre<br />

augmente avec la fréquence.<br />

Il est à présent facile de calculer l’impédance<br />

mécanique des accéléromètres<br />

PCB de la série 3500. Chacun de ces<br />

accéléromètres possède une masse<br />

d’environ 2 g, y compris les vis de<br />

montage et le fil conducteur. Le module<br />

de Z accel vaut 0,128 g·s/mm à 100 Hz<br />

et 25,66 g·s/mm à 20 kHz.<br />

Évaluons maintenant l’effet de Z accel sur<br />

la réponse de la structure à laquelle l’accéléromètre<br />

est fixé. Soit une structure<br />

linéaire élastique soumise à une force<br />

harmonique constante. La présence d’un<br />

accéléromètre modifie le mouvement<br />

structurel de la manière suivante :<br />

V final = V initial [Z structure / (Z structure + Z accel )] (6)<br />

Pour les structures les plus complexes,<br />

Z structure est indéfini. Cependant, cette<br />

équation identifie l’effet de l’accéléromètre<br />

sur la réponse de la structure.<br />

Nous avons étudié le cas où l’accéléromètre<br />

est placé à l’extrémité d’une<br />

longue tige fine, elle-même soumise à<br />

une excitation harmonique à son autre<br />

extrémité. C’est l’un des rares cas où<br />

Z structure peut être calculé. Sa formule<br />

est :<br />

(7)<br />

Dans cette équation, j, E et ω ont la<br />

même définition que plus haut, A est<br />

l’aire de la section de la tige, L sa<br />

longueur et ρ sa masse volumique.<br />

Pour effectuer un calcul représentatif,<br />

prenons une tige d’aluminium de longueur<br />

25 cm et de diamètre 2,5 cm. La<br />

vitesse de propagation d’une onde<br />

longitudinale dans cette tige est de<br />

5 000 m/s. Cette vitesse divisée par la<br />

longueur donne l’une des fréquences de<br />

résonance de la tige, soit 20 kHz. Avec<br />

cette longueur et cette fréquence, l’impédance<br />

mécanique a un module de<br />

600 g·s/mm.<br />

Avec ces valeurs et l’équation (6), on<br />

peut calculer le rapport V final / V initial : l’accéléromètre<br />

altère la réponse de la structure<br />

d’environ 5 %. Un accéléromètre de<br />

masse plus élevée (triaxial par exemple)<br />

produirait un effet plus important. L’effet<br />

DR<br />

d’un modèle donné d’accéléromètre sur<br />

la réponse d’une structure dépend de la<br />

masse de l’accéléromètre, de la fréquence<br />

à laquelle il travaille, ainsi que<br />

de la géométrie et du matériau de la<br />

structure sur laquelle il est fixé. La valeur<br />

de 20 kHz de cet exemple confirme une<br />

fois de plus qu’elle constitue une limite<br />

supérieure approximative.<br />

Conclusions<br />

Toute mesure d’accélération a pour but<br />

de définir la réponse de la structure à<br />

laquelle l’accéléromètre est fixé, sans<br />

que ce dernier ne perturbe le mouvement<br />

de la structure. Aux fréquences élevées,<br />

il existe une différence entre la réponse<br />

réelle de la structure et celle mesurée<br />

par un accéléromètre. Cette différence<br />

peut être attribuée aux résonances non<br />

identifiées aux hautes fréquences ou aux<br />

anomalies de montage de l’accéléromètre,<br />

au moyennage spatial des fréquences<br />

lié aux dimensions physiques<br />

de l’accéléromètre, et à la masse ajoutée<br />

à la structure par la simple présence de<br />

l’accéléromètre.<br />

De plus, il devient difficile de vérifier expérimentalement<br />

la modélisation de la<br />

réponse structurelle de l’UUT lorsque la<br />

dimension des éléments finis décroît.<br />

Nous avons présenté plusieurs raisons<br />

de considérer la valeur de 20 kHz comme<br />

une limite supérieure approximative pour<br />

le mesurage quantitatif des accélérations<br />

au moyen d’accéléromètres fixés en<br />

surface. Cette limite permet, de manière<br />

générale, de fixer des objectifs d’essais<br />

plus réalistes, et en particulier de faire<br />

évoluer les spécifications de mesure des<br />

pyrochocs ●<br />

Patrick L. Walter (1)<br />

Bibliographie<br />

- Walter, Patrick L., “Lessons Learned in<br />

Applying Accelerometers to Nuclear Effects<br />

Testing,” The Shock and Vibration Digest, Sage<br />

Science Press, November/December 2008.<br />

- Sill, Robert D., “Test Results and Alternate<br />

Packaging of a Damped Piezoresistive MEMS<br />

Accelerometer,” 52 nd Annual NDIA Fuze Conference,<br />

Sparks, NV, May 13-15, 2008.<br />

- Bateman, Vesta I., “Use Pyroshock Definitions<br />

as Guidelines – Analyze Your Data First!” Test,<br />

pp. 10-12, June/July 2008.<br />

- http://ts.nist.gov/MeasurementServices/<br />

Calibrations/vibration.cfm, May 2008.<br />

- Dimoff, T., “Electrodynamic Vibration Standard<br />

with a Ceramic Moving Element,” Journal<br />

of Acoustic Society of America, Vol. 40 (3),<br />

pp. 671-676, September 1966.<br />

- Liu, Bin, Transducers for Sound and Vibration<br />

– The Finite Element Method Based Design,<br />

Ph.D. dissertation, Department of Manufacturing<br />

and Engineering and Management,<br />

Technical University of Denmark. June 2001.<br />

- Bedford, A., Drumheller, D. S., Introduction<br />

to Elastic Wave Propagation, John Wiley and<br />

Sons, New York, 1994.<br />

- Walter, Patrick L., Limitations and Corrections<br />

in Measuring Dynamic Characteristics of<br />

Structural Systems, Ph.D. thesis, Arizona State<br />

University, pp. 121-124, 1978.<br />

Abstract<br />

Almost all piezoelectric accelerometers in the<br />

current market-place have a fundamental<br />

sensor resonance below 100 kHz. In 1983, an<br />

US manufacturer designed a series of MEMS<br />

(micro-electronico-mechanical systems) accelerometers.<br />

These silicon-based piezoresistive accelerometers<br />

enabled sensor resonances 100s of kHz<br />

to above 1MHZ. The original intent of this design<br />

was to create an accelerometer with a resonant<br />

frequency high enough that it would not<br />

be excited in metal-to-metal impact or explosives<br />

environments. These types of environments<br />

are generally described by the term<br />

pyrotechnic shock (pyroshock). Unfortunatly,<br />

despite the advantage provided by the highresonant<br />

frequencies of these accelerometers,<br />

the extremely low intrinsic damping of silicon<br />

acts as a counterbalance. The result of this low<br />

damping is often over-ranging and breakage of<br />

the accelerometers when they are subjected to<br />

pyroshock.<br />

(1) PCB Piezotronics, Inc. et Texas Christian<br />

University, Fort Worth, Texas (États-Unis),<br />

p.walter@tcu.edu.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 33


Applications Industrielles<br />

Chocs et vibrations<br />

Apport de la simulation<br />

lors d’un essai de qualification<br />

L’objectif de cette présentation est d’illustrer l’intérêt de mener des<br />

simulations numériques en parallèle avec des essais de qualification<br />

en vibrations :<br />

- avant l’essai, la simulation permet de préparer et d’anticiper au mieux<br />

les difficultés liées à ce type d’essai. En particulier, le comportement<br />

de l’équipement fixé sur le pot vibrant peut être rendu similaire à celui<br />

observé sous avion par la conception d’un outillage souple dédié<br />

(servant d’interface entre le lance-missiles et l’excitateur) ;<br />

- pendant l’essai, cette approche permet de calculer des informations<br />

non disponibles directement par la mesure (efforts, accélérations,<br />

contraintes, déplacements…) et permet une meilleure surveillance et<br />

un meilleur pilotage de l’essai.<br />

Mots-clés<br />

Qualification, chocs de catapultage, chocs<br />

d’appontage, vibrations, lance-missiles,<br />

Meteor, Rafale.<br />

La démarche adoptée par Dassault<br />

Aviation pour la qualification d’un<br />

matériel à l’environnement<br />

mécanique (chocs d’appontage et de<br />

catapultage sur porte-avions et vibrations<br />

en vol) se décompose en 2 phases :<br />

- un essai statique pour démontrer la<br />

tenue des interfaces et de la structure<br />

primaire aux basses fréquences<br />

(< 30 Hz) ;<br />

- un essai sur excitateur électrodynamique<br />

pour démontrer la tenue de la<br />

sous-structure et des équipements ainsi<br />

que leur bon fonctionnement (entre 10<br />

et 2 000 Hz).<br />

Pour cette dernière phase de qualification,<br />

des problèmes de représentativité<br />

des essais sur pot vibrant se posent<br />

(représentativité insuffisante des interfaces,<br />

comportement modal différent…),<br />

en particulier pour des structures de<br />

grandes tailles comme un lance-missiles,<br />

exemple retenu dans cet article.<br />

Introduction<br />

Contexte<br />

Lors de l’intégration d’un nouveau moyen<br />

d’emport sous avion d’armes (comme<br />

DR<br />

Figure 2 : essai statique<br />

du lance-missiles Meteor.<br />

ici le lance-missiles Meteor sous voilure,<br />

cf. figure 1), il est nécessaire de qualifier<br />

le matériel à son environnement. La<br />

détermination de cet environnement se<br />

fait par une démarche de personnalisation<br />

utilisant des mesures réalisées en<br />

vol sous avion et des simulations pour<br />

extrapoler aux limites du domaine de vol<br />

[1] et [2].<br />

Pour la partie mécanique, cet environnement<br />

comprend les efforts et accélérations<br />

statiques, vibrations en vol et<br />

chocs d’appontage – catapultage.<br />

DR<br />

Figure 1 : lance-missiles et missile Meteor sur Rafale.<br />

La tenue de la structure aux efforts<br />

(basses fréquences, inférieures à 30 Hz)<br />

vus lors des différentes phases de vol<br />

et incluant la partie quasi-statique des<br />

chocs d’appontage – catapultage est<br />

démontrée lors d’un essai statique sur<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 34


Applications Industrielles<br />

portique (figure 2). La structure est alors<br />

sollicitée par des vérins.<br />

Dans cet article, nous nous intéressons<br />

plus spécifiquement à la qualification de<br />

ce lance-missiles aux chocs et vibrations<br />

et à l’apport d’une approche complémentaire<br />

par simulations. La qualification<br />

aux chocs et vibrations a pour<br />

objectif de démontrer la tenue de la sousstructure<br />

et le bon fonctionnement des<br />

équipements internes au lance-missiles<br />

(contacteurs, boîtiers électroniques<br />

divers, mécanismes…), la tenue de la<br />

structure étant précédemment démontrée<br />

par un essai statique.<br />

DR<br />

Figure 3 : lance-missiles Meteor.<br />

Les dimensions importantes de l’ensemble<br />

et le type d’interface (relativement<br />

souple) avec l’avion rendent<br />

complexe la mise en œuvre d’un tel essai<br />

sur excitateur électrodynamique.<br />

La problématique est en effet de reproduire<br />

un comportement proche de ce que<br />

l’on verrait sur avion. Un excitateur ne<br />

présente pas la même souplesse qu’une<br />

voilure de Rafale, on verra donc comment,<br />

grâce à des simulations numériques<br />

réalisées avant les essais, il a été<br />

possible de concevoir une interface<br />

souple, que nous nommons dans la suite<br />

“outillage”, permettant d’obtenir sous<br />

bâti le même comportement dynamique<br />

de l’ensemble que sous avion.<br />

Grâce à des simulations<br />

numériques réalisées avant<br />

les essais, il a été possible<br />

d’obtenir sous bâti le même<br />

comportement dynamique de<br />

l’ensemble que sous avion.<br />

Malgré l’outillage, il reste nécessaire<br />

d’être très attentif au déroulement des<br />

essais de qualification en temps réel.<br />

Une instrumentation en jauges d’efforts<br />

demande un étalonnage souvent com-<br />

“<br />

plexe et coûteux à mettre en œuvre, voire<br />

même impossible à réaliser techniquement<br />

sur des pièces massives. Nous<br />

verrons dans la seconde partie de cet<br />

article comment la simulation a permis<br />

de contrôler l’essai en temps réel, avec<br />

uniquement des accéléromètres, et d’accéder<br />

à des informations non disponibles<br />

directement par la mesure.<br />

Description du lance-missiles<br />

et de l’instrumentation<br />

Ce paragraphe présente brièvement le<br />

lance-missiles afin d’appréhender toute<br />

la problématique de l’essai liée à la définition<br />

même du matériel à tester.<br />

Ce lance-missiles est un emport fixé sur<br />

Rafale permettant le tir sur rail du missile<br />

air-air Meteor.<br />

Contrairement à un équipement de petite<br />

taille fixé rigidement et équilibré sur ses<br />

appuis, ce lance-missiles, comme la<br />

plupart des emports sous avion, est fixé<br />

en porte-à-faux sur avion à l’aide de<br />

2 attaches seulement (figure 3). La<br />

longueur de l’ensemble lance-missiles +<br />

missile est d’environ 3,70 m pour une<br />

masse de 230 kg.<br />

DR<br />

Figure 4 : processus itératif<br />

de conception de l’interface.<br />

Lors des essais en vol sur<br />

avion (campagnes de chocs<br />

d’appontage – catapultage<br />

sur le porte-avions Charlesde-Gaulle,<br />

mesures lors<br />

des différentes phases de<br />

vol), le lance-missiles a été<br />

instrumenté en accéléromètres<br />

exploitables jusqu’à<br />

”<br />

2 000 Hz aux emplacements<br />

les plus critiques<br />

(équipements, mécanismes…) pour ce<br />

qui est de la qualification aux chocs et<br />

vibrations. L’exploitation de ces accéléromètres<br />

et la réalisation de simulations<br />

pour compléter les mesures ont permis<br />

de définir une spécification personnalisée<br />

en différents points du lancemissiles.<br />

Apport de la simulation<br />

pour optimiser<br />

la représentativité<br />

de l’essai<br />

Conception de l’outillage<br />

d’interface<br />

Un des risques des essais sur excitateur<br />

électrodynamique réside dans la difficulté<br />

à disposer d’une interface représentative.<br />

En effet, un bâti d’essai peut<br />

être considéré comme infiniment rigide<br />

(au moins jusqu’à 400 Hz). Cette rigidité<br />

a des conséquences gênantes dans le<br />

cas qui nous intéresse :<br />

- les premiers modes de l’ensemble sur<br />

le bâti sont plus hauts en fréquences<br />

que sur avion (raideur d’ancrage supérieure<br />

à celle de l’avion) ;<br />

- les déformées modales peuvent être<br />

différentes ;<br />

- la répartition des efforts peut être<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 35


Applications Industrielles<br />

DR<br />

Figure 5 : lance-missiles + missile<br />

Meteor avec la pièce d’interface.<br />

différente (notamment la répartition<br />

entre attaches) ;<br />

- les niveaux d’accélérations au pied des<br />

équipements peuvent être différents.<br />

Il est essentiel, pour optimiser la représentativité<br />

de l’essai, de concevoir une<br />

interface permettant de retrouver un<br />

comportement proche de ce que l’on<br />

aurait sous l’avion [3]. Dans le cas<br />

présent, un effort important a été porté<br />

sur l’amélioration du comportement<br />

de l’ensemble en basses fréquences<br />

(f < 30 Hz). Au cours de la conception de<br />

l’outillage, des simulations ont été réalisées<br />

pour s’assurer :<br />

- de la tenue de l’outillage ;<br />

- des fréquences de l’ensemble ;<br />

- des déformées modales : critère du<br />

( et<br />

étant les formes modales de l’ensemble<br />

missile + lance-missiles sur<br />

avion et sur bâti avec l’outillage).<br />

DR<br />

DR<br />

Figure 7 : processus de validation<br />

du pilotage.<br />

Figure 6 : vue du montage sur l’excitateur.<br />

aussi être à l’origine d’une mauvaise<br />

représentativité.<br />

En effet, l’excitation réelle est triaxe et<br />

provient des attaches et du champ aérodynamique.<br />

L’essai étant réalisé avec un excitateur<br />

électrodynamique unique (figure 6), il<br />

n’est pas possible de satisfaire les gabarits<br />

de spécification simultanément en<br />

chaque point du lance-missiles.<br />

Des choix ont donc été réalisés pour<br />

satisfaire au mieux l’ensemble des<br />

critères et choisir le spectre de pilotage<br />

le plus adapté. La démarche retenue est<br />

schématisée sur la figure 7.<br />

La procédure retenue pour valider l’outillage<br />

est schématisée sur la figure 4.<br />

Une première phase consiste à réaliser<br />

un modèle EF de l’interface et à le<br />

coupler au modèle EF de l’ensemble<br />

lance-missiles + missile. Le modèle de<br />

l’ensemble lance-missiles + missile est<br />

celui qui est aussi utilisé, intégré à l’avion<br />

lors de la réalisation des simulations<br />

complètes d’appontage - catapultage.<br />

Le comportement de l’ensemble lancemissiles<br />

+ missile sur bâti avec outillage<br />

est comparé au comportement de l’ensemble<br />

lance-missiles + missile sous<br />

avion.<br />

Le rebouclage sur la conception se fait<br />

jusqu’à obtenir un résultat satisfaisant.<br />

L’outillage ainsi réalisé est présenté sur<br />

la figure 5.<br />

Cette approche s’appuie sur les résultats<br />

d’une étude réalisée dans le cadre<br />

DR<br />

Figure 8 : exemple de comparaison<br />

calcul/mesure (recalage).<br />

d’un Plan d’études amont, financé par le<br />

SPAé, réalisé avec MBDA avec une<br />

maîtrise d’œuvre assurée par Dassault<br />

Aviation [4].<br />

Choix du pilotage<br />

Le fait de disposer d’un outillage souple<br />

améliore considérablement le comportement<br />

d’ensemble du lance-missiles<br />

+ missile mais ne résout pas toutes les<br />

difficultés.<br />

Exciter le lance-missiles sur un seul axe<br />

à la fois avec une entrée unique peut<br />

Cette démarche est beaucoup moins<br />

coûteuse que des itérations en début<br />

d’essai. Par ailleurs, elle permet, de<br />

façon numérique, d’anticiper les problèmes<br />

avant l’essai grâce à la prédictivité<br />

des modèles (impossibilités de<br />

pilotage, risques de surcharge en<br />

certains points de la structure…).<br />

Apport de la simulation<br />

pour la surveillance<br />

de l’essai en efforts<br />

L’essai statique a permis de démontrer<br />

préalablement la tenue du lance-missiles<br />

aux charges de dimensionnement.<br />

Malgré toute l’attention portée à la représentativité<br />

de l’essai de vibrations,<br />

celle-ci n’est jamais parfaite, en particulier<br />

lorsqu’il s’agit d’un matériel de<br />

type emport ou lance-missiles complexe<br />

et de grandes dimensions. C’est pourquoi<br />

il existe toujours un risque de<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 36


Applications Industrielles<br />

dépasser abusivement les efforts de<br />

tenue statique lors des essais dynamiques<br />

de chocs et vibrations.<br />

Pour suivre la tenue structurale, les informations<br />

pertinentes sont les efforts et<br />

contraintes en-dessous de 40 Hz. Or<br />

pendant l’essai de vibrations, le matériel<br />

testé est instrumenté uniquement<br />

avec des accéléromètres, la configuration<br />

du matériel rend l’instrumentation<br />

en jauges relativement difficile et coûteuse<br />

avec la nécessité de réaliser un<br />

essai d’étalonnage préalable. Il a donc<br />

été choisi de mettre en œuvre une<br />

approche par calcul.<br />

Lors des essais, à chaque montée en<br />

niveau, l’entrée en accélérations (filtré<br />

en BF < 50 Hz) est mesurée au niveau<br />

de l’excitateur puis sert d’excitation d’entrée<br />

à un modèle Éléments finis de l’ensemble.<br />

Les autres accéléromètres<br />

présents sur le matériel permettent de<br />

valider et si besoin de recaler le modèle<br />

(figure 8). Ce même modèle permet<br />

ensuite de calculer toutes les informations<br />

pertinentes auxquelles la mesure<br />

ne donne pas directement accès :<br />

contraintes, déplacements, efforts…<br />

“<br />

Les temps de calcul très courts<br />

ont permis un bouclage en<br />

temps réel pendant l’essai.<br />

Les temps de calcul très courts ont permis<br />

un bouclage en temps réel pendant<br />

l’essai. La logique adoptée est présentée<br />

sur la figure 9.<br />

Conclusion<br />

Cet article illustre l’apport de la simulation<br />

lors de la démarche de qualification.<br />

Les modèles du matériel, développés en<br />

Bibliographie<br />

[1] Symposium ASTE 1989, Apport de la personnalisation en environnement aéronautique,<br />

J.-P. Brevan, Avions Marcel Dassault Bréguet Aviation.<br />

[2] Vibrations et chocs mécaniques, Tomes 1 à 6, Ch. Lalanne, Hermès Science Publications.<br />

[3] Dynamique des structures industrielles, A. Girard, N. Roy, Hermès Science Publications.<br />

[4] Rapport de synthèse, PEA N°02/81019, Maîtrise de la conception et de la tenue structurale<br />

des cellules d’avion de combat, Poste 5, Tenue des structures aux sollicitations dynamiques,<br />

I. Barber, J. Vacher, Dassault Aviation.<br />

DR<br />

Figure 9 : surveillance pendant l’essai.<br />

phase de conception et recalés lors de<br />

la démarche de personnalisation, sont<br />

utilisés pour préparer l’essai de qualification<br />

et ensuite contribuer au pilotage<br />

et à la surveillance en temps réel.<br />

Les simulations permettent<br />

de concevoir un outillage à<br />

l’interface entre le bâti et le<br />

”<br />

lance-missiles qui assure<br />

d’avoir sur le bâti un comportement<br />

de l’ensemble lancemissiles<br />

+ missile proche de<br />

celui observé sous avion.<br />

Cette approche est largement inspirée<br />

par une étude SPAé [4].<br />

Les mêmes simulations permettent de<br />

surveiller finement l’essai, y compris en<br />

effort, à partir d’une instrumentation<br />

réduite, sans jauge de contrainte et donc<br />

sans étalonnage (coût réduit).<br />

Dans cette démarche d’optimisation de<br />

la représentativité, nous privilégions les<br />

équipements et mécanismes devant être<br />

impérativement qualifiés en présence du<br />

missile. Les équipements pour lesquels<br />

la présence du missile ne joue pas de<br />

rôle mécanique peuvent être qualifiés<br />

seuls si le niveau vibratoire obtenu lors<br />

de l’essai global n’est pas jugé suffisamment<br />

représentatif ●<br />

Isabelle Barber (1)<br />

et Jérôme Vacher (1)<br />

Abstract<br />

Dassault Aviation qualifies equipment<br />

behaviour in mechanical environment<br />

(shocks from deck-landings and catapultlaunches<br />

on aircraft carrier, flight vibrations)<br />

following two stages:<br />

• a static test to verify correct interfaces<br />

and primary structure behaviour at low<br />

frequencies (< 30 Hz);<br />

• a test on electrodynamic shaker to prove<br />

correct substructure and electronic equipments<br />

performances and working<br />

(between 10 and 2000 Hz).<br />

For such large structures as a missile launcher<br />

(studied example in this paper), the<br />

second kind of test involves representativeness<br />

problems (insufficient interfaces<br />

representativeness, different modal behaviour…).<br />

This presentation intends to illustrate the<br />

interest for carried out digital simulations<br />

in parallel with vibration tests:<br />

• before the test, simulation allows preparation<br />

and difficulties anticipation. In<br />

particular, flexible tools design (used as<br />

interface between the missile launcher<br />

and the shaker) leads to similar behaviour<br />

of the equipment when fixed on the<br />

shaker (with the flexible tool) and<br />

mounted under the aircraft;<br />

• during the test, the approach allows to<br />

reach information none directly available<br />

through measurement (loads, accelerations,<br />

stresses, displacements<br />

levels…) and a better monitoring and<br />

control strategy.<br />

(1) Dassault Aviation, Saint-Cloud (92).<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 37


Applications Industrielles<br />

Expérimentation<br />

Tolérance aux dommages<br />

et machine d’impacts<br />

Un moyen original développé par Astrium<br />

L’utilisation des matériaux composites a connu une forte progression<br />

depuis ces 10 dernières années dans de nombreux secteurs industriels<br />

et a généré des études de tolérance aux dommages. Pour répondre à<br />

ce besoin, une machine d’impacts pour des structures de grandes dimensions<br />

a été développée. Cette présentation a pour but de montrer la<br />

démarche et les résultats du développement de la machine à impacts.<br />

L’utilisation des matériaux composites<br />

n’a cessé d’augmenter depuis<br />

ces 10 dernières années dans de<br />

nombreux secteurs industriels et plus<br />

particulièrement dans les domaines liés<br />

à la défense, l’aéronautique et l’espace.<br />

Les pièces en matériaux composites sont<br />

implantées dans des zones critiques et<br />

remplacent de plus en plus les pièces<br />

métalliques. Les derniers avions de la<br />

gamme Airbus possèdent de nombreuses<br />

pièces en fibres de carbone comme le<br />

caisson central. Il en est de même dans<br />

le secteur des lanceurs qui sont réalisés<br />

par enroulement filamentaire de fibres de<br />

carbone préimprégnées.<br />

“<br />

Un moyen peu encombrant<br />

pour une meilleure<br />

manutention, orientation<br />

et mise en place.<br />

”<br />

Les travaux de tolérance aux dommages<br />

engagés sur les corps de propulseur en<br />

carbone du M51 ont pour objectif de déterminer<br />

pour chacun des sous-ensembles<br />

propulsifs l’énergie maximale de choc<br />

admissible sans baisse de performance<br />

significative et sans remise en cause du<br />

respect des exigences de sûreté.<br />

Les défauts peuvent apparaître sur une<br />

structure dès la fabrication de celle-ci ou<br />

peuvent être générés au cours de sa vie.<br />

D’une façon générale, on définit la tolérance<br />

aux dommages par la capacité<br />

d’une structure à ne pas rompre de façon<br />

prématurée en service opérationnel sous<br />

l’effet d’un dommage obtenu par impact<br />

accidentel, en maintenance, ou par des<br />

effets répétés de chargement (fatigue,<br />

acoustique, dynamique), par des effets<br />

environnementaux et ce jusqu’à ce que<br />

le dommage soit détecté et réparé.<br />

Les matériaux composites à base de<br />

fibres de carbone ont une sensibilité<br />

importante aux défauts du fait de leurs<br />

propriétés anisotropes.<br />

Logique des travaux<br />

de tolérance aux dommages<br />

conduite par Astrium<br />

Astrium a élaboré sa propre<br />

logique d’essai de tolérance aux<br />

dommages afin de répondre au<br />

mieux aux besoins du client.<br />

Cette logique a été approuvée<br />

par le client.<br />

Afin de déterminer les niveaux<br />

de choc admissibles, l’étude sur<br />

la tolérance aux dommages a été effectuée<br />

en 3 phases.<br />

Première phase : réalisation d’impacts<br />

sur un grand nombre d’éprouvettes de<br />

différents types à échelle réduite (diamètre<br />

inférieur à 500 mm). Ces éprouvettes<br />

sont représentatives des zones<br />

estimées les plus critiques sur les corps<br />

de propulseur.<br />

Lors de cette phase, de nombreuses<br />

éprouvettes (voir figures 1 et 2) ont été<br />

impactées à différents niveaux d’énergie,<br />

puis ont été sollicitées mécaniquement<br />

en pression interne, en compression, etc.<br />

DR<br />

DR<br />

Mots-clés<br />

Chocs, machine d’impacts, tolérance aux<br />

dommages, Astrium, matériaux composites,<br />

corps de propulseur.<br />

Figure 1 : éprouvette phi 304.<br />

Figure 2 : éprouvette phi 450.<br />

Ces phases d’essais ont permis de<br />

mettre en évidence des niveaux d’énergie<br />

pour chacune des zones critiques.<br />

La réalisation des impacts sur les structures<br />

à échelle réduite a été effectuée<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 38


Applications Industrielles<br />

DR<br />

Figure 5 : corps de propulseur de M51<br />

(1 er étage).<br />

DR<br />

Figure 3 : machine Dynatup.<br />

DR<br />

Figure 4 : structure à l’échelle 1/2.<br />

avec une machine du commerce de<br />

marque Dynatup (voir figure 3).<br />

Le fonctionnement de cette machine est<br />

basé sur le principe d’une masse tombant<br />

en chute libre ; cette masse est<br />

équipée d’un embout hémisphérique de<br />

diamètre 16 mm. Cette machine est<br />

équipée de vérins pneumatiques garantissant<br />

un unique impact sur l’éprouvette<br />

(pas de rebonds successifs).<br />

Deuxième phase : réalisation d’impacts<br />

sur une structure représentative<br />

d’un corps de propulseur à l’échelle 1/2<br />

(voir figure 4).<br />

Les travaux et études liés à la tolérance<br />

aux dommages, conduits sur les éprouvettes<br />

à échelles réduites, ont permis de<br />

déterminer les zones les plus judicieuses<br />

à impacter sur une structure à échelle 1.<br />

Ces zones correspondent aux zones<br />

dimensionnantes des corps de propulseur<br />

protégés ainsi qu’aux zones identifiées<br />

comme présentant des risques<br />

d’impacts pouvant avoir lieu en atelier<br />

lors d’opérations d’intégration, de maintenance<br />

ou également en cours de manutention.<br />

Troisième phase : les essais réalisés<br />

sur les différentes structures à échelles<br />

réduites et échelle 1/2 ont permis de<br />

déterminer des niveaux d’énergie à appliquer<br />

sur une structure échelle 1 : le corps<br />

de propulseur du premier étage du M51<br />

(voir figure 5).<br />

Pour les phases d’essais sur les structures<br />

de grandes dimensions (échelle<br />

1/2 et échelle 1), la réalisation d’impacts<br />

a été effectuée avec une machine spécifiquement<br />

développée par Astrium. Les<br />

dimensions trop importantes des structures<br />

échelle 1/2 et échelle 1 rendent<br />

impossible l’utilisation de la machine<br />

Dynatup ayant servi pour les impacts sur<br />

éprouvettes à échelles réduites.<br />

“<br />

Les matériaux composites<br />

àbase de fibres de carbone<br />

ont une sensibilité<br />

importante aux défauts.<br />

”<br />

Machine d’impacts<br />

pour structures<br />

de grandes dimensions<br />

Caractéristiques générales<br />

de la machine<br />

Les impacts réalisés dans le cadre de<br />

l’étude sur la tolérance aux dommages<br />

des matériaux composites sont réalisés<br />

à “basses vitesses” (inférieure à 5 m/s).<br />

La machine développée par Astrium<br />

permet d’effectuer des impacts entre 2<br />

et 200 joules à des vitesses inférieures<br />

à 5 m/s.<br />

Astrium a développé un moyen constitué<br />

de plusieurs sous-ensembles qui sont :<br />

le système mécanique à ressorts (“tête<br />

d’impacts”), un boîtier électrique de<br />

commande, un système de conditionnement<br />

et d’enregistrement des mesures,<br />

DR<br />

Figure 6 : moyen développé<br />

par Astrium.<br />

un bâti de fixation de la “tête d’impacts”<br />

ainsi qu’un logiciel de traitement des<br />

signaux de mesure (voir figure 6).<br />

Le faible encombrement de ce moyen<br />

(longueur d’environ 1 mètre et<br />

masse de 70 kg) lui confère<br />

des possibilités de manutention,<br />

d’orientation et de mise<br />

en place extrêmement flexibles.<br />

L’embout, également appelé<br />

“impacteur”, correspond à<br />

l’extrémité de la machine, sa<br />

géométrie est de forme hémisphérique<br />

pour un diamètre de 16 mm.<br />

Cet embout est interchangeable et<br />

correspond à des normes utilisées dans<br />

le cadre de la tolérance aux dommages<br />

par les principaux industriels de l’aéronautique.<br />

Ce type d’“impacteur” a la<br />

propriété de provoquer un maximum de<br />

dégradations internes dans les matériaux<br />

composites (délaminages) pour un<br />

dommage visuel a priori peu important.<br />

Le choix de cet “impacteur” est considéré<br />

comme étant le plus pénalisant.<br />

2 ressorts étalonnés sont tendus à l’aide<br />

d’une vis ; lors de l’impact, ils propulsent<br />

une masse d’environ 16 kg guidée<br />

par des colonnes à billes. Un capteur<br />

digital permet de lire et de régler la cote<br />

de compression des ressorts. L’énergie<br />

appliquée sur la structure au moment de<br />

l’impact est alors directement liée à la<br />

flèche de compression des ressorts. Un<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 39


Applications Industrielles<br />

système de détection optique relié à un<br />

automate commande le fonctionnement<br />

de 2 vérins pneumatiques dont le rôle<br />

consiste à bloquer la masse en mouvement<br />

après le premier impact. De ce fait<br />

l’éprouvette est impactée une seule fois.<br />

Système de mesures<br />

L’effort au moment de l’impact est<br />

mesuré à l’aide d’un capteur à jauges<br />

situé à l’intérieur de la partie mobile de<br />

la machine d’impacts. L’énergie d’impact<br />

est déduite à partir des informations fournies<br />

par un capteur de déplacement<br />

capacitif dont l’avantage est de permettre<br />

une mesure du déplacement de la masse<br />

mobile sans contact mécanique.<br />

Système d’enregistrement<br />

des mesures<br />

L’enregistrement des mesures est<br />

réalisé à une fréquence de 20 kHz avec<br />

un enregistreur de marque LDS.<br />

Les signaux enregistrés sont ceux fournis<br />

par le capteur de déplacement et le<br />

capteur d’effort ainsi que ceux du<br />

système de blocage de la masse issus<br />

du détecteur optique et de la commande<br />

d’activation des vérins antirebond.<br />

Traitement des mesures<br />

La mesure fournie par le capteur d’effort<br />

est directement exploitable, par contre<br />

la mesure de déplacement permet de<br />

connaître 2 informations :<br />

- d’une part la flèche de l’éprouvette en<br />

cours d’impact ;<br />

- d’autre part la vitesse de la masse à<br />

l’instant qui précède l’impact, c’est-àdire<br />

juste avant le contact avec l’éprouvette.<br />

Un logiciel de traitement et d’analyse des<br />

mesures développé par Astrium permet<br />

de dériver le signal de déplacement par<br />

rapport au temps afin de déterminer la<br />

vitesse de la masse mobile à l’instant<br />

précédant l’impact. La connaissance de<br />

la vitesse permet alors d’obtenir l’énergie<br />

appliquée sur l’éprouvette au moment<br />

de l’impact.<br />

Mise au point<br />

du système d’impacts<br />

Avant de réaliser les premiers impacts<br />

sur une structure d’essai, une phase de<br />

DR<br />

Figure 7 : diagramme de dispersion du système.<br />

qualification de la machine a été nécessaire.<br />

Des éprouvettes semblables et un<br />

montage mécanique identique à celui<br />

réalisé avec la machine Dynatup ont été<br />

mis en place afin de réaliser les premiers<br />

impacts avec le moyen portable. La<br />

comparaison des 2 moyens d’essais a<br />

alors été possible.<br />

“<br />

La connaissance de la vitesse<br />

permet d’obtenir l’énergie<br />

appliquée sur l’éprouvette<br />

au moment de l’impact.<br />

”<br />

Les premiers impacts réalisés ont permis<br />

le réglage du système pneumatique antirebond.<br />

Ce réglage a été effectué à l’aide<br />

d’une caméra à imagerie rapide. L’enregistrement<br />

et la comparaison des signaux<br />

fournis par le détecteur optique et la<br />

commande d’électrovanne ont été associés<br />

aux enregistrements par caméra<br />

rapide. La connaissance parfaite du<br />

temps nécessaire pour sortir la tige des<br />

vérins pneumatiques est une donnée<br />

essentielle au réglage du système antirebond.<br />

Si les vérins agissent trop tôt,<br />

l’impact ne se fait pas ou se produit<br />

partiellement (dispersion d’énergie dans<br />

les vérins). A contrario, une action trop<br />

lente des vérins et c’est plusieurs impacts<br />

qui seront appliqués successivement au<br />

même endroit sur la structure.<br />

La dernière étape de cette phase de<br />

qualification a consisté à réaliser un<br />

étalonnage du moyen portable, c’est-à-<br />

dire une base de données comportant<br />

un grand nombre d’impacts. Ceci permet<br />

d’obtenir une relation directe entre<br />

l’énergie à appliquer sur une éprouvette<br />

et la cote de compression des ressorts<br />

correspondant au niveau d’énergie visé.<br />

Le logiciel de traitement des mesures<br />

développé par Astrium comprend un volet<br />

dans lequel sont enregistrées<br />

les données d’étalonnage de<br />

la machine d’impacts. L’application<br />

informatique permet<br />

d’extrapoler les valeurs d’étalonnage,<br />

ainsi des niveaux<br />

d’énergie jamais réalisés<br />

peuvent être appliqués sur<br />

des éprouvettes. La calibration<br />

de la machine a été réalisée à l’horizontale,<br />

c’est-à-dire sans influence de<br />

la gravité terrestre. Le logiciel permet<br />

également d’adapter l’étalonnage initial<br />

pour différents angles d’orientation de<br />

la machine (impacts vers le bas ou vers<br />

le haut).<br />

Chaque nouvel impact réalisé sur une<br />

éprouvette d’essai fournit des données<br />

supplémentaires qui sont ajoutées à<br />

l’étalonnage initial afin de l’enrichir.<br />

Validation de l’ensemble<br />

du moyen portable<br />

La machine Dynatup, dont le principe<br />

repose sur une masse en chute libre, est<br />

utilisée couramment par le laboratoire<br />

d’Astrium et a fait ses preuves. Une comparaison<br />

a été effectuée entre les 2 moyens<br />

d’impacts. 2 lots identiques composés de<br />

différents types d’éprouvettes ont été<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 40


Applications Industrielles<br />

impactés à divers niveaux d’énergie. Le<br />

premier lot a été impacté par la machine<br />

Dynatup et le second avec le moyen<br />

portable. Un contrôle non destructif par<br />

ultrasons (CND US) a été effectué sur<br />

chacune des éprouvettes. Pour un niveau<br />

d’énergie identique, les dommages identifiés<br />

par CND US sur un même type<br />

d’éprouvette sont équivalents, qu’ils<br />

aient été réalisés par l’un ou l’autre des<br />

moyens d’impacts. Cette validation<br />

globale a permis de mettre en évidence<br />

le fonctionnement nominal du moyen<br />

portable.<br />

Dispersion du système<br />

La courbe présentée en figure 7 a été<br />

construite à partir de plusieurs impacts<br />

et représente l’énergie appliquée sur<br />

une structure en fonction du niveau de<br />

compression des ressorts de la machine.<br />

La dispersion des impacts<br />

réalisés par le moyen portable a été<br />

mesurée expérimentalement après réalisation<br />

de plusieurs impacts. Sur un<br />

ensemble d’impacts réalisés entre 10<br />

et 140 joules, la dispersion de la<br />

machine est estimée à ±5 %.<br />

Logiciel associé au système<br />

D’autres fonctions connexes ont été ajoutées<br />

au logiciel du système d’impacts<br />

telles que :<br />

- la prise en compte de la non-linéarité<br />

du capteur de déplacement ;<br />

- l’exportation des données de mesures<br />

avec une possibilité de les filtrer. Après<br />

traitement, les fichiers créés sont directement<br />

exploitables par les tableurs<br />

classiques.<br />

Avant chaque essai d’impact, un étalonnage<br />

de l’ensemble de la chaîne de<br />

mesure de déplacement est réalisé. Les<br />

points d’étalonnage sont saisis dans l’application<br />

informatique afin de traiter le<br />

signal de sortie du capteur de déplacement.<br />

Conclusion<br />

Le moyen portable développé et mis en<br />

œuvre par Astrium a permis de réaliser<br />

l’ensemble des impacts sur les structures<br />

de grandes dimensions développées<br />

dans le cadre des études sur la<br />

tolérance aux dommages du M51.<br />

Environ une centaine d’impacts contractuels<br />

ont été réalisés sur des éprouvettes<br />

d’essai de grandes échelles. Et plus de<br />

300 impacts ont été nécessaires pour<br />

mettre au point le système.<br />

L’ensemble du système d’impacts a donné<br />

lieu au dépôt d’un brevet. À terme, des<br />

prestations pourront être réalisées chez<br />

d’éventuels clients extérieurs sur tout type<br />

de matériel de grandes dimensions ●<br />

Abstract<br />

Aurélien Perrier (1)<br />

The uses of composite materials have not<br />

been ceased increasing for these ten last<br />

years in many industrial sectors and generated<br />

studies of damage tolerance. To<br />

answer this requirement an impacts<br />

machine for large-sized structures was<br />

developed. The aim of this presentation<br />

is to show the approach and the results of<br />

the impact machine development.<br />

(1) Ingénieur d’essai. EADS Astrium –<br />

Saint-Médard-en-Jalles.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 41


Compte rendu<br />

Colloque d’Astelab 2010<br />

Les journées d’Astelab se sont tenues du 1 er au 3 juin au parc des<br />

expositions de la Porte de Versailles. Voici le compte rendu complet des<br />

différentes sessions (1) . Il a été rédigé de façon collégiale par les<br />

présidents de session respectifs.<br />

Session Extensométrie<br />

Présidée par Michel Roger Moreau<br />

Jean-Noël Périé, de l’Institut Clément<br />

Ader de Toulouse, a présenté au nom de<br />

l’équipe de chercheurs ayant participé à<br />

cette étude menée conjointement avec<br />

le LMT Cachan et le LaMCoS Villeurbanne<br />

un outil de mécanique expérimental : la<br />

corrélation d’images.<br />

Cette technique, qui devient un outil<br />

commun dans les laboratoires de mécanique,<br />

fait partie des techniques de<br />

mesures de champs fiables grâce auxquelles<br />

on peut caractériser les effets<br />

mécaniques hétérogènes à une échelle<br />

fine.<br />

On notera que des solides, homogènes<br />

sous sollicitations complexes ou hétérogènes,<br />

font apparaître des champs<br />

dont l’analyse multi-échelles est indispensable<br />

en relation avec leur (micro)structure<br />

et/ou le type de chargement imposé.<br />

Ces développements s’inscrivent dans<br />

la dialectique essai/calcul en modélisation<br />

des matériaux et des structures dans<br />

laquelle les mesures de champs jouent<br />

un rôle d’interface. À partir de la connaissance<br />

de ces champs, on peut, par<br />

exemple, identifier des paramètres mécaniques<br />

globaux et locaux, voire valider<br />

des modèles de comportement et des<br />

outils numériques.<br />

Parmi les différentes méthodes disponibles,<br />

J.-N. Périé a décrit la corrélation<br />

d’images numériques (CIN) qui consiste<br />

à déterminer un champ de déplacement<br />

à partir de l’analyse d’images numériques.<br />

Il a présenté les perfectionnements<br />

récents de cette technique désignés par<br />

le vocable “approche globale”. Ils consistent<br />

à faire la corrélation sur une combinaison<br />

des effets de la luminance et du<br />

comportement mécanique. Il a donné un<br />

DR<br />

Jean-Noël Périé lors de son exposé.<br />

exemple d’application relatif au comportement<br />

d’une éprouvette fissurée.<br />

Le développement de ces nouvelles<br />

techniques est de nature à remettre en<br />

cause la conception même des essais.<br />

En effet, cette étude, qui s’appuie sur<br />

des essais hétérogènes, permet d’appréhender<br />

sur un seul essai de ce type<br />

plus d’informations utiles sur le comportement<br />

du milieu étudié que ne le fait<br />

un essai classique.<br />

Ensuite, B. Raka, de l’EESC/USP de Sao<br />

Carlos au Brésil, a présenté au nom<br />

d’une autre équipe de chercheurs du LMT<br />

Cachan et du CEA Saclay des essais<br />

triaxiaux avec une application à la<br />

compaction triaxiale des poudres de PTFE<br />

et des essais de fatigue biaxiale.<br />

L’essai de compaction triaxial a pu être<br />

réalisé grâce aux caractéristiques de la<br />

presse multiaxiale Astrée implantée à<br />

Cachan. Elle permet de compacter progressivement<br />

selon ses 3 axes la poudre<br />

de PTFE dans une sorte de moule aux<br />

parois mobiles, le produit obtenu est<br />

soumis à des essais de fatigue triaxiale<br />

à différents stades de compaction.<br />

L’objectif est ici de vérifier la tenue en<br />

service des pièces de PTFE et d’optimiser<br />

la compaction pour obtenir un produit de<br />

qualité. Cela a demandé de mettre au<br />

point un protocole de mesure complexe.<br />

Enfin, Raymond Buisson, consultant<br />

Mesures, a présenté la détermination,<br />

par les méthodes de relaxation des<br />

contraintes résiduelles existant à l’intérieur<br />

des pièces industrielles. Il a fait le<br />

point sur les derniers développements<br />

effectués sur ce sujet et mis en évidence<br />

les domaines spécifiques d’application<br />

de chacune des méthodes présentées.<br />

Il a également donné un exemple d’application<br />

industrielle de l’une de ces<br />

méthodes (la méthode de la flèche) qui<br />

fait l’objet de l’article présenté dans la<br />

rubrique extensométrie du présent<br />

numéro.<br />

Session Climatique<br />

Présidée par Laurent Cazenave, DGA/DT<br />

Xavier Faure et Nicolas Leroux, du Centre<br />

scientifique et technique du bâtiment<br />

(CSTB), Nantes, ont indiqué que les<br />

temps caractéristiques de la ventilation<br />

naturelle sont identifiés en considérant<br />

un couplage des effets thermiques de<br />

l’enveloppe avec l’aéraulique interne. Les<br />

méthodes analytiques, déjà validées<br />

dans la littérature scientifique, apportent<br />

rapidité et fiabilité sur les variables<br />

globales de la ventilation (température,<br />

débit de ventilation, hauteur de stratification).<br />

L’étude des phénomènes transitoires<br />

est également appréhendable<br />

par ces méthodes. Un modèle analytique<br />

a été développé en couplant l’aéraulique<br />

interne à un bilan d’enthalpie sur l’enveloppe<br />

du volume. Des simulations paramétriques<br />

ont ensuite été réalisées sur<br />

la résistance thermique équivalente de<br />

l’enveloppe et sa capacité calorifique<br />

(masse thermique). Il est montré que les<br />

temps d’établissement des régimes de<br />

ventilation par déplacement sont largement<br />

influencés par les échanges thermiques<br />

avec l’enveloppe, considérée ou<br />

non comme interne. La prise en compte<br />

(1) Voir <strong>Essais</strong> & <strong>Simulations</strong> 103,<br />

avril-mai-juin 2010, pour le compte rendu<br />

du dîner-débat et de la remise des prix.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 42


du couplage est déterminante sur la définition<br />

des temps d’établissement et des<br />

hauteurs d’interface. Ces éléments<br />

permettent de prédimensionner des stratégies<br />

de ventilation naturelle de manière<br />

fiable et rapide.<br />

Jean-Pierre Husson et Gille Gruez, de<br />

BERTIN Technologies, Saint-Quentin-en-<br />

Yvelines, ont présenté les développements<br />

réalisés dans le cadre du<br />

programme Météore de la DGA pour<br />

fournir aux opérationnels des Armées<br />

des outils d’aide à la décision concernant<br />

l’impact de la météo sur les opérations<br />

militaires. Plusieurs types de<br />

diagnostics sont proposés aux utilisateurs<br />

(cartographiques, temporels…).<br />

Des combinaisons de diagnostics permettent<br />

de prendre en compte la diversité<br />

des matériels et situations tactiques<br />

ou stratégiques à explorer.<br />

À ce jour, les outils sont alimentés en<br />

temps réel par les modèles de prévision<br />

météo de Météo France pour une analyse<br />

“tactique” à des échéances de quelques<br />

heures. Une alimentation par des données<br />

climatologiques issues des réanalyses<br />

ERA 40 du CEP permet des<br />

analyses “stratégiques” à des échéances<br />

de quelques semaines à quelques mois.<br />

Les développements futurs concernent<br />

l’élargissement des phénomènes physiques<br />

pris en compte, ainsi que l’alimentation<br />

par des modèles de prévision<br />

météo des alliés de l’OTAN.<br />

Lambert Pierrat, LJ-Consulting et LJK-<br />

LAB, Grenoble, a rappelé que les études<br />

de fiabilité prévisionnelle sont basées<br />

sur un taux de défaillance constant qui<br />

dépend de la température à travers un<br />

modèle de type Arrhenius ainsi que sur<br />

un profil de mission caractérisé par une<br />

succession de paliers de température.<br />

Une autre approche consiste à substituer<br />

à ce profil temporel déterministe une<br />

distribution statistique bornée indépendante<br />

du temps. Dans ces conditions, la<br />

propriété d’invariance du taux de défaillance<br />

constant est mise en défaut. On<br />

développe une approximation du modèle<br />

d’Arrhenius qui permet d’obtenir une<br />

solution analytique, valable pour une<br />

distribution de température bornée dans<br />

un intervalle. L’erreur associée à une<br />

température moyenne augmente fortement<br />

avec l’étendue de cet intervalle.<br />

L’approche proposée dépasse le cadre<br />

DR<br />

DR<br />

Sommaire de la conférence<br />

de Lambert Pierrat.<br />

F. Kihm lors de son exposé.<br />

d’application électronique et permet de<br />

définir et de déterminer une valeur<br />

adéquate de la température équivalente.<br />

Session Mécanique<br />

Présidée par Christian Lalanne,<br />

Lalanne Consultant<br />

La session Mécanique comportait trois<br />

exposés. Le premier, présenté par<br />

B. Colomiès (SOPEMEA), a fait un état<br />

des nouvelles méthodes d’essai sur la<br />

multiexcitation dans les normes militaires.<br />

L’essentiel de leur contenu a été<br />

rappelé à partir des différentes configurations<br />

d’excitateurs (SESA, MESA, MEMA),<br />

avec les procédures à suivre. Ces méthodes<br />

d’essai ont été illustrées par trois<br />

exemples réalisés à SOPEMEA : un essai<br />

de mouvement sur un siège, un essai de<br />

séisme biaxial et un essai sur un vérin<br />

de porte de l’A400M.<br />

Le deuxième exposé, proposé par L. Pierrat<br />

(LJ-Consulting), portait sur le calcul du<br />

facteur d’essai dans le cas d’un seul<br />

essai, les relations établies dans le<br />

Guide Mécanique n’étant démontrées<br />

que pour un nombre d’essais n supérieur<br />

ou égal à deux. Pour cela, l’auteur a<br />

proposé de substituer à l’approche statistique<br />

fréquentielle jusqu’ici utilisée une<br />

approche probabiliste bayésienne. La<br />

méthode consiste dans une première<br />

étape à définir une distribution équivalente<br />

de la résistance qui englobe les<br />

différentes distributions habituellement<br />

utilisées dans le domaine mécanique,<br />

puis à compenser par une approche bayésienne<br />

l’insuffisance de l’information<br />

expérimentale par une information a priori<br />

assez peu informative.<br />

Il est montré en définitive que la formulation<br />

du Guide peut aussi être utilisée<br />

pour un seul essai.<br />

Un composant moteur doit satisfaire à<br />

des spécifications vibratoires de type<br />

forfaitaire données par les différents<br />

constructeurs. Ces spécifications, établies<br />

pour un même type de moteur,<br />

peuvent différer entre elles de manière<br />

notable. Elles peuvent être de nature<br />

différente (sinus balayés ou DSP), plus<br />

ou moins sévères dans différentes<br />

gammes de fréquences ou encore couvrir<br />

des plages de fréquences plus ou moins<br />

larges. Il a donc été décidé de réaliser<br />

des mesures d’environnement vibratoire<br />

sur banc moteur afin de constituer un<br />

spectre synthétique à comparer aux<br />

cahiers des charges de qualification.<br />

F. Kihm (HBM-nCode Durability Products)<br />

et D. Delaux (Valeo Systèmes Thermiques)<br />

ont montré que si les spectres de qualification<br />

sont largement conservatifs à<br />

certaines fréquences, ils peuvent également<br />

sous-estimer les niveaux vibratoires<br />

dans d’autres.<br />

Session Modélisation<br />

Présidée par Bruno Colin,<br />

Nexter Systems<br />

Trois interventions étaient programmées<br />

dans cette session Modélisation, centrées<br />

autour de la fatigue vibratoire de<br />

structures mécaniques et de la qualification<br />

d’équipements mécaniques, soumis<br />

à des vibrations et à des chocs. L’ensemble<br />

des exposés est intégré au<br />

recueil des conférences du Colloque.<br />

Au cours de cette session Modélisation,<br />

le thème de la fatigue vibratoire a été<br />

abordé au travers de l’exposé de Michael<br />

Hack, de la société LMS International NV,<br />

qui a rappelé que traditionnellement le<br />

dimensionnement à la fatigue des structures<br />

mécaniques se faisait dans le<br />

domaine temporel, en utilisant des<br />

démarches de comptage de cycles<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 43


normalisées, comme la technique de<br />

Rainflow ou de Markov. Aujourd’hui, il<br />

semble plus efficace d’utiliser des démarches<br />

de conception à la fatigue dans le<br />

domaine fréquentiel, dans la mesure où<br />

les chargements déterministe et aléatoire<br />

sont très souvent définis dans le<br />

domaine spectral, à savoir : excitation<br />

sinus balayé pour le cas des essais laboratoire<br />

et excitation aléatoire stationnaire,<br />

définie par sa DSP (densité spectrale de<br />

puissance) pour le cas des essais in-situ.<br />

L’intérêt de cette démarche de conception<br />

fréquentielle est qu’elle permet d’estimer<br />

très simplement le niveau de<br />

contrainte spectrale, en s’appuyant sur<br />

la base des modes propres de la structure,<br />

définie par les techniques EF classiques.<br />

Sur la base de ces DSP de contraintes<br />

évaluées à chaque nœud, il est alors<br />

possible de définir des critères d’endommagement<br />

sous forme spectrale, en<br />

utilisant les moments spectraux des DSP<br />

de contraintes calculées.<br />

L’avantage de ces démarches spectrales<br />

est également de pouvoir prendre en<br />

compte facilement les excitations multiples<br />

définies en termes d’auto-spectres<br />

et d’inter-spectres, correspondant aux<br />

déphasages des excitations considérées.<br />

De ce fait, la matrice de DSP des<br />

contraintes locales tient compte de ces<br />

déphasages et constitue alors le schéma<br />

spectral permettant d’évaluer le niveau<br />

d’endommagement local de la structure.<br />

Ceci se fait par des critères d’endommagement<br />

classiques en utilisant toutefois<br />

des approches spectrales. Et il<br />

ressort que l’approche traditionnelle<br />

basée sur la contrainte de Von Mises ou<br />

les contraintes principales est bien moins<br />

performante que les approches basées<br />

sur l’analyse du “plan critique”.<br />

Pour aborder le thème de la validation<br />

expérimentale de structures élastomères<br />

soumises à des vibrations aléatoires, il<br />

convient de se rapporter à l’article<br />

présenté par Jean-Yves Disson, de la<br />

société 01dB-Métravib. Il nous a présenté<br />

une méthodologie de validation originale,<br />

destinée à fiabiliser la couche d’EPDM<br />

adhérisée entre la jante de la poulie AVT<br />

et son moyeu, qui est un organe<br />

couramment monté sur les vilebrequins<br />

de certains moteurs automobiles. Mise<br />

en place pour le compte de PSA Peugeot<br />

Citroën, l’originalité de cette démarche<br />

DR<br />

de validation expérimentale réside dans<br />

le fait qu’elle repose sur les concepts de<br />

“personnalisation des essais” et de<br />

“fatigue équivalente”, en utilisant non<br />

plus une loi d’endommagement de type<br />

S-N (contrainte-nombres de cycles), mais<br />

plutôt une loi de type E-N (déformationnombres<br />

de cycles). Ceci est essentiellement<br />

dû au fait que cette loi E-N est<br />

mieux adaptée au comportement non<br />

linéaire des élastomères, puisqu’elle<br />

permet d’échapper à l’utilisation du<br />

module de cisaillement dynamique de<br />

l’élastomère qui dépend de nombreux<br />

paramètres mal maîtrisés tels que la<br />

température, le taux de déformation, la<br />

fréquence, etc.<br />

Sur la base de ce comportement en fatigue<br />

de l’EPDM, acquis à l’aide d’un analyseur<br />

mécanique METRAVIB DMA+150 et du<br />

calcul d’un SDF cible, associé à l’excitation<br />

vibratoire relevée sur moteur, il a<br />

été possible de définir un niveau de DSP<br />

aléatoire de synthèse sur une durée de<br />

75 heures d’essai, pour une durée réelle<br />

de 7 500 heures.<br />

Le moyeu de la poulie a alors été excité<br />

en rotation avec cette DSP de synthèse<br />

“personnalisée” et n’a révélé aucune<br />

détérioration de l’élastomère. Des essais<br />

complémentaires, menés à PSA, permettront<br />

alors de comparer ces méthodes<br />

d’excitation aléatoire large bande aux<br />

méthodes d’essais sinusoïdales traditionnellement<br />

développées par PSA dans<br />

le domaine de la validation expérimentale<br />

des organes moteurs.<br />

La modélisation. Une assemblée attentive.<br />

La session Modélisation a également<br />

présenté un article concernant le développement<br />

d’une spécification d’essai<br />

sur excitateur électrodynamique avec<br />

pour objectif la qualification des luminaires<br />

routiers dont le poteau est percuté<br />

par une voiture manœuvrant sur un<br />

parking. La méthodologie développée est<br />

basée sur la confrontation des approches<br />

numérique et expérimentale. La<br />

première étape de l’analyse consiste en<br />

la modélisation de la structure et de son<br />

excitation au moyen de la technique des<br />

éléments finis.<br />

Le calcul de la réponse dynamique du<br />

système “poteau/luminaire” soumis à<br />

un impact est répété pour différentes<br />

géométries du poteau. La seconde étape<br />

considère ensuite chaque réponse<br />

obtenue au droit de la fixation du luminaire<br />

sur le poteau comme excitation<br />

appliquée à la base d’un système de référence<br />

à un degré de liberté. La théorie<br />

relative à un tel système permet de<br />

définir des critères de sévérité tels que<br />

le spectre de réponse aux chocs (SRC),<br />

qui est le critère le plus approprié dans<br />

le cas d’un impact. La sévérité de l’environnement<br />

vibratoire du luminaire est<br />

alors obtenue en considérant l’enveloppe<br />

des différents SRC calculés. Finalement,<br />

différentes spécifications d’essai présentant<br />

un SRC équivalent sont proposées<br />

et l’appareil est testé sur table vibrante.<br />

La méthodologie développée est appliquée<br />

au cas des luminaires NEMO et DZ<br />

(Schréder) ●<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 44


Rapprochement<br />

Fusion du GAMAC au sein de l’ASTE<br />

Le rapprochement annoncé du GAMAC et de l’ASTE se conclut actuellement<br />

par la fusion du GAMAC au sein de l’ASTE.<br />

Cette fusion est un événement<br />

majeur dans la vie des deux associations<br />

dont on rappellera qu’elles<br />

sont deux acteurs de la métrologie et des<br />

essais qui unissent leurs compétences<br />

pour aller de l’étude du comportement des<br />

matériaux à celui des équipements dans<br />

leurs conditions de service et dans leur<br />

environnement de travail.<br />

“Une expertise et un savoirfaire<br />

accumulés depuis plus<br />

de quarante ans.<br />

”<br />

Cette intégration du GAMAC à l’ASTE<br />

bénéficiera aux ingénieurs et techniciens<br />

des laboratoires d’essais comme aux<br />

universitaires et aux industriels en leur<br />

apportant au sein d’une seule et même<br />

entité l’expertise et le savoir-faire accumulés<br />

depuis plus de quarante ans, tant<br />

en extensométrie que dans le domaine<br />

des essais en environnement.<br />

L’activité du GAMAC va désormais se<br />

dérouler au sein d’une commission de<br />

l’ASTE : la commission Extensométrie,<br />

qui sera animée par Raymond Buisson,<br />

consultant Mesures.<br />

Toutes les personnes intéressées pour<br />

faire partie de cette commission sont<br />

priées de se faire connaître à l’ASTE et<br />

de rejoindre le groupe déjà constitué.<br />

La commission Extensométrie va continuer<br />

de s’intéresser au développement<br />

des méthodes d’analyse des<br />

contraintes statiques et dynamiques,<br />

qu’il s’agisse de<br />

méthodes par jauges ou bien<br />

de méthodes optiques, et<br />

notamment les mesures de<br />

champ, voire par tout autre<br />

procédé. Cela sur tous types<br />

de matériaux et de structures, que ce<br />

soit dans le domaine des sciences de<br />

l’ingénieur ou du vivant.<br />

La commission mène dès maintenant<br />

toute une réflexion sur certains aspects<br />

de la métrologie et propose dans l’immédiat<br />

l’élaboration d’un guide pratique<br />

des précautions d’intercâblage des appareils<br />

de mesure, a fortiori quand ils sont<br />

utilisés en milieu industriel souvent fortement<br />

perturbé sur le plan électromagnétique<br />

●<br />

DR<br />

Fusion GAMAC-ASTE :<br />

Y. Berthaud (GAMAC) à gauche<br />

et B. Colomiès (ASTE) à droite.<br />

ASTE : Association pour le développement<br />

des sciences et techniques de l’environnement.<br />

GAMAC : Groupement pour l’avancement<br />

des méthodes d’analyse des contraintes.<br />

Pour de plus amples informations :<br />

Secrétariat de l’ASTE :<br />

Tél. : 01 42 66 58 29<br />

info@aste.asso.fr<br />

www.aste.asso.fr<br />

Communiqué<br />

Le Conseil d’Administration du 14 septembre 2010 a procédé à l’élection du nouveau bureau, qui se compose comme suit :<br />

- président : Daniel Goulet (Thalès Avionics) ;<br />

- vice-président : Bernard Colomies (SOPEMEA) ;<br />

- secrétaire : Frank Retourné (PCB) ;<br />

- trésorier : Olivier Pauly (ACTEQ Ingénierie).<br />

Par ailleurs, veuillez noter qu’à partir du 6 décembre 2010, la nouvelle adresse de l’ASTE est :<br />

9-11 rue Benoît Malon – 92150 SURESNES<br />

Les numéros de téléphone et de fax demeurent inchangés.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 45


Événements, colloques, séminaires<br />

à venir...<br />

Novembre 2010<br />

Pollutec<br />

24 e salon international des équipements,<br />

des technologies et des services de l’environnement.<br />

Lyon Eurexpo<br />

Du 30 novembre au 3 décembre 2010<br />

www.pollutec.com<br />

Décembre 2010<br />

Journée technique<br />

du Collège français<br />

de métrologie<br />

Comment gagner de l’argent en organisant<br />

sa métrologie ?<br />

Et si le service métrologie contribuait<br />

plus aux résultats financiers de l’entreprise<br />

que le service commercial ? Si une<br />

telle question était posée au directeur<br />

d’une entreprise, nul doute qu’il sourirait,<br />

et il se demanderait certainement<br />

comment on peut oser comparer un<br />

service dit “improductif” à un autre qui<br />

est censé être la base de la création du<br />

chiffre d’affaires.<br />

Cependant en 2010, les métrologues<br />

doivent encore se battre pour convaincre<br />

leur propre hiérarchie qu’ils constituent<br />

un service rentable de l’entreprise !<br />

Cette journée technique sera consacrée<br />

à la présentation de moyens permettant<br />

de démontrer la rentabilité d’une fonction<br />

métrologique d’entreprise :<br />

- le calcul des incertitudes, une analyse<br />

de la valeur des processus permettant<br />

de maîtriser les coûts inutiles ;<br />

- une fonction métrologie pour optimiser<br />

la sous-traitance ;<br />

- des retours d’expériences présentant<br />

l’amélioration des performances grâce<br />

à l’implication forte de la fonction métrologie<br />

:<br />

- réduction des temps de réglage d’une<br />

ligne de production,<br />

- diminution des taux de rebuts,<br />

- processus de surveillance pour réduire<br />

les coûts de revient,<br />

- optimisation des réglages pour limiter<br />

les surqualités de précaution.<br />

Après quelques présentations, une large<br />

place sera laissée à la discussion, car<br />

c’est aussi au travers des débats que<br />

l’on peut mettre en commun tous les<br />

moyens à disposition pour valoriser une<br />

fonction métrologique.<br />

Paris<br />

Le 9 décembre 2010<br />

info@cfmetrologie.com<br />

Sixièmes Assises nationales<br />

de la qualité<br />

de l’environnement sonore<br />

Les sixièmes Assises nationales de la<br />

qualité de l’environnement sonore sont<br />

organisées par le Centre d’information<br />

et de documentation sur le bruit, sous<br />

le haut patronage du ministère de l’Écologie,<br />

de l’énergie, du développement<br />

durable et de la mer.<br />

Rendez-vous incontournable de tous les<br />

acteurs de la qualité de l’environnement<br />

sonore, ces Assises seront également<br />

l’occasion de faire le bilan de 30 ans de<br />

politique du bruit et de recherche en<br />

acoustique.<br />

Paris<br />

Du 14 au 16 décembre 2010<br />

www.bruit.fr<br />

Journée test et mesure<br />

du Simtec<br />

Conférence du Comité Maintenance :<br />

Planète Métrologie en danger –<br />

Ensemble, augmentons l’émission de<br />

CDC (Cahier Des charges). Ou comment<br />

définir ses besoins en maintenance et<br />

métrologie.<br />

Conférence du Comité Réglementation –<br />

Normalisation : Directives, marquage CE<br />

et normes réglementaires applicables<br />

aux appareils de test et mesure.<br />

Conférences du Comité Test : Stratégie<br />

de test de cartes en faible et moyen<br />

volume. Les interfaces de test. Mon prochain<br />

testeur fonctionnel modulaire. De<br />

la conception au test, les outils logiciels.<br />

Strasbourg<br />

Le 15 décembre 2010<br />

www.simtec.org<br />

Janvier 2011<br />

Sepem Industries Nord<br />

Les Sepem Industries (Salon des<br />

services, équipements, process et maintenance)<br />

développent un nouveau<br />

concept de manifestations professionnelles.<br />

Ces salons s’appliquent à proposer des<br />

solutions pratiques à tous les industriels<br />

d’une région donnée, quel que soit leur<br />

secteur d’activité de provenance.<br />

Le panel des savoir-faire présentés est<br />

très large et repose sur un constat<br />

simple : un site de production rencontre<br />

des besoins récurrents qui sont propres<br />

au fonctionnement d’une usine, qu’il<br />

s’agisse d’une pompe, d’un process,<br />

d’une unité de manutention ou encore<br />

de traitement de fluides ou de déchets<br />

industriels. La seule chose qui manque<br />

aux responsables opérationnels chargés<br />

de résoudre ces problèmes, c’est le<br />

temps... ! Le Sepem Industries répond<br />

à tous ces critères, à moins de 2 h 30<br />

de route des sites de production visés…<br />

Douai<br />

Du 25 au 27 janvier 2011<br />

www.sepem-industries.com<br />

Février 2011<br />

NIDays 2011<br />

Le rendez-vous annuel des ingénieurs,<br />

scientifiques et enseignants. L’édition<br />

2011 de NIDays annonce son lot d’innovations<br />

en matière de systèmes de<br />

mesure, de contrôle, d’automatisation<br />

et embarqués.<br />

Paris CNIT La Défense<br />

Le 8 février 2011<br />

www.nidays.fr<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 46


Formations professionnelles de l’ASTE<br />

Vous êtes une entreprise, vous recherchez<br />

:<br />

- une formation planifiée ;<br />

- une formation à monter en dehors de<br />

vos planifications annuelles ;<br />

- un projet de formation spécifique ;<br />

- un conseil professionnel pour mettre<br />

en œuvre les meilleurs pratiques<br />

touchant la prise en compte des effets<br />

de l’environnement.<br />

La Commission formation de l’ASTE s’appuie<br />

sur 40 ans d’expérience, plus de<br />

4 000 auditeurs et des intervenants<br />

parfaitement au fait de l’actualité. À<br />

chaque fois qu’une évolution méthodologique<br />

ou normative a lieu, nous vous<br />

aidons à la prendre en compte et trouver<br />

une solution adaptée à votre besoin.<br />

Notre catalogue de formation propose<br />

26 sessions différentes<br />

(www.aste.asso.fr/fr/page18.xml),<br />

couvrant les thèmes suivants :<br />

- mécanique vibratoire ;<br />

- acquisition traitement des signaux ;<br />

- pilotage des générateurs de vibrations ;<br />

- analyse modale ;<br />

- acoustique ;<br />

- climatique ;<br />

- électromagnétisme ;<br />

- personnalisation du produit à son environnement<br />

;<br />

- extensométrie ;<br />

- essais.<br />

Si une adaptation est nécessaire, ensemble,<br />

nous analysons votre cahier des<br />

charges et construisons votre solution<br />

de formation.<br />

Des formations intra-entreprises sont<br />

possibles sous réserve des disponibilités<br />

de matériels nécessaires à leur application<br />

(moyen d’essais, mesures…).<br />

Nous sommes à tout moment au plus près<br />

de votre réalité professionnelle pour vous<br />

former dans l’action et apporter une contribution<br />

décisive à la réussite de vos projets.<br />

Vous êtes techniciens, ingénieurs : notre<br />

catalogue de sessions est à votre disposition<br />

sur notre site www.aste.asso.fr ou<br />

sur demande auprès du secrétariat. Nos<br />

sessions sont faites pour couvrir vos<br />

attentes que cela soit de la spécification<br />

à la réalisation des essais, en passant par<br />

la mesure et l’exploitation des données.<br />

Dans tous les cas, pour vous inscrire ou<br />

définir avec nous votre besoin et<br />

répondre au mieux à vos attentes, nous<br />

vous conseillons de prendre contact<br />

avec l’ASTE ●<br />

Thèmes<br />

Modules<br />

Mécanique vibratoire Mesure et analyses (Niveau 1)<br />

Mesure et analyses (Niveau 2)<br />

Concevoir, réaliser, exploiter une campagne de mesure sur plate-forme terrestre<br />

Application au domaine industriel<br />

Chocs mécaniques : mesures, spécifications, essais et analyses de risques vis-à-vis des chocs<br />

Acquisition et traitement des signaux<br />

Pilotage des générateurs de vibrations<br />

Analyse modale<br />

Acoustique<br />

Climatique<br />

Électromagnétisme<br />

Personnalisation du produit<br />

Extensométrie<br />

<strong>Essais</strong><br />

Principes de base et caractérisation des signaux<br />

Traitement du signal avancé des signaux vibratoires<br />

Principes utilisés et applications<br />

Expérimentale – initiation aux calculs de structure et essais<br />

Principes de base, mesures et applications aux essais industriels<br />

Principes de base et mesure des phénomènes thermiques<br />

Application au domaine industriel<br />

Sensibilisation à la compatibilité électromagnétique<br />

Application à la prise en compte de la CEM dans le domaine industriel<br />

Prise en compte de l’environnement dans un programme industriel<br />

Mécanique<br />

Utilisation des outils de synthèse mécanique pour la conception et le prédimensionnement des équipements<br />

Mécanique de chocs<br />

Climatique<br />

Exploitation des normes : Stanag 4370, Mil Std 810, Def Stan 0035, GAM EG 13 en Climatique<br />

Électromagnétique<br />

Compatibilité électromagnétique (CEM) – Exploitation des normes<br />

Collage de jauge, analyse des résultats et de leur qualité<br />

Conception et validation de la fiabilité – Dimensionnement des essais pour la validation de la conception des produits<br />

Fiabilité, déverminage, essais (aggravés, accélérés)<br />

Accroissement de la fiabilité par les méthodes HALT et HASS<br />

Estimation des incertitudes de mesures dans les essais<br />

Accréditation des laboratoires d’essais<br />

Méthodes statistiques appliquées aux essais<br />

Informations complémentaires<br />

Contactez notre secrétariat qui est à votre disposition pour répondre à vos questions<br />

et vous adresser le programme détaillé des sessions qui retiendraient votre attention.<br />

Tél. : 01 42 66 58 29 - Fax : 01 42 66 12 06 - info@aste.asso.fr et www.aste.asso.fr.<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 47


Ce numéro<br />

en 3 chiffres<br />

20<br />

DOSSIER page 15<br />

5C’est<br />

le nombre<br />

de soussystèmes<br />

d’essais<br />

de vibration<br />

décrits dans<br />

un article venu<br />

directement<br />

de Chine !<br />

DOSSIER page 25<br />

C’est, en pourcentage, l’objectif<br />

de réduction des essais que s’est<br />

fixé l’Union européenne.<br />

20<br />

C’est la<br />

fréquence<br />

en kHz de<br />

la valeur<br />

limite supérieure<br />

approximative pour le<br />

mesurage quantitatif<br />

des accélérations au<br />

moyen d’accéléromètres<br />

fixés en surface.<br />

APPLICATIONS INDUSTRIELLES page 33<br />

SOGI Communication<br />

103 rue La Fayette - 75481 PARIS cedex 10<br />

Tél. : 01 42 81 94 00 - Fax : 01 42 81 98 07<br />

www.sogicommunication.com<br />

Pour contacter vos correspondants, composez<br />

01 42 81 suivi des chiffres entre parenthèses<br />

Directeur de la publication : Maurice Roboh<br />

RÉDACTION<br />

Directeur de la rédaction : Maurice Roboh (94 00)<br />

Rédacteur : Nicolas Gosse<br />

Comité de rédaction : Anne Marie Ajour (ASTE),<br />

Jacques Beaufront (Consultant),<br />

Abderafi Charki (ISTRIA),<br />

Bernard Colomiès (SOPEMEA), François Derkx (LCPC),<br />

Jean-Claude Frölich (ASTE), Pierre Girard (ASTE),<br />

Nicolas Gosse, Henri Grzeskowiak (HG Consultant),<br />

Yvon Le Guen (IFREMER), Michel Roger Moreau<br />

(Consultant), Lambert Pierrat (LJ Consulting),<br />

Philippe Sissoko (LCIE), Pierre Touboul (ONERA),<br />

Patrice Trinquet (Greg Consultant)<br />

Ont collaboré à ce numéro : Stéphane Auger,<br />

Isabelle Barber, Raymond Buisson, Olivier Maurice,<br />

Joseph Merlet, Aurélien Perrier, Jérôme Vacher,<br />

Patrick L. Walter, Liu Chuang, Xiang Shu-Hong,<br />

Feng Yao-qi<br />

ÉDITION-FABRICATION<br />

Responsable : Mélanie Kucharczyk (93 62)<br />

Création graphique : Interlignes 2.1<br />

Maquette : Graphaël (Paris)<br />

PUBLICITÉ<br />

Chargée de clientèle : Véronique Maille<br />

Assistante : Malorie Vitry (94 00)<br />

DIFFUSION ET ABONNEMENTS<br />

Abonnement 1 an (4 numéros) : 55 €<br />

Prix au numéro : 18 €<br />

Règlement par chèque bancaire à l’ordre de Sogi<br />

(DOM-TOM et étranger : nous consulter)<br />

Répertoire des annonceurs<br />

01 dB-Metravib .............................................................................3<br />

dB Vib ....................................................................4 e de couverture<br />

Emitech ......................................................................................13<br />

Environne’Tech..............................................................................7<br />

Goodfellow...........................................................................5 et 11<br />

M+P International........................................................................14<br />

Müller BBM.................................................................................14<br />

Sepem Industries....................................................3 e de couverture<br />

Symétrie .......................................................................................9<br />

Testo......................................................................2 e de couverture<br />

Trimestriel - N° double 104-<strong>105</strong><br />

Octobre, Novembre, Décembre 2010<br />

Éditeur : Sogi Communication<br />

SAS au capital de 80 000 €<br />

103, rue La Fayette - 75481 Paris cedex 10<br />

RCS Paris B 352 706 626<br />

TVA intracommunautaire : FR 46352706626<br />

N° ISSN : 2103-8260<br />

Dépôt légal : à parution<br />

Prix au numéro : 18 €<br />

Abonnement (4 numéros) : 55 €<br />

Imprimeur : Jouve 2 (733, rue saint Léonard,<br />

BP3, 53100 Mayenne)<br />

Toute reproduction partielle ou globale est soumise à<br />

l’autorisation écrite préalable de Sogi Communication.<br />

Dans ce numéro : un encart broché bulletin d’abonnement.<br />

Photo de couverture : © Mike Kiev<br />

Sogi Communication<br />

est membre du Syndicat<br />

de la presse professionnelle<br />

E SSAIS & S IMULATIONS ● OCTOBRE, NOVEMBRE, DÉCEMBRE 2010 ● PAGE 48


dB Vib, la dynamique d’un groupe.<br />

Ingénierie<br />

Engineering<br />

dB Vib INSONORISATION<br />

Imaginer le silence<br />

Imagine the silence<br />

Solutions optimisées<br />

Optimized solutions<br />

Résultats garantis<br />

Garanteed results<br />

Compétence<br />

Competence<br />

Service<br />

Service<br />

Intervention rapide<br />

Quick intervention<br />

dB Vib CONSULTING<br />

L’expertise “dynamique”<br />

The dynamic expertise<br />

Exclusivités<br />

Exclusivities<br />

Nouveautés<br />

Novelties<br />

Instrumentations<br />

Instrumentations<br />

dB Vib TECHNOLOGIES<br />

Les outils de la maintenance conditionnelle<br />

Tools for predictive maintenance<br />

dB Vib, une offre globale pour les industriels<br />

Le Laboratoire de dB Vib Consulting, ses moyens d’essais, de mesures et de calculs :<br />

<strong>Essais</strong> mécaniques<br />

<strong>Essais</strong><br />

climatiques<br />

Holographie & Intensimétrie acoustique<br />

Simulation du<br />

rayonnement acoustique<br />

Calcul éléments finis &<br />

Déformée opérationnelle<br />

dB Vib Technologies est à votre disposition pour vous fournir toute l’instrumentation en<br />

vibration, acoustique, alignement laser, équilibrage, thermographie infrarouge, ultrason.<br />

Analyseur<br />

multi voies<br />

Collecteur de données<br />

vibratoires<br />

Les solutions de dB Vib Insonorisation :<br />

Détecteur<br />

de défauts<br />

par ultrasons<br />

Capotage acoustique<br />

Caméra infrarouge<br />

haute résolution<br />

Silencieux<br />

Salles anéchoïques<br />

Cabine Alpha<br />

Montée de Malissol - 38200 Vienne - France - Tél : +33 (0)4 74 16 18 80 - Fax : +33 (0)4 74 16 18 89<br />

www.dbvib.com

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!