25.11.2020 Views

Essais & Simulations n°115

Le point sur les incertitudes de mesure

Le point sur les incertitudes de mesure

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

www.mesures-et-tests.com<br />

Le point sur les incertitudes de mesure<br />

Page 40<br />

MESURES ET MÉTHODES DE MESURES<br />

Dossier spécial<br />

Optique<br />

Page 8<br />

ESSAIS ET MODÉLISATION<br />

Outils et solutions<br />

pour l’acquisition de données<br />

Page 32<br />

N° 115 • OCTOBRE 2013 • TRIMESTRIEL • 20 €


Ingénierie Virtuelle<br />

pour accélérer l’innovation industrielle<br />

Courtesy of Volkswagen<br />

Build it Right<br />

Simulation des procédés de fabrication :<br />

des matériaux composites à la fonderie,<br />

l’emboutissage et le soudage<br />

Test it Right<br />

Simulation des performances<br />

produit : de la sécurité aux chocs,<br />

crash et confort des passagers<br />

Decide & Deliver it Right<br />

Systèmes d’aide à la décision pour<br />

gérer efficacement les données de<br />

simulation et les équipes d’ingénierie<br />

Copyright © ESI Group 2013 G/RO/13.49<br />

Solutions & Services pour les Industries Manufacturières<br />

ESI est un éditeur français de logiciels et de services d’ingénierie à forte valeur ajoutée proposant des solutions de prototypage<br />

virtuel avec prise en compte de la physique des matériaux.<br />

ESI a développé une suite d’outils métiers permettant de simuler le comportement du produit et des procédés de fabrication<br />

durant ses phases de conception, et ce jusqu’à la phase de validation. Ces outils ont vocation à accélérer le développement<br />

produit et à minimiser de manière significative les coûts d’ingénierie par la réduction, voire la suppression, des prototypes réels.<br />

Notre groupe, de plus de 1000 collaborateurs, est présent en France et dans une quarantaine de pays. Nous accompagnons des<br />

grandes sociétés et des PME industrielles variés telles que EDF, AREVA, EADS, THALES, DCNS, ASTRIUM, RENAULT, PSA, FAURECIA<br />

et bien d’autres....<br />

ESI France| Parc d’Affaires Silic | 99, rue des solets | 94513 RUNGIS | Tel: 33 (0) 4 78 14 12 10<br />

www.esi-group.com | info@esi-group.com


Edito<br />

Puissance de calcul et simulation numérique,<br />

fers de lance de la compétitivité<br />

La compétitivité industrielle ne semble – enfin – plus être un point noir dans l'avenir<br />

économique de la France, ni un énième leitmotiv exprimé haut et fort par notre actuel<br />

représentant du Redressement productif, ministère créé de toutes pièces par le Président<br />

Hollande. Des coups d'éclats à Florange à la toute relative efficacité dans la gestion<br />

des dossiers PSA à Aulnay-sous-Bois, ce ministère apparaissait souvent encore loin des préoccupations<br />

des entreprises françaises, à commencer par la compétitivité. Pourtant, les 34<br />

plans de « reconquête industrielle » lancés le 12 septembre dernier par François Hollande<br />

et portés par Arnaud Montebourg ont reçu un accueil plutôt favorable dans la mesure où ces<br />

directives montrent la volonté de relancer de grands axes d'innovation, ce qui manquait aux<br />

entreprises de notre pays.<br />

Surtout, à côté des grands secteurs dominant l'économie figure un volet détaillé sur le recours<br />

et le développement d'une spécificité française, les supercalculateurs. Né de la volonté des<br />

rédacteurs de la « Nouvelle France industrielle » de construire la France de la puissance de<br />

calcul et de la simulation numérique, ce texte a raison de rappeler que « la course mondiale<br />

aux supercalculateurs les plus puissants est d’abord un enjeu d’innovation. » Le ministre et<br />

ses collègues n'oublient pas non plus de saluer le rôle des pôles de compétitivité mais aussi de<br />

citer l'un des partenaires privilégiés du magazine <strong>Essais</strong> & <strong>Simulations</strong>, l'association Teratec.<br />

En plein développement, la structure Teratec a posé depuis plus d'un an les premières pierres<br />

d'un modèle unique au monde dans le domaine du HPC, pour le plus grand bonheur des instigateurs<br />

des 34 Plans qui peuvent désormais s'appuyer sur des compétences fortes ayant fait<br />

du territoire un pionnier dans le domaine. Éléments moteurs de la croissance, le calcul haute<br />

performance et la simulation numérique sont utiles dans tous les secteurs d'activité : de l'automobile<br />

à l'aéronautique en passant par l'énergie, la santé ou encore l'univers du multimédias.<br />

Les idées, les acteurs et les structures sont là ; reste la volonté d'avancer dans le même sens<br />

pour un projet commun : celui de la compétitivité industrielle de la France.<br />

Olivier Guillon<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 1


<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 2


Sommaire<br />

Actualités<br />

Entreprises & Marché<br />

De nouveaux moyens d’essai importants pour le Cetim ..…4<br />

Hyundai améliore virtuellement le confort des occupants ..…4<br />

Produits & Technologies<br />

Un nouvel acteur dans l'isolation antivibratoire ..............…5<br />

Un bon bilan pour le Forum Teratec 2013 ...................…6<br />

Un système d’essais pour tester les réservoirs<br />

à carburant chez FGA ..................................................…6<br />

Enova Paris 2013 Un événement pour quatre univers .…7<br />

Mesures et Méthodes de mesure<br />

Le Colloque CMOI-Fluvisu met le cap à Orléans ....…8<br />

Vérification expérimentale de modèles<br />

opto-thermo-élastiques simulés avec le logiciel<br />

OOFELIE Multiphysics ........................................…11<br />

IDIL Fibres Optiques, le spécialiste des applications<br />

scientifiques et industrielles de la fibre ................…14<br />

Couplage mesure de champs / simulation numérique<br />

pour l'identification de loi comportement<br />

en mécanique des solides ...................................…15<br />

Variabilité de l’environnement thermique choix<br />

d’une échelle de température adéquate ...............…18<br />

Modernisation du plus grand centre de tests<br />

de technologie de peinture .................................…20<br />

CORRELISTC, un logiciel dédié à la métrologie<br />

des déformations mécaniques ............................…21<br />

<strong>Essais</strong> et Modélisations<br />

Des produits testés de plus en plus volumineux ....…22<br />

Outillages HALT-HASS : un savoir-faire<br />

dans leur conception, étape stratégique<br />

des essais aggravés ...............................................24<br />

Matériaux composites et simulation numérique<br />

– Enjeux et perspectives .................................…25<br />

Un nouvel investissement de taille pour le Cetim ..…28<br />

Immersion dans la R&D de l’Institut de Soudure ....…30<br />

Simuler, quand les mesures sont impossibles ......…32<br />

Turbomeca opte pour la Q.series<br />

de Gantner Instruments ....................................…33<br />

Accéder à ses données de partout .....................…33<br />

S’adapter aux fortes évolutions dues<br />

aux matériaux composites .................................…34<br />

Dossier<br />

INCERTITUDES DE MESURES<br />

Préface : Maîtriser les incertitudes en matière<br />

d’essais et de simulations ..........................................…40<br />

Uncertainty of a RCS FLOW Measurement :<br />

joint use of experiments and CFD ............................…41<br />

Correction des erreurs angulaires issues de mesures<br />

de courants marins basées sur l'effet Doppler ...........…46<br />

Mesure de la micro rugosité de pièces mécaniques<br />

en milieu industriel : méthode d’estimation de l’incertitude<br />

de mesure et de la conformité ....................................…51<br />

Component coverage factor for uncertainty estimation<br />

with few measurements and non-gaussian distribution …53<br />

Influence de la propagation des incertitudes paramétriques<br />

sur la probabilité de défaillance par interaction<br />

entre deux lois de Weibull ...........................................…57<br />

Coup de jeune sur le système d'acquisition<br />

d'une soufflerie .......................................................…36<br />

L'interview<br />

Bernard Larquier - BEA Métrologie ..............................38<br />

Des <strong>Essais</strong> Insolites<br />

Simulation en eaux troubles .......................................60<br />

Vie de l’ASTE<br />

Le Guide d'aide à la mesure pour les PME<br />

lancé en fin de l'année ................................................61<br />

Outils<br />

Programme des formations .......................................62<br />

Agenda ......................................................................63<br />

Répertoire des annonceurs .......................................64<br />

<strong>Essais</strong> & <strong>Simulations</strong> est la revue partenaire exclusive<br />

de l’ASTE (Association pour le développement<br />

des sciences et techniques de l’environnement).<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 3


Actualités<br />

Entreprise et Marché<br />

V-Road, un moyen mobile pour les<br />

essais<br />

Mis au point par V-Motech, PME<br />

membre du pôle Mov'eo, le « V-Road »<br />

est un banc climatique (-30°C à<br />

+60°C) mono rouleaux intégré dans<br />

une plateforme mobile. Cet équipement<br />

s'adresse aux métiers de la<br />

R&D automobile (constructeurs, équipementiers<br />

et universitaires) dans le<br />

domaine des groupes motopropulseur<br />

et véhicules. Le V-Road permet de réaliser<br />

des essais de performances, de<br />

mise au point en vitesse stabilisée ou<br />

transitoire, de validation en roulage,<br />

avec ou sans conditions climatiques<br />

extrêmes, mesure de polluants...<br />

Entreprise innovante spécialisée dans<br />

l’ingénierie mécanique et les essais<br />

groupe motopropulseur, V-Motech<br />

est présente dans les métiers de la<br />

mécanique, de l’électronique et des<br />

systèmes embarqués. L’entreprise<br />

a notamment orienté son innovation<br />

sur la mobilité et la modularité de ses<br />

moyens d’essais avec la possibilité de<br />

mutualiser ces derniers pour une économie<br />

d’échelle significative.<br />

Levée de fonds record pour Isorg<br />

Fruit du projet Printronics (porté par<br />

le pôle Minalogic), la start-up Isorg<br />

(« Image Sensor Organic »), spin-off<br />

du CEA Liten, projette de lever 15 M€.<br />

L'objectif pour la société est de poursuivre<br />

son développement et implanter<br />

prochainement sa première ligne<br />

de production. Ce financement dévrait<br />

permettre à Isorg de développer la<br />

société dans le domaine de la R&D,<br />

les applications-clients, le recrutement<br />

et le développement commercial. La<br />

start-up a également annoncé l'implantation<br />

de sa future ligne de production<br />

sur la nouvelle zone d'activités<br />

technologiques de Sassenage "Vet'Innov"<br />

(Village d'entreprises technologiques<br />

innovantes).<br />

Isorg développe et industrialise des<br />

photo-détecteurs et des capteurs<br />

d'image en électronique organique. La<br />

société a choisi de s'orienter exclusivement<br />

sur une technologie de rupture<br />

transformant la surface des substrats<br />

en plastique et en verre en une<br />

surface intelligente capable d'interagir<br />

avec son environnement extérieur.<br />

Le but ultime de l'entreprise est de<br />

devenir le pionnier de cette nouvelle<br />

industrie de l'électronique organique<br />

imprimée au niveau mondial.<br />

Équipement<br />

De nouveaux moyens d’essai<br />

importants pour le Cetim<br />

Un nouvel équipement pour le Cetim<br />

dans le ferroviaire (DR : Cetim)<br />

Répondre aux besoins des professionnels<br />

des roulements et des transmissions<br />

mécaniques, telle est la mission<br />

du Cetim. Pour ce faire, le centre<br />

technique a mis en œuvre un banc<br />

d’essai mutualisé de roulements ferroviaires.<br />

Les industriels peuvent ainsi<br />

tester des solutions innovantes et<br />

comprendre les phénomènes au sein<br />

des composants mécaniques sous<br />

forte charge.<br />

Ce nouveau banc permet de réaliser<br />

des essais sur des roulements<br />

de grande taille (alésage : 160 mm,<br />

diamètre extérieur : 250 mm) et sous<br />

fortes charges (jusqu’à 15 000 daN<br />

constant en radial, jusqu’à ±5 000<br />

daN cyclé en axial). Pour un effort radial<br />

constant, correspondant au poids<br />

du train, les efforts axiaux appliqués<br />

sont cyclés et correspondent à des<br />

phases de virage ou de mauvais alignements<br />

de la voie.<br />

Une compagne d'investissements<br />

de 11M€ stimulée par l'aéronautique<br />

D'autres investissements de taille<br />

concerne cette fois l'aéronautique.<br />

L'institut technologique prévoit en<br />

effet d’investir 11M€ dans de nouveaux<br />

équipements. Fort de ses<br />

compétences reconnues en caractérisation<br />

des matériaux, le Cetim a vu,<br />

par conséquence, son activité « testing<br />

» croître de 25% en quatre ans<br />

pour atteindre un chiffre d’affaires de<br />

quelques 8M€.<br />

Le centre entend bien garder son<br />

avance et doubler le chiffre d’affaires<br />

de l’activité caractérisation des matériaux<br />

tant dans les domaines de la<br />

recherche et du développement que<br />

dans le « testing » associé à la production,<br />

activité stimulée par l’aéronautique<br />

Simulation<br />

Hyundai améliore virtuellement<br />

le confort des occupants<br />

Habituellement, les fabricants de voiture<br />

testent le confort vibratoire des<br />

sièges en ayant recours à des essais<br />

avec des volontaires aux résultats subjectifs<br />

et difficilement « répétable ».<br />

Afin d’améliorer cette pratique, les ingénieurs<br />

de Hyundai ont décidé de développer<br />

puis de calibrer un nouveau<br />

modèle virtuel de mannequin dynamique,<br />

dédié tout spécifiquement aux<br />

tests de confort vibratoire.<br />

Avec la solution de prototypage virtuel<br />

intégral d’ESI (Virtual Seat Solution),<br />

les ingénieurs de Hyundai utilisent désormais<br />

leur mannequin dynamique<br />

afin de tester, de manière intégrée et<br />

entièrement virtuelle, le confort dynamique<br />

de sièges avec occupant. Pour<br />

ce faire, l’assise du mannequin dans le<br />

siège est tout d’abord simulée avant de<br />

simuler le test vibratoire avec le mannequin<br />

assis afin d’obtenir la fonction<br />

de transfert.<br />

Grâce à ce modèle de mannequin<br />

maintenant validé, Hyundai peut désormais<br />

réaliser des tests de confort<br />

vibratoire à l’aide de Virtual Seat Solution,<br />

dès les premières étapes de développement<br />

et, valider ainsi en amont<br />

le design du siège en termes de confort<br />

dynamique. Les tests de vibration virtuels<br />

sont suffisamment précis pour<br />

remplacer certains prototypes réels,<br />

permettant à Hyundai de produire des<br />

sièges toujours plus confortables, plus<br />

rapidement, et à moindre coût<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 4


Communiqué<br />

Un nouvel acteur dans l'isolation antivibratoire<br />

Actualités<br />

Produits et Technologies<br />

La société VIB&TEC assure désormais la distribution exclusive des produits et services Bilz Vibration<br />

Technology AG sur les marchés Français et Suisse. Spécialisé depuis plus de trente ans dans l’isolation<br />

antivibratoire et le nivellement des machines et systèmes, Bilz (Vibration Technology) s’est illustré<br />

sur de nombreux marchés de l’industrie et de la recherche, tels que la métrologie, le contrôle, les<br />

moyens d’essais, la tôlerie, la microscopie électronique, l’interférométrie laser, la nanocaractérisation,<br />

la pesée etc.<br />

La gamme des solutions Bilz s’étend<br />

des plaques antivibratoires caoutchouc<br />

(f0 > 10hz) aux isolateurs pneumatiques<br />

très basse fréquence, passifs et<br />

actifs (0,5 < f0 < 6hz). Systèmes pouvant<br />

être associés à une régulation automatique<br />

du niveau pour les gammes<br />

Faebi & BiAir. L’Activ Isolation System<br />

AIS, isolateur pneumatique actif, s'applique<br />

aux instruments exigeants et<br />

offre une compensation des vibrations<br />

en temps réel. Il supprime les phénomènes<br />

de surtensions à la résonance<br />

et assure une isolation très basse fréquence<br />

suivant six degrés de liberté<br />

avec un repositionnement dans l’espace<br />

à +/- 10µm. La société propose<br />

également des solutions standards et<br />

sur-mesure répondant aux exigences<br />

des petites et grandes installations<br />

(10kg à 500to et +). À titre d'exemple,<br />

Bilz a mis sur le marché une table antivibratoire<br />

pneumatique équipée d’un<br />

caisson acoustique dédiés aux AFM.<br />

Un nouveau concept d’isolation<br />

vibro-acoustique présenté sur<br />

Enova Paris<br />

L’équipe technico-commerciale de<br />

VIB&TEC est composée d’anciens collaborateurs<br />

de Bilz (Vibration Technology)<br />

et cumule douze ans d’expérience<br />

sur le marché français. Elle assure<br />

pour ses clients l’étude des problématiques<br />

vibratoires et définit les solutions<br />

adaptées afin d'apporter toutes<br />

les garanties d’efficacité requises. Ses<br />

équipes proposent également l’installation<br />

des technologies Bilz ainsi<br />

que des prestations de mesure vibratoires<br />

sur site. Par ailleurs, VIB&TEC<br />

présentera notamment son nouveau<br />

concept d’isolation vibro-acoustique<br />

intégrée dédié aux instruments de recherche<br />

à l’occasion du salon Enova<br />

Paris 2013 (stand B44)<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 5


Actualités<br />

Produits et Technologies<br />

PLM : Lascom et le CSTB associent<br />

leurs expertises<br />

L’éditeur de solutions PLM (Project/<br />

Product Lifecycle Management)<br />

Lascom et le Centre scientifique et<br />

technique du bâtiment (CSTB) associent<br />

leurs expertises dans le domaine<br />

du numérique. La première étape de<br />

ce partenariat vise la création d’une<br />

plateforme collaborative associant la<br />

solution PLM de Lascom au logiciel<br />

de gestion de maquettes numériques<br />

eveBIM du CSTB. Cet outil va permettre<br />

d’optimiser la démarche de<br />

travail collaboratif entre les différents<br />

métiers intervenant sur un même projet<br />

de bâtiment durable.<br />

Le premier projet commun est une<br />

plateforme collaborative issue du<br />

couplage entre le logiciel eveBIM<br />

et la plateforme PLM. Conçu par le<br />

CSTB, le logiciel eveBIM, dédié à la<br />

gestion de maquettes numériques de<br />

bâtiments en format standard IFC, et<br />

reposant sur un process d’échange<br />

de fichier global représentant le projet<br />

dans sa totalité, constitue une première<br />

réponse à la problématique de<br />

travail collaboratif.<br />

Compte rendu<br />

Un bon bilan<br />

pour le Forum Teratec 2013<br />

La 8e édition du Forum Teratec qui<br />

s'est déroulée fin juin a confirmé l'importance<br />

stratégique du HPC dans le<br />

monde de l'industrie et des services,<br />

et son élargissement à celui des PME/<br />

PMI. Le Forum a accueilli plus d'un millier<br />

de visiteurs à l'École Polytechnique<br />

de Palaiseau. Les sessions plénières<br />

de la première journée ouverte par un<br />

panorama prospectif fait par le professeur<br />

Charbel Farhat de l’Université de<br />

Stanford, ont permis de confronter les<br />

réalisations et les attentes des utilisateurs<br />

les plus avancés avec les stratégies<br />

des fournisseurs technologiques.<br />

Et les ateliers du deuxième jour ont<br />

montré l’importance et la diversité des<br />

applications du HPC dans de très nombreux<br />

domaines.<br />

Plus d'un millier de visiteurs<br />

De grandes entreprises, comme Airbus,<br />

Air Liquide, EdF, Michelin, Total,<br />

Unilever, de grandes organisations,<br />

comme le Department of Energy (DoE)<br />

américain, EBI (European Bioinformatics<br />

Institute), le CERN et de nombreuses<br />

entreprises technologiques<br />

(Allinea, Bull, Enginsoft, Intel, SAP,<br />

etc.) ont présenté leur vision et leurs<br />

actions dans ces domaines.<br />

Enfin, près de 1 100 visiteurs professionnels<br />

ont pu découvrir dans le grand<br />

hall de l’exposition, les produits et services<br />

des soixante-cinq exposants,<br />

constructeurs et éditeurs de logiciels,<br />

sociétés de services, laboratoires ou<br />

organisations professionnelles, qui<br />

ont présenté au cours de ces deux<br />

journées leurs innovations les plus<br />

récentes, un panorama très complet<br />

d'une offre riche et évolutive<br />

Vent de renouveau sur les essais<br />

sable et poussière<br />

Le Département Innovation et application<br />

d'Environne'Tech a mis en place<br />

un nouveau banc d'essais de vent<br />

de sable et poussières. Son caisson<br />

d’exposition est d'1m3.. Il possède différentes<br />

servitudes (électrique, pneumatique<br />

et hydraulique) et une importante<br />

précision dans les réglages et le<br />

monitoring.<br />

Mis en service en mai dernier au<br />

centre d'essais de Bourgoin, ce banc<br />

permet aux clients d'Environne'Tech<br />

et du groupe Emitech de confier des<br />

spécimens à tester de plus grande<br />

taille et de bénéficier de délais de réalisation<br />

d'essais plus courts avec la<br />

possibilité en quelques heures de passer<br />

de la configuration vent de poussière<br />

à celle de vent de sable.<br />

Ces essais s'adressent aux équipements<br />

embarqués qui rencontrent des<br />

conditions d’empoussièrage susceptibles<br />

de les endommager, de perturber<br />

leur fonctionnement, leurs communications.<br />

Ils mettent en évidence<br />

les pertes d'étanchéité, les pénétrations<br />

de particules voire des phénomènes<br />

d'abrasion...<br />

Contrat<br />

Un système d’essais pour tester<br />

les réservoirs à carburant chez FGA<br />

Moog a livré un nouveau système d’essais<br />

de réservoirs à carburant à Fiat<br />

Group Automobiles (FGA). Ce système<br />

permet de réaliser des essais de fonctionnalité<br />

dynamiques sur les réservoirs<br />

à carburant pour automobiles,<br />

avec la possibilité de simuler les conditions<br />

réelles sur route et de caractériser<br />

le comportement des carburants et des<br />

composants du réservoir. Les résultats<br />

d’essais permettront à FGA d’optimiser<br />

la configuration et la conception de réservoirs<br />

spécifiques.<br />

Objet d’un dépôt de brevet en instance,<br />

le système d’essais à 8 DDL (degrés<br />

de liberté) de Moog est composé<br />

d’une table de simulation électrique à<br />

6 DDL sur laquelle est rapportée une<br />

table basculante à 2 DDL destinée à<br />

amplifier les mouvements de tangage<br />

et de roulis. Cette table de simulation<br />

électrique a pour fonction de reproduire<br />

les profils de route accidentés et générateurs<br />

de hautes fréquences, la table<br />

basculante étant chargée de simuler le<br />

comportement en dérive et en accélération<br />

du véhicule.<br />

Ce système permet à FGA de tester<br />

diverses conditions qui provoquent un<br />

extrême ballottement du carburant,<br />

comme la conduite en montagne, le<br />

freinage brusque ou les manœuvres<br />

en courbes très serrées. En outre, avec<br />

les logiciels Replication et Sinesweep<br />

de Moog, FGA pourra reproduire et<br />

exécuter des fichiers d’historique de<br />

conduite qui auront été enregistrés sur<br />

piste, ainsi que procéder à des études<br />

de fréquences de résonnance<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 6


Actualités<br />

Produits et Technologies<br />

Événement<br />

Enova Paris 2013<br />

Un événement pour quatre univers<br />

Les 8, 9 et 10 octobre prochains, se tiendra à Paris expo Porte de Versailles, Enova Paris 2013, la<br />

plus importante manifestation professionnelle nationale réunissant en un même lieu quatre univers<br />

technologiques et scientifiques aux applications de plus en plus complémentaires et imbriquées : l’électronique<br />

et les systèmes embarqués avec le Carrefour de l’électronique la mesure, l’instrumentation et<br />

la métrologie avec MesurexpoVision & le Village Métrologie l’optique et la photonique avec Opto et les<br />

hyperfréquences, le sans fil et les antennes avec RF&Hyper.<br />

Si la partie exposition proprement dite<br />

réunira quelque 400 exposants, de nombreux<br />

« temps forts » ponctueront la visite<br />

des 8 000 professionnels issus de la<br />

R&D mais aussi de l’industrie en quête<br />

d’innovations. Outre les animations spécifiques<br />

aux différents univers technologiques<br />

- « Les Ateliers du Test » (par<br />

le SIMTEC), « L’Espace Embarqué »<br />

par Cap’Tronic et « L’Espace Systèmes<br />

communicants » par IETR - l’esprit novateur<br />

sera de nouveau au cœur de<br />

l’exposition avec les Trophées de l’Innovation,<br />

les Trophées Cap’Tronic ou<br />

encore le Prix Yves Rocard..., il convient<br />

d’ores et déjà de mentionner la tenue<br />

simultanée de deux grands événements<br />

au sein du programme de conférences :<br />

le 16e Congrès international de Métrologie<br />

(7-10 octobre) qui accueillera un<br />

millier de participants représentant une<br />

cinquantaine de pays, et la 2e édition du<br />

Congrès francophone des applications<br />

des fibres optiques (8-10 octobre).<br />

Place grandissante des systèmes<br />

embarqués<br />

Par ailleurs, les systèmes embarqués et<br />

les systèmes communicants vont bénéficier<br />

d’une mise en avant spécifique. De<br />

part leur propre évolution technologique<br />

(miniaturisation, fiabilité et performances<br />

accrues...) les systèmes embarqués répondent<br />

à une demande de plus en plus<br />

élargie des donneurs d’ordre manufacturiers.<br />

Ainsi, plusieurs initiatives ont été<br />

prises à ce sujet : la création d’un Espace<br />

d’exposition dédié aux systèmes<br />

embarqués avec la présence du pôle<br />

Cap’Tronic qui présentera les dernières<br />

innovations de PME françaises, trois<br />

demi-journées de conférences baptisées<br />

« Les Matinées de l’embarqué »,<br />

et deux demi-journées de conférences<br />

(organisées par IETR) consacrées aux<br />

Systèmes communicants. De son côté,<br />

GL events Exhibitions a adjoint à ses<br />

Trophées de l’Innovation 2013 une nouvelle<br />

catégorie appelée « Technologie<br />

embarquée »<br />

Infos pratiques<br />

Date : Les 8, 9 et 10 octobre<br />

2013<br />

Lieu : Paris expo Porte de Versailles<br />

- Hall 7.2<br />

Horaires : mardi et mercredi :<br />

9h – 18 h et jeudi : 9h – 17h<br />

>> www.enova-event.com<br />

<strong>Essais</strong> climatiques <strong>Essais</strong> mécaniques <strong>Essais</strong> électriques <strong>Essais</strong> environnementaux<br />

Etes-vous certain<br />

d’avoir bien validé<br />

vos produits ?<br />

Accréditation N°1-2044<br />

Portée disponible<br />

sur www.cofrac.fr<br />

PA de Plagué La Haie Robert 2 24 rue Pierre et Marie Curie 35506 VITRE Tél. 02 23 55 06 60 www.arenius.fr<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 7


Mesures et Methodes de Mesure<br />

Événement<br />

Le Colloque CMOI-Fluvisu met le cap à Orléans<br />

Du 18 au 22 novembre prochain se déroulera à l’Ecole Polytechnique de l'Université d'Orléans le 13e<br />

colloque international francophone sur les Méthodes et techniques optiques pour l'industrie du club<br />

CMOI/SFO. Cet événement sera organisé pour la troisième fois consécutive en coopération avec le<br />

15e congrès français du club Fluvisu/SFO – Visualisation et traitement d'images en mécanique des<br />

fluides.<br />

Deux ans après l'édition lilloise, le colloque<br />

s'installera dans les locaux de<br />

l'université d'Orléans et le Comité<br />

d’Organisation sera présidé par Christine<br />

Mounaïm-Rousselle (laboratoire<br />

Prisme-Université d’Orléans), membre<br />

du comité exécutif du club CMOI/SFO et<br />

membre du comité Fluvisu/SFO. Dans<br />

sa tâche, elle sera accompagnée de Paul<br />

Smigielski (Rhenaphotonics Alsace, président<br />

du club CMOI/SFO et membre<br />

d’honneur du comité scientifique du club<br />

Fluvisu/SFO), et de Jean-Michel Desse<br />

(Onera Lille), président du club Fluvisu/<br />

SFO et membre du comité scientifique<br />

et technique du club CMOI/SFO.<br />

Chercheur au sein du laboratoire Pluridisciplinaire<br />

de Recherche en Ingénierie<br />

des Systèmes et Mécanique,<br />

Energétique (Prisme), Christine Mounaïm-Rousselle<br />

enseigne également à<br />

Polytech’Orléans, là où se dérouleront<br />

conjointement le 13e colloque CMOI/<br />

SFO et le 15e congrès Fluvisu/SFO.<br />

L'enseignante-chercheur est spécialisée<br />

dans le diagnostic optique pour la recherche<br />

dans la combustion automobile,<br />

un domaine particulièrement lié aux thématiques<br />

abordées au sein du club Fluvisu<br />

; « ce qui explique en partie pourquoi<br />

cet événement commun se déroule<br />

sur les lieux de Polytech’Orléans, dont<br />

l'une des spécialités est l'électronique<br />

et l'optique », souligne l'organisatrice.<br />

Il faut dire que ces deux domaines de<br />

recherche évoluent énormément, selon<br />

les mots de Christine Mounaïm-Rousselle,<br />

« en raison de fortes avancées<br />

technologiques, en particulier dans<br />

l'imagerie, que ce soit dans les capacités<br />

des caméras en termes de résolution<br />

– jusqu'au nanomètre ! – ou de hautes<br />

cadences et la possibilité d'observer<br />

des phénomènes rapides ». Il en est de<br />

même pour les techniques de mesure<br />

qui bénéficient de progrès considérables<br />

en matière de modélisation des phénomènes<br />

et de traitement des données.<br />

Dans ce cadre, la logique de rapprocher<br />

les thématiques abordées par les<br />

membres et les métiers du club CMOI<br />

et celles de Fluvisu prend tout son sens,<br />

« car pour avancer dans la recherche et<br />

la compréhension physique des phénomènes,<br />

on doit absolument connaître et<br />

utiliser toutes les techniques optiques,<br />

voire en développer de nouvelles », insiste<br />

Christine Mounaïm-Rousselle. La<br />

visualisation est essentielle dans l'analyse<br />

de l'écoulement autour d’un véhicule<br />

ou d’une éolienne par exemple,<br />

pour mesurer la vitesse autour d'un<br />

obstacle quelconque ou encore cartographier<br />

les mélanges air-carburant<br />

dans des chambres de combustion<br />

pour l'automobile ou l'aéronautique par<br />

exemple... « Dans tous les cas, nous devons<br />

mettre au point des techniques innovantes<br />

pour observer ce qui se passe,<br />

comprendre puis modéliser. Un autre<br />

domaine d’applications est en plein essor,<br />

celui du médical ».<br />

Des développements importants, à<br />

tous les niveaux<br />

Les activités des membres du club<br />

CMOI sont multiples et profitent pour<br />

beaucoup d'une demande croissante<br />

de la part des industriels, à l'instar de<br />

l'holographie (procédé d'enregistrement<br />

de la phase et de l'amplitude de l'onde<br />

diffractée par un objet) et l'holographie<br />

numérique, la thermographie infrarouge<br />

(très présente en production et en maintenance<br />

industrielle), les capteurs à fibre<br />

optique, « lesquels sont de plus en plus<br />

présents dans le secteur du médical,<br />

précise Paul Smigielski, sans oublier la<br />

spectroscopie [étude expérimentale du<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 8


logiciels pour la métrologie<br />

Logiciel de gestion de parc d’instruments de mesure et d’assistance à l’étalonnage<br />

Deca, outil de gestion de la métrologie, multisite<br />

et multilingue.<br />

Application unique pour l’ensemble des sites,<br />

Deca permet :<br />

■ l’uniformisation des procédures ainsi que la cohérence de la politique<br />

qualité,<br />

■ l’uniformisation des indicateurs,<br />

■ la mutualisation des parcs d’instruments de mesure.<br />

Proposée en hébergement, cette solution :<br />

■ permet à vos prestataires de mettre à jour les fiches de vie et de<br />

joindre les documents électroniques,<br />

■ assure une disponibilité immédiate de l’application sur tous les sites,<br />

■ élimine les coûts internes d’infrastructure,<br />

■ élimine les coûts internes d’administration de l’application.<br />

Fonctionnalités :<br />

■ Pilotage de l’activité métrologique :<br />

• Gestion du parc d’instruments.<br />

• Suivi des plannings de contrôles et de charge.<br />

• Identifications des retards.<br />

• Gestion des entrées/sorties avec traçabilité des bons de livraison<br />

et de réception.<br />

• Prévision des budgets.<br />

• Analyse des coûts, des non conformités et des temps.<br />

• Gestion des prestations et des accréditations des fournisseurs.<br />

• Association de tous types de documents numériques.<br />

• Mise à jour par lot des interventions techniques.<br />

• Adaptation des droits utilisateurs selon des profils métiers pour<br />

un accès ciblé aux données et une saisie personnalisée.<br />

■ Fonctions métrologiques avancées :<br />

• Assistance à l’étalonnage.<br />

• Opperet, évaluer et optimiser les périodicités d’étalonnage.<br />

• Calcul d’incertitudes de mesure (ISO 13005 ou GUM).<br />

21 CFR part 11 :<br />

■ Les recommandations de la FDA recensées dans le 21 CFR Part 11<br />

portent sur deux axes principaux :<br />

• L’audit trail dont l’objectif est de conserver la trace de toute modification<br />

survenue sur les données.<br />

• La signature électronique visant à certifier les opérations ou les<br />

documents critiques.<br />

Cette réglementation s’attache à assurer l’authenticité, l’intégrité,<br />

la confidentialité et la pérennité des données.<br />

La certification NF Industrie Pharmaceutique délivrée par l’AFNOR<br />

et renouvelée chaque année vous assure la conformité de Deca ® à<br />

cette réglementation.<br />

[LES RÉFÉRENCES]<br />

NOUVELLE VERSION<br />

PAR AFNOR CERTIFICATION<br />

LOGICIEL<br />

INDUSTRIE PHARMACEUTIQUE<br />

SUPPORT UTILISATEUR<br />

www.deca.eu<br />

Deca Mail :<br />

■ Appel automatique par e-mail des instruments<br />

à vérifier.<br />

■ Relance des correspondants en cas de retard.<br />

■ Envoi automatique des rapports par messagerie<br />

au format PDF ou Excel.<br />

ALCAN, ALCATEL, ALSTOM, APAVE,<br />

AREVA, ASTRIUM, BOMBARDIER, CEA,<br />

CONTINENTAL, DASSAULT, DGA, E2M, EADS, EDF,<br />

GE ENERGY, FAURECIA, LEGRAND SA, MESSER,<br />

MICHELIN, MITTAL, NEXTER, R.A.T.P., SAFRAN,<br />

SEB, SNCF, TESTO, THALES, VALEO,<br />

WELEDA, ZODIAC …<br />

Tableaux de bord<br />

info@deca.eu<br />

FELIX Informatique • 3, rue de la Moselotte • B.P. 41040 • 54521 LAXOU Cedex • Tél. 03 83 96 23 23<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 9


Mesures et Methodes de Mesure<br />

spectre d'un phénomène physique –<br />

NDLR], le diagnostic par imagerie et les<br />

techniques optiques pour les sciences<br />

du vivant ». Autre domaine de recherche<br />

abordé, mais qui peine à se frayer un<br />

chemin en France : la photonique. « Ce<br />

domaine est encore trop peu reconnu<br />

dans l'Hexagone alors même qu'il a<br />

été considéré – à juste titre – par le 7e<br />

PCRD comme une ''science du futur''.<br />

D'ailleurs, contrairement à la France,<br />

l'Allemagne la considère comme une<br />

priorité nationale ! ». Il existe une diversité<br />

infinie d'applications de la photonique<br />

et « la photonique doit occuper en<br />

France la place qu'elle mérite ». Des développements<br />

sont également en cours<br />

dans la microscopie et la nanoscopie,<br />

domaines qui s'orientent de plus en plus<br />

vers la nano-photonique et l'observation<br />

d'éléments « extrêmement minuscules.<br />

Ces recherches s'appliquent pour l'essentiel<br />

au médical et aux sciences du<br />

vivant mais elles peuvent également<br />

s'adresser au contrôle de qualité et de<br />

process de production, aux évolutions<br />

de sources d'éclairage ou à la métrologie<br />

optique ».<br />

Ouvrir des applications nouvelles<br />

pour répondre aux besoins de l'industrie<br />

Regroupant cette année une quinzaine<br />

d'exposants et près de 200 visiteurs, le<br />

colloque CMOI/SFO sera une nouvelle<br />

fois couplé avec le congrès français du<br />

club Fluvisu/SFO*, présidé par Jean-Michel<br />

Desse, ingénieur-chercheur à<br />

l'Onera depuis 1978. Précédent organisateur<br />

du colloque CMOI-Fluvisu qui<br />

s'est déroulé à Lille à la fin novembre<br />

2011 (voir encadré), Jean-Michel Desse<br />

est spécialisé dans le domaine de l'aérodynamique<br />

appliquée et l'analyse des<br />

écoulements par voie optique pour la<br />

mesure de champ d’indice de réfraction<br />

développée autour de techniques telles<br />

que l'holographie image et numérique à<br />

plusieurs longueurs d'ondes.<br />

Les méthodes de diagnostic optique en<br />

mécanique des fluides touchent de très<br />

nombreux domaines, à partir du moment<br />

où l'on est en capacité de visualiser un<br />

écoulement, par des moyens optiques<br />

ou corrélés à des outils de simulation<br />

numérique. Outre l'aérodynamique et<br />

l'énergétique, cette branche de la recherche<br />

concerne des secteurs innovants<br />

comme les sciences de l'environnement<br />

et de la terre, à l'exemple des<br />

diagnostics effectués en météorologie.<br />

Elle s'adresse également à l'aéronautique<br />

ou à des activités plus spécifiques<br />

telles que la découpe laser plasma et<br />

l’étude et le contrôle de la qualité des<br />

pièces optiques ou encore en microscopie,<br />

l’identification des bactéries dans<br />

le secteur pharmaceutique ou l’analyse<br />

des virus dans le domaine des sciences<br />

du vivant. « Nous intervenons régulièrement<br />

dans le cadre de projets ANR<br />

ou de programmes européens comme<br />

actuellement où nous travaillons sur le<br />

développement d'outils métrologiques<br />

en 3D ; l'objectif est de pouvoir être en<br />

mesure de visualiser les écoulements<br />

tridimensionnels à partir d’informations<br />

enregistrées simultanément et suivant<br />

plusieurs directions de visée derrière<br />

une structure d'avion ou de missile par<br />

exemple ».<br />

Jean-Michel Desse énumère bien<br />

d'autres domaines d'applications industrielles,<br />

dans le cadre notamment de la<br />

détection de défaut sur les chaînes de<br />

production, à commencer par le contrôle<br />

de pièce, les écoulements diphasiques,<br />

le recours à la fibre optique, la corrélation<br />

d'images, la mesure de vitesse etc.<br />

« De nombreux industriels résolvent<br />

leurs problèmes de manière intuitive<br />

alors que des méthodes optiques leur<br />

feraient gagner beaucoup de temps et<br />

amélioreraient considérablement la qualité<br />

de leur produit. À titre d'exemple, les<br />

tests sur les préservatifs sont effectués<br />

en gonflant les produits à l'hélium puis<br />

en les passant devant un interféromètre<br />

que l'on installe directement sur<br />

la chaîne de fabrication ». Il en est de<br />

même pour qualifier l’écoulement d’air<br />

produit par les sèche-cheveux : « pour<br />

visualiser le jet d'air afin que l'appareil ait<br />

une meilleure efficacité »<br />

Olivier Guillon<br />

* Le club Fluvisu a pour mission la promotion<br />

de méthodes de diagnostic optique en mécanique<br />

des fluides, soit à travers la création de<br />

nouvelles méthodes, soit par l'optimisation ou<br />

l'amélioration des méthodes existantes. Le<br />

club a également pour objectif de favoriser<br />

les échanges scientifiques et techniques ; le<br />

congrès Fluvisu étant le point d'orgue de ces<br />

échanges et des rencontres associées.<br />

Retour sur la précédente édition lilloise<br />

En 2011 à Lille, le colloque a rassemblé plus de 200 participants sur les trois jours de conférence (du 22 au 24 novembre)<br />

ainsi qu’une trentaine de stands, quatre tables top et une quinzaine de posters. C’est au total quatre-vingt conférences<br />

qui ont été dispensées avec deux conférences invitées : celle du professeur Nikita Fomin (Luikov Heat and Mass Transfer<br />

Institute de Minsk, Biélorussie) et celle du professeur Fulvio Scarano (Aerospace Engineering Department, Delft University<br />

of Technology, Delft – NL). Le colloque a également donné lieu à six conférences introductives et une quinzaine d’affiches<br />

(posters). Le vendredi matin, les participants ont visité le centre de l’Onera-Lille avec des installations uniques comme la<br />

soufflerie de vrille, la station de catapulte (vol libre), la tour de crash et quelques souffleries subsonique et transsonique. Le<br />

colloque a reçu l’aide de plusieurs subventions provenant notamment de la région Nord-Pas-de-Calais, de la Communauté<br />

urbaine de Lille, du ministère de la Recherche, de l’Onera et de l’École des Mines de Douai.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 10


Mesures et Methodes de Mesure<br />

Outil<br />

Vérification expérimentale de modèles opto-thermo-élastiques<br />

simulés avec le logiciel OOFELIE Multiphysics<br />

Le but de ce travail est de comparer les prédictions du logiciel OOFELIE Multiphysics, développé par la<br />

société Open Engineering et coordinateur du projet, avec les résultats obtenus sur un banc de test afin<br />

d’en déduire des possibles améliorations à apporter au logiciel. Pour ce faire, deux systèmes optiques<br />

sont définis et modélisés dans OOFELIE.<br />

Le premier se compose d’une lentille<br />

sphérique en BK7 maintenue dans<br />

une monture en aluminium et chauffée<br />

à l’aide de résistances chauffantes.<br />

Les effets des contraintes thermo-mécaniques<br />

induites par la variation de<br />

température sur les performances optiques<br />

de la lentille sont mesurés par<br />

interférométrie. Le deuxième système<br />

optique est un barreau de cristal YAG<br />

chauffé à l’aide d’un four adapté. Pour<br />

ce cas test, des mesures interférométriques<br />

et polarimétriques sont réalisées.<br />

Les premières servent à mesurer<br />

la modification de géométrie du barreau<br />

au niveau des dioptres d’entrée<br />

et de sortie due à l’effet de lentille. Les<br />

secondes ont pour but de déterminer le<br />

changement de polarisation lié à la biréfringence<br />

induite par les contraintes<br />

mécaniques au sein du barreau. Les<br />

bancs de test respectifs et leurs résultats<br />

sont décrits ci-dessous et comparés<br />

aux résultats des simulations<br />

d’OOFELIE.<br />

Ce travail a été réalisé dans le cadre<br />

du projet Multiphysics et financé par la<br />

Région Wallonne (Belgique). Ce projet<br />

profite d’une importante collaboration<br />

entre des concepteurs de logiciels<br />

informatiques, des centres de recherche,<br />

des universités et des industriels<br />

tous situés en Wallonie. Son but<br />

est de développer un logiciel complet<br />

et innovant capable de modéliser des<br />

systèmes complexes faisant intervenir<br />

des interactions multiphysiques couplées.<br />

OOFELIE Multiphysics<br />

OOFELIE Multiphysics est un outil<br />

de modélisation numérique capable<br />

d'adresser des problèmes multiphysiques<br />

couplés, incluant les domaines<br />

optique, mécanique, thermique, fluidique,<br />

électrique, électromagnétique,<br />

acoustique,…[1] (se référer à l'encadré<br />

en bas de l'article). La solution<br />

OOFELIE est couplée avec le logiciel<br />

de simulation optique ZEMAX via<br />

une communication complètement<br />

automatisée. L’analyse approfondie<br />

des performances optiques de systèmes<br />

opto-thermo-mécaniques sous<br />

contraintes est dès lors possible, améliorant<br />

ainsi le design des systèmes<br />

optiques.<br />

Cas de test de la lentille sphérique<br />

La lentille sphérique est en BK7 et biconvexe.<br />

Elle présente une focale de<br />

200 mm et un diamètre de 50 mm. La<br />

monture est en aluminium anodisé noir<br />

et maintient la lentille en place grâce à<br />

un anneau vissé dans la monture. La<br />

lentille et sa monture sont issues du<br />

commerce.<br />

La lentille (dans sa monture) est tenue<br />

devant l’interféromètre à l’aide d’une<br />

pince associée à une monture 5 axes<br />

pour permettre l’alignement de la lentille.<br />

La lentille est chauffée à l’aide de<br />

deux résistances chauffantes (ou heaters)<br />

collées sur la monture. Des thermocouples<br />

sont placés sur la monture<br />

afin de surveiller l’évolution de la température<br />

pendant les mesures. Une<br />

première série de mesures est réalisée<br />

pour évaluer la distribution de température<br />

sur la lentille en fonction de la<br />

température imposée sur la monture.<br />

Pour cela, des thermocouples sont<br />

collés sur chaque face de la lentille (au<br />

centre et au bord pour la face avant,<br />

au centre pour la face arrière). Ces<br />

derniers sont ensuite retirés pour permettre<br />

les mesures interférométriques.<br />

Les mesures de la dégradation des<br />

performances optiques de la lentille<br />

s’effectuent ensuite à l’aide de l’interféromètre.<br />

Un calibre sphérique d’ouverture<br />

F/3.3 est placé en sortie de l’interféromètre<br />

pour obtenir l’illumination<br />

de l’entièreté de la lentille. La lentille<br />

est installée dans le faisceau de l’interféromètre<br />

à une distance du point<br />

focal égale à sa longueur focale, ce qui<br />

rend le faisceau collimaté après avoir<br />

traversé la lentille. Un miroir plan de<br />

bonne qualité (λ/20) est placé derrière<br />

la lentille pour réfléchir ce faisceau collimaté,<br />

à travers la lentille, vers l’interféromètre.<br />

Figure 1 : WFE mesurées aux températures<br />

de 20.5°C et 57.2°C au centre de la lentille<br />

et soustraction de ces deux cartes.<br />

Les mesures interférométriques sont<br />

effectuées à température ambiante<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 11


Mesures et Methodes de Mesure<br />

ainsi qu’à différentes températures en<br />

chauffant la monture jusqu’à une température<br />

maximale de 80°C, au moyen<br />

des heaters. La dégradation des performances<br />

optiques de la lentille est<br />

obtenue par comparaison de la WFE<br />

du faisceau aux différentes températures<br />

avec la WFE à la température<br />

ambiante.<br />

Deux exemples de cartes de WFE à<br />

température ambiante et à une température<br />

de 57.2°C au centre de la lentille,<br />

ainsi que la soustraction de ces<br />

deux cartes sont présentés ci-dessous<br />

(Cf. Figure 1). La principale aberration<br />

apparaissant avec l’augmentation de<br />

température est du focus. Il est quantifié<br />

grâce au coefficient de Zernike correspondant<br />

à cette aberration.<br />

La lentille, sa monture ainsi que l’apport<br />

de chaleur par les heaters ont été<br />

modélisés dans le logiciel OOFELIE<br />

couplé à ZEMAX pour l’analyse des<br />

variations des propriétés optiques de<br />

la lentille avec la température. Des<br />

flux convectifs entre la lentille et l’air<br />

ambiant sont considérés et le champ<br />

de températures obtenu présente une<br />

bonne correspondance avec les températures<br />

mesurées sur la monture et<br />

la lentille lors des tests.<br />

Deux simulations ont été réalisées, la<br />

première ne permet pas de mouvement<br />

de la lentille dans sa monture et<br />

la deuxième permet à la lentille de glisser<br />

à l’intérieur de la monture. Intuitivement,<br />

cette dernière solution semble<br />

la plus réaliste car une dilatation de la<br />

monture suite à l’échauffement peut<br />

conduire à une perte de contact partiel<br />

entre la lentille et la monture. La<br />

comparaison du focus obtenu pour les<br />

deux simulations avec celui mesuré<br />

lors des tests confirme cette idée (Cf.<br />

Figure 3).<br />

Figure 4 : Barreau YAG avec son four et<br />

son contrôleur de température.<br />

Il est important de noter que la déformation<br />

de la lentille seule ne suffit pas<br />

pour obtenir les dégradations optiques<br />

observées. La variation de l’indice de<br />

réfraction dans le volume de la lentille<br />

doit aussi être considéré. Le gradient<br />

d’indice de réfraction calculé par OO-<br />

FELIE à partir du champ de température<br />

simulé (cf. Figure 2) est exporté<br />

dans ZEMAX en plus des déformations<br />

géométriques.<br />

Cas de test du barreau YAG<br />

Le barreau YAG présente une section<br />

carrée de 12 mm de côté et une longueur<br />

de 50 mm. Les deux plus petites<br />

faces sont polies et constituent<br />

les faces d’entrée et de sortie du barreau.<br />

Un four adapté à ce cristal est<br />

utilisé pour simuler l’échauffement dû<br />

au pompage laser (Cf. Figure 4). Un<br />

système de contrôle de la température<br />

est associé au four et permet de monter<br />

jusqu’à une température de 200°C<br />

avec une précision de 0.5°C et une<br />

stabilité de 0.1°C.<br />

Le test interférométrique du barreau<br />

YAG est semblable à celui réalisé sur<br />

la lentille mis à part que le calibre utilisé<br />

avec l’interféromètre est plan et non<br />

sphérique afin de produire une onde<br />

plane (Cf. Figure 5). Une mesure de<br />

référence est effectuée à température<br />

ambiante puis d’autres mesures sont<br />

faites pour différentes températures<br />

du four (jusqu’à une température maximale<br />

de 100°C).<br />

La principale aberration observée lors<br />

des mesures interférométriques et provenant<br />

de l’échauffement du barreau<br />

est à nouveau du focus. L’évolution<br />

avec la température du coefficient de<br />

Zernike correspondant est présentée<br />

ci-dessous (Cf. Figure 6). La courbe<br />

bleue de cette même figure représente<br />

le coefficient de Zernike du focus obtenu<br />

avec les simulations du barreau<br />

YAG dans OOFELIE. Ce résultat ne<br />

Figure 2 : Modèle de la lentille et de la monture<br />

dans OOFELIE et gradient d’indice de réfraction<br />

dans la lentille pour une température de 78.7°C.<br />

Figure 3 : Comparaison entre le coefficient<br />

de Zernike du focus mesuré et simulé.<br />

Figure 5 : Banc de test interférométrique du barreau YAG.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 12


Mesures et Methodes de Mesure<br />

correspond pas du tout à ce qui a<br />

été mesuré car le modèle numérique<br />

doit encore être amélioré, notamment<br />

par la modélisation du four et des<br />

échanges thermiques entre le four et<br />

le barreau.<br />

Le banc de test polarimétrique utilisé<br />

pour les mesures de biréfringence est<br />

présenté ci-dessous (Cf. Figure 7). Il<br />

se compose d’un laser hélium-néon,<br />

d’une lame quart d’onde, de deux polariseurs<br />

et d’un détecteur. Le barreau<br />

YAG dans son four est placé entre les<br />

deux polariseurs. La méthode utilisée<br />

consiste à faire tourner le premier polariseur<br />

tout en maintenant l’analyseur<br />

fixe. Un photodétecteur mesure l’intensité<br />

lumineuse traversant les deux polariseurs<br />

et le barreau YAG.<br />

Bibliographie<br />

1. I. KLAPKA & A. CARDONA, « An object oriented implementation of the finite element<br />

method for coupled problem », Revue Européenne des Eléments finis, vol. 7, n° 5, pp.<br />

469-504, 1998.<br />

2. V. PARTENOV, V. SHASHKIN & E. STEPANOV, « Numerical Investigation of Thermally<br />

Induced Birefringence in Optical Elements of Solid-State Lasers », Appl. Opt., vol. 32, n°<br />

27, pp. 5243-5255, 1993.<br />

3. NYE, J.F., [Physical Properties of Crystals – Their Representation by Tensors and<br />

Matrices], Clarendon Press, Oxford (2009).<br />

4. JAMIESON, T.H., « Thermal effects in optical systems », Opt. Eng. 20 (April 1981).<br />

5. YODER,P.R., Jr., [Mounting Optics in Optical Instruments], SPIE Press, 2002.<br />

6. JAMIESON, T.H., « Athermalization of optical instruments from the optomechanical<br />

viewpoint », SPIE Proc., CR43 (1992).<br />

7. FOSTER J.D. and OSTERINK L.M., « Thermal Effects in a Nd :YAG Laser », J. Appl.<br />

Phys. 41(9), 3656-3663 (1970).<br />

8. KOECHNER W. and RICE D.K., « Effect of Birefringence on the Performance of Linearly<br />

Polarized YAG:Nd Lasers », IEEE J. Quantum Electron. QE-6(9), 557-566 (1970).<br />

9. KOECHNER W., « Thermal Lensing in a Nd:YAG Laser Rod », Appl. Opt. 9(11), 2548-<br />

2553 (1970).<br />

Grâce à la méthode décrite ci-dessus,<br />

l’évolution de la biréfringence en fonction<br />

de l’angle du polariseur peut être<br />

mesurée. On en déduit le déphasage<br />

entre les polarisations TE et TM pour<br />

différentes températures du four (Cf.<br />

Figure 8). D’après ce graphique, on<br />

voit qu’une faible biréfringence apparaît<br />

avec l’augmentation de la température.<br />

Ci-dessous est également présentée<br />

l’évolution de l’intensité de la lumière<br />

passant à travers le barreau lorsque<br />

les deux polariseurs sont croisés à<br />

90° lors d’une phase de transition<br />

entre deux températures du four (Cf.<br />

Figure 8). L’augmentation de l’intensité<br />

signifie une modification de la polarisation<br />

de la lumière induite ici par<br />

la biréfringence apparaissant dans le<br />

barreau YAG.<br />

Evolution du déphasage entre les polarisations<br />

TE et TM en fonction de la<br />

température et évolution de l’intensité<br />

de lumière transmise au travers du<br />

barreau YAG et des deux polariseurs<br />

croisés lors d’une phase d’échauffement<br />

du four.<br />

Conclusion<br />

Pour comparer les résultats de simulations<br />

dans OOFELIE à des résultats<br />

expérimentaux, deux cas test ont été<br />

réalisés. Le premier se compose d’une<br />

lentille chauffée dans sa monture et<br />

mesurée par interférométrie afin de<br />

déterminer la dégradation du front<br />

d’onde suite à l’échauffement. Le deuxième<br />

comprend des mesures interférométriques<br />

et polarimétriques sur un<br />

barreau de cristal YAG chauffé dans un<br />

four adapté.<br />

Dans le cas de la lentille, l’aberration à<br />

analyser est le focus et les simulations<br />

dans OOFELIE donnent des résultats<br />

proches de ce qui a été mesuré. Pour<br />

parvenir à ces résultats, il est nécessaire<br />

que le modèle prenne en compte<br />

la possibilité pour la lentille de bouger<br />

dans sa monture ainsi que l’apparition<br />

Figure 6 : Comparaison de l’aberration du focus<br />

mesurée et simulée pour le barreau YAG.<br />

d’un gradient d’indice de réfraction<br />

dans la lentille.<br />

Pour le barreau YAG, l’aberration principale<br />

due à l’échauffement est éga-<br />

Figure 7 : Banc de test polarimétrique du barreau YAG.<br />

Figure 9 : Comparaison des différences de<br />

chemin optique simulées et calculées pour<br />

un barreau YAG cylindrique.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 13


Mesures et Methodes de Mesure<br />

Figure 8 : Evolution du déphasage entre<br />

les polarisations TE et TM en fonction de<br />

la température et évolution de l’intensité de<br />

lumière transmise au travers du barreau<br />

YAG et des deux polariseurs croisés lors<br />

d’une phase d’échauffement du four.<br />

lement du focus mais les simulations<br />

dans OOFELIE n’ont pas donné de<br />

résultats concluants. Un modèle plus<br />

précis des conditions d’échauffement<br />

et de l’environnement du barreau est<br />

nécessaire. En ce qui concerne les<br />

mesures polarimétriques, elles ont<br />

permis de mettre en évidence l’apparition<br />

de biréfringence à l’intérieur du<br />

barreau suite à son échauffement mais<br />

aucune mesure quantitative n’a pu être<br />

effectuée jusqu’à présent. Une comparaison<br />

avec les simulations d’OOFE-<br />

LIE n’est donc pas encore possible<br />

mais fait bien sûr partie de la suite de<br />

ce projet.<br />

A. Mazzoli (1), P. Saint-Georges (2),<br />

A. Orban (1), J-S . Ruess (3), J. Loicq<br />

(1), C. Barbier (1), Y. Stockman (1), M.<br />

Georges (1), P. Nachtergaele (2), S.<br />

Paquay (2), P. De Vincenzo (2)<br />

(1) Centre Spatial de Liège, Avenue du<br />

Pré-Aily, 4031 Angleur, Belgique<br />

(2) Open Engineering, Rue des Chasseurs-Ardennais<br />

8, 4031 Angleur, Belgique<br />

(3) GDTech, Rue des Chasseurs-Ardennais<br />

8, 4031 Angleur, Belgique<br />

Communiqué<br />

IDIL Fibres Optiques, le spécialiste des applications<br />

scientifiques et industrielles de la fibre<br />

Depuis maintenant plusieurs années,<br />

la société IDIL s’est spécialisée dans<br />

l’étude, la mise au point et la fabrication<br />

de systèmes optoélectroniques fibrés<br />

pour la science et l’industrie. Ces<br />

systèmes comportent bien évidemment<br />

de la fibre, mais surtout des composants<br />

passifs et actifs, comme des<br />

photodiodes, lasers, amplificateurs,<br />

ainsi que de l’électronique et des logiciels<br />

de pilotage.<br />

Afin de fournir le meilleur service possible,<br />

la société a décidé de maîtriser<br />

un maximum de technologies et d’effectuer<br />

toutes les étapes du processus<br />

d’élaboration. IDIL s’occupe de l’étude<br />

et de la fabrication de tous les sous-ensembles<br />

(optique, mécanique, électronique,<br />

logiciel) en interne. Il est ainsi<br />

possible d’apporter un maximum de réactivité,<br />

et surtout de laisser libre cours<br />

à l’imagination fertile de l’équipe qui<br />

comporte 20 ingénieurs et techniciens.<br />

Les systèmes réalisés depuis 16<br />

ans sont nombreux, et on peut citer<br />

quelques exemples comme l’intégration<br />

de la source fibrée du laser MégaJoule<br />

développée conjointement<br />

avec le CEA/CESTA. Cette source laser<br />

comprend de nombreux éléments,<br />

comme un laser à fibre, des amplificateurs<br />

à fibre dopée ytterbium, des éléments<br />

de diagnostics spectraux et de<br />

puissances rapides, ainsi qu’un logiciel<br />

de pilotage.<br />

Des appareils de mesure adaptés aux<br />

phénomènes ultrarapides ont également<br />

été développés. Citons des systèmes<br />

de chronométrie, de spectroscopie<br />

d’impulsion laser à haute résolution<br />

ou de vélocimétrie Doppler pour des<br />

applications chocs ou plasmas.<br />

Par ailleurs, IDIL est également spécialisé<br />

dans la conception et la réalisation<br />

de capteurs à fibres pour des applications<br />

de mesures de contraintes,<br />

températures, déformations, réactions<br />

chimiques. IDIL propose des solutions<br />

clé en main basées sur la technologie<br />

réseaux de Bragg et effet Brillouin<br />

dans les domaines de l’aéronautique,<br />

le génie civil, l’automobile, l’industrie.<br />

Récemment dans le cadre d’une application<br />

génie civil, IDIL a réalisé une<br />

centaine de capteurs sur des fibres<br />

optiques directement insérées dans la<br />

structure composite d’une passerelle<br />

piéton.<br />

Enfin, IDIL possède une activité montage<br />

de connecteurs optiques permettant<br />

d’offrir à ses clients des prestations<br />

de montage de connecteurs sur<br />

composants, réalisation de cordons<br />

optiques et câbles standards ou à façon.<br />

Contact :<br />

IDIL Fibres Optiques<br />

21, rue Louis de Broglie<br />

22300 LANNION<br />

T : 02 96 05 40 20<br />

www.idil.fr<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 14


Mesures et Methodes de Mesure<br />

Simulation<br />

Couplage mesure de champs / simulation numérique<br />

pour l'identification de loi comportement<br />

en mécanique des solides<br />

Le développement récent des techniques de mesure de champs offre la possibilité d'accéder à un nombre<br />

de données extrêmement important. Partant de ce constat, un certain nombre de techniques d'identification<br />

de paramètres de loi de comportement en mécanique des solides ont été développées afin de tirer partie de<br />

cette richesse. On peut citer la référence [1] pour une revue de ces techniques. Plus récemment, certains<br />

auteurs [2,3] (se référer à l'encadré en bas de l'article) ont proposé d'utiliser des descriptions basées sur<br />

les Éléments Finis pour la mesure de champs de déplacement par corrélation d'images numériques. Outre<br />

une amélioration des performances métrologiques de la mesure, on peut envisager grâce à cette avancée<br />

de coupler directement la mesure de champs par corrélation d'images numériques avec la simulation numérique<br />

par Éléments Finis.<br />

Dans la référence [4], les auteurs proposent<br />

une régularisation mécanique<br />

du problème de corrélation d'image<br />

dans le cadre de la mécanique de la<br />

rupture. Dans [5], cette régularisation<br />

est utilisée à des fins d'identification<br />

de paramètres de loi de comportement<br />

(élasticité et endommagement). Nous<br />

nous proposons ici d'en détailler les<br />

points clés de cette approche et de<br />

donner un exemple montrant ses potentialités<br />

pour l'identification de paramètres<br />

de loi de comportement non-linéaire.<br />

Identification à partir de corrélation<br />

d'images régularisée<br />

La corrélation d'images est une méthode<br />

d'identification de champs de<br />

déplacement basée sur la conservation<br />

des niveaux de gris. On suppose<br />

que les modifications subit par l'image<br />

entre deux instants sont dues uniquement<br />

à l'advection passive de la texture<br />

de l'image :<br />

f (⃗x)=g(⃗x+⃗u(⃗x))<br />

Ici, f est l'image de référence g l'image<br />

déformée et u le champ de déplacement<br />

à mesurer. Habituellement, on<br />

procède par maximisation d'un coefficient<br />

de corrélation entre une vignette<br />

l'image de référence et cette même<br />

vignette dont la position a été corrigée<br />

par le déplacement recherché dans<br />

l'image déformée. Ceci implique que le<br />

déplacement est obtenu indépendamment<br />

pour chaque point de mesure (les<br />

centres des vignettes). Dans la suite,<br />

on supposera comme dans [2,3] que le<br />

champ de déplacement est décrit par<br />

des fonctions de forme Éléments Finis<br />

s'appuyant sur un maillage de la région<br />

à étudier. On procède alors à une résolution<br />

par moindres carrés non-linéaire<br />

en essayant de minimiser l'écart quadratique<br />

global entre l'image de référence<br />

et l'image déformée corrigée par<br />

le champ de déplacement.<br />

Le champ de déplacement recherché<br />

s'appuyant sur un maillage Éléments<br />

Finis, il est assez immédiat d'augmenter<br />

le problème de corrélation par des<br />

considérations mécaniques. En l'absence<br />

de forces de volume (type gravité),<br />

le vecteur force interne calculé au<br />

sens des Éléments Finis doit voir s'annuler<br />

ses composantes pour les degrés<br />

de liberté s'appuyant sur les nœuds<br />

sans conditions aux limites. La régularisation<br />

mécanique proposée dans [4]<br />

est obtenue en ajoutant aux termes de<br />

moindres carrés non-linéaires de la corrélation,<br />

une pénalisation par la norme<br />

quadratique des composantes du vecteur<br />

force interne qui sont sensées<br />

s'annuler. On obtient ainsi un champ de<br />

déplacement vérifiant les équations de<br />

la corrélation d'images mais ayant été<br />

passé au filtre des équations d'équilibre<br />

de la mécanique. Formulé autrement,<br />

cela permet d'effectuer une simulation<br />

Figure 1 : Comparaison des champs de<br />

déplacement en pixel dans la direction de<br />

traction obtenus par corrélation d'images<br />

uniquement et par la méthode proposée.<br />

numérique pilotée par des images sans<br />

avoir besoin de conditions aux limites.<br />

Le filtre mécanique ainsi introduit fait<br />

intervenir une loi de comportement et<br />

ses paramètres. On peut alors essayer<br />

de minimiser l'écart quadratique entre<br />

l'image de référence et l'image déformée<br />

corrigée par le champ de déplacement<br />

non seulement par rapport aux<br />

inconnues en déplacement mais aussi<br />

par rapport aux paramètres de la loi<br />

de comportement intervenant dans la<br />

régularisation mécanique [5]. On peut<br />

montrer que la méthode d'identification<br />

ainsi élaborée est optimale d'un point<br />

de vue de la sensibilité au bruit de mesure.<br />

De plus, dans les cas considérés<br />

on montre que les résultats obtenus<br />

sont quasiment indépendants du maillage.<br />

Pour des lois de comportement<br />

non-linéaire plus complexes (plasticité<br />

par exemple), on peut envisager de<br />

faire intervenir les forces extérieures<br />

appliquées à l'échantillon. De plus, il<br />

s'avère nécessaire de traiter une série<br />

d'images prises au cours de la sollicitation.<br />

Ainsi la quantité à minimiser<br />

s'écrit :<br />

1 T<br />

∫<br />

m 0<br />

∬[f (⃗x ,t )−g(⃗x+P(⃗u (⃗x,t ),t))] 2 dSdt+ 1 1<br />

∫ T<br />

o<br />

k o<br />

p<br />

0 dU T<br />

(F e<br />

(t )−F i (U (t )))dt<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 15


Mesures et Methodes de Mesure<br />

Dans cette équation on fait apparaître<br />

un projecteur P de déplacement dans<br />

le plan du capteur. En effet, si on s'intéresse<br />

à la plasticité, des effets tridimensionnels<br />

important peuvent se<br />

produire. Il est alors souhaitable de les<br />

prendre en compte par l'intermédiaire<br />

d'une analyse mécanique 3D. Ainsi la<br />

partie mécanique est 3D alors que la<br />

partie corrélation d'image ne concerne<br />

que la projection dans le plan du capteur<br />

du déplacement sur la surface<br />

du maillage utilisé. Fe est le vecteur<br />

forces externes au sens des Elément<br />

Finis, Fi le vecteur forces internes et<br />

U désigne le vecteur contenant les valeurs<br />

des degrés de liberté Eléments<br />

Finis du champ de déplacement. p est<br />

un coefficient de pénalité permettant<br />

de pondérer le poids respectif de la<br />

mécanique et de la corrélation dans la<br />

résolution dont les contributions sont<br />

adimensionnées par les constantes<br />

mo et ko. Dans cette équation, les paramètres<br />

de la loi de comportement<br />

interviennent dans le vecteur forces<br />

internes et influent donc sur la détermination<br />

du déplacement. Ainsi on<br />

cherchera à donner un poids fort (p de<br />

l'ordre de 0.00001) à la mécanique de<br />

manière à donner plus de sensibilité<br />

aux paramètres de la loi de comportement.<br />

Cette quantité fait l'objet d'une<br />

minimisation à la fois par rapport au<br />

champ de déplacement mais aussi par<br />

rapport aux paramètres de la loi de<br />

comportement.<br />

Exemple<br />

On illustrera les potentialités de la méthode<br />

d'identification proposée sur un<br />

exemple : l'identification d'une loi de<br />

comportement élasto-plastique pour<br />

un alliage de titane Ta6V. Les essais<br />

quasi-statiques (5 mm/min) sont menés<br />

sur éprouvette entaillée. La largeur<br />

des éprouvettes est de 6.5 mm, l'angle<br />

de l'entaille de 60°, son rayon 0.4 mm<br />

et l'épaisseur 1.2 mm. Un polissage<br />

soigneux est effectué afin de minimiser<br />

l'influence de l'état de surface. On<br />

se donnera les propriétés élastique du<br />

matériau : module de Young 115 GPa<br />

et coefficient de Poison 0.3. On cherchera<br />

à identifier les paramètres de la<br />

loi de type Swift gouvernant l'évolution<br />

de la surface de charge en fonction de<br />

la déformation plastique Ep :<br />

̄S y (E p )=HE p<br />

+B(C+E p ) d<br />

Cette loi fait initialement intervenir 4<br />

paramètres : H, B, C et d. Cependant<br />

on impose la continuité des modules<br />

tangents entre le régime élastique et le<br />

régime plastique. Ainsi on se ramène<br />

à la détermination de 3 paramètres :<br />

la limite élastique initial Sy, le module<br />

d'écrouissage linéaire H et l'exposant<br />

de la loi puissance d. Notons que la<br />

limite élastique initiale est donnée par<br />

les paramètres B, C et d.<br />

Figure 2 : Déformation plastique<br />

et contraintes de Von-Mises.<br />

La Figure 1 permet de comparer<br />

les champs de déplacement pour<br />

la dernière image considérée obtenus<br />

par corrélation uniquement<br />

et par la technique proposée (MIC)<br />

après convergence à la fois sur le<br />

déplacement et les paramètres de<br />

la loi de comportement. Un très<br />

bon accord est obtenu entre ces<br />

champs de déplacement. Grâce à<br />

la méthode proposée, on obtient<br />

un champ de déplacement dont le<br />

champ de contrainte associé vérifie<br />

les équations d'équilibre (au<br />

sens de la pénalité introduite plus<br />

haut). La Figure 2 montre le champ<br />

de déformation plastique cumulée<br />

et le champ de contrainte équivalente<br />

de Von-Mises. On observe<br />

une forte localisation de la déformation<br />

au niveau de l'entaille. Les<br />

contraintes sont également maximales<br />

en fond d'entaille.<br />

Figure 3 : Convergence<br />

des paramètres identifiés.<br />

La Figure 3 permet d'apprécier la<br />

convergence de la méthode en<br />

terme de paramètres de loi de comportement.<br />

Une vingtaine d'itérations<br />

suffit à obtenir un jeu de paramètre<br />

convergé. Dans le cas présent on<br />

obtient : 915 MPa pour Sy, 886 MPa<br />

pour H et 0.021 pour d. La méthode<br />

proposée permet en plus de s'assurer<br />

de la pertinence de la loi de<br />

comportement identifiée. En effet,<br />

a posteriori, on peut recalculer l'erreur<br />

de corrélation moyenne comme<br />

la valeur absolue de l'écart entre<br />

l'image de référence et l'image déformée<br />

corrigée par le champ de<br />

déplacement. La Figure 4 présente<br />

l'évolution de cette erreur pour trois<br />

calculs différents. Le premier est<br />

un calcul de corrélation standard, il<br />

représente le minimum que puisse<br />

atteindre l'erreur de corrélation. On<br />

obtient une valeur moyenne autour<br />

de 2% de la dynamique de l'image.<br />

On trace aussi cette évolution pour<br />

un calcul avec identification des paramètre<br />

d'écrouissage pour une loi<br />

de type Swift comme présentée plus<br />

haut et l'erreur pour un écrouissage<br />

linéaire simple (en omettant le terme<br />

en loi puissance). On constate que<br />

les niveaux d'erreurs pour ces deux<br />

calculs sont supérieurs à ceux obtenus<br />

par corrélation uniquement.<br />

Ceci est naturel dans la mesure où le<br />

champ issu de la corrélation ne satisfait<br />

pas les équations d'équilibre alors<br />

que les deux autres champs les vérifient<br />

mieux mais que par conséquent<br />

ils satisfont moins bien l'équation du<br />

flot optique. Le Figure 4 montre également<br />

que la loi de type Swift permet<br />

d'atteindre des niveaux d'erreur<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 16


Mesures et Methodes de Mesure<br />

Bibliographie<br />

Figure 4 : Comparaison de l'évolution de l'erreur de corrélation<br />

moyenne pour une loi d'écrouissage linéaire ou de type Swift<br />

de corrélation plus faibles que la loi linéaire. C'est donc<br />

qu'elle est mieux adaptée pour décrire le comportement<br />

du matériau.<br />

Conclusion<br />

Dans cette contribution, on propose une technique de corrélation<br />

d'image régularisée par la mécanique qui permet<br />

à la fois la mesure d'un champ de déplacement mais également<br />

l'identification des paramètres de la loi de comportement<br />

du matériau. Pour cela, l'équation du flot optique<br />

habituellement résolue pour la corrélation d'images est pénalisée<br />

par une partie mécanique qui assure l'équilibre de la<br />

structure considérée au sens des Eléments Finis. Les deux<br />

problèmes sont ainsi résolus simultanément par minimisation<br />

de la fonctionnelle régularisée obtenue. Cette minimisation<br />

est effectuée par rapport au vecteur déplacement<br />

mais aussi par rapport aux paramètres de la loi constitutive<br />

considérée pour modéliser le comportement du matériau.<br />

On montre qu'il est également possible d'utiliser un modèle<br />

3D pour la partie mécanique, la corrélation d'images ne<br />

concernant que la projection du déplacement en surface<br />

dans le plan du capteur de la caméra. Les potentialités<br />

de la méthode proposée sont illustrées par un exemple. Il<br />

s'agit d'identifier les paramètres de la loi d'écrouissage d'un<br />

alliage de titane. On montre comment la méthode converge<br />

en terme de paramètres de loi de comportement et quels<br />

sont les résultats obtenus. On montre également que cette<br />

méthode permet une aide au choix du type de loi de comportement<br />

dans la mesure où la meilleure loi sera celle qui<br />

permettra d'obtenir les niveaux d'erreur de corrélation les<br />

plus bas.<br />

1. S., AVRIL, M. BONNET, AS. BRETELLE, M.GREDIAC,<br />

F. HILD, P. IENNY, F. LATROUTE, D. LEMOSSE, S. PAGA-<br />

NO, E. PAGNACCO & AUTRES « Overview of identification<br />

methods of mechanical parameters based on full-field measurements<br />

», Experimental Mechanics, vol. 48, n° 4, pp.<br />

381, 2008<br />

2. Y. SUN, JHL. PANG, CK. WONG & F. SU., « Finite-element<br />

formulation for digital image correlation method », Applied<br />

Optics, vol. 44, n° 34, pp. 7357, 2005<br />

3. G. BESNARD, F. HILD & S. ROUX., « Finite-element displacement<br />

fields analysis from digital images : Application<br />

to Portevin-Le Châtelier bands », Experimental Mechanics,<br />

vol. 46, n° 6, pp. 789, 2006<br />

4. J. RETHORE, F. HILD & S. ROUX., « An extended and<br />

integrated digital image correlation technique applied to the<br />

analysis of fractured samples », European Journal of Computational<br />

Mechanics, vol. 18, pp. 285, 2009<br />

5. J. RETHORE, « A fully integrated noise robust strategy for<br />

the identification of constitutive laws from digital images »,<br />

International Journal for Numerical Methods in Engineering,<br />

vol. 84, pp 631, 2010<br />

Julien Réthoré(1), Gérald Portemont(2)<br />

(1) LaMCoS, Université de Lyon / INSA Lyon / CNRS<br />

20 Avenue Albert Einstein 69 621 Villeurbanne<br />

(2) ONERA/DADS/CRD Département<br />

d'Aéroélasticité et Dynamique des Structures<br />

5, bd Painlevé, FR-59045, Lille Cedex, France<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 17


Mesures et Methodes de Mesure<br />

Méthode<br />

Variabilité de l’environnement thermique<br />

choix d’une échelle de température adéquate<br />

L’extension de la méthode résistance-contrainte, de l’environnement mécanique au climatique, implique<br />

de considérer des contraintes de natures différentes. Dans le cas d’un environnement thermique<br />

la température est une variable caractéristique essentielle. On montre que son utilisation dans le cadre<br />

de la méthode résistance-contrainte justifie de la définir préférentiellement dans l’échelle thermodynamique.<br />

1. INTRODUCTION ET OBJECTIFS<br />

L’objectif des activités engagées par la Commission<br />

MECA-CLIM de l’ASTE, créée fin<br />

2012, consiste à réviser les normes AFNOR<br />

relatives à « l’application de la démarche<br />

de personnalisation en environnement »<br />

[GRZ-13]. Ceci implique un transfert et une<br />

adaptation de tout ou partie du contenu des<br />

Annexes de la GAM-EG13 dont la version la<br />

plus récente est le fruit des travaux soutenus<br />

au cours des dernières années. Ceux-ci ont<br />

permis d’introduire dans les versions précédentes,<br />

de nombreuses améliorations et<br />

extensions dont le détail et les justifications<br />

seront regroupés dans un « Fascicule de<br />

Documentation » accompagnant la norme<br />

AFNOR. Or, à l’époque, les sujets concernés<br />

ont fait l’objet de notes ou rapports<br />

internes, non publiés faute de temps. Afin<br />

de combler cette lacune, ils le seront dans<br />

cette rubrique, sous forme d’articles courts.<br />

La présente note concerne la variabilité des<br />

contraintes d’environnement thermique, incluse<br />

dans la Partie 5 (coefficient de garantie)<br />

de la future norme AFNOR [NFX-13].<br />

1. PROBLEMATIQUE<br />

Un environnement climatique est caractérisé<br />

par des températures dont les valeurs,<br />

exprimées habituellement en degrés Celsius,<br />

peuvent être positives, négatives ou<br />

nulles. Ainsi qu’on va le voir, d’une part la<br />

définition du coefficient de garantie, d’autre<br />

part, la formulation basée sur des coefficients<br />

de variation, limitent l’utilisation de<br />

Abstract<br />

Extension of the stress-strength method from the mechanical to the climatic<br />

environment implies to consider stresses of different nature. In case of<br />

a thermal environment, the temperature is an essential characteristic variable.<br />

We show that its use in the stress-strength framework justifies that it<br />

must be defined preferentially in the thermodynamic scale.<br />

Key-Words: «stress-strength» method, probabilistic interaction, safety factor,<br />

,thermal environment, temperature, Celsius degree, Kelvin degree;<br />

cette échelle de température centésimale.<br />

Ces limitations ne peuvent être surmontées<br />

que si l’on adopte systématiquement<br />

l’échelle de température thermodynamique,<br />

exprimée en degrés Kelvin.<br />

2. UTILISATION DES DEGRES CELSIUS<br />

2.1.Limitations imposées par le coefficient<br />

de garantie<br />

Par définition, le coefficient de garantie est<br />

un scalaire positif de valeur finie, égal au<br />

rapport entre valeurs moyennes de la résistance<br />

(µ r<br />

) et de la contrainte d’environnement<br />

(µ e<br />

) :<br />

Il est évident que ceci impose que les valeurs<br />

moyennes soient de même signe et<br />

différentes de zéro. A titre d’exemples, le<br />

coefficient de garantie ne pourrait être défini<br />

dans l’un ou l’autre des cas suivants qui correspondent<br />

à des températures exprimées<br />

en degrés Celsius :<br />

Mots-clé<br />

méthode « résistance -<br />

contrainte », interaction probabiliste,<br />

coefficient de garantie,<br />

environnement thermique,<br />

température, degré Celsius,<br />

degré Kelvin ;<br />

2.2. Limites d’utilisation de l’échelle Celsius<br />

Les considérations précédentes montrent<br />

que la formulation de la méthode « résistance<br />

-contrainte » ne serait pas incompatible<br />

avec l’utilisation de températures exprimées<br />

en degrés Celsius, sous réserve de<br />

respecter les conditions suivantes :<br />

• Les températures moyennes caractérisant<br />

la contrainte d’environnement et la résistance<br />

devraient être strictement positives,<br />

afin que le coefficient de garantie le soit<br />

aussi,<br />

• Un seuil minimal devrait être introduit, afin<br />

qu’au voisinage de 0°C, cette valeur nulle<br />

soit atteinte avec une probabilité négligeable,<br />

• Si l’on admet la validité de l’interaction<br />

entre deux distributions normales dés lors<br />

que leur coefficient de variation est inférieur<br />

à (1/3), ceci signifie que le seuil minimal<br />

devrait être supérieur à 3 écart-types, soit<br />

: Min(µ e<br />

)>3σ e<br />

Ces contraintes sont quelque peu restrictives,<br />

ce qui ne milite pas en faveur de<br />

l’utilisation d’une échelle de température<br />

exprimée en degrés Celsius. Afin de couvrir<br />

la généralité des cas possibles, nous allons<br />

justifier ci-après le choix d’une échelle de<br />

température thermodynamique exprimée en<br />

degrés Kelvin.<br />

3. UTILISATION DES DEGRES KELVIN<br />

3.1. Ecart-type & Coefficient de Variation<br />

Dans le cadre de la méthode « résistance -<br />

contrainte », les variabilités caractérisant les<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 18


Mesures et Methodes de Mesure<br />

distributions statistiques de la résistance et<br />

de la contrainte d’environnement pourraient<br />

être définies sous deux formes cohérentes :<br />

• Soit par un écart-type : cette mesure ayant<br />

alors la même dimension que celle de la valeur<br />

moyenne correspondante,<br />

• Soit par un coefficient de variation : cette<br />

mesure égale au rapport entre l’écart - type<br />

et la moyenne est donc adimensionnelle ;<br />

Le choix préférentiel d’une formulation basée<br />

sur le coefficient de variation a été<br />

motivé par une pratique bien établie dans<br />

le domaine des sciences de l’ingénieur, le<br />

caractère adimensionnel autorisant par ailleurs<br />

une plus grande généralité.<br />

3.2. Non invariance du Coefficient de Variation<br />

La variabilité d’une température est caractérisée<br />

intrinsèquement par une variance,<br />

donc par un écart-type, ce qui n’est pas le<br />

cas du coefficient de variation. En effet, celui-ci<br />

dépend de aussi de la valeur moyenne,<br />

laquelle est fonction de l’échelle de température<br />

utilisée.<br />

On sait que seule l’échelle thermodynamique<br />

des températures est compatible<br />

avec diverses opérations algébriques telles<br />

que l’addition, la multiplication et le quotient.<br />

Partant de l’échelle de température thermodynamique<br />

exprimée en degrés Kelvin (T)<br />

on peut définir les autres échelles existantes<br />

en degrés, par une transformation linéaire<br />

telle que :<br />

Par exemple, l’échelle Fahrenheit est définie<br />

par une translation (b=−459.67) et un facteur<br />

d’échelle (a=9/5).<br />

L’échelle Celsius est la plus couramment<br />

utilisée, car parmi les grandeurs du SI, elle<br />

est admise comme unité dérivée de l’échelle<br />

normalisée Kelvin. Elle est définie par une<br />

translation (b=−273.15) et par un facteur<br />

d’échelle unitaire (a=-1), ce dernier entraînant<br />

l’identité des incréments de température<br />

(1°C α1K).<br />

Concrètement, alors que l’échelle thermodynamique<br />

est une mesure absolue, ces diverses<br />

transformations ne débouchent que<br />

sur des mesures relatives auxquelles on ne<br />

peut appliquer les opérations précédentes.<br />

Ainsi, le rapport de deux températures exprimées<br />

en degrés Celsius n’aurait aucun sens<br />

physique, pas plus que leur valeur moyenne<br />

ou leur multiplication par un scalaire (dans<br />

ce cas l’effet ne serait pas nécessairement<br />

proportionnel à l’amplitude).<br />

Cette perte d’invariance se répercute logiquement<br />

sur la valeur du coefficient de variation<br />

exprimé dans l’échelle Celsius, lequel<br />

prend une valeur différente et beaucoup plus<br />

faible, lorsqu’il l’est dans l’échelle Kelvin :<br />

Si par exemple : θ = 35°C &CV θ<br />

= 20%, sachant<br />

que T 0<br />

= 273.15, on obtient : CV T<br />

≈<br />

2.3%<br />

4. CONCLUSIONS<br />

En toute généralité, compte tenu de l’étendue<br />

des plages de température considérées<br />

en matière d’environnement climatique, l’utilisation<br />

de l’échelle thermodynamique est<br />

seule acceptable. En effet, une température<br />

exprimée en degrés Kelvin est une grandeur<br />

« mesurable », par opposition à une<br />

température exprimée en degrés Celsius<br />

qui n’est qu’une grandeur « repérable ».<br />

Afin de préserver la cohérence de la méthode<br />

« résistance – contrainte », il est donc<br />

souhaitable (sauf exceptions mentionnées<br />

dans le texte), d’utiliser systématiquement<br />

l’échelle de température thermodynamique<br />

pour déterminer un coefficient de garantie.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 19


Mesures et Methodes de Mesure<br />

Pratiquement, ceci implique de transformer<br />

préalablement les températures exprimées<br />

en degrés Celsius en degrés Kelvin, puis de<br />

calculer les coefficients de variation correspondant<br />

à cette unité.<br />

Lambert PIERRAT<br />

LJ-Consulting & LJK-LAB, Grenoble, Expert ASTE<br />

e_zainescu@yahoo.com - 04 76 42 14 36<br />

Henri GRZESKOWIAK<br />

HG-Consultant, Gambais, Expert ASTE<br />

henri@grzeskowiak.fr - 09 75 46 11 11<br />

Références<br />

[ANT-00] C. Antoine, « Moyenne selon une loi de composition », Math. & Sciences<br />

Hum., N° 15, 5-35, 2000<br />

[GRZ-13] H. Grzeskowiak, «Vie de l’Aste - Communiqué : Commission Méca-Clim de<br />

l’Aste », Revue <strong>Essais</strong> & <strong>Simulations</strong>, N° 113, p. 60-61, Avril 2013<br />

[LIN-69] N. C. Lind, « Deterministic Formats for the Probabilistic Design of Structures »,<br />

Study N°1, 129-142, Solid Mechanics Division, University of Waterloo, Ontario, Canada,<br />

1969<br />

[NFX-13] Norme Française NFX 50-144-3 « Application de la démarche de personnalisation<br />

en environnement : Partie 5 Coefficient de garantie », AFNOR, à paraître en<br />

2013<br />

[OWE-62] D. B. Owen, « Handbook of statistical tables », Addison-Wesley Publishing<br />

Co., Inc., Reading, Mass., 1962<br />

[PIE- 06] L. Pierrat, « Approximation analytique du coefficient de garantie dans le cas<br />

d’interaction de deux lois normales », Internal Report, LJ-Consulting, 2006 (transféré<br />

dans la dernière version de la GAM-EG 13)<br />

Références de l'article précédent<br />

(cf. <strong>Essais</strong> & <strong>Simulations</strong> n°114)<br />

Dans le précédent numéro de votre magazine paru en juin dernier, les références de l'article intitulé « Utilisation de la méthode<br />

résistance-contrainte dans le cas d’interaction de deux lois normales une approximation simple du facteur de sécurité »<br />

n'avaient pas été mentionnées. Les voici :<br />

[ANT-00] C. Antoine, « Moyenne selon une loi de composition », Math. & Sciences Hum., N° 15, 5-35, 2000<br />

[GRZ-13] H. Grzeskowiak, «Vie de l’Aste - Communiqué : Commission Méca-Clim de l’Aste », Revue <strong>Essais</strong> & <strong>Simulations</strong>, N° 113, p.<br />

60-61, Avril 2013<br />

[LIN-69] N. C. Lind, « Deterministic Formats for the Probabilistic Design of Structures », Study N°1, 129-142, Solid Mechanics Division,<br />

Univ. of Waterloo, Ontario, Canada, 1969<br />

[NFX-13] Norme Française NFX 50-144-3 « Application de la démarche de personnalisation en environnement : Partie 5 Coefficient de<br />

garantie », AFNOR, à paraître 2013-2014<br />

[OWE-62] D. B. Owen, « Handbook of statistical tables », Addison-Wesley Publishing Co., Inc., Reading, Mass., 1962<br />

[PIE- 06] L. Pierrat, « Approximation analytique du coefficient de garantie dans le cas d’interaction de deux lois normales », Internal<br />

Report, LJ-Consulting, 2006<br />

Communiqué<br />

AKEOPLUS, la mesure et contrôle qualité robotisé<br />

Créée en 2006 à Château Gaillard dans l’Ain, cette société Leader dans la création d'algorithme innovant<br />

pour la fabrication de machines et systèmes industriels, et plus particulièrement leurs procédés de fabrication<br />

robotisé. Ce savoir-faire permet aujourd’hui à AKEOPLUS d’optimiser les cellules de contrôle de ses<br />

clients dans de nombreux domaines, avec un seul objectif : donner aux industriels français les moyens<br />

d’être toujours plus performants.<br />

AKEOPLUS est spécialisé dans le développement<br />

de solution d’optimisation<br />

de procédés industriels en intégrant des<br />

systèmes perfectionné sur des bras<br />

robots polyarticulés (Fanuc, Staubli,<br />

Kuka, Denso) contrôlés et guidés par des<br />

capteurs optiques. La solution finale est livrée<br />

avec une interface utilisateur simple<br />

et conviviale permettant le contrôle des<br />

paramètres strictement nécessaires pour<br />

l’opérateur.<br />

Akéoplus innove encore en proposant des<br />

solutions dans la mesure embarquée et<br />

le contrôle de qualité directement dans<br />

les lignes de productions industrielles.<br />

Cette nouvelle offre s’appuie sur son expertise<br />

dans le traitement d’image et sur<br />

de l’instrumentation de caractérisation dédiée,<br />

de la plus simple à la plus perfectionnée,<br />

par des méthodes optiques, spectrométriques,<br />

de diffraction, …<br />

Cette nouvelle offre peut nécessiter des<br />

ressources de calculs très importantes,<br />

c’est donc naturellement qu’Akéoplus investit<br />

également dans le calcul haute<br />

performance et proposera bientôt une<br />

offre de moteur de rendu d’image de haute<br />

qualité et de reconstruction d’images<br />

2D/3D.<br />

Cet ensemble de savoir-faire permet<br />

de proposer des logiciels de pilotage<br />

robotique pour la mesure automatique<br />

embarquée et le contrôle de qualité directement<br />

dans les lignes de productions<br />

industrielles, mais nous pouvons aussi<br />

avec nos partenaires accompagner nos<br />

clients dans la conception et la fabrication<br />

d’une machine de contrôle robotisé<br />

complète. Les principaux domaines<br />

concernés sont l’aéronautique, automobile,<br />

agroalimentaire, plasturgie,<br />

métallurgie, médical, pharmaceutique,<br />

militaire.<br />

>> www.akeoplus-vision.com 0625100218<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 20


Mesures et Methodes de Mesure<br />

Communiqué<br />

CORRELISTC, un logiciel dédié<br />

à la métrologie des déformations mécaniques<br />

Le logiciel de stéréocorrélation CORRELISTC est le fruit d'un partenariat entre le LMT Laboratoire de Mécanique<br />

et Technologie de l'Ecole Normale Supérieure de Cachan, EADS- IW et HOLO3. Il a été développé<br />

dans le cadre du projet VULCOMP soutenu par l'ANR et dédié à la vulnérabilité des composites.<br />

Dernier né des développements d'HO-<br />

LO3 ce logiciel de corrélation d'image<br />

permet, à partir d'une simple paire de<br />

caméras numériques de cartographier<br />

de manière très fine le champ de déplacement<br />

à la surface d'une pièce<br />

mécanique (ou de n'importe quel objet)<br />

soumise à une sollicitation externe<br />

(effort mécanique, échauffement,..). Il<br />

donne aussi la possibilité de plusieurs<br />

post traitements tels que la création de<br />

jauges virtuelles, de profils. Les enregistrements<br />

peuvent être réalisés en quasi-statique<br />

(caméras standards) ou en<br />

dynamique (vidéo rapide).<br />

Outre le développement d'une interface<br />

orientée vers un usage industriel, un effort<br />

important a été consacré à l'aspect<br />

Déformations longitudinales<br />

d'une éprouvette en aluminium<br />

Crédit Photo :EADS-IW<br />

«CORRELISTC un outil innovant pour une<br />

exploitation optimisée des essais mécaniques<br />

»<br />

métrologique. L'information de base<br />

fournie par un système de stéréocorrélation<br />

est une cartographie de déplacement<br />

dont l'unité est le pixel caméra. Le<br />

passage à des données millimétriques<br />

est réalisé grâce à une phase de calibrage<br />

rigoureuse mais néanmoins relativement<br />

simple à mettre en oeuvre. Les<br />

déplacements en tout point de la surface<br />

peuvent ainsi aisément être mesurés<br />

avec par exemple une résolution d'une<br />

dizaine de micromètres pour un champ<br />

analysé de 800x800 mm.<br />

L'autre grandeur intéressant le concepteur<br />

d'une pièce mécanique est la<br />

déformation mécanique sous sollicitation.<br />

Dans le cas de la stéréocorrélation<br />

d'images elle s'obtient par des<br />

dérivations d'ordre un du champ de<br />

déplacement. On accède ainsi à des<br />

cartographies complètes de toutes les<br />

composantes du tenseur des déformations.<br />

Bien sûr, la notion de jauge de<br />

HOLO3 est le Centre de Transfert de Technologies<br />

(CRITT) qui valorise les innovations<br />

issues du monde de la Recherche dans le<br />

domaine de l'optique, telles que : Numérisation<br />

3D / Interférométrie de speckle / Imagerie<br />

multi-spectrale / Réalité Virtuelle / Tracking vidéo / LIBS / Imagerie infrarouge/<br />

Corrélation d’image. Le centre conçoit des équipements industriels<br />

basés sur l'optique, conduit des opérations de recherche appliquée et réalise<br />

quotidiennement des prestations métrologiques à la demande.<br />

déformation, chère au mécanicien a<br />

été reportée dans le logiciel CORRE-<br />

LISTC ; il s'agit ici de jauge « virtuelle »<br />

que l'on peut placer a posteriori (après<br />

l'essai) en tout point de la surface et<br />

dans l'orientation que l'on veut. Au-delà<br />

de l'allongement dans la direction de<br />

la jauge, la jauge « virtuelle » fournit<br />

également d'autres informations : déplacement<br />

X,Y,Z, allongement dans la<br />

direction perpendiculaire, composantes<br />

du tenseur des déformations, directions<br />

principales,...L'aspect métrologique des<br />

déformations a aussi été largement<br />

étudié : de nombreuses comparaisons<br />

entre les informations de jauges « virtuelles<br />

» et de jauges réelles collées sur<br />

la surface ont montré des écarts ne dépassant<br />

pas 0,02 %, y compris pour de<br />

grandes déformations.... pour lesquelles<br />

les jauges réelles se décollent parfois.<br />

Enfin, le gros intérêt de cette technologie<br />

est la possibilité de comparer de<br />

façon globale des données expérimentales<br />

à des données de simulation type<br />

éléments finis et permettre ainsi un recalage<br />

fin de modèles de simulation.<br />

Contact<br />

Email : jp.chambard@holo3<br />

Nom de la Société : HOLO3<br />

Adresse : 7 rue du général Cassagnou<br />

68300 SAINT-LOUIS<br />

Tél. : 03 89 69 82 08<br />

Fax : 03 89 67 74 06<br />

Site internet : www.holo3.com<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 21


<strong>Essais</strong> et Modelisation<br />

Interview<br />

Des produits testés de plus en plus volumineux<br />

Rencontré à Hanovre à l'occasion de la Foire technologique qui<br />

s'est déroulée au printemps dernier, Alan Begg, premier vice-président<br />

Développement Technologie de SKF, nous détaille sa vision<br />

de l'avenir au sein du groupe suédois, tant en matière d'outils de<br />

maintenance conditionnelle qu'au niveau des problématiques en<br />

termes d'essais. Celles-ci résident notamment dans les dimensions<br />

de produits à tester, de plus en plus importantes.<br />

<strong>Essais</strong> & <strong>Simulations</strong><br />

Monsieur Begg, en quoi consiste<br />

votre rôle au sein du groupe SKF ?<br />

Alan Begg<br />

Pour simplifier, je dirige la technologie<br />

de SKF et toutes les phases de<br />

recherche et développement. J'ai<br />

la responsabilité des dépenses en<br />

R&D (qui représentent environ la<br />

moitié du budget qui m'est attribué)<br />

et celles des laboratoires de recherche<br />

avancée : en Hollande, en<br />

Suède, en Inde et en Chine.<br />

Sur quoi portent les innovations<br />

majeures aujourd'hui ?<br />

L’un de nos axes stratégiques d'innovation<br />

est la suite logique de nos<br />

développements depuis vingt-cinq<br />

ans autour de notre solution Condition<br />

Monitoring. Cela concerne les<br />

systèmes de monitoring et de surveillance<br />

de température, des seuils<br />

de vibration, des paramètres électriques,<br />

etc. Nous nous orientons<br />

également vers des solutions de<br />

mobilité. L'objectif étant globalement<br />

d'anticiper les défaillances pouvant<br />

survenir sur les installations. Nous<br />

travaillons ainsi à la fois sur les systèmes<br />

complexes et sur les solutions<br />

sans fil de façon à pouvoir surveiller<br />

l'état de ces systèmes en permanence<br />

pour envoyer l'information<br />

au plus vite. Nous travaillons aussi<br />

sur la possibilité de constater une<br />

dégradation du roulement le plus en<br />

amont possible, et plus seulement à<br />

trois mois de la casse par exemple.<br />

Les industriels seront-ils réceptifs<br />

à ces solutions de maintenance<br />

conditionnelle ?<br />

Aujourd'hui, on intervient lorsque le<br />

roulement subit déjà une dégradation.<br />

Désormais, l'idée est d'intervenir<br />

bien avant en allant jusqu'à la<br />

microstructure ; un peu comme un<br />

genre de « check-up » de l'installation.<br />

Tout l'intérêt de ces développements<br />

pour les industriels dépend du<br />

délai dans lequel on a la possibilité<br />

d'intervenir : il ne faut que quelques<br />

minutes pour remplacer le roulement<br />

d'une petite turbine ; ce n'est pas le<br />

cas sur un pétrolier ou sur un site<br />

off-shore. Le délai d'information doit<br />

nécessairement être plus long car<br />

le temps d'attente pour réparer ou<br />

remplacer une pièce peut prendre<br />

plusieurs jours voire plusieurs semaines.<br />

En détectant la défaillance plus tôt,<br />

on peut éviter que le roulement se<br />

dégrade, notamment en cas d'absence<br />

d'huile, pouvant provoquer un<br />

frottement métal à métal, ou encore<br />

lorsque l'on détecte une surcharge<br />

sur le pas de l'hélice d'une éolienne,<br />

lors d'une tempête par exemple ; le<br />

système peut avertir de la présence<br />

d'un danger potentiel.<br />

Quels sont vos grands défis technologiques<br />

?<br />

La taille ! On assiste aujourd'hui à<br />

une augmentation des diamètres,<br />

en particulier sur les éoliennes offshore,<br />

nécessitant des roulements<br />

qui atteignent quatre mètres. Le défi<br />

réside surtout dans la fabrication<br />

(moins la conception) et notamment<br />

dans leur traitement thermique et les<br />

problèmes de dispersion du carbure,<br />

les passages obligés en rectification<br />

pour enlever de la matière du fait<br />

des déformations.<br />

Et en termes d'essais ?<br />

Avant, c'était plus simple car les<br />

roulements étaient plus petits ! Or<br />

le coût des tests grimpe lorsque la<br />

taille du roulement augmente. Nous<br />

devons aussi nous doter de moyens<br />

d'essais et de bancs de tests de plus<br />

en plus grands. Les investissements<br />

augmentent également au niveau de<br />

la simulation et de la modélisation.<br />

Le nombre d'informations étant plus<br />

important, les outils de traitement<br />

et d'acquisition de données doivent<br />

s'adapter à leur tour. Toutefois, nous<br />

disposons de grands bancs de test,<br />

ce qui nous permet de procéder à<br />

des essais de validation et de calibration.<br />

Enfin, nous nous orientons vers deux<br />

directions. La première consiste à aller<br />

de plus en plus dans la microstructure<br />

de nos produits, la seconde<br />

est que l'on va de plus en plus loin<br />

dans l'environnement à travers les<br />

outils de calcul.<br />

Propos recueillis par Olivier Guillon<br />

Alan Begg,<br />

le patron de la Technologie<br />

chez SKF<br />

Premier vice-président Développement<br />

Technologie et Qualité,<br />

le Dr. Alan Begg est membre de<br />

la direction du Groupe SKF. Âgé<br />

de 58 ans, Alan Begg possède un<br />

doctorat en métallurgie de l'Université<br />

de Cambridge. Il est également<br />

professeur honoraire à l'Université<br />

de Birmingham et membre du<br />

Conseil stratégique des technologies<br />

auprès du gouvernement<br />

britannique. Alan Begg a occupé<br />

des postes techniques supérieurs<br />

au sein de grandes multinationales<br />

au Royaume-Uni et aux États-Unis.<br />

Après avoir passé une grande partie<br />

de sa carrière chez BP, il est<br />

devenu directeur du centre technique<br />

de T&N, vice-président de la<br />

technologie chez Federal-Mogul,<br />

avant de diriger la technologie du<br />

groupe Morgan Crucible. Il rejoint<br />

SKF de l'Académie automobile à<br />

Birmingham (Royaume-Uni), avant<br />

de prendre la direction de la technologie<br />

du groupe.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 22


omega.fr<br />

a une nouvelle et<br />

meilleure tarification<br />

<br />

<br />

<br />

Prix améliorés<br />

100 000 produits<br />

Livraison le jour suivant<br />

Visitez-nous<br />

aujourd’hui sur<br />

omega.fr<br />

Chaque maillon de la chaîne de mesure<br />

Température Pression & Force Automatisation Débit<br />

Prix<br />

améliorés<br />

Acquisition de données pH Éléments chauffants<br />

0805 541 038<br />

commercial@omega.fr<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 23<br />

© COPYRIGHT 2013 OMEGA ENGINEERING,LTD. ALL RIGHTS RESERVED


<strong>Essais</strong> et Modelisation<br />

<strong>Essais</strong> aggravés<br />

Outillages HALT-HASS : un savoir-faire dans leur<br />

conception, étape stratégique des essais aggravés<br />

Fondée en 1972, la société MB Électronique s'est orientée depuis plusieurs années vers deux grandes activités<br />

: la première est la commercialisation de systèmes et d’équipements électroniques de test et de mesure, la<br />

seconde est la fourniture de services exclusifs comme l'assistance, la formation et la maintenance associés aux<br />

systèmes et aux équipements. Partenaire de QUALMARK depuis 2005, MB Electronique a également développé<br />

ses compétences dans le domaine des essais aggravés HALT (Highly Accelerated Life Test) & HASS (Higly<br />

Accelerated Stress Screen). La société offre ainsi aux industriels son savoir-faire sur l’ensemble des tests HALT/<br />

HASS et notamment sur la conception des outillages adaptés d’une part à la spécificité des produits à tester et<br />

d’autre part aux stress subits par ces DUT pendant les séquences d’essais.<br />

Depuis plus de quarante ans, la société<br />

MB Électronique établit des partenariats<br />

sur le long terme avec des<br />

fournisseurs tels que AIM, Ametek,<br />

Espec, Fluke, Qualmark, Yokogawa<br />

et plus récemment Agilent. Mais MB<br />

Électronique s'est également spécialisée<br />

dans les essais aggravés en<br />

se dotant d'un véritable laboratoire<br />

équipé notamment de deux systèmes<br />

Qualmark. L'entreprise propose des<br />

prestations dans le domaine des essais<br />

aggravés (HALT&HASS) ; cette<br />

méthode de test permet dans un<br />

temps très court d’améliorer la fiabilité<br />

des systèmes électroniques, électrotechniques<br />

ou mécatroniques en complément<br />

de méthodes conventionnelles<br />

de fiabilité prévisionnelle telles<br />

que le REX (retour d’expérience), les<br />

méthodes théoriques (FIDES, etc.)<br />

ou encore les filières de qualification<br />

(ISO16750, EN50155, DO160, etc.).<br />

Introduite il y a une dizaine d’années<br />

par les donneurs d’ordres de l’industrie<br />

aéronautique, la méthode de test<br />

HALT/HASS est encore relativement<br />

récente en France. Mais, si au départ<br />

les essais aggravés étaient utilisés<br />

principalement dans les secteurs industriels<br />

fortement impliquées dans le<br />

process de fiabilité comme l’aéronautique<br />

et l’automobile, aujourd’hui tous<br />

les secteurs d’activité sont concernés.<br />

Réalisation d'un outillage : repères<br />

et conseils pratiques<br />

La réalisation d’un outillage est une<br />

phase déterminante dans le processus<br />

de déverminage lors de la production.<br />

Elle revêt une importance à plusieurs<br />

niveaux. Tout d'abord, l'ergonomie<br />

de l’outillage ; celle-ci est primordiale<br />

dans la mesure où elle facilite l’accessibilité<br />

et la dépose des produits à<br />

tester dans la chambre. Vient ensuite<br />

la phase de qualification de l’outillage.<br />

Différents cycles « Profil HASS » sont<br />

alors appliqués pour valider l’outillage<br />

de test et vérifier la répétabilité. Cette<br />

opération se décline généralement en<br />

deux étapes. La première permet de<br />

valider l’outillage (au préalable étudié/<br />

conçu avec un logiciel de CAO mécanique)<br />

avec un ou plusieurs produits à<br />

tester pour vérifier que les échanges<br />

vibratoires et thermiques sont correctement<br />

transmis. La deuxième phase<br />

dite POS (proof of screen) permet de<br />

vérifier l’intégrité du profil que l’on<br />

utilisera en production. Celui-ci doit<br />

être soigneusement « calibré » d’où<br />

la nécessité d’effectuer un nombre<br />

de cycles significatifs (30 à 50 runs).<br />

En termes de bonnes pratiques, il est<br />

important que les fixations soient suffisamment<br />

solides pour résister aux<br />

vibrations. Le but des essais est de<br />

tester le produit, et non ses fixations.<br />

Il faut conserver l’intégrité du produit<br />

et limiter la masse des fixations.<br />

La masse des outils est, en effet, un<br />

paramètre qui risque de diminuer la<br />

transmission des vibrations en les atténuant<br />

trop. Il ne faut en aucun cas<br />

contrarier la transmission du stress.<br />

Par ailleurs, il est important de « simplifier<br />

» au maximum les fixations car<br />

(en général) simplifier les outils de<br />

fixation conduit à en diminuer le poids.<br />

De plus, des fixations complexes<br />

peuvent se fragiliser. Il faut également<br />

veiller à conserver l’intégrité des produits<br />

en évitant tout frottement mécanique<br />

(entre l’outillage et le produit à<br />

tester) qui risquerait alors d’endommager<br />

l’unité sous test (UUT).<br />

Exemple d'outillage<br />

Concept 4 quadrants : gain de<br />

temps et optimisation des flux de<br />

production<br />

En matière d'outillage, le concept 4<br />

quadrants permet une optimisation du<br />

flux de production. Concrètement, la<br />

table QualMArk est équipée de quatre<br />

zones de surfaces équivalentes ayant<br />

une réponse vibratoire identique. Rappelons<br />

qu’un temps de cycle HASS<br />

est de l’ordre de trois heures incluant<br />

le test thermique et vibratoire. L’intérêt<br />

est donc ici de pouvoir tester quatre<br />

produits identiques ou différents en un<br />

seul cycle de déverminage.<br />

Expert depuis une dizaine d'années<br />

dans ce domaine, MB Electronique<br />

est capable de réaliser l’étude et la<br />

conception de ce type d’outillages de<br />

test en s’assurant de la parfaite transmission<br />

de l‘énergie de la table vers<br />

l’UUT (unité sous test), ainsi que de<br />

la qualité des échanges thermiques<br />

entre l’enceinte et le produit. Le respect<br />

des exigences de production, de<br />

temps et de répétabilité des tests sont<br />

ses maîtres-mots. MB Électronique<br />

accompagne, aujourd’hui, des clients<br />

de plus en plus nombreux à être<br />

convaincus de la pertinence d'une démarche<br />

HALT/HASS.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 24


Dossier Matériaux<br />

<strong>Essais</strong> et Modelisation<br />

Tendances<br />

Matériaux composites<br />

et simulation numérique – Enjeux et perspectives<br />

Le marché mondial des composites connait une croissance annuelle de +10% (source Toray Industries,<br />

Inc.). Aéronautique et spatial, automobile, nautisme, biomédical, sports et loisirs... aucun secteur<br />

n’y échappe, comme le montre ce compte-rendu de séminaire organisé par le Nafems.<br />

« Les premières structures aéronautiques<br />

‘composites’ datent des années<br />

30, avec le De Haviland DH91 Albatross,<br />

qui à l’époque utilisait des panneaux de<br />

bois multi-couches aux propriétés anisotropiques.<br />

Depuis, l’utilisation des matériaux<br />

composites s’est généralisée :<br />

elle est passée de 10% dans les années<br />

80 à 30% sur l’A380, pour atteindre plus<br />

de 50% aujourd’hui sur l’A350 XWB »,<br />

rappelle Michel Mahé, chef de département,<br />

Head of A350 Stress chez Airbus<br />

et président de Séance.<br />

Même constat dans le secteur naval<br />

pour les voiliers multicoques dont les<br />

performances n’ont cessé de s’accroitre<br />

au cours des dix dernières années,<br />

comme le souligne Laurent Gornet,<br />

maître de conférences HDR, enseignant-chercheur<br />

à l’Ecole Centrale de<br />

Nantes : « Les performances des voiliers<br />

se sont constamment accrues avec<br />

un ratio poids/longueur des coques de<br />

plus en plus faible, grâce notamment, à<br />

l’utilisation de matériaux composites ».<br />

L’exemple du trophée Jules Verne parle<br />

de lui-même: le temps de traversée est<br />

passé d’un peu plus de soixante-dixneuf<br />

jours en 1993 à un peu plus quarante-huit<br />

jours en 2010, soit plus de<br />

40% de réduction en dix-sept ans !<br />

Autre exemple, dans le secteur de l’Automobile<br />

et des Transports où l’allégement<br />

des véhicules reste une préoccupation<br />

constante chez les constructeurs.<br />

« Dans ce secteur, les procédés de fabrication<br />

et de mise en forme doivent<br />

être adaptés aux cadences et aux<br />

contraintes des chaines de fabrication<br />

et à la production de pièces en grande<br />

série », souligne Benjamin Surowiec,<br />

responsable simulation composite en innovation<br />

chez Plastic Omnium.<br />

Mais, la nature même de ces matériaux<br />

hétérogènes, la variété des procédés de<br />

fabrication et de mise en œuvre, la multiplicité<br />

des applications possibles sont<br />

autant de challenges pour le fabricant<br />

de matière, pour l’ingénieur responsable<br />

des études et des validations, et pour les<br />

fournisseurs de solutions de simulation<br />

numérique. La simulation numérique<br />

joue un rôle clef à toutes les étapes du<br />

processus, depuis la conception jusqu’à<br />

la certification. Elle entre en jeu dans la<br />

caractérisation des matériaux, la modélisation<br />

et la validation des structures et la<br />

simulation des procédés de fabrication,<br />

trois aspects essentiels que nous illustrons<br />

ci-dessous.<br />

Bien caractériser les matériaux<br />

pour mieux les simuler<br />

Rappelons tout d’abord qu’ « un matériau<br />

composite est constitué de l’assemblage<br />

d'au moins deux matériaux<br />

non miscibles et de nature différente,<br />

se complétant et permettant d’aboutir à<br />

un matériau dont l’ensemble des performances<br />

est supérieur à celui des composants<br />

pris séparément » (Berthelot<br />

1996). Bien connaitre les propriétés et<br />

les caractéristiques des matériaux composites<br />

est un préalable indispensable<br />

pour pouvoir faire les bons choix de<br />

concepts et pour simuler avec confiance<br />

le comportement des structures.<br />

Jerôme Bikard, expert Modélisation numérique<br />

des procédés et lois de comportement<br />

chez Rhodia Engineering<br />

Plastics, présente une étude ayant pour<br />

but l’intégration du comportement élastique<br />

endommageable orthotrope des<br />

composites thermoplastiques TPC PA66<br />

dans l’approche ‘MMI Confident DesignTM’,<br />

approche mise en place chez<br />

Rhodia pour répondre aux besoins de<br />

ses clients de caractériser le comportement<br />

attendu de ces matériaux. En effet,<br />

« aujourd’hui nous ne vendons pas des<br />

matériaux, nous vendons des fonctions<br />

et il est important de pouvoir fournir à<br />

nos clients des données de comportement<br />

des matériaux qu’ils utiliseront<br />

dans leurs produits », précise-t-il.<br />

Laurent Guillaumie, ingénieur d’Etudes<br />

et Recherches à l’Onera, expose les<br />

travaux menés à l’Onera pour caractériser<br />

le comportement dynamique<br />

des plaques sandwichs à base de nida<br />

et de peaux en stratifié, au travers de<br />

trois grandeurs : nombre d’onde, densité<br />

modale et impédance mécanique<br />

des ondes de flexion. Il explique : « ces<br />

travaux s’inscrivent dans une démarche<br />

visant à développer et valider des outils<br />

de modélisation et de prédiction du<br />

comportement vibratoire des matériaux<br />

composites, de plus en plus complexes<br />

et légers, qui sont utilisés dans les structures<br />

de fuselage d’avion ».<br />

Simuler le comportement des<br />

structures<br />

Au cours de leur cycle de vie, les produits<br />

réalisés avec des matériaux composites<br />

peuvent être soumis à des mécanismes<br />

complexes de déformation, d’endommagement,<br />

de rupture.... Ces mécanismes<br />

sont doublement complexes à analyser<br />

car, d’une part les matériaux utilisés sont<br />

en perpétuelle évolution et, d’autre part,<br />

il est souvent nécessaire de mettre en<br />

place une approche multi-échelle pour<br />

mieux les appréhender.<br />

Laurent Gornet, maître de conférences<br />

HDR, Enseignant-Chercheur à l’Ecole<br />

Centrale de Nantes, nous propose une<br />

approche multi-échelle pour la modélisation<br />

de l’endommagement et de la<br />

rupture de panneaux sandwichs constitués<br />

de peaux stratifiées carbone/époxy<br />

et d'une âme Nomex® utilisés pour les<br />

voiliers multicoques.<br />

Jean-Paul Charles, ingénieur chez Eurocopter,<br />

Professeur associé à Aix-Marseille<br />

Université (LMA), expose les travaux<br />

réalisés par une équipe associant<br />

Christian Hochard (Aix-Marseille Université,<br />

LMA), Ana-Cristina Galucio (EADS<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 25


Dossier Matériaux<br />

<strong>Essais</strong> et Modelisation<br />

Philippe Pasquet - Nafems<br />

<strong>Essais</strong> & <strong>Simulations</strong> :<br />

Philippe Pasquet, pouvez-vous vous présenter ?<br />

Philippe Pasquet<br />

Je suis membre du Nafems et j'interviens en tant qu'expert dans le domaine de la simulation ; je suis plus particulièrement<br />

spécialisé dans les matériaux. J'ai effectué toute ma carrière depuis 1978 dans la simulation numérique, à la fois<br />

chez les éditeurs et dans des sociétés de services d'ingénierie qui réalisent des calculs et des expertises pour le compte<br />

des industriels. J'ai au cours de ma vie professionnelle beaucoup travaillé pour le CEA par exemple.<br />

Quelle place occupe la simulation dans les opérations d'essais effectuées sur les matériaux ?<br />

Elle occupe une place importante mais de là à dire comme elle a évolué, cela dépend beaucoup des applications. Dans<br />

le secteur du nucléaire par exemple, on utilise depuis toujours des matériaux très spécifiques et qui nécessitent de faire<br />

beaucoup d'essais et d'opérations de simulation. Ces essais sont essentiels pour concevoir des parois de plus en plus<br />

minces et imperméables aux radiations, mais aussi pour répondre aux risques de filtration et tester les comportement<br />

de ces matériaux. De même, les essais et la simulation sont tout aussi essentiels dans le secteur aéronautique. L'importance<br />

de la simulation n'a finalement pas fondamentalement changé, ni réellement augmenté dans ces domaines de<br />

l'industrie. Ce qui a en revanche beaucoup évolué, c'est la sophistication des matériaux et leurs voies de caractérisation.<br />

La simulation des comportements est un domaine complexe dans la mesure où elle exige beaucoup d'opérations<br />

de simulation car les matériaux sont très hétérogènes.<br />

Quelles sont les particularités des matériaux « en vogue », à l'image des matériaux composites ?<br />

Il existe une règle simple, même si elle reste complexe dans sa mise en oeuvre : plus on fabrique un matériau, tel que<br />

les matériaux composites, plus on est en mesure de maîtriser son procédé. C'est moins le cas pour les matériaux naturels<br />

tels que certains métaux et les bétons projetés par exemple, ou encore le bois, lequel est de plus en plus utilisé<br />

dans le génie civil. Il s'agit en effet d'un matériau « à la mode », dont le recours croissant dans l'architecture s'explique<br />

en raison des demandes de constructions plus écologiques. Les matériaux naturels sont par essence moins faciles à<br />

maîtriser. Or, on recherche aujourd’hui à aller le plus loin possible dans l'analyse de leurs comportements en remontant<br />

au niveau du grain voire de l'atome. Cela nécessite de plus en plus d'opérations de simulation à la fois en amont mais<br />

aussi en aval pour les essais de grandeur.<br />

Quels sont les grands défis que doit relever la simulation ?<br />

Dans le domaine du nucléaire par exemple, où les exigences fortes de caractérisation de matériaux de type aux caractéristiques<br />

fortes pour éviter tout risque d'agression à l'intérieur ou à l'extérieur des centrales, la simulation s'adapte<br />

plutôt bien. Il en est de même dans l'énergie pour les matériaux utilisés dans la fabrication de pipelines ou encore dans<br />

l'éolien et les hydroliennes ou encore dans l'aéronautique. Mais ce sont plutôt les utilisateurs qui s'adaptent mal, non<br />

pas en raison de leur formation ni de leurs compétences, mais à cause du manque de temps. Ils ont donc du mal à<br />

faire évoluer leurs habitudes et restent attachés aux mêmes schémas de modélisation. Pourtant, ce n'est pas faute de<br />

proposer des outils de plus en plus nombreux, sophistiqués et adaptés à leurs besoins. Les industries ont besoin de<br />

mieux synchroniser leurs équipes de R&D et leurs bureaux d'études.<br />

Propos recueillis par Olivier Guillon<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 26


Dossier Matériaux<br />

<strong>Essais</strong> et Modelisation<br />

IW) et Didier Trallero (Eurocopter). « Pour représenter les<br />

phénomènes de fatigue dans les pièces composites, il est<br />

important de considérer les phénomènes d’endommagement<br />

de la matrice et leur influence sur la rupture des fibres. En<br />

parallèle il est nécessaire de prendre en compte l’effet des<br />

gradients de déformation ».<br />

Jerôme Limido, docteur-ingénieur chez Impetus AFEA, expose<br />

la méthode développée pour l’analyse des mécanismes<br />

de coup de bélier hydrodynamique sur des réservoirs en<br />

composites. « L’originalité de notre approche réside dans<br />

la modélisation mixte SPH-FEM, basée sur un couplage de<br />

méthodes sans maillage à l’aide de SPH (Smoothed Particle<br />

Hydrondynamic) et d’éléments finis iso-géométriques d’ordre<br />

élevé », explique-t-il.<br />

Prendre en compte les procédés de fabrication<br />

Les procédés de mise en œuvre des matériaux composites<br />

sont nombreux et complexes : moulage au contact, par projection,<br />

enroulement filamentaire, RTM, LRI, etc. Toutefois<br />

leur industrialisation est encore récente, ce qui engendre de<br />

nombreuses difficultés quant à la prédictibilité des résultats.<br />

La présentation de Philippe Martiny, Team Leader Composite<br />

Structures and Processes au Cenaero, traite de la prédiction<br />

des déformations en sortie de cuisson en vue la compensation<br />

du moule. « Dans certaines applications, en particulier<br />

pour les pièces de grande longueur que l’on rencontre dans<br />

l’aéronautique ou le naval, cette différence n’est pas acceptable<br />

et il convient de corriger la forme du moule afin de compenser<br />

ces déformations » explique-t-il.<br />

Bundi Donguy, ingénieur d’applications chez Hutchinson R&D<br />

présente une méthode de modélisation pour le calcul mécanique<br />

des pièces composites en thermoplastiques renforcées<br />

de fibres. La méthode prend en compte les caractéristiques<br />

matériaux (orientation des fibres) induites par le procédé de<br />

fabrication des pièces par injection, dans les calculs mécaniques<br />

de structures. « Pour cette étude, nous avons utilisés<br />

plusieurs logiciels du commerce en raison de la complexité<br />

des modélisations (viscoélasticité, EVP, crash...). Une des<br />

difficultés consiste à bien mapper le maillage d’injection et le<br />

maillage de structure », ajoute-t-il.<br />

Composites et écoconception : où en est‐on vraiment ?<br />

Plusieurs procédés existent aujourd’hui comme la solvolyse, la<br />

thermolyse et le broyage. Des travaux de recherche sont prévus<br />

dans les années à venir pour préparer des résines directement<br />

solvolisables. On réfléchit également à une extension de<br />

la durée de vie des matériaux de façon à réduire le recyclage.<br />

Composites et simulation numérique : quels challenges<br />

pour les logiciels de demain ?<br />

Comme largement débattu au cours de la journée, plusieurs<br />

challenges sont à considérer : la nécessité d’une approche<br />

multi-échelle, la prise en compte globale conception-analyse-fabrication,<br />

et l’intégration de la simulation numérique à<br />

tous les niveaux de la pyramide depuis la caractérisation des<br />

matériaux jusqu’à la certification. Mais le principal challenge<br />

réside sans doute dans une approche méthodologique spécifique<br />

appuyée sur des outils logiciels dédiés, seule démarche<br />

capable de fournir une réponse appropriée plus intelligente que<br />

le simpliste (et erroné) black metal. Les logiciels du commerce<br />

ont clairement pris conscience de ces aspects et ont, pour une<br />

part, intégré des outils spécialisés permettant une modélisation<br />

appropriée des structures multicouches et intégrant des lois de<br />

comportement propres. Il reste sans doute encore beaucoup à<br />

faire pour que les utilisateurs se sentent en confiance dans leur<br />

utilisation et leur mise en œuvre.<br />

Réalisé par notre partenaire NAFEMS<br />

Perspectives<br />

S’il est certain que les matériaux composites prennent une<br />

place croissante dans les produits et les secteurs industriels<br />

modernes, il est tout aussi sûr que le manque d’expérience,<br />

de recul et de formation sont autant de difficultés auxquelles<br />

les industriels doivent faire face pour leur mise en œuvre.<br />

Alors, dans ce domaine encore jeune et en constante évolution,<br />

quelles sont les perspectives pour les années à venir ?<br />

Composites bi‐axiaux : une approche nouvelle pour<br />

le développement des composites ?<br />

Thierry Massard, directeur scientifique au CEA/DAM et CEO<br />

de Think Composites, propose de porter un regard nouveau<br />

sur la conception des composites avec une approche pragmatique<br />

basée sur un minimum d’orientations (deux en général),<br />

sur l’utilisation de couches élémentaires très minces, et<br />

sur des constats d’homogénéisation qui s’affranchissent des<br />

règles de symétrie des empilements.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 27


Dossier Matériaux<br />

<strong>Essais</strong> et Modelisation<br />

Inauguration<br />

Un nouvel investissement de taille pour le Cetim<br />

Le Cetim, institut technologique labellisé Carnot, a investi au printemps dernier pas moins de 700 000<br />

euros dans un nouveau laboratoire dédié aux essais mécaniques pour les assemblages. Un investissement<br />

qui entre naturellement dans la stratégie du Cetim qui est de « garder un coup d'avance » comme<br />

le détaille Pierre Chalandon, responsable ingénierie des assemblages.<br />

Cela fait une dizaine d'années qu'il<br />

manquait au Cetim un investissement<br />

conséquent, capable de lui<br />

donner la capacité d'assurer des<br />

prestations uniques en France et à la<br />

mesure des évolutions du marché en<br />

termes d’assemblages mécaniques.<br />

En effet, on assiste aujourd'hui à des<br />

nouveaux enjeux dans le domaine<br />

des transports et de l’énergie, ainsi<br />

que des besoins de capacité de serrages<br />

plus élevés allant jusqu’à 10<br />

000 Newtons.mètre (N.m) « alors<br />

qu'auparavant, nous étions limités<br />

à des capacités de 3 200 N.m, indique<br />

Pierre Chalandon. Il en a été<br />

de même pour les machines de traction,<br />

avec une nouvelle machine de<br />

600 kN ».<br />

Aujourd'hui, l’activité « ingénierie des<br />

assemblages » du Cetim confirme<br />

sa stature industrielle, en particulier<br />

avec d’ici fin d’année 2013 la présence<br />

d’un bras articulé couplé à<br />

une visseuse, qui permettra pré-valider<br />

des gammes industrielles.<br />

Le banc de serrage grande capacité<br />

(10 000 N.m) et haute vitesse (500<br />

tours/minute) donne la possibilité de<br />

caractériser et de qualifier les éléments<br />

filetés. Il supporte un effort<br />

de 1 300 kN et une température de<br />

150 °C. Le système permet de mesurer<br />

et/ou déterminer une ou plusieurs<br />

caractéristiques du serrage,<br />

et notamment les coefficients de<br />

frottement ainsi que la tension réellement<br />

introduite dans la vis.<br />

La machine de traction 600 kN est<br />

quant à elle destinée à la caractérisation<br />

mécanique des assemblages<br />

soudés, vissés, rivetés, mais aussi<br />

des assemblages complets (pièces<br />

et sous-ensembles). Elle permet<br />

ainsi de vérifier la conformité aux<br />

normes ou le respect de caractéristiques<br />

mécaniques pour des besoins<br />

spécifiques. Elle supporte des essais<br />

à des températures extrêmes allant<br />

de -70°C à 250°C et un chargement<br />

de 600kN. Elle sera également utilisée<br />

pour valider le dimensionnement<br />

de l’assemblage par corrélation des<br />

essais et des calculs, avec mesure<br />

de déformation sans contact (cor-<br />

Banc de serrage de grande capacité<br />

Machine de traction<br />

rélation d’images) ou avec contact<br />

(instrumentation).<br />

Pas d'équivalent en France<br />

La stratégie consiste à équiper ce nouveau<br />

laboratoire de moyens d'essais<br />

permettant d’assembler des éléments<br />

plus volumineux et de s'adapter aux<br />

besoins des industriels. Il s’agit notamment<br />

d’un banc de serrage grande<br />

capacité 10 000 N.m et haute vitesse,<br />

d’une machine de traction 600 kN et<br />

d’un équipement de mesure de déformation<br />

sans contact. Associé à l’expertise<br />

du Cetim dans le domaine, il<br />

représente un ensemble de moyens<br />

et de compétences pointues pour caractériser<br />

et valider les assemblages<br />

vissés, toujours plus complexes et normalisés,<br />

et sans équivalent en France<br />

; « certes, de grands constructeurs,<br />

notamment dans l'automobile comme<br />

PSA, disposent de moyens d'essais<br />

comparables, avec la même philosophie,<br />

mais pas avec de telles capacités<br />

».<br />

Le laboratoire s’adresse aux industriels<br />

qui conçoivent des équipements<br />

à composants multiples assemblés<br />

mécaniquement et qui doivent s’assurer<br />

de leur performance, de leur fiabilité<br />

ainsi que de leur conformité aux règles<br />

de l’art et aux normes en vigueur. Il leur<br />

permettra de caractériser ces assem-<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 28


Dossier Matériaux<br />

<strong>Essais</strong> et Modelisation<br />

blages pour valider leur performance,<br />

leur dimensionnement via la corrélation<br />

essais / calcul, alimenter les outils<br />

de simulation, ou encore contrôler leur<br />

qualité à réception.<br />

Les nouveaux équipements élargissent<br />

considérablement le champ d’action<br />

des essais. Le domaine d'action<br />

du Cetim est avant tout consacré à<br />

la France et à son industrie. Mais le<br />

centre ne s'interdit pas de travailler<br />

hors des frontières lorsqu'il y est sollicité,<br />

« au cas par cas, même si cela reste<br />

encore marginal », concède Pierre<br />

Chalandon. Les domaines d'application<br />

concernent avant tout l'énergie,<br />

comme le nucléaire et l'éolien, mais<br />

également les transports (automobile,<br />

aéronautique et spatial, ferroviaire...)<br />

ainsi que tous types d'industries ; «<br />

En associant l’ensemble des compétences<br />

du Cetim,nous répondons à<br />

un large spectre de clients comme la<br />

manutention et le levage, les engins<br />

de chantier, le biomédical, la micromécanique,<br />

allant de la petite visserie à<br />

la grosse pièce pour le maritime par<br />

exemple ».<br />

Répondre à de nouveaux enjeux<br />

Il faut dire que les enjeux ont bien évolué<br />

: le cœur de métiers d'un nombre<br />

croissant d'industries est devenu l'assemblage,<br />

donnant par la même occasion<br />

un coup d'accélérateur à la<br />

gestion du multi-matériaux. Les questions<br />

de robustesse alliées à celles<br />

des augmentations de cadences dans<br />

un contexte « ultra-concurrentiel »<br />

(notamment dans l'aéronautique)<br />

occupent aujourd'hui l'essentiel des<br />

préoccupations des industries, ellesmêmes<br />

devenues pour beaucoup des<br />

assembleurs. Ainsi cette tendance<br />

soulève de nouveaux enjeux de compétitivité,<br />

faisant la part belle aux éditeurs<br />

de d'outils de simulation et de<br />

modélisation. En effet, l'optimisation<br />

du dimensionnement via des outils industriels<br />

et numériques est au centre<br />

des stratégies d'entreprise. Stimulé<br />

par la part croissante de matériaux<br />

composites dans l'industrie, l'assemblage<br />

multi-matériaux soulève de nouvelles<br />

questions, la plupart liées à la<br />

méconnaissance des composites par<br />

rapport à l'acier ou aux métaux dits traditionnels.<br />

Si l'aéronautique possède<br />

une avance dans le domaine, il est difficile<br />

de reprendre les connaissances<br />

en tant que telles ; bien souvent, les<br />

développements dans l'aéronautique<br />

en matière de compatibilité électromagnétique<br />

(CEM), de couplage galvanique<br />

ou d'acoustique par exemple,<br />

ne sont pas applicables dans le reste<br />

de l'industrie ou dans d'autres produits<br />

que des avions ! « Ainsi des verrous<br />

technologiques subsistent dans le domaine<br />

des matériaux composites. Le<br />

Cetim y travaille puisqu’il en est un acteur<br />

historique aujourd’hui pleinement<br />

intégré dans Technocampus EMC2<br />

.Notre force est donc d’associer étroitement<br />

des spécialistes tant en matériaux<br />

composites qu’en assemblages<br />

mécaniques, assemblages thermo-soudés<br />

ou encore assemblages<br />

collés-chimiques.». De quoi prendre<br />

les enjeux présents et à venir à bras<br />

le corps.<br />

Olivier Guillon<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 29


Dossier Matériaux<br />

<strong>Essais</strong> et Modelisation<br />

Reportage<br />

Immersion dans la R&D<br />

de l’Institut de Soudure<br />

Organisées par le Club Laser Procédés et l'Institut de Soudure, les Journées nationales des Procédés<br />

laser pour l'industrie (JNPLI) se sont déroulées dans les locaux de l'Institut de Soudure à Yutz, en Moselle.<br />

À cette occasion, <strong>Essais</strong> & <strong>Simulations</strong> s'est rendu dans le département consacré à la recherche<br />

et a pu constater l'importance des équipements d'essais de l'Institut de Soudure, venant appuyer des<br />

prestations et des études uniques en France et parfois même en Europe.<br />

Avant d'entamer à travers les pages<br />

de ce numéro d'<strong>Essais</strong> & <strong>Simulations</strong>,<br />

dont l'un des dossiers concerne la<br />

place des essais dans l'élaboration<br />

de nouveaux matériaux, il paraît important<br />

de rappeler quelques généralités<br />

à propos de l'Institut de Soudure.<br />

Rassemblant sur une trentaine<br />

d'implantations (en France principalement,<br />

plus neuf à l'étranger et DOM-<br />

TOM) un millier de collaborateurs, le<br />

Groupe Institut de Soudure s'adresse<br />

à environ 8 000 clients pour un chiffre<br />

d'affaires de plus de 96 M€ (en 2012),<br />

et dont 18% est effectué à l'international.<br />

Son savoir-faire concerne les<br />

matériaux et leur comportement,<br />

les technologies d'assemblage, les<br />

contrôles non destructifs (CND) ainsi<br />

que la réglementation sous pression.<br />

Les solutions proposées vont de la<br />

mise en conformité des constructions<br />

à l'amélioration des techniques de<br />

soudage et de la fabrication soudée,<br />

la durée de vie des installations, la<br />

réduction des temps de production et<br />

de maintenance, et autres problématiques<br />

qui, mises bout à bout, entrent<br />

dans la spirale du casse-tête habituel<br />

de l'industriel.<br />

Des essais au cœur de la recherche<br />

La recherche et développement de<br />

l’Institut de Soudure est répartie sur<br />

trois sites en Lorraine : Yutz, Goin<br />

pour le procédé FSW et Saint Avold.<br />

Le laboratoire de recherche de Yutz<br />

comporte deux bâtiments. Le premier<br />

abrite les activités d'assemblage et de<br />

contrôle non-destructif. C'est ici que<br />

reposent d'importants moyens laser<br />

comme cette machine REIS récemment<br />

installée (depuis la fin 2012).<br />

Celle-ci est capable d'atteindre des<br />

vitesses d'exécution de 90 mètres/<br />

minute et d'effectuer des rotations<br />

de 650° à 750°/seconde. « Cette machine<br />

bénéficie de degrés de liberté<br />

élevés grâce à la fibre optique directement<br />

intégrée dans le bras », indique<br />

Fabrice Scandella, Fellow Matériaux/<br />

Procédés à l'Institut de Soudure. D'un<br />

montant de près d'1M€, cet équipement<br />

permet d'obtenir une précision<br />

hors du commun (étant donné ses<br />

dimensions) de 1/100e de millimètres<br />

grâce à ses moteurs linéaires. L’Institut<br />

supérieur européen de l’entreprise<br />

et de ses techniques (Iseetech) ainsi<br />

que le Feder, l’État, le Conseil régional<br />

de Lorraine et le Conseil général de la<br />

Moselle ont contribué au financement<br />

de certains de ces équipements.<br />

Le second bâtiment abrite la plateforme<br />

Mécanique-Corrosion de Yutz.<br />

Celle-ci rassemble tous les équipements<br />

nécessaires pour élaborer les<br />

essais dans le domaine, qu'il s'agisse<br />

des machines de fatigue et de fluage,<br />

des bancs de test et un laboratoire de<br />

corrosion. Les équipements en question<br />

sont à l'image de la politique d'investissement<br />

de l'Institut de Soudure<br />

dans ses moyens de caractérisation :<br />

un parc de huit machines de fatigue<br />

d’une capacité de 10 à 1 600 kN, sur<br />

une plage de température de -150 °C<br />

à 1 000 °C, un parc de cinq machines<br />

de fluage qui réalisent des essais<br />

jusqu’à 1 000 °C et une dalle d’essai<br />

de vingt-quatre mètres pour des essais<br />

multiaxiaux jusqu’à 2 500 kN. Par<br />

ailleurs, le département possède un<br />

logiciel de détermination de nocivité<br />

de défaut Crackwise, des centrales<br />

Essai de fatigue sur des rails<br />

d’acquisition de mesure statiques<br />

et dynamiques (au total, cent-quarante<br />

voies de mesures), des stations<br />

de mise en pression répétée de 20<br />

bars, une chaîne de mesures électrochimiques<br />

et des réacteurs pour des<br />

essais de corrosion jusqu’à 300 bars<br />

et 400 °C.<br />

Ici sont testés, entre autres, des prototypes<br />

pour des clients industriels<br />

tels que l'industrie ferroviaire (rails,<br />

appareils de voie et voitures) sur un<br />

banc de grandes dimensions installé<br />

sur un coussin d'air et pouvant accepter<br />

une charge totale de 70 tonnes.<br />

« Nous testons également, dans le<br />

cadre de projets de recherche, des<br />

structures mécano-soudées représentatives<br />

de structures réelles telles<br />

que des balanciers of flèches de pelleteuses,<br />

ou de dispositifs de levage,<br />

souligne Fabrice Scandella. L'objectif<br />

est de développer des techniques<br />

novatrices permettant d'augmenter la<br />

durée de vie des structures soumises<br />

à la fatigue ».<br />

Le contrôle non destructif : un savoir-faire<br />

inhérent à l'institut<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 30


ANR-11-CNRT-02<br />

Dossier Matériaux<br />

<strong>Essais</strong> et Modelisation<br />

Les activités de la plateforme CND se<br />

déploient sur deux sites : à Yutz pour<br />

la partie Maintenance industrielle et à<br />

Saint-Avold Porcelette pour la partie<br />

Composites à travers la société Composite<br />

Integrity, société commune<br />

du Groupe Institut de Soudure et du<br />

PPE (Pôle de plasturgie de l’Est). La<br />

plateforme Contrôles non destructifs/<br />

Maintenance industrielle développe<br />

les méthodes de contrôle et de monitoring<br />

adaptées à la surveillance des<br />

installations en service et au suivi de<br />

leur vieillissement (contrôle à chaud,<br />

contrôle sans contact, contrôle global,<br />

contrôle de géométries complexes…).<br />

La structure Composite Integrity propose<br />

quant à elle des prestations de<br />

services et de développement en<br />

contrôles non destructifs dans le domaine<br />

des matériaux composites. La<br />

société met en œuvre une gamme<br />

exhaustive de techniques innovantes.<br />

La plateforme CND propose une multitude<br />

de prestations allant du contrôle<br />

de zones dites inaccessibles, de<br />

pièces de géométrie complexe ou de<br />

matériaux complexes (anisotropes,<br />

hétérogènes), à l'automatisation et<br />

l'optimisation des opérations de CND<br />

(grâce à la simulation numérique<br />

par exemple), la surveillance des<br />

installations en fonctionnement, en<br />

passant par des prestations sur les<br />

composites techniques et le développement<br />

de la connaissance et de la<br />

recherche sur la caractérisation des<br />

structures aéronautiques composites<br />

de grandes dimensions. Enfin, l'Institut<br />

de Soudure est capable de définir<br />

des solutions pour un contrôle non<br />

destructif rapide en phase de maintenance.<br />

Les moyens de CND sont<br />

multiples : contrôle à chaud, contrôle<br />

sans contact, contrôle global (émission<br />

acoustique, ondes guidées…),<br />

déflectométrie, shearographie, ultrasons<br />

jets d’eau ou ultrasons mono et<br />

multi-éléments...<br />

Des essais en environnement assurés<br />

en France et à l'étranger<br />

En matière de contrôles destructifs,<br />

l'Institut de Soudure dispose d'importants<br />

équipements, mais pas spécialement<br />

à Yutz. Depuis 2008, une<br />

plateforme essai matériaux (PEM) se<br />

trouve à Villepinte (Seine-Saint-Denis)<br />

et s’étend sur 800 mètres carrés.<br />

Accréditée Cofrac, celle-ci réalise des<br />

essais mécaniques (de traction notamment),<br />

des analyses chimiques,<br />

des essais métallographiques sur les<br />

matériaux et les assemblages. Autres<br />

implantations, les laboratoires de<br />

Port-de-Bouc (Bouches-du-Rhône) et<br />

de Corbas (Rhône-Alpes), consacrés<br />

aux essais mécaniques et métallographiques.<br />

Enfin, une plateforme cette<br />

fois orientée vers la corrosion est située<br />

à Bangkok (Thaïlande). Inaugurée<br />

en 2001, et baptisée IS Industrie<br />

Thailand (Thailand), cette plateforme<br />

de dernière génération permet de réaliser<br />

des essais de résistance à la fissuration<br />

par l’hydrogène (HIC) et à la<br />

fissuration sous contrainte (SSC) en<br />

milieu H 2<br />

S.<br />

Olivier Guillon<br />

Innovation simulation<br />

Votre développement produit maîtrisé et optimisé<br />

Nouvelles fonctions produit, réduction des coûts et des phases de<br />

développement, intégration mécanique, électronique, informatique :<br />

Avec le projet Capme’up, Cetim, IFPEN et CEA List allient leurs<br />

compétences en simulation, essais sur bancs et expertises métiers<br />

et offrent pour tous un choix de solutions adapté à vos besoins :<br />

P Dimensionnement de système complexe<br />

P Prédiction de Performance<br />

P Comparaison de solutions technologiques, prototypage & tests virtuels<br />

P Développement et vérification de lois de contrôle et commande<br />

P Intégration de fonctions de surveillance en fonctionnement<br />

Trois instituts Carnot en synergie pour concrétiser les projets d’innovation des PME et ETI<br />

1305-010<br />

Hélène Determe<br />

Tél. : 03 44 67 36 82<br />

sqr@ cetim.fr<br />

CAP M E U P<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 31


Dossier Matériaux<br />

<strong>Essais</strong> et Modelisation<br />

Retour d'expérience<br />

Simuler, quand les mesures sont impossibles<br />

Les températures extrêmes des hauts fourneaux limitent les mesures durant certaines phases du processus<br />

de coulée de la fonte ; c’est pourquoi TRB s’est tourné vers la simulation, notamment au niveau<br />

des couvercles de rigoles de hauts fourneaux.<br />

Les hauts fourneaux, dans lesquels le<br />

métal liquide atteint les 1 500°C, constituent<br />

des environnements où toutes<br />

les précautions sont prises afin de protéger<br />

les hommes et les équipements.<br />

En particulier des projections, lorsque<br />

la fonte liquide s'écoule à l'extérieur du<br />

haut fourneau au travers d’une rigole.<br />

Celle-ci est donc recouverte en grande<br />

partie d'un couvercle composé d'une<br />

tôlerie en acier et d'une couche interne<br />

en béton réfractaire. Le béton subit<br />

des chocs thermiques et est exposé à<br />

la corrosion ainsi qu'à l'érosion ; ceci<br />

conduit à une durée de vie moyenne<br />

de l'ordre du mois, et à son remplacement<br />

régulier. Il est donc avantageux à<br />

la fois d'améliorer la longévité de cette<br />

couche de béton et de réduire son coût<br />

de fabrication.<br />

Coupe transversale d'une rigole (deux<br />

couches de béton) surmonté d'un toit (une<br />

seule couche de béton). La température du<br />

métal fondu (non-représenté) est imposée<br />

sur la zone centrale, surmonté d'une cavité<br />

fermée d'air. Les résultats de simulation<br />

montrent que la convection naturelle intervient<br />

dans le transfert de chaleur dans l'air<br />

jusqu'à cinq minutes, et qu'au-delà, c'est la<br />

conduction qui est prépondérante.<br />

La difficulté est d'accéder à des mesures<br />

précises des agressions subites,<br />

notamment thermiques. C'est<br />

l'intérêt des simulations réalisées avec<br />

Comsol Multiphysics et son module<br />

Heat Transfer. La rigole est schématiquement<br />

constituée de deux types<br />

de béton réfractaire : le premier est<br />

en contact avec le métal en fusion et<br />

Vue d'un haut-fourneau au niveau du trou de coulée. On note la présence d'un toit de rigole au premier<br />

plan.<br />

sert de couche d’usure, le second fait<br />

office de couche de sécurité. C'est<br />

aussi le constituant du couvre rigole,<br />

en contact simplement avec l'air situé<br />

au-dessus de la fonte liquide.<br />

Bonne corrélation entre les mesures<br />

prises et la théorie<br />

La simulation sous Comsol reprend<br />

l’ensemble des étapes effectuées<br />

dans la réalité. La première consiste<br />

à préchauffer la rigole (afin d’éviter les<br />

chocs thermiques lors de la premiére<br />

coulée) aux environs de 500°C. La<br />

phase suivante reprend les cycles de<br />

vidanges du haut fourneau : 75 minutes<br />

d’écoulement de la fonte liquide<br />

au travers de la rigole et 75 minutes<br />

de convection libre au sein de celle-ci<br />

durant le bouchage du haut fourneau.<br />

En vingt-quatre heures, la température<br />

simulée de l'air en contact avec le<br />

Thermogramme de la<br />

partie interne d'un toit<br />

de rigole (en haut) et<br />

photographie vue sous le<br />

même angle (en bas). La<br />

légende de température<br />

indique une température<br />

maximale de 300°C.<br />

métal liquide se stabilise aux environs<br />

de 750°C, et celle de l'air en contact<br />

avec le couvre rigole aux alentours<br />

de 430°C. Sur une semaine, la température<br />

externe simulée de la tôlerie<br />

du couvercle atteint 80°C, ce qui est<br />

proche de la température de 76°C mesurée<br />

en thermographie infrarouge.<br />

L’image thermique du dispositif venant<br />

juste d’être retirée de la rigole indique<br />

une distribution de température entre<br />

200 et 300°C. On suppose que la<br />

chute de température du béton réfractaire<br />

due au retrait du couvercle est de<br />

l’ordre de 100°C. Cela tend à confirmer<br />

les données de simulation avec des<br />

températures calculées, comprises<br />

entre 400 et 500°C en paroi interne du<br />

couvercle. La corrélation entre les mesures<br />

et la théorie étant correct, il est<br />

possible ensuite de varier les épaisseurs<br />

et qualités de béton afin de trouver<br />

la meilleure configuration.<br />

Simon Chiartano,<br />

Terres Réfractaires du Boulonnais (TRB)<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 32


Dossier Matériaux<br />

<strong>Essais</strong> et Modelisation<br />

Partenariat<br />

Turbomeca opte pour la Q.series de Gantner Instruments<br />

Le motoriste leader sur le marché international de la conception, la production, la vente et le soutien de turbines à gaz<br />

pour hélicoptères a pris la décision de transformer complètement le site de Bordes. Son objectif est de permettre la<br />

fondation d’un véritable pôle aéronautique centré autour des turbines à gaz grâce à la modernisation de ses installations<br />

et particulièrement des moyens d’essai série et R&D. Ainsi, dans le cadre de la rénovation de ses bancs d’essai<br />

turbines, Turbomeca a fait confiance à la Q.series, le système de mesures Gantner Instruments France.<br />

Toutes les turbines sortantes des<br />

chaînes d’assemblage passent au<br />

banc d’essai permettant ainsi de mesurer<br />

les performances mécaniques<br />

et thermodynamiques d’un moteur et<br />

d’établir les spécifications en termes<br />

de puissance, consommation, temps<br />

d’accélération,… Les principales les<br />

exigences liées à ce type d’essai sont<br />

la haute vitesse d’échantillonnage (de<br />

centaines d’échantillons à quelques<br />

milliers par seconde), la conversion<br />

analogique à numérique 24 bits, pour<br />

une mesure « de classe laboratoire »<br />

permettant au final de viser la classe<br />

0,1, la triple isolation galvanique (de<br />

100V à 1200 V), ou encore le conditionnement<br />

intégré et programmable, pour<br />

supprimer l’étage conditionnement<br />

analogique discret. Parmi les autres<br />

exigences figurent la robustesse et la<br />

modularité, la capacité à « horodater »<br />

les données à la source et synchroniser<br />

son horloge interne à partir d’une<br />

source de temps de référence externe<br />

(NTP ou IRIG)<br />

La Q.series au banc d’essai<br />

Des phases de validation du matériel<br />

allant de la vérification des performances<br />

métrologiques des modules,<br />

de stabilité en étuve jusqu’au Benchmark<br />

où les appareils ont été mis en<br />

conditions réels et comparés aux<br />

autres équipements. « Nous avons<br />

trouvé dans la gamme Q.Series une<br />

réponse à la fois à nos exigences métrologiques<br />

et à notre recherche d’une<br />

solution modulaire, nous permettant<br />

de mutualiser le matériel d’acquisition<br />

R&D, a indiqué le chef de projets informatique<br />

industriel de Turbomeca.<br />

La grande diversité des modules disponibles<br />

et les nombreux conditionnements<br />

proposés pour une même électronique,<br />

nous permettent de toujours<br />

trouver une solution adaptée à nos besoins<br />

(Q.Bloxx, Q.Staxx, Q.Brixx, etc.),<br />

assisté en cela par les équipes BGP,<br />

Gantner et InTest. »<br />

Du conditionnement capteur à la<br />

retransmission numérique synchronisée<br />

Les conditionneurs de la Q.series sont<br />

disponibles dans différents formats<br />

selon où ils seront placés, les Q.bloxx<br />

sont montés sur rail DIN dans les armoires<br />

électriques de la salle de pilotage,<br />

les Q.staxx (module IP65) sont<br />

placés sur des platines près de la turbine<br />

et les Q.brixx, module durci et mobile<br />

là où en a besoin rapidement.. Tous<br />

ces modules partagent les mêmes<br />

électroniques donc les mêmes caractéristiques<br />

et mettent à disposition les<br />

informations sur une liaison numérique<br />

RS485. La collecte des mesures est effectuée<br />

par le concentrateur Q.pac qui,<br />

muni de 4 liaisons RS485, s’occupe<br />

de récupérer de manière synchrone<br />

jusqu’à 10 KHz les données issues des<br />

conditionneurs répartis sur tout le banc<br />

d’essai. Plusieurs systèmes comme<br />

celui-ci peuvent être ainsi connectés<br />

ensemble, synchronisés (IRIG, NTP,..)<br />

et envoyer via une liaison TCP/IP les<br />

données ainsi horodatées vers la solution<br />

logicielle de contrôle / commande<br />

de bancs d’essais « InNova » d’InTest.<br />

Selon le directeur technique InTest,<br />

« Turbomeca exploite très largement<br />

les performances de la solution InNova<br />

/ Q.series, tant en termes de précision<br />

de mesure que de bande passante<br />

(mesure de classe laboratoire en<br />

streaming rapide), validant l’adéquation<br />

de cette architecture innovante à<br />

l’environnement complexe et exigeant<br />

des bancs de développement et de réception<br />

aéronautiques. »<br />

Solutions<br />

Accéder à ses données de partout<br />

Spécialisée en acquisition de données, la société Spectrum a introduit sur le marché le digitizerNETBOX. Solution<br />

d’acquisition de données connectée à distance par liaison Ethernet conforme à la norme LXI, cet outil peut être utilisé<br />

comme instrument de laboratoire directement connecté à un ordinateur portable ou à un PC de bureau ou monté en<br />

Rack 19’’ connecté au réseau de l'entreprise et accessible de partout.<br />

Destiné aux industriels et aux laboratoires<br />

de R&D, Le digitizerNETBOX<br />

propose divers modes d'enregistrement<br />

et un moteur de déclenchement<br />

extrêmement complet. Par exemple,<br />

les deux sources de trigger externe,<br />

ainsi que chaque voie d'entrée,<br />

peuvent être utilisées pour produire un<br />

déclenchement valide. Les utilisateurs<br />

peuvent choisir de déclencher sur un<br />

front, sur un niveau, une fenêtre, une<br />

impulsion ou une largeur d'impulsion.<br />

Chaque entrée de déclenchement peut<br />

être combinée avec d'autres pour créer<br />

des pattern conditionnels. Les modes<br />

d'enregistrement supportés sont mono<br />

coup (enregistrement de transitoires),<br />

streaming (FIFO), segmenté (Enregistrements<br />

multiples), Gated, combinaison<br />

d’acquisitions rapides et lentes<br />

(mode ABA). Le digitizerNETBOX est<br />

disponible avec quatre, huit ou seize<br />

voies d'acquisition de données entièrement<br />

synchrones.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 33


Spécial Acquisition de données<br />

<strong>Essais</strong> et Modelisation<br />

Perspectives marché<br />

S’adapter aux fortes évolutions<br />

dues aux matériaux composites<br />

Face à l’essor des matériaux composites, à leur diversité et de la complexité de leur structure, les<br />

industriels sont confrontés à un problème évident de gestion de données à la fois plus lourdes, plus<br />

nombreuses et plus complexes. Les éditeurs redoublent donc d’efforts pour mettre au point des solutions<br />

toujours plus puissantes sans pour autant omettre l’aspect essentiel, celui de la convivialité et de<br />

la simplicité d’utilisation de l’outil logiciel.<br />

L’industrie, tous secteurs confondus<br />

(l’aéronautique, l’automobile et l’énergie<br />

en tête), se trouvent aujourd’hui<br />

face à l’utilisation d’informations portant<br />

sur des matériaux de plus en plus<br />

complexes. La raison ? La croissance<br />

importante – voire l’explosion dans des<br />

filières comme l’aéronautique – de l’utilisation<br />

des matériaux composites. Or<br />

leurs compositions sont très diverses<br />

d’un secteur à l’autre ; surtout, le recours<br />

à des matériaux nés d’alliages<br />

multiples pose le problème d’une méconnaissance<br />

totale ou relative de leur<br />

comportement et donc d’un manque<br />

d’anticipation par rapport aux matériaux<br />

« classiques » et métalliques ou<br />

isotropes. « Or il est essentiel de savoir<br />

jusqu’où nous pouvons aller avec ces<br />

matériaux et quelles limites en termes<br />

de température et d’hygrométrie par<br />

exemples il est possible d’atteindre ;<br />

d’autant que leurs conséquences en<br />

la matière peuvent être plus fortes que<br />

pour des matériaux tels que l’acier<br />

ou l’aluminium », souligne Olivier<br />

Tabaste, directeur de la business unit<br />

dédiée au life cycle management au<br />

sein de MSC Software. L’éditeur, qui<br />

a démarré cette activité depuis déjà<br />

de nombreuses années, s’était déjà<br />

beaucoup penché sur les questions de<br />

gestion de données. Mais depuis juin<br />

dernier, MSC Software met les bouchées<br />

doubles en lançant sur le marché<br />

une nouvelle gamme étendue de<br />

solutions logicielles qui s’appuient sur<br />

l’architecture de gestion de données et<br />

de process (aspect simulation) et tout<br />

particulièrement sur les données relatives<br />

aux matériaux.<br />

Il faut dire qu’outre la méconnaissance<br />

encore importante du comportement<br />

de ces matériaux nés de développements<br />

trop récents s’ajoute le problème<br />

des limites de chargement ainsi<br />

que l’incapacité de mesurer leur utilisation<br />

; « nous avons absolument besoin<br />

de virtualiser le comportement des matériaux<br />

composites et de les mesurer.<br />

Or cela implique des coûts de certification<br />

et de validation infiniment plus<br />

élevés en raison de leur complexité et<br />

des volumes d’informations de plus en<br />

plus importants ». C’est le cas tout particulièrement<br />

dans l’aéronautique mais<br />

pas seulement ; la production d’énergie,<br />

notamment dans la production<br />

d’éoliennes, ainsi que les équipementiers<br />

automobiles commencent à leur<br />

tour à être confrontés aux mêmes problèmes.<br />

« Et ce n’est qu’un début ! Les<br />

limites de connaissance en la matière<br />

et dans la mesure des comportements<br />

freineront de plus en plus la mise en<br />

œuvre de la production. Ce n’est encore<br />

pas le cas dans l’automobile mais<br />

l’émergence des composites dans les<br />

pièces structurelles d’un véhicule impose<br />

de prendre en compte ces questions<br />

du fait de leur production [future]<br />

massive ».<br />

Il est essentiel pour bien accompagner<br />

la croissance de ces nouveaux matériaux<br />

dans l’industrie d’être en mesure<br />

de traiter des paramètres désormais<br />

plus nombreux sur le comportement<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 34


Spécial Acquisition de données<br />

<strong>Essais</strong> et Modelisation<br />

d’une pièce en plastique ou en caoutchouc.<br />

« Or ces informations, nous ne<br />

pouvons pour le moment les obtenir<br />

directement ; on doit procéder au préalable<br />

à des essais. De là, une fois les<br />

valeurs obtenues sur les courbes, on<br />

doit les extraire et en dériver les informations.<br />

Par exemple, si l’on procède<br />

à des essais sur un matériau à travers<br />

un échantillonnage comprenant cent<br />

éprouvettes, et que nous obtenons autant<br />

de résultats différents, cela pose<br />

un problème de précision et d’uniformisation<br />

de valeur. Nous avons besoin<br />

d’une seule et unique valeur, la plus<br />

précise possible », rappelle Olivier<br />

Tabaste. Ainsi, on effectue des essais,<br />

on stocke les données et on les analyse<br />

pour en tirer des valeurs ; ce qui<br />

implique d’être capable de tirer des<br />

informations brutes, de les traiter et<br />

de les analyser pour les convertir en<br />

données utilisables. On a besoin de<br />

savoir d’où viennent ces données et<br />

en sortir une valeur juste (ou la plus<br />

juste possible) dans laquelle les utilisateurs<br />

auront confiance. Ce critère de<br />

confiance ne peut être établi qu’après<br />

des essais de vérification faisant entrer<br />

la valeur dans un cycle d’approbation.<br />

C’est pourquoi la tâche est longue et<br />

fastidieuse, et les outils logiciels sont là<br />

pour automatiser les process et rendre<br />

la gestion de données plus simple et<br />

plus rapide.<br />

Une gamme dédiée aux matériaux<br />

Développée chez MSC Software, la<br />

nouvelle gamme MaterialCenter s’appuie<br />

sur la technologie SIM Manager.<br />

Et si le nom est différent des appellations<br />

habituelles (SIM…), c’est parque<br />

les deux outils peuvent être utilisés<br />

de façon indépendante. Ce système<br />

comprend un serveur, une base de<br />

données et un système de stockage<br />

de données lourdes. L’un des objectifs<br />

essentiels auxquels l’éditeur a dû<br />

répondre en priorité est de permettre<br />

à l’utilisateur de rechercher rapidement<br />

une information compatible avec son<br />

application, d’effectuer une requête<br />

simple sur une interface légère. Une<br />

fois l’information trouvée, l’utilisateur<br />

doit être sûr que celle-ci a déjà été validée<br />

et que la valeur peut être utilisée<br />

en toute confiance. Enfin, la plateforme<br />

se devait absolument d’être collaborative<br />

et accessible par des utilisateurs<br />

de différents métiers et différentes<br />

fonctions au sein de l’entreprise. Pour<br />

les utilisateurs d’autres outils MSC, la<br />

migration des informations est possible.<br />

Concrètement, on crée un conteneur<br />

d’informations et un schéma composé<br />

de tiroirs. L’utilisation est simple<br />

puisqu’il suffit de se connecter au serveur<br />

et définir une liste de données à<br />

stocker. Différents utilisateurs n’auront<br />

pas le même degré d’accès – en fonction<br />

de leur fonction – mais les visiteurs<br />

moins privilégiés ont toutefois la<br />

possibilité d’importer des informations,<br />

lesquelles peuvent entrer dans une démarche<br />

de validation afin d’être à leur<br />

tour utilisées pour d’autres requêtes.<br />

Un autre utilisateur peut ainsi s’en servir<br />

voire les diffuser et échanger librement.<br />

De nouvelles contraintes à affronter<br />

Selon Olivier Tabaste, les verrous<br />

technologiques ne résident plus vraiment<br />

dans la gestion de données en<br />

tant que telle. « Nous nous efforçons<br />

de toujours nous adapter aux besoins<br />

exprimés par les industriels, et ce en<br />

permanence. » Le plus grand défi se<br />

présente plutôt au niveau des besoins<br />

de caractérisation sur des matériaux<br />

de plus en plus complexes ; comme il<br />

l’a été évoqué plus haut, la déferlante<br />

des matériaux composites, leur diversité<br />

et la complexité des structures<br />

nécessitent la gestion de données et<br />

d’informations bien plus denses et volumineuses,<br />

d’autant que les connaissances<br />

liées au comportement de ces<br />

dits matériaux lors des phases d’essais<br />

sont loin d’être totalement acquises.<br />

L’autre « challenge » des entreprises,<br />

et donc des éditeurs de logiciels, est<br />

cette fois d’ordre juridique. Le problème<br />

se pose quant à la possibilité<br />

d’incorporer les aspects légaux dans<br />

la gestion de données, à l’exemple de<br />

l’assemblage qui implique désormais<br />

de respecter les mesures émises par<br />

les législateurs, à travers le règlement<br />

REACH en Europe ou MSDS aux Etats<br />

Unis, et qui s’imposent aujourd’hui aux<br />

industriels. Par exemple, les équipementiers<br />

de l’automobile vont désormais<br />

être obligés de satisfaire les réglementations<br />

à la fois européennes<br />

et américaines, lesquelles se montrent<br />

de plus en plus contraignantes. Obligés<br />

de se conformer à de plus en plus<br />

d’interdits et de règles, ils risquent dorénavant<br />

de voir les grands donneurs<br />

d’ordres – qui n’occupent bien souvent<br />

plus qu’une fonction d’assembleurs<br />

– se retourner contre eux en cas de<br />

manquement aux réglementations en<br />

cours. « Les équipementiers devront<br />

être capables de se maintenir face à<br />

une pression plus forte, ce qui implique<br />

pour eux de se doter de moteur de recherche<br />

et de rapport suffisamment<br />

puissants pour toujours être conformes<br />

à la loi ».<br />

Olivier Guillon<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 35


Spécial Acquisition de données<br />

<strong>Essais</strong> et Modelisation<br />

Cas d'application<br />

Coup de jeune sur le système d'acquisition<br />

d'une soufflerie<br />

Dans le cadre de la rénovation du système d’acquisition de données d'une soufflerie climatique, la<br />

société Nérys a choisi d'utiliser une architecture distribuée de valises de mesure intégrant chacune un<br />

système NI CompactRIO. Cette solution développée par National Instruments permet une centralisation<br />

des données au niveau du PC superviseur, en utilisant le logiciel Vasco standard ainsi que des<br />

développements spécifiques.<br />

La Soufflerie climatique d’Île-de-<br />

France met à disposition de ses<br />

clients, principalement dans le secteur<br />

automobile, une veine d’essai dans laquelle<br />

certaines caractéristiques des<br />

véhicules peuvent être testées (refroidissement,<br />

chauffage, aéraulique…).<br />

La nécessité d’augmenter le nombre<br />

de voies de mesure et leur fréquence<br />

d’acquisition, l’intégration de voies numériques,<br />

et la mise à jour matérielle et<br />

logicielle ont motivé la conception et la<br />

mise en œuvre d’un nouveau système<br />

de mesure.<br />

Quatre valises de mesure pour une<br />

modularité maximale<br />

Les essais réalisés peuvent nécessiter<br />

un nombre de voies très variable et<br />

lorsqu’une voiture est en essai, celle de<br />

l’essai suivant doit pouvoir être préparée<br />

et instrumentée, ce qui permet de<br />

gagner du temps. Le matériel d’acquisition<br />

devant donc être très adaptable,<br />

la solution retenue est d’avoir un système<br />

d’acquisition distribué composé<br />

d’un poste fixe dans la salle de supervision<br />

et de quatre systèmes mobiles<br />

indépendants, destinés aux véhicules.<br />

Ces systèmes devant être fréquemment<br />

déplacés, nous avons décidé<br />

de les intégrer dans des valises industrielles<br />

et étanches, ce qui permet<br />

également un rangement aisé, par<br />

exemple dans le coffre du véhicule. En<br />

fonction du nombre de voies nécessaires<br />

à l’essai et au suivant, il est possible<br />

d’utiliser de une à quatre valises<br />

pour instrumenter les véhicules. Les<br />

valises de mesure ont été conçues et<br />

intégrées par Nérys.<br />

À l’intérieur des valises, les borniers<br />

des modules d’acquisition sont câblés<br />

sur des connecteurs situés sur<br />

les flancs des valises. Des torons de<br />

câbles sont connectés sur les valises<br />

et à leur autre extrémité aux capteurs<br />

thermocouples, aux sorties tension des<br />

appareils ou à la prise diagnostique du<br />

véhicule pour la communication numérique.<br />

Nous avons choisi d’utiliser le<br />

CompactRIO, pour son autonomie. Un<br />

châssis est installé dans une baie de la<br />

salle de supervision et dans chacune<br />

des quatre valises.<br />

Un grand nombre de mesures de<br />

tension, de température et numériques<br />

Le CompactRIO de la baie gère 64<br />

entrées tension. Chaque valise permet<br />

l’acquisition de 16 voies tension<br />

et 64 voies thermocouple type K. Par<br />

ailleurs, deux des quatre valises sont<br />

équipées de cartes permettant de récupérer<br />

les informations qui circulent<br />

sur le bus du véhicule, suivant le protocole<br />

normalisé OBD 2 (92 voies) ou<br />

via un fichier de type DBC (jusqu’à<br />

250 voies). Le PC de supervision doit<br />

également récupérer, via une DLL, une<br />

vingtaine de données provenant d’un<br />

autre équipement. De plus, en fonction<br />

de l’essai à réaliser, il peut être nécessaire<br />

de définir des voies de calcul :<br />

puissance, vitesse, rendement… Cette<br />

architecture, à base de CompactRIO,<br />

permet d’acquérir simultanément<br />

jusqu’à 750 voies en essai.<br />

L’acquisition tension est réalisée à 100<br />

Hz, et les acquisitions température<br />

et DLL à 2 Hz. Les voies numériques<br />

sont également acquises à 2 Hz, mais<br />

la fréquence de communication sur<br />

le bus CAN rapide est de 500 kHz.<br />

La plage de tension en entrée est de<br />

0 à 300 V (prévue pour les véhicules<br />

électriques). Des modules NI 9206 ont<br />

été sélectionnés pour leur précision et<br />

un pont diviseur de tension est placé<br />

en amont de chaque voie de chaque<br />

carte. Les ponts diviseurs ont été regroupés<br />

sur un circuit imprimé et comportent<br />

chacun un interrupteur pour<br />

activer ou non le pont, ce qui permet<br />

une plus grande flexibilité du système<br />

par rapport aux signaux d’entrée. Pour<br />

les signaux à 300 V, un pont diviseur<br />

supplémentaire est à connecter à l’extérieur<br />

de la valise.<br />

De multiples PC : configuration, supervision,<br />

suivi et post-traitement<br />

Pour ce qui est de l’architecture logicielle,<br />

la suite logicielle Vasco, intégralement<br />

développée par Nérys sous<br />

LabVIEW, est mise en œuvre. La configuration<br />

d’un essai est généralement<br />

réalisée en atelier lors de la préparation<br />

et de l’instrumentation du véhicule.<br />

Elle est cependant accessible à<br />

tout PC du réseau sur lequel Vasco est<br />

installé.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 36


Spécial Acquisition de données<br />

<strong>Essais</strong> et Modelisation<br />

National Instruments<br />

repense son CompactRIO<br />

Alors que bon nombre d'entre nous étions sur les bords d'une<br />

plage ensoleillée, les équipes de National Instruments préparaient<br />

activement les nombreux lancements de la rentrée.<br />

Parmi les nouveautés de l'entreprise texane, le contrôleur<br />

cRIO-9068, qui, bien qu'entièrement repensé, garantit une<br />

parfaite compatibilité avec la plate-forme NI CompactRIO<br />

existante aussi bien au niveau de NI LabVIEW que des E/S.<br />

S'appuyant sur l'architecture LabVIEW RIO (E/S reconfigurables),<br />

le nouveau contrôleur CompactRIO permet d'accomplir<br />

toutes les tâches de contrôle et de surveillance embarqués<br />

tout en respectant les contraintes de coûts et de temps<br />

de développement. Les ingénieurs et scientifiques du monde<br />

entier utilisent la plate-forme CompactRIO pour construire<br />

des systèmes capables d'éteindre des incendies à bord<br />

des avions cargo, de générer de l'électricité grâce au vol de<br />

cerfs-volants attachés par un câble et de déverser avec précision<br />

20 tonnes de béton frais.<br />

L’essai est géré par le PC fixe de supervision (équipé de<br />

deux écrans pour le confort d’utilisation) mais peut également<br />

l’être d’un PC portable (si des essais doivent être réalisés<br />

chez un client par exemple). Un poste de suivi client<br />

permet de suivre l’essai en temps réel. Cela est également<br />

possible avec le PC portable, configuré de manière adéquate,<br />

pour suivre l’essai depuis l’intérieur du véhicule par<br />

exemple.<br />

Dans un souci de confidentialité des données, le poste de<br />

suivi client n’a accès qu’aux données relatives à l’essai en<br />

cours et aux informations autorisées par le superviseur. À<br />

la fin de l’essai, une boîte de dialogue permet d’effacer ou<br />

non l’ensemble des données Vasco enregistrées au cours<br />

de l’essai.<br />

Concernant l’acquisition centralisée des données, le principe<br />

est le suivant : chaque CompactRIO est connecté au<br />

réseau banc et écrit dans des variables partagées qui sont<br />

lues par le programme qui est exécuté sur le PC de supervision.<br />

Il n’y a pas de synchronisation entre les CompactRIO,<br />

c’est l’horodatage du PC qui est utilisé. Certaines<br />

parties du code développé pour les CompactRIO ont été<br />

déportées sur le FPGA. Un essai est cadencé par différentes<br />

séquences composées d’agencements et de points<br />

de fonctionnement. Il est possible d’en valider un, d’en<br />

ajouter, d’en supprimer ou d’en modifier pendant l’essai.<br />

Plusieurs types d’enregistrements<br />

Au lancement d’un essai, les paramètres équipement spécifiques<br />

(nom du client, référence du véhicule, modèle…)<br />

sont automatiquement enregistrés. Les données sont enregistrées<br />

sous plusieurs types de fichiers : les données<br />

brutes acquises, les données moyennées sur une seconde,<br />

les points de fonctionnement (enregistrement d’une unique<br />

valeur moyennée par voie à un moment précis) et le fichier<br />

servant au rafraîchissement des données affichées sur une<br />

page web sécurisée.<br />

Au cours de l’essai, si l’enregistrement est en cours, l’utilisateur<br />

a la possibilité de noter des événements qu’il aurait<br />

remarqués, et qui sont ensuite intégrés dans le fichier de<br />

données résultat. Après un essai, si des voies de calculs<br />

sont modifiées dans la configuration, il est possible de recalculer<br />

les voies en question. Il est également possible, en<br />

passant par un exécutable, de fusionner plusieurs fichiers de<br />

données ensemble.<br />

Importance de la gestion des défauts<br />

Le nombre de voies utilisées au cours d’un essai pouvant<br />

être relativement important, une fonction permet de remplacer<br />

les données d’une voie défectueuse par celles d’une<br />

voie dont les données sont correctes. Cela s’avère utile par<br />

exemple lorsqu’il y a un fil brisé sur un thermocouple, et que<br />

cette valeur (qui est alors la plage haute de mesure du thermocouple<br />

et non pas la valeur réelle) est un paramètre d’entrée<br />

d’un calcul.<br />

L’état de la connexion entre le PC de supervision et les CompactRIO<br />

est affiché dans une fenêtre qui apparaît automatiquement<br />

si une perte de connexion est survenue. Si, au<br />

cours de l’essai, une voie passe en alarme, des indicateurs<br />

lumineux en informent les utilisateurs. Ces informations<br />

mises à jour en temps réel permettent aux utilisateurs de réagir<br />

rapidement. L’utilisation de cette architecture modulaire<br />

permet d’adapter l’essai aux besoins propres à chaque client<br />

tout en préparant l’essai également spécifique du client suivant.<br />

Florent Duvinage (société Nérys)<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 37


L’interview<br />

Entretien<br />

Bernard Larquier – BEA Métrologie<br />

>> Directeur BEA Métrologie et trésorier du Collège Français de Métrologie (CFM)<br />

<strong>Essais</strong> & <strong>Simulations</strong><br />

Pouvez-vous vous présenter en<br />

quelques mots, ainsi que l'association<br />

à laquelle vous appartenez ?<br />

du CFM et du Congrès. Il préside aussi<br />

le comité d'organisation ; ce comité<br />

est la cheville ouvrière du Congrès<br />

International de Métrologie. Un comité<br />

scientifique le soutient dans le choix<br />

des conférences.<br />

Bernard Larquier<br />

Le Collège Français de Métrologie est<br />

une association dont les vocations<br />

multiples sont basées sur la diffusion<br />

des informations technologiques et des<br />

moyens pour les applications industrielles.<br />

Outre le Congrès International<br />

de Métrologie, l'association organise<br />

des journées techniques qui ont pour<br />

thèmes les incertitudes de mesure, les<br />

moyens de mesure tridimensionnelle,<br />

la mise en pratique des techniques<br />

d'étalonnage etc. Nous réalisons également<br />

des guides et des ouvrages<br />

destinés à améliorer les techniques<br />

de mesure, l'organisation de la formation<br />

dans ce domaine, mais aussi<br />

pour mener à bien un audit ou acquérir<br />

des pratiques de base. Une dizaine de<br />

guides ont été publiés à ce jour. Enfin,<br />

le CFM fait naturellement office de lieu<br />

d'échanges de bonnes pratiques et de<br />

retours d'expérience.<br />

Quant à moi, je dirige une société de<br />

prestations de mesure qui s'appelle<br />

BEA Métrologie et qui se situe dans la<br />

région bordelaise. Bordeaux est lieu<br />

important pour le Congrès International<br />

de Métrologie, le temps fort de<br />

l'association, puisque la première édition<br />

s'y est tenue il y a tout juste trente<br />

ans. Pour le rendre géographiquement<br />

plus accessible aux participants, le<br />

Congrès a désormais lieu uniquement<br />

à Paris. Je participe au comité d'organisation<br />

du Congrès depuis 1998 – je<br />

suis membre de l'association depuis<br />

1995. Aujourd’hui, je préside pour la<br />

première fois l'événement. Le président<br />

change régulièrement mais il a<br />

toujours une très bonne connaissance<br />

Justement, quels seront les moments<br />

forts de cette nouvelle édition<br />

?<br />

Pour la deuxième fois, le congrès (qui<br />

a lieu tous les deux ans) se tiendra en<br />

parallèle du salon Mesurexpovision<br />

(composante du salon Enova Paris<br />

qui comprend le Carrefour de l'électronique,<br />

Mesurexpovision & Village Métrologie,<br />

Opto et RF&Hyper – NDLR).<br />

Depuis près de deux ans – dès la fin<br />

de la précédente édition – nous travaillons<br />

sur l'organisation de cette nouvelle<br />

édition. Sur plus de 200 propositions<br />

de conférences, nous en avons<br />

retenu 180, à la fois sous forme orale<br />

et affichée (à travers des posters).<br />

Cette sélection de conférences, c'est<br />

le cœur du Congrès. L'objectif étant<br />

de permettre durant quatre jours à des<br />

industriels et des chercheurs de partager<br />

leurs connaissances. Nous espérons<br />

pour les 30 ans du Congrès (qui<br />

abritera le Village de Métrologie et une<br />

soixantaine de sociétés exposantes),<br />

passer la barre des mille congressistes<br />

issus d'une quarantaine de pays.<br />

Comment a évolué ce Congrès dans<br />

son contenu depuis trente ans ?<br />

Le Congrès International de Métrologie<br />

est aujourd’hui davantage orienté sur<br />

les échanges entre scientifiques et industriels.<br />

Au départ, et ce durant une<br />

vingtaine d'années, les présentations<br />

et les interventions étaient d'ordre<br />

scientifique ; il faut dire que les acteurs<br />

de la recherche fondamentale sont<br />

souvent plus volontaires pour proposer<br />

des conférences. Or on s'éloignait<br />

de plus en plus des industriels. C'est<br />

pourquoi nous avons décidé de créer<br />

des tables rondes depuis les quatre<br />

dernières éditions. Et cela marche bien<br />

en raison de leur portée sur les applications<br />

industrielles. De plus, les interventions<br />

– qu'elles soient orales ou affichées<br />

– sont équitablement réparties<br />

entre des thèmes scientifiques et des<br />

cas industriels. Enfin, en termes de calendrier<br />

des conférences, nous avons<br />

permis aux visiteurs – et tout particulièrement<br />

aux industriels qui ont souvent<br />

moins l'occasion de se déplacer toute<br />

la durée du salon – de ne venir qu'un<br />

ou deux jours en se focalisant toute<br />

une journée sur un thème en particulier.<br />

Un thème n'est donc plus réparti<br />

sur les quatre jours du Congrès.<br />

Quels thèmes seront abordés à<br />

l'occasion du Congrès de Métrologie<br />

2013 ?<br />

Les thèmes sont extrêmement variés.<br />

Notre volonté est de couvrir l'ensemble<br />

des domaines de la mesure que l'on<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 38


L’interview<br />

peut trouver dans l'industrie, y compris<br />

les domaines de métrologie plus particuliers<br />

comme la métrologie sensorielle.<br />

La grande tendance aujourd’hui<br />

concerne essentiellement la métrologie<br />

dans le secteur de la santé. Les<br />

questions de sécurité dans la santé,<br />

le management des risques et, d'une<br />

manière générale, la métrologie dans<br />

le médical (qui fera l'objet d'une table<br />

ronde), occupent une place croissante<br />

dans les métiers de la mesure. Le<br />

secteur bouge énormément, d'autant<br />

que les laboratoires d’analyses et de<br />

biologie médicale devront très prochainement<br />

être accrédités. Autre secteur<br />

en pleine croissance cette année, celui<br />

de l'agroalimentaire. Une table ronde<br />

sur la traçabilité des produits agroalimentaires<br />

(de la récolte à l'emballage<br />

en passant par l'élevage) aura lieu et<br />

montrera le rôle primordial de la mesure<br />

et les outils technologiques associés.<br />

Des domaines traditionnels<br />

comme l'électrique et la mécanique<br />

seront également représentés ; ces<br />

deux secteurs sont le cœur historique<br />

du Congrès.<br />

Quelle place occupe la question du<br />

recrutement au sein du prochain<br />

Congrès ?<br />

La Mesure au cœur des Métiers est<br />

un autre temps fort du Congrès International<br />

de Métrologie qui se présente<br />

comme une invitation à tous (écoles<br />

d'ingénieurs, universités, BTS etc.) à<br />

découvrir les métiers de la mesure.<br />

Tous ceux qui forment à ces professions<br />

expliqueront aux intéressés que<br />

la mesure et les techniques de métrologie<br />

sont essentielles aujourd’hui<br />

et que ces métiers ont un bel avenir<br />

devant eux. Pourtant, les industriels<br />

connaissent, à l'image d'autres secteurs,<br />

des problèmes de recrutement.<br />

L'une des raisons réside dans le fait<br />

que les professeurs parlent peu de ces<br />

filières à leurs élèves et les orientent<br />

davantage vers la conception. Or il est<br />

important de maîtriser les processus<br />

de mesure rattachés à la fabrication,<br />

chaque étape de la fabrication étant<br />

accompagnée de validation par des<br />

mesures adaptées, et ce jusqu'au produit<br />

final pour qu'il soit conforme aux<br />

attentes du consommateur. En cas<br />

d'accident notamment, il ne faut pas<br />

occulter le fait que l'expertise s'intéresse<br />

en priorité aux moyens de mesure<br />

qui ont servi à certifier le produit<br />

défectueux. Enfin, n'oublions pas que<br />

les outils de mesure aident à réduire<br />

les taux de rebuts et les coûts de revient,<br />

et à rendre les délais plus rapides.<br />

Où en est l'industrie dans le recours<br />

aux moyens de mesure ?<br />

Curriculum vitae<br />

Nous sommes encore loin d'une<br />

maturation. Il existe toujours un problème<br />

de compatibilité dans le process<br />

de fabrication ; celui-ci génère<br />

d’ailleurs beaucoup de difficultés<br />

avec les clients. Une des pistes majeures<br />

pour résoudre ce problème<br />

est la maîtrise du process de mesure,<br />

comme cela se pratique dans l'aéronautique,<br />

le médical sans oublier<br />

l'automobile bien sûr ; ce secteur a<br />

d'ailleurs été la première industrie<br />

à réfléchir sur la mesure à grande<br />

échelle à l'aide d'outils statistiques.<br />

Un autre secteur (dont nous avons<br />

parlé précédemment) nous surprend<br />

– agréablement – beaucoup : celui<br />

de la santé. Bon nombre de problèmes<br />

intervenant dans ce domaine<br />

d'activité sont souvent liés à des mesures<br />

non maîtrisées qui peuvent<br />

induire des erreurs de diagnostic.<br />

Ainsi, les progrès ont été considérables<br />

ces dernières années. Autre<br />

secteur porteur d'innovations, celui<br />

des nanotechnologies. Cela correspond<br />

à un besoin évident : nous fabriquons<br />

des choses que l'on ne sait<br />

toujours pas mesurer ! La métrologie<br />

a, dans ce domaine particulier, un<br />

avenir certain. Mais dans le reste<br />

de l'industrie, on ne constate qu'une<br />

succession de progrès, d'améliorations<br />

; certes intéressantes mais pas<br />

d'innovations majeures.<br />

Et dans le domaine des essais,<br />

quelle place occupe la mesure ?<br />

Le secteur des essais n'est plus fermé<br />

à la mesure. Il est en train de découvrir<br />

la force de la métrologie. Or<br />

jusqu'à présent, on ne faisait uniquement<br />

que des essais, mais lorsque<br />

l'on réalise des essais de traction, on<br />

a besoin de moyens de métrologie<br />

fiables. À partir de là, on a constaté<br />

qu'on est passé du postulat « l'essai<br />

est validé ou il ne l'est pas » à des<br />

conclusions moins catégoriques ;<br />

car lorsque l'on effectue des essais<br />

non destructifs, on pousse l'analyse<br />

plus loin. Les organismes prennent<br />

d'ailleurs davantage conscience de<br />

l'importance de la métrologie dans<br />

les essais physiques et mécaniques.<br />

Les essais ont besoin de la métrologie<br />

car dans chaque essai, on doit<br />

savoir évaluer les risques associés<br />

à l'essai, soit en interne, soit par le<br />

biais d'un prestataire.<br />

Propos recueillis par Olivier Guillon<br />

Né le 24 août 1959 à Bordeaux, Bernard Larquier est ingénieur Cesti-Supmeca,<br />

école d’ingénieur généraliste avec une dominante mécanique. Il effectue<br />

l'essentiel de son parcours professionnel au sein de la société BEA Métrologie<br />

qu'il a créée en 1985. Bernard Larquier est également président d’une association<br />

aquitaine de métrologie, le Pôle Aquitain de Métrologie et est la président<br />

d’honneur du MFQ Aquitaine (Mouvement français pour la qualité).<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 39


Dossier<br />

Incertitudes de mesure<br />

Préface<br />

Maîtriser les incertitudes<br />

en matière d’essais et de simulations<br />

Pour nombre de lecteurs concernés par la revue <strong>Essais</strong> & <strong>Simulations</strong>, le vocable « incertitude<br />

» reste associé à la métrologie et aux « erreurs » de mesure. S’il est vrai que cette<br />

interprétation renvoie à une longue histoire, il convient aujourd’hui de la dépasser. En effet,<br />

l’évolution des performances des moyens d’essais (mécaniques, climatiques,…), de mesure<br />

(capteurs de grandeurs physiques) et de traitement de l’information (algorithmes et logiciels),<br />

se traduit par un accroissement significatif de la « précision » des résultats expérimentaux.<br />

Sur des sites industriels ou lors de la mise en œuvre de grands moyens d’essais, on peut<br />

obtenir des précisions qui relevaient antérieurement du laboratoire.<br />

Ce contexte justifie que l’estimation des erreurs de mesure devienne une préocccupation<br />

industrielle intimement liée à la pratique de l’ingénieur.<br />

De plus, cette problématique tend à s’écarter du domaine métrologique, par une prise en<br />

compte de l’incertitude au sens le plus large du terme : des faibles incertitudes instrumentales<br />

aux grandes incertitudes de prévision, en passant par les incertitudes de modélisation ou de<br />

simulation. Cette extension conceptuelle ne va pas sans difficulté puisqu’elle nécessite de<br />

maîtriser un ensemble de disciplines dont la réunion est loin d’être évidente : statistique mathématique, théorie des<br />

probabilités, processus stochastiques, modélisations physique et mathématique, théories de la mesure et des modèles,<br />

simulation numérique, etc.<br />

Comme il serait irréaliste de vouloir traiter de manière exhaustive un aussi vaste sujet, ce dossier se limite à cinq articles<br />

successifs dont chacun vise à illustrer un ou plusieurs aspects différents de cette problématique.<br />

Dans les deux premiers, leurs auteurs montrent comment la mise en œuvre conjointe de plusieurs techniques permet<br />

d’aboutir à une maîtrise efficace des incertitudes expérimentales.<br />

Le premier article concerne la mesure d’un débit d’eau chaude réalisée dans un environnement d’accès difficile. Une<br />

méthode de calibration précise a été mise au point en couplant des résultats expérimentaux (maquette à échelle réduite<br />

du processus) et des résultats de simulation (code de calcul numérique).<br />

Comme le montre le second article, la mesure de courants marins nécessite d’estimer certains facteurs d’influence à<br />

l’aide de capteurs additionnels. Une plateforme d’étalonnage spécifique à été mise au point, permettant de valider une<br />

procédure de correction semi-analytique des incertitudes affectant ces capteurs.<br />

Alors que ces deux premiers articles considèrent des incertitudes gaussiennes, les deux derniers sortent de ce cadre<br />

habituel et abordent des aspects plus théoriques.<br />

Le troisième article réalise une transition entre ces deux parties, le respect de tolérances très étroites amenant l’auteur<br />

à considérer des incertitudes non gaussiennes et à développer sur ces bases une méthode statistique d’estimation de<br />

la conformité du processus de mesure de la microrugosité de pièces mécaniques.<br />

Dans la réalité, les incertitudes relatives ne sont pas toujours faibles et gaussiennes mais distribuées suivant des lois<br />

bornées, de même que l’effectif des observations est souvent réduit. Une approche analytique est alors impossible, ce<br />

qui a conduit les auteurs du quatrième article à utiliser la méthode de simulation de Monte Carlo en vue d’obtenir des<br />

résultats utiles relatifs à plusieurs distributions symétriques et bornées souvent rencontrées dans la pratique.<br />

Le cinquième et dernier article vise à montrer que l’incertitude est inhérente aux approches de fiabilité du type résistance-contrainte<br />

et que, dans un cas précis d’interaction probabiliste, de faibles incertitudes paramétriques affectent<br />

significativement la validité des prévisions de défaillance.<br />

Je tiens à remercier vivement les auteurs pour leurs contributions à ce dossier élaboré en période de vacances caniculaires.<br />

Lambert Pierrat<br />

LJ-Consulting & LJK-LAB<br />

Grenoble<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 40


Dossier<br />

Compte tenu du caractère international<br />

des secteurs abordés, certains articles<br />

sont écrits et publiés en anglais.<br />

Incertitudes de mesure<br />

Reactor Coolant System<br />

Uncertainty of a RCS FLOW Measurement :<br />

joint use of experiments and CFD<br />

For safety reasons, reactor coolant system (RCS) flows in nuclear power plants have to be maintained<br />

between a high and a low limit. The current measurement uncertainty is impacted by the heterogeneity<br />

of the RCS fluid temperature. The objective of the present study is to use existing plant elbow taps<br />

(differential pressure measurement) to measure accurately and absolutely the RCS flow continuously<br />

and independently of the temperature measurement. Computational Fluid Dynamic (CFD) simulations<br />

are used to find out a calibration coefficient for the method. An uncertainty calculation is performed.<br />

This innovative method was tested on actual data issued from French nuclear power plants.<br />

1. INTRODUCTION<br />

EDF (the French Electricity Generation<br />

company) operates 58<br />

PWR-type nuclear units: 34 units<br />

of 900MWe 3-loopers, 20 units of<br />

1,300MWe 4-loopers, 4 units of<br />

1,450MWe 4-loopers. Safety is the<br />

main concern for plant operation:<br />

thus accurate calibration and monitoring<br />

of the primary system operation<br />

setpoint are of highest importance.<br />

As is well known the RCS<br />

(Reactor Coolant System) on the<br />

primary side is equipped with limited<br />

instrumentation for temperature,<br />

flow, and power: thus reliability of<br />

these measurements is a key requirement,<br />

based on adequate monitoring<br />

methods. Among these parameters,<br />

RCS flow (loop flow, and global<br />

reactor coolant flow) is to meet specific<br />

requirements: RCS flow has<br />

Résumé<br />

Pour des raisons de sûreté, le débit primaire des centrales nucléaires doit<br />

rester entre une limite haute et une limite basse. L’incertitude de la mesure<br />

actuelle est impactée par l’hétérogénéité de température du fluide primaire.<br />

L’objectif de cette étude est d’utiliser les mesures de delta de pression existantes<br />

dans certains coudes de centrales nucléaires pour mesurer en absolu<br />

et précisément le débit primaire, sans que des mesures de température<br />

du fluide primaire ne soient nécessaires. La simulation de mécanique<br />

des fluides (CFD) est utilisée pour déterminer un coefficient d’étalonnage<br />

de la méthode. Un calcul d’incertitude est alors réalisé. Cette méthode innovante<br />

de mesure de débit primaire a été testée sur des données réelles<br />

de centrales nucléaires.<br />

Mots-Clé : Système de refroidissement, mesure de débit, coefficient de<br />

calibration, simulation mécanique fluides, boucle d’essai, modèle réduit,<br />

analyse de sensibilité, calcul d’incertitude ;<br />

Key –Words<br />

Reactor Coolant System, flow<br />

rate measurement, calibration<br />

coefficient, Computational<br />

Fluid Dynamic, test loop, scale<br />

model, sensitivity analysis,<br />

uncertainty calculation;<br />

to be accurately checked between<br />

a high and a low limit (low limit for<br />

fuel integrity, and high limit for potential<br />

vessel mechanical effects).<br />

Currently RCS flow measurement is<br />

performed with an indirect method<br />

(heat balance between primary and<br />

secondary systems), called RCP114<br />

(performed once at the beginning<br />

of the cycle at full load): thus accuracy<br />

of the measurements of RCS<br />

temperatures on hot and cold legs<br />

is the main uncertainty contribution.<br />

Because of the measurement technology,<br />

uncertainty of the sensors<br />

themselves is not the main parameter.<br />

Hot leg temperature is measured<br />

in a bypass loop fed by extraction of<br />

a small flow of the RCS fluid through<br />

three scoops: it follows that the T hot<br />

measurement is impacted by this<br />

imperfect sampling of the heterogeneous<br />

RCS fluid (distribution of hot<br />

and cold streams from reactor core).<br />

This heterogeneous distribution of<br />

hot and cold streams is partially due<br />

to the core loading pattern: in recent<br />

years this loading pattern has been<br />

optimized with particular repartition<br />

of the fuel rods in order to limit the<br />

neutron flux on the reactor vessel to<br />

protect its lifetime. Thus emergence<br />

of alternative RCS flow measurement<br />

technologies independent of<br />

the heat balance method may generate<br />

interest. A real-time monitoring<br />

system of relative RCS flow exists in<br />

order to rapidly detect primary coolant<br />

pump failure (rotor breakup or<br />

inopportune pump stop). This device<br />

uses elbow taps located on each<br />

RCS loop between outlet of steam<br />

generator and inlet of primary pump.<br />

Of course the elbow tap calibration<br />

with the heat balance method cannot<br />

provide a better accuracy than<br />

the heat balance method itself: the<br />

study hereafter presented aims at<br />

developing and evaluating techniques<br />

to investigate possible use<br />

of the existing plant elbow taps to<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 41


Dossier<br />

Incertitudes de mesure<br />

accurately and absolutely measure<br />

RCS flow, both continuously and<br />

independently of the loop temperature<br />

measurements. The original approach<br />

mingles both CFD simulation<br />

and experimental test on a scale flow<br />

bench. CFD is able to predict the elbow<br />

tap coefficient with a relevant<br />

value (with potential bias as small as<br />

possible) and associated accuracy,<br />

smaller than that of the heat balance<br />

method.<br />

2. ELBOW TAP TECHNOLOGY FOR<br />

FLOW MEASUREMENT<br />

2.1. Method Description<br />

Studies and scientific literature<br />

already exist about the possibility<br />

to measure a flow in a pipe elbow<br />

[CRA-09] [MIL-76]. This method,<br />

called elbow tap, is considered as a<br />

differential pressure primary device.<br />

Indeed the square root of the differential<br />

pressure between the flow<br />

going along the inner section of the<br />

elbow and the flow going along the<br />

outer section of the elbow is in principle<br />

proportional to the flow rate.<br />

Different factors have an influence<br />

on the relation between the square<br />

root of the differential pressure and<br />

the flow rate.<br />

In order to develop an accurate elbow<br />

tap method applied to RCS flow<br />

measurement (see the pipe elbow<br />

on Figure1), it is important to identify<br />

the most influential factors in the<br />

Figure 1: Elbow tap pressure lines on a<br />

RCS pipe in a nuclear power plant loop<br />

mathematical formula. In order to<br />

build this formula, linking the square<br />

root of the differential pressure and<br />

the flow rate, the flow is assumed to<br />

be inviscid (i.e. an ideal fluid with no<br />

viscosity). Then the Euler equation<br />

over a radial axis can be written:<br />

(1)<br />

In a first approach, the following basic<br />

assumptions are made:<br />

the velocity of the fluid is uniform<br />

over the whole cross section: vθ<br />

(r)=V,<br />

the pipe diameter is much lower than<br />

its radius of curvature.<br />

It is therefore possible to integrate<br />

the Euler equation over a diameter.<br />

This gives the following mathematical<br />

equation where both the flow rate<br />

and the differential pressure appear:<br />

(2)<br />

This equation is true in an ideal<br />

case. In real conditions, this one can<br />

be approximated with equation (3).<br />

The “K” coefficient still depends on<br />

the flow condition, where “K” is close<br />

to 10π/4 with a correction factor resulting<br />

from the real flow conditions.<br />

At operating conditions, the fluid<br />

temperature is around 289°C, the<br />

pressure is 155bar and the flow is<br />

very turbulent.<br />

(3)<br />

2.2 Elbow tap for RCS flow measurement<br />

Equation (3) used by EDF R&D requires<br />

the knowledge of a «K» coefficient.<br />

This coefficient can be seen<br />

as a calibrating coefficient. Even if<br />

some influence factors appear directly<br />

in the formula, the “K” coefficient<br />

may still depend on flow conditions<br />

such as the inlet velocity profile of the<br />

flow, the fluid temperature, the exact<br />

geometry of the pipe elbow, etc. So<br />

the “K” coefficient is not exactly a<br />

«universal» constant and may vary<br />

in accordance with the conditions of<br />

the flow change. The aim of the calibration<br />

of equation (3) is to figure<br />

out a value for this coefficient as<br />

relevant as possible for a RCS flow<br />

measurement in terms of exactness<br />

and uncertainty. EDF R&D has developed<br />

a methodology in order to<br />

achieve that.<br />

EDF owns a varied range of data<br />

that can help the study of this “K”<br />

coefficient. Those data come from<br />

the following sources:<br />

measurements from nuclear power<br />

plants (EDF owns and operates 58<br />

PWRs, see above),<br />

experiments on a 1/4 scale model<br />

flow test loop, called EVEREST,<br />

where the flow rate, the temperature<br />

of the fluid and the pressure of<br />

the fluid are lower than those of real<br />

plant operation condition (see the<br />

section concerning the experimentation<br />

on a scale model),<br />

simulation from a CFD code developed<br />

by EDF (this open-source<br />

code is named: Code_Saturne®);<br />

The conclusions that can be made<br />

from those sources are different.<br />

Indeed to compute out the “K” coefficient<br />

from the nuclear plants measurements,<br />

a reference value of the<br />

RCS flow rate is required. But the<br />

unique current method to get the<br />

RCS flow rate value is the RCP114,<br />

which is the method we want to improve.<br />

Since the RCS pump curve<br />

may evolve during the plant life, the<br />

pump Δp flow rate measurement.<br />

EVEREST is a 1/4 scale model<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 42


Dossier<br />

Incertitudes de mesure<br />

test bench where inlet parameters<br />

are lower than real values. Getting<br />

conclusions from those experiments<br />

only may not be relevant enough. So<br />

the methodology developed by EDF<br />

R&D to find out the value for the K<br />

coefficient consists in doing some<br />

simulations with Code_Saturne®<br />

[ARC-04]. The real measurements<br />

on-site and the experiments on EVE-<br />

REST will be used to validate the<br />

method and to carry out the accuracy<br />

calculation.<br />

2.3 A four step methodology<br />

The first step of the methodology<br />

consists in creating a pipe computational<br />

domain that is adequate<br />

enough to represent the RCS flow.<br />

The computational domain represents<br />

the outlet water box of the<br />

steam generator and the 40° pipe<br />

elbow following. It is important to<br />

model the water box because its effect<br />

on the flow may be important.<br />

The computational grid must have<br />

at least two millions cells to ensure<br />

the mesh convergence and can be<br />

conforming or non-conforming. The<br />

mesh convergence was studied with<br />

different grids containing one million,<br />

two millions and four millions cells.<br />

The main flow characteristics and<br />

the pressure values stop evolving<br />

from a two millions cells simulation<br />

to a four million cells simulation.<br />

Thus two millions cells are enough<br />

for this study.<br />

The second step consists in defining<br />

the parameters of the simulation.<br />

One important choice regards the<br />

turbulence model. A LES model is<br />

much time consuming and cannot<br />

be applied with such a complex flow.<br />

So the right choice is to use a RANS<br />

model. Different RANS models have<br />

been developed such as k ϵ<br />

or k (1)<br />

,<br />

first order models, or R ij<br />

SSG, second<br />

order model. Numerical experiments<br />

have been performed from<br />

which it seems that the standard<br />

Figure 2: CFD of the RCS flow<br />

kϵ model is not precise enough for<br />

our purpose and that the R ij<br />

SSG do<br />

not improve that much the results<br />

but is more time consuming. So the<br />

turbulence model SST k (1)<br />

has been<br />

chosen for this study. Finally the inlet<br />

values have to be specified such<br />

as the velocity of the fluid at the inlet<br />

of the water box (supposed to be<br />

constant and uniform), the density of<br />

the fluid, the viscosity of the fluid, etc.<br />

Those values can be evaluated from<br />

the operating condition of a nuclear<br />

power plant. For a French 1,450MW<br />

PWR, those operating conditions are<br />

a cold leg temperature of 289°C, a<br />

pressure of 155 bar and a flow rate<br />

of 24,840 m3h-1.<br />

The third step is then the simulation.<br />

The time resolution of the simulation<br />

has to be quite small, 10 -2s in this study.<br />

The simulation is well converged<br />

after 2,000 to 3,000 iterations. A picture<br />

of the global geometry of the<br />

pipe and the simulation can be seen<br />

on Figure 2.<br />

The fourth and final step is the<br />

post-processing of the results. The<br />

CFD gives the pressure field in<br />

the whole domain. Thus it is now<br />

possible to get the pressure in the<br />

different tap locations. Then a K<br />

coefficient can be computed using<br />

equation (4) since the last unknown<br />

was the differential pressure (the<br />

(4)<br />

flow rate being an inlet parameter<br />

of the simulation).<br />

Eventually four “K” coefficients<br />

are computed from<br />

the four differential pressures:<br />

one for each tap of<br />

the inner surface. The four<br />

differential pressures are<br />

directly taken from the CFD<br />

results. A patent has protected<br />

this methodology since<br />

July 2011 [DEN-11]. Since<br />

measuring a flow rate from an elbow<br />

tap is not innovative, the patent<br />

is based on the calibrating process,<br />

using CFD, for measuring an industrial<br />

flow rate with high accuracy.<br />

3. UNCERTAINTY QUANTIFICA-<br />

TION OF “K” COEFFICIENT<br />

As described in a large number of<br />

publications, the uncertainty quantification<br />

in CFD is based on identification<br />

and estimation of the effects<br />

of all sources of uncertainty. A well<br />

accepted technique is the V&V<br />

[OBE-00] method that defines Verification<br />

as the activity to evaluate the<br />

numerical error, and Validation as<br />

the activity to evaluate physical uncertainties.<br />

Inspired on V&V, EDF’s<br />

method consists of the identification<br />

and characterization of each source<br />

of uncertainty. Then different groups<br />

are defined and a method for its estimation<br />

is applied. The choice of<br />

a realistic method for each uncertainty<br />

source is based on available<br />

data at EDF: actual measurements<br />

from PWRs and experimental data<br />

on a 1/4 scale model flow test loop.<br />

Some sources have been identified<br />

but neglected because not significant,<br />

and the others identified and<br />

estimated with a conservatism approach<br />

for safety reasons. The last<br />

step consists of estimating the total<br />

uncertainty of the “K” coefficient.<br />

Combined uncertainty is calculated<br />

with conservative hypotheses. The<br />

quadratic summation also known as<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 43


Dossier<br />

Incertitudes de mesure<br />

‘root sum of the squares’ is reasonable<br />

in this instance as described<br />

further.<br />

Figure 3: 1/4 scale mock-up in flow test<br />

loop EVEREST<br />

3.1. Characterization and estimation<br />

of uncertainty sources<br />

Identification step provides a list of<br />

uncertainty sources:<br />

• physical model,<br />

• time and space discretization,<br />

• input data,<br />

• iterative convergence,<br />

• round-off,<br />

• computer programming;<br />

From this large but not exhaustive<br />

list, the physical model and<br />

the space discretization source are<br />

evaluated as a unique source. First,<br />

because all of them have a common<br />

origin: simplifications from real phenomenon.<br />

Turbulence model, boundary<br />

conditions, physical properties<br />

Figure 4: “K” coefficient vs. Reynolds number<br />

and geometry are considered on this<br />

group. On the other hand no affordable<br />

method exists (in terms of time<br />

calculation). Thus estimation of uncertainty<br />

is made by 1/4 scale model<br />

data comparison. EDF R&D operates<br />

its own flow test loop (with a<br />

±0.4 % flowmeter) where a 1/4 scale<br />

model is installed (see Figure 3).<br />

Using equation (4), an experimental<br />

“K” coefficient can be calculated<br />

accurately. Then the mean deviation<br />

between experimental and CFD, “K”<br />

coefficients are calculated for various<br />

flow rates. A normal (or Gaussian)<br />

distribution is chosen to cover amply<br />

“K” coefficient deviation data. For extrapolating<br />

from 1/4 scale to full scale<br />

model an analysis based on a dynamic<br />

similitude law is made. For the<br />

same Reynolds number (2.106) two<br />

simulations are made, the first one at<br />

1/4 scale conditions (temperature of<br />

26 °C and D=0.2m) and the second<br />

one at full scale conditions (temperature<br />

of 289 °C and D=0.78m).<br />

Results show that “K” coefficients<br />

are comparable. The second part of<br />

this analysis is the evolution of “K”<br />

coefficient vs. Reynolds number for<br />

scaled and full model (see Figure 4):<br />

“K” coefficient is quite stable and no<br />

important dependencies exist.<br />

Regarding input data, EDF R&D<br />

evaluates its influence by a sensitivity<br />

test of the velocity and the temperature<br />

inputs. Taking advantage<br />

of actual measurements from PWR,<br />

three levels for CFD input data are<br />

chosen. First a nominal value (T nom<br />

and V nom<br />

) is defined based on nominal<br />

operating<br />

conditions. Then<br />

minimum and<br />

maximum values<br />

are defined from<br />

safety limits. Finally<br />

CFD simulations<br />

are executed<br />

for different combinations<br />

of levels<br />

(T min<br />

/ V max<br />

, T max<br />

/<br />

V min<br />

, etc.). Results are analyzed by<br />

a statistical approach. A mean value<br />

and a standard deviation are calculated<br />

based on a normal distribution<br />

(conventional coverage factor of 2σ).<br />

As said above, “K” coefficient is computed<br />

using equation (4) where the<br />

differential pressure is taken from<br />

simulations results. “K” coefficient<br />

varies lightly as a function of sampling<br />

number used for calculation.<br />

Analyze of all CFD results permits to<br />

choose an optimal sampling number.<br />

Variations of differential pressure are<br />

computed for the last 500 iterations<br />

where convergence is guaranteed.<br />

Once more an average and standard<br />

deviation is calculated from the last<br />

500 iterations via normal distribution<br />

method. For round-off and computer<br />

programming uncertainty sources<br />

are insignificant and not considered<br />

in this study.<br />

Uncertainty estimation, as shown<br />

above, deals only with differential<br />

pressure calculation from equation<br />

(4) due to CFD errors. Thermal expansion<br />

might also have an effect<br />

on “K” coefficient uncertainty due to<br />

temperature difference, from 25°C to<br />

289°C. Based on well-know coefficient<br />

of thermal expansion for stainless<br />

steel, an estimation is done for<br />

“K” coefficient for low and nominal<br />

operating temperatures. Results<br />

show the effect is small but not negligible:<br />

deviation reaches 1 %.<br />

3.2. Estimation of uncertainty<br />

budget<br />

Physical model and discretization<br />

uncertainty represent systematic error<br />

that might be corrected when reference<br />

values are available. In this<br />

case that’s not possible because the<br />

bias is known only for scaled model.<br />

Input data uncertainty represents a<br />

random error that must be related<br />

to physical model and discretization<br />

uncertainty. Those uncertainty<br />

sources are not independent and<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 44


Dossier<br />

Incertitudes de mesure<br />

covariances must also be taken into<br />

account when calculating the combined<br />

uncertainty.<br />

Uncertainties due to iterative convergence<br />

and thermal expansion are<br />

mutually independents and can be<br />

combined by quadratic summation<br />

method. Uncertainty budget is finally<br />

expressed as:<br />

(5)<br />

Acknowledgements<br />

This study was a collaborative work involving various EDF teams: the authors<br />

are grateful for the help and contribution of both STEP department<br />

(scale model experiments and uncertainty method) and MFEE department<br />

(CFD expertise) from the EDF R&D as well as nuclear operators who provided<br />

essential plant data.<br />

Note: an extended version of this paper has been accepted for presentation<br />

at the International Congress of Metrology [DEN-13]<br />

where:<br />

σ total<br />

uncertainty budget of K coefficient;<br />

σ inp<br />

uncertainty of inputs data;<br />

σ mod<br />

uncertainty of physical model<br />

and space discretization;<br />

σ conv<br />

uncertainty due to iterative<br />

convergence;<br />

σ ther<br />

uncertainty due to thermal expansion;<br />

4. CONCLUSION<br />

The current method to calculate RCS<br />

flow rate in nuclear power plants can<br />

be influenced by the temperature<br />

heterogeneity in the hot leg of the<br />

primary loop. A method using the<br />

existing elbow taps at the outlet of<br />

the steam generator should be able<br />

to solve this issue. EDF R&D has<br />

developed a new method in order to<br />

get a continuous, accurate and absolute<br />

measurement of the RCS flow<br />

rates that is independent of the loop<br />

temperature measurements.<br />

Once known, the uncertainty of the<br />

K coefficient, from the equation (3),<br />

can be used to calculate the global<br />

uncertainty of the flow rate measurement.<br />

Due to the redundancy of the<br />

differential pressures on PWRs, the<br />

global uncertainty of the method is<br />

below 3%. Thus this RCS flow measurement<br />

is more accurate than the<br />

RCP114. Real tests were performed<br />

on the Civaux plant (two 4-looper<br />

1,450MW units). All measurements<br />

are coherent with the RCP114 flow<br />

rate. This can be considered as a<br />

first validation of the method.<br />

Due to its generic character, such<br />

a methodology could be advantageously<br />

used in other application<br />

fields.<br />

Olivier Deneux 1 and Mario Arenas 1<br />

1EDF R&D, STEP Department, 6 quai<br />

Watier, 78401 Chatou, France<br />

Références<br />

[ARC-04] F. Archambeau, N. Méchitoua, and M. Sakiz, “Code_Saturne: a Finite Volume Code for the Computation of<br />

Turbulent Incompressible Flows”, International Journal on Finite Volumes, Vol. 1, 2004<br />

[CRA-09] M. A. Crabtree, “Industrial Flow Measurement”, Master’s thesis, University of Huddersfield, 2009<br />

[DEN-11] O. Deneux, J. M. Favennec, and J. Veau, “Suivi de débit dans une conduite hydraulique fermée”, patent INPI<br />

n° 1156689, 2011<br />

[DEN-13] O. Deneux , M. Arenas, “CFD and Metrology in Flowmetering: RCS Flow Measurement with Elbow Taps and<br />

its Uncertainty”, Accepted for presentation at the 16 th International Congress of Metrology, S2 Session, Paris, France.<br />

October 2013.<br />

[GUM-100] GUM : “Evaluation of measurement data-Guide to the expression of uncertainty in measurement”, JCGM<br />

100. 2008<br />

[MIL-76] R.W. Miller, “Flow Measurement Engineering Handbook”, 1976<br />

[OBE-00] W.L. Oberkampf, T.G. Trucano, “Validation Methodology in Computational Fluid Dynamics”, Sandia National<br />

Laboratories, 2000<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 45


Dossier<br />

Incertitudes de mesure<br />

Effet Doppler<br />

Correction des erreurs angulaires issues de mesures<br />

de courants marins basées sur l'effet Doppler<br />

La vitesse et la direction des courants marins peuvent être mesurées avec des “courantomètres” ou<br />

des “profileurs” acoustiques basés sur l’effet Doppler, nommés ADP ou ADCP (Acoustic Doppler Current<br />

Profiler). Ces instruments sont installés sur des supports mobiles ou fixes (bateaux, cages ou<br />

lignes de mouillage), et il est nécessaire de corriger leurs mesures en fonction de leur orientation (ou<br />

cap), du roulis et du tangage, afin de les interpréter dans un référentiel terrestre. Pour cela, ils sont<br />

équipés de compas magnétiques et de capteurs d’inclinaison. Mais les compas sont sensibles à leur<br />

environnement magnétique et donc, leur étalonnage doit être réalisé dans leur configuration de mesure.<br />

Dans ce but, une plateforme d’étalonnage spécifique a été conçue et réalisée, permettant de<br />

définir une procédure de correction des données issues des compas magnétiques et des capteurs<br />

d’inclinaison. Les résultats obtenus montrent que les incertitudes finales sont incluses dans les faibles<br />

intervalles de tolérances assignés.<br />

1. INTRODUCTION & OBJECTIFS<br />

Abstract<br />

Speed and direction of sea currents can be measured with currentmeters<br />

or profilers based on the Doppler effect, called ADP or ADCP (Acoustic<br />

Doppler Current Profilers). These instruments are installed on mobile or<br />

steady supports (carriers, mooring cages or lines), and it is necessary to<br />

correct the measured data in heading, roll and pitch, in order to interpret<br />

them in a terrestrial referential. In this way, ADP and ADCP are equipped<br />

with magnetic compass and tilt sensors. But compass are sensible to their<br />

magnetic environment and then their calibration must be realised in their<br />

configuration of measurement. In this aim, a specific calibration platform<br />

has been designed and carried out, that permits to define a correction<br />

procedure of the measured values issued from the magnetic compass and<br />

tilt sensors. According to the test results, the final uncertainties are within<br />

low assigned tolerances.<br />

Key-Words: sea current, profiler, effect Doppler, magnetic compass, tilt<br />

sensor, angular errors, calibration, correction procedure, uncertainty estimation;<br />

Jusqu’au début des années 2000,<br />

vitesse et direction des courants<br />

d’eau (mer et fleuves) étaient mesurées<br />

avec des courantomètres mécaniques.<br />

Ceux-ci ont été remplacés<br />

progressivement par des instruments<br />

basés sur des techniques acoustiques<br />

utilisant l’effet Doppler. Les<br />

courantomètres effectuent cette mesure<br />

dans une tranche d’eau située<br />

à quelques dizaines de centimètres<br />

de l’émetteur, par l’envoi d’impulsions<br />

et l’écoute de leurs échos. Les<br />

profileurs Doppler nommés selon les<br />

fabricants ADP ou ADCP (« Acoustic<br />

Doppler Current Profiler »), réalisent<br />

la même opération mais dans<br />

des tranches d’eau successives réparties<br />

sur une plus grande distance<br />

(de quelques mètres à plusieurs<br />

centaines de mètres), selon leur<br />

fréquence d’émission et la composition<br />

particulaire du milieu [1]. Ce<br />

sont des instruments qui permettent<br />

la mesure des courants marins ainsi<br />

que l’estimation du débit des fleuves<br />

et des rivières. Les ADCP peuvent<br />

être fixés sous la coque des bateaux,<br />

ce qui permet d’accéder rapidement<br />

aux sections de vitesse de<br />

déplacement des masses d’eau, sur<br />

des cages de mouillage déposées<br />

sur le fond ou sur des cages que l’on<br />

Mots-clé<br />

courant marin, profileur, effet<br />

Doppler, compas magnétique,<br />

capteur d’inclinaison, erreurs<br />

angulaires, étalonnage, procédure<br />

de correction, estimation<br />

d’incertitude ;<br />

descend à l’aide d’un treuil (technique<br />

du LAD pour Lowered ADcp)<br />

et, plus rarement, sur des lignes de<br />

mouillage. Dans tous les cas, il est<br />

nécessaire de retrouver la direction<br />

des courants, d’abord par rapport<br />

au Nord magnétique puis par rapport<br />

au Nord géographique. Cette opération<br />

est réalisée à l’aide d’un compas<br />

magnétique inclus dans l’instrument.<br />

Pour compenser les angles<br />

que peuvent prendre le compas et le<br />

courantomètre par rapport à la verticale,<br />

ils sont dotés d’un capteur d’inclinaison<br />

additionnel (« tilt sensor »).<br />

Compas et capteurs d’inclinaison<br />

étant rarement étalonnés, leurs<br />

biais ne sont pas corrigés car cette<br />

opération nécessite une maîtrise<br />

de l’environnement électromagnétique,<br />

les compas y étant sensibles,<br />

comme décrit théoriquement par<br />

D. Gebre-Egziabher et al. [2]. Pour<br />

répondre à ce besoin, suite à une<br />

technique expérimentée en 2007<br />

[3], nous avons développé et mis au<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 46


Dossier<br />

Incertitudes de mesure<br />

point une plateforme d’étalonnage<br />

des compas et capteurs d’inclinaison<br />

des courantomètres et ADCP montés<br />

dans leurs cages de mouillage.<br />

La réalisation des premiers tests a<br />

permis d’établir un bilan des incertitudes<br />

affectant les angles et directions<br />

de référence et d’adopter une<br />

méthode de correction des compas<br />

basée sur leur sensibilité à la nature<br />

des matériaux magnétiques « durs »<br />

et « doux » qui les entourent.<br />

2. ADP & ADCP : PRINCIPES & IN-<br />

CERTITUDES<br />

2.1. Principe de fonctionnement<br />

Courantomètres et profilométres<br />

mesurent des vitesses (V 1<br />

, V 2<br />

, V 3<br />

)<br />

dans l’axe de leurs faisceaux. Leurs<br />

émetteurs sont généralement inclinés<br />

d’un angle β égal à 20°, 25° ou<br />

30°, valeur pouvant être choisie par<br />

l’utilisateur selon qu’il privilégie la<br />

portée ou l’incertitude des mesures<br />

qui décroit quand β augmente.<br />

Connaissant cet angle d’inclinaison<br />

on peut calculer des vitesses (V x<br />

, V y<br />

,<br />

V z<br />

) dans leur propre repère à l’aide<br />

d’une matrice de transformation [4]<br />

du type:<br />

(1)<br />

Des compas magnétiques de type «<br />

flux gate» permettent de retrouver la<br />

valeur des courants (V tx<br />

, V ty<br />

, V tz<br />

) par<br />

rapport au Nord magnétique (angle<br />

de cap Ω), puis par rapport au Nord<br />

géographique. Les angles de roulis<br />

et de tangage (Ψ,θ) sont mesurés<br />

par des capteurs d’inclinaison (« tilt<br />

sensors »). Ceux-ci sont composés<br />

d’une cavité à moitié remplie d’un<br />

liquide diélectrique dont le déplacement<br />

se traduit par des variations capacitives,<br />

transformées en tensions<br />

électriques. Les données issues de<br />

ces capteurs permettent de calculer<br />

une matrice de correction [5] :<br />

(2)<br />

où C = cos et S = sin.<br />

Vitesse et direction sont ensuite obtenues<br />

à partir des composantes<br />

Est -Ouest (V tx<br />

) et Nord-Sud (V ty<br />

) du<br />

courant qui en sont extraites.<br />

Les compas magnétiques de type<br />

« flux-gate » comportent 3 magnétomètres<br />

montés orthogonalement<br />

qui mesurent des inductions (M x<br />

, M y<br />

,<br />

M z<br />

).<br />

L’angle de cap est déterminé [6] en<br />

établissant le rapport de leurs projections<br />

(M xh<br />

, M yh<br />

) dans le plan horizontal,<br />

selon la relation (3) :<br />

(3)<br />

2.2. Incertitudes de mesure entraînées<br />

par les rotations<br />

Ces capteurs sont rarement étalonnés<br />

et jusqu’à présent, les incertitudes<br />

entraînées par leurs erreurs<br />

résiduelles (cap, roulis, tangage),<br />

n’avaient pas fait l’objet d’études approfondies.<br />

Il est possible d’évaluer<br />

ces incertitudes en calculant la matrice<br />

des variances - covariances de<br />

la matrice des vitesses exprimées<br />

dans un repère terrestre :<br />

(4)<br />

Dans cette relation, V_ est la matrice<br />

des dérivées de (V tx<br />

, V ty<br />

, V tz<br />

) par rapport<br />

à (Ψ, Ω, σ) et V_A la matrice des<br />

variances – covariances des corrections<br />

de cap, roulis et tangage.<br />

Plusieurs simulations ont été effectuées<br />

préalablement sur des valeurs<br />

de vitesse d’ADP (convexes<br />

3 faisceaux) et d’ADCP (convexes<br />

4 faisceaux). Elles montrent que les<br />

incertitudes sur les amplitudes calculées<br />

des courants sont sensibles<br />

aux amplitudes des vitesses (V tx<br />

,<br />

V ty<br />

, V tz<br />

) mais surtout aux incertitudes<br />

sur les mesures de roulis et tangage.<br />

Quant aux directions des courants,<br />

elles sont sensibles essentiellement<br />

aux incertitudes sur les mesures de<br />

cap.<br />

3. PLATEFORME D’ETALONNAGE<br />

3.1. Conception & Réalisation<br />

A la suite d’expériences de faisabilité<br />

réalisées en 2007 [2], une plateforme<br />

a été conçue et réalisée en<br />

vue d’étalonner des compas et capteurs<br />

d’inclinaison.<br />

Les courantomètres étant souvent<br />

montés dans des cages de mouillage<br />

avec divers autres instruments,<br />

leurs compas doivent être étalonnés<br />

dans l’environnement d’utilisation.<br />

Cette plateforme devait donc pouvoir<br />

supporter des charges de l’ordre<br />

de 800 kg et son lieu d’implantation<br />

a été localisé dans une zone où<br />

les gradients magnétiques sont inférieurs<br />

à 5 nT/m. La cartographie<br />

magnétique de cette zone a été obtenue<br />

à l’aide d’un magnétomètre à<br />

proton GSM 19.<br />

Sur cette zone, une dalle en béton<br />

d’une bonne planéité a été fabriquée<br />

: elle présente une inclinaison<br />

maximale évaluée à 3 mm/m soit<br />

0,18 ° et une rugosité moyenne de<br />

0,15 °. Un plateau tournant et inclinable<br />

a été réalisé, dont l’inclinaison<br />

peut être mesurée à l’aide d’un rapporteur<br />

numérique ayant une incertitude<br />

type de 0,12 ° (fig.1).<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 47


Dossier<br />

Incertitudes de mesure<br />

Figure 1 : plateforme d’étalonnage inclinable équipée<br />

d’une cage tripode,d’un courantomètre et de son système<br />

d’alignement de la cage et du courantomètre.<br />

3.2. Caractéristiques métrologiques<br />

Suite à l’installation de cette plateforme,<br />

une nouvelle cartographie<br />

magnétique a été réalisée (fig. 2).<br />

Les anomalies magnétiques ont été<br />

déterminées après correction des<br />

variations séculaires du champ (retrait<br />

du modèle global IGRF ou International<br />

Geomagnetic Reference<br />

Field). Elles présentent des pentes<br />

croissantes de 3,8 nT/m (direction<br />

Nord-Ouest – Sud-Ouest) et de<br />

3 T/m dans la (direction Nord – Sud),<br />

valeurs conformes à la tolérance admissible,<br />

et qui correspondent à une<br />

incertitude de déviation angulaire de<br />

0,09 °.<br />

L’effet des variations temporelles du<br />

champ magnétique terrestre, mesurées<br />

sur 5 jours à l’aide d’une station<br />

de référence du type « Sentinel »,<br />

Figure 2 : cartographie magnétique<br />

réalisée après la mise en place<br />

de la plateforme<br />

correspond à une incertitude<br />

de 0,30 °. Les variations<br />

de déclinaison magnétique<br />

calculées à l’aide<br />

du modèle WMM2010, ont<br />

été estimées de l’ordre de<br />

8,3’ Est/an (soit 0,14 °/an).<br />

Ensuite, la dalle béton a<br />

été graduée à l’aide d’un<br />

récepteur GPS Leica utilisé<br />

en mode RTK (Real<br />

Time Kinematic) (mesure<br />

différentielle à partir d’une<br />

station de référence). Les<br />

coordonnées du centre de<br />

la plateforme et d’un pilier de<br />

référence ont été repérées (mesures<br />

dans le système RGF-93 et passage<br />

dans le système altimétrique NGF-<br />

IGN69, coordonnées planes).<br />

Le gisement de cet axe de référence<br />

a été calculé et, connaissant la<br />

Figure 3 : Technique d’étalonnage du<br />

Nord géographique.<br />

convergence locale du méridien, la<br />

direction du Nord géographique (N),<br />

ou azimut, en a été déduite (fig.3).<br />

3.3. Incertitudes<br />

L’axe « pilier – centre » de la plateforme<br />

a été matérialisé et la direction<br />

du Nord vrai a été reportée sur<br />

la dalle à l’aide d’un rapporteur à<br />

alidade réglable à 0,017 ° près, lequel<br />

a servi également à graduer<br />

la dalle de proche en proche, tous<br />

les 10 °. Les directions Nord-Sud et<br />

Est -Ouest ont ensuite été vérifiées<br />

par repérage à l’aide d’un récepteur<br />

GPS (en RTK). Les écarts angulaires<br />

maximum calculés sont de<br />

0,44° (azimut de l’axe Nord-Sud par<br />

rapport au Nord vrai) et de 0,22 °<br />

(axe Est - Ouest). Une flèche rigide<br />

a été fixée sur la plateforme et l’axe<br />

central du plateau inclinable a été<br />

repéré à l’aide d’un théodolite, puis<br />

matérialisé par un tracé.<br />

Suite à ces mesures, un budget d’incertitudes<br />

a pu être établi, pour les<br />

directions de référence de la plateforme<br />

et les mesures magnétiques.<br />

Les sources d’incertitudes étant<br />

mutuellement indépendantes, les<br />

incertitudes élargies affectant les<br />

directions de référence (U direref<br />

) et<br />

les mesures magnétiques (U magné<br />

),<br />

obtenues à partir de la loi de composition<br />

des variances, se traduisent<br />

par une sommation quadratique qui<br />

donne : = 0,55 °, et = 0,69 °. Compte<br />

tenu de la fidélité des compas étalonnés<br />

(0,22 ° pour un Nortek), l’incertitude<br />

élargie d’étalonnage atteint<br />

= 0,98 °.<br />

4. ESSAIS & CORRECTION DES ER-<br />

REURS<br />

Différents essais ont été réalisés<br />

avec des profileurs de marques RDI<br />

Instruments et Nortek. Afin de tester<br />

l’homogénéité du champ et la reproductibilité<br />

des mesures, un profileur<br />

AQUAPRO a été monté dans une<br />

cage tripode équipée de lests amagnétiques.<br />

Une première série de<br />

mesures a été faite cage centrée,<br />

puis décalée successivement de 50<br />

cm, vers la gauche et la droite.<br />

Les écarts ainsi obtenus se super-<br />

Figure 4 : Erreurs de cap du couple Tripode<br />

+ Aquadopp n°AQP3356 (dans l’axe<br />

puis décalé vers la droite et la gauche).<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 48


Dossier<br />

Incertitudes de mesure<br />

posent avec une reproductibilité de<br />

0,19 ° (fig.4).<br />

Les résultats exposés sur la figure<br />

4 montrent que si l’alignement de la<br />

cage et du courantomètre est réalisé<br />

avec soin, d’une part la reproductibilité<br />

des mesures est satisfaisante,<br />

d’autre part le champ magnétique<br />

est suffisamment homogène sur le<br />

plateau pour ne pas entraîner de<br />

biais détectables.<br />

La figure 4 montre également que les<br />

erreurs de cap présentent des variations<br />

sinusoïdales. Elles peuvent<br />

être parfaitement modélisées par<br />

les relations dites d’Archibald Smith,<br />

reprisent par W. Denne en 1998 [6].<br />

Une première relation tient compte<br />

uniquement de l’effet des matériaux<br />

magnétiques « durs » (qui génèrent<br />

un champ magnétique permanent).<br />

La seconde modélise l’effet des<br />

matériaux magnétiques « durs » et<br />

« doux » qui créent un champ sous<br />

l’action d’un champ magnétique.<br />

La relation qui tient compte de toutes<br />

les sources d’erreur est la suivante<br />

(5) :<br />

(5)<br />

Le terme (Γ) traduit les écarts angulaires<br />

engendrés par le compas<br />

en fonction du cap mesuré (Ω)<br />

et des constantes de correction<br />

(A,B,C,D,E). La constante (A) permet<br />

de corriger l’offset lié au désalignement<br />

des trois magnétomètres.<br />

Les constantes (B,C) permettent de<br />

corriger les champs magnétiques<br />

induits par les matériaux « durs »<br />

(termes de pulsation simple). Quant<br />

aux constantes (D,E) elles prennent<br />

en compte, respectivement, les effets<br />

symétriques et asymétriques<br />

des matériaux « doux » (termes de<br />

pulsation double). Les coefficients<br />

(A,B,C,D,E) sont estimés par une<br />

méthode de moindres carrés, ce qui<br />

permet de modéliser et de corriger<br />

les écarts de mesures avec une justesse<br />

meilleure que celle que l’on<br />

pourrait obtenir avec un polynôme<br />

d’ordre 6.<br />

Pour l’exemple traité, l’écart type<br />

d’ajustement obtenu à partir des résidus<br />

est de 0,35 °.<br />

Pour les essais en roulis et tangage,<br />

la plateforme est inclinée par incréments<br />

de 2 °sur une plage de 20 °.<br />

Le courantomètre est tourné de 90 °<br />

ACTIDYN SYSTEMES 78990 Elancourt www.actidyn.com<br />

+33 1 30 16 05 30 contact@actidyn.com<br />

Conçoit, réalise, installe et<br />

maintient des moyens d’essais<br />

de haute précision et leurs<br />

instrumentations associées<br />

pour :<br />

la modélisation géotechnique<br />

la simulation de mouvements<br />

la simulation de vibrations<br />

l’analyse vibroacoustique<br />

Centrifugeuses de laboratoires<br />

et géotechniques<br />

Vibrateurs<br />

électrodynamiques<br />

et hydrauliques<br />

Simulation de<br />

mouvement<br />

Contrôleurs de vibrations et<br />

analyse vibro-acoustique<br />

dans les domaines<br />

de l’énergie,<br />

de l’automobile,<br />

de l’aéronautique,<br />

de l’étude des sols,<br />

des tests d’emballage,<br />

de la recherche médicale,<br />

de la science des matériaux.<br />

Simulateurs de<br />

transports<br />

Équipements spéciaux, expandeurs,<br />

générateurs d’acyclismes...<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 49


Dossier<br />

Incertitudes de mesure<br />

Figure 5 : étalonnage en roulis de l’AQP3356<br />

(et erreurs de mesure des autres capteurs d’angle)<br />

pour couvrir sa gamme ± 20 ° sur<br />

chacun des 2 axes perpendiculaires.<br />

Le capteur de tangage présente une<br />

courbe d’erreur sinusoïdale. Durant<br />

son étalonnage, le capteur de<br />

roulis reste constant, par contre, le<br />

compas présente un biais qui augmente<br />

avec l’inclinaison, montrant<br />

qu’il n’est pas bien compensé par le<br />

logiciel de l’instrument. L’étalonnage<br />

en roulis donne les mêmes résultats,<br />

l’erreur du compas étant encore plus<br />

importante (fig.5).<br />

Pour corriger les erreurs de roulis<br />

et de tangage, des relations polynomiales<br />

et sinusoïdales identiques à<br />

la relation (5) ont été testées. Elles<br />

fournissent des résultats quasiment<br />

identiques, soient des écarts types<br />

d’ajustement de l’ordre de 0,1 °.<br />

de ces instruments et de<br />

la faiblesse des moyens<br />

existants en matière de<br />

tests et d’étalonnage des<br />

capteurs d’angle et d’inclinaison.<br />

L’utilisation de<br />

cette plateforme d’étalonnage<br />

va permettre de<br />

mieux connaître et de<br />

corriger les biais de ces<br />

capteurs. Les enjeux associés<br />

à plusieurs domaines d’application<br />

sont importants, en particulier<br />

pour la mesure précise du débit des<br />

grands courants marins et des cours<br />

d’eau, ou pour optimiser le rendement<br />

des hydroliennes, lequel est<br />

généralement fonction de l’angle<br />

d’incidence du courant sur la turbine.<br />

Compte tenu de la dimension et de<br />

la charge utile de cet instrument, il<br />

Références<br />

pourrait être utilisé également pour<br />

étalonner avec une grande exactitude<br />

les compas de certains AUV<br />

(Autonomous Underwater Vehicle)<br />

ou de certains drones exploités en<br />

milieu aérien.<br />

Marc Le Menn*, André Lusven, Eric<br />

Bongiovanni, Pascal Le Du, Didier<br />

Rouxel, Sylvain Lucas, Laurent Pacaud<br />

*Marc.lemenn@shom.fr - SHOM, 13 rue<br />

du Chatellier, CS 92803, 29228 Brest Cedex<br />

[1] Le Menn M., “Instrumentation and metrology in oceanography”,<br />

ISTE-Wiley, 2012, p. 129-151.<br />

[2] D. Gebre-Egziabher, G. H. Elkaim, J. D. Powell and B. W. Parkinson, ‘A<br />

non-linear, two-step estimation algorithm for<br />

calibrating solid-state strapdown magnetometers’, Proc. Int. Conf. on Integrated<br />

Navigation Systems, St Petersbourg Russia, 28-30 May 2001.<br />

5. CONCLUSIONS<br />

Les courantomètres et profileurs<br />

de courant sont des instruments<br />

complexes dont la maîtrise métrologique<br />

reste difficile compte tenu du<br />

nombre de grandeurs à prendre en<br />

compte et des spécificités du milieu<br />

marin. Si en vitesse des intercomparaisons<br />

peuvent être réalisées<br />

dans certains cas, l’étude de leurs<br />

erreurs angulaires est un domaine<br />

jusqu’à présent peu abordé. Ceci résulte<br />

en partie d’un manque d’informations<br />

relatives aux performances<br />

[3] Le Menn M. & Le Goff M.,“A method for absolute calibration of compasses”,<br />

Measurement Science and Technology, 18, 2007. p. 1614-1621.<br />

[4] Cabrera R., Huhta C., Lohrma A., “A new Acoustic Doppler, Current Profiler<br />

for shallow water”: Document Son Tek, http://www.sontek.com.<br />

[5] Alderson SG., Cunningham SA., “ Velocity errors in acoustic Doppler<br />

Current Profiler measurements due to platform attitude variations and their<br />

effect on volume transport estimates ”, Journal of Atmospheric and Oceanic<br />

Technology, 16, 1999. p. 96-106.<br />

[6] Caruso MJ., “Application of magnetoresistive sensors in navigation systems”,<br />

Sensors Actuators, 1220, 1997. p. 15-21.<br />

[7] Denne W., “Magnetic compass deviation and correction”, 3rd edition<br />

Brown, Son and Fergusson, 1998, p.165.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 50


Dossier<br />

Incertitudes de mesure<br />

Moteur automobile<br />

Mesure de la microrugosité de pièces mécaniques<br />

en milieu industriel : méthode d’estimation de<br />

l’incertitude de mesure et de la conformité<br />

L’amélioration des performances des moteurs à combustion interne implique une réduction significative<br />

des pertes par frottement. On l’obtient en général par une amélioration des états de surface<br />

mécaniques. Actuellement, dans un environnement industriel moins favorable qu’en laboratoire, il est<br />

nécessaire de maîtriser des spécifications de microrugosité inférieures à 0,25 µm. On propose une<br />

nouvelle méthode statistique d’estimation des incertitudes concernant l’état de surface des paliers d’un<br />

vilebrequin qui permet de définir sa conformité associée à un niveau risque spécifié.<br />

1. INTRODUCTION ET OBJECTIFS<br />

A l’issue d’une opération de « toilage<br />

», la rugosité des paliers d’un<br />

vilebrequin de moteur automobile<br />

peut être mesurée le long des génératrices<br />

de ses surfaces cylindriques<br />

à l’aide d’un rugosimètre à contact<br />

(figure 1).<br />

Figure 1 : Vilebrequin en vue de dessus<br />

Résumé<br />

Improvement of internal combustion engines performances implies a significant<br />

reduction of friction mechanical losses. This one can be currently obtained<br />

by an improvement of the mechanical surface textures. Today, in an<br />

industrial environment less favourable than in a laboratory, it is necessary<br />

to master specifications of microrugosity under 0.25 µm. We propose a new<br />

statistical method for estimating the uncertainties relative to the surface<br />

texture of crankshaft bearings that permits to define its conformity associated<br />

to a specified risk level.<br />

Key-words : combustion engine, crankshaft, bearing, micro-rugosity, uncertainty<br />

measurement, conformity proof;<br />

Parmi le grand nombre de paramètres<br />

qui permettent de caractériser<br />

le profil de rugosité d’une surface<br />

[ZAN-03], certains d’entre eux sont<br />

plus adaptés au contexte de la microrugosité.<br />

Il s’agit essentiellement<br />

de la hauteur moyenne du profil (R z<br />

)<br />

et du taux de longueur portante (R k<br />

).<br />

Par suite de son caractère énergétique,<br />

la moyenne quadratique (R q<br />

)<br />

est utilisée pour caractériser le bruit<br />

de fond susceptible de perturber les<br />

mesures. Tous ces paramètres, ainsi<br />

que les méthodes de mesure permettant<br />

de les estimer, font l’objet de<br />

plusieurs normes [ISO].<br />

En matière de microrugosité, la mise<br />

en œuvre des mesures se heurte à<br />

de nombreuses difficultés (taille du<br />

palpeur, angle de mesure, accès<br />

aux zones à mesurer, importance<br />

des bruits de fond…).<br />

En outre, l’estimation des incertitudes<br />

de mesure ne peut entrer strictement<br />

dans le cadre conventionnel<br />

des recommandations existant en<br />

matière de métrologie [GUM-100].<br />

S’agissant d’un contexte industriel,<br />

ceci a motivé la recherche de solutions<br />

permettant de garantir que les tolérances<br />

spécifiées soient satisfaites.<br />

Mots-clé<br />

moteur automobile, vilebrequin,<br />

palier, microrugosité, incertitude<br />

de mesure, preuve de conformité;<br />

Le processus de validation des caractéristiques<br />

du dispositif et de la<br />

méthode de mesure adoptés par<br />

PSA, largement détaillé dans [LER-<br />

13], s’est déroulé en quatre étapes<br />

successives rappelées ci-après :<br />

• Evaluation des bruits de fond « statique<br />

» et « dynamique »,<br />

• Mesures sur deux étalons de type<br />

D1 (étalons à profil unidirectionnel irrégulier<br />

et répétitifs suivant la norme<br />

NF EN ISO 5436-1),dont la qualité<br />

métrologique est attestée par un certificat<br />

du [PTB],<br />

• Mesures d’inter-comparaisons sur<br />

un seul vilebrequin,<br />

• Evaluation des incertitudes et garantie<br />

de conformité ;<br />

Cet article se limite à la dernière<br />

étape, concernant la méthode d’évaluation<br />

des incertitudes et de la garantie<br />

de conformité.<br />

2. PROBLEMATIQUE DES INCER-<br />

TITUDES DE MESURE<br />

L’estimation des incertitudes de mesure<br />

affectant les paramètres d’un état de surface<br />

est une tâche relativement ardue.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 51


Dossier<br />

Incertitudes de mesure<br />

En effet, un grand nombre de facteurs<br />

influencent les résultats de mesure<br />

et certains critères font appel à<br />

des algorithmes complexes qui ne<br />

permettent pas toujours de calculer<br />

analytiquement la sensibilité paramétrique<br />

du résultat final.<br />

Pour le calcul des incertitudes relatives<br />

aux états de surface, nous<br />

utilisons habituellement la méthode<br />

préconisée par la norme [GUM-100].<br />

Nous savons que nos calculs ne respectent<br />

pas toutes les hypothèses<br />

imposées par cette norme et donc<br />

que les résultats correspondants<br />

ne sont pas rigoureusement exacts.<br />

Cependant, une telle approche a au<br />

moins le mérite d’exister, chacun<br />

sachant que le résultat final est toujours<br />

entaché d’incertitude.<br />

En effet, de nombreux facteurs d’incertitude<br />

ne sont pas indépendants<br />

les uns des autres et certains sont<br />

très difficiles à déterminer et à modéliser<br />

: flexion et louvoiement du<br />

stylet, jeux internes au capteur, traitement<br />

du signal interne aux dispositifs<br />

de mesure, logiciels de traitement...<br />

En ce qui concerne ce dernier point,<br />

on observe une tendance à l’augmentation<br />

des écarts entre les résultats<br />

de différents logiciels : toutes<br />

choses égales par ailleurs (même<br />

paramètre et mêmes données d’entrée),<br />

les écarts s’accroissent avec<br />

la complexité des calculs et celle de<br />

la topographie mesurée.<br />

Tous ces facteurs interviennent de<br />

manière encore plus critique dans<br />

le contexte spécifique de la microrugosité<br />

et nous avons constaté à plusieurs<br />

reprises que l’incertitude calculée<br />

avec notre méthode habituelle<br />

était peu cohérente avec les résultats<br />

trouvés. Cette situation résulte<br />

probablement d’une prise en compte<br />

incomplète ou erronée des sources<br />

d’incertitude.<br />

Quoi qu’il en soit, identifier a priori<br />

toutes les sources d’incertitude et<br />

propager celles-ci à travers un modèle<br />

aussi représentatif que possible,<br />

était une entreprise qui nous<br />

a semblé trop longue et trop complexe,<br />

au regard d’une amélioration<br />

des résultats.<br />

Ces considérations ont motivé la recherche<br />

d’une méthode statistique<br />

permettant de prononcer la conformité<br />

d’une pièce, en relation avec la<br />

méthode de mesure et les moyens<br />

mis en œuvre.<br />

Au-delà de cette problématique, une<br />

telle démarche apporte un nouvel<br />

éclairage aux autres activités métrologiques<br />

de l’entreprise : techniques<br />

de mesure, méthodologies, normalisation.<br />

Noter que jusqu’à ce jour, nous<br />

n’avons pas testé les méthodes de<br />

Monte-Carlo [GUM-101], car la fonction<br />

de transfert relative aux états de<br />

surface parait trop complexe à appréhender.<br />

Toutefois, dans certains<br />

cas, ces méthodes semblent prometteuses.<br />

3. ESTIMATION DES INCERTI-<br />

TUDES<br />

Dans la plupart des cas, la variabilité<br />

du résultat final est influencée<br />

principalement par la dispersion des<br />

résultats de mesure qui résulte de la<br />

non homogénéité de la surface. Toutefois,<br />

dans le cas du vilebrequin, la<br />

faiblesse des tolérances de microrugosité<br />

amoindrit ce constat.<br />

Cette variabilité détermine le jugement<br />

prononcé en matière de<br />

conformité.<br />

Nous nous intéressons plus loin au<br />

taux de longueur portante (R k<br />

) mesuré<br />

sur un nombre limité de vilebrequins.<br />

Suite à de nombreuses mesures effectuées<br />

sur plusieurs vilebrequins<br />

(dont un de référence), nous avons<br />

observé que, sur chaque palier cylindrique<br />

considéré individuellement,<br />

les valeurs du paramètre (R k<br />

) sont<br />

distribuées approximativement suivant<br />

une loi uniforme.<br />

La borne inférieure, qui résulte de<br />

nombreuses observations est justifiée<br />

par le processus de fabrication<br />

et par le fait que la taille du grain de<br />

« toilage » ne permet pas d’obtenir<br />

des valeurs inférieures à :<br />

Ceci est conforme à la réalité physique,<br />

sachant qu’une distribution<br />

strictement bornée est plus réaliste<br />

que la distribution gaussienne couramment<br />

utilisée.<br />

4. INCERTITUDE & CONFORMITE<br />

L’hypothèse d’une distribution uniforme<br />

issue des observations, dont<br />

la valeur de la borne inférieure est<br />

justifiée par des arguments physiques<br />

permet, ainsi qu’on va le voir,<br />

d’estimer la valeur de la borne supérieure<br />

en fonction du nombre de<br />

mesures réalisées.<br />

Cette borne supérieure est la valeur<br />

maximale statistiquement admissible<br />

(à un niveau de probabilité donné)<br />

qui permet de garantir la conformité<br />

de la pièce en production.<br />

4.1. Formulation statistique<br />

On considère les variables suivantes<br />

:<br />

⎝ min<br />

: Valeur minimale physiquement<br />

réalisable en production<br />

⎝ obj<br />

: Valeur objectif maximale admise<br />

(tolérance)<br />

〈 : Risque décisionnel de première<br />

espèce (client)<br />

n : Nombre de mesures réalisées<br />

(1)<br />

On suppose qu’une caractéristique<br />

d’intérêt notée (Y) suit une loi uniforme<br />

U[⎝ min<br />

,⎝] dans laquelle (⎝ min<br />

)<br />

est une variable déterministe et (⎝><br />

⎝ min<br />

) la variable aléatoire dont on recherche<br />

un estimateur.<br />

Le paramètre d’intérêt (⎝) détermine<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 52


Dossier<br />

<strong>Essais</strong> et Modelisation<br />

l’expression de la conformité de la<br />

caractéristique, dont la valeur maximale<br />

autorisée est (⎝ obj<br />

).<br />

4.2. Incertitude<br />

Un décalage permet de se ramener<br />

à une loi uniforme de borne inférieure<br />

nulle telle que :<br />

(Y−θ min<br />

) = U[0,(θ−θ min<br />

)]<br />

On considère un échantillon de ( n )<br />

valeurs mutuellement indépendantes<br />

identiquement distribuées<br />

telles que :<br />

[Y] = (Y i<br />

) i = 1,2,..n<br />

suivent une loi<br />

U(θ−θ min<br />

).<br />

Alors : Max(Y−θ min<br />

) = Max(Y)-θ min<br />

Puisque : ∀y∈(θ min<br />

,θ) alors :<br />

(2)<br />

L’espérance mathématique et la<br />

variance de la variable Max(Y)<br />

s’écrivent :<br />

(3)<br />

D’où un estimateur sans biais de (θ) :<br />

(4)<br />

Assorti d’un intervalle de confiance<br />

bilatéral au niveau (1 −α) :<br />

(5)<br />

4.3. Conformité<br />

La caractéristique sera réputée<br />

conforme par le client si l’hypothèse<br />

nulle (H 0<br />

) est rejetée, soit :<br />

(H 0<br />

: θ>θ obj<br />

), c'est-à-dire si l’on dépasse<br />

(θ obj<br />

), limite maximale autorisée<br />

(tolérance).<br />

La décision de conformité est définie<br />

par l’équation :<br />

Ce qui donne finalement compte<br />

tenu de l’estimateur (θ), du niveau<br />

de risque (α) et du nombre de mesures<br />

(n) :<br />

La valeur maximale mesurée doit<br />

être inférieure à (k) pour que la pièce<br />

soit déclarée conforme. On peut vérifier<br />

que k∈(θ min,<br />

θ obj<br />

) est une valeur<br />

pondérée de ces deux bornes.<br />

4.4. Application numérique<br />

Sur chaque palier nous mesurons<br />

le taux de longueur portante dont<br />

la limite maximale est fixée ici à<br />

(R k<br />

=0.3µm) et nous acceptons un<br />

risque (α=10%).<br />

Dans ces conditions, sachant que<br />

min(R k<br />

) = 0.15µm , si nous réalisons<br />

(n=3) mesures et que l’une<br />

quelconque d’entre elles dépasse le<br />

seuil de (0.220 µm), la pièce sera rejetée<br />

car réputée non conforme.<br />

Noter que la réalisation de (n=9)<br />

mesures conduirait à un seuil de<br />

(0.266µm), supérieur au précédent<br />

(environ 21% ).<br />

5. CONCLUSIONS<br />

(6)<br />

(7)<br />

La méthode proposée utilise des relations<br />

analytiques simples qui permettent<br />

d’estimer les incertitudes et<br />

de formuler explicitement un critère<br />

de conformité.<br />

Elle est basée sur des hypothèses à<br />

la fois réalistes (valeur minimale de<br />

rugosité physiquement réalisable)<br />

et peu informatives (répartition équiprobable<br />

sur un intervalle).<br />

La robustesse qui en découle est<br />

compatible avec une mise en œuvre<br />

de la méthode dans le contexte industriel<br />

de PSA.<br />

Bertrand LEROY<br />

Métrologie Centrale Mécanique<br />

PSA Peugeot-Citroën,<br />

18 rue des Fauvelles, 92250,<br />

La Garenne-Colombes, France<br />

Références<br />

[GUM-100] «Evaluation of measurement<br />

data- Guide to the expression of<br />

uncertainty in measurement», JCGM<br />

100, 2008<br />

[GUM-101] «Propagation of distributions<br />

using a Monte Carlo method »,<br />

Supplement 1, JCGM 101, 2008<br />

[ISO-5436] NF EN « Méthode du profil,<br />

partie 1 : étalons matérialisés »<br />

[ISO-1302] NF EN « Indication des<br />

états de surface dans la documentation<br />

technique de produits »<br />

[ISO-4287] NF EN« État de surface :<br />

méthode du profil - Termes, définitions<br />

et paramètres d'état de surface »<br />

[ISO-4288] NF EN« État de surface :<br />

méthode du profil - Règles et procédures<br />

pour l'évaluation de l'état de<br />

surface »<br />

[ISO-13565-x] NF EN« État de surface<br />

: méthode du profil - Surfaces<br />

ayant des propriétés fonctionnelles<br />

différentes suivant les niveaux »<br />

[LER-13] B. Leroy, « La mesure de<br />

la microrugosité en environnement<br />

industriel : cas des pièces mécaniques<br />

», Article accepté pour présentation<br />

au Congrès International de<br />

Métrologie, Paris, Octobre 2013<br />

[PTB] Physikalisch -Technische Bundesanstalt<br />

[ZAN-03] M.L. Zani, « La mesure de<br />

rugosité : quelques normes et plusieurs<br />

dizaines de paramètres », Revue<br />

Mesures, pages 59-63, N° 758,<br />

Octobre 2003<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 53


Dossier<br />

Incertitudes de mesure<br />

Compte tenu du caractère international<br />

des secteurs abordés, certains articles<br />

sont écrits et publiés en anglais.<br />

Confidence interval<br />

Component coverage factor for uncertainty estimation<br />

with few measurements and non-gaussian distribution<br />

In metrology practice, uncertainty budget calculation might include components based on little measurements<br />

data. The concept of coverage factor at a given level of confidence to combined uncertainty<br />

is taking care of this lack of information. We propose to apply a similar factor to the individual component(s)<br />

of an uncertainty budget when the value is calculated with limited number of measurements.<br />

These factors have the same function as the coverage factor defined in the GUM but on the level of the<br />

individual component of the total uncertainty. The goal of the work is to provide values of these factors<br />

for practical use. Inspired from the Supplement 1 of the GUM, we use Monte Carlo simulations to calculate<br />

the component coverage factors for repeated measurements from non-normal distributions. We<br />

apply the algorithm to the most common distributions in metrology, for 95% and 99% confidence level:<br />

rectangular, arc sine, triangular and trapezoidal distributions.<br />

1. INTRODUCTION<br />

In metrology practice of uncertainty<br />

budget calculation, it is common to<br />

see type A uncertainty component<br />

calculated with only 3 measurements.<br />

This obviously leads to underestimation<br />

of the global uncertainty.<br />

As highlighted in the Annex E of the<br />

GUM [1], for only 3 observations of<br />

a normally distributed variable, the<br />

experimental standard deviation of<br />

the mean can be underestimated by<br />

about 50 %.<br />

Application of the coverage factor<br />

concept to an uncertainty measurement,<br />

when reporting measurement<br />

results is widely accepted. The reference<br />

text GUM recommends the<br />

use of a coverage factor in order to<br />

Résumé<br />

Dans la pratique métrologique, le calcul d’un budget d’incertitudes peut<br />

inclure des composantes à la fois non gaussiennes et définies par un faible<br />

nombre d’observations. La détermination analytique d’un facteur d’élargissement,<br />

basé sur le concept d’intervalle de confiance, ne présente pas de<br />

difficulté lorsque la distribution de l’incertitude finale est strictement gaussienne.<br />

Mais dans les conditions générales présentées ci-dessus, l’intervalle<br />

de confiance peut être asymétrique et est difficilement déterminé analytiquement.<br />

C’est pourquoi nous proposons de l’estimer numériquement,<br />

par simulation de Monte Carlo. Pour des niveaux de confiance habituels<br />

(95% & 99%), on a calculé, en fonction de la taille des échantillons (n = 2<br />

à 50), les facteurs d’élargissement relatifs à plusieurs distributions, fréquemment<br />

rencontrées dans la pratique (uniforme, arc sinus, triangulaire,<br />

exponentielle et trapézoïdale).<br />

Mots-clé: intervalle de confiance, niveau de confiance, facteur d’élargissement,<br />

distribution non gaussienne, échantillon de faible taille, simulation<br />

de Monte Carlo ;<br />

determine an expanded uncertainty,<br />

which encompass a given percentage<br />

of the probable value of the<br />

measurand. We propose to apply a<br />

similar factor to the individual component(s)<br />

of the uncertainty budget<br />

when the value is calculated with a<br />

limited number of measurements.<br />

These factors have the same function<br />

as the coverage factor defined in<br />

the GUM but on the level of the individual<br />

component of the total uncertainty,<br />

we will call them component<br />

coverage factors. The goal of the<br />

presented work is to provide values<br />

of these factors for different types of<br />

distribution, for practical use.<br />

The condition for application of<br />

the GUM uncertainty framework is<br />

among others that the distribution<br />

Key-words<br />

confidence interval, confidence<br />

level, coverage factor, non<br />

Gaussian distribution,<br />

low sample size,<br />

Monte Carlo simulation;<br />

for the measurand can adequately<br />

be approximated by a Gaussian<br />

distribution. For non-Gaussian distribution,<br />

there is always the possibility<br />

to use the method proposed in<br />

Supplement 1 of the GUM which gives<br />

as output the probability density<br />

function of the measurand and as a<br />

consequence the coverage probability<br />

of an interval, once the probability<br />

distribution function of the input<br />

quantities are known [2, 3]. However,<br />

this possibility is seldom used in<br />

practice.<br />

Inspired from the Supplement 1 of<br />

the GUM, we use Monte Carlo simulations<br />

to calculate the component<br />

coverage factors for repeated<br />

measurements from non-normal<br />

distributions. An algorithm has been<br />

developed and applied to the most<br />

common distributions in metrology,<br />

for 95% and 99% level of confidence:<br />

rectangular, arc sine, triangular and<br />

trapezoidal distributions. Tables of<br />

component coverage factors depending<br />

on assumed probability distribution<br />

and number of repeated measurements<br />

are given in section 3.<br />

For large number of repetitions (number<br />

of measurements n >30), the<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 54


Dossier<br />

Incertitudes de mesure<br />

difference due to non-normal distribution<br />

are negligible but for small n,<br />

the use of Student-based coverage<br />

factors clearly underestimates the<br />

uncertainty.<br />

2. PROPOSED METHOD<br />

Obtaining coverage factors for probability<br />

distributions encountered in<br />

metrology by an analytical method<br />

is still the object of many studies [4;<br />

5; 6]. As stated in the GUM (G.1.3),<br />

a detailed knowledge of the probability<br />

distribution characterized<br />

by the measurement result and its<br />

combined standard uncertainty is<br />

required to obtain the value of the<br />

coverage factor. To overcome this<br />

difficulty we propose a numerical<br />

method based on Monte Carlo simulation.<br />

According to the GUM, the coverage<br />

factor is defined as the factor to multiply<br />

the combined standard uncertainty,<br />

uc(x), in order to have the expanded<br />

uncertainty U, on the basis<br />

of a level of confidence. In this definition,<br />

the coverage factor multiplies<br />

the combined standard uncertainty.<br />

The combined standard uncertainty<br />

is a sum of individual components.<br />

Assuming that the number of individual<br />

components is large and that<br />

there is not a dominant component<br />

either of type A based on few observations<br />

or of type B based on rectangular<br />

distribution, then the validity<br />

of Central Limit Theorem justifies the<br />

usage of t-Student distribution to calculate<br />

coverage factors (GUM G.2.3,<br />

[7]). When the central limit theorem<br />

is not applicable, the use of Student-based<br />

coverage factor will lead<br />

to underestimation of the uncertainty<br />

and a dedicated calculation as presented<br />

in this paper is needed.<br />

2.1. Algorithm<br />

Let’s consider any probability distribution<br />

of a random variable. In the<br />

Supplement 1 of the GUM, it is recommended<br />

how to generate the<br />

distributions which are of interest<br />

to this work [8]. If we take a sample<br />

of this distribution by making a limited<br />

number n of repeated measurements,<br />

the best estimate of the<br />

measurand is the arithmetic mean<br />

of the observations ( x l<br />

) and the experimental<br />

standard deviation of this<br />

estimate is the standard deviation<br />

S( x l ) of this mean.<br />

In the proposed Monte Carlo approach,<br />

this operation is repeated<br />

N times, such there are N samples<br />

of n observations, the number of<br />

repeated measurements. For each<br />

sample out of the N, the mean ( x l )<br />

and the associated standard deviation<br />

of the mean s( x l<br />

) are calculated:<br />

We obtain N values of ( x 1, x2<br />

,... x N )<br />

and [ s ( x ) s( x ),...<br />

s( )].<br />

1<br />

,<br />

2<br />

The second step consists in applying<br />

the concept of coverage factor as<br />

defined in the GUM and explained<br />

previously.<br />

The component coverage factor k c<br />

is defined as follows: if the best estimate<br />

of the value attributable to the<br />

measurand is x, with an associated<br />

uncertainty u(x), there is a probability<br />

(P) that the mean of repeated<br />

measurement values will be in the<br />

interval [ x − U, x + U ] where, U = kc<br />

( P) u( x)<br />

the<br />

(k c<br />

) values depending on the probability<br />

(P).<br />

In the present method, the best estimate<br />

of the measurand is the mean<br />

of the N iterations:<br />

Therefore, k c<br />

(99%),k c<br />

(95%) is determined<br />

numerically such that 99 %<br />

(95 %) of the calculated ( x i ) are in<br />

the interval: [ x − kc<br />

( xl<br />

),<br />

x + kc<br />

( xl<br />

)]<br />

The Monte Carlo method is valid if<br />

the number of iteration N is sufficiently<br />

large. The minimum N was<br />

selected based on the asymptotic<br />

behavior of the confidence level of<br />

the interval. The results of the calculations<br />

presented here are obtained<br />

x N<br />

(1)<br />

(2)<br />

(3)<br />

(4)<br />

(5)<br />

with N = 106. Note that the algorithm<br />

results have been verified to be independent<br />

of the parameters of the<br />

distribution.<br />

2.2 Examples<br />

The proposed algorithm can be run<br />

for classical distributions but also for<br />

any distributions that can be modeled<br />

with Monte Carlo. Unlike the use<br />

of Student-based coverage factor,<br />

the use of Monte-Carlo based method<br />

is not limited by the symmetrical<br />

property of the distribution.<br />

The special cases of an exponential<br />

distribution for which 2 observations<br />

(n=2) if available is taken as<br />

example. It illustrates the case of<br />

a variable X to which an exponential<br />

distribution is attributed and for<br />

which only 2 measurement points<br />

are available. The algorithm is divided<br />

in 2 parts. The first part consists<br />

in taking N samples of 2 random observations<br />

from the distribution. For<br />

each of these N trials, the mean ( x l )<br />

and the standard deviation the mean<br />

S( x l ) are calculated.<br />

(6)<br />

Figure 2 illustrates the distribution of<br />

the ( xl<br />

). The mean of the ( x ), that<br />

l<br />

is ( x l ) is the best estimate of the<br />

expected value of the distribution. In<br />

the present case of exponential distribution<br />

of expected value µ equals<br />

to 0.5, x = 0.4495 for 10 6 iterations.<br />

Figure 1 : Exponential distribution of the<br />

mean of 2 observations built with Monte<br />

Carlo for µ=0.5<br />

The Monte Carlo method gives a<br />

numerical representation of the dis-<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 55


Dossier<br />

<strong>Essais</strong> et Modelisation<br />

tribution of the mean of the 2 observations.<br />

This distribution is not<br />

symmetric in the case of exponential<br />

distribution, such that the interval<br />

with a given level of confidence is<br />

not centered on the best estimate<br />

of X. Furthermore, when an interval<br />

is given, a coverage factor is theoretically<br />

not required. However, from<br />

the practical point of view of the user<br />

familiar with the GUM coverage factor<br />

method, we interpret the level of<br />

confidence of that interval in terms<br />

of component coverage factor. This<br />

later is calculated as follows: (k c<br />

) values<br />

are tested such that the interval<br />

[ x − k ( x ),<br />

x + k ( x )]<br />

c<br />

l<br />

has a coverage probability of 99 %<br />

(95 %) of the ( x l ). This is done via<br />

an iterative process, using linear<br />

interpolation, starting from the Student’s<br />

coefficient. Generally, 3 or 4<br />

iterations are sufficient. In the present<br />

case, a value of 124 (24.3) is<br />

found for a level of confidence of<br />

99 % (95 %). (see Table 1 and Table<br />

2 in section 3). Another example is<br />

treated with an arc sine distribution,<br />

for 2 observations as well. Figure 2<br />

shows the distribution of the means<br />

of 2 random observations. Component<br />

coverage factor of 263 (37) is<br />

found for a level of confidence of<br />

95 % (99 %).<br />

The algorithm result has been tested<br />

to be independent of the parameters<br />

assigned to the distribution.<br />

Figure 2 : Distribution of the mean of 2<br />

observations of arc sine distribution, built<br />

with Monte Carlo for µ=0.5<br />

3. COMPONENT COVERAGE FAC-<br />

TORS FOR NON-NORMAL DISTRI-<br />

BUTIONS<br />

The component coverage factors have<br />

c<br />

l<br />

been calculated for the normal, rectangular,<br />

arc sine, triangular, trapezoidal<br />

and exponential distributions. The results<br />

of the calculations are reported in<br />

Table 1 for the 99 % confidence interval<br />

and in Table 2 for the 95 % confidence<br />

interval.<br />

Table 1 : Coverage factor for different<br />

distributions, for 99 % level of confidence<br />

Table 2 : Coverage factor for different<br />

distributions, for 95 % level of confidence<br />

As expected, in the case of a normal<br />

distribution, the algorithm gives rise to<br />

the same value as the Student’s coefficient<br />

for (v=n-1) degrees of freedom.<br />

For the other distributions, the component<br />

coverage factors for a small number<br />

of observations are significantly<br />

larger than for the Gaussian one.<br />

Hence, the systematic use of Student’s<br />

factors whatever the kind of distribution<br />

will lead to an underestimate of the uncertainty.<br />

4. CONCLUSION<br />

In the present contribution, we propose<br />

a numerical method, based on<br />

Monte Carlo simulation, for the calculation<br />

of component coverage factors<br />

for non-Gaussian distributions and<br />

limited number of repeated measurements.<br />

The coverage factors for 95 %<br />

and 99 % level of confidence have<br />

been calculated as a function of the<br />

number of observations for rectangular,<br />

arcsine, triangular, trapezoidal and<br />

exponential distributions. The calculated<br />

component coverage factors for<br />

a small number of observations are<br />

significantly larger than for the Gaussian<br />

ones. This difference decreases<br />

when the number of observation increases.<br />

Hence, it is proposed to use<br />

these coefficients rather than the usual<br />

Student’s factors for the contribution of<br />

non-Gaussian distributed uncertainty<br />

component in global uncertainty budget.<br />

The proposed component coverage<br />

factors do not rule out from the<br />

use of Student’s distribution based values<br />

in the case of an uncertainty budget<br />

when the requirements for the application<br />

of Central Limit Theorem are<br />

met and the distribution approaches a<br />

normal distribution.<br />

J.Pétry, M. Maeck and M.Dobre<br />

Service de Métrologie – Metrologische<br />

dienst – Federal Public Service Economy,<br />

Brussels, Belgium<br />

Références<br />

[1] BIPM, IEC, IFCC, ILAC, ISO, IU-<br />

PAC, IUPAP and OIML 2008 Guide<br />

to the Expression of Uncertainty in<br />

Measurement—GUM 1995 with minor<br />

corrections JCGM 100:2008<br />

[2] BIPM, IEC, IFCC, ILAC, ISO,<br />

IUPAC, IUPAP and OIML 2008<br />

Evaluation of Measurement Data—<br />

Supplement 1 to the ‘Guide to the<br />

Expression of Uncertainty in Measurement’—Propagation<br />

of distributions<br />

using a Monte Carlo method<br />

JCGM 101:2008<br />

[3] Stephen V Crowder and Robert<br />

D Moyer, Metrologia 43 34–41<br />

(2006)<br />

[4] P. Fotowicz, Metrologia, 42, 42-<br />

45 (2006)<br />

[5] I. Lira and W. Woger, Advanced<br />

Mathematical and Computational<br />

Tools in Metrology VII, World Scientific<br />

Publishing Co., 73-84 (2006)<br />

[6] P. Otomanski, Meas. Sc. Rev.<br />

5(1), 11-14 (2005)<br />

[7] Wilks, SS Mathematical statistics,<br />

ed. Wiley, New York, 257-258<br />

(1962)<br />

[8] BIPM, IEC, IFCC, ILAC, ISO,<br />

IUPAC, IUPAP and OIML 2008<br />

Evaluation of Measurement Data—<br />

Supplement 1 to the ‘Guide to the<br />

Expression of Uncertainty in Measurement’—Propagation<br />

of distributions<br />

using a Monte Carlo method<br />

JCGM 101:2008, 6.4<br />

Note: a similar version of this paper<br />

has been accepted for presentation<br />

at the International Metrology<br />

Congress, October 2013, Paris,<br />

France<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 56


Dossier<br />

Incertitudes de mesure<br />

Résistance-contrainte<br />

Influence de la propagation des incertitudes<br />

paramétriques sur la probabilité de défaillance<br />

par interaction entre deux lois de Weibull<br />

Dans le cadre de la méthode « résistance-contrainte » basée sur l’interaction probabiliste entre deux<br />

lois de Weibull, nous étudions la variabilité induite sur la probabilité de défaillance par les incertitudes<br />

paramétriques du facteur de sécurité. Le caractère multiplicatif du modèle de propagation conduit directement<br />

à des résultats simples et interprétables. On montre la sensibilité importante de la probabilité<br />

de défaillance aux valeurs moyennes de la résistance et de la contrainte.<br />

1. INTRODUCTION<br />

Dans le cadre de la méthode « résistance-contrainte<br />

», le modèle<br />

d’interaction probabiliste entre deux<br />

lois de Weibull offre une meilleure<br />

souplesse d’adaptation que ceux<br />

faisant intervenir des couples de lois<br />

normale ou lognormale.<br />

Considérons deux lois de Weibull,<br />

représentatives des distributions de<br />

la contrainte et de la résistance, notées<br />

respectivement<br />

Wc<br />

[ η<br />

c<br />

, β<br />

c<br />

] et Wr<br />

[ η<br />

r<br />

, β<br />

r<br />

]<br />

ayant pour fonction de répartition :<br />

(1) F w<br />

x,<br />

η,<br />

β = 1−<br />

exp−<br />

x η<br />

Expression dans laquelle η est le paramètre<br />

d’échelle et β le paramètre<br />

de forme.<br />

Pour des composants mécaniques<br />

suffisamment fiables, on a montré antérieurement<br />

que la solution de l’intégrale<br />

de convolution qui détermine la<br />

probabilité de défaillance peut s’écrire<br />

sous forme explicite, à partir d’un développement<br />

limité [PIE-92]:<br />

Abstract<br />

In the framework of the « stress-strength » method based on the probabilistic<br />

interaction between two Weibull distributions, we study the variability induced<br />

on the failure probability by the parametric uncertainties of the safety<br />

factor. The multiplicative character of the propagation model leads directly<br />

to simple and interpretable results. We show the dramatic sensitivity of the<br />

failure probability relating to the stress and strength mean values.<br />

Key-words : “Stress-Strength” method, probabilistic interaction, Weibull<br />

distribution, failure probability, multiplicative model, lognormal distribution,<br />

uncertainty propagation, parametric sensitivity;<br />

( ) ( ) β<br />

( ) [ ( )]<br />

βr<br />

(2) Pd<br />

≈ ηc<br />

ηr<br />

⋅ Γ 1+<br />

β<br />

r<br />

βc<br />

Il s’agit d’une approximation du premier<br />

ordre qui majore la solution<br />

exacte d’autant moins que la probabilité<br />

de défaillance est faible (environ 1%<br />

pour P d<br />

≈ 10 -2 ).<br />

Le rapport des paramètres d’échelle<br />

(η r<br />

/η c<br />

), assimilable à un coefficient<br />

près au facteur de sécurité, est nécessairement<br />

supérieur à l’unité. Les paramètres<br />

de forme déterminent la variabilité<br />

des distributions : en général le<br />

coefficient de variation de la contrainte<br />

est inférieur à 100%, ce qui correspond<br />

à une loi exponentielle (β c<br />

≡1),<br />

alors que celui de la résistance est nettement<br />

plus faible, pratiquement compris<br />

dans la plage 2.5% à 12% (soit :<br />

50


Dossier<br />

<strong>Essais</strong> et Modelisation<br />

de mettre en œuvre une séquence de<br />

calculs algébriques assez fastidieuse<br />

qui ne permet pas d’appréhender<br />

clairement l’influence des approximations<br />

successives impliquées dans ce<br />

processus. En outre, elle fournit une<br />

solution approximative d’autant moins<br />

précise que la non linéarité du modèle<br />

est prononcée, ce qui est le cas d’une<br />

fonction puissance telle que celle apparaissant<br />

dans (2).<br />

2.2. Approche multiplicative<br />

La structure du modèle (2) suggère une<br />

approche plus pertinente : alors que la<br />

propagation de distributions normales<br />

est intrinsèquement adaptée aux modèles<br />

linéaires de type additif (ce qui<br />

n’est pas le cas ici), la propagation de<br />

distributions lognormales l’est dans le<br />

cas de modèles multiplicatifs [PIE-13].<br />

Plusieurs avantages en découlent :<br />

d’une part si les distributions des paramètres<br />

d’entrée sont lognormales,<br />

celle de la probabilité de défaillance<br />

l’est aussi, d’autre part la solution correspondante<br />

est formellement exacte<br />

et peut être obtenue plus directement.<br />

Le choix d’incertitudes paramétriques<br />

distribuées suivant des lois lognormales<br />

est tout aussi justifié que le choix<br />

de lois normales, car dans ce dernier<br />

cas la distribution de l’incertitude affectant<br />

la probabilité de défaillance est assimilée<br />

abusivement à une loi normale.<br />

A la limite, les deux approchese se rejoignent<br />

puisque la loi lognormale tend<br />

vers une normale lorsque son coefficient<br />

de variation est suffisamment<br />

faible (son asymétrie positive s’atténue).<br />

Nous faisons donc l’hypothèse<br />

que les paramètres d’échelle sont<br />

des variables aléatoires lognormales<br />

notées LN c<br />

[µ c<br />

,σ c<br />

] et LN r<br />

[µ r<br />

,σ r<br />

] dont les<br />

deux paramètres [µ i<br />

,σ i<br />

] sont ceux de la<br />

loi normale parente dont découle la loi<br />

lognormale par une transformation exponentielle<br />

[PAP-84]. Dans ces conditions,<br />

la probabilité de défaillance est<br />

distribuée suivant une loi lognormale<br />

notée LN d<br />

[µ d<br />

,σ d<br />

] dont les deux paramètres<br />

s’écrivent directement :<br />

(3)<br />

(4)<br />

En théorie, la connaissance de ces<br />

deux moments permet d’obtenir explicitement<br />

toutes les caractéristiques<br />

statistiques utiles qui caractérisent<br />

la probabilité de défaillance : valeur<br />

moyenne m d<br />

, coefficient de variation γ d<br />

,<br />

et quantile X q<br />

associé à une probabilité<br />

Ϥ correspondant à un quantile Z q<br />

de la<br />

loi normale standardisée.<br />

(5)<br />

(6)<br />

(7)<br />

Cette approche permet de définir des<br />

intervalles de confiance classiques bilatéraux<br />

(associés par exemple à un<br />

niveau de confiance de 90 %) ou une<br />

mesure plus pertinente en terme de<br />

risque (par exemple une probabilité de<br />

dépassement de 1 % associée à une<br />

probabilité de défaillance assignée).<br />

3. SOLUTION APPROCHEE<br />

Bien que les expressions précédentes<br />

fournissent une solution complète et<br />

explicite au problème posé, leur exploitation<br />

en vue d’une analyse de<br />

sensibilité paramétrique n’est pas<br />

suffisamment simple. C’est pourquoi<br />

il est souhaitable de les formuler différemment<br />

et d’y introduire quelques<br />

simplifications.<br />

A cet effet, l’introduction des coefficients<br />

de variation et du facteur de sécurité<br />

(terme plus général que le coefficient<br />

de garantie) est compatible avec<br />

la formulation adoptée dans le cadre de<br />

la méthode « résistance-contrainte »<br />

[NFX-13], ce qui facilite l’analyse et<br />

l’interprétation des résultats.<br />

En ce qui concerne les caractéristiques<br />

statistiques de la loi lognormale,<br />

un développement limité de la relation<br />

(6) montre qu’il est possible d’assimiler<br />

le coefficient de variation µ d<br />

à l’écarttype<br />

σ d<br />

. Ce dernier est un majorant tel<br />

que pour σ d<br />

≤ 20%, l’erreur commise<br />

est inférieure à 1%. Dans les relations<br />

(4 à 7) on peut donc valablement substituer<br />

les coefficients de variation aux<br />

écart-types correspondants.<br />

Il reste à exprimer les paramètres<br />

(µ c<br />

,µ c<br />

) intervenant dans la définition<br />

des lois lognormales en fonction des<br />

valeurs moyennes assignées à la résistance<br />

et à la contrainte, dont le rapport<br />

s’identifie au facteur de sécurité.<br />

A partir de (5,6) on obtient sans approximation<br />

:<br />

(8)<br />

En notant S 0<br />

= (m r<br />

/m c<br />

) le facteur de<br />

sécurité relatif aux valeurs moyennes<br />

déterministes de la résistance et de<br />

la contrainte (en l’absence d’incertitudes),<br />

on constate en tenant compte<br />

de (5) et (8), que l’introduction des incertitudes<br />

relatives caractérisées par<br />

(γ c<br />

,γ r<br />

) se traduit par une légère perturbation<br />

telle que :<br />

(9)<br />

Pour des incertitudes relatives inférieures<br />

à 15 %, une telle correction<br />

peut être valablement négligée, ce qui<br />

permet d’assimiler la variabilité des<br />

paramètres d’échelle à celle des valeurs<br />

moyennes de la résistance et de<br />

la contrainte correspondantes. Alors,<br />

compte tenu de (4) et (6), on peut exprimer<br />

le coefficient de variation affectant<br />

la probabilité de défaillance sous<br />

une forme très simple :<br />

(10)<br />

On constate que la sensibilité de la<br />

probabilité de défaillance aux incertitudes<br />

susceptibles d’affecter les valeurs<br />

moyennes de la résistance et de<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 58


Dossier<br />

Incertitudes de mesure<br />

la contrainte est proportionnelle au paramètre<br />

de forme de la distribution de<br />

la résistance.<br />

4. APPLICATION NUMERIQUE<br />

A titre illustratif, il s’agit de la probabilité<br />

de défaillance résultant de l’interaction<br />

entre deux lois de Weibull :<br />

β r<br />

= 6 : correspondant à γ wr<br />

≈ 19.4%<br />

(dispersion intrinsèque de la résistance)<br />

β c<br />

= 3 : correspondant à γ wr<br />

≈ 36.3%<br />

(dispersion intrinsèque de la contrainte)<br />

(n r<br />

/n c<br />

) : correspondant à S ≈ 3.117 (facteur<br />

de sécurité)<br />

Probabilité de défaillance :<br />

• valeur exacte issue de l’intégrale de<br />

convolution : P d<br />

= 0.2721%<br />

• valeur approchée suivant (2) :<br />

Pd ≈ 0.2743% (erreur + 0.81%)<br />

Variabilités des paramètres d’échelle :<br />

γ c<br />

= 3% & γ r<br />

= 1.5% (dispersions paramétriques)<br />

Variabilité de la probabilité de défaillance<br />

: γ d<br />

≈ 20.1%<br />

Intervalle de confiance bilatéral à<br />

90% correspondant à une approximation<br />

normale avec Z2.5% = 1.96 :<br />

P d<br />

≈ [0.167%-0.382%]<br />

On constate que la probabilité de défaillance<br />

est très sensible à de faibles<br />

variabilités paramétriques et ce, d’autant<br />

plus que la variabilité intrinsèque<br />

de la résistance est faible.<br />

5. CONCLUSIONS<br />

On a étudié la propagation des incertitudes<br />

paramétriques à travers le<br />

modèle multiplicatif non linéaire qui<br />

détermine la probabilité de défaillance<br />

par interaction entre deux lois<br />

de Weibull.<br />

Les résultats obtenus montrent que<br />

la probabilité de défaillance est extrêmement<br />

sensible aux variabilités<br />

affectant les valeurs moyennes des<br />

distributions de résistance et de<br />

contrainte.<br />

Cette sensibilité, proportionnelle au<br />

paramètre de forme de la distribution<br />

de la résistance, varie donc approximativement<br />

en raison inverse de son<br />

coefficient de variation.<br />

Ceci montre qu’en matière de fiabilité<br />

prévisionnelle, de faibles variabilités<br />

paramétriques conduisent généralement<br />

à des résultats d’autant plus<br />

dispersés que les probabilités de défaillance<br />

assignées sont faibles.<br />

Ces approches d’interaction « résistance-contrainte<br />

» doivent être<br />

considérés avec circonspection,<br />

d’une part si l’on considère que les<br />

distributions théoriques s’écartent<br />

plus ou moins des distributions<br />

réelles, d’autre part si leurs coefficients<br />

de variation présentent une<br />

certaine incertitude.<br />

En conclusion, il convient d’inciter<br />

à la prudence et de considérer les<br />

résultats de ces approches, non<br />

pas en valeur absolue, mais en valeur<br />

relative. Leur intérêt n’est donc<br />

pas remis en cause lorsqu’il s’agit<br />

de comparaisons réalisées dans le<br />

cadre d’études de fiabilité prévisionnelle.<br />

Lambert Pierrat<br />

CNRS-LJK- LAB, ProbStat Dept. &<br />

LJ-Consulting, Grenoble, 21 Allée Jean<br />

Wiener, 38400 Saint Martin d’Hères Cedex,<br />

France ; e_zainescu@yahoo.com /<br />

tel. +33 (0)4 76 42 14 36<br />

Références<br />

[GUM-08] BIPM, « Evaluation of measurement data : Guide to the expression of uncertainty in measurement »,<br />

JCGM 100 : 2008, French version, BIPM, sept. 2008<br />

[PAP-84] A. Papoulis, « Probability, Random Variables and Stochastic Processes », International Edition, McGraw-<br />

Hill, Inc.,2nd Edition, 1984<br />

[PIE-92] L. Pierrat, « Estimation de la probabilité de défaillance par interaction de deux lois de Weibull », Revue de<br />

Statistique Appliquée, XXXX (4), 5-13, 1992<br />

[PIE-13] L. Pierrat, E. Georgin, « Approche probabiliste pour la propagation d’incertitudes à travers un modèle de<br />

constante de temps thermique en régimes de convection naturelle et forcée », Accepté pour présentation au Congrès<br />

International de Métrologie, Paris, Octobre 2013<br />

[NFX-13] Norme Française NFX 50-144-3 « Application de la démarche de personnalisation en environnement : Partie<br />

5 Coefficient de garantie », AFNOR, à paraître 2013-2014<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 59


Des <strong>Essais</strong> Insolites<br />

Projet<br />

Simulation en eaux troubles<br />

Certaines œuvres du 7e art auraient peut-être pu revoir leur scénario si leurs réalisateurs avaient eu<br />

entre les mains Nemo, un simulateur capable de détecter les menaces en pleine mer avec un réalisme<br />

et une précision hors du commun. Certes, ce projet ambitieux porté par l’Ifremer de Brest, Télécom<br />

Bretagne, le ministère de la Défense et des industriels comme Thales, accompagné et mis au point par<br />

les sociétés Alyotech et Artal, n’en est qu'au trois quarts de son développement technologique. Mais<br />

déjà de grands industriels de l'armement et du civil se montrent très intéressés par une solution qui leur<br />

permettra de s'affranchir de phases d'essais à la fois lourdes et onéreuses.<br />

Démarré il y a deux ans, le projet aboutira<br />

mi-2014, une fois la conception du<br />

système entièrement finalisée et les<br />

tests de validation effectués. Ces tests<br />

porteront essentiellement sur les mesures<br />

en temps réel, lesquels seront<br />

confrontés aux résultats des systèmes<br />

fixes, dits classiques. Car l’intérêt du<br />

projet Nemo réside dans le développement<br />

d'une solution logicielle qui<br />

s’applique à la fois dans le secteur de<br />

la défense et du civil. Surtout, cet outil<br />

permettra de simuler de manière réaliste<br />

(et en 3D) la surface de la mer, et<br />

ce en temps réel, et de proposer des<br />

modèles mathématiques pour rendre<br />

possible des calculs jusqu’alors fastidieux.<br />

« L’objectif est de lancer un<br />

produit logiciel capable de fournir des<br />

vidéos assistant les différents modèles<br />

de surveillance comme les radars et<br />

autres multiples capteurs, précise<br />

Stéphane Malledant, responsable du<br />

business development Simulation et<br />

informatique scientifique au sein du<br />

partenaire éditeur Alyotech. Cette modélisation<br />

peut donc s’opérer en pleine<br />

mer ou à proximité des côtes ».<br />

Représenter le réel à la surface,<br />

en pleine mer ou près des côtes<br />

Naturellement, la modélisation en mer<br />

et celle près de zones côtières sont<br />

différentes, en particulier au niveau de<br />

la bathymétrie en raison de la variation<br />

des reliefs dans l’eau ; les effets côtiers<br />

présentent en effet beaucoup de variabilité<br />

entre le sol et la surface. Ils influent<br />

beaucoup sur les opérations de<br />

modélisation. D’autant que l’un des défis<br />

premiers est d’être le plus précis et<br />

le plus représentatif possible de la réalité<br />

tout en opérant en temps réel. « Il<br />

faut pouvoir représenter le réel grâce<br />

à une même dynamique rassemblant<br />

tous les systèmes de caméras et de<br />

vidéo-surveillance, les capteurs optroniques<br />

à 25 images par seconde, la<br />

fréquence des radars, etc. ».<br />

Une tâche ardue, d’autant que les signataires<br />

du projet que sont la DGA<br />

mais aussi deux branches de Thales,<br />

Thales Systèmes Aéroportés (TSA)<br />

et Thales Optronique (TOSA), en<br />

charge notamment des essais de validation,<br />

sont confrontés à des risques<br />

de toutes sortes. Ce système présente<br />

ainsi un intérêt majeur, dans la mesure<br />

où il répond à la demande des industriels<br />

de réduire les coûts relatifs aux<br />

essais en mer et les remplacer par des<br />

opérations de simulation.<br />

Des applications aussi bien dans la<br />

défense que dans le civil<br />

Les risques, du moins pour la DGA<br />

et les deux entités du groupe Thales<br />

impliquées dans le projet, concernent<br />

surtout les objets flottants. Il s’agit bien<br />

souvent d’importants navires qu’il est<br />

important d’identifier le plus loin possible,<br />

en fonction d’un espace-temps<br />

particulier : « ce système aide à détecter,<br />

reconnaître et déterminer si une<br />

frégate située à quinze kilomètres des<br />

côtes représente une menace ». Dans<br />

le civil, le simulateur Nemo concerne<br />

par exemple les questions d’immigration<br />

clandestine, de trafics de toutes<br />

sortes mais également, au niveau des<br />

pollutions en mer ou sur les côtes, à<br />

détecter des pollutions accidentelles<br />

( ou volontaires… ) en étant capable<br />

de déterminer en temps réel la nature<br />

et la dangerosité des produits pétroliers<br />

ou autres déversés dans l’eau.<br />

Pour cela, l’observation multicapteurs<br />

est primordiale.<br />

À ce jour, le verrou technologique est<br />

bel et bien levé. La prochaine étape<br />

consiste à valider le système, comparer<br />

le simulateur aux mesures prises<br />

avec des moyens fixes et ainsi évaluer<br />

l’efficacité des capteurs… pour<br />

peut-être faire de la mer une terre de<br />

sécurité.<br />

Olivier Guillon<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 60


Vie de l’ASTE<br />

GAM-PME<br />

Le Guide d'aide à la mesure<br />

pour les PME lancé en fin de l'année<br />

L’Association pour le développement des sciences et techniques<br />

de l’environnement (ASTE) a reçu l’appui du ministère<br />

de l’Industrie et de la Direction générale de la compétitivité,<br />

de l’industrie et des services (DGCIS) pour la réalisation d’un<br />

guide interactif d’aide à la décision en matière de câblage des<br />

appareils de mesure en environnement industriel.<br />

La CEM dans le cas<br />

des câblages des<br />

appareils de mesure<br />

La compatibilité électromagnétique<br />

(CEM) est l'aptitude d'une<br />

chaîne de mesure à fonctionner<br />

dans un environnement industriel.<br />

Le choix du type de câblage (bifilaire,<br />

blindé, torsadé), sa position<br />

par rapport aux plans de masse,<br />

les types de montage influent sur<br />

les couplages avec les perturbations<br />

parasites (émissions rayonnées<br />

et/ou conduites).<br />

L'outil développé permet de simuler<br />

le câblage envisagé avant son<br />

montage effectif et juger de son<br />

efficacité dans un environnement<br />

perturbé (compte tenu du type de<br />

mesure et de la précision de mesure<br />

demandée). Si celle-ci est insuffisante<br />

(mauvais rapport signal<br />

utile/parasite), l'outil permet de<br />

tester en temps réel des configurations<br />

plus performantes (mise<br />

en place de filtre, blindage plus<br />

performant, changement du chemin<br />

de câblage,..) et proposer des<br />

règles simples d'utilisation, issues<br />

de l'expérience d'experts en CEM.<br />

Ce guide sera accessible sur Internet<br />

à l'aide d'un navigateur Web et<br />

facile d'utilisation pour des non spécialistes<br />

de la CEM. Il sera également<br />

mis gratuitement à la disposition des<br />

PME-PMI pour les aider à faire des<br />

mesures de qualité sans investissement<br />

complémentaire en matériel.<br />

Ce guide s'appuie sur une enquête<br />

menée auprès de plusieurs dizaines<br />

de PME-PMI qui a permis de prendre<br />

en compte les perturbations électromagnétiques<br />

souvent rencontrées en<br />

environnement industriel, et de définir<br />

les treize configurations génériques<br />

couvrant plus de 90% des types de<br />

mesure faites. Le guide quantifie visuellement<br />

l'influence des parasites<br />

sur les mesures et proposant si nécessaire<br />

des solutions simples pour<br />

les réduire ; il est associé à un guide<br />

de bonnes pratiques adapté aux<br />

câblages des lignes de mesure.<br />

Ce projet avait été annoncé dans la<br />

revue <strong>Essais</strong> & <strong>Simulations</strong> n° 110<br />

d’avril 2012 et présenté les partenaires<br />

qui y collaborent. Il est aujourd'hui<br />

en phase de finalisation et<br />

sera achevé pour la fin 2013 avec la<br />

mise à disposition de l'outil. Quatre<br />

présentations gratuites d'une journée<br />

seront organisées en novembre-décembre<br />

(Île-de-France, Rhône-Alpes,<br />

Paca, Midi-Pyrénées), afin de permettre<br />

aux PME ayant des difficultés<br />

de mesure de tester l'outil en temps<br />

réel et juger de son efficacité sur les<br />

cas qu'ils rencontrent.<br />

Venez nombreux et faites connaître<br />

ces rencontres autour de vous. Les<br />

dates et les lieux seront fournis sur le<br />

site de l'ASTE. Si vous êtes intéressés,<br />

contactez le secrétariat de l'association<br />

(info@aste.asso.fr, +33 1 61<br />

38 96 32), qui vous fournira les informations<br />

nécessaires.<br />

Journée technique ASTE – Laas<br />

sur les capteurs<br />

L’ASTE organise prochainement, en<br />

collaboration avec le Laas – CNRS<br />

de Toulouse, une journée technique<br />

sur les capteurs. La première partie<br />

de la journée sera consacrée aux<br />

conférences : « Capteur de température<br />

miniature sans fil autonome »<br />

par Xavier Lafontan de la société Intesens<br />

», « Nouvel outil pour la mesure<br />

rapide de température avec un<br />

thermocouple » par Anis Ziadi de la<br />

société Dsi », « Nouveau capteur<br />

de mesure de température sans<br />

contact » par David Garnier de la<br />

société Texys, et « Application des<br />

nanotechnologies pour le développement<br />

de capteurs de température<br />

et de jauges de déformation » par<br />

Laurence Ressier de l’Insa Toulouse<br />

et Jean-Jacques Bois de la société<br />

Nanolike. Au cours de l’après-midi,<br />

les participants pourront visiter le<br />

laboratoire du Laas et assister à la<br />

démonstration de l’avion instrumenté.<br />

>> Informations : s'adresser au secrétariat<br />

de l’ASTE au 01 61 38 96 32 et à<br />

l’adresse mail : info@aste.asso.fr.<br />

AGO et AGE de l’ASTE<br />

Le 13 juin 2013 se sont tenues à la<br />

Sopemea à Vélizy-Villacoublay les<br />

assemblées générales ordinaire<br />

et extraordinaire de l’ASTE. Deux<br />

nouveaux membres ont été élus<br />

au conseil d’administration : Pascal<br />

Abriat (IUT de Limousin) et Daniel<br />

Vilmus (Sereme). Parmi les administrateurs<br />

sortants, Jean-Claude Frölich<br />

et Raymond Buisson ne se sont<br />

pas représentés. Au cours de l’assemblée<br />

générale extraordinaire, les<br />

nouveaux statuts de l’association ont<br />

été adoptés à l’unanimité.<br />

Réunion du conseil d’administration<br />

de l’ASTE<br />

Le conseil d’administration s’est réuni<br />

le 13 juin 2013, à l’issue de l’AGO et<br />

l’AGE de l’ASTE. Les administrateurs<br />

ont procédé à l’élection du bureau de<br />

l’association. Le bureau actuel a été<br />

prolongé dans ses fonctions. En voici<br />

la composition :<br />

• Joseph Merlet (Intespace) – Président<br />

• Henri Grzeskowiak (HG Consultant)<br />

– Vice-président,<br />

• Jean-Paul Prulhière (Metexo) – Secrétaire<br />

• Bernard Colomiès (Sopemea) –<br />

Trésorier<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 61


Formations<br />

ASTE<br />

Programme des formations 2014<br />

Association régie par la loi de 1901<br />

N° de formation 11 75 0834 475<br />

<br />

Mécanique vibratoire<br />

Association pour le développement<br />

des Sciences et Techniques de l’Environnement<br />

2013-2014<br />

Mesure et analyses des phénomènes<br />

vibratoires (Niveau 1)<br />

Mesure et analyses des phénomènes<br />

vibratoires (Niveau 2)<br />

Application au domaine industriel<br />

IUT du Limousin<br />

INTESPACE(31)<br />

SOPEME (78)<br />

<br />

<br />

<br />

<br />

3,5 15-18 avril 1 620 €<br />

4 12-16 mai 1 800 €<br />

3<br />

15-17 oct.<br />

11-13 juin<br />

1 500 €<br />

Chocs mécaniques : mesures, spécifications,<br />

essais et analyses de risques<br />

ASTE (78) 3<br />

6-8 nov.<br />

2-4 avril<br />

1 500 €<br />

Acquisition et traitement<br />

des signaux<br />

Pilotage des générateurs<br />

de vibrations<br />

Principes de base et caractérisation des<br />

signaux<br />

Traitement du signal avancé des signaux<br />

vibratoires<br />

IUT du Limousin 3,5 20-23 mai 1 620 €<br />

ASTE (78) 3<br />

17-19 sept.<br />

2014<br />

1 500 €<br />

Principes utilisés et applications SOPEMEA (78) 4 26-29 nov. 1 800 €<br />

Analyse modale<br />

Acoustique<br />

Analyse modale expérimentale et Initiation<br />

aux calculs de structure et essais<br />

Principes de base, mesures et application<br />

aux essais industriels<br />

SOPEMEA (78) 4 19-22 nov. 1 800 €<br />

INTESPACE (31) 4 19-22 nov. 1 800 €<br />

Climatique<br />

Electromagnétisme<br />

Principes de base et mesure des<br />

phénomènes thermiques<br />

IUT du Limousin 3 13-15 nov. 1 500 €<br />

Application au domaine industriel INTESPACE (31) 3 9-11 oct. 1 500 €<br />

Sensibilisation à la compatibilité<br />

électromagnétique<br />

Application à la prise en compte de la CEM<br />

dans le domaine industriel<br />

Exploitation des normes CEM<br />

IUT du Limousin 4 7-11 avril 1 800 €<br />

INTESPACE (31) 4<br />

EMITECH<br />

(78 - VERSAILLES)<br />

2<br />

16-19 sept.<br />

2014<br />

20-21<br />

février<br />

1 800 €<br />

1 100 €<br />

Prise en compte de l'environnement<br />

dans un programme industriel<br />

2<br />

9-10 sept.<br />

2014<br />

1 100 €<br />

Personnalisation du produit<br />

à son environnement<br />

Prise en compte de l’environnement<br />

mécanique<br />

Utilisation des outils de synthèse<br />

mécanique pour la conception<br />

et le pré-dimensionnement des équipements<br />

ASTE (78)<br />

3 22-24 oct. 1 500 €<br />

3 20-22 nov. 1 500 €<br />

Prise en compte de l’environnement<br />

climatique<br />

3<br />

24-26 sept.<br />

2014<br />

1 500 €<br />

Prise en compte de l’environnement<br />

électromagnétique<br />

EMITECH<br />

(78 - VERSAILLES)<br />

3 23-25 avril 1 500 €<br />

Mesure<br />

Extensomètrie : collage de jauge, analyse<br />

des résultats et de leur qualité<br />

Concevoir, réaliser, exploiter une campagne<br />

de mesures<br />

ASTE (78) 3 18-20 juin 1 700€<br />

ASTE (78) 2 3-4 déc. 1 100 €<br />

<br />

<strong>Essais</strong><br />

Simulation – Nouveau<br />

Bonne pratique des mesures IUT du Limousin 2 4-5 juin 1100 €<br />

Conception et validation de la fiabilité -<br />

dimensionnement des essais pour la<br />

validation de la conception des produits<br />

IFMA<br />

(63 - AUBIERE)<br />

3 3-5 juin 1 500€<br />

Fiabilité, déverminage, essais (accélérés,<br />

11-12 sept.<br />

ASTE (78) 2<br />

1 100 €<br />

aggravés)<br />

2014<br />

Construire la robustesse de vos produits<br />

EMITECH (78) 1 5 juin 850€<br />

par les méthodes HALT & HASS<br />

Estimation des incertitudes de mesure dans<br />

9-10 oct.<br />

2<br />

1 100 €<br />

les essais<br />

2014<br />

ISTIA<br />

9-10 sept.<br />

Accréditation des laboratoires d’essais 2<br />

1 100 €<br />

(ANGERS - 49)<br />

2014<br />

Méthodes statistiques appliquées<br />

aux essais<br />

La simulation numérique et les essais :<br />

complémentarités - comparaisons<br />

ASTE (78)<br />

2 3-4 juillet 1 100 €<br />

2 17-18 oct. 1 100 €<br />

CONTACT : Patrycja PERRIN - Tél. 01 61 38 96 32 - info@aste.asso.fr<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 62


Agenda<br />

Evénements, colloques, séminaires à venir...<br />

> Sepem Angers<br />

Octobre<br />

La prochaine édition des Salon des services, equipements,<br />

process et maintenance (Sepem) aura lieu à Angers. Le Sepem<br />

Industries s’applique à proposer des solutions pratiques<br />

à tous les industriels d’une région donnée, quel que soit leur<br />

secteur d’activités de provenance.<br />

Du 8 au 10 octobre 2013<br />

À Angers<br />

www.sepem-industries.com<br />

> EnovaPARIS<br />

Carrefour de l’électronique, Mesurexpovision, Opto et<br />

RF&Hyper (enovaPARIS) se tiendront de nouveau à Paris<br />

Porte de Versailles du 8 au 10 octobre 2013.<br />

Du 8 au 10 octobre 2013<br />

À Paris – Porte de Versailles<br />

www.enova-event.com<br />

Novembre<br />

> CMOI-Fluvisu<br />

Du 18 au 22 novembre prochain se déroulera à l’Ecole Polytechnique<br />

de l'Université d'Orléans le 13e colloque international francophone<br />

sur les Méthodes et techniques optiques pour l'industrie du<br />

club CMOI/SFO. L'événement sera organisé en coopération avec<br />

le 15e congrès français du club Fluvisu/SFO.<br />

Du 18 au 22 novembre 2013<br />

À Orléans – École Polytechnique<br />

www.club-cmoi.fr<br />

> Midest 2013<br />

La 43e édition du Midest, numéro 1 des salons de sous-traitance<br />

industrielle, réunira pas moins de 1 700 exposants et près de 40<br />

000 professionnels du 19 au 22 novembre prochains.<br />

Du 19 au 22 novembre 2013<br />

À Parc des expositions Paris Nord-Villepinte<br />

www.midest.com<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 63


Au sommaire<br />

du prochain numéro<br />

Dossier<br />

Énergies vertes : les défis liés<br />

aux essais des véhicules électriques<br />

Mesures et méthodes de mesure<br />

Les outils de mesure pour détecter<br />

les pollutions sur les sites industriels<br />

<strong>Essais</strong> et modélisation<br />

Les technologies 3D au cœur de la simulation numérique<br />

(logiciels, simulation, réalité virtuelle imprimantes 3D...)<br />

Sans oublier<br />

Des avis d'experts ainsi que toutes les informations concernant<br />

la vie de l'ASTE et du Gamac, les événements, les formations<br />

et les actualités du marché de la mesure, des essais, de la modélisation<br />

et de la simulation.<br />

Répertoire des annonceurs<br />

AKEO PLUS ........................20<br />

ACTIDYN ............................49<br />

ARENIUS ...............................7<br />

ASTE ...................................63<br />

ENOVA ...................3e de couv.<br />

ESI GROUP .........4e de couv.<br />

FELIX INFORMATIQUE ........9<br />

HOLO 3D ..........................21<br />

CONCEPTION ÉDITORIALE & RÉALISATION<br />

MRJ<br />

54, Boulevard Rodin - 92130 Issy les Moulineaux<br />

Tél. : 01 73 79 35 67<br />

Fax. : 01 34 29 61 02<br />

www.mrj-presse.fr<br />

(la rédaction n’est pas responssable des documents qui lui sont<br />

adressés, sauf demande express, ceux-ci ne sont pas retournés)<br />

DIRECTEUR DE LA PUBLICATION<br />

Jérémie Roboh<br />

RÉDACTION<br />

Olivier Guillon<br />

(o.guillon@mrj-corp.fr)<br />

Comité de rédaction :<br />

Anne Marie Ajour (ASTE), Raymond Buisson, Adbérafi Charki (Istia),<br />

Bernard Colomiès (Sopemea - ASTE), François Derkx (IFSTTAR), Jean-<br />

Claude Frölich (ASTE); Olivier Guillon (MRJ), Henri Grzeskowiak (HG<br />

Consultant), Michel Roger Moreau (Gamac - ASTE), Lambert Pierrat<br />

(LJ Consulting), Jean Paul Prulhière (Metexo), Jean-François Romain<br />

(MRJ), Philippe Sissoko (LCIE), Pierre Touboul (Onera)<br />

On participé à ce numéro :<br />

Mario Arenas (EDF R&D, STEP Department), C. Barbier (Centre Spatial<br />

de Liège), Eric Bongiovanni (Shom), Olivier Deneux (EDF R&D, STEP<br />

Department), P. De Vincenzo (Open Engineering), M.Dobre (Federal<br />

Public Service Eco-nomy, Brussels), Florent Duvinage (société Nérys),<br />

M. Georges (Centre Spatial de Liège), Henri Grzeskowiak (HG-Consultant),<br />

Pascal Le Du (Shom), Marc Le Menn (Shom), Bertrand Leroy (PSA<br />

Peugeot-Citroën), J. Loicq (Centre Spatial de Liège), Sylvain Lucas<br />

(Shom), André Lusven (Shom), M. Maeck (Federal Public Service Economy,<br />

Brussels), A. Mazzoli (Centre Spatial de Liège), P. Nachtergaele<br />

(Open Engineering), A. Orban (Centre Spatial de Liège), Laurent Pacaud<br />

(Shom), S. Paquay (Open Engineering), J.Pétry (Federal Public Service<br />

Eco-nomy, Brussels), Lambert Pierrat (LJ-Consulting & LJK-LAB), Gérald<br />

Portemont (Onera/DADS/CRD), Julien Réthoré (LaMCoS, Université<br />

de Lyon / INSA Lyon / CNRS), Didier Rouxel (Shom), J-S . Ruess<br />

(GDTech), P. Saint-Georges (Open Engineering), Y. Stockman (Centre<br />

Spatial de Liège).<br />

ÉDITION<br />

Maquette et couverture :<br />

RVJ-WEB (www.rvj-web.com)<br />

PUBLICITÉ<br />

MRJ - Tél. 01 73 79 35 67<br />

Patrick Barlier - p.barlier@mrj-corp.fr<br />

DIFFUSION ET ABONNEMENTS<br />

Camille Laurès (abonnement@essais-siimulations.com)<br />

www.essais-simulations.com<br />

Abonnement 1 an (4 numéros) : 58 €<br />

Prix au numéro : 20 €<br />

Règlement par chèque bancaire à l’ordre de<br />

MRJ<br />

(DOM-TOM et étranger : nous consulter)<br />

GANTNER INSTRUMENTS<br />

BGP ELECTRONIC ..............5<br />

CETIM .................................31<br />

COMSOL ..............2e de couv.<br />

DBVIB ....................................2<br />

ELEXIS ................................27<br />

IDIL .....................................14<br />

INSTRON ............................29<br />

M + P INTERNATIONAL .....19<br />

MB ELECTRONIQUE .........17<br />

OMEGA ...............................23<br />

VIB-TEC ...............................37<br />

Trimestriel - N° 115<br />

Octobre 2013<br />

Editeur : MRJ<br />

SARL au capital de 50 000 euros<br />

54, Boulevard Rodin - 92130 Issy les Moulineaux<br />

RCS Paris B 491 495 743<br />

TVA intracommunautaire : FR 38491495743<br />

N° ISSN : 2103-8260<br />

Dépôt légal : à parution<br />

Imprimeur : Imprimerie de Champagne<br />

Z.I. Les Franchises - 52200 Langres<br />

Toute reproduction partielle ou globale est soumise à<br />

l’autorisation écrite préalable de MRJ.<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 64


8-9-10<br />

OCT 2013<br />

PARIS<br />

Hall 7.2 - Paris expo<br />

Porte de Versailles<br />

Dans le cadre de enova, l’événement de l’innovation pour la recherche et l’industrie<br />

HYPERFREQUENCES / WIRELESS / ANTENNES<br />

ELECTRONIQUE / SYSTEMES EMBARQUES / M2M<br />

O PTIQUE / PHOTONIQUE<br />

MESURE / VISION / MÉTROLOGIE<br />

Demandez votre BADGE GRATUIT<br />

www.enova-event.com<br />

8-9-10<br />

OCT 2013<br />

Paris expo<br />

Porte de Versailles<br />

France - Hall 7.2<br />

VISITEUR<br />

MÊMES DATES MÊME LIEU :<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 65


COMSOL 4.3b<br />

Disponible Maintenant!<br />

www.comsol.fr/4.3b<br />

MULTIBODY DYNAMICS: L’orientation des pales du rotor<br />

d’un hélicoptère est controlée par le plateau cyclique.<br />

Testez et optimisez vos designs<br />

®<br />

avec COMSOL Multiphysics.<br />

Pour reproduire avec précision le comportement de vos designs, nos<br />

simulations multiphysiques intègrent tous les effets physiques du monde réel.<br />

Pour plus d’information rendez-vous sur www.comsol.fr/introvideo<br />

Product Suite<br />

COMSOL Multiphysics<br />

ELECTRICAL<br />

AC/DC Module<br />

RF Module<br />

Wave Optics Module<br />

MEMS Module<br />

Plasma Module<br />

Semiconductor Module<br />

MECHANICAL<br />

Heat Transfer Module<br />

Structural Mechanics Module<br />

Nonlinear Structural Materials Module<br />

Geomechanics Module<br />

Fatigue Module<br />

Multibody Dynamics Module<br />

Acoustics Module<br />

FLUID<br />

CFD Module<br />

Microfluidics Module<br />

Subsurface Flow Module<br />

Pipe Flow Module<br />

Molecular Flow Module<br />

CHEMICAL<br />

Chemical Reaction Engineering Module<br />

Batteries & Fuel Cells Module<br />

Electrodeposition Module<br />

Corrosion Module<br />

Electrochemistry Module<br />

MULTIPURPOSE<br />

Optimization Module<br />

Material Library<br />

Particle Tracing Module<br />

INTERFACING<br />

LiveLink for MATLAB ®<br />

LiveLink for Excel ®<br />

CAD Import Module<br />

ECAD Import Module<br />

LiveLink for SolidWorks ®<br />

LiveLink for SpaceClaim ®<br />

LiveLink for Inventor ®<br />

LiveLink for AutoCAD ®<br />

LiveLink for Creo Parametric<br />

LiveLink for Pro/ENGINEER ®<br />

LiveLink for Solid Edge ®<br />

File Import for CATIA ® V5<br />

© Copyright 2013 COMSOL. COMSOL, COMSOL Multiphysics, Capture the Concept, COMSOL Desktop, and LiveLink are either registered trademarks or trademarks of COMSOL AB. All other trademarks are the property of their respective owners, and COMSOL AB and its<br />

subsidiaries and products are not affiliated with, endorsed by, sponsored by, or supported by those trademark owners. For a list of such trademark owners, see http://www.comsol.com/tm<br />

<strong>Essais</strong> & <strong>Simulations</strong> • OCTOBRE 2013 • PAGE 66

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!