Les mesures d'incertitude en physique
Les mesures d'incertitude en physique
Les mesures d'incertitude en physique
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
<strong>Les</strong> <strong>mesures</strong> d’incertitude <strong>en</strong> <strong>physique</strong><br />
Introduction :<br />
En sci<strong>en</strong>ces expérim<strong>en</strong>tales, il n’existe pas de <strong>mesures</strong> exactes.<br />
La mesure d’une valeur X s’accompagne toujours d‘une estimation des<br />
incertitudes/erreurs associées (calibration, arrondis…). L’estimation de l’erreur de<br />
mesure est aussi importante que la mesure elle même, elle permet de valider la mesure<br />
avec un intervalle de confiance plus ou moins important.<br />
Evaluer l’incertitude sur une mesure est un domaine complexe qui fait l’objet d’une<br />
branche complète : la métrologie.<br />
1. Incertitude et erreur:<br />
Bi<strong>en</strong> que les sci<strong>en</strong>tifiques emploi<strong>en</strong>t les deux termes de manière indistincte la plupart<br />
du temps, il existe cep<strong>en</strong>dant des différ<strong>en</strong>ces.<br />
L’erreur de mesure d’une certaine grandeur est la différ<strong>en</strong>ce <strong>en</strong>tre la valeur mesurée et<br />
la valeur vraie. Dans les expéri<strong>en</strong>ces, on ignore justem<strong>en</strong>t la vraie valeur.<br />
L’incertitude de mesure traduit les t<strong>en</strong>tatives pour estimer l’importance de l’erreur<br />
commise. L’incertitude définie un intervalle autour de la valeur mesurée, incluant<br />
l’erreur.<br />
1. Type d’incertitude:<br />
Evaluations de type A:<br />
L’incertitude de type A compr<strong>en</strong>d l’analyse statistique des <strong>mesures</strong>, elle<br />
intervi<strong>en</strong>t quand on a toute une série de <strong>mesures</strong> et que l’on a aussi peu d’indications<br />
sur les sources d’ « erreurs ». On parle aussi d’incertitude statistique.<br />
Evaluations de type B:<br />
L’incertitude de type B concerne les « erreurs » liées non pas à la mesure elle<br />
même mais au protocole de mesure associé : la calibration, la résolution, le mode<br />
opératoire (erreur de parallaxe lors de la lecture des graduations, variation de la<br />
réponse du dispositif expérim<strong>en</strong>tal <strong>en</strong> fonction des paramètres extérieurs comme la<br />
température). <strong>Les</strong> erreurs de type B peuv<strong>en</strong>t être systématiques (erreur de parallaxe,<br />
réglage du zéro…) ou être aléatoires mais toujours liées à la méthode employée<br />
(température, humidité…)<br />
Incertitudes composées:<br />
La distinction <strong>en</strong>tre les deux types d’erreur est importante, le second type<br />
d’erreur peut généralem<strong>en</strong>t être corrigé partiellem<strong>en</strong>t au moins notamm<strong>en</strong>t si<br />
on peut faire varier le protocole expérim<strong>en</strong>tal.<br />
On prés<strong>en</strong>te généralem<strong>en</strong>t le résultat final <strong>en</strong> distinguant les deux sources<br />
d’erreur :<br />
X=25.2 ±3.1 (stat) ±4.2 (syst. + aléatoire) m<br />
1
Ou <strong>en</strong>core combiner les deux erreurs pour obt<strong>en</strong>ir une seule évaluation de<br />
l’incertitude : somme quadratique des deux incertitudes.<br />
X=25.22 ±(3.1 2 +4.2 2 ) 1/2 m=25.22±5.22m<br />
2. Evaluation et usage des incertitudes:<br />
La manière adéquate d’énoncer un résultat est d’<strong>en</strong> donner une meilleure estimation<br />
possible dans un intervalle de confiance où l’on p<strong>en</strong>se qu’il se trouve effectivem<strong>en</strong>t.<br />
La règle de prés<strong>en</strong>tation des incertitudes (et la logique) impose d’écrire les incertitudes<br />
expérim<strong>en</strong>tales avec un seul chiffre significatif . Le dernier chiffre significatif de tout<br />
résultat doit être du même ordre de grandeur (à la même position décimale) que<br />
l’incertitude :<br />
Exp : (mesure de g)=9,82 ±0,02 m/s 2 (pas la peine de mettre 0,02385 !!)<br />
La notion de désaccord : Lorsque deux <strong>mesures</strong> d’une même grandeur diffèr<strong>en</strong>t, on dit<br />
qu’il y a désaccord. Le désaccord est la différ<strong>en</strong>ce <strong>en</strong>tre les deux <strong>mesures</strong>.<br />
Un désaccord est significatif si les marges d’erreur ne se recouvr<strong>en</strong>t pas ou peu. Son<br />
interprétation doit donc être mis <strong>en</strong> comparaison avec l’importance des incertitudes.<br />
3. Théorème de la limite c<strong>en</strong>trale :<br />
Le théorème de la limite c<strong>en</strong>trale est un résultat sur la converg<strong>en</strong>ce <strong>en</strong> probabilités<br />
d'une suite de variables aléatoires. Intuitivem<strong>en</strong>t, ce résultat affirme que toute<br />
somme de variables aléatoires indép<strong>en</strong>dantes et id<strong>en</strong>tiquem<strong>en</strong>t distribuées t<strong>en</strong>d<br />
vers une variable aléatoire gaussi<strong>en</strong>ne.<br />
Ces généralisations ne nécessit<strong>en</strong>t pas des lois id<strong>en</strong>tiques mais font appel à des<br />
conditions qui assur<strong>en</strong>t qu'aucune des variables n'exerce une influ<strong>en</strong>ce<br />
significativem<strong>en</strong>t plus importante que les autres.<br />
€<br />
En clair, la somme X de N variables indép<strong>en</strong>dantes x i (i=1,….N), chacune ayant<br />
une distribution de moy<strong>en</strong>ne µ i et de variance V i (σ 2 i ) a une espérance<br />
mathématique :<br />
( ) = µ i<br />
E X<br />
N<br />
∑<br />
i=1<br />
La variance de X est alors :<br />
N N<br />
2<br />
V ( X) = ∑V i<br />
= ∑ σ i<br />
i=1<br />
i=1<br />
La distribution de X devi<strong>en</strong>t gaussi<strong>en</strong>ne quand N devi<strong>en</strong>t très grand.<br />
€<br />
2
La d<strong>en</strong>sité de probabilité de la somme de plusieurs variables indép<strong>en</strong>dantes<br />
s'obti<strong>en</strong>t par convolution de leurs d<strong>en</strong>sités (si celles-ci exist<strong>en</strong>t). Ainsi on peut<br />
interpréter le théorème de la limite c<strong>en</strong>trale comme une formulation des propriétés<br />
des d<strong>en</strong>sités de probabilité soumises à une convolution : sous les conditions<br />
établies précédemm<strong>en</strong>t, la convoluée d'un certain nombre de d<strong>en</strong>sités de<br />
probabilité t<strong>en</strong>d vers la d<strong>en</strong>sité normale lorsque leur nombre croît indéfinim<strong>en</strong>t.<br />
Comme la fonction caractéristique d'une convolution est le produit des fonctions<br />
caractéristiques des variables <strong>en</strong> cause, le théorème de la limite c<strong>en</strong>trale peut se<br />
formuler d'une manière différ<strong>en</strong>te : sous les conditions précéd<strong>en</strong>tes, le produit des<br />
fonctions caractéristiques de plusieurs d<strong>en</strong>sités de probabilité t<strong>en</strong>d vers la fonction<br />
caractéristique de la loi normale lorsque le nombre de variables croît indéfinim<strong>en</strong>t.<br />
Intérêt du théorème :<br />
Le succès sans égal de la loi de Gauss est la conséqu<strong>en</strong>ce directe du théorème<br />
de la limite c<strong>en</strong>trale et il est r<strong>en</strong>forcé par la commodité relative d'utilisation de<br />
cette loi.<br />
En elle-même, la converg<strong>en</strong>ce vers la loi normale de nombreuses sommes de<br />
variables aléatoires lorsque leur nombre t<strong>en</strong>d vers l'infini n'intéresse que le<br />
mathématici<strong>en</strong>. Pour le pratici<strong>en</strong>, il est intéressant de s'arrêter un peu avant la<br />
limite : la somme d'un grand nombre de ces variables est presque gaussi<strong>en</strong>ne, ce<br />
qui fournit une approximation souv<strong>en</strong>t plus facilem<strong>en</strong>t utilisable que la loi exacte.<br />
En s'éloignant <strong>en</strong>core plus de la théorie, on peut dire que bons nombres de<br />
phénomènes naturels sont dus à la superposition de causes nombreuses, plus ou<br />
moins indép<strong>en</strong>dantes. Il <strong>en</strong> résulte que la loi normale les représ<strong>en</strong>te de manière<br />
raisonnablem<strong>en</strong>t efficace.<br />
À l'inverse, on peut dire qu'aucun phénomène concret n'est vraim<strong>en</strong>t gaussi<strong>en</strong> car<br />
il ne peut dépasser certaines limites.<br />
3
€<br />
€<br />
4. Estimation des incertitudes de type B:<br />
Pour faire l’estimation de l’incertitude de type B, on peut changer d’instrum<strong>en</strong>t de mesure, <br />
de protocole, faire varier les paramètres influ<strong>en</strong>ts. <br />
• D’une manière générale, si le constructeur fournit l’incertitude type, on l’utilise <br />
directem<strong>en</strong>t. <br />
Si l’incertitude est du type : ΔC = ± …, l’incertitude est : u = Δ c<br />
3<br />
• Si on dispose de peu d’indications ou d’une incertitude simple, on utilise alors <br />
u = Δ c<br />
12<br />
€<br />
• Si l’incertitude obéit à une loi normale, on utilise alors <br />
u = Δ c<br />
3<br />
5. Incertitudes élargies:<br />
Le problème, et notamm<strong>en</strong>t dans le cas d’une évaluation de type B pour laquelle le calcul <br />
statistique n’est pas possible (mesure unique), est qu’il faut donc arriver à faire <br />
"confiance" à notre écart-‐type, <strong>en</strong> l’élargissant, tout simplem<strong>en</strong>t : <br />
Si les <strong>mesures</strong> sont équiprobables et que l’on connaît gmin et gmax , l’incertitude élargie se <br />
calcule <strong>en</strong> multipliant u par un coeffici<strong>en</strong>t d’élargissem<strong>en</strong>t k : <br />
U = k *u avec k = 2 pour une confiance à 95 %. <br />
k = 3 pour une confiance à 99 %. <br />
On parle bi<strong>en</strong> évidem<strong>en</strong>t d’intervalle de confiance : [g–U(G), g+U(G)]<br />
6. Répétition de mesure :<br />
€<br />
€<br />
€<br />
Soit une expéri<strong>en</strong>ce mesurant une grandeur <strong>physique</strong> de valeur µ. On effectue N<br />
<strong>mesures</strong> x indép<strong>en</strong>dantes. La somme X des N <strong>mesures</strong> de µ a donc l’esperance<br />
mathématique :<br />
N<br />
E( X) = ∑ µ i<br />
= Nµ ⇒ x = X N mesuré<br />
i=1<br />
Si N devi<strong>en</strong>t suffisamm<strong>en</strong>t grand, on aura x ⇒ x = µ.<br />
La variance de la valeur moy<strong>en</strong>ne x est alors :<br />
V ( x ) = 1 N<br />
∑ V<br />
N 2 i<br />
= σ 2<br />
pour N <strong>mesures</strong> indép<strong>en</strong>dantes<br />
N<br />
i=1<br />
€<br />
€<br />
Ainsi pour N <strong>mesures</strong> indép<strong>en</strong>dantes d’une même grandeur, l’erreur sur la<br />
mesure est donc divisée par N<br />
σ<br />
N<br />
=déviation standard de la moy<strong>en</strong>ne<br />
€<br />
Exemple :<br />
Détection de photon, résolution de 50 keV. Mesure de désintégrations :<br />
1 mesure donne une résolution de 50 keV.<br />
4
€<br />
€<br />
€<br />
100 <strong>mesures</strong> donn<strong>en</strong>t une résolution de 5 keV.<br />
2500 <strong>mesures</strong> donn<strong>en</strong>t une résolution de 1 keV.<br />
7. Moy<strong>en</strong>ne pondérée:<br />
Soit une série de <strong>mesures</strong> d’une même grandeur <strong>physique</strong> µ, pour chaque mesure<br />
on a { x i<br />
,σ i }. On peut alors pr<strong>en</strong>dre <strong>en</strong> compte les erreurs de chaque mesure <strong>en</strong><br />
attribuant un poids plus important aux <strong>mesures</strong> les plus précises<br />
poidsα 1<br />
2<br />
σ i<br />
On a alors :<br />
2<br />
∑ x i<br />
σ i<br />
i<br />
1 1<br />
x =<br />
V ( x ) =<br />
2<br />
2<br />
1 σ i<br />
1 σ i<br />
σ = 1<br />
∑ 2 2<br />
σ i<br />
∑<br />
i<br />
∑<br />
Exemple :<br />
Mesure d’un voltage :<br />
Première mesure U 1 =3.11 ± € 0.02V<br />
Deuxième<br />
€<br />
mesure U 2 =3.13 ± 0.01V<br />
i<br />
i<br />
Si on répète 4 fois la mesure 1, on arrive à la précision :<br />
seconde mesure est 4 fois meilleure.<br />
( 3.11 0.022) + ( 3.13 0.01 2<br />
)<br />
U =<br />
1 0.02 2 +1 0.01 2<br />
€<br />
0.02<br />
4<br />
= 0.01 V, donc la<br />
€<br />
€<br />
€<br />
U = 1 5 × 3.11+ 4 × 3.13 = 3.126V<br />
5<br />
1<br />
V =<br />
1 0.02 2 +1 0.01 = 4 2 5 ×10−4<br />
σ = 0.008<br />
8. Incertitude de type A:<br />
Dans le cas d’un incertitude de type A, on a affaire à une distribution statistique,<br />
généralem<strong>en</strong>t on associe l’invertitude à l’écart type de la mesure, estimé soit à<br />
partir de la formule mathématique soit à partir d’un modèle de distribution des<br />
données<br />
a. Fonction avec une seule variable :<br />
Il arrive que la grandeur mesurée ne corresponde pas à la grandeur<br />
recherchée mais soit liée à elle par une fonction.<br />
• f ( x) = ax + b avec a,b = Ctes,<br />
x a pour variance et écart-type V(x) et σ x .<br />
Quelle est la variance et l’écart-type de f ?<br />
€<br />
€<br />
5
V ( f ) = f 2 − f<br />
2<br />
= ( ax + b) 2 − ax + b 2 = a 2 x 2 + 2ab x + b 2 − a 2 x 2 − 2ab x − b 2 = a 2 .V ( x)<br />
€<br />
donc<br />
V ( f ) = a 2 V ( x) et<br />
σ f<br />
= a.σ x<br />
exemple :<br />
V=200±10 m/s distance parcouru <strong>en</strong> 6 secondes ? d=1200 ±60 m<br />
€<br />
€<br />
• Dans le cas d’une fonction f(x) quelconque :<br />
<strong>Les</strong> fluctuations autour d’une valeur x 0 sont définies par le développem<strong>en</strong>t de Taylor :<br />
⎛⎛<br />
f ( x) ≈ f ( x 0 ) + ( x − x 0 ) df ⎞⎞<br />
⎜⎜ ⎟⎟<br />
⎝⎝ dx ⎠⎠<br />
⇒ V f<br />
⇒ σ f<br />
⎛⎛ ⎞⎞<br />
⎟⎟<br />
⎝⎝ dx ⎠⎠<br />
( ) ≈ ⎜⎜<br />
df<br />
≈ df<br />
dx .σ x<br />
2<br />
.V ( x)<br />
x= x 0<br />
€<br />
Exemple :<br />
Mesure d’un angle θ avec une erreur de σθ=0.01 rad, qu’<strong>en</strong> est il de l’erreur sur le<br />
sin(θ) ?<br />
σ sinϑ<br />
= 0.01.cosϑ<br />
€<br />
€<br />
€<br />
€<br />
b. Fonction avec plusieurs variables :<br />
Généralem<strong>en</strong>t, la grandeur recherchée dép<strong>en</strong>dra de plusieurs variables<br />
chacune ayant une erreur associée.<br />
• Soit f(x,y)=ax+by+c<br />
Partant de la définition de la variance, on trouve :<br />
( ) = a 2 x 2 − x 2<br />
( ) = a 2 .V ( x) + b 2 .V ( y) + 2ab.Cov( x, y)<br />
V f<br />
( ) + ( b2 y 2 − y 2<br />
)<br />
V f<br />
donc si x et y sont indép<strong>en</strong>dants :<br />
σ 2 f<br />
= a 2 σ 2 x<br />
+ b 2 2<br />
σ y<br />
( )<br />
+ 2ab xy − x y<br />
• Soit une fonction f(x,y) quelconque<br />
Sur le même principe que dans le cas à une variable, on obti<strong>en</strong>t la loi de combinaison<br />
des erreurs:<br />
V ( f ) = df<br />
2<br />
⎛⎛ ⎞⎞<br />
⎜⎜ ⎟⎟ .V ( x) + df<br />
2<br />
⎛⎛ ⎞⎞ ⎛⎛<br />
⎜⎜ ⎟⎟ .V ( y) + 2 df ⎞⎞ ⎛⎛<br />
⎜⎜ ⎟⎟ df ⎞⎞<br />
⎜⎜ ⎟⎟ cov( x, y)<br />
⎝⎝ dx ⎠⎠ ⎝⎝ dy ⎠⎠ ⎝⎝ dx ⎠⎠ ⎝⎝ dy ⎠⎠<br />
Dans le cas de x et y variables indép<strong>en</strong>dantes :<br />
€<br />
6
( ) = ⎜⎜<br />
df<br />
V f<br />
et<br />
2<br />
⎛⎛ ⎞⎞<br />
⎟⎟ .V x<br />
⎝⎝ dx ⎠⎠<br />
⎛⎛ ⎞⎞<br />
⎜⎜ ⎟⎟<br />
⎝⎝ dy ⎠⎠<br />
( ) + df<br />
2<br />
.V ( y)<br />
σ 2 f<br />
= df<br />
2<br />
⎛⎛ ⎞⎞<br />
⎜⎜ ⎟⎟ .σ 2<br />
⎝⎝ dx ⎠⎠<br />
x<br />
+ df<br />
2<br />
⎛⎛ ⎞⎞<br />
2<br />
⎜⎜ ⎟⎟ .σ y<br />
⎝⎝ dy ⎠⎠<br />
<strong>Les</strong> erreurs s’ajout<strong>en</strong>t donc de manière quadratique et non arithmétique.<br />
€<br />
exemple :<br />
calcul de la distance parcourue, vitesse v=200 ± 10 m/s, accélération γ=12 ± 2 m/s 2 ,<br />
t=6s, x ?<br />
x = vt + γt 2 =1416m<br />
σ 2 x<br />
= dx<br />
2<br />
⎛⎛ ⎞⎞<br />
⎜⎜ ⎟⎟ .σ 2<br />
⎝⎝ dv ⎠⎠<br />
v<br />
+ dx<br />
2<br />
⎛⎛ ⎞⎞<br />
⎜⎜ ⎟⎟ .σ 2 γ<br />
= t 2 .σ 2 v<br />
+ 1 2<br />
⎛⎛<br />
⎝⎝ dγ ⎠⎠<br />
2 t ⎞⎞<br />
⎜⎜<br />
2 2<br />
⎟⎟ .σ<br />
⎝⎝ ⎠⎠<br />
γ<br />
σ x 2 = 36 ×100 + 324 × 4 = 4896<br />
σ x<br />
= 70m<br />
c. L’erreur relative:<br />
€<br />
On utilise souv<strong>en</strong>t l’erreur relative et non seulem<strong>en</strong>t l’erreur statistique, l’erreur<br />
relative est l’erreur divisée par la valeur trouvée, elle s’exprime <strong>en</strong> %.<br />
Elle est aussi plus simple à calculer dans le cas de produits ou rapports de<br />
plusieurs variables :<br />
f = x.y<br />
( ) = y 2 V ( x) + x 2 V ( y)<br />
V f<br />
⎛⎛<br />
⎜⎜<br />
⎝⎝<br />
σ f<br />
f<br />
⎞⎞<br />
⎟⎟<br />
⎠⎠<br />
2<br />
⎛⎛<br />
= σ ⎞⎞<br />
x<br />
⎜⎜ ⎟⎟<br />
⎝⎝ x ⎠⎠<br />
2<br />
⎛⎛<br />
+ σ ⎞⎞<br />
y<br />
⎜⎜ ⎟⎟<br />
⎝⎝ y ⎠⎠<br />
2<br />
pour des variables x,y indép<strong>en</strong>dantes<br />
€<br />
7