Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
(3.4.1) Consistenza tra risultati di esperimenti<br />
Abbiamo dunque visto come in casi semplici si possono attribuire degli intervalli al valor vero sia<br />
che si tratti di una misura diretta sia che si tratti di una misura indiretta. Supponiamo ora di aver<br />
misurato una certa grandezza in laboratori diversi e con apparati diversi. Può essere, per esempio,<br />
che diversi gruppi sperimentali siano impegnati in diversi esperimenti che intendono tuttavia<br />
misurare una stessa grandezza per fare luce su un certo problema di fisica. Al termine di questi<br />
esperimenti la comunità scientifica ha a disposizione N risultati diversi uno per ciascun<br />
esperimento. Prima di qualunque altra cosa ci si chiede se i risultati ottenuti dai diversi esperimenti<br />
siano tra di essi consistenti. La domanda é evidentemente di straordinaria rilevanza. Infatti la<br />
consistenza tra diversi esperimenti, “rafforza” la conoscenza complessiva del fenomeno, mentre una<br />
eventuale inconsistenza può significare che qualcuno degli esperimenti stia stimando male la<br />
propria incertezza oppure che gli esperimenti stiano misurando grandezze diverse. Quest’ultimo é il<br />
caso in cui uno o più degli esperimenti sono caratterizzati da errori sistematici fuori controllo che<br />
fanno si’ che il misurando non rappresenti correttamente il valore vero.<br />
Nel primo capitolo abbiamo accennato ad un confronto tra risultati basato sulla distanza in “numero<br />
di deviazioni standard”. Quanto abbiamo detto allora é sostanzialmente corretto. Ora vogliamo<br />
soltanto rendere più quantitativa la discussione fatta.<br />
Supponiamo che i 2 esperimenti che vogliamo confrontare (A e B) danno il loro risultato sotto<br />
forma di intervallo standard gaussiano del tipo x ± σ. Posso considerare la variabile casuale Δ=x A -<br />
x B . Faccio allora la seguente ipotesi: i 2 campioni A e B provengono da due popolazioni gaussiane<br />
caratterizzate da uno stesso μ e da varianze pari a quelle date da ciascun esperimento σ A e σ B . In<br />
tale ipotesi la variabile Δ è anch’essa gaussiana. Il suo valore atteso sarà 0 e la sua varianza si<br />
otterrà dalla formula della propagazione. Assumendo assenza di correlazione tra i 2 esperimenti<br />
(circostanza ragionevole) avremo<br />
2<br />
2 2<br />
σ = σ A<br />
+ σ<br />
Δ<br />
B<br />
e dunque la variabile<br />
Δ<br />
Z = σ<br />
Δ<br />
deve essere una variabile gaussiana standardizzata. A questo punto testare l’ipotesi di partenza<br />
corrisponde a testare quanto é verosimile che la variabile Z cosi’ definita sia gaussiana<br />
standardizzata (l’uso del termine verosimile in questo contesto non ha esattamente lo stesso<br />
significato della definizione di verosimiglianza data sopra, ma ha un significato analogo). Per fare<br />
ciò calcolo Z e vado a vedere nelle tabelle della distribuzione di Gauss normalizzata quant’è<br />
P<br />
( Z ) = P(( m > Z ) ∪(<br />
m < − Z ))<br />
cioè quanto é probabile che io ottenga un valore oltre Z in entrambi le code della gaussiana.<br />
Evidentemente, più piccolo é il valore di questa probabilità più inverosimile é il fatto che Z<br />
provenga da una popolazione gaussiana standardizzata.<br />
Quanto detto corrisponde ad un esempio particolarmente semplice di test di ipotesi. Il procedimento<br />
logico fatto può essere cosi’ ricapitolato:<br />
si definisce una variabile casuale, detta statistica campionaria, funzione dei dati (la variabile Z<br />
nell’esempio dato sopra) tale che se l’ipotesi é verificata la sua funzione di distribuzione é nota<br />
(una gaussiana standardizzata nell’esempio dato sopra);<br />
si calcola il valore di questa variabile;<br />
si stima quant’è “verosimile” che il valore misurato provenga dalla distribuzione aspettata<br />
(nell’esempio dato sopra calcolare P (Z)<br />
sulla base delle tabelle).<br />
101