23.05.2014 Views

x - Fisica - Sapienza

x - Fisica - Sapienza

x - Fisica - Sapienza

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

(3.4.1) Consistenza tra risultati di esperimenti<br />

Abbiamo dunque visto come in casi semplici si possono attribuire degli intervalli al valor vero sia<br />

che si tratti di una misura diretta sia che si tratti di una misura indiretta. Supponiamo ora di aver<br />

misurato una certa grandezza in laboratori diversi e con apparati diversi. Può essere, per esempio,<br />

che diversi gruppi sperimentali siano impegnati in diversi esperimenti che intendono tuttavia<br />

misurare una stessa grandezza per fare luce su un certo problema di fisica. Al termine di questi<br />

esperimenti la comunità scientifica ha a disposizione N risultati diversi uno per ciascun<br />

esperimento. Prima di qualunque altra cosa ci si chiede se i risultati ottenuti dai diversi esperimenti<br />

siano tra di essi consistenti. La domanda é evidentemente di straordinaria rilevanza. Infatti la<br />

consistenza tra diversi esperimenti, “rafforza” la conoscenza complessiva del fenomeno, mentre una<br />

eventuale inconsistenza può significare che qualcuno degli esperimenti stia stimando male la<br />

propria incertezza oppure che gli esperimenti stiano misurando grandezze diverse. Quest’ultimo é il<br />

caso in cui uno o più degli esperimenti sono caratterizzati da errori sistematici fuori controllo che<br />

fanno si’ che il misurando non rappresenti correttamente il valore vero.<br />

Nel primo capitolo abbiamo accennato ad un confronto tra risultati basato sulla distanza in “numero<br />

di deviazioni standard”. Quanto abbiamo detto allora é sostanzialmente corretto. Ora vogliamo<br />

soltanto rendere più quantitativa la discussione fatta.<br />

Supponiamo che i 2 esperimenti che vogliamo confrontare (A e B) danno il loro risultato sotto<br />

forma di intervallo standard gaussiano del tipo x ± σ. Posso considerare la variabile casuale Δ=x A -<br />

x B . Faccio allora la seguente ipotesi: i 2 campioni A e B provengono da due popolazioni gaussiane<br />

caratterizzate da uno stesso μ e da varianze pari a quelle date da ciascun esperimento σ A e σ B . In<br />

tale ipotesi la variabile Δ è anch’essa gaussiana. Il suo valore atteso sarà 0 e la sua varianza si<br />

otterrà dalla formula della propagazione. Assumendo assenza di correlazione tra i 2 esperimenti<br />

(circostanza ragionevole) avremo<br />

2<br />

2 2<br />

σ = σ A<br />

+ σ<br />

Δ<br />

B<br />

e dunque la variabile<br />

Δ<br />

Z = σ<br />

Δ<br />

deve essere una variabile gaussiana standardizzata. A questo punto testare l’ipotesi di partenza<br />

corrisponde a testare quanto é verosimile che la variabile Z cosi’ definita sia gaussiana<br />

standardizzata (l’uso del termine verosimile in questo contesto non ha esattamente lo stesso<br />

significato della definizione di verosimiglianza data sopra, ma ha un significato analogo). Per fare<br />

ciò calcolo Z e vado a vedere nelle tabelle della distribuzione di Gauss normalizzata quant’è<br />

P<br />

( Z ) = P(( m > Z ) ∪(<br />

m < − Z ))<br />

cioè quanto é probabile che io ottenga un valore oltre Z in entrambi le code della gaussiana.<br />

Evidentemente, più piccolo é il valore di questa probabilità più inverosimile é il fatto che Z<br />

provenga da una popolazione gaussiana standardizzata.<br />

Quanto detto corrisponde ad un esempio particolarmente semplice di test di ipotesi. Il procedimento<br />

logico fatto può essere cosi’ ricapitolato:<br />

si definisce una variabile casuale, detta statistica campionaria, funzione dei dati (la variabile Z<br />

nell’esempio dato sopra) tale che se l’ipotesi é verificata la sua funzione di distribuzione é nota<br />

(una gaussiana standardizzata nell’esempio dato sopra);<br />

si calcola il valore di questa variabile;<br />

si stima quant’è “verosimile” che il valore misurato provenga dalla distribuzione aspettata<br />

(nell’esempio dato sopra calcolare P (Z)<br />

sulla base delle tabelle).<br />

101

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!