25.12.2012 Views

Dispense

Dispense

Dispense

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

130 CAPITOLO 2. ELEMENTI DI STATISTICA<br />

Esempio 64 Altro esempio di H1: il ritardo medio è 6= 5.<br />

Lo schema matematico formato dalle due ipotesi complementari (rispetto ad un certo<br />

universo di possibilità) H0 e H1 appare simile a quello della teoria delle decisioni: sulla base<br />

di alcune osservazioni sperimentali, dobbiamo decidere se vale H0 oppure H1.<br />

Tuttavia, nella teoria delle decisioni le due ipotesi vengono considerate allo stesso livello,<br />

in modo simmetrico, e la decisione di conclude con una scelta tra le due: o vale l’una o vale<br />

l’altra.<br />

Invece, nella teoria dei test statistici, il ruolo di H0 ed H1 è asimmetrico. H0 può solo<br />

essere ri…utata o non ri…utata, non possiamo arrivare ad una conclusione del tipo: “H0 è<br />

vera”.<br />

Per capire meglio in che senso c’è simmetria nella teoria delle decisioni, ricordiamone<br />

alcuni elementi nel caso della teoria bayesiana. Si ha un universo , una partizione (Bk) e si<br />

deve prendere una decisione circa quale degli eventi Bk sia vero.<br />

Supponiamo che gli eventi Bk in‡uenzino qualcosa che possiamo osservare, diciamo l’evento<br />

A. Si pensi per esempio che Bi siano le possibili cause, A e A c le possili conseguenze.<br />

La regola di decisione bayesiana è semplicemente: si sceglie la causa più probabile, condizionata<br />

al fatto che A si è avverato.<br />

Per la formula di Bayes<br />

P (BijA) = P (AjBi) P (Bi)<br />

P<br />

k P (AjBk) P (Bk) :<br />

Il demoninatore è uguale per tutti, quindi basta massimizzare il numeratore:<br />

B opt<br />

i<br />

:= arg maxP<br />

(AjBi) P (Bi) :<br />

Bi<br />

Se decidiamo che a priori le diverse possibilità Bi sono equiprobabili (assenza di pregiudizi)<br />

troviamo semplicemente<br />

B opt<br />

i<br />

:= arg maxP<br />

(AjBi) :<br />

Bi<br />

Le probabilità P (AjBi) sono simili a dei p-values, se si prende come evento A l’evento “la<br />

test statistic assume valori più estremi di quello osservato”, e come Bi le due diverse ipotesi<br />

del test. Allora<br />

p-value = P (AjH0) :<br />

Ma mentre in teoria delle decisioni calcoleremmo anche P (AjH1) e sceglieremmo tra le due<br />

alternative sulla base del valore più grande delle due probabilità, nella teoria dei test calcoliamo<br />

solo P (AjH0) e ri…utiamo l’ipotesi H0 se questa probabilità (il p-value) è molto piccola,<br />

in genere più piccola di 0.05. Se non è piccola, non confrontiamo con 0.5 come si farebbe in<br />

teoria delle decisioni; concludiamo semplicemente che non c’è evidenza per ri…utare H0.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!