You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
costanti nel tempo. (d) forse SI a meno che non vi siano periodi di maggiore frequenza per<br />
fatti specifici.<br />
(2.22) Applichiamo il teorema di Bayes in un caso con probabilità a priori molto “disuniforme”<br />
(P(infetto) = 0.2% P(non infetto) = 99.8%) e nell’altro con probabilità a priori “uniforme”<br />
(P(infetto) = P(non infetto) = 50%). Si ottiene: (1) P(infetto / +) = 22% e (2) P(infetto / +) =<br />
99.3%.<br />
(2.23) In questo caso devo calcolare P(+++/infetto) = (P(+/infetto)) 3 = 97% assumendo i test<br />
indipendenti e P(+++/non infetto) = (P(+/non infetto) 3 = 3 x 10 -7 . Le probabilità a priori<br />
sono evidentemente le stesse e dunque si ottiene: P(infetto/+++) = 99.98%. Come si vede le<br />
cose cambiano.<br />
(2.24) Semplice problema di calcolo combinatorio. Si hanno 21 lettere (mancano I O e Q ma ci<br />
sono X Y e W) e 10 cifre. Quindi 21 2 x 10 3 x 21 2 = 2 x 10 8 targhe (200 milioni). Di queste,<br />
quelle in cui le ultime 2 lettere sono la copia delle prime 2 sono 21 2 x 10 3 . La probabilità é 1<br />
/ 21 2 = 0.22%.<br />
(2.25) Devo disporre 36 oggetti in 6 caselle ed ho la possibilità di ripetere le cifre e di mettere la<br />
stessa cifre in più caselle. Si ha: 36 6 = 2.2 x 10 9 combinazioni. Al massimo impiego per<br />
trovarla un tempo pari a 2.2 x 10 9 x 10 -3 s / 3.15 x 10 7 s = 0.070 anni, poco meno di un<br />
mese. Nel secondo caso invece il numero di combinazioni é 26 3 x 10 3 = 1.7 x 10 7 da cui il<br />
tempo massimo é meno di 5 ore.<br />
(2.26) P(>8.2) = 18%; p(3 volte > 8.2) = 0.58%.<br />
(2.27) Mi riconduco alla gaussiana standardizzata. Per i dati: m 1 = (129 – 138.2 ) / 4.58 = -2.01 e<br />
m 2 = (149 – 138.2 ) / 4.58 = 2.35 mentre per la simulazione m 1 = -2.32 e m 2 = 2.72. Dalle<br />
tabelle si ottiene nei 2 casi P(m 1 < m < m 2 ) = 0.9684 per i dati e 0.9865 per la simulazione.<br />
Si passa da una reiezione del 3.2% nei dati ad una del 1.4% nella simulazione.<br />
(2.28) Sono 24 prove e la probabilità del successo é 2.34% (se vogliamo chiamare successo il fatto<br />
di arrivare in ritardo). Uso la binomiale: P(0 successi) = (1-0.0234) 24 = 57%. Ho una<br />
probabilità del 43% di arrivare almeno una volta in ritardo.<br />
(2.29) Rate di decessi poissoniano = 1 / 62 g -1 da cui il λ per un mese (assunto medio di 30 giorni)<br />
é λ = 0.48. P(>0) = 1 – P(0) = 1 – exp(-λ) = 38%.<br />
(2.30) L’altezza H della distribuzione triangolare deve soddisfare il criterio di normalizzazione: 40<br />
x H / 2 = 1. Da ciò H = 0.05 anni -1 . La funzione a 60é per ragioni geometriche (basta<br />
disegnare la distribuzione per rendersene conto) H/2. Calcolo P(>60) = 10 x H/2 /2 = 12.5%.<br />
La probabilità che i primi 3 siano > 60é (assumendo che ogni docente sia preso a caso dal<br />
corpo docente) 0.125 3 = 0.2% molto bassa.<br />
(2.31) Classico problema binomiale. N = 5, p = 1250/2000 = 0.625. P(>2) = P(3) + P(4) + P(5) =<br />
72.4%.<br />
(2.32) Tre poissoniane indipendenti nel limite gaussiano. Per ciascuna P( 2) = 0.025. Che su 10 bin 2 e solo 2 di questi dia<br />
più di 575 costituisce di nuovo un problema binomiale con N = 10 e p = 0.025. P(2) = 2.3%.<br />
Si noti che l’assunzione iniziale di poissonianità é in realtà una approssimazione. Infatti i<br />
contenuti di ciascun bin sono distribuiti a rigore secondo una distribuzione multinomiale che<br />
può essere descritta dal prodotto di poissoniane indipendenti quando il numero di bin é<br />
abbastanza elevato.<br />
(2.34) N(N-1) = 90.<br />
(2.35) Esempio tipico in cui si applica il teorema di Bayes. Con ovvio significato dei simboli:<br />
P(D/colore) = P(colore/D) P 0 (D) / [ P(colore/D) P 0 (D) + P(colore/R) P 0 (R) ] in cui<br />
evidentemente P 0 (D) e P 0 (R) sono le probabilità a priori che incontrando una persona questa<br />
sia democratica (il 23.6%) o repubblicana (il 76.4%), P(colore/D) e P(colore/R) sono i<br />
129