Note del corso di Analisi II (parte di calcolo delle probabilita' e ...
Note del corso di Analisi II (parte di calcolo delle probabilita' e ...
Note del corso di Analisi II (parte di calcolo delle probabilita' e ...
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
mo<strong>del</strong>li statistici alternativi, ciascuno con la sua <strong>di</strong>stribuzione <strong>di</strong> probabilità. Sappiamo però che A 5<br />
ha poi vinto la lotteria. Si chiede <strong>di</strong> in<strong>di</strong>viduare la <strong>di</strong>stribuzione <strong>di</strong> probabilità più verosimile, ovvero<br />
<strong>di</strong> congetturare chi possa essere stato il superacquirente. Mostreremo che è ragionevole rispondere che<br />
costui sia A 5 , ovvero il vincitore.<br />
Si noti la <strong>di</strong>fferenza tra:<br />
(i) il problema probabilistico <strong>di</strong> calcolare le probabilità <strong>di</strong> vittoria <strong>di</strong> ciascun <strong>parte</strong>cipante, sapendo<br />
quale è il superacquirente,<br />
(ii) il problema statistico <strong>di</strong> in<strong>di</strong>viduare il superacquirente, sapendo chi ha vinto la lotteria.<br />
Entrambi i problemi ammettono una soluzione rigorosa, che però fornisce solo un risultato probabilistico,<br />
ovvero fornisce un risultato espresso in termini <strong>di</strong> probabilità.<br />
Ciascuno dei 10 <strong>parte</strong>cipanti A 1 , ..., A 10 può essere il superacquirente. In modo più formale, posto<br />
Θ := {1, ..., 10}, ad ogni θ ∈ Θ associamo il mo<strong>del</strong>lo statistico M θ : “A θ ha acquistato 11 biglietti, gli<br />
altri ne hanno acquistati 9”. Ciascun M θ in<strong>di</strong>vidua la <strong>di</strong>stribuzione <strong>di</strong> probabilità definita come segue:<br />
posto p(i|θ) := “probabilità <strong>di</strong> vittoria <strong>di</strong> A i con<strong>di</strong>zionata dal fatto che A θ sia il superacquirente”,<br />
p(i|θ) = 11/20 per i = θ, p(i|θ) = 1/20 per i ≠ θ. (6.15)<br />
(Si noti che la <strong>di</strong>pendenza dal parametro θ è rappresentata usando la notazione tipica <strong>del</strong> con<strong>di</strong>zionamento<br />
probabilistico.) La funzione <strong>di</strong> verosimiglianza L(θ, i) := p(i|θ) è quin<strong>di</strong><br />
L(θ, i) = 11/20 per θ = i, L(θ, i) = 1/20 per θ ≠ i. (6.16)<br />
Pertanto L(·, i) è massimizzata per θ = i, ovvero attribuendo l’acquisto <strong>di</strong> 11 biglietti al vincitore. 44<br />
Quanto è plausibile questa conclusione? Si noti che essa non <strong>di</strong>pende dal numero <strong>di</strong> biglietti acquistati<br />
dall’ignoto superacquirente: possiamo sostituire 11 con 100 o con 2, il risultato non cambia, anche<br />
se la conclusione è molto più plausibile nel primo caso che nel secondo. Infatti, se il superacquirente<br />
ha acquistato 100 biglietti, è alquanto verosimile che sia lui vincitore. Se invece ne ha acquistati solo<br />
2, è più verosimile che il vincitore sia uno degli altri 9. Tuttavia, dovendo in<strong>di</strong>care il superacquirente,<br />
non si può rispondere “uno qualsiasi dei non vincitori”: dobbiamo sceglierne uno! Ed allora la scelta<br />
più ragionevole cade proprio sul vincitore (anche se è proprio quello che avremmo voluto escludere!)<br />
Un Altro Esempio. Si consideri una moneta che ignoriamo se sia equilibrata o meno; al fine <strong>di</strong><br />
stabilirlo, 45 lanciamo la moneta n volte. L’esito <strong>del</strong> lancio i-esimo è una variabile aleatoria X avente<br />
<strong>di</strong>stribuzione <strong>di</strong> Bernoulli Ber(θ), con θ ∈ Θ := [0, 1]:<br />
X = 1 se viene testa, X = 0 se viene croce.<br />
L’esito degli n lanci è quin<strong>di</strong> rappresentato da un campione aleatorio (X 1 , ..., X n ).<br />
Possiamo stimare θ me<strong>di</strong>ante l’esito <strong>del</strong> primo lancio, X 1 , o più astutamente me<strong>di</strong>ante la me<strong>di</strong>a<br />
campionaria ¯X n := 1 ∑ ni=1<br />
n<br />
X i . Sia T 1 (X 1 , ..., X n ) := X 1 che T 2 (X 1 , ..., X n ) := ¯X n sono statistiche (che<br />
in<strong>di</strong>cheremo brevemente con T 1 e T 2 ), poichè sono variabili aleatorie che <strong>di</strong>pendono solo da X 1 , ..., X n<br />
(e non da θ); possono essere considerate degli stimatori <strong>di</strong> θ, ovvero <strong>del</strong>la speranza <strong>del</strong>la variabili<br />
aleatorie X (∼Ber(θ)). Effettuare i lanci corrisponde a fissare un ω ∈ Ω. I valori ottenuti X 1 (ω) e<br />
¯X n (ω) sono quin<strong>di</strong> stime <strong>di</strong> θ.<br />
Gli stimatori T 1 che T 2 sono non <strong>di</strong>storti. Gli errori quadratici me<strong>di</strong> coincidono quin<strong>di</strong> con le<br />
rispettive varianze, che sono <strong>di</strong>verse:<br />
Var θ (T 1 ) = θ(1 − θ), Var θ (T 2 ) (3.18)<br />
= 1 n Var θ(X 1 ) = 1 θ(1 − θ).<br />
n<br />
44 Si noti la presenza <strong>di</strong> due <strong>di</strong>versi punti <strong>di</strong> vista. Dal punto <strong>di</strong> vista probabilistico, si suppone θ nota e I variabile; si<br />
usa quin<strong>di</strong> la <strong>di</strong>stribuzione <strong>di</strong> probabilità data dalla (6.15). Dal punto <strong>di</strong> vista statistico, invece si suppone I nota e θ<br />
incognita; entra quin<strong>di</strong> in gioco la funzione <strong>di</strong> verosimiglianza (6.16).<br />
45 o meglio, al fine <strong>di</strong> congetturarlo. In statistica non si perviene ad alcuna certezza circa i mo<strong>del</strong>li probabilistici, pur<br />
essendo le conclusioni precise e rigorose.<br />
28