11.08.2013 Views

Lezioni di STATISTICA MATEMATICA

Lezioni di STATISTICA MATEMATICA

Lezioni di STATISTICA MATEMATICA

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Università <strong>di</strong> Modena e Reggio Emilia<br />

Facoltà <strong>di</strong> Ingegneria - sede <strong>di</strong> Modena<br />

<strong>Lezioni</strong><br />

<strong>di</strong><br />

<strong>STATISTICA</strong> <strong>MATEMATICA</strong><br />

Docente: Prof. Valter Franceschini<br />

per i Corsi <strong>di</strong> Laurea in Ingegneria Meccanica e dei Materiali<br />

- a.a. 2008/09 -


INDICE<br />

1 CALCOLO DELLE PROBABILITÀ 1<br />

1.1 Calcolo combinatorio 1<br />

1.2 La probabilità matematica 5<br />

Spazi <strong>di</strong> probabilità finiti 8<br />

Spazi finiti equiprobabili 9<br />

1.3 Probabilità con<strong>di</strong>zionata 14<br />

Eventi in<strong>di</strong>pendenti 16<br />

Formula <strong>di</strong> Bayes 19<br />

1.4 Variabili aleatorie 23<br />

Variabili aleatorie <strong>di</strong>screte 25<br />

Variabili aleatorie continue 26<br />

1.5 Me<strong>di</strong>a e varianza 31<br />

1.6 Variabili aleatorie bi<strong>di</strong>mensionali 37<br />

1.7 Distribuzioni binomiale, <strong>di</strong> Poisson e <strong>di</strong> Gauss 46<br />

Distribuzione binomiale 46<br />

Distribuzione <strong>di</strong> Poisson 49<br />

Distribuzione <strong>di</strong> Gauss 51<br />

1.8 Approssimazione normale 55<br />

1.9 Altre <strong>di</strong>stribuzioni 61<br />

Distribuzione esponenziale 61<br />

Distribuzione ipergeometrica 63<br />

Distribuzione geometrica 65<br />

2 <strong>STATISTICA</strong> DESCRITTIVA 66<br />

2.1 Introduzione 66<br />

2.2 Organizzazione e rappresentazione dei dati 66<br />

2.3 Grandezze che sintetizzano i dati 71<br />

3 <strong>STATISTICA</strong> <strong>MATEMATICA</strong> 81<br />

3.1 Popolazioni e campioni 81<br />

3.2 Stimatori 82<br />

3.3 Distribuzioni chi-quadro e <strong>di</strong> Student 85<br />

3.4 Intervalli <strong>di</strong> fiducia (o <strong>di</strong> confidenza) 87<br />

3.5 Stima della me<strong>di</strong>a <strong>di</strong> una popolazione normale 87<br />

3.6 Stima della varianza <strong>di</strong> una popolazione normale 91<br />

3.7 Stima della <strong>di</strong>fferenza delle me<strong>di</strong>e <strong>di</strong> due popolazioni normali 94<br />

3.8 Stima <strong>di</strong> una proporzione 99<br />

3.9 Basi logiche dei test 102<br />

3.10 Formulazione <strong>di</strong> un test <strong>di</strong> ipotesi 104<br />

3.11 Test <strong>di</strong> significatività 107<br />

3.12 Test riguardanti la me<strong>di</strong>a <strong>di</strong> una popolazione normale 109<br />

3.13 Test riguardanti la <strong>di</strong>fferenza delle me<strong>di</strong>e <strong>di</strong> due popolazioni normali 117<br />

3.14 Curve caratteristiche operative dei test 120<br />

Tavole delle leggi N(0, 1), χ 2 n e Tn 125<br />

Bibliografia 128


CAPITOLO 1: CALCOLO DELLE PROBABILITÀ<br />

1.1 CALCOLO COMBINATORIO<br />

DISPOSIZIONI<br />

Definizione Una <strong>di</strong>sposizione semplice <strong>di</strong> n oggetti dati presi k alla volta è una<br />

k¡upla or<strong>di</strong>nata <strong>di</strong> k oggetti <strong>di</strong>stinti scelti tra gli n (ovviamente k · n) .<br />

Esempio 1.1.1 Le <strong>di</strong>sposizioni semplici dei 3 oggetti dati a, b, c presi a coppie (per cui<br />

k = 2, n = 3), sono<br />

(a, b), (b, c), (c, a), (b, a), (c, b), (a, c) .<br />

Proposizione Il numero <strong>di</strong> <strong>di</strong>sposizioni semplici <strong>di</strong> n oggetti presi k alla volta, che<br />

in<strong>di</strong>chiamo con D(k; n), è il prodotto dei k numeri naturali decrescenti a partire<br />

da n:<br />

D(k; n) = n(n ¡ 1) ¢ ¢ ¢ (n ¡ k + 1) =<br />

n!<br />

(n ¡ k)! .<br />

Infatti, se riempio k caselle in or<strong>di</strong>ne, nella prima ho n possibilità <strong>di</strong> scelta, nella<br />

seconda (n ¡ 1) possibilità, ..., nella k¡esima (n ¡ k + 1).<br />

Definizione Una <strong>di</strong>sposizione con ripetizione <strong>di</strong> n oggetti dati presi k alla volta<br />

è una k¡upla or<strong>di</strong>nata i cui elementi, non necessariamente <strong>di</strong>stinti, sono scelti fra<br />

gli n.<br />

Osservazione: <strong>di</strong>fferentemente dal caso delle <strong>di</strong>sposizioni semplici, k può anche essere<br />

maggiore <strong>di</strong> n.<br />

Esempio 1.1.2 Le <strong>di</strong>posizioni con ripetizione dei tre oggetti a, b, c a due a due (per cui<br />

n = 3, k = 2) sono<br />

(a, a), (a, b), (b, a), (b, b), (b, c), (c, b), (a, c), (c, a), (c, c) .<br />

Proposizione Il numero <strong>di</strong> <strong>di</strong>sposizioni con ripetizione <strong>di</strong> n oggetti presi k alla<br />

volta è<br />

D R (k; n) = n k .<br />

Infatti, se riempio k caselle in or<strong>di</strong>ne, nella prima casella ho n possibilità <strong>di</strong> scelta,<br />

nella seconda ho ancora n possibilità, e così per tutte le altre caselle. Ottengo quin<strong>di</strong><br />

il numero <strong>di</strong> oggetti elevato al numero <strong>di</strong> caselle.<br />

Esempio 1.1.3 Il numero delle possibile sche<strong>di</strong>ne del totocalcio è 3 13 ; questo è infatti il<br />

numero <strong>di</strong> <strong>di</strong>sposizioni con ripetizione dei 3 simboli 1, 2, x, in 13 caselle or<strong>di</strong>nate.<br />

Osservazione: Come si deduce da quanto appena visto, in questo contesto l’aggettivo<br />

1


”semplice” significa ”senza ripetizioni”.<br />

2


PERMUTAZIONI<br />

Definizione Una permutazione <strong>di</strong> n oggetti dati è una n¡upla or<strong>di</strong>nata i cui<br />

elementi sono tutti gli n oggetti.<br />

Detto altrimenti, una permutazione è una <strong>di</strong>sposizione semplice degli n oggetti dati<br />

quando sono presi tutti n (si tratta del caso k = n). Di conseguenza il numero P (n)<br />

delle possibili permutazioni <strong>di</strong> n oggetti vale<br />

P (n) = n(n ¡ 1) ¢ ¢ ¢ 3 ¢ 2 ¢ 1 ´ n!<br />

Il simbolo n! si legge “n fattoriale” e designa il prodotto dei primi n numeri naturali.<br />

Per convenzione si pone 0! = 1. Si è dunque trovato che vale la seguente<br />

Proposizione Il numero P (n) delle permutazioni <strong>di</strong> n oggetti è uguale a n! .<br />

Esempio 1.1.4 Le permutazioni <strong>di</strong> 5 clienti <strong>di</strong> banca (che rappresentano i possibili mo<strong>di</strong> <strong>di</strong><br />

metterli in or<strong>di</strong>ne <strong>di</strong> attesa a uno sportello) sono 5!, ossia = 5 ¢ 4 ¢ 3 ¢ 2 ¢ 1 = 120.<br />

COMBINAZIONI<br />

Definizione Una combinazione semplice <strong>di</strong> n oggetti dati presi k alla volta,<br />

k · n, è un sottoinsieme non or<strong>di</strong>nato <strong>di</strong> k oggetti <strong>di</strong>stinti scelti tra gli n.<br />

Esempio 1.1.5 Le combinazioni dei 3 oggetti a, b, c, presi 2 alla volta sono<br />

fa, bg, fb, cg, fa, cg .<br />

Si noti che fa, bg ´ fb, ag. Per gli insiemi astratti (per i quali si usa la parentesi graffa)<br />

non vige alcuna struttura d’or<strong>di</strong>ne.<br />

Proposizione Il numero <strong>di</strong> combinazioni semplici <strong>di</strong> n oggetti presi k alla volta,<br />

che in<strong>di</strong>chiamo con C(k; n), vale<br />

<br />

n<br />

C(k; n) = .<br />

k<br />

Ricordato che <br />

n n(n ¡ 1)...(n ¡ k + 1)<br />

:= =<br />

k<br />

k!<br />

n!<br />

k!(n ¡ k)! ,<br />

<strong>di</strong>mostriamo la proposizione enunciata. Per ciascuna combinazione in cui sono presi<br />

k oggetti alla volta, esistono P (k) mo<strong>di</strong> <strong>di</strong> metterli in or<strong>di</strong>ne. Di conseguenza, fra<br />

il numero D(k; n) delle <strong>di</strong>sposizioni e il numero C(k; n) delle combinazioni vale la<br />

seguente relazione<br />

da cui<br />

D(k; n) = C(k; n) ¢ P (k) ,<br />

C(k; n) =<br />

D(k; n)<br />

P (k)<br />

Da questa segue imme<strong>di</strong>atamente la tesi della proposizione.<br />

3<br />

.


Esempio 1.1.6 Il numero <strong>di</strong> comitati <strong>di</strong> 4 persone che si possono formare da un gruppo <strong>di</strong> 9<br />

è<br />

C(4; 9) =<br />

<br />

9<br />

4<br />

9 ¢ 8 ¢ 7 ¢ 6<br />

= 9!/[4!(9 ¡ 4)!] = = 126 .<br />

4 ¢ 3 ¢ 2 ¢ 1<br />

Definizione Una combinazione con ripetizione <strong>di</strong> n oggetti dati presi k alla<br />

volta è un insieme non or<strong>di</strong>nato <strong>di</strong> k oggetti, non necessariamente <strong>di</strong>stinti, scelti<br />

tra gli n.<br />

Osservazione: come per le <strong>di</strong>sposizioni con ripetizione, e <strong>di</strong>fferentemente dal caso<br />

delle combinazioni semplici, k può anche essere maggiore <strong>di</strong> n.<br />

Esempio 1.1.7<br />

Le combinazioni con ripetizione dei 3 oggetti a, b, c, presi a coppie sono<br />

fa, ag, fa, bg, fa, cg, fb, bg, fb, cg, fc, cg .<br />

Analogamente, le combinazioni con ripetizione dei 2 oggetti a e b presi a terne sono<br />

fa, a, ag, fa, a, bg, fa, b, bg, fb, b, bg .<br />

Proposizione Il numero <strong>di</strong> combinazioni con ripetizione <strong>di</strong> n oggetti presi k alla<br />

volta è<br />

C R <br />

n + k ¡ 1<br />

(k; n) =<br />

.<br />

k<br />

Dimostrazione<br />

Si tratta <strong>di</strong> contare il numero <strong>di</strong> soluzioni (a1, a2, . . . , ak), con gli ai numeri interi,<br />

sod<strong>di</strong>sfacenti la relazione<br />

Questa relazione equivale alla seguente<br />

che a sua volta equivale a<br />

1 · a1 · a2 · ¢ ¢ ¢ · ak · n .<br />

0 < a1 < a2 + 1 < a3 + 2 < ¢ ¢ ¢ < ak + k ¡ 1 < n + k ,<br />

0 < b1 < b2 < ¢ ¢ ¢ < bk < n + k ,<br />

con i bi interi. Ne consegue che il numero cercato è uguale al numero <strong>di</strong> possibili<br />

scelte <strong>di</strong> k oggetti <strong>di</strong>stinti presi dall’insieme f1, 2, . . . , n + k ¡ 1g, e quin<strong>di</strong> è uguale a<br />

C(k; n + k ¡ 1).<br />

Esempio 1.1.8 Applichiamo la formula che ci dà CR (k; n) per verificare che il numero <strong>di</strong><br />

combinazioni con ripetizione nei due casi visti nell’esempio 1.1.7 è rispettivamente 6 e 4.<br />

Dobbiamo ovviamente calcolare CR (2, 3) e CR (3, 2). Si ha<br />

C R <br />

3 + 2 ¡ 1 4<br />

(2, 3) =<br />

= = 6 ;<br />

2 2<br />

C R <br />

2 + 3 ¡ 1 4<br />

(3, 2) =<br />

= = 4 .<br />

3 3<br />

4


Esercizio 1.1.1 Si consideri un gruppo costituito da 20 persone. Ci si pone il seguente<br />

problema: qual è la probabilità che queste persone compiano gli anni in giorni tutti <strong>di</strong>versi?<br />

Com’è facilmente intuibile, la probabilità che ci interessa è data dal rapporto fra il numero<br />

N<strong>di</strong>st dei casi possibili <strong>di</strong> 20 compleanni tutti <strong>di</strong>stinti e il numero totale Ntot dei casi possibili<br />

<strong>di</strong> 20 compleanni anche con coincidenze. Volendo formalizzare il problema in termini<br />

matematici, in<strong>di</strong>chiamo con (c1, c2, ..., c20) la 20¡upla definita dai 20 compleanni, con ci<br />

giorno <strong>di</strong> compleanno della i-esima persona. Allora N<strong>di</strong>st corrisponde al numero delle possibili<br />

20¡uple <strong>di</strong> ci tutti <strong>di</strong>stinti, con 1 · ci · 365, il che implica N<strong>di</strong>st = D(20; 365).<br />

D’altra parte Ntot corrisponde al numero <strong>di</strong> tutte le possibili 20¡uple con 1 · ci · 365,<br />

ossia Ntot = D R (20; 365). In<strong>di</strong>cando con P la probabilità cercata si ha<br />

P = N<strong>di</strong>st<br />

Ntot<br />

= D(20; 365)<br />

DR 365 ¢ 364 ¢ ¢ ¢ ¢ ¢ 346<br />

=<br />

(20, 365) (365) 20 =<br />

365<br />

365<br />

364<br />

365<br />

<br />

¢ ¢ ¢<br />

<br />

346<br />

<br />

¼ 59% .<br />

365<br />

Proposizione Vale la seguente formula, detta formula binomiale <strong>di</strong> Newton:<br />

(a + b) n =<br />

n<br />

0<br />

<br />

a n +<br />

ovvero, in notazione compatta,<br />

Dimostrazione<br />

n<br />

1<br />

(a + b) n =<br />

<br />

a n−1 b + ... +<br />

n<br />

k=0<br />

n<br />

n ¡ 1<br />

<br />

n<br />

a<br />

k<br />

n−k b k .<br />

<br />

ab n−1 +<br />

(a + b) n = (a + b)(a + b)...(a + b) [n volte]<br />

n<br />

n<br />

<br />

b n<br />

è una lunga somma che contiene più volte l’addendo generico a n−k b k . Fissiamo k,<br />

con k · n. Quante volte appare tale addendo? Tante quante le possibili scelte <strong>di</strong><br />

k parentesi tra le n date, prendendo da ciascuna il fattore b (ottenendo così b k ), e<br />

conseguentemente prendendo da ciascuna delle rimanenti n ¡ k parentesi il fattore a<br />

(ottenendo così a n−k ). In altre parole: il fattore a n−k b k compare tante volte quante<br />

<br />

n<br />

sono le combinazioni semplici <strong>di</strong> k oggetti tra gli n dati. Cioè volte. Quin<strong>di</strong> tale<br />

<br />

k<br />

n<br />

addendo va moltiplicato per e la somma va fatta rispetto a k come enunciato.<br />

k<br />

Esercizio 1.1.2 Provare la proprietà dei coefficienti binomiali<br />

<br />

n ¡ 1 n ¡ 1 n<br />

+ = .<br />

k ¡ 1 k k<br />

Proce<strong>di</strong>amo con calcolo <strong>di</strong>retto:<br />

<br />

n ¡ 1 n ¡ 1<br />

+ =<br />

k ¡ 1 k<br />

= (n ¡ 1)! k + (n ¡ 1)! (n ¡ k)<br />

(n ¡ 1)!<br />

(k ¡ 1)! (n ¡ k)! +<br />

k! (n ¡ k)!<br />

(n ¡ 1)!<br />

k! (n ¡ 1 ¡ k)! =<br />

= (n ¡ 1)! (k + n ¡ k)<br />

k! (n ¡ k)!<br />

=<br />

<br />

n<br />

.<br />

k<br />

Osserviamo che è grazie a questa relazione che si costruisce il famoso “triangolo <strong>di</strong> Tartaglia”.<br />

5


1.2 LA PROBABILITÀ <strong>MATEMATICA</strong><br />

Definizione Si chiama spazio campionario l’insieme S <strong>di</strong> tutti i possibili esiti<br />

<strong>di</strong> un dato esperimento. Un evento è un insieme <strong>di</strong> esiti, cioè un sottinsieme<br />

dello spazio campionario S. Si <strong>di</strong>ce poi classe <strong>di</strong> eventi, e la denoteremo con Ω,<br />

ogni insieme non vuoto <strong>di</strong> eventi che risulti essere chiuso rispetto alle operazioni<br />

insiemistiche elementari, vale a <strong>di</strong>re:<br />

i) dati due eventi A, B 2 Ω, allora anche A [ B 2 Ω (A [ B è l’evento che si<br />

verifica se si verifica almeno uno fra gli eventi A e B);<br />

ii) data una successione numerabile <strong>di</strong> eventi Ai 2 Ω, allora anche la loro unione<br />

è un evento, cioè ∞<br />

i=1 Ai 2 Ω;<br />

iii) dato un evento A 2 Ω, allora anche il suo complementare A C ´ S ¡ A 2 Ω<br />

(A C è l’evento che si verifica quando A non si verifica).<br />

Dai tre assiomi che caratterizzano una classe <strong>di</strong> eventi Ω seguono queste altre proprietà:<br />

— Dati due eventi A e B, anche A \ B è un evento; infatti:<br />

A \ B = (A C [ B C ) C =) A \ B 2 Ω ;<br />

— L’insieme vuoto ; e lo spazio S sono eventi; infatti, preso A 2 Ω, si ha<br />

A \ A C = ; =) ; 2 Ω , A [ A C = S =) S 2 Ω .<br />

L’evento ; è detto evento impossibile e S è detto evento certo.<br />

Definizione Due eventi A e B sono detti incompatibili se sono <strong>di</strong>sgiunti, cioè se<br />

A \ B = ;. A parole: due eventi sono incompatibili se non si possono mai verificare<br />

simultaneamente.<br />

Esempio 1.2.1 Si consideri il seguente esperimento: si getta un dado e si guarda il risultato<br />

della prova, vale a <strong>di</strong>re il numero che si presenta. Lo spazio campionario consiste nei sei<br />

numeri possibili:<br />

S = f1, 2, 3, 4, 5, 6g .<br />

Consideriamo i seguenti eventi: A:“il risultato è un numero pari”; B:“il risultato è un<br />

numero <strong>di</strong>spari”; C:“il risultato è un numero primo”. In termini si sottinsiemi <strong>di</strong> S :<br />

A = f2, 4, 6g , B = f1, 3, 5g , C = f2, 3, 5g .<br />

Si ha quin<strong>di</strong>, ad esempio:<br />

A C = f1, 3, 5g = B ;<br />

C C = f1, 4, 6g: è l’evento “il risultato non è un numero primo”;<br />

B \ C = f3, 5g: è l’evento “il risultato è un numero <strong>di</strong>spari e primo”;<br />

A [ C = f2, 3, 4, 5, 6g: è l’evento “il risultato è un numero pari o primo”.<br />

Si noti che gli eventi A e B, essendo A \ B = ;, sono incompatibili.<br />

6


Osservazione: Come si evince dall’esempio, gli eventi sono definiti me<strong>di</strong>ante proposizioni<br />

fatte nel linguaggio comune, e poi identificati con sottinsiemi <strong>di</strong> S. Sulla base <strong>di</strong> questa<br />

considerazione risulta molto più appropriato parlare <strong>di</strong> eventi incompatibili piuttosto che <strong>di</strong><br />

eventi <strong>di</strong>sgiunti, e <strong>di</strong> sottinsiemi <strong>di</strong>sgiunti piuttosto che <strong>di</strong> sottinsiemi incompatibili. Accade<br />

però spesso che i due aggettivi siano usati in<strong>di</strong>fferentemente.<br />

Definizione Sia S uno spazio campionario ed Ω una classe <strong>di</strong> eventi in S. Sia poi<br />

P una funzione definita su Ω a valori in [0, 1]:<br />

P : Ω ¡! [0, 1] .<br />

Allora (S, Ω, P ) è detto spazio <strong>di</strong> probabilità e P (A) è detta probabilità dell’evento<br />

A 2 Ω se valgono i seguenti tre assiomi:<br />

1) P (S) = 1 ;<br />

2) se A e B sono due eventi incompatibili, allora<br />

P (A [ B) = P (A) + P (B) ;<br />

3) se fAn, n 2 Ng è una successione numerabile <strong>di</strong> eventi incompatibili, si ha<br />

∞<br />

P<br />

= P (An) .<br />

<br />

[ ∞ n=1An<br />

Gli assiomi 2) e 3) esprimono il fatto che le probabilità <strong>di</strong> eventi incompatibili si<br />

sommano. In particolare l’assioma 3), che ovviamente ha significato solo nel caso in<br />

cui Ω è un insieme infinito, si esprime sinteticamente <strong>di</strong>cendo che P è numerabilmente<br />

ad<strong>di</strong>tiva.<br />

Teorema P (;) = 0 . (La probabilità dell’evento impossibile è nulla)<br />

Dimostrazione<br />

Sia A un qualunque evento <strong>di</strong> Ω. Poiché anche ; 2 Ω, segue che A [ ; 2 Ω. Inoltre,<br />

A ed ; sono eventi incompatibili essendo A \ ; = ;. In virtù dell’assioma 2) si ha<br />

quin<strong>di</strong><br />

n=1<br />

P (A) = P (A [ ;) = P (A) + P (;) =) P (;) = 0 .<br />

Teorema (regola <strong>di</strong> complementazione) Sia A 2 Ω un evento ed A C il suo complementare.<br />

Allora si ha<br />

Dimostrazione<br />

P (A C ) = 1 ¡ P (A) .<br />

Essendo A \ A C = ;, A ed A C sono eventi incompatibili. Di conseguenza, applicando<br />

l’assioma 2) ad S, si ottiene<br />

da cui consegue banalmente la tesi.<br />

P (S) = P (A [ A C ) = P (A) + P (A C ) = 1 ,<br />

7


Teorema Se A e B sono due eventi tali che<br />

A µ B, allora<br />

Dimostrazione<br />

P (A) · P (B) .<br />

Essendo A µ B si può decomporre B negli<br />

eventi incompatibili A e B ¡ A = B \ A C . Si<br />

può quin<strong>di</strong> scrivere<br />

esssendo P (B ¡ A) ¸ 0.<br />

P (B) = P (A [ (B ¡ A)) = P (A) + P (B ¡ A) ¸ P (A) ,<br />

Teorema Se A e B sono due eventi qualunque,<br />

allora<br />

P (A ¡ B) = P (A) ¡ P (A \ B) .<br />

Dimostrazione<br />

L’evento A può essere decomposto negli eventi<br />

incompatibili A ¡ B e A \ B, per cui, in virtù<br />

dell’assioma 2), si ha<br />

P (A) = P (A ¡ B) [ (A \ B) = P (A ¡ B) + P (A \ B) .<br />

La tesi segue imme<strong>di</strong>atamente.<br />

Teorema (regola <strong>di</strong> ad<strong>di</strong>zione per eventi arbitrari)<br />

Se A, B sono eventi arbitrari <strong>di</strong> uno<br />

spazio <strong>di</strong> probabilità, allora<br />

P (A [ B) = P (A) + P (B) ¡ P (A \ B) .<br />

Dimostrazione<br />

Scriviamo A [ B come unione dei due eventi<br />

incompatibili A ¡ B e B. Applicando quin<strong>di</strong><br />

l’assioma 2) e il teorema precedente si ottiene<br />

la tesi.<br />

P (A [ B) = P (A ¡ B) [ B = P (A ¡ B) + P (B) = P (A) + P (B) ¡ P (A \ B) .<br />

8


Sia S uno spazio campionario finito:<br />

Spazi <strong>di</strong> probabilità finiti<br />

S = fa1, a2, . . . , aNg<br />

ed Ω l’insieme <strong>di</strong> tutti i sottinsiemi <strong>di</strong> S (inclusi S e ;). Si ottiene uno spazio <strong>di</strong><br />

probabilità finito assegnando a ciascun elemento ai <strong>di</strong> S un numero reale pi, detto<br />

probabilità <strong>di</strong> ai e in<strong>di</strong>cato come P (faig), tale che<br />

i) pi ¸ 0 per ogni i = 1, 2, . . . , N;<br />

ii) la somma delle singole probabilità è uguale a 1, ossia N<br />

i=1 pi = 1 .<br />

La probabilità P (A) <strong>di</strong> un qualsiasi evento A µ S viene quin<strong>di</strong> definita come la somma<br />

delle probabilità degli eventi elementari faig contenuti in A:<br />

<br />

P (A) = P<br />

i:ai∈A<br />

<br />

faig = <br />

i:ai∈A<br />

P faig = <br />

i:ai∈A<br />

Dimostriamo che la funzione P : Ω ! [0, 1] è una funzione <strong>di</strong> probabilità facendo<br />

vedere che valgono gli assiomi 1) e 2). Per quanto riguarda la vali<strong>di</strong>tà dell’assioma<br />

1), si ha<br />

<br />

P (S) = P<br />

i:ai∈S<br />

<br />

faig = P<br />

N <br />

i=1<br />

<br />

faig =<br />

N<br />

P faig =<br />

i=1<br />

D’altra parte, se A e B sono eventi incompatibili, abbiamo<br />

<br />

P (A [ B) = P<br />

= <br />

i:ai∈A<br />

i:ai∈A∪B<br />

pi + <br />

<br />

faig = <br />

i:ai∈B<br />

i:ai∈A∪B<br />

pi .<br />

N<br />

pi = 1 .<br />

i=1<br />

P faig =<br />

pi = P (A) + P (B) ,<br />

per cui vale anche l’assioma 2). Valgono dunque tutti gli assiomi richiesti perché P<br />

sia una probabilità (essendo lo spazio finito, l’assioma 3) non ha significato).<br />

Dal punto <strong>di</strong> vista pratico ci sono <strong>di</strong>versi mo<strong>di</strong> <strong>di</strong> assegnare le probabilità pi agli<br />

eventi elementari faig. Uno dei possibili mo<strong>di</strong> è il seguente: se ripetiamo lo stesso<br />

esperimento n volte e chiamiamo si il numero <strong>di</strong> volte che si verifica faig, si osserva<br />

che il rapporto<br />

si<br />

n ,<br />

detto frequenza relativa, a lungo andare tende a stabilizzarsi, cioè tende ad un limite<br />

pi (compreso, ovviamente, tra 0 ed 1). Questo valore limite pi, così calcolato<br />

empiricamente, viene assunto come la probabilità dell’evento elementare faig.<br />

9


Spazi finiti equiprobabili<br />

Definizione Si <strong>di</strong>ce spazio equiprobabile (o uniforme) uno spazio <strong>di</strong> probabilità<br />

finito dove ciascun elemento dello spazio campionario S (o, equivalentemente,<br />

ciascun evento elementare) ha la stessa probabilità.<br />

Dalla definizione e dagli assiomi della probabilità segue imme<strong>di</strong>atamente che, se lo<br />

spazio campionario S consta <strong>di</strong> N elementi, la probabilità <strong>di</strong> ciascun elemento <strong>di</strong> S<br />

vale p = 1<br />

. Avremo inoltre che, dato un qualunque evento A, la sua probabilità sarà<br />

N<br />

da<br />

P (A) =<br />

numero degli elementi <strong>di</strong> A<br />

N<br />

= jAj<br />

N .<br />

A parole: in uno spazio finito equiprobabile, la probabilità <strong>di</strong> un evento vale il<br />

numero dei casi favorevoli <strong>di</strong>viso il numero dei casi possibili.<br />

Nota bene: jAj denota la car<strong>di</strong>nalità <strong>di</strong> A, cioè il numero degli eventi elementari che<br />

costituiscono A. Questa notazione sarà utizzata anche in seguito.<br />

Esempio 1.2.2 Consideriamo un dado non truccato: avremo<br />

S = f1, 2, 3, 4, 5, 6g, N = 6 , P (1) = P (2) = ¢ ¢ ¢ = P (6) = 1<br />

6 .<br />

Vogliamo calcolare, ad esempio, la probabilità degli eventi<br />

Si avrà<br />

A : esce un numero pari, B : esce un numero minore <strong>di</strong> 3.<br />

P (A) =<br />

jf2, 4, 6gj<br />

6<br />

= 1<br />

jf1, 2gj<br />

, P (B) = =<br />

2 6<br />

1<br />

3 .<br />

Esercizio 1.2.1 Si scelga a caso una carta da un mazzo ben mescolato <strong>di</strong> 52 carte da ramino.<br />

Ci si chiede la probabilità <strong>di</strong> ottenere: 1) un asso; 2) una carta <strong>di</strong> fiori; 3) una figura; 4) una<br />

figura non <strong>di</strong> cuori.<br />

Lo spazio campionario S è ovviamente l’insieme delle 52 carte, per cui N=52. Siano poi<br />

A1, A2, A3 e A4 gli eventi <strong>di</strong> cui si chiede, nell’or<strong>di</strong>ne, la probabilità. Essendo lo spazio<br />

equiprobabile (la carta è scelta a caso!), avremo:<br />

P (A1) = jA1j<br />

N<br />

P (A2) = jA2j<br />

N<br />

P (A3) = jA3j<br />

N<br />

P (A4) = jA4j<br />

N<br />

= numero degli assi<br />

N<br />

= 4 1<br />

=<br />

52 13 ;<br />

= numero delle carte <strong>di</strong> fiori<br />

N<br />

= numero delle figure<br />

N<br />

= 13 1<br />

=<br />

52 4 ;<br />

= 12 3<br />

=<br />

52 13 ;<br />

= numero delle figure non <strong>di</strong> cuori<br />

N<br />

10<br />

= 9<br />

52 .


Esercizio 1.2.2 Si effettuano cinque lanci successivi <strong>di</strong> una moneta non truccata. Ci si<br />

chiede: qual è la probabilità che in cinque lanci esca “testa” almeno una volta?<br />

Introduciamo l’appropriato spazio <strong>di</strong> probabilità:<br />

S = (a1, a2, a3, a4, a5), con ai = T o ai = C, i = 1, ..., 5 ,<br />

dove ai in<strong>di</strong>ca il risultato del lancio i-esimo, e T e C stanno ovviamente per “testa” e “croce”.<br />

Siccome il numero delle possibili cinquine che costituiscono S è 2 5 , abbiamo N = 32, e quin<strong>di</strong><br />

p = 1<br />

32 .<br />

L’evento che ci interessa è<br />

A = “esce almeno una testa” ,<br />

che è il complementare dell’evento elementare f(C, C, C, C, C)g, la cui probabilità è ovviamente<br />

p. Si ha quin<strong>di</strong><br />

P (A) = 1 ¡ P (AC ) = 1 ¡ 1 31<br />

=<br />

32 32 .<br />

Esercizio 1.2.3 Problema: qual è la probabilità che fra M persone ce ne siano almeno due<br />

con lo stesso compleanno?<br />

Il problema, nella sostanza, è già stato affrontato nell’esercizio 1.1.1. Assunto che tutti gli<br />

anni siano <strong>di</strong> 365 giorni (considerare anche gli anni bisestili complicherebbe considerevolmente<br />

il problema), e che tutti i giorni siano equiprobabili, lo spazio <strong>di</strong> probabilità è<br />

S = (a1, a2, . . . , aM), ai 2 [1, 2, . . . , 365] .<br />

Siccome il numero degli eventi elementari è N = DR (M; 365) = 365M , ogni evento elementare<br />

ha probabilità p = 1<br />

.<br />

365M In<strong>di</strong>cato con AM l’evento “gli M compleanni avvengono tutti in giorni <strong>di</strong>versi”, l’evento <strong>di</strong><br />

cui interessa la probabilità è il complementare <strong>di</strong> AM , cioè AC M . Ricordando quanto visto<br />

nell’esercizio 1.1.1, generalizzandone il risultato si ottiene<br />

P (AM) = jAMj<br />

jSj<br />

e quin<strong>di</strong>, in virtù della regola <strong>di</strong> complementazione,<br />

D(M; 365)<br />

=<br />

DR 365 ¢ 364 ¢ ¢ ¢ ¢ ¢ (365 ¡ M + 1)<br />

=<br />

(M; 365) 365M ,<br />

P (A C M) = 1 ¡<br />

M i=1 (366 ¡ i)<br />

365M .<br />

Facendo il calcolo, si ottiene, ad esempio, P (A C 10) ¼ 12%, P (A C 20) ¼ 41%, P (A C 30) ¼ 71%,<br />

P (A C 50) ¼ 97%.<br />

11


Esercizio 1.2.4 Carlo e Giorgio sono due amici che ogni giorno scommettono sul risultato<br />

del lancio <strong>di</strong> un dado. Carlo punta sempre su un risultato <strong>di</strong>spari, Giorgio su un risultato<br />

pari. Giorgio crede che i numeri riportati sulle facce del dado (ovviamente gli interi da 1 a 6)<br />

siano equiprobabili. In realtà non è così in quanto Carlo, <strong>di</strong> nascosto, ha “truccato” il dado<br />

facendo in modo che il numero 1 abbia probabilità 1<br />

5 , lasciando però che gli altri numeri<br />

siano equiprobabili. Quali sono le probabilità <strong>di</strong> vincere <strong>di</strong> Carlo e Giorgio rispettivamente?<br />

Lo spazio campionario è ovviamente<br />

S = f1, 2, 3, 4, 5, 6g .<br />

Sia pi = P fig . Siccome sappiamo che p1 = 1<br />

5 e che p2=p3=p4=p5=p6, dovendo essere<br />

6 i=1 pi = 1, si ricava pi = 4<br />

25 , per i = 2, . . . , 6. L’evento per cui vince Carlo è<br />

A = “il risultato è <strong>di</strong>spari” = f1, 3, 5g .<br />

Ovviamente l’evento per cui vince Giorgio è A C . Si ha dunque<br />

e quin<strong>di</strong><br />

P (A) = P f1, 3, 5g = P f1g + P f3g + P f5g = 1 4 4 13<br />

5 + 25 + 25 = 25 ,<br />

P (A C ) = 1 ¡ P (A) = 12<br />

25 .<br />

In fin dei conti, Carlo è stato sleale, ma poteva esserlo molto <strong>di</strong> più.<br />

Esercizio 1.2.5 Le probabilità che tre giocatori G1, G2 e G3 colpiscano il bersaglio sono<br />

rispettivamente p1 = 1<br />

6 , p2 = 1<br />

4 , p3 = 1<br />

. Ciascuno spara una volta al bersaglio. Trovare la<br />

3<br />

probabilità degli eventi:<br />

a) A: “un solo giocatore colpisce il bersaglio”;<br />

b) B: “uno o due giocatori colpiscono il bersaglio”.<br />

Sia S ´ (s1, s2, s3) , con si = Y oppure si = N a seconda che il giocatore Gi colpisca<br />

oppure no il bersaglio. E quin<strong>di</strong><br />

S ´ (Y,Y,Y), (Y,Y,N), (Y,N,Y), (Y,N,N), (N,Y,Y), (N,Y,N), (N,N,Y), (N,N,N) .<br />

Sappiamo che P (fsi = Yg) = pi e <strong>di</strong> conseguenza P (fsi = Ng) = 1 ¡ pi. Essendo il<br />

risultato <strong>di</strong> ciascun sparo in<strong>di</strong>pendente dagli altri (il concetto <strong>di</strong> “eventi in<strong>di</strong>pendenti” sarà<br />

definito in maniera rigorosa più avanti), si ha<br />

Avremo perciò<br />

P (s1, s2, s3) = P (fs1g) ¢ P (fs2g) ¢ P (fs3g) .<br />

P (A) = P (Y,N,N) + P (N,Y,N) + P (N,N,Y) =<br />

= 1 3 2 5 1 2 5 3 1 31<br />

¢ ¢ + ¢ ¢ + ¢ ¢ =<br />

6 4 3 6 4 3 6 4 3 72<br />

P (B) = P f(Y, Y, Y ), (N, N, N)g C <br />

= 1 ¡ P (Y, Y, Y ) + P (N, N, N) <br />

=<br />

<br />

1 1 1 5 3 2<br />

<br />

= 1 ¡ ¢ ¢ + ¢ ¢ =<br />

6 4 3 6 4 3<br />

41<br />

72 .<br />

12


Esercizio 1.2.6 Un dado “equo” a 4 facce riportanti i numeri 1, 2, 3 e 4 è lanciato tre volte.<br />

Si chiede la probabilità <strong>di</strong> ottenere: i) almeno un tre; ii) nessun uno e nessun due.<br />

Lo spazio campionario è<br />

S = f(a1, a2, a3) , ai 2 [1, 2, 3, 4] , i = 1, 2, 3 .g<br />

Sia A l’evento “si è ottenuto almeno un 3”. In<strong>di</strong>cando con Qk l’evento “il risultato del<br />

k-esimo lancio è 3”, si ha AC = QC 1 \ QC 2 \ QC 3 . Essendo poi gli eventi Q1, Q2 e Q3<br />

in<strong>di</strong>pendenti uno dall’altro (in quanto il risultato <strong>di</strong> ciascuno non <strong>di</strong>pende da quello degli<br />

altri due), anche gli eventi complementari QC k sono in<strong>di</strong>pendenti. Tenendo conto <strong>di</strong> ciò e del<br />

fatto che P (Q1) = P (Q2) = P (Q3) = 1<br />

4 , per cui P (QC1 ) = P (QC2 ) = P (QC 3<br />

3 ) = 4 , si ha<br />

P (A) = 1 ¡ P (A C ) = 1 ¡ P Q C 1 \ QC2 \ QC C<br />

3 = 1 ¡ P (Q1 ) ¢ P (Q C 2 ) ¢ P (QC3 ) =<br />

<br />

3<br />

3 = 1 ¡ =<br />

4<br />

37<br />

¼ 57.8% .<br />

64<br />

Sia ora B l’evento “non si è ottenuto nessun uno e nessun due”. In<strong>di</strong>cando con Rk l’evento<br />

“il risultato del k-esimo lancio è 3 o 4”, si ha B = R1 \ R2 \ R3. Anche in questo caso i<br />

tre eventi Rk sono in<strong>di</strong>pendenti; inoltre P (R1) = P (R2) = P (R3) = 1<br />

2 . Ne consegue<br />

<br />

1<br />

3 P (B) = P (R1 \ R2 \ R3) = P (R1) ¢ P (R2) ¢ P (R3) = =<br />

2<br />

1<br />

= 12.5% .<br />

8<br />

Esercizio 1.2.7 Un’urna contiene 20 palline numerate progressivamente. a) Vengono estratte<br />

in blocco 4 palline: qual è la probabilità che venga estratta la pallina numero 1? b) Vengono<br />

estratte una dopo l’altra 4 palline ogni volta con reimmissione: qual è la probabilità<br />

che venga estratta la pallina numero 1?<br />

Sia A l’evento ”fra le 4 palline estratte c’è anche la numero 1”. L’evento complementare A C<br />

è dunque ”fra le 4 palline estratte non c’è la numero 1”. Calcoleremo P (A) come 1¡P (A C ),<br />

essendo P (A C ) molto semplice.<br />

a) Assumiamo come spazio S l’insieme <strong>di</strong> tutte le possibili <strong>di</strong>sposizioni (p1, p2, p3, p4)<br />

dei numeri da 1 a 20 presi quattro alla volta (senza ripetizioni). Essendo tali quaterne<br />

equiprobabili, avremo<br />

P (A) = 1 ¡ jAC j<br />

jSj<br />

D(4; 19) 19 ¢ 18 ¢ 17 ¢ 16 16 1<br />

= 1 ¡ = 1 ¡ = 1 ¡ =<br />

D(4; 20) 20 ¢ 19 ¢ 18 ¢ 17 20 5 .<br />

Allo stesso risultato si poteva pervenire anche per altra via. Come spazio S, infatti, si può<br />

assumere l’insieme <strong>di</strong> tutte le possibili combinazioni <strong>di</strong> 4 numeri interi (<strong>di</strong>stinti) presi tra 1<br />

e 20. Anche le combinazioni sono equiprobabili, per cui si ha<br />

P (A) = 1 ¡ jAC j<br />

jSj<br />

C(4; 19)<br />

= 1 ¡ = 1 ¡<br />

C(4; 20)<br />

19 4 20 4<br />

<br />

= 1 ¡ 19!<br />

15! 4!<br />

16! 4!<br />

20!<br />

4 1<br />

= 1 ¡ =<br />

5 5 .<br />

b) In questo caso, affinchè lo spazio campionario sia equiprobabile, bisogna assumere S<br />

costituito da tutte le possibili <strong>di</strong>sposizioni con ripetizione <strong>di</strong> 4 interi presi tra 1 e 20. Si ha<br />

dunque<br />

P (A) = 1 ¡ DR (4; 19)<br />

D R (4; 20)<br />

194<br />

= 1 ¡ = 1 ¡<br />

204 13<br />

<br />

19<br />

4 ¼ 1 ¡ 0.815 = 18.5% .<br />

20


Esercizio 1.2.8 Da un mazzo ben mescolato <strong>di</strong> 52 carte da ramino se ne estraggono 5 a caso.<br />

Si chiede la probabilità <strong>di</strong>: 1) un poker (PO); 2) un full (FU); 3) una doppia coppia (CC);<br />

4) una coppia (C).<br />

Lo spazio campionario S è costituito da tutte le possibili cinquine (non or<strong>di</strong>nate) <strong>di</strong> carte<br />

ottenute combinando senza ripetizioni le 52 carte <strong>di</strong> un mazzo, ossia<br />

S = f(c1, c2, c3, c4, c5) , ci 6= cjg , N = 52<br />

5<br />

= 2 · 598 · 960 .<br />

La probabilità <strong>di</strong> ciascun evento si ottiene calcolando il numero degli eventi favorevoli e<br />

<strong>di</strong>videndolo per N. Volendo calcolare la probabilità <strong>di</strong> un poker, contiamo quante sono le<br />

possibili cinquine con quattro carte “uguali”. Scelte 4 carte “uguali”, e ci sono 13 possibili<br />

scelte, la quinta carta può essere una qualunque fra le rimanenti 48. Avremo dunque<br />

P (P O) = 13¢48<br />

N<br />

¼ 0.024% .<br />

Volendo poi un full, cioè una cinquina del tipo aaabb, osserviamo che ogni tris aaa può<br />

essere ottenuto con 13 <strong>di</strong>verse carte “a” e che per ciascun “a” se ne possono poi ottenere<br />

4<br />

3 = 4; per quanto riguarda poi la coppia bb, una volta scelto il tris, la si può ottenere con<br />

12 <strong>di</strong>verse carte “b”, e per ciascun “b” ci sono 4<br />

2 = 6 possibilità. Si ha quin<strong>di</strong><br />

P (F U) = 13¢ <br />

4 4<br />

3 ¢12¢ 2 =<br />

N<br />

13¢4¢12¢6<br />

¼ 0.14% .<br />

N<br />

La domanda 3) concerne le doppie coppie, cioè le cinquine del tipo aabbc. Ragionando in<br />

modo analogo a quanto fatto per le precedenti domande, si ha<br />

P (CC) = 13¢ <br />

4 4 4<br />

2 ¢12¢ 2 ¢11¢ 1 =<br />

2¢N<br />

13¢6¢12¢6¢11¢4<br />

¼ 4.75% ,<br />

2¢N<br />

dove il 2 a denominatore tiene conto del fatto che sono state conteggiate sia le ”quaterne”<br />

del tipo aabb che quelle del tipo bbaa.<br />

La domanda 4) richiede <strong>di</strong> calcolare la probabilità <strong>di</strong> una semplice coppia, vale a <strong>di</strong>re una<br />

cinquina del tipo aabcd. In questo casi si ha<br />

P (C) = 13¢ <br />

4 4 4 4<br />

2 ¢12¢ 1 ¢11¢ 1 ¢10¢ 1 =<br />

6¢N<br />

13¢6¢12¢4¢11¢4¢10¢4<br />

¼ 42.3% ,<br />

6¢N<br />

dove il 6 a denominatore tiene conto del fatto che per la formazione <strong>di</strong> una coppia del tipo<br />

aabcd sono state conteggiate tutte le possibili terne bcd, bdc, cbd, cdb, dbc e dcb (cioè le<br />

possibili permutazioni dei tre ogetti a, b, c).<br />

14


1.3 PROBABILITÀ CONDIZIONATA<br />

Definizione Dato uno spazio <strong>di</strong> probabilità (S, Ω, P ) e due eventi A e B <strong>di</strong> Ω<br />

con P (B) > 0, si chiama probabilità con<strong>di</strong>zionata <strong>di</strong> A dato B il numero<br />

P (A \ B)/P (B). Tale numero, che esprime la probabilità che avvenga A una volta<br />

che sia avvenuto B, sarà in<strong>di</strong>cato con P (AjB). Si ha dunque, per definizione,<br />

P (AjB) =<br />

P (A \ B)<br />

P (B)<br />

Nel caso <strong>di</strong> uno spazio S finito ed equiprobabile, in<strong>di</strong>cato con jEj il numero degli<br />

elementi <strong>di</strong> un evento E 2 S, si ha<br />

e quin<strong>di</strong><br />

P (A \ B) =<br />

jA \ Bj<br />

jSj<br />

P (AjB) =<br />

.<br />

, P (B) = jBj<br />

jSj ,<br />

jA \ Bj<br />

jBj<br />

Esercizio 1.3.1 Si lanci una coppia <strong>di</strong> da<strong>di</strong>. Se la loro somma è 6, si determini la probabilità<br />

che almeno uno dei da<strong>di</strong> abbia dato come risultato 2.<br />

Lo spazio campionario è<br />

S = f(h, k), h, k = 1, 2, 3, 4, 5, 6g ,<br />

per cui, in<strong>di</strong>cati con A e B i due eventi<br />

B = “la somma è 6” = f(1, 5), (2, 4), (3, 3), (4, 2), (5, 1)g ,<br />

A = “almeno un 2” = f(2, 2), (2, k), (h, 2), h, k = 1, 3, 4, 5, 6g ,<br />

si ha A \ B = f(2, 4), (4, 2)g. Essendo lo spazio equiprobabile, ne consegue<br />

P (AjB) =<br />

jA \ Bj<br />

jBj<br />

.<br />

= 2<br />

5 .<br />

Esercizio 1.3.2 In una popolazione i genotipi AA, Aa e aa (che rappresentano in questo<br />

problema gli eventi elementari) abbiano probabilità rispettivamente<br />

P (AA) = 49<br />

42<br />

9<br />

, P (Aa) = , P (aa) =<br />

100 100 100 .<br />

Supponiamo che dopo un certo tempo muoiano sistematicamente gli in<strong>di</strong>vidui <strong>di</strong> tipo aa,<br />

sicchè gli adulti sono o AA o Aa. Ci si chiede: qual è la probabilità <strong>di</strong> AA fra gli adulti?<br />

Bisogna calcolare la probabilità con<strong>di</strong>zionata <strong>di</strong> AA dato l’evento B = AA [ Aa :<br />

P (AAj AA[Aa) =<br />

P (AA \ [AA [ Aa])<br />

P (AA [ Aa)<br />

=<br />

P (AA)<br />

P (AA [ Aa) =<br />

15<br />

0.49 0.49<br />

= ¼ 54% .<br />

0.49 + 0.42 0.91


Teorema (o legge) delle probabilità composte<br />

Dati gli eventi A e B, con P (B) > 0, vale la relazione<br />

P (A \ B) = P (B)¢P (AjB) .<br />

La <strong>di</strong>mostrazione segue banalmente dalla definizione <strong>di</strong> probabilità con<strong>di</strong>zionata.<br />

La legge appena formulata, che permette <strong>di</strong> calcolare la probabilità dell’intersezione<br />

<strong>di</strong> due eventi note la probabilità <strong>di</strong> uno e la probabilità con<strong>di</strong>zionata dell’altro dato<br />

il primo, si può facilmente estendere a più eventi. Riscritta la legge nel caso <strong>di</strong> due<br />

eventi A1 e A2,<br />

P (A1 \ A2) = P (A1)¢P (A2jA1) ,<br />

quella per tre eventi A1, A2 e A3 si ricava imme<strong>di</strong>atamente<br />

P (A1 \ A2 \ A3) = P ([A1 \ A2] \ A3) = P (A1 \ A2)¢P (A3jA1 \ A2) =<br />

= P (A1)¢P (A2jA1)¢P (A3jA1 \ A2) .<br />

Generalizzando al caso <strong>di</strong> n eventi A1, A2, . . . , An si ottiene<br />

<br />

P \ n <br />

i=1Ai = P (A1)¢P (A2jA1)¢P (A3jA1 \ A2) ¢ ¢ ¢ P (AnjA1 \ A2 \ ¢ ¢ ¢ \ An−1) .<br />

Esercizio 1.3.3 Un’urna contiene 9 palline rosse e 6 gialle. Una dopo l’altra vengono estratte<br />

a caso, senza reimmissione, tre palline. Calcolare la probabilità che siano tutte rosse.<br />

Denotiamo con Ak, con k = 1, 2, 3, l’evento “la k-esima pallina è rossa”. L’evento <strong>di</strong> cui ci<br />

interessa la probabilità è A1 \ A2 \ A3. Dal teorema delle probabilità composte segue che<br />

P (A1 \ A2 \ A3) = P (A1)¢P (A2jA1)¢P (A3jA1 \ A2) = 9 8 7 12<br />

¢ ¢ =<br />

15 14 13 65 .<br />

Proposizione Dati due eventi A e B, con P (A) > 0 e P (B) > 0, vale la relazione<br />

P (AjB) =<br />

P (A)<br />

¢P (BjA) .<br />

P (B)<br />

Questa relazione consegue imme<strong>di</strong>atamente dalla legge della probabilità composta<br />

scrivendo<br />

P (A \ B) = P (B)¢P (AjB) = P (A)¢P (BjA) .<br />

È una formula <strong>di</strong> grande utilità in quanto permette <strong>di</strong> ricavare la probabilità con<strong>di</strong>zionata<br />

<strong>di</strong> un evento A dato B, sapendo la probabilità con<strong>di</strong>zionata <strong>di</strong> B dato A. Ciò<br />

aiuta, ad esempio, nelle <strong>di</strong>agnosi delle malattie, come si vede nell’esercizio che segue.<br />

Esempio 1.3.1 Se la probabilità teorica del sintomo B, data la malattia A, è il 30%, posso<br />

calcolare la probabilità che un paziente affetto dal sintomo B abbia la malattia A. Se, ad<br />

esempio, in Emilia la percentuale delle persone affette dalla malattia A è il 15% e quella<br />

delle persone che manifestano il sintomo B è il 5%, per cui P (A) = 0.15 e P (B) = 0.05,<br />

la probabilità della malattia A dato il sintomo B è<br />

P (A)<br />

0.15<br />

P (AjB) = ¢P (BjA) = ¢ 0.30 = 90% .<br />

P (B) 0.05<br />

16


EVENTI INDIPENDENTI<br />

Definizione Due eventi A e B si <strong>di</strong>cono in<strong>di</strong>pendenti se<br />

P (A \ B) = P (A)¢P (B) .<br />

Il significato <strong>di</strong> questa definizione, che vale qualunque siano gli eventi A e B, appare<br />

chiaro se si considerano eventi <strong>di</strong> probabilità non nulla. Infatti, se P (B) > 0, dalla<br />

definizione <strong>di</strong> probabilità con<strong>di</strong>zionata, segue<br />

e analogamente, supposto P (A) > 0, si ha<br />

P (A) = P (AjB) ,<br />

P (B) = P (BjA) .<br />

A parole: la probabilità <strong>di</strong> A non <strong>di</strong>pende dal verificarsi oppure no <strong>di</strong> B, e viceversa.<br />

Ciò giustifica la terminologia.<br />

Teorema Se A e B sono in<strong>di</strong>pendenti, lo sono anche A e B C , A C e B, A C e B C .<br />

Dimostrazione<br />

Dimostriamo dapprima l’in<strong>di</strong>pendenza <strong>di</strong> A e B C . Essendo<br />

P (B C ) = 1 ¡ P (B) , P (A) = P (A \ B) + P (A \ B C ) ,<br />

si ha<br />

P (A \ B C ) = P (A) ¡ P (A \ B) = P (A) ¡ P (A)¢P (B) =<br />

= P (A)¢[(1 ¡ P (B)] = P (A)¢P (B C ) .<br />

Quin<strong>di</strong>, se A e B sono in<strong>di</strong>pendenti, lo sono anche A e B C .<br />

Scambiando l’or<strong>di</strong>ne, si può dedurre che lo sono anche A C<br />

e B, e quin<strong>di</strong> anche A C e B C .<br />

Esercizio 1.3.4 Un test <strong>di</strong>agnostico <strong>di</strong> una malattia è corretto nel 98% dei casi. Ci si chiede:<br />

ripetendo due volte il test sullo stesso soggetto, qual è la probabilità <strong>di</strong> un doppio errore?<br />

Sia A = “errore nel primo test”, B = “errore nel secondo test”. Essendo i due eventi<br />

in<strong>di</strong>pendenti, si ha<br />

P (A \ B) = P (A)¢P (B) = 2 2 4<br />

¢ = = 0.04% .<br />

100 100 10000<br />

Esercizio 1.3.5 Aldo e Bruno sparano ad un bersaglio. Siano A e B rispettivamente l’evento<br />

“Aldo fa centro” e “Bruno fa centro”. Modello la situazione con una funzione <strong>di</strong> probabilità<br />

P tale che P (A) = 1<br />

2<br />

4 e P (B) = 5 , e supponendo che A e B siano in<strong>di</strong>pendenti. Supposto<br />

che Aldo e Bruno sparino contemporaneamente contro il bersaglio, qual è la probabilità che<br />

1) almeno uno dei due centri il bersaglio? 2) uno solo dei due centri il bersaglio?<br />

17


L’evento “almeno uno fa centro” è A [ B. Siccome A e B sono in<strong>di</strong>pendenti, avremo<br />

P (A [ B) = P (A) + P (B) ¡ P (A \ B) = P (A) + P (B) ¡ P (A)¢P (B) =<br />

= 1 2<br />

+<br />

4 5<br />

1 2 11<br />

¡ ¢ =<br />

4 5 20 .<br />

Per quanto riguarda invece l’evento “uno solo fa centro”, esso è dato da (A\B C )[(A C \B).<br />

Tenendo conto che A ed B C sono in<strong>di</strong>pendenti, così come A C e B, e che gli eventi A \ B C<br />

e (A C \ B) sono incompatibili, si ha<br />

P (A \ B C ) [ (A C \ B) = P (A \ B C ) + P (A C \ B) =<br />

= P (A)¢P (B C ) + P (A C )¢P (B) =<br />

= 1 3<br />

¢<br />

4 5<br />

3 2 9<br />

+ ¢ =<br />

4 5 20 .<br />

Definizione Dato uno spazio <strong>di</strong> probabilità (S, Ω, P ) si chiama partizione <strong>di</strong> S<br />

un insieme <strong>di</strong> eventi incompatibili A1, A2, . . . , Ai, ¢ ¢ ¢ 2 Ω tali che<br />

<br />

Ai = S .<br />

i<br />

Nel seguito considereremo partizioni finite, cioè partizioni formate da un numero finito<br />

n <strong>di</strong> eventi. In tal caso l’in<strong>di</strong>ce i assumerà ovviamente i valori da 1 a n.<br />

Teorema (o formula) della probabilità totale (o <strong>di</strong> fattorizzazione)<br />

Dato un evento B e una partizione finita A1, A2, ...An <strong>di</strong> S, con P (Ai) > 0 per<br />

ogni i, si ha<br />

n<br />

P (B) = P (Ai)¢P (BjAi) .<br />

Dimostrazione<br />

i=1<br />

In virtù della definizione della legge delle probabilità composte, per ogni i possiamo<br />

scrivere<br />

P (Ai \ B) = P (Ai)¢P (BjAi) .<br />

Sommando per i che va da 1 ad n, si ha<br />

n<br />

i=1 P (Ai \ B) = n<br />

i=1 P (Ai)¢P (BjAi) ,<br />

da cui, essendo<br />

n<br />

i=1 P (Ai \ B) = P n<br />

i=1 (Ai \ B) = P ( n<br />

i=1 Ai) \ B = P (S \ B) = P (B) ,<br />

consegue la tesi.<br />

Esercizio 1.3.6 Una fabbrica <strong>di</strong> autovetture riceve da tre fornitori i cambi da installare sulle<br />

auto nelle seguenti percentuali: 65%, 25% e 10%. Sapendo che i tre fornitori producono i<br />

cambi con una <strong>di</strong>fettosità rispettivamente del 5%, 10% e 25%, si vuole conoscere la probabilità<br />

che la fabbrica <strong>di</strong> auto ha <strong>di</strong> ricevere un cambio <strong>di</strong>fettoso.<br />

18


In questo caso l’esperimento consiste nell’arrivo <strong>di</strong> un cambio. I possibili eventi elementari<br />

(e quin<strong>di</strong> incompatibili) sono i Bk, k = 1, 2, 3, essendo Bk l’evento ”il cambio arriva dal<br />

fornitore k-esimo”. Chiaramente i Bk costituiscono una partizione <strong>di</strong> S. In<strong>di</strong>cato poi con A<br />

l’evento ”il cambio ricevuto è <strong>di</strong>fettoso”, si richiede P (A).<br />

I dati dell’esercizio sono i seguenti:<br />

P (B1) = 65% , P (B2) = 25% , P (B3) = 10% ;<br />

P (AjB1) = 5% , P (AjB2) = 10% , P (AjB3) = 25% .<br />

Utilizzando la formula <strong>di</strong> fattorizzazione si ha imme<strong>di</strong>atamente<br />

3<br />

P (A) = P (Bi)¢P (AjBi) = 0.65¢0.05 + 0.25¢0.10 + 0.10¢0.25 = 0.0825 = 8.25% .<br />

i=1<br />

Esercizio 1.3.7 Com’è noto, le trasfusioni <strong>di</strong> sangue possono avvenire con le modalità seguenti:<br />

dal gruppo 0 a tutti i gruppi; da A ai gruppi A e AB; da B ai gruppi B e AB; da<br />

AB al solo gruppo AB. Supposto che le frequenze dei gruppi sanguigni siano<br />

P (0) = 52%, P (A) = 32%, P (B) = 10%, P (AB) = 6% ,<br />

ci si chiede: qual è la probabilità che un in<strong>di</strong>viduo x, scelto a caso, possa donare sangue a<br />

un in<strong>di</strong>viduo y pure scelto a caso?<br />

Sia S l’insieme delle coppie (x, y) in cui sia x che y possono essere uguali a 0, A, B o AB.<br />

L’evento <strong>di</strong> cui vogliamo calcolare la probabilità è “x è donatore per y” e lo in<strong>di</strong>chiamo con<br />

[x ) y]. Introduciamo poi gli eventi<br />

[x=0] = f(0, 0), (0, A), (0, B), (0, AB)g ,<br />

[x=A] = f(A, 0), (A, A), (A, B), (A, AB)g ,<br />

[x=B] = f(B, 0), (B, A), (B, B), (B, AB)g ,<br />

[x=AB] = f(AB, 0), (AB, A), (AB, B), (AB, AB)g ,<br />

e analogamente gli eventi [y=0], [y=A], [y=B],[y=AB]. Per calcolare P ([x ) y]) si può<br />

usare il teorema della probabilità totale in due mo<strong>di</strong> <strong>di</strong>versi: in un caso considereremo come<br />

partizione <strong>di</strong> S gli eventi [x = 0], [x = A], [x = B] e [x = AB], nell’altro gli eventi [y = 0],<br />

[y=A], [y=B] e [y=AB].<br />

Modo 1<br />

P ([x ) y]) = P ([x=0])¢P ([x ) y] [x=0]) + P ([x=A])¢P ([x ) y] [x=A])+<br />

Modo 2<br />

+ P ([x=B])¢P ([x ) y] [x=B]) + P ([x=AB])¢P ([x ) y] [x=AB]) =<br />

= 52 32<br />

¢1 +<br />

100 100 ¢<br />

<br />

32 6<br />

+<br />

100 100<br />

<br />

+ 10<br />

100 ¢<br />

<br />

10 6<br />

+<br />

100 100<br />

<br />

+ 6 6<br />

¢ ' 66% .<br />

100 100<br />

P ([x ) y]) = P ([y=0])¢P ([x ) y] [y=0]) + P ([y=A])¢P ([x ) y] [y=A])+<br />

+ P ([y=B])¢P ([x ) y] [y=B]) + P ([y=A]B)¢P ([x ) y] [y=AB]) =<br />

= 52 52 32<br />

¢ +<br />

100 100 100 ¢<br />

<br />

52 32<br />

+<br />

100 100<br />

19<br />

<br />

+ 10<br />

100 ¢<br />

<br />

52 10<br />

+<br />

100 100<br />

<br />

+ 6<br />

¢1 ' 66% .<br />

100


Modo 3<br />

L’esercizio può essere risolto anche senza ricorrere al teorema della probabilità totale, e ciò<br />

in virtù del fatto che l’evento [x ) y] può essere visto come unione <strong>di</strong> eventi elementari<br />

(x, y); più precisamente<br />

[x ) y] ´ f(0, 0), (0, A), (0, B), (0, AB), (A, A), (A, AB), (B, B), (B, AB), (AB, AB)g .<br />

Poiché gli in<strong>di</strong>vidui sono scelti a caso, x e y sono in<strong>di</strong>pendenti uno dall’altro, per cui<br />

P (x, y) = P (x)¢P (y). Ad esempio, P (A, AB) = P (A)¢P (AB) = 32<br />

100<br />

Si ha quin<strong>di</strong><br />

¢ 6<br />

100 .<br />

P [x ) y] = P (0, 0) + P (0, A) + P (0, B) + P (0, AB) + P (A, A) +<br />

+ P (A, AB) + P (B, B) + P (B, AB) + P (AB, AB) =<br />

= P (0)¢P (0) + P (0)¢P (A) + P (0)¢P (B) + P (0)¢P (AB) + P (A)¢P (A)+<br />

+ P (A)¢P (AB) + P (B)¢P (B) + P (B)¢P (AB) + P (AB)¢P (AB) =<br />

= 52<br />

100 ¢<br />

<br />

52 32 10 6<br />

<br />

+ + + +<br />

100 100 100 100<br />

32<br />

100 ¢<br />

<br />

32 6<br />

<br />

+ +<br />

100 100<br />

+ 10<br />

100 ¢<br />

<br />

10 6<br />

<br />

+ +<br />

100 100<br />

6 6<br />

¢ ' 66% .<br />

100 100<br />

Teorema (o formula) <strong>di</strong> Bayes<br />

Dato un evento B con P (B) > 0, e data una partizione finita A1, A2, ...An <strong>di</strong> S<br />

con P (Ai) > 0 per ogni i, vale la relazione<br />

P (AijB) = P (BjAi)¢P (Ai)<br />

<br />

k P (BjAk)¢P (Ak) .<br />

Dimostrazione<br />

In virtù del teorema della probabilità composta si può scrivere<br />

P (AijB) = P (B|Ai)·P (Ai)<br />

P (B)<br />

Sostituendo a denominatore P (B) con la sua espressione fornita dalla formula della<br />

probabilità totale, si ottiene imme<strong>di</strong>atamente la tesi.<br />

Gli eventi Ai possono essere considerati come possibili cause dell’evento B, o ipotesi<br />

che lo spiegano. Il fatto che costituiscano una partizione <strong>di</strong> S, per cui certamente<br />

B ½ [iAi, comporta che se si verifica B, necessariamente si verifica anche uno (ed<br />

uno solo in virtù della incompatibilità) degli eventi Ai. In altre parole, l’insieme<br />

delle “cause” Ai è esaustivo: se si verifica B, una <strong>di</strong> esse deve aver agito. Una volta<br />

osservato l’evento B, ci si può chiedere quale sia la causa che ha effettivamente agito, e<br />

il teorema <strong>di</strong> Bayes risponde, naturalmente in senso probabilistico, a questa domanda.<br />

La probabilità P (Ai) è la probabilità che si verifichi Ai in<strong>di</strong>pendentemente dal verificarsi<br />

o meno dell’evento B; viene detta probabilità a priori. La probabilità con<strong>di</strong>zionata<br />

P (AijB) è la probabilità <strong>di</strong> Ai valutata sapendo che si è verificato B, e viene<br />

chiamata probabilità a posteriori.<br />

20<br />

.


Gli esercizi che seguono, in particolare il primo, sono utili ad illustrare il significato<br />

<strong>di</strong> probabilità a priori e posteriori, e come si applica il teorema <strong>di</strong> Bayes.<br />

Esercizio 1.3.8 Si abbiano tre scatole, in<strong>di</strong>stinguibili una dall’altra, contenenti ciascuna due<br />

palline: una contiene due palline bianche (scatola 1), un’altra una pallina bianca ed una<br />

rossa (scatola 2), la terza due palline rosse (scatola 3). Scelta una scatola a caso, si estrae<br />

una pallina. La pallina è bianca. Ci si chiede: qual è la probabilità che la pallina sia stata<br />

estratta dalla scatola i?<br />

In<strong>di</strong>cato con B l’evento “la pallina estratta è bianca” e con Ai l’evento “la pallina è stata<br />

estratta dalla scatola i”, ci interessa calcolare le probabilità P (AijB). Osserviamo che si ha<br />

P (A1) = P (A2) = P (A3) = 1<br />

3 ; P (BjA1) = 1 , P (BjA2) = 1<br />

2 , P (BjA3) = 0 .<br />

Il fatto che le probabilità non con<strong>di</strong>zionate P (Ai) (probabilità a priori) siano tutte uguali a<br />

1<br />

3 consegue ovviamente dal fatto che le tre scatole sono in<strong>di</strong>stinguibili. Applicando il teorema<br />

<strong>di</strong> Bayes si ha quin<strong>di</strong><br />

P (A1jB) =<br />

=<br />

P (BjA1)¢P (A1)<br />

P (BjA1)¢P (A1) + P (BjA2)¢P (A2) + P (BjA3)¢P (A3) =<br />

1¢ 1<br />

3<br />

+ 1<br />

2<br />

1¢ 1<br />

3<br />

¢ 1<br />

3<br />

+ 0¢ 1<br />

3<br />

P (A2jB) = P (BjA2)¢P (A2)<br />

1<br />

2<br />

P (A3jB) = P (BjA3)¢P (A3)<br />

1<br />

2<br />

=<br />

=<br />

= 0¢ 1<br />

1<br />

3<br />

1<br />

2<br />

1 1<br />

2 ¢ 3<br />

1<br />

2<br />

3<br />

1<br />

2<br />

= 2<br />

3 ;<br />

= 1<br />

3 .<br />

= 0 .<br />

Osserviamo che si trova confermato il fatto ovvio che P (A3jB) = 0. Osserviamo anche<br />

come il verificarsi dell’evento B influisca sulle probabilità degli eventi Ai mo<strong>di</strong>ficandone le<br />

probabilità.<br />

Nota bene: dato un evento A, con 0 < P (A) < 1, gli eventi A e A C costituiscono<br />

la più semplice partizione <strong>di</strong> S utilizzabile nell’applicazione del teorema <strong>di</strong> Bayes. Gli<br />

esempi che seguono utilizzano tutti una partizione <strong>di</strong> questo tipo.<br />

Esercizio 1.3.9 In una scuola il 4% dei maschi e l’1% delle femmine sono più alti <strong>di</strong> 1.80<br />

metri. Inoltre, il 60% sono femmine. Fra la totalità degli studenti ne viene scelto a caso uno<br />

che risulta essere più alto <strong>di</strong> 1.80 metri. Si chiede: qual è la probabilità che sia femmina?<br />

Sia S l’insieme <strong>di</strong> tutti gli studenti. Siano poi F l’evento “lo studente scelto è femmina”<br />

ed A l’evento “l’altezza dello studente è maggiore <strong>di</strong> 1.80”. Si deve determinare P (F jA).<br />

Osservato che F C coincide con l’evento “lo studente è maschio”, i dati del problema sono<br />

P (F ) = 0.60 , P (F C ) = 0.40 , P (AjF ) = 0.01 , P (AjF C ) = 0.04 .<br />

21


Utilizzando il teorema <strong>di</strong> Bayes con la partizione <strong>di</strong> S data da F e F C , si ottiene<br />

P (F jA) =<br />

=<br />

P (AjF )¢P (F )<br />

P (AjF )¢P (F ) + P (AjF C )¢P (F C ) =<br />

0.01¢0.60 0.006 3<br />

= = ¼ 27.3% .<br />

0.01¢0.60 + 0.04¢0.40 0.022 11<br />

Esercizio 1.3.10 Si sa che lo 0,5% dei soggetti <strong>di</strong> una città è ammalato <strong>di</strong> AIDS. Si sa che<br />

i test <strong>di</strong>agnostici danno una <strong>di</strong>agnosi corretta nell’80% dei sani e nel 98% dei malati. Qual<br />

è la probabilità <strong>di</strong> un in<strong>di</strong>viduo, scelto a caso fra quelli sottoposti a test, <strong>di</strong> esser sano posto<br />

che sia stato <strong>di</strong>agnosticato malato?<br />

Sia S l’insieme degli in<strong>di</strong>vidui sottoposti ai test per l’AIDS. Consideriamo gli eventi: A =<br />

“l’in<strong>di</strong>viduo scelto è sano”, A C = “l’in<strong>di</strong>viduo è malato”, B = “la <strong>di</strong>agnosi dell’in<strong>di</strong>viduo è:<br />

sano”, B C = “la <strong>di</strong>agnosi è: malato”. Le statistiche sopra riportate implicano che<br />

P (A C ) = 0.005 , P (BjA) = 0.80 , P (B C jA C ) = 0.98 .<br />

Determiniamo con la formula <strong>di</strong> Bayes P (AjB C ). Si ha<br />

P (AjB C ) =<br />

=<br />

P (BCjA)¢P (A)<br />

P (BCjA)¢P (A) + P (BCjAC )¢P (AC ) =<br />

(0.995)(0.20)<br />

' 0.976<br />

(0.20)(0.995) + (0.98)(0.005)<br />

(probabilità molto alta; se fossimo però dentro una categoria a rischio, avremmo una incidenza<br />

<strong>di</strong> malattia P (A C ) più elevata, per cui questa probabilità sarebbe più contenuta).<br />

Esercizio 1.3.11 Una fabbrica che produce lampa<strong>di</strong>ne ha due linee <strong>di</strong> produzione A e B:<br />

dalla A esce il 60% delle lampa<strong>di</strong>ne prodotte e dalla B il rimanente 40%. Sappiamo inoltre<br />

che un 2% delle lampa<strong>di</strong>ne prodotte dalla linea A è <strong>di</strong>fettoso, mentre la percentuale <strong>di</strong> <strong>di</strong>fetti<br />

per l’altra linea è il 3.8%. Ci si chiede: qual è la probabilità che una lampa<strong>di</strong>na <strong>di</strong>fettosa,<br />

scelta a caso fra tutte le lampa<strong>di</strong>ne prodotte in un dato periodo, sia uscita dalla linea A?<br />

Sia S l’insieme <strong>di</strong> tutte le lampa<strong>di</strong>ne prodotte dalla fabbrica in un dato periodo. Se A è<br />

l’evento “la lampa<strong>di</strong>na scelta è uscita dalla linea A”, A C è l’evento “la lampa<strong>di</strong>na è uscita<br />

dalla linea B”. In<strong>di</strong>cato poi con D l’evento “la lampa<strong>di</strong>na è <strong>di</strong>fettosa”, i dati del problema<br />

sono<br />

P (DjA) = 0.02 , P (DjA C ) = 0.038, P (A) = 0.6 .<br />

Il numero che cerchiamo è la probabilità con<strong>di</strong>zionata <strong>di</strong> A dato per avvenuto D, cioè<br />

P (AjD). Utilizzando la formula <strong>di</strong> Bayes, si ottiene<br />

P (DjA) ¢ P (A)<br />

P (AjD) =<br />

P (DjA) ¢ P (A) + P (DjAC ) ¢ P (AC ) =<br />

0.012<br />

=<br />

¼ 0.441 = 44.1%<br />

0.012 + 0.0152<br />

22<br />

(0.02)(0.6)<br />

(0.02)(0.6) + (0.038)(0.4) =


Esercizio 1.3.12 In un cappello ci sono 10 monete, 9 normali ed una truccata con due teste.<br />

Se ne estrae una a caso, che lanciata k volte consecutive dà k teste. Qual è la probabilità<br />

che la moneta estratta sia quella truccata?<br />

Sia A l’evento “la moneta estratta dal cappello è quella truccata”. Chiaramente ne consegue<br />

che A C rappresenta l’evento “la moneta estratta è normale”. In<strong>di</strong>cato poi con Tk l’evento<br />

“k consecutivi lanci della moneta danno k teste”, i dati del problema sono<br />

P (A) = 1<br />

10 ; P (AC ) = 9<br />

10 ; P (TkjA) = 1 ; P (TkjA C ) = 1<br />

2 )k .<br />

Applicando la formula <strong>di</strong> Bayes si ha quin<strong>di</strong><br />

P (AjTk) =<br />

P (TkjA)¢P (A)<br />

P (TkjA)¢P (A) + P (TkjA C )¢P (A C ) =<br />

Ad esempio, per k=2, 4, 6, 8 si ha<br />

1¢ 1<br />

10<br />

1¢ 1<br />

10 + 1<br />

2<br />

k ¢ 9<br />

10<br />

= 2k<br />

9 + 2 k<br />

P (AjT2) = 4<br />

13 ; P (AjT4) = 16<br />

25 ; P (AjT6) = 64<br />

73 ; P (AjT8) = 256<br />

265 .<br />

Osserviamo che 8 teste consecutive danno già una probabilità del 96.6% che la moneta<br />

estratta sia quella truccata.<br />

Come ultima osservazione, notiamo che ci sono due mo<strong>di</strong> <strong>di</strong> fare un campionamento,<br />

cioè <strong>di</strong> “scegliere a caso” un certo numero <strong>di</strong> elementi da una popolazione:<br />

1) con reimmissione;<br />

2) senza reimmissione.<br />

Rimarchiamo il fatto seguente, peraltro molto intuitivo: se il numero N <strong>di</strong> in<strong>di</strong>vidui<br />

della popolazione é infinito o molto grande, non c’è <strong>di</strong>fferenza apprezzabile tra<br />

estrarre con reimmissione ed estrarre senza reimmisione. In questo caso, pertanto,<br />

conviene per semplicità calcolare ogni cosa “come se” si estraesse con reimmissione.<br />

L’esercizio che segue illustra le due <strong>di</strong>verse modalità <strong>di</strong> campionamento e mostra, per<br />

quanto sia solo N =10, il fatto precedentemente rimarcato.<br />

Esercizio 1.3.13 Una scatola contiene 10 viti, <strong>di</strong> cui tre <strong>di</strong>fettose. Si estraggono due viti a<br />

caso. Con quale probabilità nessuna delle due è <strong>di</strong>fettosa?<br />

Considerati gli eventi A = “prima vite estratta non <strong>di</strong>fettosa”, B = “seconda vite estratta<br />

non <strong>di</strong>fettosa”, l’evento <strong>di</strong> cui ci interessa la probabilità è A \ B.<br />

Estraendo con reimmissione, prima <strong>di</strong> estrarre la seconda volta abbiamo nella scatola l’identica<br />

situazione <strong>di</strong> 10 viti <strong>di</strong> cui tre <strong>di</strong>fettose; si ha pertanto P (A) = P (B) = 7<br />

10 e<br />

quin<strong>di</strong><br />

P (A \ B) = P (A)¢P (B) = 7 7<br />

¢ = 49% .<br />

10 10<br />

Estraendo invece senza reimmissione, l’evento B non è più in<strong>di</strong>pendente da A, per cui si ha<br />

. Di conseguenza<br />

P (A) = 7<br />

10<br />

, P (BjA) = 6<br />

9<br />

P (A \ B) = P (A)¢P (BjA) = 7 6<br />

10 ¢ 9 ' 47% .<br />

23


1.4 VARIABILI ALEATORIE<br />

Definizione Dato uno spazio <strong>di</strong> probabilità (S, Ω, P ), si <strong>di</strong>ce variabile aleatoria<br />

(o casuale) una funzione X che ad ogni s 2 S associa un numero X(s) 2 R, in<br />

modo che ogni insieme fs : X(s) · ag sia un evento contenuto in Ω.<br />

L’evento fs : X(s) · ag si chiama immagine inversa o contro-immagine dell’intervallo<br />

(¡1, a] e viene in<strong>di</strong>cato con X −1 (¡1, a] o, adottando una forma più concisa ed<br />

esplicita, con X ·a. Più in generale, se B è un sottinsieme <strong>di</strong> numeri reali, si in<strong>di</strong>ca<br />

con X −1 (B) l’evento fs : X(s) 2 Bg.<br />

È facile far vedere che, 8a 2 R, gli insiemi <strong>di</strong> numeri reali X −1 (a, +1) , X −1 (a, b] ,<br />

X −1 fag , X −1 (a, b) , X −1 (¡1, a) e X −1 [a, +1) sono eventi. Ad esempio,<br />

il fatto che X −1 (a, +1) sia un evento consegue banalmente dal fatto che l’insieme<br />

fs : X(s) > ag è il complementare dell’evento fs : X(s) · ag. Anche gli eventi<br />

appena elencati sono denotati in forma concisa con X >a , a


Si ha così : P (Y =0) = P (f2g) + P (f4g) + P (f6g) = 1<br />

2 ,<br />

P (Y =1) = P (f1g) + P (f3g) + P (f5g) = 1<br />

2 ,<br />

P (1


VARIABILI ALEATORIE DISCRETE<br />

Definizione Una variabile aleatoria X è <strong>di</strong>screta se<br />

1) c’è un insieme finito o numerabile <strong>di</strong> valori xj, tali che P (X =xj) > 0 ;<br />

<br />

2)<br />

j P (X =xj) = 1 .<br />

Ovviamente, j = 1, ..., n nel caso finito e j 2 N nel caso numerabile.<br />

Una variabile aleatoria <strong>di</strong>screta, essendo in<strong>di</strong>viduata dai valori xj e dalle corrispondenti<br />

probabilità pj ´ P (X =xj), può<br />

<br />

essere così rappresentata:<br />

<br />

x1, x2, ...<br />

X :<br />

p1, p2, ...<br />

In maniera equivalente essa è poi rappresentabile me<strong>di</strong>ante la relativa funzione <strong>di</strong><br />

probabilità f(x) definita come<br />

f(x) =<br />

pj<br />

0 altrove<br />

se x = xj (j = 1, 2, ...)<br />

oppure me<strong>di</strong>ante la relativa funzione <strong>di</strong> <strong>di</strong>stribuzione F (x) già definita per una qualunque<br />

variabile aleatoria , che nel caso <strong>di</strong>screto <strong>di</strong>venta<br />

F (x) = <br />

f(xj) .<br />

j: xj · x<br />

Più esplicitamente, come peraltro già visto nell’esempio 1.4.2, F (x) è la seguente<br />

funzione a gra<strong>di</strong>ni<br />

⎧<br />

0 se x < x1<br />

p1 se x1 · x < x2<br />

⎪⎨<br />

p1 + p2 se x2 · x < x3<br />

F (x) =<br />

¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢<br />

⎪⎩<br />

p1 + ¢ ¢ ¢ + pn−1 se xn−1 · x < xn<br />

¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢ ¢<br />

Esempio 1.4.3 Nel caso <strong>di</strong> un dado non truccato, la variabile casuale X definita nell’esempio<br />

1.4.1 e la relativa funzione <strong>di</strong> probabilità sono date da<br />

<br />

1<br />

1 2 3 4 5 6<br />

6<br />

X :<br />

, f(x) =<br />

0<br />

per x = 1, 2, 3, 4, 5, 6<br />

altrimenti<br />

.<br />

1<br />

6<br />

1<br />

6<br />

1<br />

6<br />

1<br />

6<br />

1<br />

6<br />

1<br />

6<br />

La funzione <strong>di</strong>stribuzione <strong>di</strong> X e il relativo grafico sono riportati qui sotto.<br />

⎧<br />

0 per x < 1<br />

1<br />

6<br />

1<br />

⎪⎨ 3<br />

per<br />

per<br />

1 · x < 2<br />

2 · x < 3<br />

1<br />

F (x) = 2<br />

2<br />

3<br />

5<br />

⎪⎩ 6<br />

1<br />

per<br />

per<br />

per<br />

per<br />

3 · x < 4<br />

4 · x < 5<br />

5 · x < 6<br />

x ¸ 6<br />

26<br />

,<br />

.


Esempio 1.4.4 Si consideri l’esperimento del lancio simultaneo <strong>di</strong> due da<strong>di</strong> non truccati. In<br />

questo caso lo spazio compionario S è costituito dai 36 eventi elementari (i, j), con i, j =<br />

1, 2, 3, 4, 5, 6. Consideriamo la variabile aleatoria <strong>di</strong>screta Z, con Z := somma dei due<br />

numeri estratti. Si ha quin<strong>di</strong><br />

<br />

2 3 4 5 6 7 8 9 10 11<br />

<br />

12<br />

Z :<br />

1<br />

36<br />

2<br />

36<br />

3<br />

36<br />

Il grafico sottoriportato mostra la funzione <strong>di</strong> <strong>di</strong>stribuzione relativa a Z.<br />

4<br />

36<br />

5<br />

36<br />

6<br />

36<br />

5<br />

36<br />

4<br />

36<br />

3<br />

36<br />

2<br />

36<br />

VARIABILI ALEATORIE CONTINUE<br />

Definizione Una variabile aleatoria X si <strong>di</strong>ce assolutamente continua se esiste<br />

una funzione f :R !R + 0 che permette <strong>di</strong> rappresentare la funzione <strong>di</strong>stribuzione<br />

F (x) <strong>di</strong> X come funzione integrale, cioè tale che<br />

F (x) =<br />

x<br />

−∞<br />

f(t)dt , 8x 2 R .<br />

La funzione f(¢), che è assunta continua eccetto al più che in un numero finito<br />

<strong>di</strong> punti,è detta densità <strong>di</strong> probabilità (o, più semplicemente, densità) della<br />

variabile aleatoria X.<br />

Nel seguito (come peraltro già fatto nel titolare il paragrafo), per semplicità, ci riferiremo<br />

alle variabili casuali ”assolutamente continue” con il solo aggettivo ”continue”.<br />

Osservazione: Qui e altrove si usano integrali ”impropri”, cioè integrali definiti su un intervallo<br />

con un estremo <strong>di</strong> integrazione infinito (qualche volta entrambi). Senza approfon<strong>di</strong>re<br />

l’argomento, ricor<strong>di</strong>amo che<br />

x<br />

−∞<br />

f(t)dt := lim<br />

a→−∞<br />

x<br />

a<br />

f(t)dt ,<br />

+∞<br />

x<br />

1<br />

36<br />

a<br />

f(t)dt := lim<br />

a→+∞<br />

x<br />

f(t)dt .<br />

Per quanto riguarda poi l’integrale su tutto l’asse reale, una possibile definizione è la seguente:<br />

+∞<br />

−∞<br />

f(t)dt :=<br />

0<br />

−∞<br />

27<br />

f(t)dt +<br />

+∞<br />

0<br />

f(t)dt .


La funzione densità gode <strong>di</strong> alcune proprietà che adesso elenchiamo.<br />

1) Vale la relazione<br />

P (a < X · b) = b<br />

a<br />

f(t)dt .<br />

Essa consegue imme<strong>di</strong>atamente dal fatto che P (a


Esempio 1.4.5 Si consideri la variabile casuale continua <strong>di</strong> densità<br />

1<br />

2x f(x) =<br />

0<br />

se 0·x·2<br />

.<br />

altrove<br />

Si chiede <strong>di</strong> verificare che f(x) è effettivamente una densità, calcolarne la funzione <strong>di</strong> <strong>di</strong>stribuzione<br />

F (x) e quin<strong>di</strong> <strong>di</strong>segnarla assieme alla f(x). Si chiede anche <strong>di</strong> calcolare P ( 1<br />

2


I grafici <strong>di</strong> f(x) e F (x) sono dunque i seguenti:<br />

f(x)dx = 1, e quin<strong>di</strong> risulta verificato che<br />

f(x) è una densità. Per quanto concerne infine il calcolo <strong>di</strong> P (X · ¡0.5), si ha<br />

Essendo limx→+∞ F (x) = 1, ne consegue +∞<br />

−∞<br />

P (X · ¡0.5) = F (¡0.5) = 1<br />

8 .<br />

Questa probabilità corrisponde all’area sottesa da f(x) fra ¡1 e ¡ 1<br />

2 , ossia, come si vede dal<br />

grafico, all’area <strong>di</strong> un triangolo <strong>di</strong> base 1<br />

1<br />

2 e altezza 2 .<br />

Esercizio 1.4.2 Si consideri una variabile casuale X avente la seguente funzione <strong>di</strong> <strong>di</strong>stribuzione:<br />

⎧<br />

0<br />

⎪⎨ 1<br />

50<br />

F (x) =<br />

⎪⎩<br />

per x·0<br />

x2<br />

¡<br />

per 0·x·5<br />

1<br />

50x2 + 2<br />

5x ¡ 1<br />

1<br />

per<br />

per<br />

5·x·10<br />

x¸10 .<br />

a) quali sono i possibili valori della X? b) qual è la funzione densità della X?<br />

a) La variabile aleatoria X assume, con probabilità 1, i valori compresi tra 0 e 10. Infatti:<br />

P (0·X ·10) = F (10) ¡ F (0) = 1 .<br />

b) Poichè nei punti <strong>di</strong> continuità <strong>di</strong> f(x) vale la relazione F ′ (x)=f(x), si ha<br />

⎧<br />

0 per x·0<br />

⎪⎨ 1<br />

25x per 0·x·5<br />

f(x) =<br />

¡<br />

⎪⎩<br />

1 2 x + per 5·x·10<br />

25 5<br />

0 per x¸10 .<br />

Riportiamo qui sotto i grafici della funzione <strong>di</strong> <strong>di</strong>stribuzione e della funzione densità della<br />

variabile casuale X. Osserviamo che dal grafico <strong>di</strong> f(x) risulta evidente la simmetria della<br />

<strong>di</strong>struibuzione rispetto ad x=5.<br />

30


FUNZIONI DI VARIABILE ALEATORIA<br />

Spesso, data una variabile casuale X, interessa una sua funzione g(X), che a sua volta<br />

è una variabile casuale. Negli esempi che seguono si considerano appunto variabili<br />

casuali <strong>di</strong> questo tipo. L’ultimo esempio, per quanto semplice, è forse quello più<br />

significativo in quanto mostra come si ricava la funzione <strong>di</strong> probabilità (nel caso <strong>di</strong><br />

un variabile casuale <strong>di</strong>screta).<br />

Esercizio 1.4.3 In un processo automatico si riempiono bottigliette <strong>di</strong> sciroppo. Il contenuto<br />

<strong>di</strong> ciascuna bottiglietta risulta Y = 100+X ml (millilitri), dove X è la variabile casuale<br />

definita nell’esercizio 1.4.1. Si chiede: in una partita <strong>di</strong> 1000 confezioni, quante approssimativamente<br />

conterranno meno <strong>di</strong> 99.5 ml?<br />

Il numero <strong>di</strong> bottigliette cercato è uguale a 1000 moltiplicato per P (Y · 99.5), cioè per<br />

P (X + 100 · 99.5) = P (X · ¡0.5) .<br />

Questa probabilità è già stata calcolata nell’esercizio 1.4.1 e vale 1<br />

8 . Il numero approssimativo<br />

delle bottiglie aventi contenuto inferiore a quanto richiesto è dunque<br />

1<br />

8 ¢1000 = 125 .<br />

Esercizio 1.4.4 Si considerino le variabili casuali Y =3X, Q=X 2 e R= p X, dove X è la<br />

variabile casuale dell’esercizio 1.4.2. Calcolare:<br />

Si ha:<br />

a) P (3·Y ·21) ; b) P (Q¸64) ; c) P (2·R·3) .<br />

a) P (3·Y ·21) = P (3·3X ·21) = P (1·X ·7) = F (7) ¡ F (1) = 4<br />

5 ;<br />

b) P (Q¸64) = P (X 2 ¸64) = P [(X ·¡8) [ (X ¸8)] = P (X ¸8) = 1 ¡ F (8) = 2<br />

25 ;<br />

c) P (2·R·3) = P (2· p X ·3) = P (4·X ·9) = F (9) ¡ F (4) = 33<br />

50 .<br />

Esercizio 1.4.5 Si consideri la variabile casuale X sotto definita e si ricavi la funzione <strong>di</strong><br />

probabilità della variabile Y := X2 .<br />

<br />

¡2<br />

X :<br />

¡1 0 1<br />

<br />

2<br />

1<br />

5<br />

1<br />

5<br />

Osservato che mentre X assume il valore xi la variabile Y assume il valore x2 i , ne consegue<br />

che Y può assumere solo i valori 0, 1 e 4. Più precisamente Y assume il valore 0 quando X<br />

assume il valore 0, il valore 1 quando X assume il valore -1 oppure 1, il valore 4 quando X<br />

assume il valore -2 oppure 2. Per quanto riguarda, ad esempio, la probabilità che Y assuma<br />

il valore 1, essa sarà data dalla somma delle probabilità che X assuma i valori -1 e 1, ossia:<br />

P (Y =1) = P (X =¡1) + P (X =1). La variabile casuale X2 sarà dunque la seguente:<br />

<br />

0 1 4<br />

Y = X 2 :<br />

1<br />

5<br />

31<br />

1<br />

5<br />

2<br />

5<br />

1<br />

5<br />

2<br />

5<br />

1<br />

5


1.5 MEDIA E VARIANZA<br />

Definizione<br />

Si chiama me<strong>di</strong>a (o valor me<strong>di</strong>o o valore atteso o aspettazione matematica<br />

o speranza matematica) della variabile aleatoria X il numero, che in<strong>di</strong>cheremo<br />

in<strong>di</strong>fferentemente con µX o E(X), così definito:<br />

µX ´ E(X) := <br />

xif(xi) , se X è <strong>di</strong>screta ,<br />

µX ´ E(X) :=<br />

i<br />

+∞<br />

−∞<br />

xf(x)dx , se X è continua .<br />

Nel caso <strong>di</strong>screto numerabile, per garantire la convergenza della serie, si assume che<br />

essa sia assolutamente convergente, cioè che sia <br />

i jxijf(xi) < +1.<br />

Osservazione: Nel caso <strong>di</strong>screto la me<strong>di</strong>a è la somma dei valori xi moltiplicati per le<br />

rispettive probabilità f(xi) ´ P (X =xi). Essa rappresenta dunque la me<strong>di</strong>a ponderata<br />

dei possibili valori <strong>di</strong> X, ciascuno pesato con la sua probabilità.<br />

Esempio 1.5.1 Si consideri l’esperimento del lancio simultaneo <strong>di</strong> una coppia <strong>di</strong> da<strong>di</strong> non<br />

truccati. Abbiamo già visto che lo spazio campionario S è<br />

S = f(i, j), i, j = 1, 2, 3, 4, 5, 6g .<br />

Sia X la variabile aleatoria che assegna a ciascun evento elementare (i, j) il massimo fra i<br />

e j. Allora l’insieme immagine <strong>di</strong> X, cioè l’insieme <strong>di</strong> tutti i possibili valori che la X può<br />

assumere, è il seguente<br />

Tenendo conto che<br />

X(S) = f1, 2, 3, 4, 5, 6g .<br />

P (X =1)=P f(1, 1)g = 1<br />

36 ,<br />

P (X =2)=P f(1, 2)g + P f(2, 1)g + P f(2, 2)g = 3<br />

36 ,<br />

e, generalizzando, essendo 2k—1 il numero degli eventi elementari f(i, j)g che hanno come<br />

valore massimo k,<br />

2k ¡ 1<br />

P (X =k)= , k = 3, 4, 5, 6 ,<br />

36<br />

la variabile aleatoria X risulta così definita:<br />

<br />

1 2 3 4 5 6<br />

X :<br />

.<br />

1<br />

36<br />

3<br />

36<br />

5<br />

36<br />

7<br />

36<br />

La me<strong>di</strong>a <strong>di</strong> X si calcola dunque nel modo seguente:<br />

µX =<br />

6<br />

k=1<br />

xkf(xk) = 1¢ 1 3 5 7 9 11 161<br />

+ 2¢ + 3¢ + 4¢ + 5¢ + 6¢ = ¼ 4.47 .<br />

36 36 36 36 36 36 36<br />

32<br />

9<br />

36<br />

11<br />

36


Proposizione Data la variabile casuale X, la me<strong>di</strong>a della variabile casuale g(X)<br />

è la seguente:<br />

E[g(X)] = <br />

g(xi)f(xi) , se X è <strong>di</strong>screta ,<br />

E[g(X)] =<br />

i<br />

+∞<br />

−∞<br />

g(x)f(x)dx , se X è continua.<br />

La proposizione consegue <strong>di</strong>rettamente dalle definizione <strong>di</strong> me<strong>di</strong>a.<br />

g(X)=X<br />

Ad esempio, se<br />

2 , si ha<br />

E[X 2 ] = <br />

x 2 i f(xi) , se X è <strong>di</strong>screta ,<br />

E[X 2 ] =<br />

i<br />

+∞<br />

−∞<br />

x 2 f(x)dx , se X è continua.<br />

Nel seguito vedremo che il calcolo <strong>di</strong> E[X 2 ] è estremamente utile.<br />

Definizione<br />

Si chiama varianza (o variazione standard) della variabile aleatoria X il numero,<br />

che in<strong>di</strong>cheremo con σ2 X o V ar(X), così definito:<br />

σ 2 X ´ V ar(X) := E (X ¡ µX) 2 .<br />

Quin<strong>di</strong>, tenendo conto della definizione <strong>di</strong> µX,<br />

σ 2 X ´ V ar(X) := <br />

(xi ¡ µX) 2 f(xi) , se X è <strong>di</strong>screta ,<br />

σ 2 X<br />

´ V ar(X) :=<br />

i<br />

+∞<br />

−∞<br />

(x ¡ µX) 2 f(x)dx , se X è continua .<br />

La varianza σ2 X è sempre non negativa. Esiste un unico caso in cui è nulla. Questo<br />

caso, che è privo <strong>di</strong> interesse probabilistico, si ha se e solo se la variabile X è degenere,<br />

cioè se la sua funzione <strong>di</strong> probabilità vale 1 in un punto x1 e 0 in ogni altro punto x.<br />

Definizione La ra<strong>di</strong>ce quadrata della varianza si chiama deviazione standard (o<br />

scarto quadratico me<strong>di</strong>o) e si in<strong>di</strong>ca con σX.<br />

La varianza (e quin<strong>di</strong> anche la deviazione standard) misura la “<strong>di</strong>spersione” dei valori<br />

assunti da X rispetto al suo valor me<strong>di</strong>o µX: tanto più grande è σ2 X , tanto più i valori<br />

<strong>di</strong> X saranno lontani dal valor me<strong>di</strong>o; per contro, tanto più σ2 X è piccola, tanto più<br />

i valori <strong>di</strong> X saranno raccolti attorno a µX. Si può anche <strong>di</strong>re che la me<strong>di</strong>a <strong>di</strong> una<br />

variabile casuale è tanto più atten<strong>di</strong>bile quanto più piccola è la sua varianza.<br />

Teorema σ 2 X = E(X2 ) ¡ µ 2 X .<br />

Facciamo la <strong>di</strong>mostrazione nel caso <strong>di</strong>screto. Nel caso continuo si procederà in maniera<br />

del tutto analoga con integrali al posto <strong>di</strong> sommatorie. Ricordando la definizione <strong>di</strong><br />

33


µX e che <br />

i f(xi)=1, si ottiene<br />

<br />

= (xi ¡ µX) 2 f(xi) = <br />

(x 2 i ¡ 2xiµX + µ 2 X )f(xi) =<br />

σ 2 X<br />

i<br />

= <br />

x 2 <br />

i f(xi) ¡ 2µX<br />

i<br />

i<br />

i<br />

xif(xi) + µ 2 X<br />

= <br />

x 2 i f(xi) ¡ 2µ 2 X + µ 2 X = E(X 2 ) ¡ µ 2 X .<br />

i<br />

<br />

f(xi) =<br />

Teorema (trasformazione lineare <strong>di</strong> una variabile aleatoria)<br />

Data una variabile aleatoria X, si consideri la variabile aleatoria aX + b, con a e b<br />

reali qualunque, a 6= 0. Valgono allora le seguenti relazioni:<br />

Dimostrazione<br />

µaX+b = aµX + b , σ 2 aX+b = a2 σ 2 X .<br />

Come nel caso del precedente teorema, proviamo anche questo nel caso <strong>di</strong>screto. La<br />

variabile aleatoria aX + b è la seguente:<br />

<br />

ax1 + b ax2 + b ... axn + b<br />

<br />

...<br />

f(x1) f(x2) ... f(xn) ...<br />

Ricordando che <br />

i f(xi) = 1, si ha imme<strong>di</strong>atamente<br />

µaX+b = <br />

(axi + b)f(xi) = a <br />

xif(xi) + b <br />

f(xi) = aµX + b .<br />

i<br />

Ora, sfruttando questo risultato, calcoliamo la varianza:<br />

<br />

= (axi + b ¡ µaX+b) 2 f(xi) = <br />

(axi + b ¡ aµX ¡ b) 2 f(xi) =<br />

σ 2 aX+b<br />

= a<br />

i<br />

<br />

2<br />

Corollario E(X ¡ µX) = 0 .<br />

i<br />

(xi ¡ µX) 2 f(xi) = a 2 σ 2 X .<br />

Si ottiene imme<strong>di</strong>atamente dall’ultimo teorema ponendo a=1 e b=¡µX.<br />

Corollario σ 2 aX = a2 σ 2 X .<br />

Si ottiene imme<strong>di</strong>atamente dall’ultimo teorema ponendo b=0.<br />

Corollario σ 2 X+b = σ2 X .<br />

Si ottiene imme<strong>di</strong>atamente dall’ultimo teorema ponendo a=1.<br />

i<br />

Definizione Sia X una variabile casuale con varianza σ2 X >0. Si chiama variabile<br />

casuale standar<strong>di</strong>zzata associata ad X la variabile casuale X∗ così definita:<br />

X∗ X ¡ µX<br />

= .<br />

34<br />

σX<br />

i<br />

i<br />

i


Proposizione Ogni variabile casuale standar<strong>di</strong>zzata ha me<strong>di</strong>a nulla e varianza<br />

uguale ad 1, ossia<br />

σ 2 <br />

X ¡ µX<br />

X∗ = V ar<br />

σX<br />

µX∗ = 0 , σ2 X∗ = 1 .<br />

Queste proprietà <strong>di</strong> X∗ seguono imme<strong>di</strong>atamente dai teoremi e dai corollari precedenti.<br />

Infatti: <br />

X ¡<br />

<br />

µX X<br />

<br />

µX∗ = E<br />

= E ¡<br />

σX σX<br />

µX<br />

=<br />

σX<br />

1 <br />

E(X) ¡ µX = 0 ,<br />

σX<br />

<br />

X<br />

<br />

= V ar<br />

σX<br />

¡ µX<br />

σX<br />

= 1<br />

σ2 σ<br />

X<br />

2 X = 1 .<br />

Definizione Data una variabile aleatoria X, si chiama me<strong>di</strong>ana <strong>di</strong> X un valore<br />

x0 tale che<br />

P (X 1 per x ¸ x0. È anche facile constatare che vi possono essere più me<strong>di</strong>ane;<br />

2<br />

più precisamente le me<strong>di</strong>ane costituiscono un intervallo chiuso (che eventualmente si<br />

riduce ad un punto).<br />

I tre grafici proposti qui sotto illustrano le tre situazioni più comuni: a) F (x) è<br />

continua in ogni x (e quin<strong>di</strong> associata ad una variabile casuale X continua con f(x)<br />

continua 8x): esiste un unico x0 tale che F (x0)= 1<br />

2 ; b) F (x) è costante a tratti (e<br />

quin<strong>di</strong> associata ad una variabile casuale X <strong>di</strong>screta), con F (x) 6= 1,<br />

8x. In questo<br />

caso, se F (x) assume i valori α e β con α < 1<br />

2 < β, saltando da α a β nel punto x∗ ,<br />

allora x0 = x ∗ . c) F (x) è costante a tratti , con F (x) = 1<br />

2 , per x1 · x < x2: ogni<br />

x 2 [x1, x2] può essere assunto come x0.<br />

Esempio 1.5.2 Consideriamo <strong>di</strong> nuovo l’esperimento dell’esempio 1.5.1. Calcoliamo la varianza<br />

<strong>di</strong> X me<strong>di</strong>ante la relazione σ 2 X =E(X2 )¡µ 2 X . A tal fine an<strong>di</strong>amo a calcolare E(X2 ).<br />

E(X 2 ) = 6 i=1 x2i f(xi) 2 1 3 5 7 9 11 791<br />

= 1 + 22 + 32 + 42 + 52 + 62 = ¼ 21.97 .<br />

36 36 36 36 36 36 36<br />

Ora, applicando il risultato precedentemente ricordato e utilizzando il valore <strong>di</strong> µX trovato<br />

nell’esempio 1.5.1, si ottiene<br />

σ 2 X = E(X2 ) ¡ µ 2 X ¼ 21.97 ¡ (4.47)2 ¼ 21.97 ¡ 19.98 = 1.99 ,<br />

e quin<strong>di</strong> la deviazione standard<br />

σX ¼ p 1.99 ¼ 1.41 .<br />

35<br />

2


Esempio 1.5.3 Sia X la variabile aleatoria continua (già considerata nell’esempio 1.4.5) la<br />

cui funzione densità è<br />

1<br />

2x f(x) =<br />

0<br />

se 0·x·2<br />

.<br />

altrove<br />

Calcoliamo me<strong>di</strong>a e varianza (quest’ultima in due mo<strong>di</strong>: sia applicando la definizione che<br />

attraverso il calcolo <strong>di</strong> E(X 2 )).<br />

x¢xdx =<br />

σ 2 X = +∞<br />

−∞ (x ¡ µX) 2f(x)dx = <br />

2<br />

x ¡ 0<br />

4<br />

3<br />

µX = +∞<br />

−∞ xf(x)dx = 2<br />

0<br />

1<br />

2<br />

<br />

3 2<br />

x 4<br />

6 =<br />

0<br />

3 ,<br />

2 ¢ 1<br />

2xdx =<br />

x 4<br />

σ 2 X = E(X2 ) ¡ µ 2 X = +∞<br />

−∞ x2f(x)dx ¡ µ 2 X = 2 1<br />

0 2x3dx ¡ 16<br />

9 =<br />

8<br />

4 ¡ 9 (x3 ¡ x2 2 )<br />

<br />

4 2<br />

x<br />

8<br />

0<br />

0<br />

¡ 16<br />

9<br />

= 2<br />

9 ,<br />

= 2<br />

9 .<br />

Esercizio 1.5.1 Si eseguano tre lanci consecutivi <strong>di</strong> una moneta truccata in modo tale che<br />

P (T ) = 3<br />

4 . Sia X la variabile casuale che rappresenta il numero <strong>di</strong> teste ottenute nei tre<br />

lanci. Si chiede <strong>di</strong> calcolarne la me<strong>di</strong>a, la varianza e la deviazione standard.<br />

La variabile X può assumere i valori 0,1,2,3. Le probabilità che X assuma ciascuno <strong>di</strong> questi<br />

valori sono le seguenti:<br />

P (X =0) = P (CCC) = <br />

1 3 1<br />

4 = 64 ,<br />

P (X =1) = P (T CC) + P (CT C) + P (CCT ) = 3 3<br />

<br />

1 2 9<br />

4 4 = 64 ,<br />

P (X =2) = P (T T C) + P (T CT ) + P (CT T ) = 3 <br />

3 2 1 27<br />

4 4 = 64 ,<br />

P (X =3) = P (T T T ) = <br />

3 3 27<br />

4 = 64 ,<br />

<br />

0 1 2 3<br />

La funzione <strong>di</strong> probabilità <strong>di</strong> X è dunque la seguente: X : 1 9 27 27 .<br />

Avremo quin<strong>di</strong>:<br />

64 64 64 64<br />

µX = 0¢ 1 9 27 27 9<br />

+ 1¢ + 2¢ + 3¢ =<br />

64 64 64 64 4 ;<br />

σ 2 <br />

X = 0 ¡ 9<br />

2 ¢<br />

4<br />

1<br />

64 +<br />

<br />

1 ¡ 9<br />

2 ¢<br />

4<br />

9<br />

64 +<br />

<br />

2 ¡ 9<br />

2 ¢<br />

4<br />

27<br />

64 +<br />

<br />

3 ¡ 9<br />

2 ¢<br />

4<br />

27 9<br />

=<br />

64 16 ;<br />

<br />

9 3<br />

σX = =<br />

16 4 .<br />

Per il calcolo della varianza si sarebbe potuto procedere anche utilizzando la relazione σ2 X =<br />

E(X 2 ) ¡ µ 2 x . In tal caso si sarebbe dovuto calcolare E(X2 ) ottenendo<br />

E(X 2 ) = 02 ¢ 1<br />

64 + 12 ¢ 9<br />

64 + 22 ¢ 27<br />

64 + 32 ¢ 27 45<br />

=<br />

64 8 ,<br />

e quin<strong>di</strong>, come prima,<br />

σ 2 X = E(X2 ) ¡ µ 2 x<br />

36<br />

= 45<br />

8<br />

81 9<br />

¡ =<br />

16 16 .


Esercizio 1.5.2 Si consideri la variabile aleatoria X definita nell’esercizio 1.4.2. Si chiede <strong>di</strong><br />

calcolarne la me<strong>di</strong>a, la varianza e la me<strong>di</strong>ana.<br />

La funzione densità e <strong>di</strong> <strong>di</strong>stribuzione <strong>di</strong> X sono le seguenti:<br />

⎧<br />

0 per x·0<br />

⎪⎨ 1<br />

25 x per 0·x·5<br />

f(x) =<br />

¡<br />

⎪⎩<br />

1 2<br />

25x + 5 per 5·x·10<br />

0 per x¸10 .<br />

La me<strong>di</strong>a e la varianza sono date da<br />

µX =<br />

+∞<br />

−∞<br />

xf(x)dx =<br />

σ 2 X = E(X2 ) ¡ µ 2 X =<br />

5<br />

0<br />

5<br />

0<br />

x2 dx +<br />

25<br />

x3 dx +<br />

25<br />

10<br />

5<br />

10<br />

5<br />

<br />

¡ x2<br />

⎧<br />

0 per x·0<br />

⎪⎨ 1<br />

50<br />

F (x) =<br />

⎪⎩<br />

x2<br />

per 0·x·5<br />

¡ 1<br />

50x2 + 2<br />

5x ¡ 1 per 5·x·10<br />

1 per x¸10 .<br />

25<br />

<br />

¡ x3<br />

25<br />

2x<br />

<br />

+ dx =<br />

5<br />

+ 2x2<br />

5<br />

x 3<br />

75<br />

5<br />

0 +<br />

<br />

dx ¡ 25 = 25<br />

6 .<br />

<br />

¡ x3<br />

75<br />

<br />

x2 10<br />

+ = 5 ;<br />

5 5<br />

Per calcolare la me<strong>di</strong>ana occorre determinare un x0 tale che F (x0) = 1<br />

2 . Chiaramente si<br />

ricava x0 = 5. Il fatto che µX ed x0 coincidano e valgano 5 è un’ovvia conseguenza della<br />

simmetria della <strong>di</strong>stribuzione rispetto ad x=5 (si riveda il grafico <strong>di</strong> f(x) precedentemente<br />

riportato).<br />

Esercizio 1.5.3 Calcolare me<strong>di</strong>a, varianza e me<strong>di</strong>ana <strong>di</strong> una generica variabile aleatoria<br />

uniformemente <strong>di</strong>stribuita.<br />

Sia [a, b] l’intervallo in cui la variabile aleatoria ha densità non nulla. Ricor<strong>di</strong>amo che<br />

⎧<br />

⎧<br />

⎪⎨<br />

0 per x·a<br />

⎪⎨<br />

0 per x·a<br />

1<br />

x ¡ a<br />

f(x) =<br />

per a


1.6 VARIABILI ALEATORIE BIDIMENSIONALI<br />

In un esperimento, invece che ad un unico risultato numerico, possiamo essere interessati<br />

a più valori (ad esempio, per una persona, a peso, altezza, età, ecc.). Ciascuno<br />

<strong>di</strong> tali valori è una variabile aleatoria, ma anche la n-upla <strong>di</strong> valori ottenuti può essere<br />

considerata come una variabile aleatoria multipla o n—<strong>di</strong>mensionale. Qui, per<br />

semplicità, tratteremo solo, seppure brevemente, le variabili aleatorie bi<strong>di</strong>mensionali.<br />

Definizione<br />

Dato uno spazio <strong>di</strong> probabilità (S, Ω, P ), si <strong>di</strong>ce variabile aleatoria bi<strong>di</strong>mensionale<br />

una coppia <strong>di</strong> funzioni (X, Y ) che ad ogni s 2 S associa un coppia <strong>di</strong> numeri<br />

reali X(s), Y (s) , tali che ogni insieme fs : X(s) · a , Y (s) · bg sia un evento<br />

contenuto in Ω.<br />

Anche nel caso <strong>di</strong> variabili casuali bi<strong>di</strong>mensionali lo strumento essenziale per il loro<br />

utilizzo è la funzione <strong>di</strong>stribuzione, la cui definizione si ottiene imme<strong>di</strong>atamente generalizzando<br />

quella per variabili uni<strong>di</strong>mensionali. Infatti, si ha<br />

Definizione<br />

Data una variabile aleatoria bi<strong>di</strong>mensionale (X, Y ) definita sullo spazio <strong>di</strong> probabilità<br />

(S, Ω, P ), si chiama funzione <strong>di</strong> <strong>di</strong>stribuzione o <strong>di</strong> ripartizione ad essa<br />

associata la funzione F : R 2 ! [0, 1] così definita:<br />

F (x, y) = P (X ·x, Y · y) , (x, y) 2 R 2 .<br />

La virgola nella probabilità appena scritta equivale ad una intersezione. Per favorire la<br />

comprensione del significato della F (x, y), ne ricor<strong>di</strong>amo tutte le possibili espressioni:<br />

F (x, y) = P (X ·x, Y · y) =<br />

= P s 2 S : X(s) · x, Y (s) · y =<br />

= P (X · x) \ (Y · y) =<br />

= P s 2 S : X(s) · x \ s 2 S : Y (s) · y .<br />

Ragionando sulla base del <strong>di</strong>segno riportato qui<br />

accanto e utilizzando la proprietà ad<strong>di</strong>tiva della<br />

probabilità nel caso <strong>di</strong> eventi incompatibili, si <strong>di</strong>mostra<br />

che<br />

P (x1


Le funzioni <strong>di</strong> <strong>di</strong>stribuzione FX(x) della X e FY (y) della Y sono dette funzioni <strong>di</strong><br />

<strong>di</strong>stribuzione marginali della variabile congiunta (X, Y ).<br />

Le variabili casuali bi<strong>di</strong>mensionali, così come quelle uni<strong>di</strong>mensionali, possono essere<br />

<strong>di</strong> tipo <strong>di</strong>screto o <strong>di</strong> tipo continuo.<br />

Una variabile bi<strong>di</strong>mensionale (X, Y ) è <strong>di</strong>screta se esiste un insieme finito o numerabile<br />

<strong>di</strong> coppie <strong>di</strong> numeri reali (xr, ys), r = 1, 2, . . . , s = 1, 2, . . . , tali che<br />

P (X =xr, Y =ys) = prs ¸0 , con <br />

prs = 1 .<br />

Eventuali coppie (xr, ys) con prs =0 possono rappresentare coppie <strong>di</strong> valori mai assunti<br />

dalla variabile casuale, che però per como<strong>di</strong>tà sono presi ugualmente in considerazione<br />

assegnando loro probabilità nulla.<br />

Si chiama funzione <strong>di</strong> probabilità congiunta la funzione<br />

<br />

prs se (x, y) = (xr, ys) r = 1, 2, . . . , s = 1, 2, . . .<br />

f(x, y) =<br />

0 altrove<br />

mentre si chiamano funzioni <strong>di</strong> probabilità marginali le funzioni<br />

<br />

pr• =<br />

fX(x) =<br />

<br />

s prs se x = xr<br />

,<br />

0 altrove<br />

<br />

p•s =<br />

fY (y) =<br />

<br />

r prs se y = ys<br />

.<br />

0 altrove<br />

Nel caso <strong>di</strong> una variabile aleatoria (X, Y ) <strong>di</strong>screta finita, supposto r = 1, 2, . . . , N e<br />

s = 1, 2, . . . , M, le funzioni <strong>di</strong> probabilità congiunta e marginali vengono rappresentate<br />

attraverso la seguente tabella:<br />

Y<br />

r,s<br />

y1 y2 . . . . . . . . . yM<br />

x1 p11 p12 . . . . . . . . . p1M p1•<br />

x2 p21 p22 . . . . . . . . . p2M p2•<br />

X . . . . . . . . . . . . . . . . . . . . . . . .<br />

. . . . . . . . . . . . . . . . . . . . . . . .<br />

xN pN1 pN2 . . . . . . . . . pNM pN•<br />

p•1 p•2 . . . . . . . . . p•M<br />

Una variabile bi<strong>di</strong>mensionale (X, Y ) è continua se esiste una funzione f(x, y), non<br />

negativa, tale che<br />

F (x, y) =<br />

x<br />

−∞<br />

y<br />

−∞<br />

f(u, v)dudv .<br />

La funzione f(x, y) è detta funzione densità congiunta. Naturalmente si ha<br />

+∞ +∞<br />

−∞<br />

−∞<br />

f(u, v)dudv = 1 ,<br />

39<br />

,


che costituisce la con<strong>di</strong>zione perché una funzione f(x, y)¸0 sia una funzione densità.<br />

Si può poi <strong>di</strong>mostrare che le funzioni <strong>di</strong> <strong>di</strong>stribuzione marginali sono date da<br />

x +∞ <br />

FX(x) =<br />

f(u, v)dv du ,<br />

FY (y) =<br />

−∞ −∞<br />

y +∞<br />

−∞<br />

−∞<br />

<br />

f(u, v)du dv ,<br />

e quin<strong>di</strong>, per definizione <strong>di</strong> funzione densità, le densità marginali delle variabili X<br />

e Y sono date da<br />

fX(x) =<br />

+∞<br />

−∞<br />

f(x, v)dv , fY (y) =<br />

+∞<br />

−∞<br />

f(u, y)du .<br />

Sia A un sottinsieme <strong>di</strong> R 2 tale che l’insieme s : X(s), Y (s) 2 A sia un evento <strong>di</strong><br />

Ω. Un importante teorema riguardante la funzione densità congiunta è il seguente:<br />

Teorema (senza <strong>di</strong>mostrazione)<br />

P (X, Y ) 2 A <br />

=<br />

A<br />

f(x, y) dx dy .<br />

Un corollario, molto utile ai fini della risoluzione degli esercizi (come si vedrà nell’esercizio<br />

1.6.4), segue in maniera imme<strong>di</strong>ata dal teorema appena enunciato:<br />

Corollario Siano (X, Y ) una variabile casuale bi<strong>di</strong>mensionale, f(x, y) la sua funzione<br />

densità congiunta, Φ(X, Y ) una variabile casuale funzione <strong>di</strong> X e Y , e B un<br />

boreliano <strong>di</strong> R. Vale la relazione<br />

P Φ(X, Y ) 2 B <br />

= f(x, y) dx dy , con A = (x, y) : Φ(x, y) 2 B .<br />

A<br />

La <strong>di</strong>mostrazione è imme<strong>di</strong>ata:<br />

P Φ(X, Y ) 2 B s <br />

= P : Φ X(s), Y (s) 2 B =<br />

<br />

= P s : X(s), Y (s) 2 (x, y) : Φ(x, y) 2 B <br />

=<br />

<br />

= P s : X(s), Y (s) <br />

2 A .<br />

Teorema ( senza <strong>di</strong>mostrazione) Se (X, Y ) è una variabile casuale bi<strong>di</strong>mensionale e<br />

Φ(X, Y ) una variabile casuale funzione <strong>di</strong> X e Y , si ha<br />

E[Φ(X, Y )] =<br />

E[Φ(X, Y )] =<br />

N<br />

M<br />

Φ(xr, ys) prs , se X e Y sono <strong>di</strong>screte (e finite);<br />

r=1 s=1<br />

+∞ +∞<br />

−∞<br />

−∞<br />

Corollario E[aX + bY ] = aE[X] + bE[Y ] .<br />

Corollario E N k=1 αkXk<br />

N = k=1 αkE[Xk] .<br />

Φ(x, y) f(x, y) dxdy , se X e Y sono continue.<br />

40


Definizione Si chiama covarianza delle variabili casuali X e Y , e la in<strong>di</strong>cheremo<br />

con σX,Y o Cov(X, Y ), il numero<br />

σX,Y ´ Cov(X, Y ) := E (X ¡ µX)(Y ¡ µY ) .<br />

In virtù del teorema precedente la covarianza risulta quin<strong>di</strong> così definita:<br />

N M<br />

σX,Y = (xr ¡ µX)(ys ¡ µY )prs , se X e Y sono <strong>di</strong>screte (e finite);<br />

σX,Y =<br />

r=1 s=1<br />

+∞ +∞<br />

−∞<br />

−∞<br />

(x ¡ µX)(y ¡ µY )f(x, y)dxdy , se X e Y sono continue.<br />

Teorema σX,Y = µXY ¡ µXµY .<br />

Dimostrazione<br />

σX,Y = E (X ¡ µX)(Y ¡ µY ) = E <br />

XY ¡ µXY ¡ µY X + µXµY =<br />

= E(XY ) ¡ µXE(Y ) ¡ µY E(X) + µXµY = µXY ¡ µXµY .<br />

Teorema σ 2 X±Y = σ2 X + σ2 Y § 2σX,Y .<br />

Dimostrazione<br />

σ 2 X±Y = E (X § Y ) ¡ (µX § µY ) 2 = E (X ¡ µX) § (Y ¡ µY ) 2 =<br />

= E (X ¡ µX) 2 + (Y ¡ µY ) 2 § 2(X ¡ µX)(Y ¡ µY ) = σ 2 X + σ 2 Y § 2σX,Y .<br />

Il teorema appena <strong>di</strong>mostrato per due variabili casuali, si può facilmente generalizzare<br />

alla somma <strong>di</strong> n variabili Xi:<br />

n n<br />

Teorema V ar Xi = V ar<br />

i=1 i=1<br />

<br />

Xi +2 Cov <br />

Xi, Xk .<br />

(senza <strong>di</strong>mostrazione)<br />

i=1,...,n−1<br />

k=i+1,...,n<br />

Teorema σ2 X,Y · σ2 Xσ2 Y . (senza <strong>di</strong>mostrazione)<br />

Introduciamo ora l’importante concetto <strong>di</strong> in<strong>di</strong>pendenza fra variabili casuali.<br />

Definizione Due variabili aleatorie X e Y sono in<strong>di</strong>pendenti quando la funzione <strong>di</strong><br />

<strong>di</strong>stribuzione congiunta F (x, y) è uguale al prodotto delle funzioni <strong>di</strong> <strong>di</strong>stribuzioni<br />

marginali FX(x) e FY (y), cioè quando<br />

F (x, y) = FX(x) ¢ FY (y) , 8x, y 2 R .<br />

Teorema (senza <strong>di</strong>mostrazione)<br />

CNS perchè due variabili aleatorie X e Y siano in<strong>di</strong>pendenti è che si abbia<br />

P (X 2 A, Y 2 B) = P (X 2 A) ¢ P (Y 2 B) , 8 A , B Boreliani .<br />

Teorema (senza <strong>di</strong>mostrazione)<br />

CNS perchè due variabili aleatorie X e Y <strong>di</strong>screte siano in<strong>di</strong>pendenti è che sia<br />

P (X =xr, Y =ys) = P (X =xr) ¢ P (Y =ys) .<br />

41


Teorema (senza <strong>di</strong>mostrazione)<br />

CNS perchè due variabili aleatorie X e Y continue siano in<strong>di</strong>pendenti è che sia<br />

f(x, y) = fX(x) ¢ fY (y) .<br />

Teorema Date due variabili casuali X e Y in<strong>di</strong>pendenti, vale la relazione<br />

Dimostrazione<br />

µXY = µX ¢µY .<br />

Facciamo la <strong>di</strong>mostrazione nel caso <strong>di</strong>screto. Sfruttando il teorema precedentemente<br />

enunciato per variabili casuali <strong>di</strong>screte si può scrivere:<br />

µXY = <br />

xrys P (X =xr, Y =ys) = <br />

xrys P (X =xr) P (Y =ys) =<br />

r<br />

s<br />

= <br />

xr P (X =xr) ¢ <br />

ys P (Y =ys) = µX ¢µY .<br />

r<br />

s<br />

Dalla relazione appena <strong>di</strong>mostrata, applicando i due teoremi <strong>di</strong>mostrati alla pagina<br />

precedente, seguono imme<strong>di</strong>atamente le due relazioni del corollario che segue.<br />

Corollario Date due variabili casuali X e Y in<strong>di</strong>pendenti, valgono le relazioni<br />

i) σX,Y = 0 ; ii) σ 2 X±Y = σ2 X + σ2 Y .<br />

Definizione Si chiama coefficiente <strong>di</strong> correlazione fra le variabili casuali X e Y ,<br />

e lo denotiamo con ρX,Y , il numero<br />

r<br />

ρX,Y = σX,Y<br />

σXσY<br />

Il coefficiente <strong>di</strong> correlazione fra due variabili casuali è nullo se e solo se la loro covarianza<br />

è nulla. In questo caso <strong>di</strong>ciamo che X e Y sono incorrelate. Ora, come<br />

affermato nel precedente corollario, σX,Y è certamente nulla se X e Y sono in<strong>di</strong>pendenti.<br />

Tuttavia, la covarianza può essere nulla anche se X e Y non sono in<strong>di</strong>pendenti.<br />

Se σX,Y 6= 0, X e Y si <strong>di</strong>cono correlate. Essendo σ2 X,Y ·σ2 Xσ2 Y (teorema enunciato in<br />

precedenza), si ha sempre jρX,Y j·1. Ne consegue che X e Y sono tanto più correlate,<br />

quanto più ρX,Y è in modulo prossimo ad uno. Nel caso <strong>di</strong> correlazione massima, cioè<br />

jρX,Y j = 1, X e Y sono linearmente <strong>di</strong>pendenti, per cui Y = αX + β, con α < 0 se<br />

ρX,Y =¡1 e α>0 se ρX,Y =1.<br />

In virtù della definizione <strong>di</strong> variabili incorrelate, dal teorema relativo alla varianza<br />

della somma <strong>di</strong> n variabili casuali, segue imme<strong>di</strong>atamente il seguente<br />

Corollario Se X1, X2, . . . , Xn sono n variabili casuali incorrelate, allora la varianza<br />

della loro somma è uguale alla somma delle loro varianze, vale a <strong>di</strong>re<br />

V ar <br />

X1 + X2 + ¢ ¢ ¢ + Xn = V ar(X1) + V ar(X2) + ¢ ¢ ¢ + V ar(Xn) .<br />

42<br />

.<br />

s


In particolare, se le Xi hanno tutte la stessa varianza σ2 , si ha<br />

V ar <br />

2<br />

X1 + X2 + ¢ ¢ ¢ + Xn = nσ .<br />

Inoltre, tenendo conto del fatto che V ar(aX) = a2V ar(X), si ha anche<br />

V ar <br />

2<br />

a1X1 + a2X2 + ¢ ¢ ¢ + anXn = a1V ar(X1) + a2 2V ar(X2) + ¢ ¢ ¢ + a2 nV ar(Xn) .<br />

Esercizio 1.6.1 Da un’urna contenente due palline bianche, una nera e due rosse, si estraggono<br />

una dopo l’altra con reimmissione due palline. Sia X1 la variabile casuale che descrive<br />

l’esito della prima estrazione e X2 quella che descrive l’esito della seconda estrazione. Ciascuna<br />

delle due variabili assume valore 1 se la pallina estratta è bianca, valore 0 se è nera<br />

o rossa. Si chiede <strong>di</strong> descrivere le leggi <strong>di</strong> probabilità congiunta e marginali, calcolare la<br />

covarianza e il coefficiente <strong>di</strong> correlazione.<br />

Essendo l’estrazione con reimmissione, gli esiti delle due estrazioni sono eventi in<strong>di</strong>pendenti<br />

e quin<strong>di</strong> si ha<br />

P (X1 = x1r, X2 = x2s) = P (X1 = x1r)¢P (X2 = x2s) ,<br />

per r, s = 1, 2 e x11 = x21 = 0 , x12 = x22 = 1 . Questa relazione tra le probabilità assicura<br />

l’in<strong>di</strong>pendenza delle due variabili casuali X1 e X2 e permette imme<strong>di</strong>atamente <strong>di</strong> rappresentarne<br />

la funzione <strong>di</strong> probabilità congiunta me<strong>di</strong>ante la seguente tabella:<br />

X1<br />

0<br />

1<br />

X2<br />

0 1<br />

3 3 ¢ 5 5<br />

2 3 ¢ 5 5<br />

3<br />

5<br />

3 2 ¢ 5 5<br />

2 2 ¢ 5 5<br />

An<strong>di</strong>amo ora a calcolare le me<strong>di</strong>e µX1 , µX2 e µX1X2 , le varianze σ2 X1 e σ2 . Una volta<br />

X1<br />

ottenuti questi valori, attraverso i teoremi visti calcoleremo imme<strong>di</strong>atamente la covarianza<br />

e il coefficiente <strong>di</strong> correlazione ρX1,X2 .<br />

σX1,X2<br />

µX1 = µX2 = 0¢ 3<br />

σ 2 X1 = σ2 X2 =<br />

µX1X2<br />

2 2<br />

+ 1¢ =<br />

5 5 5 ;<br />

<br />

0 ¡ 2<br />

2 ¢<br />

5<br />

3<br />

5 +<br />

<br />

1 ¡ 2<br />

2 ¢<br />

5<br />

2 6<br />

=<br />

5 25 ;<br />

<br />

= x1rx2sprs = 0¢0¢ 9 6 6 4 4<br />

+ 0¢1¢ + 1¢0¢ + 1¢1¢ =<br />

25 25 25 25 25 ;<br />

r,s<br />

σX1,X2 = µX1X2 ¡ µX1 ¢µX2 = 4<br />

25<br />

2<br />

5<br />

3<br />

5<br />

2<br />

5<br />

2 2<br />

¡ ¢<br />

5 5 = 0 ; ρX1,X2 = σX1,X2<br />

σX1σX2 = 0 .<br />

Osserviamo che in virtù dell’in<strong>di</strong>pendenza <strong>di</strong> X e Y sapevamo già, grazie ad un teorema che<br />

abbiamo visto, che σX1,X2 era nulla. Il calcolo è stato fatto ugualmente per fare pratica.<br />

43


Esercizio 1.6.2 Si risolva il problema dell’esercizio precedente senza reimmissione.<br />

Non reimmettendo la pallina estratta per prima, l’esito della seconda estrazione viene a<br />

<strong>di</strong>pendere dall’esito della prima. Di conseguenza le probabilità congiunte cambiano e si ha<br />

P (X1 = x1r, X2 = x2s) = P (X1 = x1r)¢P (X2 = x2sjX1 = x1r) .<br />

Le variabili casuali X e Y non sono in<strong>di</strong>pendenti e la tabella che rappresenta la funzione <strong>di</strong><br />

probabilità congiunta risulta così mo<strong>di</strong>ficata:<br />

X1<br />

0<br />

1<br />

X2<br />

0 1<br />

3 2<br />

5 ¢ 4<br />

2 3<br />

5 ¢ 4<br />

3<br />

5<br />

3 2<br />

5 ¢ 4<br />

2 1<br />

5 ¢ 4<br />

Ripetendo i calcoli fatti per l’esercizio precedente otteniamo<br />

3 2 2<br />

µX1 = µX2 = 0¢ + 1¢ =<br />

5 5 5 ;<br />

σ 2 X1 = σ2 X2 =<br />

<br />

0 ¡ 2<br />

2 ¢<br />

5<br />

3<br />

5 +<br />

<br />

1 ¡ 2<br />

2 ¢<br />

5<br />

2 6<br />

=<br />

5 25 ;<br />

µX1X2 = <br />

x1rx2sprs = 0¢0¢ 6 6 6 2 1<br />

+ 0¢1¢ + 1¢0¢ + 1¢1¢ =<br />

20 20 20 20 10 ;<br />

σX1,X2<br />

ρX1,X2<br />

r,s<br />

= µX1X2 ¡ µX1 ¢µX2 = 1<br />

10<br />

= σX1,X2<br />

σX1 σX2<br />

= ¡ 1<br />

4 .<br />

2<br />

5<br />

3<br />

5<br />

2<br />

5<br />

2 2 3<br />

¡ ¢ = ¡<br />

5 5 50 ;<br />

Il fatto che la me<strong>di</strong>a e la varianza delle variabili singole siano le stesse dell’esercizio precedente<br />

non deve sorprendere: le <strong>di</strong>stribuzioni marginali non sono cambiate. Giova piuttosto<br />

osservare che ora le variabili X e Y non sono in<strong>di</strong>pendenti e, essendo ρX1,X2 6= 0, neppure<br />

incorrelate.<br />

Esercizio 1.6.3 Un’urna contiene 112 da<strong>di</strong> <strong>di</strong> cui 56 (cioè la metà) sono equi, mentre gli altri<br />

sono stati manipolati in modo che, per ciascuno <strong>di</strong> essi, la probabilità <strong>di</strong> ottenere 1 sia 1<br />

2 ,<br />

mentre ogni altro risultato si verifica con probabilità 1<br />

. Si chiede:<br />

10<br />

a) Un dado viene estratto a caso e lanciato; in<strong>di</strong>chiamo con X la variabile aleatoria che<br />

rappresenta il risultato del lancio. Qual è la probabilità <strong>di</strong> ottenere 3? Quanto vale E(X)?<br />

b) Un dado viene estratto a caso e lanciato due volte. In<strong>di</strong>cato con X il risultato del primo<br />

lancio e con Y quello del secondo, qual è la probabilità <strong>di</strong> ottenere X =2 e Y =3?<br />

c) Sapendo che i due lanci hanno dato come risultato X =2 e Y =3, qual è la probabilità<br />

che si tratti <strong>di</strong> uno dei da<strong>di</strong> truccati?<br />

d) Le variabili casuali X e Y sono in<strong>di</strong>pendenti?<br />

44


a) Le probabilità con cui la variabile aleatoria X assume i valori 1, 2, ..., 6 <strong>di</strong>pendono dal<br />

fatto che il dado estratto sia oppure no equo. In<strong>di</strong>cato con A l’evento “il dado estratto è<br />

equo” e quin<strong>di</strong> con AC l’evento “il dado estratto è alterato”, si ha<br />

<br />

<br />

<br />

1 2 3 4 5 6<br />

XjA :<br />

1<br />

6<br />

1<br />

6<br />

1<br />

6<br />

1<br />

6<br />

Applicando la formula della probabilità totale, per cui<br />

1<br />

6<br />

1<br />

6<br />

, XjA C <br />

1 2 3 4 5 6<br />

:<br />

P (X =k) = P (X =kjA) ¢ P (A) + P (X =kjA C ) ¢ P (A C ) ,<br />

la variabile non con<strong>di</strong>zionata X risulta così definita:<br />

<br />

1 2 3 4 5 6<br />

X :<br />

.<br />

1<br />

3<br />

2<br />

15<br />

Si ha dunque P (X =3) = 2<br />

15 e, facendo i calcoli, E(X) = 6 k=1 k ¢ P (X =k) = 3.<br />

2<br />

15<br />

b) Consideriamo la variabile bi<strong>di</strong>mensionale (X, Y ), con Y variabile identica alla X. La sua<br />

funzione <strong>di</strong> probabilità congiunta sarà definita dalle relazioni<br />

P (X =j, Y =k) = P (X =j, Y =k)jA ¢ P (A) + P (X =j, Y =k)jA C ¢ P (A C ) =<br />

= P (X =jjA) ¢ P (Y =kjA) ¢ 1<br />

2 + P (X =jjAC ) ¢ P (Y =kjA C ) ¢ 1<br />

2 .<br />

In particolare<br />

P (X =2, Y =3) = P (X =2jA) ¢ P (Y =3jA) ¢ 1<br />

2 + P (X =2jAC ) ¢ P (Y =3jA C ) ¢ 1<br />

2 =<br />

2<br />

15<br />

2<br />

15<br />

= 1 1 1 1 1 1 17<br />

¢ ¢ + ¢ ¢ =<br />

6 6 2 10 10 2 900 .<br />

Volendo, anche se non richiesto dall’esercizio, calcolare e mostrare la tabella completa che<br />

rappresenta la funzione <strong>di</strong> probabilità congiunta della variabile aleatoria (X, Y ), abbiamo:<br />

1<br />

2<br />

Y<br />

1<br />

2<br />

1 2 3 4 5 6<br />

5<br />

36<br />

7<br />

180<br />

7 3 180<br />

X<br />

7 4 180<br />

5<br />

6<br />

7<br />

180<br />

7<br />

180<br />

1<br />

3<br />

7<br />

180<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

2<br />

15<br />

7<br />

180<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

2<br />

15<br />

7<br />

180<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

c) In<strong>di</strong>cato con B l’evento fX =2, Y =3g, ci si chiede ora P (A C jB). Utilizzando la formula<br />

<strong>di</strong> Bayes, otteniamo<br />

2<br />

15<br />

P (A C jB) = P (BjAC ) ¢ P (A C )<br />

P (B)<br />

45<br />

7<br />

180<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

2<br />

15<br />

=<br />

2<br />

15<br />

7<br />

180<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

17<br />

900<br />

1<br />

10<br />

2<br />

15<br />

1<br />

10<br />

1 ¢ 10<br />

17<br />

900<br />

¢ 1<br />

2<br />

1<br />

10<br />

1<br />

3<br />

2<br />

15<br />

2<br />

15<br />

2<br />

15<br />

2<br />

15<br />

2<br />

15<br />

1<br />

10<br />

= 9<br />

34 .<br />

1<br />

10<br />

1<br />

10<br />

.


d) Perchè due variabili aleatorie X e Y siano in<strong>di</strong>pendenti (ve<strong>di</strong> pag. 36) deve essere<br />

P (X =xr, Y =ys) = P (X =xr) ¢ P (Y =ys) ,<br />

per ogni coppia (xr, ys). Nel nostro caso, con xr =2 e ys =3, si ha<br />

17<br />

900 = P (X =2, Y =3) 6= 2 2<br />

P (X =2) ¢ P (Y =3) = 15 ¢ 15 = 4<br />

225 .<br />

Di conseguenza X e Y non sono in<strong>di</strong>pendenti.<br />

Esercizio 1.6.4 Due variabili casuali X e Y sono in<strong>di</strong>pendenti ed uniformi su [0, 1]. Calcolare:<br />

a)<br />

<br />

P XY > 1<br />

<br />

;<br />

2<br />

b)<br />

<br />

P XY < 1<br />

<br />

<br />

X ><br />

4<br />

1<br />

<br />

.<br />

2<br />

Essendo X e Y uniformi ed in<strong>di</strong>pendenti sull’intervallo [0, 1], la variabile congiunta (X, Y )<br />

ha una funzione densità f(x, y) data dal prodotto delle funzioni densità <strong>di</strong> X e Y .<br />

conseguenza, in<strong>di</strong>cato con Q il ”quadrato” ´ (0, 1) £ (0, 1), si ha:<br />

Di<br />

<br />

0<br />

f(x, y) =<br />

1<br />

se<br />

se<br />

(x, y) /2 Q<br />

(x, y) 2 Q .<br />

Ricordando poi un corollario sulle funzioni densità congiunte, sappiamo che<br />

P Φ(X, Y ) 2 B <br />

= f(x, y) dx dy , con A = (x, y) : Φ(x, y) 2 B .<br />

A<br />

Di conseguenza, essendo Φ(X, Y ) = XY , abbiamo che<br />

<br />

<br />

P (XY 2 B) = f(x, y) dx dy = dx dy , con A = (x, y) : xy 2 B .<br />

A<br />

A∩Q<br />

a) Dovendo essere XY > 1<br />

2 , si ha B = z > 1<br />

<br />

2 , e quin<strong>di</strong> A è la regione, tutta contenuta<br />

in Q, costituita dai punti (x, y) tali che xy> 1<br />

2 (ve<strong>di</strong> figura). Di conseguenza la probabilità<br />

richiesta è<br />

<br />

P XY > 1<br />

<br />

1<br />

= dx dy =<br />

2<br />

=<br />

A∩Q<br />

1<br />

1<br />

2<br />

<br />

1 ¡ 1<br />

2x<br />

1<br />

2<br />

1<br />

dx dy =<br />

1<br />

2x<br />

<br />

dx = 1<br />

2 (1 ¡ loge 2) .<br />

b) Per calcolare la probabilità richiesta in questo punto, si procede analogamente a quanto<br />

fatto per il punto a) tenendo però conto che si tratta <strong>di</strong> una probabilità con<strong>di</strong>zionata:<br />

<br />

P XY < 1<br />

<br />

<br />

X ><br />

4<br />

1<br />

<br />

=<br />

2<br />

P [XY < 1<br />

Posto A ′ = (x, y) : xy< 1<br />

4<br />

<br />

P XY < 1<br />

<br />

<br />

X ><br />

4<br />

1<br />

<br />

<br />

=<br />

2<br />

1<br />

4 , X > 2 ]<br />

, x> 1<br />

2<br />

A ′ ∩Q<br />

1<br />

= 2<br />

1<br />

2<br />

1<br />

2<br />

P [X > 1<br />

2 ]<br />

.<br />

<br />

, si ha quin<strong>di</strong><br />

dx dy<br />

= 2<br />

1<br />

1<br />

2<br />

1 1<br />

dx =<br />

4x 2 loge 2 .<br />

46<br />

1<br />

4x<br />

dx dy =<br />

0


1.7 DISTRIBUZIONI BINOMIALE, DI POISSON E DI GAUSS<br />

DISTRIBUZIONE BINOMIALE<br />

Consideriamo esperimenti con due soli risultati: ad esempio, il lancio <strong>di</strong> una moneta<br />

produce come risultato o testa o croce; un in<strong>di</strong>viduo, scelto a caso da un gruppo,<br />

possiede oppure no una data caratteristica; un dato prodotto, uscito da una linea <strong>di</strong><br />

produzione, è <strong>di</strong>fettoso oppure no. Generalizzando, siano A (il “successo”) e B ´ A C<br />

(“il fallimento”) i due possibili risultati del nostro esperimento, e siano p = P (A) e<br />

q = P (B) = 1¡p le loro probabilità. Considerando ora una variabile casuale Y che<br />

assume il valore 1 nel caso <strong>di</strong> successo e 0 nel caso <strong>di</strong> fallimento, essa risulta così<br />

definita:<br />

Y :<br />

<br />

0<br />

1¡p<br />

<br />

1<br />

.<br />

p<br />

Una variabile casuale <strong>di</strong> questo tipo è detta <strong>di</strong> Bernoulli o bernoulliana.<br />

<strong>di</strong>ato verificare che<br />

E(Y ) = p , V ar(Y ) = pq .<br />

È imme-<br />

Supponiamo poi che dell’esperimento in questione siano fatte n prove e sia X la variabile<br />

aleatoria che ne descrive il risultato: sarà X =k se si verificano esattamente k<br />

successi. Ebbene, il teorema che segue, e che non <strong>di</strong>mostriamo, ci fornisce la probabilità<br />

P (X =k). (Si consiglia <strong>di</strong> rivedere gli esercizi 1.5.1 e 1.5.2 per una giustificazione<br />

del teorema basata su due problemi specifici).<br />

Teorema (<strong>di</strong> Bernoulli) La probabilità che in n prove in<strong>di</strong>pendenti l’evento A<br />

avvenga esattamente k volte vale<br />

<br />

n<br />

p<br />

k<br />

kqn−k , k = 0, 1, ..., n ,<br />

dove p è la probabilità <strong>di</strong> A in una singola prova e q=1¡p.<br />

Si dà quin<strong>di</strong> la seguente<br />

Definizione Dati 0 < p < 1 e n 2 N, si chiama variabile aleatoria binomiale la<br />

variabile aleatoria <strong>di</strong>screta (e finita) avente la seguente funzione <strong>di</strong> probabilità:<br />

P (X =k) ´ f(k) = n k n−k<br />

k p q , q=1¡p , k = 0, 1, . . . , n .<br />

<br />

n n!<br />

Ricordando che = , si può anche scrivere<br />

k k!(n ¡ k)!<br />

<br />

0 1 2 ... n ¡ 2 n ¡ 1 n<br />

X :<br />

qn npqn−1 n!<br />

2!(n ¡ 2)! p2qn−2 n!<br />

...<br />

(n ¡ 2)!2! pn−2q2 npn−1q pn <br />

.<br />

Spesso, piuttosto <strong>di</strong> <strong>di</strong>re che abbiamo una variabile aleatoria X binomiale, parleremo<br />

<strong>di</strong> <strong>di</strong>stribuzione binomiale. Qualche volta, poi, per in<strong>di</strong>care una variabile aleatoria<br />

X binomiale <strong>di</strong> parametri n e p scriveremo X ' B(n, p).<br />

47


Si noti che effettivamente la somma <strong>di</strong> tutte le probabilità P (X =k) è 1. Infatti, per<br />

la formula binomiale <strong>di</strong> Newton, si ha<br />

n<br />

<br />

n<br />

p<br />

k<br />

k q n−k = (p + q) n = 1 n = 1 .<br />

k=0<br />

Teorema (senza <strong>di</strong>mostrazione)<br />

Una variabile casuale X binomiale ha me<strong>di</strong>a e varianza date da<br />

µX = np , σ 2 X<br />

= npq .<br />

Per poter calcolare operativamente la funzione <strong>di</strong>stribuzione F (k) = P (X · k) o la<br />

funzione <strong>di</strong> probabilità f(k) è molto utile la seguente relazione:<br />

P (X = k+1) = p n¡k<br />

1¡p k+1<br />

P (X = k) .<br />

Esercizio 1.7.1 Se la probabilità <strong>di</strong> avere un figlio maschio è 1<br />

2 , per una famiglia con 5 figli,<br />

qual è la probabilità <strong>di</strong> avere: (i) due maschi; (ii) almeno un maschio; (iii) almeno 3 femmine.<br />

Sia X la variabile aleatoria binomiale che rappresenta il “numero <strong>di</strong> maschi fra n = 5 figli”:<br />

<br />

5<br />

1 2 1<br />

3 <br />

1<br />

5 P (X =2) =<br />

= 10 ¢ =<br />

2 2 2 2<br />

5<br />

16 ;<br />

<br />

5<br />

1 0 1<br />

5 P (X ¸1) = 1 ¡ P (X =0) = 1 ¡<br />

=<br />

0 2 2<br />

31<br />

32 ;<br />

2<br />

<br />

5<br />

1 k 1<br />

5−k P (X ·2) =<br />

=<br />

k 2 2<br />

1 1 1 1<br />

+ 5 ¢ + 10 ¢ =<br />

32 32 32 2 .<br />

k=0<br />

Esercizio 1.7.2 Sia p=98% la probabilità che un test <strong>di</strong>agnostico su una persona <strong>di</strong>a una<br />

risposta corretta. Si chiede qual è la probabilità che eseguendo il test su un gruppo <strong>di</strong> 7<br />

in<strong>di</strong>vidui esso <strong>di</strong>a una risposta corretta per (i) tutti 7; (ii) almeno 6; (iii) meno della metà.<br />

In<strong>di</strong>chiamo con X la variabile aleatoria binomiale che rappresenta il numero delle <strong>di</strong>agnosi<br />

veritiere sulle 7 eseguite. Si ha<br />

<br />

7<br />

<br />

98<br />

7 2<br />

0 7 98<br />

P (X =7) =<br />

= 1¢<br />

7 100 100 1014 <br />

¼ 0.868 ;<br />

<br />

7<br />

<br />

98<br />

6 2<br />

<br />

1 7<br />

<br />

98<br />

7 2<br />

0 P (X ¸6) =<br />

+<br />

¼ 0.124 + 0.868 = 0.992 ;<br />

6 100 100 7 100 100<br />

3<br />

<br />

7<br />

<br />

98<br />

k 2<br />

7−k P (X ·3) =<br />

¼ 0.53¢10<br />

k 100 100<br />

−5 .<br />

k=0<br />

48


Esempio 1.7.1 Si consideri ancora il test dell’esercizio precedente, questa volta con p=90%,<br />

che supponiamo eseguito su una popolazione <strong>di</strong> n =250 persone. Calcoliamo la me<strong>di</strong>a e la<br />

deviazione standard della variabile aleatoria Y che rappresenta il numero dei test corretti.<br />

In virtù del teorema precedente si ha<br />

µY = np = 250¢ 90<br />

100 = 225 ; σY = p npq =<br />

<br />

250¢ 90 1<br />

100 ¢ 10 = p 22.5 ¼ 4.74 .<br />

Questo esempio mostra come il concetto <strong>di</strong> me<strong>di</strong>a coincida col concetto intuitivo <strong>di</strong> “valore<br />

più probabile”, e quin<strong>di</strong> <strong>di</strong> “valore atteso”. La deviazione standard (o scarto quadratico<br />

me<strong>di</strong>o) fornisce invece un in<strong>di</strong>ce (ce ne sono <strong>di</strong>versi) della <strong>di</strong>spersione dei risultati attorno al<br />

valore atteso quando l’esperimento è compiuto tante volte.<br />

Esercizio 1.7.3 (a) Due ristoranti sono in concorrenza avendo gli stessi 10 clienti. Si supponga<br />

che i clienti scelgano a caso ed in<strong>di</strong>pendentemente uno dall’altro il ristorante, e che<br />

arrivino al ristorante tutti alla stessa ora. Si chiede <strong>di</strong> determinare il numero <strong>di</strong> posti a sedere<br />

che ciascun ristorante dovrebbe avere perché ci sia almeno il 95% <strong>di</strong> probabilità <strong>di</strong> poter<br />

servire tutti i clienti che arrivano. (b) Risolvere lo stesso problema per tre ristoranti.<br />

(a) Se X è la variabile casuale che rappresenta il numero <strong>di</strong> clienti che arrivano ad uno stesso<br />

ristorante, X ha chiaramente una <strong>di</strong>stribuzione binomiale, vale a <strong>di</strong>re si ha<br />

P (X =i) = 10 i 10−i<br />

i p (1 ¡ p) .<br />

Inoltre, nel caso in questione, poichè la scelta del ristorante da parte <strong>di</strong> ogni cliente è casuale,<br />

si ha p = q = 1<br />

2 . Il numero <strong>di</strong> posti che garantisce con una probabilità <strong>di</strong> almeno il 95% <strong>di</strong><br />

poter servire tutti i clienti che arrivano è dato dal minimo k tale che<br />

P (X ·k) = k 10 1 i <br />

1 10−i <br />

1 10 k 10<br />

i=0 i 2 2 = 2 i=0 i ¸ 0.95 .<br />

In<strong>di</strong>cata con Sk la somma in questione dei coefficienti binomiali, si può quin<strong>di</strong> scrivere<br />

Sk ´ k <br />

10<br />

i=0 ¸ 2 ¢ 0.95 = 972.8 .<br />

Di conseguenza, essendo<br />

10<br />

i<br />

¢ ¢ ¢ ¢ ¢ ¢ S6 =758 S7 =968 S8 =1013 S9 =1023 S10 =1024 ,<br />

il minimo k che sod<strong>di</strong>sfa la relazione è 8.<br />

(b) Se i ristoranti sono tre, si ha p= 1<br />

3<br />

P (X ·k) = k<br />

i=0<br />

o, equivalentemente,<br />

Σk ´<br />

i=0<br />

10<br />

i<br />

1<br />

3<br />

i 2<br />

3<br />

Calcolati i termini Σk con un pò <strong>di</strong> lavoro, si ha:<br />

2<br />

e q= 3 . In questo caso si ha quin<strong>di</strong><br />

10−i <br />

1 10 k = 3 i=0 210−i 10<br />

i ¸ 0.95 ,<br />

k<br />

2 10−i<br />

<br />

10<br />

¸ 3<br />

i<br />

10 ¢ 0.95 = 56096.55 .<br />

¢ ¢ ¢ ¢ ¢ ¢ Σ4 =46464 Σ5 =54528 Σ6 =57888 Σ7 =58848 ¢ ¢ ¢ ¢ ¢ ¢ .<br />

Il minimo k per cui risulta sod<strong>di</strong>sfatta la relazione è dunque 6. Nel caso <strong>di</strong> tre ristoranti<br />

bastano quin<strong>di</strong> 6 posti a sedere per avere la probabilità <strong>di</strong> almeno il 95% <strong>di</strong> poter servire i<br />

clienti che arrivano.<br />

49


DISTRIBUZIONE DI POISSON<br />

Definizione Una variabile aleatoria X è detta variabile aleatoria <strong>di</strong> Poisson con<br />

parametro µ (µ>0) se può assumere gli infiniti valori k = 0, 1, 2, ... con probabilità<br />

P (X =k) = f(k) = µk<br />

k! e−µ ,<br />

Rappresentata in forma esplicita, una variabile aleatoria <strong>di</strong> Poisson è dunque del tipo<br />

<br />

0 1 2 3 ... k ...<br />

X :<br />

e−µ <br />

−µ µ2<br />

.<br />

µe<br />

2!<br />

e−µ µ3<br />

3! e−µ ...<br />

µ k<br />

k! e−µ ...<br />

Si osservi che effettivamente la somma <strong>di</strong> tutte le probabilità vale 1. Infatti, si ha<br />

+∞<br />

k=0<br />

µ k<br />

k! e−µ = e −µ<br />

+∞<br />

k=0<br />

µ k<br />

k! = e−µ ¢ e +µ = 1 ,<br />

essendo +∞<br />

k=0 xk<br />

k! = ex (si tratta della ben nota serie esponenziale).<br />

Teorema (senza <strong>di</strong>mostrazione)<br />

La variabile aleatoria <strong>di</strong> Poisson <strong>di</strong> parametro µ ha me<strong>di</strong>a uguale a µ e varianza<br />

pure uguale a µ.<br />

Il fatto che µX =σ2 X =µ implica che, aumentando µ, aumenta <strong>di</strong> pari passo anche la<br />

<strong>di</strong>spersione dei valori rispetto alla me<strong>di</strong>a.<br />

La <strong>di</strong>stribuzione <strong>di</strong> Poisson è tra le più importanti del calcolo delle probabilità. Essa è stata<br />

ottenuta come limite della <strong>di</strong>stribuzione binomiale, della quale è una buona approssimazione<br />

quando n è molto grande e p molto piccolo; per questo è anche detta <strong>di</strong>stribuzione degli<br />

eventi rari. Per farne capire l’importanza nelle applicazioni e il gran numero <strong>di</strong> situazioni<br />

in cui essa si applica, elenchiamo alcuni casi in cui la <strong>di</strong>stribuzione <strong>di</strong> Poisson descrive assai<br />

bene i dati osservati:<br />

— il numero casuale delle particelle α emesse da un corpo ra<strong>di</strong>oattivo e rilevate in un intervallo<br />

<strong>di</strong> tempo fissato; lo stesso vale per molte altre variabili aleatorie osservate in connessione con<br />

la ra<strong>di</strong>oattività;<br />

— il numero <strong>di</strong> refusi in una o più pagine <strong>di</strong> un libro;<br />

— il numero <strong>di</strong> clienti che entrano in un ufficio postale in una giornata;<br />

— il numero <strong>di</strong> persone, <strong>di</strong> una data categoria, con più <strong>di</strong> 100 anni;<br />

— il numero delle chiamate in arrivo ad un centralino telefonico, così come il numero <strong>di</strong><br />

collegamenti ad un numero sbagliato;<br />

— il numero <strong>di</strong> transistor che si guastano nel primo giorno <strong>di</strong> utilizzo.<br />

Come si può desumere dall’elenco <strong>di</strong> applicazioni appena proposto, la variabile aleatoria<br />

<strong>di</strong> Poisson è adatta a descrivere il numero <strong>di</strong> fenomeni casuali <strong>di</strong>stribuiti con una data<br />

densità me<strong>di</strong>a µ nell’unità <strong>di</strong> tempo o nell’unità <strong>di</strong> volume o nell’unità <strong>di</strong> superficie... Gli<br />

esempi che seguono illustrano operativamente quanto affermato.<br />

50


Osservazione: Si può facilmente <strong>di</strong>mostrare che vale la seguente relazione:<br />

P (X =k + 1) = µ<br />

P (X =k) .<br />

k + 1<br />

Esempio 1.7.2 Nel 1910 Rutherford e Geiger provarono che il numero <strong>di</strong> particelle α emesse<br />

al secondo da una sostanza ra<strong>di</strong>oattiva era una variabile aleatoria <strong>di</strong> Poisson con µ = 0.5.<br />

Determiniamo la probabilità <strong>di</strong> osservare due o più particelle in un secondo?<br />

P (X ¸2) =<br />

+∞<br />

(0.5) k<br />

k!<br />

e −0.5 = 1 ¡ P (X =0) ¡ P (X =1) =<br />

k=2<br />

= 1 ¡ e −0.5 ¡ 0.5¢e −0.5 ¼ 1 ¡ 0.91 = 9%<br />

Esempio 1.7.3 Una certa sospensione batterica contiene 5 batteri per cm 3 (valor me<strong>di</strong>o).<br />

Qual è la probabilità che un campione causale <strong>di</strong> 1 cm 3 contenga (i) nessun batterio; (ii)<br />

al piú due batteri; (iii) almeno 5 batteri?<br />

Esempio 1.7.4<br />

P (X =0) = e −5 ¼ 0.007 ;<br />

<br />

P (X ·2) = 1 + 5 + 52<br />

2!<br />

<br />

e −5 ¼ .125 ;<br />

P (X ¸5) = 1 ¡ P (X ·4) = 1 ¡<br />

<br />

1 + 5 + 52 53<br />

+<br />

2! 3!<br />

<br />

54<br />

+ e<br />

4!<br />

−5 ¼ 0.560 .<br />

Si desidera determinare la carica batterica <strong>di</strong> un campione <strong>di</strong> latte. Per valutare il numero<br />

<strong>di</strong> batteri in una sospensione se ne cerca la <strong>di</strong>luizione limite alla quale si trova ancora almeno<br />

un batterio capace <strong>di</strong> riprodursi. Supponiamo, ad esempio, <strong>di</strong> <strong>di</strong>luire 1 cm 3 <strong>di</strong> latte prima<br />

<strong>di</strong> un fattore 10 −1 , poi 10 −2 , quin<strong>di</strong> 10 −3 e infine 10 −4 , trovando in ogni caso, dopo<br />

incubazione, sviluppo dei batteri. Supponiamo invece che <strong>di</strong>luendo <strong>di</strong> un fattore 10 −5 , si<br />

trovi che il campione <strong>di</strong> 1 cm 3 risulti sterile. Ciò permette <strong>di</strong> concludere che nel campione<br />

<strong>di</strong> 1 cm 3 <strong>di</strong>luito 10 4 volte vi era almeno un germe capace <strong>di</strong> riprodursi, e quin<strong>di</strong> che quel<br />

latte conteneva circa 10 4 germi per cm 3 .<br />

Volendo raffinare l’approssimazione della carica batterica presente nel latte in esame, inoculiamo<br />

la sospensione <strong>di</strong>luita <strong>di</strong> un fattore 10 −4 in 20 provette, mettendone 1 cm 3 in ciascuna.<br />

Supponiamo <strong>di</strong> trovare che 8 <strong>di</strong> esse mostrano crescita, mentre le altre 12 risultano sterili.<br />

La <strong>di</strong>stribuzione <strong>di</strong> Poisson permette <strong>di</strong> prevedere che, se vi sono in me<strong>di</strong>a µ germi per<br />

cm 3 <strong>di</strong> <strong>di</strong>luito, il numero <strong>di</strong> provette che non riceveranno alcun germe (cioè sterili) risulterà<br />

proporzionale a P (X =0) = e −µ . Avremo dunque<br />

da cui<br />

e−µ = 12<br />

20 = 0.6 ,<br />

µ = ¡loge(0.6) = ¡loge10¢log10(0.6) = ¡2.3026¢(¡0.222) = 0.51 .<br />

Allora la concentrazione <strong>di</strong> germi nel latte è 0.51¢10 4 =5.1 ¢ 10 3 germi per cm 3 .<br />

51


Esercizio 1.7.4 Una compagnia <strong>di</strong> assicurazioni riceve in me<strong>di</strong>a 5 richieste <strong>di</strong> rimborso al<br />

giorno. Assumendo che il numero delle richieste che arrivano in giorni successivi sia in<strong>di</strong>pendente,<br />

si chiede: (a) che frazione delle giornate vedrà arrivare meno <strong>di</strong> 3 richieste?<br />

(b) con quale probabilità in una settimana (<strong>di</strong> 5 giorni lavorativi) arrivano 4 richieste in<br />

esattamente 3 giorni?<br />

(a) Poichè il numero <strong>di</strong> assicurati è grande, ma la probabilità che essi man<strong>di</strong>no una richiesta<br />

in un dato giorno è piuttosto piccola, il numero totale <strong>di</strong> richieste al giorno, che in<strong>di</strong>chiamo<br />

con X, è una variabile casuale approssimativamente Poissoniana con me<strong>di</strong>a E(X) = 5. Si<br />

ha quin<strong>di</strong><br />

<br />

P (X 0), e si scrive X ' N(µ, σ2 ),<br />

se la funzione densità è<br />

f(x) = 1<br />

σ p 2π e−(x−µ)2 /2σ 2<br />

.<br />

La funzione f(x) è detta funzione <strong>di</strong> Gauss. Si tratta <strong>di</strong> una funzione “a campana”<br />

simmetrica rispetto ad x◦ = µ, che ha un massimo per x◦, dove assume il valore<br />

massimo f(µ) = 1<br />

σ p . Quest’ultimo ha il significato <strong>di</strong> fattore <strong>di</strong> normalizzazione,<br />

2π<br />

cioè è quel numero tale che<br />

+∞<br />

−∞<br />

f(x)dx = 1 .<br />

Come già sappiamo, questa uguaglianza, la cui <strong>di</strong>mostrazione viene omessa, <strong>di</strong>ce che<br />

f(x) è effettivamente una densità <strong>di</strong> probabilità.<br />

Teorema E(X) = µ , V ar(X) = σ 2 .<br />

Il fatto che la me<strong>di</strong>a <strong>di</strong> X sia µ è una ovvia conseguenza della simmetria del grafico<br />

della densità rispetto ad x◦ = µ. Omettiamo, per semplicità, <strong>di</strong> <strong>di</strong>mostrare che la<br />

52


varianza è σ 2 . A proposito <strong>di</strong> σ si può notare che più è piccolo, più è alto il picco<br />

f(µ), e dunque la campana è più concentrata intorno alla me<strong>di</strong>a µ, il che concorda<br />

perfettamente con il significato <strong>di</strong> varianza.<br />

Dalla espressione della densità otteniamo la funzione <strong>di</strong>stribuzione:<br />

da cui<br />

F (x) =<br />

x<br />

−∞<br />

P (a·X ·b) = F (b) ¡ F (a) =<br />

1<br />

σ p 2π e−(t−µ)2 /2σ 2<br />

b<br />

a<br />

dt ,<br />

1<br />

σ p 2π e−(t−µ)2 /2σ 2<br />

Naturalmente, trattandosi <strong>di</strong> una variabile casuale continua, si ha P (a · X · b) =<br />

P (a·X


Questo teorema risulta <strong>di</strong> grande utilità pratica. Infatti, una volta tabulata la Φ(x),<br />

il cui grafico ha l’andamento mostrato nella figura sottoriportata, attraverso le tavole<br />

ottenute è possibile ottenere anche i “corrispondenti” valori per una qualunque<br />

variabile normale. Le tavole <strong>di</strong> Φ(x) sono fornite alla fine <strong>di</strong> queste <strong>di</strong>spense.<br />

Essendo<br />

si ha<br />

<br />

b ¡ µ<br />

<br />

a ¡ µ<br />

<br />

P (a·X ·b) = F (b) ¡ F (a) = Φ ¡ Φ ,<br />

σ<br />

σ<br />

P (µ ¡ σ < X < µ + σ) = Φ(1) ¡ Φ(¡1) ' 68.3% ;<br />

P (µ ¡ 2σ < X < µ + 2σ) = Φ(2) ¡ Φ(¡2) ' 95.5% ;<br />

P (µ ¡ 3σ < X < µ + 3σ) = Φ(3) ¡ Φ(¡3) ' 99.7% .<br />

Queste probabilità sono molto in<strong>di</strong>cative del comportamento <strong>di</strong> una variabile casuale<br />

normale. La prima, ad esempio, ci <strong>di</strong>ce che è ragionevole aspettarsi che più dei due<br />

terzi dei valori osservati <strong>di</strong> X ' N(µ, σ 2 ) cadano nell’intervallo (µ ¡ σ, µ + σ). La<br />

terza ci <strong>di</strong>ce invece che fra mille osservazioni <strong>di</strong> X, me<strong>di</strong>amente solo tre cadono fuori<br />

dall’intervallo (µ ¡ 3σ, µ + 3σ).<br />

Data la variabile casuale X ' N(µ, σ2 ), l’uso più <strong>di</strong>retto delle tavole relative alla funzione<br />

Φ consiste nel determinare P (X ·x) sapendo che è uguale a Φ x−µ<br />

. Qualche<br />

σ<br />

volta, però, nelle applicazioni è data una probabilità α (spesso assegnata come percentuale)<br />

e si cerca il numero x tale che Φ(x)=α. Questo numero x è spesso denotato<br />

con φα e chiamato quantile relativo ad α, ovvero percentile n¡esimo se α= n<br />

100 .<br />

Nell’ambito <strong>di</strong> applicazioni in cui sono assegnate come dati le probabilità, può poi<br />

essere utile ricordare le seguenti approssimazioni<br />

P (µ ¡ 1.96σ < X < µ + 1.96σ) ¼ 95% ;<br />

P (µ ¡ 2.58σ < X < µ + 2.58σ) ¼ 99% .<br />

Nella determinazione <strong>di</strong> probabilità attraverso le tavole <strong>di</strong> N(0, 1), talvolta anche<br />

considerazioni geometriche sulle aree sottese dal grafico della densità possono essere<br />

<strong>di</strong> grande aiuto. Una relazione estremamente utile, che permette <strong>di</strong> limitare la tabulazione<br />

dei valori della funzione <strong>di</strong>stribuzione Φ(x) ad x > 0, deducibile in modo<br />

imme<strong>di</strong>ato dalla simmetria della funzione densità rispetto all’asse y, è la seguente:<br />

Φ(¡x) = 1 ¡ Φ(x) .<br />

54


Grazie a questa relazione, si può osservare che posto Φ(x) = α, si ha Φ(¡x) = 1 ¡ α.<br />

Da qui, passando alla notazione precedentemente introdotta relativa ai quantili, segue<br />

φ1−α = ¡φα. Ad esempio, φ0.95 = ¡φ0.05. Il grafico qui sotto riportato rende evidente<br />

sia la relazione che ci dà Φ(¡x) dato Φ(x), sia la relazione sui quantili.<br />

Teorema (senza <strong>di</strong>mostrazione)<br />

Se X ' N(µ, σ 2 ), allora la variabile aleatoria X ∗ = aX + b (a > 0) è normale con<br />

me<strong>di</strong>a µ ∗ = aµ + b e varianza (σ ∗ ) 2 = a 2 σ 2 .<br />

Esercizio 1.7.5 Consideriamo la variabile aleatoria X ' N(0.8; 4). Essendo µ = 0.8 e<br />

σ= p 4=2, an<strong>di</strong>amo a calcolare a modo <strong>di</strong> esempio alcune probabilità.<br />

P (X ·¡1.16) = Φ[(¡1.16 ¡ 0.8)/2] = Φ(¡0.98) = 1 ¡ Φ(0.98) ¼ 16.35% ;<br />

P (X ¸1) = 1 ¡ Φ[(1 ¡ 0.8)/2] = 1 ¡ Φ(0.1) ¼ 46.02% ;<br />

P (2·X ·3) = Φ[(3 ¡ 0.8)/2] ¡ Φ[(2 ¡ 0.8)/2] = Φ(1.1) ¡ Φ(0.6) ¼ 13.86% .<br />

Esercizio 1.7.6 Si consideri la variabile casuale X ' N(¡2; 0.25). Si chiede <strong>di</strong> determinare<br />

c 2 R tale che<br />

(a) P (X ¸c) = 20% ;<br />

(b) P (¡2 ¡ c·X ·¡2 + c) = 90%.<br />

Essendo µ=¡2 e σ= p 0.25=0.5, si ha:<br />

(a)<br />

<br />

c + 2<br />

<br />

P (X ¸c) = 1 ¡ F (c) = 1 ¡ Φ = 0.2,<br />

0.5<br />

da cui Φ 2(c + 2) = 0.8.<br />

Dalle tavole della legge N(0, 1) si ricava: 2(c + 2) ¼ 0.84 =) c ¼ ¡1.58.<br />

(b)<br />

<br />

¡2 + c + 2<br />

<br />

¡2 ¡ c + 2<br />

<br />

P (¡2 ¡ c·X ·¡2 + c) = Φ<br />

¡ Φ<br />

=<br />

0.5<br />

0.5<br />

= Φ(2c) ¡ Φ(¡2c) = 0.9.<br />

Essendo Φ(2c) ¡ Φ(¡2c) = Φ(2c) ¡ (1 ¡ Φ(2c)) = 2Φ(2c) ¡ 1, deve essere<br />

Φ(2c)=0.95, da cui, tramite le tavole, 2c ¼ 1.64, e quin<strong>di</strong>: c ¼ 0.82.<br />

55


Esercizio 1.7.7 Il voto ad una prova d’ingresso è <strong>di</strong>stribuito normalmente. Solo il 10% dei<br />

can<strong>di</strong>dati, quelli con punteggio migliore, verrà assunto. Ad esame finito, il voto me<strong>di</strong>o risulta<br />

72 e la deviazione standard 9. Qual è il voto minimo c che un can<strong>di</strong>dato deve ottenere per<br />

essere assunto?<br />

Essendo µ = 72 e σ = 9, deve essere<br />

<br />

c ¡ µ<br />

<br />

P (X ¸c) = 1 ¡ Φ<br />

σ<br />

· 1<br />

10<br />

<br />

c ¡ 72<br />

<br />

da cui Φ ¸<br />

9<br />

9<br />

10 .<br />

Dalle tavole <strong>di</strong> N(0, 1) si ricava che questa relazione è sod<strong>di</strong>sfatta se<br />

c ¡ 72<br />

¸ 1.29 ,<br />

9<br />

cioè c ¸ 83.61 ,<br />

che arrotondato fornisce come voto minimo c=84.<br />

1.8 APPROSSIMAZIONE NORMALE<br />

La nozione <strong>di</strong> in<strong>di</strong>pendenza fra variabili casuali, e quella <strong>di</strong> convergenza in legge che<br />

ora richiamiamo, permettono <strong>di</strong> enunciare l’importante teorema <strong>di</strong> limite centrale (<strong>di</strong><br />

cui ometteremo la <strong>di</strong>mostrazione).<br />

Definizione Una successione <strong>di</strong> variabili aleatorie fXngn converge in legge (o<br />

in <strong>di</strong>stribuzione) alla variabile aleatoria X se e solo se, dette Fn(x) ed F (x) le<br />

rispettive funzioni <strong>di</strong>stribuzione, si ha<br />

limn→∞ Fn(x) = F (x) ,<br />

per ogni punto x 2 R <strong>di</strong> continuità per F (x).<br />

Osserviamo ora che data una successione <strong>di</strong> variabili aleatorie fXngn in<strong>di</strong>pendenti,<br />

ciascuna <strong>di</strong> me<strong>di</strong>a µ e varianza σ 2 , in virtù <strong>di</strong> teoremi visti in precedenza, se consideriamo<br />

la variabile aleatoria Sn = X1 + X2 + ¢ ¢ ¢ + Xn, si ha<br />

E(Sn) = nµ , V ar(Sn) = nσ 2 .<br />

Teorema <strong>di</strong> limite centrale<br />

Sia fXngn una successione <strong>di</strong> variabili aleatorie in<strong>di</strong>pendenti e identicamente <strong>di</strong>stribuite,<br />

<strong>di</strong> me<strong>di</strong>a µ e varianza σ 2 > 0. Allora la loro somma n¡esima standar<strong>di</strong>zzata<br />

S ∗ n = X1 + ... + Xn ¡ nµ<br />

σ p n<br />

converge in legge ad una variabile aleatoria N(0, 1).<br />

Questo teorema costituisce uno risultato notevole: la legge <strong>di</strong> S ∗ n, che in generale è<br />

complicata da esprimere, si approssima, per n grande, con una legge N(0, 1), e questo<br />

qualunque sia la legge delle variabili Xn. Sostanzialmente il teorema <strong>di</strong> limite centrale<br />

56


afferma questo: un effetto casuale che sia la risultante <strong>di</strong> molti effetti aleatori, ciascuno<br />

dei quali <strong>di</strong>a solo un piccolo contributo all’effetto finale, segue approssimativamente<br />

una legge normale. Ad esempio, si assume spesso che un errore <strong>di</strong> misurazione segua<br />

una legge normale. Infatti, in assenza <strong>di</strong> errore sistematico, è ragionevole pensare che<br />

la <strong>di</strong>screpanza tra il valore vero e quello misurato sia la risultante <strong>di</strong> numerosi piccoli<br />

errori che si sono sovrapposti. Spesso l’esperienza conferma la vali<strong>di</strong>tà <strong>di</strong> questa<br />

approssimazione.<br />

Dunque, il teorema <strong>di</strong> limite centrale giustifica l’approssimazione nella pratica della<br />

legge S∗ n con una N(0, 1). Generalmente si considera che la soglia <strong>di</strong> applicabilità<br />

(cioè il minimo n a partire dal quale l’approssimazione si può ritenere valida) sia<br />

per n compreso tra 30 e 50. Occorre però osservare che questa soglia è da ritenersi<br />

appropriata per la maggior parte delle <strong>di</strong>stribuzioni che si incontrano nella pratica,<br />

ma non per tutte in<strong>di</strong>stintamente. Nel caso in cui si ha Xi ' B(1, p), l’esperienza<br />

mostra che l’approssimazione è sod<strong>di</strong>sfacente quando sono sod<strong>di</strong>sfatte entrambe le<br />

con<strong>di</strong>zioni np ¸ 5 e n(1 ¡ p) ¸ 5. Quin<strong>di</strong>, nel caso <strong>di</strong> valori <strong>di</strong> p estremi, cioè molto<br />

prossimi a 0 o 1, il valore necessario <strong>di</strong> n può essere molto grande.<br />

L’approssimazione con la legge normale si basa sulla relazione seguente:<br />

P X1 + X2 + ¢ ¢ ¢ + Xn · x <br />

= P S ∗ x ¡ nµ<br />

n ·<br />

σ p <br />

x ¡ nµ<br />

' Φ<br />

n σ p <br />

,<br />

n<br />

dove Φ in<strong>di</strong>ca, come già visto, la funzione <strong>di</strong> <strong>di</strong>stribuzione <strong>di</strong> N(0, 1). Facendo riferimento<br />

a questa relazione parleremo sempre <strong>di</strong> approssimazione normale.<br />

Nel caso <strong>di</strong> variabili casuali Xi a valori interi, è naturale che il numero x che compare<br />

nella relazione appena scritta sia esso pure un intero. Denotandolo con k per<br />

evidenziare questo fatto, in generale è conveniente riscrivere la relazione nel modo<br />

seguente:<br />

<br />

P X1 + X2 + ¢ ¢ ¢ + Xn · k + 1<br />

1 k−nµ+ 2<br />

' Φ<br />

2<br />

σ √ <br />

, n<br />

Il considerare x=k+ 1<br />

2 rende, nella maggior parte dei casi, più corretta l’approssimazione.<br />

A giustificazione <strong>di</strong> questo fatto si supponga <strong>di</strong> voler approssimare P X1 +<br />

X2 + ¢ ¢ ¢ + Xn =k me<strong>di</strong>ante N(0, 1). Ovviamente, essendo questa una <strong>di</strong>stribuzione<br />

continua, la probabilità cercata sarebbe nulla. In realtà ha senso valutarla tenendo<br />

conto che si approssima una <strong>di</strong>stribuzione <strong>di</strong>screta con una continua: ciò porta ad<br />

associare all’intero k l’intervallo <strong>di</strong> ampiezza 1 centrato in k, cioè k ¡ 1<br />

<br />

1<br />

2 , k + 2 . Di<br />

qui si può ragionevolmente porre<br />

P X1 + X2 + ¢ ¢ ¢ + Xn=k <br />

= P k ¡ 1<br />

2 < X1 + X2 + ¢ ¢ ¢ + Xn · k + 1<br />

<br />

¼<br />

2<br />

1 k + 2 ¡ nµ<br />

¼ Φ<br />

σ p 1 k ¡ 2 ¡ nµ<br />

¡ Φ<br />

n<br />

σ p <br />

.<br />

n<br />

Fra i casi in cui conviene applicare l’approssimazione normale in questo modo rientra<br />

certamente il caso delle prove <strong>di</strong> Bernoulli. Infatti se Y è il numero <strong>di</strong> successi in n<br />

prove in<strong>di</strong>pendenti, si ha Y =X1 + ... + Xn, dove ciascun Xi ' B(1, p) è la variabile<br />

aleatoria relativa alla singola i¡esima prova. In tal caso, essendo<br />

57


E(Xi)=p , V ar(Xi) = pq ,<br />

l’approssimazione migliore in generale sarà<br />

1 k + 2 ¡ np <br />

P (Y ·k) ¼ Φ p .<br />

npq<br />

Esercizio 1.8.1 Qual è la probabilità <strong>di</strong> ottenere almeno 29 teste in 50 lanci <strong>di</strong> una moneta<br />

equilibrata?<br />

Si tratta <strong>di</strong> calcolare P (X1 + X2 + ¢ ¢ ¢ + X50) ¸ 29, con le Xi in<strong>di</strong>pendenti e del tipo<br />

B 1, 1<br />

<br />

2 . Essendo µXi = 1<br />

2 e σXi = 1<br />

2 , si ha<br />

P (X1 + X2 + ¢ ¢ ¢ + X50 ¸29) = 1 ¡ P (X1 + X2 + ¢ ¢ ¢ + X50 ·28) ¼<br />

<br />

28.5 ¡ 50¢0.5<br />

¼ 1 ¡ Φ<br />

0.5¢ p <br />

3.5<br />

<br />

= 1 ¡ Φ p ¼<br />

50<br />

12.5<br />

¼ 1 ¡ Φ(0.99) ¼ 1 ¡ 0.84 = 0.16 .<br />

Occorre osservare che questo risultato è assia preciso. Se avessimo fatto il calcolo utilizzando<br />

la formula con k anzichè quella con k + 1<br />

, avremmo ottenuto una approssimazione assai<br />

2<br />

peggiore. Infatti:<br />

P (X1 + X2 + ¢ ¢ ¢ + X50 ¸29) = 1 ¡ P (X1 + X2 + ¢ ¢ ¢ + X50 ·28) ¼<br />

<br />

28 ¡ 50¢0.5<br />

¼ 1 ¡ Φ<br />

0.5¢ p <br />

3<br />

<br />

= 1 ¡ Φ p12.5 ¼<br />

50<br />

¼ 1 ¡ Φ(0.85) ¼ 1 ¡ 0.80 = 0.20 .<br />

Esercizio 1.8.2 Determinare la probabilità <strong>di</strong> ottenere più <strong>di</strong> 25 ”sette” in 100 lanci <strong>di</strong> una<br />

coppia <strong>di</strong> da<strong>di</strong> equi.<br />

La variabile aleatoria Y = “numero <strong>di</strong> ’sette’ nell’ambito <strong>di</strong> 100 lanci” può essere definita<br />

come X1 + X2 + ¢ ¢ ¢ + X100, con ciascuna Xi ' B(1, 1<br />

6<br />

6 ), essendo p= 36 , in quanto sono 6<br />

i risultati che danno ’sette’ sui 36 possibili esiti del lancio <strong>di</strong> due da<strong>di</strong>. Si ha dunque<br />

µXi =p= 1<br />

6 , σ2 5 =pq= Xi 36 .<br />

Di conseguenza, approssimando con la normale, abbiamo:<br />

<br />

1<br />

25.5 ¡ 100¢ 6<br />

P (Y ¸26) = 1 ¡ P (Y ·25) ¼ 1 ¡ Φ<br />

=<br />

√ 5<br />

6 ¢10<br />

<br />

5.3<br />

<br />

= 1 ¡ Φ p5 ¼ 1 ¡ Φ(2.37) ¼ 0.01 .<br />

58


Esercizio 1.8.3 Un segnale consiste in una parola <strong>di</strong> 1000 bit, ciascuno dei quali può assumere<br />

i valori 0 oppure 1. Nel corso della trasmissione del segnale ogni bit può essere <strong>di</strong>storto<br />

con probabilità p=0.01. Si chiede: qual è la probabilità che un segnale contenga almeno 10<br />

bit <strong>di</strong>storti?<br />

Sia Xi ' B(1, p) la variabile aleatoria che <strong>di</strong>ce se l’i¡esimo bit del segnale è <strong>di</strong>storto<br />

oppure no. Dobbiamo determinare P (X1 + X2 + ¢ ¢ ¢ + X1000 ¸10). Osservato che np=10,<br />

per cui n è sufficientemente grande da rendere affidabile una approssimazione alla normale,<br />

proce<strong>di</strong>amo in tal senso.<br />

P (X1 + X2 + ¢ ¢ ¢ + X1000 ¸10) = 1 ¡ P (X1 + X2 + ¢ ¢ ¢ + X1000 ·9) ¼<br />

<br />

9.5 ¡ 1000¢0.01<br />

<br />

¡0.5<br />

<br />

¼ 1 ¡ Φ p = 1 ¡ Φ p ¼<br />

1000¢0.01¢0.99<br />

9.9<br />

¼ 1 ¡ Φ(¡0.159) = Φ(0.159) ¼ 0.564 = 56.4% .<br />

Esercizio 1.8.4 Nella trasmissione <strong>di</strong> un’immagine ogni bit viene <strong>di</strong>storto con probabilità<br />

0.0002. Ne consegue che il colore <strong>di</strong> un pixel, che è rappresentato da un byte, cioè da una<br />

8-pla <strong>di</strong> bit, resta integro con probabilità q =0.9984 (in realtà, essendo q =(0.0002) 8 , se si<br />

fanno i calcoli, ci si accorge che questo è un valore approssimato). Sapendo che un’immagine<br />

è composta da 512£256 = 131072 pixel, quali sono le probabilità che vi siano (a) almeno<br />

190 pixel <strong>di</strong>storti; (b) almeno 210; (c) almeno 230?<br />

In<strong>di</strong>cata con Xi ' B(1, p), p = 0.0016, la variabile che <strong>di</strong>ce se l’i¡esimo pixel è oppure<br />

no <strong>di</strong>storto, si deve approssimare P (X1 + X2 + ¢ ¢ ¢ + X131072 ¸ k), con k = 190, k = 210<br />

e k =230. Poichè np ¼ 210, n è certamente tale da consentire una buona approssimazione<br />

me<strong>di</strong>ante la normale. Si ha quin<strong>di</strong><br />

P (X1 + X2 + ¢ ¢ ¢ + X131072 ¸190) = 1 ¡ P (X1 + X2 + ¢ ¢ ¢ + X131072 ·189) ¼<br />

<br />

189.5 ¡ 131072¢0.0016<br />

<br />

¼ 1 ¡ Φ p ¼<br />

131072¢0.0016¢0.9984<br />

<br />

¡20.215<br />

<br />

¼ 1 ¡ Φ<br />

¼ 1 ¡ Φ(¡1.398) ¼<br />

14.464<br />

¼ Φ(1.40) ¼ 0.919 = 91.9% ;<br />

P (X1 + X2 + ¢ ¢ ¢ + X131072 ¸210) = 1 ¡ P (X1 + X2 + ¢ ¢ ¢ + X131072 ·209) ¼<br />

<br />

209.5 ¡ 209.715<br />

<br />

¼ 1 ¡ Φ<br />

¼ 1 ¡ Φ(¡0.015) ¼<br />

14.464<br />

= Φ(0.015) ¼ 0.506 = 50.6% ;<br />

P (X1 + X2 + ¢ ¢ ¢ + X131072 ¸230) = 1 ¡ P (X1 + X2 + ¢ ¢ ¢ + X131072 ·229) ¼<br />

<br />

229.5 ¡ 209.715<br />

<br />

¼ 1 ¡ Φ p ¼ 1 ¡ Φ(1.37) ¼<br />

14.464<br />

¼ 1 ¡ 0.915 = 0.085 = 8.5% .<br />

59


Esercizio 1.8.5 Un calcolatore esegue la somma <strong>di</strong> un milione <strong>di</strong> numeri (il che implica<br />

l’esecuzione <strong>di</strong> 106 somme). In ogni ad<strong>di</strong>zione il risultato prodotto è soggetto ad un errore <strong>di</strong><br />

arrotondamento. Supponiamo che i singoli errori siano in<strong>di</strong>pendenti uno dall’altro e che abbiano<br />

<strong>di</strong>stribuzione uniforme nell’intervallo ¡ 1<br />

210−10 , + 1<br />

210−10 (il che significa supporre<br />

che la decima cifra decimale sia significativa). Si chiede: (a) qual è la probabilità che la<br />

settima cifra decimale della somma risultante sia significativa? qual è la probabilità che<br />

l’ottava cifra sia significativa?<br />

Introduciamo le variabili casuali Xi := “errore compiuto nella i¡esima ad<strong>di</strong>zione”. Si tratta<br />

<strong>di</strong> 106 variabili casuali uniformemente <strong>di</strong>stribuite nell’intervallo ¡ 1<br />

210−10 , + 1<br />

2 10−10 , per<br />

le quali, come abbiamo visto nell’esempio 1.5.4, si ha<br />

a + b<br />

E(Xi) =<br />

2 = 0 , V ar(Xi)<br />

(b ¡ a)2<br />

= =<br />

12<br />

10−20<br />

.<br />

12<br />

Perché la k¡esima cifra decimale sia significativa occorre che<br />

¡ 1<br />

2 10−k · X1 + X2 + ¢ ¢ ¢ + X 10 6 · 1<br />

2 10−k .<br />

Posto per como<strong>di</strong>tà Y = 10 6<br />

i=1 Xi, la probabilità richiesta nella domanda (a), approssimata<br />

con la normale, risulta quin<strong>di</strong><br />

<br />

P ¡ 1<br />

2 10−7 · Y · 1<br />

2 10−7 <br />

) ¼ Φ<br />

10 −7<br />

2<br />

<br />

10 6 ¢ 10−20<br />

12<br />

<br />

¡ Φ<br />

¡ 10 −7<br />

2<br />

<br />

10 6 ¢ 10−20<br />

12<br />

= Φ p 3 ¡ Φ ¡ p 3 ¼ Φ(1.73) ¡ Φ(¡1.73) ¼<br />

¼ 2Φ(1.73) ¡ 1 ¼ 2¢0.958 ¡ 1 = 0.916 = 91.6% .<br />

Per quanto riguarda poi la domanda (b), procedendo esattamente allo stesso modo, si ha<br />

<br />

P ¡ 1<br />

2 10−8 · Y · 1<br />

2 10−8 <br />

) ¼ Φ <br />

10 −8<br />

2<br />

<br />

¡ 10 −8<br />

106 ¢ 10−20<br />

¡ Φ <br />

12<br />

106 ¢ 10−20<br />

=<br />

12<br />

p p <br />

3<br />

3<br />

= Φ ¡ Φ ¡ ¼ Φ(0.173) ¡ Φ(¡0.173) ¼<br />

10 10<br />

¼ 2Φ(0.173) ¡ 1 ¼ 2¢0.568 ¡ 1 = 0.114 = 11.4% .<br />

60<br />

2<br />

<br />

<br />

=


Esercizio 1.8.6 Si sa che esistono in circolazione dei da<strong>di</strong> truccati in modo tale da produrre<br />

il 6 con probabilità 2<br />

9 . Ci si pone il problema <strong>di</strong> stabilire se un dato dado è truccato oppure<br />

no. La procedura adottata è la seguente: il dado viene lanciato 900 volte, e se il 6 esce<br />

almeno 180 volte, si decide che il dado è truccato. Ci si chiede: qual è la probabilità che un<br />

dado che viene assunto come truccato lo sia effettivamente?<br />

Sia Xi ' B(1, p = 2<br />

9 ) la variabile aleatoria che <strong>di</strong>ce se all’i¡esimo lancio esce il 6 oppure no.<br />

La probabilità da calcolare, posto per como<strong>di</strong>tà X = X1 + X2 + ¢ ¢ ¢ + X900, è P (X ¸180).<br />

Valutiamo tale probabilità approssimandola con la normale. Si ha:<br />

<br />

2<br />

179.5 ¡ 900¢ 9<br />

P (X ¸180) = 1 ¡ P (X · 179) ¼ 1 ¡ Φ <br />

=<br />

900¢ 2<br />

9<br />

¢ 7<br />

9<br />

<br />

= 1 ¡ Φ<br />

¡20.5<br />

p<br />

14<br />

¼ 1 ¡ Φ(¡1.64) = Φ(1.64) ¼<br />

10<br />

3<br />

¼ 0.95 = 95% .<br />

Dunque, è lecito aspettarsi che nel 95% dei casi il test adottato <strong>di</strong>a la risposta giusta.<br />

Ci si potrebbe anche chiedere: qual è la probabilità che il 6 esca almeno 180 volte se il dado<br />

non è truccato? In tal caso, in<strong>di</strong>cata con Yi ' B(1, 1)<br />

la variabile aleatoria che descrive<br />

6<br />

l’esito dell’i¡esimo lancio <strong>di</strong> un dado “equo”, e posto Y = Y1 + Y2 + ¢ ¢ ¢ + Y900, si ha<br />

<br />

1<br />

179.5 ¡ 900¢ 6<br />

P (Y ¸180) = 1 ¡ P (Y · 179) ¼ 1 ¡ Φ <br />

=<br />

900¢ 1<br />

6<br />

¢ 5<br />

6<br />

<br />

= 1 ¡ Φ<br />

29.5<br />

5 p <br />

5<br />

¼ 1 ¡ Φ(2.64) ¼ 0.004 = 0.4% .<br />

61


1.9 ALTRE DISTRIBUZIONI<br />

DISTRIBUZIONE ESPONENZIALE<br />

Definizione Una variabile aleatoria continua X ha una <strong>di</strong>stribuzione esponenziale<br />

con parametro λ (λ > 0), se la sua funzione densità è<br />

f(x) =<br />

0 per x


i tempi d’attesa affinché un dato evento si verifichi. Ad esempio, se X in<strong>di</strong>ca il tempo<br />

misurato a partire dall’inizio del funzionamento <strong>di</strong> un dato pezzo <strong>di</strong> una macchina,<br />

ci si può chiedere qual è la probabilità che il pezzo non si rompa prima che sia<br />

decorso un dato tempo x. Ebbene, la risposta è data da P (X ¸x), ossia<br />

P (X ¸x) = 1 ¡ F (x) = e −λx .<br />

Una proprietà caratteristica delle variabili casuali esponenziali è che non hanno<br />

memoria. Questo fatto, che non <strong>di</strong>mostreremo, matematicamente è espresso dalla<br />

seguente relazione fra probabilità:<br />

P (X >s + t j X >s) = P (X >t) .<br />

Ciò significa che se X è il tempo d’attesa fino al primo guasto <strong>di</strong> una data apparecchiatura,<br />

questo tempo non <strong>di</strong>pende dal fatto che l’apparecchiatura abbia già funzionato<br />

per un dato tempo s. In altre parole, la <strong>di</strong>stribuzione <strong>di</strong> probabilità <strong>di</strong> X non <strong>di</strong>pende<br />

dall’istante iniziale.<br />

Esercizio 1.9.1 Il numero <strong>di</strong> chilometri (misurato in migliaia) che un dato pneumatico può<br />

percorrere prima <strong>di</strong> deteriorarsi è rappresentabile con una variabile aleatoria X avente <strong>di</strong>stribuzione<br />

esponenziale con parametro λ=0.05. Determinare la probabilità che un pneumatico<br />

<strong>di</strong> questo tipo duri (i) almeno 30 Km; (ii) tra i 35 e i 40 km.<br />

Si ha<br />

P (X ¸30) = 1 ¡ F (30) = e −30λ = e −0.05·30 = e −1.5 ¼ 0.223 ;<br />

P (35·X ·40) = F (40) ¡ F (35) = e −1.75 ¡ e −2 ¼ 0.174 ¡ 0.135 = 0.039.<br />

Esercizio 1.9.2 Un apparecchio elettronico è composto da due elementi in parallelo, l’uno<br />

in<strong>di</strong>pendente dall’altro e ciascuno con un tempo <strong>di</strong> vita esponenziale <strong>di</strong> me<strong>di</strong>a 8 giorni. Con<br />

quale probabilità l’apparecchio durerà un tempo non superiore a 12 giorni, supposto che esso<br />

funzioni se una almeno delle due componenti funziona?<br />

Poiché una variabile aleatoria esponenziale ha me<strong>di</strong>a uguale all’inverso del parametro λ,<br />

nel nostro caso si ha λ = 1<br />

. Di conseguenza ciascuna componente ha un tempo <strong>di</strong> vita<br />

8<br />

Xi, i = 1, 2, avente densità<br />

fXi =<br />

<br />

0 per x


Esercizio 1.9.3 Una lampada ha un tempo <strong>di</strong> vita che segue una legge esponenziale <strong>di</strong> me<strong>di</strong>a<br />

µ uguale a 10 giorni. Non appena smette <strong>di</strong> funzionare essa viene sostituita con una nuova.<br />

Qual è la probabilità che 40 lampade siano sufficienti per un anno?<br />

In<strong>di</strong>cata con Xi la durata della lampada i¡esima, possiamo supporre le Xi in<strong>di</strong>pendenti e<br />

con legge esponenziale <strong>di</strong> parametro λ = 1<br />

10 . Poiché nel caso <strong>di</strong> una variabile aleatoria <strong>di</strong><br />

tipo esponenziale si ha σ2 = 1<br />

λ2 = µ 2 , abbiamo dunque µ=σ=10. La probabilità richiesta,<br />

approssimata me<strong>di</strong>ante la normale, <strong>di</strong>venta quin<strong>di</strong><br />

P (X1 + X2 + ¢ ¢ ¢ + X40 ¸365) = 1 ¡ P (X1 + X2 + ¢ ¢ ¢ + X40


Esempio 1.9.1 Si consideri l’esperimento <strong>di</strong> estrarre un campione <strong>di</strong> 2 lampa<strong>di</strong>ne da una<br />

scatola che ne contiene 10, 3 delle quali <strong>di</strong>fettose. Si chiede <strong>di</strong> scrivere la funzione <strong>di</strong> probabilità<br />

della variabile casuale<br />

X = numero <strong>di</strong> lampa<strong>di</strong>ne <strong>di</strong>fettose estratte ,<br />

nel caso <strong>di</strong> estrazione: (a) senza reimmissione; (b) con reimmissione.<br />

(a) Abbiamo: N =10 ; M =3 ; n=2 ; k = 0, 1, 2 . E <strong>di</strong> conseguenza:<br />

3 7<br />

0 2<br />

P (k=0) = f(0) = 10 =<br />

2<br />

7<br />

15 ,<br />

3 7<br />

1 1<br />

P (k=1) = f(1) = 10 =<br />

2<br />

7<br />

15 ,<br />

3 7<br />

2 0<br />

P (k=0) = f(2) = = 1<br />

15 .<br />

(b) Ricordando la <strong>di</strong>stribuzione binomiale, essendo p= M 3<br />

7<br />

N = 10 , q = 10 , si ha<br />

<br />

2<br />

P (k=0) = f(0) = p<br />

0<br />

0 q 2 <br />

7<br />

2 = =<br />

10<br />

49<br />

100 ,<br />

<br />

2<br />

P (k=1) = f(1) = p<br />

1<br />

1 q 1 = 2 3 7 42<br />

=<br />

10 10 100 ,<br />

<br />

2<br />

P (k=0) = f(2) = p<br />

2<br />

2 q 0 <br />

3<br />

2 = =<br />

10<br />

9<br />

100 .<br />

Esempio 1.9.2 Da un lotto costituito <strong>di</strong> 800 pezzi si estrae un campione <strong>di</strong> 150 unità. Se il<br />

campione contiene al più 2 pezzi <strong>di</strong>fettosi, il lotto viene accettato; altrimenti viene rifiutato.<br />

Qual è la probabilità che un lotto contenente il 5% <strong>di</strong> pezzi <strong>di</strong>fettosi venga accettato?<br />

Consideriamo una <strong>di</strong>stribuzione ipergeometrica con parametri N = 800 , M = 800 ¢ 5<br />

100 =<br />

40 , n=150 . La probabilità che il lotto sia accettato è data da<br />

2<br />

<br />

40 800−40<br />

k 150−k<br />

f(0) + f(1) + f(2) =<br />

¼ 0.0112 .<br />

k=0<br />

Questo esempio è interessante in quanto illustra come viene effettuato un controllo <strong>di</strong><br />

accettazione o collaudo statistico. Vengono determinati dei piani <strong>di</strong> campionamento<br />

caratterizzati dalle cosiddette specifiche che, nel caso in questione, sono la numerosità n del<br />

campione da estrarre e il numero massimo ammissibile <strong>di</strong> unità <strong>di</strong>fettose. L’esempio mostra<br />

come si calcola la probabilità che il lotto sia accettato pur avendo una data <strong>di</strong>fettosità.<br />

Esercizio 1.9.4 Una partita <strong>di</strong> 150 libri ne contiene 30 che presentano un <strong>di</strong>fetto nella rilegatura.<br />

Se 10 libri vengono scelti a caso per un controllo, qual è la probabilità che 3 libri tra i 10<br />

estratti siano <strong>di</strong>fettosi? Effettuare il calcolo sia nell’ipotesi <strong>di</strong> estrazione senza reimmissione<br />

che in quella <strong>di</strong> estrazione con reimmissione.<br />

Applicando la formula della <strong>di</strong>stribuzione ipergeometrica con parametri N = 150 , M =<br />

30 , n=10 , abbiamo<br />

<br />

f(3) =<br />

30 120<br />

3 7 150 10<br />

10<br />

2<br />

800<br />

150<br />

¼ 0.2065 .<br />

65


Se invece applichiamo la <strong>di</strong>stribuzione binomiale B(10, p) con p= 30<br />

150 =0.2, otteniamo<br />

<br />

10<br />

f(3) = (0.2)<br />

3<br />

3 (0.8) 7 ¼ 0.2013 .<br />

L’esercizio appena risolto mostra che in certi casi la <strong>di</strong>stribuzione ipergeometrica e<br />

quella binomiale producono risultati pressochè uguali (nel caso specifico <strong>di</strong>fferiscono<br />

per meno dell’1%). La spiegazione sta nell’affermazione seguente (che non <strong>di</strong>mostriamo).<br />

Se N, M ed N¡M sono gran<strong>di</strong> in confronto ad n, allora non è molto<br />

rilevante se il campionamento viene effettuato con o senza reimmissione, in quanto<br />

la <strong>di</strong>stribuzione ipergeometrica può essere ben approssimata con la <strong>di</strong>stribuzione binomiale<br />

(con p = M<br />

N ), che in un certo senso è più semplice. In una ”popolazione<br />

infinita” si usa sempre la <strong>di</strong>stribuzione binomiale in<strong>di</strong>fferentemente dal tipo <strong>di</strong> campionamento.<br />

DISTRIBUZIONE GEOMETRICA<br />

Definizione Una variabile aleatoria <strong>di</strong>screta X ha una <strong>di</strong>stribuzione geometrica<br />

<strong>di</strong> parametro p , 0


CAPITOLO 2: <strong>STATISTICA</strong> DESCRITTIVA<br />

2.1 INTRODUZIONE<br />

Per statistica descrittiva o metodologica si intende il complesso <strong>di</strong> quelle norme utilizzate<br />

dallo sperimentatore per raccogliere, rappresentare ed elaborare insiemi <strong>di</strong> dati<br />

osservati.<br />

I dati raccolti riguardano solo un campione e non l’intera popolazione. L’elaborazione<br />

statistica ha l’obiettivo <strong>di</strong> ricavare informazioni sulla popolazione estraendole dai (pochi)<br />

dati che sono stati osservati sul campione. Naturalmente le informazioni a cui<br />

siamo interessati riguardano una o più caratteristiche della popolazione in questione.<br />

Volendo dare una veste matematica a quanto appena detto, sia X una variabile aleatoria,<br />

<strong>di</strong> tipo <strong>di</strong>screto o continuo, definita su un insieme S (la popolazione). Sono noti<br />

i valori che X assume in corrispondenza degli elementi <strong>di</strong> un sottinsieme C <strong>di</strong> S (il<br />

campione). Sia N = jSj e n = jCj. Il campione è dunque una n—pla (x1, x2, . . . , xn),<br />

dove ciascun xi rappresenta il valore noto che X(s) assume per s=si 2 C. Essendo,<br />

in generale, n ¿ N, la variabile aleatoria X è incognita in molti (moltissimi) elementi<br />

su cui è definita. Il compito della statistica è quello <strong>di</strong> desumere dai dati del campione<br />

il maggior numero <strong>di</strong> informazioni circa la <strong>di</strong>stribuzione <strong>di</strong> X, avendo anche un’idea,<br />

il più possibile precisa, del grado <strong>di</strong> affidabilità <strong>di</strong> queste informazioni. A questa variabile<br />

aleatoria ci riferiremo d’ora in poi come alla variabile aleatoria sottostante al<br />

nostro esperimento.<br />

Un’indagine statistica <strong>di</strong> tipo descrittivo può essere articolata nei seguenti quattro<br />

passi:<br />

1) rilevazione dei dati; 2) organizzazione dei dati;<br />

3) presentazione dei dati organizzati; 4) interpretazione e conclusioni.<br />

2.2 ORGANIZZAZIONE E RAPPRESENTAZIONE DEI DATI<br />

Rilevazione dei dati<br />

La rilevazione, che è l’inizio del proce<strong>di</strong>mento statistico, è l’insieme dei meccanismi<br />

che permettono <strong>di</strong> ottenere le informazioni necessarie da elaborare. Strumenti basilari<br />

<strong>di</strong> questo momento sono i questionari, i modelli <strong>di</strong> rilevazione, le inchieste telefoniche,<br />

l’accesso e la consultazione <strong>di</strong> banche dati, etc.<br />

Le modalità <strong>di</strong> rilevazione dei dati xi sono particolarmente importanti. Occorre infatti<br />

aver chiaramente fissati gli obiettivi, valutata la fattibilità, definita l’estensione in<br />

termini geografici, temporali, economici. Infine, è fondamentale aver scelto in modo<br />

appropriato la tecnica <strong>di</strong> campionamento (che qui però non <strong>di</strong>scutiamo).<br />

67


Organizzazione dei dati<br />

In genere i dati grezzi ottenuti dalla rilevazione sono <strong>di</strong>fficilmente interpretabili: occorre<br />

organizzarli opportunamente. Quando i dati sono <strong>di</strong> tipo numerico, e lo sono<br />

nella grande maggioranza dei casi, il modo più semplice <strong>di</strong> farlo consiste nell’or<strong>di</strong>narli<br />

in modo crescente o decrescente. Ciò permette imme<strong>di</strong>atamente <strong>di</strong> stabilire il campo<br />

<strong>di</strong> variazione degli xi (o rango), cioè il minimo intervallo che li contiene tutti. Questo<br />

in<strong>di</strong>ce ci <strong>di</strong>ce già qualcosa (ad esempio i valori minimo e massimo della variabile<br />

campionata); tuttavia esso può essere poco in<strong>di</strong>cativo, soprattutto se n è grande. Può<br />

dunque essere conveniente organizzare i dati in classi.<br />

Come si formano le classi? Si tratta <strong>di</strong> un punto importante in quanto una cattiva<br />

scelta delle classi può portare ad una cattiva interpretazione della <strong>di</strong>stribuzione dei<br />

dati. Proponiamo dunque alcuni criteri <strong>di</strong> formazione delle classi ritenuti ottimali.<br />

Il numero delle classi è importante. Se le classi sono troppe, in ogni classe ci sarebbero<br />

pochissimi elementi (o ad<strong>di</strong>rittura nessuno); se sono poche, essendovi concentrati<br />

molti elementi, potrebbe sfuggirci la globalità della <strong>di</strong>stribuzione. In genere il numero<br />

delle classi è compreso fra 6 e 20. Secondo Sturges il numero ottimale <strong>di</strong> classi è<br />

nc = [1 + 1.443 lg n] ,<br />

con lg n che in<strong>di</strong>ca il logaritmo naturale <strong>di</strong> n e [a] l’intero più vicino ad a.<br />

È conveniente che le classi abbiano la stessa ampiezza. In questo caso, se r è l’ampiezza<br />

del campo <strong>di</strong> variazione dei dati ed nc il numero delle classi in cui si è deciso <strong>di</strong><br />

organizzare i dati, se ne deduce per ciascuna classe un’ampiezza ℓ data da<br />

ℓ = r<br />

.<br />

Tale ampiezza, tuttavia, in genere non è quella più conveniente; torna utile “aggiustarla”<br />

in modo che i punti <strong>di</strong> mezzo <strong>di</strong> ciascun intervallo siano della stessa grandezza,<br />

come or<strong>di</strong>ne <strong>di</strong> approssimazione, dei dati xi e che nessun xi cada su un estremo dell’intervallo.<br />

Ad esempio, se gli xi sono interi qualunque (cioè non sono dei multipli <strong>di</strong><br />

un intero k), allora conviene prendere ℓ intero e <strong>di</strong>spari, e ciascun intervallo del tipo<br />

(h ¡ 1<br />

1<br />

2 , h + ℓ ¡ 2 ), dove h è un intero. Scelte analoghe possono essere fatte se gli xi<br />

sono numeri decimali (tutti con lo stesso numero <strong>di</strong> decimali). I due esempi proposti<br />

nel seguito saranno utili a chiarire il senso <strong>di</strong> quanto appena detto.<br />

nc<br />

Funzioni <strong>di</strong> frequenza<br />

Per avere altri tipi <strong>di</strong> informazione sempre più precisi ed esaurienti, si possono definire<br />

altri in<strong>di</strong>ci statistici. In<strong>di</strong>cato con x il punto me<strong>di</strong>o della generica classe, tali in<strong>di</strong>ci<br />

sono i seguenti:<br />

— la funzione <strong>di</strong> frequenza, che associa ad ogni classe il numero degli elementi che<br />

la compongono; la in<strong>di</strong>cheremo con ϕ(x);<br />

— la funzione <strong>di</strong> frequenza relativa, che esprime il rapporto fra il numero degli<br />

elementi della classe ed il numero totale n <strong>di</strong> elementi del campione; in<strong>di</strong>catala con<br />

ϕr(x), si ha dunque ϕr(x) ´ ϕ(x)<br />

n ;<br />

— la funzione <strong>di</strong> frequenza cumulativa, cioè il numero degli elementi della classe e<br />

68


delle classi precedenti; sarà rappresentata da ϕc(x);<br />

— la funzione <strong>di</strong> frequenza cumulativa relativa, ovvero il rapporto tra il numero<br />

degli elementi dato dalla frequenza cumulativa e il numero totale n <strong>di</strong> elementi del<br />

campione; denotata con ϕcr(x), si ha perciò ϕcr(x) ´ ϕc(x)<br />

n .<br />

Rappresentazioni grafiche<br />

Nella statistica descrittiva la rappresentazione grafica dei dati riveste un ruolo molto<br />

importante, in quanto serve a fornire in modo imme<strong>di</strong>ato una descrizione del fenomeno<br />

oggetto <strong>di</strong> stu<strong>di</strong>o. Gli strumenti <strong>di</strong>sponibili sono <strong>di</strong>versi, più o meno significativi, più<br />

o meno adatti a seconda degli obiettivi che si intende conseguire mostrando in quel<br />

modo i dati. Quelli più matematici e significativi sono l’istogramma, il grafico a<br />

bastoni e i poligoni <strong>di</strong> frequenza.<br />

L’istogramma costituisce probabilmente lo strumento più comune <strong>di</strong> rappresentazione<br />

<strong>di</strong> dati statistici. Si ottiene nel modo seguente: prima si riportano sull’asse delle<br />

ascisse le classi in<strong>di</strong>cando per ciascuna il relativo punto <strong>di</strong> mezzo x; poi, in corrispondenza<br />

<strong>di</strong> ciascuna classe, si <strong>di</strong>segna un rettangolo avente area proporzionale a ϕ(x) o,<br />

equivalentemente, a ϕr(x). Sull’asse delle or<strong>di</strong>nate si possono riportare i valori della<br />

funzione ϕ(x) oppure quelli <strong>di</strong> ϕr(x). Se poi si riportano nel grafico sia ϕ(x) che<br />

ϕr(x) (in opportuna scala), rispettivamente a sinistra e a destra del grafico, si ottiene<br />

il duplice obiettivo <strong>di</strong> poter leggere entrambi i valori.<br />

Osservazione: Nell’istogramma della pagina che segue le classi hanno la stessa ampiezza, e<br />

quin<strong>di</strong> i rettangoli hanno tutti la stessa base. Ovviamente ciò non è più vero se si considerano,<br />

come peraltro è lecito, classi <strong>di</strong> <strong>di</strong>versa ampiezza.<br />

Un grafico a bastoni è del tutto equivalente ad un istogramma, e si costruisce in maniera<br />

del tutto analoga. Per quanto riguarda poi i poligoni <strong>di</strong> frequenza, l’esempio che<br />

segue permetterà facilmente <strong>di</strong> capire come si costruiscono e qual è il loro significato.<br />

Esempio 2.2.1 La tabella che segue riporta i pesi (in chilogrammi) <strong>di</strong> 50 studentesse, che per<br />

brevità sono già stati or<strong>di</strong>nati (in or<strong>di</strong>ne crescente). Naturalmente, ogni numero è ripetuto<br />

tante volte quante sono le studentesse aventi quel peso.<br />

53 55 56 57 57 58 58 59 59 60<br />

60 60 61 61 61 61 62 62 62 62<br />

63 63 63 63 63 64 64 64 64 64<br />

64 65 65 65 65 65 66 66 66 66<br />

67 67 67 68 68 69 70 71 71 73<br />

Dalla tabella si deduce imme<strong>di</strong>atamente che il campo <strong>di</strong> variazione è [53,73]. Applicando poi<br />

la formula <strong>di</strong> Sturges per determinare il numero ottimale <strong>di</strong> classi, si ha<br />

nc = [1 + 1.443 lg 50] = [1 + 5.64] = 7 , e quin<strong>di</strong> ℓ = 20<br />

7<br />

¼ 2.86 .<br />

In base a quanto detto in precedenza, essendo l’unità <strong>di</strong> misura adottata un numero intero (i<br />

chili), è conveniente che ℓ sia un intero <strong>di</strong>spari e che gli intervalli abbiano come punto me<strong>di</strong>o<br />

69


un intero. Scegliamo dunque ℓ=3 e pren<strong>di</strong>amo gli intervalli <strong>di</strong> ampiezza 3 a partire da 52.5.<br />

La tabella che segue riporta gli intervalli relativi a ciascuna classe, il loro punto <strong>di</strong> mezzo<br />

x, il numero <strong>di</strong> elementi <strong>di</strong> ogni classe e le quattro funzioni <strong>di</strong> frequenza precedentemente<br />

definite ϕ(x), ϕr(x), ϕc(x) e ϕcr(x).<br />

Classi Punto x ϕ(x) ϕr(x) ϕc(x) ϕcr(x)<br />

<strong>di</strong> pesi <strong>di</strong> mezzo<br />

52.5 ¡ 55.5 54 2 0.04 2 0.04<br />

55.5 ¡ 58.5 57 5 0.10 7 0.14<br />

58.5 ¡ 61.5 60 9 0.18 16 0.32<br />

61.5 ¡ 64.5 63 15 0.30 31 0.62<br />

64.5 ¡ 67.5 66 12 0.24 43 0.86<br />

67.5 ¡ 70.5 69 4 0.08 47 0.94<br />

70.5 ¡ 73.5 72 3 0.06 50 1.00<br />

Seguono nell’or<strong>di</strong>ne l’istogramma, il grafico a bastoni, il poligono <strong>di</strong> frequenza ed il poligono<br />

<strong>di</strong> frequenza relativa cumulativa.<br />

70


Osserviamo che, in un certo senso, il poligono <strong>di</strong> frequenza (primo grafico <strong>di</strong> questa pagina)<br />

“rappresenta” la funzione densità della variabile aleatoria X sottostante al fenomeno stu<strong>di</strong>ato;<br />

analogamente il poligono <strong>di</strong> frequenza cumulativa (secondo grafico) “rappresenta” la<br />

funzione <strong>di</strong> <strong>di</strong>stribuzione <strong>di</strong> X.<br />

Esempio 2.2.2 La tabella che segue riporta le altezze (in centimetri) <strong>di</strong> 80 atleti, anche in<br />

questo caso già or<strong>di</strong>nati (in modo crescente). Si chiede <strong>di</strong> organizzare questi dati in classi<br />

e <strong>di</strong> calcolarne le quattro funzioni <strong>di</strong> frequenza, rappresentando poi il tutto con una tabella<br />

del tipo <strong>di</strong> quella dell’esercizio precedente.<br />

160 162 164 165 167 168 168 169 169 170<br />

170 171 171 172 172 172 172 173 173 174<br />

174 174 175 175 175 176 176 176 177 177<br />

177 177 178 178 178 178 178 178 179 179<br />

179 179 179 179 179 180 180 180 180 181<br />

181 181 181 182 182 182 182 182 183 183<br />

184 184 185 185 186 186 187 187 188 189<br />

190 190 191 192 192 193 194 197 199 201<br />

71


Dalla tabella si legge subito che il campo <strong>di</strong> variazione è [160,201]. Applicando poi la formula<br />

<strong>di</strong> Sturges per determinare il numero ottimale <strong>di</strong> classi, si ha<br />

nc = [1 + 1.443 lg 80] = [1 + 6.32] = 7 , e quin<strong>di</strong> ℓ = 41<br />

7<br />

¼ 5.86<br />

Volendo scegliere come ℓ un intero <strong>di</strong>spari, o si sceglie 5, che comporta poi <strong>di</strong> prendere nc=9,<br />

oppure si sceglie 7, che comporta nc =6. Per non avere un numero <strong>di</strong> classi troppo piccolo,<br />

scegliamo ℓ=5 e quin<strong>di</strong> nc = 9. I dati organizzati in classi portano dunque a questa tabella:<br />

Classi <strong>di</strong> Punto x ϕ(x) ϕr(x) ϕc(x) ϕcr(x)<br />

altezze <strong>di</strong> mezzo<br />

158.5 ¡ 163.5 161 2 0.025 2 0.025<br />

163.5 ¡ 168.5 166 5 0.063 7 0.088<br />

168.5 ¡ 173.5 171 12 0.150 19 0.238<br />

173.5 ¡ 178.5 176 19 0.237 38 0.475<br />

178.5 ¡ 183.5 181 22 0.275 60 0.750<br />

183.5 ¡ 188.5 186 9 0.113 69 0.863<br />

188.5 ¡ 193.5 191 7 0.087 76 0.950<br />

193.5 ¡ 198.5 196 2 0.025 78 0.975<br />

198.5 ¡ 205.5 201 2 0.025 80 1.000<br />

2.3 GRANDEZZE CHE SINTETIZZANO I DATI<br />

Ci proponiamo ora <strong>di</strong> caratterizzare una <strong>di</strong>stribuzione statistica, cioè un insieme <strong>di</strong><br />

dati xi, i = 1, 2, . . . , n, del tipo <strong>di</strong> quelli visti finora, attraverso misure che ne riassumano<br />

le principali proprietà. In tal modo si parla anche <strong>di</strong> misure <strong>di</strong> tendenza<br />

centrale: si chiamano così alcune caratterizzazioni sintetiche della <strong>di</strong>stribuzione che<br />

servono a dare un’idea <strong>di</strong> dove la <strong>di</strong>stribuzione sia collocata e quanto sia concentrata.<br />

Me<strong>di</strong>a<br />

Definizione Date n osservazioni numeriche xi , i = 1, 2, . . . , n , si chiama me<strong>di</strong>a<br />

aritmetica, o più semplicemente me<strong>di</strong>a, delle osservazioni il numero<br />

x = 1 n i=1 n<br />

xi .<br />

Ai fini <strong>di</strong> collegare questa definizione a quella <strong>di</strong> me<strong>di</strong>a <strong>di</strong> una variabile casuale,<br />

osserviamo che in generale tra i dati xi ce ne sono <strong>di</strong> quelli che sono ripetuti più<br />

volte. Ebbene, supposto che gli xi <strong>di</strong>stinti siano m (ovviamente m · n), in<strong>di</strong>chiamo<br />

questi numeri con z1, z2, . . . , zm. Denotata poi con αk la molteplicità (cioè il numero<br />

<strong>di</strong> presenze) <strong>di</strong> zk, ovviamente con α1 + α2 + ¢ ¢ ¢ + αm =n, potremo scrivere<br />

72


x = 1 n i=1 n<br />

xi = 1 m k=1 n<br />

αkzk = m αk<br />

k=1 n zk = m k=1 pkzk .<br />

Il numero pk = αk<br />

n rappresenta la frequenza relativa del dato zk. Confrontando quest’ultima<br />

espressione <strong>di</strong> x con la definizione <strong>di</strong> me<strong>di</strong>a <strong>di</strong> una variabile aleatoria finita,<br />

ne deduciamo che la me<strong>di</strong>a aritmetica appena definita altro non è che la me<strong>di</strong>a <strong>di</strong><br />

una variabile aleatoria che assume gli m valori zk con probabilità pk. La me<strong>di</strong>a x dei<br />

dati xi può dunque essere vista come la me<strong>di</strong>a <strong>di</strong> una variabile aleatoria X finita, che<br />

assume i valori xi con probabilità uguali alla loro frequenza relativa nel campione,<br />

ossia<br />

P ( X =xi) = pi , pi = αi<br />

n ,<br />

essendo αi il numero <strong>di</strong> volte in cui ciascun xi è presente nel campione.<br />

La variabile aleatoria X costituisce una rozza approssimazione della vera variabile<br />

aleatoria sottostante al problema. La me<strong>di</strong>a, che abbiamo appena definito, così come<br />

la me<strong>di</strong>ana e la varianza che definiremo in seguito, sono in<strong>di</strong>ci coerenti con questa<br />

approssimazione.<br />

Ricordando le proprietà della me<strong>di</strong>a <strong>di</strong> una variabile aleatoria, si può affermare che<br />

— se ogni osservazione <strong>di</strong> un campione è letta in una scala <strong>di</strong>versa, ovvero se ogni dato<br />

è moltiplicato per una costante a, allora<br />

ax = ax ;<br />

— se (x1, x2, . . . , xn) e (y1, y2, . . . , yn) sono due serie <strong>di</strong> osservazioni <strong>di</strong> uno stesso<br />

fenomeno, allora la me<strong>di</strong>a della somma è uguale alla somma delle me<strong>di</strong>e, cioè<br />

x + y = x + y ;<br />

— se due osservazioni sono legate da una relazione funzionale del tipo y = a + bx, con<br />

a e b costanti, allora<br />

y = a + bx .<br />

Quando i dati sono forniti già organizzati in classi, la me<strong>di</strong>a può essere ugualmente<br />

calcolata con la formula seguente:<br />

x = 1<br />

nc <br />

xk ϕ(xk) ,<br />

n<br />

k=1<br />

dove xk è il punto me<strong>di</strong>o dell’intervallo k¡esimo e ϕ(xk) fornisce, come abbiamo già<br />

visto, il numero degli xi appartenenti alla classe k¡esima.<br />

Osserviamo che questa formula può essere utilizzata anche quando ci sono assegnate<br />

tutte le n osservazioni xi e la loro organizzazione in classi viene fatta da noi solo<br />

successivamente al fine <strong>di</strong> una rappresentazione più sintetica dei dati. In tal caso la<br />

me<strong>di</strong>a così calcolata è una approssimazione, in generale molto buona, <strong>di</strong> quella vera<br />

(cioè <strong>di</strong> quella che si ottiene dalla definizione). Il vantaggio <strong>di</strong> quest’ultima formula<br />

sta nel fatto che, utilizzando le classi, è richiesto un numero molto minore <strong>di</strong> calcoli.<br />

73


Me<strong>di</strong>ana<br />

Definizione Date n osservazioni numeriche xi , i = 1, 2, . . . , n , si chiama me<strong>di</strong>ana<br />

delle osservazioni il valore “centrale” dell’insieme or<strong>di</strong>nato.<br />

Quin<strong>di</strong>, a seconda che n sia pari o <strong>di</strong>spari, si ha<br />

⎧<br />

⎨<br />

xmed =<br />

⎩ 1<br />

2<br />

x n+1<br />

2<br />

x n 2 + x n<br />

2 +1<br />

<br />

se n è <strong>di</strong>spari<br />

se n è pari<br />

Anche per la me<strong>di</strong>ana, così come abbiamo fatto per la me<strong>di</strong>a, ci si può porre il problema<br />

<strong>di</strong> come determinarla quando i dati xi non sono noti in<strong>di</strong>vidualmente in quanto<br />

forniti già organizzati in classi. In questo caso, per poter definire operativamente la<br />

me<strong>di</strong>ana, occorre introdurre alcune ulteriori notazioni.<br />

Supposto che le classi si susseguano in or<strong>di</strong>ne crescente, in<strong>di</strong>chiamo con (λi−1, λi)<br />

l’intervallo associato alla classe i¡esima e con xi il suo punto me<strong>di</strong>o. Allora ϕc(xi)<br />

denota il valore della funzione <strong>di</strong> frequenza cumulativa della classe i¡esima, cioè<br />

il numero complessivo <strong>di</strong> elementi contenuti nelle prime i classi. Chiamiamo classe<br />

me<strong>di</strong>ana, in<strong>di</strong>cando con m il suo numero d’or<strong>di</strong>ne, quella classe per cui<br />

ϕc(xm)¸ n , 2 con n<br />

ϕc(xm−1)<<br />

2 .<br />

Ciò posto, la me<strong>di</strong>ana xmed può essere così definita:<br />

xmed = λm−1 +<br />

n<br />

2 ¡ ϕc(xm−1)<br />

ϕc(xm) ¡ ϕc(xm−1) ℓ = λm−1 +<br />

n<br />

2<br />

.<br />

¡ ϕc(xm−1)<br />

ℓ .<br />

ϕ(xm)<br />

Osserviamo che xmed appartiene certamente alla classe me<strong>di</strong>ana (cioè all’intervallo<br />

(λm−1, λm)) se ϕc(xm) > n<br />

2 , mentre si ha xmed = λm se ϕc(xm) = n<br />

accadere solo se n è pari).<br />

2 (il che può<br />

Moda<br />

Molto spesso i dati sono <strong>di</strong>visi in classi che non sono <strong>di</strong> tipo numerico (ad esempio<br />

sesso, gruppo sanguigno, professione, provincia <strong>di</strong> apppartenenza, etc...). In questo<br />

caso non ha alcun senso parlare <strong>di</strong> me<strong>di</strong>a o me<strong>di</strong>ana, per cui può tornare utile un’altra<br />

misura <strong>di</strong> tendenza centrale, valida per qualunque tipologia <strong>di</strong> dati. Questa misura,<br />

però, non esiste per tutte le <strong>di</strong>stribuzioni, ma solo per quelle unimodali. La figura che<br />

segue mostra una <strong>di</strong>stribuzione unimodale assieme a due multimodali.<br />

74


Definizione Si definisce moda <strong>di</strong> una <strong>di</strong>stribuzione unimodale <strong>di</strong> dati il valore fra<br />

questi più ripetuto. La moda, che può anche non essere unica, sarà in<strong>di</strong>cata con<br />

xmod.<br />

Per definire la moda quando i dati sono forniti già <strong>di</strong>visi in classe, occorre determinare<br />

preliminarmente la classe modale, cioè la classe nella quale si trova la moda. Di solito<br />

la classe modale è quella in cui ϕ(x) è massima. Supposto che tale classe sia unica,<br />

se (λj−1, λj) è l’intervallo associato e xj il suo punto me<strong>di</strong>o, la moda è così definita:<br />

xmod = λj−1 +<br />

jϕ(xj) ¡ ϕ(xj−1)j<br />

ℓ .<br />

jϕ(xj) ¡ ϕ(xj−1)j + jϕ(xj+1) ¡ ϕ(xj)j<br />

Se la classe modale non è unica, si hanno più mode.<br />

Ci si può chiedere come sono <strong>di</strong>sposte l’una rispetto all’altra le tre misure <strong>di</strong> tendenza<br />

centrale che abbiamo definito (quando esistono tutte tre). Ebbene, <strong>di</strong>segnata la <strong>di</strong>stribuzione<br />

dei dati, la loro reciproca <strong>di</strong>sposizione <strong>di</strong>pende dalla simmetria o asimmetria<br />

<strong>di</strong> questo grafico. Supposto che la <strong>di</strong>stribuzione sia unimodale (ve<strong>di</strong> figura), se il grafico<br />

è perfettamente simmetrico, allora me<strong>di</strong>a, me<strong>di</strong>ana e moda coincidono. Se invece<br />

il grafico è asimmetrico, allora la moda corriponde ovviamente al massimo del grafico,<br />

mentre me<strong>di</strong>a e me<strong>di</strong>ana sono sempre <strong>di</strong>sposte con la me<strong>di</strong>ana più vicina della me<strong>di</strong>a<br />

alla moda come nelle figure che seguono.<br />

75


Esempio 2.3.1 Calcoliamo me<strong>di</strong>a, me<strong>di</strong>ana e moda dei dati dell’esempio 2.2.1.<br />

Per quanto riguarda la me<strong>di</strong>a, facendo uso della definizione, si ottiene<br />

x = 1 50 i=1 50<br />

xi = 1<br />

3163<br />

(53 + 55 + ¢ ¢ ¢ + 73) = = 63.26 .<br />

50 50<br />

Se invece si calcola la me<strong>di</strong>a utilizzando le classi, in<strong>di</strong>cato con xk il punto me<strong>di</strong>o dell’intervallo<br />

corrispondente alla k¡classe, si ha<br />

x ¼ 1<br />

50<br />

= 3162<br />

50<br />

nc <br />

k=1<br />

xkϕ(xk) = 1<br />

(54¢2 + 57¢5 + 60¢9 + 63¢15 + 66¢12 + 69¢4 + 72¢3) =<br />

50<br />

= 63.24 .<br />

Come si vede, per quanto approssimato, il valore della me<strong>di</strong>a così ottenuto è molto prossimo<br />

a quello corretto ottenuto in precedenza. Venendo alla me<strong>di</strong>ana, il suo calcolo è imme<strong>di</strong>ato.<br />

Infatti, essendo n=50, cioè pari, dalla tabella contenente i dati or<strong>di</strong>nati si legge che x25 =63<br />

e x26 =64. Si ha quin<strong>di</strong><br />

xmed = x25 + x26<br />

=<br />

2<br />

63 + 64<br />

= 63.5 .<br />

2<br />

Anche xmed può essere calcolato utilizzando la formula per i dati organizzati in classi; in tal<br />

caso si ottiene<br />

xmed = λm−1 +<br />

Per quanto riguarda invece la moda, si ha<br />

n<br />

2<br />

¡ ϕc(xm−1)<br />

ℓ = 61.5 +<br />

ϕ(xm)<br />

xmod =64 ,<br />

25 ¡ 16<br />

3 = 63.3 .<br />

15<br />

in quanto valore ripetuto più <strong>di</strong> ogni altro. D’altra parte, se xmod è calcolata sulla base<br />

dell’organizzazione in classi, essendo la classe modale quella <strong>di</strong> centro xj =63, si ha<br />

xmod = 61.5 +<br />

j15 ¡ 9j<br />

3 = 63.5 .<br />

j15 ¡ 9j + j12 ¡ 15j<br />

Esempio 2.3.2 Calcoliamo me<strong>di</strong>a, me<strong>di</strong>ana e moda dei dati dell’esempio 2.2.2.<br />

Facendo uso della definizione per calcolare la me<strong>di</strong>a, si ottiene<br />

x = 1<br />

80<br />

80<br />

i=1<br />

xi = 1<br />

14332<br />

(160 + 162 + ¢ ¢ ¢ + 201) = = 179.15 .<br />

80 80<br />

Se invece calcoliamo la me<strong>di</strong>a utilizzando la formula per i dati organizzati in classi, abbiamo<br />

x ¼ 1<br />

80<br />

nc <br />

k=1<br />

xkϕ(xk) = 1<br />

(161¢2 + 166¢5 + 171¢12 + 176¢19 + 181¢22+<br />

80<br />

+ 186¢9 + 191¢7 + 196¢2 + 201¢2) = 14335<br />

80<br />

76<br />

¼ 179.19 .


Anche in questo caso il valore della me<strong>di</strong>a ottenuto utilizzando la formula per le classi è<br />

molto prossimo a quello corretto ottenuto in precedenza.<br />

Per quanto concerne la me<strong>di</strong>ana, dalla tabella dei dati or<strong>di</strong>nati, essendo x40 = x41 = 179,<br />

segue ovviamente xmed =179. Se poi si effettua il calcolo con la formula specifica per i dati<br />

organizzati in classi, si ha<br />

xmed = λm−1 +<br />

n<br />

2<br />

¡ ϕc(xm−1)<br />

ℓ = 178.5 +<br />

ϕ(xm)<br />

40 ¡ 38<br />

5 ¼ 178.5 + 0.45 = 178.95 ,<br />

22<br />

che costituisce certamente un’ottima approssimazione <strong>di</strong> 179, che è il valore esatto <strong>di</strong> xmed.<br />

Infine, dalla tabella dei dati, si ha xmod = 179. Facendo invece il calcolo sulla base dell’organizzazione<br />

dei dati in classi, otteniamo:<br />

xmod = 178.5 +<br />

j22 ¡ 19j<br />

5 ¼ 179.44 .<br />

j22 ¡ 19j + j9 ¡ 22j<br />

Abbiamo finora visto misure <strong>di</strong> tendenza centrale che servono ad in<strong>di</strong>viduare il“centro”<br />

della <strong>di</strong>stribuzione. Ciò però non vuol <strong>di</strong>re sapere come i dati siano <strong>di</strong>stribuiti intorno<br />

al centro. In certi casi i dati possono essere estremamente concentrati attorno a questo<br />

valore centrale, in altri possono essere estremamente sparsi. Torna quin<strong>di</strong> utile avere<br />

delle misure <strong>di</strong> <strong>di</strong>spersione. Ovviamente il caso limite <strong>di</strong> <strong>di</strong>spersione nulla si ha quando<br />

tutti i dati coincidono.<br />

Il primo in<strong>di</strong>ce <strong>di</strong> <strong>di</strong>spersione è il campo <strong>di</strong> variazione o rango, che abbiamo già definito.<br />

Questo intervallo ci dà una prima, anche se spesso grossolana, idea <strong>di</strong> come stanno le<br />

cose. Ad esempio, se i dati riguardano le temperature <strong>di</strong> un giorno in una data città,<br />

conoscere le temperature minima e massima può essere già utile. È però evidente che<br />

questo in<strong>di</strong>ce risente in maniera significativa <strong>di</strong> valori particolarmente alti o bassi.<br />

Deviazione standard e varianza<br />

La deviazione standard σ, o scarto quadratico me<strong>di</strong>o, già introdotta per una variabile<br />

casuale come ra<strong>di</strong>ce quadrata della varianza, è l’in<strong>di</strong>ce <strong>di</strong> <strong>di</strong>spersione probabilmente<br />

più usato. Nel caso <strong>di</strong> un campione <strong>di</strong> dati x1, x2, . . . , xn, la deviazione standard è<br />

definita nel modo seguente: <br />

<br />

<br />

σ = 1<br />

n<br />

(xi ¡ x)<br />

n<br />

2 .<br />

Anche la varianza σ 2 , definita come<br />

σ 2 = 1<br />

n<br />

i=1<br />

n<br />

(xi ¡ x) 2 ,<br />

i=1<br />

costituisce una misura <strong>di</strong> <strong>di</strong>spersione molto comune. Ad essa sono espressamente<br />

rivolti alcuni capitoli della statistica matematica.<br />

Come la me<strong>di</strong>a x e la me<strong>di</strong>ana xmed, anche σ può essere associato alla variabile casuale<br />

X definita in precedenza come quella variabile casuale finita per la quale P ( X =xi) è<br />

uguale alla frequenza relativa <strong>di</strong> xi nel campione. Si ha infatti σ 2 =V ar( X).<br />

77


Le quantità (xi ¡ x) rappresentano gli scarti dalla me<strong>di</strong>a dei dati. Di qui il nome <strong>di</strong><br />

“scarto quadratico me<strong>di</strong>o” per σ e l’affermazione che la varianza è uguale alla me<strong>di</strong>a<br />

dei quadrati degli scarti dalla me<strong>di</strong>a. Osserviamo che quando si fa la ra<strong>di</strong>ce quadrata<br />

per ottenere la deviazione standard, si ritorna alla “<strong>di</strong>mensione” dei nostri dati.<br />

Due formule molto importanti viste per la varianza sono le seguenti:<br />

σ 2 aX+b = a2 σ 2 X , σ2 X = E(X2 ) ¡ E 2 (X).<br />

La prima formula torna utile quando ci sono dei cambiamenti <strong>di</strong> scala e/o delle traslazioni<br />

dei dati: se si moltiplicano tutti i dati per uno stesso fattore, allora anche la<br />

deviazione standard risulterà moltiplicata per lo stesso fattore; se invece si traslano<br />

tutti i dati, la deviazione standard non ne viene influenzata. Quest’ultimo fatto risulta<br />

perfettamente comprensibile se si pensa al significato <strong>di</strong> questo in<strong>di</strong>catore come<br />

misura <strong>di</strong> <strong>di</strong>spersione: importa solo la posizione dei dati xi rispetto alla me<strong>di</strong>a, e non<br />

la <strong>di</strong>slocazione dell’insieme <strong>di</strong> questi dati sull’asse x.<br />

La seconda formula ci permette invece la possibilità <strong>di</strong> calcolare la varianza (e quin<strong>di</strong><br />

la deviazione standard) anche in questo modo:<br />

σ 2 = 1<br />

n<br />

x<br />

n<br />

2 i ¡ x 2 .<br />

i=1<br />

Anche per il calcolo della varianza σ 2 (e quin<strong>di</strong> della deviazione standard), se i dati<br />

sono raggruppati in classi, si possono utilizzare i punti <strong>di</strong> mezzo xk degli intervalli<br />

associati alle classi e le loro frequenze ϕ(xk). La formula che dà σ 2 (in modo appros-<br />

simato) è la seguente:<br />

σ 2 = 1<br />

n<br />

nc <br />

k=1<br />

(xk ¡ x) 2 ϕ(xk) .<br />

Deviazioni me<strong>di</strong>e<br />

Altri due in<strong>di</strong>ci <strong>di</strong> <strong>di</strong>spersione sono la deviazione me<strong>di</strong>a dalla me<strong>di</strong>a e la deviazione me<strong>di</strong>a<br />

dalla me<strong>di</strong>ana, che in<strong>di</strong>chiamo rispettivamente con Dmed(x) e Dmed(xmed). Tali in<strong>di</strong>ci<br />

sono dati dalla me<strong>di</strong>a aritmetica delle <strong>di</strong>fferenze in valore assoluto rispettivamente<br />

dalla me<strong>di</strong>a x e dalla me<strong>di</strong>ana xmed, ossia da<br />

Dmed(x) = 1<br />

n<br />

n<br />

i=1<br />

jxi ¡ xj , Dmed(xmed) = 1<br />

n<br />

n<br />

jxi ¡ xmedj .<br />

Esempio 2.3.3 Calcoliamo la varianza, la deviazione standard e le deviazioni me<strong>di</strong>e<br />

dalla me<strong>di</strong>a e dalla me<strong>di</strong>ana dei dati dell’esempio 2.2.1.<br />

Calcoliamo la varianza utilizzando la relazione σ 2 X = E(X2 ) ¡ E 2 (X), sapendo che x =<br />

63.22 (ve<strong>di</strong> esempio 2.3.1):<br />

σ 2 = 1<br />

n<br />

n<br />

i=1<br />

x 2 i ¡ x2 = 1<br />

50<br />

50<br />

i=1<br />

78<br />

i=1<br />

x 2 i ¡ (63.26)2 ¼ 17.13 .


A questo punto per avere la deviazione standard basta calcolare la ra<strong>di</strong>ce quadrata <strong>di</strong> σ 2 :<br />

σ = p 17.02 ¼ 4.14 .<br />

Il calcolo della varianza poteva essere semplificato me<strong>di</strong>ante la formula che utilizza i punti<br />

<strong>di</strong> mezzo delle classi e le loro frequenze. In questo modo si ottiene:<br />

σ 2 ¼ 1<br />

n<br />

nc <br />

k=1<br />

(xk ¡ x) 2 ϕ(xk) = 1<br />

50<br />

7<br />

(xk ¡ 63.22) 2 ϕ(xk) = (54 ¡ 63.22) 2 ¢2+<br />

k=1<br />

+ (57 ¡ 63.22) 2 ¢5 + (60 ¡ 63.22) 2 ¢9 + (63 ¡ 63.22) 2 ¢15 + (66 ¡ 63.22) 2 ¢12+<br />

+ (69 ¡ 63.22) 2 ¢4 + (72 ¡ 63.22) 2 ¢3 ¼ 18.30 ,<br />

da cui σ ¼ 4.28. Di qui si vede come la formula basata sulla sud<strong>di</strong>visione in classi, essendo<br />

ovviamente la <strong>di</strong>stribuzione che ne deriva più grossolana rispetto a quella dei dati <strong>di</strong> partenza,<br />

fornisca (in questo caso) un valore della deviazione standard con un errore <strong>di</strong> circa il 3.6%.<br />

Calcoliamo infine le deviazioni me<strong>di</strong>e dalla me<strong>di</strong>a e dalla me<strong>di</strong>ana (sapendo dall’esempio<br />

2.3.1 che xmed =63.5):<br />

Dmed(x) = 1<br />

n<br />

jxi ¡ xj =<br />

n<br />

1 50<br />

jxi ¡ 63.22j = 3.26 ;<br />

50<br />

Dmed(xmed) = 1<br />

n<br />

i=1<br />

n<br />

i=1<br />

jxi ¡ xmedj = 1<br />

50<br />

i=1<br />

50<br />

I calcoli sono ovviamente stati fatti con un programma <strong>di</strong> calcolo.<br />

i=1<br />

jxi ¡ 63.5j = 3.26 .<br />

Esempio 2.3.4 Calcoliamo la varianza, la deviazione standard e le deviazioni me<strong>di</strong>e<br />

dalla me<strong>di</strong>a e dalla me<strong>di</strong>ana dei dati dell’esempio 2.2.2.<br />

Procedendo come nell’esempio precedente, essendo ora x = 179.15 e xmed = 179 (ve<strong>di</strong><br />

esempio 2.3.2), si ha<br />

σ 2 = 1<br />

80<br />

80<br />

i=1<br />

x 2 i ¡ (179.15) 2 ¼ 67.05 , da cui σ = p 67.05 ¼ 8.19 .<br />

Se poi si effettua il calcolo (approssimato) me<strong>di</strong>ante la formula che usa i punti <strong>di</strong> mezzo degli<br />

intervalli delle classi, si ha<br />

σ 2 ¼ 1<br />

n<br />

nc <br />

k=1<br />

(xk ¡ x) 2 ϕ(xk) ¼ 68.90 , da cui σ ¼ 8.30 ,<br />

con un errore su σ <strong>di</strong> poco superiore all’1%. Calcoliamo infine le deviazioni me<strong>di</strong>e dalla<br />

me<strong>di</strong>a e dalla me<strong>di</strong>ana (sapendo dall’esempio 2.3.1 che xmed =63.5):<br />

Dmed(x) = 1<br />

n<br />

Dmed(xmed) = 1<br />

n<br />

n<br />

i=1<br />

n<br />

i=1<br />

jxi ¡ xj = 1<br />

80<br />

80<br />

i=1<br />

jxi ¡ xmedj = 1<br />

80<br />

jxi ¡ 179.15j ¼ 6.24 ;<br />

80<br />

i=1<br />

jxi ¡ 179j ¼ 6.22 .<br />

Come per l’esempio precedente, i calcoli sono stati fatti con un programma <strong>di</strong> calcolo.<br />

79


Esercizio 2.3.5 Calcolare la me<strong>di</strong>a, la me<strong>di</strong>ana, lo scarto quadratico me<strong>di</strong>o e le deviazioni<br />

me<strong>di</strong>e dalla me<strong>di</strong>a e dalla me<strong>di</strong>ana dei seguenti dati:<br />

46 31 1 33 2 44 66 8 54 99 92 98 69 50<br />

Innanzitutto or<strong>di</strong>niamo i 14 dati in senso crescente:<br />

Calcoliamo la me<strong>di</strong>a:<br />

1 2 8 31 33 44 46 50 54 66 69 92 98 99<br />

x = 1<br />

693<br />

(1 + 2 + 8 + ¢ ¢ ¢ + 98 + 99) = = 49.5 .<br />

14 14<br />

Per quanto riguarda la me<strong>di</strong>ana abbiamo<br />

xmed = x7 + x8<br />

=<br />

2<br />

46 + 50<br />

= 48 .<br />

2<br />

Dovendo poi calcolare lo scarto quadratico me<strong>di</strong>o, ci serve la varianza:<br />

σ2 = 1 <br />

2 2 2 2 2 2 1 + 2 + 8 + ¢ ¢ ¢ + 98 + 99 ) ¡ (49.5) = 1019.25 ,<br />

14<br />

da cui<br />

Infine<br />

Dmed(x) = 1<br />

14<br />

Dmed(xmed) = 1<br />

14<br />

σ = p 1018.25 ¼ 31.93 .<br />

14<br />

i=1<br />

14<br />

i=1<br />

jxi ¡ 49.5j = 363<br />

14<br />

jxi ¡ 47j = 363<br />

14<br />

¼ 25.93 ;<br />

¼ 25.93 .<br />

Il fatto che queste due ultime me<strong>di</strong>e siano uguali ha una facile spiegazione geometrica:<br />

quando i dati sono in numero pari e anche la me<strong>di</strong>a è compresa fra i due dati <strong>di</strong> mezzo<br />

(cioè x n<br />

2 e x n 2 +1), si ha sempre Dmed(x) = Dmed(xmed).<br />

Esercizio 2.3.6 Calcolare la me<strong>di</strong>a, la me<strong>di</strong>ana e le deviazioni me<strong>di</strong>e dalla me<strong>di</strong>a e dalla<br />

me<strong>di</strong>ana dei dati dell’esercizio precedente sostituendo 91 a 1.<br />

Sostituito il numero 1 con 91 il nuovo campione or<strong>di</strong>nato è il seguente:<br />

2 8 31 33 44 46 50 54 66 69 91 92 98 99 .<br />

Calcoliamo la nuova me<strong>di</strong>a e la nuova me<strong>di</strong>ana<br />

x = 1<br />

783<br />

(2 + 8 + 31 + ¢ ¢ ¢ + 98 + 99) =<br />

14 14<br />

xmed = x7 + x8<br />

2<br />

Calcoliamo ora le due deviazioni me<strong>di</strong>e:<br />

= 50 + 54<br />

Dmed(x) = 1<br />

14<br />

2<br />

= 52 .<br />

14<br />

i=1 jxi ¡ 55.93j ¼ 25.63 ;<br />

80<br />

¼ 55.93 ;


Dmed(xmed) = 1 14 i=1 14<br />

jxi ¡ 52j = 355<br />

¼ 25.36 .<br />

14<br />

Si può verificare che ora, essendo x esterno all’intervallo [x7, x8] (<strong>di</strong> cui la me<strong>di</strong>ana è il punto<br />

me<strong>di</strong>o), Dmed(x) e Dmed(xmed) sono <strong>di</strong>versi.<br />

Esercizio 2.3.7 Uno studente <strong>di</strong> ingegneria ha sostenuto 16 esami, ciascuno dei quali con<br />

un dato numero <strong>di</strong> cre<strong>di</strong>ti formativi. I voti riportati dallo studente, ciascuno con a fianco il<br />

numero dei cre<strong>di</strong>ti relativi a quell’esame, sono i seguenti:<br />

28 (6) 21 (8) 22 (5) 24 (6) 24 (8) 25 (4) 25 (6) 26 (8)<br />

27 (5) 27 (4) 27 (6) 19 (10) 28 (5) 29 (7) 30 (8) 30 (4)<br />

Si chiede <strong>di</strong> calcolare: a) la me<strong>di</strong>a, la me<strong>di</strong>ana e la deviazione standard dei voti; b) la<br />

me<strong>di</strong>a, la me<strong>di</strong>ana e la deviazione standard dei cre<strong>di</strong>ti; c) la me<strong>di</strong>a ponderata dei voti<br />

assumendo come pesi i cre<strong>di</strong>ti.<br />

a) Or<strong>di</strong>niamo innanzitutto i 16 voti. Si ha<br />

19 21 22 24 24 25 25 26 27 27 27 28 28 29 30 30<br />

In<strong>di</strong>cati con v1, v2, . . . , v16 i voti così or<strong>di</strong>nati e con v, vmed e σv rispettivamente la me<strong>di</strong>a,<br />

la me<strong>di</strong>ana e la deviazione standard, abbiamo<br />

v = 1 16<br />

16<br />

i=1<br />

<br />

1 16<br />

σv = (vi ¡ 25.75)<br />

16<br />

2<br />

vi = 412<br />

16 = 25.75 ; vmed = v8 + v9<br />

2<br />

i=1<br />

b) Or<strong>di</strong>niamo anche i cre<strong>di</strong>ti:<br />

1<br />

2<br />

¼ 3.07 .<br />

= 26.5 ;<br />

4 4 4 5 5 5 6 6 6 6 7 8 8 8 8 10<br />

In<strong>di</strong>cati con c1, c2, . . . , c16 i cre<strong>di</strong>ti così or<strong>di</strong>nati e rispettivamente con c, cmed e σc le relative<br />

me<strong>di</strong>a, me<strong>di</strong>ana e deviazione standard, abbiamo<br />

c = 1 16<br />

16<br />

i=1<br />

<br />

1 16<br />

σc = (ci ¡ 6.25)<br />

16<br />

2<br />

ci = 100<br />

16 = 6.25 ; cmed = c8 + c9<br />

2<br />

i=1<br />

1<br />

2<br />

¼ 1.71 .<br />

= 6 ;<br />

c) Calcoliamo infine la me<strong>di</strong>a ponderata dei voti, vpond, assumendo come pesi i relativi<br />

cre<strong>di</strong>ti. Rior<strong>di</strong>nati i ci in modo che ci sia corrispondenza fra voti e cre<strong>di</strong>ti:<br />

abbiamo<br />

10 8 5 6 8 4 6 8 4 5 6 6 5 7 4 8<br />

vpond =<br />

16<br />

i=1 vi¢ci<br />

16<br />

i=1 ci<br />

81<br />

= 25.38 .


CAPITOLO 3: <strong>STATISTICA</strong> <strong>MATEMATICA</strong><br />

3.1 POPOLAZIONI E CAMPIONI<br />

Definizione Si definisce popolazione un insieme i cui elementi hanno in comune<br />

almeno una caratteristica (od attributo).<br />

Esempi <strong>di</strong> popolazioni: gli ingegneri che si sono laureati in Italia dal 1950 al 1980; i<br />

giorni con vento superiore ai 100 Km/h a Trieste nel mese <strong>di</strong> aprile dal 1900 al 1999;<br />

gli italiani aventi <strong>di</strong>ritto al voto per il senato alle elezioni politiche del 2001; i corpi<br />

celesti dell’universo; gli alberi passati e presenti <strong>di</strong> tutte le foreste del mondo.<br />

Esempi <strong>di</strong> caratteristiche nel caso degli ingegneri: l’età al momento della laurea; l’età<br />

al momento del primo impiego come ingegnere; l’altezza; il peso; il sesso; il primo<br />

stipen<strong>di</strong>o; ecc.<br />

Le popolazioni possono essere finite o infinite. In genere popolazioni molto numerose<br />

sono considerate infinite anche se non lo sono (ad esempio i corpi celesti dell’universo).<br />

Ogni caratteristica della popolazione, nella maggior parte dei casi, viene misurata da<br />

un valore numerico per ciascuno degli N elementi che la compongono. Di conseguenza<br />

uno stu<strong>di</strong>o completo della popolazione implicherebbe un insieme <strong>di</strong> N numeri. In<br />

genere, però, N è così grande da rendere impraticabile, per ovvi motivi, la misurazione<br />

della caratteristica per l’intera popolazione. Ci si limita dunque a farlo solo per un suo<br />

sottinsieme, spesso assai limitato, detto campione. Uno scopo delle ricerche statistiche<br />

è quello <strong>di</strong> inferire (da cui il nome <strong>di</strong> inferenza statistica), cioè fare delle deduzioni o<br />

delle previsioni sulla popolazione me<strong>di</strong>ante l’esame <strong>di</strong> un campione.<br />

Matematicamente la caratteristica oggetto <strong>di</strong> stu<strong>di</strong>o è una variabile aleatoria X la<br />

cui <strong>di</strong>stribuzione ci è più o meno sconosciuta. In ogni caso la variabile casuale X<br />

sottostante alla popolazione in questione avrà una me<strong>di</strong>a ed una varianza, che nel<br />

seguito in<strong>di</strong>cheremo semplicemente con µ e σ 2 , ossia<br />

µ = µX = E(X) , σ2 = σ2 X = V ar(X) .<br />

Nel seguito ci riferiremo spesso a µ e σ2 come alla me<strong>di</strong>a e alla varianza della popolazione<br />

oggetto <strong>di</strong> indagine, sottintendendo ovviamente con ciò µX e σ2 X .<br />

Definizione Si chiama campione casuale <strong>di</strong> <strong>di</strong>mensione n, estratto da una popolazione<br />

avente X come variabile aleatoria sottostante, una variabile n-<strong>di</strong>mensionale<br />

(X1, X2, . . . , Xn), con le Xi in<strong>di</strong>pendenti e aventi la stessa <strong>di</strong>stribuzione <strong>di</strong> X.<br />

Quando si misura la caratteristica della popolazione limitandosi ad un campione <strong>di</strong><br />

<strong>di</strong>mensione n, si ottengono n misure x1, x2, . . . , xn: ciò equivale ad una singola esecuzione<br />

dell’esperimento rappresentato dalla variabile n-<strong>di</strong>mensionale (X1, X2, . . . , Xn)<br />

con risultato (x1, x2, . . . , xn).<br />

Sul problema della scelta del campione, che nella pratica consiste nell’estrarre n elementi<br />

da un insieme <strong>di</strong> N, con n ¿ N, ci limitiamo ad osservare l’importanza che ciò<br />

venga realmente fatto a caso e che esistono <strong>di</strong>verse tecniche utili allo scopo.<br />

82


3.2 STIMATORI<br />

Sia (X1, X2, . . . , Xn) un campione <strong>di</strong> una data popolazione la cui <strong>di</strong>stribuzione è nota<br />

in funzione <strong>di</strong> un parametro incognito θ. Uno degli obiettivi della statistica inferenziale<br />

è quello <strong>di</strong> stimare θ me<strong>di</strong>ante una appropriata funzione dei risultati campionari xi.<br />

Definizione Si definisce statistica una funzione g(X1, X2, . . . , Xn) delle variabili<br />

casuali Xi (e quin<strong>di</strong>, a sua volta, una variabile casuale) che non contiene parametri.<br />

Definizione Si definisce stimatore una statistica che viene utilizzata per stimare<br />

un parametro incognito θ.<br />

Sia f(X1, X2, . . . , Xn) = θ uno stimatore e (x1, x2, . . . , xn) un valore misurato del<br />

campione. Ebbene, il valore ˆ θ = f(x1, x2, . . . , xn) è detto stima puntuale del<br />

parametro θ. È convenzione molto seguita quella <strong>di</strong> in<strong>di</strong>care le stime puntuali con<br />

l’accento circonflesso, ad esempio ˆ θ, ˆσ 2 , . . . . Nel caso della me<strong>di</strong>a stimata, tuttavia,<br />

anzichè con ˆµ, si continuerà ad in<strong>di</strong>carla con x, sia per conservare la notazione già<br />

usata nella Statistica descrittiva, sia per coerenza col fatto che la me<strong>di</strong>a verrà stimata<br />

con lo stimatore X che definiremo tra poco.<br />

Definizione Uno stimatore T del parametro θ si <strong>di</strong>ce corretto se la sua me<strong>di</strong>a<br />

coincide con θ medesimo, ossia: E(T ) = θ.<br />

MEDIA CAMPIONARIA<br />

Il problema statistico che si presenta più frequentemente nelle applicazioni è il seguente:<br />

supposte la me<strong>di</strong>a vera µ e la varianza vera σ 2 ignote, si cerca <strong>di</strong> stimarle in<br />

modo atten<strong>di</strong>bile eseguendo un “gran” numero <strong>di</strong> esperimenti (ma non esageratamente<br />

grande). La pratica corrente è quella <strong>di</strong> stimare µ calcolando la me<strong>di</strong>a aritmetica dei<br />

valori misurati (osservati) xi, cioè<br />

n<br />

i=1 xi .<br />

x = 1<br />

n<br />

Volendo giustificare ciò, osserviamo che x coincide col valore misurato della variabile<br />

aleatoria definita come me<strong>di</strong>a aritmetica delle n variabili aleatorie Xi.<br />

Definizione Si chiama me<strong>di</strong>a campionaria <strong>di</strong> un campione (X1, X2, . . . , Xn) la<br />

variabile casuale X così definita:<br />

X = 1<br />

n<br />

Xi .<br />

n<br />

Teorema La me<strong>di</strong>a campionaria è uno stimatore corretto della me<strong>di</strong>a vera µ, ossia<br />

i=1<br />

E(X) = E(X) = µ .<br />

Dimostrazione: Ricordando che E(Xi)=E(X)=µ, si ha<br />

E(X) = 1<br />

n<br />

E(Xi) =<br />

n<br />

nµ<br />

= µ .<br />

n<br />

i=1<br />

83


Teorema La varianza della me<strong>di</strong>a campionaria vale quella <strong>di</strong> X <strong>di</strong>viso n, ossia<br />

V ar(X) = 1<br />

σ2<br />

V ar(X) =<br />

n n .<br />

Dimostrazione<br />

V ar(X) = 1<br />

n n i=1 V ar(Xi)<br />

V ar Xi =<br />

n2 n2 = nσ2<br />

n2 σ2<br />

=<br />

n .<br />

i=1<br />

I due teoremi appena visti ci <strong>di</strong>cono che la me<strong>di</strong>a campionaria X ha me<strong>di</strong>a coincidente<br />

con la me<strong>di</strong>a µ della popolazione da cui proviene il campione e la sua <strong>di</strong>spersione<br />

attorno a µ, misurata in termini <strong>di</strong> deviazione standard, è inversamente proporzionale<br />

alla ra<strong>di</strong>ce quadrata della <strong>di</strong>mensione n del campione. Questo significa che al crescere<br />

<strong>di</strong> n i valori delle corrispondenti me<strong>di</strong>e campionarie tendono a concentrarsi sempre<br />

più attorno al loro valore me<strong>di</strong>o, che altri non è che la me<strong>di</strong>a della popolazione, molto<br />

spesso oggetto della nostra indagine statistica.<br />

VARIANZA CAMPIONARIA<br />

Definizione Si chiama varianza campionaria <strong>di</strong> un campione (X1, X2, . . . , Xn),<br />

n > 1, la variabile casuale S2 così definita<br />

S 2 = 1<br />

n <br />

Xi ¡ X)<br />

n ¡ 1<br />

2 .<br />

i=1<br />

Lo stimatore S 2 viene utilizzato per stimare la varianza σ 2 <strong>di</strong> X (e l’esponente 2 che<br />

compare in S 2 serve appunto a ricordarci questo). Il fatto che si usi questo stimatore<br />

anzichè<br />

˜S 2 = 1 n <br />

i=1<br />

Xi ¡ X)<br />

n<br />

2 ,<br />

come potrebbe apparire più naturale, è dovuto al fatto che quest’ultimo non è un<br />

estimatore corretto, mentre S2 lo è. Si può infatti <strong>di</strong>mostrare (cosa che non facciamo)<br />

che<br />

E(S2 ) = σ2 , E( ˜ S2 n ¡ 1<br />

) =<br />

n σ2 .<br />

Dunque, volendo stimare la varianza vera σ 2 , lo faremo calcolando il numero<br />

ˆσ 2 = 1<br />

n ¡ 1<br />

n <br />

xi ¡ x) 2 .<br />

Di qui si ottiene anche la stima ˆσ della deviazione standard:<br />

i=1<br />

ˆσ = p ˆσ 2 .<br />

Osserviamo che in questo modo per stimare σ si è usato lo stimatore S = p S2 , che<br />

però non è uno stimatore corretto in quanto si può <strong>di</strong>mostrare che E(S) < σ. Per<br />

questa ragione qualche volta può essere conveniente utilizzare lo stimatore ˜ <br />

S = ˜S 2 ,<br />

per quanto anch’esso non corretto. Noi però negli esempi che seguiranno faremo<br />

sempre uso dello stimatore S (cioè calcoleremo sempre l’approssimazione ˆσ).<br />

84


COVARIANZA CAMPIONARIA<br />

Talvolta, per la stessa popolazione, sono oggetto <strong>di</strong> indagine due <strong>di</strong>verse caratteristiche,<br />

per cui il campione casuale considerato è bi<strong>di</strong>mensionale: (Xi, Yi), i = 1, . . . , n .<br />

Ciò comporta ovviamente che ci siano due variabili casuali X e Y sottostanti al nostro<br />

esperimento e che ciascuno degli n risultati (o osservazioni) consista in una coppia <strong>di</strong><br />

numeri (xi, yi). Oltre all’interesse per ognuna delle due caratteristiche, e quin<strong>di</strong> dei<br />

due campioni (X1, X2, . . . , Xn) e (Y1, Y2, . . . , Yn) presi singolarmente, ci può essere da<br />

parte dello sperimentatore anche l’interesse a capire se fra X e Y c’è qualche forma<br />

<strong>di</strong> <strong>di</strong>pendenza lineare o, detto altrimenti, qualche forma <strong>di</strong> correlazione. A tal fine<br />

occorre stimare la covarianza σX,Y della variabile congiunta (X, Y ), il che può essere<br />

fatto utilizzando lo stimatore definito come segue:<br />

Definizione Si chiama covarianza campionaria del campione (Xi, Yi), i = 1, . . . , n ,<br />

la variabile aleatoria<br />

SX,Y = 1<br />

n<br />

(Xi ¡ X)(Yi ¡ Y ) .<br />

n ¡ 1<br />

La covarianza vera σX,Y viene dunque così stimata:<br />

σX,Y ¼ ˆσX,Y = 1<br />

n<br />

(xi ¡ x)(yi ¡ y) =<br />

n ¡ 1<br />

1<br />

<br />

n<br />

xiyi ¡<br />

n ¡ 1<br />

1<br />

n n<br />

i=1<br />

i=1<br />

i=1<br />

i=1<br />

xi<br />

n <br />

Nella formula x e y sono ovviamente le me<strong>di</strong>e aritmetiche degli xi e degli yi (e quin<strong>di</strong> i<br />

valori osservati delle due me<strong>di</strong>e campionarie “marginali” X e Y ). L’espressione alternativa<br />

data per ultima <strong>di</strong> ˆσX,Y , che si ottiene con semplici manipolazioni algebriche,<br />

può essere comoda se il calcolo è fatto con una calcolatrice tascabile delle più semplici.<br />

Come già visto nel x 1.6, per vedere se fra X e Y c’è una qualche correlazione, piuttosto<br />

che utilizzare la covarianza, conviene far ricorso al coefficiente <strong>di</strong> correlazione ρX,Y .<br />

Ricordandone la definizione già data, e denotate con ˆσX e ˆσY le stime delle deviazioni<br />

standard <strong>di</strong> X e Y , tale coefficiente può essere stimato nel modo seguente:<br />

ρX,Y ¼ ˆρX,Y = ˆσX,Y<br />

ˆσX ˆσY<br />

Esempio 3.2.1 20 lanci <strong>di</strong> due da<strong>di</strong> (<strong>di</strong> colore <strong>di</strong>verso per <strong>di</strong>stinguere l’or<strong>di</strong>ne dei risultati)<br />

hanno dato per risultato le seguenti coppie numeriche (xi, yi):<br />

xi : 4 5 3 2 2 5 3 4 6 6 4 5 3 3 4 1 5 4 2 1<br />

yi : 2 2 2 3 6 4 4 1 6 1 4 1 5 5 3 1 4 1 2 1<br />

Si considerino poi le coppie (ai, <strong>di</strong>), con ai = xi +yi e <strong>di</strong> = xi ¡yi, e (xi, zi), con zi = 2xi.<br />

Si chiede <strong>di</strong> calcolare:<br />

a) le me<strong>di</strong>e x, y, a, d e z;<br />

b) le varianze ˆσ 2 X , ˆσ2 Y , ˆσ2 A , ˆσ2 D e ˆσ2 Z ;<br />

c) le deviazioni standard ˆσX, ˆσY , ˆσA, ˆσD e ˆσZ;<br />

d) le covarianze ˆσX,Y , ˆσA,D e ˆσX,Z;<br />

e) i coefficienti <strong>di</strong> correlazione ˆρX,Y , ˆρA,D e ˆρX,Z.<br />

85<br />

.<br />

i=1<br />

yi<br />

<br />

.


Facendo i calcoli (nel nostro caso con un programma specifico fatto all’uopo) si ottengono i<br />

seguenti risultati:<br />

a) x = 3.6 , y = 2.9 , a = 6.5 , d = 0.7 , z = 7.2 ;<br />

b) ˆσ 2 X ' 2.25 , ˆσ2 Y ' 3.04 , ˆσ2 A ' 5.74 , ˆσ2 D ' 4.85 , ˆσ2 Z ' 9.01 ;<br />

c) ˆσX ' 1.50 , ˆσY ' 1.74 , ˆσA ' 2.40 , ˆσD ' 2.20 , ˆσZ ' 3.00 ;<br />

d) ˆσX,Y ' 0.221 , ˆσA,D ' ¡0.789 , ˆσX,Z ' 4.505 ;<br />

e) ˆρX,Y ' 0.084 , ˆρA,D ' ¡0.149 , ˆρX,Z = 1 .<br />

Nota Le covarianze vere valgono: σX,Y = σA,D = 0 e σX,Z = σX¢σZ. Infatti le variabili<br />

casuali X e Y sono chiaramente in<strong>di</strong>pendenti, A e D sono fortemente <strong>di</strong>pendenti ma non<br />

correlate, mentre X e Z sono linearmente <strong>di</strong>pendenti (i dati stanno sulla retta z = 2x) e<br />

quin<strong>di</strong> con covarianza massima.<br />

3.3 DISTRIBUZIONI CHI-QUADRO E DI STUDENT<br />

Ve<strong>di</strong>amo ora due <strong>di</strong>stribuzioni campionarie <strong>di</strong> notevole importanza in Statistica, entrambe<br />

collegate alla <strong>di</strong>stribuzione normale.<br />

Definizione Date n variabili aleatorie Xi normali standar<strong>di</strong>zzate in<strong>di</strong>pendenti, la<br />

variabile aleatoria somma dei loro quadrati è detta chi-quadro (o chi-quadrato)<br />

con n gra<strong>di</strong> <strong>di</strong> libertà ed è in<strong>di</strong>cata con χ2 n. Si ha dunque<br />

χ 2 n =<br />

n<br />

X 2 i , Xi ' N(0, 1) .<br />

i=1<br />

Una <strong>di</strong>stribuzione χ 2 n ha una funzione densità f(x) che è nulla per x < 0 e con l’andamento<br />

mostrato in figura per x ¸ 0 (per n = 2, 4, 6, 8, 10). Per n piccolo f(x) ha<br />

il picco vicino all’origine, ed è sempre più <strong>di</strong>spersa e sempre più simmetrica per n<br />

grande.<br />

86


Dalla definizione <strong>di</strong> χ2 n segue imme<strong>di</strong>atamente che, se (X1, X2, . . . , Xn) è un campione<br />

casuale estratto da una popolazione <strong>di</strong>stribuita normalmente con me<strong>di</strong>a µ e varianza σ2 ,<br />

allora la variabile aleatoria<br />

Z 2 n <br />

Xi ¡ µ<br />

2 =<br />

σ<br />

i=1<br />

segue una <strong>di</strong>stribuzione χ 2 n. Si può poi <strong>di</strong>mostrare che la varianza campionaria S 2 è<br />

proporzionale ad una <strong>di</strong>stribuzione chi-quadro con n-1 gra<strong>di</strong> <strong>di</strong> libertà. Più precisamente<br />

si ha<br />

n ¡ 1<br />

σ 2 S2 ' χ 2 n−1 .<br />

Definizione Se Z è una variabile aleatoria normale standar<strong>di</strong>zzata e χ 2 n è una<br />

variabile aleatoria chi-quadro con n gra<strong>di</strong> <strong>di</strong> libertà, se Z e χ 2 n sono in<strong>di</strong>pendenti,<br />

allora la variabile aleatoria<br />

Z<br />

Tn = <br />

χ2 n/n<br />

segue una <strong>di</strong>stribuzione t <strong>di</strong> Student con n gra<strong>di</strong> <strong>di</strong> libertà.<br />

Come per la funzione densità della χ 2 n , anche nel caso <strong>di</strong> Tn non riportiamo esplicitamente<br />

la funzione densità, limitandoci a mostrarne i grafici per n = 1, 6, 20, 120. È<br />

importante osservare come per n grande la <strong>di</strong>stribuzione <strong>di</strong> Student tenda alla normale<br />

standar<strong>di</strong>zzata. Già a partire da n = 30 i valori <strong>di</strong> Tn sono ben approssimati da<br />

quelli <strong>di</strong> N(0, 1).<br />

Alla fine sono riportate due tavole delle <strong>di</strong>stribuzioni χ 2 n e Tn con i valori più significativi<br />

ai fini delle applicazioni. In analogia con una terminologia già introdotta per<br />

la <strong>di</strong>stribuzione N(0, 1), le soluzioni xα e tα delle equazioni<br />

P χ2 <br />

n · xα =α e P Tn · tα =α<br />

saranno chiamate quantili relativi ad α (rispettivamente della <strong>di</strong>stribuzione χ2 n e della<br />

<strong>di</strong>stribuzione <strong>di</strong> Student Tn). Nel seguito, per brevità, scriveremo le due equazioni<br />

precedenti utilizzando i simboli χ2 n e Tn per in<strong>di</strong>care le funzioni <strong>di</strong>stribuzione anzichè<br />

le variabili casuali. Si scriverà quin<strong>di</strong><br />

χ 2 n (xα)=α e Tn(tα)=α .<br />

87


3.4 INTERVALLI DI FIDUCIA (o CONFIDENZA)<br />

Come abbiamo già detto, uno stimatore è una variabile aleatoria che serve per stimare<br />

un parametro incognito θ della nostra popolazione. Ovviamente i parametri che ci<br />

interessa maggiormente stimare sono la me<strong>di</strong>a µ e la varianza σ 2 . In questo ambito <strong>di</strong><br />

problemi, un esempio <strong>di</strong> domanda molto comune è la seguente: dato un campione,<br />

quale intervallo del tipo (x ¡ δ, x + δ) conterrà la me<strong>di</strong>a incognita µ con probabilità<br />

del 95% ? oppure del 99% ? Di qui nasce la definizione che segue.<br />

Definizione Si definisce intervallo <strong>di</strong> fiducia (o confidenza) <strong>di</strong> livello 100(1¡α)%<br />

per il parametro θ un intervallo (θ1, θ2) tale che<br />

P (θ1 · θ · θ2) = 1 ¡ α ,<br />

con θ1 = f1(X1, X2, . . . , Xn) e θ2 = f2(X1, X2, . . . , Xn) variabili aleatorie funzione<br />

del campione casuale.<br />

In genere interessano piccoli valori <strong>di</strong> α; tipicamente α = 0.05 oppure α = 0.01. Il<br />

livello <strong>di</strong> fiducia nei due casi è quin<strong>di</strong> il 95% per α=0.05, il 99% per α=0.01.<br />

Se P (θθ2) = α<br />

2 , l’intervallo <strong>di</strong> fiducia è detto bilaterale simmetrico<br />

(omettendo però spesso l’attributo simmetrico). Se poi si ha P (θ > θ2) = α oppure<br />

P (θ


Inoltre, si può <strong>di</strong>mostrare che, essendo la popolazione <strong>di</strong>stribuita normalmente, anche<br />

X è normale. Di conseguenza la variabile casuale<br />

Z =<br />

X ¡ µ<br />

σ/ p n<br />

segue la <strong>di</strong>stribuzione normale standar<strong>di</strong>zzata, le cui probabilità possono essere desunte<br />

dalle tabelle statistiche della densità normale Φ(x). Diamo innanzitutto la stima<br />

per intervalli bilaterali (simmetrici). A tal fine an<strong>di</strong>amo a determinare il quantile superiore<br />

u α , cioè la soluzione dell’equazione<br />

2<br />

Φ(u) = 1 ¡ α<br />

2 ,<br />

ed essendo Φ(¡u α<br />

2 ) = 1 ¡ Φ(u α<br />

α ) = 2 2 , l’intervallo ¡u α<br />

2 , u <br />

α è tale che<br />

2<br />

<br />

<br />

P<br />

= P<br />

= 1 ¡ α .<br />

<br />

¡u α<br />

2 · Z · u α<br />

2<br />

<br />

X ¡ σ p u α<br />

2 n · µ · X + σ p u α<br />

2 n<br />

Di conseguenza l’intervallo bilaterale<br />

<br />

X ¡ σ p n u α 2 , X + σ p n u α 2<br />

che è aleatorio in quanto è tale il suo punto centrale X, contiene con probabilità 1¡α<br />

il valore vero µ. Eseguito l’esperimento, l’intervallo osservato si ottiene dall’intervallo<br />

aleatorio sostituendo alla me<strong>di</strong>a campionaria X la me<strong>di</strong>a aritmetica x dei valori osservati<br />

negli n esperimenti. Useremo quin<strong>di</strong> l’intervallo osservato per dare una stima <strong>di</strong> µ<br />

<strong>di</strong> livello <strong>di</strong> fiducia 1¡α:<br />

µ 2<br />

<br />

x ¡ σ<br />

p u α<br />

n<br />

2<br />

<br />

,<br />

, x + σ<br />

p n u α<br />

2<br />

Osserviamo che, se cresce il numero n degli esperimenti, l’ampiezza dell’intervallo<br />

<strong>di</strong>minuisce, e dunque la stima si fa più informativa: fare esperimenti è costoso, ma poi<br />

“ripaga”. Tuttavia, osserviamo anche che, poiché l’ampiezza dell’intervallo <strong>di</strong>minuisce<br />

in modo inversamente proporzionale a p n, il vantaggio che si ottiene aggiungendo via<br />

via nuovi dati <strong>di</strong>venta gradualmente sempre meno significativo. D’altra parte, se<br />

aumenta il grado <strong>di</strong> fiducia, <strong>di</strong>minuisce α e il quantile u cresce; <strong>di</strong> conseguenza cresce<br />

l’ampiezza dell’intervallo e quin<strong>di</strong> la stima <strong>di</strong>venta meno informativa.<br />

89<br />

<br />

.


Diamo ora anche le due stime per intervalli unilaterali. Per ottenerla si deve risolvere<br />

l’equazione Φ(u) = 1¡α ,<br />

<br />

determinando così il quantile uα tale che<br />

<br />

P Z ·uα = P Z ¸¡uα = 1 ¡ α ,<br />

o, equivalentente,<br />

P<br />

<br />

µ ¸ X¡ σ<br />

<br />

p uα = P µ · X+<br />

n σ <br />

p uα = 1 ¡ α .<br />

n<br />

Gli intervallo aleatori, rispettivamente destro e sinistro,<br />

<br />

X¡ σ<br />

<br />

p uα , +1 e ¡1 , X+<br />

n σ <br />

p uα<br />

n<br />

contengono la me<strong>di</strong>a µ con probabilità 1¡α, e quin<strong>di</strong> rappresentano la stima cercata<br />

<strong>di</strong> µ me<strong>di</strong>ante intervalli unilaterali al livello <strong>di</strong> fiducia 1¡α. Naturalmente, una volta<br />

eseguito l’esperimento, tali intervalli saranno approssimati con<br />

<br />

x¡ σ<br />

<br />

p uα , +1 e ¡1 , x+<br />

n σ<br />

<br />

p uα<br />

n<br />

Esempio 3.5.1 Per determinare la durata del cambio <strong>di</strong> un’auto vengono scelti casualmente<br />

200 cambi dalla produzione, che supponiamo <strong>di</strong>stribuita normalmente con scarto tipo uguale<br />

a 4000 km. Essi vengono testati finché presentano un <strong>di</strong>fetto serio. Se la durata me<strong>di</strong>a<br />

dei 200 cambi sottoposti a test è 50000 km, quali sono gli intervalli <strong>di</strong> fiducia bilaterali e<br />

unilaterali sinistri della durata me<strong>di</strong>a dell’intera produzione al 95%, al 97.5% e al 99% ?<br />

I dati sono: n = 200 , x = 50000 , σ = 4000 . Osservato che i livelli <strong>di</strong> fiducia richiesti<br />

corrispondono nell’or<strong>di</strong>ne ad α=0.05, 0.025 e 0.01, in<strong>di</strong>cando con u α 2 il valore per cui<br />

abbiamo<br />

α<br />

Φ(u α ) = 1 ¡ 2 2 ,<br />

Φ(u0.0250) = 0.9750 =) u0.0250 ' 1.96 ,<br />

Φ(u0.0125) = 0.9875 =) u0.0125 ' 2.24 ,<br />

Φ(u0.0050) = 0.9950 =) u0.0050 ' 2.57 .<br />

<br />

Gli intervalli <strong>di</strong> fiducia bilaterali <strong>di</strong> livello 1¡α, sono dati da<br />

Essendo σ/ p n ¼ 282.84, si ha<br />

x¡ σ<br />

p n u α 2 , x+ σ<br />

p n u α 2<br />

α = 0.050 =) µ 2 [50000 ¡ 555, 50000 + 555] = [49445, 50555]<br />

α = 0.025 =) µ 2 [50000 ¡ 634, 50000 + 634] = [49366, 50634]<br />

α = 0.010 =) µ 2 [50000 ¡ 727, 50000 + 727] = [49273, 50727] .<br />

Per quanto riguarda invece i corrispondenti intervalli unilaterali sinistri, procedendo analogamente,<br />

e mettendo 0 anziché ¡1 come estremo sinistro degli intervalli (si tratta della<br />

durata <strong>di</strong> un cambio, che ovviamente non può essere negativa), si ottiene<br />

α = 0.050 =) µ 2 (0 , 50000 + 464] = (0 , 50464]<br />

α = 0.025 =) µ 2 (0 , 50000 + 555] = (0 , 50555]<br />

α = 0.010 =) µ 2 (0 , 50000 + 659] = (0 , 50659] .<br />

I tre casi considerati evidenziano come all’aumentare del livello <strong>di</strong> fiducia, cioè alla richiesta<br />

<strong>di</strong> maggior atten<strong>di</strong>bilità della stima, aumenti l’ampiezza dell’intervallo.<br />

90<br />

<br />

.


) caso <strong>di</strong> varianza incognita<br />

Supponiamo ora, come <strong>di</strong> norma accade nella pratica, che la varianza σ 2 non sia nota.<br />

In tal caso si procede come nel caso precedente sostituendo a σ 2 lo stimatore corretto<br />

della varianza campionaria<br />

S 2 = 1<br />

n ¡ 1<br />

n <br />

Xi ¡ X) 2 ,<br />

i=1<br />

X ¡ µ<br />

e sostituendo poi alla variabile casuale Z la variabile<br />

S/ p , che si <strong>di</strong>mostra essere<br />

n<br />

una variabile <strong>di</strong> Student con n¡1 gra<strong>di</strong> <strong>di</strong> libertà. Posto quin<strong>di</strong><br />

Tn−1 =<br />

X ¡ µ<br />

S/ p n ,<br />

in<strong>di</strong>cato con t α 2 il quantile superiore fornito dalla soluzione dell’equazione<br />

P (Tn−1 · t) = 1 ¡ α<br />

2 ,<br />

o, equivalentemente, considerata la simmetria della <strong>di</strong>stribuzione <strong>di</strong> Student, il quantile<br />

t α<br />

, si ha<br />

2 per cui P (Tn−1 · ¡t) = α<br />

Di conseguenza l’intervallo aleatorio<br />

2<br />

<br />

P X ¡ S p t α<br />

2 n · µ · X + S p t α<br />

2 n<br />

<br />

X ¡ S p t α<br />

2 n , X + S p t α<br />

2 n<br />

<br />

= 1 ¡ α .<br />

conterrà con probabilità 1¡α la me<strong>di</strong>a vera µ. Utilizzandone il valore osservato daremo<br />

una stima <strong>di</strong> µ <strong>di</strong> livello <strong>di</strong> fiducia 1¡α:<br />

µ 2<br />

<br />

<br />

,<br />

x ¡ ˆσ<br />

p t α<br />

2 n , x + ˆσ p t α<br />

2 n<br />

dove ˆσ è il valore <strong>di</strong> S ottenuto dagli n esperimenti.<br />

Osservazione 1: la non conoscenza della varianza della popolazione fa si che l’ampiezza<br />

dell’intervallo <strong>di</strong> fiducia per piccole <strong>di</strong>mensioni del campione (<strong>di</strong>ciamo n ¿ 30)<br />

risulti assai più ampia <strong>di</strong> quella che si avrebbe se σ 2 fosse nota.<br />

Osservazione 2: ai fini del calcolo <strong>di</strong> un intervallo <strong>di</strong> fiducia per la me<strong>di</strong>a quando<br />

la varianza non è nota, è sufficiente che del campione siano note la <strong>di</strong>mensione n, la<br />

me<strong>di</strong>a campionaria x e la varianza campionaria ˆσ 2 (in altre parole non è necessario<br />

conoscere uno per uno gli n dati xi).<br />

Esempio 3.5.2 Durante 8 prove su strada un prototipo <strong>di</strong> furgone ha consumato rispettivamente<br />

14,12,11,13,15,12,16,13 litri <strong>di</strong> gasolio per 100 km <strong>di</strong> percorrenza. Supponendo che<br />

la <strong>di</strong>stribuzione dei consumi segua approssimativamente la <strong>di</strong>stribuzione normale, costruire<br />

gli intervalli <strong>di</strong> fiducia al 95% e al 99% della me<strong>di</strong>a vera del consumo <strong>di</strong> quel prototipo.<br />

91<br />

<br />

,


Calcoliamo la me<strong>di</strong>a e la varianza campionaria:<br />

x = 1<br />

n<br />

xi =<br />

n<br />

i=1<br />

106<br />

= 13.25 ;<br />

8<br />

ˆσ 2 = 1<br />

n<br />

(xi ¡ x)<br />

n ¡ 1<br />

2 = 19.5<br />

7 ¼ 2.79 =) ˆσ = p 2.79 ¼ 1.67 .<br />

i=1<br />

Come abbiamo appena visto, in<strong>di</strong>cato con t α<br />

1 ¡ α<br />

, l’intervallo <strong>di</strong> fiducia <strong>di</strong> livello 1¡α è il seguente:<br />

2<br />

<br />

2 il quantile per cui si ha P (Tn−1 · t α<br />

2<br />

x ¡ ˆσ<br />

p t α<br />

2 n , x + ˆσ p t α<br />

2 n<br />

Dalle tavole della <strong>di</strong>stribuzione <strong>di</strong> Student (con 7 gra<strong>di</strong> <strong>di</strong> libertà) si ottiene:<br />

T7(t0.025) = 0.975 =) t0.025 ' 2.365 =) µ 2 [11.85, 14.65] ,<br />

T7(t0.005) = 0.995 =) t0.005 ' 3.499 =) µ 2 [11.18, 15.32] .<br />

Esempio 3.5.3 Ripetere i calcoli dell’esercizio precedente con il campione che si ottiene aggiungendo<br />

ai dati precedenti i seguenti consumi ottenuti con 12 prove aggiuntive: 15,14,12,13,<br />

11,16,14,15,12,14,12,13.<br />

Calcoliamo la me<strong>di</strong>a e la varianza con il campione (ora <strong>di</strong> <strong>di</strong>mensione n=20) ottenuto con<br />

l’aggiunta dei nuovi dati.<br />

Si ha quin<strong>di</strong><br />

x = 1<br />

<br />

106 +<br />

20<br />

ˆσ 2 = 1<br />

19<br />

20<br />

i=1<br />

20<br />

xi<br />

i=9<br />

<br />

= 106 + 161<br />

20<br />

= 13.35 ;<br />

(xi ¡ x) 2 = 44.55<br />

19 ¼ 2.35 =) ˆσ = p 2.35 ¼ 1.53 .<br />

T19(t0.025) = 0.975 =) t0.025 ' 2.093 =) µ 2 [12.63, 14.07] ,<br />

T19(t0.005) = 0.995 =) t0.005 ' 2.861 =) µ 2 [12.37, 14.33] .<br />

Confrontando queste stime con quelle dell’esempio precedente si può osservare come, quando<br />

la <strong>di</strong>mensione del campione è piccola, aumentandola le stime <strong>di</strong>ventino molto migliori.<br />

3.6 STIMA DELLA VARIANZA DI UNA POPOLAZIONE NORMALE<br />

Affrontiamo ora il problema <strong>di</strong> fornire una stima della varianza <strong>di</strong> una popolazione<br />

avente in prima approssimazione una <strong>di</strong>stribuzione normale. Lo faremo utilizzando<br />

gli intervalli <strong>di</strong> fiducia e, come nel caso della me<strong>di</strong>a, le stime che otterremo saranno<br />

rigorose nel caso <strong>di</strong> una popolazione esattamente normale.<br />

92<br />

<br />

.<br />

) =


Consideriamo dunque un campione (X1, X2, . . . , Xn) estratto da una popolazione normale<br />

avente me<strong>di</strong>a µ e varianza σ2 . Abbiamo già detto che la variabile aleatoria<br />

n ¡ 1<br />

V =<br />

σ2 S2 n <br />

Xi ¡ X<br />

2 =<br />

σ<br />

i=1<br />

segue una <strong>di</strong>stribuzione χ2 n−1. In<strong>di</strong>cato con x1 il valore per cui l’area alla sua sinistra<br />

sottesa dalla curva <strong>di</strong> densità <strong>di</strong> probabilità χ2 α<br />

n−1 vale 2 e con x2 il valore per cui<br />

pure l’area alla destra vale α<br />

2 (ve<strong>di</strong> figura), si ha<br />

<br />

<br />

P x1 · V · x2 = 1 ¡ α .<br />

Sostituendo V con la sua espressione si ottiene<br />

<br />

n ¡ 1<br />

P x1 ·<br />

σ 2 S2 · x2<br />

<br />

= 1 ¡ α ,<br />

da cui, con alcuni passaggi algebrici,<br />

2 (n ¡ 1)S<br />

P<br />

· σ2 (n ¡<br />

<br />

1)S2<br />

· = 1 ¡ α .<br />

x2<br />

Possiano dunque affermare che, a livello <strong>di</strong> fiducia 1¡α, l’intervallo<br />

2 (n ¡ 1)ˆσ<br />

, (n ¡ 1)ˆσ2<br />

x2<br />

x1<br />

contiene la varianza vera σ2 della popolazione. Ricor<strong>di</strong>amo che ˆσ 2 denota la varianza<br />

campionaria osservata e, per quanto precedentemante detto, x1 e x2 sono le soluzioni<br />

delle equazioni<br />

χ2 n−1(x1)= α<br />

2 , χ2n−1(x2)=1 ¡ α<br />

2 .<br />

Osservazione 1: essendo x1 e x2 rispettivamente a denominatore del secondo estremo<br />

e del primo estremo dell’intervallo <strong>di</strong> fiducia cercato, x1 va calcolato per <strong>di</strong>fetto e<br />

x2 per eccesso.<br />

Osservazione 2: ai fini del calcolo <strong>di</strong> un intervallo <strong>di</strong> fiducia per la varianza, del<br />

campione è sufficiente conoscere la <strong>di</strong>mensione n e la varianza campionaria ˆσ 2 (e<br />

quin<strong>di</strong> non è essenziale conoscere la me<strong>di</strong>a campionaria e tantomeno gli n dati xi).<br />

Osservazione 3: se la me<strong>di</strong>a µ della popolazione fosse nota, allora si può sostituire<br />

X con µ, avendo così a che fare con la variabile casuale<br />

93<br />

x1


V =<br />

n <br />

Xi ¡ µ<br />

2 ,<br />

σ<br />

i=1<br />

che segue la <strong>di</strong>stribuzione χ2 con n (anzichè n¡1) gra<strong>di</strong> <strong>di</strong> libertà. In questo caso,<br />

in<strong>di</strong>cati con x1 e x2 le soluzioni delle equazioni<br />

χ2 α<br />

n (x1)=<br />

2 , χ2n (x2)=1 ¡ α<br />

2 ,<br />

e con ˆs 2 il valore osservato della somma <br />

i (Xi ¡ µ) 2 , l’intervallo <strong>di</strong> fiducia per σ2 al<br />

livello considerato sarebbe<br />

ˆs 2<br />

x2<br />

, ˆs2<br />

<br />

.<br />

x1<br />

Esempio 3.6.1 Un campione <strong>di</strong> <strong>di</strong>mensione 7 <strong>di</strong> una popolazione normale ha varianza<br />

campionaria ˆσ 2 =0.098. Si chiede <strong>di</strong> calcolarne gli intervalli <strong>di</strong> fiducia ai livelli 90% e 95%.<br />

Supposto poi che gli stessi dati si riferiscano ad un campione <strong>di</strong> <strong>di</strong>mensione 36, si chiede <strong>di</strong><br />

calcolarne anche in questo caso gli intervalli <strong>di</strong> fiducia suddetti.<br />

Per n=7, per α=0.10 ed α=0.05 abbiamo:<br />

χ 2 6(x1) = P χ 2 <br />

6 · x1 = 0.050 =) x1 ¼ 1.63 ,<br />

χ 2 6 (x2) = P χ 2 <br />

6 · x2 = 0.950 =) x2 ¼ 12.60 ;<br />

χ 2 6 (x1) = P χ 2 <br />

6 · x1 = 0.025 =) x1 ¼ 1.23 ,<br />

χ 2 6(x2) = P χ 2 <br />

6 · x2 = 0.975 =) x2 ¼ 14.45 .<br />

Di conseguenza, gli intervalli <strong>di</strong> fiducia richiesti sono:<br />

α = 0.10 =)<br />

α = 0.05 =)<br />

<br />

6 ¢ 0.098 6 ¢ 0.098<br />

<br />

,<br />

12.6 1.63<br />

<br />

6 ¢ 0.098 6 ¢ 0.098<br />

<br />

,<br />

14.45 1.23<br />

¼ [0.046, 0.361] ;<br />

¼ [0.040, 0.479] .<br />

Per n=36 si ha:<br />

χ 2 35 (x1) = P χ 2 <br />

35 · x1 = 0.050<br />

χ<br />

=) x1 ¼ 22.46 ,<br />

2 35 (x2) = P χ 2 <br />

35 · x2 = 0.950<br />

χ<br />

=) x2 ¼ 49.81 ;<br />

2 35(x1) = P χ 2 <br />

35 · x1 = 0.025<br />

χ<br />

=) x1 ¼ 20.56 ,<br />

2 35(x2) = P χ 2 <br />

35 · x2 = 0.975 =) x2 ¼ 53.21 .<br />

In questo secondo caso gli intervalli <strong>di</strong> fiducia richiesti sono dunque i seguenti:<br />

α = 0.10 =)<br />

α = 0.05 =)<br />

<br />

35 ¢ 0.098 35 ¢ 0.098<br />

<br />

,<br />

49.81 22.46<br />

<br />

35 ¢ 0.098 35 ¢ 0.098<br />

<br />

,<br />

53.21 20.56<br />

94<br />

¼ [0.068, 0.153] ;<br />

¼ [0.064, 0.167] .


3.7 STIMA DELLA DIFFERENZA DELLE MEDIE<br />

DI DUE POPOLAZIONI NORMALI<br />

Un problema che si pone spesso nella realtà industriale, ma non solo, è quello <strong>di</strong><br />

confrontare le me<strong>di</strong>e <strong>di</strong> due popolazioni, <strong>di</strong> solito per poter fare delle affermazioni con<br />

un certo grado <strong>di</strong> fiducia sulla loro <strong>di</strong>fferenza. L’obiettivo è una mo<strong>di</strong>fica del processo<br />

produttivo al fine <strong>di</strong> migliorare il valore me<strong>di</strong>o <strong>di</strong> una catteristica del prodotto.<br />

Consideriamo dunque due campioni casuali (X1, X2, . . . , Xn) e (Y1, Y2, . . . , Ym), che<br />

supporremo in<strong>di</strong>pendenti, <strong>di</strong> <strong>di</strong>mensioni n ed m rispettivamente, estratti da due popolazioni<br />

con me<strong>di</strong>a µ1 e varianza σ2 1 la prima, me<strong>di</strong>a µ2 e varianza σ2 2 la seconda. Il<br />

miglior estimatore per la <strong>di</strong>fferenza delle me<strong>di</strong>e µ1¡µ2 è il seguente:<br />

X ¡ Y = 1<br />

n<br />

Xi ¡<br />

n<br />

1<br />

m<br />

Yi .<br />

m<br />

i=1<br />

Supposto che le due popolazioni abbiano una <strong>di</strong>stribuzione normale, daremo una stima <strong>di</strong><br />

µ1¡µ2 nei seguenti casi:<br />

sono note;<br />

a) σ 2 1 e σ2 2<br />

i=1<br />

b) σ2 1 e σ2 2 non sono note, ma sono uguali;<br />

c) σ2 1 e σ2 2 non sono note e non sono uguali.<br />

a) Le varianze σ 2 1 e σ 2 2 sono note<br />

Essendo i due campioni in<strong>di</strong>pendenti, la varianza <strong>di</strong> X¡Y è data da<br />

σ 2 ∆<br />

= σ2<br />

X−Y<br />

e la variabile casuale Z così definita<br />

= σ2 + σ2<br />

X Y = σ2 1<br />

n + σ2 2<br />

m ,<br />

Z = (X ¡ Y ) ¡ (µ1 ¡ µ2)<br />

σ∆<br />

è <strong>di</strong>stribuita normalmente con me<strong>di</strong>a 0 e varianza 1. Riprendendo ora il quantile<br />

, si può scrivere<br />

superiore u α<br />

2<br />

<br />

P ¡u α < Z < u α<br />

2 2<br />

o, equivalentemente,<br />

P<br />

<br />

<br />

= P ¡u α < 2 (X ¡ Y ) ¡ (µ1 ¡ µ2)<br />

<br />

< u α = 1 ¡ α ,<br />

2<br />

σ∆<br />

<br />

(X ¡ Y ) ¡ σ∆ u α<br />

2 < µ1 ¡ µ2 < (X ¡ Y ) + σ∆ u α<br />

2<br />

<br />

= 1 ¡ α .<br />

Esplicitato il valore <strong>di</strong> σ∆, l’intervallo bilaterale che contiene µ1¡µ2 con probabilità<br />

1¡α quando le varianze σ2 1 e σ2 2 sono note, è dunque il seguente:<br />

·<br />

<br />

2 σ1 (X ¡ Y ) ¡ u α<br />

2 n + σ2 2<br />

m , (X ¡ Y ) + u <br />

2 σ1 α<br />

2 n + σ2 <br />

2<br />

.<br />

m<br />

Eseguito l’esperimento, sostituendo i valori misurati x e y al posto delle corrispondenti<br />

variabili casuali X e Y , si ottiene una stima per µ1¡µ2 al livello <strong>di</strong> fiducia 100(1¡α)%.<br />

95


Esercizio 3.7.1 Due <strong>di</strong>versi tipi <strong>di</strong> guaine isolanti per cavi elettrici vengono testati per determinare<br />

a che voltaggio cominciano a rovinarsi. Sottoponendo gli esemplari a livelli crescenti<br />

<strong>di</strong> tensione si registrano i guasti alle tensioni seguenti:<br />

Tipo X 36 44 41 53 38 36 34 54 52 37 51 44 35 44<br />

Tipo Y 52 64 38 68 66 52 60 44 48 46 70 62<br />

Supponiamo <strong>di</strong> sapere che il voltaggio tollerato dai cavi abbia <strong>di</strong>stribuzione normale: con<br />

me<strong>di</strong>a incognita µ1 e varianza σ2 1 =40 per il tipo X, me<strong>di</strong>a µ2 e varianza σ2 2 =100 per il tipo<br />

Y. Si chiede <strong>di</strong> determinare: i) un intervallo bilaterale con il 95% <strong>di</strong> confidenza per µ1 ¡ µ2;<br />

ii) un valore che permetta <strong>di</strong> affermare che µ1 ¡ µ2 gli è superiore con il 95% <strong>di</strong> confidenza.<br />

i) Calcoliamo innanzitutto le me<strong>di</strong>e x e y dei due campioni, che hanno <strong>di</strong>mensione rispettivamente<br />

n=14 e m=12. Si ha<br />

x = 1 12<br />

xk ¼ 42.78<br />

12<br />

y = 1<br />

14<br />

yk ¼ 55.83<br />

14<br />

k=1<br />

Come abbiamo appena visto dalla teoria, la stima <strong>di</strong> un intervallo <strong>di</strong> fiducia bilaterale al<br />

livello 1¡α è la seguente:<br />

k=1<br />

·<br />

<br />

2 σ1 (x ¡ y) ¡ u α<br />

2 n + σ2 2<br />

m , (x ¡ y) + u <br />

2 σ1 α<br />

2 n + σ2 2<br />

m<br />

Essendo α = 0.005, si ha u α<br />

2 = u0.025 ¼ 1.96 (come già visto nell’esercizio 3.5.1). L’intervallo<br />

<strong>di</strong> fiducia richiesto risulta dunque così stimato:<br />

¡13.05 ¡ 1.96 ¢ p 11.191 , ¡13.05 + 1.96 ¢ p 11.191 ¼ [¡19.61, ¡6.49] .<br />

ii) La domanda è equivalente alla richiesta <strong>di</strong> determinare l’intervallo destro al livello <strong>di</strong><br />

fiducia 95%. Per quanto detto nel x 3.5, la stima <strong>di</strong> tale intervallo sarà data da<br />

<br />

<br />

2 σ1 (x ¡ y) ¡ uα<br />

n + σ2 <br />

2<br />

, +1 .<br />

m<br />

Essendo u0.05 ¼ 1.645 si ottiene<br />

¡13.05 ¡ 1.65 ¢ p 11.191 , +1 ¼ [¡18.53 , +1) .<br />

b) Le varianze σ 2 1 e σ 2 2 non sono note, ma possono ritenersi uguali<br />

Posto σ2 =σ 2 1 =σ2 2, il problema è innanzitutto quello <strong>di</strong> ottenere una stima per σ2 . I<br />

due stimatori corretti per σ2 1 e σ2 2 sono rispettivamente<br />

S 2 1<br />

= 1<br />

n ¡ 1<br />

n<br />

(Xi ¡ X) 2 , S 2 2<br />

i=1<br />

Per un teorema enunciato in precedenza sappiamo che<br />

n ¡ 1<br />

σ 2 S2 1 » χ 2 n−1 e<br />

96<br />

= 1<br />

m ¡ 1<br />

<br />

.<br />

m<br />

(Yi ¡ Y ) 2 .<br />

i=1<br />

m ¡ 1<br />

σ 2 S2 2 » χ 2 m−1 .


Inoltre, essendo le due <strong>di</strong>stribuzioni in<strong>di</strong>pendenti, anche le due chi-quadro ora scritte<br />

lo sono. Di conseguenza pure la loro somma ha una <strong>di</strong>stribuzione <strong>di</strong> tipo chi-quadro,<br />

con un numero <strong>di</strong> gra<strong>di</strong> <strong>di</strong> libertà uguale alla somma <strong>di</strong> quelli delle due <strong>di</strong>stribuzioni<br />

<strong>di</strong> partenza. Si ha cioè<br />

n ¡ 1<br />

σ2 S2 m ¡ 1<br />

1 +<br />

σ2 S2 2 » χ 2 n+m−2 .<br />

Ciò premesso, una migliore stima per σ2 è data dalla seguente ”pooled variance”<br />

(varianza ponderata):<br />

Essendo poi<br />

S 2 p = (n ¡ 1)S2 1 + (m ¡ 1)S 2 2<br />

n + m ¡ 2<br />

σ 2 ∆<br />

= n ¡ 1<br />

n + m ¡ 2 S2 m ¡ 1<br />

1 +<br />

n + m ¡ 2 S2 2 .<br />

= σ2<br />

X−Y = σ2 1<br />

n + σ2 2<br />

m =<br />

<br />

1 1<br />

<br />

+ σ<br />

n m<br />

2 ,<br />

la miglior stima per σ2 ∆ è rappresentata da<br />

S2 ∆ =<br />

<br />

1 1<br />

<br />

+ S<br />

n m<br />

2 p .<br />

Ne consegue che la variabile casuale<br />

T = (X ¡ Y ) ¡ (µ1 ¡ µ2)<br />

<br />

1 1<br />

+<br />

n m Sp<br />

segue una <strong>di</strong>stribuzione <strong>di</strong> Student con n + m ¡ 2 gra<strong>di</strong> <strong>di</strong> libertà. In<strong>di</strong>cando ora con<br />

t α<br />

2<br />

si ha<br />

il quantile superiore fornito dalla soluzione dell’equazione<br />

P (Tn+m−2 · t) = 1 ¡ α<br />

2 ,<br />

<br />

¡t α 2 · (X ¡ Y ) ¡ (µ1 ¡ µ2)<br />

1<br />

P<br />

1<br />

+<br />

n m Sp<br />

· t α<br />

2 ,<br />

e quin<strong>di</strong>, operando con semplici passaggi algebrici, si ottiene<br />

<br />

= 1 ¡ α .<br />

P (X ¡ Y ) ¡ t α 2 S∆ · µ1 ¡ µ2 · (X ¡ Y ) + t α 2 S∆<br />

Pertanto l’intervallo <strong>di</strong> fiducia all’(1 ¡ α)% per la <strong>di</strong>fferenza delle me<strong>di</strong>e delle due<br />

popolazioni è <br />

(X ¡ Y ) ¡ t α<br />

2 S∆ , (X ¡ Y ) + t α<br />

2 S∆<br />

<br />

.<br />

Effettuato l’esperimento, la stima ottenuta per questo intervallo sarà quin<strong>di</strong><br />

<br />

(x ¡ y) ¡ t α ˆσ∆ , (x ¡ y) + t α ˆσ∆ ,<br />

2 2<br />

con ˆσ∆ dato, in virtù delle precedenti posizioni, da<br />

<br />

<br />

1 1<br />

2 (n ¡ 1)ˆσ 1 + (m ¡ 1)ˆσ<br />

ˆσ∆ = +<br />

n m<br />

2 2<br />

=<br />

n + m ¡ 2<br />

<br />

<br />

1 1<br />

<br />

= +<br />

n m<br />

n i=1 (xi ¡ x) 2 + m i=1 (yi ¡ y) 2<br />

n + m ¡ 2<br />

97<br />

<br />

.


Osservazione. Spesso ci si trova nella situazione in cui la numerosità <strong>di</strong> un campione<br />

è molto maggiore dell’altro. In tal caso, supposto n À m, conviene stimare la varianza<br />

incognita con l’estimatore<br />

T = (X ¡ Y ) ¡ (µ1 ¡ µ2)<br />

.<br />

S1<br />

p<br />

m<br />

Essendo poi n molto grande, è lecito supporre n + m ¡ 2 > 30 , il che permette <strong>di</strong><br />

approssimare la <strong>di</strong>stribuzione <strong>di</strong> Student con la <strong>di</strong>stribuzione normale standar<strong>di</strong>zzata.<br />

. L’intervallo <strong>di</strong> fiducia precedentemente<br />

È quin<strong>di</strong> lecito utilizzare u α 2 anzichè t α<br />

2<br />

trovato <strong>di</strong>venta quin<strong>di</strong><br />

<br />

(X ¡ Y ) ¡ u α<br />

2<br />

che sarà poi stimato con<br />

<br />

(x ¡ y) ¡ u α<br />

2<br />

S1<br />

p m , (X ¡ Y ) + u α<br />

2<br />

ˆσ1<br />

p m , (x ¡ y) + u α<br />

2<br />

<br />

S1<br />

p ,<br />

m<br />

<br />

ˆσ1<br />

p .<br />

m<br />

Esercizio 3.7.2 Un produttore <strong>di</strong> batterie <strong>di</strong>spone <strong>di</strong> due tecniche <strong>di</strong> fabbricazione <strong>di</strong>fferenti.<br />

Due gruppi <strong>di</strong> batterie scelti a caso, 12 prodotte con la tecnica I e 14 con la tecnica II, sono<br />

risultate avere le seguenti capacità (in ampere-ora):<br />

<br />

Tecnica I 140 136 138 150 152 144 132 142 150 154 136 142<br />

Tecnica II 144 132 136 140 128 150 130 134 130 146 128 131 137 135<br />

Ipotizzando che le varianze delle due popolazioni siano uguali, si chiede <strong>di</strong> determinare: i)<br />

un intervallo <strong>di</strong> confidenza al 90%, bilaterale, per la <strong>di</strong>fferenza delle me<strong>di</strong>e; ii) un intervallo<br />

unilaterale sinistro per µ1¡µ2 al livello <strong>di</strong> confidenza 95%.<br />

i) In<strong>di</strong>cato con (X1, X2, . . . , X12) il campione relativo alla tecnica I, e con (Y1, Y2, . . . , Y14)<br />

quello relativo alla tecnica II, per cui n=12 e m=14, calcoliamo le loro me<strong>di</strong>e misurate x<br />

e y. Si ha<br />

x = 1<br />

14<br />

14<br />

k=1<br />

xk = 143 y = 1<br />

12<br />

12<br />

k=1<br />

yk ¼ 135.786<br />

Come abbiamo appena visto dalla teoria, la stima dell’intervallo bilaterale al livello <strong>di</strong> fiducia<br />

1¡α è la seguente:<br />

<br />

(x ¡ y) ¡ t α ˆσ∆ , (x ¡ y) + t α ˆσ∆ ,<br />

2 2<br />

Dovendo calcolare ˆσ∆ occorre prima calcolare la somma degli scarti quadratici. Si ha:<br />

Si ha quin<strong>di</strong><br />

ˆσ∆ =<br />

12<br />

i=1<br />

(xi ¡ x) 2 = 556 ;<br />

14<br />

i=1<br />

<br />

<br />

1 1<br />

<br />

+<br />

12 14<br />

12 i=1 (xi ¡ x) 2 + 14 i=1 (yi ¡ y) 2<br />

24<br />

98<br />

(yi ¡ y) 2 = 622.357 .<br />

¼<br />

<br />

0.1548<br />

556 + 622.36<br />

24<br />

¼ 2.757 .


Essendo α = 0.10 ed avendo a che fare con la <strong>di</strong>stribuzione <strong>di</strong> Student a 24 gra<strong>di</strong> <strong>di</strong> libertà<br />

(n + m ¡ 2=24), si ha t α<br />

2 = t0.05 ¼ 1.711. L’intervallo <strong>di</strong> fiducia richiesto risulta dunque<br />

così stimato:<br />

(143 ¡ 135.79) ¡ 1.71 ¢ 2.76 , (143 ¡ 135.79) + 1.71 ¢ 2.76 ¼ 2.49, 11.93 .<br />

ii) Determiniamo ora un intervallo unilaterale sinistro per µ1¡µ2 al livello <strong>di</strong> confidenza<br />

95%. La stima <strong>di</strong> tale intervallo sarà data da<br />

<br />

¡1 , (x ¡ y) + tαˆσ∆ .<br />

Essendo t0.05 ¼ 1.711 si ottiene<br />

¡1 , (143 ¡ 135.79) + 1.71 ¢ 2.76 ¼ (¡1 , 11.93] .<br />

c) Le varianze σ 2 1 e σ 2 2 non sono note, né possono ritenersi uguali<br />

In questo caso la variabile casuale da utilizzare per costruire l’intervallo <strong>di</strong> fiducia è<br />

la seguente:<br />

Tℓ = (X ¡ Y ) ¡ (µ1 ¡ µ2)<br />

<br />

2 S1 n + S2 ,<br />

2<br />

m<br />

dove Tℓ segue approssimativamente la <strong>di</strong>stribuzione t <strong>di</strong> Student con ℓ gra<strong>di</strong> <strong>di</strong> libertà,<br />

con ℓ che si può calcolare, ad esempio, con la formula <strong>di</strong> Smith-Satterthwaite:<br />

ℓ =<br />

2 ˆσ 1<br />

n + ˆσ2 2 2<br />

m<br />

2 ˆσ<br />

2 1<br />

n<br />

n ¡ 1 +<br />

2 ˆσ<br />

2 2<br />

¢<br />

m<br />

m ¡ 1<br />

Si può anche aggiungere il suggerimento <strong>di</strong> approssimare per <strong>di</strong>fetto ℓ, il che corrisponde<br />

ad una logica <strong>di</strong> tipo conservativo nell’esecuzione <strong>di</strong> un test d’ipotesi. Cerchiamo<br />

<strong>di</strong> spiegare cosa significa questa affermazione, anche se richiede argomentazioni<br />

che risulteranno chiare solo più avanti (x3.10). Supposto che l’approssimazione per<br />

<strong>di</strong>fetto <strong>di</strong>a ℓ=10 e che questa porti a rigettare l’ipotesi nulla H0, anche ℓ=11, comportando<br />

una regione <strong>di</strong> accettazione contenuta in quella relativa ad ℓ=10, implicherebbe<br />

il rigetto <strong>di</strong> H0. Il contrario non necessariamente vale.<br />

Esercizio 3.7.3 Determinare l’intervallo <strong>di</strong> cui alla domanda i) dell’esercizio precedente nell’ipotesi<br />

che le due varianze σ2 1 e σ2 1 non siano uguali.<br />

L’intervallo richiesto è formalmente lo stesso dell’esercizio precedente con la <strong>di</strong>fferenza che<br />

ora t α 2 è determinato dalla <strong>di</strong>stribuzione <strong>di</strong> Student ad ℓ gra<strong>di</strong> <strong>di</strong> libertà, con ℓ dato dalla<br />

formula precedente, e<br />

<br />

2 ˆσ 1<br />

ˆσ∆ =<br />

n + ˆσ2 2<br />

m .<br />

Calcoliamo innanzitutto ˆσ 2 1 e ˆσ2 2 utilizzando i conti già fatti nell’esercizio precedente.<br />

99


ˆσ 2 1 = 1<br />

n¡1<br />

ˆσ 2 2<br />

Si ha quin<strong>di</strong><br />

= 1<br />

m¡1<br />

n<br />

(xi¡x) 2 = 1<br />

11<br />

i=1<br />

ˆσ∆ ¼<br />

m<br />

i=1<br />

(yi¡y) 2 ¼ 1<br />

13<br />

50.545<br />

12<br />

12<br />

i=1<br />

14<br />

i=1<br />

(xi¡143) 2 = 556<br />

11<br />

¼ 50.545<br />

(yi¡135.786) 2 ¼ 622.78<br />

13<br />

+ 47.874<br />

14 ¼ p 4.212 + 3.420 ¼ 2.763 .<br />

Calcoliamo ora la <strong>di</strong>mensione ℓ della <strong>di</strong>stribuzione <strong>di</strong> Student. Abbiamo:<br />

¼ 47.874 .<br />

<br />

50.545 47.874<br />

2 +<br />

<br />

2<br />

ℓ ¼ 12 14<br />

4.212 + 3.420)<br />

<br />

50.545<br />

2 <br />

47.874<br />

2 ¼<br />

(4.1212)<br />

12 + 14<br />

11<br />

13<br />

2<br />

+<br />

11<br />

(3.420)2<br />

¼ 23.83<br />

13<br />

Siccome ℓ deve essere un intero, sembra naturale arrotondarlo assumendo così ℓ = 23.<br />

Di conseguenza, avendo la <strong>di</strong>stribuzione <strong>di</strong> Student lo stesso numero <strong>di</strong> gra<strong>di</strong> <strong>di</strong> libertà<br />

dell’esercizio precedente ed essendo ˆσ∆ praticamente lo stesso, anche l’intervallo risulterà<br />

praticamente lo stesso. Ciò è probabilmente dovuto a due fatti concomitanti: sia le varianze<br />

che le <strong>di</strong>mensioni dei due campioni <strong>di</strong>fferiscono <strong>di</strong> poco.<br />

3.8 STIMA DI UNA PROPORZIONE<br />

Consideriamo una popolazione <strong>di</strong> elementi, ognuno dei quali può sod<strong>di</strong>sfare oppure no,<br />

in<strong>di</strong>pendentemente uno dall’altro, un dato requisito. Si vuole stimare la proporzione<br />

p dei membri della popolazione che posseggono il requisito in questione.<br />

Considerato un campione casuale (X1, X2, . . . , Xn) <strong>di</strong> <strong>di</strong>mensione n, avremo<br />

<br />

1 se l’i¡esimo elemento del campione ha il requisito<br />

Xi =<br />

0 se l’i¡esimo elemento del campione non ha il requisito .<br />

In<strong>di</strong>cata quin<strong>di</strong> con Y = n<br />

i=1 Xi la variabile casuale che denota quanti elementi<br />

del campione posseggono il requisito, la statistica Y = Y/n dà la proporzione del<br />

campione con il requisito. Questa statistica, chiamata proporzione del campione, è il<br />

naturale stimatore per p. Essendo poi ciascuna Xi una variabile <strong>di</strong> Bernoulli, si ha<br />

Xi ' B(1, p) e quin<strong>di</strong> E(Y ) = np , V ar(Y ) = n p q = n p (1 ¡ p).<br />

In virtù del teorema <strong>di</strong> limite centrale, Y è approssimativamente normale con me<strong>di</strong>a<br />

p e varianza p(1¡p)/n, ossia<br />

<br />

p (1¡p)<br />

<br />

Y » N p, .<br />

n<br />

Ciò, a sua volta, implica<br />

Y ¡ p<br />

» N(0, 1) .<br />

p(1¡p)/n<br />

Volendo determinare un intervallo <strong>di</strong> fiducia per p <strong>di</strong> livello 1¡α, in<strong>di</strong>cato come al<br />

α = 1 ¡ 2 , si ha<br />

solito con u α<br />

2 il quantile della normale standar<strong>di</strong>zzata tale che Φu α<br />

2<br />

100


P ¡u α · 2<br />

Y ¡ p<br />

<br />

· u α ¼ 1 ¡ α ,<br />

2<br />

p(1 ¡ p)/n<br />

da cui, isolando p nel mezzo della <strong>di</strong>suguaglianza, si ottiene<br />

<br />

<br />

P<br />

p(1 ¡ p)/n ¼ 1 ¡ α .<br />

Y ¡ u α<br />

2<br />

p(1 ¡ p)/n · p · Y + u α<br />

2<br />

Si è così ottenuta una regione che contiene p con livello <strong>di</strong> fiducia 1¡α. C’è però<br />

un problema che incontriamo per la prima volta: gli estremi <strong>di</strong> un intervallo <strong>di</strong> fiducia<br />

debbono essere delle statistiche, cioè non debbono contenere alcun parametro<br />

incognito. In questo caso gli estremi contengono infatti il parametro p, per cui ci<br />

troviamo nell’anomala situazione <strong>di</strong> tentare <strong>di</strong> usare p per stimare p. Il problema<br />

può però facilmente essere superato stimando p con con l’estimatore Y . In<strong>di</strong>cato<br />

quin<strong>di</strong> con ˆp ´ y la stima puntuale <strong>di</strong> p ottenuta utilizzando Y , l’intervallo <strong>di</strong> fiducia<br />

(approssimato) per p al livello 1¡α è il seguente:<br />

<br />

ˆp ¡ u α<br />

2<br />

ˆp(1 ¡ ˆp)/n , ˆp + u α<br />

2<br />

<br />

ˆp(1 ¡ ˆp)/n .<br />

Esercizio 3.8.1 Un campione <strong>di</strong> 100 transistor viene estratto da una grossa fornitura e testato.<br />

In tutto 80 pezzi hanno i requisiti adeguati. Si chiede <strong>di</strong> determinare gli intervalli <strong>di</strong><br />

fiducia <strong>di</strong> livelli 95% e 99% per la percentuale p <strong>di</strong> transistor accettabili.<br />

I quantili della normale standar<strong>di</strong>zzata che interessano sono i seguenti:<br />

Essendo n=100 e ˆp=0.80, si ha<br />

u0.025 ' 1.96 , u0.005 ' 2.57 .<br />

livello 95% =) p 2 [0.80 ¡ 1.96 0.8 ¢ 0.2/100 , 0.80 + 1.96 0.8 ¢ 0.2/100]<br />

livello 99% =) p 2 [0.80 ¡ 2.57 0.8 ¢ 0.2/100 , 0.80 + 2.57 0.8 ¢ 0.2/100] .<br />

Gli intervalli <strong>di</strong> fiducia richiesti sono dunque approssimativamente i seguenti:<br />

livello 95% =) p 2 [0.80 ¡ 0.0784 , 0.80 + 0.0784] = [0.7216 , 0.8784]<br />

livello 99% =) p 2 [0.80 ¡ 0.1028 , 0.80 + 0.1028] = [0.6972 , 0.9028] .<br />

Esercizio 3.8.2 Un sondaggio su un giornale riporta che il 52% della popolazione, con un<br />

margine d’errore <strong>di</strong> §4%, è sod<strong>di</strong>sfatto dell’operato dell’amministrazione. Cosa significa<br />

ciò? È possibile stabilire quante persone sono state intervistate?<br />

È pratica comune per i mezzi d’informazione fornire intervalli <strong>di</strong> fiducia al 95%. Ciò premesso,<br />

l’intervallo <strong>di</strong> fiducia in questione, essendo ˆp=0.52 e u0.975 ' 1.96, ed essendo non nota la<br />

<strong>di</strong>mensione del campione, è approssimativamente il seguente:<br />

ˆp § 1.96 ˆp(1 ¡ ˆp)/n = 0.52 § 1.96 0.52 ¢ 0.48/n .<br />

Siccome il margine d’errore è del 4%, ciò significa che<br />

1.96 0.52 ¢ 0.48/n ¼ 0.04 ,<br />

da cui, tenendo conto che n è intero, si ricava n ¼ 599 .<br />

101


Un problema <strong>di</strong> un certo interesse concerne una stima della <strong>di</strong>mensione del campione<br />

che permetta <strong>di</strong> ottenere un intervallo <strong>di</strong> fiducia per p al livello 1¡α non più ampio <strong>di</strong><br />

una lunghezza d assegnata. Il problema può presentarsi con queste due varianti: a)<br />

è <strong>di</strong>sponibile a priori una stima puntuale ˆp; b) una tale stima non è <strong>di</strong>sponibile.<br />

Caso a). L’ampiezza dell’intervallo <strong>di</strong> fiducia per p ha ampiezza<br />

<br />

ˆp(1 ¡ ˆp)/n .<br />

Si dovrà quin<strong>di</strong> avere<br />

da cui<br />

2 u α 2<br />

2 u α<br />

2<br />

ˆp(1 ¡ ˆp)/n · d ,<br />

n ¸ 4u2α 2 ˆp(1 ¡ ˆp) .<br />

d2 Caso b). Siccome la funzione p(1¡p) ha come valore massimo 1<br />

4<br />

qualunque sia il valore <strong>di</strong> p, scegliendo<br />

n = u2 α<br />

2<br />

,<br />

d2 sarà sempre garantita un’ampiezza dell’intervallo non superiore a d.<br />

(assunto per p= 1<br />

2 ),<br />

Esercizio 3.8.3 Un’azienda produce circuiti integrati, ciascuno dei quali risulta accettabile<br />

in<strong>di</strong>pendentemente da tutti gli altri con probabilità incognita p. Si vuole ottenere un intervallo<br />

<strong>di</strong> fiducia per p ad un livello 99%, la cui ampiezza sia approssimativamente 0.05. Si<br />

raccoglie allora un primo campione <strong>di</strong> 30 chip, 26 dei quali risultano accettabili, fornendo<br />

una prima, grossolana, stima puntuale <strong>di</strong> p, data da ˆp= 26<br />

30 . Si chiede <strong>di</strong> determinare:<br />

a) la <strong>di</strong>mensione n1 del campione che si ottiene utilizzando la stima ˆp;<br />

b) l’intervallo <strong>di</strong> fiducia utilizzando un campione <strong>di</strong> <strong>di</strong>mensione n1 ottenuto aggiungendo<br />

n1¡30 chip a quelli già verificati (fissando a piacere il numero dei chip accettabili);<br />

c) determinare la <strong>di</strong>mensione n2 del campione necessaria a garantire un’ampiezza non<br />

superiore a 0.05 se non fosse stata determinata preventivamente ˆp.<br />

a) Essendo u0.005 ¼ 2.58, si ha<br />

n1 = 4u2α 2 ˆp(1 ¡ ˆp) ¼ 42.582<br />

d2 0.052 26<br />

30<br />

4<br />

¼ 1231 .<br />

30<br />

b) Dobbiamo dunque testare altri 1201 chip. Fra questi supponiamo che 1040 siano accettabili.<br />

L’intervallo <strong>di</strong> fiducia che si ottiene è pertanto dato da<br />

<br />

1066 1066 165 1<br />

§ 2.58<br />

1231 1231 1231 1231 ,<br />

ovvero<br />

(0.8409, 0.8910) .<br />

c) Se non avessimo predeterminato (seppur grossolanamente) p, la <strong>di</strong>mensione n2 del campione<br />

atta a garantire l’ampiezza richiesta per l’intervallo <strong>di</strong> fiducia sarebbe stata<br />

n2 = u2α 2.582<br />

2 ¼ ¼ 2663 .<br />

d2 0.052 Dunque, se non avessimo predeterminato una stima puntuale per p, per avere la certezza <strong>di</strong><br />

un intervallo <strong>di</strong> fiducia con l’ampiezza richiesta, avremmo dovuto adottare un campione <strong>di</strong><br />

<strong>di</strong>mensione più che doppia!<br />

102


3.9 BASI LOGICHE DEI TEST<br />

Ci poniamo questo problema: i tecnici <strong>di</strong> una <strong>di</strong>tta produttrice <strong>di</strong> nastri <strong>di</strong>chiarano <strong>di</strong><br />

aver messo a punto un nuovo trattamento per il materiale utilizzato tale da rendere più<br />

resistente il nastro, portandone il carico <strong>di</strong> rottura a trazione a 80 N. Come valutare la<br />

loro affermazione?<br />

È chiaro che un qualunque controllo (test) va fatto su un campione e sulla base del<br />

risultato si decide se la produzione deve continuare con le vecchie o con le nuove<br />

tecniche <strong>di</strong> trattamento del materiale. Il processo decisionale scelto è il seguente: si<br />

considera un campione casuale costituito <strong>di</strong> 49 nastri estratto dalla popolazione dei nastri<br />

prodotti col nuovo trattamento e si sottopone ciascuno <strong>di</strong> questi 49 nastri alla prova <strong>di</strong><br />

rottura fatta con l’apposita attrezzatura. Se il carico <strong>di</strong> rottura me<strong>di</strong>o osservato è inferiore<br />

a 78.5 N, la nuova tecnica viene rifiutata, mentre se risulta maggiore si ritiene <strong>di</strong>mostrata<br />

la maggior resistenza e quin<strong>di</strong> accettata la nuova tecnica.<br />

In<strong>di</strong>cata con x la me<strong>di</strong>a campionaria misurata del campione, sono possibili i seguenti<br />

4 casi:<br />

1) x > 78.5N e il nuovo trattamento è effettivamente tale da rendere il nastro più<br />

resistente. In questo caso l’accettazione della nuova tecnica è una scelta corretta.<br />

2) x 78.5N benchè il nuovo trattamento non sia effettivamente tale da rendere il<br />

nastro più resistente. In questo caso l’accettazione della nuova tecnica è una scelta<br />

sbagliata. Questo tipo <strong>di</strong> errore è detto errore o rischio <strong>di</strong> II a specie.<br />

4) x < 78.5N e il nuovo trattamento non è effettivamente tale da rendere il nastro<br />

più resistente. In questo caso il rifiuto della nuova tecnica è una scelta corretta.<br />

Facendo delle ipotesi sulla <strong>di</strong>stribuzione della popolazione e assumendo che la varianza<br />

<strong>di</strong> questa <strong>di</strong>stribuzione non cambi per effetto del nuovo trattamento, si possono valutare<br />

le probabilità degli errori <strong>di</strong> I a e II a specie.<br />

Ipotizziamo dunque che nel problema considerato la <strong>di</strong>stribuzione sia normale e che<br />

si abbia σ 2 = 21.4N 2 . Ciò implica che la me<strong>di</strong>a campionaria X, relativa al nostro<br />

campione <strong>di</strong> <strong>di</strong>mensione n=49, abbia me<strong>di</strong>a µ=µ0 =80N (se i tecnici <strong>di</strong>cono il vero)<br />

e deviazione standard σ=<br />

21.4<br />

49<br />

' 0.661N.<br />

103


Il rischio <strong>di</strong> errore <strong>di</strong> Ia specie è rappresentato dall’area sottesa dalla curva normale a<br />

sinistra del valore 78.5 N (ve<strong>di</strong> figura), il che equivale alla probabilità che X per n=49<br />

sia minore <strong>di</strong> 78.5 N. In<strong>di</strong>cata <strong>di</strong> nuovo con Z la me<strong>di</strong>a campionaria standar<strong>di</strong>zzata,<br />

si ha<br />

P [X < 78.5 <br />

<br />

X ¡ µ<br />

µ0 = 80] = P<br />

σ/ p 78.5 ¡ µ<br />

<<br />

n σ/ p <br />

<br />

78.5 ¡ 80<br />

<br />

= P Z < '<br />

n<br />

0.661<br />

' Φ(¡2.27) = 1 ¡ Φ(2.27) ' 0.012 .<br />

Dunque, c’è una probabilità <strong>di</strong> poco superiore all’1% <strong>di</strong> commettere l’errore <strong>di</strong> I a<br />

specie, cioè <strong>di</strong> rifiutare l’affermazione fatta quando questa è vera.<br />

Volendo valutare il rischio <strong>di</strong> II a specie, occorre<br />

supporre che il carico <strong>di</strong> rottura me<strong>di</strong>o vero per<br />

quel tipo <strong>di</strong> nastro non sia quello in<strong>di</strong>cato dai<br />

tecnici, ma un altro. Ipotizziamo dunque, ad<br />

esempio, che sia 78 N anzichè 80 N. In questo<br />

caso la me<strong>di</strong>a campionaria X avrebbe <strong>di</strong>stribuzione<br />

normale con me<strong>di</strong>a µ = µ1 = 78. Supponendo<br />

che la deviazione standard rimanga la<br />

stessa, la probabilità dell’errore <strong>di</strong> II a specie è<br />

quella <strong>di</strong> avere delle me<strong>di</strong>e <strong>di</strong> campioni <strong>di</strong> <strong>di</strong>mensione 49 maggiori <strong>di</strong> 78.5 N.<br />

Calcoliamo tale probabilità, che è rappresentata dall’area evidenziata nella figura.<br />

P [X > 78.5 <br />

<br />

X ¡ µ<br />

µ1 = 78] = P<br />

σ/ p 78.5 ¡ µ<br />

><br />

n σ/ p <br />

<br />

78.5 ¡ 78<br />

<br />

= P Z > '<br />

n<br />

0.661<br />

' 1 ¡ Φ(0.756) ' 0.225 = 22.5% .<br />

In definitiva, avendo stabilito quel criterio decisionale, siamo riusciti a quantificare i<br />

rischi <strong>di</strong> errore, cioè le probabilità <strong>di</strong> scelte errate a seconda della situazione vera che<br />

è e rimane ovviamente incognita. L’aver scelto una simile strategia per accettare o<br />

rifiutare l’affermazione dei tecnici significa fare un test <strong>di</strong> ipotesi.<br />

Rimane il dubbio che l’aver fissato il limite <strong>di</strong> 78.5 N per quelle me<strong>di</strong>e campionarie<br />

possa risultare troppo favorevole all’accettazione dell’affermazione fatta. Nella pratica,<br />

dovendo decidere se accettare oppure no l’ipotesi che la me<strong>di</strong>a (incognita) <strong>di</strong> una data<br />

popolazione abbia un dato valore, si procede nel modo seguente: si stabilisce il rischio α <strong>di</strong><br />

errore <strong>di</strong> I a specie ed in base ad esso si determina un intervallo; se la me<strong>di</strong>a campionaria<br />

osservata cade esternamente a tale intervallo, l’ipotesi viene rifiutata. Nel caso specifico<br />

visto in precedenza l’intervallo in questione è [78.5, +1) che corrisponderebbe, come<br />

il calcolo fatto in precedenza mostra, ad un rischio α <strong>di</strong> I a specie circa uguale a 0.012.<br />

Il criterio descritto, così come formulato, è risolutivo solo nel caso <strong>di</strong> rifiuto. Se accettare<br />

o no l’ipotesi nel caso in cui la me<strong>di</strong>a osservata cada internamente all’intervallo,<br />

<strong>di</strong>pende da chi deve prendere la decisione e dai suoi obiettivi. Ovviamente, come<br />

nel caso del problema appena considerato, si può anche decidere <strong>di</strong> accettarlo imme<strong>di</strong>atamente.<br />

Oppure si può decidere <strong>di</strong> fare ulteriori “verifiche” (ovviamente <strong>di</strong><br />

tipo statistico). Ad esempio, si può valutare anche il rischio <strong>di</strong> II a specie assumendo<br />

come valore vero per la me<strong>di</strong>a campionaria un valore µ1 < µ0 e decidere in base alla<br />

probabilità <strong>di</strong> tale rischio se accettare oppure no H0. La scelta <strong>di</strong> un µ1 minore <strong>di</strong> µ0<br />

104


è ovviamente legata al fatto che il rischio <strong>di</strong> una scelta sbagliata si ha solo nel caso in<br />

cui il valore vero <strong>di</strong> µ è minore <strong>di</strong> µ0.<br />

3.10 FORMULAZIONE DI UN TEST DI IPOTESI<br />

Molto spesso vengono formulate delle ipotesi <strong>di</strong> lavoro che riguardano un parametro<br />

θ <strong>di</strong> una popolazione. Per decidere se accettare oppure respingere una tale ipotesi ci<br />

si può servire dei risultati <strong>di</strong> un test statistico, che può essere formulato seguendo i<br />

passi che seguono.<br />

1) Definire l’ipotesi <strong>di</strong> lavoro, che chiameremo ipotesi nulla e in<strong>di</strong>cheremo con H0.<br />

Nel caso più semplice, e più comune, ciò sarà fatto attribuendo al parametro θ un<br />

valore θ0: H0 : θ=θ0.<br />

Ad esempio, se il parametro sotto indagine è la me<strong>di</strong>a, si pone µ=µ0, essendo µ0 un valore<br />

prefissato; se invece il parametro è la varianza, si pone σ2 = σ2 0 , con σ2 0 valore prefissato.<br />

L’indagine potrebbe riguardare anche la <strong>di</strong>fferenza fra due me<strong>di</strong>e µ1 e µ2: in tal caso si<br />

ipotizza che µ1¡µ2 =0, ossia che µ1 =µ2. Si sono così in<strong>di</strong>viduati tre possibili ipotesi nulle:<br />

H0 : µ=µ0 ; H0 : σ 2 =σ 2 0 ; H0 : µ1=µ2). Nell’esempio del paragrafo precedente l’ipotesi<br />

nulla è: H0 : µ=80 N.<br />

In contrapposizione all’ipotesi nulla si può formulare un’ipotesi alternativa HA. Ad<br />

esempio, ipotesi alternative per l’ipotesi nulla H0 : θ =θ0 sono le seguenti: HA : θ 6=<br />

θ0 ; HA : θθ0. Se l’ipotesi nulla H0 è vera, automaticamente l’ipotesi<br />

alternativa HA è falsa. Se accettiamo H0, dobbiamo automaticamente rifiutare HA.<br />

Nell’esempio del paragrafo precedente si ha HA : µ


6) Determinare, in base a quanto precedentemente stabilito, la regione <strong>di</strong> accettazione<br />

dell’ipotesi nulla H0. Tale regione, che in<strong>di</strong>chiamo con A , deve essere tale<br />

che<br />

P θ 2 A = 1 ¡ α .<br />

In molti casi (fra cui l’importante caso θ = µ), essa viene determinata in modo che<br />

risulti cosiffatta:<br />

⎧<br />

⎪⎨ [θ0 ¡ δα , θ0 + δα] se HA : θ6=θ0 ;<br />

A = [θ0 ¡ δ<br />

⎪⎩<br />

′ α , +1) se HA : θθ0 .<br />

In<strong>di</strong>cato poi con Θ l’insieme dei numeri reali sul quale il parametro θ assume i propri<br />

valori, si chiama regione critica o <strong>di</strong> rifiuto la regione complementare <strong>di</strong> A rispetto<br />

a Θ. Posto pertanto<br />

R = Θ ¡ A ,<br />

ne consegue che, se un valore misurato ˆ θ non sta in A, allora necessariamente sta in<br />

R, e viceversa. Nel caso <strong>di</strong> ipotesi alternativa HA : θ6=θ0 si parla <strong>di</strong> test bilaterale e<br />

la regione critica è detta a due code, mentre nel caso <strong>di</strong> HA : θθ0<br />

abbiamo un test unilaterale e una regione critica ad una coda.<br />

7) Si estrae un campione della <strong>di</strong>mensione stabilita e con i valori osservati del<br />

campione si determina la stima puntuale ˆ θ del parametro. Si hanno quin<strong>di</strong> le seguenti<br />

implicazioni:<br />

ˆθ 2 R =) l’ipotesi nulla H0 viene rigettata<br />

ˆθ 2 A =) l’ipotesi nulla H0 non può essere rigettata.<br />

Osserviamo che, nel caso in cui ˆ θ cade in R, il test è risolutivo in quanto l’ipotesi nulla<br />

viene respinta in favore dell’ipotesi alternativa HA. Al contrario, se ˆ θ cade in A, il<br />

test non è risolutivo. In tal caso infatti esso ci <strong>di</strong>ce che l’ipotesi nulla non può essere<br />

rifiutata, la qual cosa non significa automatica accettazione: sta allo sperimentatore<br />

decidere se accettare oppure no l’ipotesi nulla solo sulla base del fatto che non è stata<br />

smentita al livello <strong>di</strong> fiducia 1¡α prefissato.<br />

Volendo supportare l’accettazione <strong>di</strong> H0 con altri riscontri, lo sperimentatore può<br />

procedere andando a valutare anche il rischio <strong>di</strong> II a specie per un’ipotesi alternativa<br />

H∗ A . Viene dunque calcolata la probabilità β <strong>di</strong> accettare come vera l’ipotesi H0<br />

quando, essendo vera H∗ A , essa è falsa:<br />

β = P θ 2 A j H∗ <br />

A .<br />

Ebbene, supposto che lo sperimentatore abbia in precedenza fissato un βmax, se<br />

β · βmax, ciò può costituire l’elemento risolutivo ai fini della decisione finale circa<br />

l’accettazione o no dell’ipotesi nulla H0.<br />

La probabilità <strong>di</strong> rifiutare H0 quando H0 è falsa, che vale 1¡β, viene detta potenza<br />

del test. Sottoponendo il nostro test a <strong>di</strong>verse ipotesi alternative H ∗ A1 , H∗ A2 , H∗ A3 ,...,<br />

si ottengono <strong>di</strong>versi valori <strong>di</strong> β: β1, β2, β3,..., che in<strong>di</strong>viduano una curva β = β(θ) ,<br />

detta curva operativa caratteristica del test. Di questa riparleremo più avanti.<br />

L’ideale sarebbe un test che minimizza contemporaneamente entrambi i rischi <strong>di</strong> I a<br />

e II a specie, ma ciò è impossibile. Al decrescere dell’uno, l’altro cresce. Il solo modo<br />

106


<strong>di</strong> abbassarli entrambi è aumentare la <strong>di</strong>mensione n del campione, e quin<strong>di</strong>, in parole<br />

povere, spendere <strong>di</strong> più in prove ed analisi dei risultati.<br />

Va comunque notato che, in<strong>di</strong>pendentemente da come si opera, un errore è sempre<br />

possibile. Ogni volta che H0 viene rifiutata, può aver luogo un errore <strong>di</strong> I specie; ogni<br />

volta che H0 non viene rifiutata, può verificarsi un errore <strong>di</strong> II specie. Non c’è alcun<br />

modo <strong>di</strong> evitare questo <strong>di</strong>lemma. Il mestiere dello statistico è quello <strong>di</strong> adottare meto<strong>di</strong><br />

per decidere se rifiutare oppure no l’ipotesi H0 che mantengono ragionevolmente piccole<br />

le probabilità <strong>di</strong> fare l’uno o l’altro errore.<br />

Considerazioni sulla scelta <strong>di</strong> H0 e HA<br />

Diversamente da quanto assunto nella definizione dei passi utili alla formulazione <strong>di</strong> un<br />

test, molto spesso l’interesse reale suggerirebbe un’ipotesi nulla basata su una <strong>di</strong>suguaglianza:<br />

H0 : θ · θ0 (oppure H0 : θ ¸ θ0), con conseguente ipotesi alternativa<br />

HA : θ > θ0) (oppure HA : θ < θ0). Nel linguaggio proprio della statistica si parla <strong>di</strong><br />

ipotesi nulla semplice o composta a seconda che H0 esprima un’uguaglianza o una<br />

<strong>di</strong>suguaglianza.<br />

Poiché con H0 composta la trattazione matematica del problema risulta assai più<br />

complicata, nel seguito considereremo sempre ipotesi nulle semplici. A questo proposito<br />

occorre osservare che se, ad esempio, l’ipotesi nulla fosse H0 : θ·θ0 (ovviamente<br />

in contrapposizione a HA : θ > θ0), essa può essere ragionevolmente sostituita da<br />

H0 : θ=θ0 sulla base delle considerazioni che seguono. L’esecuzione del test porta a<br />

rigettatare H0 se la stima puntuale ˆ θ del parametro θ risulta maggiore <strong>di</strong> un certo<br />

θ1 a sua volta maggiore <strong>di</strong> θ0. Più semplicemente: H0 viene rigettata se ˆ θ è “abbastanza<br />

più grande” <strong>di</strong> θ0. Di norma, se ciò porta a rigettare l’ipotesi nulla θ = θ0, a<br />

maggior ragione si deve rifiutare ogni ipotesi θ=θ ∗ con θ ∗


In questo problema il parametro θ che interessa è la me<strong>di</strong>a della variabile casuale X che<br />

rappresenta la quantità <strong>di</strong> vino contenuto in una bottiglia. Si ha dunque θ = µ e l’ipotesi<br />

nulla è H0 : µ = 720 . Le possibili ipotesi alternative sono pertanto HA : µ 6= 720 oppure<br />

HA : µ720 .<br />

Supponiamo che sia un’associazione <strong>di</strong> consumatori ad effettuare il test. In questo caso c’è<br />

tutto l’interesse a evidenziare un eventuale riempimento delle bottiglie per <strong>di</strong>fetto. Viene<br />

dunque scelta l’ipotesi alternativa HA : µ< 720. L’ipotesi nulla sarà da rigettare in favore<br />

<strong>di</strong> HA nel caso in cui la stima puntuale ˆµ della me<strong>di</strong>a calcolata me<strong>di</strong>ante i valori osservati<br />

del campione non cada internamente alla regione <strong>di</strong> accettazione A, cioè se<br />

ˆµ /2 [720 ¡ δ ′ α , +1) .<br />

Supponiamo ora che sia il produttore ad effettuare il test <strong>di</strong> verifica. Quale ipotesi alternativa<br />

sceglierà? Certamente non sceglierà HA : µ < 720, perchè se così facesse potrebbe<br />

avvalorare l’ipotesi che egli mette nelle bottiglie meno vino <strong>di</strong> quanto <strong>di</strong>chiara. D’altra parte,<br />

se l’ipotesi alternativa scelta fosse HA : µ>720, potrebbe apparire un pò troppo sfacciato.<br />

Non rimane dunque che la scelta ”neutra” HA : µ6=720. Tenendo conto della struttura <strong>di</strong><br />

A, H0 verrebbe rigettata in favore <strong>di</strong> HA se<br />

ˆµ /2 [720 ¡ δα , 720 + δα] .<br />

Dovendo essere P µ 2 [720 ¡ δα , 720 + δα] =P µ 2 [720 ¡ δ ′ α , +1) =1 ¡ α ,<br />

è evidente che δ ′ α θ0 ,<br />

<br />

<br />

p = P T ·ˆt H0 se HA : θ


Al numero p ci si riferisce con <strong>di</strong>versi nomi; i più comuni sono valore p o p-dei-dati.<br />

Come risulterà evidente dagli esempi proposti nel seguito, se si eseguisse un test<br />

<strong>di</strong> ipotesi con livello <strong>di</strong> significatività α, se α < p, il valore osservato ˆ θ cadrebbe<br />

internamente alla regione <strong>di</strong> accettazione e H0 non potrebbe essere rigettata; d’altra<br />

parte, se α>p, ˆ θ cadrebbe esternamente e l’ipotesi nulla sarebbe da rigettare. Questa<br />

considerazione suggerisce la seguente definizione <strong>di</strong> carattere generale:<br />

Definizione Si chiama valore p (o p-dei-dati) il minimo α per cui l’ipotesi nulla<br />

deve essere rigettata con un test d’ipotesi <strong>di</strong> livello <strong>di</strong> fiducia 1¡α.<br />

Esempio 3.11.1 Ingegneri addetti alla costruzione <strong>di</strong> automobili stanno usando sempre<br />

più l’alluminio nella speranza <strong>di</strong> ridurre il costo delle auto e aumentare il numero <strong>di</strong> miglia<br />

percorse con un gallone <strong>di</strong> benzina. Per un particolare modello <strong>di</strong> auto, il numero me<strong>di</strong>o<br />

<strong>di</strong> miglia su autostrada ottenuto per gallone è 26 con una deviazione standard σ = 5mpg.<br />

Si spera che un nuovo design, che utilizza più alluminio, incrementi la me<strong>di</strong>a, dando per<br />

scontato che σ non cambi. Gli ingegneri, volendo testare la loro ipotesi, eseguono un test <strong>di</strong><br />

significatività nel modo seguente.<br />

Si assumono le seguenti ipotesi: H0 : µ · 26 , HA : µ > 26 .<br />

Assunta naturalmente come statistica del test la me<strong>di</strong>a campionaria X, si concorda <strong>di</strong> rifiutare<br />

l’ipotesi H0 in favore <strong>di</strong> HA se il valore osservato x <strong>di</strong> X risulterà ”alquanto maggiore”<br />

<strong>di</strong> 26. Con ”alquanto maggiore” inten<strong>di</strong>amo troppo grande perchè ciò possa essere avvenuto<br />

solo per caso se il valore me<strong>di</strong>o vero è ancora 26.<br />

Da un test con un campione <strong>di</strong> 36 dati risulta una me<strong>di</strong>a x = 28.04 mpg. Per vedere se x<br />

è abbastanza più grande <strong>di</strong> 26 da poter rigettare H0, calcoliamo il valore p del test, cioè<br />

calcoliamo la probabilità <strong>di</strong> osservare un valore <strong>di</strong> X maggiore od uguale a 28.04 se µ=26 e<br />

σ=5. In virtù del teorema <strong>di</strong> limite centrale lo stimatore X è (almeno) approssimativamente<br />

normale con me<strong>di</strong>a µ=26 e deviazione standard σ/ p n=5/6. Si ha quin<strong>di</strong><br />

p = P (X ¸ 28.04 j µ=26 , σ=5) = P<br />

X ¡ 26<br />

5/6<br />

¸ 28.04 ¡ 26<br />

5/6<br />

¼ P [Z ¸ 2.45] = 1 ¡ P [Z · 2.45] ¼ 1 ¡ 0.9929 = 0.0071 .<br />

<br />

=<br />

La probabilità che X assuma un valore maggiore <strong>di</strong> 28.04 è dunque molto piccola. Ci sono<br />

due possibili spiegazioni per questo fatto. O l’ipotesi nulla è vera e noi abbiamo osservato<br />

un campione veramente raro che per caso ha una me<strong>di</strong>a grande, oppure l’ipotesi nulla è<br />

falsa e il nuovo processo <strong>di</strong> costruzione delle auto ha effettivamente portato ad un aumento<br />

delle miglia percorse per gallone <strong>di</strong> benzina. La seconda spiegazione è <strong>di</strong> gran lunga quella<br />

più ragionevole! Infatti il valore p trovato rappresenta la probabilità dell’errore <strong>di</strong> I specie<br />

che si commette rifiutando H0 a favore <strong>di</strong> HA quando si assume come regione <strong>di</strong> rifiuto<br />

R = [28.04 , +1). E nel caso specifico p è minore dell’1%.<br />

L’esempio proposto permette <strong>di</strong> capire meglio il significato del valore p. Più piccolo è<br />

p, più fortemente il test suggerisce il rigetto dell’ipotesi nulla a favore <strong>di</strong> quella alternativa.<br />

109


3.12 TEST RIGUARDANTI LA MEDIA DI UNA POPOLAZIONE<br />

NORMALE<br />

Tratteremo ora i test riguardanti la me<strong>di</strong>a affrontando dapprima il caso in cui la<br />

varianza è nota e poi il caso in cui è incognita.<br />

a) Test nel caso <strong>di</strong> varianza nota<br />

Consideriamo un campione casuale (X1, X2, . . . , Xn) <strong>di</strong> <strong>di</strong>mensione n proveniente da<br />

una <strong>di</strong>stribuzione normale. Per sottoporre a test l’ipotesi <strong>di</strong> provenienza da una<br />

popolazione <strong>di</strong> me<strong>di</strong>a µ = µ0, usiamo la statistica Z ' N(0, 1) che si ottiene, come<br />

abbiamo già visto, normalizzando la me<strong>di</strong>a campionaria X, ossia<br />

X ¡ µ0 p<br />

Z = n ,<br />

σ<br />

dove σ2 è la varianza della popolazione che assumiamo nota.<br />

Il problema è quello <strong>di</strong> testare l’ipotesi nulla H0 : µ=µ0 contro l’ipotesi alternativa<br />

HA : µ6=µ0: l’ipotesi nulla è da rifiutare se il valore osservato <strong>di</strong> Z è “troppo grande”<br />

o “troppo piccolo”, dove “troppo grande” e “troppo piccolo” sono quantificati dal<br />

valore del rischio <strong>di</strong> prima specie che si intende correre. Più precisamente, fissata<br />

uguale ad α la probabilità <strong>di</strong> tale rischio, e in<strong>di</strong>cato con u α<br />

2 il quantile soluzione<br />

dell’equazione<br />

Φ(u) = 1 ¡ α<br />

2 ,<br />

per il rischio <strong>di</strong> errore <strong>di</strong> prima specie si ha<br />

P<br />

Z < ¡u α<br />

2<br />

<br />

[ Z > u α<br />

2<br />

<br />

= P<br />

X ¡ µ0<br />

σ<br />

p n < ¡u α<br />

2<br />

<br />

[<br />

X ¡ µ0<br />

σ<br />

p n > u α<br />

2<br />

<br />

= α .<br />

Questa formula esprime la probabilità <strong>di</strong> rifiutare l’ipotesi nulla H0 : µ=µ0 quando<br />

essa è vera. Pertanto la regione <strong>di</strong> rifiuto per questo test bilaterale è costituita da<br />

tutti i valori <strong>di</strong> Z (o equivalentemente <strong>di</strong> X) per cui<br />

<br />

Z < u α 2<br />

Risolvendo rispetto a X si ottiene<br />

Posto<br />

ossia<br />

<br />

<br />

X<br />

¡ µ0 p<br />

<br />

<br />

n<br />

σ<br />

< u α 2 .<br />

X < µ0 ¡ σ p n u α 2 oppure X > µ0 + σ<br />

p n u α 2 .<br />

x1 = µ0 ¡ σ p n u α 2 , x2 = µ0 + σ p n u α 2 ,<br />

abbiamo dunque determinato l’intervallo [x1, x2], detto intervallo <strong>di</strong> accettazione. Se<br />

il valore osservato x <strong>di</strong> X cade esternamente ad esso, l’ipotesi nulla H0 : µ=µ0 sarà<br />

da rifiutare in favore dell’ipotesi alternativa HA : µ 6= µ0. Se invece x 2 [x1, x2],<br />

allora l’ipotesi nulla non sarà da rifiutare, il che non equivale a <strong>di</strong>re che sia da<br />

accettare (come nell’esempio introduttivo del x 3.9).<br />

110


Oltre al test bilaterale, esiste la possibilità <strong>di</strong> eseguire anche dei test unilaterali a<br />

seconda <strong>di</strong> esigenze tecniche specifiche. In questo caso si possono avere due ipotesi<br />

alternative: HA : µµ0. In<strong>di</strong>cato con uα il quantile soluzione<br />

dell’equazione<br />

Φ(u) = 1 ¡ α,<br />

valgono le seguenti relazioni:<br />

<br />

<br />

<br />

X ¡ µ0 p<br />

P Z < ¡uα = P n < ¡uα = α ;<br />

σ<br />

<br />

<br />

<br />

X ¡ µ0 p<br />

P Z > +uα = P n > +uα = α .<br />

σ<br />

Posto quin<strong>di</strong><br />

le due precedenti probabilità <strong>di</strong>ventano<br />

ξ1 = µ0 ¡ σ p n uα , ξ2 = µ0 + σ p n uα ,<br />

P (X < ξ1) = α ; P (X > ξ2) = α .<br />

La prima delle due probabilità ci assicura che, nel caso HA : µ < µ0, se rigettiamo<br />

l’ipotesi nulla a favore <strong>di</strong> quella alternativa quando il valore <strong>di</strong> x è minore <strong>di</strong> ξ1,<br />

l’errore <strong>di</strong> I a specie commesso è uguale ad α. La seconda probabilità ci garantisce<br />

invece un errore dello stessa entità nel caso si rifiuti l’ipotesi nulla a favore dell’ipotesi<br />

alternativa HA : µ > µ0 se la me<strong>di</strong>a calcolata x risulta maggiore <strong>di</strong> ξ2.<br />

Pertanto, nel caso <strong>di</strong> test unilaterale per la me<strong>di</strong>a (nota la varianza) si procede nel<br />

modo seguente: nel caso HA : µ < µ0, l’ipotesi H0 si rigetta se x < ξ1; nel caso<br />

HA : µ > µ0, H0 si rigetta se x > ξ2.<br />

La tabella che segue riassume i casi considerati.<br />

111


Osservazione. Gli intervalli <strong>di</strong> accettazione [x1 , x2] (nel caso <strong>di</strong> test bilaterale),<br />

[ξ1 , +1) e (¡1 , ξ2] (nel caso <strong>di</strong> test unilaterale) sono espressi nell’unità <strong>di</strong> misura<br />

dei dati del campione. Se la me<strong>di</strong>a osservata vi cade dentro, allora l’ipotesi nulla non<br />

può essere rigettata. Le conclusioni del test possono però essere tratte, in maniera<br />

più imme<strong>di</strong>ata, anche utilizzando la me<strong>di</strong>a osservata “standar<strong>di</strong>zzata”, vale a <strong>di</strong>re<br />

x ¡ µ0 p<br />

z = n .<br />

σ<br />

Se questa cade all’interno dell’intervallo <strong>di</strong> accettazione per Z, allora l’ipotesi nulla<br />

non può essere rigettata. Per quanto detto precedentemente gli intervalli <strong>di</strong> accettazione<br />

<strong>di</strong> Z, che per como<strong>di</strong>tà chiameremo “intervalli standar<strong>di</strong>zzati”, sono i seguenti:<br />

[¡u α<br />

2 , u α<br />

2 ] se HA : µ = µ0 ;<br />

[¡uα , +1) se HA : µ < µ0 ;<br />

(¡1 , +uα] se HA : µ > µ0 .<br />

b) Test nel caso <strong>di</strong> varianza incognita (test t)<br />

Consideriamo un campione casuale (X1, X2, . . . , Xn) <strong>di</strong> <strong>di</strong>mensione n proveniente da<br />

una <strong>di</strong>stribuzione normale. Per sottoporre a test l’ipotesi <strong>di</strong> provenienza da una<br />

popolazione <strong>di</strong> me<strong>di</strong>a µ = µ0, si usa la statistica Tn−1, cioè<br />

X ¡ µ0 p<br />

Tn−1 = n ,<br />

S<br />

con S varianza campionaria. Come già sappiamo, questa variabile casuale segue la<br />

<strong>di</strong>stribuzione <strong>di</strong> Student con n¡1 gra<strong>di</strong> <strong>di</strong> libertà. In questo caso il test viene spesso<br />

in<strong>di</strong>cato come test t.<br />

Volendo testare l’ipotesi nulla H0 : µ=µ0 in contrapposizione con l’ipotesi alternativa<br />

HA : µ 6= µ0, in analogia con quanto appena fatto nel caso <strong>di</strong> varianza nota, fissata<br />

uguale ad α la probabilità del rischio <strong>di</strong> prima specie, si ha<br />

<br />

<br />

P Tn−1 < ¡t α<br />

2 [ Tn−1 > t α<br />

2<br />

<br />

=<br />

<br />

con t α<br />

2<br />

= P<br />

soluzione dell’equazione<br />

X ¡ µ0 p<br />

n < ¡t α<br />

2<br />

S<br />

[<br />

X ¡ µ0 p<br />

n > t α<br />

2<br />

S<br />

Tn−1(t) = 1 ¡ α<br />

2 .<br />

Di conseguenza la regione aleatoria <strong>di</strong> rifiuto della ipotesi nulla <strong>di</strong>venta<br />

X < µ0 ¡ S p n t α<br />

2 oppure X > µ0 + S p n t α<br />

2 .<br />

<br />

µ0 ¡ ˆσ<br />

p n t α<br />

2 , µ0 + ˆσ<br />

2<br />

<br />

= α ,<br />

Eseguito l’esperimento e in<strong>di</strong>cato come in precedenza con ˆσ il valore osservato <strong>di</strong> S,<br />

risulta dunque determinato il seguente intervallo <strong>di</strong> accettazione:<br />

<br />

[x1, x2] =<br />

p t α .<br />

n<br />

112


Se il valore osservato x <strong>di</strong> X cade esternamente a questo intervallo, l’ipotesi nulla<br />

H0 : µ = µ0 è da rifiutare in favore dell’ipotesi alternativa HA : µ 6= µ0. Se invece<br />

x 2 [x1, x2], allora l’ipotesi nulla non potrà essere rifiutata.<br />

Quando l’ipotesi alternativa è HA : µµ0, si deve eseguire un test<br />

unilaterale. In tal caso, in<strong>di</strong>cata con tα la soluzione dell’equazione: Tn−1(t) = 1¡α ,<br />

posto<br />

ξ1 = µ0 ¡ ˆσ p n tα , ξ2 = µ0 + ˆσ p n tα ,<br />

si ha<br />

P (X < ξ1) = α ; P (X > ξ2) = α .<br />

La prima delle due probabilità ci suggerisce <strong>di</strong> rifiutare l’ipotesi nulla H0 a favore<br />

dell’ipotesi alternativa HA : µ<br />

µ0, <strong>di</strong> rifiutare H0 se si ha x> ξ2. Quanto affermato può essere sintetizzato <strong>di</strong>cendo<br />

che, nel caso <strong>di</strong> test unilaterale, gli intervalli <strong>di</strong> accettazione sono:<br />

[ξ1 , +1) se HA : µ < µ0 ;<br />

(¡1 , ξ2] se HA : µ > µ0 .<br />

La tabella data in precedenza per il caso “varianza nota” rimane quin<strong>di</strong> valida anche<br />

nel caso “varianza incognita” fatto salvo il fatto che ora l’intervallo [x1, x2] e i valori<br />

ξ1 e ξ2 sono calcolati utilizzando i quantili della <strong>di</strong>stribuzione <strong>di</strong> Student (ad N¡1<br />

gra<strong>di</strong> <strong>di</strong> libertà) anzichè quelli della normale standar<strong>di</strong>zzata.<br />

Osservazione. Analogamente a quanto osservato in precedenza nel caso <strong>di</strong> varianza<br />

nota, le conclusioni del test ora proposto possono essere tratte in maniera più imme<strong>di</strong>ata<br />

ragionando <strong>di</strong>rettamente sugli intervalli <strong>di</strong> accettazione per Tn−1, che anche in<br />

questo caso chiameremo “intervalli standar<strong>di</strong>zzati”:<br />

[¡t α<br />

2 , t α 2 ] se HA : µ = µ0 ;<br />

[¡tα , +1) se HA : µ < µ0 ;<br />

(¡1 , +tα] se HA : µ > µ0 .<br />

Se il valore osservato della statistica Tn−1, cioè<br />

x ¡ µ0 p<br />

t = n ,<br />

ˆσ<br />

cade esternamente all’intervallo <strong>di</strong> accettazione standar<strong>di</strong>zzato, l’ipotesi nulla è da<br />

rigettare.<br />

Esempio 3.12.1 Si supponga <strong>di</strong> avere un campione <strong>di</strong> 200 cambi per autovetture, supposti<br />

provenire da una popolazione <strong>di</strong>stribuita normalmente avente σ =3250 Km. a) Possiamo<br />

assumere con un rischio <strong>di</strong> prima specie pari al 5% che la durata me<strong>di</strong>a della popolazione<br />

costituita da tutti i cambi <strong>di</strong> quel tipo sia <strong>di</strong> 44800 Km, se la durata me<strong>di</strong>a del campione<br />

analizzato è stata <strong>di</strong> 44500 Km ? b) Calcolare il valore p.<br />

a) Omettendo l’unità <strong>di</strong> misura (il Km), i dati che abbiamo sono i seguenti:<br />

n = 200 , x = 44500 µ0 = 44800 , σ = 3250 .<br />

113


Seguiamo ora la procedura in<strong>di</strong>cata precedentemente passo per passo:<br />

1. I dati del campione sono assunti come provenienti da una popolazione normale (o<br />

approssimativamente tale) con varianza nota σ 2 .<br />

2. L’ipotesi nulla è H0 : µ=µ0 =44800 contro l’ipotesi alternativa HA : µ6=µ0.<br />

3. La statistica da testare è: Z =<br />

X ¡ µ0<br />

σ/ p n<br />

X ¡ 44800<br />

' .<br />

230<br />

4. Il rischio α <strong>di</strong> prima specie per questo test bilaterale è uguale al 5%.<br />

5. Dalle tavole della normale standard ricaviamo: u α<br />

2 = u0.025 ¼ 1.96.<br />

6. La regione <strong>di</strong> rifiuto è: X /2 [x1, x2], con x1 = µ0 ¡ δ e x2 =µ0 + δ . Essendo<br />

δ= σ p n u α 2 =230¢1.96 ¼ 450 , tale regione corrisponde a<br />

X /2 [44350 , 45250] .<br />

Poichè il valore calcolato <strong>di</strong> X, cioè x, vale 44500, e quin<strong>di</strong> è interno a questo intervallo,<br />

l’ipotesi nulla non può essere rigettata.<br />

6’. La regione <strong>di</strong> rifiuto può essere espressa in modo più imme<strong>di</strong>ato in forma “standar<strong>di</strong>zzata”,<br />

nel qual caso è data da: jZj > u α<br />

2 = u0.025 ¼ 1.96. Standar<strong>di</strong>zzando quin<strong>di</strong> il<br />

valore osservato <strong>di</strong> X, si ottiene<br />

x ¡ µ0<br />

z =<br />

σ/ p 44500 ¡ 44800<br />

= ¼ ¡1.305 .<br />

n 230<br />

Essendo jzj < 1.96, come in precedenza arriviamo alla conclusione che l’ipotesi nulla non<br />

può essere rifiutata.<br />

Osservazione. Se avessimo avuto x = 44300, l’ipotesi nulla, per la quale la durata me<strong>di</strong>a<br />

della popolazione costituita dai cambi è 44800 Km, sarebbe stata da respingere a favore<br />

dell’ipotesi alternativa HA : µ6=44800 km.<br />

b) p = 2 P (Z ¸jzj) = 2P (Z ¸1.305) = 2 1¡P (Z ·1.305) ¼ 2(1¡0.904) = 0.192 .<br />

Essendo p assai grande, risulta significativamente confermata la ”non rigettabilità” <strong>di</strong> H0.<br />

Esempio 3.12.2 Ripren<strong>di</strong>amo l’esempio 3.5.2. I consumi <strong>di</strong> un motore sperimentale registrati<br />

durante 8 prove, per 100 Km <strong>di</strong> percorrenza, sono stati: 14, 12, 11, 13, 15, 12, 16, 13.<br />

Possiamo affermare che il consumo me<strong>di</strong>o <strong>di</strong> benzina per quel tipo <strong>di</strong> motore non supera 12<br />

litri per ogni 100 Km <strong>di</strong> percorrenza con un livello <strong>di</strong> significatività α=0.01 ?<br />

Come abbiamo già visto nell’esempio 3.5.2, dai dati rilevati nelle prove si ottiene<br />

La procedura da seguire è la seguente:<br />

x = 13.25 ; ˆσ ¼ 1.67 .<br />

1. I dati del campione sono assunti come provenienti da una popolazione normale (o<br />

approssimativamente tale) con varianza incognita.<br />

2. L’ipotesi nulla corretta sarebbe H0 : µ · 12 contro l’ipotesi alternativa HA : µ > 12.<br />

Questo caso tuttavia, avendo a che fare con un’ipotesi nulla composta sarebbe <strong>di</strong> <strong>di</strong>fficile<br />

trattazione. Conviene pertanto assumere l’ipotesi nulla semplice H0 : µ = µ0 = 12 e<br />

ragionare poi sui risultati ottenuti per trarre conclusioni sull’ipotesi nulla composta.<br />

114


3. La statistica da testare è: T7 =<br />

X ¡ µ0<br />

S<br />

p X ¡ 12p<br />

n = 8.<br />

S<br />

4. Il rischio <strong>di</strong> prima specie che siamo <strong>di</strong>sposti a correre è: α = 1%.<br />

5. La regione <strong>di</strong> rifiuto è: T7 > tα = t0.01 ¼ 2.998, da cui<br />

X > ξ2 = µ0 + ˆσ p n tα = 12 + 1.67<br />

p 8 ¢2.998 ¼ 12 + 1.77 = 13.77 .<br />

6. Essendo x (valore calcolato <strong>di</strong> X) uguale a 13.25, l’ipotesi nulla H0 : µ = 12 non può<br />

essere rigettata con un errore <strong>di</strong> prima specie dell’1%.<br />

6’. Il valore della statistica Tn−1 osservato dal campione vale:<br />

x ¡ µ0 p 13.25 ¡ 12p<br />

t = n = 8 ' 2.117 .<br />

ˆσ<br />

1.67<br />

Essendo t minore <strong>di</strong> t0.01 =2.998, l’ipotesi nulla H0 : µ=12 non può essere rigettata.<br />

7. Consideriamo ora il caso in cui l’ipotesi nulla è composta, cioè H0 : µ·12. Osserviamo<br />

innanzitutto che il valore ξ2 della relazione <strong>di</strong> cui al punto 5) può scriversi in funzione <strong>di</strong> µ0:<br />

ξ2(µ0) ¼ µ0 + 1.77 .<br />

Ciò premesso, si può ragionare in questo modo: ogni ipotesi nulla semplice H0 : µ=µ ∗ con<br />

µ ∗ X ¡ 1.77 .<br />

Tenendo conto del fatto che il valore osservato <strong>di</strong> X è x = 13.25, ne consegue che l’ipotesi<br />

nulla semplice H0 : µ=µ ∗ , contrapposta all’ipotesi alternativa HA : µ>12, non può essere<br />

rifiutata con un errore <strong>di</strong> prima specie dell’1% per<br />

µ ∗ 2 [13.25 ¡ 1.77 , 12] = [11.48 , 12].<br />

Al contrario, se avessimo avuto H0 : µ=11.4, doveva essere rifiutata in favore <strong>di</strong> HA.<br />

Esempio 3.12.3 In una clinica si vuole sperimentare un nuovo farmaco che dovrebbe servire<br />

per ridurre il tasso <strong>di</strong> colesterolo nel sangue. A tal fine vengono cercati 50 volontari tra quei<br />

pazienti che hanno un livello <strong>di</strong> colesterolo me<strong>di</strong>o-alto (cioè maggiore <strong>di</strong> 220), e a ciascuno<br />

viene somministrato il farmaco per un mese. Alla fine si riscontra una riduzione me<strong>di</strong>a <strong>di</strong><br />

14.8, con una deviazione standard campionaria <strong>di</strong> 6.4. Verificare, se è possibile, che tale<br />

riduzione è dovuta esclusivamente ad un fatto fortuito.<br />

Se la riduzione è totalmente fortuita, le variazioni riscontrate sono <strong>di</strong>stribuite normalmente<br />

con me<strong>di</strong>a nulla. Testiamo dunque l’ipotesi nulla H0 : µ=µ0 =0 contro l’ipotesi alternativa<br />

HA : µ6=0. Proce<strong>di</strong>amo rapidamente senza seguire passo per passo la procedura.<br />

I dati sono i seguenti: n=50 , x=14.8 , ˆσ=6.4 , µ0 =0 .<br />

Sappiamo che l’intervallo <strong>di</strong> fiducia bilaterale al livello 1¡α, espresso in forma standar<strong>di</strong>zzata,<br />

è dato da ¡t α<br />

2 , +t <br />

α . Il problema è che nessun α è assegnato. Tuttavia, se si calcola la<br />

2<br />

me<strong>di</strong>a standar<strong>di</strong>zzata utilizzando la deviazione standard campionaria puntuale, si ottiene<br />

x ¡ µ0 p 14.8p<br />

t = n = 50 ¼ 16.35 .<br />

ˆσ 6.4<br />

Dalla tabella dei quantili della legge <strong>di</strong> Student (non essendo riportato n=49 basta guardare<br />

T50), si vede subito che t è esterno all’intervallo <strong>di</strong> fiducia per qualunque ragionevole livello<br />

115


<strong>di</strong> significatività α. Dunque, in ogni caso, l’ipotesi nulla deve essere rigettata, il che esclude<br />

che la riduzione <strong>di</strong> colesterolo sia un fatto puramente fortuito.<br />

L’esempio che segue è storico; esso riprende esperimenti eseguiti da Student per confrontare<br />

le tecniche <strong>di</strong> trattamento dell’orzo utilizzate nella preparazione della birra,<br />

più precisamente per valutare gli effetti dell’essicazione in forno prima della semina. A<br />

parte l’interesse storico, esso risulta utile ad illustrare come il problema <strong>di</strong> avvalorare<br />

oppure no una tesi <strong>di</strong> lavoro possa essere affrontato in due mo<strong>di</strong> <strong>di</strong>versi, il primo “neutrale”<br />

rispetto alla scelta che il test potrà suggerire, il secondo invece “sbilanciato” in<br />

favore dell’accettazione dell’ipotesi <strong>di</strong> lavoro.<br />

Esempio 3.12.4 Sono oggetto <strong>di</strong> indagine 11 varietà d’orzo; per ciascuna si riporta la<br />

<strong>di</strong>fferenza <strong>di</strong> red<strong>di</strong>tività fra la variante essicata e quella non essicata, misurata in libbre per<br />

acro:<br />

<strong>di</strong> : +106 ¡20 +101 ¡33 +72 ¡36 +62 +38 ¡70 +127 +24<br />

Supposto che la <strong>di</strong>fferenza <strong>di</strong> red<strong>di</strong>tività abbia una <strong>di</strong>stribuzione normale (<strong>di</strong> varianza incognita),<br />

si chiede <strong>di</strong> verificare l’ipotesi nulla H0 : µ = µ0 = 0, secondo la quale l’essicazione<br />

preliminare non avrebbe nessun effetto.<br />

Affronteremo il problema in due mo<strong>di</strong> <strong>di</strong>versi: a) assumendo come ipotesi alternativa HA :<br />

µ 6= 0; b) assumendo come ipotesi alternativa HA : µ > 0. In ciascun caso lo faremo per<br />

α=10% , α=5% e α=1% . Essendo la varianza incognita, dovremo utilizzare la statistica<br />

<strong>di</strong> Student a 10 gra<strong>di</strong> <strong>di</strong> libertà (essendo n=11). È facile verificare che i dati del campione<br />

hanno me<strong>di</strong>a x ¼ 33.7 e scarto quadratico me<strong>di</strong>o ˆσ ¼ 66.2.<br />

Derogando per semplicità dalla regola <strong>di</strong> svolgere l’esercizio seguendo passo per passo seguendo<br />

la procedura data per un test, si ha:<br />

a) Essendo HA : µ6=0, il test è bilaterale. La regione <strong>di</strong> accettazione è data da<br />

<br />

<br />

=<br />

<br />

µ0 ¡ ˆσ<br />

p t α<br />

2 n , µ0 + ˆσ p t α<br />

2 n<br />

Ora, essendo<br />

<br />

¡ 66.2<br />

p 11 t α 2 , 66.2<br />

p 11 t α 2<br />

= ¡19.95 t α 2 , 19.95 t α 2<br />

t0.05 = 1.812 , t0.025 = 2.228 , t0.005 = 3.169 ,<br />

le regioni <strong>di</strong> accettazione, nell’unità <strong>di</strong> misura dei dati del campione, sono<br />

per α = 0.10 ) [¡36.15 , 36.15] ;<br />

per α = 0.05 ) [¡44.54 , 44.54] ;<br />

per α = 0.01 ) [¡63.35 , 63.35] .<br />

Essendo x = 33.7, l’ipotesi nulla non può essere rigettata per nessuno dei tre livelli <strong>di</strong><br />

significatività presi in considerazione.<br />

Invece <strong>di</strong> determinare le regioni <strong>di</strong> accettazione nell’unità <strong>di</strong> misura dei dati del campione e<br />

verificare quin<strong>di</strong> se la me<strong>di</strong>a osservata x cadeva oppure no internamente a queste, avremmo<br />

potuto, in maniera più rapida, ottenere t standar<strong>di</strong>zzando x e verificare se jtj < t α oppure<br />

2<br />

jtj¸t α . In questo modo si sarebbe ottenuto<br />

2<br />

t =<br />

x ¡ µ0<br />

ˆσ<br />

p n = 33.7<br />

66.2<br />

116<br />

p 11 ¼ 1.688 ,<br />

<br />

.


che risulta all’interno dell’intervallo <strong>di</strong> accettazione ¡ t α<br />

2 , t <br />

α per tutti tre i valori <strong>di</strong> α<br />

2<br />

considerati. Abbiamo così trovato conferma del fatto che per nessuno dei tre livelli <strong>di</strong> fiducia<br />

l’ipotesi nulla è rigettabile.<br />

Il test fatto non smentisce l’ipotesi <strong>di</strong> lavoro µ = 0: ciò in<strong>di</strong>rizza verso la conclusione che<br />

l’essicazione pre-semina sia inutile.<br />

b) Ora affrontiamo il problema in maniera più filologica: l’ipotesi alternativa sia HA :<br />

µ>0, il che esclude a priori che possa essere µ< 0 (Student era sicuro che l’essicazione era<br />

vantaggiosa). Il test è unilaterale. La regione <strong>di</strong> accettazione è data da<br />

<br />

¡1 , µ0 + ˆσ <br />

p tα = ¡1 ,<br />

n 66.2<br />

<br />

<br />

p tα = ¡1 , 19.95 tα .<br />

11<br />

Essendo<br />

le regioni <strong>di</strong> accettazione sono<br />

t0.10 = 1.372 , t0.05 = 1.812 , t0.01 = 2.764 ,<br />

per α = 0.10 ) (¡1 , 27.37] ;<br />

per α = 0.05 ) (¡1 , 36.15] ;<br />

per α = 0.01 ) (¡1 , 55.14] .<br />

La me<strong>di</strong>a calcolata, che vale 33.7, cade internamente alla zona <strong>di</strong> rifiuto relativa ad α =<br />

0.10 ed esternamente a quelle relative agli altri due livelli <strong>di</strong> significatività. Ora pertanto,<br />

<strong>di</strong>versamente dal caso a), per α = 10% l’ipotesi nulla è da rigettare in favore dell’ipotesi<br />

alternativa (che rappresenta quanto desiderato da Student).<br />

Ovviamente si giunge alle stesse conclusioni anche ragionando con gli intervalli <strong>di</strong> fiducia<br />

espressi attraverso la me<strong>di</strong>a standar<strong>di</strong>zzata e quin<strong>di</strong>, essendo la varianza incognita, attraverso<br />

i quantili della <strong>di</strong>stribuzione <strong>di</strong> Student. Nel caso <strong>di</strong> test unilaterale, con ipotesi alternativa<br />

HA : µ>µ0, la regione <strong>di</strong> accettazione è data da (¡1, tα]. Essendo t=1.688, esso risulta<br />

maggiore <strong>di</strong> t0.10 e minore <strong>di</strong> t0.05 e t0.01, col che ritorniamo (ovviamente) alle conclusioni<br />

precedenti.<br />

Dunque, passando da un test bilaterale ad uno unilaterale, e con un alto livello <strong>di</strong> significatività<br />

(in realtà basso), il test può portare a conclusioni più favorevoli ai propri desideri.<br />

Questo esempio mostra che impostando il test in un modo o in un altro si possono anche<br />

assumere posizioni non del tutto imparziali rispetto alle ipotesi da rifiutare o avvalorare.<br />

A titolo d’esercizio si può andare a calcolare il valore p del test. Chiaramente, essendo<br />

p il minimo α per cui l’ipotesi nulla deve essere rigettata, e sapendo già che al livello <strong>di</strong><br />

significatività α = 0.1 H0 deve essere rigettata, mentre non può esserlo per α = 0.05,<br />

dovremo trovare un valore <strong>di</strong> p compreso fra 0.05 e 0.1. Nel caso in questione per definizione<br />

si ha: p = 1 ¡ P (T10 · t). Utilizzando un opportuno software contenente le funzioni<br />

<strong>di</strong>stribuzione più significative, in<strong>di</strong>cata con t10(x) la funzione <strong>di</strong>stribuzione <strong>di</strong> T10, si ricava<br />

t10(1.688) ¼ 0.939 , e quin<strong>di</strong> p ¼ 0.061 .<br />

Se avessimo calcolato il valore p anche nel caso del test bilaterale, avremmo avuto<br />

p = 2 1¡P (T10 ·t = 2 1 ¡ t10(1.688) ¼ 0.122 ,<br />

con conferma della non rigettabilità <strong>di</strong> H0 per tutti tre i livelli <strong>di</strong> significatività considerati.<br />

117


3.13 TEST RIGUARDANTI LA DIFFERENZA DELLE MEDIE<br />

DI DUE POPOLAZIONI NORMALI<br />

Una situazione che si presenta frequentemente nella statistica applicata all’ingegneria<br />

è quella per cui occorre decidere se due <strong>di</strong>versi approcci allo stesso problema hanno<br />

portato allo stesso risultato oppure no. Una tale problematica viene spesso affrontata<br />

me<strong>di</strong>ante un test dell’ipotesi che due popolazioni normali abbiano la stessa me<strong>di</strong>a.<br />

Ciò considerando, l’argomento sarà trattato in analogia con il x 3.7 e sfruttando le<br />

nozioni ivi introdotte.<br />

Siano dunque (X1, X2, . . . , Xn) e (Y1, Y2, . . . , Ym) due campioni casuali in<strong>di</strong>pendenti,<br />

<strong>di</strong> <strong>di</strong>mensioni n ed m rispettivamente, estratti da due popolazioni normali con me<strong>di</strong>a<br />

µ1 e varianza σ2 1 la prima, me<strong>di</strong>a µ2 e varianza σ2 2 la seconda. Come abbiamo visto<br />

nel paragrafo appena citato, il miglior estimatore per la <strong>di</strong>fferenza delle me<strong>di</strong>e µ1¡µ2<br />

è il seguente:<br />

X ¡ Y = 1<br />

n<br />

Xi ¡<br />

n<br />

1<br />

m<br />

Yi .<br />

m<br />

Caso a) Le varianze σ 2 1 e σ 2 2 sono note<br />

Si vuole eseguire un test d’ipotesi con<br />

i=1<br />

i=1<br />

H0 : µ1 =µ2 , HA : µ1 6=µ2 .<br />

Riscritta l’ipotesi nulla come H0 : µ1¡µ2 , essa verrà rigettata quando la <strong>di</strong>fferenza<br />

X¡Y è lontana da zero. In altre parole, la forma del test è la seguente:<br />

se jX¡Y j > c si rifiuta H0<br />

se jX¡Y j · c non si rifiuta H0<br />

per un opportuno valore <strong>di</strong> c. Dal x 3.7 sappiamo che<br />

<br />

X¡Y » N µ1¡µ2, σ2 1<br />

n +σ2 <br />

2<br />

m<br />

=)<br />

X¡Y ¡ (µ1¡µ2)<br />

<br />

2 σ1 n +σ2 2<br />

m<br />

Dunque, dato H0 vero, per cui µ1¡µ2 = 0 , la statistica del test<br />

» N(0, 1) .<br />

X¡Y<br />

σ 2 1 /n + σ 2 2 /m<br />

ha <strong>di</strong>stribuzione normale standard, e quin<strong>di</strong>, assegnato un livello <strong>di</strong> significatività α,<br />

si ha<br />

<br />

<br />

P<br />

¡u α 2 ·<br />

X¡Y<br />

σ 2 1 /n + σ 2 2 /m · u α 2<br />

= 1¡α ,<br />

con u α 2 quantile della normale standar<strong>di</strong>zzata soluzione dell’equazione Φ(u) = 1¡ α<br />

2 .<br />

La regione <strong>di</strong> accettazione per la statistica del test è dunque [¡u α 2 , u α 2 ], mentre per<br />

lo stimatore X¡Y è la seguente<br />

<br />

¡u α<br />

2<br />

<br />

σ 2 1 /n + σ2 2 /m , u α<br />

2<br />

118<br />

<br />

σ2 1 /n + σ2 2 /m<br />

<br />

.


Volendo invece fare un test unilaterale, con ipotesi nulla H0 : µ1 =µ2 (oppure H0 :<br />

µ1 ·µ2) ed ipotesi alternativa HA : µ1 >µ2, l’intervallo <strong>di</strong> accettazione per X ¡ Y è<br />

<br />

¡1, uα<br />

<br />

σ2 1 /n + σ2 2 /m<br />

<br />

,<br />

con uα tale che Φ(uα) = 1¡α. Naturalmente per la statistica del test l’intervallo <strong>di</strong><br />

accettazione è (¡1, uα].<br />

Caso b) Le varianze σ 2 1 e σ 2 2 non sono note, ma sono supposte uguali<br />

Il test che si vuole eseguire è lo stesso del punto a). Ora, però, abbiamo σ 2 1 =σ 2 2 =σ 2 ,<br />

con σ incognita. La statistica usata in precedenza <strong>di</strong>venta<br />

X¡Y<br />

<br />

σ2 .<br />

1/n + 1/m<br />

Come abbiamo visto nel x 3.7, la varianza σ2 può essere stimata dai dati utilizzando<br />

la varianza ponderata S2 p così definita:<br />

ove<br />

S 2 1<br />

= 1<br />

n ¡ 1<br />

S 2 p = (n ¡ 1)S2 1 + (m ¡ 1)S 2 2<br />

n + m ¡ 2<br />

n<br />

(Xi ¡ X) 2 , S 2 2<br />

i=1<br />

La statistica del test risulta quin<strong>di</strong> la seguente:<br />

Sp<br />

,<br />

= 1<br />

m ¡ 1<br />

X¡Y<br />

» Tn+m−2 ,<br />

1/n + 1/m<br />

m<br />

(Yi ¡ Y ) 2 .<br />

che, come già visto, segue una <strong>di</strong>stribuzione <strong>di</strong> Student con n + m ¡ 2 gra<strong>di</strong> <strong>di</strong> libertà.<br />

Assunto ancora α come livello <strong>di</strong> significatività del test ed in<strong>di</strong>cato con t α il quantile<br />

2<br />

, l’intervallo <strong>di</strong> accettazione bilaterale per<br />

soluzione dell’equazione Tn+m−2(t) = 1¡ α<br />

2<br />

lo stimatore X¡Y risulta<br />

<br />

¡t α<br />

2 Sp<br />

<br />

1/n + 1/m , t α<br />

2 Sp<br />

<br />

1/n + 1/m ,<br />

mentre quello unilaterale sinistro è<br />

<br />

¡1, tαSp 1/n + 1/m .<br />

Ricordando poi la notazione già introdotta nel punto b) del x3.7,<br />

S2 ∆ =<br />

<br />

1 1<br />

<br />

+ S<br />

n m<br />

2 p ,<br />

in<strong>di</strong>cato con ˆσ∆ il valore <strong>di</strong> S 2 ∆<br />

prossimati da<br />

<br />

<br />

¡t α ˆσ∆ , t α ˆσ∆<br />

2 2<br />

i=1<br />

ricavato dal campione, i suddetti intervalli sono ap-<br />

e<br />

<br />

¡1, tαˆσ∆ .<br />

Naturalmente, se ci si limita agli intervalli <strong>di</strong> accettazione per la statistica del test,<br />

quello per il test bilaterale è [¡t α ], mentre quello per il test unilaterale è (¡1, tα].<br />

2 , t α<br />

2<br />

119


Caso c) Le varianze σ 2 1 e σ 2 2 sono ignote e <strong>di</strong>verse<br />

Essendo questa situazione facilmente affrontabile sulla base <strong>di</strong> quanto appena visto<br />

e delle nozioni già introdotte nel x 3.7 (punto c), la tratteremo rapidamente. La<br />

statistica da utilizzare è<br />

(X ¡ Y )<br />

<br />

2 S1 n + S2 = Tℓ ,<br />

2<br />

m<br />

ℓ =<br />

2 ˆσ 1<br />

n + ˆσ2 2 2<br />

m<br />

2 ˆσ<br />

2 1<br />

n<br />

n ¡ 1 +<br />

2 ˆσ<br />

, ¢<br />

2<br />

2<br />

m<br />

m ¡ 1<br />

essendo ˆσ 2 1 e ˆσ2 2 i valori <strong>di</strong> S2 1 e S2 2<br />

t α 2 e tα i quantili soluzioni, nell’or<strong>di</strong>ne, delle equazioni<br />

calcolati tramite il campione. In<strong>di</strong>cati quin<strong>di</strong> con<br />

Tℓ(t) = 1 ¡ α<br />

2<br />

e Tℓ(t) = 1 ¡ α ,<br />

le regioni <strong>di</strong> accettazione per i test bilaterale e unilaterale sinistro sono approssimate<br />

da<br />

<br />

2 ˆσ 1<br />

¡t α<br />

2 n + ˆσ2 2<br />

m , t <br />

2 ˆσ 1<br />

α<br />

2 n + ˆσ2 <br />

2<br />

,<br />

m<br />

<br />

2 ˆσ 1<br />

¡1, tα<br />

n + ˆσ2 <br />

2<br />

.<br />

m<br />

Caso d) Campioni appaiati<br />

Esaminiamo ora un caso <strong>di</strong> <strong>di</strong>fferenza <strong>di</strong> due me<strong>di</strong>e particolare, ma assai interessante<br />

e frequente. Siano (X1, X2, . . . , Xn) e (Y1, Y2, . . . , Yn) due campioni casuali con la<br />

stessa numerosità n, non in<strong>di</strong>pendenti. Un test su due campioni siffatti riguarda quelle<br />

analisi sperimentali in cui occorre verificare una variazione <strong>di</strong> valore me<strong>di</strong>o prima e<br />

dopo un certo trattamento (oppure in presenza e assenza <strong>di</strong> una certa circostanza,<br />

con e senza un certo <strong>di</strong>spositivo, etc..). Essendo Xi e Yi variabili casuali associate<br />

alla stessa unità statistica, i due campioni non sono in<strong>di</strong>pendenti.<br />

Un possibile approccio per verificare che le me<strong>di</strong>e dei due campioni sono uguali consiste<br />

nel considerare le <strong>di</strong>fferenze Di = Xi¡Yi, per i = 1, 2, ..., n, che sono tra loro<br />

in<strong>di</strong>pendenti. L’analisi del campione casuale (D1, D2, ..., Dn) riconduce il test che interessa<br />

ad un test sulla me<strong>di</strong>a <strong>di</strong> un campione casuale proveniente da una popolazione<br />

normale <strong>di</strong> me<strong>di</strong>a µD e varianza incognita σ2 D . Le ipotesi nulla ed alternativa per un<br />

test bilaterale sono ovviamente le seguenti:<br />

H0 : µD = 0 , HA : µD 6= 0 .<br />

Per quanto già visto nel x 3.12 la statistica del test, tenuto anche conto dell’ipotesi<br />

nulla, è<br />

p D<br />

n » Tn−1 .<br />

L’esercizio 3.12.4 rappresenta un esempio <strong>di</strong> test per ”campioni appaiati”.<br />

SD<br />

120


3.14 CURVE CARATTERISTICHE OPERATIVE DEI TEST<br />

Ve<strong>di</strong>amo ora il proce<strong>di</strong>mento per il calcolo del rischio β <strong>di</strong> errore <strong>di</strong> seconda specie,<br />

una volta che siano stati specificati l’ipotesi nulla H0 : µ=µ0 ed il rischio α <strong>di</strong> errore<br />

<strong>di</strong> prima specie, in funzione <strong>di</strong> ipotesi alternative <strong>di</strong>verse.<br />

Pren<strong>di</strong>amo come riferimento l’esempio 3.11.1, che riguardava la durata dei cambi. Il<br />

problema è stato affrontato utilizzando un test bilaterale con l’ipotesi nulla H0 : µ=<br />

µ0 =44800 contro l’ipotesi alternativa HA : µ6=44800, con un rischio <strong>di</strong> prima specie<br />

(o livello <strong>di</strong> significatività) del 5%. Ipotizziamo ora che che l’ipotesi nulla H0 : µ=44800<br />

non sia vera, ma lo sia invece un’ipotesi alternativa HA : µ = µA = 44900. Il rischio <strong>di</strong><br />

seconda specie rappresenta la probabilità <strong>di</strong> accettare, a torto, l’ipotesi nulla, cioè la<br />

probabilità <strong>di</strong> osservare me<strong>di</strong>e campionarie entro la regione <strong>di</strong> accettazione del test<br />

pur essendo µ=44900.<br />

Come abbiamo visto nell’esempio in questione, la regione <strong>di</strong> accettazione (o, meglio,<br />

<strong>di</strong> non rifiuto) è l’intervallo<br />

[x1 , x2] = [µ0 ¡ δ , µ0 + δ] = [44800 ¡ 450 , 44800 + 450] = [44350 , 45250] .<br />

Tale intervallo è dunque centrato in µ0 ed ha ampiezza 2δ data da<br />

δ = σ<br />

p n u α<br />

2 con u α<br />

2 soluzione dell’equazione Φ(u) = 1 ¡ α<br />

2 .<br />

I valori estremi x1 =44350 e x2 =45250 rapresentano rispettivamente il valore minimo<br />

e il valore massimo delle me<strong>di</strong>e (dei campioni con n=200) oltre i quali l’ipotesi nulla va<br />

rifiutata. Il rischio <strong>di</strong> seconda specie β è quin<strong>di</strong> dato dalla probabilità <strong>di</strong> osservare(ovviamente<br />

per campioni della stessa <strong>di</strong>mensione) me<strong>di</strong>e comprese fra x1 e x2 quando sia vera l’ipotesi<br />

altenativa HA : µ=µA =44900, o equivalentemente<br />

β = P <br />

x1 · X · x2HA<br />

: µA =44900 .<br />

Standar<strong>di</strong>zzando questa relazione si ottiene:<br />

<br />

x1 ¡ µA<br />

β = P<br />

σ/ p X ¡ µA<br />

·<br />

n σ/ p n · x2 ¡ µA<br />

σ/ p <br />

= P<br />

n<br />

<br />

z1 · Z · z2 = Φ(z2) ¡ Φ(z1) ,<br />

essendo<br />

z1 = x1 ¡ µA<br />

σ/ p n , z2 = x2 ¡ µA<br />

σ/ p n .<br />

Per µA =44900, ricordando che n=200 e σ=3250 (da cui σ √ n ¼ 230), si ha<br />

<br />

45250 ¡ 44900<br />

<br />

44350 ¡ 44900<br />

<br />

350<br />

<br />

β ¼ Φ<br />

¡ Φ<br />

= Φ ¡Φ ¡<br />

230<br />

230<br />

230<br />

550<br />

<br />

¼<br />

230<br />

¼ Φ(1.52) ¡ Φ(¡2.39) = Φ(1.52) + Φ(2.39) ¡ 1 ¼ 0.936 + 0.992 ¡ 1 = 0.928<br />

È evidente che il rischio <strong>di</strong> seconda specie β <strong>di</strong>pende da µA; in altre parole β = β(µA).<br />

Per avere un’idea <strong>di</strong> questa funzione si può calcolare β per <strong>di</strong>versi valori <strong>di</strong> µA. Ne<br />

risulta la tabella riportata alla pagina che segue.<br />

Il grafico riportato accanto alla tabella è ottenuto ponendo in ascissa µA ed in or<strong>di</strong>nata<br />

β. Esso costituisce la curva caratteristica operativa. In alternativa si poteva porre<br />

in or<strong>di</strong>nata 1¡β: in questo caso avremmo ottenuto la curva <strong>di</strong> potenza.<br />

121


Va fatto notare che che la scelta in alternativa tra un test unilaterale o bilaterale<br />

<strong>di</strong>pende dallo specifico quesito posto e dalle caratteristiche del problema esaminato.<br />

In ogni caso si può affermare che la potenza <strong>di</strong> un test bilaterale, cioè la probabilità<br />

<strong>di</strong> rifiutare H0 quando H0 è falsa, a parità <strong>di</strong> <strong>di</strong>mensione del campione e <strong>di</strong> livello<br />

<strong>di</strong> fiducia, è minore rispetto a quella del corrispondente test unilaterale. Ciò risulta<br />

evidente dalla figura che segue, dove sono messe a confronto le curve caratteristiche<br />

operative per il test bilaterale HA : µ6=44800 e per il test unilaterale HA : µ


Le curve caratteristiche operative si avvicinano all’asse delle or<strong>di</strong>nate e <strong>di</strong>ventano<br />

più ripide al crescere della <strong>di</strong>mensione n del campione, in quanto così il test <strong>di</strong>venta<br />

più potente ed in sostanza aumenta la sua capacità <strong>di</strong> <strong>di</strong>scriminazione tra ipotesi,<br />

anche in base a scarti <strong>di</strong> piccola entità. Le curve caratteristiche operative consentono<br />

quin<strong>di</strong> la determinazione razionale della <strong>di</strong>mensione del campione da utilizzare per un<br />

determinato test per rischi <strong>di</strong> errore <strong>di</strong> prima specie α e <strong>di</strong> seconda specie β specificati<br />

o, in alternativa, come mo<strong>di</strong>ficare tali livelli per renderli compatibili con il numero <strong>di</strong><br />

prove consentito da limiti <strong>di</strong> tempo e <strong>di</strong> spesa. Naturalmente i rischi devono essere<br />

valutati caso per caso in base alle implicazioni: le conseguenze <strong>di</strong> una rottura sono ben<br />

<strong>di</strong>verse a seconda che si tratti dello sterzo o del portacenere <strong>di</strong> un’auto. Nell’esempio<br />

che segue si vedrà, fra l’altro, come si procede per la determinazione della <strong>di</strong>mensione<br />

del campione.<br />

Esempio 3.14.1 Un tecnico vuole determinare se un gruppo <strong>di</strong> 26 fili <strong>di</strong> rame proveniente<br />

da una <strong>di</strong>tta rispetta la specifica nominale <strong>di</strong> avere un <strong>di</strong>ametro prefissato, pari a 1.54 mm.<br />

a) cosa può affermare con un livello <strong>di</strong> fiducia del 95% se il <strong>di</strong>ametro me<strong>di</strong>o dei fili esaminati<br />

è <strong>di</strong> 1.6 mm, supposto che le misure dei <strong>di</strong>ametri siano <strong>di</strong>stribuite normalmente con varianza<br />

σ 2 =0.0529 mm 2 ? b) qual è l’errore <strong>di</strong> seconda specie che il tecnico commette se la me<strong>di</strong>a<br />

del processo produttivo ha subito uno slittamento ed ora è pari a 1.62 mm ? c) quale deve<br />

essere la <strong>di</strong>mensione del campione se si vuole testare l’ipotesi nulla H0 : µ=1.54 mm contro<br />

l’ipotesi alternativa HA : µ>1.54 mm con un errore <strong>di</strong> prima specie del 5% se si volesse un<br />

errore <strong>di</strong> seconda specie del 10% relativamente all’ipotesi alternativa HA : µ=1.65 mm ?<br />

Tenendo presente i requisiti tecnici specifici, faremo uso anche per la prima parte <strong>di</strong> un test<br />

unilaterale superiore, rendendo così confrontabili i risultati dei tre quesiti posti. Proce<strong>di</strong>amo<br />

secondo la sequenza <strong>di</strong> passi visti in precedenza (omettendo per semplicità, come abbiamo<br />

già fatto negli esempi prededenti, le unità <strong>di</strong> misura).<br />

a) I dati del campione, che ha <strong>di</strong>mensione n=26, provengono da una popolazione normale<br />

con varianza σ 2 =0.0529 , da cui σ=0.23 . Inoltre, x=1.6.<br />

a1) L’ipotesi nulla è H0 : µ = µ0 = 1.54 contro l’ipotesi alternativa HA : µ > 1.54 . La<br />

statistica da testare è<br />

Z =<br />

X ¡ µ0<br />

σ/ p n<br />

a2) il rischio <strong>di</strong> prima specie è α=0.05 ;<br />

X ¡ 1.54<br />

=<br />

0.23/ p X ¡ 1.54<br />

=<br />

26 0.0451 ;<br />

a3) la regione <strong>di</strong> rifiuto è Z >u0.05 ¼ 1.645 o, equivalentemente,<br />

X > ξ2 = µ0 + σ<br />

p n uα ¼ 1.54 + 0.0451¢1.645 ¼ 1.614 ;<br />

a4) l’intervallo <strong>di</strong> fiducia è dunque [¡1, 1.614]. Poichè la me<strong>di</strong>a calcolata x vale 1.6 e<br />

quin<strong>di</strong> vi cade internamente, l’ipotesi nulla H0 : µ0 = 1.54 non può essere rifiutata. E<br />

questa è la risposta alla prima domanda.<br />

b) Ora si sa che la me<strong>di</strong>a vale 1.62. Ci si chiede dunque qual è il rischio β <strong>di</strong> seconda specie<br />

quando l’ipotesi alternativa è HA : µA=1.62. Ci si chiede cioè quanto vale β essendo<br />

β = P X · ξ2 j HA : µ = 1.62 .<br />

123


Standar<strong>di</strong>zzando si ha<br />

<br />

X ¡ 1.62<br />

β = P<br />

0.0451 · ξ2 ¡ 1.62<br />

<br />

¼ P<br />

0.0451<br />

Z · ¡0.133] =<br />

= 1 ¡ P [Z · 0.133] ¼ 1 ¡ 0.553 = 0.447 ¼ 45% .<br />

Vi è dunque una probabilità <strong>di</strong> circa il 45% <strong>di</strong> non rifiutare l’ipotesi che i fili <strong>di</strong> rame<br />

provengano da un processo produttivo con me<strong>di</strong>a 1.54 quando in realtà tale me<strong>di</strong>a è 1.62.<br />

c) Si deve ora determinare la <strong>di</strong>mensione n che dovrebbe avere il campione perchè si abbia<br />

un errore <strong>di</strong> seconda specie del 10% relativamente all’ipotesi alternativa HA : µ = 1.65,<br />

fermo restando l’errore <strong>di</strong> prima specie del 5% per testare l’ipotesi nulla H0 : µ = 1.54<br />

contro l’ipotesi alternativa HA : µ>1.54. Il rischio β <strong>di</strong> seconda specie è con quest’ultima<br />

ipotesi alternativa è dato da<br />

dove ξ2(n), che ora <strong>di</strong>pende da n, vale<br />

β = P X · ξ2(n) j HA : µ = 1.65 ,<br />

ξ2(n) = µ0 + σuα<br />

pn ¼ 1.54 + 0.3784<br />

p n .<br />

Essendo β noto ed uguale a 0.1, me<strong>di</strong>ante standar<strong>di</strong>zzazione la relazione scritta sopra porta<br />

alla seguente equazione in n:<br />

<br />

<br />

<br />

X ¡ 1.65 p ξ2(n) ¡ 1.65 p <br />

0.3784 √ ¡ 0.11<br />

n p<br />

P<br />

n · n = P Z ·<br />

n = 0.1 ,<br />

0.23<br />

0.23<br />

0.23<br />

da cui, essendo φ0.1 = ¡φ0.9 ¼ ¡1.281, segue<br />

0.3784<br />

e quin<strong>di</strong><br />

√ ¡ 0.11<br />

n p p p p<br />

n = ¡1.281 da cui (0.3784 ¡ 0.11 n) n = ¡0.2946 n ,<br />

0.23<br />

0.11 p n = 0.673 ossia n =<br />

<br />

0.673<br />

2 ¼ (6.12)<br />

0.11<br />

2 ¼ 37.4 .<br />

Dunque, la <strong>di</strong>mensione del campione che sod<strong>di</strong>sfa alle con<strong>di</strong>zioni poste nella domanda è 38.<br />

Se avessimo voluto determinare n me<strong>di</strong>ante le curve caratteristiche, avremmo dovuto procedere<br />

nel modo seguente. Calcolata l’ascissa<br />

d = jµ0 ¡ µAj<br />

σ<br />

= j1.54 ¡ 1.65j<br />

0.23<br />

¼ 0.48 ,<br />

essendo l’or<strong>di</strong>nata β uguale a 0.1, si in<strong>di</strong>vidua la curva caratteristica, fra quelle per test<br />

unilaterali relative ad α=0.05, che “contiene” il punto (d, β) ¼ (0.48, 0.1). Dai grafici che<br />

seguono, per quanto un po’ grossolani, il valore che che si desume è del tutto compatibile<br />

con n=38.<br />

124


Curve caratteristiche operative per test unilaterali per la me<strong>di</strong>a della popolazione<br />

(varianza nota), con campioni <strong>di</strong> <strong>di</strong>mensione 2-10,15,20,30,40,50,75,100, per α=0.05.<br />

Curve caratteristiche operative per test bilaterali per la me<strong>di</strong>a della popolazione<br />

(varianza nota), con campioni <strong>di</strong> <strong>di</strong>mensione 2-10,15,20,30,40,50,75,100, per α=0.05.<br />

125


QUANTILI DELLA LEGGE NORMALE STANDARD: P [N(0, 1)] · x<br />

x .00 .01 .02 .03 .04 .05 .06 .07 .08 .09<br />

.0 .5000 .5040 .5080 .5120 .5160 .5199 .5239 .5279 .5319 .5359<br />

.1 .5398 .5438 .5478 .5517 .5557 .5596 .5636 .5675 .5714 .5753<br />

.2 .5793 .5832 .5871 .5910 .5948 .5987 .6026 .6064 .6103 .6141<br />

.3 .6179 .6217 .6255 .6293 .6331 .6368 .6406 .6443 .6480 .6517<br />

.4 .6554 .6591 .6628 .6664 .6700 .6736 .6772 .6808 .6844 .6879<br />

.5 .6915 .6950 .6985 .7019 .7054 .7088 .7123 .7157 .7190 .7224<br />

.6 .7257 .7291 .7324 .7357 .7389 .7422 .7454 .7486 .7517 .7549<br />

.7 .7580 .7611 .7642 .7673 .7704 .7734 .7764 .7794 .7823 .7852<br />

.8 .7881 .7910 .7939 .7967 .7995 .8023 .8051 .8078 .8106 .8133<br />

.9 .8159 .8186 .8212 .8238 .8264 .8289 .8315 .8340 .8365 .8389<br />

1.0 .8413 .8438 .8461 .8485 .8508 .8531 .8554 .8577 .8599 .8621<br />

1.1 .8643 .8665 .8686 .8708 .8729 .8749 .8770 .8790 .8810 .8830<br />

1.2 .8849 .8869 .8888 .8907 .8925 .8944 .8962 .8980 .8997 .9015<br />

1.3 .9032 .9049 .9066 .9082 .9099 .9115 .9131 .9147 .9162 .9177<br />

1.4 .9192 .9207 .9222 .9236 .9251 .9265 .9279 .9292 .9306 .9319<br />

1.5 .9332 .9345 .9357 .9370 .9382 .9394 .9406 .9418 .9429 .9441<br />

1.6 .9452 .9463 .9474 .9484 .9495 .9505 .9515 .9525 .9535 .9545<br />

1.7 .9554 .9564 .9573 .9582 .9591 .9599 .9608 .9616 .9625 .9633<br />

1.8 .9641 .9649 .9656 .9664 .9671 .9678 .9686 .9693 .9699 .9706<br />

1.9 .9713 .9719 .9726 .9732 .9738 .9744 .9750 .9756 .9761 .9767<br />

2.0 .9772 .9778 .9783 .9788 .9793 .9798 .9803 .9808 .9812 .9817<br />

2.1 .9821 .9826 .9830 .9834 .9838 .9842 .9846 .9850 .9854 .9857<br />

2.2 .9861 .9864 .9868 .9871 .9875 .9878 .9881 .9884 .9887 .9890<br />

2.3 .9893 .9896 .9898 .9901 .9904 .9906 .9909 .9911 .9913 .9916<br />

2.4 .9918 .9920 .9922 .9925 .9927 .9929 .9931 .9932 .9934 .9936<br />

2.5 .9938 .9940 .9941 .9943 .9945 .9946 .9948 .9949 .9951 .9952<br />

2.6 .9953 .9955 .9956 .9957 .9959 .9960 .9961 .9962 .9963 .9964<br />

2.7 .9965 .9966 .9967 .9968 .9969 .9970 .9971 .9972 .9973 .9974<br />

2.8 .9974 .9975 .9976 .9977 .9977 .9978 .9979 .9979 .9980 .9981<br />

2.9 .9981 .9982 .9982 .9983 .9984 .9984 .9985 .9985 .9986 .9986<br />

3.0 .9987 .9987 .9987 .9988 .9988 .9989 .9989 .9989 .9990 .9990<br />

3.1 .9990 .9991 .9991 .9991 .9992 .9992 .9992 .9992 .9993 .9993<br />

3.2 .9993 .9993 .9994 .9994 .9994 .9994 .9994 .9995 .9995 .9995<br />

3.3 .9995 .9995 .9995 .9996 .9996 .9996 .9996 .9996 .9996 .9997<br />

125


QUANTILI DELLA LEGGE t DI STUDENT: P [Tn(x)] · α<br />

n α=0.90 α=0.95 α=0.975 α=0.98 α=0.99 α=0.995<br />

1 3.078 6.314 12.71 15.894 31.821 63.66<br />

2 1.886 2.920 4.303 4.849 6.965 9.925<br />

3 1.638 2.353 3.182 3.482 4.541 5.841<br />

4 1.533 2.132 2.776 2.999 3.747 4.604<br />

5 1.476 2.015 2.571 2.757 3.365 4.032<br />

6 1.440 1.943 2.447 2.612 3.143 3.707<br />

7 1.415 1.895 2.365 2.517 2.998 3.499<br />

8 1.397 1.860 2.306 2.449 2.896 3.355<br />

9 1.383 1.833 2.262 2.398 2.821 3.250<br />

10 1.372 1.812 2.228 2.359 2.764 3.169<br />

11 1.363 1.796 2.201 2.328 2.718 3.106<br />

12 1.356 1.782 2.179 2.303 2.681 3.055<br />

13 1.350 1.771 2.160 2.282 2.650 3.012<br />

14 1.345 1.761 2.145 2.264 2.624 2.977<br />

15 1.341 1.753 2.131 2.249 2.602 2.947<br />

16 1.337 1.746 2.120 2.235 2.583 2.921<br />

17 1.333 1.740 2.110 2.224 2.567 2.898<br />

18 1.330 1.734 2.101 2.214 2.552 2.878<br />

19 1.328 1.729 2.093 2.205 2.539 2.861<br />

20 1.325 1.725 2.086 2.197 2.528 2.845<br />

21 1.323 1.721 2.080 2.189 2.518 2.831<br />

22 1.321 1.717 2.074 2.183 2.508 2.919<br />

23 1.319 1.714 2.069 2.177 2.500 2.807<br />

24 1.318 1.711 2.064 2.172 2.492 2.797<br />

25 1.316 1.708 2.060 2.167 2.485 2.787<br />

26 1.315 1.706 2.056 2.162 2.479 2.779<br />

28 1.313 1.701 2.048 2.154 2.467 2.763<br />

30 1.310 1.697 2.042 2.147 2.457 2.750<br />

32 1.309 1.694 2.037 2.141 2.449 2.738<br />

35 1.306 1.690 2.030 2.133 2.438 2.724<br />

40 1.303 1.684 2.021 2.123 2.423 2.704<br />

50 1.299 1.676 2.009 2.109 2.403 2.678<br />

60 1.296 1.671 2.000 2.099 2.390 2.660<br />

1 1.282 1.645 1.960 2.054 2.326 2.576<br />

126


QUANTILI DELLA LEGGE CHI-QUADRO: P [χ 2 n(x)] · α<br />

n 0.005 0.01 0.025 0.05 0.10 0.90 0.95 0.975 0.99 0.995<br />

1 .00004 .00016 .00098 .0039 .015 2.706 3.841 5.024 6.635 7.879<br />

2 0.0100 0.0201 0.0506 0.103 0.211 4.605 5.991 7.378 9.210 10.597<br />

3 0.0717 0.115 0.216 0.352 0.584 6.251 7.815 9.348 11.345 12.838<br />

4 0.207 0.297 0.484 0.711 1.064 7.779 9.488 11.143 13.277 14.860<br />

5 0.412 0.554 0.831 1.145 1.610 9.236 11.070 12.832 15.086 16.750<br />

6 0.676 0.872 1.237 1.635 2.204 10.645 12.592 14.449 16.812 18.548<br />

7 0.989 1.239 1.690 2.167 2.833 12.017 14.067 16.013 18.475 20.278<br />

8 1.344 1.647 2.180 2.733 3.490 13.362 15.507 17.535 20.090 21.955<br />

9 1.735 2.088 2.700 3.325 4.168 14.684 16.919 19.023 21.666 23.589<br />

10 2.156 2.558 3.247 3.940 4.865 15.987 18.307 20.483 23.209 25.188<br />

11 2.603 3.053 3.816 4.575 5.578 17.275 19.675 21.920 24.725 26.757<br />

12 3.074 3.571 4.404 5.226 6.304 18.549 21.026 23.337 26.217 28.300<br />

13 3.565 4.107 5.009 5.892 7.041 19.812 22.362 24.736 27.688 29.819<br />

14 4.075 4.660 5.629 6.571 7.790 21.064 23.685 26.119 29.141 31.319<br />

15 4.601 5.229 6.262 7.261 8.547 22.307 24.996 27.488 30.578 32.801<br />

16 5.142 5.812 6.908 7.962 9.312 23.542 26.296 28.845 32.000 34.267<br />

17 5.697 6.408 7.564 8.672 10.085 24.769 27.587 30.191 33.409 35.718<br />

18 6.265 7.015 8.231 9.390 10.865 25.989 28.869 31.526 34.805 37.156<br />

19 6.844 7.633 8.907 10.117 11.651 27.204 30.144 32.852 36.191 38.582<br />

20 7.434 8.260 9.591 10.851 12.443 28.412 31.410 34.170 37.566 39.997<br />

21 8.034 8.897 10.283 11.591 13.240 29.615 32.671 35.479 38.932 41.401<br />

22 8.643 9.542 19.982 12.338 14.041 30.813 33.924 36.781 40.289 42.796<br />

23 9.260 10.196 11.689 13.091 14.848 32.007 35.172 38.076 41.638 44.181<br />

24 9.886 10.856 12.401 13.848 15.659 33.196 36.415 39.364 42.980 45.558<br />

25 10.520 11.524 13.120 14.611 16.473 34.382 37.652 40.646 44.314 46.928<br />

26 11.160 12.198 13.844 15.379 17.292 35.563 38.885 41.923 45.642 48.290<br />

27 11.808 12.878 14.573 16.151 18.114 36.741 40.113 43.195 46.963 49.645<br />

28 12.461 13.565 15.308 16.928 18.939 37.916 41.337 44.461 48.278 50.994<br />

29 13.121 14.256 16.047 17.708 19.768 39.087 42.557 45.722 49.588 52.335<br />

30 13.787 14.953 16.791 18.493 20.599 40.256 43.773 46.979 50.892 53.672<br />

32 15.134 16.362 18.291 20.072 22.271 42.585 46.194 49.480 53.486 56.328<br />

34 16.501 17.789 19.806 21.664 23.952 44.903 48.602 51.966 56.061 58.964<br />

36 17.887 19.233 21.336 23.269 25.643 47.212 50.998 54.437 58.619 61.581<br />

38 19.289 20.691 22.878 24.884 27.343 49.513 53.384 56.895 61.162 64.181<br />

40 20.707 22.164 24.433 26.509 29.051 51.805 55.758 59.342 63.691 66.766<br />

45 24.311 25.901 28.366 30.612 33.350 57.505 61.656 65.410 69.957 73.166<br />

50 27.991 29.707 32.357 34.764 37.689 63.167 67.505 71.420 76.154 79.490<br />

60 35.534 37.485 40.482 43.188 46.459 74.397 79.082 83.298 88.379 91.952<br />

70 43.275 45.442 48.758 51.739 55.329 85.527 90.531 95.023 100.425 104.215<br />

80 51.172 53.140 57.153 60.391 64.278 96.578 101.879 106.629 112.329 116.321<br />

90 59.196 61.754 65.647 69.126 73.291 107.565 113.145 118.136 124.116 128.299<br />

100 67.328 70.065 74.222 77.929 82.358 118.498 124.342 129.561 135.807 140.170<br />

127


BIBLIOGRAFIA<br />

Anichini Giuseppe, Calcolo 4, Parte Prima, Elementi <strong>di</strong> calcolo delle probabilità<br />

e <strong>di</strong> inferenza statististica, Pitagora (Bologna), 1995.<br />

Ross Sheldon M., Probabilità e Statistica per L’Ingegneria e le scienze, Apogeo<br />

(Milano), 2003.<br />

Vicario Grazia, Raffaello Levi, Calcolo delle probabilità e statistica per ingegneri,<br />

Esculapio (Bologna), 2000.<br />

William Navi<strong>di</strong>, Probabilità e statistica per l’ingegneria e le scienze, McGraw-Hill,<br />

2006.<br />

— Ultime mo<strong>di</strong>fiche apportate il 16/4/2009 —<br />

128

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!