SMOP2
SMOP2 SMOP2
STATYSTYCZNE METODY OPRACOWANIA POMIARÓW - 2 B. Kamys Spis tre±ci 1 Wstep - podstawowe poj¦cia 4 2 Wielowymiarowe zmienne losowe 11 2.1 Rozkªad prawdopodobie«stwa funkcji wielowymiarowej zmiennej losowej . . 15 2.2 Momenty rozkªadu wielowymiarowej zmiennej losowej . . . . . . . . . . . 17 2.3 Przybli»one wzory na momenty funkcji wielowymiarowej zmiennej . . . . . 21 3 Rozkªad normalny (Gaussa) 23 3.1 Wielowymiarowy rozkªad normalny . . . . . . . . . . . . . . . . . . . . 26 3.2 Dwuwymiarowy rozkªad normalny . . . . . . . . . . . . . . . . . . . . . 27 4 Estymacja parametrów 30 5 Estymacja punktowa E(x), σ 2 (x) i σ(x) 34 5.1 Estymacja punktowa E(x) . . . . . . . . . . . . . . . . . . . . . . . . 34 5.2 Estymator wariancji σ 2 (x) . . . . . . . . . . . . . . . . . . . . . . . . 35 5.3 Estymator odchylenia standardowego σ(x) . . . . . . . . . . . . . . . . 37 6 Estymacja przedziaªowa E(x), σ 2 (x) i σ(x) 39 6.1 Estymacja przedziaªowa warto±ci oczekiwanej E{x} - znane σ{x} . . . . 40 6.2 Estymacja przedziaªowa warto±ci oczekiwanej E{x} - nieznane σ{x} . . 42 6.3 Estymacja przedziaªowa wariancji i odchylenia standardowego . . . . . . . 43 7 Estymacja punktowa E{⃗y(⃗x)} i macierzy kowariancji ⃗y(⃗x) 45 8 Regresja liniowa 48 9 Regresja przy pomocy wielomianów ortogonalnych 51 9.1 Regresja przy pomocy wielomianów ortogonalnych na zbiorze warto±ci argumentu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 9.2 Konstrukcja zespoªu wielomianów ortogonalnych na zbiorze warto±ci argumentu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
- Page 2 and 3: SMOP-2 B.Kamys: 2007/08 2 10 Metody
- Page 4 and 5: SMOP-2 B.Kamys: 2007/08 4 1 WSTEP -
- Page 6 and 7: SMOP-2 B.Kamys: 2007/08 6 Jak ªatw
- Page 8 and 9: SMOP-2 B.Kamys: 2007/08 8 var(x)
- Page 10 and 11: SMOP-2 B.Kamys: 2007/08 10 Mediana
- Page 12 and 13: SMOP-2 B.Kamys: 2007/08 12 brzegowy
- Page 14 and 15: SMOP-2 B.Kamys: 2007/08 14 normaliz
- Page 16 and 17: SMOP-2 B.Kamys: 2007/08 16 Dla pros
- Page 18 and 19: SMOP-2 B.Kamys: 2007/08 18 Poniewa
- Page 20 and 21: SMOP-2 B.Kamys: 2007/08 20 c.b.d.o.
- Page 22 and 23: SMOP-2 B.Kamys: 2007/08 22 Wyprowad
- Page 24 and 25: SMOP-2 B.Kamys: 2007/08 24 Dystrybu
- Page 26 and 27: SMOP-2 B.Kamys: 2007/08 26 3.1 WIEL
- Page 28 and 29: SMOP-2 B.Kamys: 2007/08 28 Rozkªad
- Page 30 and 31: SMOP-2 B.Kamys: 2007/08 30 4 ESTYMA
- Page 32 and 33: SMOP-2 B.Kamys: 2007/08 32 Oczywi±
- Page 34 and 35: SMOP-2 B.Kamys: 2007/08 34 5 ESTYMA
- Page 36 and 37: SMOP-2 B.Kamys: 2007/08 36 Wtedy, w
- Page 38 and 39: SMOP-2 B.Kamys: 2007/08 38 s(x): s(
- Page 40 and 41: SMOP-2 B.Kamys: 2007/08 40 6.1 ESTY
- Page 42 and 43: SMOP-2 B.Kamys: 2007/08 42 6.2 ESTY
- Page 44 and 45: SMOP-2 B.Kamys: 2007/08 44 (n − 1
- Page 46 and 47: SMOP-2 B.Kamys: 2007/08 46 Symbol (
- Page 48 and 49: SMOP-2 B.Kamys: 2007/08 48 8 REGRES
- Page 50 and 51: SMOP-2 B.Kamys: 2007/08 50 • x to
STATYSTYCZNE METODY OPRACOWANIA<br />
POMIARÓW - 2<br />
B. Kamys<br />
Spis tre±ci<br />
1 Wstep - podstawowe poj¦cia 4<br />
2 Wielowymiarowe zmienne losowe 11<br />
2.1 Rozkªad prawdopodobie«stwa funkcji wielowymiarowej zmiennej losowej . . 15<br />
2.2 Momenty rozkªadu wielowymiarowej zmiennej losowej . . . . . . . . . . . 17<br />
2.3 Przybli»one wzory na momenty funkcji wielowymiarowej zmiennej . . . . . 21<br />
3 Rozkªad normalny (Gaussa) 23<br />
3.1 Wielowymiarowy rozkªad normalny . . . . . . . . . . . . . . . . . . . . 26<br />
3.2 Dwuwymiarowy rozkªad normalny . . . . . . . . . . . . . . . . . . . . . 27<br />
4 Estymacja parametrów 30<br />
5 Estymacja punktowa E(x), σ 2 (x) i σ(x) 34<br />
5.1 Estymacja punktowa E(x) . . . . . . . . . . . . . . . . . . . . . . . . 34<br />
5.2 Estymator wariancji σ 2 (x) . . . . . . . . . . . . . . . . . . . . . . . . 35<br />
5.3 Estymator odchylenia standardowego σ(x) . . . . . . . . . . . . . . . . 37<br />
6 Estymacja przedziaªowa E(x), σ 2 (x) i σ(x) 39<br />
6.1 Estymacja przedziaªowa warto±ci oczekiwanej E{x} - znane σ{x} . . . . 40<br />
6.2 Estymacja przedziaªowa warto±ci oczekiwanej E{x} - nieznane σ{x} . . 42<br />
6.3 Estymacja przedziaªowa wariancji i odchylenia standardowego . . . . . . . 43<br />
7 Estymacja punktowa E{⃗y(⃗x)} i macierzy kowariancji ⃗y(⃗x) 45<br />
8 Regresja liniowa 48<br />
9 Regresja przy pomocy wielomianów ortogonalnych 51<br />
9.1 Regresja przy pomocy wielomianów ortogonalnych na zbiorze warto±ci argumentu<br />
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />
9.2 Konstrukcja zespoªu wielomianów ortogonalnych na zbiorze warto±ci argumentu<br />
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
SMOP-2 B.Kamys: 2007/08 2<br />
10 Metody szukania estymatorów o po»¡danych wªasno±ciach 56<br />
10.1 Metoda momentów (MM) . . . . . . . . . . . . . . . . . . . . . . . . 56<br />
10.2 Metoda najwiekszej wiarygodno±ci (MNW) . . . . . . . . . . . . . . . 60<br />
10.2.1 Oszacowanie bªedu parametru znalezionego MNW . . . . . . . . . 65<br />
10.3 Metoda najmniejszych kwadratów (MNK) . . . . . . . . . . . . . . . . 66<br />
11 Testowanie hipotez statystycznych 70<br />
11.1 Denicje elementarnych poje¢ . . . . . . . . . . . . . . . . . . . . . . . 70<br />
11.2 Schemat postepowania przy testowaniu hipotez . . . . . . . . . . . . . . 71<br />
11.3 Hipotezy dotyczace warto±ci oczekiwanej . . . . . . . . . . . . . . . . . 73<br />
11.3.1 Porównanie E(X) z liczba (H 0 : E(X) = X 0 ) . . . . . . . . . . 73<br />
11.3.2 Warto±ci oczekiwane dwu populacji (H 0 : E(X) = E(Y )) . . . . 75<br />
11.4 Hipotezy dotyczace wariancji . . . . . . . . . . . . . . . . . . . . . . . 77<br />
11.4.1 Porównanie wariancji X z liczba (H 0 : σ 2 (X) = σ 2 0 ) . . . . . . . 77<br />
11.4.2 Porównanie wariancji dwu populacji (H 0 : σ 2 (X) = σ 2 (Y )) . . . 77<br />
11.5 Test normalno±ci rozkªadu . . . . . . . . . . . . . . . . . . . . . . . . . 79<br />
11.5.1 Test zerowania sie wspóªczynnika asymetrii i kurtozy . . . . . . . . 79<br />
11.5.2 Test zgodno±ci λ - Koªmogorowa . . . . . . . . . . . . . . . . . . 81<br />
11.5.3 Test zgodno±ci χ 2 - Pearsona . . . . . . . . . . . . . . . . . . . 83<br />
11.5.4 Wykres normalny . . . . . . . . . . . . . . . . . . . . . . . . . 85<br />
11.6 Testy nieparametryczne hipotez porównujacych populacje . . . . . . . . . 87<br />
11.6.1 Test Smirnowa . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />
11.6.2 Test znaków . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90<br />
11.6.3 Test serii Walda-Wolfowitza . . . . . . . . . . . . . . . . . . . . 91<br />
11.6.4 Test sumy rang Wilcoxona-Manna-Whitneya . . . . . . . . . . . . 94<br />
11.6.5 Wykres kwantyl-kwantyl . . . . . . . . . . . . . . . . . . . . . . 95<br />
11.7 Hipoteza jednorodno±ci wariancji . . . . . . . . . . . . . . . . . . . . . 97<br />
11.7.1 Test Bartletta . . . . . . . . . . . . . . . . . . . . . . . . . . . 97<br />
11.7.2 Test Cochrana . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />
11.7.3 Test F max Hartleya . . . . . . . . . . . . . . . . . . . . . . . . 98<br />
11.8 Analiza wariancji (ANOVA) - klasykacja jednoczynnikowa . . . . . . . . 99<br />
11.8.1 Inne sformuªowanie hipotezy zerowej . . . . . . . . . . . . . . . . 101<br />
11.8.2 Praktyczne rachunki w ANOVA . . . . . . . . . . . . . . . . . . 102<br />
11.8.3 Stabilizacja wariancji . . . . . . . . . . . . . . . . . . . . . . . . 103<br />
11.9 Analiza wariancji (ANOVA) - klasykacja dwuczynnikowa . . . . . . . . . 105<br />
11.10Test wspóªzale»no±ci statystycznej pomiedzy cechami jako±ciowymi . . . . 109<br />
11.10.1 Test dokªadny (Fishera) dla tablic kontyngencji 2x2 . . . . . . . . 110<br />
11.10.2 Test χ 2 dla tablic kontyngencji 2x2 . . . . . . . . . . . . . . . . 115<br />
11.10.3 Wspóªczynnik korelacji rang ϱ Spearmana . . . . . . . . . . . . . 118<br />
11.10.4 Wspóªczynnik korelacji rang τ Kendalla . . . . . . . . . . . . . . 121<br />
11.10.5 Analiza asocjacyjna . . . . . . . . . . . . . . . . . . . . . . . . 125<br />
11.10.6 Miary siªy zwiazku nominalnych zmiennych jako±ciowych . . . . . . 128<br />
11.11Test istotno±ci dla wspóªczynnika korelacji Pearsona . . . . . . . . . . . . 132<br />
11.12Test istotno±ci dla stosunku korelacyjnego . . . . . . . . . . . . . . . . . 134
SMOP-2 B.Kamys: 2007/08 3<br />
12 Metoda Monte Carlo 138<br />
12.1 Liczenie caªek metoda Monte Carlo . . . . . . . . . . . . . . . . . . . . 138<br />
12.2 Zmniejszanie bªedu caªki . . . . . . . . . . . . . . . . . . . . . . . . . . 141<br />
12.3 Generacja liczb losowych . . . . . . . . . . . . . . . . . . . . . . . . . . 143<br />
12.3.1 Generacja liczb o rozkªadzie równomiernym . . . . . . . . . . . . 143<br />
12.3.2 Generacja liczb losowych o dowolnych rozkªadach prawdopodobie«stwa 145<br />
12.3.3 Generacja wielowymiarowych zmiennych losowych . . . . . . . . . 153<br />
12.4 Modelowanie komputerowe . . . . . . . . . . . . . . . . . . . . . . . . 155<br />
12.4.1 Modelowanie przechodzenia neutronów przez o±rodek symulacja . . 155<br />
12.4.2 Modelowanie przez zastosowanie wag statystycznych . . . . . . . . 162<br />
12.4.3 Modelowanie przechodzenia neutronów przez o±rodek wagi statystyczne<br />
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
SMOP-2 B.Kamys: 2007/08 4<br />
1 WSTEP - podstawowe poj¦cia<br />
W tym wst¦pie zostan¡ przypomniane podstawowe pojecia teorii prawdopodobie«stwa.<br />
Nie powtarzamy wszystkich niezbednych denicji (mo»na je znale¹¢ w notatkach do wykªadu<br />
ze Statystycznych Metod Opracowania Pomiarów I na stronie internetowej IFUJ).<br />
1. Zdarzenia losowe. Badane zdarzenia traktujemy jako zdarzenia losowe. Denicje<br />
zdarze« losowych omawiali±my na SMOP1 a tu przypomnijmy tylko intuicyjne okre-<br />
±lenie; sa to takie zdarzenia o których nie mo»emy z góry wyrokowa¢ czy<br />
zajda czy te» nie. To intuicyjne okre±lenie nie uwzgl¦dnia zdarzenia pewnego<br />
(zachodz¡cego zawsze) i zdarzenia niemo»liwego (nie zachodz¡cego nigdy), które<br />
formalnie nale»¡ do zdarze« losowych.<br />
2. Ka»demu zdarzeniu losowemu mo»emy przypisa¢ prawdopodobie«stwo, które jest<br />
miara czesto±ci pojawiania sie zdarzenia w okre±lonych warunkach (de-<br />
nicje tak»e poznali±my na wykªadzie SMOP-1). Prawdopodobie«stwo i metody<br />
pracy z prawdopodobie«stwem stanowia dziaª matematyki nazywany teoria prawdopodobie«stwa,<br />
na której opieraj¡ si¦ wszystkie rozwa»ania statystyki tak jak rozwa»ania<br />
zyki opieraj¡ si¦ na formali¹mie matematyki.<br />
3. Zmienne losowe to dodatkowe (poza prawdopodobie«stwem) charakterystyki zdarze«<br />
losowych. W zyce zajmujemy sie tylko wielko±ciami, które mog¡ by¢ zmierzone<br />
tzn. takimi, które moga by¢ ilo±ciowo porównane z wielko±ci¡ tego samego rodzaju<br />
przyj¦t¡ za jednostke. Dlatego te» w zyce wystepuja tylko ilo±ciowe zmienne<br />
losowe.<br />
W przyrodniczych dziedzinach wiedzy zwiazanych z organizmami »ywymi, wprowadza<br />
sie tak»e jako±ciowe zmienne losowe. Zmienne te dzielimy na zmienne nominalne,<br />
dla których okre±lona jest jedynie relacja identyczny - ró»ny i zmienne<br />
porzadkowe, dla których dodatkowo mo»na wprowadzi¢ relacje uporzadkowania<br />
(lepszy ni» , bardziej bolesny, itp.). Dla zmiennych nominalnych i porzadkowych<br />
stosuje si¦ specyczne metody statystyczne.<br />
Warto przypomnie¢, »e obok powy»szego podziaªu wprowadzone sa inne klasykacje,<br />
np. zmienne mierzalne dzieli sie na zmienne ciagªe i zmienne dyskretne ze<br />
wzgledu na przyjmowany zbiór warto±ci (oczywi±cie moga równie» istnie¢ zmienne<br />
o charakterze mieszanym, tzn. przyjmujace w pewnych przedziaªach zmienno±ci<br />
warto±ci dyskretne a w innych warto±ci ciagªe). Inny jeszcze podziaª zmiennych<br />
mierzalnych to podziaª na zmienne przedziaªowe, dla których nie jest okre±lone<br />
naturalne zero skali (np. temperatura w skali Celsjusza) oraz zmienne stosunkowe<br />
gdzie zero skali jest naturalnym a nie umownym zerem (np. temperatura w skali<br />
bezwzglednej). Dla pierwszego typu zmiennych istotne sa tylko przyrosty zmiennej<br />
a nie ma sensu bezwzgledna warto±¢ tych zmiennych a wiec w szczególno±ci nie<br />
mo»na liczy¢ ilorazów warto±ci tych zmiennych w odró»nieniu od zmiennych stosunkowych<br />
gdzie ilorazy sa dobrze okre±lone i moga by¢ poprawnie interpretowane.<br />
Stad wªa±nie pochodza przytoczone nazwy.
SMOP-2 B.Kamys: 2007/08 5<br />
4. Statystyka jest dziaªem nauki, który posªugujac sie metodami teorii prawdopodobie«stwa<br />
zajmuje sie zdarzeniami losowymi badanymi w praktyce do±wiadczalnej i<br />
obserwacyjnej. W szczególno±ci statystyka podaje przepisy jak na podstawie sko«-<br />
czonej grupy obserwacji czy pomiarów wnioskowa¢ o wszystkich mo»liwych obserwacjach<br />
i pomiarach (teoria estymacji) i okre±la reguªy stawiania hipotez i ich<br />
sprawdzania na podstawie sko«czonej liczby obserwacji czy pomiarów (testowanie<br />
hipotez statystycznych). W obu tych podstawowych dziaªach statystyki trzeba<br />
stosowa¢ specyczne metody je»eli mamy do czynienia ze zmiennymi nominalnymi<br />
i porzadkowymi.<br />
5. Metoda Monte Carlo to bardzo rozpowszechniona ostatnio metoda rozwi¡zywania<br />
ró»nych zada« matematyki i nauk przyrodniczych przez przyporz¡dkowanie oryginalnemu<br />
problemowi równowa»nego zagadnienia z teorii prawdopodobie«stwa i<br />
rozwi¡zania tego problemu metodami statystycznymi.<br />
6. Rozkªad prawdopodobie«stwa, funkcja gesto±ci prawdopodobie«stwa i dystrybuanta<br />
zwana tak»e przez statystyków funkcja rozkªadu sa wielko±ciami u»ywanymi<br />
do okre±lenia, jakie jest prawdopodobie«stwo pojawiania sie ró»nych warto-<br />
±ci (mierzalnej) zmiennej losowej. Odpowiednie denicje poznali±my na wykªadzie<br />
SMOP1.<br />
DEFINICJA:<br />
Przypomnijmy tutaj, »e rozkªad prawdopodobie«stwa to przyporzadkowanie dyskretnym<br />
warto±ciom zmiennej losowej prawdopodobie«stw - stosowany jest wiec<br />
tylko dla dyskretnych zmiennych losowych:<br />
P (x k ) = p k , k = 1, 2, . . . (1)<br />
PRZYKŠAD:<br />
Rozkªad dwumianowy (Bernoulliego) to rozkªad prawdopodobie«stwa pojawienia<br />
si¦ k pozytywnych wyników w serii n niezale»nych prób je»eli wiadomo, »e prawdopodobie«stwo<br />
otrzymania pozytywnego wyniku w pojedynczej próbie wynosi p:<br />
P (k) =<br />
(<br />
n<br />
k<br />
)<br />
· p k · (1 − p) n−k (2)<br />
Zmienna k przyjmuje warto±ci od zera do n.
SMOP-2 B.Kamys: 2007/08 6<br />
Jak ªatwo sprawdzi¢ suma prawdopodobie«stw wszystkich (wykluczaj¡cych si¦) wyników<br />
na warto±¢ zmiennej k jest równa jedno±ci bo zgodnie ze wzorem Newtona<br />
taka suma jest równa n-tej pot¦dze dwumianu; [p+(1−p)] n , który to»samo±ciowo<br />
równy jest jedno±ci.<br />
DEFINICJA:<br />
Funkcja gesto±ci prawdopodobie«stwa okre±la jakie jest prawdopodobie«stwo<br />
przyjmowania przez zmienna ciagªa X warto±ci z przedziaªu [x, x + dx]:<br />
f(x)dx ≡ P (x ≤ X ≤ x + dx) (3)<br />
Stad mo»na ªatwo wydedukowa¢ nastepujace, wa»ne wªasno±ci funkcji gesto±ci prawdopodobie«stwa:<br />
• f(x) ≥ 0<br />
• wymiar f(x) to 1/(wymiar x)<br />
• f(x) jest unormowana: ∫ +∞<br />
−∞<br />
f(x)dx = 1.<br />
DEFINICJA:<br />
Najbardziej ogólna wielko±cia, która mo»na zastosowa¢ zarówno do zmiennych<br />
ciagªych jak i dyskretnych jest dystrybuanta zdeniowana nastepujaco:<br />
F (x) ≡ P (X < x) (4)<br />
przy czym dla zmiennych ciagªych istnieje nastepujaca relacja pomiedzy dystrybuanta<br />
i funkcja gesto±ci prawdopodobie«stwa:<br />
oraz<br />
F (x) =<br />
f(x) =<br />
∫ x<br />
−∞<br />
f(t)dt<br />
dF (x)<br />
dx .<br />
7. Warto±¢ oczekiwana,wariancja,odchylenie standardowe to podstawowe wielko-<br />
±ci, które zawieraja w sobie wa»ne informacje o rozkªadzie prawdopodobie«stwa<br />
(funkcji gesto±ci prawdopodobie«stwa). Znajomo±¢ tych wielko±ci musi nam czesto
SMOP-2 B.Kamys: 2007/08 7<br />
zastapi¢ znajomo±¢ rozkªadu prawdopodobie«stwa, który znacznie trudniej wyznaczy¢<br />
z do±wiadczenia.<br />
DEFINICJA:<br />
Warto±¢ oczekiwana x deniowana jest dla zmiennych ciagªych jako:<br />
∫<br />
E(x) ≡<br />
x · f(x)dx (5)<br />
oraz dla zmiennych dyskretnych jako:<br />
E(x) ≡ ∑ i<br />
x i · p(x i ) (6)<br />
WŠASNO‘CI:<br />
• Warto±¢ oczekiwana jest ta warto±cia, dookoªa której gromadza sie<br />
warto±ci zmiennej losowej - wynika to z nierówno±ci Czebyszewa podanej<br />
poni»ej (po denicji wariancji).<br />
• Warto zapamieta¢, »e warto±¢ oczekiwana kombinacji liniowej jest kombinacja<br />
liniowa warto±ci oczekiwanych bo operator caªkowania i operator sumy sa operatorami<br />
liniowymi:<br />
E( ∑ j<br />
C j x j ) ≡ ∑ j<br />
C j · E(x j )<br />
• Cz¦sto wykorzystuje si¦ fakt, »e warto±¢ oczekiwan¡ pewnej funkcji zmiennej<br />
x; g(x), mo»na policzy¢ korzystaj¡c z funkcji g¦sto±ci prawdopodobie«-<br />
stwa (rozkªadu prawdopodobie«stwa) samego argumentu x:<br />
E(g(x)) =<br />
∫<br />
g(x) · f(x)dx<br />
= ∑ g(x i ) · p(x i )<br />
DEFINICJA:<br />
i<br />
Wariancja, oznaczana var(x) lub σ 2 (x) deniowana jest jako warto±¢ oczekiwana<br />
kwadratu odchylenia zmiennej od jej warto±ci oczekiwanej:
SMOP-2 B.Kamys: 2007/08 8<br />
var(x) ≡ E [ (x − E(x)) 2] (7)<br />
Prosze zapamieta¢ trzy nastepujace wªasno±ci wariancji, które czesto wykorzystuje<br />
sie w praktyce:<br />
• Wariancja nie zmienia sie przy przesunieciu zera skali zmiennej x (lub jak kto<br />
woli nie zmienia sie przy dodaniu dowolnej staªej do zmiennej x),<br />
• Zmiana jednostki skali o czynnik C (lub inaczej pomno»enie zmiennej x przez<br />
staªe C) powoduje pomno»enie wariancji przez czynnik C 2 .<br />
• Czesto wygodnie jest liczy¢ wariancje zmiennej x jako ró»nice warto±ci oczekiwanej<br />
kwadratu zmiennej x i kwadratu warto±ci oczekiwanej x:<br />
var(x) = E(x 2 ) − E 2 (x)<br />
Dwie pierwsze wªasno±ci wynikaja w prosty sposób z denicji wariancji oraz z faktu,<br />
»e w pierwszym przypadku dodanie staªej warto±ci C do zmiennej x powoduje dodanie<br />
tej samej warto±ci C do warto±ci oczekiwanej E(x) (a wiec ró»nica x − E(x)<br />
nie zmienia sie) a w drugim przypadku pomno»enie zmiennej x przez staªy czynnik<br />
C powoduje pomno»enie warto±ci oczekiwanej x przez ten czynnik a operacja<br />
podnoszenia do kwadratu, wystepujaca w denicji wariancji, powoduje pojawienie<br />
sie czynnika C 2 . Trzecia wªasno±¢ ªatwo otrzyma¢ rozpisujac jawnie kwadrat ró»-<br />
nicy wystepujacy w denicji wariancji a nastepnie dziaªajac operatorem warto±ci<br />
oczekiwanej na poszczególne wyrazy.<br />
DEFINICJA:<br />
Odchylenie standardowe σ(x) z denicji jest pierwiastkiem arytmetycznym (liczba<br />
nieujemna) z wariancji.<br />
Wariancja lub/i odchylenie standardowe u»ywane sa jako miary rozrzutu<br />
warto±ci zmiennej losowej x dookoªa jej warto±ci oczekiwanej co mo»na<br />
wywnioskowa¢ z nierówno±ci Czebyszewa:<br />
Nierówno±¢ Czebyszewa gªosi, »e dla ka»dej zmiennej losowej, która posiada skonczona<br />
wariancje (a wiec i warto±¢ oczekiwana) zachodzi zwiazek (∀ k > 0):<br />
P (|x − E(x)| ≥ k · σ(x)) ≤ 1 k 2 . (8)<br />
Skoro warto±¢ oczekiwana i odchylenie standardowe zmiennej x maja interpretacje<br />
centrum rozkªadu i naturalnej jednostki zmiennej x to jest oczywiste, »e dla celów
SMOP-2 B.Kamys: 2007/08 9<br />
praktycznych wygodnie jest wprowadzi¢ tzw.<br />
zdeniowana jest jako:<br />
zmienna standaryzowana, która<br />
z ≡<br />
(x − E(x))<br />
σ(x)<br />
(9)<br />
Jak ªatwo sprawdzi¢ warto±¢ oczekiwana zmiennej standaryzowanej równa jest zero:<br />
E(z) = 0 a odchylenie standardowe równe jest jedno±ci: σ(z) = 1. Zgodnie z<br />
twierdzeniem Czebyszewa warto±ci zmiennej standaryzowanej gromadza<br />
sie dookoªa warto±ci zerowej na odcinku równym kilku jednostkom .<br />
8. Kwantyle (albo fraktyle) to nastepne wa»ne i wygodne wielko±ci charakteryzujace<br />
rozkªad prawdopodobie«stwa (funkcje gesto±ci prawdopodobie«stwa).<br />
DEFINICJA:<br />
Kwantylem na poziomie q nazywamy taka warto±¢ zmiennej losowej x q , dla której<br />
speªniona jest relacja:<br />
p(X < x q ) = q (10)<br />
Korzystajac z denicji dystrybuanty F (x) mo»emy ten zwiazek zapisa¢ nastepujaco:<br />
F (x q ) = q.<br />
Kwantyle u»ywane sa bardzo czesto przy testowaniu hipotez statystycznych a<br />
tak»e przy estymacji przedziaªowej.<br />
DEFINICJA:<br />
Specycznymi kwantylami sa decyle, tj. kwantyle na poziomie 0,1, 0,2, 0,3 ... oraz<br />
percentyle, tj. kwantyle na poziomie 0,01, 0,02, ...<br />
DEFINICJA:<br />
U»ywa sie równie» specjalnej nazwy na okre±lenie kwantyla x 0.5 (mediana) oraz na<br />
okre±lenie kwantyli x 0.25 i x 0.75 (dolny kwartyl i górny kwartyl).
SMOP-2 B.Kamys: 2007/08 10<br />
Mediana sªu»y do okre±lania gdzie grupuja sie warto±ci zmiennej (poªowa warto-<br />
±ci zmiennej jest mniejsza od mediany a poªowa wieksza) a wiec mediana mo»e<br />
by¢ zastosowana w tym samym celu co warto±¢ oczekiwana . U»ywa sie jej<br />
szczególnie wtedy gdy pojawiaja sie warto±ci zmiennej losowej silnie odró»niajace<br />
sie od pozostaªych (nawet gdy pojawiaja sie one rzadko maja zwykle silny wpªyw<br />
na warto±¢ oczekiwana a znacznie mniejszy na mediane). Dotyczy to przede wszystkim<br />
zmiennych dyskretnych oraz, co jest bardzo wa»ne, oszacowa« (estymatorów)<br />
warto±ci oczekiwanej i mediany na podstawie niewielkiej próby.<br />
Kwartyle u»ywane sa dla scharakteryzowania rozrzutu warto±ci badanej zmiennej<br />
losowej (podobnie jak odchylenie standardowe) bo ich ró»nica daje pojecie o zakresie<br />
zmienno±ci rozwa»anej zmiennej.
SMOP-2 B.Kamys: 2007/08 11<br />
2 WIELOWYMIAROWE ZMIENNE LOSOWE<br />
Wielowymiarowa zmienna losowa deniowana jest analogicznie jak jednowymiarowa<br />
(skalarna), tzn. mo»na ja traktowa¢ jako wektor, którego skªadowe sa jednowymiarowymi<br />
zmiennymi losowymi.<br />
DEFINICJA:<br />
Dystrybuanta :<br />
F (x 1 , .., x N ) = P (X 1 < x 1 , ..., X N < x N ) (11)<br />
DEFINICJA:<br />
Funkcja gesto±ci prawdopodobie«stwa:<br />
f(x 1 , ..., x N ).dx 1 ...dx N = P (x 1 ≤ X 1 < x 1 + dx 1 , ..., x N ≤ X N < x N + dx N ) (12)<br />
Oprócz funkcji gesto±ci prawdopodobie«stwa dla caªego wektora losowego (X 1 , .., X N )<br />
mo»na zdeniowa¢ jeszcze :<br />
• Rozkªad brzegowy gesto±ci prawdopodobie«stwa i<br />
• Rozkªad warunkowy gesto±ci prawdopodobie«stwa.<br />
DEFINICJA:<br />
Brzegowy rozkªad gesto±ci prawdopodobie«stwa<br />
zmiennej X i ( i tej skªadowej wektora losowego) to wynik wycaªkowania funkcji gesto±ci<br />
prawdopodobie«stwa dla caªej wielowymiarowej zmiennej po wszystkich skªadowych z<br />
wyjatkiem X i :<br />
∫<br />
f b (X i ) =<br />
dx 1 ..dx i−1 .dx i+1 ...dx N .f(x 1 , ..., x N ) (13)<br />
Oczywi±cie mo»na stworzy¢ rozkªady brzegowe dla dwuwymiarowych zmiennych (je»eli<br />
N > 2) caªkujac po wszystkich zmiennych z wyjatkiem tych dwu wybranych,rozkªad
SMOP-2 B.Kamys: 2007/08 12<br />
brzegowy dla trzywymiarowych (je»eli N > 3) caªkujac po wszystkich z wyjatkiem tych<br />
trzech zmiennych, itd.<br />
Rozkªad warunkowy f w zmiennych (X 1 , .., X i ) pod warunkiem, »e zmienne (X i+1 , .., X N )<br />
przyjmuja warto±¢ w niesko«czenie maªym przedziale (x i+1 ≤ X i+1 < x i+1 , .., x N ≤<br />
X N < x N ) deniowany jest nastepujaco:<br />
f w (x 1 , .., x i |x i+1 , .., x N ) = f(x 1, .., x N )<br />
f b (x i+1 , .., x N )<br />
(14)<br />
Rozkªad ten nie jest okre±lony, gdy rozkªad brzegowy wystepujacy w mianowniku zeruje<br />
sie. Wska¹niki w i b zostaªy u»yte w tym wzorze aby podkre±li¢, »e posta¢ funkcyjna<br />
tych rozkªadów jest w ogólno±ci inna ni» rozkªadu f(x 1 , .., x N ).<br />
Rozkªad warunkowy mo»na tworzy¢ dla ró»nych zespoªów skªadowych wektora losowego,<br />
np. mogliby±my zdeniowa¢ rozkªad warunkowy pojedynczej zmiennej X N pod<br />
warunkiem, »e pozostaªe zmienne przyjmuja okre±lone warto±ci.<br />
Rozkªad prawdopodobie«stwa wielowymiarowej dyskretnej zmiennej losowej jest<br />
oczywistym uogólnieniem rozkªadu jednowymiarowego, a brzegowy rozkªad prawdopodobie«stwa<br />
i warunkowy rozkªad prawdopodobie«stwa tworzy sie tak jak ich<br />
odpowiedniki dla zmiennej ciagªej zastepujac caªkowanie sumowaniem po warto±ciach odpowiednich<br />
skªadowych.<br />
Warto równie» pamieta¢, »e mo»na tworzy¢ brzegowa dystrybuante i warunkowa<br />
dystrybuante (zarówno dla zmiennej ciagªej jak i skokowej).<br />
Niezale»ne zmienne losowe to takie, »e rozkªad warunkowy zmiennej (mo»e to by¢<br />
wielowymiarowa zmienna) pod warunkiem, »e druga zmienna przyjmuje konkretne warto-<br />
±ci (ta zmienna te» mo»e by¢ wielowymiarowa) równy jest rozkªadowi brzegowemu pierwszej<br />
zmiennej:<br />
f w (⃗x 1 |⃗x 2<br />
) = f b (⃗x 1 ) (15)<br />
Warunkiem koniecznym i wystarczajacym niezale»no±ci zmiennych losowych<br />
jest aby ich wspólna funkcja gesto±ci prawdopodobie«stwa (dla zmiennej ciagªej) lub ich<br />
wspólny rozkªad prawdopodobie«stwa (dla zmiennej dyskretnej) faktoryzowaªy sie tzn.<br />
f(x 1 , ...x N ) = f 1 (x 1 ).f 2 (x 2 )....f N (x N ) (16)
SMOP-2 B.Kamys: 2007/08 13<br />
UWAGA:<br />
Zale»no±¢ statystyczna zmiennych jest sªabsza ni» zwiazek funkcyjny bo oznacza tylko,<br />
»e rozkªad prawdopodobie«stwa a nie warto±¢ jednej ze zmiennych zale»y od warto±ci<br />
drugiej zmiennej. Co wiecej, zale»no±¢ statystyczna nie oznacza zwiazku przyczynowego.<br />
Najlepiej wida¢ to z faktu, »e gdy zmienna x nie zale»y statystycznie od y to automatycznie<br />
y nie zale»y statystycznie od x a tak wcale nie musi by¢ przy zwiazku<br />
przyczynowym, np. z faktu, »e wiek czªowieka nie zale»y przyczynowo od wzrostu nie<br />
wynika, »e wzrost nie zale»y przyczynowo od wieku.<br />
PRZYKŠAD<br />
dla 2-wymiarowej zmiennej losowej:<br />
Wspólna funkcja gesto±ci prawdopodobie«stwa X 1 i X 2 jest staªa (wynosi 1 / 2 ) w kwadracie<br />
o wierzchoªkach {(-1,0),(0,1),(1,0) i (0,-1)} a zeruje sie poza kwadratem.<br />
Rozkªad brzegowy X 1 :<br />
⎧<br />
⎪⎨<br />
f b (X 1 ) =<br />
⎪⎩<br />
0 dla X 1 ≤ −1<br />
X 1 + 1 dla −1 ≤ X 1 ≤ 0<br />
−X 1 + 1 dla 0 ≤ X 1 ≤ +1<br />
0 dla X 1 ≥ +1<br />
Jest to rozkªad trójkatny zwany rozkªadem Simpsona. Mo»na wyobrazi¢ sobie<br />
pogladowo, »e w powy»szym przykªadzie liczenie rozkªadu brzegowego jest równowa»ne<br />
zsypywaniu punktów jednorodnego rozkªadu w kwadracie na o± X 1 co powoduje, »e rozkªad<br />
brzegowy ma ksztaªt trójkata (w kwadracie zmiennych X 1 , X 2 najwiecej punktów<br />
ma wspóªrzedna X 1 bliska zeru a ilo±¢ punktów z wiekszymi lub mniejszymi warto±ciami<br />
tej wspóªrzednej maleje liniowo.<br />
Rozkªad warunkowy X 1 pod warunkiem X 2 .<br />
f w (X 1 |X 2 ) =<br />
1<br />
2<br />
f b (X 2 )<br />
Wzór ten wa»ny jest dla nastepujacego przedziaªu zmiennej X 1 :<br />
−X 2 − 1 ≤ X 1 ≤ +X 2 + 1 gdy − 1 ≤ X 2 ≤ 0<br />
+X 2 − 1 ≤ X 1 ≤ −X 2 + 1 gdy 0 ≤ X 2 ≤ +1<br />
Jak wida¢ rozkªad warunkowy X 1 jest rozkªadem równomiernym w przedziale, którego<br />
dªugo±¢ zale»y od warto±ci X 2 , co oznacza, »e zmienne sa zale»ne. Mo»emy to uja¢<br />
inaczej: Poniewa» f w (X 1 |X 2 ) ≠ f b (X 1 ) to zmienne X 1 i X 2 sa zale»ne !.<br />
Wyznaczanie rozkªadu warunkowego f w (X 1 |X 2 ) mo»na sobie wyobrazi¢ jako ogladanie<br />
(patrzac wzdªu» osi X 2 ) przekroju prostopadªo±cianu wykonanego wzdªu» linii równolegªej<br />
do osi X 1 i przechodzacej przez punkt o okre±lonej warto±ci X 2 . Przekrój ten to prostokat,<br />
którego jeden bok - przedziaª zmienno±ci X 1 - zale»y od X 2 a poniewa» ze wzgledu na
SMOP-2 B.Kamys: 2007/08 14<br />
normalizacje pole tego przekroju musi by¢ równe jedno±ci to i drugi bok prostokata -<br />
warto±¢ warunkowej funkcji gesto±ci prawdopodobie«stwa f w (X 1 |X 2 ) = 1/(2 · f b (X 2 ))<br />
musi zale»e¢ od X 2 .<br />
Wychodzac z takiej interpretacji rozkªadu warunkowego wida¢, »e gdyby kwadrat, w którym<br />
staªa funkcja gesto±ci prawdopodobie«stwa zmiennych (X 1 , X 2 ) jest ró»na od zera,<br />
miaª boki równolegªe do osi X 1 i X 2 to rozkªad warunkowy jednej ze zmiennych nie zale»aªby<br />
od warto±ci drugiej zmiennej a wiec zmienne byªyby niezale»ne statystycznie.
SMOP-2 B.Kamys: 2007/08 15<br />
2.1 ROZKŠAD PRAWDOPODOBIE‹STWA FUNKCJI<br />
WIELOWYMIAROWEJ ZMIENNEJ LOSOWEJ<br />
Bardzo czesto interesuje nas rozkªad zmiennej losowej, która jest funkcja wielowymiarowej<br />
zmiennej losowej, np. rozkªad sumy Z=X 1 +X 2 , iloczynu Z=X 1· X 2 , itd. W<br />
szczególno±ci mo»emy by¢ zainteresowani rozkªadem wielowymiarowej zmiennej losowej,<br />
która jest funkcja innej wielowymiarowej zmiennej losowej. Poni»ej podany jest wzór,<br />
który stanowi uogólnienie wzoru na rozkªad skalarnej funkcji skalarnego losowego argumentu:<br />
dX(Y )<br />
g(Y ) = f(X(Y ))<br />
∣ dY ∣<br />
Wzór ten stosowaª sie dla monotonicznej funkcji g(Y ) - w przypadku niemonotonicznej<br />
funkcji nale»y rozpatrywa¢ oddzielnie odcinki warto±ci argumentu, gdzie funkcja jest<br />
monotoniczna. Analogiem dla wektorowej funkcji wektorowego argumentu losowego (oba<br />
wektory o tym samym wymiarze) jest:<br />
∥ ∥∥∥∥∥ ∂X<br />
g(⃗Y ) = f( ⃗X(⃗Y ))<br />
i (⃗Y )<br />
(17)<br />
∥ ∂Y j<br />
Jak wida¢ oba wzory sa bardzo podobne, z tym »e moduª pochodnej zostaª zastapiony<br />
moduªem jakobianu. Wzór ten podobnie jak jego skalarny analog stosuje sie dla monotonicznych<br />
relacji pomiedzy zmiennymi.<br />
Je»eli znamy rozkªad wektorowej zmiennej losowej ⃗X to mo»emy otrzyma¢ rozkªad skalarnej<br />
zmiennej Y = y( ⃗X) wykonujac nastepujace dziaªania:<br />
• Tworzymy nowa wektorowa zmienna losowa ⃗Y o takim samym wymiarze jak ⃗X przy<br />
czym jedna ze skªadowych wektora ⃗Y jest interesujaca nas skalarna zmienna Y a<br />
pozostaªe skªadowe sa dowolne. Warunkiem na nie nakªadanym jest tylko istnienie<br />
jakobianu ∂X i<br />
∂Y j<br />
.<br />
• Caªkujemy po pomocniczych zmiennych traktujac interesujaca nas skalarna zmienna<br />
jako staªa (bedzie to oczywi±cie caªka po krzywej Y=const w przestrzeni zmiennych<br />
⃗Y ). Ten rozkªad brzegowy wielowymiarowego rozkªadu zmiennej ⃗Y jest szukanym<br />
rozkªadem skalarnej zmiennej Y.<br />
Oczywi±cie, taka sama procedure mo»na zastosowa¢, gdy szukamy rozkªadu zmiennej<br />
wektorowej ⃗Y ′ , o wymiarze mniejszym ni» wymiar ⃗Y .
SMOP-2 B.Kamys: 2007/08 16<br />
Dla prostych funkcji takich jak suma, ró»nica, iloczyn i iloraz dwu zmiennych <br />
z = x + y, z = y − x, z = x · y i z = y/x mo»na poda¢ ogólne wzory:<br />
g(z ≡ x + y) =<br />
g(z ≡ y − x) =<br />
g(z ≡ x · y) =<br />
g(z ≡ y/x) =<br />
+∞ ∫<br />
−∞<br />
+∞ ∫<br />
−∞<br />
+∞ ∫<br />
−∞<br />
+∞ ∫<br />
−∞<br />
f(x, z − x)dx =<br />
f(x, z + x)dx =<br />
+∞ ∫<br />
−∞<br />
+∞ ∫<br />
−∞<br />
1<br />
|x| f(x, z +∞ ∫<br />
x )dx =<br />
|x| f(x, zx)dx =<br />
−∞<br />
+∞ ∫<br />
−∞<br />
f(z − y, y)dy (18)<br />
f(y − z, y)dy (19)<br />
1<br />
|y| f(z , y)dy (20)<br />
y<br />
|y|<br />
z f(y , y)dy (21)<br />
2 z<br />
Szczególnie prosto wygladaja te wzory, gdy x i y sa niezale»ne - wówczas funkcja f(x, y)<br />
wystepujaca pod caªka wyra»a sie przez iloczyn dwu funkcji f 1 (x) i f 2 (y). Warto<br />
pamieta¢ o obu wersjach ka»dego wzoru, gdy» mo»e sie zdarzy¢, »e niektóre tylko caªki<br />
daja sie ªatwo policzy¢.<br />
W praktyce do±wiadczalnej rzadko mamy do czynienia z taka sytuacja, »e potramy<br />
wyznaczy¢ dystrybuante wielowymiarowej zmiennej czy te» funkcje gesto±ci prawdopodobie«stwa<br />
(dla zmiennej ciagªej) lub rozkªad prawdopodobie«stwa (dla zmiennej dyskretnej).<br />
Dlatego musimy sie zadowala¢ mniej peªnymi informacjami zawartymi w momentach<br />
rozkªadu. Dla zmiennych wielowymiarowych deniowane s¡ nowe typy momentów,<br />
które nie tylko informuj¡ o ksztaªcie i poªo»eniu rozkªadu ale s¡ szczególnie istotne dla<br />
badania zale»no±ci statystycznej pomi¦dzy zmiennymi losowymi. Do tego celu najlepiej<br />
nadaja sie nastepujace wielko±ci: macierz kowariancji oraz krzywe regresji zdeniowane<br />
poni»ej.
SMOP-2 B.Kamys: 2007/08 17<br />
2.2 MOMENTY ROZKŠADU WIELOWYMIAROWEJ<br />
ZMIENNEJ LOSOWEJ<br />
Momentem wielowymiarowej zmiennej losowej X (X 1 ,...,X N ) rzedu k 1 +...+k N wzgledem<br />
punktu X 0 (X 01 ,...,X 0N ) nazywamy wielko±¢ zdeniowana wzorem:<br />
∫<br />
m k1 +...+k N<br />
(X 01 , ..., X 0N ) =<br />
dX 1 ...dX N .f(X 1 , ..., X N ).(X 1 −X 01 ) k 1<br />
...(X N −X 0N ) k N<br />
(22)<br />
Ten wzór jest sªuszny dla zmiennej ciagªej a dla dyskretnej trzeba caªke zamieni¢ na sume<br />
i funkcje gesto±ci prawdopodobie«stwa na rozkªad prawdopodobie«stwa.<br />
Najwa»niejsze momenty dla celów analizy statystycznej danych to:<br />
Warto±¢ oczekiwana czyli pierwszy moment wzgledem poczatku ukªadu wspóªrzednych:<br />
E{ ⃗X} = (m 10...0 (0, .., 0), ..., m 0...01 (0, ..., 0))<br />
jest to wektor o skªadowych równych warto±ciom oczekiwanym poszczególnych zmiennych<br />
E{ ⃗X} = (E{X 1 }, E{X 2 }, ...E{X N }) (23)<br />
Wariancja czyli drugi moment wzgledem warto±ci oczekiwanej:<br />
var{X 1 } = m 20...0 (E{X 1 }, ..., E{X N })<br />
.............<br />
var{X N } = m 00...2 (E{X 1 }, ..., E{X N })<br />
(24)<br />
Kowariancja czyli drugi moment mieszany wzgledem warto±ci oczekiwanej:<br />
cov{X 1 , X 2 } = m 1100..0 (E{X 1 }, .., E{X N }),<br />
cov{X 1 , X 3 } = m 1010..0 (E{X 1 }, .., E{X N }),<br />
.....<br />
(25)
SMOP-2 B.Kamys: 2007/08 18<br />
Poniewa» wariancje mo»na uwa»a¢ za kowariancje policzona dla dwukrotnie powtórzonej<br />
zmiennej var{X i } = cov{X i ,X i } to wygodnie jest zgromadzi¢ wariancje i kowariancje w<br />
jeden zespóª wielko±ci zwany macierza kowariancji.<br />
• Na gªównej przekatnej macierzy kowariancji znajduja sie wariancje a poza przekatna<br />
kowariancje.<br />
• Macierz kowariancji jest: rzeczywista, symetryczna i dodatnio okre±lona.<br />
Mo»na ja wiec zawsze zdiagonalizowa¢ przez liniowa transformacje zmiennych pozostawiajac<br />
jedynie wariancje na diagonali.<br />
Czesto zamiast macierzy kowariancji tworzy sie macierz korelacji.<br />
Macierz ta skªada sie ze wspóªczynników korelacji ρ(X i ,X j ) zdeniowanych nastepujaco:<br />
ρ(X i , X j ) =<br />
cov{X i , X j }<br />
√<br />
var{Xi }.var{X j } (26)<br />
Oczywi±cie diagonalne elementy macierzy korelacji to jedynki a pozadiagonalne to odpowiednie<br />
wspóªczynniki korelacji.<br />
Wªasno±ci wspóªczynnika korelacji<br />
○ Wspóªczynnik korelacji przyjmuje warto±ci z przedziaªu [-1,+1]<br />
○ Je»eli zmienne sa niezale»ne to wspóªczynnik korelacji jest równy zero.<br />
○ Gdy wspóªczynnik korelacji równy jest zero (mówimy wtedy, »e zmienne sa<br />
nieskorelowane) to zmienne sa niezale»ne liniowo ale moga by¢ zale»ne i to nawet<br />
funkcyjnie.<br />
○ Je»eli zmienne X i Y sa zwiazane funkcyjnym zwiazkiem liniowym ; Y=<br />
aX+b to wspóªczynnik korelacji jest równy jedno±ci co do moduªu a jego znak jest taki<br />
sam jak znak wspóªczynnika kierunkowego prostej.<br />
○ Je»eli moduª wspóªczynnika korelacji jest równy jedno±ci to X i Y zwiazane<br />
sa funkcyjnym zwiazkiem liniowym Y= aX+b a znak wspóªczynnika kierunkowego prostej<br />
jest taki sam jak znak wspóªczynnika korelacji.<br />
Badanie wspóªczynników korelacji daje nam pewna informacje o zale»no±ci liniowej<br />
zmiennych gdy warto±¢ wspóªczynnika korelacji jest co do moduªu bliska jedno±ci. Znikanie<br />
wspóªczynnika korelacji mówi nam jedynie, »e zmienne sa niezale»ne liniowo ale nie
SMOP-2 B.Kamys: 2007/08 19<br />
pozwala jednoznacznie stwierdzi¢ czy zmienne sa statystycznie niezale»ne.<br />
Inny rodzaj informacji o spodziewanym zwiazku pomiedzy zmiennymi (niekoniecznie<br />
zwiazku liniowym) mo»na otrzyma¢ badajac jak zachowuje sie warto±¢ oczekiwana jednej<br />
zmiennej gdy potraktujemy ja jako funkcje warto±ci drugiej zmiennej. Taka funkcje<br />
nazywamy funkcja regresji a denicje podajemy poni»ej:<br />
DEFINICJA:<br />
Regresja (lub regresja pierwszego rodzaju ) zmiennej Y wzgledem X nazywamy warunkowa<br />
warto±¢ oczekiwana E{Y |X} traktowana jako funkcja zmiennej X. Oczywi±cie<br />
warunkowa warto±¢ oczekiwana E{X|Y } nazywamy regresja pierwszego rodzaju zmiennej<br />
X wzgledem Y .<br />
Podstawowa wªasno±¢ funkcji regresji E{Y |X} polega na tym, »e warto±¢ oczekiwana<br />
kwadratu odchyle« zmiennej losowej Y od dowolnej funkcji u(X) jest minimalna, gdy<br />
jako te funkcje przyjmiemy funkcje regresji E{Y |X}:<br />
E { (Y − u(X)) 2} ≥ E { (Y − E{Y |X}) 2} (27)<br />
Dowód:<br />
E { (Y − u(X)) 2} = ∫ dX · dY · f(X, Y ) · (Y − u(X)) 2<br />
= ∫ dX · f 1 (X) ∫ dY · f 2 (Y |X) · (Y − u(X)) 2<br />
Wewnetrzna caªka I jest warto±cia oczekiwana kwadratu odchylenia zmiennej Y od pewnej<br />
staªej (u(X) jest staªa je»eli idzie o caªkowanie wzgledem zmiennej Y ). Mo»emy wiec<br />
zapisa¢ te caªke nastepujaco (oznaczamy u(X) ≡ c):<br />
I<br />
≡<br />
∫<br />
dY · f 2 (Y |X) · (Y − u(X)) 2 =<br />
= E{(Y − c) 2 } =<br />
= E{(Y − E{Y } + E{Y } − c) 2 } =<br />
= E{(Y − E{Y }) 2 + 2(Y − E{Y })(E{Y } − c) + (E{Y } − c) 2 } =<br />
= E{(Y − E{Y }) 2 } + 2E{(Y − E{Y })(E{Y } − c)} + E{(E{Y } − c) 2 } =<br />
= E{(Y − E{Y }) 2 + 0 + E{(E{Y } − c) 2 }.<br />
Drugi wyraz zniknaª bo E{Y − E{Y }} ≡ 0 a pozostaªa suma warto±ci oczekiwanych<br />
z kwadratów (Y − E{Y }) 2 i (E{Y } − c) 2 bedzie miaªa minimum gdy E{Y } ≡ c.<br />
Poniewa» we wzorach powy»ej c ≡ u(x) oraz E{Y } ≡ E{Y |X} to wida¢, »e minimum<br />
osi¡gane jest dla u(x) = E{Y |X}.
SMOP-2 B.Kamys: 2007/08 20<br />
c.b.d.o.<br />
UWAGI:<br />
• Metoda estymacji parametrów oparta na omówionej powy»ej wªasno±ci funkcji regresji<br />
nazywana jest metoda najmniejszych kwadratów.<br />
• Funkcja regresji zmiennej Y wzgl¦dem X (E{Y |X}) zwykle nie pokrywa si¦ z<br />
funkcj¡ regresji zmiennej X wzgl¦dem Y (E{X|Y }) co jest spowodowane tym,<br />
»e pierwsza z nich minimalizuje sum¦ kwadratów odchyle« wzdªu» osi Y a druga<br />
wzdªu» osi X. Krzywe reprezentuj¡ce obie regresje pokrywaj¡ si¦ tylko wtedy, gdy<br />
zale»no±¢ pomi¦dzy Y i X jest zale»no±ci¡ funkcyjn¡ a nie statystyczn¡.<br />
Regresja liniowa zwana równie» regresja drugiego rodzaju to linia prosta przybli»ajaca<br />
zale»no±¢ regresji E{Y |X} od X, przy czym parametry tej prostej dobiera sie tak aby<br />
byªa speªniona podstawowa wªasno±¢ regresji tzn. aby warto±¢ oczekiwana sumy kwadratów<br />
odchyle« warto±ci Y od linii prostej byªa minimalna.<br />
W szczególnym przypadku dwuwymiarowego rozkªadu normalnego funkcja regresji<br />
E{Y |X} jest linia prosta a wiec funkcja regresji drugiego rodzaju jest równie» funkcja<br />
regresji pierwszego rodzaju.<br />
Regresja krzywoliniowa to funkcja nieliniowa argumentu X przybli»ajaca regresje E{Y |X}<br />
przy czym parametry funkcji dobierane sa metoda najmniejszych kwadratów. W tym<br />
przypadku nale»y rozró»ni¢ dwie sytuacje:<br />
• Parametry wchodza liniowo do funkcji , np. przybli»enie E{Y |X} przez szereg<br />
wielomianów lub innych funkcji tworzacych ukªad zupeªny. Odpowiada to tzw.<br />
liniowej metodzie najmniejszych kwadratów i pozwala znale¹¢ warto±ci parametrów<br />
jako rozwiazania ukªadu równa« liniowych przy czym dla unikniecia niestabilno±ci<br />
numerycznych zalecane jest stosowanie funkcji, które sa ortogonalne na danym<br />
odcinku lub na zbiorze warto±ci zmiennej X. W szczególno±ci mo»na posªu»y¢ sie<br />
wielomianami ortonormalnymi na zbiorze warto±ci zmiennej X.<br />
• Parametry wchodza nieliniowo do formuª . Wtedy optymalne warto±ci parametrów<br />
sa rozwiazaniami ukªadu równa« nieliniowych, które rozwiazuje sie ró»nymi<br />
sposobami. Jedna z popularnych metod jest szukanie rozwiaza« iteracyjnie znajdujac<br />
w kolejnych iteracjach poprawki do startowych parametrów w sposób analogiczny<br />
jak dla liniowego przypadku metody najmniejszych kwadratów. Osiaga sie<br />
to rozwijajac nieliniowa formuªe w szereg Taylora dokoªa startowych warto±ci parametrów<br />
i obcina sie szereg na wyrazach liniowych. Dla zapewnienia zbie»no±ci<br />
procedury iteracyjnej uzupeªnia sie te metode o szereg pragmatycznych reguª przy-<br />
±pieszajacych zbie»no±¢ i okre±lajacych kiedy nale»y przerwa¢ poszukiwanie warto±ci<br />
parametrów.
SMOP-2 B.Kamys: 2007/08 21<br />
2.3 Przybli»one wzory na momenty funkcji wielowymiarowej zmiennej<br />
Cz¦sto zachodzi potrzeba oszacowania warto±ci oczekiwanej i wariancji wektorowej funkcji<br />
⃗Y od wektorowego argumentu ⃗X gdy znamy dokªadnie warto±¢ oczekiwan¡ E( ⃗X) oraz<br />
macierz kowariancji C( ⃗X).<br />
Dla oszacowania warto±ci oczekiwanej funkcji wielu zmiennych losowych stosuje<br />
sie standardowo poni»sze przybli»enie:<br />
E(⃗y) ≈ ⃗y(E(x 1 ), E(x 2 ), ..E(x N )) (28)<br />
gdzie x 1 , x 2 , ..., x N to skªadowe wektora ⃗X.<br />
Dla oszacowania macierzy kowariancji zmiennej ⃗Y stosuje si¦ wzór:<br />
cov(y k , y q ) ≈ ∑ i,j<br />
( ( ∂yk ∂yq<br />
∂x i<br />
)⃗x=E(⃗x)<br />
∂x j<br />
)⃗x=E(⃗x)<br />
cov(x i , x j ). (29)<br />
Powy»szy wzór nazywa si¦ cz¦sto propagacj¡ bª¦dów.<br />
W zapisie macierzowym wzór ten wygl¡da bardzo prosto:<br />
C(⃗y) ≈ T C(⃗x)T T (30)<br />
gdzie<br />
C ij (⃗x) = cov{x i , x j }<br />
C ij (⃗y) = cov{y i , y j }<br />
( ∂yi<br />
T ij =<br />
∂x j<br />
)⃗x=E(⃗x)<br />
Oba wzory s¡ ±cisªe tylko dla liniowego zwi¡zku pomi¦dzy wektorami ⃗X i ⃗Y .<br />
Powstaªy one przez rozwini¦cie funkcji ⃗Y ( ⃗X) w szereg Taylora dokoªa warto±ci oczekiwanej<br />
wektora ⃗X i obci¦ciu szeregu do wyrazów liniowych.
SMOP-2 B.Kamys: 2007/08 22<br />
Wyprowadzenie:<br />
• Rozwijamy w szereg Taylora skªadowe wektora ⃗Y dokoªa wektora E{⃗x} obcinajac<br />
rozwiniecie na wyrazach liniowych<br />
y i ≈ y i (E{⃗x}) + ∑ j<br />
( ∂yi<br />
∂x j<br />
)⃗x=E(⃗x)<br />
· (x j − E{x j }).<br />
• Poniewa» warto±¢ oczekiwana z ró»nicy ⃗x−E{⃗x} to»samo±ciowo znika wiec warto±¢<br />
oczekiwana wektora ⃗y równa jest y(E{⃗x}), tzn. dostajemy podany wy»ej wzór na<br />
warto±¢ oczekiwana<br />
E(⃗y) ≈ y(E{⃗x}).<br />
• Z tego równie» wynika, »e<br />
y i − y i (E{⃗x}) ≈ ∑ ( ∂yi<br />
j<br />
∂x j<br />
)⃗x=E(⃗x)<br />
a wiec kowariancja y k i y q , która jest warto±cia oczekiwana<br />
· (x j − E{x j })<br />
cov(y k , y q ) ≡ E [(y k − E{y k }) · (y q − E{y q })]<br />
liczona jest jako warto±¢ oczekiwana iloczynu analogicznych sum zawierajacych pochodne<br />
i wyra»enia (x j − E{x j }) co po prostym przeliczeniu daje szukany wzór:<br />
cov(y k , y q ) ≈ ∑ i,j<br />
( ∂yk<br />
∂x i<br />
)⃗x=E(⃗x)<br />
( ∂yq<br />
∂x j<br />
)⃗x=E(⃗x)<br />
cov(x i , x j ).<br />
UWAGA: Ostatnio coraz bardziej popularna staje si¦ estymacja momentów wektorowej<br />
funkcji wektorowego losowego argumentu na podstawie próby skªadaj¡cej si¦ ze zbioru<br />
warto±ci funkcji otrzymanych ze zbioru warto±ci argumentów wygenerowanego metod¡<br />
Monte Carlo zgodnie z zaªo»onym rozkªadem prawdopodobie«stwa (zwykle wielowymiarowym<br />
rozkªadem Gaussa).
SMOP-2 B.Kamys: 2007/08 23<br />
3 ROZKŠAD NORMALNY (Gaussa)<br />
DEFINICJA:<br />
Ciagªa zmienna losowa X, której funkcja gesto±ci prawdopodobie«stwa ma posta¢:<br />
f(X) =<br />
[ ]<br />
1 −(X − A)<br />
2<br />
√ exp 2π B 2B 2<br />
(31)<br />
nazywa sie zmienna o rozkªadzie normalnym N(A, B).<br />
WŠASNO‘CI:<br />
E(X) = A (32)<br />
σ(X) = B (33)<br />
m 3 (E(X)) = 0 (34)<br />
m 4 (E(X)) = 3 · σ 4 (X) (35)<br />
UWAGA:<br />
• Rozkªad normalny jest caªkowicie okre±lony przez parametry A i B a wiec caªkowicie<br />
okre±lony przez warto±¢ oczekiwana E(X) i odchylenie standardowe σ(X).<br />
• Znikanie trzeciego momentu centralnego jest oczywi±cie równowa»ne znikaniu wspóªczynnika<br />
asymetrii:<br />
γ 1 ≡ m 3 (E(X))/σ 3 (X) (36)<br />
i oznacza, »e rozkªad jest symetryczny dookoªa E(X).<br />
• Wprowadza sie dla porównania rozkªadu danej zmiennej z rozkªadem normalnym,<br />
tzw. wspóªczynnik przewy»szenia zwany tak»e kurtoza lub wspóªczynnikiem<br />
ekscesu:<br />
γ 2 ≡ m 4 (E(X))/σ 4 (X) − 3 (37)<br />
Dla rozkªadu normalnego ten wspóªczynnik zeruje sie.
SMOP-2 B.Kamys: 2007/08 24<br />
Dystrybuanta rozkªadu normalnego nie wyra»a sie przez funkcje elementarne.<br />
Warto zapamieta¢ nastepujace nierówno±ci, speªniane przez zmienna X o rozkªadzie normalnym:<br />
P (E(X) − σ(X) ≤ X < E(X) + σ(X)) = 0.6827<br />
P (E(X) − 2σ(X) ≤ X < E(X) + 2σ(X)) = 0.9545<br />
P (E(X) − 3σ(X) ≤ X < E(X) + 3σ(X)) = 0.9973<br />
W biologii i naukach z nia zwiazanych czesto u»ywa sie dla warto±ci zmiennej le»acych<br />
w pierwszym z trzech powy»szych przedziaªów okre±lenia: warto±ci charakterystyczne.<br />
Dla tych, które nale»a do drugiego przedziaªu okre±lenia warto±ci typowe a dla tych, które<br />
nale»a do trzeciego przedziaªu ale nie nale»a do przedziaªu drugiego - warto±ci nietypowe.<br />
Dla warto±ci zmiennej bardziej odchylajacych sie od warto±ci oczekiwanej ni» trzy odchylenia<br />
standardowe rezerwuje sie nazwe warto±ci wyjatkowe.<br />
UWAGA:<br />
Dowolna zmienna Y o rozkªadzie normalnym mo»na standaryzowa¢ tworzac wielko±¢ Z<br />
o rozkªadzie standardowym normalnym N(0, 1):<br />
Z = (Y − E(Y ))/σ(Y )<br />
Standaryzacja jest wa»na ze wzgledu na mo»liwo±¢ tablicowania zarówno funkcji gesto±ci<br />
prawdopodobie«stwa, jak i dystrybuanty rozkªadu N(0, 1) a potem wykorzystania faktu,<br />
»e majac zmienna X o rozkªadzie N(0, 1) mo»emy stworzy¢ zmienna Y o rozkªadzie<br />
N(A, B) przez prosta transformacje: Y = B · X + A .<br />
TWIERDZENIE:<br />
Centralne Twierdzenie Graniczne w wersji podanej przez Lapunowa:<br />
Niech X 1 , X 2 , ...X n bedzie ciagiem niezale»nych zmiennych losowych których rozkªady<br />
posiadaja:<br />
• warto±¢ oczekiwana E(X k ),<br />
• wariancje var(X k ),
SMOP-2 B.Kamys: 2007/08 25<br />
• trzeci moment centralny µ 3 (X k ), oraz<br />
• absolutny trzeci moment centralny tj.<br />
b k ≡ E(| X k − E(X k ) | 3 ) dla k = 1, ..., n.<br />
Wówczas ciag dystrybuant standaryzowanych zmiennych losowych zdeniowanych<br />
nastepujaco:<br />
speªnia zale»no±¢:<br />
je»eli jest speªniony warunek:<br />
Z =<br />
n∑<br />
k=1<br />
X k − E(X k )<br />
√ ∑n<br />
i=1 var(X i)<br />
lim F n(Z) = 1 ∫ Z<br />
√ dt · exp(− t2 n→∞ 2π −∞<br />
2 )<br />
lim<br />
n→∞<br />
√ ∑n<br />
3<br />
k=1 b k<br />
√ ∑n<br />
k=1 var(X k) = 0<br />
2<br />
Centralne Twierdzenie Graniczne (Intuicyjne sformuªowanie)<br />
Zmienna Z bedaca standaryzowana suma niezale»nych zmiennych losowych bedzie miaªa<br />
standardowy rozkªad normalny gdy liczba skªadników w sumie da»y do niesko«czono±ci<br />
oraz w sumie nie wystepuja zmienne o wariancjach dominujacych w stosunku do reszty<br />
skªadników.<br />
Wªa±nie to twierdzenie powoduje, »e rozkªad normalny jest wyró»nionym rozkªadem -<br />
bardzo czesto stosowanym w statystyce.
SMOP-2 B.Kamys: 2007/08 26<br />
3.1 WIELOWYMIAROWY ROZKŠAD NORMALNY<br />
Jest to najwa»niejszy z rozkªadów w statystyce. Wektorowa zmienna losowa ⃗Y (Y 1 , ...Y N )<br />
ma wielowymiarowy rozkªad normalny gdy jej funkcja gesto±ci prawdopodobie«stwa ma<br />
nastepujaca posta¢:<br />
f(⃗Y ) = √ det(B) [−<br />
(2π) exp 1 (<br />
Y ⃗ − ⃗A ) T (<br />
B Y ⃗ − ⃗A )] (38)<br />
N 2<br />
gdzie wektor ⃗A to wektor warto±ci oczekiwanych (E{Y 1 }, ..E{Y N }) a macierz B to<br />
macierz odwrotna do macierzy kowariancji skªadowych wektora ⃗Y .<br />
Wªasno±ci:<br />
• Wielowymiarowy rozkªad normalny jest caªkowicie okre±lony przez podanie wektora<br />
warto±ci oczekiwanych (E{Y 1 }, ..E{Y N }) i macierzy kowariancji tych zmiennych<br />
• Dowolny rozkªad brzegowy (rzut na podzespóª zmiennych Y 1 , ..Y N ) tego rozkªadu<br />
jest rozkªadem normalnym<br />
• Dowolny rozkªad warunkowy (przekrój wzdªu» podzespoªu zmiennych Y 1 , ..Y N ) jest<br />
rozkªadem normalnym<br />
• Poziomice funkcji gesto±ci (linie o staªej warto±ci gesto±ci) speªniaja warunek:<br />
( ⃗ Y − ⃗A ) T<br />
B<br />
( ⃗ Y − ⃗A ) = const<br />
Wielko±¢ wystepujaca po lewej stronie równania to zmienna losowa o rozkªadzie<br />
chi-kwadrat o N stopniach swobody.<br />
Dwuwymiarowy rozkªad normalny jest najprostszym rozkªadem, który posiada wszystkie<br />
cechy wielowymiarowego rozkªadu a równocze±nie jest na tyle nieskomplikowany, »e<br />
mo»na go sobie ªatwo wyobrazi¢. Poni»ej omówimy go jako przykªad wielowymiarowego<br />
rozkªadu normalnego.
SMOP-2 B.Kamys: 2007/08 27<br />
3.2 DWUWYMIAROWY ROZKŠAD NORMALNY<br />
Parametrami rozkªadu jest wektor ⃗A = (E{y 1 }, E{y 2 }) oraz macierz B bedaca odwrotno±cia<br />
macierzy kowariancji.<br />
Odwrotna macierz mo»e by¢ znaleziona przez policzenie wyznacznika wyj±ciowej macierzy<br />
i podzielenia macierzy uzupeªnie« algebraicznych wyj±ciowej macierzy przez ten<br />
wyznacznik.<br />
Ostatecznie dostajemy:<br />
B =<br />
[<br />
1<br />
σ 2 (y 2 ) −cov(y 2 , y 1 )<br />
σ 2 (y 1 )σ 2 (y 2 ) − cov(y 1 , y 2 ) 2 −cov(y 1 , y 2 ) σ 2 (y 1 )<br />
Wtedy dwuwymiarowy rozkªad normalny ma nastepujaca posta¢:<br />
]<br />
g(y 1 , y 2 ) =<br />
f(y 1 , y 2 ) =<br />
−1<br />
2(1−ϱ 2 )<br />
[<br />
(y 1 −E{y 1 }) 2<br />
σ 2 1<br />
1√<br />
exp {g(y 1, y 2 )}<br />
2π·σ 1·σ 2 1−ϱ 2<br />
− 2ϱ (y 1−E{y 1 })·(y 2 −E{y 2 })<br />
σ 1 σ 2<br />
+ (y 2−E{y 2 }) 2<br />
σ 2 2<br />
]<br />
(39)<br />
gdzie obok odchyle« standardowych σ i oraz warto±ci oczekiwanych E{y i } pojawiª sie<br />
wspóªczynnik korelacji ϱ ≡ ϱ(y 1 , y 2 ).<br />
WŠASNO‘CI:<br />
• Rozkªad jest caªkowicie okre±lony przez 5 parametrów: warto±ci oczekiwane E(y 1 ),<br />
E(y 2 ), odchylenia standardowe σ 1 , σ 2 i wspóªczynnik korelacji ϱ.<br />
• Gdy wspóªczynnik korelacji znika to rozkªad sie zamienia na iloczyn dwu rozkªadów<br />
brzegowych (jednowymiarowych rozkªadów normalnych). A wiec wida¢ tu unikalna<br />
ceche wielowymiarowego rozkªadu normalnego; zmienne które nie sa skorelowane<br />
(czyli sa niezale»ne liniowo) sa automatycznie niezale»ne .<br />
• Poziomice funkcji gesto±ci prawdopodobie«stwa to elipsy, których póªosie równe sa<br />
odchyleniom standardowym. Ustawienie osi elipsy w stosunku do osi wspóªrzednych<br />
y 1 i y 2 zale»y od warto±ci wspóªczynnika korelacji. Gdy wspóªczynnik korelacji<br />
znika osie elipsy sa równolegªe do osi wspóªrzednych. Gdy wspóªczynnik korelacji<br />
jest dodatni to dªu»sza o± elipsy przechodzi przez pierwsza i trzecia ¢wiartke ukªadu<br />
wspóªrzednych a gdy jest ujemny to przechodzi przez druga i czwarta ¢wiartke.
SMOP-2 B.Kamys: 2007/08 28<br />
Rozkªad brzegowy dwuwymiarowego rozkªadu normalnego<br />
to jednowymiarowy rozkªad normalny:<br />
f b (y 1 ) =<br />
{ }<br />
1 −1<br />
√ exp [y 2π.σ1 2σ1<br />
2 1 − E(y 1 )] 2<br />
(40)<br />
WŠASNO‘CI:<br />
• Okre±lony caªkowicie przez E(y 1 ) i σ 1 .<br />
• Funkcja ksztaªtu dzwonu symetryczna dokoªa E(y 1 ), spadajaca bardzo szybko do<br />
zera dla warto±ci y 1 oddalonych od warto±ci oczekiwanej.<br />
Rozkªad warunkowy dwuwymiarowego rozkªadu normalnego:<br />
f w (y 1 |y 2 ) =<br />
1<br />
√<br />
2π · σ1 · √1<br />
− ϱ exp 1<br />
{−<br />
2 2σ1 2(1 − ϱ2 )<br />
[ {<br />
y 1 − (E(y 1 ) + ϱ · σ }] } 2<br />
1<br />
(y 2 − E(y 2 ))<br />
σ 2<br />
(41)<br />
WŠASNO‘CI:<br />
• Rozkªad warunkowy dwuwymiarowego rozkªadu normalnego okre±lony jest przez te<br />
same 5 parametrów co dwuwymiarowy rozkªad normalny.<br />
• Gdy wspóªczynnik korelacji znika to rozkªad warunkowy przechodzi w rozkªad brzegowy<br />
(jednowymiarowy rozkªad normalny) a wiec brak korelacji jest równowa»ny<br />
niezale»no±ci zmiennych - zgodnie z tym co obserwowali±my dla peªnego rozkªadu.<br />
• Posta¢ rozkªadu jest identyczna jak dla rozkªadu brzegowego (jednowymiarowego<br />
rozkªadu Gaussa) ale parametry tego rozkªadu, tj. wariancja i warto±¢ oczekiwana<br />
wyra»aja sie nastepujaco:
SMOP-2 B.Kamys: 2007/08 29<br />
Wariancja:<br />
σ 2 (y 1 |y 2 ) = σ 2 1 (1 − ϱ2 ) (42)<br />
Warunkowa warto±¢ oczekiwana zmiennej y 1 pod warunkiem y 2 czyli<br />
regresja pierwszego rodzaju y 1 wzgledem y 2 jest linia prosta czyli regresja<br />
drugiego rodzaju.<br />
E(y 1 |y 2 ) = E(y 1 ) + ϱ.σ 1<br />
σ 2<br />
(y 2 − E(y 2 )) (43)<br />
Wspóªczynnikiem kierunkowym tej prostej jest wyra»enie<br />
ϱ.σ 1<br />
σ 2<br />
a wiec wida¢, »e zamiana wska¹ników zmiennych y 1 i y 2 nie powoduje, przechodzenia<br />
wspóªczynnika kierunkowego w swa odwrotno±¢ jak to powinno by¢ gdyby linia prosta<br />
regresji y 1 wzgledem y 2 pokrywaªa sie z linia prosta regresji y 2 wzgledem y 1 .<br />
Linie regresji E(y 1 |y 2 ) oraz E(y 2 |y 1 ) beda sie pokrywaªy tylko wtedy gdy<br />
moduª wspóªczynnika korelacji bedzie równy jedno±ci , czyli wtedy gdy bedzie istniaª<br />
funkcyjny zwiazek liniowy pomiedzy zmiennymi y 1 i y 2 . Przy bliskich zera warto-<br />
±ciach wspóªczynnika korelacji linie te beda prawie prostopadªe do siebie.
SMOP-2 B.Kamys: 2007/08 30<br />
4 ESTYMACJA PARAMETRÓW<br />
W tym rozdziale zostan¡ omówione podstawowe poj¦cia estymacji parametrów.<br />
DEFINICJA:<br />
Statystyka nazywamy zmienna losowa, która jest funkcja próby czyli sko«czonej liczby<br />
wyników do±wiadcze« (obserwacji) reprezentujacych wszystkie mo»liwe wyniki, których<br />
zbiór nazywany jest populacja generalna. Je»eli rozkªad statystyki zale»y od warto±ci<br />
pewnego parametru to warto±¢ statystyki mo»e sªu»y¢ do oszacowania tego parametru<br />
i statystyke taka nazywamy estymatorem tego parametru. Na przykªad ±rednia arytmetyczna<br />
wzrostu kilku studentów jest statystyka, która mo»e by¢ u»yta do oszacowania<br />
warto±ci oczekiwanej wzrostu wszystkich studentów. A wiec ±rednia arytmetyczna jest<br />
estymatorem warto±ci oczekiwanej .<br />
DEFINICJA:<br />
Oszacowanie warto±ci parametru przez warto±¢ estymatora nazywane jest estymacja<br />
punktowa.<br />
DEFINICJA:<br />
Od estymatora wymagamy przede wszystkim aby byª zgodny. Synonimem zgodno±ci<br />
estymatora jest stwierdzenie, »e estymator speªnia prawo wielkich liczb. Okre±lenia<br />
te oznaczaja, »e wraz ze wzrostem rozmiarów próby prawdopodobie«stwo tego,<br />
»e estymator parametru a odchyla sie od prawdziwej warto±ci tego parametru<br />
mniej od dowolnego ε > 0, da»y do jedno±ci :<br />
lim P (|T n(a) − a| < ε) = 1 (44)<br />
n→∞<br />
DEFINICJA:<br />
Jeszcze bardziej po»adana wªasno±cia jest aby estymator speªniaª silne prawo wielkich<br />
liczb czyli aby prawdopodobie«stwo tego, »e warto±¢ estymatora parametru da»y<br />
do warto±ci szacowanego parametru wraz ze wzrostem rozmiarów próby, równaªo<br />
sie jedno±ci (a nie aby tylko da»yªo do jedno±ci).<br />
P<br />
(<br />
)<br />
lim T n(a) = a<br />
n→∞<br />
= 1 (45)
SMOP-2 B.Kamys: 2007/08 31<br />
Bardzo po»adane jest aby estymator miaª powy»sza wªasno±¢ ale je»eli nie da sie tego<br />
osiagna¢ to zadowalamy sie faktem zgodno±ci estymatora.<br />
Warto zapamieta¢, »e dla dwu bardzo wa»nych wielko±ci, tj. dla prawdopodobie«-<br />
stwa zachodzenia jakiego± zdarzenia oraz dla warto±ci oczekiwanej zmiennej<br />
losowej istnieja estymatory speªniajace silne prawo wielkich liczb :<br />
TW. CANTELLIEGO<br />
F.P. Cantelli w 1917 roku (a E. Borel w 1909 r dla szczególnego przypadku P=1/2)<br />
udowodniª, »e czesto±¢ realizacji zdarzenia A w serii n niezale»nych do±wiadcze« jest estymatorem<br />
prawdopodobie«stwa zdarzenia A speªniajacym silne prawo wielkich liczb:<br />
P<br />
( ( ) nA<br />
lim<br />
n→∞ n<br />
)<br />
= P (A) = 1 (46)<br />
W powy»szym wzorze n A oznacza liczbe realizacji zdarzenia A w ciagu n do±wiadcze«.<br />
TW. KOŠMOGOROWA<br />
A.N. Koªmogorow udowodniª, »e ±rednia arytmetyczna ciagu niezale»nych pomiarów x i<br />
jest estymatorem warto±ci oczekiwanej mierzonej wielko±ci x speªniajacym silne prawo<br />
wielkich liczb.<br />
P<br />
(<br />
lim<br />
n→∞<br />
( 1<br />
n<br />
) )<br />
n∑<br />
x i = E(x)<br />
i=1<br />
= 1 (47)<br />
DEFINICJA:<br />
Inna, po»adana cecha estymatora jest aby byª nieobcia»ony. Mówimy, »e estymator<br />
parametru Θ posiada te ceche gdy<br />
E {T n (Θ)} = Θ (48)<br />
niezale»nie od n, tj. od rozmiaru próby.<br />
DEFINICJA:<br />
Obcia»eniem estymatora nazywana jest wielko±¢:<br />
B n ≡ E {T n (Θ)} − Θ (49)
SMOP-2 B.Kamys: 2007/08 32<br />
Oczywi±cie dla estymatora nieobcia»onego B n ≡ 0.<br />
DEFINICJA:<br />
Estymatorem asymptotycznie nieobcia»onym nazywany jest taki estymator obcia»ony,<br />
dla którego obcia»enie da»y do zera gdy rozmiary próby rosna nieograniczenie:<br />
lim B n ≡ lim<br />
n→∞ n→∞<br />
[E {T n (Θ)} − Θ] = 0 (50)<br />
Poni»ej podane sa dwa po»yteczne twierdzenia, które mo»na wykorzysta¢ do zdecydowania,<br />
czy estymator jest estymatorem zgodnym.<br />
TWIERDZENIE:<br />
Je»eli wariancja estymatora nieobcia»onego lub asymptotycznie nieobcia»onego da»y do<br />
zera gdy rozmiary próby rosna nieograniczenie to estymator jest zgodny.<br />
TWIERDZENIE:<br />
Je»eli parametr η jest wymierna funkcja (ilorazem wielomianów) parametru Θ: η =<br />
η(Θ) oraz T n (Θ) jest zgodnym estymatorem parametru Θ to T n (η) ≡ η(T n (Θ)) jest<br />
zgodnym estymatorem parametru η.<br />
UWAGA:<br />
Istnieja specjalne metody tworzenia estymatorów, takie jak np. metoda momentów,<br />
metoda najwiekszej wiarygodno±ci czy metoda najmniejszych kwadratów, których<br />
zastosowanie zapewnia uzyskanie zgodnych estymatorów.
SMOP-2 B.Kamys: 2007/08 33<br />
Estymator wspóªczynnika korelacji T n (ρ(X, Y )) ≡r" (symbole ¯x i ȳ oznaczaja ±rednie<br />
arytmetyczne pomiarów):<br />
T n (ρ(X, Y )) ≡ r =<br />
n∑<br />
(x i − ¯x)(y i − ȳ)<br />
i=1<br />
( n∑<br />
) ( ) (51)<br />
√<br />
n∑<br />
(x i − ¯x) 2 (y j − ȳ) 2<br />
i=1<br />
j=1<br />
Interpretacja kwadratu estymatora r 2 ”<br />
Mo»na pokaza¢, »e kwadrat estymatora wspóªczynnika korelacji pokazuje na ile dobre<br />
jest przybli»enie liniowe zale»no±ci y(x) czyli jak dobra jest regresja drugiego rodzaju<br />
(patrz ni»ej).<br />
r 2 =<br />
∑<br />
(ax i + b − ȳ) 2<br />
i<br />
∑<br />
i<br />
(y i − ȳ) 2 (52)<br />
Wielko±¢ y to ±rednia po wszystkich obserwowanych warto±ciach y i a a · x i + b to linia<br />
prosta z tak dobranymi parametrami a i b aby byªa minimalna suma kwadratów odchyle«<br />
od prostej do odpowiadajacych danemu argumentowi prostej x i warto±ci zmiennej y i .<br />
Wyra»enie w liczniku to tzw. wyja±niona przez regresje suma kwadratów a wyra»enie<br />
w mianowniku to caªkowita suma kwadratów . Jak wida¢ im bli»szy jedno±ci jest<br />
kwadrat estymatora wspóªczynnika korelacji tym lepiej caªkowity rozrzut zmiennej y jest<br />
odtwarzany przez regresje a wiec tym lepszym przybli»eniem zale»no±ci y(x) jest linia<br />
prosta. Zwykle uwa»a sie, »e przybli»enie jest dobre gdy warto±ci r 2 sa bliskie 0.9 ale w<br />
praktyce sami musimy zdecydowa¢, czy odchylenia rzedu 10% sa ju» zadowalajaco maªe.
SMOP-2 B.Kamys: 2007/08 34<br />
5 ESTYMACJA PUNKTOWA E(x), σ 2 (x) i σ(x)<br />
Przypomnijmy denicje estymacji punktowej podana we wstepie:<br />
DEFINICJA:<br />
Oszacowanie warto±ci parametru przez warto±¢ estymatora nazywane jest estymacja<br />
punktowa.<br />
W tym rozdziale zakªadamy, »e mierzona wielko±¢ losowa rzadzona jest rozkªadem normalnym.<br />
Na tej podstawie mo»na wyprowadzi¢ wnioski dotyczace rozkªadów rozwa»anych<br />
estymatorów. Wiekszo±¢ wniosków (z wyjatkiem postaci rozkªadu estymatorów) przenosi<br />
sie równie» na estymatory warto±ci oczekiwanej i wariancji dla zmiennych losowych o<br />
rozkªadach ró»nych od normalnego.<br />
5.1 ESTYMACJA PUNKTOWA E(x)<br />
Jak to ju» omówiono we wstepie jako estymator warto±ci oczekiwanej T n (E(x)) przyjmuje<br />
sie ±rednia arytmetyczna niezale»nych pomiarów wielko±ci x (oznaczana przez x) :<br />
T n (E(x)) ≡ x = 1 n<br />
n∑<br />
i=1<br />
x i (53)<br />
Estymator ten posiada optymalne wªasno±ci:<br />
• Koªmogorow pokazaª, »e X speªnia mocne prawo wielkich liczb a wiec oczywi±cie<br />
jest tak»e zgodny,<br />
• Estymator X jest nieobcia»ony.<br />
c.b.d.o.<br />
E( 1 ∑<br />
x i ) = 1 ∑<br />
n n<br />
i<br />
i<br />
E(x i ) = 1 (n.E(x)) = E(x)<br />
n<br />
Tu wykorzystano fakt, »e wszystkie warto±ci oczekiwane sa równe E(x i ) = E(x).<br />
• Mo»na pokaza¢, »e x jest najbardziej efektywnym estymatorem E(x), tzn. posiada<br />
najmniejsza wariancje spo±ród wszystkich mo»liwych estymatorów.
SMOP-2 B.Kamys: 2007/08 35<br />
Dla zmiennej losowej x o rozkªadzie normalnym mo»na udowodni¢ poni»sze twierdzenie:<br />
TWIERDZENIE:<br />
Estymator x warto±ci oczekiwanej E(x) ma rozkªad normalny<br />
gdzie n jest liczba pomiarów w próbie.<br />
(<br />
f(x) = N E(x), σ(x) )<br />
√ n<br />
WNIOSKI:<br />
• E(x) = E(x) tzn.<br />
Estymator x jest nieobcia»ony<br />
• Odchylenie standardowe ±redniej arytmetycznej σ(x) jest √ n - krotnie mniejsze<br />
od odchylenia standardowego σ(x) pojedynczego pomiaru.<br />
• Odchylenie standardowe σ(x) czyli bªad ±redni kwadratowy ±redniej arytmetycznej<br />
charakteryzuje dokªadno±¢ wyznaczenia prawdziwej warto±ci x w danym<br />
konkretnym pomiarze skªadajacym sie z n niezale»nych do±wiadcze«.<br />
x 0 = x ± σ(x)<br />
• Aby charakteryzowa¢ dokªadno±¢ metody pomiarowej wówczas jako miare dokªadno±ci<br />
podajemy bªad pojedynczego pomiaru tj. σ(x) .<br />
5.2 ESTYMATOR WARIANCJI σ 2 (x)<br />
Dwa powszechnie stosowane estymatory wariancji to S 2 (x) i s 2 (x):<br />
S 2 (x) ≡ 1<br />
n − 1<br />
n∑<br />
i=1<br />
(x i − ¯x) 2 (54)<br />
S 2 (x) to zgodny i nieobcia»ony estymator σ 2 (x). Jest to ªatwo pokaza¢ je»eli wiadomo<br />
(a mo»na to udowodni¢), »e zmienna Y zdeniowana poni»ej ma rozkªad chi-kwadrat o<br />
(n-1) stopniach swobody:<br />
Y ≡ (n − 1)S2 (x)<br />
σ 2 (x)<br />
= χ 2 n−1
SMOP-2 B.Kamys: 2007/08 36<br />
Wtedy, wykorzystujac znajomo±¢ warto±ci oczekiwanej i wariancji zmiennej chi-kwadrat,<br />
mo»na napisa¢:<br />
{ (n − 1)S 2 }<br />
(x)<br />
E {Y } ≡ E<br />
= E { χn−1} 2 = n − 1<br />
σ 2 (x)<br />
{ (n − 1)S 2 }<br />
(x)<br />
σ 2 {Y } ≡ σ 2 = σ { 2 χn−1} 2 = 2(n − 1)<br />
σ 2 (x)<br />
Z pierwszego tych równa« dostajemy natychmiast:<br />
E { S 2 (x) } = σ 2 (x)<br />
a wiec S 2 (x) jest estymatorem nieobcia»onym .<br />
Z drugiego otrzymujemy:<br />
σ 2 { S 2 (x) } = 2(n − 1)σ4 (x)<br />
(n − 1) 2 = 2σ4 (x)<br />
(n − 1) 2 →<br />
n→∞<br />
0<br />
a wiec mamy do czynienia z estymatorem nieobcia»onym, którego wariancja da»y do<br />
zera wraz ze wzrostem rozmiarów próby . Taki estymator jest estymatorem zgodnym<br />
jak to gªosi twierdzenie przytoczone we wstepie.<br />
Drugi z wymienionych estymatorów to s 2 (x), deniowany nastepujaco:<br />
s 2 (x) ≡ 1 n<br />
n∑<br />
i=1<br />
(x i − ¯x) 2 (55)<br />
Ten estymator proporcjonalny jest do S 2 (x):<br />
s 2 (x) = n − 1<br />
n<br />
· S2 (x)
SMOP-2 B.Kamys: 2007/08 37<br />
a wiec musi by¢ obcia»ony skoro S 2 (x) jest nieobcia»ony. Obcia»enie wynosi B n =<br />
−(1/n)σ 2 (x) i znika gdy n ro±nie do niesko«czono±ci a wiec jest to estymator asymptotycznie<br />
nieobcia»ony .<br />
Wariancja tego estymatora wynosi:<br />
σ 2 (s 2 (x)) =<br />
( ) n − 1 2<br />
·<br />
n<br />
2σ 4 (x)<br />
(n − 1) = 2σ4 (x)<br />
2 n 2<br />
Stad mo»na powiedzie¢, »e<br />
• Wariancja s 2 (x) znika, gdy rozmiary próby rosna do niesko«czono±ci a poniewa»<br />
s 2 (x) jest asymptotycznie nieocia»ony to twierdzenie u»yte poprzednio tak»e mówi,<br />
»e s 2 (x) jest estymatorem zgodnym σ 2 (x).<br />
• Wariancja s 2 (x) jest dla ka»dego rozmiaru próby mniejsza od wariancji S 2 (x) a<br />
wiec jest on bardziej efektywny ni» S 2 (x). Mo»na pokaza¢, »e jest to najbardziej<br />
efektywny estymator σ 2 (x).<br />
5.3 ESTYMATOR ODCHYLENIA STANDARDOWEGO σ(x)<br />
Dla oszacowania warto±ci<br />
√<br />
odchylenia standardowego<br />
√<br />
stosuje sie trzy estymatory. Dwa<br />
z nich - S(x) ≡ S 2 (x) i s(x) ≡ s 2 (x) sa bardzo popularne mimo, »e oba sa<br />
estymatorami obcia»onymi . Trzeci, o którym bedzie mowa poni»ej, jest estymatorem<br />
nieobcia»onym ale u»ywany jest rzadko gdy» wyra»a sie bardziej skomplikowanym wzorem<br />
a jego warto±ci ró»nia sie znaczaco od warto±ci S(x) tylko dla niewielkich prób.<br />
S(x):<br />
S(x) ≡ √ 1<br />
n − 1<br />
n∑<br />
i=1<br />
(x i − x) 2 (56)<br />
Jest to zgodny, asymptotycznie nieobcia»ony estymator odchylenia standardowego.
SMOP-2 B.Kamys: 2007/08 38<br />
s(x):<br />
s(x) ≡ √ 1 n<br />
n∑<br />
i=1<br />
(x i − x) 2 (57)<br />
Jest to zgodny, asymptotycznie nieobcia»ony i najbardziej efektywny estymator<br />
odchylenia standardowego.<br />
S(x):<br />
S(X) ≡<br />
√<br />
n − 1<br />
2<br />
Γ( n−1<br />
2 )<br />
Γ( n 2 ) · S(x) (58)<br />
UWAGA:<br />
Jest to zgodny i nieobcia»ony estymator σ(X).<br />
Wspóªczynnik wystepujacy przy estymatorze S(x) w powy»szej denicji mo»na zastapi¢<br />
z niezªym przybli»eniem przez wstawienie do wzoru na S(X) zamiast 1/(n−1) czynnika<br />
1/(n − 1.45).<br />
Poni»ej podajemy w tabelce przykªadowe warto±ci tego wspóªczynnika dla ró»nych n<br />
a tak»e wynik zastosowania powy»szego uproszczonego sposobu zastapienia tego wspóªczynnika:<br />
√ n−1 Γ( n−1<br />
2 ) √ n−1<br />
2 Γ( n 2 ) n−1.45<br />
n<br />
3 1.1284 1.1359<br />
4 1.0853 1.0847<br />
5 1.0640 1.0615<br />
6 1.0506 1.0482<br />
7 1.0423 1.0397<br />
10 1.0280 1.0260<br />
15 1.0181 1.0165<br />
20 1.0134 1.0121<br />
25 1.0104 1.0095<br />
50 1.0051 1.0046<br />
UWAGA:<br />
Najcze±ciej u»ywanym estymatorem odchylenia standardowego jest estymator S(x)
SMOP-2 B.Kamys: 2007/08 39<br />
6 ESTYMACJA PRZEDZIAŠOWA E(x), σ 2 (x) i σ(x)<br />
Podstawy tej metody estymacji opracowaª polski statystyk Jerzy Spªawa-Neyman (w literaturze<br />
zachodniej cytowany zwykle jako Neyman). Idea metody jest tworzenie takiego<br />
przedziaªu liczbowego, o którym mo»na powiedzie¢, »e z zadanym prawdopodobie«stwem<br />
zawiera w sobie (przekrywa) warto±¢ szacowanego parametru.<br />
Prawdopodobie«stwo to nazywa sie poziomem ufno±ci i standardowo oznaczane jest<br />
symbolem 1 - α . W tych notatkach zamiennie u»ywane jest oznaczenie 1 - α oraz γ.<br />
Przedziaª nazywany jest przedziaªem ufno±ci dla parametru θ je»eli:<br />
♦ prawdopodobie«stwo P( T (1)<br />
n<br />
≤ θ ≤T (2)<br />
n<br />
) = 1 - α ,<br />
♦ ko«ce przedziaªu zale»a od wyników do±wiadczenia i od poziomu ufno±ci a nie zale»a<br />
funkcyjnie od θ.<br />
UWAGA:<br />
• Poziom ufno±ci 1 - α ≡ γ przyjmuje sie zwykle du»y (np. 0,9) ale nie mo»e<br />
by¢ zbyt du»y bo zwiekszanie poziomu ufno±ci zwieksza dªugo±¢ przedziaªu ufno±ci<br />
co powoduje, »e tracona jest informacja o warto±ci oszacowywanego parametru.<br />
• Poni»sze rozwa»ania sa sªuszne przy zaªo»eniu, »e wyniki pomiarów x i ,i=1,..n obarczone<br />
sa tylko bªedami przypadkowymi a wiec rzadzone sa rozkªadem normalnym<br />
N(E{x}, σ{x}).
SMOP-2 B.Kamys: 2007/08 40<br />
6.1 ESTYMACJA PRZEDZIAŠOWA WARTO‘CI OCZEKIWA-<br />
NEJ E{x} - ZNANE σ{x}<br />
Jako statystyke testowa (zmienna losowa zale»na od wyniku do±wiadczenia) bierzemy<br />
zmienna z zdeniowana poni»ej:<br />
z ≡<br />
¯x − E{¯x}<br />
σ{¯x}<br />
≡ (¯x − E{x})√ n<br />
σ{x}<br />
(59)<br />
Poniewa» ±rednia arytmetyczna ¯x ma rozkªad normalny wiec zmienna z, która jest<br />
standaryzowana ±rednia arytmetyczna, ma standardowy rozkªad normalny N(0,1).<br />
Szukamy takiego przedziaªu [z min , z max ], »e:<br />
• P(z min ≤ z ≤ z max ) = γ<br />
• przedziaª ten poªo»ony jest tam, gdzie gesto±¢ prawdopodobie«stwa f(z) jest najwieksza.<br />
Poniewa» rozkªad standardowy normalny jest symetryczny dokoªa zera i zero jest moda<br />
rozkªadu (funkcja gesto±ci ma maksimum) to wida¢, »e przedziaª [z min , z max ] powinien<br />
by¢ poªo»ony symetrycznie dokoªa z=0:<br />
z max = −z min .<br />
Wiedzac, »e funkcja gesto±ci prawdopodobie«stwa jest unormowana do jedno±ci (pole<br />
pod caªym wykresem funkcji gesto±ci jest równe jedno±ci) oraz wiedzac, »e pole pod tym<br />
wykresem dla z le»acego w przedziale [z min , z max ] wynosi γ a przedziaª le»y symetrycznie<br />
dokoªa z = 0 mo»na brzegi przedziaªu wyrazi¢ przez kwantyle rozkªadu N(0, 1) :<br />
z min = z 1−γ<br />
2<br />
oraz z max = z 1+γ<br />
2<br />
Dodatkowo mo»emy skorzysta¢ z faktu symetrii rozkªadu N(0, 1) dokoªa z = 0, który<br />
pozwala na wyra»enie obu kwantyli przez siebie:<br />
z 1−γ<br />
2<br />
= −z 1+γ<br />
2<br />
1+γ<br />
Dzieki temu w tablicach podawane sa zwykle tylko kwantyle na du»ym ( tj. ) lub 2<br />
1−γ<br />
na maªym ( tj. ) poziomie.<br />
2
SMOP-2 B.Kamys: 2007/08 41<br />
Zamiast korzysta¢ z tablic mo»na oczywi±cie wylicza¢ numerycznie kwantyle rozkªadu<br />
N(0, 1). Odpowiednie procedury dla liczenia kwantyli rozkªadu standardowego normalnego<br />
a tak»e innych podstawowych rozkªadów statystyki, takich jak rozkªad chi-kwadrat,<br />
rozkªad Studenta czy te» rozkªad Fishera-Snedecora mo»na znale¹¢ np. w ksia»ce S.<br />
Brandta, Analiza danych , PWN 1998.<br />
Denicyjny wzór na zmienna z pokazuje, »e zmienna z i ±rednia arytmetyczna zwiazane sa<br />
monotoniczna (liniowa) zale»no±cia a wiec mo»na jednoznacznie przedziaªowi [z min , z max ]<br />
przypisa¢ przedziaª warto±ci zmiennej<br />
¯x − E{x} = σ{x} √ n<br />
z.<br />
co po prostym przeksztaªceniu da przedziaª ufno±ci na E{X}:<br />
P (z min ≤ z ≤ z max ) ⇔ P<br />
(<br />
¯x − σ{x} √ n<br />
z max ≤ E{x} ≤ ¯x − σ{x} √ n<br />
z min<br />
)<br />
Z prawdopodobie«stwem γ przedziaª liczbowy wypisany<br />
powy»ej przykrywa soba warto±¢ oczekiwana E{x}.<br />
Trzeba pamieta¢, »e warto±¢ oczekiwana jest konkretna liczba a nie zmienna<br />
losowa. Zmiennymi sa ko«ce przedziaªu bo sa funkcjami ±redniej arytmetycznej<br />
pomiarów.<br />
Wyra»ajac z min i z max przez kwantyle standardowego rozkªadu normalnego dostajemy<br />
przedziaª ufno±ci dla warto±ci oczekiwanej E{X} na poziomie ufno±ci γ:<br />
¯x − σ{x} √ n<br />
z 1+γ<br />
2<br />
≤ E{x} ≤ ¯x − σ{x} √ n<br />
z 1−γ<br />
2<br />
lub<br />
lub<br />
¯x − σ{x} √ n<br />
z 1+γ<br />
2<br />
¯x + σ{x} √ n<br />
z 1−γ<br />
2<br />
≤ E{x} ≤ ¯x + σ{x} √ n<br />
z 1+γ<br />
2<br />
≤ E{x} ≤ ¯x − σ{x} √ n<br />
z 1−γ<br />
2<br />
Sa to trzy równowa»ne formy, przy czym najªatwiej chyba zapamieta¢ druga z nich:<br />
¯x − σ{x} √ n<br />
z 1+γ<br />
2<br />
≤ E{x} ≤ ¯x + σ{x} √ n<br />
z 1+γ<br />
2<br />
(60)
SMOP-2 B.Kamys: 2007/08 42<br />
6.2 ESTYMACJA PRZEDZIAŠOWA WARTO‘CI OCZEKIWA-<br />
NEJ E{x} - NIEZNANE σ{x}<br />
Jako statystyke testowa bierzemy zmienna t zdeniowana poni»ej:<br />
t ≡<br />
¯x − E{¯x}<br />
S{¯x}<br />
≡ (¯x − E{x})√ n<br />
S{x}<br />
(61)<br />
gdzie statystyka<br />
1 n∑<br />
S{¯x} ≡ √<br />
(x i − ¯x) 2<br />
n(n − 1) i=1<br />
jest znanym nam estymatorem odchylenia standardowego ±redniej arytmetycznej ¯x a<br />
n oznacza liczbe pomiarów w próbie.<br />
rozkªad Studenta o (n-1) stopniach swo-<br />
Mo»na pokaza¢, »e zmienna t ma<br />
body.<br />
Poniewa» rozkªad Studenta jest bardzo podobny do standardowego rozkªadu normalnego<br />
wiec rozwa»ania podane powy»ej dla przypadku przedziaªu ufno±ci dla E{x} gdy<br />
znane jest odchylenie standardowe pomiarów zachowuja swa prawdziwo±¢ i dla aktualnej<br />
sytuacji z tym, »e kwantyle rozkªadu normalnego musza by¢ zamienione przez odpowiednie<br />
kwantyle rozkªadu Studenta a odchylenie standardowe zastapione przez jego estymator:<br />
¯x − S{x} √ n<br />
t 1+γ<br />
2<br />
≤ E{x} ≤ ¯x + S{x} √ n<br />
t 1+γ<br />
2<br />
(62)<br />
Tu podana jest tylko jedna z trzech równowa»nych postaci wzoru na przedziaª ufno±ci<br />
ale oczywi±cie mo»na równie» u»ywa¢ obu pozostaªych po odpowiednich modykacjach.<br />
UWAGA: Dla du»ych prób (n > 20 ÷ 30) rozkªad Studenta upodabnia sie bardzo do<br />
rozkªadu standardowego normalnego i dla wiekszo±ci praktycznych zastosowa« mo»na<br />
posªugiwa¢ sie kwantylami rozkªadu N(0, 1).
SMOP-2 B.Kamys: 2007/08 43<br />
6.3 ESTYMACJA PRZEDZIAŠOWA WARIANCJI I ODCHY-<br />
LENIA STANDARDOWEGO<br />
Jako statystyke bierzemy zmienna Y zdeniowana nastepujaco:<br />
Y = (n − 1)S2 (x)<br />
σ 2 (x)<br />
(63)<br />
gdzie n to liczba pomiarów w próbie, σ 2 (x) to wariancja X a S 2 (x) to estymator wariancji<br />
zmiennej X:<br />
S 2 (x) = 1 n∑<br />
(x i − ¯x) 2<br />
n − 1 i=1<br />
Wielko±¢ ta ma rozkªad chi-kwadrat o (n-1) stopniach swobody.<br />
Podobnie jak przy szukaniu przedziaªu ufno±ci dla warto±ci oczekiwanej E{x} rozwa»a<br />
sie przedziaª najbardziej prawdopodobnych warto±ci zmiennej Y. Jednak»e przedziaª ten<br />
nie jest symetryczny dokoªa mody bo rozkªad chi-kwadrat nie jest symetryczny.<br />
Dla jednoznacznego okre±lenia przedziaªu ufno±ci zakªada sie, »e prawdopodobie«stwo<br />
odchylenia warto±ci Y poza wybrany przedziaª w strone du»ych warto±ci jest takie samo<br />
jak prawdopodobie«stwo odchylenia w strone odwrotna:<br />
P (Y < Y min ) = P (Y > Y max ) = 1 − γ<br />
2<br />
Zaªo»enie to pozwala jednoznacznie okre±li¢ brzegi przedziaªu przez kwantyle rozkªadu<br />
chi-kwadrat :<br />
Y min = (χ 2 n−1 ) 1−γ<br />
2<br />
i Y max = (χ 2 n−1 ) 1+γ<br />
2<br />
Kwantyle te nie sa równe i musza by¢ oba wyliczone lub znalezione z tablic.<br />
Relacja pomiedzy estymowanym parametrem, tj. wariancja i statystyka Y jest monotoniczna<br />
funkcja :<br />
σ 2 (x) = (n − 1).S2 (x)<br />
Y<br />
wiec prawdopodobie«stwo traenia statystyki do przedziaªu [Y min ,Y max ] jest równe prawdopodobie«stwu<br />
tego, »e oszacowywana wariancja bedzie le»aªa w przedziale:
SMOP-2 B.Kamys: 2007/08 44<br />
(n − 1).S 2 (x)<br />
Y max<br />
≤ σ 2 (x) ≤ (n − 1).S2 (x)<br />
Y min<br />
co powoduje, »e ostatecznie przedziaª ufno±ci dla wariancji na poziomie ufno±ci γ to :<br />
(n − 1).S 2 (x)<br />
(χ 2 n−1 ) 1+γ<br />
2<br />
≤ σ 2 (x) ≤ (n − 1).S2 (x)<br />
(χ 2 n−1 ) 1−γ<br />
2<br />
(64)<br />
Estymacja przedziaªowa odchylenia standardowego σ(x) mo»e by¢ przeprowadzona<br />
przez pierwiastkowanie granic przedziaªu ufno±ci dla wariancji. Ten przedziaª liczbowy<br />
bedzie przedziaªem ufno±ci dla odchylenia standardowego na tym samym poziomie ufno±ci<br />
co startowy przedziaª ufno±ci dla wariancji. Dzieje sie tak dlatego, »e pierwiastkowanie -<br />
relacja miedzy dwoma dodatnimi wielko±ciami, t.j. wariancja i odchyleniem standardowym<br />
- jest monotoniczna funkcja. Stad prawdopodobie«stwo traenia odchylenia standardowego<br />
do przedziaªu o granicach równych pierwiastkom z granic przedziaªu ufno±ci<br />
dla wariancji jest takie samo jak prawdopodobie«stwo traenia wariancji do swojego przedziaªu<br />
ufno±ci.
SMOP-2 B.Kamys: 2007/08 45<br />
7 ESTYMACJA PUNKTOWA E{⃗y(⃗x)} I MACIERZY<br />
KOWARIANCJI ⃗y(⃗x)<br />
Estymator warto±ci oczekiwanej:<br />
Dla oszacowania warto±ci oczekiwanej funkcji wielu zmiennych losowych stosuje sie<br />
standardowo poni»sze przybli»enie:<br />
T n (E(⃗y(⃗x))) = ⃗y (T n (E(x 1 )), T n (E(x 2 )), . . . , T n (E(x N )))<br />
przy czym aby upro±ci¢ zapis opuszcza sie czesto symbol estymatora warto±ci oczekiwanej<br />
funkcji ⃗y a estymatory warto±ci oczekiwanych argumentów zapisuje sie w standardowy<br />
sposób:<br />
E(⃗y) ≈ ⃗y(x 1 , x 2 , ..x N ) (65)<br />
gdzie x 1 , x 2 , ... to skªadowe wektora ⃗x a x i<br />
argumentu x i : x i ≡ (1/n) ∑ j(x i ) j .<br />
to ±rednia arytmetyczna z n pomiarów<br />
Estymator macierzy kowariancji:<br />
T n (cov(y k , y q )) = ∑ i,j<br />
( ( ∂yk ∂yq<br />
∂x i<br />
)⃗x=(⃗x)<br />
∂x j<br />
)⃗x=(⃗x)<br />
T n (cov(x i , x j ))<br />
gdzie estymator kowariancji skªadowych wektora argumentu ⃗x ma nastepujaca posta¢:<br />
T n (cov(x i , x j )) = 1<br />
n − 1<br />
n∑<br />
k=1<br />
((x i ) k − ¯x i )((x j ) k − ¯x j ) (66)<br />
Powy»sze wzory tak»e zapisuje sie najcze±ciej opuszczajac symbole estymatorów ale<br />
wtedy trzeba z kontekstu domy±li¢ sie, »e mowa jest o estymatorach !<br />
cov(y k , y q ) ≈ ∑ i,j<br />
( ( ∂yk ∂yq<br />
∂x i<br />
)⃗x=(⃗x)<br />
∂x j<br />
)⃗x=(⃗x)<br />
cov(x i , x j ) (67)
SMOP-2 B.Kamys: 2007/08 46<br />
Symbol (⃗x) oznacza wektor ±rednich arytmetycznych (⃗x) ≡ (x 1 , x 2 , ...x N ).<br />
Wprowadzajac oznaczenia macierzowe:<br />
C ij (⃗x) = cov{x i , x j }<br />
C ij (⃗y) = cov{y i , y j }<br />
( ∂yi<br />
T ij =<br />
∂x j<br />
)⃗x=(⃗x)<br />
mo»emy wyrazi¢ kowariancje zmiennej ⃗y przez kowariancje zmiennej ⃗x w nastepujacy<br />
sposób (nazywany propagacja bªedów):<br />
C(⃗y) ≈ T C(⃗x)T T (68)<br />
Wyprowadzenie powy»szych przybli»onych wzorów zostaªo podane w rozdziale 2.3 a<br />
tutaj pokazano jakie estymatory wprowadza si¦ za odpowiednie wielko±ci.<br />
SZCZEGÓLNY PRZYPADEK:<br />
Gdy zmienne x i , i = 1, ..n sa niezale»ne macierz kowariancji skªadowych wektora ⃗x<br />
jest diagonalna czyli pozostaja niezerowe jedynie wariancje:<br />
cov{x i , x j } = δ ij · var{x i }<br />
Wzór na estymatory kowariancji cov(y k , y q ) gdy x i , i=1,..n sa niezale»ne sprowadza<br />
sie do poni»szej postaci, gdzie wariancje zast¡piono ich estymatorami:<br />
cov(y k , y q ) ≈ ∑ i<br />
( ( ∂yk ∂yq<br />
∂x i<br />
)⃗x=(⃗x)<br />
∂x i<br />
)⃗x=(⃗x)<br />
S 2 (x i ) (69)<br />
co w szczególno±ci daje znany nam wzór na bªad ±redni kwadratowy :
SMOP-2 B.Kamys: 2007/08 47<br />
σ(y k ) ≡<br />
√<br />
var(y k ) ≈<br />
√ ∑ ( ) 2 ∂yk<br />
i<br />
∂x i ⃗x=(⃗x)<br />
S 2 (x i ) (70)<br />
UWAGA: Nale»y pamieta¢, »e<br />
• Bªad ±redni kwadratowy y k mo»e by¢ policzony wg wzoru powy»ej (bez kowariancji)<br />
tylko wtedy gdy zmienne x i sa niezale»ne. W praktyce E(x i ) zastepowana<br />
jest przez ±rednia arytmetyczna ¯x i a var(x j ) przez kwadrat bªedu ±redniej arytmetycznej<br />
(a nie samej zmiennej x i ).<br />
• Macierz kowariancji zmiennych y i , i=1,..n jest zwykle niediagonalna nawet<br />
wtedy gdy zmienne x i sa niezale»ne (macierz kowariancji x i jest diagonalna)<br />
czyli zmienne y i , i = 1, ..n sa zwykle zale»ne. Je»eli wiec bedziemy chcieli<br />
znale¹¢ macierz kowariancji wektora losowego ⃗z, który jest z kolei funkcja wektora ⃗y<br />
to musimy korzysta¢ z ogólnego wzoru zawierajacego kowariancje (zastepujac oczywi±cie<br />
⃗y przez ⃗z a ⃗x przez ⃗y).<br />
• Wzory powy»sze sa wzorami przybli»onymi, tzn. na tyle sa dobre na ile rozwiniecie<br />
⃗y(⃗x) w szereg Taylora dokoªa E{⃗x} z obcieciem na liniowych wyrazach jest dobrym<br />
przybli»eniem funkcji ⃗y(⃗x).<br />
Mimo to praktycznie wszedzie stosuje sie te wzory , czesto zapominajac o<br />
tym, »e sa one ±cisªe tylko dla liniowego zwiazku pomiedzy ⃗y i ⃗x.
SMOP-2 B.Kamys: 2007/08 48<br />
8 REGRESJA LINIOWA<br />
Denicja regresji liniowej byªa ju» omawiana powy»ej ale powtórzymy ja dla przypomnienia:<br />
DEFINICJA<br />
Regresja liniowa zmiennej Y wzgledem zmiennej X to linia prosta<br />
Y = a · X + b (71)<br />
z parametrami a i b dobranymi tak aby minimalizowa¢ sume kwadratów odchyle« wspóªrzednych<br />
(y i , i = 1, 2, ..n) zespoªu n punktów o wspóªrzednych (x 1 , y 1 ),(x 2 , y 2 ),... (x n , y n ) od<br />
tej linii:<br />
n∑<br />
Q 2 = (y i − a · x i − b) 2 (72)<br />
i=1<br />
Zmienna Y nazywana jest zmienna obja±niana a zmienna X zmienna obja±niajaca.<br />
UWAGA:<br />
Regresja liniowa X wzgledem Y tj. prosta X = c · Y + d pokrywa sie z regresja liniowa<br />
Y wzgledem X tj. prosta Y = a · X + b znaleziona dla tego samego zespoªu punktów<br />
do±wiadczalnych tylko wtedy gdy zwiazek pomiedzy X i Y jest funkcyjnym zwiazkiem<br />
liniowym (a nie zale»no±cia statystyczna).<br />
Rozwa»ymy tu specyczna sytuacje (czesto spotykana w zastosowaniach) polegajaca na<br />
tym, »e:<br />
• zmienna obja±niajaca X ma zaniedbywalnie maªe bªedy (mówimy wtedy, »e X jest<br />
zmienna kontrolowana) a wiec mo»e by¢ traktowana jako nielosowa zmienna.<br />
• zmienna obja±niana Y jest zmienna losowa przy czym bªad tej zmiennej jest identyczny<br />
dla wszystkich punktów i wynosi σ(Y ).<br />
Wtedy dostajemy proste, analityczne wzory na estymatory parametrów regresji:
SMOP-2 B.Kamys: 2007/08 49<br />
T n (b) = (∑ i x 2 i ) · ( ∑ i y i ) − ( ∑ i x i ) · ( ∑ i x i · y i )<br />
W<br />
T n (a) = n · (∑ i x i · y i ) − ( ∑ i x i ) · ( ∑ i y i )<br />
W<br />
W ≡ n · ∑<br />
x 2 i − (∑ x i ) 2 (73)<br />
i<br />
i<br />
Wska¹nik sumowania i przebiega warto±ci od 1 do n gdzie n jest liczba punktów<br />
pomiarowych.<br />
Bªedy estymatorów parametrów a i b oraz ich kowariancja równie» wyra»aja<br />
sie analitycznymi wzorami:<br />
√ ∑<br />
i x 2 i<br />
T n (σ(b)) = σ(Y ) ·<br />
W<br />
√ n<br />
T n (σ(a)) = σ(Y ) ·<br />
W<br />
∑<br />
T n (cov(a, b)) = −σ 2 i x i<br />
(Y ) ·<br />
W (74)<br />
Mo»emy równie» poda¢ wzór na bªad warto±ci Y przewidzianej przez linie regresji<br />
(zale»ny od x):<br />
T n (σ(Y (x))) = σ(Y ) · √ 1 n<br />
+<br />
(x − x)2<br />
∑i (x i − x) 2 (75)<br />
OZNACZENIA:<br />
• T n (σ(Y (x))) to estymator bªedu warto±ci Y (x) przewidzianej przez regresje,<br />
• σ(Y ) to bªad pomiaru wspóªrzednej Y i z zaªo»enia taki sam dla wszystkich punktów.<br />
Gdy go nie znamy wpisujemy tu (i do wzorów na bªedy parametrów 'a' i 'b') estymator<br />
T n (σ(Y )),
SMOP-2 B.Kamys: 2007/08 50<br />
• x to ±rednia arytmetyczna warto±ci zmiennej kontrolowanej wyliczona ze wspóªrzednych<br />
punktów x 1 , x 2 , ...x n ,<br />
• x - to warto±¢ zmiennej kontrolowanej X, dla której wyliczamy warto±¢ regresji<br />
liniowej Y (x) i estymator bªedu regresji liniowej T n (σ(Y (x))).<br />
• Bardzo czesto opuszcza sie symbole estymatorów a o tym, czy mamy do<br />
czynienia z parametrami linii prostej i ich bªedami czy te» z estymatorami tych<br />
wielko±ci wnioskujemy z kontekstu.<br />
UWAGA:<br />
Aby podja¢ decyzje, czy regresja liniowa zadawalajaco dobrze odtwarza zale»no±¢ y od x<br />
mo»na zbada¢ czy suma kwadratów odchyle« wyników pomiaru od linii prostej speªnia<br />
poni»sze warunki:<br />
Przy poprawnym odtwarzaniu zale»no±ci y(x) przez prosta regresji y = a · x + b<br />
wielko±¢ Q 2 /σ 2 (Y ) ma rozkªad chi - kwadrat o n − 2 stopniach swobody a wiec jej<br />
warto±¢ oczekiwana i odchylenie standardowe speªniaja nastepujace relacje:<br />
{ } Q<br />
2<br />
E<br />
σ 2 (Y )<br />
{ } Q<br />
2<br />
σ<br />
σ 2 (Y )<br />
= n − 2<br />
=<br />
√<br />
2(n − 2)<br />
Stad przy adekwatno±ci liniowego modelu i przy poprawnym oszacowaniu bªedów pomiarów<br />
σ(y i ) obliczona warto±¢ Q 2 /σ 2 (Y ) powinna by¢ bliska n − 2 a rozrzut dookoªa<br />
tej warto±ci powinien by¢ okre±lony przez √ 2(n − 2) gdzie n to liczba pomiarów.
SMOP-2 B.Kamys: 2007/08 51<br />
9 REGRESJA PRZY POMOCY WIELOMIANÓW OR-<br />
TOGONALNYCH<br />
Tu omówiona zostanie regresja krzywoliniowa ze wzgledu na posta¢ zale»no±ci dopasowanych<br />
funkcji od argumentu ale liniowa ze wzgledu na zale»no±¢ od dobieranych parametrów.<br />
W takiej sytuacji warto±ci parametrów mo»na znale¹¢ przez rozwiazanie ukªadu<br />
równa« liniowych (podobnie jak poprzednio dla parametrów linii prostej). Równania<br />
te sa jednak»e czesto numerycznie niestabilne, tzn. maªe zmiany warto±ci wspóªczynników<br />
ukªadu równa« powoduja drastyczne zmiany rozwiaza«. Wygodna metoda unikniecia<br />
tych problemów jest zastosowanie wielomianów ortogonalnych. Tu zakªadamy dalej, »e<br />
zmienna x jest zmienna kontrolowana , tzn. jej warto±ci sa znane z zaniedbywalnie<br />
maªymi bªedami.<br />
9.1 REGRESJA PRZY POMOCY WIELOMIANÓW ORTOGO-<br />
NALNYCH NA ZBIORZE WARTO‘CI ZMIENNEJ KON-<br />
TROLOWANEJ x i , i = 1, ...n<br />
Przedstawiamy zmienna y jako rozwiniecie w szereg wielomianów ortogonalnych P r (x)<br />
na zbiorze warto±ci argumentów x i , i = 1, ...n:<br />
m∑<br />
y(x) = θ r · P r (x)<br />
r=0<br />
gdzie parametry θ r , (r = 1, ..., m) nale»y wyznaczy¢ z warunku minimalizacji sumy kwadratów<br />
odchyle« wspóªrzednych (y i , i = 1, 2, ..n) zespoªu n punktów o wspóªrzednych<br />
(x 1 , y 1 ),(x 2 , y 2 ),... (x n , y n ) od linii regresji y(x) a wielomiany P r (x), (r = 1, 2, ..., m)<br />
sa okre±lone przez zbiór warto±ci argumentu x i ; (i = 1, 2, .., n) na którym maja by¢<br />
ortogonalne oraz - ewentualnie - przez zbiór wag w i , (i = 1, 2, ..., n) przypisanych poszczególnym<br />
punktom (x i , y i ), (i = 1, 2, ..., n).<br />
Stosowanie wielomianów ortogonalnych ma nastepujace zalety:<br />
1. parametry θ r , (r = 1, ..., m) mo»na wyliczy¢ analitycznie poniewa» pojawiaja<br />
sie jako wspóªczynniki przy wielomianach a wiec mamy do czynienia z liniowym<br />
przypadkiem metody najmniejszych kwadratów (MNK).<br />
2. Obliczenie parametrów odbywa sie przy pomocy prostych wzorów podanych poni»ej.<br />
Nie wymaga to odwracania macierzy - jak to ma miejsce w ogólnym przypadku<br />
ogólnej liniowej MNK. Dzieki temu unika sie problemów numerycznych gdy» odwracanie<br />
typowych macierzy pojawiajacych sie w MNK jest niestabilna numerycznie<br />
procedura.
SMOP-2 B.Kamys: 2007/08 52<br />
3. Parametr θ r+1 jest wyznaczany niezale»nie od parametrów θ 1 , θ 2 , ...θ r , tzn. dodanie<br />
nastepnego wyrazu do szeregu nie wpªywa na parametry przy wielomianach<br />
ni»szego stopnia). Oznacza to równie», »e macierz kowariancji estymatorów parametrów<br />
θ jest diagonalna.<br />
Ortogonalno±¢ wielomianów P r (x) na zbiorze x i , i = 1, 2, ...n warto±ci argumentu<br />
oznacza speªnienie poni»szych warunków:<br />
n∑<br />
w i P l (x i ) · P k (x i ) = 0 dla l ≠ k<br />
i=1<br />
n∑<br />
i=1<br />
w i [P l (x i )] 2 ≠ 0 (76)<br />
gdzie w i , i = 1, 2, ..n s¡ wagami odpowiednich pomiarów y i , i = 1, 2...n.<br />
Wªasno±ci te wykorzystujemy nastepujaco:<br />
Mno»ymy równanie okre±lajace y(x) jako rozwiniecie w szereg wielomianów ortogonalnych<br />
przez dany wielomian P k (x i ) i wag¦ w i a nast¦pnie sumujemy po i co dzieki ortogonalno±ci<br />
wielomianów prowadzi do wzoru:<br />
n∑<br />
∑ n<br />
y i w i P k (x i ) = θ k w i [P k (x i )] 2<br />
i=1<br />
i=1<br />
a wiec otrzymujemy analityczny wzór na estymator parametru θ k :<br />
T n (θ k ) =<br />
n∑<br />
i=1<br />
n∑<br />
i=1<br />
y i w i P k (x i )<br />
w i [P k (x i )] 2 (77)<br />
Jako wagi w i bierze sie zwykle kwadraty odwrotno±ci bªedów mierzonych wielko±ci Y i ,<br />
gdy» to bardzo upraszcza rachunki:<br />
w i = 1<br />
σ 2 (y i )<br />
(78)<br />
Wida¢ to szczególnie przy szacowaniu bª¦dów estymatorów parametrów a nast¦pnie bª¦dów<br />
znalezionych warto±ci funkcji regresji. Przede wszystkim nale»y zauwa»y¢, »e estymatory<br />
parametrów θ k zale»a liniowo od danych y 1 , y 2 , ...y n a wiec macierz kowariancji
SMOP-2 B.Kamys: 2007/08 53<br />
estymatorów mo»na wyliczy¢ ±ci±le stosujac wzór na transformacje macierzy<br />
kowariancji (propagacja bªedów) znajac macierz kowariancji danych y 1 , y 2 , ...y n . Co<br />
wiecej wiadomo, »e macierz kowariancji parametrów jest diagonalna (bo estymator parametru<br />
θ k jest wyliczany niezale»nie od estymatorów pozostaªych parametrów) a wiec<br />
pozostaje nam znalezienie wariancji tych estymatorów.<br />
var(T n (θ k )) =<br />
n∑<br />
[w i · P k (x i )] 2 σ 2 (y i )<br />
i=1<br />
∑<br />
[ n w i · Pk 2(x i)] 2<br />
i=1<br />
Gdy przyjmiemy (tak bedziemy robi¢ w nastepnych wzorach) w i ≡ 1<br />
σ 2 (y i )<br />
to<br />
n∑<br />
n∑<br />
[w i · P k (x i )] 2 · σ 2 (y i ) = w 2 i · P 2 k (x 1<br />
i) ·<br />
i=1<br />
i=1<br />
w i<br />
n∑<br />
= w i · P 2 k (x i)<br />
i=1<br />
a wiec wariancja estymatora parametru θ k wyra»a sie analitycznym wzorem:<br />
var(T n (θ k )) =<br />
n∑<br />
i=1<br />
1<br />
P 2 k (x i)/σ 2 (y i )<br />
(79)<br />
Równie ªatwo mo»na (±cisle) znale¹¢ wariancje (wiec i bªad) formuªy interpolacyjnej na<br />
y(x):<br />
czyli<br />
m∑<br />
var(y(x)) = [P r (x)] 2 · var(T n (θ r ))<br />
r=0<br />
m∑<br />
var(y(x)) =<br />
n∑<br />
r=0<br />
i=1<br />
[P r (x)] 2<br />
P 2 r (x i)/σ 2 (y i )<br />
(80)<br />
Jako±¢ dopasowania mo»e by¢ oceniana przez policzenie warto±ci wyra»enia:
SMOP-2 B.Kamys: 2007/08 54<br />
n∑<br />
m∑<br />
Q 2 (m) = w i · [y i − T n (θ r ) · P r (x i )] 2 , (81)<br />
i=1<br />
r=0<br />
które przy adekwatno±ci modelu powinno mie¢ rozkªad chi-kwadrat o (n-(m+1)) stopniach<br />
swobody.<br />
Wiedzac o tym mo»emy warto±¢ tego wyra»enia u»ywa¢ jako kryterium doboru najwy»-<br />
szego stopnia wielomianu w rozwinieciu (m), gdy» wiemy, »e Q 2 (m) powinno mie¢ warto±¢<br />
oczekiwana równa (n − m − 1) z bªedem √ 2(n − m − 1).<br />
Czesto zamiast Q 2 (m) stosuje sie unormowana sume kwadratów odchyle«:<br />
Q 2 (m)<br />
n − m − 1 .<br />
Warto±¢ oczekiwana tej wielko±ci jest równa jedno±ci a bªad √ 2<br />
n−m−1 .<br />
UWAGA: Innym popularnym wyborem wag jest przyj¦cie wag równych jedno±ci dla wszystkich<br />
punktów. Wtedy trzeba jednak policzy¢ bª¦dy parametrów i przewidzianej funkcji<br />
regresji wg nieco innych wzorów, uwzgl¦dniaj¡c to, »e wagi nie uproszcz¡ si¦ z kwadratem<br />
bª¦dów.<br />
var (T n (θ k )) =<br />
n∑<br />
i=1<br />
[ n∑<br />
P 2 k (x i) σ 2 (y i )<br />
] 2<br />
(82)<br />
Pk 2(x i)<br />
i=1<br />
n∑<br />
m∑<br />
⎧⎪ ⎨ P 2<br />
var (y (x)) = [P r (x)] 2 r (x i) σ 2 (y i )<br />
⎫⎪ ⎬<br />
i=1<br />
[ n∑<br />
] 2<br />
(83)<br />
r=0 ⎪ ⎩ Pr 2(x ⎪<br />
i) ⎭<br />
i=1<br />
Ten ostatni wzór jest uogólnieniem wzoru (75), który mo»na z niego otrzyma¢ podstawiaj¡c<br />
identyczn¡ warto±¢ bª¦du σ(y i ) dla wszystkich punktów.
SMOP-2 B.Kamys: 2007/08 55<br />
9.2 KONSTRUKCJA ZESPOŠU WIELOMIANÓW ORTOGO-<br />
NALNYCH NA ZBIORZE WARTO‘CI ARGUMENTU<br />
Zakªadamy, »e maja to by¢ wielomiany ortogonalne z wagami w 1 , w 2 , ...w n na zbiorze<br />
warto±ci argumentu x 1 , x 2 , ...x n , posiadajace jednostkowy wspóªczynnik przy najwy»szej<br />
potedze argumentu x. Mo»na pokaza¢, »e wielomiany ortogonalne P 0 (x), P 1 (x), ...P m (x)<br />
speªniaja poni»sze formuªy rekurencyjne, które moga by¢ efektywnie zastosowane do ich<br />
wyliczenia:<br />
P r+1 (x) = [x + β r+1 ] · P r (x) + γ r+1 · P r−1 (x)<br />
n∑<br />
w i · P 2 r (x i) · x i<br />
i=1<br />
β r+1 = − n∑<br />
w i · Pr 2(x i)<br />
γ r+1 = −<br />
i=1<br />
n∑<br />
i=1<br />
n∑<br />
i=1<br />
w i · P 2 r (x i)<br />
w i · P 2 r−1 (x i)<br />
(84)<br />
przy czym startowe wielomiany, tzn. P 0 (x) i P 1 (x) okre±la sie nastepujaco:<br />
P 0 (x) = 1<br />
P 1 (x) = x −<br />
n∑<br />
i=1<br />
n∑<br />
w i · x i<br />
i=1<br />
w i<br />
(85)<br />
Warto zauwa»y¢, »e sumy typu ∑ i w i·P 2 r (x i) wystepuja zarówno w mianowniku wzorów<br />
na γ r+2 , β r+1 , T n (θ r ), var(y) jak i w liczniku wzoru na γ r+1 . Dzieki temu przy<br />
programowaniu wzorów mo»na te sumy wykorzysta¢ wielokrotnie.
SMOP-2 B.Kamys: 2007/08 56<br />
10 METODY SZUKANIA ESTYMATORÓW O PO-<br />
› DANYCH WŠASNO‘CIACH<br />
Omówimy poni»ej trzy najcze±ciej stosowane ogólne metody poszukiwania estymatorów<br />
parametrów zapewniajace otrzymanie estymatorów o po»adanych wªasno±ciach. Sa to:<br />
• Metoda momentów<br />
• Metoda najwiekszej wiarygodno±ci<br />
• Metoda najmniejszych kwadratów<br />
Ka»da z nich ma swoje zalety i wady. W ogólnym przypadku zalecana jest metoda<br />
najwiekszej wiarygodno±ci ale w przypadku szukania parametrów regresji najbardziej popularna<br />
jest metoda najmniejszych kwadratów. Z kolei metoda momentów mo»e by¢<br />
bardzo wygodna w niektórych przypadkach przedyskutowanych poni»ej.<br />
10.1 METODA MOMENTÓW (MM)<br />
Metoda momentów zaproponowana zostaªa przez K. Pearsona na przeªomie XIX i XX<br />
wieku.<br />
Idea metody: Szukamy estymatorów parametrów θ 1, θ 2,... θ k okre±lajacych caªkowicie<br />
dystrybuante zmiennej losowej X postepujac w poni»szy sposób:<br />
• Znajdujemy zwiazki pomiedzy parametrami a momentami rozkªadu.<br />
• Wyliczamy estymatory momentów T n (m i (0)) ≡ M i wg wzoru:<br />
M i = 1 n∑<br />
[x j ] i<br />
n j=1<br />
• Wstawiamy powy»sze estymatory momentów do wzorów wia»acych oszacowywane<br />
parametry z momentami.<br />
• Rozwiazujemy ukªad równa« na parametry θ 1, θ 2,... θ k wyra»ajac je przez estymatory<br />
momentów M i , i=1,..,k . Te rozwiazania sa estymatorami odpowiednich<br />
parametrów T n (θ i ) , i=1,...,k , optymalnymi w sensie metody momentów.
SMOP-2 B.Kamys: 2007/08 57<br />
PRZYKŠAD:<br />
Szukamy estymatorów parametrów θ 1, (θ 2 ) 2 rozkªadu Gaussa:<br />
f(x) = 1 √ exp{− (x − θ 1) 2<br />
}<br />
2πθ<br />
2<br />
2<br />
2θ 2 2<br />
Znamy zwiazki pomiedzy parametrami i momentami rozkªadu:<br />
θ 1 =E{x} ≡ m 1 (0)<br />
(θ 2 ) 2 = var{x} = E{x 2 } − (E{x}) 2 ≡ m 2 (0) − (m 1 (0)) 2<br />
Liczymy estymatory momentów:<br />
T n (m 1 (0)) ≡ M 1 = 1 n∑<br />
x i<br />
n i=1<br />
T n (m 2 (0)) ≡ M 2 = 1 n∑<br />
x 2 i<br />
n i=1<br />
Z pierwszego równania po wstawieniu ±redniej arytmetycznej zamiast E{x}<br />
dostajemy:<br />
T n (θ 1 ) = 1 n∑<br />
x i<br />
n i=1<br />
Z drugiego równania (zastepujac momenty ich estymatorami) dostajemy:<br />
)<br />
T n (θ 2 2 ) = 1 n∑<br />
n∑ 2<br />
x<br />
n<br />
n i =<br />
i=1<br />
i=1<br />
n∑<br />
x 2 i − 2¯x2 + ¯x 2 =<br />
(<br />
x 2 i − 2¯x. 1<br />
n∑<br />
= 1 n<br />
i=1<br />
= 1 n∑<br />
n<br />
i=1<br />
= 1 n∑<br />
n<br />
i=1<br />
= 1 n∑<br />
n<br />
i=1<br />
x 2 i − (<br />
1<br />
n<br />
i=1<br />
x i<br />
)<br />
+<br />
(<br />
x<br />
2<br />
i − 2¯x.x i + ¯x 2) =<br />
(x i − ¯x) 2<br />
(<br />
1<br />
n∑<br />
n<br />
i=1<br />
¯x 2 )<br />
=
SMOP-2 B.Kamys: 2007/08 58<br />
(w drugim wierszu dodany i odjety kwadrat ±redniej arytmetycznej, w trzecim kwadrat<br />
±redniej zapisany jako n-ta cze±¢ sumy kwadratów ±redniej a dalej to tylko zwijanie kwadratu<br />
ró»nicy).<br />
Otrzymujemy wiec znany nam estymator s 2 (x) jako najlepszy w sensie metody momentów<br />
estymator wariancji θ 2 2 :<br />
T n (θ 2 2 ) = 1 n∑<br />
(x i − ¯x) 2 ≡ s 2 (x)<br />
n i=1<br />
Wªasno±ci estymatorów metody momentów :<br />
Estymatory sa:<br />
• asymptotycznie nieobcia»one (lub nieobcia»one)<br />
• zgodne<br />
Wady metody momentów:<br />
• Ukªad równa« na estymatory parametrów θ jest zwykle nieliniowy co powoduje,<br />
»e musimy znajdowa¢ rozwiazania numerycznie i dodatkowo utrudnia oszacowanie<br />
bªedów estymatorów.<br />
• Estymatory metody momentów sa zwykle mniej efektywne (tzn. maja wieksza<br />
wariancje) ni» estymatory znalezione innymi metodami a w szczególno±ci metoda<br />
najwiekszej wiarygodno±ci.<br />
• Wyznaczanie wy»szych momentów z do±wiadczenia jest maªo dokªadne co rzutuje<br />
na dokªadno±¢ estymatorów parametrów.<br />
Optymalna sytuacja dla metody momentów:<br />
Zachodzi ona wtedy, gdy szukane parametry wystepuja jako wspóªczynniki rozwiniecia<br />
funkcji gesto±ci prawdopodobie«stwa na ortonormalny zespóª funkcji g k (x), k = 1, .., r:<br />
f(x, θ) ⃗ r∑<br />
= const + θ k g k (x)<br />
k=1
SMOP-2 B.Kamys: 2007/08 59<br />
gdzie const jest staªa normalizacyjna a funkcje g k speªniaja relacje:<br />
∫<br />
dx g k (x) g j (x) = δ kj<br />
oraz<br />
∫<br />
dx g k (x) = 0.<br />
Wtedy mo»emy napisa¢ nastepujaco wzór na warto±¢ oczekiwana funkcji g j (x):<br />
E{g j (x)} = ∫ dx g j (x) f(x, ⃗ θ) =<br />
= ∫ dx const g j (x) + r ∑<br />
= 0 + θ j<br />
k=1<br />
θ k<br />
∫ dx gk (x) g j (x) =<br />
Wynika stad, »e szukanie estymatora parametru θ j sprowadza sie do znalezienia estymatora<br />
warto±ci oczekiwanej funkcji g j (x). Zgodnie z zasada metody momentów estymatorem<br />
tym jest ±rednia arytmetyczna:<br />
T n (θ j ) = 1 n∑<br />
g j (x i )<br />
n i=1<br />
Wiemy, »e ±rednia arytmetyczna jest zgodnym i nieobcia»onym estymatorem. Co<br />
wiecej, wiemy z centralnego twierdzenia granicznego , »e asymptotyczny rozkªad takiej<br />
zmiennej jest rozkªadem normalnym a wiec znamy równie» przepis na estymator wariancji<br />
tego estymatora. Takim nieobcia»onym i zgodnym estymatorem jest S 2 (¯x), gdzie zamiast<br />
x i bierzemy funkcje g j (x i ) a zamiast ¯x bierzemy estymator T n (θ j ):<br />
S 2 (T n (θ j )) =<br />
1 n∑<br />
[g j (x i ) − T n (θ j )] 2<br />
n(n − 1) i=1
SMOP-2 B.Kamys: 2007/08 60<br />
10.2 METODA NAJWIEKSZEJ WIARYGODNO‘CI (MNW)<br />
Metoda najwiekszej wiarygodno±ci zaproponowana zostaªa przez R.A. Fishera w 1921<br />
roku.<br />
Idea metody:<br />
Zawiera sie w zaªo»eniu, »e zaobserwowane w próbie wyniki sa najbardziej prawdopodobne<br />
spo±ród wszystkich mo»liwych.<br />
• Szukamy prawdopodobie«stwa tego, »e próba bedzie taka jaka zaobserwowali±my<br />
je»eli parametry ⃗ θ przyjmuja konkretna warto±¢ ⃗ θ 0 .<br />
Je»eli próba jest prosta, tzn. pomiary x i , i = 1, .., n sa niezale»ne to szukane prawdopodobie«stwo<br />
próby równe jest iloczynowi prawdopodobie«stw warunkowych poszczególnych<br />
pomiarów. Dla zmiennej ciagªej X mo»emy opu±ci¢ iloczyn ró»niczek<br />
dx 1 ...dx n i zapisa¢ jedynie iloczyn gesto±ci prawdopodobie«stw:<br />
L( θ ⃗ n∏ ∣ ∣∣ 0 ) = f(x i θ0 ⃗ ).<br />
i=1<br />
To prawdopodobie«stwo (dla zmiennej dyskretnej) lub gesto±¢ prawdopodobie«stwa<br />
(dla zmiennej ciagªej) mo»emy potraktowa¢ jako funkcje szukanych parametrów.<br />
Funkcje te nazywamy funkcja wiarygodno±ci.<br />
• Znajdujemy taka warto±¢ parametrów ⃗ θ , która zapewnia maksimum funkcji wiarygodno±ci:<br />
L( ⃗ θ) = max .<br />
Te dwa warunki sªu»a jako przepis na szukanie optymalnych w sensie metody najwiekszej<br />
wiarygodno±ci estymatorów.<br />
Poniewa» szukanie maksimum funkcji wiarygodno±ci wymaga zwykle ró»niczkowania<br />
po parametrach wiec bedziemy mie¢ do czynienia z ró»niczkowaniem iloczynu co prowadzi<br />
do do±¢ skomplikowanych rachunków. Aby uªatwi¢ ró»niczkowanie standardowo<br />
zamienia sie funkcje wiarygodno±ci przez jej logarytm co powoduje, »e zamiast<br />
ró»niczkowania iloczynu nale»y ró»niczkowa¢ sume a poªo»enie maksimum w przestrzeni<br />
parametrów jest takie samo gdy» logarytm jest funkcja monotoniczna oraz<br />
∂ ln(L)<br />
∂θ i<br />
≡<br />
( ) ∂L<br />
∂θ i<br />
L<br />
ma taki sam znak jak<br />
∂L<br />
∂θ i<br />
(L jest wieksze od zera ).<br />
Logarytm z funkcji wiarygodno±ci oznaczany jest zwykle przez maªa litere l.
SMOP-2 B.Kamys: 2007/08 61<br />
l ≡ ln(L)<br />
(chocia» stosuje sie równie» oznaczenie przez du»e L) i nazywany jest logarytmiczna<br />
funkcja wiarygodno±ci a czasem równie» funkcja wiarygodno±ci.<br />
PRZYKŠAD:<br />
Dla rozkªadu normalnego N(θ 1 ,θ 2 ) :<br />
wiec funkcja wiarygodno±ci:<br />
f(x) =<br />
L(θ 1 , θ 2 ) =<br />
1<br />
√<br />
2π θ2<br />
exp<br />
1<br />
(2π) n 2 θ n 2<br />
a logarytmiczna funkcja wiarygodno±ci:<br />
{− (x − θ 1) 2 }<br />
2θ 2 2<br />
{<br />
exp − 1<br />
}<br />
n∑<br />
(x<br />
2θ2<br />
2 i − θ 1 ) 2<br />
i=1<br />
l = −n ln((2π) 1 2 ) − n ln(θ2 ) − 1 n∑<br />
(x<br />
2θ2<br />
2 i −θ 1 ) 2<br />
i=1<br />
Ró»niczkujac po parametrach dostajemy ukªad równa« na parametry:<br />
⎧<br />
⎪⎨<br />
⎪⎩<br />
∂l<br />
∂θ 1<br />
= 1<br />
θ2<br />
2<br />
n∑<br />
i=1<br />
∂l<br />
∂θ 2<br />
= − n θ 2<br />
+ 1<br />
(x i − θ 1 ) = 0<br />
n∑<br />
(x i − θ 1 ) 2 = 0<br />
θ2<br />
3 i=1<br />
Rozwiazanie pierwszego równania daje estymator T n (θ 1 ):<br />
T n (θ 1 ) = 1 n∑<br />
x i<br />
n i=1<br />
czyli ±rednia arytmetyczna ¯x, a przeksztaªcajac drugie równanie mo»na napisa¢ tak:<br />
czyli<br />
n = 1 n∑<br />
(x<br />
θ2<br />
2 i − T n (θ 1 ) 2<br />
i=1<br />
T n (θ 2 2 ) = 1 n∑<br />
(x i − ¯x) 2<br />
n i=1
SMOP-2 B.Kamys: 2007/08 62<br />
a to jest znany nam estymator wariancji zmiennej x oznaczany symbolem s 2 (x).<br />
Jak wida¢ metoda najwiekszej wiarygodno±ci daªa w tym przypadku dokªadnie te same<br />
estymatory co metoda momentów.<br />
Zanim podamy wªasno±ci estymatorów MNW wprowadzimy denicje rozkªadu regularnego<br />
i estymatorów regularnych.<br />
Mówimy, »e rozkªad f(X, θ) jest rozkªadem regularnym gdy caªkowanie wzgledem x i<br />
ró»niczkowanie wzgledem θ sa przemienne i istnieja wyra»enia:<br />
oraz<br />
∫<br />
∂ 2 +∞<br />
∂θ 2 −∞<br />
≡ +∞ ∫<br />
−∞<br />
+∞<br />
∂ ∫<br />
∂θ<br />
−∞<br />
≡ +∞ ∫<br />
−∞<br />
dx f(x|θ) = +∞ ∫<br />
dx f(x|θ)<br />
}<br />
≡ E { ∂ ln f(x|θ)<br />
∂θ<br />
dx f(x|θ) = +∞ ∫<br />
dx f(x|θ) ∂2 ln f(x|θ)<br />
≡ E { ∂ 2 ln f(x|θ)<br />
∂θ 2<br />
−∞<br />
∂ ln f(x|θ)<br />
∂θ<br />
dx ∂2 f(x|θ)<br />
∂θ 2<br />
−∞<br />
+ +∞ ∫<br />
∂θ 2<br />
}<br />
+ E<br />
{ [ ∂ ln f(x|θ)<br />
∂θ<br />
−∞<br />
] } 2<br />
dx ∂f(x|θ)<br />
∂θ<br />
dx f(x|θ) [ ] 2 ∂ ln f(x|θ)<br />
≡<br />
∂θ<br />
Estymator parametru θ rozkªadu regularnego nazywamy estymatorem regularnym.<br />
Gdy zmienna X jest dyskretna to w powy»szych wzorach nale»y funkcje gesto±ci prawdopodobie«stwa<br />
zastapi¢ prawdopodobie«stwem i caªki sumami.<br />
UWAGA:<br />
Ze wzgledu na warunek normalizacji gesto±ci prawdopodobie«stwa +∞<br />
dx f(x|θ) = 1<br />
oba wyra»enia wypisane w denicji rozkªadu regularnego sa równe zero.<br />
∫<br />
−∞<br />
TWIERDZENIE<br />
Je»eli funkcja gesto±ci prawdopodobie«stwa f(X|θ) (lub rozkªad prawdopodobie«stwa<br />
p(X|θ) ) sa rozkªadami regularnymi i parametr θ jest szacowany na podstawie próby<br />
prostej to estymator T n (θ) otrzymany przy pomocy MNW ma dla rozmiarów próby<br />
n da»acych do niesko«czono±ci nastepujace wªasno±ci:<br />
• jest zgodny<br />
• jego asymptotyczny rozkªad jest normalny
SMOP-2 B.Kamys: 2007/08 63<br />
z warto±cia oczekiwana<br />
i wariancja σ 2 (T n (θ))=<br />
E{T n (θ)}=θ<br />
[<br />
]<br />
n +∞ ∫ ( ) −1<br />
∂ ln f(X|θ)<br />
2<br />
∂θ f(X|θ) dX<br />
−∞<br />
Mo»na pokaza¢ (jest to tre±cia tzw. nierówno±ci Cramera-Rao), »e wyra»enie powy»-<br />
sze jest dolna granica wariancji dla nieobcia»onego estymatora regularnego a<br />
wiec<br />
MNW daje estymatory:<br />
- zgodne,<br />
- asymptotycznie nieobcia»one,<br />
- asymptotycznie najbardziej efektywne<br />
Dla sko«czonych rozmiarów próby i regularnych rozkªadów MNW daje estymatory<br />
zgodne ale moga by¢ one obcia»one i moga nie by¢ najbardziej efektywne. O ich<br />
efektywno±ci mo»na wnioskowa¢ na podstawie twierdzenia Cramera-Rao zwanego równie»<br />
nierówno±cia informacyjna :<br />
TWIERDZENIE Cramera-Rao:<br />
Wariancja regularnego estymatora T n (θ) speªnia nierówno±¢<br />
gdzie<br />
σ 2 (T n (θ)) ≥<br />
{<br />
jest obcia»eniem estymatora.<br />
1 + ∂B n(θ)<br />
∂θ<br />
} ⎡ ⎤<br />
+∞ ∫ ( )<br />
⎢ ∂ ln f(X|θ) 2<br />
⎥<br />
⎣n f(X|θ) dX ⎦<br />
∂θ<br />
−∞<br />
B n (θ) ≡ E{T n (θ)} − θ<br />
Wyra»enie w nawiasie kwadratowym nazywane jest informacja o parametrze θ zawarta<br />
w próbie (R.A. Fisher) - stad nazwa nierówno±ci.<br />
Wyra»enie to zostaªo tak nazwane gdy» posiada wªasno±ci, których wymagamy od informacji:<br />
• zwieksza sie wraz z liczba obserwacji,<br />
• zale»y od tego czego chcemy sie dowiedzie¢ (od parametru θ i jego zwiazku z mierzonymi<br />
wielko±ciami),<br />
• zwiazana jest z dokªadno±cia (im wieksza informacja tym lepsza dokªadno±¢ okre-<br />
±lenia warto±ci parametru)<br />
−1
SMOP-2 B.Kamys: 2007/08 64<br />
TWIERDZENIE<br />
Minimalna wariancje estymatora regularnego (równo±¢ w twierdzeniu Cramera-Rao)<br />
T n (τ(θ)) pewnej funkcji τ(θ) interesujacego nas parametru θ :<br />
( )<br />
∂τ (θ)<br />
σ 2 (T n (τ (θ)) =<br />
∂θ<br />
∣ F (θ) ∣<br />
uzyskuje sie dla sko«czonych rozmiarów próby n wtedy gdy pochodna czastkowa<br />
funkcji wiarygodno±ci speªnia nastepujaca relacje:<br />
∂ ln L<br />
= F (θ) [T n (τ (θ)) − τ (θ)]<br />
∂θ<br />
gdzie F(θ) jest pewna funkcja parametru θ ale nie zale»y od pomiarów ⃗x.<br />
○<br />
Funkcja wiarygodno±ci ma wtedy nastepujaca posta¢:<br />
L(⃗x|θ ) = exp { A(θ) B(⃗x) + C(⃗x) + D(θ) }<br />
gdzie A i D sa funkcjami θ (A jest caªka po dθ z F (θ) ) a B i C sa funkcjami<br />
zespoªu pomiarów (próby).<br />
Porównujac wzór na wariancje estymatora T n (τ (θ)) z nierówno±cia Cramera-Rao wida¢<br />
natychmiast, »e:<br />
• F (θ) to informacja z próby o funkcji τ(θ),<br />
• gdy τ(θ)=θ to wariancja wynosi 1/F (θ),<br />
• istnieje tylko jedna funkcja τ (θ) parametru θ , dla której osiagana jest minimalna<br />
wariancja estymatora okre±lona nierówno±cia Cramera-Rao czyli taka funkcja τ (θ)<br />
od której liniowo zale»y pochodna po parametrze θ z logarytmicznej funkcji wiarygodno±ci.<br />
PRZYKŠAD: Je»eli parametrem θ jest odchylenie standardowe rozkªadu normalnego<br />
σ(x) to tylko estymator wariancji σ 2 (x) , tzn. estymator s 2 (x) ma minimalna wariancje<br />
a estymator s(x) ju» tej wªasno±ci nie posiada. Wida¢ to ze wzoru wyprowadzonego w<br />
przykªadzie zastosowania MNW:<br />
∂l<br />
= − n + 1 n∑<br />
(x<br />
∂θ 2 θ 2 θ2<br />
3 i − θ 1 ) 2 = 0<br />
i=1<br />
Pochodna po θ 2 jest liniowo zwiazana z funkcja s 2 (x) ≡ 1 (x<br />
n i − θ 1 ) 2 a nie z<br />
i=1<br />
estymatorem odchylenia standardowego s(x), który jest pierwiastkiem z tego wyra»enia.<br />
Wida¢ to po prostym przeksztaªceniu wzoru na pochodna:<br />
n∑
SMOP-2 B.Kamys: 2007/08 65<br />
( ) [<br />
∂l n<br />
≡ −θ 2<br />
∂θ 2 θ2<br />
3 2 + 1 ]<br />
n∑<br />
(x i − θ 1 ) 2<br />
n i=1<br />
Šatwo zidentykujemy:<br />
( ) n<br />
F (θ) ≡<br />
θ2 3<br />
τ (θ) ≡ θ 2 2<br />
T n (τ (θ)) ≡ 1 n∑<br />
(x i − θ 1 ) 2<br />
n<br />
i=1<br />
10.2.1 Oszacowanie bªedu parametru znalezionego MNW<br />
Istnieje prosty sposób oszacowania bªedu estymatorów znalezionych MNW je»eli logarytmiczna<br />
funkcja w pobli»u maksimum mo»e by¢ przybli»ona parabola jako funkcja wszystkich<br />
parametrów. Mo»na pokaza¢, »e wówczas kontur staªej warto±ci logarytmicznej f.<br />
wiarygodno±ci lnL( ⃗ θ) speªniajacy relacje:<br />
ln ( L ( ⃗ θ<br />
))<br />
= ln<br />
(<br />
L<br />
( ⃗θ<br />
)<br />
max<br />
)<br />
−<br />
y 2<br />
odcina na osiach θ i y-krotna wielko±¢ odchylenia standardowego parametru θ i : y ·σ(θ i ).<br />
Je»eli przybli»enie parabola zale»no±ci lnL(θ i ) nie jest ±cisªe to nale»y ten sposób<br />
traktowa¢ jedynie jako przybli»ona metode.<br />
2
SMOP-2 B.Kamys: 2007/08 66<br />
10.3 METODA NAJMNIEJSZYCH KWADRATÓW (MNK)<br />
Za autora metody najmniejszych kwadratów uwa»a sie K. Gaussa.<br />
Idea metody:<br />
Szukamy estymatora T n (θ) parametru θ wystepujacego we wzorze:<br />
g(Y, θ) = 0,<br />
który mo»e by¢ ±ci±le speªniony tylko w wyidealizowanym przypadku, gdy mierzone do-<br />
±wiadczalnie wielkosci Y i nie sa obarczone bªedami. W obecno±ci bªedów tak dobieramy<br />
parametr θ (mo»e by¢ ich wiecej) aby funkcja g zbli»yªa sie do zera tak bardzo jak to<br />
tylko jest mo»liwe, tj. »adamy speªnienia warunku:<br />
n∑<br />
i=1<br />
[g(Y i , θ)] 2 = min<br />
θ<br />
a w najogólniejszym przypadku (wªaczajac wagi pomiarów w i ) warunku:<br />
n∑<br />
i=1<br />
w i· [g(Y i , θ)] 2 = min .<br />
θ<br />
PRZYKŠAD:<br />
Szukamy prawdziwej warto±ci wielko±ci Y mierzonej bezpo±rednio. Gdyby nie byªo bledów<br />
wówczas:<br />
albo inaczej<br />
θ = Y<br />
g(Y |θ) ≡ Y − θ = 0.<br />
W obecno±ci bªedów,funkcja g(Y |θ) bedzie zwykle ró»na od zera ale MNK podaje przepis<br />
jak znale¹¢ estymator T n (θ):<br />
n∑<br />
n∑<br />
[g(Y i |θ)] 2 ≡<br />
i=1<br />
i=1<br />
[Y i − θ] 2 = min<br />
θ<br />
Aby znale¹¢ minimum powy»szej funkcji ze wzgledu na θ nale»y przyrówna¢ do zera<br />
pochodna tej funkcji wzgledem θ:<br />
n∑<br />
−2 [Y i − θ] = 0<br />
i=1<br />
a wiec dostajemy znany nam przepis na estymator warto±ci oczekiwanej:
SMOP-2 B.Kamys: 2007/08 67<br />
T n (θ) = 1 n∑<br />
Y i<br />
n i=1<br />
Wªasno±ci estymatorów MNK<br />
Estymatory otrzymane MNK nie maja w ogólnym przypadku optymalnych wªasno±ci<br />
(nawet asymptotycznie)! Istnieja jednak dwa wa»ne wyjatki od tej reguªy:<br />
1.) Pomiary Y i maja rozkªad normalny i sa nieskorelowane,<br />
2.) Szukane parametry sa wspóªczynnikami w liniowej funkcji regresji.<br />
ad 1. Pomiary maja rozkªad normalny i sa nieskorelowane Odpowiada to sytuacji,<br />
w której zmienna Y mo»e by¢ przedstawiona nastepujaco:<br />
Y i = h(X i , ⃗ θ) + ε<br />
gdzie ε to bªad przypadkowy.<br />
Wtedy funkcja wiarygodno±ci ma nastepujaca posta¢:<br />
L(Y 1 , .., Y n | ⃗ θ) =<br />
n∏<br />
i=1<br />
a logarytmiczna funkcja wiarygodno±ci:<br />
l(Y 1 , .., Y n | ⃗ θ) = − 1 2 n ln ( 2πσ 2 i<br />
⎧ (<br />
1<br />
⎪⎨ Yi<br />
√ exp 2πσi ⎪⎩ − − h(X i , θ) ⃗ ) ⎫<br />
2<br />
⎪⎬<br />
2σi<br />
2 ⎪⎭<br />
(<br />
) ∑ n Yi − h(X i , θ) ⃗ ) 2<br />
−<br />
Funkcja ta bedzie miaªa maksimum (ujemne !) gdy suma kwadratów bedzie najmniejsza.<br />
A wiec metoda najmniejszych kwadratów jest wtedy równowa»na metodzie<br />
najwiekszej wiarygodno±ci, która zapewnia optymalno±c otrzymywanych estymatorów.<br />
ad 2. Funkcja regresji jest liniowa ze wzgledu na szukane parametry Zmienna<br />
Y zale»y wtedy od zmiennej X w nastepujacy sposób:<br />
i=1<br />
2σ 2 i<br />
k∑<br />
Y i = θ j · f j (X i )<br />
j=1
SMOP-2 B.Kamys: 2007/08 68<br />
gdzie f j (X) jest dowolna funkcja.<br />
Markow udowodniª , »e w takiej sytuacji estymatory parametrów posiadaja bardzo<br />
dobre wªasno±ci:<br />
• sa nieobcia»one<br />
• sa najbardziej efektywne<br />
• sa liniowymi funkcjami pomiarów Y 1 , ..., Y n .<br />
Te wªasno±ci nie zale»a od rozkªadu zmiennej Y i speªnione sa nawet dla<br />
niewielkich prób.<br />
Linowy (ze wzgledu na parametry) model funkcji regresji jest bardzo czesto stosowany<br />
w praktyce, poniewa» obok optymalnych wªasno±ci estymatorów parametrów zapewnia<br />
mo»liwo±¢ ±cisªego rozwiazania równa« okre±lajacych estymatory parametrów a wiec mo»-<br />
liwo±¢ znalezienia jawnych wzorów na estymatory. Tego prawie nigdy nie da sie zrobi¢<br />
w przypadku pierwszym, tzn. gdy zale»no±¢ od parametrów jest nieliniowa. Zapiszemy<br />
warunek metody najmniejszych kwadratów macierzowo stosujac nastepujace oznaczenia:<br />
A ij ≡ f j (x i ) i = 1, .., n j = 1, .., r<br />
B ij i = 1, .., n j = 1, .., n<br />
Y i i = 1, .., n<br />
i = 1, .., r<br />
θ i<br />
gdzie A ij to macierz warto±ci funkcji f j (x i ), B i,j to macierz wag zwykle brana jako<br />
odwrócona macierz kowariancji pomiarów {cov(y i ,y j )} −1 , Y i - wektor pomiarów, θ i -<br />
wektor parametrów. Wtedy minimalizowana suma kwadratów mo»e by¢ zapisana w taki<br />
sposób:<br />
Q 2 = (⃗Y − A · ⃗θ) T · B · (⃗Y − A · ⃗θ)<br />
a pochodne wzgledem parametrów nastepujaco (i=1,...,r):<br />
∂Q 2<br />
∂θ i<br />
= { −2A T · B · (⃗Y − A · ⃗θ) } i = 0·<br />
Zespóª r powy»szych równa« mo»na zapisa¢ macierzowo i rozwiaza¢ formalnie:<br />
A T · B · (⃗Y − A · ⃗θ) = 0<br />
A T · B · ⃗Y = A T · B · A · ⃗θ<br />
a mno»ac lewostronnie przez macierz odwrotna do A T BA, dostaniemy estymatory<br />
parametrów liniowej funkcji regresji :<br />
T n ( ⃗ θ) = [ A T · B · A ] −1<br />
AT · B · ⃗Y
SMOP-2 B.Kamys: 2007/08 69<br />
Jest to dokªadne i jedyne rozwiazanie (pod warunkiem, »e macierz A T BA jest nieosobliwa)<br />
Z powy»szego wzoru wida¢, »e estymatory parametrów sa liniowymi funkcjami warto±ci<br />
pomiarów Y 1 , ..., Y n co pozwala ±ci±le wyrazi¢ macierz kowariancji estymatorów<br />
parametrów (a wiec i ich bªedy) przez macierz kowariancji pomiarów C( ⃗Y ) stosujac wzór<br />
wyprowadzony dla propagacji bªedów. Gdy przyjmiemy macierz wag B jako macierz<br />
odwrotna do C(⃗Y ) to uzyskamy wyjatkowo prosta forme macierzy kowariancji estymatorów<br />
parametrów.<br />
C(T n ( ⃗ θ)) =<br />
=<br />
{ [A T BA ] −1<br />
A T B}<br />
{ [A T BA ] −1<br />
A T B}<br />
{ [A<br />
· C(⃗Y ) · T BA ] }<br />
−1 T<br />
A T B<br />
{ [A<br />
· B −1 · T BA ] }<br />
−1 T<br />
A T B<br />
= [ A T BA ] (<br />
−1 [A<br />
AT · BB −1 · B T A<br />
T BA ] −1 ) T<br />
= [ A T BA ] −1 [<br />
· A T BA ] ( [A<br />
·<br />
T BA ] T ) −1<br />
= ([ A T BA ]) −1<br />
= [ A T C(⃗Y ) −1 A ] −1<br />
Ostatecznie macierz kowariancji estymatorów parametrów :<br />
C(T n (⃗θ)) = [ A T C(⃗Y ) −1 A ] −1<br />
Warto zauwa»y¢, »e<br />
• Ten wynik jest ±cisªy<br />
• Powy»sza macierz jest wyliczana dla znalezienia estymatorów parametrów bo to jest<br />
macierz {A T BA} −1 wystepujaca we wzorze na estymatory.<br />
• Mimo, »e wzór jest ±cisªy i prosty to jego wyliczenie czesto napotyka na trudno±ci<br />
numeryczne gdy» procedura odwracania macierzy {A T BA} −1 jest ¹le uwarunkowana<br />
numerycznie (maªe zaokraglenia rachunków moga powodowa¢ wielkie zmiany<br />
wyników). Dla unikniecie tego problemu stosuje sie jako funkcje, na które rozwijana<br />
jest funkcja regresji tzw. wielomiany ortogonalne na zbiorze punktów.
SMOP-2 B.Kamys: 2007/08 70<br />
11 TESTOWANIE HIPOTEZ STATYSTYCZNYCH<br />
11.1 Denicje elementarnych poje¢<br />
Poni»ej podamy denicje elementarnych poje¢ stosowanych przy testowaniu hipotez.<br />
Hipoteza statystyczna nazywamy hipoteze odnoszaca sie do rozkªadu prawdopodobie«stwa<br />
zmiennej losowej (funkcji gesto±ci prawdopodobie«stwa, itp.) lub do parametrów<br />
rozkªadu prawdopodobie«stwa.<br />
Hipoteza prosta to taka, która jednoznacznie okre±la dystrybuante (rozkªad) zmiennej<br />
losowej, tzn. podana jest posta¢ rozkªadu i warto±ci wszystkich parametrów.<br />
Hipoteza zªo»ona to taka, która nie jest prosta, np. podana jest posta¢ rozkªadu a<br />
nie sa znane warto±ci niektórych parametrów.<br />
Hipoteza parametryczna to hipoteza odnoszaca sie do warto±ci parametrów rozkªadu.<br />
Inne hipotezy nazywaja sie hipotezami nieparametrycznymi i z natury sa<br />
hipotezami zªo»onymi.<br />
Hipoteza zerowa H 0 ” to sprawdzana hipoteza.<br />
Hipoteza alternatywna H 1 ” to hipoteza, która byliby±my skªonni przyja¢ gdy<br />
H 0 ” jest nieprawdziwa.<br />
UWAGA: H 1 ” nie musi by¢ prostym zaprzeczeniem H 0 ”<br />
Bªad pierwszego rodzaju to odrzucenie prawdziwej H 0 ”.<br />
Poziomem istotno±ci α” nazywamy prawdopodobie«stwo popeªnienia bªedu pierwszego<br />
rodzaju. Przyjmuje sie zwykle α” ∈ [0.1 − 0.001] konkretny wybór oczywi±cie<br />
zale»y od tego jak kosztowne beda skutki popeªnienia bªedu pierwszego rodzaju.<br />
Bªad drugiego rodzaju to przyjecie nieprawdziwej H 0 ”.<br />
UWAGA: Przez sformuªowanie przyjecie hipotezy” nale»y rozumie¢ stwierdzenie, »e nie<br />
mamy podstaw do odrzucenia hipotezy H 0 ”. Inaczej mówiac pomiaru, którego wynik<br />
nie przeczy hipotezie nie mo»na uwa»a¢ za dowód prawdziwo±ci hipotezy !!!<br />
Moca testu nazywamy prawdopodobie«stwo odrzucenia faªszywej H 0 ”, tzn. prawdopodobie«stwo<br />
tego, »e nie popeªnimy bªedu II rodzaju. Moc testu oznacza sie zwykle<br />
przez 1 − β” gdzie β” oznacza prawdopodobie«stwo popeªnienia bªedu II rodzaju.<br />
Tablica 1: Wyniki podejmowania decyzji przy testowaniu hipotez<br />
H 0 prawdziwa H 1 prawdziwa<br />
Przyjecie H 0 Decyzja prawidªowa Bªad II rodzaju<br />
Przyjecie H 1 Bªad I rodzaju Decyzja prawidªowa
SMOP-2 B.Kamys: 2007/08 71<br />
11.2 Schemat postepowania przy testowaniu hipotez<br />
Idea testowania hipotez polega na odrzucaniu postawionej hipotezy (hipotezy zerowej<br />
H 0 ) je»eli otrzymane wyniki do±wiadczenia lub obserwacji sa wysoce nieprawdopodobne<br />
przy jej prawdziwo±ci.<br />
1. Pojawienie sie wyników niesprzecznych z H 0 nie udowadnia tej hipotezy a jedynie<br />
pozwala na stwierdzenie, »e nie ma podstaw do jej odrzucenia.<br />
2. Jak wiadomo, maªe prawdopodobie«stwo pojawienia sie pewnych wyników nie oznacza,<br />
»e wyniki te sa niemo»liwe. Mo»e wiec sie zdarzy¢, »e przy prawdziwo±ci H 0<br />
pojawi sie tak bardzo nieprawdopodobny wynik i» uznamy go za argument dla odrzucenia<br />
H 0 . Wtedy odrzucajac H 0 popeªnimy bªad pierwszego rodzaju.<br />
3. Ustalajac, jakie warto±ci wyników uznamy za upowa»niajace do odrzucenia H 0<br />
kierujemy sie kosztami skutków odrzucenia prawdziwej H 0 i na tej podstawie ustalamy<br />
prawdopodobie«stwo odrzucenia prawdziwej H 0 czyli poziom istotno±ci. Typowe<br />
warto±ci to α = 0, 1 − 0, 001.<br />
4. Odrzucajac H 0 automatycznie akceptujemy hipoteze alternatywna H 1 , która w<br />
braku wcze±niejszych informacji o badanym zagadnieniu powinna by¢ zaprzeczeniem<br />
H 0 : H 1 : nieprawda »e H 0 .<br />
Omówimy poni»ej schemat postepowania przy testowaniu hipotezy, wykorzystujac<br />
jako przykªad prosta hipoteze zerowa, która gªosi, »e:<br />
H 0 : Zmienna losowa x posiadajaca rozkªad normalny o znanym odchyleniu<br />
standardowym σ(x)=2 ma warto±¢ oczekiwana E(x) = 3.0<br />
• Ustalamy H 0 .<br />
Zrobili±my to powy»ej. Wa»ne jest u±wiadomienie sobie faktu, »e caªe dalsze rozumowanie<br />
przeprowadzane jest przy zaªo»eniu, »e H 0 jest prawdziwa.<br />
• Tworzymy statystyke testowa T n .<br />
Czynimy to w taki sposób aby zale»aªa ona od wielko±ci testowanej przez H 0 oraz<br />
znany byª rozkªad tej statystyki przy prawdziwo±ci H 0 .<br />
Tu H 0 dotyczy warto±ci oczekiwanej E(x) a wiec nasuwa sie aby jako statystyke<br />
testowa wzia¢ estymator warto±ci oczekiwanej czyli ±rednia arytmetyczna pomiarów<br />
x. Co wiecej, przy prawdziwo±ci H 0 znamy rozkªad tej statystyki - jest to<br />
rozkªad normalny o warto±ci oczekiwanej E(x) = 3.0 i odchyleniu standardowym<br />
σ(x) = σ(x)/ √ n = 2/ √ n, gdzie n oznacza liczbe pomiarów w próbie, np.<br />
n = 10. Mo»emy wiec wzia¢ ±rednia arytmetyczna pomiarów jako statystyke<br />
testowa przy czym wygodnie jest ja standaryzowa¢; x → (x − E(x))/σ(x) bo<br />
rozkªad standaryzowanej zmiennej, tzn. N(0, 1), jest stablicowany:<br />
T n ≡ (x − 3.0) √ 10<br />
2
SMOP-2 B.Kamys: 2007/08 72<br />
• Ustalamy H 1 .<br />
Je»eli przed ustaleniem H 1 nie mamy »adnych informacji do±wiadczalnych (obserwacyjnych)<br />
to jako H 1 przyjmujemy proste zaprzeczenie H 0 , tzn. H 1 brzmi nieprawda,<br />
»e H 0 czyli w naszym przykªadzie H 1 : E(X) ≠ 3.0. W przypadku,<br />
gdy mamy ju» pewne informacje, np. znamy warto±¢ ±redniej arytmetycznej, to w<br />
hipotezie alternatywnej wykorzystujemy te wiedze. Przypu±¢my, »e w rozwa»anym<br />
przykªadzie ±rednia arytmetyczna z n = 10 pomiarów wynosi 4, 1. W takiej sytuacji<br />
nie miaªoby sensu gªoszenie hipotezy, »e warto±¢ oczekiwana E(x) jest mniejsza<br />
od 3. Nale»aªoby wtedy przyja¢ jako H 1 hipoteze, »e E(X) > 3.<br />
• Ustalamy poziom istotno±ci α. Jak wspomniano powy»ej α dobieramy biorac pod<br />
uwage skutki odrzucenia prawdziwej hipotezy zerowej. Je»eli nie sa one gro¹ne lub<br />
kosztowne to mo»emy zgodzi¢ sie na du»e prawdopodobie«stwo odrzucenia prawdziwej<br />
H 0 np. 0, 1 lub 0, 05. W przeciwnym wypadku przyjmujemy mniejsza warto±¢<br />
poziomu istotno±ci α.<br />
• Okre±lamy obszar krytyczny testu.<br />
Obszar krytyczny testu to ten zbiór warto±ci statystyki testowej który jest najmniej<br />
prawdopodobny przy prawdziwo±ci H 0 a równocze±nie najbardziej prawdopodobny<br />
przy prawdziwo±ci H 1 . W rozwa»anym przykªadzie najmniej prawdopodobne przy<br />
prawdziwo±ci H 0 sa du»e dodatnie i du»e (co do moduªu) ujemne warto±ci T n . Hipoteza<br />
alternatywna H 1 : H 0 jest nieprawdziwa faworyzuje dokªadnie te same<br />
warto±ci statystyki, które odrzuca H 0 a wiec obszarem krytycznym beda warto±ci:<br />
T n < z α/2 oraz T n > z 1−α/2 , gdzie z q oznacza kwantyl rozkªadu N(0, 1) na poziomie<br />
q. Tu zaªo»one zostaªo, »e odchylenia w dóª i w góre od warto±ci postulowanej<br />
przez H 0 sa równie prawdopodobne. Z kolei hipoteza alternatywna H 1 : E(x) > 3<br />
faworyzuje tylko du»e dodatnie warto±ci T n . Wida¢ to ªatwo ze wzoru denicyjnego<br />
na T n . Jedyna wielko±cia zale»na od do±wiadczenia w denicji T n jest ±rednia arytmetyczna<br />
pomiarów, która dla E(x) > 3 bedzie w przewa»ajacej liczbie pomiarów<br />
tak»e wieksza od 3 co jest równowa»ne temu,»e T n jest wieksze od zera. A wiec<br />
obszarem krytycznym jest zbiór warto±ci statystyki testowej speªniajacy nierówno±¢:<br />
T n > z 1−α .<br />
• Sprawdzamy, czy warto±¢ statystyki testowej nale»y do obszaru krytycznego.<br />
Je»eli warto±¢ statystyki testowej traa do obszaru krytycznego to odrzucamy H 0<br />
(akceptuj¡c równocze±nie H 1 ). W przeciwnym wypadku stwierdzamy, »e nie mamy<br />
podstaw do odrzucenia H 0 . Wnioski te formuªujemy w nast¦puj¡cy sposób:<br />
W pierwszym przypadku: Na poziomie istotno±ci α odrzucamy hipotez¦<br />
zerow¡ H 0 wzgl¦dem hipotezy alternatywnej H 1 .<br />
W drugim wypadku: Na poziomie istotno±ci α nie mamy podstaw do<br />
odrzucenia hipotezy zerowej H 0 wzgl¦dem hipotezy alternatywnej H 1 .
SMOP-2 B.Kamys: 2007/08 73<br />
11.3 HIPOTEZY DOTYCZA CE WARTO‘CI OCZEKIWANEJ<br />
Zajmujemy sie zmiennymi o rozkªadzie normalnym. Sa dwie podstawowe hipotezy, które<br />
bada sie najcze±ciej:<br />
• Porównanie E(X) z liczba:<br />
H 0 : E(X) = x 0 , oraz<br />
• Porównanie warto±ci oczekiwanych dwu populacji:<br />
H 0 : E(X) = E(Y )<br />
Ka»da z tych hipotez mo»e oczywi±cie by¢ formuªowana jako nierówno±¢, np. H 0 :<br />
E(X) > X 0 ale wtedy hipoteza zerowa jest zªo»ona a wiec nie mamy jednoznacznie<br />
zdeniowanego rozkªadu X. Z tego powodu wygodniej jest zawsze bra¢ jako hipoteze<br />
zerowa równo±¢ E(X) z dana liczba lub E(Y) a interesujaca nas hipoteze traktowa¢ jako<br />
hipoteze alternatywna.<br />
11.3.1 PORÓWNANIE E(X) Z LICZBA (H 0 : E(X)=X 0 )<br />
Musimy rozró»ni¢ dwa przypadki:<br />
• gdy znamy σ(X), wtedy jako statystyke testowa T n (X) bierzemy poni»sza statystyke<br />
z o rozkªadzie standardowym normalnym N(0,1):<br />
z =<br />
(x − E(X))<br />
σ(X)<br />
• gdy nie znamy σ(X), to jako statystyke T n (X) bierzemy analogiczna funkcje "t",<br />
w której σ zastapiona jest estymatorem S(X):<br />
t =<br />
(x − E(X))<br />
.<br />
S(X)<br />
Statystyka t ma rozkªad Studenta o (n-1) stopniach swobody.<br />
Oczywi±cie odchylenie standardowe ±redniej arytmetycznej σ(X) podobnie jak jego<br />
estymator S(X) równe sa odpowiednim warto±ciom dla samej zmiennej X podzielonym<br />
przez √ n:<br />
σ(X) = σ(X) √ n
SMOP-2 B.Kamys: 2007/08 74<br />
Tablica 2:<br />
Obszar krytyczny dla hipotez dotyczacych E(X)<br />
Hipoteza H 1 Obszar krytyczny Obszar krytyczny<br />
gdy znamy σ(X) gdy nie znamy σ(X)<br />
E(X) ≠ X 0<br />
| z | > z 1−<br />
α<br />
2<br />
| t | > t 1−<br />
α<br />
2<br />
E(X) > X 0 z > z 1−α t > t 1−α<br />
E(X) < X 0 z < z α t < t α<br />
Sposób okre±lenia obszaru krytycznego dla poszczególnych hipotez alternatywnych podany<br />
jest w tabeli (2).<br />
z α oraz t α to odpowiednio fraktyle standardowego rozkªadu normalnego N(0,1) i rozkªadu<br />
Studenta o (n-1) stopniach swobody. Oba te rozkªady sa symetryczne wzgledem zera a<br />
wiec mo»na wykorzysta¢ nastepujaca symetrie kwantyli:<br />
z α = −z 1−α<br />
t α = −t 1−α<br />
UWAGA:<br />
1. Rozwa»ania tego rozdziaªu odnosz¡ si¦ do zmiennych o rozkªadzie normalnym ale<br />
warto zauwa»y¢, »e przy du»ych próbach mog¡ by¢ stosowane tak»e do innych rozkªadów.<br />
Przyczyn¡ tego jest fakt, »e statystyki testowe s¡ funkcjami ±rednich arytmetycznych<br />
z próby. Dzi¦ki centralnemu twierdzeniu granicznemu ±rednia<br />
arytmetyczna ma rozkªad zbie»ny do rozkªadu normalnego nawet dla oryginalnego<br />
rozkªadu rz¡dz¡cego prób¡ silnie ró»ni¡cego si¦ od rozkªadu<br />
normalnego. Na przykªad wida¢ to bardzo dobrze dla zmiennych o rozkªadzie<br />
wykªadniczym, który jest ewidentnie niesymetryczny, prawosko±ny.<br />
2. Testy rozwa»ane w tym i nast¦pnym rozdziale bior¡ pod uwag¦ jedynie poziom<br />
istotno±ci a wi¦c tylko mo»liwo±¢ popeªnienia bª¦du pierwszego rodzaju (odrzucenia<br />
prawdziwej H 0 ). Nie rozwa»aj¡ w ogóle mocy testu, tj. prawdopodobie«stwa<br />
odrzucenia faªszywej H 0 . Takie testy nazywane s¡ testami istotno±ci.
SMOP-2 B.Kamys: 2007/08 75<br />
11.3.2 WARTO‘CI OCZEKIWANE DWU POPULACJI (H 0 : E(X) = E(Y ))<br />
Tutaj trzeba odró»ni¢ trzy sytuacje:<br />
1.) σ(X) i σ(Y ) znane,<br />
2.) σ(X) i σ(Y ) nieznane ale σ(X) = σ(Y ),<br />
3.) σ(X) i σ(Y ) nieznane oraz σ(X) ≠ σ(Y ),<br />
ad 1.) Jako statystyke testowa bierze sie zmienna z:<br />
z =<br />
X − Y<br />
√<br />
σ 2 (X)<br />
n x<br />
+ σ2 (Y )<br />
n y<br />
Zmienna ta ma rozkªad standardowy normalny N(0,1).<br />
ad 2.) Po stwierdzeniu (przy pomocy testu Fishera-Snedecora), »e wariancje zmiennej<br />
X i zmiennej Y mo»na uzna¢ za równe, stosujemy test Studenta ze zmienna t<br />
zdeniowana nastepujaco:<br />
t =<br />
S(X, Y ) =<br />
X − Y<br />
√<br />
n x+n y<br />
n x·n y<br />
S(X, Y ) ·<br />
√ (n x − 1) ∗ S 2 (X) + (n y − 1) ∗ S 2 (Y )<br />
n x + n y − 2<br />
Zmienna t ma rozkªad Studenta o (n x + n y − 2) stopniach swobody.<br />
ad 3.) Je»eli test F pokazaª, »e wariancje zmiennych X i Y sa istotnie ró»ne to jako<br />
statystyke testowa u»ywa sie zmodykowanej zmiennej t:
SMOP-2 B.Kamys: 2007/08 76<br />
t =<br />
X − Y<br />
√<br />
S 2 (X)<br />
n x<br />
+ S2 (Y )<br />
n y<br />
Zmienna t ma rozkªad, który mo»na przybli»y¢ rozkªadem Studenta o efektywnej<br />
liczbie stopni swobody n ef :<br />
n ef =<br />
( S2 (X)<br />
n x<br />
+ S2 (Y )<br />
n y<br />
) 2<br />
(S 2 (X)/n x) 2<br />
n x+1<br />
+ (S2 (Y )/n y) 2<br />
n y+1<br />
− 2<br />
Poniewa» efektywna liczba stopni swobody n ef zwykle nie jest liczba caªkowita to<br />
szukajac w tablicach musimy zaokragla¢ ja do liczby caªkowitej (bezpieczniej zaokragla¢<br />
w dóª - wtedy efektywnie zwiekszamy nieco poziom istotno±ci).<br />
W tabeli przytoczonej poni»ej zdeniowane sa obszary krytyczne dla tych trzech przypadków<br />
przy zastosowaniu dwu ró»nych hipotez alternatywnych H 1 .<br />
Hipoteza H 1 Obszar krytyczny Obszar krytyczny Obszar krytyczny<br />
σ(X) i σ(Y ) σ(X) = σ(Y ) σ(X) ≠ σ(Y )<br />
znane nieznane nieznane<br />
E(X) ≠ E(Y )<br />
| z | > z 1−<br />
α<br />
2<br />
| t | > t nx+n y−2(1 − α 2 ) | t | > t n ef<br />
(1 − α 2 )<br />
E(X) > E(Y ) z > z 1−α t > t nx+n y−2(1 − α) t > t nef (1 − α)<br />
Oczywi±cie statystyki testowe z i t to statystyki zdeniowane powy»ej a fraktyle nale»y<br />
bra¢ odpowiednio dla rozkªadu standardowego normalnego N(0,1) oraz rozkªadów<br />
Studenta o odpowiedniej liczbie stopni swobody.
SMOP-2 B.Kamys: 2007/08 77<br />
11.4 HIPOTEZY DOTYCZA CE WARIANCJI<br />
Najwa»niejsze to hipotezy porównujace wariancje zmiennej X z liczba oraz hipoteza porównujaca<br />
wariancje dwu populacji. Zakªadamy, podobnie jak w przypadku hipotez odnoszacych<br />
sie do warto±ci oczekiwanych, »e zmienne losowe pochodza z populacji normalnych.<br />
11.4.1 PORÓWNANIE WARIANCJI X Z LICZBA (H 0 : σ 2 (X) = σ 2 0 )<br />
Dla testowania takiej hipotezy u»ywa sie statystyki testowej Q 2 zdeniowanej nastepujaco:<br />
Q 2 = (n − 1) · S2 (X)<br />
σ 2 0<br />
Przy prawdziwo±ci H 0 ta statystyka ma rozkªad χ 2 n−1<br />
, gdzie n to liczba pomiarów w<br />
próbie a S 2 (X) to estymator wariancji.<br />
Obszary krytyczne dla ró»nych hipotez alternatywnych sa wymienione w tabeli poni»ej:<br />
Hipoteza H 1<br />
Obszar krytyczny<br />
σ 2 (X) ≠ σ 2 0<br />
Q 2 < χ 2 α<br />
2<br />
lub Q 2 > χ 2 1− α 2<br />
σ 2 (X) > σ 2 0<br />
Q 2 > χ 2 1−α<br />
σ 2 (X) < σ 2 0<br />
Q 2 < χ 2 α<br />
11.4.2 PORÓWNANIE WARIANCJI DWU POPULACJI<br />
Hipoteza zerowa H 0 : σ 2 (X) = σ 2 (Y )<br />
Dla testowania tej hipotezy u»ywa sie testu F Fishera-Snedecora. Zarówno zmienna<br />
jak i rozkªad prawdopodobie«stwa oznacza sie litera F z dwoma wska¹nikami n 1 , n 2 :<br />
F(n 1 , n 2 ). Zmienna F(n 1 , n 2 ) to stosunek dwu zmiennych o rozkªadach chikwadrat<br />
podzielonych przez ich liczby stopni swobody , przy czym zmienna w liczniku<br />
ma n 1 a zmienna w mianowniku n 2 stopni swobody:
SMOP-2 B.Kamys: 2007/08 78<br />
F (n 1 , n 2 ) ≡ ( χ2 n 1<br />
n 1<br />
)<br />
( χ2 n 2<br />
n 2<br />
)<br />
Zmienna ta przyjmuje, jako stosunek dwu nieujemnych liczb, tylko warto±ci nieujemne<br />
a ksztaªt jej rozkªadu jest podobny do ksztaªtu rozkªadu χ 2 .<br />
Jako statystyke testowa F bierze sie iloraz estymatora S 2 (X) i estymatora S 2 (Y):<br />
F ≡ S2 (X)<br />
S 2 (Y )<br />
Šatwo pokaza¢, »e statystyka F ma rozkªad F(n x − 1, n y − 1):<br />
Wiemy z rozwa»a« dotyczacych porównania wariancji z liczba, »e zmienna Q 2 obliczona<br />
dla próby skªadajacej sie z n elementów ma rozkªad χ 2 . n−1<br />
Po podzieleniu jej przez<br />
liczbe stopni swobody (n − 1) otrzymujemy iloraz S2<br />
. Je»eli prawdziwa jest hipoteza zerowa<br />
gªoszaca, »e wariancje licznika i mianownika sa równe, 2 to stosunek statystyk S 2 (X)<br />
σ<br />
(licznika) i S 2 Q<br />
(Y ) (mianownika) jest równy stosunkowi<br />
2 (X)<br />
i Q2 (Y )<br />
n x−1 n y−1<br />
czyli równy jest<br />
zmiennej F (n x − 1, n y − 1).<br />
Jako hipoteze alternatywna kªadzie sie brak równo±ci obu wariancji lub to, »e wariancja<br />
licznika jest wieksza od wariancji mianownika:<br />
Hipoteza H 1<br />
σ 2 (X) ≠ σ 2 (Y )<br />
Obszar krytyczny<br />
F < F α<br />
2 (n x − 1, n y − 1) lub F > F 1−<br />
α<br />
2 (n x − 1, n y − 1)<br />
σ 2 (X) > σ 2 (Y ) F > F 1−α (n x − 1, n y − 1)<br />
Je»eli w tablicach podane sa tylko kwantyle rozkªadu F na du»ym poziomie lub tylko<br />
na maªym poziomie, to korzysta sie z oczywistej równo±ci:<br />
F α/2 (n 1 , n 2 ) = 1/F 1−α/2 (n 2 , n 1 )
SMOP-2 B.Kamys: 2007/08 79<br />
11.5 TEST NORMALNO‘CI ROZKŠADU<br />
Wiekszo±¢ metod statystyki jest dobrze opracowana matematycznie dla zmiennych o rozkªadzie<br />
normalnym natomiast nie jest oczywiste, »e dadza sie zastosowa¢ bez modykacji<br />
dla zmiennych o innych rozkªadach. Z tej przyczyny przed rozpoczeciem bardziej zaawansowanych<br />
rozwa»a« statystycznych nale»y sie upewni¢, »e badana zmienna podlega<br />
rozkªadowi normalnemu. Sprawdzana hipoteza zerowa polega na stwierdzeniu, »e rozkªad<br />
badanej zmiennej jest rozkªadem normalnym. W zale»no±ci od testu zakªada sie znajomo±¢<br />
parametrów rozkªadu jak np. w te±cie lambda Koªmogorowa lub te» nie jest to<br />
niezbedne jak np. w badaniu wykresu normalnego.<br />
11.5.1 TEST ZEROWANIA SI† WSPÓŠCZYNNIKA ASYMETRII I KUR-<br />
TOZY<br />
Test ten polega na sprawdzeniu, czy speªnione sa warunki konieczne do tego aby rozkªad<br />
badanej zmiennej mógª by¢ rozkªadem normalnym. Wiadomo, »e dla rozkªadu normalnego<br />
wspóªczynnik asymetrii i kurtoza (wspóªczynnik przewy»szenia) znikaja niezale»nie od<br />
tego jaka jest warto±¢ oczekiwana i wariancja rozkªadu. A wiec<br />
• Hipoteza zerowa, H 0 :<br />
(γ 1 = 0) ∧ (γ 2 = 0)<br />
• Statystyka testowa:<br />
Q 1 =<br />
Q 2 =<br />
√ n · g1<br />
√<br />
6<br />
√ n · g2<br />
√<br />
24<br />
gdzie g 1 i g 2 to estymatory wspóªczynnika asymetrii γ 1 i kurtozy γ 2 :<br />
γ 1 ≡ E ((x − E(x))3 )<br />
σ 3 (x)<br />
opisane poni»szymi wzorami:<br />
γ 2 ≡ E ((x − E(x))4 )<br />
σ 4 (x)<br />
− 3<br />
g 1 = M 3<br />
√<br />
M<br />
3<br />
2<br />
, g 2 = M 4<br />
M 2 2<br />
− 3
SMOP-2 B.Kamys: 2007/08 80<br />
UWAGA:<br />
Wielko±ci M 2 , M 3 i M 4 to nie sa momenty liczone wzgledem poczatku ukªadu<br />
lecz estymatory momentów centralnych odpowiednio drugiego, trzeciego i czwartego<br />
rzedu:<br />
M 2 ≡ 1 n<br />
M 3 ≡ 1 n<br />
M 4 ≡ 1 n<br />
n∑<br />
i=1<br />
n∑<br />
i=1<br />
n∑<br />
i=1<br />
(x i − ¯x) 2<br />
(x i − ¯x) 3<br />
(x i − ¯x) 4<br />
Je»eli hipoteza zerowa jest prawdziwa oraz próba jest bardzo du»a to statystyki<br />
g 1 i g 2 maja rozkªady normalne o warto±ciach oczekiwanych<br />
i odchyleniach standardowych:<br />
E(g 1 ) ≈ 0 E(g 2 ) ≈ 0<br />
σ(g 1 ) ≈<br />
√<br />
6<br />
n<br />
σ(g 2 ) ≈<br />
√<br />
24<br />
Wtedy estymatory Q 1 i Q 2 maja standardowe rozkªady normalne N(0,1).<br />
n<br />
• Hipoteza alternatywna to zaprzeczenie H 0 :<br />
prawdziwe warto±ci γ 1 lub γ 2 nie sa równe 0.<br />
• Obszar krytyczny dwustronny. Brzegi okre±lone przez kwantyl rozkªadu N(0,1):<br />
| Q 1 |> z 1−<br />
α<br />
2<br />
⋃<br />
| Q2 |> z 1−<br />
α<br />
2<br />
Je»eli rozmiary próby nie sa bardzo du»e to rozkªad statystyk Q 1 i Q 2 nie przyjmuje<br />
swej asymptotycznej postaci; N(0,1) ale warto±ci oczekiwane i wariancje tych zmiennych<br />
sa bliskie odpowiednio zeru i jedno±ci. Mo»na to wykorzysta¢ do stworzenia obszaru<br />
krytycznego w oparciu o nierówno±¢ Czebyszewa . Jako obszar krytyczny przyjmuje sie<br />
⋃<br />
warto±ci ( | Q 1 |> 3 | Q2 |> 3 ) tj. poziom istotno±ci równy α = 1/9.<br />
Nale»y zwróci¢ uwage na fakt, »e powy»szy test pozwala zwykle w uzasadniony sposób<br />
odrzuci¢ hipoteze zerowa (gdy Q 1 lub Q 2 traa do obszaru krytycznego) natomiast fakt,<br />
»e warto±ci tych statystyk nie sa sprzeczne z hipoteza zerowa nie wyklucza mo»liwo±ci, »e<br />
mamy do czynienia z rozkªadem ró»nym od normalnego.
SMOP-2 B.Kamys: 2007/08 81<br />
11.5.2 TEST ZGODNO‘CI λ - KOŠMOGOROWA<br />
Ten test stosowany jest do porównania rozkªadu prawdopodobie«stwa z próby ze znanym<br />
(teoretycznym) rozkªadem. Tu wykorzystujemy go do testowania normalno±ci rozkªadu<br />
ale mo»na go stosowa¢ do dowolnych teoretycznych rozkªadów ciagªej zmiennej<br />
losowej. Parametry rozkªadu powinny by¢ okre±lone w hipotezie zerowej.<br />
Pomiary z próby x 1 , x 2 , x 3 , ...x n porzadkujemy wg wzrastajacej warto±ci otrzymujac<br />
nastepujacy ciag:<br />
x ∗ 1 ≤ x∗ 2 ≤ x∗ 3 ≤ ... x∗ n<br />
Zmienna losowa X ∗ , taka, »e jej realizacja m x∗ m<br />
zajmuje w ciagu m − te miejsce nazywamy<br />
statystyka pozycyjna rzedu m w próbie n-elementowej.<br />
Tworzymy empiryczna dystrybuante F n (x) obserwowanej w próbie zmiennej losowej X:<br />
⎧<br />
⎪⎨<br />
F n (x) =<br />
⎪⎩<br />
0 gdy x ≤ x ∗ 1<br />
m<br />
n<br />
gdy x ∗ m < x ≤ x∗ m+1 , 1 ≤ m ≤ n − 1<br />
1 gdy x > x ∗ n<br />
Empiryczna dystrybuanta jest zwykªa funkcja argumentu x ale jest równocze±nie statystyka<br />
bo jest deniowana przez wszystkie wielko±ci x ∗ 1 , ..., x∗ n z próby.<br />
Mo»na pokaza¢, »e warto±¢ oczekiwana empirycznej dystrybuanty jest równa oszacowywanej<br />
wielko±ci teoretycznej dystrybuanty<br />
E(F n (x)) = F (x)<br />
a jej wariancja da»y do zera gdy rozmiary próby da»a do niesko«czono±ci<br />
σ 2 (F n (x)) = 1 n<br />
· F (x) · (1 − F (x)) → 0.<br />
Stad F n (x) jest nieobcia»onym i zgodnym estymatorem F(x).<br />
• Hipoteza zerowa<br />
Dystrybuanta obserwowanej zmiennej losowej jest dystrybuanta rozkªadu normal-
SMOP-2 B.Kamys: 2007/08 82<br />
nego o parametrach E(x) = x 0 , σ(x) = σ:<br />
E(F n(x)) =<br />
∫ x<br />
−∞<br />
dx ·<br />
1<br />
√<br />
2πσ · exp(− (x − x 0) 2<br />
2σ 2 )<br />
• Statystyka testowa:<br />
w oryginalnej wersji - zaproponowanej przez Koªmogorowa:<br />
D n = sup<br />
x<br />
| F n (x) − F (x) |<br />
Smirnow zaproponowaª dwie inne denicje statystyki testowej (stad czesto u»ywana<br />
nazwa test Koªmogorowa-Smirnowa ):<br />
D + n<br />
D − n<br />
= sup (F n (x) − F (x))<br />
x<br />
= − inf x (F n(x) − F (x))<br />
Dla praktycznych rachunków wykorzystuje sie nieco inne wzory, które wymagaja<br />
znajomo±ci teoretycznej dystrybuanty tylko dla zmierzonych warto±ci zmiennej<br />
X:<br />
D + n<br />
= max<br />
1≤m≤n ( m n − F (x∗ m ) )<br />
D − n<br />
= max 1≤m≤n (x∗ m ) − m − 1<br />
n<br />
D n = max( D + n , D− n )<br />
)<br />
a dystrybuante F (x ∗ m<br />
) zastepuje sie dystrybuanta G(z) stablicowanego standardowego<br />
rozkªadu normalnego N(0,1): F (x ∗ m )=G(z ≡ (x∗ m − E(x))/σ(x)).<br />
• Obszar krytyczny: prawostronny (du»e warto±ci D n , tzn. D n > D n (1 − α))<br />
Granice obszaru krytycznego, tj. kwantyl D n (1 − α) mo»na dla n ≥ 10 oraz<br />
dla poziomu istotno±ci α ≥ 0, 01 wyliczy¢ z przybli»onego wzoru (dokªadno±¢ nie<br />
gorsza ni» 3 cyfry znaczace)<br />
D n (1 − α) ≈<br />
√<br />
1<br />
2n · (y − 2y2 − 4y − 1<br />
) − 1<br />
18n 6n<br />
y ≡ − ln(0, 5 · α)
SMOP-2 B.Kamys: 2007/08 83<br />
Po wyliczeniu z próby warto±ci statystyki D n porównujemy ja z kwantylem D n (1 − α)<br />
znalezionym z tablic lub wyliczonym z podanego wzoru (W praktyce mo»emy wylicza¢ ten<br />
kwantyl wg wzoru poniewa» zarówno typowe poziomy istotno±ci α ≥ 0, 01 jak i liczebno±¢<br />
próby n ≥ 10 odpowiadaja warunkom stosowania tego wzoru.)<br />
Gdy D n > D n (1 − α) odrzucamy hipoteze zerowa, tzn. stwierdzamy, »e dane do±wiadczalne<br />
wykluczaja to aby rozkªad prawdopodobie«stwa populacji byª rozkªadem normalnym<br />
z parametrami E(x) = x 0 i σ(x) = σ, przy czym nasz wniosek mo»e by¢ bªedny<br />
z prawdopodobie«stwem α.<br />
UWAGA:<br />
1. Statystyka D n powinna by¢ liczona ze szczegóªowego szeregu statystycznego ( tj. z<br />
indywidualnych pomiarów ) a nie mo»e by¢ liczona z szeregu rozdzielczego (danych<br />
pogrupowanych)!!<br />
2. Statystyka λ ≡ √ n · D n testu Koªmogorowa - Smirnowa ma dla n da»acego do<br />
niesko«czono±ci dystrybuant¦ niezale»n¡ od postaci porównywanych rozkªadów:<br />
∞∑<br />
K(λ) = (−1) k exp[−2k 2 λ 2 ]<br />
k=−∞<br />
Stad mo»na znale¹¢ kwantyle tego rozkªadu. Przytoczymy tylko trzy najcze±ciej<br />
stosowane: λ 0,95 = 1, 36, λ 0,99 = 1, 63 i λ 0,999 = 1, 95. Dla n > 150 mo»na<br />
u»ywa¢ tych asymptotycznych kwantyli.<br />
To jest wielka zaleta testu ale jest równie» pewna sªabo±cia bo przez to jest stosunkowo<br />
maªo czuªy na posta¢ ogonów rozkªadu.<br />
3. Dla poprawnego stosowania testu Koªmogorowa - Smirnowa niezbedna jest znajomo±¢<br />
warto±ci parametrów teoretycznego rozkªadu. Je»eli nie znamy tych parametrów<br />
- musimy je wcze±niej oszacowa¢, np. przy pomocy metody najwiekszej<br />
wiarygodno±ci. Istnieja programy, które dokonuja automatycznie takiego oszacowania<br />
(np. w pakiecie STATISTICA ta wersja testu nazywa sie<br />
testem Koªmogorowa -Smirnowa z poprawka Lillieforsa .<br />
11.5.3 TEST ZGODNO‘CI χ 2 - PEARSONA<br />
Podobnie jak test λ Koªmogorowa tak i ten test stosowany jest do porównania rozkªadu<br />
prawdopodobie«stwa z próby ze znanym (teoretycznym) rozkªadem. Tu wykorzystujemy
SMOP-2 B.Kamys: 2007/08 84<br />
go do testowania normalno±ci rozkªadu ale mo»na go stosowa¢ do dowolnych teoretycznych<br />
rozkªadów ciagªej lub dyskretnej zmiennej losowej ale<br />
pomiary musza by¢ pogrupowane (szereg rozdzielczy) - wprost przeciwnie ni» w przypadku<br />
testu Koªmogorowa.<br />
• Hipoteza zerowa<br />
Dystrybuanta obserwowanej zmiennej losowej jest dystrybuanta rozkªadu normalnego:<br />
∫ x 1<br />
E(F n(x)) = dx · √ · exp(− (x − x 0) 2<br />
)<br />
−∞ 2πσ 2σ 2<br />
• Statystyka testowa:<br />
k∑ (n<br />
X 2 i − n · π i ) 2<br />
=<br />
nπ i<br />
i=1<br />
gdzie<br />
k to liczba przedziaªów w szeregu rozdzielczym (przynajmniej kilka),<br />
n i to liczebno±¢ i − tego przedziaªu (n i ≥ 5),<br />
π i to prawdopodobie«stwo zaobserwowania pomiarów w przedziale i − tym<br />
je»eli prawdziwa jest hipoteza zerowa,<br />
n to liczba wszystkich pomiarów.<br />
Dowodzi sie, »e asymptotycznie (tzn. dla n → ∞) statystyka X 2 ma rozkªad<br />
χ 2 k−r−1<br />
, gdzie r jest liczba nieznanych parametrów teoretycznego rozkªadu (dla<br />
rozkªadu normalnego r = 2) oszacowywanych wstepnie z próby metoda najwiekszej<br />
wiarygodno±ci.<br />
• Obszar krytyczny to du»e warto±ci X 2 (X 2 > χ 2 k−r−1<br />
(1 − α)), gdzie w naszym<br />
przypadku testowania normalno±ci rozkªadu χ 2 k−r−1<br />
(1 − α) jest kwantylem rzedu<br />
1 − α rozkªadu χ 2 k−1<br />
(gdy znamy E(x) i σ(x) rozkªadu normalnego) lub rozkªadu<br />
(gdy musimy oszacowa¢ przed testowaniem normalno±ci E(x) i σ(x) ).<br />
χ 2 k−3<br />
Test χ 2 równie» nie wymaga skomplikowanych oblicze« i dlatego mo»e by¢ przeprowadzony<br />
bez u»ycia komputera ale kwantyle tego rozkªadu nie dadza sie policzy¢ tak prosto<br />
jak dla testu Koªmogorowa. Musimy korzysta¢ z tablic statystycznych.
SMOP-2 B.Kamys: 2007/08 85<br />
11.5.4 WYKRES NORMALNY<br />
Wykres ten jest szczególnym przypadkiem wykresu kwantyl - kwantyl, na którym przedstawia<br />
sie estymatory kwantyli dla rozkªadu zmiennej z próby w funkcji kwantyli teoretycznego<br />
rozkªadu. Jako kwantyle teoretycznego rozkªadu bierze sie kwantyle standardowego<br />
rozkªadu normalnego. Jako kwantyle do±wiadczalne bierzemy kolejne warto±ci pozycyjnej<br />
statystyki z próby. Je»eli hipoteza zerowa (normalno±¢ rozkªadu mierzonej wielko±ci<br />
X) jest prawdziwa to tak otrzymany wykres powinien by¢ linia prosta. Odstepstwa od<br />
prostoliniowo±ci sa argumentem za odrzuceniem hipotezy zerowej.<br />
• Hipoteza zerowa<br />
Dystrybuanta obserwowanej zmiennej losowej jest dystrybuanta rozkªadu normalnego,<br />
przy czym dla tego testu nie jest wymagana znajomo±¢ parametrów rozkªadu.<br />
• Statystyka testowa<br />
Jako statystyke testowa mo»na wzia¢ estymator wspólczynnika korelacji r pomiedzy<br />
do±wiadczalnymi i teoretycznymi kwantylami.<br />
Postepujemy nastepujaco:<br />
1. Porzadkujemy pomiary {x k } tak aby utworzyªy ciag rosnacy {x ∗ k<br />
} czyli statystyke<br />
pozycyjna. Statystyke pozycyjna rzedu k z n - elementowej próby<br />
traktujemy jako estymator kwantyla na poziomie k/(n + 1).<br />
2. Szukamy z k , tj. teoretycznego kwantyla standardowego rozkªadu normalnego<br />
na poziomie k/(n + 1) wykorzystujac relacje:<br />
F (z k ) =<br />
k<br />
( ) k<br />
n + 1 ⇒ z k = F −1 n + 1<br />
gdzie przez F −1 (x) nale»y rozumie¢ funkcje odwrotna do dystrybuanty F (y).<br />
3. Rysujemy pary {z k , x ∗ k<br />
}. Gdy wykres wyra¹nie ró»ni sie od linii prostej to<br />
odrzucamy H 0 , w przeciwnym wypadku liczymy estymator wspóªczynnika korelacji<br />
r(z k , x ∗ k<br />
) i przeprowadzamy bardziej ilo±ciowe rozwa»ania.<br />
• Obszar krytyczny to maªe warto±ci estymatora r wspóªczynnika korelacji ϱ(z k , x ∗ k ),<br />
tj. mniejsze od odpowiednich warto±ci krytycznych r n (α) zale»nych od poziomu<br />
istotno±ci α (test lewostronny). Warto±ci te mo»na znale¹¢ w tablicach lub zastosowa¢<br />
przybli»one wzory podane poni»ej:<br />
r n (α = 0.01) ≈ 1 − 0.5669<br />
n , r n(α = 0.05) ≈ 1 − 0.3867<br />
2/3 n 2/3
SMOP-2 B.Kamys: 2007/08 86<br />
Wzory te daja krytyczne warto±ci wspóªczynnika korelacji r n (α) dla dwu<br />
poziomów istotno±ci α z dokªadno±cia nie gorsza ni» 1% je»eli rozmiar próby n le»y<br />
w przedziale 5 < n < 1000. (Tablice krytycznych warto±ci estymatora r mo»na<br />
znale¹¢ w bardzo bogatym i napisanym w przystepny sposób dla u»ytkowników<br />
stosujacych statystyke w praktyce poradniku statystycznym dostepnym w sieci<br />
internetowej pod adresem: http://www.itl.nist.gov/div898/handbook/ ).<br />
UWAGA:<br />
Je»eli linia prosta jest dobrym przybli»eniem, to wspóªczynnik kierunkowy prostej<br />
{z k , x ∗ k<br />
} równy jest parametrowi skali (tj. odchyleniu standardowemu) a wspóªrzedna<br />
przeciecia prostej z osia x ∗ k<br />
równa jest wspóªczynnikowi tendencji centralnej (warto±ci<br />
oczekiwanej X). W ten sposób mo»na oszacowa¢ parametry rozkªadu normalnego, rzadzacego<br />
warto±ciami zmiennej z próby.
SMOP-2 B.Kamys: 2007/08 87<br />
11.6 TESTY NIEPARAMETRYCZNE<br />
HIPOTEZ PORÓWNUJA CYCH POPULACJE<br />
Do tej pory rozwa»ali±my testy sprawdzajace hipotezy gªoszace równo±¢ warto±ci oczekiwanych<br />
dwu zmiennych a tak»e równo±¢ wariancji dwu zmiennych. Testy te dotyczyªy<br />
jedynie zmiennych o rozkªadach normalnych. Teraz omówimy testy odnoszace sie do hipotez<br />
gªoszacych identyczno±¢ dystrybuant dwu populacji; H 0 : F (X) = G(X)<br />
niezale»nie od postaci rozkªadu . Dystrybuanty oznaczono ró»nymi literami aby podkre±li¢,<br />
»e odnosza sie do dwu ró»nych populacji ale badamy te sama zmienna losowa<br />
X dla obu populacji biorac próbe liczebno±ci n 1 z pierwszej populacji i liczebno±ci n 2 z<br />
drugiej populacji.<br />
11.6.1 TEST SMIRNOWA<br />
• Hipoteza zerowa H 0 : F (X) ≡ G(X) gdzie zmienna X jest zmienna ciagªa.<br />
F (X) i G(X) sa odpowiednio dystrybuantami zmiennej X dla pierwszej i drugiej<br />
populacji.<br />
Inne sformuªowanie to H 0 : E(F n1 (X)) = E(G n2 (X)), gdzie F n1 (X) i G n2 (X)<br />
to empiryczne dystrybuanty otrzymane na podstawie dwu prób o liczebno±ci n 1<br />
i n 2 wzietych odpowiednio z pierwszej i drugiej populacji (zdeniowane tak jak dla<br />
rozkªadu Koªmogorowa).<br />
• Hipoteza alternatywna H 1 : zaprzeczenie H 0<br />
• Statystyka testowa D n1 ,n 2<br />
:<br />
D n1 ,n 2<br />
= sup<br />
x<br />
| F n1 (x) − G n2 (x) |<br />
Nale»y zauwa»y¢, »e obie dystrybuanty sa od tej samej warto±ci argumentu.<br />
Poniewa» speªniona jest relacja:<br />
D n1 ,n 2<br />
= D n2 ,n 1<br />
wiec bez ograniczenia ogólno±ci wniosków mo»na rozwa»a¢ tylko<br />
D n1 ,n 2
SMOP-2 B.Kamys: 2007/08 88<br />
zakªadajac, »e<br />
n 1 ≤ n 2 .<br />
W praktycznych rachunkach u»ywa sie nastepujacych wzorów na D n1 ,n 2<br />
, gdzie<br />
obliczenia wykonuje sie tylko dla warto±ci argumentów zaobserwowanych w obu<br />
próbach i dla rozró»nienia prób stosuje sie symbole x ∗ 1 ...x∗ n 1<br />
i y ∗ 1 ....y∗ n 2<br />
na statystyki<br />
pozycyjne odpowiednio z pierwszej i drugiej próby:<br />
D + n 1 ,n 2<br />
D − n 1 ,n 2<br />
(<br />
= max i<br />
1≤i≤n n 1<br />
− G n2 (x ∗ i ))<br />
1<br />
(<br />
= max Gn2 (x ∗<br />
1≤i≤n<br />
i ) − )<br />
i−1<br />
n 1 1<br />
D n1 ,n 2<br />
= max ( D + n 1 ,n 2<br />
, D − n 1 ,n 2<br />
)<br />
lub te»<br />
(<br />
D + n 1 ,n 2<br />
= max Fn1 (y ∗<br />
1≤j≤n<br />
j ) − )<br />
j−1<br />
n 2 2<br />
(<br />
D − n 1 ,n 2<br />
= max j<br />
1≤j≤n n 2<br />
− F n1 (y ∗ j ))<br />
2<br />
D n1 ,n 2<br />
= max ( D + n 1 ,n 2<br />
, D − n 1 ,n 2<br />
)<br />
TWIERDZENIE (Smirnow):<br />
Gdy H 0 jest prawdziwa oraz liczby pomiarów n 1 i n 2 da»a do niesko«czono±ci to<br />
rozkªad zmiennej<br />
√<br />
n1 · n 2<br />
D n1 ,n 2<br />
·<br />
n 1 + n 2<br />
d¡»y do rozkªadu λ (Koªmogorowa).<br />
♦<br />
Je»eli obie próby sa odpowiednio du»e (n i > 150) to mo»na ju» z rozsadnym<br />
przybli»eniem stosowa¢ asymptotyczne wzory, tj.<br />
√<br />
n1 + n 2<br />
D n1 ,n 2<br />
(1 − α) ≈<br />
· y 1−α<br />
n 1 · n 2
SMOP-2 B.Kamys: 2007/08 89<br />
gdzie y 1−α jest kwantylem rozkªadu lambda Koªmogorowa, którego dystrybuanta<br />
i kwantyle na poziomie 0.95, 0.99 i 0.999 przytoczone s¡ w uwagach ko«cz¡cych<br />
rozdziaª dotycz¡cy testowania normalno±ci rozkªadu testem Koªmogorowa.<br />
Gdy n 1 i n 2 sa maªe, trzeba stosowa¢ dokªadny rozkªad statystyki D n1 ,n 2<br />
znaleziony<br />
przez Masseya (F.J.Massey, AMS 23 (1952) 435-441).<br />
• Obszar krytyczny: prawostronny (du»e warto±ci statystyki testowej)
SMOP-2 B.Kamys: 2007/08 90<br />
11.6.2 TEST ZNAKÓW<br />
Test znaków sªu»y do sprawdzenia hipotezy zerowej gªoszacej, »e dystrybuanty dwu<br />
ciagªych zmiennych losowych X i Y sa identyczne:<br />
• Hipoteza zerowa H 0 : G(X) = F (Y ).<br />
Przy prawdziwo±ci H 0 prawdopodobie«stwo P (X > Y ) tego, »e zajdzie zdarzenie<br />
losowe X > Y , jest równe prawdopodobie«stwu P (X < Y ) tego, »e X < Y .<br />
Ze wzgledu na zaªo»enie ciagªo±ci zmiennych prawdopodobie«stwo równo±ci X i Y<br />
jest równe zero; P (X = Y ) = 0 a poniewa» te trzy zdarzenia sa rozªaczne i<br />
wyczerpuja wszystkie mo»liwo±ci wiec ostatecznie:<br />
P (X < Y ) = P (X > Y ) = 1/2<br />
• Hipoteza alternatywna H 1 : G(X) ≠ F (Y ).<br />
• Statystyka testowa to liczba k takich par, »e x i > y i w±ród n niezale»nych par<br />
(x i , y i ). Rozkªad prawdopodobie«stwa tej statystyki przy prawdziwo±ci H 0 to rozkªad<br />
Bernoulliego z parametrem p = 1/2 :<br />
P (k) = ( n k ) · 1<br />
2 k ·<br />
1<br />
2 = (n−k) (n k ) · 1<br />
2 n<br />
• Obszar krytyczny to bardzo maªa (k ≈ 0) i bardzo du»a (k ≈ n) liczba par (x i , y i ),<br />
takich »e x i > y i (obszar dwustronny). Je»eli mamy wskazówki, »e prawdopodobie«stwo<br />
pojawienia sie warto±ci X wiekszych od Y jest wieksze ni» 1/2 to nale»y<br />
przyja¢ prawostronny obszar krytyczny (k > k p ) a gdy prawdopodobie«stwo X<br />
wiekszych od Y jest mniejsze od 1/2 to lewostronny obszar krytyczny (k < k l ).<br />
Brzeg prawostronnego obszaru krytycznego k p szukamy z warunku:<br />
n∑<br />
P (k ≥ k p ) = 2 −n · ( n i ) = α<br />
i=k p
SMOP-2 B.Kamys: 2007/08 91<br />
Brzeg lewostronnego obszaru krytycznego k l szukamy z warunku:<br />
P (k ≤ k l ) = 2 −n ∑<br />
· ( n i ) = α<br />
k l<br />
i=0<br />
a brzegi dwustronnego obszaru krytycznego z obu powy»szych wzorów, w których<br />
zastapi sie α przez α/2.<br />
UWAGA:<br />
1. Tu zakªadali±my milczaco, »e nie beda sie pojawiaªy pary (x i = y i ) poniewa»<br />
obie zmienne sa ciagªe a wiec prawdopodobie«stwo takich par wynosi zero. W<br />
praktyce obliczenia wykonywane sa zawsze ze sko«czona dokªadno±cia a to powoduje<br />
pojawianie sie powy»szych par. Je»eli ich liczba jest niewielka w porównaniu do<br />
liczby wszystkich par to mo»na je po prostu pomina¢. W przeciwnym wypadku<br />
stosuje sie losowanie , które (z prawdopodobie«stwem 0,5 ) okre±la czy dana pare<br />
zaliczy¢ do par, w których x i > y i czy odwrotnie.<br />
2. Cz¦sto wygodnie jest obliczy¢ sum¦ prawdopodobie«stw poczynaj¡c od 0 (lub od<br />
n, t.j. caªkowitej liczby par - zale»nie od tego czy k jest mniejsze czy wi¦ksze od<br />
n/2) do obserwowanej warto±ci liczby par k. Tak¡ sum¦ nazywa si¦ granicznym<br />
poziomem istotno±ci (w j¦zyku angielskim p-value) dla testu jednostronnego.<br />
W przypadku testu dwustronnego liczy si¦ obie sumy i graniczny poziom istotno±ci<br />
to podwojona warto±¢ mniejszej sumy. Je»eli p-value jest mniejsze od poziomu<br />
istotno±ci α to statystyka testowa traa do obszaru krytycznego.<br />
11.6.3 TEST SERII WALDA - WOLFOWITZA<br />
Seria nazywamy ka»dy podciag ciagu zªo»onego z elementów A i B majacy te wªasno±¢,<br />
»e nale»a do niego elementy tego samego typu (A lub B).<br />
Liczba serii n s speªnia warunek:<br />
2 ≤ n s ≤ 2 · min(n A , n B ) + 1 − δ nA ,n B
SMOP-2 B.Kamys: 2007/08 92<br />
gdzie n A i n B to odpowiednio liczby elementów typu A i typu B w caªym ciagu.<br />
Test serii Walda-Wolfowitza sªu»y do sprawdzania hipotezy gªoszacej, »e dystrybuanty<br />
dwu zmiennych ciagªych X i Y sa identyczne:<br />
• Hipoteza zerowa H 0 : F 1 (X) = F 2 (Y )<br />
• Hipoteza alternatywna H 1 : F 1 (X) ≠ F 2 (Y )<br />
(dla x=y)<br />
• Statystyka testowa n s (liczba serii).<br />
Mamy próbe skªadajaca sie z n A warto±ci zmiennej X oraz z n B warto±ci zmiennej<br />
Y . Zapisujemy te n A + n B warto±ci w jeden niemalejacy ciag i sprawdzamy ile<br />
jest serii typu A (tzn. skªadajacych sie z elementów X) i ile jest serii typu B (tzn.<br />
skªadajacych sie z elementów Y ). Je»eli zdarzy sie, »e dwie warto±ci sa identyczne<br />
to musimy losowa¢ (z prawdopodobie«stwem 0,5), która z nich ma by¢ pierwsza w<br />
ciagu.<br />
• Obszar krytyczny - lewostronny: n s ≤ n s (α)<br />
Gdy hipoteza zerowa jest sªuszna to mo»emy sie spodziewa¢, »e warto±ci X sa<br />
przemieszane z warto±ciami Y a wiec liczba serii bedzie du»a. Je»eli dystrybuanty<br />
zmiennych X i Y sa ró»ne to spodziewamy sie, »e systematycznie jedna z tych<br />
zmiennych bedzie wieksza od drugiej (przynajmniej na pewnym odcinku warto±ci)<br />
a wiec liczba serii bedzie maªa. Stad maªa liczba serii w próbie bedzie ±wiadczy¢<br />
przeciw hipotezie zerowej.<br />
Rozkªad liczby serii n s jest znany przy prawdziwo±ci H 0 i wyra»a sie analitycznym<br />
wzorem:<br />
⎧<br />
⎪⎩<br />
⎛<br />
2⎜<br />
⎝<br />
⎞⎛<br />
⎞<br />
n A − 1<br />
n B − 1<br />
⎟⎜<br />
⎟<br />
⎠⎝<br />
⎠<br />
n s<br />
n<br />
2<br />
− 1<br />
s<br />
2<br />
− 1<br />
⎛<br />
⎞<br />
n A + n B<br />
⎜<br />
⎟<br />
⎝<br />
⎠<br />
⎪⎨<br />
n A<br />
p(n s ) = ⎛ ⎞⎛<br />
⎞ ⎛ ⎞⎛<br />
⎞<br />
n A − 1<br />
n B − 1<br />
n ⎜ ⎟⎜<br />
⎟<br />
⎝<br />
n s<br />
2<br />
− 1 ⎠⎝<br />
n s<br />
2 2<br />
− 3 ⎠ + A − 1<br />
n B − 1<br />
⎜ ⎟⎜<br />
⎟<br />
⎝<br />
n s<br />
2<br />
2<br />
− 3 ⎠⎝<br />
n s<br />
2 2<br />
− 1 ⎠<br />
2<br />
⎛<br />
⎞<br />
n A + n B<br />
⎜<br />
⎟<br />
⎝<br />
⎠<br />
n A<br />
dla n s parzystego<br />
a wiec mo»na znale¹¢ (numerycznie) warto±ci krytyczne statystyki testowej.<br />
dla n s nieparzystego
SMOP-2 B.Kamys: 2007/08 93<br />
UWAGA:<br />
Warto zauwa»y¢, »e w przypadku odrzucenia hipotezy zerowej, tj. zaobserwowania maªej<br />
liczby serii, mo»na próbowa¢ uzyska¢ informacje o relacji pomiedzy warto±ciami oczekiwanymi<br />
E(X) i E(Y ) sprawdzajac czy na poczatku caªego ciagu przewa»aja warto±ci<br />
typu A (tj. warto±ci zmiennej X) czy typu B(warto±ci zmiennej Y ).<br />
Je»eli na poczatku mamy przewage warto±ci typu A a potem typu B to mo»emy uwa»a¢,<br />
»e E(X) < E(Y ). W przypadku odwrotnym spodziewamy sie, »e E(X) > E(Y ).
SMOP-2 B.Kamys: 2007/08 94<br />
11.6.4 TEST SUMY RANG WILCOXONA - MANNA - WHITNEYA<br />
Test ten zostaª opracowany przez F. Wilcoxona dla dwu równie licznych prób a pó¹niej<br />
uogólniony przez H.B. Manna i D.R. Whitneya na dwie próby o dowolnej liczebno±ci.<br />
Mo»na wiec spotka¢ sie z nazwa test Wilcoxona lub test Wilcoxona-Manna-Whitneya.<br />
Przez range obserwacji rozumie sie liczbe naturalna równa numerowi miejsca, który ta<br />
obserwacja zajmuje w uporzadkowanym ciagu niemalejacym obserwacji w próbie (numer<br />
danej statystyki pozycyjnej). Je»eli dwie lub wiecej obserwacji ma te sama warto±¢ to<br />
ich rangi sa równe ±redniej arytmetycznej rang, które posiadaªyby gdyby sie minimalnie<br />
ró»niªy (tzn. ró»niªyby sie tak maªo, »e nie zmieniªyby poªo»enia w ciagu w stosunku do<br />
innych obserwacji).<br />
• Hipoteza zerowa H 0 : F 1 (X) = F 2 (Y )<br />
• Hipoteza alternatywna H 1 : F 1 (X) ≠ F 2 (Y )<br />
Mo»na jednak postawi¢ inne hipotezy alternatywne:<br />
H 1 : P (X > Y ) > 0, 5 lub<br />
H 1 : P (X > Y ) < 0, 5<br />
• Statystyka testowa:<br />
w =<br />
n∑<br />
min<br />
i=1<br />
ranga(i)<br />
n min oznacza liczebno±¢ mniejszej próby a ranga(i) to ranga kolejnej obserwacji<br />
z mniej licznej próby ale w ciagu utworzonym z obserwacji obu prób.<br />
• Obszar krytyczny: Dla prostego zaprzeczenia - obustronny, a dla dwu pozostaªych<br />
hipotez alternatywnych jest odpowiednio prawo- i lewostronny (przy zaªo»eniu, »e<br />
próba mniej liczna jest próba 'X'). Warto±ci krytyczne trzeba bra¢ z odpowiednich<br />
tablic.
SMOP-2 B.Kamys: 2007/08 95<br />
11.6.5 WYKRES KWANTYL-KWANTYL<br />
Kwantylem na poziomie q nazywamy tak¡ warto±¢ x q zmiennej losowej x, »e prawdopodobie«stwo<br />
znalezienie mniejszych warto±ci x od x q wynosi q. Dla zmiennej ci¡gªej<br />
poziom kwantyla q mo»e przybiera¢ wszystkie warto±ci z przedziaªu [0, 1] a dla zmiennej<br />
dyskretnej tylko dyskretne warto±ci. Dotyczy to równie» warto±ci kwantyla, który dla<br />
zmiennej ci¡gªej mo»e przyjmowa¢ dowolne rzeczywiste warto±ci x q z przedziaªu, gdzie<br />
zmienna jest okre±lona a dla zmiennej dyskretnej tylko dyskretne warto±ci x j :<br />
q = xq ∫<br />
q j =<br />
−∞<br />
j ∑<br />
i=1<br />
f(x) dx<br />
p(x i )<br />
Mo»na pokaza¢, rozwa»aj¡c zamian¦ zmiennych w powy»szej caªce deniuj¡cej kwantyl,<br />
»e zamiana zmiennej losowej na inn¡ poprzez monotoniczn¡ tranformacj¦ prowadzi<br />
do identycznej transformacji kwantyla. W zwi¡zku z tym, je»eli zmienna y jest liniow¡<br />
funkcj¡ zmiennej x to kwantyl y q jest tak¡ sam¡ liniow¡ funkcj¡ kwantyla x q . W szczególno±ci<br />
gdy zwi¡zek pomi¦dzy y i x jest to»samo±ci¡ y(x) = x to y q = x q dla ka»dego<br />
poziomu kwantyla. A wi¦c linia, która b¦dzie utworzona przez punkty o wspóªrz¦dnych<br />
(x q , y q ) - dla ró»nych warto±ci q) - powinna by¢ lini¡ prost¡ nachylon¡ pod k¡tem 45 ◦<br />
do osi odci¦tych, przechodz¡c¡ przez pocz¡tek ukªadu wspóªrz¦dnych.<br />
Dla zbadania hipotezy czy dwie zmienne X i Y , reprezentowane przez dwie próby<br />
statystyczne x 1 , x 2 , ...x nx i y 1 , y 2 , ...y ny maj¡ identyczny rozkªad prawdopodobie«stwa<br />
post¦pujemy nast¦puj¡co:<br />
1. Porz¡dkujemy zmierzone warto±ci w ci¡gi niemalej¡ce: x ∗ 1 ≤ x∗ 2 ≤ ... ≤ x∗ n x<br />
oraz<br />
y ∗ 1 ≤ y∗ 2 ≤ ... ≤ y∗ n y<br />
2. Traktujemy statystyk¦ pozycyjn¡ x ∗ i jako estymator kwantyla x q na poziomie<br />
q = i/(n x + 1) a statystyk¦ pozycyjn¡ y ∗ j jako estymator kwantyla y p na poziomie<br />
p = j/(n y + 1).<br />
3. Gdy n x = n y to statystyki pozycyjne x ∗ i k y∗ k<br />
reprezentuj¡ estymatory kwantyli obu<br />
zmiennych na tym samym poziomie a wi¦c wykres kwantyl-kwantyl b¦dzie wykresem<br />
statystyki pozycyjnej y ∗ w funkcji statystyki pozycyjnej k x∗ k<br />
. Gdy jedna z prób jest<br />
mniej liczna, np. n x < n y to interpolujemy warto±ci estymatorów kwantyli z<br />
bardziej licznej próby (tu y ∗ k<br />
) tak aby uzyska¢ identyczne poziomy kwantyli jak dla<br />
mniej licznej próby i rysujemy wykres tylu punktów ile wynosi liczebno±¢ mniejszej<br />
próby.<br />
Interpretacja mo»liwych wyników:<br />
• Je»eli punkty ukªadaj¡ si¦ na linii prostej nachylonej pod k¡tem 45 ◦ do osi odci¦tych<br />
oraz przechodz¡cej przez pocz¡tek ukªadu odniesienia to akceptujemy hipotez¦ zerow¡<br />
gªosz¡c¡, »e oba rozkªady s¡ identyczne.
SMOP-2 B.Kamys: 2007/08 96<br />
• Je»eli punkty ukªadaj¡ si¦ na linii prostej przechodz¡cej przez pocz¡tek ukªadu<br />
wspóªrz¦dnych ale nachylonej pod innym k¡tem ni» 45 ◦ to oznacza, »e zmienna y<br />
ma rozkªad o takim samym ksztaªcie jak zmienna x ale wyra»ony w innych jednostkach<br />
(odchylenie standardowe jednej zmiennej jest inne ni» drugiej oraz warto±¢<br />
oczekiwana te» zwykle jest inna).<br />
• Je»eli wykres kwantyl-kwantyl jest lini¡ prost¡ nachylon¡ pod k¡tem 45 ◦ ale nie<br />
przechodz¡c¡ przez pocz¡tek ukªadu wspóªrz¦dnych to rozkªady prawopodobie«-<br />
stwa maj¡ taki sam ksztaªt i identyczne wariancje ale jedna zmienna ma warto±ci<br />
przesuni¦te wzgl¦dem drugiej zmiennej o staª¡ liczb¦ (warto±ci oczekiwane ró»ni¡<br />
si¦ o t¦ liczb¦).<br />
• Je»eli wykres kwantyl-kwantyl jest lini¡ prost¡ ale nie jest ona nachylona pod k¡tem<br />
45 ◦ oraz nie przechodzi przez pocz¡tek ukªadu wspóªrz¦dnych to rozkªady maj¡ taki<br />
sam ksztaªt ale ró»ne warto±ci oczekiwane i ró»ne wariancje.<br />
• Je»eli wykres nie jest lini¡ prost¡ to zmienne maj¡ rozkªady ró»ni¡ce si¦ ksztaªtem.<br />
Ilo±ciowo mo»emy zdecydowa¢ o tym czy akceptujemy ukªadanie si¦ punktów na linii<br />
prostej badaj¡c warto±¢ wspóªczynnika korelacji tak jak przy wykresie normalnym<br />
(rozdziaª (11.5.4)).
SMOP-2 B.Kamys: 2007/08 97<br />
11.7 HIPOTEZA JEDNORODNO‘CI WARIANCJI<br />
Zajmujemy sie zmiennymi o rozkªadzie normalnym. Sprawdzamy czy wariancje kilku<br />
populacji sa takie same (np. czy dokªadno±¢ kilku ró»nych serii pomiarów jest taka<br />
sama). Ta wªasno±¢ - zwana jednorodno±cia wariancji - mo»e by¢ interesujaca sama<br />
w sobie a dodatkowo jest niezbedna je»eli chcemy bada¢ równo±¢ warto±ci oczekiwanych<br />
kilku populacji przez zastosowanie tzw. analizy wariancji (ANOVA).<br />
11.7.1 TEST BARTLETTA<br />
Badamy k populacji normalnych. Z ka»dej populacji i = 1, .., k bierzemy n i obserwacji<br />
(w sumie n = ∑ n<br />
i=1 n i wyników).<br />
• Hipoteza zerowa H 0 : Wszystkie wariancje sa sobie równe:<br />
σ 2 1 = σ2 2 = ·· = σ2 k<br />
• Hipoteza alternatywna H 1 : Przynajmniej jedna wariancja jest wieksza od pozosta-<br />
ªych:<br />
• Statystyka testowa:<br />
σ 2 j > σ2 1 = · · σ2 j−1 = σ2 j+1 = ·· = σ2 k<br />
⎧<br />
⎪⎨<br />
M =<br />
⎪⎩<br />
− k ∑<br />
i=1<br />
1 + 1<br />
3(k−1)<br />
(<br />
Si<br />
(n i − 1) · ln<br />
2<br />
[ k∑<br />
i=1<br />
S 2 )<br />
1<br />
n i −1 − 1<br />
n−k<br />
⎫<br />
⎪⎬<br />
]<br />
⎪⎭<br />
gdzie S 2 i<br />
jest estymatorem wariancji dla i-tej próby:<br />
S 2 i = 1<br />
n i −1<br />
n i ∑<br />
j=1<br />
(x ji − ¯x i ) 2 oraz S 2 = 1<br />
n−k<br />
k∑<br />
i=1<br />
(n i − 1) · S 2 i .<br />
Bartlett pokazaª, »e zmienna M zdeniowana powy»ej ma rozkªad, który bardzo<br />
szybko da»y do rozkªadu chi-kwadrat o k-1 stopniach swobody. Wystarcza ju»<br />
warunek n i > 3 dla wszystkich prób i.<br />
• Obszar krytyczny: prawostronny.
SMOP-2 B.Kamys: 2007/08 98<br />
11.7.2 TEST COCHRANA<br />
Mo»na go stosowa¢ dla k populacji normalnych je»eli liczebno±¢ wszystkich prób n i ,<br />
i=1,..,k jest identyczna.<br />
• Hipoteza zerowa H 0 : Wszystkie wariancje sa sobie równe:<br />
σ 2 1 = σ2 2 = ·· = σ2 k<br />
• Hipoteza alternatywna H 1 : Przynajmniej jedna wariancja jest wieksza od pozosta-<br />
ªych:<br />
σ 2 j > σ2 2 = · · σ2 j−1 = σ2 j+1 = ·· = σ2 k<br />
• Statystyka testowa:<br />
gdzie S 2 i<br />
G =<br />
max<br />
S 2<br />
i<br />
i<br />
k∑<br />
Si<br />
2 i=1<br />
jest estymatorem wariancji dla i-tej próby.<br />
• Obszar krytyczny: prawostronny. Nale»y korzysta¢ ze specjalnych tablic testu Cochrana.<br />
11.7.3 TEST F max HARTLEYA<br />
Podobnie jak test Cochrana mo»na go stosowa¢ dla k populacji normalnych je»eli liczebno±¢<br />
wszystkich prób n i , i=1,..,k jest identyczna.<br />
• Hipoteza zerowa H 0 : Wszystkie wariancje sa sobie równe:<br />
σ 2 1 = σ2 2 = ·· = σ2 k<br />
• Hipoteza alternatywna H 1 : Przynajmniej jedna wariancja jest wieksza od pozosta-<br />
ªych:<br />
σ 2 j > σ2 2 = · · σ2 j−1 = σ2 j+1 = ·· = σ2 k<br />
• Statystyka testowa:<br />
gdzie S 2 i<br />
F max =<br />
max S 2<br />
i<br />
i<br />
min S 2<br />
i<br />
i<br />
jest estymatorem wariancji dla i-tej próby.<br />
• Obszar krytyczny: prawostronny. Nale»y korzysta¢ ze specjalnych tablic testu Hartleya.
SMOP-2 B.Kamys: 2007/08 99<br />
11.8 ANALIZA WARIANCJI - klasykacja jednoczynnikowa<br />
Analiza wariancji - zaproponowana przez R. A. Fishera - to metoda sªu»aca w swojej<br />
najprostszej wersji do porównania warto±ci oczekiwanych kilku populacji normalnych.<br />
Jednoczynnikowa analiza wariancji bierze swa nazwe z faktu podziaªu caªej populacji<br />
warto±ci ilo±ciowej zmiennej x na k populacji ró»niacych sie warto±cia lub poziomem<br />
jednego klasykujacego czynnika . Tym czynnikiem nie jest warto±¢ zmiennej<br />
x lecz jaka± inna wielko±¢, która w szczególno±ci mo»e by¢ zmienna jako±ciowa. Przy<br />
pomocy analizy wariancji sprawdzamy czy warto±ci oczekiwane zmiennej x dla populacji<br />
ró»niacych sie warto±cia (poziomem) czynnika klasykujacego sa identyczne. Na przykªad,<br />
zmienna x mo»e by¢ temperatura pacjentów a czynnikiem klasykujacym - rodzaj<br />
choroby (nominalna zmienna jako±ciowa). Wtedy stwierdzenie, »e dla ró»nych poziomów<br />
czynnika klasykujacego (ró»nych chorób) ±rednia temperatura ciaªa jest ró»na mo»e pozwoli¢<br />
na uªatwienie rozpoznania rodzaju choroby.<br />
Analiza wariancji zwana popularnie ANOVA (ANalysis Of VAriance) pozwala, w<br />
przypadku odrzucenia hipotezy zerowej, stwierdzi¢ wpªyw poziomu pewnego jako±ciowego<br />
czynnika na mierzalna charakterystyke badanego obiektu. Dzieki temu ANOVA ma bardzo<br />
szerokie zastosowanie w naukach biologicznych i medycznych gdzie czesto mamy do<br />
czynienia ze zmiennymi jako±ciowymi.<br />
ZAŠO›ENIA:<br />
1. Badamy k populacji charakteryzowanych przez zmienna X. Zakªadamy, »e zmienne<br />
X 1 , ..., X k przypisane populacjom 1, ..., k sa niezale»ne i maja rozkªady normalne.<br />
2. Wszystkie populacje maja równe wariancje,<br />
Je»eli nie mamy z góry zagwarantowanego speªnienia tych zaªo»e« to musimy przeprowadzi¢<br />
odpowiednie testy statystyczne (np. Test λ-Koªmogorowa, test χ 2 Pearsona<br />
lub inne dla sprawdzenia normalno±ci populacji oraz test Bartletta lub Cochrana dla<br />
sprawdzenia identyczno±ci wariancji - nazywanej jednorodno±cia wariancji - dla ró»nych<br />
populacji).<br />
• Hipoteza zerowa: H 0 : E(X 1 ) = E(X 2 ) = ... = E(X k )<br />
• Hipoteza alternatywna: H 1 :<br />
• Statystyka testowa:<br />
Niektóre E(X i ) sa ró»ne.<br />
Wprowadzamy nastepujace oznaczenia:<br />
x ij to j-ty pomiar z i-tej próby (i-tej populacji)
SMOP-2 B.Kamys: 2007/08 100<br />
n i to liczebno±¢ i-tej próby, przy czym k ∑<br />
i=1<br />
¯x i· to ±rednia arytmetyczna dla i-tej próby:<br />
¯x i· = 1 n i<br />
∑n i<br />
x ij<br />
j=1<br />
czyli<br />
n i ∑<br />
j=1<br />
n i = N<br />
x ij = n i · ¯x i·<br />
¯x·· to ±rednia arytmetyczna wszystkich pomiarów:<br />
k∑<br />
¯x·· = 1 N<br />
i=1<br />
s 2 b ≡ 1<br />
(k−1)<br />
n i ∑<br />
j=1<br />
x ij = 1 N<br />
k∑<br />
n i ∑<br />
i=1 j=1<br />
k∑<br />
i=1<br />
n i · ¯x i·<br />
(¯x i· − ¯x··) 2 = 1<br />
(k−1)<br />
k∑<br />
i=1<br />
n i · (¯x i· − ¯x··) 2<br />
to estymator wariancji caªkowitego zbioru danych liczony z rozrzutu ±rednich<br />
arytmetycznych poszczególnych prób i = 1, .., k. Kwadrat odchylenia i-tej<br />
±redniej ¯x i· od ogólnej ±redniej wchodzi do wzoru z waga równa liczebno±ci<br />
i-tej próby. Poniewa» ogólna ±rednia narzuca jeden warunek na zespóª k ±rednich<br />
grupowych to suma s 2 b<br />
ma (k − 1) stopni swobody.<br />
Wska¹nik "b"pochodzi od angielskiego sªowa "between"(pomiedzy) i s 2 nazywany<br />
jest estymatorem "wariancji miedzygrupowej". U»ywa sie równie»<br />
b<br />
okre±lenia wariancja wedªug badanego czynnika".<br />
s 2 w ≡ 1<br />
(N−k)<br />
k∑<br />
n i ∑<br />
i=1 j=1<br />
(x ij − ¯x i·) 2<br />
to estymator wariancji caªkowitego zbioru danych liczony z rozrzutu pomiarów<br />
wewnatrz ka»dej próby i = 1, .., k. Liczba stopni swobody dla sumy kwadratów<br />
wewnatrz j-tej grupy to (n i − 1). Liczba stopni swobody dla sumy<br />
kwadratów po wszystkich k grupach to:<br />
∑<br />
(n 1 − 1) + (n 2 − 1) + .. + (n k − 1) = k n i − k = N − k.<br />
Stad liczba stopni swobody tej sumy wynosi (N − k).<br />
Wska¹nik "w" pochodzi od angielskiego sªowa "within" (wewnatrz) i dlatego<br />
estymator s 2 w<br />
nazywany jest estymatorem wariancji wewnatrzgrupowej".<br />
U»ywa sie tak»e okre±lenia resztowa wariancja".<br />
i=1<br />
TWIERDZENIE:<br />
Mo»na pokaza¢, »e przy równo±ci wariancji wszystkich populacji<br />
σ 2 1 = σ2 2 = . . . = σ2 k ≡ σ2 zachodza nastepujace relacje:<br />
E{s 2 w } = σ2<br />
E{s 2 b } = σ2 +<br />
(<br />
∑ k<br />
)<br />
(E{x i }−E{x}) 2<br />
i=1<br />
·<br />
k−1<br />
(<br />
k∑<br />
N−<br />
i=1<br />
k−1<br />
)<br />
n 2 i<br />
N
SMOP-2 B.Kamys: 2007/08 101<br />
gdzie E{x i } i E{x} to warto±¢ oczekiwana dla i-tej populacji i postulowana przez<br />
hipoteze zerowa wspólna warto±¢ oczekiwana wszystkich populacji.<br />
Jak wida¢, estymator s 2 w<br />
jest zawsze nieobcia»onym estymatorem wariancji<br />
(niezale»nie od prawdziwo±ci H 0 ), natomiast estymator s 2 b<br />
jest nieobcia»ony<br />
tylko wtedy, gdy H 0 jest prawdziwa. W przeciwnym wypadku<br />
ma dodatnie obcia»enie (wyra»enie w drugim nawiasie powy»ej zawiera ró»nice<br />
kwadratu sumy dodatnich liczb N 2 ∑<br />
≡ ( k n i ) 2 i sumy kwadratów tych liczb<br />
k∑<br />
i=1<br />
n i2 wiec jest zawsze dodatnie).<br />
Jako statystyke testowa bierzemy wielko±¢:<br />
i=1<br />
s 2 b /s2 w<br />
= F (k − 1, N − k)<br />
Powy»szy wzór przedstawia stosunek dwu nieobcia»onych (przy prawdziwo±ci hipotezy<br />
zerowej ) estymatorów wariancji, a wiec jest to zmienna o rozkªadzie F Fishera<br />
- Snedecora.<br />
• Obszar krytyczny<br />
Je»eli hipoteza zerowa nie jest prawdziwa to statystyka testowa powinna by¢ wieksza<br />
ni» przewiduje to rozkªad F (k − 1, N − k) bo wtedy s 2 b<br />
jest dodatnio obcia»ony,<br />
a wiec obszar krytyczny odpowiada du»ym warto±ciom statystyki testowej (test<br />
prawostronny).<br />
11.8.1 INNE SFORMUŠOWANIE HIPOTEZY ZEROWEJ<br />
Czesto stosuje sie inne przedstawienie hipotezy zerowej, w którym jawnie rozpatruje sie<br />
mo»liwo±¢ wpªywu czynnika klasykujacego na warto±¢ oczekiwana mierzonej wielko±ci<br />
x. Wprowadza sie nastepujacy model j-tej warto±ci x dla i-tej populacji:<br />
x ij = x 0 + α i + ξ ij<br />
gdzie x 0 i α i sa staªymi a ξ ij to zmienna o rozkªadzie N(0,σ).<br />
Warto±¢ oczekiwana zmiennej x ij i jej wariancja wyra»aja sie wzorami:<br />
E (x ij ) = x 0 + α i<br />
σ 2 (x ij ) = σ 2 (ξ ij ) = σ 2<br />
Stad wida¢, »e parametry α i nale»y interpretowa¢ jako efekty oddziaªywania poszczególnych<br />
poziomów "i"klasykujacego czynnika a oryginalna hipoteze zerowa, która<br />
gªosi , »e warto±ci oczekiwane zmiennej x sa takie same dla wszystkich populacji tj.<br />
E(x ij ) = x 0 mo»na przedstawi¢ nastepujaco:
SMOP-2 B.Kamys: 2007/08 102<br />
H o : α 1 = α 2 = ... = α k = 0.<br />
Gdy odrzucamy hipoteze zerowa, czyli stwierdzamy »e nie wszystkie populacje maja<br />
równe warto±ci oczekiwane badanej wielko±ci x, pojawia sie problem oszacowania tych<br />
warto±ci oczekiwanych. W ten sposób mo»emy zwiaza¢ warto±¢ oczekiwana zmiennej<br />
mierzonej x z warto±ciami (poziomami) czynnika klasykujacego.<br />
• Jako nieobcia»ony estymator warto±ci oczekiwanej i-tej populacji przyjmuje<br />
sie:<br />
T ni (x 0 + α i ) ≡ ¯x i· = 1 n i<br />
σ 2 (¯x i·) = σ2<br />
n i<br />
∑n i<br />
x ij<br />
j=1<br />
• Jako nieobcia»ony estymator x 0 bierze sie ±rednia wa»ona ±rednich arytmetycznych<br />
dla poszczególnych prób:<br />
T N (x 0 ) ≡ ¯x·· = 1 N<br />
k∑<br />
¯x i·n i<br />
i=1<br />
σ 2 (¯x··) = σ2<br />
N<br />
• Jako estymator α i bierze sie ró»nice<br />
α i ≈ T ni (x 0 + α i ) − T N (x 0 )<br />
11.8.2 PRAKTYCZNE RACHUNKI W ANOVA<br />
Rachunki zwiazane z analiza wariancji nale»y prowadzi¢ z mo»liwie du»a dokªadno±cia,<br />
gdy» pozornie niewielkie zaokraglenia moga silnie znieksztaªci¢ wyniki.<br />
zaleca sie liczy¢ wg wzorów przyto-<br />
Sumy kwadratów wystepujace w denicjach s 2 i b s2 w<br />
czonych poni»ej:<br />
SS b ≡ (k − 1) · s 2 b =<br />
SS w ≡ (N − k) · s 2 w =<br />
SS ≡ (N − 1) ·<br />
k∑<br />
k ∑<br />
i=1<br />
∑ k<br />
n i ∑<br />
i=1 j=1<br />
n i¯x 2 i. − N ¯x2 ..<br />
n i ∑<br />
i=1 j=1<br />
x 2 ij − k ∑<br />
i=1<br />
(x ij − ¯x .. ) 2 = k ∑<br />
n i¯x 2 i.<br />
n i ∑<br />
i=1 j=1<br />
x 2 ij − N ¯x2 ..<br />
gdzie suma kwadratów SS jest obliczana jako sprawdzian bo musi zachodzi¢:
SMOP-2 B.Kamys: 2007/08 103<br />
SS = SS b + SS w<br />
Zwykle czastkowe wyniki zapisuje sie w postaci tabeli analizy wariancji jednoczynnikowej:<br />
Rodzaj wariancji SS≡ sum of squares DF≡ degrees of freedom MS≡ mean square F - statystyka<br />
(suma kwadratów) (liczba stopni swobody) (±redni kwadrat) testowa<br />
Pomiedzy grupami SS b k − 1 s 2 b = SS b/(k − 1)<br />
Wewnatrz grup SS w N − k s 2 w = SS w/(N − k)<br />
Caªkowita SS N − 1 s 2 = SS/(N − 1) F = s 2 b /s2 w<br />
11.8.3 STABILIZACJA WARIANCJI<br />
Warunkiem stosowalno±ci analizy wariancji jest normalno±¢ analizowanej zmiennej<br />
oraz jednorodno±¢ wariancji (równo±¢ wariancji) dla wszystkich porównywanych populacji.<br />
Z praktyki wiadomo, »e drugi warunek jest znacznie wa»niejszy , tzn. niejednorodno±¢<br />
wariancji wpªywa silniej na wyniki analizy wariancji ni» niewielkie odstepstwa<br />
od normalno±ci rozkªadu zmiennej X.<br />
W przypadku, gdy estymator wariancji zmienia sie regularnie wraz z estymatorem<br />
warto±ci oczekiwanej (±rednia arytmetyczna), co stwierdzamy odkªadajac na wykresie estymatory<br />
s 2 w funkcji ±rednich z poszczególnych prób, mo»na dla tych prób zastosowa¢<br />
przeksztaªcenie zmiennej wyj±ciowej X, które spowoduje, »e nowa zmienna bedzie miaªa<br />
w przybli»eniu te sama wariancje we wszystkich próbach. Dla tej nowej zmiennej mo»na<br />
ju» przeprowadzi¢ procedure ANOVA. Takie postepowanie, nazywa sie stabilizacja wariancji.<br />
Korzysta sie z twierdzenia które gªosi:<br />
TWIERDZENIE:<br />
Je»eli S 2 (x) ≈ f(¯x) jest funkcja wyra»ajaca zwiazek pomiedzy wariancjami i warto±ciami<br />
oczekiwanymi obserwowanej zmiennej losowej x w badanych próbach, to zastosowanie<br />
transformacji<br />
∫<br />
z =<br />
C · dx<br />
√<br />
f(x)
SMOP-2 B.Kamys: 2007/08 104<br />
prowadzi do przybli»onej stabilizacji wariancji, gdzie staªa C jest przybli»ona warto±cia<br />
wariancji nowej zmiennej z.<br />
Czesto nie interesuje nas konkretna warto±¢ wariancji nowej zmiennej lecz tylko to aby<br />
wariancje byªy jednorodne. Wtedy zamiast staªej C stosuje sie jedynke.<br />
Najcze±ciej spotykane relacje pomiedzy wariancjami i warto±ciami oczekiwanymi to<br />
• Proporcjonalno±¢: S 2 ≈ a · ¯x. Wystepuje ona wtedy, gdy dane wyra»aja czesto±¢<br />
pewnych zdarze«, np. wypadków drogowych, gdzie nie ma wyra¹nego maximum.<br />
Wtedy stosuje sie przeksztaªcenie pierwiastkowe: z = √ x. Oczywi±cie mo»na je<br />
stosowa¢ tylko dla nieujemnych x. Je»eli na dane skªadaja sie maªe liczby i zera to<br />
zaleca sie stosowanie wzoru: z = √ x + 0.5.<br />
• Gdy wariancja proporcjonalna jest do kwadratu ±redniej: S 2 ≈ a · ¯x 2 to stosuje<br />
sie przeksztaªcenie logarytmiczne: z = log(x), przy czym dla maªych liczb zaleca<br />
sie u»ycie wzoru: z = log(x + 1). Oczywi±cie tak»e w tym wypadku zmienna<br />
x powinna przyjmowa¢ nieujemne warto±ci. Z taka relacja pomiedzy wariancja i<br />
±rednia spotykamy sie przy danych dotyczacych subiektywnych oszacowa« pewnych<br />
wielko±ci a tak»e przy badaniu czasu reakcji na bod¹ce.<br />
• W ogólnosci, gdy wariancja proporcjonalna jest do b-tej"potegi ±redniej: S 2 ≈ ¯x b<br />
gdzie wykªadnik potegi b ≠ 2 to u»ywa sie przeksztaªcenia z = x 1−b/2 . Na<br />
przykªad, √ gdy do kwadratu ±redniej proporcjonalne jest odchylenie standardowe:<br />
S2 ≈ a · ¯x 2 czyli S 2 ≈ a 2 · ¯x 4 to transformacja zapewniajaca jednorodno±¢<br />
wariancji jest wyliczanie odwrotno±ci: z = 1/x. Tak»e pierwszy przytoczony powy»ej<br />
przypadek, tj. proporcjonalno±¢ wariancji do ±redniej (b = 1) podlega temu<br />
przepisowi.<br />
• W przypadku, gdy zmienna x wyra»a procentowy udziaª lub prawdopodobie«stwo<br />
jakiego± procesu to pomiedzy wariancja i warto±cia ±rednia mo»na zaobserwowa¢<br />
zwiazek nastepujacy: S 2 ≈ ¯x · (1 − ¯x). Wtedy stosuje sie przeksztaªcenie: z =<br />
arcsin(x). Przy tym przeksztaªceniu zmienna x powinna nale»e¢ do przedziaªu<br />
(0,1).<br />
Po zastosowaniu transformacji przeprowadza sie procedure ANOVA dla nowej zmiennej i<br />
wyciaga sie wnioski tak jakby analizowano oryginalne dane (dla których nie wolno byªo<br />
stosowa¢ ANOVA ze wzgledu na brak jednorodno±ci wariancji).
SMOP-2 B.Kamys: 2007/08 105<br />
11.9 ANALIZA WARIANCJI (ANOVA) - klasykacja dwuczynnikowa<br />
Dwuczynnikowa analiza wariancji mo»e by¢ potraktowana jako automatyczne rozszerzenie<br />
jednoczynnikowej analizy wariancji. Ró»nica polega na tym, »e wyniki bada« klasykujemy<br />
(dzielimy na próby) przez zastosowanie dwu czynników a nie jednego czynnika.<br />
Wyniki pomiarów zmiennej x przedstawiamy stosujac model analogiczny do tego, który<br />
stosowali±my przy jednoczynnikowej klasykacji. Zakªadamy, »e wynik k-tego pomiaru<br />
dla grupy sklasykowanej przez i-ty poziom pierwszego czynnika i j-ty poziom drugiego<br />
czynnika mo»e by¢ zapisany nastepujaco:<br />
x ijk = x 0 + α i + β j + γ ij + ξ ijk<br />
gdzie x 0 , α i , β j i γ ij sa nielosowymi parametrami, ktore interpretujemy nastepujaco:<br />
x 0<br />
- wspólna warto±¢ oczekiwana pomiarów gdy wpªyw pierwszego i drugiego klasykujacego<br />
czynnika na warto±¢ zmiennej x mo»e by¢ zaniedbany,<br />
α i - efekt odziaªywania poziomu pierwszego czynnika na x,<br />
β j - efekt odziaªywania poziomu drugiego czynnika na x,<br />
γ ij - efekt wspóªdziaªania pierwszego i drugiego czynnika na x.<br />
ξ ijk<br />
- czynnik losowy o rozkªadzie N(0,σ).<br />
Wyró»niamy r poziomów (dla zmiennej jako±ciowej) lub warto±ci (dla zmiennej ilo±ciowej)<br />
pierwszego czynnika klasykujacego (i = 1, 2, ..., r) oraz c poziomów lub warto±ci<br />
drugiego czynnika (j = 1, 2, ..., c). Symbole r i c pojawiaja sie jako pierwsze litery<br />
angielskich sªów row (wiersz) i column (kolumna). Z ka»dej z tych r · c populacji pobiera<br />
sie prosta próbe (tj. niezale»ne pomiary) o tej samej liczebno±ci m, tj. wska¹nik k<br />
przebiega m warto±ci (k = 1, 2, ..., m).<br />
Mo»emy sprawdza¢ trzy rodzaje hipotez zerowych:<br />
H (1)<br />
0 : α 1 = α 2 = . . . = α r = 0<br />
H (2)<br />
0 : β 1 = β 2 = . . . = β c = 0<br />
H (3)<br />
0 : γ 11 = γ 12 = . . . = γ rc = 0
SMOP-2 B.Kamys: 2007/08 106<br />
Pierwsza hipoteza oznacza, »e klasykacja ze wzgledu na pierwszy czynnik nie ma wpªywu<br />
na warto±ci oczekiwane zmiennej x, druga oznacza, »e klasykacja ze wzgledu na drugi<br />
czynnik nie wpªywa na warto±ci oczekiwane zmiennej x a trzecia, »e efekt wspóªdziaªania<br />
obu czynników jest zaniedbywalny.<br />
Wprowadzamy oznaczenia:<br />
¯x i··<br />
¯x·j·<br />
≡<br />
≡<br />
¯x ij· ≡ 1 m<br />
¯x···<br />
≡<br />
c∑ m∑<br />
x ijk<br />
j=1 k=1<br />
r∑ m∑<br />
x ijk<br />
i=1 k=1<br />
m∑<br />
x ijk<br />
k=1<br />
1 r∑ c∑ m∑<br />
x ijk<br />
i=1 j=1 k=1<br />
1<br />
c · m<br />
1<br />
r · m<br />
r · c · m<br />
Korzystajac z tych denicji mozemy przedstawi¢ dwuczynnikowa analize wariancji<br />
przy pomocy tabeli:<br />
ródªo SS DF MS F - statystyka<br />
zmienno±ci suma kwadratów stopnie swobody ±redni kwadrat testowa<br />
Czynnik 1<br />
∑<br />
SS 1 = c · m r (¯x i·· − ¯x···) 2 r − 1 s 2 1 = SS1<br />
i=1<br />
(r−1)<br />
∑<br />
Czynnik 2 SS 2 = r · m c (¯x·j· − ¯x···) 2 c − 1 s 2 2 = SS2<br />
Wspóªdz.<br />
j=1<br />
(c−1)<br />
∑<br />
SS 3 = m m (¯x ij· − ¯x i·· − ¯x·j· + ¯x···) 2 (r − 1)(c − 1) s 2 3 = SS 3<br />
k=1<br />
Resztowe SS 4 = r ∑<br />
Caªkowita SS 5 = r ∑<br />
i=1 j=1 k=1<br />
(r−1)(c−1)<br />
c∑ m∑<br />
(x ijk − ¯x ij·) 2 rc(m − 1) s 2 e = SS4<br />
c∑<br />
i=1 j=1 k=1<br />
rc(m−1)<br />
m∑<br />
(x ijk − ¯x···) 2 rmc − 1 s 2 = SS5<br />
(rmc−1)<br />
s 2 1 /s2 e<br />
s 2 2 /s2 e<br />
s 2 3 /s2 e<br />
Wiersz pierwszy (oznaczony czynnik 1 ) odpowiada testowaniu hipotezy H (1)<br />
0 , wiersz drugi<br />
testowaniu hipotezy H (2)<br />
0 a wiersz trzeci testowaniu hipotezy H (3)<br />
0 .<br />
W ka»dym przypadku statystyka testowa rzadzona jest rozkªadem F Fishera-Snedecora<br />
o liczbie stopni licznika takiej jak liczba stopni swobody podana w danym wierszu a liczbie<br />
stopni swobody mianownika takiej jak dla wiersza nr 4 (czyli dla zmienno±ci resztowej).<br />
W ka»dym z tych trzech przypadków obszar krytyczny jest prawostronny.
SMOP-2 B.Kamys: 2007/08 107<br />
Poniewa» w ANOVA bardzo wa»na jest dokªadno±¢ rachunków wiec obliczenia sum<br />
kwadratów nie robi sie wg wzorów denicyjnych podanych w tabeli lecz zaleca sie stosowanie<br />
nastepujacego schematu rachunkowego:<br />
1. Liczymy SS 1 , SS 2 , SS 4 i SS 5 wg wzorów podanych poni»ej a potem<br />
2. Liczymy najbardziej niestabilna numerycznie sume SS 3 wg przepisu:<br />
ad 1.)<br />
SS 3 = SS 5 − (SS 1 + SS 2 + SS 4 )<br />
SS 1 =<br />
SS 2 =<br />
SS 4 =<br />
SS 5 =<br />
( ) c∑<br />
2 ( )<br />
m∑<br />
r∑<br />
2<br />
c∑ m∑<br />
x r∑<br />
ijk x ijk<br />
j=1 k=1<br />
i=1 j=1 k=1<br />
−<br />
i=1 c · m<br />
n<br />
( r∑<br />
)<br />
( )<br />
m∑ 2<br />
r∑<br />
2<br />
c∑ m∑<br />
c∑ x ijk<br />
x ijk<br />
i=1 k=1<br />
i=1 j=1 k=1<br />
−<br />
j=1 r · m<br />
n<br />
( m∑<br />
) 2<br />
r∑ c∑ m∑<br />
r∑ c∑ x ijk<br />
x 2 ijk − k=1<br />
i=1 j=1 k=1<br />
i=1 j=1 m<br />
( ) r∑<br />
2<br />
c∑ m∑<br />
x r∑ c∑ m∑<br />
ijk<br />
x 2 ijk<br />
− i=1 j=1 k=1<br />
i=1 j=1 k=1<br />
n<br />
gdzie n = r · c · m czyli n jest caªkowita liczba pomiarów.<br />
Wydaje sie rozsadnym zaczyna¢ analize od testowania hipotezy H (3)<br />
0 , tzn. od sprawdzenia,<br />
czy mo»na zaniedba¢ wpªyw wspóªdziaªania obu czynników klasykacyjnych na warto±ci<br />
oczekiwane mierzonej zmiennej x.<br />
Je»eli mo»na przyja¢ te hipoteze, tj. nie ma podstaw do jej odrzucenia to mo»na dokªadniej<br />
oszacowa¢ wariancje resztowa, a wiec bardziej precyzyjnie wyznaczy¢ oba sprawdziany<br />
testu dla hipotezy H (1)<br />
0 i H (2)<br />
0 . W tym celu sumujemy SS 3 + SS 4 i po podzieleniu tej<br />
sumy przez nowa liczbe stopni sqobody: (r −1)(c−1)+rc(m−1) ≡ rmc−c−r +1<br />
traktujemy ja jako nowa wariancje resztowa s 2.<br />
e
SMOP-2 B.Kamys: 2007/08 108<br />
Je»eli stwierdzimy, »e jedna lub wiecej hipotez zerowych jest nieprawdziwa to szacujemy<br />
jaki jest wpªyw klasykujacych czynników na warto±¢ oczekiwana mierzonej wielko±ci x.<br />
Stosujemy w tym celu nastepujace estymatory:<br />
dla α i :<br />
dla β j :<br />
dla γ ij :<br />
dla x 0 :<br />
¯x i·· − ¯x···<br />
¯x·j· − ¯x···<br />
¯x ij· − ¯x i·· − ¯x·j· + ¯x···<br />
¯x···
SMOP-2 B.Kamys: 2007/08 109<br />
11.10 TEST WSPÓŠZALE›NO‘CI STATYSTYCZNEJ POMIEDZY<br />
CECHAMI JAKO‘CIOWYMI<br />
DEFINICJA: Zale»no±¢ statystyczna dwu (lub wiecej) zmiennych to taka, która<br />
powoduje, »e ich wspólny rozkªad prawdopodobie«stwa nie daje sie przedstawi¢ jako iloczyn<br />
rozkªadów brzegowych poszczególnych zmiennych.<br />
Nale»y podkre±li¢, »e fakt istnienia zwiazku statystycznego zwykle nie mo»e<br />
by¢ potraktowany jako argument na rzecz istnienia relacji deterministycznej<br />
tzn. je»eli zmienna losowa Y jest zale»na statystycznie od zmiennej losowej X to<br />
nie mo»na wygªosi¢ twierdzenia, »e pojawienie sie danej warto±ci (lub kategorii) zmiennej<br />
X jest przyczyna pojawianie sie konkretnych warto±ci (kategorii) zmiennej Y. Jest to<br />
spowodowane przez dwa wa»ne powody:<br />
1.) Dla zwiazku statystycznego zawsze jest speªnione nastepujace wynikanie: je»eli<br />
X nie zale»y statystycznie od Y to Y nie zale»y statystycznie od X. Tego nie<br />
mo»emy powiedzie¢ o relacji zale»no±ci deterministycznej, np. z faktu, »e<br />
dochody rodziców nie zale»a od dochodów maªoletnich dzieci nie wynika, »e dochody<br />
tych dzieci nie zale»a od dochodów rodziców.<br />
2.) fakt zale»no±ci statystycznej zmiennej X od zmiennej Y (i vice versa) mo»e by¢ spowodowany<br />
zale»no±cia obu tych zmiennych od trzeciej zmiennej (która mo»e nawet<br />
nie by¢ rozpatrywana) a nie od siebie wzajemnie.<br />
Na przykªad, zakres opanowania materiaªu szkolnego i wzrost sa statystycznie zwiazane<br />
ze soba bo obie te cechy zale»a od wieku. Ustalenie wieku badanych osób powoduje,<br />
»e znika statystyczna zale»no±¢ miedzy ilo±cia opanowanego materiaªu szkolnego<br />
i wzrostem, która jest oczywista gdy traktowa¢ jako równorzedne obserwacje odnoszace<br />
sie do mªodzie»y licealnej, uczniów szkoªy podstawowej i przedszkolaków<br />
bez rozró»niania wieku.<br />
Te druga mo»liwo±¢ musza zawsze bra¢ pod uwage badacze zajmujacy sie »ywymi<br />
organizmami bo ich badania prawie zawsze odbywaja sie w obecno±ci zmian takich<br />
czynników, które nie sa explicite brane pod uwage.<br />
Uwagi podane powy»ej prowadza do wniosku, »e bardziej logiczne jest nazywanie zale»-<br />
no±ci statystycznej - wspóªzale»no±cia statystyczna.<br />
Poni»ej omówimy metody stwierdzenia, »e istnieje wspóªzale»no±¢ statystyczna dwu zmiennych,<br />
przy czym jedna lub obie zmienne moga mie¢ charakter jako±ciowy.<br />
Przyjeªo sie nazywa¢ zwiazki pomiedzy zmiennymi nominalnymi<br />
asocjacja a wspóªczynniki okre±lajace siªe<br />
zwiazków wspóªczynnikami asocjacji.
SMOP-2 B.Kamys: 2007/08 110<br />
11.10.1 TEST FISHERA DLA TABLIC KONTYNGENCJI 2x2<br />
Wspóªzale»no±¢ statystyczna miedzy cechami, z których przynajmniej jedna jest cecha<br />
jako±ciowa nazywana jest kontyngencja. Bardzo czesto klasykacja ze wzgledu na cechy<br />
jako±ciowe przebiega wg. podziaªu na 2 kategorie, np. : wystepowanie cechy -<br />
brak tej cechy. Wtedy wyniki próby badajacej zwiazek statystyczny dwu cech zapisujemy<br />
w postaci tablicy 2 x 2, w której w ka»dym polu (odpowiadajacym parze kategorii<br />
przyporzadkowanych do pierwszej i drugiej cechy) umieszcza sie liczebno±¢ obserwacji<br />
danej pary .<br />
Dla ªatwiejszego przedstawienia testu Fishera omówimy go na przykªadzie konkretnego<br />
eksperymentu: Interesuje nas, czy terapia przy zastosowaniu leku A jest bardziej<br />
efektywna ni» przy zastosowaniu leku B.<br />
Pierwsza zmienna (oznaczmy ja przez X) jest rodzaj stosowanej terapii. Jest to zmienna<br />
jako±ciowa przyjmujaca 2 kategorie: 1) stosowanie leku A, 2) stosowanie leku B.<br />
Druga zmienna (oznaczona przez Y)jest stan zdrowia pacjentów, który równie» traktujemy<br />
jako zmienna jako±ciowa przyjmujaca 2 kategorie: 1) poprawa stanu zdrowia, 2) brak<br />
poprawy.<br />
Próbe skªadajaca sie z n elementów dzielimy ze wzgledu na ceche X na dwie cze±ci o<br />
liczebno±ci n 1 i n 2 . Pacjentom z pierwszej grupy podajemy lek A a pacjentom z drugiej<br />
grupy lek B.<br />
Liczebno±ci n 1 i n 2 nie sa liczbami losowymi, przy czym n = n 1 + n 2 .<br />
Sprawdzamy ilu pacjentów pierwszej grupy (m 1 ) wykazuje poprawe zdrowia, tzn. ilu<br />
jest pacjentów odpowiadajacych równoczesnemu zdarzeniu: (X=lek A, Y=poprawa) oraz<br />
ilu pacjentów drugiej grupy (m 2 ) wykazuje poprawe, tzn. (X=lek B, Y=poprawa). Liczebno±ci<br />
m 1 i m 2 sa zmiennymi losowymi takimi, »e warto±ci oczekiwane stosunków<br />
m 1<br />
n 1<br />
i m 2<br />
n 2<br />
sa odpowiednio równe prawdopodobie«stwom p 1 i p 2 poprawy zdrowia po zastosowaniu<br />
leku A i B.<br />
Tablica 3: Czteropolowa (tj. 2x2) tablica kontyngencji<br />
Cecha<br />
X<br />
Kategoria X 1 X 2 Suma<br />
Y Y 1 m 1 m 2 m<br />
Y 2 n 1 − m 1 n 2 − m 2 n − m<br />
Suma n 1 n 2 n<br />
Je»eli zaªo»ymy, »e cecha pierwsza (w przykªadzie - rodzaj podanego leku) jest nieza-
SMOP-2 B.Kamys: 2007/08 111<br />
le»na statystycznie od cechy drugiej (poprawa zdrowia lub jej brak) to p 1 = p 2 i mo»emy<br />
policzy¢ dokªadnie prawdopodobie«stwo zaobserwowania m 1 i m 2 przypadków wybranej<br />
kategorii cechy drugiej przy danych kategoriach cechy pierwszej (patrz ni»ej).<br />
Je»eli liczebno±¢ próby n jest niewielka to stosujemy tzw. dokªadny test Fishera.<br />
Termin dokªadny oznacza, »e operuje sie tylko liczbami caªkowitymi i dostaje sie dokªadne<br />
wzory na prawdopodobie«stwo pojawienia sie takiego a nie innego ukªadu liczb w<br />
tabeli.<br />
• Hipoteza zerowa gªosi, »e obie klasykacje ze wzgledu na ceche X i na ceche Y <br />
sa statystycznie niezale»ne.<br />
• Statystyka testowa jest obserwowana tabela liczebno±ci a konkretnie zespóª liczebno±ci<br />
czterech pól w tabeli. Zauwa»my jednak, »e przy danych liczebno±ciach brzegowych<br />
przyjecie jakiej± konkretnej warto±ci m 1 (w lewym górnym rogu tabeli)<br />
jednoznacznie narzuca warto±ci wszystkim pozostaªym liczbom w tabeli. Dlatego<br />
mo»emy numerowa¢ wszystkie mo»liwe tabele przez warto±¢ m 1 i jako statystyke<br />
testowa przyja¢ warto±¢ m 1 .<br />
Prawdopodobie«stwo tej statystyki to prawdopodobie«stwo pojawienia sie w do±wiadczeniu<br />
danych liczebno±ci w czterech polach tabeli (przy ustalonych liczebno-<br />
±ciach brzegowych (n 1 , n 2 , m, n − m). R. A. Fisher pokazaª, »e prawdopodobie«stwo<br />
tabeli o danym rozkªadzie liczebno±ci (przy prawdziwo±ci hipotezy zerowej,<br />
przy ustalonej liczebno±ci próby n i liczebno±ciach brzegowych) wyra»a sie prostym<br />
wzorem:<br />
P =<br />
n 1 !<br />
m 1 ! (n 1 − m 1 )! ·<br />
n 2 !<br />
m 2 ! (n 2 − m 2 )!<br />
· m! (n − m)!<br />
n!<br />
(86)<br />
• Obszar krytyczny<br />
to taki zakres statystyki testowej, który jest najmniej prawdopodobny przy prawdziwo±ci<br />
hipotezy zerowej a najbardziej prawdopodobny przy prawdziwo±ci hipotezy<br />
alternatywnej.<br />
Pierwszy warunek mówi, »e w obszarze krytycznym statystyka testowa, tzn.<br />
liczebno±¢ m 1 , powinna by¢ mo»liwie daleka od centrum rozkªadu wyliczonego przy<br />
zaªo»eniu prawdziwo±ci H 0 . A wiec powinna mie¢ albo bardzo du»e warto±ci albo<br />
bardzo maªe , przy czym oczywi±cie nie mo»e by¢ wieksza od m ≡ m 1 + m 2 ani<br />
mniejsza od zera.<br />
Drugi warunek zale»y od konkretnej hipotezy alternatywnej, która mo»e faworyzowa¢<br />
jeden z kierunków zmiany kategorii badanych cech.<br />
H 1 : p 1 > p 2<br />
Je»eli mamy podstawy przypuszcza¢, »e dana para kategorii cechy pierwszej i<br />
drugiej odpowiadajaca liczebno±ci m 1 powinna by¢ bardziej prawdopodobna
SMOP-2 B.Kamys: 2007/08 112<br />
ni» to wynika z H 0 - tj. z niezale»no±ci zmiennych - to obszarem krytycznym<br />
jest zbiór najwiekszych warto±ci m 1 (oczywi±cie gdy hipoteza gªosi, »e p 1 <<br />
p 2 to jest to zbiór najmniejszych warto±ci m 1 ).<br />
Wtedy liczymy sume prawdopodobie«stw zaobserwowanej w doswiadczeniu liczebno±ci<br />
m 1 oraz liczebno±ci wiekszych od niej. Ta suma daje nam warto±¢<br />
poziomu istotno±ci, tzn. prawdopodobie«stwa popeªnienia bªedu pierwszego rodzaju,<br />
polegajacego na odrzuceniu prawdziwej hipotezy zerowej H 0 : p 1 = p 2 .<br />
Inaczej mówiac, Je»eli to prawdopodobie«stwo jest mniejsze od zaªo»onego poziomu<br />
istotno±ci to odrzucamy H 0 i przyjmujemy H 1 : p 1 > p 2 .<br />
H 1 : p 1 ≠ p 2<br />
Je»eli nie mamy wskazówek ±wiadczacych, »e dany kierunek kategorii jest wyró»niony,<br />
to stosujemy test dwustronny odpowiadajacy hipotezie alternatywnej<br />
gªoszacej, »e zmienne nie sa niezale»ne albo inaczej H 1 : p 1 ≠ p 2 .<br />
Wtedy liczymy sume prawdopodobie«stw liczebno±ci m 1 oddalonych od centrum<br />
rozkªadu w góre i w dóª tyle lub wiecej jednostek jak obserwowana w próbie<br />
warto±¢ m 1 ( patrz przykªad poni»ej). Ta suma daje nam warto±¢ poziomu<br />
istotno±ci, tj. prawdopodobie«stwa odrzucenia prawdziwej H 0 (i przyjecia faªszywej<br />
H 1 ). Gdy ta suma jest mniejsza od zaªo»onego poziomu istotno±ci to<br />
odrzucamy H 0 (przyjmujac H 1 ).<br />
W ten sposób zamieniamy szukanie obszaru krytycznego na sprawdzanie czy prawdopodobie«stwo<br />
pojawienia sie danego m 1 jest odpowiednio maªe. Ta procedura zostanie<br />
poni»ej zilustrowana przykªadem, który powinien wyja±ni¢ ewentualne watpliwo±ci.<br />
Wzór (86) mimo swej prostoty jest niewygodny do rachunków ze wzgledu na wielkie<br />
liczby w liczniku i mianowniku. Mo»na sie zabezpieczy¢ przez trudno±ciami numerycznymi<br />
albo logarytmujac wzór (zamieniajac dzielenie silni na odejmowanie logarytmów z silni i<br />
powrót do normalnej reprezentacji przez zastosowanie funkcji wykªadniczej) albo stosujac<br />
wzory rekurencyjne na prawdopodobie«stwo w nastepujacy sposób: Przyjmujemy m 1 =<br />
0, a wiec m 2 = m oraz n 1 − m 1 = n 1 . Wtedy wzór na prawdopodobie«stwo P 0<br />
wyglada nastepujaco [2]:<br />
a wzór rekurencyjny<br />
P 0 = (n 1 + n 2 − m)! (m + n 2 − m)!<br />
n! (n 2 − m)!<br />
= (n − m)! n 2!<br />
n!(n 2 − m)!<br />
P k+1 =<br />
(m − k)(n 1 − k)<br />
(k + 1)(n 2 − m + k + 1) P k
SMOP-2 B.Kamys: 2007/08 113<br />
UWAGA:<br />
• Gdy P 0 ≈ 0 to nie mo»na stosowa¢ wzorów rekurencyjnych<br />
(bo dostaniemy dla wszystkich k; P k ≈ 0 )<br />
• Dla poprawnego stosowania wzorów rekurencyjnych nale»y tak przegrupowa¢ ustawienia<br />
wierszy i kolumn aby zmienna m 1 miaªa najmniejsza warto±¢ z czterech liczb<br />
m 1 , m 2 , n 1 -m 1 , n 2 -m 2 (mo»e by¢ tak»e równa której± z pozostaªych liczb).<br />
Przykªad [12]: Bada sie skuteczno±¢ dwóch leków A i B werykujac hipoteze zerowa,<br />
gªoszaca, »e oba leki sa jednakowo skuteczne. Zespóª 23 pacjentów podzielono losowo na<br />
dwie grupy o liczebno±ciach 9 i 14 (to klasykacja ze wzgledu na ceche X). Pacjentom<br />
pierwszej grupy podano lek A, pacjentom drugiej grupy lek B i zaobserwowano 6 wyników<br />
pozytywnych w pierwszej grupie oraz 3 wyniki pozytywne w drugiej grupie (podziaª na<br />
pozytywne i niepozytywne wyniki to klasykacja ze wzgledu na ceche Y). Wyniki leczenia<br />
i teoretyczne przewidywania zestawiono w dwu tabelach przytoczonych poni»ej.<br />
Cecha<br />
Lek<br />
Kategoria A B Suma<br />
Wynik + 6 3 9<br />
− 3 11 14<br />
Suma 9 14 23<br />
m 1 0 1 2 3 4<br />
P (m 1 ) 2, 4499 10 −3 3, 3073 10 −2 1, 5119 10 −1 3, 0868 10 −1 3, 0868 10 −1<br />
m 1 5 6 7 8 9<br />
P (m 1 ) 1, 5434 10 −1 3, 7416 10 −2 4, 0089 10 −3 1, 5419 10 −4 1, 2237 10 −6<br />
H 1 : Lek A jest lepszy ni» lek B Z tabeli pomiarów widzimy, »e wynik pozytywny pojawia<br />
sie cze±ciej u pacjentów przyjmujacych lek A ni» u pacjentów przyjmujacych<br />
lek B, a wiec mo»emy przypuszcza¢, »e lek ten jest lepszy, co w formalizmie statystycznego<br />
opisu oznaczaªoby H 1 : p 1 > p 2 . Aby sprawdzi¢ istotno±¢ tej hipotezy
SMOP-2 B.Kamys: 2007/08 114<br />
wzgledem hipotezy H 0 : p 1 = p 2 analizujemy tabele prawdopodobie«stw sumujac<br />
prawdopodobie«stwa dla m 1 ≥ 6. Dostajemy w wyniku 0,0416, co interpretujemy<br />
nastepujaco: Je»eli przyjmiemy H 1 (odrzucajac H 0 ) to popeªnimy bªad w<br />
4,16% przypadków. Inaczej mówiac mamy prawo odrzuci¢ H 0 na poziomie istotno-<br />
±ci nie mniejszym ni» 0,0416.<br />
Gdyby±my zaªo»yli, »e prawdopodobie«stwo odrzucenia H 0 ma by¢ jeszcze mniejsze,<br />
np. 0,01 to wtedy nie mieliby±my podstaw twierdzi¢, »e lek A jest lepszy ni» lek B.<br />
H 1 :Lek B jest lepszy ni» lek A. Nie mamy ilo±ciowych argumentów za taka hipoteza,<br />
ale spróbujmy ja formalnie postawi¢ i zwerykowa¢. Taka hipoteza medyczna<br />
bedzie zapisana w jezyku statystyki nastepujaco: H 1 : p 1 < p 2 . Wtedy obszar<br />
krytyczny to zbiór maªych warto±ci m 1 , gdy» du»e prawdopodobie«stwo (liczebno±¢<br />
wzgledna m 2 /m) powoduje, »e m 1 /m ≡ 1 − m 2 /m musi by¢ maªe. Aby<br />
ilo±ciowo znale¹¢ poziom istotno±ci sumujemy prawdopodobie«stwa liczebno±ci m 1<br />
mniejszych lub równych obserwowanej w próbie warto±ci tj. 6. Dostajemy jako wynik<br />
tej sumy 0,9958, co oznacza, »e przyjecie takiej H 1 (odrzucenie H 0 : p 1 = p 2<br />
na korzy±¢ hipotezy H 1 : p 1 < p 2 ) bedzie bªedne w 99,58% przypadków.<br />
Jak wida¢ nie mo»emy przeforsowa¢ takiej hipotezy H 1 .<br />
H 1 : Lek A i B nie sa jednakowo skuteczne. Te hipoteze zapisujemy nastepujaco:<br />
H 1 : p 1 ≠ p 2 . Aby ja ilo±ciowo przetestowa¢ sumujemy prawdopodobie«stwa<br />
takich liczebno±ci m 1 , które oddalone sa od maksimum rozkªadu (tu ok. 3,5) przynajmniej<br />
tak daleko (w góre i w dóª) jak obserwowana w próbie warto±¢ m 1 = 6.<br />
Dostajemy poziom istotno±ci równy 0,0771 (sumowane byªy prawdopodobie«stwa<br />
dla m 1 = 6, 7, 8, 9 oraz m 1 = 1, 0 bo 6 i 1 sa tak samo odlegªe od maksimum<br />
rozkªadu: 6=3,5 + 2,5, 1=3,5 - 2,5). A wiec na takim poziomie istotno±ci (lub oczywi±cie<br />
wiekszym) mo»emy twierdzi¢, »e nale»y odrzuci¢ H 0 i przyja¢ interesujaca<br />
nas hipoteze H 1 . Popeªniamy przy tym bªad w ok. 8% przypadków.<br />
Cochran (W.G. Cochran, Biometrics 10 (1954) 417) zaleca u»ywanie dokªadnego testu<br />
Fishera dla tablic kontyngencji 2 x 2 gdy n < 20 lub gdy 20 < n < 40 i najmniejsza<br />
warto±¢ oczekiwana jest mniejsza ni» 5. Przy du»ej liczbie elementów próby stosowany<br />
jest raczej test χ 2 Pearsona.
SMOP-2 B.Kamys: 2007/08 115<br />
11.10.2 TEST χ 2 DLA TABLIC KONTYNGENCJI 2x2<br />
Tablice 2x2 - zwane równie» czteropolowymi tablicami sa szczególnym przypadkiem<br />
tablic rxc (r sªu»y jako skrót angielskiego sªowa row - wiersz, a c jako skrót sªowa<br />
column - kolumna). Gdy liczebno±¢ odpowiadajaca poszczególnym polom jest du»a to<br />
zamiast dokªadnego testu Fishera stosuje sie test χ 2 , który ju» rozpatrywali±my jako test<br />
zgodno±ci przy okazji testowania normalno±ci rozkªadu prawdopodobie«stwa.<br />
• Hipoteza zerowa taka sama jak dla dokªadnego testu Fishera, tj. klasykacja ze<br />
wzgledu na jedna ceche (kategoriom cechy odpowiadaja wiersze) jest niezale»na statystycznie<br />
od klasykacji ze wzgledu na druga ceche (kategoriom cechy odpowiadaja<br />
kolumny).<br />
• Statystyka testowa X 2 - taka jak we wzorze (11.5.3):<br />
X 2 =<br />
k∑ (n i − n · π i ) 2<br />
i=1<br />
gdzie tu suma wykonywana jest po 4 polach tablicy (k = 4), n i oznacza obserwowana<br />
liczebno±¢ w danym polu (oznaczana tradycyjnie O od angielskiego sªowa<br />
observed - obserwowana), a nπ i oznacza teoretyczna liczebno±¢ w danym polu<br />
(oznaczana tradycyjnie E od angielskiego sªowa expected - oczekiwana ). A wiec<br />
powy»szy wzór na statystyke testowa X 2 zapisujemy nastepujaco:<br />
nπ i<br />
2∑ 2∑ (O<br />
X 2 ij − E ij ) 2<br />
=<br />
(87)<br />
E ij<br />
i=1 j=1<br />
Teoretyczna liczebno±¢ wyznaczana jest z liczebno±ci brzegowych (sum po wierszach<br />
dla danej kolumny lub sum po kolumnach dla danego wiersza) przy zaªo»eniu, »e<br />
badane zmienne (cechy) sa niezale»ne.<br />
Prawdopodobie«stwo dwu niezale»nych zdarze« A i B wyra»a sie iloczynem ich<br />
prawdopodobie«stw P (A ∩ B) = P (A) · P (B). Biorac czesto±ci brzegowe jako<br />
estymatory prawdopodobie«stw, np. T (P (A)) = n A<br />
, T (P (B)) = n B<br />
oraz<br />
n n<br />
uwzgledniajac, »e szukamy liczebno±ci a nie prawdopodobie«stwa pola A ∩ B dostaniemy<br />
na te liczebno±¢ n(A ∩ B) = T (P (A)) · T (P (B)) · n czyli ta liczebno±¢<br />
wynosi n A · nB · n = n A·n B<br />
.<br />
n n<br />
n<br />
W tabeli (4) podane sa (nieopisane) obserwowane liczebno±ci oraz ich oczekiwane<br />
odpowiedniki (opisane sªowem expected).<br />
Wstawiajac wyra»enia na O ij i E ij wypisane w powy»szej tabeli dostajemy wyra-<br />
»enie X 2 przez liczebno±ci obserwowane:
SMOP-2 B.Kamys: 2007/08 116<br />
Tablica 4: Czteropolowa (tj. 2x2) tablica kontyngencji - w nawiasach umieszczone sa<br />
oczekiwane liczebno±ci E ij , powy»ej nich - liczebno±ci obserwowane O ij<br />
Cecha<br />
X<br />
Kategoria X 1 X 2 Suma<br />
Y Y 1 m 1 m 2 m<br />
(expected) ( m·n 1<br />
n ) ( m·n 2<br />
n )<br />
Y 2 n 1 − m 1 n 2 − m 2 n − m<br />
(expected) ( (n−m)·n 1<br />
n<br />
) ( (n−m)·n 2<br />
n<br />
)<br />
Suma n 1 n 2 n<br />
X 2 = n · [m 1 · (n 2 − m 2 ) − m 2 · (n 1 − m 1 )] 2<br />
m · (n − m) · n 1 · n 2<br />
(88)<br />
Šatwo zapamieta¢ ten wzór bo w nawiasie kwadratowym licznika mamy ró»nice<br />
iloczynów elementów macierzy na gªównej przekatnej i drugiej przekatnej (czyli<br />
wyznacznik macierzy) a w mianowniku znajduje sie iloczyn wszystkich brzegowych<br />
liczebno±ci.<br />
Wyra»enie to ma asymptotycznie (dla du»ych liczebno±ci) rozkªad χ 2 1 .<br />
Mo»na by przypuszcza¢, »e liczba stopni swobody powinna by¢ wieksza ni» jeden<br />
(bo sa 4 pola a wiec cztery wyrazy w sumie) ale - jak to pokazano dla dokªadnego<br />
testu Fishera - tylko jedna z czterech liczebno±ci jest niezale»na. Pozostaªe trzy sa<br />
jednoznacznie okre±lone przez warto±¢ tej wybranej liczebno±ci i liczebno±ci brzegowe.<br />
Taka sytuacja, tzn. mo»liwo±¢ otrzymania zwartego, prostego wzoru (88) na<br />
X 2 , jak i jednoznaczne okre±lenie wszystkich pól tabeli przez liczebno±¢ jednego<br />
pola jest cecha jedynie tabeli czteropolowych.<br />
Poprawka Yatesa na nieciagªo±¢ . Zmienna losowa χ 2 z denicji jest zmienna<br />
ciagªa. Wyliczanie statystyki X 2 z ilorazu caªkowitych liczb powoduje, »e jej warto±ci<br />
nie reprezentuja wszystkich liczb rzeczywistych, np. nie moga pojawi¢ sie<br />
liczby niewymierne. Co wiecej, ta statystyka mo»e przyja¢ tylko tyle warto±ci ile<br />
jest ró»nych tablic czteropolowych przy ustalonych liczebno±ciach brzegowych. Dlatego,<br />
nawet przy stosunkowo du»ych liczebno±ciach nale»aªoby ten efekt wzia¢ pod<br />
uwage.
SMOP-2 B.Kamys: 2007/08 117<br />
Po uwzglednieniu poprawki zaproponowanej przez Yatesa wzór na X 2 dla tablicy<br />
czteropolowej wyglada nastepujaco:<br />
X 2 = n · (| m 1 · (n 2 − m 2 ) − m 2 · (n 1 − m 1 ) | − n 2 )2<br />
m · (n − m) · n 1 · n 2<br />
(89)<br />
• Obszar krytyczny to du»e warto±ci statystyki X 2 bo jak wynika ze wzoru (87) przy<br />
warto±ciach obserwowanych liczebno±ci O ij bliskich warto±ciom oczekiwanym liczebno±ci<br />
E ij , X 2 jest bliskie zera co jest najmniejsza z dozwolonych przez ten wzór<br />
warto±ci.<br />
Przy zaªo»onym poziomie istotno±ci α obszar krytyczny to zbiór warto±ci statystyki<br />
testowej wiekszy od kwantyla rozkªadu χ 2 1<br />
na poziomie 1 − α:<br />
X 2 > χ 2 1<br />
(1 − α)<br />
Przykªad: Rozwa»my zestawienie [1] wyników próby klinicznej, w której stosowano<br />
dwa sposoby leczenia (A i B)- wyniki zamieszczone sa w tabeli (5).<br />
Tablica 5: Czteropolowa (tj. 2x2) tablica kontyngencji przedstawiajaca wyniki próby<br />
klinicznej<br />
Cecha<br />
Wynik<br />
Kategoria zgon prze»ycie Razem<br />
Leczenie A 41 216 257<br />
B 64 180 244<br />
Razem 105 396 501<br />
Hipoteza zerowa: Wyniki leczenia nie zale»a od sposobu leczenia.<br />
Statystyka testowa: Zmienna X 2 liczona bez poprawki Yatesa i z poprawka, odpowiednio<br />
wg wzorów (88) i (89). Bez poprawki mamy:<br />
501 · (64 · 216 − 41 ·<br />
X 2 180)2<br />
=<br />
257 · 244 · 105 · 396<br />
= 7, 979
SMOP-2 B.Kamys: 2007/08 118<br />
Z poprawka otrzymujemy:<br />
501<br />
501 · (| 64 · 216 − 41 · 180 | −<br />
X 2 2<br />
= )2<br />
257 · 244 · 105 · 396<br />
= 7, 371<br />
Warto±ci statystyki testowej porównujemy z warto±cia kwantyla χ 2 1<br />
(1 − α). Z tablic<br />
znajdujemy, »e ten kwantyl wynosi odpowiednio 3,84 (dla α = 0,05), 5,02 (dla α =<br />
0,025), 6,63 (dla α = 0,01) oraz 10,83 (dla α = 0,001). Wyliczona warto±¢ statystyki<br />
X 2 z próby nale»y do obszaru krytycznego dla poziomu istotno±ci 0,01 ale ju» nie nale»y<br />
do tego obszaru dla poziomu istotno±ci 0,001.<br />
Stad wnioskujemy, »e dwa sposoby leczenia daja istotnie ró»ne wyniki na poziomie<br />
istotno±ci mniejszym od 0,01 lecz wiekszym od 0,001 (tzn. nasz wniosek mo»e by¢<br />
bªedny w mniej ni» jednym przypadku na sto ale cze±ciej ni» raz na tysiac przypadków).<br />
Jak ªatwo zauwa»y¢ ze wzorów na X 2 oraz z warto±ci tej statystyki w powy»szym przykªadzie,<br />
test z poprawka Yatesa jest bardziej konserwatywny, tzn. nie odrzuca hipotezy<br />
zerowej w takich przypadkach gdy test bez poprawki odrzuciªby ja.<br />
11.10.3 WSPÓŠCZYNNIK KORELACJI RANG ϱ SPEARMANA<br />
Przy analizie wspóªzale»no±ci statystycznej dwu zmiennych porzadkowych (asocjacji, kongruencji)<br />
najcze±ciej stosowana miara tej wspóªzale»no±ci jest wspóªczynnik rang Spearmana<br />
oznaczany zwykle przez ϱ (podobnie jak wspóªczynnik Pearsona korelacji cech<br />
mierzalnych) lub r d .<br />
W tym celu obserwacje z obu prób A i B porzadkujemy przypisujac im rangi w ten<br />
sposób, »e najbardziej korzystnej, po»adanej kategorii cechy przypisujemy range 1 a<br />
kolejnym gorszym kategoriom rangi 2, 3, itd. Je»eli kilka kategorii odpowiada równie<br />
korzystnej sytuacji to nadajemy im identyczne rangi (równe ±redniej arytmetycznej rang,<br />
które otrzymaªyby te obserwacje gdyby sie minimalnie ró»niªy).Takie rangi nazywane sa<br />
rangami wiazanymi.<br />
Wspóªczynnik korelacji rang ϱ Spearmana deniowany jest nastepujaco:<br />
ϱ = 1 −<br />
∑<br />
6 n (r 1i − r 2i ) 2<br />
i=1<br />
n(n 2 − 1)<br />
(90)<br />
Tu r 1i i r 2i - oznaczaja rangi dla i-tej kategorii tej samej cechy odpowiednio w pierwszej<br />
i drugiej próbie, przy czym obie próby maja liczebno±¢ n.
SMOP-2 B.Kamys: 2007/08 119<br />
Wspóªczynnik ten przyjmuje warto±ci z przedziaªu [-1,+1]:<br />
• ϱ = +1 w przypadku idealnej zgodno±ci rang,<br />
• ϱ = −1 w przypadku maksymalnej niezgodno±ci (du»ym r 1i odpowiadaja maªe<br />
r 2i i odwrotnie)<br />
• ϱ = 0 w przypadku czysto losowego ustawienia rang, tzn. przy ich niezale»no±ci<br />
w obu porównywanych ciagach.<br />
Na przykªad: poproszono dwie osoby o uporzadkowanie ich preferencji kulinarnych<br />
dotyczacych kilku zup.<br />
Pierwsza osoba podaªa nastepujace preferencje:<br />
Barszcz czerwony, »urek, pomidorowa, ogórkowa, rosóª, chªodnik.<br />
Druga:<br />
Chªodnik, ogórkowa, pomidorowa, barszcz czerwony, »urek, rosóª.<br />
Preferencje pierwszej osoby mo»emy uzna¢ za wzorzec i przyporzadkowa¢ im kolejne<br />
liczby naturalne: 1, 2, 3, 4, 5, 6. Tym rangom beda odpowiadaªy nastepujace rangi<br />
wybrane przez druga osobe: 4, 5, 3, 2, 6, 1.<br />
Suma kwadratów ró»nicy rang bedzie wynosi¢ 9+9+0+4+1+25=48. Poniewa» n=6<br />
wiec wspóªczynnik ϱ=1-6*48/[6*(36-1)]= - 0,37.<br />
Wniosek: Obie osoby maja niezgodne preferencje kulinarne.<br />
Oczywi±cie dla ilo±ciowego testowania czy odchylenie wspóªczynnika korelacji rang od<br />
zera jest istotne trzeba korzysta¢ ze specjalnych tablic. Je»eli liczba obserwacji n jest<br />
wieksza od 10 to mo»na posªu»y¢ sie asymptotycznymi wzorami, poniewa» dla du»ych<br />
prób wspóªczynnik korelacji rang ma w przybli»eniu rozkªad normalny. W tym<br />
celu korzystamy z twierdzenia:<br />
TWIERDZENIE: Je»eli prawdziwa jest hipoteza zerowa gªoszaca, »e rangi dwu serii obserwacji<br />
sa niezale»ne statystycznie to :<br />
E{ϱ} = 0<br />
V ar{ϱ} = 1<br />
n−1<br />
A wiec dla n > 10 mo»na u»ywa¢ poni»szego przybli»onego wzoru [4]:<br />
P (ϱ > R) ≈ 1 − Φ { √ [ ]}<br />
n − 1 · R · 1 +<br />
0,19<br />
− 3<br />
R 2 n−1<br />
≈ 1 − Φ( √ n − 1 · R)<br />
(91)
SMOP-2 B.Kamys: 2007/08 120<br />
W tym wzorze Φ oznacza dystrybuante standardowego rozkªadu normalnego.<br />
Mo»na równie» dla n ≥ 10 stosowa¢ transformacje [7]:<br />
t = ϱ√ n − 2<br />
1 − ϱ 2<br />
Zmienna t ma rozkªad Studenta o (n-2) stopniach swobody. Poniewa» o znaku t decyduje<br />
znak ϱ wiec dla t stosuje sie identyczny obszar krytyczny (lewostronny, prawostronny lub<br />
dwustronny) jak dla ϱ.<br />
W tabeli poni»ej podane sa kwantyle testu Spearmana ϱ 0,95 i ϱ 0,99 dla prób o maªej liczebno±ci.<br />
Mozna je zastosowa¢ do sprawdzania testu prawostronnego dla dwu najcze±ciej<br />
stosowanych poziomów istotno±ci: α = 0, 05 i α = 0, 01. Dla testu lewostronnego nale»y<br />
wykorzysta¢ fakt, »e ϱ q = −ϱ 1−q :<br />
n ϱ 0,95 ϱ 0,99 n ϱ 0,95 ϱ 0,99<br />
4 1,000 14 0,456 0,645<br />
5 0,900 1,000 16 0,425 0,601<br />
6 0,829 0,943 18 0,399 0,564<br />
7 0,714 0,893 20 0,377 0,534<br />
8 0,643 0,833 22 0,359 0,508<br />
9 0,600 0,783 24 0,343 0,485<br />
10 0,564 0,746 26 0,329 0,465<br />
12 0,506 0,712 28 0,317 0,448<br />
14 0,456 0,645 30 0,306 0,432
SMOP-2 B.Kamys: 2007/08 121<br />
11.10.4 WSPÓŠCZYNNIK KORELACJI RANG τ KENDALLA<br />
Wspóªczynnik korelacji rang τ Kendalla daje równowa»ne informacje do tych, które mo»na<br />
uzyska¢ analizujac wspóªczynnik korelacji rang ϱ Spearmana tzn. równy jest +1, -1 i 0<br />
gdy rangi w dwu próbach uszeregowane sa identycznie, odwrotnie i losowo. Wspóªczynnik<br />
τ Kendalla m ma dwie zalety w porównaniu do wspólczynnika korelacji rang Spearmana:<br />
1. ªatwiej mo»na go skorygowa¢, gdy istnieje wiele rang wiazanych,<br />
2. jest szybciej zbie»ny do rozkªadu normalnego ni» wspóªczynnik ϱ Spearmana.<br />
DEFINICJA:<br />
S =<br />
n∑<br />
n∑<br />
i=1 j=i+1<br />
τ =<br />
S<br />
1<br />
n(n − 1)<br />
2<br />
sign(r j − r i )<br />
gdzie r i i r j sa rangami w zbiorze kategorii cechy drugiej ( rangi dla cechy pierwszej<br />
ustawione sa jako rosnacy ciag liczb naturalnych: 1,2, .. z ewentualna modykacja<br />
dla cech wiazanych). Przyczynki do sumy deniujacej S liczymy nastepujaco: porównujemy<br />
piewsza range z druga, z trzecia, itd., nasteepnie druga range z trzecia, czwarta, itd.<br />
(ªacznie n(n-1)/2 wyrazów)<br />
• dla naturalnej kolejno±ci rang przyczynek +1,<br />
• dla odwróconej kolejno±ci rang przyczynek -1,<br />
• dla rang wiazanych (identycznych) przyczynek 0.<br />
Je»eli zdarzy sie, »e równie» dla pierwszej cechy wystepuja rangi wiazane to odpowiadajacym<br />
im parom rang cechy drugiej przypisujemy przyczynek 0 niezale»nie od ich uporzadkowania .<br />
Przykªad 1 (rangi wiazane tylko dla cechy drugiej - Y):<br />
Suma wszystkich przyczynków daje S=6.<br />
Przykªad 2 (rangi wiazane zarówno dla pierwszej cechy - X jak i dla drugiej cechy -Y):<br />
Suma wszystkich przyczynków do S daje S=4 . Gdy wystepuja rangi wiazane musimy<br />
w inny sposób normalizowa¢ sume S aby dosta¢ τ:<br />
τ =<br />
[<br />
1√<br />
2<br />
n(n − 1) − m ∑<br />
i=1<br />
S<br />
] [ ]<br />
∑<br />
t i (t i − 1) n(n − 1) − r u j (u j − 1)<br />
j=1
SMOP-2 B.Kamys: 2007/08 122<br />
Rangi cechy X 1 2 3 4 5 6<br />
Rangi cechy Y 2 3 4.5 4.5 1 6<br />
Przyczynki do S (od 2) +1 +1 +1 -1 +1<br />
Przyczynki do S (od 3) +1 +1 -1 +1<br />
Przyczynki do S (od 4.5) 0 -1 +1<br />
Przyczynki do S (od 4.5) -1 +1<br />
Przyczynki do S (od 1) +1<br />
Rangi cechy X 1.5 1.5 3 5 5 5<br />
Rangi cechy Y 2 3 4.5 4.5 1 6<br />
Przyczynki do S (od 2) 0 +1 +1 -1 +1<br />
Przyczynki do S (od 3) +1 +1 -1 +1<br />
Przyczynki do S (od 4.5) 0 -1 +1<br />
Przyczynki do S (od 4.5) 0 0<br />
Przyczynki do S (od 1) 0<br />
Suma po wska¹niku i to suma po grupach rang wiazanych dla pierwszej zmiennej, t i<br />
to liczebno±¢ i-tej grupy rang, a suma po wska¹niku j to suma po grupach rang wiazanych<br />
dla drugiej zmiennej, u j to liczebno±¢ j-tej grupy rang.<br />
W pierwszym przykªadzie powy»ej wspóªczynnik τ bedzie liczony wg wzoru:<br />
τ =<br />
=<br />
S<br />
1<br />
2√<br />
n(n−1)[n(n−1)−2(2−1)]<br />
6<br />
1<br />
2√<br />
6(6−1)[6(6−1)−2(2−1)]<br />
= 0, 414
SMOP-2 B.Kamys: 2007/08 123<br />
W drugim przykªadzie powy»ej wspóªczynnik τ bedzie liczony wg wzoru:<br />
=<br />
τ =<br />
S<br />
1<br />
2√<br />
n(n−1)[n(n−1)−2(2−1)]<br />
4<br />
1<br />
2√<br />
[6(6−1)−2(2−1)−3(3−1)][6(6−1)−2(2−1)]<br />
= 0, 322<br />
Policzenie wspóªczynnika τ i blisko±¢ jego warto±ci do granicznych warto±ci (+1,-1 lub<br />
0) pozwalaja wyciagna¢ wnioski jako±ciowo o korelacji rang.<br />
Dla ilo±ciowego testowania hipotezy H 0 : τ = 0<br />
wygodniej jest rozwa»a¢ sama sume S deniowana powy»ej. Suma ta bardzo szybko da»y<br />
do rozkªadu normalnego a wiec dla n≥ 10 mo»na sie posªugiwa¢ tablicami rozkªadu N(0,1)<br />
je»eli bedziemy rozwa»a¢ zmienna<br />
z = |S| − 1<br />
σ(S)<br />
przy czym wariancja S σ 2 (S) liczona jest z poni»szych wzorów (dla przypadku gdy nie<br />
ma rang wiazanych i gdy sa rangi wiazane):<br />
a) bez rang wiazanych:<br />
σ 2 (S) =<br />
n(n − 1)(2n + 5)<br />
18<br />
b) z rangami wiazanymi:<br />
σ 2 (S) = 1 18<br />
[<br />
[<br />
1<br />
m∑<br />
+<br />
9n(n−1)(n−2)<br />
i=1<br />
[ m∑<br />
+ 1<br />
2n(n−1)<br />
i=1<br />
n(n − 1)(2n + 5) − m ∑<br />
t i (t i − 1)(t i − 2)<br />
i=1<br />
] [ r∑<br />
t i (t i − 1)(2t i + 5) −<br />
j=1<br />
]<br />
] [ r∑<br />
t i (t i − 1) u j (u j − 1)<br />
j=1<br />
r ∑<br />
j=1<br />
]<br />
u j (u j − 1)(u j − 2)<br />
u j (u j − 1)(2u j + 5)<br />
]
SMOP-2 B.Kamys: 2007/08 124<br />
Wzory te a szczególnie ostatni wygladaja skomplikowanie ale liczby w nich wystepujace<br />
sa niewielkie, a wiec rachunki nie sa trudne.<br />
Jako przykªad rozwa»my przypadek rozwa»any oryginalnie przez Kendalla: Egzamin<br />
zdawaªo o±miu chªopców (C) i siedem dziewczat (D). Pytanie brzmiaªo: Czy wyniki egzaminu<br />
dla chªopców sa inne ni» dla dziewczat. W tabelce poni»ej w pierwszym wierszu<br />
podana jest ranga uzyskana na egzaminie a w drugim kategoria cechy jako±ciowej czyli<br />
pªci:<br />
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15<br />
C C D C D D C C C D C D C D D<br />
Ze wzgledu na druga ceche mamy dwie grupy rang wiazanych o liczebno±ci 8 (chªopcy) i<br />
7 (dziewczeta). Biorac jako wspólna range dla chªopców ±rednia z rang 1 - 8 = 4,5 a dla<br />
dziewczat ±rednia z rang 9 - 15 = 12 dostajemy tabelke:<br />
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15<br />
4,5 4,5 12 4,5 12 12 4,5 4,5 4,5 12 4,5 12 4,5 12 12<br />
Suma S liczona wedªug przepisu podanego wy»ej na podstawie tych rang wynosi:<br />
S=7+7-6+6-5-5+4+4+4-2+3-1+2+0=18.<br />
Wspóªczynnik τ:<br />
τ =<br />
18<br />
= 0, 235<br />
√15(15 − 1) [15(15 − 1) − 8(8 − 1) − 7(7 − 1)]<br />
1<br />
2<br />
Jest on niewielki co sugeruje, »e H0 jest prawdziwa (przy czym jego znak nie ma<br />
znaczenia bo zale»y od konwencji, w której mniejsze rangi nadano chªopcom a to byªo<br />
arbitralne).<br />
Dla ilo±ciowego testu liczymy wariancje zmiennej S (korzystajac ze skomplikowanego<br />
wzoru podanego powy»ej). Poniewa» rangi dla pierwszej cechy (jako±¢ zdawania) nie sa<br />
powiazane wiec wzór bardzo sie upraszcza bo sumy, w których wystepuje t i znikaja i<br />
dostajemy:<br />
√<br />
σ(S) = 1<br />
[15(15 − 1)(2 · 15 + 5) − 8(8 − 1)(2 · 8 + 5) − 7(7 − 1)(2 · 7 + 5)] = 17, 28<br />
18<br />
a standaryzowana zmienna o rozkªadzie normalnym bedzie miaªa warto±¢:<br />
z = |S| − 1<br />
σ(S)<br />
= 18 − 1<br />
17, 28<br />
= 0, 984<br />
Je»eli jako poziom istotno±ci we¹miemy α=0,05 to przy te±cie dwustronnym dostaniemy<br />
obszar krytyczny z > 1, 96 lub z < −1, 96. Poniewa» z z do±wiadczenia nie<br />
traa do obszaru krytycznego wiec nie ma podstaw odrzuca¢ hipotezy zerowej.
SMOP-2 B.Kamys: 2007/08 125<br />
11.10.5 ANALIZA ASOCJACYJNA<br />
Analiza korelacyjna cech niemierzalnych sprowadza sie do badania, czy okre±lone kombinacje<br />
wariantów rozpatrywanych cech maja tendencje do wyra¹nie czestszego lub wyra¹nie<br />
rzadszego pojawiania sie ni» by to miaªo miejsce w przypadku niezale»no±ci cech X i Y.<br />
Taka analize wystepowania skojarze« okre±lonych wariantów cech nazywa sie "analiza<br />
asocjacyjna".<br />
Wyró»niamy r wariantów cechy jako±ciowej X (r≥2) oraz c wariantów cechy jako±ciowej<br />
Y (c≥2). Niech n oznacza liczbe obserwacji w próbie, n i· i n·j liczbe obserwacji w<br />
których zaobserwowano wariant x i cechy X i wariant y j cechy Y oraz n ij niech oznacza<br />
liczbe obserwacji w których zaobserwowano zarówno i-ty wariant cechy X jak i j-ty wariant<br />
cechy Y.<br />
Wielko±ci te speªniaja relacje:<br />
r∑ c∑<br />
r∑<br />
c∑<br />
n ij = n i· = n·j = n<br />
i=1 j=1 i=1 j=1<br />
WSPÓŠCZYNNIK KORELACJI CECH NIEMIERZALNYCH<br />
R xi ,y j<br />
Deniujemy go nastepujaco:<br />
R xi y j<br />
=<br />
√<br />
ni·<br />
n (1 − n i·<br />
n ij<br />
− n i· n·j<br />
n n n<br />
)<br />
n·j<br />
n n<br />
(1 −<br />
n·j<br />
n )<br />
Wspóªczynnik ten przyjmuje warto±ci z przedziaªu [-1,+1] przy czym<br />
• R=0 dla nieskorelowanych wariantów x i i y j ,<br />
• R=+1 wtedy i tylko wtedy, gdy warianty x i i y j wystepuja w próbie zawsze razem,<br />
• R=-1 wtedy i tylko wtedy, gdy wystepowanie jednego z wariantów wyklucza pojawienie<br />
sie drugiego z nich.<br />
Ten wspóªczynnik korelacji pozwala wnioskowa¢ o niezale»no±ci (lub okre-<br />
±lonym typie zale»no±ci) dwu wyró»nionych wariantów cech X i Y.<br />
Ujemna warto±¢ empirycznego wsp. korelacji oznacza, »e wzgledna czesto±¢ ªacznego<br />
wystepowania wariantów x i i y j jest mniejsza ni» dla niezale»nych cech Xi Y, dodatnia<br />
oznacza, »e wzgledna czesto±¢ równoczesnego wystepowania wariantów x i i y j jest wieksza<br />
ni» dla niezale»nych cech X i Y.<br />
Wzór denicyjny mo»na przepisa¢ w formie wygodniejszej dla oblicze«:
SMOP-2 B.Kamys: 2007/08 126<br />
R xi y j<br />
=<br />
n · n ij − n i· · n·j<br />
√<br />
ni· · (n − n i·) · n·j · (n − n·j )<br />
PRZYKŠAD (zaczerpniety z [14]):<br />
Dostawcy<br />
Jako±¢ surowców B1 B2 B3 B4 Ogóªem<br />
Dobra A1 35 23 60 31 149<br />
Przecietna A2 17 11 15 20 63<br />
Zªa A3 6 7 10 15 38<br />
Ogóªem 58 41 85 66 250<br />
Macierz wspóªczynników R Ai ,B j<br />
(to nie jest zwykªa macierz korelacji !!):<br />
Dostawcy<br />
Jako±¢ surowców B1 B2 B3 B4<br />
Dobra A1 0,0083 -0,0316 0,1607 -0,1542<br />
Przecietna A2 0,0520 0,0166 -0,1249 0,0704<br />
Zªa A3 -0,0743 0,0231 -0,0687 0,1256<br />
Przeglad warto±ci wspóªczynników korelacji pokazuje, »e najwieksza dodatnia warto±¢<br />
ma wspóªczynnik R A1 ,B 3<br />
=0,1607 a najmniejsza (ujemna) wspóªczynnik R A1 ,B 4<br />
=-0,1542.<br />
Drugi najwiekszy wspóªczynnik korelacji to R A3 ,B 4<br />
=0,1256 a drugi najmniejszy (ujemny)<br />
to wspóªczynnik R A1 ,B 4<br />
=-0,1249. Nale»y to interpretowa¢ w ten sposób, »e:<br />
• Surowce dostarczane przez dostawce B3 maja dobra jako±¢ wyra¹nie cze±ciej ni»<br />
gdyby to byªo przypadkowe (R A1 ,B 3<br />
=0,1607),<br />
• Surowce dostraczane przez dostawce B4 maja dobra jako±¢ wyra¹nie rzadziej, ni»<br />
gdyby to byªo przypadkowe (R A1 ,B 4<br />
=-0,1542).
SMOP-2 B.Kamys: 2007/08 127<br />
• Surowce dostarczane przez dostawce B4 maja zªa jako±¢ cze±ciej ni» gdyby to byªo<br />
przypadkowe (R A3 ,B 4<br />
=0,1256),<br />
• Surowce dostarczane przez dostawce B3 maja przecietna jako±¢ rzadziej ni» gdyby<br />
to byªo przypadkowe (R A1 ,B 4<br />
=-0,1249).<br />
(uogólnienie z przy-<br />
TEST CHI-KWADRAT NIEZALE›NO‘CI CECH X i Y<br />
padku 2x2)<br />
Hipoteza zerowa:<br />
Ka»de zdarzenie losowe x i jest parami niezale»ne od ka»dego ze zdarze« y j .<br />
Statystyka testowa:<br />
X 2 =<br />
r ∑<br />
c∑<br />
i=1 j=1<br />
ˆn ij = n n i·<br />
n<br />
n·j<br />
n<br />
(n ij −ˆn ij ) 2<br />
ˆn ij<br />
K. Pearson udowodniª, »e ta statystyka ma przy prawdziwo±ci hipotezy zerowej asymptotycznie<br />
(tzn. dla n→ ∞) rozkªad chi-kwadrat o (r-1)(c-1) stopniach swobody.<br />
Obszar krytyczny: prawostronny.<br />
PRZYKŠAD (zaczerpniety z [14]):<br />
Korzystajac z danych umieszczonych w tabeli z poprzedniego przykªadu mo»na wyliczy¢<br />
macierz warto±ci<br />
⎡<br />
ˆn ij =<br />
⎢<br />
⎣<br />
35, 0 24, 4 50, 7 38, 9<br />
14, 6 20, 3 21, 4 16, 7<br />
8, 4 6, 3 12, 9 10, 4<br />
⎤<br />
⎥<br />
⎦<br />
wstawiajac te wielko±ci do wzoru na statystyke testowa dostaniemy:
SMOP-2 B.Kamys: 2007/08 128<br />
X 2 =<br />
(35 − 35)2<br />
35<br />
+<br />
(23 − 24, 4)2<br />
24, 4<br />
+ . . . +<br />
(15 − 10, 4)2<br />
10, 4<br />
= 10, 8<br />
Liczba stopni swobody zmiennej χ 2 wynosi 6≡ (3 − 1) · (4 − 1). Obszar krytyczny na<br />
poziomie istotno±ci α=0,1 to X 2 > χ 2 6 (1 − α) ≡ χ2 6<br />
(0, 9) = 16, 8.<br />
Poniewa» X 2 jest mniejsze od tej warto±ci, wiec nie ma podstaw do odrzucenia H 0 .<br />
11.10.6 MIARY SIŠY ZWIA ZKU NOMINALNYCH CECH JAKO‘CIO-<br />
WYCH<br />
W dwu poprzednich rozdziaªach zajmowali±my sie metodami stwierdzenia, »e zmienne<br />
jako±ciowe nie sa od siebie niezale»ne. Po zastosowaniu tych metod mogli±my dowiedzie¢<br />
sie, »e zwiazek statystyczny istnieje ale nie dostali±my iformacji czy jest to silny zwiazek.<br />
Jak nale»y rozumie¢ okre±lenie sªaby zwiazek lub silny zwiazek ?<br />
Dla zmiennych ilo±ciowych jest to ªatwe do zdeniowania - najsilniejszym zwiazkiem<br />
bedzie zwiazek funkcyjny, który polega na tym, »e warto±¢ argumentu (pierwsza rozpatrywana<br />
zmienna) jednoznacznie okre±la warto±¢ funkcji (druga rozpatrywana zmienna) i<br />
vice versa (gdy funkcja jest monotoniczna).<br />
Dla zmiennych jako±ciowych mo»emy przez analogie rozumowa¢, »e silny zwiazek to<br />
taki, przy którym przyjmowanie przez zmienna jako±ciowa jakiej± kategorii powoduje, »e<br />
druga zmienna jako±ciowa te» bedzie nale»e¢ do wybranej kategorii.<br />
Na przykªad, jako jedna zmienna jako±ciowa mo»emy przyja¢ rodzaj podawanego leku<br />
a jako druga skuteczno±¢ kuracji. Kategoriami pierwszej zmiennej sa konkretne leki a<br />
kategoriami drugiej zmiennej jest pozytywny lub negatywny skutek leczenia. Gdy podanie<br />
leku A zawsze ko«czy sie wyleczeniem pacjenta a podanie leku B zawsze nie przynosi<br />
skutku to wtedy w sposób oczywisty mamy do czynienia z najsilniejszym mo»liwym<br />
zwiazkiem pomiedzy rodzajem leku i skuteczno±cia terapii. Warto zauwa»y¢, »e dla tablic<br />
kontyngencji 2x2 jest to przypadek odpowiadajacy maksymalnej ró»nicy warto±ci iloczynu<br />
elementów na gªównej i drugiej przekatnej. Jak przekonamy sie za chwile, jest to jedna z<br />
cech wykorzystywanych do oceniania miary siªy zwiazku.<br />
MIARY SIŠY ZWIA ZKU OPARTE O χ 2 .<br />
Korzystajac ze wzoru (88) na X 2 oraz wzorów na E ij podanych w tabeli (4) widzimy, »e<br />
X 2 zeruje sie dla niezale»nych zmiennych bo iloczyny wyrazów na przekatnych sa identyczne.<br />
Z drugiej strony wiemy z rozwa»a« podanych powy»ej »e najsilniejszy zwiazek<br />
odpowiada sytuacji, gdy jest maksymalna ró»nica iloczynów wyrazów na obu przekatnych,
SMOP-2 B.Kamys: 2007/08 129<br />
co wg wzoru (88) oznacza najwieksza warto±¢ statystyki X 2 . To mogªoby nasuna¢ przypuszczenie,<br />
»e warto±¢ tej statystyki mogªaby by¢ miara siªy zwiazku. Niestety warto±¢<br />
X 2 zale»y nie tylko od siªy zwiazku ale równie» od liczebno±ci próby - ro±nie proporcjonalnie<br />
do liczebno±ci próby.<br />
Gdy zwiekszymy N-krotnie liczebno±¢ próby n to wszystkie liczebno±ci O ij i E ij <br />
równie» powieksza sie N-krotnie. To spowoduje, »e statystyka X 2 tak»e zwiekszy sie N-<br />
krotnie (licznik N 2 -krotnie a mianownik N-krotnie). Dzieje sie tak przy tym samym zwiazku<br />
pomiedzy zmiennymi a wiec wida¢, »e musimy sie pozby¢ zale»no±ci od liczebno±ci próby<br />
aby mo»na byªo statystyke X 2 u»ywa¢ jako miare siªy zwiazku.<br />
Jako miare siªy zwiazku dla próby o liczebno±ci n wprowadza sie nastepujaca statystyke<br />
(nazywana czasem wspóªczynnikiem Yule'a):<br />
Φ 2 ≡ X2<br />
n . (92)<br />
Dla tablic 2xk (a wiec i dla tablic 2x2 ) Φ 2 przyjmuje warto±ci z przedziaªu<br />
[0,1], przy czym niezale»nym zmiennym odpowiada warto±¢ zero a najsilniejszemu<br />
zwiazkowi warto±¢ jeden. W ogólnym przypadku tablic rxc Φ 2 mo»e<br />
znacznie przekroczy¢ jedno±¢.<br />
Dlatego wprowadzono równie» inne miary siªy zwiazku oparte na statystyce X 2 [10].<br />
Sa to:<br />
• wspóªczynnik T - Czuprowa,<br />
• wspóªczynnik C - Cramera (nazywany równie» wspóªczynnikiem V - Cramera) i<br />
• wspóªczynnik P - Pearsona (nazywany tak»e wspóªczynnikiem C - Pearsona).<br />
WSPÓŠCZYNNIK T CZUPROWA:<br />
T ≡<br />
X 2<br />
√ √<br />
n · (r − 1)(c − 1) ± σ(X 2 )<br />
√<br />
2 · n · (r − 1)(c − 1) · T<br />
(93)<br />
Wspóªczynnik T osiaga warto±¢ +1 przy najsilniejszym zwiazku tylko wtedy gdy liczby<br />
kolumn (c) i wierszy (r) sa takie same. W przeciwnym wypadku jest mniejszy od jedno±ci.<br />
Najwieksza jego warto±¢ to:
SMOP-2 B.Kamys: 2007/08 130<br />
max(T ) = √<br />
min(r − 1, c − 1)<br />
max(r − 1, c − 1)<br />
Gdy zmienne nie sa wspóªzale»ne to wspóªczynnik T zeruje sie.<br />
Poniewa» wspóªczynnik T jest statystyka, wiec jest obarczony bªedem. Estymator<br />
bªedu jest równie» podany we wzorze (93). Oczywi±cie wzór ten jest dany dla T ≠ 0.<br />
WSPÓŠCZYNNIK C CRAMERA<br />
X<br />
C ≡ √<br />
2<br />
n · min[(r − 1)(c − 1)] ± σ(X 2 )<br />
2 · n · min(r − 1, c − 1) · C<br />
(94)<br />
Wspóªczynnik C Cramera zachowuje sie podobnie jak wspóªczynnik Czuprowa, tzn.<br />
znika gdy nie ma zale»no±ci pomiedzy zmiennymi a ro±nie gdy zale»no±¢ taka pojawia sie<br />
ale ma te zalete, »e jego maksymalna warto±¢ jest równa +1 dla dowolnej liczby wierszy i<br />
kolumn. Bªad tego wspóªczynnika podany we wzorze (94) równie» jest okre±lony tylko<br />
dla C ≠ 0.<br />
WSPÓŠCZYNNIK P PEARSONA:<br />
P ≡ √<br />
X2<br />
X 2 + n ± n · σ(X 2 )<br />
(95)<br />
2 ·<br />
√X 2 · (n + X 2 ) 3<br />
Wspóªczynnik P jest zawsze mniejszy od jedno±ci. Dla zmiennych caªkowicie niezale»nych<br />
ten wspóªczynnik zeruje sie ale przy istnieniu zwiazku miedzy zmiennymi jego<br />
warto±¢ zale»y od liczby wierszy i kolumn tablicy kontyngencji. Na przykªad, dla tablic<br />
2x2 przyjmuje warto±¢ 1 √<br />
2<br />
.<br />
Powy»sze trzy wspóªczynniki wykorzystuja wªasno±ci statystyki X 2 a jedynie sa w<br />
ró»ny sposób normowane. Dzieki jednoznacznej normalizacji (zero dla zmiennych niezale»-<br />
nych, jeden dla najsilniejszego zwiazku) najbardziej wygodnym wspóªczynnikiem wydaje<br />
sie by¢ wspóªczynnik C - Cramera. W literaturze mo»na jednak spotka¢ sie z u»ywaniem<br />
wszystkich trzech wspóªczynników.<br />
Poni»ej podamy jeszcze jeden wspóªczynnik u»ywany do okre±lania siªy zwiazku pomiedzy<br />
nominalnymi zmiennymi jako±ciowymi nie wykorzystujacy statystyki X 2 . Jest to wielko±¢<br />
nazywana wspóªczynnikiem Q - Kendalla mimo i» Kendall gªosi autorstwo Yule'a<br />
[10].
SMOP-2 B.Kamys: 2007/08 131<br />
WSPÓŠCZYNNIK Q - KENDALLA stosowany tylko dla tablic kontyngencji 2x2<br />
zdeniowany jest nastepujacym wzorem:<br />
Q ≡ m 1 · (n 2 − m 2 ) − m 2 · (n 1 − m 1 )<br />
m 1 · (n 2 − m 2 ) + m 2 · (n 1 − m 1 )<br />
(96)<br />
Jest to jak wida¢ unormowany wyznacznik tablicy kontyngencji. Dlatego przyjmuje<br />
warto±ci z przedziaªu [−1, +1], przy czym dla zmiennych niezale»nych zeruje sie a<br />
dla najsilniejszego zwiazku Q = ±1.
SMOP-2 B.Kamys: 2007/08 132<br />
11.11 Test istotno±ci dla wspóªczynnika korelacji Pearsona<br />
Wspóªczynnik korelacji ϱ(X, Y ), który omawiali±my przy deniowaniu macierzy kowariancji<br />
• mówi o istnieniu zale»no±ci liniowej zmiennych X i Y gdy jego warto±¢ zbli»ona<br />
jest (co do moduªu) do jedno±ci,<br />
• zeruje si¦, gdy zmienne X i Y s¡ niezale»ne statystycznie (tw. odwrotne nie zawsze<br />
jest sªuszne, tj. zerowanie si¦ wspóªczynnika korelacji jest warunkiem koniecznym a<br />
nie wystarczaj¡cym niezale»no±ci zmiennych).<br />
Wa»ne jest wi¦c badanie nast¦puj¡cych hipotez:<br />
1. H 0 : ϱ = ϱ 0<br />
2. H 0 : ϱ = 0<br />
Estymatorem wspóªczynnika korelacji T n (ϱ) jest<br />
r ≡<br />
n∑<br />
i=1<br />
√ [ n∑<br />
(x i − ¯x) (y i − ȳ)<br />
] [ n∑<br />
].<br />
(x i − ¯x) 2 (y i − ȳ) 2<br />
i=1<br />
i=1<br />
R.A. Fisher pokazaª, »e je»eli zmienne X i Y pochodz¡ z dwuwymiarowego rozkªadu<br />
Gaussa to mo»na poda¢ ±cisªy wzór na rozkªad estymatora r wspóªczynnika korelacji ϱ<br />
sªuszny dla wszystkich warto±ci ϱ (z wyj¡tkiem |ϱ| = 1) i dla wszystkich rozmiarów<br />
próby n:<br />
f (r) = n − 2<br />
π<br />
(<br />
1 − ϱ<br />
2 ) n−1<br />
2<br />
(<br />
1 − r<br />
2 ) n−4<br />
2<br />
∫1<br />
0<br />
t n−2 dt<br />
(1 − rϱt) n−1 √ 1 − t 2<br />
Rozkªad ten mo»e by¢ u»yty do numerycznego obliczania odpowiednich warto±ci krytycznych<br />
r(n, α) przy ustalonej warto±ci ϱ. Ze wzgl¦du na to, »e tego typu obliczenia<br />
mog¡ by¢ skomplikowane a stosowanie tablic lub procedur obliczania kwantyli rozkªadu<br />
standardowego normalnego jest powszechnie znane wi¦c najcz¦±ciej nie korzysta si¦ z<br />
powy»szego wzoru lecz posªuguje si¦ wynikami twierdzenia podanego poni»ej (tak»e udowodnionego<br />
przez R.A. Fishera).<br />
TWIERDZENIE: Je»eli r jest estymatorem wspóªczynnika korelacji z próby prostej o<br />
liczebno±ci n > 3 z populacji o dwuwymiarowym rozkªadzie normalnym i wspóªczynniku<br />
korelacji ϱ to zmienna z zdeniowna poni»ej ma w przybli»eniu standardowy rozkªad<br />
normalny: f(z) = N(0, 1):<br />
z = √ [ 1<br />
n − 3<br />
2<br />
]<br />
(1 + r) (1 − ϱ)<br />
ln<br />
(1 − r) (1 + ϱ) − ϱ<br />
2 (n − 1)
SMOP-2 B.Kamys: 2007/08 133<br />
ad (1) H 0 : ϱ = ϱ 0 Stosujemy powy»sze przeksztaªcenie i w zale»no±ci od hipotezy<br />
alternatywnej okre±lamy obszar krytyczny dla danego poziomu istotno±ci α.<br />
H 1<br />
Obszar krytyczny<br />
ϱ ≠ ϱ 0 z < z α/2<br />
⋃ z > z1−α/2<br />
ϱ > ϱ 0<br />
z > z 1−α<br />
ϱ < ϱ 0<br />
z < z α<br />
ad (2) H 0 : ϱ = 0 Dla tej szczególnej warto±ci ϱ 0 mo»na u»y¢ tej samej metody jak<br />
dla innych, rozwa»anych powy»ej warto±ci ale mo»na skorzysta¢ z innego przeksztaªcenia:<br />
TWIERDZENIE: Je»eli badana próba prosta o liczebno±ci n pochodzi z dwuwymiarowej<br />
populacji normalnej, w której ϱ = 0, to zmienna losowa v zdeniowana<br />
poni»ej ma rozkªad Studenta o n − 2 stopniach swobody.<br />
v =<br />
√ n − 2 · r<br />
√ 1 − r<br />
2<br />
Korzystamy wówczas z poni»szych reguª okre±lania obszaru krytycznego:<br />
H 1<br />
Obszar krytyczny<br />
ϱ ≠ 0 v < t (n−2); α/2<br />
⋃ v > t(n−2); 1−α/2<br />
ϱ > 0<br />
ϱ < 0<br />
v > t (n−2); 1−α<br />
v < t (n−2); α
SMOP-2 B.Kamys: 2007/08 134<br />
11.12 Test istotno±ci dla stosunku korelacyjnego<br />
W przypadku, gdy badamy nieliniowy zwi¡zek pomi¦dzy zmiennymi X i Y zastosowanie<br />
wspóªczynnika korelacji liniowej ϱ(x, y) (Pearsona) nie daje nam peªnej informacji o<br />
postulowanym zwi¡zku lub o jego braku. Spowodowane jest to tym, »e zerowanie si¦<br />
tego wspóªczynnika korelacji mo»e zachodzi¢ równie» wtedy gdy istnieje ±cisªy zwi¡zek<br />
nieliniowy pomi¦dzy zmiennymi.<br />
Dla siªy nieliniowego zwi¡zku statystycznego pomi¦dzy ilo±ciowymi zmiennymi losowymi<br />
X i Y stosuje si¦ wi¦c inny wielko±ci. S¡ nimi:<br />
1. Wspóªczynnik zgodno±ci ϕ 2<br />
2. Wspóªczynnik korelacji krzywoliniowej R ≡ √ 1 − ϕ 2<br />
3. Stosunek korelacyjny zmiennej Y wzgl¦dem X: H 2 X|Y<br />
4. Stosunek korelacyjny zmiennej X wzgl¦dem Y: H 2 Y |X<br />
ad (1): Wspóªczynnik zgodno±ci deniuje si¦ jako:<br />
ϕ 2 =<br />
n∑<br />
i=1<br />
n∑<br />
[y i − f(x i )] 2<br />
i=1<br />
[y i − ȳ] 2<br />
gdzie y i i x i to zmierzone pary warto±ci zmiennych Y i X wyst¦puj¡ce w próbie o<br />
liczebno±ci n , ȳ to ±rednia arytmetyczna warto±ci zmiennej Y w próbie a f(x) to funkcja<br />
regresji z parametrami dobranymi metod¡ najmniejszych kwadratów.<br />
Zgodnie z podstawow¡ wªasno±ci¡ funkcji regresji i metody najmniejszych kwadratów<br />
suma kwadratów w liczniku musi by¢ nie wi¦ksza od sumy kwadratów w mianowniku a<br />
wi¦c wspóªczynnik zgodno±ci musi by¢ mniejszy lub równy jedno±ci a jako iloraz nieujemnych<br />
liczb musi by¢ nieujemny:<br />
0 ≤ ϕ 2 ≤ 1.<br />
Oczywi±cie im lepiej funkcja regresji odtwarza zwi¡zek Y (X) tym mniejszy jest wspóªczynnik<br />
zgodno±ci.<br />
ad (2): Wspóªczynnik korelacji krzywoliniowej R równie» przyjmuje warto±ci z tego<br />
samego zakresu co wspóªczynnik zgodno±ci przy czym cz¦±ciej u»ywa si¦ kwadratu tego<br />
wspóªczynnika:<br />
R 2 = 1 −<br />
n∑<br />
i=1<br />
n∑<br />
[y i − f(x i )] 2<br />
i=1<br />
[y i − ȳ] 2
SMOP-2 B.Kamys: 2007/08 135<br />
Wida¢, »e w przypadku gdy funkcja regresji bardzo dobrze opisuje zale»no±¢ Y (X)<br />
to uªamek znika i R 2 ≈ 1. Co wi¦cej, mo»na pokaza¢, »e dla liniowego zwi¡zku<br />
Y(X) wspóªczynnik R 2 jest równy kwadratowi zwykªego wspóªczynnika korelacji<br />
Pearsona r 2 .<br />
ad (3): H 2 Y |X<br />
- stosunek korelacyjny zmiennej Y wzgl¦dem zmiennej X.<br />
Oba powy»sze wspóªczynniki, tj. ϕ 2 i R 2 mog¡ by¢ zastosowane do okre±lenia jako±ci<br />
opisu zale»no±ci Y (X) przez funkcj¦ regresji ale aby to wykona¢ musimy zna¢ parametry<br />
funkcji regresji. Z tego powodu, nie jeste±my w stanie powiedzie¢ bez dopasowania warto±ci<br />
parametrów tej funkcji, czy zmienne X i Y s¡ powi¡zane nieliniowym zwi¡zkiem<br />
statystycznym.<br />
Aby pokona¢ t¦ trudno±¢ K. Pearson zaproponowaª zastosowanie, tzw.<br />
korelacyjnego:<br />
stosunku<br />
H 2 Y |X<br />
E [E(Y |X) − E(Y )]2<br />
≡ ,<br />
σ 2 (Y )<br />
którego estymatorem jest<br />
η 2 Y |X =<br />
l∑<br />
i=1<br />
m∑<br />
k=1<br />
[ȳ(¯x i ) − ȳ] 2 n i·<br />
,<br />
[ȳ k − ȳ] 2 n·k<br />
gdzie prób¦ (x j , y j ), j = 1, ..., n podzielono na mniejsze próby o liczebno±ciach n i,k , i =<br />
1, ...l, k = 1, ..., m, przy czym ka»da grupa ma centrum (¯x i , ȳ k ) a suma liczebno±ci<br />
wynosi n: ∑ i,k<br />
n i,k = n.<br />
Symbol ȳ(¯x i ) jest ±redni¡ warunkow¡, tj. ±redni¡ ze zmiennej (y|¯x i ) a symbole<br />
n i· = ∑ n i,k oraz n·k = ∑ n i,k .<br />
k<br />
i<br />
Estymator stosunku korelacyjnego mo»e by¢ policzony tak»e wg nast¦puj¡cego wzoru:<br />
η 2 Y |X = 1 −<br />
l∑ m∑<br />
[ȳ k − ȳ(¯x i )] 2 n ik<br />
i=1 k=1<br />
m∑<br />
k=1<br />
[ȳ k − ȳ] 2 n·k<br />
Z tego wzoru wida¢, »e η 2 Y |X<br />
= 1 wtedy i tylko wtedy, gdy ȳ k = ȳ(¯x i ) dla ka»dej<br />
niezerowej liczebno±ci n i,k . Zachodzi to tylko wtedy, gdy dla ka»dej warto±ci x i zmienna
SMOP-2 B.Kamys: 2007/08 136<br />
Y przyjmuje tylko jedn¡ warto±¢ a wi¦c istnieje dla caªej próby zwi¡zek funkcyjny y i =<br />
y(x i ). Z kolei z pierwszego wzoru na stosunek korelacyjny wida¢, »e b¦dzie si¦ on zerowaª<br />
wtedy i tylko wtedy gdy ȳ(¯x i ) − ȳ a wi¦c gdy zmienna y przyjmuje t¦ sam¡ warto±¢ ȳ<br />
dla wszystkich warto±ci x. Wtedy oczywi±cie zmienne s¡ nieskorelowane.<br />
Z tych rozwa»a« wynika, »e:<br />
0 ≤ η 2 Y |X ≤ 1.<br />
ad (4.): Analogicznie do stosunku korelacyjnego zmiennej Y wzgl¦dem X mo»na<br />
stworzy¢ niezale»ny od niego wspóªczynnik korelacyjny zmiennej X wzgl¦dem zmiennej<br />
Y : H 2 X|Y . H 2 X|Y<br />
E [E(X|Y ) − E(X)]2<br />
≡ ,<br />
σ 2 (X)<br />
którego estymator liczy si¦ wg poni»szych wzorów:<br />
k=1<br />
l∑<br />
η 2 X|Y = m∑<br />
i=1<br />
[¯x(ȳ k ) − ¯x] 2 n·k<br />
[¯x i − ¯x] 2 n i·<br />
= 1 −<br />
m∑ l∑<br />
[¯x i − ¯x(ȳ k )] 2 n ik<br />
k=1 i=1<br />
l∑<br />
i=1<br />
[¯x i − ¯x] 2 n i·<br />
Mo»na pokaza¢, »e zachodz¡ nast¦puj¡ce relacje pomi¦dzy stosunkami korelacyjnymi<br />
i wspóªczynnikiem korelacji krzywoliniowej R:<br />
R 2 ≤ η 2 X|Y<br />
∩ R 2 ≤ η 2 Y |X<br />
Wystarczy wi¦c pokaza¢, »e którykolwiek stosunek korelacyjny zeruje si¦ aby równie»<br />
zerowaª si¦ wspóªczynnik korelacji krzywoliniowej.<br />
Hipotez¦: H 0 : H 2 Y |X<br />
= 0 testuje si¦ wprowadzaj¡c statystyk¦ testow¡:<br />
F = η2 Y |X n − l<br />
1 − ηY 2 |X<br />
l − 1 ,
SMOP-2 B.Kamys: 2007/08 137<br />
która ma rozkªad F (l−1),(n−l) tj. rozkªad Fishera-Snedecora o (l − 1), (n − l) stopniach swobody.<br />
Obszar krytyczny: prawostronny, tj. F > (F (l−1),(n−l) ) 1−α gdzie α jest poziomem istotno±ci.<br />
Analogicznie przebiega testowanie hipotezy: H 0 : H X|Y = 0.<br />
Jako statystyk¦ testow¡ bierze si¦:<br />
F =<br />
η2 X|Y<br />
1 − η 2 X|Y<br />
n − m<br />
m − 1 ,<br />
która ma rozkªad F (m−1),(n−m) , tj. rozkªad Fishera-Snedecora o (m − 1), (n − m)<br />
stopniach swobody. Oczywi±cie obszar krytyczny jest te» prawostronny.
SMOP-2 B.Kamys: 2007/08 138<br />
12 METODA MONTE CARLO<br />
Metoda ta polega na przyporzadkowaniu problemowi matematycznemu lub przyrodniczemu<br />
równowa»nego problemu statystycznego i rozwiazaniu go metodami statystyki.<br />
Szczególnie po»yteczna okazaªa sie w przypadkach, gdy szczegóªy badanego problemu<br />
sa zrozumiaªe i daªyby sie rozwiaza¢ analitycznie ale rachunki takie sa zbyt czasochªonne,<br />
np. policzenie caªek wielokrotnych gdy wymiar przestrzeni caªkowania jest du»y czy te»<br />
±ledzenie losu neutronów przechodzacych przez niejednorodne ±rodowisko takie jak w<br />
reaktorze jadrowym i jego obudowie. Ten ostatni przykªad, tj. ±ledzenie losu neutronów<br />
przy ªa«cuchowej reakcji rozszczepienia prowadzacej do wybuchu bomby atomowej<br />
byª pierwszym zastosowaniem tej metody zaproponowanej przez J. von Neumanna i S.<br />
Ulama.<br />
Zwykle udaje sie zastapi¢ poszukiwanie rozwiazania oryginalnego problemu przez estymacje<br />
warto±ci oczekiwanej pewnej funkcji na podstawie próby statystycznej skªadajacej<br />
sie z zespoªu warto±ci tej funkcji obliczonego dla wylosowanych warto±ci argumentu.<br />
W zwiazku z tym pojawiaja sie nastepujace pytania:<br />
1. Jak sformuªowa¢ problem statystyczny, tzn. jak ma wyglada¢ funkcja dla której<br />
poszukujemy warto±ci oczekiwanej ? Bierzemy przy tym pod uwage:<br />
• Jak zminimalizowa¢ blad estymacji przy ustalonym rozmiarze próby statystycznej<br />
?<br />
• Z jakim rozkªadem prawdopodobie«stwa (gesto±ci prawdopodobie«stwa) nale»y<br />
losowa¢ warto±ci argumentu funkcji ?<br />
2. W jaki sposób przeprowadzi¢ generacje liczb losowych ?<br />
Odpowiedzi na te pytania zale»a od rozwiazywanego problemu. Poni»ej beda przedstawione<br />
przykªady jak mo»na dobiera¢ posta¢ funkcji i jakie pojawiaja sie wtedy rozkªady<br />
prawdopodobie«stwa gdy stosuje sie metode Monte Carlo do liczenia caªek.<br />
12.1 LICZENIE CAŠEK METODA MONTE CARLO<br />
Caªke<br />
I ≡<br />
mo»emy zapisa¢ w równowa»nej postaci<br />
I =<br />
∫ b<br />
a<br />
∫ b<br />
a<br />
f(x)dx<br />
g(x) · f(x) · dx<br />
g(x)<br />
∫<br />
gdzie funkcja g(x) > 0 oraz b g(x)dx = 1 - czyli g(x) jest pewna funkcja gesto±ci<br />
prawdopodobie«stwa na odcinku [a,b]).<br />
a
SMOP-2 B.Kamys: 2007/08 139<br />
Porównujac drugi wzór na caªke I ze wzorem na warto±¢ oczekiwana funkcji f(x)<br />
g(x) :<br />
{ } f(x)<br />
E ≡<br />
g(x)<br />
∫ b<br />
a<br />
dx · g(x) ·<br />
( ) f(x)<br />
g(x)<br />
dla gesto±ci prawdopo-<br />
wida¢, »e caªka jest po prostu warto±cia oczekiwana funkcji<br />
dobie«stwa g(x).<br />
f(x)<br />
g(x)<br />
W szczególno±ci jako funkcje g(x) mo»emy wzia¢ funkcje gesto±ci prawdopodobie«stwa<br />
rozkªadu jednorodnego na odcinku [a,b] i dostaniemy:<br />
I =<br />
∫b<br />
a<br />
1<br />
dx · · (b − a)f(x)<br />
(b − a)<br />
Estymatorem powy»szej warto±ci oczekiwanej jest ±rednia arytmetyczna<br />
T n (I) = (b − a) · 1 n∑<br />
f(x i )<br />
n i=1<br />
gdzie argumenty x i sa losowane z rozkªadem jednorodnym (równomiernym) na odcinku<br />
[a,b]. Jest to tzw. podstawowa metoda liczenia caªki metoda Monte Carlo.<br />
Dla wygody rozwa»a sie zwykle caªki liczone na odcinku [0,1] bo wtedy nie musimy<br />
jawnie wypisywa¢ dªugo±ci przedziaªu caªkowania a mo»na zawsze przez<br />
liniowa zmiane zmiennych przej±¢ do dowolnego odcinka [a,b]. W poni»szych<br />
rozwa»aniach bedziemy stosowa¢ te konwencje.<br />
Wzór na estymator caªki jest wtedy po prostu ±rednia arytmetyczna warto±ci funkcji<br />
podcaªkowej gdzie argumenty x i sa losowane z rozkªadem jednorodnym na przedziale<br />
[0,1].<br />
Bªad estymatora caªki to bªad ±redniej arytmetycznej :<br />
{ }<br />
1<br />
σ{I} = √ n∑<br />
σ 2 f(x i )<br />
n i=1<br />
= √ 1 ∑ n σ 2 {f(x<br />
n 2<br />
i )}<br />
i=1<br />
√<br />
n · σ2 {f}<br />
=<br />
n 2<br />
= σ{f} √ n
SMOP-2 B.Kamys: 2007/08 140<br />
Niestety ten wzór nie mo»e by¢ w praktyce stosowany bo liczenie σ{f} wymagaªoby<br />
znajomo±ci warto±ci szukanej caªki:<br />
σ 2 {f} =<br />
=<br />
∫ 1<br />
⎡<br />
∫ 1 ⎤2<br />
f 2 (x)dx − ⎣ f(x)dx⎦<br />
0<br />
∫1<br />
0<br />
0<br />
f 2 (x)dx − I 2<br />
Dlatego dla liczenia estymatora bªedu caªki S(I) zamiast σ{f} u»ywa sie estymatora<br />
S{f} liczonego wg wzoru:<br />
S (f) =<br />
√ 1 n∑<br />
[f(x i ) − T n (I)] 2<br />
n − 1 i=1<br />
S (I) = S (f) √ n<br />
gdzie T n (I) jest równe (ze wzgledu na jednostkowa dªugo±¢ przedziaªu caªkowania) ±redniej<br />
arytmetycznej z warto±ci funkcji f(x).<br />
Poniewa» przy liczeniu caªek chcieliby±my wiedzie¢ nie tylko jakie jest odchylenie standardowe<br />
estymatora caªki, lecz chcieliby±my okre±li¢ przedziaª gdzie prawie na pewno<br />
bedzie znajdowa¢ sie prawdziwa warto±¢ caªki to przyjeªo sie jako bªad caªki bra¢ po-<br />
ªowe przedziaªu ufno±ci na poziomie ufno±ci 0,9545, który równy jest podwojonej warto±ci<br />
odchylenia standardowego przy zaªo»eniu, »e ±rednia arytmetyczna ma rozkªad normalny.<br />
A wiec jako bªad caªki bierzemy wielko±¢:<br />
2S(f)<br />
√ n<br />
Z powy»szego wzoru wida¢, »e bªad liczenia caªki metoda Monte Carlo maleje proporcjonalnie<br />
do odwrotno±ci pierwiastka z liczby obliczanych warto±ci funkcji podcaªkowej<br />
1/ √ n. Dzieje sie tak niezale»nie od tego czy caªka jest liczona w przestrzeni<br />
jedno- czy wielowymiarowej . Na tym, przede wszystkim, polega przewaga metody<br />
Monte Carlo nad innymi metodami liczenia caªki.<br />
W przypadku caªki jednokrotnej taka przewaga nie ujawnia sie bo istnieje wiele innych<br />
metod numerycznych takich jak np. metoda Simpsona, Romberga czy Gaussa,<br />
które sa bardziej precyzyjne od metody Monte Carlo przy tej samej liczbie wyliczonych<br />
warto±ci funkcji podcaªkowej. Jednak»e gdyby±my chcieli zastosowa¢ która± z tych metod<br />
do caªki wielokrotnej to oka»e sie, »e otrzymanie maªego bªedu caªki wymaga przy
SMOP-2 B.Kamys: 2007/08 141<br />
zwiekszaniu wymiaru przestrzeni argumentów zwiekszania liczby oblicze« funkcji podcaªkowej<br />
w sposób proporcjonalny do n w , gdzie n jest liczba warto±ci jednego argumentu<br />
a w jest wymiarem przestrzeni argumentów. W odró»nieniu od tych metod wielko±¢<br />
bªedu estymatora caªki uzyskanego metoda Monte Carlo maleje tak jak bªad ±redniej<br />
arytmetycznej czyli proporcjonalnie do 1/ √ n niezale»nie od wymiaru przestrzeni<br />
argumentów. A wiec zwiekszanie wymiaru przestrzeni argumentów funkcji podcaªkowej<br />
nie musi przedªu»a¢ czasu obliczenia caªki.<br />
Rozwa»my prosty przykªad: do obliczenia caªki 10 krotnej, wyliczajac funkcje podcaªkowa<br />
10 razy dla ka»dego wymiaru musieliby±my obliczy¢ funkcje podcaªkowa 10 10 razy.<br />
Je»eli potramy w ciagu sekundy obliczy¢ funkcje podcaªkowa 10 000 razy to znalezienie<br />
warto±ci caªki wymagaªoby 1000 000 sekund czyli okoªo 12 dni i nocy. Tymczasem stosujac<br />
metode Monte Carlo, mo»emy oszacowa¢ warto±¢ caªki z dobr¡ dokªadno±cia (równ¡<br />
σ(f)/1000) wyliczajac 1000 000 razy funkcje podcaªkowa, tzn. skracajac czas oblicze«<br />
do 100 sekund.<br />
12.2 ZMNIEJSZANIE BŠEDU CAŠKI<br />
Podstawowa metoda stosowana w tym celu jest tzw. metoda ±redniej wa»onej (zwana<br />
po angielsku importance sampling). Polega ona na tym, »e zamiast losowa¢ argument<br />
funkcji podcaªkowej z rozkªadem jednorodnym losuje sie go z rozkªadem g(x) mo»liwie<br />
podobnym do funkcji podcaªkowej . Wtedy estymatorem caªki na przedziale [0,1]<br />
z funkcji f(x) jest ±rednia wa»ona:<br />
T n (I) = 1 n∑ f(x i )<br />
n i=1 g(x i )<br />
gdzie argumenty x i losowane sa cze±ciej tam gdzie funkcja f(x) jest du»a a wiec przyczynki<br />
do caªki sa znaczace stad angielska nazwa losowanie istotne.<br />
Mo»na pokaza¢, »e zastosowanie tej metody zawsze daje mniejszy bªad caªki ni» otrzymywany<br />
w metodzie podstawowej.<br />
Inna metoda jest tzw. losowanie warstwowe polegajace na rozbiciu przedziaªu<br />
caªkowania na mniejsze przedziaªy, w których funkcja podcaªkowa zmienia sie mo»liwie<br />
maªo jest prawie staªa. Wtedy u»ycie najprostszej metody podstawowej w ka»dym<br />
z przedziaªów zdecydowanie zmniejsza wariancje (bªad) caªki. Wida¢ to ewidentnie dla<br />
funkcji przedziaªami staªej. Tam metoda warstwowa daje bªad równy zeru (!).<br />
Tu tak»e mo»na pokaza¢, »e bªad caªki jest zawsze mniejszy lub równy od bªedu metody<br />
podstawowej.
SMOP-2 B.Kamys: 2007/08 142<br />
Metoda zmiennych kontrolnych to szukanie funkcji h(x) podobnej do f(x) ale<br />
takiej, »e caªka z h(x) na przedziale [0,1] jest znana. Wtedy mo»emy liczy¢ podstawowa<br />
metoda Monte Carlo caªke z ró»nicy f(x) − h(x). Jest to opªacalne je»eli liczenie<br />
funkcji h(x) nie jest zbyt pracochªonne. Zwykle przyjmuje sie, »e wspóªczynnik korelacji<br />
pomiedzy funkcjami f(x) i h(x) powinien speªnia¢ relacje: ρ(f(x), h(x)) ≥ √ 1 − 1 k<br />
gdzie k oznacza ile razy bardziej pracochªonne jest policzenie ró»nicy f(x) − h(x) od<br />
policzenia samej funkcji f(x).<br />
Metoda zmiennych antytetycznych<br />
Je»eli f 1 (ξ) i f 2 (η) sa dwoma estymatorami liczonej powy»ej caªki to ich ±rednia<br />
arytmetyczna g 2 te» bedzie estymatorem caªki:<br />
g 2 ≡ 1 2 (f 1 + f 2 ),<br />
przy czym je»eli oba estymatory f 1 i f 2 sa nieobcia»one to i estymator g 2 jest nieobcia»ony.<br />
Z drugiej strony wariancja estymatora g 2 bedzie zale»e¢ nie tylko od wariancji estymatorów<br />
f 1 i f 2 ale tak»e od ich kowariancji:<br />
σ 2 (g 2 ) ≡ 1 4 (σ2 (f 1 ) + σ 2 (f 2 )) + 1 2 cov(f 1, f 2 ).<br />
Je»eli kowariancja estymatorów bedzie ujemna i du»a co do moduªu, to wariancja estymatora<br />
g 2 mo»e by¢ mniejsza od wariancji ka»dego z estymatorów f 1 i f 2 . Powy»sze<br />
rozumowanie mo»na oczywi±cie rozszerzy¢ na ±rednia m estymatorów caªki.<br />
PRZYKŠAD:<br />
Je»eli funkcja podcaªkowa f(x) jest monotoniczna to jako dwa wy»ej omawiane estymatory<br />
mo»emy wzia¢ nastepujace funkcje: f 1 = f(x) i f 2 = f(1 − x). Wtedy<br />
estymator g 2 bedzie bardziej zbli»ony do staªej na odcinku [0,1] ni» ka»dy z dwu skªadników.<br />
To spowoduje, »e jego wariancja bedzie mniejsza od wariancji ka»dego ze skªadników<br />
a o to nam chodzi.<br />
Dla funkcji monotonicznej na caªym przedziale caªkowania mo»na dobra¢ inny wygodny<br />
estymator g 2 , który bedzie ±rednia wa»ona a nie ±rednia arytmetyczna a wagi<br />
dobierze sie tak aby najbardziej zmniejszy¢ wariancje estymatora g 2 :<br />
g 2 ≡ α · f(αx) + (1 − α) · f(1 − (1 − α)x) gdzie 0 < α < 1.<br />
Znalezienie optymalnej warto±ci wspóªczynnika α mo»e by¢ bardzo trudne, wiec czesto<br />
zadawalamy sie zastosowaniem nastepujacego, prostszego przepisu, który zwykle daje porównywalnie<br />
maªa wariancje caªki jak optymalna warto±¢ α. Jest to rozwiazanie równania:<br />
f(α) = (1 − α) · f(1) + α · f(0)<br />
Powy»sze przykªady liczenia caªki metoda Monte Carlo nie wyczerpuja wszystkich<br />
stosowanych wariantów tej metody lecz sªu»a raczej do ilustracji na czym polega problem<br />
doboru funkcji, dla której szukamy warto±ci oczekiwanej.
SMOP-2 B.Kamys: 2007/08 143<br />
12.3 GENERACJA LICZB LOSOWYCH<br />
Przy obliczeniach metoda Monte Carlo konieczna jest generacja liczb losowych o po»adanym<br />
rozkªadzie (gesto±ci) prawdopodobie«stwa. Liczby te w praktyce znajduje sie przy pomocy<br />
odpowiednich programów komputerowych co powoduje, »e ciagi liczb losowych otrzymane<br />
z tych samych startowych parametrów sa powtarzalne a wiec nie sa naprawde losowe. Z<br />
tej przyczyny u»ywa sie czesto okre±lenia liczby pseudolosowe.<br />
Najwa»niejszym ze stosowanych rozkªadów jest rozkªad jednorodny(równomierny,<br />
jednostajny), gdy» przy jego u»yciu mo»na wygenerowa¢ liczby pseudolosowe o innych<br />
po»adanych rozkªadach prawdopodobie«stwa. Jak bedzie pokazane poni»ej istnieja metody<br />
pozwalajace na stworzenie prostych i krótkich programów komputerowych do generacji<br />
liczb pseudolosowych o rozkªadzie jednorodnym. Mo»na wiec samemu napisa¢<br />
taki program. Okazuje sie jednak, »e bezpieczniej jest korzysta¢ z gotowych, o-<br />
pracowanych przez specjalistów procedur , gdy» speªniaja one nie tylko podstawowe<br />
wymagania narzucane na liczby pseudolosowe ale uwzgledniaja tak»e bardziej zaawansowane<br />
warunki, które musza by¢ zapewnione przy niektórych obliczeniach. Takimi godnymi<br />
polecenia generatorami liczb losowych sa na przykªad procedury RANLUX i RAN-<br />
MAR z biblioteki procedur CERN. Pierwszy z tych generatorów zostaª napisany przez<br />
F. Jamesa (Comp. Phys. Comm. 79 (1994) 111) i oznaczony jest symbolem V115 w bibliotece<br />
procedur CERN a drugi (stworzony w oparciu o raport G. Marsaglia, A. Zaman,<br />
and W.W. Tsang, Towards a Universal Random Number Generator, Supercomputer Computations<br />
Research Institute, Florida State University technical report FSU-SCRI-87-50<br />
(1987)) przez F. Carminati i F. Jamesa i wystepuje jako procedura V113 w bibliotece<br />
procedur CERN.<br />
12.3.1 Generacja liczb o rozkªadzie równomiernym<br />
W olbrzymiej wiekszo±ci przypadków ciagi liczb pseudolosowych tworzone sa przy pomocy<br />
zwiazków rekurencyjnych. Najlepiej zbadanym algorytmem jest tzw. metoda kongruencyjna,<br />
która generuje kolejna liczbe pseudolosowa w oparciu o k + 1 poprzednich wg<br />
wzoru:<br />
x n+1 = (a 0 x n + a 1 x n−1 + . . . + a k x n−k )(modM),<br />
gdzie zapis a(mod b) nale»y rozumie¢ jako reszte z dzielenia liczby a przez liczbe b.<br />
Liczba M a tak»e wszystkie liczby a i oraz x i sa liczbami caªkowitymi z przedziaªu [0, M).<br />
Generatory stanowiace szczególne przypadki powy»szego wzoru maja swoje specjalne<br />
nazwy. Generatory stosujace wzór:<br />
x n+1 = x n + x n−1 (modM)<br />
nazywane sa generatorami Fibonacciego,<br />
te, które u»ywaja relacji:<br />
x n+1 = a 0 x n (modM)
SMOP-2 B.Kamys: 2007/08 144<br />
okre±la sie mianem generatorów multiplikatywnych a oparte o wyra»enie:<br />
x n+1 = a 0 x n + a 1 (modM)<br />
nosza nazwe generatorów mieszanych.<br />
Wszystkie ciagi liczb pseudolosowych sa ciagami okresowymi. Dobry generator powinien<br />
mie¢ mo»liwie dªugi okres, tak dªugi aby w czasie wykonywania prac obliczeniowych<br />
wykorzystywa¢ tylko niewielka cze±¢ okresu. Maksymalny mo»liwy okres ciagu liczb losowych<br />
otrzymanych ogólna metoda kongruencyjna nie mo»e przekroczy¢ M k+1 . A wiec<br />
maksymalny okres generatora Fibonacciego to M 2 a generatora multiplikatywnego i mieszanego<br />
nie przekracza M. Te maksymalne warto±ci sa osiagane tylko przy odpowiednim<br />
doborze wspóªczynników formuªy rekurencyjnej. Na przykªad, mo»na pokaza¢, »e dªugo±¢<br />
okresu ciagu liczb losowych generatora mieszanego wynosi M wtedy i tylko wtedy, gdy<br />
speªnione sa nastepujace warunki:<br />
• a 1 i M nie maja wspólnych dzielników,<br />
• (a 0 − 1) jest wielokrotno±cia liczby pierwszej, która jest dzielnikiem liczby M,<br />
• (a 0 − 1) jest wielokrotno±cia liczby 4, o ile M jest te» wielokrotno±cia liczby 4.<br />
Od dobrego generatora, »adamy równie» aby mo»na byªo kolejne liczby pseudolosowe<br />
uwa»a¢ za niezale»ne. W szczególno±ci powinny by¢ niezale»ne liniowo. Mo»emy to<br />
sprawdzi¢ liczac wspóªczynniki korelacji pomiedzy parami liczb:<br />
ϱ j ≡ ϱ(x i , x i+j ).<br />
Wspóªczynniki korelacji ϱ j ,j=1,2,... powinny by¢ równe zero.<br />
Zamiast liczy¢ wspóªczynniki korelacji mo»na niezale»no±¢ liniowa generowanych liczb<br />
sprawdza¢ przez wykonanie pewnych kontrolnych zada« rachunkowych. Jednym z<br />
najprostszych zada« jest liczenie metoda Monte Carlo (np. podstawowa metoda szukania<br />
caªki) objeto±ci kuli o jednostkowym promieniu w przestrzeni N-wymiarowej. Objeto±¢<br />
kuli wynosi:<br />
V N = 2 π N/2<br />
N Γ(N/2) ,<br />
gdzie Γ(N/2) to funkcja gamma Eulera. Funkcja ta przyjmuje warto±¢ √ π dla argumentu<br />
1/2 i mo»e by¢ liczona rekurencyjnie wg wzoru Γ(z + 1) = z · Γ(z). Nawet<br />
niewielka korelacja pomiedzy generowanymi liczbami pseudolosowymi odbija sie wyra¹nie<br />
na wynikach oblicze« dyskredytujac stosowany generator.<br />
Inna, bardzo wa»na cecha generatora liczb pseudolosowych jest aby te liczby pokrywaªy<br />
przedziaª (0,1) odpowiednio gesto.<br />
Aby to prosto wyja±ni¢ we¹my pod uwage rekurencyjny algorytm, w którym nastepna<br />
liczba generowana jest przy pomocy poprzedniej: x n+1 = f(x n ). Je»eli wykre±limy na<br />
powierzchni jednostkowego kwadratu (czyli kwadratu o wierzchoªkach (0,0),(1,0),(1,1) i<br />
(0,1) poªo»enia punktów o wspóªrzednych (x = x n , y = x n+1 ) to w przypadku prawdziwych<br />
losowych liczb x n i x n+1 powinny one pokrywa¢ równomiernie powierzchnie
SMOP-2 B.Kamys: 2007/08 145<br />
kwadratu. Natomiast dla pseudolosowych liczb dostaniemy punkty le»ace na krzywej<br />
y = f(x). A wiec krzywa y = f(x) musi wielokrotnie i to w maªych odlegªo±ciach<br />
przechodzi¢ przez powierzchnie kwadratu aby zapewni¢ w miare równomierne pokrycie<br />
powierzchni kwadratu. Ten warunek podobnie jak i inne powy»ej wymienione jest jedynie<br />
warunkiem koniecznym aby generator mógª by¢ uznany za zadawalajacy generator.<br />
Dla surowego testowania generatorów wymy±lono caªy zestaw testów, które powinny<br />
by¢ speªniane przez dobre generatory (np. G. Marsaglia, A Current View of Random<br />
Number Generators, Computer Science and Statistics: 16th Symposium on the Interface,<br />
Elsevier (1985)). Wspomniane na wstepie generatory RANLUX, RANMAR przeszªy pomy±lnie<br />
ten zestaw testów.<br />
12.3.2 Generacja liczb losowych o dowolnych rozkªadach prawdopodobie«-<br />
stwa<br />
Je»eli dysponujemy ju» dobrym generatorem liczb pseudolosowych o rozkªadzie równomiernym<br />
na odcinku [0,1] to mo»emy przystapi¢ do generacji liczb o dowolnych rozkªadach<br />
prawdopodobie«stwa. Zacznijmy od generacji zmiennej dyskretnej przyjmujacej<br />
n warto±ci z zadanym rozkªadem prawdopodobie«stwa:<br />
P (x = x i ) = p i ,<br />
dla i = 1, 2, ...n<br />
W tym celu podzielmy przedziaª [0,1] na n przedziaªów o dªugo±ci ∆ i = p i . Litera γ<br />
oznacza¢ bedziemy wygenerowana zmienna o rozkªadzie równomiernym w przedziale [0,1].<br />
Wtedy ªatwo udowodni¢ nastepujace twierdzenie:<br />
TWIERDZENIE<br />
Losowa wielko±¢ x okre±lona formuªa<br />
ma poszukiwany rozkªad dyskretny.<br />
x = x i<br />
gdy γ ∈ ∆ i<br />
DOWÓD:<br />
♦<br />
P (x = x i ) = P (γ ∈ ∆ i ) = ∆ i = p i<br />
UWAGA 1: Powy»sze twierdzenie mo»na uogólni¢ na przypadek zmiennej dyskretnej<br />
przyjmujacej niesko«czenie wiele warto±ci. Wtedy zarówno warto±ci zmiennej x i jak<br />
i prawdopodobie«stwa p i okre±lone sa wzorami okre±lajacymi ich zale»no±¢ od wska¹nika<br />
i. Dla efektywnego losowania wybiera sie pewne n max tak du»e, »e suma prawdopodobie«stw<br />
n∑<br />
max<br />
i=1<br />
p i = 1 − ε
SMOP-2 B.Kamys: 2007/08 146<br />
jest bliska jedno±ci (tj. ε > 0 jest odpowiednio maªe) i dla wska¹ników i = 1, ..., n max<br />
wylicza sie przed generacja x i i p i (przechowujac je nastepnie w pamieci komputera) a<br />
obliczenia wg zadanych wzorów wykonuje sie tylko przy generacji maªo prawdopodobnych<br />
warto±ci x i (dla i > n max ).<br />
♦<br />
UWAGA 2: Czesto przy symulacji zjawisk przyrodniczych spotykamy sie z sytuacja, w<br />
której musimy zdecydowa¢ jakie zdarzenie spo±ród wszystkich mo»liwych i wykluczajacych<br />
sie zdarze« (A 1 , A 2 , ..., A n ) zachodzi w danym momencie je»eli znamy<br />
prawdopodobie«stwa tych zdarze«. Taka sytuacja dokªadnie odpowiada schematowi<br />
wyboru warto±ci zmiennej dyskretnej to»samej ze wska¹nikiem i danego zdarzenia A i o<br />
znanym rozkªadzie prawdopodobie«stw p i , i = 1, ..., n.<br />
♦<br />
Generacja zmiennej ciagªej z zadana funkcja gesto±ci prawdopodobie«stwa f(x).<br />
Zaªó»my, »e zmienna losowa x ma funkcje gesto±ci prawdopodobie«stwa f(x) > 0 w sko«-<br />
czonym lub niesko«czonym przedziale [a,b]. Wtedy dystrybuanta zmiennej x opisywana<br />
jest wzorem:<br />
i jest silnie rosnaca funkcja.<br />
F (x) =<br />
∫x<br />
a<br />
f(t)dt<br />
TWIERDZENIE<br />
Przy tych zaªo»eniach losowa wielko±¢ x okre±lona formuªa<br />
F (x) = γ<br />
ma funkcje gesto±ci prawdopodobie«stwa f(x).<br />
DOWÓD:<br />
Dla silnie rosnacej dystrybuanty F (x) mo»emy napisa¢ nastepujacy zespóª równa« (przez<br />
Y oznaczamy dystrybuante traktowana jako zmienna losowa):<br />
skad wynika, »e<br />
P (y < Y < y + dy) = P (x < X < x + dx)<br />
P (y < Y < y + dy) ≡ g(y)dy<br />
P (x < X < x + dx) ≡ f(x)dx<br />
g(y)dy = f(x)dx<br />
g(F (x))dF (x) = f(x)dx.
SMOP-2 B.Kamys: 2007/08 147<br />
Z denicji dystrybuanty wiadomo, »e:<br />
a wiec<br />
dF (x) = f(x)dx,<br />
g(F (x)) = 1,<br />
czyli dystrybuanta ma rozkªad równomierny w przedziale [0,1].<br />
Stad generujac warto±¢ liczby losowej γ okre±lamy jednoznacznie warto±¢ dystrybuanty<br />
F(x) a co za tym idzie warto±¢ zmiennej x o funkcji gesto±ci prawdopodobie«stwa f(x):<br />
x = F −1 (γ),<br />
gdzie F −1 (x) oznacza funkcje odwrotna do dystrybuanty.<br />
♦<br />
UWAGA 1: Je»eli funkcja gesto±ci prawdopodobie«stwa f(x) zeruje sie na pewnych odcinkach<br />
warto±ci argumentu to dystrybuanta F(x) nie jest funkcja silnie rosnaca i wtedy<br />
rozwiazanie równania F (x) = γ nie jest jednoznaczne (F(x) nie ma funkcji odwrotnej).<br />
Mo»na temu jednak zapobiec zastepujac funkcje odwrotna do dystrybuanty F −1 (x) przez<br />
funkcje G(y) zdeniowana nastepujaco:<br />
G(y) ≡<br />
inf x .<br />
{x|y
SMOP-2 B.Kamys: 2007/08 148<br />
PRZYKŠAD: Generacja zmiennej losowej x o rozkªadzie wykªadniczym dla x ≥ x 0 .<br />
Dystrybuanta:<br />
F (x) =<br />
⎧<br />
⎪⎨ C · exp[−C(x − x 0 )] dla x ≥ x 0<br />
f(x) =<br />
⎪⎩ 0 dla x < 0<br />
∫x<br />
x 0<br />
C · exp[−C(t − x 0 )] · dt = 1 − exp[−C(x − x 0 )].<br />
Rozwiazujemy ze wzgledu na x równanie F (x) = γ, gdzie γ jest pseudolosowa liczba<br />
o rozkªadzie równomiernym w [0,1]. Wstawiajac jawna posta¢ dystrybuanty dostajemy:<br />
1 − exp[−C(x − x 0 )] = γ. Rozwiazanie równania to:<br />
x = x 0 − 1 C<br />
· ln(1 − γ).<br />
♦<br />
Szukanie funkcji odwrotnej do dystrybuanty mo»e by¢ trudne ze wzgledów numerycznych.<br />
Wtedy czesto daje sie upro±ci¢ generacje stosujac tzw. metode superpozycji. U»ywa<br />
sie jej wtedy gdy dystrybuante zmiennej, która chcemy generowa¢ udaje sie przedstawi¢<br />
w postaci kombinacji liniowej dystrybuant o prostszej postaci, takich dla których ªatwo<br />
znale¹¢ funkcje odwrotne. Istotne jest, »e wspóªczynniki kombinacji liniowej (o sko«czonej<br />
lub niesko«czonej liczbie wyrazów) powinny mie¢ warto±ci nale»ace do przedziaªu (0,1)<br />
a ich suma ma by¢ równa jedno±ci, tak aby mo»na je byªo interpretowa¢ jako prawdopodobie«stwa.<br />
Wtedy kombinacje liniowa mo»na interpretowa¢ jako formuªe peªnego<br />
prawdopodobie«stwa:<br />
F (x) = N ∑<br />
N∑<br />
k=1<br />
k=1<br />
c k · F k (x)<br />
c k = 1, 0 < c k < 1<br />
W metodzie superpozycji generujemy dwie niezale»ne liczby losowe o rozkªadzie jednorodnym<br />
w [0,1]: γ 1 i γ 2 . Pierwsza z nich stosujemy do losowego wyboru warto±ci wska¹nika k<br />
(zgodnie z przepisem podanym wy»ej dla generacji warto±ci dyskretnej zmiennej) a druga<br />
do generacji warto±ci zmiennej x posiadajacej dystrybuante F k (x).<br />
PRZYKŠAD:<br />
Chcemy generowa¢ warto±ci zmiennej x o funkcji gesto±ci prawdopodobie«stwa:<br />
f(x) = 5 12 · [1 + (x − 1)4 ] dla x ∈ (0, 2).
SMOP-2 B.Kamys: 2007/08 149<br />
Dystrybuanta zmiennej x ma posta¢:<br />
F (x) = 5x<br />
12 + 1 12 · [(x − 1)5 + 1] dla x ∈ (0, 2)<br />
co powoduje, »e dla generacji metoda funkcji odwrotnych musieliby±my rozwiaza¢ równanie<br />
piatego stopnia:<br />
1 (<br />
(x − 1) 5 + 5x + 1 ) = γ.<br />
12<br />
Gdy przedstawimy funkcje gesto±ci prawdopodobie«stwa jako kombinacje liniowa o<br />
wspóªczynnikach c 1 = (5/6) i c 2 = (1/6) dwu funkcji gesto±ci prawdopodobie«stwa:<br />
f(x) =<br />
( 5<br />
6)<br />
· 1 ( ) 1<br />
2 + 6<br />
to dystrybuanta te» bedzie kombinacja liniowa postaci:<br />
F (x) =<br />
( 5<br />
6)<br />
· 5 (x − 1)4<br />
2<br />
· x ( ) 1<br />
2 + · 1<br />
6 2 [(x − 1)5 + 1].<br />
Wtedy generacja metoda funkcji odwrotnej dla obu prostszych dystrybuant daje jawne<br />
wzory na funkcje odwrotne i dostajemy nastepujacy przepis na wyliczenie x:<br />
♦<br />
x = 2γ 2 gdy γ 1 < 5/6<br />
= 1 + 5 √2γ 2 − 1 gdy γ 1 ≥ 5/6.<br />
Obok metody funkcji odwrotnych u»ywa sie dla generacji liczb losowych równie» inne<br />
metody, spo±ród których najbardziej popularna jest metoda eliminacji zaproponowana<br />
przez J. von Neumanna lub metody wykorzystujace wzory typu: x = g(γ 1 , γ 2 , ..., γ n ).<br />
Omówimy je poni»ej.<br />
Metode eliminacji stosuje sie gdy zmienna x ma rozkªad o gesto±ci prawdopodobie«-<br />
stwa opisany funkcja f(x) w przedziale [a,b] i równy zero poza przedziaªem, oraz f(x) jest<br />
ograniczona od góry: f(x) ≤ c. Postepuje sie wtedy wg nastepujacej procedury:<br />
1. Generujemy warto±¢ zmiennej x wg wzoru: x = (b − a)γ 1 + a z rozkªadem<br />
jednorodnym w przedziale [a,b].<br />
2. Generujemy warto±¢ zmiennej y wg wzoru: y = cγ 2 z rozkªadem jednorodnym w<br />
przedziale [0,c].
SMOP-2 B.Kamys: 2007/08 150<br />
3. Sprawdzamy, czy y ≤ f(x). Je»eli tak, to akceptujemy warto±¢ x, w przeciwnym<br />
przypadku para (x,y) jest eliminowana i generacje powtarza sie od nowa.<br />
Metody wykorzystujace przeksztaªcenie x = g(γ 1 , γ 2 , ..., γ n )<br />
Sa to metody, wykorzystujace ró»norodne wªasno±ci statystyczne funkcji wielu niezale»nych<br />
zmiennych losowych o rozkªadzie jednorodnym. Nie ma wiec ogólnego przepisu<br />
na szukanie funkcji g. Poni»ej zostana podane wybrane przykªady zastosowania takiego<br />
przeksztaªcenia.<br />
PRZYKŠAD 1 (jednowymiarowy rozkªad normalny).<br />
Centralne twierdzenie graniczne gªosi, »e suma niezale»nych zmiennych losowych da»y<br />
do rozkªadu normalnego, gdy liczba skªadników w sumie da»y do niesko«czono±ci. Rozkªady<br />
skªadników sumy powinny przy tym speªnia¢ bardzo ogólne warunki, które sa dobrze<br />
speªnione przez rozkªad jednorodny na odcinku [0,1] jaki maja generowane liczby pseudolosowe.<br />
We¹my wiec<br />
Wiadomo, »e<br />
n∑<br />
g(γ 1 , . . . , γ n ) ≡<br />
γ i<br />
i=1<br />
E {γ i } = 1 2<br />
skad wynika, »e<br />
σ 2 {γ i } = 1 12<br />
{ n∑<br />
E {g(γ 1 , . . . , γ n )} = E<br />
σ 2 {g(γ 1 , . . . , γ n )} = σ 2 { n∑<br />
}<br />
∑<br />
γ i = n<br />
i=1<br />
}<br />
∑<br />
γ i = n<br />
i=1 i=1<br />
i=1<br />
E {γ i } = n 2<br />
σ 2 {γ i } = n 12 .<br />
Wykorzystali±my fakt, »e warto±¢ oczekiwana sumy jest (zawsze) równa sumie warto-<br />
±ci oczekiwanych skªadników oraz to »e wariancja sumy niezale»nych zmiennych losowych<br />
jest suma wariancji skªadników.<br />
Dla du»ych n powy»sza suma bedzie (bardzo szybko) zbli»a¢ sie do zmiennej losowej o<br />
rozkªadzie normalnym a po standaryzacji (tj. odjeciu jej warto±ci oczekiwanej i podzieleniu<br />
przez odchylenie standardowe) bedzie miaªa rozkªad standardowy normalny N(0,1).<br />
Ostatecznie stosujemy nastepujacy przepis na generacje zmiennej o rozkªadzie N(0,1):<br />
√<br />
12<br />
g(γ 1 , . . . , γ n ) =<br />
n<br />
(<br />
n∑<br />
γ i − 1 )<br />
i=1 2
SMOP-2 B.Kamys: 2007/08 151<br />
UWAGA: Najcze±ciej stosuje sie powy»szy wzór biorac n = 12, gdy» wtedy wzór przyjmuje<br />
najprostsza posta¢.<br />
UWAGA: W przypadku gdy potrzebne sa warto±ci standaryzowanej zmiennej losowej<br />
wieksze od 6 lub mniejsze od -6 to musimy zwiekszy¢ liczbe skªadników w sumie bo<br />
oczywi±cie suma dwunastu powy»szych skªadników nigdy nie osiagnie takich warto±ci.<br />
PRZYKŠAD 2 (jednowymiarowy rozkªad normalny).<br />
Rozkªad wspólny dwu niezale»nych zmiennych losowych x, y o rozkªadach N(0,1) jest ich<br />
iloczynem i mo»e by¢ zapisany nastepujaco:<br />
f(x, y) = 1 [<br />
2π exp − x2 + y 2 ]<br />
2<br />
Przechodzac do wspóªrzednych biegunowych (r, ϕ) dostajemy:<br />
x = r cos ϕ<br />
y = r sin ϕ<br />
gdzie rozkªad h zmiennych (r, ϕ) wyra»a sie poni»szym wzorem:<br />
h(r, ϕ) = f(r cos ϕ, r sin ϕ) |r| ,<br />
w którym |r| jest moduªem jakobianu transformacji. Wida¢, »e rozkªad zmiennych (r, ϕ)<br />
jest tak»e iloczynem dwu rozkªadów:<br />
h(r, ϕ) =<br />
( 1<br />
2π<br />
)<br />
·<br />
(<br />
r exp<br />
]) [− r2<br />
Sa to; jednorodny rozkªad dla zmiennej ϕ w przedziale [0, 2π] oraz rozkªad o gesto±ci<br />
re −r2 /2<br />
dla nieujemnych r (stad mo»na opu±ci¢ moduª przy r). Oczywi±cie faktoryzacja<br />
rozkªadu h(r, ϕ) oznacza, »e zmienne r i ϕ sa niezale»ne.<br />
Poniewa» zmienna ϕ ma rozkªad równomierny wiec mo»na ja ªatwo generowa¢ stosujac<br />
wzór:<br />
ϕ = 2πγ 1<br />
a zmienna r tak»e generuje sie prosto przez odwracanie dystrybuanty co daje:<br />
√<br />
r = −2 ln γ 2 .<br />
Po takiej generacji mo»na powróci¢ do startowych zmiennych x, y i otrzyma¢ pare zmiennych<br />
niezale»nych o rozkªadzie N(0,1) wg wzorów (x = g 1 (γ 1 , γ 2 ) i y = g 2 (γ 1 , γ 2 )):<br />
2<br />
.<br />
x =<br />
y =<br />
√<br />
−2 ln γ 2 cos 2πγ 1<br />
√<br />
−2 ln γ 2 sin 2πγ 1
SMOP-2 B.Kamys: 2007/08 152<br />
PRZYKŠAD 3 (rozkªad chi-kwadrat o n stopniach swobody)<br />
Jak wiadomo suma kwadratów n niezale»nych zmiennych losowych o rozkªadzie standardowym<br />
normalnym ma rozkªad chi-kwadrat o n stopniach swobody:<br />
n<br />
χ 2 n ≡ ∑<br />
X 2 i .<br />
i=1<br />
Generujac n niezale»nych zmiennych losowych o rozkªadzie N(0,1) jednym z powy»ej<br />
omówionych sposobów mo»emy wstawi¢ je do sumy kwadratów i otrzymamy zmienna<br />
o rozkªadzie chi-kwadrat. Warto rozwa»y¢ dokªadniej przypadek, gdy do generacji zmiennych<br />
N(0,1) zastosuje sie ostatnia z podanych metod. Wtedy dla przypadku, gdy n<br />
jest parzyste wystarczy doda¢ n/2 par kwadratów zmiennych N(0,1) i dostaniemy zdecydowane<br />
uproszczenie wzoru gdy» suma kwadratów sinusa i cosinusa tego samego kata<br />
jest równa jedno±ci a suma kwadratów pierwiastków bedzie równa sumie logarytmów<br />
(ze znakiem minus) stanowiacych wyra»enia podpierwiastkowe a wiec bedzie logarytmem<br />
iloczynu. Gdy n jest nieparzyste mamy n/2 − 1 par zachowujacych sie tak jak dla<br />
n parzystego a dodatkowo musimy doda¢ jedna warto±¢ zmiennej o rozkªadzie N(0,1).<br />
Ostatecznie dostaniemy:<br />
⎧⎪ ⎨<br />
χ 2 n = −2 ln ( )<br />
γ 1 . . . γ n/2 n parzyste<br />
⎪ ⎩ −2 ln ( )<br />
γ 1 . . . γ (n−1)/2 − 2 ln(γ(n+1)/2 ) cos 2 2πγ (n+3)/2 n nieparzyste<br />
PRZYKŠAD 4<br />
Poka»emy, »e zmienna o rozkªadzie gesto±ci prawdopodobie«stwa:<br />
czyli o dystrybuancie<br />
f(x) = n · x n−1 dla x ∈ [0, 1]<br />
F (x) = x n dla x ∈ [0, 1]<br />
mo»na generowa¢ stosujac wzór: x = max(γ 1 , ..., γ n ).<br />
Dowód:<br />
Wprowad¹my funkcje schodkowa zdeniowana nastepujaco:<br />
⎧<br />
⎪⎨ 0 dla z ≤ 0<br />
θ(z) =<br />
⎪⎩ 1 dla z > 0.
SMOP-2 B.Kamys: 2007/08 153<br />
Zmienna losowa g(γ 1 , ..., γ n ) bedzie miaªa dystrybuante F (x) wtedy i tylko wtedy gdy<br />
∫ 1<br />
0<br />
∫ 1<br />
. . .<br />
0<br />
dy 1 . . . dy n θ(x − g(γ 1 , ..., γ n )) = F (x).<br />
Jest oczywiste, »e θ(x − max<br />
1≤i≤n y i) nie równa jest zero wtedy i tylko wtedy gdy równocze±nie<br />
y 1 < x, y 2 < x , ..., y n < x. A wiec caªka<br />
mo»e by¢ zapisana jako:<br />
∫ 1<br />
0<br />
∫ 1<br />
. . .<br />
0<br />
∫ x<br />
0<br />
dy 1 . . . dy n θ(x − max<br />
1≤i≤n y i)<br />
∫ x<br />
. . .<br />
0<br />
dy 1 . . . dy n = x n<br />
a to jest wªa±nie taka dystrybuanta zmiennej x jaka chcieliby±my uzyska¢.<br />
♦<br />
UWAGA<br />
Zmienna losowa o dystrybuancie F (x) = x n dla x ∈ [0, 1] mo»na generowa¢ metoda<br />
funkcji odwrotnych, z której dostajemy:<br />
x = n√ γ.<br />
Porównujac ten wynik z poprzednim dostajemy zaskakujacy wniosek, »e mo»na<br />
zastapi¢ obliczanie pierwiastka n-tego stopnia z liczby losowej o rozkªadzie<br />
równomiernym w [0,1] przez obliczanie maksimum n liczb losowych o takim<br />
rozkªadzie.<br />
12.3.3 Generacja wielowymiarowych zmiennych losowych<br />
Metoda eliminacji mo»e by¢ ªatwo uogólniona na przypadek zmiennych wielowymiarowych.<br />
Je»eli f(x 1 , x 2 , ..., x n ) jest gesto±cia prawdopodobie«stwa dla n-wymiarowej<br />
zmiennej losowej (x 1 , x 2 , ...x n ), która znika poza kostka n-wymiarowa: a i ≤ b i , i =<br />
1, 2, .., n i ograniczona przez liczbe c to przeprowadzamy generacje w nastepujacy sposób:<br />
1. Generujemy warto±¢ zmiennej x 1 , x 2 , ...x n+1 wg wzoru:<br />
x i = (b i − a i )γ i + a i , i = 1, 2, ..., n oraz x n+1 = cγ n+1<br />
z rozkªadem równomiernym w przedziale (a 1 ≤ x 1 ≤ b 1 , ..., a n ≤ x n ≤ b n ) i<br />
ograniczona przez liczbe c: (0 ≤ x n+1 ≤ c)
SMOP-2 B.Kamys: 2007/08 154<br />
2. Sprawdzamy, czy x n+1 ≤ f(x 1 , x 2 , ..., x n ). Je»eli tak, to akceptujemy punkt<br />
x 1 , x 2 , ..., x n , w przeciwnym przypadku punkt ten jest eliminowany i generacje<br />
powtarza sie od nowa.<br />
Wielowymiarowe zmienne losowe mo»emy równie» generowa¢ metoda funkcji odwrotnych.<br />
Nale»y rozwa»y¢ oddzielnie dwa przypadki:<br />
1. Gdy poszczególne skªadowe wielowymiarowej zmiennej sa niezale»ne to ka»da z nich<br />
generuje sie niezale»nie jedna z metod omawianych dla jednowymiarowych zmiennych<br />
losowych.<br />
2. Gdy skªadowe sa zale»ne to korzystamy z poni»szego twierdzenia:<br />
TWIERDZENIE<br />
Gdy γ 1 , γ 2 , ..., γ n sa niezale»nymi liczbami losowymi o rozkªadzie równomiernym w przedziale<br />
[0,1) to zbiór liczb x 1 , x 2 , ..., x n otrzymanych jako rozwiazania nastepujacego<br />
ukªadu równa«:<br />
F 1 (x 1 ) = γ 1<br />
F 2 (x 2 |x 1 ) = γ 2<br />
· · ·<br />
F n (x n |x 1 , ..., x n−1 ) = γ n<br />
ma po»adana gesto±¢ prawdopodobie«stwa f(x 1 , x 2 , ..., x n ).<br />
♦
SMOP-2 B.Kamys: 2007/08 155<br />
12.4 MODELOWANIE KOMPUTEROWE<br />
Zjawiska przyrodnicze, zadania techniczne czy ekonomiczne maja czesto charakter probabilistyczny.<br />
Jest to spowodowane faktem, »e same prawa przyrody maja taki<br />
charakter (mechanika kwantowa) a tak»e tym, »e w danym zagadnieniu uczestniczy<br />
tak wielka liczba obiektów (np. atomów), i» ±cisªy opis nawet w ramach klasycznej<br />
(niekwantowej) teorii jest niemo»liwy. Wtedy logicznym staje sie wprowadzenie pojecia<br />
losowych funkcji czyli takich funkcji rzeczywistego argumentu, »e dla ustalonej warto±ci<br />
argumentu warto±¢ funkcji jest zmienna losowa.<br />
Modelowanie komputerowe polega na szacowaniu przy zastosowaniu komputerów<br />
±rednich charakterystyk funkcji losowych pojawiajacych sie w badanym problemie. Sa<br />
to zwykle warto±ci oczekiwane wielko±ci charakteryzujacych problem, ich wariancje i<br />
kowariancje lub te» rozkªady prawdopodobie«stwa tych wielko±ci.<br />
Czesto zjawiska przyrodnicze, zadania techniczne czy matematyczne opisywane funkcjami<br />
losowymi sa tak skomplikowane, »e modelowanie musi rozpocza¢ sie od stworzenia<br />
uproszczonego modelu badanego zagadnienia a dopiero potem rozwiazuje sie go metodami<br />
probabilistycznymi przy wykorzystaniu komputera. Naturalna metoda, która sªu»y<br />
do tego celu jest metoda Monte Carlo.<br />
Charakterystyczna cecha tej metody jest to, »e czesto wygodniej jest stworzy¢ od<br />
poczatku pewien schemat komputerowych losowa« odpowiadajacych badanym zjawiskom<br />
ni» szuka¢ równa« nimi rzadzacych, a dopiero pó¹niej tworzy¢ uproszczony model probabilistyczny<br />
dla rozwiazania tych równa«. Dzieje sie tak, gdy» czesto potramy przewidzie¢<br />
mo»liwe zdarzenia zachodzace w realnym, badanym problemie oraz wiemy gdzie wystepuja<br />
czynniki losowe, których efekt mo»emy odtworzy¢ przeprowadzajac odpowiednie losowania.<br />
Taki sposób postepowania, tzn. imitacja lub symulacja badanego problemu jest<br />
najprostszym, narzucajacym sie sposobem rozwiazania i tak wªa±nie byªy formuªowane<br />
pierwsze zastosowania metody Monte Carlo.<br />
12.4.1 MODELOWANIE PRZECHODZENIA NEUTRONÓW PRZEZ O‘RO-<br />
DEK SYMULACJA<br />
Jest to jedno z pierwszych zastosowa« metody Monte Carlo do modelowania realnego<br />
procesu zycznego. Dla ustalenia uwagi rozwa»my przechodzenie neutronów przez osªone<br />
reaktora jadrowego. Osªone te traktujemy jako jednorodny o±rodek materialny otoczony<br />
pró»nia (obszarem pozbawionym obiektów z którymi neutrony mogªyby oddziaªywa¢).<br />
Chcemy bada¢ proces przechodzenia neutronów przez materiaª osªony aby zaprojektowa¢<br />
niezawodne i bezpieczne osªony.<br />
Na poczatku nale»y zrobi¢ pewne zaªo»enia, które musza mie¢ uzasadnienie zyczne<br />
ale przede wszystkim sªu»a do tego aby upro±ci¢ badane zagadnienie.<br />
1. Liczba neutronów przechodzacych przez o±rodek jest na tyle niewielka, »e mo»na<br />
zaniedba¢ ich wzajemne oddziaªywanie.<br />
2. Gesto±¢ o±rodka i jego skªad nie zmienia sie w czasie.
SMOP-2 B.Kamys: 2007/08 156<br />
3. Prawdopodobie«stwo ró»nych sposobów oddziaªywania neutronu z o±rodkiem nie<br />
zale»y od tego jaka jest historia ruchu neutronu przez o±rodek.<br />
Te zaªo»enia powoduja, »e badane zjawisko mo»e by¢ traktowane jako zbiór<br />
niezale»nych historii ruchu poszczególnych neutronów .<br />
Neutron charakteryzowany jest wspóªrzedna przestrzenna ⃗r ≡ (x, y, z) i czasowa t, kierunkiem<br />
ruchu okre±lonym przez jednostkowy wektor ⃗ω ≡ (ω x , ω y , ω z ) oraz energia E.<br />
Modelujemy historie neutronu w nastepujacy sposób:<br />
a) Historia neutronu rozpoczyna sie od jego pojawienia w ¹ródle neutronów (reaktorze).<br />
Zakªadajac pewien rozkªad gesto±ci prawdopodobie«stwa f(⃗r, t, ⃗ω, E) generujemy<br />
poczatkowe warto±ci wspóªrzednych neutronu: (⃗r 0 , t 0 , ⃗ω 0 , E 0 ).<br />
b) Neutron wylatuje ze ¹ródªa i porusza sie ruchem jednostajnym po prostej do chwili zderzenia<br />
z jadrem atomu o±rodka. Generujemy dªugo±¢ drogi swobodnego ruchu.<br />
c) Neutron mo»e oddziaªywa¢ na kilka sposobów z jadrem atomu o±rodka (mo»e ulec rozproszeniu,<br />
pochªonieciu np. wychwyt radiacyjny lub rozmno»eniu jak w przypadku<br />
rozszczepienia jadra). Generujemy rodzaj oddziaªywania oraz ewentualnie kierunek<br />
(kierunki) dalszego ruchu i energie neutronu (neutronów).<br />
d) Powracamy do punktu b) lub ko«czymy symulacje gdy neutron zostaª pochªoniety albo<br />
opu±ciª badany o±rodek.<br />
ad a) W chwili t 0 rozkªad poªo»e« i energii neutronów zale»y od konkretnego problemu<br />
- ksztaªtu reaktora i reakcji w nim zachodzacych. Natomiast generacja kierunków<br />
lotu przeprowadzana jest zwykle izotropowo a wiec omówimy tu sposób generacji<br />
izotropowego wektora w przestrzeni trójwymiarowej: Idea algorytmu polega na<br />
wylosowaniu punktów jednorodnie rozmieszczonych w kuli o jednostkowym promieniu<br />
a wektor o izotropowym rozkªadzie kierunków to wektor poprowadzony ze<br />
±rodka kuli do wylosowanych jednorodnie punktów.<br />
1. Losujemy trzy niezale»ne liczby losowe o rozkªadzie jednorodnym na odcinku<br />
[0,1]: γ 1 , γ 2 i γ 3 . Przeksztaªcamy je tak aby odpowiadaªy wspólrzednym<br />
kartezja«skim jednorodnie rozªo»onych punktów w sze±cianie o ±rodku w poczatku<br />
ukªadu i boku równym dwu jednostkom: α 1 = 1 − 2 · γ 1 , α 2 =<br />
1 − 2 · γ 2 , α 3 = 1 − 2 · γ 3 .<br />
2. Obliczamy<br />
3∑<br />
d 2 = α 2 i<br />
i=1
SMOP-2 B.Kamys: 2007/08 157<br />
i sprawdzamy warunek<br />
d 2 ≤ 1.<br />
Je»eli warunek jest speªniony to wyliczamy skªadowe wersora kierunku lotu:<br />
ω x = α 1 /d,<br />
ω y = α 2 /d,<br />
ω z = α 3 /d.<br />
w przeciwnym wypadku powtarzamy caªa procedure od generacji γ 1 , γ 2 i γ 3 .<br />
Inny, najcze±ciej stosowany sposób losowania izotropowych kierunków to wykorzystanie<br />
wspólrzednych sferycznych. Wiadomo, »e kierunek w przestrzeni bedzie<br />
miaª izotropowy rozkªad, gdy rozkªad elementu kata bryªowego dΩ bedzie rozkªadem<br />
równomiernym:<br />
f(dΩ) = 1/4π dla dΩ ∈ [0, 4π]<br />
czyli wszystkie kierunki ⃗ω beda równie prawdopodobne.<br />
Element kata bryªowego we wspóªrzednych sferycznych wyra»a sie nastepujacym<br />
wzorem:<br />
dΩ = sin θdθ · dϕ<br />
co oznacza, »e niezale»ne zmienne dϕ i dcosθ te» maja rozkªady równomierne:<br />
f(d cos θ) ≡ f(sin θdθ) = 1/2 dla d cos θ ∈ [−1, 1]<br />
g(dϕ) = 1/2π<br />
dla dϕ ∈ [0, 2π].<br />
Stad otrzymujemy nastepujacy schemat losowania kierunku izotropowego:<br />
cos θ = 2γ 1 − 1<br />
ϕ = 2πγ 2 .<br />
Wtedy wspóªrzedne kartezja«skie jednostkowego wektora okre±lajacego kierunek<br />
moga by¢ wyra»one przez wspóªrzedne sferyczne:
SMOP-2 B.Kamys: 2007/08 158<br />
ω x = cosϕ · √1 − cos 2 θ<br />
ω y = sinϕ · √1 − cos 2 θ<br />
ω z = cosθ<br />
ad b) Generacja drogi swobodnej: Zakªadamy, »e prawdopodobie«stwo warunkowe<br />
(pod warunkiem, »e neutron przebyª droge l) i» na drodze od l do l + dl nastapi<br />
zderzenie jest proporcjonalne do drogi dl a wspóªczynnikiem proporcjonalno±ci jest<br />
tzw. makroskopowy przekrój czynny deniowany nastepujaco:<br />
m∑<br />
Σ(⃗r, E) ≡ ϱ i (⃗r) σ i (E)<br />
i=1<br />
gdzie ϱ i (⃗r) jest liczba jader typu i w 1 cm 3 , σ i (E) jest przekrojem czynnym na<br />
oddziaªywanie neutronu o energii E z jadrem atomowym typu i a m jest liczba<br />
rodzajów jader atomowych w materiale osªony. Mo»emy wiec prawdopodobie«stwo<br />
iloczynu zdarze« polegajacych na tym, »e<br />
• A ≡ neutron nie oddziaªuje na odcinku od zera do l,<br />
• B ≡ neutron oddziaªuje na odcinku od l do l + dl<br />
zapisa¢ nastepujaco:<br />
P (A · B) = P (A) · P (B| A) =<br />
= [1 − F (l)] · [Σ(l) dl]<br />
gdzie F (l) jest dystrybuanta dªugo±ci swobodnego lotu neutronu, tj.<br />
F (l) = P (droga < l)<br />
a<br />
1 − F (l) = P (droga ≥ l).<br />
Z drugiej strony to samo prawdopodobie«stwo, »e oddziaªywanie nastapi na odcinku<br />
od l do l + dl mo»na wyrazi¢ przez dystrybuante F (l) jako:<br />
F (l + dl) − F (l) ≡ dF.
SMOP-2 B.Kamys: 2007/08 159<br />
Porównujac te dwa wzory dostaniemy:<br />
dF<br />
1 − F (l)<br />
= Σ(l) · dl.<br />
Caªkujac obie strony otrzymujemy:<br />
∫<br />
− ln(1 − F (l)) = l<br />
1 − F (l) = exp<br />
[ 0<br />
∫<br />
− l<br />
Σ(x) · dx<br />
0<br />
Σ(x) · dx<br />
]<br />
.<br />
Ostatecznie dystrybuanta drogi swobodnego ruchu wynosi:<br />
⎡<br />
F (l) = 1 − exp ⎣−<br />
∫ l<br />
0<br />
⎤<br />
Σ(x) · dx⎦<br />
Poniewa» energia neutronu nie zmienia sie w czasie lotu pomiedzy zderzeniami wiec<br />
makroskopowy przekrój czynny Σ(⃗r, E) = Σ(⃗r) mo»e zmienia¢ sie tylko jako<br />
jawna funkcja poªo»enia. Jest to istotne wtedy gdy zmienia sie skªad materiaªu przez<br />
który przechodzi neutron. Przy jednorodnym skªadzie materiaªu znika caªkowicie<br />
zale»no±¢ od ⃗r czyli w powy»szym wzorze na dystrybuante makroskopowy przekrój<br />
czynny jest staªa wielko±cia: Σ(⃗r, E) = Σ. Wtedy mo»na ªatwo losowa¢ droge<br />
swobodnego ruchu metoda funkcji odwrotnej do dystrybuanty:<br />
l = −(1/Σ) lnγ<br />
gdzie γ jest liczba pseudolosowa z przedziaªu [0,1].<br />
Co zrobi¢, gdy materiaª nie jest jednorodny? Wydawaªoby sie, »e wtedy konieczne<br />
bedzie znaczne skomplikowanie procesu losowania drogi swobodnej. Znaleziono jednak»e<br />
bardzo zreczny sposób obej±cia trudno±ci. Sposób ten omówimy poni»ej podczas<br />
dyskusji nastepnego problemu tzn. losowania rodzaju zderzenia.
SMOP-2 B.Kamys: 2007/08 160<br />
ad c) Losowanie rodzaju oddziaªywania wymaga okre±lenia makroskopowych przekrojów<br />
czynnych na trzy gªówne procesy:<br />
• Rozpraszanie (scattering) Σ s (⃗r, E),<br />
• Absorpcje czyli wychwyt (absorption, capture) Σ a (⃗r, E) i<br />
• Rozmno»enie dzieki reakcji rozszczepienia (ssion) Σ f (⃗r, E).<br />
Je»eli wiemy, »e w danej chwili musi zaj±¢ jeden z tych trzech procesów, to prawdopodobie«stwo<br />
ka»dego z nich mo»na zapisa¢ nastepujaco:<br />
P i =<br />
Σ i<br />
3∑<br />
Σ j<br />
j=1<br />
a losowanie mo»e polega¢ na tym, »e po wygenerowaniu liczby pseudolosowej γ z<br />
przedziaªu [0,1] sprawdzamy czy:<br />
• γ < P 1 , (je»eli tak, to zachodzi proces nr 1),<br />
• P 1 ≤ γ ≤ P 2 , (je»eli tak, to zachodzi proces nr 2), oraz<br />
• γ > P 2 , (je»eli tak, to zachodzi proces nr 3).<br />
Omówimy teraz wspomniany powy»ej efektywny sposób losowania drogi swobodnego<br />
lotu neutronu w niejednorodnym materiale. Dla tego celu zaªó»my,<br />
»e oprócz tych trzech procesów mo»e zaj±¢ jeszcze kcyjne rozproszenie, które nie<br />
zmienia ani energii ani kierunku lotu neutronu a tak»e nie powoduje znikania neutronu<br />
czy te» jego rozmno»enia". Wprowad¹my staªy (niezale»ny od ⃗r i od energii)<br />
przekrój czynny α, który speªnia warunek:<br />
α ≥ sup(Σ s + Σ a + Σ f ) .<br />
Wtedy deniujemy makroskopowy przekrój na kcyjne rozproszenie Σ F jako:<br />
Σ F ≡ α − Σ s − Σ a − Σ f<br />
a prawdopodobie«stwo kcyjnego rozproszenia równe jest:<br />
P (F ) = Σ F /α ,<br />
podobnie jak prawdopodobie«stwa pozostaªych procesów:<br />
P (s) = Σ s /α<br />
P (a) = Σ a /α i<br />
P (f) = Σ f /α.
SMOP-2 B.Kamys: 2007/08 161<br />
Nale»y podkre±li¢, »e ka»dy z przekrojów Σ F , Σ s , Σ a , i Σ f mo»e sie zmienia¢ wraz<br />
z ⃗r oraz z energia ale ich suma α jest staªa. Mo»na wiec do losowania drogi swobodnego<br />
lotu neutronu w niejednorodnym materiale zastosowa¢ prosty wzór podany<br />
powy»ej dla jednorodnego materiaªu zastepujac przekrój Σ przekrojem α i<br />
uwzgledniajac kcyjne rozpraszania w losowaniu rodzaju procesu:<br />
l = −(1/α) lnγ .<br />
W ten sposób losowanie kolejnych odcinków drogi odbywa sie bardzo ªatwo ale<br />
oczywi±cie trzeba za to zapªaci¢ zwiekszona liczba losowa«, które beda sie ko«czy¢<br />
kcyjnym rozpraszaniem. Inaczej mówiac zamiast losowa¢ w skomplikowany sposób<br />
w jednym kroku dªugo±¢ swobodnego przebiegu neutronu robimy to w ªatwy sposób<br />
w kilku kolejnych krokach, w których neutron porusza sie bez zderze« ruchem<br />
jednostajnym po tej samej prostej.<br />
Poprawno±¢ powy»szej intuicyjnej metody postepowania zostaªa ±ci±le udowodniona<br />
(W.A. Coleman, Nucl. Sci. Engng. 32 (1968) 76).<br />
Dla oszacowania prawdopodobie«stwa konkretnego losu neutronu, tzn. prawdopodobie«stwa<br />
absorpcji w o±rodku, prawdopodobie«stwa zaj±cia rozszczepienia lub te» prawdopodobie«stwa<br />
opuszczenia o±rodka przez neutron tworzymy estymator prawdopodobie«-<br />
stwa danego zdarzenia A korzystajac z twierdzenia Bernoulliego (Cantellego):<br />
T N (p A ) = N A<br />
N<br />
gdzie N A to liczba tych historii neutronu, w których zaszªo zdarzenie A a N to liczba<br />
wszystkich neutronów rozwa»anych w symulacji.<br />
UWAGA:<br />
Mo»na uwa»a¢, »e ka»dej historii losowanego neutronu przypisujemy zmienna X A przyjmujaca<br />
warto±¢ 1 gdy zdarzenie A zachodzi i warto±¢ 0 gdy to zdarzenie nie zachodzi.<br />
Wtedy prawdopodobie«stwo zaj±cia zdarzenia A jest oczywi±cie równe prawdopodobie«-<br />
stwu tego, »e zmienna X A przyjmie warto±¢ 1:<br />
P (X A = 1) = p A<br />
P (X A = 0) = 1 − p A<br />
Postepujemy tak miedzy innymi wtedy, gdy rejestrujemy zdarzenia i tworzymy histogram<br />
warto±ci obserwowanej zmiennej dodajac do histogramu jedynke dla wyró»nionego przedziaªu<br />
warto±ci mierzonej zmiennej lub nie dodajac jedynki (tzn. dodajac zero) do tego
SMOP-2 B.Kamys: 2007/08 162<br />
przedziaªu.<br />
Prawdopodobie«stwo traenia warto±ci mierzonej zmiennej do wybranego przedziaªu<br />
wynosi p A i jest równe warto±ci oczekiwanej zmiennej losowej X A :<br />
E(X A ) = 1 · p A + 0 · (1 − p A ) = p A<br />
a wiec jako estymator prawdopodobie«stwa, »e zaszªo zdarzenie A bierzemy<br />
T N (p A ) = 1 N<br />
N∑<br />
(X A ) i<br />
i=1<br />
Wariancja zmiennej X A tak»e jest ªatwa do policzenia:<br />
var(X A ) ≡ E(X 2 A ) − E2 (X A ) = [1 2 · p A + 0 2 · (1 − p A )] − p 2 A = p A − p 2 A .<br />
12.4.2 MODELOWANIE PRZEZ ZASTOSOWANIE WAG STATYSTYCZ-<br />
NYCH<br />
Modelowanie przez zastosowanie symulacji jest najbardziej intuicyjna i naturalna metoda<br />
ale nie jest najbardziej efektywne. Okazuje sie, »e mo»na przy tym samym wysiªku obliczeniowym<br />
uzyska¢ znacznie mniejsza wariancje wyników (czyli znacznie mniejszy bªad)<br />
gdy zastosuje sie modelowanie z u»yciem wag statystycznych rozwa»anych zdarze«.<br />
Metoda ta opiera sie na twierdzeniu omówionym poni»ej:<br />
TWIERDZENIE:<br />
Je»eli zmienna losowa X ma warto±¢ oczekiwana równa E(X) = p A oraz speªnia nierówno±¢<br />
0 ≤ X ≤ 1, to wariancja X jest mniejsza lub równa wariancji zmiennej zerojedynkowej<br />
X A .<br />
DOWÓD:<br />
Poniewa» 0 ≤ X ≤ 1 to zawsze X 2 ≤ X, a wiec<br />
stad wariancja X<br />
E(X 2 ) ≤ E(X) ≡ p A<br />
var(X) ≡ E(X 2 ) − E 2 (X) ≤ p A − E 2 (X) = p A − p 2 A ≡ var(X A). c.b.d.o.
SMOP-2 B.Kamys: 2007/08 163<br />
WNIOSEK: zamiast przyporzadkowywa¢ zdarzeniom zmienna zero-jedynkowa X A jest<br />
bardziej efektywne przyporzadkowa¢ wage o wªasno±ciach zmiennej X z omawianego<br />
twierdzenia.<br />
PRZYKŠAD:<br />
Badamy ±redni czas »ycia τ promieniotwórczej substancji rejestrujac liczbe rozpadów<br />
na jednostke czasu, np. na minue, przez godzine od chwili wytworzenia tej substancji.<br />
Chcemy znale¹¢ ±redni czas »ycia rozpadajacych sie jader metoda najwiekszej wiarygodno±ci<br />
lub najmniejszych kwadratów. W tym celu generujemy histogramy liczby rejestrowanych<br />
zdarze« przy ró»nych zaªo»onych warto±ciach czasu »ycia. Okazuje sie, »e czas<br />
»ycia jest tak krótki, »e w ciagu godziny liczba rejestrowanych zdarze« maleje 10 6 razy.<br />
Rozpatrzmy jak beda sie ró»ni¢ dwie metody modelowania: 1) symulacja ka»dego zdarzenia<br />
i 2) losowanie zdarze« i przypisywanie im wag:<br />
ad 1.<br />
W takiej sytuacji modelowanie rozkªadu przez symulacje, tzn. losowanie czasu zgodnie z<br />
rozkªadem wykªadniczym i dodawanie jedno±ci do odpowiedniego przedziaªu histogramu<br />
dawaªoby bardzo ró»na statystyke rejestrowanych zdarze« dla krótkich i dªugich czasów<br />
»ycia. Na przykªad, gdy dla pierwszej minuty wylosowano by 10 6 zdarze« to dla ostatniej<br />
tylko jedno zdarzenie. A wiec bªad wzgledny liczby rozpadów po krótkim czasie byªby<br />
rzedu 0.001 podczas gdy dla ostatniej minuty bªad wgledny byªby rzedu jedno±ci. Aby<br />
wiec dosta¢ bªad wzgledny ∼ 0.1 dla dªugich czasów nale»aªoby losowa¢ 100 razy wiecej<br />
zdarze« dla caªego histogramu. Byªoby to ªacznie ponad 10 8 losowa«.<br />
ad 2.<br />
Wylosujemy liczby z rozkªadu równomiernego tak aby na ka»da minute wypadaªo 100 zdarze«,<br />
czyli na caªy histogram 60 · 100 = 6000 zdarze«. Ka»demu zdarzeniu przypiszemy<br />
wage ∼ exp(− t ). Histogram tworzymy dodajac wagi zdarze« odpowiadajacych odpowiednim<br />
przedziaªom (minutom) czasu obserwacji. Wtedy dostaniemy histogram, który<br />
τ<br />
bedzie miaª dla ka»dego przedziaªu taka sama warto±¢ oczekiwana wysoko±ci sªupka jak<br />
przy losowaniu wg pierwszej metody ale wzgledny bªad wysoko±ci wszystkich sªupków<br />
bedzie taki sam równy 0.1.<br />
Wida¢, »e zastosowanie wag ma nastepujace zalety:<br />
• Pozwala na otrzymanie takich samych warto±ci wzglednych bªedów dla ka»dego przedziaªu<br />
histogramu co jest wa»ne gdy chcemy odtworzy¢ ksztaªt rozkªadu.<br />
• Pozwala poprawi¢ statystyke rzadkich zdarze«.<br />
• Mo»e znacznie skróci¢ rachunki, co czesto jest bardzo wa»ne szczególnie gdy rachunki<br />
musza by¢ wykonywane wielokrotnie.
SMOP-2 B.Kamys: 2007/08 164<br />
12.4.3 MODELOWANIE PRZECHODZENIA NEUTRONÓW PRZEZ O‘RO-<br />
DEK WAGI STATYSTYCZNE<br />
Przy zastosowaniu wag statystycznych rezygnujemy z imitacji jeden do jeden realnego<br />
procesu. Wybieramy wagi statystyczne, tak aby otrzyma¢ informacje o tych aspektach<br />
procesu, które nas interesuja. Stad wybór wag zale»y od celu jaki chcemy osiagna¢. Na<br />
przykªadzie badania prawdopodobie«stwa absorpcji neutronów w danym o±rodku poka-<br />
»emy ró»ne sposoby wyboru wag:<br />
1. Wagi zastepujace losowanie absorpcja inny rodzaj oddziaªywania.<br />
2. Wagi uwzgledniajace wylot neutronu z o±rodka<br />
3. Wagi uwzgledniajace oba efekty<br />
ad 1.) Wagi zastepujace losowanie absorpcja inny rodzaj oddziaªywania Przypu±¢my,<br />
»e ze ¹ródªa emitujacego neutrony wylatuje nie jeden neutron lecz du»a grupa<br />
n 0 neutronów o tych samych charakterystykach (energia, kierunek lotu). Po wylosowaniu<br />
dªugo±ci drogi swobodnego lotu (do pierwszego zderzenia) rozpatrujemy co<br />
dzieje sie w chwili zderzenia neutronu z jadrem atomowym. Zakªadajac, »e wynikiem<br />
zderzenia jest rozproszenie neutronu lub jego absorpcja oraz znajac makroskopowe<br />
przekroje czynne Σ s i Σ a , odpowiednio na rozproszenie (scattering), i absorpcje<br />
(absorption) mo»emy stwierdzi¢, »e prawdopodobie«stwo rozproszenia (s i ) i prawdopodobie«stwo<br />
absorpcji (a i ) w punkcie ⃗r i wyra»aja sie wzorami:<br />
s i ≡ Σ s (⃗r i )/ [Σ s (⃗r i ) + Σ a (⃗r i )]<br />
a i ≡ Σ a (⃗r i )/ [Σ s (⃗r i ) + Σ a (⃗r i )]<br />
czyli ±rednio (a 1·n 0 ) neutronów dozna absorpcji w punkcie r 1 a (s 1·n 0 ) neutronów<br />
bedzie kontynuowaªo lot. Od tego momentu procedura losowania powtarza sie, tzn.<br />
losuje sie kierunek i dªugo±¢ drogi swobodnego lotu grupy rozproszonych neutronów<br />
a» do nastepnego zderzenia. A wiec przy drugim zderzeniu (s 1 · a 2 · n 0 ) neutronów<br />
zostanie zaabsorbowane a (s 1 · s 2 · n 0 ) rozproszy sie. Rachunki te powtarza sie tak<br />
dªugo a» neutrony opuszcza badany o±rodek. Ostatecznie liczba neutronów, które<br />
zostana zaabsorbowane podczas takiej serii zderze« mo»e by¢ zapisana nastepujaco:<br />
⎛<br />
⎞ ⎛<br />
⎞<br />
j−1 ∑<br />
j−1 ∑<br />
n = ⎝ s 1 · s 2 . . . s i · a i+1<br />
⎠ n 0 = ⎝ s 1 · s 2 . . . s i · (1 − s i+1 ) ⎠ n 0<br />
i=0<br />
Prosze zwróci¢ uwage, »e zamiast bra¢ du»a grupe neutronów mo»emy przyja¢<br />
n 0 ≡ 1, ale musimy wtedy zmieni¢ interpretacje wielko±ci n w powy»szym wzorze.<br />
Otó» po przyjeciu n 0 = 1 nale»y interpretowa¢ n jako prawdopodobie«stwo, »e pojedynczy<br />
neutron wysªany ze ¹ródªa zostanie zaabsorbowany podczas przebywania<br />
i=0
SMOP-2 B.Kamys: 2007/08 165<br />
wylosowanej drogi w o±rodku. A wiec prawdopodobie«stwo absorpcji p a neutronu<br />
w o±rodku jest warto±cia oczekiwana z tego prawdopodobie«stwa dla ró»nych<br />
dróg neutronu przez o±rodek :<br />
p a = E(n)<br />
a estymatorem prawdopodobie«stwa absorpcji jest ±rednia arytmetyczna z prawdopodobie«stw<br />
absorpcji neutronów poruszajacych sie po ró»nych drogach w o±rodku:<br />
T N (p a ) = 1 N<br />
N∑<br />
n k .<br />
k=1<br />
Poniewa» prawdopodobie«stwo n absorpcji neutronu na ró»nych drogach speªnia<br />
warunki twierdzenia omawianego poprzednio dla wag zdarze« ( E(n) = p a i<br />
0 ≤ n ≤ 1), wiec mo»emy uzna¢ je za wage neutronu i dostajemy, »e wariancja<br />
n jest mniejsza od wariancji zmiennej X a przyjmujacej warto±¢ jeden (gdy nastapi<br />
absorpcja) i zero (gdy absorpcji nie ma), która u»ywa sie w zwykªej symulacji.<br />
Nale»y podkre±li¢, »e wysiªek rachunkowy przy losowaniu historii N neutronów jest<br />
praktycznie taki sam, gdy do oszacowania p a bierzemy zmienna X a i wage n mimo,<br />
»e w drugim wypadku otrzymujemy oszacowanie z mniejszym bªedem .<br />
ad 2.) Wagi uwzgledniajace wylot neutronu z o±rodka Omówimy teraz jak przy pomocy<br />
wag mo»na uwzgledni¢ fakt, »e cze±¢ neutronów wydostaje sie z o±rodka a wiec<br />
nie moga by¢ zaabsorbowane. Zacznijmy od analogicznego rozumowania jak powy-<br />
»ej: Grupa n 0 neutronów wylatuje ze ¹ródªa poªo»onego w ⃗r 0 w tym samym kierunku<br />
⃗ω 0 . Odlegªo±¢ od ¹ródªa do granicy o±rodka w tym kierunku wynosi l 0 . Je»eli<br />
oznaczymy przez F 0 (l 0 ) warto±¢ dystrybuanty dªugo±ci swobodnej drogi neutronu<br />
to prawdopodobie«stwo tego, »e nukleon bedzie na tej drodze zderzaª sie z jadrami<br />
atomowymi o±rodka wynosi P (l < l 0 ) ≡ F 0 (l 0 ). Poniewa» chcemy rozpatrywa¢<br />
tylko te neutrony, które nie opu±ciªy badanego o±rodka wiec:<br />
1. Wiemy, »e ±rednio w punkcie ⃗r 1 bedzie oddziaªywaªo n 1 = n 0 · F 0 (l 0 ).<br />
2. Poniewa» chcemy, aby dla tych neutronów oddziaªywanie nastapiªo z pewno±cia<br />
wiec odlegªo±¢ l ′ od ⃗r 0 do ⃗r 1 losujemy z rozkªadu odlegªo±ci obcietego do<br />
odcinka 0 < l ′ < l 0 , czyli:<br />
F (l ′ ) = F 0 (l ′ )/F 0 (l 0 ).<br />
Omówimy to bardziej szczegóªowo poni»ej.<br />
3. Losujemy (ze znajomo±ci makroskopowych przekrojów Σ s (⃗r 1 ) na rozproszenie<br />
i Σ a (⃗r 1 ) na absorpcje) czy nastapi rozproszenie i wtedy grupa wylatujacych<br />
z punktu ⃗r 1 neutronów bedzie zawieraªa n 1 neutronów lub zostanie ona zaabsorbowana<br />
w tym punkcie i wtedy przestajemy ±ledzi¢ los grupy neutronów<br />
wiedzac, »e n 1 neutronów zostaªo zaabsorbowane.
SMOP-2 B.Kamys: 2007/08 166<br />
Powtarzajac powy»sze kroki postepowania dostajemy, »e liczba neutronów zaabsorbowanych<br />
po i zderzeniach wynosi:<br />
n = F 0 (l 0 ) · F 1 (l 1 ) . . . F i−1 (l i−1 ) · n 0<br />
a postepujac tak jak poprzednio, tzn. kªadac n 0 = 1 dostajemy jako wage neutronu<br />
wyra»enie:<br />
n = F 0 (l 0 ) · F 1 (l 1 ) . . . F i−1 (l i−1 )<br />
a estymatorem prawdopodobie«stwa absorpcji bedzie ±rednia arytmetyczna z powy»szych<br />
wag otrzymanych dla ró»nych dróg neutronu w o±rodku:<br />
T N (p a ) = 1 N<br />
N∑<br />
n k<br />
k=1<br />
UWAGA:<br />
Powracajac do losowania odlegªo±ci pomiedzy zderzeniami, nale»y sobie u±wiadomi¢,<br />
»e w tej metodzie »adamy aby neutron zostaª pochªoniety czyli nie mo»e on opu±ci¢<br />
o±rodka. ›adanie to prowadziªoby do niezycznych wyników ale kompensujemy<br />
to wªa±nie przez dobór wag i przez to, »e losowanie swobodnej drogi pomiedzy<br />
zderzeniami wykonywane jest przy wykorzystaniu obcietego rozkªadu dªugo±ci drogi<br />
swobodnej. Przez rozkªad uciety rozumiemy rozkªad ograniczony do sko«czonego<br />
odcinka zmiennej losowej. Je»eli oryginalna funkcja gesto±ci prawdopodobie«stwa<br />
dªugo±ci drogi swobodnej f(x) byªa wieksza od zera dla nieujemnych warto±ci drogi to<br />
obcieta funkcja gesto±ci g(x) jest wieksza od zera tylko dla argumentów z przedziaªu<br />
[0, l], gdzie l jest odlegªo±cia od danego punktu do brzegu o±rodka. Ucieta funkcja<br />
gesto±ci prawdopodobie«stwa jest równa zero poza tym odcinkiem a ma warto±ci<br />
proporcjonalne do f(x) na tym odcinku. Wspóªczynnikiem proporcjonalno±ci jest:<br />
1<br />
F (l) − F (0)<br />
ale poniewa» droga musi by¢ nieujemna wiec F (0) = 0 i wspóªczynnikiem proporcjonalno±ci<br />
jest<br />
1<br />
jak to podali±my powy»ej.<br />
F (l)
SMOP-2 B.Kamys: 2007/08 167<br />
ad 3.) Wagi uwzgledniajace oba efekty Przeprowadzajac analogiczne rozumowanie jak<br />
w dwu poprzednich punktach i uwzgledniajac w wagach zarówno mo»liwo±¢ absorpcji<br />
jak i »adanie aby neutron nie opu±ciª o±rodka dostajemy, »e dla danej trajektorii<br />
neutronu po i zderzeniach prawdopodobie«stwo rozproszenia w punkcie ⃗r i+1 bedzie<br />
równe:<br />
n i+1 (s) = F 0 (l 0 )s 1 · F 1 (l 1 )s 2 . . . F i−1 (l i−1 )s i · F i (l i )s i+1<br />
a prawdopodobie«stwo absorpcji:<br />
n i+1 (a) = F 0 (l 0 )s 1 · F 1 (l 1 )s 2 . . . F i−1 (l i−1 )s i · F i (l i )a i+1<br />
Jak wida¢ oba prawdopodobie«stwa sa niezerowe a wiec trajektorie zawieraªyby<br />
niesko«czenie wiele zderze«. W praktyce przerywamy losowanie gdy prawdopodobie«stwa<br />
powy»sze ró»nia sie zaniedbywalnie maªo od zera.<br />
Caªkowite prawdopodobie«stwo pochªoniecia neutronu na danej trajektorii (czyli<br />
inaczej waga neutronu wynosi w tym przypadku:<br />
∞∑<br />
n = n i+1 (a)<br />
i=0<br />
a estymator prawdopodobie«stwa absorpcji:<br />
N∑<br />
T N (p a ) = 1 N<br />
n k<br />
k=1<br />
gdzie sumowanie odbywa sie po N trajektoriach (historiach) neutronu.
SMOP-2 B.Kamys: 2007/08 168<br />
Literatura<br />
[1] P. Armitage, Metody statystyczne w badaniach medycznych", Pa«stwowy Zakªad<br />
Wydawnictw Lekarskich, Warszawa 1978<br />
[2] Hubert M. Blalock, Statystyka dla socjologów", Pa«stwowe Wydawnictwo Naukowe,<br />
Warszawa 1977<br />
[3] Zdzisªaw Bogucki, Elementy statystyki dla biologów", Wydawnictwo Naukowe Uniwersytetu<br />
im. Adama Mickiewicza w Poznaniu, Pozna« 1979<br />
[4] L.N. Bolszew, N.W. Smirnow, "Tablicy matiematiczieskoj statistiki", Nauka, Moskwa<br />
1983<br />
[5] Siegmund Brandt, Analiza danych", PWN, Warszawa 1998<br />
[6] W.T. Eadie, D. Drijard, F.E. James, M. Roos, B. Sadoulet, Metody statystyczne w<br />
zyce do±wiadczalnej", Pa«stwowe Wydawnictwo Naukowe, Warszawa 1989<br />
[7] George A. Ferguson, Yoshio Takane, Analiza statystyczna w psychologii i pedagogice",<br />
Wydawnictwo Naukowe PWN, Warszawa 1999<br />
[8] M.Fisz, Rachunek prawdopodobie«stwa i statystyka matematyczna", PWN Warszawa<br />
1967)<br />
[9] "High Energy and Nuclear Physics Data Handbook", ed. by W. Galbraith, W.S.C.<br />
Williams, Chilton 1963<br />
[10] Maurice G. Kendall, Alan Stuart, "The Advanced Theory of Statistics", Charles<br />
Grin & Company Limited, London 1966<br />
[11] G.A. Korn, T.M. Korn, "Mathematical Handbook for Scientists and Engineers",<br />
McGraw-Hill Book Company, Inc., New York - Toronto - London 1961<br />
[12] R. Zieli«ski, "Tablice statystyczne", Warszawa 1972<br />
[13] R. E. Parker, Wprowadzenie do statystyki dla biologów", Pa«stwowe Wydawnictwo<br />
Naukowe, Warszawa 1978<br />
[14] Zbigniew Pawªowski, Statystyka matematyczna",PWN, Warszawa 1976<br />
[15] Arkadiusz Piekara, Mechanika ogólna", Pa«stwowe Wydawnictwo Naukowe, Warszawa<br />
1975<br />
[16] Bogusªaw Kamys, Statystyczne Metody Opracowania Pomiarów - 1", Wykªad dla<br />
studentów I roku zyki<br />
[17] Andrzej Stanisz, Przystepny kurs statystyki w oparciu o program STATISTICA PL<br />
na przykªadach z medycyny", Kraków 1998<br />
[18] NIST/SEMATECH e-Handbook of Statistical Methods,<br />
http://www.itl.nist.gov/div898/handbook/