SMOP2

SMOP2 SMOP2

users.uj.edu.pl
from users.uj.edu.pl More from this publisher
04.11.2014 Views

STATYSTYCZNE METODY OPRACOWANIA POMIARÓW - 2 B. Kamys Spis tre±ci 1 Wstep - podstawowe poj¦cia 4 2 Wielowymiarowe zmienne losowe 11 2.1 Rozkªad prawdopodobie«stwa funkcji wielowymiarowej zmiennej losowej . . 15 2.2 Momenty rozkªadu wielowymiarowej zmiennej losowej . . . . . . . . . . . 17 2.3 Przybli»one wzory na momenty funkcji wielowymiarowej zmiennej . . . . . 21 3 Rozkªad normalny (Gaussa) 23 3.1 Wielowymiarowy rozkªad normalny . . . . . . . . . . . . . . . . . . . . 26 3.2 Dwuwymiarowy rozkªad normalny . . . . . . . . . . . . . . . . . . . . . 27 4 Estymacja parametrów 30 5 Estymacja punktowa E(x), σ 2 (x) i σ(x) 34 5.1 Estymacja punktowa E(x) . . . . . . . . . . . . . . . . . . . . . . . . 34 5.2 Estymator wariancji σ 2 (x) . . . . . . . . . . . . . . . . . . . . . . . . 35 5.3 Estymator odchylenia standardowego σ(x) . . . . . . . . . . . . . . . . 37 6 Estymacja przedziaªowa E(x), σ 2 (x) i σ(x) 39 6.1 Estymacja przedziaªowa warto±ci oczekiwanej E{x} - znane σ{x} . . . . 40 6.2 Estymacja przedziaªowa warto±ci oczekiwanej E{x} - nieznane σ{x} . . 42 6.3 Estymacja przedziaªowa wariancji i odchylenia standardowego . . . . . . . 43 7 Estymacja punktowa E{⃗y(⃗x)} i macierzy kowariancji ⃗y(⃗x) 45 8 Regresja liniowa 48 9 Regresja przy pomocy wielomianów ortogonalnych 51 9.1 Regresja przy pomocy wielomianów ortogonalnych na zbiorze warto±ci argumentu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 9.2 Konstrukcja zespoªu wielomianów ortogonalnych na zbiorze warto±ci argumentu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

STATYSTYCZNE METODY OPRACOWANIA<br />

POMIARÓW - 2<br />

B. Kamys<br />

Spis tre±ci<br />

1 Wstep - podstawowe poj¦cia 4<br />

2 Wielowymiarowe zmienne losowe 11<br />

2.1 Rozkªad prawdopodobie«stwa funkcji wielowymiarowej zmiennej losowej . . 15<br />

2.2 Momenty rozkªadu wielowymiarowej zmiennej losowej . . . . . . . . . . . 17<br />

2.3 Przybli»one wzory na momenty funkcji wielowymiarowej zmiennej . . . . . 21<br />

3 Rozkªad normalny (Gaussa) 23<br />

3.1 Wielowymiarowy rozkªad normalny . . . . . . . . . . . . . . . . . . . . 26<br />

3.2 Dwuwymiarowy rozkªad normalny . . . . . . . . . . . . . . . . . . . . . 27<br />

4 Estymacja parametrów 30<br />

5 Estymacja punktowa E(x), σ 2 (x) i σ(x) 34<br />

5.1 Estymacja punktowa E(x) . . . . . . . . . . . . . . . . . . . . . . . . 34<br />

5.2 Estymator wariancji σ 2 (x) . . . . . . . . . . . . . . . . . . . . . . . . 35<br />

5.3 Estymator odchylenia standardowego σ(x) . . . . . . . . . . . . . . . . 37<br />

6 Estymacja przedziaªowa E(x), σ 2 (x) i σ(x) 39<br />

6.1 Estymacja przedziaªowa warto±ci oczekiwanej E{x} - znane σ{x} . . . . 40<br />

6.2 Estymacja przedziaªowa warto±ci oczekiwanej E{x} - nieznane σ{x} . . 42<br />

6.3 Estymacja przedziaªowa wariancji i odchylenia standardowego . . . . . . . 43<br />

7 Estymacja punktowa E{⃗y(⃗x)} i macierzy kowariancji ⃗y(⃗x) 45<br />

8 Regresja liniowa 48<br />

9 Regresja przy pomocy wielomianów ortogonalnych 51<br />

9.1 Regresja przy pomocy wielomianów ortogonalnych na zbiorze warto±ci argumentu<br />

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51<br />

9.2 Konstrukcja zespoªu wielomianów ortogonalnych na zbiorze warto±ci argumentu<br />

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55


SMOP-2 B.Kamys: 2007/08 2<br />

10 Metody szukania estymatorów o po»¡danych wªasno±ciach 56<br />

10.1 Metoda momentów (MM) . . . . . . . . . . . . . . . . . . . . . . . . 56<br />

10.2 Metoda najwiekszej wiarygodno±ci (MNW) . . . . . . . . . . . . . . . 60<br />

10.2.1 Oszacowanie bªedu parametru znalezionego MNW . . . . . . . . . 65<br />

10.3 Metoda najmniejszych kwadratów (MNK) . . . . . . . . . . . . . . . . 66<br />

11 Testowanie hipotez statystycznych 70<br />

11.1 Denicje elementarnych poje¢ . . . . . . . . . . . . . . . . . . . . . . . 70<br />

11.2 Schemat postepowania przy testowaniu hipotez . . . . . . . . . . . . . . 71<br />

11.3 Hipotezy dotyczace warto±ci oczekiwanej . . . . . . . . . . . . . . . . . 73<br />

11.3.1 Porównanie E(X) z liczba (H 0 : E(X) = X 0 ) . . . . . . . . . . 73<br />

11.3.2 Warto±ci oczekiwane dwu populacji (H 0 : E(X) = E(Y )) . . . . 75<br />

11.4 Hipotezy dotyczace wariancji . . . . . . . . . . . . . . . . . . . . . . . 77<br />

11.4.1 Porównanie wariancji X z liczba (H 0 : σ 2 (X) = σ 2 0 ) . . . . . . . 77<br />

11.4.2 Porównanie wariancji dwu populacji (H 0 : σ 2 (X) = σ 2 (Y )) . . . 77<br />

11.5 Test normalno±ci rozkªadu . . . . . . . . . . . . . . . . . . . . . . . . . 79<br />

11.5.1 Test zerowania sie wspóªczynnika asymetrii i kurtozy . . . . . . . . 79<br />

11.5.2 Test zgodno±ci λ - Koªmogorowa . . . . . . . . . . . . . . . . . . 81<br />

11.5.3 Test zgodno±ci χ 2 - Pearsona . . . . . . . . . . . . . . . . . . . 83<br />

11.5.4 Wykres normalny . . . . . . . . . . . . . . . . . . . . . . . . . 85<br />

11.6 Testy nieparametryczne hipotez porównujacych populacje . . . . . . . . . 87<br />

11.6.1 Test Smirnowa . . . . . . . . . . . . . . . . . . . . . . . . . . . 87<br />

11.6.2 Test znaków . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90<br />

11.6.3 Test serii Walda-Wolfowitza . . . . . . . . . . . . . . . . . . . . 91<br />

11.6.4 Test sumy rang Wilcoxona-Manna-Whitneya . . . . . . . . . . . . 94<br />

11.6.5 Wykres kwantyl-kwantyl . . . . . . . . . . . . . . . . . . . . . . 95<br />

11.7 Hipoteza jednorodno±ci wariancji . . . . . . . . . . . . . . . . . . . . . 97<br />

11.7.1 Test Bartletta . . . . . . . . . . . . . . . . . . . . . . . . . . . 97<br />

11.7.2 Test Cochrana . . . . . . . . . . . . . . . . . . . . . . . . . . . 98<br />

11.7.3 Test F max Hartleya . . . . . . . . . . . . . . . . . . . . . . . . 98<br />

11.8 Analiza wariancji (ANOVA) - klasykacja jednoczynnikowa . . . . . . . . 99<br />

11.8.1 Inne sformuªowanie hipotezy zerowej . . . . . . . . . . . . . . . . 101<br />

11.8.2 Praktyczne rachunki w ANOVA . . . . . . . . . . . . . . . . . . 102<br />

11.8.3 Stabilizacja wariancji . . . . . . . . . . . . . . . . . . . . . . . . 103<br />

11.9 Analiza wariancji (ANOVA) - klasykacja dwuczynnikowa . . . . . . . . . 105<br />

11.10Test wspóªzale»no±ci statystycznej pomiedzy cechami jako±ciowymi . . . . 109<br />

11.10.1 Test dokªadny (Fishera) dla tablic kontyngencji 2x2 . . . . . . . . 110<br />

11.10.2 Test χ 2 dla tablic kontyngencji 2x2 . . . . . . . . . . . . . . . . 115<br />

11.10.3 Wspóªczynnik korelacji rang ϱ Spearmana . . . . . . . . . . . . . 118<br />

11.10.4 Wspóªczynnik korelacji rang τ Kendalla . . . . . . . . . . . . . . 121<br />

11.10.5 Analiza asocjacyjna . . . . . . . . . . . . . . . . . . . . . . . . 125<br />

11.10.6 Miary siªy zwiazku nominalnych zmiennych jako±ciowych . . . . . . 128<br />

11.11Test istotno±ci dla wspóªczynnika korelacji Pearsona . . . . . . . . . . . . 132<br />

11.12Test istotno±ci dla stosunku korelacyjnego . . . . . . . . . . . . . . . . . 134


SMOP-2 B.Kamys: 2007/08 3<br />

12 Metoda Monte Carlo 138<br />

12.1 Liczenie caªek metoda Monte Carlo . . . . . . . . . . . . . . . . . . . . 138<br />

12.2 Zmniejszanie bªedu caªki . . . . . . . . . . . . . . . . . . . . . . . . . . 141<br />

12.3 Generacja liczb losowych . . . . . . . . . . . . . . . . . . . . . . . . . . 143<br />

12.3.1 Generacja liczb o rozkªadzie równomiernym . . . . . . . . . . . . 143<br />

12.3.2 Generacja liczb losowych o dowolnych rozkªadach prawdopodobie«stwa 145<br />

12.3.3 Generacja wielowymiarowych zmiennych losowych . . . . . . . . . 153<br />

12.4 Modelowanie komputerowe . . . . . . . . . . . . . . . . . . . . . . . . 155<br />

12.4.1 Modelowanie przechodzenia neutronów przez o±rodek symulacja . . 155<br />

12.4.2 Modelowanie przez zastosowanie wag statystycznych . . . . . . . . 162<br />

12.4.3 Modelowanie przechodzenia neutronów przez o±rodek wagi statystyczne<br />

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164


SMOP-2 B.Kamys: 2007/08 4<br />

1 WSTEP - podstawowe poj¦cia<br />

W tym wst¦pie zostan¡ przypomniane podstawowe pojecia teorii prawdopodobie«stwa.<br />

Nie powtarzamy wszystkich niezbednych denicji (mo»na je znale¹¢ w notatkach do wykªadu<br />

ze Statystycznych Metod Opracowania Pomiarów I na stronie internetowej IFUJ).<br />

1. Zdarzenia losowe. Badane zdarzenia traktujemy jako zdarzenia losowe. Denicje<br />

zdarze« losowych omawiali±my na SMOP1 a tu przypomnijmy tylko intuicyjne okre-<br />

±lenie; sa to takie zdarzenia o których nie mo»emy z góry wyrokowa¢ czy<br />

zajda czy te» nie. To intuicyjne okre±lenie nie uwzgl¦dnia zdarzenia pewnego<br />

(zachodz¡cego zawsze) i zdarzenia niemo»liwego (nie zachodz¡cego nigdy), które<br />

formalnie nale»¡ do zdarze« losowych.<br />

2. Ka»demu zdarzeniu losowemu mo»emy przypisa¢ prawdopodobie«stwo, które jest<br />

miara czesto±ci pojawiania sie zdarzenia w okre±lonych warunkach (de-<br />

nicje tak»e poznali±my na wykªadzie SMOP-1). Prawdopodobie«stwo i metody<br />

pracy z prawdopodobie«stwem stanowia dziaª matematyki nazywany teoria prawdopodobie«stwa,<br />

na której opieraj¡ si¦ wszystkie rozwa»ania statystyki tak jak rozwa»ania<br />

zyki opieraj¡ si¦ na formali¹mie matematyki.<br />

3. Zmienne losowe to dodatkowe (poza prawdopodobie«stwem) charakterystyki zdarze«<br />

losowych. W zyce zajmujemy sie tylko wielko±ciami, które mog¡ by¢ zmierzone<br />

tzn. takimi, które moga by¢ ilo±ciowo porównane z wielko±ci¡ tego samego rodzaju<br />

przyj¦t¡ za jednostke. Dlatego te» w zyce wystepuja tylko ilo±ciowe zmienne<br />

losowe.<br />

W przyrodniczych dziedzinach wiedzy zwiazanych z organizmami »ywymi, wprowadza<br />

sie tak»e jako±ciowe zmienne losowe. Zmienne te dzielimy na zmienne nominalne,<br />

dla których okre±lona jest jedynie relacja identyczny - ró»ny i zmienne<br />

porzadkowe, dla których dodatkowo mo»na wprowadzi¢ relacje uporzadkowania<br />

(lepszy ni» , bardziej bolesny, itp.). Dla zmiennych nominalnych i porzadkowych<br />

stosuje si¦ specyczne metody statystyczne.<br />

Warto przypomnie¢, »e obok powy»szego podziaªu wprowadzone sa inne klasykacje,<br />

np. zmienne mierzalne dzieli sie na zmienne ciagªe i zmienne dyskretne ze<br />

wzgledu na przyjmowany zbiór warto±ci (oczywi±cie moga równie» istnie¢ zmienne<br />

o charakterze mieszanym, tzn. przyjmujace w pewnych przedziaªach zmienno±ci<br />

warto±ci dyskretne a w innych warto±ci ciagªe). Inny jeszcze podziaª zmiennych<br />

mierzalnych to podziaª na zmienne przedziaªowe, dla których nie jest okre±lone<br />

naturalne zero skali (np. temperatura w skali Celsjusza) oraz zmienne stosunkowe<br />

gdzie zero skali jest naturalnym a nie umownym zerem (np. temperatura w skali<br />

bezwzglednej). Dla pierwszego typu zmiennych istotne sa tylko przyrosty zmiennej<br />

a nie ma sensu bezwzgledna warto±¢ tych zmiennych a wiec w szczególno±ci nie<br />

mo»na liczy¢ ilorazów warto±ci tych zmiennych w odró»nieniu od zmiennych stosunkowych<br />

gdzie ilorazy sa dobrze okre±lone i moga by¢ poprawnie interpretowane.<br />

Stad wªa±nie pochodza przytoczone nazwy.


SMOP-2 B.Kamys: 2007/08 5<br />

4. Statystyka jest dziaªem nauki, który posªugujac sie metodami teorii prawdopodobie«stwa<br />

zajmuje sie zdarzeniami losowymi badanymi w praktyce do±wiadczalnej i<br />

obserwacyjnej. W szczególno±ci statystyka podaje przepisy jak na podstawie sko«-<br />

czonej grupy obserwacji czy pomiarów wnioskowa¢ o wszystkich mo»liwych obserwacjach<br />

i pomiarach (teoria estymacji) i okre±la reguªy stawiania hipotez i ich<br />

sprawdzania na podstawie sko«czonej liczby obserwacji czy pomiarów (testowanie<br />

hipotez statystycznych). W obu tych podstawowych dziaªach statystyki trzeba<br />

stosowa¢ specyczne metody je»eli mamy do czynienia ze zmiennymi nominalnymi<br />

i porzadkowymi.<br />

5. Metoda Monte Carlo to bardzo rozpowszechniona ostatnio metoda rozwi¡zywania<br />

ró»nych zada« matematyki i nauk przyrodniczych przez przyporz¡dkowanie oryginalnemu<br />

problemowi równowa»nego zagadnienia z teorii prawdopodobie«stwa i<br />

rozwi¡zania tego problemu metodami statystycznymi.<br />

6. Rozkªad prawdopodobie«stwa, funkcja gesto±ci prawdopodobie«stwa i dystrybuanta<br />

zwana tak»e przez statystyków funkcja rozkªadu sa wielko±ciami u»ywanymi<br />

do okre±lenia, jakie jest prawdopodobie«stwo pojawiania sie ró»nych warto-<br />

±ci (mierzalnej) zmiennej losowej. Odpowiednie denicje poznali±my na wykªadzie<br />

SMOP1.<br />

DEFINICJA:<br />

Przypomnijmy tutaj, »e rozkªad prawdopodobie«stwa to przyporzadkowanie dyskretnym<br />

warto±ciom zmiennej losowej prawdopodobie«stw - stosowany jest wiec<br />

tylko dla dyskretnych zmiennych losowych:<br />

P (x k ) = p k , k = 1, 2, . . . (1)<br />

PRZYKŠAD:<br />

Rozkªad dwumianowy (Bernoulliego) to rozkªad prawdopodobie«stwa pojawienia<br />

si¦ k pozytywnych wyników w serii n niezale»nych prób je»eli wiadomo, »e prawdopodobie«stwo<br />

otrzymania pozytywnego wyniku w pojedynczej próbie wynosi p:<br />

P (k) =<br />

(<br />

n<br />

k<br />

)<br />

· p k · (1 − p) n−k (2)<br />

Zmienna k przyjmuje warto±ci od zera do n.


SMOP-2 B.Kamys: 2007/08 6<br />

Jak ªatwo sprawdzi¢ suma prawdopodobie«stw wszystkich (wykluczaj¡cych si¦) wyników<br />

na warto±¢ zmiennej k jest równa jedno±ci bo zgodnie ze wzorem Newtona<br />

taka suma jest równa n-tej pot¦dze dwumianu; [p+(1−p)] n , który to»samo±ciowo<br />

równy jest jedno±ci.<br />

DEFINICJA:<br />

Funkcja gesto±ci prawdopodobie«stwa okre±la jakie jest prawdopodobie«stwo<br />

przyjmowania przez zmienna ciagªa X warto±ci z przedziaªu [x, x + dx]:<br />

f(x)dx ≡ P (x ≤ X ≤ x + dx) (3)<br />

Stad mo»na ªatwo wydedukowa¢ nastepujace, wa»ne wªasno±ci funkcji gesto±ci prawdopodobie«stwa:<br />

• f(x) ≥ 0<br />

• wymiar f(x) to 1/(wymiar x)<br />

• f(x) jest unormowana: ∫ +∞<br />

−∞<br />

f(x)dx = 1.<br />

DEFINICJA:<br />

Najbardziej ogólna wielko±cia, która mo»na zastosowa¢ zarówno do zmiennych<br />

ciagªych jak i dyskretnych jest dystrybuanta zdeniowana nastepujaco:<br />

F (x) ≡ P (X < x) (4)<br />

przy czym dla zmiennych ciagªych istnieje nastepujaca relacja pomiedzy dystrybuanta<br />

i funkcja gesto±ci prawdopodobie«stwa:<br />

oraz<br />

F (x) =<br />

f(x) =<br />

∫ x<br />

−∞<br />

f(t)dt<br />

dF (x)<br />

dx .<br />

7. Warto±¢ oczekiwana,wariancja,odchylenie standardowe to podstawowe wielko-<br />

±ci, które zawieraja w sobie wa»ne informacje o rozkªadzie prawdopodobie«stwa<br />

(funkcji gesto±ci prawdopodobie«stwa). Znajomo±¢ tych wielko±ci musi nam czesto


SMOP-2 B.Kamys: 2007/08 7<br />

zastapi¢ znajomo±¢ rozkªadu prawdopodobie«stwa, który znacznie trudniej wyznaczy¢<br />

z do±wiadczenia.<br />

DEFINICJA:<br />

Warto±¢ oczekiwana x deniowana jest dla zmiennych ciagªych jako:<br />

∫<br />

E(x) ≡<br />

x · f(x)dx (5)<br />

oraz dla zmiennych dyskretnych jako:<br />

E(x) ≡ ∑ i<br />

x i · p(x i ) (6)<br />

WŠASNO‘CI:<br />

• Warto±¢ oczekiwana jest ta warto±cia, dookoªa której gromadza sie<br />

warto±ci zmiennej losowej - wynika to z nierówno±ci Czebyszewa podanej<br />

poni»ej (po denicji wariancji).<br />

• Warto zapamieta¢, »e warto±¢ oczekiwana kombinacji liniowej jest kombinacja<br />

liniowa warto±ci oczekiwanych bo operator caªkowania i operator sumy sa operatorami<br />

liniowymi:<br />

E( ∑ j<br />

C j x j ) ≡ ∑ j<br />

C j · E(x j )<br />

• Cz¦sto wykorzystuje si¦ fakt, »e warto±¢ oczekiwan¡ pewnej funkcji zmiennej<br />

x; g(x), mo»na policzy¢ korzystaj¡c z funkcji g¦sto±ci prawdopodobie«-<br />

stwa (rozkªadu prawdopodobie«stwa) samego argumentu x:<br />

E(g(x)) =<br />

∫<br />

g(x) · f(x)dx<br />

= ∑ g(x i ) · p(x i )<br />

DEFINICJA:<br />

i<br />

Wariancja, oznaczana var(x) lub σ 2 (x) deniowana jest jako warto±¢ oczekiwana<br />

kwadratu odchylenia zmiennej od jej warto±ci oczekiwanej:


SMOP-2 B.Kamys: 2007/08 8<br />

var(x) ≡ E [ (x − E(x)) 2] (7)<br />

Prosze zapamieta¢ trzy nastepujace wªasno±ci wariancji, które czesto wykorzystuje<br />

sie w praktyce:<br />

• Wariancja nie zmienia sie przy przesunieciu zera skali zmiennej x (lub jak kto<br />

woli nie zmienia sie przy dodaniu dowolnej staªej do zmiennej x),<br />

• Zmiana jednostki skali o czynnik C (lub inaczej pomno»enie zmiennej x przez<br />

staªe C) powoduje pomno»enie wariancji przez czynnik C 2 .<br />

• Czesto wygodnie jest liczy¢ wariancje zmiennej x jako ró»nice warto±ci oczekiwanej<br />

kwadratu zmiennej x i kwadratu warto±ci oczekiwanej x:<br />

var(x) = E(x 2 ) − E 2 (x)<br />

Dwie pierwsze wªasno±ci wynikaja w prosty sposób z denicji wariancji oraz z faktu,<br />

»e w pierwszym przypadku dodanie staªej warto±ci C do zmiennej x powoduje dodanie<br />

tej samej warto±ci C do warto±ci oczekiwanej E(x) (a wiec ró»nica x − E(x)<br />

nie zmienia sie) a w drugim przypadku pomno»enie zmiennej x przez staªy czynnik<br />

C powoduje pomno»enie warto±ci oczekiwanej x przez ten czynnik a operacja<br />

podnoszenia do kwadratu, wystepujaca w denicji wariancji, powoduje pojawienie<br />

sie czynnika C 2 . Trzecia wªasno±¢ ªatwo otrzyma¢ rozpisujac jawnie kwadrat ró»-<br />

nicy wystepujacy w denicji wariancji a nastepnie dziaªajac operatorem warto±ci<br />

oczekiwanej na poszczególne wyrazy.<br />

DEFINICJA:<br />

Odchylenie standardowe σ(x) z denicji jest pierwiastkiem arytmetycznym (liczba<br />

nieujemna) z wariancji.<br />

Wariancja lub/i odchylenie standardowe u»ywane sa jako miary rozrzutu<br />

warto±ci zmiennej losowej x dookoªa jej warto±ci oczekiwanej co mo»na<br />

wywnioskowa¢ z nierówno±ci Czebyszewa:<br />

Nierówno±¢ Czebyszewa gªosi, »e dla ka»dej zmiennej losowej, która posiada skonczona<br />

wariancje (a wiec i warto±¢ oczekiwana) zachodzi zwiazek (∀ k > 0):<br />

P (|x − E(x)| ≥ k · σ(x)) ≤ 1 k 2 . (8)<br />

Skoro warto±¢ oczekiwana i odchylenie standardowe zmiennej x maja interpretacje<br />

centrum rozkªadu i naturalnej jednostki zmiennej x to jest oczywiste, »e dla celów


SMOP-2 B.Kamys: 2007/08 9<br />

praktycznych wygodnie jest wprowadzi¢ tzw.<br />

zdeniowana jest jako:<br />

zmienna standaryzowana, która<br />

z ≡<br />

(x − E(x))<br />

σ(x)<br />

(9)<br />

Jak ªatwo sprawdzi¢ warto±¢ oczekiwana zmiennej standaryzowanej równa jest zero:<br />

E(z) = 0 a odchylenie standardowe równe jest jedno±ci: σ(z) = 1. Zgodnie z<br />

twierdzeniem Czebyszewa warto±ci zmiennej standaryzowanej gromadza<br />

sie dookoªa warto±ci zerowej na odcinku równym kilku jednostkom .<br />

8. Kwantyle (albo fraktyle) to nastepne wa»ne i wygodne wielko±ci charakteryzujace<br />

rozkªad prawdopodobie«stwa (funkcje gesto±ci prawdopodobie«stwa).<br />

DEFINICJA:<br />

Kwantylem na poziomie q nazywamy taka warto±¢ zmiennej losowej x q , dla której<br />

speªniona jest relacja:<br />

p(X < x q ) = q (10)<br />

Korzystajac z denicji dystrybuanty F (x) mo»emy ten zwiazek zapisa¢ nastepujaco:<br />

F (x q ) = q.<br />

Kwantyle u»ywane sa bardzo czesto przy testowaniu hipotez statystycznych a<br />

tak»e przy estymacji przedziaªowej.<br />

DEFINICJA:<br />

Specycznymi kwantylami sa decyle, tj. kwantyle na poziomie 0,1, 0,2, 0,3 ... oraz<br />

percentyle, tj. kwantyle na poziomie 0,01, 0,02, ...<br />

DEFINICJA:<br />

U»ywa sie równie» specjalnej nazwy na okre±lenie kwantyla x 0.5 (mediana) oraz na<br />

okre±lenie kwantyli x 0.25 i x 0.75 (dolny kwartyl i górny kwartyl).


SMOP-2 B.Kamys: 2007/08 10<br />

Mediana sªu»y do okre±lania gdzie grupuja sie warto±ci zmiennej (poªowa warto-<br />

±ci zmiennej jest mniejsza od mediany a poªowa wieksza) a wiec mediana mo»e<br />

by¢ zastosowana w tym samym celu co warto±¢ oczekiwana . U»ywa sie jej<br />

szczególnie wtedy gdy pojawiaja sie warto±ci zmiennej losowej silnie odró»niajace<br />

sie od pozostaªych (nawet gdy pojawiaja sie one rzadko maja zwykle silny wpªyw<br />

na warto±¢ oczekiwana a znacznie mniejszy na mediane). Dotyczy to przede wszystkim<br />

zmiennych dyskretnych oraz, co jest bardzo wa»ne, oszacowa« (estymatorów)<br />

warto±ci oczekiwanej i mediany na podstawie niewielkiej próby.<br />

Kwartyle u»ywane sa dla scharakteryzowania rozrzutu warto±ci badanej zmiennej<br />

losowej (podobnie jak odchylenie standardowe) bo ich ró»nica daje pojecie o zakresie<br />

zmienno±ci rozwa»anej zmiennej.


SMOP-2 B.Kamys: 2007/08 11<br />

2 WIELOWYMIAROWE ZMIENNE LOSOWE<br />

Wielowymiarowa zmienna losowa deniowana jest analogicznie jak jednowymiarowa<br />

(skalarna), tzn. mo»na ja traktowa¢ jako wektor, którego skªadowe sa jednowymiarowymi<br />

zmiennymi losowymi.<br />

DEFINICJA:<br />

Dystrybuanta :<br />

F (x 1 , .., x N ) = P (X 1 < x 1 , ..., X N < x N ) (11)<br />

DEFINICJA:<br />

Funkcja gesto±ci prawdopodobie«stwa:<br />

f(x 1 , ..., x N ).dx 1 ...dx N = P (x 1 ≤ X 1 < x 1 + dx 1 , ..., x N ≤ X N < x N + dx N ) (12)<br />

Oprócz funkcji gesto±ci prawdopodobie«stwa dla caªego wektora losowego (X 1 , .., X N )<br />

mo»na zdeniowa¢ jeszcze :<br />

• Rozkªad brzegowy gesto±ci prawdopodobie«stwa i<br />

• Rozkªad warunkowy gesto±ci prawdopodobie«stwa.<br />

DEFINICJA:<br />

Brzegowy rozkªad gesto±ci prawdopodobie«stwa<br />

zmiennej X i ( i tej skªadowej wektora losowego) to wynik wycaªkowania funkcji gesto±ci<br />

prawdopodobie«stwa dla caªej wielowymiarowej zmiennej po wszystkich skªadowych z<br />

wyjatkiem X i :<br />

∫<br />

f b (X i ) =<br />

dx 1 ..dx i−1 .dx i+1 ...dx N .f(x 1 , ..., x N ) (13)<br />

Oczywi±cie mo»na stworzy¢ rozkªady brzegowe dla dwuwymiarowych zmiennych (je»eli<br />

N > 2) caªkujac po wszystkich zmiennych z wyjatkiem tych dwu wybranych,rozkªad


SMOP-2 B.Kamys: 2007/08 12<br />

brzegowy dla trzywymiarowych (je»eli N > 3) caªkujac po wszystkich z wyjatkiem tych<br />

trzech zmiennych, itd.<br />

Rozkªad warunkowy f w zmiennych (X 1 , .., X i ) pod warunkiem, »e zmienne (X i+1 , .., X N )<br />

przyjmuja warto±¢ w niesko«czenie maªym przedziale (x i+1 ≤ X i+1 < x i+1 , .., x N ≤<br />

X N < x N ) deniowany jest nastepujaco:<br />

f w (x 1 , .., x i |x i+1 , .., x N ) = f(x 1, .., x N )<br />

f b (x i+1 , .., x N )<br />

(14)<br />

Rozkªad ten nie jest okre±lony, gdy rozkªad brzegowy wystepujacy w mianowniku zeruje<br />

sie. Wska¹niki w i b zostaªy u»yte w tym wzorze aby podkre±li¢, »e posta¢ funkcyjna<br />

tych rozkªadów jest w ogólno±ci inna ni» rozkªadu f(x 1 , .., x N ).<br />

Rozkªad warunkowy mo»na tworzy¢ dla ró»nych zespoªów skªadowych wektora losowego,<br />

np. mogliby±my zdeniowa¢ rozkªad warunkowy pojedynczej zmiennej X N pod<br />

warunkiem, »e pozostaªe zmienne przyjmuja okre±lone warto±ci.<br />

Rozkªad prawdopodobie«stwa wielowymiarowej dyskretnej zmiennej losowej jest<br />

oczywistym uogólnieniem rozkªadu jednowymiarowego, a brzegowy rozkªad prawdopodobie«stwa<br />

i warunkowy rozkªad prawdopodobie«stwa tworzy sie tak jak ich<br />

odpowiedniki dla zmiennej ciagªej zastepujac caªkowanie sumowaniem po warto±ciach odpowiednich<br />

skªadowych.<br />

Warto równie» pamieta¢, »e mo»na tworzy¢ brzegowa dystrybuante i warunkowa<br />

dystrybuante (zarówno dla zmiennej ciagªej jak i skokowej).<br />

Niezale»ne zmienne losowe to takie, »e rozkªad warunkowy zmiennej (mo»e to by¢<br />

wielowymiarowa zmienna) pod warunkiem, »e druga zmienna przyjmuje konkretne warto-<br />

±ci (ta zmienna te» mo»e by¢ wielowymiarowa) równy jest rozkªadowi brzegowemu pierwszej<br />

zmiennej:<br />

f w (⃗x 1 |⃗x 2<br />

) = f b (⃗x 1 ) (15)<br />

Warunkiem koniecznym i wystarczajacym niezale»no±ci zmiennych losowych<br />

jest aby ich wspólna funkcja gesto±ci prawdopodobie«stwa (dla zmiennej ciagªej) lub ich<br />

wspólny rozkªad prawdopodobie«stwa (dla zmiennej dyskretnej) faktoryzowaªy sie tzn.<br />

f(x 1 , ...x N ) = f 1 (x 1 ).f 2 (x 2 )....f N (x N ) (16)


SMOP-2 B.Kamys: 2007/08 13<br />

UWAGA:<br />

Zale»no±¢ statystyczna zmiennych jest sªabsza ni» zwiazek funkcyjny bo oznacza tylko,<br />

»e rozkªad prawdopodobie«stwa a nie warto±¢ jednej ze zmiennych zale»y od warto±ci<br />

drugiej zmiennej. Co wiecej, zale»no±¢ statystyczna nie oznacza zwiazku przyczynowego.<br />

Najlepiej wida¢ to z faktu, »e gdy zmienna x nie zale»y statystycznie od y to automatycznie<br />

y nie zale»y statystycznie od x a tak wcale nie musi by¢ przy zwiazku<br />

przyczynowym, np. z faktu, »e wiek czªowieka nie zale»y przyczynowo od wzrostu nie<br />

wynika, »e wzrost nie zale»y przyczynowo od wieku.<br />

PRZYKŠAD<br />

dla 2-wymiarowej zmiennej losowej:<br />

Wspólna funkcja gesto±ci prawdopodobie«stwa X 1 i X 2 jest staªa (wynosi 1 / 2 ) w kwadracie<br />

o wierzchoªkach {(-1,0),(0,1),(1,0) i (0,-1)} a zeruje sie poza kwadratem.<br />

Rozkªad brzegowy X 1 :<br />

⎧<br />

⎪⎨<br />

f b (X 1 ) =<br />

⎪⎩<br />

0 dla X 1 ≤ −1<br />

X 1 + 1 dla −1 ≤ X 1 ≤ 0<br />

−X 1 + 1 dla 0 ≤ X 1 ≤ +1<br />

0 dla X 1 ≥ +1<br />

Jest to rozkªad trójkatny zwany rozkªadem Simpsona. Mo»na wyobrazi¢ sobie<br />

pogladowo, »e w powy»szym przykªadzie liczenie rozkªadu brzegowego jest równowa»ne<br />

zsypywaniu punktów jednorodnego rozkªadu w kwadracie na o± X 1 co powoduje, »e rozkªad<br />

brzegowy ma ksztaªt trójkata (w kwadracie zmiennych X 1 , X 2 najwiecej punktów<br />

ma wspóªrzedna X 1 bliska zeru a ilo±¢ punktów z wiekszymi lub mniejszymi warto±ciami<br />

tej wspóªrzednej maleje liniowo.<br />

Rozkªad warunkowy X 1 pod warunkiem X 2 .<br />

f w (X 1 |X 2 ) =<br />

1<br />

2<br />

f b (X 2 )<br />

Wzór ten wa»ny jest dla nastepujacego przedziaªu zmiennej X 1 :<br />

−X 2 − 1 ≤ X 1 ≤ +X 2 + 1 gdy − 1 ≤ X 2 ≤ 0<br />

+X 2 − 1 ≤ X 1 ≤ −X 2 + 1 gdy 0 ≤ X 2 ≤ +1<br />

Jak wida¢ rozkªad warunkowy X 1 jest rozkªadem równomiernym w przedziale, którego<br />

dªugo±¢ zale»y od warto±ci X 2 , co oznacza, »e zmienne sa zale»ne. Mo»emy to uja¢<br />

inaczej: Poniewa» f w (X 1 |X 2 ) ≠ f b (X 1 ) to zmienne X 1 i X 2 sa zale»ne !.<br />

Wyznaczanie rozkªadu warunkowego f w (X 1 |X 2 ) mo»na sobie wyobrazi¢ jako ogladanie<br />

(patrzac wzdªu» osi X 2 ) przekroju prostopadªo±cianu wykonanego wzdªu» linii równolegªej<br />

do osi X 1 i przechodzacej przez punkt o okre±lonej warto±ci X 2 . Przekrój ten to prostokat,<br />

którego jeden bok - przedziaª zmienno±ci X 1 - zale»y od X 2 a poniewa» ze wzgledu na


SMOP-2 B.Kamys: 2007/08 14<br />

normalizacje pole tego przekroju musi by¢ równe jedno±ci to i drugi bok prostokata -<br />

warto±¢ warunkowej funkcji gesto±ci prawdopodobie«stwa f w (X 1 |X 2 ) = 1/(2 · f b (X 2 ))<br />

musi zale»e¢ od X 2 .<br />

Wychodzac z takiej interpretacji rozkªadu warunkowego wida¢, »e gdyby kwadrat, w którym<br />

staªa funkcja gesto±ci prawdopodobie«stwa zmiennych (X 1 , X 2 ) jest ró»na od zera,<br />

miaª boki równolegªe do osi X 1 i X 2 to rozkªad warunkowy jednej ze zmiennych nie zale»aªby<br />

od warto±ci drugiej zmiennej a wiec zmienne byªyby niezale»ne statystycznie.


SMOP-2 B.Kamys: 2007/08 15<br />

2.1 ROZKŠAD PRAWDOPODOBIE‹STWA FUNKCJI<br />

WIELOWYMIAROWEJ ZMIENNEJ LOSOWEJ<br />

Bardzo czesto interesuje nas rozkªad zmiennej losowej, która jest funkcja wielowymiarowej<br />

zmiennej losowej, np. rozkªad sumy Z=X 1 +X 2 , iloczynu Z=X 1· X 2 , itd. W<br />

szczególno±ci mo»emy by¢ zainteresowani rozkªadem wielowymiarowej zmiennej losowej,<br />

która jest funkcja innej wielowymiarowej zmiennej losowej. Poni»ej podany jest wzór,<br />

który stanowi uogólnienie wzoru na rozkªad skalarnej funkcji skalarnego losowego argumentu:<br />

dX(Y )<br />

g(Y ) = f(X(Y ))<br />

∣ dY ∣<br />

Wzór ten stosowaª sie dla monotonicznej funkcji g(Y ) - w przypadku niemonotonicznej<br />

funkcji nale»y rozpatrywa¢ oddzielnie odcinki warto±ci argumentu, gdzie funkcja jest<br />

monotoniczna. Analogiem dla wektorowej funkcji wektorowego argumentu losowego (oba<br />

wektory o tym samym wymiarze) jest:<br />

∥ ∥∥∥∥∥ ∂X<br />

g(⃗Y ) = f( ⃗X(⃗Y ))<br />

i (⃗Y )<br />

(17)<br />

∥ ∂Y j<br />

Jak wida¢ oba wzory sa bardzo podobne, z tym »e moduª pochodnej zostaª zastapiony<br />

moduªem jakobianu. Wzór ten podobnie jak jego skalarny analog stosuje sie dla monotonicznych<br />

relacji pomiedzy zmiennymi.<br />

Je»eli znamy rozkªad wektorowej zmiennej losowej ⃗X to mo»emy otrzyma¢ rozkªad skalarnej<br />

zmiennej Y = y( ⃗X) wykonujac nastepujace dziaªania:<br />

• Tworzymy nowa wektorowa zmienna losowa ⃗Y o takim samym wymiarze jak ⃗X przy<br />

czym jedna ze skªadowych wektora ⃗Y jest interesujaca nas skalarna zmienna Y a<br />

pozostaªe skªadowe sa dowolne. Warunkiem na nie nakªadanym jest tylko istnienie<br />

jakobianu ∂X i<br />

∂Y j<br />

.<br />

• Caªkujemy po pomocniczych zmiennych traktujac interesujaca nas skalarna zmienna<br />

jako staªa (bedzie to oczywi±cie caªka po krzywej Y=const w przestrzeni zmiennych<br />

⃗Y ). Ten rozkªad brzegowy wielowymiarowego rozkªadu zmiennej ⃗Y jest szukanym<br />

rozkªadem skalarnej zmiennej Y.<br />

Oczywi±cie, taka sama procedure mo»na zastosowa¢, gdy szukamy rozkªadu zmiennej<br />

wektorowej ⃗Y ′ , o wymiarze mniejszym ni» wymiar ⃗Y .


SMOP-2 B.Kamys: 2007/08 16<br />

Dla prostych funkcji takich jak suma, ró»nica, iloczyn i iloraz dwu zmiennych <br />

z = x + y, z = y − x, z = x · y i z = y/x mo»na poda¢ ogólne wzory:<br />

g(z ≡ x + y) =<br />

g(z ≡ y − x) =<br />

g(z ≡ x · y) =<br />

g(z ≡ y/x) =<br />

+∞ ∫<br />

−∞<br />

+∞ ∫<br />

−∞<br />

+∞ ∫<br />

−∞<br />

+∞ ∫<br />

−∞<br />

f(x, z − x)dx =<br />

f(x, z + x)dx =<br />

+∞ ∫<br />

−∞<br />

+∞ ∫<br />

−∞<br />

1<br />

|x| f(x, z +∞ ∫<br />

x )dx =<br />

|x| f(x, zx)dx =<br />

−∞<br />

+∞ ∫<br />

−∞<br />

f(z − y, y)dy (18)<br />

f(y − z, y)dy (19)<br />

1<br />

|y| f(z , y)dy (20)<br />

y<br />

|y|<br />

z f(y , y)dy (21)<br />

2 z<br />

Szczególnie prosto wygladaja te wzory, gdy x i y sa niezale»ne - wówczas funkcja f(x, y)<br />

wystepujaca pod caªka wyra»a sie przez iloczyn dwu funkcji f 1 (x) i f 2 (y). Warto<br />

pamieta¢ o obu wersjach ka»dego wzoru, gdy» mo»e sie zdarzy¢, »e niektóre tylko caªki<br />

daja sie ªatwo policzy¢.<br />

W praktyce do±wiadczalnej rzadko mamy do czynienia z taka sytuacja, »e potramy<br />

wyznaczy¢ dystrybuante wielowymiarowej zmiennej czy te» funkcje gesto±ci prawdopodobie«stwa<br />

(dla zmiennej ciagªej) lub rozkªad prawdopodobie«stwa (dla zmiennej dyskretnej).<br />

Dlatego musimy sie zadowala¢ mniej peªnymi informacjami zawartymi w momentach<br />

rozkªadu. Dla zmiennych wielowymiarowych deniowane s¡ nowe typy momentów,<br />

które nie tylko informuj¡ o ksztaªcie i poªo»eniu rozkªadu ale s¡ szczególnie istotne dla<br />

badania zale»no±ci statystycznej pomi¦dzy zmiennymi losowymi. Do tego celu najlepiej<br />

nadaja sie nastepujace wielko±ci: macierz kowariancji oraz krzywe regresji zdeniowane<br />

poni»ej.


SMOP-2 B.Kamys: 2007/08 17<br />

2.2 MOMENTY ROZKŠADU WIELOWYMIAROWEJ<br />

ZMIENNEJ LOSOWEJ<br />

Momentem wielowymiarowej zmiennej losowej X (X 1 ,...,X N ) rzedu k 1 +...+k N wzgledem<br />

punktu X 0 (X 01 ,...,X 0N ) nazywamy wielko±¢ zdeniowana wzorem:<br />

∫<br />

m k1 +...+k N<br />

(X 01 , ..., X 0N ) =<br />

dX 1 ...dX N .f(X 1 , ..., X N ).(X 1 −X 01 ) k 1<br />

...(X N −X 0N ) k N<br />

(22)<br />

Ten wzór jest sªuszny dla zmiennej ciagªej a dla dyskretnej trzeba caªke zamieni¢ na sume<br />

i funkcje gesto±ci prawdopodobie«stwa na rozkªad prawdopodobie«stwa.<br />

Najwa»niejsze momenty dla celów analizy statystycznej danych to:<br />

Warto±¢ oczekiwana czyli pierwszy moment wzgledem poczatku ukªadu wspóªrzednych:<br />

E{ ⃗X} = (m 10...0 (0, .., 0), ..., m 0...01 (0, ..., 0))<br />

jest to wektor o skªadowych równych warto±ciom oczekiwanym poszczególnych zmiennych<br />

E{ ⃗X} = (E{X 1 }, E{X 2 }, ...E{X N }) (23)<br />

Wariancja czyli drugi moment wzgledem warto±ci oczekiwanej:<br />

var{X 1 } = m 20...0 (E{X 1 }, ..., E{X N })<br />

.............<br />

var{X N } = m 00...2 (E{X 1 }, ..., E{X N })<br />

(24)<br />

Kowariancja czyli drugi moment mieszany wzgledem warto±ci oczekiwanej:<br />

cov{X 1 , X 2 } = m 1100..0 (E{X 1 }, .., E{X N }),<br />

cov{X 1 , X 3 } = m 1010..0 (E{X 1 }, .., E{X N }),<br />

.....<br />

(25)


SMOP-2 B.Kamys: 2007/08 18<br />

Poniewa» wariancje mo»na uwa»a¢ za kowariancje policzona dla dwukrotnie powtórzonej<br />

zmiennej var{X i } = cov{X i ,X i } to wygodnie jest zgromadzi¢ wariancje i kowariancje w<br />

jeden zespóª wielko±ci zwany macierza kowariancji.<br />

• Na gªównej przekatnej macierzy kowariancji znajduja sie wariancje a poza przekatna<br />

kowariancje.<br />

• Macierz kowariancji jest: rzeczywista, symetryczna i dodatnio okre±lona.<br />

Mo»na ja wiec zawsze zdiagonalizowa¢ przez liniowa transformacje zmiennych pozostawiajac<br />

jedynie wariancje na diagonali.<br />

Czesto zamiast macierzy kowariancji tworzy sie macierz korelacji.<br />

Macierz ta skªada sie ze wspóªczynników korelacji ρ(X i ,X j ) zdeniowanych nastepujaco:<br />

ρ(X i , X j ) =<br />

cov{X i , X j }<br />

√<br />

var{Xi }.var{X j } (26)<br />

Oczywi±cie diagonalne elementy macierzy korelacji to jedynki a pozadiagonalne to odpowiednie<br />

wspóªczynniki korelacji.<br />

Wªasno±ci wspóªczynnika korelacji<br />

○ Wspóªczynnik korelacji przyjmuje warto±ci z przedziaªu [-1,+1]<br />

○ Je»eli zmienne sa niezale»ne to wspóªczynnik korelacji jest równy zero.<br />

○ Gdy wspóªczynnik korelacji równy jest zero (mówimy wtedy, »e zmienne sa<br />

nieskorelowane) to zmienne sa niezale»ne liniowo ale moga by¢ zale»ne i to nawet<br />

funkcyjnie.<br />

○ Je»eli zmienne X i Y sa zwiazane funkcyjnym zwiazkiem liniowym ; Y=<br />

aX+b to wspóªczynnik korelacji jest równy jedno±ci co do moduªu a jego znak jest taki<br />

sam jak znak wspóªczynnika kierunkowego prostej.<br />

○ Je»eli moduª wspóªczynnika korelacji jest równy jedno±ci to X i Y zwiazane<br />

sa funkcyjnym zwiazkiem liniowym Y= aX+b a znak wspóªczynnika kierunkowego prostej<br />

jest taki sam jak znak wspóªczynnika korelacji.<br />

Badanie wspóªczynników korelacji daje nam pewna informacje o zale»no±ci liniowej<br />

zmiennych gdy warto±¢ wspóªczynnika korelacji jest co do moduªu bliska jedno±ci. Znikanie<br />

wspóªczynnika korelacji mówi nam jedynie, »e zmienne sa niezale»ne liniowo ale nie


SMOP-2 B.Kamys: 2007/08 19<br />

pozwala jednoznacznie stwierdzi¢ czy zmienne sa statystycznie niezale»ne.<br />

Inny rodzaj informacji o spodziewanym zwiazku pomiedzy zmiennymi (niekoniecznie<br />

zwiazku liniowym) mo»na otrzyma¢ badajac jak zachowuje sie warto±¢ oczekiwana jednej<br />

zmiennej gdy potraktujemy ja jako funkcje warto±ci drugiej zmiennej. Taka funkcje<br />

nazywamy funkcja regresji a denicje podajemy poni»ej:<br />

DEFINICJA:<br />

Regresja (lub regresja pierwszego rodzaju ) zmiennej Y wzgledem X nazywamy warunkowa<br />

warto±¢ oczekiwana E{Y |X} traktowana jako funkcja zmiennej X. Oczywi±cie<br />

warunkowa warto±¢ oczekiwana E{X|Y } nazywamy regresja pierwszego rodzaju zmiennej<br />

X wzgledem Y .<br />

Podstawowa wªasno±¢ funkcji regresji E{Y |X} polega na tym, »e warto±¢ oczekiwana<br />

kwadratu odchyle« zmiennej losowej Y od dowolnej funkcji u(X) jest minimalna, gdy<br />

jako te funkcje przyjmiemy funkcje regresji E{Y |X}:<br />

E { (Y − u(X)) 2} ≥ E { (Y − E{Y |X}) 2} (27)<br />

Dowód:<br />

E { (Y − u(X)) 2} = ∫ dX · dY · f(X, Y ) · (Y − u(X)) 2<br />

= ∫ dX · f 1 (X) ∫ dY · f 2 (Y |X) · (Y − u(X)) 2<br />

Wewnetrzna caªka I jest warto±cia oczekiwana kwadratu odchylenia zmiennej Y od pewnej<br />

staªej (u(X) jest staªa je»eli idzie o caªkowanie wzgledem zmiennej Y ). Mo»emy wiec<br />

zapisa¢ te caªke nastepujaco (oznaczamy u(X) ≡ c):<br />

I<br />

≡<br />

∫<br />

dY · f 2 (Y |X) · (Y − u(X)) 2 =<br />

= E{(Y − c) 2 } =<br />

= E{(Y − E{Y } + E{Y } − c) 2 } =<br />

= E{(Y − E{Y }) 2 + 2(Y − E{Y })(E{Y } − c) + (E{Y } − c) 2 } =<br />

= E{(Y − E{Y }) 2 } + 2E{(Y − E{Y })(E{Y } − c)} + E{(E{Y } − c) 2 } =<br />

= E{(Y − E{Y }) 2 + 0 + E{(E{Y } − c) 2 }.<br />

Drugi wyraz zniknaª bo E{Y − E{Y }} ≡ 0 a pozostaªa suma warto±ci oczekiwanych<br />

z kwadratów (Y − E{Y }) 2 i (E{Y } − c) 2 bedzie miaªa minimum gdy E{Y } ≡ c.<br />

Poniewa» we wzorach powy»ej c ≡ u(x) oraz E{Y } ≡ E{Y |X} to wida¢, »e minimum<br />

osi¡gane jest dla u(x) = E{Y |X}.


SMOP-2 B.Kamys: 2007/08 20<br />

c.b.d.o.<br />

UWAGI:<br />

• Metoda estymacji parametrów oparta na omówionej powy»ej wªasno±ci funkcji regresji<br />

nazywana jest metoda najmniejszych kwadratów.<br />

• Funkcja regresji zmiennej Y wzgl¦dem X (E{Y |X}) zwykle nie pokrywa si¦ z<br />

funkcj¡ regresji zmiennej X wzgl¦dem Y (E{X|Y }) co jest spowodowane tym,<br />

»e pierwsza z nich minimalizuje sum¦ kwadratów odchyle« wzdªu» osi Y a druga<br />

wzdªu» osi X. Krzywe reprezentuj¡ce obie regresje pokrywaj¡ si¦ tylko wtedy, gdy<br />

zale»no±¢ pomi¦dzy Y i X jest zale»no±ci¡ funkcyjn¡ a nie statystyczn¡.<br />

Regresja liniowa zwana równie» regresja drugiego rodzaju to linia prosta przybli»ajaca<br />

zale»no±¢ regresji E{Y |X} od X, przy czym parametry tej prostej dobiera sie tak aby<br />

byªa speªniona podstawowa wªasno±¢ regresji tzn. aby warto±¢ oczekiwana sumy kwadratów<br />

odchyle« warto±ci Y od linii prostej byªa minimalna.<br />

W szczególnym przypadku dwuwymiarowego rozkªadu normalnego funkcja regresji<br />

E{Y |X} jest linia prosta a wiec funkcja regresji drugiego rodzaju jest równie» funkcja<br />

regresji pierwszego rodzaju.<br />

Regresja krzywoliniowa to funkcja nieliniowa argumentu X przybli»ajaca regresje E{Y |X}<br />

przy czym parametry funkcji dobierane sa metoda najmniejszych kwadratów. W tym<br />

przypadku nale»y rozró»ni¢ dwie sytuacje:<br />

• Parametry wchodza liniowo do funkcji , np. przybli»enie E{Y |X} przez szereg<br />

wielomianów lub innych funkcji tworzacych ukªad zupeªny. Odpowiada to tzw.<br />

liniowej metodzie najmniejszych kwadratów i pozwala znale¹¢ warto±ci parametrów<br />

jako rozwiazania ukªadu równa« liniowych przy czym dla unikniecia niestabilno±ci<br />

numerycznych zalecane jest stosowanie funkcji, które sa ortogonalne na danym<br />

odcinku lub na zbiorze warto±ci zmiennej X. W szczególno±ci mo»na posªu»y¢ sie<br />

wielomianami ortonormalnymi na zbiorze warto±ci zmiennej X.<br />

• Parametry wchodza nieliniowo do formuª . Wtedy optymalne warto±ci parametrów<br />

sa rozwiazaniami ukªadu równa« nieliniowych, które rozwiazuje sie ró»nymi<br />

sposobami. Jedna z popularnych metod jest szukanie rozwiaza« iteracyjnie znajdujac<br />

w kolejnych iteracjach poprawki do startowych parametrów w sposób analogiczny<br />

jak dla liniowego przypadku metody najmniejszych kwadratów. Osiaga sie<br />

to rozwijajac nieliniowa formuªe w szereg Taylora dokoªa startowych warto±ci parametrów<br />

i obcina sie szereg na wyrazach liniowych. Dla zapewnienia zbie»no±ci<br />

procedury iteracyjnej uzupeªnia sie te metode o szereg pragmatycznych reguª przy-<br />

±pieszajacych zbie»no±¢ i okre±lajacych kiedy nale»y przerwa¢ poszukiwanie warto±ci<br />

parametrów.


SMOP-2 B.Kamys: 2007/08 21<br />

2.3 Przybli»one wzory na momenty funkcji wielowymiarowej zmiennej<br />

Cz¦sto zachodzi potrzeba oszacowania warto±ci oczekiwanej i wariancji wektorowej funkcji<br />

⃗Y od wektorowego argumentu ⃗X gdy znamy dokªadnie warto±¢ oczekiwan¡ E( ⃗X) oraz<br />

macierz kowariancji C( ⃗X).<br />

Dla oszacowania warto±ci oczekiwanej funkcji wielu zmiennych losowych stosuje<br />

sie standardowo poni»sze przybli»enie:<br />

E(⃗y) ≈ ⃗y(E(x 1 ), E(x 2 ), ..E(x N )) (28)<br />

gdzie x 1 , x 2 , ..., x N to skªadowe wektora ⃗X.<br />

Dla oszacowania macierzy kowariancji zmiennej ⃗Y stosuje si¦ wzór:<br />

cov(y k , y q ) ≈ ∑ i,j<br />

( ( ∂yk ∂yq<br />

∂x i<br />

)⃗x=E(⃗x)<br />

∂x j<br />

)⃗x=E(⃗x)<br />

cov(x i , x j ). (29)<br />

Powy»szy wzór nazywa si¦ cz¦sto propagacj¡ bª¦dów.<br />

W zapisie macierzowym wzór ten wygl¡da bardzo prosto:<br />

C(⃗y) ≈ T C(⃗x)T T (30)<br />

gdzie<br />

C ij (⃗x) = cov{x i , x j }<br />

C ij (⃗y) = cov{y i , y j }<br />

( ∂yi<br />

T ij =<br />

∂x j<br />

)⃗x=E(⃗x)<br />

Oba wzory s¡ ±cisªe tylko dla liniowego zwi¡zku pomi¦dzy wektorami ⃗X i ⃗Y .<br />

Powstaªy one przez rozwini¦cie funkcji ⃗Y ( ⃗X) w szereg Taylora dokoªa warto±ci oczekiwanej<br />

wektora ⃗X i obci¦ciu szeregu do wyrazów liniowych.


SMOP-2 B.Kamys: 2007/08 22<br />

Wyprowadzenie:<br />

• Rozwijamy w szereg Taylora skªadowe wektora ⃗Y dokoªa wektora E{⃗x} obcinajac<br />

rozwiniecie na wyrazach liniowych<br />

y i ≈ y i (E{⃗x}) + ∑ j<br />

( ∂yi<br />

∂x j<br />

)⃗x=E(⃗x)<br />

· (x j − E{x j }).<br />

• Poniewa» warto±¢ oczekiwana z ró»nicy ⃗x−E{⃗x} to»samo±ciowo znika wiec warto±¢<br />

oczekiwana wektora ⃗y równa jest y(E{⃗x}), tzn. dostajemy podany wy»ej wzór na<br />

warto±¢ oczekiwana<br />

E(⃗y) ≈ y(E{⃗x}).<br />

• Z tego równie» wynika, »e<br />

y i − y i (E{⃗x}) ≈ ∑ ( ∂yi<br />

j<br />

∂x j<br />

)⃗x=E(⃗x)<br />

a wiec kowariancja y k i y q , która jest warto±cia oczekiwana<br />

· (x j − E{x j })<br />

cov(y k , y q ) ≡ E [(y k − E{y k }) · (y q − E{y q })]<br />

liczona jest jako warto±¢ oczekiwana iloczynu analogicznych sum zawierajacych pochodne<br />

i wyra»enia (x j − E{x j }) co po prostym przeliczeniu daje szukany wzór:<br />

cov(y k , y q ) ≈ ∑ i,j<br />

( ∂yk<br />

∂x i<br />

)⃗x=E(⃗x)<br />

( ∂yq<br />

∂x j<br />

)⃗x=E(⃗x)<br />

cov(x i , x j ).<br />

UWAGA: Ostatnio coraz bardziej popularna staje si¦ estymacja momentów wektorowej<br />

funkcji wektorowego losowego argumentu na podstawie próby skªadaj¡cej si¦ ze zbioru<br />

warto±ci funkcji otrzymanych ze zbioru warto±ci argumentów wygenerowanego metod¡<br />

Monte Carlo zgodnie z zaªo»onym rozkªadem prawdopodobie«stwa (zwykle wielowymiarowym<br />

rozkªadem Gaussa).


SMOP-2 B.Kamys: 2007/08 23<br />

3 ROZKŠAD NORMALNY (Gaussa)<br />

DEFINICJA:<br />

Ciagªa zmienna losowa X, której funkcja gesto±ci prawdopodobie«stwa ma posta¢:<br />

f(X) =<br />

[ ]<br />

1 −(X − A)<br />

2<br />

√ exp 2π B 2B 2<br />

(31)<br />

nazywa sie zmienna o rozkªadzie normalnym N(A, B).<br />

WŠASNO‘CI:<br />

E(X) = A (32)<br />

σ(X) = B (33)<br />

m 3 (E(X)) = 0 (34)<br />

m 4 (E(X)) = 3 · σ 4 (X) (35)<br />

UWAGA:<br />

• Rozkªad normalny jest caªkowicie okre±lony przez parametry A i B a wiec caªkowicie<br />

okre±lony przez warto±¢ oczekiwana E(X) i odchylenie standardowe σ(X).<br />

• Znikanie trzeciego momentu centralnego jest oczywi±cie równowa»ne znikaniu wspóªczynnika<br />

asymetrii:<br />

γ 1 ≡ m 3 (E(X))/σ 3 (X) (36)<br />

i oznacza, »e rozkªad jest symetryczny dookoªa E(X).<br />

• Wprowadza sie dla porównania rozkªadu danej zmiennej z rozkªadem normalnym,<br />

tzw. wspóªczynnik przewy»szenia zwany tak»e kurtoza lub wspóªczynnikiem<br />

ekscesu:<br />

γ 2 ≡ m 4 (E(X))/σ 4 (X) − 3 (37)<br />

Dla rozkªadu normalnego ten wspóªczynnik zeruje sie.


SMOP-2 B.Kamys: 2007/08 24<br />

Dystrybuanta rozkªadu normalnego nie wyra»a sie przez funkcje elementarne.<br />

Warto zapamieta¢ nastepujace nierówno±ci, speªniane przez zmienna X o rozkªadzie normalnym:<br />

P (E(X) − σ(X) ≤ X < E(X) + σ(X)) = 0.6827<br />

P (E(X) − 2σ(X) ≤ X < E(X) + 2σ(X)) = 0.9545<br />

P (E(X) − 3σ(X) ≤ X < E(X) + 3σ(X)) = 0.9973<br />

W biologii i naukach z nia zwiazanych czesto u»ywa sie dla warto±ci zmiennej le»acych<br />

w pierwszym z trzech powy»szych przedziaªów okre±lenia: warto±ci charakterystyczne.<br />

Dla tych, które nale»a do drugiego przedziaªu okre±lenia warto±ci typowe a dla tych, które<br />

nale»a do trzeciego przedziaªu ale nie nale»a do przedziaªu drugiego - warto±ci nietypowe.<br />

Dla warto±ci zmiennej bardziej odchylajacych sie od warto±ci oczekiwanej ni» trzy odchylenia<br />

standardowe rezerwuje sie nazwe warto±ci wyjatkowe.<br />

UWAGA:<br />

Dowolna zmienna Y o rozkªadzie normalnym mo»na standaryzowa¢ tworzac wielko±¢ Z<br />

o rozkªadzie standardowym normalnym N(0, 1):<br />

Z = (Y − E(Y ))/σ(Y )<br />

Standaryzacja jest wa»na ze wzgledu na mo»liwo±¢ tablicowania zarówno funkcji gesto±ci<br />

prawdopodobie«stwa, jak i dystrybuanty rozkªadu N(0, 1) a potem wykorzystania faktu,<br />

»e majac zmienna X o rozkªadzie N(0, 1) mo»emy stworzy¢ zmienna Y o rozkªadzie<br />

N(A, B) przez prosta transformacje: Y = B · X + A .<br />

TWIERDZENIE:<br />

Centralne Twierdzenie Graniczne w wersji podanej przez Lapunowa:<br />

Niech X 1 , X 2 , ...X n bedzie ciagiem niezale»nych zmiennych losowych których rozkªady<br />

posiadaja:<br />

• warto±¢ oczekiwana E(X k ),<br />

• wariancje var(X k ),


SMOP-2 B.Kamys: 2007/08 25<br />

• trzeci moment centralny µ 3 (X k ), oraz<br />

• absolutny trzeci moment centralny tj.<br />

b k ≡ E(| X k − E(X k ) | 3 ) dla k = 1, ..., n.<br />

Wówczas ciag dystrybuant standaryzowanych zmiennych losowych zdeniowanych<br />

nastepujaco:<br />

speªnia zale»no±¢:<br />

je»eli jest speªniony warunek:<br />

Z =<br />

n∑<br />

k=1<br />

X k − E(X k )<br />

√ ∑n<br />

i=1 var(X i)<br />

lim F n(Z) = 1 ∫ Z<br />

√ dt · exp(− t2 n→∞ 2π −∞<br />

2 )<br />

lim<br />

n→∞<br />

√ ∑n<br />

3<br />

k=1 b k<br />

√ ∑n<br />

k=1 var(X k) = 0<br />

2<br />

Centralne Twierdzenie Graniczne (Intuicyjne sformuªowanie)<br />

Zmienna Z bedaca standaryzowana suma niezale»nych zmiennych losowych bedzie miaªa<br />

standardowy rozkªad normalny gdy liczba skªadników w sumie da»y do niesko«czono±ci<br />

oraz w sumie nie wystepuja zmienne o wariancjach dominujacych w stosunku do reszty<br />

skªadników.<br />

Wªa±nie to twierdzenie powoduje, »e rozkªad normalny jest wyró»nionym rozkªadem -<br />

bardzo czesto stosowanym w statystyce.


SMOP-2 B.Kamys: 2007/08 26<br />

3.1 WIELOWYMIAROWY ROZKŠAD NORMALNY<br />

Jest to najwa»niejszy z rozkªadów w statystyce. Wektorowa zmienna losowa ⃗Y (Y 1 , ...Y N )<br />

ma wielowymiarowy rozkªad normalny gdy jej funkcja gesto±ci prawdopodobie«stwa ma<br />

nastepujaca posta¢:<br />

f(⃗Y ) = √ det(B) [−<br />

(2π) exp 1 (<br />

Y ⃗ − ⃗A ) T (<br />

B Y ⃗ − ⃗A )] (38)<br />

N 2<br />

gdzie wektor ⃗A to wektor warto±ci oczekiwanych (E{Y 1 }, ..E{Y N }) a macierz B to<br />

macierz odwrotna do macierzy kowariancji skªadowych wektora ⃗Y .<br />

Wªasno±ci:<br />

• Wielowymiarowy rozkªad normalny jest caªkowicie okre±lony przez podanie wektora<br />

warto±ci oczekiwanych (E{Y 1 }, ..E{Y N }) i macierzy kowariancji tych zmiennych<br />

• Dowolny rozkªad brzegowy (rzut na podzespóª zmiennych Y 1 , ..Y N ) tego rozkªadu<br />

jest rozkªadem normalnym<br />

• Dowolny rozkªad warunkowy (przekrój wzdªu» podzespoªu zmiennych Y 1 , ..Y N ) jest<br />

rozkªadem normalnym<br />

• Poziomice funkcji gesto±ci (linie o staªej warto±ci gesto±ci) speªniaja warunek:<br />

( ⃗ Y − ⃗A ) T<br />

B<br />

( ⃗ Y − ⃗A ) = const<br />

Wielko±¢ wystepujaca po lewej stronie równania to zmienna losowa o rozkªadzie<br />

chi-kwadrat o N stopniach swobody.<br />

Dwuwymiarowy rozkªad normalny jest najprostszym rozkªadem, który posiada wszystkie<br />

cechy wielowymiarowego rozkªadu a równocze±nie jest na tyle nieskomplikowany, »e<br />

mo»na go sobie ªatwo wyobrazi¢. Poni»ej omówimy go jako przykªad wielowymiarowego<br />

rozkªadu normalnego.


SMOP-2 B.Kamys: 2007/08 27<br />

3.2 DWUWYMIAROWY ROZKŠAD NORMALNY<br />

Parametrami rozkªadu jest wektor ⃗A = (E{y 1 }, E{y 2 }) oraz macierz B bedaca odwrotno±cia<br />

macierzy kowariancji.<br />

Odwrotna macierz mo»e by¢ znaleziona przez policzenie wyznacznika wyj±ciowej macierzy<br />

i podzielenia macierzy uzupeªnie« algebraicznych wyj±ciowej macierzy przez ten<br />

wyznacznik.<br />

Ostatecznie dostajemy:<br />

B =<br />

[<br />

1<br />

σ 2 (y 2 ) −cov(y 2 , y 1 )<br />

σ 2 (y 1 )σ 2 (y 2 ) − cov(y 1 , y 2 ) 2 −cov(y 1 , y 2 ) σ 2 (y 1 )<br />

Wtedy dwuwymiarowy rozkªad normalny ma nastepujaca posta¢:<br />

]<br />

g(y 1 , y 2 ) =<br />

f(y 1 , y 2 ) =<br />

−1<br />

2(1−ϱ 2 )<br />

[<br />

(y 1 −E{y 1 }) 2<br />

σ 2 1<br />

1√<br />

exp {g(y 1, y 2 )}<br />

2π·σ 1·σ 2 1−ϱ 2<br />

− 2ϱ (y 1−E{y 1 })·(y 2 −E{y 2 })<br />

σ 1 σ 2<br />

+ (y 2−E{y 2 }) 2<br />

σ 2 2<br />

]<br />

(39)<br />

gdzie obok odchyle« standardowych σ i oraz warto±ci oczekiwanych E{y i } pojawiª sie<br />

wspóªczynnik korelacji ϱ ≡ ϱ(y 1 , y 2 ).<br />

WŠASNO‘CI:<br />

• Rozkªad jest caªkowicie okre±lony przez 5 parametrów: warto±ci oczekiwane E(y 1 ),<br />

E(y 2 ), odchylenia standardowe σ 1 , σ 2 i wspóªczynnik korelacji ϱ.<br />

• Gdy wspóªczynnik korelacji znika to rozkªad sie zamienia na iloczyn dwu rozkªadów<br />

brzegowych (jednowymiarowych rozkªadów normalnych). A wiec wida¢ tu unikalna<br />

ceche wielowymiarowego rozkªadu normalnego; zmienne które nie sa skorelowane<br />

(czyli sa niezale»ne liniowo) sa automatycznie niezale»ne .<br />

• Poziomice funkcji gesto±ci prawdopodobie«stwa to elipsy, których póªosie równe sa<br />

odchyleniom standardowym. Ustawienie osi elipsy w stosunku do osi wspóªrzednych<br />

y 1 i y 2 zale»y od warto±ci wspóªczynnika korelacji. Gdy wspóªczynnik korelacji<br />

znika osie elipsy sa równolegªe do osi wspóªrzednych. Gdy wspóªczynnik korelacji<br />

jest dodatni to dªu»sza o± elipsy przechodzi przez pierwsza i trzecia ¢wiartke ukªadu<br />

wspóªrzednych a gdy jest ujemny to przechodzi przez druga i czwarta ¢wiartke.


SMOP-2 B.Kamys: 2007/08 28<br />

Rozkªad brzegowy dwuwymiarowego rozkªadu normalnego<br />

to jednowymiarowy rozkªad normalny:<br />

f b (y 1 ) =<br />

{ }<br />

1 −1<br />

√ exp [y 2π.σ1 2σ1<br />

2 1 − E(y 1 )] 2<br />

(40)<br />

WŠASNO‘CI:<br />

• Okre±lony caªkowicie przez E(y 1 ) i σ 1 .<br />

• Funkcja ksztaªtu dzwonu symetryczna dokoªa E(y 1 ), spadajaca bardzo szybko do<br />

zera dla warto±ci y 1 oddalonych od warto±ci oczekiwanej.<br />

Rozkªad warunkowy dwuwymiarowego rozkªadu normalnego:<br />

f w (y 1 |y 2 ) =<br />

1<br />

√<br />

2π · σ1 · √1<br />

− ϱ exp 1<br />

{−<br />

2 2σ1 2(1 − ϱ2 )<br />

[ {<br />

y 1 − (E(y 1 ) + ϱ · σ }] } 2<br />

1<br />

(y 2 − E(y 2 ))<br />

σ 2<br />

(41)<br />

WŠASNO‘CI:<br />

• Rozkªad warunkowy dwuwymiarowego rozkªadu normalnego okre±lony jest przez te<br />

same 5 parametrów co dwuwymiarowy rozkªad normalny.<br />

• Gdy wspóªczynnik korelacji znika to rozkªad warunkowy przechodzi w rozkªad brzegowy<br />

(jednowymiarowy rozkªad normalny) a wiec brak korelacji jest równowa»ny<br />

niezale»no±ci zmiennych - zgodnie z tym co obserwowali±my dla peªnego rozkªadu.<br />

• Posta¢ rozkªadu jest identyczna jak dla rozkªadu brzegowego (jednowymiarowego<br />

rozkªadu Gaussa) ale parametry tego rozkªadu, tj. wariancja i warto±¢ oczekiwana<br />

wyra»aja sie nastepujaco:


SMOP-2 B.Kamys: 2007/08 29<br />

Wariancja:<br />

σ 2 (y 1 |y 2 ) = σ 2 1 (1 − ϱ2 ) (42)<br />

Warunkowa warto±¢ oczekiwana zmiennej y 1 pod warunkiem y 2 czyli<br />

regresja pierwszego rodzaju y 1 wzgledem y 2 jest linia prosta czyli regresja<br />

drugiego rodzaju.<br />

E(y 1 |y 2 ) = E(y 1 ) + ϱ.σ 1<br />

σ 2<br />

(y 2 − E(y 2 )) (43)<br />

Wspóªczynnikiem kierunkowym tej prostej jest wyra»enie<br />

ϱ.σ 1<br />

σ 2<br />

a wiec wida¢, »e zamiana wska¹ników zmiennych y 1 i y 2 nie powoduje, przechodzenia<br />

wspóªczynnika kierunkowego w swa odwrotno±¢ jak to powinno by¢ gdyby linia prosta<br />

regresji y 1 wzgledem y 2 pokrywaªa sie z linia prosta regresji y 2 wzgledem y 1 .<br />

Linie regresji E(y 1 |y 2 ) oraz E(y 2 |y 1 ) beda sie pokrywaªy tylko wtedy gdy<br />

moduª wspóªczynnika korelacji bedzie równy jedno±ci , czyli wtedy gdy bedzie istniaª<br />

funkcyjny zwiazek liniowy pomiedzy zmiennymi y 1 i y 2 . Przy bliskich zera warto-<br />

±ciach wspóªczynnika korelacji linie te beda prawie prostopadªe do siebie.


SMOP-2 B.Kamys: 2007/08 30<br />

4 ESTYMACJA PARAMETRÓW<br />

W tym rozdziale zostan¡ omówione podstawowe poj¦cia estymacji parametrów.<br />

DEFINICJA:<br />

Statystyka nazywamy zmienna losowa, która jest funkcja próby czyli sko«czonej liczby<br />

wyników do±wiadcze« (obserwacji) reprezentujacych wszystkie mo»liwe wyniki, których<br />

zbiór nazywany jest populacja generalna. Je»eli rozkªad statystyki zale»y od warto±ci<br />

pewnego parametru to warto±¢ statystyki mo»e sªu»y¢ do oszacowania tego parametru<br />

i statystyke taka nazywamy estymatorem tego parametru. Na przykªad ±rednia arytmetyczna<br />

wzrostu kilku studentów jest statystyka, która mo»e by¢ u»yta do oszacowania<br />

warto±ci oczekiwanej wzrostu wszystkich studentów. A wiec ±rednia arytmetyczna jest<br />

estymatorem warto±ci oczekiwanej .<br />

DEFINICJA:<br />

Oszacowanie warto±ci parametru przez warto±¢ estymatora nazywane jest estymacja<br />

punktowa.<br />

DEFINICJA:<br />

Od estymatora wymagamy przede wszystkim aby byª zgodny. Synonimem zgodno±ci<br />

estymatora jest stwierdzenie, »e estymator speªnia prawo wielkich liczb. Okre±lenia<br />

te oznaczaja, »e wraz ze wzrostem rozmiarów próby prawdopodobie«stwo tego,<br />

»e estymator parametru a odchyla sie od prawdziwej warto±ci tego parametru<br />

mniej od dowolnego ε > 0, da»y do jedno±ci :<br />

lim P (|T n(a) − a| < ε) = 1 (44)<br />

n→∞<br />

DEFINICJA:<br />

Jeszcze bardziej po»adana wªasno±cia jest aby estymator speªniaª silne prawo wielkich<br />

liczb czyli aby prawdopodobie«stwo tego, »e warto±¢ estymatora parametru da»y<br />

do warto±ci szacowanego parametru wraz ze wzrostem rozmiarów próby, równaªo<br />

sie jedno±ci (a nie aby tylko da»yªo do jedno±ci).<br />

P<br />

(<br />

)<br />

lim T n(a) = a<br />

n→∞<br />

= 1 (45)


SMOP-2 B.Kamys: 2007/08 31<br />

Bardzo po»adane jest aby estymator miaª powy»sza wªasno±¢ ale je»eli nie da sie tego<br />

osiagna¢ to zadowalamy sie faktem zgodno±ci estymatora.<br />

Warto zapamieta¢, »e dla dwu bardzo wa»nych wielko±ci, tj. dla prawdopodobie«-<br />

stwa zachodzenia jakiego± zdarzenia oraz dla warto±ci oczekiwanej zmiennej<br />

losowej istnieja estymatory speªniajace silne prawo wielkich liczb :<br />

TW. CANTELLIEGO<br />

F.P. Cantelli w 1917 roku (a E. Borel w 1909 r dla szczególnego przypadku P=1/2)<br />

udowodniª, »e czesto±¢ realizacji zdarzenia A w serii n niezale»nych do±wiadcze« jest estymatorem<br />

prawdopodobie«stwa zdarzenia A speªniajacym silne prawo wielkich liczb:<br />

P<br />

( ( ) nA<br />

lim<br />

n→∞ n<br />

)<br />

= P (A) = 1 (46)<br />

W powy»szym wzorze n A oznacza liczbe realizacji zdarzenia A w ciagu n do±wiadcze«.<br />

TW. KOŠMOGOROWA<br />

A.N. Koªmogorow udowodniª, »e ±rednia arytmetyczna ciagu niezale»nych pomiarów x i<br />

jest estymatorem warto±ci oczekiwanej mierzonej wielko±ci x speªniajacym silne prawo<br />

wielkich liczb.<br />

P<br />

(<br />

lim<br />

n→∞<br />

( 1<br />

n<br />

) )<br />

n∑<br />

x i = E(x)<br />

i=1<br />

= 1 (47)<br />

DEFINICJA:<br />

Inna, po»adana cecha estymatora jest aby byª nieobcia»ony. Mówimy, »e estymator<br />

parametru Θ posiada te ceche gdy<br />

E {T n (Θ)} = Θ (48)<br />

niezale»nie od n, tj. od rozmiaru próby.<br />

DEFINICJA:<br />

Obcia»eniem estymatora nazywana jest wielko±¢:<br />

B n ≡ E {T n (Θ)} − Θ (49)


SMOP-2 B.Kamys: 2007/08 32<br />

Oczywi±cie dla estymatora nieobcia»onego B n ≡ 0.<br />

DEFINICJA:<br />

Estymatorem asymptotycznie nieobcia»onym nazywany jest taki estymator obcia»ony,<br />

dla którego obcia»enie da»y do zera gdy rozmiary próby rosna nieograniczenie:<br />

lim B n ≡ lim<br />

n→∞ n→∞<br />

[E {T n (Θ)} − Θ] = 0 (50)<br />

Poni»ej podane sa dwa po»yteczne twierdzenia, które mo»na wykorzysta¢ do zdecydowania,<br />

czy estymator jest estymatorem zgodnym.<br />

TWIERDZENIE:<br />

Je»eli wariancja estymatora nieobcia»onego lub asymptotycznie nieobcia»onego da»y do<br />

zera gdy rozmiary próby rosna nieograniczenie to estymator jest zgodny.<br />

TWIERDZENIE:<br />

Je»eli parametr η jest wymierna funkcja (ilorazem wielomianów) parametru Θ: η =<br />

η(Θ) oraz T n (Θ) jest zgodnym estymatorem parametru Θ to T n (η) ≡ η(T n (Θ)) jest<br />

zgodnym estymatorem parametru η.<br />

UWAGA:<br />

Istnieja specjalne metody tworzenia estymatorów, takie jak np. metoda momentów,<br />

metoda najwiekszej wiarygodno±ci czy metoda najmniejszych kwadratów, których<br />

zastosowanie zapewnia uzyskanie zgodnych estymatorów.


SMOP-2 B.Kamys: 2007/08 33<br />

Estymator wspóªczynnika korelacji T n (ρ(X, Y )) ≡r" (symbole ¯x i ȳ oznaczaja ±rednie<br />

arytmetyczne pomiarów):<br />

T n (ρ(X, Y )) ≡ r =<br />

n∑<br />

(x i − ¯x)(y i − ȳ)<br />

i=1<br />

( n∑<br />

) ( ) (51)<br />

√<br />

n∑<br />

(x i − ¯x) 2 (y j − ȳ) 2<br />

i=1<br />

j=1<br />

Interpretacja kwadratu estymatora r 2 ”<br />

Mo»na pokaza¢, »e kwadrat estymatora wspóªczynnika korelacji pokazuje na ile dobre<br />

jest przybli»enie liniowe zale»no±ci y(x) czyli jak dobra jest regresja drugiego rodzaju<br />

(patrz ni»ej).<br />

r 2 =<br />

∑<br />

(ax i + b − ȳ) 2<br />

i<br />

∑<br />

i<br />

(y i − ȳ) 2 (52)<br />

Wielko±¢ y to ±rednia po wszystkich obserwowanych warto±ciach y i a a · x i + b to linia<br />

prosta z tak dobranymi parametrami a i b aby byªa minimalna suma kwadratów odchyle«<br />

od prostej do odpowiadajacych danemu argumentowi prostej x i warto±ci zmiennej y i .<br />

Wyra»enie w liczniku to tzw. wyja±niona przez regresje suma kwadratów a wyra»enie<br />

w mianowniku to caªkowita suma kwadratów . Jak wida¢ im bli»szy jedno±ci jest<br />

kwadrat estymatora wspóªczynnika korelacji tym lepiej caªkowity rozrzut zmiennej y jest<br />

odtwarzany przez regresje a wiec tym lepszym przybli»eniem zale»no±ci y(x) jest linia<br />

prosta. Zwykle uwa»a sie, »e przybli»enie jest dobre gdy warto±ci r 2 sa bliskie 0.9 ale w<br />

praktyce sami musimy zdecydowa¢, czy odchylenia rzedu 10% sa ju» zadowalajaco maªe.


SMOP-2 B.Kamys: 2007/08 34<br />

5 ESTYMACJA PUNKTOWA E(x), σ 2 (x) i σ(x)<br />

Przypomnijmy denicje estymacji punktowej podana we wstepie:<br />

DEFINICJA:<br />

Oszacowanie warto±ci parametru przez warto±¢ estymatora nazywane jest estymacja<br />

punktowa.<br />

W tym rozdziale zakªadamy, »e mierzona wielko±¢ losowa rzadzona jest rozkªadem normalnym.<br />

Na tej podstawie mo»na wyprowadzi¢ wnioski dotyczace rozkªadów rozwa»anych<br />

estymatorów. Wiekszo±¢ wniosków (z wyjatkiem postaci rozkªadu estymatorów) przenosi<br />

sie równie» na estymatory warto±ci oczekiwanej i wariancji dla zmiennych losowych o<br />

rozkªadach ró»nych od normalnego.<br />

5.1 ESTYMACJA PUNKTOWA E(x)<br />

Jak to ju» omówiono we wstepie jako estymator warto±ci oczekiwanej T n (E(x)) przyjmuje<br />

sie ±rednia arytmetyczna niezale»nych pomiarów wielko±ci x (oznaczana przez x) :<br />

T n (E(x)) ≡ x = 1 n<br />

n∑<br />

i=1<br />

x i (53)<br />

Estymator ten posiada optymalne wªasno±ci:<br />

• Koªmogorow pokazaª, »e X speªnia mocne prawo wielkich liczb a wiec oczywi±cie<br />

jest tak»e zgodny,<br />

• Estymator X jest nieobcia»ony.<br />

c.b.d.o.<br />

E( 1 ∑<br />

x i ) = 1 ∑<br />

n n<br />

i<br />

i<br />

E(x i ) = 1 (n.E(x)) = E(x)<br />

n<br />

Tu wykorzystano fakt, »e wszystkie warto±ci oczekiwane sa równe E(x i ) = E(x).<br />

• Mo»na pokaza¢, »e x jest najbardziej efektywnym estymatorem E(x), tzn. posiada<br />

najmniejsza wariancje spo±ród wszystkich mo»liwych estymatorów.


SMOP-2 B.Kamys: 2007/08 35<br />

Dla zmiennej losowej x o rozkªadzie normalnym mo»na udowodni¢ poni»sze twierdzenie:<br />

TWIERDZENIE:<br />

Estymator x warto±ci oczekiwanej E(x) ma rozkªad normalny<br />

gdzie n jest liczba pomiarów w próbie.<br />

(<br />

f(x) = N E(x), σ(x) )<br />

√ n<br />

WNIOSKI:<br />

• E(x) = E(x) tzn.<br />

Estymator x jest nieobcia»ony<br />

• Odchylenie standardowe ±redniej arytmetycznej σ(x) jest √ n - krotnie mniejsze<br />

od odchylenia standardowego σ(x) pojedynczego pomiaru.<br />

• Odchylenie standardowe σ(x) czyli bªad ±redni kwadratowy ±redniej arytmetycznej<br />

charakteryzuje dokªadno±¢ wyznaczenia prawdziwej warto±ci x w danym<br />

konkretnym pomiarze skªadajacym sie z n niezale»nych do±wiadcze«.<br />

x 0 = x ± σ(x)<br />

• Aby charakteryzowa¢ dokªadno±¢ metody pomiarowej wówczas jako miare dokªadno±ci<br />

podajemy bªad pojedynczego pomiaru tj. σ(x) .<br />

5.2 ESTYMATOR WARIANCJI σ 2 (x)<br />

Dwa powszechnie stosowane estymatory wariancji to S 2 (x) i s 2 (x):<br />

S 2 (x) ≡ 1<br />

n − 1<br />

n∑<br />

i=1<br />

(x i − ¯x) 2 (54)<br />

S 2 (x) to zgodny i nieobcia»ony estymator σ 2 (x). Jest to ªatwo pokaza¢ je»eli wiadomo<br />

(a mo»na to udowodni¢), »e zmienna Y zdeniowana poni»ej ma rozkªad chi-kwadrat o<br />

(n-1) stopniach swobody:<br />

Y ≡ (n − 1)S2 (x)<br />

σ 2 (x)<br />

= χ 2 n−1


SMOP-2 B.Kamys: 2007/08 36<br />

Wtedy, wykorzystujac znajomo±¢ warto±ci oczekiwanej i wariancji zmiennej chi-kwadrat,<br />

mo»na napisa¢:<br />

{ (n − 1)S 2 }<br />

(x)<br />

E {Y } ≡ E<br />

= E { χn−1} 2 = n − 1<br />

σ 2 (x)<br />

{ (n − 1)S 2 }<br />

(x)<br />

σ 2 {Y } ≡ σ 2 = σ { 2 χn−1} 2 = 2(n − 1)<br />

σ 2 (x)<br />

Z pierwszego tych równa« dostajemy natychmiast:<br />

E { S 2 (x) } = σ 2 (x)<br />

a wiec S 2 (x) jest estymatorem nieobcia»onym .<br />

Z drugiego otrzymujemy:<br />

σ 2 { S 2 (x) } = 2(n − 1)σ4 (x)<br />

(n − 1) 2 = 2σ4 (x)<br />

(n − 1) 2 →<br />

n→∞<br />

0<br />

a wiec mamy do czynienia z estymatorem nieobcia»onym, którego wariancja da»y do<br />

zera wraz ze wzrostem rozmiarów próby . Taki estymator jest estymatorem zgodnym<br />

jak to gªosi twierdzenie przytoczone we wstepie.<br />

Drugi z wymienionych estymatorów to s 2 (x), deniowany nastepujaco:<br />

s 2 (x) ≡ 1 n<br />

n∑<br />

i=1<br />

(x i − ¯x) 2 (55)<br />

Ten estymator proporcjonalny jest do S 2 (x):<br />

s 2 (x) = n − 1<br />

n<br />

· S2 (x)


SMOP-2 B.Kamys: 2007/08 37<br />

a wiec musi by¢ obcia»ony skoro S 2 (x) jest nieobcia»ony. Obcia»enie wynosi B n =<br />

−(1/n)σ 2 (x) i znika gdy n ro±nie do niesko«czono±ci a wiec jest to estymator asymptotycznie<br />

nieobcia»ony .<br />

Wariancja tego estymatora wynosi:<br />

σ 2 (s 2 (x)) =<br />

( ) n − 1 2<br />

·<br />

n<br />

2σ 4 (x)<br />

(n − 1) = 2σ4 (x)<br />

2 n 2<br />

Stad mo»na powiedzie¢, »e<br />

• Wariancja s 2 (x) znika, gdy rozmiary próby rosna do niesko«czono±ci a poniewa»<br />

s 2 (x) jest asymptotycznie nieocia»ony to twierdzenie u»yte poprzednio tak»e mówi,<br />

»e s 2 (x) jest estymatorem zgodnym σ 2 (x).<br />

• Wariancja s 2 (x) jest dla ka»dego rozmiaru próby mniejsza od wariancji S 2 (x) a<br />

wiec jest on bardziej efektywny ni» S 2 (x). Mo»na pokaza¢, »e jest to najbardziej<br />

efektywny estymator σ 2 (x).<br />

5.3 ESTYMATOR ODCHYLENIA STANDARDOWEGO σ(x)<br />

Dla oszacowania warto±ci<br />

√<br />

odchylenia standardowego<br />

√<br />

stosuje sie trzy estymatory. Dwa<br />

z nich - S(x) ≡ S 2 (x) i s(x) ≡ s 2 (x) sa bardzo popularne mimo, »e oba sa<br />

estymatorami obcia»onymi . Trzeci, o którym bedzie mowa poni»ej, jest estymatorem<br />

nieobcia»onym ale u»ywany jest rzadko gdy» wyra»a sie bardziej skomplikowanym wzorem<br />

a jego warto±ci ró»nia sie znaczaco od warto±ci S(x) tylko dla niewielkich prób.<br />

S(x):<br />

S(x) ≡ √ 1<br />

n − 1<br />

n∑<br />

i=1<br />

(x i − x) 2 (56)<br />

Jest to zgodny, asymptotycznie nieobcia»ony estymator odchylenia standardowego.


SMOP-2 B.Kamys: 2007/08 38<br />

s(x):<br />

s(x) ≡ √ 1 n<br />

n∑<br />

i=1<br />

(x i − x) 2 (57)<br />

Jest to zgodny, asymptotycznie nieobcia»ony i najbardziej efektywny estymator<br />

odchylenia standardowego.<br />

S(x):<br />

S(X) ≡<br />

√<br />

n − 1<br />

2<br />

Γ( n−1<br />

2 )<br />

Γ( n 2 ) · S(x) (58)<br />

UWAGA:<br />

Jest to zgodny i nieobcia»ony estymator σ(X).<br />

Wspóªczynnik wystepujacy przy estymatorze S(x) w powy»szej denicji mo»na zastapi¢<br />

z niezªym przybli»eniem przez wstawienie do wzoru na S(X) zamiast 1/(n−1) czynnika<br />

1/(n − 1.45).<br />

Poni»ej podajemy w tabelce przykªadowe warto±ci tego wspóªczynnika dla ró»nych n<br />

a tak»e wynik zastosowania powy»szego uproszczonego sposobu zastapienia tego wspóªczynnika:<br />

√ n−1 Γ( n−1<br />

2 ) √ n−1<br />

2 Γ( n 2 ) n−1.45<br />

n<br />

3 1.1284 1.1359<br />

4 1.0853 1.0847<br />

5 1.0640 1.0615<br />

6 1.0506 1.0482<br />

7 1.0423 1.0397<br />

10 1.0280 1.0260<br />

15 1.0181 1.0165<br />

20 1.0134 1.0121<br />

25 1.0104 1.0095<br />

50 1.0051 1.0046<br />

UWAGA:<br />

Najcze±ciej u»ywanym estymatorem odchylenia standardowego jest estymator S(x)


SMOP-2 B.Kamys: 2007/08 39<br />

6 ESTYMACJA PRZEDZIAŠOWA E(x), σ 2 (x) i σ(x)<br />

Podstawy tej metody estymacji opracowaª polski statystyk Jerzy Spªawa-Neyman (w literaturze<br />

zachodniej cytowany zwykle jako Neyman). Idea metody jest tworzenie takiego<br />

przedziaªu liczbowego, o którym mo»na powiedzie¢, »e z zadanym prawdopodobie«stwem<br />

zawiera w sobie (przekrywa) warto±¢ szacowanego parametru.<br />

Prawdopodobie«stwo to nazywa sie poziomem ufno±ci i standardowo oznaczane jest<br />

symbolem 1 - α . W tych notatkach zamiennie u»ywane jest oznaczenie 1 - α oraz γ.<br />

Przedziaª nazywany jest przedziaªem ufno±ci dla parametru θ je»eli:<br />

♦ prawdopodobie«stwo P( T (1)<br />

n<br />

≤ θ ≤T (2)<br />

n<br />

) = 1 - α ,<br />

♦ ko«ce przedziaªu zale»a od wyników do±wiadczenia i od poziomu ufno±ci a nie zale»a<br />

funkcyjnie od θ.<br />

UWAGA:<br />

• Poziom ufno±ci 1 - α ≡ γ przyjmuje sie zwykle du»y (np. 0,9) ale nie mo»e<br />

by¢ zbyt du»y bo zwiekszanie poziomu ufno±ci zwieksza dªugo±¢ przedziaªu ufno±ci<br />

co powoduje, »e tracona jest informacja o warto±ci oszacowywanego parametru.<br />

• Poni»sze rozwa»ania sa sªuszne przy zaªo»eniu, »e wyniki pomiarów x i ,i=1,..n obarczone<br />

sa tylko bªedami przypadkowymi a wiec rzadzone sa rozkªadem normalnym<br />

N(E{x}, σ{x}).


SMOP-2 B.Kamys: 2007/08 40<br />

6.1 ESTYMACJA PRZEDZIAŠOWA WARTO‘CI OCZEKIWA-<br />

NEJ E{x} - ZNANE σ{x}<br />

Jako statystyke testowa (zmienna losowa zale»na od wyniku do±wiadczenia) bierzemy<br />

zmienna z zdeniowana poni»ej:<br />

z ≡<br />

¯x − E{¯x}<br />

σ{¯x}<br />

≡ (¯x − E{x})√ n<br />

σ{x}<br />

(59)<br />

Poniewa» ±rednia arytmetyczna ¯x ma rozkªad normalny wiec zmienna z, która jest<br />

standaryzowana ±rednia arytmetyczna, ma standardowy rozkªad normalny N(0,1).<br />

Szukamy takiego przedziaªu [z min , z max ], »e:<br />

• P(z min ≤ z ≤ z max ) = γ<br />

• przedziaª ten poªo»ony jest tam, gdzie gesto±¢ prawdopodobie«stwa f(z) jest najwieksza.<br />

Poniewa» rozkªad standardowy normalny jest symetryczny dokoªa zera i zero jest moda<br />

rozkªadu (funkcja gesto±ci ma maksimum) to wida¢, »e przedziaª [z min , z max ] powinien<br />

by¢ poªo»ony symetrycznie dokoªa z=0:<br />

z max = −z min .<br />

Wiedzac, »e funkcja gesto±ci prawdopodobie«stwa jest unormowana do jedno±ci (pole<br />

pod caªym wykresem funkcji gesto±ci jest równe jedno±ci) oraz wiedzac, »e pole pod tym<br />

wykresem dla z le»acego w przedziale [z min , z max ] wynosi γ a przedziaª le»y symetrycznie<br />

dokoªa z = 0 mo»na brzegi przedziaªu wyrazi¢ przez kwantyle rozkªadu N(0, 1) :<br />

z min = z 1−γ<br />

2<br />

oraz z max = z 1+γ<br />

2<br />

Dodatkowo mo»emy skorzysta¢ z faktu symetrii rozkªadu N(0, 1) dokoªa z = 0, który<br />

pozwala na wyra»enie obu kwantyli przez siebie:<br />

z 1−γ<br />

2<br />

= −z 1+γ<br />

2<br />

1+γ<br />

Dzieki temu w tablicach podawane sa zwykle tylko kwantyle na du»ym ( tj. ) lub 2<br />

1−γ<br />

na maªym ( tj. ) poziomie.<br />

2


SMOP-2 B.Kamys: 2007/08 41<br />

Zamiast korzysta¢ z tablic mo»na oczywi±cie wylicza¢ numerycznie kwantyle rozkªadu<br />

N(0, 1). Odpowiednie procedury dla liczenia kwantyli rozkªadu standardowego normalnego<br />

a tak»e innych podstawowych rozkªadów statystyki, takich jak rozkªad chi-kwadrat,<br />

rozkªad Studenta czy te» rozkªad Fishera-Snedecora mo»na znale¹¢ np. w ksia»ce S.<br />

Brandta, Analiza danych , PWN 1998.<br />

Denicyjny wzór na zmienna z pokazuje, »e zmienna z i ±rednia arytmetyczna zwiazane sa<br />

monotoniczna (liniowa) zale»no±cia a wiec mo»na jednoznacznie przedziaªowi [z min , z max ]<br />

przypisa¢ przedziaª warto±ci zmiennej<br />

¯x − E{x} = σ{x} √ n<br />

z.<br />

co po prostym przeksztaªceniu da przedziaª ufno±ci na E{X}:<br />

P (z min ≤ z ≤ z max ) ⇔ P<br />

(<br />

¯x − σ{x} √ n<br />

z max ≤ E{x} ≤ ¯x − σ{x} √ n<br />

z min<br />

)<br />

Z prawdopodobie«stwem γ przedziaª liczbowy wypisany<br />

powy»ej przykrywa soba warto±¢ oczekiwana E{x}.<br />

Trzeba pamieta¢, »e warto±¢ oczekiwana jest konkretna liczba a nie zmienna<br />

losowa. Zmiennymi sa ko«ce przedziaªu bo sa funkcjami ±redniej arytmetycznej<br />

pomiarów.<br />

Wyra»ajac z min i z max przez kwantyle standardowego rozkªadu normalnego dostajemy<br />

przedziaª ufno±ci dla warto±ci oczekiwanej E{X} na poziomie ufno±ci γ:<br />

¯x − σ{x} √ n<br />

z 1+γ<br />

2<br />

≤ E{x} ≤ ¯x − σ{x} √ n<br />

z 1−γ<br />

2<br />

lub<br />

lub<br />

¯x − σ{x} √ n<br />

z 1+γ<br />

2<br />

¯x + σ{x} √ n<br />

z 1−γ<br />

2<br />

≤ E{x} ≤ ¯x + σ{x} √ n<br />

z 1+γ<br />

2<br />

≤ E{x} ≤ ¯x − σ{x} √ n<br />

z 1−γ<br />

2<br />

Sa to trzy równowa»ne formy, przy czym najªatwiej chyba zapamieta¢ druga z nich:<br />

¯x − σ{x} √ n<br />

z 1+γ<br />

2<br />

≤ E{x} ≤ ¯x + σ{x} √ n<br />

z 1+γ<br />

2<br />

(60)


SMOP-2 B.Kamys: 2007/08 42<br />

6.2 ESTYMACJA PRZEDZIAŠOWA WARTO‘CI OCZEKIWA-<br />

NEJ E{x} - NIEZNANE σ{x}<br />

Jako statystyke testowa bierzemy zmienna t zdeniowana poni»ej:<br />

t ≡<br />

¯x − E{¯x}<br />

S{¯x}<br />

≡ (¯x − E{x})√ n<br />

S{x}<br />

(61)<br />

gdzie statystyka<br />

1 n∑<br />

S{¯x} ≡ √<br />

(x i − ¯x) 2<br />

n(n − 1) i=1<br />

jest znanym nam estymatorem odchylenia standardowego ±redniej arytmetycznej ¯x a<br />

n oznacza liczbe pomiarów w próbie.<br />

rozkªad Studenta o (n-1) stopniach swo-<br />

Mo»na pokaza¢, »e zmienna t ma<br />

body.<br />

Poniewa» rozkªad Studenta jest bardzo podobny do standardowego rozkªadu normalnego<br />

wiec rozwa»ania podane powy»ej dla przypadku przedziaªu ufno±ci dla E{x} gdy<br />

znane jest odchylenie standardowe pomiarów zachowuja swa prawdziwo±¢ i dla aktualnej<br />

sytuacji z tym, »e kwantyle rozkªadu normalnego musza by¢ zamienione przez odpowiednie<br />

kwantyle rozkªadu Studenta a odchylenie standardowe zastapione przez jego estymator:<br />

¯x − S{x} √ n<br />

t 1+γ<br />

2<br />

≤ E{x} ≤ ¯x + S{x} √ n<br />

t 1+γ<br />

2<br />

(62)<br />

Tu podana jest tylko jedna z trzech równowa»nych postaci wzoru na przedziaª ufno±ci<br />

ale oczywi±cie mo»na równie» u»ywa¢ obu pozostaªych po odpowiednich modykacjach.<br />

UWAGA: Dla du»ych prób (n > 20 ÷ 30) rozkªad Studenta upodabnia sie bardzo do<br />

rozkªadu standardowego normalnego i dla wiekszo±ci praktycznych zastosowa« mo»na<br />

posªugiwa¢ sie kwantylami rozkªadu N(0, 1).


SMOP-2 B.Kamys: 2007/08 43<br />

6.3 ESTYMACJA PRZEDZIAŠOWA WARIANCJI I ODCHY-<br />

LENIA STANDARDOWEGO<br />

Jako statystyke bierzemy zmienna Y zdeniowana nastepujaco:<br />

Y = (n − 1)S2 (x)<br />

σ 2 (x)<br />

(63)<br />

gdzie n to liczba pomiarów w próbie, σ 2 (x) to wariancja X a S 2 (x) to estymator wariancji<br />

zmiennej X:<br />

S 2 (x) = 1 n∑<br />

(x i − ¯x) 2<br />

n − 1 i=1<br />

Wielko±¢ ta ma rozkªad chi-kwadrat o (n-1) stopniach swobody.<br />

Podobnie jak przy szukaniu przedziaªu ufno±ci dla warto±ci oczekiwanej E{x} rozwa»a<br />

sie przedziaª najbardziej prawdopodobnych warto±ci zmiennej Y. Jednak»e przedziaª ten<br />

nie jest symetryczny dokoªa mody bo rozkªad chi-kwadrat nie jest symetryczny.<br />

Dla jednoznacznego okre±lenia przedziaªu ufno±ci zakªada sie, »e prawdopodobie«stwo<br />

odchylenia warto±ci Y poza wybrany przedziaª w strone du»ych warto±ci jest takie samo<br />

jak prawdopodobie«stwo odchylenia w strone odwrotna:<br />

P (Y < Y min ) = P (Y > Y max ) = 1 − γ<br />

2<br />

Zaªo»enie to pozwala jednoznacznie okre±li¢ brzegi przedziaªu przez kwantyle rozkªadu<br />

chi-kwadrat :<br />

Y min = (χ 2 n−1 ) 1−γ<br />

2<br />

i Y max = (χ 2 n−1 ) 1+γ<br />

2<br />

Kwantyle te nie sa równe i musza by¢ oba wyliczone lub znalezione z tablic.<br />

Relacja pomiedzy estymowanym parametrem, tj. wariancja i statystyka Y jest monotoniczna<br />

funkcja :<br />

σ 2 (x) = (n − 1).S2 (x)<br />

Y<br />

wiec prawdopodobie«stwo traenia statystyki do przedziaªu [Y min ,Y max ] jest równe prawdopodobie«stwu<br />

tego, »e oszacowywana wariancja bedzie le»aªa w przedziale:


SMOP-2 B.Kamys: 2007/08 44<br />

(n − 1).S 2 (x)<br />

Y max<br />

≤ σ 2 (x) ≤ (n − 1).S2 (x)<br />

Y min<br />

co powoduje, »e ostatecznie przedziaª ufno±ci dla wariancji na poziomie ufno±ci γ to :<br />

(n − 1).S 2 (x)<br />

(χ 2 n−1 ) 1+γ<br />

2<br />

≤ σ 2 (x) ≤ (n − 1).S2 (x)<br />

(χ 2 n−1 ) 1−γ<br />

2<br />

(64)<br />

Estymacja przedziaªowa odchylenia standardowego σ(x) mo»e by¢ przeprowadzona<br />

przez pierwiastkowanie granic przedziaªu ufno±ci dla wariancji. Ten przedziaª liczbowy<br />

bedzie przedziaªem ufno±ci dla odchylenia standardowego na tym samym poziomie ufno±ci<br />

co startowy przedziaª ufno±ci dla wariancji. Dzieje sie tak dlatego, »e pierwiastkowanie -<br />

relacja miedzy dwoma dodatnimi wielko±ciami, t.j. wariancja i odchyleniem standardowym<br />

- jest monotoniczna funkcja. Stad prawdopodobie«stwo traenia odchylenia standardowego<br />

do przedziaªu o granicach równych pierwiastkom z granic przedziaªu ufno±ci<br />

dla wariancji jest takie samo jak prawdopodobie«stwo traenia wariancji do swojego przedziaªu<br />

ufno±ci.


SMOP-2 B.Kamys: 2007/08 45<br />

7 ESTYMACJA PUNKTOWA E{⃗y(⃗x)} I MACIERZY<br />

KOWARIANCJI ⃗y(⃗x)<br />

Estymator warto±ci oczekiwanej:<br />

Dla oszacowania warto±ci oczekiwanej funkcji wielu zmiennych losowych stosuje sie<br />

standardowo poni»sze przybli»enie:<br />

T n (E(⃗y(⃗x))) = ⃗y (T n (E(x 1 )), T n (E(x 2 )), . . . , T n (E(x N )))<br />

przy czym aby upro±ci¢ zapis opuszcza sie czesto symbol estymatora warto±ci oczekiwanej<br />

funkcji ⃗y a estymatory warto±ci oczekiwanych argumentów zapisuje sie w standardowy<br />

sposób:<br />

E(⃗y) ≈ ⃗y(x 1 , x 2 , ..x N ) (65)<br />

gdzie x 1 , x 2 , ... to skªadowe wektora ⃗x a x i<br />

argumentu x i : x i ≡ (1/n) ∑ j(x i ) j .<br />

to ±rednia arytmetyczna z n pomiarów<br />

Estymator macierzy kowariancji:<br />

T n (cov(y k , y q )) = ∑ i,j<br />

( ( ∂yk ∂yq<br />

∂x i<br />

)⃗x=(⃗x)<br />

∂x j<br />

)⃗x=(⃗x)<br />

T n (cov(x i , x j ))<br />

gdzie estymator kowariancji skªadowych wektora argumentu ⃗x ma nastepujaca posta¢:<br />

T n (cov(x i , x j )) = 1<br />

n − 1<br />

n∑<br />

k=1<br />

((x i ) k − ¯x i )((x j ) k − ¯x j ) (66)<br />

Powy»sze wzory tak»e zapisuje sie najcze±ciej opuszczajac symbole estymatorów ale<br />

wtedy trzeba z kontekstu domy±li¢ sie, »e mowa jest o estymatorach !<br />

cov(y k , y q ) ≈ ∑ i,j<br />

( ( ∂yk ∂yq<br />

∂x i<br />

)⃗x=(⃗x)<br />

∂x j<br />

)⃗x=(⃗x)<br />

cov(x i , x j ) (67)


SMOP-2 B.Kamys: 2007/08 46<br />

Symbol (⃗x) oznacza wektor ±rednich arytmetycznych (⃗x) ≡ (x 1 , x 2 , ...x N ).<br />

Wprowadzajac oznaczenia macierzowe:<br />

C ij (⃗x) = cov{x i , x j }<br />

C ij (⃗y) = cov{y i , y j }<br />

( ∂yi<br />

T ij =<br />

∂x j<br />

)⃗x=(⃗x)<br />

mo»emy wyrazi¢ kowariancje zmiennej ⃗y przez kowariancje zmiennej ⃗x w nastepujacy<br />

sposób (nazywany propagacja bªedów):<br />

C(⃗y) ≈ T C(⃗x)T T (68)<br />

Wyprowadzenie powy»szych przybli»onych wzorów zostaªo podane w rozdziale 2.3 a<br />

tutaj pokazano jakie estymatory wprowadza si¦ za odpowiednie wielko±ci.<br />

SZCZEGÓLNY PRZYPADEK:<br />

Gdy zmienne x i , i = 1, ..n sa niezale»ne macierz kowariancji skªadowych wektora ⃗x<br />

jest diagonalna czyli pozostaja niezerowe jedynie wariancje:<br />

cov{x i , x j } = δ ij · var{x i }<br />

Wzór na estymatory kowariancji cov(y k , y q ) gdy x i , i=1,..n sa niezale»ne sprowadza<br />

sie do poni»szej postaci, gdzie wariancje zast¡piono ich estymatorami:<br />

cov(y k , y q ) ≈ ∑ i<br />

( ( ∂yk ∂yq<br />

∂x i<br />

)⃗x=(⃗x)<br />

∂x i<br />

)⃗x=(⃗x)<br />

S 2 (x i ) (69)<br />

co w szczególno±ci daje znany nam wzór na bªad ±redni kwadratowy :


SMOP-2 B.Kamys: 2007/08 47<br />

σ(y k ) ≡<br />

√<br />

var(y k ) ≈<br />

√ ∑ ( ) 2 ∂yk<br />

i<br />

∂x i ⃗x=(⃗x)<br />

S 2 (x i ) (70)<br />

UWAGA: Nale»y pamieta¢, »e<br />

• Bªad ±redni kwadratowy y k mo»e by¢ policzony wg wzoru powy»ej (bez kowariancji)<br />

tylko wtedy gdy zmienne x i sa niezale»ne. W praktyce E(x i ) zastepowana<br />

jest przez ±rednia arytmetyczna ¯x i a var(x j ) przez kwadrat bªedu ±redniej arytmetycznej<br />

(a nie samej zmiennej x i ).<br />

• Macierz kowariancji zmiennych y i , i=1,..n jest zwykle niediagonalna nawet<br />

wtedy gdy zmienne x i sa niezale»ne (macierz kowariancji x i jest diagonalna)<br />

czyli zmienne y i , i = 1, ..n sa zwykle zale»ne. Je»eli wiec bedziemy chcieli<br />

znale¹¢ macierz kowariancji wektora losowego ⃗z, który jest z kolei funkcja wektora ⃗y<br />

to musimy korzysta¢ z ogólnego wzoru zawierajacego kowariancje (zastepujac oczywi±cie<br />

⃗y przez ⃗z a ⃗x przez ⃗y).<br />

• Wzory powy»sze sa wzorami przybli»onymi, tzn. na tyle sa dobre na ile rozwiniecie<br />

⃗y(⃗x) w szereg Taylora dokoªa E{⃗x} z obcieciem na liniowych wyrazach jest dobrym<br />

przybli»eniem funkcji ⃗y(⃗x).<br />

Mimo to praktycznie wszedzie stosuje sie te wzory , czesto zapominajac o<br />

tym, »e sa one ±cisªe tylko dla liniowego zwiazku pomiedzy ⃗y i ⃗x.


SMOP-2 B.Kamys: 2007/08 48<br />

8 REGRESJA LINIOWA<br />

Denicja regresji liniowej byªa ju» omawiana powy»ej ale powtórzymy ja dla przypomnienia:<br />

DEFINICJA<br />

Regresja liniowa zmiennej Y wzgledem zmiennej X to linia prosta<br />

Y = a · X + b (71)<br />

z parametrami a i b dobranymi tak aby minimalizowa¢ sume kwadratów odchyle« wspóªrzednych<br />

(y i , i = 1, 2, ..n) zespoªu n punktów o wspóªrzednych (x 1 , y 1 ),(x 2 , y 2 ),... (x n , y n ) od<br />

tej linii:<br />

n∑<br />

Q 2 = (y i − a · x i − b) 2 (72)<br />

i=1<br />

Zmienna Y nazywana jest zmienna obja±niana a zmienna X zmienna obja±niajaca.<br />

UWAGA:<br />

Regresja liniowa X wzgledem Y tj. prosta X = c · Y + d pokrywa sie z regresja liniowa<br />

Y wzgledem X tj. prosta Y = a · X + b znaleziona dla tego samego zespoªu punktów<br />

do±wiadczalnych tylko wtedy gdy zwiazek pomiedzy X i Y jest funkcyjnym zwiazkiem<br />

liniowym (a nie zale»no±cia statystyczna).<br />

Rozwa»ymy tu specyczna sytuacje (czesto spotykana w zastosowaniach) polegajaca na<br />

tym, »e:<br />

• zmienna obja±niajaca X ma zaniedbywalnie maªe bªedy (mówimy wtedy, »e X jest<br />

zmienna kontrolowana) a wiec mo»e by¢ traktowana jako nielosowa zmienna.<br />

• zmienna obja±niana Y jest zmienna losowa przy czym bªad tej zmiennej jest identyczny<br />

dla wszystkich punktów i wynosi σ(Y ).<br />

Wtedy dostajemy proste, analityczne wzory na estymatory parametrów regresji:


SMOP-2 B.Kamys: 2007/08 49<br />

T n (b) = (∑ i x 2 i ) · ( ∑ i y i ) − ( ∑ i x i ) · ( ∑ i x i · y i )<br />

W<br />

T n (a) = n · (∑ i x i · y i ) − ( ∑ i x i ) · ( ∑ i y i )<br />

W<br />

W ≡ n · ∑<br />

x 2 i − (∑ x i ) 2 (73)<br />

i<br />

i<br />

Wska¹nik sumowania i przebiega warto±ci od 1 do n gdzie n jest liczba punktów<br />

pomiarowych.<br />

Bªedy estymatorów parametrów a i b oraz ich kowariancja równie» wyra»aja<br />

sie analitycznymi wzorami:<br />

√ ∑<br />

i x 2 i<br />

T n (σ(b)) = σ(Y ) ·<br />

W<br />

√ n<br />

T n (σ(a)) = σ(Y ) ·<br />

W<br />

∑<br />

T n (cov(a, b)) = −σ 2 i x i<br />

(Y ) ·<br />

W (74)<br />

Mo»emy równie» poda¢ wzór na bªad warto±ci Y przewidzianej przez linie regresji<br />

(zale»ny od x):<br />

T n (σ(Y (x))) = σ(Y ) · √ 1 n<br />

+<br />

(x − x)2<br />

∑i (x i − x) 2 (75)<br />

OZNACZENIA:<br />

• T n (σ(Y (x))) to estymator bªedu warto±ci Y (x) przewidzianej przez regresje,<br />

• σ(Y ) to bªad pomiaru wspóªrzednej Y i z zaªo»enia taki sam dla wszystkich punktów.<br />

Gdy go nie znamy wpisujemy tu (i do wzorów na bªedy parametrów 'a' i 'b') estymator<br />

T n (σ(Y )),


SMOP-2 B.Kamys: 2007/08 50<br />

• x to ±rednia arytmetyczna warto±ci zmiennej kontrolowanej wyliczona ze wspóªrzednych<br />

punktów x 1 , x 2 , ...x n ,<br />

• x - to warto±¢ zmiennej kontrolowanej X, dla której wyliczamy warto±¢ regresji<br />

liniowej Y (x) i estymator bªedu regresji liniowej T n (σ(Y (x))).<br />

• Bardzo czesto opuszcza sie symbole estymatorów a o tym, czy mamy do<br />

czynienia z parametrami linii prostej i ich bªedami czy te» z estymatorami tych<br />

wielko±ci wnioskujemy z kontekstu.<br />

UWAGA:<br />

Aby podja¢ decyzje, czy regresja liniowa zadawalajaco dobrze odtwarza zale»no±¢ y od x<br />

mo»na zbada¢ czy suma kwadratów odchyle« wyników pomiaru od linii prostej speªnia<br />

poni»sze warunki:<br />

Przy poprawnym odtwarzaniu zale»no±ci y(x) przez prosta regresji y = a · x + b<br />

wielko±¢ Q 2 /σ 2 (Y ) ma rozkªad chi - kwadrat o n − 2 stopniach swobody a wiec jej<br />

warto±¢ oczekiwana i odchylenie standardowe speªniaja nastepujace relacje:<br />

{ } Q<br />

2<br />

E<br />

σ 2 (Y )<br />

{ } Q<br />

2<br />

σ<br />

σ 2 (Y )<br />

= n − 2<br />

=<br />

√<br />

2(n − 2)<br />

Stad przy adekwatno±ci liniowego modelu i przy poprawnym oszacowaniu bªedów pomiarów<br />

σ(y i ) obliczona warto±¢ Q 2 /σ 2 (Y ) powinna by¢ bliska n − 2 a rozrzut dookoªa<br />

tej warto±ci powinien by¢ okre±lony przez √ 2(n − 2) gdzie n to liczba pomiarów.


SMOP-2 B.Kamys: 2007/08 51<br />

9 REGRESJA PRZY POMOCY WIELOMIANÓW OR-<br />

TOGONALNYCH<br />

Tu omówiona zostanie regresja krzywoliniowa ze wzgledu na posta¢ zale»no±ci dopasowanych<br />

funkcji od argumentu ale liniowa ze wzgledu na zale»no±¢ od dobieranych parametrów.<br />

W takiej sytuacji warto±ci parametrów mo»na znale¹¢ przez rozwiazanie ukªadu<br />

równa« liniowych (podobnie jak poprzednio dla parametrów linii prostej). Równania<br />

te sa jednak»e czesto numerycznie niestabilne, tzn. maªe zmiany warto±ci wspóªczynników<br />

ukªadu równa« powoduja drastyczne zmiany rozwiaza«. Wygodna metoda unikniecia<br />

tych problemów jest zastosowanie wielomianów ortogonalnych. Tu zakªadamy dalej, »e<br />

zmienna x jest zmienna kontrolowana , tzn. jej warto±ci sa znane z zaniedbywalnie<br />

maªymi bªedami.<br />

9.1 REGRESJA PRZY POMOCY WIELOMIANÓW ORTOGO-<br />

NALNYCH NA ZBIORZE WARTO‘CI ZMIENNEJ KON-<br />

TROLOWANEJ x i , i = 1, ...n<br />

Przedstawiamy zmienna y jako rozwiniecie w szereg wielomianów ortogonalnych P r (x)<br />

na zbiorze warto±ci argumentów x i , i = 1, ...n:<br />

m∑<br />

y(x) = θ r · P r (x)<br />

r=0<br />

gdzie parametry θ r , (r = 1, ..., m) nale»y wyznaczy¢ z warunku minimalizacji sumy kwadratów<br />

odchyle« wspóªrzednych (y i , i = 1, 2, ..n) zespoªu n punktów o wspóªrzednych<br />

(x 1 , y 1 ),(x 2 , y 2 ),... (x n , y n ) od linii regresji y(x) a wielomiany P r (x), (r = 1, 2, ..., m)<br />

sa okre±lone przez zbiór warto±ci argumentu x i ; (i = 1, 2, .., n) na którym maja by¢<br />

ortogonalne oraz - ewentualnie - przez zbiór wag w i , (i = 1, 2, ..., n) przypisanych poszczególnym<br />

punktom (x i , y i ), (i = 1, 2, ..., n).<br />

Stosowanie wielomianów ortogonalnych ma nastepujace zalety:<br />

1. parametry θ r , (r = 1, ..., m) mo»na wyliczy¢ analitycznie poniewa» pojawiaja<br />

sie jako wspóªczynniki przy wielomianach a wiec mamy do czynienia z liniowym<br />

przypadkiem metody najmniejszych kwadratów (MNK).<br />

2. Obliczenie parametrów odbywa sie przy pomocy prostych wzorów podanych poni»ej.<br />

Nie wymaga to odwracania macierzy - jak to ma miejsce w ogólnym przypadku<br />

ogólnej liniowej MNK. Dzieki temu unika sie problemów numerycznych gdy» odwracanie<br />

typowych macierzy pojawiajacych sie w MNK jest niestabilna numerycznie<br />

procedura.


SMOP-2 B.Kamys: 2007/08 52<br />

3. Parametr θ r+1 jest wyznaczany niezale»nie od parametrów θ 1 , θ 2 , ...θ r , tzn. dodanie<br />

nastepnego wyrazu do szeregu nie wpªywa na parametry przy wielomianach<br />

ni»szego stopnia). Oznacza to równie», »e macierz kowariancji estymatorów parametrów<br />

θ jest diagonalna.<br />

Ortogonalno±¢ wielomianów P r (x) na zbiorze x i , i = 1, 2, ...n warto±ci argumentu<br />

oznacza speªnienie poni»szych warunków:<br />

n∑<br />

w i P l (x i ) · P k (x i ) = 0 dla l ≠ k<br />

i=1<br />

n∑<br />

i=1<br />

w i [P l (x i )] 2 ≠ 0 (76)<br />

gdzie w i , i = 1, 2, ..n s¡ wagami odpowiednich pomiarów y i , i = 1, 2...n.<br />

Wªasno±ci te wykorzystujemy nastepujaco:<br />

Mno»ymy równanie okre±lajace y(x) jako rozwiniecie w szereg wielomianów ortogonalnych<br />

przez dany wielomian P k (x i ) i wag¦ w i a nast¦pnie sumujemy po i co dzieki ortogonalno±ci<br />

wielomianów prowadzi do wzoru:<br />

n∑<br />

∑ n<br />

y i w i P k (x i ) = θ k w i [P k (x i )] 2<br />

i=1<br />

i=1<br />

a wiec otrzymujemy analityczny wzór na estymator parametru θ k :<br />

T n (θ k ) =<br />

n∑<br />

i=1<br />

n∑<br />

i=1<br />

y i w i P k (x i )<br />

w i [P k (x i )] 2 (77)<br />

Jako wagi w i bierze sie zwykle kwadraty odwrotno±ci bªedów mierzonych wielko±ci Y i ,<br />

gdy» to bardzo upraszcza rachunki:<br />

w i = 1<br />

σ 2 (y i )<br />

(78)<br />

Wida¢ to szczególnie przy szacowaniu bª¦dów estymatorów parametrów a nast¦pnie bª¦dów<br />

znalezionych warto±ci funkcji regresji. Przede wszystkim nale»y zauwa»y¢, »e estymatory<br />

parametrów θ k zale»a liniowo od danych y 1 , y 2 , ...y n a wiec macierz kowariancji


SMOP-2 B.Kamys: 2007/08 53<br />

estymatorów mo»na wyliczy¢ ±ci±le stosujac wzór na transformacje macierzy<br />

kowariancji (propagacja bªedów) znajac macierz kowariancji danych y 1 , y 2 , ...y n . Co<br />

wiecej wiadomo, »e macierz kowariancji parametrów jest diagonalna (bo estymator parametru<br />

θ k jest wyliczany niezale»nie od estymatorów pozostaªych parametrów) a wiec<br />

pozostaje nam znalezienie wariancji tych estymatorów.<br />

var(T n (θ k )) =<br />

n∑<br />

[w i · P k (x i )] 2 σ 2 (y i )<br />

i=1<br />

∑<br />

[ n w i · Pk 2(x i)] 2<br />

i=1<br />

Gdy przyjmiemy (tak bedziemy robi¢ w nastepnych wzorach) w i ≡ 1<br />

σ 2 (y i )<br />

to<br />

n∑<br />

n∑<br />

[w i · P k (x i )] 2 · σ 2 (y i ) = w 2 i · P 2 k (x 1<br />

i) ·<br />

i=1<br />

i=1<br />

w i<br />

n∑<br />

= w i · P 2 k (x i)<br />

i=1<br />

a wiec wariancja estymatora parametru θ k wyra»a sie analitycznym wzorem:<br />

var(T n (θ k )) =<br />

n∑<br />

i=1<br />

1<br />

P 2 k (x i)/σ 2 (y i )<br />

(79)<br />

Równie ªatwo mo»na (±cisle) znale¹¢ wariancje (wiec i bªad) formuªy interpolacyjnej na<br />

y(x):<br />

czyli<br />

m∑<br />

var(y(x)) = [P r (x)] 2 · var(T n (θ r ))<br />

r=0<br />

m∑<br />

var(y(x)) =<br />

n∑<br />

r=0<br />

i=1<br />

[P r (x)] 2<br />

P 2 r (x i)/σ 2 (y i )<br />

(80)<br />

Jako±¢ dopasowania mo»e by¢ oceniana przez policzenie warto±ci wyra»enia:


SMOP-2 B.Kamys: 2007/08 54<br />

n∑<br />

m∑<br />

Q 2 (m) = w i · [y i − T n (θ r ) · P r (x i )] 2 , (81)<br />

i=1<br />

r=0<br />

które przy adekwatno±ci modelu powinno mie¢ rozkªad chi-kwadrat o (n-(m+1)) stopniach<br />

swobody.<br />

Wiedzac o tym mo»emy warto±¢ tego wyra»enia u»ywa¢ jako kryterium doboru najwy»-<br />

szego stopnia wielomianu w rozwinieciu (m), gdy» wiemy, »e Q 2 (m) powinno mie¢ warto±¢<br />

oczekiwana równa (n − m − 1) z bªedem √ 2(n − m − 1).<br />

Czesto zamiast Q 2 (m) stosuje sie unormowana sume kwadratów odchyle«:<br />

Q 2 (m)<br />

n − m − 1 .<br />

Warto±¢ oczekiwana tej wielko±ci jest równa jedno±ci a bªad √ 2<br />

n−m−1 .<br />

UWAGA: Innym popularnym wyborem wag jest przyj¦cie wag równych jedno±ci dla wszystkich<br />

punktów. Wtedy trzeba jednak policzy¢ bª¦dy parametrów i przewidzianej funkcji<br />

regresji wg nieco innych wzorów, uwzgl¦dniaj¡c to, »e wagi nie uproszcz¡ si¦ z kwadratem<br />

bª¦dów.<br />

var (T n (θ k )) =<br />

n∑<br />

i=1<br />

[ n∑<br />

P 2 k (x i) σ 2 (y i )<br />

] 2<br />

(82)<br />

Pk 2(x i)<br />

i=1<br />

n∑<br />

m∑<br />

⎧⎪ ⎨ P 2<br />

var (y (x)) = [P r (x)] 2 r (x i) σ 2 (y i )<br />

⎫⎪ ⎬<br />

i=1<br />

[ n∑<br />

] 2<br />

(83)<br />

r=0 ⎪ ⎩ Pr 2(x ⎪<br />

i) ⎭<br />

i=1<br />

Ten ostatni wzór jest uogólnieniem wzoru (75), który mo»na z niego otrzyma¢ podstawiaj¡c<br />

identyczn¡ warto±¢ bª¦du σ(y i ) dla wszystkich punktów.


SMOP-2 B.Kamys: 2007/08 55<br />

9.2 KONSTRUKCJA ZESPOŠU WIELOMIANÓW ORTOGO-<br />

NALNYCH NA ZBIORZE WARTO‘CI ARGUMENTU<br />

Zakªadamy, »e maja to by¢ wielomiany ortogonalne z wagami w 1 , w 2 , ...w n na zbiorze<br />

warto±ci argumentu x 1 , x 2 , ...x n , posiadajace jednostkowy wspóªczynnik przy najwy»szej<br />

potedze argumentu x. Mo»na pokaza¢, »e wielomiany ortogonalne P 0 (x), P 1 (x), ...P m (x)<br />

speªniaja poni»sze formuªy rekurencyjne, które moga by¢ efektywnie zastosowane do ich<br />

wyliczenia:<br />

P r+1 (x) = [x + β r+1 ] · P r (x) + γ r+1 · P r−1 (x)<br />

n∑<br />

w i · P 2 r (x i) · x i<br />

i=1<br />

β r+1 = − n∑<br />

w i · Pr 2(x i)<br />

γ r+1 = −<br />

i=1<br />

n∑<br />

i=1<br />

n∑<br />

i=1<br />

w i · P 2 r (x i)<br />

w i · P 2 r−1 (x i)<br />

(84)<br />

przy czym startowe wielomiany, tzn. P 0 (x) i P 1 (x) okre±la sie nastepujaco:<br />

P 0 (x) = 1<br />

P 1 (x) = x −<br />

n∑<br />

i=1<br />

n∑<br />

w i · x i<br />

i=1<br />

w i<br />

(85)<br />

Warto zauwa»y¢, »e sumy typu ∑ i w i·P 2 r (x i) wystepuja zarówno w mianowniku wzorów<br />

na γ r+2 , β r+1 , T n (θ r ), var(y) jak i w liczniku wzoru na γ r+1 . Dzieki temu przy<br />

programowaniu wzorów mo»na te sumy wykorzysta¢ wielokrotnie.


SMOP-2 B.Kamys: 2007/08 56<br />

10 METODY SZUKANIA ESTYMATORÓW O PO-<br />

› DANYCH WŠASNO‘CIACH<br />

Omówimy poni»ej trzy najcze±ciej stosowane ogólne metody poszukiwania estymatorów<br />

parametrów zapewniajace otrzymanie estymatorów o po»adanych wªasno±ciach. Sa to:<br />

• Metoda momentów<br />

• Metoda najwiekszej wiarygodno±ci<br />

• Metoda najmniejszych kwadratów<br />

Ka»da z nich ma swoje zalety i wady. W ogólnym przypadku zalecana jest metoda<br />

najwiekszej wiarygodno±ci ale w przypadku szukania parametrów regresji najbardziej popularna<br />

jest metoda najmniejszych kwadratów. Z kolei metoda momentów mo»e by¢<br />

bardzo wygodna w niektórych przypadkach przedyskutowanych poni»ej.<br />

10.1 METODA MOMENTÓW (MM)<br />

Metoda momentów zaproponowana zostaªa przez K. Pearsona na przeªomie XIX i XX<br />

wieku.<br />

Idea metody: Szukamy estymatorów parametrów θ 1, θ 2,... θ k okre±lajacych caªkowicie<br />

dystrybuante zmiennej losowej X postepujac w poni»szy sposób:<br />

• Znajdujemy zwiazki pomiedzy parametrami a momentami rozkªadu.<br />

• Wyliczamy estymatory momentów T n (m i (0)) ≡ M i wg wzoru:<br />

M i = 1 n∑<br />

[x j ] i<br />

n j=1<br />

• Wstawiamy powy»sze estymatory momentów do wzorów wia»acych oszacowywane<br />

parametry z momentami.<br />

• Rozwiazujemy ukªad równa« na parametry θ 1, θ 2,... θ k wyra»ajac je przez estymatory<br />

momentów M i , i=1,..,k . Te rozwiazania sa estymatorami odpowiednich<br />

parametrów T n (θ i ) , i=1,...,k , optymalnymi w sensie metody momentów.


SMOP-2 B.Kamys: 2007/08 57<br />

PRZYKŠAD:<br />

Szukamy estymatorów parametrów θ 1, (θ 2 ) 2 rozkªadu Gaussa:<br />

f(x) = 1 √ exp{− (x − θ 1) 2<br />

}<br />

2πθ<br />

2<br />

2<br />

2θ 2 2<br />

Znamy zwiazki pomiedzy parametrami i momentami rozkªadu:<br />

θ 1 =E{x} ≡ m 1 (0)<br />

(θ 2 ) 2 = var{x} = E{x 2 } − (E{x}) 2 ≡ m 2 (0) − (m 1 (0)) 2<br />

Liczymy estymatory momentów:<br />

T n (m 1 (0)) ≡ M 1 = 1 n∑<br />

x i<br />

n i=1<br />

T n (m 2 (0)) ≡ M 2 = 1 n∑<br />

x 2 i<br />

n i=1<br />

Z pierwszego równania po wstawieniu ±redniej arytmetycznej zamiast E{x}<br />

dostajemy:<br />

T n (θ 1 ) = 1 n∑<br />

x i<br />

n i=1<br />

Z drugiego równania (zastepujac momenty ich estymatorami) dostajemy:<br />

)<br />

T n (θ 2 2 ) = 1 n∑<br />

n∑ 2<br />

x<br />

n<br />

n i =<br />

i=1<br />

i=1<br />

n∑<br />

x 2 i − 2¯x2 + ¯x 2 =<br />

(<br />

x 2 i − 2¯x. 1<br />

n∑<br />

= 1 n<br />

i=1<br />

= 1 n∑<br />

n<br />

i=1<br />

= 1 n∑<br />

n<br />

i=1<br />

= 1 n∑<br />

n<br />

i=1<br />

x 2 i − (<br />

1<br />

n<br />

i=1<br />

x i<br />

)<br />

+<br />

(<br />

x<br />

2<br />

i − 2¯x.x i + ¯x 2) =<br />

(x i − ¯x) 2<br />

(<br />

1<br />

n∑<br />

n<br />

i=1<br />

¯x 2 )<br />

=


SMOP-2 B.Kamys: 2007/08 58<br />

(w drugim wierszu dodany i odjety kwadrat ±redniej arytmetycznej, w trzecim kwadrat<br />

±redniej zapisany jako n-ta cze±¢ sumy kwadratów ±redniej a dalej to tylko zwijanie kwadratu<br />

ró»nicy).<br />

Otrzymujemy wiec znany nam estymator s 2 (x) jako najlepszy w sensie metody momentów<br />

estymator wariancji θ 2 2 :<br />

T n (θ 2 2 ) = 1 n∑<br />

(x i − ¯x) 2 ≡ s 2 (x)<br />

n i=1<br />

Wªasno±ci estymatorów metody momentów :<br />

Estymatory sa:<br />

• asymptotycznie nieobcia»one (lub nieobcia»one)<br />

• zgodne<br />

Wady metody momentów:<br />

• Ukªad równa« na estymatory parametrów θ jest zwykle nieliniowy co powoduje,<br />

»e musimy znajdowa¢ rozwiazania numerycznie i dodatkowo utrudnia oszacowanie<br />

bªedów estymatorów.<br />

• Estymatory metody momentów sa zwykle mniej efektywne (tzn. maja wieksza<br />

wariancje) ni» estymatory znalezione innymi metodami a w szczególno±ci metoda<br />

najwiekszej wiarygodno±ci.<br />

• Wyznaczanie wy»szych momentów z do±wiadczenia jest maªo dokªadne co rzutuje<br />

na dokªadno±¢ estymatorów parametrów.<br />

Optymalna sytuacja dla metody momentów:<br />

Zachodzi ona wtedy, gdy szukane parametry wystepuja jako wspóªczynniki rozwiniecia<br />

funkcji gesto±ci prawdopodobie«stwa na ortonormalny zespóª funkcji g k (x), k = 1, .., r:<br />

f(x, θ) ⃗ r∑<br />

= const + θ k g k (x)<br />

k=1


SMOP-2 B.Kamys: 2007/08 59<br />

gdzie const jest staªa normalizacyjna a funkcje g k speªniaja relacje:<br />

∫<br />

dx g k (x) g j (x) = δ kj<br />

oraz<br />

∫<br />

dx g k (x) = 0.<br />

Wtedy mo»emy napisa¢ nastepujaco wzór na warto±¢ oczekiwana funkcji g j (x):<br />

E{g j (x)} = ∫ dx g j (x) f(x, ⃗ θ) =<br />

= ∫ dx const g j (x) + r ∑<br />

= 0 + θ j<br />

k=1<br />

θ k<br />

∫ dx gk (x) g j (x) =<br />

Wynika stad, »e szukanie estymatora parametru θ j sprowadza sie do znalezienia estymatora<br />

warto±ci oczekiwanej funkcji g j (x). Zgodnie z zasada metody momentów estymatorem<br />

tym jest ±rednia arytmetyczna:<br />

T n (θ j ) = 1 n∑<br />

g j (x i )<br />

n i=1<br />

Wiemy, »e ±rednia arytmetyczna jest zgodnym i nieobcia»onym estymatorem. Co<br />

wiecej, wiemy z centralnego twierdzenia granicznego , »e asymptotyczny rozkªad takiej<br />

zmiennej jest rozkªadem normalnym a wiec znamy równie» przepis na estymator wariancji<br />

tego estymatora. Takim nieobcia»onym i zgodnym estymatorem jest S 2 (¯x), gdzie zamiast<br />

x i bierzemy funkcje g j (x i ) a zamiast ¯x bierzemy estymator T n (θ j ):<br />

S 2 (T n (θ j )) =<br />

1 n∑<br />

[g j (x i ) − T n (θ j )] 2<br />

n(n − 1) i=1


SMOP-2 B.Kamys: 2007/08 60<br />

10.2 METODA NAJWIEKSZEJ WIARYGODNO‘CI (MNW)<br />

Metoda najwiekszej wiarygodno±ci zaproponowana zostaªa przez R.A. Fishera w 1921<br />

roku.<br />

Idea metody:<br />

Zawiera sie w zaªo»eniu, »e zaobserwowane w próbie wyniki sa najbardziej prawdopodobne<br />

spo±ród wszystkich mo»liwych.<br />

• Szukamy prawdopodobie«stwa tego, »e próba bedzie taka jaka zaobserwowali±my<br />

je»eli parametry ⃗ θ przyjmuja konkretna warto±¢ ⃗ θ 0 .<br />

Je»eli próba jest prosta, tzn. pomiary x i , i = 1, .., n sa niezale»ne to szukane prawdopodobie«stwo<br />

próby równe jest iloczynowi prawdopodobie«stw warunkowych poszczególnych<br />

pomiarów. Dla zmiennej ciagªej X mo»emy opu±ci¢ iloczyn ró»niczek<br />

dx 1 ...dx n i zapisa¢ jedynie iloczyn gesto±ci prawdopodobie«stw:<br />

L( θ ⃗ n∏ ∣ ∣∣ 0 ) = f(x i θ0 ⃗ ).<br />

i=1<br />

To prawdopodobie«stwo (dla zmiennej dyskretnej) lub gesto±¢ prawdopodobie«stwa<br />

(dla zmiennej ciagªej) mo»emy potraktowa¢ jako funkcje szukanych parametrów.<br />

Funkcje te nazywamy funkcja wiarygodno±ci.<br />

• Znajdujemy taka warto±¢ parametrów ⃗ θ , która zapewnia maksimum funkcji wiarygodno±ci:<br />

L( ⃗ θ) = max .<br />

Te dwa warunki sªu»a jako przepis na szukanie optymalnych w sensie metody najwiekszej<br />

wiarygodno±ci estymatorów.<br />

Poniewa» szukanie maksimum funkcji wiarygodno±ci wymaga zwykle ró»niczkowania<br />

po parametrach wiec bedziemy mie¢ do czynienia z ró»niczkowaniem iloczynu co prowadzi<br />

do do±¢ skomplikowanych rachunków. Aby uªatwi¢ ró»niczkowanie standardowo<br />

zamienia sie funkcje wiarygodno±ci przez jej logarytm co powoduje, »e zamiast<br />

ró»niczkowania iloczynu nale»y ró»niczkowa¢ sume a poªo»enie maksimum w przestrzeni<br />

parametrów jest takie samo gdy» logarytm jest funkcja monotoniczna oraz<br />

∂ ln(L)<br />

∂θ i<br />

≡<br />

( ) ∂L<br />

∂θ i<br />

L<br />

ma taki sam znak jak<br />

∂L<br />

∂θ i<br />

(L jest wieksze od zera ).<br />

Logarytm z funkcji wiarygodno±ci oznaczany jest zwykle przez maªa litere l.


SMOP-2 B.Kamys: 2007/08 61<br />

l ≡ ln(L)<br />

(chocia» stosuje sie równie» oznaczenie przez du»e L) i nazywany jest logarytmiczna<br />

funkcja wiarygodno±ci a czasem równie» funkcja wiarygodno±ci.<br />

PRZYKŠAD:<br />

Dla rozkªadu normalnego N(θ 1 ,θ 2 ) :<br />

wiec funkcja wiarygodno±ci:<br />

f(x) =<br />

L(θ 1 , θ 2 ) =<br />

1<br />

√<br />

2π θ2<br />

exp<br />

1<br />

(2π) n 2 θ n 2<br />

a logarytmiczna funkcja wiarygodno±ci:<br />

{− (x − θ 1) 2 }<br />

2θ 2 2<br />

{<br />

exp − 1<br />

}<br />

n∑<br />

(x<br />

2θ2<br />

2 i − θ 1 ) 2<br />

i=1<br />

l = −n ln((2π) 1 2 ) − n ln(θ2 ) − 1 n∑<br />

(x<br />

2θ2<br />

2 i −θ 1 ) 2<br />

i=1<br />

Ró»niczkujac po parametrach dostajemy ukªad równa« na parametry:<br />

⎧<br />

⎪⎨<br />

⎪⎩<br />

∂l<br />

∂θ 1<br />

= 1<br />

θ2<br />

2<br />

n∑<br />

i=1<br />

∂l<br />

∂θ 2<br />

= − n θ 2<br />

+ 1<br />

(x i − θ 1 ) = 0<br />

n∑<br />

(x i − θ 1 ) 2 = 0<br />

θ2<br />

3 i=1<br />

Rozwiazanie pierwszego równania daje estymator T n (θ 1 ):<br />

T n (θ 1 ) = 1 n∑<br />

x i<br />

n i=1<br />

czyli ±rednia arytmetyczna ¯x, a przeksztaªcajac drugie równanie mo»na napisa¢ tak:<br />

czyli<br />

n = 1 n∑<br />

(x<br />

θ2<br />

2 i − T n (θ 1 ) 2<br />

i=1<br />

T n (θ 2 2 ) = 1 n∑<br />

(x i − ¯x) 2<br />

n i=1


SMOP-2 B.Kamys: 2007/08 62<br />

a to jest znany nam estymator wariancji zmiennej x oznaczany symbolem s 2 (x).<br />

Jak wida¢ metoda najwiekszej wiarygodno±ci daªa w tym przypadku dokªadnie te same<br />

estymatory co metoda momentów.<br />

Zanim podamy wªasno±ci estymatorów MNW wprowadzimy denicje rozkªadu regularnego<br />

i estymatorów regularnych.<br />

Mówimy, »e rozkªad f(X, θ) jest rozkªadem regularnym gdy caªkowanie wzgledem x i<br />

ró»niczkowanie wzgledem θ sa przemienne i istnieja wyra»enia:<br />

oraz<br />

∫<br />

∂ 2 +∞<br />

∂θ 2 −∞<br />

≡ +∞ ∫<br />

−∞<br />

+∞<br />

∂ ∫<br />

∂θ<br />

−∞<br />

≡ +∞ ∫<br />

−∞<br />

dx f(x|θ) = +∞ ∫<br />

dx f(x|θ)<br />

}<br />

≡ E { ∂ ln f(x|θ)<br />

∂θ<br />

dx f(x|θ) = +∞ ∫<br />

dx f(x|θ) ∂2 ln f(x|θ)<br />

≡ E { ∂ 2 ln f(x|θ)<br />

∂θ 2<br />

−∞<br />

∂ ln f(x|θ)<br />

∂θ<br />

dx ∂2 f(x|θ)<br />

∂θ 2<br />

−∞<br />

+ +∞ ∫<br />

∂θ 2<br />

}<br />

+ E<br />

{ [ ∂ ln f(x|θ)<br />

∂θ<br />

−∞<br />

] } 2<br />

dx ∂f(x|θ)<br />

∂θ<br />

dx f(x|θ) [ ] 2 ∂ ln f(x|θ)<br />

≡<br />

∂θ<br />

Estymator parametru θ rozkªadu regularnego nazywamy estymatorem regularnym.<br />

Gdy zmienna X jest dyskretna to w powy»szych wzorach nale»y funkcje gesto±ci prawdopodobie«stwa<br />

zastapi¢ prawdopodobie«stwem i caªki sumami.<br />

UWAGA:<br />

Ze wzgledu na warunek normalizacji gesto±ci prawdopodobie«stwa +∞<br />

dx f(x|θ) = 1<br />

oba wyra»enia wypisane w denicji rozkªadu regularnego sa równe zero.<br />

∫<br />

−∞<br />

TWIERDZENIE<br />

Je»eli funkcja gesto±ci prawdopodobie«stwa f(X|θ) (lub rozkªad prawdopodobie«stwa<br />

p(X|θ) ) sa rozkªadami regularnymi i parametr θ jest szacowany na podstawie próby<br />

prostej to estymator T n (θ) otrzymany przy pomocy MNW ma dla rozmiarów próby<br />

n da»acych do niesko«czono±ci nastepujace wªasno±ci:<br />

• jest zgodny<br />

• jego asymptotyczny rozkªad jest normalny


SMOP-2 B.Kamys: 2007/08 63<br />

z warto±cia oczekiwana<br />

i wariancja σ 2 (T n (θ))=<br />

E{T n (θ)}=θ<br />

[<br />

]<br />

n +∞ ∫ ( ) −1<br />

∂ ln f(X|θ)<br />

2<br />

∂θ f(X|θ) dX<br />

−∞<br />

Mo»na pokaza¢ (jest to tre±cia tzw. nierówno±ci Cramera-Rao), »e wyra»enie powy»-<br />

sze jest dolna granica wariancji dla nieobcia»onego estymatora regularnego a<br />

wiec<br />

MNW daje estymatory:<br />

- zgodne,<br />

- asymptotycznie nieobcia»one,<br />

- asymptotycznie najbardziej efektywne<br />

Dla sko«czonych rozmiarów próby i regularnych rozkªadów MNW daje estymatory<br />

zgodne ale moga by¢ one obcia»one i moga nie by¢ najbardziej efektywne. O ich<br />

efektywno±ci mo»na wnioskowa¢ na podstawie twierdzenia Cramera-Rao zwanego równie»<br />

nierówno±cia informacyjna :<br />

TWIERDZENIE Cramera-Rao:<br />

Wariancja regularnego estymatora T n (θ) speªnia nierówno±¢<br />

gdzie<br />

σ 2 (T n (θ)) ≥<br />

{<br />

jest obcia»eniem estymatora.<br />

1 + ∂B n(θ)<br />

∂θ<br />

} ⎡ ⎤<br />

+∞ ∫ ( )<br />

⎢ ∂ ln f(X|θ) 2<br />

⎥<br />

⎣n f(X|θ) dX ⎦<br />

∂θ<br />

−∞<br />

B n (θ) ≡ E{T n (θ)} − θ<br />

Wyra»enie w nawiasie kwadratowym nazywane jest informacja o parametrze θ zawarta<br />

w próbie (R.A. Fisher) - stad nazwa nierówno±ci.<br />

Wyra»enie to zostaªo tak nazwane gdy» posiada wªasno±ci, których wymagamy od informacji:<br />

• zwieksza sie wraz z liczba obserwacji,<br />

• zale»y od tego czego chcemy sie dowiedzie¢ (od parametru θ i jego zwiazku z mierzonymi<br />

wielko±ciami),<br />

• zwiazana jest z dokªadno±cia (im wieksza informacja tym lepsza dokªadno±¢ okre-<br />

±lenia warto±ci parametru)<br />

−1


SMOP-2 B.Kamys: 2007/08 64<br />

TWIERDZENIE<br />

Minimalna wariancje estymatora regularnego (równo±¢ w twierdzeniu Cramera-Rao)<br />

T n (τ(θ)) pewnej funkcji τ(θ) interesujacego nas parametru θ :<br />

( )<br />

∂τ (θ)<br />

σ 2 (T n (τ (θ)) =<br />

∂θ<br />

∣ F (θ) ∣<br />

uzyskuje sie dla sko«czonych rozmiarów próby n wtedy gdy pochodna czastkowa<br />

funkcji wiarygodno±ci speªnia nastepujaca relacje:<br />

∂ ln L<br />

= F (θ) [T n (τ (θ)) − τ (θ)]<br />

∂θ<br />

gdzie F(θ) jest pewna funkcja parametru θ ale nie zale»y od pomiarów ⃗x.<br />

○<br />

Funkcja wiarygodno±ci ma wtedy nastepujaca posta¢:<br />

L(⃗x|θ ) = exp { A(θ) B(⃗x) + C(⃗x) + D(θ) }<br />

gdzie A i D sa funkcjami θ (A jest caªka po dθ z F (θ) ) a B i C sa funkcjami<br />

zespoªu pomiarów (próby).<br />

Porównujac wzór na wariancje estymatora T n (τ (θ)) z nierówno±cia Cramera-Rao wida¢<br />

natychmiast, »e:<br />

• F (θ) to informacja z próby o funkcji τ(θ),<br />

• gdy τ(θ)=θ to wariancja wynosi 1/F (θ),<br />

• istnieje tylko jedna funkcja τ (θ) parametru θ , dla której osiagana jest minimalna<br />

wariancja estymatora okre±lona nierówno±cia Cramera-Rao czyli taka funkcja τ (θ)<br />

od której liniowo zale»y pochodna po parametrze θ z logarytmicznej funkcji wiarygodno±ci.<br />

PRZYKŠAD: Je»eli parametrem θ jest odchylenie standardowe rozkªadu normalnego<br />

σ(x) to tylko estymator wariancji σ 2 (x) , tzn. estymator s 2 (x) ma minimalna wariancje<br />

a estymator s(x) ju» tej wªasno±ci nie posiada. Wida¢ to ze wzoru wyprowadzonego w<br />

przykªadzie zastosowania MNW:<br />

∂l<br />

= − n + 1 n∑<br />

(x<br />

∂θ 2 θ 2 θ2<br />

3 i − θ 1 ) 2 = 0<br />

i=1<br />

Pochodna po θ 2 jest liniowo zwiazana z funkcja s 2 (x) ≡ 1 (x<br />

n i − θ 1 ) 2 a nie z<br />

i=1<br />

estymatorem odchylenia standardowego s(x), który jest pierwiastkiem z tego wyra»enia.<br />

Wida¢ to po prostym przeksztaªceniu wzoru na pochodna:<br />

n∑


SMOP-2 B.Kamys: 2007/08 65<br />

( ) [<br />

∂l n<br />

≡ −θ 2<br />

∂θ 2 θ2<br />

3 2 + 1 ]<br />

n∑<br />

(x i − θ 1 ) 2<br />

n i=1<br />

Šatwo zidentykujemy:<br />

( ) n<br />

F (θ) ≡<br />

θ2 3<br />

τ (θ) ≡ θ 2 2<br />

T n (τ (θ)) ≡ 1 n∑<br />

(x i − θ 1 ) 2<br />

n<br />

i=1<br />

10.2.1 Oszacowanie bªedu parametru znalezionego MNW<br />

Istnieje prosty sposób oszacowania bªedu estymatorów znalezionych MNW je»eli logarytmiczna<br />

funkcja w pobli»u maksimum mo»e by¢ przybli»ona parabola jako funkcja wszystkich<br />

parametrów. Mo»na pokaza¢, »e wówczas kontur staªej warto±ci logarytmicznej f.<br />

wiarygodno±ci lnL( ⃗ θ) speªniajacy relacje:<br />

ln ( L ( ⃗ θ<br />

))<br />

= ln<br />

(<br />

L<br />

( ⃗θ<br />

)<br />

max<br />

)<br />

−<br />

y 2<br />

odcina na osiach θ i y-krotna wielko±¢ odchylenia standardowego parametru θ i : y ·σ(θ i ).<br />

Je»eli przybli»enie parabola zale»no±ci lnL(θ i ) nie jest ±cisªe to nale»y ten sposób<br />

traktowa¢ jedynie jako przybli»ona metode.<br />

2


SMOP-2 B.Kamys: 2007/08 66<br />

10.3 METODA NAJMNIEJSZYCH KWADRATÓW (MNK)<br />

Za autora metody najmniejszych kwadratów uwa»a sie K. Gaussa.<br />

Idea metody:<br />

Szukamy estymatora T n (θ) parametru θ wystepujacego we wzorze:<br />

g(Y, θ) = 0,<br />

który mo»e by¢ ±ci±le speªniony tylko w wyidealizowanym przypadku, gdy mierzone do-<br />

±wiadczalnie wielkosci Y i nie sa obarczone bªedami. W obecno±ci bªedów tak dobieramy<br />

parametr θ (mo»e by¢ ich wiecej) aby funkcja g zbli»yªa sie do zera tak bardzo jak to<br />

tylko jest mo»liwe, tj. »adamy speªnienia warunku:<br />

n∑<br />

i=1<br />

[g(Y i , θ)] 2 = min<br />

θ<br />

a w najogólniejszym przypadku (wªaczajac wagi pomiarów w i ) warunku:<br />

n∑<br />

i=1<br />

w i· [g(Y i , θ)] 2 = min .<br />

θ<br />

PRZYKŠAD:<br />

Szukamy prawdziwej warto±ci wielko±ci Y mierzonej bezpo±rednio. Gdyby nie byªo bledów<br />

wówczas:<br />

albo inaczej<br />

θ = Y<br />

g(Y |θ) ≡ Y − θ = 0.<br />

W obecno±ci bªedów,funkcja g(Y |θ) bedzie zwykle ró»na od zera ale MNK podaje przepis<br />

jak znale¹¢ estymator T n (θ):<br />

n∑<br />

n∑<br />

[g(Y i |θ)] 2 ≡<br />

i=1<br />

i=1<br />

[Y i − θ] 2 = min<br />

θ<br />

Aby znale¹¢ minimum powy»szej funkcji ze wzgledu na θ nale»y przyrówna¢ do zera<br />

pochodna tej funkcji wzgledem θ:<br />

n∑<br />

−2 [Y i − θ] = 0<br />

i=1<br />

a wiec dostajemy znany nam przepis na estymator warto±ci oczekiwanej:


SMOP-2 B.Kamys: 2007/08 67<br />

T n (θ) = 1 n∑<br />

Y i<br />

n i=1<br />

Wªasno±ci estymatorów MNK<br />

Estymatory otrzymane MNK nie maja w ogólnym przypadku optymalnych wªasno±ci<br />

(nawet asymptotycznie)! Istnieja jednak dwa wa»ne wyjatki od tej reguªy:<br />

1.) Pomiary Y i maja rozkªad normalny i sa nieskorelowane,<br />

2.) Szukane parametry sa wspóªczynnikami w liniowej funkcji regresji.<br />

ad 1. Pomiary maja rozkªad normalny i sa nieskorelowane Odpowiada to sytuacji,<br />

w której zmienna Y mo»e by¢ przedstawiona nastepujaco:<br />

Y i = h(X i , ⃗ θ) + ε<br />

gdzie ε to bªad przypadkowy.<br />

Wtedy funkcja wiarygodno±ci ma nastepujaca posta¢:<br />

L(Y 1 , .., Y n | ⃗ θ) =<br />

n∏<br />

i=1<br />

a logarytmiczna funkcja wiarygodno±ci:<br />

l(Y 1 , .., Y n | ⃗ θ) = − 1 2 n ln ( 2πσ 2 i<br />

⎧ (<br />

1<br />

⎪⎨ Yi<br />

√ exp 2πσi ⎪⎩ − − h(X i , θ) ⃗ ) ⎫<br />

2<br />

⎪⎬<br />

2σi<br />

2 ⎪⎭<br />

(<br />

) ∑ n Yi − h(X i , θ) ⃗ ) 2<br />

−<br />

Funkcja ta bedzie miaªa maksimum (ujemne !) gdy suma kwadratów bedzie najmniejsza.<br />

A wiec metoda najmniejszych kwadratów jest wtedy równowa»na metodzie<br />

najwiekszej wiarygodno±ci, która zapewnia optymalno±c otrzymywanych estymatorów.<br />

ad 2. Funkcja regresji jest liniowa ze wzgledu na szukane parametry Zmienna<br />

Y zale»y wtedy od zmiennej X w nastepujacy sposób:<br />

i=1<br />

2σ 2 i<br />

k∑<br />

Y i = θ j · f j (X i )<br />

j=1


SMOP-2 B.Kamys: 2007/08 68<br />

gdzie f j (X) jest dowolna funkcja.<br />

Markow udowodniª , »e w takiej sytuacji estymatory parametrów posiadaja bardzo<br />

dobre wªasno±ci:<br />

• sa nieobcia»one<br />

• sa najbardziej efektywne<br />

• sa liniowymi funkcjami pomiarów Y 1 , ..., Y n .<br />

Te wªasno±ci nie zale»a od rozkªadu zmiennej Y i speªnione sa nawet dla<br />

niewielkich prób.<br />

Linowy (ze wzgledu na parametry) model funkcji regresji jest bardzo czesto stosowany<br />

w praktyce, poniewa» obok optymalnych wªasno±ci estymatorów parametrów zapewnia<br />

mo»liwo±¢ ±cisªego rozwiazania równa« okre±lajacych estymatory parametrów a wiec mo»-<br />

liwo±¢ znalezienia jawnych wzorów na estymatory. Tego prawie nigdy nie da sie zrobi¢<br />

w przypadku pierwszym, tzn. gdy zale»no±¢ od parametrów jest nieliniowa. Zapiszemy<br />

warunek metody najmniejszych kwadratów macierzowo stosujac nastepujace oznaczenia:<br />

A ij ≡ f j (x i ) i = 1, .., n j = 1, .., r<br />

B ij i = 1, .., n j = 1, .., n<br />

Y i i = 1, .., n<br />

i = 1, .., r<br />

θ i<br />

gdzie A ij to macierz warto±ci funkcji f j (x i ), B i,j to macierz wag zwykle brana jako<br />

odwrócona macierz kowariancji pomiarów {cov(y i ,y j )} −1 , Y i - wektor pomiarów, θ i -<br />

wektor parametrów. Wtedy minimalizowana suma kwadratów mo»e by¢ zapisana w taki<br />

sposób:<br />

Q 2 = (⃗Y − A · ⃗θ) T · B · (⃗Y − A · ⃗θ)<br />

a pochodne wzgledem parametrów nastepujaco (i=1,...,r):<br />

∂Q 2<br />

∂θ i<br />

= { −2A T · B · (⃗Y − A · ⃗θ) } i = 0·<br />

Zespóª r powy»szych równa« mo»na zapisa¢ macierzowo i rozwiaza¢ formalnie:<br />

A T · B · (⃗Y − A · ⃗θ) = 0<br />

A T · B · ⃗Y = A T · B · A · ⃗θ<br />

a mno»ac lewostronnie przez macierz odwrotna do A T BA, dostaniemy estymatory<br />

parametrów liniowej funkcji regresji :<br />

T n ( ⃗ θ) = [ A T · B · A ] −1<br />

AT · B · ⃗Y


SMOP-2 B.Kamys: 2007/08 69<br />

Jest to dokªadne i jedyne rozwiazanie (pod warunkiem, »e macierz A T BA jest nieosobliwa)<br />

Z powy»szego wzoru wida¢, »e estymatory parametrów sa liniowymi funkcjami warto±ci<br />

pomiarów Y 1 , ..., Y n co pozwala ±ci±le wyrazi¢ macierz kowariancji estymatorów<br />

parametrów (a wiec i ich bªedy) przez macierz kowariancji pomiarów C( ⃗Y ) stosujac wzór<br />

wyprowadzony dla propagacji bªedów. Gdy przyjmiemy macierz wag B jako macierz<br />

odwrotna do C(⃗Y ) to uzyskamy wyjatkowo prosta forme macierzy kowariancji estymatorów<br />

parametrów.<br />

C(T n ( ⃗ θ)) =<br />

=<br />

{ [A T BA ] −1<br />

A T B}<br />

{ [A T BA ] −1<br />

A T B}<br />

{ [A<br />

· C(⃗Y ) · T BA ] }<br />

−1 T<br />

A T B<br />

{ [A<br />

· B −1 · T BA ] }<br />

−1 T<br />

A T B<br />

= [ A T BA ] (<br />

−1 [A<br />

AT · BB −1 · B T A<br />

T BA ] −1 ) T<br />

= [ A T BA ] −1 [<br />

· A T BA ] ( [A<br />

·<br />

T BA ] T ) −1<br />

= ([ A T BA ]) −1<br />

= [ A T C(⃗Y ) −1 A ] −1<br />

Ostatecznie macierz kowariancji estymatorów parametrów :<br />

C(T n (⃗θ)) = [ A T C(⃗Y ) −1 A ] −1<br />

Warto zauwa»y¢, »e<br />

• Ten wynik jest ±cisªy<br />

• Powy»sza macierz jest wyliczana dla znalezienia estymatorów parametrów bo to jest<br />

macierz {A T BA} −1 wystepujaca we wzorze na estymatory.<br />

• Mimo, »e wzór jest ±cisªy i prosty to jego wyliczenie czesto napotyka na trudno±ci<br />

numeryczne gdy» procedura odwracania macierzy {A T BA} −1 jest ¹le uwarunkowana<br />

numerycznie (maªe zaokraglenia rachunków moga powodowa¢ wielkie zmiany<br />

wyników). Dla unikniecie tego problemu stosuje sie jako funkcje, na które rozwijana<br />

jest funkcja regresji tzw. wielomiany ortogonalne na zbiorze punktów.


SMOP-2 B.Kamys: 2007/08 70<br />

11 TESTOWANIE HIPOTEZ STATYSTYCZNYCH<br />

11.1 Denicje elementarnych poje¢<br />

Poni»ej podamy denicje elementarnych poje¢ stosowanych przy testowaniu hipotez.<br />

Hipoteza statystyczna nazywamy hipoteze odnoszaca sie do rozkªadu prawdopodobie«stwa<br />

zmiennej losowej (funkcji gesto±ci prawdopodobie«stwa, itp.) lub do parametrów<br />

rozkªadu prawdopodobie«stwa.<br />

Hipoteza prosta to taka, która jednoznacznie okre±la dystrybuante (rozkªad) zmiennej<br />

losowej, tzn. podana jest posta¢ rozkªadu i warto±ci wszystkich parametrów.<br />

Hipoteza zªo»ona to taka, która nie jest prosta, np. podana jest posta¢ rozkªadu a<br />

nie sa znane warto±ci niektórych parametrów.<br />

Hipoteza parametryczna to hipoteza odnoszaca sie do warto±ci parametrów rozkªadu.<br />

Inne hipotezy nazywaja sie hipotezami nieparametrycznymi i z natury sa<br />

hipotezami zªo»onymi.<br />

Hipoteza zerowa H 0 ” to sprawdzana hipoteza.<br />

Hipoteza alternatywna H 1 ” to hipoteza, która byliby±my skªonni przyja¢ gdy<br />

H 0 ” jest nieprawdziwa.<br />

UWAGA: H 1 ” nie musi by¢ prostym zaprzeczeniem H 0 ”<br />

Bªad pierwszego rodzaju to odrzucenie prawdziwej H 0 ”.<br />

Poziomem istotno±ci α” nazywamy prawdopodobie«stwo popeªnienia bªedu pierwszego<br />

rodzaju. Przyjmuje sie zwykle α” ∈ [0.1 − 0.001] konkretny wybór oczywi±cie<br />

zale»y od tego jak kosztowne beda skutki popeªnienia bªedu pierwszego rodzaju.<br />

Bªad drugiego rodzaju to przyjecie nieprawdziwej H 0 ”.<br />

UWAGA: Przez sformuªowanie przyjecie hipotezy” nale»y rozumie¢ stwierdzenie, »e nie<br />

mamy podstaw do odrzucenia hipotezy H 0 ”. Inaczej mówiac pomiaru, którego wynik<br />

nie przeczy hipotezie nie mo»na uwa»a¢ za dowód prawdziwo±ci hipotezy !!!<br />

Moca testu nazywamy prawdopodobie«stwo odrzucenia faªszywej H 0 ”, tzn. prawdopodobie«stwo<br />

tego, »e nie popeªnimy bªedu II rodzaju. Moc testu oznacza sie zwykle<br />

przez 1 − β” gdzie β” oznacza prawdopodobie«stwo popeªnienia bªedu II rodzaju.<br />

Tablica 1: Wyniki podejmowania decyzji przy testowaniu hipotez<br />

H 0 prawdziwa H 1 prawdziwa<br />

Przyjecie H 0 Decyzja prawidªowa Bªad II rodzaju<br />

Przyjecie H 1 Bªad I rodzaju Decyzja prawidªowa


SMOP-2 B.Kamys: 2007/08 71<br />

11.2 Schemat postepowania przy testowaniu hipotez<br />

Idea testowania hipotez polega na odrzucaniu postawionej hipotezy (hipotezy zerowej<br />

H 0 ) je»eli otrzymane wyniki do±wiadczenia lub obserwacji sa wysoce nieprawdopodobne<br />

przy jej prawdziwo±ci.<br />

1. Pojawienie sie wyników niesprzecznych z H 0 nie udowadnia tej hipotezy a jedynie<br />

pozwala na stwierdzenie, »e nie ma podstaw do jej odrzucenia.<br />

2. Jak wiadomo, maªe prawdopodobie«stwo pojawienia sie pewnych wyników nie oznacza,<br />

»e wyniki te sa niemo»liwe. Mo»e wiec sie zdarzy¢, »e przy prawdziwo±ci H 0<br />

pojawi sie tak bardzo nieprawdopodobny wynik i» uznamy go za argument dla odrzucenia<br />

H 0 . Wtedy odrzucajac H 0 popeªnimy bªad pierwszego rodzaju.<br />

3. Ustalajac, jakie warto±ci wyników uznamy za upowa»niajace do odrzucenia H 0<br />

kierujemy sie kosztami skutków odrzucenia prawdziwej H 0 i na tej podstawie ustalamy<br />

prawdopodobie«stwo odrzucenia prawdziwej H 0 czyli poziom istotno±ci. Typowe<br />

warto±ci to α = 0, 1 − 0, 001.<br />

4. Odrzucajac H 0 automatycznie akceptujemy hipoteze alternatywna H 1 , która w<br />

braku wcze±niejszych informacji o badanym zagadnieniu powinna by¢ zaprzeczeniem<br />

H 0 : H 1 : nieprawda »e H 0 .<br />

Omówimy poni»ej schemat postepowania przy testowaniu hipotezy, wykorzystujac<br />

jako przykªad prosta hipoteze zerowa, która gªosi, »e:<br />

H 0 : Zmienna losowa x posiadajaca rozkªad normalny o znanym odchyleniu<br />

standardowym σ(x)=2 ma warto±¢ oczekiwana E(x) = 3.0<br />

• Ustalamy H 0 .<br />

Zrobili±my to powy»ej. Wa»ne jest u±wiadomienie sobie faktu, »e caªe dalsze rozumowanie<br />

przeprowadzane jest przy zaªo»eniu, »e H 0 jest prawdziwa.<br />

• Tworzymy statystyke testowa T n .<br />

Czynimy to w taki sposób aby zale»aªa ona od wielko±ci testowanej przez H 0 oraz<br />

znany byª rozkªad tej statystyki przy prawdziwo±ci H 0 .<br />

Tu H 0 dotyczy warto±ci oczekiwanej E(x) a wiec nasuwa sie aby jako statystyke<br />

testowa wzia¢ estymator warto±ci oczekiwanej czyli ±rednia arytmetyczna pomiarów<br />

x. Co wiecej, przy prawdziwo±ci H 0 znamy rozkªad tej statystyki - jest to<br />

rozkªad normalny o warto±ci oczekiwanej E(x) = 3.0 i odchyleniu standardowym<br />

σ(x) = σ(x)/ √ n = 2/ √ n, gdzie n oznacza liczbe pomiarów w próbie, np.<br />

n = 10. Mo»emy wiec wzia¢ ±rednia arytmetyczna pomiarów jako statystyke<br />

testowa przy czym wygodnie jest ja standaryzowa¢; x → (x − E(x))/σ(x) bo<br />

rozkªad standaryzowanej zmiennej, tzn. N(0, 1), jest stablicowany:<br />

T n ≡ (x − 3.0) √ 10<br />

2


SMOP-2 B.Kamys: 2007/08 72<br />

• Ustalamy H 1 .<br />

Je»eli przed ustaleniem H 1 nie mamy »adnych informacji do±wiadczalnych (obserwacyjnych)<br />

to jako H 1 przyjmujemy proste zaprzeczenie H 0 , tzn. H 1 brzmi nieprawda,<br />

»e H 0 czyli w naszym przykªadzie H 1 : E(X) ≠ 3.0. W przypadku,<br />

gdy mamy ju» pewne informacje, np. znamy warto±¢ ±redniej arytmetycznej, to w<br />

hipotezie alternatywnej wykorzystujemy te wiedze. Przypu±¢my, »e w rozwa»anym<br />

przykªadzie ±rednia arytmetyczna z n = 10 pomiarów wynosi 4, 1. W takiej sytuacji<br />

nie miaªoby sensu gªoszenie hipotezy, »e warto±¢ oczekiwana E(x) jest mniejsza<br />

od 3. Nale»aªoby wtedy przyja¢ jako H 1 hipoteze, »e E(X) > 3.<br />

• Ustalamy poziom istotno±ci α. Jak wspomniano powy»ej α dobieramy biorac pod<br />

uwage skutki odrzucenia prawdziwej hipotezy zerowej. Je»eli nie sa one gro¹ne lub<br />

kosztowne to mo»emy zgodzi¢ sie na du»e prawdopodobie«stwo odrzucenia prawdziwej<br />

H 0 np. 0, 1 lub 0, 05. W przeciwnym wypadku przyjmujemy mniejsza warto±¢<br />

poziomu istotno±ci α.<br />

• Okre±lamy obszar krytyczny testu.<br />

Obszar krytyczny testu to ten zbiór warto±ci statystyki testowej który jest najmniej<br />

prawdopodobny przy prawdziwo±ci H 0 a równocze±nie najbardziej prawdopodobny<br />

przy prawdziwo±ci H 1 . W rozwa»anym przykªadzie najmniej prawdopodobne przy<br />

prawdziwo±ci H 0 sa du»e dodatnie i du»e (co do moduªu) ujemne warto±ci T n . Hipoteza<br />

alternatywna H 1 : H 0 jest nieprawdziwa faworyzuje dokªadnie te same<br />

warto±ci statystyki, które odrzuca H 0 a wiec obszarem krytycznym beda warto±ci:<br />

T n < z α/2 oraz T n > z 1−α/2 , gdzie z q oznacza kwantyl rozkªadu N(0, 1) na poziomie<br />

q. Tu zaªo»one zostaªo, »e odchylenia w dóª i w góre od warto±ci postulowanej<br />

przez H 0 sa równie prawdopodobne. Z kolei hipoteza alternatywna H 1 : E(x) > 3<br />

faworyzuje tylko du»e dodatnie warto±ci T n . Wida¢ to ªatwo ze wzoru denicyjnego<br />

na T n . Jedyna wielko±cia zale»na od do±wiadczenia w denicji T n jest ±rednia arytmetyczna<br />

pomiarów, która dla E(x) > 3 bedzie w przewa»ajacej liczbie pomiarów<br />

tak»e wieksza od 3 co jest równowa»ne temu,»e T n jest wieksze od zera. A wiec<br />

obszarem krytycznym jest zbiór warto±ci statystyki testowej speªniajacy nierówno±¢:<br />

T n > z 1−α .<br />

• Sprawdzamy, czy warto±¢ statystyki testowej nale»y do obszaru krytycznego.<br />

Je»eli warto±¢ statystyki testowej traa do obszaru krytycznego to odrzucamy H 0<br />

(akceptuj¡c równocze±nie H 1 ). W przeciwnym wypadku stwierdzamy, »e nie mamy<br />

podstaw do odrzucenia H 0 . Wnioski te formuªujemy w nast¦puj¡cy sposób:<br />

W pierwszym przypadku: Na poziomie istotno±ci α odrzucamy hipotez¦<br />

zerow¡ H 0 wzgl¦dem hipotezy alternatywnej H 1 .<br />

W drugim wypadku: Na poziomie istotno±ci α nie mamy podstaw do<br />

odrzucenia hipotezy zerowej H 0 wzgl¦dem hipotezy alternatywnej H 1 .


SMOP-2 B.Kamys: 2007/08 73<br />

11.3 HIPOTEZY DOTYCZA CE WARTO‘CI OCZEKIWANEJ<br />

Zajmujemy sie zmiennymi o rozkªadzie normalnym. Sa dwie podstawowe hipotezy, które<br />

bada sie najcze±ciej:<br />

• Porównanie E(X) z liczba:<br />

H 0 : E(X) = x 0 , oraz<br />

• Porównanie warto±ci oczekiwanych dwu populacji:<br />

H 0 : E(X) = E(Y )<br />

Ka»da z tych hipotez mo»e oczywi±cie by¢ formuªowana jako nierówno±¢, np. H 0 :<br />

E(X) > X 0 ale wtedy hipoteza zerowa jest zªo»ona a wiec nie mamy jednoznacznie<br />

zdeniowanego rozkªadu X. Z tego powodu wygodniej jest zawsze bra¢ jako hipoteze<br />

zerowa równo±¢ E(X) z dana liczba lub E(Y) a interesujaca nas hipoteze traktowa¢ jako<br />

hipoteze alternatywna.<br />

11.3.1 PORÓWNANIE E(X) Z LICZBA (H 0 : E(X)=X 0 )<br />

Musimy rozró»ni¢ dwa przypadki:<br />

• gdy znamy σ(X), wtedy jako statystyke testowa T n (X) bierzemy poni»sza statystyke<br />

z o rozkªadzie standardowym normalnym N(0,1):<br />

z =<br />

(x − E(X))<br />

σ(X)<br />

• gdy nie znamy σ(X), to jako statystyke T n (X) bierzemy analogiczna funkcje "t",<br />

w której σ zastapiona jest estymatorem S(X):<br />

t =<br />

(x − E(X))<br />

.<br />

S(X)<br />

Statystyka t ma rozkªad Studenta o (n-1) stopniach swobody.<br />

Oczywi±cie odchylenie standardowe ±redniej arytmetycznej σ(X) podobnie jak jego<br />

estymator S(X) równe sa odpowiednim warto±ciom dla samej zmiennej X podzielonym<br />

przez √ n:<br />

σ(X) = σ(X) √ n


SMOP-2 B.Kamys: 2007/08 74<br />

Tablica 2:<br />

Obszar krytyczny dla hipotez dotyczacych E(X)<br />

Hipoteza H 1 Obszar krytyczny Obszar krytyczny<br />

gdy znamy σ(X) gdy nie znamy σ(X)<br />

E(X) ≠ X 0<br />

| z | > z 1−<br />

α<br />

2<br />

| t | > t 1−<br />

α<br />

2<br />

E(X) > X 0 z > z 1−α t > t 1−α<br />

E(X) < X 0 z < z α t < t α<br />

Sposób okre±lenia obszaru krytycznego dla poszczególnych hipotez alternatywnych podany<br />

jest w tabeli (2).<br />

z α oraz t α to odpowiednio fraktyle standardowego rozkªadu normalnego N(0,1) i rozkªadu<br />

Studenta o (n-1) stopniach swobody. Oba te rozkªady sa symetryczne wzgledem zera a<br />

wiec mo»na wykorzysta¢ nastepujaca symetrie kwantyli:<br />

z α = −z 1−α<br />

t α = −t 1−α<br />

UWAGA:<br />

1. Rozwa»ania tego rozdziaªu odnosz¡ si¦ do zmiennych o rozkªadzie normalnym ale<br />

warto zauwa»y¢, »e przy du»ych próbach mog¡ by¢ stosowane tak»e do innych rozkªadów.<br />

Przyczyn¡ tego jest fakt, »e statystyki testowe s¡ funkcjami ±rednich arytmetycznych<br />

z próby. Dzi¦ki centralnemu twierdzeniu granicznemu ±rednia<br />

arytmetyczna ma rozkªad zbie»ny do rozkªadu normalnego nawet dla oryginalnego<br />

rozkªadu rz¡dz¡cego prób¡ silnie ró»ni¡cego si¦ od rozkªadu<br />

normalnego. Na przykªad wida¢ to bardzo dobrze dla zmiennych o rozkªadzie<br />

wykªadniczym, który jest ewidentnie niesymetryczny, prawosko±ny.<br />

2. Testy rozwa»ane w tym i nast¦pnym rozdziale bior¡ pod uwag¦ jedynie poziom<br />

istotno±ci a wi¦c tylko mo»liwo±¢ popeªnienia bª¦du pierwszego rodzaju (odrzucenia<br />

prawdziwej H 0 ). Nie rozwa»aj¡ w ogóle mocy testu, tj. prawdopodobie«stwa<br />

odrzucenia faªszywej H 0 . Takie testy nazywane s¡ testami istotno±ci.


SMOP-2 B.Kamys: 2007/08 75<br />

11.3.2 WARTO‘CI OCZEKIWANE DWU POPULACJI (H 0 : E(X) = E(Y ))<br />

Tutaj trzeba odró»ni¢ trzy sytuacje:<br />

1.) σ(X) i σ(Y ) znane,<br />

2.) σ(X) i σ(Y ) nieznane ale σ(X) = σ(Y ),<br />

3.) σ(X) i σ(Y ) nieznane oraz σ(X) ≠ σ(Y ),<br />

ad 1.) Jako statystyke testowa bierze sie zmienna z:<br />

z =<br />

X − Y<br />

√<br />

σ 2 (X)<br />

n x<br />

+ σ2 (Y )<br />

n y<br />

Zmienna ta ma rozkªad standardowy normalny N(0,1).<br />

ad 2.) Po stwierdzeniu (przy pomocy testu Fishera-Snedecora), »e wariancje zmiennej<br />

X i zmiennej Y mo»na uzna¢ za równe, stosujemy test Studenta ze zmienna t<br />

zdeniowana nastepujaco:<br />

t =<br />

S(X, Y ) =<br />

X − Y<br />

√<br />

n x+n y<br />

n x·n y<br />

S(X, Y ) ·<br />

√ (n x − 1) ∗ S 2 (X) + (n y − 1) ∗ S 2 (Y )<br />

n x + n y − 2<br />

Zmienna t ma rozkªad Studenta o (n x + n y − 2) stopniach swobody.<br />

ad 3.) Je»eli test F pokazaª, »e wariancje zmiennych X i Y sa istotnie ró»ne to jako<br />

statystyke testowa u»ywa sie zmodykowanej zmiennej t:


SMOP-2 B.Kamys: 2007/08 76<br />

t =<br />

X − Y<br />

√<br />

S 2 (X)<br />

n x<br />

+ S2 (Y )<br />

n y<br />

Zmienna t ma rozkªad, który mo»na przybli»y¢ rozkªadem Studenta o efektywnej<br />

liczbie stopni swobody n ef :<br />

n ef =<br />

( S2 (X)<br />

n x<br />

+ S2 (Y )<br />

n y<br />

) 2<br />

(S 2 (X)/n x) 2<br />

n x+1<br />

+ (S2 (Y )/n y) 2<br />

n y+1<br />

− 2<br />

Poniewa» efektywna liczba stopni swobody n ef zwykle nie jest liczba caªkowita to<br />

szukajac w tablicach musimy zaokragla¢ ja do liczby caªkowitej (bezpieczniej zaokragla¢<br />

w dóª - wtedy efektywnie zwiekszamy nieco poziom istotno±ci).<br />

W tabeli przytoczonej poni»ej zdeniowane sa obszary krytyczne dla tych trzech przypadków<br />

przy zastosowaniu dwu ró»nych hipotez alternatywnych H 1 .<br />

Hipoteza H 1 Obszar krytyczny Obszar krytyczny Obszar krytyczny<br />

σ(X) i σ(Y ) σ(X) = σ(Y ) σ(X) ≠ σ(Y )<br />

znane nieznane nieznane<br />

E(X) ≠ E(Y )<br />

| z | > z 1−<br />

α<br />

2<br />

| t | > t nx+n y−2(1 − α 2 ) | t | > t n ef<br />

(1 − α 2 )<br />

E(X) > E(Y ) z > z 1−α t > t nx+n y−2(1 − α) t > t nef (1 − α)<br />

Oczywi±cie statystyki testowe z i t to statystyki zdeniowane powy»ej a fraktyle nale»y<br />

bra¢ odpowiednio dla rozkªadu standardowego normalnego N(0,1) oraz rozkªadów<br />

Studenta o odpowiedniej liczbie stopni swobody.


SMOP-2 B.Kamys: 2007/08 77<br />

11.4 HIPOTEZY DOTYCZA CE WARIANCJI<br />

Najwa»niejsze to hipotezy porównujace wariancje zmiennej X z liczba oraz hipoteza porównujaca<br />

wariancje dwu populacji. Zakªadamy, podobnie jak w przypadku hipotez odnoszacych<br />

sie do warto±ci oczekiwanych, »e zmienne losowe pochodza z populacji normalnych.<br />

11.4.1 PORÓWNANIE WARIANCJI X Z LICZBA (H 0 : σ 2 (X) = σ 2 0 )<br />

Dla testowania takiej hipotezy u»ywa sie statystyki testowej Q 2 zdeniowanej nastepujaco:<br />

Q 2 = (n − 1) · S2 (X)<br />

σ 2 0<br />

Przy prawdziwo±ci H 0 ta statystyka ma rozkªad χ 2 n−1<br />

, gdzie n to liczba pomiarów w<br />

próbie a S 2 (X) to estymator wariancji.<br />

Obszary krytyczne dla ró»nych hipotez alternatywnych sa wymienione w tabeli poni»ej:<br />

Hipoteza H 1<br />

Obszar krytyczny<br />

σ 2 (X) ≠ σ 2 0<br />

Q 2 < χ 2 α<br />

2<br />

lub Q 2 > χ 2 1− α 2<br />

σ 2 (X) > σ 2 0<br />

Q 2 > χ 2 1−α<br />

σ 2 (X) < σ 2 0<br />

Q 2 < χ 2 α<br />

11.4.2 PORÓWNANIE WARIANCJI DWU POPULACJI<br />

Hipoteza zerowa H 0 : σ 2 (X) = σ 2 (Y )<br />

Dla testowania tej hipotezy u»ywa sie testu F Fishera-Snedecora. Zarówno zmienna<br />

jak i rozkªad prawdopodobie«stwa oznacza sie litera F z dwoma wska¹nikami n 1 , n 2 :<br />

F(n 1 , n 2 ). Zmienna F(n 1 , n 2 ) to stosunek dwu zmiennych o rozkªadach chikwadrat<br />

podzielonych przez ich liczby stopni swobody , przy czym zmienna w liczniku<br />

ma n 1 a zmienna w mianowniku n 2 stopni swobody:


SMOP-2 B.Kamys: 2007/08 78<br />

F (n 1 , n 2 ) ≡ ( χ2 n 1<br />

n 1<br />

)<br />

( χ2 n 2<br />

n 2<br />

)<br />

Zmienna ta przyjmuje, jako stosunek dwu nieujemnych liczb, tylko warto±ci nieujemne<br />

a ksztaªt jej rozkªadu jest podobny do ksztaªtu rozkªadu χ 2 .<br />

Jako statystyke testowa F bierze sie iloraz estymatora S 2 (X) i estymatora S 2 (Y):<br />

F ≡ S2 (X)<br />

S 2 (Y )<br />

Šatwo pokaza¢, »e statystyka F ma rozkªad F(n x − 1, n y − 1):<br />

Wiemy z rozwa»a« dotyczacych porównania wariancji z liczba, »e zmienna Q 2 obliczona<br />

dla próby skªadajacej sie z n elementów ma rozkªad χ 2 . n−1<br />

Po podzieleniu jej przez<br />

liczbe stopni swobody (n − 1) otrzymujemy iloraz S2<br />

. Je»eli prawdziwa jest hipoteza zerowa<br />

gªoszaca, »e wariancje licznika i mianownika sa równe, 2 to stosunek statystyk S 2 (X)<br />

σ<br />

(licznika) i S 2 Q<br />

(Y ) (mianownika) jest równy stosunkowi<br />

2 (X)<br />

i Q2 (Y )<br />

n x−1 n y−1<br />

czyli równy jest<br />

zmiennej F (n x − 1, n y − 1).<br />

Jako hipoteze alternatywna kªadzie sie brak równo±ci obu wariancji lub to, »e wariancja<br />

licznika jest wieksza od wariancji mianownika:<br />

Hipoteza H 1<br />

σ 2 (X) ≠ σ 2 (Y )<br />

Obszar krytyczny<br />

F < F α<br />

2 (n x − 1, n y − 1) lub F > F 1−<br />

α<br />

2 (n x − 1, n y − 1)<br />

σ 2 (X) > σ 2 (Y ) F > F 1−α (n x − 1, n y − 1)<br />

Je»eli w tablicach podane sa tylko kwantyle rozkªadu F na du»ym poziomie lub tylko<br />

na maªym poziomie, to korzysta sie z oczywistej równo±ci:<br />

F α/2 (n 1 , n 2 ) = 1/F 1−α/2 (n 2 , n 1 )


SMOP-2 B.Kamys: 2007/08 79<br />

11.5 TEST NORMALNO‘CI ROZKŠADU<br />

Wiekszo±¢ metod statystyki jest dobrze opracowana matematycznie dla zmiennych o rozkªadzie<br />

normalnym natomiast nie jest oczywiste, »e dadza sie zastosowa¢ bez modykacji<br />

dla zmiennych o innych rozkªadach. Z tej przyczyny przed rozpoczeciem bardziej zaawansowanych<br />

rozwa»a« statystycznych nale»y sie upewni¢, »e badana zmienna podlega<br />

rozkªadowi normalnemu. Sprawdzana hipoteza zerowa polega na stwierdzeniu, »e rozkªad<br />

badanej zmiennej jest rozkªadem normalnym. W zale»no±ci od testu zakªada sie znajomo±¢<br />

parametrów rozkªadu jak np. w te±cie lambda Koªmogorowa lub te» nie jest to<br />

niezbedne jak np. w badaniu wykresu normalnego.<br />

11.5.1 TEST ZEROWANIA SI† WSPÓŠCZYNNIKA ASYMETRII I KUR-<br />

TOZY<br />

Test ten polega na sprawdzeniu, czy speªnione sa warunki konieczne do tego aby rozkªad<br />

badanej zmiennej mógª by¢ rozkªadem normalnym. Wiadomo, »e dla rozkªadu normalnego<br />

wspóªczynnik asymetrii i kurtoza (wspóªczynnik przewy»szenia) znikaja niezale»nie od<br />

tego jaka jest warto±¢ oczekiwana i wariancja rozkªadu. A wiec<br />

• Hipoteza zerowa, H 0 :<br />

(γ 1 = 0) ∧ (γ 2 = 0)<br />

• Statystyka testowa:<br />

Q 1 =<br />

Q 2 =<br />

√ n · g1<br />

√<br />

6<br />

√ n · g2<br />

√<br />

24<br />

gdzie g 1 i g 2 to estymatory wspóªczynnika asymetrii γ 1 i kurtozy γ 2 :<br />

γ 1 ≡ E ((x − E(x))3 )<br />

σ 3 (x)<br />

opisane poni»szymi wzorami:<br />

γ 2 ≡ E ((x − E(x))4 )<br />

σ 4 (x)<br />

− 3<br />

g 1 = M 3<br />

√<br />

M<br />

3<br />

2<br />

, g 2 = M 4<br />

M 2 2<br />

− 3


SMOP-2 B.Kamys: 2007/08 80<br />

UWAGA:<br />

Wielko±ci M 2 , M 3 i M 4 to nie sa momenty liczone wzgledem poczatku ukªadu<br />

lecz estymatory momentów centralnych odpowiednio drugiego, trzeciego i czwartego<br />

rzedu:<br />

M 2 ≡ 1 n<br />

M 3 ≡ 1 n<br />

M 4 ≡ 1 n<br />

n∑<br />

i=1<br />

n∑<br />

i=1<br />

n∑<br />

i=1<br />

(x i − ¯x) 2<br />

(x i − ¯x) 3<br />

(x i − ¯x) 4<br />

Je»eli hipoteza zerowa jest prawdziwa oraz próba jest bardzo du»a to statystyki<br />

g 1 i g 2 maja rozkªady normalne o warto±ciach oczekiwanych<br />

i odchyleniach standardowych:<br />

E(g 1 ) ≈ 0 E(g 2 ) ≈ 0<br />

σ(g 1 ) ≈<br />

√<br />

6<br />

n<br />

σ(g 2 ) ≈<br />

√<br />

24<br />

Wtedy estymatory Q 1 i Q 2 maja standardowe rozkªady normalne N(0,1).<br />

n<br />

• Hipoteza alternatywna to zaprzeczenie H 0 :<br />

prawdziwe warto±ci γ 1 lub γ 2 nie sa równe 0.<br />

• Obszar krytyczny dwustronny. Brzegi okre±lone przez kwantyl rozkªadu N(0,1):<br />

| Q 1 |> z 1−<br />

α<br />

2<br />

⋃<br />

| Q2 |> z 1−<br />

α<br />

2<br />

Je»eli rozmiary próby nie sa bardzo du»e to rozkªad statystyk Q 1 i Q 2 nie przyjmuje<br />

swej asymptotycznej postaci; N(0,1) ale warto±ci oczekiwane i wariancje tych zmiennych<br />

sa bliskie odpowiednio zeru i jedno±ci. Mo»na to wykorzysta¢ do stworzenia obszaru<br />

krytycznego w oparciu o nierówno±¢ Czebyszewa . Jako obszar krytyczny przyjmuje sie<br />

⋃<br />

warto±ci ( | Q 1 |> 3 | Q2 |> 3 ) tj. poziom istotno±ci równy α = 1/9.<br />

Nale»y zwróci¢ uwage na fakt, »e powy»szy test pozwala zwykle w uzasadniony sposób<br />

odrzuci¢ hipoteze zerowa (gdy Q 1 lub Q 2 traa do obszaru krytycznego) natomiast fakt,<br />

»e warto±ci tych statystyk nie sa sprzeczne z hipoteza zerowa nie wyklucza mo»liwo±ci, »e<br />

mamy do czynienia z rozkªadem ró»nym od normalnego.


SMOP-2 B.Kamys: 2007/08 81<br />

11.5.2 TEST ZGODNO‘CI λ - KOŠMOGOROWA<br />

Ten test stosowany jest do porównania rozkªadu prawdopodobie«stwa z próby ze znanym<br />

(teoretycznym) rozkªadem. Tu wykorzystujemy go do testowania normalno±ci rozkªadu<br />

ale mo»na go stosowa¢ do dowolnych teoretycznych rozkªadów ciagªej zmiennej<br />

losowej. Parametry rozkªadu powinny by¢ okre±lone w hipotezie zerowej.<br />

Pomiary z próby x 1 , x 2 , x 3 , ...x n porzadkujemy wg wzrastajacej warto±ci otrzymujac<br />

nastepujacy ciag:<br />

x ∗ 1 ≤ x∗ 2 ≤ x∗ 3 ≤ ... x∗ n<br />

Zmienna losowa X ∗ , taka, »e jej realizacja m x∗ m<br />

zajmuje w ciagu m − te miejsce nazywamy<br />

statystyka pozycyjna rzedu m w próbie n-elementowej.<br />

Tworzymy empiryczna dystrybuante F n (x) obserwowanej w próbie zmiennej losowej X:<br />

⎧<br />

⎪⎨<br />

F n (x) =<br />

⎪⎩<br />

0 gdy x ≤ x ∗ 1<br />

m<br />

n<br />

gdy x ∗ m < x ≤ x∗ m+1 , 1 ≤ m ≤ n − 1<br />

1 gdy x > x ∗ n<br />

Empiryczna dystrybuanta jest zwykªa funkcja argumentu x ale jest równocze±nie statystyka<br />

bo jest deniowana przez wszystkie wielko±ci x ∗ 1 , ..., x∗ n z próby.<br />

Mo»na pokaza¢, »e warto±¢ oczekiwana empirycznej dystrybuanty jest równa oszacowywanej<br />

wielko±ci teoretycznej dystrybuanty<br />

E(F n (x)) = F (x)<br />

a jej wariancja da»y do zera gdy rozmiary próby da»a do niesko«czono±ci<br />

σ 2 (F n (x)) = 1 n<br />

· F (x) · (1 − F (x)) → 0.<br />

Stad F n (x) jest nieobcia»onym i zgodnym estymatorem F(x).<br />

• Hipoteza zerowa<br />

Dystrybuanta obserwowanej zmiennej losowej jest dystrybuanta rozkªadu normal-


SMOP-2 B.Kamys: 2007/08 82<br />

nego o parametrach E(x) = x 0 , σ(x) = σ:<br />

E(F n(x)) =<br />

∫ x<br />

−∞<br />

dx ·<br />

1<br />

√<br />

2πσ · exp(− (x − x 0) 2<br />

2σ 2 )<br />

• Statystyka testowa:<br />

w oryginalnej wersji - zaproponowanej przez Koªmogorowa:<br />

D n = sup<br />

x<br />

| F n (x) − F (x) |<br />

Smirnow zaproponowaª dwie inne denicje statystyki testowej (stad czesto u»ywana<br />

nazwa test Koªmogorowa-Smirnowa ):<br />

D + n<br />

D − n<br />

= sup (F n (x) − F (x))<br />

x<br />

= − inf x (F n(x) − F (x))<br />

Dla praktycznych rachunków wykorzystuje sie nieco inne wzory, które wymagaja<br />

znajomo±ci teoretycznej dystrybuanty tylko dla zmierzonych warto±ci zmiennej<br />

X:<br />

D + n<br />

= max<br />

1≤m≤n ( m n − F (x∗ m ) )<br />

D − n<br />

= max 1≤m≤n (x∗ m ) − m − 1<br />

n<br />

D n = max( D + n , D− n )<br />

)<br />

a dystrybuante F (x ∗ m<br />

) zastepuje sie dystrybuanta G(z) stablicowanego standardowego<br />

rozkªadu normalnego N(0,1): F (x ∗ m )=G(z ≡ (x∗ m − E(x))/σ(x)).<br />

• Obszar krytyczny: prawostronny (du»e warto±ci D n , tzn. D n > D n (1 − α))<br />

Granice obszaru krytycznego, tj. kwantyl D n (1 − α) mo»na dla n ≥ 10 oraz<br />

dla poziomu istotno±ci α ≥ 0, 01 wyliczy¢ z przybli»onego wzoru (dokªadno±¢ nie<br />

gorsza ni» 3 cyfry znaczace)<br />

D n (1 − α) ≈<br />

√<br />

1<br />

2n · (y − 2y2 − 4y − 1<br />

) − 1<br />

18n 6n<br />

y ≡ − ln(0, 5 · α)


SMOP-2 B.Kamys: 2007/08 83<br />

Po wyliczeniu z próby warto±ci statystyki D n porównujemy ja z kwantylem D n (1 − α)<br />

znalezionym z tablic lub wyliczonym z podanego wzoru (W praktyce mo»emy wylicza¢ ten<br />

kwantyl wg wzoru poniewa» zarówno typowe poziomy istotno±ci α ≥ 0, 01 jak i liczebno±¢<br />

próby n ≥ 10 odpowiadaja warunkom stosowania tego wzoru.)<br />

Gdy D n > D n (1 − α) odrzucamy hipoteze zerowa, tzn. stwierdzamy, »e dane do±wiadczalne<br />

wykluczaja to aby rozkªad prawdopodobie«stwa populacji byª rozkªadem normalnym<br />

z parametrami E(x) = x 0 i σ(x) = σ, przy czym nasz wniosek mo»e by¢ bªedny<br />

z prawdopodobie«stwem α.<br />

UWAGA:<br />

1. Statystyka D n powinna by¢ liczona ze szczegóªowego szeregu statystycznego ( tj. z<br />

indywidualnych pomiarów ) a nie mo»e by¢ liczona z szeregu rozdzielczego (danych<br />

pogrupowanych)!!<br />

2. Statystyka λ ≡ √ n · D n testu Koªmogorowa - Smirnowa ma dla n da»acego do<br />

niesko«czono±ci dystrybuant¦ niezale»n¡ od postaci porównywanych rozkªadów:<br />

∞∑<br />

K(λ) = (−1) k exp[−2k 2 λ 2 ]<br />

k=−∞<br />

Stad mo»na znale¹¢ kwantyle tego rozkªadu. Przytoczymy tylko trzy najcze±ciej<br />

stosowane: λ 0,95 = 1, 36, λ 0,99 = 1, 63 i λ 0,999 = 1, 95. Dla n > 150 mo»na<br />

u»ywa¢ tych asymptotycznych kwantyli.<br />

To jest wielka zaleta testu ale jest równie» pewna sªabo±cia bo przez to jest stosunkowo<br />

maªo czuªy na posta¢ ogonów rozkªadu.<br />

3. Dla poprawnego stosowania testu Koªmogorowa - Smirnowa niezbedna jest znajomo±¢<br />

warto±ci parametrów teoretycznego rozkªadu. Je»eli nie znamy tych parametrów<br />

- musimy je wcze±niej oszacowa¢, np. przy pomocy metody najwiekszej<br />

wiarygodno±ci. Istnieja programy, które dokonuja automatycznie takiego oszacowania<br />

(np. w pakiecie STATISTICA ta wersja testu nazywa sie<br />

testem Koªmogorowa -Smirnowa z poprawka Lillieforsa .<br />

11.5.3 TEST ZGODNO‘CI χ 2 - PEARSONA<br />

Podobnie jak test λ Koªmogorowa tak i ten test stosowany jest do porównania rozkªadu<br />

prawdopodobie«stwa z próby ze znanym (teoretycznym) rozkªadem. Tu wykorzystujemy


SMOP-2 B.Kamys: 2007/08 84<br />

go do testowania normalno±ci rozkªadu ale mo»na go stosowa¢ do dowolnych teoretycznych<br />

rozkªadów ciagªej lub dyskretnej zmiennej losowej ale<br />

pomiary musza by¢ pogrupowane (szereg rozdzielczy) - wprost przeciwnie ni» w przypadku<br />

testu Koªmogorowa.<br />

• Hipoteza zerowa<br />

Dystrybuanta obserwowanej zmiennej losowej jest dystrybuanta rozkªadu normalnego:<br />

∫ x 1<br />

E(F n(x)) = dx · √ · exp(− (x − x 0) 2<br />

)<br />

−∞ 2πσ 2σ 2<br />

• Statystyka testowa:<br />

k∑ (n<br />

X 2 i − n · π i ) 2<br />

=<br />

nπ i<br />

i=1<br />

gdzie<br />

k to liczba przedziaªów w szeregu rozdzielczym (przynajmniej kilka),<br />

n i to liczebno±¢ i − tego przedziaªu (n i ≥ 5),<br />

π i to prawdopodobie«stwo zaobserwowania pomiarów w przedziale i − tym<br />

je»eli prawdziwa jest hipoteza zerowa,<br />

n to liczba wszystkich pomiarów.<br />

Dowodzi sie, »e asymptotycznie (tzn. dla n → ∞) statystyka X 2 ma rozkªad<br />

χ 2 k−r−1<br />

, gdzie r jest liczba nieznanych parametrów teoretycznego rozkªadu (dla<br />

rozkªadu normalnego r = 2) oszacowywanych wstepnie z próby metoda najwiekszej<br />

wiarygodno±ci.<br />

• Obszar krytyczny to du»e warto±ci X 2 (X 2 > χ 2 k−r−1<br />

(1 − α)), gdzie w naszym<br />

przypadku testowania normalno±ci rozkªadu χ 2 k−r−1<br />

(1 − α) jest kwantylem rzedu<br />

1 − α rozkªadu χ 2 k−1<br />

(gdy znamy E(x) i σ(x) rozkªadu normalnego) lub rozkªadu<br />

(gdy musimy oszacowa¢ przed testowaniem normalno±ci E(x) i σ(x) ).<br />

χ 2 k−3<br />

Test χ 2 równie» nie wymaga skomplikowanych oblicze« i dlatego mo»e by¢ przeprowadzony<br />

bez u»ycia komputera ale kwantyle tego rozkªadu nie dadza sie policzy¢ tak prosto<br />

jak dla testu Koªmogorowa. Musimy korzysta¢ z tablic statystycznych.


SMOP-2 B.Kamys: 2007/08 85<br />

11.5.4 WYKRES NORMALNY<br />

Wykres ten jest szczególnym przypadkiem wykresu kwantyl - kwantyl, na którym przedstawia<br />

sie estymatory kwantyli dla rozkªadu zmiennej z próby w funkcji kwantyli teoretycznego<br />

rozkªadu. Jako kwantyle teoretycznego rozkªadu bierze sie kwantyle standardowego<br />

rozkªadu normalnego. Jako kwantyle do±wiadczalne bierzemy kolejne warto±ci pozycyjnej<br />

statystyki z próby. Je»eli hipoteza zerowa (normalno±¢ rozkªadu mierzonej wielko±ci<br />

X) jest prawdziwa to tak otrzymany wykres powinien by¢ linia prosta. Odstepstwa od<br />

prostoliniowo±ci sa argumentem za odrzuceniem hipotezy zerowej.<br />

• Hipoteza zerowa<br />

Dystrybuanta obserwowanej zmiennej losowej jest dystrybuanta rozkªadu normalnego,<br />

przy czym dla tego testu nie jest wymagana znajomo±¢ parametrów rozkªadu.<br />

• Statystyka testowa<br />

Jako statystyke testowa mo»na wzia¢ estymator wspólczynnika korelacji r pomiedzy<br />

do±wiadczalnymi i teoretycznymi kwantylami.<br />

Postepujemy nastepujaco:<br />

1. Porzadkujemy pomiary {x k } tak aby utworzyªy ciag rosnacy {x ∗ k<br />

} czyli statystyke<br />

pozycyjna. Statystyke pozycyjna rzedu k z n - elementowej próby<br />

traktujemy jako estymator kwantyla na poziomie k/(n + 1).<br />

2. Szukamy z k , tj. teoretycznego kwantyla standardowego rozkªadu normalnego<br />

na poziomie k/(n + 1) wykorzystujac relacje:<br />

F (z k ) =<br />

k<br />

( ) k<br />

n + 1 ⇒ z k = F −1 n + 1<br />

gdzie przez F −1 (x) nale»y rozumie¢ funkcje odwrotna do dystrybuanty F (y).<br />

3. Rysujemy pary {z k , x ∗ k<br />

}. Gdy wykres wyra¹nie ró»ni sie od linii prostej to<br />

odrzucamy H 0 , w przeciwnym wypadku liczymy estymator wspóªczynnika korelacji<br />

r(z k , x ∗ k<br />

) i przeprowadzamy bardziej ilo±ciowe rozwa»ania.<br />

• Obszar krytyczny to maªe warto±ci estymatora r wspóªczynnika korelacji ϱ(z k , x ∗ k ),<br />

tj. mniejsze od odpowiednich warto±ci krytycznych r n (α) zale»nych od poziomu<br />

istotno±ci α (test lewostronny). Warto±ci te mo»na znale¹¢ w tablicach lub zastosowa¢<br />

przybli»one wzory podane poni»ej:<br />

r n (α = 0.01) ≈ 1 − 0.5669<br />

n , r n(α = 0.05) ≈ 1 − 0.3867<br />

2/3 n 2/3


SMOP-2 B.Kamys: 2007/08 86<br />

Wzory te daja krytyczne warto±ci wspóªczynnika korelacji r n (α) dla dwu<br />

poziomów istotno±ci α z dokªadno±cia nie gorsza ni» 1% je»eli rozmiar próby n le»y<br />

w przedziale 5 < n < 1000. (Tablice krytycznych warto±ci estymatora r mo»na<br />

znale¹¢ w bardzo bogatym i napisanym w przystepny sposób dla u»ytkowników<br />

stosujacych statystyke w praktyce poradniku statystycznym dostepnym w sieci<br />

internetowej pod adresem: http://www.itl.nist.gov/div898/handbook/ ).<br />

UWAGA:<br />

Je»eli linia prosta jest dobrym przybli»eniem, to wspóªczynnik kierunkowy prostej<br />

{z k , x ∗ k<br />

} równy jest parametrowi skali (tj. odchyleniu standardowemu) a wspóªrzedna<br />

przeciecia prostej z osia x ∗ k<br />

równa jest wspóªczynnikowi tendencji centralnej (warto±ci<br />

oczekiwanej X). W ten sposób mo»na oszacowa¢ parametry rozkªadu normalnego, rzadzacego<br />

warto±ciami zmiennej z próby.


SMOP-2 B.Kamys: 2007/08 87<br />

11.6 TESTY NIEPARAMETRYCZNE<br />

HIPOTEZ PORÓWNUJA CYCH POPULACJE<br />

Do tej pory rozwa»ali±my testy sprawdzajace hipotezy gªoszace równo±¢ warto±ci oczekiwanych<br />

dwu zmiennych a tak»e równo±¢ wariancji dwu zmiennych. Testy te dotyczyªy<br />

jedynie zmiennych o rozkªadach normalnych. Teraz omówimy testy odnoszace sie do hipotez<br />

gªoszacych identyczno±¢ dystrybuant dwu populacji; H 0 : F (X) = G(X)<br />

niezale»nie od postaci rozkªadu . Dystrybuanty oznaczono ró»nymi literami aby podkre±li¢,<br />

»e odnosza sie do dwu ró»nych populacji ale badamy te sama zmienna losowa<br />

X dla obu populacji biorac próbe liczebno±ci n 1 z pierwszej populacji i liczebno±ci n 2 z<br />

drugiej populacji.<br />

11.6.1 TEST SMIRNOWA<br />

• Hipoteza zerowa H 0 : F (X) ≡ G(X) gdzie zmienna X jest zmienna ciagªa.<br />

F (X) i G(X) sa odpowiednio dystrybuantami zmiennej X dla pierwszej i drugiej<br />

populacji.<br />

Inne sformuªowanie to H 0 : E(F n1 (X)) = E(G n2 (X)), gdzie F n1 (X) i G n2 (X)<br />

to empiryczne dystrybuanty otrzymane na podstawie dwu prób o liczebno±ci n 1<br />

i n 2 wzietych odpowiednio z pierwszej i drugiej populacji (zdeniowane tak jak dla<br />

rozkªadu Koªmogorowa).<br />

• Hipoteza alternatywna H 1 : zaprzeczenie H 0<br />

• Statystyka testowa D n1 ,n 2<br />

:<br />

D n1 ,n 2<br />

= sup<br />

x<br />

| F n1 (x) − G n2 (x) |<br />

Nale»y zauwa»y¢, »e obie dystrybuanty sa od tej samej warto±ci argumentu.<br />

Poniewa» speªniona jest relacja:<br />

D n1 ,n 2<br />

= D n2 ,n 1<br />

wiec bez ograniczenia ogólno±ci wniosków mo»na rozwa»a¢ tylko<br />

D n1 ,n 2


SMOP-2 B.Kamys: 2007/08 88<br />

zakªadajac, »e<br />

n 1 ≤ n 2 .<br />

W praktycznych rachunkach u»ywa sie nastepujacych wzorów na D n1 ,n 2<br />

, gdzie<br />

obliczenia wykonuje sie tylko dla warto±ci argumentów zaobserwowanych w obu<br />

próbach i dla rozró»nienia prób stosuje sie symbole x ∗ 1 ...x∗ n 1<br />

i y ∗ 1 ....y∗ n 2<br />

na statystyki<br />

pozycyjne odpowiednio z pierwszej i drugiej próby:<br />

D + n 1 ,n 2<br />

D − n 1 ,n 2<br />

(<br />

= max i<br />

1≤i≤n n 1<br />

− G n2 (x ∗ i ))<br />

1<br />

(<br />

= max Gn2 (x ∗<br />

1≤i≤n<br />

i ) − )<br />

i−1<br />

n 1 1<br />

D n1 ,n 2<br />

= max ( D + n 1 ,n 2<br />

, D − n 1 ,n 2<br />

)<br />

lub te»<br />

(<br />

D + n 1 ,n 2<br />

= max Fn1 (y ∗<br />

1≤j≤n<br />

j ) − )<br />

j−1<br />

n 2 2<br />

(<br />

D − n 1 ,n 2<br />

= max j<br />

1≤j≤n n 2<br />

− F n1 (y ∗ j ))<br />

2<br />

D n1 ,n 2<br />

= max ( D + n 1 ,n 2<br />

, D − n 1 ,n 2<br />

)<br />

TWIERDZENIE (Smirnow):<br />

Gdy H 0 jest prawdziwa oraz liczby pomiarów n 1 i n 2 da»a do niesko«czono±ci to<br />

rozkªad zmiennej<br />

√<br />

n1 · n 2<br />

D n1 ,n 2<br />

·<br />

n 1 + n 2<br />

d¡»y do rozkªadu λ (Koªmogorowa).<br />

♦<br />

Je»eli obie próby sa odpowiednio du»e (n i > 150) to mo»na ju» z rozsadnym<br />

przybli»eniem stosowa¢ asymptotyczne wzory, tj.<br />

√<br />

n1 + n 2<br />

D n1 ,n 2<br />

(1 − α) ≈<br />

· y 1−α<br />

n 1 · n 2


SMOP-2 B.Kamys: 2007/08 89<br />

gdzie y 1−α jest kwantylem rozkªadu lambda Koªmogorowa, którego dystrybuanta<br />

i kwantyle na poziomie 0.95, 0.99 i 0.999 przytoczone s¡ w uwagach ko«cz¡cych<br />

rozdziaª dotycz¡cy testowania normalno±ci rozkªadu testem Koªmogorowa.<br />

Gdy n 1 i n 2 sa maªe, trzeba stosowa¢ dokªadny rozkªad statystyki D n1 ,n 2<br />

znaleziony<br />

przez Masseya (F.J.Massey, AMS 23 (1952) 435-441).<br />

• Obszar krytyczny: prawostronny (du»e warto±ci statystyki testowej)


SMOP-2 B.Kamys: 2007/08 90<br />

11.6.2 TEST ZNAKÓW<br />

Test znaków sªu»y do sprawdzenia hipotezy zerowej gªoszacej, »e dystrybuanty dwu<br />

ciagªych zmiennych losowych X i Y sa identyczne:<br />

• Hipoteza zerowa H 0 : G(X) = F (Y ).<br />

Przy prawdziwo±ci H 0 prawdopodobie«stwo P (X > Y ) tego, »e zajdzie zdarzenie<br />

losowe X > Y , jest równe prawdopodobie«stwu P (X < Y ) tego, »e X < Y .<br />

Ze wzgledu na zaªo»enie ciagªo±ci zmiennych prawdopodobie«stwo równo±ci X i Y<br />

jest równe zero; P (X = Y ) = 0 a poniewa» te trzy zdarzenia sa rozªaczne i<br />

wyczerpuja wszystkie mo»liwo±ci wiec ostatecznie:<br />

P (X < Y ) = P (X > Y ) = 1/2<br />

• Hipoteza alternatywna H 1 : G(X) ≠ F (Y ).<br />

• Statystyka testowa to liczba k takich par, »e x i > y i w±ród n niezale»nych par<br />

(x i , y i ). Rozkªad prawdopodobie«stwa tej statystyki przy prawdziwo±ci H 0 to rozkªad<br />

Bernoulliego z parametrem p = 1/2 :<br />

P (k) = ( n k ) · 1<br />

2 k ·<br />

1<br />

2 = (n−k) (n k ) · 1<br />

2 n<br />

• Obszar krytyczny to bardzo maªa (k ≈ 0) i bardzo du»a (k ≈ n) liczba par (x i , y i ),<br />

takich »e x i > y i (obszar dwustronny). Je»eli mamy wskazówki, »e prawdopodobie«stwo<br />

pojawienia sie warto±ci X wiekszych od Y jest wieksze ni» 1/2 to nale»y<br />

przyja¢ prawostronny obszar krytyczny (k > k p ) a gdy prawdopodobie«stwo X<br />

wiekszych od Y jest mniejsze od 1/2 to lewostronny obszar krytyczny (k < k l ).<br />

Brzeg prawostronnego obszaru krytycznego k p szukamy z warunku:<br />

n∑<br />

P (k ≥ k p ) = 2 −n · ( n i ) = α<br />

i=k p


SMOP-2 B.Kamys: 2007/08 91<br />

Brzeg lewostronnego obszaru krytycznego k l szukamy z warunku:<br />

P (k ≤ k l ) = 2 −n ∑<br />

· ( n i ) = α<br />

k l<br />

i=0<br />

a brzegi dwustronnego obszaru krytycznego z obu powy»szych wzorów, w których<br />

zastapi sie α przez α/2.<br />

UWAGA:<br />

1. Tu zakªadali±my milczaco, »e nie beda sie pojawiaªy pary (x i = y i ) poniewa»<br />

obie zmienne sa ciagªe a wiec prawdopodobie«stwo takich par wynosi zero. W<br />

praktyce obliczenia wykonywane sa zawsze ze sko«czona dokªadno±cia a to powoduje<br />

pojawianie sie powy»szych par. Je»eli ich liczba jest niewielka w porównaniu do<br />

liczby wszystkich par to mo»na je po prostu pomina¢. W przeciwnym wypadku<br />

stosuje sie losowanie , które (z prawdopodobie«stwem 0,5 ) okre±la czy dana pare<br />

zaliczy¢ do par, w których x i > y i czy odwrotnie.<br />

2. Cz¦sto wygodnie jest obliczy¢ sum¦ prawdopodobie«stw poczynaj¡c od 0 (lub od<br />

n, t.j. caªkowitej liczby par - zale»nie od tego czy k jest mniejsze czy wi¦ksze od<br />

n/2) do obserwowanej warto±ci liczby par k. Tak¡ sum¦ nazywa si¦ granicznym<br />

poziomem istotno±ci (w j¦zyku angielskim p-value) dla testu jednostronnego.<br />

W przypadku testu dwustronnego liczy si¦ obie sumy i graniczny poziom istotno±ci<br />

to podwojona warto±¢ mniejszej sumy. Je»eli p-value jest mniejsze od poziomu<br />

istotno±ci α to statystyka testowa traa do obszaru krytycznego.<br />

11.6.3 TEST SERII WALDA - WOLFOWITZA<br />

Seria nazywamy ka»dy podciag ciagu zªo»onego z elementów A i B majacy te wªasno±¢,<br />

»e nale»a do niego elementy tego samego typu (A lub B).<br />

Liczba serii n s speªnia warunek:<br />

2 ≤ n s ≤ 2 · min(n A , n B ) + 1 − δ nA ,n B


SMOP-2 B.Kamys: 2007/08 92<br />

gdzie n A i n B to odpowiednio liczby elementów typu A i typu B w caªym ciagu.<br />

Test serii Walda-Wolfowitza sªu»y do sprawdzania hipotezy gªoszacej, »e dystrybuanty<br />

dwu zmiennych ciagªych X i Y sa identyczne:<br />

• Hipoteza zerowa H 0 : F 1 (X) = F 2 (Y )<br />

• Hipoteza alternatywna H 1 : F 1 (X) ≠ F 2 (Y )<br />

(dla x=y)<br />

• Statystyka testowa n s (liczba serii).<br />

Mamy próbe skªadajaca sie z n A warto±ci zmiennej X oraz z n B warto±ci zmiennej<br />

Y . Zapisujemy te n A + n B warto±ci w jeden niemalejacy ciag i sprawdzamy ile<br />

jest serii typu A (tzn. skªadajacych sie z elementów X) i ile jest serii typu B (tzn.<br />

skªadajacych sie z elementów Y ). Je»eli zdarzy sie, »e dwie warto±ci sa identyczne<br />

to musimy losowa¢ (z prawdopodobie«stwem 0,5), która z nich ma by¢ pierwsza w<br />

ciagu.<br />

• Obszar krytyczny - lewostronny: n s ≤ n s (α)<br />

Gdy hipoteza zerowa jest sªuszna to mo»emy sie spodziewa¢, »e warto±ci X sa<br />

przemieszane z warto±ciami Y a wiec liczba serii bedzie du»a. Je»eli dystrybuanty<br />

zmiennych X i Y sa ró»ne to spodziewamy sie, »e systematycznie jedna z tych<br />

zmiennych bedzie wieksza od drugiej (przynajmniej na pewnym odcinku warto±ci)<br />

a wiec liczba serii bedzie maªa. Stad maªa liczba serii w próbie bedzie ±wiadczy¢<br />

przeciw hipotezie zerowej.<br />

Rozkªad liczby serii n s jest znany przy prawdziwo±ci H 0 i wyra»a sie analitycznym<br />

wzorem:<br />

⎧<br />

⎪⎩<br />

⎛<br />

2⎜<br />

⎝<br />

⎞⎛<br />

⎞<br />

n A − 1<br />

n B − 1<br />

⎟⎜<br />

⎟<br />

⎠⎝<br />

⎠<br />

n s<br />

n<br />

2<br />

− 1<br />

s<br />

2<br />

− 1<br />

⎛<br />

⎞<br />

n A + n B<br />

⎜<br />

⎟<br />

⎝<br />

⎠<br />

⎪⎨<br />

n A<br />

p(n s ) = ⎛ ⎞⎛<br />

⎞ ⎛ ⎞⎛<br />

⎞<br />

n A − 1<br />

n B − 1<br />

n ⎜ ⎟⎜<br />

⎟<br />

⎝<br />

n s<br />

2<br />

− 1 ⎠⎝<br />

n s<br />

2 2<br />

− 3 ⎠ + A − 1<br />

n B − 1<br />

⎜ ⎟⎜<br />

⎟<br />

⎝<br />

n s<br />

2<br />

2<br />

− 3 ⎠⎝<br />

n s<br />

2 2<br />

− 1 ⎠<br />

2<br />

⎛<br />

⎞<br />

n A + n B<br />

⎜<br />

⎟<br />

⎝<br />

⎠<br />

n A<br />

dla n s parzystego<br />

a wiec mo»na znale¹¢ (numerycznie) warto±ci krytyczne statystyki testowej.<br />

dla n s nieparzystego


SMOP-2 B.Kamys: 2007/08 93<br />

UWAGA:<br />

Warto zauwa»y¢, »e w przypadku odrzucenia hipotezy zerowej, tj. zaobserwowania maªej<br />

liczby serii, mo»na próbowa¢ uzyska¢ informacje o relacji pomiedzy warto±ciami oczekiwanymi<br />

E(X) i E(Y ) sprawdzajac czy na poczatku caªego ciagu przewa»aja warto±ci<br />

typu A (tj. warto±ci zmiennej X) czy typu B(warto±ci zmiennej Y ).<br />

Je»eli na poczatku mamy przewage warto±ci typu A a potem typu B to mo»emy uwa»a¢,<br />

»e E(X) < E(Y ). W przypadku odwrotnym spodziewamy sie, »e E(X) > E(Y ).


SMOP-2 B.Kamys: 2007/08 94<br />

11.6.4 TEST SUMY RANG WILCOXONA - MANNA - WHITNEYA<br />

Test ten zostaª opracowany przez F. Wilcoxona dla dwu równie licznych prób a pó¹niej<br />

uogólniony przez H.B. Manna i D.R. Whitneya na dwie próby o dowolnej liczebno±ci.<br />

Mo»na wiec spotka¢ sie z nazwa test Wilcoxona lub test Wilcoxona-Manna-Whitneya.<br />

Przez range obserwacji rozumie sie liczbe naturalna równa numerowi miejsca, który ta<br />

obserwacja zajmuje w uporzadkowanym ciagu niemalejacym obserwacji w próbie (numer<br />

danej statystyki pozycyjnej). Je»eli dwie lub wiecej obserwacji ma te sama warto±¢ to<br />

ich rangi sa równe ±redniej arytmetycznej rang, które posiadaªyby gdyby sie minimalnie<br />

ró»niªy (tzn. ró»niªyby sie tak maªo, »e nie zmieniªyby poªo»enia w ciagu w stosunku do<br />

innych obserwacji).<br />

• Hipoteza zerowa H 0 : F 1 (X) = F 2 (Y )<br />

• Hipoteza alternatywna H 1 : F 1 (X) ≠ F 2 (Y )<br />

Mo»na jednak postawi¢ inne hipotezy alternatywne:<br />

H 1 : P (X > Y ) > 0, 5 lub<br />

H 1 : P (X > Y ) < 0, 5<br />

• Statystyka testowa:<br />

w =<br />

n∑<br />

min<br />

i=1<br />

ranga(i)<br />

n min oznacza liczebno±¢ mniejszej próby a ranga(i) to ranga kolejnej obserwacji<br />

z mniej licznej próby ale w ciagu utworzonym z obserwacji obu prób.<br />

• Obszar krytyczny: Dla prostego zaprzeczenia - obustronny, a dla dwu pozostaªych<br />

hipotez alternatywnych jest odpowiednio prawo- i lewostronny (przy zaªo»eniu, »e<br />

próba mniej liczna jest próba 'X'). Warto±ci krytyczne trzeba bra¢ z odpowiednich<br />

tablic.


SMOP-2 B.Kamys: 2007/08 95<br />

11.6.5 WYKRES KWANTYL-KWANTYL<br />

Kwantylem na poziomie q nazywamy tak¡ warto±¢ x q zmiennej losowej x, »e prawdopodobie«stwo<br />

znalezienie mniejszych warto±ci x od x q wynosi q. Dla zmiennej ci¡gªej<br />

poziom kwantyla q mo»e przybiera¢ wszystkie warto±ci z przedziaªu [0, 1] a dla zmiennej<br />

dyskretnej tylko dyskretne warto±ci. Dotyczy to równie» warto±ci kwantyla, który dla<br />

zmiennej ci¡gªej mo»e przyjmowa¢ dowolne rzeczywiste warto±ci x q z przedziaªu, gdzie<br />

zmienna jest okre±lona a dla zmiennej dyskretnej tylko dyskretne warto±ci x j :<br />

q = xq ∫<br />

q j =<br />

−∞<br />

j ∑<br />

i=1<br />

f(x) dx<br />

p(x i )<br />

Mo»na pokaza¢, rozwa»aj¡c zamian¦ zmiennych w powy»szej caªce deniuj¡cej kwantyl,<br />

»e zamiana zmiennej losowej na inn¡ poprzez monotoniczn¡ tranformacj¦ prowadzi<br />

do identycznej transformacji kwantyla. W zwi¡zku z tym, je»eli zmienna y jest liniow¡<br />

funkcj¡ zmiennej x to kwantyl y q jest tak¡ sam¡ liniow¡ funkcj¡ kwantyla x q . W szczególno±ci<br />

gdy zwi¡zek pomi¦dzy y i x jest to»samo±ci¡ y(x) = x to y q = x q dla ka»dego<br />

poziomu kwantyla. A wi¦c linia, która b¦dzie utworzona przez punkty o wspóªrz¦dnych<br />

(x q , y q ) - dla ró»nych warto±ci q) - powinna by¢ lini¡ prost¡ nachylon¡ pod k¡tem 45 ◦<br />

do osi odci¦tych, przechodz¡c¡ przez pocz¡tek ukªadu wspóªrz¦dnych.<br />

Dla zbadania hipotezy czy dwie zmienne X i Y , reprezentowane przez dwie próby<br />

statystyczne x 1 , x 2 , ...x nx i y 1 , y 2 , ...y ny maj¡ identyczny rozkªad prawdopodobie«stwa<br />

post¦pujemy nast¦puj¡co:<br />

1. Porz¡dkujemy zmierzone warto±ci w ci¡gi niemalej¡ce: x ∗ 1 ≤ x∗ 2 ≤ ... ≤ x∗ n x<br />

oraz<br />

y ∗ 1 ≤ y∗ 2 ≤ ... ≤ y∗ n y<br />

2. Traktujemy statystyk¦ pozycyjn¡ x ∗ i jako estymator kwantyla x q na poziomie<br />

q = i/(n x + 1) a statystyk¦ pozycyjn¡ y ∗ j jako estymator kwantyla y p na poziomie<br />

p = j/(n y + 1).<br />

3. Gdy n x = n y to statystyki pozycyjne x ∗ i k y∗ k<br />

reprezentuj¡ estymatory kwantyli obu<br />

zmiennych na tym samym poziomie a wi¦c wykres kwantyl-kwantyl b¦dzie wykresem<br />

statystyki pozycyjnej y ∗ w funkcji statystyki pozycyjnej k x∗ k<br />

. Gdy jedna z prób jest<br />

mniej liczna, np. n x < n y to interpolujemy warto±ci estymatorów kwantyli z<br />

bardziej licznej próby (tu y ∗ k<br />

) tak aby uzyska¢ identyczne poziomy kwantyli jak dla<br />

mniej licznej próby i rysujemy wykres tylu punktów ile wynosi liczebno±¢ mniejszej<br />

próby.<br />

Interpretacja mo»liwych wyników:<br />

• Je»eli punkty ukªadaj¡ si¦ na linii prostej nachylonej pod k¡tem 45 ◦ do osi odci¦tych<br />

oraz przechodz¡cej przez pocz¡tek ukªadu odniesienia to akceptujemy hipotez¦ zerow¡<br />

gªosz¡c¡, »e oba rozkªady s¡ identyczne.


SMOP-2 B.Kamys: 2007/08 96<br />

• Je»eli punkty ukªadaj¡ si¦ na linii prostej przechodz¡cej przez pocz¡tek ukªadu<br />

wspóªrz¦dnych ale nachylonej pod innym k¡tem ni» 45 ◦ to oznacza, »e zmienna y<br />

ma rozkªad o takim samym ksztaªcie jak zmienna x ale wyra»ony w innych jednostkach<br />

(odchylenie standardowe jednej zmiennej jest inne ni» drugiej oraz warto±¢<br />

oczekiwana te» zwykle jest inna).<br />

• Je»eli wykres kwantyl-kwantyl jest lini¡ prost¡ nachylon¡ pod k¡tem 45 ◦ ale nie<br />

przechodz¡c¡ przez pocz¡tek ukªadu wspóªrz¦dnych to rozkªady prawopodobie«-<br />

stwa maj¡ taki sam ksztaªt i identyczne wariancje ale jedna zmienna ma warto±ci<br />

przesuni¦te wzgl¦dem drugiej zmiennej o staª¡ liczb¦ (warto±ci oczekiwane ró»ni¡<br />

si¦ o t¦ liczb¦).<br />

• Je»eli wykres kwantyl-kwantyl jest lini¡ prost¡ ale nie jest ona nachylona pod k¡tem<br />

45 ◦ oraz nie przechodzi przez pocz¡tek ukªadu wspóªrz¦dnych to rozkªady maj¡ taki<br />

sam ksztaªt ale ró»ne warto±ci oczekiwane i ró»ne wariancje.<br />

• Je»eli wykres nie jest lini¡ prost¡ to zmienne maj¡ rozkªady ró»ni¡ce si¦ ksztaªtem.<br />

Ilo±ciowo mo»emy zdecydowa¢ o tym czy akceptujemy ukªadanie si¦ punktów na linii<br />

prostej badaj¡c warto±¢ wspóªczynnika korelacji tak jak przy wykresie normalnym<br />

(rozdziaª (11.5.4)).


SMOP-2 B.Kamys: 2007/08 97<br />

11.7 HIPOTEZA JEDNORODNO‘CI WARIANCJI<br />

Zajmujemy sie zmiennymi o rozkªadzie normalnym. Sprawdzamy czy wariancje kilku<br />

populacji sa takie same (np. czy dokªadno±¢ kilku ró»nych serii pomiarów jest taka<br />

sama). Ta wªasno±¢ - zwana jednorodno±cia wariancji - mo»e by¢ interesujaca sama<br />

w sobie a dodatkowo jest niezbedna je»eli chcemy bada¢ równo±¢ warto±ci oczekiwanych<br />

kilku populacji przez zastosowanie tzw. analizy wariancji (ANOVA).<br />

11.7.1 TEST BARTLETTA<br />

Badamy k populacji normalnych. Z ka»dej populacji i = 1, .., k bierzemy n i obserwacji<br />

(w sumie n = ∑ n<br />

i=1 n i wyników).<br />

• Hipoteza zerowa H 0 : Wszystkie wariancje sa sobie równe:<br />

σ 2 1 = σ2 2 = ·· = σ2 k<br />

• Hipoteza alternatywna H 1 : Przynajmniej jedna wariancja jest wieksza od pozosta-<br />

ªych:<br />

• Statystyka testowa:<br />

σ 2 j > σ2 1 = · · σ2 j−1 = σ2 j+1 = ·· = σ2 k<br />

⎧<br />

⎪⎨<br />

M =<br />

⎪⎩<br />

− k ∑<br />

i=1<br />

1 + 1<br />

3(k−1)<br />

(<br />

Si<br />

(n i − 1) · ln<br />

2<br />

[ k∑<br />

i=1<br />

S 2 )<br />

1<br />

n i −1 − 1<br />

n−k<br />

⎫<br />

⎪⎬<br />

]<br />

⎪⎭<br />

gdzie S 2 i<br />

jest estymatorem wariancji dla i-tej próby:<br />

S 2 i = 1<br />

n i −1<br />

n i ∑<br />

j=1<br />

(x ji − ¯x i ) 2 oraz S 2 = 1<br />

n−k<br />

k∑<br />

i=1<br />

(n i − 1) · S 2 i .<br />

Bartlett pokazaª, »e zmienna M zdeniowana powy»ej ma rozkªad, który bardzo<br />

szybko da»y do rozkªadu chi-kwadrat o k-1 stopniach swobody. Wystarcza ju»<br />

warunek n i > 3 dla wszystkich prób i.<br />

• Obszar krytyczny: prawostronny.


SMOP-2 B.Kamys: 2007/08 98<br />

11.7.2 TEST COCHRANA<br />

Mo»na go stosowa¢ dla k populacji normalnych je»eli liczebno±¢ wszystkich prób n i ,<br />

i=1,..,k jest identyczna.<br />

• Hipoteza zerowa H 0 : Wszystkie wariancje sa sobie równe:<br />

σ 2 1 = σ2 2 = ·· = σ2 k<br />

• Hipoteza alternatywna H 1 : Przynajmniej jedna wariancja jest wieksza od pozosta-<br />

ªych:<br />

σ 2 j > σ2 2 = · · σ2 j−1 = σ2 j+1 = ·· = σ2 k<br />

• Statystyka testowa:<br />

gdzie S 2 i<br />

G =<br />

max<br />

S 2<br />

i<br />

i<br />

k∑<br />

Si<br />

2 i=1<br />

jest estymatorem wariancji dla i-tej próby.<br />

• Obszar krytyczny: prawostronny. Nale»y korzysta¢ ze specjalnych tablic testu Cochrana.<br />

11.7.3 TEST F max HARTLEYA<br />

Podobnie jak test Cochrana mo»na go stosowa¢ dla k populacji normalnych je»eli liczebno±¢<br />

wszystkich prób n i , i=1,..,k jest identyczna.<br />

• Hipoteza zerowa H 0 : Wszystkie wariancje sa sobie równe:<br />

σ 2 1 = σ2 2 = ·· = σ2 k<br />

• Hipoteza alternatywna H 1 : Przynajmniej jedna wariancja jest wieksza od pozosta-<br />

ªych:<br />

σ 2 j > σ2 2 = · · σ2 j−1 = σ2 j+1 = ·· = σ2 k<br />

• Statystyka testowa:<br />

gdzie S 2 i<br />

F max =<br />

max S 2<br />

i<br />

i<br />

min S 2<br />

i<br />

i<br />

jest estymatorem wariancji dla i-tej próby.<br />

• Obszar krytyczny: prawostronny. Nale»y korzysta¢ ze specjalnych tablic testu Hartleya.


SMOP-2 B.Kamys: 2007/08 99<br />

11.8 ANALIZA WARIANCJI - klasykacja jednoczynnikowa<br />

Analiza wariancji - zaproponowana przez R. A. Fishera - to metoda sªu»aca w swojej<br />

najprostszej wersji do porównania warto±ci oczekiwanych kilku populacji normalnych.<br />

Jednoczynnikowa analiza wariancji bierze swa nazwe z faktu podziaªu caªej populacji<br />

warto±ci ilo±ciowej zmiennej x na k populacji ró»niacych sie warto±cia lub poziomem<br />

jednego klasykujacego czynnika . Tym czynnikiem nie jest warto±¢ zmiennej<br />

x lecz jaka± inna wielko±¢, która w szczególno±ci mo»e by¢ zmienna jako±ciowa. Przy<br />

pomocy analizy wariancji sprawdzamy czy warto±ci oczekiwane zmiennej x dla populacji<br />

ró»niacych sie warto±cia (poziomem) czynnika klasykujacego sa identyczne. Na przykªad,<br />

zmienna x mo»e by¢ temperatura pacjentów a czynnikiem klasykujacym - rodzaj<br />

choroby (nominalna zmienna jako±ciowa). Wtedy stwierdzenie, »e dla ró»nych poziomów<br />

czynnika klasykujacego (ró»nych chorób) ±rednia temperatura ciaªa jest ró»na mo»e pozwoli¢<br />

na uªatwienie rozpoznania rodzaju choroby.<br />

Analiza wariancji zwana popularnie ANOVA (ANalysis Of VAriance) pozwala, w<br />

przypadku odrzucenia hipotezy zerowej, stwierdzi¢ wpªyw poziomu pewnego jako±ciowego<br />

czynnika na mierzalna charakterystyke badanego obiektu. Dzieki temu ANOVA ma bardzo<br />

szerokie zastosowanie w naukach biologicznych i medycznych gdzie czesto mamy do<br />

czynienia ze zmiennymi jako±ciowymi.<br />

ZAŠO›ENIA:<br />

1. Badamy k populacji charakteryzowanych przez zmienna X. Zakªadamy, »e zmienne<br />

X 1 , ..., X k przypisane populacjom 1, ..., k sa niezale»ne i maja rozkªady normalne.<br />

2. Wszystkie populacje maja równe wariancje,<br />

Je»eli nie mamy z góry zagwarantowanego speªnienia tych zaªo»e« to musimy przeprowadzi¢<br />

odpowiednie testy statystyczne (np. Test λ-Koªmogorowa, test χ 2 Pearsona<br />

lub inne dla sprawdzenia normalno±ci populacji oraz test Bartletta lub Cochrana dla<br />

sprawdzenia identyczno±ci wariancji - nazywanej jednorodno±cia wariancji - dla ró»nych<br />

populacji).<br />

• Hipoteza zerowa: H 0 : E(X 1 ) = E(X 2 ) = ... = E(X k )<br />

• Hipoteza alternatywna: H 1 :<br />

• Statystyka testowa:<br />

Niektóre E(X i ) sa ró»ne.<br />

Wprowadzamy nastepujace oznaczenia:<br />

x ij to j-ty pomiar z i-tej próby (i-tej populacji)


SMOP-2 B.Kamys: 2007/08 100<br />

n i to liczebno±¢ i-tej próby, przy czym k ∑<br />

i=1<br />

¯x i· to ±rednia arytmetyczna dla i-tej próby:<br />

¯x i· = 1 n i<br />

∑n i<br />

x ij<br />

j=1<br />

czyli<br />

n i ∑<br />

j=1<br />

n i = N<br />

x ij = n i · ¯x i·<br />

¯x·· to ±rednia arytmetyczna wszystkich pomiarów:<br />

k∑<br />

¯x·· = 1 N<br />

i=1<br />

s 2 b ≡ 1<br />

(k−1)<br />

n i ∑<br />

j=1<br />

x ij = 1 N<br />

k∑<br />

n i ∑<br />

i=1 j=1<br />

k∑<br />

i=1<br />

n i · ¯x i·<br />

(¯x i· − ¯x··) 2 = 1<br />

(k−1)<br />

k∑<br />

i=1<br />

n i · (¯x i· − ¯x··) 2<br />

to estymator wariancji caªkowitego zbioru danych liczony z rozrzutu ±rednich<br />

arytmetycznych poszczególnych prób i = 1, .., k. Kwadrat odchylenia i-tej<br />

±redniej ¯x i· od ogólnej ±redniej wchodzi do wzoru z waga równa liczebno±ci<br />

i-tej próby. Poniewa» ogólna ±rednia narzuca jeden warunek na zespóª k ±rednich<br />

grupowych to suma s 2 b<br />

ma (k − 1) stopni swobody.<br />

Wska¹nik "b"pochodzi od angielskiego sªowa "between"(pomiedzy) i s 2 nazywany<br />

jest estymatorem "wariancji miedzygrupowej". U»ywa sie równie»<br />

b<br />

okre±lenia wariancja wedªug badanego czynnika".<br />

s 2 w ≡ 1<br />

(N−k)<br />

k∑<br />

n i ∑<br />

i=1 j=1<br />

(x ij − ¯x i·) 2<br />

to estymator wariancji caªkowitego zbioru danych liczony z rozrzutu pomiarów<br />

wewnatrz ka»dej próby i = 1, .., k. Liczba stopni swobody dla sumy kwadratów<br />

wewnatrz j-tej grupy to (n i − 1). Liczba stopni swobody dla sumy<br />

kwadratów po wszystkich k grupach to:<br />

∑<br />

(n 1 − 1) + (n 2 − 1) + .. + (n k − 1) = k n i − k = N − k.<br />

Stad liczba stopni swobody tej sumy wynosi (N − k).<br />

Wska¹nik "w" pochodzi od angielskiego sªowa "within" (wewnatrz) i dlatego<br />

estymator s 2 w<br />

nazywany jest estymatorem wariancji wewnatrzgrupowej".<br />

U»ywa sie tak»e okre±lenia resztowa wariancja".<br />

i=1<br />

TWIERDZENIE:<br />

Mo»na pokaza¢, »e przy równo±ci wariancji wszystkich populacji<br />

σ 2 1 = σ2 2 = . . . = σ2 k ≡ σ2 zachodza nastepujace relacje:<br />

E{s 2 w } = σ2<br />

E{s 2 b } = σ2 +<br />

(<br />

∑ k<br />

)<br />

(E{x i }−E{x}) 2<br />

i=1<br />

·<br />

k−1<br />

(<br />

k∑<br />

N−<br />

i=1<br />

k−1<br />

)<br />

n 2 i<br />

N


SMOP-2 B.Kamys: 2007/08 101<br />

gdzie E{x i } i E{x} to warto±¢ oczekiwana dla i-tej populacji i postulowana przez<br />

hipoteze zerowa wspólna warto±¢ oczekiwana wszystkich populacji.<br />

Jak wida¢, estymator s 2 w<br />

jest zawsze nieobcia»onym estymatorem wariancji<br />

(niezale»nie od prawdziwo±ci H 0 ), natomiast estymator s 2 b<br />

jest nieobcia»ony<br />

tylko wtedy, gdy H 0 jest prawdziwa. W przeciwnym wypadku<br />

ma dodatnie obcia»enie (wyra»enie w drugim nawiasie powy»ej zawiera ró»nice<br />

kwadratu sumy dodatnich liczb N 2 ∑<br />

≡ ( k n i ) 2 i sumy kwadratów tych liczb<br />

k∑<br />

i=1<br />

n i2 wiec jest zawsze dodatnie).<br />

Jako statystyke testowa bierzemy wielko±¢:<br />

i=1<br />

s 2 b /s2 w<br />

= F (k − 1, N − k)<br />

Powy»szy wzór przedstawia stosunek dwu nieobcia»onych (przy prawdziwo±ci hipotezy<br />

zerowej ) estymatorów wariancji, a wiec jest to zmienna o rozkªadzie F Fishera<br />

- Snedecora.<br />

• Obszar krytyczny<br />

Je»eli hipoteza zerowa nie jest prawdziwa to statystyka testowa powinna by¢ wieksza<br />

ni» przewiduje to rozkªad F (k − 1, N − k) bo wtedy s 2 b<br />

jest dodatnio obcia»ony,<br />

a wiec obszar krytyczny odpowiada du»ym warto±ciom statystyki testowej (test<br />

prawostronny).<br />

11.8.1 INNE SFORMUŠOWANIE HIPOTEZY ZEROWEJ<br />

Czesto stosuje sie inne przedstawienie hipotezy zerowej, w którym jawnie rozpatruje sie<br />

mo»liwo±¢ wpªywu czynnika klasykujacego na warto±¢ oczekiwana mierzonej wielko±ci<br />

x. Wprowadza sie nastepujacy model j-tej warto±ci x dla i-tej populacji:<br />

x ij = x 0 + α i + ξ ij<br />

gdzie x 0 i α i sa staªymi a ξ ij to zmienna o rozkªadzie N(0,σ).<br />

Warto±¢ oczekiwana zmiennej x ij i jej wariancja wyra»aja sie wzorami:<br />

E (x ij ) = x 0 + α i<br />

σ 2 (x ij ) = σ 2 (ξ ij ) = σ 2<br />

Stad wida¢, »e parametry α i nale»y interpretowa¢ jako efekty oddziaªywania poszczególnych<br />

poziomów "i"klasykujacego czynnika a oryginalna hipoteze zerowa, która<br />

gªosi , »e warto±ci oczekiwane zmiennej x sa takie same dla wszystkich populacji tj.<br />

E(x ij ) = x 0 mo»na przedstawi¢ nastepujaco:


SMOP-2 B.Kamys: 2007/08 102<br />

H o : α 1 = α 2 = ... = α k = 0.<br />

Gdy odrzucamy hipoteze zerowa, czyli stwierdzamy »e nie wszystkie populacje maja<br />

równe warto±ci oczekiwane badanej wielko±ci x, pojawia sie problem oszacowania tych<br />

warto±ci oczekiwanych. W ten sposób mo»emy zwiaza¢ warto±¢ oczekiwana zmiennej<br />

mierzonej x z warto±ciami (poziomami) czynnika klasykujacego.<br />

• Jako nieobcia»ony estymator warto±ci oczekiwanej i-tej populacji przyjmuje<br />

sie:<br />

T ni (x 0 + α i ) ≡ ¯x i· = 1 n i<br />

σ 2 (¯x i·) = σ2<br />

n i<br />

∑n i<br />

x ij<br />

j=1<br />

• Jako nieobcia»ony estymator x 0 bierze sie ±rednia wa»ona ±rednich arytmetycznych<br />

dla poszczególnych prób:<br />

T N (x 0 ) ≡ ¯x·· = 1 N<br />

k∑<br />

¯x i·n i<br />

i=1<br />

σ 2 (¯x··) = σ2<br />

N<br />

• Jako estymator α i bierze sie ró»nice<br />

α i ≈ T ni (x 0 + α i ) − T N (x 0 )<br />

11.8.2 PRAKTYCZNE RACHUNKI W ANOVA<br />

Rachunki zwiazane z analiza wariancji nale»y prowadzi¢ z mo»liwie du»a dokªadno±cia,<br />

gdy» pozornie niewielkie zaokraglenia moga silnie znieksztaªci¢ wyniki.<br />

zaleca sie liczy¢ wg wzorów przyto-<br />

Sumy kwadratów wystepujace w denicjach s 2 i b s2 w<br />

czonych poni»ej:<br />

SS b ≡ (k − 1) · s 2 b =<br />

SS w ≡ (N − k) · s 2 w =<br />

SS ≡ (N − 1) ·<br />

k∑<br />

k ∑<br />

i=1<br />

∑ k<br />

n i ∑<br />

i=1 j=1<br />

n i¯x 2 i. − N ¯x2 ..<br />

n i ∑<br />

i=1 j=1<br />

x 2 ij − k ∑<br />

i=1<br />

(x ij − ¯x .. ) 2 = k ∑<br />

n i¯x 2 i.<br />

n i ∑<br />

i=1 j=1<br />

x 2 ij − N ¯x2 ..<br />

gdzie suma kwadratów SS jest obliczana jako sprawdzian bo musi zachodzi¢:


SMOP-2 B.Kamys: 2007/08 103<br />

SS = SS b + SS w<br />

Zwykle czastkowe wyniki zapisuje sie w postaci tabeli analizy wariancji jednoczynnikowej:<br />

Rodzaj wariancji SS≡ sum of squares DF≡ degrees of freedom MS≡ mean square F - statystyka<br />

(suma kwadratów) (liczba stopni swobody) (±redni kwadrat) testowa<br />

Pomiedzy grupami SS b k − 1 s 2 b = SS b/(k − 1)<br />

Wewnatrz grup SS w N − k s 2 w = SS w/(N − k)<br />

Caªkowita SS N − 1 s 2 = SS/(N − 1) F = s 2 b /s2 w<br />

11.8.3 STABILIZACJA WARIANCJI<br />

Warunkiem stosowalno±ci analizy wariancji jest normalno±¢ analizowanej zmiennej<br />

oraz jednorodno±¢ wariancji (równo±¢ wariancji) dla wszystkich porównywanych populacji.<br />

Z praktyki wiadomo, »e drugi warunek jest znacznie wa»niejszy , tzn. niejednorodno±¢<br />

wariancji wpªywa silniej na wyniki analizy wariancji ni» niewielkie odstepstwa<br />

od normalno±ci rozkªadu zmiennej X.<br />

W przypadku, gdy estymator wariancji zmienia sie regularnie wraz z estymatorem<br />

warto±ci oczekiwanej (±rednia arytmetyczna), co stwierdzamy odkªadajac na wykresie estymatory<br />

s 2 w funkcji ±rednich z poszczególnych prób, mo»na dla tych prób zastosowa¢<br />

przeksztaªcenie zmiennej wyj±ciowej X, które spowoduje, »e nowa zmienna bedzie miaªa<br />

w przybli»eniu te sama wariancje we wszystkich próbach. Dla tej nowej zmiennej mo»na<br />

ju» przeprowadzi¢ procedure ANOVA. Takie postepowanie, nazywa sie stabilizacja wariancji.<br />

Korzysta sie z twierdzenia które gªosi:<br />

TWIERDZENIE:<br />

Je»eli S 2 (x) ≈ f(¯x) jest funkcja wyra»ajaca zwiazek pomiedzy wariancjami i warto±ciami<br />

oczekiwanymi obserwowanej zmiennej losowej x w badanych próbach, to zastosowanie<br />

transformacji<br />

∫<br />

z =<br />

C · dx<br />

√<br />

f(x)


SMOP-2 B.Kamys: 2007/08 104<br />

prowadzi do przybli»onej stabilizacji wariancji, gdzie staªa C jest przybli»ona warto±cia<br />

wariancji nowej zmiennej z.<br />

Czesto nie interesuje nas konkretna warto±¢ wariancji nowej zmiennej lecz tylko to aby<br />

wariancje byªy jednorodne. Wtedy zamiast staªej C stosuje sie jedynke.<br />

Najcze±ciej spotykane relacje pomiedzy wariancjami i warto±ciami oczekiwanymi to<br />

• Proporcjonalno±¢: S 2 ≈ a · ¯x. Wystepuje ona wtedy, gdy dane wyra»aja czesto±¢<br />

pewnych zdarze«, np. wypadków drogowych, gdzie nie ma wyra¹nego maximum.<br />

Wtedy stosuje sie przeksztaªcenie pierwiastkowe: z = √ x. Oczywi±cie mo»na je<br />

stosowa¢ tylko dla nieujemnych x. Je»eli na dane skªadaja sie maªe liczby i zera to<br />

zaleca sie stosowanie wzoru: z = √ x + 0.5.<br />

• Gdy wariancja proporcjonalna jest do kwadratu ±redniej: S 2 ≈ a · ¯x 2 to stosuje<br />

sie przeksztaªcenie logarytmiczne: z = log(x), przy czym dla maªych liczb zaleca<br />

sie u»ycie wzoru: z = log(x + 1). Oczywi±cie tak»e w tym wypadku zmienna<br />

x powinna przyjmowa¢ nieujemne warto±ci. Z taka relacja pomiedzy wariancja i<br />

±rednia spotykamy sie przy danych dotyczacych subiektywnych oszacowa« pewnych<br />

wielko±ci a tak»e przy badaniu czasu reakcji na bod¹ce.<br />

• W ogólnosci, gdy wariancja proporcjonalna jest do b-tej"potegi ±redniej: S 2 ≈ ¯x b<br />

gdzie wykªadnik potegi b ≠ 2 to u»ywa sie przeksztaªcenia z = x 1−b/2 . Na<br />

przykªad, √ gdy do kwadratu ±redniej proporcjonalne jest odchylenie standardowe:<br />

S2 ≈ a · ¯x 2 czyli S 2 ≈ a 2 · ¯x 4 to transformacja zapewniajaca jednorodno±¢<br />

wariancji jest wyliczanie odwrotno±ci: z = 1/x. Tak»e pierwszy przytoczony powy»ej<br />

przypadek, tj. proporcjonalno±¢ wariancji do ±redniej (b = 1) podlega temu<br />

przepisowi.<br />

• W przypadku, gdy zmienna x wyra»a procentowy udziaª lub prawdopodobie«stwo<br />

jakiego± procesu to pomiedzy wariancja i warto±cia ±rednia mo»na zaobserwowa¢<br />

zwiazek nastepujacy: S 2 ≈ ¯x · (1 − ¯x). Wtedy stosuje sie przeksztaªcenie: z =<br />

arcsin(x). Przy tym przeksztaªceniu zmienna x powinna nale»e¢ do przedziaªu<br />

(0,1).<br />

Po zastosowaniu transformacji przeprowadza sie procedure ANOVA dla nowej zmiennej i<br />

wyciaga sie wnioski tak jakby analizowano oryginalne dane (dla których nie wolno byªo<br />

stosowa¢ ANOVA ze wzgledu na brak jednorodno±ci wariancji).


SMOP-2 B.Kamys: 2007/08 105<br />

11.9 ANALIZA WARIANCJI (ANOVA) - klasykacja dwuczynnikowa<br />

Dwuczynnikowa analiza wariancji mo»e by¢ potraktowana jako automatyczne rozszerzenie<br />

jednoczynnikowej analizy wariancji. Ró»nica polega na tym, »e wyniki bada« klasykujemy<br />

(dzielimy na próby) przez zastosowanie dwu czynników a nie jednego czynnika.<br />

Wyniki pomiarów zmiennej x przedstawiamy stosujac model analogiczny do tego, który<br />

stosowali±my przy jednoczynnikowej klasykacji. Zakªadamy, »e wynik k-tego pomiaru<br />

dla grupy sklasykowanej przez i-ty poziom pierwszego czynnika i j-ty poziom drugiego<br />

czynnika mo»e by¢ zapisany nastepujaco:<br />

x ijk = x 0 + α i + β j + γ ij + ξ ijk<br />

gdzie x 0 , α i , β j i γ ij sa nielosowymi parametrami, ktore interpretujemy nastepujaco:<br />

x 0<br />

- wspólna warto±¢ oczekiwana pomiarów gdy wpªyw pierwszego i drugiego klasykujacego<br />

czynnika na warto±¢ zmiennej x mo»e by¢ zaniedbany,<br />

α i - efekt odziaªywania poziomu pierwszego czynnika na x,<br />

β j - efekt odziaªywania poziomu drugiego czynnika na x,<br />

γ ij - efekt wspóªdziaªania pierwszego i drugiego czynnika na x.<br />

ξ ijk<br />

- czynnik losowy o rozkªadzie N(0,σ).<br />

Wyró»niamy r poziomów (dla zmiennej jako±ciowej) lub warto±ci (dla zmiennej ilo±ciowej)<br />

pierwszego czynnika klasykujacego (i = 1, 2, ..., r) oraz c poziomów lub warto±ci<br />

drugiego czynnika (j = 1, 2, ..., c). Symbole r i c pojawiaja sie jako pierwsze litery<br />

angielskich sªów row (wiersz) i column (kolumna). Z ka»dej z tych r · c populacji pobiera<br />

sie prosta próbe (tj. niezale»ne pomiary) o tej samej liczebno±ci m, tj. wska¹nik k<br />

przebiega m warto±ci (k = 1, 2, ..., m).<br />

Mo»emy sprawdza¢ trzy rodzaje hipotez zerowych:<br />

H (1)<br />

0 : α 1 = α 2 = . . . = α r = 0<br />

H (2)<br />

0 : β 1 = β 2 = . . . = β c = 0<br />

H (3)<br />

0 : γ 11 = γ 12 = . . . = γ rc = 0


SMOP-2 B.Kamys: 2007/08 106<br />

Pierwsza hipoteza oznacza, »e klasykacja ze wzgledu na pierwszy czynnik nie ma wpªywu<br />

na warto±ci oczekiwane zmiennej x, druga oznacza, »e klasykacja ze wzgledu na drugi<br />

czynnik nie wpªywa na warto±ci oczekiwane zmiennej x a trzecia, »e efekt wspóªdziaªania<br />

obu czynników jest zaniedbywalny.<br />

Wprowadzamy oznaczenia:<br />

¯x i··<br />

¯x·j·<br />

≡<br />

≡<br />

¯x ij· ≡ 1 m<br />

¯x···<br />

≡<br />

c∑ m∑<br />

x ijk<br />

j=1 k=1<br />

r∑ m∑<br />

x ijk<br />

i=1 k=1<br />

m∑<br />

x ijk<br />

k=1<br />

1 r∑ c∑ m∑<br />

x ijk<br />

i=1 j=1 k=1<br />

1<br />

c · m<br />

1<br />

r · m<br />

r · c · m<br />

Korzystajac z tych denicji mozemy przedstawi¢ dwuczynnikowa analize wariancji<br />

przy pomocy tabeli:<br />

ródªo SS DF MS F - statystyka<br />

zmienno±ci suma kwadratów stopnie swobody ±redni kwadrat testowa<br />

Czynnik 1<br />

∑<br />

SS 1 = c · m r (¯x i·· − ¯x···) 2 r − 1 s 2 1 = SS1<br />

i=1<br />

(r−1)<br />

∑<br />

Czynnik 2 SS 2 = r · m c (¯x·j· − ¯x···) 2 c − 1 s 2 2 = SS2<br />

Wspóªdz.<br />

j=1<br />

(c−1)<br />

∑<br />

SS 3 = m m (¯x ij· − ¯x i·· − ¯x·j· + ¯x···) 2 (r − 1)(c − 1) s 2 3 = SS 3<br />

k=1<br />

Resztowe SS 4 = r ∑<br />

Caªkowita SS 5 = r ∑<br />

i=1 j=1 k=1<br />

(r−1)(c−1)<br />

c∑ m∑<br />

(x ijk − ¯x ij·) 2 rc(m − 1) s 2 e = SS4<br />

c∑<br />

i=1 j=1 k=1<br />

rc(m−1)<br />

m∑<br />

(x ijk − ¯x···) 2 rmc − 1 s 2 = SS5<br />

(rmc−1)<br />

s 2 1 /s2 e<br />

s 2 2 /s2 e<br />

s 2 3 /s2 e<br />

Wiersz pierwszy (oznaczony czynnik 1 ) odpowiada testowaniu hipotezy H (1)<br />

0 , wiersz drugi<br />

testowaniu hipotezy H (2)<br />

0 a wiersz trzeci testowaniu hipotezy H (3)<br />

0 .<br />

W ka»dym przypadku statystyka testowa rzadzona jest rozkªadem F Fishera-Snedecora<br />

o liczbie stopni licznika takiej jak liczba stopni swobody podana w danym wierszu a liczbie<br />

stopni swobody mianownika takiej jak dla wiersza nr 4 (czyli dla zmienno±ci resztowej).<br />

W ka»dym z tych trzech przypadków obszar krytyczny jest prawostronny.


SMOP-2 B.Kamys: 2007/08 107<br />

Poniewa» w ANOVA bardzo wa»na jest dokªadno±¢ rachunków wiec obliczenia sum<br />

kwadratów nie robi sie wg wzorów denicyjnych podanych w tabeli lecz zaleca sie stosowanie<br />

nastepujacego schematu rachunkowego:<br />

1. Liczymy SS 1 , SS 2 , SS 4 i SS 5 wg wzorów podanych poni»ej a potem<br />

2. Liczymy najbardziej niestabilna numerycznie sume SS 3 wg przepisu:<br />

ad 1.)<br />

SS 3 = SS 5 − (SS 1 + SS 2 + SS 4 )<br />

SS 1 =<br />

SS 2 =<br />

SS 4 =<br />

SS 5 =<br />

( ) c∑<br />

2 ( )<br />

m∑<br />

r∑<br />

2<br />

c∑ m∑<br />

x r∑<br />

ijk x ijk<br />

j=1 k=1<br />

i=1 j=1 k=1<br />

−<br />

i=1 c · m<br />

n<br />

( r∑<br />

)<br />

( )<br />

m∑ 2<br />

r∑<br />

2<br />

c∑ m∑<br />

c∑ x ijk<br />

x ijk<br />

i=1 k=1<br />

i=1 j=1 k=1<br />

−<br />

j=1 r · m<br />

n<br />

( m∑<br />

) 2<br />

r∑ c∑ m∑<br />

r∑ c∑ x ijk<br />

x 2 ijk − k=1<br />

i=1 j=1 k=1<br />

i=1 j=1 m<br />

( ) r∑<br />

2<br />

c∑ m∑<br />

x r∑ c∑ m∑<br />

ijk<br />

x 2 ijk<br />

− i=1 j=1 k=1<br />

i=1 j=1 k=1<br />

n<br />

gdzie n = r · c · m czyli n jest caªkowita liczba pomiarów.<br />

Wydaje sie rozsadnym zaczyna¢ analize od testowania hipotezy H (3)<br />

0 , tzn. od sprawdzenia,<br />

czy mo»na zaniedba¢ wpªyw wspóªdziaªania obu czynników klasykacyjnych na warto±ci<br />

oczekiwane mierzonej zmiennej x.<br />

Je»eli mo»na przyja¢ te hipoteze, tj. nie ma podstaw do jej odrzucenia to mo»na dokªadniej<br />

oszacowa¢ wariancje resztowa, a wiec bardziej precyzyjnie wyznaczy¢ oba sprawdziany<br />

testu dla hipotezy H (1)<br />

0 i H (2)<br />

0 . W tym celu sumujemy SS 3 + SS 4 i po podzieleniu tej<br />

sumy przez nowa liczbe stopni sqobody: (r −1)(c−1)+rc(m−1) ≡ rmc−c−r +1<br />

traktujemy ja jako nowa wariancje resztowa s 2.<br />

e


SMOP-2 B.Kamys: 2007/08 108<br />

Je»eli stwierdzimy, »e jedna lub wiecej hipotez zerowych jest nieprawdziwa to szacujemy<br />

jaki jest wpªyw klasykujacych czynników na warto±¢ oczekiwana mierzonej wielko±ci x.<br />

Stosujemy w tym celu nastepujace estymatory:<br />

dla α i :<br />

dla β j :<br />

dla γ ij :<br />

dla x 0 :<br />

¯x i·· − ¯x···<br />

¯x·j· − ¯x···<br />

¯x ij· − ¯x i·· − ¯x·j· + ¯x···<br />

¯x···


SMOP-2 B.Kamys: 2007/08 109<br />

11.10 TEST WSPÓŠZALE›NO‘CI STATYSTYCZNEJ POMIEDZY<br />

CECHAMI JAKO‘CIOWYMI<br />

DEFINICJA: Zale»no±¢ statystyczna dwu (lub wiecej) zmiennych to taka, która<br />

powoduje, »e ich wspólny rozkªad prawdopodobie«stwa nie daje sie przedstawi¢ jako iloczyn<br />

rozkªadów brzegowych poszczególnych zmiennych.<br />

Nale»y podkre±li¢, »e fakt istnienia zwiazku statystycznego zwykle nie mo»e<br />

by¢ potraktowany jako argument na rzecz istnienia relacji deterministycznej<br />

tzn. je»eli zmienna losowa Y jest zale»na statystycznie od zmiennej losowej X to<br />

nie mo»na wygªosi¢ twierdzenia, »e pojawienie sie danej warto±ci (lub kategorii) zmiennej<br />

X jest przyczyna pojawianie sie konkretnych warto±ci (kategorii) zmiennej Y. Jest to<br />

spowodowane przez dwa wa»ne powody:<br />

1.) Dla zwiazku statystycznego zawsze jest speªnione nastepujace wynikanie: je»eli<br />

X nie zale»y statystycznie od Y to Y nie zale»y statystycznie od X. Tego nie<br />

mo»emy powiedzie¢ o relacji zale»no±ci deterministycznej, np. z faktu, »e<br />

dochody rodziców nie zale»a od dochodów maªoletnich dzieci nie wynika, »e dochody<br />

tych dzieci nie zale»a od dochodów rodziców.<br />

2.) fakt zale»no±ci statystycznej zmiennej X od zmiennej Y (i vice versa) mo»e by¢ spowodowany<br />

zale»no±cia obu tych zmiennych od trzeciej zmiennej (która mo»e nawet<br />

nie by¢ rozpatrywana) a nie od siebie wzajemnie.<br />

Na przykªad, zakres opanowania materiaªu szkolnego i wzrost sa statystycznie zwiazane<br />

ze soba bo obie te cechy zale»a od wieku. Ustalenie wieku badanych osób powoduje,<br />

»e znika statystyczna zale»no±¢ miedzy ilo±cia opanowanego materiaªu szkolnego<br />

i wzrostem, która jest oczywista gdy traktowa¢ jako równorzedne obserwacje odnoszace<br />

sie do mªodzie»y licealnej, uczniów szkoªy podstawowej i przedszkolaków<br />

bez rozró»niania wieku.<br />

Te druga mo»liwo±¢ musza zawsze bra¢ pod uwage badacze zajmujacy sie »ywymi<br />

organizmami bo ich badania prawie zawsze odbywaja sie w obecno±ci zmian takich<br />

czynników, które nie sa explicite brane pod uwage.<br />

Uwagi podane powy»ej prowadza do wniosku, »e bardziej logiczne jest nazywanie zale»-<br />

no±ci statystycznej - wspóªzale»no±cia statystyczna.<br />

Poni»ej omówimy metody stwierdzenia, »e istnieje wspóªzale»no±¢ statystyczna dwu zmiennych,<br />

przy czym jedna lub obie zmienne moga mie¢ charakter jako±ciowy.<br />

Przyjeªo sie nazywa¢ zwiazki pomiedzy zmiennymi nominalnymi<br />

asocjacja a wspóªczynniki okre±lajace siªe<br />

zwiazków wspóªczynnikami asocjacji.


SMOP-2 B.Kamys: 2007/08 110<br />

11.10.1 TEST FISHERA DLA TABLIC KONTYNGENCJI 2x2<br />

Wspóªzale»no±¢ statystyczna miedzy cechami, z których przynajmniej jedna jest cecha<br />

jako±ciowa nazywana jest kontyngencja. Bardzo czesto klasykacja ze wzgledu na cechy<br />

jako±ciowe przebiega wg. podziaªu na 2 kategorie, np. : wystepowanie cechy -<br />

brak tej cechy. Wtedy wyniki próby badajacej zwiazek statystyczny dwu cech zapisujemy<br />

w postaci tablicy 2 x 2, w której w ka»dym polu (odpowiadajacym parze kategorii<br />

przyporzadkowanych do pierwszej i drugiej cechy) umieszcza sie liczebno±¢ obserwacji<br />

danej pary .<br />

Dla ªatwiejszego przedstawienia testu Fishera omówimy go na przykªadzie konkretnego<br />

eksperymentu: Interesuje nas, czy terapia przy zastosowaniu leku A jest bardziej<br />

efektywna ni» przy zastosowaniu leku B.<br />

Pierwsza zmienna (oznaczmy ja przez X) jest rodzaj stosowanej terapii. Jest to zmienna<br />

jako±ciowa przyjmujaca 2 kategorie: 1) stosowanie leku A, 2) stosowanie leku B.<br />

Druga zmienna (oznaczona przez Y)jest stan zdrowia pacjentów, który równie» traktujemy<br />

jako zmienna jako±ciowa przyjmujaca 2 kategorie: 1) poprawa stanu zdrowia, 2) brak<br />

poprawy.<br />

Próbe skªadajaca sie z n elementów dzielimy ze wzgledu na ceche X na dwie cze±ci o<br />

liczebno±ci n 1 i n 2 . Pacjentom z pierwszej grupy podajemy lek A a pacjentom z drugiej<br />

grupy lek B.<br />

Liczebno±ci n 1 i n 2 nie sa liczbami losowymi, przy czym n = n 1 + n 2 .<br />

Sprawdzamy ilu pacjentów pierwszej grupy (m 1 ) wykazuje poprawe zdrowia, tzn. ilu<br />

jest pacjentów odpowiadajacych równoczesnemu zdarzeniu: (X=lek A, Y=poprawa) oraz<br />

ilu pacjentów drugiej grupy (m 2 ) wykazuje poprawe, tzn. (X=lek B, Y=poprawa). Liczebno±ci<br />

m 1 i m 2 sa zmiennymi losowymi takimi, »e warto±ci oczekiwane stosunków<br />

m 1<br />

n 1<br />

i m 2<br />

n 2<br />

sa odpowiednio równe prawdopodobie«stwom p 1 i p 2 poprawy zdrowia po zastosowaniu<br />

leku A i B.<br />

Tablica 3: Czteropolowa (tj. 2x2) tablica kontyngencji<br />

Cecha<br />

X<br />

Kategoria X 1 X 2 Suma<br />

Y Y 1 m 1 m 2 m<br />

Y 2 n 1 − m 1 n 2 − m 2 n − m<br />

Suma n 1 n 2 n<br />

Je»eli zaªo»ymy, »e cecha pierwsza (w przykªadzie - rodzaj podanego leku) jest nieza-


SMOP-2 B.Kamys: 2007/08 111<br />

le»na statystycznie od cechy drugiej (poprawa zdrowia lub jej brak) to p 1 = p 2 i mo»emy<br />

policzy¢ dokªadnie prawdopodobie«stwo zaobserwowania m 1 i m 2 przypadków wybranej<br />

kategorii cechy drugiej przy danych kategoriach cechy pierwszej (patrz ni»ej).<br />

Je»eli liczebno±¢ próby n jest niewielka to stosujemy tzw. dokªadny test Fishera.<br />

Termin dokªadny oznacza, »e operuje sie tylko liczbami caªkowitymi i dostaje sie dokªadne<br />

wzory na prawdopodobie«stwo pojawienia sie takiego a nie innego ukªadu liczb w<br />

tabeli.<br />

• Hipoteza zerowa gªosi, »e obie klasykacje ze wzgledu na ceche X i na ceche Y <br />

sa statystycznie niezale»ne.<br />

• Statystyka testowa jest obserwowana tabela liczebno±ci a konkretnie zespóª liczebno±ci<br />

czterech pól w tabeli. Zauwa»my jednak, »e przy danych liczebno±ciach brzegowych<br />

przyjecie jakiej± konkretnej warto±ci m 1 (w lewym górnym rogu tabeli)<br />

jednoznacznie narzuca warto±ci wszystkim pozostaªym liczbom w tabeli. Dlatego<br />

mo»emy numerowa¢ wszystkie mo»liwe tabele przez warto±¢ m 1 i jako statystyke<br />

testowa przyja¢ warto±¢ m 1 .<br />

Prawdopodobie«stwo tej statystyki to prawdopodobie«stwo pojawienia sie w do±wiadczeniu<br />

danych liczebno±ci w czterech polach tabeli (przy ustalonych liczebno-<br />

±ciach brzegowych (n 1 , n 2 , m, n − m). R. A. Fisher pokazaª, »e prawdopodobie«stwo<br />

tabeli o danym rozkªadzie liczebno±ci (przy prawdziwo±ci hipotezy zerowej,<br />

przy ustalonej liczebno±ci próby n i liczebno±ciach brzegowych) wyra»a sie prostym<br />

wzorem:<br />

P =<br />

n 1 !<br />

m 1 ! (n 1 − m 1 )! ·<br />

n 2 !<br />

m 2 ! (n 2 − m 2 )!<br />

· m! (n − m)!<br />

n!<br />

(86)<br />

• Obszar krytyczny<br />

to taki zakres statystyki testowej, który jest najmniej prawdopodobny przy prawdziwo±ci<br />

hipotezy zerowej a najbardziej prawdopodobny przy prawdziwo±ci hipotezy<br />

alternatywnej.<br />

Pierwszy warunek mówi, »e w obszarze krytycznym statystyka testowa, tzn.<br />

liczebno±¢ m 1 , powinna by¢ mo»liwie daleka od centrum rozkªadu wyliczonego przy<br />

zaªo»eniu prawdziwo±ci H 0 . A wiec powinna mie¢ albo bardzo du»e warto±ci albo<br />

bardzo maªe , przy czym oczywi±cie nie mo»e by¢ wieksza od m ≡ m 1 + m 2 ani<br />

mniejsza od zera.<br />

Drugi warunek zale»y od konkretnej hipotezy alternatywnej, która mo»e faworyzowa¢<br />

jeden z kierunków zmiany kategorii badanych cech.<br />

H 1 : p 1 > p 2<br />

Je»eli mamy podstawy przypuszcza¢, »e dana para kategorii cechy pierwszej i<br />

drugiej odpowiadajaca liczebno±ci m 1 powinna by¢ bardziej prawdopodobna


SMOP-2 B.Kamys: 2007/08 112<br />

ni» to wynika z H 0 - tj. z niezale»no±ci zmiennych - to obszarem krytycznym<br />

jest zbiór najwiekszych warto±ci m 1 (oczywi±cie gdy hipoteza gªosi, »e p 1 <<br />

p 2 to jest to zbiór najmniejszych warto±ci m 1 ).<br />

Wtedy liczymy sume prawdopodobie«stw zaobserwowanej w doswiadczeniu liczebno±ci<br />

m 1 oraz liczebno±ci wiekszych od niej. Ta suma daje nam warto±¢<br />

poziomu istotno±ci, tzn. prawdopodobie«stwa popeªnienia bªedu pierwszego rodzaju,<br />

polegajacego na odrzuceniu prawdziwej hipotezy zerowej H 0 : p 1 = p 2 .<br />

Inaczej mówiac, Je»eli to prawdopodobie«stwo jest mniejsze od zaªo»onego poziomu<br />

istotno±ci to odrzucamy H 0 i przyjmujemy H 1 : p 1 > p 2 .<br />

H 1 : p 1 ≠ p 2<br />

Je»eli nie mamy wskazówek ±wiadczacych, »e dany kierunek kategorii jest wyró»niony,<br />

to stosujemy test dwustronny odpowiadajacy hipotezie alternatywnej<br />

gªoszacej, »e zmienne nie sa niezale»ne albo inaczej H 1 : p 1 ≠ p 2 .<br />

Wtedy liczymy sume prawdopodobie«stw liczebno±ci m 1 oddalonych od centrum<br />

rozkªadu w góre i w dóª tyle lub wiecej jednostek jak obserwowana w próbie<br />

warto±¢ m 1 ( patrz przykªad poni»ej). Ta suma daje nam warto±¢ poziomu<br />

istotno±ci, tj. prawdopodobie«stwa odrzucenia prawdziwej H 0 (i przyjecia faªszywej<br />

H 1 ). Gdy ta suma jest mniejsza od zaªo»onego poziomu istotno±ci to<br />

odrzucamy H 0 (przyjmujac H 1 ).<br />

W ten sposób zamieniamy szukanie obszaru krytycznego na sprawdzanie czy prawdopodobie«stwo<br />

pojawienia sie danego m 1 jest odpowiednio maªe. Ta procedura zostanie<br />

poni»ej zilustrowana przykªadem, który powinien wyja±ni¢ ewentualne watpliwo±ci.<br />

Wzór (86) mimo swej prostoty jest niewygodny do rachunków ze wzgledu na wielkie<br />

liczby w liczniku i mianowniku. Mo»na sie zabezpieczy¢ przez trudno±ciami numerycznymi<br />

albo logarytmujac wzór (zamieniajac dzielenie silni na odejmowanie logarytmów z silni i<br />

powrót do normalnej reprezentacji przez zastosowanie funkcji wykªadniczej) albo stosujac<br />

wzory rekurencyjne na prawdopodobie«stwo w nastepujacy sposób: Przyjmujemy m 1 =<br />

0, a wiec m 2 = m oraz n 1 − m 1 = n 1 . Wtedy wzór na prawdopodobie«stwo P 0<br />

wyglada nastepujaco [2]:<br />

a wzór rekurencyjny<br />

P 0 = (n 1 + n 2 − m)! (m + n 2 − m)!<br />

n! (n 2 − m)!<br />

= (n − m)! n 2!<br />

n!(n 2 − m)!<br />

P k+1 =<br />

(m − k)(n 1 − k)<br />

(k + 1)(n 2 − m + k + 1) P k


SMOP-2 B.Kamys: 2007/08 113<br />

UWAGA:<br />

• Gdy P 0 ≈ 0 to nie mo»na stosowa¢ wzorów rekurencyjnych<br />

(bo dostaniemy dla wszystkich k; P k ≈ 0 )<br />

• Dla poprawnego stosowania wzorów rekurencyjnych nale»y tak przegrupowa¢ ustawienia<br />

wierszy i kolumn aby zmienna m 1 miaªa najmniejsza warto±¢ z czterech liczb<br />

m 1 , m 2 , n 1 -m 1 , n 2 -m 2 (mo»e by¢ tak»e równa której± z pozostaªych liczb).<br />

Przykªad [12]: Bada sie skuteczno±¢ dwóch leków A i B werykujac hipoteze zerowa,<br />

gªoszaca, »e oba leki sa jednakowo skuteczne. Zespóª 23 pacjentów podzielono losowo na<br />

dwie grupy o liczebno±ciach 9 i 14 (to klasykacja ze wzgledu na ceche X). Pacjentom<br />

pierwszej grupy podano lek A, pacjentom drugiej grupy lek B i zaobserwowano 6 wyników<br />

pozytywnych w pierwszej grupie oraz 3 wyniki pozytywne w drugiej grupie (podziaª na<br />

pozytywne i niepozytywne wyniki to klasykacja ze wzgledu na ceche Y). Wyniki leczenia<br />

i teoretyczne przewidywania zestawiono w dwu tabelach przytoczonych poni»ej.<br />

Cecha<br />

Lek<br />

Kategoria A B Suma<br />

Wynik + 6 3 9<br />

− 3 11 14<br />

Suma 9 14 23<br />

m 1 0 1 2 3 4<br />

P (m 1 ) 2, 4499 10 −3 3, 3073 10 −2 1, 5119 10 −1 3, 0868 10 −1 3, 0868 10 −1<br />

m 1 5 6 7 8 9<br />

P (m 1 ) 1, 5434 10 −1 3, 7416 10 −2 4, 0089 10 −3 1, 5419 10 −4 1, 2237 10 −6<br />

H 1 : Lek A jest lepszy ni» lek B Z tabeli pomiarów widzimy, »e wynik pozytywny pojawia<br />

sie cze±ciej u pacjentów przyjmujacych lek A ni» u pacjentów przyjmujacych<br />

lek B, a wiec mo»emy przypuszcza¢, »e lek ten jest lepszy, co w formalizmie statystycznego<br />

opisu oznaczaªoby H 1 : p 1 > p 2 . Aby sprawdzi¢ istotno±¢ tej hipotezy


SMOP-2 B.Kamys: 2007/08 114<br />

wzgledem hipotezy H 0 : p 1 = p 2 analizujemy tabele prawdopodobie«stw sumujac<br />

prawdopodobie«stwa dla m 1 ≥ 6. Dostajemy w wyniku 0,0416, co interpretujemy<br />

nastepujaco: Je»eli przyjmiemy H 1 (odrzucajac H 0 ) to popeªnimy bªad w<br />

4,16% przypadków. Inaczej mówiac mamy prawo odrzuci¢ H 0 na poziomie istotno-<br />

±ci nie mniejszym ni» 0,0416.<br />

Gdyby±my zaªo»yli, »e prawdopodobie«stwo odrzucenia H 0 ma by¢ jeszcze mniejsze,<br />

np. 0,01 to wtedy nie mieliby±my podstaw twierdzi¢, »e lek A jest lepszy ni» lek B.<br />

H 1 :Lek B jest lepszy ni» lek A. Nie mamy ilo±ciowych argumentów za taka hipoteza,<br />

ale spróbujmy ja formalnie postawi¢ i zwerykowa¢. Taka hipoteza medyczna<br />

bedzie zapisana w jezyku statystyki nastepujaco: H 1 : p 1 < p 2 . Wtedy obszar<br />

krytyczny to zbiór maªych warto±ci m 1 , gdy» du»e prawdopodobie«stwo (liczebno±¢<br />

wzgledna m 2 /m) powoduje, »e m 1 /m ≡ 1 − m 2 /m musi by¢ maªe. Aby<br />

ilo±ciowo znale¹¢ poziom istotno±ci sumujemy prawdopodobie«stwa liczebno±ci m 1<br />

mniejszych lub równych obserwowanej w próbie warto±ci tj. 6. Dostajemy jako wynik<br />

tej sumy 0,9958, co oznacza, »e przyjecie takiej H 1 (odrzucenie H 0 : p 1 = p 2<br />

na korzy±¢ hipotezy H 1 : p 1 < p 2 ) bedzie bªedne w 99,58% przypadków.<br />

Jak wida¢ nie mo»emy przeforsowa¢ takiej hipotezy H 1 .<br />

H 1 : Lek A i B nie sa jednakowo skuteczne. Te hipoteze zapisujemy nastepujaco:<br />

H 1 : p 1 ≠ p 2 . Aby ja ilo±ciowo przetestowa¢ sumujemy prawdopodobie«stwa<br />

takich liczebno±ci m 1 , które oddalone sa od maksimum rozkªadu (tu ok. 3,5) przynajmniej<br />

tak daleko (w góre i w dóª) jak obserwowana w próbie warto±¢ m 1 = 6.<br />

Dostajemy poziom istotno±ci równy 0,0771 (sumowane byªy prawdopodobie«stwa<br />

dla m 1 = 6, 7, 8, 9 oraz m 1 = 1, 0 bo 6 i 1 sa tak samo odlegªe od maksimum<br />

rozkªadu: 6=3,5 + 2,5, 1=3,5 - 2,5). A wiec na takim poziomie istotno±ci (lub oczywi±cie<br />

wiekszym) mo»emy twierdzi¢, »e nale»y odrzuci¢ H 0 i przyja¢ interesujaca<br />

nas hipoteze H 1 . Popeªniamy przy tym bªad w ok. 8% przypadków.<br />

Cochran (W.G. Cochran, Biometrics 10 (1954) 417) zaleca u»ywanie dokªadnego testu<br />

Fishera dla tablic kontyngencji 2 x 2 gdy n < 20 lub gdy 20 < n < 40 i najmniejsza<br />

warto±¢ oczekiwana jest mniejsza ni» 5. Przy du»ej liczbie elementów próby stosowany<br />

jest raczej test χ 2 Pearsona.


SMOP-2 B.Kamys: 2007/08 115<br />

11.10.2 TEST χ 2 DLA TABLIC KONTYNGENCJI 2x2<br />

Tablice 2x2 - zwane równie» czteropolowymi tablicami sa szczególnym przypadkiem<br />

tablic rxc (r sªu»y jako skrót angielskiego sªowa row - wiersz, a c jako skrót sªowa<br />

column - kolumna). Gdy liczebno±¢ odpowiadajaca poszczególnym polom jest du»a to<br />

zamiast dokªadnego testu Fishera stosuje sie test χ 2 , który ju» rozpatrywali±my jako test<br />

zgodno±ci przy okazji testowania normalno±ci rozkªadu prawdopodobie«stwa.<br />

• Hipoteza zerowa taka sama jak dla dokªadnego testu Fishera, tj. klasykacja ze<br />

wzgledu na jedna ceche (kategoriom cechy odpowiadaja wiersze) jest niezale»na statystycznie<br />

od klasykacji ze wzgledu na druga ceche (kategoriom cechy odpowiadaja<br />

kolumny).<br />

• Statystyka testowa X 2 - taka jak we wzorze (11.5.3):<br />

X 2 =<br />

k∑ (n i − n · π i ) 2<br />

i=1<br />

gdzie tu suma wykonywana jest po 4 polach tablicy (k = 4), n i oznacza obserwowana<br />

liczebno±¢ w danym polu (oznaczana tradycyjnie O od angielskiego sªowa<br />

observed - obserwowana), a nπ i oznacza teoretyczna liczebno±¢ w danym polu<br />

(oznaczana tradycyjnie E od angielskiego sªowa expected - oczekiwana ). A wiec<br />

powy»szy wzór na statystyke testowa X 2 zapisujemy nastepujaco:<br />

nπ i<br />

2∑ 2∑ (O<br />

X 2 ij − E ij ) 2<br />

=<br />

(87)<br />

E ij<br />

i=1 j=1<br />

Teoretyczna liczebno±¢ wyznaczana jest z liczebno±ci brzegowych (sum po wierszach<br />

dla danej kolumny lub sum po kolumnach dla danego wiersza) przy zaªo»eniu, »e<br />

badane zmienne (cechy) sa niezale»ne.<br />

Prawdopodobie«stwo dwu niezale»nych zdarze« A i B wyra»a sie iloczynem ich<br />

prawdopodobie«stw P (A ∩ B) = P (A) · P (B). Biorac czesto±ci brzegowe jako<br />

estymatory prawdopodobie«stw, np. T (P (A)) = n A<br />

, T (P (B)) = n B<br />

oraz<br />

n n<br />

uwzgledniajac, »e szukamy liczebno±ci a nie prawdopodobie«stwa pola A ∩ B dostaniemy<br />

na te liczebno±¢ n(A ∩ B) = T (P (A)) · T (P (B)) · n czyli ta liczebno±¢<br />

wynosi n A · nB · n = n A·n B<br />

.<br />

n n<br />

n<br />

W tabeli (4) podane sa (nieopisane) obserwowane liczebno±ci oraz ich oczekiwane<br />

odpowiedniki (opisane sªowem expected).<br />

Wstawiajac wyra»enia na O ij i E ij wypisane w powy»szej tabeli dostajemy wyra-<br />

»enie X 2 przez liczebno±ci obserwowane:


SMOP-2 B.Kamys: 2007/08 116<br />

Tablica 4: Czteropolowa (tj. 2x2) tablica kontyngencji - w nawiasach umieszczone sa<br />

oczekiwane liczebno±ci E ij , powy»ej nich - liczebno±ci obserwowane O ij<br />

Cecha<br />

X<br />

Kategoria X 1 X 2 Suma<br />

Y Y 1 m 1 m 2 m<br />

(expected) ( m·n 1<br />

n ) ( m·n 2<br />

n )<br />

Y 2 n 1 − m 1 n 2 − m 2 n − m<br />

(expected) ( (n−m)·n 1<br />

n<br />

) ( (n−m)·n 2<br />

n<br />

)<br />

Suma n 1 n 2 n<br />

X 2 = n · [m 1 · (n 2 − m 2 ) − m 2 · (n 1 − m 1 )] 2<br />

m · (n − m) · n 1 · n 2<br />

(88)<br />

Šatwo zapamieta¢ ten wzór bo w nawiasie kwadratowym licznika mamy ró»nice<br />

iloczynów elementów macierzy na gªównej przekatnej i drugiej przekatnej (czyli<br />

wyznacznik macierzy) a w mianowniku znajduje sie iloczyn wszystkich brzegowych<br />

liczebno±ci.<br />

Wyra»enie to ma asymptotycznie (dla du»ych liczebno±ci) rozkªad χ 2 1 .<br />

Mo»na by przypuszcza¢, »e liczba stopni swobody powinna by¢ wieksza ni» jeden<br />

(bo sa 4 pola a wiec cztery wyrazy w sumie) ale - jak to pokazano dla dokªadnego<br />

testu Fishera - tylko jedna z czterech liczebno±ci jest niezale»na. Pozostaªe trzy sa<br />

jednoznacznie okre±lone przez warto±¢ tej wybranej liczebno±ci i liczebno±ci brzegowe.<br />

Taka sytuacja, tzn. mo»liwo±¢ otrzymania zwartego, prostego wzoru (88) na<br />

X 2 , jak i jednoznaczne okre±lenie wszystkich pól tabeli przez liczebno±¢ jednego<br />

pola jest cecha jedynie tabeli czteropolowych.<br />

Poprawka Yatesa na nieciagªo±¢ . Zmienna losowa χ 2 z denicji jest zmienna<br />

ciagªa. Wyliczanie statystyki X 2 z ilorazu caªkowitych liczb powoduje, »e jej warto±ci<br />

nie reprezentuja wszystkich liczb rzeczywistych, np. nie moga pojawi¢ sie<br />

liczby niewymierne. Co wiecej, ta statystyka mo»e przyja¢ tylko tyle warto±ci ile<br />

jest ró»nych tablic czteropolowych przy ustalonych liczebno±ciach brzegowych. Dlatego,<br />

nawet przy stosunkowo du»ych liczebno±ciach nale»aªoby ten efekt wzia¢ pod<br />

uwage.


SMOP-2 B.Kamys: 2007/08 117<br />

Po uwzglednieniu poprawki zaproponowanej przez Yatesa wzór na X 2 dla tablicy<br />

czteropolowej wyglada nastepujaco:<br />

X 2 = n · (| m 1 · (n 2 − m 2 ) − m 2 · (n 1 − m 1 ) | − n 2 )2<br />

m · (n − m) · n 1 · n 2<br />

(89)<br />

• Obszar krytyczny to du»e warto±ci statystyki X 2 bo jak wynika ze wzoru (87) przy<br />

warto±ciach obserwowanych liczebno±ci O ij bliskich warto±ciom oczekiwanym liczebno±ci<br />

E ij , X 2 jest bliskie zera co jest najmniejsza z dozwolonych przez ten wzór<br />

warto±ci.<br />

Przy zaªo»onym poziomie istotno±ci α obszar krytyczny to zbiór warto±ci statystyki<br />

testowej wiekszy od kwantyla rozkªadu χ 2 1<br />

na poziomie 1 − α:<br />

X 2 > χ 2 1<br />

(1 − α)<br />

Przykªad: Rozwa»my zestawienie [1] wyników próby klinicznej, w której stosowano<br />

dwa sposoby leczenia (A i B)- wyniki zamieszczone sa w tabeli (5).<br />

Tablica 5: Czteropolowa (tj. 2x2) tablica kontyngencji przedstawiajaca wyniki próby<br />

klinicznej<br />

Cecha<br />

Wynik<br />

Kategoria zgon prze»ycie Razem<br />

Leczenie A 41 216 257<br />

B 64 180 244<br />

Razem 105 396 501<br />

Hipoteza zerowa: Wyniki leczenia nie zale»a od sposobu leczenia.<br />

Statystyka testowa: Zmienna X 2 liczona bez poprawki Yatesa i z poprawka, odpowiednio<br />

wg wzorów (88) i (89). Bez poprawki mamy:<br />

501 · (64 · 216 − 41 ·<br />

X 2 180)2<br />

=<br />

257 · 244 · 105 · 396<br />

= 7, 979


SMOP-2 B.Kamys: 2007/08 118<br />

Z poprawka otrzymujemy:<br />

501<br />

501 · (| 64 · 216 − 41 · 180 | −<br />

X 2 2<br />

= )2<br />

257 · 244 · 105 · 396<br />

= 7, 371<br />

Warto±ci statystyki testowej porównujemy z warto±cia kwantyla χ 2 1<br />

(1 − α). Z tablic<br />

znajdujemy, »e ten kwantyl wynosi odpowiednio 3,84 (dla α = 0,05), 5,02 (dla α =<br />

0,025), 6,63 (dla α = 0,01) oraz 10,83 (dla α = 0,001). Wyliczona warto±¢ statystyki<br />

X 2 z próby nale»y do obszaru krytycznego dla poziomu istotno±ci 0,01 ale ju» nie nale»y<br />

do tego obszaru dla poziomu istotno±ci 0,001.<br />

Stad wnioskujemy, »e dwa sposoby leczenia daja istotnie ró»ne wyniki na poziomie<br />

istotno±ci mniejszym od 0,01 lecz wiekszym od 0,001 (tzn. nasz wniosek mo»e by¢<br />

bªedny w mniej ni» jednym przypadku na sto ale cze±ciej ni» raz na tysiac przypadków).<br />

Jak ªatwo zauwa»y¢ ze wzorów na X 2 oraz z warto±ci tej statystyki w powy»szym przykªadzie,<br />

test z poprawka Yatesa jest bardziej konserwatywny, tzn. nie odrzuca hipotezy<br />

zerowej w takich przypadkach gdy test bez poprawki odrzuciªby ja.<br />

11.10.3 WSPÓŠCZYNNIK KORELACJI RANG ϱ SPEARMANA<br />

Przy analizie wspóªzale»no±ci statystycznej dwu zmiennych porzadkowych (asocjacji, kongruencji)<br />

najcze±ciej stosowana miara tej wspóªzale»no±ci jest wspóªczynnik rang Spearmana<br />

oznaczany zwykle przez ϱ (podobnie jak wspóªczynnik Pearsona korelacji cech<br />

mierzalnych) lub r d .<br />

W tym celu obserwacje z obu prób A i B porzadkujemy przypisujac im rangi w ten<br />

sposób, »e najbardziej korzystnej, po»adanej kategorii cechy przypisujemy range 1 a<br />

kolejnym gorszym kategoriom rangi 2, 3, itd. Je»eli kilka kategorii odpowiada równie<br />

korzystnej sytuacji to nadajemy im identyczne rangi (równe ±redniej arytmetycznej rang,<br />

które otrzymaªyby te obserwacje gdyby sie minimalnie ró»niªy).Takie rangi nazywane sa<br />

rangami wiazanymi.<br />

Wspóªczynnik korelacji rang ϱ Spearmana deniowany jest nastepujaco:<br />

ϱ = 1 −<br />

∑<br />

6 n (r 1i − r 2i ) 2<br />

i=1<br />

n(n 2 − 1)<br />

(90)<br />

Tu r 1i i r 2i - oznaczaja rangi dla i-tej kategorii tej samej cechy odpowiednio w pierwszej<br />

i drugiej próbie, przy czym obie próby maja liczebno±¢ n.


SMOP-2 B.Kamys: 2007/08 119<br />

Wspóªczynnik ten przyjmuje warto±ci z przedziaªu [-1,+1]:<br />

• ϱ = +1 w przypadku idealnej zgodno±ci rang,<br />

• ϱ = −1 w przypadku maksymalnej niezgodno±ci (du»ym r 1i odpowiadaja maªe<br />

r 2i i odwrotnie)<br />

• ϱ = 0 w przypadku czysto losowego ustawienia rang, tzn. przy ich niezale»no±ci<br />

w obu porównywanych ciagach.<br />

Na przykªad: poproszono dwie osoby o uporzadkowanie ich preferencji kulinarnych<br />

dotyczacych kilku zup.<br />

Pierwsza osoba podaªa nastepujace preferencje:<br />

Barszcz czerwony, »urek, pomidorowa, ogórkowa, rosóª, chªodnik.<br />

Druga:<br />

Chªodnik, ogórkowa, pomidorowa, barszcz czerwony, »urek, rosóª.<br />

Preferencje pierwszej osoby mo»emy uzna¢ za wzorzec i przyporzadkowa¢ im kolejne<br />

liczby naturalne: 1, 2, 3, 4, 5, 6. Tym rangom beda odpowiadaªy nastepujace rangi<br />

wybrane przez druga osobe: 4, 5, 3, 2, 6, 1.<br />

Suma kwadratów ró»nicy rang bedzie wynosi¢ 9+9+0+4+1+25=48. Poniewa» n=6<br />

wiec wspóªczynnik ϱ=1-6*48/[6*(36-1)]= - 0,37.<br />

Wniosek: Obie osoby maja niezgodne preferencje kulinarne.<br />

Oczywi±cie dla ilo±ciowego testowania czy odchylenie wspóªczynnika korelacji rang od<br />

zera jest istotne trzeba korzysta¢ ze specjalnych tablic. Je»eli liczba obserwacji n jest<br />

wieksza od 10 to mo»na posªu»y¢ sie asymptotycznymi wzorami, poniewa» dla du»ych<br />

prób wspóªczynnik korelacji rang ma w przybli»eniu rozkªad normalny. W tym<br />

celu korzystamy z twierdzenia:<br />

TWIERDZENIE: Je»eli prawdziwa jest hipoteza zerowa gªoszaca, »e rangi dwu serii obserwacji<br />

sa niezale»ne statystycznie to :<br />

E{ϱ} = 0<br />

V ar{ϱ} = 1<br />

n−1<br />

A wiec dla n > 10 mo»na u»ywa¢ poni»szego przybli»onego wzoru [4]:<br />

P (ϱ > R) ≈ 1 − Φ { √ [ ]}<br />

n − 1 · R · 1 +<br />

0,19<br />

− 3<br />

R 2 n−1<br />

≈ 1 − Φ( √ n − 1 · R)<br />

(91)


SMOP-2 B.Kamys: 2007/08 120<br />

W tym wzorze Φ oznacza dystrybuante standardowego rozkªadu normalnego.<br />

Mo»na równie» dla n ≥ 10 stosowa¢ transformacje [7]:<br />

t = ϱ√ n − 2<br />

1 − ϱ 2<br />

Zmienna t ma rozkªad Studenta o (n-2) stopniach swobody. Poniewa» o znaku t decyduje<br />

znak ϱ wiec dla t stosuje sie identyczny obszar krytyczny (lewostronny, prawostronny lub<br />

dwustronny) jak dla ϱ.<br />

W tabeli poni»ej podane sa kwantyle testu Spearmana ϱ 0,95 i ϱ 0,99 dla prób o maªej liczebno±ci.<br />

Mozna je zastosowa¢ do sprawdzania testu prawostronnego dla dwu najcze±ciej<br />

stosowanych poziomów istotno±ci: α = 0, 05 i α = 0, 01. Dla testu lewostronnego nale»y<br />

wykorzysta¢ fakt, »e ϱ q = −ϱ 1−q :<br />

n ϱ 0,95 ϱ 0,99 n ϱ 0,95 ϱ 0,99<br />

4 1,000 14 0,456 0,645<br />

5 0,900 1,000 16 0,425 0,601<br />

6 0,829 0,943 18 0,399 0,564<br />

7 0,714 0,893 20 0,377 0,534<br />

8 0,643 0,833 22 0,359 0,508<br />

9 0,600 0,783 24 0,343 0,485<br />

10 0,564 0,746 26 0,329 0,465<br />

12 0,506 0,712 28 0,317 0,448<br />

14 0,456 0,645 30 0,306 0,432


SMOP-2 B.Kamys: 2007/08 121<br />

11.10.4 WSPÓŠCZYNNIK KORELACJI RANG τ KENDALLA<br />

Wspóªczynnik korelacji rang τ Kendalla daje równowa»ne informacje do tych, które mo»na<br />

uzyska¢ analizujac wspóªczynnik korelacji rang ϱ Spearmana tzn. równy jest +1, -1 i 0<br />

gdy rangi w dwu próbach uszeregowane sa identycznie, odwrotnie i losowo. Wspóªczynnik<br />

τ Kendalla m ma dwie zalety w porównaniu do wspólczynnika korelacji rang Spearmana:<br />

1. ªatwiej mo»na go skorygowa¢, gdy istnieje wiele rang wiazanych,<br />

2. jest szybciej zbie»ny do rozkªadu normalnego ni» wspóªczynnik ϱ Spearmana.<br />

DEFINICJA:<br />

S =<br />

n∑<br />

n∑<br />

i=1 j=i+1<br />

τ =<br />

S<br />

1<br />

n(n − 1)<br />

2<br />

sign(r j − r i )<br />

gdzie r i i r j sa rangami w zbiorze kategorii cechy drugiej ( rangi dla cechy pierwszej<br />

ustawione sa jako rosnacy ciag liczb naturalnych: 1,2, .. z ewentualna modykacja<br />

dla cech wiazanych). Przyczynki do sumy deniujacej S liczymy nastepujaco: porównujemy<br />

piewsza range z druga, z trzecia, itd., nasteepnie druga range z trzecia, czwarta, itd.<br />

(ªacznie n(n-1)/2 wyrazów)<br />

• dla naturalnej kolejno±ci rang przyczynek +1,<br />

• dla odwróconej kolejno±ci rang przyczynek -1,<br />

• dla rang wiazanych (identycznych) przyczynek 0.<br />

Je»eli zdarzy sie, »e równie» dla pierwszej cechy wystepuja rangi wiazane to odpowiadajacym<br />

im parom rang cechy drugiej przypisujemy przyczynek 0 niezale»nie od ich uporzadkowania .<br />

Przykªad 1 (rangi wiazane tylko dla cechy drugiej - Y):<br />

Suma wszystkich przyczynków daje S=6.<br />

Przykªad 2 (rangi wiazane zarówno dla pierwszej cechy - X jak i dla drugiej cechy -Y):<br />

Suma wszystkich przyczynków do S daje S=4 . Gdy wystepuja rangi wiazane musimy<br />

w inny sposób normalizowa¢ sume S aby dosta¢ τ:<br />

τ =<br />

[<br />

1√<br />

2<br />

n(n − 1) − m ∑<br />

i=1<br />

S<br />

] [ ]<br />

∑<br />

t i (t i − 1) n(n − 1) − r u j (u j − 1)<br />

j=1


SMOP-2 B.Kamys: 2007/08 122<br />

Rangi cechy X 1 2 3 4 5 6<br />

Rangi cechy Y 2 3 4.5 4.5 1 6<br />

Przyczynki do S (od 2) +1 +1 +1 -1 +1<br />

Przyczynki do S (od 3) +1 +1 -1 +1<br />

Przyczynki do S (od 4.5) 0 -1 +1<br />

Przyczynki do S (od 4.5) -1 +1<br />

Przyczynki do S (od 1) +1<br />

Rangi cechy X 1.5 1.5 3 5 5 5<br />

Rangi cechy Y 2 3 4.5 4.5 1 6<br />

Przyczynki do S (od 2) 0 +1 +1 -1 +1<br />

Przyczynki do S (od 3) +1 +1 -1 +1<br />

Przyczynki do S (od 4.5) 0 -1 +1<br />

Przyczynki do S (od 4.5) 0 0<br />

Przyczynki do S (od 1) 0<br />

Suma po wska¹niku i to suma po grupach rang wiazanych dla pierwszej zmiennej, t i<br />

to liczebno±¢ i-tej grupy rang, a suma po wska¹niku j to suma po grupach rang wiazanych<br />

dla drugiej zmiennej, u j to liczebno±¢ j-tej grupy rang.<br />

W pierwszym przykªadzie powy»ej wspóªczynnik τ bedzie liczony wg wzoru:<br />

τ =<br />

=<br />

S<br />

1<br />

2√<br />

n(n−1)[n(n−1)−2(2−1)]<br />

6<br />

1<br />

2√<br />

6(6−1)[6(6−1)−2(2−1)]<br />

= 0, 414


SMOP-2 B.Kamys: 2007/08 123<br />

W drugim przykªadzie powy»ej wspóªczynnik τ bedzie liczony wg wzoru:<br />

=<br />

τ =<br />

S<br />

1<br />

2√<br />

n(n−1)[n(n−1)−2(2−1)]<br />

4<br />

1<br />

2√<br />

[6(6−1)−2(2−1)−3(3−1)][6(6−1)−2(2−1)]<br />

= 0, 322<br />

Policzenie wspóªczynnika τ i blisko±¢ jego warto±ci do granicznych warto±ci (+1,-1 lub<br />

0) pozwalaja wyciagna¢ wnioski jako±ciowo o korelacji rang.<br />

Dla ilo±ciowego testowania hipotezy H 0 : τ = 0<br />

wygodniej jest rozwa»a¢ sama sume S deniowana powy»ej. Suma ta bardzo szybko da»y<br />

do rozkªadu normalnego a wiec dla n≥ 10 mo»na sie posªugiwa¢ tablicami rozkªadu N(0,1)<br />

je»eli bedziemy rozwa»a¢ zmienna<br />

z = |S| − 1<br />

σ(S)<br />

przy czym wariancja S σ 2 (S) liczona jest z poni»szych wzorów (dla przypadku gdy nie<br />

ma rang wiazanych i gdy sa rangi wiazane):<br />

a) bez rang wiazanych:<br />

σ 2 (S) =<br />

n(n − 1)(2n + 5)<br />

18<br />

b) z rangami wiazanymi:<br />

σ 2 (S) = 1 18<br />

[<br />

[<br />

1<br />

m∑<br />

+<br />

9n(n−1)(n−2)<br />

i=1<br />

[ m∑<br />

+ 1<br />

2n(n−1)<br />

i=1<br />

n(n − 1)(2n + 5) − m ∑<br />

t i (t i − 1)(t i − 2)<br />

i=1<br />

] [ r∑<br />

t i (t i − 1)(2t i + 5) −<br />

j=1<br />

]<br />

] [ r∑<br />

t i (t i − 1) u j (u j − 1)<br />

j=1<br />

r ∑<br />

j=1<br />

]<br />

u j (u j − 1)(u j − 2)<br />

u j (u j − 1)(2u j + 5)<br />

]


SMOP-2 B.Kamys: 2007/08 124<br />

Wzory te a szczególnie ostatni wygladaja skomplikowanie ale liczby w nich wystepujace<br />

sa niewielkie, a wiec rachunki nie sa trudne.<br />

Jako przykªad rozwa»my przypadek rozwa»any oryginalnie przez Kendalla: Egzamin<br />

zdawaªo o±miu chªopców (C) i siedem dziewczat (D). Pytanie brzmiaªo: Czy wyniki egzaminu<br />

dla chªopców sa inne ni» dla dziewczat. W tabelce poni»ej w pierwszym wierszu<br />

podana jest ranga uzyskana na egzaminie a w drugim kategoria cechy jako±ciowej czyli<br />

pªci:<br />

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15<br />

C C D C D D C C C D C D C D D<br />

Ze wzgledu na druga ceche mamy dwie grupy rang wiazanych o liczebno±ci 8 (chªopcy) i<br />

7 (dziewczeta). Biorac jako wspólna range dla chªopców ±rednia z rang 1 - 8 = 4,5 a dla<br />

dziewczat ±rednia z rang 9 - 15 = 12 dostajemy tabelke:<br />

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15<br />

4,5 4,5 12 4,5 12 12 4,5 4,5 4,5 12 4,5 12 4,5 12 12<br />

Suma S liczona wedªug przepisu podanego wy»ej na podstawie tych rang wynosi:<br />

S=7+7-6+6-5-5+4+4+4-2+3-1+2+0=18.<br />

Wspóªczynnik τ:<br />

τ =<br />

18<br />

= 0, 235<br />

√15(15 − 1) [15(15 − 1) − 8(8 − 1) − 7(7 − 1)]<br />

1<br />

2<br />

Jest on niewielki co sugeruje, »e H0 jest prawdziwa (przy czym jego znak nie ma<br />

znaczenia bo zale»y od konwencji, w której mniejsze rangi nadano chªopcom a to byªo<br />

arbitralne).<br />

Dla ilo±ciowego testu liczymy wariancje zmiennej S (korzystajac ze skomplikowanego<br />

wzoru podanego powy»ej). Poniewa» rangi dla pierwszej cechy (jako±¢ zdawania) nie sa<br />

powiazane wiec wzór bardzo sie upraszcza bo sumy, w których wystepuje t i znikaja i<br />

dostajemy:<br />

√<br />

σ(S) = 1<br />

[15(15 − 1)(2 · 15 + 5) − 8(8 − 1)(2 · 8 + 5) − 7(7 − 1)(2 · 7 + 5)] = 17, 28<br />

18<br />

a standaryzowana zmienna o rozkªadzie normalnym bedzie miaªa warto±¢:<br />

z = |S| − 1<br />

σ(S)<br />

= 18 − 1<br />

17, 28<br />

= 0, 984<br />

Je»eli jako poziom istotno±ci we¹miemy α=0,05 to przy te±cie dwustronnym dostaniemy<br />

obszar krytyczny z > 1, 96 lub z < −1, 96. Poniewa» z z do±wiadczenia nie<br />

traa do obszaru krytycznego wiec nie ma podstaw odrzuca¢ hipotezy zerowej.


SMOP-2 B.Kamys: 2007/08 125<br />

11.10.5 ANALIZA ASOCJACYJNA<br />

Analiza korelacyjna cech niemierzalnych sprowadza sie do badania, czy okre±lone kombinacje<br />

wariantów rozpatrywanych cech maja tendencje do wyra¹nie czestszego lub wyra¹nie<br />

rzadszego pojawiania sie ni» by to miaªo miejsce w przypadku niezale»no±ci cech X i Y.<br />

Taka analize wystepowania skojarze« okre±lonych wariantów cech nazywa sie "analiza<br />

asocjacyjna".<br />

Wyró»niamy r wariantów cechy jako±ciowej X (r≥2) oraz c wariantów cechy jako±ciowej<br />

Y (c≥2). Niech n oznacza liczbe obserwacji w próbie, n i· i n·j liczbe obserwacji w<br />

których zaobserwowano wariant x i cechy X i wariant y j cechy Y oraz n ij niech oznacza<br />

liczbe obserwacji w których zaobserwowano zarówno i-ty wariant cechy X jak i j-ty wariant<br />

cechy Y.<br />

Wielko±ci te speªniaja relacje:<br />

r∑ c∑<br />

r∑<br />

c∑<br />

n ij = n i· = n·j = n<br />

i=1 j=1 i=1 j=1<br />

WSPÓŠCZYNNIK KORELACJI CECH NIEMIERZALNYCH<br />

R xi ,y j<br />

Deniujemy go nastepujaco:<br />

R xi y j<br />

=<br />

√<br />

ni·<br />

n (1 − n i·<br />

n ij<br />

− n i· n·j<br />

n n n<br />

)<br />

n·j<br />

n n<br />

(1 −<br />

n·j<br />

n )<br />

Wspóªczynnik ten przyjmuje warto±ci z przedziaªu [-1,+1] przy czym<br />

• R=0 dla nieskorelowanych wariantów x i i y j ,<br />

• R=+1 wtedy i tylko wtedy, gdy warianty x i i y j wystepuja w próbie zawsze razem,<br />

• R=-1 wtedy i tylko wtedy, gdy wystepowanie jednego z wariantów wyklucza pojawienie<br />

sie drugiego z nich.<br />

Ten wspóªczynnik korelacji pozwala wnioskowa¢ o niezale»no±ci (lub okre-<br />

±lonym typie zale»no±ci) dwu wyró»nionych wariantów cech X i Y.<br />

Ujemna warto±¢ empirycznego wsp. korelacji oznacza, »e wzgledna czesto±¢ ªacznego<br />

wystepowania wariantów x i i y j jest mniejsza ni» dla niezale»nych cech Xi Y, dodatnia<br />

oznacza, »e wzgledna czesto±¢ równoczesnego wystepowania wariantów x i i y j jest wieksza<br />

ni» dla niezale»nych cech X i Y.<br />

Wzór denicyjny mo»na przepisa¢ w formie wygodniejszej dla oblicze«:


SMOP-2 B.Kamys: 2007/08 126<br />

R xi y j<br />

=<br />

n · n ij − n i· · n·j<br />

√<br />

ni· · (n − n i·) · n·j · (n − n·j )<br />

PRZYKŠAD (zaczerpniety z [14]):<br />

Dostawcy<br />

Jako±¢ surowców B1 B2 B3 B4 Ogóªem<br />

Dobra A1 35 23 60 31 149<br />

Przecietna A2 17 11 15 20 63<br />

Zªa A3 6 7 10 15 38<br />

Ogóªem 58 41 85 66 250<br />

Macierz wspóªczynników R Ai ,B j<br />

(to nie jest zwykªa macierz korelacji !!):<br />

Dostawcy<br />

Jako±¢ surowców B1 B2 B3 B4<br />

Dobra A1 0,0083 -0,0316 0,1607 -0,1542<br />

Przecietna A2 0,0520 0,0166 -0,1249 0,0704<br />

Zªa A3 -0,0743 0,0231 -0,0687 0,1256<br />

Przeglad warto±ci wspóªczynników korelacji pokazuje, »e najwieksza dodatnia warto±¢<br />

ma wspóªczynnik R A1 ,B 3<br />

=0,1607 a najmniejsza (ujemna) wspóªczynnik R A1 ,B 4<br />

=-0,1542.<br />

Drugi najwiekszy wspóªczynnik korelacji to R A3 ,B 4<br />

=0,1256 a drugi najmniejszy (ujemny)<br />

to wspóªczynnik R A1 ,B 4<br />

=-0,1249. Nale»y to interpretowa¢ w ten sposób, »e:<br />

• Surowce dostarczane przez dostawce B3 maja dobra jako±¢ wyra¹nie cze±ciej ni»<br />

gdyby to byªo przypadkowe (R A1 ,B 3<br />

=0,1607),<br />

• Surowce dostraczane przez dostawce B4 maja dobra jako±¢ wyra¹nie rzadziej, ni»<br />

gdyby to byªo przypadkowe (R A1 ,B 4<br />

=-0,1542).


SMOP-2 B.Kamys: 2007/08 127<br />

• Surowce dostarczane przez dostawce B4 maja zªa jako±¢ cze±ciej ni» gdyby to byªo<br />

przypadkowe (R A3 ,B 4<br />

=0,1256),<br />

• Surowce dostarczane przez dostawce B3 maja przecietna jako±¢ rzadziej ni» gdyby<br />

to byªo przypadkowe (R A1 ,B 4<br />

=-0,1249).<br />

(uogólnienie z przy-<br />

TEST CHI-KWADRAT NIEZALE›NO‘CI CECH X i Y<br />

padku 2x2)<br />

Hipoteza zerowa:<br />

Ka»de zdarzenie losowe x i jest parami niezale»ne od ka»dego ze zdarze« y j .<br />

Statystyka testowa:<br />

X 2 =<br />

r ∑<br />

c∑<br />

i=1 j=1<br />

ˆn ij = n n i·<br />

n<br />

n·j<br />

n<br />

(n ij −ˆn ij ) 2<br />

ˆn ij<br />

K. Pearson udowodniª, »e ta statystyka ma przy prawdziwo±ci hipotezy zerowej asymptotycznie<br />

(tzn. dla n→ ∞) rozkªad chi-kwadrat o (r-1)(c-1) stopniach swobody.<br />

Obszar krytyczny: prawostronny.<br />

PRZYKŠAD (zaczerpniety z [14]):<br />

Korzystajac z danych umieszczonych w tabeli z poprzedniego przykªadu mo»na wyliczy¢<br />

macierz warto±ci<br />

⎡<br />

ˆn ij =<br />

⎢<br />

⎣<br />

35, 0 24, 4 50, 7 38, 9<br />

14, 6 20, 3 21, 4 16, 7<br />

8, 4 6, 3 12, 9 10, 4<br />

⎤<br />

⎥<br />

⎦<br />

wstawiajac te wielko±ci do wzoru na statystyke testowa dostaniemy:


SMOP-2 B.Kamys: 2007/08 128<br />

X 2 =<br />

(35 − 35)2<br />

35<br />

+<br />

(23 − 24, 4)2<br />

24, 4<br />

+ . . . +<br />

(15 − 10, 4)2<br />

10, 4<br />

= 10, 8<br />

Liczba stopni swobody zmiennej χ 2 wynosi 6≡ (3 − 1) · (4 − 1). Obszar krytyczny na<br />

poziomie istotno±ci α=0,1 to X 2 > χ 2 6 (1 − α) ≡ χ2 6<br />

(0, 9) = 16, 8.<br />

Poniewa» X 2 jest mniejsze od tej warto±ci, wiec nie ma podstaw do odrzucenia H 0 .<br />

11.10.6 MIARY SIŠY ZWIA ZKU NOMINALNYCH CECH JAKO‘CIO-<br />

WYCH<br />

W dwu poprzednich rozdziaªach zajmowali±my sie metodami stwierdzenia, »e zmienne<br />

jako±ciowe nie sa od siebie niezale»ne. Po zastosowaniu tych metod mogli±my dowiedzie¢<br />

sie, »e zwiazek statystyczny istnieje ale nie dostali±my iformacji czy jest to silny zwiazek.<br />

Jak nale»y rozumie¢ okre±lenie sªaby zwiazek lub silny zwiazek ?<br />

Dla zmiennych ilo±ciowych jest to ªatwe do zdeniowania - najsilniejszym zwiazkiem<br />

bedzie zwiazek funkcyjny, który polega na tym, »e warto±¢ argumentu (pierwsza rozpatrywana<br />

zmienna) jednoznacznie okre±la warto±¢ funkcji (druga rozpatrywana zmienna) i<br />

vice versa (gdy funkcja jest monotoniczna).<br />

Dla zmiennych jako±ciowych mo»emy przez analogie rozumowa¢, »e silny zwiazek to<br />

taki, przy którym przyjmowanie przez zmienna jako±ciowa jakiej± kategorii powoduje, »e<br />

druga zmienna jako±ciowa te» bedzie nale»e¢ do wybranej kategorii.<br />

Na przykªad, jako jedna zmienna jako±ciowa mo»emy przyja¢ rodzaj podawanego leku<br />

a jako druga skuteczno±¢ kuracji. Kategoriami pierwszej zmiennej sa konkretne leki a<br />

kategoriami drugiej zmiennej jest pozytywny lub negatywny skutek leczenia. Gdy podanie<br />

leku A zawsze ko«czy sie wyleczeniem pacjenta a podanie leku B zawsze nie przynosi<br />

skutku to wtedy w sposób oczywisty mamy do czynienia z najsilniejszym mo»liwym<br />

zwiazkiem pomiedzy rodzajem leku i skuteczno±cia terapii. Warto zauwa»y¢, »e dla tablic<br />

kontyngencji 2x2 jest to przypadek odpowiadajacy maksymalnej ró»nicy warto±ci iloczynu<br />

elementów na gªównej i drugiej przekatnej. Jak przekonamy sie za chwile, jest to jedna z<br />

cech wykorzystywanych do oceniania miary siªy zwiazku.<br />

MIARY SIŠY ZWIA ZKU OPARTE O χ 2 .<br />

Korzystajac ze wzoru (88) na X 2 oraz wzorów na E ij podanych w tabeli (4) widzimy, »e<br />

X 2 zeruje sie dla niezale»nych zmiennych bo iloczyny wyrazów na przekatnych sa identyczne.<br />

Z drugiej strony wiemy z rozwa»a« podanych powy»ej »e najsilniejszy zwiazek<br />

odpowiada sytuacji, gdy jest maksymalna ró»nica iloczynów wyrazów na obu przekatnych,


SMOP-2 B.Kamys: 2007/08 129<br />

co wg wzoru (88) oznacza najwieksza warto±¢ statystyki X 2 . To mogªoby nasuna¢ przypuszczenie,<br />

»e warto±¢ tej statystyki mogªaby by¢ miara siªy zwiazku. Niestety warto±¢<br />

X 2 zale»y nie tylko od siªy zwiazku ale równie» od liczebno±ci próby - ro±nie proporcjonalnie<br />

do liczebno±ci próby.<br />

Gdy zwiekszymy N-krotnie liczebno±¢ próby n to wszystkie liczebno±ci O ij i E ij <br />

równie» powieksza sie N-krotnie. To spowoduje, »e statystyka X 2 tak»e zwiekszy sie N-<br />

krotnie (licznik N 2 -krotnie a mianownik N-krotnie). Dzieje sie tak przy tym samym zwiazku<br />

pomiedzy zmiennymi a wiec wida¢, »e musimy sie pozby¢ zale»no±ci od liczebno±ci próby<br />

aby mo»na byªo statystyke X 2 u»ywa¢ jako miare siªy zwiazku.<br />

Jako miare siªy zwiazku dla próby o liczebno±ci n wprowadza sie nastepujaca statystyke<br />

(nazywana czasem wspóªczynnikiem Yule'a):<br />

Φ 2 ≡ X2<br />

n . (92)<br />

Dla tablic 2xk (a wiec i dla tablic 2x2 ) Φ 2 przyjmuje warto±ci z przedziaªu<br />

[0,1], przy czym niezale»nym zmiennym odpowiada warto±¢ zero a najsilniejszemu<br />

zwiazkowi warto±¢ jeden. W ogólnym przypadku tablic rxc Φ 2 mo»e<br />

znacznie przekroczy¢ jedno±¢.<br />

Dlatego wprowadzono równie» inne miary siªy zwiazku oparte na statystyce X 2 [10].<br />

Sa to:<br />

• wspóªczynnik T - Czuprowa,<br />

• wspóªczynnik C - Cramera (nazywany równie» wspóªczynnikiem V - Cramera) i<br />

• wspóªczynnik P - Pearsona (nazywany tak»e wspóªczynnikiem C - Pearsona).<br />

WSPÓŠCZYNNIK T CZUPROWA:<br />

T ≡<br />

X 2<br />

√ √<br />

n · (r − 1)(c − 1) ± σ(X 2 )<br />

√<br />

2 · n · (r − 1)(c − 1) · T<br />

(93)<br />

Wspóªczynnik T osiaga warto±¢ +1 przy najsilniejszym zwiazku tylko wtedy gdy liczby<br />

kolumn (c) i wierszy (r) sa takie same. W przeciwnym wypadku jest mniejszy od jedno±ci.<br />

Najwieksza jego warto±¢ to:


SMOP-2 B.Kamys: 2007/08 130<br />

max(T ) = √<br />

min(r − 1, c − 1)<br />

max(r − 1, c − 1)<br />

Gdy zmienne nie sa wspóªzale»ne to wspóªczynnik T zeruje sie.<br />

Poniewa» wspóªczynnik T jest statystyka, wiec jest obarczony bªedem. Estymator<br />

bªedu jest równie» podany we wzorze (93). Oczywi±cie wzór ten jest dany dla T ≠ 0.<br />

WSPÓŠCZYNNIK C CRAMERA<br />

X<br />

C ≡ √<br />

2<br />

n · min[(r − 1)(c − 1)] ± σ(X 2 )<br />

2 · n · min(r − 1, c − 1) · C<br />

(94)<br />

Wspóªczynnik C Cramera zachowuje sie podobnie jak wspóªczynnik Czuprowa, tzn.<br />

znika gdy nie ma zale»no±ci pomiedzy zmiennymi a ro±nie gdy zale»no±¢ taka pojawia sie<br />

ale ma te zalete, »e jego maksymalna warto±¢ jest równa +1 dla dowolnej liczby wierszy i<br />

kolumn. Bªad tego wspóªczynnika podany we wzorze (94) równie» jest okre±lony tylko<br />

dla C ≠ 0.<br />

WSPÓŠCZYNNIK P PEARSONA:<br />

P ≡ √<br />

X2<br />

X 2 + n ± n · σ(X 2 )<br />

(95)<br />

2 ·<br />

√X 2 · (n + X 2 ) 3<br />

Wspóªczynnik P jest zawsze mniejszy od jedno±ci. Dla zmiennych caªkowicie niezale»nych<br />

ten wspóªczynnik zeruje sie ale przy istnieniu zwiazku miedzy zmiennymi jego<br />

warto±¢ zale»y od liczby wierszy i kolumn tablicy kontyngencji. Na przykªad, dla tablic<br />

2x2 przyjmuje warto±¢ 1 √<br />

2<br />

.<br />

Powy»sze trzy wspóªczynniki wykorzystuja wªasno±ci statystyki X 2 a jedynie sa w<br />

ró»ny sposób normowane. Dzieki jednoznacznej normalizacji (zero dla zmiennych niezale»-<br />

nych, jeden dla najsilniejszego zwiazku) najbardziej wygodnym wspóªczynnikiem wydaje<br />

sie by¢ wspóªczynnik C - Cramera. W literaturze mo»na jednak spotka¢ sie z u»ywaniem<br />

wszystkich trzech wspóªczynników.<br />

Poni»ej podamy jeszcze jeden wspóªczynnik u»ywany do okre±lania siªy zwiazku pomiedzy<br />

nominalnymi zmiennymi jako±ciowymi nie wykorzystujacy statystyki X 2 . Jest to wielko±¢<br />

nazywana wspóªczynnikiem Q - Kendalla mimo i» Kendall gªosi autorstwo Yule'a<br />

[10].


SMOP-2 B.Kamys: 2007/08 131<br />

WSPÓŠCZYNNIK Q - KENDALLA stosowany tylko dla tablic kontyngencji 2x2<br />

zdeniowany jest nastepujacym wzorem:<br />

Q ≡ m 1 · (n 2 − m 2 ) − m 2 · (n 1 − m 1 )<br />

m 1 · (n 2 − m 2 ) + m 2 · (n 1 − m 1 )<br />

(96)<br />

Jest to jak wida¢ unormowany wyznacznik tablicy kontyngencji. Dlatego przyjmuje<br />

warto±ci z przedziaªu [−1, +1], przy czym dla zmiennych niezale»nych zeruje sie a<br />

dla najsilniejszego zwiazku Q = ±1.


SMOP-2 B.Kamys: 2007/08 132<br />

11.11 Test istotno±ci dla wspóªczynnika korelacji Pearsona<br />

Wspóªczynnik korelacji ϱ(X, Y ), który omawiali±my przy deniowaniu macierzy kowariancji<br />

• mówi o istnieniu zale»no±ci liniowej zmiennych X i Y gdy jego warto±¢ zbli»ona<br />

jest (co do moduªu) do jedno±ci,<br />

• zeruje si¦, gdy zmienne X i Y s¡ niezale»ne statystycznie (tw. odwrotne nie zawsze<br />

jest sªuszne, tj. zerowanie si¦ wspóªczynnika korelacji jest warunkiem koniecznym a<br />

nie wystarczaj¡cym niezale»no±ci zmiennych).<br />

Wa»ne jest wi¦c badanie nast¦puj¡cych hipotez:<br />

1. H 0 : ϱ = ϱ 0<br />

2. H 0 : ϱ = 0<br />

Estymatorem wspóªczynnika korelacji T n (ϱ) jest<br />

r ≡<br />

n∑<br />

i=1<br />

√ [ n∑<br />

(x i − ¯x) (y i − ȳ)<br />

] [ n∑<br />

].<br />

(x i − ¯x) 2 (y i − ȳ) 2<br />

i=1<br />

i=1<br />

R.A. Fisher pokazaª, »e je»eli zmienne X i Y pochodz¡ z dwuwymiarowego rozkªadu<br />

Gaussa to mo»na poda¢ ±cisªy wzór na rozkªad estymatora r wspóªczynnika korelacji ϱ<br />

sªuszny dla wszystkich warto±ci ϱ (z wyj¡tkiem |ϱ| = 1) i dla wszystkich rozmiarów<br />

próby n:<br />

f (r) = n − 2<br />

π<br />

(<br />

1 − ϱ<br />

2 ) n−1<br />

2<br />

(<br />

1 − r<br />

2 ) n−4<br />

2<br />

∫1<br />

0<br />

t n−2 dt<br />

(1 − rϱt) n−1 √ 1 − t 2<br />

Rozkªad ten mo»e by¢ u»yty do numerycznego obliczania odpowiednich warto±ci krytycznych<br />

r(n, α) przy ustalonej warto±ci ϱ. Ze wzgl¦du na to, »e tego typu obliczenia<br />

mog¡ by¢ skomplikowane a stosowanie tablic lub procedur obliczania kwantyli rozkªadu<br />

standardowego normalnego jest powszechnie znane wi¦c najcz¦±ciej nie korzysta si¦ z<br />

powy»szego wzoru lecz posªuguje si¦ wynikami twierdzenia podanego poni»ej (tak»e udowodnionego<br />

przez R.A. Fishera).<br />

TWIERDZENIE: Je»eli r jest estymatorem wspóªczynnika korelacji z próby prostej o<br />

liczebno±ci n > 3 z populacji o dwuwymiarowym rozkªadzie normalnym i wspóªczynniku<br />

korelacji ϱ to zmienna z zdeniowna poni»ej ma w przybli»eniu standardowy rozkªad<br />

normalny: f(z) = N(0, 1):<br />

z = √ [ 1<br />

n − 3<br />

2<br />

]<br />

(1 + r) (1 − ϱ)<br />

ln<br />

(1 − r) (1 + ϱ) − ϱ<br />

2 (n − 1)


SMOP-2 B.Kamys: 2007/08 133<br />

ad (1) H 0 : ϱ = ϱ 0 Stosujemy powy»sze przeksztaªcenie i w zale»no±ci od hipotezy<br />

alternatywnej okre±lamy obszar krytyczny dla danego poziomu istotno±ci α.<br />

H 1<br />

Obszar krytyczny<br />

ϱ ≠ ϱ 0 z < z α/2<br />

⋃ z > z1−α/2<br />

ϱ > ϱ 0<br />

z > z 1−α<br />

ϱ < ϱ 0<br />

z < z α<br />

ad (2) H 0 : ϱ = 0 Dla tej szczególnej warto±ci ϱ 0 mo»na u»y¢ tej samej metody jak<br />

dla innych, rozwa»anych powy»ej warto±ci ale mo»na skorzysta¢ z innego przeksztaªcenia:<br />

TWIERDZENIE: Je»eli badana próba prosta o liczebno±ci n pochodzi z dwuwymiarowej<br />

populacji normalnej, w której ϱ = 0, to zmienna losowa v zdeniowana<br />

poni»ej ma rozkªad Studenta o n − 2 stopniach swobody.<br />

v =<br />

√ n − 2 · r<br />

√ 1 − r<br />

2<br />

Korzystamy wówczas z poni»szych reguª okre±lania obszaru krytycznego:<br />

H 1<br />

Obszar krytyczny<br />

ϱ ≠ 0 v < t (n−2); α/2<br />

⋃ v > t(n−2); 1−α/2<br />

ϱ > 0<br />

ϱ < 0<br />

v > t (n−2); 1−α<br />

v < t (n−2); α


SMOP-2 B.Kamys: 2007/08 134<br />

11.12 Test istotno±ci dla stosunku korelacyjnego<br />

W przypadku, gdy badamy nieliniowy zwi¡zek pomi¦dzy zmiennymi X i Y zastosowanie<br />

wspóªczynnika korelacji liniowej ϱ(x, y) (Pearsona) nie daje nam peªnej informacji o<br />

postulowanym zwi¡zku lub o jego braku. Spowodowane jest to tym, »e zerowanie si¦<br />

tego wspóªczynnika korelacji mo»e zachodzi¢ równie» wtedy gdy istnieje ±cisªy zwi¡zek<br />

nieliniowy pomi¦dzy zmiennymi.<br />

Dla siªy nieliniowego zwi¡zku statystycznego pomi¦dzy ilo±ciowymi zmiennymi losowymi<br />

X i Y stosuje si¦ wi¦c inny wielko±ci. S¡ nimi:<br />

1. Wspóªczynnik zgodno±ci ϕ 2<br />

2. Wspóªczynnik korelacji krzywoliniowej R ≡ √ 1 − ϕ 2<br />

3. Stosunek korelacyjny zmiennej Y wzgl¦dem X: H 2 X|Y<br />

4. Stosunek korelacyjny zmiennej X wzgl¦dem Y: H 2 Y |X<br />

ad (1): Wspóªczynnik zgodno±ci deniuje si¦ jako:<br />

ϕ 2 =<br />

n∑<br />

i=1<br />

n∑<br />

[y i − f(x i )] 2<br />

i=1<br />

[y i − ȳ] 2<br />

gdzie y i i x i to zmierzone pary warto±ci zmiennych Y i X wyst¦puj¡ce w próbie o<br />

liczebno±ci n , ȳ to ±rednia arytmetyczna warto±ci zmiennej Y w próbie a f(x) to funkcja<br />

regresji z parametrami dobranymi metod¡ najmniejszych kwadratów.<br />

Zgodnie z podstawow¡ wªasno±ci¡ funkcji regresji i metody najmniejszych kwadratów<br />

suma kwadratów w liczniku musi by¢ nie wi¦ksza od sumy kwadratów w mianowniku a<br />

wi¦c wspóªczynnik zgodno±ci musi by¢ mniejszy lub równy jedno±ci a jako iloraz nieujemnych<br />

liczb musi by¢ nieujemny:<br />

0 ≤ ϕ 2 ≤ 1.<br />

Oczywi±cie im lepiej funkcja regresji odtwarza zwi¡zek Y (X) tym mniejszy jest wspóªczynnik<br />

zgodno±ci.<br />

ad (2): Wspóªczynnik korelacji krzywoliniowej R równie» przyjmuje warto±ci z tego<br />

samego zakresu co wspóªczynnik zgodno±ci przy czym cz¦±ciej u»ywa si¦ kwadratu tego<br />

wspóªczynnika:<br />

R 2 = 1 −<br />

n∑<br />

i=1<br />

n∑<br />

[y i − f(x i )] 2<br />

i=1<br />

[y i − ȳ] 2


SMOP-2 B.Kamys: 2007/08 135<br />

Wida¢, »e w przypadku gdy funkcja regresji bardzo dobrze opisuje zale»no±¢ Y (X)<br />

to uªamek znika i R 2 ≈ 1. Co wi¦cej, mo»na pokaza¢, »e dla liniowego zwi¡zku<br />

Y(X) wspóªczynnik R 2 jest równy kwadratowi zwykªego wspóªczynnika korelacji<br />

Pearsona r 2 .<br />

ad (3): H 2 Y |X<br />

- stosunek korelacyjny zmiennej Y wzgl¦dem zmiennej X.<br />

Oba powy»sze wspóªczynniki, tj. ϕ 2 i R 2 mog¡ by¢ zastosowane do okre±lenia jako±ci<br />

opisu zale»no±ci Y (X) przez funkcj¦ regresji ale aby to wykona¢ musimy zna¢ parametry<br />

funkcji regresji. Z tego powodu, nie jeste±my w stanie powiedzie¢ bez dopasowania warto±ci<br />

parametrów tej funkcji, czy zmienne X i Y s¡ powi¡zane nieliniowym zwi¡zkiem<br />

statystycznym.<br />

Aby pokona¢ t¦ trudno±¢ K. Pearson zaproponowaª zastosowanie, tzw.<br />

korelacyjnego:<br />

stosunku<br />

H 2 Y |X<br />

E [E(Y |X) − E(Y )]2<br />

≡ ,<br />

σ 2 (Y )<br />

którego estymatorem jest<br />

η 2 Y |X =<br />

l∑<br />

i=1<br />

m∑<br />

k=1<br />

[ȳ(¯x i ) − ȳ] 2 n i·<br />

,<br />

[ȳ k − ȳ] 2 n·k<br />

gdzie prób¦ (x j , y j ), j = 1, ..., n podzielono na mniejsze próby o liczebno±ciach n i,k , i =<br />

1, ...l, k = 1, ..., m, przy czym ka»da grupa ma centrum (¯x i , ȳ k ) a suma liczebno±ci<br />

wynosi n: ∑ i,k<br />

n i,k = n.<br />

Symbol ȳ(¯x i ) jest ±redni¡ warunkow¡, tj. ±redni¡ ze zmiennej (y|¯x i ) a symbole<br />

n i· = ∑ n i,k oraz n·k = ∑ n i,k .<br />

k<br />

i<br />

Estymator stosunku korelacyjnego mo»e by¢ policzony tak»e wg nast¦puj¡cego wzoru:<br />

η 2 Y |X = 1 −<br />

l∑ m∑<br />

[ȳ k − ȳ(¯x i )] 2 n ik<br />

i=1 k=1<br />

m∑<br />

k=1<br />

[ȳ k − ȳ] 2 n·k<br />

Z tego wzoru wida¢, »e η 2 Y |X<br />

= 1 wtedy i tylko wtedy, gdy ȳ k = ȳ(¯x i ) dla ka»dej<br />

niezerowej liczebno±ci n i,k . Zachodzi to tylko wtedy, gdy dla ka»dej warto±ci x i zmienna


SMOP-2 B.Kamys: 2007/08 136<br />

Y przyjmuje tylko jedn¡ warto±¢ a wi¦c istnieje dla caªej próby zwi¡zek funkcyjny y i =<br />

y(x i ). Z kolei z pierwszego wzoru na stosunek korelacyjny wida¢, »e b¦dzie si¦ on zerowaª<br />

wtedy i tylko wtedy gdy ȳ(¯x i ) − ȳ a wi¦c gdy zmienna y przyjmuje t¦ sam¡ warto±¢ ȳ<br />

dla wszystkich warto±ci x. Wtedy oczywi±cie zmienne s¡ nieskorelowane.<br />

Z tych rozwa»a« wynika, »e:<br />

0 ≤ η 2 Y |X ≤ 1.<br />

ad (4.): Analogicznie do stosunku korelacyjnego zmiennej Y wzgl¦dem X mo»na<br />

stworzy¢ niezale»ny od niego wspóªczynnik korelacyjny zmiennej X wzgl¦dem zmiennej<br />

Y : H 2 X|Y . H 2 X|Y<br />

E [E(X|Y ) − E(X)]2<br />

≡ ,<br />

σ 2 (X)<br />

którego estymator liczy si¦ wg poni»szych wzorów:<br />

k=1<br />

l∑<br />

η 2 X|Y = m∑<br />

i=1<br />

[¯x(ȳ k ) − ¯x] 2 n·k<br />

[¯x i − ¯x] 2 n i·<br />

= 1 −<br />

m∑ l∑<br />

[¯x i − ¯x(ȳ k )] 2 n ik<br />

k=1 i=1<br />

l∑<br />

i=1<br />

[¯x i − ¯x] 2 n i·<br />

Mo»na pokaza¢, »e zachodz¡ nast¦puj¡ce relacje pomi¦dzy stosunkami korelacyjnymi<br />

i wspóªczynnikiem korelacji krzywoliniowej R:<br />

R 2 ≤ η 2 X|Y<br />

∩ R 2 ≤ η 2 Y |X<br />

Wystarczy wi¦c pokaza¢, »e którykolwiek stosunek korelacyjny zeruje si¦ aby równie»<br />

zerowaª si¦ wspóªczynnik korelacji krzywoliniowej.<br />

Hipotez¦: H 0 : H 2 Y |X<br />

= 0 testuje si¦ wprowadzaj¡c statystyk¦ testow¡:<br />

F = η2 Y |X n − l<br />

1 − ηY 2 |X<br />

l − 1 ,


SMOP-2 B.Kamys: 2007/08 137<br />

która ma rozkªad F (l−1),(n−l) tj. rozkªad Fishera-Snedecora o (l − 1), (n − l) stopniach swobody.<br />

Obszar krytyczny: prawostronny, tj. F > (F (l−1),(n−l) ) 1−α gdzie α jest poziomem istotno±ci.<br />

Analogicznie przebiega testowanie hipotezy: H 0 : H X|Y = 0.<br />

Jako statystyk¦ testow¡ bierze si¦:<br />

F =<br />

η2 X|Y<br />

1 − η 2 X|Y<br />

n − m<br />

m − 1 ,<br />

która ma rozkªad F (m−1),(n−m) , tj. rozkªad Fishera-Snedecora o (m − 1), (n − m)<br />

stopniach swobody. Oczywi±cie obszar krytyczny jest te» prawostronny.


SMOP-2 B.Kamys: 2007/08 138<br />

12 METODA MONTE CARLO<br />

Metoda ta polega na przyporzadkowaniu problemowi matematycznemu lub przyrodniczemu<br />

równowa»nego problemu statystycznego i rozwiazaniu go metodami statystyki.<br />

Szczególnie po»yteczna okazaªa sie w przypadkach, gdy szczegóªy badanego problemu<br />

sa zrozumiaªe i daªyby sie rozwiaza¢ analitycznie ale rachunki takie sa zbyt czasochªonne,<br />

np. policzenie caªek wielokrotnych gdy wymiar przestrzeni caªkowania jest du»y czy te»<br />

±ledzenie losu neutronów przechodzacych przez niejednorodne ±rodowisko takie jak w<br />

reaktorze jadrowym i jego obudowie. Ten ostatni przykªad, tj. ±ledzenie losu neutronów<br />

przy ªa«cuchowej reakcji rozszczepienia prowadzacej do wybuchu bomby atomowej<br />

byª pierwszym zastosowaniem tej metody zaproponowanej przez J. von Neumanna i S.<br />

Ulama.<br />

Zwykle udaje sie zastapi¢ poszukiwanie rozwiazania oryginalnego problemu przez estymacje<br />

warto±ci oczekiwanej pewnej funkcji na podstawie próby statystycznej skªadajacej<br />

sie z zespoªu warto±ci tej funkcji obliczonego dla wylosowanych warto±ci argumentu.<br />

W zwiazku z tym pojawiaja sie nastepujace pytania:<br />

1. Jak sformuªowa¢ problem statystyczny, tzn. jak ma wyglada¢ funkcja dla której<br />

poszukujemy warto±ci oczekiwanej ? Bierzemy przy tym pod uwage:<br />

• Jak zminimalizowa¢ blad estymacji przy ustalonym rozmiarze próby statystycznej<br />

?<br />

• Z jakim rozkªadem prawdopodobie«stwa (gesto±ci prawdopodobie«stwa) nale»y<br />

losowa¢ warto±ci argumentu funkcji ?<br />

2. W jaki sposób przeprowadzi¢ generacje liczb losowych ?<br />

Odpowiedzi na te pytania zale»a od rozwiazywanego problemu. Poni»ej beda przedstawione<br />

przykªady jak mo»na dobiera¢ posta¢ funkcji i jakie pojawiaja sie wtedy rozkªady<br />

prawdopodobie«stwa gdy stosuje sie metode Monte Carlo do liczenia caªek.<br />

12.1 LICZENIE CAŠEK METODA MONTE CARLO<br />

Caªke<br />

I ≡<br />

mo»emy zapisa¢ w równowa»nej postaci<br />

I =<br />

∫ b<br />

a<br />

∫ b<br />

a<br />

f(x)dx<br />

g(x) · f(x) · dx<br />

g(x)<br />

∫<br />

gdzie funkcja g(x) > 0 oraz b g(x)dx = 1 - czyli g(x) jest pewna funkcja gesto±ci<br />

prawdopodobie«stwa na odcinku [a,b]).<br />

a


SMOP-2 B.Kamys: 2007/08 139<br />

Porównujac drugi wzór na caªke I ze wzorem na warto±¢ oczekiwana funkcji f(x)<br />

g(x) :<br />

{ } f(x)<br />

E ≡<br />

g(x)<br />

∫ b<br />

a<br />

dx · g(x) ·<br />

( ) f(x)<br />

g(x)<br />

dla gesto±ci prawdopo-<br />

wida¢, »e caªka jest po prostu warto±cia oczekiwana funkcji<br />

dobie«stwa g(x).<br />

f(x)<br />

g(x)<br />

W szczególno±ci jako funkcje g(x) mo»emy wzia¢ funkcje gesto±ci prawdopodobie«stwa<br />

rozkªadu jednorodnego na odcinku [a,b] i dostaniemy:<br />

I =<br />

∫b<br />

a<br />

1<br />

dx · · (b − a)f(x)<br />

(b − a)<br />

Estymatorem powy»szej warto±ci oczekiwanej jest ±rednia arytmetyczna<br />

T n (I) = (b − a) · 1 n∑<br />

f(x i )<br />

n i=1<br />

gdzie argumenty x i sa losowane z rozkªadem jednorodnym (równomiernym) na odcinku<br />

[a,b]. Jest to tzw. podstawowa metoda liczenia caªki metoda Monte Carlo.<br />

Dla wygody rozwa»a sie zwykle caªki liczone na odcinku [0,1] bo wtedy nie musimy<br />

jawnie wypisywa¢ dªugo±ci przedziaªu caªkowania a mo»na zawsze przez<br />

liniowa zmiane zmiennych przej±¢ do dowolnego odcinka [a,b]. W poni»szych<br />

rozwa»aniach bedziemy stosowa¢ te konwencje.<br />

Wzór na estymator caªki jest wtedy po prostu ±rednia arytmetyczna warto±ci funkcji<br />

podcaªkowej gdzie argumenty x i sa losowane z rozkªadem jednorodnym na przedziale<br />

[0,1].<br />

Bªad estymatora caªki to bªad ±redniej arytmetycznej :<br />

{ }<br />

1<br />

σ{I} = √ n∑<br />

σ 2 f(x i )<br />

n i=1<br />

= √ 1 ∑ n σ 2 {f(x<br />

n 2<br />

i )}<br />

i=1<br />

√<br />

n · σ2 {f}<br />

=<br />

n 2<br />

= σ{f} √ n


SMOP-2 B.Kamys: 2007/08 140<br />

Niestety ten wzór nie mo»e by¢ w praktyce stosowany bo liczenie σ{f} wymagaªoby<br />

znajomo±ci warto±ci szukanej caªki:<br />

σ 2 {f} =<br />

=<br />

∫ 1<br />

⎡<br />

∫ 1 ⎤2<br />

f 2 (x)dx − ⎣ f(x)dx⎦<br />

0<br />

∫1<br />

0<br />

0<br />

f 2 (x)dx − I 2<br />

Dlatego dla liczenia estymatora bªedu caªki S(I) zamiast σ{f} u»ywa sie estymatora<br />

S{f} liczonego wg wzoru:<br />

S (f) =<br />

√ 1 n∑<br />

[f(x i ) − T n (I)] 2<br />

n − 1 i=1<br />

S (I) = S (f) √ n<br />

gdzie T n (I) jest równe (ze wzgledu na jednostkowa dªugo±¢ przedziaªu caªkowania) ±redniej<br />

arytmetycznej z warto±ci funkcji f(x).<br />

Poniewa» przy liczeniu caªek chcieliby±my wiedzie¢ nie tylko jakie jest odchylenie standardowe<br />

estymatora caªki, lecz chcieliby±my okre±li¢ przedziaª gdzie prawie na pewno<br />

bedzie znajdowa¢ sie prawdziwa warto±¢ caªki to przyjeªo sie jako bªad caªki bra¢ po-<br />

ªowe przedziaªu ufno±ci na poziomie ufno±ci 0,9545, który równy jest podwojonej warto±ci<br />

odchylenia standardowego przy zaªo»eniu, »e ±rednia arytmetyczna ma rozkªad normalny.<br />

A wiec jako bªad caªki bierzemy wielko±¢:<br />

2S(f)<br />

√ n<br />

Z powy»szego wzoru wida¢, »e bªad liczenia caªki metoda Monte Carlo maleje proporcjonalnie<br />

do odwrotno±ci pierwiastka z liczby obliczanych warto±ci funkcji podcaªkowej<br />

1/ √ n. Dzieje sie tak niezale»nie od tego czy caªka jest liczona w przestrzeni<br />

jedno- czy wielowymiarowej . Na tym, przede wszystkim, polega przewaga metody<br />

Monte Carlo nad innymi metodami liczenia caªki.<br />

W przypadku caªki jednokrotnej taka przewaga nie ujawnia sie bo istnieje wiele innych<br />

metod numerycznych takich jak np. metoda Simpsona, Romberga czy Gaussa,<br />

które sa bardziej precyzyjne od metody Monte Carlo przy tej samej liczbie wyliczonych<br />

warto±ci funkcji podcaªkowej. Jednak»e gdyby±my chcieli zastosowa¢ która± z tych metod<br />

do caªki wielokrotnej to oka»e sie, »e otrzymanie maªego bªedu caªki wymaga przy


SMOP-2 B.Kamys: 2007/08 141<br />

zwiekszaniu wymiaru przestrzeni argumentów zwiekszania liczby oblicze« funkcji podcaªkowej<br />

w sposób proporcjonalny do n w , gdzie n jest liczba warto±ci jednego argumentu<br />

a w jest wymiarem przestrzeni argumentów. W odró»nieniu od tych metod wielko±¢<br />

bªedu estymatora caªki uzyskanego metoda Monte Carlo maleje tak jak bªad ±redniej<br />

arytmetycznej czyli proporcjonalnie do 1/ √ n niezale»nie od wymiaru przestrzeni<br />

argumentów. A wiec zwiekszanie wymiaru przestrzeni argumentów funkcji podcaªkowej<br />

nie musi przedªu»a¢ czasu obliczenia caªki.<br />

Rozwa»my prosty przykªad: do obliczenia caªki 10 krotnej, wyliczajac funkcje podcaªkowa<br />

10 razy dla ka»dego wymiaru musieliby±my obliczy¢ funkcje podcaªkowa 10 10 razy.<br />

Je»eli potramy w ciagu sekundy obliczy¢ funkcje podcaªkowa 10 000 razy to znalezienie<br />

warto±ci caªki wymagaªoby 1000 000 sekund czyli okoªo 12 dni i nocy. Tymczasem stosujac<br />

metode Monte Carlo, mo»emy oszacowa¢ warto±¢ caªki z dobr¡ dokªadno±cia (równ¡<br />

σ(f)/1000) wyliczajac 1000 000 razy funkcje podcaªkowa, tzn. skracajac czas oblicze«<br />

do 100 sekund.<br />

12.2 ZMNIEJSZANIE BŠEDU CAŠKI<br />

Podstawowa metoda stosowana w tym celu jest tzw. metoda ±redniej wa»onej (zwana<br />

po angielsku importance sampling). Polega ona na tym, »e zamiast losowa¢ argument<br />

funkcji podcaªkowej z rozkªadem jednorodnym losuje sie go z rozkªadem g(x) mo»liwie<br />

podobnym do funkcji podcaªkowej . Wtedy estymatorem caªki na przedziale [0,1]<br />

z funkcji f(x) jest ±rednia wa»ona:<br />

T n (I) = 1 n∑ f(x i )<br />

n i=1 g(x i )<br />

gdzie argumenty x i losowane sa cze±ciej tam gdzie funkcja f(x) jest du»a a wiec przyczynki<br />

do caªki sa znaczace stad angielska nazwa losowanie istotne.<br />

Mo»na pokaza¢, »e zastosowanie tej metody zawsze daje mniejszy bªad caªki ni» otrzymywany<br />

w metodzie podstawowej.<br />

Inna metoda jest tzw. losowanie warstwowe polegajace na rozbiciu przedziaªu<br />

caªkowania na mniejsze przedziaªy, w których funkcja podcaªkowa zmienia sie mo»liwie<br />

maªo jest prawie staªa. Wtedy u»ycie najprostszej metody podstawowej w ka»dym<br />

z przedziaªów zdecydowanie zmniejsza wariancje (bªad) caªki. Wida¢ to ewidentnie dla<br />

funkcji przedziaªami staªej. Tam metoda warstwowa daje bªad równy zeru (!).<br />

Tu tak»e mo»na pokaza¢, »e bªad caªki jest zawsze mniejszy lub równy od bªedu metody<br />

podstawowej.


SMOP-2 B.Kamys: 2007/08 142<br />

Metoda zmiennych kontrolnych to szukanie funkcji h(x) podobnej do f(x) ale<br />

takiej, »e caªka z h(x) na przedziale [0,1] jest znana. Wtedy mo»emy liczy¢ podstawowa<br />

metoda Monte Carlo caªke z ró»nicy f(x) − h(x). Jest to opªacalne je»eli liczenie<br />

funkcji h(x) nie jest zbyt pracochªonne. Zwykle przyjmuje sie, »e wspóªczynnik korelacji<br />

pomiedzy funkcjami f(x) i h(x) powinien speªnia¢ relacje: ρ(f(x), h(x)) ≥ √ 1 − 1 k<br />

gdzie k oznacza ile razy bardziej pracochªonne jest policzenie ró»nicy f(x) − h(x) od<br />

policzenia samej funkcji f(x).<br />

Metoda zmiennych antytetycznych<br />

Je»eli f 1 (ξ) i f 2 (η) sa dwoma estymatorami liczonej powy»ej caªki to ich ±rednia<br />

arytmetyczna g 2 te» bedzie estymatorem caªki:<br />

g 2 ≡ 1 2 (f 1 + f 2 ),<br />

przy czym je»eli oba estymatory f 1 i f 2 sa nieobcia»one to i estymator g 2 jest nieobcia»ony.<br />

Z drugiej strony wariancja estymatora g 2 bedzie zale»e¢ nie tylko od wariancji estymatorów<br />

f 1 i f 2 ale tak»e od ich kowariancji:<br />

σ 2 (g 2 ) ≡ 1 4 (σ2 (f 1 ) + σ 2 (f 2 )) + 1 2 cov(f 1, f 2 ).<br />

Je»eli kowariancja estymatorów bedzie ujemna i du»a co do moduªu, to wariancja estymatora<br />

g 2 mo»e by¢ mniejsza od wariancji ka»dego z estymatorów f 1 i f 2 . Powy»sze<br />

rozumowanie mo»na oczywi±cie rozszerzy¢ na ±rednia m estymatorów caªki.<br />

PRZYKŠAD:<br />

Je»eli funkcja podcaªkowa f(x) jest monotoniczna to jako dwa wy»ej omawiane estymatory<br />

mo»emy wzia¢ nastepujace funkcje: f 1 = f(x) i f 2 = f(1 − x). Wtedy<br />

estymator g 2 bedzie bardziej zbli»ony do staªej na odcinku [0,1] ni» ka»dy z dwu skªadników.<br />

To spowoduje, »e jego wariancja bedzie mniejsza od wariancji ka»dego ze skªadników<br />

a o to nam chodzi.<br />

Dla funkcji monotonicznej na caªym przedziale caªkowania mo»na dobra¢ inny wygodny<br />

estymator g 2 , który bedzie ±rednia wa»ona a nie ±rednia arytmetyczna a wagi<br />

dobierze sie tak aby najbardziej zmniejszy¢ wariancje estymatora g 2 :<br />

g 2 ≡ α · f(αx) + (1 − α) · f(1 − (1 − α)x) gdzie 0 < α < 1.<br />

Znalezienie optymalnej warto±ci wspóªczynnika α mo»e by¢ bardzo trudne, wiec czesto<br />

zadawalamy sie zastosowaniem nastepujacego, prostszego przepisu, który zwykle daje porównywalnie<br />

maªa wariancje caªki jak optymalna warto±¢ α. Jest to rozwiazanie równania:<br />

f(α) = (1 − α) · f(1) + α · f(0)<br />

Powy»sze przykªady liczenia caªki metoda Monte Carlo nie wyczerpuja wszystkich<br />

stosowanych wariantów tej metody lecz sªu»a raczej do ilustracji na czym polega problem<br />

doboru funkcji, dla której szukamy warto±ci oczekiwanej.


SMOP-2 B.Kamys: 2007/08 143<br />

12.3 GENERACJA LICZB LOSOWYCH<br />

Przy obliczeniach metoda Monte Carlo konieczna jest generacja liczb losowych o po»adanym<br />

rozkªadzie (gesto±ci) prawdopodobie«stwa. Liczby te w praktyce znajduje sie przy pomocy<br />

odpowiednich programów komputerowych co powoduje, »e ciagi liczb losowych otrzymane<br />

z tych samych startowych parametrów sa powtarzalne a wiec nie sa naprawde losowe. Z<br />

tej przyczyny u»ywa sie czesto okre±lenia liczby pseudolosowe.<br />

Najwa»niejszym ze stosowanych rozkªadów jest rozkªad jednorodny(równomierny,<br />

jednostajny), gdy» przy jego u»yciu mo»na wygenerowa¢ liczby pseudolosowe o innych<br />

po»adanych rozkªadach prawdopodobie«stwa. Jak bedzie pokazane poni»ej istnieja metody<br />

pozwalajace na stworzenie prostych i krótkich programów komputerowych do generacji<br />

liczb pseudolosowych o rozkªadzie jednorodnym. Mo»na wiec samemu napisa¢<br />

taki program. Okazuje sie jednak, »e bezpieczniej jest korzysta¢ z gotowych, o-<br />

pracowanych przez specjalistów procedur , gdy» speªniaja one nie tylko podstawowe<br />

wymagania narzucane na liczby pseudolosowe ale uwzgledniaja tak»e bardziej zaawansowane<br />

warunki, które musza by¢ zapewnione przy niektórych obliczeniach. Takimi godnymi<br />

polecenia generatorami liczb losowych sa na przykªad procedury RANLUX i RAN-<br />

MAR z biblioteki procedur CERN. Pierwszy z tych generatorów zostaª napisany przez<br />

F. Jamesa (Comp. Phys. Comm. 79 (1994) 111) i oznaczony jest symbolem V115 w bibliotece<br />

procedur CERN a drugi (stworzony w oparciu o raport G. Marsaglia, A. Zaman,<br />

and W.W. Tsang, Towards a Universal Random Number Generator, Supercomputer Computations<br />

Research Institute, Florida State University technical report FSU-SCRI-87-50<br />

(1987)) przez F. Carminati i F. Jamesa i wystepuje jako procedura V113 w bibliotece<br />

procedur CERN.<br />

12.3.1 Generacja liczb o rozkªadzie równomiernym<br />

W olbrzymiej wiekszo±ci przypadków ciagi liczb pseudolosowych tworzone sa przy pomocy<br />

zwiazków rekurencyjnych. Najlepiej zbadanym algorytmem jest tzw. metoda kongruencyjna,<br />

która generuje kolejna liczbe pseudolosowa w oparciu o k + 1 poprzednich wg<br />

wzoru:<br />

x n+1 = (a 0 x n + a 1 x n−1 + . . . + a k x n−k )(modM),<br />

gdzie zapis a(mod b) nale»y rozumie¢ jako reszte z dzielenia liczby a przez liczbe b.<br />

Liczba M a tak»e wszystkie liczby a i oraz x i sa liczbami caªkowitymi z przedziaªu [0, M).<br />

Generatory stanowiace szczególne przypadki powy»szego wzoru maja swoje specjalne<br />

nazwy. Generatory stosujace wzór:<br />

x n+1 = x n + x n−1 (modM)<br />

nazywane sa generatorami Fibonacciego,<br />

te, które u»ywaja relacji:<br />

x n+1 = a 0 x n (modM)


SMOP-2 B.Kamys: 2007/08 144<br />

okre±la sie mianem generatorów multiplikatywnych a oparte o wyra»enie:<br />

x n+1 = a 0 x n + a 1 (modM)<br />

nosza nazwe generatorów mieszanych.<br />

Wszystkie ciagi liczb pseudolosowych sa ciagami okresowymi. Dobry generator powinien<br />

mie¢ mo»liwie dªugi okres, tak dªugi aby w czasie wykonywania prac obliczeniowych<br />

wykorzystywa¢ tylko niewielka cze±¢ okresu. Maksymalny mo»liwy okres ciagu liczb losowych<br />

otrzymanych ogólna metoda kongruencyjna nie mo»e przekroczy¢ M k+1 . A wiec<br />

maksymalny okres generatora Fibonacciego to M 2 a generatora multiplikatywnego i mieszanego<br />

nie przekracza M. Te maksymalne warto±ci sa osiagane tylko przy odpowiednim<br />

doborze wspóªczynników formuªy rekurencyjnej. Na przykªad, mo»na pokaza¢, »e dªugo±¢<br />

okresu ciagu liczb losowych generatora mieszanego wynosi M wtedy i tylko wtedy, gdy<br />

speªnione sa nastepujace warunki:<br />

• a 1 i M nie maja wspólnych dzielników,<br />

• (a 0 − 1) jest wielokrotno±cia liczby pierwszej, która jest dzielnikiem liczby M,<br />

• (a 0 − 1) jest wielokrotno±cia liczby 4, o ile M jest te» wielokrotno±cia liczby 4.<br />

Od dobrego generatora, »adamy równie» aby mo»na byªo kolejne liczby pseudolosowe<br />

uwa»a¢ za niezale»ne. W szczególno±ci powinny by¢ niezale»ne liniowo. Mo»emy to<br />

sprawdzi¢ liczac wspóªczynniki korelacji pomiedzy parami liczb:<br />

ϱ j ≡ ϱ(x i , x i+j ).<br />

Wspóªczynniki korelacji ϱ j ,j=1,2,... powinny by¢ równe zero.<br />

Zamiast liczy¢ wspóªczynniki korelacji mo»na niezale»no±¢ liniowa generowanych liczb<br />

sprawdza¢ przez wykonanie pewnych kontrolnych zada« rachunkowych. Jednym z<br />

najprostszych zada« jest liczenie metoda Monte Carlo (np. podstawowa metoda szukania<br />

caªki) objeto±ci kuli o jednostkowym promieniu w przestrzeni N-wymiarowej. Objeto±¢<br />

kuli wynosi:<br />

V N = 2 π N/2<br />

N Γ(N/2) ,<br />

gdzie Γ(N/2) to funkcja gamma Eulera. Funkcja ta przyjmuje warto±¢ √ π dla argumentu<br />

1/2 i mo»e by¢ liczona rekurencyjnie wg wzoru Γ(z + 1) = z · Γ(z). Nawet<br />

niewielka korelacja pomiedzy generowanymi liczbami pseudolosowymi odbija sie wyra¹nie<br />

na wynikach oblicze« dyskredytujac stosowany generator.<br />

Inna, bardzo wa»na cecha generatora liczb pseudolosowych jest aby te liczby pokrywaªy<br />

przedziaª (0,1) odpowiednio gesto.<br />

Aby to prosto wyja±ni¢ we¹my pod uwage rekurencyjny algorytm, w którym nastepna<br />

liczba generowana jest przy pomocy poprzedniej: x n+1 = f(x n ). Je»eli wykre±limy na<br />

powierzchni jednostkowego kwadratu (czyli kwadratu o wierzchoªkach (0,0),(1,0),(1,1) i<br />

(0,1) poªo»enia punktów o wspóªrzednych (x = x n , y = x n+1 ) to w przypadku prawdziwych<br />

losowych liczb x n i x n+1 powinny one pokrywa¢ równomiernie powierzchnie


SMOP-2 B.Kamys: 2007/08 145<br />

kwadratu. Natomiast dla pseudolosowych liczb dostaniemy punkty le»ace na krzywej<br />

y = f(x). A wiec krzywa y = f(x) musi wielokrotnie i to w maªych odlegªo±ciach<br />

przechodzi¢ przez powierzchnie kwadratu aby zapewni¢ w miare równomierne pokrycie<br />

powierzchni kwadratu. Ten warunek podobnie jak i inne powy»ej wymienione jest jedynie<br />

warunkiem koniecznym aby generator mógª by¢ uznany za zadawalajacy generator.<br />

Dla surowego testowania generatorów wymy±lono caªy zestaw testów, które powinny<br />

by¢ speªniane przez dobre generatory (np. G. Marsaglia, A Current View of Random<br />

Number Generators, Computer Science and Statistics: 16th Symposium on the Interface,<br />

Elsevier (1985)). Wspomniane na wstepie generatory RANLUX, RANMAR przeszªy pomy±lnie<br />

ten zestaw testów.<br />

12.3.2 Generacja liczb losowych o dowolnych rozkªadach prawdopodobie«-<br />

stwa<br />

Je»eli dysponujemy ju» dobrym generatorem liczb pseudolosowych o rozkªadzie równomiernym<br />

na odcinku [0,1] to mo»emy przystapi¢ do generacji liczb o dowolnych rozkªadach<br />

prawdopodobie«stwa. Zacznijmy od generacji zmiennej dyskretnej przyjmujacej<br />

n warto±ci z zadanym rozkªadem prawdopodobie«stwa:<br />

P (x = x i ) = p i ,<br />

dla i = 1, 2, ...n<br />

W tym celu podzielmy przedziaª [0,1] na n przedziaªów o dªugo±ci ∆ i = p i . Litera γ<br />

oznacza¢ bedziemy wygenerowana zmienna o rozkªadzie równomiernym w przedziale [0,1].<br />

Wtedy ªatwo udowodni¢ nastepujace twierdzenie:<br />

TWIERDZENIE<br />

Losowa wielko±¢ x okre±lona formuªa<br />

ma poszukiwany rozkªad dyskretny.<br />

x = x i<br />

gdy γ ∈ ∆ i<br />

DOWÓD:<br />

♦<br />

P (x = x i ) = P (γ ∈ ∆ i ) = ∆ i = p i<br />

UWAGA 1: Powy»sze twierdzenie mo»na uogólni¢ na przypadek zmiennej dyskretnej<br />

przyjmujacej niesko«czenie wiele warto±ci. Wtedy zarówno warto±ci zmiennej x i jak<br />

i prawdopodobie«stwa p i okre±lone sa wzorami okre±lajacymi ich zale»no±¢ od wska¹nika<br />

i. Dla efektywnego losowania wybiera sie pewne n max tak du»e, »e suma prawdopodobie«stw<br />

n∑<br />

max<br />

i=1<br />

p i = 1 − ε


SMOP-2 B.Kamys: 2007/08 146<br />

jest bliska jedno±ci (tj. ε > 0 jest odpowiednio maªe) i dla wska¹ników i = 1, ..., n max<br />

wylicza sie przed generacja x i i p i (przechowujac je nastepnie w pamieci komputera) a<br />

obliczenia wg zadanych wzorów wykonuje sie tylko przy generacji maªo prawdopodobnych<br />

warto±ci x i (dla i > n max ).<br />

♦<br />

UWAGA 2: Czesto przy symulacji zjawisk przyrodniczych spotykamy sie z sytuacja, w<br />

której musimy zdecydowa¢ jakie zdarzenie spo±ród wszystkich mo»liwych i wykluczajacych<br />

sie zdarze« (A 1 , A 2 , ..., A n ) zachodzi w danym momencie je»eli znamy<br />

prawdopodobie«stwa tych zdarze«. Taka sytuacja dokªadnie odpowiada schematowi<br />

wyboru warto±ci zmiennej dyskretnej to»samej ze wska¹nikiem i danego zdarzenia A i o<br />

znanym rozkªadzie prawdopodobie«stw p i , i = 1, ..., n.<br />

♦<br />

Generacja zmiennej ciagªej z zadana funkcja gesto±ci prawdopodobie«stwa f(x).<br />

Zaªó»my, »e zmienna losowa x ma funkcje gesto±ci prawdopodobie«stwa f(x) > 0 w sko«-<br />

czonym lub niesko«czonym przedziale [a,b]. Wtedy dystrybuanta zmiennej x opisywana<br />

jest wzorem:<br />

i jest silnie rosnaca funkcja.<br />

F (x) =<br />

∫x<br />

a<br />

f(t)dt<br />

TWIERDZENIE<br />

Przy tych zaªo»eniach losowa wielko±¢ x okre±lona formuªa<br />

F (x) = γ<br />

ma funkcje gesto±ci prawdopodobie«stwa f(x).<br />

DOWÓD:<br />

Dla silnie rosnacej dystrybuanty F (x) mo»emy napisa¢ nastepujacy zespóª równa« (przez<br />

Y oznaczamy dystrybuante traktowana jako zmienna losowa):<br />

skad wynika, »e<br />

P (y < Y < y + dy) = P (x < X < x + dx)<br />

P (y < Y < y + dy) ≡ g(y)dy<br />

P (x < X < x + dx) ≡ f(x)dx<br />

g(y)dy = f(x)dx<br />

g(F (x))dF (x) = f(x)dx.


SMOP-2 B.Kamys: 2007/08 147<br />

Z denicji dystrybuanty wiadomo, »e:<br />

a wiec<br />

dF (x) = f(x)dx,<br />

g(F (x)) = 1,<br />

czyli dystrybuanta ma rozkªad równomierny w przedziale [0,1].<br />

Stad generujac warto±¢ liczby losowej γ okre±lamy jednoznacznie warto±¢ dystrybuanty<br />

F(x) a co za tym idzie warto±¢ zmiennej x o funkcji gesto±ci prawdopodobie«stwa f(x):<br />

x = F −1 (γ),<br />

gdzie F −1 (x) oznacza funkcje odwrotna do dystrybuanty.<br />

♦<br />

UWAGA 1: Je»eli funkcja gesto±ci prawdopodobie«stwa f(x) zeruje sie na pewnych odcinkach<br />

warto±ci argumentu to dystrybuanta F(x) nie jest funkcja silnie rosnaca i wtedy<br />

rozwiazanie równania F (x) = γ nie jest jednoznaczne (F(x) nie ma funkcji odwrotnej).<br />

Mo»na temu jednak zapobiec zastepujac funkcje odwrotna do dystrybuanty F −1 (x) przez<br />

funkcje G(y) zdeniowana nastepujaco:<br />

G(y) ≡<br />

inf x .<br />

{x|y


SMOP-2 B.Kamys: 2007/08 148<br />

PRZYKŠAD: Generacja zmiennej losowej x o rozkªadzie wykªadniczym dla x ≥ x 0 .<br />

Dystrybuanta:<br />

F (x) =<br />

⎧<br />

⎪⎨ C · exp[−C(x − x 0 )] dla x ≥ x 0<br />

f(x) =<br />

⎪⎩ 0 dla x < 0<br />

∫x<br />

x 0<br />

C · exp[−C(t − x 0 )] · dt = 1 − exp[−C(x − x 0 )].<br />

Rozwiazujemy ze wzgledu na x równanie F (x) = γ, gdzie γ jest pseudolosowa liczba<br />

o rozkªadzie równomiernym w [0,1]. Wstawiajac jawna posta¢ dystrybuanty dostajemy:<br />

1 − exp[−C(x − x 0 )] = γ. Rozwiazanie równania to:<br />

x = x 0 − 1 C<br />

· ln(1 − γ).<br />

♦<br />

Szukanie funkcji odwrotnej do dystrybuanty mo»e by¢ trudne ze wzgledów numerycznych.<br />

Wtedy czesto daje sie upro±ci¢ generacje stosujac tzw. metode superpozycji. U»ywa<br />

sie jej wtedy gdy dystrybuante zmiennej, która chcemy generowa¢ udaje sie przedstawi¢<br />

w postaci kombinacji liniowej dystrybuant o prostszej postaci, takich dla których ªatwo<br />

znale¹¢ funkcje odwrotne. Istotne jest, »e wspóªczynniki kombinacji liniowej (o sko«czonej<br />

lub niesko«czonej liczbie wyrazów) powinny mie¢ warto±ci nale»ace do przedziaªu (0,1)<br />

a ich suma ma by¢ równa jedno±ci, tak aby mo»na je byªo interpretowa¢ jako prawdopodobie«stwa.<br />

Wtedy kombinacje liniowa mo»na interpretowa¢ jako formuªe peªnego<br />

prawdopodobie«stwa:<br />

F (x) = N ∑<br />

N∑<br />

k=1<br />

k=1<br />

c k · F k (x)<br />

c k = 1, 0 < c k < 1<br />

W metodzie superpozycji generujemy dwie niezale»ne liczby losowe o rozkªadzie jednorodnym<br />

w [0,1]: γ 1 i γ 2 . Pierwsza z nich stosujemy do losowego wyboru warto±ci wska¹nika k<br />

(zgodnie z przepisem podanym wy»ej dla generacji warto±ci dyskretnej zmiennej) a druga<br />

do generacji warto±ci zmiennej x posiadajacej dystrybuante F k (x).<br />

PRZYKŠAD:<br />

Chcemy generowa¢ warto±ci zmiennej x o funkcji gesto±ci prawdopodobie«stwa:<br />

f(x) = 5 12 · [1 + (x − 1)4 ] dla x ∈ (0, 2).


SMOP-2 B.Kamys: 2007/08 149<br />

Dystrybuanta zmiennej x ma posta¢:<br />

F (x) = 5x<br />

12 + 1 12 · [(x − 1)5 + 1] dla x ∈ (0, 2)<br />

co powoduje, »e dla generacji metoda funkcji odwrotnych musieliby±my rozwiaza¢ równanie<br />

piatego stopnia:<br />

1 (<br />

(x − 1) 5 + 5x + 1 ) = γ.<br />

12<br />

Gdy przedstawimy funkcje gesto±ci prawdopodobie«stwa jako kombinacje liniowa o<br />

wspóªczynnikach c 1 = (5/6) i c 2 = (1/6) dwu funkcji gesto±ci prawdopodobie«stwa:<br />

f(x) =<br />

( 5<br />

6)<br />

· 1 ( ) 1<br />

2 + 6<br />

to dystrybuanta te» bedzie kombinacja liniowa postaci:<br />

F (x) =<br />

( 5<br />

6)<br />

· 5 (x − 1)4<br />

2<br />

· x ( ) 1<br />

2 + · 1<br />

6 2 [(x − 1)5 + 1].<br />

Wtedy generacja metoda funkcji odwrotnej dla obu prostszych dystrybuant daje jawne<br />

wzory na funkcje odwrotne i dostajemy nastepujacy przepis na wyliczenie x:<br />

♦<br />

x = 2γ 2 gdy γ 1 < 5/6<br />

= 1 + 5 √2γ 2 − 1 gdy γ 1 ≥ 5/6.<br />

Obok metody funkcji odwrotnych u»ywa sie dla generacji liczb losowych równie» inne<br />

metody, spo±ród których najbardziej popularna jest metoda eliminacji zaproponowana<br />

przez J. von Neumanna lub metody wykorzystujace wzory typu: x = g(γ 1 , γ 2 , ..., γ n ).<br />

Omówimy je poni»ej.<br />

Metode eliminacji stosuje sie gdy zmienna x ma rozkªad o gesto±ci prawdopodobie«-<br />

stwa opisany funkcja f(x) w przedziale [a,b] i równy zero poza przedziaªem, oraz f(x) jest<br />

ograniczona od góry: f(x) ≤ c. Postepuje sie wtedy wg nastepujacej procedury:<br />

1. Generujemy warto±¢ zmiennej x wg wzoru: x = (b − a)γ 1 + a z rozkªadem<br />

jednorodnym w przedziale [a,b].<br />

2. Generujemy warto±¢ zmiennej y wg wzoru: y = cγ 2 z rozkªadem jednorodnym w<br />

przedziale [0,c].


SMOP-2 B.Kamys: 2007/08 150<br />

3. Sprawdzamy, czy y ≤ f(x). Je»eli tak, to akceptujemy warto±¢ x, w przeciwnym<br />

przypadku para (x,y) jest eliminowana i generacje powtarza sie od nowa.<br />

Metody wykorzystujace przeksztaªcenie x = g(γ 1 , γ 2 , ..., γ n )<br />

Sa to metody, wykorzystujace ró»norodne wªasno±ci statystyczne funkcji wielu niezale»nych<br />

zmiennych losowych o rozkªadzie jednorodnym. Nie ma wiec ogólnego przepisu<br />

na szukanie funkcji g. Poni»ej zostana podane wybrane przykªady zastosowania takiego<br />

przeksztaªcenia.<br />

PRZYKŠAD 1 (jednowymiarowy rozkªad normalny).<br />

Centralne twierdzenie graniczne gªosi, »e suma niezale»nych zmiennych losowych da»y<br />

do rozkªadu normalnego, gdy liczba skªadników w sumie da»y do niesko«czono±ci. Rozkªady<br />

skªadników sumy powinny przy tym speªnia¢ bardzo ogólne warunki, które sa dobrze<br />

speªnione przez rozkªad jednorodny na odcinku [0,1] jaki maja generowane liczby pseudolosowe.<br />

We¹my wiec<br />

Wiadomo, »e<br />

n∑<br />

g(γ 1 , . . . , γ n ) ≡<br />

γ i<br />

i=1<br />

E {γ i } = 1 2<br />

skad wynika, »e<br />

σ 2 {γ i } = 1 12<br />

{ n∑<br />

E {g(γ 1 , . . . , γ n )} = E<br />

σ 2 {g(γ 1 , . . . , γ n )} = σ 2 { n∑<br />

}<br />

∑<br />

γ i = n<br />

i=1<br />

}<br />

∑<br />

γ i = n<br />

i=1 i=1<br />

i=1<br />

E {γ i } = n 2<br />

σ 2 {γ i } = n 12 .<br />

Wykorzystali±my fakt, »e warto±¢ oczekiwana sumy jest (zawsze) równa sumie warto-<br />

±ci oczekiwanych skªadników oraz to »e wariancja sumy niezale»nych zmiennych losowych<br />

jest suma wariancji skªadników.<br />

Dla du»ych n powy»sza suma bedzie (bardzo szybko) zbli»a¢ sie do zmiennej losowej o<br />

rozkªadzie normalnym a po standaryzacji (tj. odjeciu jej warto±ci oczekiwanej i podzieleniu<br />

przez odchylenie standardowe) bedzie miaªa rozkªad standardowy normalny N(0,1).<br />

Ostatecznie stosujemy nastepujacy przepis na generacje zmiennej o rozkªadzie N(0,1):<br />

√<br />

12<br />

g(γ 1 , . . . , γ n ) =<br />

n<br />

(<br />

n∑<br />

γ i − 1 )<br />

i=1 2


SMOP-2 B.Kamys: 2007/08 151<br />

UWAGA: Najcze±ciej stosuje sie powy»szy wzór biorac n = 12, gdy» wtedy wzór przyjmuje<br />

najprostsza posta¢.<br />

UWAGA: W przypadku gdy potrzebne sa warto±ci standaryzowanej zmiennej losowej<br />

wieksze od 6 lub mniejsze od -6 to musimy zwiekszy¢ liczbe skªadników w sumie bo<br />

oczywi±cie suma dwunastu powy»szych skªadników nigdy nie osiagnie takich warto±ci.<br />

PRZYKŠAD 2 (jednowymiarowy rozkªad normalny).<br />

Rozkªad wspólny dwu niezale»nych zmiennych losowych x, y o rozkªadach N(0,1) jest ich<br />

iloczynem i mo»e by¢ zapisany nastepujaco:<br />

f(x, y) = 1 [<br />

2π exp − x2 + y 2 ]<br />

2<br />

Przechodzac do wspóªrzednych biegunowych (r, ϕ) dostajemy:<br />

x = r cos ϕ<br />

y = r sin ϕ<br />

gdzie rozkªad h zmiennych (r, ϕ) wyra»a sie poni»szym wzorem:<br />

h(r, ϕ) = f(r cos ϕ, r sin ϕ) |r| ,<br />

w którym |r| jest moduªem jakobianu transformacji. Wida¢, »e rozkªad zmiennych (r, ϕ)<br />

jest tak»e iloczynem dwu rozkªadów:<br />

h(r, ϕ) =<br />

( 1<br />

2π<br />

)<br />

·<br />

(<br />

r exp<br />

]) [− r2<br />

Sa to; jednorodny rozkªad dla zmiennej ϕ w przedziale [0, 2π] oraz rozkªad o gesto±ci<br />

re −r2 /2<br />

dla nieujemnych r (stad mo»na opu±ci¢ moduª przy r). Oczywi±cie faktoryzacja<br />

rozkªadu h(r, ϕ) oznacza, »e zmienne r i ϕ sa niezale»ne.<br />

Poniewa» zmienna ϕ ma rozkªad równomierny wiec mo»na ja ªatwo generowa¢ stosujac<br />

wzór:<br />

ϕ = 2πγ 1<br />

a zmienna r tak»e generuje sie prosto przez odwracanie dystrybuanty co daje:<br />

√<br />

r = −2 ln γ 2 .<br />

Po takiej generacji mo»na powróci¢ do startowych zmiennych x, y i otrzyma¢ pare zmiennych<br />

niezale»nych o rozkªadzie N(0,1) wg wzorów (x = g 1 (γ 1 , γ 2 ) i y = g 2 (γ 1 , γ 2 )):<br />

2<br />

.<br />

x =<br />

y =<br />

√<br />

−2 ln γ 2 cos 2πγ 1<br />

√<br />

−2 ln γ 2 sin 2πγ 1


SMOP-2 B.Kamys: 2007/08 152<br />

PRZYKŠAD 3 (rozkªad chi-kwadrat o n stopniach swobody)<br />

Jak wiadomo suma kwadratów n niezale»nych zmiennych losowych o rozkªadzie standardowym<br />

normalnym ma rozkªad chi-kwadrat o n stopniach swobody:<br />

n<br />

χ 2 n ≡ ∑<br />

X 2 i .<br />

i=1<br />

Generujac n niezale»nych zmiennych losowych o rozkªadzie N(0,1) jednym z powy»ej<br />

omówionych sposobów mo»emy wstawi¢ je do sumy kwadratów i otrzymamy zmienna<br />

o rozkªadzie chi-kwadrat. Warto rozwa»y¢ dokªadniej przypadek, gdy do generacji zmiennych<br />

N(0,1) zastosuje sie ostatnia z podanych metod. Wtedy dla przypadku, gdy n<br />

jest parzyste wystarczy doda¢ n/2 par kwadratów zmiennych N(0,1) i dostaniemy zdecydowane<br />

uproszczenie wzoru gdy» suma kwadratów sinusa i cosinusa tego samego kata<br />

jest równa jedno±ci a suma kwadratów pierwiastków bedzie równa sumie logarytmów<br />

(ze znakiem minus) stanowiacych wyra»enia podpierwiastkowe a wiec bedzie logarytmem<br />

iloczynu. Gdy n jest nieparzyste mamy n/2 − 1 par zachowujacych sie tak jak dla<br />

n parzystego a dodatkowo musimy doda¢ jedna warto±¢ zmiennej o rozkªadzie N(0,1).<br />

Ostatecznie dostaniemy:<br />

⎧⎪ ⎨<br />

χ 2 n = −2 ln ( )<br />

γ 1 . . . γ n/2 n parzyste<br />

⎪ ⎩ −2 ln ( )<br />

γ 1 . . . γ (n−1)/2 − 2 ln(γ(n+1)/2 ) cos 2 2πγ (n+3)/2 n nieparzyste<br />

PRZYKŠAD 4<br />

Poka»emy, »e zmienna o rozkªadzie gesto±ci prawdopodobie«stwa:<br />

czyli o dystrybuancie<br />

f(x) = n · x n−1 dla x ∈ [0, 1]<br />

F (x) = x n dla x ∈ [0, 1]<br />

mo»na generowa¢ stosujac wzór: x = max(γ 1 , ..., γ n ).<br />

Dowód:<br />

Wprowad¹my funkcje schodkowa zdeniowana nastepujaco:<br />

⎧<br />

⎪⎨ 0 dla z ≤ 0<br />

θ(z) =<br />

⎪⎩ 1 dla z > 0.


SMOP-2 B.Kamys: 2007/08 153<br />

Zmienna losowa g(γ 1 , ..., γ n ) bedzie miaªa dystrybuante F (x) wtedy i tylko wtedy gdy<br />

∫ 1<br />

0<br />

∫ 1<br />

. . .<br />

0<br />

dy 1 . . . dy n θ(x − g(γ 1 , ..., γ n )) = F (x).<br />

Jest oczywiste, »e θ(x − max<br />

1≤i≤n y i) nie równa jest zero wtedy i tylko wtedy gdy równocze±nie<br />

y 1 < x, y 2 < x , ..., y n < x. A wiec caªka<br />

mo»e by¢ zapisana jako:<br />

∫ 1<br />

0<br />

∫ 1<br />

. . .<br />

0<br />

∫ x<br />

0<br />

dy 1 . . . dy n θ(x − max<br />

1≤i≤n y i)<br />

∫ x<br />

. . .<br />

0<br />

dy 1 . . . dy n = x n<br />

a to jest wªa±nie taka dystrybuanta zmiennej x jaka chcieliby±my uzyska¢.<br />

♦<br />

UWAGA<br />

Zmienna losowa o dystrybuancie F (x) = x n dla x ∈ [0, 1] mo»na generowa¢ metoda<br />

funkcji odwrotnych, z której dostajemy:<br />

x = n√ γ.<br />

Porównujac ten wynik z poprzednim dostajemy zaskakujacy wniosek, »e mo»na<br />

zastapi¢ obliczanie pierwiastka n-tego stopnia z liczby losowej o rozkªadzie<br />

równomiernym w [0,1] przez obliczanie maksimum n liczb losowych o takim<br />

rozkªadzie.<br />

12.3.3 Generacja wielowymiarowych zmiennych losowych<br />

Metoda eliminacji mo»e by¢ ªatwo uogólniona na przypadek zmiennych wielowymiarowych.<br />

Je»eli f(x 1 , x 2 , ..., x n ) jest gesto±cia prawdopodobie«stwa dla n-wymiarowej<br />

zmiennej losowej (x 1 , x 2 , ...x n ), która znika poza kostka n-wymiarowa: a i ≤ b i , i =<br />

1, 2, .., n i ograniczona przez liczbe c to przeprowadzamy generacje w nastepujacy sposób:<br />

1. Generujemy warto±¢ zmiennej x 1 , x 2 , ...x n+1 wg wzoru:<br />

x i = (b i − a i )γ i + a i , i = 1, 2, ..., n oraz x n+1 = cγ n+1<br />

z rozkªadem równomiernym w przedziale (a 1 ≤ x 1 ≤ b 1 , ..., a n ≤ x n ≤ b n ) i<br />

ograniczona przez liczbe c: (0 ≤ x n+1 ≤ c)


SMOP-2 B.Kamys: 2007/08 154<br />

2. Sprawdzamy, czy x n+1 ≤ f(x 1 , x 2 , ..., x n ). Je»eli tak, to akceptujemy punkt<br />

x 1 , x 2 , ..., x n , w przeciwnym przypadku punkt ten jest eliminowany i generacje<br />

powtarza sie od nowa.<br />

Wielowymiarowe zmienne losowe mo»emy równie» generowa¢ metoda funkcji odwrotnych.<br />

Nale»y rozwa»y¢ oddzielnie dwa przypadki:<br />

1. Gdy poszczególne skªadowe wielowymiarowej zmiennej sa niezale»ne to ka»da z nich<br />

generuje sie niezale»nie jedna z metod omawianych dla jednowymiarowych zmiennych<br />

losowych.<br />

2. Gdy skªadowe sa zale»ne to korzystamy z poni»szego twierdzenia:<br />

TWIERDZENIE<br />

Gdy γ 1 , γ 2 , ..., γ n sa niezale»nymi liczbami losowymi o rozkªadzie równomiernym w przedziale<br />

[0,1) to zbiór liczb x 1 , x 2 , ..., x n otrzymanych jako rozwiazania nastepujacego<br />

ukªadu równa«:<br />

F 1 (x 1 ) = γ 1<br />

F 2 (x 2 |x 1 ) = γ 2<br />

· · ·<br />

F n (x n |x 1 , ..., x n−1 ) = γ n<br />

ma po»adana gesto±¢ prawdopodobie«stwa f(x 1 , x 2 , ..., x n ).<br />


SMOP-2 B.Kamys: 2007/08 155<br />

12.4 MODELOWANIE KOMPUTEROWE<br />

Zjawiska przyrodnicze, zadania techniczne czy ekonomiczne maja czesto charakter probabilistyczny.<br />

Jest to spowodowane faktem, »e same prawa przyrody maja taki<br />

charakter (mechanika kwantowa) a tak»e tym, »e w danym zagadnieniu uczestniczy<br />

tak wielka liczba obiektów (np. atomów), i» ±cisªy opis nawet w ramach klasycznej<br />

(niekwantowej) teorii jest niemo»liwy. Wtedy logicznym staje sie wprowadzenie pojecia<br />

losowych funkcji czyli takich funkcji rzeczywistego argumentu, »e dla ustalonej warto±ci<br />

argumentu warto±¢ funkcji jest zmienna losowa.<br />

Modelowanie komputerowe polega na szacowaniu przy zastosowaniu komputerów<br />

±rednich charakterystyk funkcji losowych pojawiajacych sie w badanym problemie. Sa<br />

to zwykle warto±ci oczekiwane wielko±ci charakteryzujacych problem, ich wariancje i<br />

kowariancje lub te» rozkªady prawdopodobie«stwa tych wielko±ci.<br />

Czesto zjawiska przyrodnicze, zadania techniczne czy matematyczne opisywane funkcjami<br />

losowymi sa tak skomplikowane, »e modelowanie musi rozpocza¢ sie od stworzenia<br />

uproszczonego modelu badanego zagadnienia a dopiero potem rozwiazuje sie go metodami<br />

probabilistycznymi przy wykorzystaniu komputera. Naturalna metoda, która sªu»y<br />

do tego celu jest metoda Monte Carlo.<br />

Charakterystyczna cecha tej metody jest to, »e czesto wygodniej jest stworzy¢ od<br />

poczatku pewien schemat komputerowych losowa« odpowiadajacych badanym zjawiskom<br />

ni» szuka¢ równa« nimi rzadzacych, a dopiero pó¹niej tworzy¢ uproszczony model probabilistyczny<br />

dla rozwiazania tych równa«. Dzieje sie tak, gdy» czesto potramy przewidzie¢<br />

mo»liwe zdarzenia zachodzace w realnym, badanym problemie oraz wiemy gdzie wystepuja<br />

czynniki losowe, których efekt mo»emy odtworzy¢ przeprowadzajac odpowiednie losowania.<br />

Taki sposób postepowania, tzn. imitacja lub symulacja badanego problemu jest<br />

najprostszym, narzucajacym sie sposobem rozwiazania i tak wªa±nie byªy formuªowane<br />

pierwsze zastosowania metody Monte Carlo.<br />

12.4.1 MODELOWANIE PRZECHODZENIA NEUTRONÓW PRZEZ O‘RO-<br />

DEK SYMULACJA<br />

Jest to jedno z pierwszych zastosowa« metody Monte Carlo do modelowania realnego<br />

procesu zycznego. Dla ustalenia uwagi rozwa»my przechodzenie neutronów przez osªone<br />

reaktora jadrowego. Osªone te traktujemy jako jednorodny o±rodek materialny otoczony<br />

pró»nia (obszarem pozbawionym obiektów z którymi neutrony mogªyby oddziaªywa¢).<br />

Chcemy bada¢ proces przechodzenia neutronów przez materiaª osªony aby zaprojektowa¢<br />

niezawodne i bezpieczne osªony.<br />

Na poczatku nale»y zrobi¢ pewne zaªo»enia, które musza mie¢ uzasadnienie zyczne<br />

ale przede wszystkim sªu»a do tego aby upro±ci¢ badane zagadnienie.<br />

1. Liczba neutronów przechodzacych przez o±rodek jest na tyle niewielka, »e mo»na<br />

zaniedba¢ ich wzajemne oddziaªywanie.<br />

2. Gesto±¢ o±rodka i jego skªad nie zmienia sie w czasie.


SMOP-2 B.Kamys: 2007/08 156<br />

3. Prawdopodobie«stwo ró»nych sposobów oddziaªywania neutronu z o±rodkiem nie<br />

zale»y od tego jaka jest historia ruchu neutronu przez o±rodek.<br />

Te zaªo»enia powoduja, »e badane zjawisko mo»e by¢ traktowane jako zbiór<br />

niezale»nych historii ruchu poszczególnych neutronów .<br />

Neutron charakteryzowany jest wspóªrzedna przestrzenna ⃗r ≡ (x, y, z) i czasowa t, kierunkiem<br />

ruchu okre±lonym przez jednostkowy wektor ⃗ω ≡ (ω x , ω y , ω z ) oraz energia E.<br />

Modelujemy historie neutronu w nastepujacy sposób:<br />

a) Historia neutronu rozpoczyna sie od jego pojawienia w ¹ródle neutronów (reaktorze).<br />

Zakªadajac pewien rozkªad gesto±ci prawdopodobie«stwa f(⃗r, t, ⃗ω, E) generujemy<br />

poczatkowe warto±ci wspóªrzednych neutronu: (⃗r 0 , t 0 , ⃗ω 0 , E 0 ).<br />

b) Neutron wylatuje ze ¹ródªa i porusza sie ruchem jednostajnym po prostej do chwili zderzenia<br />

z jadrem atomu o±rodka. Generujemy dªugo±¢ drogi swobodnego ruchu.<br />

c) Neutron mo»e oddziaªywa¢ na kilka sposobów z jadrem atomu o±rodka (mo»e ulec rozproszeniu,<br />

pochªonieciu np. wychwyt radiacyjny lub rozmno»eniu jak w przypadku<br />

rozszczepienia jadra). Generujemy rodzaj oddziaªywania oraz ewentualnie kierunek<br />

(kierunki) dalszego ruchu i energie neutronu (neutronów).<br />

d) Powracamy do punktu b) lub ko«czymy symulacje gdy neutron zostaª pochªoniety albo<br />

opu±ciª badany o±rodek.<br />

ad a) W chwili t 0 rozkªad poªo»e« i energii neutronów zale»y od konkretnego problemu<br />

- ksztaªtu reaktora i reakcji w nim zachodzacych. Natomiast generacja kierunków<br />

lotu przeprowadzana jest zwykle izotropowo a wiec omówimy tu sposób generacji<br />

izotropowego wektora w przestrzeni trójwymiarowej: Idea algorytmu polega na<br />

wylosowaniu punktów jednorodnie rozmieszczonych w kuli o jednostkowym promieniu<br />

a wektor o izotropowym rozkªadzie kierunków to wektor poprowadzony ze<br />

±rodka kuli do wylosowanych jednorodnie punktów.<br />

1. Losujemy trzy niezale»ne liczby losowe o rozkªadzie jednorodnym na odcinku<br />

[0,1]: γ 1 , γ 2 i γ 3 . Przeksztaªcamy je tak aby odpowiadaªy wspólrzednym<br />

kartezja«skim jednorodnie rozªo»onych punktów w sze±cianie o ±rodku w poczatku<br />

ukªadu i boku równym dwu jednostkom: α 1 = 1 − 2 · γ 1 , α 2 =<br />

1 − 2 · γ 2 , α 3 = 1 − 2 · γ 3 .<br />

2. Obliczamy<br />

3∑<br />

d 2 = α 2 i<br />

i=1


SMOP-2 B.Kamys: 2007/08 157<br />

i sprawdzamy warunek<br />

d 2 ≤ 1.<br />

Je»eli warunek jest speªniony to wyliczamy skªadowe wersora kierunku lotu:<br />

ω x = α 1 /d,<br />

ω y = α 2 /d,<br />

ω z = α 3 /d.<br />

w przeciwnym wypadku powtarzamy caªa procedure od generacji γ 1 , γ 2 i γ 3 .<br />

Inny, najcze±ciej stosowany sposób losowania izotropowych kierunków to wykorzystanie<br />

wspólrzednych sferycznych. Wiadomo, »e kierunek w przestrzeni bedzie<br />

miaª izotropowy rozkªad, gdy rozkªad elementu kata bryªowego dΩ bedzie rozkªadem<br />

równomiernym:<br />

f(dΩ) = 1/4π dla dΩ ∈ [0, 4π]<br />

czyli wszystkie kierunki ⃗ω beda równie prawdopodobne.<br />

Element kata bryªowego we wspóªrzednych sferycznych wyra»a sie nastepujacym<br />

wzorem:<br />

dΩ = sin θdθ · dϕ<br />

co oznacza, »e niezale»ne zmienne dϕ i dcosθ te» maja rozkªady równomierne:<br />

f(d cos θ) ≡ f(sin θdθ) = 1/2 dla d cos θ ∈ [−1, 1]<br />

g(dϕ) = 1/2π<br />

dla dϕ ∈ [0, 2π].<br />

Stad otrzymujemy nastepujacy schemat losowania kierunku izotropowego:<br />

cos θ = 2γ 1 − 1<br />

ϕ = 2πγ 2 .<br />

Wtedy wspóªrzedne kartezja«skie jednostkowego wektora okre±lajacego kierunek<br />

moga by¢ wyra»one przez wspóªrzedne sferyczne:


SMOP-2 B.Kamys: 2007/08 158<br />

ω x = cosϕ · √1 − cos 2 θ<br />

ω y = sinϕ · √1 − cos 2 θ<br />

ω z = cosθ<br />

ad b) Generacja drogi swobodnej: Zakªadamy, »e prawdopodobie«stwo warunkowe<br />

(pod warunkiem, »e neutron przebyª droge l) i» na drodze od l do l + dl nastapi<br />

zderzenie jest proporcjonalne do drogi dl a wspóªczynnikiem proporcjonalno±ci jest<br />

tzw. makroskopowy przekrój czynny deniowany nastepujaco:<br />

m∑<br />

Σ(⃗r, E) ≡ ϱ i (⃗r) σ i (E)<br />

i=1<br />

gdzie ϱ i (⃗r) jest liczba jader typu i w 1 cm 3 , σ i (E) jest przekrojem czynnym na<br />

oddziaªywanie neutronu o energii E z jadrem atomowym typu i a m jest liczba<br />

rodzajów jader atomowych w materiale osªony. Mo»emy wiec prawdopodobie«stwo<br />

iloczynu zdarze« polegajacych na tym, »e<br />

• A ≡ neutron nie oddziaªuje na odcinku od zera do l,<br />

• B ≡ neutron oddziaªuje na odcinku od l do l + dl<br />

zapisa¢ nastepujaco:<br />

P (A · B) = P (A) · P (B| A) =<br />

= [1 − F (l)] · [Σ(l) dl]<br />

gdzie F (l) jest dystrybuanta dªugo±ci swobodnego lotu neutronu, tj.<br />

F (l) = P (droga < l)<br />

a<br />

1 − F (l) = P (droga ≥ l).<br />

Z drugiej strony to samo prawdopodobie«stwo, »e oddziaªywanie nastapi na odcinku<br />

od l do l + dl mo»na wyrazi¢ przez dystrybuante F (l) jako:<br />

F (l + dl) − F (l) ≡ dF.


SMOP-2 B.Kamys: 2007/08 159<br />

Porównujac te dwa wzory dostaniemy:<br />

dF<br />

1 − F (l)<br />

= Σ(l) · dl.<br />

Caªkujac obie strony otrzymujemy:<br />

∫<br />

− ln(1 − F (l)) = l<br />

1 − F (l) = exp<br />

[ 0<br />

∫<br />

− l<br />

Σ(x) · dx<br />

0<br />

Σ(x) · dx<br />

]<br />

.<br />

Ostatecznie dystrybuanta drogi swobodnego ruchu wynosi:<br />

⎡<br />

F (l) = 1 − exp ⎣−<br />

∫ l<br />

0<br />

⎤<br />

Σ(x) · dx⎦<br />

Poniewa» energia neutronu nie zmienia sie w czasie lotu pomiedzy zderzeniami wiec<br />

makroskopowy przekrój czynny Σ(⃗r, E) = Σ(⃗r) mo»e zmienia¢ sie tylko jako<br />

jawna funkcja poªo»enia. Jest to istotne wtedy gdy zmienia sie skªad materiaªu przez<br />

który przechodzi neutron. Przy jednorodnym skªadzie materiaªu znika caªkowicie<br />

zale»no±¢ od ⃗r czyli w powy»szym wzorze na dystrybuante makroskopowy przekrój<br />

czynny jest staªa wielko±cia: Σ(⃗r, E) = Σ. Wtedy mo»na ªatwo losowa¢ droge<br />

swobodnego ruchu metoda funkcji odwrotnej do dystrybuanty:<br />

l = −(1/Σ) lnγ<br />

gdzie γ jest liczba pseudolosowa z przedziaªu [0,1].<br />

Co zrobi¢, gdy materiaª nie jest jednorodny? Wydawaªoby sie, »e wtedy konieczne<br />

bedzie znaczne skomplikowanie procesu losowania drogi swobodnej. Znaleziono jednak»e<br />

bardzo zreczny sposób obej±cia trudno±ci. Sposób ten omówimy poni»ej podczas<br />

dyskusji nastepnego problemu tzn. losowania rodzaju zderzenia.


SMOP-2 B.Kamys: 2007/08 160<br />

ad c) Losowanie rodzaju oddziaªywania wymaga okre±lenia makroskopowych przekrojów<br />

czynnych na trzy gªówne procesy:<br />

• Rozpraszanie (scattering) Σ s (⃗r, E),<br />

• Absorpcje czyli wychwyt (absorption, capture) Σ a (⃗r, E) i<br />

• Rozmno»enie dzieki reakcji rozszczepienia (ssion) Σ f (⃗r, E).<br />

Je»eli wiemy, »e w danej chwili musi zaj±¢ jeden z tych trzech procesów, to prawdopodobie«stwo<br />

ka»dego z nich mo»na zapisa¢ nastepujaco:<br />

P i =<br />

Σ i<br />

3∑<br />

Σ j<br />

j=1<br />

a losowanie mo»e polega¢ na tym, »e po wygenerowaniu liczby pseudolosowej γ z<br />

przedziaªu [0,1] sprawdzamy czy:<br />

• γ < P 1 , (je»eli tak, to zachodzi proces nr 1),<br />

• P 1 ≤ γ ≤ P 2 , (je»eli tak, to zachodzi proces nr 2), oraz<br />

• γ > P 2 , (je»eli tak, to zachodzi proces nr 3).<br />

Omówimy teraz wspomniany powy»ej efektywny sposób losowania drogi swobodnego<br />

lotu neutronu w niejednorodnym materiale. Dla tego celu zaªó»my,<br />

»e oprócz tych trzech procesów mo»e zaj±¢ jeszcze kcyjne rozproszenie, które nie<br />

zmienia ani energii ani kierunku lotu neutronu a tak»e nie powoduje znikania neutronu<br />

czy te» jego rozmno»enia". Wprowad¹my staªy (niezale»ny od ⃗r i od energii)<br />

przekrój czynny α, który speªnia warunek:<br />

α ≥ sup(Σ s + Σ a + Σ f ) .<br />

Wtedy deniujemy makroskopowy przekrój na kcyjne rozproszenie Σ F jako:<br />

Σ F ≡ α − Σ s − Σ a − Σ f<br />

a prawdopodobie«stwo kcyjnego rozproszenia równe jest:<br />

P (F ) = Σ F /α ,<br />

podobnie jak prawdopodobie«stwa pozostaªych procesów:<br />

P (s) = Σ s /α<br />

P (a) = Σ a /α i<br />

P (f) = Σ f /α.


SMOP-2 B.Kamys: 2007/08 161<br />

Nale»y podkre±li¢, »e ka»dy z przekrojów Σ F , Σ s , Σ a , i Σ f mo»e sie zmienia¢ wraz<br />

z ⃗r oraz z energia ale ich suma α jest staªa. Mo»na wiec do losowania drogi swobodnego<br />

lotu neutronu w niejednorodnym materiale zastosowa¢ prosty wzór podany<br />

powy»ej dla jednorodnego materiaªu zastepujac przekrój Σ przekrojem α i<br />

uwzgledniajac kcyjne rozpraszania w losowaniu rodzaju procesu:<br />

l = −(1/α) lnγ .<br />

W ten sposób losowanie kolejnych odcinków drogi odbywa sie bardzo ªatwo ale<br />

oczywi±cie trzeba za to zapªaci¢ zwiekszona liczba losowa«, które beda sie ko«czy¢<br />

kcyjnym rozpraszaniem. Inaczej mówiac zamiast losowa¢ w skomplikowany sposób<br />

w jednym kroku dªugo±¢ swobodnego przebiegu neutronu robimy to w ªatwy sposób<br />

w kilku kolejnych krokach, w których neutron porusza sie bez zderze« ruchem<br />

jednostajnym po tej samej prostej.<br />

Poprawno±¢ powy»szej intuicyjnej metody postepowania zostaªa ±ci±le udowodniona<br />

(W.A. Coleman, Nucl. Sci. Engng. 32 (1968) 76).<br />

Dla oszacowania prawdopodobie«stwa konkretnego losu neutronu, tzn. prawdopodobie«stwa<br />

absorpcji w o±rodku, prawdopodobie«stwa zaj±cia rozszczepienia lub te» prawdopodobie«stwa<br />

opuszczenia o±rodka przez neutron tworzymy estymator prawdopodobie«-<br />

stwa danego zdarzenia A korzystajac z twierdzenia Bernoulliego (Cantellego):<br />

T N (p A ) = N A<br />

N<br />

gdzie N A to liczba tych historii neutronu, w których zaszªo zdarzenie A a N to liczba<br />

wszystkich neutronów rozwa»anych w symulacji.<br />

UWAGA:<br />

Mo»na uwa»a¢, »e ka»dej historii losowanego neutronu przypisujemy zmienna X A przyjmujaca<br />

warto±¢ 1 gdy zdarzenie A zachodzi i warto±¢ 0 gdy to zdarzenie nie zachodzi.<br />

Wtedy prawdopodobie«stwo zaj±cia zdarzenia A jest oczywi±cie równe prawdopodobie«-<br />

stwu tego, »e zmienna X A przyjmie warto±¢ 1:<br />

P (X A = 1) = p A<br />

P (X A = 0) = 1 − p A<br />

Postepujemy tak miedzy innymi wtedy, gdy rejestrujemy zdarzenia i tworzymy histogram<br />

warto±ci obserwowanej zmiennej dodajac do histogramu jedynke dla wyró»nionego przedziaªu<br />

warto±ci mierzonej zmiennej lub nie dodajac jedynki (tzn. dodajac zero) do tego


SMOP-2 B.Kamys: 2007/08 162<br />

przedziaªu.<br />

Prawdopodobie«stwo traenia warto±ci mierzonej zmiennej do wybranego przedziaªu<br />

wynosi p A i jest równe warto±ci oczekiwanej zmiennej losowej X A :<br />

E(X A ) = 1 · p A + 0 · (1 − p A ) = p A<br />

a wiec jako estymator prawdopodobie«stwa, »e zaszªo zdarzenie A bierzemy<br />

T N (p A ) = 1 N<br />

N∑<br />

(X A ) i<br />

i=1<br />

Wariancja zmiennej X A tak»e jest ªatwa do policzenia:<br />

var(X A ) ≡ E(X 2 A ) − E2 (X A ) = [1 2 · p A + 0 2 · (1 − p A )] − p 2 A = p A − p 2 A .<br />

12.4.2 MODELOWANIE PRZEZ ZASTOSOWANIE WAG STATYSTYCZ-<br />

NYCH<br />

Modelowanie przez zastosowanie symulacji jest najbardziej intuicyjna i naturalna metoda<br />

ale nie jest najbardziej efektywne. Okazuje sie, »e mo»na przy tym samym wysiªku obliczeniowym<br />

uzyska¢ znacznie mniejsza wariancje wyników (czyli znacznie mniejszy bªad)<br />

gdy zastosuje sie modelowanie z u»yciem wag statystycznych rozwa»anych zdarze«.<br />

Metoda ta opiera sie na twierdzeniu omówionym poni»ej:<br />

TWIERDZENIE:<br />

Je»eli zmienna losowa X ma warto±¢ oczekiwana równa E(X) = p A oraz speªnia nierówno±¢<br />

0 ≤ X ≤ 1, to wariancja X jest mniejsza lub równa wariancji zmiennej zerojedynkowej<br />

X A .<br />

DOWÓD:<br />

Poniewa» 0 ≤ X ≤ 1 to zawsze X 2 ≤ X, a wiec<br />

stad wariancja X<br />

E(X 2 ) ≤ E(X) ≡ p A<br />

var(X) ≡ E(X 2 ) − E 2 (X) ≤ p A − E 2 (X) = p A − p 2 A ≡ var(X A). c.b.d.o.


SMOP-2 B.Kamys: 2007/08 163<br />

WNIOSEK: zamiast przyporzadkowywa¢ zdarzeniom zmienna zero-jedynkowa X A jest<br />

bardziej efektywne przyporzadkowa¢ wage o wªasno±ciach zmiennej X z omawianego<br />

twierdzenia.<br />

PRZYKŠAD:<br />

Badamy ±redni czas »ycia τ promieniotwórczej substancji rejestrujac liczbe rozpadów<br />

na jednostke czasu, np. na minue, przez godzine od chwili wytworzenia tej substancji.<br />

Chcemy znale¹¢ ±redni czas »ycia rozpadajacych sie jader metoda najwiekszej wiarygodno±ci<br />

lub najmniejszych kwadratów. W tym celu generujemy histogramy liczby rejestrowanych<br />

zdarze« przy ró»nych zaªo»onych warto±ciach czasu »ycia. Okazuje sie, »e czas<br />

»ycia jest tak krótki, »e w ciagu godziny liczba rejestrowanych zdarze« maleje 10 6 razy.<br />

Rozpatrzmy jak beda sie ró»ni¢ dwie metody modelowania: 1) symulacja ka»dego zdarzenia<br />

i 2) losowanie zdarze« i przypisywanie im wag:<br />

ad 1.<br />

W takiej sytuacji modelowanie rozkªadu przez symulacje, tzn. losowanie czasu zgodnie z<br />

rozkªadem wykªadniczym i dodawanie jedno±ci do odpowiedniego przedziaªu histogramu<br />

dawaªoby bardzo ró»na statystyke rejestrowanych zdarze« dla krótkich i dªugich czasów<br />

»ycia. Na przykªad, gdy dla pierwszej minuty wylosowano by 10 6 zdarze« to dla ostatniej<br />

tylko jedno zdarzenie. A wiec bªad wzgledny liczby rozpadów po krótkim czasie byªby<br />

rzedu 0.001 podczas gdy dla ostatniej minuty bªad wgledny byªby rzedu jedno±ci. Aby<br />

wiec dosta¢ bªad wzgledny ∼ 0.1 dla dªugich czasów nale»aªoby losowa¢ 100 razy wiecej<br />

zdarze« dla caªego histogramu. Byªoby to ªacznie ponad 10 8 losowa«.<br />

ad 2.<br />

Wylosujemy liczby z rozkªadu równomiernego tak aby na ka»da minute wypadaªo 100 zdarze«,<br />

czyli na caªy histogram 60 · 100 = 6000 zdarze«. Ka»demu zdarzeniu przypiszemy<br />

wage ∼ exp(− t ). Histogram tworzymy dodajac wagi zdarze« odpowiadajacych odpowiednim<br />

przedziaªom (minutom) czasu obserwacji. Wtedy dostaniemy histogram, który<br />

τ<br />

bedzie miaª dla ka»dego przedziaªu taka sama warto±¢ oczekiwana wysoko±ci sªupka jak<br />

przy losowaniu wg pierwszej metody ale wzgledny bªad wysoko±ci wszystkich sªupków<br />

bedzie taki sam równy 0.1.<br />

Wida¢, »e zastosowanie wag ma nastepujace zalety:<br />

• Pozwala na otrzymanie takich samych warto±ci wzglednych bªedów dla ka»dego przedziaªu<br />

histogramu co jest wa»ne gdy chcemy odtworzy¢ ksztaªt rozkªadu.<br />

• Pozwala poprawi¢ statystyke rzadkich zdarze«.<br />

• Mo»e znacznie skróci¢ rachunki, co czesto jest bardzo wa»ne szczególnie gdy rachunki<br />

musza by¢ wykonywane wielokrotnie.


SMOP-2 B.Kamys: 2007/08 164<br />

12.4.3 MODELOWANIE PRZECHODZENIA NEUTRONÓW PRZEZ O‘RO-<br />

DEK WAGI STATYSTYCZNE<br />

Przy zastosowaniu wag statystycznych rezygnujemy z imitacji jeden do jeden realnego<br />

procesu. Wybieramy wagi statystyczne, tak aby otrzyma¢ informacje o tych aspektach<br />

procesu, które nas interesuja. Stad wybór wag zale»y od celu jaki chcemy osiagna¢. Na<br />

przykªadzie badania prawdopodobie«stwa absorpcji neutronów w danym o±rodku poka-<br />

»emy ró»ne sposoby wyboru wag:<br />

1. Wagi zastepujace losowanie absorpcja inny rodzaj oddziaªywania.<br />

2. Wagi uwzgledniajace wylot neutronu z o±rodka<br />

3. Wagi uwzgledniajace oba efekty<br />

ad 1.) Wagi zastepujace losowanie absorpcja inny rodzaj oddziaªywania Przypu±¢my,<br />

»e ze ¹ródªa emitujacego neutrony wylatuje nie jeden neutron lecz du»a grupa<br />

n 0 neutronów o tych samych charakterystykach (energia, kierunek lotu). Po wylosowaniu<br />

dªugo±ci drogi swobodnego lotu (do pierwszego zderzenia) rozpatrujemy co<br />

dzieje sie w chwili zderzenia neutronu z jadrem atomowym. Zakªadajac, »e wynikiem<br />

zderzenia jest rozproszenie neutronu lub jego absorpcja oraz znajac makroskopowe<br />

przekroje czynne Σ s i Σ a , odpowiednio na rozproszenie (scattering), i absorpcje<br />

(absorption) mo»emy stwierdzi¢, »e prawdopodobie«stwo rozproszenia (s i ) i prawdopodobie«stwo<br />

absorpcji (a i ) w punkcie ⃗r i wyra»aja sie wzorami:<br />

s i ≡ Σ s (⃗r i )/ [Σ s (⃗r i ) + Σ a (⃗r i )]<br />

a i ≡ Σ a (⃗r i )/ [Σ s (⃗r i ) + Σ a (⃗r i )]<br />

czyli ±rednio (a 1·n 0 ) neutronów dozna absorpcji w punkcie r 1 a (s 1·n 0 ) neutronów<br />

bedzie kontynuowaªo lot. Od tego momentu procedura losowania powtarza sie, tzn.<br />

losuje sie kierunek i dªugo±¢ drogi swobodnego lotu grupy rozproszonych neutronów<br />

a» do nastepnego zderzenia. A wiec przy drugim zderzeniu (s 1 · a 2 · n 0 ) neutronów<br />

zostanie zaabsorbowane a (s 1 · s 2 · n 0 ) rozproszy sie. Rachunki te powtarza sie tak<br />

dªugo a» neutrony opuszcza badany o±rodek. Ostatecznie liczba neutronów, które<br />

zostana zaabsorbowane podczas takiej serii zderze« mo»e by¢ zapisana nastepujaco:<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

j−1 ∑<br />

j−1 ∑<br />

n = ⎝ s 1 · s 2 . . . s i · a i+1<br />

⎠ n 0 = ⎝ s 1 · s 2 . . . s i · (1 − s i+1 ) ⎠ n 0<br />

i=0<br />

Prosze zwróci¢ uwage, »e zamiast bra¢ du»a grupe neutronów mo»emy przyja¢<br />

n 0 ≡ 1, ale musimy wtedy zmieni¢ interpretacje wielko±ci n w powy»szym wzorze.<br />

Otó» po przyjeciu n 0 = 1 nale»y interpretowa¢ n jako prawdopodobie«stwo, »e pojedynczy<br />

neutron wysªany ze ¹ródªa zostanie zaabsorbowany podczas przebywania<br />

i=0


SMOP-2 B.Kamys: 2007/08 165<br />

wylosowanej drogi w o±rodku. A wiec prawdopodobie«stwo absorpcji p a neutronu<br />

w o±rodku jest warto±cia oczekiwana z tego prawdopodobie«stwa dla ró»nych<br />

dróg neutronu przez o±rodek :<br />

p a = E(n)<br />

a estymatorem prawdopodobie«stwa absorpcji jest ±rednia arytmetyczna z prawdopodobie«stw<br />

absorpcji neutronów poruszajacych sie po ró»nych drogach w o±rodku:<br />

T N (p a ) = 1 N<br />

N∑<br />

n k .<br />

k=1<br />

Poniewa» prawdopodobie«stwo n absorpcji neutronu na ró»nych drogach speªnia<br />

warunki twierdzenia omawianego poprzednio dla wag zdarze« ( E(n) = p a i<br />

0 ≤ n ≤ 1), wiec mo»emy uzna¢ je za wage neutronu i dostajemy, »e wariancja<br />

n jest mniejsza od wariancji zmiennej X a przyjmujacej warto±¢ jeden (gdy nastapi<br />

absorpcja) i zero (gdy absorpcji nie ma), która u»ywa sie w zwykªej symulacji.<br />

Nale»y podkre±li¢, »e wysiªek rachunkowy przy losowaniu historii N neutronów jest<br />

praktycznie taki sam, gdy do oszacowania p a bierzemy zmienna X a i wage n mimo,<br />

»e w drugim wypadku otrzymujemy oszacowanie z mniejszym bªedem .<br />

ad 2.) Wagi uwzgledniajace wylot neutronu z o±rodka Omówimy teraz jak przy pomocy<br />

wag mo»na uwzgledni¢ fakt, »e cze±¢ neutronów wydostaje sie z o±rodka a wiec<br />

nie moga by¢ zaabsorbowane. Zacznijmy od analogicznego rozumowania jak powy-<br />

»ej: Grupa n 0 neutronów wylatuje ze ¹ródªa poªo»onego w ⃗r 0 w tym samym kierunku<br />

⃗ω 0 . Odlegªo±¢ od ¹ródªa do granicy o±rodka w tym kierunku wynosi l 0 . Je»eli<br />

oznaczymy przez F 0 (l 0 ) warto±¢ dystrybuanty dªugo±ci swobodnej drogi neutronu<br />

to prawdopodobie«stwo tego, »e nukleon bedzie na tej drodze zderzaª sie z jadrami<br />

atomowymi o±rodka wynosi P (l < l 0 ) ≡ F 0 (l 0 ). Poniewa» chcemy rozpatrywa¢<br />

tylko te neutrony, które nie opu±ciªy badanego o±rodka wiec:<br />

1. Wiemy, »e ±rednio w punkcie ⃗r 1 bedzie oddziaªywaªo n 1 = n 0 · F 0 (l 0 ).<br />

2. Poniewa» chcemy, aby dla tych neutronów oddziaªywanie nastapiªo z pewno±cia<br />

wiec odlegªo±¢ l ′ od ⃗r 0 do ⃗r 1 losujemy z rozkªadu odlegªo±ci obcietego do<br />

odcinka 0 < l ′ < l 0 , czyli:<br />

F (l ′ ) = F 0 (l ′ )/F 0 (l 0 ).<br />

Omówimy to bardziej szczegóªowo poni»ej.<br />

3. Losujemy (ze znajomo±ci makroskopowych przekrojów Σ s (⃗r 1 ) na rozproszenie<br />

i Σ a (⃗r 1 ) na absorpcje) czy nastapi rozproszenie i wtedy grupa wylatujacych<br />

z punktu ⃗r 1 neutronów bedzie zawieraªa n 1 neutronów lub zostanie ona zaabsorbowana<br />

w tym punkcie i wtedy przestajemy ±ledzi¢ los grupy neutronów<br />

wiedzac, »e n 1 neutronów zostaªo zaabsorbowane.


SMOP-2 B.Kamys: 2007/08 166<br />

Powtarzajac powy»sze kroki postepowania dostajemy, »e liczba neutronów zaabsorbowanych<br />

po i zderzeniach wynosi:<br />

n = F 0 (l 0 ) · F 1 (l 1 ) . . . F i−1 (l i−1 ) · n 0<br />

a postepujac tak jak poprzednio, tzn. kªadac n 0 = 1 dostajemy jako wage neutronu<br />

wyra»enie:<br />

n = F 0 (l 0 ) · F 1 (l 1 ) . . . F i−1 (l i−1 )<br />

a estymatorem prawdopodobie«stwa absorpcji bedzie ±rednia arytmetyczna z powy»szych<br />

wag otrzymanych dla ró»nych dróg neutronu w o±rodku:<br />

T N (p a ) = 1 N<br />

N∑<br />

n k<br />

k=1<br />

UWAGA:<br />

Powracajac do losowania odlegªo±ci pomiedzy zderzeniami, nale»y sobie u±wiadomi¢,<br />

»e w tej metodzie »adamy aby neutron zostaª pochªoniety czyli nie mo»e on opu±ci¢<br />

o±rodka. ›adanie to prowadziªoby do niezycznych wyników ale kompensujemy<br />

to wªa±nie przez dobór wag i przez to, »e losowanie swobodnej drogi pomiedzy<br />

zderzeniami wykonywane jest przy wykorzystaniu obcietego rozkªadu dªugo±ci drogi<br />

swobodnej. Przez rozkªad uciety rozumiemy rozkªad ograniczony do sko«czonego<br />

odcinka zmiennej losowej. Je»eli oryginalna funkcja gesto±ci prawdopodobie«stwa<br />

dªugo±ci drogi swobodnej f(x) byªa wieksza od zera dla nieujemnych warto±ci drogi to<br />

obcieta funkcja gesto±ci g(x) jest wieksza od zera tylko dla argumentów z przedziaªu<br />

[0, l], gdzie l jest odlegªo±cia od danego punktu do brzegu o±rodka. Ucieta funkcja<br />

gesto±ci prawdopodobie«stwa jest równa zero poza tym odcinkiem a ma warto±ci<br />

proporcjonalne do f(x) na tym odcinku. Wspóªczynnikiem proporcjonalno±ci jest:<br />

1<br />

F (l) − F (0)<br />

ale poniewa» droga musi by¢ nieujemna wiec F (0) = 0 i wspóªczynnikiem proporcjonalno±ci<br />

jest<br />

1<br />

jak to podali±my powy»ej.<br />

F (l)


SMOP-2 B.Kamys: 2007/08 167<br />

ad 3.) Wagi uwzgledniajace oba efekty Przeprowadzajac analogiczne rozumowanie jak<br />

w dwu poprzednich punktach i uwzgledniajac w wagach zarówno mo»liwo±¢ absorpcji<br />

jak i »adanie aby neutron nie opu±ciª o±rodka dostajemy, »e dla danej trajektorii<br />

neutronu po i zderzeniach prawdopodobie«stwo rozproszenia w punkcie ⃗r i+1 bedzie<br />

równe:<br />

n i+1 (s) = F 0 (l 0 )s 1 · F 1 (l 1 )s 2 . . . F i−1 (l i−1 )s i · F i (l i )s i+1<br />

a prawdopodobie«stwo absorpcji:<br />

n i+1 (a) = F 0 (l 0 )s 1 · F 1 (l 1 )s 2 . . . F i−1 (l i−1 )s i · F i (l i )a i+1<br />

Jak wida¢ oba prawdopodobie«stwa sa niezerowe a wiec trajektorie zawieraªyby<br />

niesko«czenie wiele zderze«. W praktyce przerywamy losowanie gdy prawdopodobie«stwa<br />

powy»sze ró»nia sie zaniedbywalnie maªo od zera.<br />

Caªkowite prawdopodobie«stwo pochªoniecia neutronu na danej trajektorii (czyli<br />

inaczej waga neutronu wynosi w tym przypadku:<br />

∞∑<br />

n = n i+1 (a)<br />

i=0<br />

a estymator prawdopodobie«stwa absorpcji:<br />

N∑<br />

T N (p a ) = 1 N<br />

n k<br />

k=1<br />

gdzie sumowanie odbywa sie po N trajektoriach (historiach) neutronu.


SMOP-2 B.Kamys: 2007/08 168<br />

Literatura<br />

[1] P. Armitage, Metody statystyczne w badaniach medycznych", Pa«stwowy Zakªad<br />

Wydawnictw Lekarskich, Warszawa 1978<br />

[2] Hubert M. Blalock, Statystyka dla socjologów", Pa«stwowe Wydawnictwo Naukowe,<br />

Warszawa 1977<br />

[3] Zdzisªaw Bogucki, Elementy statystyki dla biologów", Wydawnictwo Naukowe Uniwersytetu<br />

im. Adama Mickiewicza w Poznaniu, Pozna« 1979<br />

[4] L.N. Bolszew, N.W. Smirnow, "Tablicy matiematiczieskoj statistiki", Nauka, Moskwa<br />

1983<br />

[5] Siegmund Brandt, Analiza danych", PWN, Warszawa 1998<br />

[6] W.T. Eadie, D. Drijard, F.E. James, M. Roos, B. Sadoulet, Metody statystyczne w<br />

zyce do±wiadczalnej", Pa«stwowe Wydawnictwo Naukowe, Warszawa 1989<br />

[7] George A. Ferguson, Yoshio Takane, Analiza statystyczna w psychologii i pedagogice",<br />

Wydawnictwo Naukowe PWN, Warszawa 1999<br />

[8] M.Fisz, Rachunek prawdopodobie«stwa i statystyka matematyczna", PWN Warszawa<br />

1967)<br />

[9] "High Energy and Nuclear Physics Data Handbook", ed. by W. Galbraith, W.S.C.<br />

Williams, Chilton 1963<br />

[10] Maurice G. Kendall, Alan Stuart, "The Advanced Theory of Statistics", Charles<br />

Grin & Company Limited, London 1966<br />

[11] G.A. Korn, T.M. Korn, "Mathematical Handbook for Scientists and Engineers",<br />

McGraw-Hill Book Company, Inc., New York - Toronto - London 1961<br />

[12] R. Zieli«ski, "Tablice statystyczne", Warszawa 1972<br />

[13] R. E. Parker, Wprowadzenie do statystyki dla biologów", Pa«stwowe Wydawnictwo<br />

Naukowe, Warszawa 1978<br />

[14] Zbigniew Pawªowski, Statystyka matematyczna",PWN, Warszawa 1976<br />

[15] Arkadiusz Piekara, Mechanika ogólna", Pa«stwowe Wydawnictwo Naukowe, Warszawa<br />

1975<br />

[16] Bogusªaw Kamys, Statystyczne Metody Opracowania Pomiarów - 1", Wykªad dla<br />

studentów I roku zyki<br />

[17] Andrzej Stanisz, Przystepny kurs statystyki w oparciu o program STATISTICA PL<br />

na przykªadach z medycyny", Kraków 1998<br />

[18] NIST/SEMATECH e-Handbook of Statistical Methods,<br />

http://www.itl.nist.gov/div898/handbook/

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!