27.04.2013 Views

TILASTOLLINEN KOKEIDEN SUUNNITTELU JA OTANTA

TILASTOLLINEN KOKEIDEN SUUNNITTELU JA OTANTA

TILASTOLLINEN KOKEIDEN SUUNNITTELU JA OTANTA

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>TILASTOLLINEN</strong><br />

<strong>KOKEIDEN</strong><br />

<strong>SUUNNITTELU</strong><br />

<strong>JA</strong> <strong>OTANTA</strong><br />

Keijo Ruohonen<br />

2000


Sisältö<br />

1 I REGRESSIO<br />

1 1.1 Regressiomalli<br />

2 1.2 Mallin estimointi ja käyttö<br />

7 1.3 Varianssianalyysi (ANOVA)<br />

12 1.4 Mallin epäsopivuuden testaus toistokokein<br />

16 1.5 Datan affiinimuunnokset. Ortogonaalisuus ja kiertosymmetrisyys<br />

22 1.6 Esimerkki ortogonaalisesta 1. kertaluvun suunnittelusta: Simplex-koe, Plackett–Burman-koe<br />

25 1.7 2 k -kokeet: Katsaus<br />

27 1.8 Toisen kertaluvun regressiomalli<br />

31 1.9 Ortogonalisoituvia toisen kertaluvun malleja: 3 k -kokeet, CCD-kokeet<br />

34 II VASTEEN OPTIMOINTI<br />

34 2.1 Yleistä<br />

34 2.2 Regressiomenetelmä<br />

39 2.3 Nelder–Mead-algoritmi<br />

40 III KVALITATIIVISET FAKTORIT<br />

40 3.1 Yksisuuntainen ANOVA<br />

44 3.1.1 Parametrien estimointi<br />

45 3.1.2 Hypoteesien testaus. Kontrastit<br />

47 3.1.3 Yhdistettyjä testejä<br />

51 3.1.4 Mallin riittävyys<br />

55 3.2 Monisuuntainen ANOVA<br />

55 3.2.1 Satunnaistetut lohkot<br />

63 3.2.2 Roomalaiset neliöt<br />

71 IV MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong><br />

71 4.1 Satunnaisotanta<br />

75 4.2 Ositettu otanta<br />

83 4.3 Yksiasteinen otanta. Systemaattinen otanta<br />

87 LIITE A: Matriisilaskentaa<br />

91 LIITE B: Multinormaalijakauma<br />

92 Kirjallisuutta<br />

93 Hakemisto<br />

i


Esipuhe<br />

Tämä moniste on tarkoitettu TTKK:n kurssin ”73164 Tilastollinen kokeiden suunnittelu” perusmateriaaliksi.<br />

Pääsisältönään se esittelee kvantitatiivisen kokeiden suunnittelun perusteet modernin<br />

vastepintaformalismin avulla käsiteltynä. Esityksen pohjana on paljolti kirja KHURI &<br />

CORNELL. Myös useita suunnittelukaavioita on esillä esimerkinomaisesti. (Lisää niitä löytyy<br />

mainitusta kirjasta ja muusta kirjallisuudesta.)<br />

Monisteessa käsitellään myös kvalitatiivista kokeiden suunnittelua, pohjana paljolti kirja<br />

MONTGOMERY. Koska tämän aihepiirin merkitys on nähdäkseni vähenemässä, varsinkin tekniikassa,<br />

on kyseessä lähinnä vain katsaus.<br />

Niin teoria kuin menetelmätkin esitetään kauttaaltaan matriisiformalismin avulla, jolloin ne<br />

ovat suoraan kokeiltavissa ja sovellettavissa esimerkiksi Matlab-ohjelmistoa käyttäen. (Koeajot<br />

menetelmistä esitetään monisteessa kuitenkin Systat-ohjelmistolla tehtyinä ja Matlab-ajot<br />

jäävät esimerkkeihin ja harjoituksiin.) Esityksen esikuvana on ollut ekonometrian klassikon<br />

JOHNSTONin tyylikäs matriisimuotoinen esitys. Todettakoon, että matriisi- ja lineaarialgebraformalismi<br />

on ollut tilastollisten monimuuttujamenetelmien ”pelastus”. Ilman sitä asian esitys<br />

on huomattavan kankeaa, kuten alan vanhemmista oppikirjoistakin voi havaita (esimerkkinä<br />

vaikka GUENTHER).<br />

Monisteen lopussa on tiivis esitys monen muuttujan pienotantamenetelmistä matriisimuodossa.<br />

Sitä ei ehdittäne käymään kurssilla läpi. Alan kirjallisuudessa ei tällaista esitystä juuri ole<br />

(erinäisiä artikkeleita ja raportteja lukuunottamatta), vaikka otanta nykyisin on usein ”moniulotteista”.<br />

Vanhat klassikotkin (kuten esimerkiksi COCHRAN) käsittelevät vain yhden muuttujan<br />

otantaa.<br />

Liitteinä on annettu eräitä matriisilaskentaa ja multinormaalijakaumaa koskevia tuloksia.<br />

Esitietona tilastomatematiikan peruskurssit sekä insinöörimatematiikan suorittaneille myös kurssi<br />

73109 Matriisilaskenta 1 ovat kuitenkin tarpeen.<br />

Keijo Ruohonen<br />

ii


Luku 1<br />

REGRESSIO<br />

1.1 Regressiomalli<br />

(Kertaa kurssilta Tilastomatematiikka tai Laaja matematiikka 4.)<br />

Mallinnustilanteessa suure y riippuu suureista x1,...,xk tunnetun tai tuntemattoman funktion<br />

Φ kautta, ts.<br />

y =Φ(x1,...,xk).<br />

y on tällöin ns. vaste eli selitettävä muuttuja ja x1,...,xk ovat ns. faktoreita eli selittäviä muuttujia.<br />

Faktoreiden arvoja kutsutaan tasoiksi. Φ on ns. todellinen vastefunktio.<br />

Φ on yleensä tuntematon tai sitten niin mutkikas, ettei sitä voida sellaisenaan käyttää. Niinpä<br />

Φ:n tilalle otetaan sitä approksimoiva funktio, jossa esiintyy parametrejä, esimerkiksi monen<br />

muuttujan polynomi, jonka kertoimet ovat parametrejä.<br />

Approksimoitaessa malli ei enää ole tarkka. Lisäksi käytännössä esiintyy mittaus- ym. virheitä.<br />

Jos Φ:tä approksimoiva funktio on f, niin malli on muotoa<br />

y = f(x1,...,xk)+ɛ,<br />

missä ɛ on virhetermi. Tilastollisessa regressiossa ɛ katsotaan satunnaismuuttujaksi, jolla on<br />

N(0,σ 2 )-jakauma. (Odotusarvo on 0, sillä systemaattinen virhe voidaan sisällyttää funktioon<br />

f(x1,...,xk).)<br />

Jos siis esimerkiksi f on ensimmäisen asteen polynomi, on malli muotoa<br />

y = β0 + β1x1 + ···+ βkxk + ɛ.<br />

missä β0,β1,...,βk ovat parametrit. Kyseessä on ensimmäisen kertaluvun regressiomalli. Jos<br />

merkitään<br />

⎛ ⎞<br />

1<br />

⎜ x1<br />

⎟<br />

x = ⎜ ⎟<br />

⎝ . ⎠<br />

ja<br />

⎛ ⎞<br />

β0<br />

⎜ β1<br />

⎟<br />

β = ⎜ ⎟<br />

⎝ . ⎠ ,<br />

voidaan tällainen 1. kertaluvun regressiomalli kirjoittaa muotoon<br />

xk<br />

y = x T β + ɛ.<br />

Yleisesti d:nnen kertaluvun regressiomalli on muotoa y = p(x1,...,xk) +ɛ oleva malli,<br />

missä p on muuttujien x1,...,xk d:nnen asteen polynomi, jonka kertoimet ovat parametrejä.<br />

Polynomin p ei tarvitse sisältää kaikkia mahdollisia termejä. Itse asiassa polynomiaalinen<br />

regressio voidaan palauttaa 1. kertaluvun regressioksi seuraavalla tempulla:<br />

1<br />

βk


LUKU 1. REGRESSIO 2<br />

1. Otetaan kutakin polynomissa p esiintyvää korkeampaa kuin ensimmäisen asteen termiä,<br />

esimerkiksi termiä β133x1x 2 3,kohti uusi muuttuja z133.<br />

2. Kirjoitetaan z133:n arvoksi x1x 2 3:n arvo.<br />

3. Valitaan z133:n kertoimeksi eli parametriksi β133.<br />

Tällainen malli on lineaarinen, ts. parametriensä lineaariyhdelmä + virhetermi.<br />

1.2 Mallin estimointi ja käyttö<br />

(Kertaa kurssilta Tilastomatematiikka tai Laaja matematiikka 4.)<br />

Malli saadaan käyttöön, kun ensin on saatu kokeiden tuloksena tietty määrä faktorien arvoyhdelmiä<br />

ja niitä vastaavat vasteen arvot. Tällaisen kerätyn datan avulla voidaan mallia käyttää<br />

a) vasteen arvon ennustamiseen sellaisille faktorien arvoyhdelmille, joita vastaavia kokeita<br />

ei ole tehty. Tätä varten estimoidaan datan avulla mallin parametrit.<br />

b) erilaisten faktoreita koskevien hypoteesien testaamiseen. Esimerkiksi 1. kertaluvun regressiossa<br />

hypoteesi β1 =0tarkoittaisi sitä, että faktorilla x1 ei ole vaikutusta vasteeseen.<br />

c) virheen ɛ varianssin estimointiin.<br />

d) antamaan tietoa siitä minkälaista uutta dataa on kerättävä, esimerkiksi vasteen maksimiarvon<br />

löytämiseksi. Jne.<br />

Jos data on jo kerätty tai siihen ei muuten voida vaikuttaa, ei kokeiden suunnittelua tarvita.<br />

Muussa tapauksessa, erityisesti jos datan keruu on kallista, vaarallista tai muuten hankalaa, tarvitaan<br />

kokeiden suunnittelua. Kokeiden suunnittelun tarkoituksena on mahdollisimman pienen<br />

datan avulla saada sovelletuksi mallia halutulla tavalla.<br />

Katsotaan lähemmin parametrien estimointiin, ennustamiseen ja σ 2 :n estimointiin liittyviä<br />

käsitteitä. Tarkastellaan tässä 1. kertaluvun mallia, joihin siis polynomiaalisetkin mallit voidaan<br />

palauttaa.<br />

Tavallisin estimointitapa on pienimmän neliösumman keino. Se on kätevintä esittää matriisiformalismin<br />

avulla. Datana on kerätty N kappaletta faktorien arvoyhdelmiä sekä niitä vastaavat<br />

vasteen arvot:<br />

faktorit vaste<br />

x11,...,x1k<br />

y1<br />

x21,...,x2k y2<br />

... ...<br />

xN1,...,xNk yN<br />

Näistä muodostetaan ns. datamatriisi X sekä vastevektori y:<br />

⎛<br />

1<br />

⎜ 1<br />

X = ⎜<br />

⎝ .<br />

x11<br />

x21<br />

.<br />

x12<br />

x22<br />

.<br />

···<br />

···<br />

...<br />

x1k<br />

x2k<br />

.<br />

⎞<br />

⎟<br />

⎠<br />

,<br />

⎛<br />

⎜<br />

y = ⎜<br />

⎝<br />

1 xN1 xN2 ··· xNk<br />

Pienimmän neliösumman keinossa valitaan parametrit β siten, että<br />

y − Xβ 2 =(y − Xβ) T (y − Xβ)<br />

y1<br />

y2<br />

.<br />

yN<br />

⎞<br />

⎟<br />

⎠ .


LUKU 1. REGRESSIO 3<br />

minimoituu. Gradientti β:n suhteen on −2X T (y − Xβ) ja merkitsemällä se nollavektoriksi<br />

saadaan lineaarinen yhtälöryhmä<br />

X T Xβ = X T y,<br />

josta ratkaistaan β:<br />

β =(X T X) −1 X T y =merk. b =<br />

Tällöin tietysti oletetaan, että XT X on ei-singuläärinen ja erityisesti että N ≥ k +1. XT X ja<br />

(XT X) −1 ovat symmetrisiä matriiseja.<br />

Koska 1. kertaluvun malli on muotoa y = xT β + ɛ, liittyvät vastevektori ja datamatriisi<br />

toisiinsa yhtälöllä<br />

⎛ ⎞<br />

⎜<br />

y = Xβ + ɛ , ɛ = ⎜<br />

⎝<br />

missä ɛ on satunnaisvektori. Satunnaismuuttujat ɛ1,ɛ2,...,ɛN ovat riippumattomia (sillä kokeet<br />

suoritetaan toisistaan riippumattomasti) ja niillä on kullakin N(0,σ 2 )-jakauma. Satunnaisvektorilla<br />

ɛ on siis N(0,σ 2 IN)-multinormaalijakauma. Koska ɛ on satunnaisvektori, niin samoin<br />

on y = Xβ + ɛ sekä edelleen<br />

⎛<br />

⎜<br />

⎝<br />

ɛ1<br />

ɛ2<br />

.<br />

ɛN<br />

b0<br />

b1<br />

.<br />

bk<br />

⎟<br />

⎠ ,<br />

⎞<br />

⎟<br />

⎠ .<br />

b =(X T X) −1 X T y =(X T X) −1 X T (Xβ + ɛ) =β +(X T X) −1 X T ɛ.<br />

Huomautus. Vaikka ɛ:n komponentit ovat riippumattomia satunnaismuuttujia, eivät b:n komponentit<br />

sitä yleisesti ole. Välittömästi todetaan nimittäin, että<br />

ja<br />

E(b) =E(β +(X T X) −1 X T ɛ)=β +(X T X) −1 X T E(ɛ) =β<br />

V (b) =V (β +(X T X) −1 X T ɛ)=(X T X) −1 X T V (ɛ)X(X T X) −1 = σ 2 (X T X) −1 .<br />

Siispä b:llä on N(β,σ 2 (X T X) −1 )-multinormaalijakauma ja sen komponentit ovat riippumattomat<br />

tarkalleen silloin, kun X T X on lävistäjämatriisi (jolloin myös (X T X) −1 on lävistäjämatriisi).<br />

Kun b on saatu, voidaan muita faktorien tasoja x ′ vastaava vasteen arvo ennustaa 1 :<br />

ˆy =(x ′ ) T b.<br />

b on satunnaisvektori, joten ˆy on satunnaismuuttuja. Edelleen<br />

ja<br />

E(ˆy) =(x ′ ) T E(b) =(x ′ ) T β<br />

V (ˆy) =(x ′ ) T V (b)x ′ = σ 2 (x ′ ) T (X T X) −1 x ′ .<br />

1 2 ′ T Ennustuksessa on usein mukana myös N(0,σ )-jakautunut virhetermi ɛ, jolloin ˆy =(x ) b + ɛ ja V (ˆy) =<br />

σ2 (1+(x ′ ) T (XT X) −1x ′ ).


LUKU 1. REGRESSIO 4<br />

Erityisesti voidaan ”ennustaa” datamatriisissa esiintyviä faktorien arvoyhdelmiä vastaavat vasteet:<br />

ˆy = Xb = X(X T X) −1 X T y.<br />

Erotus y − ˆy =merk. r on ns. residuaalivektori, datan avulla lausuttuna<br />

r = y − ˆy =(IN − X(X T X) −1 X T )y.<br />

Ideaalisesti r:ssä on vain ”kohinaa” eli ɛ:n vaikutus. Residuaalivektorin pituuden neliö<br />

r 2 = r T r =(y− Xb) T (y − Xb) =merk. SSE<br />

on ns. residuaalin neliösumma. Sen avulla saadaan σ2 :n estimaatti (olettaen, että N>k+1):<br />

s 2 SSE<br />

=<br />

N − k − 1 .<br />

Jos merkitään<br />

⎛<br />

⎞<br />

(X T X) −1 =<br />

⎜<br />

⎝<br />

c00 c01 ··· c0k<br />

c10 c11 ··· c1k<br />

.<br />

.<br />

...<br />

ck0 ck1 ··· ckk<br />

niin V (bi) =σ 2 cii. Näin ollen V (bi):n estimaatiksi käy s 2 cii. Käytetyin normaalisuusoletuksin<br />

suureilla<br />

bi − βi<br />

√ s 2 cii<br />

=merk. ti<br />

on t-jakaumat N − k − 1 vapausasteella (jälleen oletetaan, että N > k +1). Tätä käyttäen<br />

voidaan testata parametriä βi koskeva hypoteesi H0 : βi =0tai H0 : βi ≥ 0 tai H0 : βi ≤ 0.<br />

Kaksipuolisen testin tapauksessa vastahypoteesi on H1 : βi = 0, yksipuoliselle testille se on<br />

H1 : βi < 0 tai H1 : βi > 0.<br />

H 1 : β i ≠ 0<br />

-t α/2<br />

H 1 : β i < 0<br />

-t α<br />

H 1 : β i > 0<br />

.<br />

⎟<br />

⎠ ,<br />

t-jakauman tiheysfunktio<br />

t α/2<br />

t-jakauman tiheysfunktio<br />

t-jakauman tiheysfunktio<br />

t α


LUKU 1. REGRESSIO 5<br />

Kun testin merkitsevyys (eli I tyypin virheen todennäköisyys)<br />

α = P (ti osuu varjostetulle alueelle, kun H0 on tosi)<br />

on valittu ja etsitty vastaava taulukkopiste tα/2 tai tα,hyväksytään H0, jos ti ei osu varjostetulle<br />

alueelle, muuten ei (ks. edellisellä sivulla oleva kuva).<br />

Jos X T X ei ole lävistäjämatriisi, ovat b:n komponentit riippuvia ja yllä olevat testit ovat<br />

myös riippuvia. Tällöin halutun yhtaikaisen merkitsevyyden saamiseksi voidaan käyttää esimerkiksi<br />

Bonferronin epäyhtälöä. Jos taas X T X on lävistäjämatriisi, ovat bi:t riippumattomia<br />

ja samoin niitä koskevat testit.<br />

Kaiken yllä olevan ja paljon muutakin tekevät nykyiset kehittyneemmät tilasto-ohjelmistot<br />

(esimerkiksi Systat, JMP, SAS, SPlus, Statistica ja SPSS) automaattisesti. Myös Matlabia on<br />

helppo käyttää.<br />

Ajetaan data<br />

x1 x2 y<br />

0.3 1 5.63<br />

0.3 1 6.42<br />

0.7 1 1.38<br />

0.7 1 1.94<br />

0.3 5 11.57<br />

0.3 5 12.16<br />

0.7 5 5.72<br />

0.7 5 4.69<br />

0.3 9 12.68<br />

0.3 9 13.31<br />

0.7 9 8.28<br />

0.7 9 7.73<br />

Systatilla. Huomaa, että samaa faktorien tasoyhdelmää on aina käytetty kahdesti. Tätä voidaan<br />

käyttää mallin sopivuuden testauksessa, josta lisää myöhemmin. Malli on toista kertalukua:<br />

Käskyillä<br />

>USE ’rotta.sys’<br />

VARIABLES IN SYSTAT FILE ARE:<br />

X1 X2 Y<br />

>model y=constant+x1+x2+x1*x2+x2*x2<br />

>estimate<br />

saadaan tulostus<br />

y = β0 + β1x1 + β2x2 + β12x1x2 + β22x 2 2 + ɛ.<br />

DEP VAR: Y N: 12 MULTIPLE R: .989 SQUARED MULTIPLE R: .977<br />

ADJUSTED SQUARED MULTIPLE R: .965 STANDARD ERROR OF ESTIMATE: 0.769<br />

VARIABLE COEFFICIENT STD ERROR STD COEF TOLERANCE T P(2 TAIL)<br />

CONSTANT 8.428 1.172 0.000 . 7.190 0.000<br />

X1 -12.369 2.031 -0.633 0.2990654 -6.092 0.000<br />

X2 1.782 0.347 1.489 0.0384615 5.140 0.001<br />

X1*<br />

X2 -0.195 0.340 -0.101 0.1042345 -0.574 0.584<br />

X2*<br />

X2 -0.085 0.029 -0.731 0.0506329 -2.895 0.023


LUKU 1. REGRESSIO 6<br />

ANALYSIS OF VARIANCE<br />

SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />

REGRESSION 179.293 4 44.823 75.729 0.000<br />

RESIDUAL 4.143 7 0.592<br />

Lisäämällä listaan käsky<br />

>print long<br />

saadaan täydellisempi tulostus<br />

EIGENVALUES OF UNIT SCALED X’X<br />

1 2 3 4 5<br />

CONDITION INDICES<br />

VARIANCE PROPORTIONS<br />

4.352 0.477 0.145 0.019 0.007<br />

1 2 3 4 5<br />

1.000 3.021 5.478 14.967 25.093<br />

1 2 3 4 5<br />

CONSTANT 0.002 0.018 0.076 0.239 0.665<br />

X1 0.002 0.029 0.037 0.626 0.306<br />

X2 0.001 0.002 0.006 0.020 0.971<br />

X1 0.002 0.003 0.127 0.533 0.335<br />

X2 0.001 0.014 0.007 0.355 0.623<br />

DEP VAR: Y N: 12 MULTIPLE R: .989 SQUARED MULTIPLE R: .977<br />

ADJUSTED SQUARED MULTIPLE R: .965 STANDARD ERROR OF ESTIMATE: 0.769<br />

VARIABLE COEFFICIENT STD ERROR STD COEF TOLERANCE T P(2 TAIL)<br />

CONSTANT 8.428 1.172 0.000 . 7.190 0.000<br />

X1 -12.369 2.031 -0.633 0.2990654 -6.092 0.000<br />

X2 1.782 0.347 1.489 0.0384615 5.140 0.001<br />

X1*<br />

X2 -0.195 0.340 -0.101 0.1042345 -0.574 0.584<br />

X2*<br />

X2 -0.085 0.029 -0.731 0.0506329 -2.895 0.023<br />

CORRELATION MATRIX OF REGRESSION COEFFICIENTS<br />

CONSTANT X1 X2 X1 X2<br />

CONSTANT 1.000<br />

X1 -0.866 1.000<br />

X2 -0.718 0.410 1.000<br />

X1 0.725 -0.837 -0.490 1.000<br />

X2 0.360 0.000 -0.849 -0.000 1.000<br />

ANALYSIS OF VARIANCE<br />

SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />

REGRESSION 179.293 4 44.823 75.729 0.000<br />

RESIDUAL 4.143 7 0.592<br />

Huomautus. Tarkasti laskettaessa kannattaa käyttää datamatriisin singulääriarvohajotelmaa<br />

(SVD) X = Q1ΣQ T 2 , sillä sen lasku on usein numeerisesti stabiilimpi kuin yhtälöryhmän ratkaisu<br />

tai käänteismatriisin (X T X) −1 lasku (ks. kurssi Matriisilaskenta 1). Onhan nimittäin<br />

(X T X) −1 = Q2(Σ T Σ) −1 Q T 2 ja b = Q2Σ + Q T 1 y = X + y. SVD:n saa Matlabissa käyttöönsä<br />

komennolla [Q1,S,Q2]=svd(X).Huomaa myös operaatio pinv.


LUKU 1. REGRESSIO 7<br />

1.3 Varianssianalyysi (ANOVA)<br />

Varianssianalyysiä käyttäen voidaan testata ns. lineaarisia hypoteeseja, ts. muotoa<br />

H0 : Aβ = d<br />

olevia hypoteeseja, missä A on q × (k +1)-matriisi, jonka rivirangi on täysi, ts. sen rivit ovat<br />

lineaarisesti riippumattomat, ja d on q-vektori. Vielä oletetaan, että qk+1).<br />

Todistus. (Tämä vaatii kurssin Laaja tilastomatematiikka tietoja.) Ensinnäkin b ja r ovat riippumattomia.<br />

Näin ollen ovat myös (Ab − d) T (A(X T X) −1 A T ) −1 (Ab − d) ja SSE = r T r<br />

riippumattomat. Edelleen suureella 1<br />

σ 2 SSE on χ 2 -jakauma N −k −1 vapausasteella. Vielä pitää<br />

näyttää, että 1<br />

σ 2 (Ab − d) T (A(X T X) −1 A T ) −1 (Ab − d):llä on χ 2 -jakauma q vapausasteella,<br />

kun H0 on tosi.<br />

Koska b:llä on N(β,σ 2 (X T X) −1 )-jakauma, on Ab−d:llä N(Aβ−d,σ 2 A(X T X) −1 A T )jakauma<br />

eli N(0q,σ 2 A(X T X) −1 A T )-jakauma. Selvästi A(X T X) −1 A T on symmetrinen ja<br />

positiivisemidefiniitti. Koska A:lla on täysi rivirangi ja X T X on ei-singuläärinen, on myös<br />

A(X T X) −1 A T ei-singuläärinen ja siis positiividefiniitti. Schurin lauseen mukaan se voidaan<br />

kirjoittaa muotoon A(X T X) −1 A T = QΛQ T , missä Q on ortogonaalimatriisi ja Λ on lävistäjämatriisi,<br />

jonka lävistäjällä ovat A(X T X) −1 A T :n (positiiviset) ominaisarvot. Näin ollen on<br />

(A(X T X) −1 A T ) −1 :llä neliöjuuri Q √ Λ −1 Q T =merk. B, missä lävistäjämatriisi √ Λ −1 saadaan<br />

Λ −1 :stä ottamalla sen lävistäjäalkioista neliöjuuret. Ilmeisesti B on symmetrinen ei-singuläärinen<br />

matriisi. Nyt B(Ab − d) on N(0q,σ 2 BB −2 B T )-jakautunut eli N(0q,σ 2 Iq)-jakautunut.<br />

Suureella<br />

1<br />

σ 2 (Ab − d)T (A(X T X) −1 A T ) −1 (Ab − d) = 1<br />

σ 2 (B(Ab − d))T B(Ab − d)<br />

on näin ollen χ 2 (q)-jakauma.<br />

Hypoteesin testaaminen sujuu tavalliseen tapaan. Merkitsevyys α kiinnitetään. Jos testisuure<br />

osuu varjostetulle häntäalueelle (ks. alla oleva kuva), hylätään H0.Mitä ”huonommin” H0 pitää<br />

paikkansa, sitä suurempi pyrkii Ab − d ja F-testisuure olemaan.<br />

F-jakauman tiheysfunktio<br />

2 Jos q =1,voidaan muodostaa vastaava t-testisuure ja testi voisi olla toispuolinenkin.<br />

F α


LUKU 1. REGRESSIO 8<br />

Testataan edellä olleelle datalle muutamia hypoteesejä Systatilla. Käytetään vaihteen vuoksi<br />

uutta 3. kertaluvun mallia<br />

Käskyillä<br />

y = β0 + β1x1 + β2x2 + β12x1x2 + β22x 2 2 + β122x1x 2 2 + ɛ.<br />

>model y=constant+x1+x2+x1*x2+x2*x2+x1*x2*x2<br />

>estimate<br />

>hypothesis<br />

>effect x1*x2*x2<br />

>test<br />

saadaan tulostus<br />

DEP VAR: Y N: 12 MULTIPLE R: .996 SQUARED MULTIPLE R: .992<br />

ADJUSTED SQUARED MULTIPLE R: .985 STANDARD ERROR OF ESTIMATE: 0.504<br />

VARIABLE COEFFICIENT STD ERROR STD COEF TOLERANCE T P(2 TAIL)<br />

CONSTANT 6.208 1.033 0.000 . 6.011 0.001<br />

X1 -7.929 1.918 -0.406 0.1437798 -4.134 0.006<br />

X2 3.331 0.533 2.783 0.0069838 6.251 0.001<br />

X1*<br />

X2 -3.293 0.990 -1.704 0.0052777 -3.328 0.016<br />

X2*<br />

X2 -0.240 0.052 -2.059 0.0069838 -4.625 0.004<br />

X1*<br />

X2*<br />

X2 0.310 0.096 1.538 0.0060405 3.213 0.018<br />

ANALYSIS OF VARIANCE<br />

SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />

REGRESSION 181.913 5 36.383 143.328 0.000<br />

RESIDUAL 1.523 6 0.254<br />

_______________________________________________________________________________<br />

TEST FOR EFFECT CALLED:<br />

BY<br />

BY<br />

TEST OF HYPOTHESIS<br />

X1<br />

X2<br />

X2<br />

SOURCE SS DF MS F P<br />

HYPOTHESIS 2.620 1 2.620 10.322 0.018<br />

ERROR 1.523 6 0.254<br />

Sama tulos saadaan syöttämällä A =(0, 0, 0, 0, 0, 1). d:tä ei tarvitse syöttää, sillä sen oletusarvo<br />

on 0. Lisätään jonoon käskyt<br />

>hypothesis<br />

>amatrix<br />

>0 0 0 0 0 1<br />

>test<br />

jolloin saadaan tulostus


LUKU 1. REGRESSIO 9<br />

HYPOTHESIS.<br />

A MATRIX<br />

TEST OF HYPOTHESIS<br />

1 2 3 4 5<br />

0.000 0.000 0.000 0.000 0.000<br />

6<br />

1.000<br />

SOURCE SS DF MS F P<br />

HYPOTHESIS 2.620 1 2.620 10.322 0.018<br />

ERROR 1.523 6 0.254<br />

Komento print long antaa vähän enemmän tulostusta:<br />

HYPOTHESIS.<br />

A MATRIX<br />

1 2 3 4 5<br />

0.000 0.000 0.000 0.000 0.000<br />

6<br />

1.000<br />

NULL HYPOTHESIS CONTRAST AB<br />

0.310<br />

-1<br />

INVERSE CONTRAST A(X’X) A’<br />

TEST OF HYPOTHESIS<br />

0.037<br />

SOURCE SS DF MS F P<br />

HYPOTHESIS 2.620 1 2.620 10.322 0.018<br />

ERROR 1.523 6 0.254<br />

Hypoteesi H0 hylätään merkitsevyystasolla α =0.02, mutta ei aivan tasolla α =0.01. Selittäjä<br />

x1x 2 2 saa olla mukana. Katsotaan vielä hypoteesia H0 : β1 = −12,β2 =2sivun 6 mallille,<br />

jolloin<br />

Käskyt<br />

>hypothesis<br />

>amatrix<br />

>0 1 0 0 0<br />

>0 0 1 0 0<br />

>dmatrix<br />

>-12<br />

>2<br />

>test<br />

antavat tulostuksen<br />

A =<br />

0 1 0 0 0<br />

0 0 1 0 0<br />

<br />

ja d =<br />

−12<br />

2<br />

<br />

.


LUKU 1. REGRESSIO 10<br />

HYPOTHESIS.<br />

A MATRIX<br />

D MATRIX<br />

TEST OF HYPOTHESIS<br />

1 2 3 4 5<br />

1 0.000 1.000 0.000 0.000 0.000<br />

2 0.000 0.000 1.000 0.000 0.000<br />

1 -12.000<br />

2 2.000<br />

SOURCE SS DF MS F P<br />

HYPOTHESIS 0.238 2 0.119 0.201 0.823<br />

ERROR 4.143 7 0.592<br />

Hypoteesia H0 ei tässä voi hylätä.<br />

Yksinkertaisin valinta A-matriisiksi on (0,...,0, 1, 0,...,0), missä 1 on i:s alkio. Hypoteesi<br />

H0 : Aβ = βi =0testaa silloin faktorin xi tarpeellisuutta mallissa. Tällöin<br />

ja testisuure on<br />

bi(A(X T X) −1 A T ) −1 bi = b 2 i c −1<br />

ii<br />

b 2 i (N − k − 1)<br />

ciiSSE<br />

= b2 i<br />

s 2 cii<br />

eli sivulla 4 olevan t-testisuureen ti neliö. Testi on siis sama kuin mainittu t-testi kaksipuolisena!<br />

Yleensäkin, jos q =1,onH0 muotoa a T β = d ja testisuureeksi voidaan ottaa N − k − 1<br />

vapausasteella t-jakautunut suure<br />

a T b − d<br />

s 2 a T (X T X) −1 a .<br />

Tällöin voi myös tehdä kaksipuolisia testejä (H0 : a T β ≤ d tai H0 : a T β ≥ d).<br />

Koko mallin käyttökelpoisuutta puolestaan testaa hypoteesi<br />

H0 : β1 = ···= βk =0.<br />

Jos tätä H0:aa ei hylätä, ovat käytetyt faktorit huonoja selittäjiä, ts. koko malli voitaisiin yhtä<br />

hyvin korvata vakiolla + kohinalla (eli mallilla y = β0+ɛ). Vastaava A-matriisi on <br />

0k Ik ja<br />

d = 0k.Tehdään datamatriisissa ja b-vektorissa samanlainen ositus:<br />

X = 1N D <br />

<br />

ja b = .<br />

b0<br />

b ′<br />

(Matriisi D on muuten ns. suunnittelumatriisi 3 , jota tarvitaan vielä jatkossa.) Tässä 1N on<br />

N-vektori, jonka kaikki alkiot ovat ykkösiä. Silloin Ab = b ′ ja<br />

X T <br />

T 1N X =<br />

DT <br />

<br />

1N D <br />

N<br />

=<br />

D<br />

T 1ND T 1N DT D<br />

3 Toisinaan käytetään kuitenkin matriisista X nimeä suunnittelumatriisi!<br />

<br />

.


LUKU 1. REGRESSIO 11<br />

Edelleen tällöin<br />

(Ab − d) T (A(X T X) −1 A T ) −1 (Ab − d) =(b ′ ) T (A(X T X) −1 A T ) −1 b ′ =merk. SSR,<br />

ns. regression neliösumma.<br />

Tunnetun lohkomatriisien kääntökaavan 4 mukaan (X T X) −1 :n oikea alalohko eli siis<br />

A(X T X) −1 A T on<br />

Matriisi MN = IN − 1<br />

<br />

D T D − D T 1N<br />

1<br />

N 1T −1 ND =(D T MND) −1 .<br />

N JN on ns. keskitysmatriisi. Sillä kertominen vähentää datavektorista sen<br />

keskiarvon. (Matriisi JN = 1N1T N taas on N × N-matriisi, jonka kaikki alkiot ovat ykkösiä.)<br />

Koska ilmiselvästi MN1N = 0N,niin<br />

SSR =(b ′ ) T D T MNDb ′ =(b01N + Db ′ ) T MN(b01N + Db ′ )=(Xb) T MNXb = ˆy T MN ˆy.<br />

Koska edelleen<br />

X T r = X T (y − Xb) =X T y − X T X(X T X) −1 X T y = 0k+1,<br />

niin 1T Nr =0(tarkastellaan vain X:n ensimmäistä saraketta) ja ˆyT r = bT XT r =0. Näin ollen<br />

r T MN ˆy = r T<br />

<br />

IN − 1<br />

N 1N1 T <br />

N ˆy = r T ˆy − 1<br />

N rT 1N1 T N ˆy =0<br />

ja<br />

r T MNr = r T<br />

<br />

IN − 1<br />

N 1N1 T <br />

N r = r T r − 1<br />

N rT 1N1 T Nr T = r T r = SSE.<br />

Ns. kokonaisneliösumma<br />

y T MNy =merk. SST<br />

on näin hajotettavissa residuaalin neliösumman ja regression neliösumman summaksi:<br />

SST = y T MNy =(r + ˆy) T MN(r + ˆy) =r T MNr + ˆy T MN ˆy = SSE + SSR.<br />

Neliösummiin liittyvät ns. vapausasteet on annettu alla olevassa taulukossa.<br />

SSX vapausasteet<br />

SSE N − k − 1<br />

SSR k<br />

SST N − 1<br />

<br />

4 U V<br />

Kääntökaava on seuraavanlainen. Jos matriisi<br />

W Z<br />

ja, on ei-singuläärinen, niin sen käänteismatriisi on<br />

<br />

−1 −1 −1<br />

U + U VYWU −1 −U VY<br />

−YWU −1<br />

Y<br />

<br />

, missä U ja Z ovat ei-singuläärisiä neliömatriise-<br />

missä Y =(Z − WU −1 V) −1 . Kaava johdetaan kirjoittamalla käänteismatriisi määräämättömään lohkomuotoon<br />

<br />

R<br />

T<br />

S<br />

Y<br />

<br />

ja ratkaisemalla lohkot. Matriisin Z − WU −1 V ei-singuläärisyys vastaa muuten 2 × 2-matriisin<br />

kääntyvyyden tuttua determinanttiehtoa.<br />

<br />

,


LUKU 1. REGRESSIO 12<br />

Jakamalla neliösumma vapausasteellaan saadaan aina vastaava keskineliö:<br />

MSE =<br />

SSE<br />

N − k − 1<br />

, MSR = SSR<br />

k<br />

, MST = SST<br />

N − 1<br />

(residuaalin keskineliö, regression keskineliö ja kokonaiskeskineliö).<br />

Hypoteesin H0 : β1 = ··· = βk = 0 testisuure on näin ollen MSR/MSE ja sillä on<br />

Lauseen 1.1 mukaan F-jakauma vapausastein k ja N − k − 1. Vastahypoteesi on<br />

H1 : “ainakin yksi parametreistä β1,...,βk on = 0”.<br />

H0:n hylkääminen merkitsee, että ainakin yhdellä faktorilla on merkittävää vaikutusta vasteeseen.<br />

Varianssianalyysitaulu (jollaisen ohjelmistot yleensä tulostavat) sisältää kaiken tämän:<br />

variaation lähde vapausasteet neliösummat keskineliöt F merkitsevyys<br />

regressio<br />

residuaali<br />

kokonaisvariaatio<br />

k<br />

N − k − 1<br />

N − 1<br />

SSR<br />

SSE<br />

SST<br />

MSR<br />

MSE<br />

MST<br />

Neliösummista saadaan myös ns. determinaatiokerroin eli selitysaste<br />

MSR<br />

MSE<br />

pienin α:n<br />

arvo, jolla<br />

H0 hylätään<br />

SSR<br />

SST =merk. R 2 .<br />

Tulkinta: R2 ilmoittaa kuinka suuren suhteellisen osan vastevektorin otosvarianssista regressio<br />

selittää. R2 :n neliöjuuri <br />

SSR<br />

SST =merk. R<br />

on ns. yhteiskorrelaatiokerroin. Jotkut käyttävät mieluummin ns. korjattua determinaatiokerrointa<br />

1 − MSE<br />

MST =merk. R 2 A =1− (1 − R 2 N − 1<br />

)<br />

N − k − 1 .<br />

Tulkinta: R2 A ilmoittaa kuinka paljon suhteellisesti V (ɛ):n estimoidusta arvosta voidaan poistaa<br />

sovittamalla jokin muu kuin H0:n mukainen malli y = β0 + ɛ verrattuna siihen V (ɛ):n estimoituun<br />

arvoon (= MST), joka ko. mallin avulla saadaan. Tilasto-ohjelmistot tulostavat yleensä<br />

myös nämä kertoimet.<br />

1.4 Mallin epäsopivuuden testaus toistokokein<br />

Regressiomallin epäsopivuus tarkoittaa sitä, että lisäämällä uusia faktoreita tai entisistä faktoreista<br />

muodostettuja uusia (korkeampiasteisia) faktoreita residuaalia voidaan ”pienentää”.<br />

Huomautus. Mallin riittävyys, johon palataan yksisuuntaisen ANOVAn yhteydessä myöhemmin,<br />

puolestaan tarkoittaa sitä, että mallin yhteydessä sovitut oletukset (riippumattomuudet,<br />

normaalisuus, varianssien samuus, jne.) pitävät paikkansa.<br />

Jos siis malli<br />

y = x T β + ɛ<br />

on epäsopiva, tarkoittaa se sitä, että jokin laajennettu malli<br />

y = x T β + z T γ + ɛ ′ ,


LUKU 1. REGRESSIO 13<br />

missä z =(z1,...,zℓ) T on uusien tai entisistä kertomalla tai muuten saatujen faktorien muodostama<br />

vektori ja γ =(γ1,...,γℓ) T on uusi parametrivektori, on ”parempi”.<br />

Huomaa, että sovitettaessa jälkimmäinen malli pienimmän neliösumman keinolla vastevektoriin<br />

y ja datamatriisiin <br />

X Z ,<br />

missä X on aikaisempi datamatriisi ja Z uusia faktoreita vastaavista sarakkeista muodostettu<br />

”jatke”, eivät parametrit β saa (välttämättä) samoja arvoja kuin sovitettaessa alkuperäistä mallia.<br />

Tämä johtuu siitä, että uudet selittävät faktorit voivat selittää samoja tekijöitä kuin vanhat<br />

faktorit.<br />

Se mitä uudet faktorit selittävät ja vanhat eivät, on erotusdatassa<br />

Z − ˆ Z,<br />

missä ˆ Z saadaan ennustamalla Z:n sarakkeet vanhaa mallia käyttäen. Ennusteen laskukaavaa<br />

käyttäen 5<br />

ˆZ = X(X T X) −1 X T Z.<br />

Hypoteesi, jonka mukaan malli ei ole tarkasteltujen uusien faktorien kannalta epäsopiva, on<br />

näin ollen<br />

H0 :(Z− ˆ Z)γ = 0N.<br />

Vastahypoteesi on tietysti H1 :(Z− ˆ Z)γ = 0N.<br />

Yllä olevan hypoteesin testaus, jossa tarkastellaan mallin sopivuutta tiettyjen kiinteiden<br />

uusien faktorien kannalta, voidaan ajatella toteutettavaksi A-matriisilla<br />

<br />

T −1 T O Z − X(X X) X Z .<br />

Sillä ei tosin ole täyttä rivirangia ja rivejäkin on liikaa, mutta sen sarakerangi on ℓ, muutenhan<br />

matriisissa X Z on lineaarisesti riippuvia sarakkeita. Testi on näin ollen sama kuin<br />

hypoteesille H0 : γ = 0ℓ ja helppo toteuttaa. Jos halutaan testata, kuten alun perin haluttiin, onko<br />

mallia yleensä ottaen mahdollista parantaa, pitää verrata virhetermin aiheuttamaa varianssia<br />

vasteen selittämättä jääneen osan aiheuttamaan varianssiin. Jos jälkimmäinen on ”huomattavasti”<br />

suurempi, on mahdollista uusia faktoreita käyttäen parantaa mallin sopivuutta.<br />

Testisuure tällaiselle testaukselle saadaan, jos mukana on toistokokeita, ts. datamatriisissa<br />

on samoja rivejä. Oletetaan, että datamatriisissa X on erilaisia rivejä m kappaletta. Huomaa,<br />

että m ≥ k +1, muuten X T X on singuläärinen. Kootaan mainitut erilaiset rivit m × (k +1)matriisiksi<br />

X1. Silloin voidaan kirjoittaa<br />

X = TX1<br />

sopivasti valitulle N × m-matriisille T. Huomaa, että T:llä on täysi sarakerangi, ts. sen sarakkeet<br />

ovat lineaarisesti riippumattomat, ja että T1m = 1N. Itse asiassa T saadaan identiteettimatriisista<br />

Im toistamalla sen rivejä sopivasti.<br />

Laajin mahdollinen malli, joksi alkuperäinen malli voidaan täydentää, saadaan, kun lisätään<br />

X:ään suurin mahdollinen määrä aikaisemmista lineaarisesti riippumattomia sarakkeita säilyttäen<br />

toistetut rivit. Tällaiseen malliin ei nimittäin voida lisätä yhtäkään uutta selittäjää, joka ei,<br />

toistokokeiden puitteissa, riippuisi lineaarisesti aikaisemmista. Täydennetään X1 ensin m × mmatriisiksi<br />

lisäämällä siihen m − k − 1 aikaisemmista lineaarisesti riippumatonta saraketta:<br />

<br />

X1 Z1 =merk. X2.<br />

5 Matriisia (X T X) −1 X T Z kutsutaan ns. aliasmatriisiksi.


LUKU 1. REGRESSIO 14<br />

X:n täydennys on sen jälkeen N × m-matriisi<br />

TX2 = TX1 TZ1<br />

<br />

= X<br />

<br />

Z =merk. X3,<br />

missä Z = TZ1.<br />

Alkuperäisestä datamallista (Malli I)<br />

y = Xβ + ɛ<br />

saadaan näin laajennettu datamalli (Malli II)<br />

<br />

β<br />

y = X3 + ɛ = Xβ + Zγ + ɛ<br />

γ<br />

Mallista II saatu ennustevektori on<br />

ˆyII = X3(X T 3 X3) −1 X T 3 y = TX2(X T 2 T T TX2) −1 X T 2 T T y = T(T T T) −1 T T y,<br />

joka ei riipu Z1:stä, ts. siitä, miten X1 täydennetään! Näin ollen saatava testi ei myöskään<br />

riipu mallin laajennustavasta, kunhan toistojen rakenne (eli T) säilytetään. Mallista II saatava<br />

residuaali on<br />

rII =(IN − T(T T T) −1 T T )y<br />

ja tämän residuaalin neliösumma on<br />

ns. puhtaan virheen neliösumma.<br />

Yritetään selittää Mallin I residuaalivektori<br />

r T IIrII =merk. SSPE,<br />

r =(IN − X(X T X) −1 X T )y<br />

Mallin II avulla. Jos tämä onnistuu tarpeeksi hyvin, ei Malli I ole sopiva, vaan se voidaan täydentää<br />

sopivammaksi. Merkitään lyhyyden vuoksi<br />

P = IN − X(X T X) −1 X T<br />

ja R = IN − T(T T T) −1 T T .<br />

Silloin todetaan helpolla laskulla, että P ja R ovat symmetrisiä idempotentteja matriiseja ja että<br />

RP = PR = R , PX = O , RX = O , RZ = O,<br />

rank(P) =trace(P) =N − k − 1,<br />

rank(R) =trace(R) =N − m<br />

(ks. kurssit Laaja matematiikka 4 ja Matriisilaskenta 1). Selitettäessä Mallin II avulla Mallin I<br />

residuaalia r on selittämättä jäävä residuaali Rr = RPy = Ry, jonka neliösumma on nimenomaan<br />

SSPE. Kokonaisneliösumma on puolestaan rT r eli Mallin I residuaalin neliösumma<br />

SSE. Edelleen regression neliösumma tässä selitysyrityksessä on<br />

SSE − SSPE =merk. SSLOF,<br />

ns. epäsopivuuden neliösumma. Matriisimuodossa<br />

SSLOF = y T (P − R)y.


LUKU 1. REGRESSIO 15<br />

Matriisi P − R on symmetrinen idempotentti matriisi, jonka rangi on<br />

trace(P − R) =trace(P) − trace(R) =m − k − 1,<br />

kuten helposti voidaan todeta. SSPE vastaa sitä osaa residuaalivarianssista, joka johtuu virhetermistä.<br />

Siihen ei voida vaikuttaa mallilla, olipa tämä kuinka hyvä tahansa. SSLOF vastaa taas<br />

sitä osaa residuaalivarianssista, joka johtuu mallin huonosta selittävyydestä eli epäsopivuudesta.<br />

Mutta: Residuaali r ei ole oikeaa vasteen tyyppiä, sillä sillä on singuläärinen normaalijakauma<br />

(ts. P on singuläärinen). Näin ollen saatujen neliösummien jakaumat ja vapausasteet<br />

sekä niihin perustuva ANOVA katsotaan erikseen. Huomaa kuitenkin, että SSPE on Mallin II<br />

residuaalin neliösumma, joten sillä on χ 2 -jakauma N − m vapausasteella.<br />

Lause 1.2. Jos hypoteesi H0 : PZγ = 0N on tosi Mallille II, niin suureella<br />

SSLOF(N − m)<br />

SSPE(m − k − 1)<br />

on F-jakauma vapausastein m − k − 1 ja N − m (olettaen tietysti, että m>k+1).<br />

Todistus. (Tässä tarvitaan kurssin Laaja tilastomatematiikka tietoja.) Pitää näyttää, että SSLOF<br />

ja SSPE ovat riippumattomasti χ 2 -jakautuneet vapausastein m − k − 1 ja N − m, vastaavasti.<br />

Hypoteesin H0 voimassaollessa<br />

(P − R)y =(P − R)(Xβ + Zγ + ɛ) =(P − R)ɛ<br />

ja<br />

Ry = R(Xβ + Zγ + ɛ) =Rɛ.<br />

Koska P − R ja R ovat symmetrisiä idempotentteja matriiseja, R(P − R) =ON ja ɛ:lla on<br />

N(0N,σ2IN)-multinormaalijakauma, on lause oikea.<br />

Lauseessa esiintyvä Z on tietysti se laajin mahdollinen, jolla alkuperäistä datamatriisia X täydennetään.<br />

Vastahypoteesi on H1 : PZγ = 0N.<br />

SSPE:llä on siis vapausasteita N − m ja SSLOF:llä m − k − 1. Vastaavat keskineliöt ovat<br />

näin ollen<br />

SSPE<br />

N − m =merk.<br />

SSLOF<br />

MSPE ja<br />

m − k − 1 =merk. MSLOF<br />

(puhtaan virheen keskineliö ja epäsopivuuden keskineliö). Varianssianalyysitaulu on siten<br />

variaation lähde vapausasteet neliösummat keskineliöt F merkitsevyys<br />

epäsopivuus<br />

puhdas virhe<br />

residuaali<br />

m − k − 1<br />

N − m<br />

N − k − 1<br />

SSLOF<br />

SSPE<br />

SSE<br />

MSLOF<br />

MSPE<br />

MSE<br />

MSLOF<br />

MSPE<br />

pienin α:n<br />

arvo, jolla<br />

H0 hylätään<br />

Jos hypoteesia H0 ei hyväksytä, voidaan mallia parantaa täydentämällä sitä sopivilla faktoreilla.<br />

Huomaa, että jos erityisesti täydentävät faktorit ovat entisistä laskien saatuja korkean<br />

asteen faktoreita, niin edellä esitetty toistettujen rivien säilyminen täydennettäessä on automaattista.<br />

Näin ollen esitetty testi on erityisen sopiva juuri tällaista täydennystä ajatellen. Jos mallia<br />

päätetään täydentää, ei tietystikään mukaan välttämättä kannata ottaa ”kaikkia mahdollisia” lisäselittäjiä,<br />

vaan vain sopivasti valitut lisäfaktorit. Ohjelmistot tarjoavatkin korkeampiasteisten<br />

faktorien osalta monia (puoli)automaattisia lisäys- ja valintamenetelmiä (ns. askeltava regressio).


LUKU 1. REGRESSIO 16<br />

Huomautus. Eräät ohjelmistot suorittavat epäsopivuustestin automaattisesti, jos toistokokeita<br />

esiintyy. Matlabia käytettäessä matriisin T kokoaminen on helppoa, varsinkin jos toistoja on<br />

kullekin toistetulle tasoyhdelmälle yhtä monta (kuten esimerkiksi sivulla 5 olevalle datalle).<br />

Huomautus. Epäsopivuustesti voidaan tehdä muutenkin kuin toistokokeita käyttäen. Matriisista<br />

T:kin käytettiin nimittäin vain sen ominaisuuksia<br />

(i) T:llä on täysi sarakerangi (jotta T T T olisi ei-singuläärinen) ja<br />

(ii) hajotelmassa X = TX1 on X1:llä täysi sarakerangi k +1(jotta se voidaan täydentää<br />

ei-singulääriseksi m × m-matriisiksi X2).<br />

Mikä tahansa matriisi, joka toteuttaa nämä ehdot, kelpaisi periaatteessa T:n tilalle. Tällöin<br />

ei kyseessä olisi välttämättä enää koetoistoihin perustuva testi. Itse asiassa, jos käytetäänkin<br />

hajotelmaa X =(TS)(S −1 X1),missä S on ei-singuläärinen m × m-matriisi, niin<br />

IN − TS(S T T T TS) −1 S T T T = IN − T(T T T) −1 T T = R.<br />

Siis esitetty epäsopivuustesti riippuu T:stä vain sen sarakeavaruuden S kautta! Valitsemalla<br />

S eri tavoin saadaan erilaisia epäsopivuustestejä, tosin näin saadut testit ovat yleensä heikompia<br />

kuin toistoihin perustuvat. Ks. myös CHRISTENSEN ja artikkeliviite JOGLEKAR, G.&<br />

SCHUENMEYER, J.H. & LARICCIA, V.: Lack-of-Fit Testing When Replicates Are Not Available.<br />

The American Statistician 43 (–89), 135–143.<br />

1.5 Datan affiinimuunnokset. Ortogonaalisuus ja kiertosymmetrisyys<br />

Jos X on N × (k +1)-datamatriisi ja L on ei-singuläärinen (k +1)× (k +1)-matriisi, jonka<br />

ensimmäinen sarake on (1, 0,...,0) T , niin XL on myös N × (k +1)-datamatriisi, joka sisältää<br />

saman informaation kuin X. Tällainen muunnos on datan affiinimuunnos. L on siis muotoa<br />

T<br />

1 ℓ<br />

L =<br />

0k K<br />

missä ℓ on k-vektori ja K on ei-singuläärinen k × k-matriisi.<br />

Koska<br />

y = Xβ + ɛ = XLL −1 β + ɛ,<br />

on uutta datamatriisia XL vastaava parametrivektori L −1 β =merk. γ. Edelleen pienimmän neliösumman<br />

keinon antama parametrivektorin γ estimaatti on<br />

g =((XL) T XL) −1 (XL) T y = L −1 (X T X) −1 (L T ) −1 L T X T y = L −1 b<br />

ja ”uusi” ennustevektori on XLg = Xb = ˆy eli sama kuin ”vanha”. Näin ollen myöskin<br />

residuaali pysyy datan affiinimuunnoksessa samana ja itse asiassa kaikki neliösummat SSE,<br />

SST ja SSR sekä vastaavat keskineliöt. Mallin merkitsevyys ei siis muutu. Myöskin lineaarisen<br />

hypoteesin ALγ = d testaus antaa saman tuloksen kuin hypoteesin Aβ = d testaus, sillä<br />

(Ab − d) T (A(XT X) −1AT ) −1 (Ab − d)<br />

=(ALg − d) T (AL((XL) T XL) −1 (AL) T ) −1 (ALg − d).


LUKU 1. REGRESSIO 17<br />

Koko ANOVA tuottaa näin ollen aina saman tuloksen, riippumatta siitä tehdäänkö dataan jokin<br />

affiinimuunnos vai ei. Toisaalta<br />

V (g) =σ 2 ((XL) T XL) −1 = σ 2 L −1 (X T X) −1 (L T ) −1<br />

voi hyvinkin olla ”edullisempaa” muotoa kuin V (b), ts.g:n komponenttien välillä voi olla vähemmän<br />

korrelaatiota kuin b:n komponenttien välillä ja niiden varianssit voivat olla pienempiä<br />

kuin b:n komponenttien varianssit.<br />

Huomautus. Jos mallissa on mukana ensimmäisen asteen faktoreista muodostettuja korkeampiasteisia<br />

faktoreita, tehdään usein affiinimuunnos vain datan ensimmäisen asteen osaan ja lasketaan<br />

näin saaduista ”uusista” faktoreista malliin mukaan korkeampiasteisia faktoreita. Affiinimuunnokset<br />

nimittäin useimmiten liittyvät vain perusfaktorien arvojen muuntamiseen. Toisaalta,<br />

jos malli sisältää kaikki korkeampiasteiset termit haluttuun astelukuun asti, voidaan<br />

myös vastaava ”uusi” malli saada aikaisemmasta affiinimuunnoksella, kuten on helposti todettavissa.<br />

Tavallinen ensimmäisen kertaluvun mallin datan affiinimuunnos on skaalaus, jota vastaava<br />

matriisi K on lävistäjämatriisi, missä lävistäjäalkiot p1,...,pk ovat nollasta eroavia. Tällaista<br />

lävistäjämatriisia merkitään ⌈p⌋:llä, missä p =(p1,...,pk) T . Selittäjä xi korvautuu skaalauksessa<br />

selittäjällä pixi + ℓi, missä ℓi on ℓ:n i:s alkio. Skaalauksen tarkoituksena on, paitsi vaihtaa<br />

selittävien muuttujien asteikot ”sopivammiksi”, muuntaa keinotekoisesti selittävät muuttujat<br />

tyypillisten arvojensa suhteen samaan asemaan. Tyypillisten arvojen kokoero saattaa nimittäin<br />

alunperin olla monia dekadeja, mikä aiheuttaa mm. numeerista epätarkkuutta laskuissa. Tällöin<br />

suoritetaan ensin skaalaus ja vasta sitten mallin sovitus. Skaalausmatriisi on helposti koottavissa<br />

Matlabin operaatioilla:<br />

»p=[0.3 2.9 0.001 -3.4 0.8]<br />

p =<br />

0.3000 2.9000 0.0010 -3.4000 0.8000<br />

»l=[-1.2 3.0 -4.5 34.0 0]<br />

l =<br />

-1.2000 3.0000 -4.5000 34.0000 0<br />

»L=[1 l;zeros(5,1) diag(p)]<br />

L =<br />

1.0000 -1.2000 3.0000 -4.5000 34.0000 0<br />

0 0.3000 0 0 0 0<br />

0 0 2.9000 0 0 0<br />

0 0 0 0.0010 0 0<br />

0 0 0 0 3.4000 0<br />

0 0 0 0 0 0.8000<br />

Erityinen skaalauksen muoto on datan standardointi, jossa valitaan<br />

pi =<br />

1<br />

<br />

<br />

<br />

1<br />

N<br />

(xji − xi)<br />

N − 1<br />

2<br />

j=1<br />

ja ℓi = −xipi,<br />

ts. pi on xi:n otoshajonnan inverssi ja ℓi on xi:n otosvariaatiokertoimen vastaluku (xi on tietysti<br />

xi:n otoskeskiarvo). Jälleen p ja ℓ saadaan koottua helposti Matlabilla:


LUKU 1. REGRESSIO 18<br />

»p=1 ./std(D);<br />

»l=-p.*mean(D);<br />

D on siis suunnittelumatriisi, joka saadaan X:stä: X = 1N D .<br />

Jos data on kunkin faktorin osalta tasavälistä, käytetään usein koodausta, joka myös on eräs<br />

skaalauksen muoto. Tällöin<br />

pi =<br />

2<br />

max(x1i,...,xNi) − min(x1i,...,xNi)<br />

ja ℓi = −xipi,<br />

ts. erona standardointiin on, että pi on nyt xi:n otosvaihteluvälin puolikkaan eikä xi:n otoshajonnan<br />

inverssi. Myös koodaus on helposti tehtävissä Matlabilla:<br />

»p=2 ./(max(D)-min(D));<br />

»l=-p.*mean(D);<br />

Lähinnä koodausta käytetään tilanteessa, missä kullakin faktorilla on kaksi tasoa tai kolme tasavälistä<br />

tasoa, jotka esiintyvät tasapainoisesti eli siten, että kunkin faktorin xi otoskeskiarvo<br />

on sen tasojen vaihtelukeskipisteessä<br />

min(x1i,...,xNi)+max(x1i,...,xNi)<br />

,<br />

2<br />

sillä tällöin koodatut arvot ovat 0, ±1. Jos tasoja on enemmän tai data ei ole tasapainoista, on<br />

koodaus korvattava mutkikkaammalla operaatiolla.<br />

Edellä sivulla 5 oleva tasavälinen ja tasapainoinen data standardoituna ja koodattuna on<br />

annettu alla olevassa taulussa.<br />

standardointi koodaus<br />

x1<br />

x2<br />

−0.957 −1.173<br />

−0.957 −1.173<br />

0.957 −1.173<br />

0.957 −1.173<br />

−0.957 0<br />

−0.957 0<br />

0.957 0<br />

0.957 0<br />

−0.957 1.173<br />

−0.957 1.173<br />

0.957 1.173<br />

0.957 1.173<br />

x1 x2<br />

−1 −1<br />

−1 −1<br />

1 −1<br />

1 −1<br />

−1 0<br />

−1 0<br />

1 0<br />

1 0<br />

−1 1<br />

−1 1<br />

1 1<br />

1 1<br />

Ajetaan vielä sekä standardoitu että koodattu data Systatilla muodostaen korkeamman asteen<br />

faktorit muunnetusta datasta. Käskyt<br />

>USE ’rotta.sys’<br />

SYSTAT FILE VARIABLES AVAILABLE TO YOU ARE:<br />

X1 X2 Y<br />

>save rottastd.sys<br />

>standardize x1,x2<br />

>run<br />

standardoivat ja käskyt


LUKU 1. REGRESSIO 19<br />

>EDIT ’Tilastomatematiikka:TKS data:rotta.sys’<br />

>LET x1=2*(x1-0.5)/0.4<br />

>LET x2=2*(x2-5)/8<br />

>SAVE ’Tilastomatematiikka:TKS data:rottakood.sys’<br />

koodaavat datan uudeksi dataksi. Malli on sama kuin sivulla 5 oleva. Käytetään pitkää tulostusta,<br />

jotta saadaan mukaan parametrien korrelaatiot. Ajetaan ensin standardoitu data:<br />

EIGENVALUES OF UNIT SCALED X’X<br />

CONDITION INDICES<br />

VARIANCE PROPORTIONS<br />

1 2 3 4 5<br />

1.816 1.000 1.000 1.000 0.184<br />

1 2 3 4 5<br />

1.000 1.348 1.348 1.348 3.146<br />

1 2 3 4 5<br />

CONSTANT 0.092 0.000 0.000 0.000 0.908<br />

X1 0.000 0.001 0.214 0.785 0.000<br />

X2 0.000 0.999 0.000 0.001 0.000<br />

X1 0.000 0.000 0.786 0.214 0.000<br />

X2 0.092 0.000 0.000 0.000 0.908<br />

DEP VAR: Y N: 12 MULTIPLE R: .989 SQUARED MULTIPLE R: .977<br />

ADJUSTED SQUARED MULTIPLE R: .965 STANDARD ERROR OF ESTIMATE: 0.769<br />

VARIABLE COEFFICIENT STD ERROR STD COEF TOLERANCE T P(2 TAIL)<br />

CONSTANT 8.535 0.385 0.000 . 22.188 0.000<br />

X1 -2.788 0.232 -0.683 .100E+01 -12.018 0.000<br />

X2 2.839 0.232 0.695 .100E+01 12.238 0.000<br />

X1*<br />

X2 -0.139 0.242 -0.033 .100E+01 -0.574 0.584<br />

X2*<br />

X2 -0.992 0.343 -0.164 .100E+01 -2.895 0.023<br />

CORRELATION MATRIX OF REGRESSION COEFFICIENTS<br />

CONSTANT X1 X2 X1 X2<br />

CONSTANT 1.000<br />

X1 0.000 1.000<br />

X2 0.000 0.000 1.000<br />

X1 0.000 0.000 0.000 1.000<br />

X2 -0.816 0.000 -0.000 -0.000 1.000<br />

ANALYSIS OF VARIANCE<br />

SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />

REGRESSION 179.293 4 44.823 75.729 0.000<br />

RESIDUAL 4.143 7 0.592<br />

Verrattaessa aikaisempaan sivulla 6 olevaan tulostukseen havaitaan nyt X T X:n ominaisarvojen<br />

tasaisempi rakenne ja parametrien suurempi korreloimattomuus. ANOVA tuottaa saman<br />

tuloksen kuin aikaisemminkin. Ajetaan sitten koodattu data. Tulokset ovat paljolti samantapaiset<br />

kuin standardoidulle datalle:<br />

EIGENVALUES OF UNIT SCALED X’X<br />

1 2 3 4 5<br />

1.816 1.000 1.000 1.000 0.184


LUKU 1. REGRESSIO 20<br />

CONDITION INDICES<br />

VARIANCE PROPORTIONS<br />

1 2 3 4 5<br />

1.000 1.348 1.348 1.348 3.146<br />

1 2 3 4 5<br />

CONSTANT 0.092 0.000 0.000 0.000 0.908<br />

X1 0.000 0.770 0.030 0.200 0.000<br />

X2 0.000 0.038 0.962 0.000 0.000<br />

X1 0.000 0.192 0.008 0.800 0.000<br />

X2 0.092 0.000 0.000 0.000 0.908<br />

DEP VAR: Y N: 12 MULTIPLE R: .989 SQUARED MULTIPLE R: .977<br />

ADJUSTED SQUARED MULTIPLE R: .965 STANDARD ERROR OF ESTIMATE: 0.769<br />

VARIABLE COEFFICIENT STD ERROR STD COEF TOLERANCE T P(2 TAIL)<br />

CONSTANT 8.535 0.385 0.000 . 22.188 0.000<br />

X1 -2.669 0.222 -0.683 .100E+01 -12.018 0.000<br />

X2 3.329 0.272 0.695 .100E+01 12.238 0.000<br />

X1*<br />

X2 -0.156 0.272 -0.033 .100E+01 -0.574 0.584<br />

X2*<br />

X2 -1.364 0.471 -0.164 .100E+01 -2.895 0.023<br />

CORRELATION MATRIX OF REGRESSION COEFFICIENTS<br />

CONSTANT X1 X2 X1 X2<br />

CONSTANT 1.000<br />

X1 0.000 1.000<br />

X2 0.000 -0.000 1.000<br />

X1 0.000 -0.000 0.000 1.000<br />

X2 -0.816 -0.000 0.000 -0.000 1.000<br />

ANALYSIS OF VARIANCE<br />

SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />

REGRESSION 179.293 4 44.823 75.729 0.000<br />

RESIDUAL 4.143 7 0.592<br />

Suunnittelun sanotaan olevan ortogonaalinen, jos X T X on lävistäjämatriisi, ts. silloin kun<br />

faktoreita vastaavat sarakkeet ovat kohtisuorassa toisiaan vastaan (ja myös vektoria 1N vastaan).<br />

Lause 1.3. Suunnittelu on ortogonaalinen täsmälleen silloin, kun<br />

(i) D:n sarakesummat ovat nollia, ts. 1 T N D = 0T k ja<br />

(ii) D T D on lävistäjämatriisi.<br />

(Tässä D on jälleen suunnittelumatriisi, X = 1N D .)<br />

Todistus. Ilmeisesti<br />

X T X =<br />

1 T N<br />

D T<br />

1 T N D =<br />

on lävistäjämatriisi tarkalleen silloin, kun (i) ja (ii) toteutuvat.<br />

N 1 T N D<br />

D T 1N D T D<br />

Ortogonaalista suunnittelua käytettäessä V (b) =σ 2 (X T X) −1 on lävistäjämatriisi, ts. parametriestimaatit<br />

b0,...,bk ovat riippumattomat. Edelleen tällöin käänteismatriisin (X T X) −1<br />

laskeminen on helppoa ja tarkkaa.


LUKU 1. REGRESSIO 21<br />

Suunnittelun sanotaan olevan kiertosymmetrinen, jos matriisi X T X säilyy samana, kun dataan<br />

tehdään mielivaltainen ortogonaalinen muunnos, ts. X T X on ”koordinaatistosta riippuma-<br />

ton”. Ortogonaalinen muunnos on sama kuin muotoa<br />

Q =<br />

1 0 T k<br />

0k K<br />

oleva affiinimuunnos, missä K on k × k-ortogonaalimatriisi.<br />

Lause 1.4. Suunnittelu on kiertosymmetrinen täsmälleen silloin, kun<br />

(i) D:n sarakesummat ovat nollia, ts. 1 T N D = 0T k ja<br />

(ii) D T D on muotoa λIk, missä λ on vakio.<br />

Todistus. (Tässä tarvittaneen kurssin Matriisilaskenta 1 tietoja.) Oletetaan, että suunnittelu on<br />

kiertosymmetrinen. Sovelletaan mielivaltaista ortogonaalimuunnosta:<br />

(XQ) T XQ = Q T X T <br />

T 1 0k XQ =<br />

0k KT <br />

T 1N DT <br />

<br />

1N D 1 0T <br />

k<br />

0k K<br />

<br />

T 1 0k =<br />

0k KT <br />

T N 1ND DT 1N DT <br />

T 1 0k D 0k K<br />

<br />

N 1<br />

=<br />

T ND KT DT 1N KT DT <br />

T 1 0k D 0k K<br />

<br />

N 1<br />

=<br />

T NDK KT DT 1N KT DT <br />

.<br />

DK<br />

Jotta tämä olisi<br />

X T <br />

T N 1ND X =<br />

DT 1N DT <br />

,<br />

D<br />

on oltava<br />

K T D T 1N = D T 1N ja K T D T DK = D T D,<br />

olipa K mikä tahansa ortogonaalimatriisi. Mutta, jotta kaikki ortogonaalimuunnokset pitäisivät<br />

DT 1N:n samana, pitää sen olla = 0k,ts. (i) pätee.<br />

Toisaalta DT D on symmetrinen matriisi, joten se on diagonalisoitavissa ortogonaalimuunnoksella.<br />

Näin ollen DT D:n on oltava valmiiksi lävistäjämatriisi. Silloin taas DT D:n lävistäjäalkiot<br />

voidaan permutoida mielivaltaiseen järjestykseen ortogonaalimuunnoksella. Näin ollen<br />

lävistäjäalkioiden on oltava samoja. Siispä myös (ii) pätee.<br />

Selvästi suunnittelu on kiertosymmetrinen, jos (i) ja (ii) pätevät.<br />

Kiertosymmetrisessä suunnittelussa ei ole mahdollista ”parantaa” mallia siirtymällä ”uusiin<br />

koordinaatteihin”, ts. esimerkiksi V (b) pysyy samana. Malli ei voi tällöin myöskään ”huonon-<br />

tuakaan”. Erityisesti ennusteen varianssi<br />

V (ˆy) =σ 2 (x ′ ) T (X T X) −1 x ′ = σ 2<br />

1<br />

N<br />

<br />

1 ′<br />

+ (x<br />

λ<br />

1) 2 + ···(x ′ k) 2<br />

riippuu vain datavektorin x ′ =(1,x ′ 1,...,x ′ k )T pituudesta. 6<br />

Lauseista 1.3 ja 1.4 seuraa, että jokainen kiertosymmetrinen suunnittelu on myös ortogonaalinen,<br />

mutta ei kääntäen. Tärkeä ortogonaalisten/kiertosymmetristen suunnittelujen ominaisuus<br />

on se, että niistä faktoreita poistamalla eli typistämällä saadut suunnittelut ovat myös ortogonaalisia/kiertosymmetrisiä.<br />

(Tämä seuraa varsin suoraan yo. lauseista.)<br />

6 Tästä itse asiassa tulee nimi ”kiertosymmetrinen”, datan rotaatio ei muuta ennusteen varianssia.


LUKU 1. REGRESSIO 22<br />

1.6 Esimerkki ortogonaalisesta 1. kertaluvun suunnittelusta:<br />

Simplex-koe, Plackett–Burman-koe<br />

Simplex-koe on ortogonaalinen 1. kertaluvun malliin perustuva koe, jonka datamatriisi X =<br />

1k+1 D on (k +1)×(k +1)-matriisi ja suunnittelumatriisi muodostuu säännöllisen origokeskisen<br />

k+1-simpleksin kärkien koordinaateista R k :ssa. Esimerkiksi R 2 :ssa tällainen simpleksi<br />

on tasasivuinen origokeskinen kolmio (ks. alla oleva kuvio). (Yleisesti R k :n simpleksi on sen<br />

k +1-kärkinen monitahokas.)<br />

a<br />

a<br />

y<br />

a<br />

x<br />

x<br />

a<br />

z<br />

a<br />

a<br />

y<br />

x<br />

a<br />

a<br />

z<br />

a<br />

y<br />

keskipiste<br />

Sama tasasivuinen kolmio syntyy R 3 :een leikattaessa ensimmäistä oktanttia tasolla<br />

x + y + z = a √ 2 .<br />

Rotaatiolla saadaan kolmio yz-tason suuntaiseksi, jolloin sen kärkien ensimmäiset koordinaatit<br />

ovat samat. Kolmion kärjet origoon yhdistävät janat ovat edelleen kohtisuorassa toisiaan vastaan<br />

(ortogonaalisuus). Kolmion keskipiste on x-akselilla.<br />

Lause 1.3 ja yllä oleva päättely antavat seuraavan idean kahden faktorin simplex-kokeen<br />

suunnitteluun:<br />

1. Etsitään ortogonaalinen 3×3-matriisi V, jonka ensimmäisen sarakkeen alkiot ovat samoja<br />

(= 1/ √ 3).<br />

2. Valitaan X = √ 3V.<br />

V löytyy esimerkiksi muodostamalla matriisin<br />

⎛<br />

1 0<br />

⎞<br />

0<br />

W = ⎝ 1 1 0 ⎠<br />

1 0 1<br />

QR-hajotelma W = QR, missä Q on ortogonaalimatriisi ja R on yläkolmiomatriisi (ks. kurssi<br />

Matriisilaskenta 1). Valitaan V = ±Q.<br />

Sama idea toimii yleisestikin:<br />

1. Muodostetaan (k +1)× (k +1)-matriisin<br />

⎛<br />

1<br />

⎜ 1<br />

W = ⎜<br />

⎝ .<br />

0<br />

1<br />

.<br />

0<br />

0<br />

.<br />

···<br />

···<br />

...<br />

⎞<br />

0<br />

0 ⎟<br />

. ⎠<br />

1 0 0 ··· 1<br />

QR-hajotelma W = QR.


LUKU 1. REGRESSIO 23<br />

2. Valitaan X = ± √ k +1Q.<br />

(W:n tilalle kelpaavat tietysti muutkin ei-singulääriset matriisit, joiden ensimmäinen sarake on<br />

1k+1.)<br />

Käytännössä laskenta sujuu vaikkapa Matlabilla. Otetaan esimerkkinä tapaus k =3:<br />

»I=eye(4);W=[ones(4,1) I(:,2:4)]<br />

W =<br />

1 0 0 0<br />

1 1 0 0<br />

1 0 1 0<br />

1 0 0 1<br />

»[Q,R]=qr(W)<br />

Q =<br />

R =<br />

-0.5000 0.2887 0.4082 -0.7071<br />

-0.5000 -0.8660 0 0.0000<br />

-0.5000 0.2887 -0.8165 0<br />

-0.5000 0.2887 0.4082 0.7071<br />

-2.0000 -0.5000 -0.5000 -0.5000<br />

0 -0.8660 0.2887 0.2887<br />

0 0 -0.8165 0.4082<br />

0 0 0 0.7071<br />

»X=2*(-Q)<br />

X =<br />

1.0000 -0.5774 -0.8165 1.4142<br />

1.0000 1.7321 0 -0.0000<br />

1.0000 -0.5774 1.6330 0<br />

1.0000 -0.5774 -0.8165 -1.4142<br />

Tällä tavoin saatu suunnittelu on lisäksi myös kiertosymmetrinen, sillä X T X =(k +1)Ik+1<br />

(Lause 1.4). Koska N = k +1,eivät simplex-kokeille tule suoraan käyttöön σ 2 , t-testit eikä<br />

myöskään ANOVA. Esimerkiksi Systatin tulostus yo. datalla tehdylle kokeelle on seuraava:<br />

käskyt<br />

>USE ’simplex.sys’<br />

VARIABLES IN SYSTAT FILE ARE:<br />

X1 X2 X3 Y<br />

>model y=constant+x1+x2+x3<br />

>estimate<br />

ja tulostus<br />

DEP VAR: Y N: 4 MULTIPLE R: 1.000 SQUARED MULTIPLE R: 1.000<br />

VARIABLE COEFFICIENT STD ERROR STD COEF TOLERANCE T P(2 TAIL)<br />

CONSTANT 1.068 0.000 . . . .<br />

X1 0.538 0.000 . .100E+01 . .<br />

X2 -0.420 0.000 . .100E+01 . .<br />

X3 0.071 0.000 . .100E+01 . .<br />

ANOVA ei tulostu ja mallin sopivuus on täydellinen. Tulostuksen antina ovat saadut parametriestimaatit.<br />

Mutta tietysti suunnittelua voidaan tarvittaessa typistää, ts. ottaa mukaan vain tarvittava<br />

määrä faktoreita. Kuten edellä todettiin, tämä ei poista ortogonaalisuutta eikä kiertosymmetrisyyttä.


LUKU 1. REGRESSIO 24<br />

Huomautus. Jos simplex-data ei ole ”reaalimaailman” koetta ajatellen oikeantyyppistä, voidaan<br />

se muuntaa sopivalle asteikolle skaalauksella. Koe suoritetaan skaalatulla datalla, mutta<br />

mallina käytetään (typistetyn) simplex-datan mallia, josta haluttaessa voidaan päästä skaalauksella<br />

”reaalimaailmaan”.<br />

Erikoistapaus simplex-kokeesta on ns. Plackett–Burman-koe. Datamatriisi on tällöin (mahdollisen<br />

koodauksen jälkeen) alkioista ±1 koostuva (k +1)× (k +1)-matriisi X, joka toteuttaa<br />

ehdon<br />

X T X =(k +1)Ik+1.<br />

Tällaista ±1-matriisia X kutsutaan yleisesti Hadamardin matriisiksi. 7 Hadamardin m × mmatriisilla<br />

H on seuraavat ominaisuudet:<br />

(i) H:n sarakesummat ensimmäistä saraketta lukuunottamatta ovat =0, ts. sarakkeissa on<br />

yhtä monta +1:tä ja −1:tä.<br />

(ii) Joko m =2tai sitten m on neljällä jaollinen luku.<br />

(iii) H:n kahden rivin välinen etäisyys on aina √ 2m.Tästä ja kohdasta (i) seuraa, että Plackett–<br />

Burman-koe on simplex-koe, koska rivin ensimmäinen alkio on 1.<br />

Nämä ominaisuudet ovat kutakuinkin helposti todettavissa (jätetään lukijalle).<br />

Hadamardin matriisien konstruktio tapahtuu käyttäen ns. äärellisiä kuntia (ks. kurssi Algebra<br />

1 tai Koodausteoria). JOHN selostaa konstruktiota lähemmin. Jo saaduista Hadamardin<br />

matriiseista saa uusia isompia ns. Kronecker-tuloa käyttämällä. Yleisesti n1 × m1-matriisin<br />

⎛<br />

⎞<br />

A =<br />

⎜<br />

⎝<br />

a11 ··· a1m1<br />

.<br />

. ..<br />

an1 ··· an1m1<br />

ja n2 × m2-matriisin B Kronecker-tulo on n1n2 × m1m2-matriisi<br />

⎛<br />

⎞<br />

A =<br />

⎜<br />

⎝<br />

a11B ··· a1m1B<br />

.<br />

. .. .<br />

an1B ··· an1m1B<br />

.<br />

⎟<br />

⎠<br />

⎟<br />

⎠ =merk. A ⊗ B<br />

(lohkomuoto). Lohkomatriisien kertolaskukaavasta seuraa melko välittömästi, että mikäli matriisitulot<br />

AC ja BD ovat määritellyt, niin<br />

(A ⊗ B)(C ⊗ D) =(AC) ⊗ (BD),<br />

ja lohkomatriisin transponointikaavasta puolestaan, että (A ⊗ B) T = A T ⊗ B T . Jos nyt<br />

m1 × m1-matriisi H1 ja m2 × m2-matriisi H2 ovat Hadamardin matriiseja, niin samoin on<br />

niiden Kronecker-tulo H1 ⊗ H2, sillä<br />

(H1 ⊗ H2) T (H1 ⊗ H2) =(H T 1 ⊗ H T 2 )(H1 ⊗ H2) =(H T 1 H1) ⊗ (H T 2 H2)<br />

=(m1Im1) ⊗ (m2Im2) =m1m2Im1m2<br />

ja H1 ⊗ H2:n ensimmäinen sarake on Im1m2. Matlabilla tällainen konstruktio sujuu helposti:<br />

7 Varsinaisesti Hadamardin matriisi määritellään niin, että sen ensimmäisen sarakkeen ei tarvitse olla 1. Toisaalta<br />

jokainen Hadamardin matriisi voidaan saattaa tällaiseksi kertomalla sen rivejä sopivasti −1:llä. Tämä säilyttää<br />

Hadamard-ominaisuuden, kuten voi helposti todeta. Tällaiselle yleiselle Hadamardin matriisille ominaisuus (i)<br />

ei välttämättä pidä paikkaansa. Hadamardin matriisi on standardimuodossa, jos sen ensimmäinen sarake on 1 ja<br />

ensimmäinen rivi 1 T .


LUKU 1. REGRESSIO 25<br />

»H1=[1 1;1 -1]<br />

H1 =<br />

1 1<br />

1 -1<br />

»H2=kron(H1,H1)<br />

H2 =<br />

1 1 1 1<br />

1 -1 1 -1<br />

1 1 -1 -1<br />

1 -1 -1 1<br />

»H=kron(H1,H2)<br />

H =<br />

1 1 1 1 1 1 1 1<br />

1 -1 1 -1 1 -1 1 -1<br />

1 1 -1 -1 1 1 -1 -1<br />

1 -1 -1 1 1 -1 -1 1<br />

1 1 1 1 -1 -1 -1 -1<br />

1 -1 1 -1 -1 1 -1 1<br />

1 1 -1 -1 -1 -1 1 1<br />

1 -1 -1 1 -1 1 1 -1<br />

1.7 2 k -kokeet: Katsaus<br />

2 k -kokeella tarkoitetaan koetta, jossa (k +1)× N-datamatriisin X sarakkeissa (ensimmäistä<br />

saraketta lukuunottamatta) esiintyy vain kahta eri tason arvoa. Koodauksen jälkeen ne ovat 1<br />

ja −1. Jatkossa oletetaankin koodaus valmiiksi suoritetuksi. Plackett–Burman-kokeet ovat siis<br />

2 k -kokeita.<br />

Malli on tällöin<br />

y = β0 +<br />

k<br />

βixi + <br />

βijxixj + ···+ <br />

i=1<br />

1≤i


LUKU 1. REGRESSIO 26<br />

⎛<br />

⎜<br />

X = ⎜<br />

⎝<br />

1 −1 −1 −1<br />

1 −1 −1 1<br />

1 −1 1 −1<br />

1 −1 1 1<br />

1 1 −1 −1<br />

1 1 −1 1<br />

1 1 1 −1<br />

1 1 1 1<br />

Ensimmäisen kertaluvun täydellinen 2 k -koe on näin ollen aina kiertosymmetrinen, sillä ilmeisesti<br />

X T X =2 k Ik+1 (Lause 1.4).<br />

Täydellisessä 2 k -kokeessa on useinkin käytännön kannalta liian monta faktoria. Ns. osittaisissa<br />

2 k -kokeissa faktorien määrää karsitaan (ja datamatriisin rivilukua pienennetään) aivan<br />

omalla tavallaan kieltämällä tietyt faktorit. Faktorin kielto tarkoittaa sitä, että sen arvo kiinnitetään<br />

±1:ksi. Jos kielletään faktorit z1,...,zm, onkiellettävä myös kaikki näistä keskenään<br />

kertomalla saadut faktorit, sillä näiden arvot tulevat myös kiinnitetyksi. Kiellettyjen termien<br />

sanotaan sekoittuvan vakiotermiin. (Vakiotermiä itseään ei toki voida kieltää!)<br />

Kielletyt faktorit ovat yleensä korkeampaa kertalukua ja selittävät ensimmäisen kertaluvun<br />

faktorien ns. yhdysvaikutuksia. Kiellettäessä faktoreita päätetään samalla, etteivät tietyt yhdysvaikutukset<br />

ole tarkastelun kannalta tärkeitä. Jos siis tapauksessa k =5päätetään kieltää faktorit<br />

x1x2 , x3x4 ja x2x3x5,<br />

on myös kiellettävä<br />

x1x2 · x3x4 = x1x2x3x4,<br />

x1x2 · x2x3x5 = x1x3x5,<br />

x3x4 · x2x3x5 = x2x4x5,<br />

⎞<br />

⎟ .<br />

⎟<br />

⎠<br />

x1x2 · x3x4 · x2x3x5 = x1x4x5.<br />

Alinta kertalukua olevan kielletyn termin aste on ns. kokeen resoluutio.<br />

Kun faktorit z1,...,zm on kielletty, ts. niiden arvot kiinnitetty, jätetään datamatriisiin vain<br />

ne rivit, jotka toteuttavat nämä kiinnitykset. Itse malliin ei oteta mukaan kiellettyjä faktoreita.<br />

Toisaalta kiinnitykset samaistavat tiettyjä faktoreita merkkiä vaille ja näistä otetaan mukaan<br />

malliin vain yksi, jottei datamatriisiin tule lineaarisesti riippuvia sarakkeita. Tällaisia faktoreita<br />

kutsutaan toistensa aliaksiksi. Esimerkiksi yo. kiinnitysten puitteissa malliin ei saa ottaa mukaan<br />

molempia faktoreita x1 ja x2,sillä<br />

x1 =(±x1x2)x1 = ±x2,<br />

missä merkki ± valitaan siten, että ±x1x2 =1.<br />

Sitä kiellettyjen faktoreiden arvojen kiinnitystä, joka antaa kullekin niistä arvon 1, kutsutaan<br />

pääositukseksi. Jos esimerkiksi tapauksessa k =5kielletään faktorit<br />

x1x2x3 , x3x4x5 ja x1x2x4x5<br />

pääosituksessa, saadaan seuraava ns. aliastaulu


LUKU 1. REGRESSIO 27<br />

mallin faktori<br />

1<br />

x1<br />

x2<br />

x3<br />

x4<br />

x5<br />

x1x4<br />

x1x5<br />

sekoittuvat aliakset<br />

x1x2x3 x3x4x5 x1x2x4x5<br />

x2x3 x1x3x4x5 x2x4x5<br />

x1x3 x2x3x4x5 x1x4x5<br />

x1x2 x4x5 x1x2x3x4x5<br />

x1x2x3x4 x3x5 x1x2x5<br />

x1x2x3x5 x3x4 x1x2x4<br />

x2x3x4 x1x3x5 x2x5<br />

x2x3x5 x1x3x4 x2x4<br />

Ks. JOHN ja KHURI &CORNELL ja MYERS &MONTGOMERY.<br />

1.8 Toisen kertaluvun regressiomalli<br />

Täydellinen toisen kertaluvun malli on muotoa<br />

y = β0 +<br />

k<br />

βixi + <br />

βijxixj + ɛ.<br />

i=1<br />

1≤i≤j≤k<br />

Faktoreita on 1+2k + k<br />

kappaletta. Sovitaan faktoreiden järjestykseksi<br />

2<br />

1,x1,...,xk,x 2 1,...,x 2 k,x1x2,...,x1xk,x2x3,...,xk−1xk<br />

ja muodostetaan datamatriisin X sarakkeet tässä järjestyksessä.<br />

Merkitään (kuten aikaisemminkin) X = 1N D ,missä D on suunnittelumatriisi, ja<br />

<br />

1<br />

x = .<br />

d<br />

Merkitään edelleen<br />

(yläkolmiomatriisi) ja<br />

Silloin<br />

ja vastaavasti<br />

Siispä myös<br />

⎛<br />

B ′ ⎜<br />

= ⎜<br />

⎝<br />

β11 β12 ··· β1k<br />

⎞<br />

0<br />

.<br />

β22<br />

.<br />

···<br />

. ..<br />

β2k<br />

⎟<br />

. ⎠<br />

0 0 ··· βkk<br />

B = 1<br />

2 (B′ +(B ′ ) T )<br />

d T B ′ d = trace(d T B ′ d)=trace(B ′ dd T )= <br />

βijxixj<br />

ja malli voidaan kirjoittaa matriisimuotoon<br />

d T (B ′ ) T d = <br />

βijxixj.<br />

1≤i≤j≤k<br />

d T Bd = <br />

1≤i≤j≤k<br />

βijxixj<br />

y = x T β + d T Bd + ɛ.<br />

1≤i≤j≤k


LUKU 1. REGRESSIO 28<br />

Myöskin ennuste<br />

ˆy = b0 +<br />

k<br />

bix ′ i + <br />

i=1<br />

1≤i≤j≤k<br />

bijx ′ ix ′ j<br />

voidaan kirjoittaa samalla tavoin matriisimuotoon: matriisit E ′ ja E saadaan ottamalla B ′ :ssa ja<br />

B:ssä βij:n paikalle bij, kirjoitetaan<br />

ja<br />

x ′ =<br />

1<br />

d ′<br />

<br />

ˆy =(x ′ ) T b +(d ′ ) T Ed ′ .<br />

Täydellinen toisen kertaluvun malli ei sellaisenaan käy ortogonaaliseen kokeeseen, sillä<br />

(Lause 1.3) neliöfaktorien sarakesummat ovat positiivisia. Toisaalta mainitut neliöfaktorit voidaan<br />

korvata uusilla muotoa<br />

x 2 i + pixi + qi =merk. Pi(xi)<br />

olevilla faktoreilla, missä kertoimet pi ja qi valitaan siten, että<br />

N<br />

Pi(xji) =0 ja<br />

j=1<br />

N<br />

j=1<br />

Pi(xji)xji =0,<br />

ts. polynomit 1, x ja Pi(x) ovat (käytetyn datan suhteen) ortogonaaliset.<br />

Tätä varten oletetaan ensin, että faktorit x1,...,xk ovat valmiiksi standardoituja niin, että<br />

N<br />

xji =0 ja<br />

j=1<br />

N<br />

x 2 ji = N.<br />

Huomaa, että tämä ei ole aivan sama kuin edellä oleva standardointi, vaan tässä käytetty hajonta<br />

on <br />

N 1<br />

(xji − xi)<br />

N<br />

2 .<br />

Muodostetaan kertoimille pi ja qi yhtälöt<br />

<br />

0= N j=1 (x2ji + pixji + qi) =N + Nqi<br />

0= N j=1 (x3ji + pix2 ji + qixji) = N j=1 x3ji + Npi<br />

j=1<br />

j=1<br />

ja ratkaistaan ne: <br />

pi = − 1<br />

N<br />

N j=1 x3 qi = −1.<br />

ji<br />

Merkitään nyt matriisissa 1<br />

N DT D faktoreita vastaavien D:n sarakkeiden pistetuloista saatavia<br />

alkioita seuraavasti:<br />

xi<br />

xixj<br />

faktorit<br />

xj<br />

xm<br />

xixj xmxn<br />

··· ···<br />

alkio<br />

[ij] =[ji]=···<br />

[ijm] =[jim]=···<br />

[ijmn] =[imjn] =···<br />

···


LUKU 1. REGRESSIO 29<br />

Siis [iii] =−pi, [ii] =1, [ij] = N<br />

ℓ=1 xℓixℓj, jne. Uusi malli, jossa x 2 i :n tilalla on Pi(xi), on<br />

y = γ0 +<br />

k<br />

i=1<br />

γixi +<br />

k<br />

γiiPi(xi)+ <br />

γijxixj + ɛ.<br />

i=1<br />

Verrattaessa aikaisempaan malliin havaitaan, että<br />

⎧<br />

⎪⎨ γ0 −<br />

⎪⎩<br />

k i=1 γii = β0<br />

γi + piγii = βi eli<br />

γij = βij<br />

1≤i


LUKU 1. REGRESSIO 30<br />

missä<br />

Y = λ2(2Ik + Jk) − λ 2 −1 1Jk ,<br />

edellyttäen tietysti, että ko. käänteismatriisi on olemassa. Käyttäen tunnettua muotoa Ik + cJk<br />

olevan matriisin kääntökaavaa9 todetaankin, että<br />

Y = 1<br />

<br />

λ<br />

Ik +<br />

2λ2<br />

2 1 − λ2<br />

(k +2)λ2− kλ2 <br />

Jk .<br />

1<br />

Lasketaan sitten ennusteen ˆy varianssi. Datavektori x ′ täydennetään muiden kuin ensimmäisen<br />

kertaluvun faktorien osalta, jolloin saadaan vektori<br />

⎛<br />

1<br />

⎜<br />

z = ⎜ d<br />

⎝<br />

′<br />

⎞<br />

⎟<br />

⎠ ,<br />

missä z1:ssä ovat d ′ :n komponenttien neliöt ja z2:ssa niiden sekatulot. Tutkittava varianssi on<br />

V (ˆy) =σ 2 z T (X T X) −1 z. Nyt helppo lohkokertolasku osoittaa, että<br />

N<br />

σ2 V (ˆy) =1+λ211 T k Y1k − 2λ1z T 1 Y1k + 1<br />

z1<br />

z2<br />

(d<br />

λ1<br />

′ ) T d ′ + z T 1 Yz1 + 1<br />

λ2<br />

Selvästi Y1k muotoa c1k jollekin vakiolle c ja zT 1 Y1k = cd ′ 2 .Toisaalta<br />

z T 2 z2 = <br />

joten sopivalle vakiolle d<br />

z T 1 Yz1 + 1<br />

z T 2 z2 = z T 1<br />

λ2<br />

(x<br />

1≤i


LUKU 1. REGRESSIO 31<br />

1.9 Ortogonalisoituvia toisen kertaluvun malleja: 3 k -kokeet,<br />

CCD-kokeet<br />

3 k -kokeessa faktoreilla on kullakin kolme tasoyhdelmää datamatriisissa,<br />

koodauksen jälkeen −1, 0 ja 1. Täydellisessä 3 k -kokeessa ovat mukana<br />

kaikki 3 k eri tasoyhdelmää, kukin kerran. Ohessa on erään täydellisen 3 2 -<br />

kokeen datamatriisin ensimmäisen kertaluvun osuus.<br />

Myös osittaisia 3 k -kokeita voidaan konstruoida samaan tapaan kuin<br />

osittaisia 2 k -kokeita, mutta tämä on huomattavasti hankalampaa (ks.<br />

MONTGOMERY tai JOHN).<br />

3 k -kokeella voidaan sovittaa täydellinen toisen kertaluvun malli ja se<br />

voidaan lisäksi ortogonalisoida. Kiertosymmetristä koetta näin ei kuitenkaan<br />

saada. Lisäämällä yo. datamatriisiin toisen kertaluvun osuus saadaan<br />

datamatriisi<br />

⎛<br />

⎜<br />

⎝<br />

1 −1 −1 1 1 1<br />

1 −1 0 1 0 0<br />

1 −1 1 1 1 −1<br />

1 0 −1 0 1 0<br />

1 0 0 0 0 0<br />

1 0 1 0 1 0<br />

1 1 −1 1 1 −1<br />

1 1 0 1 0 0<br />

1 1 1 1 1 1<br />

⎞<br />

⎟ .<br />

⎟<br />

⎠<br />

Standardoinnin jälkeen datamatriisi on<br />

⎛<br />

1<br />

⎜<br />

⎝<br />

− √ 1.5 − √ 1 −<br />

1.5 1.5 1.5 1.5<br />

√ 1<br />

1.5<br />

−<br />

0 1.5 0 0<br />

√ 1.5 √ 1 0<br />

1.5<br />

−<br />

1.5 1.5 −1.5<br />

√ 1<br />

1<br />

0<br />

0<br />

1.5<br />

0<br />

0<br />

0<br />

1.5<br />

0<br />

0<br />

0<br />

√ 1<br />

1.5 0 1.5 0<br />

√ 1.5 − √ 1<br />

1.5 1.5 1.5 −1.5<br />

√ 1<br />

1.5 0 1.5 0 0<br />

√ 1.5 √ 1.5 1.5 1.5<br />

⎞<br />

⎟<br />

⎠<br />

1.5<br />

josta saadaan<br />

1<br />

9 XT X =<br />

⎛<br />

⎜<br />

⎝<br />

1 0 0 1 1 0<br />

0 1 0 0 0 0<br />

0 0 1 0 0 0<br />

1 0 0 1.5 1 0<br />

1 0 0 1 1.5 0<br />

0 0 0 0 0 1<br />

=merk. X,<br />

⎞<br />

⎟ .<br />

⎟<br />

⎠<br />

⎛<br />

⎜<br />

⎝<br />

1 −1 −1<br />

1 −1 0<br />

1 −1 1<br />

1 0 −1<br />

1 0 0<br />

1 0 1<br />

1 1 −1<br />

1 1 0<br />

1 1 1<br />

Koe onnäin ollen ortogonalisoitavissa, mutta ei ainakaan Lauseen 1.5 avulla todettavissa kiertosymmetriseksi<br />

(eikä siis itse asiassa ole kiertosymmetrinen, ks. edellisen sivun Huomautus).<br />

CCD-kokeen 10 datamatriisi muodostetaan kolmesta osasta:<br />

10 ”CCD”=”central composite design”<br />

⎞<br />

⎟<br />


LUKU 1. REGRESSIO 32<br />

1. Faktoriaaliosa koostuu 2 k -kokeesta, jonka faktoritasot koodataan ±1:ksi. Ensimmäisen<br />

kertaluvun osuus faktoriaaliosasta on muotoa 1f F , missä F on f × k-matriisi.<br />

2. Aksiaaliosa saadaan pisteistä, jotka ovat Rk :n akseleilla etäisyydellä α origosta. Ensimmäisen<br />

kertaluvun osuus aksiaaliosasta on muotoa<br />

<br />

1k αIk<br />

.<br />

1k −αIk<br />

α on CCD-kokeen parametri.<br />

3. Keskusosa koostuu n0 koetoistosta origossa. Ensimmäisen kertaluvun osuus keskusosasta<br />

on muotoa 1n0 O .<br />

Ilmeisesti N = f +2k + n0 ja ensimmäisen kertaluvun osuus datamatriisista on<br />

⎛<br />

⎞<br />

⎜<br />

⎝<br />

1f<br />

1k<br />

F<br />

αIk<br />

1k −αIk<br />

O<br />

1n0<br />

Esimerkki. Valitaan k =2, f =4, α = √ 2 ja n0 =1. Silloin datamatriisin ensimmäisen<br />

kertaluvun osuus on<br />

faktoriaaliosa<br />

aksiaaliosa<br />

⎧ ⎛<br />

⎪⎨ ⎜<br />

⎪⎩ ⎜<br />

⎧ ⎜<br />

⎪⎨ ⎜<br />

⎪⎩ ⎜<br />

⎝<br />

1<br />

1<br />

1<br />

1<br />

1<br />

−1<br />

−1<br />

1<br />

1<br />

−1<br />

1<br />

−1<br />

1<br />

keskusosa →<br />

√ 1<br />

2<br />

0<br />

0<br />

√ 1 −<br />

2<br />

√ 1<br />

2<br />

0<br />

0<br />

− √ 2<br />

⎞<br />

⎟<br />

⎠<br />

1 0 0<br />

Faktoriaaliosa valitaan siten, että se on keskitetty, ts.<br />

F T 1f = 0k.<br />

(Täydellisen tai osittaisen 2k-kokeen muodostavalle faktoriaaliosalle tämä toteutuu automaattisesti.)<br />

Tällöin koko ensimmäisen kertaluvun data on keskitetty. Standardoitaessa sarakkeiden<br />

yhteinen otosvarianssi on<br />

s 2 = 1<br />

N (f +2α2 ).<br />

Standardoitu ensimmäisen kertaluvun datamatriisi on näin<br />

⎛<br />

⎞<br />

⎜<br />

⎝<br />

1f<br />

1<br />

sF 1k<br />

α<br />

s Ik<br />

1k − α<br />

s Ik<br />

1n0<br />

Lasketaan mukaan toisen kertaluvun sarakkeet, jolloin saadaan varsinainen datamatriisi<br />

⎛<br />

⎞<br />

1f<br />

1<br />

sF 1k<br />

α<br />

s Ik<br />

1k − α<br />

s Ik<br />

O<br />

⎟<br />

⎠ .<br />

⎟<br />

⎠ .<br />

1<br />

s2 1f1T k<br />

α2 s2 Ik<br />

α2 s2 Ik<br />

1<br />

s 2 F ′<br />

⎜<br />

X = ⎜<br />

⎝<br />

O<br />

O<br />

1n0 O O O<br />

⎟<br />

⎠ ,


LUKU 1. REGRESSIO 33<br />

missä F ′ on faktorien sekatuloista muodostuva osuus (f × g-matriisi). Jotta voitaisiin yleensä<br />

ottaen päästä ortogonalisoituviin ja/tai kiertosymmetrisiin CCD-kokeisiin, pitää faktoriaaliosa<br />

valita siten, että (aikaisemmin mainitun ehdon F T 1f = 0k lisäksi)<br />

F T F = fIk , (F ′ ) T 1f = 0g , (F ′ ) T F ′ = fIg ja (F ′ ) T F = O.<br />

(Jälleen täydellisen tai osittaisen 2 k -kokeen muodostavalle faktoriaaliosalle tämä on automaattista.)<br />

Helppo lasku osoittaa, että tällöin<br />

⎛<br />

X T ⎜<br />

X = ⎜<br />

⎝<br />

N 0 T k<br />

0k<br />

f<br />

s2 1k +2α2 s2 1k<br />

Koeonnyt ortogonalisoitavissa, jos<br />

f<br />

s2 1T k +2α2 s2 1T k 0T g<br />

f<br />

s2 Ik +2α2 s2 Ik O OT ⎛<br />

⎜<br />

= N ⎜<br />

⎝<br />

0g<br />

1 0<br />

O O<br />

T k 1T k 0T 0k Ik O<br />

g<br />

OT 1k O fJk+2α4Ik s2 (f+2α2 ) OT ⎞<br />

⎟<br />

⎠<br />

0g O O<br />

.<br />

f<br />

s 2 (f +2α 2 ) =<br />

O<br />

fIg<br />

s 2 (f+2α 2 )<br />

fN<br />

(f +2α2 =1 eli α =<br />

) 2<br />

f<br />

s 4 Jk +2 α4<br />

s 4 Ik O T<br />

f<br />

s 4 Ig<br />

<br />

1<br />

<br />

fN − f<br />

2<br />

ja kiertosymmetrinen, jos α = 4√ f. Sekä kiertosymmetrisen että ortogonalisoituvan kokeen<br />

aikaansaamiseksi on näin ollen valittava<br />

α = 4 f ja n0 =4− 2k +4 f<br />

(olettaen, että f on neliö). Edellä olevan esimerkin CCD-koe on siis kiertosymmetrinen, mutta<br />

ei ortogonalisoituva.<br />

Keskusosan koetoistoja käyttäen voidaan testata mallin epäsopivuutta.<br />

Huomautus. Monessa tapauksessa CCD-kokeen tapaiset ”paloista kootut” kokeet ovat osoittautuneet<br />

hajontojensa puolesta paremmiksi kuin täydelliset tai muuten ”samantapaisista” tasoyhdelmistä<br />

muodostetut kokeet. Tunnettuja ovat esimerkiksi DeBaunin kokeilut, joissa 3 3 -kokeita<br />

verrattiin eräisiin osista koottuihin kokeisiin (ks. KHURI &CORNELL, alkuperäisviite on<br />

DEBAUN, R.M.: Response Surface Designs for Three Factors at Three Levels. Technometrics<br />

1 (–59), 1–8).<br />

⎞<br />

⎟<br />


Luku 2<br />

VASTEEN OPTIMOINTI<br />

2.1 Yleistä<br />

Vasteen optimoinnilla tarkoitetaan sellaisen faktorien tasoyhdelmän löytämistä, jolla vaste saa<br />

maksimi- tai minimiarvon (ks. edellinen luku). Kyseessä on enemmän tai vähemmän lokaalinen<br />

ääriarvo, sillä mallin käyttöalue on luonnollisesti rajoitettu, toisinaan hyvinkin pieni. Käyttöalue<br />

saattaa myös rajoittaa niin voimakkaasti, että kyseessä onkin itse asiassa ehdollinen optimointitehtävä.<br />

Vasteen optimointi liittyy likeisesti yleisiin optimointitehtäviin, ks. kurssi Matemaattinen<br />

optimointiteoria 1.<br />

2.2 Regressiomenetelmä<br />

Vasteen optimointi voidaan suorittaa sovittamalla ensimmäisen ja toisen kertaluvun malleja<br />

edellisessä luvussa esitetyllä tavalla. Menettely on seuraava:<br />

Ivaihe: gradienttimenetelmä<br />

1. Valitaan jokin lähtödata X0 = 1N0<br />

taan ensimmäisen kertaluvun malli<br />

D0<br />

<br />

sekä suoritetaan vastaavat kokeet ja sovite-<br />

y = x T β + ɛ.<br />

Mukana voi olla koetoistoja mallin epäsopivuuden testaamiseksi.<br />

2. Testataan (mahdollisten) koetoistojen avulla mallin epäsopivuus. Jos malli osoittautuu<br />

epäsopivaksi, siirrytään suoraan II vaiheeseen.<br />

3. Suoritetaan ANOVA. Jos malli ei osoittaudu merkitseväksi, siirrytään suoraan II vaiheeseen.<br />

4. Muussa tapauksessa käytetään estimoituja parametrejä b seuraavalla tavalla. Etsitään<br />

suunta, johon vaste mallin mukaan kasvaa nopeimmin (maksimointi) tai vähenee nopeimmin<br />

(minimointi), ns. viettosuunta. Tämä suunta on luonnollisesti gradientin<br />

⎛ ⎞<br />

grad(x T ⎜<br />

b)= ⎜<br />

⎝<br />

34<br />

b1<br />

b2<br />

.<br />

bk<br />

⎟<br />


LUKU 2. VASTEEN OPTIMOINTI 35<br />

suunta tai sille vastakkainen suunta, merkitään suuntaa n:llä (yksikkövektori). Etsitään<br />

datan keskipiste<br />

1<br />

D<br />

N0<br />

T 0 1N0 =merk. x0.<br />

5. Valitaan jokin askelpituus ∆0 ja kokeita suorittamalla etsitään vasteet pisteissä<br />

x0 +∆0n , x0 +2∆0n ,...,<br />

kunnes vaste ei enää merkittävästi kasva (maksimointi) tai vähene (minimointi). Olkoon<br />

tällainen piste<br />

x0 + i∆0n =merk. x1.<br />

6. Valitaan uusi datamatriisi X1 = <br />

1<br />

1N1 D1 siten, että N1 DT1 1N1 = x1, jatoistetaan<br />

kohtien 1.–5. menettely.<br />

7. Tällä tavalla jatkaen joko<br />

(a) tullaan ”ulos” kohdista 2. tai 3. tai<br />

(b) tullaan käyttöalueen reunalle tai<br />

(c) vaste ei enää olennaisesti kasva (maksimointi) tai vähene (minimointi).<br />

(a):sta ja (c):stä siirrytään II vaiheeseen. (b):ssä joudutaan tyytymään löytyneisiin vasteisiin.<br />

II vaihe: ääriarvotarkastelu<br />

1. Valitaan sellainen datamatriisi X = 1N D ,että 1<br />

N DT 1N = xj, missä xj on I vaiheessa<br />

viimeksi saatu datan keskipiste. Usein voidaan käyttää I vaiheen dataa joko sellaisenaan<br />

tai täydentäen.<br />

2. Sovitetaan täydellinen toisen kertaluvun malli<br />

y = x T β + d T Bd + ɛ.<br />

3. Testataan (mahdollisten) koetoistojen avulla mallin epäsopivuus. Jos malli osoittautuu<br />

epäsopivaksi, joudutaan tyytymään löytyneisiin vasteen arvoihin.<br />

4. Suoritetaan ANOVA. Jos malli ei osoittaudu merkitseväksi, joudutaan tyytymään löytyneisiin<br />

vasteen arvoihin.<br />

5. Muussa tapauksessa käytetään estimoitua mallia<br />

ääriarvojen etsintään.<br />

6. Muodostetaan<br />

ja merkitään se = 0k:ksi.<br />

y = x T b + d T Ed<br />

grad(x T b + d T Ed) =<br />

⎛<br />

⎜<br />

⎝<br />

b1<br />

b2<br />

.<br />

bk<br />

⎞<br />

⎟<br />

⎠ +2Ed


LUKU 2. VASTEEN OPTIMOINTI 36<br />

7. Jos E on singuläärinen, siirrytään III vaiheeseen.<br />

8. Muussa tapauksessa etsitään kriittinen piste<br />

⎛<br />

− 1<br />

2 E−1<br />

b1<br />

⎜<br />

⎝ .<br />

b2<br />

bk<br />

⎞<br />

⎟<br />

⎠ =merk. ξ.<br />

9. Etsitään E:n ominaisarvot λ1,...,λk. Koska E on symmetrinen matriisi, sen ominaisarvotovatreaaliset.<br />

9.1 Jos λ1,...,λk > 0, E on positiividefiniitti ja ξ on minimipiste, jossa saavutetaan<br />

minimaalinen vaste.<br />

9.2 Jos λ1,...,λk < 0, E on negatiividefiniitti ja ξ on maksimipiste, jossa saavutetaan<br />

maksimaalinen vaste.<br />

9.3 Jos jokin λi on > 0 ja jokin toinen λj on < 0, ξ on satulapiste. Tällöin siirrytään III<br />

vaiheeseen.<br />

Ohessa on Maplen piirtämänä tyypilliset esimerkit tapauksista 9.2 ja 9.3, kun k =2. Mukana<br />

on myös tasa-arvokäyrästöt. Ensin 9.2:<br />

4<br />

3<br />

2<br />

1<br />

0<br />

–1<br />

–0.5<br />

x2<br />

0<br />

0.5<br />

1<br />

1<br />

–1<br />

–0.5<br />

0<br />

x1<br />

0.5<br />

0.8<br />

0.6<br />

x2<br />

0.4<br />

0.2<br />

–1–0.8 –0.4 0.2 0.4 0.6 0.8 1<br />

–0.2 x1<br />

–0.4<br />

–0.6<br />

–0.8<br />

1<br />

–1


LUKU 2. VASTEEN OPTIMOINTI 37<br />

ja sitten 9.3:<br />

1<br />

0<br />

–1<br />

–2<br />

–3<br />

–1<br />

–0.5<br />

x2<br />

00.5<br />

1<br />

1<br />

–1<br />

–0.5<br />

0<br />

0.5<br />

x1<br />

0.6<br />

x2<br />

0.4<br />

0.2<br />

–1–0.8 –0.4 0.2 0.4 0.6 0.8 1<br />

–0.2 x1<br />

Useampiulotteisissa avaruuksissa satulapisteitä on useammanlaisia. Itse asiassa todellinen<br />

vaste voi hyvinkin olla niin mutkikas, ettei sitä voida kovin tarkasti kuvata toisen kertaluvun<br />

mallilla. Lokaalisia maksimi/minimipisteitäkin voi olla useampia. Satulapiste saattaa tällöin hyvinkin<br />

olla merkki siitä, että lokaalisia ääriarvopisteitä on todella useita.<br />

III vaihe: kanonisointi<br />

1. Tähän vaiheeseen tultaessa on saatu toisen kertaluvun estimoitu malli y = x T b + d T Ed,<br />

missä E on singuläärinen tai/ja sillä on sekä negatiivisia että positiivisia ominaisarvoja.<br />

Esimerkkeinä tapauksista, joissa E on singuläärinen, ovat Maplen piirtämät kaksi estimoitua<br />

vastepintaa tasa-arvokäyrästöineen: ”harju” ja ”nouseva harju” (kuvat seuraavalla<br />

sivulla).<br />

2. Etsitään (vaikkapa Matlabin [Q,L]=schur(E)-komennolla) E:n Schurin hajotelma:<br />

E = QΛQ T ,<br />

missä Q on ortogonaalimatriisi ja Λ = ⌈(λ1,...,λk) T ⌋. Huomaa, että Q:n sarakkeet<br />

q1,...,qk ovat (järjestyksessä) ominaisarvoihin λ1,...,λk liittyviä ominaisvektoreita.<br />

3. Kirjoitetaan estimoitu malli muotoon<br />

Merkitään<br />

y = x T<br />

1 0 T k<br />

0k Q T<br />

1 0 T k<br />

0k Q<br />

<br />

x = u ,<br />

1 0 T k<br />

0k Q T<br />

1 0 T k<br />

0k Q T<br />

0.8<br />

–0.4<br />

–0.6<br />

–0.8<br />

1<br />

–1<br />

<br />

b + d T QΛQ T d.<br />

<br />

b = g ja Q T d = e,


LUKU 2. VASTEEN OPTIMOINTI 38<br />

4<br />

3.5<br />

3<br />

–1<br />

–0.6<br />

–0.2<br />

x2<br />

0<br />

4.5<br />

4<br />

3.5<br />

3<br />

0.4<br />

0.8<br />

1<br />

2.5<br />

–1<br />

–0.5<br />

x2<br />

0<br />

0.5<br />

1<br />

–1<br />

–0.6<br />

–0.2<br />

0<br />

x1<br />

0.4<br />

0.8<br />

1<br />

1<br />

–1<br />

–0.5<br />

0<br />

x1<br />

0.5<br />

jolloin malli on ns. kanonista muotoa<br />

y = u T g + e T Λe eli y = g0 +<br />

0.8<br />

0.6<br />

x2<br />

0.4<br />

0.2<br />

–0.8 –0.4 0.2 0.4 0.6 0.8<br />

–0.2 x1<br />

–0.4<br />

–0.6<br />

–0.8<br />

1<br />

–1<br />

0.8<br />

0.6<br />

x2<br />

0.4<br />

0.2<br />

–1–0.8 –0.4 0.2 0.4 0.6 0.8 1<br />

–0.2 x1<br />

k<br />

i=1<br />

–0.4<br />

–0.6<br />

–0.8<br />

1<br />

–1<br />

(giui + λiu 2 i ).


LUKU 2. VASTEEN OPTIMOINTI 39<br />

4. Lasketaan<br />

tai<br />

ja merkitään<br />

u ′ = Q T xj (ks. II vaiheen kohta 1.)<br />

u ′ = Q T ξ (ks. II vaiheen kohdat 8. ja 9.3)<br />

u ′ =<br />

⎛<br />

⎜<br />

⎝<br />

5. Maksimoitaessa etsitään sellainen indeksi i, että giui+λiu 2 i kasvaa nopeimmin lähdettäessä<br />

pisteestä ui = u ′ i jompaankumpaan suuntaan. (Yleensä kyseessä on suurin positiivinen<br />

λi.) Ko. suunta vastaa e-vektoria<br />

⎛<br />

⎜<br />

⎝<br />

0.<br />

0<br />

±1<br />

0.<br />

0<br />

⎞<br />

u ′ 1<br />

.<br />

u ′ k<br />

⎞<br />

⎟<br />

⎠ .<br />

⎟<br />

⎟←<br />

i:s komponentti<br />

⎟<br />

⎠<br />

eli d-vektoria ±qi. Ellei kyseistä indeksiä löydy (kuten käy esimerkiksi eo. ”harjulle”),<br />

joudutaan tyytymään saatuihin vasteen arvoihin.<br />

6. Minimoitaessa etsitään vastaavasti indeksi i, jolle giui + λiu 2 i vähenee nopeimmin lähdettäessä<br />

u ′ i:sta jompaankumpaan suuntaan.<br />

7. Optimaalisen tasoyhdelmän etsintää jatketaan siirtymällä xj:stä tai ξ:stä (ks. kohta 4.)<br />

edellisissä kohdissa mainittuihin suuntiin jonkin matkaa (jotta ”päästään pois tasaiselta”)<br />

ja sitten palataan I vaiheeseen.<br />

Kaiken kaikkiaan etsintää jatketaan, kunnes saadut maksimi/minimiarvot eivät enää oleellisesti<br />

parane tai se joudutaan lopettamaan.<br />

Huomautus. Erityisen edullista on käyttää I vaiheessa kiertosymmetrisiä kokeita, joille ennusteen<br />

varianssi on suunnasta riippumaton.<br />

2.3 Nelder–Mead-algoritmi<br />

Eräät optimointialgoritmit sopivat vasteen optimointiin myös ilman varsinaista regressiomallin<br />

sovitusta. Hyvin käyttökelpoinen tällainen algoritmi on ns. Nelder–Mead-algoritmi, ks. KHURI<br />

&CORNELL tai kurssi Matemaattinen optimointiteoria 1. Matlabin operaatio fmins käyttää<br />

Nelder–Mead-algoritmia.


Luku 3<br />

KVALITATIIVISET FAKTORIT<br />

3.1 Yksisuuntainen ANOVA<br />

Kvalitatiivisen faktorin tasot eivät (välttämättä) vastaa minkään suureen numeerisia arvoja. Tasojen<br />

vaikutus vasteeseen sen sijaan on numeerista. Tasoja kutsutaan käsittelyiksi.<br />

Tarkastellaan ensin yhden faktorin tapausta, ns. yksisuuntaista ANOVAa. Merkitään1 kyseisen<br />

yhden faktorin (kvalitatiivisia) tasoja numeroin 1,...,a.Kullekin tasolle i suoritetaan ni<br />

koetta. Malli on<br />

yij = τi + ɛij (i =1,...,a; j =1,...,ni),<br />

missä<br />

yij = vaste i:nnen tason j:nnessä kokeessa,<br />

ɛij = virhe i:nnen tason j:nnessä kokeessa,<br />

τi = i:nnen tason vaikutus vasteeseen.<br />

Virheet ɛij ovat riippumattomia N(0,σ 2 )-jakautuneita satunnaismuuttujia. τi:t ja σ 2 ovat tuntemattomia.<br />

sekä<br />

Merkitään<br />

⎛<br />

τ =<br />

⎜<br />

⎝<br />

τ1<br />

.<br />

τa<br />

⎞<br />

⎛<br />

⎟ ⎜<br />

⎠ , yi = ⎝<br />

yi1<br />

.<br />

yini<br />

⎞<br />

⎛<br />

⎟ ⎜<br />

⎠ , y = ⎝<br />

y1<br />

.<br />

ya<br />

⎞<br />

⎛<br />

⎟ ⎜<br />

⎠ , ɛi = ⎝<br />

ɛi1<br />

.<br />

ɛini<br />

⎞<br />

⎛<br />

⎟ ⎜<br />

⎠ , ɛ = ⎝<br />

yi• = y T i 1ni , yi• = 1<br />

yi•<br />

ni<br />

, y•• = y T 1N , y•• = 1<br />

N y••,<br />

missä N = n1 + ···+ na. Merkitään edelleen<br />

⎛<br />

⎞ ⎛<br />

⎞<br />

Mres =<br />

⎜<br />

⎝<br />

Mn1<br />

...<br />

O<br />

O Mna<br />

⎟ ⎜<br />

⎠ ja T = ⎝<br />

(ks. keskitysmatriisi sivulla 11 ja vrt. T sivulla 13) sekä<br />

⎛ ⎞<br />

n =<br />

⎜<br />

⎝<br />

1n1<br />

...<br />

O<br />

O 1na<br />

1 Tämä on erityisen hyvä merkintä, jos kyseessä on intervalliasteikko, jossa numerot antavat järjestyksen ja<br />

hyvässä tapauksessa myös jonkinlaisen skaalan. Mutta tässä ei oleteta numeroille muuta kuin merkinnällinen rooli.<br />

40<br />

n1<br />

.<br />

na<br />

⎟<br />

⎠ .<br />

ɛ1<br />

.<br />

ɛa<br />

⎟<br />

⎠<br />

⎞<br />

⎟<br />

⎠ ,


LUKU 3. KVALITATIIVISET FAKTORIT 41<br />

(Huomaa, että Mres ja T ovat helposti koottavissa Matlabin operaatioilla.) Keskitysmatriisin<br />

ominaisuudet ”periytyvät” Mres:lle , ts. se on symmetrinen ja idempotentti. Seuraavat tulokset<br />

ovat lisäksi todettavissa helpolla laskulla:<br />

(i) MNMres = Mres<br />

(ii) T T T = ⌈n⌋<br />

(iii) T T 1N = n<br />

(iv) ⌈n⌋ −1 n = 1a<br />

(v) MresT = O<br />

(vi) Mres1N = 0N<br />

(vii) T1a = 1N<br />

⎛<br />

(viii) T T y =<br />

⎜<br />

⎝<br />

(ix) ⌈n⌋ −1 y• =<br />

y1•<br />

.<br />

ya•<br />

⎛<br />

⎜<br />

⎝<br />

⎞<br />

⎟<br />

⎠ =merk. y•<br />

y 1•<br />

.<br />

ya• ⎞<br />

⎟<br />

⎠ =merk. y •<br />

Malli on nyt vektorimuodossa<br />

y = Tτ + ɛ.<br />

Ilmeinen τi:n estimaatti on yi•, joka ”vastaa” regression b0 + b1x1:tä. Silloin residuaali on<br />

ja residuaalin neliösumma on<br />

r = Mresy<br />

SSE = r T r = y T Mresy =<br />

Kokonaisneliösumma puolestaan on<br />

SST = y T MNy =<br />

a ni <br />

y 2 ij −<br />

i=1<br />

j=1<br />

a<br />

i=1<br />

a ni <br />

y 2 ij − Ny 2 ••<br />

i=1<br />

j=1<br />

ja näiden neliösummien erotus on käsittelyjen neliösumma<br />

SSTR = SST − SSE = y T Mtry =<br />

niy 2 i•.<br />

a<br />

niy 2 i• − Ny 2 ••,<br />

missä Mtr = MN − Mres.Vastaavat vapausasteet ja keskineliöt saadaan alla olevasta taulusta.<br />

i=1<br />

SSX vapausasteet MSX<br />

SST<br />

SSTR<br />

SSE<br />

N − 1<br />

a − 1<br />

N − a<br />

MST = SST<br />

N − 1<br />

MSTR = SSTR<br />

a − 1<br />

MSE = SSE<br />

N − a<br />

(kokonaiskeskineliö)<br />

(käsittelyjen keskineliö)<br />

(residuaalin keskineliö)<br />

Näistä MSE on harhaton σ 2 :n estimaatti, sillä 1<br />

ni−1 yT i Mni yi on i:nnen tason vasteiden otosvarianssi<br />

ja sen odotusarvo on σ 2 , jolloin<br />

E(y T Mresy) =<br />

a<br />

E(y T i Mniyi) =<br />

i=1<br />

a<br />

(ni − 1)σ 2 =(n− a)σ 2 .<br />

i=1


LUKU 3. KVALITATIIVISET FAKTORIT 42<br />

Lause 3.1. Jos τ on muotoa µ1a, missä µ on vakio, niin osamäärällä<br />

MSTR<br />

MSE =merk. F<br />

on F-jakauma vapausastein a − 1 ja N − a (olettaen tietysti, että N>a).<br />

Todistus. (Tässä taas tarvitaan kurssin Laaja tilastomatematiikka tietoja.) Ilmeisesti<br />

Mresy = Mres(Tτ + ɛ) =Mresɛ.<br />

Toisaalta Mres on symmetrinen ja idempotentti matriisi. Koska ɛ:lla on N(0N,σ 2 IN)-jakautuma,<br />

on<br />

tällöin χ 2 -jakautunut<br />

trace(Mres) =<br />

1 1<br />

SSE =<br />

σ2 σ2 ɛT Mresɛ<br />

a<br />

trace(Mni )=<br />

vapausasteella. Edelleen, jos (kuten oletetaan) τ = µ1a, niin<br />

i=1<br />

a<br />

(ni − 1) = N − a<br />

i=1<br />

Mtry = Mtr(Tτ + ɛ) =Mtrɛ.<br />

Koska myös Mtr on sekin symmetrinen ja idempotentti matriisi (totea!), on<br />

tällöin χ 2 -jakautunut vapausastein<br />

1 1<br />

SSTR =<br />

σ2 σ2 ɛT Mtrɛ<br />

trace(Mtr) =trace(MN) − trace(Mres) =a − 1.<br />

Vielä MtrMres = ON, joten SSE ja SSTR ovat riippumattomat.<br />

Lauseen avulla testata mallin käyttökelpoisuutta asettamalla hypoteesi<br />

H0 : τ1 = ···= τa<br />

(vastahypoteesi on H1 : ”kaikki τi:t eivät ole samoja”). Hypoteesin testaus sujuu kuten edellä.<br />

Mikäli H0 on tosi, malli voitaisiin yhtä hyvin korvata vakiolla + kohinalla!<br />

Selitysaste R 2 , yhteiskorrelaatiokerroin R sekä korjattu determinaatiokerroin määritellään<br />

kuten aikaisemmin.<br />

Huomautus. Asiaa voitaisiin muutenkin käsitellä samaan tapaan kuin aikaisemmin tehtiin<br />

regressiomallille. Käsittelyt koodataan käyttäen faktoreita, joilla on kaksi tasoa, 0 ja 1, ns. dikotomiafaktoreita.<br />

(Muitakin koodaustapoja käytetään.) Esimerkiksi, jos a =3, tarvitaan kolme<br />

dikotomiafaktoria ja käsittelyt koodataan yhdelmiksi (1, 0, 0), (0, 1, 0) ja (0, 0, 1). Datamatriisi<br />

(koetoistoineen) on T ja vastaava vastevektori on y. Tämä datamatriisi ei ole muodoltaan aivan<br />

samanlainen kuin Luvussa 1, mutta sitä voidaan käsitellä samaan tapaan. (Ks. esimerkiksi<br />

SEARLE.)


LUKU 3. KVALITATIIVISET FAKTORIT 43<br />

Kokeen sanotaan olevan tasapainoinen, jos n1 = ··· = na = n (ja N = na), muuten<br />

epätasapainoinen. Yleensä pyritään tasapainoisiin kokeisiin.<br />

Ajetaan alla olevan tasapainoisen kokeen data Systatilla. Huomaa, miten käsittelyt pitää<br />

Systatia varten kategorisoida, ts. ilmoittaa ne kokonaislukuina 1,...,a. Tässä a =5, n =5ja<br />

N =25.Vasteen arvot on saatu kahden numeron tarkkuudella ja nekin on ilmoitettu kokonaislukuina.<br />

x 11 1 1 1 2 2 2 2 2 3 3 3 3 3 4 4 4 4 4 5 5 5 5 5<br />

y 7715119121712181814181819191925221923710111511<br />

Käskyt<br />

>USE ’kuitu.sys’<br />

VARIABLES IN SYSTAT FILE ARE:<br />

X Y<br />

>category x=5<br />

>model y=constant+x<br />

>estimate<br />

antavat tulostuksen<br />

DEP VAR: Y N: 25 MULTIPLE R: .864 SQUARED MULTIPLE R: .747<br />

ANALYSIS OF VARIANCE<br />

SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />

X 475.760 4 118.940 14.757 0.000<br />

ERROR 161.200 20 8.060<br />

Komento print long antaa lisää tulostusta:<br />

DEP VAR: Y N: 25 MULTIPLE R: .864 SQUARED MULTIPLE R: .747<br />

-1<br />

ESTIMATES OF EFFECTS B = (X’X) X’Y)<br />

CONSTANT 15.040<br />

X 1 -5.240<br />

Y<br />

X 2 0.360<br />

X 3 2.560<br />

X 4 6.560<br />

ANALYSIS OF VARIANCE<br />

SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />

X 475.760 4 118.940 14.757 0.000<br />

ERROR 161.200 20 8.060<br />

Huomautus. Jos ”unohdetaan” oletus, että ɛij:t ovat riippumattomia N(0,σ 2 )-jakautuneita<br />

satunnaismuuttujia, voidaan eo. F-testille antaa ns. satunnaistustulkinta. Sovitulle kiinteälle kokeiden<br />

suoritusjärjestykselle saatujen vasteiden yij järjestys on yksi N!:sta mahdollisesta järjestyksestä.<br />

Jollei käsittelyjen vaikutuksilla vasteeseen ole mitään eroja (H0), nämä järjestykset


LUKU 3. KVALITATIIVISET FAKTORIT 44<br />

ovat yhtä todennäköisiä. Toisaalta neliösummia ajatellen koetoistojen järjestyksellä käsittely-<br />

N!<br />

jen sisällä ei ole merkitystä. Neliösummia on näin ollen (enintään) kappaletta ja, ellei<br />

n1!···na!<br />

käsittelyillä ole vasteeseen vaikutusta (H0), nämä ovat yhtä todennäköisiä. Voidaan osoittaa,<br />

että H0:n vallitessa eo. testisuureella F on likimain F-jakauma vapausastein a − 1 ja N − a.<br />

Jos vastahypoteesi H1 on tosi, on järjestyksellä vaikutusta ja F saa suuren arvon. Jotta tällainen<br />

jakaumaoletuksiltaan miellyttävän varovainen tulkinta saataisiin käyttöön, on kokeiden<br />

fysikaalinen suoritusjärjestys huolellisesti satunnaistettava, jottei se pääse vaikuttamaan systemaattisesti<br />

vasteisiin. Ks. BOX &HUNTER &HUNTER.<br />

3.1.1 Parametrien estimointi<br />

Mallin<br />

y = Tτ + ɛ<br />

parametrien τ ja σ 2 estimaateiksi todettiin edellä y • ja MSE.Parametrien τ estimaatti saadaan<br />

myös käyttäen pienimmän neliösumman keinoa, samaan tapaan kuin tehtiin regressiomallin<br />

yhteydessä. Minimoitava neliösumma on<br />

Merkitään gradientti nollaksi:<br />

eli<br />

Estimaatti<br />

saadaan näin normaaliryhmästä<br />

y − Tτ 2 =(y − Tτ ) T (y − Tτ ).<br />

−2T T (y − Tτ )=0a<br />

⌈n⌋τ = T T y.<br />

t =<br />

⎛<br />

⎜<br />

⎝<br />

t1<br />

.<br />

ta<br />

⎞<br />

⎟<br />

⎠<br />

⌈n⌋t = y•.<br />

ja t = ⌈n⌋ −1 y• = y •.<br />

Edellä olevassa Systat-ajossa pitkä tulostus antaa myös parametriestimaatin, mutta käytetystä<br />

koodauksesta johtuen se ei olekaan t, vaan Mat (eli esimerkissä t − y ••1a, viimeinen<br />

komponentti ei tulostu, vakio on 1 T a t/a).<br />

Lasketaan vielä estimaatin t varianssimatriisi. Ensinnäkin<br />

t = ⌈n⌋ −1 y• = ⌈n⌋ −1 T T y = ⌈n⌋ −1 T T (Tτ + ɛ) =τ + ⌈n⌋ −1 T T ɛ.<br />

Kysytty varianssimatriisi on siis<br />

V (t) =σ 2 ⌈n⌋ −1 T T T⌈n⌋ −1 = σ 2 ⌈n⌋ −1 .<br />

Tasoestimaatit t1,...,ta ovat näin ollen riippumattomat.<br />

Parametrien estimointia tärkeämpää on kuitenkin niitä koskevien hypoteesien testaus.


LUKU 3. KVALITATIIVISET FAKTORIT 45<br />

3.1.2 Hypoteesien testaus. Kontrastit<br />

Kuten edellä, voidaan ANOVAa käyttäen testata myös yleisiä lineaarisia hypoteeseja<br />

H0 : Cτ = d.<br />

Matriisi C on q × a-matriisi, jonka rivirangi on täysi, ts. sen rivit ovat lineaarisesti riippumattomat.<br />

Vastahypoteesi on H1 : Cτ = d.Hypoteesin testauksen perustulos on<br />

Lause 3.2. Jos H0 on tosi, niin suureella<br />

(Ct − d) T (C⌈n⌋ −1 C T ) −1 (Ct − d)(N − a)<br />

qSSE<br />

on F-jakauma vapausastein q ja N − a (olettaen jälleen, että N>a).<br />

Todistus. (Jälleen tarvitaan kurssin Laaja tilastomatematiikka tietoja.) Matriisi C⌈n⌋ −1 C T on<br />

ilmeisesti ei-singuläärinen. Koska<br />

MresT⌈n⌋ −1 = O,<br />

niin r ja t ovat riippumattomia. Näin ollen myös SSE = r T r ja (Ct−d) T (C⌈n⌋ −1 C T ) −1 (Ct−<br />

d) ovat riippumattomat.<br />

Kuten Lauseen 3.1 todistuksessa todettiin, 1<br />

σ 2 SSE on χ 2 -jakautunut N − a vapausasteella.<br />

Samalla tavalla kuin Lauseen 1.1 todistuksessa näytetään nyt, että (Ct − d) T (C⌈n⌋ −1 C T ) −1<br />

(Ct − d) on χ 2 -jakautunut q vapausasteella.<br />

Hypoteesin H0 testaaminen sujuu lauseen avulla tavalliseen tapaan. Jos q = 1,voidaan Ftesti<br />

korvata t-testillä, joka voi olla toispuolinenkin. Hypoteesi on tällöin muotoa c T τ = d ja<br />

t-testisuure (N − a vapausasteella) on<br />

c T t − d<br />

c T ⌈n⌋ −1 c √ MSE .<br />

Jos C1a = 0a, sanotaan matriisia C kontrastimatriisiksi ja vastaavaa testisuuretta Ct − d<br />

kontrastiksi. Jos siis q =1ja kyseessä on kontrasti, on H0 muotoa cT τ = d, missä cT 1a =0,<br />

ja kontrasti on cT t − d. Huomaa, että mallin käyttökelpoisuutta testaava hypoteesi H0 : τ1 =<br />

···= τa on ilmaistavissa esimerkiksi kontrastia C0t käyttäen, missä<br />

⎛<br />

⎞<br />

1 −1 0 ··· 0 0<br />

⎜ 0 1 −1 ··· 0 0 ⎟<br />

C0 = ⎜<br />

⎝<br />

...<br />

⎟<br />

. . . . . ⎠<br />

0 0 0 ··· 1 −1<br />

.<br />

Samoin kontrastilla voidaan esittää hypoteesi H0 : τi = 1 T a τ /a, joka ilmoittaa τi:n vaikutuksen<br />

olevan keskitasoinen 2 . (Tämä testi voidaan tehdä yo. t-testisuureella myös toispuoleisena.)<br />

Kontrasteja käyttävässä testauksessa on yleensä d = 0q. Tällöin Lauseen 3.2 lausekkeen<br />

osoittajassa oleva neliösumma on<br />

t T C T (C⌈n⌋ −1 C T ) −1 Ct =merk. SSC,<br />

2 T Tämä ei ole sama kuin keskivaste n τ /N (”grand mean”), ellei n1 = ···= na. Hypoteesi H0 : τi = nT τ /N<br />

voidaan muuten myös esittää kontrastilla.


LUKU 3. KVALITATIIVISET FAKTORIT 46<br />

ns. kontrastin neliösumma. Yhden kontrastin c T t = c1t1 + ···+ cata tapauksessa se on<br />

SSC = (cT t) 2<br />

cT ⌈n⌋−1c = (c1t1 + ···+ cata) 2<br />

1<br />

n1 c21 + ···+ 1<br />

na c2 .<br />

a<br />

Kahden kontrastin Ct − d ja C ′ t − d ′ sanotaan olevan ortogonaaliset, jos C⌈n⌋ −1 (C ′ ) T = O.<br />

Toisaalta, jos C⌈n⌋ −1 (C ′ ) T = O, niin Ct − d ja C ′ t − d ′ ovat riippumattomat (ja samoin ovat<br />

vastaavat kontrastien neliösummat). Testien sanotaan tällöin olevan riippumattomat.<br />

Jos Ct ja C ′ t ovat kaksi ortogonaalista kontrastia ja SSC sekä SSC ′ ovat vastaavat neliö-<br />

summat, niin<br />

C<br />

C ′<br />

t T C T (C ′ ) T C<br />

C ′<br />

<br />

t on myös kontrasti ja sen neliösumma on<br />

<br />

⌈n⌋ −1 CT (C ′ ) T −1 <br />

C<br />

C ′<br />

= t T C T (C ′ ) T C⌈n⌋ −1 C T O<br />

O T C ′ ⌈n⌋ −1 (C ′ ) T<br />

<br />

t<br />

−1 C<br />

C ′<br />

<br />

t = SSC + SSC ′ .<br />

Vastaavat tulokset pätevät useammallekin kuin kahdelle keskenään ortogonaaliselle kontrastille.<br />

Yleisesti ottaen eri hypoteesien testit ovat kuitenkin riippuvia ja merkitsevyystasojen<br />

määräämisessä kannattaa varmuuden vuoksi käyttää esimerkiksi Bonferronin sääntöä.<br />

Testataan Systatilla edellä olevan datan avulla asetettu hypoteesi. Käskyt<br />

>hypothesis<br />

>effect x<br />

>contrast<br />

>0 1 -1 0 0<br />

>test<br />

antavat tulostuksen<br />

TEST FOR EFFECT CALLED:<br />

A MATRIX<br />

TEST OF HYPOTHESIS<br />

X<br />

1 2 3 4 5<br />

0.000 0.000 1.000 -1.000 0.000<br />

SOURCE SS DF MS F P<br />

HYPOTHESIS 12.100 1 12.100 1.501 0.235<br />

ERROR 161.200 20 8.060<br />

joka testaa hypoteesin H0 : τ2 = τ3 (H0:aa ei ilmeisestikään kannata hylätä). (A-matriisi ei<br />

tässä itse asiassa ole C, vaan Systatin koodauksen kautta muodostettava kerroinmatriisi, joka<br />

vastaa regressiomallin lineaarisen hypoteesin kerroinmatriisia A eikä yleensä ole = C.)<br />

Huomautus. Hypoteesi H0 (tai käytettävä kontrasti) määräytyy luonnollisesti käytännössä kiinnostavista<br />

vertailuista. Se on aina valittava ennen kokeiden suoritusta, ts. koetulosten tai estimoitujen<br />

tasojen ei saisi antaa vaikuttaa hypoteesiin. Tasoestimaatteja katselemalla kun löytyy<br />

kutakuinkin aina joitakin ”toteutuvia ja kiinnostavia” hypoteesejä, paitsi aritmeettisista, myös<br />

tilastollisista syistä.


LUKU 3. KVALITATIIVISET FAKTORIT 47<br />

3.1.3 Yhdistettyjä testejä<br />

Edellä esitetty yleisen lineaarisen hypoteesin testaus sallii monen yksittäisen muotoa H0 :<br />

c T τ = d olevan hypoteesin testaamisen yhdessä. Tällaisia yhdistettyjä testejä on paljon muitakin.<br />

S-testi eli Scheffén menetelmä<br />

S-testi testaa tietyssä mielessä yhtaikaa kaikkia muotoa H0 : c T τ = d olevia hypoteesejä.<br />

Merkitään tällaiseen testiin liittyen<br />

ccontr = c T ⌈n⌋ −1 c<br />

(ns. c:n kontrastinormi).<br />

S-testin toimivuuden todistamiseksi tarvitaan (a − 1) × a-kontrastimatriisi C, joka on ortogonaalinen<br />

3 ,ts. sen rivit ovat keskenään ortogonaaliset ja kontrastinormeiltaan =1eli<br />

C⌈n⌋ −1 C T = Ia−1.<br />

Huomaa, ettei kontrastimatriisissa voi olla enempää kuin a − 1 riviä, koska näiden on oltava<br />

kohtisuorassa vektoria 1a vastaan. Ilmeisesti jokainen g T Ct, missä g = 0a−1, onkontrasti<br />

(sillä g T C1a =0). Toisaalta 1a C T on ei-singuläärinen matriisi, joten yhtälöryhmällä<br />

on ratkaisu ja edelleen<br />

1a C T h<br />

g<br />

<br />

= c eli h1a + C T g = c<br />

0=1 T a c = ah + 1 T a C T g = ah<br />

Siis jokainen kontrasti c T t on lausuttavissa muodossa g T Ct ja<br />

c 2 contr = C T g 2 contr = g T C⌈n⌋ −1 C T g = g T g.<br />

Merkitään Fα,a−1,N−a:lla sellaista lukua, että vapausastein a − 1 ja N − a F-jakautuneelle satunnaismuuttujalle<br />

F tapauksen F>Fα,a−1,N−a todennäköisyys on α.<br />

3 Tällainen kontrastimatriisi saadaan esimerkiksi seuraavasti. Otetaan jokin ei-singuläärinen a × a-matriisi<br />

A, jonka ensimmäinen sarake on n, korvataan esimerkiksi Ia:n ensimmäinen sarake n:llä. Etsitään matriisin<br />

⌈n⌋ −1/2 A QR-hajotelma (⌈n⌋ −1/2 on lävistäjämatriisi, jonka lävistäjällä ovat n:n alkioiden inverssien neliöjuuret):<br />

⌈n⌋ −1/2 A = QR.<br />

Silloin AR −1 = ⌈n⌋ 1/2 Q ja<br />

(AR −1 ) T ⌈n⌋ −1 AR −1 = Q T ⌈n⌋ 1/2 ⌈n⌋ −1 ⌈n⌋ 1/2 Q = Q T Q = Ia.<br />

Koska R on yläkolmiomatriisi, AR −1 :n ensimmäinen sarake on muotoa cn, missä c on vakio. Kirjoitetaan<br />

(AR −1 ) T <br />

T cn<br />

= .<br />

C<br />

Silloin<br />

Ia =<br />

cn T<br />

Siispä näin saatu C on haluttua tyyppiä (ja c = ±1/ √ N).<br />

C<br />

<br />

⌈n⌋ −1 cn CT <br />

2 T c N c1a C<br />

=<br />

T<br />

cC1a C⌈n⌋−1CT <br />

.


LUKU 3. KVALITATIIVISET FAKTORIT 48<br />

Lause 3.3 (Scheffén lause). Tapauksen<br />

”Kaikille kontrasteille c T t pätee<br />

todennäköisyys on 1 − α.<br />

Todistus. Cauchy-Schwarzin epäyhtälön nojalla<br />

(c T (t − τ )) 2<br />

(a − 1)c 2 contrMSE<br />

≤ Fα,a−1,N−a.”<br />

(c T (t − τ )) 2 =(g T C(t − τ )) 2 ≤ (g T g)((t − τ ) T C T C(t − τ ))<br />

ja yhtäläisyys on voimassa, kun g ja C(t − τ ) ovat yhdensuuntaiset. Lauseessa mainittu tapaus<br />

on näin ollen sama kuin tapaus<br />

(t − τ ) T C T C(t − τ )<br />

(a − 1)MSE<br />

≤ Fα,a−1,N−a<br />

eli tapaus<br />

(Ct − Cτ ) T (C⌈n⌋C) −1 (Ct − Cτ )(N − a)<br />

≤ Fα,a−1,N−a,<br />

(a − 1)SSE<br />

jonka todennäköisyys Lauseen 3.2 (ja sen todistuksen) nojalla on 1 − α. Huomaa, että puhuttaessa<br />

kaikista kontrasteista mukana on aina myös kontrasti (C(t − τ )) T Ct, jolle yo. epäyhtälö<br />

toteutuu yhtälönä! Tämä kontrastimatriisi on tosin satunnainen ja vaihtuu kokeesta toiseen,<br />

mutta kyseessä on kontrasti.<br />

Jos nyt asetetaan hypoteesi H0 : c T τ = d ja havaitaan, että<br />

(c T t − d) 2<br />

(a − 1)c 2 contrMSE >Fα,a−1,N−a,<br />

on H0 hylättävä merkitsevyystasolla α. Koska Scheffén lauseessa mainittu tapaus käsittelee<br />

kaikkia mahdollisia kontrasteja, voi S-testillä testattavan kontrastin huoleti valita vaikkapa<br />

kokeen jälkeen. (Lauseen todistuksessakin tarvittiin ”vasta kokeessa realisoituvaa” kontrastia<br />

(C(t−τ )) T Ct.) Vastapainoksi S-testi on heikompi kuin varta vasten hypoteesille H0 : c T τ = d<br />

suoritettu testi, ts. S-testi ei hylkää H0:aa aina silloin, kun hypoteesin ”oma” testi sen tekee<br />

(poikkeuksena tapaus a =2).<br />

LSD-menetelmä4 LSD-menetelmä testaa läpi kaikki a<br />

hypoteesia<br />

2<br />

H (ij)<br />

0 : τi = τj (i =1,...,a; j = i +1,...,a).<br />

Tarkoituksena on löytää merkittävästi ”erilaisia” käsittelyjä. Menetelmää on syytä soveltaa vasta,<br />

kun malli on todettu käyttökelpoiseksi. Koska LSD-menetelmässä testataan suuri määrä yksittäisiä<br />

hypoteeseja, kasvaa riski, että joitakin niistä hylätään syyttä, varsin suureksi. LSD-menetelmän<br />

todellinen merkitsevyys on näin ollen pulmallinen. Toisaalta on myös mahdollista,<br />

ettei LSD-menetelmä löydä käsittelyjen välille mitään eroja, vaikka ANOVA toteaakin mallin<br />

käyttökelpoiseksi. Kaiken kaikkiaan LSD-menetelmän tulosta (erilaisiksi todettuja käsittelyjä)<br />

on pidettävä vain suuntaa antavana. Varsinainen käsittelyjen eroavaisuuden testaus edellyttää<br />

lisäkokeiden suorittamista.<br />

LSD-menetelmän tapaisia käsittelyjä keskenään vertaavia testejä tunnetaan useita, mm.<br />

4 ”LSD”=”least significant difference”


LUKU 3. KVALITATIIVISET FAKTORIT 49<br />

• Duncanin vaihteluvälitesti<br />

• Newman–Keuls-testi<br />

• Tukeyn testi<br />

ja monia muita. Yleistestiksi suositellaan usein Duncanin vaihteluvälitestiä. Ks. MONTGOME-<br />

RY.<br />

Mainittakoon myös testit, joissa verrataan käsittelyjä tiettyyn kiinteään käsittelyyn, ns. kontrollikäsittelyyn.<br />

Paitsi LSD-menetelmän tapaista testausta, löytyy tehokkaampiakin menetelmiä,<br />

mm. ns. Dunnettin testi, ks. MONTGOMERY.<br />

Systatista löytyvät ym. Duncanin vaihteluvälitesti, Newman–Keuls-testi sekä Tukeyn testi.<br />

Eo. datan testaus näillä testeillä sujuu seuraavasti (yleensä tietysti yksikin testaustapa riittää).<br />

Käskyillä<br />

>USE ’kuitu.sys’<br />

VARIABLES IN SYSTAT FILE ARE:<br />

X Y<br />

>by x<br />

>statistics y/duncan=0.05<br />

>statistics y/nk=0.01<br />

>statistics y/tukey=0.05<br />

saa ensin yleisstatistiikkaa ja sitten testituloksen<br />

THE FOLLOWING RESULTS ARE FOR:<br />

X = 1.000<br />

TOTAL OBSERVATIONS: 5<br />

N OF CASES 5<br />

MEAN 9.800<br />

STANDARD DEV 3.347<br />

THE FOLLOWING RESULTS ARE FOR:<br />

X = 2.000<br />

TOTAL OBSERVATIONS: 5<br />

Y<br />

N OF CASES 5<br />

MEAN 15.400<br />

STANDARD DEV 3.130<br />

THE FOLLOWING RESULTS ARE FOR:<br />

X = 3.000<br />

TOTAL OBSERVATIONS: 5<br />

N OF CASES 5<br />

MEAN 17.600<br />

STANDARD DEV 2.074<br />

THE FOLLOWING RESULTS ARE FOR:<br />

X = 4.000<br />

TOTAL OBSERVATIONS: 5<br />

N OF CASES 5<br />

MEAN 21.600<br />

STANDARD DEV 2.608<br />

Y<br />

Y<br />

Y


LUKU 3. KVALITATIIVISET FAKTORIT 50<br />

THE FOLLOWING RESULTS ARE FOR:<br />

X = 5.000<br />

TOTAL OBSERVATIONS: 5<br />

N OF CASES 5<br />

MEAN 10.800<br />

STANDARD DEV 2.864<br />

Y<br />

___________________________________________________________________________<br />

SUMMARY STATISTICS FOR Y<br />

BARTLETT TEST FOR HOMOGENEITY OF GROUP VARIANCES = 1.026<br />

APPROXIMATE F = .232 DF = 4, 600 PROBABILITY = .920<br />

ANALYSIS OF VARIANCE<br />

SOURCE SUM OF SQUARES DF MEAN SQUARE F PROBABILITY<br />

BETWEEN GROUPS 475.760 4 118.940 14.757 0.000<br />

WITHIN GROUPS 161.200 20 8.060<br />

DUNCAN MULTIPLE RANGE TESTS<br />

ORDERED MEANS DIFFER AT ALPHA = .050 IF THEY EXCEED FOLLOWING GAPS<br />

GAP ORDER DIFFERENCE<br />

1 3.748<br />

2 3.932<br />

3 4.050<br />

4 4.133<br />

THIS TEST ASSUMES THE COUNTS PER GROUP ARE EQUAL<br />

___________________________________________________________________________<br />

NEWMAN-KEULS MULTIPLE COMPARISONS<br />

ORDERED MEANS DIFFER AT ALPHA = .010 IF THEY EXCEED FOLLOWING GAPS<br />

GAP ORDER DIFFERENCE<br />

1 5.122<br />

2 5.901<br />

3 6.381<br />

4 6.733<br />

THIS TEST ASSUMES THE COUNTS PER GROUP ARE EQUAL<br />

___________________________________________________________________________<br />

TUKEY HSD TEST AT ALPHA = .050<br />

CRITICAL RANGE FOR PAIRS OF MEANS = 5.374<br />

THIS TEST ASSUMES THE COUNTS PER GROUP ARE EQUAL<br />

Duncanin vaihteluvälitestissä sekä Newman–Keuls-testissä asetetaan t:n komponentit suuruusjärjestykseen<br />

ja kahden käsittelyn ”GAP ORDER” eli järjestyserotus on näiden käsittelyjen järjestyslukujen<br />

erotus (järjestyserotus 1 siis vastaa suuruusjärjestyksessä peräkkäisiä käsittelyjä,<br />

jne.). Käsittelyt katsotaan erilaisiksi annetulla merkitsevyystasolla α, jos vastaavien t:n komponenttien<br />

arvojen erotus on vähintään käsittelyjen järjestyserotuksen kohdalta löytyvä luku.<br />

Tukeyn testissä taas kriittinen väli eli ”CRITICAL RANGE FOR PAIRS OF MEANS” on<br />

pienin ero kahden t:n komponentin välillä, jonka annetulla merkitsevyystasolla katsotaan ilmaisevan<br />

vastaavien käsittelyjen olevan vaikutukseltaan erilaisia.


LUKU 3. KVALITATIIVISET FAKTORIT 51<br />

3.1.4 Mallin riittävyys<br />

Mallia asetettaessa on tehty useita käytännön tilannetta ajatellen yksinkertaistavia oletuksia.<br />

Koska ANOVA saattaa olla hyvinkin herkkä poikkeamille näistä oletuksista, testataan usein oletusten<br />

voimassaoloa. Testauksessa käytetään residuaalia r. Jos malli on riittävä, ei residuaalissa<br />

ole juurikaan muuta virhettä kuin N(0N,σ2IN)-jakautuneen satunnaismuuttujan ɛ aiheuttamaa<br />

“kohinaa”. Ellei näin ole, on mahdollisia syitä useita.<br />

Epänormaalisuus<br />

Jos ɛ:n jakauma ei olekaan multinormaali, vaan jotakin muuta, ei ANOVAn tuloksiin ole paljoakaan<br />

luottamista. Epänormaalisuuden toteamiseksi voidaan r:n komponenttien olettaa olevan<br />

otos ja tutkia voiko tämän otoksen katsoa olevan peräisin N(0,σ2 )-jakautuneesta satunnaismuuttujasta,<br />

esimerkiksi piirtämällä vastaava pylväsdiagrammi. Parempi menettely on järjestää<br />

r:n komponentit suuruusjärjestykseen<br />

r(1) ≤ r(2) ≤···≤r(N)<br />

ja piirtää pisteet <br />

r(j), Φ −1<br />

<br />

j<br />

(j =1,...,N),<br />

N +1<br />

ns. normaalitodennäköisyyskuvio. (Φ−1 on käänteinen standardinormaalikertymä.) Pisteet<br />

<br />

j<br />

r(j), (j =1,...,N)<br />

N +1<br />

nimittäin muodostavat otoskertymän, jonka pitäisi olla normaalikertymän näköinen. Näin pisteiden<br />

r(j), Φ−1 ( j<br />

N+1 ) (j =1,...,N) pitäisi olla kutakuinkin samalla suoralla. Usein käytetään<br />

jotain korjattua otoskertymää, esimerkiksi<br />

<br />

1 j − 3<br />

r(j),<br />

N + 1<br />

<br />

(j =1,...,N),<br />

3<br />

ns. Tukeyn tasoitus (joka on Systatin oletustasoitus).<br />

Ajetaan edellä esimerkkinä käsitelty data Systatilla tallettaen residuaalit (sekä ennusteet).<br />

Käskyt ovat<br />

>USE ’kuitu.sys’<br />

VARIABLES IN SYSTAT FILE ARE:<br />

X Y<br />

>category x=5<br />

>model y=constant+x<br />

>save ressu<br />

>estimate<br />

ja saatu tulostus on<br />

DEP VAR: Y N: 25 MULTIPLE R: .864 SQUARED MULTIPLE R: .747<br />

ANALYSIS OF VARIANCE<br />

SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />

X 475.760 4 118.940 14.757 0.000<br />

ERROR 161.200 20 8.060<br />

DURBIN-WATSON D STATISTIC 2.402<br />

FIRST ORDER AUTOCORRELATION -.226<br />

RESIDUALS HAVE BEEN SAVED


LUKU 3. KVALITATIIVISET FAKTORIT 52<br />

Piirretään normaalitodennäköisyyskuvio. Kuva<br />

saadaan käskyillä<br />

E<br />

X<br />

P<br />

E<br />

C<br />

T<br />

E<br />

D<br />

V<br />

A<br />

L<br />

U<br />

E<br />

3<br />

2<br />

1<br />

0<br />

-1<br />

-2<br />

-3<br />

-5 0 5 10<br />

RESIDUAL<br />

>USE ’ressu.sys’<br />

VARIABLES IN SYSTAT FILE ARE:<br />

ESTIMATE RESIDUAL LEVERAGE COOK STUDENT<br />

SEPRED<br />

>pplot residual<br />

Tiettyä huolta jakauman normaalisuudesta voisi sen perusteella tuntea.<br />

Jakaumatestausta varten on olemassa omia tilastollisiakin testejä, mm. Kolmogorov–Smirnov-testi<br />

ja Cramer–von Mises-testi.<br />

Toisinaan sattuu, että yksi tai useampikin r:n komponenteista on itseisarvoltaan muita huomattavasti<br />

suurempi. Tällaisia komponentteja kutsutaan ulkolaisiksi. Ne ovat merkkejä joko<br />

siitä, että vastaava koe on virheellinen tai sitten siitä, että muut kokeet onkin tehty tilanteen<br />

kannalta huonolla alueella. Ulkolaisten esiintyessä on aina selvitettävä mistä ne johtuvat, sillä<br />

ANOVA on osoittautunut herkäksi ulkolaisten esiintymiselle. Useinkaan ei ole selvää, onko<br />

poikkeava komponentti ulkolainen vai sattuman oikusta syntynyt poikkeava arvo. Ulkolaisten<br />

tunnistamiseksi on erityisiä testejäkin. Yksinkertaisin tällainen testi on laskea<br />

1<br />

√ MSE r =merk. rout.<br />

rout:n komponentit voidaan tulkita otokseksi standardinormaalista satunnaismuuttujasta. Jos<br />

komponentti on itseisarvoltaan ≥ 3,kyseessä on melko varmasti ulkolainen.<br />

Korrelointi<br />

Vaikka ɛ:n komponentit olisivatkin normaalijakautuneita, voi niiden välillä olla korrelaatiota, ts.<br />

ne eivät ole riippumattomia. Asia paljastuu usein piirrettäessä r:n komponentit kokeiden fysikaalisen<br />

suoritusjärjestyksen funktiona (joka järjestys siis on syytä tätä varten tallettaa ja jonka<br />

pitäisi olla huolellisesti satunnaistettu). Korrelointi näkyy tällaisesta kuvaajasta usein selvästi


LUKU 3. KVALITATIIVISET FAKTORIT 53<br />

alla olevan kuvion tapaan, sillä se johtuu tällöin ajallisesta yhteydestä.<br />

Residuaali ei saa korreloida muidenkaan muuttujien kanssa eikä erityisesti vasteen kanssa.<br />

Piirtämällä residuaali vs. ennustettu vaste paljastuu usein mallin tämänkaltainen riittämättömyys.<br />

Eo. kuvio olisi nytkin hälyttävä.<br />

Jotta päästäisiin piirtämään eo. datasta Systatilla nämä kuvat, pitää tiedostoon ressu.sys<br />

editoida sarakkeeksi kokeiden suoritusjärjestys<br />

15, 19, 25, 12, 6, 8, 14, 1, 11, 3, 18, 13, 20, 7, 9, 22, 5, 2, 24, 10, 17, 21, 4, 16, 23.<br />

Käskyillä plot residual*jarjesty ja plot residual*estimate saadaan<br />

seuraavalla sivulla olevat kuvat. Mitään sen kummempaa merkkiä korrelaatiosta näistä kuvista<br />

ei paljastu.<br />

Heterogeeninen varianssi<br />

Vaikkei epänormaalisuutta tai korrelaatiota esiinnykään, voi malli osoittautua riittämättömäksi<br />

vielä sen vuoksi, että ɛ:n komponenttien varianssit eivät ole samat. Usein tämä näkyy piirrettäessä<br />

r:n komponentit suoritusjärjestyksen funktiona kuten edellä: hajonta on jossakin suurempaa<br />

kuin muualla. Seuraavalla sivulla on neljä hälyttävää kuviota (ylimpänä olevassa kuvassa ei<br />

tällaista varianssien erisuuruutta ole havaittavissa).<br />

Jos varianssin heterogeenisyyttä aiheuttava tekijä liittyy käsittelyihin, on mallissa itse asiassa<br />

ɛij:llä N(0,σ 2 i )-jakauma, ts. joka käsittelyyn liittyy oma virhevarianssinsa. Tämän selvittämiseksi<br />

on mm. ns. Bartlettin testi. Testin hypoteesi on<br />

H0 : σ 2 1 = ···= σ 2 a.<br />

(Vastahypoteesi on se ilmeinen.) Jos H0 on tosi, voidaan osoittaa5 , että testisuureella<br />

χ 2 0 =2.3026 q<br />

c ,<br />

missä<br />

ja<br />

e q =<br />

MSE N−a<br />

s 2(n1−1)<br />

1 ···s 2(na−1)<br />

a<br />

c =1+<br />

, s 2 i = 1<br />

<br />

a<br />

1<br />

3(a − 1)<br />

i=1<br />

ni − 1 yT i Mni yi (i =1,...,a)<br />

1<br />

ni − 1<br />

<br />

1<br />

− ,<br />

N − a<br />

5Alkuperäisviite on BARTLETT, M.S.: Properties of Sufficiency and Statistical Tests. Proceedings of the Royal<br />

Society A.160 (1937), 268–282.


LUKU 3. KVALITATIIVISET FAKTORIT 54<br />

R<br />

E<br />

S<br />

I<br />

D<br />

U<br />

A<br />

L<br />

R<br />

E<br />

S<br />

I<br />

D<br />

U<br />

A<br />

L<br />

10<br />

5<br />

0<br />

-5<br />

0 10 20 30<br />

10<br />

5<br />

0<br />

<strong>JA</strong>RJESTY<br />

-5<br />

0 10 20 30<br />

ESTIMATE


LUKU 3. KVALITATIIVISET FAKTORIT 55<br />

on suurilla a:n arvoilla likimain χ 2 -jakauma a − 1 vapausasteella. H0 hylätään merkitsevyystasolla<br />

α, jos testisuure osuu alla olevan kuvion varjostetulle alueelle, jonka pinta-ala on α.<br />

χ 2 -jakauman tiheysfunktio<br />

χ 2 (α)<br />

Systat tekee Bartlettin testin (ks. sivulla 50 oleva tulostus, jossa mitään syytä H0:n hylkäämiseen<br />

ei näy), mutta käyttäen hieman toista testisuuretta 6 .Tulos on kutakuinkin sama kuin<br />

χ 2 -jakauman avulla saatu.<br />

3.2 Monisuuntainen ANOVA<br />

Ottamalla malliin mukaan useampia selittäviä tekijöitä saadaan monisuuntainen ANOVA. Mukaan<br />

voidaan ottaa myös yhdysvaikutustermejä, jotka vastaavat korkean kertaluvun regressiomallin<br />

sekatuloja. Yleistä tällaista mallia ei tässä tarkastella, vaan rajoitutaan katsauksenomaisesti<br />

pariin esimerkkiin. Edellä olevan kaltainen matriisimuotoinen tarkastelu 7 voidaan tehdä<br />

näillekin malleille, mutta se ei ole nyt läheskään yhtä kätevä kuin yksisuuntaiselle ANOVAlle<br />

eikä toteutettavissa yhtä kivuttomasti Matlabilla. Näin ollen esitetäänkin tulokset usein osittain<br />

vain perinteisellä summa/komponentti-notaatiolla.<br />

3.2.1 Satunnaistetut lohkot<br />

Kokeita ei useinkaan pystytä suorittamaan täysin samanlaisina, vaan häiriötermistä mukaan tulevan<br />

satunnaisvaihtelun lisäksi esiintyy koetilanteiden systemaattisesta erilaisuudesta johtuvaa<br />

vaihtelua. Mikäli tällainen systemaattinen erilaisuus voidaan tunnistaa, saadaan siitä aiheutuva<br />

vaihtelu poistetuksi. Tätä varten koetilanteet jaetaan mahdollisimman samankaltaisiin ryhmiin,<br />

ns. lohkoihin joissa on kussakin a koetta (ts. kukin käsittely esiintyy kerran kussakin lohkossa).<br />

Lohkojen lukumäärä n määrää koetoistojen luvun. Kokeiden suoritusjärjestys lohkojen sisällä<br />

satunnaistetaan huolellisesti! Malli on nyt<br />

yij = τi + βj + ɛij,<br />

missä τi:t ja ɛij:t ovat kuten yksisuuntaisessa tapauksessa ja termien βj on tarkoitus kuvata<br />

lohkonvalinnan vaikutusta vasteeseen.<br />

Merkinnät y, yi, yi•,yi•, y••, y••, y•, y•, τ , ɛ, Mres, Mtr ja T ovat samat kuin edellä, uusina<br />

merkintöinä otetaan käyttöön<br />

⎛ ⎞<br />

β =<br />

⎜<br />

⎝<br />

6Kyseessä on ns. Boxin F-jakauma-approksimaatio, jota käytetään pienille a:n arvoille (a ≤ 10).<br />

7STUART, A.&ORD, J.K.: Kendall’s Advanced Theory of Statistics. Vol. 2. Edward Arnold (1991) sisältää<br />

tällaisen tarkastelun ja se on aika mutkikas.<br />

β1<br />

.<br />

βn<br />

⎟<br />


LUKU 3. KVALITATIIVISET FAKTORIT 56<br />

sekä<br />

Merkitään edelleen<br />

y•j =<br />

a<br />

i=1<br />

yij ja y •j = 1<br />

a y•j.<br />

B =<br />

(N × n-matriisi). Seuraavat kaavat ovat helposti todettavissa laskien:<br />

(i) T T T = nIa<br />

(ii) IN − 1<br />

n TTT = Mres<br />

(iii) T T B = 1a1 T n<br />

⎛<br />

⎜<br />

⎝<br />

In<br />

.<br />

In<br />

(iv) B T B = aIn<br />

(v) B1n = 1N<br />

⎞<br />

⎟<br />

⎠<br />

(vi) B T 1N = a1n<br />

Malli on matriisimuodossa<br />

y = Tτ + Bβ + ɛ.<br />

Myös SST ja SSTR ovat samat kuin edellä, samoin MST ja MSTR. (Huomaa, että nyt<br />

n1 = ···= na = n, N = an ja n = n1a.)<br />

Mallin parametrien t ja b estimoimiseksi käytetään pienimmän neliösumman menetelmää.<br />

Minimoitava neliösumma on<br />

y − Tτ − Bβ 2 =(y − Tτ − Bβ) T (y − Tτ − Bβ).<br />

Merkitsemällä gradientti nollaksi saadaan normaaliryhmä<br />

<br />

−2T T (y − Tτ − Bβ) =0a<br />

−2B T (y − Tτ − Bβ) =0n<br />

eli <br />

TT Tτ + TT Bβ = nτ + 1a1T nβ = y•<br />

BT Tτ + BT Bβ = 1n1T a τ + aβ = BT y.<br />

Ryhmän matriisin <br />

nIa 1a1T 1n1<br />

n<br />

T a aIn<br />

<br />

rangi on a + n − 1, sillä se saadaan sarakeoperaatioin muotoon<br />

<br />

nMa 1a1T O<br />

n<br />

aIn<br />

<br />

(lasketaan yhteen oikeanpuoleisen lohkosarakkeen sarakkeet kerrottuna −1/a:llä ja lisätään<br />

näin saatu vektori kuhunkin vasemmanpuoleisen lohkosarakkeen sarakkeista) ja<br />

rank(Ma) =trace(Ma) =a − 1.<br />

Normaaliryhmä on näin ollen alimäärätty ja yksikäsitteisen ratkaisun saamiseksi tarvitaan yksi<br />

lineaarisesti riippumaton lisäyhtälö 8 .Tavallisesti se on<br />

1 T nβ =0.<br />

8 Samanlainen lisäehto tarvitaan myös yksisuuntaisessa tapauksessa, jos malli kirjoitetaan muotoon yij = µ +<br />

τi + ɛij, kuten usein tehdään (itse asiassa Systatkin tekee näin). Myös tässä käsiteltävä malli kirjoitetaan usein<br />

muotoon yij = µ + τi + βj + ɛij, jolloin tarvitaankin kaksi lisäyhtälöä.


LUKU 3. KVALITATIIVISET FAKTORIT 57<br />

Itse asiassa ilman mitään lisäehtoja eivät mallissakaan τ ja β määräytyisi yksikäsitteisesti, sillä<br />

lohkovaikutuksista βj voidaan vähentää mielivaltainen luku, joka sitten lisätään käsittelyjen<br />

vaikutuksiin τi kokonaisvaikutuksen muuttumatta.<br />

Lisäyhtälön käyttöönoton jälkeen matriisi on<br />

<br />

nIa O<br />

1n1T <br />

a aIn<br />

ja saadaan estimaatit<br />

Vasteen ennuste on näin ollen<br />

Tt + Bb = Ty • + B<br />

=<br />

<br />

t = 1<br />

ny• = y• b = 1<br />

aBT y − 1<br />

N 1n1T a y• = 1<br />

aBT y − y••1n. <br />

1<br />

a BT <br />

y − y••1n 1<br />

n TTT + 1<br />

a BBT − 1<br />

N JN<br />

= 1<br />

n TTT y + 1<br />

a BBT y − 1<br />

N B1n1 T Ny<br />

<br />

y<br />

ja residuaali on<br />

<br />

r = IN − 1<br />

n TTT − 1<br />

a BBT + 1<br />

N JN<br />

<br />

y = Mres − 1<br />

a BBT + 1<br />

N JN<br />

<br />

y.<br />

Merkitään<br />

jolloin<br />

Mres2 =merk. Mres − 1<br />

a BBT + 1<br />

N JN ja Mbl =merk.<br />

MN = Mtr + Mres = Mtr + Mbl + Mres2.<br />

1<br />

a BBT − 1<br />

N JN,<br />

Vastaavat neliösummat ovat (aikaisemman SST:n ja SSTR:n lisäksi) lohkojen neliösumma<br />

sekä residuaalin neliösumma<br />

SSE = r T r = y T Mres2y =<br />

SSB = y T Mbly = a<br />

a<br />

i=1<br />

n<br />

y 2 •j − Ny 2 ••<br />

j=1<br />

n<br />

y 2 ij − n<br />

j=1<br />

a<br />

y 2 i• − a<br />

i=1<br />

n<br />

j=1<br />

y 2 •j + Ny 2 ••.<br />

Matriisit Mres2 sekä Mbl ovat symmetrisiä idempotentteja matriiseja, kuten suoralla laskulla voi<br />

todeta. Lohkojen erilaisuudesta johtuva vaihtelu on nyt saatu eristetyksi omaan neliösummaansa<br />

SSB = a<br />

n<br />

y 2 •j − Ny 2 •• = a<br />

j=1<br />

n<br />

(y•j − y••) 2 ,<br />

j=1<br />

joten sen vaikutus voidaan testattaessa poistaa.<br />

Vapausasteet ja keskineliöt saadaan seuraavasta taulusta:


LUKU 3. KVALITATIIVISET FAKTORIT 58<br />

SSX vapausasteet MSX<br />

SST N − 1 MST =<br />

SSTR a − 1<br />

SSB n − 1<br />

SSE (a − 1)(n − 1)<br />

SST<br />

N − 1<br />

(kokonaiskeskineliö)<br />

MSTR = SSTR<br />

a − 1<br />

(käsittelyjen keskineliö)<br />

MSB = SSB<br />

n − 1<br />

(lohkojen keskineliö)<br />

SSE<br />

MSE =<br />

(a − 1)(n − 1)<br />

(residuaalin keskineliö)<br />

Jälleen MSE on harhaton σ 2 :n estimaatti.<br />

Lause 3.4. Jos τ on muotoa µ1a, missä µ on vakio (hypoteesi H0), niin osamäärällä<br />

MSTR<br />

MSE =merk. F<br />

on F-jakauma vapausastein a − 1 ja (a − 1)(n − 1).<br />

Todistus. Lauseen todistus on aivan samanlainen kuin Lauseen 3.1, matriisilaskuista johtuen<br />

vain vähän työläämpi.<br />

H0 voidaan testata tavalliseen tapaan. Huomattakoon, että tämä testi on vahvasti sen oletuksen<br />

varassa, että ɛ on N(0N,σ 2 IN)-jakautunut, sillä sille ei voida antaa satunnaistustulkintaa.<br />

Ajetaan alla annettu data Systatin avulla.<br />

karki lohko y<br />

1 1 9.3<br />

1 2 9.4<br />

1 3 9.6<br />

1 4 10.0<br />

2 1 9.4<br />

2 2 9.3<br />

2 3 9.8<br />

2 4 9.9<br />

3 1 9.2<br />

3 2 9.4<br />

3 3 9.5<br />

3 4 9.7<br />

4 1 9.7<br />

4 2 9.6<br />

4 3 10.0<br />

4 4 10.2<br />

Huomaa miten käsittelyt ja lohkot on ”kategorisoitu”. Käskyt<br />

>USE ’kovuus.sys’<br />

VARIABLES IN SYSTAT FILE ARE:<br />

KARKI LOHKO Y<br />

>category karki=4,lohko=4<br />

>model y=constant+karki+lohko<br />

>estimate<br />

antavat tulostuksen


LUKU 3. KVALITATIIVISET FAKTORIT 59<br />

DEP VAR: Y N: 16 MULTIPLE R: .968 SQUARED MULTIPLE R: .938<br />

ANALYSIS OF VARIANCE<br />

SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />

KARKI 0.385 3 0.128 14.437 0.001<br />

LOHKO 0.825 3 0.275 30.937 0.000<br />

ERROR 0.080 9 0.009<br />

jonka mukaan käsittelyillä on eroja. Pitkä tulostus on<br />

DEP VAR: Y N: 16 MULTIPLE R: .968 SQUARED MULTIPLE R: .938<br />

-1<br />

ESTIMATES OF EFFECTS B = (X’X) X’Y)<br />

Y<br />

CONSTANT 9.625<br />

KARKI 1 -0.050<br />

KARKI 2 -0.025<br />

KARKI 3 -0.175<br />

LOHKO 1 -0.225<br />

LOHKO 2 -0.200<br />

LOHKO 3 0.100<br />

ANALYSIS OF VARIANCE<br />

SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />

KARKI 0.385 3 0.128 14.437 0.001<br />

LOHKO 0.825 3 0.275 30.937 0.000<br />

ERROR 0.080 9 0.009<br />

ja se antaa myös estimaatit Mat (eli tässä t − y ••1a) jab.<br />

Huomautus. Matlabilla laskettaessa kannattaa käyttä Kronecker-tuloa ⊗ matriisien kokoamiseen<br />

(operaatio kron ):<br />

T = Ia ⊗ 1n , Mres = Ia ⊗ Mn , B = 1a ⊗ In.<br />

Analogisesti Lauseen 3.4 kanssa pätee<br />

Lause 3.5. Jos β = 0n, niin osamäärällä<br />

MSB<br />

MSE<br />

on F-jakauma vapausastein n − 1 ja (a − 1)(n − 1).<br />

Todistus. Samankaltainen kuin Lauseen 3.1 todistus.<br />

Olisi houkuttelevaa käyttää tätä hypoteesin H0 : β = 0n testaamiseen (vastahypoteesina H0 :<br />

”β = 0n, mutta 1 T nβ =0(lisäehto)”). F-jakauman käytön aiheellisuudesta tämän testin yhteydessä<br />

käytännössä ei kuitenkaan olla aivan yksimielisiä, ks. esimerkiksi MONTGOMERY.


LUKU 3. KVALITATIIVISET FAKTORIT 60<br />

Useimmat ohjelmistot joka tapauksessa suorittavat ko. testin ilman muuta (ks. edellä oleva<br />

Systat-ajo). Tulosta lienee pidettävä jonkin verran approksimatiivisena. Kokeen suorituksesta<br />

johtuen käsittelyt ja lohkot eivät nimittäin ole samassa asemassa, sillä satunnaistus tapahtuu<br />

lohkojen sisällä, mutta ei käsittelyjen sisällä. Näin malli voi hyvinkin osoittautua riittämättömäksi<br />

lohkojen tutkimista ajatellen. Jos H0:aa ei hylätä, voi ainakin päätellä, että lohkoihin<br />

jaolla ei ole kummempaa vaikutusta ja suunnitella kokeet vastaisuudessa yksisuuntaisina.<br />

Lasketaan seuraavaksi estimaattien varianssimatriisit. Koska<br />

t = 1<br />

n TT y = 1<br />

n TT (Tτ + Bβ + ɛ) =τ + 1<br />

n TT ɛ<br />

ja<br />

<br />

1<br />

b =<br />

a BT − 1<br />

N 1n1 T <br />

1<br />

N y =<br />

a BT − 1<br />

N 1n1 T <br />

N (Tτ + Bβ + ɛ)<br />

<br />

1<br />

= β +<br />

a BT − 1<br />

N 1n1 T <br />

N ɛ<br />

(muista lisäehto 1 T nβ =0ja huomaa, että seurauksena t ja b ovat harhattomia), on<br />

2 1<br />

V (t) =σ<br />

n2 TT T = σ2<br />

n Ia<br />

(estimaatit ti ovat siis jälleen riippumattomat) ja<br />

V (b) =σ 2<br />

<br />

1<br />

a BT − 1<br />

N 1n1 T <br />

1 1<br />

N B −<br />

a N 1N1 T <br />

n<br />

= σ 2<br />

<br />

1<br />

a In − 1<br />

N Jn<br />

<br />

.<br />

Vielä<br />

2 1<br />

cov(t, b) =σ<br />

n TT<br />

<br />

1 1<br />

B −<br />

a N 1N1 T <br />

n = O,<br />

joten t ja b ovat riippumattomat.<br />

Hypoteesin H0 : Cτ = d testaus sujuu samaan tapaan kuin edellä. Yo. syystä vain käsittelyjä<br />

koskevat hypoteesit ovat varmasti mielekkäitä F-testin kannalta. Lause 3.2 pitää paikkansa<br />

(todistuskin on kutakuinkin sama), kunhan testisuureessa muutetaan SSE:n vapausasteet<br />

oikeiksi, ts. suureella<br />

n(Ct − d) T (CC T ) −1 (Ct − d)(a − 1)(n − 1)<br />

qSSE<br />

on F-jakauma vapausastein q ja (a − 1)(n − 1). Lause 3.2 pitää tosin paikkansa9 myös hypoteesille<br />

H0 : Eβ = f, missä E on täysiriviranginen p × n-matriisi, jonka riviavaruudessa ei ole<br />

vektoria 1T n (tämä oletus tarvitaan, koska muutoin joko H0 olisi ristiriidassa lisäehdon 1T nβ =0<br />

kanssa tai se sisältäisi ”turhia” eli automaattisesti toteutuvia osia). Testisuure on nyt<br />

(Eb − f) T E 1<br />

aIn − 1<br />

N Jn<br />

<br />

T E −1 (Eb − f)(a − 1)(n − 1)<br />

pSSE<br />

ja sillä on F-jakauma vapausastein p ja (a − 1)(n − 1). Näin ollen myös β:a koskevia lineaarisia<br />

hypoteeseja voidaan periaatteessa testata (ja esimerkiksi Systat sallii sen ilman muuta).<br />

9 1 Matriisin aIn − 1<br />

1<br />

aIn − 1<br />

N Jn nolla-avaruuden alkioita ei ole E:n riviavaruudessa, on E 1<br />

aIn − 1<br />

N Jn<br />

N Jn nolla-avaruuden alkiot ovat muotoa c1n, missä c on vakio. Koska näin ollen matriisin<br />

T E todella ei-singuläärinen.<br />

Muutoin tuloksen todistus menee kuten Lauseen 3.2 todistus.


LUKU 3. KVALITATIIVISET FAKTORIT 61<br />

Myös S-testi käsittelyille menee samaan tapaan kuin edellä. Testisuuretta<br />

SSC<br />

(a − 1)MSE<br />

verrataan F-jakauman kertymäpisteeseen Fα,a−1,(a−1)(n−1), muita eroja ei ole. Samoin LSD-testi<br />

on samanlainen kuin edellä.<br />

Mallin riittävyystarkastelut tapahtuvat residuaalin r avulla kuten edellä. Mukaan kannattaa<br />

ottaa myös sirontakuvio residuaali vs. lohko. Uutena riittämättömyyden lajina tulee mukaan<br />

epäadditiivisuus, ts. se että käsittelyjen ja lohkojen välillä on yhdysvaikutusta. Usein tällainen<br />

yhdysvaikutus näkyy jo piirrettäessä residuaalit ennusteen funktiona: kuvio on jollain tapaa<br />

epäsymmetrinen. Epäadditiivisuuden testaamiseen on omiakin testejä, mm. ns. Tukeyn additiivisuustesti,<br />

ks. esimerkiksi MONTGOMERY. Epäadditiivisuus on sukua regressiomallin epäsopivuudelle.<br />

Tutkitaan Systatilla eo. mallin riittävyyttä normaalitodennäköisyyskuviota ja sopivia sirontakuvia<br />

käyttäen. Talletetaan residuaali ja ennuste. Käskyt<br />

>USE ’resko.sys’<br />

VARIABLES IN SYSTAT FILE ARE:<br />

ESTIMATE RESIDUAL LEVERAGE COOK STUDENT<br />

SEPRED KARKI LOHKO<br />

>pplot residual<br />

>plot residual*estimate<br />

>plot residual*karki<br />

>plot residual*lohko<br />

tuottavat seuraavat kuvat.<br />

E<br />

X<br />

P<br />

E<br />

C<br />

T<br />

E<br />

D<br />

V<br />

A<br />

L<br />

U<br />

E<br />

2<br />

1<br />

0<br />

-1<br />

-2<br />

-0.2 -0.1 0.0 0.1 0.2<br />

RESIDUAL<br />

Pientä huolta jakauman normaalisuudesta voisi tämän kuvan perusteella tuntea, kuvaaja kun on<br />

hieman käyrä. Sen sijaan alla olevat sirontakuviot eivät anna aihetta huoleen.


LUKU 3. KVALITATIIVISET FAKTORIT 62<br />

R<br />

E<br />

S<br />

I<br />

D<br />

U<br />

A<br />

L<br />

R<br />

E<br />

S<br />

I<br />

D<br />

U<br />

A<br />

L<br />

R<br />

E<br />

S<br />

I<br />

D<br />

U<br />

A<br />

L<br />

0.2<br />

0.1<br />

0.0<br />

-0.1<br />

-0.2<br />

9.0 9.5 10.0 10.5<br />

0.2<br />

0.1<br />

0.0<br />

-0.1<br />

ESTIMATE<br />

-0.2<br />

0 1 2 3 4 5<br />

0.2<br />

0.1<br />

0.0<br />

-0.1<br />

KARKI<br />

-0.2<br />

0 1 2 3 4 5<br />

LOHKO


LUKU 3. KVALITATIIVISET FAKTORIT 63<br />

3.2.2 Roomalaiset neliöt<br />

Jakamalla koetilanteet lohkoihin voidaan poistaa lohkojen välisen vaihtelun vaikutus. Toisaalta<br />

lohkojen sisäinen vaihtelu jää ja saattaa suurentaa residuaalineliösummaa merkittävästi. Jos<br />

lohkojen sisäinen vaihtelu on kaikissa lohkoissa samankaltaista, ts. koetilanteet jokaisen lohkon<br />

sisällä voidaan järjestää samaan tapaan, saadaan ns. neliökoe.<br />

Roomalaisessa neliössä (eli latinalaisessa neliössä) kussakin lohkossa on yhtä monta koetta<br />

kuin on lohkoja, sanotaan n koetta. Koejärjestely on tapana kirjoittaa neliöksi, jossa rivi on<br />

lohko ja sarake kuvaa lohkon sisäistä järjestystä. Näin saadaan n 2 koetilannetta, joille jaetaan<br />

n käsittelyn n koetoistoa siten, että kukin käsittelyistä esiintyy tarkalleen kerran kussakin rivissä<br />

ja kussakin sarakkeessa. Jos käsittelyjä merkitään kirjaimin A, B, C, ... ,voidaan kirjaimista<br />

näin kirjoittaa neliö, jonka kussakin rivissä ja kussakin esiintyy kukin kirjaimista tarkalleen<br />

kerran. Esimerkiksi<br />

A B D C A D B E C A D C E B F<br />

B C A D D A C B E B A E C F D<br />

C D B A C B E D A C E D F A B<br />

D A C B B E A C D D C F B E A<br />

E C D A B F B A D C E<br />

E F B A D C<br />

ovat tällaisia neliöitä.<br />

Kulloinkin käytettävä roomalainen neliö valitaan satunnaisesti, esimerkiksi valitsemalla kirjallisuudessa<br />

esiintyvistä taulukoiduista neliöistä sopivankokoinen ja permutoimalla sen rivit ja<br />

sarakkeet satunnaisesti. Lähtöneliö voisi olla tyyppiä<br />

A B C D<br />

B C D A<br />

C D A B<br />

D A B C<br />

oleva neliö, joita on kaikenkokoisia, mutta tällä tavoin ei saada aivan satunnaista neliötä (koska<br />

kaikkia roomalaisia neliöitä ei saada tällaisista neliöistä permutoimalla). Suuremmille neliöille<br />

menettely katsotaan riittävän satunnaistavaksi. Kunnollinen satunnaistus on tärkeää, sillä ilman<br />

sitä mallin riittämättömyys voi joissain tilanteissa helposti johtaa pahasti vääriin johtopäätöksiin.<br />

Huomaa, että satunnaistus käsittää vain käsittelyt, ei lohkoja eikä sarakkeita.<br />

Malli on<br />

yijk = τi + βj + γk + ɛijk,<br />

missä τ , β ja ɛ ovat kuten edellä ja γk kuvaa sarakkeen valinnan vaikutusta vasteeseen. Merkinnät<br />

y, yi, y•, y •, Mres, Mtr, Mbl, Mres2, T ja B ovat kuten edellä. Merkinnät<br />

yi•• , y i•• , y•j• , y •j• , y••k , y ••k , y••• , y •••<br />

tulkitaan ilmeiseen tapaan. Merkitään edelleen<br />

⎛ ⎞<br />

γ =<br />

⎜<br />

⎝<br />

γ1<br />

.<br />

γn<br />

⎛<br />

⎟<br />

⎜<br />

⎠ ja G = ⎝<br />

(n × n-matriisi), missä G1 saadaan roomalaisesta neliöstä korvaamalla A ykkösellä ja muut<br />

kirjaimet nollilla, G2 saadaan korvaamalla B ykkösellä ja muut kirjaimet nollilla, jne. Huomaa,<br />

G1<br />

.<br />

Gn<br />

⎞<br />

⎟<br />


LUKU 3. KVALITATIIVISET FAKTORIT 64<br />

että Gi:t ovat permutaatiomatriiseja, ts. kussakin rivissä ja kussakin sarakkeessa on tarkalleen<br />

yksi ykkönen muiden alkioiden ollessa nollia. Permutaatiomatriisit ovat ortogonaalisia, joten<br />

G T i Gi = In. Matlabilla G saadaan koottua helposti, kunhan ensin roomalainen neliö kirjoitetaan<br />

kategorisoiduksi matriisiksi R:<br />

»R=[1 2 4 3;2 3 1 4;3 4 2 1;4 1 3 2]<br />

R =<br />

»G2=R==2<br />

G2 =<br />

1 2 4 3<br />

2 3 1 4<br />

3 4 2 1<br />

4 1 3 2<br />

0 1 0 0<br />

1 0 0 0<br />

0 0 1 0<br />

0 0 0 1<br />

»G=[R==1;R==2;R==3;R==4]<br />

G =<br />

1 0 0 0<br />

0 0 1 0<br />

0 0 0 1<br />

0 1 0 0<br />

0 1 0 0<br />

1 0 0 0<br />

0 0 1 0<br />

0 0 0 1<br />

0 0 0 1<br />

0 1 0 0<br />

1 0 0 0<br />

0 0 1 0<br />

0 0 1 0<br />

0 0 0 1<br />

0 1 0 0<br />

1 0 0 0<br />

Seuraavat kaavat ovat helposti todettavissa laskien:<br />

(i) T T G = Jn<br />

(ii) B T G = Jn<br />

(iii) G T G = nIn<br />

Malli on matriisimuodossa<br />

(iv) G1n = 1 n 2<br />

(v) G T 1 n 2 = n1n<br />

y = Tτ + Bβ + Gγ + ɛ.<br />

Myös SST, SSTR ja SSB ovat samat kuin edellä ja samoin vastaavat keskineliöt. (Nyt siis<br />

a = n ja N = n 2 .)<br />

Parametrien estimoimiseksi käytetään jälleen pienimmän neliösumman menetelmää. Minimoitava<br />

neliösumma on<br />

y − Tτ − Bβ − Gγ 2 =(y − Tτ − Bβ − Gγ) T (y − Tτ − Bβ − Gγ).<br />

Merkitsemällä gradientti nollaksi saadaan normaaliryhmä


LUKU 3. KVALITATIIVISET FAKTORIT 65<br />

⎧<br />

⎪⎨ −2T<br />

⎪⎩<br />

T (y − Tτ − Bβ − Gγ) =0n<br />

−2BT (y − Tτ − Bβ − Gγ) =0n<br />

−2GT (y − Tτ − Bβ − Gγ) =0n<br />

eli ⎧<br />

⎪⎨ T<br />

⎪⎩<br />

T Tτ + TT Bβ + TT Gγ = nτ + Jnβ + Jnγ = y•<br />

BT Tτ + BT Bβ + BT Gγ = Jnτ + nβ + Jnγ = BT y<br />

GT Tτ + GT Bβ + GT Gγ = Jnτ + Jnβ + nγ = GT y.<br />

Ryhmän matriisin ⎛<br />

⎝<br />

nIn Jn Jn<br />

Jn nIn Jn<br />

Jn Jn nIn<br />

rangi on 3n − 2, sillä se saadaan sarake- ja rivioperaatioin muotoon<br />

⎛<br />

⎞<br />

⎝<br />

nMn Jn On<br />

On nIn On<br />

On On nMn<br />

(Lasketaan oikeanpuoleisen lohkosarakkeen sarakkeet yhteen kerrottuna −1/n:llä ja lisätään<br />

saatu vektori kuhunkin ensimmäisen lohkosarakkeen sarakkeista. Sen jälkeen lasketaan yhteen<br />

keskimmäisen lohkorivin rivit kerrottuna −1/n:llä ja lisätään saatu vaakavektori alimman lohkorivin<br />

riveihin. Toistetaan vielä sama toiselle ja kolmannelle sarakkeelle.) Normaaliryhmä on<br />

siis taas alimäärätty ja tarvitaan kaksi lisäyhtälöä, jotta parametrit saataisiin ratkaistuksi normaaliryhmästä<br />

yksikäsitteisesti. Nämä lisäyhtälöt ovat yleensä<br />

⎞<br />

⎠<br />

⎠ .<br />

1 T nβ =0 ja 1 T nγ =0.<br />

Näin saadaan estimaatit<br />

⎧<br />

⎪⎨ t =<br />

⎪⎩<br />

1<br />

ny• = y• b = 1<br />

nBT y − 1<br />

n2 Jny• = 1<br />

nBT y − y•••1n g = 1<br />

nGT y − 1<br />

n2 Jny• = 1<br />

nGT y − y•••1n. Vasteen ennuste on nyt<br />

Tt + Bb + Gg = Ty • + B<br />

ja residuaali on<br />

Merkitään<br />

<br />

1<br />

n BT <br />

1<br />

y − y•••1n + G<br />

a GT <br />

y − y•••1n = 1<br />

n TTT y + 1<br />

n BBT y + 1<br />

n GGT y − 1<br />

n<br />

1<br />

=<br />

n TTT + 1<br />

n BBT + 1<br />

n GGT − 2<br />

n2 Jn2 <br />

y<br />

r =<br />

T<br />

B1n1 2 n<br />

<br />

In2 − 1<br />

n TTT − 1<br />

n BBT − 1<br />

n GGT + 2<br />

n2 Jn2 <br />

y<br />

1<br />

2y −<br />

n<br />

T<br />

G1n1 2 n2y Mres3 = I n 2 − 1<br />

n TTT − 1<br />

n BBT − 1<br />

n GGT + 2<br />

n 2 J n 2 = Mres2 − 1<br />

n GGT + 1<br />

n 2 J n 2


LUKU 3. KVALITATIIVISET FAKTORIT 66<br />

ja<br />

Silloin<br />

Mcol = 1<br />

n GGT − 1<br />

n 2 J n 2.<br />

MN = Mtr + Mbl + Mres2 = Mtr + Mbl + Mcol + Mres3.<br />

Vastaavat neliösummat ovat (aiemmin olleiden SST:n, SSTR:n ja SSB:n lisäksi) sarakkeiden<br />

neliösumma<br />

SSCOL = y T n<br />

Mcoly = n y 2 ••k − n 2 y 2 •••<br />

sekä residuaalin neliösumma<br />

j=1<br />

SSE = r T r = y T Mres3y.<br />

Matriisit Mres3 ja Mcol ovat symmetrisiä idempotentteja matriiseja, kuten laskien voi todeta.<br />

Vapausasteet ja keskineliöt saadaan seuraavasta taulusta:<br />

SSX vapausasteet MSX<br />

SST n<br />

SSTR<br />

SSB<br />

SSCOL<br />

SSE<br />

2 − 1 MST =<br />

n − 1<br />

n − 1<br />

n − 1<br />

(n − 2)(n − 1)<br />

SST<br />

n2 − 1<br />

(kokonaiskeskineliö)<br />

MSTR = SSTR<br />

n − 1<br />

(käsittelyjen keskineliö)<br />

MSB = SSB<br />

n − 1<br />

(lohkojen keskineliö)<br />

MSCOL = SSCOL<br />

n − 1<br />

(sarakkeiden keskineliö)<br />

SSE<br />

MSE =<br />

(n − 2)(n − 1)<br />

(residuaalin keskineliö)<br />

Jälleen MSE on harhaton σ 2 :n estimaatti. Lause 3.1 pitää paikkansa, kun F-jakauman vapausasteiksi<br />

merkitään n − 1 ja (n − 2)(n − 1),jahypoteesi H0 : τ1 = ···= τn voidaan testata tavalliseen<br />

tapaan.<br />

Lause 3.2 pätee nyt myös, sekä lohkoille että sarakkeille, F-jakauman vapausasteina n − 1<br />

ja (n − 2)(n − 1). Koska satunnaistus tehtiin vain käsittelyille (ts. valittiin roomalainen neliö<br />

satunnaisesti), ei ole suositeltavaa käyttää näitä jakaumatuloksia lohkojen tai sarakkeiden erilaisuuden<br />

testaamiseen muutoin kuin korkeintaan suuntaa antavasti. Usein kuitenkin tyydytään<br />

tähän lohkojen ja sarakkeiden erilaisuustestin käytännön approksimatiivisuuteen ja käytetään<br />

roomalaisia neliöitä kolmen eri faktorin (käsittelyt, lohkot ja sarakkeet) yhtaikaiseen testaamiseen.<br />

Koe on tällöin varsin ekonominen (n 2 koetta, kolme n-tasoista faktoria).<br />

Yleisen lineaarisen hypoteesin testaus sujuu aivan samoin kuin edellä, SSE:n vapausasteina<br />

tietysti (n−2)(n−1). Riittävyystarkastelut residuaaleja käyttäen ovat myös samantapaiset kuin<br />

satunnaistetuille lohkoille.<br />

Roomalaista neliötä, jonka ensimmäinen sarake ja ensimmäinen rivi ovat aakkosjärjestyksessä,<br />

kutsutaan standardineliöksi. Ideaalisesti, satunnaistettaessa valitaan ensin satunnaisesti<br />

jokin standardineliö ja satunnaistetaan se permutoimalla sarakkeet ja rivit. Seuraavassa eräitä<br />

lukumääriä:<br />

n 2 3 4 5 6 7<br />

standardineliöiden lkm 1 1 4 56 9408 16942080<br />

kaikkien neliöiden lkm 2 12 576 161280 812851200 61479419904000


LUKU 3. KVALITATIIVISET FAKTORIT 67<br />

Jokaisesta roomalaisesta neliöstä saadaan standardineliö permutoimalla sarakkeet aakkosjärjestykseen<br />

ja sitten rivit aakkosjärjestykseen. Näin ollen<br />

n × n-neliöiden lkm = n!(n − 1)! × (standardineliöiden lkm).<br />

Koska standardineliöitä on suuri määrä, kun n>5,valitaan usein lähtöneliö kuten edellä tehtiin<br />

ja tyydytään tulokseen.<br />

Ajetaan alla oleva data Systatilla. Huomaa jälleen kategorisointi luvuiksi 1,...,5.Vastaava<br />

roomalainen neliö on<br />

A B C D E<br />

B C D E A<br />

C D E A B<br />

D E A B C<br />

E A B C D<br />

Selvästikään tämä ei ole tullut satunnaistuksen kautta. Tässä onkin lohkojen ja sarakkeiden<br />

järjestys satunnaistettu ja käytetty kiinteää roomalaista neliötä. Vaikutus on sama.<br />

Käskyillä<br />

>USE ’dynamite.sys’<br />

VARIABLES IN SYSTAT FILE ARE:<br />

KASITTEL LOHKO SARAKE Y<br />

>category kasittel=5,lohko=5,sarake=5<br />

>model y=constant+kasittel+lohko+sarake<br />

>print long<br />

>estimate<br />

käsittely lohko sarake y<br />

1 1 1 −1<br />

1 2 5 11<br />

1 3 4 2<br />

1 4 3 1<br />

1 5 2 5<br />

2 1 2 −5<br />

2 2 1 −8<br />

2 3 5 −4<br />

2 4 4 −2<br />

2 5 3 −5<br />

3 1 3 −6<br />

3 2 2 −1<br />

3 3 1 −7<br />

3 4 5 −3<br />

3 5 4 4<br />

4 1 4 −1<br />

4 2 3 5<br />

4 3 2 13<br />

4 4 1 1<br />

4 5 5 6<br />

5 1 5 −1<br />

5 2 4 2<br />

5 3 3 1<br />

5 4 2 6<br />

5 5 1 −3


LUKU 3. KVALITATIIVISET FAKTORIT 68<br />

saadaan pitkä tulostus<br />

DEP VAR: Y N: 25 MULTIPLE R: .900 SQUARED MULTIPLE R: .811<br />

-1<br />

ESTIMATES OF EFFECTS B = (X’X) X’Y)<br />

CONSTANT 0.400<br />

KASITTEL 1 3.200<br />

KASITTEL 2 -5.200<br />

KASITTEL 3 -3.000<br />

KASITTEL 4 4.400<br />

LOHKO 1 -3.200<br />

LOHKO 2 1.400<br />

LOHKO 3 0.600<br />

LOHKO 4 0.200<br />

SARAKE 1 -4.000<br />

SARAKE 2 3.200<br />

SARAKE 3 -1.200<br />

SARAKE 4 0.600<br />

Y<br />

ANALYSIS OF VARIANCE<br />

SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />

KASITTEL 330.000 4 82.500 7.734 0.003<br />

LOHKO 68.000 4 17.000 1.594 0.239<br />

SARAKE 150.000 4 37.500 3.516 0.040<br />

ERROR 128.000 12 10.667<br />

Käsittelyillä on tässä vaikutusta. Lohkoihin jako näyttää turhalta, sen sijaan sarakkeisiin jaolla<br />

on merkitystä, minkä voi tulevissa kokeissa ottaa huomioon. (Huomaa, että jälleen tässä tulostuu<br />

t:n sijasta Mnt eli tässä t − y •••1n.) Hypoteesin H0 : τ2 = τ3 voi testata tavalliseen tapaan<br />

käskyillä<br />

>hypothesis<br />

>effect kasittel<br />

>contrast<br />

>0 1 -1 0 0<br />

>test<br />

jolloin saadaan tulostus<br />

TEST FOR EFFECT CALLED:<br />

KASITTEL<br />

A MATRIX<br />

1 2 3 4 5<br />

0.000 0.000 1.000 -1.000 0.000<br />

6 7 8 9 10<br />

0.000 0.000 0.000 0.000 0.000


LUKU 3. KVALITATIIVISET FAKTORIT 69<br />

11 12 13<br />

0.000 0.000 0.000<br />

TEST OF HYPOTHESIS<br />

SOURCE SS DF MS F P<br />

HYPOTHESIS 12.100 1 12.100 1.134 0.308<br />

ERROR 128.000 12 10.667<br />

Jos kaksi eri roomalaista n × n-neliötä voidaan valita siten, että niissä alla olevan esimerkin<br />

tapaan kukin n 2 kirjainparista esiintyy tarkalleen kerran, sanotaan neliöitä ortogonaalisiksi.<br />

AA BB CC DD<br />

BD AC DB CA<br />

CB DA AD BC<br />

DC CD BA AB<br />

Usein jälkimmäinen neliöistä kirjoitetaan pienin kreikkalaisin kirjaimin ja yhdistettyä neliötä<br />

kutsutaan kreikkalais-roomalaiseksi neliöksi.<br />

A B C D<br />

B A D C<br />

C D A B<br />

D C B A<br />

+ α β γ δ<br />

δ γ β α<br />

β α δ γ<br />

γ δ α β<br />

→<br />

Aα Bβ Cγ Dδ<br />

Bδ Aγ Dβ Cα<br />

Cβ Dα Aδ Bγ<br />

Dγ Cδ Bα Aβ<br />

Satunnainen kreikkalais-roomalainen neliö valitaan ottamalla ensin kaksi satunnaista keskenään<br />

ortogonaalista roomalaista neliötä, yhdistämällä ne ja permutoimalla sen jälkeen satunnaisesti<br />

rivit ja sarakkeet.<br />

Pareittain keskenään ortogonaalisia roomalaisia n × n-neliöitä voi olla enintään n − 1 kappaletta<br />

(todistus jätetään lukijalle harjoitukseksi). Voidaan osoittaa (ks. esimerkiksi JOHN), että<br />

tällainen täysi kokoelma ortogonaalisia roomalaisia neliöitä löytyy, jos n on alkuluku tai alkuluvun<br />

potenssi, mutta niitä löytyy usein muutenkin. Klassinen taulukko FISHER, R.A. & YATES,<br />

F.: Statistical Tables for Biological, Agricultural and Medical Research. Oliver & Boyd (1953)<br />

sisältää nimestään huolimatta myös insinöörejä ajatellen hyödyllisiä asioita, mm. luettelot n−1<br />

keskenään ortogonaalisesta roomalaisesta neliöstä arvoille n =3, 4, 5, 7, 8, 9. Arvo n =6puuttuu,<br />

sillä ortogonaalisia 6 × 6- neliöitä ei ole lainkaan! Vasta suhteellisen äskettäin on voitu<br />

tietokoneiden avustuksella osoittaa, että löytyy yhdeksän keskenään ortogonaalista 10 × 10neliötä<br />

ja sitä ennen oli pitkään avoin probleema, onko niitä ollenkaan. Kaksi ortogonaalista<br />

roomalaista neliötä voidaan löytää itse asiassa aina, kun n = 6(ja n>3), mutta ei välttämättä<br />

täyttä n − 1 neliön kokoelmaa.<br />

Kreikkalais-roomalaista neliötä käyttävässä kokeessa malli on<br />

yijkl = τi + θl + βj + γk + ɛijkl,<br />

missä θl:t kuvaavat kreikkalaisin kirjaimin merkityn toisen käsittelyn vaikutusta vasteeseen.<br />

Matriisimuodossa malli on<br />

y = T1τ + T2θ + Bβ + Gγ + ɛ,<br />

missä T1 on aikaisempi T ja T2 on sopiva uusi 0-1-matriisi. Estimaatit etsitään tavalliseen<br />

tapaan pienimmän neliösumman keinolla, jne. SSE:n vapausasteiden lukumääräksi jää enää<br />

(n − 3)(n − 1). ANOVA sekä hypoteesien testaus ovat käytännön tilanteessa varsinaisesti suoritettavissa<br />

vain käsittelyille erikseen.


LUKU 3. KVALITATIIVISET FAKTORIT 70<br />

Useampia ortogonaalisia roomalaisia neliöitä käytettäessä saadaan ns. hyperneliökokeita.<br />

Ortogonaalisten roomalaisten neliöiden käyttö pelkästään lisäluokittelijoina (lohkojen ja sarakkeiden<br />

tapaan) ei välttämättä ole edullista: Vaikka residuaalineliösumma pienenee, koska osa<br />

siitä siirtyy ”uusien käsittelyjen” neliösummiin, pienenee samalla SSE:n vapausasteiden luku.<br />

Hyperneliökokeita ei tästä syystä useinkaan käytetä.<br />

Huomautus. Roomalaisia neliöitä ja erityisesti kreikkalais-roomalaisia neliöitä käyttävät kokeet<br />

ovat hyvin herkkiä epäadditiivisuudelle, ts. sille että lohkoilla, sarakkeilla ja käsittelyillä<br />

on yhdysvaikutust. Jos tällaista voi odottaa olevan, on käytettävä faktorikokeita, joissa on yhdysvaikutustermit<br />

mukana.


Luku 4<br />

MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong><br />

4.1 Satunnaisotanta<br />

Populaatiossa on N alkiota X1,...,XN. Kustakin alkiosta Xj voidaan mitata numeerinen kulotteinen<br />

suurevektori, jota lyhyyden vuoksi merkitään myös Xj:llä. (Merkintä on epätäsmällinen,<br />

sillä ko. numeerinen suurevektori voi olla yhteinen useammalle populaatioalkioille.) Merkitään<br />

edelleen<br />

⎛ ⎞<br />

Xj =<br />

⎜<br />

⎝<br />

Xj1<br />

.<br />

Xjk<br />

⎟<br />

⎠ .<br />

Populaatiosuureet kootaan ns. populaatiomatriisiksi<br />

⎛ ⎞ ⎛<br />

⎜<br />

⎝<br />

X T 1<br />

X T 2<br />

.<br />

X T N<br />

⎟<br />

⎠ =<br />

⎜<br />

⎝<br />

X11 X12 ··· X1k<br />

X21 X22 ··· X2k<br />

.<br />

.<br />

. ..<br />

XN1 XN2 ··· XNk<br />

.<br />

⎞<br />

⎟<br />

⎠ =merk. X.<br />

Myöhemmin otetaan käyttöön vastaava otokseen liittyvä datamatriisi. Skalaaritapauksessa (eli<br />

kun k =1) populaatioalkiota merkitään myös Xj:llä. Populaatiokeskiarvo on<br />

ja populaatiovarianssi on<br />

summamuodossa<br />

ξ = 1<br />

N<br />

N<br />

j=1<br />

ξ = 1<br />

N XT 1N<br />

Σ = 1<br />

N XT MNX,<br />

Xj ja Σ = 1<br />

N<br />

N<br />

(Xj − ξ)(Xj − ξ) T .<br />

Huomaa, että ξ on N-vektori ja Σ on N × N-matriisi (usein tällaista matriisia kutsutaan myös<br />

kovarianssimatriisiksi). Skalaaritapauksessa merkitään populaatiokeskiarvoa ξ:llä ja populaatiovarianssia<br />

tutulla merkinnällä σ2 .<br />

N:stä alkiosta (populaatio) voidaan valita n alkion (järjestämätön) joukko<br />

<br />

N<br />

n<br />

=<br />

N!<br />

n!(N − n)!<br />

j=1<br />

= N(n − 1) ···(N − n +1)<br />

n!<br />

71


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 72<br />

eri tavalla. Jos ajatellaan kukin tällainen valinta eli otos yhtä todennäköiseksi (todennäköisyys<br />

on 1/ N<br />

), on kyseessä n alkion satunnaisotanta palauttamatta. Merkitään valittuja otosal-<br />

n<br />

kioita symboleilla x1,...,xn. (Skalaaritapauksessa merkitään jälleen otosalkiota myös xi:llä.)<br />

Symmetriasyistä xi voi yhtä todennäköisesti olla mikä tahansa populaatioalkioista, ts.<br />

P (xi = Xj) = 1<br />

(i =1,...,n; j =1,...,N).<br />

N<br />

Merkitään xi:hin liittyvää numeerista k-vektoria myös xi:llä ja edelleen<br />

⎛ ⎞<br />

xi =<br />

⎜<br />

⎝<br />

xi1<br />

.<br />

xik<br />

⎟<br />

⎠ .<br />

Yhdistämällä otokseen tulleet numeeriset vektorit saadaan datamatriisi<br />

⎛ ⎞ ⎛<br />

⎞<br />

⎜<br />

⎝<br />

x T 1<br />

x T 2<br />

.<br />

x T n<br />

⎟<br />

⎠ =<br />

⎜<br />

⎝<br />

x11 x12 ··· x1k<br />

x21 x22 ··· x2k<br />

.<br />

.<br />

. ..<br />

xn1 xn2 ··· xnk<br />

Nyt xi:t ovat satunnaisvektoreita ja x on satunnaismatriisi.<br />

.<br />

⎟<br />

⎠ =merk. x.<br />

Huomautus. Ainoa satunnaisuus on otoksen satunnaisessa valinnassa. Populaatiohan on kiinteä.<br />

ja<br />

xi:n odotusarvo ja varianssi ovat<br />

V (xi) =<br />

E(xi) =<br />

N<br />

XjP (xi = Xj) =ξ<br />

j=1<br />

N<br />

(Xj − ξ)(Xj − ξ) T P (xi = Xj) =Σ.<br />

j=1<br />

Edelleen, jos i1 = i2,niin<br />

<br />

0, jos j1 = j2<br />

P (xi1 = Xj1, xi2 = Xj2) = 1<br />

N(N−1) , jos j1 = j2.<br />

Näin ollen eri otosalkioiden xi1 ja xi2 kovarianssi on<br />

cov(xi1, xi2) =<br />

(tässä KN = JN − IN).<br />

1<br />

N(N − 1)<br />

N<br />

j1=1 j2=1<br />

j2=j1<br />

N<br />

(Xj1 − ξ)(Xj2 − ξ) T<br />

1<br />

=<br />

N(N − 1) (XT − ξ1 T N)KN(X − 1Nξ T )<br />

1<br />

=<br />

N(N − 1) XT 1<br />

MNKNMNX = −<br />

N(N − 1) XT MNX = − 1<br />

N − 1 Σ


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 73<br />

Huomautus. Skalaaritapauksessa tästä seuraa, ehkä vähän yllättäen, että korrelaatiokerroin<br />

ρ(xi1,xi2) = cov(xi1,xi2)<br />

V (xi1)V (xi2)<br />

= − 1<br />

N − 1<br />

ei riipu populaatiosta muuten kuin sen alkioiden lukumäärän kautta.<br />

Tavallisin otoksesta laskettava suure on otoskeskiarvo<br />

summamuodossa<br />

x = 1<br />

n xT 1n,<br />

x = 1<br />

n<br />

(tavallinen aritmeettinen keskiarvo, skalaaritapauksessa merkitään myös x). Otoskeskiarvo on<br />

satunnaisvektori.<br />

Lause 4.1. E(x) =ξ,ts.x on populaatiokeskiarvon harhaton estimaatti, ja<br />

Todistus. Lasketaan:<br />

ja<br />

E(x) =E<br />

V (x) = 1<br />

n<br />

<br />

1<br />

n<br />

n<br />

i=1<br />

xi<br />

n<br />

i=1<br />

<br />

1 −<br />

<br />

= 1<br />

n<br />

xi<br />

n − 1<br />

N − 1<br />

n<br />

i=1<br />

<br />

Σ.<br />

E(xi) = 1<br />

n<br />

n<br />

ξ = ξ<br />

V (x) =E((x − ξ)(x − ξ) T 1<br />

)=E<br />

n xT <br />

1<br />

1n − ξ<br />

n xT <br />

T<br />

1n − ξ<br />

1<br />

= E<br />

n xT 1n − 1<br />

n ξ1T <br />

1<br />

n1n<br />

n xT 1n − 1<br />

n ξ1T <br />

T<br />

n1n<br />

= 1<br />

n2 E((xT − ξ1 T n)Jn(x − 1nξ T ))<br />

= 1<br />

n2 E((xT − ξ1 T n)(x − 1nξ T )) + 1<br />

n2 E((xT − ξ1 T n)Kn(x − 1nξ T ))<br />

⎛<br />

= 1<br />

E<br />

n2 n<br />

i=1<br />

= 1<br />

1<br />

nV (x1)+<br />

n2 (xi − ξ)(xi − ξ) T<br />

= 1 n − 1 1<br />

Σ − Σ =<br />

n n(N − 1) n<br />

<br />

+ 1 ⎜<br />

E<br />

n2 ⎝<br />

n 2 n(n − 1)cov(x1, x2)<br />

<br />

1 −<br />

n − 1<br />

N − 1<br />

<br />

Σ.<br />

n<br />

i1=1 i2=1<br />

i2=i1<br />

i=1<br />

n<br />

(xi1 − ξ)(xi2 − ξ) T<br />

⎞<br />

⎟<br />


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 74<br />

Jos N ja n ovat ”suuria”, on<br />

n − 1<br />

N − 1 ∼ = n<br />

N =merk. a<br />

(ns. otossuhde). Niinpä usein kirjoitetaankin (epätarkasti)<br />

V (x) = 1<br />

(1 − a)Σ.<br />

n<br />

Jos N →∞, niin V (x) → 1 Σ. Tästä syystä 1 − a:ta kutsutaan äärellisen populaation korjaus-<br />

n<br />

kertoimeksi.<br />

Toinen otoksesta usein laskettava suure on otosvarianssi<br />

S = 1<br />

n − 1 xT Mnx,<br />

joka on satunnaismatriisi, summamuodossa<br />

S = 1<br />

n − 1<br />

n<br />

(xi − x)(xi − x) T .<br />

i=1<br />

Skalaaritapauksessa merkitään otosvarianssia myös tutulla s 2 :lla. Huomaa, että kysymyksessä<br />

on se ”harhaton varianssi”, toinen mahdollisuus olisi käyttää kerrointa 1/n.<br />

Lause 4.2. E(S) = N Σ (Ei riipu n:stä!)<br />

N−1<br />

Todistus. Koska Mn1n = 0n,on<br />

Siis<br />

S = 1<br />

n − 1 (x − 1nξ T ) T Mn(x − 1nξ T )<br />

= 1<br />

n − 1 (x − 1nξ T ) T (x − 1nξ T 1<br />

) −<br />

n(n − 1) (x − 1nξ T ) T 1n1 T n(x − 1nξ T )<br />

= 1<br />

n<br />

(xi − ξ)(xi − ξ)<br />

n − 1<br />

T − n<br />

n − 1 (x − ξ)(x − ξ)T .<br />

i=1<br />

E(S) = 1<br />

n − 1<br />

n<br />

V (xi) −<br />

i=1<br />

n<br />

V (x)<br />

n − 1<br />

<br />

1 n − 1<br />

1 − Σ =<br />

n N − 1<br />

N<br />

N − 1 Σ.<br />

= 1 n<br />

nΣ −<br />

n − 1 n − 1<br />

Näin ollen <br />

1 − 1<br />

<br />

S<br />

N<br />

on Σ:n harhaton estimaatti. Edelleen<br />

1<br />

n<br />

<br />

1 −<br />

n − 1<br />

N − 1<br />

on V (x):n harhaton estimaatti.<br />

<br />

1 − 1<br />

N<br />

<br />

S = 1<br />

n<br />

N − n<br />

N − 1<br />

N − 1<br />

N<br />

1<br />

S = (1 − a)S<br />

n


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 75<br />

Vaikka populaation jakauma ei muistuttaisikaan normaalijakaumaa, niin suurille N:n arvoille<br />

ja ”vähääkään suuremmille” n:n arvoille x:n jakauma on likimain multinormaali. Tämä<br />

johtuu Keskeisestä raja-arvolauseesta. Huomaa, että otokseen tulleet eri xi:t eivät ole riippumattomat,<br />

vaan itse asiassa heikosti korreloivat. Suurilla N:n arvoilla korrelaatio on kuitenkin<br />

hyvin pieni ja Keskeiseen raja-arvolauseeseen voinee vedota. Kullakin x:n komponentilla xi<br />

voidaan näin olettaa olevan likimain normaalijakauma N ξi, 1<br />

n (1 − a)σ2 <br />

i , missä ξi on ξ:n i:s<br />

komponentti ja σ2 i on Σ:n i:s lävistäjäalkio. Tätä käyttäen saadaan ξi:lle tavalliseen tapaan luotettavuusväli.<br />

Haluttuun luotettavuuteen pääseminen edellyttää kyllin suurta n:n arvoa, jonka määrittäminen<br />

taas edellyttää yläarviota σ2 i :lle. Sellainen saadaan lasketuksi joko aikaisemmista otoksista<br />

tai esitutkimuksista tai olettamalla populaatiossa Xji:lle (j =1,...,N)”konservatiivinen” jakauma,<br />

ts. ajatellaan populaation arvot Xj saaduiksi ottamalla N:n suuruinen otos sopivasti<br />

jakautuneesta satunnaismuuttujasta. Usein normaalijakauma on sopiva jakaumakandidaatti, varianssin<br />

vain pitää olla kyllin suuri (konservatiivisuus). Myös tasajakauma tai kolmiojakauma<br />

Xj:n vaihteluvälille sopii usein.<br />

Huomaa, että eri komponenttien ξi luotettavuusvaatimuksista saadaan erilaisia otoskokoja.<br />

Sitäpaitsi eri komponenteille saadut luotettavuusvälit voivat olla toisistaan riippuvia! Bonferronin<br />

säännön nojalla saadaan luotettavuusvälit yhtaikaa käyttöön halutulla luotettavuudella. Huomaa,<br />

että Bonferronin sääntö tekee mahdolliseksi ”tärkeämpien” komponenttien ξi estimoinnin<br />

luotettavammin toisten, ”vähemmän tärkeiden” komponenttien kustannuksella.<br />

4.2 Ositettu otanta<br />

Populaatio on jaettu K:hon alipopulaatioon eli ositteeseen.<br />

Ositteille saadaan ositematriisit<br />

⎛ ⎞ ⎛<br />

⎜<br />

⎝<br />

X T ℓ1<br />

X T ℓ2<br />

.<br />

X T ℓNℓ<br />

⎟<br />

⎠ =<br />

⎜<br />

⎝<br />

osite no. osite koko<br />

1 X11,...,X1N1 N1<br />

2 X21,...,X2N2 N2<br />

.<br />

.<br />

.<br />

K XK1,...,XKNK NK<br />

Xℓ11 Xℓ12 ··· Xℓ1k<br />

Xℓ21 Xℓ22 ··· Xℓ2k<br />

.<br />

.<br />

...<br />

XℓNℓ1 XℓNℓ2 ··· XℓNℓk<br />

ja näistä yhdistämällä taas varsinainen populaatiomatriisi<br />

⎛ ⎞<br />

X =<br />

⎜<br />

⎝<br />

X1<br />

.<br />

XK<br />

.<br />

⎟<br />

⎠ .<br />

⎞<br />

⎟<br />

⎠ =merk. Xℓ (ℓ =1,...,K)<br />

Kullekin ositteelle saadaan edelleen ositepaino wℓ = Nℓ/N , missä N = N1 + ··· + NK.<br />

Ositepainot kootaan ositepainovektoriksi<br />

⎛ ⎞<br />

w =<br />

⎜<br />

⎝<br />

w1<br />

.<br />

wK<br />

⎟<br />

⎠ .


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 76<br />

Edelleen saadaan ositekeskiarvot<br />

ja ositevarianssit<br />

ξ ℓ = 1<br />

Σℓ = 1<br />

X<br />

Nℓ<br />

T ℓ 1Nℓ<br />

X<br />

Nℓ<br />

T ℓ MNℓXℓ. Yhdistetään ositekeskiarvot ositekeskiarvomatriisiksi<br />

ja otetaan vielä käyttöön matriisi 1<br />

Ξ = ξ 1 ··· ξ K<br />

W = ⌈w⌋−ww T ,<br />

missä ⌈w⌋ on K ×K-lävistäjämatriisi, jonka lävistäjällä ovat painot w1,...,wK. Tämä matriisi<br />

saadaan helposti kootuksi esimerkiksi Matlabilla:<br />

»N=10;<br />

»w=[2/N;4/N;1/N;3/N]<br />

w =<br />

0.2000<br />

0.4000<br />

0.1000<br />

0.3000<br />

»W=diag(w)-w*w’<br />

W =<br />

0.1600 -0.0800 -0.0200 -0.0600<br />

-0.0800 0.2400 -0.0400 -0.1200<br />

-0.0200 -0.0400 0.0900 -0.0300<br />

-0.0600 -0.1200 -0.0300 0.2100<br />

Lause 4.3. Populaatiokeskiarvo on ositekeskiarvojen ositepainoilla painotettu keskiarvo, ts.<br />

Populaatiovarianssi on<br />

Σ =<br />

ξ = Ξw =<br />

K<br />

wℓΣℓ + ΞWΞ T =<br />

ℓ=1<br />

K<br />

ℓ=1<br />

<br />

K<br />

wℓξℓ. ℓ=1<br />

wℓΣℓ +<br />

K<br />

wℓ(ξℓ − ξ)(ξℓ − ξ) T .<br />

(Tässä K<br />

ℓ=1 wℓΣℓ on ns. ositteiden sisäinen varianssi ja ΞWΞ T taas ositteiden välinen varianssi.)<br />

Todistus. Lasketaan:<br />

ξ = 1<br />

N XT 1N = 1 <br />

T X1 ··· X<br />

N<br />

T K<br />

⎛<br />

⎜<br />

⎝<br />

1N1<br />

.<br />

1NK<br />

ℓ=1<br />

⎞<br />

⎟<br />

⎠ = 1<br />

N<br />

K<br />

ℓ=1<br />

X T ℓ 1Nℓ =<br />

Populaatiovarianssia koskevan kaavan todistamiseksi todetaan ensin, että<br />

Σ = 1<br />

N XT MNX = 1<br />

N XT<br />

<br />

IN − 1<br />

N 1N1 T <br />

N X = 1<br />

N XT X − ξξ T<br />

1 Tämä vastaa matriisia 1<br />

K MK, joka saadaan, kun painot ovat samat.<br />

K<br />

wℓξℓ = Ξw.<br />

ℓ=1


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 77<br />

(vastaten tuttua kaavaa V (x) =E(x2 ) − E(x) 2 )javastaavasti<br />

Σℓ = 1<br />

Xℓ T Xℓ − ξℓξ T<br />

ℓ .<br />

Nyt<br />

ja<br />

1<br />

N XT X = 1 <br />

T X1 ··· X<br />

N<br />

T K<br />

Nℓ<br />

⎛<br />

⎜<br />

⎝<br />

X1<br />

.<br />

XK<br />

⎞<br />

⎟<br />

⎠ = 1<br />

N<br />

K<br />

ℓ=1<br />

X T ℓ Xℓ =<br />

ξξ T = Ξww T Ξ T = −ΞWΞ T + Ξ⌈w⌋Ξ T = −ΞWΞ T +<br />

Yhdistämällä nämä todetaan, että<br />

Σ =<br />

K<br />

ℓ=1<br />

wℓ(Σℓ + ξ ℓξ T<br />

ℓ )+ΞWΞ T −<br />

K<br />

ℓ=1<br />

wℓξ ℓξ T<br />

ℓ =<br />

K<br />

ℓ=1<br />

K<br />

ℓ=1<br />

K<br />

ℓ=1<br />

wℓ<br />

X<br />

Nℓ<br />

T ℓ Xℓ<br />

wℓξ ℓξ T<br />

ℓ .<br />

wℓΣℓ + ΞWΞ T .<br />

ΞWΞ T pitää vielä saada haluttuun summamuotoon. Helpolla laskulla todetaan, että<br />

missä<br />

W = ⌈ √ w⌋−w √ w T ⌈ √ w⌋− √ ww T ,<br />

√ w =<br />

⎛<br />

⎜<br />

⎝<br />

√ w1<br />

.<br />

√ wK<br />

⎞<br />

⎟<br />

⎠<br />

(eli painojen neliöjuurista muodostettu vektori). Näin ollen<br />

ΞWΞ T = Ξ ⌈ √ w⌋−w √ w T √ √ T<br />

⌈ w⌋− ww Ξ T<br />

= Ξ⌈ √ w⌋−ξ √ w T √ √ T T<br />

⌈ w⌋Ξ − wξ <br />

K<br />

= ( √ wℓξℓ − √ wℓξ)( √ wℓξℓ − √ wℓξ) T =<br />

ℓ=1<br />

Kussakin ositteessa suoritetaan tavallinen satunnaisotanta:<br />

K<br />

wℓ(ξℓ − ξ)(ξℓ − ξ) T .<br />

osite no. otosalkiot otoskoko otossuhde otoskeskiarvo otosvarianssi<br />

1 x11,...,x1n1 n1 a1 = n1/N1 x1 S1<br />

2 x21,...,x2n2 n2 a2 = n2/N2 x2 S2<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

K xK1,...,xKnK nK aK = nK/NK xK SK<br />

Ositteille saadaan omat datamatriisit<br />

⎛ ⎞ ⎛<br />

⎜<br />

⎝<br />

x T ℓ1<br />

x T ℓ2<br />

.<br />

x T ℓnℓ<br />

⎟<br />

⎠ =<br />

⎜<br />

⎝<br />

xℓ11 xℓ12 ··· xℓ1k<br />

xℓ21 xℓ22 ··· xℓ2k<br />

.<br />

.<br />

...<br />

xℓnℓ1 xℓnℓ2 ··· xℓnℓk<br />

.<br />

⎞<br />

ℓ=1<br />

⎟<br />

⎠ =merk. xℓ (ℓ =1,...,K)


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 78<br />

ja näistä yhdistämällä taas varsinainen datamatriisi<br />

⎛ ⎞<br />

x =<br />

⎜<br />

⎝<br />

Edelleen<br />

xℓ = 1<br />

x<br />

nℓ<br />

T ℓ 1nℓ ja Sℓ = 1<br />

nℓ − 1 xTℓ Mnℓxℓ. Eri ositteiden satunnaisotannat ovat toisistaan riippumattomat. Edellisen pykälän tulokset soveltuvat<br />

kullekin ositteelle:<br />

E(xℓ) =ξℓ , V(xℓ) = 1<br />

<br />

1 −<br />

nℓ<br />

nℓ<br />

<br />

− 1<br />

Σℓ<br />

Nℓ − 1<br />

ja E(Sℓ) = Nℓ<br />

Nℓ − 1 Σℓ.<br />

Varsinainen otoskeskiarvo on nyt<br />

K<br />

x = wℓxℓ.<br />

w<br />

ℓ=1<br />

2 ℓ<br />

nℓ<br />

ℓ=1<br />

x1<br />

.<br />

xK<br />

⎟<br />

⎠ .<br />

Lause 4.4. E(x) =ξ,ts.xon populaatiokeskiarvon harhaton estimaatti, ja<br />

K<br />

<br />

1<br />

V (x) =<br />

1 − nℓ<br />

<br />

− 1<br />

Σℓ.<br />

Nℓ − 1<br />

Todistus. Edellisen lauseen nojalla<br />

<br />

K<br />

E(x) =E<br />

ℓ=1<br />

wℓxℓ<br />

<br />

=<br />

K<br />

wℓE(xℓ) =<br />

ℓ=1<br />

K<br />

wℓξℓ = ξ.<br />

Nyt w1x1,...,wKxK ovat riippumattomat, sillä otokset eri ositteissa otetaan toisistaan riippumatta.<br />

Koska riippumattomien satunnaisvektorien summan varianssi on satunnaisvektorien<br />

varianssien summa, on<br />

<br />

K<br />

V (x) =V<br />

ℓ=1<br />

wℓxℓ<br />

w<br />

ℓ=1<br />

2 ℓ<br />

nℓ<br />

<br />

=<br />

K<br />

V (wℓxℓ) =<br />

ℓ=1<br />

K<br />

w 2 ℓ V (xℓ) =<br />

ℓ=1<br />

ℓ=1<br />

K<br />

1<br />

w<br />

ℓ=1<br />

2 ℓ<br />

nℓ<br />

<br />

1 − nℓ<br />

<br />

− 1<br />

Σℓ.<br />

Nℓ − 1<br />

Jos N1,...,NK ja n1,...,nK ovat ”kohtalaisen suuria”, ovat x1,...,xK ja (lineaarikombinaationa)<br />

siis myös x likimain multinormaalisti jakautuneita. Näin ollen ξ:n komponenteille<br />

saadaan luotettavuusvälit. V (x):n harhaton estimaatti on<br />

K<br />

<br />

1<br />

1 − nℓ<br />

<br />

− 1<br />

1 −<br />

Nℓ − 1<br />

1<br />

K<br />

Sℓ = w 2 1<br />

ℓ (1 − aℓ)Sℓ.<br />

Menetellään nyt seuraavasti. Etsitään ensin otantasuhteet nℓ/n, missä n = n1 + ···+ nK,<br />

jollakin tavalla (vaihtoehtoja on useita) ja valitaan sen jälkeen itse otoskoko n niin suureksi, että<br />

haluttuun luotettavuuteen päästään. Jos N1,...,NK ja n1,...,nK ovat ”kohtalaisen suuria”,<br />

voidaan tarkkuuden kärsimättä käyttää approksimaatiota<br />

V (x) ∼ K 1<br />

= (1 − aℓ)Σℓ,<br />

Nℓ<br />

w<br />

ℓ=1<br />

2 ℓ<br />

nℓ<br />

jolloin otossuhteiden etsiminen helpottuu. Eri tapoja otantasuhteiden määrittämiseksi ovat mm.<br />

seuraavat.<br />

ℓ=1<br />

nℓ


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 79<br />

Suhdeotanta<br />

Valitaan otantasuhteiksi nℓ/n = wℓ = Nℓ/N . Silloin aℓ = nℓ/Nℓ = n/N = a ja<br />

x = 1<br />

n<br />

K<br />

ℓ=1<br />

nℓxℓ sekä V (x) ∼ = 1<br />

(1 − a)<br />

n<br />

Optimikiintiöinti<br />

K<br />

wℓΣℓ.<br />

Otantasuhteet nℓ/n valitaan siten, että tietty varianssista V (x) (tarkemmin sanoen sen approksimaatiosta)<br />

laskettu vertailusuure minimoituu. Yleisesti 2 tällainen vertailusuure on muotoa<br />

trace(AV (x)),<br />

missä A on annettu positiivisemidefiniitti k × k-matriisi.<br />

Tavallisimmat valinnat ovat muotoa A = ⌈ei⌋, missä ei on vektori, jonka i:s alkio on 1 ja<br />

muut nollia. Tällöin valiutuu vertailusuureeksi V (x):n i:s lävistäjäalkio eli x:n i:nnen alkion varianssi.<br />

Tällainen valinta on paikallaan, jos otantasuureen i:s komponentti on dominoiva ja muut<br />

komponentit ovat vain ”lisätietoa”. Jos taas A = Ik,onvertailusuure V (x):n lävistäjäalkioiden<br />

summa eli x:n komponenttien varianssien summa. Tällainen valinta asettaa otantasuureen eri<br />

komponentit samanarvoiseen asemaan. Toisinaan tärkeä vertailusuure onkin muotoa V (c T x),<br />

missä c on tunnettu vektori. Myös tällöin suure on yo. muotoa, sillä<br />

V (c T x)=c T V (x)c = trace(c T V (x)c) =trace(cc T V (x))<br />

ja valitaan A = cc T . Jos esimerkiksi c = e1 − e2, kohdistuu huomio 1. ja 2. komponentin<br />

erotuksen estimointitarkkuuteen.<br />

Katsotaan tarkemmin vertailusuureen ominaisuuksia.<br />

Apulause. Jos A ja B ovat (samankokoisia) positiivisemidefiniittejä neliömatriiseja ja B on<br />

symmetrinen, niin trace(AB) ≥ 0.<br />

Todistus. Koska B on symmetrinen ja positiivisemidefiniitti, se voidaan kirjoittaa muotoon<br />

B = QQ T .Merkitään Q = <br />

q1 ··· qk . Silloin A:n positiivisemidefiniittisyyden nojalla<br />

qT i Aq T<br />

i ≥ 0 ja<br />

trace(AB) =trace(AQQ T )=trace(Q T AQ) =<br />

ℓ=1<br />

k<br />

q T i Aqi ≥ 0.<br />

Koska varianssimatriisit ovat symmetrisiä ja positiivisemidefiniittejä, on ym. vertailusuure näin<br />

ollen arvoltaan ei-negatiivinen. Merkitään<br />

ja edelleen<br />

τℓ = trace(AΣℓ)<br />

τ =<br />

⎛<br />

⎜<br />

⎝<br />

2 Muussa yhteydessä on myös käytössä vertailusuureena V (x):n determinantti, joka on sopiva erityisesti multinormaalijakauman<br />

yhteydessä, ks. JOHNSON &WICHERN.<br />

τ1<br />

.<br />

τK<br />

⎞<br />

⎟<br />

⎠ .<br />

i=1


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 80<br />

Silloin vertailusuure on (approksimatiivisesti)<br />

trace(AV (x)) ∼ =<br />

K<br />

ℓ=1<br />

w 2 ℓ<br />

1<br />

nℓ<br />

− 1<br />

<br />

τ<br />

Nℓ<br />

2 ℓ<br />

ja otantasuhteet nℓ/n valitaan siten, että se minimoituu ehdoilla<br />

n1,...,nK > 0 ja n1 + ···+ nK = n.<br />

Kyseessä on oikeastaan kokonaislukuoptimointitehtävä muuttujille n1,...,nK (ks. kurssi Matemaattinen<br />

optimointiteoria 2). Jos se ratkaistaan pitämällä muuttujia jatkuvina (Lagrangen<br />

kertoimilla tai kirjoittamalla nK:n paikalle n − n1 −···−nK−1 ja merkitsemällä osittaisderivaatat<br />

nolliksi), saadaan tulos<br />

eli<br />

Edelleen tällöin<br />

V (x) ∼ =<br />

K<br />

ℓ=1<br />

w 2 ℓ<br />

Vertailusuuretta varten lasketaan<br />

<br />

trace A 1<br />

n wT K<br />

τ<br />

jolloin<br />

nℓ = wℓτℓ<br />

K<br />

t=1<br />

nℓ<br />

n<br />

wtτt<br />

n = wℓτℓ<br />

w T τ n<br />

= wℓτℓ<br />

w T τ .<br />

<br />

T w τ 1<br />

− Σℓ =<br />

wℓτℓn Nℓ<br />

1<br />

n wT τ<br />

ℓ=1<br />

wℓ<br />

Σℓ<br />

τℓ<br />

trace(AV (x)) ∼ = 1<br />

n (wT τ ) 2 − 1<br />

N<br />

K<br />

ℓ=1<br />

<br />

= 1<br />

n wT K<br />

τ<br />

K<br />

ℓ=1<br />

ℓ=1<br />

wℓ<br />

τℓ<br />

wℓ<br />

τℓ<br />

Σℓ − 1<br />

N<br />

K<br />

wℓΣℓ.<br />

ℓ=1<br />

τ 2 ℓ = 1<br />

n (wT τ ) 2 ,<br />

wℓτ 2 ℓ = 1<br />

n (wT τ ) 2 − 1<br />

N τ T ⌈w⌋τ .<br />

Sekä suhdeotannassa että optimikiintiöinnissä otoskoon n alaraja määräytyy halutuista luotettavuuksista.<br />

Molemmissa tapauksissa on ratkaistavana muotoa<br />

1<br />

n C1 − 1<br />

N C2 ≤ Vmax eli n ≥<br />

C1<br />

1<br />

N C2 + Vmax<br />

olevia epäyhtälöitä, missä C1 ja C2 ovat ositepainoista ja -variansseista sekä vertailuarvoista<br />

riippuvia vakioita ja Vmax on varianssin yläraja. Jos C1 ja C2 tulevat kerrottua samalla vakiolla<br />

c>1, kasvaa n:n alaraja. Tämä sallii konservatiivisten yläarvioiden käytön ositevariansseille<br />

ja vertailusuureille.<br />

Huomautus. Optimikiintiöinnissä vertailusuureitten sekä suurta luotettavuutta vaativien komponenttien<br />

valinnan tulee olla sopusoinnussa. Ei ole syytä valita eri ositteille tulevien otoskokojen<br />

suhteita sellaisten komponenttien mukaan, joilta ei vaadita suurta luotettavuutta.


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 81<br />

Kun n on saatu, jaetaan se eri ositteille noudattaen mahdollisimman tarkasti saatuja otantasuhteita,<br />

pyöristäen ylöspäin mieluummin kuin alaspäin. Jos otoksesta estimoidut ositevarianssit<br />

sekä niistä saatavat vertailusuureet ovat paljon suurempia kuin otoskokoa määrättäessä arveltiin<br />

tai/ja ovat suhteiltaan arvioiduista paljon poikkeavat, on otosta kasvatettava tai/ja jaettava se eri<br />

tavalla ositteille käyttäen hyväksi näin saatua uutta tietoa.<br />

Vertaillaan vielä keskenään satunnaisotantaa, suhdeotantaa ja optimikiintiöintiä. Koska optimikiintiöinnissä<br />

käytettiin vertailusuureita, käytetään niitä myös tässä ja merkitään<br />

<br />

V1 = trace A 1<br />

<br />

(1 − a)Σ<br />

n<br />

ℓ=1<br />

<br />

= trace A 1<br />

<br />

K<br />

(1 − a)<br />

n<br />

ℓ=1<br />

ℓ=1<br />

wℓΣℓ + ΞWΞ T<br />

= 1<br />

n (1 − a)τ T ⌈w⌋τ + 1<br />

n (1 − a)trace(AΞWΞT )<br />

(vertailusuure satunnaisotannassa ilman ositteisiinjakoa),<br />

<br />

V2 = trace A 1<br />

K<br />

<br />

(1 − a) wℓΣℓ =<br />

n 1<br />

K<br />

(1 − a) wℓτ<br />

n 2 ℓ = 1<br />

n (1 − a)τ T ⌈w⌋τ<br />

(vertailusuure suhdeotannassa) sekä<br />

V3 = 1<br />

n (wT τ ) 2 − 1<br />

N τ T ⌈w⌋τ<br />

(vertailusuure optimikiintiöinnissä). Otoskoko on kaikissa n. Huomaa, että on käytetty approksimatiivisia<br />

V (x):n lausekkeita.<br />

Lause 4.5. (i) V1 = V2 + 1<br />

n (1 − a)trace(AΞWΞT ) ≥ V2<br />

(ii) V2 = V3 + 1<br />

n τ T Wτ ≥ V3<br />

Todistus. (i) Edellä olevan Apulauseen nojalla trace(AΞWΞ T ) ≥ 0, sillä<br />

<br />

W = ⌈ √ w⌋−w √ w T √ √ T<br />

⌈ w⌋− ww <br />

on symmetrinen ja positiivisemidefiniitti ja näin ollen sitä on myös ΞWΞ T .<br />

(ii) Suoraan laskien todetaan, että<br />

<br />

1 1<br />

V2 = − τ<br />

n N<br />

T ⌈w⌋τ = 1<br />

n (wT τ ) 2 − 1<br />

N τ T ⌈w⌋τ + 1<br />

n τ T ⌈w⌋τ − 1<br />

n τ T ww T τ<br />

= V3 + 1<br />

n τ T Wτ<br />

Toisaalta W on positiivisemidefiniitti (edellinen kohta), joten τ T Wτ ≥ 0.<br />

Huomautus. Jos käytetään tarkkoja V (x):n lausekkeita approksimatiivisten sijasta, eivät lauseen<br />

arviot pidä tarkasti paikkaansa. Itse asiassa on eräitä (harvinaisia) tilanteita, joissa pienille<br />

populaatioille ositettu otanta tuottaa näin laskien hieman huonomman tuloksen kuin satunnaisotanta.<br />

(Ks. esimerkiksi COCHRAN.)


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 82<br />

Jos nyt τ ∼ = c1K, ts. vertailusuureilla τℓ ei ole kummempia eroja, niin<br />

1<br />

n τ T Wτ ∼ = c2<br />

n 1TKW1K =0,<br />

jolloin Lauseen 4.5 nojalla V3 ∼ = V2. Edelleen, jos AΞ ∼ = d1 T<br />

K, ts. A:lla kerrotut ositekeskiarvot<br />

ovat kutakuinkin samat, niin<br />

AΞWΞ T ∼ T<br />

= d1KWΞ T = OK,<br />

jolloin Lauseen 4.5 nojalla V2 ∼ = V1.<br />

Edellä olevan nojalla voidaan tehdä seuraavat johtopäätökset:<br />

1. Jos A:lla kerrotuissa ositekeskiarvoissa tai/ja vertailusuureissa ei ole kummempia eroja,<br />

ei ositettu otanta tuota satunnaisotantaa parempia tuloksia.<br />

2. Jos A:lla kerrotuissa ositekeskiarvoissa on eroja, tuottaa suhdeotanta satunnaisotantaa<br />

parempia tuloksia, samoin tietysti optimikiintiöinti.<br />

3. Jos A:lla kerrotuissa ositekeskiarvoissa ei ole eroja, mutta vertailusuureissa on, tuottaa<br />

optimikiintiöinti satunnaisotantaa paremman tuloksen, suhdeotanta sen sijaan ei.<br />

Käytännössä ei suhdeotannan ja optimikiintiöinnin välillä useinkaan ole kovin suurta eroa. Näin<br />

ollen, jos joudutaan suunnittelemaan ositettu otanta tilanteessa, jossa komponenttien ositevariansseille<br />

voidaan arvioida ylärajat, mutta niiden tai vertailusuureiden keskinäisistä suhteista<br />

ei ole tietoa, kannattaa käyttää suhdeotantaa.<br />

Huomautus. Pelkästään se tieto, että ositettu otanta ei voi tuottaa huonompaa tulosta kuin<br />

satunnaisotanta, on toisinaan arvokas. Ositettu otanta saattaa nimittäin tarjoutua luonnostaan<br />

otannan menetelmäksi.<br />

Optimikiintiöinti kustannuksin<br />

Jos käytössä on otantaa varten varattuna kiinteä rahasumma c sekä otannan kustannusfunktio<br />

f(n1,...,nK),onotoskoot nℓ valittava luonnollisesti siten, että vertailusuure<br />

trace(AV (x)) ∼ K<br />

= w 2 <br />

1<br />

ℓ −<br />

nℓ<br />

1<br />

<br />

τ<br />

Nℓ<br />

2 ℓ<br />

ℓ=1<br />

minimoituu ehdoilla<br />

n1,...,nK > 0 ja f(n1,...,nK) ≤ c.<br />

Kyseessä on kokonaislukuoptimointitehtävä, joka käytännössä ratkaistaan pitämällä muuttujia<br />

jatkuvina ja pyöristämällä saadut arvot kokonaisluvuiksi. Tilannetta helpottaa se, että kustannusfunktiot<br />

ovat monotonisia, ts. minkä tahansa muuttujan nℓ arvon kasvattaminen lisää kustannuksia.<br />

Yksinkertaisin kustannusfunktio on tietysti<br />

f(n1,...,nK) =c0 + c1n1 + ···+ cKnK,<br />

missä c0 muodostuu yleiskuluista ja cℓ otosalkiota kohti lasketuista kustannuksista ℓ:nnessä<br />

ositteessa. Minimointi voidaan suorittaa samaan tapaan kuin optimikiintiöinnissä ja tulos on<br />

nℓ =<br />

wℓτℓ<br />

√cℓ<br />

K<br />

t=1<br />

wtτt<br />

√ct<br />

n


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 83<br />

missä n = n1 + ···+ nK. Jos c1 = ···= cK, niin päädytään ”tavalliseen” optimikiintiöintiin.<br />

Mutkikkaampia kustannusfunktioita käytettäessä optimointi suoritetaan tietokoneella. Eräs<br />

tällainen mutkikkaampi kustannusfunktio on<br />

√ √<br />

f(n1,...,nK) =c0 + c1 n1 + ···+ cK nK,<br />

jota käytetään mallintamaan (karkeasti) tilannetta, missä ositteiden otantakustannukset kasvavat<br />

hitaammin kuin lineaarisesti otoskoon funktiona. Usein mainitaan perusteluna tällaisen kustannusfunktion<br />

käytölle klassinen tulos 3 , jonka mukaan m kaupungin kautta kiertävän lyhimmän<br />

reitin pituus (ns. kaupparatsuprobleema, ks. kurssi Matemaattinen optimointiteoria 2 tai Graafiteoria)<br />

on keskimäärin suuruusluokkaa C √ m, missä C on vakio. Tällöin ajatellaan kustannusten<br />

pääosin aiheutuvan otokseen tulleiden ositealkioiden välisistä matkoista.<br />

Populaatiovarianssille saadaan (harhainen) estimaatti sijoittamalla saadut ositekeskiarvojen<br />

estimaatit (eli xℓ:t) sekä ositevarianssien estimaatit (eli (1 − 1/Nℓ)Sℓ:t) populaatiovarianssin<br />

kaavaan. Vastaavalla tavalla saadaan estimaatit V (x):lle sekä vertailusuureille trace(AV (x)) ja<br />

τ .<br />

4.3 Yksiasteinen otanta. Systemaattinen otanta<br />

Kuten ositetussa otannassa, populaatio ajatellaan jaetuksi osiin. Sen sijaan, että otettaisiin kussakin<br />

ositteessa satunnaisotos, otetaankin satunnaisotos ositteista ja otokseen tulleet ositteet tutkitaan<br />

kokonaan. Tässä yhteydessä ositteita kutsutaan rypäiksi ja puhutaan ryväsotannasta eli<br />

yksiasteisesta otannasta.<br />

Jatkossa tarkastellaan vain tapausta, jossa rypäät ovat samankokoiset. (Yleisempi tapaus,<br />

jossa rypäät voivat olla erikokoiset, on huomattavasti mutkikkaampi, ks. COCHRAN.) Merkitään<br />

rypäiden yhteistä alkiolukua M:llä.<br />

Koska otanta suoritetaan varsinaisesti rypäiden joukossa, merkitään rypäiden lukumäärää<br />

N:llä. Näin ollen populaatioalkioiden lukumäärä on NM.<br />

Ryväskeskiarvot ovat<br />

missä<br />

ryväs no. ryväsalkiot ryväskeskiarvo ryväsvarianssi<br />

1 X11,...,X1M Y1 Σ1<br />

2 X21,...,X2M Y2 Σ2<br />

on ryväsmatriisi. Ryväsvarianssit ovat<br />

.<br />

.<br />

.<br />

.<br />

N XN1,...,XNM YN ΣN<br />

Yℓ = 1<br />

M XT ℓ 1M,<br />

Xℓ =<br />

⎛<br />

⎜<br />

⎝<br />

X T ℓ1<br />

.<br />

X T ℓM<br />

⎞<br />

⎟<br />

⎠<br />

Σℓ = 1<br />

M XT ℓ MMXℓ.<br />

3 BEARDWOOD, J.&HALTON, J.H. & HAMMERSLEY, J.M.: The Shortest Path Through Many Points.<br />

Proceedings of the Cambridge Philosophical Society 55 (1950), 299–327


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 84<br />

Merkitään vielä<br />

Y =<br />

⎛<br />

⎜<br />

⎝<br />

Edellä olleista tuloksista saadaan silloin suoraan kaavat populaatiokeskiarvolle ξ ja -varianssille<br />

Σ sijoittamalla vain Ξ = YT , w = 1<br />

N 1N ja W = 1<br />

N MN:<br />

Y T 1<br />

.<br />

Y T N<br />

ξ = 1<br />

N YT 1N ja Σ = 1<br />

N<br />

⎞<br />

⎟<br />

⎠ .<br />

N<br />

ℓ=1<br />

Σℓ + 1<br />

N YT MNY<br />

(vm. on taas muotoa ”rypäiden sisäinen varianssi + rypäiden välinen varianssi”).<br />

Ajatellaan rypäät (N kpl) populaatioksi, josta otetaan n rypään satunnaisotos. Rypääseen<br />

liittyväksi numeeriseksi suurevektoriksi ajatellaan sen ryväskeskiarvo. Näin saadaan n alkion<br />

satunnaisotos (yksiasteinen otanta)<br />

y1,...,yn,<br />

josta muodostetaan datamatriisi<br />

y =<br />

ja otoskeskiarvo<br />

y = 1<br />

n yT 1n.<br />

Lauseen 4.1 nojalla<br />

E(y) = 1<br />

N YT 1N = ξ,<br />

ts. y on populaatiokeskiarvon harhaton estimaatti.<br />

Huomautus. Jos rypäät olisivat erikokoisia, niin w olisi = 1<br />

N 1N ja ξ = YT w olisi = 1<br />

Tässä tapauksessa y olisikin harhainen ξ:n estimaatti!<br />

Vastaavasti Lauseen 4.1 nojalla<br />

V (y) = 1<br />

n<br />

<br />

1 −<br />

⎛<br />

⎜<br />

⎝<br />

y T 1<br />

.<br />

y T n<br />

⎞<br />

⎟<br />

⎠<br />

<br />

n − 1 1<br />

N − 1 N YT MNY.<br />

N YT 1N.<br />

y:n varianssi ei siis riipu rypäiden sisäisistä variansseista. Näin pitää ollakin, sillä otokseen<br />

tulleet rypäät tutkitaan kokonaan. Jos V (y) halutaan ilmaista populaatiovarianssin Σ avulla,<br />

tulee mukaan uusi suure, ns. rypäänsisäinen kovarianssi<br />

Γ =<br />

1<br />

NM(M − 1)<br />

N<br />

(X T ℓ − ξ1 T M)KM(Xℓ − 1Mξ T )<br />

ℓ=1<br />

(vrt. pykälässä 1 oleva otoksen kovarianssi). Koska<br />

saadaan laskien<br />

KM = −MM +<br />

M − 1<br />

M JM,


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 85<br />

Näin ollen<br />

ja saadaan haluttu kaava:<br />

Lause 4.6. V (y) = 1<br />

nM<br />

1<br />

Γ = −<br />

NM(M − 1)<br />

+ 1<br />

NM 2<br />

N<br />

(X T ℓ − ξ1 T M)MM(Xℓ − 1Mξ T )<br />

ℓ=1<br />

N<br />

(X T ℓ − ξ1 T M)1M1 T M(Xℓ − 1Mξ T )<br />

ℓ=1<br />

1<br />

= −<br />

NM(M − 1)<br />

+ 1<br />

NM 2<br />

N<br />

ℓ=1<br />

X T ℓ MMXℓ<br />

N<br />

(X T ℓ 1M − Mξ)(1 T MXℓ − Mξ T )<br />

ℓ=1<br />

1<br />

= −<br />

N(M − 1)<br />

= − 1<br />

Σ +<br />

M − 1<br />

= − 1<br />

Σ +<br />

M − 1<br />

<br />

1 −<br />

N<br />

ℓ=1<br />

Y T MNY =<br />

Vastaava varianssi satunnaisotannassa on<br />

Σℓ + 1<br />

N<br />

N<br />

(Yℓ − ξ)(Yℓ − ξ) T<br />

ℓ=1<br />

1<br />

N(M − 1) YT MNY + 1<br />

M<br />

N(M − 1) YT MNY.<br />

N(M − 1)<br />

M<br />

<br />

n − 1<br />

((M − 1)Γ + Σ)<br />

N − 1<br />

V (x) = 1<br />

nM<br />

<br />

1 −<br />

N<br />

Γ +<br />

M Σ<br />

<br />

nM − 1<br />

Σ.<br />

NM − 1<br />

Jotta vertailusuure trace(AV (y)) olisi ≤ trace(AV (x)), onoltava<br />

1<br />

((M − 1)trace(AΓ)+trace(AΣ)) ≤<br />

N − 1 M<br />

N YT MNY<br />

NM − 1 trace(AΣ)<br />

eli<br />

1<br />

trace(AΓ) ≤−<br />

NM − 1 trace(AΣ)<br />

(tai N = n tai M =1, mutta nämä eivät yleensä tule kysymykseen).<br />

Käytännössä trace(AΓ) on (yleensä) positiivinen, jolloin yksiasteinen otanta on satunnaisotantaa<br />

huonompi. Toisaalta se on myös (yleensä) sitä halvempi.<br />

V (y):tä käytetään otoksen suunnitteluun samaan tapaan kuin satunnaisotannassa. Vähääkään<br />

suuremmille n:n arvoille y on likimain multinormaalisti jakautunut. Halutuista luotettavuuksista<br />

määräytyy (eräille) V (y):n lävistäjäalkioille maksimiarvo(t). Jos saadaan arvioiduksi<br />

ylärajat ryväskeskiarvojen varianssin<br />

1<br />

N YT <br />

MNY = 1 − 1<br />

<br />

Γ +<br />

M<br />

1<br />

M Σ


LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 86<br />

(tai Σ:n ja Γ:n) vastaaville alkioille, saadaan ratkaistuksi pienin otoskoko n, jne. Jos otoksesta<br />

estimoidun ryväskeskiarvojen varianssin<br />

<br />

1 − 1<br />

<br />

1<br />

N n − 1 yT Mny<br />

lävistäjäalkiot ovat huomattavasti arvioitua suuremmat, on otosta kasvatettava.<br />

Merkitään otokseen tulleiden rypäiden ryväsvariansseja symbolein s1,...,sn. Silloin<br />

n<br />

<br />

1<br />

si + 1 −<br />

n<br />

i=1<br />

1<br />

<br />

1<br />

N n − 1 yT Mny<br />

on populaatiovarianssin harhaton estimaatti, sitä parempi mitä suurempi n on. V (y):n harhaton<br />

estimaatti on puolestaan<br />

1<br />

<br />

1 −<br />

n<br />

n<br />

<br />

1<br />

N n − 1 yT Mny.<br />

Erityinen yksiasteisen otannan laji on systemaattinen otanta. Systemaattisen otannan populaatio<br />

on jonomuodossa<br />

X1, X2,...,XNM.<br />

Jako rypäisiin on seuraava:<br />

ryväs no. ryväsalkiot ryväskeskiarvo<br />

1 X1XN+1, X2N+1,...,X(M−1)N+1 Y1<br />

2 X2XN+2, X2N+2,...,X(M−1)N+2 Y2<br />

.<br />

.<br />

.<br />

N XNX2N, X3N,...,XMN YN<br />

Otokseen valitaan yksi ryväs, ts. n = 1. Käytännössä valitaan satunnaisesti jokin alkioista<br />

X1,...,XN ja sen jälkeen joka N:s alkio. Populaatiokeskiarvon ξ harhaton estimaatti on valitun<br />

rypään ryväskeskiarvo y ja sen varianssi on<br />

V (y) = 1<br />

N YT MNY = 1<br />

((M − 1)Γ + Σ).<br />

M<br />

Systemaattinen otanta antaa vähintään yhtä hyvän tuloksen kuin satunnaisotanta, jos<br />

1<br />

trace(AΓ) ≤−<br />

NM − 1 trace(AΣ).<br />

Käytännössä, kuten yksiasteisessa otannassa yleensä, trace(AΓ) > 0, joten tulos on huonompi<br />

kuin satunnaisotannassa. Toisaalta systemaattinen otanta on usein yksinkertainen ja halpa<br />

otantamuoto, lisäksi helposti automatisoitavissa toisin kuin satunnaisotanta.<br />

Populaatiovarianssille tai V (y):lle ei systemaattisesta otoksesta saada estimaattia. Tähän<br />

tarvitaan useamman rypään otos. (Yo. kaavatkaan eivät ole tarkoitetut n:n arvolle 1.)<br />

Huomautus. Systemaattinen otanta on eräs ns. jono-otantamenetelmistä, joissa populaatio on<br />

jonomuotoinen ja otosalkiot otetaan jonosta järjestyksessä. Otoskoko ei useinkaan ole ennalta<br />

määrätty, vaan otantaa jatketaan kunnes haluttu tarkkuus tms. tavoite on saavutettu. (Ks. kurssi<br />

Tilastollinen laadunvalvonta.)<br />

Yksiasteista otantaa (tai ositettua otantaa) yleistäen saadaan erilaiset moniasteiset otannat.<br />

Esimerkiksi kaksiasteisessa otannassa otetaan ositteiden eli rypäiden joukosta satunnaisotos ja<br />

otokseen tulleista rypäistä taas satunnaisotos kustakin. Tällaiseen otantaan liittyvät varianssilausekkeet<br />

ovat varsin mutkikkaita ja työläitä johtaa. Lisäksi otoskoon määrääminen ja kiintiöinti<br />

ovat suuritöisiä ja vaativat paljon esitietoja. Tulos on toisaalta hyvä otantakustannuksiin<br />

nähden. Yksinkertaisin tapaus on kaksiasteinen otanta, kun rypäät ovat samankokoiset ja niistä<br />

otetaan yhtäsuuret otokset. (Ks. RAJ tai COCHRAN.)


LIITE A: Matriisilaskentaa<br />

Tässä kerrataan ja käsitellään lyhyesti eräitä tilastollisten monimuuttujamenetelmien tarvitsemia<br />

matriisilaskennan käsitteitä.<br />

Aluksi eräitä määritelmiä. Neliömatriisi A on symmetrinen, jos A T = A, ja idempotentti,<br />

josA 2 = A. Idempotentin matriisin ainoat mahdolliset ominaisarvot ovat0ja1, sillä josAx =<br />

λx, niin myös A 2 x = λx ja toisaalta A 2 x = λAx = λ 2 x, joten λ 2 = λ. Jos symmetrinen<br />

matriisi on ei-singuläärinen, niin sen käänteismatriisi on myös symmetrinen.<br />

Matriisin rivirangi (vast. sarakerangi) on sen suurin lineaarisesti riippumattomien rivien<br />

(vast. sarakkeiden) lukumäärä. Tunnetusti matriisin A rivi- ja sarakerangit ovat samat, tätä yhteistä<br />

arvoa kutsutaan matriisin asteeksi eli rangiksi, merkitään rank(A). Edelleen symmetrisen<br />

neliömatriisin rangi on sen nollasta eroavien ominaisarvojen lukumäärä (moninkertaiset<br />

ominaisarvot otetaan mukaan kertalukunsa osoittama määrä). Näin ollen symmetrisen idempotentin<br />

matriisin rangi on sen 1-ominaisarvojen lukumäärä.<br />

Neliömatriisin A jälki, merkitään trace(A), on sen lävistäjäalkioiden summa. Jäljellä on<br />

seuraavat ominaisuudet:<br />

1. trace(A+B) = trace(A)+trace(A);<br />

2. trace(cA) = ctrace(A) (c on skalaari);<br />

3. trace(A T ) = trace(A);<br />

4. trace(AB) = trace(BA);<br />

5. trace(AB T ) =<br />

n<br />

i=1<br />

m<br />

aijbij, kun A = (aij) jaB = (bij) ovatn×m-matriiseja;<br />

j=1<br />

6. trace(A) onA:n ominaisarvojen summa neliömatriisilleA.<br />

Ominaisuudesta 6. johtuen symmetrisen idempotentin matriisin rangi on sen jälki.<br />

Merkitään0n:llän-vektoria, jonka kaikki alkiot ovat nollia (nollavektori),1n:llän-vektoria,<br />

jonka kaikki alkiot ovat ykkösiä (ykkösvektori), On:llä n × n-matriisia, jonka kaikki alkiot<br />

ovat nollia (nollamatriisi), ja vieläIn:llän×n-identiteettimatriisia. Seuraavia erikoismatriiseja<br />

tarvitaan usein:<br />

Jn = 1 T n 1n , Kn = Jn −In , Mn = In − 1<br />

n Jn<br />

(Jn onn×n-matriisi, jonka kaikki alkiot ovat ykkösiä). Nämä matriisit saa helposti käyttöönsä<br />

Matlabilla:<br />

»n=5;<br />

»I=eye(n)<br />

I =<br />

87


1 0 0 0 0<br />

0 1 0 0 0<br />

0 0 1 0 0<br />

0 0 0 1 0<br />

0 0 0 0 1<br />

»u=ones(n,1)<br />

u =<br />

1<br />

1<br />

1<br />

1<br />

1<br />

»J=ones(n)<br />

J =<br />

1 1 1 1 1<br />

1 1 1 1 1<br />

1 1 1 1 1<br />

1 1 1 1 1<br />

1 1 1 1 1<br />

»K=ones(n)-eye(n)<br />

K =<br />

0 1 1 1 1<br />

1 0 1 1 1<br />

1 1 0 1 1<br />

1 1 1 0 1<br />

1 1 1 1 0<br />

»M=eye(n)-ones(n)/n<br />

M =<br />

0.8000 -0.2000 -0.2000 -0.2000 -0.2000<br />

-0.2000 0.8000 -0.2000 -0.2000 -0.2000<br />

-0.2000 -0.2000 0.8000 -0.2000 -0.2000<br />

-0.2000 -0.2000 -0.2000 0.8000 -0.2000<br />

-0.2000 -0.2000 -0.2000 -0.2000 0.8000<br />

Matriisit Jn, Kn ja Mn ovat ilmeisesti symmetrisiä. Seuraavat ominaisuudet ovat todettavissa<br />

helpolla laskulla:<br />

(i) 1 T n 1n = n<br />

(ii) Jn1n = n1n<br />

(iii) Kn1n = (n−1)1n<br />

(iv) Mn1n = 0n<br />

(v) J 2 n = nJn<br />

(vi) K 2 n = (n−1)Jn −Kn<br />

(vii) M 2 n = Mn (eli Mn on idempotentti)<br />

(viii) JnKn = (n−1)Jn<br />

(ix) JnMn = On<br />

(x) KnMn = −Mn<br />

(xi) n(Kn +Mn) = (n−1)Jn<br />

Matriiseja on usein edullista käsitellä jaettuina lohkoihin:<br />

⎛ ⎞<br />

⎜<br />

A = ⎜<br />

⎝<br />

A11 A12 ··· A1k<br />

A21 A22 ··· A2k<br />

.<br />

.<br />

. ..<br />

Aℓ1 Aℓ2 ··· Aℓk<br />

Lohkomuodossa olevien matriisien transpoosi ja tulo saadaan suoraan lohkojen avulla:<br />

.<br />

⎟<br />

⎠ .<br />

88


ja<br />

⎛<br />

⎜<br />

⎝<br />

missä<br />

⎛<br />

⎜<br />

⎝<br />

A11 A12 ··· A1k<br />

A21 A22 ··· A2k<br />

.<br />

.<br />

.. .<br />

Aℓ1 Aℓ2 ··· Aℓk<br />

A11 A12 ··· A1k<br />

A21 A22 ··· A2k<br />

.<br />

.<br />

. ..<br />

Aℓ1 Aℓ2 ··· Aℓk<br />

.<br />

⎞⎛<br />

⎟⎜<br />

⎟⎜<br />

⎟⎜<br />

⎠⎝<br />

.<br />

⎞<br />

T<br />

⎛<br />

A T 11 AT 21 ··· A T ℓ1<br />

A T 1k AT 2k ··· A T ℓk<br />

⎞<br />

⎟ ⎜<br />

⎟ ⎜ A<br />

⎟ = ⎜<br />

⎠ ⎝<br />

T 12 AT 22 ··· AT ⎟<br />

ℓ2 ⎟<br />

.<br />

. . ..<br />

⎟<br />

. ⎠<br />

B11 B12 ··· B1m<br />

B21 B22 ··· B2m<br />

.<br />

.<br />

.. .<br />

Bk1 Bk2 ··· Bkm<br />

Cij =<br />

k<br />

t=1<br />

.<br />

AitBtj<br />

⎞<br />

⎛<br />

⎟<br />

⎠ =<br />

⎜<br />

⎝<br />

C11 C12 ··· C1m<br />

C21 C22 ··· C2m<br />

.<br />

.<br />

.. .<br />

Cℓ1 Cℓ2 ··· Cℓm<br />

(huomaa kertojärjestys), olettaen että kaikki esiintyvät matriisikertolaskut ovat määriteltyjä.<br />

Lohkokertosääntö muistuttaa ”tavallista” matriisien kertosääntöä(aij)(bij) = (cij), missäcij =<br />

k<br />

t=1 aitbtj, ja voidaan sitä käyttäen todistaa helposti. Eräs erikoistapaus on ns. toinen matriisi-<br />

kertosääntö<br />

a1 a2 ··· ak<br />

⎛<br />

⎜<br />

⎝<br />

b T 1<br />

b T 2<br />

.<br />

b T k<br />

⎞<br />

⎟<br />

⎠ =<br />

k<br />

atb T t .<br />

Summalausekkeet ja matriisit liittyvät toisiinsa seuraavilla kaavoilla, jotka ovat helposti todettavissa.<br />

Merkitään<br />

⎛ ⎞<br />

Silloin<br />

1. 1<br />

k A1k = 1<br />

k<br />

2. 1<br />

k 1T 1<br />

kB =<br />

k<br />

3. AJkB =<br />

4. AKkB =<br />

A = a1 a2 ··· ak<br />

<br />

t=1<br />

⎜<br />

ja B = ⎜<br />

⎝<br />

k<br />

at (ns.A:n sarakekeskiarvo, merkitääna);<br />

t=1<br />

k<br />

t=1<br />

k<br />

t=1<br />

k<br />

t=1<br />

b T t (ns. B:n rivikeskiarvo, merkitäänbT );<br />

k<br />

s=1<br />

k<br />

s=1<br />

s=t<br />

5. AMk = A − a1T k<br />

sarakkeet);<br />

atb T s ;<br />

atb T s ;<br />

b T 1<br />

b T 2<br />

.<br />

b T k<br />

⎟<br />

⎠ .<br />

.<br />

⎞<br />

⎟<br />

⎠ ,<br />

(vähennetään A:n sarakkeista sen sarakekeskiarvo eli keskitetään<br />

89


6. MkB = B−1kb T (vähennetään B:n riveistä sen rivikeskiarvo eli keskitetään rivit);<br />

7. AMkB = AM 2<br />

k B = (A−a1T k )(B−1kb T ).<br />

Kohdan 7. seurauksena erikoisesti<br />

AMkA T = (A−a1 T k )(A−a1T k )T .<br />

90


LIITE B: Multinormaalijakauma<br />

Satunnaisvektorillax (n-vektori) on ns. multinormaalijakaumaN(µ,Σ), jos sen tiheysfunktio<br />

on<br />

f(x) =<br />

1<br />

(2π) n/2det(Σ) e−12<br />

(x−µ)TΣ−1 (x−µ)<br />

.<br />

Tässä µ = E(x) (odotusarvo(vektori)) ja Σ = V(x) (varianssi(matriisi)). Mikäli µ = 0n ja<br />

Σ = In, on kyseessä ns. standardimultinormaalijakauma.<br />

Todetaan seuraavat multinormaalijakauman ominaisuudet:<br />

1. Josx:llä onn-ulotteinenN(µ,Σ)-jakauma,Conm×n-matriisi, jonka rivirangi on täysi<br />

(eli m), ja b on m-vektori, niin satunnaisvektorilla Cx + b on m-ulotteinen N(Cµ +<br />

b,CΣC T )-jakauma.<br />

2. Josx:llä onn-ulotteinenN(µ,Σ)-jakauma,C1 onm1×n-matriisi,C2 onm2×n-matriisi,<br />

b1 onm1-vektori jab2 onm2-vektori, niin satunnaisvektoritC1x+b1 jaC2x+b2 ovat<br />

riippumattomat tarkalleen silloin, kunC1ΣC T 2 = O.<br />

3. Josx:llä onn-ulotteinenN(µ1n,σ 2 In)-jakauma jas 2 = 1<br />

n−1 xT Mnx (otosvarianssi), niin<br />

satunnaismuuttujalla<br />

s 2 (n−1)<br />

σ 2<br />

onχ 2 -jakauman−1vapausasteella.<br />

4. Jos x:llä on n-ulotteinen N(µ1n,σ 2 In)-jakauma, x = 1<br />

n 1T n x (otoskeskiarvo) ja s2 =<br />

1<br />

n−1 xT Mnx (otosvarianssi) niin satunnaismuuttujalla<br />

(x−µ) √ n<br />

s<br />

on t-jakauman−1 vapausasteella. (Huomaa, että(x−µ) √ n/σ on standardinormaalisti<br />

jakautunut ja s 2 (n − 1)/σ 2 on χ 2 -jakautunut n − 1 vapausasteella ja että nämä satunnaismuuttujat<br />

ovat riippumattomat. Yleisesti, jos u on standardinormaalisti jakautunut,<br />

v on χ 2 -jakautunut m vapausasteella ja u ja v ovat riippumattomat, niin u √ m/ √ v on<br />

t-jakautunutm vapausasteella.)<br />

5. Jos x1:llä on n1-ulotteinen N(µ11n1,σ 2 In1)-jakauma, x2:llä on n2-ulotteinen N(µ21n2,<br />

σ 2 In2)-jakauma sekäx1 jax2 ovat riippumattomat, niin satunnaismuuttujalla<br />

x T 1 Mn1x1(n2 −1)<br />

x T 2 Mn2x2(n1 −1)<br />

on F-jakauma vapausasteinn1−1 jan2−1. (Huomaa, ettäx T 1Mn1x1/σ 2 jax T 2Mn2x2/σ 2<br />

ovat riippumattomatχ 2 -jakautuneet satunnaismuuttujat vapausasteinn1−1 jan2−1, vastaavasti.<br />

Yleisesti riippumattomien, vapausastein m1 ja m2 χ 2 -jakautuneiden vapausasteillaan<br />

jaettujen satunnaismuuttujien osamäärä on F-jakautunut vapausasteinm1 jam2.)<br />

91


Kirjallisuus<br />

1. BARNETT, V.: Sample Survey Principles and Methods. Edward Arnold (1991)<br />

2. BOX, G.E.P. & DRAPER, N.R.: Empirical Model-Building and Response Surfaces. Wiley<br />

(1987)<br />

3. BOX, G.E.P. & HUNTER, W.G. & HUNTER, J.S.: Statistics for Experimenters. Wiley<br />

(1978)<br />

4. CHRISTENSEN, R.: Plane Answers to Complex Questions. The Theory of Linear Models.<br />

Springer–Verlag (1996)<br />

5. COCHRAN, W.G.: Sampling Techniques. Wiley (1977)<br />

6. DAVIES, O.L. (toim.): The Design and Analysis of Industrial Experiments. Oliver and<br />

Boyd (1967)<br />

7. DRAPER, N.R. & SMITH, H.: Applied Regression Analysis. Wiley (1998)<br />

8. EVERITT, B.S & DUNN, G.: Applied Multivariate Data Analysis. Arnold (2001)<br />

9. GUENTHER, W.C.: Analysis of Variance. Prentice–Hall (1964)<br />

10. JOHN, P.W.M.: Statistical Design and Analysis of Experiments. SIAM (1998)<br />

11. JOHNSON, R.A. & WICHERN, D.W.: Applied Multivariate Statistical Analysis. Prentice–Hall<br />

(1998)<br />

12. JOHNSTON, J.: Econometric Methods. McGraw–Hill (1996)<br />

13. KHURI, A.I. & CORNELL, J.A.: Response Surfaces. Designs and Analyses. Marcel Dekker<br />

(1996)<br />

14. KRISHNAIAH, P.R. & RAO, C.R. (toim.): Sampling. Handbook of Statistics. Vol. 6.<br />

North–Holland (1988)<br />

15. MYERS, R.H. & MONTGOMERY, D.C.: Response Surface Methodology. Process and<br />

Product Optimization Using Designed Experiments. Wiley (1995)<br />

16. MONTGOMERY, D.C.: Design and Analysis of Experiments. Wiley (1996)<br />

17. PAHKINEN, E. & LEHTONEN, R.: Otanta-asetelmat ja tilastollinen analyysi. Gaudeamus<br />

(1989)<br />

18. RAJ, D.: Sampling Theory. McGraw–Hill (1968)<br />

92


Hakemisto<br />

2 k -kokeet 25<br />

3 k -kokeet 31<br />

affiinimuunnos 16<br />

aksiaaliosa 32<br />

alias 26<br />

aliasmatriisi 13<br />

aliastaulu 26<br />

alipopulaatio 75<br />

ANOVA 7<br />

askeltava regressio 15<br />

aste 87<br />

Bartlettin testi 53<br />

Bonferronin sääntö 5, 46, 75<br />

Boxin F-jakauma-approksimaatio 55<br />

CCD-koe 31<br />

Cramer–von Mises-testi 52<br />

datamatriisi 2, 72, 84<br />

determinaatiokerroin 12<br />

dikotomiafaktori 42<br />

Duncanin vaihteluvälitesti 49<br />

Dunnettin testi 49<br />

ennustaminen 2<br />

epäadditiivisuus 61<br />

epänormaalisuus 51<br />

epäsopivuuden keskineliö 15<br />

epäsopivuuden neliösumma 14<br />

epäsopivuus 12<br />

epätasapainoinen koe 43<br />

faktori 1<br />

faktoriaaliosa 32<br />

faktorin kielto 26<br />

gradienttimenetelmä 34<br />

Hadamardin matriisi 23<br />

harju 37<br />

heterogeeninen varianssi 53<br />

hyperneliökoe 70<br />

hypoteesin testaus 7, 45<br />

I tyypin virhe 5<br />

idempotentti matriisi 87<br />

intervalliasteikko 40<br />

jono-otanta 86<br />

jälki 87<br />

järjestyserotus 50<br />

kaksiasteinen otanta 86<br />

kanoninen muoto 38<br />

kanonisointi 37<br />

kategorisointi 43<br />

keskineliö 12<br />

keskittäminen 89<br />

keskitysmatriisi 11<br />

keskivaste 45<br />

keskusosa 32<br />

kiertosymmetrinen suunnittelu 21, 29<br />

kokeen resoluutio 26<br />

kokonaiskeskineliö 12, 41, 58, 66<br />

kokonaisneliösumma 11, 41<br />

Kolmogorov–Smirnov-testi 52<br />

kontrasti 45<br />

kontrastimatriisi 45<br />

kontrastin neliösumma 46<br />

kontrastinormi 47<br />

koodaus 18<br />

korjattu determinaatiokerroin 12<br />

korrelaatiokerroin 73<br />

korrelointi 52<br />

kreikkalais-roomalainen neliö 69<br />

kriittinen piste 36<br />

kriittinen väli 50<br />

Kronecker-tulo s23<br />

kustannusfunktio 82<br />

kvalitatiivinen faktori 40<br />

käsittely 40<br />

käsittelyjen keskineliö 41, 58, 66<br />

käsittelyjen neliösumma 41<br />

latinalainen neliö 63<br />

lineaarinen hypoteesi 7, 45<br />

lineaarinen regressiomalli 2<br />

lohko 55<br />

lohkojen keskineliö 58, 66<br />

lohkojen neliösumma 57<br />

lohkomatriisi 88<br />

LSD-menetelmä 48<br />

maksimaalinen vaste 36<br />

mallin käyttökelpoisuus 10<br />

mallin riittävyys 51<br />

mallin typistäminen 21<br />

minimaalinen vaste 36<br />

monen muuttujan pienotanta 71<br />

monisuuntainen ANOVA 55<br />

multinormaalijakauma 91<br />

Nelder–Mead-algoritmi 39<br />

neliökoe 63<br />

Newman–Keuls-testi 49<br />

nollamatriisi 87<br />

nollavektori 87<br />

normaaliryhmä 56<br />

normaalitodennäköisyyskuvio 51<br />

nouseva harju 37<br />

optimikiintiöinti kustannuksin 82<br />

optimikiintiöinti 79<br />

ortogonaalinen kontrastimatriisi 47<br />

ortogonaalinen suunnittelu 20, 29<br />

93


ortogonaaliset kontrastit 46<br />

ortogonaaliset neliöt 69<br />

osite 75<br />

ositekeskiarvo 76<br />

ositekeskiarvomatriisi 76<br />

ositematriisi 75<br />

ositepaino 75<br />

ositepainovektori 75<br />

ositettu otanta 75<br />

ositevarianssi 76<br />

osittainen 2 k -koe 26<br />

osittainen 3 k -koe 31<br />

otoksen vertailusuure 79<br />

otos 72<br />

otosalkio 72<br />

otoskeskiarvo 73<br />

parametri 1<br />

parametrien estimointi 44<br />

permutaatiomatriisi 64<br />

pienimmän neliösumman keino 2, 44<br />

Plackett–Burman-koe 23<br />

populaatio 71<br />

populaatiokeskiarvo 71<br />

populaatiomatriisi 71<br />

populaatiovarianssi 71<br />

puhtaan virheen keskineliö 15<br />

puhtaan virheen neliösumma 14<br />

QR-hajotelma 22, 47<br />

rangi 87<br />

regressiomalli 1<br />

regression keskineliö 12<br />

regression neliösumma 11<br />

residuaali 41<br />

residuaalin keskineliö 12, 41, 58, 66<br />

residuaalin neliösumma 3, 41, 57, 66<br />

residuaalivektori 3<br />

rivikeskiarvo 89<br />

rivirangi 87<br />

roomalaiset neliöt 63<br />

rypäänsisäinen kovarianssi 84<br />

ryväs 83<br />

ryväskeskiarvo 83<br />

ryväsmatriisi 83<br />

ryväsotanta 83<br />

ryväsvarianssi s83<br />

sarakekeskiarvo 89<br />

sarakerangi 87<br />

sarakkeiden keskineliö 66<br />

sarakkeiden neliösumma 66<br />

satulapiste 36<br />

satunnaisotanta palauttamatta 72<br />

satunnaisotanta 71<br />

satunnaistetut lohkot 55<br />

Scheffén menetelmä 47<br />

Schurin hajotelma 37<br />

sekoittuminen 26<br />

selitettävä muuttuja 1<br />

selittävä muuttuja 1<br />

selitysaste 12<br />

Sherman–Morrison-kaava 30<br />

simpleksi 22<br />

simplex-koe 22<br />

singulääriarvohajotelma 6<br />

skaalaus 17<br />

standardineliö 66<br />

standardointi 17<br />

suhdeotanta 79<br />

suunnittelumatriisi 10<br />

symmetrinen matriisi 87<br />

systemaattinen otanta 86<br />

tasapainoinen koe 43<br />

toistokoe 13<br />

Tukeyn additiivisuustesti 61<br />

Tukeyn tasoitus 51<br />

Tukeyn testi 49<br />

täydellinen 2 k -koe 25<br />

täydellinen 3 k -koe 31<br />

ulkolainen 52<br />

vapausaste 11<br />

varianssianalyysi 7<br />

varianssianalyysitaulu 12, 15<br />

vaste 1<br />

vasteen optimointi 34<br />

vastefunktio 1<br />

vastevektori 2<br />

viettosuunta 34<br />

virhetermi 1<br />

yhdistetty testi 47<br />

yhdysvaikutus 26, 55, 61<br />

yhteiskorrelaatiokerroin 12<br />

ykkösvektori 87<br />

yksiasteinen otanta 83<br />

yksisuuntainen ANOVA 40<br />

äärellisen populaation korjauskerroin 74<br />

ääriarvotarkastelu 35<br />

94

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!