TILASTOLLINEN KOKEIDEN SUUNNITTELU JA OTANTA
TILASTOLLINEN KOKEIDEN SUUNNITTELU JA OTANTA
TILASTOLLINEN KOKEIDEN SUUNNITTELU JA OTANTA
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
<strong>TILASTOLLINEN</strong><br />
<strong>KOKEIDEN</strong><br />
<strong>SUUNNITTELU</strong><br />
<strong>JA</strong> <strong>OTANTA</strong><br />
Keijo Ruohonen<br />
2000
Sisältö<br />
1 I REGRESSIO<br />
1 1.1 Regressiomalli<br />
2 1.2 Mallin estimointi ja käyttö<br />
7 1.3 Varianssianalyysi (ANOVA)<br />
12 1.4 Mallin epäsopivuuden testaus toistokokein<br />
16 1.5 Datan affiinimuunnokset. Ortogonaalisuus ja kiertosymmetrisyys<br />
22 1.6 Esimerkki ortogonaalisesta 1. kertaluvun suunnittelusta: Simplex-koe, Plackett–Burman-koe<br />
25 1.7 2 k -kokeet: Katsaus<br />
27 1.8 Toisen kertaluvun regressiomalli<br />
31 1.9 Ortogonalisoituvia toisen kertaluvun malleja: 3 k -kokeet, CCD-kokeet<br />
34 II VASTEEN OPTIMOINTI<br />
34 2.1 Yleistä<br />
34 2.2 Regressiomenetelmä<br />
39 2.3 Nelder–Mead-algoritmi<br />
40 III KVALITATIIVISET FAKTORIT<br />
40 3.1 Yksisuuntainen ANOVA<br />
44 3.1.1 Parametrien estimointi<br />
45 3.1.2 Hypoteesien testaus. Kontrastit<br />
47 3.1.3 Yhdistettyjä testejä<br />
51 3.1.4 Mallin riittävyys<br />
55 3.2 Monisuuntainen ANOVA<br />
55 3.2.1 Satunnaistetut lohkot<br />
63 3.2.2 Roomalaiset neliöt<br />
71 IV MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong><br />
71 4.1 Satunnaisotanta<br />
75 4.2 Ositettu otanta<br />
83 4.3 Yksiasteinen otanta. Systemaattinen otanta<br />
87 LIITE A: Matriisilaskentaa<br />
91 LIITE B: Multinormaalijakauma<br />
92 Kirjallisuutta<br />
93 Hakemisto<br />
i
Esipuhe<br />
Tämä moniste on tarkoitettu TTKK:n kurssin ”73164 Tilastollinen kokeiden suunnittelu” perusmateriaaliksi.<br />
Pääsisältönään se esittelee kvantitatiivisen kokeiden suunnittelun perusteet modernin<br />
vastepintaformalismin avulla käsiteltynä. Esityksen pohjana on paljolti kirja KHURI &<br />
CORNELL. Myös useita suunnittelukaavioita on esillä esimerkinomaisesti. (Lisää niitä löytyy<br />
mainitusta kirjasta ja muusta kirjallisuudesta.)<br />
Monisteessa käsitellään myös kvalitatiivista kokeiden suunnittelua, pohjana paljolti kirja<br />
MONTGOMERY. Koska tämän aihepiirin merkitys on nähdäkseni vähenemässä, varsinkin tekniikassa,<br />
on kyseessä lähinnä vain katsaus.<br />
Niin teoria kuin menetelmätkin esitetään kauttaaltaan matriisiformalismin avulla, jolloin ne<br />
ovat suoraan kokeiltavissa ja sovellettavissa esimerkiksi Matlab-ohjelmistoa käyttäen. (Koeajot<br />
menetelmistä esitetään monisteessa kuitenkin Systat-ohjelmistolla tehtyinä ja Matlab-ajot<br />
jäävät esimerkkeihin ja harjoituksiin.) Esityksen esikuvana on ollut ekonometrian klassikon<br />
JOHNSTONin tyylikäs matriisimuotoinen esitys. Todettakoon, että matriisi- ja lineaarialgebraformalismi<br />
on ollut tilastollisten monimuuttujamenetelmien ”pelastus”. Ilman sitä asian esitys<br />
on huomattavan kankeaa, kuten alan vanhemmista oppikirjoistakin voi havaita (esimerkkinä<br />
vaikka GUENTHER).<br />
Monisteen lopussa on tiivis esitys monen muuttujan pienotantamenetelmistä matriisimuodossa.<br />
Sitä ei ehdittäne käymään kurssilla läpi. Alan kirjallisuudessa ei tällaista esitystä juuri ole<br />
(erinäisiä artikkeleita ja raportteja lukuunottamatta), vaikka otanta nykyisin on usein ”moniulotteista”.<br />
Vanhat klassikotkin (kuten esimerkiksi COCHRAN) käsittelevät vain yhden muuttujan<br />
otantaa.<br />
Liitteinä on annettu eräitä matriisilaskentaa ja multinormaalijakaumaa koskevia tuloksia.<br />
Esitietona tilastomatematiikan peruskurssit sekä insinöörimatematiikan suorittaneille myös kurssi<br />
73109 Matriisilaskenta 1 ovat kuitenkin tarpeen.<br />
Keijo Ruohonen<br />
ii
Luku 1<br />
REGRESSIO<br />
1.1 Regressiomalli<br />
(Kertaa kurssilta Tilastomatematiikka tai Laaja matematiikka 4.)<br />
Mallinnustilanteessa suure y riippuu suureista x1,...,xk tunnetun tai tuntemattoman funktion<br />
Φ kautta, ts.<br />
y =Φ(x1,...,xk).<br />
y on tällöin ns. vaste eli selitettävä muuttuja ja x1,...,xk ovat ns. faktoreita eli selittäviä muuttujia.<br />
Faktoreiden arvoja kutsutaan tasoiksi. Φ on ns. todellinen vastefunktio.<br />
Φ on yleensä tuntematon tai sitten niin mutkikas, ettei sitä voida sellaisenaan käyttää. Niinpä<br />
Φ:n tilalle otetaan sitä approksimoiva funktio, jossa esiintyy parametrejä, esimerkiksi monen<br />
muuttujan polynomi, jonka kertoimet ovat parametrejä.<br />
Approksimoitaessa malli ei enää ole tarkka. Lisäksi käytännössä esiintyy mittaus- ym. virheitä.<br />
Jos Φ:tä approksimoiva funktio on f, niin malli on muotoa<br />
y = f(x1,...,xk)+ɛ,<br />
missä ɛ on virhetermi. Tilastollisessa regressiossa ɛ katsotaan satunnaismuuttujaksi, jolla on<br />
N(0,σ 2 )-jakauma. (Odotusarvo on 0, sillä systemaattinen virhe voidaan sisällyttää funktioon<br />
f(x1,...,xk).)<br />
Jos siis esimerkiksi f on ensimmäisen asteen polynomi, on malli muotoa<br />
y = β0 + β1x1 + ···+ βkxk + ɛ.<br />
missä β0,β1,...,βk ovat parametrit. Kyseessä on ensimmäisen kertaluvun regressiomalli. Jos<br />
merkitään<br />
⎛ ⎞<br />
1<br />
⎜ x1<br />
⎟<br />
x = ⎜ ⎟<br />
⎝ . ⎠<br />
ja<br />
⎛ ⎞<br />
β0<br />
⎜ β1<br />
⎟<br />
β = ⎜ ⎟<br />
⎝ . ⎠ ,<br />
voidaan tällainen 1. kertaluvun regressiomalli kirjoittaa muotoon<br />
xk<br />
y = x T β + ɛ.<br />
Yleisesti d:nnen kertaluvun regressiomalli on muotoa y = p(x1,...,xk) +ɛ oleva malli,<br />
missä p on muuttujien x1,...,xk d:nnen asteen polynomi, jonka kertoimet ovat parametrejä.<br />
Polynomin p ei tarvitse sisältää kaikkia mahdollisia termejä. Itse asiassa polynomiaalinen<br />
regressio voidaan palauttaa 1. kertaluvun regressioksi seuraavalla tempulla:<br />
1<br />
βk
LUKU 1. REGRESSIO 2<br />
1. Otetaan kutakin polynomissa p esiintyvää korkeampaa kuin ensimmäisen asteen termiä,<br />
esimerkiksi termiä β133x1x 2 3,kohti uusi muuttuja z133.<br />
2. Kirjoitetaan z133:n arvoksi x1x 2 3:n arvo.<br />
3. Valitaan z133:n kertoimeksi eli parametriksi β133.<br />
Tällainen malli on lineaarinen, ts. parametriensä lineaariyhdelmä + virhetermi.<br />
1.2 Mallin estimointi ja käyttö<br />
(Kertaa kurssilta Tilastomatematiikka tai Laaja matematiikka 4.)<br />
Malli saadaan käyttöön, kun ensin on saatu kokeiden tuloksena tietty määrä faktorien arvoyhdelmiä<br />
ja niitä vastaavat vasteen arvot. Tällaisen kerätyn datan avulla voidaan mallia käyttää<br />
a) vasteen arvon ennustamiseen sellaisille faktorien arvoyhdelmille, joita vastaavia kokeita<br />
ei ole tehty. Tätä varten estimoidaan datan avulla mallin parametrit.<br />
b) erilaisten faktoreita koskevien hypoteesien testaamiseen. Esimerkiksi 1. kertaluvun regressiossa<br />
hypoteesi β1 =0tarkoittaisi sitä, että faktorilla x1 ei ole vaikutusta vasteeseen.<br />
c) virheen ɛ varianssin estimointiin.<br />
d) antamaan tietoa siitä minkälaista uutta dataa on kerättävä, esimerkiksi vasteen maksimiarvon<br />
löytämiseksi. Jne.<br />
Jos data on jo kerätty tai siihen ei muuten voida vaikuttaa, ei kokeiden suunnittelua tarvita.<br />
Muussa tapauksessa, erityisesti jos datan keruu on kallista, vaarallista tai muuten hankalaa, tarvitaan<br />
kokeiden suunnittelua. Kokeiden suunnittelun tarkoituksena on mahdollisimman pienen<br />
datan avulla saada sovelletuksi mallia halutulla tavalla.<br />
Katsotaan lähemmin parametrien estimointiin, ennustamiseen ja σ 2 :n estimointiin liittyviä<br />
käsitteitä. Tarkastellaan tässä 1. kertaluvun mallia, joihin siis polynomiaalisetkin mallit voidaan<br />
palauttaa.<br />
Tavallisin estimointitapa on pienimmän neliösumman keino. Se on kätevintä esittää matriisiformalismin<br />
avulla. Datana on kerätty N kappaletta faktorien arvoyhdelmiä sekä niitä vastaavat<br />
vasteen arvot:<br />
faktorit vaste<br />
x11,...,x1k<br />
y1<br />
x21,...,x2k y2<br />
... ...<br />
xN1,...,xNk yN<br />
Näistä muodostetaan ns. datamatriisi X sekä vastevektori y:<br />
⎛<br />
1<br />
⎜ 1<br />
X = ⎜<br />
⎝ .<br />
x11<br />
x21<br />
.<br />
x12<br />
x22<br />
.<br />
···<br />
···<br />
...<br />
x1k<br />
x2k<br />
.<br />
⎞<br />
⎟<br />
⎠<br />
,<br />
⎛<br />
⎜<br />
y = ⎜<br />
⎝<br />
1 xN1 xN2 ··· xNk<br />
Pienimmän neliösumman keinossa valitaan parametrit β siten, että<br />
y − Xβ 2 =(y − Xβ) T (y − Xβ)<br />
y1<br />
y2<br />
.<br />
yN<br />
⎞<br />
⎟<br />
⎠ .
LUKU 1. REGRESSIO 3<br />
minimoituu. Gradientti β:n suhteen on −2X T (y − Xβ) ja merkitsemällä se nollavektoriksi<br />
saadaan lineaarinen yhtälöryhmä<br />
X T Xβ = X T y,<br />
josta ratkaistaan β:<br />
β =(X T X) −1 X T y =merk. b =<br />
Tällöin tietysti oletetaan, että XT X on ei-singuläärinen ja erityisesti että N ≥ k +1. XT X ja<br />
(XT X) −1 ovat symmetrisiä matriiseja.<br />
Koska 1. kertaluvun malli on muotoa y = xT β + ɛ, liittyvät vastevektori ja datamatriisi<br />
toisiinsa yhtälöllä<br />
⎛ ⎞<br />
⎜<br />
y = Xβ + ɛ , ɛ = ⎜<br />
⎝<br />
missä ɛ on satunnaisvektori. Satunnaismuuttujat ɛ1,ɛ2,...,ɛN ovat riippumattomia (sillä kokeet<br />
suoritetaan toisistaan riippumattomasti) ja niillä on kullakin N(0,σ 2 )-jakauma. Satunnaisvektorilla<br />
ɛ on siis N(0,σ 2 IN)-multinormaalijakauma. Koska ɛ on satunnaisvektori, niin samoin<br />
on y = Xβ + ɛ sekä edelleen<br />
⎛<br />
⎜<br />
⎝<br />
ɛ1<br />
ɛ2<br />
.<br />
ɛN<br />
b0<br />
b1<br />
.<br />
bk<br />
⎟<br />
⎠ ,<br />
⎞<br />
⎟<br />
⎠ .<br />
b =(X T X) −1 X T y =(X T X) −1 X T (Xβ + ɛ) =β +(X T X) −1 X T ɛ.<br />
Huomautus. Vaikka ɛ:n komponentit ovat riippumattomia satunnaismuuttujia, eivät b:n komponentit<br />
sitä yleisesti ole. Välittömästi todetaan nimittäin, että<br />
ja<br />
E(b) =E(β +(X T X) −1 X T ɛ)=β +(X T X) −1 X T E(ɛ) =β<br />
V (b) =V (β +(X T X) −1 X T ɛ)=(X T X) −1 X T V (ɛ)X(X T X) −1 = σ 2 (X T X) −1 .<br />
Siispä b:llä on N(β,σ 2 (X T X) −1 )-multinormaalijakauma ja sen komponentit ovat riippumattomat<br />
tarkalleen silloin, kun X T X on lävistäjämatriisi (jolloin myös (X T X) −1 on lävistäjämatriisi).<br />
Kun b on saatu, voidaan muita faktorien tasoja x ′ vastaava vasteen arvo ennustaa 1 :<br />
ˆy =(x ′ ) T b.<br />
b on satunnaisvektori, joten ˆy on satunnaismuuttuja. Edelleen<br />
ja<br />
E(ˆy) =(x ′ ) T E(b) =(x ′ ) T β<br />
V (ˆy) =(x ′ ) T V (b)x ′ = σ 2 (x ′ ) T (X T X) −1 x ′ .<br />
1 2 ′ T Ennustuksessa on usein mukana myös N(0,σ )-jakautunut virhetermi ɛ, jolloin ˆy =(x ) b + ɛ ja V (ˆy) =<br />
σ2 (1+(x ′ ) T (XT X) −1x ′ ).
LUKU 1. REGRESSIO 4<br />
Erityisesti voidaan ”ennustaa” datamatriisissa esiintyviä faktorien arvoyhdelmiä vastaavat vasteet:<br />
ˆy = Xb = X(X T X) −1 X T y.<br />
Erotus y − ˆy =merk. r on ns. residuaalivektori, datan avulla lausuttuna<br />
r = y − ˆy =(IN − X(X T X) −1 X T )y.<br />
Ideaalisesti r:ssä on vain ”kohinaa” eli ɛ:n vaikutus. Residuaalivektorin pituuden neliö<br />
r 2 = r T r =(y− Xb) T (y − Xb) =merk. SSE<br />
on ns. residuaalin neliösumma. Sen avulla saadaan σ2 :n estimaatti (olettaen, että N>k+1):<br />
s 2 SSE<br />
=<br />
N − k − 1 .<br />
Jos merkitään<br />
⎛<br />
⎞<br />
(X T X) −1 =<br />
⎜<br />
⎝<br />
c00 c01 ··· c0k<br />
c10 c11 ··· c1k<br />
.<br />
.<br />
...<br />
ck0 ck1 ··· ckk<br />
niin V (bi) =σ 2 cii. Näin ollen V (bi):n estimaatiksi käy s 2 cii. Käytetyin normaalisuusoletuksin<br />
suureilla<br />
bi − βi<br />
√ s 2 cii<br />
=merk. ti<br />
on t-jakaumat N − k − 1 vapausasteella (jälleen oletetaan, että N > k +1). Tätä käyttäen<br />
voidaan testata parametriä βi koskeva hypoteesi H0 : βi =0tai H0 : βi ≥ 0 tai H0 : βi ≤ 0.<br />
Kaksipuolisen testin tapauksessa vastahypoteesi on H1 : βi = 0, yksipuoliselle testille se on<br />
H1 : βi < 0 tai H1 : βi > 0.<br />
H 1 : β i ≠ 0<br />
-t α/2<br />
H 1 : β i < 0<br />
-t α<br />
H 1 : β i > 0<br />
.<br />
⎟<br />
⎠ ,<br />
t-jakauman tiheysfunktio<br />
t α/2<br />
t-jakauman tiheysfunktio<br />
t-jakauman tiheysfunktio<br />
t α
LUKU 1. REGRESSIO 5<br />
Kun testin merkitsevyys (eli I tyypin virheen todennäköisyys)<br />
α = P (ti osuu varjostetulle alueelle, kun H0 on tosi)<br />
on valittu ja etsitty vastaava taulukkopiste tα/2 tai tα,hyväksytään H0, jos ti ei osu varjostetulle<br />
alueelle, muuten ei (ks. edellisellä sivulla oleva kuva).<br />
Jos X T X ei ole lävistäjämatriisi, ovat b:n komponentit riippuvia ja yllä olevat testit ovat<br />
myös riippuvia. Tällöin halutun yhtaikaisen merkitsevyyden saamiseksi voidaan käyttää esimerkiksi<br />
Bonferronin epäyhtälöä. Jos taas X T X on lävistäjämatriisi, ovat bi:t riippumattomia<br />
ja samoin niitä koskevat testit.<br />
Kaiken yllä olevan ja paljon muutakin tekevät nykyiset kehittyneemmät tilasto-ohjelmistot<br />
(esimerkiksi Systat, JMP, SAS, SPlus, Statistica ja SPSS) automaattisesti. Myös Matlabia on<br />
helppo käyttää.<br />
Ajetaan data<br />
x1 x2 y<br />
0.3 1 5.63<br />
0.3 1 6.42<br />
0.7 1 1.38<br />
0.7 1 1.94<br />
0.3 5 11.57<br />
0.3 5 12.16<br />
0.7 5 5.72<br />
0.7 5 4.69<br />
0.3 9 12.68<br />
0.3 9 13.31<br />
0.7 9 8.28<br />
0.7 9 7.73<br />
Systatilla. Huomaa, että samaa faktorien tasoyhdelmää on aina käytetty kahdesti. Tätä voidaan<br />
käyttää mallin sopivuuden testauksessa, josta lisää myöhemmin. Malli on toista kertalukua:<br />
Käskyillä<br />
>USE ’rotta.sys’<br />
VARIABLES IN SYSTAT FILE ARE:<br />
X1 X2 Y<br />
>model y=constant+x1+x2+x1*x2+x2*x2<br />
>estimate<br />
saadaan tulostus<br />
y = β0 + β1x1 + β2x2 + β12x1x2 + β22x 2 2 + ɛ.<br />
DEP VAR: Y N: 12 MULTIPLE R: .989 SQUARED MULTIPLE R: .977<br />
ADJUSTED SQUARED MULTIPLE R: .965 STANDARD ERROR OF ESTIMATE: 0.769<br />
VARIABLE COEFFICIENT STD ERROR STD COEF TOLERANCE T P(2 TAIL)<br />
CONSTANT 8.428 1.172 0.000 . 7.190 0.000<br />
X1 -12.369 2.031 -0.633 0.2990654 -6.092 0.000<br />
X2 1.782 0.347 1.489 0.0384615 5.140 0.001<br />
X1*<br />
X2 -0.195 0.340 -0.101 0.1042345 -0.574 0.584<br />
X2*<br />
X2 -0.085 0.029 -0.731 0.0506329 -2.895 0.023
LUKU 1. REGRESSIO 6<br />
ANALYSIS OF VARIANCE<br />
SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />
REGRESSION 179.293 4 44.823 75.729 0.000<br />
RESIDUAL 4.143 7 0.592<br />
Lisäämällä listaan käsky<br />
>print long<br />
saadaan täydellisempi tulostus<br />
EIGENVALUES OF UNIT SCALED X’X<br />
1 2 3 4 5<br />
CONDITION INDICES<br />
VARIANCE PROPORTIONS<br />
4.352 0.477 0.145 0.019 0.007<br />
1 2 3 4 5<br />
1.000 3.021 5.478 14.967 25.093<br />
1 2 3 4 5<br />
CONSTANT 0.002 0.018 0.076 0.239 0.665<br />
X1 0.002 0.029 0.037 0.626 0.306<br />
X2 0.001 0.002 0.006 0.020 0.971<br />
X1 0.002 0.003 0.127 0.533 0.335<br />
X2 0.001 0.014 0.007 0.355 0.623<br />
DEP VAR: Y N: 12 MULTIPLE R: .989 SQUARED MULTIPLE R: .977<br />
ADJUSTED SQUARED MULTIPLE R: .965 STANDARD ERROR OF ESTIMATE: 0.769<br />
VARIABLE COEFFICIENT STD ERROR STD COEF TOLERANCE T P(2 TAIL)<br />
CONSTANT 8.428 1.172 0.000 . 7.190 0.000<br />
X1 -12.369 2.031 -0.633 0.2990654 -6.092 0.000<br />
X2 1.782 0.347 1.489 0.0384615 5.140 0.001<br />
X1*<br />
X2 -0.195 0.340 -0.101 0.1042345 -0.574 0.584<br />
X2*<br />
X2 -0.085 0.029 -0.731 0.0506329 -2.895 0.023<br />
CORRELATION MATRIX OF REGRESSION COEFFICIENTS<br />
CONSTANT X1 X2 X1 X2<br />
CONSTANT 1.000<br />
X1 -0.866 1.000<br />
X2 -0.718 0.410 1.000<br />
X1 0.725 -0.837 -0.490 1.000<br />
X2 0.360 0.000 -0.849 -0.000 1.000<br />
ANALYSIS OF VARIANCE<br />
SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />
REGRESSION 179.293 4 44.823 75.729 0.000<br />
RESIDUAL 4.143 7 0.592<br />
Huomautus. Tarkasti laskettaessa kannattaa käyttää datamatriisin singulääriarvohajotelmaa<br />
(SVD) X = Q1ΣQ T 2 , sillä sen lasku on usein numeerisesti stabiilimpi kuin yhtälöryhmän ratkaisu<br />
tai käänteismatriisin (X T X) −1 lasku (ks. kurssi Matriisilaskenta 1). Onhan nimittäin<br />
(X T X) −1 = Q2(Σ T Σ) −1 Q T 2 ja b = Q2Σ + Q T 1 y = X + y. SVD:n saa Matlabissa käyttöönsä<br />
komennolla [Q1,S,Q2]=svd(X).Huomaa myös operaatio pinv.
LUKU 1. REGRESSIO 7<br />
1.3 Varianssianalyysi (ANOVA)<br />
Varianssianalyysiä käyttäen voidaan testata ns. lineaarisia hypoteeseja, ts. muotoa<br />
H0 : Aβ = d<br />
olevia hypoteeseja, missä A on q × (k +1)-matriisi, jonka rivirangi on täysi, ts. sen rivit ovat<br />
lineaarisesti riippumattomat, ja d on q-vektori. Vielä oletetaan, että qk+1).<br />
Todistus. (Tämä vaatii kurssin Laaja tilastomatematiikka tietoja.) Ensinnäkin b ja r ovat riippumattomia.<br />
Näin ollen ovat myös (Ab − d) T (A(X T X) −1 A T ) −1 (Ab − d) ja SSE = r T r<br />
riippumattomat. Edelleen suureella 1<br />
σ 2 SSE on χ 2 -jakauma N −k −1 vapausasteella. Vielä pitää<br />
näyttää, että 1<br />
σ 2 (Ab − d) T (A(X T X) −1 A T ) −1 (Ab − d):llä on χ 2 -jakauma q vapausasteella,<br />
kun H0 on tosi.<br />
Koska b:llä on N(β,σ 2 (X T X) −1 )-jakauma, on Ab−d:llä N(Aβ−d,σ 2 A(X T X) −1 A T )jakauma<br />
eli N(0q,σ 2 A(X T X) −1 A T )-jakauma. Selvästi A(X T X) −1 A T on symmetrinen ja<br />
positiivisemidefiniitti. Koska A:lla on täysi rivirangi ja X T X on ei-singuläärinen, on myös<br />
A(X T X) −1 A T ei-singuläärinen ja siis positiividefiniitti. Schurin lauseen mukaan se voidaan<br />
kirjoittaa muotoon A(X T X) −1 A T = QΛQ T , missä Q on ortogonaalimatriisi ja Λ on lävistäjämatriisi,<br />
jonka lävistäjällä ovat A(X T X) −1 A T :n (positiiviset) ominaisarvot. Näin ollen on<br />
(A(X T X) −1 A T ) −1 :llä neliöjuuri Q √ Λ −1 Q T =merk. B, missä lävistäjämatriisi √ Λ −1 saadaan<br />
Λ −1 :stä ottamalla sen lävistäjäalkioista neliöjuuret. Ilmeisesti B on symmetrinen ei-singuläärinen<br />
matriisi. Nyt B(Ab − d) on N(0q,σ 2 BB −2 B T )-jakautunut eli N(0q,σ 2 Iq)-jakautunut.<br />
Suureella<br />
1<br />
σ 2 (Ab − d)T (A(X T X) −1 A T ) −1 (Ab − d) = 1<br />
σ 2 (B(Ab − d))T B(Ab − d)<br />
on näin ollen χ 2 (q)-jakauma.<br />
Hypoteesin testaaminen sujuu tavalliseen tapaan. Merkitsevyys α kiinnitetään. Jos testisuure<br />
osuu varjostetulle häntäalueelle (ks. alla oleva kuva), hylätään H0.Mitä ”huonommin” H0 pitää<br />
paikkansa, sitä suurempi pyrkii Ab − d ja F-testisuure olemaan.<br />
F-jakauman tiheysfunktio<br />
2 Jos q =1,voidaan muodostaa vastaava t-testisuure ja testi voisi olla toispuolinenkin.<br />
F α
LUKU 1. REGRESSIO 8<br />
Testataan edellä olleelle datalle muutamia hypoteesejä Systatilla. Käytetään vaihteen vuoksi<br />
uutta 3. kertaluvun mallia<br />
Käskyillä<br />
y = β0 + β1x1 + β2x2 + β12x1x2 + β22x 2 2 + β122x1x 2 2 + ɛ.<br />
>model y=constant+x1+x2+x1*x2+x2*x2+x1*x2*x2<br />
>estimate<br />
>hypothesis<br />
>effect x1*x2*x2<br />
>test<br />
saadaan tulostus<br />
DEP VAR: Y N: 12 MULTIPLE R: .996 SQUARED MULTIPLE R: .992<br />
ADJUSTED SQUARED MULTIPLE R: .985 STANDARD ERROR OF ESTIMATE: 0.504<br />
VARIABLE COEFFICIENT STD ERROR STD COEF TOLERANCE T P(2 TAIL)<br />
CONSTANT 6.208 1.033 0.000 . 6.011 0.001<br />
X1 -7.929 1.918 -0.406 0.1437798 -4.134 0.006<br />
X2 3.331 0.533 2.783 0.0069838 6.251 0.001<br />
X1*<br />
X2 -3.293 0.990 -1.704 0.0052777 -3.328 0.016<br />
X2*<br />
X2 -0.240 0.052 -2.059 0.0069838 -4.625 0.004<br />
X1*<br />
X2*<br />
X2 0.310 0.096 1.538 0.0060405 3.213 0.018<br />
ANALYSIS OF VARIANCE<br />
SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />
REGRESSION 181.913 5 36.383 143.328 0.000<br />
RESIDUAL 1.523 6 0.254<br />
_______________________________________________________________________________<br />
TEST FOR EFFECT CALLED:<br />
BY<br />
BY<br />
TEST OF HYPOTHESIS<br />
X1<br />
X2<br />
X2<br />
SOURCE SS DF MS F P<br />
HYPOTHESIS 2.620 1 2.620 10.322 0.018<br />
ERROR 1.523 6 0.254<br />
Sama tulos saadaan syöttämällä A =(0, 0, 0, 0, 0, 1). d:tä ei tarvitse syöttää, sillä sen oletusarvo<br />
on 0. Lisätään jonoon käskyt<br />
>hypothesis<br />
>amatrix<br />
>0 0 0 0 0 1<br />
>test<br />
jolloin saadaan tulostus
LUKU 1. REGRESSIO 9<br />
HYPOTHESIS.<br />
A MATRIX<br />
TEST OF HYPOTHESIS<br />
1 2 3 4 5<br />
0.000 0.000 0.000 0.000 0.000<br />
6<br />
1.000<br />
SOURCE SS DF MS F P<br />
HYPOTHESIS 2.620 1 2.620 10.322 0.018<br />
ERROR 1.523 6 0.254<br />
Komento print long antaa vähän enemmän tulostusta:<br />
HYPOTHESIS.<br />
A MATRIX<br />
1 2 3 4 5<br />
0.000 0.000 0.000 0.000 0.000<br />
6<br />
1.000<br />
NULL HYPOTHESIS CONTRAST AB<br />
0.310<br />
-1<br />
INVERSE CONTRAST A(X’X) A’<br />
TEST OF HYPOTHESIS<br />
0.037<br />
SOURCE SS DF MS F P<br />
HYPOTHESIS 2.620 1 2.620 10.322 0.018<br />
ERROR 1.523 6 0.254<br />
Hypoteesi H0 hylätään merkitsevyystasolla α =0.02, mutta ei aivan tasolla α =0.01. Selittäjä<br />
x1x 2 2 saa olla mukana. Katsotaan vielä hypoteesia H0 : β1 = −12,β2 =2sivun 6 mallille,<br />
jolloin<br />
Käskyt<br />
>hypothesis<br />
>amatrix<br />
>0 1 0 0 0<br />
>0 0 1 0 0<br />
>dmatrix<br />
>-12<br />
>2<br />
>test<br />
antavat tulostuksen<br />
A =<br />
0 1 0 0 0<br />
0 0 1 0 0<br />
<br />
ja d =<br />
−12<br />
2<br />
<br />
.
LUKU 1. REGRESSIO 10<br />
HYPOTHESIS.<br />
A MATRIX<br />
D MATRIX<br />
TEST OF HYPOTHESIS<br />
1 2 3 4 5<br />
1 0.000 1.000 0.000 0.000 0.000<br />
2 0.000 0.000 1.000 0.000 0.000<br />
1 -12.000<br />
2 2.000<br />
SOURCE SS DF MS F P<br />
HYPOTHESIS 0.238 2 0.119 0.201 0.823<br />
ERROR 4.143 7 0.592<br />
Hypoteesia H0 ei tässä voi hylätä.<br />
Yksinkertaisin valinta A-matriisiksi on (0,...,0, 1, 0,...,0), missä 1 on i:s alkio. Hypoteesi<br />
H0 : Aβ = βi =0testaa silloin faktorin xi tarpeellisuutta mallissa. Tällöin<br />
ja testisuure on<br />
bi(A(X T X) −1 A T ) −1 bi = b 2 i c −1<br />
ii<br />
b 2 i (N − k − 1)<br />
ciiSSE<br />
= b2 i<br />
s 2 cii<br />
eli sivulla 4 olevan t-testisuureen ti neliö. Testi on siis sama kuin mainittu t-testi kaksipuolisena!<br />
Yleensäkin, jos q =1,onH0 muotoa a T β = d ja testisuureeksi voidaan ottaa N − k − 1<br />
vapausasteella t-jakautunut suure<br />
a T b − d<br />
s 2 a T (X T X) −1 a .<br />
Tällöin voi myös tehdä kaksipuolisia testejä (H0 : a T β ≤ d tai H0 : a T β ≥ d).<br />
Koko mallin käyttökelpoisuutta puolestaan testaa hypoteesi<br />
H0 : β1 = ···= βk =0.<br />
Jos tätä H0:aa ei hylätä, ovat käytetyt faktorit huonoja selittäjiä, ts. koko malli voitaisiin yhtä<br />
hyvin korvata vakiolla + kohinalla (eli mallilla y = β0+ɛ). Vastaava A-matriisi on <br />
0k Ik ja<br />
d = 0k.Tehdään datamatriisissa ja b-vektorissa samanlainen ositus:<br />
X = 1N D <br />
<br />
ja b = .<br />
b0<br />
b ′<br />
(Matriisi D on muuten ns. suunnittelumatriisi 3 , jota tarvitaan vielä jatkossa.) Tässä 1N on<br />
N-vektori, jonka kaikki alkiot ovat ykkösiä. Silloin Ab = b ′ ja<br />
X T <br />
T 1N X =<br />
DT <br />
<br />
1N D <br />
N<br />
=<br />
D<br />
T 1ND T 1N DT D<br />
3 Toisinaan käytetään kuitenkin matriisista X nimeä suunnittelumatriisi!<br />
<br />
.
LUKU 1. REGRESSIO 11<br />
Edelleen tällöin<br />
(Ab − d) T (A(X T X) −1 A T ) −1 (Ab − d) =(b ′ ) T (A(X T X) −1 A T ) −1 b ′ =merk. SSR,<br />
ns. regression neliösumma.<br />
Tunnetun lohkomatriisien kääntökaavan 4 mukaan (X T X) −1 :n oikea alalohko eli siis<br />
A(X T X) −1 A T on<br />
Matriisi MN = IN − 1<br />
<br />
D T D − D T 1N<br />
1<br />
N 1T −1 ND =(D T MND) −1 .<br />
N JN on ns. keskitysmatriisi. Sillä kertominen vähentää datavektorista sen<br />
keskiarvon. (Matriisi JN = 1N1T N taas on N × N-matriisi, jonka kaikki alkiot ovat ykkösiä.)<br />
Koska ilmiselvästi MN1N = 0N,niin<br />
SSR =(b ′ ) T D T MNDb ′ =(b01N + Db ′ ) T MN(b01N + Db ′ )=(Xb) T MNXb = ˆy T MN ˆy.<br />
Koska edelleen<br />
X T r = X T (y − Xb) =X T y − X T X(X T X) −1 X T y = 0k+1,<br />
niin 1T Nr =0(tarkastellaan vain X:n ensimmäistä saraketta) ja ˆyT r = bT XT r =0. Näin ollen<br />
r T MN ˆy = r T<br />
<br />
IN − 1<br />
N 1N1 T <br />
N ˆy = r T ˆy − 1<br />
N rT 1N1 T N ˆy =0<br />
ja<br />
r T MNr = r T<br />
<br />
IN − 1<br />
N 1N1 T <br />
N r = r T r − 1<br />
N rT 1N1 T Nr T = r T r = SSE.<br />
Ns. kokonaisneliösumma<br />
y T MNy =merk. SST<br />
on näin hajotettavissa residuaalin neliösumman ja regression neliösumman summaksi:<br />
SST = y T MNy =(r + ˆy) T MN(r + ˆy) =r T MNr + ˆy T MN ˆy = SSE + SSR.<br />
Neliösummiin liittyvät ns. vapausasteet on annettu alla olevassa taulukossa.<br />
SSX vapausasteet<br />
SSE N − k − 1<br />
SSR k<br />
SST N − 1<br />
<br />
4 U V<br />
Kääntökaava on seuraavanlainen. Jos matriisi<br />
W Z<br />
ja, on ei-singuläärinen, niin sen käänteismatriisi on<br />
<br />
−1 −1 −1<br />
U + U VYWU −1 −U VY<br />
−YWU −1<br />
Y<br />
<br />
, missä U ja Z ovat ei-singuläärisiä neliömatriise-<br />
missä Y =(Z − WU −1 V) −1 . Kaava johdetaan kirjoittamalla käänteismatriisi määräämättömään lohkomuotoon<br />
<br />
R<br />
T<br />
S<br />
Y<br />
<br />
ja ratkaisemalla lohkot. Matriisin Z − WU −1 V ei-singuläärisyys vastaa muuten 2 × 2-matriisin<br />
kääntyvyyden tuttua determinanttiehtoa.<br />
<br />
,
LUKU 1. REGRESSIO 12<br />
Jakamalla neliösumma vapausasteellaan saadaan aina vastaava keskineliö:<br />
MSE =<br />
SSE<br />
N − k − 1<br />
, MSR = SSR<br />
k<br />
, MST = SST<br />
N − 1<br />
(residuaalin keskineliö, regression keskineliö ja kokonaiskeskineliö).<br />
Hypoteesin H0 : β1 = ··· = βk = 0 testisuure on näin ollen MSR/MSE ja sillä on<br />
Lauseen 1.1 mukaan F-jakauma vapausastein k ja N − k − 1. Vastahypoteesi on<br />
H1 : “ainakin yksi parametreistä β1,...,βk on = 0”.<br />
H0:n hylkääminen merkitsee, että ainakin yhdellä faktorilla on merkittävää vaikutusta vasteeseen.<br />
Varianssianalyysitaulu (jollaisen ohjelmistot yleensä tulostavat) sisältää kaiken tämän:<br />
variaation lähde vapausasteet neliösummat keskineliöt F merkitsevyys<br />
regressio<br />
residuaali<br />
kokonaisvariaatio<br />
k<br />
N − k − 1<br />
N − 1<br />
SSR<br />
SSE<br />
SST<br />
MSR<br />
MSE<br />
MST<br />
Neliösummista saadaan myös ns. determinaatiokerroin eli selitysaste<br />
MSR<br />
MSE<br />
pienin α:n<br />
arvo, jolla<br />
H0 hylätään<br />
SSR<br />
SST =merk. R 2 .<br />
Tulkinta: R2 ilmoittaa kuinka suuren suhteellisen osan vastevektorin otosvarianssista regressio<br />
selittää. R2 :n neliöjuuri <br />
SSR<br />
SST =merk. R<br />
on ns. yhteiskorrelaatiokerroin. Jotkut käyttävät mieluummin ns. korjattua determinaatiokerrointa<br />
1 − MSE<br />
MST =merk. R 2 A =1− (1 − R 2 N − 1<br />
)<br />
N − k − 1 .<br />
Tulkinta: R2 A ilmoittaa kuinka paljon suhteellisesti V (ɛ):n estimoidusta arvosta voidaan poistaa<br />
sovittamalla jokin muu kuin H0:n mukainen malli y = β0 + ɛ verrattuna siihen V (ɛ):n estimoituun<br />
arvoon (= MST), joka ko. mallin avulla saadaan. Tilasto-ohjelmistot tulostavat yleensä<br />
myös nämä kertoimet.<br />
1.4 Mallin epäsopivuuden testaus toistokokein<br />
Regressiomallin epäsopivuus tarkoittaa sitä, että lisäämällä uusia faktoreita tai entisistä faktoreista<br />
muodostettuja uusia (korkeampiasteisia) faktoreita residuaalia voidaan ”pienentää”.<br />
Huomautus. Mallin riittävyys, johon palataan yksisuuntaisen ANOVAn yhteydessä myöhemmin,<br />
puolestaan tarkoittaa sitä, että mallin yhteydessä sovitut oletukset (riippumattomuudet,<br />
normaalisuus, varianssien samuus, jne.) pitävät paikkansa.<br />
Jos siis malli<br />
y = x T β + ɛ<br />
on epäsopiva, tarkoittaa se sitä, että jokin laajennettu malli<br />
y = x T β + z T γ + ɛ ′ ,
LUKU 1. REGRESSIO 13<br />
missä z =(z1,...,zℓ) T on uusien tai entisistä kertomalla tai muuten saatujen faktorien muodostama<br />
vektori ja γ =(γ1,...,γℓ) T on uusi parametrivektori, on ”parempi”.<br />
Huomaa, että sovitettaessa jälkimmäinen malli pienimmän neliösumman keinolla vastevektoriin<br />
y ja datamatriisiin <br />
X Z ,<br />
missä X on aikaisempi datamatriisi ja Z uusia faktoreita vastaavista sarakkeista muodostettu<br />
”jatke”, eivät parametrit β saa (välttämättä) samoja arvoja kuin sovitettaessa alkuperäistä mallia.<br />
Tämä johtuu siitä, että uudet selittävät faktorit voivat selittää samoja tekijöitä kuin vanhat<br />
faktorit.<br />
Se mitä uudet faktorit selittävät ja vanhat eivät, on erotusdatassa<br />
Z − ˆ Z,<br />
missä ˆ Z saadaan ennustamalla Z:n sarakkeet vanhaa mallia käyttäen. Ennusteen laskukaavaa<br />
käyttäen 5<br />
ˆZ = X(X T X) −1 X T Z.<br />
Hypoteesi, jonka mukaan malli ei ole tarkasteltujen uusien faktorien kannalta epäsopiva, on<br />
näin ollen<br />
H0 :(Z− ˆ Z)γ = 0N.<br />
Vastahypoteesi on tietysti H1 :(Z− ˆ Z)γ = 0N.<br />
Yllä olevan hypoteesin testaus, jossa tarkastellaan mallin sopivuutta tiettyjen kiinteiden<br />
uusien faktorien kannalta, voidaan ajatella toteutettavaksi A-matriisilla<br />
<br />
T −1 T O Z − X(X X) X Z .<br />
Sillä ei tosin ole täyttä rivirangia ja rivejäkin on liikaa, mutta sen sarakerangi on ℓ, muutenhan<br />
matriisissa X Z on lineaarisesti riippuvia sarakkeita. Testi on näin ollen sama kuin<br />
hypoteesille H0 : γ = 0ℓ ja helppo toteuttaa. Jos halutaan testata, kuten alun perin haluttiin, onko<br />
mallia yleensä ottaen mahdollista parantaa, pitää verrata virhetermin aiheuttamaa varianssia<br />
vasteen selittämättä jääneen osan aiheuttamaan varianssiin. Jos jälkimmäinen on ”huomattavasti”<br />
suurempi, on mahdollista uusia faktoreita käyttäen parantaa mallin sopivuutta.<br />
Testisuure tällaiselle testaukselle saadaan, jos mukana on toistokokeita, ts. datamatriisissa<br />
on samoja rivejä. Oletetaan, että datamatriisissa X on erilaisia rivejä m kappaletta. Huomaa,<br />
että m ≥ k +1, muuten X T X on singuläärinen. Kootaan mainitut erilaiset rivit m × (k +1)matriisiksi<br />
X1. Silloin voidaan kirjoittaa<br />
X = TX1<br />
sopivasti valitulle N × m-matriisille T. Huomaa, että T:llä on täysi sarakerangi, ts. sen sarakkeet<br />
ovat lineaarisesti riippumattomat, ja että T1m = 1N. Itse asiassa T saadaan identiteettimatriisista<br />
Im toistamalla sen rivejä sopivasti.<br />
Laajin mahdollinen malli, joksi alkuperäinen malli voidaan täydentää, saadaan, kun lisätään<br />
X:ään suurin mahdollinen määrä aikaisemmista lineaarisesti riippumattomia sarakkeita säilyttäen<br />
toistetut rivit. Tällaiseen malliin ei nimittäin voida lisätä yhtäkään uutta selittäjää, joka ei,<br />
toistokokeiden puitteissa, riippuisi lineaarisesti aikaisemmista. Täydennetään X1 ensin m × mmatriisiksi<br />
lisäämällä siihen m − k − 1 aikaisemmista lineaarisesti riippumatonta saraketta:<br />
<br />
X1 Z1 =merk. X2.<br />
5 Matriisia (X T X) −1 X T Z kutsutaan ns. aliasmatriisiksi.
LUKU 1. REGRESSIO 14<br />
X:n täydennys on sen jälkeen N × m-matriisi<br />
TX2 = TX1 TZ1<br />
<br />
= X<br />
<br />
Z =merk. X3,<br />
missä Z = TZ1.<br />
Alkuperäisestä datamallista (Malli I)<br />
y = Xβ + ɛ<br />
saadaan näin laajennettu datamalli (Malli II)<br />
<br />
β<br />
y = X3 + ɛ = Xβ + Zγ + ɛ<br />
γ<br />
Mallista II saatu ennustevektori on<br />
ˆyII = X3(X T 3 X3) −1 X T 3 y = TX2(X T 2 T T TX2) −1 X T 2 T T y = T(T T T) −1 T T y,<br />
joka ei riipu Z1:stä, ts. siitä, miten X1 täydennetään! Näin ollen saatava testi ei myöskään<br />
riipu mallin laajennustavasta, kunhan toistojen rakenne (eli T) säilytetään. Mallista II saatava<br />
residuaali on<br />
rII =(IN − T(T T T) −1 T T )y<br />
ja tämän residuaalin neliösumma on<br />
ns. puhtaan virheen neliösumma.<br />
Yritetään selittää Mallin I residuaalivektori<br />
r T IIrII =merk. SSPE,<br />
r =(IN − X(X T X) −1 X T )y<br />
Mallin II avulla. Jos tämä onnistuu tarpeeksi hyvin, ei Malli I ole sopiva, vaan se voidaan täydentää<br />
sopivammaksi. Merkitään lyhyyden vuoksi<br />
P = IN − X(X T X) −1 X T<br />
ja R = IN − T(T T T) −1 T T .<br />
Silloin todetaan helpolla laskulla, että P ja R ovat symmetrisiä idempotentteja matriiseja ja että<br />
RP = PR = R , PX = O , RX = O , RZ = O,<br />
rank(P) =trace(P) =N − k − 1,<br />
rank(R) =trace(R) =N − m<br />
(ks. kurssit Laaja matematiikka 4 ja Matriisilaskenta 1). Selitettäessä Mallin II avulla Mallin I<br />
residuaalia r on selittämättä jäävä residuaali Rr = RPy = Ry, jonka neliösumma on nimenomaan<br />
SSPE. Kokonaisneliösumma on puolestaan rT r eli Mallin I residuaalin neliösumma<br />
SSE. Edelleen regression neliösumma tässä selitysyrityksessä on<br />
SSE − SSPE =merk. SSLOF,<br />
ns. epäsopivuuden neliösumma. Matriisimuodossa<br />
SSLOF = y T (P − R)y.
LUKU 1. REGRESSIO 15<br />
Matriisi P − R on symmetrinen idempotentti matriisi, jonka rangi on<br />
trace(P − R) =trace(P) − trace(R) =m − k − 1,<br />
kuten helposti voidaan todeta. SSPE vastaa sitä osaa residuaalivarianssista, joka johtuu virhetermistä.<br />
Siihen ei voida vaikuttaa mallilla, olipa tämä kuinka hyvä tahansa. SSLOF vastaa taas<br />
sitä osaa residuaalivarianssista, joka johtuu mallin huonosta selittävyydestä eli epäsopivuudesta.<br />
Mutta: Residuaali r ei ole oikeaa vasteen tyyppiä, sillä sillä on singuläärinen normaalijakauma<br />
(ts. P on singuläärinen). Näin ollen saatujen neliösummien jakaumat ja vapausasteet<br />
sekä niihin perustuva ANOVA katsotaan erikseen. Huomaa kuitenkin, että SSPE on Mallin II<br />
residuaalin neliösumma, joten sillä on χ 2 -jakauma N − m vapausasteella.<br />
Lause 1.2. Jos hypoteesi H0 : PZγ = 0N on tosi Mallille II, niin suureella<br />
SSLOF(N − m)<br />
SSPE(m − k − 1)<br />
on F-jakauma vapausastein m − k − 1 ja N − m (olettaen tietysti, että m>k+1).<br />
Todistus. (Tässä tarvitaan kurssin Laaja tilastomatematiikka tietoja.) Pitää näyttää, että SSLOF<br />
ja SSPE ovat riippumattomasti χ 2 -jakautuneet vapausastein m − k − 1 ja N − m, vastaavasti.<br />
Hypoteesin H0 voimassaollessa<br />
(P − R)y =(P − R)(Xβ + Zγ + ɛ) =(P − R)ɛ<br />
ja<br />
Ry = R(Xβ + Zγ + ɛ) =Rɛ.<br />
Koska P − R ja R ovat symmetrisiä idempotentteja matriiseja, R(P − R) =ON ja ɛ:lla on<br />
N(0N,σ2IN)-multinormaalijakauma, on lause oikea.<br />
Lauseessa esiintyvä Z on tietysti se laajin mahdollinen, jolla alkuperäistä datamatriisia X täydennetään.<br />
Vastahypoteesi on H1 : PZγ = 0N.<br />
SSPE:llä on siis vapausasteita N − m ja SSLOF:llä m − k − 1. Vastaavat keskineliöt ovat<br />
näin ollen<br />
SSPE<br />
N − m =merk.<br />
SSLOF<br />
MSPE ja<br />
m − k − 1 =merk. MSLOF<br />
(puhtaan virheen keskineliö ja epäsopivuuden keskineliö). Varianssianalyysitaulu on siten<br />
variaation lähde vapausasteet neliösummat keskineliöt F merkitsevyys<br />
epäsopivuus<br />
puhdas virhe<br />
residuaali<br />
m − k − 1<br />
N − m<br />
N − k − 1<br />
SSLOF<br />
SSPE<br />
SSE<br />
MSLOF<br />
MSPE<br />
MSE<br />
MSLOF<br />
MSPE<br />
pienin α:n<br />
arvo, jolla<br />
H0 hylätään<br />
Jos hypoteesia H0 ei hyväksytä, voidaan mallia parantaa täydentämällä sitä sopivilla faktoreilla.<br />
Huomaa, että jos erityisesti täydentävät faktorit ovat entisistä laskien saatuja korkean<br />
asteen faktoreita, niin edellä esitetty toistettujen rivien säilyminen täydennettäessä on automaattista.<br />
Näin ollen esitetty testi on erityisen sopiva juuri tällaista täydennystä ajatellen. Jos mallia<br />
päätetään täydentää, ei tietystikään mukaan välttämättä kannata ottaa ”kaikkia mahdollisia” lisäselittäjiä,<br />
vaan vain sopivasti valitut lisäfaktorit. Ohjelmistot tarjoavatkin korkeampiasteisten<br />
faktorien osalta monia (puoli)automaattisia lisäys- ja valintamenetelmiä (ns. askeltava regressio).
LUKU 1. REGRESSIO 16<br />
Huomautus. Eräät ohjelmistot suorittavat epäsopivuustestin automaattisesti, jos toistokokeita<br />
esiintyy. Matlabia käytettäessä matriisin T kokoaminen on helppoa, varsinkin jos toistoja on<br />
kullekin toistetulle tasoyhdelmälle yhtä monta (kuten esimerkiksi sivulla 5 olevalle datalle).<br />
Huomautus. Epäsopivuustesti voidaan tehdä muutenkin kuin toistokokeita käyttäen. Matriisista<br />
T:kin käytettiin nimittäin vain sen ominaisuuksia<br />
(i) T:llä on täysi sarakerangi (jotta T T T olisi ei-singuläärinen) ja<br />
(ii) hajotelmassa X = TX1 on X1:llä täysi sarakerangi k +1(jotta se voidaan täydentää<br />
ei-singulääriseksi m × m-matriisiksi X2).<br />
Mikä tahansa matriisi, joka toteuttaa nämä ehdot, kelpaisi periaatteessa T:n tilalle. Tällöin<br />
ei kyseessä olisi välttämättä enää koetoistoihin perustuva testi. Itse asiassa, jos käytetäänkin<br />
hajotelmaa X =(TS)(S −1 X1),missä S on ei-singuläärinen m × m-matriisi, niin<br />
IN − TS(S T T T TS) −1 S T T T = IN − T(T T T) −1 T T = R.<br />
Siis esitetty epäsopivuustesti riippuu T:stä vain sen sarakeavaruuden S kautta! Valitsemalla<br />
S eri tavoin saadaan erilaisia epäsopivuustestejä, tosin näin saadut testit ovat yleensä heikompia<br />
kuin toistoihin perustuvat. Ks. myös CHRISTENSEN ja artikkeliviite JOGLEKAR, G.&<br />
SCHUENMEYER, J.H. & LARICCIA, V.: Lack-of-Fit Testing When Replicates Are Not Available.<br />
The American Statistician 43 (–89), 135–143.<br />
1.5 Datan affiinimuunnokset. Ortogonaalisuus ja kiertosymmetrisyys<br />
Jos X on N × (k +1)-datamatriisi ja L on ei-singuläärinen (k +1)× (k +1)-matriisi, jonka<br />
ensimmäinen sarake on (1, 0,...,0) T , niin XL on myös N × (k +1)-datamatriisi, joka sisältää<br />
saman informaation kuin X. Tällainen muunnos on datan affiinimuunnos. L on siis muotoa<br />
T<br />
1 ℓ<br />
L =<br />
0k K<br />
missä ℓ on k-vektori ja K on ei-singuläärinen k × k-matriisi.<br />
Koska<br />
y = Xβ + ɛ = XLL −1 β + ɛ,<br />
on uutta datamatriisia XL vastaava parametrivektori L −1 β =merk. γ. Edelleen pienimmän neliösumman<br />
keinon antama parametrivektorin γ estimaatti on<br />
g =((XL) T XL) −1 (XL) T y = L −1 (X T X) −1 (L T ) −1 L T X T y = L −1 b<br />
ja ”uusi” ennustevektori on XLg = Xb = ˆy eli sama kuin ”vanha”. Näin ollen myöskin<br />
residuaali pysyy datan affiinimuunnoksessa samana ja itse asiassa kaikki neliösummat SSE,<br />
SST ja SSR sekä vastaavat keskineliöt. Mallin merkitsevyys ei siis muutu. Myöskin lineaarisen<br />
hypoteesin ALγ = d testaus antaa saman tuloksen kuin hypoteesin Aβ = d testaus, sillä<br />
(Ab − d) T (A(XT X) −1AT ) −1 (Ab − d)<br />
=(ALg − d) T (AL((XL) T XL) −1 (AL) T ) −1 (ALg − d).
LUKU 1. REGRESSIO 17<br />
Koko ANOVA tuottaa näin ollen aina saman tuloksen, riippumatta siitä tehdäänkö dataan jokin<br />
affiinimuunnos vai ei. Toisaalta<br />
V (g) =σ 2 ((XL) T XL) −1 = σ 2 L −1 (X T X) −1 (L T ) −1<br />
voi hyvinkin olla ”edullisempaa” muotoa kuin V (b), ts.g:n komponenttien välillä voi olla vähemmän<br />
korrelaatiota kuin b:n komponenttien välillä ja niiden varianssit voivat olla pienempiä<br />
kuin b:n komponenttien varianssit.<br />
Huomautus. Jos mallissa on mukana ensimmäisen asteen faktoreista muodostettuja korkeampiasteisia<br />
faktoreita, tehdään usein affiinimuunnos vain datan ensimmäisen asteen osaan ja lasketaan<br />
näin saaduista ”uusista” faktoreista malliin mukaan korkeampiasteisia faktoreita. Affiinimuunnokset<br />
nimittäin useimmiten liittyvät vain perusfaktorien arvojen muuntamiseen. Toisaalta,<br />
jos malli sisältää kaikki korkeampiasteiset termit haluttuun astelukuun asti, voidaan<br />
myös vastaava ”uusi” malli saada aikaisemmasta affiinimuunnoksella, kuten on helposti todettavissa.<br />
Tavallinen ensimmäisen kertaluvun mallin datan affiinimuunnos on skaalaus, jota vastaava<br />
matriisi K on lävistäjämatriisi, missä lävistäjäalkiot p1,...,pk ovat nollasta eroavia. Tällaista<br />
lävistäjämatriisia merkitään ⌈p⌋:llä, missä p =(p1,...,pk) T . Selittäjä xi korvautuu skaalauksessa<br />
selittäjällä pixi + ℓi, missä ℓi on ℓ:n i:s alkio. Skaalauksen tarkoituksena on, paitsi vaihtaa<br />
selittävien muuttujien asteikot ”sopivammiksi”, muuntaa keinotekoisesti selittävät muuttujat<br />
tyypillisten arvojensa suhteen samaan asemaan. Tyypillisten arvojen kokoero saattaa nimittäin<br />
alunperin olla monia dekadeja, mikä aiheuttaa mm. numeerista epätarkkuutta laskuissa. Tällöin<br />
suoritetaan ensin skaalaus ja vasta sitten mallin sovitus. Skaalausmatriisi on helposti koottavissa<br />
Matlabin operaatioilla:<br />
»p=[0.3 2.9 0.001 -3.4 0.8]<br />
p =<br />
0.3000 2.9000 0.0010 -3.4000 0.8000<br />
»l=[-1.2 3.0 -4.5 34.0 0]<br />
l =<br />
-1.2000 3.0000 -4.5000 34.0000 0<br />
»L=[1 l;zeros(5,1) diag(p)]<br />
L =<br />
1.0000 -1.2000 3.0000 -4.5000 34.0000 0<br />
0 0.3000 0 0 0 0<br />
0 0 2.9000 0 0 0<br />
0 0 0 0.0010 0 0<br />
0 0 0 0 3.4000 0<br />
0 0 0 0 0 0.8000<br />
Erityinen skaalauksen muoto on datan standardointi, jossa valitaan<br />
pi =<br />
1<br />
<br />
<br />
<br />
1<br />
N<br />
(xji − xi)<br />
N − 1<br />
2<br />
j=1<br />
ja ℓi = −xipi,<br />
ts. pi on xi:n otoshajonnan inverssi ja ℓi on xi:n otosvariaatiokertoimen vastaluku (xi on tietysti<br />
xi:n otoskeskiarvo). Jälleen p ja ℓ saadaan koottua helposti Matlabilla:
LUKU 1. REGRESSIO 18<br />
»p=1 ./std(D);<br />
»l=-p.*mean(D);<br />
D on siis suunnittelumatriisi, joka saadaan X:stä: X = 1N D .<br />
Jos data on kunkin faktorin osalta tasavälistä, käytetään usein koodausta, joka myös on eräs<br />
skaalauksen muoto. Tällöin<br />
pi =<br />
2<br />
max(x1i,...,xNi) − min(x1i,...,xNi)<br />
ja ℓi = −xipi,<br />
ts. erona standardointiin on, että pi on nyt xi:n otosvaihteluvälin puolikkaan eikä xi:n otoshajonnan<br />
inverssi. Myös koodaus on helposti tehtävissä Matlabilla:<br />
»p=2 ./(max(D)-min(D));<br />
»l=-p.*mean(D);<br />
Lähinnä koodausta käytetään tilanteessa, missä kullakin faktorilla on kaksi tasoa tai kolme tasavälistä<br />
tasoa, jotka esiintyvät tasapainoisesti eli siten, että kunkin faktorin xi otoskeskiarvo<br />
on sen tasojen vaihtelukeskipisteessä<br />
min(x1i,...,xNi)+max(x1i,...,xNi)<br />
,<br />
2<br />
sillä tällöin koodatut arvot ovat 0, ±1. Jos tasoja on enemmän tai data ei ole tasapainoista, on<br />
koodaus korvattava mutkikkaammalla operaatiolla.<br />
Edellä sivulla 5 oleva tasavälinen ja tasapainoinen data standardoituna ja koodattuna on<br />
annettu alla olevassa taulussa.<br />
standardointi koodaus<br />
x1<br />
x2<br />
−0.957 −1.173<br />
−0.957 −1.173<br />
0.957 −1.173<br />
0.957 −1.173<br />
−0.957 0<br />
−0.957 0<br />
0.957 0<br />
0.957 0<br />
−0.957 1.173<br />
−0.957 1.173<br />
0.957 1.173<br />
0.957 1.173<br />
x1 x2<br />
−1 −1<br />
−1 −1<br />
1 −1<br />
1 −1<br />
−1 0<br />
−1 0<br />
1 0<br />
1 0<br />
−1 1<br />
−1 1<br />
1 1<br />
1 1<br />
Ajetaan vielä sekä standardoitu että koodattu data Systatilla muodostaen korkeamman asteen<br />
faktorit muunnetusta datasta. Käskyt<br />
>USE ’rotta.sys’<br />
SYSTAT FILE VARIABLES AVAILABLE TO YOU ARE:<br />
X1 X2 Y<br />
>save rottastd.sys<br />
>standardize x1,x2<br />
>run<br />
standardoivat ja käskyt
LUKU 1. REGRESSIO 19<br />
>EDIT ’Tilastomatematiikka:TKS data:rotta.sys’<br />
>LET x1=2*(x1-0.5)/0.4<br />
>LET x2=2*(x2-5)/8<br />
>SAVE ’Tilastomatematiikka:TKS data:rottakood.sys’<br />
koodaavat datan uudeksi dataksi. Malli on sama kuin sivulla 5 oleva. Käytetään pitkää tulostusta,<br />
jotta saadaan mukaan parametrien korrelaatiot. Ajetaan ensin standardoitu data:<br />
EIGENVALUES OF UNIT SCALED X’X<br />
CONDITION INDICES<br />
VARIANCE PROPORTIONS<br />
1 2 3 4 5<br />
1.816 1.000 1.000 1.000 0.184<br />
1 2 3 4 5<br />
1.000 1.348 1.348 1.348 3.146<br />
1 2 3 4 5<br />
CONSTANT 0.092 0.000 0.000 0.000 0.908<br />
X1 0.000 0.001 0.214 0.785 0.000<br />
X2 0.000 0.999 0.000 0.001 0.000<br />
X1 0.000 0.000 0.786 0.214 0.000<br />
X2 0.092 0.000 0.000 0.000 0.908<br />
DEP VAR: Y N: 12 MULTIPLE R: .989 SQUARED MULTIPLE R: .977<br />
ADJUSTED SQUARED MULTIPLE R: .965 STANDARD ERROR OF ESTIMATE: 0.769<br />
VARIABLE COEFFICIENT STD ERROR STD COEF TOLERANCE T P(2 TAIL)<br />
CONSTANT 8.535 0.385 0.000 . 22.188 0.000<br />
X1 -2.788 0.232 -0.683 .100E+01 -12.018 0.000<br />
X2 2.839 0.232 0.695 .100E+01 12.238 0.000<br />
X1*<br />
X2 -0.139 0.242 -0.033 .100E+01 -0.574 0.584<br />
X2*<br />
X2 -0.992 0.343 -0.164 .100E+01 -2.895 0.023<br />
CORRELATION MATRIX OF REGRESSION COEFFICIENTS<br />
CONSTANT X1 X2 X1 X2<br />
CONSTANT 1.000<br />
X1 0.000 1.000<br />
X2 0.000 0.000 1.000<br />
X1 0.000 0.000 0.000 1.000<br />
X2 -0.816 0.000 -0.000 -0.000 1.000<br />
ANALYSIS OF VARIANCE<br />
SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />
REGRESSION 179.293 4 44.823 75.729 0.000<br />
RESIDUAL 4.143 7 0.592<br />
Verrattaessa aikaisempaan sivulla 6 olevaan tulostukseen havaitaan nyt X T X:n ominaisarvojen<br />
tasaisempi rakenne ja parametrien suurempi korreloimattomuus. ANOVA tuottaa saman<br />
tuloksen kuin aikaisemminkin. Ajetaan sitten koodattu data. Tulokset ovat paljolti samantapaiset<br />
kuin standardoidulle datalle:<br />
EIGENVALUES OF UNIT SCALED X’X<br />
1 2 3 4 5<br />
1.816 1.000 1.000 1.000 0.184
LUKU 1. REGRESSIO 20<br />
CONDITION INDICES<br />
VARIANCE PROPORTIONS<br />
1 2 3 4 5<br />
1.000 1.348 1.348 1.348 3.146<br />
1 2 3 4 5<br />
CONSTANT 0.092 0.000 0.000 0.000 0.908<br />
X1 0.000 0.770 0.030 0.200 0.000<br />
X2 0.000 0.038 0.962 0.000 0.000<br />
X1 0.000 0.192 0.008 0.800 0.000<br />
X2 0.092 0.000 0.000 0.000 0.908<br />
DEP VAR: Y N: 12 MULTIPLE R: .989 SQUARED MULTIPLE R: .977<br />
ADJUSTED SQUARED MULTIPLE R: .965 STANDARD ERROR OF ESTIMATE: 0.769<br />
VARIABLE COEFFICIENT STD ERROR STD COEF TOLERANCE T P(2 TAIL)<br />
CONSTANT 8.535 0.385 0.000 . 22.188 0.000<br />
X1 -2.669 0.222 -0.683 .100E+01 -12.018 0.000<br />
X2 3.329 0.272 0.695 .100E+01 12.238 0.000<br />
X1*<br />
X2 -0.156 0.272 -0.033 .100E+01 -0.574 0.584<br />
X2*<br />
X2 -1.364 0.471 -0.164 .100E+01 -2.895 0.023<br />
CORRELATION MATRIX OF REGRESSION COEFFICIENTS<br />
CONSTANT X1 X2 X1 X2<br />
CONSTANT 1.000<br />
X1 0.000 1.000<br />
X2 0.000 -0.000 1.000<br />
X1 0.000 -0.000 0.000 1.000<br />
X2 -0.816 -0.000 0.000 -0.000 1.000<br />
ANALYSIS OF VARIANCE<br />
SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />
REGRESSION 179.293 4 44.823 75.729 0.000<br />
RESIDUAL 4.143 7 0.592<br />
Suunnittelun sanotaan olevan ortogonaalinen, jos X T X on lävistäjämatriisi, ts. silloin kun<br />
faktoreita vastaavat sarakkeet ovat kohtisuorassa toisiaan vastaan (ja myös vektoria 1N vastaan).<br />
Lause 1.3. Suunnittelu on ortogonaalinen täsmälleen silloin, kun<br />
(i) D:n sarakesummat ovat nollia, ts. 1 T N D = 0T k ja<br />
(ii) D T D on lävistäjämatriisi.<br />
(Tässä D on jälleen suunnittelumatriisi, X = 1N D .)<br />
Todistus. Ilmeisesti<br />
X T X =<br />
1 T N<br />
D T<br />
1 T N D =<br />
on lävistäjämatriisi tarkalleen silloin, kun (i) ja (ii) toteutuvat.<br />
N 1 T N D<br />
D T 1N D T D<br />
Ortogonaalista suunnittelua käytettäessä V (b) =σ 2 (X T X) −1 on lävistäjämatriisi, ts. parametriestimaatit<br />
b0,...,bk ovat riippumattomat. Edelleen tällöin käänteismatriisin (X T X) −1<br />
laskeminen on helppoa ja tarkkaa.
LUKU 1. REGRESSIO 21<br />
Suunnittelun sanotaan olevan kiertosymmetrinen, jos matriisi X T X säilyy samana, kun dataan<br />
tehdään mielivaltainen ortogonaalinen muunnos, ts. X T X on ”koordinaatistosta riippuma-<br />
ton”. Ortogonaalinen muunnos on sama kuin muotoa<br />
Q =<br />
1 0 T k<br />
0k K<br />
oleva affiinimuunnos, missä K on k × k-ortogonaalimatriisi.<br />
Lause 1.4. Suunnittelu on kiertosymmetrinen täsmälleen silloin, kun<br />
(i) D:n sarakesummat ovat nollia, ts. 1 T N D = 0T k ja<br />
(ii) D T D on muotoa λIk, missä λ on vakio.<br />
Todistus. (Tässä tarvittaneen kurssin Matriisilaskenta 1 tietoja.) Oletetaan, että suunnittelu on<br />
kiertosymmetrinen. Sovelletaan mielivaltaista ortogonaalimuunnosta:<br />
(XQ) T XQ = Q T X T <br />
T 1 0k XQ =<br />
0k KT <br />
T 1N DT <br />
<br />
1N D 1 0T <br />
k<br />
0k K<br />
<br />
T 1 0k =<br />
0k KT <br />
T N 1ND DT 1N DT <br />
T 1 0k D 0k K<br />
<br />
N 1<br />
=<br />
T ND KT DT 1N KT DT <br />
T 1 0k D 0k K<br />
<br />
N 1<br />
=<br />
T NDK KT DT 1N KT DT <br />
.<br />
DK<br />
Jotta tämä olisi<br />
X T <br />
T N 1ND X =<br />
DT 1N DT <br />
,<br />
D<br />
on oltava<br />
K T D T 1N = D T 1N ja K T D T DK = D T D,<br />
olipa K mikä tahansa ortogonaalimatriisi. Mutta, jotta kaikki ortogonaalimuunnokset pitäisivät<br />
DT 1N:n samana, pitää sen olla = 0k,ts. (i) pätee.<br />
Toisaalta DT D on symmetrinen matriisi, joten se on diagonalisoitavissa ortogonaalimuunnoksella.<br />
Näin ollen DT D:n on oltava valmiiksi lävistäjämatriisi. Silloin taas DT D:n lävistäjäalkiot<br />
voidaan permutoida mielivaltaiseen järjestykseen ortogonaalimuunnoksella. Näin ollen<br />
lävistäjäalkioiden on oltava samoja. Siispä myös (ii) pätee.<br />
Selvästi suunnittelu on kiertosymmetrinen, jos (i) ja (ii) pätevät.<br />
Kiertosymmetrisessä suunnittelussa ei ole mahdollista ”parantaa” mallia siirtymällä ”uusiin<br />
koordinaatteihin”, ts. esimerkiksi V (b) pysyy samana. Malli ei voi tällöin myöskään ”huonon-<br />
tuakaan”. Erityisesti ennusteen varianssi<br />
V (ˆy) =σ 2 (x ′ ) T (X T X) −1 x ′ = σ 2<br />
1<br />
N<br />
<br />
1 ′<br />
+ (x<br />
λ<br />
1) 2 + ···(x ′ k) 2<br />
riippuu vain datavektorin x ′ =(1,x ′ 1,...,x ′ k )T pituudesta. 6<br />
Lauseista 1.3 ja 1.4 seuraa, että jokainen kiertosymmetrinen suunnittelu on myös ortogonaalinen,<br />
mutta ei kääntäen. Tärkeä ortogonaalisten/kiertosymmetristen suunnittelujen ominaisuus<br />
on se, että niistä faktoreita poistamalla eli typistämällä saadut suunnittelut ovat myös ortogonaalisia/kiertosymmetrisiä.<br />
(Tämä seuraa varsin suoraan yo. lauseista.)<br />
6 Tästä itse asiassa tulee nimi ”kiertosymmetrinen”, datan rotaatio ei muuta ennusteen varianssia.
LUKU 1. REGRESSIO 22<br />
1.6 Esimerkki ortogonaalisesta 1. kertaluvun suunnittelusta:<br />
Simplex-koe, Plackett–Burman-koe<br />
Simplex-koe on ortogonaalinen 1. kertaluvun malliin perustuva koe, jonka datamatriisi X =<br />
1k+1 D on (k +1)×(k +1)-matriisi ja suunnittelumatriisi muodostuu säännöllisen origokeskisen<br />
k+1-simpleksin kärkien koordinaateista R k :ssa. Esimerkiksi R 2 :ssa tällainen simpleksi<br />
on tasasivuinen origokeskinen kolmio (ks. alla oleva kuvio). (Yleisesti R k :n simpleksi on sen<br />
k +1-kärkinen monitahokas.)<br />
a<br />
a<br />
y<br />
a<br />
x<br />
x<br />
a<br />
z<br />
a<br />
a<br />
y<br />
x<br />
a<br />
a<br />
z<br />
a<br />
y<br />
keskipiste<br />
Sama tasasivuinen kolmio syntyy R 3 :een leikattaessa ensimmäistä oktanttia tasolla<br />
x + y + z = a √ 2 .<br />
Rotaatiolla saadaan kolmio yz-tason suuntaiseksi, jolloin sen kärkien ensimmäiset koordinaatit<br />
ovat samat. Kolmion kärjet origoon yhdistävät janat ovat edelleen kohtisuorassa toisiaan vastaan<br />
(ortogonaalisuus). Kolmion keskipiste on x-akselilla.<br />
Lause 1.3 ja yllä oleva päättely antavat seuraavan idean kahden faktorin simplex-kokeen<br />
suunnitteluun:<br />
1. Etsitään ortogonaalinen 3×3-matriisi V, jonka ensimmäisen sarakkeen alkiot ovat samoja<br />
(= 1/ √ 3).<br />
2. Valitaan X = √ 3V.<br />
V löytyy esimerkiksi muodostamalla matriisin<br />
⎛<br />
1 0<br />
⎞<br />
0<br />
W = ⎝ 1 1 0 ⎠<br />
1 0 1<br />
QR-hajotelma W = QR, missä Q on ortogonaalimatriisi ja R on yläkolmiomatriisi (ks. kurssi<br />
Matriisilaskenta 1). Valitaan V = ±Q.<br />
Sama idea toimii yleisestikin:<br />
1. Muodostetaan (k +1)× (k +1)-matriisin<br />
⎛<br />
1<br />
⎜ 1<br />
W = ⎜<br />
⎝ .<br />
0<br />
1<br />
.<br />
0<br />
0<br />
.<br />
···<br />
···<br />
...<br />
⎞<br />
0<br />
0 ⎟<br />
. ⎠<br />
1 0 0 ··· 1<br />
QR-hajotelma W = QR.
LUKU 1. REGRESSIO 23<br />
2. Valitaan X = ± √ k +1Q.<br />
(W:n tilalle kelpaavat tietysti muutkin ei-singulääriset matriisit, joiden ensimmäinen sarake on<br />
1k+1.)<br />
Käytännössä laskenta sujuu vaikkapa Matlabilla. Otetaan esimerkkinä tapaus k =3:<br />
»I=eye(4);W=[ones(4,1) I(:,2:4)]<br />
W =<br />
1 0 0 0<br />
1 1 0 0<br />
1 0 1 0<br />
1 0 0 1<br />
»[Q,R]=qr(W)<br />
Q =<br />
R =<br />
-0.5000 0.2887 0.4082 -0.7071<br />
-0.5000 -0.8660 0 0.0000<br />
-0.5000 0.2887 -0.8165 0<br />
-0.5000 0.2887 0.4082 0.7071<br />
-2.0000 -0.5000 -0.5000 -0.5000<br />
0 -0.8660 0.2887 0.2887<br />
0 0 -0.8165 0.4082<br />
0 0 0 0.7071<br />
»X=2*(-Q)<br />
X =<br />
1.0000 -0.5774 -0.8165 1.4142<br />
1.0000 1.7321 0 -0.0000<br />
1.0000 -0.5774 1.6330 0<br />
1.0000 -0.5774 -0.8165 -1.4142<br />
Tällä tavoin saatu suunnittelu on lisäksi myös kiertosymmetrinen, sillä X T X =(k +1)Ik+1<br />
(Lause 1.4). Koska N = k +1,eivät simplex-kokeille tule suoraan käyttöön σ 2 , t-testit eikä<br />
myöskään ANOVA. Esimerkiksi Systatin tulostus yo. datalla tehdylle kokeelle on seuraava:<br />
käskyt<br />
>USE ’simplex.sys’<br />
VARIABLES IN SYSTAT FILE ARE:<br />
X1 X2 X3 Y<br />
>model y=constant+x1+x2+x3<br />
>estimate<br />
ja tulostus<br />
DEP VAR: Y N: 4 MULTIPLE R: 1.000 SQUARED MULTIPLE R: 1.000<br />
VARIABLE COEFFICIENT STD ERROR STD COEF TOLERANCE T P(2 TAIL)<br />
CONSTANT 1.068 0.000 . . . .<br />
X1 0.538 0.000 . .100E+01 . .<br />
X2 -0.420 0.000 . .100E+01 . .<br />
X3 0.071 0.000 . .100E+01 . .<br />
ANOVA ei tulostu ja mallin sopivuus on täydellinen. Tulostuksen antina ovat saadut parametriestimaatit.<br />
Mutta tietysti suunnittelua voidaan tarvittaessa typistää, ts. ottaa mukaan vain tarvittava<br />
määrä faktoreita. Kuten edellä todettiin, tämä ei poista ortogonaalisuutta eikä kiertosymmetrisyyttä.
LUKU 1. REGRESSIO 24<br />
Huomautus. Jos simplex-data ei ole ”reaalimaailman” koetta ajatellen oikeantyyppistä, voidaan<br />
se muuntaa sopivalle asteikolle skaalauksella. Koe suoritetaan skaalatulla datalla, mutta<br />
mallina käytetään (typistetyn) simplex-datan mallia, josta haluttaessa voidaan päästä skaalauksella<br />
”reaalimaailmaan”.<br />
Erikoistapaus simplex-kokeesta on ns. Plackett–Burman-koe. Datamatriisi on tällöin (mahdollisen<br />
koodauksen jälkeen) alkioista ±1 koostuva (k +1)× (k +1)-matriisi X, joka toteuttaa<br />
ehdon<br />
X T X =(k +1)Ik+1.<br />
Tällaista ±1-matriisia X kutsutaan yleisesti Hadamardin matriisiksi. 7 Hadamardin m × mmatriisilla<br />
H on seuraavat ominaisuudet:<br />
(i) H:n sarakesummat ensimmäistä saraketta lukuunottamatta ovat =0, ts. sarakkeissa on<br />
yhtä monta +1:tä ja −1:tä.<br />
(ii) Joko m =2tai sitten m on neljällä jaollinen luku.<br />
(iii) H:n kahden rivin välinen etäisyys on aina √ 2m.Tästä ja kohdasta (i) seuraa, että Plackett–<br />
Burman-koe on simplex-koe, koska rivin ensimmäinen alkio on 1.<br />
Nämä ominaisuudet ovat kutakuinkin helposti todettavissa (jätetään lukijalle).<br />
Hadamardin matriisien konstruktio tapahtuu käyttäen ns. äärellisiä kuntia (ks. kurssi Algebra<br />
1 tai Koodausteoria). JOHN selostaa konstruktiota lähemmin. Jo saaduista Hadamardin<br />
matriiseista saa uusia isompia ns. Kronecker-tuloa käyttämällä. Yleisesti n1 × m1-matriisin<br />
⎛<br />
⎞<br />
A =<br />
⎜<br />
⎝<br />
a11 ··· a1m1<br />
.<br />
. ..<br />
an1 ··· an1m1<br />
ja n2 × m2-matriisin B Kronecker-tulo on n1n2 × m1m2-matriisi<br />
⎛<br />
⎞<br />
A =<br />
⎜<br />
⎝<br />
a11B ··· a1m1B<br />
.<br />
. .. .<br />
an1B ··· an1m1B<br />
.<br />
⎟<br />
⎠<br />
⎟<br />
⎠ =merk. A ⊗ B<br />
(lohkomuoto). Lohkomatriisien kertolaskukaavasta seuraa melko välittömästi, että mikäli matriisitulot<br />
AC ja BD ovat määritellyt, niin<br />
(A ⊗ B)(C ⊗ D) =(AC) ⊗ (BD),<br />
ja lohkomatriisin transponointikaavasta puolestaan, että (A ⊗ B) T = A T ⊗ B T . Jos nyt<br />
m1 × m1-matriisi H1 ja m2 × m2-matriisi H2 ovat Hadamardin matriiseja, niin samoin on<br />
niiden Kronecker-tulo H1 ⊗ H2, sillä<br />
(H1 ⊗ H2) T (H1 ⊗ H2) =(H T 1 ⊗ H T 2 )(H1 ⊗ H2) =(H T 1 H1) ⊗ (H T 2 H2)<br />
=(m1Im1) ⊗ (m2Im2) =m1m2Im1m2<br />
ja H1 ⊗ H2:n ensimmäinen sarake on Im1m2. Matlabilla tällainen konstruktio sujuu helposti:<br />
7 Varsinaisesti Hadamardin matriisi määritellään niin, että sen ensimmäisen sarakkeen ei tarvitse olla 1. Toisaalta<br />
jokainen Hadamardin matriisi voidaan saattaa tällaiseksi kertomalla sen rivejä sopivasti −1:llä. Tämä säilyttää<br />
Hadamard-ominaisuuden, kuten voi helposti todeta. Tällaiselle yleiselle Hadamardin matriisille ominaisuus (i)<br />
ei välttämättä pidä paikkaansa. Hadamardin matriisi on standardimuodossa, jos sen ensimmäinen sarake on 1 ja<br />
ensimmäinen rivi 1 T .
LUKU 1. REGRESSIO 25<br />
»H1=[1 1;1 -1]<br />
H1 =<br />
1 1<br />
1 -1<br />
»H2=kron(H1,H1)<br />
H2 =<br />
1 1 1 1<br />
1 -1 1 -1<br />
1 1 -1 -1<br />
1 -1 -1 1<br />
»H=kron(H1,H2)<br />
H =<br />
1 1 1 1 1 1 1 1<br />
1 -1 1 -1 1 -1 1 -1<br />
1 1 -1 -1 1 1 -1 -1<br />
1 -1 -1 1 1 -1 -1 1<br />
1 1 1 1 -1 -1 -1 -1<br />
1 -1 1 -1 -1 1 -1 1<br />
1 1 -1 -1 -1 -1 1 1<br />
1 -1 -1 1 -1 1 1 -1<br />
1.7 2 k -kokeet: Katsaus<br />
2 k -kokeella tarkoitetaan koetta, jossa (k +1)× N-datamatriisin X sarakkeissa (ensimmäistä<br />
saraketta lukuunottamatta) esiintyy vain kahta eri tason arvoa. Koodauksen jälkeen ne ovat 1<br />
ja −1. Jatkossa oletetaankin koodaus valmiiksi suoritetuksi. Plackett–Burman-kokeet ovat siis<br />
2 k -kokeita.<br />
Malli on tällöin<br />
y = β0 +<br />
k<br />
βixi + <br />
βijxixj + ···+ <br />
i=1<br />
1≤i
LUKU 1. REGRESSIO 26<br />
⎛<br />
⎜<br />
X = ⎜<br />
⎝<br />
1 −1 −1 −1<br />
1 −1 −1 1<br />
1 −1 1 −1<br />
1 −1 1 1<br />
1 1 −1 −1<br />
1 1 −1 1<br />
1 1 1 −1<br />
1 1 1 1<br />
Ensimmäisen kertaluvun täydellinen 2 k -koe on näin ollen aina kiertosymmetrinen, sillä ilmeisesti<br />
X T X =2 k Ik+1 (Lause 1.4).<br />
Täydellisessä 2 k -kokeessa on useinkin käytännön kannalta liian monta faktoria. Ns. osittaisissa<br />
2 k -kokeissa faktorien määrää karsitaan (ja datamatriisin rivilukua pienennetään) aivan<br />
omalla tavallaan kieltämällä tietyt faktorit. Faktorin kielto tarkoittaa sitä, että sen arvo kiinnitetään<br />
±1:ksi. Jos kielletään faktorit z1,...,zm, onkiellettävä myös kaikki näistä keskenään<br />
kertomalla saadut faktorit, sillä näiden arvot tulevat myös kiinnitetyksi. Kiellettyjen termien<br />
sanotaan sekoittuvan vakiotermiin. (Vakiotermiä itseään ei toki voida kieltää!)<br />
Kielletyt faktorit ovat yleensä korkeampaa kertalukua ja selittävät ensimmäisen kertaluvun<br />
faktorien ns. yhdysvaikutuksia. Kiellettäessä faktoreita päätetään samalla, etteivät tietyt yhdysvaikutukset<br />
ole tarkastelun kannalta tärkeitä. Jos siis tapauksessa k =5päätetään kieltää faktorit<br />
x1x2 , x3x4 ja x2x3x5,<br />
on myös kiellettävä<br />
x1x2 · x3x4 = x1x2x3x4,<br />
x1x2 · x2x3x5 = x1x3x5,<br />
x3x4 · x2x3x5 = x2x4x5,<br />
⎞<br />
⎟ .<br />
⎟<br />
⎠<br />
x1x2 · x3x4 · x2x3x5 = x1x4x5.<br />
Alinta kertalukua olevan kielletyn termin aste on ns. kokeen resoluutio.<br />
Kun faktorit z1,...,zm on kielletty, ts. niiden arvot kiinnitetty, jätetään datamatriisiin vain<br />
ne rivit, jotka toteuttavat nämä kiinnitykset. Itse malliin ei oteta mukaan kiellettyjä faktoreita.<br />
Toisaalta kiinnitykset samaistavat tiettyjä faktoreita merkkiä vaille ja näistä otetaan mukaan<br />
malliin vain yksi, jottei datamatriisiin tule lineaarisesti riippuvia sarakkeita. Tällaisia faktoreita<br />
kutsutaan toistensa aliaksiksi. Esimerkiksi yo. kiinnitysten puitteissa malliin ei saa ottaa mukaan<br />
molempia faktoreita x1 ja x2,sillä<br />
x1 =(±x1x2)x1 = ±x2,<br />
missä merkki ± valitaan siten, että ±x1x2 =1.<br />
Sitä kiellettyjen faktoreiden arvojen kiinnitystä, joka antaa kullekin niistä arvon 1, kutsutaan<br />
pääositukseksi. Jos esimerkiksi tapauksessa k =5kielletään faktorit<br />
x1x2x3 , x3x4x5 ja x1x2x4x5<br />
pääosituksessa, saadaan seuraava ns. aliastaulu
LUKU 1. REGRESSIO 27<br />
mallin faktori<br />
1<br />
x1<br />
x2<br />
x3<br />
x4<br />
x5<br />
x1x4<br />
x1x5<br />
sekoittuvat aliakset<br />
x1x2x3 x3x4x5 x1x2x4x5<br />
x2x3 x1x3x4x5 x2x4x5<br />
x1x3 x2x3x4x5 x1x4x5<br />
x1x2 x4x5 x1x2x3x4x5<br />
x1x2x3x4 x3x5 x1x2x5<br />
x1x2x3x5 x3x4 x1x2x4<br />
x2x3x4 x1x3x5 x2x5<br />
x2x3x5 x1x3x4 x2x4<br />
Ks. JOHN ja KHURI &CORNELL ja MYERS &MONTGOMERY.<br />
1.8 Toisen kertaluvun regressiomalli<br />
Täydellinen toisen kertaluvun malli on muotoa<br />
y = β0 +<br />
k<br />
βixi + <br />
βijxixj + ɛ.<br />
i=1<br />
1≤i≤j≤k<br />
Faktoreita on 1+2k + k<br />
kappaletta. Sovitaan faktoreiden järjestykseksi<br />
2<br />
1,x1,...,xk,x 2 1,...,x 2 k,x1x2,...,x1xk,x2x3,...,xk−1xk<br />
ja muodostetaan datamatriisin X sarakkeet tässä järjestyksessä.<br />
Merkitään (kuten aikaisemminkin) X = 1N D ,missä D on suunnittelumatriisi, ja<br />
<br />
1<br />
x = .<br />
d<br />
Merkitään edelleen<br />
(yläkolmiomatriisi) ja<br />
Silloin<br />
ja vastaavasti<br />
Siispä myös<br />
⎛<br />
B ′ ⎜<br />
= ⎜<br />
⎝<br />
β11 β12 ··· β1k<br />
⎞<br />
0<br />
.<br />
β22<br />
.<br />
···<br />
. ..<br />
β2k<br />
⎟<br />
. ⎠<br />
0 0 ··· βkk<br />
B = 1<br />
2 (B′ +(B ′ ) T )<br />
d T B ′ d = trace(d T B ′ d)=trace(B ′ dd T )= <br />
βijxixj<br />
ja malli voidaan kirjoittaa matriisimuotoon<br />
d T (B ′ ) T d = <br />
βijxixj.<br />
1≤i≤j≤k<br />
d T Bd = <br />
1≤i≤j≤k<br />
βijxixj<br />
y = x T β + d T Bd + ɛ.<br />
1≤i≤j≤k
LUKU 1. REGRESSIO 28<br />
Myöskin ennuste<br />
ˆy = b0 +<br />
k<br />
bix ′ i + <br />
i=1<br />
1≤i≤j≤k<br />
bijx ′ ix ′ j<br />
voidaan kirjoittaa samalla tavoin matriisimuotoon: matriisit E ′ ja E saadaan ottamalla B ′ :ssa ja<br />
B:ssä βij:n paikalle bij, kirjoitetaan<br />
ja<br />
x ′ =<br />
1<br />
d ′<br />
<br />
ˆy =(x ′ ) T b +(d ′ ) T Ed ′ .<br />
Täydellinen toisen kertaluvun malli ei sellaisenaan käy ortogonaaliseen kokeeseen, sillä<br />
(Lause 1.3) neliöfaktorien sarakesummat ovat positiivisia. Toisaalta mainitut neliöfaktorit voidaan<br />
korvata uusilla muotoa<br />
x 2 i + pixi + qi =merk. Pi(xi)<br />
olevilla faktoreilla, missä kertoimet pi ja qi valitaan siten, että<br />
N<br />
Pi(xji) =0 ja<br />
j=1<br />
N<br />
j=1<br />
Pi(xji)xji =0,<br />
ts. polynomit 1, x ja Pi(x) ovat (käytetyn datan suhteen) ortogonaaliset.<br />
Tätä varten oletetaan ensin, että faktorit x1,...,xk ovat valmiiksi standardoituja niin, että<br />
N<br />
xji =0 ja<br />
j=1<br />
N<br />
x 2 ji = N.<br />
Huomaa, että tämä ei ole aivan sama kuin edellä oleva standardointi, vaan tässä käytetty hajonta<br />
on <br />
N 1<br />
(xji − xi)<br />
N<br />
2 .<br />
Muodostetaan kertoimille pi ja qi yhtälöt<br />
<br />
0= N j=1 (x2ji + pixji + qi) =N + Nqi<br />
0= N j=1 (x3ji + pix2 ji + qixji) = N j=1 x3ji + Npi<br />
j=1<br />
j=1<br />
ja ratkaistaan ne: <br />
pi = − 1<br />
N<br />
N j=1 x3 qi = −1.<br />
ji<br />
Merkitään nyt matriisissa 1<br />
N DT D faktoreita vastaavien D:n sarakkeiden pistetuloista saatavia<br />
alkioita seuraavasti:<br />
xi<br />
xixj<br />
faktorit<br />
xj<br />
xm<br />
xixj xmxn<br />
··· ···<br />
alkio<br />
[ij] =[ji]=···<br />
[ijm] =[jim]=···<br />
[ijmn] =[imjn] =···<br />
···
LUKU 1. REGRESSIO 29<br />
Siis [iii] =−pi, [ii] =1, [ij] = N<br />
ℓ=1 xℓixℓj, jne. Uusi malli, jossa x 2 i :n tilalla on Pi(xi), on<br />
y = γ0 +<br />
k<br />
i=1<br />
γixi +<br />
k<br />
γiiPi(xi)+ <br />
γijxixj + ɛ.<br />
i=1<br />
Verrattaessa aikaisempaan malliin havaitaan, että<br />
⎧<br />
⎪⎨ γ0 −<br />
⎪⎩<br />
k i=1 γii = β0<br />
γi + piγii = βi eli<br />
γij = βij<br />
1≤i
LUKU 1. REGRESSIO 30<br />
missä<br />
Y = λ2(2Ik + Jk) − λ 2 −1 1Jk ,<br />
edellyttäen tietysti, että ko. käänteismatriisi on olemassa. Käyttäen tunnettua muotoa Ik + cJk<br />
olevan matriisin kääntökaavaa9 todetaankin, että<br />
Y = 1<br />
<br />
λ<br />
Ik +<br />
2λ2<br />
2 1 − λ2<br />
(k +2)λ2− kλ2 <br />
Jk .<br />
1<br />
Lasketaan sitten ennusteen ˆy varianssi. Datavektori x ′ täydennetään muiden kuin ensimmäisen<br />
kertaluvun faktorien osalta, jolloin saadaan vektori<br />
⎛<br />
1<br />
⎜<br />
z = ⎜ d<br />
⎝<br />
′<br />
⎞<br />
⎟<br />
⎠ ,<br />
missä z1:ssä ovat d ′ :n komponenttien neliöt ja z2:ssa niiden sekatulot. Tutkittava varianssi on<br />
V (ˆy) =σ 2 z T (X T X) −1 z. Nyt helppo lohkokertolasku osoittaa, että<br />
N<br />
σ2 V (ˆy) =1+λ211 T k Y1k − 2λ1z T 1 Y1k + 1<br />
z1<br />
z2<br />
(d<br />
λ1<br />
′ ) T d ′ + z T 1 Yz1 + 1<br />
λ2<br />
Selvästi Y1k muotoa c1k jollekin vakiolle c ja zT 1 Y1k = cd ′ 2 .Toisaalta<br />
z T 2 z2 = <br />
joten sopivalle vakiolle d<br />
z T 1 Yz1 + 1<br />
z T 2 z2 = z T 1<br />
λ2<br />
(x<br />
1≤i
LUKU 1. REGRESSIO 31<br />
1.9 Ortogonalisoituvia toisen kertaluvun malleja: 3 k -kokeet,<br />
CCD-kokeet<br />
3 k -kokeessa faktoreilla on kullakin kolme tasoyhdelmää datamatriisissa,<br />
koodauksen jälkeen −1, 0 ja 1. Täydellisessä 3 k -kokeessa ovat mukana<br />
kaikki 3 k eri tasoyhdelmää, kukin kerran. Ohessa on erään täydellisen 3 2 -<br />
kokeen datamatriisin ensimmäisen kertaluvun osuus.<br />
Myös osittaisia 3 k -kokeita voidaan konstruoida samaan tapaan kuin<br />
osittaisia 2 k -kokeita, mutta tämä on huomattavasti hankalampaa (ks.<br />
MONTGOMERY tai JOHN).<br />
3 k -kokeella voidaan sovittaa täydellinen toisen kertaluvun malli ja se<br />
voidaan lisäksi ortogonalisoida. Kiertosymmetristä koetta näin ei kuitenkaan<br />
saada. Lisäämällä yo. datamatriisiin toisen kertaluvun osuus saadaan<br />
datamatriisi<br />
⎛<br />
⎜<br />
⎝<br />
1 −1 −1 1 1 1<br />
1 −1 0 1 0 0<br />
1 −1 1 1 1 −1<br />
1 0 −1 0 1 0<br />
1 0 0 0 0 0<br />
1 0 1 0 1 0<br />
1 1 −1 1 1 −1<br />
1 1 0 1 0 0<br />
1 1 1 1 1 1<br />
⎞<br />
⎟ .<br />
⎟<br />
⎠<br />
Standardoinnin jälkeen datamatriisi on<br />
⎛<br />
1<br />
⎜<br />
⎝<br />
− √ 1.5 − √ 1 −<br />
1.5 1.5 1.5 1.5<br />
√ 1<br />
1.5<br />
−<br />
0 1.5 0 0<br />
√ 1.5 √ 1 0<br />
1.5<br />
−<br />
1.5 1.5 −1.5<br />
√ 1<br />
1<br />
0<br />
0<br />
1.5<br />
0<br />
0<br />
0<br />
1.5<br />
0<br />
0<br />
0<br />
√ 1<br />
1.5 0 1.5 0<br />
√ 1.5 − √ 1<br />
1.5 1.5 1.5 −1.5<br />
√ 1<br />
1.5 0 1.5 0 0<br />
√ 1.5 √ 1.5 1.5 1.5<br />
⎞<br />
⎟<br />
⎠<br />
1.5<br />
josta saadaan<br />
1<br />
9 XT X =<br />
⎛<br />
⎜<br />
⎝<br />
1 0 0 1 1 0<br />
0 1 0 0 0 0<br />
0 0 1 0 0 0<br />
1 0 0 1.5 1 0<br />
1 0 0 1 1.5 0<br />
0 0 0 0 0 1<br />
=merk. X,<br />
⎞<br />
⎟ .<br />
⎟<br />
⎠<br />
⎛<br />
⎜<br />
⎝<br />
1 −1 −1<br />
1 −1 0<br />
1 −1 1<br />
1 0 −1<br />
1 0 0<br />
1 0 1<br />
1 1 −1<br />
1 1 0<br />
1 1 1<br />
Koe onnäin ollen ortogonalisoitavissa, mutta ei ainakaan Lauseen 1.5 avulla todettavissa kiertosymmetriseksi<br />
(eikä siis itse asiassa ole kiertosymmetrinen, ks. edellisen sivun Huomautus).<br />
CCD-kokeen 10 datamatriisi muodostetaan kolmesta osasta:<br />
10 ”CCD”=”central composite design”<br />
⎞<br />
⎟<br />
⎠
LUKU 1. REGRESSIO 32<br />
1. Faktoriaaliosa koostuu 2 k -kokeesta, jonka faktoritasot koodataan ±1:ksi. Ensimmäisen<br />
kertaluvun osuus faktoriaaliosasta on muotoa 1f F , missä F on f × k-matriisi.<br />
2. Aksiaaliosa saadaan pisteistä, jotka ovat Rk :n akseleilla etäisyydellä α origosta. Ensimmäisen<br />
kertaluvun osuus aksiaaliosasta on muotoa<br />
<br />
1k αIk<br />
.<br />
1k −αIk<br />
α on CCD-kokeen parametri.<br />
3. Keskusosa koostuu n0 koetoistosta origossa. Ensimmäisen kertaluvun osuus keskusosasta<br />
on muotoa 1n0 O .<br />
Ilmeisesti N = f +2k + n0 ja ensimmäisen kertaluvun osuus datamatriisista on<br />
⎛<br />
⎞<br />
⎜<br />
⎝<br />
1f<br />
1k<br />
F<br />
αIk<br />
1k −αIk<br />
O<br />
1n0<br />
Esimerkki. Valitaan k =2, f =4, α = √ 2 ja n0 =1. Silloin datamatriisin ensimmäisen<br />
kertaluvun osuus on<br />
faktoriaaliosa<br />
aksiaaliosa<br />
⎧ ⎛<br />
⎪⎨ ⎜<br />
⎪⎩ ⎜<br />
⎧ ⎜<br />
⎪⎨ ⎜<br />
⎪⎩ ⎜<br />
⎝<br />
1<br />
1<br />
1<br />
1<br />
1<br />
−1<br />
−1<br />
1<br />
1<br />
−1<br />
1<br />
−1<br />
1<br />
keskusosa →<br />
√ 1<br />
2<br />
0<br />
0<br />
√ 1 −<br />
2<br />
√ 1<br />
2<br />
0<br />
0<br />
− √ 2<br />
⎞<br />
⎟<br />
⎠<br />
1 0 0<br />
Faktoriaaliosa valitaan siten, että se on keskitetty, ts.<br />
F T 1f = 0k.<br />
(Täydellisen tai osittaisen 2k-kokeen muodostavalle faktoriaaliosalle tämä toteutuu automaattisesti.)<br />
Tällöin koko ensimmäisen kertaluvun data on keskitetty. Standardoitaessa sarakkeiden<br />
yhteinen otosvarianssi on<br />
s 2 = 1<br />
N (f +2α2 ).<br />
Standardoitu ensimmäisen kertaluvun datamatriisi on näin<br />
⎛<br />
⎞<br />
⎜<br />
⎝<br />
1f<br />
1<br />
sF 1k<br />
α<br />
s Ik<br />
1k − α<br />
s Ik<br />
1n0<br />
Lasketaan mukaan toisen kertaluvun sarakkeet, jolloin saadaan varsinainen datamatriisi<br />
⎛<br />
⎞<br />
1f<br />
1<br />
sF 1k<br />
α<br />
s Ik<br />
1k − α<br />
s Ik<br />
O<br />
⎟<br />
⎠ .<br />
⎟<br />
⎠ .<br />
1<br />
s2 1f1T k<br />
α2 s2 Ik<br />
α2 s2 Ik<br />
1<br />
s 2 F ′<br />
⎜<br />
X = ⎜<br />
⎝<br />
O<br />
O<br />
1n0 O O O<br />
⎟<br />
⎠ ,
LUKU 1. REGRESSIO 33<br />
missä F ′ on faktorien sekatuloista muodostuva osuus (f × g-matriisi). Jotta voitaisiin yleensä<br />
ottaen päästä ortogonalisoituviin ja/tai kiertosymmetrisiin CCD-kokeisiin, pitää faktoriaaliosa<br />
valita siten, että (aikaisemmin mainitun ehdon F T 1f = 0k lisäksi)<br />
F T F = fIk , (F ′ ) T 1f = 0g , (F ′ ) T F ′ = fIg ja (F ′ ) T F = O.<br />
(Jälleen täydellisen tai osittaisen 2 k -kokeen muodostavalle faktoriaaliosalle tämä on automaattista.)<br />
Helppo lasku osoittaa, että tällöin<br />
⎛<br />
X T ⎜<br />
X = ⎜<br />
⎝<br />
N 0 T k<br />
0k<br />
f<br />
s2 1k +2α2 s2 1k<br />
Koeonnyt ortogonalisoitavissa, jos<br />
f<br />
s2 1T k +2α2 s2 1T k 0T g<br />
f<br />
s2 Ik +2α2 s2 Ik O OT ⎛<br />
⎜<br />
= N ⎜<br />
⎝<br />
0g<br />
1 0<br />
O O<br />
T k 1T k 0T 0k Ik O<br />
g<br />
OT 1k O fJk+2α4Ik s2 (f+2α2 ) OT ⎞<br />
⎟<br />
⎠<br />
0g O O<br />
.<br />
f<br />
s 2 (f +2α 2 ) =<br />
O<br />
fIg<br />
s 2 (f+2α 2 )<br />
fN<br />
(f +2α2 =1 eli α =<br />
) 2<br />
f<br />
s 4 Jk +2 α4<br />
s 4 Ik O T<br />
f<br />
s 4 Ig<br />
<br />
1<br />
<br />
fN − f<br />
2<br />
ja kiertosymmetrinen, jos α = 4√ f. Sekä kiertosymmetrisen että ortogonalisoituvan kokeen<br />
aikaansaamiseksi on näin ollen valittava<br />
α = 4 f ja n0 =4− 2k +4 f<br />
(olettaen, että f on neliö). Edellä olevan esimerkin CCD-koe on siis kiertosymmetrinen, mutta<br />
ei ortogonalisoituva.<br />
Keskusosan koetoistoja käyttäen voidaan testata mallin epäsopivuutta.<br />
Huomautus. Monessa tapauksessa CCD-kokeen tapaiset ”paloista kootut” kokeet ovat osoittautuneet<br />
hajontojensa puolesta paremmiksi kuin täydelliset tai muuten ”samantapaisista” tasoyhdelmistä<br />
muodostetut kokeet. Tunnettuja ovat esimerkiksi DeBaunin kokeilut, joissa 3 3 -kokeita<br />
verrattiin eräisiin osista koottuihin kokeisiin (ks. KHURI &CORNELL, alkuperäisviite on<br />
DEBAUN, R.M.: Response Surface Designs for Three Factors at Three Levels. Technometrics<br />
1 (–59), 1–8).<br />
⎞<br />
⎟<br />
⎠
Luku 2<br />
VASTEEN OPTIMOINTI<br />
2.1 Yleistä<br />
Vasteen optimoinnilla tarkoitetaan sellaisen faktorien tasoyhdelmän löytämistä, jolla vaste saa<br />
maksimi- tai minimiarvon (ks. edellinen luku). Kyseessä on enemmän tai vähemmän lokaalinen<br />
ääriarvo, sillä mallin käyttöalue on luonnollisesti rajoitettu, toisinaan hyvinkin pieni. Käyttöalue<br />
saattaa myös rajoittaa niin voimakkaasti, että kyseessä onkin itse asiassa ehdollinen optimointitehtävä.<br />
Vasteen optimointi liittyy likeisesti yleisiin optimointitehtäviin, ks. kurssi Matemaattinen<br />
optimointiteoria 1.<br />
2.2 Regressiomenetelmä<br />
Vasteen optimointi voidaan suorittaa sovittamalla ensimmäisen ja toisen kertaluvun malleja<br />
edellisessä luvussa esitetyllä tavalla. Menettely on seuraava:<br />
Ivaihe: gradienttimenetelmä<br />
1. Valitaan jokin lähtödata X0 = 1N0<br />
taan ensimmäisen kertaluvun malli<br />
D0<br />
<br />
sekä suoritetaan vastaavat kokeet ja sovite-<br />
y = x T β + ɛ.<br />
Mukana voi olla koetoistoja mallin epäsopivuuden testaamiseksi.<br />
2. Testataan (mahdollisten) koetoistojen avulla mallin epäsopivuus. Jos malli osoittautuu<br />
epäsopivaksi, siirrytään suoraan II vaiheeseen.<br />
3. Suoritetaan ANOVA. Jos malli ei osoittaudu merkitseväksi, siirrytään suoraan II vaiheeseen.<br />
4. Muussa tapauksessa käytetään estimoituja parametrejä b seuraavalla tavalla. Etsitään<br />
suunta, johon vaste mallin mukaan kasvaa nopeimmin (maksimointi) tai vähenee nopeimmin<br />
(minimointi), ns. viettosuunta. Tämä suunta on luonnollisesti gradientin<br />
⎛ ⎞<br />
grad(x T ⎜<br />
b)= ⎜<br />
⎝<br />
34<br />
b1<br />
b2<br />
.<br />
bk<br />
⎟<br />
⎠
LUKU 2. VASTEEN OPTIMOINTI 35<br />
suunta tai sille vastakkainen suunta, merkitään suuntaa n:llä (yksikkövektori). Etsitään<br />
datan keskipiste<br />
1<br />
D<br />
N0<br />
T 0 1N0 =merk. x0.<br />
5. Valitaan jokin askelpituus ∆0 ja kokeita suorittamalla etsitään vasteet pisteissä<br />
x0 +∆0n , x0 +2∆0n ,...,<br />
kunnes vaste ei enää merkittävästi kasva (maksimointi) tai vähene (minimointi). Olkoon<br />
tällainen piste<br />
x0 + i∆0n =merk. x1.<br />
6. Valitaan uusi datamatriisi X1 = <br />
1<br />
1N1 D1 siten, että N1 DT1 1N1 = x1, jatoistetaan<br />
kohtien 1.–5. menettely.<br />
7. Tällä tavalla jatkaen joko<br />
(a) tullaan ”ulos” kohdista 2. tai 3. tai<br />
(b) tullaan käyttöalueen reunalle tai<br />
(c) vaste ei enää olennaisesti kasva (maksimointi) tai vähene (minimointi).<br />
(a):sta ja (c):stä siirrytään II vaiheeseen. (b):ssä joudutaan tyytymään löytyneisiin vasteisiin.<br />
II vaihe: ääriarvotarkastelu<br />
1. Valitaan sellainen datamatriisi X = 1N D ,että 1<br />
N DT 1N = xj, missä xj on I vaiheessa<br />
viimeksi saatu datan keskipiste. Usein voidaan käyttää I vaiheen dataa joko sellaisenaan<br />
tai täydentäen.<br />
2. Sovitetaan täydellinen toisen kertaluvun malli<br />
y = x T β + d T Bd + ɛ.<br />
3. Testataan (mahdollisten) koetoistojen avulla mallin epäsopivuus. Jos malli osoittautuu<br />
epäsopivaksi, joudutaan tyytymään löytyneisiin vasteen arvoihin.<br />
4. Suoritetaan ANOVA. Jos malli ei osoittaudu merkitseväksi, joudutaan tyytymään löytyneisiin<br />
vasteen arvoihin.<br />
5. Muussa tapauksessa käytetään estimoitua mallia<br />
ääriarvojen etsintään.<br />
6. Muodostetaan<br />
ja merkitään se = 0k:ksi.<br />
y = x T b + d T Ed<br />
grad(x T b + d T Ed) =<br />
⎛<br />
⎜<br />
⎝<br />
b1<br />
b2<br />
.<br />
bk<br />
⎞<br />
⎟<br />
⎠ +2Ed
LUKU 2. VASTEEN OPTIMOINTI 36<br />
7. Jos E on singuläärinen, siirrytään III vaiheeseen.<br />
8. Muussa tapauksessa etsitään kriittinen piste<br />
⎛<br />
− 1<br />
2 E−1<br />
b1<br />
⎜<br />
⎝ .<br />
b2<br />
bk<br />
⎞<br />
⎟<br />
⎠ =merk. ξ.<br />
9. Etsitään E:n ominaisarvot λ1,...,λk. Koska E on symmetrinen matriisi, sen ominaisarvotovatreaaliset.<br />
9.1 Jos λ1,...,λk > 0, E on positiividefiniitti ja ξ on minimipiste, jossa saavutetaan<br />
minimaalinen vaste.<br />
9.2 Jos λ1,...,λk < 0, E on negatiividefiniitti ja ξ on maksimipiste, jossa saavutetaan<br />
maksimaalinen vaste.<br />
9.3 Jos jokin λi on > 0 ja jokin toinen λj on < 0, ξ on satulapiste. Tällöin siirrytään III<br />
vaiheeseen.<br />
Ohessa on Maplen piirtämänä tyypilliset esimerkit tapauksista 9.2 ja 9.3, kun k =2. Mukana<br />
on myös tasa-arvokäyrästöt. Ensin 9.2:<br />
4<br />
3<br />
2<br />
1<br />
0<br />
–1<br />
–0.5<br />
x2<br />
0<br />
0.5<br />
1<br />
1<br />
–1<br />
–0.5<br />
0<br />
x1<br />
0.5<br />
0.8<br />
0.6<br />
x2<br />
0.4<br />
0.2<br />
–1–0.8 –0.4 0.2 0.4 0.6 0.8 1<br />
–0.2 x1<br />
–0.4<br />
–0.6<br />
–0.8<br />
1<br />
–1
LUKU 2. VASTEEN OPTIMOINTI 37<br />
ja sitten 9.3:<br />
1<br />
0<br />
–1<br />
–2<br />
–3<br />
–1<br />
–0.5<br />
x2<br />
00.5<br />
1<br />
1<br />
–1<br />
–0.5<br />
0<br />
0.5<br />
x1<br />
0.6<br />
x2<br />
0.4<br />
0.2<br />
–1–0.8 –0.4 0.2 0.4 0.6 0.8 1<br />
–0.2 x1<br />
Useampiulotteisissa avaruuksissa satulapisteitä on useammanlaisia. Itse asiassa todellinen<br />
vaste voi hyvinkin olla niin mutkikas, ettei sitä voida kovin tarkasti kuvata toisen kertaluvun<br />
mallilla. Lokaalisia maksimi/minimipisteitäkin voi olla useampia. Satulapiste saattaa tällöin hyvinkin<br />
olla merkki siitä, että lokaalisia ääriarvopisteitä on todella useita.<br />
III vaihe: kanonisointi<br />
1. Tähän vaiheeseen tultaessa on saatu toisen kertaluvun estimoitu malli y = x T b + d T Ed,<br />
missä E on singuläärinen tai/ja sillä on sekä negatiivisia että positiivisia ominaisarvoja.<br />
Esimerkkeinä tapauksista, joissa E on singuläärinen, ovat Maplen piirtämät kaksi estimoitua<br />
vastepintaa tasa-arvokäyrästöineen: ”harju” ja ”nouseva harju” (kuvat seuraavalla<br />
sivulla).<br />
2. Etsitään (vaikkapa Matlabin [Q,L]=schur(E)-komennolla) E:n Schurin hajotelma:<br />
E = QΛQ T ,<br />
missä Q on ortogonaalimatriisi ja Λ = ⌈(λ1,...,λk) T ⌋. Huomaa, että Q:n sarakkeet<br />
q1,...,qk ovat (järjestyksessä) ominaisarvoihin λ1,...,λk liittyviä ominaisvektoreita.<br />
3. Kirjoitetaan estimoitu malli muotoon<br />
Merkitään<br />
y = x T<br />
1 0 T k<br />
0k Q T<br />
1 0 T k<br />
0k Q<br />
<br />
x = u ,<br />
1 0 T k<br />
0k Q T<br />
1 0 T k<br />
0k Q T<br />
0.8<br />
–0.4<br />
–0.6<br />
–0.8<br />
1<br />
–1<br />
<br />
b + d T QΛQ T d.<br />
<br />
b = g ja Q T d = e,
LUKU 2. VASTEEN OPTIMOINTI 38<br />
4<br />
3.5<br />
3<br />
–1<br />
–0.6<br />
–0.2<br />
x2<br />
0<br />
4.5<br />
4<br />
3.5<br />
3<br />
0.4<br />
0.8<br />
1<br />
2.5<br />
–1<br />
–0.5<br />
x2<br />
0<br />
0.5<br />
1<br />
–1<br />
–0.6<br />
–0.2<br />
0<br />
x1<br />
0.4<br />
0.8<br />
1<br />
1<br />
–1<br />
–0.5<br />
0<br />
x1<br />
0.5<br />
jolloin malli on ns. kanonista muotoa<br />
y = u T g + e T Λe eli y = g0 +<br />
0.8<br />
0.6<br />
x2<br />
0.4<br />
0.2<br />
–0.8 –0.4 0.2 0.4 0.6 0.8<br />
–0.2 x1<br />
–0.4<br />
–0.6<br />
–0.8<br />
1<br />
–1<br />
0.8<br />
0.6<br />
x2<br />
0.4<br />
0.2<br />
–1–0.8 –0.4 0.2 0.4 0.6 0.8 1<br />
–0.2 x1<br />
k<br />
i=1<br />
–0.4<br />
–0.6<br />
–0.8<br />
1<br />
–1<br />
(giui + λiu 2 i ).
LUKU 2. VASTEEN OPTIMOINTI 39<br />
4. Lasketaan<br />
tai<br />
ja merkitään<br />
u ′ = Q T xj (ks. II vaiheen kohta 1.)<br />
u ′ = Q T ξ (ks. II vaiheen kohdat 8. ja 9.3)<br />
u ′ =<br />
⎛<br />
⎜<br />
⎝<br />
5. Maksimoitaessa etsitään sellainen indeksi i, että giui+λiu 2 i kasvaa nopeimmin lähdettäessä<br />
pisteestä ui = u ′ i jompaankumpaan suuntaan. (Yleensä kyseessä on suurin positiivinen<br />
λi.) Ko. suunta vastaa e-vektoria<br />
⎛<br />
⎜<br />
⎝<br />
0.<br />
0<br />
±1<br />
0.<br />
0<br />
⎞<br />
u ′ 1<br />
.<br />
u ′ k<br />
⎞<br />
⎟<br />
⎠ .<br />
⎟<br />
⎟←<br />
i:s komponentti<br />
⎟<br />
⎠<br />
eli d-vektoria ±qi. Ellei kyseistä indeksiä löydy (kuten käy esimerkiksi eo. ”harjulle”),<br />
joudutaan tyytymään saatuihin vasteen arvoihin.<br />
6. Minimoitaessa etsitään vastaavasti indeksi i, jolle giui + λiu 2 i vähenee nopeimmin lähdettäessä<br />
u ′ i:sta jompaankumpaan suuntaan.<br />
7. Optimaalisen tasoyhdelmän etsintää jatketaan siirtymällä xj:stä tai ξ:stä (ks. kohta 4.)<br />
edellisissä kohdissa mainittuihin suuntiin jonkin matkaa (jotta ”päästään pois tasaiselta”)<br />
ja sitten palataan I vaiheeseen.<br />
Kaiken kaikkiaan etsintää jatketaan, kunnes saadut maksimi/minimiarvot eivät enää oleellisesti<br />
parane tai se joudutaan lopettamaan.<br />
Huomautus. Erityisen edullista on käyttää I vaiheessa kiertosymmetrisiä kokeita, joille ennusteen<br />
varianssi on suunnasta riippumaton.<br />
2.3 Nelder–Mead-algoritmi<br />
Eräät optimointialgoritmit sopivat vasteen optimointiin myös ilman varsinaista regressiomallin<br />
sovitusta. Hyvin käyttökelpoinen tällainen algoritmi on ns. Nelder–Mead-algoritmi, ks. KHURI<br />
&CORNELL tai kurssi Matemaattinen optimointiteoria 1. Matlabin operaatio fmins käyttää<br />
Nelder–Mead-algoritmia.
Luku 3<br />
KVALITATIIVISET FAKTORIT<br />
3.1 Yksisuuntainen ANOVA<br />
Kvalitatiivisen faktorin tasot eivät (välttämättä) vastaa minkään suureen numeerisia arvoja. Tasojen<br />
vaikutus vasteeseen sen sijaan on numeerista. Tasoja kutsutaan käsittelyiksi.<br />
Tarkastellaan ensin yhden faktorin tapausta, ns. yksisuuntaista ANOVAa. Merkitään1 kyseisen<br />
yhden faktorin (kvalitatiivisia) tasoja numeroin 1,...,a.Kullekin tasolle i suoritetaan ni<br />
koetta. Malli on<br />
yij = τi + ɛij (i =1,...,a; j =1,...,ni),<br />
missä<br />
yij = vaste i:nnen tason j:nnessä kokeessa,<br />
ɛij = virhe i:nnen tason j:nnessä kokeessa,<br />
τi = i:nnen tason vaikutus vasteeseen.<br />
Virheet ɛij ovat riippumattomia N(0,σ 2 )-jakautuneita satunnaismuuttujia. τi:t ja σ 2 ovat tuntemattomia.<br />
sekä<br />
Merkitään<br />
⎛<br />
τ =<br />
⎜<br />
⎝<br />
τ1<br />
.<br />
τa<br />
⎞<br />
⎛<br />
⎟ ⎜<br />
⎠ , yi = ⎝<br />
yi1<br />
.<br />
yini<br />
⎞<br />
⎛<br />
⎟ ⎜<br />
⎠ , y = ⎝<br />
y1<br />
.<br />
ya<br />
⎞<br />
⎛<br />
⎟ ⎜<br />
⎠ , ɛi = ⎝<br />
ɛi1<br />
.<br />
ɛini<br />
⎞<br />
⎛<br />
⎟ ⎜<br />
⎠ , ɛ = ⎝<br />
yi• = y T i 1ni , yi• = 1<br />
yi•<br />
ni<br />
, y•• = y T 1N , y•• = 1<br />
N y••,<br />
missä N = n1 + ···+ na. Merkitään edelleen<br />
⎛<br />
⎞ ⎛<br />
⎞<br />
Mres =<br />
⎜<br />
⎝<br />
Mn1<br />
...<br />
O<br />
O Mna<br />
⎟ ⎜<br />
⎠ ja T = ⎝<br />
(ks. keskitysmatriisi sivulla 11 ja vrt. T sivulla 13) sekä<br />
⎛ ⎞<br />
n =<br />
⎜<br />
⎝<br />
1n1<br />
...<br />
O<br />
O 1na<br />
1 Tämä on erityisen hyvä merkintä, jos kyseessä on intervalliasteikko, jossa numerot antavat järjestyksen ja<br />
hyvässä tapauksessa myös jonkinlaisen skaalan. Mutta tässä ei oleteta numeroille muuta kuin merkinnällinen rooli.<br />
40<br />
n1<br />
.<br />
na<br />
⎟<br />
⎠ .<br />
ɛ1<br />
.<br />
ɛa<br />
⎟<br />
⎠<br />
⎞<br />
⎟<br />
⎠ ,
LUKU 3. KVALITATIIVISET FAKTORIT 41<br />
(Huomaa, että Mres ja T ovat helposti koottavissa Matlabin operaatioilla.) Keskitysmatriisin<br />
ominaisuudet ”periytyvät” Mres:lle , ts. se on symmetrinen ja idempotentti. Seuraavat tulokset<br />
ovat lisäksi todettavissa helpolla laskulla:<br />
(i) MNMres = Mres<br />
(ii) T T T = ⌈n⌋<br />
(iii) T T 1N = n<br />
(iv) ⌈n⌋ −1 n = 1a<br />
(v) MresT = O<br />
(vi) Mres1N = 0N<br />
(vii) T1a = 1N<br />
⎛<br />
(viii) T T y =<br />
⎜<br />
⎝<br />
(ix) ⌈n⌋ −1 y• =<br />
y1•<br />
.<br />
ya•<br />
⎛<br />
⎜<br />
⎝<br />
⎞<br />
⎟<br />
⎠ =merk. y•<br />
y 1•<br />
.<br />
ya• ⎞<br />
⎟<br />
⎠ =merk. y •<br />
Malli on nyt vektorimuodossa<br />
y = Tτ + ɛ.<br />
Ilmeinen τi:n estimaatti on yi•, joka ”vastaa” regression b0 + b1x1:tä. Silloin residuaali on<br />
ja residuaalin neliösumma on<br />
r = Mresy<br />
SSE = r T r = y T Mresy =<br />
Kokonaisneliösumma puolestaan on<br />
SST = y T MNy =<br />
a ni <br />
y 2 ij −<br />
i=1<br />
j=1<br />
a<br />
i=1<br />
a ni <br />
y 2 ij − Ny 2 ••<br />
i=1<br />
j=1<br />
ja näiden neliösummien erotus on käsittelyjen neliösumma<br />
SSTR = SST − SSE = y T Mtry =<br />
niy 2 i•.<br />
a<br />
niy 2 i• − Ny 2 ••,<br />
missä Mtr = MN − Mres.Vastaavat vapausasteet ja keskineliöt saadaan alla olevasta taulusta.<br />
i=1<br />
SSX vapausasteet MSX<br />
SST<br />
SSTR<br />
SSE<br />
N − 1<br />
a − 1<br />
N − a<br />
MST = SST<br />
N − 1<br />
MSTR = SSTR<br />
a − 1<br />
MSE = SSE<br />
N − a<br />
(kokonaiskeskineliö)<br />
(käsittelyjen keskineliö)<br />
(residuaalin keskineliö)<br />
Näistä MSE on harhaton σ 2 :n estimaatti, sillä 1<br />
ni−1 yT i Mni yi on i:nnen tason vasteiden otosvarianssi<br />
ja sen odotusarvo on σ 2 , jolloin<br />
E(y T Mresy) =<br />
a<br />
E(y T i Mniyi) =<br />
i=1<br />
a<br />
(ni − 1)σ 2 =(n− a)σ 2 .<br />
i=1
LUKU 3. KVALITATIIVISET FAKTORIT 42<br />
Lause 3.1. Jos τ on muotoa µ1a, missä µ on vakio, niin osamäärällä<br />
MSTR<br />
MSE =merk. F<br />
on F-jakauma vapausastein a − 1 ja N − a (olettaen tietysti, että N>a).<br />
Todistus. (Tässä taas tarvitaan kurssin Laaja tilastomatematiikka tietoja.) Ilmeisesti<br />
Mresy = Mres(Tτ + ɛ) =Mresɛ.<br />
Toisaalta Mres on symmetrinen ja idempotentti matriisi. Koska ɛ:lla on N(0N,σ 2 IN)-jakautuma,<br />
on<br />
tällöin χ 2 -jakautunut<br />
trace(Mres) =<br />
1 1<br />
SSE =<br />
σ2 σ2 ɛT Mresɛ<br />
a<br />
trace(Mni )=<br />
vapausasteella. Edelleen, jos (kuten oletetaan) τ = µ1a, niin<br />
i=1<br />
a<br />
(ni − 1) = N − a<br />
i=1<br />
Mtry = Mtr(Tτ + ɛ) =Mtrɛ.<br />
Koska myös Mtr on sekin symmetrinen ja idempotentti matriisi (totea!), on<br />
tällöin χ 2 -jakautunut vapausastein<br />
1 1<br />
SSTR =<br />
σ2 σ2 ɛT Mtrɛ<br />
trace(Mtr) =trace(MN) − trace(Mres) =a − 1.<br />
Vielä MtrMres = ON, joten SSE ja SSTR ovat riippumattomat.<br />
Lauseen avulla testata mallin käyttökelpoisuutta asettamalla hypoteesi<br />
H0 : τ1 = ···= τa<br />
(vastahypoteesi on H1 : ”kaikki τi:t eivät ole samoja”). Hypoteesin testaus sujuu kuten edellä.<br />
Mikäli H0 on tosi, malli voitaisiin yhtä hyvin korvata vakiolla + kohinalla!<br />
Selitysaste R 2 , yhteiskorrelaatiokerroin R sekä korjattu determinaatiokerroin määritellään<br />
kuten aikaisemmin.<br />
Huomautus. Asiaa voitaisiin muutenkin käsitellä samaan tapaan kuin aikaisemmin tehtiin<br />
regressiomallille. Käsittelyt koodataan käyttäen faktoreita, joilla on kaksi tasoa, 0 ja 1, ns. dikotomiafaktoreita.<br />
(Muitakin koodaustapoja käytetään.) Esimerkiksi, jos a =3, tarvitaan kolme<br />
dikotomiafaktoria ja käsittelyt koodataan yhdelmiksi (1, 0, 0), (0, 1, 0) ja (0, 0, 1). Datamatriisi<br />
(koetoistoineen) on T ja vastaava vastevektori on y. Tämä datamatriisi ei ole muodoltaan aivan<br />
samanlainen kuin Luvussa 1, mutta sitä voidaan käsitellä samaan tapaan. (Ks. esimerkiksi<br />
SEARLE.)
LUKU 3. KVALITATIIVISET FAKTORIT 43<br />
Kokeen sanotaan olevan tasapainoinen, jos n1 = ··· = na = n (ja N = na), muuten<br />
epätasapainoinen. Yleensä pyritään tasapainoisiin kokeisiin.<br />
Ajetaan alla olevan tasapainoisen kokeen data Systatilla. Huomaa, miten käsittelyt pitää<br />
Systatia varten kategorisoida, ts. ilmoittaa ne kokonaislukuina 1,...,a. Tässä a =5, n =5ja<br />
N =25.Vasteen arvot on saatu kahden numeron tarkkuudella ja nekin on ilmoitettu kokonaislukuina.<br />
x 11 1 1 1 2 2 2 2 2 3 3 3 3 3 4 4 4 4 4 5 5 5 5 5<br />
y 7715119121712181814181819191925221923710111511<br />
Käskyt<br />
>USE ’kuitu.sys’<br />
VARIABLES IN SYSTAT FILE ARE:<br />
X Y<br />
>category x=5<br />
>model y=constant+x<br />
>estimate<br />
antavat tulostuksen<br />
DEP VAR: Y N: 25 MULTIPLE R: .864 SQUARED MULTIPLE R: .747<br />
ANALYSIS OF VARIANCE<br />
SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />
X 475.760 4 118.940 14.757 0.000<br />
ERROR 161.200 20 8.060<br />
Komento print long antaa lisää tulostusta:<br />
DEP VAR: Y N: 25 MULTIPLE R: .864 SQUARED MULTIPLE R: .747<br />
-1<br />
ESTIMATES OF EFFECTS B = (X’X) X’Y)<br />
CONSTANT 15.040<br />
X 1 -5.240<br />
Y<br />
X 2 0.360<br />
X 3 2.560<br />
X 4 6.560<br />
ANALYSIS OF VARIANCE<br />
SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />
X 475.760 4 118.940 14.757 0.000<br />
ERROR 161.200 20 8.060<br />
Huomautus. Jos ”unohdetaan” oletus, että ɛij:t ovat riippumattomia N(0,σ 2 )-jakautuneita<br />
satunnaismuuttujia, voidaan eo. F-testille antaa ns. satunnaistustulkinta. Sovitulle kiinteälle kokeiden<br />
suoritusjärjestykselle saatujen vasteiden yij järjestys on yksi N!:sta mahdollisesta järjestyksestä.<br />
Jollei käsittelyjen vaikutuksilla vasteeseen ole mitään eroja (H0), nämä järjestykset
LUKU 3. KVALITATIIVISET FAKTORIT 44<br />
ovat yhtä todennäköisiä. Toisaalta neliösummia ajatellen koetoistojen järjestyksellä käsittely-<br />
N!<br />
jen sisällä ei ole merkitystä. Neliösummia on näin ollen (enintään) kappaletta ja, ellei<br />
n1!···na!<br />
käsittelyillä ole vasteeseen vaikutusta (H0), nämä ovat yhtä todennäköisiä. Voidaan osoittaa,<br />
että H0:n vallitessa eo. testisuureella F on likimain F-jakauma vapausastein a − 1 ja N − a.<br />
Jos vastahypoteesi H1 on tosi, on järjestyksellä vaikutusta ja F saa suuren arvon. Jotta tällainen<br />
jakaumaoletuksiltaan miellyttävän varovainen tulkinta saataisiin käyttöön, on kokeiden<br />
fysikaalinen suoritusjärjestys huolellisesti satunnaistettava, jottei se pääse vaikuttamaan systemaattisesti<br />
vasteisiin. Ks. BOX &HUNTER &HUNTER.<br />
3.1.1 Parametrien estimointi<br />
Mallin<br />
y = Tτ + ɛ<br />
parametrien τ ja σ 2 estimaateiksi todettiin edellä y • ja MSE.Parametrien τ estimaatti saadaan<br />
myös käyttäen pienimmän neliösumman keinoa, samaan tapaan kuin tehtiin regressiomallin<br />
yhteydessä. Minimoitava neliösumma on<br />
Merkitään gradientti nollaksi:<br />
eli<br />
Estimaatti<br />
saadaan näin normaaliryhmästä<br />
y − Tτ 2 =(y − Tτ ) T (y − Tτ ).<br />
−2T T (y − Tτ )=0a<br />
⌈n⌋τ = T T y.<br />
t =<br />
⎛<br />
⎜<br />
⎝<br />
t1<br />
.<br />
ta<br />
⎞<br />
⎟<br />
⎠<br />
⌈n⌋t = y•.<br />
ja t = ⌈n⌋ −1 y• = y •.<br />
Edellä olevassa Systat-ajossa pitkä tulostus antaa myös parametriestimaatin, mutta käytetystä<br />
koodauksesta johtuen se ei olekaan t, vaan Mat (eli esimerkissä t − y ••1a, viimeinen<br />
komponentti ei tulostu, vakio on 1 T a t/a).<br />
Lasketaan vielä estimaatin t varianssimatriisi. Ensinnäkin<br />
t = ⌈n⌋ −1 y• = ⌈n⌋ −1 T T y = ⌈n⌋ −1 T T (Tτ + ɛ) =τ + ⌈n⌋ −1 T T ɛ.<br />
Kysytty varianssimatriisi on siis<br />
V (t) =σ 2 ⌈n⌋ −1 T T T⌈n⌋ −1 = σ 2 ⌈n⌋ −1 .<br />
Tasoestimaatit t1,...,ta ovat näin ollen riippumattomat.<br />
Parametrien estimointia tärkeämpää on kuitenkin niitä koskevien hypoteesien testaus.
LUKU 3. KVALITATIIVISET FAKTORIT 45<br />
3.1.2 Hypoteesien testaus. Kontrastit<br />
Kuten edellä, voidaan ANOVAa käyttäen testata myös yleisiä lineaarisia hypoteeseja<br />
H0 : Cτ = d.<br />
Matriisi C on q × a-matriisi, jonka rivirangi on täysi, ts. sen rivit ovat lineaarisesti riippumattomat.<br />
Vastahypoteesi on H1 : Cτ = d.Hypoteesin testauksen perustulos on<br />
Lause 3.2. Jos H0 on tosi, niin suureella<br />
(Ct − d) T (C⌈n⌋ −1 C T ) −1 (Ct − d)(N − a)<br />
qSSE<br />
on F-jakauma vapausastein q ja N − a (olettaen jälleen, että N>a).<br />
Todistus. (Jälleen tarvitaan kurssin Laaja tilastomatematiikka tietoja.) Matriisi C⌈n⌋ −1 C T on<br />
ilmeisesti ei-singuläärinen. Koska<br />
MresT⌈n⌋ −1 = O,<br />
niin r ja t ovat riippumattomia. Näin ollen myös SSE = r T r ja (Ct−d) T (C⌈n⌋ −1 C T ) −1 (Ct−<br />
d) ovat riippumattomat.<br />
Kuten Lauseen 3.1 todistuksessa todettiin, 1<br />
σ 2 SSE on χ 2 -jakautunut N − a vapausasteella.<br />
Samalla tavalla kuin Lauseen 1.1 todistuksessa näytetään nyt, että (Ct − d) T (C⌈n⌋ −1 C T ) −1<br />
(Ct − d) on χ 2 -jakautunut q vapausasteella.<br />
Hypoteesin H0 testaaminen sujuu lauseen avulla tavalliseen tapaan. Jos q = 1,voidaan Ftesti<br />
korvata t-testillä, joka voi olla toispuolinenkin. Hypoteesi on tällöin muotoa c T τ = d ja<br />
t-testisuure (N − a vapausasteella) on<br />
c T t − d<br />
c T ⌈n⌋ −1 c √ MSE .<br />
Jos C1a = 0a, sanotaan matriisia C kontrastimatriisiksi ja vastaavaa testisuuretta Ct − d<br />
kontrastiksi. Jos siis q =1ja kyseessä on kontrasti, on H0 muotoa cT τ = d, missä cT 1a =0,<br />
ja kontrasti on cT t − d. Huomaa, että mallin käyttökelpoisuutta testaava hypoteesi H0 : τ1 =<br />
···= τa on ilmaistavissa esimerkiksi kontrastia C0t käyttäen, missä<br />
⎛<br />
⎞<br />
1 −1 0 ··· 0 0<br />
⎜ 0 1 −1 ··· 0 0 ⎟<br />
C0 = ⎜<br />
⎝<br />
...<br />
⎟<br />
. . . . . ⎠<br />
0 0 0 ··· 1 −1<br />
.<br />
Samoin kontrastilla voidaan esittää hypoteesi H0 : τi = 1 T a τ /a, joka ilmoittaa τi:n vaikutuksen<br />
olevan keskitasoinen 2 . (Tämä testi voidaan tehdä yo. t-testisuureella myös toispuoleisena.)<br />
Kontrasteja käyttävässä testauksessa on yleensä d = 0q. Tällöin Lauseen 3.2 lausekkeen<br />
osoittajassa oleva neliösumma on<br />
t T C T (C⌈n⌋ −1 C T ) −1 Ct =merk. SSC,<br />
2 T Tämä ei ole sama kuin keskivaste n τ /N (”grand mean”), ellei n1 = ···= na. Hypoteesi H0 : τi = nT τ /N<br />
voidaan muuten myös esittää kontrastilla.
LUKU 3. KVALITATIIVISET FAKTORIT 46<br />
ns. kontrastin neliösumma. Yhden kontrastin c T t = c1t1 + ···+ cata tapauksessa se on<br />
SSC = (cT t) 2<br />
cT ⌈n⌋−1c = (c1t1 + ···+ cata) 2<br />
1<br />
n1 c21 + ···+ 1<br />
na c2 .<br />
a<br />
Kahden kontrastin Ct − d ja C ′ t − d ′ sanotaan olevan ortogonaaliset, jos C⌈n⌋ −1 (C ′ ) T = O.<br />
Toisaalta, jos C⌈n⌋ −1 (C ′ ) T = O, niin Ct − d ja C ′ t − d ′ ovat riippumattomat (ja samoin ovat<br />
vastaavat kontrastien neliösummat). Testien sanotaan tällöin olevan riippumattomat.<br />
Jos Ct ja C ′ t ovat kaksi ortogonaalista kontrastia ja SSC sekä SSC ′ ovat vastaavat neliö-<br />
summat, niin<br />
C<br />
C ′<br />
t T C T (C ′ ) T C<br />
C ′<br />
<br />
t on myös kontrasti ja sen neliösumma on<br />
<br />
⌈n⌋ −1 CT (C ′ ) T −1 <br />
C<br />
C ′<br />
= t T C T (C ′ ) T C⌈n⌋ −1 C T O<br />
O T C ′ ⌈n⌋ −1 (C ′ ) T<br />
<br />
t<br />
−1 C<br />
C ′<br />
<br />
t = SSC + SSC ′ .<br />
Vastaavat tulokset pätevät useammallekin kuin kahdelle keskenään ortogonaaliselle kontrastille.<br />
Yleisesti ottaen eri hypoteesien testit ovat kuitenkin riippuvia ja merkitsevyystasojen<br />
määräämisessä kannattaa varmuuden vuoksi käyttää esimerkiksi Bonferronin sääntöä.<br />
Testataan Systatilla edellä olevan datan avulla asetettu hypoteesi. Käskyt<br />
>hypothesis<br />
>effect x<br />
>contrast<br />
>0 1 -1 0 0<br />
>test<br />
antavat tulostuksen<br />
TEST FOR EFFECT CALLED:<br />
A MATRIX<br />
TEST OF HYPOTHESIS<br />
X<br />
1 2 3 4 5<br />
0.000 0.000 1.000 -1.000 0.000<br />
SOURCE SS DF MS F P<br />
HYPOTHESIS 12.100 1 12.100 1.501 0.235<br />
ERROR 161.200 20 8.060<br />
joka testaa hypoteesin H0 : τ2 = τ3 (H0:aa ei ilmeisestikään kannata hylätä). (A-matriisi ei<br />
tässä itse asiassa ole C, vaan Systatin koodauksen kautta muodostettava kerroinmatriisi, joka<br />
vastaa regressiomallin lineaarisen hypoteesin kerroinmatriisia A eikä yleensä ole = C.)<br />
Huomautus. Hypoteesi H0 (tai käytettävä kontrasti) määräytyy luonnollisesti käytännössä kiinnostavista<br />
vertailuista. Se on aina valittava ennen kokeiden suoritusta, ts. koetulosten tai estimoitujen<br />
tasojen ei saisi antaa vaikuttaa hypoteesiin. Tasoestimaatteja katselemalla kun löytyy<br />
kutakuinkin aina joitakin ”toteutuvia ja kiinnostavia” hypoteesejä, paitsi aritmeettisista, myös<br />
tilastollisista syistä.
LUKU 3. KVALITATIIVISET FAKTORIT 47<br />
3.1.3 Yhdistettyjä testejä<br />
Edellä esitetty yleisen lineaarisen hypoteesin testaus sallii monen yksittäisen muotoa H0 :<br />
c T τ = d olevan hypoteesin testaamisen yhdessä. Tällaisia yhdistettyjä testejä on paljon muitakin.<br />
S-testi eli Scheffén menetelmä<br />
S-testi testaa tietyssä mielessä yhtaikaa kaikkia muotoa H0 : c T τ = d olevia hypoteesejä.<br />
Merkitään tällaiseen testiin liittyen<br />
ccontr = c T ⌈n⌋ −1 c<br />
(ns. c:n kontrastinormi).<br />
S-testin toimivuuden todistamiseksi tarvitaan (a − 1) × a-kontrastimatriisi C, joka on ortogonaalinen<br />
3 ,ts. sen rivit ovat keskenään ortogonaaliset ja kontrastinormeiltaan =1eli<br />
C⌈n⌋ −1 C T = Ia−1.<br />
Huomaa, ettei kontrastimatriisissa voi olla enempää kuin a − 1 riviä, koska näiden on oltava<br />
kohtisuorassa vektoria 1a vastaan. Ilmeisesti jokainen g T Ct, missä g = 0a−1, onkontrasti<br />
(sillä g T C1a =0). Toisaalta 1a C T on ei-singuläärinen matriisi, joten yhtälöryhmällä<br />
on ratkaisu ja edelleen<br />
1a C T h<br />
g<br />
<br />
= c eli h1a + C T g = c<br />
0=1 T a c = ah + 1 T a C T g = ah<br />
Siis jokainen kontrasti c T t on lausuttavissa muodossa g T Ct ja<br />
c 2 contr = C T g 2 contr = g T C⌈n⌋ −1 C T g = g T g.<br />
Merkitään Fα,a−1,N−a:lla sellaista lukua, että vapausastein a − 1 ja N − a F-jakautuneelle satunnaismuuttujalle<br />
F tapauksen F>Fα,a−1,N−a todennäköisyys on α.<br />
3 Tällainen kontrastimatriisi saadaan esimerkiksi seuraavasti. Otetaan jokin ei-singuläärinen a × a-matriisi<br />
A, jonka ensimmäinen sarake on n, korvataan esimerkiksi Ia:n ensimmäinen sarake n:llä. Etsitään matriisin<br />
⌈n⌋ −1/2 A QR-hajotelma (⌈n⌋ −1/2 on lävistäjämatriisi, jonka lävistäjällä ovat n:n alkioiden inverssien neliöjuuret):<br />
⌈n⌋ −1/2 A = QR.<br />
Silloin AR −1 = ⌈n⌋ 1/2 Q ja<br />
(AR −1 ) T ⌈n⌋ −1 AR −1 = Q T ⌈n⌋ 1/2 ⌈n⌋ −1 ⌈n⌋ 1/2 Q = Q T Q = Ia.<br />
Koska R on yläkolmiomatriisi, AR −1 :n ensimmäinen sarake on muotoa cn, missä c on vakio. Kirjoitetaan<br />
(AR −1 ) T <br />
T cn<br />
= .<br />
C<br />
Silloin<br />
Ia =<br />
cn T<br />
Siispä näin saatu C on haluttua tyyppiä (ja c = ±1/ √ N).<br />
C<br />
<br />
⌈n⌋ −1 cn CT <br />
2 T c N c1a C<br />
=<br />
T<br />
cC1a C⌈n⌋−1CT <br />
.
LUKU 3. KVALITATIIVISET FAKTORIT 48<br />
Lause 3.3 (Scheffén lause). Tapauksen<br />
”Kaikille kontrasteille c T t pätee<br />
todennäköisyys on 1 − α.<br />
Todistus. Cauchy-Schwarzin epäyhtälön nojalla<br />
(c T (t − τ )) 2<br />
(a − 1)c 2 contrMSE<br />
≤ Fα,a−1,N−a.”<br />
(c T (t − τ )) 2 =(g T C(t − τ )) 2 ≤ (g T g)((t − τ ) T C T C(t − τ ))<br />
ja yhtäläisyys on voimassa, kun g ja C(t − τ ) ovat yhdensuuntaiset. Lauseessa mainittu tapaus<br />
on näin ollen sama kuin tapaus<br />
(t − τ ) T C T C(t − τ )<br />
(a − 1)MSE<br />
≤ Fα,a−1,N−a<br />
eli tapaus<br />
(Ct − Cτ ) T (C⌈n⌋C) −1 (Ct − Cτ )(N − a)<br />
≤ Fα,a−1,N−a,<br />
(a − 1)SSE<br />
jonka todennäköisyys Lauseen 3.2 (ja sen todistuksen) nojalla on 1 − α. Huomaa, että puhuttaessa<br />
kaikista kontrasteista mukana on aina myös kontrasti (C(t − τ )) T Ct, jolle yo. epäyhtälö<br />
toteutuu yhtälönä! Tämä kontrastimatriisi on tosin satunnainen ja vaihtuu kokeesta toiseen,<br />
mutta kyseessä on kontrasti.<br />
Jos nyt asetetaan hypoteesi H0 : c T τ = d ja havaitaan, että<br />
(c T t − d) 2<br />
(a − 1)c 2 contrMSE >Fα,a−1,N−a,<br />
on H0 hylättävä merkitsevyystasolla α. Koska Scheffén lauseessa mainittu tapaus käsittelee<br />
kaikkia mahdollisia kontrasteja, voi S-testillä testattavan kontrastin huoleti valita vaikkapa<br />
kokeen jälkeen. (Lauseen todistuksessakin tarvittiin ”vasta kokeessa realisoituvaa” kontrastia<br />
(C(t−τ )) T Ct.) Vastapainoksi S-testi on heikompi kuin varta vasten hypoteesille H0 : c T τ = d<br />
suoritettu testi, ts. S-testi ei hylkää H0:aa aina silloin, kun hypoteesin ”oma” testi sen tekee<br />
(poikkeuksena tapaus a =2).<br />
LSD-menetelmä4 LSD-menetelmä testaa läpi kaikki a<br />
hypoteesia<br />
2<br />
H (ij)<br />
0 : τi = τj (i =1,...,a; j = i +1,...,a).<br />
Tarkoituksena on löytää merkittävästi ”erilaisia” käsittelyjä. Menetelmää on syytä soveltaa vasta,<br />
kun malli on todettu käyttökelpoiseksi. Koska LSD-menetelmässä testataan suuri määrä yksittäisiä<br />
hypoteeseja, kasvaa riski, että joitakin niistä hylätään syyttä, varsin suureksi. LSD-menetelmän<br />
todellinen merkitsevyys on näin ollen pulmallinen. Toisaalta on myös mahdollista,<br />
ettei LSD-menetelmä löydä käsittelyjen välille mitään eroja, vaikka ANOVA toteaakin mallin<br />
käyttökelpoiseksi. Kaiken kaikkiaan LSD-menetelmän tulosta (erilaisiksi todettuja käsittelyjä)<br />
on pidettävä vain suuntaa antavana. Varsinainen käsittelyjen eroavaisuuden testaus edellyttää<br />
lisäkokeiden suorittamista.<br />
LSD-menetelmän tapaisia käsittelyjä keskenään vertaavia testejä tunnetaan useita, mm.<br />
4 ”LSD”=”least significant difference”
LUKU 3. KVALITATIIVISET FAKTORIT 49<br />
• Duncanin vaihteluvälitesti<br />
• Newman–Keuls-testi<br />
• Tukeyn testi<br />
ja monia muita. Yleistestiksi suositellaan usein Duncanin vaihteluvälitestiä. Ks. MONTGOME-<br />
RY.<br />
Mainittakoon myös testit, joissa verrataan käsittelyjä tiettyyn kiinteään käsittelyyn, ns. kontrollikäsittelyyn.<br />
Paitsi LSD-menetelmän tapaista testausta, löytyy tehokkaampiakin menetelmiä,<br />
mm. ns. Dunnettin testi, ks. MONTGOMERY.<br />
Systatista löytyvät ym. Duncanin vaihteluvälitesti, Newman–Keuls-testi sekä Tukeyn testi.<br />
Eo. datan testaus näillä testeillä sujuu seuraavasti (yleensä tietysti yksikin testaustapa riittää).<br />
Käskyillä<br />
>USE ’kuitu.sys’<br />
VARIABLES IN SYSTAT FILE ARE:<br />
X Y<br />
>by x<br />
>statistics y/duncan=0.05<br />
>statistics y/nk=0.01<br />
>statistics y/tukey=0.05<br />
saa ensin yleisstatistiikkaa ja sitten testituloksen<br />
THE FOLLOWING RESULTS ARE FOR:<br />
X = 1.000<br />
TOTAL OBSERVATIONS: 5<br />
N OF CASES 5<br />
MEAN 9.800<br />
STANDARD DEV 3.347<br />
THE FOLLOWING RESULTS ARE FOR:<br />
X = 2.000<br />
TOTAL OBSERVATIONS: 5<br />
Y<br />
N OF CASES 5<br />
MEAN 15.400<br />
STANDARD DEV 3.130<br />
THE FOLLOWING RESULTS ARE FOR:<br />
X = 3.000<br />
TOTAL OBSERVATIONS: 5<br />
N OF CASES 5<br />
MEAN 17.600<br />
STANDARD DEV 2.074<br />
THE FOLLOWING RESULTS ARE FOR:<br />
X = 4.000<br />
TOTAL OBSERVATIONS: 5<br />
N OF CASES 5<br />
MEAN 21.600<br />
STANDARD DEV 2.608<br />
Y<br />
Y<br />
Y
LUKU 3. KVALITATIIVISET FAKTORIT 50<br />
THE FOLLOWING RESULTS ARE FOR:<br />
X = 5.000<br />
TOTAL OBSERVATIONS: 5<br />
N OF CASES 5<br />
MEAN 10.800<br />
STANDARD DEV 2.864<br />
Y<br />
___________________________________________________________________________<br />
SUMMARY STATISTICS FOR Y<br />
BARTLETT TEST FOR HOMOGENEITY OF GROUP VARIANCES = 1.026<br />
APPROXIMATE F = .232 DF = 4, 600 PROBABILITY = .920<br />
ANALYSIS OF VARIANCE<br />
SOURCE SUM OF SQUARES DF MEAN SQUARE F PROBABILITY<br />
BETWEEN GROUPS 475.760 4 118.940 14.757 0.000<br />
WITHIN GROUPS 161.200 20 8.060<br />
DUNCAN MULTIPLE RANGE TESTS<br />
ORDERED MEANS DIFFER AT ALPHA = .050 IF THEY EXCEED FOLLOWING GAPS<br />
GAP ORDER DIFFERENCE<br />
1 3.748<br />
2 3.932<br />
3 4.050<br />
4 4.133<br />
THIS TEST ASSUMES THE COUNTS PER GROUP ARE EQUAL<br />
___________________________________________________________________________<br />
NEWMAN-KEULS MULTIPLE COMPARISONS<br />
ORDERED MEANS DIFFER AT ALPHA = .010 IF THEY EXCEED FOLLOWING GAPS<br />
GAP ORDER DIFFERENCE<br />
1 5.122<br />
2 5.901<br />
3 6.381<br />
4 6.733<br />
THIS TEST ASSUMES THE COUNTS PER GROUP ARE EQUAL<br />
___________________________________________________________________________<br />
TUKEY HSD TEST AT ALPHA = .050<br />
CRITICAL RANGE FOR PAIRS OF MEANS = 5.374<br />
THIS TEST ASSUMES THE COUNTS PER GROUP ARE EQUAL<br />
Duncanin vaihteluvälitestissä sekä Newman–Keuls-testissä asetetaan t:n komponentit suuruusjärjestykseen<br />
ja kahden käsittelyn ”GAP ORDER” eli järjestyserotus on näiden käsittelyjen järjestyslukujen<br />
erotus (järjestyserotus 1 siis vastaa suuruusjärjestyksessä peräkkäisiä käsittelyjä,<br />
jne.). Käsittelyt katsotaan erilaisiksi annetulla merkitsevyystasolla α, jos vastaavien t:n komponenttien<br />
arvojen erotus on vähintään käsittelyjen järjestyserotuksen kohdalta löytyvä luku.<br />
Tukeyn testissä taas kriittinen väli eli ”CRITICAL RANGE FOR PAIRS OF MEANS” on<br />
pienin ero kahden t:n komponentin välillä, jonka annetulla merkitsevyystasolla katsotaan ilmaisevan<br />
vastaavien käsittelyjen olevan vaikutukseltaan erilaisia.
LUKU 3. KVALITATIIVISET FAKTORIT 51<br />
3.1.4 Mallin riittävyys<br />
Mallia asetettaessa on tehty useita käytännön tilannetta ajatellen yksinkertaistavia oletuksia.<br />
Koska ANOVA saattaa olla hyvinkin herkkä poikkeamille näistä oletuksista, testataan usein oletusten<br />
voimassaoloa. Testauksessa käytetään residuaalia r. Jos malli on riittävä, ei residuaalissa<br />
ole juurikaan muuta virhettä kuin N(0N,σ2IN)-jakautuneen satunnaismuuttujan ɛ aiheuttamaa<br />
“kohinaa”. Ellei näin ole, on mahdollisia syitä useita.<br />
Epänormaalisuus<br />
Jos ɛ:n jakauma ei olekaan multinormaali, vaan jotakin muuta, ei ANOVAn tuloksiin ole paljoakaan<br />
luottamista. Epänormaalisuuden toteamiseksi voidaan r:n komponenttien olettaa olevan<br />
otos ja tutkia voiko tämän otoksen katsoa olevan peräisin N(0,σ2 )-jakautuneesta satunnaismuuttujasta,<br />
esimerkiksi piirtämällä vastaava pylväsdiagrammi. Parempi menettely on järjestää<br />
r:n komponentit suuruusjärjestykseen<br />
r(1) ≤ r(2) ≤···≤r(N)<br />
ja piirtää pisteet <br />
r(j), Φ −1<br />
<br />
j<br />
(j =1,...,N),<br />
N +1<br />
ns. normaalitodennäköisyyskuvio. (Φ−1 on käänteinen standardinormaalikertymä.) Pisteet<br />
<br />
j<br />
r(j), (j =1,...,N)<br />
N +1<br />
nimittäin muodostavat otoskertymän, jonka pitäisi olla normaalikertymän näköinen. Näin pisteiden<br />
r(j), Φ−1 ( j<br />
N+1 ) (j =1,...,N) pitäisi olla kutakuinkin samalla suoralla. Usein käytetään<br />
jotain korjattua otoskertymää, esimerkiksi<br />
<br />
1 j − 3<br />
r(j),<br />
N + 1<br />
<br />
(j =1,...,N),<br />
3<br />
ns. Tukeyn tasoitus (joka on Systatin oletustasoitus).<br />
Ajetaan edellä esimerkkinä käsitelty data Systatilla tallettaen residuaalit (sekä ennusteet).<br />
Käskyt ovat<br />
>USE ’kuitu.sys’<br />
VARIABLES IN SYSTAT FILE ARE:<br />
X Y<br />
>category x=5<br />
>model y=constant+x<br />
>save ressu<br />
>estimate<br />
ja saatu tulostus on<br />
DEP VAR: Y N: 25 MULTIPLE R: .864 SQUARED MULTIPLE R: .747<br />
ANALYSIS OF VARIANCE<br />
SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />
X 475.760 4 118.940 14.757 0.000<br />
ERROR 161.200 20 8.060<br />
DURBIN-WATSON D STATISTIC 2.402<br />
FIRST ORDER AUTOCORRELATION -.226<br />
RESIDUALS HAVE BEEN SAVED
LUKU 3. KVALITATIIVISET FAKTORIT 52<br />
Piirretään normaalitodennäköisyyskuvio. Kuva<br />
saadaan käskyillä<br />
E<br />
X<br />
P<br />
E<br />
C<br />
T<br />
E<br />
D<br />
V<br />
A<br />
L<br />
U<br />
E<br />
3<br />
2<br />
1<br />
0<br />
-1<br />
-2<br />
-3<br />
-5 0 5 10<br />
RESIDUAL<br />
>USE ’ressu.sys’<br />
VARIABLES IN SYSTAT FILE ARE:<br />
ESTIMATE RESIDUAL LEVERAGE COOK STUDENT<br />
SEPRED<br />
>pplot residual<br />
Tiettyä huolta jakauman normaalisuudesta voisi sen perusteella tuntea.<br />
Jakaumatestausta varten on olemassa omia tilastollisiakin testejä, mm. Kolmogorov–Smirnov-testi<br />
ja Cramer–von Mises-testi.<br />
Toisinaan sattuu, että yksi tai useampikin r:n komponenteista on itseisarvoltaan muita huomattavasti<br />
suurempi. Tällaisia komponentteja kutsutaan ulkolaisiksi. Ne ovat merkkejä joko<br />
siitä, että vastaava koe on virheellinen tai sitten siitä, että muut kokeet onkin tehty tilanteen<br />
kannalta huonolla alueella. Ulkolaisten esiintyessä on aina selvitettävä mistä ne johtuvat, sillä<br />
ANOVA on osoittautunut herkäksi ulkolaisten esiintymiselle. Useinkaan ei ole selvää, onko<br />
poikkeava komponentti ulkolainen vai sattuman oikusta syntynyt poikkeava arvo. Ulkolaisten<br />
tunnistamiseksi on erityisiä testejäkin. Yksinkertaisin tällainen testi on laskea<br />
1<br />
√ MSE r =merk. rout.<br />
rout:n komponentit voidaan tulkita otokseksi standardinormaalista satunnaismuuttujasta. Jos<br />
komponentti on itseisarvoltaan ≥ 3,kyseessä on melko varmasti ulkolainen.<br />
Korrelointi<br />
Vaikka ɛ:n komponentit olisivatkin normaalijakautuneita, voi niiden välillä olla korrelaatiota, ts.<br />
ne eivät ole riippumattomia. Asia paljastuu usein piirrettäessä r:n komponentit kokeiden fysikaalisen<br />
suoritusjärjestyksen funktiona (joka järjestys siis on syytä tätä varten tallettaa ja jonka<br />
pitäisi olla huolellisesti satunnaistettu). Korrelointi näkyy tällaisesta kuvaajasta usein selvästi
LUKU 3. KVALITATIIVISET FAKTORIT 53<br />
alla olevan kuvion tapaan, sillä se johtuu tällöin ajallisesta yhteydestä.<br />
Residuaali ei saa korreloida muidenkaan muuttujien kanssa eikä erityisesti vasteen kanssa.<br />
Piirtämällä residuaali vs. ennustettu vaste paljastuu usein mallin tämänkaltainen riittämättömyys.<br />
Eo. kuvio olisi nytkin hälyttävä.<br />
Jotta päästäisiin piirtämään eo. datasta Systatilla nämä kuvat, pitää tiedostoon ressu.sys<br />
editoida sarakkeeksi kokeiden suoritusjärjestys<br />
15, 19, 25, 12, 6, 8, 14, 1, 11, 3, 18, 13, 20, 7, 9, 22, 5, 2, 24, 10, 17, 21, 4, 16, 23.<br />
Käskyillä plot residual*jarjesty ja plot residual*estimate saadaan<br />
seuraavalla sivulla olevat kuvat. Mitään sen kummempaa merkkiä korrelaatiosta näistä kuvista<br />
ei paljastu.<br />
Heterogeeninen varianssi<br />
Vaikkei epänormaalisuutta tai korrelaatiota esiinnykään, voi malli osoittautua riittämättömäksi<br />
vielä sen vuoksi, että ɛ:n komponenttien varianssit eivät ole samat. Usein tämä näkyy piirrettäessä<br />
r:n komponentit suoritusjärjestyksen funktiona kuten edellä: hajonta on jossakin suurempaa<br />
kuin muualla. Seuraavalla sivulla on neljä hälyttävää kuviota (ylimpänä olevassa kuvassa ei<br />
tällaista varianssien erisuuruutta ole havaittavissa).<br />
Jos varianssin heterogeenisyyttä aiheuttava tekijä liittyy käsittelyihin, on mallissa itse asiassa<br />
ɛij:llä N(0,σ 2 i )-jakauma, ts. joka käsittelyyn liittyy oma virhevarianssinsa. Tämän selvittämiseksi<br />
on mm. ns. Bartlettin testi. Testin hypoteesi on<br />
H0 : σ 2 1 = ···= σ 2 a.<br />
(Vastahypoteesi on se ilmeinen.) Jos H0 on tosi, voidaan osoittaa5 , että testisuureella<br />
χ 2 0 =2.3026 q<br />
c ,<br />
missä<br />
ja<br />
e q =<br />
MSE N−a<br />
s 2(n1−1)<br />
1 ···s 2(na−1)<br />
a<br />
c =1+<br />
, s 2 i = 1<br />
<br />
a<br />
1<br />
3(a − 1)<br />
i=1<br />
ni − 1 yT i Mni yi (i =1,...,a)<br />
1<br />
ni − 1<br />
<br />
1<br />
− ,<br />
N − a<br />
5Alkuperäisviite on BARTLETT, M.S.: Properties of Sufficiency and Statistical Tests. Proceedings of the Royal<br />
Society A.160 (1937), 268–282.
LUKU 3. KVALITATIIVISET FAKTORIT 54<br />
R<br />
E<br />
S<br />
I<br />
D<br />
U<br />
A<br />
L<br />
R<br />
E<br />
S<br />
I<br />
D<br />
U<br />
A<br />
L<br />
10<br />
5<br />
0<br />
-5<br />
0 10 20 30<br />
10<br />
5<br />
0<br />
<strong>JA</strong>RJESTY<br />
-5<br />
0 10 20 30<br />
ESTIMATE
LUKU 3. KVALITATIIVISET FAKTORIT 55<br />
on suurilla a:n arvoilla likimain χ 2 -jakauma a − 1 vapausasteella. H0 hylätään merkitsevyystasolla<br />
α, jos testisuure osuu alla olevan kuvion varjostetulle alueelle, jonka pinta-ala on α.<br />
χ 2 -jakauman tiheysfunktio<br />
χ 2 (α)<br />
Systat tekee Bartlettin testin (ks. sivulla 50 oleva tulostus, jossa mitään syytä H0:n hylkäämiseen<br />
ei näy), mutta käyttäen hieman toista testisuuretta 6 .Tulos on kutakuinkin sama kuin<br />
χ 2 -jakauman avulla saatu.<br />
3.2 Monisuuntainen ANOVA<br />
Ottamalla malliin mukaan useampia selittäviä tekijöitä saadaan monisuuntainen ANOVA. Mukaan<br />
voidaan ottaa myös yhdysvaikutustermejä, jotka vastaavat korkean kertaluvun regressiomallin<br />
sekatuloja. Yleistä tällaista mallia ei tässä tarkastella, vaan rajoitutaan katsauksenomaisesti<br />
pariin esimerkkiin. Edellä olevan kaltainen matriisimuotoinen tarkastelu 7 voidaan tehdä<br />
näillekin malleille, mutta se ei ole nyt läheskään yhtä kätevä kuin yksisuuntaiselle ANOVAlle<br />
eikä toteutettavissa yhtä kivuttomasti Matlabilla. Näin ollen esitetäänkin tulokset usein osittain<br />
vain perinteisellä summa/komponentti-notaatiolla.<br />
3.2.1 Satunnaistetut lohkot<br />
Kokeita ei useinkaan pystytä suorittamaan täysin samanlaisina, vaan häiriötermistä mukaan tulevan<br />
satunnaisvaihtelun lisäksi esiintyy koetilanteiden systemaattisesta erilaisuudesta johtuvaa<br />
vaihtelua. Mikäli tällainen systemaattinen erilaisuus voidaan tunnistaa, saadaan siitä aiheutuva<br />
vaihtelu poistetuksi. Tätä varten koetilanteet jaetaan mahdollisimman samankaltaisiin ryhmiin,<br />
ns. lohkoihin joissa on kussakin a koetta (ts. kukin käsittely esiintyy kerran kussakin lohkossa).<br />
Lohkojen lukumäärä n määrää koetoistojen luvun. Kokeiden suoritusjärjestys lohkojen sisällä<br />
satunnaistetaan huolellisesti! Malli on nyt<br />
yij = τi + βj + ɛij,<br />
missä τi:t ja ɛij:t ovat kuten yksisuuntaisessa tapauksessa ja termien βj on tarkoitus kuvata<br />
lohkonvalinnan vaikutusta vasteeseen.<br />
Merkinnät y, yi, yi•,yi•, y••, y••, y•, y•, τ , ɛ, Mres, Mtr ja T ovat samat kuin edellä, uusina<br />
merkintöinä otetaan käyttöön<br />
⎛ ⎞<br />
β =<br />
⎜<br />
⎝<br />
6Kyseessä on ns. Boxin F-jakauma-approksimaatio, jota käytetään pienille a:n arvoille (a ≤ 10).<br />
7STUART, A.&ORD, J.K.: Kendall’s Advanced Theory of Statistics. Vol. 2. Edward Arnold (1991) sisältää<br />
tällaisen tarkastelun ja se on aika mutkikas.<br />
β1<br />
.<br />
βn<br />
⎟<br />
⎠
LUKU 3. KVALITATIIVISET FAKTORIT 56<br />
sekä<br />
Merkitään edelleen<br />
y•j =<br />
a<br />
i=1<br />
yij ja y •j = 1<br />
a y•j.<br />
B =<br />
(N × n-matriisi). Seuraavat kaavat ovat helposti todettavissa laskien:<br />
(i) T T T = nIa<br />
(ii) IN − 1<br />
n TTT = Mres<br />
(iii) T T B = 1a1 T n<br />
⎛<br />
⎜<br />
⎝<br />
In<br />
.<br />
In<br />
(iv) B T B = aIn<br />
(v) B1n = 1N<br />
⎞<br />
⎟<br />
⎠<br />
(vi) B T 1N = a1n<br />
Malli on matriisimuodossa<br />
y = Tτ + Bβ + ɛ.<br />
Myös SST ja SSTR ovat samat kuin edellä, samoin MST ja MSTR. (Huomaa, että nyt<br />
n1 = ···= na = n, N = an ja n = n1a.)<br />
Mallin parametrien t ja b estimoimiseksi käytetään pienimmän neliösumman menetelmää.<br />
Minimoitava neliösumma on<br />
y − Tτ − Bβ 2 =(y − Tτ − Bβ) T (y − Tτ − Bβ).<br />
Merkitsemällä gradientti nollaksi saadaan normaaliryhmä<br />
<br />
−2T T (y − Tτ − Bβ) =0a<br />
−2B T (y − Tτ − Bβ) =0n<br />
eli <br />
TT Tτ + TT Bβ = nτ + 1a1T nβ = y•<br />
BT Tτ + BT Bβ = 1n1T a τ + aβ = BT y.<br />
Ryhmän matriisin <br />
nIa 1a1T 1n1<br />
n<br />
T a aIn<br />
<br />
rangi on a + n − 1, sillä se saadaan sarakeoperaatioin muotoon<br />
<br />
nMa 1a1T O<br />
n<br />
aIn<br />
<br />
(lasketaan yhteen oikeanpuoleisen lohkosarakkeen sarakkeet kerrottuna −1/a:llä ja lisätään<br />
näin saatu vektori kuhunkin vasemmanpuoleisen lohkosarakkeen sarakkeista) ja<br />
rank(Ma) =trace(Ma) =a − 1.<br />
Normaaliryhmä on näin ollen alimäärätty ja yksikäsitteisen ratkaisun saamiseksi tarvitaan yksi<br />
lineaarisesti riippumaton lisäyhtälö 8 .Tavallisesti se on<br />
1 T nβ =0.<br />
8 Samanlainen lisäehto tarvitaan myös yksisuuntaisessa tapauksessa, jos malli kirjoitetaan muotoon yij = µ +<br />
τi + ɛij, kuten usein tehdään (itse asiassa Systatkin tekee näin). Myös tässä käsiteltävä malli kirjoitetaan usein<br />
muotoon yij = µ + τi + βj + ɛij, jolloin tarvitaankin kaksi lisäyhtälöä.
LUKU 3. KVALITATIIVISET FAKTORIT 57<br />
Itse asiassa ilman mitään lisäehtoja eivät mallissakaan τ ja β määräytyisi yksikäsitteisesti, sillä<br />
lohkovaikutuksista βj voidaan vähentää mielivaltainen luku, joka sitten lisätään käsittelyjen<br />
vaikutuksiin τi kokonaisvaikutuksen muuttumatta.<br />
Lisäyhtälön käyttöönoton jälkeen matriisi on<br />
<br />
nIa O<br />
1n1T <br />
a aIn<br />
ja saadaan estimaatit<br />
Vasteen ennuste on näin ollen<br />
Tt + Bb = Ty • + B<br />
=<br />
<br />
t = 1<br />
ny• = y• b = 1<br />
aBT y − 1<br />
N 1n1T a y• = 1<br />
aBT y − y••1n. <br />
1<br />
a BT <br />
y − y••1n 1<br />
n TTT + 1<br />
a BBT − 1<br />
N JN<br />
= 1<br />
n TTT y + 1<br />
a BBT y − 1<br />
N B1n1 T Ny<br />
<br />
y<br />
ja residuaali on<br />
<br />
r = IN − 1<br />
n TTT − 1<br />
a BBT + 1<br />
N JN<br />
<br />
y = Mres − 1<br />
a BBT + 1<br />
N JN<br />
<br />
y.<br />
Merkitään<br />
jolloin<br />
Mres2 =merk. Mres − 1<br />
a BBT + 1<br />
N JN ja Mbl =merk.<br />
MN = Mtr + Mres = Mtr + Mbl + Mres2.<br />
1<br />
a BBT − 1<br />
N JN,<br />
Vastaavat neliösummat ovat (aikaisemman SST:n ja SSTR:n lisäksi) lohkojen neliösumma<br />
sekä residuaalin neliösumma<br />
SSE = r T r = y T Mres2y =<br />
SSB = y T Mbly = a<br />
a<br />
i=1<br />
n<br />
y 2 •j − Ny 2 ••<br />
j=1<br />
n<br />
y 2 ij − n<br />
j=1<br />
a<br />
y 2 i• − a<br />
i=1<br />
n<br />
j=1<br />
y 2 •j + Ny 2 ••.<br />
Matriisit Mres2 sekä Mbl ovat symmetrisiä idempotentteja matriiseja, kuten suoralla laskulla voi<br />
todeta. Lohkojen erilaisuudesta johtuva vaihtelu on nyt saatu eristetyksi omaan neliösummaansa<br />
SSB = a<br />
n<br />
y 2 •j − Ny 2 •• = a<br />
j=1<br />
n<br />
(y•j − y••) 2 ,<br />
j=1<br />
joten sen vaikutus voidaan testattaessa poistaa.<br />
Vapausasteet ja keskineliöt saadaan seuraavasta taulusta:
LUKU 3. KVALITATIIVISET FAKTORIT 58<br />
SSX vapausasteet MSX<br />
SST N − 1 MST =<br />
SSTR a − 1<br />
SSB n − 1<br />
SSE (a − 1)(n − 1)<br />
SST<br />
N − 1<br />
(kokonaiskeskineliö)<br />
MSTR = SSTR<br />
a − 1<br />
(käsittelyjen keskineliö)<br />
MSB = SSB<br />
n − 1<br />
(lohkojen keskineliö)<br />
SSE<br />
MSE =<br />
(a − 1)(n − 1)<br />
(residuaalin keskineliö)<br />
Jälleen MSE on harhaton σ 2 :n estimaatti.<br />
Lause 3.4. Jos τ on muotoa µ1a, missä µ on vakio (hypoteesi H0), niin osamäärällä<br />
MSTR<br />
MSE =merk. F<br />
on F-jakauma vapausastein a − 1 ja (a − 1)(n − 1).<br />
Todistus. Lauseen todistus on aivan samanlainen kuin Lauseen 3.1, matriisilaskuista johtuen<br />
vain vähän työläämpi.<br />
H0 voidaan testata tavalliseen tapaan. Huomattakoon, että tämä testi on vahvasti sen oletuksen<br />
varassa, että ɛ on N(0N,σ 2 IN)-jakautunut, sillä sille ei voida antaa satunnaistustulkintaa.<br />
Ajetaan alla annettu data Systatin avulla.<br />
karki lohko y<br />
1 1 9.3<br />
1 2 9.4<br />
1 3 9.6<br />
1 4 10.0<br />
2 1 9.4<br />
2 2 9.3<br />
2 3 9.8<br />
2 4 9.9<br />
3 1 9.2<br />
3 2 9.4<br />
3 3 9.5<br />
3 4 9.7<br />
4 1 9.7<br />
4 2 9.6<br />
4 3 10.0<br />
4 4 10.2<br />
Huomaa miten käsittelyt ja lohkot on ”kategorisoitu”. Käskyt<br />
>USE ’kovuus.sys’<br />
VARIABLES IN SYSTAT FILE ARE:<br />
KARKI LOHKO Y<br />
>category karki=4,lohko=4<br />
>model y=constant+karki+lohko<br />
>estimate<br />
antavat tulostuksen
LUKU 3. KVALITATIIVISET FAKTORIT 59<br />
DEP VAR: Y N: 16 MULTIPLE R: .968 SQUARED MULTIPLE R: .938<br />
ANALYSIS OF VARIANCE<br />
SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />
KARKI 0.385 3 0.128 14.437 0.001<br />
LOHKO 0.825 3 0.275 30.937 0.000<br />
ERROR 0.080 9 0.009<br />
jonka mukaan käsittelyillä on eroja. Pitkä tulostus on<br />
DEP VAR: Y N: 16 MULTIPLE R: .968 SQUARED MULTIPLE R: .938<br />
-1<br />
ESTIMATES OF EFFECTS B = (X’X) X’Y)<br />
Y<br />
CONSTANT 9.625<br />
KARKI 1 -0.050<br />
KARKI 2 -0.025<br />
KARKI 3 -0.175<br />
LOHKO 1 -0.225<br />
LOHKO 2 -0.200<br />
LOHKO 3 0.100<br />
ANALYSIS OF VARIANCE<br />
SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />
KARKI 0.385 3 0.128 14.437 0.001<br />
LOHKO 0.825 3 0.275 30.937 0.000<br />
ERROR 0.080 9 0.009<br />
ja se antaa myös estimaatit Mat (eli tässä t − y ••1a) jab.<br />
Huomautus. Matlabilla laskettaessa kannattaa käyttä Kronecker-tuloa ⊗ matriisien kokoamiseen<br />
(operaatio kron ):<br />
T = Ia ⊗ 1n , Mres = Ia ⊗ Mn , B = 1a ⊗ In.<br />
Analogisesti Lauseen 3.4 kanssa pätee<br />
Lause 3.5. Jos β = 0n, niin osamäärällä<br />
MSB<br />
MSE<br />
on F-jakauma vapausastein n − 1 ja (a − 1)(n − 1).<br />
Todistus. Samankaltainen kuin Lauseen 3.1 todistus.<br />
Olisi houkuttelevaa käyttää tätä hypoteesin H0 : β = 0n testaamiseen (vastahypoteesina H0 :<br />
”β = 0n, mutta 1 T nβ =0(lisäehto)”). F-jakauman käytön aiheellisuudesta tämän testin yhteydessä<br />
käytännössä ei kuitenkaan olla aivan yksimielisiä, ks. esimerkiksi MONTGOMERY.
LUKU 3. KVALITATIIVISET FAKTORIT 60<br />
Useimmat ohjelmistot joka tapauksessa suorittavat ko. testin ilman muuta (ks. edellä oleva<br />
Systat-ajo). Tulosta lienee pidettävä jonkin verran approksimatiivisena. Kokeen suorituksesta<br />
johtuen käsittelyt ja lohkot eivät nimittäin ole samassa asemassa, sillä satunnaistus tapahtuu<br />
lohkojen sisällä, mutta ei käsittelyjen sisällä. Näin malli voi hyvinkin osoittautua riittämättömäksi<br />
lohkojen tutkimista ajatellen. Jos H0:aa ei hylätä, voi ainakin päätellä, että lohkoihin<br />
jaolla ei ole kummempaa vaikutusta ja suunnitella kokeet vastaisuudessa yksisuuntaisina.<br />
Lasketaan seuraavaksi estimaattien varianssimatriisit. Koska<br />
t = 1<br />
n TT y = 1<br />
n TT (Tτ + Bβ + ɛ) =τ + 1<br />
n TT ɛ<br />
ja<br />
<br />
1<br />
b =<br />
a BT − 1<br />
N 1n1 T <br />
1<br />
N y =<br />
a BT − 1<br />
N 1n1 T <br />
N (Tτ + Bβ + ɛ)<br />
<br />
1<br />
= β +<br />
a BT − 1<br />
N 1n1 T <br />
N ɛ<br />
(muista lisäehto 1 T nβ =0ja huomaa, että seurauksena t ja b ovat harhattomia), on<br />
2 1<br />
V (t) =σ<br />
n2 TT T = σ2<br />
n Ia<br />
(estimaatit ti ovat siis jälleen riippumattomat) ja<br />
V (b) =σ 2<br />
<br />
1<br />
a BT − 1<br />
N 1n1 T <br />
1 1<br />
N B −<br />
a N 1N1 T <br />
n<br />
= σ 2<br />
<br />
1<br />
a In − 1<br />
N Jn<br />
<br />
.<br />
Vielä<br />
2 1<br />
cov(t, b) =σ<br />
n TT<br />
<br />
1 1<br />
B −<br />
a N 1N1 T <br />
n = O,<br />
joten t ja b ovat riippumattomat.<br />
Hypoteesin H0 : Cτ = d testaus sujuu samaan tapaan kuin edellä. Yo. syystä vain käsittelyjä<br />
koskevat hypoteesit ovat varmasti mielekkäitä F-testin kannalta. Lause 3.2 pitää paikkansa<br />
(todistuskin on kutakuinkin sama), kunhan testisuureessa muutetaan SSE:n vapausasteet<br />
oikeiksi, ts. suureella<br />
n(Ct − d) T (CC T ) −1 (Ct − d)(a − 1)(n − 1)<br />
qSSE<br />
on F-jakauma vapausastein q ja (a − 1)(n − 1). Lause 3.2 pitää tosin paikkansa9 myös hypoteesille<br />
H0 : Eβ = f, missä E on täysiriviranginen p × n-matriisi, jonka riviavaruudessa ei ole<br />
vektoria 1T n (tämä oletus tarvitaan, koska muutoin joko H0 olisi ristiriidassa lisäehdon 1T nβ =0<br />
kanssa tai se sisältäisi ”turhia” eli automaattisesti toteutuvia osia). Testisuure on nyt<br />
(Eb − f) T E 1<br />
aIn − 1<br />
N Jn<br />
<br />
T E −1 (Eb − f)(a − 1)(n − 1)<br />
pSSE<br />
ja sillä on F-jakauma vapausastein p ja (a − 1)(n − 1). Näin ollen myös β:a koskevia lineaarisia<br />
hypoteeseja voidaan periaatteessa testata (ja esimerkiksi Systat sallii sen ilman muuta).<br />
9 1 Matriisin aIn − 1<br />
1<br />
aIn − 1<br />
N Jn nolla-avaruuden alkioita ei ole E:n riviavaruudessa, on E 1<br />
aIn − 1<br />
N Jn<br />
N Jn nolla-avaruuden alkiot ovat muotoa c1n, missä c on vakio. Koska näin ollen matriisin<br />
T E todella ei-singuläärinen.<br />
Muutoin tuloksen todistus menee kuten Lauseen 3.2 todistus.
LUKU 3. KVALITATIIVISET FAKTORIT 61<br />
Myös S-testi käsittelyille menee samaan tapaan kuin edellä. Testisuuretta<br />
SSC<br />
(a − 1)MSE<br />
verrataan F-jakauman kertymäpisteeseen Fα,a−1,(a−1)(n−1), muita eroja ei ole. Samoin LSD-testi<br />
on samanlainen kuin edellä.<br />
Mallin riittävyystarkastelut tapahtuvat residuaalin r avulla kuten edellä. Mukaan kannattaa<br />
ottaa myös sirontakuvio residuaali vs. lohko. Uutena riittämättömyyden lajina tulee mukaan<br />
epäadditiivisuus, ts. se että käsittelyjen ja lohkojen välillä on yhdysvaikutusta. Usein tällainen<br />
yhdysvaikutus näkyy jo piirrettäessä residuaalit ennusteen funktiona: kuvio on jollain tapaa<br />
epäsymmetrinen. Epäadditiivisuuden testaamiseen on omiakin testejä, mm. ns. Tukeyn additiivisuustesti,<br />
ks. esimerkiksi MONTGOMERY. Epäadditiivisuus on sukua regressiomallin epäsopivuudelle.<br />
Tutkitaan Systatilla eo. mallin riittävyyttä normaalitodennäköisyyskuviota ja sopivia sirontakuvia<br />
käyttäen. Talletetaan residuaali ja ennuste. Käskyt<br />
>USE ’resko.sys’<br />
VARIABLES IN SYSTAT FILE ARE:<br />
ESTIMATE RESIDUAL LEVERAGE COOK STUDENT<br />
SEPRED KARKI LOHKO<br />
>pplot residual<br />
>plot residual*estimate<br />
>plot residual*karki<br />
>plot residual*lohko<br />
tuottavat seuraavat kuvat.<br />
E<br />
X<br />
P<br />
E<br />
C<br />
T<br />
E<br />
D<br />
V<br />
A<br />
L<br />
U<br />
E<br />
2<br />
1<br />
0<br />
-1<br />
-2<br />
-0.2 -0.1 0.0 0.1 0.2<br />
RESIDUAL<br />
Pientä huolta jakauman normaalisuudesta voisi tämän kuvan perusteella tuntea, kuvaaja kun on<br />
hieman käyrä. Sen sijaan alla olevat sirontakuviot eivät anna aihetta huoleen.
LUKU 3. KVALITATIIVISET FAKTORIT 62<br />
R<br />
E<br />
S<br />
I<br />
D<br />
U<br />
A<br />
L<br />
R<br />
E<br />
S<br />
I<br />
D<br />
U<br />
A<br />
L<br />
R<br />
E<br />
S<br />
I<br />
D<br />
U<br />
A<br />
L<br />
0.2<br />
0.1<br />
0.0<br />
-0.1<br />
-0.2<br />
9.0 9.5 10.0 10.5<br />
0.2<br />
0.1<br />
0.0<br />
-0.1<br />
ESTIMATE<br />
-0.2<br />
0 1 2 3 4 5<br />
0.2<br />
0.1<br />
0.0<br />
-0.1<br />
KARKI<br />
-0.2<br />
0 1 2 3 4 5<br />
LOHKO
LUKU 3. KVALITATIIVISET FAKTORIT 63<br />
3.2.2 Roomalaiset neliöt<br />
Jakamalla koetilanteet lohkoihin voidaan poistaa lohkojen välisen vaihtelun vaikutus. Toisaalta<br />
lohkojen sisäinen vaihtelu jää ja saattaa suurentaa residuaalineliösummaa merkittävästi. Jos<br />
lohkojen sisäinen vaihtelu on kaikissa lohkoissa samankaltaista, ts. koetilanteet jokaisen lohkon<br />
sisällä voidaan järjestää samaan tapaan, saadaan ns. neliökoe.<br />
Roomalaisessa neliössä (eli latinalaisessa neliössä) kussakin lohkossa on yhtä monta koetta<br />
kuin on lohkoja, sanotaan n koetta. Koejärjestely on tapana kirjoittaa neliöksi, jossa rivi on<br />
lohko ja sarake kuvaa lohkon sisäistä järjestystä. Näin saadaan n 2 koetilannetta, joille jaetaan<br />
n käsittelyn n koetoistoa siten, että kukin käsittelyistä esiintyy tarkalleen kerran kussakin rivissä<br />
ja kussakin sarakkeessa. Jos käsittelyjä merkitään kirjaimin A, B, C, ... ,voidaan kirjaimista<br />
näin kirjoittaa neliö, jonka kussakin rivissä ja kussakin esiintyy kukin kirjaimista tarkalleen<br />
kerran. Esimerkiksi<br />
A B D C A D B E C A D C E B F<br />
B C A D D A C B E B A E C F D<br />
C D B A C B E D A C E D F A B<br />
D A C B B E A C D D C F B E A<br />
E C D A B F B A D C E<br />
E F B A D C<br />
ovat tällaisia neliöitä.<br />
Kulloinkin käytettävä roomalainen neliö valitaan satunnaisesti, esimerkiksi valitsemalla kirjallisuudessa<br />
esiintyvistä taulukoiduista neliöistä sopivankokoinen ja permutoimalla sen rivit ja<br />
sarakkeet satunnaisesti. Lähtöneliö voisi olla tyyppiä<br />
A B C D<br />
B C D A<br />
C D A B<br />
D A B C<br />
oleva neliö, joita on kaikenkokoisia, mutta tällä tavoin ei saada aivan satunnaista neliötä (koska<br />
kaikkia roomalaisia neliöitä ei saada tällaisista neliöistä permutoimalla). Suuremmille neliöille<br />
menettely katsotaan riittävän satunnaistavaksi. Kunnollinen satunnaistus on tärkeää, sillä ilman<br />
sitä mallin riittämättömyys voi joissain tilanteissa helposti johtaa pahasti vääriin johtopäätöksiin.<br />
Huomaa, että satunnaistus käsittää vain käsittelyt, ei lohkoja eikä sarakkeita.<br />
Malli on<br />
yijk = τi + βj + γk + ɛijk,<br />
missä τ , β ja ɛ ovat kuten edellä ja γk kuvaa sarakkeen valinnan vaikutusta vasteeseen. Merkinnät<br />
y, yi, y•, y •, Mres, Mtr, Mbl, Mres2, T ja B ovat kuten edellä. Merkinnät<br />
yi•• , y i•• , y•j• , y •j• , y••k , y ••k , y••• , y •••<br />
tulkitaan ilmeiseen tapaan. Merkitään edelleen<br />
⎛ ⎞<br />
γ =<br />
⎜<br />
⎝<br />
γ1<br />
.<br />
γn<br />
⎛<br />
⎟<br />
⎜<br />
⎠ ja G = ⎝<br />
(n × n-matriisi), missä G1 saadaan roomalaisesta neliöstä korvaamalla A ykkösellä ja muut<br />
kirjaimet nollilla, G2 saadaan korvaamalla B ykkösellä ja muut kirjaimet nollilla, jne. Huomaa,<br />
G1<br />
.<br />
Gn<br />
⎞<br />
⎟<br />
⎠
LUKU 3. KVALITATIIVISET FAKTORIT 64<br />
että Gi:t ovat permutaatiomatriiseja, ts. kussakin rivissä ja kussakin sarakkeessa on tarkalleen<br />
yksi ykkönen muiden alkioiden ollessa nollia. Permutaatiomatriisit ovat ortogonaalisia, joten<br />
G T i Gi = In. Matlabilla G saadaan koottua helposti, kunhan ensin roomalainen neliö kirjoitetaan<br />
kategorisoiduksi matriisiksi R:<br />
»R=[1 2 4 3;2 3 1 4;3 4 2 1;4 1 3 2]<br />
R =<br />
»G2=R==2<br />
G2 =<br />
1 2 4 3<br />
2 3 1 4<br />
3 4 2 1<br />
4 1 3 2<br />
0 1 0 0<br />
1 0 0 0<br />
0 0 1 0<br />
0 0 0 1<br />
»G=[R==1;R==2;R==3;R==4]<br />
G =<br />
1 0 0 0<br />
0 0 1 0<br />
0 0 0 1<br />
0 1 0 0<br />
0 1 0 0<br />
1 0 0 0<br />
0 0 1 0<br />
0 0 0 1<br />
0 0 0 1<br />
0 1 0 0<br />
1 0 0 0<br />
0 0 1 0<br />
0 0 1 0<br />
0 0 0 1<br />
0 1 0 0<br />
1 0 0 0<br />
Seuraavat kaavat ovat helposti todettavissa laskien:<br />
(i) T T G = Jn<br />
(ii) B T G = Jn<br />
(iii) G T G = nIn<br />
Malli on matriisimuodossa<br />
(iv) G1n = 1 n 2<br />
(v) G T 1 n 2 = n1n<br />
y = Tτ + Bβ + Gγ + ɛ.<br />
Myös SST, SSTR ja SSB ovat samat kuin edellä ja samoin vastaavat keskineliöt. (Nyt siis<br />
a = n ja N = n 2 .)<br />
Parametrien estimoimiseksi käytetään jälleen pienimmän neliösumman menetelmää. Minimoitava<br />
neliösumma on<br />
y − Tτ − Bβ − Gγ 2 =(y − Tτ − Bβ − Gγ) T (y − Tτ − Bβ − Gγ).<br />
Merkitsemällä gradientti nollaksi saadaan normaaliryhmä
LUKU 3. KVALITATIIVISET FAKTORIT 65<br />
⎧<br />
⎪⎨ −2T<br />
⎪⎩<br />
T (y − Tτ − Bβ − Gγ) =0n<br />
−2BT (y − Tτ − Bβ − Gγ) =0n<br />
−2GT (y − Tτ − Bβ − Gγ) =0n<br />
eli ⎧<br />
⎪⎨ T<br />
⎪⎩<br />
T Tτ + TT Bβ + TT Gγ = nτ + Jnβ + Jnγ = y•<br />
BT Tτ + BT Bβ + BT Gγ = Jnτ + nβ + Jnγ = BT y<br />
GT Tτ + GT Bβ + GT Gγ = Jnτ + Jnβ + nγ = GT y.<br />
Ryhmän matriisin ⎛<br />
⎝<br />
nIn Jn Jn<br />
Jn nIn Jn<br />
Jn Jn nIn<br />
rangi on 3n − 2, sillä se saadaan sarake- ja rivioperaatioin muotoon<br />
⎛<br />
⎞<br />
⎝<br />
nMn Jn On<br />
On nIn On<br />
On On nMn<br />
(Lasketaan oikeanpuoleisen lohkosarakkeen sarakkeet yhteen kerrottuna −1/n:llä ja lisätään<br />
saatu vektori kuhunkin ensimmäisen lohkosarakkeen sarakkeista. Sen jälkeen lasketaan yhteen<br />
keskimmäisen lohkorivin rivit kerrottuna −1/n:llä ja lisätään saatu vaakavektori alimman lohkorivin<br />
riveihin. Toistetaan vielä sama toiselle ja kolmannelle sarakkeelle.) Normaaliryhmä on<br />
siis taas alimäärätty ja tarvitaan kaksi lisäyhtälöä, jotta parametrit saataisiin ratkaistuksi normaaliryhmästä<br />
yksikäsitteisesti. Nämä lisäyhtälöt ovat yleensä<br />
⎞<br />
⎠<br />
⎠ .<br />
1 T nβ =0 ja 1 T nγ =0.<br />
Näin saadaan estimaatit<br />
⎧<br />
⎪⎨ t =<br />
⎪⎩<br />
1<br />
ny• = y• b = 1<br />
nBT y − 1<br />
n2 Jny• = 1<br />
nBT y − y•••1n g = 1<br />
nGT y − 1<br />
n2 Jny• = 1<br />
nGT y − y•••1n. Vasteen ennuste on nyt<br />
Tt + Bb + Gg = Ty • + B<br />
ja residuaali on<br />
Merkitään<br />
<br />
1<br />
n BT <br />
1<br />
y − y•••1n + G<br />
a GT <br />
y − y•••1n = 1<br />
n TTT y + 1<br />
n BBT y + 1<br />
n GGT y − 1<br />
n<br />
1<br />
=<br />
n TTT + 1<br />
n BBT + 1<br />
n GGT − 2<br />
n2 Jn2 <br />
y<br />
r =<br />
T<br />
B1n1 2 n<br />
<br />
In2 − 1<br />
n TTT − 1<br />
n BBT − 1<br />
n GGT + 2<br />
n2 Jn2 <br />
y<br />
1<br />
2y −<br />
n<br />
T<br />
G1n1 2 n2y Mres3 = I n 2 − 1<br />
n TTT − 1<br />
n BBT − 1<br />
n GGT + 2<br />
n 2 J n 2 = Mres2 − 1<br />
n GGT + 1<br />
n 2 J n 2
LUKU 3. KVALITATIIVISET FAKTORIT 66<br />
ja<br />
Silloin<br />
Mcol = 1<br />
n GGT − 1<br />
n 2 J n 2.<br />
MN = Mtr + Mbl + Mres2 = Mtr + Mbl + Mcol + Mres3.<br />
Vastaavat neliösummat ovat (aiemmin olleiden SST:n, SSTR:n ja SSB:n lisäksi) sarakkeiden<br />
neliösumma<br />
SSCOL = y T n<br />
Mcoly = n y 2 ••k − n 2 y 2 •••<br />
sekä residuaalin neliösumma<br />
j=1<br />
SSE = r T r = y T Mres3y.<br />
Matriisit Mres3 ja Mcol ovat symmetrisiä idempotentteja matriiseja, kuten laskien voi todeta.<br />
Vapausasteet ja keskineliöt saadaan seuraavasta taulusta:<br />
SSX vapausasteet MSX<br />
SST n<br />
SSTR<br />
SSB<br />
SSCOL<br />
SSE<br />
2 − 1 MST =<br />
n − 1<br />
n − 1<br />
n − 1<br />
(n − 2)(n − 1)<br />
SST<br />
n2 − 1<br />
(kokonaiskeskineliö)<br />
MSTR = SSTR<br />
n − 1<br />
(käsittelyjen keskineliö)<br />
MSB = SSB<br />
n − 1<br />
(lohkojen keskineliö)<br />
MSCOL = SSCOL<br />
n − 1<br />
(sarakkeiden keskineliö)<br />
SSE<br />
MSE =<br />
(n − 2)(n − 1)<br />
(residuaalin keskineliö)<br />
Jälleen MSE on harhaton σ 2 :n estimaatti. Lause 3.1 pitää paikkansa, kun F-jakauman vapausasteiksi<br />
merkitään n − 1 ja (n − 2)(n − 1),jahypoteesi H0 : τ1 = ···= τn voidaan testata tavalliseen<br />
tapaan.<br />
Lause 3.2 pätee nyt myös, sekä lohkoille että sarakkeille, F-jakauman vapausasteina n − 1<br />
ja (n − 2)(n − 1). Koska satunnaistus tehtiin vain käsittelyille (ts. valittiin roomalainen neliö<br />
satunnaisesti), ei ole suositeltavaa käyttää näitä jakaumatuloksia lohkojen tai sarakkeiden erilaisuuden<br />
testaamiseen muutoin kuin korkeintaan suuntaa antavasti. Usein kuitenkin tyydytään<br />
tähän lohkojen ja sarakkeiden erilaisuustestin käytännön approksimatiivisuuteen ja käytetään<br />
roomalaisia neliöitä kolmen eri faktorin (käsittelyt, lohkot ja sarakkeet) yhtaikaiseen testaamiseen.<br />
Koe on tällöin varsin ekonominen (n 2 koetta, kolme n-tasoista faktoria).<br />
Yleisen lineaarisen hypoteesin testaus sujuu aivan samoin kuin edellä, SSE:n vapausasteina<br />
tietysti (n−2)(n−1). Riittävyystarkastelut residuaaleja käyttäen ovat myös samantapaiset kuin<br />
satunnaistetuille lohkoille.<br />
Roomalaista neliötä, jonka ensimmäinen sarake ja ensimmäinen rivi ovat aakkosjärjestyksessä,<br />
kutsutaan standardineliöksi. Ideaalisesti, satunnaistettaessa valitaan ensin satunnaisesti<br />
jokin standardineliö ja satunnaistetaan se permutoimalla sarakkeet ja rivit. Seuraavassa eräitä<br />
lukumääriä:<br />
n 2 3 4 5 6 7<br />
standardineliöiden lkm 1 1 4 56 9408 16942080<br />
kaikkien neliöiden lkm 2 12 576 161280 812851200 61479419904000
LUKU 3. KVALITATIIVISET FAKTORIT 67<br />
Jokaisesta roomalaisesta neliöstä saadaan standardineliö permutoimalla sarakkeet aakkosjärjestykseen<br />
ja sitten rivit aakkosjärjestykseen. Näin ollen<br />
n × n-neliöiden lkm = n!(n − 1)! × (standardineliöiden lkm).<br />
Koska standardineliöitä on suuri määrä, kun n>5,valitaan usein lähtöneliö kuten edellä tehtiin<br />
ja tyydytään tulokseen.<br />
Ajetaan alla oleva data Systatilla. Huomaa jälleen kategorisointi luvuiksi 1,...,5.Vastaava<br />
roomalainen neliö on<br />
A B C D E<br />
B C D E A<br />
C D E A B<br />
D E A B C<br />
E A B C D<br />
Selvästikään tämä ei ole tullut satunnaistuksen kautta. Tässä onkin lohkojen ja sarakkeiden<br />
järjestys satunnaistettu ja käytetty kiinteää roomalaista neliötä. Vaikutus on sama.<br />
Käskyillä<br />
>USE ’dynamite.sys’<br />
VARIABLES IN SYSTAT FILE ARE:<br />
KASITTEL LOHKO SARAKE Y<br />
>category kasittel=5,lohko=5,sarake=5<br />
>model y=constant+kasittel+lohko+sarake<br />
>print long<br />
>estimate<br />
käsittely lohko sarake y<br />
1 1 1 −1<br />
1 2 5 11<br />
1 3 4 2<br />
1 4 3 1<br />
1 5 2 5<br />
2 1 2 −5<br />
2 2 1 −8<br />
2 3 5 −4<br />
2 4 4 −2<br />
2 5 3 −5<br />
3 1 3 −6<br />
3 2 2 −1<br />
3 3 1 −7<br />
3 4 5 −3<br />
3 5 4 4<br />
4 1 4 −1<br />
4 2 3 5<br />
4 3 2 13<br />
4 4 1 1<br />
4 5 5 6<br />
5 1 5 −1<br />
5 2 4 2<br />
5 3 3 1<br />
5 4 2 6<br />
5 5 1 −3
LUKU 3. KVALITATIIVISET FAKTORIT 68<br />
saadaan pitkä tulostus<br />
DEP VAR: Y N: 25 MULTIPLE R: .900 SQUARED MULTIPLE R: .811<br />
-1<br />
ESTIMATES OF EFFECTS B = (X’X) X’Y)<br />
CONSTANT 0.400<br />
KASITTEL 1 3.200<br />
KASITTEL 2 -5.200<br />
KASITTEL 3 -3.000<br />
KASITTEL 4 4.400<br />
LOHKO 1 -3.200<br />
LOHKO 2 1.400<br />
LOHKO 3 0.600<br />
LOHKO 4 0.200<br />
SARAKE 1 -4.000<br />
SARAKE 2 3.200<br />
SARAKE 3 -1.200<br />
SARAKE 4 0.600<br />
Y<br />
ANALYSIS OF VARIANCE<br />
SOURCE SUM-OF-SQUARES DF MEAN-SQUARE F-RATIO P<br />
KASITTEL 330.000 4 82.500 7.734 0.003<br />
LOHKO 68.000 4 17.000 1.594 0.239<br />
SARAKE 150.000 4 37.500 3.516 0.040<br />
ERROR 128.000 12 10.667<br />
Käsittelyillä on tässä vaikutusta. Lohkoihin jako näyttää turhalta, sen sijaan sarakkeisiin jaolla<br />
on merkitystä, minkä voi tulevissa kokeissa ottaa huomioon. (Huomaa, että jälleen tässä tulostuu<br />
t:n sijasta Mnt eli tässä t − y •••1n.) Hypoteesin H0 : τ2 = τ3 voi testata tavalliseen tapaan<br />
käskyillä<br />
>hypothesis<br />
>effect kasittel<br />
>contrast<br />
>0 1 -1 0 0<br />
>test<br />
jolloin saadaan tulostus<br />
TEST FOR EFFECT CALLED:<br />
KASITTEL<br />
A MATRIX<br />
1 2 3 4 5<br />
0.000 0.000 1.000 -1.000 0.000<br />
6 7 8 9 10<br />
0.000 0.000 0.000 0.000 0.000
LUKU 3. KVALITATIIVISET FAKTORIT 69<br />
11 12 13<br />
0.000 0.000 0.000<br />
TEST OF HYPOTHESIS<br />
SOURCE SS DF MS F P<br />
HYPOTHESIS 12.100 1 12.100 1.134 0.308<br />
ERROR 128.000 12 10.667<br />
Jos kaksi eri roomalaista n × n-neliötä voidaan valita siten, että niissä alla olevan esimerkin<br />
tapaan kukin n 2 kirjainparista esiintyy tarkalleen kerran, sanotaan neliöitä ortogonaalisiksi.<br />
AA BB CC DD<br />
BD AC DB CA<br />
CB DA AD BC<br />
DC CD BA AB<br />
Usein jälkimmäinen neliöistä kirjoitetaan pienin kreikkalaisin kirjaimin ja yhdistettyä neliötä<br />
kutsutaan kreikkalais-roomalaiseksi neliöksi.<br />
A B C D<br />
B A D C<br />
C D A B<br />
D C B A<br />
+ α β γ δ<br />
δ γ β α<br />
β α δ γ<br />
γ δ α β<br />
→<br />
Aα Bβ Cγ Dδ<br />
Bδ Aγ Dβ Cα<br />
Cβ Dα Aδ Bγ<br />
Dγ Cδ Bα Aβ<br />
Satunnainen kreikkalais-roomalainen neliö valitaan ottamalla ensin kaksi satunnaista keskenään<br />
ortogonaalista roomalaista neliötä, yhdistämällä ne ja permutoimalla sen jälkeen satunnaisesti<br />
rivit ja sarakkeet.<br />
Pareittain keskenään ortogonaalisia roomalaisia n × n-neliöitä voi olla enintään n − 1 kappaletta<br />
(todistus jätetään lukijalle harjoitukseksi). Voidaan osoittaa (ks. esimerkiksi JOHN), että<br />
tällainen täysi kokoelma ortogonaalisia roomalaisia neliöitä löytyy, jos n on alkuluku tai alkuluvun<br />
potenssi, mutta niitä löytyy usein muutenkin. Klassinen taulukko FISHER, R.A. & YATES,<br />
F.: Statistical Tables for Biological, Agricultural and Medical Research. Oliver & Boyd (1953)<br />
sisältää nimestään huolimatta myös insinöörejä ajatellen hyödyllisiä asioita, mm. luettelot n−1<br />
keskenään ortogonaalisesta roomalaisesta neliöstä arvoille n =3, 4, 5, 7, 8, 9. Arvo n =6puuttuu,<br />
sillä ortogonaalisia 6 × 6- neliöitä ei ole lainkaan! Vasta suhteellisen äskettäin on voitu<br />
tietokoneiden avustuksella osoittaa, että löytyy yhdeksän keskenään ortogonaalista 10 × 10neliötä<br />
ja sitä ennen oli pitkään avoin probleema, onko niitä ollenkaan. Kaksi ortogonaalista<br />
roomalaista neliötä voidaan löytää itse asiassa aina, kun n = 6(ja n>3), mutta ei välttämättä<br />
täyttä n − 1 neliön kokoelmaa.<br />
Kreikkalais-roomalaista neliötä käyttävässä kokeessa malli on<br />
yijkl = τi + θl + βj + γk + ɛijkl,<br />
missä θl:t kuvaavat kreikkalaisin kirjaimin merkityn toisen käsittelyn vaikutusta vasteeseen.<br />
Matriisimuodossa malli on<br />
y = T1τ + T2θ + Bβ + Gγ + ɛ,<br />
missä T1 on aikaisempi T ja T2 on sopiva uusi 0-1-matriisi. Estimaatit etsitään tavalliseen<br />
tapaan pienimmän neliösumman keinolla, jne. SSE:n vapausasteiden lukumääräksi jää enää<br />
(n − 3)(n − 1). ANOVA sekä hypoteesien testaus ovat käytännön tilanteessa varsinaisesti suoritettavissa<br />
vain käsittelyille erikseen.
LUKU 3. KVALITATIIVISET FAKTORIT 70<br />
Useampia ortogonaalisia roomalaisia neliöitä käytettäessä saadaan ns. hyperneliökokeita.<br />
Ortogonaalisten roomalaisten neliöiden käyttö pelkästään lisäluokittelijoina (lohkojen ja sarakkeiden<br />
tapaan) ei välttämättä ole edullista: Vaikka residuaalineliösumma pienenee, koska osa<br />
siitä siirtyy ”uusien käsittelyjen” neliösummiin, pienenee samalla SSE:n vapausasteiden luku.<br />
Hyperneliökokeita ei tästä syystä useinkaan käytetä.<br />
Huomautus. Roomalaisia neliöitä ja erityisesti kreikkalais-roomalaisia neliöitä käyttävät kokeet<br />
ovat hyvin herkkiä epäadditiivisuudelle, ts. sille että lohkoilla, sarakkeilla ja käsittelyillä<br />
on yhdysvaikutust. Jos tällaista voi odottaa olevan, on käytettävä faktorikokeita, joissa on yhdysvaikutustermit<br />
mukana.
Luku 4<br />
MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong><br />
4.1 Satunnaisotanta<br />
Populaatiossa on N alkiota X1,...,XN. Kustakin alkiosta Xj voidaan mitata numeerinen kulotteinen<br />
suurevektori, jota lyhyyden vuoksi merkitään myös Xj:llä. (Merkintä on epätäsmällinen,<br />
sillä ko. numeerinen suurevektori voi olla yhteinen useammalle populaatioalkioille.) Merkitään<br />
edelleen<br />
⎛ ⎞<br />
Xj =<br />
⎜<br />
⎝<br />
Xj1<br />
.<br />
Xjk<br />
⎟<br />
⎠ .<br />
Populaatiosuureet kootaan ns. populaatiomatriisiksi<br />
⎛ ⎞ ⎛<br />
⎜<br />
⎝<br />
X T 1<br />
X T 2<br />
.<br />
X T N<br />
⎟<br />
⎠ =<br />
⎜<br />
⎝<br />
X11 X12 ··· X1k<br />
X21 X22 ··· X2k<br />
.<br />
.<br />
. ..<br />
XN1 XN2 ··· XNk<br />
.<br />
⎞<br />
⎟<br />
⎠ =merk. X.<br />
Myöhemmin otetaan käyttöön vastaava otokseen liittyvä datamatriisi. Skalaaritapauksessa (eli<br />
kun k =1) populaatioalkiota merkitään myös Xj:llä. Populaatiokeskiarvo on<br />
ja populaatiovarianssi on<br />
summamuodossa<br />
ξ = 1<br />
N<br />
N<br />
j=1<br />
ξ = 1<br />
N XT 1N<br />
Σ = 1<br />
N XT MNX,<br />
Xj ja Σ = 1<br />
N<br />
N<br />
(Xj − ξ)(Xj − ξ) T .<br />
Huomaa, että ξ on N-vektori ja Σ on N × N-matriisi (usein tällaista matriisia kutsutaan myös<br />
kovarianssimatriisiksi). Skalaaritapauksessa merkitään populaatiokeskiarvoa ξ:llä ja populaatiovarianssia<br />
tutulla merkinnällä σ2 .<br />
N:stä alkiosta (populaatio) voidaan valita n alkion (järjestämätön) joukko<br />
<br />
N<br />
n<br />
=<br />
N!<br />
n!(N − n)!<br />
j=1<br />
= N(n − 1) ···(N − n +1)<br />
n!<br />
71
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 72<br />
eri tavalla. Jos ajatellaan kukin tällainen valinta eli otos yhtä todennäköiseksi (todennäköisyys<br />
on 1/ N<br />
), on kyseessä n alkion satunnaisotanta palauttamatta. Merkitään valittuja otosal-<br />
n<br />
kioita symboleilla x1,...,xn. (Skalaaritapauksessa merkitään jälleen otosalkiota myös xi:llä.)<br />
Symmetriasyistä xi voi yhtä todennäköisesti olla mikä tahansa populaatioalkioista, ts.<br />
P (xi = Xj) = 1<br />
(i =1,...,n; j =1,...,N).<br />
N<br />
Merkitään xi:hin liittyvää numeerista k-vektoria myös xi:llä ja edelleen<br />
⎛ ⎞<br />
xi =<br />
⎜<br />
⎝<br />
xi1<br />
.<br />
xik<br />
⎟<br />
⎠ .<br />
Yhdistämällä otokseen tulleet numeeriset vektorit saadaan datamatriisi<br />
⎛ ⎞ ⎛<br />
⎞<br />
⎜<br />
⎝<br />
x T 1<br />
x T 2<br />
.<br />
x T n<br />
⎟<br />
⎠ =<br />
⎜<br />
⎝<br />
x11 x12 ··· x1k<br />
x21 x22 ··· x2k<br />
.<br />
.<br />
. ..<br />
xn1 xn2 ··· xnk<br />
Nyt xi:t ovat satunnaisvektoreita ja x on satunnaismatriisi.<br />
.<br />
⎟<br />
⎠ =merk. x.<br />
Huomautus. Ainoa satunnaisuus on otoksen satunnaisessa valinnassa. Populaatiohan on kiinteä.<br />
ja<br />
xi:n odotusarvo ja varianssi ovat<br />
V (xi) =<br />
E(xi) =<br />
N<br />
XjP (xi = Xj) =ξ<br />
j=1<br />
N<br />
(Xj − ξ)(Xj − ξ) T P (xi = Xj) =Σ.<br />
j=1<br />
Edelleen, jos i1 = i2,niin<br />
<br />
0, jos j1 = j2<br />
P (xi1 = Xj1, xi2 = Xj2) = 1<br />
N(N−1) , jos j1 = j2.<br />
Näin ollen eri otosalkioiden xi1 ja xi2 kovarianssi on<br />
cov(xi1, xi2) =<br />
(tässä KN = JN − IN).<br />
1<br />
N(N − 1)<br />
N<br />
j1=1 j2=1<br />
j2=j1<br />
N<br />
(Xj1 − ξ)(Xj2 − ξ) T<br />
1<br />
=<br />
N(N − 1) (XT − ξ1 T N)KN(X − 1Nξ T )<br />
1<br />
=<br />
N(N − 1) XT 1<br />
MNKNMNX = −<br />
N(N − 1) XT MNX = − 1<br />
N − 1 Σ
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 73<br />
Huomautus. Skalaaritapauksessa tästä seuraa, ehkä vähän yllättäen, että korrelaatiokerroin<br />
ρ(xi1,xi2) = cov(xi1,xi2)<br />
V (xi1)V (xi2)<br />
= − 1<br />
N − 1<br />
ei riipu populaatiosta muuten kuin sen alkioiden lukumäärän kautta.<br />
Tavallisin otoksesta laskettava suure on otoskeskiarvo<br />
summamuodossa<br />
x = 1<br />
n xT 1n,<br />
x = 1<br />
n<br />
(tavallinen aritmeettinen keskiarvo, skalaaritapauksessa merkitään myös x). Otoskeskiarvo on<br />
satunnaisvektori.<br />
Lause 4.1. E(x) =ξ,ts.x on populaatiokeskiarvon harhaton estimaatti, ja<br />
Todistus. Lasketaan:<br />
ja<br />
E(x) =E<br />
V (x) = 1<br />
n<br />
<br />
1<br />
n<br />
n<br />
i=1<br />
xi<br />
n<br />
i=1<br />
<br />
1 −<br />
<br />
= 1<br />
n<br />
xi<br />
n − 1<br />
N − 1<br />
n<br />
i=1<br />
<br />
Σ.<br />
E(xi) = 1<br />
n<br />
n<br />
ξ = ξ<br />
V (x) =E((x − ξ)(x − ξ) T 1<br />
)=E<br />
n xT <br />
1<br />
1n − ξ<br />
n xT <br />
T<br />
1n − ξ<br />
1<br />
= E<br />
n xT 1n − 1<br />
n ξ1T <br />
1<br />
n1n<br />
n xT 1n − 1<br />
n ξ1T <br />
T<br />
n1n<br />
= 1<br />
n2 E((xT − ξ1 T n)Jn(x − 1nξ T ))<br />
= 1<br />
n2 E((xT − ξ1 T n)(x − 1nξ T )) + 1<br />
n2 E((xT − ξ1 T n)Kn(x − 1nξ T ))<br />
⎛<br />
= 1<br />
E<br />
n2 n<br />
i=1<br />
= 1<br />
1<br />
nV (x1)+<br />
n2 (xi − ξ)(xi − ξ) T<br />
= 1 n − 1 1<br />
Σ − Σ =<br />
n n(N − 1) n<br />
<br />
+ 1 ⎜<br />
E<br />
n2 ⎝<br />
n 2 n(n − 1)cov(x1, x2)<br />
<br />
1 −<br />
n − 1<br />
N − 1<br />
<br />
Σ.<br />
n<br />
i1=1 i2=1<br />
i2=i1<br />
i=1<br />
n<br />
(xi1 − ξ)(xi2 − ξ) T<br />
⎞<br />
⎟<br />
⎠
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 74<br />
Jos N ja n ovat ”suuria”, on<br />
n − 1<br />
N − 1 ∼ = n<br />
N =merk. a<br />
(ns. otossuhde). Niinpä usein kirjoitetaankin (epätarkasti)<br />
V (x) = 1<br />
(1 − a)Σ.<br />
n<br />
Jos N →∞, niin V (x) → 1 Σ. Tästä syystä 1 − a:ta kutsutaan äärellisen populaation korjaus-<br />
n<br />
kertoimeksi.<br />
Toinen otoksesta usein laskettava suure on otosvarianssi<br />
S = 1<br />
n − 1 xT Mnx,<br />
joka on satunnaismatriisi, summamuodossa<br />
S = 1<br />
n − 1<br />
n<br />
(xi − x)(xi − x) T .<br />
i=1<br />
Skalaaritapauksessa merkitään otosvarianssia myös tutulla s 2 :lla. Huomaa, että kysymyksessä<br />
on se ”harhaton varianssi”, toinen mahdollisuus olisi käyttää kerrointa 1/n.<br />
Lause 4.2. E(S) = N Σ (Ei riipu n:stä!)<br />
N−1<br />
Todistus. Koska Mn1n = 0n,on<br />
Siis<br />
S = 1<br />
n − 1 (x − 1nξ T ) T Mn(x − 1nξ T )<br />
= 1<br />
n − 1 (x − 1nξ T ) T (x − 1nξ T 1<br />
) −<br />
n(n − 1) (x − 1nξ T ) T 1n1 T n(x − 1nξ T )<br />
= 1<br />
n<br />
(xi − ξ)(xi − ξ)<br />
n − 1<br />
T − n<br />
n − 1 (x − ξ)(x − ξ)T .<br />
i=1<br />
E(S) = 1<br />
n − 1<br />
n<br />
V (xi) −<br />
i=1<br />
n<br />
V (x)<br />
n − 1<br />
<br />
1 n − 1<br />
1 − Σ =<br />
n N − 1<br />
N<br />
N − 1 Σ.<br />
= 1 n<br />
nΣ −<br />
n − 1 n − 1<br />
Näin ollen <br />
1 − 1<br />
<br />
S<br />
N<br />
on Σ:n harhaton estimaatti. Edelleen<br />
1<br />
n<br />
<br />
1 −<br />
n − 1<br />
N − 1<br />
on V (x):n harhaton estimaatti.<br />
<br />
1 − 1<br />
N<br />
<br />
S = 1<br />
n<br />
N − n<br />
N − 1<br />
N − 1<br />
N<br />
1<br />
S = (1 − a)S<br />
n
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 75<br />
Vaikka populaation jakauma ei muistuttaisikaan normaalijakaumaa, niin suurille N:n arvoille<br />
ja ”vähääkään suuremmille” n:n arvoille x:n jakauma on likimain multinormaali. Tämä<br />
johtuu Keskeisestä raja-arvolauseesta. Huomaa, että otokseen tulleet eri xi:t eivät ole riippumattomat,<br />
vaan itse asiassa heikosti korreloivat. Suurilla N:n arvoilla korrelaatio on kuitenkin<br />
hyvin pieni ja Keskeiseen raja-arvolauseeseen voinee vedota. Kullakin x:n komponentilla xi<br />
voidaan näin olettaa olevan likimain normaalijakauma N ξi, 1<br />
n (1 − a)σ2 <br />
i , missä ξi on ξ:n i:s<br />
komponentti ja σ2 i on Σ:n i:s lävistäjäalkio. Tätä käyttäen saadaan ξi:lle tavalliseen tapaan luotettavuusväli.<br />
Haluttuun luotettavuuteen pääseminen edellyttää kyllin suurta n:n arvoa, jonka määrittäminen<br />
taas edellyttää yläarviota σ2 i :lle. Sellainen saadaan lasketuksi joko aikaisemmista otoksista<br />
tai esitutkimuksista tai olettamalla populaatiossa Xji:lle (j =1,...,N)”konservatiivinen” jakauma,<br />
ts. ajatellaan populaation arvot Xj saaduiksi ottamalla N:n suuruinen otos sopivasti<br />
jakautuneesta satunnaismuuttujasta. Usein normaalijakauma on sopiva jakaumakandidaatti, varianssin<br />
vain pitää olla kyllin suuri (konservatiivisuus). Myös tasajakauma tai kolmiojakauma<br />
Xj:n vaihteluvälille sopii usein.<br />
Huomaa, että eri komponenttien ξi luotettavuusvaatimuksista saadaan erilaisia otoskokoja.<br />
Sitäpaitsi eri komponenteille saadut luotettavuusvälit voivat olla toisistaan riippuvia! Bonferronin<br />
säännön nojalla saadaan luotettavuusvälit yhtaikaa käyttöön halutulla luotettavuudella. Huomaa,<br />
että Bonferronin sääntö tekee mahdolliseksi ”tärkeämpien” komponenttien ξi estimoinnin<br />
luotettavammin toisten, ”vähemmän tärkeiden” komponenttien kustannuksella.<br />
4.2 Ositettu otanta<br />
Populaatio on jaettu K:hon alipopulaatioon eli ositteeseen.<br />
Ositteille saadaan ositematriisit<br />
⎛ ⎞ ⎛<br />
⎜<br />
⎝<br />
X T ℓ1<br />
X T ℓ2<br />
.<br />
X T ℓNℓ<br />
⎟<br />
⎠ =<br />
⎜<br />
⎝<br />
osite no. osite koko<br />
1 X11,...,X1N1 N1<br />
2 X21,...,X2N2 N2<br />
.<br />
.<br />
.<br />
K XK1,...,XKNK NK<br />
Xℓ11 Xℓ12 ··· Xℓ1k<br />
Xℓ21 Xℓ22 ··· Xℓ2k<br />
.<br />
.<br />
...<br />
XℓNℓ1 XℓNℓ2 ··· XℓNℓk<br />
ja näistä yhdistämällä taas varsinainen populaatiomatriisi<br />
⎛ ⎞<br />
X =<br />
⎜<br />
⎝<br />
X1<br />
.<br />
XK<br />
.<br />
⎟<br />
⎠ .<br />
⎞<br />
⎟<br />
⎠ =merk. Xℓ (ℓ =1,...,K)<br />
Kullekin ositteelle saadaan edelleen ositepaino wℓ = Nℓ/N , missä N = N1 + ··· + NK.<br />
Ositepainot kootaan ositepainovektoriksi<br />
⎛ ⎞<br />
w =<br />
⎜<br />
⎝<br />
w1<br />
.<br />
wK<br />
⎟<br />
⎠ .
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 76<br />
Edelleen saadaan ositekeskiarvot<br />
ja ositevarianssit<br />
ξ ℓ = 1<br />
Σℓ = 1<br />
X<br />
Nℓ<br />
T ℓ 1Nℓ<br />
X<br />
Nℓ<br />
T ℓ MNℓXℓ. Yhdistetään ositekeskiarvot ositekeskiarvomatriisiksi<br />
ja otetaan vielä käyttöön matriisi 1<br />
Ξ = ξ 1 ··· ξ K<br />
W = ⌈w⌋−ww T ,<br />
missä ⌈w⌋ on K ×K-lävistäjämatriisi, jonka lävistäjällä ovat painot w1,...,wK. Tämä matriisi<br />
saadaan helposti kootuksi esimerkiksi Matlabilla:<br />
»N=10;<br />
»w=[2/N;4/N;1/N;3/N]<br />
w =<br />
0.2000<br />
0.4000<br />
0.1000<br />
0.3000<br />
»W=diag(w)-w*w’<br />
W =<br />
0.1600 -0.0800 -0.0200 -0.0600<br />
-0.0800 0.2400 -0.0400 -0.1200<br />
-0.0200 -0.0400 0.0900 -0.0300<br />
-0.0600 -0.1200 -0.0300 0.2100<br />
Lause 4.3. Populaatiokeskiarvo on ositekeskiarvojen ositepainoilla painotettu keskiarvo, ts.<br />
Populaatiovarianssi on<br />
Σ =<br />
ξ = Ξw =<br />
K<br />
wℓΣℓ + ΞWΞ T =<br />
ℓ=1<br />
K<br />
ℓ=1<br />
<br />
K<br />
wℓξℓ. ℓ=1<br />
wℓΣℓ +<br />
K<br />
wℓ(ξℓ − ξ)(ξℓ − ξ) T .<br />
(Tässä K<br />
ℓ=1 wℓΣℓ on ns. ositteiden sisäinen varianssi ja ΞWΞ T taas ositteiden välinen varianssi.)<br />
Todistus. Lasketaan:<br />
ξ = 1<br />
N XT 1N = 1 <br />
T X1 ··· X<br />
N<br />
T K<br />
⎛<br />
⎜<br />
⎝<br />
1N1<br />
.<br />
1NK<br />
ℓ=1<br />
⎞<br />
⎟<br />
⎠ = 1<br />
N<br />
K<br />
ℓ=1<br />
X T ℓ 1Nℓ =<br />
Populaatiovarianssia koskevan kaavan todistamiseksi todetaan ensin, että<br />
Σ = 1<br />
N XT MNX = 1<br />
N XT<br />
<br />
IN − 1<br />
N 1N1 T <br />
N X = 1<br />
N XT X − ξξ T<br />
1 Tämä vastaa matriisia 1<br />
K MK, joka saadaan, kun painot ovat samat.<br />
K<br />
wℓξℓ = Ξw.<br />
ℓ=1
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 77<br />
(vastaten tuttua kaavaa V (x) =E(x2 ) − E(x) 2 )javastaavasti<br />
Σℓ = 1<br />
Xℓ T Xℓ − ξℓξ T<br />
ℓ .<br />
Nyt<br />
ja<br />
1<br />
N XT X = 1 <br />
T X1 ··· X<br />
N<br />
T K<br />
Nℓ<br />
⎛<br />
⎜<br />
⎝<br />
X1<br />
.<br />
XK<br />
⎞<br />
⎟<br />
⎠ = 1<br />
N<br />
K<br />
ℓ=1<br />
X T ℓ Xℓ =<br />
ξξ T = Ξww T Ξ T = −ΞWΞ T + Ξ⌈w⌋Ξ T = −ΞWΞ T +<br />
Yhdistämällä nämä todetaan, että<br />
Σ =<br />
K<br />
ℓ=1<br />
wℓ(Σℓ + ξ ℓξ T<br />
ℓ )+ΞWΞ T −<br />
K<br />
ℓ=1<br />
wℓξ ℓξ T<br />
ℓ =<br />
K<br />
ℓ=1<br />
K<br />
ℓ=1<br />
K<br />
ℓ=1<br />
wℓ<br />
X<br />
Nℓ<br />
T ℓ Xℓ<br />
wℓξ ℓξ T<br />
ℓ .<br />
wℓΣℓ + ΞWΞ T .<br />
ΞWΞ T pitää vielä saada haluttuun summamuotoon. Helpolla laskulla todetaan, että<br />
missä<br />
W = ⌈ √ w⌋−w √ w T ⌈ √ w⌋− √ ww T ,<br />
√ w =<br />
⎛<br />
⎜<br />
⎝<br />
√ w1<br />
.<br />
√ wK<br />
⎞<br />
⎟<br />
⎠<br />
(eli painojen neliöjuurista muodostettu vektori). Näin ollen<br />
ΞWΞ T = Ξ ⌈ √ w⌋−w √ w T √ √ T<br />
⌈ w⌋− ww Ξ T<br />
= Ξ⌈ √ w⌋−ξ √ w T √ √ T T<br />
⌈ w⌋Ξ − wξ <br />
K<br />
= ( √ wℓξℓ − √ wℓξ)( √ wℓξℓ − √ wℓξ) T =<br />
ℓ=1<br />
Kussakin ositteessa suoritetaan tavallinen satunnaisotanta:<br />
K<br />
wℓ(ξℓ − ξ)(ξℓ − ξ) T .<br />
osite no. otosalkiot otoskoko otossuhde otoskeskiarvo otosvarianssi<br />
1 x11,...,x1n1 n1 a1 = n1/N1 x1 S1<br />
2 x21,...,x2n2 n2 a2 = n2/N2 x2 S2<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
K xK1,...,xKnK nK aK = nK/NK xK SK<br />
Ositteille saadaan omat datamatriisit<br />
⎛ ⎞ ⎛<br />
⎜<br />
⎝<br />
x T ℓ1<br />
x T ℓ2<br />
.<br />
x T ℓnℓ<br />
⎟<br />
⎠ =<br />
⎜<br />
⎝<br />
xℓ11 xℓ12 ··· xℓ1k<br />
xℓ21 xℓ22 ··· xℓ2k<br />
.<br />
.<br />
...<br />
xℓnℓ1 xℓnℓ2 ··· xℓnℓk<br />
.<br />
⎞<br />
ℓ=1<br />
⎟<br />
⎠ =merk. xℓ (ℓ =1,...,K)
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 78<br />
ja näistä yhdistämällä taas varsinainen datamatriisi<br />
⎛ ⎞<br />
x =<br />
⎜<br />
⎝<br />
Edelleen<br />
xℓ = 1<br />
x<br />
nℓ<br />
T ℓ 1nℓ ja Sℓ = 1<br />
nℓ − 1 xTℓ Mnℓxℓ. Eri ositteiden satunnaisotannat ovat toisistaan riippumattomat. Edellisen pykälän tulokset soveltuvat<br />
kullekin ositteelle:<br />
E(xℓ) =ξℓ , V(xℓ) = 1<br />
<br />
1 −<br />
nℓ<br />
nℓ<br />
<br />
− 1<br />
Σℓ<br />
Nℓ − 1<br />
ja E(Sℓ) = Nℓ<br />
Nℓ − 1 Σℓ.<br />
Varsinainen otoskeskiarvo on nyt<br />
K<br />
x = wℓxℓ.<br />
w<br />
ℓ=1<br />
2 ℓ<br />
nℓ<br />
ℓ=1<br />
x1<br />
.<br />
xK<br />
⎟<br />
⎠ .<br />
Lause 4.4. E(x) =ξ,ts.xon populaatiokeskiarvon harhaton estimaatti, ja<br />
K<br />
<br />
1<br />
V (x) =<br />
1 − nℓ<br />
<br />
− 1<br />
Σℓ.<br />
Nℓ − 1<br />
Todistus. Edellisen lauseen nojalla<br />
<br />
K<br />
E(x) =E<br />
ℓ=1<br />
wℓxℓ<br />
<br />
=<br />
K<br />
wℓE(xℓ) =<br />
ℓ=1<br />
K<br />
wℓξℓ = ξ.<br />
Nyt w1x1,...,wKxK ovat riippumattomat, sillä otokset eri ositteissa otetaan toisistaan riippumatta.<br />
Koska riippumattomien satunnaisvektorien summan varianssi on satunnaisvektorien<br />
varianssien summa, on<br />
<br />
K<br />
V (x) =V<br />
ℓ=1<br />
wℓxℓ<br />
w<br />
ℓ=1<br />
2 ℓ<br />
nℓ<br />
<br />
=<br />
K<br />
V (wℓxℓ) =<br />
ℓ=1<br />
K<br />
w 2 ℓ V (xℓ) =<br />
ℓ=1<br />
ℓ=1<br />
K<br />
1<br />
w<br />
ℓ=1<br />
2 ℓ<br />
nℓ<br />
<br />
1 − nℓ<br />
<br />
− 1<br />
Σℓ.<br />
Nℓ − 1<br />
Jos N1,...,NK ja n1,...,nK ovat ”kohtalaisen suuria”, ovat x1,...,xK ja (lineaarikombinaationa)<br />
siis myös x likimain multinormaalisti jakautuneita. Näin ollen ξ:n komponenteille<br />
saadaan luotettavuusvälit. V (x):n harhaton estimaatti on<br />
K<br />
<br />
1<br />
1 − nℓ<br />
<br />
− 1<br />
1 −<br />
Nℓ − 1<br />
1<br />
K<br />
Sℓ = w 2 1<br />
ℓ (1 − aℓ)Sℓ.<br />
Menetellään nyt seuraavasti. Etsitään ensin otantasuhteet nℓ/n, missä n = n1 + ···+ nK,<br />
jollakin tavalla (vaihtoehtoja on useita) ja valitaan sen jälkeen itse otoskoko n niin suureksi, että<br />
haluttuun luotettavuuteen päästään. Jos N1,...,NK ja n1,...,nK ovat ”kohtalaisen suuria”,<br />
voidaan tarkkuuden kärsimättä käyttää approksimaatiota<br />
V (x) ∼ K 1<br />
= (1 − aℓ)Σℓ,<br />
Nℓ<br />
w<br />
ℓ=1<br />
2 ℓ<br />
nℓ<br />
jolloin otossuhteiden etsiminen helpottuu. Eri tapoja otantasuhteiden määrittämiseksi ovat mm.<br />
seuraavat.<br />
ℓ=1<br />
nℓ
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 79<br />
Suhdeotanta<br />
Valitaan otantasuhteiksi nℓ/n = wℓ = Nℓ/N . Silloin aℓ = nℓ/Nℓ = n/N = a ja<br />
x = 1<br />
n<br />
K<br />
ℓ=1<br />
nℓxℓ sekä V (x) ∼ = 1<br />
(1 − a)<br />
n<br />
Optimikiintiöinti<br />
K<br />
wℓΣℓ.<br />
Otantasuhteet nℓ/n valitaan siten, että tietty varianssista V (x) (tarkemmin sanoen sen approksimaatiosta)<br />
laskettu vertailusuure minimoituu. Yleisesti 2 tällainen vertailusuure on muotoa<br />
trace(AV (x)),<br />
missä A on annettu positiivisemidefiniitti k × k-matriisi.<br />
Tavallisimmat valinnat ovat muotoa A = ⌈ei⌋, missä ei on vektori, jonka i:s alkio on 1 ja<br />
muut nollia. Tällöin valiutuu vertailusuureeksi V (x):n i:s lävistäjäalkio eli x:n i:nnen alkion varianssi.<br />
Tällainen valinta on paikallaan, jos otantasuureen i:s komponentti on dominoiva ja muut<br />
komponentit ovat vain ”lisätietoa”. Jos taas A = Ik,onvertailusuure V (x):n lävistäjäalkioiden<br />
summa eli x:n komponenttien varianssien summa. Tällainen valinta asettaa otantasuureen eri<br />
komponentit samanarvoiseen asemaan. Toisinaan tärkeä vertailusuure onkin muotoa V (c T x),<br />
missä c on tunnettu vektori. Myös tällöin suure on yo. muotoa, sillä<br />
V (c T x)=c T V (x)c = trace(c T V (x)c) =trace(cc T V (x))<br />
ja valitaan A = cc T . Jos esimerkiksi c = e1 − e2, kohdistuu huomio 1. ja 2. komponentin<br />
erotuksen estimointitarkkuuteen.<br />
Katsotaan tarkemmin vertailusuureen ominaisuuksia.<br />
Apulause. Jos A ja B ovat (samankokoisia) positiivisemidefiniittejä neliömatriiseja ja B on<br />
symmetrinen, niin trace(AB) ≥ 0.<br />
Todistus. Koska B on symmetrinen ja positiivisemidefiniitti, se voidaan kirjoittaa muotoon<br />
B = QQ T .Merkitään Q = <br />
q1 ··· qk . Silloin A:n positiivisemidefiniittisyyden nojalla<br />
qT i Aq T<br />
i ≥ 0 ja<br />
trace(AB) =trace(AQQ T )=trace(Q T AQ) =<br />
ℓ=1<br />
k<br />
q T i Aqi ≥ 0.<br />
Koska varianssimatriisit ovat symmetrisiä ja positiivisemidefiniittejä, on ym. vertailusuure näin<br />
ollen arvoltaan ei-negatiivinen. Merkitään<br />
ja edelleen<br />
τℓ = trace(AΣℓ)<br />
τ =<br />
⎛<br />
⎜<br />
⎝<br />
2 Muussa yhteydessä on myös käytössä vertailusuureena V (x):n determinantti, joka on sopiva erityisesti multinormaalijakauman<br />
yhteydessä, ks. JOHNSON &WICHERN.<br />
τ1<br />
.<br />
τK<br />
⎞<br />
⎟<br />
⎠ .<br />
i=1
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 80<br />
Silloin vertailusuure on (approksimatiivisesti)<br />
trace(AV (x)) ∼ =<br />
K<br />
ℓ=1<br />
w 2 ℓ<br />
1<br />
nℓ<br />
− 1<br />
<br />
τ<br />
Nℓ<br />
2 ℓ<br />
ja otantasuhteet nℓ/n valitaan siten, että se minimoituu ehdoilla<br />
n1,...,nK > 0 ja n1 + ···+ nK = n.<br />
Kyseessä on oikeastaan kokonaislukuoptimointitehtävä muuttujille n1,...,nK (ks. kurssi Matemaattinen<br />
optimointiteoria 2). Jos se ratkaistaan pitämällä muuttujia jatkuvina (Lagrangen<br />
kertoimilla tai kirjoittamalla nK:n paikalle n − n1 −···−nK−1 ja merkitsemällä osittaisderivaatat<br />
nolliksi), saadaan tulos<br />
eli<br />
Edelleen tällöin<br />
V (x) ∼ =<br />
K<br />
ℓ=1<br />
w 2 ℓ<br />
Vertailusuuretta varten lasketaan<br />
<br />
trace A 1<br />
n wT K<br />
τ<br />
jolloin<br />
nℓ = wℓτℓ<br />
K<br />
t=1<br />
nℓ<br />
n<br />
wtτt<br />
n = wℓτℓ<br />
w T τ n<br />
= wℓτℓ<br />
w T τ .<br />
<br />
T w τ 1<br />
− Σℓ =<br />
wℓτℓn Nℓ<br />
1<br />
n wT τ<br />
ℓ=1<br />
wℓ<br />
Σℓ<br />
τℓ<br />
trace(AV (x)) ∼ = 1<br />
n (wT τ ) 2 − 1<br />
N<br />
K<br />
ℓ=1<br />
<br />
= 1<br />
n wT K<br />
τ<br />
K<br />
ℓ=1<br />
ℓ=1<br />
wℓ<br />
τℓ<br />
wℓ<br />
τℓ<br />
Σℓ − 1<br />
N<br />
K<br />
wℓΣℓ.<br />
ℓ=1<br />
τ 2 ℓ = 1<br />
n (wT τ ) 2 ,<br />
wℓτ 2 ℓ = 1<br />
n (wT τ ) 2 − 1<br />
N τ T ⌈w⌋τ .<br />
Sekä suhdeotannassa että optimikiintiöinnissä otoskoon n alaraja määräytyy halutuista luotettavuuksista.<br />
Molemmissa tapauksissa on ratkaistavana muotoa<br />
1<br />
n C1 − 1<br />
N C2 ≤ Vmax eli n ≥<br />
C1<br />
1<br />
N C2 + Vmax<br />
olevia epäyhtälöitä, missä C1 ja C2 ovat ositepainoista ja -variansseista sekä vertailuarvoista<br />
riippuvia vakioita ja Vmax on varianssin yläraja. Jos C1 ja C2 tulevat kerrottua samalla vakiolla<br />
c>1, kasvaa n:n alaraja. Tämä sallii konservatiivisten yläarvioiden käytön ositevariansseille<br />
ja vertailusuureille.<br />
Huomautus. Optimikiintiöinnissä vertailusuureitten sekä suurta luotettavuutta vaativien komponenttien<br />
valinnan tulee olla sopusoinnussa. Ei ole syytä valita eri ositteille tulevien otoskokojen<br />
suhteita sellaisten komponenttien mukaan, joilta ei vaadita suurta luotettavuutta.
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 81<br />
Kun n on saatu, jaetaan se eri ositteille noudattaen mahdollisimman tarkasti saatuja otantasuhteita,<br />
pyöristäen ylöspäin mieluummin kuin alaspäin. Jos otoksesta estimoidut ositevarianssit<br />
sekä niistä saatavat vertailusuureet ovat paljon suurempia kuin otoskokoa määrättäessä arveltiin<br />
tai/ja ovat suhteiltaan arvioiduista paljon poikkeavat, on otosta kasvatettava tai/ja jaettava se eri<br />
tavalla ositteille käyttäen hyväksi näin saatua uutta tietoa.<br />
Vertaillaan vielä keskenään satunnaisotantaa, suhdeotantaa ja optimikiintiöintiä. Koska optimikiintiöinnissä<br />
käytettiin vertailusuureita, käytetään niitä myös tässä ja merkitään<br />
<br />
V1 = trace A 1<br />
<br />
(1 − a)Σ<br />
n<br />
ℓ=1<br />
<br />
= trace A 1<br />
<br />
K<br />
(1 − a)<br />
n<br />
ℓ=1<br />
ℓ=1<br />
wℓΣℓ + ΞWΞ T<br />
= 1<br />
n (1 − a)τ T ⌈w⌋τ + 1<br />
n (1 − a)trace(AΞWΞT )<br />
(vertailusuure satunnaisotannassa ilman ositteisiinjakoa),<br />
<br />
V2 = trace A 1<br />
K<br />
<br />
(1 − a) wℓΣℓ =<br />
n 1<br />
K<br />
(1 − a) wℓτ<br />
n 2 ℓ = 1<br />
n (1 − a)τ T ⌈w⌋τ<br />
(vertailusuure suhdeotannassa) sekä<br />
V3 = 1<br />
n (wT τ ) 2 − 1<br />
N τ T ⌈w⌋τ<br />
(vertailusuure optimikiintiöinnissä). Otoskoko on kaikissa n. Huomaa, että on käytetty approksimatiivisia<br />
V (x):n lausekkeita.<br />
Lause 4.5. (i) V1 = V2 + 1<br />
n (1 − a)trace(AΞWΞT ) ≥ V2<br />
(ii) V2 = V3 + 1<br />
n τ T Wτ ≥ V3<br />
Todistus. (i) Edellä olevan Apulauseen nojalla trace(AΞWΞ T ) ≥ 0, sillä<br />
<br />
W = ⌈ √ w⌋−w √ w T √ √ T<br />
⌈ w⌋− ww <br />
on symmetrinen ja positiivisemidefiniitti ja näin ollen sitä on myös ΞWΞ T .<br />
(ii) Suoraan laskien todetaan, että<br />
<br />
1 1<br />
V2 = − τ<br />
n N<br />
T ⌈w⌋τ = 1<br />
n (wT τ ) 2 − 1<br />
N τ T ⌈w⌋τ + 1<br />
n τ T ⌈w⌋τ − 1<br />
n τ T ww T τ<br />
= V3 + 1<br />
n τ T Wτ<br />
Toisaalta W on positiivisemidefiniitti (edellinen kohta), joten τ T Wτ ≥ 0.<br />
Huomautus. Jos käytetään tarkkoja V (x):n lausekkeita approksimatiivisten sijasta, eivät lauseen<br />
arviot pidä tarkasti paikkaansa. Itse asiassa on eräitä (harvinaisia) tilanteita, joissa pienille<br />
populaatioille ositettu otanta tuottaa näin laskien hieman huonomman tuloksen kuin satunnaisotanta.<br />
(Ks. esimerkiksi COCHRAN.)
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 82<br />
Jos nyt τ ∼ = c1K, ts. vertailusuureilla τℓ ei ole kummempia eroja, niin<br />
1<br />
n τ T Wτ ∼ = c2<br />
n 1TKW1K =0,<br />
jolloin Lauseen 4.5 nojalla V3 ∼ = V2. Edelleen, jos AΞ ∼ = d1 T<br />
K, ts. A:lla kerrotut ositekeskiarvot<br />
ovat kutakuinkin samat, niin<br />
AΞWΞ T ∼ T<br />
= d1KWΞ T = OK,<br />
jolloin Lauseen 4.5 nojalla V2 ∼ = V1.<br />
Edellä olevan nojalla voidaan tehdä seuraavat johtopäätökset:<br />
1. Jos A:lla kerrotuissa ositekeskiarvoissa tai/ja vertailusuureissa ei ole kummempia eroja,<br />
ei ositettu otanta tuota satunnaisotantaa parempia tuloksia.<br />
2. Jos A:lla kerrotuissa ositekeskiarvoissa on eroja, tuottaa suhdeotanta satunnaisotantaa<br />
parempia tuloksia, samoin tietysti optimikiintiöinti.<br />
3. Jos A:lla kerrotuissa ositekeskiarvoissa ei ole eroja, mutta vertailusuureissa on, tuottaa<br />
optimikiintiöinti satunnaisotantaa paremman tuloksen, suhdeotanta sen sijaan ei.<br />
Käytännössä ei suhdeotannan ja optimikiintiöinnin välillä useinkaan ole kovin suurta eroa. Näin<br />
ollen, jos joudutaan suunnittelemaan ositettu otanta tilanteessa, jossa komponenttien ositevariansseille<br />
voidaan arvioida ylärajat, mutta niiden tai vertailusuureiden keskinäisistä suhteista<br />
ei ole tietoa, kannattaa käyttää suhdeotantaa.<br />
Huomautus. Pelkästään se tieto, että ositettu otanta ei voi tuottaa huonompaa tulosta kuin<br />
satunnaisotanta, on toisinaan arvokas. Ositettu otanta saattaa nimittäin tarjoutua luonnostaan<br />
otannan menetelmäksi.<br />
Optimikiintiöinti kustannuksin<br />
Jos käytössä on otantaa varten varattuna kiinteä rahasumma c sekä otannan kustannusfunktio<br />
f(n1,...,nK),onotoskoot nℓ valittava luonnollisesti siten, että vertailusuure<br />
trace(AV (x)) ∼ K<br />
= w 2 <br />
1<br />
ℓ −<br />
nℓ<br />
1<br />
<br />
τ<br />
Nℓ<br />
2 ℓ<br />
ℓ=1<br />
minimoituu ehdoilla<br />
n1,...,nK > 0 ja f(n1,...,nK) ≤ c.<br />
Kyseessä on kokonaislukuoptimointitehtävä, joka käytännössä ratkaistaan pitämällä muuttujia<br />
jatkuvina ja pyöristämällä saadut arvot kokonaisluvuiksi. Tilannetta helpottaa se, että kustannusfunktiot<br />
ovat monotonisia, ts. minkä tahansa muuttujan nℓ arvon kasvattaminen lisää kustannuksia.<br />
Yksinkertaisin kustannusfunktio on tietysti<br />
f(n1,...,nK) =c0 + c1n1 + ···+ cKnK,<br />
missä c0 muodostuu yleiskuluista ja cℓ otosalkiota kohti lasketuista kustannuksista ℓ:nnessä<br />
ositteessa. Minimointi voidaan suorittaa samaan tapaan kuin optimikiintiöinnissä ja tulos on<br />
nℓ =<br />
wℓτℓ<br />
√cℓ<br />
K<br />
t=1<br />
wtτt<br />
√ct<br />
n
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 83<br />
missä n = n1 + ···+ nK. Jos c1 = ···= cK, niin päädytään ”tavalliseen” optimikiintiöintiin.<br />
Mutkikkaampia kustannusfunktioita käytettäessä optimointi suoritetaan tietokoneella. Eräs<br />
tällainen mutkikkaampi kustannusfunktio on<br />
√ √<br />
f(n1,...,nK) =c0 + c1 n1 + ···+ cK nK,<br />
jota käytetään mallintamaan (karkeasti) tilannetta, missä ositteiden otantakustannukset kasvavat<br />
hitaammin kuin lineaarisesti otoskoon funktiona. Usein mainitaan perusteluna tällaisen kustannusfunktion<br />
käytölle klassinen tulos 3 , jonka mukaan m kaupungin kautta kiertävän lyhimmän<br />
reitin pituus (ns. kaupparatsuprobleema, ks. kurssi Matemaattinen optimointiteoria 2 tai Graafiteoria)<br />
on keskimäärin suuruusluokkaa C √ m, missä C on vakio. Tällöin ajatellaan kustannusten<br />
pääosin aiheutuvan otokseen tulleiden ositealkioiden välisistä matkoista.<br />
Populaatiovarianssille saadaan (harhainen) estimaatti sijoittamalla saadut ositekeskiarvojen<br />
estimaatit (eli xℓ:t) sekä ositevarianssien estimaatit (eli (1 − 1/Nℓ)Sℓ:t) populaatiovarianssin<br />
kaavaan. Vastaavalla tavalla saadaan estimaatit V (x):lle sekä vertailusuureille trace(AV (x)) ja<br />
τ .<br />
4.3 Yksiasteinen otanta. Systemaattinen otanta<br />
Kuten ositetussa otannassa, populaatio ajatellaan jaetuksi osiin. Sen sijaan, että otettaisiin kussakin<br />
ositteessa satunnaisotos, otetaankin satunnaisotos ositteista ja otokseen tulleet ositteet tutkitaan<br />
kokonaan. Tässä yhteydessä ositteita kutsutaan rypäiksi ja puhutaan ryväsotannasta eli<br />
yksiasteisesta otannasta.<br />
Jatkossa tarkastellaan vain tapausta, jossa rypäät ovat samankokoiset. (Yleisempi tapaus,<br />
jossa rypäät voivat olla erikokoiset, on huomattavasti mutkikkaampi, ks. COCHRAN.) Merkitään<br />
rypäiden yhteistä alkiolukua M:llä.<br />
Koska otanta suoritetaan varsinaisesti rypäiden joukossa, merkitään rypäiden lukumäärää<br />
N:llä. Näin ollen populaatioalkioiden lukumäärä on NM.<br />
Ryväskeskiarvot ovat<br />
missä<br />
ryväs no. ryväsalkiot ryväskeskiarvo ryväsvarianssi<br />
1 X11,...,X1M Y1 Σ1<br />
2 X21,...,X2M Y2 Σ2<br />
on ryväsmatriisi. Ryväsvarianssit ovat<br />
.<br />
.<br />
.<br />
.<br />
N XN1,...,XNM YN ΣN<br />
Yℓ = 1<br />
M XT ℓ 1M,<br />
Xℓ =<br />
⎛<br />
⎜<br />
⎝<br />
X T ℓ1<br />
.<br />
X T ℓM<br />
⎞<br />
⎟<br />
⎠<br />
Σℓ = 1<br />
M XT ℓ MMXℓ.<br />
3 BEARDWOOD, J.&HALTON, J.H. & HAMMERSLEY, J.M.: The Shortest Path Through Many Points.<br />
Proceedings of the Cambridge Philosophical Society 55 (1950), 299–327
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 84<br />
Merkitään vielä<br />
Y =<br />
⎛<br />
⎜<br />
⎝<br />
Edellä olleista tuloksista saadaan silloin suoraan kaavat populaatiokeskiarvolle ξ ja -varianssille<br />
Σ sijoittamalla vain Ξ = YT , w = 1<br />
N 1N ja W = 1<br />
N MN:<br />
Y T 1<br />
.<br />
Y T N<br />
ξ = 1<br />
N YT 1N ja Σ = 1<br />
N<br />
⎞<br />
⎟<br />
⎠ .<br />
N<br />
ℓ=1<br />
Σℓ + 1<br />
N YT MNY<br />
(vm. on taas muotoa ”rypäiden sisäinen varianssi + rypäiden välinen varianssi”).<br />
Ajatellaan rypäät (N kpl) populaatioksi, josta otetaan n rypään satunnaisotos. Rypääseen<br />
liittyväksi numeeriseksi suurevektoriksi ajatellaan sen ryväskeskiarvo. Näin saadaan n alkion<br />
satunnaisotos (yksiasteinen otanta)<br />
y1,...,yn,<br />
josta muodostetaan datamatriisi<br />
y =<br />
ja otoskeskiarvo<br />
y = 1<br />
n yT 1n.<br />
Lauseen 4.1 nojalla<br />
E(y) = 1<br />
N YT 1N = ξ,<br />
ts. y on populaatiokeskiarvon harhaton estimaatti.<br />
Huomautus. Jos rypäät olisivat erikokoisia, niin w olisi = 1<br />
N 1N ja ξ = YT w olisi = 1<br />
Tässä tapauksessa y olisikin harhainen ξ:n estimaatti!<br />
Vastaavasti Lauseen 4.1 nojalla<br />
V (y) = 1<br />
n<br />
<br />
1 −<br />
⎛<br />
⎜<br />
⎝<br />
y T 1<br />
.<br />
y T n<br />
⎞<br />
⎟<br />
⎠<br />
<br />
n − 1 1<br />
N − 1 N YT MNY.<br />
N YT 1N.<br />
y:n varianssi ei siis riipu rypäiden sisäisistä variansseista. Näin pitää ollakin, sillä otokseen<br />
tulleet rypäät tutkitaan kokonaan. Jos V (y) halutaan ilmaista populaatiovarianssin Σ avulla,<br />
tulee mukaan uusi suure, ns. rypäänsisäinen kovarianssi<br />
Γ =<br />
1<br />
NM(M − 1)<br />
N<br />
(X T ℓ − ξ1 T M)KM(Xℓ − 1Mξ T )<br />
ℓ=1<br />
(vrt. pykälässä 1 oleva otoksen kovarianssi). Koska<br />
saadaan laskien<br />
KM = −MM +<br />
M − 1<br />
M JM,
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 85<br />
Näin ollen<br />
ja saadaan haluttu kaava:<br />
Lause 4.6. V (y) = 1<br />
nM<br />
1<br />
Γ = −<br />
NM(M − 1)<br />
+ 1<br />
NM 2<br />
N<br />
(X T ℓ − ξ1 T M)MM(Xℓ − 1Mξ T )<br />
ℓ=1<br />
N<br />
(X T ℓ − ξ1 T M)1M1 T M(Xℓ − 1Mξ T )<br />
ℓ=1<br />
1<br />
= −<br />
NM(M − 1)<br />
+ 1<br />
NM 2<br />
N<br />
ℓ=1<br />
X T ℓ MMXℓ<br />
N<br />
(X T ℓ 1M − Mξ)(1 T MXℓ − Mξ T )<br />
ℓ=1<br />
1<br />
= −<br />
N(M − 1)<br />
= − 1<br />
Σ +<br />
M − 1<br />
= − 1<br />
Σ +<br />
M − 1<br />
<br />
1 −<br />
N<br />
ℓ=1<br />
Y T MNY =<br />
Vastaava varianssi satunnaisotannassa on<br />
Σℓ + 1<br />
N<br />
N<br />
(Yℓ − ξ)(Yℓ − ξ) T<br />
ℓ=1<br />
1<br />
N(M − 1) YT MNY + 1<br />
M<br />
N(M − 1) YT MNY.<br />
N(M − 1)<br />
M<br />
<br />
n − 1<br />
((M − 1)Γ + Σ)<br />
N − 1<br />
V (x) = 1<br />
nM<br />
<br />
1 −<br />
N<br />
Γ +<br />
M Σ<br />
<br />
nM − 1<br />
Σ.<br />
NM − 1<br />
Jotta vertailusuure trace(AV (y)) olisi ≤ trace(AV (x)), onoltava<br />
1<br />
((M − 1)trace(AΓ)+trace(AΣ)) ≤<br />
N − 1 M<br />
N YT MNY<br />
NM − 1 trace(AΣ)<br />
eli<br />
1<br />
trace(AΓ) ≤−<br />
NM − 1 trace(AΣ)<br />
(tai N = n tai M =1, mutta nämä eivät yleensä tule kysymykseen).<br />
Käytännössä trace(AΓ) on (yleensä) positiivinen, jolloin yksiasteinen otanta on satunnaisotantaa<br />
huonompi. Toisaalta se on myös (yleensä) sitä halvempi.<br />
V (y):tä käytetään otoksen suunnitteluun samaan tapaan kuin satunnaisotannassa. Vähääkään<br />
suuremmille n:n arvoille y on likimain multinormaalisti jakautunut. Halutuista luotettavuuksista<br />
määräytyy (eräille) V (y):n lävistäjäalkioille maksimiarvo(t). Jos saadaan arvioiduksi<br />
ylärajat ryväskeskiarvojen varianssin<br />
1<br />
N YT <br />
MNY = 1 − 1<br />
<br />
Γ +<br />
M<br />
1<br />
M Σ
LUKU 4. MONEN MUUTTU<strong>JA</strong>N PIEN<strong>OTANTA</strong> 86<br />
(tai Σ:n ja Γ:n) vastaaville alkioille, saadaan ratkaistuksi pienin otoskoko n, jne. Jos otoksesta<br />
estimoidun ryväskeskiarvojen varianssin<br />
<br />
1 − 1<br />
<br />
1<br />
N n − 1 yT Mny<br />
lävistäjäalkiot ovat huomattavasti arvioitua suuremmat, on otosta kasvatettava.<br />
Merkitään otokseen tulleiden rypäiden ryväsvariansseja symbolein s1,...,sn. Silloin<br />
n<br />
<br />
1<br />
si + 1 −<br />
n<br />
i=1<br />
1<br />
<br />
1<br />
N n − 1 yT Mny<br />
on populaatiovarianssin harhaton estimaatti, sitä parempi mitä suurempi n on. V (y):n harhaton<br />
estimaatti on puolestaan<br />
1<br />
<br />
1 −<br />
n<br />
n<br />
<br />
1<br />
N n − 1 yT Mny.<br />
Erityinen yksiasteisen otannan laji on systemaattinen otanta. Systemaattisen otannan populaatio<br />
on jonomuodossa<br />
X1, X2,...,XNM.<br />
Jako rypäisiin on seuraava:<br />
ryväs no. ryväsalkiot ryväskeskiarvo<br />
1 X1XN+1, X2N+1,...,X(M−1)N+1 Y1<br />
2 X2XN+2, X2N+2,...,X(M−1)N+2 Y2<br />
.<br />
.<br />
.<br />
N XNX2N, X3N,...,XMN YN<br />
Otokseen valitaan yksi ryväs, ts. n = 1. Käytännössä valitaan satunnaisesti jokin alkioista<br />
X1,...,XN ja sen jälkeen joka N:s alkio. Populaatiokeskiarvon ξ harhaton estimaatti on valitun<br />
rypään ryväskeskiarvo y ja sen varianssi on<br />
V (y) = 1<br />
N YT MNY = 1<br />
((M − 1)Γ + Σ).<br />
M<br />
Systemaattinen otanta antaa vähintään yhtä hyvän tuloksen kuin satunnaisotanta, jos<br />
1<br />
trace(AΓ) ≤−<br />
NM − 1 trace(AΣ).<br />
Käytännössä, kuten yksiasteisessa otannassa yleensä, trace(AΓ) > 0, joten tulos on huonompi<br />
kuin satunnaisotannassa. Toisaalta systemaattinen otanta on usein yksinkertainen ja halpa<br />
otantamuoto, lisäksi helposti automatisoitavissa toisin kuin satunnaisotanta.<br />
Populaatiovarianssille tai V (y):lle ei systemaattisesta otoksesta saada estimaattia. Tähän<br />
tarvitaan useamman rypään otos. (Yo. kaavatkaan eivät ole tarkoitetut n:n arvolle 1.)<br />
Huomautus. Systemaattinen otanta on eräs ns. jono-otantamenetelmistä, joissa populaatio on<br />
jonomuotoinen ja otosalkiot otetaan jonosta järjestyksessä. Otoskoko ei useinkaan ole ennalta<br />
määrätty, vaan otantaa jatketaan kunnes haluttu tarkkuus tms. tavoite on saavutettu. (Ks. kurssi<br />
Tilastollinen laadunvalvonta.)<br />
Yksiasteista otantaa (tai ositettua otantaa) yleistäen saadaan erilaiset moniasteiset otannat.<br />
Esimerkiksi kaksiasteisessa otannassa otetaan ositteiden eli rypäiden joukosta satunnaisotos ja<br />
otokseen tulleista rypäistä taas satunnaisotos kustakin. Tällaiseen otantaan liittyvät varianssilausekkeet<br />
ovat varsin mutkikkaita ja työläitä johtaa. Lisäksi otoskoon määrääminen ja kiintiöinti<br />
ovat suuritöisiä ja vaativat paljon esitietoja. Tulos on toisaalta hyvä otantakustannuksiin<br />
nähden. Yksinkertaisin tapaus on kaksiasteinen otanta, kun rypäät ovat samankokoiset ja niistä<br />
otetaan yhtäsuuret otokset. (Ks. RAJ tai COCHRAN.)
LIITE A: Matriisilaskentaa<br />
Tässä kerrataan ja käsitellään lyhyesti eräitä tilastollisten monimuuttujamenetelmien tarvitsemia<br />
matriisilaskennan käsitteitä.<br />
Aluksi eräitä määritelmiä. Neliömatriisi A on symmetrinen, jos A T = A, ja idempotentti,<br />
josA 2 = A. Idempotentin matriisin ainoat mahdolliset ominaisarvot ovat0ja1, sillä josAx =<br />
λx, niin myös A 2 x = λx ja toisaalta A 2 x = λAx = λ 2 x, joten λ 2 = λ. Jos symmetrinen<br />
matriisi on ei-singuläärinen, niin sen käänteismatriisi on myös symmetrinen.<br />
Matriisin rivirangi (vast. sarakerangi) on sen suurin lineaarisesti riippumattomien rivien<br />
(vast. sarakkeiden) lukumäärä. Tunnetusti matriisin A rivi- ja sarakerangit ovat samat, tätä yhteistä<br />
arvoa kutsutaan matriisin asteeksi eli rangiksi, merkitään rank(A). Edelleen symmetrisen<br />
neliömatriisin rangi on sen nollasta eroavien ominaisarvojen lukumäärä (moninkertaiset<br />
ominaisarvot otetaan mukaan kertalukunsa osoittama määrä). Näin ollen symmetrisen idempotentin<br />
matriisin rangi on sen 1-ominaisarvojen lukumäärä.<br />
Neliömatriisin A jälki, merkitään trace(A), on sen lävistäjäalkioiden summa. Jäljellä on<br />
seuraavat ominaisuudet:<br />
1. trace(A+B) = trace(A)+trace(A);<br />
2. trace(cA) = ctrace(A) (c on skalaari);<br />
3. trace(A T ) = trace(A);<br />
4. trace(AB) = trace(BA);<br />
5. trace(AB T ) =<br />
n<br />
i=1<br />
m<br />
aijbij, kun A = (aij) jaB = (bij) ovatn×m-matriiseja;<br />
j=1<br />
6. trace(A) onA:n ominaisarvojen summa neliömatriisilleA.<br />
Ominaisuudesta 6. johtuen symmetrisen idempotentin matriisin rangi on sen jälki.<br />
Merkitään0n:llän-vektoria, jonka kaikki alkiot ovat nollia (nollavektori),1n:llän-vektoria,<br />
jonka kaikki alkiot ovat ykkösiä (ykkösvektori), On:llä n × n-matriisia, jonka kaikki alkiot<br />
ovat nollia (nollamatriisi), ja vieläIn:llän×n-identiteettimatriisia. Seuraavia erikoismatriiseja<br />
tarvitaan usein:<br />
Jn = 1 T n 1n , Kn = Jn −In , Mn = In − 1<br />
n Jn<br />
(Jn onn×n-matriisi, jonka kaikki alkiot ovat ykkösiä). Nämä matriisit saa helposti käyttöönsä<br />
Matlabilla:<br />
»n=5;<br />
»I=eye(n)<br />
I =<br />
87
1 0 0 0 0<br />
0 1 0 0 0<br />
0 0 1 0 0<br />
0 0 0 1 0<br />
0 0 0 0 1<br />
»u=ones(n,1)<br />
u =<br />
1<br />
1<br />
1<br />
1<br />
1<br />
»J=ones(n)<br />
J =<br />
1 1 1 1 1<br />
1 1 1 1 1<br />
1 1 1 1 1<br />
1 1 1 1 1<br />
1 1 1 1 1<br />
»K=ones(n)-eye(n)<br />
K =<br />
0 1 1 1 1<br />
1 0 1 1 1<br />
1 1 0 1 1<br />
1 1 1 0 1<br />
1 1 1 1 0<br />
»M=eye(n)-ones(n)/n<br />
M =<br />
0.8000 -0.2000 -0.2000 -0.2000 -0.2000<br />
-0.2000 0.8000 -0.2000 -0.2000 -0.2000<br />
-0.2000 -0.2000 0.8000 -0.2000 -0.2000<br />
-0.2000 -0.2000 -0.2000 0.8000 -0.2000<br />
-0.2000 -0.2000 -0.2000 -0.2000 0.8000<br />
Matriisit Jn, Kn ja Mn ovat ilmeisesti symmetrisiä. Seuraavat ominaisuudet ovat todettavissa<br />
helpolla laskulla:<br />
(i) 1 T n 1n = n<br />
(ii) Jn1n = n1n<br />
(iii) Kn1n = (n−1)1n<br />
(iv) Mn1n = 0n<br />
(v) J 2 n = nJn<br />
(vi) K 2 n = (n−1)Jn −Kn<br />
(vii) M 2 n = Mn (eli Mn on idempotentti)<br />
(viii) JnKn = (n−1)Jn<br />
(ix) JnMn = On<br />
(x) KnMn = −Mn<br />
(xi) n(Kn +Mn) = (n−1)Jn<br />
Matriiseja on usein edullista käsitellä jaettuina lohkoihin:<br />
⎛ ⎞<br />
⎜<br />
A = ⎜<br />
⎝<br />
A11 A12 ··· A1k<br />
A21 A22 ··· A2k<br />
.<br />
.<br />
. ..<br />
Aℓ1 Aℓ2 ··· Aℓk<br />
Lohkomuodossa olevien matriisien transpoosi ja tulo saadaan suoraan lohkojen avulla:<br />
.<br />
⎟<br />
⎠ .<br />
88
ja<br />
⎛<br />
⎜<br />
⎝<br />
missä<br />
⎛<br />
⎜<br />
⎝<br />
A11 A12 ··· A1k<br />
A21 A22 ··· A2k<br />
.<br />
.<br />
.. .<br />
Aℓ1 Aℓ2 ··· Aℓk<br />
A11 A12 ··· A1k<br />
A21 A22 ··· A2k<br />
.<br />
.<br />
. ..<br />
Aℓ1 Aℓ2 ··· Aℓk<br />
.<br />
⎞⎛<br />
⎟⎜<br />
⎟⎜<br />
⎟⎜<br />
⎠⎝<br />
.<br />
⎞<br />
T<br />
⎛<br />
A T 11 AT 21 ··· A T ℓ1<br />
A T 1k AT 2k ··· A T ℓk<br />
⎞<br />
⎟ ⎜<br />
⎟ ⎜ A<br />
⎟ = ⎜<br />
⎠ ⎝<br />
T 12 AT 22 ··· AT ⎟<br />
ℓ2 ⎟<br />
.<br />
. . ..<br />
⎟<br />
. ⎠<br />
B11 B12 ··· B1m<br />
B21 B22 ··· B2m<br />
.<br />
.<br />
.. .<br />
Bk1 Bk2 ··· Bkm<br />
Cij =<br />
k<br />
t=1<br />
.<br />
AitBtj<br />
⎞<br />
⎛<br />
⎟<br />
⎠ =<br />
⎜<br />
⎝<br />
C11 C12 ··· C1m<br />
C21 C22 ··· C2m<br />
.<br />
.<br />
.. .<br />
Cℓ1 Cℓ2 ··· Cℓm<br />
(huomaa kertojärjestys), olettaen että kaikki esiintyvät matriisikertolaskut ovat määriteltyjä.<br />
Lohkokertosääntö muistuttaa ”tavallista” matriisien kertosääntöä(aij)(bij) = (cij), missäcij =<br />
k<br />
t=1 aitbtj, ja voidaan sitä käyttäen todistaa helposti. Eräs erikoistapaus on ns. toinen matriisi-<br />
kertosääntö<br />
a1 a2 ··· ak<br />
⎛<br />
⎜<br />
⎝<br />
b T 1<br />
b T 2<br />
.<br />
b T k<br />
⎞<br />
⎟<br />
⎠ =<br />
k<br />
atb T t .<br />
Summalausekkeet ja matriisit liittyvät toisiinsa seuraavilla kaavoilla, jotka ovat helposti todettavissa.<br />
Merkitään<br />
⎛ ⎞<br />
Silloin<br />
1. 1<br />
k A1k = 1<br />
k<br />
2. 1<br />
k 1T 1<br />
kB =<br />
k<br />
3. AJkB =<br />
4. AKkB =<br />
A = a1 a2 ··· ak<br />
<br />
t=1<br />
⎜<br />
ja B = ⎜<br />
⎝<br />
k<br />
at (ns.A:n sarakekeskiarvo, merkitääna);<br />
t=1<br />
k<br />
t=1<br />
k<br />
t=1<br />
k<br />
t=1<br />
b T t (ns. B:n rivikeskiarvo, merkitäänbT );<br />
k<br />
s=1<br />
k<br />
s=1<br />
s=t<br />
5. AMk = A − a1T k<br />
sarakkeet);<br />
atb T s ;<br />
atb T s ;<br />
b T 1<br />
b T 2<br />
.<br />
b T k<br />
⎟<br />
⎠ .<br />
.<br />
⎞<br />
⎟<br />
⎠ ,<br />
(vähennetään A:n sarakkeista sen sarakekeskiarvo eli keskitetään<br />
89
6. MkB = B−1kb T (vähennetään B:n riveistä sen rivikeskiarvo eli keskitetään rivit);<br />
7. AMkB = AM 2<br />
k B = (A−a1T k )(B−1kb T ).<br />
Kohdan 7. seurauksena erikoisesti<br />
AMkA T = (A−a1 T k )(A−a1T k )T .<br />
90
LIITE B: Multinormaalijakauma<br />
Satunnaisvektorillax (n-vektori) on ns. multinormaalijakaumaN(µ,Σ), jos sen tiheysfunktio<br />
on<br />
f(x) =<br />
1<br />
(2π) n/2det(Σ) e−12<br />
(x−µ)TΣ−1 (x−µ)<br />
.<br />
Tässä µ = E(x) (odotusarvo(vektori)) ja Σ = V(x) (varianssi(matriisi)). Mikäli µ = 0n ja<br />
Σ = In, on kyseessä ns. standardimultinormaalijakauma.<br />
Todetaan seuraavat multinormaalijakauman ominaisuudet:<br />
1. Josx:llä onn-ulotteinenN(µ,Σ)-jakauma,Conm×n-matriisi, jonka rivirangi on täysi<br />
(eli m), ja b on m-vektori, niin satunnaisvektorilla Cx + b on m-ulotteinen N(Cµ +<br />
b,CΣC T )-jakauma.<br />
2. Josx:llä onn-ulotteinenN(µ,Σ)-jakauma,C1 onm1×n-matriisi,C2 onm2×n-matriisi,<br />
b1 onm1-vektori jab2 onm2-vektori, niin satunnaisvektoritC1x+b1 jaC2x+b2 ovat<br />
riippumattomat tarkalleen silloin, kunC1ΣC T 2 = O.<br />
3. Josx:llä onn-ulotteinenN(µ1n,σ 2 In)-jakauma jas 2 = 1<br />
n−1 xT Mnx (otosvarianssi), niin<br />
satunnaismuuttujalla<br />
s 2 (n−1)<br />
σ 2<br />
onχ 2 -jakauman−1vapausasteella.<br />
4. Jos x:llä on n-ulotteinen N(µ1n,σ 2 In)-jakauma, x = 1<br />
n 1T n x (otoskeskiarvo) ja s2 =<br />
1<br />
n−1 xT Mnx (otosvarianssi) niin satunnaismuuttujalla<br />
(x−µ) √ n<br />
s<br />
on t-jakauman−1 vapausasteella. (Huomaa, että(x−µ) √ n/σ on standardinormaalisti<br />
jakautunut ja s 2 (n − 1)/σ 2 on χ 2 -jakautunut n − 1 vapausasteella ja että nämä satunnaismuuttujat<br />
ovat riippumattomat. Yleisesti, jos u on standardinormaalisti jakautunut,<br />
v on χ 2 -jakautunut m vapausasteella ja u ja v ovat riippumattomat, niin u √ m/ √ v on<br />
t-jakautunutm vapausasteella.)<br />
5. Jos x1:llä on n1-ulotteinen N(µ11n1,σ 2 In1)-jakauma, x2:llä on n2-ulotteinen N(µ21n2,<br />
σ 2 In2)-jakauma sekäx1 jax2 ovat riippumattomat, niin satunnaismuuttujalla<br />
x T 1 Mn1x1(n2 −1)<br />
x T 2 Mn2x2(n1 −1)<br />
on F-jakauma vapausasteinn1−1 jan2−1. (Huomaa, ettäx T 1Mn1x1/σ 2 jax T 2Mn2x2/σ 2<br />
ovat riippumattomatχ 2 -jakautuneet satunnaismuuttujat vapausasteinn1−1 jan2−1, vastaavasti.<br />
Yleisesti riippumattomien, vapausastein m1 ja m2 χ 2 -jakautuneiden vapausasteillaan<br />
jaettujen satunnaismuuttujien osamäärä on F-jakautunut vapausasteinm1 jam2.)<br />
91
Kirjallisuus<br />
1. BARNETT, V.: Sample Survey Principles and Methods. Edward Arnold (1991)<br />
2. BOX, G.E.P. & DRAPER, N.R.: Empirical Model-Building and Response Surfaces. Wiley<br />
(1987)<br />
3. BOX, G.E.P. & HUNTER, W.G. & HUNTER, J.S.: Statistics for Experimenters. Wiley<br />
(1978)<br />
4. CHRISTENSEN, R.: Plane Answers to Complex Questions. The Theory of Linear Models.<br />
Springer–Verlag (1996)<br />
5. COCHRAN, W.G.: Sampling Techniques. Wiley (1977)<br />
6. DAVIES, O.L. (toim.): The Design and Analysis of Industrial Experiments. Oliver and<br />
Boyd (1967)<br />
7. DRAPER, N.R. & SMITH, H.: Applied Regression Analysis. Wiley (1998)<br />
8. EVERITT, B.S & DUNN, G.: Applied Multivariate Data Analysis. Arnold (2001)<br />
9. GUENTHER, W.C.: Analysis of Variance. Prentice–Hall (1964)<br />
10. JOHN, P.W.M.: Statistical Design and Analysis of Experiments. SIAM (1998)<br />
11. JOHNSON, R.A. & WICHERN, D.W.: Applied Multivariate Statistical Analysis. Prentice–Hall<br />
(1998)<br />
12. JOHNSTON, J.: Econometric Methods. McGraw–Hill (1996)<br />
13. KHURI, A.I. & CORNELL, J.A.: Response Surfaces. Designs and Analyses. Marcel Dekker<br />
(1996)<br />
14. KRISHNAIAH, P.R. & RAO, C.R. (toim.): Sampling. Handbook of Statistics. Vol. 6.<br />
North–Holland (1988)<br />
15. MYERS, R.H. & MONTGOMERY, D.C.: Response Surface Methodology. Process and<br />
Product Optimization Using Designed Experiments. Wiley (1995)<br />
16. MONTGOMERY, D.C.: Design and Analysis of Experiments. Wiley (1996)<br />
17. PAHKINEN, E. & LEHTONEN, R.: Otanta-asetelmat ja tilastollinen analyysi. Gaudeamus<br />
(1989)<br />
18. RAJ, D.: Sampling Theory. McGraw–Hill (1968)<br />
92
Hakemisto<br />
2 k -kokeet 25<br />
3 k -kokeet 31<br />
affiinimuunnos 16<br />
aksiaaliosa 32<br />
alias 26<br />
aliasmatriisi 13<br />
aliastaulu 26<br />
alipopulaatio 75<br />
ANOVA 7<br />
askeltava regressio 15<br />
aste 87<br />
Bartlettin testi 53<br />
Bonferronin sääntö 5, 46, 75<br />
Boxin F-jakauma-approksimaatio 55<br />
CCD-koe 31<br />
Cramer–von Mises-testi 52<br />
datamatriisi 2, 72, 84<br />
determinaatiokerroin 12<br />
dikotomiafaktori 42<br />
Duncanin vaihteluvälitesti 49<br />
Dunnettin testi 49<br />
ennustaminen 2<br />
epäadditiivisuus 61<br />
epänormaalisuus 51<br />
epäsopivuuden keskineliö 15<br />
epäsopivuuden neliösumma 14<br />
epäsopivuus 12<br />
epätasapainoinen koe 43<br />
faktori 1<br />
faktoriaaliosa 32<br />
faktorin kielto 26<br />
gradienttimenetelmä 34<br />
Hadamardin matriisi 23<br />
harju 37<br />
heterogeeninen varianssi 53<br />
hyperneliökoe 70<br />
hypoteesin testaus 7, 45<br />
I tyypin virhe 5<br />
idempotentti matriisi 87<br />
intervalliasteikko 40<br />
jono-otanta 86<br />
jälki 87<br />
järjestyserotus 50<br />
kaksiasteinen otanta 86<br />
kanoninen muoto 38<br />
kanonisointi 37<br />
kategorisointi 43<br />
keskineliö 12<br />
keskittäminen 89<br />
keskitysmatriisi 11<br />
keskivaste 45<br />
keskusosa 32<br />
kiertosymmetrinen suunnittelu 21, 29<br />
kokeen resoluutio 26<br />
kokonaiskeskineliö 12, 41, 58, 66<br />
kokonaisneliösumma 11, 41<br />
Kolmogorov–Smirnov-testi 52<br />
kontrasti 45<br />
kontrastimatriisi 45<br />
kontrastin neliösumma 46<br />
kontrastinormi 47<br />
koodaus 18<br />
korjattu determinaatiokerroin 12<br />
korrelaatiokerroin 73<br />
korrelointi 52<br />
kreikkalais-roomalainen neliö 69<br />
kriittinen piste 36<br />
kriittinen väli 50<br />
Kronecker-tulo s23<br />
kustannusfunktio 82<br />
kvalitatiivinen faktori 40<br />
käsittely 40<br />
käsittelyjen keskineliö 41, 58, 66<br />
käsittelyjen neliösumma 41<br />
latinalainen neliö 63<br />
lineaarinen hypoteesi 7, 45<br />
lineaarinen regressiomalli 2<br />
lohko 55<br />
lohkojen keskineliö 58, 66<br />
lohkojen neliösumma 57<br />
lohkomatriisi 88<br />
LSD-menetelmä 48<br />
maksimaalinen vaste 36<br />
mallin käyttökelpoisuus 10<br />
mallin riittävyys 51<br />
mallin typistäminen 21<br />
minimaalinen vaste 36<br />
monen muuttujan pienotanta 71<br />
monisuuntainen ANOVA 55<br />
multinormaalijakauma 91<br />
Nelder–Mead-algoritmi 39<br />
neliökoe 63<br />
Newman–Keuls-testi 49<br />
nollamatriisi 87<br />
nollavektori 87<br />
normaaliryhmä 56<br />
normaalitodennäköisyyskuvio 51<br />
nouseva harju 37<br />
optimikiintiöinti kustannuksin 82<br />
optimikiintiöinti 79<br />
ortogonaalinen kontrastimatriisi 47<br />
ortogonaalinen suunnittelu 20, 29<br />
93
ortogonaaliset kontrastit 46<br />
ortogonaaliset neliöt 69<br />
osite 75<br />
ositekeskiarvo 76<br />
ositekeskiarvomatriisi 76<br />
ositematriisi 75<br />
ositepaino 75<br />
ositepainovektori 75<br />
ositettu otanta 75<br />
ositevarianssi 76<br />
osittainen 2 k -koe 26<br />
osittainen 3 k -koe 31<br />
otoksen vertailusuure 79<br />
otos 72<br />
otosalkio 72<br />
otoskeskiarvo 73<br />
parametri 1<br />
parametrien estimointi 44<br />
permutaatiomatriisi 64<br />
pienimmän neliösumman keino 2, 44<br />
Plackett–Burman-koe 23<br />
populaatio 71<br />
populaatiokeskiarvo 71<br />
populaatiomatriisi 71<br />
populaatiovarianssi 71<br />
puhtaan virheen keskineliö 15<br />
puhtaan virheen neliösumma 14<br />
QR-hajotelma 22, 47<br />
rangi 87<br />
regressiomalli 1<br />
regression keskineliö 12<br />
regression neliösumma 11<br />
residuaali 41<br />
residuaalin keskineliö 12, 41, 58, 66<br />
residuaalin neliösumma 3, 41, 57, 66<br />
residuaalivektori 3<br />
rivikeskiarvo 89<br />
rivirangi 87<br />
roomalaiset neliöt 63<br />
rypäänsisäinen kovarianssi 84<br />
ryväs 83<br />
ryväskeskiarvo 83<br />
ryväsmatriisi 83<br />
ryväsotanta 83<br />
ryväsvarianssi s83<br />
sarakekeskiarvo 89<br />
sarakerangi 87<br />
sarakkeiden keskineliö 66<br />
sarakkeiden neliösumma 66<br />
satulapiste 36<br />
satunnaisotanta palauttamatta 72<br />
satunnaisotanta 71<br />
satunnaistetut lohkot 55<br />
Scheffén menetelmä 47<br />
Schurin hajotelma 37<br />
sekoittuminen 26<br />
selitettävä muuttuja 1<br />
selittävä muuttuja 1<br />
selitysaste 12<br />
Sherman–Morrison-kaava 30<br />
simpleksi 22<br />
simplex-koe 22<br />
singulääriarvohajotelma 6<br />
skaalaus 17<br />
standardineliö 66<br />
standardointi 17<br />
suhdeotanta 79<br />
suunnittelumatriisi 10<br />
symmetrinen matriisi 87<br />
systemaattinen otanta 86<br />
tasapainoinen koe 43<br />
toistokoe 13<br />
Tukeyn additiivisuustesti 61<br />
Tukeyn tasoitus 51<br />
Tukeyn testi 49<br />
täydellinen 2 k -koe 25<br />
täydellinen 3 k -koe 31<br />
ulkolainen 52<br />
vapausaste 11<br />
varianssianalyysi 7<br />
varianssianalyysitaulu 12, 15<br />
vaste 1<br />
vasteen optimointi 34<br />
vastefunktio 1<br />
vastevektori 2<br />
viettosuunta 34<br />
virhetermi 1<br />
yhdistetty testi 47<br />
yhdysvaikutus 26, 55, 61<br />
yhteiskorrelaatiokerroin 12<br />
ykkösvektori 87<br />
yksiasteinen otanta 83<br />
yksisuuntainen ANOVA 40<br />
äärellisen populaation korjauskerroin 74<br />
ääriarvotarkastelu 35<br />
94