Handout
Handout
Handout
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
5.2 Orthogonale Regression<br />
Wir betrachten nun das Modell:<br />
Y = β 0 + β X X + ɛ<br />
X ∗ = X + U<br />
ɛ,U sind unkorreliert<br />
Bei der Orthogonalen Regression minimiert man nun die kürzesten Abstände<br />
zur Gerade, gewichtet mit einem Faktor η = σ2 ɛ<br />
, also 4 :<br />
σU<br />
2<br />
n∑<br />
{(Y i − β 0 − β x x i ) 2 + η(Xi ∗ − x i ) 2 )}<br />
i=1<br />
Abbildung 6: Hier ist der Unterschied der Abstandsdefinition bei einer normalen<br />
und der orthogonalen Regression veranschaulicht<br />
Vorteil gegenüber der Momentenmethode ist, dass nur das Verhältnis η<br />
der Fehlervarianzen bekannt sein muss. Doch das ist auch eher selten möglich<br />
und ein großes Problem bei der Anwendung der Orthogonalen Regression<br />
besteht darin, dass es durch die ungenaue Schätzung von η, häufig zu einer<br />
” Überkorrektur “kommt. Das kommt daher, dass der Regressionsfehler<br />
eigentlich aus 2 Teilen besteht:<br />
Y = β 0 + β X X + ɛ Li 5 + ɛ Mij<br />
6<br />
In der normen Varianzanalyse wird der ’<br />
Gleichungsfehler‘nicht beachtet<br />
und somit η unterschätzt, was die Überkorrektur hervorbringt.<br />
4 Eigentlich gilt das nur für η = 1, trotzdem benutzt man den Ausdruck Orthogonale<br />
Regression für alle Werte von η < ∞.<br />
5 ɛ Li entspricht dem Messfehler zum Response<br />
6 ɛ Mij entspricht dem dem Gleichungsfehler‘, welcher der Abweichung der wahren Werte<br />
’<br />
von der Regressionsgerade entspricht, wenn es keine Messfehler gäbe<br />
13