29.07.2014 Aufrufe

Handout

Handout

Handout

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

5.2 Orthogonale Regression<br />

Wir betrachten nun das Modell:<br />

Y = β 0 + β X X + ɛ<br />

X ∗ = X + U<br />

ɛ,U sind unkorreliert<br />

Bei der Orthogonalen Regression minimiert man nun die kürzesten Abstände<br />

zur Gerade, gewichtet mit einem Faktor η = σ2 ɛ<br />

, also 4 :<br />

σU<br />

2<br />

n∑<br />

{(Y i − β 0 − β x x i ) 2 + η(Xi ∗ − x i ) 2 )}<br />

i=1<br />

Abbildung 6: Hier ist der Unterschied der Abstandsdefinition bei einer normalen<br />

und der orthogonalen Regression veranschaulicht<br />

Vorteil gegenüber der Momentenmethode ist, dass nur das Verhältnis η<br />

der Fehlervarianzen bekannt sein muss. Doch das ist auch eher selten möglich<br />

und ein großes Problem bei der Anwendung der Orthogonalen Regression<br />

besteht darin, dass es durch die ungenaue Schätzung von η, häufig zu einer<br />

” Überkorrektur “kommt. Das kommt daher, dass der Regressionsfehler<br />

eigentlich aus 2 Teilen besteht:<br />

Y = β 0 + β X X + ɛ Li 5 + ɛ Mij<br />

6<br />

In der normen Varianzanalyse wird der ’<br />

Gleichungsfehler‘nicht beachtet<br />

und somit η unterschätzt, was die Überkorrektur hervorbringt.<br />

4 Eigentlich gilt das nur für η = 1, trotzdem benutzt man den Ausdruck Orthogonale<br />

Regression für alle Werte von η < ∞.<br />

5 ɛ Li entspricht dem Messfehler zum Response<br />

6 ɛ Mij entspricht dem dem Gleichungsfehler‘, welcher der Abweichung der wahren Werte<br />

’<br />

von der Regressionsgerade entspricht, wenn es keine Messfehler gäbe<br />

13

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!