29.07.2014 Aufrufe

Handout

Handout

Handout

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Elemantare Messfehlermodelle<br />

Wirkung in der linearen Regression<br />

Birgit Oppolzer<br />

<strong>Handout</strong> zum Vortrag am 5. Mai 2008 im Rahmen des<br />

Seminars: Analyse fehlerbehafteter Daten<br />

Inhaltsverzeichnis<br />

1 Einleitung 2<br />

2 Fehlermodelle 3<br />

2.1 Zufälliger bzw Systematischer Fehler . . . . . . . . . . . . . . 3<br />

2.2 Multiplikativer bzw. Additiver Fehler . . . . . . . . . . . . . . 3<br />

2.3 Klassischer bzw. Berkson Fehler . . . . . . . . . . . . . . . . . 4<br />

2.4 Differentieller bzw Nichtdifferentieller Fehler . . . . . . . . . . 5<br />

3 Fehlermodelle und ihre Wirkung in der Linearen Regression 6<br />

3.1 Lineare Regression mit klassischem additiven Fehler . . . . . . 6<br />

3.2 Regression mit Berkson Fehler . . . . . . . . . . . . . . . . . . 7<br />

3.3 Regression mit komplexerer Fehlerstruktur . . . . . . . . . . . 8<br />

3.4 Zusammenfassung der linearen Einfachregressionsmodelle . . . 8<br />

4 Messfehler in der Multiple Regression 10<br />

5 Zwei Möglichkeiten um eine Verzerrung zu korrigieren 11<br />

5.1 Momentenmethode . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

5.2 Orthogonale Regression . . . . . . . . . . . . . . . . . . . . . . 13<br />

6 Varianz versus Verzerrung 14<br />

7 Fazit 15<br />

8 Literaturverzeichnis 16<br />

1


1 Einleitung<br />

Wenn wir etwas messen, erhalten wir immer auch einen Messfehler. Interessant<br />

ist in der linearen Regression, wie sich diese auswirken. Dazu schauen<br />

wir uns mal die Messfehler in den Kovariablen genauer an. Diese haben 3<br />

negative Effekte:<br />

• Sie verursachen eine Verzerrung bei den Parameterschätzungen in den<br />

statistischen Modellen<br />

• Sie führen zu teilweise so schwerwiegenden Verlust von ”<br />

Power“, dass<br />

es kaum möglich ist, interessante Beziehungen zwischen Variablen herzustellen<br />

• Außerdem verbergen sie die Eigenschaften und Strukturen von Daten,<br />

was eine graphische Analyse sehr erschwert.<br />

Die ersten beiden Punkte bezeichnet man als ”<br />

doppelten Whammy “(doppelseitiges<br />

Problem), wenn man den dritten Punkt noch hinzunimmt, wird er auch ”<br />

dreifacher<br />

Whammy “genannt. Dieser Effekt wird in der nachfolgenden Graphik<br />

dargestellt.<br />

Abbildung 1: oben: Regression mit den wahren Kovariablen - unten: Regression<br />

mit beobachteten fehlerbehafteten Kovariablen<br />

2


In der linearen Regression ist dieser nicht so von Bedeutung, da hier<br />

nur eine Gerade dargestellt wird und diese von der Struktur her fast immer<br />

erhalten bleibt. Die anderen beiden bereiten bei der Analyse von Daten auch<br />

große Probleme. Wir betrachten nun, was es überhaupt für Fehlermodelle<br />

gibt, wie sie sich genau auswirken und was man zumindest gegen den ersten<br />

Punkt, die Verzerrung ausrichten kann.<br />

2 Fehlermodelle<br />

Messfehler ist nicht gleich Messfehler. Es gibt mehrere Arten, die von verschieden<br />

Annahmen ausgehen können und eventuell auch unterschiedlich behandelt<br />

werden müssen. Hier werden nun die wichtigsten Modelle einmal<br />

vorgestellt.<br />

2.1 Zufälliger bzw Systematischer Fehler<br />

Ganz generell unterscheiden sich Messfehler durch ihre Entstehung. So sind<br />

grobe Messfehler z.B. auf Unaufmerksamkeit des Messenden zurückzuführen.<br />

Diese werden auch Ausreißer genannt, sie können erkannt und vermieden werden<br />

und sollten aus dem Datensatz entfernt werden. Systematische Messfehler<br />

sind meist prinzipbedingte Fehler (z.B. eine vorgehende Uhr). Sie sind oft bestimmbar<br />

und können dann behoben oder herausgerechnet werden. Dagegen<br />

sind zufällige Fehler nur bei Wiederholung erkennbar. Sie sind zeitlich und<br />

räumlich zufällig (z.B. Rauschen) und es kann häufig angenommen werden,<br />

dass sie einer Normalverteilung folgen.<br />

2.2 Multiplikativer bzw. Additiver Fehler<br />

Eine andere Unterscheidung kann über die Abhängigkeit der Fehler vom<br />

Messwert getroffen werden. Als additive Fehler werden die aufgefasst, die<br />

vom Messwert unabhängig sind. Sie werden z.B. von äußeren Störgrößen<br />

verursacht (Messfehler des Messinstruments, Höhe der Dosis in einem kontrollierten<br />

Experiment).<br />

3


Multiplikativen Fehler werden vom Messwert beeinflusst 1 und sind deswegen<br />

nicht unabhängig (z.B. Messung von Strahlenexposition)<br />

Multiplikativ : X ∗ = X · U<br />

Additiv : X ∗ = X + U<br />

X entspricht hier dem wahren Wert, X ∗ dem gemessene Wert und U dem<br />

Messfehler<br />

2.3 Klassischer bzw. Berkson Fehler<br />

Wenn man nun ein Modell betrachtet, bei dem der wahre Wert und der<br />

Messfehler von einander unabhängig sind, hat man nicht nur ein additives<br />

Modell, sondern man nennt dann den Messfehler klassischen Fehler. Im Abgrenzung<br />

zum Berkson - Fehler, bei dem der Fehler und der gemessene Wert<br />

unabhängig sein muss.<br />

Klassischer, additiver und zufälliger Fehler<br />

X*= X + U (U,X) unabhängig<br />

(z.B. Modell für Meßfehler durch Arzt)<br />

Additiver, zufälliger Berkson Fehler<br />

X=X*+U (U,X*) unabhängig<br />

(z.B. Modell für Dosis im kontrolierten Experiment)<br />

In beiden Fällen ist der Fehler U i ∼ N(0, σ 2 U ) verteilet.<br />

Beachte beim Berkson Fehler:<br />

E(X|X ∗ ) = X ∗<br />

V ar(X) = V ar(X ∗ ) + V ar(U)<br />

→ V ar(X) > V ar(X ∗ )<br />

1 Man kann annehmen, dass (X ∗ − X) α X und der Fehler somit indirekt vom Wert<br />

abhängt.<br />

4


2.4 Differentieller bzw Nichtdifferentieller Fehler<br />

Eine vierte Unterscheidung kann über die Information getroffen werden, die<br />

in dem gemessenen Wert enthalten ist. Wenn dieser keine zusätzlichen Informationen<br />

über den Response (gegenüber dem wahren Wert und den anderen<br />

Kovariablen) enthält, dann bezeichnet man den Fehler als nicht−differentiell.<br />

X ∗ kann dann auch als Surrogat bezeichnet werden (z. B. Angst ist nicht<br />

direkt meßbar, sondern man misst die Steigerung der Herzfrequenz ̂= Surrogat).<br />

Alle anderen Fehler heißen differentiell. Es ist recht praktisch, einen<br />

nicht-differentiellen Fehler zu haben, da man die Parameterschätzung, gegeben<br />

dem wahren Wert dann auch ohne den wahren Wert berechnen kann. Das<br />

ist beim differentiellen Fehler im Allgemeinen nicht möglich. Das heißt also<br />

das E(Y |X, X ∗ ) = E(Y |X) ist, da X ∗ keine weiteren Informationen über X<br />

enthält. Somit ist<br />

E(Y |X ∗ ) = E{E(Y |X, X ∗ |)X ∗ )})<br />

= E{E(Y |X)|X ∗ )})<br />

= E(β 0 + β X X|W )<br />

= β 0 + β X E(X|W )<br />

Damit ist gezeigt, dass der Erwartungswert des Response gegeben dem gemessenen<br />

Wert, alleine mit dem wahren Wert berechnet werden kann.<br />

5


3 Fehlermodelle und ihre Wirkung in der Linearen<br />

Regression<br />

3.1 Lineare Regression mit klassischem additiven Fehler<br />

Wir betrachten nun folgendes Modell:<br />

Y = β 0 + β X · X + ɛ<br />

X ∗ = X + U<br />

U ∼ N(0, σ 2 ) ɛ ∼ N(0, σ 2 )<br />

Abbildung 2: Abbildung eines additiven Messfehler-Modells. Die durchgezogene<br />

Linie zeigt zusammen mit den schwarzen Punkten die wahren Werte<br />

und deren Schätzung, so wie die gestrichelte Linie und die weißen Punkte<br />

für die beobachteten Werte.<br />

Zum einen ist hier der Verlust von Power zu sehen. Die Daten mit Fehler<br />

streuen viel mehr um die ihre KQ Gerade als die messfehlerfreien und zum<br />

anderen die Verzerrung in der KQ Schätzung.<br />

Die KQ- Schätzung von X ∗ auf Y ergibt keinen konsitenten Schätzer von β X<br />

sondern eine Schätzer von β X ∗ = λ·β X mit λ =<br />

σ2 X<br />

< 1. Dies bedeutet also<br />

σx+σ 2 U<br />

2<br />

eine Abschwächung des Schätzers. (λ wird als Reliability Ratio bezeichnet.)<br />

6


Der schwächere Zusammenhang zwischen dem Response und den gemessenen<br />

Werten (als zwischen dem Response und den wahren Werten) kann<br />

aber nicht nur durch die Abschwächung erkärt werden sondern auch durch<br />

die größere Varianz (Doppelter Whammy).<br />

V ar(Y |X ∗ ) = σ 2 ɛ + β2 X σ2 U σ2 X<br />

σ 2 X + σ2 U<br />

= σ 2 ɛ + λβ 2 Xσ 2 U<br />

Durch die Erhöhung der Variabilität ergibt sich ein zusätzlichen Fehler. Mit<br />

X ∗ = X + U zu X = X ∗ − U kann man das Modell zu<br />

Y = β 0 + β X X ∗ + (ɛ − β X U)<br />

umformen. Dieser zusätzliche Fehler (ɛ−β X U) verursacht eine Verzerrung, die<br />

durch die Korrellation zwschen dem Fehler und der Kovariate hervorgerufen<br />

wird.<br />

3.2 Regression mit Berkson Fehler<br />

Erstaunlicherweise ergibt sich bei einer linearen Regression mit Berkson Fehler<br />

dieser Verzerrungseffekt nicht. (siehe Abbildung 3)<br />

Abbildung 3: Lineare Einfachregression mit unverzerrten Berkson Fehler.<br />

Man sieht, das die Anpassung deutlich besser ist als beim Modell mit klassischem<br />

Fehler<br />

7


Das liegt daran, das der Erwartungswert E(X|X ∗ ) = X ∗ ist und somit<br />

ist E(Y |X ∗ ) = β 0 + β x X ∗ .<br />

Daraus folgt dann, das der Schätzer von Y unverzerrt für β 0 und β x ist.<br />

3.3 Regression mit komplexerer Fehlerstruktur<br />

Wenn man nun neue Annahmen hinzunimmt, z.B.:<br />

• X* ist nun nicht mehr unbedingt unverzerrt für X.<br />

• Fehler im Regressionsmodell dürfen mit Fehlern in den Prädiktoren<br />

korrellieren, d.h. differentieller Fehler sind nun erlaubt.<br />

Die Möglichkeit der Verzerrung in X ∗ , wird durch X ∗ = γ 0 +γ x X +U ausgedrückt.<br />

U ist unabhängig von X, hat einen Mittelwert von 0 und eine Varianz<br />

von σ 2 u. Die Korrelation zwischen Messfehler (ɛ) und Regressionsfehler(U)<br />

bezeichnet man als ρ ɛU .<br />

Die KQ-Schätzer ergeben sich dann mit<br />

β 0 ∗ = β 0 + β X µ X − β X ∗(γ 0 + γ X µ X )<br />

β X ∗ = β Xγ 1 σX 2 + ρ √<br />

ɛU σ<br />

2<br />

ɛ σU<br />

2<br />

γ1σ 2 X 2 + σ2 U<br />

Bei genauerer Betrachtung von β X ∗ erkennt man, das falls X ∗ verzerrt<br />

ist (γ − 1 ≠ 1)oder (ρ eU ¬0), ist es möglich dass es keine Abschwächung der<br />

Schätzer gibt, sondern genau das Gegenteil eintritt!<br />

3.4 Zusammenfassung der linearen Einfachregressionsmodelle<br />

Diese Tabelle zeigt eine Zusammanfassung der behandelten linearen Modelle.<br />

Bei allen wird eine multivariate Normalverteilung angenommen. Das zugrundeliegend<br />

Modell ist Y = β 0 + β x X + ɛ mit X undɛ sind unabhängig und ɛ ist<br />

(0, σ 2 ) verteilt. Die Fehlermodelle sind geordnet, nach dem negativen Einfluss<br />

den der Meßfehler hat (von groß nach klein).<br />

8


Fehlermodell ρ 2 XX ∗ β 0 βX Residuen Varianz<br />

Differentiell ρ 2 XX β ∗ 0 + βXµX − σ XX ∗β X+σ ɛX ∗<br />

σ X 2 µX ∗ β X<br />

∗<br />

Surrogat ρ 2 XX β ∗ 0 + βXµX − σ XX ∗β X<br />

σ X 2 µX ∗ β X<br />

∗<br />

( )<br />

σXX ∗<br />

σ X 2 ∗<br />

( )<br />

σXX ∗<br />

σ X 2 ∗<br />

+ σ ɛX ∗<br />

σ 2 X ∗ σ 2 ɛ + β 2 X σ2 X − (σ XX ∗β X+σ ɛX ∗) 2<br />

σ 2 X ∗<br />

σ 2 ɛ + β 2 X σ2 X (1 − ρ2 XX ∗)<br />

Klassisch<br />

σ X<br />

2<br />

σ X 2 β0 + βXµX (1 − ρ 2 +σ2 XX ∗) β X<br />

U k<br />

( )<br />

σ 2<br />

x<br />

σ X 2 +σ2 U k<br />

σ 2 ɛ + β 2 X σ2 X (1 − ρ2 XX ∗)<br />

Berkson<br />

σ X 2 −σ2 U b<br />

σ X<br />

2<br />

β0 βX σ 2 ɛ + β 2 X σ2 X (1 − ρ2 XX ∗)<br />

kein Fehler 1 β0 βX σ 2 ɛ<br />

Tabelle 1: Zusammengefasst werden hier die quadrierten Korrelationen, Intercepts, Steigung und Residualvarianzen<br />

bei einem generellem differentiellen bzw. Surrogat Modell, einem unverzerrten klassischen bzw Berkson Modell und<br />

einem Modell ohne Fehler (X ∗ = X).<br />

9


4 Messfehler in der Multiple Regression<br />

In der multiplen Regression sind die Auswirkungen der Messfehler komplizierter<br />

als in der linearen Regression. Wenn auch nur bei einer Variable Messfehler<br />

vorhanden sind, können sich diese sogar auf die Schätzungen der messfehlerfreien<br />

Kovariablen auswirken.<br />

Wir betrachten nun folgendes klassisches, additives Modell:<br />

Y = β 0 + β X X + β t ZZ + ɛ<br />

X ist skalar mit Messfehler und Z ist der Vektor der messfehlerfreien Kovariablen.<br />

Für X ∗ ergibt sich als KQ-Schätzer mit σX|Z 2 und σ2 X ∗ |Z<br />

als Residualvarianzen:<br />

λ 1 β x mit λ 1 = σ2 X|Z<br />

σ 2 X ∗ |Z<br />

=<br />

σ 2 X|Z<br />

σ 2 X|Z + σ2 U<br />

Hierbei muss X ∗ unverzerrt für X sein und U unabhängig von X,Z und<br />

ɛ. Solange Z unabhängig von X ist, hat der Messfehler keinen Einfluss, wenn<br />

aber Z von X abhängt (was bei den allermeisten Datensätzen der Fall sein<br />

sollte), ergibt die einfache KQ-Schätzung nicht β Z , sondern β Z ∗, welche von<br />

β X abhängt und somit auch verzerrt ist. Das bedeutet, dass die Meßfehler<br />

der Variable X auch einen Effekt auf die Variablen ohne Messfehler haben<br />

kann.<br />

β Z ∗ = β Z + β X (1 − λ 1 )Γ Z<br />

2<br />

Das bedeutet, dass die Meßfehler der Variable X auch einen Effekt auf<br />

die Variablen ohne Messfehler haben kann. Wenn nun ein Behandlungseffekt<br />

anhand einer zwei Gruppen Analyse untersucht werden soll, stellt sich solange<br />

kein Problem, solang das Design der zwei Gruppen ausgeglichen ist (d.<br />

h. wenn die Mittelwerte gleich und unabhängig von der Behandlung sind).<br />

Sobald dies aber nicht mehr der Fall ist, kann durch den Messfehler in der<br />

Variable X der Eindruck erweckt werden, dass es zum einen einen Behandlungseffekt<br />

gibt, wo überhaupt keiner vorliegt, und zum anderen, dass der<br />

Effekt positiv ist obwohl er eigentlich negativ wäre (bzw andersherum).<br />

2 Γ t Z ist der Koeffizient der Regression von von X auf Z. E(X|Z) = Γ 0 + Γ t Z Z<br />

10


Abbildung 4: Darstellung der Effekte bei Meßfehlern bei einem unausgeglichenen<br />

Design. Links sieht man die eigentlichen gefitteten Geraden, bei denen kein Behandlungseffekt<br />

zu sehen ist. Rechts werden die Effekte von Meßfehlern in einer<br />

Kovariable gezeigt. Man würde hier einen großen Behandlungseffekt vermuten. Auf<br />

beiden Grafiken sind unten die Dichtefunktionen mitabgetragen<br />

5 Zwei Möglichkeiten um eine Verzerrung zu<br />

korrigieren<br />

5.1 Momentenmethode<br />

Der Schätzer von β kann, wenn der Reliability Ratio bekannt ist, sehr leicht<br />

berechnet werden: ̂β X = ̂β X ∗<br />

Da λ aber nur selten bekannt ist, muss er meist<br />

λ<br />

durch ̂β X = ̂β X ∗<br />

geschätzt werden, mit ̂λ = σ2 X ∗ −σU<br />

2<br />

̂λ<br />

σX 2<br />

Dabei tritt nun leider bei kleineren Datensätzen ∗<br />

das Problem auf, dass<br />

diese Verteilung sehr schief sein kann. Abhilfe versucht hier die von Fuller<br />

modifizierte Momentenmethode zu schaffen.<br />

Algorithmus mit α = 2 3 :<br />

3 Die Methode hängt von einem α ab, über dessen Wahl Fuller keine genauen Anweisung<br />

gibt. Bei alpha = 2 liefert die Methode bessere Werte für die Schätzer als der unmodifizierte<br />

Schätzer.<br />

11


1. σ̂<br />

Y X ∗ und ̂σ Y sind die Varianzen zwischen Y und X ∗ bzw von Y.<br />

2. Definiere ˆκ = ( σ2 X ∗ −σY 2 X ∗<br />

) : σ 2 σY<br />

2 U<br />

3.<br />

{ σ<br />

σx 2 2<br />

= x ∗ − σU 2 falls ˆκ ≥ 1 + (n − 1) −1<br />

σX 2 − ∗ σ2 U {ˆκ − (n − 1)−1 } sonst<br />

4. Fuller’s korrigierter Schätzer für β ist dann<br />

̂β ∗ X σ2 X ∗<br />

(̂σ 2 X +2ˆσ2 U )<br />

(n−1)<br />

Abbildung 5: Im oberen Bild wird die Verteilung eines Momentenmethoden -<br />

Schätzers gezeigt, unten die Verteilung mit der Fuller Korrektur<br />

12


5.2 Orthogonale Regression<br />

Wir betrachten nun das Modell:<br />

Y = β 0 + β X X + ɛ<br />

X ∗ = X + U<br />

ɛ,U sind unkorreliert<br />

Bei der Orthogonalen Regression minimiert man nun die kürzesten Abstände<br />

zur Gerade, gewichtet mit einem Faktor η = σ2 ɛ<br />

, also 4 :<br />

σU<br />

2<br />

n∑<br />

{(Y i − β 0 − β x x i ) 2 + η(Xi ∗ − x i ) 2 )}<br />

i=1<br />

Abbildung 6: Hier ist der Unterschied der Abstandsdefinition bei einer normalen<br />

und der orthogonalen Regression veranschaulicht<br />

Vorteil gegenüber der Momentenmethode ist, dass nur das Verhältnis η<br />

der Fehlervarianzen bekannt sein muss. Doch das ist auch eher selten möglich<br />

und ein großes Problem bei der Anwendung der Orthogonalen Regression<br />

besteht darin, dass es durch die ungenaue Schätzung von η, häufig zu einer<br />

” Überkorrektur “kommt. Das kommt daher, dass der Regressionsfehler<br />

eigentlich aus 2 Teilen besteht:<br />

Y = β 0 + β X X + ɛ Li 5 + ɛ Mij<br />

6<br />

In der normen Varianzanalyse wird der ’<br />

Gleichungsfehler‘nicht beachtet<br />

und somit η unterschätzt, was die Überkorrektur hervorbringt.<br />

4 Eigentlich gilt das nur für η = 1, trotzdem benutzt man den Ausdruck Orthogonale<br />

Regression für alle Werte von η < ∞.<br />

5 ɛ Li entspricht dem Messfehler zum Response<br />

6 ɛ Mij entspricht dem dem Gleichungsfehler‘, welcher der Abweichung der wahren Werte<br />

’<br />

von der Regressionsgerade entspricht, wenn es keine Messfehler gäbe<br />

13


6 Varianz versus Verzerrung<br />

Dank der Messfehler haben wir meist eine verzerrte Verteilung unser Parameterschätzer,<br />

die so oder so ähnlich aussehen könnte:<br />

Abbildung 7: Ein extremes Beispiel einer linearen Regression mit n=20 und<br />

λ = 0.5. Der wahre Wert von β ist 1. Hier sehen eine naive Schätzung die<br />

den Meßfehler ignoriert<br />

Wenn man nun aber gegen diese Verzerrung etwas tun möchte, hat man<br />

ja z.B. mit der Fuller Modifikation ein recht gutes Werkzeug bei der Hand.<br />

Abbildung 8: Hier ist obiges Beispiel mit der Fuller Korrektur zu sehen<br />

Doch wie man feststellt, verschwindet zwar die Verzerrung zu großen Teilen,<br />

doch leider haben wir nun eine riesige Varianz. Dieses nicht wirklich zu<br />

lösende Problem bezeichnet man als ”<br />

Bias−Variance Tradeoff “(Verzerrungs−Varianz<br />

Tradeoff)<br />

14


7 Fazit<br />

Messfehler lassen sich kaum vermeiden und führen zu verzerrten Schätzern,<br />

kaum erkennbaren Datenstrukturen und Verlust von ”<br />

Power “. Trotzdem ist<br />

Messfehler nicht gleich Messfehler. So haben wir z.B. festgestellt, das sowohl<br />

der Berkson Fehler als auch der nicht-differentielle Fehler ein paar Eigenschaften<br />

aufweisen, die uns die Nachbereitung erleichtert. Es ist nicht nur<br />

deswegen sehr wichtig, sich genau zu überlegen, welches Fehlermodell denn<br />

nun vorliegt. Denn bei einem Berkson Fehler ist die Auswirkung in der linearen<br />

Regression ja nicht besonders groß (s.Abb 3).<br />

Um nun die Schätzer geeinet zu entzerren bieten sich zum Beispiel die Momentenmethode<br />

und die Orthogonale Regression an. Beide bergen, wie gesehen,<br />

aber auch ihre Risiken und so kann es zum Beispiel bei der Orthogonalen<br />

Regression zu einer Überkorrektur kommen. Ein Problem, das auch nicht<br />

außer acht gelassen werden sollte ist der Varianz-Verzerrungs-Tradeoff. Zwar<br />

kann durch die Korrektur die Verzerrung etwas verringert werden, gleichzeitig<br />

steigt aber die Varianz. Somit sollte man sich immer überlegen, was einem<br />

in dem Fall wichtiger ist und ob sich eine Korrektur überhaupt lohnt.<br />

Wir werden auch im Rahmen unseres Seminar noch weitere Verfahren kennenlernen,<br />

z.B. die Regressions Kalibrierung und Simulation Extrapolation<br />

(SIMEX), welche gut bei generalisierten linearen Regressionsmodellen angewendet<br />

werden können. Darüberhinaus gibt es natürlich auch noch viele<br />

Ansätze bei nicht-linearen Modellen Meßfehler zu beheben.<br />

15


8 Literaturverzeichnis<br />

Basisliteratur<br />

• Carroll R. J., Ruppert D., Stefanski L.A. and Crainiceanu C. (2006)<br />

Measurement Error in Nonlinear Models: A Modern Perspective, Kapitel<br />

1-3<br />

weitere Literatur<br />

• Fuller W.A. (1987) Measurement Error ModelsS. 1-60 u. 164-177<br />

• Greene W. H. (2003) Economic Analysis S. 83-91<br />

• Gustafson P. (2004) Measurment Error and Misclassification in Statistics<br />

and Epidemiology S.1-30<br />

• Harris D. und Laszlo M. (1999) Generalized Method of Moments Estimation<br />

S. 1-30<br />

• Schneeweiß H. und Mittag H.-J. (1986) Lineare Modelle mit fehlerbehafteten<br />

Daten S.1-56<br />

16

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!