Handout
Handout
Handout
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Elemantare Messfehlermodelle<br />
Wirkung in der linearen Regression<br />
Birgit Oppolzer<br />
<strong>Handout</strong> zum Vortrag am 5. Mai 2008 im Rahmen des<br />
Seminars: Analyse fehlerbehafteter Daten<br />
Inhaltsverzeichnis<br />
1 Einleitung 2<br />
2 Fehlermodelle 3<br />
2.1 Zufälliger bzw Systematischer Fehler . . . . . . . . . . . . . . 3<br />
2.2 Multiplikativer bzw. Additiver Fehler . . . . . . . . . . . . . . 3<br />
2.3 Klassischer bzw. Berkson Fehler . . . . . . . . . . . . . . . . . 4<br />
2.4 Differentieller bzw Nichtdifferentieller Fehler . . . . . . . . . . 5<br />
3 Fehlermodelle und ihre Wirkung in der Linearen Regression 6<br />
3.1 Lineare Regression mit klassischem additiven Fehler . . . . . . 6<br />
3.2 Regression mit Berkson Fehler . . . . . . . . . . . . . . . . . . 7<br />
3.3 Regression mit komplexerer Fehlerstruktur . . . . . . . . . . . 8<br />
3.4 Zusammenfassung der linearen Einfachregressionsmodelle . . . 8<br />
4 Messfehler in der Multiple Regression 10<br />
5 Zwei Möglichkeiten um eine Verzerrung zu korrigieren 11<br />
5.1 Momentenmethode . . . . . . . . . . . . . . . . . . . . . . . . 11<br />
5.2 Orthogonale Regression . . . . . . . . . . . . . . . . . . . . . . 13<br />
6 Varianz versus Verzerrung 14<br />
7 Fazit 15<br />
8 Literaturverzeichnis 16<br />
1
1 Einleitung<br />
Wenn wir etwas messen, erhalten wir immer auch einen Messfehler. Interessant<br />
ist in der linearen Regression, wie sich diese auswirken. Dazu schauen<br />
wir uns mal die Messfehler in den Kovariablen genauer an. Diese haben 3<br />
negative Effekte:<br />
• Sie verursachen eine Verzerrung bei den Parameterschätzungen in den<br />
statistischen Modellen<br />
• Sie führen zu teilweise so schwerwiegenden Verlust von ”<br />
Power“, dass<br />
es kaum möglich ist, interessante Beziehungen zwischen Variablen herzustellen<br />
• Außerdem verbergen sie die Eigenschaften und Strukturen von Daten,<br />
was eine graphische Analyse sehr erschwert.<br />
Die ersten beiden Punkte bezeichnet man als ”<br />
doppelten Whammy “(doppelseitiges<br />
Problem), wenn man den dritten Punkt noch hinzunimmt, wird er auch ”<br />
dreifacher<br />
Whammy “genannt. Dieser Effekt wird in der nachfolgenden Graphik<br />
dargestellt.<br />
Abbildung 1: oben: Regression mit den wahren Kovariablen - unten: Regression<br />
mit beobachteten fehlerbehafteten Kovariablen<br />
2
In der linearen Regression ist dieser nicht so von Bedeutung, da hier<br />
nur eine Gerade dargestellt wird und diese von der Struktur her fast immer<br />
erhalten bleibt. Die anderen beiden bereiten bei der Analyse von Daten auch<br />
große Probleme. Wir betrachten nun, was es überhaupt für Fehlermodelle<br />
gibt, wie sie sich genau auswirken und was man zumindest gegen den ersten<br />
Punkt, die Verzerrung ausrichten kann.<br />
2 Fehlermodelle<br />
Messfehler ist nicht gleich Messfehler. Es gibt mehrere Arten, die von verschieden<br />
Annahmen ausgehen können und eventuell auch unterschiedlich behandelt<br />
werden müssen. Hier werden nun die wichtigsten Modelle einmal<br />
vorgestellt.<br />
2.1 Zufälliger bzw Systematischer Fehler<br />
Ganz generell unterscheiden sich Messfehler durch ihre Entstehung. So sind<br />
grobe Messfehler z.B. auf Unaufmerksamkeit des Messenden zurückzuführen.<br />
Diese werden auch Ausreißer genannt, sie können erkannt und vermieden werden<br />
und sollten aus dem Datensatz entfernt werden. Systematische Messfehler<br />
sind meist prinzipbedingte Fehler (z.B. eine vorgehende Uhr). Sie sind oft bestimmbar<br />
und können dann behoben oder herausgerechnet werden. Dagegen<br />
sind zufällige Fehler nur bei Wiederholung erkennbar. Sie sind zeitlich und<br />
räumlich zufällig (z.B. Rauschen) und es kann häufig angenommen werden,<br />
dass sie einer Normalverteilung folgen.<br />
2.2 Multiplikativer bzw. Additiver Fehler<br />
Eine andere Unterscheidung kann über die Abhängigkeit der Fehler vom<br />
Messwert getroffen werden. Als additive Fehler werden die aufgefasst, die<br />
vom Messwert unabhängig sind. Sie werden z.B. von äußeren Störgrößen<br />
verursacht (Messfehler des Messinstruments, Höhe der Dosis in einem kontrollierten<br />
Experiment).<br />
3
Multiplikativen Fehler werden vom Messwert beeinflusst 1 und sind deswegen<br />
nicht unabhängig (z.B. Messung von Strahlenexposition)<br />
Multiplikativ : X ∗ = X · U<br />
Additiv : X ∗ = X + U<br />
X entspricht hier dem wahren Wert, X ∗ dem gemessene Wert und U dem<br />
Messfehler<br />
2.3 Klassischer bzw. Berkson Fehler<br />
Wenn man nun ein Modell betrachtet, bei dem der wahre Wert und der<br />
Messfehler von einander unabhängig sind, hat man nicht nur ein additives<br />
Modell, sondern man nennt dann den Messfehler klassischen Fehler. Im Abgrenzung<br />
zum Berkson - Fehler, bei dem der Fehler und der gemessene Wert<br />
unabhängig sein muss.<br />
Klassischer, additiver und zufälliger Fehler<br />
X*= X + U (U,X) unabhängig<br />
(z.B. Modell für Meßfehler durch Arzt)<br />
Additiver, zufälliger Berkson Fehler<br />
X=X*+U (U,X*) unabhängig<br />
(z.B. Modell für Dosis im kontrolierten Experiment)<br />
In beiden Fällen ist der Fehler U i ∼ N(0, σ 2 U ) verteilet.<br />
Beachte beim Berkson Fehler:<br />
E(X|X ∗ ) = X ∗<br />
V ar(X) = V ar(X ∗ ) + V ar(U)<br />
→ V ar(X) > V ar(X ∗ )<br />
1 Man kann annehmen, dass (X ∗ − X) α X und der Fehler somit indirekt vom Wert<br />
abhängt.<br />
4
2.4 Differentieller bzw Nichtdifferentieller Fehler<br />
Eine vierte Unterscheidung kann über die Information getroffen werden, die<br />
in dem gemessenen Wert enthalten ist. Wenn dieser keine zusätzlichen Informationen<br />
über den Response (gegenüber dem wahren Wert und den anderen<br />
Kovariablen) enthält, dann bezeichnet man den Fehler als nicht−differentiell.<br />
X ∗ kann dann auch als Surrogat bezeichnet werden (z. B. Angst ist nicht<br />
direkt meßbar, sondern man misst die Steigerung der Herzfrequenz ̂= Surrogat).<br />
Alle anderen Fehler heißen differentiell. Es ist recht praktisch, einen<br />
nicht-differentiellen Fehler zu haben, da man die Parameterschätzung, gegeben<br />
dem wahren Wert dann auch ohne den wahren Wert berechnen kann. Das<br />
ist beim differentiellen Fehler im Allgemeinen nicht möglich. Das heißt also<br />
das E(Y |X, X ∗ ) = E(Y |X) ist, da X ∗ keine weiteren Informationen über X<br />
enthält. Somit ist<br />
E(Y |X ∗ ) = E{E(Y |X, X ∗ |)X ∗ )})<br />
= E{E(Y |X)|X ∗ )})<br />
= E(β 0 + β X X|W )<br />
= β 0 + β X E(X|W )<br />
Damit ist gezeigt, dass der Erwartungswert des Response gegeben dem gemessenen<br />
Wert, alleine mit dem wahren Wert berechnet werden kann.<br />
5
3 Fehlermodelle und ihre Wirkung in der Linearen<br />
Regression<br />
3.1 Lineare Regression mit klassischem additiven Fehler<br />
Wir betrachten nun folgendes Modell:<br />
Y = β 0 + β X · X + ɛ<br />
X ∗ = X + U<br />
U ∼ N(0, σ 2 ) ɛ ∼ N(0, σ 2 )<br />
Abbildung 2: Abbildung eines additiven Messfehler-Modells. Die durchgezogene<br />
Linie zeigt zusammen mit den schwarzen Punkten die wahren Werte<br />
und deren Schätzung, so wie die gestrichelte Linie und die weißen Punkte<br />
für die beobachteten Werte.<br />
Zum einen ist hier der Verlust von Power zu sehen. Die Daten mit Fehler<br />
streuen viel mehr um die ihre KQ Gerade als die messfehlerfreien und zum<br />
anderen die Verzerrung in der KQ Schätzung.<br />
Die KQ- Schätzung von X ∗ auf Y ergibt keinen konsitenten Schätzer von β X<br />
sondern eine Schätzer von β X ∗ = λ·β X mit λ =<br />
σ2 X<br />
< 1. Dies bedeutet also<br />
σx+σ 2 U<br />
2<br />
eine Abschwächung des Schätzers. (λ wird als Reliability Ratio bezeichnet.)<br />
6
Der schwächere Zusammenhang zwischen dem Response und den gemessenen<br />
Werten (als zwischen dem Response und den wahren Werten) kann<br />
aber nicht nur durch die Abschwächung erkärt werden sondern auch durch<br />
die größere Varianz (Doppelter Whammy).<br />
V ar(Y |X ∗ ) = σ 2 ɛ + β2 X σ2 U σ2 X<br />
σ 2 X + σ2 U<br />
= σ 2 ɛ + λβ 2 Xσ 2 U<br />
Durch die Erhöhung der Variabilität ergibt sich ein zusätzlichen Fehler. Mit<br />
X ∗ = X + U zu X = X ∗ − U kann man das Modell zu<br />
Y = β 0 + β X X ∗ + (ɛ − β X U)<br />
umformen. Dieser zusätzliche Fehler (ɛ−β X U) verursacht eine Verzerrung, die<br />
durch die Korrellation zwschen dem Fehler und der Kovariate hervorgerufen<br />
wird.<br />
3.2 Regression mit Berkson Fehler<br />
Erstaunlicherweise ergibt sich bei einer linearen Regression mit Berkson Fehler<br />
dieser Verzerrungseffekt nicht. (siehe Abbildung 3)<br />
Abbildung 3: Lineare Einfachregression mit unverzerrten Berkson Fehler.<br />
Man sieht, das die Anpassung deutlich besser ist als beim Modell mit klassischem<br />
Fehler<br />
7
Das liegt daran, das der Erwartungswert E(X|X ∗ ) = X ∗ ist und somit<br />
ist E(Y |X ∗ ) = β 0 + β x X ∗ .<br />
Daraus folgt dann, das der Schätzer von Y unverzerrt für β 0 und β x ist.<br />
3.3 Regression mit komplexerer Fehlerstruktur<br />
Wenn man nun neue Annahmen hinzunimmt, z.B.:<br />
• X* ist nun nicht mehr unbedingt unverzerrt für X.<br />
• Fehler im Regressionsmodell dürfen mit Fehlern in den Prädiktoren<br />
korrellieren, d.h. differentieller Fehler sind nun erlaubt.<br />
Die Möglichkeit der Verzerrung in X ∗ , wird durch X ∗ = γ 0 +γ x X +U ausgedrückt.<br />
U ist unabhängig von X, hat einen Mittelwert von 0 und eine Varianz<br />
von σ 2 u. Die Korrelation zwischen Messfehler (ɛ) und Regressionsfehler(U)<br />
bezeichnet man als ρ ɛU .<br />
Die KQ-Schätzer ergeben sich dann mit<br />
β 0 ∗ = β 0 + β X µ X − β X ∗(γ 0 + γ X µ X )<br />
β X ∗ = β Xγ 1 σX 2 + ρ √<br />
ɛU σ<br />
2<br />
ɛ σU<br />
2<br />
γ1σ 2 X 2 + σ2 U<br />
Bei genauerer Betrachtung von β X ∗ erkennt man, das falls X ∗ verzerrt<br />
ist (γ − 1 ≠ 1)oder (ρ eU ¬0), ist es möglich dass es keine Abschwächung der<br />
Schätzer gibt, sondern genau das Gegenteil eintritt!<br />
3.4 Zusammenfassung der linearen Einfachregressionsmodelle<br />
Diese Tabelle zeigt eine Zusammanfassung der behandelten linearen Modelle.<br />
Bei allen wird eine multivariate Normalverteilung angenommen. Das zugrundeliegend<br />
Modell ist Y = β 0 + β x X + ɛ mit X undɛ sind unabhängig und ɛ ist<br />
(0, σ 2 ) verteilt. Die Fehlermodelle sind geordnet, nach dem negativen Einfluss<br />
den der Meßfehler hat (von groß nach klein).<br />
8
Fehlermodell ρ 2 XX ∗ β 0 βX Residuen Varianz<br />
Differentiell ρ 2 XX β ∗ 0 + βXµX − σ XX ∗β X+σ ɛX ∗<br />
σ X 2 µX ∗ β X<br />
∗<br />
Surrogat ρ 2 XX β ∗ 0 + βXµX − σ XX ∗β X<br />
σ X 2 µX ∗ β X<br />
∗<br />
( )<br />
σXX ∗<br />
σ X 2 ∗<br />
( )<br />
σXX ∗<br />
σ X 2 ∗<br />
+ σ ɛX ∗<br />
σ 2 X ∗ σ 2 ɛ + β 2 X σ2 X − (σ XX ∗β X+σ ɛX ∗) 2<br />
σ 2 X ∗<br />
σ 2 ɛ + β 2 X σ2 X (1 − ρ2 XX ∗)<br />
Klassisch<br />
σ X<br />
2<br />
σ X 2 β0 + βXµX (1 − ρ 2 +σ2 XX ∗) β X<br />
U k<br />
( )<br />
σ 2<br />
x<br />
σ X 2 +σ2 U k<br />
σ 2 ɛ + β 2 X σ2 X (1 − ρ2 XX ∗)<br />
Berkson<br />
σ X 2 −σ2 U b<br />
σ X<br />
2<br />
β0 βX σ 2 ɛ + β 2 X σ2 X (1 − ρ2 XX ∗)<br />
kein Fehler 1 β0 βX σ 2 ɛ<br />
Tabelle 1: Zusammengefasst werden hier die quadrierten Korrelationen, Intercepts, Steigung und Residualvarianzen<br />
bei einem generellem differentiellen bzw. Surrogat Modell, einem unverzerrten klassischen bzw Berkson Modell und<br />
einem Modell ohne Fehler (X ∗ = X).<br />
9
4 Messfehler in der Multiple Regression<br />
In der multiplen Regression sind die Auswirkungen der Messfehler komplizierter<br />
als in der linearen Regression. Wenn auch nur bei einer Variable Messfehler<br />
vorhanden sind, können sich diese sogar auf die Schätzungen der messfehlerfreien<br />
Kovariablen auswirken.<br />
Wir betrachten nun folgendes klassisches, additives Modell:<br />
Y = β 0 + β X X + β t ZZ + ɛ<br />
X ist skalar mit Messfehler und Z ist der Vektor der messfehlerfreien Kovariablen.<br />
Für X ∗ ergibt sich als KQ-Schätzer mit σX|Z 2 und σ2 X ∗ |Z<br />
als Residualvarianzen:<br />
λ 1 β x mit λ 1 = σ2 X|Z<br />
σ 2 X ∗ |Z<br />
=<br />
σ 2 X|Z<br />
σ 2 X|Z + σ2 U<br />
Hierbei muss X ∗ unverzerrt für X sein und U unabhängig von X,Z und<br />
ɛ. Solange Z unabhängig von X ist, hat der Messfehler keinen Einfluss, wenn<br />
aber Z von X abhängt (was bei den allermeisten Datensätzen der Fall sein<br />
sollte), ergibt die einfache KQ-Schätzung nicht β Z , sondern β Z ∗, welche von<br />
β X abhängt und somit auch verzerrt ist. Das bedeutet, dass die Meßfehler<br />
der Variable X auch einen Effekt auf die Variablen ohne Messfehler haben<br />
kann.<br />
β Z ∗ = β Z + β X (1 − λ 1 )Γ Z<br />
2<br />
Das bedeutet, dass die Meßfehler der Variable X auch einen Effekt auf<br />
die Variablen ohne Messfehler haben kann. Wenn nun ein Behandlungseffekt<br />
anhand einer zwei Gruppen Analyse untersucht werden soll, stellt sich solange<br />
kein Problem, solang das Design der zwei Gruppen ausgeglichen ist (d.<br />
h. wenn die Mittelwerte gleich und unabhängig von der Behandlung sind).<br />
Sobald dies aber nicht mehr der Fall ist, kann durch den Messfehler in der<br />
Variable X der Eindruck erweckt werden, dass es zum einen einen Behandlungseffekt<br />
gibt, wo überhaupt keiner vorliegt, und zum anderen, dass der<br />
Effekt positiv ist obwohl er eigentlich negativ wäre (bzw andersherum).<br />
2 Γ t Z ist der Koeffizient der Regression von von X auf Z. E(X|Z) = Γ 0 + Γ t Z Z<br />
10
Abbildung 4: Darstellung der Effekte bei Meßfehlern bei einem unausgeglichenen<br />
Design. Links sieht man die eigentlichen gefitteten Geraden, bei denen kein Behandlungseffekt<br />
zu sehen ist. Rechts werden die Effekte von Meßfehlern in einer<br />
Kovariable gezeigt. Man würde hier einen großen Behandlungseffekt vermuten. Auf<br />
beiden Grafiken sind unten die Dichtefunktionen mitabgetragen<br />
5 Zwei Möglichkeiten um eine Verzerrung zu<br />
korrigieren<br />
5.1 Momentenmethode<br />
Der Schätzer von β kann, wenn der Reliability Ratio bekannt ist, sehr leicht<br />
berechnet werden: ̂β X = ̂β X ∗<br />
Da λ aber nur selten bekannt ist, muss er meist<br />
λ<br />
durch ̂β X = ̂β X ∗<br />
geschätzt werden, mit ̂λ = σ2 X ∗ −σU<br />
2<br />
̂λ<br />
σX 2<br />
Dabei tritt nun leider bei kleineren Datensätzen ∗<br />
das Problem auf, dass<br />
diese Verteilung sehr schief sein kann. Abhilfe versucht hier die von Fuller<br />
modifizierte Momentenmethode zu schaffen.<br />
Algorithmus mit α = 2 3 :<br />
3 Die Methode hängt von einem α ab, über dessen Wahl Fuller keine genauen Anweisung<br />
gibt. Bei alpha = 2 liefert die Methode bessere Werte für die Schätzer als der unmodifizierte<br />
Schätzer.<br />
11
1. σ̂<br />
Y X ∗ und ̂σ Y sind die Varianzen zwischen Y und X ∗ bzw von Y.<br />
2. Definiere ˆκ = ( σ2 X ∗ −σY 2 X ∗<br />
) : σ 2 σY<br />
2 U<br />
3.<br />
{ σ<br />
σx 2 2<br />
= x ∗ − σU 2 falls ˆκ ≥ 1 + (n − 1) −1<br />
σX 2 − ∗ σ2 U {ˆκ − (n − 1)−1 } sonst<br />
4. Fuller’s korrigierter Schätzer für β ist dann<br />
̂β ∗ X σ2 X ∗<br />
(̂σ 2 X +2ˆσ2 U )<br />
(n−1)<br />
Abbildung 5: Im oberen Bild wird die Verteilung eines Momentenmethoden -<br />
Schätzers gezeigt, unten die Verteilung mit der Fuller Korrektur<br />
12
5.2 Orthogonale Regression<br />
Wir betrachten nun das Modell:<br />
Y = β 0 + β X X + ɛ<br />
X ∗ = X + U<br />
ɛ,U sind unkorreliert<br />
Bei der Orthogonalen Regression minimiert man nun die kürzesten Abstände<br />
zur Gerade, gewichtet mit einem Faktor η = σ2 ɛ<br />
, also 4 :<br />
σU<br />
2<br />
n∑<br />
{(Y i − β 0 − β x x i ) 2 + η(Xi ∗ − x i ) 2 )}<br />
i=1<br />
Abbildung 6: Hier ist der Unterschied der Abstandsdefinition bei einer normalen<br />
und der orthogonalen Regression veranschaulicht<br />
Vorteil gegenüber der Momentenmethode ist, dass nur das Verhältnis η<br />
der Fehlervarianzen bekannt sein muss. Doch das ist auch eher selten möglich<br />
und ein großes Problem bei der Anwendung der Orthogonalen Regression<br />
besteht darin, dass es durch die ungenaue Schätzung von η, häufig zu einer<br />
” Überkorrektur “kommt. Das kommt daher, dass der Regressionsfehler<br />
eigentlich aus 2 Teilen besteht:<br />
Y = β 0 + β X X + ɛ Li 5 + ɛ Mij<br />
6<br />
In der normen Varianzanalyse wird der ’<br />
Gleichungsfehler‘nicht beachtet<br />
und somit η unterschätzt, was die Überkorrektur hervorbringt.<br />
4 Eigentlich gilt das nur für η = 1, trotzdem benutzt man den Ausdruck Orthogonale<br />
Regression für alle Werte von η < ∞.<br />
5 ɛ Li entspricht dem Messfehler zum Response<br />
6 ɛ Mij entspricht dem dem Gleichungsfehler‘, welcher der Abweichung der wahren Werte<br />
’<br />
von der Regressionsgerade entspricht, wenn es keine Messfehler gäbe<br />
13
6 Varianz versus Verzerrung<br />
Dank der Messfehler haben wir meist eine verzerrte Verteilung unser Parameterschätzer,<br />
die so oder so ähnlich aussehen könnte:<br />
Abbildung 7: Ein extremes Beispiel einer linearen Regression mit n=20 und<br />
λ = 0.5. Der wahre Wert von β ist 1. Hier sehen eine naive Schätzung die<br />
den Meßfehler ignoriert<br />
Wenn man nun aber gegen diese Verzerrung etwas tun möchte, hat man<br />
ja z.B. mit der Fuller Modifikation ein recht gutes Werkzeug bei der Hand.<br />
Abbildung 8: Hier ist obiges Beispiel mit der Fuller Korrektur zu sehen<br />
Doch wie man feststellt, verschwindet zwar die Verzerrung zu großen Teilen,<br />
doch leider haben wir nun eine riesige Varianz. Dieses nicht wirklich zu<br />
lösende Problem bezeichnet man als ”<br />
Bias−Variance Tradeoff “(Verzerrungs−Varianz<br />
Tradeoff)<br />
14
7 Fazit<br />
Messfehler lassen sich kaum vermeiden und führen zu verzerrten Schätzern,<br />
kaum erkennbaren Datenstrukturen und Verlust von ”<br />
Power “. Trotzdem ist<br />
Messfehler nicht gleich Messfehler. So haben wir z.B. festgestellt, das sowohl<br />
der Berkson Fehler als auch der nicht-differentielle Fehler ein paar Eigenschaften<br />
aufweisen, die uns die Nachbereitung erleichtert. Es ist nicht nur<br />
deswegen sehr wichtig, sich genau zu überlegen, welches Fehlermodell denn<br />
nun vorliegt. Denn bei einem Berkson Fehler ist die Auswirkung in der linearen<br />
Regression ja nicht besonders groß (s.Abb 3).<br />
Um nun die Schätzer geeinet zu entzerren bieten sich zum Beispiel die Momentenmethode<br />
und die Orthogonale Regression an. Beide bergen, wie gesehen,<br />
aber auch ihre Risiken und so kann es zum Beispiel bei der Orthogonalen<br />
Regression zu einer Überkorrektur kommen. Ein Problem, das auch nicht<br />
außer acht gelassen werden sollte ist der Varianz-Verzerrungs-Tradeoff. Zwar<br />
kann durch die Korrektur die Verzerrung etwas verringert werden, gleichzeitig<br />
steigt aber die Varianz. Somit sollte man sich immer überlegen, was einem<br />
in dem Fall wichtiger ist und ob sich eine Korrektur überhaupt lohnt.<br />
Wir werden auch im Rahmen unseres Seminar noch weitere Verfahren kennenlernen,<br />
z.B. die Regressions Kalibrierung und Simulation Extrapolation<br />
(SIMEX), welche gut bei generalisierten linearen Regressionsmodellen angewendet<br />
werden können. Darüberhinaus gibt es natürlich auch noch viele<br />
Ansätze bei nicht-linearen Modellen Meßfehler zu beheben.<br />
15
8 Literaturverzeichnis<br />
Basisliteratur<br />
• Carroll R. J., Ruppert D., Stefanski L.A. and Crainiceanu C. (2006)<br />
Measurement Error in Nonlinear Models: A Modern Perspective, Kapitel<br />
1-3<br />
weitere Literatur<br />
• Fuller W.A. (1987) Measurement Error ModelsS. 1-60 u. 164-177<br />
• Greene W. H. (2003) Economic Analysis S. 83-91<br />
• Gustafson P. (2004) Measurment Error and Misclassification in Statistics<br />
and Epidemiology S.1-30<br />
• Harris D. und Laszlo M. (1999) Generalized Method of Moments Estimation<br />
S. 1-30<br />
• Schneeweiß H. und Mittag H.-J. (1986) Lineare Modelle mit fehlerbehafteten<br />
Daten S.1-56<br />
16