1. Fehlerbetrachtung
1. Fehlerbetrachtung
1. Fehlerbetrachtung
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>1.</strong> <strong>Fehlerbetrachtung</strong><br />
<strong>1.</strong><strong>1.</strong> Einteilung der Fehler nach Ursachen und Wirkung<br />
Alle durch Messung ermittelten physikalischen Messwerte (Temperatur, Volumen,<br />
Masse, pH-Wert, Stromstärke, Spannung etc.) sind nur bedingt genau, sie<br />
unterscheiden sich von dem gesuchten wahren Wert durch Fehler.<br />
<strong>1.</strong><strong>1.</strong><strong>1.</strong> Einteilung der Fehler nach Ursachen<br />
Die Fehler können nach ihren Ursachen unterschieden werden.<br />
Durchführungsfehler<br />
Diese ergeben sich durch Fehler bei der Handhabung von Geräten (wie z. B.<br />
Ausblasen von Pipetten, falsche oder unterlassene Nullpunktseinstellung, Ablesen<br />
der Skalen aus einem Winkel ≠ 90°) oder durch andere methodische Fehler<br />
(wie z.B. Wägen im heißen Zustand, durch Wahl der falschen Waschflüssigkeit).<br />
Fehler durch Schwankungen äußerer Bedingungen<br />
Hierzu gehören Änderungen des Luftdruckes, der Temperatur, der Feuchtigkeit<br />
usw.<br />
Fehler an den Messinstrumenten<br />
Dieses sind neben herstellungsbedingten Fehlern (wie beispielsweise Ungenauigkeiten<br />
der Gewichtsstücke und Skaleneinteilung, eine nicht vollkommen<br />
reibungsfreie Lagerung der Waagebalken auf den Schneiden, das begrenzte<br />
Auflösungsvermögen der Geräte) auch Fehler, die im Laufe der Zeit entstehen<br />
(z.B. durch Abnutzung der Schneiden einer Waage).<br />
Fehler, die durch das begrenzte Unterscheidungsvermögen der Sinnesorgane<br />
des Beobachters bedingt sind. (Der Mensch ist z. B. nur begrenzt in der Lage,<br />
die letzten Stellen eines Messergebnisses am Nonius abzulesen.)<br />
<strong>1.</strong><strong>1.</strong>2. Einteilung der Fehler nach ihrer Wirkung auf den Messwert<br />
Andererseits könne die Fehler einer Messung aber auch nach der verfälschenden<br />
Wirkung auf den wahren Messwert eingeteilt werden in systematische und<br />
zufällige Fehler.<br />
Systematische Fehler<br />
Sie haben einen bestimmten Betrag und ein bestimmtes Vorzeichen (entweder +<br />
oder -) und bewirken daher eine einseitige Verschiebung des Messwertes, d. h.<br />
sie ergeben entweder ein zu großes oder ein zu kleines Messergebnis. So erhält<br />
man z.B. immer ein zuviel an Flüssigkeit, wenn man die Pipette ausbläst oder<br />
man wägt immer zu wenig ab, wenn der Abstand der Skaleneinteilung zu gering,<br />
oder die Masse eines Wägestücks zu klein ist. Systematische Fehler entstehen<br />
also nicht nur durch falsche Handhabung von Geräten und durch den Einfluss<br />
äußerer Bedingungen, sondern auch, wenn ein Messgerät einen konstanten<br />
Fehler aufweist, da sie alle das Messergebnis einseitig verschieben.<br />
Statistische Fehler<br />
Sie schwanken nach Betrag und Vorzeichen, sind also ±-Fehler. Statistische<br />
Fehler sind bedingt durch nicht beeinflussbare Veränderungen bei der Messung,<br />
am Messgerät, beim Messgut und dem Beobachter. Wird z. B. eine Messung am<br />
selben Gerät unter gleichen Bedingungen von ein und demselben Beobachter<br />
durchgeführt, so streuen die Messwerte. Diese geringen Schwankungen sind<br />
hauptsächlich auf das begrenzte Auflösungsvermögen unserer Sinnesorgane<br />
und die nicht mehr zu beeinflussenden Änderungen der äußeren Bedingungen<br />
zurückzuführen. Außerdem weisen die Messgeräte bei noch so genauer Herstellung<br />
und Qualitätskontrollen geringe Schwankungen auf.<br />
<strong>1.</strong><strong>1.</strong>3. Zusammenhang zwischen Ursachen und Wirkungen der Fehler<br />
Die bei den systematischen und statistischen Fehlern aufgeführten Beispiele<br />
zeigen, dass eine Beziehung zwischen den Ursachen der Fehler und der Wirkung<br />
auf den Messwert besteht. So wirken die bei der Einteilung nach den Ursachen<br />
ersten zwei Fehlerarten als systematische Fehler und erzeugen eine ein-
seitige Verschiebung des Messwertes, während der an vierter Stelle aufgeführte<br />
Fehler zu einer symmetrischen Streuung der Messwerte führt und somit als<br />
statistischer Fehler zu betrachten ist.<br />
<strong>1.</strong>2. Fehlervermeidung<br />
Systematische Fehler lassen sich weitgehend vermeiden. Es ist deshalb äußerst<br />
wichtig, sich vor jeder Messung Gedanken darüber zu machen, wo systematische<br />
Fehler auftreten und wie sie ausgeschaltet werden können und dies bei der<br />
Durchführung zu berücksichtigen. Auf Geräte zurückzuführende systematische<br />
Fehler lassen sich manchmal auch durch Relativmessungen umgehen, da sich<br />
bei Messung an ein und demselben Gerät diese Fehler aufheben.<br />
<strong>1.</strong>3.3. Relativer und prozentualer Fehler<br />
Für viele Messungen ist es wichtig, den relativen oder prozentualen Fehler zu<br />
ermitteln. Entscheidend dabei ist, ob sich ein Fehler von z. B. 0.02 g auf 1 g oder<br />
auf 1000 g Gesamtmasse bezieht. Der relative Fehler berechnet sich folgendermaßen:<br />
(Istwert – Sollwert)<br />
relativer Fehler = Sollwert<br />
Für den prozentualen Fehler gilt<br />
<strong>1.</strong>3. Berechnung des Messergebnisses<br />
<strong>1.</strong>3.<strong>1.</strong> Mittelwertbildung<br />
Da trotz sorgfältiger Fehlervermeidung bei einer Messung immer einige systematische<br />
und statistische Fehler eingehen, sollten wenigstens drei Messungen<br />
durchgeführt werden, damit auch durch Mittelung die Fehler minimiert werden<br />
können. Vor der Mittelwertsbildung sind allerdings solche Werte von vorneherein<br />
auszuschalten, die relativ weit abweichen. Der Mittelwert berechnet sich dann<br />
nach der Formel:<br />
Σ<br />
x = Mittelwert<br />
x =<br />
x<br />
i<br />
x i = Einzelmessung<br />
n<br />
n = Anzahl der Einzelmessung<br />
Der so ermittelte Wert stellt das Endergebnis dar.<br />
prozentualer Fehler = relativer Fehler x 100.<br />
<strong>1.</strong>4. Die Genauigkeit und Präzision einer Messung<br />
Unter der Genauigkeit einer Messung versteht man die Abweichung des gemessenen<br />
Wertes (Istwert) vom wahren Wert (Sollwert). Ob eine Messung „genau<br />
oder ungenau“ ist, kann also nur beurteilt werden, wenn der wahre Wert bekannt<br />
ist. Der absolute (oder auch relative) Fehler ist ein Maß (Zahlenwert) für die<br />
Genauigkeit. Wird ein zu messender Wert mehrmals gemessen, so können die<br />
Einzelwerte nahe am Mittelwert liegen. Die Präzision dieser Messreihe ist gut.<br />
Präzision ist definiert als die Annäherung einer Anzahl von Messungen (gleiche<br />
Methode, gleiches Objekt) an einen bestimmten Wert (meist Mittelwert). Selbst<br />
bei guter Präzision kann der Mittelwert jedoch stark vom wahren Wert abweichen,<br />
d.h. die Genauigkeit gering sein.<br />
<strong>1.</strong>3.2. Der absolute Fehler<br />
Der absolute Fehler kann nur ermittelt werden, wenn der wahre Wert bekannt<br />
ist. Der absolute Fehler ergibt sich aus der Differenz des experimentellen Wertes<br />
(Istwert) zum wahren Wert (Sollwert).<br />
Veranschaulichung der Begriffe Genauigkeit und Präzision<br />
Das nachfolgende Modell der Zielscheibe soll die Bergriffe Genauigkeit und<br />
Präzision noch näher veranschaulichen. Der Mittelpunkt einer Zielscheibe entspreche<br />
dem wahren Wert. Für die Einschüsse ergeben sich im Wesentlichen<br />
folgende drei mögliche statistische Verteilungen.<br />
absoluter Fehler = Istwert - Sollwert
− Die in Abb. <strong>1.</strong>a dargestellte Verteilung zeigt den optimalen<br />
Fall, bei dem sowohl die Genauigkeit (geringe<br />
Abweichung der einzelnen Messwerte und auch des<br />
Mittelwertes vom wahren Wert), als auch die Präzision<br />
(geringe Abweichung von einem bestimmten Wert,<br />
dem Mittelwert) sehr gut ist. In diesem Fall sind sowohl<br />
systematische als auch statistische Fehler sehr<br />
klein.<br />
− Abb. <strong>1.</strong>b zeigt eine Verteilung, bei der die Präzision<br />
zwar sehr gut, die Genauigkeit allerdings schlecht ist.<br />
Die hohe Präzision ist durch niedrige statistische<br />
Fehler bedingt und kann zu der Annahme führen, dass<br />
das Ergebnis optimal sei. Ein in die Messung eingegangener<br />
konstanter systematischer Fehler führt jedoch<br />
zu einer geringen Genauigkeit.<br />
− Abb. <strong>1.</strong>c zeigt ein Beispiel geringer Präzision, d.h. die<br />
Einzelmesswerte weichen stark vom Mittelwert ab. Die<br />
Genauigkeit vieler Einzelwerte ist ebenfalls gering,<br />
während die Genauigkeit des Mittelwertes recht gut<br />
ist. Die geringe Präzision kann sowohl durch statistische<br />
als auch durch systematische Fehler, wenn diese<br />
innerhalb einer Messreihe nicht konstant sind, hervorgerufen<br />
werden<br />
Abb. <strong>1.</strong>a.<br />
Abb. <strong>1.</strong>b.<br />
Abb. <strong>1.</strong>c.<br />
x 4 = 15.28<br />
so ist zunächst zu überprüfen, ob die einzelnen Messwerte auch repräsentativ<br />
sind. Repräsentativ heißt in diesem Zusammenhang ein Messwert, wenn er<br />
nicht zu weit vom wahren Wert abweicht. Da bei einer Messung im Gegensatz<br />
zum Scheibenmodell der wahre Wert aber meist unbekannt ist, erhebt sich die<br />
Frage, wie man den Wert bestimmt, der mit größter Wahrscheinlichkeit dem<br />
wahren Wert entspricht. Der Mathematiker GAUSS fand, dass der Mittelwert<br />
( x ) der Einzelmessung (x i) den wahrscheinlichsten wahren Wert darstellt.<br />
<strong>1.</strong>5.2. Verwerfen von Messwerten<br />
Da mit dem Mittelwert der wahrscheinlichste wahre Wert erreicht werden soll,<br />
müssen nicht repräsentative Messwerte schon vor der Mittelwertsbildung eliminiert<br />
werden. Bei vier Messwerten z. B. kann ein abweichender Wert mit<br />
99.3%iger Sicherheit verworfen werden, wenn die Differenz vom Mittelwert der<br />
anderen drei Werte viermal größer ist als die mittlere Abweichung dieser drei<br />
Werte. Überprüft wird dies für den Wert x 2.<br />
Messwerte: Mittelwert: Abweichungen:<br />
x 1 = 15.23 x =<br />
45.87<br />
3<br />
0.06<br />
x 2 = 15.36 = 15.29 0.07<br />
x 3 = 15.28 0.01<br />
0.14<br />
Mittel = ± 0.045<br />
<strong>1.</strong>5. die statistische Behandlung einer Messreihe<br />
<strong>1.</strong>5.<strong>1.</strong> Der Mittelwert, die wahrscheinlichste Annäherung an den wahren<br />
Wert<br />
Liegt nach der Durchführung der Messung eine Messreihe mit z. B. den folgenden<br />
Messwerten vor, x 1 = 15.23<br />
x 2 = 15.52<br />
x 3 = 15.36<br />
Die Abweichung des zweifelhaften Wertes x 2 = 15.52 vom Mittelwert x = 15.29<br />
beträgt 0.23. Das 0.23 größer ist als 4 x 0.045, ist der Wert x 2 zu verwerfen. Für<br />
die weitere <strong>Fehlerbetrachtung</strong> werden nur noch die restlichen drei Werte verwendet.
<strong>1.</strong>5.3. Die Standardabweichung, ein Maß für die Präzision<br />
Wird der Mittelwert als der wahrscheinlichste wahre Wert angenommen, so<br />
interessiert außerdem die Streubreite der Einzelmessungen von diesem Wert,<br />
gesucht ist also die Präzision. Ein Maß (Zahlenwert) für die Präzision ist die<br />
Standardabweichung des Mittelwertes. Die Standardabweichung, auch mittlerer<br />
Fehler des Mittelwertes genannt, berechnet sich nach folgender Formel:<br />
S x = ±<br />
∑<br />
(x − x1)<br />
n(n −1)<br />
Für das obige Beispiel ergibt sich S x<br />
zu:<br />
2<br />
S x<br />
= Standardabweichung vom Mittelwert<br />
x 1 = Einzelmessungen<br />
x = Mittelwert der x 1<br />
n = Anzahl der x i<br />
x i x - x i ( x - x 1) 2<br />
______________________________________________<br />
15.23 -0.06 0.0036<br />
15.36 0.07 0.0049<br />
15.28 -0.01 0.0001<br />
x = 15.29 0.0086<br />
S x<br />
= ±<br />
0,0086<br />
3x2<br />
= ± 3.786 x 10 -2<br />
<strong>1.</strong>6. Die Fehlergrenze (Genauigkeit) und Reproduzierbarkeit (Präzision)<br />
von Messgeräten<br />
Fehlergrenze und Reproduzierbarkeit von Geräten<br />
In Analogie zu den Begriffen Genauigkeit und Präzision einer Messung bzw.<br />
Messreihe sind für Geräte die Begriffe Fehlergrenze und Reproduzierbarkeit<br />
definiert.<br />
− Die Fehlergrenze gibt die erlaubte, maximale Abweichung einer Einzelmessung<br />
vom wahren Wert unter Vermeidung aller vermeidlichen systematischen<br />
Fehler an. Sie ist eine von Eichwesen festgelegte zulässige Größe,<br />
die von keinem Gerät überschritten werden darf. Der charakteristische<br />
Fehler des einzelnen Gerätes kann jedoch beliebig kleiner sein. Die Fehlergrenze<br />
liefert ein Maß für die Genauigkeit der Einzelmessung und damit<br />
natürlich auch für die der Geräte.<br />
− Unter der Reproduzierbarkeit (Standardabweichung) eines Gerätes ist die<br />
Annäherung einer Messreihe an einen bestimmten Wert zu verstehen (sie<br />
wird bei einer Waage nach ca. 100maligen Wägen eines beliebigen Stückes<br />
mit Hilfe der Formel für die Standardabweichung ermittelt). Die Reproduzierbarkeit<br />
liefert ein Maß für die Präzision einer Messreihe und damit auch<br />
für die der Geräte.<br />
Wichtig: im Zusammenhang mit den Fehler- und Reproduzierbarkeitsangaben<br />
ist, dass diese Werte nur die herstellungstechnischen Fehler an den Geräten<br />
erfassen. Zusätzliche systematische und statistische Fehler, die während der<br />
Messung vom Benutzer dieser Geräte gemacht werden, werden von diesen<br />
Werten nicht erfasst. Weiterhin sei darauf hingewiesen, dass diese Angaben nur<br />
dann auf die Geräte zutreffen, wenn sie fabrikneu sind. Besonders dann, wenn<br />
die Geräte nicht sachgemäß gehandhabt und gewartet werden, weicht die Genauigkeit<br />
und Präzision bald von den angegebenen Werten ab.<br />
Wie eingangs schon erwähnt, sind selbst die Messgeräte nicht ganz fehlerfrei,<br />
auch sie weisen sowohl systematische als auch statistische Fehler auf.