25.05.2014 Aufrufe

FR Fehlerrechnung

FR Fehlerrechnung

FR Fehlerrechnung

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>FR</strong><br />

<strong>FR</strong><br />

<strong>Fehlerrechnung</strong><br />

1. Stichworte<br />

Statistische Verteilungen, Mittelwert, Standardabweichung, Fehlerfortpflanzung<br />

2. Grundlagen<br />

Im Physik-Praktikum werden Sie mit einfachen und grundlegenden Versuchen einzelne Teilgebiete<br />

der Physik kennenlernen. Sie werden die Versuche durchführen, Messergebnisse aufnehmen<br />

und diese auch auswerten. Zu jeder Messung und Auswertung, auch außerhalb der<br />

Physik, gehört es, diese qualitativ bewerten zu können. Um eine Aussage über die Qualität<br />

der Messwerte und der daraus errechneten Größen machen zu können, ist eine Bestimmung<br />

der Messunsicherheiten unumgänglich. Da dafür in der physikalischen Fachliteratur<br />

der Begriff <strong>Fehlerrechnung</strong> üblich ist, werden wir diesen (in Abweichung z.B. von der DIN)<br />

verwenden. Ein experimentell gefundener Wert ohne Angabe des Messfehlers ist wertlos.<br />

Ebenso unsinnig ist die Angabe der Abweichung eines gemessenen Wertes von einem Referenzwert,<br />

den man z.B. aus der Literatur kennt, solange die Messunsicherheit unbekannt ist.<br />

Nehmen Sie an, Sie müssten die Masse einer Goldmünze bestimmen. Dann ist eine Abweichung<br />

von 1 g zur angegebenen Masse bei einer Messunsicherheit von 10 g (z.B. Küchenwaage)<br />

völlig anders zu bewerten als bei einer Laborwaage mit 1 mg Messunsicherheit.<br />

Jede Messung einer Größe ist mit einer gewissen Unsicherheit behaftet. Die Bezeichnung<br />

Fehler kann etwas irritierend sein, da die Messung ja eigentlich nicht falsch, sondern lediglich<br />

ungenau ist. Vom zufälligen (oder auch statistischen) Fehler spricht man, wenn der<br />

Messprozess zufälligen Schwankungen unterworfen ist. Das können Ablesefehler sein, elektronisches<br />

Rauschen oder ähnliche zufällige Einflussgrößen. Wenn Vorzeichen und Größe<br />

der Abweichung zufällig sind, mitteln sich diese bei mehrfacher Messung allmählich heraus.<br />

Von systematischen Fehlern spricht man, wenn die Einflussgrößen auf die Messung konstante<br />

oder sich nur langsam ändernde Abweichungen vom wahren Wert bewirken.<br />

Ein gutes Beispiel für ein Messgerät mit Fehlern ist eine Analoguhr. Die Genauigkeit, mit<br />

der Sie die Zeigerstellung ablesen können, dominiert den zufälligen Fehler. Hinzu kommt bei<br />

einer Stoppuhr Ihre Reaktionsgeschwindigkeit. Diese Werte konvergieren gegen den wahren<br />

Wert, wenn Sie mehrmals ablesen. Geht die Uhr aber falsch (vor/nach, zu schnell/zu<br />

langsam), so wird eine mehrmalige Messung gegen diesen systematisch falschen Wert konvergieren.<br />

Hier hilft nur, die Uhr regelmäßig gegen eine bessere Uhr (z.B. das Zeitzeichen)<br />

abzugleichen oder eine bessere Uhr zu verwenden.<br />

Systematische Fehler sind daher prinzipiell korrigierbar, in der Regel durch Vergleichsnormale.<br />

Der Hersteller der Messgeräte betreibt bei der Kalibrierung allerdings nur endlichen<br />

Aufwand und gibt daher meist die systematischen Fehlergrenzen des Gerätes an (z.B. bei<br />

einer Uhr 1s/Tag). Bei Geräten, welche der Eichpflicht unterliegen (z.B. Handelswaagen),<br />

wird der max. systematische Fehler gesetzlich festgelegt, die sog. Eichfehlergrenze. Eine<br />

Eichung ist also eine amtliche Kalibrierung, wir werden daher im Praktikum nie eichen,<br />

höchstens kalibrieren.<br />

1


<strong>FR</strong><br />

<strong>Fehlerrechnung</strong><br />

Zufällige Abweichungen sind hingegen zunächst irgendwie statistisch verteilt. Gehen viele<br />

unabhängige Ursachen in die Abweichung ein, so ist die Größe nach C.F. Gauß normalverteilt.<br />

Dies bezeichnet man auch als den zentralen Grenzwertsatz der Stochastik.<br />

Sie können Ihre Messung also durch eine Mehrfachmessung dann verbessern, wenn die statistische<br />

Schwankung des Messwerts größer ist als die Auflösung des Messgeräts. Allerdings<br />

ist es unsinnig, den zufälligen Fehler durch Mehrfachmessung unter den systematischen Fehler<br />

senken zu wollen, woraus sich eine maximale Anzahl von sinnvollen Messwiederholungen<br />

ergibt.<br />

Am Beispiel der Goldmünze lässt sich das wieder illustrieren: Zeigt die Küchenwaage mit<br />

einer Skaleneinteilung von 10 g eine Masse von 30 g für die Münze an, so wird sie das<br />

auch bei jeder folgenden Messung tun. Eine Mehrfachmessung bringt hier nichts, auch weil<br />

der systematische Fehler bereits 10 g beträgt. Bei einer Laborwaage genügt aber bereits ein<br />

leichtes Wackeln am Tisch, um ein um mehrere mg abweichendes Ergebnis zu bekommen.<br />

Hier hilft eine Mehrfachmessung.<br />

Ein Spezialfall sind diskrete Größen: Wenn Sie drei Äpfel auf dem Tisch liegen haben, werden<br />

Sie auch bei der hundersten Zählung drei Äpfel haben (es sei denn, Sie können nicht bis<br />

drei zählen, aber das wäre ein systematischer Fehler). Anders sieht es aus, wenn die Messgröße<br />

selbst statistischer Natur ist, z.B. der radioaktive Zerfall. Dann werden werden Sie bei<br />

gleicher Messzeit jedesmal eine andere Zahl von Zerfällen messen, die um einen mittleren<br />

Wert schwanken (allerdings diesmal nicht normal-, sondern Poisson-verteilt.)<br />

Die Häufigkeit Ihrer Messwerte x verteilen sich also mit einer Gaußfunktion um den zentralen<br />

Wert µ, dem für unendlich viele Messungen der Mittelwert x zustrebt: Dieser zentrale<br />

Wert weicht nur noch um den systematischen Fehler vom wahren Wert ab.<br />

f(x) =<br />

1 (x − µ)2<br />

√ exp<br />

2πσ<br />

2 2σ 2<br />

(<strong>FR</strong>.1)<br />

Das arithmetische Mittel<br />

x = 1 n<br />

n∑<br />

i=1<br />

x i<br />

(<strong>FR</strong>.2)<br />

aus den n Einzelmessungen x i ist dabei die beste Näherung für den zentralen Wert µ. Die<br />

Breite σ gibt an, wie stark die Einzelmessung um den zentralen Wert streut. Die beste Näherung<br />

für sigma bei einer endlichen Zahl von Messungen ist die sogenannte Standardabweichung<br />

s.<br />

s = √ 1<br />

n − 1<br />

n∑<br />

(x i − x) 2 (<strong>FR</strong>.3)<br />

Dass im Nenner n − 1 und nicht n steht, lässt sich am besten mit n = 2 Messwerten begründen:<br />

Der Mittelwert liegt genau zwischen diesen Werten und die Abweichung vom<br />

2<br />

i=1


Grundlagen<br />

<strong>FR</strong><br />

Abbildung <strong>FR</strong>.1: Aufgetragen ist hier die Häufigkeit des Messwerts über den Messwert bei<br />

250 Messungen, mit der einhüllenden Gaußfunktion.<br />

Mittelwert ist für beide Messwerte gleich und allein durch den Abstand der beiden Messwerte<br />

gegeben. Man darf also nur über einen Wert mitteln. Entsprechend ergeben sich zwei<br />

unabhängige Abweichungen bei 3 Messwerten usw. Dies wird auch als Besselkorrektur bezeichnet.<br />

Für eine große Zahl von Messungen konvergiert s gegen σ, also eine konstante<br />

Größe, die allein Eigenschaft des Messprozesses ist.<br />

Entscheidend ist bei einer Mehrfachmessung jedoch die Standardabweichung s m des Mittelwerts:<br />

s m = s/ √ n<br />

(<strong>FR</strong>.4)<br />

Sie geht also für unendlich viele Messungen gegen Null. Ist n endlich, so ist auch der Mittelwert<br />

gaußverteilt. Interpretiere ich s m als zufälligen Fehler, so liegen nur ca. 68 % der Messwerte<br />

innerhalb des Intervalls µ ± s m . Damit liegt meine Irrtumswahrscheinlichkeit bei ca.<br />

32 %. In der Praxis verwendet man allerdings sinnvollerweise kleinere Irrtumswahrscheinlichkeiten<br />

und muss damit die Intervalle um den Mittelwerte (die sog. Vertrauensintervalle,<br />

3


<strong>FR</strong><br />

<strong>Fehlerrechnung</strong><br />

denn hier vertraue ich den Messwerten) vergrößern: bei 2s m 5%, bei3s m 0, 2%. Im Praktikum<br />

arbeiten wir mit dem zufälligen Fehler ∆x = 2s m .<br />

Hängt das endgültige Messergebnis f von mehreren fehlerbehafteten Messgrößen (z.B. x<br />

und y) ab und sind diese statistisch unabhängig und normalverteilt, so kann man zeigen, dass<br />

die resultierende Größe ebenfalls normalverteilt ist mit dem resultierenden Fehler:<br />

δf =<br />

√<br />

( ∂f<br />

∂x δx)2 + ( ∂f<br />

∂y δy)2<br />

(<strong>FR</strong>.5)<br />

Diese quadratische Addition bezeichnet man als Gaußsches Fehlerfortpflanzungsgesetz. Es<br />

gilt nur für zufällige, unabhängige Fehlergrößen. Systematische Fehler sind aber konstant<br />

und daher linear zu addieren!<br />

4

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!