23.05.2014 Aufrufe

Einführung in die Messdatenanalyse für das Physikalische ...

Einführung in die Messdatenanalyse für das Physikalische ...

Einführung in die Messdatenanalyse für das Physikalische ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

„l<strong>in</strong>earer Zerfall“ zu verwerfen, während sich für den exponentiellen Zerfall e<strong>in</strong>e Wahrsche<strong>in</strong>lichkeit<br />

P(χ 2 ≥ 10.1)=68.6% ergibt, d. h. <strong>in</strong> etwa zwei von drei Experimenten werden wir<br />

Werte vonχ 2 m<strong>in</strong><br />

erhalten, <strong>die</strong> größer s<strong>in</strong>d, als wir sie im vorliegenden Experiment gefunden haben,<br />

<strong>in</strong> e<strong>in</strong>em von drei Experimenten werden im Mittel <strong>die</strong> Werte kle<strong>in</strong>er se<strong>in</strong>. Dies ist realistisch<br />

und damit ist <strong>die</strong> Theorie akzeptiert.<br />

4.3 Hypothesentests<strong>in</strong> derBayes’schen Statistik<br />

Wie bereits <strong>in</strong> Abschnitt 3.2 über Messunsicherheiten erwähnt, gew<strong>in</strong>nen <strong>die</strong> Methoden der<br />

Bayes’schen Statistik zunehmend an Bedeutung für <strong>die</strong> naturwissenschaftliche Datenanalyse<br />

[3, 4, 7, 8]. E<strong>in</strong>e E<strong>in</strong>führung <strong>in</strong> <strong>die</strong> Bayes’sche Statistik würde den Rahmen <strong>die</strong>ses Skriptes<br />

jedoch sprengen. Deshalb müssen wir den Leser auf <strong>die</strong> verfügbare Literatur verweisen (sehr<br />

gut für den E<strong>in</strong>stieg geeignet ist z. B. [8]) und werden uns im Folgenden auf e<strong>in</strong> paar wenige<br />

H<strong>in</strong>weise und e<strong>in</strong> Beispiel beschränken.<br />

Wie bereits mehrfach erwähnt, wird <strong>in</strong> der Bayes’schen Statistik e<strong>in</strong> anderer Wahrsche<strong>in</strong>lichkeitsbegriff<br />

zugrunde gelegt als <strong>in</strong> der konventionellen frequentistischen Sichtweise. Wahrsche<strong>in</strong>lichkeit<br />

wird nicht mehr nur als relative Häufigkeit verstanden, sondern gibt den Grad<br />

unserer Überzeugung an, mit dem wir auf der Basis der vorliegenden unvollständigen Information<br />

erwarten können, <strong>das</strong>s e<strong>in</strong> Ereignis e<strong>in</strong>tritt. Damit beschreibt Wahrsche<strong>in</strong>lichkeit eher <strong>die</strong><br />

Information, <strong>die</strong> wir über e<strong>in</strong>en Sachverhalt zur Verfügung haben. Diese kann uns als (empirische)<br />

Verteilung relativer Häufigkeiten vorliegen, kann aber auch von anderer Form se<strong>in</strong>. Wie<br />

sich auch <strong>in</strong> <strong>die</strong>sen Fällen Wahrsche<strong>in</strong>lichkeitsverteilungen e<strong>in</strong>deutig zuordnen lassen, haben<br />

wir im Abschnitt 3.2 bereits diskutiert.<br />

In der Bayes’schen Herangehensweise betrachtet man grundsätzlich bed<strong>in</strong>gte Wahrsche<strong>in</strong>lichkeiten.<br />

In <strong>die</strong>sem Kontext bedeutet z. B. P(A| B) <strong>die</strong> Wahrsche<strong>in</strong>lichkeit dafür, <strong>das</strong>s <strong>das</strong> Ereignis A<br />

e<strong>in</strong>tritt unter der Bed<strong>in</strong>gung, <strong>das</strong>s B vorliegt. Die Wahrsche<strong>in</strong>lichkeit, <strong>das</strong>s A und B tatsächlich zusammen<br />

auftreten ist dann P(A, B)= P(A| B)· P(B)= P(B| A)· P(A). Daraus folgt <strong>das</strong> Bayes’sche<br />

Theorem:<br />

P(B| A)· P(A)<br />

P(A| B)= , (66)<br />

P(B)<br />

welches grundsätzlich den Ausgangspunkt für e<strong>in</strong>e Datenanalyse im Rahmen der Bayes’schen<br />

Statistik bildet. Die Relevanz <strong>die</strong>ser zunächst abstrakten Überlegung erschließt sich, sobald man<br />

<strong>in</strong> Glg. (66) <strong>die</strong> Größen A und B durch Hypothese und Messdaten ersetzt. Dann liest sich obige<br />

Gleichung so:<br />

P(Hypothese| Daten)=<br />

P(Daten| Hypothese)· P(Hypothese)<br />

P(Daten)<br />

(67)<br />

Dabei wird <strong>die</strong> l<strong>in</strong>ke Seite der Gleichung P(Hypothese| Daten) <strong>die</strong> Posteriori-Wahrsche<strong>in</strong>lichkeit<br />

genannt. Sie setzt sich zusammen aus der Likelihood P(Daten| Hypothese), <strong>die</strong> auch <strong>in</strong><br />

der konventionellen Statistik verwendet wird, und der sogenannten Priori-Wahrsche<strong>in</strong>lichkeit<br />

P(Hypothese). Letztere stellt unseren Kenntnisstand vor der Messung dar und könnte so s<strong>in</strong>ngemäß<br />

auch als „Vorurteil“ bezeichnet werden. Glg. (67) zeigt dann auf, wie neue Messdaten<br />

unsere Kenntnis über e<strong>in</strong>en Sachverhalt modifizieren. Der Ausdruck P(Daten) im Nenner von<br />

Glg. (67) stellt lediglich e<strong>in</strong>en Normierungsfaktor dar.<br />

36

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!