23.05.2014 Aufrufe

Einführung in die Messdatenanalyse für das Physikalische ...

Einführung in die Messdatenanalyse für das Physikalische ...

Einführung in die Messdatenanalyse für das Physikalische ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

E<strong>in</strong>führung<strong>in</strong> <strong>die</strong><br />

<strong>Messdatenanalyse</strong> für<strong>das</strong><br />

<strong>Physikalische</strong> Grundpraktikum<br />

Thomas Blochowicz<br />

Franco Laeri<br />

17.November 2011<br />

0.03<br />

N(x;µ,σ) µ<br />

0.02<br />

µ − σ<br />

68.3%<br />

µ + σ<br />

0.01<br />

0 20 40 60 80 100<br />

x


Inhaltsverzeichnis<br />

1 Datenanalyseund Messunsicherheiten 2<br />

2 Grundlagen derkonventionellen Statistik 6<br />

2.1 Charakterisierung e<strong>in</strong>es Datensatzes: Mittelwert und Streuung . . . . . . . . . . . . 6<br />

2.1.1 Schätzung der Qualität des Mittelwertes . . . . . . . . . . . . . . . . . . . . . 7<br />

2.2 Häufigkeitsverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

2.2.1 Allgeme<strong>in</strong>es über Zufallsgrößen und deren Verteilung . . . . . . . . . . . . . 8<br />

2.2.2 Die B<strong>in</strong>omialverteilung B n (p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

2.2.3 Die Poissonverteilung P µ (k) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

2.2.4 Das Histogramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

2.2.5 Die Normalverteilung N(x;µ,σ) . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

2.2.6 Der Zentrale Grenzwertsatz (Central Limit Theorem) . . . . . . . . . . . . . 15<br />

2.3 Der Begriff des Konfidenz<strong>in</strong>tervalls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

2.3.1 Die Student’sche t-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

3 AngabevonMessunsicherheitennach GUM 20<br />

3.1 Typ A Messunsicherheiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

3.2 Typ B Messunsicherheiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

3.3 Das Pr<strong>in</strong>zip der maximalen Informationsentropie (PME) . . . . . . . . . . . . . . . . 21<br />

3.4 Die Fortpflanzung von Messunsicherheiten . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

4 BeurteilendeDatenanalyse 28<br />

4.1 Hypothesentests <strong>in</strong> der konventionellen Statistik . . . . . . . . . . . . . . . . . . . . . 28<br />

4.1.1 Hypothesentest <strong>in</strong> e<strong>in</strong>er e<strong>in</strong>fachen Situation . . . . . . . . . . . . . . . . . . . 28<br />

Beispiel: Das Stromnormal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29<br />

4.2 Derχ 2 -Test: Vergleiche Theorie und Experiment . . . . . . . . . . . . . . . . . . . . . 30<br />

4.2.1 Vergleiche Datensatz mit hypothetischer Verteilungϕ(x) . . . . . . . . . . . 31<br />

Beispiel: Mendels Erbsen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />

4.2.2 Vergleich e<strong>in</strong>er Messreihe y i (x i ) mit theoretischer Voraussageη(x) . . . . . 33<br />

Beispiel: Der Zerfall von Bierschaum . . . . . . . . . . . . . . . . . . . . . . 34<br />

4.3 Hypothesentests <strong>in</strong> der Bayes’schen Statistik . . . . . . . . . . . . . . . . . . . . . . . 36<br />

Beispiel: Das Stromnormal – Fortsetzung . . . . . . . . . . . . . . . . . . . . 38<br />

A Die p-Quantilederχ 2 -Verteilung 43<br />

1


1 Datenanalyseund Messunsicherheiten<br />

In den Naturwissenschaften bilden Messverfahren und Messdaten <strong>die</strong> Grundlage, um quantitative<br />

Aussagen über physikalische Größen zu ermöglichen. Dabei soll der Erfahrungsprozess<br />

dem subjektiven E<strong>in</strong>fluss des beobachtenden Individuums soweit es geht entzogen, und <strong>die</strong><br />

Erfahrung so objektiviert werden. Messdaten s<strong>in</strong>d daher <strong>die</strong> Säulen, auf denen <strong>die</strong> modernen<br />

Wissenschaften stehen. Dementsprechend hoch s<strong>in</strong>d <strong>die</strong> Ansprüche, <strong>die</strong> wir als Wissenschaftler<br />

an <strong>die</strong> Qualität unserer Messdaten stellen müssen.<br />

Auf der anderen Seite wissen wir aber auch, <strong>das</strong>s moderne Messmethoden äußerst aufwändig<br />

s<strong>in</strong>d. Messdaten müssen im Allgeme<strong>in</strong>en mit e<strong>in</strong>em großen E<strong>in</strong>satz von Arbeit und Kosten<br />

gesammelt werden. Von daher s<strong>in</strong>d Messdaten e<strong>in</strong>e kostbare Sache und es liegt <strong>in</strong> der Verantwortung<br />

jedes Wissenschaftlers, überlegt und sorgfältig mit den Daten umzugehen.<br />

Messdaten s<strong>in</strong>d dabei grundsätzlich immer mit Unsicherheiten behaftet, d. h. unsere Information<br />

über e<strong>in</strong>e Messgröße ist immer <strong>in</strong> gewissem Maße unvollständig. Im alltäglichen Leben<br />

s<strong>in</strong>d wir es dabei meist gewohnt implizit anzunehmen, <strong>das</strong>s auftretende Messunsicherheiten<br />

kle<strong>in</strong> genug s<strong>in</strong>d, um e<strong>in</strong>en s<strong>in</strong>nvollen Umgang mit den jeweiligen Messgrößen zu ermöglichen<br />

(z. B. Waage beim Metzger) und <strong>in</strong> vielen Fällen wird <strong>die</strong>s auch z. B. durch Vorschriften des<br />

gesetzlichen Eichwesens sichergestellt. Im Gegensatz dazu ist jedoch e<strong>in</strong>e explizite Angabe von<br />

Messunsicherheiten <strong>in</strong> den Naturwissenschaften stets zw<strong>in</strong>gend erforderlich:<br />

Die Angabe des Messwertes e<strong>in</strong>er physikalischen Größe ist ohne Angabe der zugehörigen<br />

Unsicherheit wissenschaftlich wertlos. Die Unsicherheit beschreibt dabei <strong>die</strong> Qualität der<br />

Information, <strong>die</strong> im Messergebnis enthalten ist.<br />

Die Unsicherheitsangabe erfolgt dabei gemäß:<br />

Messwert±Unsicherheit (1)<br />

Darüber h<strong>in</strong>aus ist es wichtig, <strong>das</strong>s Unsicherheiten <strong>in</strong>ternational auf e<strong>in</strong>heitliche Weise ermittelt<br />

und angegeben werden. Nur so ist es beispielsweise möglich, Messdaten verschiedener Arbeitsgruppen<br />

untere<strong>in</strong>ander zu vergleichen oder <strong>die</strong> Resultate e<strong>in</strong>er neuen Theorie anhand des Pools<br />

weltweit gesammelter Daten zu e<strong>in</strong>er physikalischen Größe zu überprüfen.<br />

Der derzeit de facto weltweit akzeptierte Standard zur Angabe von Messunsicherheiten wird<br />

dabei durch den Guide to the Expression of Uncerta<strong>in</strong>ty <strong>in</strong> Measurement (kurz: GUM [1]) festgelegt.<br />

Er wird mittlerweile vom Jo<strong>in</strong>t Committee for Guides <strong>in</strong> Metrology (JCGM) herausgegeben,<br />

dem sowohl <strong>die</strong> Internationale Organisation für Normung (ISO) <strong>in</strong> Genf als auch <strong>das</strong> Bureau<br />

International des Poids et Mesures (BIPM) <strong>in</strong> Paris angehören.<br />

Gemäß GUM lautet <strong>die</strong> <strong>in</strong>ternational vere<strong>in</strong>barte Def<strong>in</strong>ition des Begriffes Messunsicherheit [1]:<br />

Messunsicherheit ist e<strong>in</strong> Parameter, der dem Messergebnis beigeordnet ist und der <strong>die</strong> Streuung<br />

derjenigen Schätzwerte kennzeichnet, <strong>die</strong> der Messgröße auf der Basis vorliegender<br />

Information vernünftiger Weise zugewiesen werden können.<br />

Wie genau <strong>die</strong>se Zuweisung quantitativ zu erfolgen hat, ist im Folgenden zu klären. Interessant<br />

an <strong>die</strong>ser Stelle ist, <strong>das</strong>s es sich bei der Unsicherheit um e<strong>in</strong>e Größe handelt, <strong>die</strong> Information<br />

2


charakterisiert: Sie beschreibt unsere reale, nach dem Stand der vorliegenden Informationen<br />

unvollständige Kenntnis der Messgröße.<br />

Im Gegensatz dazu steht der Begriff der Messabweichung (früher: Messfehler). Er basiert auf<br />

der Annahme, <strong>das</strong>s e<strong>in</strong>er Messgröße zum<strong>in</strong>dest hypothetisch e<strong>in</strong> e<strong>in</strong>deutiger “wahrer Wert” zugeordnet<br />

werden kann.<br />

Messabweichung bezeichnet dann <strong>die</strong> Differenz des Messwertes zu dem “wahren Wert” der<br />

Messgröße.<br />

Messabweichungen s<strong>in</strong>d deshalb ebenso wie der wahre Wert e<strong>in</strong>er Messgröße grundsätzlich nie<br />

genau bekannt und können höchstens abgeschätzt werden. Als Ursachen für <strong>die</strong> Messabweichungen<br />

unterscheidet man üblicher Weise systematische und zufällige E<strong>in</strong>flüsse.<br />

Zufällige Abweichungen zeigen sich dar<strong>in</strong>, <strong>das</strong>s bei wiederholten Messungen unter den selben<br />

Bed<strong>in</strong>gungen im Allgeme<strong>in</strong>en nicht der gleiche Messwert resultiert sondern zufällige<br />

Schwankungen um e<strong>in</strong>en Mittelwert auftreten. Manchmal ist <strong>die</strong> Ursache <strong>die</strong>ser Abweichungen<br />

bekannt. Immer aber gilt, <strong>das</strong>s sie pr<strong>in</strong>zipell nicht elim<strong>in</strong>iert werden können.<br />

Beispiele wären Lagerreibung, Erschütterungen, elektronisches Rauschen o. ä. Man kann<br />

sogar sagen, <strong>das</strong>s an e<strong>in</strong>em Messdatensatz, der ke<strong>in</strong>e oder zu ger<strong>in</strong>ge Schwankungen aufweist,<br />

etwas „faul“ se<strong>in</strong> muss, wie wir an e<strong>in</strong>em Beispiel im Zusammenhang mit demχ 2 -<br />

Test sehen werden. Durch häufiges Wiederholen der Messung und entsprechende Mittelwertbildung<br />

kann der E<strong>in</strong>fluss der zufälligen Abweichungen aber verr<strong>in</strong>gert werden.<br />

Systematische Abweichungen fließen auf systematische Weise <strong>in</strong> <strong>die</strong> Messung e<strong>in</strong>, d. h. sie bee<strong>in</strong>flussen<br />

alle Messwerte <strong>in</strong> gleicher Weise. E<strong>in</strong>ige E<strong>in</strong>flüsse <strong>die</strong>ser Art können durch sorgfältigeres<br />

Arbeiten ganz vermieden werden (sog. grobe Messabweichungen). Andere s<strong>in</strong>d<br />

bekannt oder können durch Referenzmessungen bestimmt werden, so <strong>das</strong>s der Messwert<br />

korrigiert werden kann. Wieder andere Abweichungen lassen sich nur <strong>in</strong> gewissen Grenzen<br />

abschätzen und wiederum andere bleiben u. U. vollständig unerkannt und erweisen<br />

sich erst nachdem z. B. <strong>die</strong> gleiche Größe mit unterschiedlichen experimentellen Methoden<br />

untersucht wurde. Die Ursache systematischer Messabweichungen kann <strong>in</strong> der Konstruktion<br />

der Messapparatur verborgen se<strong>in</strong>, e<strong>in</strong>er fehlerhaften Kalibrierung, e<strong>in</strong>er unbemerkten<br />

Veränderung der Messbed<strong>in</strong>gungen (z. B. Temperatur) und ähnlichen Überraschungen. Typisch<br />

ist dabei, <strong>das</strong>s sich der E<strong>in</strong>fluss systematischer Messabweichungen durch häufiges<br />

Wiederholen der Messungen und Mittelwertbildung nicht reduzieren lässt.<br />

Die vorangegangene Unterscheidung zufälliger und systematischer Messabweichungen ist jedoch<br />

nicht immer e<strong>in</strong>deutig: So können systematische Messabweichungen auch statistischer<br />

Natur se<strong>in</strong>. Beispielsweise stellt <strong>die</strong> H<strong>in</strong>tergrund-Zählrate bei e<strong>in</strong>em kernphysikalischen Experiment<br />

e<strong>in</strong>e (korrigierbare) systematische Messabweichung dar, <strong>die</strong> hervorgerufen wird durch<br />

natürliche H<strong>in</strong>tergrundstrahlung. Möchte man <strong>in</strong> e<strong>in</strong>em Experiment z. B. <strong>die</strong> Aktivität e<strong>in</strong>es Präparates<br />

mit e<strong>in</strong>em Geigerzähler bestimmen, so wird dabei <strong>die</strong> Zählrate systematisch um den Wert<br />

der H<strong>in</strong>tergrund-Zählrate zu groß ausfallen. Der physikalische Prozess, der <strong>die</strong>ser Abweichung<br />

zugrunde liegt, ist se<strong>in</strong>er Natur nach jedoch e<strong>in</strong> statistischer Prozess, und wie groß <strong>die</strong> Abweichung<br />

<strong>in</strong> e<strong>in</strong>em bestimmten Zeit<strong>in</strong>tervall ausfällt ist zufällig. Um Zweideutigkeiten solcher Art<br />

zu vermeiden, wird daher im GUM e<strong>in</strong>e etwas andere Unterscheidung getroffen. Diese bezieht<br />

sich dabei nicht auf <strong>die</strong> (unbekannte) Messabweichung sondern auf <strong>die</strong> Messunsicherheit, d. h.<br />

den Informationsgehalt der gewonnenen Daten:<br />

3


statistisch<br />

konventionelle Statistik<br />

Information<br />

Bayes’sche Statistik<br />

nicht-statistisch<br />

separate Abschätzung<br />

Abbildung 1: Bei der Bestimmung von Messunsicherheiten spielen meist sowohl statistische als<br />

auch nicht-statistische Informationen e<strong>in</strong>e Rolle. Die konventionelle frequentistische<br />

Statistik kann dabei nur <strong>die</strong> statistischen Informationen verwerten, alle anderen<br />

Informationen müssen getrennt davon verarbeitet werden. Die Bayes’sche<br />

Statistikh<strong>in</strong>gegen verwertetbeide Arten vonInformationauf<strong>die</strong>gleiche Weise.<br />

Typ AUnsicherheiten s<strong>in</strong>d Messunsicherheiten, <strong>die</strong> durch e<strong>in</strong>e statistische Auswertung wiederholter<br />

Messungen bestimmt wurden<br />

Typ B Unsicherheiten s<strong>in</strong>d Messunsicherheiten, <strong>die</strong> auf e<strong>in</strong>e andere Weise bestimmt wurden.<br />

In <strong>die</strong>sem S<strong>in</strong>ne wären im obigen Beispiel sowohl <strong>die</strong> Unsicherheit bei der Zählrate des radioaktiven<br />

Präparates, als auch <strong>die</strong> Unsicherheit, <strong>die</strong> von der Messung der H<strong>in</strong>tergrundstrahlung<br />

herrührt, Unsicherheiten vom Typ A.<br />

Als Grundlage zur Bestimmung von Typ B Unsicherheiten kommen unterschiedlichste Möglichkeiten<br />

<strong>in</strong> Frage, z. B.:<br />

• Informationen aus Vormessungen, Angaben <strong>in</strong> der Literatur<br />

• Erfahrung oder allgeme<strong>in</strong>es Wissen über <strong>das</strong> Verhalten bestimmter Messgeräte<br />

• Herstellerangaben, z. B. über Genauigkeitsklassen von Bauteilen oder Messgeräten<br />

• Referenzdaten aus Handbüchern<br />

• . . .<br />

Auch wenn es grundsätzlich vorzuziehen ist, Unsicherheiten nach Methode A zu bestimmen,<br />

wird man als Experimentator generell häufig darauf angewiesen se<strong>in</strong>, e<strong>in</strong>e Unsicherheitsabschätzung<br />

aus nicht-statistischen Informationen nach Typ B vorzunehmen. Insbesondere systematische<br />

Messabweichungen lassen sich häufig nur nach Typ B e<strong>in</strong>schätzen.<br />

Wichtig ist nun, <strong>das</strong>s nur Unsicherheiten, <strong>die</strong> auf statistischen Informationen beruhen, also solche,<br />

<strong>die</strong> aus häufigen Wiederholmessungen bestimmt wurden, mit den Mitteln der konventionellen<br />

mathematischen Statistik erfassbar s<strong>in</strong>d. Im Rahmen <strong>die</strong>ses Ansatzes müssten deshalb<br />

Unsicherheitsbeiträge, <strong>die</strong> anders als statistisch abgeschätzt wurden, von den statistischen Beiträgen<br />

getrennt angegeben und weiterverarbeitet werden. E<strong>in</strong>e e<strong>in</strong>fache Angabe gemäß Glg. (1)<br />

wäre dann nicht mehr ausreichend. Insbesondere auch <strong>die</strong> Fortpflanzung von Unsicherheiten<br />

(s. Abschnitt 3.4) <strong>in</strong> dem Fall, <strong>das</strong>s e<strong>in</strong>e Größe nur <strong>in</strong>direkt messbar ist, müsste für <strong>die</strong> statistischen<br />

und nicht-statistischen Anteile getrennt vorgenommen werden [2].<br />

Im Gegensatz dazu zeigt es sich, <strong>das</strong>s, wenn man vom Wahrsche<strong>in</strong>lichkeitsbegriff der konventionellen<br />

Statistik zu dem der sog. Bayes’schen Statistik übergeht, beide Arten von Unsicherheiten<br />

auf e<strong>in</strong>er geme<strong>in</strong>samen Basis behandelt werden können, ja sogar, <strong>das</strong>s ke<strong>in</strong> wirklicher Unterschied<br />

mehr zwischen beiden Arten der Unsicherheitsermittlung besteht [1, 3]. Während der<br />

4


Wahrsche<strong>in</strong>lichkeitsbegriff <strong>in</strong> der konventionellen frequentistischen Statistik auf relativen Häufigkeiten<br />

basiert, 1 charakterisiert er <strong>in</strong> der Bayes’schen Herangehensweise <strong>die</strong> unvollständige<br />

Kenntnis über <strong>das</strong> E<strong>in</strong>treten von Ereignissen auf der Basis der vorliegenden Information. Diese<br />

Information kann, anders als <strong>in</strong> der konventionellen Statistik, auch nicht-statistscher Natur se<strong>in</strong>.<br />

Dies ist <strong>in</strong> Abb. 1 verdeutlicht. E<strong>in</strong>e derart gewonnene Unsicherheitsangabe kann dann, ungeachtet<br />

der Tatsache ob statistische, nicht-statistische oder beiderlei Information <strong>in</strong> ihre Bestimmung<br />

e<strong>in</strong>gegangen s<strong>in</strong>d, e<strong>in</strong>heitlich gemäß Glg. (1) angegeben werden. Auch <strong>die</strong> Fortpflanzung<br />

von Unsicherheiten lässt sich dann auf e<strong>in</strong>e e<strong>in</strong>fache und e<strong>in</strong>heitliche Weise realisieren. Aus<br />

<strong>die</strong>sem Grunde stützt sich der GUM entscheidend auf <strong>die</strong> Konzepte der Bayes’schen Statistik,<br />

<strong>in</strong>sbesondere zur Ermittlung von Typ B Unsicherheiten [1]. E<strong>in</strong>e weiterführende Analyse [3]<br />

und neuere Ergänzungen zum GUM [4] zeigen dann, <strong>das</strong>s im Rahmen der Bayes’schen Statistik<br />

e<strong>in</strong>e e<strong>in</strong>heitliche Behandlung aller Unsicherheiten möglich ist, so <strong>das</strong>s <strong>die</strong> Unterscheidung der<br />

Unsicherheiten nach Typ A/B letztendlich h<strong>in</strong>fällig wird.<br />

Um den Rahmen des vorliegenden Skriptes, <strong>das</strong> vorwiegend zum Gebrauch im <strong>Physikalische</strong>n<br />

Grundpraktikum gedacht ist, nicht zu sprengen, können wir <strong>die</strong> Ideen der Bayes’schen Statistik,<br />

wie sie für <strong>die</strong> Unsicherheitsbetrachtungen relevant s<strong>in</strong>d, im Abschnitt 3 nur andeuten und werden<br />

uns da auf e<strong>in</strong>ige wenige handwerkliche Aspekte beschränken. Zuvor sollen zunächst e<strong>in</strong>ige<br />

Grundlagen der konventionellen mathematischen Statistik zusammengestellt werden (Abschnitt<br />

2), bevor schließlich im Abschnitt 4 anhand weniger Beispiele e<strong>in</strong> E<strong>in</strong>blick <strong>in</strong> <strong>die</strong> sog. beurteilende<br />

<strong>Messdatenanalyse</strong> gegeben werden soll, <strong>die</strong> z. B. untersucht ob e<strong>in</strong> theoretisches Modell mit<br />

gegebenen Messdaten verträglich ist oder nicht. Auch hier liegt zunächst <strong>die</strong> Betonung auf den<br />

Verfahren der konventionellen Statistik. Im Abschnitt 4.3 wird dann abschließend anhand e<strong>in</strong>es<br />

Beispiels noch e<strong>in</strong> kurzer Ausblick auf <strong>die</strong> entsprechenden Verfahren der Bayes’schen Statistik<br />

gegeben.<br />

1<br />

Wahrsche<strong>in</strong>lichkeit e<strong>in</strong>es Ereignisses ist <strong>die</strong> relative Häufigkeit des Ereignisses, ermittelt auf der Grundlage<br />

unendlich vieler Messungen unter gleichen Bed<strong>in</strong>gungen.<br />

5


2 Grundlagender konventionellen Statistik<br />

2.1 Charakterisierung e<strong>in</strong>esDatensatzes:Mittelwert undStreuung<br />

Wir beg<strong>in</strong>nen mit der Annahme, <strong>das</strong>s <strong>die</strong> <strong>in</strong>teressierende physikalische Größe X sorgfältig gemessen<br />

wurde, und nun liege der Datensatz{x i }={x 1 , x 2 , . . ., x n } vor.<br />

Bei der Durchsicht der Messdaten kann nun auffallen, <strong>das</strong>s e<strong>in</strong>zelne Werte besonders augenfällig<br />

vom Rest der anderen abweichen. In <strong>die</strong>sem Fall ist es entscheidend zu prüfen, ob der<br />

begründete Verdacht besteht, <strong>das</strong>s bei der entsprechenden Messung e<strong>in</strong> Fehler unterlaufen ist.<br />

Es wäre uns<strong>in</strong>nig, Messwerte <strong>in</strong> der Analyse zu verwenden, <strong>die</strong> sachlich begründet als fehlerhaft<br />

verdächtigt werden und so bleiben solche Werte <strong>in</strong> der Regel unberücksichtigt. Andererseits ist<br />

jede Form der Manipulation an e<strong>in</strong>em Datensatz als grundsätzlich fragwürdig e<strong>in</strong>zuschätzen:<br />

E<strong>in</strong> stark abweichender Messwert kann, wenn er „echt“ ist, auch auf e<strong>in</strong>en vielleicht unerwarteten<br />

physikalischen Effekt h<strong>in</strong>deuten. In jedem Fall s<strong>in</strong>d daher ermittelte Ausreißer als solche<br />

zu dokumentieren! Für <strong>das</strong> Folgende setzen wir voraus, <strong>das</strong>s <strong>die</strong> betrachteten Datensätze von<br />

solchen Ausreißern korrekt befreit wurden.<br />

In <strong>die</strong>sem Datensatz gibt es e<strong>in</strong>en m<strong>in</strong>imalen und e<strong>in</strong>en maximalen Wert, x m<strong>in</strong> bzw. x max<br />

zwischen denen <strong>die</strong> erhaltenen Messwerte streuen. In Rahmen der konventionellen Statistik<br />

versteht man nun den vorliegenden Datensatz als Stichprobe aus der Grundgesamtheit unendlich<br />

vieler Messungen der Größe X, <strong>die</strong> unter den gleichen Bed<strong>in</strong>gungen durchgeführt wurden.<br />

Der unbekannte Erwartungswert oder Mittelwert <strong>die</strong>ser Grundgesamtheit, oft auch als “wahrer<br />

Wert” der Messgröße X bezeichnet, kann nun durch unseren Datensatz abgeschätzt werden. Es<br />

zeigt sich, <strong>das</strong>s der empirische Mittelwert des Datensatzes den besten Schätzwert dafür liefert:<br />

empirischer Mittelwert des Datensatzes:<br />

¯x= x 1+ x 2 +···+ x n<br />

n<br />

= 1 n<br />

n∑<br />

x i (2)<br />

i=1<br />

Die Schwankungsbreite, Streuung, der Daten um den Mittelwert ¯x wird durch ihr mittleres<br />

Abstandsquadrat zum Mittelwert, der Standardabweichung s charakterisiert:<br />

∑<br />

(xi − ¯x) 2<br />

empirische Standardabweichung des Datensatzes s=<br />

n−1<br />

(3)<br />

Das Quadrat der Standardabweichung heißt Varianz s 2 . Der Grund dafür, <strong>das</strong>s im Nenner von<br />

(3) der Faktor n−1 anstelle von n auftaucht liegt im Pr<strong>in</strong>zip dar<strong>in</strong>, <strong>das</strong>s <strong>die</strong> Summe wegen<br />

des dar<strong>in</strong> enthaltenen arithmetischen Mittels ¯x, welches <strong>die</strong> Daten x i des Datensatzes bereits<br />

enthält, nur n−1 unabhängige Summanden enthält. E<strong>in</strong>e genauere Begründung gibt es weiter<br />

unten im Abschnitt 2.2.1. Dort zeigt sich dann, <strong>das</strong>s s 2 gemäß Glg. (3) def<strong>in</strong>iert, den besten<br />

Schätzwert für <strong>die</strong> Varianzσ 2 der Grundgesamtheit liefert.<br />

Anschaulich ist zunächst klar, <strong>das</strong>s e<strong>in</strong> „guter“ Datensatz durch e<strong>in</strong>e kle<strong>in</strong>e Streuung repräsentiert<br />

wird, d.h. <strong>die</strong> Standardabweichung s ist e<strong>in</strong> Maß für <strong>die</strong> Qualität des vorliegenden<br />

Datensatzes. Will man nun den Mittelwert als Schätzwert für <strong>die</strong> Messgröße, als Ergebnis angeben,<br />

müsste man sich aber eigentlich mit der Qualität des Mittelwertes befassen.<br />

6


2.1.1 Schätzung derQualität des Mittelwertes<br />

Wie könnte man also <strong>die</strong> Qualität des Mittelwertes ermitteln? Warum nicht so, wie wir <strong>die</strong><br />

Qualität des Datensatzes ermittelt haben? Also: Wir müssen uns e<strong>in</strong>en Datensatz von Mittelwerten<br />

beschaffen. Nun, <strong>die</strong>s bedeutet Arbeit, denn wir müssen <strong>die</strong> ursprüngliche Messreihe<br />

wiederholen. Damit erhalten wir e<strong>in</strong>en zusätzlichen Datensatz, der uns e<strong>in</strong>en neuen Mittelwert<br />

liefert. Dann könnten wir <strong>die</strong>se Prozedur wiederholen und nochmals wiederholen und . . . Am<br />

Ende hätten wir e<strong>in</strong>e große Anzahl Datensätze mit dazugehörenden Mittelwerten vorliegen. Die<br />

so ermittelte Folge von Mittelwerten wird immer noch um den (unbekannten) Mittelwert der<br />

Grundgesamtheit (“wahrer Wert”) schwanken, aber sicher <strong>in</strong> e<strong>in</strong>em ger<strong>in</strong>geren Maße, als <strong>das</strong><br />

<strong>die</strong> e<strong>in</strong>zelnen Datensätze tun. Die Schwankungsbreite der Mittelwerte s¯x wird also kle<strong>in</strong>er se<strong>in</strong><br />

als s und abnehmen, je mehr e<strong>in</strong>zelne Datenpunkte <strong>in</strong> <strong>die</strong> Mittelung e<strong>in</strong>gehen.<br />

Die mathematische Statistik erlaubt es uns nun, auf <strong>die</strong>se umständliche Prozedur, e<strong>in</strong>e Vielzahl<br />

von Messreihen durchzuführen, zu verzichten. Die Theorie sagt, <strong>das</strong>s <strong>die</strong> Schwankungsbreite der<br />

Mittelwerte s¯x bereits aus e<strong>in</strong>em e<strong>in</strong>zigen Datensatz abgeschätzt werden kann. Es ist nämlich s¯x<br />

mit der Standardabweichung s e<strong>in</strong>es e<strong>in</strong>zelnen Datensatzes auf e<strong>in</strong>e e<strong>in</strong>fache Weise verknüpft,<br />

wie man leicht aus der Varianz e<strong>in</strong>er Summe von Zufallsgrößen ableiten kann, siehe Abschnitt<br />

2.2.1 oder auch [5, 6]:<br />

Schätzwert für <strong>die</strong> Schwankungsbreite des Mittelwertes<br />

s¯x = s<br />

n<br />

s¯x =<br />

∑(xi<br />

− ¯x) 2<br />

n(n−1)<br />

(4)<br />

Nun s<strong>in</strong>d wir <strong>in</strong> der Lage, den besten Schätzwert der Messgröße ¯x zusammen mit der Unsicherheit<br />

anzugeben, also e<strong>in</strong> Intervall anzugeben, <strong>das</strong> <strong>die</strong> Streuung derjenigen Werte kennzeichnet,<br />

<strong>die</strong> der Messgröße s<strong>in</strong>nvoll als Schätzwerte zugewiesen werden können.<br />

x=¯x± s¯x (5)<br />

Welche genaue Bedeutung <strong>die</strong>se Angabe hat werden wir später im Zusammenhang mit der<br />

Normalverteilung und dem Zentralen Grenzwertsatz <strong>in</strong> Abschnitt 2.2.6 diskutieren.<br />

Aufgabe:<br />

Jeder wissenschaftliche Taschenrechner hat Funktionen für Mittelwert und Standardabweichung<br />

e<strong>in</strong>gebaut. Machen Sie sich anhand des unten stehenden Beispiels mit Ihrem Modell<br />

vertraut, so <strong>das</strong>s Sie es im Praktikum be<strong>die</strong>nen können. Schauen Sie <strong>in</strong>sbesondere im Handbuch<br />

Ihres Rechners nach, nach welcher Formel der Taschenrechner <strong>die</strong> Standardabweichung ausgibt.<br />

Je nach Fabrikat wird Formel (3) oder (4) angewendet. Dem entsprechend muss man eventuell<br />

<strong>die</strong> Taschenrechnerausgabe korrigieren, wenn man <strong>das</strong> Ergebnis nach (5) angibt.<br />

Beispiel: Gegeben sei folgender Datensatz von Messwerten:<br />

{x i }={2.5, 2.8, 2.2, 2.3, 2.2, 2.7, 2.6, 2.4}.<br />

Benutzen Sie <strong>die</strong> Mittelwert-Varianz-Funktion Ihres Taschenrechners, um x=¯x±s¯x anzugeben.<br />

7


Ergebnis: Die korrekte Taschenrechnerausgabe lautet ¯x= 2.46250, s=0.22638. E<strong>in</strong>e s<strong>in</strong>nvolle<br />

Angabe des Ergebnisses ist damit:<br />

x= 2.46±0.08.<br />

2.2 Häufigkeitsverteilungen<br />

Nun ist es an der Zeit, sich zu überlegen, <strong>in</strong> welcher Weise <strong>die</strong> Daten <strong>in</strong> e<strong>in</strong>em Datensatz schwanken,<br />

d. h. wie sie um den Mittelwert herum verteilt s<strong>in</strong>d. Diese Verteilung wird sicher davon abhängen,<br />

von welcher Art <strong>die</strong> Messgröße ist, ob sie kont<strong>in</strong>uierliche Werte annehmen kann, oder<br />

ob sie nur zwei diskrete Werte annehmen kann, z. B. Teilchen registriert, ja oder ne<strong>in</strong>. Zunächst<br />

schicken wir e<strong>in</strong>ige allgeme<strong>in</strong>e Bemerkungen voran, <strong>die</strong> für alle Verteilungen gelten. Dann besprechen<br />

wir <strong>die</strong> Wahrsche<strong>in</strong>lichkeitsverteilung e<strong>in</strong>es Merkmals mit komplementären Ausprägungen,<br />

nämlich <strong>die</strong> B<strong>in</strong>omialverteilung und <strong>die</strong> Poissonverteilung. Im Falle e<strong>in</strong>er kont<strong>in</strong>uierlich<br />

veränderlichen Messgröße h<strong>in</strong>gegen wird der Experimentator sich zunächst e<strong>in</strong> graphisches Bild<br />

der Datenverteilung machen wollen. Dazu <strong>die</strong>nt <strong>das</strong> Histogramm. Anschließend behandeln wir<br />

<strong>die</strong> Normalverteilung und den Zentralen Grenzwertsatz, der <strong>die</strong> Universalität <strong>die</strong>ser für den<br />

wissenschaftlichen Alltag so bedeutenden Verteilungsfunktion begründet.<br />

2.2.1 Allgeme<strong>in</strong>esüber Zufallsgrößenundderen Verteilung<br />

Alle der nun folgenden Details lassen sich bestens <strong>in</strong> [5] oder auch [6] nachlesen, auch wenn<br />

man im E<strong>in</strong>zelfall vielleicht etwas danach stöbern muss. Hier also e<strong>in</strong>e Zusammenfassung der<br />

für uns wichtigen Aspekte:<br />

• E<strong>in</strong>e Verteilung heißt diskret, wenn es e<strong>in</strong>e endliche, oder abzählbar unendliche Menge<br />

von Werten x i gibt, <strong>die</strong> mit e<strong>in</strong>er Wahrsche<strong>in</strong>lichkeit P(x i )>0realisiert werden, wobei<br />

gelten muss ∑ i P(x i)=1.<br />

• E<strong>in</strong>e Verteilung heißt stetig, wenn e<strong>in</strong>e Funktion f(x),(f(x)≥0,∀x) mit ∫ ∞<br />

f(x)dx= 1 −∞<br />

existiert, für <strong>die</strong> gilt: P(a


gleiches gilt <strong>in</strong> <strong>die</strong>sem Fall auch für <strong>die</strong> Wahrsche<strong>in</strong>lichkeitsdichten:<br />

f(x, y)= f X (x)· f Y (y) (9)<br />

oder auch <strong>die</strong> Wahrsche<strong>in</strong>lichkeiten, im Falle diskreter Zufallsgrößen: Die Wahrsche<strong>in</strong>lichkeit,<br />

<strong>das</strong>s gleichzeitig der Fall X= x i und Y=y j e<strong>in</strong>tritt ist dann gleich dem Produkt aus<br />

den E<strong>in</strong>zelwahrsche<strong>in</strong>lichkeiten:<br />

P(X= x i , Y= y j )= P X (x i )· P Y (y j )<br />

• Es sei m(X) e<strong>in</strong>e Funktion der Zufallsgröße X, deren Werte gemessen wurden. Dann bezeichnen<br />

wir mit E m(X) den Erwartungswert der Funktion m(X). Dieser ist def<strong>in</strong>iert<br />

als:<br />

E m(X) ∑<br />

= m(x i )· P(x i ) für e<strong>in</strong>e diskret verteilte Größe (10)<br />

E m(X) =<br />

• Insbesondere erhält man<br />

i<br />

∫ ∞<br />

−∞<br />

m(x)· f(x)·dx für e<strong>in</strong>e stetig verteilte Größe (11)<br />

mit m(X)=X ⇒ E(X)=µ Mittelwertµ (12)<br />

mit m(X)=(X−µ) 2 ⇒ E (X−µ) 2 =σ 2 Varianz Var(X)≡σ 2 (13)<br />

• Aus den obigen Def<strong>in</strong>itionen ergibt sich der Erwartungswert e<strong>in</strong>er Summe von Zufallsvariablen{X<br />

1 , . . ., X n } als:<br />

E(a 1 X 1 +···+a n X n )=a 1 E(X 1 )+···+ a n E(X n ) (14)<br />

mit reellen Zahlen a i . Insbesondere ergibt sich daraus der Verschiebungssatz<br />

E (X−µ) 2 = E(X 2 )−µ 2 , (15)<br />

der häufig <strong>die</strong> praktische Berechnung der Varianz erleichtert.<br />

• S<strong>in</strong>d <strong>die</strong> Zufallsgrößen{X 1 , . . ., X n } statistisch unabhängig, dann gilt für <strong>die</strong> Varianz der<br />

Summe:<br />

Var(a 1 X 1 +···+ a n X n )= a 2 1 Var(X 1)+···+ a 2 n Var(X n) (16)<br />

Wer sich davon überzeugen möchte setze <strong>die</strong> Summe ∑ a i X i mit (14) <strong>in</strong> <strong>die</strong> Def<strong>in</strong>ition (13)<br />

e<strong>in</strong>, multipliziere aus und stelle fest, <strong>das</strong>s unter der Bed<strong>in</strong>gung (9) für <strong>die</strong> Mischterme i≠ j<br />

gilt: E (X i −µ i )·(X j −µ j ) = E (X i −µ i ) ·E (X j −µ j ) = 0.<br />

Aus (16) folgt dann für arithmetische Mittelwerte unabhängiger Messungen X= ∑ X i /n<br />

und somit folgt Glg. (4) aus (3).<br />

Var X = Var(X)/n 2 (17)<br />

Nun können wir auch den Faktor n−1 verstehen, der <strong>in</strong> Glg (3) e<strong>in</strong>geführt wurde: Es gilt<br />

nämlich nach (16): Var(X k − X)=Var(X 1 /n+···+(1/n−1)X k +···+ X n /n)= n−1 Var(X)<br />

n<br />

(nachrechnen!) und somit zeigt sich für Glg. (3), <strong>das</strong>s<br />

∑ E Xi − X 2<br />

=∑<br />

E<br />

Xi − X 2<br />

= nVar X i − X =(n−1) Var(X) (18)<br />

i<br />

i<br />

Somit ist also der Erwartungswert der Größe S 2 def<strong>in</strong>iert gemäß Glg. (3) gleich der Varianz<br />

der Größe X genau dann, wenn im Nenner von (3) der Faktor n−1 und nicht n steht! Man<br />

spricht dann auch davon, <strong>das</strong>s S 2 e<strong>in</strong>en erwartungstreuen Schätzer fürσ 2 darstellt.<br />

9


2.2.2 DieB<strong>in</strong>omialverteilung B n (p)<br />

Die Messung bestehe dar<strong>in</strong>, <strong>in</strong> e<strong>in</strong>em System zwei sich gegenseitig ausschließende Merkmale<br />

A bzw. Ā zu unterscheiden und entsprechend zu klassifizieren. Typisches Beispiel <strong>in</strong> der Physik<br />

s<strong>in</strong>d Experimente, <strong>in</strong> denen Teilchen (Photonen, Elektronen, Protonen, etc.) gezählt werden;<br />

A bedeutet dann, <strong>das</strong>s <strong>das</strong> Teilchen <strong>in</strong> e<strong>in</strong>em vorgegebenen Zeit-, Energie-, oder Impulsfenster<br />

registriert wurde, bzw. Ā nicht registriert wurde. Die Wahrsche<strong>in</strong>lichkeit für <strong>das</strong> Auftreten der<br />

Ausprägung A sei p und entsprechend 1− p für <strong>die</strong> komplementäre Ausprägung Ā.<br />

Annahme: E<strong>in</strong>e Datenanalyse oder e<strong>in</strong>e andere a priori Information liefere uns e<strong>in</strong>en soliden<br />

Schätzwert für p.<br />

Frage: Wie groß ist <strong>die</strong> Wahrsche<strong>in</strong>lichkeit P n (k), <strong>das</strong>s bei n Realisationen der Messung k mal<br />

<strong>die</strong> Ausprägung A registriert wird? Antwort:<br />

n<br />

k<br />

P n (k)=<br />

· p k·(1− p) n−k (19)<br />

Die daraus gewonnene Verteilung heißt B<strong>in</strong>omialverteilung B np (k). Sie ist naturgemäß diskret<br />

und wird durch <strong>die</strong> zwei Parameter n und p festgelegt.<br />

Ihr Mittelwert ist: µ=np (20)<br />

Ihre Varianz ist: σ 2 = np(1− p) (21)<br />

P n (k) wird maximal für np+p−1≤k≤np+ p (22)<br />

• Mit Hilfe der Stirl<strong>in</strong>g’schen Formel kann gezeigt werden, <strong>das</strong>s sich für große n und nicht<br />

zu extreme p <strong>die</strong> B<strong>in</strong>omialverteilung B np (k) e<strong>in</strong>er Normalverteilung N(x; np, np(1− p)) (s.<br />

Abschnitt 2.2.5) nähert, d. h.:<br />

∑ ∑ ∫ x<br />

<br />

n<br />

P n (k)= p<br />

k<br />

k (1− p) n−k 1<br />

−→ exp − (ξ−np)2<br />

dξ<br />

2π np(1− p) 2(np(1− p))<br />

k


1<br />

P µ (k)<br />

0.8<br />

k=0<br />

0.6<br />

0.4<br />

0.2<br />

k=1<br />

k=2<br />

k=4<br />

k=6<br />

0<br />

0 2 4 6 8 10<br />

Mittelwert µ<br />

Abbildung 2: Darstellung der Poissonverteilung (29). Man sollte sich aber durch <strong>die</strong>se Darstellungnichtverwirrenlassen:DiePoissonverteilungistdiskret<strong>in</strong><br />

k.Aberesistüblich,<br />

sieüber ihren Parameter Mittelwertµaufzutragen.<br />

Frage: Wie groß ist <strong>die</strong> Wahrsche<strong>in</strong>lichkeit bei e<strong>in</strong>er Wiederholung der Messung k-mal <strong>das</strong><br />

Merkmal A zu messen?<br />

Konkret z. B. <strong>die</strong> Messung von radioaktiven Kernzerfällen: Wie groß ist <strong>die</strong> Wahrsche<strong>in</strong>lichkeit<br />

bei Vorliegen von n radioaktiven Atomkernen <strong>in</strong> e<strong>in</strong>em gegebenen Zeitfenster genau k Zerfallsereignisse<br />

zu messen? Die entsprechende Wahrsche<strong>in</strong>lichkeit ist durch <strong>die</strong> B<strong>in</strong>omialverteilung<br />

(19) mit p=µ/n (25) gegeben: 2<br />

P n (k)=<br />

n<br />

k<br />

µ<br />

k·<br />

· 1− µ n−k<br />

(26)<br />

n n<br />

Nun ist n <strong>in</strong> e<strong>in</strong>em kernphysikalischen Experiment typischer Weise e<strong>in</strong>e sehr große Zahl: selbst<br />

bei wenigen Mikrogramm e<strong>in</strong>es radioaktiven Elementes ist n von der Größenordnung 10 15 . Im<br />

Vergleich dazu s<strong>in</strong>d effektive Zählereignisse sehr selten. Das heißt es liegen folgende Verhältnisse<br />

vor: k/n≪1,µ/n≪1 und n→∞. Damit können wir folgende Näherungen machen:<br />

E<strong>in</strong>setzen <strong>in</strong> (26) von<br />

<br />

1− µ n−k<br />

−→ exp(−µ) (27)<br />

<br />

n<br />

n 1 1<br />

und −→<br />

(28)<br />

k n k<br />

k!<br />

ergibt <strong>die</strong> Poissonverteilung : P µ (k)= µk<br />

exp(−µ) (29)<br />

k!<br />

2<br />

Die B<strong>in</strong>omialverteilung sieht streng genommen nur Experimente „mit Zurücklegen“ vor, damit <strong>die</strong> Wahrsche<strong>in</strong>lichkeit<br />

p für e<strong>in</strong> e<strong>in</strong>zelnes Ereignis sich im Verlauf des Versuches nicht ändert. Im vorliegenden Fall ist aber<br />

<strong>die</strong> Anzahl k der zerfallenen Kerne gegen n e<strong>in</strong>e sehr kle<strong>in</strong>e Zahl, so <strong>das</strong>s <strong>die</strong> Bed<strong>in</strong>gung e<strong>in</strong>er unveränderten<br />

Wahrsche<strong>in</strong>lichkeit p auch ohne „Zurücklegen“ erfüllt bleibt.<br />

11


Die Poissonverteilung P µ (k) ist e<strong>in</strong>e diskrete Verteilung und wird durch e<strong>in</strong>en e<strong>in</strong>zigen Parameter,<br />

ihren Mittelwertµfestgelegt. Ihre Varianz beträgt<br />

Varianz der Poissonverteilung: σ 2 =µ (30)<br />

Mittelwert und Varianz der Poissonverteilung s<strong>in</strong>d also gleich groß. Für große Mittelwerte lässt<br />

sich <strong>die</strong> Poissonverteilung durch e<strong>in</strong>e Normalverteilung approximieren, <strong>die</strong> dann ebenfalls nur<br />

e<strong>in</strong>en freien Parameter aufweist:<br />

∑ ∑<br />

P µ (k)=<br />

k


h j<br />

0.25<br />

0.2<br />

0.15<br />

0.1<br />

0.05<br />

0<br />

0 20 40 60 80 100<br />

Abbildung 3: Histogramme<strong>in</strong>esDatensatzes{x i , i= 1...380}.DieMesswerte x i wurden<strong>in</strong> m=<br />

10 Klassen e<strong>in</strong>geteilt. h j (j=1...10) bezeichnet <strong>die</strong> relative Häufigkeit, mit der<br />

e<strong>in</strong>Messwert<strong>in</strong><strong>die</strong> Klasse j fällt.<br />

x<br />

2.2.5 DieNormalverteilung N(x;µ,σ)<br />

E<strong>in</strong>e Zufallsgröße heißt normal- oder gaußverteilt wenn <strong>die</strong> zugehörige Dichtefunktion folgende<br />

Form hat:<br />

Normalverteilung: N(x;µ,σ)= 1<br />

<br />

σ 2π· exp − (x−µ)2<br />

2σ 2<br />

(32)<br />

N(x;µ,σ) oder auch kurz N(µ,σ) beschreibt e<strong>in</strong>e symmetrische Glockenkurve, <strong>die</strong> durch <strong>die</strong><br />

beiden Parameterµundσe<strong>in</strong>deutig festgelegt ist. Die Kurve hat ihr Maximum an der Stelle<br />

x=µund <strong>die</strong> Breite 2σ an den Wendepunkten, siehe Abb. 4. Der Parameterσist dabei<br />

gleichzeitig <strong>die</strong> Standardabweichung der Verteilung gemäß Glg. (13) undµist der Mittelwert<br />

der Normalverteilung gemäß Glg. (12). Wenn e<strong>in</strong>e Messgröße gemäß N(µ,σ) normalverteilt<br />

ist, so kann der Verteilungsparameterσ, gemäß unseren Überlegungen zu Glg. (18), aus dem<br />

Messdatensatz{x i } nach Formel (3) abgeschätzt werden, alsoσ=s. Beschreibt h<strong>in</strong>gegen <strong>die</strong><br />

Normalverteilung e<strong>in</strong>e Verteilungsfunktion von Mittelwerten, so s<strong>in</strong>d <strong>die</strong> Verteilungsparameter<br />

nach Glg. (2) und (4) zu ermitteln, alsoσ=s/ n.<br />

Bemerkungen<br />

1. Die Normalverteilung ist e<strong>in</strong>e Wahrsche<strong>in</strong>lichkeitsdichteverteilung, <strong>das</strong> bedeutet sie ist normiert<br />

∫ ∞<br />

N(x;µ,σ) dx= 1 und N(x;µ,σ) dx beschreibt <strong>die</strong> Wahrsche<strong>in</strong>lichkeit dafür,<br />

−∞<br />

e<strong>in</strong>en Wert der Größe X <strong>in</strong>nerhalb des Intervalls(x, x+ d x) zu f<strong>in</strong>den, also<br />

P x< X< x+ d x = N(x;µ,σ) dx. (33)<br />

13


0.03<br />

N(x;µ,σ) µ<br />

0.02<br />

0.01<br />

µ − σ<br />

68.3%<br />

µ + σ<br />

0 20 40 60 80 100<br />

Abbildung 4: Normalverteilung e<strong>in</strong>es Datensatzes. Im Intervall(µ−σ,µ+σ) liegen 68.3% der<br />

Messdaten.<br />

x<br />

Dem entsprechend ergibt sich für <strong>die</strong> Wahrsche<strong>in</strong>lichkeit P e<strong>in</strong>en Wert der Größe X im<br />

Intervall(a, b) anzutreffen,<br />

P a


4. Falls wir annehmen können, <strong>das</strong>s <strong>die</strong> Werte e<strong>in</strong>er Messreihe normalverteilt s<strong>in</strong>d, so s<strong>in</strong>d<br />

<strong>die</strong> nach (2) bzw. (3) bestimmten Werte umso bessere Schätzwerte für den Mittelwertµ<br />

und <strong>die</strong> Standardabweichungσder Verteilung, je größer <strong>die</strong> Anzahl Messdaten n ist. Da es<br />

aufwändig ist, viele Daten zu messen, wird man oft mit kle<strong>in</strong>en n auskommen wollen. Wie<br />

bei Glg. (4) diskutiert, geht aber <strong>die</strong> Anzahl der Messwerte∝1/ n <strong>in</strong> <strong>die</strong> Unsicherheit<br />

der geschätzten Lage des Mittelwertes e<strong>in</strong>. In der Praxis gilt daher: <strong>die</strong> Anzahl Messwerte<br />

<strong>in</strong> e<strong>in</strong>er Messreihe sollte vernünftigerweise 10 nicht unterschreiten. Verwendet man kle<strong>in</strong>ere<br />

Datensätze zur Abschätzung von Mittelwert und Standardabweichung, dann ist <strong>die</strong><br />

Unsicherheit des Mittelwertes mit Hilfe des sog. t-Faktors zu korrigieren. Mehr dazu im<br />

Abschnitt 2.3.1<br />

2.2.6 DerZentrale Grenzwertsatz (CentralLimit Theorem)<br />

Wor<strong>in</strong> begründet sich nun <strong>die</strong> hohe Universalität der Normalverteilung und <strong>die</strong> Tatsache, <strong>das</strong>s<br />

<strong>die</strong>se Verteilung so e<strong>in</strong>en großen Stellenwert <strong>in</strong> der mathematischen Statistik wie auch <strong>in</strong> der<br />

praktischen experimentellen Arbeit e<strong>in</strong>nimmt? Die Antwort darauf liefert der sogenannte Zentrale<br />

Grenzwertsatz. Bei unzähligen Problemen des experimentellen Alltags lässt sich <strong>die</strong> Verteilung<br />

e<strong>in</strong>er <strong>in</strong>teressierenden Zufallsgröße nur mit enormem Aufwand oder auch gar nicht exakt<br />

bestimmen. Der Zentrale Grenzwertsatz liefert nun <strong>in</strong> vielen Fällen e<strong>in</strong>e asymptotische Aussage<br />

über <strong>die</strong> Verteilung, <strong>die</strong> <strong>in</strong> der Praxis meist völlig ausreichend ist und dem Experimentator<br />

häufig weitreichende Möglichkeiten an <strong>die</strong> Hand gibt, se<strong>in</strong>e Resultate zu beurteilen.<br />

Es gibt den Zentralen Grenzwertsatz <strong>in</strong> verschiedenen Varianten. E<strong>in</strong>e e<strong>in</strong>fache Form lautet wie<br />

folgt, für e<strong>in</strong>en Beweis wende man sich an <strong>die</strong> Standardlehrbücher [5, 6]:<br />

Seien{X 1 , X 2 , ...X n } unabhängige und identisch verteilte Zufallsvariablen 3 mit Mittelwertµund<br />

Standardabweichungσ. Dann konvergiert <strong>die</strong> Verteilung der Mittelwerte<br />

X n =(X 1 + X 2 + ...+ X n )/n für n→∞ gegen <strong>die</strong> Normalverteilung N(X n ;µ,σ/ n).<br />

Das bedeutet, <strong>das</strong>s wir ohne e<strong>in</strong>e Annahme über <strong>die</strong> Form der tatsächlichen Verteilung der E<strong>in</strong>zelmessungen{x<br />

i } zu machen, wissen, <strong>das</strong>s <strong>die</strong> daraus gewonnenen Mittelwerte normalverteilt<br />

s<strong>in</strong>d, sofern sie nur aus e<strong>in</strong>er ausreichenden Anzahl n von E<strong>in</strong>zelmessungen gewonnen wurden.<br />

Wichtig dabei ist lediglich, <strong>das</strong>s <strong>die</strong> beiden Voraussetzungen „unabhängig“ und „identisch<br />

verteilt“ erfüllt s<strong>in</strong>d, was bei e<strong>in</strong>er Mittelwertbildung aus unter gleichen Bed<strong>in</strong>gungen durchgeführten<br />

E<strong>in</strong>zelmessungen für gewöhnlich der Fall ist. Was „ausreichende Anzahl“ genau bedeutet<br />

hängt im Allgeme<strong>in</strong>en von der konkreten Verteilung der{x i } ab. In der Regel ist jedoch e<strong>in</strong>e Normalverteilung<br />

der Mittelwerte bereits ab n≥10 akzeptabel erfüllt.<br />

Wir betrachten dazu als Beispiel e<strong>in</strong>e Zufallsgröße X, <strong>die</strong> der E<strong>in</strong>fachheit halber alle Werte im<br />

Intervall[0, 1] mit gleicher Wahrsche<strong>in</strong>lichkeit annehmen soll, d. h. es liegt e<strong>in</strong>e gleichverteilte<br />

Zufallsgröße vor und <strong>die</strong> Wahrsche<strong>in</strong>lichkeitsdichte der Grundgesamtheit ist:<br />

f gleich (x)=<br />

<br />

1 für 0≤ x≤ 1<br />

0 sonst<br />

(39)<br />

mit e<strong>in</strong>em Mittelwertµ g = 0.5 und e<strong>in</strong>er Standardabweichungσ g = 1/(2 3). Nun bestimmen<br />

wir <strong>in</strong> e<strong>in</strong>em Computerexperiment <strong>die</strong> Verteilung von Mittelwerten X n =(X 1 + X 2 + ...+X n )/n,<br />

3<br />

Hier wird also nichts über <strong>die</strong> konkrete Form der Verteilung vorausgesetzt, <strong>die</strong>se ist beliebig!<br />

15


1.4<br />

1.2<br />

1<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

f(x)<br />

0 0.2 0.4 0.6 0.8 1<br />

x<br />

1.4<br />

1.2<br />

1<br />

f(x)<br />

X 1<br />

2<br />

1.5<br />

f(x)<br />

X 2<br />

0.8<br />

0.6<br />

1<br />

0.4<br />

0.2<br />

0.5<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

x<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

x<br />

3<br />

f(x)<br />

X 5<br />

4<br />

f(x)<br />

X 10<br />

3<br />

2<br />

2<br />

1<br />

1<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

x<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

x<br />

Abbildung 5: Beispiel für den Zentralen Grenzwertsatz. Für e<strong>in</strong>e gleichverteilte Zufallsgröße X,<br />

x∈[0, 1]wird<strong>die</strong>VerteilungverschiedenerMittelwerte X n =(X 1 +X 2 +...+X n )/n<br />

durch e<strong>in</strong> „Computerexperiment“ bestimmt. Die Stichprobengröße ist jeweils 10 5 .<br />

Ganz oben: <strong>die</strong> Verteilung der Grundgesamtheit mit e<strong>in</strong>em Mittelwert vonµ g =<br />

0.5unde<strong>in</strong>erStandardabweichungvonσ g = 1/(2 3).Die„experimentell“ermitteltenStichprobenverteilungens<strong>in</strong>dalsHistogrammedargestellt.ZumVergleichist<br />

jeweils e<strong>in</strong>e Normalverteilung mit gleichem Mittelwert und gleicher Standardabweichungσ<br />

g / n gezeigt. Je mehr unabhängige Zufallsgrößen <strong>in</strong> <strong>die</strong> Mittelwertbildung<br />

e<strong>in</strong>gehen, desto schmaler wird <strong>die</strong> Verteilung der Mittelwerte und desto<br />

mehr nähert sich<strong>die</strong>see<strong>in</strong>erNormalverteilung.<br />

16


<strong>die</strong> jeweils aus n gemäß (39) verteilten Zufallsgrößen gebildet wurden. Abb. 5 zeigt nun, neben<br />

der Dichtefunktion der Grundgesamtheit, <strong>die</strong> Dichte, <strong>die</strong> aus der Häufigkeitsverteilung von Mittelwerten<br />

X n gewonnen wurde, jeweils als Histogramm. Dabei gibt X 1 <strong>in</strong> guter Näherung <strong>die</strong><br />

Wahrsche<strong>in</strong>lichkeitsdichte der Gleichverteilung wieder und der Unterschied zu e<strong>in</strong>er Gaußverteilung<br />

mit gleicher Schwankungsbreite ist sehr auffällig. Je mehr unabhängige und gleichverteilte<br />

X i jedoch <strong>in</strong> <strong>die</strong> Mittelwertbildung e<strong>in</strong>gehen, desto mehr nähert sich <strong>die</strong> Verteilung <strong>die</strong>ser<br />

Mittelwerte e<strong>in</strong>er Normalverteilung N(µ g ,σ g / n). Bereits für n=10 wird dabei e<strong>in</strong>e sehr gute<br />

Übere<strong>in</strong>stimmung erzielt.<br />

Nun gibt es Verallgeme<strong>in</strong>erungen des Zentralen Grenzwertsatzes, <strong>die</strong> sogar noch weiterreichende<br />

Schlussfolgerungen zulassen. Typisch dabei ist, <strong>das</strong>s e<strong>in</strong>e der beiden Voraussetzungen „unabhängig“<br />

und „identisch verteilt“ zugunsten e<strong>in</strong>er schwächeren Forderung an <strong>die</strong> Zufallsvariablen<br />

X i fallengelassen wird. Dann lässt sich z. B. zeigen, <strong>das</strong>s <strong>die</strong> Summe von unabhängigen und<br />

beliebig (auch unterschiedlich) verteilten Zufallsgrößen mit endlicher Varianz im Grenzfall<br />

n→∞normalverteilt ist, solange e<strong>in</strong>e weitere (schwache) Bed<strong>in</strong>gung für <strong>die</strong> X i gilt, <strong>die</strong> im<br />

Wesentlichen sicherstellt, <strong>das</strong>s nicht e<strong>in</strong> Teil der Summanden alle anderen dom<strong>in</strong>iert (z. B. <strong>die</strong><br />

Ljapunow Bed<strong>in</strong>gung, s. [5]). Physikalisch gesprochen heißt <strong>das</strong>: Setzt sich e<strong>in</strong>e Messgröße aus<br />

e<strong>in</strong>er großen Anzahl von unabhängigen unterschiedlich aber „vernünftig“ verteilten E<strong>in</strong>zeleffekten<br />

additiv zusammen, so ist <strong>die</strong>se normalverteilt. Da <strong>die</strong>s <strong>in</strong> der Natur sehr häufig zutrifft,<br />

erklärt sich so <strong>die</strong> ubiquitäre Ersche<strong>in</strong>ung der Normalverteilung als (Näherungs-)Verteilung physikalischer<br />

Größen.<br />

2.3 DerBegriffdes Konfidenz<strong>in</strong>tervalls<br />

Nehmen wir an während e<strong>in</strong>es Experiments, <strong>in</strong> dem <strong>die</strong> physikalische Größe X ermittelt werden<br />

soll, wird e<strong>in</strong> Datensatz{x i } bestehend aus n E<strong>in</strong>zelmessungen gewonnen. Dieser Datensatz<br />

wird mit den <strong>in</strong> Absatz 2.1 dargestellten Methoden analysiert, und ergibt als Resultat ¯x± s¯x ,<br />

vgl. (5).<br />

Der Zentrale Grenzwertsatz sagt uns nun, <strong>das</strong>s bei ausreichend großem n der gemessene Mittelwert<br />

¯x aus e<strong>in</strong>er normalverteilten Gesamtheit N( ¯X;µ,σ) von Mittelwerten stammt deren Breite<br />

durch s¯x = s/ n abgeschätzt werden kann. Dann gibt nach Glg. (35)<br />

P(¯x− s/ n≤µ≤ ¯x+ s/ n)=0.683<br />

<strong>die</strong> relative Häufigkeit an, mit der durch e<strong>in</strong> solches Experiment festgelegte Grenzen ¯X± S/ n<br />

den unbekannten Mittelwertµder Grundgesamtheit enthalten.<br />

Dies ist nicht gleichbedeutend damit, <strong>das</strong>s für e<strong>in</strong>e konkrete Realisierung des Intervalls ¯x±s/ n<br />

<strong>in</strong> e<strong>in</strong>em bestimmten Experiment <strong>die</strong> Wahrsche<strong>in</strong>lichkeit angegeben wird, mit der der “wahre<br />

Wert” <strong>in</strong> <strong>die</strong>sem Intervall zu f<strong>in</strong>den ist. Auch wenn es <strong>in</strong>tuitiv naheliegend ist zu fragen:<br />

“Mit welcher Wahrsche<strong>in</strong>lichkeit bef<strong>in</strong>det sich der wahre Wert der Messgröße <strong>in</strong> dem durch<br />

me<strong>in</strong> Experiment bestimmten Intervall?” so kann <strong>die</strong> konventionelle Statistik darauf jedoch ke<strong>in</strong>e<br />

Antwort geben, dennµist ke<strong>in</strong>e Zufallsgröße sondern der feststehende Erwartungswert der<br />

Grundgesamtheit. Nur über Zufallsgrößen s<strong>in</strong>d jedoch <strong>in</strong> der Statistik Wahrsche<strong>in</strong>lichkeitsaussagen<br />

möglich. Deshalb spricht man an <strong>die</strong>ser Stelle auch lediglich von e<strong>in</strong>em Grad an Vertrauen,<br />

mit dem der Mittelwert der Grundgesamtheitµ<strong>in</strong> dem ermittelten Intervall zu f<strong>in</strong>den ist und<br />

bezeichnet ¯x± s/ n als <strong>das</strong> 68%-Konfidenz- oder Vertrauens<strong>in</strong>tervall und spricht auch von 68%<br />

Überdeckungswahrsche<strong>in</strong>lichkeit, <strong>die</strong> dem Intervall ¯x± s/ n zugeordnet ist.<br />

17


X i<br />

µ<br />

0 1 2 3 4 5 6 7 8<br />

Messreihe i<br />

Abbildung 6: Darstellung der Resultate e<strong>in</strong>es Experiments, <strong>in</strong> dem <strong>die</strong> Größe X <strong>in</strong> 8 Messreihen<br />

ermittelt wurde. Jede Messserie i liefert e<strong>in</strong>en Datensatz, der hier durch se<strong>in</strong>en<br />

Mittelwert ¯x i und <strong>das</strong> 68%-Konfidenz<strong>in</strong>tervall als Unsicherheitsbalken repräsentiert<br />

wird. Die Grafik sollte so <strong>in</strong>terpretiert werden: Im Mittel werden 68% der<br />

Unsicherheits<strong>in</strong>tervalle den (unbekannten) wahren Wertµder untersuchten Größe<br />

X enthalten.<br />

Um nochmals <strong>die</strong> Bedeutung zu veranschaulichen: Nehmen wir an, wir würden <strong>das</strong> Experiment<br />

noch e<strong>in</strong>ige Male wiederholen. Jede Wiederholung liefert e<strong>in</strong>en neuen Datensatz<br />

{x i } 1 ,{x i } 2 , . . .,{x i } n . In Abb. 6 s<strong>in</strong>d n=8Datensätze dargestellt mit ihren jeweiligen Mittelwerten<br />

¯x i und den 68%-Konfidenz<strong>in</strong>tervallen als Unsicherheitsbalken. Der im Normalfall<br />

unbekannte, wahre Wertµder gemessenen Größe X wird dann <strong>in</strong> 68%, also ca. 2/3, der<br />

dargestellten Balken zu f<strong>in</strong>den se<strong>in</strong>.<br />

Wenn uns 68% zu unsicher s<strong>in</strong>d, sagt uns <strong>die</strong> Normalverteilung N(µ, s/ n), wie groß wir <strong>in</strong><br />

E<strong>in</strong>heiten von s/ n <strong>das</strong> Intervall wählen müssen, um e<strong>in</strong>e bestimmte Überdeckungswahrsche<strong>in</strong>lichkeit<br />

zu gewährleisten. Wollen wir z. B. mit 95% Konfidenz <strong>das</strong> Intervall festlegen, so wird<br />

<strong>das</strong> entsprechende Intervall e<strong>in</strong>e Breite von 1.96·s/ n aufweisen.<br />

H<strong>in</strong>weis: Es ist <strong>in</strong> der Physik üblich, <strong>in</strong> grafischen Darstellungen von Experimentdaten <strong>die</strong><br />

Messpunkte mit sog. Unsicherheitsbalken (Fehlerbalken) zu versehen. Diese Unsicherheitsbalken<br />

haben standardmäßig <strong>die</strong> Länge von±s¯x =±s/ n, vgl. (4). Sie repräsentieren also im<br />

Falle e<strong>in</strong>er Normalverteilung e<strong>in</strong>e Überdeckungswahrsche<strong>in</strong>lichkeit von 68% oder auch e<strong>in</strong> 68%-<br />

Konfidenz<strong>in</strong>tervall.<br />

2.3.1 DieStudent’sche t-Verteilung<br />

Liegt den Schätzwerten für Mittelwert und Standardabweichung e<strong>in</strong>er normalverteilten Zufallsgröße<br />

X nur e<strong>in</strong> ger<strong>in</strong>ger Stichprobenumfang zugrunde, was im Grundpraktikum durchaus vorkommen<br />

kann, so muss zur Angabe der Unsicherheit des Mittelwertes bzw. zur Angabe e<strong>in</strong>es<br />

Konfidenz<strong>in</strong>tervalles zu e<strong>in</strong>er gegebenen Wahrsche<strong>in</strong>lichkeit, e<strong>in</strong> Korrekturfaktor berücksichtigt<br />

werden.<br />

18


n t p für p= 0.683 t p für p= 0.95<br />

3 1.32 4.3<br />

4 1.20 3.18<br />

5 1.14 2.78<br />

6 1.11 2.57<br />

8 1.08 2.37<br />

10 1.06 2.26<br />

1000 1.00 1.96<br />

Tabelle1: DerStudent’sche t-Faktorfüre<strong>in</strong>igeausgewählteStichprobengrößen nundzweiverschiedene<br />

Überdeckungswahrsche<strong>in</strong>lichkeiten p.<br />

Der Grund ist folgender: Wird von e<strong>in</strong>em Datensatz aus n unabhängigen Messwerten{x i } e<strong>in</strong>er<br />

gemäß N(µ,σ) normalverteilten Zufallsgröße X, der empirische Mittelwert ¯X gebildet, so ist<br />

<strong>die</strong> Zufallsgröße Y=( ¯X−µ)/(σ/ n) nach Glg. (37) standardnormalverteilt gemäß N(Y ; 0, 1).<br />

Schätzt man nun jedoch <strong>die</strong> Standardabweichung gemäß S/ n ab, dann ist <strong>die</strong> Größe T =<br />

( ¯X−µ)/(S/ n) nicht mehr normalverteilt, da S neben ¯X e<strong>in</strong>e weitere Zufallsvariable darstellt,<br />

zu der ebenfalls e<strong>in</strong>e Verteilung gehört. Die Größe T folgt <strong>in</strong> <strong>die</strong>sem Fall e<strong>in</strong>er Stundent’schen<br />

t-Verteilung mit n−1 Freiheitsgraden (Details siehe z. B. [5]). Diese Verteilung geht für große n<br />

<strong>in</strong> e<strong>in</strong>e N(0, 1) Normalverteilung über. Die Varianz von T hängt von der Stichprobengröße n ab<br />

und es gilt für n≥4:<br />

Var(T)= n−1<br />

n−3 .<br />

Nach den Rechenregeln zur Varianz Glg. (16) ergibt sich daher für e<strong>in</strong> Messergebnis <strong>in</strong>klusive<br />

Standardabweichung zur Angabe der Unsicherheit:<br />

¯x±<br />

<br />

n−1<br />

n−3· s/ n. (40)<br />

Insbesondere wird hier deutlich, <strong>das</strong>s für n≤3<strong>die</strong> Angabe e<strong>in</strong>er Standardabweichung nicht<br />

s<strong>in</strong>nvoll möglich ist.<br />

Analog ist vorzugehen, möchte man bei kle<strong>in</strong>en Stichprobengrößen e<strong>in</strong> Vertrauens<strong>in</strong>tervall angeben.<br />

Meist s<strong>in</strong>d <strong>die</strong> p-Quantile der t-Verteilung tabelliert, d. h. <strong>die</strong> Werte t p mit P(|T−µ|≤<br />

t p )= p. Das Vertrauens<strong>in</strong>tervall für ¯X ergibt sich dann mit Hilfe <strong>die</strong>ses sog. t-Faktors und der<br />

empirischen Standardabweichung der Messdaten s zu:<br />

¯x± t p· s/ n (41)<br />

Für p= 0.683 und p= 0.95 kann der t-Faktor für e<strong>in</strong>ige Werte von n der Tabelle 1 entnommen<br />

werden. Für große n, so wird an <strong>die</strong>ser Tabelle auch deutlich, s<strong>in</strong>d <strong>die</strong> aus der Student’schen<br />

t-Verteilung und aus der entsprechenden Normalverteilung ermittelten Konfidenz<strong>in</strong>tervalle identisch.<br />

In der Praxis berücksichtigt man typischer Weise <strong>die</strong> <strong>in</strong> Gln. (40) und (41) angegebenen<br />

Vorfaktoren für n≤10.<br />

19


3 AngabevonMessunsicherheitennach GUM<br />

3.1 Typ A Messunsicherheiten<br />

Zum Zwecke der Angabe von Messunsicherheiten mit statistischen Mitteln (Typ A Unsicherheiten<br />

nach GUM) können wir <strong>das</strong> bisher Gesagte wie folgt zusammenfassen: Die physikalische<br />

Größe X wird durch e<strong>in</strong>en Datensatz bestehend aus n unabhängigen Messungen{x i }=<br />

{x 1 , x 2 , . . ., x n } repräsentiert. Als bester Schätzwert für <strong>die</strong> Messgröße wird der empirische Mittelwert<br />

nach Glg. (2) angegeben:<br />

¯x= 1 n<br />

n∑<br />

x i ,<br />

i=1<br />

und <strong>die</strong> Streuung des Datensatzes um den Mittelwert durch <strong>die</strong> empirischen Standardabweichung<br />

nach Glg. (3) charakterisiert:<br />

∑<br />

(xi − ¯x) 2<br />

s=<br />

n−1<br />

.<br />

Ist n dabei ausreichend groß, ist ¯x nach dem zentralen Grenzwertsatz der beste Schätzer für den<br />

Erwartungswert e<strong>in</strong>er Normalverteilung von Mittelwerten ¯X deren Standardabweichung durch<br />

s/ n abgeschätzt werden kann. Also ist <strong>das</strong> Ergebnis als<br />

¯x± s/ n<br />

anzugeben. Ist <strong>die</strong> Stichprobengröße kle<strong>in</strong> und <strong>die</strong> Größe X normalverteilt, dann wird <strong>die</strong> Verteilung<br />

der Mittelwerte besser durch e<strong>in</strong>e t-Verteilung abgeschätzt und <strong>das</strong> Ergebnis für 4≤ n≤10<br />

nach Glg. (40) angegeben:<br />

¯x±<br />

<br />

n−1<br />

n−3· s/ n<br />

In manchen Fällen, wie z. B. <strong>in</strong> e<strong>in</strong>em kernphysikalischen Zählexperiment, dem e<strong>in</strong>e Poissonverteilung<br />

zugrunde liegt, ist <strong>die</strong> Abschätzung von Mittelwert und Standardabweichung aufgrund<br />

e<strong>in</strong>er e<strong>in</strong>zelnen Messung möglich, deren Ergebnis angegeben wird als:<br />

x± x.<br />

In jedem Falle wird der Messgröße X also e<strong>in</strong>e Wahrsche<strong>in</strong>lichkeitsverteilung, im S<strong>in</strong>ne der<br />

konventionellen Statistik also e<strong>in</strong>e Verteilung relativer Häufigkeiten, zugeordnet. Die Standardabweichung<br />

<strong>die</strong>ser Verteilung wird dem Messergebnis laut GUM als sog. Standardunsicherheit<br />

zugewiesen:<br />

<br />

X± Var(X) (42)<br />

20


3.2 Typ BMessunsicherheiten<br />

Wie bereits <strong>in</strong> Abschnitt 1 erwähnt, ist <strong>die</strong> Durchführung häufiger Wiederholmessungen nicht<br />

immer möglich und praktikabel. Im Gegenteil müssen im experimentellen Alltag sehr häufig<br />

Unsicherheitsabschätzungen auf andere Weise erfolgen. Diese können durch <strong>die</strong> konventionelle<br />

frequentistische Statistik jedoch nicht erfasst werden, da letztere nur Aussagen über relative<br />

Häufigkeiten treffen kann. E<strong>in</strong>e e<strong>in</strong>heitliche Beschreibung beider Arten von Unsicherheiten<br />

ist jedoch im Rahmen der Bayes’schen Statistik möglich. Hier werden Wahrsche<strong>in</strong>lichkeiten<br />

nicht mehr als relative Häufigkeiten verstanden, sondern charakterisieren unsere unvollständige<br />

Kenntnis über <strong>das</strong> E<strong>in</strong>treten von Ereignissen auf der Basis der vorliegenden Information. Diese<br />

zugrunde liegende Information kann durchaus e<strong>in</strong>e durch e<strong>in</strong>en Datensatz gegebene Verteilung<br />

relativer Häufigkeiten se<strong>in</strong>, aber eben auch <strong>in</strong> anderer Art vorliegen, wie z. B. als Herstellerangabe<br />

über Toleranzgrenzen e<strong>in</strong>es Messgerätes, als Literaturangabe aus vergangenen Messungen<br />

oder auch als e<strong>in</strong>e (zwangsläufig subjektive) E<strong>in</strong>schätzung e<strong>in</strong>es Experten gewonnen aus der<br />

langjährigen Erfahrung mit e<strong>in</strong>em Experiment oder e<strong>in</strong>em Material.<br />

Damit e<strong>in</strong>e e<strong>in</strong>heitliche Behandlung der Messunsicherheiten erfolgen kann, wird auch den gemäß<br />

Typ B ermittelten Größen e<strong>in</strong>e Wahrsche<strong>in</strong>lichkeitsverteilung g(x) zugeordnet. Im Gegensatz<br />

zur frequentistischen Statistik trifft <strong>die</strong>se dann ke<strong>in</strong>e Aussage über e<strong>in</strong>e (abgeschätzte)<br />

Verteilung relativer Häufigkeiten der Werte, <strong>die</strong> <strong>die</strong> Größe X annehmen kann, sondern gibt e<strong>in</strong><br />

Maß dafür an, wie sehr wir, aufgrund der uns vorliegenden unvollständigen Information, vermuten,<br />

<strong>das</strong>s <strong>die</strong> Größe X e<strong>in</strong>en bestimmten Wert hat. Dabei mag der Größe X e<strong>in</strong> Zufallsprozess<br />

zugrunde liegen oder auch nicht.<br />

Beispielsweise könnten wir auf der Grundlage vorliegender Informationen e<strong>in</strong>e Wahrsche<strong>in</strong>lichkeit<br />

dafür angeben, <strong>das</strong>s der Wert e<strong>in</strong>er bestimmten physikalischen Fundamentalkonstante<br />

zwischen zwei vorgegebenen Grenzen liegt. So e<strong>in</strong>e naheliegende und <strong>in</strong>tuitiv s<strong>in</strong>nvolle Aussage<br />

ist im Rahmen der konventionellen Statistik jedoch undenkbar, da es sich bei e<strong>in</strong>er Fundamentalkonstant<br />

nicht um e<strong>in</strong>e Zufallsvariable handelt. Zur Beschreibung der uns vorliegenden<br />

Information über <strong>die</strong>se Größe, ist <strong>die</strong> Angabe e<strong>in</strong>er Wahrsche<strong>in</strong>lichkeitsverteilung im Rahmen<br />

der Bayes’schen Statistik jedoch s<strong>in</strong>nvoll. Diese Verteilung wird um so breiter se<strong>in</strong>, je ungenauer<br />

<strong>die</strong> uns vorliegende Information darüber ist. Im dem praktisch nie e<strong>in</strong>tretenden Fall, <strong>das</strong>s wir<br />

über vollständige Information verfügen, wird <strong>die</strong> Verteilung h<strong>in</strong>gegen <strong>die</strong> Form e<strong>in</strong>er Dirac’schen<br />

Deltafunktionδ(x−x 0 ) annehmen, d. h. unendlich schmal werden.<br />

3.3 DasPr<strong>in</strong>zip der maximalenInformationsentropie (PME)<br />

Wie lässt sich nun bei gegebener Information e<strong>in</strong>e Wahrsche<strong>in</strong>lichkeitsverteilung e<strong>in</strong>deutig zuordnen?<br />

Diese Zuordnung erfolgt unter der Maßgabe, <strong>das</strong>s <strong>die</strong> resultierende Verteilung ausschließlich<br />

<strong>die</strong> vorliegende Information widerspiegeln soll. Solch e<strong>in</strong>e Verteilung wird dann vorurteilsfreie<br />

Verteilung genannt. Das bedeutet z. B., <strong>das</strong>s wenn gegebene Information es nicht<br />

zulässt, zwischen verschiedenen sich ausschließenden möglichen Ereignissen <strong>in</strong> e<strong>in</strong>em Problem<br />

zu unterscheiden, dann müssen <strong>die</strong>se Ereignisse als gleich wahrsche<strong>in</strong>lich gewertet werden. E<strong>in</strong>e<br />

Verallgeme<strong>in</strong>erung <strong>die</strong>ses Pr<strong>in</strong>zips ist <strong>das</strong> Pr<strong>in</strong>zip der maximalen Informationsentropie. E<strong>in</strong>er<br />

Größe X wird e<strong>in</strong>e Verteilung g(x) dann folgendermaßen zugeordnet:<br />

• Die Verteilung soll mit der gegebenen Information übere<strong>in</strong>stimmen, wird also z. B. so gewählt,<br />

<strong>das</strong>s ihr Erwartungswert mit dem besten Schätzer für den Messwert übere<strong>in</strong>stimmt<br />

21


1<br />

S[p K ]<br />

0.8<br />

0.6<br />

0.4<br />

0.2<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

p K<br />

Abbildung 7: Die Informationsentropie S[p K ] für e<strong>in</strong>en e<strong>in</strong>zelnen Münzwurf mit der Randbed<strong>in</strong>gung<br />

p K + p Z = 1 ist für p K = 1/2 maximal; also ist p K = p Z = 1/2 <strong>die</strong> vorurteilsfreieVerteilungfür<br />

e<strong>in</strong>en Münzwurf.<br />

und auch <strong>das</strong>s <strong>die</strong> Verteilung nicht Werten von X e<strong>in</strong>e endliche Wahrsche<strong>in</strong>lichkeit zuweist,<br />

<strong>die</strong> von vornhere<strong>in</strong> ausgeschlossen s<strong>in</strong>d.<br />

• Die Verteilung wird so gewählt, <strong>das</strong>s sie gleichzeitig <strong>die</strong> sog. Informationsentropie<br />

S[g]=−<br />

∫<br />

g(x) ln(g(x)) dx (43)<br />

maximiert. Wie sich zeigen lässt ist dann sicher gestellt, <strong>das</strong>s <strong>die</strong> Verteilung vorurteilsfrei<br />

ist, d. h. nur <strong>die</strong> gegebene Information widerspiegelt. Zur Begründung von (43) und für<br />

weitere Details sei der Leser auf [3] und [7] verwiesen.<br />

Beispiel: Um <strong>die</strong> Vorgehensweise <strong>in</strong> e<strong>in</strong>em ganz e<strong>in</strong>fachen Fall zu demonstrieren, betrachten<br />

wir e<strong>in</strong>en Münzwurf: <strong>die</strong> möglichen Ergebnisse des Münzwurfes s<strong>in</strong>d „Kopf“ (K) oder „Zahl“<br />

(Z). Intuitiv erwarten wir <strong>die</strong> Wahrsche<strong>in</strong>lichkeit p=1/2 für jedes Ereignis. Wie würde man<br />

<strong>die</strong>se Wahrsche<strong>in</strong>lichkeit nach dem PME ermitteln? Die vorliegende Information besagt, <strong>das</strong>s<br />

mit Sicherheit e<strong>in</strong>es der beiden Ereignisse e<strong>in</strong>tritt, also p K + p Z = 1. Weitere Information liegt<br />

uns nicht vor. Die Informationsentropie ist dann <strong>in</strong> <strong>die</strong>sem Fall diskreter Ereignisse: S[p K , p z ]=<br />

−p K ln(p K )− p Z ln(p Z ). Die Randbed<strong>in</strong>gung berücksichtigen wir durch E<strong>in</strong>setzen von p Z =<br />

1− p K und erhalten: S[p K ]=−p K ln(p K )−(1− p K ) ln(1− p K ). Wie Abb. 7 zeigt und wie sich<br />

auch durch Nullsetzen der Ableitung analytisch ergibt, hat S[p K ] e<strong>in</strong> Maximum bei p K = 1/2,<br />

wie erwartet. Also ist p K = p Z = 1/2 <strong>die</strong> vorurteilsfreie Verteilung für e<strong>in</strong>en Münzwurf.<br />

Im allgeme<strong>in</strong>en Fall ist <strong>die</strong> Mathematik natürlich etwas komplizierter. Die kont<strong>in</strong>uierliche Funktion<br />

g(x) zu f<strong>in</strong>den, <strong>die</strong> unter gegebenen Randbed<strong>in</strong>gungen den Ausdruck Glg. (43) maximiert,<br />

stellt e<strong>in</strong> typisches Variationsproblem der Funktionalanalysis dar, <strong>das</strong> sich mit Hilfe sogenannter<br />

Lagrangemultiplikatoren lösen lässt. Ohne <strong>das</strong>s wir an <strong>die</strong>se Stelle auf weitere Details e<strong>in</strong>gehen<br />

können (siehe z. B. [3, 7]), soll e<strong>in</strong> weiteres Beispiel <strong>die</strong> Relevanz für <strong>die</strong> Anwendung <strong>in</strong> der<br />

Datenanalyse verdeutlichen:<br />

Beispiel: Sie messen im Grundpraktikum mit e<strong>in</strong>em Drehspulmessgerät e<strong>in</strong>e Spannung von<br />

100 V. Die vom Hersteller angegeben Toleranzklasse des Gerätes ist e<strong>in</strong>em Aufdruck auf der<br />

Skala zu entnehmen und beträgt 2.5% des Messbereiches. Bei e<strong>in</strong>em Messbereich von 600 V<br />

s<strong>in</strong>d <strong>die</strong>s also 15 V. Wie ist groß ist der Unsicherheitsbeitrag aufgrund der vom Hersteller angegebenen<br />

Toleranz?<br />

22


vorliegende Information<br />

über <strong>die</strong> Messgröße X<br />

vorurteilsfreie Verteilung<br />

nach dem PME<br />

Erwartungswert<br />

Standardabweichung<br />

obere und untere Grenze<br />

a≤ x≤b<br />

Gleichverteilung:<br />

⎧<br />

⎨<br />

g(x)=<br />

⎩<br />

1<br />

b−a<br />

für a≤ x≤b<br />

0 sonst<br />

g(x)<br />

µ= b−a<br />

2<br />

σ= b−a<br />

2 3<br />

x<br />

bester Schätzwert x 0 ,<br />

Standardunsicherheit∆x<br />

Normalverteilung:<br />

g(x)= 1<br />

<br />

σ 2π· exp − (x−µ)2<br />

2σ 2<br />

g(x)<br />

µ= x 0<br />

σ=∆x<br />

x<br />

bester Schätzwert x 0 ,<br />

Exponentialverteilung:<br />

g(x)<br />

µ= x 0<br />

x≥ 0<br />

g(x)= 1 µ e−x/µ<br />

σ=µ= x 0<br />

Tabelle2: Die e<strong>in</strong>deutige Zuordnung e<strong>in</strong>er Wahrsche<strong>in</strong>lichkeitsdichte für e<strong>in</strong>ige Beispiele von<br />

vorliegender Information über e<strong>in</strong>e Messgröße X gemäß dem Pr<strong>in</strong>zip der maximalen<br />

Informationsentropie(PME).<br />

x<br />

Nach vorliegender Information liegt <strong>die</strong> gesuchte Spannung also im Intervall zwischen<br />

85...115V, da <strong>die</strong> Toleranzklasse maximale Abweichungen charakterisiert. Weitere Informationen<br />

liegen uns nicht vor. Welche Verteilung soll nun unserer Messgröße s<strong>in</strong>nvoller Weise<br />

zugewiesen werden? E<strong>in</strong>e Normalverteilung scheidet beispielsweise aus, da sie nicht mit der<br />

gegebenen Information übere<strong>in</strong>stimmt: Sie weist nämlich auch beliebig großen Abweichungen<br />

e<strong>in</strong>e evtl. kle<strong>in</strong>e aber endliche Wahrsche<strong>in</strong>lichkeit zu, was der vorliegenden Information<br />

widerspricht.<br />

Wird <strong>das</strong> Variationsproblem Glg. (43) unter den Randbed<strong>in</strong>gungen ∫ g(x)dx= 1 (Verteilung<br />

ist normiert) und mit der Information a≤ x≤b (Wert liegt zwischen zwei Grenzen), d. h.<br />

g(x < a)=0und g(x > b)=0gelöst, dann ergibt sich als vorurteilsfreie Verteilung e<strong>in</strong>e<br />

Gleichverteilung:<br />

g(x)=<br />

<br />

1<br />

b−a<br />

für<br />

a≤ x≤b<br />

0 sonst<br />

(44)<br />

Die Vara<strong>in</strong>z der Gleichverteilung beträgtσ 2 =(a− b) 2 /12. Übertragen auf <strong>die</strong> Charakterisierung<br />

des Drehspulmessgerätes bedeutet <strong>die</strong>s: Die vorliegende Information gibt e<strong>in</strong>e obere<br />

Schranke für <strong>die</strong> Messabweichungen vor gemäß U m<strong>in</strong> ≤ U≤ U max . Wenn ke<strong>in</strong>e weitere Information<br />

vorliegt, ergibt sich aus dem PME Glg. (43) als vorurteilsfreie Verteilung, <strong>die</strong> den Stand<br />

der unvollständigen Kenntnis über <strong>die</strong> Messgröße wiedergibt, e<strong>in</strong>e Gleichverteilung auf dem<br />

Intervall U m<strong>in</strong> ≤ U≤ U max . Die zugehörige Standardabweichung ergibt dann den gesuchten<br />

Unsicherheitsbeitrag zu∆U=(U max − U m<strong>in</strong> )/(2 3)=9V und <strong>das</strong> Ergebnis ist unter Vernachlässigung<br />

eventueller weiterer Beiträge U=(100±9) V.<br />

23


Auf <strong>die</strong>se Weise ist es möglich <strong>in</strong> verschiedenen Fällen e<strong>in</strong>er Messgröße aufgrund vorliegender<br />

nicht-statistischer Information e<strong>in</strong>e Verteilung zuzuweisen. Tabelle 2 zeigt dabei welche Verteilungen<br />

für e<strong>in</strong>ige typische Fälle von vorliegender Information durch <strong>das</strong> PME zugewiesen<br />

werden. Erneut soll betont werden, <strong>das</strong>s <strong>die</strong> zugewiesene Verteilung dann ke<strong>in</strong>e Verteilung relativer<br />

Häufigkeiten mehr darstellt, sondern <strong>die</strong> uns vorliegende unvollständige Information über<br />

<strong>die</strong> Messgröße abbildet.<br />

Da nun sowohl <strong>die</strong> statistische (Typ A) als auch <strong>die</strong> nicht-statistische Information (Typ B) über<br />

e<strong>in</strong>e Messgröße durch <strong>die</strong> jeweilig zugeordente Wahrsche<strong>in</strong>lichkeitsdichte ausgedrückt wird, ist<br />

es e<strong>in</strong>fach, beide Arten von Information <strong>in</strong> e<strong>in</strong>er geme<strong>in</strong>samen Unsicherheitsangabe zu komb<strong>in</strong>ieren.<br />

Jeder Unsicherheitsbeitrag ist nun durch <strong>die</strong> Varianz (oder <strong>die</strong> Standardabweichung)<br />

e<strong>in</strong>er Verteilung charakterisiert. Und wie Varianzen von Verteilungen mite<strong>in</strong>ander zu komb<strong>in</strong>ieren<br />

s<strong>in</strong>d, verrät uns Glg. (16): Setzt man <strong>die</strong> Additivität der zugehörigen E<strong>in</strong>flussgrößen voraus,<br />

dann ad<strong>die</strong>ren sich <strong>die</strong> Unsicherheiten (Standardabweichungen) quadratisch: S<strong>in</strong>d also∆x A<br />

und∆x B nach Typ A und B ermittelte Unsicherheiten, ergibt sich <strong>die</strong> gesamte Unsicherheit zu:<br />

∆x gesamt =<br />

<br />

∆x 2 A +∆x2 B<br />

(45)<br />

Beispiel: Mit dem Digitalmultimeter PeakTech 2010 DMM aus dem Praktikum haben Sie<br />

Hallspannungen gemessen. Für gewisse Parameter von Probenstrom und Magnetfeld haben<br />

Sie als Mittelwert aus fünf Messungen e<strong>in</strong>e Spannung von Ū H = 45.3mV erhalten. Die<br />

Standardabweichung wurde gemäß Glg. (40) zu∆Ū H = 0.23mV ermittelt. Zusätzlich kennen<br />

Sie <strong>die</strong> Toleranzangabe des Herstellers für <strong>das</strong> Multimeter im Messbereich 200 mV DC:<br />

±(0.5%+5Dgt.). Bei e<strong>in</strong>em Digitalmultimeter bedeutet <strong>die</strong>s: 0.5% des Anzeigewertes plus 5<br />

mal <strong>die</strong> kle<strong>in</strong>ste signifikante Stelle auf der Digitalanzeige. Bei e<strong>in</strong>em Messwert von 45.3 mV ist<br />

<strong>die</strong>s: 0.005·45.3mV+0.5mV=0.73mV. Die nach dem PME zugeordnete Verteilung ist wieder<br />

e<strong>in</strong>e Gleichverteilung und <strong>die</strong> zugehörige Standardabweichung ist∆U Tol = 0.73/ 3=0.42mV.<br />

Damit ist <strong>die</strong> gesamte Unsicherheit gemäß Glg. (45):∆U = ∆ŪH 2+∆U2 Tol= 0.48mV. Das<br />

Ergebnis lautet also: U H =(45.3±0.5) mV.<br />

3.4 DieFortpflanzung vonMessunsicherheiten<br />

In physikalischen Experimenten kann häufig e<strong>in</strong>e <strong>in</strong>teressierende Größe u nicht direkt gemessen<br />

werden, sondern muss aus Messungen verschiedener Hilfsgrößen x, y, z, . . . abgeleitet<br />

werden. Naturgemäß s<strong>in</strong>d <strong>die</strong> gemessenen Hilfsgrößen alle mit Unsicherheiten behaftet:<br />

x= x 0 ±∆x, y=y 0 ±∆y, z= z 0 ±∆z, . . .. Die Frage, <strong>die</strong> sich nun stellt, ist, wie ermittelt man<br />

den Erwartungswert von u, und wie propagieren <strong>die</strong> Unsicherheiten <strong>in</strong> den Erwartungswerten<br />

der Hilfsgrößen <strong>in</strong> <strong>die</strong> <strong>in</strong>teressierende Größe u?<br />

Die <strong>in</strong>teressierende Größe u sei mit den gegenseitig unabhängigen Hilfsgrößen über <strong>das</strong> Gesetz<br />

u=u(x, y, z, . . .) (46)<br />

verknüpft. Beispiel: Die k<strong>in</strong>etische Energie u≡ E k<strong>in</strong> sei über <strong>die</strong> gemessenen Größen m, v via<br />

E k<strong>in</strong> =(m/2)v 2 zu bestimmen. Die Messung der Masse m und der Geschw<strong>in</strong>digkeit v erfolgt<br />

mit völlig verschieden konstruierten Instrumenten und Verfahren. Daher ist e<strong>in</strong>e gegenseitige<br />

Bee<strong>in</strong>flussung der Messungen nicht zu erwarten und m, v dürfen als unabhängig gelten.<br />

24


u(x)<br />

u 0<br />

˜x 0<br />

ũ 0<br />

x 0<br />

x<br />

Abbildung 8: Die Auswirkung der Messunsicherheit∆x e<strong>in</strong>er gemessenen Hilfsgröße x auf <strong>die</strong><br />

Unsicherheit e<strong>in</strong>er <strong>in</strong>teressierenden physikalischen Größe u ist abhängig von der<br />

lokalenSteigungder Funktion∆u(x)/∆x.<br />

Erwartungswert u 0 :<br />

In erster Näherung gilt, <strong>das</strong>s der Erwartungswert von u, also u 0 , sich aus den gemessenen Hilfsgrößen<br />

x 0 , y 0 , z 0 , . . . bildet gemäß:<br />

u 0 = u 0 (x, y, z, . . .)≈u(x 0 , y 0 , z 0 , . . .) (47)<br />

Streng ist <strong>die</strong>s nur für e<strong>in</strong>e l<strong>in</strong>eare Beziehung u(x, y, z, . . .) richtig. In der Praxis akzeptabel ist<br />

Glg. (47) aber auch dann, wenn u(x, y, z, . . .) sich im Bereich der Unsicherheiten x 0 ±∆x, y 0 ±<br />

∆y . . . ausreichend gut l<strong>in</strong>earisieren lässt.<br />

Messunsicherheit (Standardabweichung)∆ū:<br />

Abb. 8 demonstriert anhand e<strong>in</strong>er Variablen x, wie sich <strong>die</strong> Messunsicherheit von x auf <strong>die</strong><br />

Unsicherheit der Größe u auswirkt abhängig von der lokalen Steigung der Funktion an der<br />

Stelle x 0 :<br />

∂ u<br />

∆u=<br />

∂ x (48)<br />

x0·∆x<br />

Wichtig zu beachten ist dabei, <strong>das</strong>s <strong>die</strong> Funktion u(x) im Bereich x 0 ±∆x ausreichend gut durch<br />

ihre Tangente an der Stelle x 0 approximierbar, d. h. l<strong>in</strong>earisierbar se<strong>in</strong> muss. Ist <strong>die</strong> Funktion im<br />

Intervall x 0 ±∆x also „zu nervös“ und wechselt z. B. <strong>in</strong> dem bezeichneten Intervall mehrfach<br />

<strong>das</strong> Vorzeichen ihrer Ableitung, dann s<strong>in</strong>d der folgende Ausdruck, wie auch Glg. (47), nicht<br />

brauchbar. In <strong>die</strong>sem Fall müsste man <strong>die</strong> aus den Verteilungen der Hilfsgrößen resultierende<br />

Verteilung der Größe u numerisch, z. B. mit Hilfe e<strong>in</strong>er Monte Carlo Methode [4], ermitteln.<br />

Für <strong>die</strong> Belange des Praktikums ist es ausreichend anzunehmen, <strong>das</strong>s u(x, y, . . .) sich <strong>in</strong> <strong>die</strong>ser<br />

H<strong>in</strong>sicht ausreichend gutmütig verhält. Setzt man nun weiter voraus, <strong>das</strong>s <strong>die</strong> Messungen der<br />

25


Hilfsgrößen x, y, z, . . . sich gegenseitig nicht bee<strong>in</strong>flussen, <strong>die</strong>se also untere<strong>in</strong>ander statistisch<br />

unabhängig s<strong>in</strong>d, dann folgt aus dem Additionstheorem für Varianzen Glg. (16) <strong>das</strong> Gauß’sche<br />

Fortpflanzungsgesetz für Messunsicherheiten:<br />

∂ u<br />

2 ∂ u<br />

2 ∂ u<br />

2<br />

∆ū=<br />

∂ x +<br />

x0·∆x<br />

∂ y +<br />

y0·∆y<br />

∂ z + . . . (49)<br />

z0·∆z<br />

Der Ausdruck ∂ u <br />

∂ x x0<br />

bedeutet dabei, <strong>das</strong>s <strong>die</strong> partielle Ableitung von u an der Stelle des Wertes<br />

x 0 auszuwerten ist.<br />

Die E<strong>in</strong>sicht von Gauß, <strong>das</strong>s sich <strong>die</strong> Standardabweichungen wie <strong>in</strong> (49) quadratisch fortpflanzen,<br />

ist für den Experimentator äußerst wichtig. Setzen wir <strong>die</strong> entsprechenden Zahlenwerte<br />

e<strong>in</strong>, so offenbart <strong>die</strong> Betrachtung der e<strong>in</strong>zelnen Summanden unter der Wurzel, ob e<strong>in</strong> Experiment<br />

gut konzipiert wurde. Überwiegt e<strong>in</strong> Summand <strong>die</strong> anderen deutlich, so zeigt <strong>die</strong>s, <strong>das</strong>s <strong>die</strong><br />

entsprechende Größe zu wenig genau gemessen wurde, bzw. <strong>das</strong>s <strong>die</strong> dafür verwendeten Instrumente<br />

und Verfahren verbessert werden müssen. Da <strong>die</strong> Unsicherheiten quadratisch e<strong>in</strong>gehen,<br />

ist es s<strong>in</strong>nlos zu versuchen, <strong>die</strong> Beiträge an sich bereits kle<strong>in</strong>er Summanden noch kle<strong>in</strong>er zu<br />

machen. An den großen Summanden muss angesetzt werden. E<strong>in</strong> gut konzipiertes Experiment<br />

ist dadurch gekennzeichnet, <strong>das</strong>s alle Summanden ungefähr den gleichen Beitrag liefern. In<br />

<strong>die</strong>sem S<strong>in</strong>ne ist (49) auch e<strong>in</strong> wichtiges Instrument für Planung, Beurteilung und Optimierung<br />

von Experimenten.<br />

Abschließend soll darauf h<strong>in</strong>gewiesen werden, <strong>das</strong>s <strong>die</strong> e<strong>in</strong>heitliche Anwendung von Glg. (49)<br />

auf alle Messunsicherheitsbeiträge entscheidend auf den Voraussetzungen und dem Wahrsche<strong>in</strong>lichkeitsbegriff<br />

der Bayes’schen Statistik beruht. Glg. (49) setzt voraus, <strong>das</strong>s es sich bei allen<br />

Beiträgen um Varianzen bzw. Standardabweichungen handelt, d. h. <strong>das</strong>s allen Unsicherheitsangaben<br />

Verteilungen zugrunde liegen. Im Rahmen der konventionellen Statistik ist <strong>die</strong> Zuordnung<br />

e<strong>in</strong>er Verteilung z. B. für systematische Messabweichungen meist nicht möglich. Die Angabe von<br />

Unsicherheiten <strong>die</strong>ser Art müsste dann stets getrennt von den statistischen Unsicherheiten erfolgen.<br />

Nur <strong>die</strong> Fortpflanzung statistischer Unsicherheiten dürfte dann gemäß Glg. (49) erfolgen,<br />

alle anderen Beiträge müssten auf andere Weise, z. B. über den sog. Größtfehler abgeschätzt<br />

werden [2]. Allgeme<strong>in</strong> gilt <strong>die</strong>ses Verfahren deshalb als unpraktikabel und so ist der Bayes’sche<br />

Ansatz Grundlage für <strong>das</strong> durch den GUM und se<strong>in</strong>e Ergänzungen vorgeschlagene <strong>in</strong>ternational<br />

e<strong>in</strong>heitliche Verfahren zur Ermittlung und Angabe von Messunsicherheiten.<br />

Beispiel:Bestimmungder Brennweite f e<strong>in</strong>er L<strong>in</strong>se<br />

Die Brennweite f e<strong>in</strong>er L<strong>in</strong>se werde durch <strong>die</strong> unabhängige Messung der Gegenstandsweite a<br />

und der Bildweite b e<strong>in</strong>er Abbildung e<strong>in</strong>es Testgegenstandes ermittelt. Die Messung liefert <strong>die</strong><br />

Information a=a 0 ±∆a und b= b 0 ±∆b. Wie groß ist der sich daraus ergebende Schätzwert<br />

für <strong>die</strong> Brennweite der L<strong>in</strong>se f 0 und wie lässt sich <strong>die</strong> Standardabweichung der Verteilung von<br />

f abschätzen?<br />

Die Brennweite f errechnet sich als 1/f = 1/a+ 1/b, also<br />

f= f(a, b)= a· b<br />

a+ b<br />

(50)<br />

26


Gemäß (47) folgt dann für den Erwartungswert f 0<br />

Die Standardabweichung∆f erhält man nach (49) als<br />

f 0 = a 0·b 0<br />

a 0 + b 0<br />

(51)<br />

∂ f<br />

2 ∂ f<br />

2<br />

∆f=<br />

∂ a +<br />

a0·∆a<br />

∂ b (52)<br />

b0·∆b<br />

=<br />

1<br />

(a 0 + b 0 ) 2 b<br />

2<br />

0·∆a 2<br />

+<br />

a<br />

2<br />

0·∆b 2<br />

Bemerkung zur Unabhängigkeit von Messgrößen: Der Experimentator könnte auf <strong>die</strong> Idee<br />

kommen, statt jeweils <strong>die</strong> Strecken a und b zu messen, e<strong>in</strong>mal den Abstand zwischen<br />

Gegenstands- und Bildebene l= a+ b zu messen und dann <strong>in</strong> der Folge nur noch e<strong>in</strong>e Strecke,<br />

z. B. a zu bestimmen. Auf <strong>die</strong> Messung von b könnte er dann verzichten, da sich ja b aus a<br />

ergibt: b=l−a. Wenn <strong>die</strong>ser Weg gewählt wird, ist aber <strong>die</strong> Messgröße b nicht mehr unabhängig<br />

von a, und <strong>die</strong> obige Analyse nicht mehr zulässig!<br />

Regel: Die <strong>in</strong>teressierende Größe ist stets durch jene Größen darzustellen, <strong>die</strong> durch e<strong>in</strong>e unabhängige<br />

Messung ermittelt werden. In <strong>die</strong>sem Fall ist also <strong>die</strong> Brennweite durch a und l auszudrücken:<br />

a·(l− a) a·(l− a)<br />

f= f(a, l)= = (54)<br />

a+(l− a) l<br />

Für den Schätzwert der Brennweite f= f 0 ±∆f erhalten wir dann nach (47) und (49)<br />

(53)<br />

f 0 = a 0(l 0 − a 0 )<br />

(55)<br />

l<br />

0<br />

l0 <br />

− 2a 2<br />

0 a<br />

2 2<br />

0<br />

∆f= ∆a +<br />

∆l<br />

(56)<br />

l 0<br />

l 2 0<br />

27


4 BeurteilendeDatenanalyse<br />

Die Methoden der Naturwissenschaften s<strong>in</strong>d geprägt von e<strong>in</strong>em Wechselspiel aus systematischen<br />

Naturbeobachtungen und daraus folgend der Entwicklung von Hypothesen und Theorien,<br />

meist als mathematische Modelle formuliert, <strong>die</strong> dann wiederum durch weitere Experimente<br />

und Beobachtungen überprüft werden. In <strong>die</strong>sem Zusammenhang ist es entscheidend, auf der<br />

Grundlage vorliegender Messdaten trotz unvollständiger Information und vorhandenen Messunsicherheiten<br />

zu objektiven Aussagen über <strong>die</strong> Vere<strong>in</strong>barkeit von Theorie und experimentellen<br />

Daten zu gelangen.<br />

Bereits <strong>in</strong> der Fragestellung zeigt sich hier wieder der Unterschied zwischen der Herangehensweise<br />

der konventionellen frequentistischen Statistik auf der e<strong>in</strong>en Seite und der Bayes’schen<br />

Statistik auf der anderen, <strong>die</strong> wir <strong>in</strong> den vorangegangenen Abschnitten bereits diskutiert haben:<br />

Intuitiv wird man z. B. geneigt se<strong>in</strong> zu fragen: „Mit welcher Wahrsche<strong>in</strong>lichkeit ist bei vorliegendem<br />

Datensatz{x i } Theorie XY richtig?“ – Diese Frage lässt sich jedoch nur im Rahmen der<br />

Bayes’schen Statistik s<strong>in</strong>nvoll stellen. Dort lässt sich auch e<strong>in</strong>er Hypothese, e<strong>in</strong>er Aussage wie<br />

„Theorie XY trifft zu“ e<strong>in</strong>e Wahrsche<strong>in</strong>lichkeit zuordnen, <strong>die</strong> dann ke<strong>in</strong>e relativen Häufigkeiten<br />

angibt, sondern den Stand der vorliegenden Information abbildet, wie wir bereits <strong>in</strong> Abschnitt<br />

3.2 gesehen haben.<br />

Im Rahmen der konventionellen Statistik, <strong>die</strong> sich stets auf relative Häufigkeiten bezieht, wird<br />

man deshalb <strong>die</strong> Frage eher <strong>in</strong>direkt stellen: „Angenommen Theorie XY ist richtig, wie groß ist<br />

dann <strong>die</strong> Wahrsche<strong>in</strong>lichkeit, den vorliegenden Datensatz{x i } zu messen?“ Diese Frage bezieht<br />

sich auf <strong>die</strong> Grundgesamtheit der Datensätze zur Größe X, deren relative Häufigkeiten wir im<br />

Rahmen der konventionellen Statistik immerh<strong>in</strong> abschätzen können. Ist <strong>die</strong> resultierende Wahrsche<strong>in</strong>lichkeit<br />

dann zu ger<strong>in</strong>g, werden wir <strong>die</strong> Theorie ablehnen, ist sie hoch werden wir geneigt<br />

se<strong>in</strong>, <strong>das</strong> Modell zu akzeptieren.<br />

Die Grundidee von Hypothesentests wollen wir anhand e<strong>in</strong>iger Beispiele zunächst im Rahmen<br />

der konventionellen frequentistischen Statistik erläutern. Abschnitt 4.3 gibt dann e<strong>in</strong>en kle<strong>in</strong>en<br />

Ausblick darauf, wie Hypothesentests auch im Rahmen der Bayes’schen Statistik durchgeführt<br />

werden können.<br />

4.1 Hypothesentests<strong>in</strong> derkonventionellen Statistik<br />

Unter e<strong>in</strong>er Hypothese versteht man <strong>in</strong> der Datenanalyse e<strong>in</strong>e Annahme über <strong>die</strong> Verteilung e<strong>in</strong>er<br />

Messgröße, z. B. <strong>die</strong> Annahme <strong>das</strong>s <strong>die</strong> Verteilung der Schw<strong>in</strong>gungsdauer T e<strong>in</strong>es Pendels den<br />

Mittelwert T= 5.5s aufweist. Der Test e<strong>in</strong>er Hypothese ist e<strong>in</strong> Prüfverfahren, <strong>das</strong> man anwendet,<br />

um <strong>die</strong> Entscheidung zu objektivieren, ob e<strong>in</strong>e bestimmte Hypothese mit den vorliegenden<br />

Daten verträglich ist, oder nicht. Im ersten Fall wird <strong>die</strong> Hypothese angenommen, im zweiten<br />

Falle verworfen, denn „es besteht e<strong>in</strong> objektiver Grund zur Annahme, <strong>das</strong>s <strong>die</strong> Daten nicht mit<br />

der Hypothese verträglich s<strong>in</strong>d“.<br />

4.1.1 Hypothesentest<strong>in</strong>e<strong>in</strong>ere<strong>in</strong>fachen Situation<br />

Wir betrachten <strong>die</strong> e<strong>in</strong>fachste Variante e<strong>in</strong>es solchen Tests und testen <strong>die</strong> Hypothese, wonach<br />

e<strong>in</strong>e gemessene physikalische Größe e<strong>in</strong>en spezifischen Wert aufweisen soll:<br />

28


Beispiel:DasStromnormal<br />

Im Labor haben wir e<strong>in</strong> Stromnormal, <strong>das</strong> e<strong>in</strong>en Strom von 15µA liefern soll. Im Praktikum<br />

soll <strong>die</strong> Hypothese, wonach der Ausgangsstrom des Normals 15 µA betrage (Herstellerangabe),<br />

durch Messungen untermauert oder widerlegt werden. Dazu wird e<strong>in</strong>e Serie von 50 Strommessungen<br />

durchgeführt und gemäß Abschnitt 2.1 analysiert. Das Resultat liefert e<strong>in</strong>en mittleren<br />

Strom von Ī= 14.85 µA mit e<strong>in</strong>er empirischen Standardabweichung von s=0.3 µA. Muss daraus<br />

geschlossen werden, <strong>das</strong>s <strong>die</strong> Stromangabe 15 µA nicht stimmt?<br />

Test: Wir betrachten den gemessenen Mittelwert als e<strong>in</strong>e Stichprobe, <strong>die</strong> aus e<strong>in</strong>er normalverteilten<br />

Gesamtheit gezogen wurde. Wir nehmen zunächst an, unsere Ausgangshypothese<br />

sei korrekt. Damit hat <strong>die</strong> Normalverteilung den Mittelwertµ=15µA. Die Standardabweichung<br />

der Verteilung schätzen wir durch <strong>die</strong> empirische Stichprobenvarianz ab und erhalten<br />

s<br />

<br />

50<br />

= 0.3<br />

<br />

50<br />

= 0.042 µA.<br />

Nun wählen wir e<strong>in</strong> Signifikanzniveau (e<strong>in</strong>e Vertrauensgrenze)α, z. B.α=1%. Sollte <strong>die</strong> Wahrsche<strong>in</strong>lichkeit<br />

dafür, <strong>das</strong>s <strong>die</strong> gefundene Abweichung unseres Messwertes vom hypothetischen<br />

Mittelwert re<strong>in</strong> auf zufälligen Schwankungen beruht kle<strong>in</strong>er se<strong>in</strong> alsα, dann betrachten wir<br />

<strong>die</strong>se Abweichungen als statistisch signifikant und lehnen <strong>die</strong> Hypothese ab.<br />

Die Differenz des gemessenen Mittelwertes zum hypothetischen Wert beträgt <strong>in</strong> unserem Fall<br />

(15.0−14.85) µA=0.15µA, oder, ausgedrückt <strong>in</strong> E<strong>in</strong>heiten der Standardabweichung,<br />

3.5.<br />

0.15<br />

0.042 =<br />

Die Wahrsche<strong>in</strong>lichkeit dafür, experimentell e<strong>in</strong>en Mittelwert Ī zu erhalten, der kle<strong>in</strong>er oder<br />

gleich 14.85 µA ist, liegt, <strong>das</strong> zeigen Tabellen der Verteilungsfunktion der Normalverteilung, bei<br />

0.02% also deutlich unter dem von uns gewählten Niveauα. Wir haben deshalb objektiven<br />

Grund anzunehmen, <strong>das</strong>s <strong>die</strong> Daten nicht mit der Hypothese verträglich s<strong>in</strong>d.<br />

p-Quantil: In <strong>die</strong>sem Beispiel stellt der Wert 3.5 E<strong>in</strong>heiten der Standardabweichung, bzw. der<br />

entsprechende Wert auf der Stromskala, <strong>das</strong> „0.02%-Quantil“ dar. Das p-Quantil e<strong>in</strong>er gegebenen<br />

Verteilung ist also e<strong>in</strong> Messwert mit der Eigenschaft, <strong>das</strong>s verglichen mit ihm im Mittel<br />

p· 100% der Messwerte kle<strong>in</strong>er s<strong>in</strong>d und m<strong>in</strong>destens(1− p)·100% größer ausfallen.<br />

Zusammenfassung:Schrittefürden Hypothesentest<br />

1. Zunächst spezifiziere man <strong>die</strong> Hypothese (oft besteht <strong>die</strong>se <strong>in</strong> der Angabe e<strong>in</strong>es Parameterwertes),<br />

so <strong>das</strong>s daraus <strong>die</strong> Verteilungsfunktion bestimmt werden kann, aus der <strong>die</strong><br />

Stichprobe stammen müsste sofern <strong>die</strong> Hypothese richtig ist.<br />

2. Dann bestimme man <strong>die</strong> statistischen Maßzahlen der Stichprobe z. B. Mittelwert, Standardabweichung,<br />

etc.<br />

3. Man wähle e<strong>in</strong> Signifikanzniveauα; je empf<strong>in</strong>dlicher man auf Abweichungen von der Hypothese<br />

testen will umso größer wähle manα; je sicherer man h<strong>in</strong>gegen se<strong>in</strong> will, <strong>das</strong>s<br />

gefundene Abweichungen systematischer Natur s<strong>in</strong>d, desto kle<strong>in</strong>er wähle manα.<br />

4. Nun bestimmt man <strong>das</strong>α-Quantil der Verteilung (oder <strong>das</strong>(1−α)-Quantil, je nach Situation)<br />

und vergleicht es mit dem erhaltenen Messwert. Ist <strong>die</strong>ser weiter vom hypothetischen<br />

Mittelwert entfernt als <strong>das</strong>α-Quantil, so ist <strong>die</strong> Hypothese abzulehnen. Alternativ kann<br />

man auch e<strong>in</strong>er Tabelle der p-Quantile den zum Messwert gehörigen p-Wert entnehmen<br />

und ihn mit dem gewählten Wertαvergleichen. Ist p


Stichprobe zu realisieren zu kle<strong>in</strong>, falls <strong>die</strong> Hypothese wahr ist. Es besteht dann ebenfalls<br />

Grund anzunehmen, <strong>das</strong>s <strong>die</strong> Daten nicht mit der Hypothese verträglich s<strong>in</strong>d.<br />

4.2 Derχ 2 -Test:VergleicheTheorieund Experiment<br />

Derχ 2 -Test (Chi-Quadrat-Test) liefert e<strong>in</strong> Maß für <strong>die</strong> Verträglichkeit e<strong>in</strong>es Datensatzes mit e<strong>in</strong>er<br />

theoretischen Vorhersage für den Fall <strong>das</strong>s Datenwerte y i als Funktion e<strong>in</strong>es gewissen Merkmals<br />

x i erfasst wurden [12, 13]. Zum Beispiel könnte e<strong>in</strong>e experimentell ermittelte Häufigkeitsverteilung<br />

h(x) e<strong>in</strong>er Messgröße X mit e<strong>in</strong>er hypothetischen Verteilungsfunktionϕ(x) verglichen<br />

werden oder <strong>die</strong> experimentell gefundene Temperaturabhängigkeit e<strong>in</strong>er physikalischen Größe<br />

c(T) zur Überprüfung e<strong>in</strong>er Theorie herangezogen werden, <strong>die</strong> ˜c(T) vorhersagt. Der Grundgedanke<br />

desχ 2 -Tests ist dabei sehr e<strong>in</strong>fach: Man quantifiziert <strong>die</strong> Abweichungen von theoretischer<br />

Vorhersage und experimentellen Daten mittels e<strong>in</strong>er Größeχ 2 . Ist <strong>die</strong>se zu groß, so wird beispielsweise<br />

<strong>die</strong> Hypothese: „ϕ(x) repräsentiert <strong>die</strong> Verteilungsfunktion der Daten“ verworfen.<br />

Liegt der Unterschied unterhalb e<strong>in</strong>es gewissen Wertes, der natürlich von der Größe des Datensatzes<br />

abhängt, so wird <strong>die</strong> Hypothese angenommen. Zunächst müssen wir also <strong>die</strong> Abweichung<br />

von Messwerten und theoretischer Erwartung quantifizieren und Aussagen über <strong>die</strong> Verteilung<br />

<strong>die</strong>ser „Abweichungsgröße“χ 2 treffen.<br />

Summeder quadratischen Abweichungenundχ 2 -Verteilung<br />

Experimentell sei e<strong>in</strong> Datensatz{y i } mit zugehörigen Unsicherheiten∆y i ermittelt worden, z. B.<br />

<strong>die</strong> empirische Verteilung von Häufigkeiten der erhaltenen Werte x i e<strong>in</strong>er Messgröße X. Dann<br />

beschreibt <strong>die</strong> Quadratsumme der gewichteten Abweichungen oder auch Residuen R i =(y i −<br />

ϕ(x i ))/∆y i wie gut <strong>die</strong> Messwerte mit e<strong>in</strong>em theoretisch erwarteten Verhaltenϕ(x i ) verträglich<br />

s<strong>in</strong>d, also:<br />

n∑ n∑ <br />

yi<br />

χ 2 = R 2 −ϕ(x i ) 2<br />

i=<br />

(57)<br />

∆y i<br />

i<br />

i<br />

Um als nächstes Aussagen über <strong>die</strong> Verteilung der Größeχ 2 treffen zu können, ist folgender<br />

Satz über <strong>die</strong> Verteilung der Quadrate von normalverteilten Zufallsgrößen der Ausgangspunkt:<br />

Seien{R 1 , R 2 , ...R k } unabhängige und gemäß N(0, 1) standardnormalverteilte Zufallsgrößen.<br />

Die Größe Z k = ∑ k<br />

i R2 i<br />

ist dannχ 2 -verteilt mit k Freiheitsgraden und der Dichtefunktion:<br />

f χ 2(z, k)= zk/2−1 e −z/2<br />

2 k/2 Γ(k/2)<br />

(58)<br />

Wichtig ist also, <strong>das</strong>s <strong>die</strong> R i statistisch unabhängig und standardnormalverteilt s<strong>in</strong>d. S<strong>in</strong>d dabei<br />

<strong>die</strong> Zufallsgrößen Y i nach N(µ i ,σ i ) normalverteilt und ist <strong>die</strong> Theorieϕ(X i ) korrekt, dann<br />

beschreibtϕ(x i ) gerade den Erwartungswert von Y i , alsoϕ(x i )=µ i und∆y i =σ i . Damit<br />

entsprechen <strong>die</strong> R i aber gerade der Transformation aus Glg. (36) und s<strong>in</strong>d somit N(0, 1) normalverteilt.<br />

Ob <strong>die</strong> Größen Y i allerd<strong>in</strong>gs normalverteilt s<strong>in</strong>d muss im E<strong>in</strong>zefall geklärt werden.<br />

Typisch wäre, <strong>das</strong>s es sich bei den experimentell ermittelten y i selbst bereits um Mittelwerte<br />

handelt und so der Zentrale Grenzwertsatz zum<strong>in</strong>dest <strong>die</strong> näherungsweise Normalverteilung<br />

sichert, oder <strong>das</strong>s Y i b<strong>in</strong>omialverteilt ist aber man <strong>die</strong> Normalverteilungsnäherung für große n<br />

30


0.6<br />

f χ<br />

2(z,k)<br />

0.5<br />

k=1<br />

0.4<br />

0.3<br />

k=2<br />

0.2<br />

0.1<br />

k=3<br />

k=4<br />

k=7<br />

0<br />

0 2 4 6 8 10<br />

z<br />

Abbildung 9: DieDichtefunktionderχ 2 -Verteilung f χ 2(z, n) für verschieden Freiheitsgrade n.<br />

wie <strong>in</strong> Glg. (31) zugrunde legen kann. Für <strong>die</strong>se beiden praxisrelevanten Fälle lernen wir weiter<br />

unten je e<strong>in</strong> Beispiel kennen.<br />

E<strong>in</strong>e weitere wichtige Voraussetzung ist <strong>die</strong> Unabhängigkeit der Residuen. Sie legt direkt <strong>die</strong><br />

Zahl der Freiheitsgrade k der Verteilung fest. Diese Zahl kann durchaus kle<strong>in</strong>er se<strong>in</strong> als <strong>die</strong><br />

Anzahl n der Summanden <strong>in</strong> Glg. (57), sei es weil <strong>die</strong> y i z. B. relative Häufigkeiten s<strong>in</strong>d und<br />

so wegen der Normierung ∑ n<br />

i<br />

y i = 1 <strong>die</strong> Zahl der Freiheitsgrade um e<strong>in</strong>en reduziert wird (aus<br />

n−1 bekannten y i ließe sich y n ausrechnen), oder weil <strong>die</strong> Funktionϕ(x) evtl. freie Parameter<br />

enthält, <strong>die</strong> durch den Datensatz{y i } erst festgelegt werden, was <strong>die</strong> Zahl der Freiheitsgrade<br />

eben um <strong>die</strong> Anzahl <strong>die</strong>ser freien Parameter verr<strong>in</strong>gert.<br />

Für k=1lässt sich Glg. (58) übrigens leicht nachvollziehen, <strong>in</strong>dem man <strong>in</strong> der Wahrsche<strong>in</strong>lichkeitsverteilung<br />

der Normalverteilung z=x 2 substituiert:<br />

N(x, 0, 1) dx= 2<br />

<br />

2π<br />

e −x2 /2 dx= 1<br />

x 2π e−x2 /2 dx 2 = z−1/2<br />

<br />

2π<br />

e −z/2<br />

}{{}<br />

f χ 2(z, 1)<br />

dz<br />

Abb. 9 zeigt <strong>die</strong> Dichtefunktion f χ 2(z, k) derχ 2 -Verteilung für e<strong>in</strong>ige Freiheitsgrade. Die p-<br />

Quantile derχ 2 -Verteilung s<strong>in</strong>d tabelliert, siehe Anhang A.<br />

4.2.1 Derχ 2 -Test:VergleicheDatensatzmit hypothetischerVerteilungϕ(x)<br />

Folgendes sei <strong>die</strong> Ausgangslage: In e<strong>in</strong>em Experiment hat man <strong>die</strong> Größe X gemessen und nach<br />

der Messung liegt e<strong>in</strong> Satz Daten{x i , . . ., x n } vor. Hypothese: Wir verfügen über gute Gründe<br />

anzunehmen, <strong>das</strong>s <strong>die</strong> Daten e<strong>in</strong>er bestimmten Verteilungϕ(x) folgen. Die grundsätzliche<br />

Strategie wird nun se<strong>in</strong>, zunächst den Datensatz als Histogramm darzustellen und dann <strong>die</strong> so<br />

ermittelten Klassenhäufigkeiten b j mit den ausϕ(x) ermittelten Häufigkeiten zu vergleichen.<br />

31


Vorgehen:<br />

1. Histogramm: Unterteile <strong>die</strong> x-Achse <strong>in</strong> k-Intervalle (Klassen) I 1 , I 2 , . . ., I k derart, <strong>das</strong>s jedes<br />

Intervall mehr als 5. . . 10 Datenwerte enthält. Eventuell müssen Randklassen zusammengefasst<br />

werden, damit <strong>die</strong>se Belegung zustandekommt. Dann bestimme man <strong>die</strong> Anzahl<br />

Daten b j , <strong>die</strong> <strong>in</strong> jeder der Klassen I j liegen. Die Summe aller b j ergibt <strong>die</strong> Anzahl Daten<br />

n= ∑ k<br />

j=1 b j. Diese Bed<strong>in</strong>gung wird <strong>die</strong> Zahl der Freiheitsgrade auf k−1 reduzieren.<br />

2. Aus der hypothetischen Verteilungϕ(x) berechne man für jedes Intervall I j <strong>die</strong> Wahrsche<strong>in</strong>lichkeit<br />

p j , mit der e<strong>in</strong> Datenpunkt e<strong>in</strong>en Wert <strong>in</strong>nerhalb des j-ten Intervalls annimmt.<br />

Daraus berechne man <strong>die</strong> Anzahl der theoretisch <strong>in</strong> der Klasse I j erwarteten Datenwerte<br />

e j = np j .<br />

3. Bezüglich e<strong>in</strong>er Klasse j s<strong>in</strong>d <strong>die</strong> Häufigkeiten b j B<strong>in</strong>omialverteilt (Wahrsche<strong>in</strong>lichkeit, <strong>das</strong>s<br />

bei n Messungen der Größe X der Messwert b j -mal <strong>in</strong> <strong>die</strong> Klasse j fällt). Nehmen wir nun<br />

an es liegen genügend Messwerte <strong>in</strong> jeder Klasse vor (≥ 10, geschickte Klassene<strong>in</strong>teilung<br />

bei der Konstruktion des Histogramms wird also vorausgesetzt!), so <strong>das</strong>s gemäß Glg. (31)<br />

<strong>die</strong> Häufigkeiten b j <strong>in</strong> jeder Klasse näherungsweise normalverteilt s<strong>in</strong>d. Dann können wir<br />

<strong>die</strong> Unsicherheit wie folgt abschätzen:∆b j ≈ np j = e j und berechnen <strong>die</strong> Abweichung<br />

der Daten von der Hypothese gemäß:<br />

k∑<br />

χ 2 0 = (b j − e j ) 2<br />

=<br />

e j<br />

j=1<br />

k∑<br />

j=1<br />

b 2 j<br />

e j<br />

− n. (59)<br />

4. Man wähle e<strong>in</strong>e Signifikanzzahl (Vertrauensgrenze)α, z. B. 5%, 1%, oder ähnlich.<br />

5. Mit Hilfe e<strong>in</strong>er Tabelle derχ 2 -Verteilung mit k−1 Freiheitsgraden (siehe Anhang) bestimme<br />

man <strong>das</strong>(1−α)-Quantilχ 2 1−α<br />

, so <strong>das</strong>s mit der Wahrsche<strong>in</strong>lichkeit 1−α zufällige<br />

Abweichungen der experimentellen Häufigkeiten von der theoretisch erwarteten Verteilung<br />

kle<strong>in</strong>er s<strong>in</strong>d alsχ 2 1−α : P(χ 2 ≤χ 2 1−α<br />

)=1−α (60)<br />

6. Istχ 2 0 ≤χ2 1−α , so wird <strong>die</strong> Hypothese angenommen. Ist h<strong>in</strong>gegenχ2 0 >χ2 1−α<br />

, so wird sie<br />

verworfen, denn es besteht objektiv Grund zur Annahme, <strong>das</strong>s der Datensatz{x i } nicht mit<br />

der Verteilungϕ(x) kompatibel ist.<br />

E<strong>in</strong> Beispiel:Mendels Erbsen<br />

Folgendes ist e<strong>in</strong>es der klassischen Experimente, <strong>die</strong> Gregor Mendel 1865 publizierte um se<strong>in</strong>e<br />

Vererbungstheorie zu bestätigen. Er untersuchte Erbsen um <strong>die</strong> dom<strong>in</strong>ant-rezessive Vererbung<br />

e<strong>in</strong>zelner Merkmale zu belegen. Dabei betrachtete er <strong>in</strong> e<strong>in</strong>em bestimmten Experiment bei 556<br />

Erbsen <strong>die</strong> Merkmale Form (rund oder kantig) und Farbe (grün oder gelb) und beobachtete<br />

folgende Häufigkeiten der Merkmalskomb<strong>in</strong>ationen:<br />

rund/gelb rund/grün kantig/gelb kantig/grün<br />

315 108 101 32<br />

32


während se<strong>in</strong>e Theorie Häufigkeiten <strong>die</strong>ser Merkmale im Verhältnis 9:3:3:1 vorhersagt. Kann<br />

<strong>die</strong> Theorie nun durch <strong>die</strong>se Daten bestätig werden? Wir wählen als Signifikanzniveauα=5%.<br />

Dies führt zu e<strong>in</strong>em 95%-Quantil, welches sich für k−1=3 Freiheitsgerade aus der Tabelle im<br />

Anhang ablesen lässtχ 2 0.95 = 7.81.χ2 0<br />

ergibt sich andererseits nach (59) zu:<br />

χ 2 0 = 16<br />

<br />

315<br />

2<br />

556 9 + 1082<br />

3 + 1012<br />

3 + 322<br />

− 556=0.47


∂χ 2 (a,b)<br />

∂ a<br />

s<strong>in</strong>d:<br />

= 0 und ∂χ2 (a,b)<br />

∂ b<br />

= 0 erhält man unter der Voraussetzung, <strong>das</strong>s alle∆y i gleich groß<br />

a= n∑ x i y i −( ∑ x i )( ∑ y i )<br />

n ∑ x 2 i−( ∑ x i ) 2 (62)<br />

b= (∑ y i )( ∑ x 2 i )−(∑ x i )( ∑ x i y i )<br />

n ∑ x 2 i−( ∑ x i ) 2 (63)<br />

Im allgeme<strong>in</strong>eren Fall, <strong>das</strong>s <strong>die</strong> Funktionη(x) nichtl<strong>in</strong>ear ist oder <strong>das</strong>s <strong>die</strong> Messunsicherheiten<br />

∆y i unterschiedlich ausfallen, wird manχ 2 numerisch m<strong>in</strong>imieren. Auch wenn wir auf <strong>die</strong> dabei<br />

angewandten Methoden an <strong>die</strong>ser Stelle nicht näher e<strong>in</strong>gehen können, sei als Stichwort der<br />

Levenberg-Marquardt Algorithmus erwähnt, der hier <strong>in</strong> ganz vielen praktischen Fällen Anwendung<br />

f<strong>in</strong>det. Dem <strong>in</strong>teressierten Leser sei dazu <strong>das</strong> Kapitel Model<strong>in</strong>g of Data <strong>in</strong> den Numerical<br />

Recipes empfohlen, welches nicht nur <strong>die</strong> mathematischen Zusammenhänge leicht verständlich<br />

aufbereitet sondern auch fertig programmierte Rout<strong>in</strong>en anbietet [15].<br />

Nehmen wir nun an, wir haben mit dem geeigneten Verfahren s freie Parameter durch M<strong>in</strong>imierung<br />

vonχ 2 über unsere n Messpunkte festgelegt. Dann ergibt sich aus unseren Messdaten<br />

und Glg. (61) e<strong>in</strong> Wertχ 2 m<strong>in</strong> für <strong>das</strong> so erhaltene m<strong>in</strong>imaleχ2 und wir können denχ 2 Test<br />

durchführen, <strong>in</strong>dem wir wieder e<strong>in</strong>e Vertrauensgrenzeαfestlegen und <strong>das</strong> 1−α-Quantil der<br />

χ 2 Verteilung, <strong>die</strong>smal für n−s Freiheitsgrade nachschlagen. Und dann gilt wie immer: istχ 2 m<strong>in</strong><br />

größer lehnen wir <strong>das</strong> Modell ab, ist es kle<strong>in</strong>er akzeptieren wir.<br />

Auch hier nochmal e<strong>in</strong>e Zusammenfassung des Verfahrens:<br />

• Durch unser Experiment gew<strong>in</strong>nen wir n Messwerte der Größe Y mit den zugehörigen<br />

Unsicherheiten, also n Zahlentripel der Form{x i , y i ,∆y i }.<br />

• Mit e<strong>in</strong>em geeigneten Verfahren wählen wir <strong>die</strong> s freien Parameter <strong>in</strong> unserem mathematischen<br />

Modellη(x; a 1 , . . ., a s ) so, <strong>das</strong>sχ 2 aus (61) m<strong>in</strong>imal wird.<br />

• Mit dem so erhaltenenχ 2 m<strong>in</strong> führen wir e<strong>in</strong>enχ2 -Test mit n−s Freiheitsgraden durch. Für<br />

zu großeχ 2 m<strong>in</strong><br />

ist <strong>das</strong> Modellη(x) abzulehenen, bei zu kle<strong>in</strong>en Werten erhebt sich u. U. der<br />

Verdacht auf Datenmanipulation oder <strong>die</strong> Messunsicherheiten wurden falsch e<strong>in</strong>geschätzt.<br />

E<strong>in</strong> Beispiel:Der ZerfallvonBierschaum<br />

Betrachten wir e<strong>in</strong> Beispiel und untersuchen den Zerfall von Bierschaum. Dabei wird <strong>in</strong> e<strong>in</strong>em<br />

zyl<strong>in</strong>drischen Glas zu verschiedenen Zeiten t i <strong>die</strong> Höhe h i des Bierschaumes gemessen. Das Experiment<br />

wird wiederholt, am besten mit der bevorzugten Marke des Experimentators ;-), und<br />

zu jedem Zeitpunkt t i <strong>die</strong> mittlere Höhe ¯h i mit zugehöriger Unsicherheit∆¯h i ermittelt. Abbildung<br />

10 zeigt Messdaten aus [13], <strong>die</strong> für Erd<strong>in</strong>ger Weißbier gewonnen wurden. Es wurden<br />

im Zeitraum zwischen 0 und 360 s 15 Messpunkte ¯h i und deren zugehörige Unsicherheiten∆¯h i<br />

bestimmt.<br />

Nun fragen wir uns, was als mathematisches Modell für den Bierschaumzerfall <strong>in</strong> Frage kommt.<br />

Wenn <strong>die</strong> Zerfallsrate proportional zum Volumen des Schaums und damit zur Höhe <strong>in</strong> e<strong>in</strong>em<br />

zyl<strong>in</strong>drischen Glas ist, also dh/dt∝ h, dann erwarten wir exponentiellen Zerfall gemäß:<br />

h(t)=h 0 e −t/τ (64)<br />

34


18<br />

h/cm<br />

16<br />

14<br />

exponentiell<br />

l<strong>in</strong>ear<br />

12<br />

10<br />

8<br />

6<br />

4<br />

0 50 100 150 200 250 300 350 400<br />

t / s<br />

Abbildung 10: Der Zerfall von Bierschaum bei Erd<strong>in</strong>ger Weißbier: Höhe des Schaums als Funktion<br />

der Zeit h(t), <strong>die</strong> Messunsicherheiten s<strong>in</strong>d als Fehlerbalken dargestellt. Die<br />

Daten s<strong>in</strong>d aus [13] entnommen. Durchgezogene L<strong>in</strong>ien: exponentielles und l<strong>in</strong>earesZerfallsmodellnachGln.<br />

(64) und (65).<br />

mit der Anfangshöhe h 0 und der Zeitkonstanteτ, nach welcher <strong>die</strong> Höhe auf 1/e des Anfangswertes<br />

abgefallen ist. Als Alternativmodell testen wir e<strong>in</strong>en l<strong>in</strong>earen Zerfall gemäß:<br />

h(t)=h 0<br />

1− t/t0<br />

, t


„l<strong>in</strong>earer Zerfall“ zu verwerfen, während sich für den exponentiellen Zerfall e<strong>in</strong>e Wahrsche<strong>in</strong>lichkeit<br />

P(χ 2 ≥ 10.1)=68.6% ergibt, d. h. <strong>in</strong> etwa zwei von drei Experimenten werden wir<br />

Werte vonχ 2 m<strong>in</strong><br />

erhalten, <strong>die</strong> größer s<strong>in</strong>d, als wir sie im vorliegenden Experiment gefunden haben,<br />

<strong>in</strong> e<strong>in</strong>em von drei Experimenten werden im Mittel <strong>die</strong> Werte kle<strong>in</strong>er se<strong>in</strong>. Dies ist realistisch<br />

und damit ist <strong>die</strong> Theorie akzeptiert.<br />

4.3 Hypothesentests<strong>in</strong> derBayes’schen Statistik<br />

Wie bereits <strong>in</strong> Abschnitt 3.2 über Messunsicherheiten erwähnt, gew<strong>in</strong>nen <strong>die</strong> Methoden der<br />

Bayes’schen Statistik zunehmend an Bedeutung für <strong>die</strong> naturwissenschaftliche Datenanalyse<br />

[3, 4, 7, 8]. E<strong>in</strong>e E<strong>in</strong>führung <strong>in</strong> <strong>die</strong> Bayes’sche Statistik würde den Rahmen <strong>die</strong>ses Skriptes<br />

jedoch sprengen. Deshalb müssen wir den Leser auf <strong>die</strong> verfügbare Literatur verweisen (sehr<br />

gut für den E<strong>in</strong>stieg geeignet ist z. B. [8]) und werden uns im Folgenden auf e<strong>in</strong> paar wenige<br />

H<strong>in</strong>weise und e<strong>in</strong> Beispiel beschränken.<br />

Wie bereits mehrfach erwähnt, wird <strong>in</strong> der Bayes’schen Statistik e<strong>in</strong> anderer Wahrsche<strong>in</strong>lichkeitsbegriff<br />

zugrunde gelegt als <strong>in</strong> der konventionellen frequentistischen Sichtweise. Wahrsche<strong>in</strong>lichkeit<br />

wird nicht mehr nur als relative Häufigkeit verstanden, sondern gibt den Grad<br />

unserer Überzeugung an, mit dem wir auf der Basis der vorliegenden unvollständigen Information<br />

erwarten können, <strong>das</strong>s e<strong>in</strong> Ereignis e<strong>in</strong>tritt. Damit beschreibt Wahrsche<strong>in</strong>lichkeit eher <strong>die</strong><br />

Information, <strong>die</strong> wir über e<strong>in</strong>en Sachverhalt zur Verfügung haben. Diese kann uns als (empirische)<br />

Verteilung relativer Häufigkeiten vorliegen, kann aber auch von anderer Form se<strong>in</strong>. Wie<br />

sich auch <strong>in</strong> <strong>die</strong>sen Fällen Wahrsche<strong>in</strong>lichkeitsverteilungen e<strong>in</strong>deutig zuordnen lassen, haben<br />

wir im Abschnitt 3.2 bereits diskutiert.<br />

In der Bayes’schen Herangehensweise betrachtet man grundsätzlich bed<strong>in</strong>gte Wahrsche<strong>in</strong>lichkeiten.<br />

In <strong>die</strong>sem Kontext bedeutet z. B. P(A| B) <strong>die</strong> Wahrsche<strong>in</strong>lichkeit dafür, <strong>das</strong>s <strong>das</strong> Ereignis A<br />

e<strong>in</strong>tritt unter der Bed<strong>in</strong>gung, <strong>das</strong>s B vorliegt. Die Wahrsche<strong>in</strong>lichkeit, <strong>das</strong>s A und B tatsächlich zusammen<br />

auftreten ist dann P(A, B)= P(A| B)· P(B)= P(B| A)· P(A). Daraus folgt <strong>das</strong> Bayes’sche<br />

Theorem:<br />

P(B| A)· P(A)<br />

P(A| B)= , (66)<br />

P(B)<br />

welches grundsätzlich den Ausgangspunkt für e<strong>in</strong>e Datenanalyse im Rahmen der Bayes’schen<br />

Statistik bildet. Die Relevanz <strong>die</strong>ser zunächst abstrakten Überlegung erschließt sich, sobald man<br />

<strong>in</strong> Glg. (66) <strong>die</strong> Größen A und B durch Hypothese und Messdaten ersetzt. Dann liest sich obige<br />

Gleichung so:<br />

P(Hypothese| Daten)=<br />

P(Daten| Hypothese)· P(Hypothese)<br />

P(Daten)<br />

(67)<br />

Dabei wird <strong>die</strong> l<strong>in</strong>ke Seite der Gleichung P(Hypothese| Daten) <strong>die</strong> Posteriori-Wahrsche<strong>in</strong>lichkeit<br />

genannt. Sie setzt sich zusammen aus der Likelihood P(Daten| Hypothese), <strong>die</strong> auch <strong>in</strong><br />

der konventionellen Statistik verwendet wird, und der sogenannten Priori-Wahrsche<strong>in</strong>lichkeit<br />

P(Hypothese). Letztere stellt unseren Kenntnisstand vor der Messung dar und könnte so s<strong>in</strong>ngemäß<br />

auch als „Vorurteil“ bezeichnet werden. Glg. (67) zeigt dann auf, wie neue Messdaten<br />

unsere Kenntnis über e<strong>in</strong>en Sachverhalt modifizieren. Der Ausdruck P(Daten) im Nenner von<br />

Glg. (67) stellt lediglich e<strong>in</strong>en Normierungsfaktor dar.<br />

36


Um <strong>die</strong> Begriffe zu verdeutlichen: Angenommen wir würfeln und fragen uns nach der Wahrsche<strong>in</strong>lichkeit,<br />

bei e<strong>in</strong>em Wurf <strong>die</strong> „1“ zu erhalten. A priori würden wir e<strong>in</strong>en ungez<strong>in</strong>kten Würfel<br />

erwarten, und deshalb davon ausgehen, <strong>das</strong>s sich <strong>die</strong> Anzahl erhaltener 1er bei N Würfen<br />

mit e<strong>in</strong>er B<strong>in</strong>omialverteilung mit p 0 = 1/6 beschreiben lässt. F<strong>in</strong>den wir nun <strong>in</strong> 100 Würfen 25<br />

mal <strong>die</strong> 1, dann werden wir jedoch geneigt se<strong>in</strong>, unsere Me<strong>in</strong>ung zu revi<strong>die</strong>ren. Genau <strong>die</strong>ser<br />

„Lernprozess“ ist <strong>in</strong> Glg. (67) formalisiert.<br />

An Glg. (67) wird auch deutlich, warum <strong>die</strong> Bayes’sche Statistik sich e<strong>in</strong>es anderen Wahrsche<strong>in</strong>lichkeitsbegriffes<br />

be<strong>die</strong>nt, als es <strong>in</strong> der frequentistischen Herangehensweise üblich ist: Damit<br />

e<strong>in</strong>e Interpretation des Bayes-Theorems <strong>in</strong> der Form Glg. (67) S<strong>in</strong>n macht, muss man e<strong>in</strong>er<br />

Hypothese e<strong>in</strong>e Wahrsche<strong>in</strong>lichkeit zuordnen können. Dies ist mit e<strong>in</strong>em Wahrsche<strong>in</strong>lichkeitsbegriff<br />

im S<strong>in</strong>ne „relativer Häufigkeiten des Auftretens von Ereignissen“ nicht möglich.<br />

Noch e<strong>in</strong> anderer Punkt wird an <strong>die</strong>ser Stelle klar: In der bisherigen Behandlung von Hypothesentests<br />

war der Ausgangspunkt immer von der Art: „angenommen <strong>die</strong> Hypothese gilt, wie<br />

groß ist <strong>die</strong> Wahrsche<strong>in</strong>lichkeit, <strong>die</strong> tatsächlich gemessenen Daten zu erhalten?“. In der Sprache<br />

bed<strong>in</strong>gter Wahrsche<strong>in</strong>lichkeit wäre <strong>die</strong>s also e<strong>in</strong>e Aussage der Art P(Daten| Hypothese). Nur<br />

solche Aussagen können im Rahmen der konventionellen Statistik getroffen werden. Häufig<br />

wird <strong>die</strong>s unbewusst jedoch mit der umgekehrten Aussage gleichgesetzt, zum Beispiel, wenn<br />

man unkorrekter Weise im Rahmen der frequentistischen Statistik davon spricht „der wahre<br />

Wert der Messgröße liegt mit e<strong>in</strong>er Wahrsche<strong>in</strong>lichkeit vom 68% im ermittelten Intervall<br />

¯x± s¯x “. Letztere Aussage ist von der Art P(Hypothese| Daten). Glg. (67) zeigt nun, <strong>das</strong>s beide<br />

Arten von Aussagen im Allgeme<strong>in</strong>en nicht äquivalent s<strong>in</strong>d, aufgrund des fehlenden Faktors<br />

P(Hypothese)/P(Daten).<br />

E<strong>in</strong> Beispiel dafür: Bereits wiederholt wurden an großen Teilchenbeschleunigern Ereignisse beobachtet,<br />

<strong>die</strong> im Rahmen des Standardmodells der Teilchenphysik, <strong>das</strong> ansonsten hervorragend<br />

experimentell bestätigt ist, sehr unwahrsche<strong>in</strong>lich s<strong>in</strong>d, sagen wir im Rahmen des Standardmodells<br />

e<strong>in</strong> Wahrsche<strong>in</strong>lichkeit von unter 1% aufweisen. Diese Aussage ist wieder von der<br />

Art P(Daten|Hypothese). Damit wurde jedoch nicht <strong>das</strong> Standardmodell zu 99% widerlegt!<br />

Glg. (67) sagt warum: <strong>die</strong> Posteriori-Wahrsche<strong>in</strong>lichkeit ist Likelihood mal Prior. Alle<strong>in</strong>e aus<br />

der Likelihood lässt sich also ke<strong>in</strong>e gültige Aussage über <strong>das</strong> Modell treffen. Und <strong>die</strong> Priori-<br />

Wahrsche<strong>in</strong>lichkeit P(Hypothese) muss im Falle des bisher hervorragend bestätigten Standardmodells<br />

als sehr hoch e<strong>in</strong>gestuft werden [9].<br />

In vielen Fällen werden sowohl <strong>die</strong> Messdaten als auch <strong>die</strong> Hypothesen durch kont<strong>in</strong>uierliche<br />

Größen beschrieben. Beispielsweise betrachten wir den kont<strong>in</strong>uierlichen Parameterµ, den wir<br />

durch den Mittelwert ¯x e<strong>in</strong>er Messreihe abschätzen. Analog zu Glg. (67) lässt sich hierfür <strong>das</strong><br />

Bayes-Theorem auch mit kont<strong>in</strong>uierliche Wahrsche<strong>in</strong>lichkeitsdichten formulieren:<br />

g(µ| ¯x)= g(¯x|µ)· g 0(µ)<br />

∫<br />

g(¯x|µ)· g0 (µ) dµ<br />

(68)<br />

Der Prior wird nun anstelle von P(Hypothese) durch <strong>die</strong> Wahrsche<strong>in</strong>lichkeitsdichte g 0 (µ) beschrieben,<br />

und <strong>die</strong> Normierung der Posteriori-Dichte g(µ| ¯x) wird durch g(¯x)= ∫ g(¯x|µ)·<br />

g 0 (µ) dµ im Nenner sichergestellt, also dem Integral über Likelihood mal Prior über alle pr<strong>in</strong>zipiell<br />

möglichen Werte vonµ. Was an <strong>die</strong>ser Stelle zu beachten ist: In Glg. (68) ist stetsµder<br />

variable Parameter, ¯x ist konstant, nämlich genau der Wert, der aus der Messung resultierte.<br />

Anders als <strong>in</strong> der konventionellen Statistik, <strong>die</strong> neben dem gemessenen Wert auch alle anderen<br />

37


Werte ¯x e<strong>in</strong>bezieht, <strong>die</strong> e<strong>in</strong>e Messung pr<strong>in</strong>zipiell hätte liefern können (<strong>die</strong> aber gar nicht gemessen<br />

wurden) und den „wahren Wert“µals (unbekannte) Konstante betrachtet, ist <strong>in</strong> Glg. (68)<br />

der Parameterµverteilt. Über ihn wird letztlich e<strong>in</strong>e Wahrsche<strong>in</strong>lichkeitsaussage getroffen.<br />

Mit der Posteriori-Dichte g(µ| ¯x) lassen sich nun auch Hypothesentests durchführen, ganz analog<br />

zur Art und Weise, wie sie <strong>in</strong> den vorangegangenen Abschnitten dargestellt wurden. Nur<br />

<strong>das</strong>s e<strong>in</strong> Hypothesentest sich <strong>die</strong>smal nicht auf <strong>die</strong> Verteilung der möglichen ¯x bei gegebenemµ<br />

bezieht, sondern auf <strong>die</strong> Posteriori-Dichte der verteiltenµbei vorliegendem ¯x. Diese ist nun viel<br />

<strong>in</strong>tuitiver zu <strong>in</strong>terpretieren: Jetzt kann z. B. tatsächlich <strong>die</strong> Wahrsche<strong>in</strong>lichkeit dafür angegeben<br />

werden, <strong>das</strong>s der Wertµ<strong>in</strong> e<strong>in</strong>em vorgefundenen Intervall liegt:<br />

P(¯x−σ≤µ≤ ¯x+σ| ¯x)=<br />

¯x+σ ∫<br />

g(µ| ¯x) dµ (69)<br />

¯x−σ<br />

E<strong>in</strong> Vertrauens<strong>in</strong>tervall, <strong>das</strong>s sich gemäß Glg. (69) auf e<strong>in</strong>e solche Posteriori-Verteilung bezieht,<br />

wird (Bayes’sches) Kredibilitäts<strong>in</strong>tervall genannt.<br />

Zusammengefasst lässt sich sagen: In der konventionellen Statistik istµder konstante, wenn<br />

auch unbekannte, „wahre Wert“ der Messgröße und <strong>die</strong> Verteilung aller im Experiment möglichen<br />

Ergebnisse ¯x wird betrachtet. Überspitzt gesagt, bezieht sich <strong>die</strong> Analyse also auch auf<br />

Messdaten, <strong>die</strong> gar nicht vorliegen. Der Bayes’sche Ansatz vermeidet <strong>die</strong>s. Hier wird dem Parameterµe<strong>in</strong>e<br />

Verteilung zugeordnet und ¯x ist der konstante Wert des Messergebnisses. Die<br />

Posteriori-Dichte g(µ| ¯x) stellt dann <strong>die</strong> gesamte Information dar, <strong>die</strong> uns über <strong>die</strong> Messgröße<br />

(den Parameterµ) zur Verfügung steht.<br />

Wie nun praktisch e<strong>in</strong> solcher Hypothesentest im Rahmen der Bayes’schen Statistik durchgeführt<br />

wird, soll an e<strong>in</strong>em abschließenden Beispiel erläutert werden.<br />

Beispiel:DasStromnormal – Fortsetzung<br />

Zur Illustration des Verfahrens greifen wir <strong>das</strong> e<strong>in</strong>fachste, bereits <strong>in</strong> Abschnitt 4.1.1 auf S. 29<br />

im Kontext der konventionellen Statistik diskutierte Beispiel erneut auf: Wir überprüfen e<strong>in</strong><br />

Stromnormal, <strong>das</strong> laut Herstellerangabe e<strong>in</strong>en Strom von 15µA liefern soll. Wir führen dazu<br />

e<strong>in</strong>e Messreihe von N = 50 Strommessungen durch und erhalten aus dem Datensatz e<strong>in</strong>en<br />

mittleren Strom von Ī= 14.85 µA und e<strong>in</strong>e empirische Standardabweichung von s= 0.3 µA.<br />

Wie schon vorher testen wir <strong>die</strong> Nullhypothese, nach der <strong>das</strong> Stromnormal wie angegeben e<strong>in</strong>en<br />

Strom von I 0 = 15µA liefert. Grundsätzlich können wir nun aus der Bayes’schen Perspektive<br />

dem Parameter I 0 e<strong>in</strong>e Wahrsche<strong>in</strong>lichkeit zuweisen. Da der Strom jedoch e<strong>in</strong>en kont<strong>in</strong>uierlichen<br />

Parameter darstellt, hat jeder e<strong>in</strong>zelne Wert <strong>die</strong> Wahrsche<strong>in</strong>lichkeit Null. Deshalb benutzen<br />

wir <strong>das</strong> Kredibilitäts<strong>in</strong>tervall, <strong>das</strong> wir auf der Basis der Posteriori-Dichte g(µ| ¯x) nach Glg. (68)<br />

ermitteln. Letztere müssen wir zunächst bestimmen. Dann wählen wir e<strong>in</strong> Kredibilitäts<strong>in</strong>tervall<br />

von, sagen wir, 99% (entsprechend der Wahl vonα=1% <strong>in</strong> Abschnitt 4.1.1). Liegt dann der<br />

Wert der Nullhypothese 15µA außerhalb des Intervalls, lehnen wir <strong>die</strong> Hypothese ab.<br />

Um zur Posteriori-Dichte zu gelangen, s<strong>in</strong>d zunächst <strong>die</strong> Priori-Dichte und <strong>die</strong> Likelihood-<br />

Funktion zu bestimmen. Die Likelihood ist <strong>die</strong> Wahrsche<strong>in</strong>lichkeit, den aus N= 50 Messungen<br />

bestimmten Mittelwert der Stromstärke Ī zu messen unter der Bed<strong>in</strong>gung, <strong>das</strong>s <strong>die</strong> Verteilung<br />

38


0.2<br />

10<br />

Normalvert.<br />

g Gleichvert.<br />

9<br />

0 (I 0 ) g(I<br />

Exp.vert.<br />

0 | Ī)<br />

8<br />

0.15<br />

Const.<br />

7<br />

0.1<br />

0.05<br />

0<br />

0 5 10 15 20 25 30<br />

I 0 <strong>in</strong> µA<br />

6<br />

5<br />

4<br />

3<br />

2<br />

1<br />

Normalvert.<br />

Gleichvert.<br />

Exp.vert.<br />

Const.<br />

0<br />

14.6 14.7 14.8 14.9 15 15.1 15.2<br />

I 0 <strong>in</strong> µA<br />

Abbildung 11: Unterschiedliche Priori-Verteilungen, <strong>die</strong> für e<strong>in</strong> Stromnormal, <strong>das</strong> nom<strong>in</strong>ell<br />

15µA liefern soll, angenommen werden könnten, wenn ke<strong>in</strong>e weitere Information<br />

vorliegt (l<strong>in</strong>ks) sowie <strong>die</strong> daraus zusammen mit der Likelihood-Funktion<br />

resultierendenPosteriori-Verteilungen g(I 0 | Ī)(rechts).<br />

den Mittelwert I 0 aufweist. Da wir für Ī e<strong>in</strong>e Normalverteilung annehmen dürfen, deren Standardabweichung<br />

wir mit s/ N abschätzen, 4 erhalten wir:<br />

g(Ī| I 0 )= N(I 0 , s/ <br />

N<br />

N)= e − N(Ī−I 0 ) 2<br />

2s 2 (70)<br />

2πs<br />

Anders als <strong>in</strong> der frequentistischen Herangehensweise, bei der der Parameter I 0 unbekannt aber<br />

konstant war, und man <strong>die</strong> Verteilung möglicher Messwerte Ī betrachtet hat, ist <strong>in</strong> <strong>die</strong>ser Betrachtungsweise<br />

Ī e<strong>in</strong>e Konstante, nämlich der gemessene Mittelwert, während der Parameter<br />

I 0 variiert.<br />

Nun müssen wir noch e<strong>in</strong>e Priori-Verteilung wählen. Hier ergeben sich u. U. mehrere Möglichkeiten,<br />

jedoch gilt immer, <strong>das</strong>s <strong>die</strong> Priori-Verteilung vollständig unabhängig von den vorliegenden<br />

Messdaten gewählt werden muss: Wenn wir z. B. den Standpunkt e<strong>in</strong>nehmen, <strong>das</strong>s wir vor<br />

der Messung über ke<strong>in</strong>erlei Information über <strong>die</strong> Messgröße verfügen, wählen wir e<strong>in</strong>e nicht<strong>in</strong>formative<br />

Priori-Verteilung. Für den vorliegenden Fall wäre <strong>das</strong> e<strong>in</strong>e Konstante, z. B. g 0 (I 0 )=1.<br />

Problem an <strong>die</strong>ser „uneigentlichen“ Verteilung ist: sie ist nicht normierbar. Dies ist aber grundsätzlich<br />

zu verkraften, solange <strong>das</strong> Produkt, <strong>das</strong> im Zähler und Nenner von Glg. (68) auftaucht,<br />

normierbar bleibt.<br />

Alternativ könnten wir auch e<strong>in</strong>e moderat <strong>in</strong>formative Verteilung als Prior ansetzen: Zum Beispiel<br />

e<strong>in</strong>e Gleichverteilung auf e<strong>in</strong>em festgelegten Intervall mit e<strong>in</strong>em Mittelwert von I 0 = 15µA.<br />

Wenn wir davon ausgehen, <strong>das</strong>s <strong>das</strong> Normal auf jeden Fall e<strong>in</strong>en Strom im Bereich von<br />

I m<strong>in</strong> . . . I max , also z. B. 10...20µA liefert, dann ergibt sich:<br />

<br />

g gleich<br />

0<br />

(I 0 )=<br />

1<br />

I max −I m<strong>in</strong><br />

falls I m<strong>in</strong> ≤ I 0 ≤ I max<br />

0 sonst<br />

(71)<br />

4<br />

In e<strong>in</strong>er vollen Bayes’schen Analyse würde man auch <strong>die</strong> Standardabweichung als verteilten Parameter s 0<br />

ansetzen, also g(Ī| I 0 , s 0 ) bestimmen und dann <strong>die</strong>sen Parameter marg<strong>in</strong>alisieren: g(Ī| I 0 )= ∫ g(Ī| I 0 , s 0 ) ds 0 .<br />

Die volle Rechnung würde den Rahmen <strong>die</strong>ser Darstellung jedoch sprengen.<br />

39


14<br />

12<br />

Prior<br />

Likelihood<br />

Posterior<br />

10<br />

8<br />

6<br />

4<br />

2<br />

0<br />

14.6 14.7 14.8 14.9 15 15.1 15.2<br />

I 0 <strong>in</strong> µA<br />

Abbildung 12: Die gleiche Analyse wie <strong>in</strong> Abb. 11, nur mit e<strong>in</strong>em Prior, der sich aus e<strong>in</strong>er unabhängigenVormessungergebenhat.BeigleicherLikelihood-Funktionistaufgrund<br />

deshohenInformationsgehaltesdesPriorsderEffektauf<strong>die</strong>Posteriori-Verteilung<br />

sehr deutlich.<br />

E<strong>in</strong>e weitere Möglichkeit wäre e<strong>in</strong>e Normalverteilung mit dem Mittelwert 15µA und e<strong>in</strong>er ausreichend<br />

großen Standardabweichung: g 0 (I 0 )=N(15µA, 5µA). Oder aber wir sehen e<strong>in</strong>en<br />

Mittelwert von 15µA als gegeben an sowie <strong>die</strong> Randbed<strong>in</strong>gung I 0 > 0, dann ergibt sich nach<br />

Abschnitt 3.3 e<strong>in</strong>e Exponentialverteilung. Abb. 11(l<strong>in</strong>ks) zeigt <strong>die</strong> sehr unterschiedlichen Priori-<br />

Verteilungen, <strong>die</strong> so aus verschiedenen Vorüberlegungen erwachsen könnten.<br />

Nun ist lediglich noch <strong>das</strong> Integral im Nenner von Glg. (68) numerisch zu berechnen und <strong>die</strong><br />

resultierenden Posteriori-Verteilungen g(I 0 | Ī) können angegeben werden. Abb. 11(rechts) zeigt<br />

<strong>das</strong> Ergebnis: Im dem Falle, <strong>das</strong>s kaum Information <strong>in</strong> der Priori-Verteilung steckt, wie <strong>in</strong> unserem<br />

e<strong>in</strong>fachen Beispiel, ist <strong>die</strong> Posteriori-Verteilung praktisch unabhängig von der speziellen<br />

Wahl des Priors g 0 (I 0 ) und <strong>das</strong> Ergebnis ist identisch, mit dem, <strong>das</strong> wir bereits vorher im Rahmen<br />

der frequentistischen Statistik erhalten hatten: Das 99% Kredibilitäts<strong>in</strong>tervall liegt für g(I 0 | Ī)<br />

bei(14.85±0.11) µA. Der angegebene Wert von 15 µA liegt deutlich außerhalb und so lehnen<br />

wir <strong>die</strong> Nullhypothese ab.<br />

Die eigentliche Stärke des Bayes’schen Ansatzes zeigt sich also erst dann, wenn substanzielle<br />

a priori Information vorliegt. Diese führt dann zu e<strong>in</strong>er deutlich schmaleren Priori-Verteilung,<br />

als <strong>die</strong> ger<strong>in</strong>gfügig oder gar nicht <strong>in</strong>formativen Verteilungen, <strong>die</strong> wir bisher diskutiert haben.<br />

Nehmen wir z. B. an, wir hätten belastbare Information aus e<strong>in</strong>er Vormessung am selben Stromnormal<br />

vorliegen, <strong>die</strong> uns e<strong>in</strong>en Mittelwert Ī 2 = 14.93µA mit e<strong>in</strong>er Standardabweichung von<br />

s 2 / N 2 = 0.055µA liefert. Dann könnten wir <strong>die</strong> aus <strong>die</strong>ser Messung gewonnene Posteriori-<br />

Verteilung als Prior für <strong>die</strong> obige Analyse verwenden. Die Likelihood-Funktion wäre <strong>die</strong> gleiche<br />

wie vorher und identisch mit den <strong>in</strong> Abb. 11(rechts) gezeigten Posteriori-Verteilungen. Die neue<br />

Posteriori-Verteilung weicht nun aber deutlich sowohl vom Prior als auch von der Likelihood<br />

ab, wie <strong>in</strong> Abb. 12 gezeigt. Der Mittelwert der neuen Posteriori-Verteilung ist nun Ī 0 = 14.88µA<br />

und <strong>das</strong> 99%-Kredibilitäts<strong>in</strong>tervall ist gegeben durch(14.88±0.086) µA. Auch hier werden wir<br />

also <strong>die</strong> Nullhypothese ablehnen, aufgrund der zusätzlichen Information fällt <strong>die</strong> Entscheidung<br />

jedoch deutlich knapper aus.<br />

40


Zusammengefasstlässtsichsagen: Die Stärke des Bayes’schen Ansatzes liegt dar<strong>in</strong>, <strong>das</strong>s grundsätzlich<br />

alle verfügbare Information, nicht nur <strong>die</strong> statistische, <strong>in</strong> <strong>die</strong> Datenanalyse e<strong>in</strong>fließen<br />

und dort auf e<strong>in</strong>heitliche Weise behandelt werden kann. Aus <strong>die</strong>sem Grunde s<strong>in</strong>d Bayes’sche<br />

Verfahren oft leistungsfähiger als <strong>die</strong> der konventionellen Statistik und deshalb setzen sie sich<br />

<strong>in</strong> verschiedenen Bereichen zunehmend durch und bilden mittlerweile bereits <strong>die</strong> Grundlage<br />

für <strong>in</strong>ternational e<strong>in</strong>heitliche Vorgaben zur Bestimmung und Angabe von Messunsicherheiten.<br />

Andererseits ist, wie am letzten Beispiel zu erkennen war, auch <strong>in</strong> e<strong>in</strong>fachen Fällen der Rechenaufwand<br />

deutlich größer, so <strong>das</strong>s sich häufig e<strong>in</strong>e computergestützte Datenanalyse anbietet.<br />

Außerdem wird kontrovers diskutiert, <strong>in</strong> wie weit e<strong>in</strong> gewisses Maß an Subjektivität, <strong>das</strong> <strong>in</strong><br />

der Wahl der geeigneten Priori-Verteilung e<strong>in</strong>fließt, <strong>in</strong> e<strong>in</strong>er wissenschaftlichen Datenanalyse<br />

zulässig ist. Auch wenn <strong>die</strong> Werkzeuge der Bayes’schen Statistik <strong>in</strong> verschiedenen Bereichen so<br />

erfolgreich e<strong>in</strong>gesetzt werden, <strong>das</strong>s dort schon von e<strong>in</strong>er „Bayes’schen Revolution“ <strong>in</strong> der Datenanalyse<br />

<strong>die</strong> Rede ist [7], ist <strong>die</strong> damit verknüpfte erkenntnistheoretische Diskussion bislang<br />

noch ke<strong>in</strong>eswegs abgeschlossen.<br />

41


Literatur<br />

[1] BIPM, IEC, IFCC, ILAC, ISO, IUPAC, IUPAP and OIML, Guide to the Expression of Uncerta<strong>in</strong>ty<br />

<strong>in</strong> Measurement, Jo<strong>in</strong>t Committee for Guides <strong>in</strong> Metrology, JCGM 100, 2008; onl<strong>in</strong>e unter:<br />

http://www.bipm.org/en/publications/guides/gum.html<br />

[2] M. Grabe, Technisches Messen, 67, 6 (2000); auch onl<strong>in</strong>e unterwww.uncerta<strong>in</strong>ty.de.<br />

[3] K. Wiese, W. Wöger, Messunsicherheit und Messdatenauswertung, Wiley, New York, 1999.<br />

[4] BIPM, IEC, IFCC, ILAC, ISO, IUPAC, IUPAP and OIML, Evaluation of Measurement Data: Supplement<br />

1 to the “Guide to the Expression of Uncerta<strong>in</strong>ty <strong>in</strong> Measurement”, Jo<strong>in</strong>t Committee<br />

for Guides <strong>in</strong> Metrology, JCGM 101, 2008.<br />

[5] J. Lehn, H. Wegmann, E<strong>in</strong>führung <strong>in</strong> <strong>die</strong> Statistik, Teubner, Stuttgart, 2000.<br />

[6] U. Krengel, E<strong>in</strong>führung <strong>in</strong> <strong>die</strong> Wahrsche<strong>in</strong>lichkeitstheorie und Statistik, 8. Auflage, Vieweg,<br />

Wiesbaden, 2005.<br />

[7] P. Gregory, Bayesian Logical Data Analysis for the Physical Sciences, Cambridge University<br />

Press, Cambridge, 2005.<br />

[8] W. M. Bolstad, Introduction to Bayesian Statistics, Wiley, Hoboken N.J., 2004.<br />

[9] O. Passon, Bayes’sche Statistik für Fußgänger, onl<strong>in</strong>e unter:<br />

http://psiquadrat.de/downloads/bayes.pdf.<br />

[10] N. Gerschenfeld, The Nature of Mathematical Modell<strong>in</strong>g, Cambridge University Press, Cambridge,<br />

1999.<br />

[11] W. Kessel, PTB-Broschüre, onl<strong>in</strong>e unter:<br />

http://www.ptb.de/de/publikationen/download/dl00001.html<br />

[12] J. C. Earnshaw, Eur. J. Phys., 11, 338-342 (1990)<br />

[13] A. Leike, Eur. J. Phys., 23, 21-26 (2002)<br />

[14] H.-O Georgii, Stochastik, 3. Auflage, de Gruyter, Berl<strong>in</strong> 2007.<br />

[15] W. H. Press, S. A. Teukolsky, W. T. Vetterl<strong>in</strong>g und B. P. Flannery, Numerical Recipes – The<br />

Art of Scientific Comput<strong>in</strong>g, 3. Auflage, Cambridge University Press, Cambridge, 2007. Auch<br />

onl<strong>in</strong>e unter:http://www.nr.com.<br />

42


A Die p-Quantilederχ 2 -Verteilung<br />

Angegeben s<strong>in</strong>d <strong>die</strong> p-Quantileχ 2 p derχ2 -Verteilung für k Freiheitsgrade. Es gilt dabei:<br />

p= P(χ 2 ≤χ 2 p )= ∫ χ 2<br />

p<br />

0<br />

f χ 2(z, k) dz.<br />

k p= 0.99 p= 0.975 p= 0.95 p= 0.90 p= 0.80 p= 0.70 p= 0.50 p= 0.30 p= 0.20 p= 0.10 p= 0.05<br />

1 6.63 5.02 3.84 2.71 1.64 1.07 0.455 0.148 0.064 0.016 0.0039<br />

2 9.21 7.38 5.99 4.61 3.22 2.41 1.386 0.713 0.446 0.211 0.103<br />

3 11.3 9.35 7.81 6.25 6.64 3.67 2.366 1.424 1.005 0.584 0.352<br />

4 13.3 11.1 9.49 7.78 6.0 4.9 3.36 2.19 1.65 1.06 0.71<br />

5 15.1 12.8 12.1 9.24 7.3 6.1 4.35 3.00 2.34 1.61 1.14<br />

6 16.8 14.4 12.6 10.6 8.6 7.2 5.35 3.83 3.07 2.20 1.63<br />

7 18.5 16.0 14.1 12.0 9.8 8.4 6.35 4.67 3.82 2.83 2.17<br />

8 20.1 17.5 15.5 13.4 11.0 9.5 7.34 5.53 4.59 3.49 2.73<br />

9 21.7 19.0 16.9 14.7 12.2 10.7 8.34 6.39 5.38 4.17 3.32<br />

10 23.2 20.5 18.3 16.0 13.4 11.8 9.34 7.27 6.18 4.86 3.94<br />

11 24.7 21.9 19.7 17.3 14.6 12.9 10.3 8.1 7.0 5.6 4.6<br />

12 26.2 23.3 21.0 18.5 15.8 14.0 11.3 9.0 7.8 6.3 5.2<br />

13 27.7 24.7 22.4 19.8 17.0 15.1 12.3 9.9 8.6 7.0 5.9<br />

14 29.1 26.1 23.7 21.1 18.2 16.2 13.3 10.8 9.5 7.8 6.6<br />

15 30.6 27.5 25.0 22.3 19.3 17.3 14.3 11.7 10.3 8.5 7.3<br />

16 32.0 28.8 26.3 23.5 20.5 18.4 15.3 12.6 11.2 9.3 8.0<br />

17 33.4 30.2 27.6 24.8 21.6 19.5 16.3 13.5 12.0 10.1 8.7<br />

18 34.8 31.5 28.9 26.0 22.8 20.6 17.3 14.4 12.9 10.9 9.4<br />

19 36.2 32.9 30.1 27.2 23.9 21.7 18.3 15.4 13.7 11.7 10.1<br />

20 37.6 34.2 31.4 28.4 25.0 22.8 19.3 16.3 14.6 12.4 10.9<br />

21 38.9 35.5 32.7 29.6 26.2 23.9 20.3 17.2 15.4 13.2 11.6<br />

22 40.3 36.8 33.9 30.8 27.3 24.9 21.3 18.1 16.3 14.0 12.3<br />

23 41.6 38.1 35.2 32.0 28.4 26.0 22.3 19.0 17.2 14.8 13.1<br />

24 43.0 39.4 36.4 33.2 29.6 27.1 23.3 19.9 18.1 15.7 13.8<br />

25 44.3 40.6 37.7 34.4 30.7 28.2 24.3 20.9 18.9 16.5 14.6<br />

26 45.6 41.9 38.9 35.6 31.8 29.2 25.3 21.9 19.8 17.3 15.4<br />

27 47.0 43.2 40.1 36.7 32.9 30.3 26.3 22.7 20.7 18.1 16.2<br />

28 48.3 44.5 41.3 37.9 34.0 31.4 27.3 23.6 21.6 18.9 16.9<br />

29 49.6 45.7 42.6 39.1 35.1 32.5 28.3 24.6 22.5 19.8 17.7<br />

30 50.9 47.0 43.8 40.3 36.3 33.5 29.3 25.5 23.4 20.6 18.5<br />

43

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!