26.12.2012 Aufrufe

Vorlesung Statistik 2 - Universität zu Köln

Vorlesung Statistik 2 - Universität zu Köln

Vorlesung Statistik 2 - Universität zu Köln

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

1. Std: Einführung und Überblick<br />

<strong>Vorlesung</strong> <strong>Statistik</strong> 1<br />

Sommersemester 2006<br />

1. Stunde: 5. 4. 2006<br />

• Organisatorisches<br />

• Überblick<br />

• Wiederholung: Population und Stichprobe<br />

Zufallsexperiment, Zufallsvariablen und ihre Verteilung<br />

Wahrscheinlichkeit und Wahrscheinlichkeitsdichte<br />

Normalverteilung<br />

• Verteilungsfunktion:<br />

Bestimmung von Flächen unter der Normalverteilung<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 2<br />

Veranstaltungen <strong>zu</strong>r <strong>Statistik</strong> 2<br />

• <strong>Vorlesung</strong> <strong>Statistik</strong> II, Mittwoch, 11.15 - 12.45<br />

• Übung <strong>Statistik</strong> II (Dipl.-Psych. H. Leuschner)<br />

2 Kurse: montags, 14.15 – 15.45, HS 254<br />

montags, 16.15 – 17.45, HS 254<br />

• Tutorium <strong>Statistik</strong> II (S. Dank, cand. psych.)<br />

2 Kurse: mittwochs nachmittags R 340 C<br />

Vorbesprechung heute um 13.15 in Raum 340 C<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 3<br />

Erwerb eines Leistungsnachweises<br />

• Vorausset<strong>zu</strong>ng: Immatrikulation im Studiengang Psychologie an<br />

der <strong>Universität</strong> <strong>zu</strong> <strong>Köln</strong><br />

• Anwesenheit, Hausufgabenvortrag und bestandene Klausur<br />

<strong>Statistik</strong> 1<br />

• Übung <strong>Statistik</strong> 2: regelmäßige Teilnahme, Mitarbeit (Vortragen<br />

einer Hausaufgabe)<br />

• erfolgreiche Teilnahme an der Klausur „<strong>Statistik</strong> II“<br />

� Bei erfolgreicher Teilnahme an den Veranstaltungen <strong>Statistik</strong> I<br />

und II erhalten Studierende den Leistungsnachweis „<strong>Statistik</strong>“.<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 4<br />

Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />

Seite 1


1. Std: Einführung und Überblick<br />

Nachklausur <strong>Statistik</strong> I<br />

Die Nachklausur ist für Studierende (der Psychologie) gedacht,<br />

die<br />

• die Klausur im Wintersemester nicht bestanden haben oder<br />

• wegen nachweisbarer Gründe (z.B. Krankheit) nicht an der Klausur<br />

am Ende des WiSe 05/06 teilnehmen konnten<br />

• Termin: Mittwoch 26. 4. 15.15 Uhr HS 254<br />

bitte formlose Anmeldung <strong>zu</strong>r Klausur bis 19. 4. per E-Mail an<br />

isabel.lindner@uni-koeln.de<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 6<br />

Inhalte der <strong>Statistik</strong>veranstaltung<br />

Meßtheorie, Skalenniveaus<br />

Deskriptive <strong>Statistik</strong>:<br />

• Darstellung von Daten in Form von Tabellen und Grafiken<br />

• Statistische Kennwerte (z. B. Mittelwert, Streuung)<br />

• Merkmals<strong>zu</strong>sammenhänge (Korrelation + Regression)<br />

Inferenzstatistik:<br />

• Logik und grundlegende Konzepte<br />

• Einzelne Verfahren: z. B. t-Test, U-Test, Chi-Quadrat-Tests,<br />

Varianzanalyse<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 7<br />

Inhalte <strong>Statistik</strong> II<br />

Im Mittelpunkt stehen Prinzipien und Verfahren der Inferenzstatistik.<br />

Ihre Aussagen gehen über das Beobachtbare hinaus und sind mit<br />

Unsicherheit behaftet.<br />

Sie dient dem „Schluss“ von einer Stichprobe auf eine <strong>zu</strong>gehörige<br />

Population.<br />

(1) Überprüfung von Hypothesen,<br />

� Entscheidungen unter Unsicherheit<br />

(2) Schät<strong>zu</strong>ng von Parametern; z.B. Wahlprognose oder Schät<strong>zu</strong>ng von<br />

Einkommen aufgrund von Stichprobendaten (Punkt-, Intervallschät<strong>zu</strong>ng).<br />

� Schät<strong>zu</strong>ngen mit (möglichst kleinen) Fehlern<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 8<br />

Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />

Seite 2


1. Std: Einführung und Überblick<br />

Allgemeine Grundlagen:<br />

• Wahrscheinlichkeitstheorie<br />

• Verteilungen<br />

• Population und Stichprobe<br />

• Stichprobenkennwerteverteilung<br />

Konzeptuelle Grundlagen:<br />

• Hypothesenprüfung<br />

• Signifikanz<br />

• Fehlerarten<br />

Inhalte <strong>Statistik</strong> II<br />

Einzelne Testverfahren <strong>zu</strong>r<br />

Prüfung von Unterschiedshypothesen:<br />

• Intervallskalenniveau:<br />

t-Tests und<br />

Varianzanalyse<br />

• Ordinal- und Nominalskalenniveau:<br />

Chi2 u.a.<br />

Prüfung von Zusammenhangshypothesen<br />

• Inferenzstatistische<br />

Absicherung von<br />

Korrelationen<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 12<br />

5.4.<br />

12.4.<br />

19. 4.<br />

26.4.<br />

3.5.<br />

10.5.<br />

17. 5.<br />

24. 5.<br />

Semesterplan (1)<br />

Einführung und Überblick<br />

Wiederholung: Population und Stichprobe; wichtige Verteilungen in<br />

der <strong>Statistik</strong>; Zufallsvariablen und ihre Verteilung; Verteilungsfunktion<br />

Die Stichprobenkennwerteverteilung, Konfidenzintervalle<br />

Die Überprüfung von Nullhypothesen: Beispiel z-Test<br />

t-Test für eine Stichprobe, t-Test für unabhängige Stichproben<br />

Erweiterung des Nullhypothesensignifikanztests: Alternativhypothese,<br />

Effektgröße, Teststärke<br />

Stichprobenumfangsplanung. t-Test für abhängige Stichproben<br />

Varianzanalyse: Einführung, F-Verteilung<br />

Einfaktorielle Varianzanalyse: Berechnung, Vorausset<strong>zu</strong>ngen,<br />

Einzelvergleiche<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 13<br />

31. 5.<br />

5.7.<br />

Pfingstferien<br />

Wiederholung und Fragen<br />

Semesterplan (2)<br />

Mehrfaktorielle Varianzanalyse: Berechnung, Vorausset<strong>zu</strong>ngen,<br />

Interaktion, Einzelvergleiche<br />

14. 6. Varianzanalyse mit Messwiederholung; Kovarianzanalyse<br />

21. 6. Überprüfung von Zusammenhangshypothesen (inferenzstatistische<br />

Absicherung von Korrelationen). Einführung: Nonparametrische<br />

Tests<br />

28. 6.<br />

12.7.<br />

Testverfahren für Nominal- und Ordinaldaten (Nonparametrische<br />

Tests)<br />

Klausur<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 14<br />

Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />

Seite 3


1. Std: Einführung und Überblick<br />

Literatur<br />

• Bortz, J. (2005). <strong>Statistik</strong> für Sozialwissenschaftler (6. Auflage). Berlin: Springe<br />

oder<br />

• Diehl, J. M. & Arbinger, R. (1992). Einführung in die Inferenzstatistik (2. Auflage).<br />

Eschborn: Klotz.<br />

oder<br />

• Nachtigall, C. & Wirtz, M. (2004). Wahrscheinlichkeitsrechnung und<br />

Inferenzstatistik (3. Aufl.). Weinheim: Juventa.<br />

• Hussy, W. & Jain, A. (2002). Experimentelle Hypothesenprüfung in der<br />

Psychologie. Göttingen: Hogrefe. (daraus: Kap. 4.1 + 4.2 und Anhang A).<br />

Computerprogramm <strong>zu</strong>r Berechnung von Teststärke oder optimalem<br />

Stichprobenumfang:<br />

• Buchner, A., Erdfelder, E., & Faul, F. (1997). G*Power. URL <strong>zu</strong>m kostenlosen<br />

Download: http://www.psycho.uni-duesseldorf.de/aap/projects/gpower/index.html<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 15<br />

Inferenzstatistik:<br />

Grundlegende Konzepte<br />

• Population und Stichprobe<br />

• Zufallsexperiment<br />

• Zufallsvariable<br />

• Verteilung einer Zufallsvariablen<br />

• Wahrscheinlichkeit, Wahrscheinlichkeitsfunktion,<br />

Wahrscheinlichkeitsdichtefunktion<br />

• Verteilungsfunktion<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 16<br />

Population oder Grundgesamtheit<br />

• Potentiell untersuchbare Elemente, die ein oder mehrere<br />

gemeinsame Merkmale aufweisen<br />

• Ziel der Inferenzstatistik ist es, Aussagen über die Grundgesamtheit<br />

<strong>zu</strong> treffen, wobei aber nur Werte für die<br />

Stichprobe vorliegen<br />

• Die statistischen Kennwerte der Grundgesamtheit nennen<br />

wir auch Parameter und bezeichnen sie in der Regel mit<br />

griechischen Buchstaben: z.B. Mittelwert in der Population:<br />

μ<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 17<br />

Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />

Seite 4


1. Std: Einführung und Überblick<br />

Zentrale Begriffe der Inferenzstatistik:<br />

Stichprobe<br />

• Teilmenge aus einer Population, die nach bestimmten Regeln<br />

gewonnen wird<br />

• Für die Elemente der Stichprobe liegen Beobachtungswerte vor (und<br />

diese sollen auf die Population „verallgemeinert“ werden)<br />

• Den Schluss vom Speziellen <strong>zu</strong>m Allgemeinen, d.h. von der<br />

Stichprobe auf die Population, nennt man auch „Induktionsschluss“.<br />

Die Inferenzstatistik wird deshalb auch manchmal als „induktive<br />

<strong>Statistik</strong>“ bezeichnet<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 18<br />

Arten von Stichproben<br />

Zufallsstichprobe<br />

• einfache Zufallsstichprobe<br />

• geschichtete Zufallsstichprobe<br />

Klumpenstichprobe<br />

angefallene Stichprobe<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 19<br />

Zufallsexperiment<br />

Die Inferenzstatistik orientiert sich am Konzept des<br />

Zufallsexperiments<br />

� ein beliebig oft wiederholbarer Vorgang nach einer bestimmten<br />

Vorschrift, dessen Ergebnis vom Zufall abhängt, also im Voraus<br />

nicht feststeht.<br />

Beispiele: die Augenzahl beim Würfeln, Ausgang eines Münzwurfs; aber<br />

auch das Ergebnis der Befragung einer Person, eine gemessene<br />

Reaktionszeit.<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 20<br />

Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />

Seite 5


1. Std: Einführung und Überblick<br />

Zufallsvariable<br />

• Eine Zufallsvariable X ordnet jedem Ergebnis eines<br />

Zufallsexperiments einen Wert x <strong>zu</strong>.<br />

• Zufallsvariable ≠ Elementarereignis<br />

• Beispiel für eine diskrete Zufallsvariable (Würfeln):<br />

X (ω) = 0, falls Augenzahl 1,3 oder 5 („ungerade“)<br />

X (ω) = 1, falls Augenzahl 2,4 oder 6 („gerade“)<br />

=> Informationsreduktion. Betrachtet werden nur noch zwei Ereignisse:<br />

A1 = {ω1,ω3,ω5} = {1, 3, 5} und<br />

A2 = {ω2,ω4,ω6} = {2, 4, 6}<br />

• Beispiel für eine stetige Zufallsvariable: Körpergröße einer <strong>zu</strong>fällig ausgewählten<br />

Person in <strong>Köln</strong>.<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 21<br />

Diskrete vs. stetige Zufallsvariable<br />

• Eine diskrete Zufallsvariable liegt vor, wenn die Ergebnisse<br />

eines Zufallsexperiments in kategorischer Form vorliegen<br />

oder gezählt werden können.<br />

• Eine stetige (kontinuierliche) Zufallsvariable liegt vor, wenn<br />

die Ergebnisse eines Zufallsexperiments nicht endlich<br />

abgezählt werden können. Die Werte können hier in einem<br />

Intervall beliebig viele Ausprägungen aufweisen.<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 22<br />

Verteilung einer Zufallsvariablen<br />

• Stellt man in einer Tabelle oder einer Grafik dar, mit welcher<br />

Häufigkeit bzw. Wahrscheinlichkeit die einzelnen Werte einer<br />

Zufallsvariablen auftreten, nennt man das die Verteilung dieser<br />

Zufallsvariablen.<br />

• Bei diskreten Zufallsvariablen kann man jeder Ausprägung der<br />

Zufallsvariablen eine Wahrscheinlichkeit <strong>zu</strong>ordnen<br />

(� Wahrscheinlichkeitsfunktion)<br />

• Bei kontinuierlichen Zufallsvariablen hat jede Ausprägung der<br />

Zufallsvariablen eine Wahrscheinlichkeit, die gegen Null geht.<br />

Wahrscheinlichkeiten sind hier nur für Intervalle bestimmbar.<br />

(� Wahrscheinlichkeitsdichtefunktion)<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 23<br />

Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />

Seite 6


1. Std: Einführung und Überblick<br />

p(X)<br />

5/36<br />

3/36<br />

1/36<br />

Verteilung von Zufallsvariablen:<br />

Wahrscheinlichkeitsfunktion<br />

Beispiel: diskrete Zufallsvariable<br />

2 3 4 5 6 7 8 9 10 11 12<br />

Bsp: Die Wahrscheinlichkeit,<br />

eine Zahl<br />

größer 9 <strong>zu</strong> würfeln:<br />

Augensumme aus<br />

p(X zwei > Würfeln 9) =<br />

p(10) + p (11) + p(12)<br />

= 3/36 + 2/36 + 1/36<br />

= 6/36<br />

Die Wahrscheinlichkeit eines bestimmten Wertes von X lässt sich aus<br />

der Verteilung ablesen. Die Wahrscheinlichkeit eines Wertes in einem<br />

Intervall ΔX ist die Summe der Einzelwahrscheinlichkeiten.<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 24<br />

Verteilung von Zufallsvariablen:<br />

Wahrscheinlichkeitsdichtefunktion<br />

f(x)<br />

Beispiel: stetige Zufallsvariable<br />

Wahrscheinlichkeitsdichte<br />

0,45<br />

0,40<br />

0,35<br />

0,30<br />

0,25<br />

0,20<br />

0,15<br />

0,10<br />

0,05<br />

0,00<br />

-3,0 -2,0 -1,0 0,0 1,0 2,0 3,0<br />

Wert von X<br />

Die Wahrscheinlichkeit eines Wertes in einem Intervall ΔX<br />

ist das Integral der Dichtefunktion über diesem Intervall.<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 25<br />

Verteilungsfunktion: diskrete Variable<br />

• Wird die Wahrscheinlichkeits(dichte)funktion einer Zufallsvariablen<br />

kumuliert, so ergibt sich die Verteilungsfunktion.<br />

• Für diskrete Variablen ergibt sich ein Wert der Verteilungsfunktion<br />

durch die Addition der Einzelwahrscheinlichkeiten p (x) aller<br />

kleineren Werte bis <strong>zu</strong>m gesuchten Wert von X.<br />

• Beispiel: Wenn X die Augensumme aus zweimaligem Würfeln ist, so<br />

ergibt sich für X = 4 der Funktionswert<br />

f(x) = 1/36 + 2/36 + 3/36 = 6/36 = 1/6.<br />

• (Augensumme = 2 3 4 )<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 26<br />

Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />

Seite 7


1. Std: Einführung und Überblick<br />

Verteilungsfunktion: stetige Variable<br />

• Für stetige Variablen gibt die Verteilungsfunktion Verteilungsfunktion<br />

die Wahrschein-<br />

1,200<br />

lichkeit an, dass die Zufallsvariable einen Wert annimmt, der<br />

1,000<br />

höchstens so groß ist wie ein bestimmter Wert.<br />

• Diese kumulierte Wahrscheinlichkeitsdichte 0,600 wird durch das Integral<br />

von – ∞ bis x der Wahrscheinlichkeitsdichtefunktion 0,400 bestimmt<br />

0,200<br />

� die Fläche von ganz links in der Dichtefunktion bis <strong>zu</strong>m Wert x.<br />

• Diese Verteilungsfunktion ist von zentraler Bedeutung für die<br />

Inferenzstatistik.<br />

• Beispiel: Wie groß ist die Wahrscheinlichkeit, höchstens einen<br />

bestimmten Stichprobenmittelwert aus einer Verteilung <strong>zu</strong> ziehen?<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 27<br />

Wahrscheinlichkeitsdichte<br />

0,45<br />

0,40<br />

0,35<br />

0,30<br />

0,25<br />

0,20<br />

0,15<br />

0,10<br />

0,05<br />

0,00<br />

(Wahrscheinlichkeits-)<br />

Dichtefunktion<br />

a<br />

-3,0 -2,0 -1,0 0,0 1,0 2,0 3,0<br />

kumulierte Wahrscheinlichkeitsdichte<br />

0,800<br />

0,000<br />

stetige Zufallsvariable<br />

X<br />

-3,0 -2,0 -1,0 0,0 1,0 2,0 3,0<br />

� Wert der Verteilungsfunktion ist die Fläche (Integral) der<br />

Wahrscheinlichkeitsdichtefunktion von -∞ bis a .<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 28<br />

kumulierte Wahrscheinlichkeitsdichte<br />

1,200<br />

1,000<br />

0,800<br />

0,600<br />

0,400<br />

0,200<br />

0,000<br />

Verteilungsfunktion<br />

a<br />

-3,0 -2,0 -1,0 0,0 1,0 2,0 3,0<br />

X<br />

Verteilungsfunktion = kumulierte Wahrscheinlichkeit(sdichte)<br />

Wichtige Verteilungen<br />

• In der <strong>Statistik</strong> sind einige theoretische Verteilungen von Zufallsvariablen<br />

entwickelt worden, die für die Inferenzstatistik von<br />

Bedeutung sind.<br />

• Dabei lässt sich zwischen Verteilungen für diskrete und stetige<br />

Zufallsvariablen unterscheiden.<br />

• Die wichtigste Verteilung für diskrete Zufallsvariablen ist die<br />

Binomialverteilung.<br />

• Für stetige Zufallsvariablen sind eine Reihe verschiedener<br />

theoretischer Verteilungen entwickelt worden:<br />

a) Normalverteilung (Standardnormalverteilung)<br />

b) t-Verteilung<br />

c) χ 2 -Verteilung<br />

d) F-Verteilung<br />

• Die wichtigste dieser Verteilungen ist die Normalverteilung.<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 29<br />

Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />

Seite 8


1. Std: Einführung und Überblick<br />

Zentrale Begriffe der Inferenzstatistik:<br />

Die Normalverteilung<br />

Klasse von Wahrscheinlichkeitsverteilungen mit bestimmten<br />

Eigenschaften:<br />

• glockenförmiger Verlauf<br />

• Maximum bei µ.<br />

• symmetrisch; Modalwert, Median und Mittelwert sind gleich<br />

• nähert sich asymptotisch auf beiden Seiten der x-Achse<br />

• kontinuierliche, theoretische Verteilung<br />

Die Normalverteilung dient als mathematisches Modell, das sich als<br />

nützlich erwiesen hat.<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 30<br />

Carl Friedrich Gauss<br />

1777 – 1855 (Brunswick, D / Göttingen, D)<br />

Der Fürst der Mathematiker<br />

konnte früher rechnen als sprechen<br />

... <strong>zu</strong>mindest behauptete er das selbst scherzhaft von sich. Den Anekdoten<br />

nach war der am 30. April 1777 in Braunschweig geborene Gauß tatsächlich<br />

ein mathematisches Wunderkind, der als dreijähriger bereits den Vater bei<br />

der Lohnabrechnung korrigiert haben soll. In der Grundschule berechnete er<br />

die Summe der Zahlen von 1 bis 100 nach dem Gesetz s = n(n+1)/2 und als<br />

18jähriger entdeckte er die Konstruktion des regulären Siebzehnecks (mit<br />

Zirkel und Lineal).<br />

Gauß studierte in Göttingen, promovierte 1799 in Helmstedt und reüssierte<br />

mit der Bahnberechnung des Kleinplaneten Ceres. Bereits bei dieser Arbeit<br />

setzte er seine Methode der kleinsten Quadrate und Überlegungen <strong>zu</strong>r<br />

Zufallsverteilung (Glockenkurve) ein, die noch gar nicht veröffentlicht<br />

waren. Das brachte ihm 1805 den Ruf als Direktor an die neue Sternwarte in<br />

Göttingen ein, die aber erst 1816/17 fertiggestellt wurde.<br />

…. Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 31<br />

verschiedene Normalverteilungen<br />

• Es gibt sehr viele unterschiedliche Normalverteilungen.<br />

• Sie unterscheiden sich durch ihren Mittelwert und ihre Standardabweichung.<br />

• Durch einfache Transformationen lassen sich die Werte einer<br />

Normalverteilung in die einer anderen überführen.<br />

• Die Normalverteilung mit Mittelwert<br />

Null und Standardabweichung Eins<br />

heisst Standardnormalverteilung.<br />

Sie wird oft in der <strong>Statistik</strong> verwendet.<br />

f(<br />

x)<br />

• Die Werte der Standardnormalverteilung heissen z-Werte.<br />

1<br />

* e<br />

2π<br />

1 2<br />

− z<br />

2<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 32<br />

=<br />

Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />

Seite 9


1. Std: Einführung und Überblick<br />

Normalverteilung als Annäherung einer<br />

empirischen Verteilung<br />

Normalverteilung findet sich oft, wenn:<br />

• eine Variable durch das Zusammenwirken<br />

vieler voneinander unabhängiger<br />

Faktoren bewirkt wird<br />

• keine Selektion erfolgt ist<br />

• eine große Anzahl von Beobachtungen<br />

vorliegt<br />

Viele Merkmale sind aber auch nicht<br />

normalverteilt, z.B. Einkommen,<br />

Reaktionszeiten, Häufigkeit von Unfällen.<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006<br />

Nagelbrett <strong>zu</strong>r Veranschaulichung<br />

einer Normalverteilung (aus Bortz,<br />

S. 79)<br />

Folie 33<br />

Normalverteilung als Verteilung von<br />

Messfehlern<br />

Bei jeder Art von Datenerhebung kommt es <strong>zu</strong> Messfehlern<br />

Dabei erweisen sich diese Fehler oft als normalverteilt.<br />

• positive und negative Fehler sind gleich häufig<br />

• kleine Fehler sind häufiger als große<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 34<br />

Normalverteilung als Wahrscheinlichkeitsdichtefunktion<br />

• Die Normalverteilung beschreibt die Wahrscheinlichkeit für das<br />

Auftreten einer kontinuierlichen (Zufalls-) variablen.<br />

• Die einzelnen Werte haben keine Wahrscheinlichkeit, sondern eine<br />

Wahrscheinlichkeitsdichte.<br />

• Man interessiert sich deshalb auch nicht für die Wahrscheinlichkeit<br />

des Auftretens bestimmter Werte, sondern bestimmter Wertebereiche<br />

(Intervalle).<br />

Diese Wahrscheinlichkeit wird berechnet als das Integral der<br />

Dichtefunktion (= Fläche unter der Verteilung).<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 35<br />

Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />

Seite 10


1. Std: Einführung und Überblick<br />

0,40<br />

0,35<br />

0,30<br />

0,25<br />

0,20<br />

0,15<br />

0,10<br />

0,05<br />

0,00<br />

Normalverteilung als<br />

Wahrscheinlichkeitsdichtefunktion<br />

Die 0,45 Standardnormalverteilung<br />

Wahrscheinlichkeitsdichte<br />

-3,0 -2,0 -1,0 0,0 1,0 2,0 3,0<br />

z-Wert<br />

Die Wahrscheinlichkeit<br />

eines z-Wertes zwischen -1<br />

und 0 ist das Integral der<br />

Dichtefunktion zwischen –1<br />

und 0.<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 36<br />

Verteilungsfunktion der<br />

Normalverteilung<br />

Die Verteilungsfunktion ist die<br />

kumulierte Wahrscheinlichkeitsdichtefunktion.<br />

Sie ist also das<br />

Integral der Fläche von -∞ bis <strong>zu</strong>m<br />

Wert x.<br />

Diese kumulierten Wahrscheinlichkeiten<br />

sind z.B. in der Normalverteilungstabelle<br />

aufgelistet.<br />

Standardnormalverteilung<br />

0,45<br />

0,40<br />

0,35<br />

0,30<br />

0,25<br />

0,20<br />

0,15<br />

0,10<br />

0,05<br />

0,00<br />

Dichtefunktion<br />

-3,0 -2,0 -1,0 0,0 1,0 2,0 3,0<br />

0,000<br />

-3,0 -2,0 -1,0 0,0<br />

z-Wert<br />

1,0 2,0 3,0<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 37<br />

Wahrscheinlichkeitsdichte<br />

kumulierte Wahrscheinlichkeitsdichte<br />

(Wahrscheinlichkeits-)<br />

1,200<br />

1,000<br />

0,800<br />

0,600<br />

0,400<br />

0,200<br />

z-Wert<br />

Verteilungsfunktion<br />

Bestimmung von Flächen unter der<br />

Normalverteilung<br />

Die Flächen von – ∞ bis z können<br />

direkt aus der Standardnormalverteilungstabelle<br />

entnommen werden.<br />

Da die Dichtefunktion symmetrisch<br />

ist, ist die Fläche von – ∞ bis z gleich<br />

der Fläche von –z bis + ∞.<br />

0,45<br />

0,40<br />

0,35<br />

0,30<br />

0,25<br />

0,20<br />

0,15<br />

0,10<br />

0,05<br />

0,00<br />

-3,0 -2,0 -1,0 0,0<br />

z-Wert<br />

1,0 2,0 3,0<br />

0,45<br />

Häufig benötigt man die Fläche<br />

von z1 bis z2 :<br />

Da<strong>zu</strong> subtrahiert man den Wert der<br />

Fläche von z1 von z2 (wobei z2 der<br />

größere z-Wert ist).<br />

0,40<br />

0,35<br />

0,30<br />

0,25<br />

0,20<br />

0,15<br />

0,10<br />

0,05<br />

0,00<br />

-3,0 -2,0 -1,0 0,0<br />

z1 z-Wert<br />

1,0<br />

z2 2,0 3,0<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 38<br />

Wahrscheinlichkeitsdichte<br />

Wahrscheinlichkeitsdichte<br />

Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />

Seite 11


1. Std: Einführung und Überblick<br />

Bestimmung von Flächen anderer<br />

Verteilungen<br />

In der Inferenzstatistik werden oft<br />

noch andere Verteilungen (z.B. t-<br />

Verteilungen, F-Verteilungen, Chi-<br />

Quadrat-Verteilungen etc.) benötigt.<br />

Die Bestimmung von Flächen anderer<br />

Verteilungen erfolgt analog <strong>zu</strong>r<br />

Bestimmung bei der Normalverteilung.<br />

Zu berücksichtigen ist dabei, ob eine<br />

Verteilung symmetrisch ist oder nicht!<br />

t-Verteilung<br />

-4 -3 -2 -1 0 1 2 3 4 5<br />

t<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 39<br />

Danke für Ihre Aufmerksamkeit !<br />

Carl Friedrich Gauss<br />

1777 – 1855 (Brunswick, D / Göttingen, D)<br />

Der Fürst der Mathematiker<br />

konnte früher rechnen als sprechen<br />

W a hrsch e in lic hke i ts d i c h te<br />

...Ende<br />

... <strong>zu</strong>mindest behauptete er das selbst scherzhaft von sich. Den Anekdoten nach war der am 30.<br />

April 1777 in Braunschweig geborene Gauß tatsächlich ein mathematisches Wunderkind, der<br />

als dreijähriger bereits den Vater bei der Lohnabrechnung korrigiert haben soll. In der<br />

Grundschule berechnete er die Summe der Zahlen von 1 bis 100 nach dem Gesetz s =<br />

n(n+1)/2 und als 18jähriger entdeckte er die Konstruktion des regulären Siebzehnecks (mit<br />

Zirkel und Lineal).<br />

Gauß studierte in Göttingen, promovierte 1799 in Helmstedt und reüssierte mit der<br />

Bahnberechnung des Kleinplaneten Ceres. Bereits bei dieser Arbeit setzte er seine Methode<br />

der kleinsten Quadrate und Überlegungen <strong>zu</strong>r Zufallsverteilung (Glockenkurve) ein, die noch<br />

gar nicht veröffentlicht waren. Das brachte ihm 1805 den Ruf als Direktor an die neue<br />

Sternwarte in Göttingen ein, die aber erst 1816/17 fertiggestellt wurde.<br />

Seine Bahnberechnungsmethoden veröffentlichte er 1809 als "Theoria Motus Corporum<br />

Coelestium"; sie sind bis heute außer Modifikationen wg. des Einsatzes moderner Rechner im<br />

Kern nicht mehr verbessert worden. (weiter nächste Seite)<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 41<br />

Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />

Seite 12


1. Std: Einführung und Überblick<br />

Carl Friedrich Gauss<br />

1777 – 1855 (Brunswick, D / Göttingen, D)<br />

(ff) Gauß veröffentlichte grundlegende Werke über die höhe<br />

re Arithmetik, die Differentialgeometrie und die Bewegung<br />

der Himmelskörper. Aber viele seiner Entdeckungen teilte er auch lediglich in Briefen Freunden<br />

mit oder er notierte sie nur in seinem Tagebuch, das übrigens erst 1898 entdeckt wurde.<br />

Bei seinen geodätischen Projekten, er war u. a. verantwortlich für die Vermessung des<br />

Königreichs Hannover (2.600 trigonometrische Punkte wurden in 25 Jahren eingemessen!),<br />

bewies er neben seinen Fähigkeiten in der Theorie auch seine Praxisnähe und seine<br />

Vielseitigkeit. Über 5 Jahre nahm er persönlich an den Vermessungen teil und entwickelte<br />

eigens für diese Triangulationen neue Geräte (z.B. den Heliotrop) und ließ sie nach seinen<br />

Vorgaben bauen. U. a. realisierte er die Vermessung des damals größten vermessenen<br />

Dreiecks: Hoher Hagen (508 m ü. NN), Brocken (1142 m ü. NN), Inselberg (915 m ü. NN).<br />

Zusammen mit seinem Göttinger Kollegen und Freund Wilhelm Weber verkabelte er 1833<br />

seine Sternwarte mit dem physika-lischen Institut und tausche über elektromagnetisch<br />

beeinflußte Kompassnadeln Nachrichten mit ihm aus. Das war nicht mehr und nicht weniger<br />

als die erste elektrische Telegraphen-Verbindung der Welt [oder eine frühe Beta-Version des<br />

Internets ;-))].<br />

Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 42<br />

Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />

Seite 13

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!