Vorlesung Statistik 2 - Universität zu Köln
Vorlesung Statistik 2 - Universität zu Köln
Vorlesung Statistik 2 - Universität zu Köln
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
1. Std: Einführung und Überblick<br />
<strong>Vorlesung</strong> <strong>Statistik</strong> 1<br />
Sommersemester 2006<br />
1. Stunde: 5. 4. 2006<br />
• Organisatorisches<br />
• Überblick<br />
• Wiederholung: Population und Stichprobe<br />
Zufallsexperiment, Zufallsvariablen und ihre Verteilung<br />
Wahrscheinlichkeit und Wahrscheinlichkeitsdichte<br />
Normalverteilung<br />
• Verteilungsfunktion:<br />
Bestimmung von Flächen unter der Normalverteilung<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 2<br />
Veranstaltungen <strong>zu</strong>r <strong>Statistik</strong> 2<br />
• <strong>Vorlesung</strong> <strong>Statistik</strong> II, Mittwoch, 11.15 - 12.45<br />
• Übung <strong>Statistik</strong> II (Dipl.-Psych. H. Leuschner)<br />
2 Kurse: montags, 14.15 – 15.45, HS 254<br />
montags, 16.15 – 17.45, HS 254<br />
• Tutorium <strong>Statistik</strong> II (S. Dank, cand. psych.)<br />
2 Kurse: mittwochs nachmittags R 340 C<br />
Vorbesprechung heute um 13.15 in Raum 340 C<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 3<br />
Erwerb eines Leistungsnachweises<br />
• Vorausset<strong>zu</strong>ng: Immatrikulation im Studiengang Psychologie an<br />
der <strong>Universität</strong> <strong>zu</strong> <strong>Köln</strong><br />
• Anwesenheit, Hausufgabenvortrag und bestandene Klausur<br />
<strong>Statistik</strong> 1<br />
• Übung <strong>Statistik</strong> 2: regelmäßige Teilnahme, Mitarbeit (Vortragen<br />
einer Hausaufgabe)<br />
• erfolgreiche Teilnahme an der Klausur „<strong>Statistik</strong> II“<br />
� Bei erfolgreicher Teilnahme an den Veranstaltungen <strong>Statistik</strong> I<br />
und II erhalten Studierende den Leistungsnachweis „<strong>Statistik</strong>“.<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 4<br />
Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />
Seite 1
1. Std: Einführung und Überblick<br />
Nachklausur <strong>Statistik</strong> I<br />
Die Nachklausur ist für Studierende (der Psychologie) gedacht,<br />
die<br />
• die Klausur im Wintersemester nicht bestanden haben oder<br />
• wegen nachweisbarer Gründe (z.B. Krankheit) nicht an der Klausur<br />
am Ende des WiSe 05/06 teilnehmen konnten<br />
• Termin: Mittwoch 26. 4. 15.15 Uhr HS 254<br />
bitte formlose Anmeldung <strong>zu</strong>r Klausur bis 19. 4. per E-Mail an<br />
isabel.lindner@uni-koeln.de<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 6<br />
Inhalte der <strong>Statistik</strong>veranstaltung<br />
Meßtheorie, Skalenniveaus<br />
Deskriptive <strong>Statistik</strong>:<br />
• Darstellung von Daten in Form von Tabellen und Grafiken<br />
• Statistische Kennwerte (z. B. Mittelwert, Streuung)<br />
• Merkmals<strong>zu</strong>sammenhänge (Korrelation + Regression)<br />
Inferenzstatistik:<br />
• Logik und grundlegende Konzepte<br />
• Einzelne Verfahren: z. B. t-Test, U-Test, Chi-Quadrat-Tests,<br />
Varianzanalyse<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 7<br />
Inhalte <strong>Statistik</strong> II<br />
Im Mittelpunkt stehen Prinzipien und Verfahren der Inferenzstatistik.<br />
Ihre Aussagen gehen über das Beobachtbare hinaus und sind mit<br />
Unsicherheit behaftet.<br />
Sie dient dem „Schluss“ von einer Stichprobe auf eine <strong>zu</strong>gehörige<br />
Population.<br />
(1) Überprüfung von Hypothesen,<br />
� Entscheidungen unter Unsicherheit<br />
(2) Schät<strong>zu</strong>ng von Parametern; z.B. Wahlprognose oder Schät<strong>zu</strong>ng von<br />
Einkommen aufgrund von Stichprobendaten (Punkt-, Intervallschät<strong>zu</strong>ng).<br />
� Schät<strong>zu</strong>ngen mit (möglichst kleinen) Fehlern<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 8<br />
Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />
Seite 2
1. Std: Einführung und Überblick<br />
Allgemeine Grundlagen:<br />
• Wahrscheinlichkeitstheorie<br />
• Verteilungen<br />
• Population und Stichprobe<br />
• Stichprobenkennwerteverteilung<br />
Konzeptuelle Grundlagen:<br />
• Hypothesenprüfung<br />
• Signifikanz<br />
• Fehlerarten<br />
Inhalte <strong>Statistik</strong> II<br />
Einzelne Testverfahren <strong>zu</strong>r<br />
Prüfung von Unterschiedshypothesen:<br />
• Intervallskalenniveau:<br />
t-Tests und<br />
Varianzanalyse<br />
• Ordinal- und Nominalskalenniveau:<br />
Chi2 u.a.<br />
Prüfung von Zusammenhangshypothesen<br />
• Inferenzstatistische<br />
Absicherung von<br />
Korrelationen<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 12<br />
5.4.<br />
12.4.<br />
19. 4.<br />
26.4.<br />
3.5.<br />
10.5.<br />
17. 5.<br />
24. 5.<br />
Semesterplan (1)<br />
Einführung und Überblick<br />
Wiederholung: Population und Stichprobe; wichtige Verteilungen in<br />
der <strong>Statistik</strong>; Zufallsvariablen und ihre Verteilung; Verteilungsfunktion<br />
Die Stichprobenkennwerteverteilung, Konfidenzintervalle<br />
Die Überprüfung von Nullhypothesen: Beispiel z-Test<br />
t-Test für eine Stichprobe, t-Test für unabhängige Stichproben<br />
Erweiterung des Nullhypothesensignifikanztests: Alternativhypothese,<br />
Effektgröße, Teststärke<br />
Stichprobenumfangsplanung. t-Test für abhängige Stichproben<br />
Varianzanalyse: Einführung, F-Verteilung<br />
Einfaktorielle Varianzanalyse: Berechnung, Vorausset<strong>zu</strong>ngen,<br />
Einzelvergleiche<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 13<br />
31. 5.<br />
5.7.<br />
Pfingstferien<br />
Wiederholung und Fragen<br />
Semesterplan (2)<br />
Mehrfaktorielle Varianzanalyse: Berechnung, Vorausset<strong>zu</strong>ngen,<br />
Interaktion, Einzelvergleiche<br />
14. 6. Varianzanalyse mit Messwiederholung; Kovarianzanalyse<br />
21. 6. Überprüfung von Zusammenhangshypothesen (inferenzstatistische<br />
Absicherung von Korrelationen). Einführung: Nonparametrische<br />
Tests<br />
28. 6.<br />
12.7.<br />
Testverfahren für Nominal- und Ordinaldaten (Nonparametrische<br />
Tests)<br />
Klausur<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 14<br />
Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />
Seite 3
1. Std: Einführung und Überblick<br />
Literatur<br />
• Bortz, J. (2005). <strong>Statistik</strong> für Sozialwissenschaftler (6. Auflage). Berlin: Springe<br />
oder<br />
• Diehl, J. M. & Arbinger, R. (1992). Einführung in die Inferenzstatistik (2. Auflage).<br />
Eschborn: Klotz.<br />
oder<br />
• Nachtigall, C. & Wirtz, M. (2004). Wahrscheinlichkeitsrechnung und<br />
Inferenzstatistik (3. Aufl.). Weinheim: Juventa.<br />
• Hussy, W. & Jain, A. (2002). Experimentelle Hypothesenprüfung in der<br />
Psychologie. Göttingen: Hogrefe. (daraus: Kap. 4.1 + 4.2 und Anhang A).<br />
Computerprogramm <strong>zu</strong>r Berechnung von Teststärke oder optimalem<br />
Stichprobenumfang:<br />
• Buchner, A., Erdfelder, E., & Faul, F. (1997). G*Power. URL <strong>zu</strong>m kostenlosen<br />
Download: http://www.psycho.uni-duesseldorf.de/aap/projects/gpower/index.html<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 15<br />
Inferenzstatistik:<br />
Grundlegende Konzepte<br />
• Population und Stichprobe<br />
• Zufallsexperiment<br />
• Zufallsvariable<br />
• Verteilung einer Zufallsvariablen<br />
• Wahrscheinlichkeit, Wahrscheinlichkeitsfunktion,<br />
Wahrscheinlichkeitsdichtefunktion<br />
• Verteilungsfunktion<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 16<br />
Population oder Grundgesamtheit<br />
• Potentiell untersuchbare Elemente, die ein oder mehrere<br />
gemeinsame Merkmale aufweisen<br />
• Ziel der Inferenzstatistik ist es, Aussagen über die Grundgesamtheit<br />
<strong>zu</strong> treffen, wobei aber nur Werte für die<br />
Stichprobe vorliegen<br />
• Die statistischen Kennwerte der Grundgesamtheit nennen<br />
wir auch Parameter und bezeichnen sie in der Regel mit<br />
griechischen Buchstaben: z.B. Mittelwert in der Population:<br />
μ<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 17<br />
Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />
Seite 4
1. Std: Einführung und Überblick<br />
Zentrale Begriffe der Inferenzstatistik:<br />
Stichprobe<br />
• Teilmenge aus einer Population, die nach bestimmten Regeln<br />
gewonnen wird<br />
• Für die Elemente der Stichprobe liegen Beobachtungswerte vor (und<br />
diese sollen auf die Population „verallgemeinert“ werden)<br />
• Den Schluss vom Speziellen <strong>zu</strong>m Allgemeinen, d.h. von der<br />
Stichprobe auf die Population, nennt man auch „Induktionsschluss“.<br />
Die Inferenzstatistik wird deshalb auch manchmal als „induktive<br />
<strong>Statistik</strong>“ bezeichnet<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 18<br />
Arten von Stichproben<br />
Zufallsstichprobe<br />
• einfache Zufallsstichprobe<br />
• geschichtete Zufallsstichprobe<br />
Klumpenstichprobe<br />
angefallene Stichprobe<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 19<br />
Zufallsexperiment<br />
Die Inferenzstatistik orientiert sich am Konzept des<br />
Zufallsexperiments<br />
� ein beliebig oft wiederholbarer Vorgang nach einer bestimmten<br />
Vorschrift, dessen Ergebnis vom Zufall abhängt, also im Voraus<br />
nicht feststeht.<br />
Beispiele: die Augenzahl beim Würfeln, Ausgang eines Münzwurfs; aber<br />
auch das Ergebnis der Befragung einer Person, eine gemessene<br />
Reaktionszeit.<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 20<br />
Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />
Seite 5
1. Std: Einführung und Überblick<br />
Zufallsvariable<br />
• Eine Zufallsvariable X ordnet jedem Ergebnis eines<br />
Zufallsexperiments einen Wert x <strong>zu</strong>.<br />
• Zufallsvariable ≠ Elementarereignis<br />
• Beispiel für eine diskrete Zufallsvariable (Würfeln):<br />
X (ω) = 0, falls Augenzahl 1,3 oder 5 („ungerade“)<br />
X (ω) = 1, falls Augenzahl 2,4 oder 6 („gerade“)<br />
=> Informationsreduktion. Betrachtet werden nur noch zwei Ereignisse:<br />
A1 = {ω1,ω3,ω5} = {1, 3, 5} und<br />
A2 = {ω2,ω4,ω6} = {2, 4, 6}<br />
• Beispiel für eine stetige Zufallsvariable: Körpergröße einer <strong>zu</strong>fällig ausgewählten<br />
Person in <strong>Köln</strong>.<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 21<br />
Diskrete vs. stetige Zufallsvariable<br />
• Eine diskrete Zufallsvariable liegt vor, wenn die Ergebnisse<br />
eines Zufallsexperiments in kategorischer Form vorliegen<br />
oder gezählt werden können.<br />
• Eine stetige (kontinuierliche) Zufallsvariable liegt vor, wenn<br />
die Ergebnisse eines Zufallsexperiments nicht endlich<br />
abgezählt werden können. Die Werte können hier in einem<br />
Intervall beliebig viele Ausprägungen aufweisen.<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 22<br />
Verteilung einer Zufallsvariablen<br />
• Stellt man in einer Tabelle oder einer Grafik dar, mit welcher<br />
Häufigkeit bzw. Wahrscheinlichkeit die einzelnen Werte einer<br />
Zufallsvariablen auftreten, nennt man das die Verteilung dieser<br />
Zufallsvariablen.<br />
• Bei diskreten Zufallsvariablen kann man jeder Ausprägung der<br />
Zufallsvariablen eine Wahrscheinlichkeit <strong>zu</strong>ordnen<br />
(� Wahrscheinlichkeitsfunktion)<br />
• Bei kontinuierlichen Zufallsvariablen hat jede Ausprägung der<br />
Zufallsvariablen eine Wahrscheinlichkeit, die gegen Null geht.<br />
Wahrscheinlichkeiten sind hier nur für Intervalle bestimmbar.<br />
(� Wahrscheinlichkeitsdichtefunktion)<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 23<br />
Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />
Seite 6
1. Std: Einführung und Überblick<br />
p(X)<br />
5/36<br />
3/36<br />
1/36<br />
Verteilung von Zufallsvariablen:<br />
Wahrscheinlichkeitsfunktion<br />
Beispiel: diskrete Zufallsvariable<br />
2 3 4 5 6 7 8 9 10 11 12<br />
Bsp: Die Wahrscheinlichkeit,<br />
eine Zahl<br />
größer 9 <strong>zu</strong> würfeln:<br />
Augensumme aus<br />
p(X zwei > Würfeln 9) =<br />
p(10) + p (11) + p(12)<br />
= 3/36 + 2/36 + 1/36<br />
= 6/36<br />
Die Wahrscheinlichkeit eines bestimmten Wertes von X lässt sich aus<br />
der Verteilung ablesen. Die Wahrscheinlichkeit eines Wertes in einem<br />
Intervall ΔX ist die Summe der Einzelwahrscheinlichkeiten.<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 24<br />
Verteilung von Zufallsvariablen:<br />
Wahrscheinlichkeitsdichtefunktion<br />
f(x)<br />
Beispiel: stetige Zufallsvariable<br />
Wahrscheinlichkeitsdichte<br />
0,45<br />
0,40<br />
0,35<br />
0,30<br />
0,25<br />
0,20<br />
0,15<br />
0,10<br />
0,05<br />
0,00<br />
-3,0 -2,0 -1,0 0,0 1,0 2,0 3,0<br />
Wert von X<br />
Die Wahrscheinlichkeit eines Wertes in einem Intervall ΔX<br />
ist das Integral der Dichtefunktion über diesem Intervall.<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 25<br />
Verteilungsfunktion: diskrete Variable<br />
• Wird die Wahrscheinlichkeits(dichte)funktion einer Zufallsvariablen<br />
kumuliert, so ergibt sich die Verteilungsfunktion.<br />
• Für diskrete Variablen ergibt sich ein Wert der Verteilungsfunktion<br />
durch die Addition der Einzelwahrscheinlichkeiten p (x) aller<br />
kleineren Werte bis <strong>zu</strong>m gesuchten Wert von X.<br />
• Beispiel: Wenn X die Augensumme aus zweimaligem Würfeln ist, so<br />
ergibt sich für X = 4 der Funktionswert<br />
f(x) = 1/36 + 2/36 + 3/36 = 6/36 = 1/6.<br />
• (Augensumme = 2 3 4 )<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 26<br />
Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />
Seite 7
1. Std: Einführung und Überblick<br />
Verteilungsfunktion: stetige Variable<br />
• Für stetige Variablen gibt die Verteilungsfunktion Verteilungsfunktion<br />
die Wahrschein-<br />
1,200<br />
lichkeit an, dass die Zufallsvariable einen Wert annimmt, der<br />
1,000<br />
höchstens so groß ist wie ein bestimmter Wert.<br />
• Diese kumulierte Wahrscheinlichkeitsdichte 0,600 wird durch das Integral<br />
von – ∞ bis x der Wahrscheinlichkeitsdichtefunktion 0,400 bestimmt<br />
0,200<br />
� die Fläche von ganz links in der Dichtefunktion bis <strong>zu</strong>m Wert x.<br />
• Diese Verteilungsfunktion ist von zentraler Bedeutung für die<br />
Inferenzstatistik.<br />
• Beispiel: Wie groß ist die Wahrscheinlichkeit, höchstens einen<br />
bestimmten Stichprobenmittelwert aus einer Verteilung <strong>zu</strong> ziehen?<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 27<br />
Wahrscheinlichkeitsdichte<br />
0,45<br />
0,40<br />
0,35<br />
0,30<br />
0,25<br />
0,20<br />
0,15<br />
0,10<br />
0,05<br />
0,00<br />
(Wahrscheinlichkeits-)<br />
Dichtefunktion<br />
a<br />
-3,0 -2,0 -1,0 0,0 1,0 2,0 3,0<br />
kumulierte Wahrscheinlichkeitsdichte<br />
0,800<br />
0,000<br />
stetige Zufallsvariable<br />
X<br />
-3,0 -2,0 -1,0 0,0 1,0 2,0 3,0<br />
� Wert der Verteilungsfunktion ist die Fläche (Integral) der<br />
Wahrscheinlichkeitsdichtefunktion von -∞ bis a .<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 28<br />
kumulierte Wahrscheinlichkeitsdichte<br />
1,200<br />
1,000<br />
0,800<br />
0,600<br />
0,400<br />
0,200<br />
0,000<br />
Verteilungsfunktion<br />
a<br />
-3,0 -2,0 -1,0 0,0 1,0 2,0 3,0<br />
X<br />
Verteilungsfunktion = kumulierte Wahrscheinlichkeit(sdichte)<br />
Wichtige Verteilungen<br />
• In der <strong>Statistik</strong> sind einige theoretische Verteilungen von Zufallsvariablen<br />
entwickelt worden, die für die Inferenzstatistik von<br />
Bedeutung sind.<br />
• Dabei lässt sich zwischen Verteilungen für diskrete und stetige<br />
Zufallsvariablen unterscheiden.<br />
• Die wichtigste Verteilung für diskrete Zufallsvariablen ist die<br />
Binomialverteilung.<br />
• Für stetige Zufallsvariablen sind eine Reihe verschiedener<br />
theoretischer Verteilungen entwickelt worden:<br />
a) Normalverteilung (Standardnormalverteilung)<br />
b) t-Verteilung<br />
c) χ 2 -Verteilung<br />
d) F-Verteilung<br />
• Die wichtigste dieser Verteilungen ist die Normalverteilung.<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 29<br />
Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />
Seite 8
1. Std: Einführung und Überblick<br />
Zentrale Begriffe der Inferenzstatistik:<br />
Die Normalverteilung<br />
Klasse von Wahrscheinlichkeitsverteilungen mit bestimmten<br />
Eigenschaften:<br />
• glockenförmiger Verlauf<br />
• Maximum bei µ.<br />
• symmetrisch; Modalwert, Median und Mittelwert sind gleich<br />
• nähert sich asymptotisch auf beiden Seiten der x-Achse<br />
• kontinuierliche, theoretische Verteilung<br />
Die Normalverteilung dient als mathematisches Modell, das sich als<br />
nützlich erwiesen hat.<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 30<br />
Carl Friedrich Gauss<br />
1777 – 1855 (Brunswick, D / Göttingen, D)<br />
Der Fürst der Mathematiker<br />
konnte früher rechnen als sprechen<br />
... <strong>zu</strong>mindest behauptete er das selbst scherzhaft von sich. Den Anekdoten<br />
nach war der am 30. April 1777 in Braunschweig geborene Gauß tatsächlich<br />
ein mathematisches Wunderkind, der als dreijähriger bereits den Vater bei<br />
der Lohnabrechnung korrigiert haben soll. In der Grundschule berechnete er<br />
die Summe der Zahlen von 1 bis 100 nach dem Gesetz s = n(n+1)/2 und als<br />
18jähriger entdeckte er die Konstruktion des regulären Siebzehnecks (mit<br />
Zirkel und Lineal).<br />
Gauß studierte in Göttingen, promovierte 1799 in Helmstedt und reüssierte<br />
mit der Bahnberechnung des Kleinplaneten Ceres. Bereits bei dieser Arbeit<br />
setzte er seine Methode der kleinsten Quadrate und Überlegungen <strong>zu</strong>r<br />
Zufallsverteilung (Glockenkurve) ein, die noch gar nicht veröffentlicht<br />
waren. Das brachte ihm 1805 den Ruf als Direktor an die neue Sternwarte in<br />
Göttingen ein, die aber erst 1816/17 fertiggestellt wurde.<br />
…. Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 31<br />
verschiedene Normalverteilungen<br />
• Es gibt sehr viele unterschiedliche Normalverteilungen.<br />
• Sie unterscheiden sich durch ihren Mittelwert und ihre Standardabweichung.<br />
• Durch einfache Transformationen lassen sich die Werte einer<br />
Normalverteilung in die einer anderen überführen.<br />
• Die Normalverteilung mit Mittelwert<br />
Null und Standardabweichung Eins<br />
heisst Standardnormalverteilung.<br />
Sie wird oft in der <strong>Statistik</strong> verwendet.<br />
f(<br />
x)<br />
• Die Werte der Standardnormalverteilung heissen z-Werte.<br />
1<br />
* e<br />
2π<br />
1 2<br />
− z<br />
2<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 32<br />
=<br />
Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />
Seite 9
1. Std: Einführung und Überblick<br />
Normalverteilung als Annäherung einer<br />
empirischen Verteilung<br />
Normalverteilung findet sich oft, wenn:<br />
• eine Variable durch das Zusammenwirken<br />
vieler voneinander unabhängiger<br />
Faktoren bewirkt wird<br />
• keine Selektion erfolgt ist<br />
• eine große Anzahl von Beobachtungen<br />
vorliegt<br />
Viele Merkmale sind aber auch nicht<br />
normalverteilt, z.B. Einkommen,<br />
Reaktionszeiten, Häufigkeit von Unfällen.<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006<br />
Nagelbrett <strong>zu</strong>r Veranschaulichung<br />
einer Normalverteilung (aus Bortz,<br />
S. 79)<br />
Folie 33<br />
Normalverteilung als Verteilung von<br />
Messfehlern<br />
Bei jeder Art von Datenerhebung kommt es <strong>zu</strong> Messfehlern<br />
Dabei erweisen sich diese Fehler oft als normalverteilt.<br />
• positive und negative Fehler sind gleich häufig<br />
• kleine Fehler sind häufiger als große<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 34<br />
Normalverteilung als Wahrscheinlichkeitsdichtefunktion<br />
• Die Normalverteilung beschreibt die Wahrscheinlichkeit für das<br />
Auftreten einer kontinuierlichen (Zufalls-) variablen.<br />
• Die einzelnen Werte haben keine Wahrscheinlichkeit, sondern eine<br />
Wahrscheinlichkeitsdichte.<br />
• Man interessiert sich deshalb auch nicht für die Wahrscheinlichkeit<br />
des Auftretens bestimmter Werte, sondern bestimmter Wertebereiche<br />
(Intervalle).<br />
Diese Wahrscheinlichkeit wird berechnet als das Integral der<br />
Dichtefunktion (= Fläche unter der Verteilung).<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 35<br />
Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />
Seite 10
1. Std: Einführung und Überblick<br />
0,40<br />
0,35<br />
0,30<br />
0,25<br />
0,20<br />
0,15<br />
0,10<br />
0,05<br />
0,00<br />
Normalverteilung als<br />
Wahrscheinlichkeitsdichtefunktion<br />
Die 0,45 Standardnormalverteilung<br />
Wahrscheinlichkeitsdichte<br />
-3,0 -2,0 -1,0 0,0 1,0 2,0 3,0<br />
z-Wert<br />
Die Wahrscheinlichkeit<br />
eines z-Wertes zwischen -1<br />
und 0 ist das Integral der<br />
Dichtefunktion zwischen –1<br />
und 0.<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 36<br />
Verteilungsfunktion der<br />
Normalverteilung<br />
Die Verteilungsfunktion ist die<br />
kumulierte Wahrscheinlichkeitsdichtefunktion.<br />
Sie ist also das<br />
Integral der Fläche von -∞ bis <strong>zu</strong>m<br />
Wert x.<br />
Diese kumulierten Wahrscheinlichkeiten<br />
sind z.B. in der Normalverteilungstabelle<br />
aufgelistet.<br />
Standardnormalverteilung<br />
0,45<br />
0,40<br />
0,35<br />
0,30<br />
0,25<br />
0,20<br />
0,15<br />
0,10<br />
0,05<br />
0,00<br />
Dichtefunktion<br />
-3,0 -2,0 -1,0 0,0 1,0 2,0 3,0<br />
0,000<br />
-3,0 -2,0 -1,0 0,0<br />
z-Wert<br />
1,0 2,0 3,0<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 37<br />
Wahrscheinlichkeitsdichte<br />
kumulierte Wahrscheinlichkeitsdichte<br />
(Wahrscheinlichkeits-)<br />
1,200<br />
1,000<br />
0,800<br />
0,600<br />
0,400<br />
0,200<br />
z-Wert<br />
Verteilungsfunktion<br />
Bestimmung von Flächen unter der<br />
Normalverteilung<br />
Die Flächen von – ∞ bis z können<br />
direkt aus der Standardnormalverteilungstabelle<br />
entnommen werden.<br />
Da die Dichtefunktion symmetrisch<br />
ist, ist die Fläche von – ∞ bis z gleich<br />
der Fläche von –z bis + ∞.<br />
0,45<br />
0,40<br />
0,35<br />
0,30<br />
0,25<br />
0,20<br />
0,15<br />
0,10<br />
0,05<br />
0,00<br />
-3,0 -2,0 -1,0 0,0<br />
z-Wert<br />
1,0 2,0 3,0<br />
0,45<br />
Häufig benötigt man die Fläche<br />
von z1 bis z2 :<br />
Da<strong>zu</strong> subtrahiert man den Wert der<br />
Fläche von z1 von z2 (wobei z2 der<br />
größere z-Wert ist).<br />
0,40<br />
0,35<br />
0,30<br />
0,25<br />
0,20<br />
0,15<br />
0,10<br />
0,05<br />
0,00<br />
-3,0 -2,0 -1,0 0,0<br />
z1 z-Wert<br />
1,0<br />
z2 2,0 3,0<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 38<br />
Wahrscheinlichkeitsdichte<br />
Wahrscheinlichkeitsdichte<br />
Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />
Seite 11
1. Std: Einführung und Überblick<br />
Bestimmung von Flächen anderer<br />
Verteilungen<br />
In der Inferenzstatistik werden oft<br />
noch andere Verteilungen (z.B. t-<br />
Verteilungen, F-Verteilungen, Chi-<br />
Quadrat-Verteilungen etc.) benötigt.<br />
Die Bestimmung von Flächen anderer<br />
Verteilungen erfolgt analog <strong>zu</strong>r<br />
Bestimmung bei der Normalverteilung.<br />
Zu berücksichtigen ist dabei, ob eine<br />
Verteilung symmetrisch ist oder nicht!<br />
t-Verteilung<br />
-4 -3 -2 -1 0 1 2 3 4 5<br />
t<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 39<br />
Danke für Ihre Aufmerksamkeit !<br />
Carl Friedrich Gauss<br />
1777 – 1855 (Brunswick, D / Göttingen, D)<br />
Der Fürst der Mathematiker<br />
konnte früher rechnen als sprechen<br />
W a hrsch e in lic hke i ts d i c h te<br />
...Ende<br />
... <strong>zu</strong>mindest behauptete er das selbst scherzhaft von sich. Den Anekdoten nach war der am 30.<br />
April 1777 in Braunschweig geborene Gauß tatsächlich ein mathematisches Wunderkind, der<br />
als dreijähriger bereits den Vater bei der Lohnabrechnung korrigiert haben soll. In der<br />
Grundschule berechnete er die Summe der Zahlen von 1 bis 100 nach dem Gesetz s =<br />
n(n+1)/2 und als 18jähriger entdeckte er die Konstruktion des regulären Siebzehnecks (mit<br />
Zirkel und Lineal).<br />
Gauß studierte in Göttingen, promovierte 1799 in Helmstedt und reüssierte mit der<br />
Bahnberechnung des Kleinplaneten Ceres. Bereits bei dieser Arbeit setzte er seine Methode<br />
der kleinsten Quadrate und Überlegungen <strong>zu</strong>r Zufallsverteilung (Glockenkurve) ein, die noch<br />
gar nicht veröffentlicht waren. Das brachte ihm 1805 den Ruf als Direktor an die neue<br />
Sternwarte in Göttingen ein, die aber erst 1816/17 fertiggestellt wurde.<br />
Seine Bahnberechnungsmethoden veröffentlichte er 1809 als "Theoria Motus Corporum<br />
Coelestium"; sie sind bis heute außer Modifikationen wg. des Einsatzes moderner Rechner im<br />
Kern nicht mehr verbessert worden. (weiter nächste Seite)<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 41<br />
Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />
Seite 12
1. Std: Einführung und Überblick<br />
Carl Friedrich Gauss<br />
1777 – 1855 (Brunswick, D / Göttingen, D)<br />
(ff) Gauß veröffentlichte grundlegende Werke über die höhe<br />
re Arithmetik, die Differentialgeometrie und die Bewegung<br />
der Himmelskörper. Aber viele seiner Entdeckungen teilte er auch lediglich in Briefen Freunden<br />
mit oder er notierte sie nur in seinem Tagebuch, das übrigens erst 1898 entdeckt wurde.<br />
Bei seinen geodätischen Projekten, er war u. a. verantwortlich für die Vermessung des<br />
Königreichs Hannover (2.600 trigonometrische Punkte wurden in 25 Jahren eingemessen!),<br />
bewies er neben seinen Fähigkeiten in der Theorie auch seine Praxisnähe und seine<br />
Vielseitigkeit. Über 5 Jahre nahm er persönlich an den Vermessungen teil und entwickelte<br />
eigens für diese Triangulationen neue Geräte (z.B. den Heliotrop) und ließ sie nach seinen<br />
Vorgaben bauen. U. a. realisierte er die Vermessung des damals größten vermessenen<br />
Dreiecks: Hoher Hagen (508 m ü. NN), Brocken (1142 m ü. NN), Inselberg (915 m ü. NN).<br />
Zusammen mit seinem Göttinger Kollegen und Freund Wilhelm Weber verkabelte er 1833<br />
seine Sternwarte mit dem physika-lischen Institut und tausche über elektromagnetisch<br />
beeinflußte Kompassnadeln Nachrichten mit ihm aus. Das war nicht mehr und nicht weniger<br />
als die erste elektrische Telegraphen-Verbindung der Welt [oder eine frühe Beta-Version des<br />
Internets ;-))].<br />
Dr. A. Jain: <strong>Vorlesung</strong> <strong>Statistik</strong> 2 SS 2006: 05.04.2006 Folie 42<br />
Dr. A. Jain; <strong>Vorlesung</strong> <strong>Statistik</strong> 2; SS 2006 05.04.2006<br />
Seite 13