03.06.2014 Aufrufe

Wahrscheinlichkeit

Wahrscheinlichkeit

Wahrscheinlichkeit

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Statistiktutorat : Termin 5<br />

<strong>Wahrscheinlichkeit</strong>stheorie<br />

S.Tomczyk@gmx.net


Lösung des Arbeitsblattes Nr. 3


Arbeitsblatt 3


Arbeitsblatt 3


Arbeitsblatt 3


Arbeitsblatt 3


Arbeitsblatt 3


Arbeitsblatt 3


...zurück zum Thema<br />

<strong>Wahrscheinlichkeit</strong>stheorie


Der große Rahmen<br />

Stochastik<br />

Statistik<br />

deskriptiv<br />

inferentiell<br />

<strong>Wahrscheinlichkeit</strong>srechnung<br />

Tutorat Statistik I<br />

22.11.10


Gliederung<br />

I. Grundlagen<br />

-<br />

Zufallsexperimente<br />

-<br />

Ereignisräume<br />

I. Verknüpfung von Ereignissen<br />

-<br />

Bedingte <strong>Wahrscheinlichkeit</strong> (WS)<br />

-<br />

Additionssatz<br />

-<br />

Multiplikationssatz<br />

I. Verteilungsfunktionen


Grundlagen


Das Zufallsexperiment<br />

beliebig oft wiederholbar (z.B. Befragung)<br />

kann zu verschiedenen Ergebnissen (A, B, C<br />

usw.) führen, die jeweils mit einer bestimmten<br />

<strong>Wahrscheinlichkeit</strong> p<br />

(= probability) eintreten<br />

Das Ergebnis eines Durchgangs wird als<br />

Elementarereignis ω bezeichnet<br />

p(A) = ω


Der Ereignisraum Ω<br />

Die WS für die<br />

Ergebnisse von<br />

Zufallsexperimenten<br />

(Ereignisse) liegt<br />

zwischen 0 (unmöglich)<br />

und 1 (sicher).


Logisches UND sowie ODER<br />

Das logische ODER<br />

beschreibt die WS für das<br />

Auftreten von<br />

mindestenens einem<br />

Ereignis aus einer Menge<br />

von zwei Ereignissen.<br />

Grafisch: Einzelmengen +<br />

Schnittmenge<br />

Das logische UND<br />

beschreibt die WS für das<br />

gleichzeitige Auftreten<br />

zweier Ereignisse<br />

Grafisch: Schnittmenge


A priori- oder Laplace-<br />

<strong>Wahrscheinlichkeit</strong>(WS)<br />

Wenn vor Durchführung eines Zufallsexperiments:<br />

-<br />

Alle möglichen Ereignisse bekannt sind<br />

-<br />

und jedes Ereignis mit der gleichen WS auftritt<br />

dann kann die WS für das Auftreten eines Ereignisses<br />

(A) im Vorhinein („a priori“) mittels der Formel von<br />

Laplace geschätzt werden.<br />

p ( A)<br />

=<br />

Relativer Anteil<br />

der „günstigen Fälle“ an allen<br />

möglichen Ereignissen.<br />

N<br />

n<br />

A<br />

gesamt


Laplace-<strong>Wahrscheinlichkeit</strong><br />

2<br />

6<br />

4<br />

5<br />

1<br />

3


Beispiel: Laplace-WS<br />

Wie groß ist die WS, aus einem Kartenspiel<br />

mit 32 Karten mit einem Versuch folgende<br />

Karte(n) zu ziehen:<br />

Ein Herzass<br />

1/32<br />

Einen König<br />

4/32 = 1/8<br />

Eine schwarze Karte<br />

16/32 = 1/2<br />

p(<br />

HerzAss)<br />

=<br />

1<br />

32


A posteriori oder Bernoulli-WS<br />

In er psychologischen Forschungspraxis ist a priori<br />

zumeist weder die Anzahl der möglichen Fälle bekannt, noch hat<br />

jeder Fall die gleiche Auftretenswahrscheinlichkeit (→ viele<br />

psychologisch relevante Variablen sind normalverteilt).<br />

Daher schätzt man die Häufigkeit des Auftretens von<br />

Elementarereignis A im Nachhinein („a posteriori)“ nach sehr<br />

vielen Durchgängen eines Zufallsexperiments mittels der Formel<br />

von Bernoulli.<br />

Grenzwert der relativen<br />

Häufigkeit des Eintretens der<br />

„günstigen Fälle“ bei sehr<br />

häufigem Durchführen eines<br />

Zufallsexperimentes.<br />

π<br />

(<br />

A)<br />

=<br />

lim<br />

N →<br />

∞<br />

n<br />

A<br />

N


Bernoulli-WS grafisch<br />

• Bernoulli: „a posteriori“ <strong>Wahrscheinlichkeit</strong>:<br />

– <strong>Wahrscheinlichkeit</strong> für A wird geschätzt über<br />

die relative Häufigkeit für A bei unendlich<br />

vielen Zufallsexperimenten<br />

– Gesetz der Großen Zahl<br />

? ?<br />

A<br />

A<br />

A<br />

A<br />

A (Nicht-A), das<br />

Komplementärereignis zu A


Beispiel: Bernoulli-WS<br />

Geben Sie die <strong>Wahrscheinlichkeit</strong> dafür an, dass ein/e<br />

zufällig angesprochene/r Freiburger Psychologiestudent/in<br />

weiblich ist.<br />

sex Häufigkeit p<br />

w 58 0,74<br />

m 20 0,26<br />

Gesamt 78 1,00


<strong>Wahrscheinlichkeit</strong> für (w)=1<br />

Vp sex π(w)<br />

1 1 1.00<br />

2 2 0.50<br />

3 2 0.33<br />

1.00<br />

0.80<br />

0.60<br />

0.40<br />

0.20<br />

4 1 0.50<br />

5 1 0.60<br />

0.00<br />

1 11 21 31 41 51 61 71<br />

6 2 0.50<br />

7 1 0.57<br />

Je größer N wird, desto genauer wird<br />

unsere Schätzung. Dies bezeichnet<br />

man als Gesetz der großen Zahl.


Gliederung<br />

I. Grundlagen<br />

-<br />

Zufallsexperimente<br />

-<br />

Ereignisräume<br />

I. Verknüpfung von Ereignissen<br />

-<br />

Bedingte <strong>Wahrscheinlichkeit</strong> (WS)<br />

-<br />

Additionssatz<br />

-<br />

Multiplikationssatz<br />

I. Verteilungsfunktionen


Verknüpfung von Ereignissen


Stochastische Unabhängigkeit<br />

Zwei Ereignisse sind stochastisch unabhängig,<br />

wenn die <strong>Wahrscheinlichkeit</strong> für Ereignis A nicht<br />

vom Eintreten oder Nicht-Eintreten von Ereignis<br />

B beeinflusst wird.<br />

Mathematisch ist stochastische Unabhängigkeit<br />

folgendermaßen definiert:<br />

p ( A)<br />

= p(<br />

A | B)<br />

= p(<br />

A | B)<br />

Bedingte<br />

<strong>Wahrscheinlichkeit</strong>


Bedingte <strong>Wahrscheinlichkeit</strong><br />

Die bedingte <strong>Wahrscheinlichkeit</strong> gibt an, wie wahrscheinlich<br />

ein Ereignis ist, wenn ein anderes Ereignis schon<br />

eingetreten ist (►Einschränkung der „Population“)<br />

p(<br />

A | B)<br />

=<br />

p(<br />

A ∩ B)<br />

p(<br />

B)<br />

<strong>Wahrscheinlichkeit</strong> von „A“<br />

unter der Bedingung „B“<br />

<strong>Wahrscheinlichkeit</strong>, dass A<br />

und B gleichzeitig eintreten.<br />

<strong>Wahrscheinlichkeit</strong>, dass B<br />

eintritt.<br />

Die bedingte WS ergibt sich aus dem<br />

Multiplikationstheorem für abhängige Ereignisse.


Hier liegt keine bedingte WS vor: Die Häufigkeit von A ist nicht<br />

abhängig vom Aufreten von B.<br />

A B A<br />

Hier liegt eine bedingte WS vor: Die Häufigkeit von A ist<br />

abhängig vom Aufreten von B.<br />

A B A


Vorsicht! Nicht verwechseln!<br />

Stochastische Unabhängigkeit: Die<br />

Eintretenswahrscheinlichkeit von A wird nicht<br />

durch das Eintreten von B beeinflusst.<br />

Statistische Unabhängigkeit: Zwei Stichproben<br />

hängen nicht zusammen(Bsp. EG und KG).<br />

Statistische Abhängigkeit: Zwei Stichproben<br />

hängen miteinander zusammen(Bsp.<br />

Messwiederholungsdesigns).


Multiplikationstheorem<br />

Mit dem Multiplikationstheorem wird die<br />

<strong>Wahrscheinlichkeit</strong> berechnet, dass die<br />

Ereignisse A und B gleichzeitig eintreten.<br />

Bei unabhängigen Ereignissen werden die<br />

Einzelwahrscheinlichkeiten einfach<br />

multipliziert:


Multiplikationstheorem


Multiplikationstheorem<br />

Bei abhängigen Ereignissen wird folgende<br />

Formel verwendet:<br />

Auflösen nach…<br />

Bedingte WS<br />

p(<br />

A<br />

|<br />

B)<br />

=<br />

p(<br />

A ∩ B)<br />

p(<br />

B)


Beispiel: Bedingte WS<br />

10% der Bevölkerung in Deutschland sind<br />

arm ► p(B).<br />

5% der Bevölkerung ist gleichzeitig arm<br />

und psychisch gestört ► p(A ∩ B).<br />

Wie groß ist die WS für einen Armen<br />

(Bedingung) unter einer psychischen<br />

Störung (Ereignis) zu leiden?<br />

p<br />

( A B)<br />

( A ∩ B)<br />

p( B)<br />

p .05<br />

| =<br />

= =<br />

.1<br />

.50


Vorsicht!<br />

Eine bedingte WS darf nicht mit der<br />

„Gegenbedingung“ verwechselt werden:<br />

p( A | B)<br />

≠ p(<br />

B | A)<br />

Im Beispiel haben wir errechnet, dass 50% der Armen (B;<br />

Bedingung) unter einer psychischen Störung (A; Ereignis)<br />

leidet:<br />

p<br />

( A B)<br />

( A ∩ B)<br />

p( B)<br />

p .05<br />

| =<br />

= =<br />

.1<br />

.50<br />

Die Frage, welcher Prozentsatz der psychisch gestörten<br />

(Bedingung; A) arm (Ereignis, B) ist, haben wir damit<br />

nicht beantwortet. Können wir die Frage überhaupt<br />

klären?<br />

Nein, da wir keine Angabe<br />

über die „Basisrate“<br />

psychischer Störungen haben<br />

- p(A) fehlt uns!<br />

p<br />

( B | A)<br />

=<br />

p<br />

( A ∩ B)<br />

p( A)


Prüfung der Unabhängigkeit<br />

Die Grundrate psychischer Störungen in der<br />

Gesamtbevölkerung beträgt 10%.<br />

Sind die Ereignisse krank (A) und arm (B)<br />

stochastisch unabhängig?<br />

Zwei Ereignisse sind stochastisch unabhängig<br />

wenn gilt:<br />

)<br />

p ( A)<br />

= p(<br />

A | B)<br />

= p(<br />

A | B<br />

p(krank) ≠ p(krank/arm) p(<br />

krank |<br />

p(<br />

krank)<br />

=<br />

10%<br />

arm)<br />

=<br />

50%


Additionstheorem<br />

Mit dem Additionstheorem wird die<br />

<strong>Wahrscheinlichkeit</strong> berechnet, dass entweder<br />

Ereignis A oder Ereignis B eintritt.<br />

Bei „disjunkten“ Ereignissen, die niemals<br />

gleichzeitig auftreten, werden die<br />

Einzelwahrscheinlichkeiten von A und B einfach<br />

addiert:<br />

Bei nicht-disjunkten Ereignissen, wird die WS für A<br />

∩ B von A + B abgezogen:


Additionstheorem grafisch<br />

Disjunktes Ereignis<br />

Nicht-disjunktes<br />

Ereignis


Disjunkt- und Unabhängigkeit<br />

Disjunkte Ereignisse sind praktisch immer abhängig!<br />

(außer bei p(A) = 0 oder p(B) = 0)<br />

Beim WS-Experiment „Wurf eines sechseitigen Würfels“<br />

gilt nach LaPlace:<br />

<br />

p(6) = 1/6; p(ungerade) = 3/6<br />

Die Ereignisse sind disjunkt: p(6 ∩ ung.) = 0


Disjunkt- und Unabhängigkeit<br />

p(6) = 1/6; p(ungerade) = 3/6 → disjunkt<br />

Zwei Ereignisse sind stochastisch unabhängig wenn gilt:<br />

p ( A)<br />

= p(<br />

A | B)<br />

= p(<br />

A | B)<br />

<br />

p(6) ≠ p(6/ungerade)<br />

p(6)<br />

p(6 |<br />

= 1/ 6<br />

ungerade)<br />

=<br />

0


Das Theorem von Bayes<br />

Das Theorem von Bayes erlaubt es, die bedingten<br />

<strong>Wahrscheinlichkeit</strong>en p(A|B) und p(B|A) in Beziehung zu<br />

setzen:<br />

p(<br />

A<br />

p(<br />

B<br />

|<br />

|<br />

B)<br />

A)<br />

=<br />

=<br />

p(<br />

A)<br />

⋅ p(<br />

B |<br />

p(<br />

B)<br />

p(<br />

B)<br />

⋅ p(<br />

A |<br />

p(<br />

A)<br />

A)<br />

B)<br />

bzw.<br />

Das Theorem von Bayes erlaubt uns also, aus einer<br />

bekannten bedingten WS, die WS für die<br />

„Gegenbedingung“ zu berechnen, wenn uns auch die<br />

Einzelwahrscheinlichkeiten p(A) und p(B) bekannt<br />

sind.


Herleitung<br />

Das Theorem von Bayes wird aus der bedingten<br />

<strong>Wahrscheinlichkeit</strong> hergeleitet:<br />

Nach<br />

Umstellung


Theorem von Bayes: Beispiel 1<br />

12% der Bevölkerung ist psychisch gestört; p(A).<br />

10% der Bevölkerung ist arm; p(B).<br />

50% der Armen ist psychisch gestört; p(A|B).<br />

Welcher Anteil der psychisch gestörten ist arm;<br />

p(B|A)?<br />

p(<br />

B<br />

|<br />

A)<br />

=<br />

p(<br />

B)<br />

⋅ p(<br />

A |<br />

p(<br />

A)<br />

B)<br />

0.1⋅<br />

0.5<br />

p(<br />

B | A)<br />

=<br />

=<br />

0.12<br />

0.42


Theorem von Bayes: Beispiel 2<br />

Die WS für ein Kind eine Gymnasialempfehlung zu erhalten<br />

beträgt für einen deutschen Grundschüler 40%.<br />

90% aller Gymnasiasten kommen aus Familien mit<br />

überdurchschnittlich hohem sozioökonomischen Status.<br />

Mit anderen Worten: Wenn ich auf dem Gymnasium bin, ist<br />

mein Elternhaus mit 90% WS besser gestellt.<br />

Der Anteil der Familien mit überdurchschnittlichem<br />

sozioökonomischen Status an der Gesamtbevölkerung beträgt<br />

50% (Operationalisierung: Median-Split).<br />

Aufgabe 1: Wenn ich ein Kind aus einem relativ reichen<br />

Elternhaus bin (obere 50%), wie groß ist die WS später auf ein<br />

Gymnasium zu gehen?<br />

Aufgabe 2: Wenn ich ein Kind aus einem relativ armen<br />

Elternhaus bin (untere 50%), wie groß ist dann die WS in<br />

Zukunft aufs Gymnasium zu gehen?


Lösungsweg Aufgabe 1<br />

p(<br />

B<br />

|<br />

A)<br />

=<br />

p(<br />

B)<br />

⋅ p(<br />

A<br />

p(<br />

A)<br />

|<br />

B)<br />

Die WS. für Ereignis A („reich“) ist 0.5<br />

Die WS. für Ereignis B (Gymnasium) ist 0.4<br />

Die WS für einen Gymnasiasten (Bedingung) „reich“ zu<br />

sein (Ereignis) ist 0.9<br />

Gesucht ist nun die WS für einen „Reichen“ (Bedingung),<br />

ein Gymnasiast zu sein (Ereignis).<br />

0.4 ⋅ 0.9<br />

p( B | A)<br />

=<br />

=<br />

0.5<br />

0.72


Lösungsweg Aufgabe 2<br />

p(<br />

B<br />

|<br />

A)<br />

=<br />

p(<br />

B)<br />

⋅ p(<br />

A<br />

p(<br />

A)<br />

|<br />

B)<br />

Die WS. für Ereignis A („arm“) 0.5<br />

Die WS. für Ereignis B (Gymnasium) ist 0.4<br />

Die WS für einen Gymnasiasten „reich“ zu sein ist 0.9<br />

Demnach beträgt die inverse WS, nämlich die WS für<br />

einen Gymnasiasten „arm“ zu sein, 0.1<br />

Gesucht ist hier also die WS für einen „Armen“<br />

(Bedingung), ein Gymnasiast zu sein (Ereignis).<br />

0.4 ⋅ 0.1<br />

p(<br />

B | A)<br />

=<br />

=<br />

0.5<br />

0.08


Theorem von Bayes: Beispiel 3<br />

Es zeigt sich, dass Gewaltopfer zu 80% Frauen sind:<br />

p(w | gewaltopfer) = .80<br />

Die Grundwahrscheinlichkeit Opfer von Gewalt zu<br />

werden in der Bevölkerung sei: p(Gew.) = .03<br />

Wie hoch ist das Risiko für einen Frau, Opfer von Gewalt<br />

zu werden?<br />

p(<br />

Gew.<br />

|<br />

w)<br />

=<br />

p(<br />

Gew.)<br />

⋅ p(<br />

w<br />

p(<br />

w)<br />

|<br />

Gew.)<br />

=<br />

.03 ⋅ .80<br />

.50<br />

=<br />

.048


Verteilungsfunktionen


Gliederung<br />

I. Grundlagen<br />

-<br />

Zufallsexperimente<br />

-<br />

Ereignisräume<br />

I. Verknüpfung von Ereignissen<br />

-<br />

Bedingte <strong>Wahrscheinlichkeit</strong> (WS)<br />

-<br />

Additionssatz<br />

-<br />

Multiplikationssatz<br />

I. Verteilungsfunktionen


Was sind Verteilungsfunktionen?<br />

Eine Verteilungsfunktion beschreibt die<br />

Ereignisse eines Zufallsexperiments, bei dem<br />

unendlich viele Elementarereignisse realisiert<br />

werden können.<br />

→ Die Skala einer<br />

kontinuierlichen<br />

Variable kann als<br />

Ereignisraum mit<br />

unendlich vielen<br />

möglichen<br />

Elementarereignissen<br />

verstanden werden.


Histogramm mit<br />

Verteilungsfunktion<br />

Dies Kurve gibt an, wie die<br />

Messwerte aussehen<br />

müssten, damit das erhobene<br />

Merkmal in der Stichprobe<br />

normalverteilt ist.


Nutzen von Verteilungsfunktionen<br />

Verteilungsfunktionen oder –kurven (synonym<br />

auch: Dichte-funktionen) erlauben mir für beliebige<br />

Intervalle x auf meiner Skala die Anzahl der im Bereich<br />

von x liegenden Probanden zu bestimmen.<br />

Sie ermöglichen auch, die WS dafür zu<br />

berechnen, dass ein einzelner Proband einen<br />

Messwert im Intervall x aufweist.<br />

Wie wir heute sehen werden, bildet dies die<br />

theoretische Grundlage der Inferenzstatistik.


Nutzen von Verteilungsfunktionen<br />

Mathematisch benötige ich hierfür die Funktion der<br />

Verteilungskurve der Messwerte meiner Stichprobe.<br />

Die Bestimmung der Anzahl meiner Probanden im<br />

Messbereich x erfolgt mittels Integralrechnung.<br />

Für uns sind in der Praxis jedoch nur bestimmte<br />

Verteilungsfunktionen relevant.<br />

Daher brauchen wir keine Integrale berechnen sondern<br />

lesen unserer Ergebnisse aus Verteilungstabellen ab.


.30<br />

.20<br />

.10<br />

d<br />

Eine Verteilungsfunktionen<br />

Beispiel: Wenn für eine Funktion f gilt:<br />

25<br />

∫ − ∞<br />

dann ist die <strong>Wahrscheinlichkeit</strong> einen Wert<br />

von x ≤ 25 zu erzielen p = .20.<br />

f<br />

( x)<br />

dx<br />

=<br />

0.2<br />

Wie gesagt: Man kann die<br />

<strong>Wahrscheinlichkeit</strong> für<br />

beliebige Wertebereiche<br />

angeben, z.B.:<br />

z.B. p(25 ≤ x ≤ 75) = 0.71<br />

.00<br />

x=25<br />

x


Die Normalverteilung<br />

Die wichtigste Verteilungsfunktion ist<br />

die Normalverteilung. Sie wurde von<br />

C.F. Gauß „entdeckt“.<br />

Die Normalverteilung ist deshalb so<br />

wichtig, weil in der Natur sehr viele<br />

Merkmale normalverteilt sind<br />

(zumindest als Grundlage<br />

psychologischer Testverfahren).


Die Normalverteilung<br />

Jede Normalverteilung …<br />

a) hat einen „glockenförmigen“ Verlauf und<br />

b) ist symmetrisch (a3=0) und<br />

c) hat einen „normalen“ Exzess (a4 = 3)<br />

Zwei Parameter definieren eine<br />

Normalverteilung:<br />

a) Der Mittelwert (μ) gibt die Position des<br />

„Gipfels“ an.<br />

b) Die Streuung oder Standardabweichung (σ)<br />

gibt die Breite der Verteilung an.


Normalverteilung (schematisch)


Die Standardnormalverteilung<br />

Ein Normalverteilung mit einem Mittelwert von 0 und einer<br />

Streuung von 1 heißt Standardnormalverteilung.<br />

Jede normalverteilte Variable kann einfach in eine<br />

Standard-normalverteilung transformiert werden. Dafür<br />

muss für jeden Wert einer Stichprobe folgende Formel<br />

angewandt werden:<br />

x<br />

neu<br />

xalt<br />

−<br />

= zx<br />

=<br />

σ<br />

Diese Transformation nennt man auch Standardisierung.<br />

Die Standardisierung erlaubt uns auch, Untersuchungen<br />

des gleichen Merkmals, die jedoch mit verschieden<br />

skalierten Messinstrumenten durchgeführt wurden, zu<br />

vergleichen.<br />

µ


Verteilungsfunktion der Ergebnisse eines<br />

Optimismusfragebogens<br />

Ein alternativer<br />

Optimismusfragebogen<br />

ist so konstruiert, dass<br />

der Mittelwert 10 und<br />

die SD 2 beträgt.<br />

Die Standardisierung<br />

ermöglicht es nun,<br />

beide Instrumente<br />

zueinander in<br />

Beziehung zu setzen.<br />

Z.B. könnte exakt<br />

bestimmt werden,<br />

welcher Wert im<br />

alternativen Fragebogen<br />

dem Wert 28 entspricht.


Schätzung von Prozenträngen<br />

Ein Prozentrang gibt an, wie viel Prozent der<br />

Population Werte kleiner als einen oder gleich<br />

einem kritischen Wert haben.<br />

Wenn man Mittelwert und Standardabweichung<br />

eines Merkmals kennt, und dieses normalverteilt<br />

ist, kann man den Prozentrang aus der z-<br />

Verteilungstabelle ablesen.<br />

Der z-Wert entspricht der Abweichung vom<br />

Mittelwert in „Standardabweichungseinheiten“<br />

(z.B. bei 1,5 Std.-Abweichungen über dem<br />

Mittelwert µ; z = 1.50).


z Fläche z Fläche z Fläche z Fläche<br />

-3.00 0.00 -1.50 0.07 0.00 0.50 1.50 0.93<br />

-2.90 0.00 -1.40 0.08 0.10 0.54 1.60 0.95<br />

-2.80 0.00 -1.30 0.10 0.20 0.58 1.70 0.96<br />

-2.70 0.00 -1.20 0.12 0.30 0.62 1.80 0.96<br />

-2.60 0.00 -1.10 0.14 0.40 0.66 1.90 0.97<br />

-2.50 0.01 -1.00 0.16 0.50 0.69 2.00 0.98<br />

-2.40 0.01 -0.90 0.18 0.60 0.73 2.10 0.98<br />

-2.30 0.01 -0.80 0.21 0.70 0.76 2.20 0.99<br />

-2.20 0.01 -0.70 0.24 0.80 0.79 2.30 0.99<br />

-2.10 0.02 -0.60 0.27 0.90 0.82 2.40 0.99<br />

-2.00 0.02 -0.50 0.31 1.00 0.84 2.50 0.99<br />

-1.90 0.03 -0.40 0.34 1.10 0.86 2.60 1.00


Die Standardnormalverteilung<br />

Interpretation von z-Werten:<br />

f(z)<br />

2% 14% 68% 14% 2%<br />

-2<br />

-1<br />

0 1 2<br />

z


Beispiele: z-Werte<br />

Wie können Sie aus einer stetigen<br />

<strong>Wahrscheinlichkeit</strong>sfunktion die<br />

<strong>Wahrscheinlichkeit</strong> dafür ablesen, dass ein<br />

konkreter Wert in einem Intervall von x1 bis x2<br />

vorkommt?<br />

Die Fläche unter der Kurve im Bereich von x1<br />

bis x2 gibt die <strong>Wahrscheinlichkeit</strong> an.


Beispiele: z-Werte<br />

Welche <strong>Wahrscheinlichkeit</strong> kann man bei<br />

der Standardnormalverteilung dem<br />

Bereich von z1 = -1 bis z2 = +1<br />

zuordnen?<br />

<br />

Die <strong>Wahrscheinlichkeit</strong> beträgt<br />

ungefähr p = .68.


Ende (vorläufig...)<br />

Bis nächste Woche<br />

Fragen an:<br />

S.Tomczyk@gmx.net

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!