31
Wahrscheinlichkeit 04_wahrscheinlichkeit 1 Gliederung • Inferenzstatistik Definitionen für Wahrscheinlichkeiten Relative Häufigkeit Grenzwerte („Gesetz der großen Zahl“) Bedingte Wahrscheinlichkeit Stochastische Unabhängigkeit • Wahrscheinlichkeitsrechnung – Additionstheorem – Multiplikationstheorem Theorem von Bayes • Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Embed Size (px)

Citation preview

Page 1: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Wahrscheinlichkeit

04_wahrscheinlichkeit 1

Gliederung• Inferenzstatistik• Definitionen für Wahrscheinlichkeiten

– Relative Häufigkeit– Grenzwerte („Gesetz der großen Zahl“)

• Bedingte Wahrscheinlichkeit• Stochastische Unabhängigkeit• Wahrscheinlichkeitsrechnung

– Additionstheorem– Multiplikationstheorem– Theorem von Bayes

• Wahrscheinlichkeitsverteilungen

Page 2: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Inferenzstatistik

• Die Inferenzstatistik („schlussfolgernde Statistik“) zieht aus den Daten einer Stichprobe Rückschlüsse auf die zugrundeliegende Population.

• Inferenzstatistik beruht auf Wahrscheinlichkeitsaussagen• Beispiel:

– Bei den Psychologie Erstsemester 2008 in Freiburg schätzen die Männer (31) ihre Statistikvorkenntnisse höher ein als die Frauen (24).

– „Ist das gleiche Muster auch für andere Semester (oder andere Universitäten) zu erwarten?“

– „Wie wahrscheinlich ist es, dass in der Gesamt-Population aller Psychologie-Studienanfänger Männer ihre Statistikkenntnisse höher einschätzen als Frauen?“

– „Wie wahrscheinlich wäre das gefundene Ergebnis (Männer = 31; Frauen = 24), wenn es in der Population keinen Unterschied gäbe?“

04_wahrscheinlichkeit 2

Page 3: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Definitionen für Wahrscheinlichkeiten

Was bedeutet Wahrscheinlichkeit? 1. „a priori“ Wahrscheinlichkeit (Laplace)

– Wahrscheinlichkeit ist der relativer Anteil der „günstigen Fälle“ an allen möglichen Ereignissen:

2. „a posteriori“ Wahrscheinlichkeit (Bernoulli)– Wahrscheinlichkeit ist der Grenzwert der relativen Häufigkeit des

Eintretens der „günstigen Fälle“ bei sehr häufigem Durchführen eines Zufallsexperimentes:

04_wahrscheinlichkeit 3

gesamt

A

N

nAp )(

N

nA A

Nlim)(

Page 4: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Relative Häufigkeit

• Die relative Häufigkeit ist ein Schätzer für die „a posteriori“ Wahrscheinlichkeit.

• Die relative Häufigkeit wird berechnet als die Anzahl der Probanden mit einer bestimmten Ausprägung auf einer Variable geteilt durch die Stichprobengröße.

04_wahrscheinlichkeit 4

Herkunft Häufigkeit pBaden-Württemberg 53 0.54Hessen 8 0.08Bayern 7 0.07Berlin 2 0.02Rest 28 0.29

Gesamt 98 1.00

Page 5: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

„Gesetz der großen Zahl“

• Für große Zahlen ist die relative Häufigkeit ein immer besserer Schätzer für die (a posteriori) Wahrscheinlichkeit.

• Der Grenzwert der relativen Häufigkeit für „N gegen Unendlich“ entspricht der Wahrscheinlichkeit.

• Beispiel: Relative Häufigkeit des Ereignisses „Baden-Württemberg“ in Abhängigkeit von N:

04_wahrscheinlichkeit 5

0 10 20 30 40 50 60 70 80 90 1000,00

0,20

0,40

0,60

0,80

p(98) =.54

Page 6: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Bedingte Wahrscheinlichkeit

• Die bedingte Wahrscheinlichkeit gibt an, wie wahrscheinlich ein Ereignis (A) ist, wenn gleichzeitig ein anderes Ereignis (B) gegeben ist.

• Beispiele– Wie wahrscheinlich ist es, dass eine Person depressiv ist (Ereignis A), wenn

sie an chronischen Schmerzen leidet (Ereignis B)?– Wie wahrscheinlich ist es, dass eine Schüler durch eine Prüfung fällt

(Ereignis A), wenn es sich um einen Jungen handelt (Ereignis B)?

• Formale Schreibweise:

„Die Wahrscheinlichkeit von A unter der Bedingung B“

04_wahrscheinlichkeit 6

BAp |

Page 7: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Bedingte Wahrscheinlichkeit

• Die bedingte Wahrscheinlichkeit kann folgendermaßen berechnet werden:

• p(A|B): Wahrscheinlichkeit von A gegeben B.• p(AB): Wahrscheinlichkeit, dass A und B gleichzeitig zutreffen• p(B): Wahrscheinlichkeit von B.

04_wahrscheinlichkeit 7

BpBAp

BAp

|

Page 8: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Bedingte Wahrscheinlichkeit

• Beispiel: Chronische Schmerzen (S) und Depression (D)– 5% der Bevölkerung leiden an chronischen Schmerzen.– 2% der Bevölkerung leiden an chronischen Schmerzen und Depressionen.

• Beispiel: Misserfolg in der Prüfung (P-) und Geschlecht (m)

04_wahrscheinlichkeit 8

40.

05.

02.|

Sp

SDpSDp

Erfolg Misserfolg

Männlich 12 3

Weiblich 14 1

20.

50.

10.|

mp

mPpmPp

Page 9: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Stochastische Unabhängigkeit

• Zwei Ereignisse sind stochastisch unabhängig, wenn die Wahrscheinlichkeit für Ereignis A nicht vom Eintreten von Ereignis B beeinflusst wird.

• Beispiel: 2 Würfelwürfe sind stochastisch unabhängig:– Die Wahrscheinlichkeit, eine 6 zu würfeln (p(6) = 1/6), ist unabhängig vom

Ergebnis des zweiten Würfels.

• Formal: Die bedingte Wahrscheinlichkeit von A gegeben B entspricht der bedingten Wahrscheinlichkeit von A gegeben „nicht-B“

04_wahrscheinlichkeit 9

ApBApBAp ||

Page 10: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Stochastische Unabhängigkeit

Beispiel 1: Zwei Würfelwürfe

04_wahrscheinlichkeit 10

6

161 Wp

6

1

36/6

36/1

6

666|6

2

2121

Wp

WWpWWp

6

1

36/30

36/5

6

666|6

2

2121

Wp

WWpWWp

1 2 3 4 5 6

1

2

3

4

5

6

W1

W2

Page 11: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Stochastische Unabhängigkeit

Beispiel 2: Herkunft BW und Geschlecht

– Formal: Keine Stochastische Unabhängigkeit von Herkunft und Geschlecht– Aber: Exakt identische Werte sind in empirischen Erhebungen nie zu

erwarten– Den statistischen Test für diese Fragestellung (Chi²-Test) lernen wir am

Ende des Wintersemesters kennen

04_wahrscheinlichkeit 11

Herkunft Männer Frauen

Baden-Württemberg 14 38

sonstiges 7 37

67.21

14| mBWp

51.75

38| wBWp

Page 12: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Das Additionstheorem

• Mit dem Additionstheorem wird die Wahrscheinlichkeit berechnet, dass entweder Ereignis A oder Ereignis B eintritt.

• Beispiel:– Wie wahrscheinlich ist es, eine 5 oder eine 6 zu würfeln?– Wie wahrscheinlich ist es, dass eine Person im Laufe Ihres Lebens an einer

Angststörung und an einer depressiven Störung erkranken wird (Lebenszeitprävalenz: Angststörungen: 15%, Depressivität: 10%)?

• Formale Schreibweise– p(AB)– „Wahrscheinlichkeit von A oder B“

04_wahrscheinlichkeit 12

Page 13: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Das Additionstheorem

• Bei „disjunkten“ Ereignissen, die niemals gleichzeitig auftreten, werden die Einzelwahrscheinlichkeiten einfach addiert:

• Wenn Ereignisse auch gemeinsam auftreten können, dann muss die Formel ergänzt werden:

04_wahrscheinlichkeit 13

)()()( BpApBAp

BApBpApBAp

DepressionAngststörung nein ja

nein .78 .07ja .12 .03

Page 14: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Das Multiplikationstheorem

• Mit dem Multiplikationstheorem wird die Wahrscheinlichkeit berechnet, dass die Ereignisse A und B gleichzeitig eintreten.

• Beispiel:– Wie wahrscheinlich ist es, mit 2 Würfelwürfen jeweils eine 6 zu würfeln?– Wie wahrscheinlich ist es, dass eine Person im Laufe Ihres Lebens an einer

Angststörung und an einer depressiven Störung erkranken wird (Lebenszeitprävalenz: Angststörungen: 10%, Depressivität: 8%)?

• Formale Schreibweise– p(AB)– „Wahrscheinlichkeit von A und B“

04_wahrscheinlichkeit 14

Page 15: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Das Multiplikationstheorem

• Bei stochastisch unabhängigen Ereignissen werden die Einzelwahrscheinlichkeiten einfach multipliziert:

• Wenn Ereignisse abhängig sind, dann muss folgende Formel verwendet werden:

bzw.

04_wahrscheinlichkeit 15

)()()( BpApBAp

BpBApBAp |

ApABpBAp |

DepressionAngststörung nein ja

nein .78 .07ja .12 .03

Page 16: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Das Multiplikationstheorem

Beispiel• Bei einer Untersuchungen von Schmerzpatienten stellen Sie fest,

das 30% der Schmerzpatienten gleichzeitig Medikamenten-abhängig sind.

• 0.2 % der Bevölkerung leiden an einer chronischen Schmerzerkrankung.

• Wie viel Prozent der Bevölkerung weisen sowohl eine Schmerzerkrankung als auch eine Medikamentenabhängigkeit auf?

04_wahrscheinlichkeit 16

%06.00006.002.30.| SpSMpMSp

Page 17: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Das Theorem von Bayes

• Das Theorem von Bayes erlaubt es, die bedingten Wahrscheinlichkeiten p(A|B) und p(B|A) in Beziehung zu setzen.

• Beispiel:– 75% der Alkoholabhängigen sind Männer– Lebenszeitprävalenz (insgesamt): 10%– Wie hoch ist das Risiko für einen Mann eine Alkoholabhängigkeit zu

entwickeln?

04_wahrscheinlichkeit 17

Bp

ABpApBAp

||

15.050.0

75.010.0

)(

.)|(.)()|.(

mp

AlkmpAlkpmAlkp

Page 18: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Wahrscheinlichkeitsverteilungen

• Bisher haben wir die Wahrscheinlichkeit von Einzelereignissen betrachtet.

• Wahrscheinlichkeitsverteilungen geben die Auftretens-wahrscheinlichkeiten für einzelne Werte einer Variable an.

• Beispiel Geschlecht:– p(sex=„m“) = .22– p(sex=„w“) = .78

• Beispiel Alter– p(age=18) = .03– p(age=19) = .19– p(age=20) = .21– p(age=21) = .10– …

04_wahrscheinlichkeit 18

Page 19: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Wahrscheinlichkeitsverteilungen

• Da jede Person genau einen Wert für die Variable hat, sind die Ereignisse disjunkt.

• Daher können Bereiche durch Addition zusammengefasst werden:– p(17<age<21) = p(age=18)+p(age=19)+p(age=20) = .43– Insgesamt addieren sich alle Einzelwahrscheinlichkeiten immer zu 1

04_wahrscheinlichkeit 19

11

K

i ixxp

Page 20: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Wahrscheinlichkeitsverteilungen

Graphische Darstellung

04_wahrscheinlichkeit 20

• 50% geben einen Wert von 1 oder 2 an

• Die gemeinsame Fläche der Balken entspricht der gemeinsamen Wahrscheinlichkeit

Page 21: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen für kontinuierliche Variablen• Eine diskrete Wahrscheinlichkeitsverteilung gibt für jeden Wert

einer diskreten Variable die Auftretenswahrscheinlichkeit an.• Eine diskrete Wahrscheinlichkeitsverteilung ergibt sich ebenfalls,

wenn für die Auftretenswahrscheinlichkeit für alle Kategorien einer Diskreten Variable angegeben wird (Histogramm).

• Eine stetige Wahrscheinlichkeitsverteilung ergibt sich, wenn für eine kontinuierliche Variable unendlich kleine Kategoriebreiten verwendet werden.

• Stetige Wahrscheinlichkeitsverteilungen heißen auch „Dichtefunktion“

04_wahrscheinlichkeit 21

Page 22: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Wahrscheinlichkeitsverteilungen

Beispiel: Diskrete und Kontinuierliche Verteilung des Optimismusfragebogens.

04_wahrscheinlichkeit 22

Hinweise:• Die kontinuierliche Verteilung

ergibt sich nicht direkt aus den Daten

• Im Beispiel wurde eine Normal-verteilung angenommen.

Page 23: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Wahrscheinlichkeitsverteilungen

Interpretation kontinuierlicher Wahrscheinlichkeitsverteilungen• Bei kontinuierlichen Wahrscheinlichkeitsvertelungen kann man

nicht mehr direkt eine Wahrscheinlichkeit für eine Ausprägung der Variablen ablesen.

• Die Wahrscheinlichkeit, dass bei einer kontinuierlichen Variable exakt einen bestimmter Wert auftritt ist (theoretisch) unendlich klein.

• Man kann aber Wahrscheinlichkeiten für bestimmte Bereiche einer Verteilung sehen.

• Dazu wird die Fläche der Verteilung herangezogen

04_wahrscheinlichkeit 23

Page 24: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Wahrscheinlichkeitsverteilungen

Interpretation kontinuierlicher Wahrscheinlichkeitsverteilungen• Die Wahrscheinlichkeit, zufällig einen Wert zwischen xmin und xmax

zu erhalten entspricht der Fläche unter der Verteilung zwischen diesen Werten.

04_wahrscheinlichkeit 24

x.00

.10

.20

.30

d

xmin xmax

max

min

)(x

xdxxfp

00.1)(

dxxf

Page 25: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Die Normalverteilung

• Die wichtigste stetige Wahrscheinlichkeitsverteilung in der Psychologie ist die Normalverteilung.

• Sie wurde von C.F. Gauss „entdeckt“ und war auf den alten10 DM Scheinen abgebildet.

• Dort stand auch die Formel der Dichtefunktion der Normal-verteilung:

• Die Normalverteilung ist deshalb so wichtig, weil in der Natur sehr viele Merkmale (annähernd) normalverteilt sind.

04_wahrscheinlichkeit 25

2

2

2

)(

22

1)(

x

exf

Page 26: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Die Normalverteilung

• Jede Normalverteilung …– hat einen „glockenförmigen“ Verlauf und– ist symmetrisch (a3=0) und– hat einen „normalen“ Exzess (a4 = 0)

• Es gibt unendlich viele Normalverteilungen• Diese unterscheiden sich in Ihrem Mittelwert und in der

Standardabweichung (bzw. Varianz)– Der Mittelwert (μ) gibt die Position des „Gipfels“ an.– Die Standardabweichung (σ) gibt die Breite der Verteilung an.

04_wahrscheinlichkeit 26

Page 27: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Die Standardnormalverteilung

• Ein Normalverteilung mit einem Mittelwert μ=0 und einer Streuung von σ=1 heißt Standardnormalverteilung.

• Werte einer Standardnormalverteilungen können besonders einfach interpretiert werden, da die zugehörigen Wahrscheinlichkeiten aus einer Tabelle im Statistikbuch nachgeschlagen werden können.

• Jede normalverteilte Variable kann einfach in eine Standard-normalverteilung transformiert werden (z-Transformation)

04_wahrscheinlichkeit 27

ˆ

ˆ alt

xneu

xzx

Page 28: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Die Standardnormalverteilung

Beispiel z-Transformation der Optimismuswerte

04_wahrscheinlichkeit 28

60.3

10.23lot

zlot

Deskriptive Statistik

N Mittelwert

Standardabweic

hung

lot 98 23,1020 3,60266

Gültige Werte (Listenweise) 98

LOT zLOT

27 1.08

23 -0.03

16 -1.97

19 -1.14

25 0.53

25 0.53

Page 29: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Die Standardnormalverteilung

Interpretation von z-Werten (ungefähre Werte)

• Im Statistiklehrbuch findet man in der Tabelle zur Standard-normalverteilung für jeden z-Wert den Anteil der Fläche, die links dieses Wertes liegt.

04_wahrscheinlichkeit 29

z

f(z)

0 1 2-1-2

68%2% 14% 14% 2%

Page 30: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Zusammenfassung

04_wahrscheinlichkeit 30

• Die Inferenzstatistik verallgemeinert die Befunde einer Stichprobe.

• Wahrscheinlichkeit ist der relativer Anteil „günstiger“ Ereignisse an allen möglichen Ereignissen.

• Im Nachhinein kann die Wahrscheinlichkeit über relative Häufigkeiten geschätzt werden.

• Das Gesetz der großen Zahl besagt, dass eine Abschätzung der Wahrscheinlichkeit als relative Häufigkeit immer genauer wird, je größer die Stichprobe ist.

• Eine bedingte Wahrscheinlichkeit gibt an, wie wahrscheinlich Ereignis A ist, wenn man schon weiß, dass ein anderes Ereignis B eingetreten ist.

Page 31: Wahrscheinlichkeit 04_wahrscheinlichkeit1 Gliederung Inferenzstatistik Definitionen für Wahrscheinlichkeiten – Relative Häufigkeit – Grenzwerte (Gesetz

Zusammenfassung

04_wahrscheinlichkeit 31

• Mit dem Additionstheorem kann berechnet werden, wie groß die Wahrscheinlichkeit ist, dass entweder Ereignis A oder Ereignis B eintritt.

• Mit dem Multiplikationstheorem kann berechnet werden, wie groß die Wahrscheinlichkeit ist, dass Ereignis A und Ereignis B eintreten.

• Das Theorem von Bayes erlaubt es, die bedingten Wahrscheinlichkeiten p(A|B) und p(B|A) in Beziehung zu setzen.

• Wahrscheinlichkeitsverteilungen erlauben Aussagen über die Wahrscheinlichkeiten von bestimmten Merkmalsausprägungen.

• Viele Psychologische Merkmale sind normalverteilt.• Eine Normalverteilung mit Mittelwert 0 und Standard-

abweichung 1 heißt Standardnormalverteilung.