110
Tobias Glosauer ———————— Mathematik in der Kursstufe Band 3: Stochastik

s73053e50e44d5ab1.jimcontent.com · 2020. 1. 31. · KDP ISBN: 9781792714764 Mathematik in der Kursstufe, Band 3: Stochastik 1. Au age, 2018 Tobias Glosauer, Kepler-Gymnasium, Alteburgstraˇe

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

  • Tobias Glosauer————————

    Mathematikin der Kursstufe

    Band 3:

    Stochastik

  • KDP ISBN: 9781792714764

    Mathematik in der Kursstufe, Band 3: Stochastik

    1. Auflage, 2018

    Tobias Glosauer, Kepler-Gymnasium, Alteburgstraße 26, 72762 Reutlingen

    c© Alle Rechte verbleiben beim Autor.

    Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die

    nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung

    des Autors. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen und

    die Einspeicherung und Verarbeitung in elektronischen Systemen.

    Druck: Siehe letzte Seite.

  • Vorwort

    Puh.

    Schon seit der Schulzeit verbindet mich mit der Stochastik eine tiefe Hassliebe; dement-sprechend war es Qual und Freude zugleich, diesen Band zu verfassen, dessen Fertig-stellung mir eine besondere Genugtuung verschafft. Ein ehrliches Vorwort erscheintangebracht.

    Im ersten Kapitel geht es nochmals ganz von vorne los, um eine einheitliche Notationeinzuführen und die Grundkonzepte der Wahrscheinlichkeitsrechnung in Erinnerungzu rufen. Dabei treten auch so erfreuliche Dinge auf wie Baumdiagramme und Pfad-regeln, die eigentlich (fast) jedem einleuchten und sogar Spaß machen. Einzig die kor-rekte Definition des Begriffes der Wahrscheinlichkeit an sich hat mir Bauchschmerzenbereitet, weshalb ich mich elegant davor gedrückt habe.Danach folgt ein kurzes Kapitel über bedingte Wahrscheinlichkeit – ein Konzept, mitdem ich mich nur bedingt anfreunden kann (man verzeihe mir das plumpe Wortspiel).Das Arbeiten mit Vierfeldertafeln ist aber nett.Richtig Spaß gemacht hat Kapitel 3: Die Binomialverteilung. Ist zu großen TeilenWiederholung aus Klasse 10, aber sei’s drum. Mir war wichtig, die Kombinatorik,die hinter der Formel von Bernoulli bzw. den Binomialkoeffizienten steckt, nochmalsgründlich aufzuarbeiten.Das Thema des letzten Kapitels, Testen von Hypothesen, hat mir noch nie Freudebereitet. Dies mag teilweise meiner Rechts-Links-Schwäche geschuldet sein, aber auchder Tatsache, dass die Aufgaben oft gekünstelt wirken und eigentlich nur lästige Tipp-arbeit nach Schema F erfordern.Die eigentliche Krönung der Schulstochastik, die Normalverteilung, fehlt in diesemBand, da sie bei uns im Ländle momentan nicht abirelevant ist (dies gilt übrigensauch für Kapitel 2, aber das wurde mir erst bewusst, als es bereits geschrieben war).Im Laufe der nächsten Jahre wird aber sicherlich vermutlich noch ein Kapitel zudiesem schönen Thema entstehen.

    Ich bin dankbar für Rück- und Fehlermeldungen jeder Art, die an [email protected] werden können. Die korrigierten Neuauflagen dieses Bandes stehen auf derSeite https://matherialien.jimdofree.com zum kostenlosen Download.

    Danke!

    An meine Frau, für das gewohnt akribische und gewinnbringende Korrekturlesen.Gleiches geht an Roman und Rebecca Hatzky. Und an meine Schüler Timon Begerund Friedrich Sautter, die ebenfalls einige Unstimmigkeiten dingfest gemacht haben.Alle verbleibenden Fehler wurden absichtlich eingestreut, in der Hoffnung, dass sichwirklich mal jemand per E-Mail bei mir meldet. Tatsächlich hat Claus Poltermanndies getan und noch mehr Fehler ans Licht gebracht. Ein weiteres Dankeschön gehtan Annika Eichenseer, die eine falsche Formulierung in Test 2.2 entdeckt hat.

    Reutlingen, im Dezember 2018 / April 2019 / Januar 2020 Tobias Glosauer

  • Inhalt

    1 Grundlegendes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1 Etwas Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Zufallsexperimente und ihre Ergebnismenge . . . . . . . . . . . . . . . . 41.3 Das empirische Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . 71.4 Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.5 Baumdiagramme und Pfadregeln . . . . . . . . . . . . . . . . . . . . . . 111.6 Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.7 Test: Hast du Kapitel 1 verstanden? . . . . . . . . . . . . . . . . . . . . . 20

    2 Bedingte Wahrscheinlichkeit und Unabhängigkeit . . . . . . . . . 212.1 Bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . 212.2 Der (allgemeine) Produktsatz . . . . . . . . . . . . . . . . . . . . . . . . 242.3 Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272.4 Test: Hast du Kapitel 2 verstanden? . . . . . . . . . . . . . . . . . . . . . 31

    3 Die Binomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . 333.1 Ein wenig Kombinatorik . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.2 Harte Kombinatorik – nein danke! . . . . . . . . . . . . . . . . . . . . . . 403.3 Die Formel von Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . 433.4 Binomialverteilte Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . 53

    3.4.1 Histogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 533.4.2 Erwartungswert und Standardabweichung . . . . . . . . . . . . . 553.4.3 Ausblick: Die Tschebyschow-Ungleichung . . . . . . . . . . . . . . 60

    3.5 Test: Hast du Kapitel 3 verstanden? . . . . . . . . . . . . . . . . . . . . . 62

    4 Beurteilende Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . 634.1 Einseitiger Hypothesentest . . . . . . . . . . . . . . . . . . . . . . . . . . 634.2 Wahl der Nullhypothese . . . . . . . . . . . . . . . . . . . . . . . . . . . 684.3 Zweiseitiger Hypothesentest . . . . . . . . . . . . . . . . . . . . . . . . . 704.4 Test: Hast du Kapitel 4 verstanden? . . . . . . . . . . . . . . . . . . . . . 70

    Lösungen der Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . 71Lösungen zu Kapitel 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71Lösungen zu Kapitel 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81Lösungen zu Kapitel 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84Lösungen zu Kapitel 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

    Lösungen der Testaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

    Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

  • 1 Grundlegendes

    Zunächst mal stammt das Wort”Stochastik“ aus dem Altgriechischen und bedeutet

    so viel wie”Kunst des Vermutens“; Stochastik ist der Oberbegriff für Wahrschein-

    lichkeitstheorie und Statistik.Dieses Kapitel fasst alle (vermutlich bereits bekannten) Grundbegriffe und Konzeptezusammen, die wir im Folgenden benötigen.

    1.1 Etwas Statistik

    Beispiel 1.1 Mittelwert

    Ein Mathelehrer führt in seiner 9a mit 28 Schülern1 eine”statistische Erhebung der

    Schülerleistungen“ durch, sprich er schreibt eine Klassenarbeit (KA). Tabelle 1.1 stelltdie Notenverteilung dar.

    ”Messwerte“ (Noten) xi 1 2 3 4 5 6 Summe

    absolute Häufigkeit ni 3 4 5 8 5 3 n = 28

    relative Häufigkeit hi =nin 0,11 0,14 0,18 0,29 0,18 0,11 1

    Tabelle 1.1

    Zeile 2 zeigt die Häufigkeitsverteilung in Form absoluter Häufigkeiten, also ausgedrücktdurch die tatsächliche Anzahl der Schüler, die eine gewisse Note erreicht haben: n1 =3-mal ist das Ergebnis x1 = 1 (Note 1) erreicht worden, n2 = 4-mal trat x2 = 2 aufund so weiter. Die Zeile darunter enthält die relativen Häufigkeiten, d.h. die Anteileder ni (i = 1, . . . , 6) an der Gesamtzahl n = 28, z.B. ist

    h1 =n1n

    =3

    28≈ 11 % = 0,11.

    (Die Summe aller hi ergibt hier rundungsbedingt 1,01 statt 1.)Abbildung 1.1 zeigt die zugehörigen Stabdiagramme.

    1 2 3 4 5 6

    5

    10

    34

    5

    8

    5

    3

    Note

    absolute Häufigkeit

    1 2 3 4 5 6

    0,2

    0,4

    0,110,14

    0,18

    0,29

    0,18

    0,11

    Note

    relative Häufigkeit

    Abbildung 1.1: Notenverteilung der 9a

    1Die Mehrzahl”Schüler“ ist stets als

    ”Schülerinnen und Schüler“ gemeint.

  • 2 1 Grundlegendes

    Die wohl wichtigste Kenngröße einer Häufigkeitsverteilung ist ihr Mittelwert x (lies:

    ”x quer“), also das arithmetische Mittel aller Messwerte. In diesem Beispiel ist der

    Mittelwert nichts anderes als der Durchschnitt der KA, den man bekanntlich wie folgtberechnet:

    x =1

    28(3 · 1 + 4 · 2 + 5 · 3 + 8 · 4 + 5 · 5 + 3 · 6) ≈ 3,61

    (also ein ganz normaler Mathe-Schnitt . . . ). Bei einer beliebigen Häufigkeitsverteilungmit Werten x1, . . . , xm, die n1-, . . . , nm-mal auftreten (mit n1 + . . .+ nm = n), giltallgemein

    x =1

    n(n1x1 + n2x2 + . . .+ nmxm),

    was man durch Reinmultiplizieren von 1n umformen kann zu

    x =n1nx1 +

    n2nx2 + . . .+

    nmnxm = h1x1 + h2x2 + . . .+ hmxm,

    wobei die hi’s wieder für die relativen Häufigkeiten stehen. Hier und später bringt dieSummenschreibweise oft große Schreibersparnis mit sich: Wir definieren

    m∑i=1

    hixi als Abkürzung für h1x1 + h2x2 + . . .+ hmxm.

    Das Σ, ein großes griechisches Sigma, ist die Abkürzung für Σumme, und der Lauf-index i zeigt an, dass der Ausdruck hixi von i = 1 bis i = m aufsummiert wird. (DerLaufindex-Buchstabe ist beliebig wählbar, außer denjenigen Buchstaben, die bereitsvorkommen wie z.B. x oder h.)Mit Hilfe der gegebenen relativen Häufigkeiten hätte man den Schnitt der KA alsoauch so berechnen können:

    x =

    6∑i=1

    hixi = 0,11 · 1 + 0,14 · 2 + . . .+ 0,11 · 6 ≈ 3,65.

    (Abweichung wieder rundungsbedingt; verwendet man 328 statt 0,11 usw., kommtnatürlich 3,61 raus.)

    Beispiel 1.2 Varianz und Standardabweichung

    Dass der Mittelwert alleine noch nicht genügt, um eine Häufigkeitsverteilung zu cha-rakterisieren, zeigt das Notenbild der Parallelklasse 9d in Abbildung 1.2 (Mischungaus Sport- und Spanisch-Zug; wobei ich selbstverständlich keinerlei Aussage darübertreffe, welches Profil mehr zu den guten bzw. schlechten Noten beiträgt).Während der Durchschnitt x9d ≈ 3,58 fast gleich wie bei der 9a ist, sind die Ver-teilungen doch deutlich verschieden: Die der 9a

    ”ebbt nach außen hin ab“ und ist

    stärker um den Mittelwert konzentriert (wobei das bei nur 6 verschiedenen Wertenkeine allzu sinnvolle Aussage ist), während die der 9d

    ”breiter streut“ und auch Noten

    mit größerer Entfernung vom Mittelwert stark vertreten sind.

  • 1.1 Etwas Statistik 3

    1 2 3 4 5 6

    5

    10

    6

    4 4

    65

    6

    Note

    absolute Häufigkeit

    1 2 3 4 5 6

    0,2

    0,4

    0,190,13 0,13

    0,190,16

    0,19

    Note

    relative Häufigkeit

    Abbildung 1.2: Notenverteilung der 9d

    Um die mittlere Streuung um den Mittelwert zu charakterisieren, könnte man diefolgende Größe betrachten:

    1

    n(n1(x1 − x) + . . .+ nm(xm − x)) =

    1

    n

    m∑i=1

    ni(xi − x),

    bzw. nach Reinmultiplizieren von 1n und Beachten von hi =nin

    h1(x1 − x) + . . .+ hm(xm − x) =m∑i=1

    hi(xi − x).

    Man nimmt also die Abweichung des i-ten Werts vom Mittelwert, xi − x, und ge-wichtet diese mit der relativen Häufigkeit hi ihres Auftretens. Das Problem hierbeiist, dass in unserem Beispiel etwa x1 − x < 0 gilt, während x6 − x > 0 ist, und imungünstigsten Fall könnten sich die negativen und positiven Summanden einfach ge-genseitig aufheben, so dass ihr Einfluss auf die Streuung um den Mittelwert verlorengeht. Schon besser wäre die Größe

    h1 |x1 − x |+ . . .+ hm |xm − x | =m∑i=1

    hi |xi − x |,

    wo voriges Problem durch Setzen der Betragsstriche behoben ist. Als noch bessergeeignet hat sich der Ausdruck

    σ2def= h1(x1 − x)2 + . . .+ hm(xm − x)2 =

    m∑i=1

    hi(xi − x)2

    erwiesen, da durch das Quadrat wieder die negativen Werte beseitigt werden undgleichzeitig größere Abweichungen vom Mittelwert noch stärker ins Gewicht fallen.Diese Summe heißt Varianz oder mittlere quadratische Abweichung der Häufigkeits-verteilung. Ein Nachteil an σ2 ist folgender: Tragen die Messwerte xi eine Einheitwie z.B. Euro oder kg, so hat σ2 Einheiten wie Euro2 oder kg2, was unanschaulichund nicht mit x direkt vergleichbar ist. Aus diesem Grund zieht man die Wurzel ausσ2 (und deshalb wurde es überhaupt als σ hoch zwei definiert) und erhält so dieStandardabweichung der Häufigkeitsverteilung:

    σ =√∑m

    i=1 hi(xi − x)2

  • 4 1 Grundlegendes

    (σ ist übrigens ein kleines griechisches Sigma; wie in σtandardabweichung). In unseremBeispiel ist

    σ9a =√

    0,11 · (1− 3,61)2 + . . .+ 0,11 · (6− 3,61)2 ≈ 1,6 und

    σ9d =√

    0,19 · (1− 3,58)2 + . . .+ 0,19 · (6− 3,58)2 ≈ 1,9.

    Hieran erkennt man, dass die Verteilung der 9d (etwas) stärker um den Mittelwertstreut. (Um wirklich ein intuitives Gefühl für die anschauliche Bedeutung des Zah-lenwerts von σ zu entwickeln, muss man wohl eingefleischter Statistiker sein.)

    Merke: Eine Häufigkeitsverteilung mit Werten x1, . . . , xm, die mit den rela-tiven Häufigkeiten h1, . . . , hm auftreten, besitzt als wichtigste Kenngrößen denMittelwert (arithmetisches Mittel bzw. Durchschnitt aller Werte)

    x =∑m

    i=1 hixi

    und die Standardabweichung

    σ =√∑m

    i=1 hi(xi − x)2,

    welche ein Maß für die Streuung der Verteilung um den Mittelwert ist.

    1.2 Zufallsexperimente und ihre Ergebnismenge

    Wir wiederholen alle benötigten Definitionen und Begriffe anhand des Klassikersschlechthin, des Würfelns. Gleich vorneweg treffen wir eine

    Vereinbarung: Sofern nicht anders erwähnt, handelt es sich bei allen Würfeln,Münzen, etc. um ideale Objekte, die nicht vorher gezinkt wurden oder irgendwie de-formiert sind, so dass ein Ausgang (wie z.B. eine 6 beim Würfel oder Kopf bei derMünze) bevorzugt auftreten würde.

    Beispiel 1.3 Zufallsexperiment

    Ein Würfel wird einmal geworfen. Dieser simple Vorgang erfüllt die Anforderungenan ein Zufallsexperiment , denn

    ◦ es gibt mehrere mögliche Ergebnisse (Ausgänge), die von vornherein festgelegtsind – hier die Augenzahlen von 1 bis 6 –, aber wir können nicht voraussagen,welches davon eintreten wird, d.h. der Zufall hat seine Hand im Spiel.

    ◦ es kann unter gleichen Bedingungen (zumindest theoretisch) beliebig oft wie-derholt werden.

    Um von”gleichen Bedingungen“ sprechen zu können, sollte man diese vor Versuchs-

    beginn genau festlegen, wie z.B. welchen Würfel man wählt, wie gewürfelt wird (perHand oder mit Becher) und so weiter.

  • 1.2 Zufallsexperimente und ihre Ergebnismenge 5

    Beispiel 1.4 Ergebnismenge und Ereignisse

    Alle möglichen Ergebnisse (Ausgänge) des Zufallsexperiments”einmaliges Würfeln“

    fasst man in der Ergebnismenge S zusammen2:

    S = { 1, 2, . . . , 6 }.

    Ein Ereignis ist eine Zusammenfassung bestimmter Ergebnisse, mathematisch gespro-chen also eine Teilmenge von S. Hier liegt vielleicht schon der erste Stolperstein, auchweil die Worte

    ”Ergebnis“ und

    ”Ereignis“ so ähnlich klingen. Also ganz langsam: Eine

    Teilmenge von S ist eine Menge, die aus irgendwelchen Ergebnissen, sprich Elementenvon S, besteht, hier also den Zahlen 1 bis 6, wie z.B.

    E1 = { 2, 4, 6 }: ”Es fällt eine gerade Augenzahl“,E2 = { 5 }: ”Es fällt eine 5“,E3 = { 1, 2, . . . , 6 } = S: ”Es fällt eine der Zahlen von 1 bis 6“,E4 = ∅ = { } (leere Menge): ”Der Würfel zeigt gar keine Augenzahl“.

    Sprechweise: Man sagt ein Ereignis E tritt ein, wenn eines der Ergebnisse aus E alsAusgang des Zufallsexperiments auftritt. Fällt z.B. die Augenzahl 4, so sind die Er-eignisse E1 und E3 eingetreten.Weil Ereignis E3 = S auf jeden Fall eintreten wird (dass der Würfel auf einer Kantestehen bleibt oder beim Auftreffen auf den Tisch explodiert und ähnliche Scherzeschließen wir aus), nennt man es auch das sichere Ereignis; der andere Extremfall,nämlich Ereignis E4 = ∅, heißt unmögliches Ereignis.Bei E2 = { 5 } ist eine (lästige) Feinheit zu beachten: 5 ist ein Ergebnis, aber keinEreignis, da die Zahl 5 eben keine Teilmenge von S ist, wohl aber { 5 } – die Mengen-klammer macht den Unterschied. Ein solches einelementiges Ereignis wie E2 nenntman Elementarereignis.Als letzte Anmerkung halten wir fest, dass ein Zufallsexperiment keineswegs nur eineeinzige Ergebnismenge besitzen muss. Interessiert bei dem Wurf z.B. nur, ob eine 6fällt oder nicht (wie zu Beginn von Mensch-ärgere-dich-nicht), so wäre

    S′ = { 6, 6̄ }

    eine passendere Ergebnismenge. Dabei bedeutet 6̄ (lies:”6 quer“ oder

    ”Nicht-6“), dass

    die gefallene Augenzahl keine 6 ist.

    Beispiel 1.5 Verknüpfen von Ereignissen

    Sind A und B Ereignisse eines Zufallsexperiments mit Ergebnismenge S, so kann manihnen durch gewisse Mengenoperationen neue Ereignisse zuordnen. Drei der wichtig-sten solcher Operationen sind (Ei’s wie in Beispiel 1.4):

    2Der Buchstabe S soll vermutlich an das englische Wort für Menge,”set“, erinnern. Unter Stochas-

    tikern ist Ω (Omega) die üblichere Bezeichnung, aber Schüler schreckt das oft ab, vielleicht weil eszu sehr an Physik (Ohm) erinnert?

  • 6 1 Grundlegendes

    A : (Lies:”A quer“ oder

    ”A Komplement“.) Das Gegenereignis von A

    (bezogen auf S): Alle Ergebnisse von S, die nicht zu A gehören. Soist z.B. E1 = { 1, 3, 5 }, bestehend aus allen ungeraden Zahlen.

    A ∩B : (Lies:”A Schnitt B“ oder

    ”A geschnitten (mit) B“.) Der Schnitt

    von A und B: Alle Ergebnisse, die gleichzeitig in A und in B liegen.Es ist z.B. E1 ∩ E2 = ∅ (leerer Schnitt), da eine Augenzahl nichtgleichzeitig gerade und 5 sein kann.

    A ∪B : (Lies:”A vereinigt (mit) B“.) Die Vereinigung von A und B: Alle

    Ergebnisse, die in A oder in B liegen. Damit ist k e i n”entweder-

    oder“ gemeint; das Ergebnis darf auch in A und B gleichzeitig liegen.Es ist z.B. E1 ∪ E2 = { 1, 3, 5 }, wobei die 5 in beiden Mengen liegt.

    ————————— P P P —————————

    A 1.1 Eine Münze und ein Würfel werden gleichzeitig geworfen. Zeigt die MünzeKopf, wird die Augenzahl verdoppelt, zeigt die Münze Zahl, bleibt die Augenzahl.

    a) Bestimme die Ergebnismenge S dieses Zufallsexperiments und gib die folgendenEreignisse in Mengenschreibweise an:

    E1: ”Das Resultat ist gerade“,

    E2: ”Das Resultat ist eine Primzahl“,

    E3: ”Das Resultat ist zweistellig“,

    E4: ”Das Resultat ist kein Vielfaches von 3“.

    b) Bestimme E4, E1 ∩ E2 und E3 ∪ E4.

    A 1.2 Der SSV Reutlingen spielt gegen den SSV Ulm. Es bedeute R:”Reutlingen

    gewinnt3“, U :”Ulm gewinnt“ und K:

    ”Die Ultras beider Vereine liefern sich eine

    sinnlose Klopperei“. Welche Bedeutung (in Worten) haben dann die Ereignisse

    a) R ∩K b) R ∪ U c) U ∩K d) R ∪ U ?

    Gib diese Ereignisse auch als Teilmengen einer geeigneten Ergebnismenge an.

    A 1.3 Es seien A und B zwei Ereignisse eines Zufallsexperiments. Drücke mit

    Hilfe der Mengenoperationen ∩, ∪ und die folgenden Ereignisse aus: (A)

    a) C:”Weder A noch B tritt ein.“

    b) D:”Höchstens eines der beiden tritt ein.“

    c) E:”Genau eines der beiden tritt ein.“

    ————————— P P P —————————

    3Beachte, dass R nicht nur Verlieren bedeutet, sondern dass es auch unentschieden ausgehen kann.

  • 1.3 Das empirische Gesetz der großen Zahlen 7

    1.3 Das empirische Gesetz der großen Zahlen

    Beispiel 1.6 Relative Häufigkeiten beim Würfeln

    Wir würfeln nun sehr oft, z.B. n = 500-mal, und notieren, wie oft dabei das EreignisE = { 5 } eintritt, z.B. k = 90-mal. Dann ergibt sich die relative Häufigkeit von E als

    h500(E) =90

    500= 18 %.

    Eine der grundsätzlichen Eigenschaften eines Zufallsexperiments ist nun aber, dassdiese Zahl nicht reproduzierbar ist. Wenn dieser Versuch mit demselben Würfel aufdemselben Tisch wiederholt wird, so könnte dennoch nur k = 79-mal eine 5 fallen,womit diesmal h500(E) = 15,8 % wäre. Damit scheinen die Zahlen hn(E) gar nichtwohldefiniert zu sein, da sie selbst für festes n und E je nach Versuchsreihe unter-schiedliche Werte annehmen.Macht man sich jedoch die Mühe, die Zahl n der Würfe immer weiter steigen zu lassenund dabei jeweils die relative Häufigkeit der Augenzahl 5 zu notieren, so könnte manein Diagramm wie in Abbildung 1.3 erhalten. Bei einer Wiederholung der Versuchs-reihe am nächsten Tag unter exakt gleichen Bedingungen wird man vermutlich andereDaten erhalten (vor allem für kleine n), aber beidesmal würde man erkennen: Beigenügend großer Zahl n der Versuchsdurchführungen

    ”stabilisieren“ sich die relativen

    Häufigkeiten; bei einem idealen Würfel irgendwo in der Nähe von ca. 17 %. Andersausgedrückt: Die Zickzack-Kurve in Abbildung 1.3 macht für größer werdendes n (inder Regel) seltener große Ausreißer und pendelt sich auf einen festen Wert ein.

    200 400 600 800 1.000

    15

    20

    25

    Zahl der Würfe

    relative Häufigkeit der 5er in %

    Abbildung 1.3

    Diese bemerkenswerte Eigenschaft der relativen Häufigkeiten, die man in der fol-genden Erfahrungstatsache zusammenfasst, hat sich in zahllosen Zufallsexperimentenbestätigt. Nur dadurch ist es überhaupt möglich, einen Wahrscheinlichkeitsbegriffeinzuführen und Stochastik zu betreiben.

  • 8 1 Grundlegendes

    Empirisches4 Gesetz der großen Zahlen: Die relative Häufigkeit hn(E)eines Ereignisses E eines Zufallsexperiments stabilisiert sich mit steigender Ver-suchszahl n.

    1.4 Wahrscheinlichkeiten

    Beispiel 1.7 Wahrscheinlichkeit

    Auf die Frage, wie hoch die Chancen stehen, dass beim Würfeln eine 5 fällt, würdevermutlich bereits ein Höhlenmensch mit

    ”16“ antworten. Klar: Es gibt 6 gleichberech-

    tigte Seiten eines Würfels, also ist es nur vernünftig anzunehmen, dass die Chance,eine spezielle Augenzahl zu erhalten, bei 16 bzw. bei ca. 16,7 % liegt. Formal schreibenwir das so auf: Das Ereignis E = { 5 } beim einmaligen Werfen eines Würfels tritt miteiner Wahrscheinlichkeit von

    P (E) = P ({ 5 }) = 16

    ein. Das P kommt von probabilitas, dem lateinischen Wort für Wahrscheinlichkeit.

    Schreibweise: Anstelle von P ({ 5 }) schreibt man kurz meist nur P (5).

    Ja wie jetzt? . . . Soll dieses schwammige Chancen-Gewäsch etwa eine Definitionfür Wahrscheinlichkeit gewesen sein? Mitnichten, und ich drücke mich auch ganzbewusst davor. Wer mehr wissen will, lese etwas über die Kolmogorow-Axiomenach; z.B. in [1] oder auf Wikipedia. Meiner unwerten Meinung nach bringt dieserZugang für die Schule keinerlei Gewinn und es genügt ein intuitiver Umgang mit demWahrscheinlichkeitsbegriff, inklusive der folgenden extrem wichtigen

    Interpretationsregel für Wahrscheinlichkeiten: Die Aussage”Die Wahr-

    scheinlichkeit für eine 5 beim Würfeln beträgt P (5) = 16“ bedeutet, dass bei sehrhäufigem Würfeln (n-mal mit großem n) die 5 mit einer relativen Häufigkeit vonungefähr P (5) = 16 auftreten wird, sprich

    hn(5) ≈ P (5) =1

    6für großes n.

    Wirft man also z.B. n = 1200-mal, so bedeutet h1200(5) ≈ P (5) = 16 , dass un-gefähr 16 · 1200 = 200-mal eine 5 fallen wird.

    Wichtig: P (5) = 16 bedeutet n i c h t, dass bei sechsmaligem Würfeln genau eine 5auftreten wird oder ähnlicher Nonsens!

    Anmerkung: In vielen Fällen wie z.B. beim Werfen eines Würfels oder einer Münzeliegt die Wahl des Zahlenwerts von P (E) auf der Hand. Ob diese Wahl berechtigt war,kann man nur durch vielfaches Durchführen eines realen Zufallsexperiments über-prüfen. Wenn die Ergebnisse zu stark abweichen, oder falls man von vornherein schon

    4

    ”Empirisch“ bedeutet

    ”erfahrungsgemäß“ oder

    ”durch Erfahrung/Beobachtung bestätigt“.

  • 1.4 Wahrscheinlichkeiten 9

    keine sinnvolle Vermutung über P (E) aufstellen konnte (wie z.B. beim Werfen einerverbeulten Münze oder eines Reißnagels), bleibt einem nichts anderes übrig, als P (E)anhand der ermittelten relativen Häufigkeiten des Experiments zu definieren. Siehedazu auch Aufgabe 1.4.

    Beispiel 1.8 Laplace-Experimente

    Beim einmaligen Würfeln mit einem idealen Würfel treten definitionsgemäß alle Er-gebnisse (also Augenzahlen) e mit derselben Wahrscheinlichkeit P (e) = 16 auf; e =1, . . . , 6. Ein solches Zufallsexperiment, bei dem alle Ergebnisse5 mit der gleichenWahrscheinlichkeit eintreten, heißt Laplace6-Experiment. Hier gibt es eine einfacheFormel zum Bestimmen von Wahrscheinlichkeiten eines Ereignisses E.

    Merke: Die Wahrscheinlichkeit eines Ereignisses E eines Laplace-Experimentsmit Ergebnismenge S beträgt

    P (E) =|E||S|

    =Anzahl der Ergebnisse in E

    Anzahl aller möglichen Ergebnisse.

    Das Ereignis E:”Augenzahl ungerade beim einmaligen Würfeln“ besteht aus drei

    Ergebnissen, da E = { 1, 3, 5 } ist. Somit gilt

    P (E) =|E||S|

    =|{ 1, 3, 5 }||{ 1, 2, . . . , 6 }|

    =3

    6=

    1

    2.

    Natürlich ist das Bestimmen der Anzahl der Elemente von E nicht immer so einfachwie hier. Manchmal besteht die erste Schwierigkeit sogar bereits darin zu entscheiden,ob überhaupt ein Laplace-Experiment vorliegt oder nicht bzw. wie man die Ergebnis-menge S korrekt zu wählen hat; siehe Aufgabe 1.6.

    Beispiel 1.9 Wahrscheinlichkeitsverteilungen

    In Tabelle 1.2 wird beim einmaligen Würfeln jedem Ergebnis e ∈ S seine Wahrschein-lichkeit zugeordnet.

    e 1 2 3 4 5 6

    P (e) 1616

    16

    16

    16

    16

    Tabelle 1.2

    Die Funktion P , die jedem Ergebnis seine Wahrscheinlichkeit zuordnet, heißt Wahr-scheinlichkeitsverteilung . Nimmt sie wie im Würfelbeispiel stets denselben Wert an,so spricht man von einer Gleichverteilung . Man kann ein Laplace-Experiment alsoauch als ein Zufallsexperiment definieren, bei dem eine Gleichverteilung vorliegt.Eine etwas spannendere Wahrscheinlichkeitverteilung lernen wir in Kapitel 3 kennen.

    5korrekter sollte man hier”Elementarereignisse“ sagen, aber statt

    ”{ e } tritt ein“, erlauben wir

    uns oft die Abkürzung”e tritt ein“, wobei e ∈ S ein Ergebnis des Zufallsexperiments aus der Ergeb-

    nismenge S ist.6nach dem französischen Mathematiker und Physiker Pierre Simon de Laplace (1749 – 1827),

    Ehren-Spitzname”der französische Newton“.

  • 10 1 Grundlegendes

    Beispiel 1.10 Der Trick mit dem Gegenereignis

    Manchmal ist die Wahrscheinlichkeit des Gegenereignisses E von Ereignis E viel leich-ter zu berechnen als P (E) selbst. Mit P (E) hat man dann aber auf einen Schlag auchP (E), denn:

    Merke: Es gilt stets P (E) = 1− P (E).

    Begründung: Jedes Ergebnis liegt entweder in E oder in E, da E eben”nicht-E“ be-

    deutet. Da die Wahrscheinlichkeiten aller Ergebnisse zusammen natürlich 100 % = 1ergeben müssen, folgt P (E) + P (E) = 1 und damit die Behauptung.

    Anwendungen folgen zuhauf. Momentan sind alle Beispiele noch so trivial, dass essich hier nicht lohnt.

    ————————— P P P —————————

    A 1.4 Gib eine korrekte Interpretation der Aussage”Beim einmaligen Werfen

    einer Münze beträgt die Wahrscheinlichkeit für Zahl P (z) = 12“.Wie müsste man bei einer verbeulten Münze vorgehen, deren beide Seiten nicht mehrmit

    ”fifty-fifty“ auftreten, um überhaupt eine Zahl für P (z) angeben zu können?

    A 1.5 Bestimme in der Situation von Aufgabe 1.1 die Wahrscheinlichkeit derfolgenden Ereignisse:

    A:”Man erhält eine 6“, B:

    ”Das Resultat ist gerade“,

    C:”Man erhält keine 12“.

    A 1.6 Wir betrachten das Ereignis E:”Die Augensumme ist größer als 9“ beim

    gleichzeitigen Werfen eines roten und eines blauen Würfels.

    a) Gib die Ergebnismenge S mit Elementen der Gestalt ( k | l ) an, wobei k dieAugenzahl des roten und l die Augenzahl des blauen Würfels ist. Bestimmeanschließend P (E) mit Hilfe der Laplace-Formel.

    b) Beurteile diesen Lösungsweg: S′ = { 2, 3, . . . , 11, 12 } ist eine weitere möglicheErgebnismenge, bestehend aus allen möglichen Augensummen. In dieser Situa-tion ist E = { 10, 11, 12 }, also folgt P (E) = |E||S′| =

    311 .

    Die nächsten beiden Aufgaben geben einen kleinen Einblick in die Freuden (undQualen) der Kombinatorik, der Kunst des Ermittelns der Anzahl aller möglichenAnordnungen bestimmter Objekte.

    A 1.7 Du gehst an deinem Geburtstag mit deinen Eltern und deinen zwei Ge-schwistern ins China-Restaurant. (Wenn du nicht so viele Geschwister hast, dannnimmst du eben Freunde oder Freundinnen mit; Mensch, sei halt ein bisschen flexi-bel.) Ihr nehmt zufällig auf den 5 Stühlen um einen kreisrunden Tisch Platz. Wiewahrscheinlich ist es, dass deine Mutter neben dir sitzt? A

  • 1.5 Baumdiagramme und Pfadregeln 11

    A 1.8 Der Osterhase hat noch drei verschiedenfarbige Eier (rot, grün und blau)in seinem Korb, die er auf drei Nester verteilen muss. Da er nach einem langen Ar-beitstag völlig erschöpft ist, kann es passieren, dass er zwei oder sogar drei Eier insselbe Nest legt. Gehe davon aus, dass er das jeweils nächste Ei unabhängig von derbisherigen Nestbelegung rein zufällig in eines der drei Nester legt. Berechne die Wahr-scheinlichkeit der folgenden Ereignisse: AA

    A:”Nest 3 bleibt leer“. B:

    ”Genau ein Nest bleibt leer“.

    C:”Kein Nest bleibt leer“. D:

    ”Zwei Nester bleiben leer“.

    Man kann hier schon erahnen, dass die Kombinatorik beliebig schnell beliebig ekligwerden kann. Versuch doch mal, diese Aufgabe für 6 verschiedenfarbige Eier und5 Nester zu lösen.

    ————————— P P P —————————

    1.5 Baumdiagramme und Pfadregeln

    Beispiel 1.11 Mehrstufiges Zufallsexperiment

    Wir würfeln n = 2-mal mit einem Würfel und fragen nach der Wahrscheinlichkeit von

    E:”Es fällt im ersten Wurf eine 6 und im zweiten Wurf keine 6“,

    oder kurz E = { ( 6 | 6̄ ) }. Die Wahrscheinlichkeiten der Einzelereignisse sind P (6) = 16und P (6̄) = 56 . Unter Rückgriff auf die Interpretationsregel für Wahrscheinlichkeiten(grauer Kasten auf Seite 8) ergibt sich damit Folgendes: Wiederholen wir das Zufalls-experiment sehr oft, z.B. 3600-mal, so kann man im ersten Wurf ca. 16 · 3600 = 600Sechser erwarten. Auf diese 600 günstigen Ausgänge des ersten Wurfs (die restlichenca. 3000 Würfe interessieren schon nicht mehr, da sie nicht zu E führen) werden imzweiten Wurf wohl ungefähr 56 · 600 = 500 Nicht-Sechser folgen. Insgesamt erwartenwir also ungefähr

    5

    6·(

    1

    6· 3600

    )=

    5

    6· 16· 3600 = 500

    Male das Eintreten von Ereignis E, was eine relative Häufigkeit von 5003600 =536 =

    56 ·

    16

    bedeutet. Interpretieren wir diese Zahl als Wahrscheinlichkeit für E, so muss man alsoeinfach die Einzel-Wahrscheinlichkeiten multiplizieren, um auf P (E) zu kommen, d.h.

    P ({ ( 6 | 6̄ ) }) = P (6) ·P (6̄).

    Um die Schreibweise zu vereinfachen, schreiben wir in Zukunft oft wieder nur P (66̄)anstelle des klobigen P ({ ( 6 | 6̄ ) }).Diese Erkenntnis ist in dem Baumdiagramm in Abbildung 1.4 dargestellt.Ganz allgemein gilt (bei beliebiger Stufenanzahl n) die sogenannte

  • 12 1 Grundlegendes

    6

    6

    6

    16

    56

    16

    56

    16

    56

    P (66̄) = 16 ·56 =

    536

    Abbildung 1.4

    1. Pfadregel: Die Wahrscheinlichkeit eines Pfades im Baumdiagramm ist dasProdukt der Wahrscheinlichkeiten auf den Teilstrecken des Pfades.

    Anmerkung: Man kann dieses Zufallsexperiment auch als Laplace-Experiment mitErgebnismenge S = { ( 1 | 1 ), ( 1 | 2 ), . . . , ( 6 | 6 ) } der Mächtigkeit |S| = 6 · 6 = 36auffassen. Dann ist E = { ( 6 | 1 ), ( 6 | 2 ), . . . , ( 6 | 5 ) } und es folgt ebenfalls

    P (E) =|E||S|

    =5

    36.

    In den meisten Fällen, vor allem für n-stufige Zufallsexperimente mit n > 2, führtaber das Anwenden der Pfadregel bequemer und sicherer zum Ziel.

    Beispiel 1.12 Ziehen mit und ohne Zurücklegen

    Eine Urne enthalte eine blaue (b) und 5 rote (r) Kugeln. Wir ziehen n = 2-mal mitZurücklegen, d.h. nach dem ersten Ziehen wird die gezogene Kugel wieder in die Urnezurückgelegt, und fragen nach der Wahrscheinlichkeit von

    E1: ”Es wird zuerst eine blaue und dann eine rote Kugel gezogen“,

    kurz: E1 = { ( b | r ) } oder noch kürzer E1 = { br }. Da dies nichts anderes als dasletzte Beispiel mit

    ”b =̂ 6“ und

    ”r =̂ 6̄“ ist, folgt wie eben P (E1) = P (br) =

    16 ·

    56 =

    536 .

    Etwas spannender wird die Sache, wenn wir ohne Zurücklegen ziehen, d.h. die Kugeldes ersten Zugs nicht wieder in die Urne legen. Nun ändern sich in der zweiten Stufe dieWahrscheinlichkeiten, da statt 6 nur noch 5 Kugeln in der Urne liegen. Wir bestimmendie Wahrscheinlichkeit von

    E2: ”Es werden zwei verschiedenfarbige Kugeln gezogen“,

    also E2 = { br, rb }. Das zugehörige Baumdiagramm zeigt Abbildung 1.5; es empfiehltsich (vor allem bei mehr Kugelfarben und mehr Stufen), die Urnenbelegung bei jederStufe mit einzutragen.

  • 1.5 Baumdiagramme und Pfadregeln 13

    b

    ( 0b | 5r )

    r

    ( 1b | 4r )

    b

    r

    b

    r

    ( 1b | 5r )

    16

    56

    05

    55

    15

    45

    P (br) = 16 ·55 =

    16

    P (rb) = 56 ·15 =

    16

    Abbildung 1.5

    Wir berechnen zunächst mit Hilfe der 1. Pfadregel die Wahrscheinlichkeiten der beidenErgebnisse (bzw. Elementarereignisse), die E2 bilden. Es ist

    P (br) =1

    6· 55

    =1

    6,

    denn wenn die einzige blaue Kugel nach dem ersten Zug weg ist, sind alle verbleiben-den 5 Kugeln in der Urne rot, so dass man im zweiten Zug sicher eine rote ziehenwird. Weiter gilt

    P (rb) =5

    6· 15

    =1

    6.

    Um nun P (E2) zu erhalten, müssen wir natürlich einfach diese beiden Wahrschein-lichkeiten addieren:

    P (E2) = P (br) + P (rb) =1

    6+

    1

    6=

    1

    3.

    Wir haben hierbei die 2. Pfadregel angewendet, die so klar ist, dass sie eigentlichkeinen extra Namen verdient hat. Dennoch:

    2. Pfadregel: Die Wahrscheinlichkeit eines Ereignisses ist die Summe der Wahr-scheinlichkeiten der Pfade, die zu diesem Ereignis gehören.

    Man kommt in diesem speziellen Beispiel übrigens noch schneller mit Hilfe des Gegen-ereignisses zum Ziel: Da bb kein mögliches Ergebnis ist, gilt E2 = { rr }, also folgt

    P (E2) = 1− P (E2) = 1− P (rr) = 1−5

    6· 45

    = 1− 46

    =1

    3.

    Eine beliebte Fragestellung im Zusammenhang mit mehrstufigen Zufallsexperimentenbringt das folgende

  • 14 1 Grundlegendes

    Beispiel 1.13”Drei-Mindestens-Aufgabe“

    Wie oft muss man mindestens würfeln, damit mit einer Wahrscheinlichkeit von min-destens 99 % mindestens eine 6 fällt?

    Dazu betrachten wir das Ereignis

    E:”Bei n Würfen fällt mindestens einmal die 6“.

    Neu ist hier, dass die Länge n (Anzahl der Stufen) des Zufallsexperiments gesuchtist. Wir müssen das erste n finden, ab dem P (E) > 99 % wird. Ohne den Trick mitdem Gegenereignis sieht man hier allerdings extrem alt aus, deshalb verwenden wirdie Formel

    P (E) = 1− P (E)

    mit E:”Bei n Würfen fällt kein einziges Mal die 6“. Nach der Pfadregel ist die

    Wahrscheinlichkeit von E leicht zu berechnen, denn bei jedem der n Würfe musseinfach eine Nicht-6 mit einer Wahrscheinlichkeit von jeweils 56 fallen, d.h.

    P (E) =5

    6· 56· . . . · 5

    6︸ ︷︷ ︸n Faktoren

    =

    (5

    6

    )n,

    so dass die ursprüngliche Bedingung übergeht in

    P (E) > 0,99 ⇐⇒ 1− P (E) > 0,99 ⇐⇒ 1−(

    5

    6

    )n> 0,99.

    Auflösen dieser Ungleichung:

    −(

    5

    6

    )n> −0,01 ⇐⇒

    (5

    6

    )n6 0,01 ⇐⇒ ln

    (5

    6

    )n= n · ln 5

    66 ln 0,01.

    Beim ersten Schritt ist zu beachten, dass Teilen durch −1 das Ungleichheitszeichenumdreht. Das zweite

    ”⇔“ gilt nur, weil der ln streng monoton wachsend ist und des-

    halb seine Anwendung die Ungleichung erhält. (Wenn du den natürlichen Logarithmusln noch nicht kennst, dann verwende einfach den 10er-Logarithmus log.) Zum Schlussist zu beachten, dass ln 56 < 0 ist und Division durch diesen Faktor somit erneut dasUngleichheitszeichen umdreht:

    n >ln 0,01

    ln 56≈ 25,3.

    Damit ist n = 26 die minimale Anzahl an Würfelversuchen, die man braucht, damitE mit mindestens 99 %-iger Wahrscheinlichkeit auftritt. Würfle zum Spaß doch 26-mal; wenn dabei keine einzige 6 fällt, solltest du sehr an der Laplacehaftigkeit deinesWürfels zweifeln.Wenn man diesem Aufgabentyp zum ersten Mal begegnet, wirkt er äußerst anspruchs-voll (auch das Auflösen nach n), aber mit etwas Übung wirst du feststellen, dass erimmer nach exakt dem gleichen Schema abläuft.

  • 1.5 Baumdiagramme und Pfadregeln 15

    ————————— P P P —————————

    A 1.9 In einer Urne . . . laaaangweilig, also anders: In einer Keksdose befindensich 2 Schokoplätzchen (s), 3 Vanillekipferl (v) und 4 Doppelkekse (d) mit Kakao-cremefüllung (gargl). Es wird 3-mal (blind) ohne Zurücklegen gezogen. Bestimme dieWahrscheinlichkeit der folgenden Ereignisse. (Aufwand: AA)

    A:”Drei verschiedene Leckerlis“.

    B:”Genau ein Schokoplätzchen“.

    C:”Das zweite Leckerli ist ein Vanillekipferl“.

    D:”Frühestens beim dritten Zug erwischt man einen Doppelkeks“.

    A 1.10 Aus einer Keksdose mit 10 Keksen wird zweimal blind ohne Zurücklegengezogen. Wie viele Schokoplätzchen dürfen sich höchstens in der Dose befinden, damitdie Wahrscheinlichkeit für E:

    ”kein Schokoplätzchen“ über 40 % beträgt?

    (Es handelt sich hier um eine”Umkehraufgabe“, wo aus gegebener Wahrscheinlichkeit

    eine Anzahl bestimmt werden soll.)

    A 1.11 In einem Mathekurs mit 23 Schülern haben x Stück die Hausaufgaben

    ”vergessen“. Der Lehrer fragt stichprobenhaft drei Schüler ab.

    a) Wie groß ist die Wahrscheinlichkeit, dass er dadurch im Fall x = 2

    i) mindestens einen der Straftäter ii) beide Delinquenten ertappt?

    b) Wie groß darf x maximal sein, damit mit über 50 %-iger Wahrscheinlichkeitkeiner ertappt wird?

    A 1.12 Berechne die Wahrscheinlichkeit dafür, dass beim Lotto”6 aus 49“ genau

    die 6 Zahlen auf deinem Lottoschein gezogen werden. (Die Reihenfolge in der siegezogen werden, spielt keine Rolle, da die gezogenen Zahlen automatisch der Größenach angeordnet werden.)

    A 1.13 Ein Affe sitzt vor einer Computer-Tastatur mit 60 Tasten und tippt 4-mal wahllos auf eine Taste (alle Tasten sollen dabei mit gleicher Wahrscheinlichkeitgetroffen werden).

    a) Mit welcher Wahrscheinlichkeit erscheint das Wort”affe“ auf dem Bildschirm?

    b) Wie oft muss dieses Zufallsexperiment mindestens durchgeführt werden, damitmit mindestens 90 %-iger Wahrscheinlichkeit mindestens einmal das Wort

    ”affe“

    auftaucht?

    Als Verallgemeinerung von b) kann man schlussfolgern, dass ein Affe, der sehr, sehr langelebt – oder alternativ eine Armee von sehr, sehr vielen Affen – fast sicher irgendwann dasWort

    ”affe“ oder noch krasser z.B. den Text aller BILD-Zeitungen durch rein zufälliges Tip-

    pen produzieren wird. Wenn dich eine tiefere Diskussion zum (ernsthaften!) mathematischenHintergrund hierzu interessiert, informiere dich im Netz über das Infinite-Monkey-Theorem,am besten im Zusammenhang mit der sogenannten Ergodentheorie.

    ————————— P P P —————————

  • 16 1 Grundlegendes

    1.6 Zufallsvariablen

    Ist S die Ergebnismenge eines Zufallsexperiments, so bezeichnet man eine Abbildung

    X : S → R

    als Zufallsvariable. X ordnet also jedem Ergebnis s ∈ S eine reelle Zahl X(s) zu. Daman mit dieser relativ nichtssagenden Definition eher wenig anfängt, kommt gleichein klärendes

    Beispiel 1.14 Augensumme als Zufallsvariable

    Wird ein Würfel zweimal geworfen, so ist eine mögliche Ergebnismenge

    S = { ( k | l ) | k, l ∈ { 1, 2, . . . , 6 } },

    wobei k die Augenzahl des ersten und l die des zweiten Wurfs ist. Ist bei einemGlücksspiel z.B. die Augensumme (= Summe der Augenzahlen) von Interesse, sowird man dies durch die Zufallsvariable X beschreiben, die durch

    X(s) = k + l für s = ( k | l ) ∈ S

    definiert ist. Der Hauptnutzen einer Zufallsvariablen ist, dass sie es uns ermöglicht,gewisse Ereignisse mit wenig Schreibaufwand zu notieren. Gewinnt man das Würfel-Glücksspiel z.B. beim Eintreten von

    E:”die Augensumme ist 10“,

    so ist in ausführlicher Schreibweise

    E = { ( 4 | 6 ), ( 6 | 4 ), ( 5 | 5 ) },

    während sich das Ereignis E mit Hilfe der Zufallsvariablen X kurz und knackig als

    E = {X = 10 }

    oder noch kürzer (wenn auch mathematisch weniger korrekt) als

    E : X = 10

    schreiben lässt. Allgemein ist

    {X = k } := { s ∈ S | X(s) = k }

    die Abkürzung für das Ereignis, das aus allen Ergebnissen s ∈ S besteht, bei denenX den Wert k ∈ R annimmt. Entsprechend sind die Ereignisse

    {X 6 k } := { s ∈ S | X(s) 6 k }, {X < k } := { s ∈ S | X(s) < k }, usw.

    definiert. Zufallsvariablen sind für uns in erster Linie Notationshilfen; beim Berechnenvon Wahrscheinlichkeiten wie z.B. P (E) = P (X= 10) (hier lässt man die geschweiftenKlammer meist weg) hilft einem die X-Schreibweise nicht weiter, sondern man mussE explizit als { ( 4 | 6 ), ( 6 | 4 ), ( 5 | 5 ) } aufschreiben, um

    P (E) =|E||S|

    =3

    36=

    1

    12

    zu erhalten.

  • 1.6 Zufallsvariablen 17

    Beispiel 1.15 Erwartungswert einer Zufallsvariablen

    Beim einmaligen Drehen des Zeigers des Glücksrads aus Abbildung 1.6 gelte

    Biene (b): 1,50 C–– Gewinn,

    Schnecke (s): 1,00 C–– Gewinn,

    Regenwurm (r): 5,00 C–– Verlust.

    Abbildung 1.6

    Die Zufallsvariable X beschreibe den Gewinn, den man bei diesem Glücksspiel mitder Ergebnismenge S = {b, s, r } macht, d.h. es gilt

    X(b) = 1,5; X(s) = 1; X(r) = −5 (alles in C–– ).

    Wir wollen untersuchen, mit welchem Durchschnittswert von X man langfristig rech-nen kann. Nehmen wir an, es wurde 100-mal gedreht mit folgenden Ausgängen: 40-malBiene, 48-mal Schnecke und 12-mal Regenwurm. Dann beträgt die Gesamtauszahlungbei diesen 100 Spielen

    40 · 1,5 + 48 · 1 + 12 · (−5) = 48 (C–– )

    Euro. Teilen wir diesen Ausdruck durch die Anzahl n der Spiele, so erhalten wir

    40 · 1,5 + 48 · 1 + 12 · (−5)100

    =40

    100· 1,5 + 48

    100· 1 + 12

    100· (−5) = 48

    100= 0,48 (C–– ).

    Das bedeutet, dass ein Spieler bei diesen 100 Spielen im Durchschnitt 48 Cent Gewinnpro Spiel macht (ein Casino würde ein solches Glücksspiel also mit Sicherheit nichtanbieten). Bislang haben wir nichts anderes gemacht, als den Mittelwert einer bereitsdurchgeführten Versuchsreihe auszurechnen, genau wie auf Seite 2.

  • 18 1 Grundlegendes

    Nun wagen wir eine Prognose für die Zukunft. Die Summanden obiger Summe sinddie relativen Häufigkeiten der Ergebnisse, also hb =

    40100 = 40 %, hs =

    48100 = 48 %

    und hr =12100 = 12 %, jeweils multipliziert mit dem zugehörigen Gewinn, d.h. dem

    jeweiligen Wert der Zufallsvariablen X, sprich

    hb ·X(b) + hs ·X(s) + hr ·X(r).

    Lassen wir nun die Anzahl n der Versuchsdurchführungen immer größer werden, sosollten sich laut dem empirischen Gesetz der großen Zahlen die relativen Häufigkeiten

    ”stabilisieren“ und zwar in der Nähe der theoretischen Wahrscheinlichkeiten. Aus

    obigem Ausdruck wird dann für große n

    P (b) ·X(b) + P (s) ·X(s) + P (r) ·X(r).

    Diese Summe ist der sogenannte Erwartungswert der Zufallsvariablen X, in ZeichenE(X), der eine Prognose für den langfristigen Durchschnittswert von X ist. In diesemBeispiel ist aufgrund der Glücksrad-Einteilung P (b) = 135

    360◦ =38 , P (s) =

    180◦

    360◦ =12

    und P (r) = 45◦

    360◦ =18 , so dass wir

    E(X) =3

    8· 1,5 + 1

    2· 1 + 1

    8· (−5) ≈ 0,44 (C–– )

    als Erwartungswert erhalten. Der theoretische Durchschnittsgewinn, der sich bei sehrhäufiger Wiederholung dieses Glücksspiels einstellen wird, sollte also in der Nähe von44 Cent pro Spiel liegen.

    Die allgemeine Definition des Erwartungswerts sollte nach diesem Beispiel nicht mehrallzu schwer verdaulich sein. Ist si ∈ S ein Ergebnis, so kürzt man die Werte X(si)meist mit ki ab; außerdem fasst man alle s ∈ S mit X(s) = ki zu {X = ki } zusammenund schreibt entsprechend P (X=ki) für die zugehörige Wahrscheinlichkeit.

    Merke: Nimmt die Zufallsvariable X die Werte k1, . . . , km an, so ist ihr Er-wartungswert definiert als

    E(X) =m∑i=1

    P (X=ki) · ki = P (X=k1) · k1 + . . .+ P (X=km) · km.

    Man”gewichtet“ also die Werte ki der Zufallsvariablen mit den zugehörigen Wahr-

    scheinlichkeiten P (X=ki) und summiert diese Zahlen auf. E(X) ist eine Prognosefür den Wert, den X im Durchschnitt annehmen wird, wenn das Zufallsexperi-ment sehr häufig ausgeführt wird.

    Beispiel 1.16 Als simple Anwendung berechnen wir den Erwartungswert für dieAugenzahl beim einmaligen Würfeln. Die Zufallsvariable X, welche die gefallene Au-genzahl beschreibt, nimmt die Werte k1 = 1, . . . , k6 = 6 jeweils mit derselben Wahr-scheinlichkeit P (X=ki) =

    16 (für i = 1, . . . , 6) an, also gilt

    E(X) =1

    6· 1 + 1

    6· 2 + . . .+ 1

    6· 6 = 1 + 2 + . . .+ 6

    6= 3,5.

  • 1.6 Zufallsvariablen 19

    E(X) ist hier nichts anderes als das arithmetische Mittel, also der gewöhnliche Mit-telwert der Zahlen 1 bis 6, da eine Gleichverteilung vorliegt.Die Tatsache, dass 3,5 gar keine mögliche Augenzahl ist, schützt einen hier vorFalschinterpretationen wie

    ”Auf lange Sicht fällt die Augenzahl 3,5“. Korrekt muss es

    heißen:

    ”Würfelt man sehr oft, so ist E(X) = 3,5 eine gute Prognose für den

    Durchschnittswert der gefallenen Augenzahlen“.

    Anmerkung: Oft wird der Erwartungswert auch mit µX oder nur µ bezeichnet,also mit einem kleinen griechischen Mü, welches an Müttelwert erinnern soll. For-melmäßig sind beide ja auch fast identisch, nur dass eben die relativen Häufigkeitenbei der Erwartungswertformel durch Wahrscheinlichkeiten ersetzt sind. Die Interpre-tation beider Größen unterscheidet sich jedoch: Während der Mittelwert sich auf dieVergangenheit bezieht (Auswertung von bereits vorhandenen Daten), macht der Er-wartungswert eine Voraussage für die Zukunft (bei welchem Durchschnittswert sichz.B. der Gewinn bei einem Glücksspiel auf lange Sicht stabilisieren wird).

    ————————— P P P —————————

    A 1.14 Beim zweimaligen Werfen eines Würfels wird der Betrag der Augenzahl-Differenz als Resultat gewertet. Schreibe die Ereignisse

    A:”Das Resultat ist 4“ und B:

    ”Das Resultat ist mindestens 1“

    mit Hilfe einer Zufallsvariablen und berechne ihre Wahrscheinlichkeit.

    A 1.15 Aus einer Schale, in der sich 3 weiße und 2 rote Kugeln befinden, wirdohne Zurücklegen gezogen. Die Zufallsvariable Z beschreibe die Anzahl der Züge, biserstmals eine rote Kugel gezogen wird. Beschreibe die folgenden Ereignisse in Wortenund berechne ihre Wahrscheinlichkeit: A: Z = 2, B: Z > 1, C: Z = 5.

    A 1.16 Mit welcher durchschnittlichen Augensumme kann man beim zweimali-gen Würfeln auf lange Sicht rechnen?

    A 1.17 Hütchenspieler”Salvatore“ weiß aus Erfahrung, dass er mit 90 %-iger

    Wahrscheinlichkeit gewinnt (wobei natürlich alles mit rechten Dingen zugeht). DasOpfer – äh der Spieler – zahlt 5 C–– Einsatz pro Spiel. Findet er das Kügelchen unterdem richtigen Hütchen, so zahlt Salvatore ihm den vierfachen Einsatz zurück; tippt derSpieler auf ein leeres Hütchen, so behält Salvatore den kompletten Einsatz. Welcherdurchschnittliche Gewinn (aus Spieler-Sicht) stellt sich bei diesem Spiel auf langeSicht ein? Beachte: Gewinn = Auszahlung minus Einsatz.

    A 1.18 Ein Spiel heißt fair, wenn der Erwartungswert für den Gewinn Null be-trägt. Wie müsste man in Beispiel 1.15 den Verlust beim Ausgang

    ”Regenwurm“

    abändern, damit dieses Spiel fair wird?

    ————————— P P P —————————

  • 20 1 Grundlegendes

    1.7 Test: Hast du Kapitel 1 verstanden?

    Erstelle zunächst eine Zusammenfassung dieses Kapitels und bearbeite dann die fol-genden Übungen. Wenn du alle Rechnungen inklusive korrekter Bezeichnungen (!)richtig machst, hast du die wesentlichen Inhalte von Kapitel 1 erfasst.

    Alle Testaufgaben beziehen sich auf folgendes Sze-nario: Der niederbayrische Landwirt Franz-XaverGüllenbichler weiß aus Erfahrung, dass seine glück-liche Freilandhenne Berta mit einer Wahrschein-lichkeit von 80 % ein Ei am Tag legt7, aber niemalsmehr als ein Ei pro Tag.

    Test 1.1 Wir beobachten Berta zwei Tage lang und betrachten das Ereignis

    E:”Berta legt genau ein Ei“.

    a) Gib die Ergebnismenge S sowie E als Teilmenge davon an.

    b) Bestimme die Wahrscheinlichkeit P (E) und interpretiere den Zahlenwert.

    c) Warum darf man hier nicht einfach P (E) = |E||S| rechnen?

    Test 1.2 Wie viele Tage müsste man Berta beobachten, damit sie mit mehr als99 %-iger Wahrscheinlichkeit in dieser Zeit mindestens ein Ei legt?

    Test 1.3 Güllenbichler hat mit seinem langjährigen Kollegen Gustl Jauchenhubereine Wette am Laufen: Wenn Berta in einem Zweitageszeitraum zwei Eier legt, be-kommt Franz-Xaver 50 ct von Gustl, legt sie genau ein Ei, bekommt er 1 C–– , und wennBerta gar kein Ei legt, muss er satte 10 C–– an Gustl zahlen.

    a) Für welchen der beiden rentiert sich dieses Spiel auf lange Sicht?

    b) Wie müsste man die Auszahlung an Gustl im Fall”kein Ei“ abändern, damit

    die Wette fair wird?

    7Die biologische Unsinnigkeit dieser Annahmen lassen wir außer Acht; in echt wird die Legewahr-scheinlichkeit natürlich davon abhängen, ob an den Vortagen Eier gelegt wurden oder nicht.

  • 2 Bedingte Wahrscheinlichkeit und

    Unabhängigkeit

    2.1 Bedingte Wahrscheinlichkeiten

    Beispiel 2.1 Von relativen Häufigkeiten zur bedingten Wahrscheinlichkeit

    Schülerinnen (~) und Schüler (|) der Oberstufe eines Gymnasiums wurden befragt,ob sie Mathe mögen (M) oder eher nicht (M). Unter den 400 Befragten waren 225Mädels und davon gehörten 65 in die Kategorie M .Wir wollen nun die relative Häufigkeit von

    ”M unter der Bedingung ~“(also: Befragte(r) mag Mathe, wenn man be-

    reits weiß, dass es sich um eine Schülerin handelt)

    bestimmen, was wir mit h~(M) abkürzen. Da die Information ”Befragte(r) ist weib-

    lich“ vorausgesetzt wird, ist es sinnvoll, sich bei dieser relativen Häufigkeit nicht aufalle 400 Befragten zu beziehen, sondern nur auf die 225 Mädels, so dass wir

    h~(M) =Anzahl der Schülerinnen, die Mathe mögen

    Anzahl der Schülerinnen=|~ ∩M ||~|

    =65

    225

    erhalten. Erweitern wir Zähler und Nenner mit 1400 , so bekommen wir einen Zusam-menhang zu den relativen Häufigkeiten bezogen auf alle 400 Befragten:

    h~(M) =65400225400

    =h(~ ∩M)h(~)

    .

    Sehen wir die relativen Häufigkeiten auf der rechten Seite als Näherungswerte fürWahrscheinlichkeiten an, so steht rechts (ca.)

    P (~ ∩M)P (~)

    ,

    und diesen Ausdruck werden wir im Folgenden als die bedingte WahrscheinlichkeitP~(M) definieren, also die Wahrscheinlichkeit für das Eintreten von M unter derVoraussetzung, dass ~ bereits eingetreten ist.

    Definition: Sind A und B Ereignisse eines Zufallsexperiments, wobei P (A) > 0sei, so ist die bedingte Wahrscheinlichkeit von B unter der Bedingung A (d.h.vorausgesetzt, dass A bereits eingetreten ist) definiert als

    PA(B) =P (A ∩B)P (A)

    ,

    also als Verhältnis der Wahrscheinlichkeiten von A ∩ B (A und B treten beideein) und A. Manchmal wird PA(B) auch als P (B | A) bezeichnet.

    Ein simples Beispiel wird den Sinn dieser Definition noch greifbarer machen.

  • 22 2 Bedingte Wahrscheinlichkeit und Unabhängigkeit

    Beispiel 2.2 Du würfelst mit geschlossenen Augen mit einem Würfel; fällt eine 1,dann gewinnst du eine Brezel. Dein Nebensitzer spickt und verrät dir, dass eine unge-rade Zahl gefallen ist. Da es mit diesem Vorwissen nur noch drei mögliche Ergebnissegibt, ist die Wahrscheinlichkeit für eine 1 von 16 plötzlich auf

    13 gestiegen. Und genau

    dies bringt die bedingte Wahrscheinlichkeit zum Ausdruck: Wir setzen B = { 1 },A = { 1, 3, 5 } und erhalten aufgrund von A ∩B = { 1 } für die bedingte Wahrschein-lichkeit von B (

    ”es fällt eine 1“) unter der Bedingung A (

    ”es fällt eine ungerade

    Zahl“)

    PA(B) =P (A ∩B)P (A)

    =1636

    =1

    3.

    Hingegen ist für C = { 2, 4, 6 } der Schnitt C ∩B leer und es folgt

    PC(B) =P (C ∩B)P (C)

    =036

    = 0.

    Auch dies ist anschaulich klar, da das Eintreten von C (”es fällt eine gerade Zahl“)

    das Eintreten von B ausschließt. Die bedingte Wahrscheinlichkeit PA(B) drückt alsogewissermaßen aus, wie stark der

    ”statistische Einfluss“ eines Ereignisses A auf das

    anschließende Eintreten des Ereignisses B ist.

    Letztendlich bewirkt der Übergang zur bedingten Wahrscheinlichkeit nichts anderesals eine Einschränkung der Ergebnismenge. Da man weiß, dass A eingetreten ist, wirdin diesem Beispiel die Ergebnismenge von S = { 1, . . . , 6 } auf S′ = A = { 1, 3, 5 }reduziert. Damit ist sofort einsichtig, dass PA(B) hier

    |B||A| =

    13 sein wird (genauer:

    |A∩B||A| , aber da B in A liegt, ist A ∩B = B).

    Beispiel 2.3 VierfeldertafelDas gesamte Ergebnis der Mathe-Umfrage aus Beispiel 2.1 ist in Tabelle 2.1 in Formeiner Vierfeldertafel dargestellt. In der letzten Spalte bzw. Zeile steht dabei jeweilsdie Summe (durch

    ∑abgekürzt) der Zahlen der zugehörigen Zeile bzw. Spalte.

    M M∑

    ~

    |∑65

    55

    120

    160

    120

    280

    225

    175

    400

    Tabelle 2.1

    Bei all solchen Aufgabentypen darfst du die relativen Häufigkeiten direkt als Wahr-scheinlichkeiten interpretieren, ohne dies weiter zu kommentieren. So fassen wir z.B.

    h(|) =175

    400≈ 43,8 % als P (|) auf.

  • 2.1 Bedingte Wahrscheinlichkeiten 23

    Mit dieser Vereinbarung bestimmen wir jetzt die bedingten Wahrscheinlichkeiten

    P|(M) und PM (|).

    Aus der Vierfeldertafel liest man ||∩M | = 120 ab, was natürlich dasselbe wie |M∩||ist, und mit der Definition der bedingten Wahrscheinlichkeit folgt

    P|(M) =P (| ∩M)P (|)

    =120400175400

    =120

    175≈ 68,6 % und

    PM (|) =P (M ∩ |)P (M)

    =120400280400

    =120

    280≈ 42,9 %.

    Beachte, dass die Ergebnisse verschieden sind, was auch schon sprachlich klar ist, da

    P|(M) die Wahrscheinlichkeit dafür ist, dass der Befragte kein Mathe mag,wenn man schon weiß, dass er männlich ist, während

    PM (|) die Wahrscheinlichkeit bezeichnet, dass der Befragte männlich ist,wenn man schon weiß, dass er kein Mathe mag.

    ————————— P P P —————————

    A 2.1 Eine der natürlichen Zahlen von 1 bis 60 wird durch Zufall ausgewählt.Wir betrachten die Ereignisse A:

    ”Die Zahl ist durch 3 teilbar“und B:

    ”Die Zahl ist

    durch 4 teilbar“. Drücke in Worten aus und berechne

    P (A ∩B), PA(B), PB(A).

    A 2.2 Ein Würfel wird dreimal nacheinander geworfen. Wie groß ist die Wahr-scheinlichkeit für das Eintreten von A:

    ”Genau einmal ungerade Augenzahl“, wenn

    man weiß, dass im ersten Wurf etwas Gerades gefallen ist?

    A 2.3 Die unvollständige Vierfeldertafel 2.2 stellt das Ergebnis einer (fiktiven)Studie unter 40 – 60-jährigen Männern in Deutschland dar. Dabei steht R für

    ”Rau-

    cher“ und K für”hat Krebs“.

    R R∑

    K

    K∑98

    315

    482

    135

    Tabelle 2.2

    Vervollständige die Tafel und bestimme P (R), P (R ∩ K), PR(K) sowie PK(R) (in-terpretiere dabei relative Häufigkeiten als Wahrscheinlichkeiten). Gib auch jeweils dieBedeutung in Worten an.

  • 24 2 Bedingte Wahrscheinlichkeit und Unabhängigkeit

    A 2.4 An einem Gymnasium sind erfahrungsgemäß 60 % der Mittelstufen-Schülerschlecht in Mathe und sogar 70 % schlecht in Physik. 55 % sind in beiden Fächernschlecht. Wie groß ist die Wahrscheinlichkeit, dass jemand

    a) der in Mathe schlecht ist, auch in Physik schlecht ist?

    b) der gut in Mathe ist, auch Physik gut kann? (Das Gegenereignis von”schlecht

    in . . .“ sei hierbei”gut in . . .“, d.h. es gibt kein Mittelfeld.)

    Vergleiche die Ergebnisse von a) und b).

    ————————— P P P —————————

    2.2 Der (allgemeine) Produktsatz

    Oftmals ist nicht die Berechnung von PA(B) aus P (A∩B) und P (A) gefragt, sondernman kennt P (A) sowie PA(B) und möchte daraus P (A∩B) bestimmen. Dies gelingtdurch eine simple Umformung der Definitionsgleichung der bedingten Wahrschein-lichkeit:

    PA(B) =P (A ∩B)P (A)

    ⇐⇒ P (A ∩B) = P (A) ·PA(B).

    Beachte: Multiplizieren mit P (A) ist eine Äquivalenzumformung, da P (A) 6= 0 ist(sonst wäre PA(B) gar nicht definiert). Diese Formel für P (A ∩ B) bekommt eineneigenen Namen.

    Produktsatz: Im Fall P (A) 6= 0 gilt

    P (A ∩B) = P (A) ·PA(B).

    (Der Zusatz”allgemeiner“ Produktsatz in der Überschrift weist darauf hin, dass wir

    demnächst noch einen”speziellen“ Produktsatz kennenlernen.)

    Beispiel 2.4 Die Wahrscheinlichkeit, dass ein (gewisser) Schüler sich nicht auf eineMathe-Klausur vorbereitet, beträgt 70 %. Die Wahrscheinlichkeit, dass die Klausur indiesem Fall schlecht ausfällt, ist 95 %. Wie groß ist die Wahrscheinlichkeit dafür, dass

    a) bei fehlender Vorbereitung die Klausur schlecht ausfällt?

    b) der Schüler sich nicht vorbereitet und die Klausur schlecht ausfällt?

    Zur Lösung definieren wir die Ereignisse

    V :”Schüler bereitet sich auf die Mathe-Klausur vor“

    S:”Klausur fällt schlecht aus“.

    a) Hier ist die bedingte Wahrscheinlichkeit PV (S) gesucht, also 95 % laut Text.

  • 2.2 Der (allgemeine) Produktsatz 25

    b) Diesmal ist P (V ∩S) gesucht, und mit dem Produktsatz (bzw. gesundem Men-schenverstand) folgt

    P (V ∩ S) = P (V ) ·PV (S) = 0,7 · 0,95 ≈ 0,67 = 67 %.

    Wichtig: PV (S) und P (V ∩ S) ist also nicht dasselbe, auch wenn sich a) und b)sprachlich vielleicht ähnlich anhören.

    Beispiel 2.5 Bedingte Wahrscheinlichkeit im Baumdiagramm

    Wir haben den Produktsatz bereits in Kapitel 1 angewendet, nur dass wir dort nochnicht den Begriff der bedingten Wahrscheinlichkeit verwendet haben1. Betrachte noch-mals die Situation von Beispiel 1.12, Teil 2: Aus einer Urne, die eine blaue (b) und5 rote (r) Kugeln enthält, wird zweimal ohne Zurücklegen gezogen. Definieren wir diefolgenden Ereignisse

    R1: ”rote Kugel im ersten Zug“ und B2: ”

    blaue Kugel im zweiten Zug“,

    so ist R1∩B2 das Ereignis, das wir damals mit ”rb“ (genauer: { rb }) abgekürzt haben,nämlich rote Kugel im ersten und blaue Kugel im zweiten Zug. Nachfolgend ist dieuntere Hälfte von Baumdiagramm 1.5 dargestellt.

    r

    ( 1b | 4r )

    b

    r

    ( 1b | 5r )

    P(R1 )

    PR1(B2

    ) P (R1 ∩B2) = P (R1) ·PR1(B2)

    Abbildung 2.1

    Es ist P (R1) =56 und die bedingte Wahrscheinlichkeit, dass blau im zweiten Zug

    kommt, wenn die erste Kugel rot war, beträgt PR1(B2) =15 ; hierzu braucht man die

    Definitionsgleichung der bedingten Wahrscheinlichkeit nicht, sondern (wie damals)nur die Tatsache, dass von den fünf verbleibenden Kugeln genau eine blau ist. DerProduktsatz, den wir damals 1. Pfadregel genannt haben, liefert

    P (R1 ∩B2) = P (R1) ·PR1(B2) =5

    6· 15

    =1

    6.

    Beispiel 2.6 Die AbiturientInnen des Kepler-Gymnasiums veranstalten zur Feierdes bestandenen Abiturs ein . . . hmmm, wie drücke ich das vornehm aus . . . Saufgela-ge im Park. Ebenfalls anwesend sind Schüler des List-Gymnasiums, wobei doppelt soviele Kepianer wie Listler anwesend sind. 75 % der Kepianer sind betrunken, währendvom List nur 60 % merklich alkoholisiert sind. (Zahlen vermutlich beide stark unter-trieben.) Als Herr G. durch den Park nach Hause laufen will, stolpert er über einen

    1Tatsächlich ist der Produktsatz (und seine Verallgemeinerung auf mehr als zwei Ereignisse) einenachträgliche Rechtfertigung der 1. Pfadregel.

  • 26 2 Bedingte Wahrscheinlichkeit und Unabhängigkeit

    nüchternen Schüler, der im Gras liegt. Mit welcher Wahrscheinlichkeit stammt er vomKepi?

    Wir definieren K:”Kepi-Schüler“ (zudem sei K:

    ”List-Schüler“, d.h. es seien keine

    weiteren Schulen vertreten) und B:”betrunken“. Aus dem Text geht hervor

    P (K) =2

    3, P (K) =

    1

    3, PK(B) = 75 % =

    3

    4, PK(B) = 60 % =

    3

    5.

    Das gesuchte PB(K) lässt sich mit Hilfe einer Vierfeldertafel bestimmen, die wir nunSchritt für Schritt erarbeiten.

    1. Tabelle 2.3 links: Eintragen von P (K) und P (K).

    2. Tabelle 2.3 Mitte: Wir verwenden den Produktsatz, um die B-Zeile auszufüllen.Es ist

    P (K ∩B) = P (K) ·PK(B) =2

    3· 34

    =1

    2.

    Analog ergibt sich

    P (K ∩B) = P (K) ·PK(B) =1

    3· 35

    =1

    5.

    Als Summe beider Werte erhält man P (B) = P (K∩B)+P (K∩B) = 12+15 =

    710 .

    3. Tabelle 2.3 rechts: Abschließend wird die B-Zeile durch Differenzbildung entlangder Spalten ausgefüllt, z.B. ist

    P (K ∩B) = 23− 1

    2=

    1

    6.

    Wenn man möchte, kann man am Ende der Übersichtlichkeit halber noch alleBrüche auf den Hauptnenner (hier: 30) bringen.

    K K∑

    B

    B∑23

    13 1

    K K∑

    B

    B∑

    12

    23

    15

    13

    710

    1

    K K∑

    B

    B∑

    12

    16

    23

    15

    215

    13

    710

    310

    1

    Tabelle 2.3

    Für die gesuchte Wahrscheinlichkeit ergibt sich damit

    PB(K) =P (K ∩B)P (B)

    =16310

    =5

    9≈ 55,6 %.

  • 2.3 Unabhängigkeit 27

    Alternativlösung (über gesunden Menschenverstand): Nehmen wir an, es sind 300Schüler im Park; 200 vom Kepi und 100 vom List. Es sind 25 % der Kepianer nüchtern,also 50, und 40 % der Listler, sprich 40. Also gibt es insgesamt 90 Nüchterne und dieWahrscheinlichkeit, dass der, über den Herr G. stolpert, vom Kepi stammt, ist somit

    50

    90=

    5

    9≈ 55,6 %.

    Der Produktsatz lässt sich leicht auf mehr als zwei Ereignisse verallgemeinern; so giltz.B. für drei Ereignisse A, B, C (mit P (A) 6= 0 und P (A ∩ B) 6= 0, wobei aus derzweiten Bedingung automatisch die erste folgt)

    P (A ∩B ∩ C) = P (A) ·PA(B) ·PA∩B(C).

    (Dies folgt sofort, wenn man rechts die Definitionsgleichung der bedingten Wahr-scheinlichkeit einsetzt und kürzt.) Gewonnen hat man hierdurch allerdings nichts,außer mehr Schreibarbeit. In der Praxis wendet man einfach (ohne viel Notation) die1. Pfadregel an und fertig. Aus eben diesem Grund entfällt hier auch der Aufgaben-abschnitt.

    2.3 Unabhängigkeit

    Mit Hilfe der bedingten Wahrscheinlichkeit lässt sich formal definieren, ob ein Er-eignis A ein Ereignis B

    ”beeinflusst“ in dem Sinne, dass das Eintreten von A die

    Wahrscheinlichkeit für das Eintreten von B ändert.

    Beispiel 2.7 Beim zweimaligen Würfeln betrachten wir folgende Ereignisse:

    A:”3 im ersten Wurf“,

    B:”Die Augensumme ist 7“,

    C:”Die Augensumme ist 10“.

    Schreiben wir die Ergebnismenge als

    S = { (k | l) | k, l ∈ { 1, . . . , 6 } },

    so sehen unsere Ereignisse wie folgt aus:

    A = { (3 | l) | l ∈ { 1, . . . , 6 } } = { (3 | 1), . . . , (3 | 6) },

    B = { (k | l) | k + l = 7 } = { (1 | 6), (6 | 1), (2 | 5), (5 | 2), (3 | 4), (4 | 3) },

    C = { (k | l) | k + l = 10 } = { (4 | 6), (6 | 4), (5 | 5) }.

    Somit sind die Wahrscheinlichkeiten für das Eintreten von A, B und C bei diesemLaplace-Experiment gegeben durch

    P (A) =|A||S|

    =6

    36=

    1

    6, P (B) =

    6

    36=

    1

    6, P (C) =

    3

    36=

    1

    12.

  • 28 2 Bedingte Wahrscheinlichkeit und Unabhängigkeit

    Für die bedingte Wahrscheinlichkeit von B, wenn A bereits eingetreten ist, folgt

    PA(B) =P (A ∩B)P (A)

    =13616

    =1

    6,

    wobei im zweiten Schritt A ∩ B = { (3 | 4) }, also |A ∩ B| = 1, einging. PA(B) undP (B) sind gleich, d.h. auch wenn A bereits eingetreten ist, hat B dieselbe Wahr-scheinlichkeit. Man sagt, B ist unabhängig von A.Beim Ereignis C hingegen ist A ∩ C = { }, also gilt hier

    PA(C) =P (A ∩ C)P (A)

    =016

    = 0 6= P (C).

    Das Ereignis C ist abhängig von A, denn Eintreten von A verändert die Wahrschein-lichkeit von C. Während dies auch intuitiv zu erwarten war (schließlich sind A und Cja disjunkt), ist mir die Unabhängigkeit von B zu A nicht anschaulich klar. Betrachtetman hingegen ein Ereignis wie

    D:”6 im zweiten Wurf“,

    so kann das Eintreten von A keinerlei Einfluss auf D haben, da D keinen Bezug zumErgebnis des ersten Wurfs aufweist (im Gegensatz zu B und C). Und auch die formaleRechnung bestätigt dies: Es ist P (D) = 16 und mit A ∩D = { (3 | 6) } folgt

    PA(D) =P (A ∩D)P (A)

    =13616

    =1

    6= P (D).

    Definition: Ein Ereignis B heißt (stochastisch) unabhängig vom Ereignis A(mit P (A) 6= 0), wenn gilt

    PA(B) = P (B).

    Anmerkung: Ist auch P (B) 6= 0, so kann man die Unabhängigkeit von vornhereinsymmetrisch formulieren, denn aus A∩B = B ∩A (klar!) folgt P (A∩B) = P (B ∩A)und der Produktsatz ergibt

    P (A) ·PA(B) = P (B) ·PB(A), bzw.PA(B)

    P (B)=PB(A)

    P (A).

    Ist nun B unabhängig von A, so ist der linke Bruch 1, da PA(B) = P (B) gilt. Dannmuss aber auch der rechte Bruch 1 sein, also folgt PB(A) = P (A), sprich A ist dannautomatisch auch unabhängig von B.Man kann also einfach sagen, dass zwei Ereignisse A und B (mit P (A) und P (B) 6= 0)unabhängig voneinander heißen, wenn PA(B) = P (B) (und damit automatisch auchPB(A) = P (A)) gilt.

    Beispiel 2.8 Noch ein Beispiel zur bereits oben erwähnten Tatsache, dass sto-chastische Unabhängigkeit nicht immer ein anschaulicher Begriff ist, der mit unsererintuitiven Vorstellung übereinstimmt.Man wirft n Münzen gleichzeitig und betrachtet die Ereignisse

  • 2.3 Unabhängigkeit 29

    A:”Höchstens einmal Kopf“,

    B:”Jede Seite der Münze fällt mindestens einmal“.

    Man kann zeigen ([1] Seite 149), dass A und B für n = 3 Münzen unabhängigeEreignisse sind, während sie für alle n > 4 abhängig sind.

    Sind A und B unabhängig, so nimmt der allgemeine Produktsatz aufgrund vonPA(B) = P (B) die folgende Gestalt an:

    Spezieller Produktsatz: Für zwei unabhängige Ereignisse gilt

    P (A ∩B) = P (A) ·P (B).

    Umgekehrt kann man so auch die Unabhängigkeit zweier Ereignisse überprüfen. Giltnämlich P (A ∩B) = P (A) ·P (B), dann folgt (für P (A) 6= 0)

    P (A ∩B)P (A)

    = P (B),

    und da links die Definition von PA(B) steht, bedeutet dies PA(B) = P (B), d.h. Aund B sind unabhängig.In vielen Büchern wird deshalb alternativ die Gültigkeit des speziellen Produktsatzesals Definition für die Unabhängigkeit der Ereignisse A und B verwendet.

    Beispiel 2.9 Unabhängigkeit und Vierfeldertafel

    Ein Restaurantbesitzer kennt aus langjähriger Erfahrung die Wahrscheinlichkeitenfür A:

    ”Gast bestellt alkoholhaltiges Getränk“ und V :

    ”Gast bestellt vegetarisches

    Essen“, sowie für A ∩ V ; siehe Vierfeldertafel 2.4.

    V V∑

    A

    A∑0,18

    0,3

    0,6

    Tabelle 2.4

    Offenbar gilt P (A∩V ) = P (A) ·P (V ), d.h. A und V sind unabhängige Ereignisse (indiesem speziellen Restaurant jedenfalls). Summieren entlang der V -Spalte ergibt

    0,18 + P (A ∩ V ) = 0,3

    bzw. allgemeiner

    P (A ∩ V ) + P (A ∩ V ) = P (V ).

  • 30 2 Bedingte Wahrscheinlichkeit und Unabhängigkeit

    Zusammen mit P (A ∩ V ) = P (A) ·P (V ) folgt hieraus

    P (A ∩ V ) = P (V )− P (A) ·P (V ) = (1− P (A)) ·P (V ) = P (A) ·P (V ),

    was nichts anderes bedeutet, als dass auch A und V unabhängig sind. Ebenso zeigtman die Unabhängigkeit vonA und V bzw.A und V . Um die Vierfeldertafel vollständigauszufüllen, muss man also nur die Wahrscheinlichkeiten am Rand multiplizieren undsie in die entsprechenden Felder eintragen. Erledige dies hier noch schnell.

    Merke: Sind zwei Ereignisse A und B unabhängig, dann sind automatisch auchA & B, A & B sowie A & B unabhängig. Die Vierfeldertafel erhält man in diesemFall durch Multiplikation der Wahrscheinlichkeiten am Rand.

    Auf die Unabhängigkeitsdefinition bei drei oder mehr Ereignissen verzichten wir. Essei nur angedeutet, dass sie komplizierter als für zwei Ereignisse ist.

    ————————— P P P —————————

    A 2.5 Aus den Zahlen 1, . . . , 20 wird zufällig eine ausgewählt. Untersuche, obfolgende Ereignisse unabhängig sind.

    a) A:”Zahl ist gerade“, B:

    ”Zahl ist durch 3 teilbar“.

    b) A und C:”Zahl ist durch 4 teilbar“.

    A 2.6 (aus [1], S. 156 Nr. 2)

    Von Francis Galton (1822 – 1911) stammt eine Untersuchung der Augenfarbe von1000 Vätern und einem ihrer Söhne. Mit V :

    ”Vater helläugig“ und S:

    ”Sohn helläugig“

    fand er folgende Anzahlen:

    V V

    S 471 148

    S 151 . . .

    Tabelle 2.5

    Ergänze die Tabelle, erstelle eine vollständige Vierfeldertafel der Wahrscheinlichkeitenund beurteile die Unabhängigkeit der Augenfarben von Vater und Sohn.

    Anmerkung: Da hier relative Häufigkeiten als Wahrscheinlichkeiten interpretiertwerden, darf man nicht perfekte Gleichheit von PV (S) und P (S) erwarten (bzw. vonP (V ∩S) und P (V ) ·P (S)), sondern man wird hier bereits von Unabhängigkeit von Vund S sprechen, wenn beide Wahrscheinlichkeit nur näherungsweise übereinstimmen.

    ————————— P P P —————————

  • 2.4 Test: Hast du Kapitel 2 verstanden? 31

    2.4 Test: Hast du Kapitel 2 verstanden?

    Erstelle zunächst wieder eine Zusammenfassung dieses Kapitels und bearbeite danndie folgenden Übungen.

    Test 2.1 Berechne die bedingte Wahrscheinlichkeit dafür, dass die Augensummebeim Werfen zweier Würfel 6 ist, wenn man weiß, dass sie gerade ist.

    Test 2.2 Eine groß angelegte FIG2-Studie untersucht die Heilwirkung von Schwarz-kümmelöl bei allergischer Rhinitis (

    ”Heuschnupfen“). Es bedeute

    S:”Schwarzkümmelöl genommen“ (von Januar bis August),

    S:”Placebo bekommen“ (Kapseln mit gewürztem Sonnenblumenöl),

    B:”Besserung, d.h. die Symptome sind deutlich zurückgegangen“ und

    B:”kein merklicher Symptomrückgang“.

    60 % der Teilnehmer bekamen das echte Öl, bei insgesamt 52,3 % aller Teilnehmerstellte sich eine Besserung ein, wobei nur 13,3 % aus der Placebo-Gruppe stammten3.

    a) Erstelle eine vollständige Vierfeldertafel und/oder ein Baumdiagramm (die Pro-zentzahlen, die eigentlich relative Häufigkeiten sind, dürfen dabei als Wahr-scheinlichkeiten interpretiert werden).

    b) Wie viel Prozent der Teilnehmer erfuhren keine Besserung und waren in derS-Gruppe?

    c) Wie viel Prozent der Teilnehmer, von denen man weiß, dass sich keine Besserungeinstellte, waren in der S-Gruppe?

    d) Überprüfe, ob S stochastisch unabhängig von B ist.

    e) Spricht die Studie eher für oder gegen die Wirksamkeit des Öls?

    2Fiktives Institut für Gesundheitsforschung3Damit keine Missverständnisse aufkommen: Die 13,3 % beziehen sich nicht auf die 52,3 %, sondern

    auf alle Teilnehmer.

  • 3 Die Binomialverteilung

    Jaja, eigentlich auch schon alles bekannt aus der Mittelstufe . . . aber mir gefällt dasThema so gut, dass ich nochmal ganz von vorne anfange.

    3.1 Ein wenig Kombinatorik

    Beispiel 3.1 n Fakultät

    Der Osterhase hat noch drei Eier in seinem Rucksack: Ein weißes (w), ein rotes (r)und ein blaues (b). Wie viele Möglichkeiten hat er, diese auf die drei verbleibendenNester auf seiner Route zu verteilen, wenn er in jedes Nest genau ein Ei legt und dieReihenfolge der Nester beachtet wird?Mit

    ”Reihenfolge der Nester“ ist Folgendes gemeint: Die Ergebnisse werden als so-

    genannte”geordnete 3-Tupel“ notiert, also in der Form ( w | r | b ), was

    ”weißes Ei in

    Nest 1, rotes Ei in Nest 2 und blaues Ei in Nest 3“ bedeutet. Die Reihenfolge zubeachten heißt, dass wir dieses Ergebnis von z.B. ( w | b | r ) unterscheiden.Die Antwort auf obige Frage ist ganz einfach: Beim ersten Nest hat der Osterhasedrei Wahlmöglichkeiten (w, r oder b), beim zweiten Nest noch zwei, und beim letztenNest bleibt nur noch das bisher nicht verteilte Ei, so dass sich insgesamt

    3 · 2 · 1 = 6

    Möglichkeiten ergeben. Solche Produkte tauchen in der Stochastik so oft auf, dass sieeine eigene Abkürzung bekommen:

    3 · 2 · 1 = 3! (lies:”3 Fakultät“).

    Wenn dir noch nicht klar ist, warum man überhaupt 3 mit 2 und dann mit 1 multi-pliziert, hilft dir ein Blick auf das folgende Baumdiagramm.

    w

    r

    b

    r

    b

    w

    b

    w

    r

    b

    r

    b

    w

    r

    w

    ( w | r | b )

    ( w | b | r )

    ( r |w | b )

    ( r | b |w )

    ( b |w | r )

    ( b | r |w )

    Abbildung 3.1

  • 34 3 Die Binomialverteilung

    Muss der Osterhase vier verschiedenfarbige Eier auf vier Nester verteilen, können wirohne nachzudenken die Anzahl der Möglichkeiten sofort angeben, nämlich

    4! = 4 · 3 · 2 · 1 = 24.

    Merke: n verschiedene Dinge kann man auf

    n! = n · (n− 1) · (n− 2) · . . . · 2 · 1

    Möglichkeiten in eine Reihenfolge bringen. Die verschiedenen Anordnungen derObjekte nennt man Permutationen.

    Am Taschenrechner gibt es eine�� ��! -Taste (oder diesen Befehl im MATH-Menü).

    Beispiel 3.2 Binomialkoeffizienten

    Gegen Ende seines Arbeitstages hat der Osterhase mehr Eier im Rucksack als Nesterübrig sind, dennoch bleibt er bei

    ”genau ein Ei pro Nest“. Er habe n verschiedenfarbige

    Eier für k Nester (k < n) übrig und wir unterscheiden zwei Fälle:

    (1) Mit Reihenfolge: Die Nester sind nummeriert und die Reihenfolge der Belegungspielt eine Rolle; z.B. unterscheiden wir für k = 3 das Ergebnis ( r |w |b ) (

    ”rotes

    Ei in Nest 1, weißes in Nest 2 und blaues in Nest 3“) von ( b |w | r ); sieheBeispiel 3.1.

    (2) Ohne Reihenfolge: Die Nester bzw. Reihenfolge der Belegung werden nicht un-terschieden, d.h. ( r |w | b ) und ( b |w | r ) werden als gleich angesehen (stell dirvor, die Nesterinhalte werden am Ende in einen Korb geworfen und es zählennur noch die Farben). Hier notiert man das Ergebnis als { r,w,b }, da bei einerMenge die Reihenfolge ignoriert wird: { r,w, b } = { b,w, r }.

    a) n = 3 verschiedenfarbige Eier (r, w, b) bei k = 2 Nestern, d.h. aus n = 3 Farbenwerden k = 2 ausgewählt.

    (1) Mit Reihenfolge gibt es die fol-genden Verteilungsmöglichkeiten:

    ( r |w ) ( w | r )

    ( r | b ) ( b | r )

    ( b |w ) ( w |b ).

    Dies macht insgesamt 6 Möglichkei-ten. Klar: 3 Wahlmöglichkeiten fürdas erste Nest und dann noch 2 fürdas zweite macht zusammen

    3 · 2 = 6.

    (2) Ohne Reihenfolge bleiben nurnoch die Ergebnisse

    { r,w }

    { r, b }

    {w,b }.

    Im Vergleich zu (1) entfallen dieVertauschungen von Nest 1 und 2,d.h. statt 3 · 2 = 6 gibt es hier nur

    3 · 22

    = 3

    mögliche Ergebnisse.

  • 3.1 Ein wenig Kombinatorik 35

    b) n = 4 verschiedenfarbige Eier bei k = 3 Nestern, d.h. aus n = 4 Farben werdenk = 3 ausgewählt.

    (1) Mit Reihenfolge hat der Hase 4Möglichkeiten für das erste Nest, 3für das zweite und 2 für das dritte;macht zusammen

    4 · 3 · 2 = 24

    Nesterbelegungen. Um den Über-gang zu c) zu erleichtern, schreibenwir dies künstlich mit Hilfe von Fa-kultäten um als

    4 · 3 · 2 = 4 · 3 · 2 · 11

    =4!

    1!.

    (2) Ohne Reihenfolge gibt es z.B.das Ergebnis

    { r,w, b }.

    Bei (1) hätte es 3! = 6 Vertauschun-gen hiervon gegeben. Da diese hierjeweils zu einem einzigen Ergeb-nis

    ”zusammenschrumpfen“, blei-

    ben im Vergleich mit (1) nur

    24

    3!= 4

    mögliche Nesterbelegungen.

    Setzt man auch in der rechten Spalte die künstliche Umformulierung 24 = 4!1! ein,ergibt sich etwas Interessantes:

    24

    3!=

    4!1!

    3!=

    4!

    3! · 1!.

    Jetzt kann man im Zähler n! und im Nenner 3! · (4−3)! = k! · (n−k)! erkennen. Oho!

    c) n = 5 verschiedenfarbige Eier bei k = 3 Nestern.

    (1) Mit Reihenfolge gibt es 5 mögli-che Eierfarben fürs erste Nest, dannnoch 4 fürs zweite und für das letzteNest bleiben 3, also gibt es

    5 · 4 · 3 = 60

    Nesterbelegungen. Mit Fakultätenkompakter aufgeschrieben:

    5 · 4 · 3 = 5 · 4 · 3 · 2 · 12 · 1

    =5!

    2!,

    bzw. allgemeinn!

    (n− k)!.

    (2) Ohne Reihenfolge schrumpfenim Vergleich zu (1) wieder jeweils3! = 6 Vertauschungen zusammen,also bleiben

    60

    3!=

    5!2!

    3!=

    5!

    3! · 2!= 10

    mögliche Nesterbelegungen. Sodrängt sich auch in Fall (2) dieallgemeine Formel auf:

    n!

    k! · (n− k)!.

    Der letzte Bruch auf der rechten Seite bekommt einen eigenen Namen und eigeneSchreibweise: Er heißt Binomialkoeffizient und wird abgekürzt als

    n!

    k! · (n− k)!=:

    (n

    k

    )(lies:

    ”n über k“ oder

    ”k aus n“).

  • 36 3 Die Binomialverteilung

    Testen wir abschließend noch, ob diese Formeln auch für den Fall n = k vernünftigeErgebnisse liefern. Hierzu müssen wir jedoch zuerst 0! := 1 festlegen, weil 0! an sichkeine wirklich anschauliche Bedeutung besitzt.

    d) n = 5 verschiedenfarbige Eier werden auf k = 5 Nester verteilt.

    (1) Laut obiger Formel sollte es

    n!

    (n− k)!=

    5!

    0!= 5!

    Möglichkeiten geben, was laut Bei-spiel 3.1 korrekt ist.

    (2) Der Binomialkoeffizient sagt(5

    5

    )=

    5!

    5! · 0!= 1

    voraus und genau so ist es: 5 Ei-er kann man ohne Reihenfolge (undohne Mehrfachbelegung) nur auf ei-ne Art auf 5 Nester verteilen.

    Merke: Um aus n verschiedenen Objekten k auszuwählena (k 6 n), gibt es

    n!

    (n− k)!= n · (n−1) · . . . · (n−k+1)

    Möglichkeiten, wenn die Reihenfol-ge beachtet wird.

    (n

    k

    )=

    n!

    k! · (n− k)!

    Möglichkeiten, wenn die Reihen-folge keine Rolle spielt.

    aohne Zurücklegen, d.h. man darf kein Objekt mehrmals auswählen; siehe Abschnitt 3.2.

    Beispiel 3.3 Lotto

    Der Klassiker schlechthin ist die Anwendung auf das Lottospiel”6 aus 49“, wo man

    auf einem Zettel mit 49 Zahlen sechs davon ankreuzt und Woche für Woche hofft,dass diese bei der nächsten Ziehung auftauchen. Aus n = 49 verschiedenen Kugeln(diese entsprechen den verschiedenfarbigen Eiern) werden bei der Lottoziehung durchZufall k = 6 ausgewählt (die Behälter, in die die Kugeln plumpsen, entsprechen denNestern). Die Reihenfolge spielt dabei keine Rolle, da die Kugeln automatisch nachGröße der aufgedruckten Zahl sortiert werden. Somit gibt es(

    49

    6

    )=

    49!

    6! · 43!= 13 983 816 ≈ 14 Mio

    verschiedene Möglichkeiten für den Ausgang der Lottoziehung. Die Gewinnwahr-scheinlichkeit für

    ”sechs Richtige“ beträgt somit ca.

    1

    14 · 106≈ 72 · 10−9 = 7,2 millionstel %.

    Dieses Ergebnis und die Tatsache, dass 1 2 3 4 5 6 ein ebenso wahrscheinliches Ergebniswie jede andere Zahlenfolge ist (!), hat mich bisher vom Lottospielen abgehalten.

    Man braucht den Binomialkoeffizienten übrigens nicht mit Hilfe von Fakultäten in

  • 3.1 Ein wenig Kombinatorik 37

    den Taschenrechner zu tippen, sondern man benutzt einfach die Taste�� ��nCr (”r aus

    n“), um(49

    6

    )als 49 nCr 6

    einzugeben. Ist die Reihenfolge zu beachten, so verwendet man�� ��nPr (das P steht

    für”Permutation“ im Gegensatz zu

    ”Kombination“, wofür (englisch) das C steht).

    Interessehalber: Mit Reihenfolge gäbe es beim Lotto sogar

    49!

    43!= 49 · 48 · . . . · 44 ≈ 10 Mrd

    Möglichkeiten (49 nPr 6 in den Taschenrechner eingeben).

    Beispiel 3.4 Werte einiger Binomialkoeffizienten

    Wir berechnen für n = 4 alle Binomialkoeffizienten mit dem Taschenrechner:(4

    0

    )= 1,

    (4

    1

    )= 4,

    (4

    2

    )= 6,

    (4

    3

    )= 4,

    (4

    4

    )= 1.

    Bis auf den Wert für k = 2 sind (fast) alle Ergebnisse anschaulich klar:

    k = 0: Um aus vier verschiedenfarbigen Eiern null auszuwählen, gibt es genaueine Möglichkeit, nämlich dass alle Eier im Rucksack bleiben (na gut,das ist etwas hingetrickst), also muss

    (40

    )= 1 sein. Rechnerisch passt

    aufgrund der Definition 0! = 1 jedenfalls alles:(4

    0

    )=

    4!

    0! · (4− 0)!=

    4!

    1 · 4!= 1.

    k = 1: Um aus vier verschiedenfarbigen Eiern eines auszuwählen und in einNest zu legen, gibt es offenbar genau vier Möglichkeiten.

    k = 3: Hat man aus den vier Eiern drei ausgewählt, so gibt es genau eine Eier-farbe, die übrig bleibt, also hat man vier Möglichkeiten für das Ei, das imRucksack liegen bleibt. Dies entspricht der Anzahl der möglichen Nester-belegungen. Hierbei ist entscheidend, dass die Reihenfolge der Nesterbe-legung keine Rolle spielt, denn sonst wären für jede Wahl der drei Eier,die in die Nester kommen, insgesamt 3! Vertauschungen zu beachten.

    k = 4: Mit vier verschiedenfarbigen Eiern kann man ohne Reihenfolge nur aufeine Art vier Nester befüllen (ohne Mehrfachbelegung), und zwar in jedesNest ein Ei. Auch rechnerisch passt das, da wir 0! = 1 festgelegt haben:(

    4

    4

    )=

    4!

    4! · (4− 4)!=

    4!

    4! · 1= 1.

    Diese Spezialfälle gelten natürlich nicht nur für n = 4, sondern allgemein.

  • 38 3 Die Binomialverteilung

    Merke: Es gilt

    (n

    0

    )= 1 =

    (n

    n

    )und

    (n

    1

    )= n =

    (n

    n− 1

    ).

    Das einzige Ergebnis, das oben nicht intuitiv klar war, war für k = 2. Hier gilt(4

    2

    )=

    4!

    2! · (4− 2)!=

    4!

    2! · 2!=

    4 · 3 · 2 · 12 · 1 · 2 · 1

    =4 · 32

    = 6.

    Auch dies lässt sich verallgemeinern; siehe Aufgabe 3.5.

    Merke: Es gilt

    (n

    2

    )=n · (n− 1)

    2=

    (n

    n− 2

    ).

    Das ist zwar manchmal nützlich, aber in der Regel wirst du stets den Taschenrechnerzur Verfügung haben, so dass du diesen Merkkasten ignorieren kannst.

    Trost: Wenn dich diese kombinatorischen Betrachtungen bereits jetzt unglücklichmachen, sei getröstet, dass du im Folgenden eigentlich nur zu wissen brauchst, wasdie Bedeutung des Binomialkoeffizienten

    (nk

    )ist. Bearbeite dazu vielleicht noch Auf-

    gabe 3.3 und springe dann gleich zu Abschnitt 3.3.

    Beispiel 3.5 Binomialkoeffizienten und Pascal-Dreieck

    Die Herkunft des Namens”Binomialkoeffizienten“ ist bislang noch völlig obskur. Er

    leitet sich davon ab, dass die(nk

    )als Koeffizienten im allgemeinen binomischen Lehr-

    satz auftauchen, der da lautet (siehe Aufgabe 3.6):

    (a+ b)n =

    (n

    0

    )an +

    (n

    1

    )an−1b+

    (n

    2

    )an−2b2 + . . .+

    (n

    n− 1

    )abn−1 +

    (n

    n

    )bn,

    oder eleganter in Summenschreibweise (siehe Seite 2)

    (a+ b)n =

    n∑i=0

    (n

    i

    )an−ibi.

    Für n = 2 wird aus diesem Monstrum die altbekannte erste binomische Formel, denndie rechte Seite wird zu

    2∑i=0

    (2

    i

    )a2−ibi =

    (2

    0

    )a2b0 +

    (2

    1

    )a2−1b+

    (2

    2

    )a0b2 = 1 · a2 + 2ab+ 1 · b2

    (beachte a0 = b0 = 1), also genau (a + b)2, wie wir es kennen und lieben. Auch fürn = 3 wird dir das Ergebnis vermutlich bekannt vorkommen:

    (a+ b)3 =

    (3

    0

    )a3 +

    (3

    1

    )a3−1b+

    (3

    2

    )a3−2b2 +

    (3

    3

    )b3 = a3 + 3a2b+ 3ab2 + b3.

  • 3.1 Ein wenig Kombinatorik 39

    1

    1 1

    1 2 1

    1 3 3 1

    1 4 6 4 1

    +

    (00

    )(10

    ) (11

    )(20

    ) (21

    ) (22

    )(30

    ) (31

    ) (32

    ) (33

    )(40

    ) (41

    ) (42

    ) (43

    ) (44

    )Abbildung 3.2

    Um die Vorfaktoren in (a+ b)n zu erhalten, verwendet man in der Mittelstufe meistdas Pascal-Dreieck aus Abbildung 3.2 links. Man erhält die Zahlen der nächsten Zeile,indem man je zwei benachbarte Zahlen der vorigen Zeile addiert und dann mittig indie Lücke unter ihnen schreibt, so wie z.B. 2 + 1 = 3 im linken Dreieck.Nach der obigen Form des binomischen Lehrsatzes sind die Einträge des Pascal-Dreiecks aber nichts anderes als die Binomialkoeffizienten

    (nk

    ); siehe Abbildung 3.2

    rechts. In Aufgabe 3.5 c) sollst du das Bildungsgesetz für das Pascal-Dreieck mit Hilfeder Binomialkoeffizienten beweisen.

    ————————— P P P —————————

    A 3.1 Die 22 Schüler eines Mathekurses (ohne eineiige, ununterscheidbare Zwil-linge im Kurs) tauschen ihre Sitzplätze ohne dass Stühle leer bleiben. Wie langebräuchten sie, bis sie alle Permutationen durch haben, wenn eine Vertauschung 20 sdauert? Vergleiche mit dem Alter des Universums, 13,8 · 109 Jahre.

    A 3.2 Ein Anagramm eines Wortes ist eine Buchstabenfolge (meist ohne Wort-sinn), die durch Umordnen der Buchstaben des ursprünglichen Wortes entsteht, z.B.ingenieur und eigenurin. Wie viele Anagramme der Worte

    a) gras b) engel c) krepppapier gibt es? A1

    A 3.3 Der Osterhase hat 8 verschiedenfarbige Eier, die er auf 5 Nester verteilenwill (ohne Mehrfachbelegung). Wie viele Nesterbelegungen gibt es

    a) mit Reihenfolge b) ohne Reihenfolge?

    A 3.4 Wie groß ist die Wahrscheinlichkeit, beim Lotto”6 aus 49“ A2

    a) genau vier Richtige b) mindestens vier Richtige zu tippen?

    1Dies ist eigentlich eine Standardaufgabe, doch mit dem geringen Vorwissen aus diesem Kapitelist zur Lösung etwas Gehirnschmalz notwendig. Aber die Mühe lohnt sich!

    2Siehe obige Fußnote.

  • 40 3 Die Binomialverteilung

    A 3.5 Es sei n ∈ N eine natürliche Zahl. Beweise die folgenden Regeln.

    a)

    (n

    2

    )=n · (n− 1