352

Wahrscheinlichkeitsrechnung und schließende Statistik

Embed Size (px)

Citation preview

Page 1: Wahrscheinlichkeitsrechnung und schließende Statistik
Page 2: Wahrscheinlichkeitsrechnung und schließende Statistik

�������������

Page 3: Wahrscheinlichkeitsrechnung und schließende Statistik

���� ������ � ������� � ���

���� ����� �������� ������� � �������� ���������

������� ����������� �!����

��� "# ���������� ��� $ %�������

� �

Page 4: Wahrscheinlichkeitsrechnung und schließende Statistik

&���'�(��!����� )�' ���� ������&���'�(��!����� )�' ������� � ���&��������*� +� �,��������� !-� ����� �!��� ��� ��+������������ ���������������(���+./0#1 �,��������2���������'���������'��� ���2����'���������'��

�! ��� &�� ��� ���� ���������� 3��� �����456��� ������� 7���� 38$$$98:..4���� (������ 38:.$9801;4<����� =���� ����� 38:0/980;#4 ����� >' ���������!! 380/1980:$4

?�@>�8/ 1�."/�#$$:$�/ �������� @����� A��������� >�� B���?�@>�81 0$:�1�."/�#$$:$�1 �������� @����� A��������� >�� B���?�@> 1�."/�//0$/�8 8' �!���� �������� @����� A��������� >�� B���

@��������!�� � ?�!�������� )�� )���� �� @��������)�� )���� � @�������� ���+�� ��� ����� (���������� �� ��� )���� �� >�����������������!��C ������������ ���������!�� � )���� ���� �� ?������� -��� D���5EE���'���'��F ����!���'

)����� ���� ��� �������� ��� ��� -�+�' )�� ����� ����-������ <� ��� ������������� ��� ��� G������+���� ��� >� ��� ��� ��� H�������� ��� I������ ��� ������������� %�������� ��� ������������ ��� ��������!������ ���� ��� H������!*������� ��! �������� ����� ��� ��� ���� ����� �� )������������������������� �������� �� ��� ��� ����+��������� H���������� ����������' I��� H������!*������� ������ ������ ���� ��� %����������� ������ ��� �� �� I��+��!��� ��� �� ��� 7���+�� ��� �����+�� �� @�������������� &������� �������+�� ��� @������������� )���� ���� ��� 0' ��������� 80;. �� ���J������ ��������� ������� +��*����' ��� ��� ������*�+�� ����-������!�� ���' ����������������� ����������� ��� ����!������������ ��� &������� �������+��'

�������� ��� ��� &��������� ��� �������� � ��� �K@������� �����

��������'��

L ���������H����� @����� A��������� #//"� #//;(������ �� 7�����=

)�� ���������� ��� 7����� ������� A������������ �������+�� ������ ���' �� ������� ���� ���� ���� �� ��� ��������� ����+�� ���� �� � +� ��� ������ ������� � >���� �� ����� ��� �����+�� ��� ��� ������� ��+�7����+������ ��� !��� +������ ��� �*��� ��� ���� ��� J�������� �����+� ������ �-�!���'

&�� �������������5 )����� M (���� ����� A���������

�(?> 88.#$88" 8."E18.1�. " 1 # 8 / 9 7���� �� ��! �*���!����� (�����

Page 5: Wahrscheinlichkeitsrechnung und schließende Statistik

Vorwort

Dieses Lehrbuch gibt eine Einfiihrung in die Wahrscheinlichkeitsrechnung und in die fiir die Wirtschaftswissenschaften relevanten Methoden der schHefien-den Statistik. Es ist aus Vorlesungen entstanden, die die Autoren regelmafiig an der Wirtschafts- und Sozialwissenschaftlichen Fakultat der Universitat zu Koln halten, und umfasst insbesondere den Stoff der dortigen Diplom-Vorpriifung im Bereich „Wahrscheinhchkeitsrechnung und statistische Infe-renz". Dartiber hinaus enthalt es zahlreiche Erganzungen, insbesondere wei-tere statistische Verfahren sowie Hinweise, die fiir das Verstandnis und die Anwendung der Verfahren und die Interpretation ihrer Ergebnisse niitzUch sind.

Die in diesem Buch dargestellten Methoden sind universell und finden in den unterschiedhchsten Wissensbereichen Anwendung. Die Beispiele sind al-lerdings vornehmhch dem Bereich der Wirtschafts- und Sozialwissenschaften entnommen.

Eine Einfiihrung in die Methoden der deskriptiven Datenanalyse und in die Wirtschaftsstatistik bietet unser Lehrbuch „Beschreibende Statistik und Wirtschaftsstatistik" (Springer-Verlag, Berhn u.a. 2005).

Der praktische Einsatz statistischer Verfahren ist ohne Computer nicht vor-stellbar. Auch im Grundstudium der Wirtschaftswissenschaften sollen die Studierenden die Moglichkeiten des Computereinsatzes kennenlernen und an einschlagige statistische Software herangefiihrt werden. Hierbei beschranken wir uns auf den Einsatz der Programme Microsoft® Excel und SPSS. Das Programm Excel bietet zwar nur begrenzte und etwas umstandliche Moglich­keiten der Auswertung, ist aber den Studierenden leicht zuganglich und des-halb am besten fiir Anfangeriibungen geeignet. Fiir anspruchsvollere Me­thoden der statistischen Auswertung greifen wir auf das Programm SPSS

Page 6: Wahrscheinlichkeitsrechnung und schließende Statistik

zuriick, das zwar ebenfalls keine idealen Moglichkeiten bietet, jedoch Sozial-und Wirtschaftswissenschaftlern haufig als Arbeitsumgebung zur Verfiigung steht.

Im Anschluss an einige Kapitel werden Hinweise zur Durchftihrung der wich-tigsten Verfahren am Computer gegeben. Datensatze zum Einiiben dieser Verfahren findet man auf der Internetseite

http:/ /www.wiso.uni-koeln.de/p/mosler-schmid.

Auf diese Internetseite werden auch Ubungsaufgaben und etwaige Erganzun-gen und Korrekturen zu diesem Lehrbuch gestellt. Einschlagige Klausuraufga-ben findet man in Bomsdorf, Crohn, Mosler und Schmid (2004), einen Abriss der wichtigsten Formeln in Bomsdorf, Crohn, Mosler und Schmid (2003).

Das Literaturverzeichnis am Ende des Buches umfasst ausgewahlte Lehrbii-cher der Wahrscheinlichkeitsrechnung und der statistischen Inferenz, Tabel-lenwerke, interaktive Lernprogramme sowie Einftihrungen in statistische Soft­ware. Auf spezielle erganzende Literatur wird in den einzelnen Kapiteln hin­gewiesen.

Bei der Bearbeitung des Buchmanuskripts haben uns die wissenschaftlichen Mitarbeiter und studentischen Hilfskrafte des Seminars fiir Wirtschafts- und Sozialstatistik der Universitat zu Koln tatkraftig unterstiitzt. Cenannt sei-en Prau Nana Dyckerhoff sowie die Herren Dr. Eckard Crohn, Jadran Do-bric, Jens Kahlenberg, Christoph Scheicher und Axel Schmidt. Sie haben das Manuskript mehrfach gelesen und zahlreiche Korrekturen und Verbesse-rungsvorschlage beigesteuert. Herr Peter Kosater hat die Excel- und SPSS-Anleitungen entworfen. Herr Dr. Rainer Dyckerhoff hat die Tabellen berech-net. Ihnen alien sei herzlich gedankt.

Piir die zweite Auflage wurde der gesamte Text sorgfaltig durchgesehen. Vie-le Kollegen anderer Hochschulen haben uns auf Druckfehler und Verbesse-rungsmoglichkeiten hingewiesen. Ihnen alien danken wir herzlich, besonders unserem Dresdner Kollegen Herrn Prof. Stefan Huschens.

Koln, im Juli 2005 Karl Mosler Priedrich Schmid

Page 7: Wahrscheinlichkeitsrechnung und schließende Statistik

Inhaltsverzeichnis

0 Einfiihrung 1

1 Zufallsvorgange und Wahrscheinlichkeiten 5

1.1 Zufallsvorgange 5

1.1.1 Ergebnismengen 6

1.1.2 Ereignisse und ihre Verkniipfung 7

1.2 Wahrscheinlichkeiten 13

1.2.1 Formale Definition der Wahrscheinlichkeit 14

1.2.2 Laplace-Experimente 17

1.2.3 Anordnung und Auswahl von Objekten (Kombinatorik) 18

1.3 Bedingte Wahrscheinlichkeit und Unabhangigkeit 24

1.3.1 Bedingte Wahrscheinlichkeit 24

1.3.2 Rechenregeln 25

1.3.3 Totale Wahrscheinlichkeit und Formel von Bayes . . . 27

1.3.4 Unabhangigkeit von Ereignissen 31

1.4 Erganzungen 36

1.4.1 Allgemeiner Additions- und Multiplikationssatz flir Wahr­scheinlichkeiten 36

1.4.2 Subjektive Wahrscheinlichkeit und WettbegrifF . . . . 38

1.4.3 Praktische Bestimmung von Wahrscheinlichkeiten . . . 39

vii

Page 8: Wahrscheinlichkeitsrechnung und schließende Statistik

viii INHALTSVERZEICHNIS

2 Zufallsvariable und Verteilungen 41

2.1 Grundbegriffe 42

2.1.1 Verteilungsfunktion 44

2.1.2 Quantilfunktion 47

2.1.3 Diskrete Zufallsvariable 51

2.1.4 Stetige Zufallsvariable 53

2.1.5 AfRn-lineare Transformation von Zufallsvariablen . . . 58

2.1.6 Unimodalitat 60

2.1.7 Symmetrie 62

2.2 Verteilungsparameter 63

2.2.1 Erwartungswert 63

2.2.2 Varianz 67

2.2.3 Ungleichung von Tschebyscheff 70

2.2.4 Schiefe und Wolbung 72

2.3 Spezielle diskrete Verteilungen . 75

2.3.1 Binomialverteilung 76

2.3.2 Poisson-Verteilung 79

2.3.3 Geometrische Verteilung 82

2.3.4 Hypergeometrische Verteilung 86

2.4 Spezielle stetige Verteilungen 89

2.4.1 Rechteckverteilung 90

2.4.2 Exponentialverteilung 94

2.4.3 Pareto-Verteilung 99

2.4.4 Normalverteilung 102

2.4.5 Lognormalverteilung I l l

2.4.6 Ubersicht iiber einige spezielle Verteilungen 114

2.5 Erganzungen 116

2.5.1 Borel-Mengen, Verteilung einer Zufallsvariablen . . . . 116

2.5.2 Erwartungswert einer Wette als subjektive Wahrschein-lichkeit 116

2.6 Anhang: Verwendung von Excel und SPSS 118

Page 9: Wahrscheinlichkeitsrechnung und schließende Statistik

INHALTSVERZEICHNIS ix

3 Gemeinsame Verteilung und Grenzwertsatze 125

3.1 Gemeinsame Verteilung von Zufallsvariablen 126

3.1.1 Gemeinsame Verteilung von zwei Zufallsvariablen . . . 126

3.1.2 Gemeinsame Verteilung von n Zufallsvariablen . . . . 143

3.1.3 Summen von unabhangigen Binomial-, Poisson- und Gaufi-Variablen 149

3.2 Grenzwertsatze 152

3.2.1 Schwaches Gesetz der grofien Zahlen 153

3.2.2 Wahrscheinlichkeit und relative Haufigkeit 155

3.2.3 Konvergenz der empirischen Verteilungsfunktion . . . 156

3.2.4 Zentraler Grenzwertsatz 158

3.3 Erganzungen 164

3.3.1 Multivariate Normalverteilung 164

3.3.2 Poisson-Prozess 166

3.3.3 Monte-Carlo-Simulation 170

4 Stichproben und Stichprobenfunktionen 173

4.1 Zufallsstichproben und statistisches Schliefien 174

4.1.1 Zufallsstichproben 174

4.1.2 Statistisches Schliei3en 177

4.1.3 Stichproben aus endlichen Grundgesamtheiten . . . . 180

4.2 Stichprobenfunktionen (Statistiken) 182

4.3 Statistiken bei normalverteilter Stichprobe 183

4.3.1 Chi-Quadrat-Verteilung 184

4.3.2 t-Verteilung 185

4.3.3 F-Verteilung 187

4.4 Erganzungen 189

4.4.1 Verwendung von Zufallszahlen 189

4.4.2 Weitere Verfahren der Stichprobenauswahl 189

4.5 Anhang: Verwendung von Excel und SPSS 192

Page 10: Wahrscheinlichkeitsrechnung und schließende Statistik

INHALTSVERZEICHNIS

5 Schatzverfahren fiir Parameter 195

5.1 Punktschatzung 195

5.1.1 Unverzerrtheit und Konsistenz 197

5.1.2 Schatzung von Erwartungswerten 198

5.1.3 Schatzung von Wahrscheinlichkeiten und Anteilswerten 199

5.1.4 Schatzung von Varianzen und Standardabweichungen 201

5.1.5 Schatzung von Quantilen 203

5.1.6 Schatzung von KorrelationskoefRzienten 203

5.2 Konstruktionsprinzipien fiir Punktschatzer 204

5.2.1 Momentenschatzer 204

5.2.2 Maximum-Likelihood-Schatzer 206

5.2.3 ML-Schatzer bei speziellen Verteilungen 208

5.2.4 Eigenschaften von ML- und Momentenschatzern . . . 211

5.3 Intervallschatzung 212

5.3.1 Konfidenzintervalle 213

5.3.2 Intervall fiir fj. einer Normalverteilung, a^ bekannt . . 214

5.3.3 Intervall fiir /i einer beliebigen Verteilung, <j bekannt 215

5.3.4 Intervall fiir // einer Normalverteilung, (j^ unbekannt . 217

5.3.5 Intervall fiir fi einer beliebigen Verteilung, cr unbekannt218

5.3.6 Intervall fiir cr einer Normalverteilung 218

5.3.7 Intervall fiir eine Wahrscheinlichkeit oder einen Anteils-wert 219

5.3.8 Wahl des Stichprobenumfangs 221

5.3.9 Intervall fiir p bei Normalverteilung 224

5.4 Beispiel: Schatzung bei Aktienrenditen 224

5.5 Erganzungen 228

5.5.1 Beste lineare Schatzung eines Erwartungswerts . . . . 228

5.5.2 EfRzienz von Punktschatzern 229

5.5.3 Robuste Schatzung 230

5.5.4 Bayes-Schatzer 231

5.6 Anhang: Verwendung von Excel und SPSS 234

Page 11: Wahrscheinlichkeitsrechnung und schließende Statistik

INHALTSVERZEICHNIS xi

6 Hypothesen tes t s 237

6.1 Grundbegriffe 238

6.2 Tests fur Erwartungswerte 243

6.2.1 Tests flir einen Erwartungswert 244

6.2.2 Vergleich zweier Erwartungswerte 252

6.2.3 Vergleich von Erwartungswerten bei verbundener Stich-probe 257

6.3 Tests fiir Varianzen 261

6.3.1 Tests fiir eine Varianz 261

6.3.2 Vergleich zweier Varianzen 262

6.4 Tests fiir Wahrscheinlichkeiten und Anteilswerte 265

6.4.1 Tests fiir eine Wahrscheinhchkeit 266

6.4.2 Vergleich zweier Wahrscheinlichkeiten 267

6.5 Anpassungs- und Unabhangigkeitstests 269

6.5.1 x^-Statistik 270

6.5.2 x^'Anpassungstests 271

6.5.3 x^-Unabhangigkeitstests 275

6.6 Erganzungen 281

6.6.1 Vergleich mehrerer Erwartungswerte (einfache Varianz-analyse) 281

6.6.2 Vergleich mehrerer Varianzen 283

6.6.3 Vergleich mehrerer Wahrscheinlichkeiten 285

6.7 Anhang: Verwendung von Excel und SPSS 288

7 Lineare Regression 291

7.1 Lineare Einfachregression 291

7.1.1 Das Modell der linearen Einfachregression 292

7.1.2 Punktschatzung der Koeffizienten 294

7.2 Intervallschatzung und Tests 299

7.2.1 Intervallschatzung der Parameter 300

Page 12: Wahrscheinlichkeitsrechnung und schließende Statistik

xii INHALTSVERZEICHNIS

7.2.2 Tests ftir die Parameter 301

7.3 Prognose bei Einfachregression 304

7.4 Lineare Mehrfachregression 306

7.5 Erganzungen 310

7.5.1 ML-Schatzung einer Unearen Einfachregression . . . . 310

7.5.2 Eigenschaften der Schatzer 311

7.5.3 Lineare Mehrfachregression in Matrizendarstellung . . 313

7.6 Anhang: Verwendung von Excel und SPSS 316

Tabellenanhang 317

Literaturverzeichnis 335

Index 339

Page 13: Wahrscheinlichkeitsrechnung und schließende Statistik

Kapitel 0

Einfiihrung

Unter Statistik versteht man allgemein die methodische Erhebung und Aus-wertung von Daten. Statistik als Methodenlehre gliedert sich in zwei grofie Bereiche, die beschreibende Statistik und die schliefiende Statistik. Die letztere nennt man auch induktive Statistik oder statistische Inferenz.

Schliefiende Statistik bedeutet so viel wie Schlussfolgerung aus Daten. Dies ist eine Art Logik, die es erlaubt, aus vorliegenden Daten Schllisse zu Zie­hen. Allerdings gelten die betreffenden Folgerungen nicht mit Sicherheit, sondern nur „mit grofier Wahrscheinlichkeit" und unter bestimmten Annah-men iiber die Entstehung der Daten. In der statistischen Inferenz werden die beobachteten Daten als Ergebnisse von Zufallsvorgangen angesehen und im Rahmen von Wahrscheinlichkeitsmodellen analysiert. Die Wahrscheinlich-keitsrechnung bildet deshalb die Grundlage der statistischen Inferenz.

Die wirtschaftswissenschaftliche Theorie macht Aussagen iiber okonomische Grofien und ihre Beziehungen untereinander. Diese Aussagen beziehen sich auf reale Sachverhalte. Ihre Giiltigkeit kann anhand von Beobachtungen des wirtschaftlichen Geschehens bestatigt oder widerlegt werden. Die schliefiende Statistik stellt Methoden bereit, um Aussagen der Theorie anhand von Be-obachtungsdaten als Hypothesen zu testen. Aufierdem umfasst sie Methoden, um unbekannte Modellparameter zu schdtzen und um klinftige Entwicklungen zu prognostizieren.

Beobachtungen mlissen zunachst einmal beschrieben und gemessen werden. Die Beobachtung und Messung des wirtschaftlichen Geschehens und die Sammlung der so gewonnenen Daten sind die Aufgaben der Wirtschafts-statistik. Die beschreibende Statistik, auch deskriptive Statistik ge-nannt, dient dazu, die Daten unter bestimmten Aspekten zu beschreiben und die in den Daten enthaltene Information auf ihren - ftir eine gegebene Prage-

Page 14: Wahrscheinlichkeitsrechnung und schließende Statistik

2

Theorie

i

( 3. EiNFUHRUNG

Empirie

i Testen Messen Schatzen Beschreiben

stellung - wesentlichen Kern zu reduzieren. In diesem Sinne geht die beschrei-bende Statistik der schliefienden Statistik voraus.

Der Wirtschaftswissenschaftler braucht die Wahrscheinlichkeitsrechnung nicht nur im Rahmen der statistischen Auswertung von Daten. Zahlreiche okonomische Theorien - etwa des Konsumverhaltens, der Investition und der Finanzierung - enthalten Begriffe der Wahrscheinlichkeitsrechnung wie Wahr-scheinUchkeitsverteilung, Erwartungswert und Varianz. Ohne soHde Kennt-nisse der WahrscheinHchkeitsrechnung ist der Zugang zu zentralen Bereichen der mikrookonomischen Theorie und der betriebswirtschafthchen Risikoana-lyse nicht moghch.

Die folgenden drei Beispiele soUen Anwendungen von Wahrscheinhchkeits-modellen in den Wirtschaftswissenschaften illustrieren:

Beispiel 0.1 (Geldanlage in Aktien): Die kilnftige Rendite einer Aktie (Ausschiittungen plus Kursdifferenzen) kann als eine „Zufallsvariable^', das ist das Ergebnis eines Zufallsvorgangs, modelliert werden. Sie wird dann ins-besondere durch ihren mittleren Wert („Erwartungswert") und ihre Streuung („Varianz'^) charakterisiert. Die Varianz stellt ein Mafi fiir das Risiko der Aktie dar. Zieht ein Anleger mehrere Aktien in Betracht, ist eine fiir ihn giinstige Diversifikation, das ist Mischung, des Portefeuilles zu bestimmen. Grundsdtzlich wird durch Diversifikation das Risiko verkleinert; Verluste der einen Aktie konnen durch Gewinne einer anderen kompensiert werden. Jede Mischung hat eine bestimmte Varianz und einen bestimmten Erwartungswert des Portefeuilleertrags zur Folge.

Beispiel 0.2 (Personelle Einkommensverteilung): Unter der personellen Ein­kommensverteilung versteht man die Verteilung der Einkommen der Haus-halte (oder Individuen) einer Population. Die personelle Einkommensvertei­lung Idsst sich im Rahmen eines Wahrscheinlichkeitsmodells darstellen: In-dem man eine Einheit aus der Population „zufdllig zieht", wird die Hohe ih-res Einkommens zu einer Zufallsvariablen. Die WahrscheinUchkeitsverteilung dieser Zufallsvariablen entspricht der Einkommensverteilung in der Popula­tion. Diese Verteilung Idsst sich durch theoretische Uberlegungen begriinden und/oder auf der Grundlage von empirischen Untersuchungen spezifizieren.

Page 15: Wahrscheinlichkeitsrechnung und schließende Statistik

Von Bedeutung sind hier bestimmte Parameter der Verteilung, wie der Er-wartungswert (der dem mittleren Einkommen in der Population entspricht), die Streuung und bestimmte Quantile.

Beispel 0.3 (Ereignisanalyse): Zwischen zwei interessierenden Ereignissen, etwa dem Beginn und dem Ende der Arbeitslosigkeit einer Person oder dem Beginn eines Versicherungsvertrags und dem Eintreten des ersten versicher-ten Schadens, verstreicht eine gewisse Zeit. Diese Zeitdauer wird in der Er­eignisanalyse als Zufallsvariable aufgefasst und ndher untersucht. Auch hier ergibt sich das Problem, wie ihre Verteilung zu spezifizieren und durch Para­meter zu charakterisieren ist

Verfahren der schliefienden Statistik finden in vielen Bereichen der Wirt-schafts- und Sozialwissenschaften Anwendung, besonders in der empirischen Wirtschaftsforschung. Wenn ein WahrscheinUchkeitsmodell unbekannte Para­meter enthalt, sind diese aus Daten zu schatzen. Weiterhin sind Hypothesen iiber die Parameter zu priifen. Wir geben im Folgenden zwei spezielle Bei-spiele fiir die Anwendung von Methoden der schliefienden Statistik:

Beispiel O.4 (Makrookonomische Konsumfunktion): Abbildung 1 enthalt den privaten Konsum CH und das verfugbare Einkommen der privaten Haushal-te y ^ in den Jahren 1974 bis 1992 zu konstanten Preisen (in DM). Die in den verschiedenen Jahren t beobachteten Wertepaare {CH^t^^H t) ^^^^ ^^^ Punkte dargestellt, dazu eine Gerade, die aufgrund einer linearen Regression,

CH^t=(3o + (3iY}i, + ut^

CH

1400 4

1300

1200-1

1100-1

1000

900

800 H

I I I I I I T "

900 1000 1100 1200 1300 1400 1500

y'V H

Abbildung 1: Lineare Regression des privaten Konsums CH auf das verfugbare Einkommen Y^ der privaten Haushalte

Page 16: Wahrscheinlichkeitsrechnung und schließende Statistik

0. EiNFUHRUNG

berechnet wurde. Dabei wird die Steigung Pi als marginale Konsumneigung und der Achsenabschnitt PQ als autonomer Konsum bezeichnet. Es stellt sich die Frage, wie PQ und Pi zu schdtzen sind und wie sich der Konsum fiir spdtere Jahre prognostizieren Idsst. Von Interesse ist auch, ob die Annahme eines linearen Zusammenhangs gerechtfertigt ist oder ob eher ein nichtlinearer Zusammenhang unterstellt werden muss.

Beispiel 0.5 (Analyse von Finanzmarktdaten): Finanzmarktdaten wie die Kurse von Aktien und von Wdhrungen werden unter vielfdltigen Aspekten un-tersucht. Fasst man die Rendite einer Aktie als Zufallsvariable auf so stellt sich die Frage, welche parametrische Verteilungsannahme - etwa die der Nor-malverteilung - dem empirischen Befund angemessen ist. Die erwartete Ren­dite und die Volatilitdt der Rendite miissen geschdtzt und die Genauigkeit der Schdtzungen beurteilt werden. Ferner ist zu untersuchen, ob erwartete Ren­dite und Volatilitdt im Zeitablauf konstant sind, oder ob sie sich verdndern.

Abschliefiend geben wir eine kurze Definition von Statistik. Statistik ist die methodische Erhebung und Auswertung von Daten, insbesondere

• die methodische Erhebung und Bereinigung der Daten,

• die graphische Darstellung,

• das Charakterisieren durch Kennzahlen,

• das Schatzen unbekannter Parameter,

• das Testen von Hypothesen,

• die Prognose kunftiger Entwicklungen.

Die letzten drei Aufgaben und Teile der ersten werden der schhefienden Sta­tistik, die tibrigen der beschreibenden Statistik zugerechnet.

Erganzende Liter at ur zu Kapitel 0:

Die meisten Lehrbiicher zur Wahrscheinlichkeitsrechnung und schhefienden Statistik enthalten Einftihrungen in deren typische Fragestellungen und An-wendungsgebiete. Wir verweisen beispielhaft auf Fahrmeir et al. (2004) und Bomsdorf (2002). Eine popularwissenschaftHche stichwortartige Einfiihrung bietet Kramer (2002).

Page 17: Wahrscheinlichkeitsrechnung und schließende Statistik

Kapitel 1

Zufallsvorgange und Wahrscheinlichkeiten

Im taglichen Leben und besonders im Wirtschaftsleben hat man es haufig mit Vorgangen zu tun, deren Ergebnis zunachst nicht bekannt, sondern „vom Zufall abhangig" ist. Als Beispiele seien genannt: eine Ausspielung im Lot­to, die Bedrohung einer landwirtschaftlichen Region durch Hagelschlag oder die eines Radfahrers durch Unfall, die Entwicklung des Borsenkurses einer Aktie, die Vorteilhaftigkeit einer bestimmten Investition. Die Wahrschein-lichkeitsrechnung stellt mathematische Modelle und Rechenverfahren bereit, die es erlauben, die zufallsabhangigen Ergebnisse eines solchen Vorgangs zu modellieren und die Wahrscheinlichkeiten ihres Eintretens zu berechnen.

In diesem Kapitel werden die wichtigsten Grundbegriffe zur Modellierung zufalliger Vorgauge vorgestellt und an einfachen Beispielen illustriert.

1.1 Zufallsvorgange

Unter einem Zufalls vor gang wollen wir zunachst^ einen Vorgang verstehen, bei dem zwar

• im Voraus feststeht, welche moglichen Ergebnisse der Vorgang haben kann,

• das tatsachliche Ergebnis jedoch im Voraus nicht bekannt ist.

•^Dies ist noch keine ganz prazise Definition; eine solche folgt im Abschnitt 1.2.1 mit Hilfe des formalen BegrifFs der Wahrscheinlichkeit.

Page 18: Wahrscheinlichkeitsrechnung und schließende Statistik

6 1. ZUFALLSVQRGANGE UND W A H R S C H E I N L I C H K E I T E N

Einen Zufallsvorgang, der geplant und kontroUiert ablauft, nennt man auch ein Zufallsexperiraent. Ein Beispiel fiir ein Zufallsexperiment ist die be-kannte Ziehung der Lottozahlen. Ein Zufallsexperiment ist prinzipiell beliebig oft unter gleichen Bedingungen wiederholbar. Demgegentiber sind die meisten Zufallsvorgange, die im Wirtschaftsleben eine Rolle spielen, keine Zufallsex-perimente, da die Bedingungen, unter denen sie stattfinden, nicht kontroUiert werden konnen und sich im Zeitablauf andern.

1.1.1 Ergebnismengen

Die Menge aller moglichen Ergebnisse eines Zufallsvorgangs heifit Ergebnis-menge und wird mit Q bezeichnet. Ein Element to eO. heifit Ergebnis. Die Anzahl \Q.\ der Elemente von Q entspricht also der Anzahl der Ergebnisse; sie kann endlich oder unendlich sein. Es folgen Beispiele von Zufallsvorgangen und ihren Ergebnismengen.

Beispiel 1.1 (Ziehen einer Losnummer): In einem Behdlter befinden sich N Lose, die von 1 bis N durchnummeriert sind. Ein Los wird gezogen. Es ist ^ = {1,2, . . . , iV}.

Beispiel 1.2 (Wiirfel): Ein Wurfel wird einmal geworfen. Die Ergebnismenge 25^0 = {1,2,3, 4,5,6}.

Beispiel 1.3 (Roulette): Beim Roulette wird eine Zahl ausgespielt. Hier ist f] = {0 , l , . . . , 36} .

Beispiel 1.4 (Dreimaliger Miinzwurf): Das Zufallsexperiment bestehe darin, dass eine Miinze dreimal nacheinander geworfen wird. Jedes Ergebnis des Zufallsexperiments ist dann ein Tripel von K's (fiir Kopf) und Z's (fiir Zahl), die Ergebnismenge also

Q = {{K,K,K),{K,K,Z),{K,Z,K),{Z,K,K),

{K, Z, Z), (Z, K, Z), (Z, Z, K), {Z, Z, Z)} .

Beispiel 1.5 (Lotto): Beim Lotto „6 aus 49" werden aus den Zahlen 1 bis 49 zundchst sechs Gewinnzahlen und dann aus den verbleibenden Zahlen eine Zusatzzahl gezogen. a) Die Menge aller moglichen Ziehungen von sechs Gewinnzahlen ist

uj ist sechselementige Q = iuj = {XI,X2,XS,X4,X5,XQ}

Teilmenge von {1 ,2 , . . . , 49}

b) Die Menge aller moglichen Ziehungen von sechs Gewinnzahlen mit Zu­satzzahl ist

n= {LJ = {{xi,...,xe},{x7}) {xi, a;2,..., xe} ist sechselementige Teilmenge von { 1 , . . . , 49} und X7 e { l , 2 , . . . , 4 9 } \ { x i , . . . , X 6 }

Page 19: Wahrscheinlichkeitsrechnung und schließende Statistik

1.1. ZUFALLSVORGANGE

Man beachte, dass die sechs Gewinnzahlen alle verschieden sind und es bei ihrer Ziehung nicht auf die Reihenfolge ankommt. Deshalb notieren wir ein Ergebnis u der Ziehung als Menge von sechs Zahlen. Die Zusatzzahl wird aus den verbleibenden Zahlen ausgespielt Sie ist nicht mit den Gewinnzahlen ver-tauschbar; deshalb notieren wir das Ergebnis der Ziehung mit Zusatzzahl als Paar bestehend aus einer sechselementigen und einer einelementigen Menge.

Beispiel 1.6 („Mensch-drgere-Dich-nichV'): Ein Wiirfel wird solange gewor-fen, bis zum ersten Mai „6" erscheint. Die Menge der Ergebnisse Idsst sich so schreiben:

Q - {(a:i,...,XA;_i,6)|xiG {1,2,3,4,5} / i i r i - 1 , . . . ,fc - l,fc G N}

U{(xi ,X2, . . . ) |x iG {1,2,3,4,5} fiir z - 1 , 2 , . . . }

Dabei besteht die zweite Menge dieser Vereinigung aus alien unendlichen FoU gen, in denen nur die Zahlen von 1 bis 5 vorkommen. Es ist zwar zu erwarten, dass in praktisch alien Wurffolgen irgendwann eine „6" geworfen wird. Man kann jedoch nicht prinzipiell ausschlieflen, dass nie eine „6" auftritt. Off en-bar ist |Q| = oo.

Bei den Beispielen 1.1 bis 1.6 handelt es sich um Glucksspiele, also Zufalls-experimente. Solche Glucksspiele sind einfache Modelle, an denen im Fol-genden die Grundbegriffe der Wahrscheinlichkeitsrechnung veranschaulicht werden und die komplizierteren Zufallsvorgangen als Bezugspunkt und zum Vergleich dienen. Die beiden nachsten Beispiele betreffen Zufallsvorgange im Bereich der Investition und Finanzierung, die keine Experimente sind.

Beispiel 1.7: Nettoertrag einer Investition in €, die ein Unternehmen durch-fuhrt. Als Ergebnismenge wdhlt man fi = R oder ein geeignetes Intervall.

In vielen Anwendungen ist es schwierig, die Menge der moglichen Ergebnisse eines Zufallsvorgangs explizit zu beschreiben, so im folgenden Beispiel.

Beispiel 1.8 (Rentenfonds): Ein Bankkaufmann erwdgt, einen neuen Invest-mentfonds in festverzinslichen Wertpapieren aufzulegen. Fiir ihn ist der Zu-fallsvorgang „Entwicklung des Rentenmarkts in den nachsten funf Jahren" von Bedeutung. Wie soil er f] festlegen?

1.1.2 Ereignisse und ihre Verkniipfung

Unter einem Ereignis versteht man eine Zusammenfassung von Ergebnissen. Ein Ereignis ist also eine Teilmenge von fi. Ereignisse werden meist mit A, J5, C , . . . oder Ai, ^2 , • • • usw. bezeichnet. Wenn das Zufallsexperiment ein u; G als Ergebnis hat, sagt man, das Ereignis A tritt ein.

Fur jedes Ergebnis to gilt uj e Vt und u; ^ 0 . Die leere Menge 0 nennt man deshalb das unmogliche Ereignis, die gesamte Ergebnismenge f2 das

Page 20: Wahrscheinlichkeitsrechnung und schließende Statistik

8 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

sichere Ereignis. Jedes Ereignis der Form {u} ist ein Elementarereignis. Q ist also die Vereinigung aller Elementarereignisse.

Wenn A C B ist, sagt man, dass das Eintreten des Ereignisses A das Ein­treten des Ereignisses B nach sich zieht (auch: dass das Eintreten von A das Eintreten von B impliziert); denn fiir jedes Ergebnis LO £ A folgt dann ujeB.

Beispiel 1.9: In einem Horsaal befinden sich N Studierende. Aus einer Lostrom-mel, die N durchnummerierte Lose enthdlt (vgl. Beispiel 1.1), zieht jeder Stu­dierende ein Los. Anschliefiend wird der Studierende, der eine vorher festge-legte Nummer - z.B. die Nummer 10 - gezogen hat, befragt. Wir nennen ihn oder sie Toni und betrachten die folgenden Ereignisse:

A = Toni hat bereits die Klausur in „Deskriptive Statistik und

Wirtschaftsstatistik'^ bestanden.

B — Toni hat bereits die Klausur in „ Wahrscheinlichkeitsrechnung und

statistische Inferenz^' bestanden.

F = Toni ist eine Frau.

M = Toni ist ein Mann.

W = Toni hat in der Schule bereits Unterricht in Wahrscheinlichkeits­

rechnung gehabt.

Im Beispiel 1.9 handelt es sich um eine so genannte Zufallsziehung aus einer endlichen Grundgesamtheit. Die Grundgesamtheit besteht aus Un-tersuchungseinheiten, die bestimmte Merkmalsauspragungen besitzen. Ein Ereignis entspricht hier einer Teilmenge von Untersuchungseinheiten, die ei­ne bestimmte Merkmalsauspragung aufweisen.

Beispiel 1.2 (Fortsetzung): Einmaliges Werfen eines Wurfels. Hier sind die Elementarereignisse

{1}, {2}, {3}, {4}, {5}, {6}.

Beispiele fiir weitere Ereignisse sind

A = {2,4,6} (= Augenzahl gerade),

B = {1,3,5} (= Augenzahl ungerade).

Offensichtlich zieht das Eintreten von C = {6} (= Augenzahl „6") das Ein­treten von A nach sich.

Aus Ereignissen lassen sich durch einfache logische Verkniipfungen (so ge­nannte Ereignisoperationen) neue Ereignisse bilden:

Page 21: Wahrscheinlichkeitsrechnung und schließende Statistik

1.1. ZUFALLSVORG ANGE

Das Durchschnittsereignis A D B tritt genau dann ein, wenn A und B eintreten. Die Ereignisse A und B hei-fien unvereinbar oder disjunkt, wenn AnB = 0.

• »

Das Vereinigungsereignis AUB tritt genau dann ein, wenn A oder B (oder beide) eintreten.

i ID Das DifFerenzereignis A\B tritt ge­nau dann ein, wenn A und nicht B eintritt.

A Das Ereignis f]J \ A heifit Komple-mentarereignis von7l (in Zeichen A). Es tritt genau dann ein, wenn A nicht eintritt. OfFenbar gilt (A) = A.

Durchschnitts- und Vereinigungsbildung lassen sich leicht auf endlich viele Ereignisse Ai, A2 , . . . , ^n verallgemeinern:

Das Durchschnittsereignis 0?=! ^* ^ ^ ^ genau dann ein, wenn alle Ai eintreten. Das Vereinigungsereignis Ur=i ^« ^ ^ ^ genau dann ein, wenn mindestens ein Ai eintritt. Die Ereignisse i4i, ^2? • • • 5 ^n heifien paarweise disjunkt, wenn Ai n Aj = 0 ftir alle i, j = 1 , . . . , n, fiir die i ^ j ist, gilt.

Die Ereignisse Ai, ^ 2 , . . . , ^n bilden eine vollstandige Zerlegung (= Par­tition von Q, wenn sie nichtleer und paarweise disjunkt sind und ihre Verei-

Page 22: Wahrscheinlichkeitsrechnung und schließende Statistik

10 1, ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

nigung insgesamt Q ergibt (vgl. Abbildung 1.1), also:

Ai y^ 0 fur alle i,

Ai nAj = 0 fiir alle i ^ j , n

[JAi = n.

Abbildung 1.1: Die Mengen ^1,^2, A3 und A4 bilden eine vollstandige Zerlegung von Q.

Beispiel 1.3 (Fortsetzung): Ausspielen einer Zahl beim Roulette, mit Q = { 0 , 1 , . . . , 36}. Einen Roulettespieler interessieren besonders die folgenden Er­eignisse (siehe Abbildung 1.2):

Z = {0} (= Zero) U = { 1 , 3 , . . . , 35} {= Impair) G = {2,4, . . . ,36} l=Pair) R = {1,3,5,7,9,12,14,16,18,19,21,23,25,27,30,32,34,36} (= Rouge) N = {2,4,6,8,10,11,13,15,17,20,22,24,26,28,29,31,33,35} (= Noir) M = {1 ,2 , . . . , 18} (= Manque) G = {19,20,. . . , 36} {= Passe)

Offenbar bilden die drei Ereignisse Z, U und G eine vollstandige Zerlegung von Q. Ebenso stellen die drei Ereignisse Z^R und N eine vollstandige Zer­legung dar. Dies gilt auch fiir Z, M und P.

Regeln fiir Ereignisoperationen Fiir Ereignisoperationen gelten die nachfolgenden Regeln, die aus der Mengenlehre bekannt sind.

Page 23: Wahrscheinlichkeitsrechnung und schließende Statistik

1.1. ZUFALLSVORG ANGE 11

Abbildung 1.2: Roulette-Tisch

AUB =:BUA AnB = BnA

AU{BUC) An{BnC)

{AUB)UC {AnB)nC

AU{BnC) = {AUB)n{AuC) An {B u C) = {An B)ulAnC)

AUB = AnB AnB=AuB

Kommutativgesetze

Assoziativgesetze

Distributivgesetze

De Morgansche Regeln

Page 24: Wahrscheinlichkeitsrechnung und schließende Statistik

12 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

Potenzmenge und Ereignisalgebra Die Gesamtheit aller Teilmengen von Q. ist die Potenzmenge

V{n) = {A\ A ist Teilmenge von n},

Jedes Ereignis ist also ein Element der Potenzmenge. Welche Elemente der Potenzmenge man als Ereignisse ansieht, hangt natiirlich von der konkreten Fragestellung ab.

Bei endlichem Q liegt es nahe, alle Teilmengen von f] als Ereignisse anzuse-hen. Wenn \Q.\ = n ist, hat namlich die Potenzmenge ebenfalls endlich viele Elemente, und zwar

|p ( f ] ) |=2 l" ' = 2 ^ . (1.1)

Wenn jedoch fi unendlich ist, ist die Potenzmenge ebenfalls unendlich. Dann betrachtet man in der Regel nicht alle Teilmengen von fi als Ereignisse, son-dern beschrankt sich auf einen Teil von ihnen. Sei A eine Menge von Teil­mengen von Q, A C V{^). Lediglich die Elemente von A werden dann als Ereignisse bezeichnet, nicht jedoch die iibrigen Teilmengen von fi. Um mit den Ereignissen in A sinnvoll rechnen zu konnen, fordert man, dass A in Be-zug auf die oben definierten Ereignisoperationen abgeschlossen ist, d.h., dass die Verkniipfung von Ereignissen in A mit „und", „oder" und „nicht" wieder zu Ereignissen in A fiihrt. Im Einzelnen soil gelten:

(Al) fi ist ein Ereignis, d.h. Q e A.

(A2) Das Komplement eines jeden Ereignisses ist ein Ereignis, d.h. AeA =^ IGA.

(A3) Die Vereinigung von je zwei Ereignissen ist ein Ereignis, d.h. A.BeA => AUBGA.

Ein Mengensystem A C P(r^), das diese drei Forderungen erfiillt, wird als Ereignisalgebra bezeichnet. Jede Ereignisalgebra enthalt damit mindestens das sichere Ereigns Q und das unmogliche Ereignis 0 . Offenbar ist V{^) selbst eine Ereignisalgebra.

Beispiel 1.3 (Fortsetzung): Wenn ein Spieler beim Roulette grundsdtzlich nur auf „Rouge" oder auf „Noir" setzt, interessieren ihn in erster Linie diese beiden Ereignisse. Die kleinste Ereignisalgebra, die die Ereignisse R und N enthalt, ist

A = {n,0,R,N,'R,T^,Z,'Z).

(Man prilfe die fiir eine Ereignisalgebra geforderten Eigenschaften nach!)

Allgemein folgt aus (A2) und (A3): Fiir beliebige A und B e A gilt 'A e A und B e A wegen (A2) und aui3erdem AUB E A wegen (A3), also (wiederum wegen (A2)) AnB = AUBeA. In einer Ereignisalgebra A gilt deshalb:

Page 25: Wahrscheinlichkeitsrechnung und schließende Statistik

1.2. WAHRSCHEINLICHKEITEN 13

• Der Durchschnitt von je zwei Ereignissen ist ein Ereignis,

A.BeA = » AnBeA.

Mittels vollstandiger Induktion lasst sich weiter folgern, dass eine Ereignis-algebra A nicht nur in Bezug auf Vereinigung und Durchschnitt von zwei Ereignissen, sondern auch beziiglich Vereinigung und Durchschnitt von end-lich vielen Ereignissen abgeschlossen ist:

• Die Vereinigung von je n Ereignissen ist ein Ereignis, n

Ai,A2,..,yAneA ==> [JAieA.

• Der Durchschnitt von je n Ereignissen ist ein Ereignis,

AuA2,.,.,AneA => f]AieA. i=l

Bei unendlichen Ergebnismengen, etwa wenn Q ein Intervall der reellen Zah-len ist, fordert man statt (A3) die Eigenschaft

(A3') Die Vereinigung einer jeden unendlichen Folge von Ereignissen ist ein Ereignis,

oo

Ai,A2,As,,..eA => [JAieA.

Ein Mengensystem A^ das (Al), (A2) und (A3') erfiillt, bezeichnet man als eine Ereignis-cr-Algebra. Offenbar ist die Forderung (A3') starker als die Forderung (A3). Dann gilt auch:

• Der Durchschnitt einer jeden unendlichen Folge von Ereignissen ist ein Ereignis,

Ai,A2,As,...eA = ^ f]AieA. i=l

1.2 Wahrscheinlichkeiten

Bei einem Zufallsvorgang wird jedem Ereignis eine Zahl zwischen 0 und 1 als Wahrscheinlichkeit fur sein Eintreten zugeordnet. Wie immer diese Zu-ordnung im konkreten Fall erfolgt, es miissen gewisse for male Regeln gelten, damit man mit den Wahrscheinlichkeiten in sinnvoller Weise rechnen kann. Die Kolmogoroffschen Axiome (Abschnitt 1.2.1) bestehen aus drei solchen Regeln, die besonders einfach sind und aus denen sich alle weiteren Rechen-regeln fiir Wahrscheinlichkeiten ableiten lassen.

Page 26: Wahrscheinlichkeitsrechnung und schließende Statistik

14 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

1.2.1 For male Definition der Wahrscheinlichkeit

1st f eine Ergebnismenge und A eine zugehorige Ereignisalgebra, so definieren wir zunachst die Wahrscheinlichkeit von Ereignissen formal als Abbildung

P: A —> R, A K-> P(A) ,

die folgenden drei Forderungen geniigt:

(Kl)

(K2)

(K3)

P (^) > 0 fiir alle A,

p{n) = i,

P{AUB) = P{A) + P{B), falls AnB = = 0.

Nichtnegativitat

Normierung

AdditivitSt

Nun konnen wir auch den Begriff des Zufallsvorgangs praziser fassen. Ein Zufallsvorgang besteht aus einer Ergebnismenge, einer Ereignisalgebra und einer gemaiS (Kl), (K2) und (K3) definierten Wahrscheinlichkeit.

Eigenschaften und Rechenregeln Fiir Ereignisse A und B gilt:

P{A) = 1-P{A), (1.2)

P{&) = 0, (1.3)

PiA) < P ( S ) , falls A c s , (1.4)

0 < P{A) < 1. (1.5)

BEWEIS Die Formel (1.2) fiir die Wahrscheinlichkeit des Komplementarer-eignisses beweist man so: Wegen (K3) mit B = A und (Kl) gilt

P{A) + P(A) = PiA U 1 ) = P(n) = 1,

also P(A) = 1 - P{A). Setzt man in (1.2) speziell A — Q, ein, folgt

P ( 0 ) = P(fi) = 1 - P{n) = 1 - 1 = 0,

d.h. (1.3). Gelte nun A C B; dann ist B = AL\{B\A) und An{B\A) = 0, also

P{B) = P{A) + P{B \ A) > PiA),

da PiB\A) > 0; es folgt (1.4). Aus (Kl), (K2) und (1.4) schlieiSt man (1.5). D

Eine Wahrscheinlichkeit ist demnach eine nichtnegative Funktion, die jedem Ereignis eine Zahl zwischen 0 und 1 zuordnet und additiv in dem Sinne ist,

Page 27: Wahrscheinlichkeitsrechnung und schließende Statistik

1.2. WAHRSCHEINLICHKEITEN 15

dass die Wahrscheinlichkeit einer Vereinigung zweier disjunkter Ereignisse gleich der Summe der beiden einzelnen WahrscheinUchkeiten ist.

Fiir die WahrscheinUchkeit des Differenzereignisses A\B = AnB ergibt sich allgemein die Formel

P{A\B) = P{A)-P{AnB) , (1.6)

und speziell, wenn B in A enthalten ist,

P{A\B) = P{A) - P{B), falls Be. A. (1.7)

BEWEIS Da A die disjunkte Vereinigung von A\B und A(^ B ist, gilt P{A) = P{A \B) + P{A n J5), woraus (1.6) folgt. Wenn B C A gilt, ist AnB = B und wir erhalten (1.7). D

Flir drei paarweise disjunkte Ereignisse A, B und C folgt aus der Forderung (K3), dass

P{AUBUC) = P{{AUB)UC) (1.8)

= P{AUB) + P{C)

= P{A) + P{B) + P{C),

Allgemein zeigt man durch vollstandige Induktion fiir endlich viele Ereignisse A i , . . . , An: (K3) ist aquivalent zu

P(Ai U A2 U . . . U An) = P(Ai) + P(A2) + . . . + P(An),

sofern Ai n Aj = & fiir alle i j^ j . Kurz:

sofern die Ai paarweise disjunkt sind.

Fiir Ereignisse A^B und C, die nicht notwendig paarweise disjunkt sind, gel-ten die Addit ionssatze

P{AUB) --PiAUBUC) --

= P{A) + P{B)-P{AnB) , (1.10) = P{A) + PiB) + P{C) (1.11)

-P{AnB)-P{BnC)-P{AnC) +P(AnBnC) .

BEWEIS Den Additionssatz (1.10) fiir zwei Mengen A und B erhalt man so: Da AU B die disjunkte Vereinigung von A\B und B ist, gilt

P{A UB) = P{A \B) + P{B) = P{A)-P{AnB)-{- P{B),

Page 28: Wahrscheinlichkeitsrechnung und schließende Statistik

16 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

letzteres wegen (1.6). Um den Additionssatz (1.11) fiir drei Ereignisse A, B und C zu zeigen, ersetzt man in (1.10) das Ereignis B durch BUC und erhalt

P {AU B U C) = P {A) + P {B U C) - P {An {B U C)) ,

Mehrfache Anwendung von (1.10) liefert

P{BUC) = P{B)-\-P{C)-P{BnC) ,

p {An {BUC)) = P{{AnB)u{AnC)) = P{A nB)-\- P{A nc)- P{{A nB)n{An C)) = P{A nB) + P{A nC)-P{AnBnC),

und alles zusammen ergibt (1.11). •

Wir illustrieren einige Rechenregeln fiir Wahrscheinlichkeiten an einem ein-fachen Beispiel:

Beispiel 1.10: In einer Kleinstadt erscheinen die Lokalbldtter „Abendzeitung^^ und „BildposV'. Die Wahrscheinlichkeit, dass ein Einwohner

die Abendzeitung liest, sei 0.6,

die Bildpost liest, sei 0.5,

die Abendzeitung oder die Bildpost (oder beide) liest, sei 0.9.

Wie grofi ist die Wahrscheinlichkeit, dass ein Einwohner

a) beide Lokalbldtter liest,

b) keines der beiden Lokalbldtter liest,

c) ein Lokalblatt, aber nicht beide liest?

zu a) Bezeichne A das Ereignis, dass der Einwohner die Abendzeitung liest, B dass er die Bildpost liest. Es ist

P{A nB) = P{A) + P{B) - P{A UB) = 0.6 + 0.5 - 0.9 = 0.2 .

zu b) Es ist

P{A nB)= P{A \JB) = l - P{A u 5 ) - 1 - 0.9 = 0.1.

zu c) Es ist

P{{A\JB)\{AnB)) = P{AuB)-P{{AuB)n{AnB))

= P{AuB)-P{AnB) = 0.9-0.2 = 0.7.

Page 29: Wahrscheinlichkeitsrechnung und schließende Statistik

1.2. WAHRSCHEINLICHKEITEN 17

Allgemeiner fordert man von einer Wahrscheinlichkeit die Additivitat in Be-zug auf unendliche Folgen disjunkter Ereignisse. Als a-additive Wahr­scheinlichkeit wird eine Abbildung einer Ereignis-a-Algebra in die reellen Zahlen bezeichnet, fiir die (Kl) und (K2) gilt, sowie an Stelle von (K3) die starkere Bedingung (K3'),

(K3') P( [jAi] = E P{Ai), falls Ai r]Aj = 0 fiir i^j.

Die Regeln (Kl), (K2) und (K3') fiir eine cr-additive Wahrscheinlichkeit P nennt man auch die KolmogorofFschen Axiome^.

Die KolmogorofFschen Axiome sagen jedoch nichts dariiber aus, wie bei ei-nem konkreten Zufallsvorgang die Wahrscheinlichkeiten numerisch festgelegt werden sollen. Wie das bei einer bestimmten Art von Zufallsexperimenten, namlich den Laplace-Experimenten, geschehen kann, wird in Abschnitt 1.2.2 gezeigt. Im Ubrigen verweisen wir auf die erganzenden Abschnitte 1.4.2 und 1.4.3 iiber subjektive Wahrscheinlichkeiten und die praktische Bestimmung von Wahrscheinlichkeiten.

1.2.2 Laplace-Experiment e

Ein Zufallsexperiment heifit Laplace-Experiment, wenn fi eine Menge mit n Elementen ist, fi = {^1,^2, • • • , ^ n } , und die Wahrscheinlichkeit eines Ereignisses AdO. durch

''<•*) " W ^ l ' ^ l

gegeben ist, in anschaulichen Wort en:

Anzahl der (fiir das Eintreten von A) giinstigen Ergebnisse Anzahl der moglichen Ergebnisse

Bei einem Laplace-Experiment besitzt deshalb jedes Elementarereignis {a; } die gleiche Wahrscheinlichkeit

P{{^i\) = - ^ z = l , . . . , n . n

Offenbar gilt P {A) > 0 fiir alle Ac^ sowie P (^) - 1 und, falls Ai, ^2 , • • •, Am paarweise disjunkte Ereignisse sind,

/ m \ ^ \ m \ ^ m m ^ m

^ 1 / ^ \^=l /

i = l i = i " i = i

^Sie wurden erstmals 1933 von A.N. KolmogorofF (1903-1987) in seinem Buch „Grund-begriffe der Wahrscheinlichkeitsrechnung" veroffentlicht.

Page 30: Wahrscheinlichkeitsrechnung und schließende Statistik

18 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

P erfiillt also tatsachlich die drei Regeln (Kl) bis (K3), die an eine Wahr-scheinlichkeit gestellt werden. Diese Wahrscheinlichkeit wird als Laplace-Wahrscheinlichkeit oder klassische Wahrscheinlichkeit bezeichnet.

Gliicksspiele, wie das Werfen eines fairen Wiirfels oder die Ziehung der Lot-tozahlen, sind Laplace-Experimente. Wesentlich ist hier eine bestimmte Sym­metric des Zufallsvorgangs, die bewirkt, dass jedes der n moglichen Elemen-tarereignisse mit gleicher Wahrscheinlichkeit auftritt.

Beispiel 1.2 (Fortsetzung): Ein Wiirfel ist Jair", wenn er keine Augenzahl bevorzugt. (Damit ein konkreter Wiirfel als fair bezeichnet werden kann, kon-struiert man ihn aus homogenem Material, von symmetrischer Gestalt und mit glatter Oberfldche.) Das Werfen eines fairen Wiirfels ist ein Laplace-Experiment. Hier ist Ui = i und P{{i}) = | fiir i = 1,.. . ,6. Fiir das Ereignis „Eine ungerade Augenzahl erscheinV gilt

3 1 P(„ungerade Augenzahl") = P({1,3,5}) = -- = - .

6 2

Beispiel 1.3 (Fortsetzung): Auch die Ausspielung beim Roulette ist ein Laplace-Experiment, und zwar mit f] = {0,1, . . . ,36} und P[{i]) = ^ fiir i = 0 , 1 , . . . ,36. Fiir die Ereignisse „Rouge" und „Impair" erhdlt man

18 P{„Rouge") = 37 = 0.4865,

18 P{„Impair") = — = 0.4865.

1.2.3 Anordnung und Auswahl von Objekten (Kombi-natorik)

Die Berechnung von klassischen Wahrscheinlichkeiten bei Laplace-Experi-menten erfordert die Bestimmung von Anzahlen. Die Kombinatorik stellt hierftir geeignete Methoden zur Verfligung. Die nachfolgenden Formeln be-ziehen sich auf das Anordnen bzw. Auswahlen von Objekten.

Anordnung von Objekten 1. Wir betrachten n unterscheidbare Objekte, z.B. n Kugeln, die mit 1 bis n durchnummeriert sind. Jede Anordnung dieser Objekte in einer Reihe wird als Permutation bezeichnet. Fiir die n Objekte gibt es offenbar

n! =n{n-l){n-2) - . . . - l

(gesprochen „n Fakultat") verschiedene Permutationen. Es gilt die Rekursi-onsformel

n\ = n'{n-l)\ f u r n = : l , 2 , . . . , (1.12)

Page 31: Wahrscheinlichkeitsrechnung und schließende Statistik

1.2. WAHRSCHEINLICHKEITEN 19

wobei 0! = 1 gesetzt wird. Es ist 1! = 1 , 2 ! - 2, 3! = 6, 4! = 24 etc.

Beispiel 1.11: Eine Goethe-Ausgabe umfasst vier Bdnde, die von I bis IV nummeriert sind. Wie viele Moglichkeiten gibt es, die vier Bdnde in einem Regal anzuordnen? Es gibt 4! = 24 Moglichkeiten.

2. Gegeben seien wieder n Objekte, von denen ni , n 2 , . . . , n j gleich sind. Es handle sich z.B. um ui Kugeln der Farbe rot, n2 Kugeln der Farbe blau, ns Kugeln der Farbe weifi, etc. Sei n = ni + n2 + ns + . . . + n j . Die Anzahl der verschiedenen Anordnungen der n Objekte ist nun

n\ ni! 722! • . . . • nj\ \n1n2 ' "Uj

da Anordnungen, bei denen Objekte der gleichen Art permutiert werden, nicht unterscheidbar sind. Den obigen Ausdruck bezeichnet man als Multi-nomialkoefflzient.

Im Fall J = 2 schreibt man wegen n2 = n — Ui vereinfacht (^ ) statt (^^^ ). Es gilt

n! nil (n - ni)\

n n — ui

Diesen Ausdruck nennt man Binomialkoeffizient. Setzt man ni = fc, so ergibt sich

k\{n-k)\

fiir fc G N, 0 < /c < n. Wenn k > n ist, setzt man (^) = 0.

Beispiel 1.12: Ein Student besitzt eine grilngebundene dreibdndige Goethe-Ausgabe, eine rotgebundene zweibdndige Schiller-Ausgabe und eine blauge-bundene einbdndige Kleist-Ausgabe. Die Bdnde eines Autors seien dufierlich nicht unterscheidbar. a) Wie viele verschiedene Moglichkeiten hat der Student, die sechs Bdnde in einem Regal anzuordnen, wenn es ihm nur auf die Farben der Einbdnde ankommt? Er hat

6! 6 - 5 - 4 - 3 - 2 . 1 3! .2!- l ! ( 3 - 2 . 1 ) - ( 2 - l ) - l

= 60

Moglichkeiten. b) Wie viele Moglichkeiten gibt es, die sechs Bilcher nach Farben anzuordnen, wenn die Bdnde eines Dichters nebeneinander stehen sollen? Es gibt 3! = 6 Moglichkeiten.

Page 32: Wahrscheinlichkeitsrechnung und schließende Statistik

20 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

Beispiel 1.13: Aus den Ziffern 0 und 1 soil eine endliche Folge der Ldnge n = 10 so gebildet werden, dass 0 und 1 jeweils funfmal vorkommen. Wie viele solcher Folgen gibt es? Dies sind

10! 5!-5!

252

Moglichkeiten.

Binomial- und Multinomialkoeffizienten heifien so, weil sie als Koeffizienten in der allgemeinen binomischen Formel

(a + 6)" = f^('^)a'=6"-^ a,b

bzw. der allgemeinen multinomischen Formel

(ai+a2 + ... + a , r = EUnl.n>i'^T V '

a i , a2 , . . . ,aj e (1.13)

auftreten. Bei der multinomischen Formel erstreckt sich die Summation iiber alle nichtnegativen ganzen Zahlen n i , n 2 , . . . , n j , die sich zu n aufaddieren.

Auswahl von Objekten Gegeben seien n unterscheidbare Objekte, z.B. Kugeln, die mit 1 , . . . , n durch-nummeriert sind. Aus ihnen werden k Objekte ausgewahlt („gezogen"). Zu unterscheiden ist, ob

• mit Oder ohne Zuriicklegen ausgewahlt wird, und ob

• die Reihenfolge, in der die Objekte ausgewahlt werden, beriicksichtigt wird oder nicht. Eine Auswahl mit Berticksichtigung der Reihenfolge wird auch als Variation bezeichnet, eine Auswahl ohne Beriicksichti-gung der Reihenfolge als Kombination.

1. Variationen mit Zuriicklegen Beim Ziehen mit Zuriicklegen unter Berticksichtigung der Reihenfolge gibt es offensichtlich

n'U'n' k Faktoren

verschiedene Moglichkeiten.

Beispiel 1.14- Wie viele Moglichkeiten gibt es, eine endliche Folge der Ldnge 10 aus Nullen und Einsen zu bilden? Es sind

2 . 2 - 2 - . . . - 2 = 2^° -1024 . 10 Faktoren

Page 33: Wahrscheinlichkeitsrechnung und schließende Statistik

1.2. WAHRSCHEINLICHKEITEN 21

2. Variat ionen ohne Zuriicklegen Beim Ziehen ohne Zurlicklegen unter Beriicksichtigung der Reihenfolge gibt es

n{n -- 1) . (n - 2) • ... • (n -

k Faktoren

-k + l) = n!

(n - k)\

verschiedene Moglichkeiten. Hierbei muss k <n vorausgesetzt werden.

Beispiel 1.15: Wie viele vierstellige Zahlen kann man aus den Ziffern 1 , . . . , 9 bilden, wenn alle vier Ziffern verschieden sein sollen? Die Zahl der Moglich­keiten ist hier

9' 9' ( 9 - 4 ) ! 5!

3. Kombinat ionen ohne Zuriicklegen Beim Ziehen ohne Zuriicklegen ohne Beriicksichtigung der Reihenfolge ist die Anzahl der verschiedenen Kom­binationen gleich der Anzahl der Moglichkeiten, aus einer Menge vom Umfang n eine Teilmenge vom Umfang k (mit A; < n) zu entnehmen. Dies sind

n\ k\{n-k)\ \k

13983816

Moglichkeiten, denn die in 2. bestimmte Anzahl muss noch durch k\ dividiert werden, da es in der Menge mit k Elementen auf die Reihenfolge der Elemente nicht ankommt.

Beispiel 1.16: Lotto „6 aus 49^'. Die Ziehung im Lotto „6 aus 49" fassen wir als Laplace-Experiment auf. Es gibt

^49>

Moglichkeiten, sechs Gewinnzahlen zu Ziehen. Wie grofi ist die Wahrschein-lichkeit fiir „sechs Richtige", fiir „vier Richtige", fiir „drei Richtige" und fiir Jiinf Richtige mit (bzw. ohne) ZusatzzahV? Es ist

(f) P („sechs Richtige ")

P („vier Richtige ")

P{„drei Richtige")

0.715-10" \

0.969 • 10"^,

0.01745,

r) n m P (Junf Richtige mit Zusatzzahl") = ^^^ ^ > ^ = 0.429 • 10"^ ,

P (Jiinf Richtige ohne ZusatzzahV) = (Da)(y) = 0.180 • lO-"*,

Page 34: Wahrscheinlichkeitsrechnung und schließende Statistik

22 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

4. Kombinationen mit Zuriicklegen Durch Ziehen mit Zuriicklegen werden wieder k Objekte ohne Beriicksichtigung der Reihenfolge ausgewahlt. Hierbei kommt es darauf an, wie haufig Objekt Nr. 1 ausgewahlt wurde, wie haufig Objekt Nr. 2 ausgewahlt wurde, etc. Sei rrij die Haufigkeit, mit der Ob­jekt Nr. j ausgewahlt wurde. Gesucht ist also die Anzahl der Moglichkeiten, die mi,7712,..., m^ so festzulegen, dass

mi + m2 + . . . + mn = A:

und

0 < rrij < k

fiir j = 1,2,.. . , n gilt. Bildlich veranschaulichen kann man sich das durch die folgende Graphik, in der die k ausgewahlten Objekte mit Hilfe von Strichen in n Klassen sortiert sind:

* * ** I ** I • • • I * * * mi Objekte mit Nr. 1 7712 Objekte mit Nr. 2 rrin Objekte mit Nr. n

Die k Objekte und die n — 1 Striche sind hier nebeneinander aufgereiht und nehmen zusammen n+fc—1 Platze ein. Die gesuchte Anzahl der Moglichkeiten entspricht jetzt der Anzahl der Moglichkeiten, aus den insgesamt n + k — 1 moglichen Platzen fiir Objekte und Striche n — 1 Platze fiir die Striche auszuwahlen. Sie ist gleich

n + / c - l \ _ / n + / c - l n-1 J ~ [ k

Beispiel 1.17: Bei einer Wahl stehen zehn Kandidaten zur Auswahl; der Wdhlerhat drei Stimmen, die aber „gehdufelt^^ werden diirfen, d.h. der Wdhler hat das Recht, bei einem Kandidaten mehr als ein Kreuz zu machen. Offen-sichtlich gibt es

10 + (3 - 1)> _ / 12> _ 12! _ 1 2 - 1 1 - 1 0 _

3 J \3 J 3!-9! 3 - 2 . 1

Moglichkeiten, die Kreuze zu setzen, da es auf die Reihenfolge, in der die Kreuze gesetzt werden, nicht ankommt.

Page 35: Wahrscheinlichkeitsrechnung und schließende Statistik

1.2. WAHRSCHEINLICHKEITEN 23

Anzahl der Auswahlen von k aus n verschiedenen Objekten:

ohne Zuriicklegen

mit Zuriicklegen

ohne Beriicksichtigung der Reihenfolge

(Kombinationen)

C)

( " % ' - ' )

mit [ Beriicksichtigung der Reihenfolge

(Variationen) |

n! (n- fc ) !

n'^

Abschliefiend noch zwei Beispiele zur Berechnung von Wahrscheinlichkeiten mit Hilfe der Kombinatorik:

Beispiel 1.18: Die PIN-Nummer einer Bankkarte besteht aus vier Ziffern, von denen die erste keine Null ist. Wie viele verschiedene PIN-Nummern gibt es? Berechnen Sie die Wahrscheinlichkeit, durch dreimaliges y,Probieren" eine PIN-Nummer zu erraten. Es gibt 9 • 10^ verschiedene Nummern. Die gesuchte Wahrscheinlichkeit (drei giinstige von insgesamt 9 • 10^ Moglichkeiten) betrdgt

1 9 • 103 3000

0.00033.

Beispiel 1.19: Ein Hacker hat drei Minuten Zeit, in einen Computer einzu-brechen und kann dabei pro Sekunde 1000 Passworter ausprobieren. Er weifl, dass das Passwort aus sechs Zeichen, ndmlich vier Ziffern und zwei unter-schiedlichen Buchstaben, besteht. Wie grofi ist die Wahrscheinlichkeit, dass der Hacker Erfolg hat? Fiir das Passwort gibt es (2) • 26 • 25 • 10^ verschiedene Moglichkeiten. Da­bei zdhlt (2) die Moglichkeiten, die Stellen der Buchstaben festzulegen. In drei Minuten filhrt der Hacker 180 000 Versuche durch. Die gesuchte Wahrschein­lichkeit betrdgt demnach

180 000

(l) . 26 • 25 • 104 = 0.00185.

Page 36: Wahrscheinlichkeitsrechnung und schließende Statistik

24 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

1.3 Bedingte Wahrscheinlichkeit und Unabhan-gigkeit

1.3.1 Bedingte Wahrscheinlichkeit

In diesem Abschnitt behandeln wir zunachst, wie die Wahrscheinlichkeit flir ein Ereignis A zu modifizieren ist, wenn als zusatzhche Information zur Verfiigung steht, dass ein anderes Ereignis B schon eingetreten ist. In diesem Fall geniigt es, von den Ergebnissen in A nur noch die in Erwagung zu ziehen, die auch in B liegen. Man betrachtet das Ereignis AD B und bezieht seine Wahrscheinlichkeit auf diejenige von B. Dies flihrt zur folgenden Definition: Ist B ein Ereignis mit P{B) > 0, so heifit fiir jedes Ereignis A

^iMB^-'-^

bedingte Wahrscheinlichkeit von A unter der Bedingung B. Die bedingte Wahrscheinlichkeit wird so interpretiert: P{A\B) gibt die Wahrscheinlichkeit daftir an, dass A eintritt, wenn man bereits weifi, dass B eingetreten ist.

Beispiel 1.9 (Portsetzung): Im Horsaal befinden sich 280 Personen, 144 von ihnen sind Prauen. 70 der Anwesenden haben schon im Lotto „6 aus -^P" gespielt, davon 36 Prauen. 28 Personen haben bereits (mindestens) einmal im Lotto gewonnen. Durch Zufallsziehung wird eine Person ausgewdhlt. Wir betrachten die Ereignisse:

F = Die Person ist eine Prau.

L = Die Person hat im Lotto gespielt.

G = Die Person hat gewonnen.

Dann ist offenbar P{G nL) = P{G) = ^ , P{L) = ^ und daher

P(G|L) = ^ ^ = # = 0 . 4 ^\^) 280

die bedingte Wahrscheinlichkeit dafur, dass die Person im Lotto gewonnen hat (vorausgesetzt, sie hat uberhaupt im Lotto gespielt).

Beispiel 1.20: Das Werfen eines fairen Wurfels ist ein Laplace-Experiment; vgl. Beispiel 1.2. Sei A = {6} und B = {2,4,6} , dann ist P {A) = ^ , jedoch

P{B) P({2,4,6}) 6

Page 37: Wahrscheinlichkeitsrechnung und schließende Statistik

1.3. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT 25

Die bedingte Wahrscheinlichkeit fiir eine „6^' unter der Bedingung, dass eine gerade Augenzahl eingetreten ist, ist also | .

Wir Ziehen nun einige Folgerungen aus der obigen Definition. Bei fest gege-benem Ereignis B mit P{B) > 0 ist die bedingte WahrscheinUchkeit

P{'\B): A - ^ M, A ^-> P{A\B),

selbst eine WahrscheinUchkeit, denn es gilt

(Kl) P{A\B)>0 fiir beliebige Ereignisse AeA,

(K2) P(n\B) = l flir das sichere Ereignis fi,

(K3) P{Ai U A2\B) = P{Ai\B) + P{A2\B), falls Ai n ^2 = 0 ist.

Die ersten beiden Aussagen sind offensichtlich, die dritte macht man sich so klar:

da mit Ai n A2 = & auch die beiden Mengen Ai H B und ^2 H disjunkt sind.

Die auf ein fest gegebenes Ereignis B bedingte Wahrscheinlichkeit P{'\B) erftillt also die drei Axiome der Wahrscheinlichkeit. Damit gelten alle bis-her fiir gewohnliche Wahrscheinlichkeiten hergeleiteten Rechenregeln auch fiir bedingte Wahrscheinlichkeiten.

1.3.2 Rechenregeln

Aus der Definition der bedingten Wahrscheinlichkeit folgt, dass fiir beliebige AeA

P{A\Q) = P{A), (1.14)

P{A\B) = 1, w e n n ^ c A . (1.15)

Wenn also B C A gilt, d.h. S mit Sicherheit das Ereignis A zur Folge hat, dann tritt A unter der Bedingung B auch mit Wahrscheinlichkeit 1 ein.

Durch Umformen der Definition der bedingten Wahrscheinlichkeit erhalt man den Multiplikationssatz fiir zwei Ereignisse

P{A nB) = P{A\B) • P{B), wenn P{B) > 0.

Page 38: Wahrscheinlichkeitsrechnung und schließende Statistik

26 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

Ebenso gilt

P{A nB) = P{B\A) • P{Al, wenn P{A) > 0.

Der Multiplikationssatz fiir drei Ereignisse lautet

P{Ar]BnC)= P{A\B n C) • P{B\C) • P{C) , wenn P{B n C) > 0.

Aus P{B n C) > 0 folgt namlich, dass P{C) > P{B H C) > 0 ist. Deshalb gilt

P{AnBnC) = P{An(^nC)) = P{A\BnC) • P{B\C) • P{C). " V '

=p{BnC)

Fiir mehr als drei Ereignisse gilt ein allgemeiner Multiplikationssatz flir Wahr-scheinlichkeiten; siehe Abschnitt 1,4.1 in den Erganzungen zu diesem Kapitel.

Beispiel 1.21: In einem Restaurant bestellen gewohnlich 40% der Gdste keine Vorspeise und 30% der Gdste keinen Nachtisch. 15% der Gdste nehmen weder Vorspeise noch Nachtisch. Wie grofi ist die Wahrscheinlichkeit, dass

a) ein Gast keine Nachspeise nimmt, unter der Bedingung, dass er auch keine Vorspeise genommen hat?

b) ein Gast, der eine Vorspeise gewdhlt hat, auch noch einen Nachtisch bestellt?

Bezeichne V das Ereignis, dass der Gast eine Vorspeise bestellt, N das Er-eignis, dass er einen Nachtisch ordert. Aus den gegebenen Prozentzahlen er-halten wir die Wahrscheinlichkeit en

P{V) = l-P{V) - 1 - 0.4 = 0.6,

P{N)== 1-P(N) = 1 - 0 . 3 = 0.7,

p(Fn]v) - p{vuN) = 0.15.

zu a) Es ist

,—,-, PiVDN) 0.15 P(NV) - ^ , - , ^ = ^ = 0.375.

^ ' ^ P{V) 0.4

Page 39: Wahrscheinlichkeitsrechnung und schließende Statistik

1.3. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT 27

zu b) Es ist

P(N\V^ = PjNnV) P{N) + P{V)-P{NUV) ^ ' ^ PiV) P{V)

PjN) + P{V) - (1 - PjVUN)) P{V)

0.7+ 0 . 6 - ( 1 - 0 . 1 5 ) 0.6

= l - 3 - 0 - 8 5 ^ a 4 5 ^ Q ^ 3 0.6 0.6

Beispiel 1.22: Zum Erwerb eines Scheines sind einem Studenten drei Versu-che erlaubt. Fiir die drei Ereignisse

Ai = „Student besteht beim i-ten Versuch", i = 1,2,3,

seien die folgenden bedingten Wahrscheinlichkeiten gegeben:

P{Ai) = 0.6,

P{A2\Ai) = 0.5,

P ( T a l l i n As) = 0.4.

Wie grofi ist die Wahrscheinlichkeit, den Schein zu erwerben? Es ist

P{AI{JA2UA3) = 1 - P (Ai U ^2 U A3)

= 1 - P ( l l 0^420^3)

= 1 - P ( l 3 l ^ n : 4 2 ) - P ( l 2 | ^ ) - P ( ^ ) = 1 - ( 1 - 0 . 4 ) - ( 1 - 0 . 5 ) - ( 1 - 0 . 6 ) = 0.88.

1.3.3 Totale Wahrscheinlichkeit und Formel von Bayes

Wir nehmen nun an, dass Ai,A2,..-,An eine vollstandige Zerlegung der Ergebnismenge Cl und B ein Ereignis ist. Dann sind (vgl. Abbildung 1.3)

{BnAi),iBnA2),...,{BnAn)

disjunkte Ereignisse und deshalb

( n \ n

\J{BnAi)\ = Y^PiBnAi), = J2P{B\A,)-P{A,).

2 = 1

Page 40: Wahrscheinlichkeitsrechnung und schließende Statistik

28 1. ZUFALLSVORGANGE UND WAHRSCHEINLICHKEITEN

Wir erhalten die Formel von der totalen Wahrscheinlichkeit:

PiB) = J2PiB\A,).PiA,) i=l

Die nicht bedingte, d.h. „totale" Wahrscheinlichkeit P {B) ergibt sich da-bei als gewichtetes Mittel der bedingten Wahrscheinlichkeiten P {B \ Ai) mit Gewichten P{Ai).

Abbildung 1.3: Zur Formel von der totalen Wahrscheinlichkeit

Fiir jedes z = 1,2,. . . , n gilt gemafi der Definition der bedingten Wahrschein­lichkeit

P(A i m PJAnB) P{B\Ai).P{Ai)

Daraus und aus der Formel von der totalen Wahrscheinlichkeit folgt die Formel von Bayes*^

P{Ai\B) P{B\Ai)^P{Ai)

tp{B\A^)^P{A^) i = 1,2,... , n .

Beispiel 1.23: Die Produktion von Kiihlschrdnken erfolgt an drei Produkti­onsstdtten. Eine Verbraucherorganisation untersucht, ob die Gerdte die Ga-rantiezeit ohne einen Defekt uberstehen. Da die drei Produktionsstdtten mit unterschiedlichen Fertigungsstandards arbeiten, weisen die Gerdte je nach

^Thomas Bayes (1702-1761)

Page 41: Wahrscheinlichkeitsrechnung und schließende Statistik

1.3. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT 29

Fertigungsstdtte unterschiedliche Defektraten auf: 1.5% in Produktion 1, 1% in Produktion 2, 3% in Produktion 3. Die beiden ersten Produktionsstdtten haben jeweils einen Anteil von 40% an der Gesamtproduktion, die dritte Pro-duktionsstdtte einen Anteil von 20%.

Aus der Gesamtproduktion wird nun zufdllig ein Stilck entnommen. Wie grofl ist die Wahrscheinlichkeit, dass ein defekter Kiihlschrank aus der Produktion 1 stammt? Zur Losung definieren wir zundchst die relevanten Ereignisse:

Ai'. Kiihlschrank stammt aus Produktion i, z = 1,2,3, B: Kiihlschrank ist defekt.

Aus den Angaben folgt

P{Ai) = 0.4, P{A2) = 0.4, P(A3) = 0.2,

P{B\Ai) = 0.015, P{B\A2) = 0.01, P{B\A3) = 0.03,

P{B) = J2P{B\A,).P{A,) i=l

= 0.015-0.4 4-0.01-0.4 4-0.03-0.2 = 0.016,

Die Wahrscheinlichkeit, dass der defekte Kiihlschrank aus der Produktion 1 stammt, betrdgt 37.5%.

Wichtige Anwendungen finden die bedingten Wahrscheinlichkeiten und die Formel von Bayes im Bereich der medizinischen Statistik. Wir geben hierzu ein Beispiel.

Beispiel 1.24-' An Patienten einer bestimmten Population wird mithilfe eines Labortests untersucht, ob eine bestimmte Krankheit vorliegt oder nicht. Der Anteil TT der Kranken in der Population ist bekannt. Falls der konkrete Patient krank ist, zeigt der Test mit einer Wahrscheinlichkeit von 99% die Krankheit an (Ergebnis „positiv"); falls er nicht krank ist, zeigt der Test mit einer Wahrscheinlichkeit von 2% die Krankheit an.

Wie grofl ist die Wahrscheinlichkeit, dass der Test bei einem zufdllig aus der Population ausgewdhlten Probanden

a) die Krankheit anzeigt,

b) ein korrektes Ergebnis liefert?

c) Wie grofl ist die Wahrscheinlichkeit, dass die Krankheit vorliegt unter der Bedingung, dass der Test sie anzeigt?

Page 42: Wahrscheinlichkeitsrechnung und schließende Statistik

30 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

Zur Losung verwenden wir die Bezeichnungen K (= Krankheit liegt vor) und T (= Test zeigt Krankheit an). Dem Text entnimmt man

P{K) - TT, P (T |i^) - 0.99, P{T \K) = 0.02 .

zu a) Gesucht ist hier P{T). Nach der Formel der totalen Wahrscheinlichkeit ist

P{T) = P{T \K) ' P{K) + P{T | Z ) . P(K),

also

P{T) - 0.99 •7r + 0 . 0 2 - ( I - T T )

= 0.02 +0.97-TT.

zu b) Die gesuchte Wahrscheinlichkeit ist

P{{T n K) [J {T n'K) = P{TnK) + P{Tnl{)

= P{T \K) ' P{K) + P(T\K) . P{K)

= 0.99 • TT + (1 - 0.02) • (1 - TT)

= 0.98 +0.01-TT.

zu c) Gesucht ist nun P{K \T). Nach der Formel von Bayes gilt

P{T\K)'P{K) P{K\T) =

P{T \K) • P{K) + P{T \K) . P{K)

0.99 -TT _ / 0.02 l - T T ^ ^

0.99 • TT + 0.02 • (1 - TT) V 0-99 TT

Offensichtlich hat P{K) = n jeweils einen starken Einfluss auf die bedingte Wahrscheinlichkeit P{K\T) und die weiteren Ergebnisse. So ergibt sich

=

=

= z=z

0.846

0.333

0.047

0.005

fiir

fiir

fiir

fiir

•K =

TT =

TT =

n =

0.1,

0.01,

0.001,

0.0001.

Ist Z.B. der Anteil der Kranken ein Promille (also n — 0.001^; so sind nur 4.7% der Probanden mit positivem Testergebnis wirklich krank.

Zur Interpretation der Formel von Bayes Eine mogliche Interpretation der Formel von Bayes lautet wie folgt: Ai^...^An sind sich ausschliefiende mogliche Zustande der Welt („Hypothesen"), von denen genau einer zutrifft. B ist das Ergebnis eines Experiments oder einer Beobachtung.

Page 43: Wahrscheinlichkeitsrechnung und schließende Statistik

1.3. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT 31

Fiir jede der n Hypothesen Ai sei die Wahrscheinlichkeit bekannt, dass B eintritt, wenn Ai gilt. Aufierdem sei mit P{Ai) eine - eventuell subjektive (vgl. Abschnitt 1.4.2) - Wahrscheinlichkeit gegeben, dass die Hypothese Ai zutrifft. P{Ai) heifit A-priori-Wahrscheinlichkeit von Ai. Die bedingte Wahrscheinlichkeit P{B\Ai) ist die Wahrscheinlichkeit von J5, wenn die Hy­pothese Ai zutrifft.

P{Ai\B) wird A-posteriori-WahrscheinUchkeit von Ai genannt. Sie gibt die (nach der Beobachtung) ermittelte Wahrscheinlichkeit daflir an, dass Ai zutrifft unter der Bedingung, dass das Versuchsergebnis B beobachtet worden ist. P{Ai\B) wird mit der Formel von Bayes berechnet.

1.3.4 Unabhangigkeit von Ereignissen

Zwei Ereignisse A und B sollen, anschaulich gesprochen, unabhangig heifien, wenn das Eintreten von A keinerlei „Einfluss" auf das Eintreten von B hat und umgekehrt. Die formale Definition ist: Zwei Ereignisse A und B heifien stochastisch unabhangig (kurz: unabhangig), wenn

P{AnB)=P{A)'P{B).

A und B heifien abhangig, wenn sie nicht unabhangig sind. Man beachte, dass man in dieser Definition A und B vertauschen kann. Wir Ziehen einige Folgerungen:

1. Unter der Annahme P {B) > 0 gilt offensichtlich

A und B unabhangig 4=^ P {A\B) = P {A) .

Ebenso gilt unter der Annahme P (A) > 0

A und B unabhangig <=> P {B\A) = P (B) .

Bei unabhangigen Ereignissen A und B hangen die bedingten Wahr-scheinlichkeiten P {A\B) bzw. P {B\A) also nicht von den „bedingen-den" Ereignissen B bzw. A ab.

2. Mit A und B sind auch die folgenden beiden Ereignisse jeweils un­abhangig:

A und 'B, A und B, 'A und 'B.

BEWEIS Die erste dieser Aussagen sieht man wie folgt ein:

P{An^ = P{A\B) = P{A)-P{AnB)

= P{A)-P{A)'P{B)

= P{A)^{1-P{B))==P{A)>P{B).

Die beiden anderen Aussagen zeigt man analog. D

Page 44: Wahrscheinlichkeitsrechnung und schließende Statistik

32 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

3. 1st A ein Ereignis mit P (A) = 0 oder P {A) = 1, so ist A von jedem beliebigen Ereignis B unabhangig.

BEWEIS AUS P{A) = 0 folgt namlich P (A) - P {B) = 0 - P {B) = 0 und

P{AnB) < P{A) = 0, 3\soP{AnB) = 0

P{AnB) = P{A)'P{B).

Aus P (^) = 1 folgt in ahnlicher Weise P {A)'P {B) = hP (B) = P {B), Offenbar ist P{AUB) = 1 und deshalb

P{AnB) = P{A) + P{B)-P{A[J B)

= 1 + P{B)-1 = P{B)

= l'P{B) = P{A)'P{B). D

4. Wenn A und B disjunkt sind sowie P{A) ,P {B) > 0, konnen A und B nicht unabhangig sein. Dann gilt namlich

P{AnB) = O^P{A)'P{B),

Beispiel 1.9 (Fortsetzung): Bei der Zufallsziehung im Horsaal betrachten wir wieder die Ereignisse F (Die ausgewdhlte Person ist eine Frau) und L (Die Person hat im Lotto gespielt). Mit den oben gegebenen Zahlen erhalten wir P{L) = ^ = 0.25 sowie

P{L n F) 36 P(L|F) = 1 ^ 1 ^ = | | = 0.25.

Es folgt, dass (in dieser Population) die Ereignisse L und F unabhangig sind: Ob jemand im Lotto spielt oder nicht, hdngt nicht vom Geschlecht ab.

Beispiel 1.25: Eine Miinze (mit Zahl = Z und Wappen = W) wird zwei-mal geworfen. Es ist fi = {{Z,Z), (Z, 1^) {W, Z) {W, W)]. Wir fassen das Zufal Is experiment als Laplace-Experiment auf. Sei

Z\ — Zahl beim ersten Wurf W2 = Wappen beim zweiten Wurf W12 — Wappen bei beiden Wiirfen.

Z\ und W2 sind unabhangig, da

P{ZinW2) = P{{Z,W}) = i und

P{Zi)-P{W2) = P{{Z,Z},{Z,W})'P{{Z,W},{W,W}) _ 1 1 _ 1

2 ' 2 ~ 4 '

Page 45: Wahrscheinlichkeitsrechnung und schließende Statistik

1.3. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT 33

W2 und W12 sind abhangig, da

P{W2nWi2) = P{{w,w}) = i ,

P{W2) = P{{W,W},{Z,W}) = i ,

PiyVn) = P{{W.W\) = i , also

P{W2)-P{W,2) = ^ i - ^ ^ i -

Wir wollen nun den Begriff der stochastischen Unabhangigkeit von zwei auf n Ereignisse verallgemeinern. Die n Ereignisse ^1,^2? • • • ^^n heifien paar-weise unabhangig, wenn

P {Ai n A^) = P {Ai)' P {Aj) fur alle ij = 1,... ,n mit i ^ j .

Die n Ereignisse Ai^A2^ • •., ^n heifien vollstandig unabhangig, kurz: un­abhangig, wenn fiir jede Auswahl von m Indizes ii , 2? • • • > m ^ {1» 2 , . . . , n}, 2 < m < n.

P{Ai, DAi.n.. .nAiJ = P{Ai,) 'PiAi,).... 'P{AiJ

gilt, d.h. wenn fiir jede Auswahl aus den n Ereignissen die entsprechende Produktformel fiir deren Wahrscheinlichkeiten gilt.

Paarweise und vollstandige Unabhangigkeit sollen nun fiir n = 3 verdeutlicht werden. Seien Ai,A2^ As drei Ereignisse. Sie sind paarweise unabhangig, wenn die drei Bedingungen

P{AinA2) = P ( A i ) . p ( A 2 ) ,

P{AinAs) = P ( A i ) . P ( A 3 ) ,

P{A2nAs) - P{A2)'P{As)

erfiillt sind. Ai, ^2 , As sind vollstandig unabhangig, wenn zusatzlich zu diesen Bedingungen noch

P{Ai n ^2 n As) = P{Ai) 'P{A2) 'P{As)

gilt.

Beispiel 1.26: Zwei faire Wilrfel werden geworfen, und zwar so, dass jedes der moglichen Ergebnisse (bestehend aus zwei Augenzahlen) in gleicher Weise auftreten kann. Wir fassen dieses Zufallsexperiment als Laplace-Experiment

Page 46: Wahrscheinlichkeitsrechnung und schließende Statistik

34 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

auf. Bezeichne

A\ — Augenzahl beim ersten Wurf ist ungerade,

A2 = Augenzahl beim zweiten Wurf ist ungerade,

A3 = Augensumme ist ungerade.

Die Ereignisse ^1 , ^2 , ^3 sind paarweise unabhdngig, aber nicht (vollstdndig) unabhdngig. Es gilt offensichtlich

P{A^nA2) = \= l-\ = P(^)-P(^2),

P{A^nA,) = i = i . i = P{Ai)-P{A3),

P{A2nA^) = \= \ . \ = P{A2)-P{As),

P{AinA2nAz) = o^l.l.l=P(Ai)-PiA2)-P{A3).

Die Ereignisse Ai, A2 und As sind demnach nicht unabhdngig.

Beispiel 1.27: Drei elektronische Bauelemente sind wie folgt geschaltet:

Ai

Wir nehmen an, dass die Elemente unabhdngig voneinander arbeiten. Die Ausfallwahrscheinlichkeiten der Elemente seien bekannt, und zwar jeweils gleich 5%. Wie grofi ist die Wahrscheinlichkeit, dass das Gesamtsystem aus-fdllt?

Bezeichne Ai das Ereignis, dass das i-te Element ausfdllt. Dann ist

P(^in(^2UA3)) = PiiAinA2)LiiAinA3)) = P{AinA2) + P{Air\A3)-P{AinA2nA3) = 0.05^ + 0.052-0.05^ = 0.0049.

Page 47: Wahrscheinlichkeitsrechnung und schließende Statistik

1.3. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT 35

Einen Zufallsvorgang, bei dem lediglich interessiert, ob ein bestimmtes Er-eignis (genannt „Erfolg") eintritt oder nicht, nennt man ein Bernoulli-Experiment^ .

Unter einer Bernoulli-Versuchsreihe der Lange n versteht man die un-abhangige Wiederholung von n gleichartigen Bernoulli-Experimenten. Ge-nauer: Ein Bernoulli-Experiment werde n-mal durchgefiihrt. Bezeichne Ai das Ereignis, dass bei der i-ten Durchfiihrung des Experiments ein „Erfolg" eintritt. Die Versuchsreihe heifit Bernoulli-Versuchsreihe, wenn

(Bl) die Ereignisse Ai,A2,,,. ,An (vollstandig) unabhangig sind und

(B2) alle Ai die gleiche Wahrscheinlichkeit haben.

Beispiel 1.28: Ein Schiitze schieflt auf eine Scheibe. Das Ereignis

A = Schiitze trifft die Scheibe

habe die Wahrscheinlichkeit P {A) = 0.6. Der Schiitze schieflt n-mal. Dies wird als unabhdngige Wiederholung eines Bernoulli-Experimentes aufgefasst: Ai tritt ein, wenn beim i-ten Schuss die Scheibe getroffen wird. Jedes der Ai besitzt die gleiche Wahrscheinlichkeit und die Ereignisse ^ i , A2, . . . ,>ln werden als unabhdngig vorausgesetzt. Dies bedeutet insbesondere, dass beim Schiltzen weder Lern- noch Ermildungseffekte auftreten.

a) Wie grofl ist die Wahrscheinlichkeit, dass er bei den ersten vier Schilssen nicht trifft? Die Wahrscheinlichkeit betrdgt

= 0.4^ = 0.0256.

b) Wie grofl ist die Wahrscheinlichkeit, dass er bei den ersten drei Schilssen mindestens einmal trifft? Die gesuchte Wahrscheinlichkeit ist

P(AiUA2UA3) = p(Ain]42n]43)

= i - P ( ^ 0 ^ 2 0 ^ 3 )

= 1-0.4^ = 0.936.

4jacob Bernoulli (1654-1705)

Page 48: Wahrscheinlichkeitsrechnung und schließende Statistik

36 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

1.4 Erganzungen

1.4.1 AUgemeiner Additions- und Multiplikationssatz fiir Wahrscheinlichkeiten

Die Wahrscheinlichkeit einer Vereinigung von endhch vielen Ereignissen be-rechnet man mit dem folgenden allgemeinen

Additionssatz fiir Wahrscheinlichkeiten (Formel von Sylvester)^ Fiir beliebige Ereignisse Ai, A2, ... ^An ^ A gilt

"(.y/*) = P{Ai uA2U...UAn)

k=l {n,.- . ,u}C{l, . . . ,n}

= E^(^^) - J2 PiAiHAj)

+ E P(^i ^ ^J ^ k) i,j,k:i<j<k

+ ( - i ) " - i p ( ^ i n A 2 n . . . n ^ „ ) .

•nA,J

Man beachte, dass beliebige Ereignisse Ai im Allgemeinen nichtleere Durch­schnitte aufweisen. Wenn sie paarweise disjunkt sind, sind alle Durchschnitte von verschiedenen Ereignissen leer und die rechte Seite der Formel reduziert sich zu 2 ^ P{Ai). Wenn n = 2 oder n = 3 ist, erhalten wir aus der Formel von Sylvester die im Abschnitt 1.2.1 gegebenen Additionssatze fiir zwei bzw. drei Ereignisse. Fiir jedes grofiere n kann man die Sylvester-Formel entspre-chend ausrechnen. Allgemein beweist man sie durch vollstandige Induktion nach n.

Beispiel 1.29 (Matching-Problem): Bei einer Dateniibertragung werden Da-teien an bestimmte Adressen geleitet. Angenommen fiinf Dateien sollen an fiinf Adressen geleitet werden. Wdhrend der Ubertragung geht die Zuordnung zwischen Dateien und Adressen verloren. Bei der Ankunft werden deshalb die Dateien in zufdlliger Weise den Adressen zugeordnet, d.h. eine gegebe-ne Datei mit Wahrscheinlichkeit \ zu jeder der fiinf Adressen. Wie grofl ist die Wahrscheinlichkeit, dass mindestens eine Datei ihrer richtigen Adresse zugeordnet wird?

^James Joseph Sylvester (1814-1897)

Page 49: Wahrscheinlichkeitsrechnung und schließende Statistik

1.4. ERGANZUNGEN 37

Sei Ai'. „Datei i wird der richtigen Adresse zugeordneV, z = 1, . . . ,5. Gesucht ist die Wahrscheinlichkeit F(AiU.. .U^s). Wir berechnen sie nach der Formel von Sylvester mit n = b. Es gilt P{Ai) = | , also Yl7=i ^ ( ^ 0 — l — ^'

Wir betrachten zwei Dateien i undj mit i < j . Um i undj zwei verschiedenen Adressen zuzuordnen, gibt e5 5 • 4 = 20 Moglichkeiten. Davon ist genau eine korrekt, die Wahrscheinlichkeit einer korrekten Zuordnung der beiden Dateien also gleich P{Ai n Aj) = 4Q. Es folgt

j:P(AnA,)=('U = l i<3

da die Summe (2) Summanden hat, die alle gleich sind. Entsprechend ist fiir i < j < k

1 1 P{Ai n Aj n Ak)

5 - 4 . 3 6 0 ' also

i<3<k

Die folgenden Summen der Wahrscheinlichkeiten von Vierer- und Funfer-durchschnitten berechnet man genauso und erhdlt ^ bzw. y ^ . Diese Sum-men sind nach Sylvester nun mit wechselnden Vorzeichen zu addieren. Man erhdlt als Ergebnis die gesuchte Wahrscheinlichkeit

P(A,u..,u^.) = l - i + l - i + jL = ^ 0,6333.

Multipl ikat ionssatz fiir Wahrscheinlichkeiten Fiir beliebige Ereignis­se ^ 1 , ^ 2 , ^ 3 , .•• , ^n gilt

''Co/O = \i—1 /

= P{Ai)-P{A2\Ar).PiA3\A^r\A2)

• . . . • P ( A „ | ^ i n ^ 2 n . . . n ^ „ _ i ) ,

sofern alle bedingenden Ereignisse positive Wahrscheinlichkeiten haben. Dies ist dann der Fall, wenn P{Ai f l . . . fl An-i) > 0 ist.

BEWEIS Die rechte Seite der Formel ist gleich

P{Ai n A2) P{Ai n A2 n 3) P{Ai)

P{Ai) P{AinA2)

PjAi n... n An) P{Ain...nAn-i)

und wegen der Voraussetzung P(j4in. . .nAn-i) > 0 sind alle Nenner positiv. Durch Kiirzen erhalt man P{Ai n . . . fl An). •

Page 50: Wahrscheinlichkeitsrechnung und schließende Statistik

38 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

Falls die Ereignisse Ai^... ,An unabhangig sind, sind samtliche bedingten Wahrscheinlichkeiten gleich den entsprechenden nichtbedingten Wahrschein­lichkeit en. D.h., man kann die Bedingungen in der allgemeinen Formel weglas-sen. Sie reduziert sich dann auf die bekannte einfache Formel fiir unabhangige Ereignisse,

P m ^ J =P{Ai)-PiA2)-...-PiAn).

Speziell bei einer Bernoulli-Versuchsreihe sind die Ai unabhangig und besit-zen die gleiche Wahrscheinlichkeit, P{Ai) = TT fiir z = 1 , . . . ,n. Die Formel vereinfacht sich hier zu

1.4.2 Subjektive Wahrscheinlichkeit und WettbegrifF

Der Wahrscheinlichkeitsbegriff ist formal dadurch definiert, dass jedem Er-eignis eines Zufallsvorgangs eine Zahl, seine Wahrscheinlichkeit, zugeordnet wird und dass diese Zuordnung bestimmten Rechenregeln folgt.

Bei der Anwendung auf einen konkreten Zufallsvorgang muss man diesen formalen Wahrscheinlichkeitsbegriff mit Inhalt fiillen und geeignet interpre-tieren. Man unterscheidet hauptsachlich zwei Arten von Interpretationen der Wahrscheinlichkeit, die Haufigkeitsinterpretation und die entschei-dungstheoretische Interpretation.

1. Haufigkeitsinterpretation Falls der Zufallsvorgang „im Prinzip be-liebig oft" und „unabhangig" wiederholbar ist, nahert sich (in praktisch alien Fallen) die relative Haufigkeit eines Ereignisses A nach hinreichend vielen Wiederholungen einer Zahl, namlich der Wahrscheinlichkeit P{A). Beispiele solcher Zufallsvorgange sind Miinzwurf, Wiirfel und Roulette.

2. Entscheidungstheoretische Interpretation Folgende Interpretation macht auch bei nichtwiederholbaren Zufallsvorgangen (z.B. Ausgang eines Pferderennens, Ergebnis einer einzelnen Investition) Sinn.

Sei A ein Ereignis. Ein Individuum habe die Moglichkeit, eine Wette folgen-der Art abzuschliefien: Tritt A ein, erhalt es 100 € , tritt A nicht ein, erhalt es die Auszahlung 0. Das Individuum kann wahlen, welchen Einsatz es maximal fiir eine solche Wette bezahlen wiirde. Fiir den maximalen Einsatz z macht man den Ansatz

z = 100 • P{A) -f 0 • P(A),

Page 51: Wahrscheinlichkeitsrechnung und schließende Statistik

1.4. ERGANZUNGEN 39

d.h. z ist ein gewichtetes Mittel aus den beiden Auszahlungen. Die Gewichte interpretiert man als Wahrscheinlichkeiten fiir A bzw. A, Wenn das Indivi-duum maximal z% fiir die Wette einsetzt, ist dann seine „subjektive Wahr­scheinlichkeit" fiir das Eintreten des Ereignisses gleich

Bei der Haufigkeitsinterpretation spricht man von objektiver Wahrschein­lichkeit; sie wohnt dem Ereignis inne, wie einem Gegenstand eine physikali-sche Grofie (Lange, Gewicht) innewohnt. Bei der entscheidungstheoretischen Interpretation spricht man von subjek-tiver Wahrscheinlichkeit . Sie hangt von der Einschatzung eines Indivi-duums ab. Verschiedene Individuen haben im AUgemeinen unterschiedliche subjektive Wahrscheinlichkeiten.

Die beiden Interpretationen als objektive bzw. subjektive Wahrscheinlichkeit sind eng mit den Moglichkeiten verkntipft, den Ereignissen eines Zufallsexpe-riments konkrete Zahlen als Wahrscheinlichkeiten zuzuweisen, d.h., die Wahr­scheinlichkeiten praktisch zu bestimmen. Siehe dazu die Abschnitte 1.4.3 und 2.5.2.

1.4.3 Praktische Best immung von Wahrscheinlichkeiten

In praktischen Anwendungen der Wahrscheinlichkeitsrechnung muss fiir be-stimmte Ereignisse die Wahrscheinlichkeit ihres Eintritts konkret bestimmt werden. Hierfiir kommen, abhangig von der Anwendung, sehr unterschiedli­che Methoden in Betracht.

Objekt ive Wahrscheinlichkeiten und Haufigkeiten

1. Die Wahrscheinlichkeit eines Ereignisses wird aus einer Bernoulli-Ver-suchsreihe (wie z.B. Experimenten mit einer Person liber ihre Konsum-praferenzen) bestimmt. Die relative Haufigkeit des Ereignisses in der Versuchsreihe dient als Schatzwert fiir seine Wahrscheinlichkeit. Solche Schatzmethoden sind Teil der statistischen Inferenz; siehe Kapitel 5.

2. Die Wahrscheinlichkeit kann auch ex ante aus Symmetrieuberlegungen an den Zufallsvorgang bestimmt werden: Diese beruhen auf physika-lischen Eigenschaften, wie z.B. der Homogenitat des Materials von Wtirfel und Miinze, oder auf Modelliiberlegungen fiir den Zufallsvor­gang. So sind beim unabhangigen Wurf zweier fairer Miinzen alle Er-gebnisse gleichwahrscheinlich.

Page 52: Wahrscheinlichkeitsrechnung und schließende Statistik

40 1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N

Subjektive Wahrscheinlichkeiten

3. Subjektive Wahrscheinlichkeiten eines Individuums konnen grundsatz-lich mit Hilfe fiktiver Wetten, wie oben beschrieben, ermittelt werden.

4. Einzelne Wahrscheinlichkeiten werden in der Praxis haufig durch Befra-gung von „Experten" bestimmt. Beispiele hierftir sind Abschatzungen von Risiken, wie etwa der Wahrscheinlichkeit bestimmter Gesundheits-schaden durch eine Chemikalie.

Abgeleitete Wahrscheinlichkeiten

5. Die Wahrscheinlichkeit kann durch Berechnung aus bekannten Wahr­scheinlichkeiten anderer Ereignisse mit Hilfe der Rechenregeln fiir Wahr­scheinlichkeiten berechnet werden.

6. Der Satz von Bayes verwendet die A-priori-Wahrscheinlichkeiten und bezieht das Versuchsergebnis mit ein, um daraus die A-posteriori-Wahr­scheinlichkeiten zu berechnen.

Nach welcher Methode eine Wahrscheinlichkeit im konkreten Fall bestimmt wird, hangt von der Art des Ereignisses, dem Ziel der Analyse und den verftigbaren Moglichkeiten ab, Versuche durchzufiihren und Daten zu erhe-ben.

Erganzende Literatur zu Kapitel 1:

Die in diesem Kapitel behandelten Grundbegriffe werden in den einschlagigen Lehrbiichern der Wahrscheinlichkeitsrechnung und Statistik fiir Wirtschafts-und Sozialwissenschaftler behandelt. Wir verweisen auf Fahrmeir et al. (2004), Bamberg und Baur (2002), Assenmacher (2000), Schlittgen (2003). Auf einem etwas anspruchsvolleren mathematischen Niveau werden diese Grundbegrif­fe u.a. in Feller (1968), Fisz (1976), Grimmett und Stirzaker (2001), Gut (1995), Henze (2004) und Ross (2003) behandelt. Darstellungen iiber die hi-storische Entwicklung der Wahrscheinlichkeitstheorie findet man in Stigler (1986), Hald (1990) und Schneider (1988).

Ausftihrungen zur subjektiven Wahrscheinlichkeit im Rahmen der betriebs-wirtschaftlichen Entscheidungstheorie sind bei Eisenfiihr und Weber (2003) nachzulesen.

Page 53: Wahrscheinlichkeitsrechnung und schließende Statistik

Kapitel 2

Zufallsvariable und Verteilungen

Bei manchen Zufallsvorgangen interessiert man sich weniger fur das konkrete Ergebnis to G ft als fiir eine reelle Zahl, die von u abhangt. So wird sich ein Roulettespieler, der auf Colonne setzt, nicht so sehr ftir die ausgespielte Zahl LU inter essieren, sondern eher fiir den von uj abhangenden Nettogewinn aus dem Spiel. Ein Aktienbesitzer wird sich weniger fiir das sehr komplexe Ergeb­nis u des Zufallsvorganges „Entwicklung an der Borse" interessieren als fiir den Kurs seiner Aktie an einem Stichtag. Bei der Untersuchung von Haus­halten interessiert sich ein Marktforscher meist nicht fiir alle Spezifika eines beobachteten Haushalts, sondern nur fiir bestimmte Merkmale, wie z.B. das verfiigbare monatliche Haushalteinkommen oder die monatlichen Ausgaben fiir Kleidung.

In der deskriptiven Statistik ist ein Merkmal eine prinzipiell beobachtba-re und durch eine Zahl beschreibbare Eigenschaft von statistischen Einhei-ten, beispielsweise Individuen, Haushalten oder Unternehmen. Die Menge der statistischen Einheiten, die Trager eines Merkmals sind und iiber die etwas ausgesagt werden soil, wird dort Grundgesamtheit genannt. In der Wahr-scheinlichkeitsrechnung und schlieiJenden Statistik entspricht die Ergebnis-menge der Grundgesamtheit und die Zufallsvariable dem Merkmal.

Im folgenden Abschnitt werden die wichtigsten mit Zufallsvariablen zusam-menhangenden Begriffe erlautert und an einfachen Beispielen illustriert.

41

Page 54: Wahrscheinlichkeitsrechnung und schließende Statistik

42 2. ZUFALLSVARIABLE UND VERTEILUNGEN

2.1 Grundbegriffe

Wir setzen voraus, dass ein Zufallsvorgang mit Ergebnismenge Q gegeben ist. Die Menge der interessierenden Ereignisse sei durch die Ereignisalgebra A gegeben, und fiir alle Ereignisse A E A sei eine Wahrscheinlichkeit P (A) definiert.

Unter einer Zufallsvariablen versteht man formal eine Funktion

X : n—^R,

Die Zufallsvariable X ordnet also jedem Ergebnis uj des Zufallsexperimentes eine reelle Zahl X{uj) = a: zu. Die Zahl x wird Wer t oder Realisierung der Zufallsvariablen X genannt. Hier ist sorgfaltig zwischen den Symbolen X und X zu unterscheiden. x stellt eine reelle Zahl dar, X dagegen eine Funktion. Zufallsvariable werden allgemein mit Grofibuchstaben wie X, Y, Z oder X i , X 2 , . . . bezeichnet, ihre Realisationen dann mit den entsprechenden Kleinbuchstaben x, y, z bzw. xi, ^ 2 , . . . .

Beispiel 2.1 (vgl. Beispiel 1.4): Eine Miinze mit den Seiten K (= Kopf) und Z (= Zahl) wird dreimal geworfen. Die Ergebnismenge besteht aus acht moglichen Ergebnissen,

Q = {{K,K,K),{K,K,Z),..,,{Z,Z,Z)} .

Bezeichne X in Abhdngigkeit von LO ^ ft die „Anzahl Kopf',

X (a;) = Anzahl K in to.

Offenbar wird mehreren Ergebnissen durch X die gleiche Zahl zugeordnet; z.B. ist

X((Z, K, Z)) = X{{K, Z, Z)) = X((Z, Z, K)) = l.

Beispiel 2.2 (vgl. Beispiel 1.3): Beim Roulette ist die Menge der Ergebnisse f = { 0 , 1 , . . . , 36}. Ein Spieler setzt einen Euro auf die erste Colonne C\,

Ci = {1,4,7,10,13,16,19,22,25,28,31,34} ;

vgl. Abbildung 1.2. Wenn die Roulettekugel auf eine der Zahlen in Ci fdllt, erhdlt der Spieler das Dreifache seines Einsatzes ausgezahlt. Ihn interessiert in der Regel nicht die ausgespielte Zahl, sondern sein Nettogewinn, den wir mit Y bezeichnen. Y ist eine Funktion von UJ, also eine Zufallsvariable. Es gilt

, , _ r - 1 , falls a; ^ C i , ^^'^^~ \ 2, falls CC^GCI.

Page 55: Wahrscheinlichkeitsrechnung und schließende Statistik

2.1. GRUNDBEGRIFFE 43

Bei manchen Zufallsvorgangen kommt es nur darauf an, ob ein Ereignis A eintritt oder nicht. Dies kann man durch eine so genannte Indikatorvaria-ble X = 1 A zum Ausdruck bringen. Die Zufallsvariable, die lediglich das Eintreten von A anzeigt, wird durch

/ 1, falls uj e A, X(a.) = M u . ) = | ^ ^ falls a . € ^ ,

definiert. Wenn A eintritt, nimmt sie den Wert a: = 1 an; wenn A nicht eintritt, den Wert x = 0. Komplement, Durchschnitt und Vereinigung von Ereignissen entsprechen einfachen Rechenoperationen der Indikatorvariablen. Offenbar gilt (jeweils flir alle uj € Q>)

I 0 M = 0,

lAnB{(^) = 1A{(^) ^IB{(^) = 1 ^ ( 0 ; ) - l ^ M ,

I A U B H = 1A{UJ)W1B{UJ) = 1A{1A{^) + 1BH) .

wobei das Symbol A das Minimum und das Symbol V das Maximum zweier Zahlen bezeichnet, z.B. - 2 A 17 = - 2 und 1.2 V 0.5 == 1.2.

Beispiel 2.2 (Fortsetzung): Den Nettogewinn beim Setzen auf die erste Co-lonne kann man mit Hilfe einer Indikatorvariablen schreiben,

Y{uj) - 2 . I c , (a;) - 1 • %^ (c.) = 2 • I c , {UJ) - (1 - I c , {co))

= 3 . 1 c , M - l .

Viele Zufallsvorgange haben selbst Zahlen als Ergebnisse, dann ist Q C R. Wenn das Ergebnis to selbst als Merkmal interessiert, kann man dies durch die Zufallsvariable

X {LJ) = LU, LO eQ,

also durch die identische Abbildung, zum Ausdruck bringen.

Beispiel 2.3 (vgl. Beispiel 1.2): Werfen eines Wilrfels mit Jl = {1 ,2 , . . . , 6}. Wenn die geworfene Augenzahl als solche von Interesse ist, betrachtet man die Zufallsvariable

X {i) = i fur i = 1,2,.. . , 6.

Sehr wichtig ist es, die Zufallsvariable X und ihren Wert x sorgfaltig zu unterscheiden. Formal ist X eine Funktion und x eine Zahl. Inhaltlich besteht der Unterschied darin, dass X die Situation ex ante beschreibt, bevor sich das zufallige Geschehen ereignet, wahrend x sich auf die Situation ex post bezieht, wenn sich das zufallige Geschehen ereignet hat und sein Ergebnis feststeht. Uber X konnen Wahrscheinlichkeitsaussagen getroffen werden, liber x jedoch nicht.

Page 56: Wahrscheinlichkeitsrechnung und schließende Statistik

44 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

2.1.1 Verteilungsfunktion

Eine Zufallsvariable X nimmt ihre Werte mit bestimmten Wahrscheinlichkei-ten an. Das grundlegende Hilfsmittel, um mit diesen Wahrscheinlichkeiten zu rechnen, ist die Verteilungsfunktion von X. Dies ist die Funktion

Statt Fx{x) schreibt man auch F(x), wenn keine Verwechslungen zu erwarten sind. Die Verteilungsfunktion der Zufallsvariablen X ordnet also jeder Zahl x die Wahrscheinlichkeit eines Ereignisses zu, namlich des Ereignisses, dass X den Wert x oder einen kleineren Wert annimmt. Flir dieses Ereignis schreibt man auch kiirzer

{X < x} = {uj\X {LJ) < x}

und fiir seine Wahrscheinlichkeit unter Weglassung der geschweiften Klam-mern

P{X < x) = P{{uj\X (uj) <x}).

Hierbei haben wir stillschweigend vorausgesetzt, dass fiir jedes x G R diese Menge ein Ereignis ist, also {X < x} e A gilt. Die Funktion

B h-^ P{X e B)

heifit Verteilung der Zufallsvariablen X, wobei B alle Teilmengen von R durchlauft, die ein Ereignis beschreiben, d.h. flir die {(JJ\X{UJ) E B] e. A ist.

Eigenschaften der Verteilungsfunktion Die Verteilungsfunktion F ei-ner Zufallsvariablen X besitzt allgemein die folgenden Eigenschaften:

1. F ist monoton wachsend: F{x) < F{y) fiir x < y.

Die Monotonie folgt sofort daraus, dass fiir a; < y die Mengeninklusion {X<x}c{X< y} gilt.

2. F wachst von null bis eins:

lim F{x) = 0 und lim F{x) = 1.

Dies liegt zum einen daran, dass fiir x —> —oo die Menge {X < x} gegen die leere Menge 0 konvergiert und dass P ( 0 ) = 0 ist, zum anderen daran, dass die Menge {X < x} fiir x —> oo gegen Q konvergiert und p{n) = 1 ist.

Page 57: Wahrscheinlichkeitsrechnung und schließende Statistik

2.1. GRUNDBEGRIFFE 45

3. F ist rechtsstet ig, d.h. der Punktionswert F{x) ist an jeder Stelle x gleich dem rechtsseitigen Limes, d.h.

^mF{y) = F{x). y>x

Auf den Beweis der Rechtsstetigkeit wollen wir verzichten. Man beach-te, dass eine Verteilungsfunktion im Allgemeinen nicht stetig ist. Sie kann Sprtinge aufweisen, an denen der linksseitige Limes

lim F(x) y—^x ^ ' y<x

kleiner als der Punktionswert F{x) ist.

Die drei Eigenschaften einer Verteilungsfunktion lassen sich kurz so zusam-menfassen: Eine Verteilungsfunktion wachst monoton von 0 (bei x = — oo) bis 1 (bei x = oo) und ist rechtsstetig.

Umgekehrt kann man zu jeder gegebenen Funktion F , die diese drei Eigen­schaften besitzt, eine Zufallsvariable X so konstruieren, dass F die Vertei­lungsfunktion von X ist.

Beispiel 2.2 (Fortsetzung): Die Zufallsvariable X „Nettogewinn'' bei Setzen von 1 € auf die erste Colonne hat die Verteilungsfunktion

F{x) =

0 25 37

flir X < - 1 ,

fiir - 1 < X < 2 ,

fiir X > 2.

F(x)

->• X

- 1 0

Abbildung 2.1: Verteilungsfunktion der Zufallsvariablen „Nettogewinn" in Bei­spiel 2.2

Man sieht in Abbildung 2.1, dass der Graph von F an den Stellen x = —\ und X = 2 springt, F aber rechtsstetig ist.

Page 58: Wahrscheinlichkeitsrechnung und schließende Statistik

46 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

Beispiel 2.1 (Fortsetzung): Beim dreimaligen Werfen der Milnze nehmen wir an, dass es sich um ein Laplace-Experiment handelt. Dies bedeutet, dass jede der Ergebnisfolgen aus K (= Kopf) und Z (= Zahl) die gleiche Wahrschein-lichkeit besitzt. Filr die Zufallsvariable X = „Anzahl Kopf' gilt dann

P{X = 0) 1

P{X = 1)

P{X = 2) = § , P{X = 3) = i

und filr die Verteilungsfunktion

F{x) = l

0 0.125 0.5 0.875 1

fiir X < 0, fur 0 < x < 1, fiir 1 < X < 2, flir 2 < X < 3 , ftir a; > 3 .

In vielen Anwendungen der Wahrscheinlichkeitsrechnung geniigt es, statt ei­ner Zufallsvariablen X lediglich ihre Verteilungsfunktion zu untersuchen. Oft ist es kompliziert oder iiberhaupt nicht moglich, Q. und die Abbildungsvor-schrift X : f -^ M explizit anzugeben, jedoch lassen sich die Wahrscheinlich-keiten, mit denen eine Zufallsvariable bestimmte Werte annimmt oder der Verlauf ihrer Verteilungsfunktion aus sachlogischen Erwagungen unmittelbar bestimmen. Eine explizite Angabe der Ergebnismenge fi und punktweise De­finition einer Zufallsvariablen X als X(cj), a; G fi, ist in der Kegel nicht notig und aus Sicht des Anwenders ohne Belang.

Beispiel 2.4' Die Lebensdauer eines elektronischen Bauteils wird durch die Bedingungen seiner Herstellung, die Umstdnde seiner Nutzung und durch zahlreiche weitere Einflilsse bestimmt. Wir fassen die Lebensdauer deshalb als Zufallsvariable auf und bezeichnen sie mit X. Die im konkreten Fall rea-lisierte Dauer X{ijo) hdngt dann vom Ergebnis uj des ihr zugrundeliegenden Zufallsvorgangs ab. Um UJ £ Q und die Zuordnung UJ J—> X{uj) zu beschrei-ben, milsste man sdmtliche Einflussfaktoren spezifizieren, was praktisch kaum moglich ist. Besser ist es, ganz darauf zu verzichten und sich durch sachbezo-gene Uberlegungen eine Vorstellung vom Verlauf der Verteilungsfunktion zu verschaffen. Man kann zeigen (siehe unten Abschnitt 2.4-2), dass, wenn das Bauteil in einem bestimmten Sinn nicht „altert'', die folgende Verteilungs­funktion (mit geeignetem Parameter X) angemessen ist:

F{x) = 0, 1 - e — Ax

falls X < 0, falls X > 0.

Zahlreiche weitere Beispiele finden sich in den folgenden Abschnitten 2.3 und 2.4 liber spezielle Verteilungen.

Page 59: Wahrscheinlichkeitsrechnung und schließende Statistik

2.1. GRUNDBEGRIFFE 47

Die Verteilungsfunktion F einer Zufallsvariablen gibt die Wahrscheinliclikeit fiir alle Ereignisse der Form {X < x}, a; G R, an. Hieraus kann man die Wahrscheinlichkeiten fiir alle anderen interessierenden Ereignisse ableiten. Die Wahrscheinlichkeit, dass X in ein - beschranktes oder unbeschranktes -In ter vail fallt, lasst sich in besonders einfacher Weise aus der Verteilungs­funktion berechnen:

P{X>x) = l-P{X<x) = 1-F{x),

P{a<X <b) = P{X <b)-P{X <a)

= F ( 6 ) - F ( a ) ,

wenn a < b ist. Fiir das Ereignis {X = x} gilt

PiX = x) = Fix)-UmF{y). (2.1) y<x

Hieraus folgert man

P{X>a) = l-P{X < a) = 1- Vim F{y) y<a.

und analog P ( a < X < 6 ) = F ( 6 ) - l i m F ( j / ) ,

y<a

wenn a < 6 ist.

2.1.2 Quant ilfunkt ion

Fiir eine gegebene Zahl x ist Fx{x) die Wahrscheinlichkeit, dass X hochstens den Wert x annimmt. Umgekehrt kann man, wenn eine Wahrscheinlichkeit p gegeben ist, fragen, welchen Wert x die Zufallsvariable mit Wahrschein­lichkeit p nicht iiberschreitet. Hierbei ist allerdings Vorsicht geboten. Wenn die Verteilungsfunktion stetig ist und streng monoton wachst, besitzt sie eine eindeutige Umkehrfunktion Qx ' p '—> Xp^ 0 < p < 1, genannt Quanti l-funktion. Dies ist im folgenden Beispiel der Fall.

Beispiel 2.4 (Fortsetzung): Die Lebensdauer eines elektronischen Bauteils werde als Zufallsvariable X mit der Verteilungsfunktion

r 0, falls x < 0 , rx{J^) <^ 1 - e - ^ , falls x > 0 .

^Dazu gehoren die abgeschlossenen Intervalle [a, 6], die ofFenen Intervalle ]a, 6[, die halb-ofFenen Intervalle [a, b[ und ]a, 6], sowie die Halbgeraden [c, oo[, )c, oo[,) — oo, c] und ) — oo, c[, wobei a, b und c reelle Zahlen sind mit a < b.

Page 60: Wahrscheinlichkeitsrechnung und schließende Statistik

48 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

angesehen. Offenbar ist Fx stetig und fiir x > 0 streng monoton wachsend. Die Quantilfunktion ist in diesem Fall gleich der gewohnlichen Umkehrfunk-tion von Fx- Fur jedes p G]0, 1[ gilt ndmlich

Fx{x)=p <=> l - e ~ ^ = p <^ X = -\n{l-p),

also

Qxip) -=xp= - l n ( l - p ) = In (T^) •

Diese Quantilfunktion ist zusammen mit der Verteilungsfunktion in Abbil-dung 2.2. a abgebildet.

Wenn die Verteilungsfunktion jedoch Spriinge macht, gibt es nicht fiir jedes p ein solches Xp und, wenn - wie im obigen Beispiel 2.1 - die Verteilungsfunktion zum Teil waagrecht verlauft, ist dieses Xp nicht immer eindeutig bestimmt. Die folgende allgemeine Definition tragt dem Rechnung:

Fiir eine Zufallsvariable X mit Verteilungsfunktion Fx heifit die Punktion

Qx- ]0,1[ —> M,

P '—> Qx (p) = m\ii{x\Fx {x) > p] ,

Quantilfunktion von X, Der Wert der Quantilfunktion Xp = Qx (p) heifit p-Quantil von X. Das p-Quantil Xp ist demnach die kleinste Zahl a; G M mit der Eigenschaft, dass Fx{x) den Wert p erreicht oder iiberspringt. Es wird auch als p- 100%-Punkt bezeichnet. Statt Qx und Fx schreiben wir im Folgenden kiirzer Q und F , wenn nur eine Zufallsvariable X in Frage kommt.

Der Graph der Quantilfunktion Q hangt eng mit dem der Verteilungsfunk­tion F zusammen (siehe Abbildung 2.2.a bis c): Er ist nichts anderes als die Spiegelung des Graphen von F an der 45-Grad-Linie. Dabei gehen et-waige Spriinge von F (in der Abbildung als senkrechte Linien gestrichelt) in waagrechte Abschnitte des Graphen von Q iiber, und etwaige waagrechte Abschnitte des Graphen von F werden zu senkrechten Linien (das sind die Spriinge) des Graphen von Q,

Beispiel 2.5: Eine Zufallsvariable X nehme die drei Werte 0.3, 1.2 und 2.4 an, und zwar mit den Wahrscheinlichkeiten

P{X = 0.3)=0.2, P{X = 1.2)=0A, P{X = 2A)=0A.

Die Verteilungsfunktion und die Quantilfunktion von X sind in Abbildung 2.2.b dargestellt

Page 61: Wahrscheinlichkeitsrechnung und schließende Statistik

2.1. GRUNDBEGRIFFE 49

a)

Verteilungsfunktion

Quantilfunktion

b)

1-

• • — •

— -• • •

; •

- V — ' -

Abbildung 2.2: Drei Verteilungsfunktionen und ihre Quantilfunktionen

Page 62: Wahrscheinlichkeitsrechnung und schließende Statistik

50 2. ZUFALLSVARIABLE UND VERTEILUNGEN

Fiir einige Quantile verwendet man spezielle Namen:

xo.5 Median ^0.25 ^0.5 ^0.75 Quartile

^0.2 ^OA xo,Q 0 0.8 Quintile ^0.1 ^0.2 ^0.3 ^0.4 ^0.5 ^0.6 ^0.7 ^ Q.S ^0.9 Dezile

Wenn die Zufallsvariable X geniigend viele verschiedene Werte annimmt, lassen sich diese Quantile wie folgt interpretieren:

• Der Median 0:0.5 teilt die reelle Achse in zwei Telle, die jeweils ungefahr 50% der Wahrscheinlichkeitsmasse tragen.

• Die Quartile xo.25, ^0.5 und xo.75 teilen die reelle Achse in vier Telle ein, auf denen jeweils ungefahr ein Viertel der Wahrscheinlichkeitsmasse liegt. Analog interpretiert man Quintile und Dezile.

Im Beispiel 2.4 sind Median und oberes Dezil durch

xo5 = In I —— ) =: ln2 = 0.69 und V l - 0 . 5 /

X0.9 = InlO = 2.30

gegeben, im Beispiel 2.5 durch yo.5 = 1.2 und yo.9 = 2.4. Im Beispiel 2.4 Hegt links und rechts vom Median jeweils exakt die Hdlfte der Wahrscheinlichkeitsmasse. Es ist ndmlich

P{X<XQ,3) = F(ln2) = l - e - ^ " 2 = 0.5 und

P{X > xo.s) = 1 - JJ m^ F{x) = 1 - (1 - e" ^^2) = 0.5 . x < l n 2

Im Beispiel 2.5 hingegen haben wir

P{X < X0.5) = P{X < 1.2) = 0.2 und

P{X>xo,5) = P ( X > 1 . 2 ) = 0.4.

Wie man sieht, treffen bei Zufallsvariablen, die wie die im Beispiel 2.5 mit relativ grofier Wahrscheinlichkeit einzelne Werte annehmen, die obigen Inter-pretationen nicht genau zu. Weitere Hinweise zur Berechnung von Quantilen finden sich im Abschnitt 2.4. In der statistischen Literatur und Software kom-men auch auch andere Definitionen von Quantilen vor.

Eigenschaften der Quantilfunktion Die Quantilfunktion Q hat ahnli-che for male Eigenschaften wie die Verteilungsfunktion: Sie ist

1. monoton wachsend, d.h. fiir p < p' ist Q (p) <Q{p'),

Page 63: Wahrscheinlichkeitsrechnung und schließende Statistik

2.1. GRUNDBEGRIFFE 51

2. linksstetig, aber im Allgemeinen nicht stetig.

Verteilungsfunktion F und Quantilfunktion Q sind wie folgt miteinander ver-knlipft:

F{Q{p)) > P fu rpG]0 , l [ ,

Q{F{x)) < X f i i rxGM.

Man beachte, dass die beiden Ungleichheitszeichen im Allgemeinen nicht durch Gleichheitszeichen ersetzt werden dlirfen.

2.1.3 Diskrete Zufalls variable

In der elementaren Wahrscheinlichkeitsrechnung unterscheidet man zwei Ty-pen von Zufallsvariablen, diskrete und stetige Variable. Im Umgang mit die-sen beiden Typen von Zufallsvariablen werden unterschiedliche mathemati-sche Hilfsmittel benutzt; zum Einen das Rechnen mit endlichen und unend-lichen Summen, zum Anderen die Differential- und Integralrechnung.

Eine Zufallsvariable X heifit diskret, wenn es entweder

• endlich viele Punkte xi , X2,. . . , x j oder

• abzahlbar unendlich viele Punkte a:i,X2,X3,...

so gibt, dass

Pj = P {X = Xj) > 0 ftir alle j sowie T^^Pj = 1 3

gilt. Die Menge

Tx = {xi,a:2,.. . ,a;j} bzw. Tx = {xi,X2,...}

heifit Trager von X. Der Trager einer diskreten Zufallsvariablen ist die Menge aller Werte, die X mit einer positiven Wahrscheinlichkeit annimmt. Es gilt P{X G Tx) = 1. Die Punktion

f(T)- f^(r)- ^ ^^' falls a; = x, ftir ein j , j(x)-jx[X)-<^ 0 sonst,

heifit Wahrscheinlichkeitsfunktion von X. Sie kann etwa mittels eines Stabdiagramms graphisch dargestellt werden.

Die Verteilung der diskreten Variablen X ist durch die Paare {xj^Pj), j — 1,2,.. . , eindeutig bestimmt, denn ftir jede Menge B gilt

Page 64: Wahrscheinlichkeitsrechnung und schließende Statistik

52 2. ZUFALLSVARIABLE UND VERTEILUNGEN

fix) F{x)

^ 0 0

Abbildung 2.3: Wahrscheinlichkeitsfunktion und Verteilungsfunktion von „Anzahl Kopf" im Beispiel 2.1

Dabei erstreckt sich die Summe iiber allep^, fiir die Xj in B Uegt. Insbesondere ist

F{x)^P{X<x)= J2 Pi j\Xj<X

die Verteilungsfunktion an der Stelle x G R. Die Verteilungsfunktion einer diskreten Zufallsvariablen ist offenbar eine Treppenfunktion, deren Spriinge an den Stellen Xj G Tx liegen. Die Sprunghohe an der Stelle Xj ist gleich

F{xj)- \imF{x)=pj, x<,x

also gleich der Wahrscheinlichkeit fiir Xj.

Beispiel 2.1 (Fortsetzung): Beim dreifachen Wurf einer Milnze werden al-le moglichen Ergebnisse als gleich wahrscheinlich angenommen (Laplace-Ex-periment). Dann ist X (= Anzahl Kopf) eine diskrete Zufallsvariable mit Wahrscheinlichkeitsfunktion

fix)

0.125, 0.375, 0.375, 0.125, 0

falls X = 0, falls a; = 1, falls X = 2, falls X = 3, sonst.

Wahrscheinlichkeitsfunktion und Verteilungsfunktion sind in Abbildung 2.3 dargestellt.

Page 65: Wahrscheinlichkeitsrechnung und schließende Statistik

2.1. GRUNDBEGRIFFE 53

m

>• X

0 X

Abbildung 2.4: Dichte f{x) und Verteilungsfunktion F{x)

2.1 A Stetige Zufallsvariable

Eine Zufallsvariable X nennt man stetig, wenn sich ihre Verteilungsfunktion Fx als Integral einer Funktion fx '- M — [0,oo[ schreiben lasst, d.h. wenn

(2.2)

Die Funktion fx{x) heifit dann Dichtefunktion, kurz: Dichte, von X, und man sagt, X sei stetig verteilt. Statt Fx{x) und /x (^ ) schreibt man auch F{x) bzw. f{x).

Die Verteilungsfunktion einer stetigen Zufallsvariablen ist also eine Stamm-funktion ihrer Dichtefunktion; in Abbildung 2.4 entspricht der Wert F{x) dem Inhalt der punktierten Flache unterhalb des Graphen der Dichte / . Durch Differenzieren der Verteilungsfunktion erhalt man die Dichte,

m = F'{x),

vorausgesetzt die Verteilungsfunktion F ist an der Stelle x tatsachlich dif-ferenzierbar. Bei den stetigen Zufallsvariablen, die im Folgenden untersucht werden, ist die Verteilungsfunktion an hochstens ein oder zwei Stellen nicht differenzierbar. An diesen Stellen macht die Dichte einen Sprung.

Eigenschaften der Dichtefunktion Die wesentlichen Eigenschaften sind:

1. Nichtnegativitat f{x) > 0 flir alle x G

Page 66: Wahrscheinlichkeitsrechnung und schließende Statistik

54 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

oo

2. Normiertheit / f{x)dx = 1. —oo

Die beiden Eigenschaften folgen aus der Monotonie von F und der Tatsache, dass lima;_^oo F{x) = 1 ist. Umgekehrt lasst sich zu jeder Funktion / , die diese beiden Eigenschaften hat, eine stetige Zufallsvariable konstruieren, die / als Dichte besitzt.

Eine Besonderheit stetiger Zufallsvariablen besteht darin, dass flir jede gege-bene Zahl x die Wahrscheinlichkeit, dass X den Wert x annimmt, gleich null ist. Da F stetig ist, gilt namlich ftir jedes a; G R

lim F{y) = F{x), y<x

und deshalb wegen (2.1) Pf^X = x)=0.

Dennoch gibt es Mengen B, fiir die P{B) > 0 ist, insbesondere gilt offenbar P{X G E) = 1.

Wahrscheinlichkeiten fiir Intervalle Speziell bestimmen wir nun die Wahrscheinlichkeit eines Intervalls, das durch a und b begrenzt wird, a < b. Es gilt:

P{a<X<b) = F{b)-F{a) b a b

= f f{t)dt- f f{t)dt = f f{t)dt. — oo —oo a

Da P{X = a) = P{X = b) = 0 ist, gilt auch

P{a<X <b) = P{a<X <b) = P{a<X <b) = P{a<X <b).

Die Wahrscheinlichkeit, dass eine stetige Zufallsvariable X in ein Intervall mit den Grenzen a und 6 fallt, ergibt sich also als Integral iiber die Dichte von X in den Grenzen a und 6; siehe Abbildung 2.5. Ob die Grenzen zum Intervall gehoren oder nicht, ist dabei gleichgiiltig.

Man beachte, dass eine Dichte auch Werte grofier als 1 annehmen kann. Der Wert f{x) gibt also nicht etwa die Wahrscheinlichkeit an, dass X den Wert X annimmt (diese ist gleich null), vielmehr ist

f{x) = lim -P{x<X<x-{-e), £—*0 £

Page 67: Wahrscheinlichkeitsrechnung und schließende Statistik

2.1. GRUNDBEGRIFFE 55

m

F{b) - F(a)

Abbildung 2.5: Wahrscheinlichkeit fiir ein Intervall mit den Grenzen a und b

m

J f{a) '{b-a)

0 a

Abbildung 2.6: Approximation der Wahrscheinlichkeit fiir ein Intervall mit den Grenzen a und b

d.h. f{x) ist naherungsweise gleich 1/e mal der Wahrscheinlichkeit, dass X in ein kleines Intervall bei x fallt, das die Lange e besitzt. Die Wahrscheinlich­keit, dass X in ein kleines Intervall [a, b\ fallt, kann deshalb in erster Naherung durch

P{a<X <b)^ f{a){b-a)

approximiert werden; vgl. Abbildung 2.6.

Trager Wir kommen nun zum allgemeinen Begriff des Tragers einer Zu-fallsvariablen X. Unter dem Trager von X verstehen wir die kleinste abge-

Page 68: Wahrscheinlichkeitsrechnung und schließende Statistik

56 2. ZUFALLSVARIABLE UND VERTEILUNGEN

schlossene^ Menge Tx C M mit der Eigenschaft

P{XeTx) = i.

Tx ist also die kleinste abgeschlossene Menge, aufierhalb derer sich keine Wahrscheinlichkeitsmasse befindet. Falls X endlich diskret verteilt ist, bilden die Punkte x^, die mit positiver Wahrscheinlichkeit pj angenommen werden, eine endliche Menge; diese ist abgeschlossen und daher der Trager von X. Falls X stetig verteilt ist, gibt es keine einzelnen Punkte, die mit positiver Wahrscheinlichkeit angenommen werden; hier benotigen wir die allgemeinere Form der Definition des Tragers. Alle Beispiele stetiger Verteilungen in diesem Lehrbuch haben ein abgeschlossenes Intervall (beschrankt oder unbeschrankt) als Trager.

Quantilfunktion Da die Verteilungsfunktion einer stetigen Zufallsvaria-blen stetig ist, nimmt ihre Quantilfunktion die folgende einfache Form an:

Q{p) = min {x \ F (x) = p} , 0<p<l.

Zur Bestimmung eines Quantils Xp muss man lediglich die kleinste Losung x der Gleichung F (x) = p aufsuchen. In alien Beispielen des Lehrbuchs wird die Losung der Gleichung eindeutig sein.

Beispiel 2.6: In einer Fernsehshow wird ein Gliicksrad in Bewegung gesetzt und der Stillstand abgewartet. Es sei

X = Position des Gliicksrads in Grad bei Stillstand.

Der Mechanismus ist so konstruiert, dass keine Winkel bevorzugt auftreten. Man kann deshalb davon ausgehen, dass X eine stetige Zufallsvariable mit der folgenden Dichte ist:

f 3 ^ , fa l l s0<x<360,

[ 0 sonst.

Fur die Verteilungsfunktion gilt dann

0, falls X < 0,

F{x) = { 3 ^ X, falls 0 < X < 360,

1, falls X > 360.

^Eine Menge T C M heii3t abgeschlossen, wenn alle Randpunkte von T als Elemente zu T gehoren. Jedes abgeschlossene Intervall, jede endliche Vereinigung abgeschlossener Intervalle und jede endliche Menge sind in diesem Sinne abgeschlossen. Auch N, R und [0, oo[ sind abgeschlossene Mengen.

Page 69: Wahrscheinlichkeitsrechnung und schließende Statistik

2.1. GRUNDBEGRIFFE 57

fix)

0.01

1 360

360

F{x)

^ X

Abbildung 2.7: Dichte und Verteilungsfunktion des „angezeigten Winkels" in Bei­spiel 2.6

Trdger der Verteilung ist das Intervall [0,360]; vgl. Abbildung 2.7. Die Quan-tilfunktion ermittelt man durch Auflosung der Gleichung p = F{x) nach X = Q{p), also

Q{p) = 360p fiir 0 < p < 1.

Das untere Quartil z.B. ist xo.25 = Q(0.25) = 90.

Beispiel 2.4 (Fortsetzung): Wir betrachten wieder die Lebensdauer X eines elektronischen Bauteils mit der Verteilungsfunktion

, , _ r 0, falls x < 0 , ^^ \ 1 - e-^ , falls a; > 0.

Da F fiir alle x y^ 0 differenzierbar ist, erhalten wir die Dichte

falls X < 0, falls x>0.

In diesem Beispiel ist der Trdger gleich [0, oo[. Die Dichte ist in Abbildung 2.8 dargestellt.

Intervallwahrscheinlichkeiten Zum Schluss dieses Abschnitts fassen wir die Formeln ftir die Wahrscheinlichkeit, dass X in ein Intervall fallt, noch einmal tabellarisch zusammen. Je nach Verteilungstyp gilt Folgendes:

Page 70: Wahrscheinlichkeitsrechnung und schließende Statistik

58 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

fix)

Abbildung 2.8: Dichte der Lebensdauerverteilung im Beispiel 2.4

P{a<X < b)

P{X < b)

P{X > a)

allgemein

F{b) - F{a)

F{b)

l - F ( a )

stetige Verteilung

/ f{x)dx J a pb

/ f{x) dx J —oo

nOQ

/ f{x) dx J a

diskrete Verteilung

j\a<Xj<b

j\xj>a

2.1.5 Affin-lineare Transformation von Zufallsvariablen

Haufig kennt man die Verteilung einer Zufallsvariablen X und ist an der Ver­teilung einer anderen Zufallsvariablen Y interessiert, die mit X durch eine monoton wachsende affin-lineare Transformation - d.h. eine Nullpunkts-verschiebung und/oder Skalenanderung - verknlipft ist. Im Folgenden geben wir die Verteilungsfunktion, die Quantilfunktion und - im Fall einer stetigen Variablen - die Dichte von Y an.

Gegeben sei die Verteilungsfunktion Fx einer Zufallsvariablen X. Mit a, 6 € M und 6 > 0 wird durch Y = a + bX eine weitere Zufallsvariable definiert. Dann gilt:

Page 71: Wahrscheinlichkeitsrechnung und schließende Statistik

2.1. GRUNDBEGRIFFE 59

1. Die Verteilungsfunktion Fy von Y ist

Fviy) = Fx y-a

denn fiir 6 > 0 gilt

Fy{y)^P{a + bX<y)^P[X<

y €

y-a = Fx — a

(2.3)

2. Wenn Xp = Qx{p) das p-Quantil von X ist, so ist

yp = a^bxp (2.4)

das p-Quantil von Y = a -\- bX, 0 < p < 1. Dies folgt direkt aus der Definition des Quantils.

3. Falls X stetig verteilt ist mit Dichte fx, ist auch Y stetig verteilt. Y besitzt die Dichte

fviy) 1 f fy~^ (2.5)

Man erhalt sie durch Differenzieren der Verteilungsfunktion (2.3). So-weit Fx differenzierbar ist, gilt fiir y G M

Fviy) = Fx y-a

Beispiel 2.6 (Fortsetzung): Mit dem rotierenden Gliicksrad wird in der Fernseh-show folgendes Gewinnspiel verbunden. Bin zuvor bestimmter Kandidat erhdlt als Gewinn in jedem Fall 999 € ausgezahlt. Der Gewinn erhoht sich pro Grad des angezeigten Winkels um 9.99 €. Wie lautet die Wahrscheinlichkeitsver-teilung des Gewinns?

Die Gewinnfunktion (in €) lautet g{x) — 999 +9.99 x, wobeix der angezeigte Winkel ist, 0 < x < 360. Das Minimum ist g{Qi) = 999, das Maximum g{360) = 999 + 9.99-360 = 4595.40. Als Zufallsvariable Y geschrieben, ist der Gewinn eine affin-lineare Transformation der Zufallsvariablen X, ndmlich

r =:999 + 9.99X.

Page 72: Wahrscheinlichkeitsrechnung und schließende Statistik

60 2. ZUFALLSVARIABLE UND VERTEILUNGEN

Da X stetig verteilt ist mit der Dichte

( 3I0 , falls 0 < a; < 360,

[ 0 sonst,

folgt, dass Y ebenfalls stetig verteilt ist und wegen Formel (2.5) die Dichte

^^^^^ 9.99 ^ \ 9.99 /

besitzt, also

1

fy (y) = i 9.99 • 360

0 sonst.

, falls 999 <y< 4595.40,

2.1.6 Unimodali tat

Unter den Wahrscheinlichkeitsverteilungen sind diejenigen ausgezeichnet, de-ren Dichte bzw. Wahrscheinlichkeitsfunktion f{x) in Abhangigkeit von x zunachst anwachst und dann wieder abfallt. Solche Verteilungen sind in den obigen Beispielen 2.1 und 2.6 aufgetreten; siehe Abbildung 2.9. Sie werden als unimodal oder eingipflig bezeichnet. Zur genauen Definition mlissen wir zwischen stetigen und diskreten Zufallsvariablen unterscheiden.

Unimodale stetige Verteilung Eine stetige Wahrscheinlichkeisvertei-lung mit der Dichte / heifit unimodal, wenn es mindestens einen Wert XM gibt, fiir den

f{x) < f{y) < / ( X M ) fiir alle x,y mit x < y < XM

und / ( X M ) ^ f{y) > / (^) fiir alle x, y mit XM < y < X

gilt. Jeder solche Wert XM wird ein Modus genannt. Offenbar kann eine uni­modale stetige Verteilung mehrere Modi besitzen, diese bilden ein Intervall.

Beispiel 2.7: Die Verteilung mit der Dichte (siehe Abbildung 2.10 links)

. . . f 1 - |x| , falls - 1 < a; < 1

m = 10 0 sonst,

ist unimodal mit einem eindeutigen Modus, ndmlich XM = 0.

Beispiel 2.6 (Fortsetzung): Offenbar ist die Verteilung aus Beispiel 2.6 uni­modal und jeder Punkt des Intervalls [0,360] ist ein Modus; vgl. Abbildung 2.9 rechts.

Page 73: Wahrscheinlichkeitsrechnung und schließende Statistik

2.1. GRUNDBEGRIFFE 61

fix) m

i

0.01-

1 ^

i

^^ ^ 360 T ^

1 360

Abbildung 2.9: Wahrscheinlichkeitsfunktion aus Beispiel 2.1 und Dichtefunktion aus Beispiel 2.6

Beispiel 2.8: Abbildung 2.10 rechts zeigt die Dichte einer stetigen Verteilung, die nicht unimodal ist.

Unimodale diskrete Verteilung Wir betrachten nun die Wahrschein-lichkeitsverteilung einer diskreten Zufallsvariablen X. Der Trager von X sei aufsteigend geordnet,

Xj < Xk , wenn j < k,

und es sei pj = P{X = Xj), J2jPj = 1 • Die Verteilung von X heifit unimo­dal, wenn es mindestens einen Wert XM niit P{X den

^ M ) = PjM gibt, fiir

Pj <Pk< PjM f^r all^ J^ k mit j <k < JM und pjj^ > P/e > Pj fiir alle j , k mit JM < k < j

(2.5)

gilt. Jeder solche Wert XM wird ein Modus genannt.

Beispiel 2.1 (Fortsetzung): Die Verteilung beim dreifachen Miinzwurf (vgl. Abbildung 2.9 links) ist unimodal. Sie besitzt zwei Modi, ndmlich XMI = 1 und XM2 = 2.

Wenn eine Verteilung unimodal ist, lasst sich ihre Wolbung (vgl. Abschnitt 2.2.4) anschaulich interpretieren. Unimodale Verteilungen besitzen - gegen-iiber allgemeinen Verteilungen - zahlreiche giinstige Eigenschaften. So las-sen sich beispielsweise Abschatzungen von Wahrscheinlichkeiten durch die Tschebyscheff-Ungleichung (Abschnitt 2.2.3) verbessern, wenn die zu-grundeliegende Verteilung unimodal ist. Eine umfassende Darstellung der Eigenschaften unimodaler Verteilungen findet man in Dharmadhikari und Joag-dev (1988).

Page 74: Wahrscheinlichkeitsrechnung und schließende Statistik

62 2. ZUFALLSVARIABLE UND VERTEILUNGEN

^x

Abbildung 2.10: Unimodale (Beispiel 2.7) und nicht unimodale (Beispiel 2.8) Ver-teilung

2.1.7 Symmetrie

In vielen Fallen schwankt eine Zufallsvariable um einen zentralen Wert. Wenn die Abweichungen nach oben und unten mit den gleichen Wahrscheinlichkei-ten auftreten, spricht man von einer symmetrischen Wahrscheinlichkeitsver-teilung.

Sei X eine Zufallsvariable und c G R eine Zahl. Wenn

P{X <c-y) = P{X >c + y) fiir alle y£R

gilt, sagt man, X sei symmetr isch zu c verteilt . Gleichbedeutend gilt P{X — c < —y) = P{—{X — c) < —y) fiir alle y, mit anderen Worten, die beiden Zufallsvariablen

X — c und — {X — c) haben die gleiche Verteilung.

Wenn X stetig verteilt ist mit Dichte f{x) und Verteilungsfunktion F{x), ist die Symmetrie der Verteilung gleichbedeutend mit

F{c-y) = l - F{c + y) fiir alle y > 0.

Durch Differenzieren von (2.6) folgt

f{c -y) = f{c + y) fiir alle y>0.

(2.6)

(2.7)

Umgekehrt kann man leicht durch Integration zeigen, dass aus (2.7) wiederum (2.6) folgt, beide Bedingungen also in aquivalenter Weise die Symmetrie einer stetigen Zufallsvariablen charakterisieren.

Page 75: Wahrscheinlichkeitsrechnung und schließende Statistik

2.2. VERTEILUNGSPARAMETER 63

Beispiel 2.9: Zwei Beispiele filr Dichten von symmetrischen Verteilungen fin-det man in Abbildung 2.4 und 2.7. Die in Abbildung 2.4 dargestellte Dichte ist offenbar symmetrisch zu c = 0, wdhrend die Dichte in Abbildung 2.7 sym-metrisch zu c = 180 ist; vgl. auch Beispiel 2.6. Die erste Dichte gehort zur Klasse der Normalverteilungen, die zweite zur Klasse der Rechteckverteilun-gen. Beides sind wichtige Klassen von symmetrischen Verteilungen, die wir in den Abschnitten 2.4-1 und 2.4-4 ausfuhrlich behandeln werden.

2.2 Verteilungsparameter

In diesem Abschnitt wollen wir einige Grofien einfiihren, die die Verteilung ei­ner Zufallsvariablen im Hinblick auf ihre Lage, Streuung und Schiefe beschrei-ben. Sie werden Verteilungsparameter genannt, da sie einerseits von der Verteilung abhangen, andererseits die Verteilung unter bestimmten Aspekten charakterisieren.

2.2.1 Erwart ungswert

Als Erstes soil die allgemeine Lage einer Zufallsvariablen X beschrieben wer­den. Ist X diskret, so ist die Verteilung von X durch die Gesamtheit der moglichen Werte Xj und ihrer Wahrscheinlichkeiten pj gegeben. Ist X stetig, so ist die Verteilung durch die Dichte f{x) bestimmt. Der Erwart ungswert der Verteilung von X ist folgendermafien definiert^:

E[X] = {

( Yl ^jPj ' f^lls X diskret, 3

oo

/ xf{x)dx, falls X stetig.

Man schreibt auch E [X] = fix -

Bei einer diskreten Zufallsvariablen X werden also alle Werte Xj aus dem Trager von X mit den zugehorigen Wahrscheinlichkeiten pj = P{X = Xj) gewichtet und aufsummiert, bei einer stetigen Zufallsvariablen tritt an die Stelle der Summe ein Integral.

•^Es gibt Zufallsvariable (mit unendlichem Trager), bei denen die den Erwartungswert definierende Summe bzw. das Integral einen unendlichen Wert ergeben oder uberhaupt nicht konvergieren. Zum Beispiel besitzt die stetige Zufallsvariable mit der Dichte f{x) =

(14- ^)^^ ^ ^ ' l i ^®^ Erwartungswert, da das uneigentliche Integral J^^x-jY^—^z^dx nicht konvergiert. W^eitere Beispiele liefern die Pareto-Verteilungen in Abschnitt 2,4.3.

Page 76: Wahrscheinlichkeitsrechnung und schließende Statistik

64 2. ZUFALLSVARIABLE UND VERTEILUNGEN

Beispiel 2.2 (Fortsetzung): Beim Roulette erhdlt man

• den dreifachen Einsatz, wenn man auf Colonne gesetzt hat (und die gesetzte Colonne erscheint),

• den 36-fachen Einsatz, wenn man auf Zahl gesetzt hat (und die gesetzte Zahl erscheint).

Die Nettoauszahlung ist in beiden Fallen eine diskrete Zufallsvariable,

^Colonne ^^ \ _-t falls die Colonne erscheint, falls nicht,

bzw. falls die Zahl erscheint,

Xzahi - 1 - 1 ^ falls nicht.

Fiir die Erwartungswerte gilt

E[Xcolonne] = ("•'•)• 37 ^ ^ ' 37 ^

E[Xzahl] = ( - ! ) • § + 3 5 - ^ =

I I U ,

1 ~ 3 7 '

1 ~37

Offenbar stellt der Erwartungswert einer Zufallsvariablen X nicht immer einen moglichen Wert von X dar. So nimmt im Beispiel die Zufallsvariable ^Colonne ^ur die beiden Werte —1 und 2 an. Ihr Erwartungswert ist jedoch E [XColonne] = -j^', ei gehort nicht zum Trager von Xcoionne-

Ist X eine stetige Zufallsvariable, so gilt P{X = x) = 0 fiir alle x G R. Die Berechnung des Erwartungswerts kann deshalb nicht wie bei diskreten Zufallsvariablen erfolgen. Vielmehr wird bei stetigen Zufallsvariablen nach der obigen Formel jeder Wert x aus dem Trager mit der Dichte f{x) gewichtet und dann integriert. Dabei kann man den Integrationsbereich auf den Trager beschranken, da auCerhalb des Tragers die Dichte gleich null ist.

Beispiel 2.6 (Fortsetzung): Die Zufallsvariable X hat die Dichte f{x) = 3 ^ , falls 0 < re < 360, / (x) = 0 sonst. Ihr Erwartungswert ist

00 360

E[X] = f xf{x)dx = J x^dx = 180.

Erwar tungswer t einer t ransformier ten Zufallsvariablen Haufig be-notigt man nicht den Erwartungswert von X selbst, sondern den einer trans­formierten Zufallsvariablen Y = g{X). Die Transformation kann beispiels-weise eine affin-lineare Funktion Y = a-{- bX^ eine Potenz wie y — X^ oder

Page 77: Wahrscheinlichkeitsrechnung und schließende Statistik

2.2. VERTEILUNGSPARAMETER 65

Y = X^ oder eine Exponentialfunktion Y = expX sein. Ftir eine beliebige Punktion ^ : R —> M berechnet man den Erwartungswert der transformierten Zufallsvariablen Y = g{X) mit der Formel

E[9{X)] = {

( Y^g{xj)pj , falls X diskret, 3 oo

/ 9{^)fx{x)dx ^ falls X stetig.

Beispiel 2.2 (Fortsetzung): Wir betrachten die Zufallsvariablen Xcoionne ^^^ Xzahi sowie die Funktion g{x) — x^, Dann ist

^ l^Colonnej

^ l^Zahl]

{-If

{-If

25 „2 12 1-2 =

37 37 1-35^

37 37

73 37

1261 37

1.97,

= 34.08.

Beispiel 2.6 (Fortsetzung): a) Fiir die Zufallsvariable X mit Dichte fx[x) = 3^^, falls 0 < x < 360, gilt

+00 360

E[X']= I x'fx{x)dx= Jx'^ 1 1 3 ax = X

360 360 3

360

43200.

b) Nachdem der Kandidat eine weitere Runde erreicht hat, bietet ihm der Showmaster das folgende Spiel an: Wenn das Gliicksrad in der Stellung x stehen bleibt, erhdlt der Kandidat

1000.exp(3 |^)€

ausgezahlt. Wie hoch ist der Erwartungswert der Auszahlung? Der Erwartungswert betrdgt

1000 • exp X

360

360

/ l««°-^^P(3lo)36o'^

= 1000 3 L 360. exp ( 3 ^ ) 360

lOOOe^-1000 = 1718.28 € .

Rechnen mit dem Erwar tungswer t Transformiert man die Werte der Zufallsvariablen X mit einer affin-linearen Abbildung x H-» a H- 6 a:, so erhalt

Page 78: Wahrscheinlichkeitsrechnung und schließende Statistik

66 2. ZUFALLSVARIABLE UND VERTEILUNGEN

man eine neue Zufallsvariable Y mit den Werten Y{uj) = a-{- 6X(a;), uj e Q,, Der Erwartungswert der transformierten Zufallsvariablen Y = a -{- bX ist dann gleich

E[a + bX] =a + bE[X].\ (2.8)

Anschaulich besagt die Formel (2.8), dass die Erwartungswertbildung mit der Addition einer Konstanten und der Multiplikation einer Zahl „vertauscht" werden kann.

BEWEIS Im Fall einer stetigen Variablen X mit Dichte / gilt

/

OO PCX) /•OO

{a-\-bx)f{x)dx = / af{x)dx-^ / bxf{x)dx -OO «/—OO J — OO

/

OO /»00

f{x)dx-^b xf{x)dx = a-l + bElX]. -OO J — OO

Falls X diskret ist, ist auch a + bX eine diskrete Zufallsvariable und es gilt

E[a-\-bX] = ^ ( a + 6xj)p^- = ^ ap^-+ ^ 6a; p -3 3 3

3 3 3

= a + bE[X]. D Beispiel 2.10: Die Zufallsvariable X gebe das Bruttomonatsgehalt eines zu-fdllig ausgewdhlten Angestellten einer Unternehmensholding wieder. Von X sei nur der Erwartungswert fix = 4700 € bekannt. Tarifverhandlungen erga-ben eine Lohnsteigerung um einen Sockelbetrag von 300 € und eine zusdtz-liche lineare Erhohung von 3%. Das Bruttogehalt nach der Tariferhohung betrdgt Y = 300 -f 1.03X. Sein Erwartungswert betrdgt dann

E[Y] = E[300 + 1.03X] = 300 +1.03 £'[X]

- 300 + 1.03-4700 = 5141 € .

Es ist hier nicht erforderlich, die Wahrscheinlichkeitsfunktion der Zufallsva­riablen Y zu kennen.

Zentr ierung Zieht man von einer Zufallsvariablen X ihren Erwartungs­wert ab, so erhalt man die zentr ier te Zufallsvariable X — fix- Sie hat wegen (2.8) den Erwartungswert

E[X -fix]= fix - l^x =0.

Wenn X symmetr isch zu einem bekannten Wert c verteilt ist und der Er­wartungswert existiert, gilt

E[X]=:C.

Page 79: Wahrscheinlichkeitsrechnung und schließende Statistik

2.2. VERTEILUNGSPARAMETER 67

BEWEIS Die Symmetrie der Verteilung besagt (s.o. Abschnitt 2.1.7), dass X — c wie —X -he verteilt ist, also auch den gleichen Erwartungswert besitzt. Folglich ist

E[X-c] - El-X + c],

E[X]-c = -E[X]+c,

2E[X] = 2c ,

woraus die Behauptung E[X] = c folgt. D

Erwar tungswer t als Lageparameter Nicht nur fiir symmetrische Ver-teilungen charakterisiert der Erwartungswert die Lage einer Zufallsvariablen. Wegen (2.8) gilt namlich: Wird die Zufallsvariable X um die Konstante a auf der reellen Achse verschoben, so verschiebt sich der Erwartungswert um die gleiche Konstante, E[a-\-X] = a-\-E[X]. Ein Verteilungsparameter, der diese Eigenschaft besitzt, heifit lageaquivariant. Wird X mit einem Skalenfaktor 6 > 0 multipliziert, so ist E[bX] = bE[X]. Ein Verteilungsparameter, der sich um den gleichen Skalenfaktor andert, wird skalenaquivariant genannt.

Einen Verteilungsparameter, der lage- und skalenaquivariant ist, nennt man einen Lageparameter . Demnach ist der Erwartungswert ein Lageparameter. Wegen Gleichung (2.4) ist auch jedes Quantil Xp von X ein Lageparameter, insbesondere der Median XQ.S-

Erwartungswert und Median sind nicht nur Lageparameter, sie beschreiben auch - in unterschiedlicher Weise - ein „Zentrum" der Verteilung. Wenn die Verteilung symmetrisch zu einem Wert c ist, sind beide gleich diesem Wert c. Im Allgemeinen sind Erwartungswert und Median jedoch verschieden.

Weitere Zentralitatseigenschaften des Erwartungswerts hangen mit der Vari-anz der Zufallsvariablen zusammen. Sie werden im folgenden Abschnitt be-handelt.

2.2.2 Varianz

Neben der Lage einer Zufallsvariablen, die durch den Erwartungswert cha­rakterisiert wird, ist ihre Streuung von besonderem Interesse. Sie wird durch die Varianz beschrieben. Die Varianz von X,

V[X] = E [{X - ,xxf] ,

ist der Erwartungswert der Zufallsvariablen g{X) = [X — fix) ? also der Er­wartungswert der quadrierten Abweichung der Zufallsvariablen X von ihrem

Page 80: Wahrscheinlichkeitsrechnung und schließende Statistik

68 2 . ZUFALLSVARIABLE UND VERTEILUNGEN

Erwartungswert /ix- Fiir diskrete bzw. stetige Verteilungen ist die Varianz durch die Formeln

V[X] = { ( 12{^j ~ l^x)'^ Pj , falls X diskret,

oo

J {x — yixYfx{x) dx, falls X stetig,

gegeben. Offenbar kann die Varianz keinen negativen Wert annehmen."* Die positive Wurzel aus der Varianz,

a[X] = +./V\X],

heifit Standardabweichung. Weitere Notationen fiir Standardabweichung und Varianz sind

ax = (J[X], (j\ = a'^[X] = Var[X] = V[X].

Zur Berechnung der Varianz ist die folgende Formel niitzlich:

V{X] = E[X']-,,% (2.9)

In (2.9) geniigt es, fix sowie i fX' ] zu berechnen, was meistens weniger Auf-wand als die Berechnung mit Hilfe der obigen Definitionsformel erfordert.

Der Beweis von (2.9) folgt aus

E[{X-txxf] = E[X^]-2E[X-fix] + fil

= E[X^]-2E[X]-fix + lJi^x = E[X']-n\. •

Beispiel 2.2 (Fortsetzung): Wir betrachten wieder beim Roulette die Zufallsva-riablen Xcoionne '^'^id Xzahi' Beide haben den gleichen Erwartungswert — . Fiir die Varianzen ergibt sich

V[Xcolonne\ = ^l^Col onne ] - {E[Xcolonne])

(T[Xcolonne]

V[Xzahl]

O'iXzahl]

=

=

=

=

=

g-B) —. 1.40,

^[^Zahl] - {E[Xzahl]f

1261 / 1 \ ^ — - [ - - ) =34 .0804 .

5.84.

^Es gibt allerdings Zufallsvariable, bei denen diese Summe bzw. dieses Integral unendlich grofi werden, also keine endliche Varianz existiert. Beispiele sind die i-verteilten Variablen mit ly <2 Preiheitsgraden (Abschnitt 4.3.2).

Page 81: Wahrscheinlichkeitsrechnung und schließende Statistik

2.2. VERTEILUNGSPARAMETER 69

In diesem Beispiel kann man die Varianzen (und Standardabweichungen) als Risikomafie interpretieren. Offensichtlich birgt ,,Setzen auf Zahl" mehr Risi-ko (im Sinne moglicher Schwankungen der Auszahlung nach oben wie nach unten!) als ,,Setzen auf Colonne".

Beispiel 2.6 (Fortsetzung): Die Varianz des Ergebnisses X berechnet man mit der Formel (2.9) als

V[X] = E[X'^] - /i^^ = 43 200 - 180^ = 10 800.

Die Standardabweichung ist dann (j[X] = V IO 800 = 103.92 .

Transformiert man X zur Zufallsvariablen Y = a-{- 6X, a^b ER^ SO andern sich Varianz und Standardabweichung wie folgt:

V[a-^bX] = b^V[X],

a[a-\-bX] = \b\a[X]. (2.10)

Dies folgt sofort aus den Definitionen und der Lage- und Skalenaquivarianz des Erwartungswerts:

V[Y] = E[{Y-fiyf] = E[{b{X - f^x)f]

= b^EliX - fxxf] = b^V{X]

Varianz und Standardabweichung einer Zufallsvariablen werden also durch die Addition einer Konstanten nicht beeinflusst; beide Verteilungsparameter sind lageinvariant. Sie andern sich, wenn X mit einem positiven Skalenfak-tor multipliziert wird. Die Varianz multipliziert sich dann mit dem Quadrat des Faktors, wahrend sich die Standardabweichung mit dem Faktor selbst multipliziert. Beide Verteilungsparameter messen demzufolge die Streuung von X. Die Standardabweichung ist skalenaquivariant, die Varianz ist es jedoch nicht.

Beispiel 2.10 (Fortsetzung): Das Bruttomonatsgehalt X habe die Standard­abweichung ax = 950 € . Nach einer allgemeinen Gehaltserhohung um einen Sockelbetrag von 300 € und 3% linear betrdgt das Gehalt Y = 300 + 1.03 X. Fiir die Standardabweichung von Y gilt dann

ay = ^/v\mTTmx] = 1.03 ax = 1.03-950 = 978.5 € .

Generell sind Varianz und Standardabweichung grofier oder gleich null. Von Interesse ist der Fall der kleinsten Streuung, wenn also die Varianz (und damit auch die Standardabweichung) gleich null ist. Es lasst sich zeigen, dass

V[X] = 0 <==> P ( X = / i x ) - l

Page 82: Wahrscheinlichkeitsrechnung und schließende Statistik

70 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

gilt, die Varianz von X also genau dann verschwindet, wenn X (mit Wahr-scheinlichkeit 1) konstant gleich seinem Erwartungswert ist.

Die nachfolgende Minimaleigenschaft des Erwartungswerts rechtfertigt seine Interpretation als Schwerpunkt der Verteilung. Es ist

min E[{X - af] = E\(X - ^ix?], (2.11)

d.h. der Erwartungswert ist der Punkt, von dem die mittlere quadratische Abweichung der Zufallsvariablen minimal ist. Die Streuung der Verteilung um einen Punkt a ist also am kleinsten fiir a = ^x- Der Begriff „ Schwer­punkt" kommt aus der Physik; er erklart sich wie folgt: Wenn man die Wahr-scheinlichkeiten pj einer diskreten Verteilung als Massen an den zugehorigen Punkten Xj der reellen Achse befestigt, so entspricht der Erwartungswert der Verteilung gerade dem physikalischen Schwerpunkt dieser Punktmassen.

BEWEIS Der Beweis von (2.11) folgt aus

E[{X-af] = E[{{X-fix) + {pix-a)f]

= E[{X-i,x)'] +

2E[{X - ixx){f^x - a)] +{i^x - af . ^ V '

=0

Die rechte Seite (und damit auch die linke Seite) ist offensichtlich minimal, wenn man a = iix wahlt. D

2.2.3 Ungleichung von TschebyschefF

Erwartungswert iix und Varianz a^ sind Parameter der Lage bzw. der Streu­ung einer Zufallsvariablen X, Wir geben eine von a'x abhangige Mindestwahr-scheinlichkeit dafiir an, dass X in ein Intervall vorgegebener Breite fallt, das seinen Erwartungswert symmetrisch umgibt.

Die Ungleichung von TschebyschefF besagt, dass fiir jede positive Zahl e

(2.12) P ( | X - / x x | < £ ) > l - ^

gilt. Dies heifit, die Wahrscheinlichkeit fiir das Ereignis

{/xx -e <X <iix^e]

lasst sich durch die Schranke 1 — {cr'x/e^) nach unten abschatzen. Die Wahr­scheinlichkeit, dass X in das Intervall ]/ix — ^ A x + e[ fallt, ist also umso

Page 83: Wahrscheinlichkeitsrechnung und schließende Statistik

2.2. VERTEILUNGSPARAMETER 71

grofier, je kleiner a'x ist. OflFenbar ist die Ungleichung nur flir e'^ > a'x inter-essant, da sonst die rechte Seite negativ wird.

Auch die Wahrscheinlichkeit des Komplementarereignisses, dass X nicht in das angegebene Intervall fallt, lasst sich mit der Tschebyscheff-Ungleichung abschatzen, und zwar nach oben wie folgt:

P{\X-ixx\>e)< -\ (2.13)

BEWEIS Die Ungleichung (2.13) ist zur Ungleichung (2.12) aquivalent. Um Ungleichung (2.13) einzusehen, definieren wir eine neue Zufallsvariable Z, die durch

Z{uj) = falls \X{uj)- ^ix\ >e,

0 sonst,

gegeben ist. Offenbar gilt

Z{uj) < {X{u)-iix?.

E[Z] < E[{X-ixx?]:

E[Z] e^-P{\X-iix\>e).

Also ist

P{\X-fix\>e)<^-,

D wie behauptet.

Beispiel 2.11: Sei X die Verweildauer (in Tagen) eines zufdllig ausgewdhlten Patienten in einem Grofiklinikum. Erwartungswert fix = 10 und Standard-abweichung ax = ^ seien bekannt. Wie grofl ist mindestens die Wahrschein­lichkeit, dass der Patient mehr als fiinf, aber weniger als fiinfzehn Tage im Krankenhaus verbringt? Es ist

P ( 5 < X < 15) = P ( | X - 10| < 5) > 1 - 1^ = 25

Setzt man e — Xax (niit einem A > 1), so ergeben sich zwei aquivalente Versionen der Tschebyscheff-Ungleichung,

P{\X-,ix\<XcTx) > 1 - ^

P{\X-fix\>\(rx) < ^ .

bzw.

Die zweite Ungleichung erhalt man aus der ersten, indem man zum Komple-mentarereignis tibergeht. Offenbar kann man in der ersten Ungleichung das „<"-Zeichen durch „<" ersetzen, da sich hierdurch die Wahrscheinlichkeit nicht verringert.

Page 84: Wahrscheinlichkeitsrechnung und schließende Statistik

72 2 . ZUFALLSVARIABLE UND V E R T E I L U N G E N

Ftir A = 2 und A = 3 erhalten wir Abschatzungen fiir die Wahrscheinlichkeit, dass X in den so genannten Zwei- bzw. Drei-Sigma-Bereich fallt, namlich

P I MX -2ax <X <fix-i- 2ax.

Zwei-Sigma-Bereich >~i

P I MX - 3(7x < X < MX + 3(7x, I >

Drei-Sigma-Bereich

Dies sind sehr grobe Abschatzungen, die ftir beliebige Verteilungen gelten. Sie lassen sich verfeinern, wenn weitere Informationen liber die Verteilung vorliegen, etwa wenn man voraussetzen kann, dass X normalverteilt ist (vgl. Abschnitt 2.4.4).

Beispiel 2.12: Die Verteilung von X beschreibe die Verteilung des Bruttomo-natseinkommens in einer Gemeinde (in €). Es sei fix = 2500 und ax = 750 bekannt. Dann liegen mindestens 75% der Einkommen zwischen 1000 €" und 4000 €". Mindestens 8/9 • 100% der Einkommen liegen zwischen 250 € und 4750 € .

2.2.4 Schiefe und Wolbung

Neben Mafizahlen zur Charakterisierung der Lage und Streuung der Vertei­lung einer Zufallsvariablen X gibt es noch solche, die die Form der Verteilung charakterisieren, so genannte Formparameter, auch Gest alt parameter genannt.

Schiefe Von Bedeutung ist hier zunachst die Abweichung der Verteilung von einer symmetrischen Verteilung gleicher Lage und Streuung. Im Folgen-den betrachten wir zwei Mafie fiir diese Abweichung. Als Momentenschiefe, kurz: Schiefe, definiert man

li[X]=E [( )1 E[{x-^xn " 4 •

Es gilt

71 [^] = E[X^] - 3E[X^]fix + m^H - lA

'X

E[X^] - 3£:[X^]/ix + 2ix\

'X

Page 85: Wahrscheinlichkeitsrechnung und schließende Statistik

2.2. VERTEILUNGSPARAMETER 73

Ist die Verteilung von X symmetrisch zu c, so gilt fix = c und man sieht leicht, dass die Verteilung von {X — ixx)^ und —{X — fix)^ iibereinstimmt. Daraus folgt, dass bei einer symmetrischen Verteilung E[{X — /j,x)^] = 0 und damit 71 [X] = 0 ist.

Man beachte, dass die Umkehrung nicht gilt: Aus 71 [X] = 0 kann nicht die Symmetrie der Verteilung von X gefolgert werden. Ist 71 [X] ^ 0, so ist die Verteilung asymmetrisch, wobei man

bei 7i[X] > 0 von Rechtsschiefe (d.h. Linkssteilheit), bei 71 [X] < 0 von Linksschiefe (d.h. Rechtssteilheit)

spricht. Im ersten Fall iiberwiegen grofiere positive Werte von X — fix^ ^^ zweiten Fall groBere negative Werte; vgl. Abbildung 2.11 und 2.12. 71 [X] ist nicht normiert, sondern kann prinzipiell beliebige Werte annehmen.

fix)

Y^ X

Abbildung 2.11: Dichtefunktion einer stetigen rechtsschiefen Verteilung

Im Gegensatz zur Momentenschiefe ist die Quar t ilsschiefe 7i [X] beschrankt. Ihre Definition lautet

7?[^l = [g(0.75) - Q(0.5)] - [Q(0.5) - Q(0.25)] [Q(0.75) - (3(0.5)] + [Q(0.5) - (5(0.25)]

Q(0.75) + Q(0.25) - 2 • Q(0.5) Q(0.75) - Q(0.25)

(2.13)

wobei Q{p) das p-Quantil der Verteilung von X bezeichnet. Fiir beliebige X gilt

-1<J?[X]<1.

Page 86: Wahrscheinlichkeitsrechnung und schließende Statistik

74 2. ZUFALLSVARIABLE UND VERTEILUNGEN

PiX = x)

0.30-

0.25-

0.20-

0.15-

0.10-

0.05-

0.00-«

.

> • —t—

i

__I

\

- ^ 10

Abbildung 2.12: Wahrscheinlichkeitsfunktion einer diskreten linksschiefen Vertei­lung

Im Fall einer symmetrischen Verteilung ist Q(0.75) — Q(0.5) = Q(0.5) — (5(0.25), also 7i [- ] ebenfalls gleich null. Die Umkehrung gilt auch hier nicht: Aus 7i [X] = 0 kann nicht auf die Symmetrie der Verteilung von X geschlos-sen werden. Wenn die Quart ilsschiefe ungleich null ist, bezeichnet man die Verteilung als rechtsschief (wenn 7i [X] > 0) bzw. linkssschief (wenn 7i [X] < 0) im Sinne der Quartilsschiefe.

Wird X afhn-linear transformiert, Y = a -^ bX, so andert sich 71 ofFenbar nicht, 71 [X] = 71 [y]; ebenso gilt jf[X] = jf[Y]. Beide Mafizahlen der Schie-fe sind daher sowohl lage- als auch skaleninvariant.

Wolbung Ein weiterer, haufig untersuchter Gestaltparameter ist die W61-bung, die auch als Kurtosis bezeichnet wird. Sie ist durch

72m = ^ [( )1 E[{X-,xxr]

definiert. Die Wolbung ist offenbar lage- und skaleninvariant. Fiir beliebige X gilt 72 [- ] > 1. Der Wert 72 [^] = 1 ergibt sich fiir eine Zufallsvariable X mit Zweipunktverteilung mit P{X = — 1) = P[X = 1) = ^. Bei der Normalverteilung (siehe Abschnitt 2.4.4) gilt 71 [X] = 3. Die Wolbung ei­ner symmetrischen unimodalen Verteilung misst, wie spitz die Dichte bzw. die Wahrscheinlichkeitsfunktion um den Erwartungswert fix herum verlauft und wie viel Wahrscheinlichkeitsmasse auf den Flanken der Verteilung liegt.

Page 87: Wahrscheinlichkeitsrechnung und schließende Statistik

2.3. SPEZIELLE DISKRETE VERTEILUNGEN 75

Symmetrische unimodale Verteilungen mit einer Wolbung grofier als 3 sind also um fj^x herum spitzer und haben mehr Masse auf den Flanken als die Normalverteilung. Die Mafizahl 72 — 3 wird als Exzess bezeichnet.

Der Parameter 72 sollte nur fiir solche Verteilungen berechnet werden, die symmetrisch oder angenahert symmetrisch und unimodal sind, da die obige Interpretation bei anderen Verteilungen nicht zutrifft.

Beispiele zur Berechnung der Momentenschiefe, der Quartilsschiefe und der Wolbung finden sich in den Abschnitten 2.4.2 und 2.4.4 iiber spezielle stetige Verteilungen. Die Ubersicht in Abschnitt 2.4.6 enthalt die Momentenschiefe und die Wolbung von einigen weiteren, haufig angewandten Wahrscheinlich-keit sver t eilungen.

2.3 Spezielle diskrete Verteilungen

In diesem Abschnitt behandeln wir einige diskrete Verteilungen, die zum Kernbestand der Wahrscheinlichkeitsrechnung gehoren, da sie bei den unter-schiedlichsten Anwendungen auftreten.

Die drei zunachst beschriebenen Verteilungen treten im Zusammenhang mit der Bernoulli-Versuchsreihe auf. Ein Zufallsexperiment, bei dem man sich nur dafiir interessiert, ob ein Ereignis A eintritt oder nicht, nennt man ein Bernoulli-Experiment. Das Eintreten von A wird auch als Erfolg, das Eintreten von A als Misserfolg bezeichnet. Eine Bernoulli-Versuchsreihe ist die n-malige unabhangige Durchftihrung eines Bernoulli-Experiments; vgl. Abschnitt 1.3.4. Sei Ai das Ereignis, dass beim i-ten Experiment ein Erfolg eintritt, und sei n = P{Ai) fiir i = 1,2,.. . , n. Die Ereignisse Ai, ^ 2 , . . . , ^n werden als global unabhangig angenommen. Die Indikatorvariable

- - {5 : falls Ai eintritt („Erfolg"), falls Ai nicht eintritt („Misserfolg"),

ist eine Zufallsvariable, die anzeigt, ob Ai eintritt oder nicht.

Beispiel 2.13: Ein fairer Wiirfel werde n-mal geworfen. Sei A das Ereignis, eine „6" zu wiirfeln, Ai der Erfolg beim i-ten Wurf Wenn die Ereignisse Ai global unabhangig sind, handelt es sich um eine Bernoulli-Versuchsreihe. Man kann zeigen, dass die Ai genau dann global unabhangig sind, wenn keine der moglichen Folgen von Augenzahlen bevorzugt auftritt, d.h. jede die gleiche Wahrscheinlichkeit besitzt; vgl. Beispiel 1.26.

Ein Grundmodell, an dem viele Begriffe der Wahrscheinlichkeitsrechnung erlautert werden konnen, ist das folgende Urnenmodell: Eine Urne ist ein

Page 88: Wahrscheinlichkeitsrechnung und schließende Statistik

76 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

mit Kugeln gefiillter Behalter, aus dem einzelne Kugeln in zufalliger Weise gezogen werden. Die Ziehungswahrscheinlichkeit ist fiir jede Kugel die gleiche.

Speziell enthalte eine Urne N Kugeln, von denen M rot und N — M weifi sind. Nacheinander werden insgesamt n Kugeln aus der Urne gezogen. Sei Ai das Ereignis, dass die z-te Ziehung eine rote Kugel erbringt. Jede einzelne solche Ziehung ist offenbar ein Bernoulli-Experiment.

Beim Ziehen mit Zuriicklegen wird die gezogene Kugel jedes Mai wieder in die Urne gelegt und mit den tibrigen Kugeln gemischt, so dass jede weitere Ziehung das gleiche Zufallsexperiment wie die erste Ziehung darstellt. Daher konnen die Ereignisse A i , . . . , ^ „ als global unabhangig angesehen werden. Das Ziehen mit Zuriicklegen ist deshalb eine Bernoulli-Versuchsreihe mit

M n = P{Ai) = — fiir alle z = 1,2,.. . , n .

Im Unterschied dazu besteht das Ziehen ohne Zuriicklegen aus n Ziehun-gen, bei denen eine Kugel gezogen, aber nicht wieder in die Urne zurtickgelegt wird. Da der Anteil der roten Kugeln in der Urne bei einer Ziehung davon abhangt, wie viele rote Kugeln in den vorhergehenden Ziehungen gezogen wurden, sind die Ereignisse Ai,...,An nicht unabhangig, und das Ziehen ohne Zuriicklegen ist keine Bernoulli-Versuchsreihe.

2.3.1 Binomial vert eilung

Wir gehen von einer Bernoulli-Versuchsreihe aus und betrachten die Zufalls-variable

^ = Ei ^

Offenbar kann X die Werte 0, l , 2 , . . . , n annehmen. Die Zufallsvariable X zahlt die eingetretenen Ereignisse Ai^ sie gibt an, wie oft bei der n-maligen unabhangigen Durchfiihrung des Bernoulli-Experiments ein Erfolg aufgetre-ten ist.

Beispiel 2.14' -^^^ ^^^ Bernoulli-Versuchsreihe der Ldnge n = 4 gebe man alle moglichen Folgen von Ergebnissen an, bei denen genau zwei Erfolge ein-treten.Dies sind offensichtlich die Folgen:

Page 89: Wahrscheinlichkeitsrechnung und schließende Statistik

2.3. SPEZIELLE DISKRETE VERTEILUNGEN 77

^ 1 , ^ 2 , A3, A4

Ai,A2,A3,A4

^ 1 , ^ 2 , ^ 3 , ^ 4

^ 1 , ^ 2 , ^ 3 , ^ 4

'Ai,A2,A3,A4

Es sind (2) = 6 verschiedene Folgen.

Bei einer Bernoulli-Versuchsreihe der Lange n gibt es (^) Folgen, bei de-nen genau fe-mal ein Erfolg eintritt. Da zu k Erfolgen jeweils n — k Miss-erf olge gehoren, ist die Wahrscheinlichkeit jeder dieser Folgen (wegen der Unabhangigkeit der Wiederholungen) gleich

7r^(l-7r) n—k

Daraus folgt

P{X = x) 7r^(l-7r)"-^ furx = 0 , l , . . . , n . (2.14)

Eine diskrete Zufallsvariable X mit dieser Wahrscheinlichkeitsfunktion heii3t binomialverteilt mit den Parametern n und TT, in Zeichen: X ~ -B(n,7r). Die Verteilung B(n, TT) von X heifit Binomialvertei lung, ihr Trager ist Tx = { 0 , 1 , . . . , n}. Abbildung 2.12 zeigt die Wahrscheinlichkeitsfunktion der Binomialverteilung mit n = 10 und TT = 0.7.

Die Gesamtheit der Binomial verteilungen J5(n, TT) mit n € N und TT € ] 0 , 1[ bil-det eine Verteilungsfamilie, in der die einzelne Verteilung durch die beiden Parameter n und TT charakterisiert ist.

Im Spezialfall n = 1, d.h., wenn X ~ J5(l,7r), heifit X BernouUi-verteilt. In diesem Fall gilt

P{X = 1) P{X = 0) l - T T .

Beispiel 2.15 (Ziehen mit Zurucklegen): Eine Urne enthalt zehn Kugeln, da-von drei rote. Es werden drei Kugeln mit Zurucklegen gezogen. Wie grofi ist die Wahrscheinlichkeit, mindestens eine rote Kugel zu Ziehen? Bezeichne X die Anzahl der roten Kugeln unter den drei gezogenen Kugeln. Dann ist (^ Excel/SPSS)

X B[n = Z,Ti = — = 0.3

Page 90: Wahrscheinlichkeitsrechnung und schließende Statistik

78 2. ZUFALLSVARIABLE UND VERTEILUNGEN

P{X = x)

0.5 H 0.4 0.3-1 0.2-1 0.1 0.0

0 1 4-3

0.5 H

0.0-1

Abbildung 2.13: Wahrscheinlichkeitsfunktion und Verteilungsfunktion von B{n = 3,7r = 0.3) im Beispiel 2.15 (Ziehen mit Zuriicklegen)

-*-x

und

P{X > 1) = 1 - P{X = 0) = 1

= 1-0.7^ = 0.657.

0.3° 0.7^

Erwartungswert und Varianz einer S ( l , 7r)-verteilten Zufallsvariablen las-sen sich leicht direkt ausrechnen. Es ist

E[X\ = l - 7 r - | - 0 - ( l - 7 r ) = 7r,

E{X^] = l2.7r + 0 2 ( l - 7 r ) = 7 r ,

und deshalb

V[X] - E[X^] - {E[X])^ - TT - TT = 7r(l - TT) .

Fur eine B(n,TT)—verteilte Zufallsvariable X gelten die Formeln

E[X] = n-K und V\X] = n7r(l - IT) . (2.15)

Wir beweisen sie hier nicht, da sie in einfacher Weise mit Hilfsmitteln des Kapitels 3 hergeleitet werden konnen.

Tabellen Da sich fiir grofiere n die Wahrscheinlichkeiten der Binomialver-teilung nur umstandlich „von Hand" berechnen lassen, sind in Tabelle 1 im Anhang dieses Buchs die Wahrscheinlichkeiten P{X — x) fiir X ~ B{n,7r) und n = 1,2,.. . , 15,20,30,40,50 sowie n - 0,05, 0.10, . . . , 0.50 tabelliert. Fiir TT > 0.5 benutzt man die Beziehung

X ~ J5(n,7r) X r^ B{n,7T' = I - T T ) .

Page 91: Wahrscheinlichkeitsrechnung und schließende Statistik

2.3. SPEZIELLE DISKRETE VERTEILUNGEN 79

BEWEIS Wenn X die Zahl der „Erfolge" Ai einer Bernoulli-Versuchsreihe beschreibt, dann beschreibt die Zufallsvariable Y = n — X namlich die Zahl der „Misserfolge" Ai. Die Unabhangigkeit der Folge Ai,,,, .A^ zieht die Un-abhangigkeit der Folge Ai,,.,,An nach sich. Es gilt P{Ai) = 1 — TT fiir i = l , . . . , n . Also handelt es sich bei den Ai ebenfalls um eine Bernoulli-Versuchsreihe, und Y = n — X ist binomialverteilt mit den Parametern n und n' = 1 — 7T. D

Beispiel 2.16: Es sei X ~ B{n =. 10,7r = 0.8). Man bestimme P[X > 9). Die gesuchte Wahrscheinlichkeit betrdgt

P{X>9) = P{X = 9)-\-P{X = 10)

= P{Y = 1) + P{Y = 0)

= 0.2684 + 0.1074 = 0.3758,

wobeifiirY = n—X ~ B{n = 10, TT' = 0.2) die Werte der Tabelle 1 verwendet wurden.

2.3.2 Poisson-Vert eilung

Wir gehen wieder von einer Bernoulli-Versuchsreihe aus, treflFen aber spezielle Annahmen iiber die Parameter n und TT. Wir nehmen an, dass das Bernoulli-Experiment sehr haufig wieder holt wird, n also grofi ist. Andererseits sei die Wahrscheinlichkeit TT = P{A) fiir einen Erfolg sehr klein. A wird deshalb ein „seltenes Ereignis" genannt. Die Anzahl X der Erfolge bei n Versuchen ist dann binomialverteilt, X ~ 5(n,7r), mit

P(^X = x)= M 7 r ^ ( l - 7 r ) ^ - ^ fiir x = 0 ,1 ,2 , . . . , n . (2.16)

In diesem Ausdruck lasst man nun

• n gegen unendlich und zugleich

• TT gegen null gehen, derart, dass nir gegen eine positive Zahl fx konver-giert.

Die Binomialwahrscheinlichkeit (2.16) konvergiert bei diesem Grenztibergang, und zwar gegen

lim f''V''(l - ^T'"" = e- 4 • (2.17)

Man kann zeigen, dass der Limes fiir jede nichtnegative ganze Zahl x definiert und groBer als null ist. Fiir die Exponentialfunktion gilt die Reihendarstellung

oo ^

e' '= exp(Ai) = ^ I j - , M€E. k=l

Page 92: Wahrscheinlichkeitsrechnung und schließende Statistik

80 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

Summiert man die rechte Seite der Gleichung (2.17) iiber alle x = 0 ,1 ,2 , . . . , ergibt sich deshalb (mit Summationsindex x statt k)

x=0 x=0

= e-^e^ = e^ = I,

Der Limes definiert also eine Wahrscheinlichkeitsfunktion. Eine diskrete Zu-fallsvariable X mit der Wahrscheinlichkeitsfunktion

p(^X = x)=e-^^ flir :r = 0 ,1 ,2 , . . . x\

heisst Poisson-verteilt^ mit Parameter /i > 0, in Zeichen: X ~ Po{fi). Der Trager von X ist Tx = N U {0} - {0 ,1 ,2 , . . . } .

Tabellen Die Wahrscheinlichkeiten P{X = x) lassen sich leicht berechnen. Flir Werte von /JL zwischen 0.1 und 10 sind sie aufierdem in Tabelle 2 des Anhangs tabelliert.

Fiir kleine /i zeigt die Poisson-Verteilung eine starke Asymmetrie (Rechts-schiefe), wahrend die Verteilung fiir grofiere /x fast symmetrisch ist. Abbil-dung 2.14 illustriert dies anhand zweier Poisson-Verteilungen mit /x = 2 bzw. fi= 12.

Viele okonomische und technische Sachverhalte konnen mit Poisson-verteilten Zufallsvariablen beschrieben werden. Beispielsweise lasst sich die Anzahl der in einem bestimmten Zeitraum ankommenden Kunden in einem Bedienungs-system haufig auf diese Weise modellieren; vgl. Abschnitt 3.3.2.

Die Poisson-Verteilung Po{fx) kann man wegen der erwahnten Limesbezie-hung als Approximation der Binomial verteilung B{n,'K) flir kleines TT und grofies n auffassen. In diesem Fall gilt die Naherung

^ V ' ' ( l - -^T'"" « e-^^ mit fi = n7v. x) x\

Eine gebrauchliche Faustregel lautet, dass die Approximation im konkreten Fall als zulassig angesehen werden kann, wenn die drei Bedingungen

TT < 0.1, n > 50 und nyr < 9

erflillt sind.

Beispiel 2.17: 50 Sduglinge erhalten eine bestimmte Impfung. Die Wahr-scheinlichkeit, dass ein Sdugling die Impfung nicht vertrdgt, ist TT = 0.05.

^Simeon Denis Poisson (1781-1840)

Page 93: Wahrscheinlichkeitsrechnung und schließende Statistik

2.3. SPEZIELLE DISKRETE VERTEILUNGEN 81

fix)

0.3 4

0.2

O.H

0.0

Po{2)

0

fix)

—^—.- X

10

0.3

0.2

O.H

0.0

Po(12)

^ l l T T | > » » » y , ^

0 10 15 20 25

Abbildung 2.14: Wahrscheinlichkeitsfunktion der Poisson-Verteilung Po{ii) mit 11 = 2 bzw. /i = 12

Die Reaktionen der einzelnen Sduglinge auf die Impfung sind unabhdngig voneinander. Sei

X = Anzahl der Sduglinge, die die Impfung nicht vertragen.

Man berechne P(X = 0),P{X = l ) , P ( X = 2) ,F(X > 3) exakt und approxi-mativ und vergleiche die Werte der Wahrscheinlichkeiten (^^ Excel/SPSS).

Es gilt X ~ B{n = 50, TT = 0.05). Wegen n < 0.1, n > 50 und UTT - 2.5 < 9 konnen wir die Verteilung von X durch die Poisson-Verteilung Po{fi = 2.5) approximieren. Die exakten und gendherten Wahrscheinlichkeiten sind:

P{X = 0) P{X = 1) P{X = 2) P{X > 3)

S (n = 50,7r = 0.05) 0.0769 0.2025 0.2611 0.4595

Po(/x = 2.5) 0.0821 0.2052 0.2565 0.4562

Erwar tungswer t und Varianz einer Zufallsvariablen X ~ Po{ii) sind

S[X] = M, V[X]=ii.

Page 94: Wahrscheinlichkeitsrechnung und schließende Statistik

82 2 . ZUFALLSVARIABLE UND V E R T E I L U N G E N

Sowohl der Erwartungswert einer Poisson-Verteilung als auch ihre Varianz sind also gleich dem Parameter /i der Verteilung. Dies macht man sich an-schaulich daran klar, dass die Po(^)-Wahrscheinlichkeiten die Grenzwerte von ^(n,7r)-Wahrscheinlichkeiten sind. Erwartungswert und Varianz einer jeden 5(n , 7r)-Verteilung betragen nn bzw. n7r(l — TT). Wegen nn -^ fx muss der Erwartungswert im Limes gleich fi sein. Ebenso gilt wegen TT -^ 0 fiir die Varianz die Limesbeziehung n7r(l — TT) — /i. Dies lasst sich auch exakt zeigen:

BEWEIS ES gilt

OO J, OO ^

x=0

= e x=l

x=l X\

-'Y^t^iB^ - "-''^-= /ie a:=0

M-

Die zweite dieser Gleichungen ergibt sich durch Weglassen des ersten Sum-manden (der gleich null ist), die vierte durch Ubergang vom Summations-index X (beginnend mit eins) zum Summationsindex x — 1 (beginnend mit null).

Um die Varianz von X E[X%

Po{fi) zu bestimmen, berechnen wir zunachst

E[X'^ E x=0

x 2 e - < o-^^ 2/^' X

= e-" E )LiX- ^' x-1

X\

OO

x=l

^ /

{X-

, , a

'E4 x=0

OO ^

x=0 x=0 XI

= / [/ + 1] M + /

Hierbei erhalt man wie oben die zweite Gleichung durch Weglassen des ersten Summanden (der gleich null ist) und die vierte durch die gleiche Umindizie-rung. Es folgt V[X] = E[X' / x fi^ + fi- M = Z - D

2.3.3 Geometrische Verteilung

Wir kehren zurlick zur Bernoulli-Versuchsreihe und nehmen an, dass das zugrunde liegende Bernoulli-Experiment im Prinzip beliebig oft wiederholt werden kann. Es interessiert nun der Zeitpunkt des ersten „Erfolges", d.h. des erstmaligen Eintretens des relevanten Ereignisses. Die Zufallsvariable X

Page 95: Wahrscheinlichkeitsrechnung und schließende Statistik

2.3. SPEZIELLE DISKRETE VERTEILUNGEN 83

gebe an, beim wievielten Versuch das Ereignis erstmals eintritt. Man kann X in der Form

X = min < n E u = i i = l

schreiben. Der Trager von X umfasst offensichthch die nattirUchen Zahlen, Tx = N. Wenn der erste Erfolg beim x-ten Versuch eintritt, gehen ihm genau X — 1 Misserfolge voraus. Es ist

P{X = l) = TT,

P{X = 2) = 7r ( l -7r ) ,

P{X = 3) = 7r(l - irf , usw.

Eine Zufallsvariable X mit der Wahrscheinhchkeitsfunktion

P{X = x) = 7r(l - nf-^ fiir a; G N

heifit geometrisch verteil t mit Parameter TT, in Zeichen: X ~ G{7r). Der Trager von X istTx =N.

m

0.3 H

I M M I J_ T M ^ T * T • T ->• X

10 12 14 16 18 20

Abbildung 2.15: Wahrscheinlichkeitsfunktion der geometrischen Verteilung G(7r),

Man rechnet mit Hilfe der unendlichen geometrischen Reihe leicht nach, dass sich die Wahrscheinlichkeiten insgesamt zu eins addieren:

CO OO -

^P(X = a:) = $: . ( ! - . r ^ = . . — 3 - — = 1 x—1 x—1 ^ ^

Aus den Einzelwahrscheinlichkeiten von X lasst sich mit der endlichen geo-

Page 96: Wahrscheinlichkeitsrechnung und schließende Statistik

84 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

metrischen Reihe die Verteilungsfunktion bestimmen. An jeder der Stellen fc = 1,2,3, . . . gilt

F{k) = ^ 7r(l - ny-^ = 1 - (1 - TT)

i=l

und allgemein fiir beliebige a; G R

F{ )-{ l-il-n)', falls X < 1, falls k<x < k + 1.

Beispiel 2.18: Aus einer Urne mit 10 Kugeln (davon 4 rot und 6 weifl) wird mit Zuriicklegen zufdllig gezogen. Wie grofl ist die Wahrscheinlichkeit, dass

a) bei der dritten Ziehung zum ersten Mai eine rote Kugel gezogen wird,

h) friihestens bei der dritten Ziehung zum ersten Mai eine rote Kugel ge­zogen wird?

Mit

X = Nummer der Ziehung, bei der zum ersten Mai

eine rote Kugel gezogen wird,

gilt

zu a) Es ist

zu b) Es ist

X ^G{7r = 0.4).

P{X = 3) - 0 . 4 . 0 . 6 ^ =0.144.

oo

Y, P{^ =x) = 1 - P{X = 1)- P{X = 2)

= 1 - 0 . 4 - 0 . 4 - 0 . 6 = 0.36.

x=3

Erwartungswert und Varianz einer G(7r)-verteilten Zufallsvariablen X sind

E[X]^^, V[X]^^

BEWEIS Der Erwartungswert von X ist die Summe einer unendlichen Rei­he,

^[X] = X ; M I - ^ ) ' - ' ^ k=l

Page 97: Wahrscheinlichkeitsrechnung und schließende Statistik

2.3. SPEZIELLE DISKRETE VERTEILUNGEN 85

Es gilt

E[X]

k=l OO CX)

= ^ ( l - ^ ) ' = - i + ^ ( f c - l ) ( l - 7 r ) ' = - i . k=l k=l

Die erste Summe der letzten Gleichung ist eine geometrische Reihe; sie hat den Wert J—TJ—r = - . Wir untersuchen nun die zweite Summe:

1 —(1—TTj TT

\A;-2 fv - ±jyL - n

k=l k=l

\k-2

^ ( f c - l ) ( l -7 r ) '= - i = ( l - 7 r ) ^ ( f e - l ) ( l - 7 r ) * k = l

OO

( l - 7 r ) ^ ( f c - l ) ( l - 7 r ) * k=2

OO

= ( l - 7 r ) ^ M l -k=l

TT

TT TT

- T T ) k-1

Man erhalt also

TT

und daraus ^[X] = ^ , Die Varianz wird auf ahnliche Weise berechnet. D

Man beachte, dass der Erwartungswert umso grofier ist, je kleiner TT ist. Das leuchtet unmittelbar ein, denn bei kleinem n ist zu erwarten, dass es langer als bei grofiem n dauert, bis A erstmals eintritt. Ahnliches gilt fiir die Varianz; sie ist umso grofier, je kleiner TT ist.

Beispiel 2.19: Beim „Mensch-Argere-Dich'Nicht"-Spiel wird so lange gewilr-felt, bis die erste „6" erscheint. Die Zufallsvariable X sei definiert als die Nummer des Wurfes, bei dem erstmals eine Seeks auftritt. Dann ist X geo-metrisch verteilt, X ~ G{7T) mit TT = ^ und es gilt E[X] = 6. Man benotigt also im Durchschnitt seeks Versucke, um erstmals eine „6'^ zu wurfeln.

In Teilen der Literatur wird die geometrische Verteilung etwas anders defi­niert, namlich als Zahl Y der „Misserfolge" bis zum ersten Erfolg. Offenbar ist dann Y = X — 1^ wobei X im hier definierten Sinne geometrisch verteilt ist. Es gilt

P ( y = : y ) = 7r( l -7r)^.

Page 98: Wahrscheinlichkeitsrechnung und schließende Statistik

86 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

Der Erwartungswert von Y ist

E[Y] = E[X-l] = E[X]-l = l - l = ^ . TT TV

die Varianz ist

V[Y] = V[X] = ^—^ .

2.3.4 Hypergeometrische Verteilung

Zufalliges Ziehen mit Zuriicklegen ist ein Beispiel ftir eine Bernoulli-Versuchs-reihe, da bei jeder Wiederholung die gleiche Ausgangssituation vorliegt und daher die „Erfolge" der einzelnen Versuche global unabhangig sind. Beim Ziehen ohne Zuriicklegen ist dies, wie wir jetzt sehen werden, nicht der Fall.

Wir betrachten wiederum Ziehungen aus einer Urne mit N Kugeln, davon sei-en M rot und N — M weifi. Es werden n Kugeln nacheinander ohne Zuriick­legen und ohne Beriicksichtigung der Reihenfolge gezogen. Sei

Ai = bei der i-ten Ziehung wird eine rote Kugel gezogen.

Dann ist

PiA^) = f = ^, P{A2) - P{A2\Ai)-PiAi) + PiA2\Ai)-P(Ai)

M -I M_ M N -M _ M^ -M + MN - M^ N -1 "N"^ N -I iv ~ (N -1)N

M{N - 1) _ M _ iN-l)N ~ N ~ ^'

^lund A2 sind jedoch nicht unabhangig, da

P(Ai nA2) = - - j^-j # ^ • = ^ (^1) • ^ ( ^ 2 ) .

Wegen der fehlenden Unabhangigkeit der Ziehungen ist das Ziehen ohne Zuriicklegen keine Bernoulli-Versuchsreihe. Wie beim Ziehen mit Zuriicklegen kann man jedoch auch hier die Verteilung der Zufallsvariablen

X = Anzahl der bei n Versuchen gezogenen roten Kugeln

her lei ten. Da es nicht darauf ankommt, in welcher Reihenfolge rote und weifie Kugeln gezogen werden, gibt es (vgl. Abschnitt 1.2.3)

(^) Moglichkeiten, n Kugeln aus N Kugeln ohne Zuriicklegen aus-zuwahlen,

Page 99: Wahrscheinlichkeitsrechnung und schließende Statistik

2.3. SPEZIELLE DISKRETE VERTEILUNGEN 87

(^) Moglichkeiten, x rote Kugeln aus M roten Kugeln ohne Zuriicklegen auszuwahlen,

( ^ i f ) Moglichkeiten, n — X weifie Kugeln aus N — M weiCen Kugeln ohne Zuriicklegen auszuwahlen.

Nach dem klassischen Wahrscheinlichkeitsbegriff ergibt sich daraus die Wahr-scheinlichkeitsfunktion:

/M\ (N-M\ flir X G {0, l , . . . , n } P{X = x)= ^^^ . yv r mit X < M und

(n) n-x< N -M.

Eine solche diskrete Zufallsvariable X nennt man hypergeometr isch ver-teilt, in Zeichen: X ~ H{n^N,M). Die hypergeometrische Verteilung hat drei Parameter, n, N und M mit n, iV G N, n < AT, M G { 0 , 1 , . . . , A''}.

Dabei kommt die Einschrankung x < M dadurch zustande, dass nicht mehr rote Kugeln gezogen werden konnen als in der Urne sind, und die Ein­schrankung n — X < N — M dadurch, dass nicht mehr weiCe Kugeln, als in der Urne vorhanden sind, gezogen werden konnen. Die Anzahl der gezo-genen roten Kugeln ist demnach mindestens n — {N — M) und hochstens M, aufierdem ist sie mindestens 0 und hochstens n. Der Trager von X ist die Menge

Tx = {max{0,n-A/' + M } , . . . , m i n { n , M } } .

Beispiel 2.20: Eine Warensendung enthdlt zehn elektronische Bauteile, von denen drei defekt sind. Aus der Sendung werden zwei Bauteile zufdllig und ohne Zuriicklegen entnommen und gepriift. Wie grofi ist die Wahrscheinlich-keit, dass darunter mindestens ein defektes Bauteil ist?

Sei

X = Anzahl der defekten Bauteile unter den zwei entnommenen.

Dann gilt (^ Excel/SPSS) X ~ H{n = 2, A = 10, M = 3) und damit

P{X > 1) - 1 - P{X = 0) = 1 - ^^!^ = 77 = 0.5333. Q{1)_ 8

Page 100: Wahrscheinlichkeitsrechnung und schließende Statistik

2. ZUFALLSVARIABLE UND VERTEILUNGEN

P{X = x) Fx{x) - P (X < x)

0 .5 -

0 .4-

0 . 3 -

0 .2-

0 . 1 -

0.0 J

• f

— ^

1.0 H

0.5 H

O.O-J—r I T" 0 1 2

-^ X

Abbildung 2.16: Wahrscheinlichkeitsfunktion und Verteilungsfunktion von H{n 2, AT = 10, M = 3) im Beispiel 2.20 (Ziehen ohne Zuriicklegen)

Fiir n = 1 stimmt die hypergeometrische Verteilung H{n = 1, A , M) mit der Bernoulli-Verteilung B{n = I^TT = ^) iiberein. Fiir n > 1 gibt es Unterschie-de zur Binomialverteilung, die sich durch den unterschiedlichen Ziehungsmo-dus erklaren.

Approximation Andererseits ist unmittelbar klar, dass dann, wenn sich viele Kugeln in der Urne befinden und nur wenige Kugeln gezogen werden, kein grofier Unterschied zwischen dem Ziehen mit und ohne Zuriicklegen be-steht. Fiir jedes feste x und n gilt die Grenzbeziehung

/ M \ /N-M\ \ X ) \ n—x )

o N-^oo M—>oo

n 7 r ^ ( l - 7 r r -

Die Wahrscheinlichkeiten der hypergeometrischen Verteilung H{n, AT, M) kon-nen deshalb durch die einer Binomialverteilung B{n,7T = ^ ) approximiert werden. Fiir die Zulassigkeit der Approximation im konkreten Fall ist die fol-gende Faustregel iiblich: -^ < 0.05. Der Quotient -^ heifit Auswahlsatz.

Beispiel 2.21: Aus einer Urne mit 100 Kugeln (davon 50 roten) werden drei Kugeln ohne Zuriicklegen gezogen. Wie grofl ist die Wahrscheinlichkeit, dass genau eine rote unter den drei gezogenen Kugeln ist? Mit

X = Anzahl der roten Kugeln unter den drei gezogenen

Page 101: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN 89

gilt X ~ H{n = 3, AT = 100, M = 50) und deshalb

Sim P{X = 1) = - 4 i ^ = 0-3788.

Da der Auswahlsatz -^ = ^ klein genug ist, diirfen wir diese Wahrschein-lichkeit auch ndherungsweise mithilfe der Binomialverteilung bestimmen. Es gilt ^ = ^ = 0-5 und approximativ X ~ B{n = 3,7r = 0.5). Aus der Binomialverteilungstabelle (Tabelle 1 im Anhang) erhalten wir P{X = 1) ^ 0.3750.

Erwartungswert und Varianz von X ~ H{n, N, M) sind

^ N ' E\X] --

Mit TT = ^ erhalten wir

E[X] = nn,

V[X] = nnil-n)^^.

Wahrend es beim Erwartungswert keinen Unterschied zwischen dem Ziehen mit und ohne Zuriicklegen gibt, verhalt es sich mit der Varianz anders: Wegen

N -n j^—j < 1, falls n > 1,

ist die Varianz von X beim Ziehen ohne Zuriicklegen kleiner als beim Ziehen mit Zuriicklegen. Im Extremfall n = A , d.h. wenn alle Kugeln aus der Urne entnommen werden, gilt sogar V[X] = 0, denn dann ist P{X = M) = 1.

2.4 Spezielle stetige Verteilungen

In diesem Abschnitt behandeln wir verschiedene stetige Verteilungen, die zum Kernbestand der Wahrscheinlichkeitsrechnung gehoren und in vielen Anwen-dungen eine RoUe spielen. Anders als bei den diskreten Verteilungen des Ab-schnitts 2.3, die samtlich aus dem Urnenmodell mit bzw. ohne Zuriicklegen entwickelt werden konnten, liegen diesen stetigen Verteilungen sehr unter-schiedliche Modellansatze zugrunde. Einige von ihnen werden wir in spateren Anwendungen erlantern.

Page 102: Wahrscheinlichkeitsrechnung und schließende Statistik

90 2. ZUFALLSVARIABLE UND VERTEILUNGEN

m Fix)

1

^ X

Abbildung 2.17: Dichte und Verteilungsfunktion der Rechteckverteilung R{a,p)

2.4.1 Rechteckverteilung

Eine Zufallsvariable X heifit rechteckverteilt mit Parametern a,/3 G R a < /?, in Zeichen: X ~ R{a,P)^ wenn sie die Dichte

/c .) = { A ' falls a < X < P y sonst,

besitzt. Die Rechteckverteilung wird auch als uniforme Verteilung oder stetige Gleichverteilung bezeichnet.

Der Trager der Rechteckverteilung ist Tx = [o;, /?]. Auf dem Intervall [a, /?] ist die Verteilungsfunktion linear mit konstanter Steigung l/(/J — a) , ansonsten ist sie konstant, also (vgl. Abbildung 2.17)

Fix) = 1 r 0 ,

x — a (3-a '

i 1.

falls falls falls

X < a a < X

x>(3 </3,

Die Rechteckverteilung R{a,(3) ist dann ein sinnvolles Modell fur eine Zufalls­variable X, wenn man weifi, dass X nur Werte zwischen a und /? annimmt und innerhalb des Intervalls [a, /?] keine Werte „bevorzugt" auftreten. Dann hangt die Wahrscheinlichkeit dafiir, dass X in ein Teilintervall von [a,^] fallt, nur von der Lange des Teilintervalls ab und ist proportional dieser Lange.

Beispiel 2.22: Ein Autofahrer gibt seinen Wagen zur Inspektion und muss deshalb mit der Straflenbahn fahren. Er weifi nur, dass die Ziige im Zehn-Minuten-Rhythmus verkehren und geht zur Haltestelle, um auf den ndchsten

Page 103: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN 91

Zug zu warten. Sei X seine Wartezeit an der Haltestelle (in Minuten). Wel-che Wahrscheinlichkeitsverteilung fiir X bietet sich an? Offenbar ist X ~ R{a = 0^/3 = 10) erne plausible Annahme.

Beispiel 2.6 (Fortsetzung): In dem Spiel des Femseh-Showmasters bezeichne X den angezeigten Winkel in Grad bei Stillstand des Gliicksrads. Dann ist X ~ R{a = 0,P = 360) eine sinnvolle Verteilungsannahme.

Unter den Rechteckverteilungen ist die mit den Parametern a = 0 und 0 = 1 von besonderer Bedeutung. Eine Zufallsvariable Z ~ i?(0,1) hat die Dichte

/z ( )-{J' falls 0 < X < 1, sonst,

und die Verteilungsfunktion

Fzix) -r 0,

< X,

1 1 >

falls X < 0, falls 0 < X < 1, falls X > 1.

Man nennt ein solches Z ~ i?(0,1) auch s tandard-rechteckvertei l t . Wir zeigen nun, dass eine affin-lineare Transformation der Zufallsvariablen Z wie-der rechteckverteilt ist. Sei a,/? G R ,a < /?, und

X = a-\-{P-a)Z.

Dann ist X ~ i ? ( a , / ? ) .

BEWEIS Wegen der Formel (2.5) fiir die Dichte einer afRn transformierten Variablen gilt

^/ \ ^ f x-a /(^) = -^ fz (3-a '^ \P-aJ '

X e

Es folgt

.) = { ^-^ ' /c

Also ist X r^ R{a,f3).

falls 0 < | 5 g < 1, d.h. falls a<x<p,

sonst.

D

Wenn eine Zufallsvariable X allgemein rechteckverteilt ist, d.h. X ~ R{a^P), zeigt man entsprechend, dass die Zufallsvariable

X-a (3-a

i?(0,l)

standard-rechteckverteilt ist.

Page 104: Wahrscheinlichkeitsrechnung und schließende Statistik

92 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

Erwartungswert und Varianz Da X ~ fi(a, /?) symmetrisch zur Mitte des Intervalls [a,/3] verteilt ist, ist der Erwartungswert gleich dem Mittel-punkt des Intervalls,

E[X] = a + 0

Die Varianz betragt

V[X] 12

BEWEIS Um die Varianz von X zu bestimmen, berechnen wir zunachst die Varianz einer standard-rechteckverteilten Zufallsvariablen Z ~ i?(0,1). Es ist E[Z] I

2 '

E[Z^ Jo

ldz= -1 3 '

und daraus folgt

V[Z] = E [Z2] - [E [Z]f

3 V2 / 12

Nach den Rechenregeln (2.8) und (2.10) flir Erwartungswert und Varianz einer afRn-linear transformierten Zufallsvariablen erhalten wir

V[X] = V[a + {P-a)Z] = V[{P-a)Z]

( / ? -a )2 = {f3-afV[Z]

12 D

Beispiel 2.23: Bei der Produktion von Automobilen muss ein bestimmter Ar-beitsgang per Hand ausgefuhrt werden. Gehen Sie davon aus, dass die Dauer X des Arbeitsganges mindestens sieben Minuten und hochstens zwolf Minuten betragt.

a) Berechnen Sie den Erwartungswert und die Standardabweichung der Dauer des Arbeitsganges X, indem Sie eine Rechteckverteilung unter-stellen.

b) Bestimmen Sie die Quantilfunktion von X und berechnen Sie den 90%-Punkt. Wie ist dieser zu interpretieren?

Page 105: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN 93

zu a) Es ist a = 7, /3 = 12,

E[X] = i ^ - t ^ = 9.5 [Minuten],

y/vjx] = J ~ = 1-44 [Minuten].

zu b) Um die Quantilfunktion zu hestimmen, miissen wir

F{x)^^^^p, 7 < a ; < 1 2 ,

fiir 0 < p < 1 nach x auflosen. Es ist

Q{p) = Xp = 7 + bp,

Der 90%-Punkt ist Q(0.9) = 7 + 5 • 0.9 = 11.5 [Minuten], d.h. mit Wahr-scheinlichkeit 0.9 ist der Arbeitsgang nach 11.5 Minuten beendet.

Wir zeigen nun eine wichtige Eigenschaft der Rechteckverteilung, die man ftir die Monte-Carlo-Simulation (siehe Abschnitt 3.3.3) benotigt:

Sei F eine vorgegebene Verteilungsfunktion und Q die zugehorige Quantil­funktion,

Q{p) = min {x\F{x) > p} .

Ist Z eine i?(0, l)-verteilte Zufallsvariable und X = Q{Z), dann hat X die Verteilungsfunktion F.

BEWEIS ES gilt namlich ftir jedes x eR

Fx{x) = P{X <x) = P{Q{Z)<x)

^ P{F{Q{Z))<F{x))

= P{Z < F{x)) = F{x). •

Wenn F eine stetige Punktion ist, gilt dartiber hinaus, dass

F ( X ) ~ i ? ( 0 , l ) ,

d.h. dass F{X) eine Rechteckverteilung in [0,1] besitzt.

BEWEIS Fiir z G [0,1] gilt

FFix){z) = P{F{X) <z) = P{Q{F{X)) < Q{z))

= PiX<Qiz)) = F{Q{z)) = z. •

Page 106: Wahrscheinlichkeitsrechnung und schließende Statistik

94 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

A = 3

X = 2

X = l

>• X

Abbildung 2.18: Dichtefunktion der Exponentialverteilung Exp{\) mit Parameter A = 1,2 und 3

2.4.2 Exp onent ial ver t eilung

Eine stetige Zufallsvariable X nennt man exponent ial ver teilt mit Parame­ter A > 0, in Zeichen: X ~ Exp{X), falls ihre Dichte durch

m \ Ae falls x < 0,

Ae"^^ , falls x > 0,

gegeben ist. Der Trager von X ist demnach Tx = [0,oo[.

Offenbar ist / die Ableitung der folgenden Verteilungsfunktion F ,

F{x) falls X < 0, falls X > 0.

Die Abbildungen 2.18 und 2.19 zeigen die Dichte bzw. die Verteilungsfunktion von Exponentialverteilungen mit verschiedenen Parametern A. Wenn A grofi ist, befindet sich relativ viel Wahrscheinlichkeitsmasse in der Nahe von 0 und die Dichte fallt mit wachsendem x rasch ab. Wenn A klein ist, ist es

Page 107: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN 95

^ X

Abbildung 2.19: Verteilungsfunktion der Exponentialverteilung Exp{X) fiir A = 1 und 3

umgekehrt: Es liegt relativ wenig Wahrscheinlichkeitsmasse bei null und die Dichte fallt mit wachsendem x nur langsam. Die Rolle von A kann auch an der Quantilfunktion demonstriert werden. Es ist (vgl. Abschnitt 2.1.2)

Q{p) - X p = - - I n ( l - p ) ,

Fur jedes feste p ist das p-Quantil Xp also umso kleiner, je grofier A ist. Der Median XQ.S betragt

^0.5 = In 0.5 0.6931

A A

Erwar tungswer t und Varianz einer Zufallsvariablen X ^ Exp{X) sind

E[X] = \ , V\X] = j ^ .

Der Erwartungswert und die Varianz sind also umso kleiner, je grofier A ist.

Page 108: Wahrscheinlichkeitsrechnung und schließende Statistik

96 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

BEWEIS Den Erwartungswert berechnet man mittels partieller Integration,

/

O O /"CX)

xf{x)dx = / x-{Xe'^'')dx -OO Jo f

Jo

-XC-'^^IQ + / l-e-'^^dx

- ^ ^ lo ;i ^ lo

= - 0 - h O - 0 + - , A

also /i = E[X] = J . Ebenso erhalt man mit zweifacher partieller Integration

/•OO r)

Jo A

Hieraus ergibt sich V[X] = ^[X^] - ^ 2 _ ^ . D

Schiefe Wir berechnen nun die Momentenschiefe 71 [X] und die Quartils-schiefe 7i [X] einer Zufallsvariablen X ~ Exp{X). Sie betragen

7 i m ^ 2 , ^f[X] = ^ ^ ^ l ^ : : . 0.2619,

hangen also beide nicht von A ab. Sowohl die Momentenschiefe als auch die Quartilsschiefe einer Exponentialverteilung sind positiv und zeigen Rechts-schiefe (= Linkssteilheit) an.

BEWEIS Laut Definition ist die Momentenschiefe gleich

E[X^]-3E[X^]Hx+2^i^^ 7i[Aj = -3 .

"X

Mithilfe dreimaliger partieller Integration erhalt man E[X^] = ^ und daher

71 m E[X^] - ZE[X^]ixx + 2ix\

j ^ - • ^ j ^ i + ^ d ) " ^ 2

(i)' Zur Berechnung der Quartilsschiefe

Q _ Q(0.75) + Q(0.25) - 2 • Q(0.5) ^^ ~ Q(0.75) - Q(0.25)

Page 109: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN 97

benotigen wir die Quantile

Q(0.25) - - ^ In (1-0 .25) = ^ In Q

Q(0.5) = - Y In (1-0 .50) = ^10 2, A A

Q(0.75) = - i In (1-0.75) = i l n 4 . A A

Es ergibt sich

Q,^ _ ln4 + l n ( | ) - 2 - l n 2 _ In ( | ^ ) ^1^ ' ~ l n 4 - l n ( | ) " ln3

In (I) In4-ln3 „„^,^

Die Exponentialverteilung ist geeignet zur Modellierung von Lebensdauern von technischen Geraten und von Wartezeiten in Bedienungssystemen. Sie hat die folgende interessante Eigenschaft, die im Folgenden als Gedachtnis-losigkeit interpretiert wird: Fiir X ~ Exp{X) und t,s > 0 gilt

P{X >t + s\X >t) P{X >t-\-s) _ 1-F{t + s)

P{X > t) ~ 1 - F{t) -A(t+s)

_ _ _ = e - ^ ^ = P{X>s)^

also P{X >t + s\X>t) = P{X >s),\ (2.18)

Die bedingte Wahrscheinlichkeit, dass die Lebensdauer X den Wert t -\- s liberschreitet unter der Bedingung, dass sie bereits den Wert t iiberschritten hat, ist also gleich der (nicht bedingten) Wahrscheinlichkeit, dass die Lebens­dauer den Wert s liberschreitet. Umgekehrt lasst sich zeigen, dass eine stetige Zufallsvariable X, die die Eigenschaft (2.18) besitzt, eine Exponentialvertei­lung haben muss. Wenn fiir eine diskrete Zufallsvariable (2.18) zutrifft, ist sie geometrisch verteilt.

Die Eigenschaft (2.18) lasst sich so als „Gedachtnislosigkeit" interpretieren: Betragt das Alter eines Gerats bereits t Zeiteinheiten, so ist die Wahrschein­lichkeit, dass seine Funktionstiichtigkeit noch mindestens s weitere Zeitein­heiten anhalt, ebenso grofi wie die Wahrscheinlichkeit, dass ein gleichartiges neues Gerat mindestens 5 Zeiteinheiten lang funktionstiichtig ist. Das Gerat „vergisst" also in jedem Zeitpunkt t sein Alter.

Ob fiir ein bestimmtes Objekt die Eigenschaft der Gedachtnislosigkeit zutrifft oder nicht, kann natiirlich nur durch inhaltliche Uberlegungen festgestellt

Page 110: Wahrscheinlichkeitsrechnung und schließende Statistik

98 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

werden. Falls sie zutrifft, ist die Lebensdauer exponentialverteilt, wobei der Parameter A noch zu bestimmen ist.

Beispiel 2.24: Ein Ingenieur unterstellt, dass die Lebensdauer X eines be-stimmten Typs von Gliihlampen (in Stunden) durch eine Exponentialvertei-lung mit E[X] — 800 beschrieben werden kann (^-^ Excel/SPSS).

a) Wie grofl ist die Wahrscheinlichkeit, dass eine zufdllig ausgewdhlte Glilh-lampe Idnger als 1000 Stunden brennt?

b) Welche Brenndauer wird nur mit einer Wahrscheinlichkeit von 10% iiberschritten?

zu a) Es ist E[X] = — = 800, also A = g^. Deshalb ist A

10 P{X > 1000) = e-^-^^°° = e " ^ = 0.29.

zu b) Gesucht ist der 90%-Punkt 0:0.9. Es ist

a;o.9 = - Y ln(l - 0.9) - 1842.07. A

Im Folgenden treten mehrfach Wahrscheinlichkeiten der Form P{X > x) auf. Allgemein wird fiir eine nichtnegative Zufallsvariable X die Funktion

S{x) - 1 - F{x) = P{X > x ) , x>0,

Uberlebensfunktion (englisch: survival function) von X genannt. Ist X eine Lebensdauer, so gibt S{x) an, wie grofi die Wahrscheinlichkeit ist, den Zeitpunkt x zu iiberleben. Ein weiterer wichtiger Begriff in diesem Zusam-menhang ist die Ausfallrate (englisch: hazard rate)

h(x) = ffl = - ( ^ X > 0 ^^''> S{x) 1-F{x)' - ^ •

Offenbar gilt

hix) = -^lniSix)), (2.19)

d.h. die Ausfallrate ist gleich dem negativen Wert der logarithmischen Ab-leitung der Uberlebensfunktion. Umgekehrt lasst sich durch Integration aus der Ausfallrate die Uberlebensfunktion und damit die Verteilungsfunktion bestimmen; es gilt

S{x) = exp(- h{t)dtj ,

F{x) = 1 - S{x) - 1 - exp ( - / h{t)dt

Page 111: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN 99

Flir ein kleines Zeitintervall Ax ist

f{x)Ax P{x <X <x + Ax) h{x)Ax =

S{x) P{X > x)

= P{x<X <x-j-Ax\X >x).

h{x)Ax gibt also naherungsweise die Wahrscheinlichkeit an, dass ein Objekt im Intervall ]x, x 4- Ax] ausfallt unter der Bedingung, dass es den Zeitpunkt X erlebt.

Speziell sei X exponentialverteilt, X ~ Exp{X). Dann ist S{x) = e~^^ und f{x) = Xe~^^, also

"w-lsy-l^-* f"" "-Bei der Exponentialverteilung ist demnach die Ausfallrate konstant und hangt nicht vom Alter x des Objektes ab. Man kann leicht (namlich durch Integrati­on der konstanten Ausfallrate A) mit Hilfe von Formel (2.19) zeigen, dass die Exponentialverteilung sogar die einzige Lebensdauerverteilung ist, die die-se Eigenschaft besitzt. Die Konstanz der Ausfallrate entspricht offenbar der Gedachtnislosigkeit der Exponentialverteilung.

2.4.3 Pareto-Verteilung

Wir beginnen mit einem Anwendungsbeispiel. Aus einer Grundgesamtheit von Haushalten werde auf zufallige Weise ein Haushalt ausgewahlt und sein Einkommen mit X bezeichnet. Dann ist X eine Zufallsvariable. Fiir jedes X entspricht der Wert der Verteilungsfunktion F{x) von X dem Anteil der Haushalte, die ein Einkommen von x oder weniger beziehen. S{x) = 1 — F{x) entspricht dem Anteil der Haushalte mit einem Einkommen grofier als x.

Pareto^ untersuchte die Einkommensverteilungen wohlhabender Haushalte und stellte dabei fest, dass die empirischen Verteilungen - besonders flir grofie Einkommen x - der approximativen Beziehung

ln(5(x)) ^A-a\nx (2.20)

geniigen. Dies ist eine (approximative) lineare Gleichung in den logarithmier-ten Grofien \n{S{x)) und Inx. Tragt man in einem doppelt logarithmischen Koordinatensystem den Anteil S{x) gegen x ab, so ergibt sich naherungsweise eine Gerade mit Steigung —a.

^Vilfredo Pareto (1848-1923)

Page 112: Wahrscheinlichkeitsrechnung und schließende Statistik

100 2. ZUFALLSVARIABLE UND VERTEILUNGEN

Beschranken wir uns nun auf die Verteilung der Einkommen, die ein bestimm-tes Niveau c libersteigen, und nehmen an, dass (2.20) mit geeigneten Zahlen A und a exakt gilt: \n{S{x)) = A — a\nx fiiT x > c. Dies ist zur Gleichung S{x) = e'^x'^ aquivalent, also zur Gleichung

F{x) = 1 - S{x) = 1 - e'^x-^ fiir X > c.

Wegen der Beschrankung der Grundgesamtheit auf Haushalte mit Mindest-einkommen c setzen wir F{x) = 0 fur x < c. Speziell gilt F{c) = 0 und daher e^c " = 1, d.h. e"^ = c^. Insgesamt folgt

Fix) 0, falls X < c,

1 — ( — j , falls X > c.

Eine Zufallsvariable X mit dieser Verteilungsfunktion heifit Pareto-ver te i l t mit Parametern c > 0 und a > 0, in Zeichen: X ~ Par {a, c). Der Trager von X ~ Par {a, c) ist Tx = [c, oo[, die Dichte

/w = a + l ac^'x-''-'^

falls X < c,

falls X > c .

/(^)

-^x ^x

Abbildung 2.20: Dichte und Verteilungsfunktion der Pareto-Verteilung Par{a 2.5, c = 4)

Page 113: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN 101

Beispiel 2.25: Von den Studierenden an einer exklusiven Privatuniversitdt sei bekannt, dass jeder ein verfilgbares Monatseinkommen von mindestens 1500 € hat, Es sei gemafi Par{a = 2.1, c = 1500) verteilt (^ SPSS).

a) Berechnen Sie den Median der Einkommensverteilung.

b) Wie viel Prozent der Studierenden haben 2500 €" oder mehr zur Ver-fugung?

0.5

a) Gesucht ist also X0.5. Es gilt

F{xo.6)

/1500y' \ ^0.5 /

1500

^0.5

3: 0.5

=

=

=

=r

^ /i5ooy' V ^0.5 /

0.5

0 . 5 ^

2086.60.

Der Median betrdgt 2086.60 €. zu b) Wir berechnen

l-F(2500) = l - ( l - ( | ^ ) " ) =0.3421.

34.2% der Studierenden verfiigen iiber ein Einkommen von mehr als 2500 €.

Erwartungswert und Varianz Wir wollen noch Erwartungswert und Varianz einer Fa r (a, c)-Verteilung bestimmen. Dazu berechnen wir E fX" ] ftir beliebiges n G N,

a;" ac^- x'''-^ dx

/•OO

X)

, falls a > n , 1 1* ^

n-a , 1 ac^

a — n a — n Die Integration erfordert, dass a > n ist. Ftir Erwartungswert und Vari­anz einer Pareto-Verteilung erhalten wir

rye fx = E[X] = , falls a > 1,

a — 1

Page 114: Wahrscheinlichkeitsrechnung und schließende Statistik

102 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

V[X] = E [X^] - iJ,^ a - 2

ac a - 1

V\X\ = ac" ( a - 2 ) ( a - l ) 2 '

falls a > 2 .

Beispiel 2.25 (Fortsetzung): Erwartungswert und Standardabweichung der Pareto-Verteilung mit a == 2.1 und c — 1500 berechnet man wie folgt:

- 2 863.64 € ,

- 3 9 049 586.78 € 2 ,

E[X] -

V[X] -

Vvjx] -

2.1 • 1500

2.1 • 1500^ 0.1 1.12

= 6 248.97 € .

1st X ~ Par {a, c) und ist c' > c, so gilt fiir x > c'

P{X >x\X >c') = PiX>x) (f)" P(X>c') (^)" V^

Die bedingte Verteilung von X unter der Bedingung X > c' ist also wieder eine Pareto-Verteilung. Sie hat denselben Parameter a wie die nicht bedingte Verteilung; ihr anderer Parameter ist c'.

Beispiel 2.26: Die Einkommen (in €) der Mitglieder eines noblen Golfklubs seien Par{a, c)-verteilt mit a = 2.4 und c = 200000. Wie ist das Einkommen derjenigen Teilgesamtheit der Mitglieder verteilt, deren Einkommen minde-stens d = 300000 € betragt? Nach obiger Uberlegung ist dieses Einkommen Par {a = 2.4; c' = 300000)-verteilt.

2.4.4 Normalverteilung

Eine Zufallsvariable X heiCt normalverteilt oder GauB-verteilt'^ mit Pa-rametern /i G M und a^ > 0, in Zeichen: X ^ N (/i,a-2), wenn ihre Dichte durch

/ ( x ) = ^ = e - H ^ r , x G M ,

gegeben ist.

• Carl Priedrich Gaufi (1777-1855)

Page 115: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN 103

^ u

Abbildung 2.21: Dichte (f{u) der Standard-Normalverteilung

Im Spezialfall fx = 0 und a'^ = 1 heii3t die Verteilung Standard-Normal­verteilung. In diesem Buch bezeichnen wir eine standard-normalverteilte Zufallsvariable mit [/, [/ ~ A^(0,1), und ihre Dichte mit ^(u). Es ist

ue

Zwischen der Normalverteilungsdichte / mit Parametern /i und cr und der Standard-Normalverteilungsdichte (p besteht ofFenbar die folgende Beziehung:

1 fx-fx f{x) = -(p[ -—— X e .

Die Formel entspricht der Formel (2.5) ftir die Dichte einer affin-linear trans-formierten Variablen. Auf die affin-lineare Transformationsbeziehung zwi­schen U und X werden wir unten genauer eingehen.

Eigenschaften der Dichtefunktion Die Dichtefunktion ( (u), u G M, der Standard-Normalverteilung hat folgende wesentliche Eigenschaften (vgl. Abbildung 2.21):

1. (f{u) hat sein Maximum an der Stelle u = 0 mit (p{0) = -4= = 0.39894.

2. (f{u) ist symmetrisch zu c = 0, d.h. if {—u) = (p (u) ftir alle li G R.

3. (f{u) ist positiv ftir alle u eR und geht sowohl iui u —^ oo als auch ftir u -^ —00 gegen 0.

4. (p{u) besitzt Wendepunkte an den Stellen u = 1 und u = —1.

Page 116: Wahrscheinlichkeitsrechnung und schließende Statistik

104 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

Insbesondere ist eine standard-normalverteilte Zufallsvariable U ~ iV(0,1) unimodal mit eindeutigem Modus 0 und nimmt Werte auf der ganzen reellen Achse an. Aus den Eigenschaften von (p folgen unmittelbar die Eigenschaften der Dichte f{x) einer beliebigen Normalverteilung N{II^(T'^)^ namlich:

1. f{x) hat sein Maximum an der Stelle x = /i mit

/ ( / i ) = - . - l = = 1.0.3989. cr v27r CF

2. f{x) ist symmetrisch zu //, d.h. / (// — x) = / (/i + x) fiir alle x G M.

3. / (x) ist positiv fiir alle x G M und geht sowohl fiir x —> oo als auch fiir X —> —00 gegen 0 .

4. / (x) besitzt Wendepunkte an den Stellen x = -\- a und x = fx — a.

Eine normalverteilte Zufallsvariable X ~ N{fx,a^) ist unimodal mit eindeu­tigem Modus fi und nimmt beliebig grofie und kleine Werte an.

Verteilungsfunktion Die zur Standard-Normalverteilung gehorende Ver-teilungsfunktion wird mit ^ bezeichnet,

vgl. Abbildung 2.23. Dieses Integral lasst sich nicht durch bekannte Funk-tionen wie Polynome oder Exponentialfunktionen ausdriicken oder sonst auf einfache Weise berechnen. Eine Wertetabelle fiir ^{u) findet man als Tabelle 4 im Tabellenanhang. Manche Taschenrechner geben ebenfalls die Werte von $ {u) aus.

Dennoch lassen sich einige Eigenschaften der Verteilungsfunktion ^ di-rekt ableiten:

1. $ ist streng monoton wachsend, da

$ ' {u) = (f{u)>0.

2. Da die Dichtefunktion cp symmetrisch zu 0 ist, folgt fiir die Verteilungs­funktion

$ (u) = 1 - $ {-u) , u G

Insbesondere ist (0) = i .

Page 117: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN 105

— iV(0,l) - • iV(0,4)

- iV(2,l)

n 1 r—I 1 \—^n—'^i r"—r —i \ 1 1 r^ ^ -14 -12 -10 - 8 - 6 - 4 - 2 0 2 4 6 8 10 12 14

Abbildung 2.22: Dichten verschiedener Normalverteilungen

^u)

•>- u

Abbildung 2.23: Verteilungsfunktion ^{u) der Standardnormalverteilung

Da die Verteilungsfunktion $ streng monoton wachsend ist, besitzt sie eine Umkehrfunktion. Fiir jedes p G]0, 1[ erhalt man deshalb das p-Quantil der Standard-Normalverteilung

Up = Q{p) = $ -1 (p)

als eindeutige Losung der Gleichung $ (u) = p. Es gilt hier

$ ($~^ (p)) =p fiir 0 < p < 1,

^~^ ($ (u)) — u f i i r — o o < u < o o .

Aus der Eigenschaft ^ {u) = \ — ^{—u) folgt fiir die Quantilfunktion die entsprechende Eigenschaft

^ ^{p) = -^ ^ (1 - P) , d.h. Up = -ui-p .

Page 118: Wahrscheinlichkeitsrechnung und schließende Statistik

106 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

Die Quantile der Standard-Normalverteilung erhalt man aus Tabelle 4 im Anhang, indem man sie „ruckwarts" liest. Einige besonders haufig verwendete Quantile Up sind in Tabelle 3 zusammengestellt.

Erwartungswert und Varianz einer standard-normalverteilten Zufallsva-riablen [/ ~ A^(0,1) lauten

E[U] = 0, V[U] = l,

BEWEIS E[U] = 0 folgt sofort aus der Symmetrie der Dichte zu 0. Die Varianz von U berechnet man mit partieller Integration wie folgt:

V[U] = E [U^] - {E [U]f = E [U^]

/

OO /•OO

u^(p {u)du = / U' [u ' ip{u)]du -OO J — OO

-OO

= U' \ —(f{u) + / (f{u)du L -i-oo y_oo

= (-0-hO) + l = 1

Hierbei wurde verwendet, dass

1 -M1 u . i^(u) = u ' -=e 2

die Stammfunktion —^{u) besitzt und dass

lim u ' (f{u) = lim u • (p(u) = 0. u-H-oo n—> —OO

Beispiel 2.27: Es sei U ^ N (0, l)-verteilt (^ Excel/SPSS).

a) Man bestimme P {U > 0.5) und P{-l<U <2),

b) Man bestimme den 20%- und den 70%'Punkt von U.

c) Man bestimme b so, dass P {—b < U < b) = 0.9.

zu a) Wir berechnen

P{U> 0.5) = 1 - P (C/ < 0.5) = 1 - $ (0.5)

= 1 - 0.6915 = 0.3085,

P{-1<U <2) = P{U <2)-P{U <-l) = $(2) - $ ( - 1 )

= < (2) - (1 - ^ (1)) = 0.9772 - 1 + 0.8413

= 0.8185.

D

Page 119: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN 107

Dabei wurden die Werte von $(2) und $(1) der Tabelle 4 entnommen.

zu b) Gesucht wird das 0.2-Quantil (bzw. das 0.7-Quantil). Es muss also gelten: P {U < u) = ^ (u) = 0.2 {bzw. 0.7). Tabelle 3 liefert uo.2 = -^^o.s = —0.8416. Aus Tabelle 4 erhdlt man durch lineare Interpolation 1 0.7 — 0.5244.

zu c) Es gilt

P{-b<U<b) = P{U<b)-P{U<-b) = ^ ( 6 ) - $ ( - 6 )

= ^ ( 6 ) - ( 1 - ^ ( 6 ) ) = 2 . ^ ( 6 ) - l .

Daraus folgt 2 • $ (6) - 1 = 0.9; also ^ (6) = 0.95. Aus Tabelle 3 ergibt sich 6 = 1.6449.

Im Folgenden betrachten wir wieder eine Normalverteilung iV (/ , cr ) und diskutieren die affin-lineare Transformation, durch die sie mit der Standard-Normalverteilung A/" (0,1) verkniipft ist. Grundlegend sind die folgenden Aus-sagen:

1. Ist X ~ A (/x, cr^), so gilt fiir die standardisierte Variable

X-ii N{OA).

2. Ist 17 ~ AT (0,1) und sind /i G R und a > 0, so gilt fiir die mit /j. und a transfermierte Zufallsvariable

aU -\- fx ^ N [ii.a'^) .

BEWEIS Die erste Aussage weist man so nach: Die Verteilungsfunktion der standardisierten Variablen ist

Fx^{u) = P{^^^^<u

= P{X <au + id) = Fx {au + n)

= / , e ~ 2 ( ^ ) dx J V2na

—00 u f I 1 2

= / —r=e ^'^dy = ^{u) f l i r u G R . J v27r

Hier haben wir beim Integrieren

X — jj, dy 1 . , , = y mit X = iJL-\- ay ^ ~r — ~ und ax = aay

a dx a

Page 120: Wahrscheinlichkeitsrechnung und schließende Statistik

108 2. ZUFALLSVARIABLE UND VERTEILUNGEN

substituiert. Da die Verteilungsfunktion von — ^ gleich $ ist, ist

^ ^ ~ 7V(0,1). (J

Die zweite Aussage zeigt man auf ahnliche Weise.

Aus der ersten Aussage folgt

D

Fx{x) = ^ X — jl

fiir X G

Wenn X r^ N (ju, cr ) ist, lasst sich die Verteilungsfunktion von X durch die Standard-Normalverteilungsfunktion $ ausdriicken. Fiir die Dichte von ^ g i l t

/x(x) = Fi(x) = i ^ ( ^ ) ,

und das p-Quantil ist gemafi (2.4) gleich

Vp = iJ, -\- a Up ,

wobei Up das p-Quantil der Standard-Normalverteilung bezeichnet.

Wir konnen nun leicht den Erwartungswert und die Varianz einer normal-verteilten Zufallsvariablen X ~ N (^/j^^a'^) bestimmen. X ist die afRn-lineare Transformation einer standard-normalverteilten Zufallsvariablen (7,

X = fx-^aU, [ / -A^(0 ,1) ,

also gilt

E[X] =fi + aE[U]=fi.

Dies folgt auch unmittelbar aus der Symmetric der A (/i,cr^)-Verteilung zu /i. Weiter ist

V[X] = V[fi + aU] = aV[ [ / ] = a^

Die beiden Parameter fi und cr einer Normalverteilung lassen sich also als Erwartungswert bzw. Varianz interpretieren.

Schiefe und Kurtosis Da eine Normalverteilung symmetrisch zu fd ist, sind sowohl die Momentenschiefe 71 als auch die Quartilsschiefe 7^ gleich null. Fiir die Wolbung 72 ergibt sich mittels mehrfacher partieller Integration

72 / u'^(p{u)du = 3 .

—00

Page 121: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN 109

Beispiel 2.28: Es sei X-^N{n = 2,a'^ = 25) {^ Excel/SPSS).

a) Man berechne P {X > 3) und P{0 < X <2).

b) Man bestimme den 80%- und 95%-Punkt von X.

c) Man bestimme a so, dass P{2 — a<X<2 + a) = 0.9 ist.

zu a) Es ist

P{X >3) = 1 - P (X < 3) = 1 - Fx (3)

= l - ^ ( ^ - ^ ^ = l - $ ( 0 . 2 )

= 1-0.5793 = 0.4207,

P{0<X <2) = P{X <2)-PiX <0) = Fx{2)-Fx (0)

= $ ( 0 ) - ( l - $ ( 0 . 4 ) )

= 0 . 5 - 1 + 0.6554 = 0.1554.

zu b) Gesucht sind die Quantile XQ.S und xo.95. Man berechnet sie als

X0.8 = fi + auo.8 = 2 + 5-0.8416 = 6.2081,

a;o.95 = At + CTUo.95 = 2 + 5-1.6449 = 10.2245.

zu c) Es ist

0.9 = P(2 - a < X < 2 + a) ^ / 2 + ^ ^ \ _ ^ / 2 - a - 2

-(f)-KT) = -©- -Daraus folgt ^ ( f ) = 0.95; f = uo.95 = 1.6449 und damit a = 8.2245 .

Unter dem zentralen Schwankungsintervall der Breite 2a versteht man das Intervall

[/J. — a, /I + a] .

Fill X r.N{fi,a'^) gilt

P{X G[iJ.-a,iJ. + a]) = P{ii-a<X<ii^a)

= ^ ( f ) - ^ ( ^ ) - 2 $ ( f ) - l .

Page 122: Wahrscheinlichkeitsrechnung und schließende Statistik

110 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

Besonders haufig verwendete zentrale Schwankungsintervalle einer iV (//, cr^)-Verteilung sind die so genannten Ein-, Zwei- und Drei-Sigma-Bereiche. Sie lauten:

P{fi-a<X<iJ. + a) = 2 $ ( 1 ) - 1 = 0.6826, P ( / i - 2 o - < X < ^ + 2(7) = 2 $ (2) - 1 - 0.9544,

P{fi-3a<X <fi-\-3a) = 2 $ (3) - 1 - 0.9974.

Man vergleiche die durch die Normalverteilung gegebenen Wahrscheinlich­keit en dieser Intervalle mit den allgemeinen Wahrscheinhchkeitsschranken, die die Tschebyscheff-Ungleichung (Abschnitt 2.2.3) hefert: Der Zwei-Sigma-Bereich einer beUebigen Verteilung hat mindestens die WahrscheinUchkeit 0.7500 und der Drei-Sigma-Bereich die WahrscheinUchkeit 0.8889. Man sieht daran, dass die Annahme einer zugrundehegenden Normalverteilung scharfe­re Aussagen liber die Wahrscheinlichkeiten erlaubt.

Normalverteilungen eignen sich in vielen Anwendungsfallen gut dazu, um so genannte Fehlerverteilungen zu beschreiben. Hierbei kann es sich um einen Messfehler handeln, d.h. die zufallige Abweichung eines Messwerts vom „wahren Wert" der zu messenden Grofie. Dies spielt insbesondere in den Naturwissenschaften und der Technik eine wichtige Rolle. Auch lassen sich oft Fertigungs- oder Produktionsfehler (das sind Abweichungen von vor-gegebenen Sollgrofien) gut durch normalverteilte Zufallsvariable beschreiben.

Auch im Bereich der Wirtschafts- und Sozialwissenschaften wird die Nor­malverteilung gerne verwendet, vor allem als Verteilung einer „Storgro6e", namlich der Differenz zwischen dem beobachteten Wert eines Merkmals und seinem durch ein theoretisches Modell vorhergesagten Wert. Dies lasst sich dann rechtfertigen, wenn die beobachtete Abweichung vom theoretischen Wert durch eine Vielzahl von unabhangigen kleinen Abweichungen zustande-kommt; vgl. den Zentralen Grenzwertsatz (Abschnitt 3.2.4).

Beispiel 2.29: Das tatsdchliche Gewicht X einer (zufdllig ausgewdhlten) Kaf-feepackung in Gramm sei normalverteilt mit JJL — 1000 und a = 10. Wie grofi ist die Wahrscheinlichkeit, dass das tatsdchliche Gewicht geringer als 985 Gramm ist?

Es ist X ^ N (^fi = 1000, (J = lOO). Fur die gesuchte Wahrscheinlichkeit ergibt sich

r . / . . ^orx ^ / 9 8 5 - 1 0 0 0 P{X < 985) = $ 10

= $ ( -1 .5 ) = 1 - ^ ( 1 . 5 )

- 1-0,9332 = 0.0668.

Page 123: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN H I

Beispiel 2.30: Sei KQ = 40€ der Schlusskurs einer bestimmten Aktie an der Frankfurter Borse am heutigen Tag, und bezeichne K den morgigen Schlusskurs der Aktie. Uber die Verteilung der Ein- Tagesrendite

trifft ein Anleger die Annahme R ^ N (O^a'^ = 16). Wie grofl ist dann die Wahrscheinlichkeit, dass der Schlusskurs K am morgigen Tag 38 € oder we-niger betrdgt? Aus den Annahmen folgt, dass

also

P{K<3S) = ^ ( f j ^ ) = ^ ( -1 .25) = 1 -^ (1 .25 )

= 1-0.8944 = 0.1056.

Die Normalverteilungsannahme erweist sich in vielen wirtschaftswissenschaft-lichen Anwendungen als problematisch. Eine Aktienrendite wie im Beispiel 2.30 ist schon deshalb nicht exakt normalverteilt, weil sie nicht kleiner als — 100% (das entspricht dem Totalverlust) werden kann. Weiter beobachtet man in den meisten Anwendungsfalien, dass empirische Renditeverteilungen sowohl in der Mitte der Verteilung als auch an den Flanken der Verteilung stark von der Normal verteilung abweichen.

Ob und inwiefern die Annahme einer Normalverteilung eine hinreichend ge-naue Approximation darstellt, ist im konkreten Anwendungsfall sorgfaltig zu prlifen. Auf dieses Problem kommen wir im Abschnitt 6.4.2 zuriick.

2.4.5 Lognormalverteilung

Ist X normalverteilt mit den Parametern // G R und a^ > 0, so nennt man Y = e-^ lognormalverteilt mit diesen Parametern, in Zeichen:

Offensichtlich ist eine nichtnegative Zufallsvariable Y genau dann lognormal­verteilt, wenn InY normalverteilt ist. Wir leiten zunachst ftir gegebene Werte der Parameter /x und a^ die Verteilungsfunktion und die Dichte von Y her. Fiir y > 0 gilt

Friy) = P{Y<y) = P(e^ < y)

= P{X<lny) = $ ^ ^ ^ ^ - ^ ^

Page 124: Wahrscheinlichkeitsrechnung und schließende Statistik

112 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

da X ~ N{^^G'^) verteilt ist. Insgesamt erhalten wir

FY{y) 0, falls y < 0,

^ 1 lny-_^^l , falls y > 0 .

Um den Median yo.5 von Y zu ermitteln, setzen wir Fyiy^.b) = 0.5; es folgt

^Iim:Ui = 0, also a

J/0,5 = e " .

Durch Differenzieren von Fyiy) erhalt man die Dichte von Y. Es ist

0, falls 2/ < 0,

fix) 0.6-1

0.5-i

0.4 H

0.3

0.2 4

O.H

iiV(l,l) LN{1,2)

LN{2,1)

LN {2,2)

Abbildung 2.24: Dichtefunktionen verschiedener Lognormalverteilungen

Page 125: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN 113

Man rechnet leicht aus, dass die Dichte an der Stelle y — e^~^ ihr einziges Maximum besitzt. Die Lognormalverteilung ist daher unimodal mit eindeu-tigem Modus

VM = e^-"

Erwartungswert und Varianz Bei den Parametern jj, und a^ einer log-normalverteilten Zufallsvariablen Y ist Vorsicht geboten: Sie sind gleich dem Erwartungswert und der Varianz von X = \nY^ aber keineswegs von Y selbst. Vielmehr gilt

E[Y] = e'^+V,

V[Y] = e 2 ^ + ^ ' ( e " ' - l ) .

Haufig wird die lognormale Verteilung mit Hilfe zweier anderer Grofien pa-rametrisiert, namlich mit ihrem Median ^ = yo.5 und dem Quotienten

aus Median und Modus. Dann ist

^ = e>^>0,

Es gilt fx = \n^ und cr = In r/, also

0,

yo.5 VM

ri = e^ > 1.

falls y < 0,

Fviy) ^ j ' l n ^ - h r e ^ , ^ fa l ls , > 0 . /Inr/

Mit den Parametern ^ und rj lassen sich Erwartungswert und Varianz offenbar so ausdrticken:

Jede Lognormalverteilung ist rechtsschief. Als Momentenschiefe ergibt sich

71 = ^77 - 1 (ry + 2) > 0,

da ry > 1 ist. Fiir die Wolbung gilt

72 = r/ + 277 + 37/2 - 3 > 3 .

Beispiel 2.31: Die Verteilung der verfugbaren Einkommen (in 1000C^ in ei­ner Gesamtheit von Haushalten sei durch LN (/u = 0.9, cr = O.l) gegeben. Man berechne Erwartungswert, Standardabweichung, Median und Modus die-ser Einkommensverteilung.

Page 126: Wahrscheinlichkeitsrechnung und schließende Statistik

114 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

Bezeichne Y das Einkommen eines zufdllig ausgewdhlten Haushaltes. Der Modus ist VM = e - -O-i = 2.2255, der Median ^ = e^-^ = 2.4596, der Ge-staltparameter rj = e^'^ = 1.1052. Weiter erhalten wir

E[Y] = ^VV = 2.5857,

0 7 [ y ] - y/eviv - 1) = 0.8387.

Die Lognormalverteilung hat wichtige Anwendungen in der Analyse von Ren-diteverteilungen am Aktienmarkt; siehe Beispiel 3.14 im Abschnitt 3.2.4 und das Zahlenbeispiel im Kapitelanhang ( -> Excel/SPSS).

2.4.6 Ubersicht liber einige spezielle Verteilungen

Die folgende Ubersicht enthalt Erwartungswert, Varianz und Trager aller bis-her eingeftihrten speziellen Verteilungen. Ftir alle aufier der hypergeometri-schen Verteilung sind auch die Momentenschiefe und die Wolbung aufgeftihrt.

Page 127: Wahrscheinlichkeitsrechnung und schließende Statistik

2.4. SPEZIELLE STETIGE VERTEILUNGEN 115

^

^

r

Ui "

\\^ ^

?

ul-

CO

4-

1 T—t

1

'^ 1

s

1 1—1

1^-^

^ 1

>

VI C

' ^ VI 1 O <

o ^ 1

^ VI H O

e H 1 1

^ ^—^ i 1

^ 1 ^ ge

? -? ' ?r s

CQ tq

CO

- H | : i

H^

o

D

: i

^

=t o ex.

oi 1

+ t

+ rH

^

^

1 T-H

1=

-H 1 ^

'^

o

CO

o

^

r H

o

T-H

o"

^

CO

o

^

b

: i

b : i

^

Oi | i O

o

^ ^

es

c3

1

s CN

e (M

s d (

C i

cs

T o ^

^ l<^

r-H ! - <

^ F H

ti^

« CO

CM II

1

CD

1 CN

+ CO

CO

^ + 1 «^

7 +

CO 1 1

CO 1

«. + I CN

1

T-H

+

CN 1

CO

1

rH

1 ^

A > 1 CN \ 1

CN

A ^^_^

1 1

(N

o

M '

1 Oix

1 (i)

' ~ 1

A

+ 1 o

« 1 "^ 1

1 e 1

^^"^ CN

" b

OH 5

Page 128: Wahrscheinlichkeitsrechnung und schließende Statistik

116 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

2.5 Erganzungen

2.5.1 Borel-Mengen, Verteilung einer Zufallsvariablen

Mit Hilfe der Verteilungsfunktion F einer Zufallsvariablen X kann man be-sonders leicht die Wahrscheinlichkeit daftir angeben, dass X in ein gegebenes Intervall fallt. Aus der Verteilungsfunktion lasst sich jedoch auch flir allge-meinere Mengen B von reellen Zahlen die Wahrscheinlichkeit

P{X eB) = P{{uj\X{uj) e B})

ableiten. Beispielsweise, wenn B die Vereinigung von disjunkten Intervallen ist, ergibt sich P{X G B) als Summe der Wahrscheinlichkeiten der einzel-nen Intervalle. Man kann beweisen, dass durch die Verteilungsfunktion von X die Wahrscheinlichkeiten P{X G B) ftir alle B e B bestimmt sind. Da-bei ist B das Mengensystem der so genannten Borel-Mengen; dies sind die Mengen, die sich durch wiederholte Ereignisoperationen aus Intervallen bilden lassen. Die Borel-Mengen bilden eine Ereignisalgebra (vgl. Abschnitt 1.1.2). Dariiber hinaus besitzen sie folgende Eigenschaft: Die Vereinigung von abzahlbar vielen Mengen in B ist wieder eine Menge in B. Die Borel-Mengen bilden demnach eine Ereignis-a-Algebra.

Alle ftir Anwendungen interessanten Mengen sind Borel-Mengen. (Es ist sogar ausgesprochen schwierig, tiberhaupt eine Menge zu finden, die keine Borel-Menge ist.) Die Funktion

B H — > P ( X G J B ) , B e B ,

heifit Wahrscheinlichkeitsverteilung, kurz: Verteilung, von X. Die Ver­teilung von X ist durch die Verteilungsfunktion

X I—> P{X G] - oo, x ] ) , X G M,

schon vollstandig festgelegt.

Die Verteilung einer diskreten Zufallsvariablen X ist bereits durch die Ein-zelwahrscheinlichkeiten pj = P{X = Xj), j = 1,2,3, . . . bestimmt. Die Ver­teilung einer stetigen Zufallsvariablen X ist durch ihre Dichte / (x ) ,x G M, eindeutig festgelegt.

2.5.2 Erwartungswert einer Wet te als subjektive Wahr­scheinlichkeit

Im Abschnitt 1.4.2 wurde bereits auf die Begriindung subjektiver Wahr­scheinlichkeiten durch Wet ten hingewiesen.

Page 129: Wahrscheinlichkeitsrechnung und schließende Statistik

2.5. ERGANZUNGEN 117

Eine Wette biete die Auszahlung von 100 € , falls ein bestimmtes Ereignis A eintritt, andernfalls eine Auszahlung von 0 € . Die Auszahlung ist dann eine diskrete Zufallsvariable mit zwei Auspragungen: P{X = 100) = n und P{X = 0) = 1 — TT, mit xi — 100, pi = TT und X2 = 0, P2 = I — TT. Der Erwartungswert betragt

E[X] =xi-pi-\-X2'P2 = IOOTT + 0(1 -7T) = IOOTT .

Die subjektive Wahrscheinlichkeit fiir das Eintreten des Ereignisses A lasst sich ermitteln, indem der Spieler befragt wird, welchen Betrag er maximal bereit sei, fiir die Wette einzusetzen.

Man geht davon aus, dass der maximale Einsatz gleich dem Erwartungswert einer Wette ist. Ist eine Person also bereit, einen Einsatz von M zu leisten, so kann man aus der Beziehung

M = E[X] = IOOTT

ableiten, dass ihre subjektive Wahrscheinlichkeit n den Wert TT = ^ hat.

Derartige tJberlegungen spielen bei vielen wirtschaftlichen Fragestellungen eine Rolle. Beim Abschluss einer Versicherung etwa hangt die Hohe der Ver-sicherungspramie, die der Versicherungsnehmer maximal zu zahlen bereit ist, von der Wahrscheinlichkeit ab, die er dem Eintritt des Versicherungsfalles zubilligt.

Erganzende Literalur zu Kapitel 2:

Die in den Liter at urhinweisen zu Kapitel 1 aufgefiihrten Blicher enthalten Ausfuhrungen iiber Zufallsvariablen und deren Verteilungen. Zahlreiche spe-zielle diskrete und stetige Verteilungen werden in Johnson et al. (1993, 1994, 1995) sowie in Patil et al. (1975) ausfiihrlich behandelt.

Page 130: Wahrscheinlichkeitsrechnung und schließende Statistik

118 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

2.6 Anhang: Verwendung von Excel und SPSS

Fiir konkrete Anwendungen der Wahrscheinlichkeitsrechnung und fiir stati-stische Auswertungen stehen leistungsfahige Computerprogramme zur Ver-fiigung. Weit verbreitet sind die beiden Softwarepakete Excel von Microsoft® und SPSS.

In diesem Kapitelanhang sowie in Anhangen zu den Kapiteln 4 bis 7 wer-den wir deshalb einige knappe Hinweise geben, wie die zuvor dargestellten Berechnungen und statistischen Verfahren am Computer mithilfe von Excel und/oder SPSS durchgefiihrt werden konnen. Dabei beziehen wir uns auf aus-gewahlte Beispiele des Lehrbuchtextes. Es empfiehlt sich fiir den Leser, diese Beispiele am Computer nachzurechnen. Daten zu den Beispielen sind im In­ternet unter h t t p : //www. wiso. uni-koeln. de/p/mosler-schmid verfiigbar. Die hier dargestellten Vorgehensweisen beziehen sich auf Excel® 2000 und SPSS® 11.0, lassen sich aber auch auf ahnliche Weise in anderen Excel- und SPSS-Versionen durchfiihren.

Eine knappe Einfiihrung in die Verwendung von Excel ist im Lehrbuch „De-skriptive Statistik und Wirtschaftsstatistik" (Mosler und Schmid, 2005) zu finden. Dort wird der Umgang mit Excel-Tabellen und die Durchfiihrung von Aufgaben der deskriptiven Statistik mit Excel beschrieben. Fiir Details iiber die verschiedenen Versionen von Excel und SPSS sei auf deren Online-Hilfefunktionen sowie auf die am Ende dieses Abschnitts genannte Literatur verwiesen.

Im Folgenden bezeichnen Angaben in dieser SCHRIFT Befehle und Buttons aus dem Excel- bzw. SPSS-Menii. Namen von Funktionen einschliefilich ihrer Argumente werden in dieser Sch rift art notiert. Text, der per Hand eingegeben werden muss, erscheint in dieser Schrif t . (Rechen-) Befehle in der Komman-dozeile werden zum Beispiel als = Al + A2 hervorgehoben.

Insbesondere sei darauf hingewiesen, dass Dezimalzahlen in Excel mit einem Komma, in SPSS jedoch mit einem Punkt geschrieben werden. Bei einigen Verfahren gibt es auch inhaltliche Unterschiede zwischen Excel und SPSS, die sich auf die Eingabe und/oder die ausgegebenen Ergebnisse beziehen. Die An­gaben in den Online-Hilfen sind allerdings oft unvollstandig und gelegentlich falsch.

Excel I Alle Zahlen konnen vom Benutzer fiir die Ausgabe „gerundet" werden. Im Folgenden runden wir die Ergebnisse auf vier Dezimalstellen (FORMAT / ZELLEN / ZAHLEN ^ Auswahl von ZAHL bei KATEGORIE ^ Eingabe von 4 in Feld DEZIMALSTELLEN und OK). Die Zwischenrechnungen fiihrt Excel dabei stets mit alien verfiigbaren Dezimalstellen durch.

SPSS] In der VARIABLENANSICHT kann unter DEZIMALSTELLEN eingestellt

Page 131: Wahrscheinlichkeitsrechnung und schließende Statistik

2.6. ANHANG: VERWENDUNG VON EXCEL UND SPSS 119

werden, wieviele Nachkommastellen die zu einer bestimmten Variablen geho-renden Zahlen aufweisen sollen.

Fiir viele Aufgaben der Wahrscheinlichkeitsrechnung und der schliefienden Statistik bieten die beiden Softwarepakete Funktionen an, die im Rahmen von „Menus" aufgerufen werden konnen.

Excel I Die im Folgenden verwendeten Funktionen von Excel sind, solange nichts anderes erklart ist, im Menii unter EINFUGEN/FUNKTION (Kategorie STATISTIK auswahlen) zu finden. Weiterhin weisen die auf Wahrscheinlich-keitsverteilungen bezogenen Funktionen eine bestimmte Struktur auf. Diese sieht beispielsweise bei der Normalverteilung so aus: Verteilungsfunktion und Dichte an der Stelle x erhalt man mithilfe von NORMVERT(x;Mittelwert; Standabwn;Kumuliert), wobei

NORMVERT(x;Mittelwert;Standabwn;wahr) die Verteilungsfunktion und NORMVERT(x;Mittelwert;Standabwn;falsch) die Dichte aufruft. (Bei einer diskreten Verteilung ist es anstelle der Dichte die Wahrscheinlichkeitsfunkti-on.) NORMINV(p;Mittelwert;Standabwn) berechnet die Quantilfunktion an der Stel­le p.

SPSS I Um Daten mit SPSS zu analysieren, beginnt man so: Man liest ei­ne Datenmatrix in die DATENANSICHT ein, definiert sodann eine Variable in der VARIABLENANSICHT und weist ihr Daten zu. Dabei muss zumindest eine metrisch skalierte Variable in der VARIABLENANSICHT definiert und in der Datenansicht initialisiert (z.B. = 0 gesetzt) werden, um diese dann als ZlELVARlABLE der statistischen Analyse verwenden zu konnen (vgl. Angele (2005)).

Die im Folgenden verwendeten Funktionenfamilien findet man im Menii unter TRANSFORMIEREN/BERECHNEN. Namen von Funktionen besitzen in SPSS einen typischen Aufbau, der am Beispiel der Binomialverteilung verdeutlicht werden soil.

CDF.BINOM(q,n,p) ^ CDF bedeutet Zugriff auf die Verteilungsfunktion, PDF.BINOM(q,n,p) ^ P D F Zugriff auf die Dichtefunktion bzw. Wahrschein-lichkeitsfunktion, IDF.BINOM(q,n,p) ^ IDF Zugriff auf die Quantilfunktion, RV.BINOM(q,n,p) = generiert binomialverteilte Zufallszahlen.

Zur Binomialvertei lung (Beispiel 2.15, Seite 77):

Excel I Binomialwahrscheinlichkeiten stellt Excel liber EINFUGEN/

FUNKTION zur Verfiigung. Zu verwenden ist die Funktion BINOMVERT (Anzahl Erfolge;Versuche;Erfolgswahrscheinlichkeit;Kumuliert). Gesucht ist P{X > 1). Es gilt P{X > 1) = 1 - P{X = 0). Die Losung ergibt sich flir

Page 132: Wahrscheinlichkeitsrechnung und schließende Statistik

120 2. ZUFALLSVARIABLE UND V E R T E I L U N G E N

X ~ 5(3,0.3) aus

P{X > 1) = 1 - BINOMVERT(0;3;0,3;falsch) = 0.657.

Wegen P{X < 0) = P{X = 0) kann man auch so vorgehen:

P{X > 1) = 1 - BINOMVERT(0;3;0,3;wahr) = 0.657

SPSS I In SPSS lasst sich die gesuchte Wahrscheinlichkeit mit den Funktionen CDF.BINOM(q.n,p) oder PDF.BINOM(q,n,p) bestimmen:

1 - PDF.BINOM(0.3,0.3) = 1 - CDF.BINOM(0,3,0.3) = 0.657

Zur Berechnung der Bernoulli-Verteilung, enthalt SPSS auch die Funktionen CDF.BERNOULLI(q,p) bzw. PDF.BERNOULLI(q,p).

Excel I Aufierdem gibt es in Excel die Punktion KRITBINOM(Versuche; Erfolgswahrscheinlichkeit;Alpha). Mit dieser Punktion kann das kleinste k be-stimmt werden, flir das P{X < k) > Alpha gilt. Im Beispiel ftir Alpha = 0.05 und X ~ B{n = 5,p = 0.5) ist

k = KRITBINOM(5;0,5;0,5) = 2 .

Zur Poissonverteilung (Beispiel 2.17, Seite 80): Wahrscheinlichkeiten Poisson-verteilter Zufallsvariablen werden in Excel mit der Punktion POISSON(x;Mittelwert;Kumuliert) berechnet. Dabei entspricht X der Anzahl der Falle, wahrend Mittelwert ftir den Erwartungswert ^ steht. Im Beispiel 2.17 ist X ~ Po(2.5). Man erhalt

P{X = 1) = POISSON(l;2,5;f alsch) = 0.2052,

P{X > 3) = 1 - P{X < 2) = 1 - POISSON(2;2,5;wahr) = 0.4562.

SPSS I Zur Berechnung von Poisson-Wahrscheinlichkeiten konnen die Funk­tionen CDF.POISSON(q,mittel) und PDF.POISSON(q,mittel) aufgerufen wer­den. In SPSS entspricht q der Anzahl x, mittel ist der Mittelwert /J, der Poisson-Verteilung. Fiir die Beispielaufgabe erhalt man

P{X = 1) =PDF.POISSON(l,2.5) = 0.2052,

P{X > 3) = 1 - P{X <2) = 1-CDF.POISSON(2,2.5)-0.4562.

Zur hypergeometr ischen Verteilung (Beispiel 2.20, Seite 87): Gesucht ist P{X > 1), wenn X ~ H{n = 2, AT = 10, M = 3).

Excel I Die Losung dieser Aufgabe in Excel ergibt sich unter Benutzung der Punktion HYPGEOMVERT(Erfolge_S;Umfang_S;Erfolge_G;Umfang_G) als

P{X > 1) = 1 - P{X =r 0) = 1 - HYPGEOMVERT(0;2;3;10) - 0.5333.

Page 133: Wahrscheinlichkeitsrechnung und schließende Statistik

2.6. ANHANG: VERWENDUNG VON EXCEL UND SPSS 121

SPSS I Zur Losung derselben Aufgabe mit SPSS wird die Funktion PDF.HYPER(q,gesamt,stichpr,treffer) benutzt. Anders als Excel erlaubt es SPSS, kumulierte Wahrscheinlichkeiten der hypergeometrischen Verteilung in der Form P{X < k) direkt zu berechnen. Die Funktion nennt sich CDF.HYPER(q,gesamt,stichpr,treffer). Da P{X = 0) = P{X < 0) gilt, lasst sich die gegebene Aufgabenstellung mit jeder der beiden erwahnten Funktio-nen losen:

P{X>1) = 1-P{X = 0) - 1 - PDF.HYPER(0,10.2,3) = 1-CDF.HYPER(0,10,2,3) = 0.5333

Zur Exponentialverteilung (Beispiel 2.24, Seite 98):

Excel I Das Beispiel 2.24 wird in Excel mit der Funktion EXPONVERT(x;Lambda;Kumuliert) berechnet. Flir die in dem Beispiel unter a) gesuchte Wahrscheinlichkeit erhalt man

P{X > 1000) = 1 - EXPONVERT(1000;s^;wahr) = 0.2865.

SPSS]SPSS stellt die Funktionengruppe *.EXP zur Verfiigung. Man berech­net

P{X > 1000) = 1 - CDF.EXP(1000,-^) = 0.2865.

Mit dieser Funktionengruppe kann auch Aufgabenteil b) leicht gelost werden:

xo.g = IDF.EXP(0.9,-^) = 1842.0681 oUU

Zur Pareto-Verteilung (Beispiel 2.25, Seite 101):

SPSS] In SPSS ist die Funktionenfamilie *.PARETO implementiert. Aufga­benteil a) lasst sich mittels der Quantilfunktion IDF.PARETO(p,schwelle,form) losen:

i^(^o.5) = 0.5 => XQ,5 = IDF.PARETO(0.5,1500,2.1) - 2086.60.

Fiir Aufgabenteil b) verwendet man die Verteilungsfunktion CDF.PARETO(q,schwelle,form):

1 - F(2500) = 1 - CDF.PARETO(2500.1500,2.1) = 0.3421.

Zur Normalverteilung (Beispiele 2.27 und 2.28, Seiten 106 und 109): Excel I Rund um die Normalverteilung stellt Excel mehrere Funktionen zur

Verfiigung. Zur Losung der ersten Teilaufgabe aus Beispiel 2.27 a) kann die Verteilungsfunktion STANDNORMVERT(z) eingesetzt werden. Es gilt

P{U > 0.5) = 1 - $(0.5)

- 1 - STANDNORMVERT(0,5) = 0.3085.

Page 134: Wahrscheinlichkeitsrechnung und schließende Statistik

122 2. ZUFALLSVARIABLE UND VERTEILUNGEN

Zur Ermittlung der Quantile 0:0.2 bzw. 0:0.7 mittels Excel wird auf die Quan-tilfunktion STANDNORMINV(Wahrsch) zuriickgegriffen:

X0.2 = STANDNORMINV(0,2) - -0.8416,

X0.7 = STANDNORMINV(0,7) = 0.5244.

Neben der Verteilungsfunktion und der Quantilfunktion der Standardnormal-verteilung bietet Excel auch die entsprechenden Funktionen flir allgemeine Normalverteilungen der Form N{fi,a'^) an.

Im Beispiel 2.28 ist X -- N{fi = 2,a'^ = 25). Die Wahrscheinlichkeit P{X > 3) lasst sich mit der Funktion NORMVERT(x;Mittelwert;Standabwn;Kumuliert) berechnen:

P{X > 3) = 1 - P{X < 3) = 1 - NORMVERT(3;2;5;wahr) = 0.4207

Die Quantile Xp werden durch die Funktion NORMINV(Wahrsch;Mittelwert; Standabwn) berechnet,

xo.s - NORMINV(0,8;2;5) = 6.2081,

:co.95 = NORMINV(0,95;2;5) = 10.2243.

SPSS I Auch mit SPSS lassen sich diese Aufgaben bearbeiten. Die Funktionen sind von der Form *.NORMAL(...). Die Bestimmung von P{X > 3) lasst sich mit der Funktion CDF.NORMAL(q,mittel,stdAbw) von SPSS wie folgt bewerkstelligen:

P{X > 3) = 1 - P{X < 3)

= l-CDF.NORMAL(3,2,5) = 0.4207

Die Berechnung der Quantile Xp kann mit der Funktion IDF.NORMAL(p,mittel,stdAbw) ahnlich wie in Excel vorgenommen werden:

X0.8 = IDF.NORMAL(0.8.2,5) = 6.2081

0.95 = IDF.NORMAL(0.95,2,5) = 10.2243

Zur Lognormalverteilung (Abschnitt 2.4.5):

Excel I Excel bietet die Verteilungsfunktion und die Quantilfunktion der Log­normalverteilung LA/"(//,(7^). Haufig wird von Aktienkursen angenommen, dass sie lognormalverteilt sind. Sei St der Kurs einer bestimmten Aktie zur Zeit t und gelte

St = exp(a + ^ ' t + (7-Zt), d.h.

ln(5t) = a + P't-\-a' Zt mit Zt-^ N{0,t),

Page 135: Wahrscheinlichkeitsrechnung und schließende Statistik

2.6. ANHANG: VERWENDUNG VON EXCEL UND SPSS 123

Dann ist St ~ LN{a-{-0't, cr^). Als Beispiel seia = l,t = 2, p = 0.5 und a = d gewahlt. Gesucht sei P{Si) > 1. In Excel wird die Aufgabe mit der Funktion LOGNORMVERT(x;Mittelwert;Standabwn) gelost. Hier entspricht Mittelwert dem /i und Standabwn dem a in LNdd^a"^), Flir die genannten Parameter erhalten wir /j, = 2 und

P{Si > 1) = 1 - P{Si < 1) = 1 - LOGNORMVERT(l;2;5) = 0.6554.

Die Quantile Xp der Lognormalverteilung werden mit der Funktion LOGINV(p; Mittelwert;Standabwn) bestimmt. Der Median der Lognormalverteilung XQ.S ist mit den genannten Parametern gleich

xo.6 = LOGINV(0,5;2;5) = 7.3890.

SPSS I Die Losung der obigen Aufgabe ist auch in SPSS unter Verwendung der Funktionenfamilie *.LNORMAL(q,a,b) moglich. Dabei entspricht (anders als in Excel!) a dem Median e^ der Lognormalverteilung L(/z,(j^), b dem a und q dem Argument der Verteilungsfunktion. Mit den obigen Parametern erhalten wir

P ( 5 i > l ) = 1 - P ( 5 i < l )

- 1 - CDF.LNORMAL(l,exp(2).5) = 0.6554,

xo.5 = IDF.LNORMAL(0.5,exp(2),5) = 7.3890.

Liter at ur zur Verwendung von Computer programmen:

Elementare Einfiihrungen in die Durchflihrung statistischer Verfahren mit Excel 2000 und SPSS bieten Monka und Voss (2002) und Hafner und Waldl (2001).

Zwerenz (2001) stellt den Einsatz von Excel bei vielfaltigen Aufgabenstellun-gen der Statistik dar. Das Buch enthalt auch eine CD-Rom mit interaktiven Zahlenbeispielen und Simulationen. Eine allgemeine Einfiihrung in Excel 2000 bieten die Broschuren RRZN (2001a) und RRZN (2001b).^

Als anwendungsnaher Einstieg in SPSS fiir Wirtschaftswissenschaftler ist Eckstein (2004) zu empfehlen. Angele (2005) leitet dariiber hinaus zur Imple-mentierung von Verfahren in SPSS an. Toutenburg (2005) ist ein Lehrbuch der Wahrscheinlichkeitsrechnung und schliefienden Statistik, das zahlreiche Beispiele zur Verwendung von SPSS mit Wirtschaftsdaten enthalt.

Moglichkeiten der Auswertung von Daten mit dem Computer bieten auch in­ter aktive Lernprogramme wie Teach/Me (Lohninger, 2001) und die Software von Schaich und Miinnich (2001).

^Naheres im Internet unter www.uni-koeln.de/RRZK/dokumentation/handbuecher/, „Die Handbiicher des RRZ Niedersachsen (RRZN)".

Page 136: Wahrscheinlichkeitsrechnung und schließende Statistik

Kapitel 3

Gemeinsame Verteilung und Grenzwertsatze

Im Kapitel 2 wurde jeweils eine Zufallsvariable und ihre Verteilung behandelt. Fiir die meisten Anwendungen der Wahrscheinlichkeitsrechnung ist es jedoch erforderlich, mehrere Zufallsvariable simultan zu betrachten, denn bei einem Zufallsvorgang interessiert haufig nicht nur ein Merkmalswert des Ergebnis-ses, sondern deren mehrere. So werden bei einer Umfrage auf Stichprobenbasis Personen oder Haushalte zufallig ausgewahlt und nach bestimmten Merkma-len befragt. Dabei entspricht die ausgewahlte Person (oder der ausgewahlte Haushalt) dem Ergebnis LU eines Zufallsexperiments. Die bei to erhobenen Werte der Merkmale entsprechen den Werten von Zufallsvariablen, beispiels-weise X{LO) dem verfligbaren Einkommen, Y{UJ) den Preizeitausgaben und Z(a;) den Ausgaben fiir Wohnung des Haushalts uj. Als weiteres Beispiel seien Lebensalter X{uj) und erzielte Note Y{(JO) eines zufallig ausgewahlten Studierenden cj beim Bestehen der Statistikklausur genannt.

In der schliefienden Statistik hat man es regelmafiig mit mehreren Zufallsva­riablen zu tun. Dabei werden aus den beobachteten Realisationen wiederhol-ter, gleichartiger Zufallsvorgange Schlussfolgerungen gezogen.

Mehrere an derselben Beobachtungseinheit beobachtete Zufallsvariable fasst man zu einem Zufallsvektor (man sagt auch: zu einer multivariaten Zu­fallsvariablen) zusammen. Die hierfiir benotigten Begriffe flihren wir im Abschnitt 3.1 ein, jedoch nur so weit, wie sie zur Begriindung der Rechen-regeln fiir den Erwartungswert und die Varianz von Summen von Zufallsva­riablen sowie fiir die Anwendungen in der schliefienden Statistik erforderlich sind. Im Abschnitt 3.2 werden zwei fiir die schliefiende Statistik grundle-gende Grenzwertsatze dargestellt, namlich das Schwache Gesetz der grofien

125

Page 137: Wahrscheinlichkeitsrechnung und schließende Statistik

126 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Zahlen und der Zentrale Grenzwertsatz. Erganzt wird das Kapitel durch kur-ze Einftihrungen in die multivariate Normalverteilung, den Poisson-Prozess und die Monte-Carlo-Simulation.

3.1 Geineinsame Verteilung von Zufalls-variablen

Seien X i , X 2 , . . . ,Xn Zufallsvariable, die sich auf ein und denselben Zufalls-vorgang beziehen. Insbesondere sind sie auf derselben Ergebnismenge fi de-finiert,

Xi M ftir z = 1 , . . . , n .

Wenn der Zufallsvorgang das Ergebnis uj E Q hat, nehmen diese Zufallsva-riablen gemeinsam die Werte XI{LU),X2{UJ), . . . ,Xn{(^) an. Die gemeinsame Wahrscheinlichkeitsverteilung der n Zufallsvariablen soil im Folgenden unter-sucht werden.

Die wichtigsten Aspekte und Begriffe der gemeinsamen Wahrscheinlichkeits­verteilung lassen sich bereits im Fall n = 2 entwickeln. Im Abschnitt 3.1.1 befassen wir uns deshalb zunachst mit der gemeinsamen Verteilung zweier Zufallsvariablen. Der allgemeine Fall wird im Abschnitt 3.1.2 behandelt.

3.1.1 Gemeinsame Verteilung von zwei Zufallsvariablen

Wir betrachten zwei Zufallsvariable zu ein und demselben Zufallsvorgang. Statt Xi und X2 schreiben wir der Einfachheit halber X und Y. Die Funktion

FxY : R^ -

Fxrix^y)

-^ [0,1] mit

= P {{uj\X (uj) < X und r (cj) < y})

= P{X <x,Y <y)

heifit gemeinsame Verteilungsfunktion von X und Y. Statt Fxvix^y) schreibt man auch kurz F{x,y).

Einige Eigenschaften von FXY folgen sofort aus der Definition:

1- FxY{x,y) wachst monoton in jedem der beiden Argumente x und y.

Page 138: Wahrscheinlichkeitsrechnung und schließende Statistik

3.1. GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN 127

2. Ftir Zahlen ai < 6i und a2 < 62 gilt: Die Wahrscheinlichkeit, dass der Punkt (X^Y) in das Rechteck ]ai,6i]x]a2,62] fallt, betragt (vgl. Abbildung 3.1)

P ( a i <X <bi,a2 <Y <b2) FxY{bi,b2) - FxY{bi,a2)

-FxY {ai,b2) + FxY {cii,a2) .

62

a2

— — -f : : : : : r-f- — — —

I I I I 1 \ .

a i bi

Abbildung 3.1: Zur Berechnung der Wahrscheinlichkeit, dass (X^Y) in ein achsen-paralleles Rechteck fallt

Aus der gemeinsamen Verteilungsfunktion FXY erhalt man durch Grenzliber-gang die Randverteilungsfunktionen, das sind die Verteilungsfunktionen Fx von X und Fy von Y,

Fx (x) = FXY (^, 00) = lim FXY {X, y), X e

FY {y) = FXY (00, y) = lim FXY {x,y), yeR.

Stochastische Unabhangigkeit Die Zufallsvariablen X und Y mit der gemeinsamen Verteilungsfunktion FXY heifien stochastisch unabhangig, wenn

FXY {X, y) = Fx {x) • Fy (y) fiir alle x, y G R.

X und Y sind also genau dann stochastisch unabhangig, wenn ihre gemeinsa­me Verteilungsfunktion Fxy das Produkt der beiden Randverteilungsfunk­tionen Fx und Fy ist. Man kann es auch so ausdriicken: X und Y sind genau dann stochastisch unabhangig, wenn fiir jedes x G M und y G M die beiden Ereignisse Ax = {X <x} und By = {Y < y] stochastisch unabhangig sind.

Page 139: Wahrscheinlichkeitsrechnung und schließende Statistik

128 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Beispiel 3.1: Untersucht werden die Brenndauern zweier Gluhlampen.

a) Die Zufallsvariablen X und Y bezeichnen die Brenndauern zweier Gluh­lampen aus zwei verschiedenen Produktionslosen. Die gemeinsame Ver­teilungsfunktion von X und Y sei durch

jp ( \ ( l-e-^-e-y + e-•^-2/, falls x > 0 , y > 0 , sonst,

gegeben. Die Randverteilungsfunktionen sind dann

Fx(.) = {j-^"^' sowie

( 1 - e~y

falls X > 0, falls x < 0,

falls ?/ > 0, falls y < 0.

Offenbar gilt hier

FxY {x, y) = Fx {x) • FY (y)

fiir alle x^y ER, d.h. X und Y sind stochastisch unabhdngig.

b) Die Zufallsvariablen Z und V mogen nun die Brenndauern von zwei Gluhlampen aus demselben Produktionslos reprdsentieren. Die gemein­same Verteilungsfunktion von Z und V sei durch

F^y (^, ,A = / (1 - ^" ' ) (1 - ^" ' ) (1 + 5 ^ " ' - " ) , falls z>0,v>0, . ) = { 0 sonst,

gegeben. Fiir die Randverteilungsfunktionen Fz und Fy ergibt sich

Fz{z)

und

Fv{ '>-{l

1 - e-% 0,

0,

falls z>0, falls z <0,

falls v>0, falls V <0.

Wie man sieht, haben Z und V die gleichen Randverteilungen wie X und Y in Teil a), die gemeinsamen Verteilungen sind jedoch verschie-den. Im Gegensatz zu X und Y sind Z und V nicht unabhdngig.

Im Allgemeinen wird, wie man an diesem Beispiel sieht, die gemeinsame Verteilungsfunktion durch die Randverteilungsfunktionen nicht eindeutig be­st immt.

Page 140: Wahrscheinlichkeitsrechnung und schließende Statistik

3.1. GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN 129

Unabhangigkeit transformierter Zufallsvariablen Man kann zeigen: Wenn zwei Zufallsvariable X und Y stochastisch unabhangig sind, so sind auch die beiden Zufallsvariablen g{X) und h{Y) stochastisch unabhangig, wo-bei g und h beliebige reellwertige Funktionen seien. Mit anderen Worten, die Unabhangigkeit wird auf Transformationen der Zufallsvariablen „vererbt".

Gemeinsam diskrete Verteilung Zwei Zufallsvariable X und Y heiiSen gemeinsam diskret verteilt, wenn es endlich viele (oder abzahlbar unendlich viele) Werte xi , X2,... und yi, y25 • • • gibt, so dass

j k

ist. Die Wahrscheinlichkeiten

P{X --

p(r =:

= Xj) --

= yk) =

k

3

- Xj^Y -

- Xj^Y =

= yk)^

^Vk).

j =

k^

= 1,2, . . . ,

= 1,2, . . . ,

und

heifien Randwahrscheinlichkeiten von X bzw. Y. Wenn X und Y gemein­sam diskret verteilt sind, sind ihre Randverteilungen ebenfalls diskret.

Unter der Voraussetzung P{Y = yk) > 0 konnen wir die bedingte Wahr-scheinlichkeit fiir X = Xj unter der Bedingung, dass Y = y^ gilt, definieren. Sie ist gleich

Ebenso

P{X = Xj\Y--

definiert man

P{Y = yk\X--

-y^' P{Y = yk) '

P{X = xj,Y = yk) = ^ ^ - P{X = xj) '

i = i , 2 , . . . .

fc = l , 2 , . . . ,

unter der Voraussetzung P{X = Xj) > 0. Auch die bedingten Verteilungen sind diskrete Verteilungen. Sind X und Y gemeinsam diskret verteilt, so sind sie genau dann stochastisch unabhangig, wenn flir alle j und k die Bedingung

P{X = Xj, y = y/fc) = P{X = ^j) • Piy = Vk) (3.1)

erftillt ist.

Beispiel 3.2: Wir betrachten eine Urne mit N Kugeln; davon seien M rot und N — M weifl.

Page 141: Wahrscheinlichkeitsrechnung und schließende Statistik

130 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

a) Es wird zweimal mit Zurucklegen gezogen. Sei

Y

falls die erste gezogene Kugel rot ist, falls die erste gezogene Kugel weii3 ist,

-~{l: falls die zweite gezogene Kugel rot ist, falls die zweite gezogene Kugel weifi ist.

Die gemeinsamen Wahrscheinlichkeiten von X und Y sowie ihre Rand-wahrscheinlichkeiten sind in der folgenden Tabelle zusammengefasst:

X = 0

X = l\

1 y = o

M N-M \ N' N

N-M N

y = 1 1

N-M M N ' N \

m'\ M AT

N-M N

M N

1

Es ist zu priifen, oh die Bedingung (3.1) in den vier Fallen (X^Y) = (0,0), (0,1), (1,0), (1,1) erfullt ist. Das ist offensichtlich der Fall. Dem-nach sind X und Y stochastisch unabhdngig.

b) Es wird zweimal ohne Zurucklegen gezogen. Seien X und Y wie in a) definiert. Nun gilt:

X = 0

\ X = l\

[ Y = 0

N-M N-l-M N ' N-l

M N-M ¥ ' N-l

N-M N

Y = l 1

N-M M N ' N -I \

M M-l N ' N-l

M 77

N-M N

M N

1

Page 142: Wahrscheinlichkeitsrechnung und schließende Statistik

3.1. GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN 131

Die Randwahrscheinlichkeiten von X und Y sind beim Ziehen mil Zurilck-legen (Teil a)) und ohne Zurucklegen (Teil b)) dieselben. Beim Ziehen ohne Zuriicklegen sind X und Y jedoch nicht unabhdngig, da die Bedingung (3.1) zum Beispiel fiir die Werte X = 1,Y = 0 verletzt ist; es gilt ndmlich

M N-M M N-M N ' N ^ N N-1 '

Gemeinsam stet ige Vertei lung Zwei Zufallsvariable X und Y heifien gemeinsam stetig verteilt, wenn es eine Funktion

/. XY

gibt mit

y X

FxY{oo,y)=^ / / fxY{z,v)dzdv fur alle x,y G M. (3.2)

Die Funktion fxY heifit dann gemeinsame Dichte von X und Y. An den Stellen (x,y), an denen FXY partiell nach x und y differenzierbar ist, gilt

fxY{x,y) dxdy

FxY{x,y). (3.3)

Die gemeinsame Dichte hat die Eigenschaften

fxY{x,y) > 0 fur a:,t/ G M,

oo oo

/ / fxY{x,y)dxdy 1.

— oo —cx)

Aus der Dichte fxY kann man ftir gegebene ai , 6i, a2,62 ^ I die gemeinsame WahrscheinHchkeit

62 bi

P(ai <X<bi,a2<Y< 62) = f f fxY{x,y)dxdy

berechnen. Abbildung 3.2 zeigt den Graphen einer speziellen gemeinsamen Dichte, namlich der Dichte einer bivariaten Normalverteilung (vgl. Abschnitt 3.3.1).

Page 143: Wahrscheinlichkeitsrechnung und schließende Statistik

132 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Abbildung 3.2: Gemeinsame Dichte zweier Zufallsvariablen X und Y (bivariate Normalverteilungsdichte)

Die Randverte i lungsfunkt ionen Fx und Fy erhalt man aus (3.2) durch Grenziibergang y —> oo bzw. a; —> cx),

OO X

Fx{x)= I I fxy{z,v)dzdv f i i r x G R ,

— OO —OO

y OO

FY{y)= I f fxY{z,v)dzdv f i i r y e M .

(3.4)

(3.5)

Page 144: Wahrscheinlichkeitsrechnung und schließende Statistik

3.1. GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN 133

Differenzieren von (3.4) und (3.5) beztiglich x bzw. y fiihrt auf die Rand­dichten fx und / y ,

fx{x) -

\fY{y) =

oo

= / fxY{x —oo

oo

= / fxY[x —oo

.y)dy

,y)dx

ftir X G R,

fur y G R .

Offenbar sind die Randdichten gleich den Ableitungen der entsprechenden Rand ver teilungsfunkt ionen,

f^{x) = -^Fx{x), fY{y) = -^Fy{y),

soweit diese existieren.

Im Fall einer gemeinsam stetigen Verteilung kann man die Unabhangigkeit von X und Y auch iiber die Dichten charakterisieren: X und Y sind genau dann stochastisch unabhangig, wenn

fxY{x,y) = fx{x) • friy), x,y G M,

d.h. wenn die gemeinsame Dichte gleich dem Produkt der Randdichten ist.

Beispiel 3.1 (Fortsetzung):

a) Die gemeinsame Verteilungsfunktion von X und Y ist durch

{I e-y + e-'^-y , falls x, y > 0,

sonst, Fxvix.y)

gegeben. Es ist

. . . a2 . ^ r e-^-2/, falls x , y > 0 , ^^^^^ '^) = 9 ^ ^ ^ ^ ( ^ ' ^ ) ^ \ 0 sonst.

Aus fxY berechnen wir die Randdichten

oo oo

fx{x) = / fxY{x,y)dy = / e'^'-ydy = e"" fiir x > 0,

OO oo

fY{y) = / fxY{x,y)dx = / e-'^-ydx = e"^ fiir y > 0.

Page 145: Wahrscheinlichkeitsrechnung und schließende Statistik

134 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

b) Die gemeinsame Verteilungsfunktion von Z und V ist

F..Azv^-[ ( l - ^ - ^ ) ( l - e - ^ ) ( l + R ^ - ^ ) . falls ^ , ^ > 0 ,

Die gemeinsame Dichte berechnen wir durch Differenzieren von Fzv gemafi Formel (3.3). Im Fall z < 0 oder v < 0 ist fzv{z,v) = 0. Falls z > 0 und v>0 ist, gilt

1 Fzv{z,v) = ( l - e - ^ ) ( l - e - ^ ) + - ( —z „—2z\ (^—v ^—2v '){ ) .

^Fzv {z, v) = e-^ (1 - e-'') + i {2e-^^ - e"^) (e"- - e'^^),

fzviz,v) = -^-^Fzv{z,v)

= e-^-^ + \e-'-'' (2e-^ - l) (26-" - l ) ,

also

. , X f e-^-^ + | e - ^ - ^ (2e-^ - 1) (2e-^ - 1), falls z,v>0, J^^^ -> ' I 0 sonst.

Die folgende Punktion von a: € R,

fxY{x,y) falls / r ( 2 / ) > 0 ,

fx\Y=y{oo) = { friv) ' 0, falls fY{y) = 0,

nennt man die bedingte Dichte von X unter der Bedingung, dass Y = y zutrifft. Ebenso ist durch

fY\x=x{y)

fxY{x,y) falls fx{x)>^,

fx{x) ' 0, falls / x ( x ) = 0 ,

fiir alle y G R die bedingte Dichte von Y unter der Bedingung X = x definiert.

Beispiel 3.1 (Fortsetzung): Fiir die Gluhlampen in Teil b) wollen wir die bedingte Dichte von Z unter der Bedingung V = 2 berechnen. Zundchst stellen wir fest, dass wegen fv{2) = e~^ > 0 die bedingte Dichte fz\v^2{^)^^ ^ ^?

Page 146: Wahrscheinlichkeitsrechnung und schließende Statistik

3.1. GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN 135

definiert ist. Fiir z <0 ist offenbar fz\v=2{^) = 0- Filr z >0 gilt

fzv{z,2) fz\V=2{z) =

/v(2)

e-^-2 + ie-^-2(2e-^ - l)(2e-2 - 1)

1 = e + ^e-^(2e-^ - l)(2e-2 - 1)

= e-^ - 0.3647e-^(2e-^ - 1).

Mit der Bedingung V = l.b berechnet man ebenso die bedingte Dichte

fz\v=iAz) _ r e-' - 0.

" I 0' 2769e-^(2e- 1), falls z > 0,

falls z < 0,

Wie wir sehen, hdngt im Teil b) des Beispiels die bedingte Dichte vom Wert der Bedingung ab. Fiir die Gliihlampen im Teil a) hingegen gilt (unter der Voraussetzung y >0)

fx\Y=y{x) fviy)

o-x-y = e

0,

falls X > 0 ,

falls X < 0 .

Hier ist unter jeder Bedingung Y = y, y > 0, die bedingte Dichte von X unabhdngig von der Bedingung und gleich der Randdichte vonX. Dies liegt an der stochastischen Unabhdngigkeit der beiden Variablen X und Y, Gleiches gilt fiir die bedingte Dichte von Y unter der Bedingung X — x, x >0.

Allgemein gilt: Wenn zwei Zufallsvariable unabhangig sind, sind ihre beding-ten Dichten gleich ihren Randdichten.

Kovarianz zweier Zufallsvariablen Bezeichne /ix = ^l^] und /dy = E[Y]. Die Zahl

axY = Gov [X, Y] = E [{X -fix){Y- fiy)]

heifit Kovarianz von X und Y. Es ist^

Cou[x,r] = <

' T,Ili^}-l^x)iyk-IJ'Y)P{X = Xj,Y = yk) , J f^

falls X, Y gemeinsam diskret verteilt sind,

oo oo

/ / {x-f^x){y-fJ^Y)fxY{x,y) dxdy,

^ falls X, Y gemeinsam stetig verteilt sind.

^Die Kovarianz ist hier nur dann definiert, wenn die Doppelsumme bzw. das Doppelin-tegral einen endlichen Wert ergibt.

Page 147: Wahrscheinlichkeitsrechnung und schließende Statistik

136 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Die wichtigsten Eigenschaften der Kovarianz sind:

1. Die Kovarianz ist symmetrisch in X und Y, d.h.

Cov[X,Y] = Cov[Y,X] .

2. Die Kovarianz ist nicht normiert. Sie kann behebig grofie positive und beUebig kleine negative Werte annehmen.

Das Vorzeichen von Cov [X, Y] lasst sich so interpretieren: Eine posi­tive Kovarianz deutet an, dass es einen positiv ausgerichteten hnearen Zusammenhang zwischen X und Y gibt, wobei grofien X-Werten ten-denziell grofie F-Werte entsprechen. Eine negative Kovarianz deutet an, dass es einen negativ ausgerichteten hnearen Zusammenhang zwischen X und Y gibt, wobei grofien X-Werten tendenziell kleinere F-Werte entsprechen. Eine Kovarianz nahe null deutet an, dass es keinen derar-tigen hnearen Zusammenhang gibt.

3. Flir beliebige reelle Zahlen a, 6, c und d gilt

Cov [a 4- 6X,c + dy] - 6 • d . Cov [X,Y] .

4. Es gilt die Umformung

Cov[X,Y] = E\{X-E[X]){Y-E[Y])]

= E [XY] - E [XE [Y]] -E[E [X] Y]-\-E[E [X] E [Y]] ,

also

Cov [X, Y]=E [XY] -E[X]E [Y] .

Diese Formel erieichtert oft die Berechnung einer Kovarianz. Aufierdem sieht man aus ihr, dass

Cov[X,Y]={) E [XY] = E[X]E [Y] .

5. Eine hinreichende, aber nicht notwendige Bedingung fiir Cov[X^ "K] = 0 ist, dass X und Y unabhangig sind:

X und Y stochastisch unabhangig Cov[X,Y]=^

BEWEIS Seien X und Y unabhangig. Wenn sie gemeinsam diskret verteilt sind, gilt

Page 148: Wahrscheinlichkeitsrechnung und schließende Statistik

3.1. GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN 137

E[XY] = ^ ^ x , y , P ( X = x,-,y = y,) j k

= YlYl'^jykP{X = xj)P{Y = yk) j k

= YlxjP{X = Xj)Y,ykP{Y = yk) j k

= E[X]E[Y],

Es folgt Cov[X, Y] = E [XY] -E[X]E [Y] = 0. Wenn X und Y stetig verteilt sind, verlauft die Rechnung analog. D

Ein Beispiel zweier Zufallsvariablen, die Kovarianz null besitzen, aber nicht unabhangig sind, wird in Beispiel 3.3 gegeben.

Korrelationskoeffizient zweier Zufallsvariablen Eine positive Kovari­anz weist auf eine positive Abhangigkeit von X und Y hin. Die Kovarianz stellt allerdings kein Mafi der Abhangigkeit dar, da sie skalenabhangig ist. Durch Normierung der Kovarianz erhalt man den KorrelationskoefRzien-ten nach Bravais-Pearson^

_ . ^ ^ , Cov[X,Y] pxY = Corr \X, Y\ = ./v\x\^/vWV

vorausgesetzt, X und Y besitzen positive, endliche Varianzen. Die wesentli-chen Eigenschaften des Korrelationskoeffizienten sind:

1. Der Korrelationskoeffizient hat keine Benennung, er ist dimensionslos.

2. Der Korrelationskoeffizient ist normiert,

- l < p x y < 1

Weiter gilt

PXY = +1 4=> Y = a-\-bX mit a,6G R , 6 > 0,

pxY = - 1 <=^ Y = a + bX mit a,6G R , 6 < 0.

Im Fall pxY = ±1 liegt also ein exakter l inearer Zusammenhang zwischen X und Y vor, und seine Richtung wird durch das Vorzei-chen von pxv angegeben. Wegen der genannten Eigenschaften sagt man auch, dass pxY die Starke des linearen Zusammenhangs zwischen X und Y misst. Diese Eigenschaft des Korrelationkoeffizienten wird im Rahmen der linearen Einfachregression (vgl. Kapitel 7) noch verdeut-licht.

^Karl Pearson (1857-1936), Auguste Bravais (1811-1863).

Page 149: Wahrscheinlichkeitsrechnung und schließende Statistik

138 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

3. Der KorrelationskoefRzient ist bis auf das Vorzeichen invariant bzgl. afRn-linearer Transformationen von X und von Y. Seien hierzu a, 6, c und d reelle Zahlen, b ^ 0^ d ^ 0, und sei

W = a + bX, Z = c + dY.

Dann gilt

Pwz Cov[a-^bX,c-\-dY]

^yV[a + bX]y^V[c + dY]

bdCov[X,Y]

\bd\^vJx]VvW] PXY , falls bd> 0,

—PXY , falls bd <Q.

Haben b und d das gleiche Vorzeichen, so andert sich der Korrelations­koefRzient nicht, ansonsten wechselt er das Vorzeichen.

4. Offenbar gilt pxY = 0 genau dann, wenn Cov[X^Y] = 0 ist. Zwei Zufallsvariable X und F , fiir die dies zutrifft, heifien unkorrel iert . Falls X und Y stochastisch unabhangig sind, ist - wie oben gezeigt wurde - Cov[X,Y] = 0. Es gilt also generell:

X, Y stochastisch unabhangig = > X, Y unkorreliert

Die umgekehrte Implikation trifft im Allgemeinen nicht zu, wie das folgende Beispiel zeigt.

Beispiel 3.3: Es sei

X = [/~A^(0,1) und Y = X'^.

Dann ist E[X] = 0, E[Y] = E[X'^] = V[X] = 1 und

Cov[X,Y] = Cov[X,X'^] = E[{X-0){X'^-1)]

= E[X^]-E[X] = 0,

da (wegen der Symmetrie der Standard-Normalverteilung zu null) E[X^] = 0 ist. Es gilt also pxv = 0. Andererseits folgt wegen der funktionalen Beziehung zwischen X und Y z.B. aus dem Ereignis X >2 das Ereignis y > 4. Daher gilt

P ( X > 2 , y > 4 ) = P ( X > 2 ) , aber P{X > 2) • P{Y > 4) < P{X > 2), da P{Y > 4) < 1 ist.

Demnach sind X und Y stochastisch abhdngig.

Page 150: Wahrscheinlichkeitsrechnung und schließende Statistik

3.1. GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN 139

Trotz exaktem quadratischem Zusammenhang zwischen X und Y ist im Bei-spiel die Korrelation gleich null. Man erkennt daran, dass pxv zwar die Starke eines etwaigen linearen Zusammenhanges, aber nicht die eines quadratischen Zusammenhanges misst.

Beispiel 3.2 (Fortsetzung): Wir betrachten wieder die Urne mit N Kugeln, davon seien M rot und N — M weifi. Es sei

„ _ / 1 ^ falls die erste gezogene Kugel rot ist, ~ ( 0 sonst,

^ _ J 1, falls die zweite gezogene Kugel rot ist, "" [ 0 sonst.

Die gemeinsame Verteilung von X und Y wurde schon hergeleitet unter der Voraussetzung, dass

1. mit Zurilcklegen gezogen wurde,

2. ohne Zurilcklegen gezogen wurde.

Im ersten Fall, beim Ziehen mit Zurilcklegen, sind X und Y unabhdngig und folglichCov[X,Y] =0.

Im zweiten Fall sind X und Y nicht unabhdngig. Wir berechnen ihre Kova-rianz wie folgt:

E{X] = E{Y] = f ,

EIXY] = 0 + 0 + 0 + 1 ^ ( ^ - ^ ) N{N-l) '

Cov[X,Y] = E[XY]~E[X]E[Y] = ^ ^ ^ ^ ^ - ^ - ^

NMjM - 1) - M^jN - 1) _ M{N - M) N'^(N-l) " ~ N'^{N - 1) '

Zur Berechnung des Korrelationskoeffizienten benotigen wir noch

V[Y] = V [X] - E [X^] - E [Xf

^_(M_y _ MN-M'^ _ M(N-M) 2

Als Korrelationskoeffizient ergibt sich

Cov[X,Y] ] _

Page 151: Wahrscheinlichkeitsrechnung und schließende Statistik

140 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Man sieht also, dass beim Ziehen ohne Zurilcklegen X und Y negativ kor-reliert sind. Allerdings ist pxY ^ 0, wenn die Anzahl N der Kugeln in der Ume grofl ist.

Erwar tungswer t und Varianz einer Summe Zum Schluss dieses Ab-schnittes geben wir zwei wichtige Rechenregeln fiir den Erwartungswert und die Varianz einer Summe zweier Zufallsvariablen X und Y an.

Der Erwartungswert einer Summe ist gleich der Summe der Erwartungswerte,

E[X + Y] = E[X] + E[Y],

BEWEIS Fiir gemeinsam diskret verteilte Zufallsvariable X, Y ist

E[X + Y] = }_^}_^{xj + yk)PiX = xj,Y = yk) J k

3 k k 3

i k

= E[X] + E[Y].

Fiir gemeinsam stetig verteilte Zufallsvariable X,Y verlauft die Rechnung analog. D

Die Varianz einer Summe ist gleich der Summe der Varianzen plus zweimal die Kovaxianz,

V\X + Y] = V[X] + V[Y] + 2 Cov\X, Y].

BEWEIS Allgemein gilt

y [X + y] = E[{X^Y-E[X + Y\f]

= E[{{X-E[X]) + {Y-E[Y\)y

= E[{X - E[X\f] + E[{Y - E[Y]f]

+2E[{X - E[X]){Y - E[Y])]

= V[X] + V[Y] + 2Cov[X,Y]. a Die Varianz der Summe wird durch die Kovarianz beeinflusst. Nur wenn die Kovarianz null ist, d.h. die beiden Variablen unkorreliert sind, ist die

Page 152: Wahrscheinlichkeitsrechnung und schließende Statistik

3.1. GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN 141

Varianz der Summe gleich der Summe der beiden Varianzen. Ansonsten gilt: Eine positive Kovarianz vergrofiert, eine negative Kovarianz verkleinert die Varianz der Summe.

Die beiden Rechenregeln kann man unmittelbar auf Linearkombinat ionen von X und Y iibertragen. Fiir beliebige a, 6 G R gilt

E[aX + bY] = aE[X]-\-bE[Y],

V[aX + bY] = a'^V[X] + b'^V[Y] + 2abCov[X, Y].

Wir illustrieren diese wichtigen Formeln an zwei Beispielen aus der Porte-feuilleanalyse.

Beispiel 3.4- Seien RA und RB die auf ein Jahr bezogenen prozentualen Ren-diten der Aktien A bzw. B und sei

fXA=E [RA] , f^B = E [RB] ,

aA = VyWA]^ ^B = VV[RB],

PAB = Corr[RA,RB] -

Ein Anleger legt den Anteil a seines Vermogens in A-Aktien und den restli-chen Anteil 1 — a in B-Aktien an. Driicken Sie die erwartete Gesamtrendite und die Varianz der Gesamtrendite durch die obigen Grofien aus und disku-tieren Sie die Formeln.

Die Gesamtrendite ist

RG =aRA + {l-a)RB-

Ihr Erwartungswert und ihre Varianz betragen

E[RG] = a^A-\-{'^-o)iiB'>

V[RG] = a^al + {l-afal-i-2a{l-a)aA(TBpAB-

Man sieht:

• Die erwartete Gesamtrendite ist ein gewichtetes Mittel der einzelnen Renditen.

• Wenn PAB negativ ist, ist die Varianz der Gesamtrendite kleiner als im Falle unkorrelierter Renditen.

• Wenn PAB positiv ist, ist die Varianz der Gesamtrendite grofler als im Falle unkorrelierter Renditen.

Page 153: Wahrscheinlichkeitsrechnung und schließende Statistik

142 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Interessant ist der hypothetische Fall PAB = —1- Es gilt dann

V [RG] = (a CAf + ((1 - a) asf - 2a a A (1 - a) GB

= {aaA-{l-a)aBf .

In diesem Fall kann man durch geeignete Wahl des Parameters a die Varianz der Gesamtrendite auf null reduzieren, es gilt ndmlich

V[RG]=0 <=^ aaA-{l-a)aB=0

4=^ a{aA-\-crB) = (TB

< = a = . (^A + CTB

Beispiel 3.5: Bin Student besitzt 100 000 €" und mochte sie fiir ein Jahr an-legen. Die Alternativen sind eine festverzinsliche Anlage zu 5% sowie der Kauf von Aktien, wobei der Student eine erwartete Rendite von 15% und eine Standardabweichung der Rendite von 25% unterstellt.

a) Wie groj] muss der in Aktien angelegte Anteil a mindestens sein, wenn die erwartete Gesamtrendite mindestens 10% betragen soil? Wie grofl ist dann die Standardabweichung der Gesamtrendite?

b) Wie grofl darf der in Aktien angelegte Anteil a hochstens sein, wenn die Standardabweichung der Gesamtrendite 5% nicht ilberschreiten soil?

zu a) Bezeichne RA die Rendite der Aktien in %. Fiir die Gesamtrendite RQ (in %) gilt

RG = (1 - a) 5 + ORA ,

E[RG] = ( l - a ) 5 + a - 1 5 .

Gesucht ist eine untere Schranke fiir alle a, fiir die

( l - a ) 5 + a ' 1 5 > 10

gilt. Dies fiihrt auf a > 0.5; d.h. der Anteil der Aktie muss mindestens 50% betragen. Fiir die Standardabweichung der Gesamtrendite gilt

y/V [RG] = ay/V[RA] > 0.5 • 25 = 12.5,

da die festverzinsliche Anlage risikolos ist.

zu b) Gesucht ist eine obere Schranke fiir solche a, die

^JV\RG\=a^/V^]<b

erfullen. Wir erhalten die Schranke a < 0.2, d.h. der Anteil der Aktien darf hochstens 20% betragen.

Page 154: Wahrscheinlichkeitsrechnung und schließende Statistik

3.1. GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN 143

3.1.2 Gemeinsame Verteilung von n Zufallsvariablen

In diesem Abschnitt iibertragen wir einige Begriffe aus Abschnitt 3.1.1 auf den Fall von n Zufallsvariablen. Zu einem Zufallsexperiment mit Ergebnis-menge Q seien n Zufallsvariable gegeben, d.h. Xi : fi —> R fiir i = 1 , . . . , n. Die Punktion

FxuX2,...,Xr. ( ^ 1 ^ ^ 2 , - - - , ^ n ) = P{Xi < X i , X 2 <X2,...,Xn< Xn) ,

heiBt gemeinsame Verteilungsfunktion von X i , X 2 , . . . ^Xn- Fiir jedes i gilt

Fxi {xi) = P{Xi < Xi) = Fxi,...,Xn (oo, . . . , 00, a; , 00 , . . . , oo) ,

wobei jedes der Argumente oo fiir einen entsprechenden Grenziibergang der Funktion in diesem Argument steht. Die Funktion Fxi heiCt Randvertei-lungsfunktion von Xi. Sie ist durch die gemeinsame Verteilungsfunktion vollstandig bestimmt.

Zur knapperen Notation von gemeinsamen Verteilungen und ihren Parame-tern verwendet man Vektoren und Matrizen. Gemeinsam verteilte Zufalls­variable Xi , X 2 , . . . , Xn werden dabei zu einem Zufallsvektor X im R" zusammengefasst,

X = (Xi,X2,. . . ,Xn) ,

ihre Erwartungswerte fj,i = E[Xi] zum Erwar tungswer tvektor

Aus den Varianzen af = V[Xi] und Kovarianzen aij = Cov[Xi,Xj]^ ^ 7 j? bildet man die Kovarianzmatrix

f O-j (712 . . . (Tin \

I a21 (72 . . . (T2n

Cov[X] = . .

\ CTnl Crn2 • • • (^n /

Die KorrelationskoefRzienten sind

^ij • _L •

Umgekehrt erhalt man

Page 155: Wahrscheinlichkeitsrechnung und schließende Statistik

144 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Die KorrelationskoefRzienten fasst man zur Korrelationsmatrix Corr[X] zusammen,

Corr[X] =

/ I P\2 '" P\n \ P21 1 ... P2n

\ Pnl Pn2 •'• 1 /

Gemeinsame stetige bzw. diskrete Verteilung Gemeinsam stetig ver­teilte Zufallsvariable, ihre gemeinsame Dichte und ihre Randdichten wurden oben im Fall n = 2 definiert. Die Definitionen ftir n > 3 lauten entspre-chend. Auch gemeinsam diskret verteilte Zufallsvariable, ihre gemeinsame Wahrscheinlichkeitsfunktion und ihre Randwahrscheinlichkeiten werden ana­log definiert.

Stochastische Unabhangigkeit Die Zufallsvariablen X^, z = 1 , . . . , n hei-6en stochastisch unabhangig (kurz: unabhangig), wenn die gemeinsa­me Verteilungsfunktion das Produkt der Randverteilungsfunktionen ist, d.h. wenn

Fxu...,Xn {xi,...,Xn) = Fx, (xi) . . . . 'Fx^ (xn) fur a l lexi , . . . ,Xn G

Wenn die Zufallsvariablen X i , . . . , Xn stochastisch unabhangig sind und al-le dieselbe Randverteilung besitzen, nennt man sie unabhangig identisch verteilte Zufallsvariable.

Im Fall gemeinsam stetig verteilter Zufallsvariablen ist die stochastische Un­abhangigkeit aquivalent zur Gtiltigkeit einer entsprechenden Produktformel fiir die Dichten. Im Fall gemeinsam diskret verteilter Zufallsvariablen ent-spricht dem eine Produktformel fiir die Wahrscheinlichkeiten.

Folgerungen aus der Unabhangigkeit Wenn n > 2 Zufallsvariable sto­chastisch unabhangig sind, dann sind sie jeweils paarweise unabhangig, und deshalb auch paarweise unkorreliert. Ferner folgt aus der stochastischen Un-abhangigheit der Zufallsvariablen X i , . . . , X n , dass beliebige Transforma-tionen gi{Xi),.,, ,gn{Xn) ebenfalls stochastisch unabhangig sind, die Un­abhangigkeit sich also „vererbt". Zum Beispiel sind, wenn Xi und X2 un­abhangig sind, auch Xi und exp(X2) unabhangig.

Erwartungswert und Varianz einer Summe Zum Schluss dieses Ab-schnittes sollen die Rechenregeln fiir den Erwartungswert und die Varianz einer Summe zweier Zufallsvariablen (vgl. Abschnitt 3.1.1) auf n Zufallsva­riablen verallgemeinert werden.

Page 156: Wahrscheinlichkeitsrechnung und schließende Statistik

3.1. GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN 145

Wir betrachten gemeinsam verteilte Zufallsvariable X i , . . . , Xn und reelle Zahlen ai , . . . , an- Fur den Erwartungswert und die Varianz der Linear-kombination Y^^=i ^i^i gilt

Y^aiXi i=l

V ^aiXi

= E [aiXi -f 0 2 ^ 2 + . . . + anXn]

= aiE[Xi] + ... + anE[Xn]

= Y^aiE[Xi], 2 = 1

- V [aiXi + . . . + anXn]

n n n

i= i n

i = l j= i

n n

= ^ a2 K [Xi] + 2 X I E «i«i Cov [Xi,Xj i=l

Bei der letzten Umformung nutzt man die Symmetrie der Kovarianz aus: Wegen Cov [Xi^Xj] = Cov [Xj.Xi] konnen jeweils zwei Summanden zusam-mengefasst werden. In Matrizenschreibweise lauten die beiden Formeln so:

E[X a'] = M a' , F[X a'] = a Cov(X)a ' ,

wobei a = ( a i , . . . ,a^) die zum Zeilenvektor zusammengefassten KoefRzien-ten der Linearkombination darstellt.

Falls die Variablen X i , . . . , Xn paarweise unkorreliert sind (dies ist ins-besondere dann der Fall, wenn sie stochastisch unabhangig sind), so ergibt sich

V y^^ajXi i=l

T.^lV[Xi] i=l

Wir wollen diese Formeln nun an einigen Beispielen illustrieren.

Beispiel 3.6: Ein Anleger besitzt 100 A-Aktien (Kurs 50 €), 150 B-Aktien (Kurs 40 €) und 50 C-Aktien (Kurs 20 €). Bezeichnen RA^RB '^'^d Re die einjahrigen Renditen (in %). Uber ihre Erwartungswerte, Standardabwei-chungen und Korrelationskoeffizienten nimmt er Folgendes an:

Page 157: Wahrscheinlichkeitsrechnung und schließende Statistik

146 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

fiA = E[RA] = 10, a^ = 25, pAB = 0.5 , jdB = E[RB] = 5, CTB = 25, PAC = 0.5, lie = E[Rc] = 5 , o-c = 20, PBC = 0.

Berechnen Sie den Wert (in €) des Portefeuilles zum jetzigen Zeitpunkt so-wie den Erwartungswert und die Standardabweichung des Portefeuillewertes nach einem Jahr.

Der jetzige Wert des Portefeuilles betrdgt (in €)

Po = 100 • 50 + 150 . 40 + 50 • 20 = 12000.

Der Portefeuillewert Pi nach einem Jahr ist eine Zufallsvariable,

P. = 100.50(l + ^ ) + 1 5 0 . 4 0 . ( l + ^ ) + 5 0 . 2 0 . ( l + ^

Der Erwartungswert von Pi ist

E[Pi] = 100.50( ' l + ^ ^ U l 5 0 . 4 0 . ( ' l + ^ [ ^ ^ l 100

= 100 • 50 • 1.1 + 150 • 40 • 1.05 + 50 • 20 • 1.05

= 12 850.

Um die Varianz von Pi zu berechnen, benotigen wir

V[RA] = O\ = 625, V\RB\ = O\ = 625, V\Rc\ = 0% = 400,

und

Cm}{RA, RB\ ^OA-OB- PAB = 25 • 25 • 0.5 = 312.5,

COV[RA, RC] =<TA-crc- PAC = 25 • 20 • 0.5 = 250,

COV[RB,RC] = O - B - ( T C - / 3 B C = 2 5 - 2 0 - 0 = 0 .

Page 158: Wahrscheinlichkeitsrechnung und schließende Statistik

3.1. GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN 147

Die Varianz von Pi ist demnach gleich

V[Pi (100 • 50)2 y

+(50 • 20)2 V

1 +

1 +

100.

100

+ (150 • 40)2 V 1 + RB

100

+2-(100-50)(150.40)Cow ^ 1 0 0 ' ^ 100

+2 • (100 •50)(50-20) Cow

(100-50)2 (150-40)2

,^RA Re ^ 1 0 0 ' ^ 100

(50 - 20)2

+2 • ^^^ T^^r^ ^" C'ot; [RA.RB]

1002

100 • 50 • 150 • 40

V[Rc

1002

^ 1 0 0 - 5 0 - 5 0 - 2 0 ^ , „ „ , ^ ^ 1002 ^'"'^ [^^'^^1

= 1562 500 + 2250 000 4- 40 000 + 1875 000 4- 250 000

= 5977500,

y/V[Pi] = 2444.89.

Der Erwartungswert des Portefeuilles nach einem Jahr betragt 12 850€', die Standardabweichung 2444.89 € .

Beispiel 3.7: In einem Index befinden sich n Aktien, die entsprechenden An-n

teile seien a , z = 1 , . . . , n, mit XI oz = 1- Fiir die Tagesrenditen (in Prozent) i=l

der Aktien gelte einheitlich

E[Ri] = 0.05, Vy[Ri] = 1-5 fiir alle i,

Corr [i?i, Rj] = p fiir alle i ^^ j ^

wobei p zundchst nicht festgelegt sei.

a) Geben Sie formelmdflig Erwartungswert und Standardabweichung der Rendite des Indexes an.

b) Was erhalten Sie, wenn die Gewichte ai alle gleich sind? Interpretieren Sie die entstehende Formel.

Page 159: Wahrscheinlichkeitsrechnung und schließende Statistik

148 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

c) Sie stehen vor der Entscheidung, ob Sie Ihr gesamtes Kapital in eine Aktie investieren oder ein Portefeuille aufbauen, das dem Index nach-gebildet ist. Wie entscheiden Sie?

Bezeichne R die Tagesrendite des Indexes in Prozent.

zu a) Es ist

E[R] = E 2__j ^i ' ^i i=l

^ ai E[Ri] = 0.05 'Y^ai = 0.05, 2 = 1

=0.05 i = l

=1

Cov[RuRj] = l.b^'Corr[Ri,Rj] = Lb'^-p,

VV[R]

V Y^af'V[Ri] + 2'Y^ J2 ai'aj'Cov[Ri,Rj]

1=1j=Z+l i = l

\ i = l J =2+1 i=l

zu b) Der Erwartungswert E[R] — 0.05 hdngt nicht von der Wahl der Ge-wichte ab. Seien nun die ai alle gleich, d.h. ai = ~. Einsetzen in die letzte Formel liefert

Vv[R] 1 . 5 2 . n . ^ + 2 . 1 . 5 ^ . p . X : E ;;,. i = l j = 2 + l

Die Zahl der Summanden der zweiten Summe unter der Wurzel hdngt von i ab; es sindn — i Summanden, z = 1 , . . . , n. Die Doppelsumme umfasst deshalb (nach der bekannten Formel von Gaufi)

(n - 1) + (n - 2) + . . . + 1 + 0

Summanden, die alle gleich ^ sind. Wir erhalten

n{n — 1)

i = l jf=i+l

_1_ _ n ( n - l ) 2n2

Page 160: Wahrscheinlichkeitsrechnung und schließende Statistik

3.1. GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN 149

also

V n V n

Da V[R] > 0 Z5i , muss ^-^ -h p>0 d.h. p> —:^ sein. Notwendig fur p ist also

^ < P < 1 . n - 1

Falls p < I ist, ist der Term unter der Wurzel ebenfalls kleiner als eins, also die Standardabweichung ^/V[R] < 1.5.

zu c) Durch Nachbildung des Indexes kann (wenn p < 1 ist) bei gleicher erwarteter Rendite die Standardabweichung gesenkt werden. Also empfiehlt sich die Anlage in ein entsprechendes Portefeuille.

3.1.3 Summen von unabhangigen Binomial-, Poisson-und Gaufi-Variablen

Wahrend sich Erwartungswert und Varianz einer Summe von Zufallsvariablen direkt aus entsprechenden Verteilungsparametern der Summanden ergeben, lassen sich andere Verteilungsparameter der Summe meist nicht in einfacher Weise auf solche der Summanden zuriickfiihren.

In einigen, flir die Anwendungen wichtigen, Spezialfallen erhalt man jedoch einfache Formeln, da hier die Verteilung der Summe zur selben Verteilungs-klasse gehort wie die Verteilung der Summanden. Die Verteilung der Summe unterscheidet sich dann lediglich in den Parametern von den Verteilungen der Summanden. Diese Eigenschaft einer Verteilungsklasse nennt man Repro-duktionseigenschaft, da sich die Verteilung in der Summe „reproduziert".

Binomial verteilung Seien Xi,... ,Xk unabhangige binomialverteilte Zu-fallsvariable mit identischem Parameter TT,

Xi ~ B{ni, TT), f = l , . . . , fc .

Jedes Xi lasst sich als Zahl der Erfolge in einer Bernoulli-Versuchsreihe der Lange Ui auffassen. Die Ergebnisse dieser Versuchsreihen sind vonein-ander unabhangig. Werden die k Versuchsreihen nacheinander ausgefiihrt, entsteht eine Bernoulli-Versuchsreihe der Lange n = ^ ^ ^ i n^, und die Sum­me X]i=i ^i beschreibt die zugehorige Anzahl der Erfolge. Die Summe ist

Page 161: Wahrscheinlichkeitsrechnung und schließende Statistik

150 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

offenbar binomialverteilt mit Parametern n und TT. Wir haben gezeigt:

Aus Xi ^ B{ni^7T), 2 = 1 , . . . , fc, unabhangig

folgt ^Xi^Blj^riu^] .

Beispiel 3.8: In einer Urne hefinden sich 100 Kugeln, davon 40 rote. In einer zweiten Urne hefinden sich 50 Kugeln, davon 20 rote und in einer dritten Urne hefinden sich 200 Kugeln, davon 80 rote. Jemand zieht zufdllig mit Zurilcklegen

10 Kugeln aus der ersten Urne,

10 Kugeln aus der zweiten Urne,

20 Kugeln aus der dritten Urne.

Wie ist die Anzahl der insgesamt gezogenen roten Kugeln verteilt? Bezeichne Xi die Anzahl der roten Kugeln, die aus der i-ten Urne gezogen werden, i = 1,2,3; und Y die Anzahl der ingesamt gezogenen roten Kugeln. Aus

Xi ~ B ( n i - 1 0 , 7 r = 0.4),

X2 ~ 5(n2 = 10,7r = 0.4),

Xs ~ ^ (ns = 20,7r = 0.4)

und der Unahhdngigkeit folgt, dass

y = ^ Xi ~ B(n - 40, TT - 0.4). i=l

Poisson-Verteilung Es seien X i , . . . , X/ unabhangige Poisson-verteilte Zu-fallsvariable, Xi ~ Po{fj,i). Ahnlich wie bei der Binomialverteilung kann man zeigen:

Aus Xi ~ Po{fdi), i = 1 , . . . , fc, unabhangig

folgt Y^Xi^PoiYl^^) •

Beispiel 3.9: Eine Baufirma hetreibt zwei kleine Baustellen und eine Grofi-haustelle. Die Anzahl der Arheiter, die innerhalb eines Jahres einen schweren

Page 162: Wahrscheinlichkeitsrechnung und schließende Statistik

3.1. GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN 151

Unfall auf einer Baustelle erleiden, sei Poisson-verteilt mit /d = 2 fiir die klei-nen Baustellen und mit fd = 10 fiir die Grofibaustelle. Die Anzahl der Arbeiter insgesamt, die einen Unfall haben, ist dann Poisson-verteilt mit jd = 14.

Normalver te i lung Seien X i , . . . , Xk unabhangige'^ normalverteilte Zufalls-variable. Dann gilt

Aus Xi ~ N{fdi, af), f — 1 , . . . , fc, unabhangig

k / k ^ \

folgt Y^Xir^Nlj2f,u E ^ n •

Beispiel 3.10: Bin Anleger hat 40% seines Vermogens in A-Aktien, 50% in B-Aktien und 10% in C-Aktien angelegt. Er geht davon aus, dass die Jahres-renditen (in %) der drei Aktien unabhangig und normalverteilt sind mit

E[RA] = 10,

E[RB] = 12,

E[Rc] = 8,

v'nR^=2o,

^/v[R^] = lO.

a) Was konnen Sie iiber die Verteilung der Jahresgesamtrendite (in %) des Portefeuilles sagen?

b) Im jetzigen Zeitpunkt t = 0 besitzt das Portefeuille des Aktieninhabers einen Wert von genau 1 Mio. € . Wie ist der Wert des Portefeuilles nach einem Jahr verteilt? Wie grofi ist die Wahrscheinlichkeit, dass der Wert des Portefeuilles grofier als 1.1 Mio. € ist?

zu a) Bezeichne RQ die Gesamtrendite eines Jahres in Prozent. Es ist

RG = 0.4 • i?A + 0.5 • i ? B + 0 . 1 - i i c ,

E[RG] = 11 = 0.4-10 + 0.5-12 + 0.1-8 - 10.8,

V[RG] = a'^ = 0.4^ •202 + 0.52-25^+ 0.l2-102 = 221.25.

Somit ist RG ^ N{ix = 10.8; CT = 221.25).

zu b) Der Wert des Portefeuilles im Zeitpunkt t = 1 betrdgt

Y = 1000000(1 + iic/lOO) = 1000 000 + 10000i?G .

'^Fiir eine Verallgemeinerung auf abhangige, gemeinsam normalverteilte Zufallsvariable siehe Abschnitt 3.3.1.

Page 163: Wahrscheinlichkeitsrechnung und schließende Statistik

152 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Ebenso wie RQ ist Y normalverteilt, und zwar mit Erwartungswert bzw. Va-rianz

E[Y] = 1000000+ 10 000 E[i?G] = 1108000,

V[Y] = 10000^ V[RG] = 221.25 • 1 0 ^

also Y ~ iV(1108 000,221.25 • 10^). Die gesuchte Wahrscheinlichkeit betragt

p ( y > 1100000) = i_$/nooooo-1108000^ V ^221.25 • 108

= 1-$(-0.05378) = 0.5215.

Zum Abschluss sei bemerkt, dass es sich bei den hier behandelten Reproduk-tionseigenschaften um „Ausnahmen" handelt, die nur fiir ganz bestimmte Verteilungsklassen gelten. Man mache sich z.B. klar, dass eine Summe von unabhangigen rechteckverteilten Zufallsvariablen keineswegs rechteckverteilt ist.

3.2 Grenzwer tsa tze

Wir betrachten eine unendliche Folge von Zufallsvariablen Xi , X2, X3 , . . . , die alle die gleiche Verteilung besitzen und aufierdem stochastisch unabhangig sind. Dabei verstehen wir unter stochastischer Unabhangigkeit der unendli-chen Folge, dass fiir jede Zahl n G N die endliche Folge Xi,X2,Xs^... ^Xn stochastisch unabhangig ist. Fiir gegebenes n sind das arithmetische Mit-tel

77. ^—' i = l

und die Variablensumme

i=l

wiederum Zufallsvariable, fiir deren Wahrscheinlichkeitsverteilung wir uns nun interessieren. Wenn n gegen unendlich geht, werden diese Verteilungen durch so genannte Grenzwertsatze beschrieben. Die zwei fiir die Anwen-dungen wichtigsten Grenzwertsatze sind das Schwache Gesetz der groCen Zahlen und der Zentrale Grenzwertsatz. Sie werden in diesem Abschnitt erlautert und an Beispielen illustriert.

Wenn Xi ,X2 ,X3 , . . . eine Folge von unabhangigen und identisch verteilten Zufallsvariablen ist, sagt man auch, Xi, X2, X 3 , . . . seien unabhangige Wie-

Page 164: Wahrscheinlichkeitsrechnung und schließende Statistik

3 . 2 . G R E N Z WERTS ATZE 153

derholungen einer Zufallsvariablen X. Wir setzen voraus, dass X einen end-lichen Erwartungswert /i und eine endliche Varianz cr besitzt. Da alle Xi wie X verteilt sind, gilt

Es folgt

E[Xi] = E[X] = fx und V[Xi] = V[X] = a^ .

wobei wir die Rechenregeln fiir den Erwartungswert und die Varianz einer Summe von Zufallsvariablen verwendet haben, sowie - bei der Varianz - die Voraussetzung, dass die Variablen X i , X 2 , . . . , X n stochastisch unabhangig und deshalb unkorreliert sind.

3.2.1 Schwaches Gesetz der grofien Zahlen

Wir formulieren nun das Schwache Gesetz der groBen Zahlen. Unter den obigen Voraussetzungen gilt fiir jedes e > 0

(3.6)

Durch Ubergang zu den Komplementareignissen erhalt man daraus die aqui-valente Aussage

lim P n—»oo

1 ' '

/ i= l

< e 1.

Die Formel (3.6) ist eine Aussage iiber die Abweichung des arithmetischen Mittels Xn, vom Erwartungswert [x. Die Wahrscheinlichkeit, dass diese Abwei­chung grofier oder gleich einem vorgegeben Wert e ist, geht fiir grofie n gegen null. Anschaulich bedeutet das Schwache Gesetz, dass sich die Verteilung von Xn niit wachsendem n immer mehr auf den Punkt \x „zusammenzieht".'^

^Das Schwache Gesetz der grofien Zahlen ist von dem so genannten Star ken Gesetz der grofien Zahlen zu unterscheiden. Letzteres lautet:

({-|„'i-.i|:/iM=/^})=i-Das Starke Gesetz der grofien Zahlen besagt, dass das arithmetische Mittel Xn(}j^) im folgenden Sinne „fast sicher" gegen den Erwartungswert ^ konvergiert: Die Menge der Ergebnisse a;, fiir die die Konvergenz zutrifft, hat die Wahrscheinlichkeit 1.

Page 165: Wahrscheinlichkeitsrechnung und schließende Statistik

154 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

BEWEIS Der Beweis des Schwachen Gesetzes ist sehr einfach. Aus der Tschebyscheffschen Ungleichung (siehe Abschnitt 2.2.3), angewandt auf X^, folgt

p(ix„-,i>.)<^=4-\l I / ^2 ^ ^ 2

2

Da cr und e^ feste Zahlen sind, geht —r fiir n -^ oo gegen null, und es folgt

lim P(\Xn-\A > £ ) = 0 .

D

Beispiel 3.11: In einer Abfullanlage wird gemahlener Kaffee in Tiiten gefiillt Der Fertigungsleiter kann den Sollwert jd der Fiillungen einstellen. Die beim individuellen Abfullen realisierte Fullmenge schwankt jedoch in zufdlliger Wei-se um den Sollwert jd.

Bezeichne Xi die Fullmenge beim Abfullen der i-ten Tilte. Xn ist dann die durchschnittliche Fullmenge bei n-maligem Abfullen. Wir nehmen an, dass die Abweichungen vom Sollwert stochastisch unabhangige, identisch verteilte Zufallsvariable mit Erwartungswert null darstellen. Dann sind die Fullmengen ebenfalls unabhdngig identisch verteilte Zufallvariable; sie haben den Erwar­tungswert /i. Aus dem Schwachen Gesetz der groflen Zahlen folgert man, dass die durchschnittliche Fullmenge von n Packungen nach Wahrscheinlichkeit gegen den Sollwert konvergiert. Mit anderen Worten: Fiir jede noch so kleine „Messgenauigkeit'^ e geht die Wahrscheinlichkeit, dass eine Differenz zwi-schen der durchschnittlichen Fullmenge und dem Sollwert gemessen werden kann, gegen null. Das heiflt, diese Wahrscheinlichkeit kann beliebig verklei-nert werden, wenn man n nur hinreichend grofl wdhlt.

Konvergenz nach Wahrscheinlichkeit Das Schwache Gesetz der grofien Zahlen besagt, dass sich eine Folge von Zufallsvariablen, namlich die Folge der arithmetischen Mittel X^, mit wachsendem n einer Zahl, namlich dem Erwartungswert //, nahert.

AUgemein sei Yi,Y2^Ys,... eine Folge von Zufallsvariablen und 9 eine Zahl. Man sagt, dass die Folge Yn stochastisch gegen 6 konvergiert, wenn

lim Pi\Yn -e\<e) = l fiir jedes €>0 (3.7)

gilt. Die stochastische Konvergenz wird auch Konvergenz nach Wahr­scheinlichkeit genannt. Man beachte, dass dies keine gewohnliche Konver­genz einer Zahlenfolge ist. Nicht die Werte der Yn konvergieren gegen die Zahl ^, sondern die Wahrscheinlichkeit, dass diese Werte um weniger als einen klei-nen Betrag e von 6 abweichen, konvergiert gegen 1. Statt (3.7) schreibt man kurz

p lim Yn = 0.

Page 166: Wahrscheinlichkeitsrechnung und schließende Statistik

3.2. G RENZWERTS ATZE 155

Eine einfach zu iiberpriifende hinreichende (aber nicht notwendige) Bedin-gung ist die folgende: Eine Folge von Zufallsvariablen Yn konvergiert dann nach Wahrscheinlichkeit gegen eine Zahl 6, wenn

lim V[Yn] = 0 und lim E[Yn] = 0.

Das Schwache Gesetz der grofien Zahlen besagt, dass die Folge der arithmeti-schen Mittel nach Wahrscheinlichkeit gegen den Erwartungswert konvergiert,

plimXn = / i .

3.2.2 Wahrscheinlichkeit und relative Haufigkeit

Der Begriff der relativen Haufigkeit ist mit dem Begriff der Wahrscheinlichkeit eng verbunden. Die relative Haufigkeit eines Ereignisses aus unabhangigen Wiederholungen eines Zufallsexperimentes wird intuitiv als eine Naherung flir die Wahrscheinlichkeit des Ereignisses angesehen. Mit Hilfe des Schwa-chen Gesetzes der grofien Zahlen ist es nun moglich, die Beziehung zwischen theoretischer Wahrscheinlichkeit und beobachteter relativer Haufigkeit prazi-se zu formulieren.

Betrachten wir eine Bernoulli-Versuchsreihe mit n unabhangigen Versuchen. Bei jedem Versuch trete das Ereignis A mit Wahrscheinlichkeit TT ein. Die Zufallsvariablen Xi seien wie folgt definiert:

Xi 1, falls A beim z-ten Versuch eintritt,

0, falls A beim i-ten Versuch eintritt.

Dann ist

hn 2

• Xn = — y Xi i=\

die relative Haufigkeit des Eintretens von A, Es gilt fiir alle i

Xi - B{1, TT) und // = E[Xi] = E\Xn] = TT .

Das Gesetz der grofien Zahlen besagt nun, dass die relative Haufigkeit hn stochastisch gegen die Wahrscheinlichkeit TT konvergiert,

p lim hn = 7T. n-^oo

Man beachte, dass die relativen Haufigkeiten Zufallsvariable und keine Zahlen sind. Die Limesbeziehung lasst sich deshalb nicht als gewohnlicher Limes einer Folge von Zahlen beschreiben. Sie ist ein Limes im Sinne der Konvergenz nach Wahrscheinlichkeit.

Page 167: Wahrscheinlichkeitsrechnung und schließende Statistik

156 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Das Schwache Gesetz der grofien Zahlen bildet eine Brlicke zwischen den formalen Konzepten der Wahrscheinlichkeitsrechnung und den beobachtba-ren Ergebnissen von konkreten Zufallsvorgangen. Die relative Haufigkeit ei-nes Ereignisses ist eine Naherung fiir die Wahrscheinlichkeit des Ereignisses. Im Sinne der stochastischen Konvergenz ist die Wahrscheinlichkeit des Er­eignisses gleich dem Grenzwert der relativen Haufigkeiten bei wiederholter unabhangiger Durchfiihrung des Experiments.

Beispiel 3.12: Beim Werfen eines fairen Wiirfels interessiere das Ereignis

A = Augenzahl „6^\

Die Erfahrung lehrt, dass bei unabhdngig wiederholten Wiirfen sich die rela­tive Hdufigkeit, eine „6'' zu werfen, in aller Kegel mit wachsender Zahl der Wiirfe dem Wert ^ ndhert. Allerdings ist weder theoretisch noch praktisch auszuschliefien, dass dem nicht so ist, etwa dass in einer noch so langen Fol-ge von Wiirfen niemals eine „6'^ auftritt. (In einem solchen Fall konvergiert die relative Hdufigkeit fiir n —> oo gegen null, und nicht gegen ^.)

Das Schwache Gesetz der groflen Zahlen besagt nun, dass man solche Fdlle in bestimmter Weise vernachldssigen darf dass ndmlich fiir grofie n die Wahr­scheinlichkeit einer „feststellbaren Abweichung^' der beobachteten Hdufigkeit vom theoretischen Wert | beliebig klein wird.

3.2.3 Konvergenz der empirischen Verteilungsfunktion

Wir gehen in diesem Abschnitt wieder von einer Folge Xi , X 2 , . . . , X ^ , . . . von unabhangigen Zufallsvariablen aus, die identisch verteilt sind mit der Verteilungsfunktion F. Ihre Werte werden mit x i ,X2, . . . , 0;^, • • • bezeichnet. Zunachst betrachten wir fiir ein festes n und gegebene Werte xi,0:2, •.. ,^n die Funktion^

Fn{x) = — ' (Anzahl Xi < x) fiir a; G M.

Fn{x) ist eine monoton wachsende Funktion von x mit Werten im Intervall [0,1]. An jeder Stelle Xi macht sie einen Sprung der Hohe ^, i = 1 , . . . ,n. Mit

_ J 1, falls Xi < X, ^{xi<x} - I 0, M\sxi>x,

erhalt man 1 ""

Fn{x) = - ^ ^{xi<x} fiir X G R.

^Vgl. die empirische Verteilungsfunktion in der beschreibenden Statistik.

Page 168: Wahrscheinlichkeitsrechnung und schließende Statistik

3.2. GRENZWERTSATZE 157

Nun beriicksichtigen wir, dass die Xi Werte von Zufallsvariablen sind, und setzen in die Funktion Fn{x) fiir jedes i die Zufallsvariable Xi an die Stelle von Xi ein:

1 "

2 = 1

Fiir festes x ist dabei l{Xi<x} ^^^^ Bernoulli-verteilte Zufallsvariable, die den Wert 1 annimmt, wenn das Ereignis {Xi < x} eintritt, und den Wert 0, wenn das Ereignis nicht eintritt. Die Zufallsvariablen l{Xi<x}^ ^ = l , . . . , n , sind unabhangig und, da P{Xi < x) = F{x) gilt, identisch ^(l,7r)-verteilt mit TT = F{x). Die empirische Verteilungsfunktion Fn{x) an der Stelle x ist ihr arithmetisches Mittel. Es gilt deshalb

E[Fn{x)] = F (x ) ,

VarlF.ix)] = 1 ^ - 1 ^ ,

Wenn wir (fiir festes x € R) n gegen unendlich streben lassen, so folgt aus dem Schwachen Gesetz der groBen Zahlen

plimFn(x) = F (x ) , d.h. n—+00

plim{Fn{x) - F{x)) = 0. (3.8) n-^oo

Mit anderen Worten: Die empirische Verteilungsfunktion Fn{x) strebt an jeder festen Stelle x eR nach Wahrscheinlichkeit gegen den Wert der Vertei­lungsfunktion F{x).

Es gilt in diesem Zusammenhang ein viel weiter gehendes Resultat, namlich

plim (sup \Fn{x) - F{x)\) = 0. n—»oo x£R

(3.9)

Grenzwertsatze dieser Art werden als Glivenko-Cantelli-Satze^ bezeich-net^. Der Unterschied zwischen (3.8) und (3.9) ist bemerkenswert. Wahrend (3.8) besagt, dass Fn{x) — F{x) an jeder einzelnen Stelle x nach Wahrschein­lichkeit gegen 0 konvergiert, aber evtl. mit unterschiedlicher Geschwindigkeit, bedeutet (3.9), dass sogar der maximale Abstand sup^j^ji \Fn{x) — F{x)\ nach Wahrscheinlichkeit gegen 0 konvergiert. Ist also die Anzahl n der Beobachtun-gen Xi geeignet grofi, so lasst sich F{x) durch die empirische Verteilungsfunk­tion Fn{x) gleichmafiig iiber ihren gesamten Verlauf beliebig genau approxi-mieren. Dies ist von fundamentaler Bedeutung fiir die schlieCende Statistik.

^Valerii Ivanovich Glivenko (1897-1940), Francesco Paolo Cantelli (1875-1966). ^Eine noch starkere Aussage als (3.9) enthalt der folgende Satz: Es gilt

P ( l i m ^_+oo supjpgji |i^n(^) ~"-^(3^)1 = O) = 1- Di© gleichmafiige Konvergenz der empiri-schen Verteilungsfunktion gilt nicht nur nach Wahrscheinlichkeit, sondern fur alle Ergeb-nisse u mit Ausnahme solcher, die zusammen die Wahrscheinlichkeit 0 besitzen. Dies ist die urspriingliche Form des Satzes von Glivenko-Cantelli.

Page 169: Wahrscheinlichkeitsrechnung und schließende Statistik

158 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

3.2.4 Zentraler Grenzwertsatz

Aus Abschnitt 3.1.3 wissen wir, dass eine Summe von n unabhangigen und identisch normalverteilten Zufallsvariablen Xi , X 2 , . . . , Xn^^N^j,^ cr ) wieder normalverteilt ist,

n , na ,

i= l

und demnach auch das arithmetische Mittel

1 "" / 2 \

n ^ \ n J 1 = 1 ^ '

Sind die Xi selbst nicht normalverteilt, so gelten diese Aussagen grundsatzlich nicht. Jedoch kann man zeigen, dass sie zumindest naherungsweise fiir grofie n erfiillt sind. Dies folgt aus dem so genannten Zentralen Grenzwertsatz. Er bezieht sich in seiner einfachsten Form^ auf eine Folge Xi , X2, X 3 , . . . von unabhangigen und identisch verteilten Zufallsvariablen mit E[Xi] = fi und V[Xi] = (7 > 0. Es werden keine weiteren Annahmen iiber die (identische) Verteilung der Xi gemacht. Sie kann insbesondere stetig oder diskret sein.

Der Zentrale Grenzwertsatz bezieht sich nicht direkt auf die Summe Yn oder das arithmetische Mittel Xn , sondern auf die zugehorige standardisierte Va­riable

n \ ^ V . _ ^ , 1

Fiir Un gilt E[Un] = 0 und V[Un] = 1.

Zentraler Grenzwer tsa tz Unter den obigen Voraussetzungen gilt

lim P{Un <u) = ^{u) fiir alle u e

wobei ^ die Verteilungsfunktion einer standard-normalverteilten Zufallsva­riablen ist.

Der Zentrale Grenzwertsatz besagt, dass die Verteilungsfunktion von Un an alien Stellen tx G R fiir n —> 00 gegen die Verteilungsfunktion $ einer

^Die Giiltigkeit des Zentralen Grenzwertsatzes ist nicht nur fiir unabhangige, identisch verteilte Xi gegeben, sondern er gilt auch unter bestimmten Bedingungen fiir Variable Xi, die zwar unabhangig, aber nicht identisch verteilt sind. Die bekanntesten derartigen Bedingungen wurden 1901 von Ljapunov und 1922 von Lindeberg aufgestellt. Sie laufen darauf hinaus, dass die Varianz keines der Xi gegeniiber den iibrigen Varianzen zu sehr ins Gewicht fallt.

Auch gibt es Versionen des Zentralen Grenzwertsatzes, bei denen eine bestimmte schwa-che Abhangigkeit der Variablen zugelassen ist.

Page 170: Wahrscheinlichkeitsrechnung und schließende Statistik

3.2. GRENZWERTSATZE 159

standard-normalverteilten Zufallsvariablen U konvergiert. 1st also n groB ge-nug, so ist Un naherungsweise standard-normalverteilt, was wir mittels

C/„ i^^'iV(0,l)

ausdrlicken. Man kann nun die Standardisierung rlickgangig machen und erhalt

J2Xi"^N{nti,na^) (3.10)

bzw.

X„ = i f : x / S ? ' - i v f M , - ) . (3.11)

Aus dem Zentralen Grenzwertsatz folgt, dass man ftir eine nicht zu kurze end-liche Folge unabhangiger identisch verteilter Zufallsvariablen Xi , ^ 2 , . . . , X^ die Verteilung der Summe Y^ = Yl7=i ^i durch eine Normalverteilung mit Erwartungswert n/d und Varianz na'^ annahern kann. Ebenso kann man die Verteilung des arithmetischen Mittels fiir nicht zu kleine n durch eine ent-sprechende Normalverteilung approximieren.

Beispiel 3.13: Bin Restaurant bewirtet am Abend 60 Gdste. Der Rechnungs-betrag des i-ten Gastes in € werde durch die Zufallsvariable Xi beschrieben. Die Zufallsvariablen X i , . . . , XQQ seien unabhdngig und identisch verteilt. Der Abendumsatz Y = Xli=i ^i ^ ^ dann naherungsweise normalverteilt.

Ist E[Xi] = 30 und ^/V[Xi] = 10, so gilt

E[Y] = 60-30 = 1800,

y/V[Y] = \ /60. 100 = VmO = 77.46, also

Y ""SS Ar(1800,6000).

Beispiel 3.14- Sei KQ der am Tag t = 0 bekannte Kurs einer Aktie und seien

die Tagesrenditen in Prozent. Wir nehmen an, dass / ? i , . . . , i?t unabhdngige und identisch verteilte Zufallsvariable sind. Dann ist

' .= 0 ri('+4)

Page 171: Wahrscheinlichkeitsrechnung und schließende Statistik

160 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

der Kurs am t-ten Tag. Es ist

SO dass fiir nicht zu kleines t der logarithmierte Kurs In Kt nach dem Zen-tralen Grenzwertsatz ndherungsweise normalverteilt ist mit

fit = E[lnKt] = \nKo + t'E

] = t^V In 1 +

In 1 +

Ri

3L 100

100 at = V[\nKt

Damit gilt Kt ' ' - ' ' LN{^XU(T1).

Wir wollen die allgemeinen Approximationsformeln (3.10) und (3.11) nun auf spezielle Verteilungen der Xi anwenden und geeignet modifizieren.

Approximat ion der Binomialvertei lung durch die Normalver te i lung Sei X r^ B (1,7r)-verteilt und seien Xi, X2 , . . . unabhangige Wiederholungen von X, Dann gilt (Abschnitt 3.1.3) Yn^^Xi ~ B(n,7r). Es ist E[Xi] = n und V [Xi] = TT {1 — TT) fiir jedes i. Durch Anwendung des Zentralen Grenz-wertsatzes erhalten wir

J2 Xi-nn z = l appr N{0,1). y/nn {1 — TT)

Wenn wir die Standardisierung riickgangig machen, folgt hieraus

y x / S ? ' A r ( n 7 r , n 7 r ( l - 7 r ) ) . i = l

Dies bedeutet, dass man die Verteilungsfunktion von B (n, TT) durch die Ver-teilungsfunktion der Normalverteilung A (nyr, TITT (1 — TT)) approximieren kann. Es ist also

P[J2Xi<b $ b — nn

\i=l >/n7r(l — TT) J '

be

Fiir ganzzahlige b erhalt man eine in der Regel genauere Approximation, wenn man die folgende Stet igkei tskorrektur vornimmt,

P\Y,Xi<b ^ , 6 + 0 . 5 - n 7 r \ , ^ r^ . . ^ I > I , 6 G { 0 , 1 , . . . , n} .

w = i y/n7r{l — IT)

(3.12)

Page 172: Wahrscheinlichkeitsrechnung und schließende Statistik

3.2. GRENZWERTS ATZE 161

^(4,0.5)

*- X

Abbildung 3.3: Approximation einer S(4,0.5)-Verteilungsfunktion gemaB (3.12) durch die AT(/x,cr^)-Verteilungsfunktion mit fi = 4-0.5 — 0.5 = 1.5 und a^ = 4.0.5-0.5= 1.

Grund fiir die Stetigkeitskorrektur ist, dass hier eine Verteilungsfunktion, die Spriinge aufweist, durch eine stetige Verteilungsfunktion approximiert wird. Konkret wird die gemafi dem Zentralen Grenzwertsatz approximierende Verteilungsfunktion der N{fi = nn^a'^ = n7r(l — 7r))-Verteilung um 0.5 nach links verschoben, so dass sie der Verteilungsfunktion der B(n,7r)-Verteilung an deren Sprungstellen naherkommt; siehe Abbildung 3.3.

Aus (3.12) leitet man zwei weitere Approximationsformeln her.

> a 1 _ $ a — 0.5 — nir

^JwK (1 — TT)

und

p\a<Y^Xi <b ^ 6 + 0.5 — nn

y^n7T{l — TT) _ $

a - 0.5 nn y/nn (1 — TT)

flir a, 6 G { 0 , 1 , . . . , n} und a < b.

Eine verbreitete Faustregel zur Anwendbarkeit der Approximation lautet n7r(l — TT) > 9; siehe auch die Ubersicht am Ende dieses Abschnitts.

Beispiel 3.15: Eine Firma versorgt 400 Getrdnkeautomaten. Die Wahrschein-lichkeit, dass ein Automat in einer Woche nicht funktionsfdhig ist, sei 5%. Die Ausfdlle der Automaten seien unabhdngig. Wie grofi ist ndherungsweise die Wahrscheinlichkeit, dass in einer Woche

Page 173: Wahrscheinlichkeitsrechnung und schließende Statistik

162 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

a) mindestens 15 Automaten ausfalien,

b) nicht mehr als 30 Automaten ausf alien?

Sei

Xi ii' falls der i-te Automat ausfallt, sonst,

also Xi r^ B {l^TT = 0.05), z = 1,...,n. Auflerdem seien Xi, . . . ,X400 stocha-stisch unabhdngig, Dann ist

400

y] Xi = Anzahl der ausgefallenen Automaten i = l

und

zu a)

400

Y,^i^B{n = 400,TT = 0.05). i=l

( 400 \

i _ $ / 1 5 - 0 . 5 - 2 0

V\/400.0.05-0.95,

= l - $ ( - 1 . 2 6 ) = $(1.26) = 0.8962.

zu h)

( 400 \

^ ^ i < 3 0 j

/ 30 + 0 . 5 - 2 0 \

W400-0 .05-0 .95 /

$(2.41) = 0.9920.

Approximation der Poisson-Verteilung durch die Normalverteilung Ist X ~ Po (/i)-verteilt, so lasst sich X als Summe X — Yl^=:\^i ^^^ ^ unabhangigen Zufallsvariablen X i , X 2 , . . . , X ^ mit Xi ~ P o ( ^ ) schreiben. Wendet man auf X = X^^Li ^i ^^^ Zentralen Grenzwertsatz an, so ergibt sich

X -n

appr Nifi,fi).

Unter Berlicksichtigung einer Stetigkeitskorrektur erhalt man die Approxi-mationsformel

P (a < X < 6) « $ b + O.b- fi

$ a — 0.5 — /i

Page 174: Wahrscheinlichkeitsrechnung und schließende Statistik

3.2. GRENZWERTSATZE 163

fiir a,6 € NU{0} und a < b . Eine gebrauchliche Faustregel fiir die An-wendbarkeit der Approximation ist /i > 9.

Beispiel 3.16: Die Anzahl der Anrufe pro Stunde in der Rezeption eines Ho­tels sei Poisson-verteilt. Die mittlere Anzahl sei fx = 15. Wie grofi ist die Wahrscheinlichkeit, dass zwischen 10 und 30 Anrufe pro Stunde eingehen?

Sei X = Anzahl der Anrufe pro Stunde.

Es ist X ~ Pa (/i = 15) und

VT5 / V yi5 = $(4 .0021) -$( -1 .4201)

= 1 - ( 1 - 0 . 9 2 2 2 ) = 0.9222.

Abildung 3.4 bietet eine tJbersicht liber die approximativen Beziehungen zwi­schen hypergeometrischer Verteilung, Binomialverteilung, Poisson-Verteilung umd Normalverteilung.

Zur Zulassigkeit der Approximation Bei der Anwendung des Zentralen Grenzwertsatzes zur Approximation taucht regelmafiig die Prage auf, wie grofi n mindestens sein muss, dass man fiir die Merkmalssumme und das Stichprobenmittel

n 1 ^

mit Recht behaupten kann, sie seien „in ausreichender Naherung" normal-verteilt. Zunachst muss man naturlich, abhangig von der konkreten Anwen­dung, festlegen, was unter „ausreichender Naherung" verstanden werden soil. Wann diese Naherung in der Regel erreicht ist, hangt davon ab, wie schnell die vorliegende Verteilungsfunktion der Merkmalssumme bzw. die des Stich-probenmittels gegen die Normalverteilungsfunktion konvergiert. Die Konver-genz gegen die asymptotische Normalverteilung geht vor allem dann rasch vonstatten, wenn

• die Verteilung von X symmetrisch ist,

• die Verteilung von X nur wenig Wahrscheinlichkeitsmasse auf ihren Flanken hat,

denn auch die approximierende Normalverteilung ist symmetrisch und hat wenig Wahrscheinlichkeitsmasse auf den Flanken. Demgegentiber geht die Konvergenz gegen die Normalverteilung langsamer vonstatten, wenn die Ver­teilung von X schief ist und/oder viel Wahrscheinlichkeitsmasse auf den Flan­ken der Verteilung von X liegt.

Page 175: Wahrscheinlichkeitsrechnung und schließende Statistik

164 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

H{n,N,M)

7r = f , ^ < 0 . 0 5

B{n,7T) 7r<0.1, n > 50,/i = n7r< 9

0-2 = n7r(l - TT) > 9

Niii.a')

Abbildung 3.4: Approximation von diskreten Verteilungen

Leider lasst sich keine allgemeine, fur alle Verteilungen von X gliltige Faust-regel angeben. Die weit verbreitete Faustregel: n > 40 fiir die Anwendbar-keit des Zentralen Grenzwertsatzes ist mit Vorsicht zu verwenden. In einigen Fallen ist sie zu restriktiv, in anderen Fallen zu locker.

3.3 Erganzungen

3.3.1 Multivariate Normalverteilung

Die fiir die Anwendungen bedeutsamste gemeinsame Verteilung von Zufalls-variablen ist die multivariate Normalverteilung. Wir fuhren die multivariate Normalverteilung durch eine wichtige Eigenschaft ein, die diese Verteilung auch eindeutig charakterisiert.

Page 176: Wahrscheinlichkeitsrechnung und schließende Statistik

3.3. ERGANZUNGEN 165

Seien X i , X 2 , . . . ,Xn gemeinsam verteilte Zufallsvariable, n > 2. Man nennt sie multivariat normalverteilt, wenn fiir jede Wahl der KoefRzienten ai , a2, .,. ,an G R die Linearkombination

Y = aiXi 4- 02^2 + . . . + anXn

eine univariate (d.h. gewohnliche) Normalverteilung besitzt.

Wahlt man nun a^ — 1 und aj = 0 fiir z ^^ j , so folgt unmittelbar, dass Xi univariat normalverteilt ist. Dies gilt fiir i = 1 , . . . ,n. Die Umkehrung trifft jedoch nicht zu: Ist jede einzelne der Zufallsvariablen Xi , X 2 , . . . , Xn univari­at normalverteilt, so muss die gemeinsame Verteilung nicht notwendigerweise eine multivariate Normalverteilung sein.

Besitzen Xi , X 2 , . . . , Xn eine multivariate Normalverteilung, so ist diese durch ihre Erwartungswerte und Varianzen

fii = E[Xi], a^ = V[Xi], z = l , . . . , n ,

sowie ihre Kovarianzen

aij = Cov[Xi,Xj] = ai aj pij , i ^ j y

eindeutig bestimmt. In Vektor- und Matrixschreibweise (vgl. Abschnitt 3.1.2) heifit dies: Eine multivariate Normalverteilung wird durch ihren Erwar-tungswer tvektor jj, — (/xi,... , /i^) und ihre Kovarianzmatrix Cov[X] = H = [aij] eindeutig charakterisiert. Unabhangigkeit und (paarweise) Unkor-reliertheit sind im Fall der gemeinsamen Normalverteilung aquivalent:

Sind X i , . . . ,Xn multivariat normalverteilt, so gilt X i , . . . , Xn sind unabhangig 4=» pij — 0 fiir alle i 7 j .

Wie wir aus Beispiel 3.3 wissen, gilt diese Aquivalenz fiir andere Verteilungen nicht.

Wenn E eine invertierbare Matrix ist, besitzt die multivariate Normalvertei­lung eine Dichte; es handelt sich dann um eine stetige Verteilung. Abbildung 3.2 zeigt die Dichte der bivariaten (n = 2) Normalverteilung mit \x\—\i2—^ und a\ = 0.25, cr| = 1, pu = 0.8, d.h.

0.25 0.4 0.4 1

Beispiel 3.6 (Fortsetzung): Der Anleger nimmt zusdtzlich an, dass RA.RB

und Re gemeinsam multivariat normalverteilt sind, Wie ist unter dieser zusatzlichen Annahme die Rendite des Portefeuilles verteilt, und wie grofi ist die Wahrscheinlichkeit, dass sie 8% iibersteigt?

Page 177: Wahrscheinlichkeitsrechnung und schließende Statistik

166 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Die Portefeuillerendite betrdgt

_ 1 0 0 150 50 ^ ^ - 3 0 0 ^ ^ + 300^^ + 300^^-

Rp ist damit (univariat) normalverteilt. Fiir den Erwartungswert und die Varianz gilt

2 3 1

v(fi,) = (|)^25'+(5)^25'+(l)^2o^

+0.5 • ? • ^ • 25 • 25 + 0.5 • ? • i • 25 • 20 6 6 6 6

= 302.78.

Weiterhin ist

, ' 1 = 1 - $(0.08) = 1 - 0.5319 = 0.4681. V 302.78/

Mit 46.8 Prozent Wahrscheinlichkeit iibertrifft die Rendite acht Prozent.

3.3.2 Poisson-Prozess

Die Poisson-Verteilung Po{^) wurde im Abschnitt 2.3.2 eingeftihrt. Eine wichtige Anwendung ist die folgende: An zufalligen Zeitpunkten treten be-stimmte Ereignisse ein, die man als Ankiinfte bezeichnet, z.B.

• das Eintreten eines Kunden in ein Ladengeschaft,

• das Vorbeifahren eines Autos an einem Kontrollpunkt,

• das Eintreffen eines Telefonanrufes in einem Call-Center.

Page 178: Wahrscheinlichkeitsrechnung und schließende Statistik

3.3. ERGANZUNGEN 167

I 9 — 9 9 1 ^ 1 9 — 9 9 9 — I 9 p^

0 t t-\-At 5

Abbildung 3.5: Ankunftsprozess

Uber die Ankiinfte treflFen wir folgende Annahmen:

(PI) Zur Zeit t = 0 findet keine Ankunft statt. Die Wahrscheinlichkeit, dass in einem kleinen Zeitintervall der Lange At genau eine Ankunft statt-findet, ist in erster Naherung proportional zu A^. Mit dem Proportio-nalitatsfaktor A ist diese Wahrscheinlichkeit also « A • At und hangt insbesondere nicht von der Lage des Intervalls auf der Zeitachse ab.

(P2) Die Anzahlen der Ankiinfte in disjunkten Zeitintervallen sind stocha-stisch unabhangig.

Damit haben wir - ohne Anspruch auf formale Genauigkeit - die Grundan­nahmen fiir den Poisson-Prozess beschrieben. Fiir t G R-i- sei

Xt = Anzahl der Ankiinfte im Zeitraum von 0 bis t.

Offenbar ist Xt fiir jedes t eine Zufallsvariable. Die Gesamtheit der Zufallsva-riablen Xt, t > 0, in Zeichen: (^Xt)^^^ , heifit Poisson-Prozess. Der Poisson-Prozess ist ein spezieller stochastischer Prozess. Sein Parameter ist A.

Aus den beiden Grundannahmen kann man herleiten, dass fiir beliebige 0 < s < t die Zahl Xt — Xs der Ankiinfte zwischen den Zeitpunkten 5 und t Poisson-verteilt ist, und zwar mit dem Parameter A • (t — 5),

Xt-Xs<^Po{X'{t-s)) .

Insbesondere gilt

Xt - Poifit = X't),

d.h. Xt ist Poisson-verteilt mit dem Parameter fj,t = X -1.

Statt durch die Anzahl der Ankiinfte bis zur Zeit t, t > 0, lasst sich der Poisson-Prozess auch auf andere Weise beschreiben. Sei

Wi = Zeit zwischen der (i — l)-ten und der z-ten Ankunft.

Page 179: Wahrscheinlichkeitsrechnung und schließende Statistik

168 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Fiir einen Poisson-Prozess gilt:

(P3) Wi,W2,Ws,... sind stochastisch unabhangig.

(P4) Jedes Wi ist exponentialverteilt mit Parameter A, d.h. Wi ~ Exp{X).

Wir wollen nun den Poisson-Prozess an einem einfachen Beispiel illustrieren.

Beispiel 3.17: Die Anzahl Xt der Schadensmeldungen, die bei einer klei-nen Sachversicherung eintreffen, bilde einen Poisson-Prozess mit Parameter A = 4. Dies bedeutet, dass das relevante Ereignis die Ankunft einer Scha-densmeldung ist; Zeiteinheit ist die Stunde. Ein Arbeitstag moge um 9 Uhr beginnen.

a) Wie grofi ist die Wahrscheinlichkeit, dass bis 17 Uhr mindestens 40 Schadensmeldungen eintreffen ?

b) Wie grofi ist die Wahrscheinlichkeit, dass bis 17 Uhr in jeder Stunde mindestens zwei Schadensmeldungen eintreffen?

c) Wie grofi ist die Wahrscheinlichkeit, dass die erste Schadensmeldung schon vor 9.30 Uhr eintrifft?

d) Wie grofi ist die Wahrscheinlichkeit, dass der zeitliche Abstand zwi-schen dem Eintreffen der ersten fiinf Schadensmeldungen jeweils nicht mehr als 20 Minuten betrdgt?

zu a) Gesucht ist die Wahrscheinlichkeit, dass in acht Stunden (9.00 bis 17.00 Uhr) mindestens 40 Schadensmeldungen eintreffen,

P{Xs>40) = l-P{Xs<39) .

Zundchst ist es erforderlich, die Verteilung von Xs zu bestimmen. Es gilt

Xs ~ Poildt = A . t = 4 . 8 = 32).

Die Approximation der Poisson- Wahrscheinlichkeit mit Hilfe der Normalver-teilung (einschliefilich einer Stetigkeitskorrektur) ergibt

P(X8>40) - 1 - P ( X 8 < 3 9 )

« 1-<^(^^'^Z}^\ = 1-^(1.33) = 0.0918.

zu b) Zundchst berechnen wir die Wahrscheinlichkeit, dass in einer Stunde mindestens zwei Schadensmeldungen eintreffen,

P{Xi >2) = l-P{Xi < 1 ) .

Page 180: Wahrscheinlichkeitsrechnung und schließende Statistik

3.3. ERGANZUNGEN 169

Die Verteilung von Xi lautet

Xi - Po{fit = X't = 4'l = 4).

Daraus folgt

P{Xi>2) = l-P{Xi<l) = l-{P{Xi = l) + P{Xi=0))

= 1 - (0.0733 + 0.0183) = 0.9084.

Die Wahrscheinlichkeit, dass in jeder Stunde bis 17.00 Uhr mindestens zwei Schadensmeldungen eintreffen, betrdgt aufgrund der Unabhdngigkeit der Zu-wdchse somit

P{„in jeder Stunde mindestens zwei Schadensmeldungen'^)

= {P{Xi > 2)f = (0.9084)^ = 0.4637.

zu c) Die Wahrscheinlichkeit, dass die erste Schadensmeldung vor 9.30 Uhr eintritt, kann auf zwei Arten berechnet werden.

cl) Uber die Zwischenankunftszeiten: Zu berechnen ist

P{Wi <0.5) .

Die Verteilung von Wi lautet Wi ~ Exp{X = 4). Daraus folgt

P {Wi < 0.5) = Fw, (0.5) = 1 - e-2 = 0.8647.

c2) liber die Ankunftszahlen: Zu bestimmen ist

P{Xo.5>l) = l-P{Xo,6 = 0).

Die Verteilung von X0.5 ist XQ.S ~ Po{idt = X-t = A-O.b = 2). Daraus folgt

P {X0.5 > 1) == 1 - P{Xo,5 = 0) - 1 - 0.1353 - 0.8647.

zu d) Gesucht ist hier die Wahrscheinlichkeit, dass der zeitliche Abstand zwi-schen dem Eintreffen der ersten fiinf Schadensmeldungen jeweils nicht mehr als 20 Minuten (d.h. \ Stunden) betrdgt.

Bezeichne Di das Ereignis, dass Wi <\ ist. Wegen Wi ~ Exp{X = 4) ist

P{Di) =p(w,<^=l- exp (-^ = 0.7364.

Mit den Zeiten Wi sind auch die Ereignisse Di, i = 1 , . . . , 5, unabhdngig. Die gesuchte Wahrscheinlichkeit ergibt sich dann als

plf]Di]=f[P {Di) = (0.7364)^ = 0.2166.

Page 181: Wahrscheinlichkeitsrechnung und schließende Statistik

170 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

3.3.3 Monte-Carlo-Simulation

Viele Zufallsvorgange sind so komplex, dass es nicht moglich ist, die Vertei­lung einer hierbei interessierenden Zufallsvariablen, insbesondere ihren Er-wartungswert, ihre Varianz und andere Verteilungsparameter exakt zu be-stimmen. Eine experimentelle Methode, diese Grofien zumindest naherungs-weise zu berechnen, bietet die Monte-Carlo-Simulation.

Sie eignet sich insbesondere ftir solche Zufallsvorgange, die als „Output" eines - in der Regel komplexen - Systems beschrieben werden konnen, der von einem zufallsbehafteten „Input" abhangt.

Beispiel 3.18: Wir betrachten den Output Y einer Produktion, deren Input X zufallsbehaftet ist, beispielsweise eine landwirtschaftliche Produktion, bei der X die Sonnenscheindauer darstellt. Y stehe in einer funktionalen Beziehung zu X, Y = g{X). Da der Input X eine Zufallsvariable ist, ist der Output Y ebenfalls eine Zufallsvariable. Die Verteilung von X sei bekannt. Die Produk-tionsfunktion g lasse sich punktweise auswerten. Doch sei g so kompliziert, dass es nicht moglich ist, die Verteilung von Y = g{x) aus der Verteilung von X explizit herzuleiten.

Bei der Monte-Carlo-Simulation werden solche komplexen Zufallsvorgange simuliert, d.h. am Computer nachgebildet. Das Ergebnis ist eine Folge von Zahlen, die als Realisationen einer Folge von unabhangigen Wiederholungen der interessierenden Zufallsvariablen Y angesehen werden konnen. Dies wird in mehreren Stufen bewerkstelligt.

Ein Zufallszahlengenerator ist eine Rechenvorschrift, die eine Folge von Zahlen 2:1,2:2,... ,^n ••• liefert, die sich wie die Realisierungen von unab­hangigen und identisch /?(0, l)-verteilten Zufallsvariablen Zi, Z2 , . . . , Z^ , . . . verhalten. Diese Zahlen nennen wir Zufallszahlen. Sie stellen kiinstliche Realisierungen von unabhangigen i?(0, l)-verteilten Variablen dar. Viele Computerprogrammsysteme, so auch Excel und SPSS, enthalten einen sol-chen Zufallszahlengenerator.

Die Grundaufgabe besteht darin, zu einer vorgegebenen Zufallsvariablen X mit Verteilungsfunktion F Zahlen a;i,X2,..., a n zu erzeugen, die als Realisie-rung von unabhangigen Wiederholungen X i , . . . , X^ aus X aufgefasst werden konnen.

In einer weiteren Stufe werden die Zahlen Xi in die das komplexe System beschreibende Funktion g eingesetzt,

Vi = 9{xi).

Dann stellen 2/i,y2^ • • • ,2/71 kiinstliche Realisationen von unabhangigen Wie­derholungen der Zufallsvariablen Y dar. Aus ihnen lassen sich die interessie­renden GroBen mit Hilfe der obigen Grenzwertsatze und den Methoden des Kapitels 5 beliebig genau schatzen.

Page 182: Wahrscheinlichkeitsrechnung und schließende Statistik

3.3. ERGANZUNGEN 171

Um die Grundaufgabe zu losen, gibt es verschiedene Moglichkeiten. Das prin-zipielle Vorgehen wollen wir hier anhand von Beispielen darstellen.

Beispiel 3.19: Bin Student mochte das lOOOOO-malige unabhdngige Werfen eines fairen Wurfels simulieren. Dazu erzeugt er zundchst n = 100 000 Zu­fallszahlen zi^Z2,..., 100000 ^]0,1[ (z.B. mit Excel). Als Ergebnis des i-ten (fiktiven) Wiirfelwurfs sieht er die Zahl Ui an, wobei

Hi = kleinste ganze Zahl > 6 - Zi.

Man macht sich leicht klar, dass sich dann die Folge n i , . . . ,niooooo wirklich wie die Realisierung einer Folge von Zufallsvariablen A^i,..., A/'iooooo verhdlt, die unabhdngig und auf der Menge {1 ,2 , . . . , 6} gleichverteilt sind.

Bei diesem, wie bei vielen anderen Beispielen miissen die vom Zufallszahlen-generator erzeugten Zufallszahlen auf eine andere Verteilung transformiert werden. Dies geschieht ganz allgemein auf die folgende Weise.

Sei F die vorgegebene Verteilungsfunktion von X und sei Q die zugehorige Quantilfunktion. Wir setzen Xi = Q{Zi) fiir alle i. 1st die Zufallsvaria-ble Zi ~ i?(0,1), so hat (vgl. Abschnitt 2.4.1) die mit der Quantilfunk­tion transformierte Zufallsvariable Xi = Q{Zi) die Verteilungsfunktion F , i = 1,2. . . , n. Sind die Zufallsvariablen Zi, Z2, -- -.Zn unabhangig, so sind auch die transformierten Zufallsvariablen Xi, X 2 , . . . , Xn unabhangig. Insge-samt sind dann Xi, X 2 , . . . , X^ unabhangige Wiederholungen aus X.

Nun betrachten wir die Zufallszahlen zi^Z2^... iZn'^sie kommen Realisationen der Zi ~ i?(0,1) gleich. Deshalb kann man die transformierten Zufallszahlen

Xl = Q{Zi) , X2 = Q{Z2) , . . . , Xn = Q{Zn)

als Realisationen der Xi ansehen.

Beispiel 3.20: Es sollen Zahlen x i , . . . ,Xn erzeugt werden, die als die Realisie-rungen von n unabhangigen Exp{X)-verteilten Zufallsvariablen X i , . . . , X „ angesehen werden konnen. Die Quantilfunktion der Exp{\)-Verteilung ist bekanntlich

Q{p) = -^\n{l-p), 0<p<l.

Sind nun zi^... ,Zn Zufallszahlen, so sind

Xi = - T 1 I I ( 1 - ^i) ^ z = l , . . . , n

die gesuchten Zahlen.

Beispiel 3.21: Es sollen Zahlen u i , . . . ,uioo erzeugt werden, die sich wie die Realisierung en von 100 unabhangigen standard-normalverteilten Zufallsva­riablen verhalten.

Page 183: Wahrscheinlichkeitsrechnung und schließende Statistik

172 3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE

Eine Moglichkeit besteht darin, die Zufallszahlen ^ i , . . . , zioo mittels

Ui = ^-^{Zi), 2 = 1 , . . . , 100,

zu transformieren. Hierzu wird die Quantilfunktion $~- benotigt, wofiir ge-eignete Ndherungsformeln existieren.

Eine andere Moglichkeit ist das folgende Vorgehen: Erzeuge zwolf Zufallszah­len zi,,.. ,zi2 und setze

Wiederhole diesen Schritt n = 100 mal. Dies lost die Aufgabe, da die Summe von zwolf R{0,l)'Verteilten Variablen nach dem Zentralen Grenzwertsatz in guter Ndherung normalverteilt ist mit /i = 12 • 0.5 = 6 und cr = 1 2 ^ = 1.

Kunstliche Realisationen y i , . . . ,yn von A^(/i,(7^)-Variablen erhalt man, in-dem man die N{0, l)-Realisationen i / i , . . . , u^ weiter transformiert, namlich mit

yi = ld-\-aUi.

Mit ahnlichen Methoden lassen sich auch Zahlen xi,... ,Xn erzeugen, deren zugrundeliegende Zufallsvariablen Xi, X 2 , . . . , X^ Abhangigkeiten aufweisen.

Erganzende Literatur zu Kapitel 3:

Die in den Literaturhinweisen zu Kapitel 1 aufgefuhrten Biicher enthalten auch Ausfiihrungen iiber gemeinsame Verteilungen und Grenzwertsatze. Eine ausfiihrliche Darstellung spezieller multivariater Verteilungen einschliefilich der multivariaten Normalverteilung findet man in Johnson et al. (1997); Kotz et al. (2000) und in Patil et al. (1975).

Einfiihrungen in den Poisson-Prozess und andere stochastische Prozesse bie-ten Grimmett und Stirzaker (2001) sowie Ross (2003). Die Monte-Carlo-Simulation wird umfassend in Fishman (1995) und in Devroye (1986) be-handelt.

Page 184: Wahrscheinlichkeitsrechnung und schließende Statistik

Kapitel 4

Stichproben und Stichprobenfunktionen

Statistik ist die methodische Erhebung und Auswer tung von Daten . Man unterteilt sie in die beschreibende und in die schliefiende Statistik.

Die beschreibende Stat is t ik enthalt Methoden, mit denen Daten unter be-stimmten Aspekten aufbereitet und dargestellt sowie durch geeignete Kenn-grofien charakterisiert und zusammengefasst werden. Die Ergebnisse der be-schreibenden Statistik beziehen sich immer nur auf den vorhegenden Daten-satz. Ein statistischer Schlufi von den Daten auf eine grofiere Gesamtheit ist im Rahmen der beschreibenden Statistik nicht moghch.

Im Unterschied zur beschreibenden Statistik bezieht die schlieBende Sta­t ist ik Begriffe und Modelle der Wahrscheinlichkeitsrechnung in ihre Metho­den ein. Man unterstellt, dass die erhobenen Daten Ergebnisse eines Zu-fallsvorganges, d.h. Reahsationen von Zufallsvariablen sind. Dabei werden Annahmen liber diesen Zufallsvorgang - etwa, dass es sich um eine einfache Zufallsstichprobe handelt - und liber die in Frage kommenden Wahrschein-lichkeitsverteilungen der Zufallsgrofien getroffen. Aus den beobachteten Da­ten zieht man dann mit Hilfe der Wahrscheinlichkeitsrechnung Folgerungen liber die konkret vorliegende Verteilung, insbesondere liber Erwartungswert, Varianz und andere Parameter dieser Verteilung. Weiterhin ist es moglich Aussagen liber die Gliltigkeit dieser Folgerungen und liber die Genauigkeit von Schatzern der Parameter zu treffen.

Das Vorgehen der schliefienden Statistik wird in den nun folgenden vier Ka-piteln im Einzelnen eriautert. Kapitel 4 flihrt in die grundlegenden Begriffe des statistischen Schliefiens - Stichprobe, Stichprobenfunktion, stochastisches

173

Page 185: Wahrscheinlichkeitsrechnung und schließende Statistik

174 4. STICHPROBEN UND STICHPROBENFUNKTIONEN

Modell - ein und behandelt drei spezielle, mit der Normalverteilung zusam-menhangende Verteilungen.

4.1 Zufallsstichproben und statistisches Schliefien

Grundlegend flir das statistische Schliefien ist der Begriff der St ichprobe. Mit Methoden der schliefienden Statistik werden Aussagen tiber eine Grund-gesamtheit auf der Basis einer Stichprobe getroffen. UmgangssprachUch ver-steht man unter einer Stichprobe eine Auswahl aus einer groBeren Gesamt-heit. Um als Grundlage flir statistisches SchUeBen dienen zu konnen, muss eine Stichprobe allerdings bestimmte Anforderungen erflillen.

Wir wollen im Folgenden prazisieren, welche Eigenschaften eine Stichprobe im Sinne der schliefienden Statistik hat und wie sie konkret ausgewahlt wer­den soil. Dabei werden wir uns, da es sich um eine einfuhrende Darstellung handelt, im Wesentlichen auf einen speziellen Stichprobenbegriff beschranken, namlich den der einfachen Zufallsstichprobe. Stichproben dieser Art er-lauben eine besonders einfache Darstellung der hier zu behandelnden sta-tistischen Verfahren. Sie sind Ausgangs- und Bezugspunkt komplizierterer Stichproben, wie sie auch in der amtlichen Statistik und der Markt- und Meinungsforschung breite Anwendung finden. Eine Darstellung dieser Stich­proben sowie darauf aufbauende statistische Verfahren findet man in den Lehrblichern zur St ichprobentheorie und zu den Stichprobenverfahren; siehe dazu die Literaturangaben am Ende des Kapitels.

4.1.1 Zufallsstichproben

Ausgangspunkt des statistischen Schliefiens ist eine Zufallsvariable X, deren Verteilung nicht oder nur zum Teil bekannt ist. Man stellt sich die Aufgabe, durch Beobachtung der Zufallsvariablen Informationen liber deren Verteilung zu gewinnen.

Dabei wird in der Regel eine einzelne Beobachtung von X nicht ausreichen. Um nahere Informationen liber die Verteilung von X zu erhalten, muss die Zufallsvariable mehrfach beobachtet werden.

Sei n die Zahl der Beobachtungen einer Zufallsvariablen X, und bezeichne Xi die i-te Beobachtung, z = 1,2,... ,n. Den Beobachtungen liegt ein Zufallsex-periment zugrunde, das Ergebnis einer jeden Beobachtung ist demnach eine Zufallsvariable. Die beobachteten Daten X\,X2,... ,x^ stellen die Werte der Zufallsvariablen X i , X 2 , . . . ,X^ dar. Damit aufgrund der Daten etwas liber

Page 186: Wahrscheinlichkeitsrechnung und schließende Statistik

4.1. ZUFALLSSTICHPROBEN UND STATISTISCHES SCHLIESSEN 175

die Verteilung von X ausgesagt werden kann, soil die Verteilung jedes der Xi mit der Verteilung von X iibereinstimmen. Dariiber hinaus macht es Sinn zu fordern, dass die Zufallsvariablen Xi, X 2 , . . . , X^ stochastisch unabhangig sind. Dem liegt die Vorstellung zugrunde, dass jede einzelne Beobachtung Xi gegeniiber den ubrigen Beobachtungen eine vollig neue Information liefert. Dies fiihrt uns auf die folgenden Definitionen:

Zufallsstichprobe und einfache Zufallsstichprobe Sei X eine Zufalls-variable und seien Xi, X 2 , . . . , X^ Zufallsvariable mit gemeinsamer Vertei­lung.

• X i , X 2 , . . . ,Xn heiiSen Zufallsstichprobe aus X, wenn jedes Xi wie X verteilt ist. Die Zahl n heifit Stichprobenumfang oder Stichpro-benlange. Die Werte x i , . . . , x ^ der Zufallsvariablen Xi,,.. ,Xn heifien Realisierung oder Wert der Stichprobe.

• Eine Zufallsstichprobe X i , X 2 , . . . , X „ heiBt einfache Zufallsstich­probe aus X, wenn Xi , X 2 , . . . , X^ aufierdem stochastisch unabhangig sind.

Im Folgenden werden wir meistens einfache Zufallsstichproben betrachten und deshalb, wenn keine Verwechslungen moglich sind, eine einfache Zufalls­stichprobe kurz als Stichprobe bezeichnen.

Welche fehlenden Informationen iiber die Verteilung von X sollen nun mit Hilfe einer Zufallsstichprobe gewonnen werden? Dies hangt vom konkreten statistischen Anwendungsproblem ab. Sehr oft stellt sich die Prage, wie grofi Erwartungswert und Varianz von X sind. Auch Informationen iiber Anteils-werte, etwa F{XQ) = P{X < XQ) an bestimmten Stellen a;o, konnen von In-teresse sein. Haufig sind bestimmte Quantile von X gefragt, wie der Median, das obere oder das untere Quartil.

Eine Zahl, die von der Verteilung von X abhangt, nennt man einen Ver-teilungsparameter oder kurz: Pa ramete r . Die wichtigsten Parameter ei­ner Verteilung sind der Erwartungswert, die Varianz, die Quantile sowie die Wahrscheinlichkeiten, dass X in bestimmte Intervalle fallt.

Die Begriffe der Zufallstichprobe, der einfachen Zufallstichprobe und des Ver-teilungsparameters sollen nun an Beispielen verdeutlicht werden.

Beispiel ^.i.* Die untersuchte Grundgesamtheit G besteht aus alien Haushal-ten in Deutschland am Jahresanfang 2001. Untersuchungsmerkmal ist das verfiigbare monatliche Haushaltseinkommen (in Euro). Da die Gesamtzahl der Haushalte, N = \G\, sehr grofl ist, soil nur ein Teil der Einkommen statistisch erhoben werden. Zundchst wdhlen wir durch ein Zufallsexperiment einen Haushalt zur Beobachtung aus, und zwar so, dass jeder Haushalt die

Page 187: Wahrscheinlichkeitsrechnung und schließende Statistik

176 4. STICHPROBEN UND STICHPROBENFUNKTIONEN

gleiche Wahrscheinlichkeit besitzt, ausgewdhlt zu werden. Formal setzen wir Q = G und

P{{u}) = — fiir alle u e G.

Dann ist durch

X{u)) — verfugbares monatliches Einkommen des Haushalts uj

eine Zufallsvariable gegeben. Ihre Verteilungsfunktion,

F{x) = P{X<x), xeR,

beschreibt die Verteilung des Merkmals „Haushaltseinkommen" in der Grund-gesamtheit G. Man mache sich klar, dass F bei diesem Beispiel gleich der empirischen Verteilungsfunktion der Einkommensdaten sdmtlicher Haushalte in G ist Als Parameter interessiert der Erwartungswert von X. Er ist gleich dem arithmetischen Mittel aller Einkommen der Grundgesamtheit

Die zufdllige Auswahl eines Haushalts Idsst sich wiederholen. Aufgrund der wiederholten Beobachtungen konnen dann statistische Schlusse auf die Ver­teilungsfunktion F und ihren Erwartungswert, den arithmetischen Mittelwert aller Einkommen der Grundgesamtheit, gezogen werden.

Im Beispiel 4.1 liegt die Grundgesamtheit G konkret vor. Im nachsten Beispiel ist dies nicht der Fall.

Beispiel 4-2: Wir betrachten die Tagesrendite X einer bestimmten Aktie (das ist die relative Anderung ihres Kurses von einem Handelstag auf den ande-ren). Mit gutem Grund kann man X als Zufallsvariable auffassen. Ein Anle-ger interessiert sich vor allem fiir zwei Parameter, den Erwartungswert und die Standardabweichung von X. Der Erwartungswert entspricht der mittleren Tagesrendite der Aktie, und die Standardabweichung ist ein Mafi fiir ihr Risi-ko. Die Grundgesamtheit ist hier hypothetisch; sie besteht aus alien moglichen Entwicklungen des Aktienmarkts.

Wie ist nun eine einfache Zufallsstichprobe Xi, X2 , . . . ,Xn aus X zu realisie-ren? Hierzu kommen wir auf das Beispiel 4.1 zuriick.

Beispiel 4-^ (Fortsetzung): Als erstes wird ein Haushalt uJi zufdllig ausgewdhlt und sein Einkommen xi = X{uJi) erhoben. Dann wird durch erneute Zufalls-auswahl aus der vollen Gesamtheit G und unabhdngig von der vorigen Zie-hung ein Hauhalt 002 gezogen und sein Einkommen X2 = X{uj2) festgestellt. In dieser Weise fdhrt man fort und erhdlt die Einkommenswerte xi,X2," -iXn-Diese Werte konnen als Realisierung einer Stichprobe X i , X 2 , . . . , Xn aus X aufgefasst werden.

Unabhangigkeit und identische Verteilung der Xi , X 2 , . . . , Xn sind bei diesem Beispiel durch die Vorgehensweise gesichert, indem jedesmal eine Zufallszie-

Page 188: Wahrscheinlichkeitsrechnung und schließende Statistik

4 . 1 . ZUFALLSSTICHPROBEN UND STATISTISCHES SCHLIESSEN 177

hung aus ein und derselben Menge mit denselben Wahrscheinlichkeiten vor-genommen wird. Zur konkreten Realisierung einer solchen Auswahl mit Hilfe von Zufallszahlen siehe Abschnitt 4.4.1.

Eine entsprechende Ziehung lasst sich allerdings nur dann praktisch durch-ftihren, wenn die Untersuchungseinheiten - wie im Beispiel 4.1 die Haushalte - in irgendeiner Form vollstandig aufgelistet sind. Mit anderen Worten, die Grundgesamtheit muss explizit vorliegen. Gerade dies ist jedoch in der Praxis oft nicht der Fall.

Beispiel 4-^' Ein Kosmetikhersteller entwickelt ein neues Herren-Parfum. Als Zielgruppe (= Grundgesamtheit G) definiert die Marketing-Abteilung alle deutschen Manner im Alter von 20 bis 45 Jahren mit hoherer Bildung, gutem Einkommen und ausgeprdgtem Modebewusstsein. Fiir jedes Individuum u) in G sei

y. \ _ j 1, falls u die Duftnote positiv bewertet, ^ ^ \ 0 ^ falls uj die Duftnote nicht positiv bewertet.

Die Marketing abteilung des Herstellers mochte die Akzeptanz der neuen Duft­note anhand der Variablen X uberpriifen. Sie interessiert sich fiir den Anteil der Manner in der Grundgesamtheit, die die Duftnote positiv bewerten. Die-ser Anteil ist gleich IT = P{X = 1). Interessierender Parameter ist also die Wahrscheinlichkeit TT. Eine Liste der Grundgesamtheit G liegt hier nicht vor, ebenso ist ihr Umfang \G\ = N nicht bekannt.

OflFenbar kann man im Beispiel 4.3 nicht wie im Beispiel 4.1 vorgehen. Um eine Stichprobe aus X zu realisieren, miissen Ersatzlosungen gefunden wer-den, die dem zufalligen Ziehen aus einer explizit gegebenen Grundgesamtheit moglichst nahekommen. Fiir entsprechende Stichprobenverfahren sei auf die Literatur am Kapitelende verwiesen.

Beispiel 4-2 (Fortsetzung): Ein Anleger stellt an n aufeinanderfolgenden Ta-gen die Tagesrendite der Aktie fest und erhdlt die Daten xi , X2, . . . , x^. Kann man davon ausgehen, dass sie die Werte einer einfachen Zufallsstichprobe Xi, X 2 , . . . , Xn aus X sind? Hier sind Zweifel angebracht; insbesondere ist nicht auszuschliefien, dass zwi-schen aufeinanderfolgenden Tagen Abhdngigkeiten bestehen, die ihre Ursache in allgemeinen Trends der Borse oder in speziellen Eigenheiten des zur Aktie gehorigen Unternehmens haben.

4.1.2 Statistisches Schliefien

Im Beispiel 4.1 wurde bereits einerseits der Zusammenhang zwischen einer empirischen Verteilung - namlich der aller Haushaltseinkommen - und ihrem

Page 189: Wahrscheinlichkeitsrechnung und schließende Statistik

178 4. STICHPROBEN UND STICHPROBENFUNKTIONEN

Mittelwert und andererseits der Wahrscheinlichkeitsverteilung einer Zufalls-variablen - namlich dem Einkommen eines zufallig ausgewahlten Haushalts - und ihrem Erwartungswert deutlich. Die Auswertung von Daten mittels statistischer Inferenz und die Aufgabe des Statistikers erlautern wir nun an weiteren Beispielen.

Beispiel 4'4- -^^ Rahmen einer Steuerpriifung soil ermittelt werden, wie viel Mehrwertsteuer ein Kaufmann seinen Kunden insgesamt in Rechnung gestellt hat. Die Rechnungen liegen als Belege vor. Da es zu aufwdndig ware, alle Rechnungen zu priifen und daraus die Summe der ausgewiesenen Steuer zu bestimmen, wird die Prufung auf einen Teil der Rechnungen beschrdnkt. Der Statistiker hat nun folgende Fragen zu beantworten:

• Wie Idsst sich aus den Ergebnissen der Teilpriifung die Gesamtsumme schdtzen?

• Welcher Teil der Rechnungen soil ausgewdhlt werden und auf welche Weise?

• Wie umfangreich muss der ausgewdhlte Teil sein?

Beispiel 4-5: Sei X die Temperatur in Koln morgen Mittag um zwolf Uhr. Wie lassen sich aufgrund von frilheren Temperaturaufzeichnungen Aussagen liber X treffen ? Die historischen Temperaturen am gleichen Datum fruherer Jahre werden als Realisation einer Stichprobe aufgefasst. Ihr Mittelwert Idsst sich als Schdtzung fur den Erwartungswert und damit als „Prognose" der morgigen Temperatur verwenden.

Merkmale Allgemein beobachtet man ein oder mehrere Merkmale in ei­ner Grundgesamtheit. Ein Merkmal ist eine prinzipiell beobachtbare und durch eine Zahl beschreibbare Eigenschaft von statistischen Einheiten. Die Grundgesamtheit ist die Menge von statistischen Einheiten, die Trager eines Merkmals sind und liber die etwas ausgesagt wird. Die schhefiende Statistik fasst die Grundgesamtheit als Ergebnismenge Q, auf, das Merkmal als Zu-fallsvariable X und eine Beobachtung des Merkmals als realisierten Wert X von X.

Ein Merkmal kann insbesondere diskret oder stetig, auch quasistetig, sein. Wie in der deskriptiven Statistik unterscheidet man verschiedene Skalenni-veaus: nominal, ordinal und metrisch.

Beispiel 4'^- I^'^r einen bestimmten PKW-Typ sei bekannt, dass die Pan-nenhdufigkeit im ersten Jahr nach der Zulassung 7% betrdgt. Das Ergebnis stammt aus einer Totalerhebung iiber die Garantiefdlle. Man interessiert sich fiir die Pannenhdufigkeit TT im zweiten Jahr und zieht dafiir eine Stichprobe.

Page 190: Wahrscheinlichkeitsrechnung und schließende Statistik

4 . 1 . ZUFALLSSTICHPROBEN UND STATISTISCHES SCHLIESSEN 179

Bei n = 20 zufdllig ausgewdhlten PKW beobachtet man im zweiten Jahr zwei Pannen. Es stellen sich folgende Fragen:

• Ist 7r>7%?

• Was ist ein geeigneter Schdtzwert fur n ?

• Wie genau ist etwa die Schdtzung TT = 0.1 ?

• Wdchst die Genauigkeit mit n ?

• Wie vertrauenswilrdig ist die Angabe eines Intervalls, z.B. 8 % < 7 r < 1 2 % ?

Die erste Prage im Beispiel 4.6 flihrt auf einen Hypothesentest. Solche Tests sind Gegenstand des Kapitels 6.

Die zweite Prage zielt auf die Schatzung des unbekannten Parameters durch eine Zahl, die so genannte Punktschatzung. Verfahren zur Punktschatzung von Parametern enthalt das Kapitel 5. Dort werden auch die dritte und die vierte Prage, namlich die nach der Ungenauigkeit (Streuung) des Schatzers und die nach dem Genauigkeitsvergleich von Schatzern, behandelt. In der funften Prage geht es um die Schatzung des Parameters durch ein Intervall, die so genannte Intervallschatzung. Sie ist ebenfalls Gegenstand des Ka­pitels 5.

Beispiel 4-^ (Fortsetzung): Beim Pannenbeispiel ist Q die Menge aller PKW dieses Typs. Spezifizieren kann man die Grundgesamtheit durch sachliche und zeitliche Einschrdnkungen derart, dass lediglich PKW dieses Typs und eines bestimmten Baujahrs betrachtet werden. Fiir jedes uj E Q sei

falls LO im zweiten Jahr mindestens eine Panne hat,

falls nicht.

Verteilungsannahme Sei X eine auf der Grundgesamtheit Q definierte Zufallsvariable. Beim statistischen Schliefien setzt man haufig voraus, dass die Verteilung von X nicht vollig unbekannt ist. Oft kann man aufgrund von inhaltlichen Uberlegungen davon ausgehen, dass X einer bestimmten Ver-teilungsklasse angehort, wobei der Wert gewisser Verteilungsparameter off en ist. Die Menge ^ der fiir X in Betracht gezogenen Verteilungsfunktionen F bezeichnet man als Verteilungsannahme liber X oder auch als stochasti-sches Model! der Datenentstehung. Durch die Beobachtung einer Stichpro-be aus X werden dann im Rahmen der Verteilungsannahme Informationen iiber die unbekannten Parameter gewonnen.

Page 191: Wahrscheinlichkeitsrechnung und schließende Statistik

180 4. STICHPROBEN UND STICHPROBENFUNKTIONEN

Beispiel 4-7: Sei X die Temperatur in Koln morgen Mittag um zwolf Uhr. Die Grundgesamtheit ist hier wiederum hypothetisch und unendlich; sie hesteht aus der Menge aller moglichen Wetterzustdnde morgen Mittag um zwolf Uhr. Aus physikalischen Griinden macht es Sinn, fiir X als Verteilungsannahme eine Normalverteilung

^Temperatur = {N{fi, Cr^) | ^ G R , CT > 0 } ,

anzusetzen.

Im Beispiel 4-6 lautet eine sinnvolle Verteilungsannahme fiir den unhekann-ten Parameter n:

J^Panne = {B{l,7r)\0<7r<l}.

Dabei ist n die Wahrscheinlichkeit, dass ein zufdllig ausgewdhlter PKW eine Panne hatte. Man nimmt also an, dass X Bernoulli-verteilt ist mit unbe-kanntem Parameters, kurz X ~ 5 ( 1 , TT). Eine Verteilungsannahme, die nur eingeschrdnkte Werte von n zuldsst, die zum Beispiel mindestens 2% und hochstens 30% sind, kann ebenfalls sinnvoll sein, d.h.

•^Pa„„e = {S(l,7r) 10.02 < 7 r < 0.30}.

In den folgenden Kapiteln 5 bis 7 werden wir verschiedene Verteilungsannah-men kennenlernen und sehen, wie sie zur Konstruktion spezieller statistischer Verfahren genutzt werden.

Das Vorgehen der schliefienden Stat is t ik kann man allgemein so be-schreiben:

Aufgrund einer geeigneten Verteilungsannahme (iber X und der beobachteten Werte einer Zufallsstichprobe aus X werden Schllisse tiber die unbekannte Verteilungsfunktion oder iiber be­st immte Verteilungsparameter gezogen.

4.1.3 Stichproben aus endlichen Grundgesamtheiten

Bei vielen statistischen Analysen betrachtet man eine endliche Grundgesamt­heit von Merkmalstragern und interessiert sich fiir die Werte eines bestimm-ten Merkmals. Seien die Merkmalstrager mit i = 1,2,. . . , A bezeichnet und sei Xi der Wert des Merkmals bei Trager i.

Wenn alle a , i = 1,2,.. . , A/", als Beobachtungsdaten vorliegen, hat man eine empirische Verteilung vor sich. Sie lasst sich bezliglich Lage, Streuung und weiterer Aspekte mit Methoden der deskriptiven Statistik beschreiben.

Page 192: Wahrscheinlichkeitsrechnung und schließende Statistik

4 . 1 . ZUFALLSSTICHPROBEN UND STATISTISCHES SCHLIESSEN 181

Oft ist es jedoch nicht moglich oder zu aufwandig, alle Xi zu beobachten. Man wahlt mit Hilfe eines Zufallsmechanismus einen Merkmalstrager aus und beobachtet dessen Merkmalswert; vgl. Beispiel 1.9 im Kapitel 1. Durch die zufallige Auswahl ist dieser Merkmalswert eine Zufallsvariable. Sie wird mit X bezeichnet und besitzt die folgende diskrete Wahrscheinlichkeitsverteilung. Wenn pi die Wahrscheinlichkeit bezeichnet, dass mittels des Zufallsmechanis­mus der Merkmalstrager i ausgewahlt wird, dann nimmt X den Wert Xi mit Wahrscheinlichkeit pi an,

P{X = Xi)=pi.

Erwartungswert und Varianz von X betragen

N N

E[X] = ^XiPi bzw. V[X] = Y.Xip^, - {E[X]f . i=l i=l

Insbesondere, wenn jedes i mit gleicher Wahrscheinlichkeit jj ausgewahlt wird, gilt

E[X] = ^f2x,=x und V[X] = l f ^ : r f - s 2 .

In diesem Fall sind Erwartungswert und Varianz der Wahrscheinlichkeitsver­teilung von X nichts anderes als das arithmetische Mittel und die Varianz der empirischen Verteilung.

Wenn das interessierende Merkmal nur zwei Werte - kodiert mit null und eins - aufweist, besitzt X eine Bernoulli-Verteilung, X ~ J5(l,7r), wobei n der Anteil der Merkmalstrager mit Xi = 1 ist. Der Erwartungswert von X ist dann gleich dem Anteilswert in der Gesamtheit.

Als Nachstes stellen wir die Beziehung zwischen der Ziehung einer Zufalls-stichprobe aus einer endlichen Gesamtheit und der Binomialverteilung bzw. der hypergeometrischen Verteilung her.

Eine Grundgesamtheit bestehe aus N Einheiten, von denen genau M eine bestimmte Eigenschaft aufweisen, wobei 0 < M < N. Man zieht n Einheiten und bezeichnet

'--{o. Y _ J ^ 1 f^lls die an i-tei Stelle gezogene Einheit die Eigenschaft hat, ^^- ^ - falls nicht.

Die Summe Yn = YH=I -^i ^^^ dann die Anzahl der gezogenen Einheiten mit dieser Eigenschaft.

Page 193: Wahrscheinlichkeitsrechnung und schließende Statistik

182 4. STICHPROBEN UND STICHPROBENFUNKTIONEN

• Ziehen mit Zuriicklegen (ZmZ) Wenn die n Einheiten nachein-ander zufallig, d.h. mit gleicher Auswahlwahrscheinlichkeit, und mit Zuriicklegen gezogen werden, dann ist Xi , X 2 , . . . , Xn eine einfache Zu-fallsstichprobe aus X ~ jB(l,7r = ^ ) , und es gilt (vgl. Abschnitt 2.3.1)

• Ziehen ohne Zuriicklegen (ZoZ) Wenn die n Einheiten nachein-ander zufallig, d.h. mit gleicher Auswahlwahrscheinlichkeit, und ohne Zuriicklegen gezogen werden, dann ist X i , X 2 , . . . , X ^ eine Zufallsstich-probe aus X ^ -B(l,7r = ^ ) , jedoch keine einfache Zufallsstichprobe. Die Zufallsvariablen, die man durch Ziehen ohne Zuriicklegen erhalt, sind lediglich identisch verteilt, aber nicht unabhangig; vgl. das Bei-spiel 3.2.b im Abschnitt 3.1.1. Beim Ziehen ohne Zuriicklegen ist Y^ hypergeometrisch verteilt (Abschnitt 2.3.4),

In der statistischen Praxis wird fast immer ohne Zuriicklegen gezogen. Wenn der Auswahlsatz ^ nicht zu grofi ist (Faustregel: ^ < 0.05), besteht wegen der Annaherung der hypergeometrischen Verteilung an die Binomialvertei-lung kein wesentlicher Unterschied zwischen den beiden Arten der Ziehung.

4.2 Stichprobenfunktionen (Statistiken)

Alle in den folgenden Abschnitten beschriebenen statistischen Verfahren be-ruhen auf Zufallsstichproben aus einer oder mehreren Zufallsvariablen. Eine Stichprobe Xi, ^ 2 , . . . , X^ aus X geht jedoch zumeist nicht direkt, sondern iiber eine Funktion

g{Xi,X2,... ,Xn)

in das Verfahren ein, wobei g eine reellwertige Funktion von n Variablen darstellt. ^ (Xi ,X2 , . . . ,Xn) ist selbst eine Zufallsvariable und wird Stich-probenfunktion oder auch Statistik genannt.

Stichprobenmittel und Stichprobenvarianz Wichtige Stichproben­funktionen, die im Folgenden haufige Verwendung finden werden, sind das Stichprobenmittel und die Stichprobenvarianz. Sei X eine Zufallsvariable und

Page 194: Wahrscheinlichkeitsrechnung und schließende Statistik

4.3. STATISTIKEN BEI NORMALVERTEILTER STICHPROBE 183

X i , X 2 , . . . ,Xn eine Stichprobe aus X. Das arithmetische Mittel der Beob­achtungen,

1 ""

i = l

heifit St ichprobenmit te l . Die Statistik

^ n 1 ^

5' = iE(^.-^^ = ^E^ X i=\ i=.\

nennt man Stichprobenvarianz. Das Stichprobenmittel ist das arithmeti­sche Mittel der einzelnen zufalligen Beobachtungen einer Stichprobe, und die Stichprobenvarianz ist die zugehorige Varianz.

Speziell wenn X Bernoulli-verteil t ist, nehmen alle Xi nur die Werte 0 und 1 an. In diesem Fall stellt X den Anteil der Einsen und n X die Anzahl der Einsen in der Stichprobe dar. Es gilt dann auch Xi = Xf und daher

1 _^_ 52 = i ^ X i - X^ = X - X^ = Z ( l - X ) .

4.3 Statistiken bei normalverteilter Stich­probe

Wenn eine Stichprobe einer normalverteilten Zufallsvariablen entstammt, las-sen sich die Verteilungen des Stichprobenmittels und der Stichprobenvarianz genau angeben. Sei X ~ N{fi,cr'^), und sei Xi,X2, . . . yXn eine Stichprobe aus X. Eine solche Stichprobe nennen wir normalver te i l te St ichprobe. Dann gilt fiir das Stichprobenmittel

X - AT U ,

und fiir das s tandardis ier te St ichprobenmit te l

X -fi V n - A ^ ( 0 , l ) .

Page 195: Wahrscheinlichkeitsrechnung und schließende Statistik

184 4. STICHPROBEN UND STICHPROBENFUNKTIONEN

/ Q ( ^ )

10 11 12

Abbildung 4.1: Dichte der x?-Verteilung mit i/ == 1,2 bzw. 5 Freiheitsgraden

4.3.1 Chi-Quadrat-Verteilung

Seien C/i, U2, -.. ,Ui, unabhangige A^(0, l)-verteilte Zufallsvariable. Dann be-sitzt Q = Yl^z=i Uf eine x^-Verteilung (Chi-Quadrat-Verteilung) mit Parameter i/, in Zeichen:

Q = Y^Uf x^ i=l

Der Parameter u wird auch als Anzahl der Freiheitsgrade bezeichnet. Die X^-Verteilung ist eine stetige Verteilung auf [0, 00[. Ihre Dichte fiir i/ = 1,2 und 5 ist in Abbildung 4.1 dargestellt. Wie man sieht, ist die Verteilung asym-metrisch und rechtsschief. Der Trager einer x^-verteilten Zufallsvariablen Q ist TQ = [0,oo[, ihr Erwartungswert und ihre Varianz sind

E[Q] = i^ und V[Q] = 2iy.

Das p-Quantil einer x^-Verteilung wird mit xi,p bezeichnet. Die wichtigsten Quantile xtp sind in Tabelle 5 des Anhangs tabelliert. Siehe auch ^-^ Ex­cel/SPSS.

Page 196: Wahrscheinlichkeitsrechnung und schließende Statistik

4.3. STATISTIKEN BEI NORMALVERTEILTER STICHPROBE 185

Sei nun X i , . . . , X „ eine Stichprobe aus X ~ N{fi,a'^). Aus der Definition der Chi-Quadrat-Verteilung folgt, dass

E Weiter lasst sich zeigen, dass

Xi- /^ Xn '

<T2

1 "

2 = 1 ^ ^

gilt. Die Stichprobenvarianz 5^ ist demnach verteilt wie das ^-fache einer X^_ i~verteilten Zufallsvariablen.

4.3.2 t-Verteilung

Seien U und Q stochastisch unabhangig, U ~ N{0,1) und Q ~ x^ • ^^ Ver-teilung von W = -^V^ heifit ^Vertei lung (auch Student-Verteilung^) mit Parameter i/, in Zeichen:

^'7Q^ u.

Wie bereits bei der x^-Verteilung, wird der Parameter iy der t-Verteilung als Anzahl der Freihei tsgrade bezeichnet. Fiir W ^ ti^ gilt

E[W] = 0, falls 1/ > 2, und V[W] = v-2

, falls 1/ > 3 .

Der Trager von W ist Tw = M.

Die Dichte der t-Verteilung (siehe Abbildung 4.2) ahnelt der Dichte der Standard-Normalverteilung. Sie ist wie diese symmetrisch zu null. An den Flanken weist die t^-Dichte allerdings mehr Masse als die Ar(0, l)-Dichte auf. In der Mitte verlauft sie flacher. Mit wachsender Anzahl y der Preiheitsgrade konvergiert die t-Verteilung gegen die Standard-Normalverteilung. Es gilt

P{W < w) ""^^ ^w) fur alle weR.

Fill nicht zu kleine Preiheitsgrade i^ benutzt man daher die Approximation

W'^S'-N (0,1).

^Student ist das Pseudonym, unter dem der englische Chemiker William Sealy Gosset (1876-1937) publizierte.

Page 197: Wahrscheinlichkeitsrechnung und schließende Statistik

186 4. STICHPROBEN UND STICHPROBENFUNKTIONEN

fw{x)

-3 -2 -1 *- X

Abbildung 4.2: Dichte der t-Verteilung mit 1 bzw. 4 Freiheitsgraden sowie Dichte der Ar(0, l)-Verteilung

Als Faustregel fur die Zulassigkeit der Approximation verwenden wir z > 40.

Das p-Quantil von W wird mit tj^^p bezeichnet. Ausgewahlte Quantile sind in Tabelle 6 tabelliert. Zur Berechnung am Computer siehe auch -> Ex­cel/SPSS. Zur Illustration des Unterschieds zwischen einer ^ly-Verteilung und der Standard-Normalverteilung vergleichen wir einige Quantile:

p = 0.950 p = 0.995

^20,p

1.7247 2.8453

^30,p

1.6973 2.7500

^40,p

1.6839 2.7045

Up

1.6449 2.5758

t40,p

0.023 0.048

Wie man sieht, fallen die t-Quantile monoton mit wachsendem ly und nahern sich den entsprechenden A''(0,1)-Quantilen. Die letzte Spalte enthalt den rela-tiven Approximationsfehler von ^4o,p. Er wachst mit p, bei p = 0.950 betragt er 2.3%, bei p = 0.995 bereits 4.8%.

Flir eine Stichprobe X i , . . . , X ^ aus N{/i,cr^) betrachten wir

U cr A/'(0,1) und Q nS^

Xn-l

Man kann zeigen, dass U und Q stochastisch unabhangig sind. Es ist

Q n - 1

_a_ _n^__ y/Ti ' V a2(n - 1)

V n - 1,

Page 198: Wahrscheinlichkeitsrechnung und schließende Statistik

4.3. STATISTIKEN BEI NORMALVERTEILTER STICHPROBE 187

also

X-

s II

^Vn- -1 r\j ^n- -1 •

Diese Formel wird in den Schatz- und Testverfahren der folgenden Kapitel eine grofie Rolle spielen.

4.3.3 F-Verteilung

Seien Qn und Qm zwei unabhangige x^-verteilte Zufallsvariable, Q„ ~ Xn und Qm ^ Xm- ^ i ^ Verteilung des Quotienten Z aus ^ und ^ nennt man^ F-Vertei lung mit n und m Preiheitsgraden, in Zeichen:

Man bezeichnet n als die Anzahl der Zahlerfreiheitsgrade und m als die Anzahl der Nennerfreiheitsgrade. Der Trager von Z ist Tz = [0,oo[. Es gilt

E[Z] =

V[Z] =

m falls m > 3 , m - 2 2m2(n + m - 2 )

n ( m - 2 ) 2 ( m - 4 ) ' falls m > 5.

(4.0)

Die F-Verteilung ist eine stetige Verteilung; Abbildung 4.3 stellt ihre Dichte fiir verschiedene n und m dar.

Ausgewahlte Quantile der F-Verteilung findet man in Tabelle 7. Zur Berech-nung am Computer siehe auch -> Excel/SPSS. Fiir grofie m lasst sich die Fn,m-Verteilung durch die x^-Verteilung approximieren. Es gilt namlich (fiir jedes feste n)

P(Z <z) ""-^ p ( ^ < z \ = FQJUZ) .

Die F-Verteilung wird zum Vergleich von Streuungen verwendet. Dabei nutzt man insbesondere den folgenden Sachverhalt aus: Sei X i , . . . , Xn eine Stich­probe aus X^N{fix^o-'x) und Yi,.., ^Ym eine Stichprobe aus y~A/'(/iy,cry).

2 Die F-Verteilung ist nach Ronald Aylmer Fisher (1890-1962) benannt.

Page 199: Wahrscheinlichkeitsrechnung und schließende Statistik

188 4. STICHPROBEN UND STICHPROBENFUNKTIONEN

fzix)

Abbildung 4.3: Dichten der F-Verteilung (von links) mit (n^m) = (2,10), {n^m) — (10,10) und {n,m) = (10,50)

Beide Stichproben seien unabhangig. Dann ist

^ n - 771

und die beiden Grofien sind unabhangig. Der folgende Quotient ist F-verteilt mit n — 1 und m — 1 Freiheitsgraden,

(n -

(m

1 - 1 ) .

1

- 1 )

n V (Y

_2 2^ \^^ m V (V

-X)^

-F)^ ~ Fn-- l , m - l •

Page 200: Wahrscheinlichkeitsrechnung und schließende Statistik

4.4. ERGANZUNGEN 189

4.4 Erganzungen

4.4.1 Verwendung von Zufallszahlen

Dieser Abschnitt behandelt die konkrete Durchfiihrung einer Zufallsstichpro-be aus einer endlichen Gesamtheit mit Hilfe von Zufallszahlen.

Viele Programmsysteme und Tabellenkalkulationsprogramme wie z.B. Excel enthalten einen so genannten Zufallszahlengenerator. Dieser Generator liefert eine Folge zi,... ,Zn von Zufallszahlen, die als Realisationen un-abhangiger, identisch i?(0, l)-verteilter Zufallvariablen Z i , . . . , Z i angesehen werden konnen. Mit Hilfe solcher Zufallszahlen lassen sich Beobachtungsein-heiten aus einer gegebenen Grundgesamtheit auswahlen.

Beispiel 4-8: Aus einer Population, die aus 750 Personen besteht, sollen fiinf Personen auf zufdllige Weise ausgewdhlt werden. Zu diesem Zweck numme-rieren wir die Personen von 1 bis 750 und erzeugen mit einem Zufallszahlen­generator fiinf Zufallszahlen, beispielsweise die Zahlen

0.357628, 0.984527, 0.756239, 0.623854, 0.423651.

Diese werden nun jeweils mit der Gesamtzahl 750 multipliziert und zur ndchst-grofieren ganzen Zahl aufgerundet. Man erhdlt

269, 739, 568, 468, 318.

Entsprechend werden die Personen mit den Nummern 269,739,568,468 und 318 ausgewdhlt.

Mit dem eben beschriebenen Verfahren erhalt man allerdings eine Auswahl mit Zuriicklegen. Mochte man eine Auswahl ohne Zuriicklegen realisieren, so wird eine Zufallszahl, die die Nummer einer bereits ausgewahlten Per­son ergibt, ignoriert und eine weitere Zufallszahl erzeugt. Zur Auswahl von n Personen mtissen dann gegebenenfalls mehr als n Zufallszahlen generiert werden.

4.4.2 Weitere Verfahren der Stichprobenauswahl

Das zufallige Ziehen mit oder ohne Zuriicklegen aus einer endlichen Gesamt­heit wird auch als reine Stichprobenauswahl bezeichnet. In der angewand-ten Statistik sind - aufier der reinen Stichprobenauswahl - vor allem folgende Verfahren der Stichprobenauswahl iiblich: die Schichtenauswahl, die Klum-penauswahl, die Auswahl von Flachenstichproben sowie mehrstufige Verfah­ren, die verschiedene Stichprobenauswahlen kombinieren.

Page 201: Wahrscheinlichkeitsrechnung und schließende Statistik

190 4. STICHPROBEN UND STICHPROBENFUNKTIONEN

Bei der Schichtenauswahl wird die Grundgesamtheit zunachst anhand ei­nes Hilfsmerkmals in disjunkte Teilgesamtheiten, genannt Schichten, zer-legt. Das Hilfsmerkmal wird dabei so gewahlt, dass die Schichten beztighch des zu untersuchenden Merkmals moghchst homogen sind. Innerhalb jeder Schicht ftihrt man nun eine Zufallsauswahl durch, evtl. mit unterschiedh-chem Auswahlsatz. Auf diese Weise lasst sich insbesondere der Mittelwert des Merkmals genauer schatzen, als dies bei ungeschichteter Stichprobenaus-wahl der Fall ware. Eine Schichtung kann auch auf mehreren Hilfsmerkmalen basieren.

Beispiel 4.9: In einer Gesamtheit von Betrieben soil der durchschnittliche Ge-winn geschdtzt werden. Es liege eine Liste aller Betriebe der Gesamtheit und ihrer Groflenklasse (Anzahl der Beschdftigten) vor. Dann ist eine Schichtung gemdfi der Grofienklassen sinnvoll.

Bei der Klumpenauswahl wird die Grundgesamtheit ebenfalls zunachst voUstandig in disjunkte Teilmengen zerlegt. Von diesen Teilmengen, genannt Klumpen, werden einige zufallig ausgewahlt und dann samtliche darin ent-haltenen Untersuchungseinheiten beobachtet. Die Klumpen werden in der Kegel nach praktischen Gesichtspunkten zusammengestellt, um die Erhebung der Daten zu vereinfachen.

Beispiel 4-^0: Die fiir die Bundestagswahl gebildeten Wahlbezirke stellen ei­ne Zerlegung des Gebiets der Bundesrepublik dar. Eine Liste der Wahlbe-rechtigten eines Bezirks ist bei der zustdndigen Gemeinde erhdltlich. In der Marktforschung werden hdufig Wahlbezirke als Klumpen ausgewdhlt und eine Auswahl der dort Wahlberechtigten befragt.

Eine Klumpenauswahl wie im Beispiel 4.10 wird Flachenstichprobe ge­nannt. Hierbei zerlegt man den geografischen Raum, in dem sich die Unter­suchungseinheiten befinden, in Teilflachen und bildet entsprechende Klumpen von Untersuchungseinheiten.

Kombinationen der genannten Stichproben werden vielfaltig angewandt, etwa mehrstufige Flachenstichprobe oder Klumpenauswahlen mit nachfolgender Schichtung.

In der empirischen Sozialforschung werden haufig so genannte Quotenstich-proben verwendet. Eine Quotenstichprobe geht von einer Schichtung der Grundgesamtheit nach mehreren Hilfsmerkmalen aus. Die Auswahl innerhalb der einzelnen Schichten erfolgt dann aufs Geratewohl.

Beispiel ^.ii.* Bei Meinungsumfragen werden unter anderen die Hilfsmerk-male Geschlecht, Alter, Berufsgruppe und Wohnortgrofle verwendet. Die ge-meinsame Verteilung dieser Merkmale in der gesamten Bevolkerung ist be-kannt. Auf ihrer Basis bildet man Schichten. Der Interviewer sucht in jeder Schicht aufs Geratewohl die Anzahl von Personen aus, die ihrem Anteil in der Bevolkerung entspricht.

Page 202: Wahrscheinlichkeitsrechnung und schließende Statistik

4.4. ERGANZUNGEN 191

Bei der Schichtenauswahl und der Klumpenauswahl lasst sich die Wahrschein-lichkeit, dass eine gegebene Untersuchungseinheit in die Quotenstichprobe kommt, quantifizieren. Auf dieser Wahrscheinlichkeitsbasis kann man dann Schltisse im Sinne der statistischen Inferenz Ziehen, wie sie in den folgen-den Kapiteln fiir einfache Zufallsstichproben beschrieben werden. Fiir Quo-tenstichproben gilt dies nicht, da hier die Wahrscheinlichkeit, dass eine be­st immte Untersuchungseinheit in die Stichprobe aufgenommen wird, nicht bestimmt werden kann.

Fiir Einzelheiten dieser Verfahren sei auf das Lehrbuch Krug et al. (2001) verwiesen, ferner auf Bausch (1990) und StatBundesamt (1960).

Erganzende Literatur zu Kapitel 4:

Probleme der Gewinnung von Daten und der konkreten Stichprobenziehung werden in vielen Standardlehrbiichern der Statistik - wenn iiberhaupt - nur am Rande abgehandelt. Eine Ausnahme bildet das Kapitel V in Hartung et al. (2002). Die Gewinnung von wirtschaftsstatistischen Daten behandelt Krug et al. (2001). Zu erwahnen ist hier auch die Monographie des Statistischen Bundesamts iiber Stichproben in der amthchen Statistik (StatBundesamt, 1960). Stichprobenverfahren in der Markt- und Umfrageforschung behandeln Bausch (1990) und ADM (1999).

Die Stichprobentheorie befasst sich in systematischer Weise mit den Moglich-keiten statistischer Inferenz auf der Basis von anderen Zufallsstichproben als der im vorliegenden Lehrbuch ausschlieBlich betrachteten reinen Zufallsstich-probe. Empfehlenswert sind Cochran (1977), Pokropp (2002a) und Stenger (1971, 1986). Neueste Methoden enthalten die Monografien von Thompson (2002) und Thompson und Seber (1996).

Page 203: Wahrscheinlichkeitsrechnung und schließende Statistik

192 4. STICHPROBEN UND STICHPROBENFUNKTIONEN

4.5 Anhang: Verwendung von Excel und SPSS

Zur Chi-Quadrat-Verteilung (Abschnitt 4.3.1):

Excel I Excel bietet die Funktion CHIVERT(x;Freiheitsgrade) an, die die Uber-lebensfunktion P{Q > x) fm Q ^ Xn^ '^ — Freiheitsgrade berechnet. Beispiels-weise gilt fiir Q ^ xl

P{Q < 0.5) = 1 - CHIVERT(0,5;1) = 0.5205.

Ferner wird mit der „modifizierten Quantilfunktion" CHIINV(Wahrsch; Freiheitsgrade) Wahrsch= p und Freiheitsgrade = n, das (1 — p)-Quantil der X^-Verteilung berechnet, beispielsweise

90.75 = CHIINV(1-0,75;1) = CHIINV(0,25;1) - 1.3233.

SPSS I Die Losung der Beispielaufgabe erfolgt in SPSS mit Hilfe der Funk-tionenfamilie *.CHISQ(q,df):

CDF.CHISQ(0.5,1) = 0.5205

IDF.CHISQ(0.75,1) = 1.3233

Zur t-Verteilung (Abschnitt 4.3.2):

Excel I Excel bietet sowohl die t-Verteilung als auch die t-Quantile an. Die Namen der Funktionen sind TVERT(x;Freiheitsgrad;Seiten) fiir die Uberle-bensfunktion sowie TINV(Wahrsch; Freiheitsgrade) fiir eine „zweiseitige modi-fizierte Quantilfunktion". Beispiele zur Verwendung dieser Funktionen sind fiir W ^ ts

P{W < 1) = 1 - TVERT(1;5;1) = 0,8184,

W0.99 = TINV(0,02;5) = 3.3649.

Bei Excel 2000 steuert die Option Seiten, welche Wahrscheinlichkeit berech­net wird. Setzt man etwa x=2.3 und Seiten^l wird die Wahrscheinlichkeit P{W > 2.3) berechnet. Mit Seiten=2 erhalt man dagegen die Wahrschein­lichkeit P(|V(^| > 2.3). Diese Wahrscheinlichkeiten sind die p-Werte eines einseitigen bzw. zweiseitigen t-Tests (siehe Anhang zu Kapitel 6). Bei der „Quantilfunktion" TINV gibt es diese Option nicht; es wird immer das „zwei-seitige obere" Quantil berechnet.

SPSS I Anders als bei Excel wird durch die entsprechenden SPSS-Funktionen die Verteilungsfunktion und die gewohnliche Quantilfunktion berechnet. Zah-lenbeispiele fiir W ^ t^ sind

CDF.T(1.0,5) = P{W < 1.0) = 0.8184, IDF.T(0.99,5) = 3.3649.

Page 204: Wahrscheinlichkeitsrechnung und schließende Statistik

4.5. ANHANG: VERWENDUNG VON EXCEL UND SPSS 193

Zur F-Verteilung (Abschnitt 4.3.3):

Excel I Excel stellt auch die Uberlebensfunktion und eine „modifizierte Quan­tilfunktion" der F-Verteilung bereit,

FVERT(X;Freiheitsgradel;Freiheitsgrade2) = Uberlebensfunktion, FINV(Wahrsch;Freiheitsgradel;Freiheitsgrade2) = „mod. Quantilfunktion" .

Sei beispielsweise Z ~ F(l ;29). Dann ist

P ( Z < 1) = 1 - FVERT(1;1;29) = 0.6744,

P ( Z < 5) = 1 - FVERT(5;1;29) = 0.9668.

Median ZQ.S und oberes Quartil ^o.75 ergeben sich aus

; o.5 = FINV(0,5;1;29) = 0.4665,

^0 75 = FINV(0,25;1;29) = 1.3780,

wobei analog zur x^-Quantilfunktion \—p statt p als Argument eingegeben werden muss.

SPSS] SPSS bietet im Rahmen der Punktionenfamilie *.F(q,dfl,df2) sowohl die Verteilungsfunktion als auch die Quantilfunktion der F-Verteilung. Sei Z ~ F ( 1 ; 2 9 ) . Dann ist

P ( Z < 1) = CDF.F(1,1,29) = 0.6744,

P[^Z < 5) = CDF.F(5,1.29) = 0.9668.

Median und xo.75 ergeben sich aus

Z0.5 = IDF.F(0.5,1,29) =0.4665,

20.75 = IDF.F(0.75,1.29) = 1.3780.

Page 205: Wahrscheinlichkeitsrechnung und schließende Statistik

Kapitel 5

Schatzverfahren fiir Parameter

Haufig stellt sich das Problem, unbekannte Grofien aus Daten zu schatzen. Wenn die Daten als Realisation einer Stichprobe aus einer Zufallsvariablen X angesehen werden konnen und die unbekannte GroBe ein Parameter der Ver-teilung von X ist, fiihrt dies auf das folgende Parameterscha tzproblem: Der Wert des unbekannten Verteilungsparameters ist durch einen von den Daten abhangigen Schatzwert anzunahern. Ein solcher Schatzwert ist der Wert einer geeigneten Stichprobenfunktion. Anstatt eines Schatzwerts kann man auch ein Intervall von Schatzwerten so bestimmen, dass es den Para­meter nach Moglichkeit einschliefit. Die Angabe eines Schatzwerts wird als Punktschatzung bezeichnet, die eines Intervalls von Schatzwerten als In-tervallschatzung.

Mit Hilfe der Wahrscheinlichkeitsrechnung lassen sich verschiedene Stichpro-benfunktionen im Hinblick auf das Schatzproblem beurteilen und vergleichen. Insbesondere lasst sich prazisieren, inwiefern wirklich ein Riickschluss von der Stichprobe auf den unbekannten Wert des Parameters stattfindet.

5.1 Punktschatzung

In diesem Abschnitt gehen wir von einer Zufallsvariablen X aus, deren Ver-teilungsfunktion F ganz oder teilweise unbekannt ist. Aufgabe ist die Punkt­schatzung eines unbekannten Parameters der Verteilung, d.h. seine Schat-zung durch Angabe eines Schatzwerts. Der Parameter wird allgemein mit 6

195

Page 206: Wahrscheinlichkeitsrechnung und schließende Statistik

196 5. SCHATZVERFAHREN FUR PARAMETER

bezeichnet. Bei speziellen Verteilungen werden jedoch die im Kapitel 2 ein-gefiihrten Bezeichnungen der Parameter verwendet.

Der Parameter 9 kann auch mehrdimensional sein. Einen zweidimensionalen Parameter schreibt man in der Form 0 = (^1,^2)' Beispiele von eindimen-sionalen Parametern sind /i = E[X], a = y/V[X] und der Median XQ.S- Ein zweidimensionaler Parameter ist zum Beispiel 6 = {E[X],V[X]).

Um 0 zu schatzen, wird eine Stichprobe Xi , X 2 , . . . , X„ aus X gezogen. Ihre Werte (= Realisierungen) werden mit xi ,a:2, . . . ,Xn bezeichnet.

Beispiel 5.1: Ein Journalist interessiert sich fiir die monatlichen Ausgaben (ohne Ausgaben fiir Wohnung) der Studierenden an einer Privatuniversitdt, insbesondere fiir deren durchschnittliche Ausgaben, den Median und die bei-den weiteren Quartile der Ausgaben, sowie den Anteil der Studierenden mit monatlichen Ausgaben von mehr als 1000 €. Diese fiinf Grofien mochte er auf der Basis einer Stichprobe aus X schdtzen. Dabei ist

X = monatliche Ausgaben (ohne Wohnungsausgaben, in €) eines zufdllig ausgewdhlten Studierenden der Privatuniversitdt.

Den interessierenden Grofien entsprechen offenbar die folgenden Parameter der Verteilung:

^1 = l^x, der Erwartungswert von X, ^2 = ^0.5? d^f^ Median von X, ^3 = ^0.25 und 64 = X0.75, das untere und das obere Quartil von X, 65 = TT = P{X > 1000), die Wahrscheinlichkeit, einen Studierenden mit Ausgaben von mehr als als 1000 € zu Ziehen.

Sie werden zum Parametervektor 6 = (/^x?^0.5^^0.255^0.755TT) zusammenge-fasst.

Eine Stichprobe aus X vom Umfang n = 50 ergab die folgenden Werte (in €):

309 661 236 1130 1288 1380 761 487 577 310 714 611 678 637 694 459 286 458 567 1010 398 107 951 1244 442 494 1082 827 727 252 234 561 797 1201 225 363 676 805 203 936 168 558 336 779 354 150 340 837 237 460

Die Verbindung zwischen der Stichprobe und dem Punktschatzwert fiir 0 bil-den Stichprobenfunktionen. Man versucht, dem unbekannten 6 durch den Wert einer Stichprobenfunktion ^ (Xi ,X2, . . . ,Xn) nahezukommen. Ei­ne solche Stichprobenfunktion heifit Schatzer fiir 0, ihren realisierten Wert 9{xi^X2j..., Xn) nennt man Schatzwert fiir 9.

Page 207: Wahrscheinlichkeitsrechnung und schließende Statistik

5 .1 . PUNKTSCHATZUNG 197

In der Regel schreibt man 6 fiir den Schatzer ebenso wie fur den Schatzwert. Der Unterschied ergibt sich aus dem Zusammenhang. Man beachte jedoch, dass der Schatzer 6 = 0{Xi^..., Xn) eine Zufallsvariable ist. Er kann mit den Methoden der Wahrscheinhchkeitsrechnung beurteilt werden. Demgegeniiber ist der Schatzwert 9 = 0{xi,..., x„) eine Zahl. Betrachtet man den Schatzer bei verschiedenen Stichprobenumfangen n, schreibt man statt 6 auch 6^,.

Es ist klar, dass ein Schatzer 0 den zu schatzenden Parameter 9 in der Regel nicht exakt triflFt. Abhangig von der konkreten Realisation der Stichprobe ist sein Wert grofier oder kleiner als der gesuchte Wert ^. Da ^ eine Zufalls­variable ist, sind jedoch mittels der Wahrscheinlichkeitsrechnung Aussagen dartiber moglich, in welcher Weise 9 um 9 schwankt. Dies wird im Folgenden weiter erlautert.

5.1.1 Unverzerrtheit und Konsistenz

Da grundsatzlich mehrere Stichprobenfunktionen als Schatzer fiir 9 in Frage kommen, braucht man Kriterien, die angeben, was einen „besseren" Schatzer von einem „schlechteren" unterscheidet. In diesem Abschnitt werden wir zwei Qualitatskriterien formulieren, mit deren Hilfe Schatzer beurteilt und vergli-chen werden konnen.

Eine wiinschenswerte Eigenschaft eines Schatzers besteht darin, dass er kei-nen systematischen Schatzfehler aufweist. Sie lasst sich wie folgt prazisieren:

Ein Schatzer 9 — 9{Xi,..., Xn) fiir 9 heiCt unverzerrt (auch: erwartungs-treu, englisch: unbiased), wenn sein Erwartungswert in jedem Fall gleich dem unbekannten Parameter ist, d.h., wenn fiir alle moglichen Werte von 9

E[9{Xu,,,,Xn)] = 9

gilt. Die Differenz

b{9) = E[9] - 9

heifit Verzerrung (englisch: bias) von 9, Die Grofie

MSE{9) = E[{9 - 9f

misst das AusmaB der erwarteten quadratischen Abweichung des Schatzers vom Parameter. Sie wird mittlerer quadratischer Fehler genannt (eng­lisch: Mean-Squared-Error). Ist 9 erwartungstreu, so ist wegen E[9] = 9

MSE{9) = E[{9 - 9f] = E[{9 - E[9]f] = V[9].

Page 208: Wahrscheinlichkeitsrechnung und schließende Statistik

198 5. SCHATZVERFAHREN FUR PARAMETER

Bei einem erwartungstreuen Schatzer stimmen also mittlerer quadratischer Fehler und Varianz iiberein.

Bevor wir zu den speziellen Schatzproblemen kommen, soil eine weitere Ei­genschaft angefiihrt werden, die jeder „vernunftige" Schatzer aufweisen sollte.

Der Schatzer 9n = 6n{X 1^X2^... ,X^) sei fur jede Stichprobenlange n defi-niert. Der Schatzer heifit konsistent fur 0, wenn er nach Wahrscheinlichkeit gegen 6 konvergiert,

p l i m ^ n ( ^ i , ^ 2 , . . . , ^ n ) = ^,

das heifit ausfuhrlicher, wenn ftir ein beliebig vorgegebenes e > 0

lim P{\en{XuX2^...,Xn)-e\<e) = l

ist. Konsistenz besagt anschaulich, dass sich die Verteilung des Schatzers mit zunehmendem Stichprobenumfang n immer mehr auf den zu schatzenden Wert 6 zusammenzieht und dass die Wahrscheinlichkeit, den Parameter um mehr als einen beliebig kleinen Wert e zu verfehlen, mit wachsendem Stich­probenumfang gegen null geht.

Einen Schatzer, dessen Verzerrung ftir n —> 00 gegen null geht,

lim E\en-0] = 0,

nennt man asymptotisch unverzerrt oder asymptotisch erwartungs-treu. Eine ftir die Konsistenz hinreichende (aber nicht notwendige) Bedin-gung ist: Ein Schatzer 6n ist dann konsistent, wenn ftir n —> 00 sowohl die Varianz als auch die Verzerrung von 6n gegen null gehen, d.h.

lim V n-^oo

On = 0 und lim E n—*oo

On = 0.

Sowohl die Unverzerrtheit als auch die Konsistenz sind wunschenswerte Ei-genschaften eines Schatzers. Unverzerrtheit ist eine Eigenschaft von On^ die sich auf einen festen Stichprobenumfang n bezieht. Konsistenz ist dagegen ei­ne so genannte asymptotische Eigenschaft, welche voraussetzt, dass man grundsatzlich beliebig lange Stichproben in Betracht Ziehen kann.

5.1.2 Schatzung von Erwartungswerten

Fiir eine Zufallsvariable X mit unbekannter Verteilung ist der Erwartungs-wert ji = E[X] zu schatzen. Hierftir stehe eine Stichprobe Xi , ^ 2 , . . . , Xn aus

Page 209: Wahrscheinlichkeitsrechnung und schließende Statistik

5 .1 . PUNKTSCHATZUNG 199

X zur Verfiigung. Ein geeigneter Schatzer ftir (JL = E[X] ist das Stichpro-benmittel

X 1 '^

n ^ i==l

Wir zeigen, dass X unverzerrt ftir /i ist. Es gilt

E[X] = E n "^ n ^ n

i = l i=\

d.h. X ist unverzerrt ftir /x. Da X unverzerrt ist, stimmt der mittlere quadra-tische Fehler von X mit der Varianz uberein. Er ist gleich

MSE{X) = V[X] = V - E ^ ^ =^J2v[Xi] = -V[X]. i=l i=l

Wenn V[X] = a^ bekannt ist, kann man daraus V\X\ — ^ berechnen. Zur Schatzung von a^ siehe Abschnitt 5.1.4.

Offenbar wird die Varianz von X bei grofierem Stichprobenumfang n kleiner. Mit wachsendem n wird die Schatzung in diesem Sinne genauer. Naheres zum Vergleich der Genauigkeit von Schatzern findet man im Abschnitt 5.5.2.

Die Konsistenz von X fiir fx folgt direkt aus dem Schwachen Gesetz der grofien Zahlen; siehe Abschnitt 3.2.1. Dieses besagt gerade, dass

p lim X = fi.

Beispiel 5.1 (Fortsetzung): X ist erwartungstreu fiir jix - Aus den Daten ergibt sich der Schdtzwert x = 599.94 € .

5.1.3 Schatzung von Wahrscheinlichkeiten und Anteils-werten

In diesem Abschnitt soil der Parameter TT einer jB(l,7r)-verteilten Zufallsva-riablen X geschatzt werden. Wiederum stehe eine Stichprobe X i , . . . , X n aus X zur Verfiigung. Wegen E[X] = n ist

7r = X 1 ""

i=l

Page 210: Wahrscheinlichkeitsrechnung und schließende Statistik

200 5. SCHATZVERFAHREN FUR PARAMETER

ein geeigneter Schatzer flir TT. Dieser ist, wie in Abschnitt 5.1.2 gezeigt wurde, erwartungstreu und konsistent. ft ist gleich dem Anteil der Stichprobenele-mente mit Xi = 1. Fiir die Varianz von n gilt

n n

Fiir die Schatzung von V[k] sei auf Abschnitt 5.1.4 verwiesen.

Beispiel 5.2: Bezeichne n den Anteil der Raucherinnen unter den weibli-chen Studierenden der Universitdt zu Koln. Fine Studentin wird zufdllig aus-gewdhlt. Sei

^ _ J 1, falls die Studentin raucht, 1 0, falls die Studentin nicht raucht.

Dann ist n = P{X = 1).

In einer Stichprobe vom Umfang n = 20 befinden sich vier Raucherinnen. Als Schdtzwert erhalten wir demnach TT = ^ = 0.2.

Beispiel 5.1 (Fortsetzung): Hier bezeichnet Xi die Ausgaben des i-ten Stu­dierenden in der Stichprobe. Urn TT = P{X > 1000) = P{Xi > 1000) zu schdtzen, setzen wir

^ . 1, falls Xi > 1000, ' ~ ^ 0, falls Xi < 1000.

Aus den Daten des Beispiels 5.1 ergibt sich fiir den Schdtzer it = Y der Wert 0.14' Fbenso schdtzt man etwa die Wahrscheinlichkeiten

7r4oo = P{X < 400) und TTSOO == P{X < 200)

durch 7r4oo = 0.34 bzw. 7r2oo = 0.06.

Wie in Kapitel 4 ausgefiihrt, liefert bei endlicher Grundgesamtheit das Ziehen mit Zuriicklegen eine einfache Zufallsstichprobe Xi , X2 , . . . ,Xn aus X. Beim Ziehen ohne Zuriicklegen sind dagegen die X^, i = 1 , . . . , n, abhangig. Schatzt man in diesem Fall TT mit TT, SO ergibt sich als Varianz

n N -I '

N — n also ein kleinerer Wert, da — — - < 1 ist, wenn n > 2.

Page 211: Wahrscheinlichkeitsrechnung und schließende Statistik

5 .1 . PUNKTSCH ATZUNG 201

5.1.4 Schatzung von Varianzen und Standardab-weichungen

Ftir eine Zufallsvariable X mit unbekannter Verteilung ist die Varianz cr = V[X] zu schatzen. Gegeben sei eine Stichprobe X i , X 2 , . . . ^Xn aus X. Ein Schatzer ftir a^ ist die Stichprobenvarianz

i = l i=l

Sie ist allerdings nicht erwartungstreu. Um dies einzusehen, berechnen wir den Erwartungswert von 5^,

£;[52] = E Ih^^-^f i=l

= lJ2^{Xf]-E{x']. 2 = 1

Zur Bestimmung von E[Xf] verwenden wir die Varianz von X^,

a' = V[Xi] = ElXf]~n\

und erhalten

E{Xf]=a^+n\ Ebenso gilt ftir die Varianz von X

^2 V[X] = — = E[X^] - {E[X]f = E[X'^] - /i2 a"

n und deshalb

E[X + / i ^

Die beiden Ergebnisse werden in die obige Gleichung eingesetzt:

Els'] = i f : „ H , v ( ^ H - . ' )

n-1

n n Um einen erwartungstreuen Schatzer zu konstruieren, korrigiert man die Stichprobenvarianz um den Faktor :^ und erhalt so die korrigierte Stich­probenvarianz

2 = 1

Page 212: Wahrscheinlichkeitsrechnung und schließende Statistik

202 5. SCHATZVERFAHREN FUR PARAMETER

Offenbar ist

^[5*2] = E n-1

= a\

also 5*^ ein unverzerrter Schatzer fiir a^. Dagegen ist 5^ ein verzerrter Schatzer fiir a^. Seine Verzerrung betragt

b{S^) = E[S^] -a'= "^^c^ -G^^ --a^ . n n

Sie hangt von cr ab und geht fiir n —> oo gegen null. Weiter lasst sich zeigen, dass sowohl 5^ als auch 5*^ konsistent fiir a'^ sind; es gilt

plim52 = p l i m 5 * 2 = a 2 . n—>oo n—»oo

Schatzung der Standardabweichung Um a — y/V[X] zu schatzen, bieten sich sowohl \ / 5 ^ wie y/S*^ als Schatzer an. Beide sind nicht erwar-tungstreu fiir a. Sie sind jedoch konsistent, d.h. es gilt

p l i m V ^ = plimV5*2 = c7. n—>oo n—*oo

Eine konkrete Realisation von 5^ oder S wird mit 5^ bzw. s bezeichnet.

Beispiel 5.1 (Fortsetzung): Mit den Daten des Beispiels 5.1 ergibt sich der Schatzwert s = Vs^ = 322.60 € .

Speziell wenn X eine Bernoulli-verteilte Zufallsvariable ist, gilt

E[X]=7r und V[X] = 7r{l - n).

Da Xi nur die Werte 0 und 1 annimmt, gilt immer Xf = Xi und folglich

= X ( l - X ) - 7r ( l -7r ) ,

letzteres wegen X = n. Ein erwartungstreuer Schatzer fiir cr = 7r(l — TT) ist deshalb durch

:»*2 _ ^ c2 ^

n — 1 n — 1

gegeben.

Page 213: Wahrscheinlichkeitsrechnung und schließende Statistik

5 .1 . PUNKTSCHATZUNG 203

5.1.5 Schatzung von Quantilen

Fiir eine Zufallsvariable X sollen der Median XQ.S oder ein anderes Quantil Xp geschatzt werden. Ein geeigneter Schatzer ist der Stichprobenmedian bzw. allgemein das entsprechende Stichprobenquantil, das wir im Folgenden definieren.

Sei X i , . . . ,Xn eine Stichprobe aus X. Das kleinste Xi bezeichnet man mit X(i), das zweitkleinste mit X^2) und so weiter bis zum grofiten X(^n)' ^^^ Zufallsvariablen X(i),X(2),. . . ,X(„) heifien Ordnungsstatistiken. Sie sind aufsteigend geordnet,

Mithilfe der Ordnungsstatistiken definiert man fiir 0 < p < 1 das p-Quantil der Stichprobe als

[np] ist der ganzzahlige Teil von np. Diese Definition des Stichprobenquantils entspricht der des Quantils in der beschreibenden Statistik.

Als Schatzer fiir das unbekannte Quantil Xp von X ist Xp konsistent, aber im Allgemeinen nicht unverzerrt.

Beispiel 5.1 (Fortsetzung): Aus den gegebenen Daten sollen die drei Quariile von X geschatzt werden. Es ist

^0.25

^0.5

^0.75

= 336,

- 561,

= 797.

Gemdfl der Schatzung liegen die Ausgaben, die den „mittleren" 50% der Stu-dierenden entsprechen, zwischen 336 und 797 €.

5.1.6 Schatzung von KorrelationskoefHzienten

Der Korrelationskoeffizient

CovlX.Y] PXY -

,/vmvW] eines Paars von Zufallsvariablen {X, Y) misst die Starke des linearen Zusam-menhangs von X und Y; vgl. Abschnitt 3.1.1. Um pxY zu schatzen, ver-wenden wir eine einfache Stichprobe (Xi.Yi),..., (X^, Y^) aus (X, Y). Wir

Page 214: Wahrscheinlichkeitsrechnung und schließende Statistik

204 5. SCHATZVERFAHREN FUR PARAMETER

setzen also voraus, dass jedes der n Paare (Xi, F i ) , . . . , (X„, Yn) dieselbe ge-meinsame bivariate Verteilung besitzt und die Paare (Xi^Yi) fiir verschiedene Indizes i voneinander unabhangig sind. Insbesondere hat dann jedes der Paa­re den gleichen Korrelationskoeffizienten pxY-

Den (theoretischen) Korrelationskoeffizienten pxv schatzt man durch den Stichproben-Korrelationskoeffizienten

rxY

l±{Xi-X){Y,-Y) i=l

i= l V i= l

Der Schatzer rxv ist zwar im Allgemeinen nicht erwartungstreu, er ist je-doch konsistent und asymptotisch erwartungstreu, d.h. die Verzerrung des Schatzers verschwindet, wenn der Stichprobenumfang n gegen unendlich strebt.

Abschnitt 5.4 enthalt ein Beispiel mit Aktienmarktdaten, bei dem u.a. die Korrelationskoeffizienten der Tagesrenditen verschiedener Aktien geschatzt werden.

5.2 Konstruktionsprinzipien fur Punktschatzer

Bei manchen Schatzproblemen ist es besonders einfach, einen geeigneten Schatzer anzugeben. So liegt es nahe, den Erwartungswert einer Zufallsvaria-blen durch das Stichprobenmittel zu schatzen. Bei anderen Schatzproblemen ist das Auffinden eines geeigneten Schatzers schwieriger. Es gibt jedoch ge-nerelle Prinzipien, nach denen man Punktschatzer konstruieren kann.

Zwei allgemeine Vorgehensweisen, die ML-Methode und die Momenten-Me-thode, wollen wir hier darstellen. Weitere vielbenutzte Moglichkeiten zur Konstruktion von Punktschatzern sind die Kleinste-Quadrate-Schatzung (sie-he Kapitel 7) und die Bayes-Schatzung (siehe Abschnitt 5.5.4).

5.2.1 Moment enschatzer

Erwartungswert und Varianz bezeichnet man auch als Momente. Weitere Momente sind die Schiefe und die Wolbung. Den Erwartungswert p einer Zufallvariablen X haben wir durch das Stichprobenmittel X, die Varianz cr durch die Stichprobenvarianz 5^ oder die korrigierte Stichprobenvarianz 5*^

Page 215: Wahrscheinlichkeitsrechnung und schließende Statistik

5.2. KONSTRUKTIONSPRINZIPIEN FUR PUNKTSCHATZER 205

geschatzt. Die Schiefe 71 und die Wolbung 72 von X schatzt man durch

Die genannten Schatzer heifien Stichprobenmomente oder auch empiri-sche Momente.

Bei vielen Schatzproblemen lasst sich der unbekannte Parameter 6 als eine Funktion von Momenten von X darstellen. Dann fallt es leicht, einen Schatzer flir 6 anzugeben. Man ersetzt einfach die in der Funktion vorkommenden Momente durch die entprechenden Stichprobenmomente. Ein so konstruierter Schatzer wird Momentenschatzer genannt. Momentenschatzer sind in alien relevanten Fallen konsistent, jedoch im Allgemeinen nicht erwartungstreu.

Beispiel 5.3: Sei X exponentialverteilt mit Parameter X > 0, d.h. X r^ Exp{\). Wir wissen, dass E[X] = j ist Also lasst sich X als Funktion von E[X] darstellen, X = ;^n^; und

X

ist ein Momentenschdtzer fiir X.

Beispiel 5.4-' Bei einer Pareto-verteilten Zufallsvariablen X ~ Par{a, c) sei c gegeben. Der Parameter a soil geschatzt werden. Wir unterstellen a > 1; dann ist der Erwartungswert endlich und gleich

E[X] ""

Durch Umformung folgt

a =

a-1

E[X] - c

Mit dem Stichprobenmittel X konstruieren wir daraus einen Momentenschdtzer fiir a,

a X

Ein Beispiel, bei dem zwei Parameter mit der Momentenmethode geschatzt werden, ist das folgende:

Beispiel 5.5: Aufgrund einer Stichprobe X i , , . . , Xn aus X ~ R{a, (3), a < (3, sollen die beiden Parameter a und (3 der Rechteckverteilung geschatzt werden. Wegen

ElX]==^l, v{X] = ^{(3-a)'

Page 216: Wahrscheinlichkeitsrechnung und schließende Statistik

206 5. SCHATZVERFAHREN FUR PARAMETER

gilt a = E[X] - ^3V[X], p = E[X] + V^V[X],

woraus man die Momentenschdtzer

erhdlt.

5.2.2 Maximum-Likelihood-Schatzer

Wir beschreiben die Maximum-Likelihood-Methode (kurz: ML-Metho-de) zunachst in allgemeiner Form. Voraussetzung flir ihre Anwendung ist eine parametrische Verteilungsannahme, dass namlich die Verteilung von X bis auf einen oder mehrere Parameter festgelegt ist. Die Verteilungsfunktion F von X gehore zu einer Klasse ^ , die die Form

j ^ = {Fe\e£e}

hat, wobei 6 einen unbekannten Parameter oder auch einen Parametervektor bezeichnet. © ist die Menge der Werte, die fiir 6 in Betracht gezogen werden; man nennt sie den Parameterraum. Die Annahme besagt: Zur vollstandigen Beschreibung der Verteilung von X fehlt nur die Kenntnis des Parameters 9. Dies ist eine parametrische Verteilungannahme; siehe Abschnitt 4.1.2.

Beispiel 5.6: Im Beispiel der Pannenhdufigkeit (vgl. Beispiel 4-6) ^^t das Auftreten einer Panne bei einem zufdllig ausgewdhlten Fahrzeug Bernoulli-verteilt mit Parameter n, X ^ B{1^7r), 0 < n < 1. Dies stellt eine parame­trische Verteilungsannahme dar. Hier ist 6 = TT und Q =]0,1[.

Beispiel 5.3 (Fortsetzung): Hier haben wir als parametrische Verteilungsan­nahme X ~ Exp{X) vorausgesetzt; die Klasse der moglichen Verteilungen von X lautet explizit

T = {FA I FA(x) = 1 - e-^^,x > 0, A G]0,OO[}

mit 6 = X und Q =]0, oo[.

Gegeben sei eine Stichprobe X i , X 2 , . . . , X „ aus einer Zufallsvariablen X, die entweder diskret oder stetig verteilt ist. Man betrachtet die gemeinsame Wahrscheinlichkeitsfunktion bzw. Dichte der Stichprobe,

Lie) = f{xu...,xn\\e) = fix, II e)• fix^ \\e)-...-/(x„ | |e), in Abhangigkeit von 6 bei gegebenen Beobachtungen xi ,X2, . . . ,Xn. L{6) heifit Likelihood-Funktion der Stichprobe. Ihr Logarithmus

m = HLie)) - E Inifixi II 6)) i=i

Page 217: Wahrscheinlichkeitsrechnung und schließende Statistik

5.2. KONSTRUKTIONSPRINZIPIEN FUR PUNKTSCHATZER 207

ist die Loglikelihood-Funktion. Einen Wert 9, der die Likelihood-Funktion maximiert,

Lie) - max L((9),

nennt man ML-Schatzwert fiir den Parameter d. Der entsprechende Schat-zer heifit ML-Schatzer . Anstatt die Likelihood-Funktion zu maximieren, ist es meist glinstiger, die Loglikelihood-Funktion zu maximieren, da durch die Logarithmierung aus dem Produkt eine Summe wird. Die Stelle des Maxi­mums der Likelihood-Funktion stimmt mit der der Loglikelihood-Funktion liberein, denn der Logarithmus ist eine streng monoton wachsende Funktion.

Das Vorgehen der ML-Schatzung sei nun am Beispiel erlautert.

Beispiel 5.6 (Fortsetzung): Es ist Xi ~ B{1,TT), 0 < TT < 1, fiir alle i. Das Ergebnis von n = 10 Beobachtungen laute

(X i ,X2 , . . . ,X io ) - (0 ,0 ,0 ,1 ,0 ,0 ,0 ,0 ,0 ,0 ) .

Die Wahrscheinlichkeit fiir dieses Ergebnis betragt /(a:i,a;2,.. . ,xio;7r) = 7r(l — TT)^, wenn TT der unbekannte Parameter ist. Nach der ML-Methode bestimmt man nun den Wert TT als Schdtzwert fiir den Parameter n, bei dem diese Wahrscheinlichkeit maximal ist. Bei gegebenen Beobachtungen ist die genannte Wahrscheinlichkeit eine Funktion des unbekannten Parameters. Man maximiert die Loglikelihood-Funktion

/(TT) = ln(7r(l - nf) = Inyr -h 91n(l - TT) .

Wir setzen die Ableitung von /(TT) nach n gleich null,

TT i — TT

und erhalten als Losung TT = 0.1. Da die zweite Ableitung iiberall negativ ist, nimmt /(TT) bei TT = 0.1 sein globales Maximum an.

Im Folgenden beschranken wir uns auf Schatzprobleme, in denen die Log­likelihood-Funktion fiir jede mogliche Realisation x i , . . . ,Xn der Stichprobe ein eindeutiges globales Maximum besitzt. Dann hat der so konstruierte ML-Schatzer wichtige erwiinschte Eigenschaften, auf die wir im Abschnitt 5.2.4 eingehen.

ML-Schatzer haben eine niitzliche Transformationseigenschaft: Ist 6 der ML-Schatzer fiir einen bestimmten Parameter 0, dann ist fiir jede (umkehrbar eindeutige) Funktion g der ML-Schatzer fiir g{9) durch g{6) gegeben. Wenn namlich die Loglikelihood-Funktion als Funktion von 6 ihr Maximum an der Stelle 6 annimmt, nimmt sie als Funktion von g{6) ihr Maximum an der Stelle g{0) an. Wenn beispielsweise 6 der ML-Schatzer fiir die Varianz einer

Page 218: Wahrscheinlichkeitsrechnung und schließende Statistik

208 5. SCHATZVERFAHREN FUR PARAMETER

bestimmten Verteilung ist, dann ist der ML-Schatzer fiir ihre Standard-abweichung.

Die ML-Methode geht auf R.A. Fisher^ zuriick. Sie ist universell und lasst sich auch auf sehr komplexe Schatzprobleme anwenden, wie sie etwa in der Okonometrie auftreten.

5.2.3 ML-Schatzer bei speziellen Verteilungen

Um im konkreten Fall den ML-Schatzer zu bestimmen, muss ein Maximie-rungsproblem gelost werden. In vielen einfachen Schatzproblemen - z.B. bei der Schatzung eines Erwartungswertes - lasst sich allerdings das globale Ma­ximum der Loglikelihood-Funktion in Abhangigkeit von xi,...,Xn explizit angeben. Betrachten wir nun ML-Schatzer fiir die Parameter spezieller Ver­teilungen.

Bernoulli-Verteilung Sei Xi ~ -0(1, TT) und n G]0, 1[. Hier ist 6 = n und 0 =]0,1[. Dann lautet die gemeinsame Wahrscheinlichkeitsfunktion der Stichprobe

n

L{7T) = Yln^'il - TT^-^' = TT'il - TT)''-' ,

wobei zur Abkiirzung z = ^1^=1 ^i gesetzt ist. Die Loglikehhood-Funktion ergibt sich als

l{7r) = InL{7T) = zliiTT -\- {n — Z)ln(l — TT).

Ihre ersten beiden Ableitungen betragen

TT^ ( 1 — TTj"^

Um das Maximum TT ZU bestimmen, wird nun die erste Ableitung gleich null gesetzt,

TT i — TT

Es folgt

z{l — TT) = (n — z)7r,

1 Ronald Aylmer Fisher (1890-1962)

Page 219: Wahrscheinlichkeitsrechnung und schließende Statistik

5.2. KONSTRUKTIONSPRINZIPIEN FUR PUNKTSCHATZER 209

und die Losung ist

n

n

-E i = l

Da die zweite Ableitung fiir alle n negativ ist, ist it = x ein lokales Maximum, und zwar das einzige im Inneren von 6 =]0,1[. In beiden Randpunkten von © geht die Loglikelihood-Funktion gegen — oo. Es folgt, dass x das eindeu-tige globale Maximum liefert. Also ist TT = ^ der ML-Schatzwert flir n bei gegebener Stichprobenrealisation x i , . . . ,Xn. Um den ML-Schatzer zu erhal-ten, setzen wir schliefilich an die Stelle von a:i,...,Xn die Zufallsvariablen X i , . . . ,Xn ein. Der ML-Schatzer lautet

-='-t^^ = -i = l

Er ist gleich der relativen Haufigkeit der „Erfolge" im Bernoulli-Experiment.

Exponent ia lver te i lung Sei Xi ~ Exp{X), A G]0, OO[. In diesem Fall ist die gemeinsame Dichte der Stichprobe in Abhangigkeit von A zu untersuchen. Sie lautet

L(A) = (Ae-^^0(Ae-^^^)-/ n >

= A 'exp I -Ay^a;^

(Ae--^^-)

i = l

Die Loglikelihood-Funktion ist

n

1{X) = \nL{X) = n\nX - X^Xi, A > 0 . i = i

Um A zu bestimmen, wird die erste Ableitung berechnet und null gesetzt:

n

i'W = j-J2'^i = o, x = n

i = l E^ i

1 X

Da die zweite Ableitung liberall negativ ist, /''(A) tatsachlich ein globales Maximum, und

- ^ < 0, ist dies

X

ist der ML-Schatzer fiir A.

Page 220: Wahrscheinlichkeitsrechnung und schließende Statistik

210 5. SCHATZVERFAHREN FUR PARAMETER

Normalverteilung Sei Xi ~ A/'(/x,a'^), 0 e Q = {{fi,a'^)\fi £ R,a^ > 0}, Dann ist

2x _ 1 _ _ / ( ^ l - / ^ ) ^ \ 1 / {Xn-l^f

1 ' /(//, (j^) = In L(^\x^ cr ) = —n In \/27r — n In a — —2 2J(^* ~ ^^ •

Die beiden partiellen Ableitungen sind

n

Nullsetzen der beiden Ableitungen liefert

1 "" [i^x und (j^ = — /^(a^i — /i) 2 - 5 ^

^ • 1

Eine Uberpriifung der zweiten Ableitungen sowie der Rander von © ergibt, dass bei ft = x und a^ = 5^ das globale Maximum vorliegt. Also ist

(A,a2) = (X,52)

der ML-Schatzer fur (/i,(J^).

Die folgende Tabelle enthalt Momenten- und ML-Schatzer fiir die Parameter der im Kapitel 2 eingeftihrten speziellen diskreten und stetigen Verteilungen. In jedem Fall liegt eine Stichprobe X i , X 2 , . . . ,Xn aus X zugrunde.

Page 221: Wahrscheinlichkeitsrechnung und schließende Statistik

5 . 2 . KONSTRUKTIONSPRINZIPIEN FUR PUNKTSCHATZER 211

Verteilung

X ~ S ( l , 7 r )

X ~ Poifi)

X ~ Exp{X)

X^N{fi,a^)

X ~ G(7r)

X ~ Par{a,c)

j X ~ Par{a, c), c bekannt

X ^R{a,(5)

Momentenschatzer

7r = X

/i = X

^ = #

^2 = 52

^ = #

a

a = c ^ X - 1

ML-Schatzer

7r = X

/i = X

^ = #

^2 = 52

CT=V52

^ = *

T-

c = min{Xi , . . .

^ ^ - n

Eln(^)

d = min{Xi , . . .

/3 == max{Xi , . .

i^n)

Wie aus der Tabelle zu ersehen ist, stimmt in einigen Fallen der Momen­tenschatzer mit dem ML-Schatzer iiberein.

Die ML-Schatzer werden in der Kegel (wie in den obigen Beispielen) durch Differenzieren der entsprechenden Loglikelihood-Funktion hergeleitet. Aus-nahmen bilden die Parameter a und /? der Kechteckverteilung sowie der Pa­rameter c der Pareto-Verteilung, deren ML-Schatzer man durch direkte Ma-ximierung der Likelihood-Funktion bestimmt, da diese nicht differenzierbar ist.

5.2.4 Eigenschaften von ML- und Momentenschatzern

Es stellt sich schliefilich die Frage, ob die nach der ML-Methode bzw. nach der Momentenmethode konstruierten Schatzer auch gute Schatzer sind, genauer.

Page 222: Wahrscheinlichkeitsrechnung und schließende Statistik

212 5. SCHATZVERFAHREN FUR PARAMETER

welche Glitekriterien sie erfiillen.

Wie bereits im Abschnitt 5.2.1 bemerkt wurde, sind Momentenschatzer in der Regel konsistent. Dasselbe gilt flir ML-Schatzer. Momenten- und ML-Schatzer sind haufig nicht erwartungstreu, jedoch asymptotisch erwartungs-treu.

Schliefilich sind ML-Schatzer und auch die meisten Momentenschatzer fiir grofie Stichprobenumfange n approximativ normalverteilt, d.h. es gilt

Hierbei ist ^-~ naherungsweise die Varianz des Schatzers On- Sie hangt zu-meist selbst vom unbekannten Parameter 6 ab und muss dann zusatzlich geschatzt werden.

ML-Schatzer haben im Vergleich zu anderen Schatzern (etwa Momenten­schatzer n) in der Regel eine geringere Varianz, wenn der Stichprobenumfang n grofi ist. In vielen Schatzsituationen lasst sich sogar zeigen, dass der ML-Schatzer die kleinstmogliche Varianz besitzt. Einen solchen Schatzer nennt man asymptotisch efRzient: Kein anderer Schatzer 6n fiir 6 hat dann, wenn die Stichprobenlange n gegen unendlich geht, eine kleinere Varianz als On- Zum Begriff der Effizienz eines Schatzers siehe auch Abschnitt 5.5.2. Nachteilig bei der ML-Methode ist jedoch, dass eine parametrische Vertei-lungsannahme iiber X getroffen werden muss.

5.3 Intervallschatzung

Bei der Punktschatzung wird ein einzelner unbekannter Parameter durch eine Zahl, den Schatzwert, geschatzt, bei der Intervallschatzung hingegen durch ein Intervall. Der folgende Abschnitt behandelt die Grundbegriffe der Intervallschatzung und einige spezielle Methoden, um Intervallschatzer zu bestimmen. Wir beginnen mit einem Beispiel.

Beispiel 5.7: Um den unbekannten Erwartungswert einer Zufallsvariablen X zu schdtzen, wird eine Stichprobe Xi , X 2 , . . . , X^ aus X beobachtet. Wir set-zen voraus, dass X normalverteilt ist, X ~ N{ix^a'^). Dann ist X ein Punkt-schdtzer fiir IX. Allerdings trifft dieser Schdtzer praktisch nie den unbekannten Wert /J,, da er selbst normalverteilt ist und daher

p(X = /d)=0

gilt. Zur Erganzung ist es sinnvoll, ein von der Stichprobe abhdngiges Intervall zu bestimmen, das /j, mit einer bestimmten Wahrscheinlichkeit einschlieflt.

Page 223: Wahrscheinlichkeitsrechnung und schließende Statistik

5.3. INTERVALLSCHATZUNG 213

Da X symmetrisch zu seinem Erwartungswert ji verteilt ist, liegt es nahe, ein Intervall der Form [X — e^X + e] zu wdhlen; vgl. Abbildung 5.1. Dies ist ein „zufdlliges Intervall'^ der Ldnge 2e; ihm konnen daher Wahrschein-lichkeiten zugeschrieben werden. Wenn etwa die Einschlusswahrscheinlichkeit gleich 95% sein soil, ist die Ldnge des Intervalls so festzulegen, dass

P(X - e < fi <JC + e) = 0.95

gilt. Mit den realisierten Werten der Stichprobe ist der Punktschdtzwert x eine Zahl und das Schdtzintervall \x — e,x -{• e] ein gewohnliches Intervall.

X /^

-*- X

Abbildung 5.1: Schatzintervall fiir fi im Beispiel 5.7

5.3.1 Konfidenzint ervalle

Sei X eine Zufallsvariable, deren Verteilung von 6 abhangt, und Xi,... ,Xn eine Stichprobe aus X. Der unbekannte Parameter 6 soil durch ein Inter­vall geschatzt werden. Ein von der Stichprobe abhangiges, abgeschlossenes Intervall [OU^OQ] mit

P{Ou <0 <eo) = l - a

heifit Konfidenzintervall fiir 9 zum Konfidenzniveau 1 —a. Es wird durch zwei Zufallsvariable 6u und OQ begrenzt. Diese sind Stichprobenfunktionen, ^u = 9u{^i^" ",^n)^ ^o = 9o{Xi,... ^Xn), welche die untere bzw. obere Grenze des Konfidenzintervalls darstellen. Im Vergleich zum Punktschatzer nennt man ein Konfidenzintervall auch einen Intervallschatzer.

Zu vorgegebenem Niveau 1 — a soil ein gutes Konfidenzintervall „moglichst schmal" sein. Man wahlt das Intervall in der Kegel so, dass seine Lange bei gegebenem Konfidenzniveau minimal ist. Wenn X stetig verteilt ist, lasst sich fiir jedes a G]0, 1[ ein Konfidenzintervall [ n?^o] angeben, das die Wahr­scheinlichkeit 1 — a exakt annimmt. Wenn X diskret verteilt ist, findet man dagegen meist nur ein Intervall, dessen Wahrscheinlichkeit ungefahr gleich 1 — a ist.

Ist xi,X2,.. . ,Xn der Wert der Stichprobe Xi , X 2 , . . . , X^, so nennt man das Intervall

[0u{xi,X2, . . . , Xn) , 0o{xi,X2, . • . , Xn)]

den Wert des Konfidenzintervalls (oder auch das konkrete Konfidenz­intervall).

Page 224: Wahrscheinlichkeitsrechnung und schließende Statistik

214 5. SCHATZVERFAHREN FUR PARAMETER

Fiir jede Realisation der Stichprobe erhalt man ein konkretes Konfidenz-intervall. Entweder enthalt dieses den wahren Parameter, oder es enthalt ihn nicht. Dafiir, dass das konkrete Intervall den Parameter tiberdeckt, lasst sich keine WahrscheinUchkeit angeben. Die Wahrscheinhchkeit 1 — a haf-tet nicht dem konkret aus den Daten bestimmten Intervall, sondern dem Schatzverfahren an. Sie lasst sich als relative Haufigkeit interpretieren: Ver-wendet man flir eine grofie Anzahl von Konfidenzschatzungen Intervalle, die jeweils das Niveau 1 — a besitzen, so nahert sich die relative Haufigkeit, mit denen die konkreten Intervalle den Parameter iiberdecken, dem Wert 1 — a.

5.3.2 Intervall fiir fi einer Normalverteilung, a^ bekannt

Wir konstruieren zunachst ein Konfidenzintervall fiir /i = ^[^] unter der Annahme, dass X normalverteilt und die Varianz von X bekannt ist.

Sei X i , . . . ,Xn eine Stichprobe aus X, X ^ N{iJi,a'^)^ und sei fi unbekannt, (7 jedoch bekannt. Dann gilt gemafi Abschnitt 4.3 X ~ A/'(/i, ^ ) , also

X-^x V ^ ~ A r ( 0 , l ) .

Mit dem Quantil u\-9. der Standard-Normalverteilung gilt demnach

P I —ui-oc, < y/n < u\- = l - a .

Die beiden Ungleichungen werden nun aquivalent umgeformt. Multiplikation mit -7= > 0 und anschliefiende Subtraktion von X liefern

Wir multiplizieren beide Ungleichungen mit —1, wobei sich ihre Richtung umkehrt, und erhalten

und die unveranderte Wahrscheinhchkeit

Das Intervall [ t , ©] J^it den Grenzen

Page 225: Wahrscheinlichkeitsrechnung und schließende Statistik

5.3. INTERVALLSCHATZUNG 215

stellt also ein Konfidenzintervall fiir /u zum Niveau 1 — a dar. Da a nach Voraussetzung bekannt ist, lasst sich das Intervall zu jeder gegebenen Stich-probenrealisation konkret berechnen.

Beispiel 5.8: Der Verkaufspreis fiir 1 kg Erdbeeren (in €) bei den Einzelhdnd-lern einer Grofistadt sei N{id,(j'^ = 0.09)-verteilt. Gesucht ist ein Konfidenz­intervall fiir den durchschnittlichen Verkaufspreis fd. Das Konfidenzniveau betrage 95%. Dazu wird eine Stichprobenbefragung von 15 Einzelhdndlern durchgefiihrt. Sei Xi^i = 1,2, . . . , 1 5 , der Verkaufspreis des i-ten Handlers. Unter der gegebenen Verteilungsannahme (Xi normalverteilt mit bekannter Varianz) ist

ein Konfidenzintervall zum Niveau 1 — a fiir das unbekannte /d. Speziell ist n = 15, cr = 0.09 und 1 — a = 0.95 gegeben, woraus a = 0.3, 1 — ^ = 0.975 und ui-^ = uo.975 = 1-96 folgt. Das Konfidenzintervall ist demnach gleich ("-^ Excel)

X - 1 . 9 6 - ^ , X + 1.96 ^'^ 15 V15

[ X - 0 . 1 5 , X 4-0.15] .

Eine konkrete Stichprobe habe den Wert x = 4.20 € ergeben. Der Wert des Konfidenzintervalls fiir den durchschnittlichen Verkaufspreis (in €) betragt dann [4,05,4.35].

5.3.3 Intervall fiir /i einer beliebigen Verteilung, a^ bekannt

Wir konstruieren als Nachstes ein Konfidenzintervall fiir id = E[X]y wenn man nicht davon ausgehen kann, dass X normalverteilt ist.

Sei X i , . . . , X n eine Stichprobe aus X und /d = E[X],a'^ = V[^]' Wir unter-stellen, dass cr bekannt ist, id aber nicht.

TschebyschefF-Konfidenzintervall Aus der Ungleichung von Tscheby-scheff (vgl. Abschnitt 2.2.3), angewandt auf X, folgt

P{\X-i.\<e)>l-^

fiir alle e > 0. Wir setzen

1 o ^ 1 - c ^

und bestimmen das zu gegebenem a gehorige e. Es folgt

2 ^'

ne^ na Wna

Page 226: Wahrscheinlichkeitsrechnung und schließende Statistik

216 5. SCHATZVERFAHREN FUR PARAMETER

Dieses e wird in die Ungleichung von TschebyschefF eingesetzt. Demnach be-sitzt das folgende Konfidenzintervall flir / ein Niveau von mindestens 1 — a:

[^U 5 ^o\ X y/na

X +

Approximatives Konfidenzintervall Wenn n hinreichend groB ist, gibt es eine weitere Moglichkeit, ein Konfidenzintervall zu konstruieren. Dann gilt namlich nach dem Zentralen Grenzwertsatz

V ^PP'^ AT I ^ X ~ N \ a, —

* n d.h. ^Ili^V^ "2?'-iV(0,l).

Man erhalt eine analoge Wahrscheinlichkeitsaussage wie im Abschnitt 5.3.2, die hier allerdings nur approximativ gilt, namlich

PlX-ui-y/n 2 ^

1-a.

Ein approximatives Konfidenzintervall flir /i zum Niveau 1 — a ist also

[^u , ^o] X -ui-^-j=, X -]-ui-^—^^ .

Als Faustregel verwenden wir: n > 40. Ein approximatives Konfidenzintervall wie dieses, das lediglich fiir n —> oo das Niveau 1 — a exakt einhalt, nennt man auch ein asymptotisches Konfidenzintervall.

Beispiel 5.9: Speziell sei a = 0.05,cr = 2,x = 7 und n = 100.

a) Fiir das Tschebyscheff-Intervall erhalten wir

a 2

\/na v'lOO • 0.05 = 0.89.

Das Konfidenzintervall zum Niveau von mindestens 0.95 hat demnach den Wert

[7 -0 .89 , 7 4-0.89] = [6.11, 7.89].

b) Da n = 100 > 40 hinreichend grofi ist, kann man auch das approxima­tive Konfidenzintervall benutzen. Hierfiir ergibt sich

a 2 € = ui-o,-— = 1 .96—= = 0.39.

' V^ vToo

Das approximative Konfidenzintervall zum Niveau 0.95 hat den Wert

[7 -0 .39 , 7 + 0.39] = [6.61, 7.39].

Page 227: Wahrscheinlichkeitsrechnung und schließende Statistik

5.3. INTERVALLSCHATZUNG 217

Allgemein sind die Schranken, die unter Berufung auf den Zentralen Grenz-wertsatz berechnet werden, enger als die Schranken, die sich aus der Tscheby-scheffschen Ungleichung ergeben. Hier zeigt sich, dass die zusatzliche Infor­mation „n ist hinreichend grofi" ein genaueres Konfidenzintervall ermoglicht. In der konkreten Anwendung verwendet man deshalb das Tschebyscheff-Intervall nur dann, wenn der Stichprobenumfang zu gering ist, um die An­wendung des Zentralen Grenzwertsatzes zu rechtfertigen.

5.3.4 Intervall fiir /i einer Normalverteilung, cr unbekannt

Das Konfidenzintervall fiir p, einer Normalverteilung bei unbekannter Vari-anz wird analog dem bei bekannter Varianz konstruiert, indem man fiir die unbekannte Varianz a^ einen Schatzer, namlich 5^, einsetzt. Das so standar-disierte Stichprobenmittel

ist dann allerdings nicht mehr standard-normalverteilt, sondern es besitzt eine ^-Verteilung mit n — 1 Preiheitsgraden (siehe Abschnitt 4.3.2). Das Konfi­denzintervall fiir fj, zum Niveau 1 -a bei unbekannter Varianz hat die Grenzen

Ou,o = X T^n- l , l - f ^v^^r=T

wobei tn-i,i-^ das (1 — ^)-Quantil der t-Verteilung mit n — 1 Freiheitsgraden bezeichnet. Wegen nS'^ = {n - 1)5*^ kann man die Grenzen des Intervalls oflFenbar auch in der Form

(5.1)

schreiben.

Beispiel 5.10: Sei X normalverteilt, p, und o^ unbekannt. Fiir den Erwar-tungswert p soil ein Konfidenzintervall zum Niveau 1 — a — 0.99 bestimmt werden. Dazu wird aus X eine Stichprobe vom Umfang n = 12 gezogen, die fiir das Stichprobenmittel und die korrigierte Stichprobenvarianz die Werte X = 20 bzw. s*^ = 4 ergibt. Das Konfidenzintervall fiir p wird nach der Formel (5.1) mit Hilfe der t-Verteilung bestimmt (^-^ Excel/SPSS).

Fiirn — l — 11 Freiheits grade und l — a = 0.99 lautet das (1 — ^)'Quantil der t-Verteilung 11,0.995 = 3.1058. Daraus und aus dem Resultat der Stichprobe

Page 228: Wahrscheinlichkeitsrechnung und schließende Statistik

218 5. SCHATZVERFAHREN FUR PARAMETER

(x = 20 und s* = 2) berechnet man die Grenzen des konkreten Konfidenz-intervalls

Ou = 2 0 - 3 . 1 0 5 8 - ^ = 18.2069, VT2

6o = 20 + 3 . 1 0 3 8 ^ = 21.7931. \ / l2

Damit erhdlt man das konkrete Konfidenzintervall [18.21, 21.79].

5.3.5 Intervall fiir /i einer beliebigen Verteilung, a^ unbekannt

Nun werde keine Normalverteilungsannahme liber X getroffen. Sei X belie-big verteilt mit Erwartungswert JJ, und Varianz a^; beide Parameter seien unbekannt. Man schatzt wiederum cr durch 5^. Wenn n hinreichend grofi ist, gilt nach dem Zentralen Grenzwertsatz

Ji. — Jul J— appr

a v/^"^^' iV(0,l) ,

und, da p lim ^ = 1 ist, auch

"":V^"??'"iV(o,i). -A — fJj I— appr

s Man erhalt (analog zu Abschnitt 5.3.3)

5 . , ^ 5 \ P ( X - u i _ , ^ < M < X + « , _ ~ j « l - a .

Das Intervall

[^u ? Oo] = X -ui-q—=, X + ui-^-j=\ ^ y/n 2 y/nj

ist ein asymptotisches (also approximatives) Konfidenzintervall fiir /i zum Niveau 1 — a. Fiir ein Beispiel hierzu sei auf Abschnitt 5.4 verwiesen.

5.3.6 Intervall fiir cr einer Normalverteilung

Wir konstruieren nun ein Konfidenzintervall fiir die Varianz a^ einer Normal­verteilung. Gegeben sei wieder eine Stichprobe X i , . . . , X^ aus X ~ A^(/i, cr^),

Page 229: Wahrscheinlichkeitsrechnung und schließende Statistik

5.3. INTERVALLSCH ATZUNG 219

wobei II und cr unbekannt sind. Aus den Eigenschaften der x^-Verteilung folgt, dass

nS^ 2 ^ 2 A n - 1

und deshalb die Wahrscheinhchkeitsaussage

p(xUf<^<xUx-f) gilt. Durch Umformen der Ungleichungen erhalt man

nS^

Xn-l , l - f S CT S —9 = 1

a

a.

Das Intervall

l^u 7 ^oj i52 n52

2 ' 2

Xn-l , l - f Xn-l,f

ist also ein Konfidenzintervall fiir die Varianz cr zum Niveau 1 - a. Man beachte, dass dieses Konfidenzintervall asymmetrisch ist; es hat nicht den Punktschatzer 5^ fiir a^ zum Mittelpunkt. Symmetrisch ist das Intervall beziiglich der Wahrscheinlichkeiten: Mit Wahrscheinlichkeit § liegt das Kon­fidenzintervall links vom unbekannten Parameterwert (hier der Varianz), und mit gleicher Wahrscheinlichkeit ^ liegt es rechts davon.

Fiir die Standardabweichung a erhalt man ein entsprechendes Konfidenz­intervall, indem man statt der obigen Grenzen deren positive Quadratwurzeln einsetzt. Ein Beispiel eines Konfidenzintervalls fur a (Standardabweichung von Aktienrenditen) findet sich im Abschnitt 5.4; siehe auch - Excel/SPSS,

5.3.7 Intervall fiir eine Wahrscheinlichkeit oder einen Anteilswert

Um eine unbekannte Wahrscheinlichkeit oder einen Anteilswert n zu schatzen, verwenden wir eine Stichprobe X i , . . . , Xn aus X ~ B(l , TT). Dann ist

fi = E[X]=^7T, 0-2 : -F[X] = 7r(l - TT) ,

X - TT, 5 2 - 7 r ( l - 7 r ) ,

wobei TT die relative Haufigkeit eines „Erfolges" darstellt. Gemafi dem Zen-tralen Grenzwertsatz ist die standardisierte relative Haufigkeit approximativ normalverteilt,

\jn— v n ~ ^ ' (0,1) .

^fW^

Page 230: Wahrscheinlichkeitsrechnung und schließende Statistik

220 5 . SCHATZVERFAHREN FUR PARAMETER

Mit dem Quantil c = u i _ s der Standard-Normalverteilung gilt deshalb

p{-c< 7 ^ Vn<c] « l - a .

Die Bedingung in der Klammer definiert ein approximatives Konfidenzinter­vall fiir TT. Sie ist gleichbedeutend mit

(TT - TT)^

7r(l — TT) n < c^ und

2 (n-\- c^\ (^^ . (? - | 2 7 r + — l7r + 7 r ^ < 0 .

n

Die Auflosung der zugehorigen quadratischen Gleichung nach TT liefert zwei Losungen, welche die Grenzen Ou und OQ des Konfidenzintervalls darstellen:

e - "^ ^ U , 0 — , 9 \^^Yn^'\ ' n 4n^J mit c = ixi_« . • 2

(5.2)

Dies ist ein approximatives Konfidenzintervall, das nur fiir hinreichend grofie n sein Niveau einhalt. Wir verwenden als Faustregel: n > 20.

Wenn n erhebhch grofier ist, kann man in (5.2) mit

n n-\- c^ 1, 2n

0 und 4n2

0

rechnen. Man erhalt dann ein vereinfachtes approximatives Konfidenzinter­vall fiir TT. Es hat die Grenzen

Ou,o = TT =f Ui -7r(l — TT)

n

Fiir dieses Intervall verwenden wir die Faustregel: n7r(l — TT) > 9.

Beispiel 5.11: Ein Hersteller Idsst die Ausfallwahrscheinlichkeit eines techni-schen Gerdtes bei erhohter Belastung untersuchen. Um ein Konfidenzintervall fiir die unbekannte Wahrscheinlichkeit zu bestimmen, wird eine Versuchsrei-he durchgefiihrt. Sei n die Ausfallwahrscheinlichkeit bei einem Versuch. Das Ergebnis der Versuchsreihe ist die Stichprobe Xi,... ,Xn, wobei

Xi = 1, falls Ausfall beim z-ten Versuch,

0, falls kein Ausfall beim z-ten Versuch.

Dann ist Xi,... ^ Xn eine Stichprobe aus X ^ B{l^7r). Gesucht ist ein Konfidenzintervall fiir TT zum Niveau l — a = 0.90. Betrachtet werden die Ergebnisse folgender Versuchsreihen:

Page 231: Wahrscheinlichkeitsrechnung und schließende Statistik

5.3. INTERVALLSCHATZUNG 221

a) Bei n = 40 Versuchen traten insgesamt X^^^j Xi = S Ausfdlle auf. Daraus folgt die Punktschdtzung 7T40 = ^ =0 .2 . Da die Faustregel fiir das vereinfachte Intervall wegen 40 • 0.2 • 0.8 = 6.4 < 9 nicht erfiillt ist, muss das Konfidenzintervall gemdfl (5.2) berechnet werden, Es ist mit u i _ a = U0.95 = 1.6449

40 f^ 1.64492 , , , , ^ /O.2.O.8 1.64492 0-2 + -^r-TTT =F 1 . 6 4 4 9 A / — j - — + 40 + 1.64492 I • 2-40 V 40 4 • 402 i

= 0.9366(0.2 + 0.0338 T 0.1094),

Ou = 0.1165, §0 = 0.3215.

Das ermittelte Konfidenzintervall [0.12 , 0.32] ist dem Hersteller zu breit; er Idsst deshalb weitere 30 Versuche durchfiihren.

b) Gegeben seien 30 zusdtzliche unabhdngige Versuche X41,... .X^Q aus X ~ -B(l,7r) mit Y^i^^iXi = 11. Dann ergibt sich fur die gesamte Stichprobe X^^^i Xi = 19, und die neue geschdtzte Ausfallwahrschein-lichkeit betrdgt n^o = ^ = 0.2714. Die Faustregel n7r(l -TT) > 9 ist mit n-7r7o(l — TTro) = 13.8419 erfiillt, so dass nun die einfachere Formel fiir das approximative Konfidenzintervall angewendet werden darf

;\ r.^^.. . ...c /0.2714-0.7286 Qu.o - 0.2714 Tl .6449y -^

=. 0.2714 =F 0.0873,

hu = 0.1841, §0 = 0.3587.

Da n = 70 > 20 ist, konnen wir natiirlich auch das Konfidenzintervall gemdfl (5.2) berechnen. Es ist

"u,o 70

70 + 1.64492

(r.^^.. 1.64492 , ,,„ /0.2714 • 0.7286 1.64492\

• ['•'''' + -ITTT ^ '-'H ^ + TTTO^ j = 0.9628 • (0.2714 + 0.0193 + 0.0895),

Ou = 0.1937, §0 = 0.3661.

5.3.8 Wahl des Stichprobenumfangs

In vielen Anwendungen werden Konfidenzintervalle gesucht, deren Genauig-keit - d.h. deren Breite - vorgegeben ist. Da die Breite der in den vorigen

Page 232: Wahrscheinlichkeitsrechnung und schließende Statistik

222 5. SCHATZVERFAHREN FUR PARAMETER

Abschnitten hergeleiteten Konfidenzintervalle mit wachsendem Stichproben-umfang n abnimmt, stellt sich die Frage, wie gro6 n mindestens sein muss, um eine vorgegebene Breite des Konfidenzintervalls einzuhalten.

Sei Xi , X 2 , . . . , Xn eine Stichprobe aus X, und sei fj. = E[X], a^ = V[X]. Um fiir jji (bzw. fiir TT, falls X Bernoulli-verteilt ist,) ein Konfidenzintervall zum Niveau 1 — a zu konstruieren, das hochstens die gegebene Breite 26 besitzt, d.h. Oo — Ou < 26, geniigt ein Stichprobenumfang n > rimin wie folgt:

• Konfidenzintervall fiir // einer Normalverteilung mit bekann-ter Varianz Sei X ~ N{ii^a'^), und sei cr bekannt. Bei einem Konfidenzintervall fiir /x einer Normalverteilung mit bekannter Vari­anz ergibt sich eine untere Schranke fiir den Stichprobenumfang aus der Gleichung

2 V ^

Daraus folgt der Mindeststichprobenumfang

U\_^G'^ f^min — 62

(5.3)

Wenn n > rimin ist, hat das Konfidenzintervall hochstens die Breite 26.

Approximatives Konfidenzintervall fiir ^ einer beliebigen Ver-teilung Sei X beliebig verteilt. Bei einem approximativen Konfidenz­intervall fiir /i einer beliebigen Verteilung betragt, wenn cr bekannt ist, der Mindeststichprobenumfang

Er ergibt sich durch Kombination des Mindeststichprobenumfangs bei Normalverteilung mit der iiblichen Faustregel (n > 40) fiir die An-wendung des Zentralen Grenzwertsatzes. Falls a^ unbekannt ist, er-setzt man in der Formel a'^ durch einen Schatzwert aus einer anderen Schatzung. Dies kann auch in Stufen erfolgen.

Beispiel 5.12: Fiir ein endverpacktes Produkt, etwa eine Gewurzmischung, gibt es eine Abnahmekontrolle, die das spezifische Filllgewicht untersucht. Dabei werden n Packungen durch eine Zufallsziehung ausgewdhlt. Es bezeich-ne Xi das Fiillgewicht (in Gramm) der i-ten Packung der Stichprobe. Die Verteilungsannahme ist Xi ~ iV(/i, 25) mit unbekanntem fj, und bekanntem a^ = 25.

Page 233: Wahrscheinlichkeitsrechnung und schließende Statistik

5.3. INTERVALLSCHATZUNG 223

a) Bei einer Stichprobe der Lange n = 20 wird der Mittelwert x = 99.35 beobachtet. Man bestimme ein Konfidenzintervall fiir /JL zum Niveau 1 — a = 0.99.

b) Man bestimme den kleinsten Stichprobenumfang, bei dem das Konfi­denzintervall fiir Id zum Niveau 0.99 die Breite 1.0 hat.

zu a) Die Grenzen des gesuchten Konfidenzintervalls lauten

^ y/n

Durch Einsetzen von n = 20, a^ = 25, i^i-f = " 0.995 = 2.58 und x = 99.35 erhdlt man ihre Werte

Ou o = 99.35 =F 2 . 5 8 - ^ = 99.35 =F 2.88. >/20

Der Wert des Konfidenzintervalls betrdgt [96.47, 102.23].

zu b) Laut Angabe ist die maximale Breite 26 = 1.0, also b = 0.5. Femer ex

--2 ist a'^ = 25, ui-^ = 2.58. Die untere Schranke fur den Stichprobenumfang betrdgt deshalb

u\_^(J^ 2.58^.25 nmin = — - ^ — = —^-^2— = 665.64.

Der Stichprobenumfang n muss eine ganze Zahl grofier oder gleich Umin sein, also n > 666.

• Approximatives Konfidenzintervall fiir eine Wahrscheinlich-keit oder einen Anteilswert Sei n eine unbekannte Wahrschein-lichkeit oder ein Anteilswert und sei X ~ B(l,7r). Der Stichprobenum­fang zur Intervallschatzung von TT muss mindestens

[ 9 ui_.7T*{l-n*)-Umin - max <^^^_^^y 62

betragen. Dabei ist TT* ein Schatzwert fiir TT, der unabhangig von der aktuell zu erhebenden Stichprobe ermittelt wurde. Entsprechend ver-wendet man 7r*(l — TT*) als Schatzwert fiir die Varianz von X. Aus der Faustregel nn*{l — TT*) > 9 fiir die Anwendung des Zentralen Grenz-wertsatzes folgt hier n > ^w^^^^x; diese untere Schranke wird mit dem Mindeststichprobenumfang gemaB (5.3) kombiniert.

Page 234: Wahrscheinlichkeitsrechnung und schließende Statistik

224 5. SCHATZVERFAHREN FUR PARAMETER

Fiir weitere, inbesondere mehrstufige Verfahren zur Bestimmung von rimin sei auf Abschnitt IV. 1.4 in Hartung et al. (2002) verwiesen.

5.3.9 Inter vail fiir p bei Normal verteilung

Fiir den Korrelationskoeffizienten pxY von (X, Y) lasst sich ein approximati-ves Konfidenzintervall angeben, wenn (X, Y) eine zweidimensionale Normal-verteilung besitzt. R.A. Fisher hat gezeigt, dass unter dieser Vorraussetzung eine Transformation des Schatzers rxv ftir den empirischen Korrelationsko­effizienten in sehr guter Naherung normalverteilt ist. Genauer gilt

In l + r x r 1 -rxY

'' ^ iVf-ln'^^^^^^^ 1 - PXY J ' n-3

Aus dieser Beziehung lasst sich ein approximatives (1 — a)-Konfidenzintervall fiir pxY ableiten. Es ergibt sich

6u — e^ e^

wobei

A =

B =

In

In

- 1 + 1 '

( ^

(B

eo

rxY\ rxY ) rxY\ rxY )

~ e^ + 1 '

+ 9—!—1-Vn-S

(5.1)

Hierbei ist u i - f das (1 —f )-Quantil der Standard-Normalverteilung. Ein em-pirisches Beispiel zur Intervallschatzung eines Korrelationskoeffizienten von Aktienrenditen findet sich im Abschnitt 5.4.

5.4 Beispiel: Schatzung bei Aktienrenditen

In diesem Abschnitt stellen wir konkrete Punkt- und Intervallschatzungen an einem Beispiel mit Finanzmarktdaten dar.

Beispiel 5.13: Die Tagesrendite

X t - l n i ^ , - l n i ^ , _ i - : l n Kt-i

einer borsennotierten Aktie ist die borsentdgliche stetige Zuwachsrate ihres Kurses in Prozent, bereinigt um Dividenden und dhnliche Zahlungen. Die ste­tige Rendite ist die stetige Wachstumsrate der Kurse, siehe etwa Abschnitt

Page 235: Wahrscheinlichkeitsrechnung und schließende Statistik

5.4. BEISPIEL: SCHATZUNG BEI AKTIENRENDITEN 225

6.6 in Mosler und Schmid (2005). Die Zeitreihe der Tagesrenditen einer Aktie fassen wir hier als Folge von Realisationen unabhdngiger^, identisch verteil-ter Zufallsvariablen auf Mit anderen Worten, wir sehen die Zeitreihe der Tagesrenditen einer Aktie j als Realisation einer Stichprobe aus einer Zu­fallsvariablen Xj an.

Wir untersuchen die Tagesrenditen von acht deutschen Aktien, die im DAX enthalten sind. Es handelt sich um Aktien von BASF, Hypobank (HYPO), Bayer (BAY), BMW, Deutsche Bank (DB), SAP, Siemens (SIE) und VW. Der Erhebungszeitraum reicht vom 28.2.1992 bis zum 1.3.2002, das sind 2611 Borsentage mit n = 2610 Tagesrenditen. Die folgenden Schdtzungen wurden mit ^-^ Excel durchgefuhrt.

Als erstes bestimmen wir (vgl. Abschnitt 5.1.2) Punktschdtzungen fiir die mittleren Renditen fdj der einzelnen Aktien j und fiir ihre Volatilitat, das ist die aufs Jahr (= 250 Borsentage) bezogene Standardabweichung. Schdtzer fiir fdj ist jeweils das Stichprobenmittel. Fiir die Daten des obigen Zeitraums erhdlt man die geschdtzten mittleren Tagesrenditen jlj sowie die zugehorigen Jahresrenditen:

Aktie j

BASF HYPO BMW BAY DB SAP SIE VW

mittlere Tagesrendite fij (in %)

0.06 0.03 0.07 0.05 0.03 0.13 0.05 0.05

mittlere Jahresrendite der Aktie j (in %)

15.05 7.14

17.08 11.57 8.07

32.22 12.00 12.13

Zur Umrechnung auf Jahresrenditen werden die durchschnittlichen Tagesren­diten mit 250 multipliziert. Dies wird als Annualisierung bezeichnet.

Als Punktschdtzwerte GJ = Sj (vgl. Abschnitt 5.1.4) fiir die Standardabwei-chungen GJ der Tagesrenditen Xj ergeben sich (in Prozent):

^Die Annahme der Unabhangigkeit ist nicht unproblematisch: Empirisch lasst sich bei vielen Aktien eine leichte Abhangigkeit der Tagesrenditen feststellen.

Page 236: Wahrscheinlichkeitsrechnung und schließende Statistik

226 5. SCHATZVERFAHREN FUR PARAMETER

Aktie j

BASF HYPO BMW BAY DB SAP SIE VW

Standardabw. aj pro Tag (in %)

1.62 2.01 2.03 1.69 1.82 2.94 1.97 1.95

Volatilitat der Aktie j (%)

25.58 31.76 32.08 26.65 28.84 46.42 31.09 30.91

Durch Multiplikation der Standardabweichungen der Tagesrenditen mit ^250 erhdlt man die Standardabweichungen der Jahresrenditen, das sind die Vola-tilitdten.

Die Tagesrenditen verschiedener Aktien sind im Allgemeinen nicht unab-hdngig, sondern miteinander korreliert. Fiir je zwei Aktien kann man den Korrelationskoeffizienten aus der vergangenen Entwicklung der Tagesrenditen schdtzen. Unter der Annahme, dass alle Tagesrenditen im Zeitablauf nicht voneinander abhdngen, erhdlt man hier fiir je zwei Tagesrenditen Xj und Xk, zum Beispiel BASF (j) und Bayer (k), eine einfache Stichprobe der Ldnge n — 2610. Der empirische Korrelationskoeffizient rjk von Xj und Xk stellt gemdfi Abschnitt 5.1.6 einen geeigneten Schdtzwert fiir den theoreti-schen Korrelationskoeffizienten pjk der beiden Aktien dar. In der folgenden Tabelle sind die empirischen Korrelationskoeffizienten der acht Aktien auf-gefiihrt.

rjk BASF HYPO BMW BAY DB SAP SIE VW

BASF 1.00 0.37 0.47 0.71 0.45 0.27 0.40 0.50

HYPO

1.00 0.36 0.35 0.54 0.22 0.34 0.37

BMW

1.00 0.46 0.44 0.25 0.39 0.56

BAY

1.00 0.43 0.26 0.40 0.46

DB

1.00 0.34 0.50 0.46

SAP

1.00 0.42 0.32

SIE

1.00 0.44

VW

1.00

Wie man sieht, sind die Tagesrenditen sdmtlicher Aktien positiv korreliert. Bei Unternehmen, die derselben Branche angehoren, z.B. BASF und Bayer, ist die Korrelation besonders stark ausgeprdgt.

Als ndchstes geben wir Intervallschdtzungen fiir die Erwartungswerte und Standardabweichungen der Renditen (pro Tag und pro Jahr) sowie fiir die

Page 237: Wahrscheinlichkeitsrechnung und schließende Statistik

5.4. BEISPIEL: SCHATZUNG BEI AKTIENRENDITEN 227

Korrelationskoeffizienten der Tagesrenditen an. Als konkrete - zumindest approximative - Q.9^-Konfidenzintervalle fiir die mittleren Renditen (in %) erhalt man gemafi Abschnitt 5.3.5:

Aktie j

BASF HYPO BMW BAY DB SAP SIE

vw

Konfidenzintervall fiir fij pro Tag (in %) Ou

-0.00 -0.05 -0.01 -0.02 -0.04

0.02 -0.03 -0.03

Oo 0.12 0.11 0.15 0.11 0.10 0.24 0.12 0.12

Konfidenzintervall fiir die mittl. Jahresrendite (in %)

Ou - 0.47 -12.13 - 2.37 - 4.60 - 9.42

4.06 - 6.86 - 6.62

0o 30.56 26.40 36.54 27.74 25.57 60.37 30.86 30.87

Wie man sieht, sind die 0.95-Konfidenzintervalle der mittleren Renditen recht breit. Wir schlieflen daraus, dass aus den Tagesrenditen auch einer sehr groflen Zahl von Borsentagen sich die mittlere Tagesrendite nur sehr ungenau schdtzen Idsst.

Um Intervallschdtzungen fiir die Standardabweichungen angeben zu konnen, benotigen wir eine Normalverteilungsannahme^ iiber die Xj, ndmlich Xj ~ N{idj^a'j). Als konkrete 0.9b-Konfidenzintervalle fiir die Standardabweichun­gen der Renditen (in %) ergeben sich gemdfl Abschnitt 5.3.6:

Aktie j

BASF HYPO BMW BAY DB SAP SIE VW

Konfidenzintervall fiir Gj pro Tag (in %)

^u 1.58 1.96 1.98 1.64 1.78 2.86 1.91 1.90

eo 1.66 2.07 2.09 1.73 1.88 3.02 2.02 2.01

Konfidenzintervall fiir die Volatilitat (in %)

^u 24.91 30.93 31.24 25.96 28.09 45.20 30.27 30.10

Oo 26.30 32.65 32.98 27.41 29.66 47.72 31.96 31.78

"^Es sei darauf hingewiesen, dass die Normalverteilungsannahme bei Tagesrenditen pro-blematisch ist, da diese in der Regel eine erheblich hohere Kurtosis als 3 aufweisen und aufierdem leicht asymmetrisch verteilt sind.

Page 238: Wahrscheinlichkeitsrechnung und schließende Statistik

228 5. SCHATZVERFAHREN FUR PARAMETER

Unter der Annahme, dass die Tagesrenditen von je zwei Aktien bivariat nor-malverteilt sind, lassen sich Konfidenzintervalle fiir die Korrelationskoeffizi­enten bestimmen (vgl, Abschnitt 5.3.9). Die folgende Tabelle enthdlt Punkt-und Intervallschdtzungen ( 1 — a = 0.95^ fiir die Korrelationskoeffizienten der BASF-Tagesrendite (j = 1) mit den Tagesrenditen der iibrigen Aktien.

Aktie j

HYPO BMW BAY DB

SAP SIE

vw

Punktschatzung fur pij

0.37 0.47 0.71 0.45 0.27 0.40 0.50

Intervallschatzung fiir pij

0.34 0.44 0.69 0.42 0.23 0.37 0.47

0.40 0.50 0.73 0.48 0.31 0.43 0.53

5.5 Erganzungen

5.5.1 Beste lineare Schatzung eines Erwartungswerts

Um den Erwartungswert /i einer Zufallsvariablen zu schatzen, gibt es vie-le mogliche Schatzer. Die Prage ist, welchen von zwei alternativ gegebenen Schatzern man vorziehen soil, oder ob es sogar einen - in noch zu prazisie-rendem Sinne - besten Schatzer gibt.

jl = X ist erwartungstreu fiir fi bei beliebiger Verteilung F. Andererseits kann z.B. der erste beobachtete Wert ein Schatzwert fiir den unbekannten Erwartungswert sein. Es ist dann Jl = X\ Schatzer fiir /x. Da E[Xi] = ^ ist, ist auch Ji erwartungstreu. Die Varianz des zweiten Schatzers betragt V[Xi] = (7 , im Gegensatz zur Varianz des ersten Schatzers, V[X] = ^ . Der Schatzer Jl = Xi streut also starker als /i = X; beide sind jedoch erwartungstreu.

Linearer Schatzer Ein Schatzer /i fiir fi heifit linear, wenn die Schatz-funktion linear ist, d.h. wenn

M Y^ajXi i = l

ist mit gewissen Koeffizienten a i , . . . , a^ G M. Offenbar ist ft = X ein linearer Schatzer fiir /i mit a i = a2 = . . . = a^ = :^. Aber auch der Schatzer ]! = Xi oder der Schatzer

^ = i x i + ^X2

Page 239: Wahrscheinlichkeitsrechnung und schließende Statistik

5.5. ERGANZUNGEN 229

sind linear. Allgemein ist ein linearer Schatzer jl flir fi genau dann unverzerrt, wenn Yll^i < i = 1- Es gilt namlich

E\il\ = E Li=i

= Y^aiE[Xi] = f^Y^ai, i=l i=l

also E[jl] = fi genau dann, wenn Yl7=i < i = 1- Insbesondere ist X unverzerrt flir II, Aber auch die Schatzer Xi und \Xi + |X2 sind jeweils unverzerrt fiir

Der folgende Satz vergleicht X mit alien linearen erwartungstreuen Schatzern fiir fji und beantwortet die eingangs gestellte Prage nach einem besten Schatzer.

Gaufi-Markoff-Theorem^ Unter alien linearen erwartungstreuen Schat­zern fiir ^ hat X die kleinste Varianz. Kurz: X ist BLUE (Best Linear Unbiased Estimator).

Wenn man sich auf lineare Schatzer beschrankt, gibt es also nach dem Gaufi-Markoff-Theorem keinen Schatzer, der besser ware als das Stichprobenmittel.

BEWEIS Wir berechnen die Varianz eines beliebigen linearen Schatzers fi = S i L i ^«" « und minimieren die Varianz bzgl. der Koeffizienten a i , . . . , a n unter der Nebenbedingung, dass der Schatzer unverzerrt (d.h. Yl^=i ^i — 1) ist.

V\LI] = V /^O^i^i z = l

unter der Nebenbedingung Yl7=i c z "= 1- ^^^ Lagrangefunktion lautet

n / n \

L(a i , . . . , an ,A) = c r ^ ^ a , ^ + A I ^ Q i - 1 I .

NuUsetzen der partiellen Ableitungen, r\ T-

^ — ( a i , . . . , a n , A ) = 2c7^aiH-A = 0, OOii

fiihrt zu oci = —^ fiir alle i. Wegen der Nebenbedingung folgt ai = ^ fiir alle z. Das Varianzminimum wird iiii fi = X angenommen, was zu zeigen war. D

5.5.2 EfRzienz von Punktschatzern

Um einen Parameter zu schatzen, kommen oft mehrere Schatzer in Prage, die sowohl erwartungstreu als auch konsistent sind. Im Polgenden geben wir ein

^Carl Friedrich Gaufi (1777-1855), Andrej A. Markoff (1856-1922).

Page 240: Wahrscheinlichkeitsrechnung und schließende Statistik

230 5. SCHATZVERFAHREN FUR PARAMETER

weiteres Kriterium an, mit dem man zwischen „besseren" und „schlechteren" Schatzern unterscheiden kann.

Der mittlere quadratische Fehler eines Schatzers ist ein Ma6 fiir seine Pra-zision. Bei unverzerrten Schatzern stimmt er mit der Varianz liberein. Zwei Schatzer fiir den gleichen Parameter, 9i und 62, die (zumindest asymptotisch) unverzerrt sind, werden deshalb beziiglich ihrer Varianzen verglichen. Der Quotient

heifit relative EfRzienz von 61 gegeniiber 62.

Man beachte, dass die Varianzen V[6i] und ¥[62] und damit auch die rela­tive Effizienz zweier Schatzer von dem unbekannten Wert des Parameters 6 abhangen. Wenn fiir alle mogUchen Werte von 9 die relative Effizienz von 9i gegeniiber §2 groCer oder gleich 1 und fiir mindestens einen Wert von 9 grofier als 1 ist, wird 9i efflzienter oder auch wirksamer als §2 genannt. Dann hat der Schatzer 9i in jedem Fall keine grofiere Varianz als der Schatzer §2-

Beziiglich einer gegebenen Klasse von Schatzern nennt man einen Schatzer effizient, wenn er gegeniiber alien Schatzern dieser Klasse minimale Varianz hat.

Nach dem Satz von Gaufi-Markoff (Abschnitt 5.5.1) ist das Stichprobenmittel X = ^ Z^ILi ^^ beziiglich der Klasse aller linearen unverzerrten Schatzer fiir fi effizient. Es gilt V[J(] = ^a^.

5.5.3 Robuste Schatzung

Das Stichprobenmittel X ist ein guter Schatzer fiir /i; es ist konsistent und -beziiglich aller linearen Schatzer - effizient. Dennoch kann seine Verwendung problematisch sein, wenn sich so genannte Ausreifier in der Stichprobe befin-den. Ein AusreiBer ist ein extremer Wert der Zufallsvariablen X, d.h. ein Wert, der in einen Bereich sehr kleiner Wahrscheinlichkeit fallt. Ein Ausreifier kann ein fehlerhafter Wert sein, der durch einen Erhebungs-, Ubertragungs-oder Aufbereitungsfehler in die Stichprobe gelangt ist; er kann aber auch einen korrekten, lediglich selten auftretenden Beobachtungswert darstellen. In beiden Fallen beeinflusst ein Ausreifier das Stichprobenmittel sehr stark, da sein extremer Wert mit dem gleichen Gewicht wie die librigen Beobachtun-gen in die Bildung des Mittelwerts eingeht. Bei einem Verdacht auf Ausrei­fier ist es deshalb sinnvoll, statt X ein a-getrimmtes Stichprobenmittel zu verwenden, d.h. die na grofiten und na kleinsten Werte Xi wegzulassen,

Page 241: Wahrscheinlichkeitsrechnung und schließende Statistik

5.5. ERGANZUNGEN 231

wobei 0 < a < ^. Der Wert von a ist dabei im Hinblick auf die konkre-te Datensituation und den Anwendungszusammenhang festzulegen. Im Ex-tremfall verwendet man lediglich den Stichprobenmedian. Das a-getrimmte Stichprobenmittel und der Stichprobenmedian werden robuste Schatzer ftir fjL genannt, da Beobachtungen, die extrem weit vom zu schatzenden Erwar-tungswert /i liegen, keinen Einfluss auf den Schatzwert haben. Entsprechende robuste Schatzer verwendet man ftir die Varianz und die hoheren Momente.

5.5.4 Bayes-Schatzer

Eine weitere Methode zur Konstruktion von Schatzern ist die Bayes-Methode. Sie erlaubt auch die Einbeziehung von Vorinformationen liber den Parameter.

Oft ist vor der Schatzung bekannt, dass in der konkreten Anwendung nicht jedes 6 aus der Menge 0 aller moglichen Parameter in gleicher Weise in Prage kommt. Eine solche Vorinformation (auch: A-priori-Information) liber 0 kann in unterschiedlicher Form vorliegen. Eine mogliche Form der Vorinformation besteht darin, dass 6 auf eine bestimmte Teilmenge von 9 beschrankt ist.

Allgemein betrachtet man eine Wahrscheinlichkeitsverteilung fiir 6 auf der Menge 9 . Sie wird A-priori-Verteilung genannt. Die A-priori-Verteilung kann diskret oder stetig sein. Wir betrachten zwei spezielle Falle.

Falls X diskret verteilt und eine diskrete A-priori-Verteilung fiir 6 gegeben ist, berechnet man aus den A-priori-Wahrscheinlichkeiten 7To{6i)^7ro{62), • • • und den vorliegenden Beobachtungen x i , . . . , x^ gemafi der Formel von Bayes (siehe Abschnitt 1.3.3) die A-posteriori-Wahrscheinlichkeiten

7ri{ej\\xi,...,Xn) = P{e = ej\Xi =Xi,,..,Xn = Xn)

^ /(a:i,...,Xn||<9j)'7ro(6^j)

fiir jedes j . Dabei bezeichnet / ( x i , . . . ^Xn\\Ok) die Wahrscheinlichkeit, dass die Werte xi^... ,Xn beobachtet werden, wenn 6^ der wahre Parameter ist. Man sucht dann den Parameterwert 9j aus, dessen A-posteriori-Wahrschein­lichkeit maximal ist.

Falls eine stetige A-priori-Verteilung fiir 6 gegeben ist, geht man in ahnlicher Weise vor. Sei 7ro{6),6 G 9 , die A-priori-Dichte, das ist die Dichte der A-priori-Verteilung, und seien xi,...^Xn die beobachteten Werte. Die A-posteriori-Dichte TTI von ^, gegeben die Beobachtungen, berechnet man nach der Formel

Page 242: Wahrscheinlichkeitsrechnung und schließende Statistik

232 5. SCHATZVERFAHREN FUR PARAMETER

wobei / ( x i , . . . ,Xn\\0) die gemeinsame Dichte der Stichprobe X i , . . . , X n be-zeichnet, wenn 9 der wahre Parameter ist. Um 9 zu schatzen, maximiert man die A-posteriori-Dichte beziiglich 9. Offenbar geniigt es, den Zahler dieses Bruchs zu maximieren, da der Nenner nicht von 9 abhangt.

Der Wert von ^, an dem (im diskreten Fall) die A-posteriori-Wahrscheinlich-keit bzw. (im stetigen Fall) die A-posteriori-Dichte ihr Maximum annimmt, wird als Schatzwert fiir 9 verwendet. Der zugehorige Schatzer heiBt Bayes-Schatzer oder auch verallgemeinerter ML-Schatzer.

Beispiel 5.6 (Fortsetzung): Im Beispiel „PannenhdufigkeiV' set 9 die unbe-kannte Wahrscheinlichkeit.

a) Wir nehmen zundchst an, dass fiir 9 jeder Wert aus dem Intervall [0,1] gleichermafien in Frage kommt Dies fiihrt auf die A-priori-Verteilungs-annahme 9 ~ i?(0,1) mit der A-priori-Dichte

, . , r 1, falls 0<9<1, sonst.

Es wird ( x i , . . . ,a:io) = (0,0,0,1,0,0,0,0,0,0) beobachtet Gemdfi der Formel (5.2) berechnen wir den Zahler der A-posteriori-Dichte von 9

.( „m /m / ^ ^ 1 - ^ ) ^ - 1 , f a l l s O < e < l ,

Durch Differenzieren dieses Ausdrucks sieht man, dass die A-posteriori-Dichte fiir 0 < 6 < 0.1 streng monoton wdchst und fiir 0.1 < ^ < 1 streng monoton fdllt, bei 9 = 0.1 also ihr globales Maximum annimmt. Demnach ist bei dieser A-Priori-Verteilung 9 = 0.1 der Bayes-Schdtzer.

b) Wir gehen nun von der Vorinformation aus, dass der wahre Wert von 9 zwischen 15% und 40% liegt und weiter nichts iiber 9 bekannt ist. In diesem Fall ist 9 ~ i?(0.15,0.40) eine sinnvolle A-priori-Verteilungsan-nahme. Die A-priori-Dichte lautet nun

. . . [ 4 , falls 0.15 <6><0.40, ''^^^) = \ 0 sonst,

und der Ausdruck 9^{1 — 9)^ • 4 ist fiir 0.15 < 9 < 0.40 zu maximieren. Offenbar liegt das Maximum bei 9 = 0.15. Unter dieser Vorinformation ist ^ = 0.15 der Bayes-Schdtzer.

Page 243: Wahrscheinlichkeitsrechnung und schließende Statistik

5.5. ERGANZUNGEN 233

Erganzende Literatur zu Kapitel 5:

Punkt- und Intervallschatzung fiir Parameter wird in alien Statistikbiichern fiir Wirtschafts- und Sozialwissenschaftler behandelt; siehe hierzu etwa die im Anschluss an Kapitel 1 aufgefiihrten Lehrbiicher.

Allgemeine Darstellungen der Schatztheorie findet man in Bickel und Dok-sum (2000) und Casella und Berger (2001). Ein klassisches Buch zur Parame-terschatzung ist Lehmann und Casella (1998), es enthalt auch weiterfiihren-des Material. Die Bayes-Schatzung wird speziell in Berger (1993) und Berna-do und Smith (1994) behandelt. Robuste Schatzverfahren werden ausfiihrlich in Andrews et al. (1972) und Hampel (1986) dargestellt.

Page 244: Wahrscheinlichkeitsrechnung und schließende Statistik

234 5. SCHATZVERFAHREN FUR PARAMETER

5.6 Anhang: Verwendung von Excel und SPSS

Konfidenzintervall fiir /i (Beispiele 5.8 und 5.10, Seite 215 und 217):

Excel I Ein (1—a)-Konfidenzintervall fiir den Erwartungswert /i einer normal-verteilten Zufallsvariablen X bei bekannter Varianz wird mithilfe der Funk­tion KONFIDENZ(Alpha;Standabwn;Umfang_S) bestimmt. Im Beispiel 5.8 ist Alpha = 0.05, Standabwn = ^ 0 0 9 = 0.3 und Umfangs = 15 in der Excel-Funktion zu setzen. Die Losung ist dann

i /o.95 = [4.2 - KONFIDENZ(0,05;0,3;15),

4.2 + KONFIDENZ(0,05;0,3;15)]

= [4.0482,4.3518].

Excel I Das (1—a)-Konfidenzintervall/des Beispiels 5.10 wird in Excel mithilfe der Funktion TINV(Wahrsch;Freiheitsgrade) bestimmt:

20 - TINV(0,01;12-1) • , ^ ^ 1 ( 1 2 ) ' ^ ° + TINV(0.01;12-1) • ^, , ,^^1(12)

= [18.2069, 21.7931] ,

wobei Wahrsch der Wahrscheinlichkeit 1 — f, bier also = 0.01, entspricht.

SPSS I Die Berechnung des t-Quantils fiir das Konfidenzintervall im Beispiel 5.10 erfolgt in SPSS mit der Funktion IDF.T(p,df), und das Konfidenzintervall ist

20 - IDF.T(0.995,12-1) • ^ ^ y 2 0 + IDF.T(0.995,12-1) • 3 ^ ^

= [18.2069, 21.7931] .

Konfidenzintervall fiir cr (Abschnitt 5.3.6):

Excel I Zur Bestimmung eines (1 — a)-Konfidenzintervalls fiir a^ bei unbe-kanntem /i und Normalverteilung kommt in Excel die Funktion CHIINV(p;Freiheitsgrade) zur Anwendung. Sei speziell a = 0.05, n = 10 sowie 5^ = 4. Dann berechnet man

10-4 10-4 i^/o.95 = CHIINV(0.025;9) ' CHIINV(0,975;9)J

= [2.1027,14.8127]

SPSS I In SPSS wird entsprechend

10-4 10-4 KIo. 95 IDF.CHISQ(0.975,9) ' IDF.CHISQ(0.025,9)J

[2.1027,14.8127]

berechnet. Dabei muss die Funktion IDF.CHISQ(0.025,9) fiir die beiden Nen-ner getrennt aufgerufen werden.

Page 245: Wahrscheinlichkeitsrechnung und schließende Statistik

5.6. ANHANG: VERWENDUNG VON EXCEL UND SPSS 235

Schatzung von Akt ienmark t rend i t en (Abschnitt 5.4): Die Daten sowie alle Berechnungen zu dem Beispiel 5.13 stehen im Internet unter http://www.wiso.uni-koeln.de/p/mosler-schmid in der Exceldatei Ak t i enbe i sp ie l .x l s zur Verfligung. Insbesondere sei darauf hingewiesen, dass die Konfidenzintervalle fur die Volatilitat unter Benutzung der Nahe-rungsformel flir x^-Quantile

,2 1 xl,p « 2 ("P +^/2^^^-l) ("P - P-Quantil von ^'(0,1))

bestimmt werden miissen, da Excel nicht die Quantile einer xieoQ'^'^'^'^^l'^'^g berechnen kann.

Page 246: Wahrscheinlichkeitsrechnung und schließende Statistik

Kapitel 6

Hypothesentests

Bei der Punkt- bzw. Intervallschatzung wurde der unbekannte Wert des Para­meters 9 durch einen Schatzwert bzw. ein Intervall von Schatzwerten ersetzt. Eine andere Art von statistischer Inferenz bilden die Hypothesentests. Mit ih-nen kann man auf der Basis von Beobachtungen priifen, ob eine begriindete Vermutung iiber den Wert des Parameters 6 zutrifft oder nicht. Drei Bei-spiele fiir solche Vermutungen und ihre mogliche Uberpriifung anhand von Stichproben sollen dies illustrieren:

Betrachtet man die Geburten in einer Bevolkerung, so liegt es nahe zu ver­muten, dass die Wahrscheinlichkeiten fiir die Geburt eines Madchens oder Jungen gleich (und deshalb gleich 0.5) sind. Diese Vermutung soil anhand einer Stichprobe von Geburten uberpriift werden.

Bei der Produktion von Folien durch eine Maschine liegt es (wenn die Ma-schine entsprechend eingestellt ist) nahe zu vermuten, dass die produzierten Folien im Mittel eine bestimmte Starke (z.B. von 55)um) nicht iiberschreiten. Ob diese Vermutung tatsachlich zutrifft, ist anhand einer Stichprobe von Folienstiicken zu entscheiden.

Im Rahmen der Analyse einer Aktie kann die Vermutung begriindet sein, dass sich die Volatilitat der Aktienrendite seit einem bestimmten Ereignis erhoht hat. Ob dies wirklich zutrifft, soil anhand einer Stichprobe von Renditen geprlift werden.

Das Kapitel beginnt mit einer Einfiihrung in die Grundbegriffe der Test-theorie. In den folgenden Abschnitten werden dann fiir spezielle Hypothesen Testverfahren angegeben und mit Beispielen illustriert.

237

Page 247: Wahrscheinlichkeitsrechnung und schließende Statistik

238 6. HYPOTHESENTESTS

6.1 Grundbegriffe

Sei X eine Zufallsvariable und 6 ein unbekannter Parameter der Vertei-lung von X. Ein Parametertest ist ein statistisches Verfahren, mit dem ei­ne Hypothese (iber einen unbekannten Parameter aufgrund einer Stichprobe X i , . . . , Xn aus X iiberpruft wird.

Test problem, Hypothese, Test Bezeichne 6 den unbekannten Parame­ter und 9 den Parameterraum, also die Menge seiner moglichen Werte. Ftir zwei disjunkte Teilmengen Oo,©i C 0 betrachtet man das Testproblem

iJo : 6> G Go gegen Hi : 6 £ Qi.

HQ heifit Nullhypothese, Hi heiCt Gegenhypothese oder Alternative. Die Nullhypothese heifit einfach, wenn Go genau ein Element enthalt, d.h. wenn |Go| = 1 ist. Anderenfalls heifit sie zusammengesetzt. Ebenso wird die Gegenhypothese als einfach oder zusammengesetzt bezeichnet. In den meisten Testproblemen ist Gi das Komplement von Go, Gi = G \ GQ. Dann spricht man von einer voUstandigen Alternative.

Sei nun G = R oder ein Intervall in R und sei ^o ^ G eine vorgegebene Zahl. Ein Testproblem der Form

Ho:e = eo gegen Hi : 6 ^ OQ

heifit zweiseitiges Testproblem. Hier ist Go = {^o} und Gi = G \ {^o}-Die Testprobleme

und Ho :

Ho : : e<eo : e>eo

gegen

gegen

Hx:e>6o

Hi:e< 00

nennt man einseitige Testprobleme. Im ersten einseitigen Testproblem ist Go =] — oo, ^o] und Gi =]^05 oo[, im zweiten Go = [OQ, OO[ und Gi =] — oo, ^o[-

Beispiel 6.1 (Geburten): In einer Bevolkerung soil untersucht werden, oh die Geburtswahrscheinlichkeiten fur Jungen und Mddchen gleich sind. Die Wahr-scheinlichkeit n fiir die Geburt eines Jungen stellt den unbekannten Parame­ter 6 dar, n = 6 G Q = [0,1]. Die Hypothese gleicher Wahrscheinlichkeiten ist IT — 0.5; sie ist die Nullhypothese. Gegenhypothese sei die vollstdndige Alternative w ^0.5. Das Testproblem lautet also

Ho : n = 0.5 gegen Hi : n ^O.b.

Es ist ein zweiseitiges Testproblem mit einfacher Null- und zusammengesetz-ter Gegenhypothese.

Beispiel 6.2 (Dicke von Folien): Bei der Untersuchung der Dicke der von ei­ner Maschine produzierten Folien bezeichne X die Starke eines Folienstucks

Page 248: Wahrscheinlichkeitsrechnung und schließende Statistik

6.1. GRUNDBEGRIFFE 239

in /dm. Wir machen die Verteilungsannahme, dass X ~ iV(/i, 16) ist mit un-bekanntem Erwartungswert fd und (aus frilheren Messungen) bekannter Va-rianz CJ = 16. Es soil getestet werden, ob fi grofier als fdQ = 55 ist oder nicht (^-> Excel). Hier ist der Parameter 6 = fJ^, und das Testproblem lautet

Ho : fd <bb gegen Hi : fi > 55.

Es handelt sich um ein einseitiges Testproblem mit rechtsseitiger Alternative. Null- und Altemativhypothese sind zusammmengesetzt.

Ein Test fiir ein gegebenes Testproblem ist ein Verfahren, um in Abhangigkeit von der Stichprobe zu entscheiden, ob HQ zugunsten von Hi abgelehnt wer­den kann oder nicht. Er ist durch eine Statistik T = T{Xi,... ,Xn), die als Priifgrofie oder Testgrofie bezeichnet wird, und eine Menge K C M, den kritischen Bereich, gegeben. Das Testverfahren lautet:

T{Xi,...,Xn) ^ K => Ho wird abgelehnt, T ( X i , . . . , Xn) ^ K => Ho wird nicht abgelehnt.

Beispiel 6.1 (Fortsetzung): Zehn zufdllig ausgewdhlte Geburten werden beob-achtet. Sie liefern eine Stichprobe X i , X 2 , . . . ,-^10 aus X,

-Ai y _ I ^ bei Geburt eines Jungen, 0 bei Geburt eines Mddchens.

Als Priifgrofie fiir das obige Testproblem bietet sich

10

T {Xi,... ,Xn) =} Xj

an, das ist die Anzahl der geborenen Jungen. Die Nullhypothese Ho : n = 0.5 soil abgelehnt werden, wenn Yli=i ^i ^^ klein oder zu grofi ist.

Beispiel 6.2 (Fortsetzung): Auf der Basis von zwanzig zufdllig ausgewdhlten Folienstiicken erhalten wir eine Stichprobe X i , . . . , X20 CLUS X. Eine geeignete Priifgrofie ist hier

i=l

also die mittlere Stdrke der Folienstilcke in der Stichprobe. Ho '. f^ < 55 soil dann abgelehnt werden, wenn X zu grofi ist, also X > k. Der kritische Bereich ist demnach K = ]k^oo[ mit einem noch zu bestimmenden kritischen Wert k.

Um den kritischen Bereich K geeignet festzulegen, betrachten wir in Abhan­gigkeit von K die Fehler, die beim Test auftreten konnen, und ihre Wahr-scheinlichkeiten. Bei einem Test konnen zwei Arten von Fehlern auftreten:

Page 249: Wahrscheinlichkeitsrechnung und schließende Statistik

240 6. HYPOTHESENTESTS

• Fehler erster Art Der Fehler erster Art besteht darin, HQ abzu-lehnen, obwohl HQ richtig ist. Die maximale Wahrscheinhchkeit, einen Fehler erster Art zu begehen, wird mit a bezeichnet. a heifit Niveau (auch: Signifikanzniveau) des Tests.

• Fehler zweiter Art Der Fehler zweiter Art besteht darin, HQ nicht abzulehnen, obwohl HQ falsch ist. Die maximale Wahrscheinlichkeit, einen Fehler zweiter Art zu begehen, wird mit /3 bezeichnet.

Insgesamt sind vier Falle zu unterscheiden, die wir in der folgenden Tabelle zusammenfassen:

HQ richtig HQ falsch

Testentscheidung HQ ablehnen I HQ nicht ablehnen

Fehler erster Art kein Fehler

kein Fehler Fehler zweiter Art

Die Testgrofie T ( X i , . . . , Xn) hangt von der Stichprobe ab und ist daher eine Zufallsvariable. Die Wahrscheinlichkeit, dass sie im kritischen Bereich K des Tests liegt, wenn 6 der „wahre" Parameter ist, wird mit P ( T ( X i , . . . ,Xn) G i^ II ^) bezeichnet. Diese Wahrscheinlichkeit hangt natiirlich von 6 ab. Man betrachtet sie als Funktion von 0,

Die Funktion G heifit Giitefunktion (englisch: power function) des Tests. Als Operationscharakteristik des Tests wird die Funktion

oc{e) = i-G{e), 0GG,

bezeichnet. Insbesondere ist^

a = sup G{e) = 1- inf OC{e)

die maximale Wahrscheinlichkeit ftir einen Fehler erster Art, und

P = l - inf G((9) = sup {OC{e))

^Das Symbol sup steht fur das Supremum, das Symbol inf steht fiir das Infimum einer Menge von reellen Zahlen. Beispielsweise ist das Supremum eines endlichen Intervalls gleich dessen oberer Grenze, gleichgiiltig, ob das Intervall offen, halboffen oder abgeschlossen ist.

Page 250: Wahrscheinlichkeitsrechnung und schließende Statistik

6.1. GRUNDBEGRIFFE 241

ist die maximale Wahrscheinlichkeit fiir einen Fehler zweiter Art. Wenn die Nullhypothese einfach ist, ©o = {^0} ? entfallt beim Fehler erster Art die Maximierung, es ist dann a = G{9o)'

Beispiel 6.1 (Fortsetzung): Im Beispiel der Geburten wdhlen wir als kriti-schen Bereich K = {0,1} U {9,10}. Fur die Priifgrofie gilt dann Xli=i -^i ~ B{10,7T), also ist die Giitefunktion

G W = p f f ; X , G { 0 , l } | l 7 r j + p f f ; X , € { 9 , 1 0 } | | 7 r j

Es handelt sich um eine einfache Nullhypothese ©0 = {0.5}. Die Wahrschein­lichkeit fiir den Fehler erster Art betragt demnach

a = G(0.5) = 0.0010 + 0.098 + 0.098 + 0.0010 - 0.0216.

Fiir den Fehler zweiter Art gilt

- 1 - a - 0.9784.

Bei diesem Beispiel gilt offensichtlich 0 = 1 — a, Diese Beziehung trifft bei zahlreichen, jedoch nicht bei alien Tests zu.

Beispiel 6.2 (Fortsetzung): Die Nullhypothese, dass die mittlere Foliendicke hochstens 55 jj.m betrdgt, ist eine zusammengesetzte Hypothese; ebenso ist die Alternative zusammengesetzt. Die Testgrofie ^ = ^ Y^i=i -^i '^^^ offenbar

normalverteilt mit (^ = y^ und unbekanntem fx, und daher

^ ~ ^ ~ i V ( 0 , l ) .

Als kritischen Wert wdhlen wir k = 57^ also K =]57, cx)[, und berechnen die Giitefunktion sowie die Fehlerwahrscheinlichkeiten a und (3. Es gilt

Page 251: Wahrscheinlichkeitsrechnung und schließende Statistik

242 6. HYPOTHESENTESTS

Offenbar wdchst G{^) monoton mit fi. Fur die Fehlerwahrscheinlichkeit ers­ter Art folgt daher

a = sup G(/x) - G(55) M<55

57 — 55 1 - ^ 1 -=^ 1 = 1 - $ (2.2361) = 0.0127.

Weiter gilt

/3= S U P ( 1 - G ( M ) ) = 1-G(55) = 1-a = 0.9873. /x>55

Auch in diesem Beispiel ist also P = 1 — a.

Bei den beiden Beispielen wurden Testgrofie T und kritischer Bereich K je-weils vorgegeben und a und /? berechnet. In der Praxis des Testens geht man jedoch anders vor. Da es im Allgemeinen nicht moghch ist Tests zu konstru-ieren, bei denen sowohl a als auch /? klein (oder sogar null) sind, muss man sich damit zufrieden geben, eine der beiden Fehlerwahrscheinlichkei-ten zu kontrollieren, d.h. klein zu halten. Dies ist im Folgenden immer die maximale Fehlerwahrscheinlichkeit erster Art a, das ist die maximale Wahrscheinlichkeit HQ abzulehnen, obwohl HQ richtig ist. Die maximale Feh­lerwahrscheinlichkeit zweiter Art ist dann, von Spezialfalien abgesehen, nicht mehr zu kontrollieren, d.h. sie kann hoch sein. Wie an den obigen Beispielen zu sehen ist, kann /? = I—a gelten, und je kleiner a ist, umso grofier ist /?. Die-ser Sachverhalt muss bei der Interpretation des Testergebnisses beriicksichtigt werden.

OfFensichtlich sind die Testergebnisse „iJo ablehnen" und „iJo nicht ablehnen" von sehr unterschiedlicher Qualitat. Wahrend man sich gegen falschliches Ablehnen von HQ durch Wahl eines kleinen a schiitzen kann, kann man sich gegen falschliches Nicht ablehnen im Allgemeinen nicht schiitzen. Aus diesem Grund wird man bei einer Ablehnung von HQ davon ausgehen, dass HQ, da es im Widerspruch zu den empirischen Daten steht, falsch ist. Damit ist Hi bestatigt oder - wie man auch sagt - statistisch gesichert. Jedoch ist zu berlicksichtigen, dass es sich hier nicht um absolute Sicherheit handelt, denn, auch wenn die Nullhypothese zutrifFt, kann der Test zur Ablehnung ftihren, was allerdings hochstens mit der Wahrscheinlichkeit a vorkommt. Man sagt deshalb auch, dass Hi zum Signifikanzniveau a (d.h. mit einer maximalen Fehlerwahrscheinlichkeit erster Art von a) gesichert ist, und nennt den Test einen Signifikanztest zum Niveau a.

Demgegeniiber kann man beim Nichtablehnen von HQ nicht davon ausgehen, dass HQ zutrifft. Vielmehr wird man dieses Testergebnis so interpretieren, dass HQ nicht in Widerspruch zu den empirischen Daten steht. Man kann

Page 252: Wahrscheinlichkeitsrechnung und schließende Statistik

6.2. TESTS FUR ERWARTUNGSWERTE 243

deshalb HQ beibehalten, ohne durch den Test eine ausdrlickhche Bestatigung fiir HQ erhalten zu haben.

Die unterschiedUche QuaUtat der Testergebnisse „ifo ablehnen" und „ifo nicht ablehnen" hat auch Konsequenzen fiir die Formuherung von HQ und Hi. Es ist bei den Tests der hier vorgestellten Art keineswegs gleichgiiltig, welche Vermutung als HQ und welche als Hi formuUert wird. Mochte der Statistiker seine Vermutung durch den Test bestatigen, so muss er sie als Ge-genhypothese Hi formulieren, denn nur in diesem Fall kann er die falschliche Ablehnung von HQ (und damit die falschliche Bestatigung von Hi) kontrol-lieren.

Offenbar hangt die Testentscheidung, HQ abzulehnen oder nicht, wesentlich vom gewahlten Signifikanzniveau a ab. Die meisten speziellen Tests kann man zu verschiedenen Niveaus a durchfiihren. Dabei vergrofiert sich mit wachsen-dem a der kritische Bereich K, und die Ablehnung der Nullhypothese wird - bei gleicher Datenlage - „erleichtert". Die Hypothesen und das Signifi­kanzniveau miissen jedoch festgelegt sein, bevor man die konkreten Daten auswertet.

Wichtig fiir die Interpretation der Testergebnisse ist das Folgende: Die Feh-lerwahrscheinlichkeiten a und /? beziehen sich auf das Testverfahren und nicht auf die individuellen Testergebnisse. So ist a die maximale Wahrschein-lichkeit, dass, wenn HQ zutrifft, das Verfahren dennoch zu einer Ablehnung von HQ fiihrt. Diese Wahrscheinlichkeit bezieht sich auf die Situation vor der Erhebung der Daten und vor der Durchfiihrung des Tests. Liegt das konkrete Testergebnis vor, so ist dieses entweder richtig oder falsch. Jedoch trifft die fol­gende Haufigkeits interpretat ion zu: Bei haufiger Durchfiihrung desselben Tests zum Signifikanzniveau a mit jeweils neuen, unabhangig entstandenen Daten wird in ungefahr a • 100% aller Falle ein Fehler erster Art begangen.

Die folgenden Abschnitte enthalten Standardverfahren, mit denen Hypothe­sen iiber die Lage und Streuung von Merkmalen unter verschiedenen Voraus-setzungen getestet werden.

6.2 Tests fiir Erwartungswerte

Zu den Standardaufgaben der schlieCenden Statistik gehort es, Aussagen liber die Mittelwerte quantitativer Merkmale, d.h. liber die Erwartungswerte der entsprechenden Zufallsvariablen, zu treflFen. Die Aussagen beziehen sich auf die Lage einer Zufallsvariablen auf der reellen Zahlenachse oder auf den Ver-gleich der Lage mehrerer Zufallsvariablen. Die folgenden Abschnitte enthalten die Standardverfahren, mit denen Hypothesen liber Erwartungswerte gete­stet werden konnen. Sie beziehen sich auf einen Erwartungswert sowie auf den Vergleich von zwei Erwartungswerten.

Page 253: Wahrscheinlichkeitsrechnung und schließende Statistik

244 6. HYPOTHESENTESTS

6.2.1 Tests fiir einen Erwartungswert

Es sei X eine Zufallsvariable mit Erwartungswert fx = E[X] und Varianz cr = V[X]. X i , . . . , X n sei eine einfache Stichprobe aus X, Unter verschiedenen Voraussetzungen iiber die Verteilung von X sowie iiber a^ (bekannt oder unbekannt) werden Tests fiir /j, hergeleitet.

1. Tests fiir fi einer Normal verteilung, wenn cr bekannt ist (Gau6-Tests) Wir beginnen mit dem Testproblem

i^o : /i = /io gegen if i : // 7 //Q ,

wobei /io ein vorgegebener Wert fiir /i ist. Es handelt sich um ein zweiseitiges Testproblem. HQ ist eine einfache Nullhypothese, Hi eine zusammengesetzte Alternative.

Wie im Abschnitt 6.1 angekiindigt, wollen wir einen Test herleiten, dessen Fehlerwahrscheinlichkeit erster Art gleich a ist, wobei wir a vorgeben.

Es liegt nahe, das Stichprobenmittel X als Testgrofie zu verwenden und HQ abzulehnen, wenn X von /ZQ deutlich verschieden ist. Falls X in der Nahe von /io liegt, gibt es keinen Grund HQ abzulehnen. Anstatt X selbst als TestgroBe einzusetzen, verwenden wir das standardisierte Stichprobenmittel als Testgrofie

a

Falls HQ zutrifft, gilt yi = JJLQ und deshalb

Wir lehnen HQ ab, wenn diese Priifgrofie einen sehr grofien oder einen sehr kleinen Wert annimmt. Dies entspricht einer erheblichen Differenz zwischen X und IXQ. Die Testentscheidung wird aufgrund der standardisierten Test-grofie getroffen: Lehne HQ ab, wenn

{X - /io) y/n > /c.

wobei k noch geeignet festzulegen ist. Abweichungen der Priifgrofie nach oben und nach unten fiihren so in gleicher Weise zur Ablehnung.

Die Zahl k ist der kritische Wert des Tests. Wir bestimmen k so, dass die Wahrscheinlichkeit HQ abzulehnen, obwohl HQ zutrifft, hochstens a betragt.

Page 254: Wahrscheinlichkeitsrechnung und schließende Statistik

6.2. TESTS FUR ERWARTUNGSWERTE 245

Mx)

Abbildung 6.1: Ablehnbereich zum zweiseitigen Gaufi-Test

Dann ist

a P {HQ wird abgelehnt 11 HQ ist richtig)

> /c II i^o ist richtig I

= pm>k),

da unter HQ die Verteilungsannahme in (6.-1) zutrifft.

Aus a = P {\U\ > k) folgt jedoch sofort, dass k das (l — f ) — Quantil der A^(0,1) ist, d.h. k = i i i _ | . Ist z.B. a = 0.05, so ergibt sich k = uo.975 = 1.96.

Wir wollen nun die Giitefunktion des Tests herleiten. Sie gibt die Wahr-scheinlichkeit ftir das Ablehnen von HQ als Funktion des wahren Wertes von fj, an. In unserem Fall ist also ftir // € 0 = R

G(/i) = P {HQ wird abgelehnt || /i)

> ^ i - f II /^

= 1-P {X - /XQ) >/n I

< Ui-

Page 255: Wahrscheinlichkeitsrechnung und schließende Statistik

246 6. HYPOTHESENTESTS

G(/i)

Abbildung 6.2: Giitefunktion des Tests auf Ho • fJ. = no gegen Hi : fx ^ no fiir no = 1.0, a^ = 1.0 sowie n = 10,20,50.

G(M) l-p{-u, , < ( ^ - M o ) v ^ < , | | ^ ]

1 - P I - U , a < - h - —^— < U^_a II fj.

= 1-P{-U^_a

= 1 -

2 cr

$ I Uj_a -

2 (J <U <U, a

^~ 2

-^[-U

(// - IXQ) y/n

{fl - Ho) y/n

Hierbei haben wir (6.-1) verwendet, was aus der Verteilungsannahme folgt.

Abbildung 6.2 stellt die Giitefunktion fiir verschiedene Stichprobenlangen dar, wenn /io == 1.0 und cr = 1.0 ist. Dabei gehort der untere Graph zu n = 10, der mittlere zu n = 20 und der obere zu n = 50. Man sieht, dass die Giitefunktion bei groBerem n rechts und Unks von /j, — fXQ = I schnel-ler zum Wert eins ansteigt als bei kleinerem n. Ein rascheres Ansteigen ist wiinschenswert. Es bedeutet, dass der zugehorige Test scharfer zwischen der NuUhypothese und der Gegenhypothese zu unterscheiden vermag.

Page 256: Wahrscheinlichkeitsrechnung und schließende Statistik

6.2. TESTS FUR ERWARTUNGSWERTE 247

Als Nachstes betrachten wir das Testproblem

Ho : fJ^< 1^0 gegen iJi : // > /XQ .

Es ist ein einseitiges Testproblem. HQ ist eine zusammengesetzte Nullhypo-these und Hi eine zusammengesetzte Alternative. Als Testgrofie verwenden wir wie oben

{X - /XQ) ^/n a

Bei der Festlegung des kritischen Bereiches muss man jetzt bedenken, dass alle Werte ^ < /io zu HQ gehoren. Ist also X < fio oder - gleichbedeutend -die standardisierte Grofie

( X - / i o ) v ^ ^Q^ a

so ist dies durchaus mit der Giiltigkeit der Nullhypothese vertraglich. Wir lehnen deshalb HQ nur dann ab, wenn X erheblich grofier als /XQ oder die standardisierte Grofie erheblich grofier als 0 ist, d.h. wenn fiir einen geeigneten kritischen Wert k

{X-iip)^ ^ . a

Die Bestimmung von k ist etwas schwieriger als oben, da HQ jetzt zusam-mengesetzt ist. Gilt // = /io, so ist

p(^^-^;^^>k\\,]=Piu>k).

Mit k = ui-a ergibt sich

P I - > wi-a II M I = a •

Fiir ein fj, < fio gilt

P I -' ^ ' > Wl-a II M 1

= P\ 1 > Ui-a M

<0

- P{U>Ui-a-^^ ^ ° ^ ^ ^ ) < P ( C / > U i - a ) = a .

Page 257: Wahrscheinlichkeitsrechnung und schließende Statistik

248 6. HYPOTHESENTESTS

G(/.)

0

Abbildung 6.3: Giitefunktion des Tests auf Ho : jj, < iJ,o gegen Hi : /j, > /JLO fiir fio = 1.0, C7 = 1.0 sowie n = 10,20,50.

Damit gilt aber

sup P ^ > ui-a II A* = Q .

Die maximale Fehlerwahrscheinlichkeit erster Art ist also gleich a. Fiir die Giitefunktion dieses Tests ergibt sich

G{lX) = PI ^ '- > Ui_a II M

P(U> ui.a -( / i - / i o ) \ / n '

a

Abbildung 6.3 stellt die Giitefunktion des Tests fiir /io = 1-0, a^ = 1.0 sowie n = 10, n = 20 und n = 50 dar. Im Bereich der Gegenhypothese {/j, > fxo = 1) ist der obere Graph der fiir n = 50, der mittlere der fiir n = 20 und der untere der fiir n = 10. Auch hier steigt die Giitefunktion auf der Gegenhypothese rascher bei grofierem als bei kleinerem n an.

Page 258: Wahrscheinlichkeitsrechnung und schließende Statistik

6.2. TESTS FUR ERWARTUNGSWERTE 249

Die Herleitung eines Tests fiir

iJo : M > Mo gegen

sowie deren Glitefunktion verlauft analog.

Hi : fj.< /do

Diese drei Tests heifien GauC-Tests. Sie sind in der folgenden Testbox zu-sammenfassend dargestellt.

Verteilungsannahme

Nullhypothese

Gegenhypothese

PriifgroBe

Ho ablehnen, falls

X i , . . . , X n ~ N{fx, cr^), cr bekannt

Ho: fJ> = p^o

Hi\ p^ po

Ho : p < po

Hi: p> po

Ho : p> Po

Hi: p< Po 1

a

\T\ > ui_« T > Ui.a T < -ui-a 1

Wenn X nicht normalverteilt, aber n hinreichend grofi ist, gelten die Tests approximativ. Als Faustregel verwenden wir: n > 40.

Beispiel 6.2 (Fortsetzung): Die Foliendicke X wird als normalverteilte Zu-fallsvariable mit bekannter Varianz a'^ = 16 [/im^] angesehen. Die Hypothese Ho, dass der Erwartungswert p dieser Normalverteilung gleich dem Sollwert Po = 55[/im] ist, soil anhand einer Stichprobe der Ldnge n = 25 uberpriift werden. Das Niveau sei a = 0.05.

Aufgrund der Interessenlage dessen, der die Untersuchung vornimmt, unter-scheiden wir drei Fdlle, ndmlich: Die Uberpriifung geschieht durch

1. eine Eichkommission, die an einer Abweichung vom Sollwert po = 55 sowohl nach unten als auch nach oben interessiert ist,

2. den Fabrikbesitzer, von dem wir hier annehmen, dass er lediglich wis-sen will, ob die Folien im Mittel zu dick hergestellt und somit zuviel Rohstoffe verbraucht werden,

3. eine Verbraucherorganisation, deren Interesse nur der Frage gilt, ob der wahre Erwartungswert p kleiner als der Sollwert po ist.

Nullhypothese, Gegenhypothese und kritischer Bereich sind dann wie folgt zu wdhlen:

1. Ho:p = 55,Hi:p^ 55, \T\ > u i_^ = 1.96,

Page 259: Wahrscheinlichkeitsrechnung und schließende Statistik

250 6. HYPOTHESENTESTS

2. Ho: fi<bb, Hi: fi> 55, T > ui-a = 1.64,

3. iJo : /i > 55, iJi : /x < 55, T < -ui-a = -1-64.

Die Testgrofie ist bei alien drei Tests

a 4

Ergeben die Beobachtungen als Stichprobenmittel x = 56.4[/im], so hat die Testgrofie den Wert

5 6 . 4 - 5 5 r-—^v/25 = 1.75.

4

1. Beim ersten Testproblem ist dann der Ablehnbereich

i i : = ] - o o , - 1 . 9 6 [ U ]1.96,oo[.

Da der Wert der Testgrofie nicht im kritischen Bereich liegt, lautet die Testentscheidung, dass Ho : JJ. = bb nicht zugunsten von Hi : fi ^ bb abgelehnt wird.

2. Beim zweiten Testproblem ergibt sich der Ablehnbereich

Da hier die Testgrofie in den kritischen Bereich fdllt, lautet die Test­entscheidung: „Ho: // < 55 wird zugunsten von ifi: /i > 55 abgelehnt". Das Ergebnis Hi: fi > bb ist zu einem Signifikanzniveau von b% stati­stisch gesichert.

3. Der Ablehnbereich ist hier

A: = ] - O O , - 1 . 6 4 [ ,

so dass der Wert der Testgrofie nicht in K liegt. Es ist also keine Ab-lehnung von Ho zugunsten von Hi moglich.

Im Fall 2. wird die Nullhypothese somit abgelehnt, in den Fallen 1. und 3. je-doch nicht. Inhaltlich bedeutet dies, dass - zum Niveau b% - die Hypothese Hi des Fabrikbesitzers durch die Daten statistisch gesichert ist: Im Mittel werden die Folien zu dick hergestellt. Alle iibrigen Hypothesen sind nicht statistisch gesichert.

Wir sehen hier ein Beispiel, in dem zu einem gegebenen Niveau a die zweisei-tige Alternative aufgrund der gegebenen Daten nicht gesichert werden kann, eine einseitige Alternative aber doch. Bei der einseitigen Alternative wird

Page 260: Wahrscheinlichkeitsrechnung und schließende Statistik

6.2. TESTS FUR ERWARTUNGSWERTE 251

die Nullhypothese abgelehnt, da der kritische Wert des einseitigen Tests (das Quantil ui-a) kleiner ist als der obere kritische Wert des zweiseitigen Tests (das Quantil ui-^).

2. Tests fiir /j, einer Normalver te i lung, wenn a^ unbekannt ist (t-Tests) Bei vielen praktischen Anwendungen ist die Varianz cr nicht bekannt. Es liegt nahe, in der Testgrofie des Gaufi-Tests a^ durch den Schatzer 5^ oder 5*^ zu ersetzen. Dadurch andert sich jedoch deren Verteilung. Es gilt jetzt, wenn fi = fjio ist,

( X - / i o ) v ^ {X - Ho) y/n

( n - l ) (T2

tn-1

Als Testgrofie verwenden wir deshalb

{X - iUo) A/TI _ {X - fio) Vn-l

Die folgenden Tests werden ahnlich wie die drei Gaufi-Tests durchgeflihrt. Jedoch sind die Quantile der N{0,1)-Verteilung nun durch Quantile der tn-i-Verteilung zu ersetzen. Diese Tests heifien ^Tests; sie sind in der Testbox ubersichtlich zusammengefasst:

Verteilungsannahme

Nullhypothese

Gegenhypothese

Prlifgrofie

Ho ablehnen, falls

X i , . . . , Xn ~ N{jj,, cr^), cr unbekannt

HQ: fi = fio

Hi: ix^ ixo

-s | r | > t n - l , l - f

Ho'' IJ' < /J'O

Hi: fx> 1^0

- Lin "Y y/n-l = —

T > tn-l,l-a

Ho' fJ'> fJ'O

Hi: iK^io 1

-7; v ^ 5* T < —tn-l,l-a

Betrachten wir hierzu das bereits von den Gaufi-Tests bekannte Beispiel.

Beispiel 6.2 (Fortsetzung): Es gilt, die Dicke der Folie hezilglich ihres Soll-werts von fio = 55 zu testen. Die Stichprobenldnge betrage erneut n = 2b. Das Niveau sei a = 0.05. Es folgt 1 - f = 0.975 und 24,0.975 = 2.0639 « 2.06 sowie 1 — a = 0.95 und 24,0.95 = 1.7109 « 1.71. Der Mittelwert der Stick-probe betrage x = 56.4 und die Stichprobenvarianz s^ = 13.4. Der Wert der Testgrofie des t-Tests ist also

56.4 - 55

^13:4 - 7 2 4 = 1.87.

Page 261: Wahrscheinlichkeitsrechnung und schließende Statistik

252 6. HYPQTHESENTESTS

1. Beim zweiseitigen Test auf HQ: /X = /io gegen Hi: yi IIQ ist dann der Ablehnbereich

K=]-oo,-2m[U]2m,oo[.

Da hier die Testgrofle mit ihrem Wert 1.87 nicht in den kritischen Be-reichfdllt, lautet die Testentscheidung, dass iJo: M = 55 nicht zugunsten von iJi: /i 7 55 abgelehnt wird.

2. Beim einseitigen Test auf HQ: /X < /XQ 9^9^'f^ Hi: ii> JJLO ergibt sich ein Ablehnbereich von

Da hier die Testgrofle in den kritischen Bereichs fdllt, lautet die Te­stentscheidung: „Ho: /Li < 55 wird zugunsten von iJi: /i > 55 abgelehnt". Das Ergebnis iJi : /i > 55 ist zum Signifikanzniveau von 5% statistisch gesichert.

3. Schliefllich testen wir HQ: fJ>> f^o 9^9en Hi: fx < fiQ. Der Ablehnbereich ist hier

Da der Wert der Testgrofle nicht in K fdllt, kann HQ nicht zugunsten von Hi abgelehnt werden.

Man sieht an diesem Beispiel, dass bei gleichem Signifikanzniveau der t-Test einen kleineren Ablehnbereich als der Gaufi-Test aufweist. Er fiihrt also „sel-tener" zur Sicherung der Gegenhypothese als der mit den gleichen Daten und 5*^ statt cr durchgefiihrte Gaufi-Test.

6.2.2 Vergleich zweier Erwartungswerte

Haufig sind Unterschiede in den Mittelwerten zweier Merkmale bzw. in den Erwartungswerten der entsprechenden Zufallsvariablen zu analysieren. Bei-spielsweise ist es ftir die Leitung eines Versandhauses von Interesse, ob sich die mittlere Bestellsumme von Kunden nach Durchfiihrung einer Werbekampag-ne erhoht hat, oder ob ein Unterschied zwischen der mittleren Bestellsumme von Kunden aus den alten Bundeslandern und der von Kunden aus den neuen Bundeslandern besteht.

Formal haben wir jetzt Stichproben aus zwei Zufallsvariablen X und Y mit Erwartungswerten E[X] = (j,x und E[Y] = HY sowie Varianzen V[X] = a'x und V[Y] = ay zu untersuchen. In diesem Abschnitt gehen wir von zwei unabhangigen Stichproben aus, die den Umfang n bzw. m aufweisen. Wir setzen voraus, dass die n + m Zufallsvariablen Xi,... ,Xn,Yi,... ,Ym

Page 262: Wahrscheinlichkeitsrechnung und schließende Statistik

6.2. TESTS FUR ERWARTUNGSWERTE 253

vollstandig unabhangig sind. Dies schliefit insbesondere ein, dass die Beob-achtungswerte x i , . . . , a y , y i , . . . , y^ bei n-\-m verschiedenen Untersuchungs-einheiten erhoben werden. Im Abschnitt 6.2.3 werden wir davon abweichend eine Abhangigkeit zwischen den beiden Stichproben zulassen.

Flir zwei unabhangige Stichproben leiten wir nun Tests liber die Differenz l^x — I^Y unter verschiedenen Annahmen iiber die Verteilung von X und Y sowie iiber a'x und ay her.

1. Zw^eistichproben-Gaufi-Tests Wir setzen voraus, dass X ~ N{fix^(^'x) ^^^ ^ ^ A^(/^y»cry) gilt. Aufierdem seien cr^ und ay bekannt. Wir betrachten zunachst das Testproblem

HQ: fix = fiY gegen Hi : fix y^ f^v -

Zur Konstruktion einer Testgrofie verwenden wir die Differenz der arithme-tischen Mittel X und Y aus den beiden Stichproben. Es ist

\ n m

da X und Y stochastisch unabhangig sind. Weiter gilt

X - F - ( / x x - M y )

\ n m

iV(0,l).

Als Testgrofie fiir das obige Testproblem verwenden wir

X-F T = T{Xi,. . . ,Xn,Yi, . . . ,Ym)

\ n ' m

und lehnen HQ ab, wenn \T\ > k. Zur Bestimmung von k betrachten wir die Fehlerwahrscheinlichkeit erster Art. Es ist

a = P{\T\ > k\\ Ho richtig, d.h. fix -fiy =0) = P{\U\ > k).

Da C/ ~ A^(0,1) gilt, ist k = ui-^ ,

Ahnlich lassen sich Tests fiir die beiden anderen Testprobleme herleiten. Wir fassen die Zweistichproben-GauB-Tests in der folgenden Testbox zusam-men:

Page 263: Wahrscheinlichkeitsrechnung und schließende Statistik

254 6. HYPOTHESENTESTS

Verteilungs-a n n a h m e

Nullhypothese

Gegenhypothese

Priifgrofie

Ho ablehnen, falls

X i , . . . , X n , 1 1 , . . . , ^m unabhangig , a x , cry bekannt ,

HQ: fix == f^Y

Hi: fix / My

1 1 > ^i-f_

^ o : fJ'X < fJ'Y

Hi: fix > jdY

HQ: fxx > fiY

Hi: fix < IdY

T- ^ - ^

y ^ + ^ 1 T>ui-oc T < -Ui-a 1

Beispiel 6.3 (Werbekampagne): Die Auswirkungen einer Werbekampagne fiir ein Produkt sollen untersucht werden. Insbesondere ist hierbei der Effekt der Werbekampagne auf die Bestellsumme der Kunden von Interesse. Es stellt sich die Frage, ob die mittlere Bestellsumme nach der Werbekampagne ge-stiegen ist. Dabei bezeichne X die Hohe einer zufdllig herausgegriffenen Be-stellung nach der Kampagne und Y die Hohe einer zufdllig herausgegriffenen Bestellung vor der Kampagne (in €). Beide werden als normalverteilt vor-ausgesetzt, X ~ N{fxx,cr'x), Y ~ N{nY,ay). Getestet wird (^-^ Excel/SPSS)

Ho\fix<IJiY gegen ifi: ^ x > My-

Zwei unabhdngige Stichprobenziehungen der Ldngen n = 15 und m = 10 ergaben

x - 5 6 . 4 , y - 5 4 . 2 .

Seien a'x 13.4 und ay 12.0 „bekannV', d.h. sie wurden mit hinreichen-der Genauigkeit aus vergangenen unabhdngigen Erhebungen oder aufgrund anderweitiger Informationen bestimmt. Der Wert der Prufgrofie T betrdgt

56.4 - 54.2

/

= 1.52. 13.4 I JL2J0 15 ~^ 10

Der kritische Bereich ist K =]ui-a,oo[. Fiir a = 0.10 erhdlt man K = ]1.28,oo[. Wegen 1.52 G K wird HQ: fix ^ l^v zugunsten von Hi: fix > l^Y abgelehnt.

Die obigen Zweistichproben-Gaufi-Tests konnen auch dann verwendet wer­den, wenn X und Y nicht exakt normalverteilt sind, aber n und m geniigend grofi und (j\ und Gy bekannt sind. Als Faustregel soil hier wieder n, m > 40 gelt en.

Der bisher betrachtete Fall, dass a'x und Gy bekannt sind, ist sehr speziell. In der statistischen Praxis sind die Varianzen in aller Kegel unbekannt. Falls n und m geniigend grofi sind (Faustregel wie oben: n,m> 40) lassen sich die Gaufi-Tests jedoch modifizieren, indem man a'x und ay durch die Schatzer

Page 264: Wahrscheinlichkeitsrechnung und schließende Statistik

6.2. TESTS FUR ERWARTUNGSWERTE 255

Sx und Sy ersetzt. Die modifizierten Tests, die in der nachfolgenden Test-box zusammengefasst sind, gelten lediglich approximativ und dies wegen des Zentralen Grenzwertsatzes auch, wenn X und Y nicht normalverteilt sind.

Verteilungs-1 a n n a h m e

Nullhypothese

Gegenhypothese

Priifgrofie

Ho ablehnen, falls

X i , . . . , X n , Y i , . . . , Km unabhangig ,

<7^,(JY unbekannt , n , m > 40 |

Ho: fix = Mv

Hi', fix ¥" l^y

^

| T | > ^ i _ ^

^ o : fJ'X < fJ'Y

Hi: fxx > fJ'Y

T - ^ - ^

y^ + f T>Ui-a

Ho: fix > fiY

Hi: fix < fiY

T < -Ui-a

2. Zweistichproben-^-Tests In einem Spezialfall lasst sich auch fiir kleinere Stichproben aus normalverteil-ten Zufallsvariablen ein Test zum Vergleich der Mittelwerte herleiten, wenn die Varianzen unbekannt sind. Es muss dabei jedoch vorausgesetzt werden, dass die beiden unbekannten Varianzen gleich sind.

SeiX ~ N{fxX',o-'x) und Y ~ N{fiY,aY) undcr^ = ay vorausgesetzt. Umdie Nullhypothese fix = Mr und die entsprechenden einseitigen Nullhypothesen zu test en, verwenden wir als TestgroCe

T(Xi, . . . Xn^Yiy . . . Yjn)

nm{n 4- m — 2) X -Y

n + m y/{n - 1)S%^ + (m - 1)5^^

Wir zeigen, dass, falls fix = I^Y ist, diese TestgroBe eine ^-Verteilung besitzt.

BEWEIS AUS den Testvoraussetzungen folgt, dass

(6.0)

*2 {n-l)S*^' Xn-l und

(m - 1)5^^ *2

Xm—1 'X

stochastisch unabhangig sind. Demgemafi ist

(n - l)S*x^ + (m - 1)5^^

'X ' X n + m - 2 '

ferner wegen a'x = cry

X-Y^N (fix-fiY. ^ + - ^ ^ n m ' V

Page 265: Wahrscheinlichkeitsrechnung und schließende Statistik

256 6. HYPOTHESENTESTS

Daraus folgt wiederum, dass unter HQ: fxx = /^y

7V(0,1) (TX /

m-\-n

ist, SO dass X-Y

- v ^ ( n - l ) 5 ; ^ H ( m - l ) 5 ^ 2

nr?_

: \ / n + m - 2 ~ tn+m-2 ,

da Zahler und Nenner unabhangig sind. Dieser Doppelbruch lasst sich zu

X-Y

V n+m—2 \n m )

vereinfachen und ist demnach gleich der PriifgroBe T. D

Mithilfe von (6.0) erhalt man die drei Tests der folgenden Testbox. Sie werden Zweistichproben-^-Tests genannt.

Verteilungs-annahme

Nullhyp.

Gegenhyp.

Priifgrofie

1 Ho ablehnen,

falls

X i , . . . , Xny V i , . . . , Ym unabhangig, aj^ = cry unbekannt, X i , . . . , Xn - iV(Mx, a i ) , y i , . . . , Km - N{fXY,a^y) 1

HQ: lix = /dy

Hi: jjix 7 P'Y

HQ: /dx < IdY

Hi: fix > IdY

_ Inmin-i-i ~ V n +

|T| > tn+rn-2,l-q

rn-2)

HQ: fdx > IdY

Hi: lix < IJiY

~X-Y m ^ ( ^ _ 1)5^2 ^ ( ^ _ 1)5*2 1

T > t n + m - 2 , l - a T < —tn-\-m-2,l-a

Beispiel 6.3 (Fortsetzung): Es interessiert wieder, oh nach der Werbekam-pagne die mittlere Bestellsumme gestiegen ist. Wir betrachten das gleiche Testproblem, doch werden die Varianzen von X und Y nun als unbekannt und gleich vorausgesetzt, cr^ = cry- Aus den Daten (^—> Excel) habe man X = 56.4, y = 54.2, s*x = 13.4,5y? = 10.4 erhalten. Dann betrdgt der Wert der Testgrofie

15 • 10 • (15 + 1 0 - 2 ) 56.4 - 54.2 = 1.54.

15 + 10 ^714 • 13.4 + 9 • 10.4

Filra = 0,01 5 23,0.99 = 2.50 der kritische Wert. Da der Wert der Testgrofie nicht im kritischen Bereich liegt, kann HQ nicht abgelehnt werden. Auf Basis der vorliegenden Daten ist es also nicht statistisch gesichert, dass die mittlere Bestellsumme nach der Werbekampagne gestiegen ist.

Page 266: Wahrscheinlichkeitsrechnung und schließende Statistik

6.2. TESTS FUR ERWARTUNGSWERTE 257

6.2.3 Vergleich von Erwartungswerten bei verbundener Stichprobe

Wir kehren zum Vergleich zweier Merkmale zurlick, lassen jedoch im Gegen-satz zu Abschnitt 6.2.2 nun Abhangigkeiten zwischen den Beobachtungen der beiden Merkmale zu.

Viele statistische Probleme sind vom folgenden Typ: Eine Anzahl von Unter-suchungseinheiten erfahrt eine bestimmte „Behandlung". X stellt den Wert eines interessierenden Merkmals vor der Behandlung dar, Y den Wert des-selben Merkmals nach der Behandlung. Beispielsweise sei X die Arbeitspro-duktivitat einer Person vor einem Berufsforderungslehrgang, Y die Arbeits-produktivitat nach dem Lehrgang.

Fiir jede Untersuchungseinheit i beobachtet man das Wertepaar {xi^yi)^ i = 1 , . . . , n. Jeder der Beobachtungswerte (x^, yi) wird als Realisation eines Paars (Xi^Yi) von Zufallsvariablen aufgefasst. Wenn die n Paare untereinander vollstandig unabhangig sind, wird {Xi.Yi),... ,{Xn,Yn) als verbundene Stichprobe (englisch: paired sample oder matched pairs) bezeichnet. Dabei sind in der Regel fiir jedes i die beiden Zufallsvariablen Xi und Yi von-einander abhangig. Die gemeinsame (bivariate) Verteilung von (Xi^Yi) kann fiir jedes Paar verschieden sein.

Sei (Xi, Y i ) , . . . , (X^, Yn) eine verbundene Stichprobe. Aufierdem sei (Xi^Yi) fiir jedes i gemeinsam bivariat normalverteilt mit

- 4,

Wir testen die Nullhypothese, dass fiir jede Untersuchungseinheit i die bei­den Zufallsvariablen Xi und Yi den gleichen Erwartungswert haben, gegen die Alternative, dass bei mindestens einer Untersuchungseinheit ungleiche Erwartungswerte vorliegen:

Ho : l^i = Vi fiir alle i gegen Hi : nicht HQ .

Zur Konstruktion einer Testgrofie verwenden wir die Differenzen Di = Xi—Yi. Offenbar ist fiir jedes i die Zufallsvariable Di univariat normalverteilt,

Di ~ N{iXi - i^i.a^) mit a^ = a^ 4- cry - 2ax(JYPXY,

und die Di sind stochastisch unabhangig. Unter HQ sind alle Di identisch verteilt mit

Di ~ A^(0, cr ) mit cr = cr^ + (7y — 2axo-YpxY •

E[Xi] --E\Yi] -

Corr\Xi,Yi] --

= l^i,

= i^i,

= PXY •

V\X,] = V[Y^ -

Page 267: Wahrscheinlichkeitsrechnung und schließende Statistik

258 6. HYPOTHESENTESTS

Unter der Nullhypothese stellt also D i , . . . , Dn eine einfache Stichprobe aus einer Zufallsvariablen D dar. Mit dieser einfachen Stichprobe flihrt man einen gewohnlichen ^Test auf HQ : E[D] = 0 gegen Hi : E[D] 7 0 durch. Flir das ursprlingliche Testproblem erhalt man den folgenden Test:

1 Verteilungs-1 annahme

Nullhyp.

Gegenhyp.

PrufgroBe

1 Ho ableh-nen, falls

(Xi.Yi) ~ N{yLi,Vi,(j'x,GY,pxY) unabhangig, z = 1, . .

Ho : fXi = Ui flir alle i

Hi: jjii Vi flir mindestens ein z

^ = -^^/^^^:, wobeiS=if;A,5|, = i f ; (A-

| r | > i „ _ i , i _ »

, n

-W

Ein wichtiger Spezialfall des obigen Testproblems liegt vor, wenn vorausge-setzt werden kann, dass alle Xi den gleichen Erwartungswert fii = /J> besitzen, und alle Yi den gleichen Erwartungswert Ui = y. Dann vereinfacht sich das Testproblem wie folgt, die Testgrofie und der kritische Bereich andern sich jedoch nicht:

1 Verteilungs-1 annahme

Nullhyp.

Gegenhyp.

PrlifgroBe

1 Ho ableh-nen, falls

{Xi.Yi) ~ N{iJL,v,a'x,aY,PxY) unabhangig,

Ho : /JL = 1/

Hi: fi^u

| T | > t „ _ i , j _ =

i = 1,... ,n

Beispiel 6.4- Wie im Beispiel 6.3 soil die Auswirkung einer Werbekampagne untersucht werden (^-^ Excel/SPSS). Hier handelt es sich allerdings um einen festen Kundenstamm, der regelmdfiig Bestellungen aufgibt. Beobachtet wird deshalb das Bestellverhalten von n = 15 Kunden im Monat vor der Werbe­kampagne und im Monat danach. Es ergeben sich folgende Bestellsummen:

Page 268: Wahrscheinlichkeitsrechnung und schließende Statistik

6.2. TESTS FUR ERWARTUNGSWERTE 259

i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Bestellsumme vorher

Xi

51 53 52 56 53 52 55 52 56 59 64 55 60 61 56

nachher Vi 54 52 53 55 51 53 58 56 54 58 62 58 60 63 59

Differenz

di - 3

1 - 1

1 2

- 1 - 3 - 4

2 1 2

- 3 0

- 2 - 3

Man bildet in der Tabelle die Differenzen di und erhdlt d = —0.7333, sj^ 4.3289, SD = 2.0806. Die Prufgrofie hat den Wert

SD 2.0806 -1.3187.

Filr a = 0.05 ist ^n- i , i - f = i4,o.975 = 2.1448 > | - 1.3188|. Die Nullhypo-these, dass sich die Werbekampagne nicht auf das mittlere Bestellverhalten ausgewirkt hat, kann also zum Niveau 5% nicht abgelehnt werden.

Abbildung 6.4 stellt die wichtigsten Tests fiir Erwartungswerte bei normal-verteilten Stichproben in einem Baumdiagramm iibersichthch dar.

Page 269: Wahrscheinlichkeitsrechnung und schließende Statistik

R

p <;

(T) ^ a>

r-(-

£3 < ^ •

C/3

o

t3

•-J u cr > cr

cr

Q

-

(w

Oi

ffi^ cr

(T)

CO

O 3:

C=:

cr

CD

CO I O

fq

CO

0) cr

CD

Tes

ts f

ur

Erw

artu

ng

swer

te

Ein

fax:

he N

V-S

tich

prob

e X

i,..

. ,X

n Z

wei

fach

e N

V-S

tich

prob

e X

i,..

., X

n,

Vi,

- •

•, ^

m

a- b

ekan

nt

a'^

unbe

kann

t ^

X'^

v be

kann

t o^

'x^c

Fy

unbe

kann

t ^2

_ _

^2_

Gau

fi-T

est

t-T

est

Zw

eist

ichp

robe

n-

Gau

fi-T

est

Zw

eist

ichp

robe

n-

t-T

est

gew

ohnl

iche

r t-

Tes

t

iibe

r D

iffe

renz

en

Page 270: Wahrscheinlichkeitsrechnung und schließende Statistik

6.3. TESTS FUR VARIANZEN 261

6.3 Tests fiir Varianzen

Mit den Tests tiber einen oder mehrere Erwartungswerte wird die Lage von Verteilungen iiberpruft bzw. verglichen. Sie stellen die mit am haufigsten angewandten Signifikanztests dar. Gelegentlich ist auch die Streuung einer Verteilung oder der Vergleich zweier Verteilungen bezuglich ihrer Streuungen von Interesse. Im Folgenden geben wir Tests fiir eine Varianz sowie einen Test zum Vergleich von zwei Varianzen an.

6.3.1 Tests fur eine Varianz

Es sei X ~ -/V(//, cr ) und X i , . . . , X„ eine Stichprobe aus X. Um Hypothesen tiber a'^ zu testen, liegt es nahe, die Stichprobenvarianz oder ein geeignetes Vielfaches von ihr als Testgrofie zu wahlen. Wir wissen aus Abschnitt 4.3.1, dass

n

Als Testgrofie fiir das zweiseitige Testproblem

Ho'.a'^ = al gegen Hi : a'^ ^ a^

wahlt man deshalb

T-T(X y._in-l)S*^_nS^

und lehnt iJo ab, wenn T besonders grofi (T > ^2) oder besonders klein {T <ki) ist. Die kritischen Grenzen fci und ^2 sind aus der Beziehung

1 - a = P{ki <T <k2\\HQ richtig)

zu bestimmen. Bei symmetrischer Aufteilung der Fehlerwahrscheinlichkeit a erhalt man

A:i=Xn-i,f und fe = Xn-i , i - f •

Analog lassen sich die anderen Tests der nachfolgenden Textbox begriinden.

Page 271: Wahrscheinlichkeitsrechnung und schließende Statistik

262 6. HYPOTHESENTESTS

Verteilungs-

1 annahme

Nullhypothese

Gegenhypothese

Prtifgrofie

HQ ablehnen, falls

X i , . . . , X „ ~ A^(/i,(j^), //unbekannt

HQ : (7 = CTQ

i f 1 : a 7^ CTQ

iifo : cr < (jQ

i J l : cr > CTQ

HQ : (7 > (7O

HI : a < ao

' o i=i ^0 1

T < xLi , f Oder T > Xn-l,l-a - ^ An—l,a

Hierbei bezeichnet Xn-i,a ^^^ a-Quantil der x^-Verteilung mit n — 1 Frei-heitsgraden.

Wenn /d bekannt ist, verwendet man die Prtifgrofie

T = ^ E(^^ - M)'

und statt der Xn-i'^erteilung die x^-Verteilung.

Beispiel 6.5 (Entfernungsmesser): Ein optischer Entfernungsmesser weist laut Herstellerangabe eine Standardabweichung der Messanzeige von hochstens 10 cm auf. Aus sieben unabhdngigen Messungen der gleichen Strecke erhalten wir die Werte 1001,1003,1035,998,1010,1007,1012 cm, also fiir die empiri-sche Varianz den Wert s"^ = 129.96 und fiir die Testgrofle den Wert '^'^^^i^^ — 9.10. Zum, Niveau a = 0.10 betrdgt das Quantil x i , ! -^ ~ X6,o.9 ~ ^0.6. Die Nullhypothese HQ : a'^ < 10^ (die Angabe des Herstellers) Idsst sich demnach nicht ablehnen.

6.3.2 Vergleich zweier Varianzen

Bei zwei Zufallsvariablen X ~ N{idx,cF'x) und Y ~ Nddy.o-y) interessiert man sich fiir das Testproblem

Ho'.cTx = ay gegen Hi : a^ 7 cjy ,

d.h. die Gleichheit bzw. Ungleichheit der Varianzen. Gegeben seien zwei von-einander unabhangige Stichproben Xi , . . . ,X^ aus X und Yi , . . . , Ym aus Y. Um die Gleichheit der Varianzen zu iiberpriifen, liegt es nahe, den Quotienten

Page 272: Wahrscheinlichkeitsrechnung und schließende Statistik

6.3. TESTS FUR VARIANZEN 263

der beiden Stichprobenvarianzen zu untersuchen. Wir wissen aus Abschnitt 4.3.3, dass

( n - l ) 'X

Gyim — 1)

n—l,7n—1

Falls die Nullhypothese cr^ = (jy zutrifft, ist der Faktor cFy/cr'x gleich eins und deshalb der Quotient S'x /Sy" der beiden Stichprobenvarianzen F-verteilt mit n — 1 und m — 1 Freiheitsgraden. Wir verwenden ihn als PriifgroBe

T — T ( X i , , . . , X ^ , y i , . . . ,Fm) = " ;;:2 •

Man lehnt ifo ab, wenn T entweder zu grofi i^T > k^) oder zu klein (T < fci) ist. Zur Berechnung von k^ und k\ betrachtet man

\ - a = P{ki <T <k2\\ Ho richtig)

und wahlt deshalb k2 = Fn-i,m-i,i-f und fci = Fn-i^m-i,f. Dieser Test und zwei weitere Tests, die man analog begrlindet, werden als F-Tests bezeichnet. Sie sind in der nachfolgenden Testbox zusammengefasst.

Verteilungs-annahme

Nullhypothese

Gegenhypothese

Priifgrofie

Ho ablehnen, falls

X i , . . . , Xn.Yiy..., ^m unabhangig,

-^0 .* CTx = (Ty

Hi : CTx 1^ Oy

-^0 • O'X ^ ^Y

Hi : (7x > (Ty

Ho : (7x ^ cry i

Hi : ax < CTy

e*2

^ ~ q*2 ^Y

T < Fn_i,m-i,f Oder T > F n - i , y n - l , l - f

T> J^n—l,m—ljl — a

T< 1 ^n—l,m—l,a

Hierbei bezeichnet Fn-i^m-i.a das a-Quantil der F-Verteilung mit n — 1 und m — 1 Freiheitsgraden.

Beispiel 6.6 (Kugelstofi en): Um zwei Training smethoden A und B fiir das Kugelstofien zu erproben, werden 40 untrainierte Sportstudenten zufdllig in zwei Gruppen zu n = lb und m = 2b Studenten eingeteilt. Vor Beginn der Trainingsphase wird zunachst ein Leistungstest durchgefuhrt und fiir jeden Studenten die Weite des besten von drei Wiirfen notiert. Nach Abschluss

Page 273: Wahrscheinlichkeitsrechnung und schließende Statistik

264 6. HYPOTHESENTESTS

der Trainingsphase, wdhrend der die Studenten der Gruppe 1 nach Metho-de A und die der Gruppe 2 nach Methode B trainiert werden, wird ein ent-sprechender Leistungstest durchgefuhrt. Es ergeben sich die folgenden Werte (Differenzen der beim zweiten und ersten Leistungstest ermittelten Weiten [in m]):

Gruppe i ; x i , . . . ,xi5

4.86 3.32 12.78 12.00 5.24 11.40 6.56 9.04 7.72 9.26 7.88 8.60 9.30 8.42 8.54

Gruppe 2: yi,...,y25

6.90 5.80 13.56 10.32 13.30 11.38 7.94 10.74 13.68 14.92 7.42 10.36 10.54 5.22 13.74 12.98 10.34 10.02 17.80 13.04 5.20 9.40 11.18 12.68 12.36

Es wird angenommen, dass die ermittelten Werte eine Realisierung von un-abhdngigen Zufallsvariablen X i , . . . , X^, Y i , . . . , Ym darstellen und dass Xi ~ N{iiX',cr'x) fur alle i und Yj ~ Nddy.ay) fiir alle j gilt. Auf dem Signifi-kanzniveau a = 0.01 soil das Hypothesenpaar

HQ: fix > My gegen Hi \ fix < f^y

getestet werden. Um den Zweistichproben-t-Test anwenden zu konnen, mussen wir zundchst prilfen, ob die beiden Varianzen a\ und ay ubereinstimmen. Wir verwenden dafur einen F-Test zum Niveau 10%. Nullhypothese fiir die­ses Testproblem ist G\ = dy, Gegenhypothese (j\ ^ dy . Aus den gegebenen Daten erhalten wir

15 15

n - 15, Yl^i = 124.92 und ^xl = 1135.8616, i=l i = l

25 25

m = 25, ^yi = 270.82 und ^ yf = 3172.2964, i = l i=l

15

X = 8.328, nsj^ = X^C^i - ^f = 95.5279, i=l

25

y = 10.8328, ms^ = "^iVi " vf = 238.5575,

s3 ^ = ^^^ 2^{xi -xY =^^ 95.5279 - 6.8234

Page 274: Wahrscheinlichkeitsrechnung und schließende Statistik

6.4. TESTS FUR WAHRSCHEINLICHKEITEN UND ANTEILSWERTE 265

und m

S 1 1 3Y J^iVi -y)^ = ^ 238.5575 = 9.9399. m ^

1 = 1

Somit hat die Testgrofie des F-Tests den Wert

5*v? 6.8234 5 2 9.9399

Der kritische Bereich ist {t\t < Fn-i^rn-i,^ oder t > Fn-i^rn-i,!-^}- ^"^^ der F-Tabelle (Tabelle 7) entnimmt man die Quantile

i^l4,24,0.05 = T = TT^ = 0-43 Und Fi4,24,0.95 = 2.13 . ^24,14,0 .95 ^-OO

Wegen Fi4,24,o.05 = 0.43 < 0.6865 < 2.13 = ^14,24,0.95

wird die Nullhypothese gleicher Varianzen zum Niveau 10% nicht abgelehnt. Zwar ist damit nicht statistisch gesichert, dass die Varianzen wirklich gleich sind. Es gibt jedoch - auf Basis dieser Stichprobe - keinen Grund, die Nullhy­pothese gleicher Varianzen zu verwerfen. Also behalten wir sie beim weiteren Vorgehen, dem Zweistichproben-t-Test, bei.

Wir testen nun HQ : /dx > fdy gegen Hi : /dx < I^Y- Die Testgrofie T des Zweistichproben-t-Tests hat den Wert

nm{n + m — 2) oc — y

n + m V^^'x + ^^Y 15 • 25 • 38 8.328 - 10.8328

— • = = —2.5866 . 40 A/95.5279 + 238.5575

Der kritische Bereich ist {t\t < —tn-fm-2,i-a}- ^y^s der t-Tabelle (Tabel­le 6) entnimmt man das Quantil 38,0.99 = 2.4286. Wegen T — —2.5866 < —2.4286 = 38,0.99 '^^'^d die Nullhypothese abgelehnt. Es ist also auf Grund der Daten zum Signifikanzniveau a = 0.01 statistisch gesichert, dass die Trai-ningsmethode B im Mittel zu besseren Ergebnissen fuhrt.

6.4 Tests fiir Wahrscheinlichkeiten und Anteilswerte

Aussagen (iber eine Wahrscheinlichkeit mit Hilfe von Stichproben zu iiber-prlifen, gehort zu den wichtigsten Aufgaben der schliefienden Statistik. Unter-sucht wird die Wahrscheinlichkeit TT, mit der ein bestimmtes Ereignis eintritt.

Page 275: Wahrscheinlichkeitsrechnung und schließende Statistik

266 6. HYPOTHESENTESTS

Die Zufallsvariable X zeigt das Eintreten des Ereignisses an, X ~ 5 ( 1 , TT), und die Stichprobe X i , . . . , X^ entspricht den Ergebnissen einer BernouUi-Versuchsreihe.

Auf die gleiche Weise lassen sich Aussagen iiber einen Anteil in einer end-lichen Grundgesamtheit mittels Stichproben uberprufen. In einer end-hchen Grundgesamtheit moge ein Teil der Merkmalstrager eine bestimmte Eigenschaft haben. Zieht man mit Zuriicklegen eine Stichprobe X i , . . . ^Xn, so erhalt man eine BernouUi-Versuchsreihe auf das VorUegen dieser Eigen­schaft. Jedes Xi ist dann 5(l,7r)-verteilt, und die Wahrscheinhchkeit n ist gleich dem Anteil der Merkmalstrager mit der interessierenden Eigenschaft.

In diesem Abschnitt werden zunachst Aussagen iiber eine Wahrscheinlichkeit TT getestet. Es folgen Tests iiber die Gleichheit von zwei Wahrscheinlichkeit en.

6.4.1 Tests fiir eine Wahrscheinlichkeit

Sei X i , . . . , Xn eine Stichprobe aus X ~ 5 ( 1 , TT). Wir wissen, dass nach dem Zentralen Grenzwertsatz fiir TT = ^ IZlLi -^i S lt

appr

V n Zll

iV(0,l).

Fiir das Testproblem

HQ : TT = TTQ g e g e n i ^ i : TT 7^ TTQ

verwenden wir deshalb die Testgrofie

^ rpfv V \ (TT - TTQ) y/n 1 = i (Ai , . . . ,AnJ ^ - 7

Y^TTo ( 1 - TTo)

und lehnen ifo dann ab, wenn | r | > fc, wobei k aus

a = P(\T\ >k\\HQ richtig) « P {\U\ > k) zu bestimmen ist. Als approximativen kritischen Wert erhalt man k = u._a,

^ 2

das ist das (l — §)-Quantil der A''(0,1)-Verteilung. Die beiden anderen approximativen Tests der Testbox lassen sich in ahnlicher Weise begriinden. Eine Faustregel fiir die Verwendung der drei Tests ist n7ro(l -TTo) > 9.

Page 276: Wahrscheinlichkeitsrechnung und schließende Statistik

6.4. TESTS FUR WAHRSCHEINLICHKEITEN UND ANTEILSWERTE 267

Verteilungsannahme

Nullhypothese

Gegenhypothese

Prufgrofie

HQ ablehnen, falls

^ 1 ,

HQ : 7T = TTQ

HI : TT ^ TTQ

T =

| T | > u i _ ^

. . . ,^n~^(l ,7r) [

HQ : TT < TTQ

HI : TT > TTQ

HQ : TV > TVQ

HI : TT < TTQ

TT - TTo r-

v/7ro(l - TTo)

T > Ux-oc T < -Ui-a

Betrachten wir hierzu ein Zahlenbeispiel.

Beispiel 6.7: Sei TTQ = 0.32, n = 120, Yl^^^i ^i = ^S.DannistTr = x = 0.4. Die Nullhypothese HQ : n < TTQ soil gegen Hi : n > TTQ zu uberpriift werden. Der Wert der Testgrofle ergibt sich als

0.4 - 0.32

VO.32 ' 0.68 a20 = 1.88.

Das Uberpriifen der Faustregel liefert das Ergebnis n7ro(l — TTQ) = 26.11 > 9. Der kritische Bereich ist dann K = ]ui_a,oo[ = ]1.64, oo[; wenn a = 0.05. Da der Wert der Priifgrofle im kritischen Bereich liegt, kann HQ zugunsten von Hi abgelehnt werden.

6.4.2 Vergleich zweier Wahrscheinlichkeiten

Zwei Wahrscheinlichkeiten (oder Anteilswerte) sollen nun verglichen werden. Formal haben wir zwei Zufallsvariablen X ^ B{l,7rx) und Y ~ ^(l,7ry) zu untersuchen. Das Testproblem lautet

HQ : TTx = TVy gegen Hi : TTx ^ TTY '

Seien X i , . . . , Xn und Yi , . . . , Ym zwei unabhangige Stichproben aus X bzw. aus Y. Aus dem Zentralen Grenzwertsatz folgt

TTx - Tty - {TTX - TTy)

TTx (1 - TTx) TTy (1 - TTy)

appr NiO,l).

n m Allerdings kann dieser Ausdruck nicht als Testgrofie dienen, da im Nenner TTX und TTy vorkommen. Die Normalverteilung trifft jedoch auch dann noch ap-proximativ zu, wenn man im Nenner TTX durch TTX und TTy durch ny ersetzt. Man verwendet

T = T{Xi,... ,Xn,Yi,... , y^ ) — TTx ~ T^Y

Ttx (1 - T T x ) TTy (1 - TTy)

n m

Page 277: Wahrscheinlichkeitsrechnung und schließende Statistik

268 6. HYPOTHESENTESTS

als Testgrofie und lehnt HQ ab, wenn | r | > k. Unter HQ : TTX = Try besitzt die PriifgroiSe T eine asymptotische N{0,1)-Verteilung. Aus

a = Pi\T\ >k\\Ho richtig) ^ P{\U\ > k)

ergibt sich approximativ k = u._a. ^ 2

Die folgende Testbox enthalt diesen und zwei weitere approximative Tests zum Vergleich der Wahrscheinlichkeiten. Eine Faustregel fiir die Giiltigkeit der drei Tests lautet: nnxil — 7tx) > 9 und myry(1 — Try) > 9.

Verteilungsannahme X i , . . . , Xn, F i , . . . , Vm unabhangig, X i , . . . ,Xn - B(l,7rx), F i , . . . ,ym - 5(1,Try)

Nullhypothese HQ : TTx = TTY HQ '- TTx ^ TTy HQ : TTx ^ T^Y

Gegenhypothese -^1 • TTx 7^ T^Y H\ : TTx > T^Y Hi \ TTx < TTY

Priifgrofie T = TTx ~ TTY

/ T T X C I - T T X ) I 7ry(l—Try) y n ~^ m

HQ ablehnen, falls \T\>m.. T > Ui-a T < -Ui-oc

Betrachten wir hierzu ein Beispiel aus dem Marketing.

Beispiel 6.8 (Zielgruppenwerbung): Es wurde Zielgruppenwerbung fur ein be-stimmtes Produkt betrieben. Zwei Zielgruppen sollen nun dahingehend ver-glichen werden, ob der Anteil der Personen, die das Produkt kennen, in der einen Gruppe grofier oder kleiner ist als in der anderen. Es wird ein Test durchgefilhrt, der Aufschluss geben soil, ob der Bekanntheitsgrad in der zwei-ten Gruppe hoher ist als in der ersten Gruppe. Beschreibe TTX den Anteil derer, die das Produkt kennen, in Gruppe 1, ny den entsprechenden Anteil in Gruppe 2. Also wird die Nullhypothese HQ : TTX ^ Try gegen die Alternative Hi : 7Tx < Try getestet.

Sei n = 70,m = 60,x = TTx = 0.2143, y = Tty = 0.3167. Die Faustregel ist mit 70 • 0.2143 • 0.7857 > 9 sowie 60 • 0.3167 • 0.6833 > 9 erfullt. Der Wert der Testgrofie betrdgt

0.2143 - 0.3167

/

= -1.3207. 0.2143-0.7857 , 0.3167-0.6833

70 "^ 60

Der kritische Bereich ist K = ] — oo,—1.28[; wenn a = 0.10. Da T e K zutrifft, kann HQ abgelehnt werden. Der Interessentenanteil ist in Gruppe 2 hoher als in Gruppe 1.

Page 278: Wahrscheinlichkeitsrechnung und schließende Statistik

6.5. ANPASSUNGS- UND UNABHANGIGKEITSTESTS 269

6-5 Anpassungs- und Unabhangigkeitstests

Viele statistische Verfahren setzen voraus, dass das zu untersuchende Merk-mal eine bestimmte Wahrscheinlichkeitsverteilung besitzt. Ob die beobach-teten Daten mit einer bestimmten Verteilung der Zufallsvariablen vereinbar sind, lasst sich mit Hilfe eines so genannten Anpassungstests liberpriifen. Ein solcher Test vergleicht die vorliegenden Beobachtungen mit einer hypo-thetischen Verteilung und entscheidet, ob die Beobachtungsdaten zu dieser Verteilung „passen" oder nicht.

Beim x^-Anpassungstest unterteilt man den Wertebereich des Merkmals in endlich viele Klassen. Den Haufigkeiten, mit denen die Daten in diese Klas-sen fallen, stellt man die sich aus der hypothetischen Verteilung ergebenden erwarteten Haufigkeiten gegeniiber. Weichen diese zu stark von jenen ab, fol-gert man, dass die Daten nicht mit der unterstellten Verteilung vereinbar sind.

Betrachten wir hierzu zwei Beispiele.

Beispiel 6.9 (Fairer Wiirfel): Es stellt sich die Frage, ob ein gegebener Wiirfel fair ist, d.h. ob jede Augenzahl gleich wahrscheinlich ist. Wenn die Zufallsva-riable X die Augenzahl eines Wurfs bezeichnet, lautet also die Nullhypothese, dass P{X = i) = ^ fiir z = 1 , . . . , 6 ist. Um sie zu iiberpriifen, werden n un-abhdngige Wiirfe Xi,...,Xn durchgefiihrt und die relative Hdufigkeit jeder Augenzahl mit | verglichen ('-^ SPSS).

Beispiel 6.10 (Zufallszahlengenerator): Unter Zufallszahlen verstehen wir Re-alisationen von unabhdngigen, identisch verteilten Zufallsvariablen Zi,Z2, ...Zn ~ i?(0,1). Es stellt sich die Frage, ob ein bestimmter Zufallszahlen­generator wirklich Zufallszahlen erzeugt, das heiflt, ob eine konkret von ihm erzeugte Zahlenfolge als Realisation einer unabhdngigen Folge von i?(0,1)-Variablen angesehen werden kann.

Um diese Hypothese zu iiberpriifen, erzeugen wir zundchst mit dem Zufalls­zahlengenerator Zahlen (= Beobachtungen) zi, Z2, • • •, - looo- Wir zerlegen das Intervall [0,1] in J = 10 gleich grofle Teilintervalle

[0,0.1[,[0.1,0.2[,...,[0.9,1.0]

und zahlen die Beobachtungen, die in jedes Teilintervall fallen. Wenn die Zi Realisationen unabhdngiger R{0^1)-Variablen sind, ist zu erwarten, dass in jedem Teilintervall ungefdhr 100 Beobachtungen liegen.

Der Unterschied zwischen den beobachteten Haufigkeiten und den aufgrund einer Nullhypothese erwarteten Haufigkeiten wird mit Hilfe der so genannten X^-Statistik gemessen.

Page 279: Wahrscheinlichkeitsrechnung und schließende Statistik

270 6. HYPOTHESENTESTS

6.5.1 x^-Statistik

Sei X eine Zufallsvariable und Ai,... ,Aj eine Zerlegung des Tragers von X, dann ist die Wahrscheinlichkeit, dass X in Aj liegt, gleich

nj=P{X£Aj), j = l,...,J, (6.1)

insbesondere folgt J2j=i ^j — 1- Wir betrachten eine Stichprobe X i , . . . ,X^ aus X. Sei Nj die absolute Haufigkeit, dass Beobachtungen in die Klasse Aj fallen,

N, Anzahl der i mit Xi G Aj , j = 1 , . . . , J .

Offenbar ist Nj ~ 5(n,7rj), also

^[A^^] n TTj ftir j = 1 , . . . , J .

Um ftir gegebene Werte der Wahrscheinlichkeiten TTJ die Bedingung (6.1) als Nullhypothese zu liberpriifen, vergleicht man nun fiir alle j die beobach-t e t e Haufigkeit (englisch: frequency observed) Nj mit der e rwar te ten Haufigkeit (englisch: frequency expected) riTTj. Als Priifgrofie wird die folgende gewichtete Summe der Abweichungsquadrate verwendet,

E {Nj-nnjy

nTVi

T heifit x^-Statistik. Sie misst die Abweichung der beobachteten Haufig-keiten A^ von den erwarteten Haufigkeiten UTTJ. Durch Umformungen erhalt man

'Nl + {n7rjf-2Njnn

nTTi E ThTTi -f UTTj - 2Nj

J j^2 J J - A 2

j=l 3 = 1 3 = 1 - • 1 '^^3

Wenn (6.1) zutrifft, lasst sich die Verteilung von T approximativ angeben:

Satz von Pearson^ Unter der Voraussetzung (6.1) konvergiert die Ver-teilungsfunktion von T fiir n —> oo gegen die Verteilungsfunktion einer x^-Verteilung mit J — 1 Freiheitsgraden.

^Karl Pearson (1857-1936)

Page 280: Wahrscheinlichkeitsrechnung und schließende Statistik

6.5. ANPASSUNGS- UND UNABHANGIGKEITSTESTS 271

Nach dem Satz von Pearson gilt flir hinreichend grofie n

X j - i . rp appr ^^2

Man approximiert deshalb die Quantile von T durch die der Xj_i-Verteilung. Als Faustregel verwenden wir: UTTJ > 5 flir alle j .

6.5.2 x^" Anpassungst est s

Sei X ein beliebig skaliertes Merkmal, und sei Xi^,..,Xn eine Stichprobe aus X, X sei stetig oder diskret verteilt. Man betrachtet eine vollstandige Zerlegung A i , . . . , Aj des Tragers von X.

1. X -Anpassungstest fiir gegebene Wahrscheinlichkeiten

^3 = Gegeben seien die Wahrscheinlichkeiten TTI , . . . , TTJ, X ] / = I ^J — 1' ^^^ das Testproblem

iJo : P{X € Aj) = TTj flir j = 1,2,.. . , J gegen Hi : nicht HQ .

Der x^-Anpassungstest ist in der folgenden Testbox zusammengefasst:

Verteilungsannahme

Nullhypothese

Gegenhypothese

Prufgrofie

HQ ablehnen, falls

Trager von X in J Teilmengen zerlegt

HQ: P{XeAj) = 7rj fur j - 1,2,. . . , J |

Hi : nicht HQ

^^IS'^J'" T > x5-l,l-a 1

Beispiel 6.9 (Fortsetzung): Bezeichne X das Ergebnis eines Wurfs mit dem zu uberprufenden Wilrfel. Als Zerlegungsmengen fiir den y^-Test wdhlen wir die Mengen A - = {j}, j = 1 , . . . , 6. Zu testen sind dann die Hypothesen

HQ : P{X = j ) = - , j =z 1 , . . . , 6, gegen Hi : nicht HQ .

Die Priifgrofle lautet

T = y ^ - n = y ^ - 5 0 = ^YN'-50.

Page 281: Wahrscheinlichkeitsrechnung und schließende Statistik

272 6. HYPOTHESENTESTS

HQ wird abgelehnt, wenn die Priifgrofie T > xi i -a ^ - Speziell zum Signi-fikanzniveau von a = 0.1 wird HQ abgelehnt, wenn T > X5,o.9 — 9-24. Aus einer Stichprobe der Ldnge n = 50 stammen die folgenden Beobachtungen:

3 Nj

EL niTj

1 14

23.52

2 7

5.88

3 10

12.00

4 6

4.32

5 8

7.68

6 5

3.00

Die Summe der letzten Zeile ist Y^j=i :^ = 56.4. Der Wert der Priifgrofie betrdgt also 56.4 — 50 = 6.4. Er ist nicht grofier als das xi^o.g-Q'^o^ntiL Folg-lich kann HQ nicht abgelehnt werden. Die Hypothese, dass der Wiirfel fair ist, steht nicht im Widerspruch zu den Daten.

Bemerkungen

1. Bei der konkreten Anwendung des x^-Anpassungstests mlissen zunachst die Zerlegungsklassen festgelegt werden. Hat das Merkmal nur end­lich viele Werte, so liefern seine moglichen Auspragungen eine erste natiirliche Einteilung in Klassen.

2. Der Test gilt nur asymptotisch. Um eine hinreichende Approximati­on der asymptotischen Testverteilung zu erreichen, diirfen die Klassen nicht zu schwach besetzt sein. Als Faustregel wird liblicherweise m^j > 5 fiir alle j gefordert. Wenn die Faustregel verletzt ist, fasst man die Zerlegungsklassen so lange zusammen, bis die Faustregel fiir die neu-en, groi3eren Klassen erfiillt ist. Der Test verliert hierdurch jedoch an „Gute", das heifit, die Wahrscheinlichkeit, eine nicht zutreffende Null­hypothese abzulehnen, wird geringer.

3. Der x^-Anpassungstest ist verteilungsfrei, d.h. die Priifgrofie hat eine asymptotische Verteilung, die nicht von der Verteilung von X abhangt.

Betrachten wir nun ein Beispiel fiir die Anpassung an eine stetige Verteilung.

Beispiel 6.11 (Verteilung eines Fehlers): Zu untersuchen ist die Abweichung von einem Sollwert, z.B. beim Abfallen eines Getrdnks. Sei X die Abwei­chung vom Sollwert. Es soil uberpriift werden, ob X normalverteilt mit Er-wartungswert 0 und Varianz 25 sein kann. Deshalb lautet die Nullhypothese HQ : X ^ N{0,25) oder gleichbedeutend

HQ:\xr.N{^,l). 0

Zundchst werden Intervallunterteilungen vorgenommen. Wir zerlegen den Trd-ger von X, derTx — M ist, in endlich viele Intervalle Aj = [a^-i, a f. Speziell seien

Page 282: Wahrscheinlichkeitsrechnung und schließende Statistik

6.5. ANPASSUNGS- UND UNABHANGIGKEITSTESTS 273

Ai =] - oo, -3 .5[ , A4 = [-1.5, -0.5[ , A7 = [1.5, 2.5[,

A2 = [-3.5,-2.5[, A5 = 1-0.5, 0.5[, As = [2.5,3.5[,

^3 = [-2.5,-1.5[ , A6 = [0.5, 1.5[, Ag = [3.5, CX)[

gewahlt. Die Wahrscheinlichkeiten nj — Pi^X e Aj) unter der Nullhypothe-se erhalten wir aus der Tabelle 4 der Standard-Normalverteilung:

TTi

7r2

TTS

7r4

TTS

= TT9

= 7r8

= 7r7

= ne

= P ( i X > 3.5) = P(2.5 <lX < 3.5) = P(1.5 < ^X < 2.5) = P(0.5 <lX < 1.5) - P ( -0 .5 < | X < 0.5)

= 1 - 0.9998 = 0.9998 - 0.9938 = 0.9938 - 0.9332 = 0.9332 - 0.6915 = 2 -0 .6915 -1

= 0.0002, = 0.0060, = 0.0606, = 0.2417, = 0.3830.

Es werden n — 200 Messungen vorgenommen und deren Abweichungen vom Sollwert notiert. Die Ergebnisse der Beobachtungen finden sich in der folgen-den Arbeitstabelle:

3

1 2 3 4 5 6 7 8 9

^ _

No

0 9

36 60 54 28 13 0 0

200

-^i

0.0002 0.0060 0.0606 0.2417 0.3830 0.2417 0.0606 0.0060 0.0002 1.0000

nixj

1 ) 13.36

J 48.34 76.60 48.34

1 ) 13.36

J 200

N^ 1 n-Kj

151.57

74.47 38.07 16.22

12.65

292.98

Da die Faustregel UTTJ > 5 nicht fiir alle Klassen zutrifft, werden jeweils die ersten und die letzten drei Klassen geeignet zusammengefasst, so dass danach die Faustregel erfiillt ist. Den kritischen Wert bildet das Xj-i i-a~ Quantil, wobei J die Anzahl der Klassen nach der Zusammenfassung (hier: J = b) darstellt. Zum Signifikanzniveau 5% entnehmen wir der Tabelle 5 den kritischen Wert X4,o.95 = 9-488. Die Prufgrofle hat den Wert

\^ —L ^ niTj 3 = 1 ^

n = 92.98.

Page 283: Wahrscheinlichkeitsrechnung und schließende Statistik

274 6. HYPOTHESENTESTS

Er liegt iiber dem kritischen Wert, so dass im konkreten Fall HQ abgelehnt wird. Wie schlieflen daraus, dass das Merkmal X, Abweichung vom Sollwert, nicht gemdfl N{0^ 25) verteilt ist.

2. x^-Anpassungstest mit Parameterschatzung Haufig stellt sich das folgende Problem: Die Verteilung von X unter der Nullhypothese ist nur bis auf einen oder mehrere unbekannte Parameter festgelegt, z.B. X ~ N{ix^a'^), wobei ii und/oder a^ unbekannt sind.

Wenn allgemein die vorgegebene Verteilung (und damit die Wahrscheinlich-keiten TXJ) noch von einem oder mehreren unbekannten Parametern abhangen, so berechnet man zunachst aus den Haufigkeiten A^i,..., Nj die ML-Schatzer fiir diese Parameter und aus der so geschatzten Verteilung die Wahrschein-lichkeiten TTJ, j = 1 , . . . , J . Dann wird der x^-Anpassungstest wie oben durch-gefiihrt. Allerdings hangt der kritische Wert nicht nur von J sondern auch von der Anzahl der geschatzten Parameter ab: Fiir jeden geschatzten Para­meter verringert sich die Zahl der Preiheitsgrade um eins. Wenn r Parameter geschatzt werden, betragt also der kritische Wert des x^-Anpassungstests

Xj—1—r,l —a •

Beispiel 6.11 (Fortsetzung): Da nach dem vorigen Test die Normalvertei­lung N{0,2b) fiir X nicht in Frage kommt, wollen wir priifen, ob Uberhaupt eine Normalverteilung zugrunde gelegt werden kann. Wir testen die Daten nun auf eine Normalverteilung N{ii^a'^), deren beide Parameter wir wie folgt schdtzen. Als Signifikanzniveau sei wiederum a = 0.05 gewdhlt.

j=l 3=1

wobei bj der Mittelpunkt des Intervalls Aj = [aj-i,aj[ ist, j =^ 2 , . . . , 8 . Anhand der obigen Tabelle ergibt sich ft = —0.525 und (j^ = 1.549 bzw. a = 1.245. Die zur geschatzten Verteilungsannahme X ~ A/'(—0.525,1.549) gehorigen Wahrscheinlichkeiten TTJ ergeben sich als

TTj = P{aj-i < X < Oj) = P( cij-i < — - — < dj J

mit

aj

Die Tabelle sieht nun wie folgt aus:

Page 284: Wahrscheinlichkeitsrechnung und schließende Statistik

6.5. ANPASSUNGS- UND UNABHANGIGKEITSTESTS 275

j

1 2 3 4 5 6 7 8 9

E

aj

-3.5 -2.5 -1.5 -0.5 0.5 1.5 2.5 3.5 00

.•

0 9 36 60 54 28 13 0 0 200

CLj

-2.39 -1.59 -0.78 0.02 0.82 1.63 2.43 3.23 00

^J

0.0084 0.0475 0.1618 0.2903 0.2859 0.1545 0.0441 0.0069 0.0006 1

riTVj

} 11.18

32.36 58.06 57.18 30.90

1 } 10.32 J 200

UTTj

7.25

40.05 62.00 51.00 25.37

16.38

202.05

Da auch hier die Faustregel zundchst nicht erfullt ist, werden die ersten beiden und die letzten drei Klassen zusammengefasst. Der Anpassungstest wird dann fur die Hypothesen

Ho: X ^ Ar(-0.525,1.549) gegen Hi : nicht HQ

durchgefilhrt. Fiir die Prufgrofie ergibt sich

T - ^ - 4 - - n = 2,0b. j = i

UTTi

Insgesamt sind jetzt noch sechs Klassen vorhanden. Neben dieser Klassenan-zahl ist bei der Bestimmung des y^-Quantils die Zahl der geschdtzten Parame­ter zu beriicksichtigen. Es ist nun nicht mehr Xj_i,i_a; sondem Xj_i_r,i-a zu bestimmen. r gibt die Zahl der geschdtzten Parameter an; in unserem Fall also zwei. Es ist somit X6-i-2,o.95 — 7.815 . Der konkrete Wert der Prilfgrofie ist nicht grofier als das Xs,o.95~Q'^^'^^^^-Folglich kann HQ nicht abgelehnt werden. Der x^-Test fiihrt hier zum Er-gebnis, dass die Annahme einer Normalverteilung (mit beliebigem /i und a'^) nicht im Widerspruch zu den Daten steht.

6.5.3 x^-Unabhangigkeit st est s

Gegeben seien zwei gemeinsam verteilte Zufallsvariable X und Y, die zu zwei beliebig skalierten Merkmalen gehoren. Es soil geprtift werden, ob X und Y stochastisch unabhangig sind.

Page 285: Wahrscheinlichkeitsrechnung und schließende Statistik

276 6. HYPOTHESENTESTS

Dazu betrachtet man eine Zerlegung"^ i4i, A2 , . . . , Aj des Tragers von X und eine Zerlegung Bi,B2,...,BK des Tragers von Y, J >2^K >2. Bezeichne

TTjk = P{{X,Y)eAjXBk)^

K

^j' = Y^TTjk = P{X G Aj) , k=l

J

Wenn X und Y unabhangig sind, muss ftir alle j und k

TTjk = TTj. • TT.k (6.2)

gelten. Sei nun eine Stichprobe {Xi.Yi), . . . , {Xn.Yn) aus {X,Y) gegeben und

Njk = Anzahl der i mit (Xi.Yi) e Aj x B^ , K

Nj. = 2_]^jk = Anzahl der i mit Xi G Aj , /c=l

J

N.k = ^ Njk = Anzahl der i mit Yi e Bk .

Es gilt J K J K

j = l k=l j=l /c=l

Die absoluten Haufigkeiten werden wie folgt in einer Kontingenztafel tiber-sichtlich zusammengefasst:

Ai A2

X :

AJ

1 EJ

Y

Bi B2 . . . BK

Nil N12 ... NIK

N21 N22 . . . N2K

Nji Nj2 . . . NJK

JV.1 iV.2 . . . N.K

E iVi.

n 1

Indem man alle Eintrage dieser Kontingenztabelle durch n teilt, erhalt man eine Tabelle der relativen Haufigkeiten.

"^Die Symbole K und k bezeichnen hier nicht den kritischen Bereich und die kritische Grenze eines Tests, sondern Indizes einer Zerlegung des Tragers von Y.

Page 286: Wahrscheinlichkeitsrechnung und schließende Statistik

6.5. ANPASSUNGS- UND UNABHANGIGKEITSTESTS 277

Um die stochastische Unabhangigkeit der Zufallsvariablen X und Y zu tiber-priifen, vergleicht man mithilfe eines x^-Anpassungstests die beobachteten Haufigkeiten Njk mit den im Fall der Unabhangigkeit erwarteten Haufigkei-ten n • TTjk = n • TTJ. • n.k- Die Anzahl der Zerlegungsklassen betragt J • K^ und die x^-Statistik lautet

Da die Wahrscheinlichkeiten TTJ. und Tr.fe unbekannt sind, werden sie geschatzt. Es gilt

TTJ.

-K.K

J-1

= i-E-.-j=i

K-l

= i-E-^ k=l

und (6.4)

(6.5)

Zunachst ersetzen wir in (6.3) nj. durch (6.4) und TT.K durch (6.5). Sodann schatzen wir die verbleibenden J — I -^ K — I Wahrscheinlichkeiten durch

7rj. = —^, J = l,...,J - I , bzw. TT./c = , j = l , . . . , K - l .

Es folgt

^ - ^ n n

Die x^-Statistik mit den geschatzten Wahrscheinlichkeiten lautet

D a J — 1 + X — 1 Parameter geschatzt wurden, besitzt T eine asymptotische X^-Verteilung mit

J'K-{J-l + K-l)-l = {J- 1){K - 1)

Preiheitsgraden.

Page 287: Wahrscheinlichkeitsrechnung und schließende Statistik

278 6. HYPOTHESENTESTS

Der folgende Test wird als x^-Unabhangigkeitstest bezeichnet:

Verteilungs-

annahme

Nullhypothese

i Gegenhypothese

Priifgrofie

Ho ablehnen, falls

Trager von X und Y

in J bzw. K Mengen zerlegt

-^0 • TTj/e = TTj. ' n.k fui alle j , k

Hi : nicht Ho

="(SS -') T > X(j-i)(K-l),l-a [

Damit der Test (approximativ) gilt, diirfen die unter Ho erwarteten Haufig-keiten nicht zu klein sein. Als Faustregel verwenden wir ^Nj.N.^ > 5 fiir alle j und k .

Im Fall J = K = 2^ insbesondere wenn X und Y dichotome Variable sind (d.h. jeweils nur zwei Werte annehmen), enthalt das Innere der Kontingenz-tafel nur vier Felder. Man nennt sie dann eine Vierfeldertafel:

A2

1 EJ

Y

Bi B2

Nn N12

N21 N22

N.i N.2

E iVi.

n \

Im Fall einer Vierfeldertafel lasst sich die Testgrofie des x^-Unabhangigkeits-tests einfacher schreiben. Wenn J = X = 2 ist, gilt namlich

T = r^ EE ' ' Nh ^^ti^'rN;

1 = n {NnN22 - Ni2N2iy

N1.N2.N.1N.2

Die Anzahl der Freiheitsgrade ist (2-1)(2-1) = 1. Der x^-Unabhangigkeitstest fiir die Vierfeldertafel lautet also:

Page 288: Wahrscheinlichkeitsrechnung und schließende Statistik

6.5. ANPASSUNGS- UND UNABHANGIGKEITSTESTS 279

Verteilungsannahme

Nullhypothese

Gegenhypothese

PriifgroBe

HQ ablehnen, falls

X und Y dichotom

^ 0 : TTjk = TTj. • TT.k fiir j , fc = 1,2

Hi: n i ch t HQ

^ {NnN22 - Ni2N2if

^ N1.N2.N.1K2

T > Xjl-a 1

Damit der Test (approximativ) gilt, diirfen die unter HQ erwarteten Haufig-keiten nicht zu klein sein; die Faustregel sei ^Nj.N.^ > 5 fiir alle j , k G {1,2} .

Beispiel 6.12 (Bekanntheitsgrad und Wohnort): Im Auftrag einer Partei soil eine demoskopische Umfrage kldren, ob der Bekanntheitsgrad eines Kandi­daten unabhdngig vom Wohnsitz des Wahlberechtigten ist (^-^ Excel/SPSS). Aufgrund einer Stichprobe von 250 Wahlberechtigten ergaben sich folgende Hdufigkeiten:

Wohnsitz

Stadt Umland

Kandidat bekannt nicht bekannt

80 65 45 60 125 125

145 105 250

Die Unabhdngigkeitshypothese kann mit dem x^-Test gepriift werden, da die Testvoraussetzung ^'^ '" > 5 fiir alle j,k = 1,2 offenbar erfullt ist. Die Prufgrofle hat den Wert

{NuN22-Ni2N2lf Ni,N2.N.iK2

= 250-(80 • 60 - 65 • 45)^ 145 • 105 • 125 • 125

= 3.695.

Fiir a = 0.05 ist der kritische Wert Xi,o.95 — '^^- ^^ 9'^^^ ^ < Xi,o.95- ^^^^ wird die Hypothese, dass die Merkmale Bekanntheitsgrad des Kandidaten und Wohnsitz des Wahlberechtigten unabhdngig sind, nicht abgelehnt.

Beispiel 6.13 (Lohngruppe und Geschlecht): In einem Industriebetrieb wer­den 500 Beschdftigte zufdllig ausgewdhlt. Sie verteilen sich wie folgt auf Ge-schlechter und Lohngruppen:

Page 289: Wahrscheinlichkeitsrechnung und schließende Statistik

280 6. HYPOTHESENTESTS

Nok

weiblich 7 = 1

Geschlecht .. ,. , mannltch

3=2 N.k

Lohngruppe I II III

k=l k=2 k=3

190 70 20

110 80 30

300 150 50

^ •

280

220

500

Die Behauptung, dass in diesem Betrieb die Lohngruppe unabhdngig vom Geschlecht ist, soil uberpriift werden. Dazu wird ein x^- Unabhdngigkeitstest zum Niveau a — 0.01 durchgefuhrt Als Prufgrofie ist

/ 2 3 ^ 2

\j=i k=i - Nj.N.k

ZU berechnen. Zundchst stellen voir fest, dass die Faustregel fiir den approxi-mativen Test ^'^ " > 5 fiir alle j und k erfullt ist:

n

1 J

2

k 1 2 3

168 84 28

132 66 22

Den Wert der Testgrofie berechnen wir mithilfe der folgenden Arbeitstabelle:

7V2

1 j

2

1 0.430

0.183

k 2

0.117

0.194

3 0.029

0.082

Die Prufgrofie hat den Wert

T = 500(1.035-1) = 17.5.

Aus J = 2 und K = 3 folgt {J — 1){K — 1) = 2. Zu einem Niveau von a = 1% betrdgt der kritische Wert X2,o.99 — 9.210. DaT = 17.5 im kritischen Bereich liegt, wird die Nullhypothese abgelehnt. Zwischen den Merkmalen Geschlecht und Lohngruppe besteht ein signifikanter Zusammenhang.

Page 290: Wahrscheinlichkeitsrechnung und schließende Statistik

6.6. ERGANZUNGEN 281

6.6 Erganzungen

6.6.1 Vergleich mehrerer Erwartungswerte (einfache Varianzanalyse)

Bei vielen praktischen Fragestellungen mtissen nicht nur zwei, sondern meh-rere Mittelwerte miteinander verglichen werden. Wir betrachten hierzu r Zu-fallsvariable Xi , X 2 , . . . , X^ und testen die Gleichheit ihrer Erwartungswerte.

Voraussetzung fiir die Giiltigkeit des folgenden Tests ist, dass diese Zufalls-variablen normalverteilt sind und alle die gleiche Varianz besitzen. Die ge-meinsame Varianz a^ ist jedoch ebenso wie die Erwartungswerte / ^ i , . . . , /i^ unbekannt. Unser Testproblem lautet

H^ : fii = fX2 = " ' = l-t'r (d.h. alle Erwartungswerte sind gleich) gegen

J^i : nicht HQ (d.h. mindestens zwei Erwartungswerte sind verschieden).

Aus jeder der r Zufallsvariablen liege eine Stichprobe vor,

^n,^i2i. • •»^ini Stichprobe aus Xi der Lange n i ,

-^21, ^22, •. •, X2n2 Stichprobe aus X2 der Lange n2 ,

Xri,Xr2, • • •,^rrir Stichprobc aus Xr der Lange Ur ,

und die r Stichproben seien voneinander unabhangig. Insgesamt sind es also

n = ni + 712 + . . . + rir

unabhangige Beobachtungen. Es gilt der Streuungszerlegungssatz

SSG = SST + SSE

mit den Bezeichnungen

^3 = —IZ^i^ ' j = l , . . . ,r ,

n ^ ^ ^ n

Page 291: Wahrscheinlichkeitsrechnung und schließende Statistik

282 6. HYPOTHESENTESTS

SST = ^njiXj-X)' }=i

SSE = YlJ2(^Ji-^j)' j=l i=X

^^^ = ED^^'-^)' 3=1 z = l

Dabei ist SST die Quadratsumme der Abweichungen der einzelnen Mittel-werte Xj vom Gesamtmittelwert X, SSE ist die Quadratsumme der Abwei­chungen der Beobachtungen der einzelnen Stichproben von ihrem jeweiligen Mittelwert, und SSG ist die Quadratsumme der Abweichungen aller Beob­achtungen vom Gesamtmittelwert."^ Der Streuungszerlegungssatz erlaubt es, die Streuung der vereinigten (= „gepoolten") Stichprobe in zwei Summanden zu zerlegen, einen Term der Streuung zwischen den Stichproben und einen Term der Streuung innerhalb der Stichproben.

Falls HQ richtig ist, gilt

SST ( 7 2 ( r - l ) Xr - l und

SSE a'^{n — r) Xn—r '>

und diese zwei Zufallsvariablen sind unabhangig. Demnach hat der Quotient aus den beiden eine F-Verteilung mit r — 1 und n — r Freiheitsgraden,

T{X i i 5 > ^rur) SST n-r SSE r-1

•^r—ljU—r

Wenn HQ zutrifft, steht zu erwarten, dass SST einen relativ kleinen Wert annimmt. Wir verwenden T als TestgroBe und lehnen HQ ab, wenn T einen kritischen Wert k liberschreitet. Zum Signifikanzniveau a wahlt man fiir k das Quanti l Fr-l^n-r.l-a-

Beispiel 6.14 (Einkommen und Studienabschluss): Bei Akademikern mit den Abschlussen Diplom-Kaufmann, Diplom-Volkswirt bzw. Diplom-Mathematiker wurden die Gesamteinkommen in den ersten beiden Jahren der Berufstdtig-keit erhoben (in Tausend €):

DipL-Kfm. Dipt. - Volksw. Dipl.-Math.

86 81 91 74 83 64 82 70 81 74 67 69 88 77 82 79

^Die Abkiirzungen SST, SSE und SSG kommen aus dem Englischen. Ihnen liegt die Vorstellung zugrunde, dass die r Stichproben die Ergebnisse von r Experimenten darstellen, in denen eine zu untersuchende GroCe verschiedenen Einfliissen („Behandlungen", englisch: treatments) ausgesetzt wird. SST steht dann fiir Sum of Squares for Treatments, SSE fiir Sum. of Squares for Errors, SSG fiir Grand Sum of Squares.

Page 292: Wahrscheinlichkeitsrechnung und schließende Statistik

6.6. ERGANZUNGEN 283

Es bezeichne Xji das Einkommen des i-ten Mitglieds der j-ten Gruppe. Wir nehmen an, dass die Xji Realisationen unabhdngiger N{^j^a'^)-verteilter Zu-fallsvariablen sind, und testen unter dieser Annahme die Hypothese „Das durchschnittliche Einkommen ist in alien Gruppen gleich". a sei 5%.

Filr die Klassenmittel erhalt man

xi = -415 = 83, X2 = -438 = 73 und xs = -395 = 79. 5 6 5

Das Gesamtmittel ist dann

16 16 16

Damit haben SST und SSE die Werte

SST = 5 • (83 - 78)2 ^ 5 . (73 _ 73)2 ^ 5 . (79 _ 7g)2 ^ 28O,

SSE = 158 + 272 + 194 = 624,

und der Wert der Testgrofle ist gleich

SST n-r 280 16 - 3 SSE r - 1 624

= 2.92.

Aus einer Tabelle der F- Verteilung (Tabelle 7 im Anhang) erhalt man den kritischen Wert F2,13,0.95 = 3.81. Wegen

T = 2.92 < 3.81 = F2,i3,o.95

kann die Nullhypothese HQ : fii = 1^2 = Ms nicht abgelehnt werden. Auf der Basis der beobachteten Daten Idsst sich also kein statistisch (zum 5%-Niveau) signifikanter Einkommensunterschied zwischen den drei verschiedenen Studi-enabschliissen feststellen.

Der hier beschriebene Test auf Gleichheit von Erwartungswerten wird auch einfache Varianzanalyse genannt. Diese Bezeichnung bezieht sich auf die Konstruktion der TestgroBe als Quotient der zwei Summanden des Streu-ungszerlegungssatzes. Flir weitere Verfahren der Varianzanalyse sei auf die Literatur am Kapitelende verwiesen.

6.6.2 Vergleich mehrerer Varianzen

Im Abschnitt 6.3.2 wurden Tests flir den Vergleich zweier Varianzen behan-delt. Oft ist es von Interesse, bei mehr als zwei Zufallsvariablen die Hypothese der Varianzhomogenitat, d.h. der Gleichheit aller Varianzen, zu iiberprtifen.

Page 293: Wahrscheinlichkeitsrechnung und schließende Statistik

284 6. HYPOTHESENTESTS

Seien Xi,... ,Xr Zufallsvariable mit Xj ~ N{iXj,a'^) flir j = 1 , . . . , r. Wir betrachten das Testproblem

HQ : aj = a2 = ... = a'^ gegen Hi : nicht HQ .

Hi besagt, dass mindestens zwei der Varianzen verschieden sind. Um HQ ZU testen, mogen r unabhangige Stichproben vorliegen,

^11,-^12, • • • 5 Xin^ Stichprobe aus Xi der Lange rii,

^21 , ^22? • • • > ^2n2 Stichprobe aus X2 der Lange n2 ,

Xri,Xr2y •. •,^rrir Stichprobc aus Xr der Lange rir •

Sei n = rii -\-... -{-rir und

3 i=l •? i=i

fur j = 1 , . . . , r. Als TestgroBe verwenden wir nach Bartlett^

wobei

Wenn alle geschatzten Varianzen Sj'^ den gleichen Wert annehmen, ist of-fenbar T = 0. Die Testgrofie T besitzt eine asymptotische x^-Verteilung mit r — 1 Freiheitsgraden,

Uberschreitet T einen kritischen Wert, der der x^-Tabelle (Tabelle 5) zu entnehmen ist, so wird HQ abgelehnt.

Beispiel 6.16: Aus drei unabhdngigen Stichproben jeweils der Ldnge 40, die aus drei normalverteilten Zufallsvariablen gezogen wurden, ergab sich

Sf = 14.2, 52*2 = 1 2 . 1 , Sf = 16.7.

^Maurice S. Bartlett (1910-2002)

Page 294: Wahrscheinlichkeitsrechnung und schließende Statistik

6.6. ERGANZUNGEN 285

Fiir die Testgrofie berechnen wir

1 C =

3(3 - 1) V ^ L ^ 4 0 - 1 120 -

+ 1 = 1.0114,

1.0114

39 117-In ( —(14.2-1-12.14-16.7)

- 39 • (ln(14.2) -h ln(12.1) -f ln(16.7))

= 0.9990.

Als kritischen Wert filr a = 0.05 ergibt sich aus der x^-Tabelle X2,o.95 — 5.991. Die Hypothese gleicher Varianzen kann nicht abgelehnt werden.

Sowohl der F-Test zum Vergleich zweier Varianzen als auch der Bartlett-Test diirfen nur dann angewendet werden, wenn die Annahme normalverteilter Zufallsvariablen gerechtfertigt ist. Bestehen hieran Zweifel, sind andere Tests wie der Test von Levene (vgl. etwa Hartung et al. (2002)) vorzuziehen. Der Test von Levene ist auch in SPSS implementiert.

6.6.3 Vergleich mehrerer Wahrscheinlichkeiten

Im Abschnitt 6.4.2 wurde ein Test zum Vergleich zweier Wahrscheinlichkei­ten (oder Anteilswerte) nx und ny eingefiihrt. Oft sind aber mehr als zwei Wahrscheinlichkeiten zu vergleichen. Der nachfolgende „Homogenitatstest" dient dem Vergleich von r Wahrscheinlichkeiten. Wir setzen voraus, dass Xi , ^ 2 , . . . , Xr Zufallsvariablen sind und Xi ^ B (1, TT ) fiir i = 1,2,.. . , r gilt. Zu testen ist das Testproblem

HQ : TTi = 7r2 TTr gegen Hi : nicht HQ .

Aus jeder der r Zufallsvariablen Xj liege eine Stichprobe vom Umfang Uj vor. Die insgesamt n == ni -f . . . n^ Zufallsvariablen seien vollstandig unabhangig. Wir schatzen die TTJ mittels

^3 = —Y^^3i^ j = : l , . . . , ? i = l

Sind alle Wahrscheinlichkeiten gleich, d.h. gilt TT = TT fiir j kann man TT mittels

l , . . . , r , so

* = ^EE . = niTTi -f- . . . -}- rirltr

j=l i=l

Page 295: Wahrscheinlichkeitsrechnung und schließende Statistik

286 6. HYPOTHESENTESTS

aus der vereinigten (= „gepoolten") Stichprobe schatzen. Als TestgroBe ver-wendet man

Z ^ i d n i ) 7r(l-7r) 3 = 1 Uj ^ '

Bei Giiltigkeit von ifo besitzt T approximativ eine x^-Verteilung mit r — 1 Preiheitsgraden,

T ~ Xr-l-

Man lehnt ifo ab, wenn T einen kritischen Wert k iiberschreitet. Dabei ist A: das (1 — a)-Quantil der Xr-i'Verteilung.

Beispiel 6.15: Eine Standardoperation (z.B. Blinddarmentfernung) wird an einem Grofiklinikum von drei verschiedenen Operationsteams durchgefuhrt; dabei kann eine Komplikation auftreten. Insgesamt 95 Operationen wurden daraufhin beobachtet. Die Komplikation trat auf bei

9 von 30 Operationen des Teams A, 12 von 25 Operationen des Teams B, 15 von 40 Operationen des Teams C,

Man teste (mit a = 0,05^, ob die Wahrscheinlichkeit des Auftretens der Komplikation bei alien drei Operationsteams gleich ist. Welche Annahmen muss man treffen, um den obigen Test anwenden zu konnen?

Das Auftreten (bzw. Nichtauftreten) der Komplikation muss bei den 95 be-trachteten Operationen stochastisch unabhdngig sein. Als Wert der Testgrofie erhalt man

J- = 36/1 _ 36^ ~ ^'^^ ' 95 V- 95/

Wegen T = 1.88 < X2,o.95 — ^-^^ kann HQ nicht abgelehnt werden.

Erganzende Li te ra tur zu Kapi te l 6:

Die Grundbegriffe der Testtheorie und ausgewahlte spezielle Tests werden in alien Lehrbiichern der schliefienden Statistik fur Wirtscliafts- und Sozial-wissenschaften behandelt. Wir verweisen auf die im Anschluss an Kapitel 1 zitierte Literatur. Einen Uberblick liber sehr viele Testverfahren gibt Sachs (2002). Eine klassische Darstellung der Testtheorie ist Lehmann (1986).

Eine Einflihrung in die Varianzanalyse bietet Kapitel XI in Hartung et al. (2002). Ein grundlegendes Werk zur Varianzanalyse ist Scheffe (1959). Emp-fehlenswert ist auch Fisher und McDonald (1978).

Page 296: Wahrscheinlichkeitsrechnung und schließende Statistik

6.6. ERGANZUNGEN 287

D'Agostino und Stephens (1986) geben einen guten Uberbhck iiber Anpas-sungstests. x^-Verfahren werden in Greenwood und Nikuhn (1996) behandelt. Ftir die weitere Analyse von Kontingenztabellen sei auf Andrefi et al. (1997) und Agresti (1984) verwiesen.

Page 297: Wahrscheinlichkeitsrechnung und schließende Statistik

288 6. HYPOTHESENTESTS

6.7 Anhang: Verwendung von Excel und SPSS

Excel und SPSS geben als Ergebnis eines Tests in der Regel den so genannten p-Wert aus. Der p-Wert stellt eine Wahrscheinlichkeit dar, und zwar das kleinste a, bei dem die Nullhypothese zum Signifikanzniveau a abgelehnt werden kann. Flir die Durchfiihrung eines Tests zum Niveau a bedeutet dies: Die Nullhypothese wird abgelehnt, wenn der berechnete p-Wert nicht groCer als das vorgegebene a ist.

Gaufi-Test (Beispiel 6.2, Seite 238):

Excel I Die Daten zu diesem Beispiel sind als Datei Be i sp ie l62 .x l s im Internet erhaltlich. Um den Gaufi-Test durchzufiihren, wendet man die Excel-Funktion GTEST(Matrix;x;Sigma) auf die gegebene Datentabelle an:

GTEST(A2:A26;55;4) ^ 1 - $ ( ^ ^ • ^ ^ )

Excel liefert hier den Wert p = 0.0401, also kann die Nullhypothese zum Niveau a = b% abgelehnt werden.

Zweistichproben-t-Test (Beispiel 6.3, Seite 254):

Excel I Die Daten des Beispiels 6.3 stehen im Internet unter Beispie l63 . x l s zur Verftigung. Flir den Zweistichproben-t-Test bietet Excel die Funktion TTEST(.. .). Angewandt auf die Datentabelle erhalt man den p-Wert

TTEST(A2:A16;B2:B11;2;2) =0.1369

und kann folglich HQ nicht zum 5%-Niveau ablehnen.

SPSS I Der Zweistichproben-t-Test in SPSS verlangt eine bestimmte Struk-turierung der Daten; vgl. Beispiel63.sav (vgl. Pokropp (2002b)). Dazu muss eine so genannte Gruppenvariable eingefiihrt werden. In diesem Bei­spiel wurde die Gruppenvariable als gruppe deklariert; sie hat zwei mogli-che Auspragungen, im Beispiel 1 fur X und 2 fiir Y. Unter ergebnis sind die urspriinglichen Daten abgelegt. Zur Durchfiihrung des Tests geht man auf ANALYSIEREN/MITTELWERTE VERGLEICHEN/T-TEST BEI UNABHANGIGEN

STICHPROBEN. Ist der Test ausgewahlt, erscheint eine Box, in welcher eine Variable gruppe als Gruppenvariable ausgewahlt werden muss. AnschlieBend klickt man auf Gruppe def , gibt „1" bei Gruppe 1 und „2" bei Gruppe 2 ein und klickt auf Weiter. In der Ausgangsbox muss schliefilich nur noch die Variable ergebnis als Testvariable festgelegt und auf OK geklickt werden, um den Test auszuftihren. SPSS liefert auch den Wert der t-Statistik. Im Bei­spiel betragt er 1.541. Das Ergebnis ist unter Beispiel63.spo im Internet erhaltlich.

Verbundene St ichproben (Beispiel 6.4, Seite 258):

Excel I Die Daten sind unter Be isp ie l64 .x l s gespeichert. Dabei findet man

Page 298: Wahrscheinlichkeitsrechnung und schließende Statistik

6.7. ANHANG: VERWENDUNG VON EXCEL UND SPSS 289

die Ergebnisse der Befragung nach der Werbekampagne (X) in A2:A16 abge-legt, die Ergebnisse vor der Werbekampagne (Y) in B2:B16. Der p-Wert des Tests wird in Excel durch TTEST(B2:B10;C2:C10;2;1) berechnet.

SPSS I Der gleiche Datensatz ist unter Beispiel64. sav im SPSS-Format ge­speichert. Uber ANALYSIEREN/MITTELWERTE VERGLEICHEN/T-TEST BEI

GEPAARTEN STICHPROBEN. .. wird der Zweistichproben-t-Test bei verbunde-nen Stichproben ausgewahlt. Daraufhin erscheint eine Box, in der die Varia-blen X und Y als verbundene Variablen eingetragen und durch OK bestatigt werden, um den Test durchzufiihren. Das Testergebnis ist unter Beispie l64. spo gespeichert.

Chi-Quadrat-Anpassungstest (Beispiel 6.9, Seite 269): Der x^-Anpassungstest ist in SPSS als Option vorhanden. Die Daten des Bei-spiels 6.9 (Prtifung eines Wiirfels) sind als SPSS-Datei unter Beispie l69. sav gespeichert. Die Zufallsvariable wird dort als Ergebnis[wurf] bezeichnet. Um den Test durchzufiihren, wahlt man ANALYSIEREN/NICHTPARAMETRISCHE

TESTS/CHI -QUADRAT. . . . Daraufhin erscheint die CHI-QUADRAT-BOX, in der ERGEBNISSE[WURF] als Testvariable auszuwahlen und mit OK zu bestati-gen ist, um den Test durchzufiihren. Die Ausgabe umfasst zwei Tabellen: Die drei Spalten der ersten Tabelle enthalten die beobachteten und die erwar-teten Werte sowie die empirischen Residuen. Die zweite Tabelle liefert das Ergebnis des Tests, in diesem Fall den Wert 6.4 fiir die Testgrofie. Mit der Funktion IDF.CHISQ(0.9,5) = 9.24 wird das 90%-Quantil der asymptotischen xi-Verteilung bestimmt. Wegen 6.4 < 9.24 wird die Nullhypothese nicht ab-gelehnt. Der Term Asymptotische Signiflkanz in der zweiten Tabelle stellt den entsprechenden p-Wert dar; vgl. die Datei Beispiel69.spo.

Chi-Quadra t -Unabhangigkei ts tes t (Beispiel 6.12, Seite 279): Excel I Der x^-Unabhangigkeitstest wird iiber die Funktion

CHITEST(Beob_Messwerte;Erwart_Messwerte) durchgefiihrt. Die Daten sind in der Datei Beisp ie l612.x ls abgespeichert. Der Aufruf ergibt hier CHITEST(B3:C4;B8:C9) = 0.05459. Die Nullhypothese, dass die Merkmale Wohnort und Bekanntheitsgrad der Kandidaten unabhangig sind, kann zum Niveau a = 5% nicht abgelehnt werden.

SPSS I In der Datei Beispiel612.sav sind zwei Variablen definiert, wohn fiir Wohnsitz und kand fiir Kandidat. Im Menii wahlt man ANALYSIEREN/

DESKRIPTIVE STATISTIKEN/ KREUZTABELLEN und gibt in der Box KREUZ-

TABELLEN bei ZEILEN die Variable wohn und bei SPALTEN die Variable kand ein. Danach ist in STATISTIK der x^-Unabhangigkeitstest anzukreuzen. Nach Anklicken von W E I T E R erscheint erneut die Ausgangsbox KREUZTABELLEN,

in der ZELLEN anzuklicken ist. Bei ZELLEN ist unterhalb von BEOBACHTET

auch ERWARTET anzukreuzen, damit in der Ausgabe sowohl die beobachteten als auch die erwarteten Werte angezeigt werden. Durch Anklicken von OK

Page 299: Wahrscheinlichkeitsrechnung und schließende Statistik

290 6. HYPOTHESENTESTS

in der Ausgangsbox werden die Kontigenztafel sowie die Ergebnisse unter-schiedlicher x^-Tests ausgegeben. Das Ergebnis ist unter Beispiel612.spo gespeichert.

Page 300: Wahrscheinlichkeitsrechnung und schließende Statistik

Kapitel 7

Lineare Regression

In vielen Anwendungen der Statistik stellt sich die Aufgabe, eine Variable durch eine oder mehrere andere Variable zu „erklaren", indem ein - in der Kegel approximativer - funktionaler Zusammenhang zwischen den Variablen nachgewiesen wird. Zu diesem Zweck modelliert man die Werte der „zu er­klarenden" Variablen als Funktion der Werte der anderen, so genannten „er-klarenden" Variablen und eines Storterms. Der Storterm beschreibt die als unsystematisch oder zufallig angesehenen Abweichungen vom exakten funk-tionalen Zusammenhang. Die Funktion legt man bis auf gewisse Parameter vorweg fest und schatzt diese Parameter dann aus den Daten.

Haufig kann - zumindest in einem eingeschrankten Wertebereich - ein ap­proximativer linearer Zusammenhang der Variablen unterstellt werden. Dies fiihrt auf das besonders einfache Modell einer afhn-linearen Funktion. Die Koeffizienten des linearen Ansatzes sind dabei als Parameter zu schatzen. Im Fall nur einer erklarenden Variablen spricht man von linearer Einfach-regression (oder einfacher linearer Regression), im Fall mehrerer er-klarender Variablen von linearer Mehrfachregression (oder multipler linearer Regression).

In diesem Kapitel behandeln wir ausflihrlich die lineare Einfachregression, insbesondere die Schatz- und Testprobleme, die sich fiir die Parameter erge-ben. AuBerdem geben wir einen kurzen Abriss der Mehrfachregression.

7.1 Lineare Einfachregression

Bei der linearen Einfachregression geht man davon aus, dass an n Beobach-tungseinheiten die Werte {xi^yi), i = 1 , . . . , n, gemessen wurden. Dabei be-zeichnen die yi die Werte einer zu erklarenden Variablen und die Xi die

291

Page 301: Wahrscheinlichkeitsrechnung und schließende Statistik

292 7. LiNEARE REGRESSION

Werte einer erklarenden Variablen. Beide Variable werden als metrisch, d.h. mindestens intervallskaliert, vorausgesetzt. Die zu erklarende Variable bezeichnet man auch als abhangige Variable, als erklarte Variable oder als Regressand. Die erklarende Variable wird auch unabhangige Variable oder Regressor genannt.

7.1.1 Das Modell der linearen Einfachregression

Beim Modell der linearen Einfachregression wird unterstellt, dass die yi Werte von Zufalls variablen Yi sind, die der Gleichung

yi=Po+ PiXi + Ui, i = 1 , . . . , n , (7.1)

und folgenden weiteren Annahmen geniigen:

• Die Werte x i , . . . ,0;^ des Regressors sind deterministisch, d.h. fest ge-geben. Sie sind nicht alle gleich, d.h. es gilt s'^ = ^ XIILiC^^ — x)^ > 0.

• f / i , . . . , C/n sind Zufallsvariable, die allerdings nicht beobachtet werden konnen. Sie werden als Storterme oder Residuen bezeichnet. Ftir ihre gemeinsame Verteilung gilt die Annahme:

E[Ui] = 0 ftir alle i, V[Ui] = a^ fur alle z,

Covpi, Uj] = 0 fiir alle i y^ j .

Aus den Annahmen folgt sofort, dass

E[Yi\ = Po + PiXi fur alle i , V[Yi\ = a^ ftir alle i ,

Cov[Yi,Yj] = 0 ftir alle i^j.

Das Modell der linearen Einfachregression besitzt drei Parameter: die beiden Regressionskoefflzienten /3o und Pi sowie die Residualvarianz a'^. Zur Schatzung der Parameter stehen die Beobachtungen (xj, y^), z = 1 , . . . , n, zur Verftigung.

Beispiel 7.1: Der Zusammenhang zwischen dem verfiigbaren monatlichen Ein-kommen X von Haushalten und ihren monatlichen Ausgaben Y fiir Nahrungs-mittel soil untersucht werden. Wir betrachten dazu einen (fiktiven) Datensatz von n = 10 Haushalten (Angaben jeweils in €):

i

Vi x%

1 1296 3413

2 796 2276

3 1753 5374

4 1344 4410

5 569 1413

6 1257 3862

7 636 1764

8 1546 4550

9 1132 3022

10 1464 3868

Page 302: Wahrscheinlichkeitsrechnung und schließende Statistik

7 .1 . LiNEARE EiNFACHREGRESSIQN 293

Um den moglichen Zusammenhang abzubilden, unterstellen wir eine lineare Beziehung

yi = Po + f3iXi, z = l , . . . , 1 0 . (7.2)

Hier gilt fiir jedes i

dxi

d.h. der Parameter /?i gibt an, um wie viel Euro sich yi verdndert, wenn Xi um einen Euro erhoht wird. /?i wird als die marginale Ausgabenquote in Bezug auf das Einkommen bezeichnet. Aus okonomischen Griinden ist /3i > 0 zu erwarten.

Fur die obigen Daten ist die lineare Beziehung (7.2) jedoch nicht, jedenfalls nicht exakt, erfullt. Fiir Daten von real beobachteten Haushalten gilt dies fast immer, da deren Ausgaben fiir Nahrungsmittel aufier vom Einkommen auch von zahlreichen anderen Bestimmungsgrofien abhdngen. An die Stelle des exakten linearen Ansatzes (7.2) setzt man deshalb den linearen Regressions-ansatz (7.1), dessen Storterme Ui die Abweichungen vom exakten linearen Modell bezeichnen.

Wir wollen das Beispiel 7.1 weiterfiihren und dabei eine Modifikation des Mo-dells der einfachen linearen Regression, die loglineare Einfachregression darstellen.

Beispiel 7.2: Sowohl im Ansatz (7.2) als auch im Regressionsansatz (7.1) ist der Parameter Pi fiir alle Haushalte und damit fiir alle Werte der Einkom­men Xi konstant. Der deutsche Statistiker Engel ^ stellte jedoch fest, dass die Ausgaben fiir Nahrungsmittel von Haushalten mit zunehmendem verfiigbaren Einkommen nur unterproportional ansteigen. Diese Feststellung wird hdufig als „Engelsches Gesetz^' bezeichnet. Um das Engelsche Gesetz empirisch zu iiberpriifen, verwenden wir die folgende Variante des linearen Regressionsmo-dells. Statt der Grofien Xi und yi setzen wir ihre Logarithmen in eine lineare Beziehung,

\xiyi=Po^-pi\iiXi, 2 = 1 , . . . , 10. (7.3)

Die Parameter /3o und Pi unterscheiden sich natiirlich von den Parametern Po und pi in (7.2) und (7.1). Fiir jedes i gilt

- _ dlnyi _ Xj dyi dlnxi yi dxi

Pi wird als Elastizitat bezeichnet, genauer, als Einkommenselastizitdt der Nahrungsmittelausgaben; sie gibt an, um wie viel Prozent sich die Nahrungs-mittelausgaben dndern, wenn das Einkommen um ein Prozent steigt. Der

1 Ernst Engel (1821-1896)

Page 303: Wahrscheinlichkeitsrechnung und schließende Statistik

294 7. LiNEARE REGRESSION

Ansatz unterstellt eine konstante Elastizitdt fiir alle Werte von xi, sieht aber ein Absinken der marginalen Ausgaben fiir Nahrungsmittel mit wachsendem Einkommen vor, wie es dem Engelschen Gesetz entspricht.

Da die Daten auch diesem Modell (7.3) nicht exakt folgen, erweitern wir es zum loglinearen Regressions ansatz

InYi = ^0 + /3i • \nxi -h [7^, z = 1 , . . . , n .

7.1.2 Punktschatzung der KoefRzienten

Aus den n beobachteten Datenpaaren (xi, y i ) , . . . , (x^, Vn) sollen /3o, Pi und (7 geschatzt werden.

KQ-Schatzung der RegressionskoefRzienten Nach der Methode der Kleinsten Quadrate (KQ, englisch: LS fiir Least Squares) minimiert man zu diesem Zweck die Funktion

Q{Po.Pi) = J2{yi-Po-f3iXi)' i=i

beztiglich /3Q und /3i, d.h. man wahlt /?o = Po und /3i = /3i so, dass die Summe QiPo, Pi) der quadrierten Abstande zwischen den Beobachtungen yi und dem hnearen Ansatz Po+PiXi minimal wird. Um PQ und pi zu bestimmen, werden die partiellen Ableitungen von Q gleich null gesetzt:

-^^QiPoJi) = - 2 ^ ( y , - / 3 o - / 3 i X , ) = 0, (7.4) i=l

QiPoJi) = -2Y,Xiiyi-0o-PiXi) = O. (7.5)

000

d

Die erste Gleichung (7.4) ist genau dann erfiillt, wenn

n

0 = Y.{yi - Po - Pixi) i=l

n n

= "^Vi-nPo- piY^Xi, 2=1 i=l

d.h. wenn

^ 0 = y - ^ 1 ^

Page 304: Wahrscheinlichkeitsrechnung und schließende Statistik

7 .1 . LiNEARE EiNFACHREGRESSION 295

ist. Die zweite Gleichung (7.5) trifft genau dann zu, wenn

n

0 = ^Xiivi - po - Pi^i)

n n 71

i=l i = l i=l

Setzt man PQ = y — Pix in die letzte Gleichung ein, so folgt

n J^^iVi - nxy

/3i = ^ 4 —• Yl^l - ^ ^

Der Nenner ist gleich ^17=1^1 — ^^^ = ^ 5 ^ , und dies ist nach Modellvor-aussetzung grofier als null.

Man priift anhand der zweiten Ableitungen von Q nach, dass bei Po und Pi wirklich ein Minimum vorliegt. Die so erhaltenen Werte PQ und Pi heifien KQ-Schatzwerte. Sie sind gleich den Regressionskoeffizienten der linearen Einfachregression (Regression zweiter Art) in der beschreibenden Statistik. Der KQ-Schatzwert Pi lasst sich offenbar auch durch die Formel

beschreiben.

Pi--SXY

~ «2 • ^X

n

Y,{xi -x){yi-y) i=l

~ n ^{Xi-X)'^

Setzt man statt der realisierten Werte yi die Zufallsvariable Yi ein, erhalt man die KQ-Schatzer fiir PQ und Pi

E(x,-x)(y,-y) Pi

i=i bzw. po = Y-pix.

Der Einfachheit halber werden die KQ-Schatzer mit den gleichen Symbolen Po und Pi wie ihre Werte bezeichnet. Die beiden KQ-Schatzer besitzen einige giinstige Eigenschaften: Erstens sind sie erwartungstreu und konsistent fiir Po bzw. Pi. Zweitens hangen sie in linearer Weise von den Beobachtungen Yi,.,.,Yn ab. Drittens besitzen sie unter alien linearen erwartungstreuen Schatzern die kleinste Varianz. Diese Eigenschaften der KQ-Schatzer werden im Abschnitt 7.5.2 naher erlautert.

Page 305: Wahrscheinlichkeitsrechnung und schließende Statistik

296 7. LiNEARE REGRESSION

Beispiel 7.1 (Fortsetzung): Wir schdtzen die Koeffizienten der linearen Re­gression der Ausgaben fur Nahrungsmittel auf das verfilgbare Einkommen. Aus den obigen Daten ergeben sich die Schdtzwerte

/3o = 153.67, 01 =0 .30 .

Die geschdtzte Regressionsgleichung lautet

y= 153.67 + 0.30-x.

Den geschdtzten Koeffizienten $\ = 0.30 interpretiert man so: Von einem zusdtzlichen Euro Einkommen werden 30 Cent fur Nahrungsmittel ausgegeben werden.

Beispiel 7.2 (Fortsetzung): Die lineare Regression der logarithmierten Ausga­ben fur Nahrungsmittel auf das logarithmierte verfilgbare Einkommen ergibt

^ = - 0 . 0 1 , /§i =0 .87 .

Die geschdtzte Regressionsgleichung lautet

In 2/ = - 0 . 0 1 + 0.87-In a;, d.h.

y = e-^'^'^x'-^' = 0.99.x0•«^

Dabei ist Pi = 0.87 der Schdtzwert fur die Einkommenselastizitdt der Nah-rungsmittelausgaben.

Schatzung der Residualvarianz Neben den beiden Regressionskoeffi-zienten PQ und Pi enthalt das Modell der linearen Einfachregression noch einen dritten unbekannten Parameter, namlich die Varianz a^ der Storterme Ui. Man schatzt sie mithilfe der empirischen Residuen t/^,

U,=Yi-Yi=Yi-{po + PiXi), (7.6)

durch

Die Wurzel aus a^ stellt einen Schatzer flir die Standardabweichung a der Yi dar; sie wird als (geschatzter) Standardfehler der Regression bezeichnet.

Zur Berechnung von a^ ist es nicht erforderlich, die Werte der Ui zu berech-nen. Setzt man (7.6) und die Formel fur Po in a^ ein, erhalt man

a n ^ , ^ n A , =1 1=1

n n n '

^ ( y , - yf + Pi ^ ( x , - xf - 2pi ^ ( y , - y){xi - x) n-2

i=l i = l i=l

;^[4+/5;4-2ft.„] = ; ^ [4 - / j ?« ] .

Page 306: Wahrscheinlichkeitsrechnung und schließende Statistik

7 . 1 . LiNEARE EiNFACHREGRESSION 297

da, sxY = Pis'x. Es folgt

n - 2 (4-/5f4) = ;^ (4 - f^ ) .

Man sieht weiterhin, dass die Werte der Schatzer Po^ $1 und a^ nur von den funf GroBen

_ 1 ^ X = — 2_^ Xi, i n

ni=i

1 '^ 1 ^

^ ^=l

und

abhangen.

1 "" 5xy = - ] ^ (xi - x) {yi - y)

i = l

Varianzen der KQ-Schatzer Wir bestimmen nun die Varianzen der KQ-Schatzer /3o und $1, Es gilt

Y,{xi-x){Y,-Y)

Pi i = l 1 ""

^ z = l

da Er=i(^* "~ y^ ~ ^ Er=i(^^ — x) = O ist. Fiir die Varianz des Schatzers folgt

V[p, ] = {-^)^h^^

^- M^ ^x = ^ — 2 " n 51 n 5 X

also

^net n

VW] - '^' - ' ' ' ' ^ " ns\ - EU^Xj-xy

Qan

(7.7)

(7.8)

Page 307: Wahrscheinlichkeitsrechnung und schließende Statistik

298 7. LiNEARE REGRESSION

Abbildung 7.1: Regressionsgerade bei unterschiedlicher Streuung der erklarenden Variablen

Die Genauigkeit beider Schatzer hangt proportional von o^ und umgekehrt proportional von s\ ab. Ist F[f7] = cr grofi, so streuen die Punkte stark um die Gerade. Ist V\U\ = cr hingegen klein, liegen die Punkte nahe an der Geraden, Der Ordinatenabschnitt /?o wird meist ungenauer geschatzt als die Steigung /?i der Regressionsgeraden. Insbesondere in den Wirtschaftswissen-schaften sind die Werte des Regressors in der Regel grofier als eins; dann ist auch der Faktor ^ XliLi ^h ^ ^ ^^^ ^^^^ ^^^ beiden Varianzen unterscheiden, grofier als eins.

Abbildung 7.1 zeigt zweierlei Daten (dicke bzw. diinne Punkte). Beide Da-tenwolken streuen in gleicher Weise in y-Richtung. In x-Richtung streuen die dlinnen Punkte allerdings weniger als die dicken, d.h. ihr s^ ist kleiner und fiihrt deshalb zu einer vergleichsweise grofieren Streuung der Regressi-onsschatzer $o und $i. Liegen die Abzissen der Punkte nahe x, so ist die Vari-anz s'x eher klein. Dies hat zur Folge, dass V[Pi] grofi ist. Fur eine verlassliche Schatzung der Steigung der Regressionsgeraden wird eine hinreichend grofie Streuung der erklarenden Variablen benotigt.

Schatzung der Varianzen der KQ-Schatzer Setzt man in (7.8) und (7.7) fur den unbekannten Parameter cr den Schatzer a^ ein, erhalt man Schatzer fiir die Varianzen von /3o und $i, namlich

V0o] = ^' 2 z2i=i ^i

n s X und V0i] =

n s X (7.9)

Die Standardabweichungen von PQ und Pi schatzt man durch

'^ffo =" ^\ und "0^ " \ 1 n Sx

(7.10)

Page 308: Wahrscheinlichkeitsrechnung und schließende Statistik

7.2. INTERVALLSCHATZUNG UND TESTS 299

BestimmtheitsmaB Als Mafi der Anpassungsgiite einer linearen Einfach-regression dient - wie in der beschreibenden Statistik - das Bestimmtheits­mafi i?^

R' = '-^ i:n-n[Y

Y:y?-n{Yy Sy

E? gibt den Anteil der durch die Regression erklarten Varianz 5? an der Gesamtvarianz Sy der abhangigen Variablen Y an. Es gilt 0 < ii^ < 1 sowie die einfach auszuwertende Formel

K' SXY

SXSY = {TXY)

Flir Einzelheiten zum Bestimmtheitsmafi und seiner Interpretation sei auf die Literatur zur beschreibenden Statistik (etwa Kapitel 5 in Mosler und Schmid (2005)) verwiesen.

Das Schatzergebnis der Regression schreibt man mit den geschatzten Stan-dardabweichungen der Regressionskoeffizienten und dem Bestimmtheitsmafi in der folgenden Form:

R\

Beispiel 7.1 (Fortsetzung): Die geschdtzte lineare Regression der Ausgaben fiir Nahrungsmittel auf die verfiigharen Einkommen lautet mit den Standard-abweichungen der Regressionskoeffizienten

y = 153.67 + 0.30-a;, (85.76) (0.02)

R^ = 0.95, (7 = 91.22.

Beispiel 7.2 (Fortsetzung): Die geschdtzte Regression der logarithmierten Va­riablen ist

Iny = -0.01 + 0.87 • In X, (0.43) (0.05)

R^ = 0.97, a = 0.07.

7.2 Intervallschatzung und Tests

Um Konfidenzintervalle flir /3o, Pi und a^ konstruieren und Hypothesen liber die Parameter testen zu konnen, nimmt man zusatzlich an, dass die Residuen

Page 309: Wahrscheinlichkeitsrechnung und schließende Statistik

300 7. LiNEARE R E G R E S S I O N

gemeinsam normalverteilt^ sind. Das Modell der linearen Einfachregression lautet dann

^i = /?o + PiXi + Ui fiir i = 1 , . . . , n ,

f / i , . . . , [/n gemeinsam normalverteilt mit

Ui ~ Ar(0,a-2) fiir i = l , . . . , n ,

Cov[Ui,Uj] = 0, falls i 7 j .

Es folgt, dass die Yi gemeinsam normalverteilt sind und

Die Schatzer $0 und $1 sind als Linearkombinationen der normalverteilten Zufallsvariablen Yi ebenfalls normalverteilt (vgl. Abschnitt 3.3.1). Ihre Er-wartungswerte und Varianzen kennen wir bereits. Deshalb gilt

Pi ~ N(0i,

n 2L,i=l -^i

^<^'EL(a.-^)^"

YTi^ii.xi-xY

Ferner folgt aus der Normalverteilungsannahme, dass

(n - 2)^2 Xn-2 (7.11)

und dass (j^ und (/3o,^i) stochastisch unabhangig sind.

7.2.1 Intervallschatzung der Parameter

Bei den folgenden Konfidenzintervallen ftir /?o und (3\ wird davon ausgegan-gen, dass cr nicht bekannt ist. Mit dem Schatzer

'^0: =

fur Cp^ gilt

pl-^01

"h in-2 ' (7.12)

^Zur multivariaten Normalverteilung siehe Abschnitt 3.3.1.

Page 310: Wahrscheinlichkeitsrechnung und schließende Statistik

7.2. INTERVALLSCHATZUNG UND TESTS 301

Mit r = tn-2, i -f aus P{tn-2 < T) = 1 — f erhalt man ftir /?i

i" (/3i - r o ^ < ^1 < /3i + T 3 ^ ) - 1 - a .

Ein Konfidenzintervall fiir /?i zum Niveau 1 — a ist deshalb durch

/3l - t n - 2 , l - f • ^^1 ' ^1 + ^n -2 , l - f * ^/3i

gegeben. Analog ergibt sich mit

^/3o = ^ 1

ein Konfidenzintervall fiir /?o zum Niveau 1 — a,

$0 - ^ n - 2 , l - f • < /3o ' / O + ^ n - 2 , l - f * ^/3, — l^ /Q 2 PO

(7.13)

(7.14)

Fiir die Residualvarianz gilt

V T2 n /

wobei Ti = Xn-2,^ ^^^ ^2 = X n - 2 , 1 - - ' ^^1- Tabelle 5. Ein Konfidenzintervall

ftir a'^ zum Niveau 1 — a ist dann

(n - 2)a^ (n - 2)a' 2 ' 2

Xn-2 , l - f ^ n - 2 , f

7.2.2 Tests fiir die Parameter

Hypothesen liber /Ji oder /3o testet man mit den folgenden ^-Tests. Dabei sind y io und /3oo vorgegebene Zahlen, mit denen die Parameter /3i bzw. /?o verglichen werden. Die Tests liber /?i basieren darauf, dass im Fall /3i = /3io wegen (7.12) die Verteilung der Testgrofie T bekannt ist, namlich

rp / ?1 - / ?1Q , ^ == Z^^ ~ t n - 2 .

Die Tests liber ^o begrlindet man entsprechend.

Page 311: Wahrscheinlichkeitsrechnung und schließende Statistik

302

Nullhypothese

Gegenhypothese

Teststatistik

Ho ablehnen, falls

Nullhypothese

Gegenhypothese

Teststatistik

Ho ablehnen, falls

Ho: Pi = /3io

Hi: 01^ (3io

\T\ > <„-2,l-f

Ho: 00 = /3oo

Hi: Po^ /3oo

| r | > t n - 2 , l - f

7. LiNEARE REGRESSION

Ho : Pi< ^10

Hi: 0i> /3io

Ho : Pi> Ao

Hi : f3i< /3io

J, Pi- HlO

T > tn-2,l-a T < —tn-2,l-a

-f o • /3o < /?oo

Hi : /?o > /3oo

i^o : /3o > /?oo 1

^ 1 : /?o < /?oo

rp _ ^0 - /?00

T > tn-2,l-a r < —tn-2,l-a

Die in Anwendungen wichtigsten Tests sind die der ersten Testtabelle mit /?io = 0- Wenn die Nullhypothese HQ : Pi = 0 abgelehnt wird, hat man auf Grund der konkreten Stichprobe nachgewiesen, dass y von x „signifikant abhangt".

Beispiel 7.1 (Fortsetzung): Die Steigung Pi entspricht der marginalen Aus-gabenquote fiir Nahrungsmittel. Hier ist zu testen^ oh Pi grofier als null ist, d.h. oh die Nahrungsmittelausgaben mit wachsendem Einkommen zunehmen. Das Testprohlem lautet HQ : Pi = 0 gegen Hi : Pi > 0. Hier ist n = 10 und der kritische Wert des einseitigen Test tn-2,i-a = ^8,0.95 = 1-86. Der Wert der Testgrofle hetrdgt 12.70, wegen 12.70 > 1.86 ist der Koeffizient Pi signifikant grofier als null (hei a = 0.05^; d.h. der positive Zusammenhang zwischen Einkommen und Nahrungsmittelausgaben ist statistisch gesichert.

Beispiel 7.2 (Fortsetzung): Um das Engelsche Gesetz empirisch zu uberpriifen, ist hier HQ : Pi = I gegen Hi : Pi < 1 zu testen. Es gilt n == 10 und der kritische Wert des einseitigen t-Tests zum b%-Niveau ist — 8,0.95 = —1.86. Der Wert der Testgrofie betrdgt ^QQ^^ = —2.6 < —1.86. Die geschdtzte Re­gression der logarithmierten Variablen ergibt also, dass die Elastizitdt Pi si­gnifikant kleiner als 1 fa = 0.05^ ist. Damit ist mit den vorliegenden Daten statistisch gesichert, dass die Nahrungsmittelausgaben unterproportional mit dem Einkommen anwachsen, wie es das Engelsche Gesetz besagt.

Um Hypothesen iiber cr zu testen, verwendet man die folgenden x^-Tests. Sie basieren auf der Verteilungsaussage (7.11).

Page 312: Wahrscheinlichkeitsrechnung und schließende Statistik

7.2. INTERVALLSCHATZUNG UND TESTS 303

Nullhypothese

Gegenhypothese

Teststatistik

HQ ablehnen, falls

Ho:a^ = al

Hi-.a^^ al

Ho:a^< 4

Hi •.a^> al

T = ( n - 2 ) ^

T > xL2,i-f

Oder T < xl-2,% T > Xn-2,l-a

Ho : a^> al |

Hi : a^< al |

^ < Xn-2,a

Betrachten wir ein weiteres Beispiel.

Beispiel 7.3: Beobachtet wurden das Monatseinkommen X (in TDM) und der Kartoffelverbrauch Y (in kg) in einer Gesamtheit von Haushalten. Die Wertepaare {xi^yi), i = 1 , . . . , 10, stehen in der folgenden Arbeitstabelle (^^ Excel/SPSS). Um eine lineare Regression von Y auf X zu schdtzen, kann man gemdfi der folgenden Tabelle vorgehen:

i 1 2 3 4 5 6 7 8 9 10

E

Xi

8.5 7.8 7.5 6.2 6.5 6.0 5.6 4.6 4.0 3.3 60

Vi 18 20 20 25 29 31 33 37 43 44 300

Xi-X

2.5 1.8 1.5 0.2 0.5 0.0

-0.4 -1.4 -2.0 -2 .7

0.0

Vi-y -12 -10 -10 - 5 - 1

1 3 7

13 14 0

{xi-x){yi-y) -30.0 -18.0 -15.0 -1.0 -0 .5

0.0 -1.2 -9.8

-26.0 -37.8

-139.3

{xi -xY 6.25 3.24 2.25 0.04 0.25 0.00 0.16 1.96 4.00 7.29

25.44

{Vi - VY 144 100 100 25

1 1 9

49 169 196 794

Aus den Spaltensummen erhalt man

6, ^ = 30,

' X 2.544, 79.4, SXY -13.93 sx = 1.595, SY = 8.911, rxY = -0.980,

und daraus die Schatzwerte

p ^ ^ i ^ ^ -5.476, 0Q=y- 0ix = 62.856,

-' = f { 4 - ' ^ ) = 3.906.

Page 313: Wahrscheinlichkeitsrechnung und schließende Statistik

304 7. LiNEARE REGRESSION

Der geschdtzte Standardfehler ist a = 1.976, die geschdtzten Standardabwei-chungen von Po '^'^d J3i lauten o^ = 2.432 bzw. a7~ = 0.392. Das Ergebnis der Regressionsschdtzung einschliefilich der Standardabweichungen ist

y = 62.86 - 5.48-x. (2.43) (0.39)

Mit 1 — a = 0.95 berechnet man gemdfl (7.13) das Konfidenzintervall fiir (3\

[-6.38, -4.57] .

Fiir den Koeffizienten Po erhalten wir entsprechend

[57.24, 68.48] .

Fiir Varianz und Standardabweichung ergeben sich die 95%-Konfidenzinter-valle

[1.78, 14.33] fiir a^ bzw.

[1.34, 3.79] fur a.

Die Konfidenzgrenzen fiir a erhdlt man dabei als Quadratwurzeln der Grenzen fiir G^.

Um beispielsweise HQ : pi = 0 gegen Hi : pi ^ 0 zu testen, bestimmen wir die Testgrofie T. Sie hat den Wert —13.978. Zum Signifikanzniveau a = 0.01 entnehmen wir den kritischen Wert 8,0.995 = 3.3554 aus der Tabelle 6. Die Hypothese, dass sich /?i von null unterscheidet, ist damit zum Signifikanzni­veau a — 0.01 gesichert.

7.3 Prognose bei Einfachregression

Sei aus den Daten (xi, y i ) , . . . , (xn, yn) eine lineare Regression geschatzt wor-den, und sei x^+i ein zusatzlicher Wert des Regressors. Fiir Yn+i setzt man den linearen Ansatz fort, also

Es liegt nahe, als Prognose ftir die unbekannte Realisation von Yn+\ den Wert der Zufallsvariablen

Yn+l = /3o + PlXn^l

zu berechnen. y^+i heifit Punktprognose ftir y^+i zu gegebenem x^+i. Man betrachtet den Prognosefehler

Page 314: Wahrscheinlichkeitsrechnung und schließende Statistik

7.3. PROGNOSE BEI EINFACHREGRESSION 305

y •

y = Po +Pix

y = 00 + 01X

geschatzte Regressionsgerade

wahre Regressionsgerade

a^n-fl

Abbildung 7.2: Wahre und geschatzte Regression, Wert yn-\-i von Yn-\-i und Wert yn-\-i der Prognose Yn-\-i zu gegebenem Xn+i

Auch der Prognosefehler Yn-\-i — l n-f i ist eine Zufallsvariable. Sie hat den Erwartungswert ^[^,^4.1 — Y^^i] = 0. Ihre Varianz ist

V[Yn^i - Yn^i] = a^ -, 1 1 / -N2' 1 + - + 2"(^n+l -X) n ns X

Die Varianz des Prognosefehlers ist offenbar dann am kleinsten, wenn Xn-\-i = X ist. Sie wachst quadratisch mit dem Abstand zwischen Xn-\-i und x. Setzt man (j^ fiir cr ein, erhalt man einen Schatzer fur die Varianz,

V[Yn+i-Yn^i]=a^ . 1 1 / 1 + r + r:x(^^+i ~^)

77r\2

n ns X

Mit der Bezeichnung apr = yV[Yn^i — Yn-i-i] ist

^ + 1 ~ ^ + 1 t n-2 •

^pr

Mit apr und einem geeigneten tn-2-Quantil bildet man das Prognoseinter-vail

^ n + l ~ ^ n - 2 , l - f • CTpr , 1^-1-1 + t n - 2 , l - f * ^pr\

Page 315: Wahrscheinlichkeitsrechnung und schließende Statistik

306 7. LiNEARE REGRESSION

zum Niveau 1 — a. Unter der Normalverteilungsannahme an die Residuen iiberdeckt dieses Intervall die zukiinftige Beobachtung Fn-f-i niit Wahrschein-lichkeit 1 — a .

7.4 Lineare Mehrfachregression

Das einfache lineare Regressionsmodell soil nun dahingehend verallgemei-nert werden, dass die abhangige Variable von mehr als einem Regressor abhangt. Einer der Regressoren oder mehrere konnen dabei auch so genannte Dummy-Variable sein, die nur die Werte 0 und 1 annehmen. Im Ubrigen werden die Variablen als metrisch vorausgesetzt.

Ftir jede statistische Einheit sei ein Datensatz von Beobachtungswerten der abhangigen Variablen sowie von m Regressorvariablen gegeben, m > 2. Ge-geben ist der Datensatz {xn,..., Xim^Vi), wobei Xij die i-te Beobachtung der J-ten Regressorvariablen bezeichnet. Das Modell der linearen Mehrfach­regression lautet

Yi= po-\- piXii + . . . + Pm^im + Ui, 2 = 1 , . . . , n . (7.15)

Hierbei sind

• xij^..., Xnj die Werte des j-ten Regressors, j = 1 , . . . , m. Sie werden als deterministisch {= fest gegeben) angesehen. Es gelte n > m + 1, d.h. die Anzahl der Beobachtungen libersteige die der Regressoren. Zu weiteren mathematischen Voraussetzungen und zur Verwendung von Matrizen in der linearen Mehrfachregression wird auf Abschnitt 7.5.3 verwiesen.

• f / i , . . . , C/n sind die Storterme oder Residuen. Sie sind Zufallsvariable, die nicht beobachtet werden konnen. Uber die gemeinsame Verteilung der Residuen gelten dieselben Annahmen wie bei der linearen Einfach-regression:

E[Ui] = 0 ftir alle i, V[Ui] = (7 ftir alle z,

CovpuUj] = 0 fur alle i^j.

Hieraus folgt ftir alle Yi

E[Yi\ = /?o + PlXii + . . . + PmXim ,

d.h. der Erwartungswert der abhangigen Variablen ist eine affin-lineare Funk-tion der m Regressoren. Weiterhin folgt

V[Yi\ = a^ fur alle i ,

Gov [Yi ,Yj] = 0 fur alle i y^ j .

Page 316: Wahrscheinlichkeitsrechnung und schließende Statistik

x . - { l

7.4. LiNEARE M E H R F A C H R E G R E S S I O N 307

Die Aufgabe der multiplen linearen Regression besteht darin, die Regressi-onskoeffizienten /?o?/?i? • • • ^Pm und die Residualvarianz cr aus den Beobach-tungen (x^, • . . , Xim^Vi), i = 1 , . . . , n, zu schatzen.

Wir illustrieren das multiple Regressionsmodell an einem Beispiel.

Beispiel 7.4' Der monatliche Absatz Y (in kg) einer hochwertigen Didtmarga-rine in Supermdrkten soil auf vier erkldrende Variable zuriickgefuhrt werden, den Preis Xi pro Packung in €, den Werbeaufwand X2 in €, die Kunden-frequenz X3 (= Anzahl Kunden pro Tag) und die Lage des Verkaufsgebiets X4, wobei

0 Idndliches Verkaufsgebiet, stddtisches Verkaufsgebiet

bezeichnet (^—^ Excel).

Wdhrend Xi,X2 und Xs metrische Variablen sind, ist X4 eine Dummy-Variable (0-1-Variable). Das Regressionsmodell lautet

Yi = Po+ PlOOil + P2Xi2 + PsXiS + /?4^i4 + Ui .

Hierbei bezeichnet i die statistischen Einheiten (= Supermdrkte). Die Para­meter (3i, ^2 und Ps werden wie folgt interpretiert:

• Pi gibt an, um wie viel Kilogramm sich der Absatz verdndert, wenn der Packungspreis um einen Euro erhoht wird;

• p2 gibt an, um wie viel Kilogramm sich der Absatz verdndert, wenn der Werbeaufwand um einen Euro wdchst;

• Ps gibt an, um wie viel Kilogramm sich der Absatz verdndert, wenn pro Tag ein Kunde zusdtzlich einkauft.

Die Dummy- Variable teilt die statistischen Einheiten in zwei Gruppen ein, die Idndlichen und die stddtischen Supermdrkte. Modellvoraussetzung ist, dass die Koeffizienten der Regressoren fiir beide Gruppen gleich sind, ein Unterschied wird lediglich im konstanten Glied zugelassen: Fiir Idndliche Supermdrkte be-trdgt der Achsenabschnitt PQ, fiir stddtische Supermdrkte betrdgt er Po + P4.

Schatzung der Parameter Bei einer multiplen linearen Regression sind m -f 1 RegressionskoefRzienten Po^Pi^.. > •, Pm sowie die Varianz cr der Resi-duen zu schatzen. Wie bei der linearen Einfachregression schatzt man die Re­gressionskoefRzienten mit der Methode der kleinsten Quadrate. Die Schatzwerte Po^Pi^" ' yPm werden so bestimmt, dass

"^{Vi - Po- PlXil - . . . - PmXimy i=l

: min y](2/i - Po - PiXn - . . . - PmXim)'^ 1=1

Page 317: Wahrscheinlichkeitsrechnung und schließende Statistik

308 7. LiNEARE REGRESSION

Die KQ-Schatzer PoyPi^-- - yPm lassen sich mittels Matrizenschreibweise in libersichtlicher Form angeben; hierzu sei auf Abschnitt 7.5.3 verwiesen. Die Werte der KQ-Schatzer bezeichnen wir der Einfachheit halber ebenfalls mit

Die Varianz a^ der Storterme Ui wird wie bei der linearen Einfachregression als Mittelwert der quadrierten empirischen Residuen Ui geschatzt. Mit

U, = Yi-Yi = Yi-po-(iiXii • Pm^v

ist

a' = n- (m + 1) ^ E^f

ein erwartungstreuer Schatzer fiir a^. Die Wurzel aus a^ heifit (geschatzter) Standardfehler der Regression.

Schatzung der Varianzen der KQ-Schatzer Als Nachstes werden die Varianzen und Kovarianzen der Schatzer flir die Regressionskoeffizienten ge­schatzt. Die Kovarianzmatrix von {$o^... ,/3m) wird in Abschnitt 7.5.3 ange-geben. Die Standardabweichung von $j bezeichnen wir mit

^ = \ / ^ -

Das Bestimmtheitsmafi der multiplen linearen Regression bezeichnet -gleich dem der einfachen linearen Regression - den Anteil der durch die Re­gression erklarten Varianz s'^ an der Gesamtvarianz Sy. Die Definition ist wortlich die gleiche:

H' i=l _ ZX. nV

Es gilt 0 < R'^ < 1, wobei R'^ = 1 einen exakten linearen Zusammenhang anzeigt. Im Ubrigen sei auf die Literatur zur beschreibenden Statist ik, etwa Kapitel 5 in Mosler und Schmid (2005), verwiesen.

Als Ergebnis der multiplen linearen Regression gibt man haufig die geschatzte Regressionsgleichung - zusammen mit den geschatzten Standardabweichun-gen der KoefRzienten - sowie i?^ und a an:

Yi^ Po + Pi Xii + ,,.+ Prr Kn) (^BJ

., i?% ^ /^ l^ (^^m)

Page 318: Wahrscheinlichkeitsrechnung und schließende Statistik

7.4. LiNEARE M E H R F A C H R E G R E S S I O N 309

Ftir die Regressionsparameter /?o,/3i,..., pm lassen sich auch Konfidenzinter-valle angeben und Hypothesentests durchfiihren. Voraussetzung hierfiir ist die Annahme gemeinsam normalverteilter Residuen,

Bin Konfidenzintervall flir (3j (j = 0 , . . . , m) zum Niveau a ist dann durch

Pj T ^n-(m+l),l-f ^0j

gegeben. Tests liber die einzelnen Regressionskoeffizienten /3j (j = 1 , . . . , m) sind in der nachfolgenden Testbox zusammengestellt. Dabei ist PJQ eine vor-gegebene Zahl, etwa Pjo = 0.

Nullhypothese

Gegenhypothese

Teststatistik

Ho ablehnen, falls

^0 : Pj = Pjo

Hi : pj ^ pjo

HQ : I3j < /3jo

Hi : /3j > l3jo

Ho : 0j > l3jo

Hi : 0j< PJO

j._Pj-p30

/ . 1 \T\>

*n-(m+l),l-f

T>

^n—(m+l),!—o

T< 1 ~^n—(m+l),l — <

Beispiel 7.4 (Fortsetzung): Die Schdtzung der Regressionsparameter bei n = 20 Supermdrkten (fiktive Daten) ergab (* -> Excel)

y = 638.98 - 222.03 • xi -[- 0.03 • X2 -f 0.77 • X3 + 36.43 • 0:4 (296.46) (102.65) (0.02) (0.21) (100.32)

mit B? = 0.72 und a = 213.11. Die Prufgrofien der t-Tests auf HQ : PJ = 0 gegen Hi : pj ^ 0 (j = 0,1,2,3,4) haben die Werte

Ho 2.15

Hi -2.16

02 1.79

/33 3.70

A 0.36

und der kritische Bereich fur a = 0.05 ist jeweils ] — 00, —2.13] U [2.13,00[. Die Schdtzergebnisse lassen sich so interpretieren:

• Die Parameter haben die zu erwartenden Vorzeichen.

• Die Parameter PQ,PI und ps sind bei a = 0.05 signifikant von null verschieden, die Parameter P2 und P4 jedoch nicht. Der Werbeaufwand hat demnach keinen signifikanten Einfluss auf den Absatz, ebensowenig wie der Unterschied zwischen Stadt und Land.

Page 319: Wahrscheinlichkeitsrechnung und schließende Statistik

310 7. LiNEARE REGRESSION

Von Interesse sind auch Tests, die mehrere Regressionsparameter zugleich iiberprufen. Der folgende Test wird auch Test auf den Gesamtzusam-menhang genannt. Er iiberprlift, ob mindestens eine der Regressorvariablen statistisch signifikant ist. Testgrofie und kritischer Bereich sind in der folgen-den Test box enthalten.

Verteilungsannahme

Nullhypothese

Gegenhypothese

Priifgrofie

HQ ablehnen, falls

Yi= (3o-\- PiXii + . . . + Pm^im + Ui,

Ui,... ,Un ~ A/'(0,a^) unabhangig |

Ho:Pi=l32 = ,.. = Pm = 0

Hi : nicht HQ

{n-m- l)B? m(l - i^2)

- -^ ^m,n—{m-\-l),\ — a

7.5 Erganzungen

7.5.1 ML-Schatzung einer linearen Einfachregression

Unter der Annahme einer gemeinsamen Normalverteilung der Ui (vgl. Ab-schnitt 7.2) lassen sich auch ML-Schatzer ftir die Parameter /?o, /?i und cr einer einfachen linearen Regression konstruieren. Dann gilt:

• Die ML-Schatzer ftir /3o und Pi stimmen mit den KQ-Schatzern ^o und Pi iiberein.

• Der ML-Schatzer ftir a^ ist

> 2 1 '^

BEWEIS Wir maximieren die Loglikelihood-Funktion beziiglich /?o, Pi und (7 . Die Dichte von Yi ist

V27rcr

Page 320: Wahrscheinlichkeitsrechnung und schließende Statistik

7.5. ERGANZUNGEN 311

fiir die Loglikelihoodfunktion ergibt sich deshalb

n

li/3o,l3iy) = Yl^n{f{yi\\/3o,Pi,a^))

= J2\- I n ( V ^ ) - Ha) - -L(2/ , - /3o - ftx,)' i=l

wobei

- n l n ( V ^ ) - nln(c7) - ^ Q ( / ? o , / ? i ) ,

i=l

(7.16)

Die Loglikelihood-Punktion 1{PO,PI,(T^) ist an der Stelle /3o = Po und /3i = /3i genau dann maximal, wenn (5(/?o?/?i) £ u dieser Stelle minimal ist, d.h. wenn fiir pQ und /3i die KQ-Schatzer /3o und /3i gewahlt werden.

Um den ML-Schatzer fiir a'^ zu bestimmen, berechnen wir

^l0oJua^) = ^ -nln{V^)-^Q0oJi)

a^2Va^ ' 2a4

n

2^ - 1 +

ncr jQil3o,l3i)

Nullsetzen dieser Ableitung und (7.16) liefert den ML-Schatzer fiir a^, namlich

D

n i=l

7.5.2 Eigenschaften der Schatzer

In diesem Abschnitt betrachten wir einige allgemeine Eigenschaften der Punkt-schatzer /3o, Pi und a^.

1. Po und pi sind in den Beobachtungen Yi lineare Schatzer, d.h. sie haben n

jeweils die Form Yl WiYi mit geeigneten Koeffizienten Wi.

2. E[Po] = Po und E[Pi] = Pi, d.h. Po und pi sind erwartungtreu.

Page 321: Wahrscheinlichkeitsrechnung und schließende Statistik

312 7. LiNEARE REGRESSION

3. Unter alien (in den Beobachtungen Yi^..,^Yn) linearen erwartungs-treuen Schatzern fiir /SQ und /?i haben die KQ-Schatzer $o und $i die kleinste Varianz. Kurz: /3o und /3i sind BLUE fiir PQ und /?i. Dies ist das so genannte Gaufi-MarkofF-Theorem; siehe auch Abschnitt 5.5.

4. Es gilt E[a^] = cr , d.h. a'^ ist erwartungstreu fiir a'^.

5. Der ML-Schatzer a-| ^ ist nicht erwartungstreu, jedoch asymptotisch erwartungstreu.

6. Die Schatzer ^o^ Pi^ ^'^ und a^^^ sind konsistent.

BEWEIS ZU 1.) Mit Wi := T^T—-. ^ -^ ist

n n

i=l i = l

also ein linearer Schatzer. PQ = Y — Pix ist daher ebenfalls linear in den Y .

Zu 2.) Da Er=i(^^ -x) =0 ist, gilt X;r=i ^^ = 0- Ferner gilt

2

= 1,

Dies bedeutet

Pi = Pi+Yl^i^^^ i=l

n

i=l

Der Schatzer Pi ist demnach erwartungstreu fiir pi. Fiir den Schatzer /3o zeigt man die Erwartungstreue analog.

Zu 3.) Wir beweisen das GauB-Markoff-Theorem fiir Pi. Ein beliebiger linea­rer Schatzer hat die Form Pi = Y^CiYi, Er ist genau dann erwartungstreu fiir /?!, wenn fiir beliebige Werte der Parameter pi und PQ die Gleichung

n n

Page 322: Wahrscheinlichkeitsrechnung und schließende Statistik

7.5. ERGANZUNGEN 313

d.h.

^1 = i o X ] ^ + ^1 XI ^^ i = i i=l

erfiillt ist. Aquivalent ist die Gliltigkeit der beiden Bedingungen Y^^:=i Ci = 0 und ^27=1 ^^^* ~ •'•• U ^ unter alien linearen erwartungstreuen Schatzern fiir Pi den mit der kleinsten Varianz zu ermitteln, minimieren wir die Varianz von /3i,

i=l i = l

unter den beiden Nebenbedingungen. Ein Lagrange-Ansatz liefert die Losung

^^2 Wi .

Fiir $0 zeigt man das Theorem analog.

Auf den Beweis der Aussagen 4 und 6 wollen wir hier verzichten. Aussage 5 folgt unmittelbar aus Aussage 4. D

7.5.3 Lineare Mehrfachregression in Matrizendarstel-lung

Unter Verwendung der Matrizenrechnung lasst sich das multiple lineare Re-gressionsmodell Ubersichtlicher darstellen: Die n Regressionsgleichungen

Fi = /3o + PiXii + . . . + Pm^im + Ui, z - 1 , . . . , n ,

kann man in kompakter Form als

Y = X/3 + U

schreiben. Hierbei ist

Yi

Yn

, X: 1 Xu

1 Xnl

Xlr

, u = ' Ui '

_Un .

, /? =

r Pi 1

.Pm \

Von der nx {m-\- 1)-Matrix X nehmen wir an, dass sie deterministisch (also fest gegeben) ist und den vollen Rang m + 1 besitzt. Die weiteren Annahmen des Modells lassen sich durch

E[V] - 0

Page 323: Wahrscheinlichkeitsrechnung und schließende Statistik

314 7. LiNEARE REGRESSION

sowie E[VV'] = aHn

zusammenfassen, wobei I^ die (nxn)-Einheitsmatrix bezeichnet. Nimmt man zusatzhch eine gemeinsame Normalverteilung der St5rterme an, so gilt

Der Kleinste-Quadrate Schatzer /? = {$Q,$I,. ,. ,/3m)' fur /? wird durch Mi-nimierung der Zielfunktion

n

i=l

ermittelt, wobei (3 = (/?o,/3i,... ,/3m)' der Vektor der Variablen ist, liber die Q minimiert wird. Nach einigen Umformungen ergibt sich der Schatzer ^ als

^ = : ( X ' X ) - i X ' Y .

Die Kovarianzmatrix von /3 ist

Cov[/3] = (72(X'X)-i.

Schatzt man cr mittels

1 " . . = 7 —TT y ^ ( ^ i - y o - ^iXii - . . . - PmXimf ,

n - (m + 1) ^

SO ist a^ erwartungstreu flir cr und C^( /3) = (72(X'X)-i

ein erwartungstreuer Schatzer flir die Kovarianzmatrix von /3.

Aus der Hauptdiagonalen dieser Matrix entnimmt man die Schatzer flir die Varianzen von $j,j = 1,. . . ,m. Die Wurzeln der Varianzschatzer sind Schatzer der Standardabweichungen. Tests liber die Werte der Regressionsparameter flihrt man ahnlich durch wie in Abschnitt 7.2.2 beschrieben; Konfidenzinter-valle flir die einzelnen Parameter werden wie in Abschnitt 7.2.1 konstruiert.

Prognose Aus den Daten (x^i , . . . , Xim^ yi), i = 1 , . . . , n, sei eine multiple lineare Regression geschatzt worden. Der Zeilenvektor

^ n + l ~ \Xn-\-lyl-) • • • •) Xn-\-l,m)

Page 324: Wahrscheinlichkeitsrechnung und schließende Statistik

7.5. ERGANZUNGEN 315

stelle einen zusatzlichen Wert des Vektors der Regressorvariablen dar. Flir den zugehorigen Wert der abhangigen Variablen macht man denselben linea-ren Ansatz

Dann stellt

eine Punktprognose fiir Yn-{-i dar. Fiir den Prognosefehler Yn-^i — ^n+i gilt

E[Yn+l-Yn^l]=0.

Im Mittel ist der Prognosefehler null, die Prognose also unverzerrt. Offenbar ist diese Prognose linear in den Beobachtungen Vi , . . . , y^. Die Varianz des Prognosefehlers betragt

V[Yn^, - Yn^i] = a^l + x , + i ( X ' X ) - i x ; ^ i ) .

Man kann zeigen, dass die Prognose Y^+i unter alien linearen, unverzerrten Prognosen fiir Fn+i die kleinste Fehlervarianz besitzt.

Die Varianz des Prognosefehlers lasst sich erwartungstreu schatzen, wenn wir (j^ durch den obigen Schatzer a'^ ersetzen. Unter der Annahme gemeinsam normalverteilter Residuen ?7i, . . . , {/„ gilt fiir die Verteilung des standardi-sierten Prognosefehlers

V^^(i + x„+,(X'X)-ix;^,) ~ *' -('"- > •

Damit lasst sich zum Niveau 1 — a das Prognoseintervall mit den Rand-punkten

bilden. Mit Wahrscheinlichkeit 1 — a iiberdeckt dieses Intervall die Zufallsva-riable 1 71+1 •

Erganzende Literatur zu Kapitel 7:

Die einfache lineare Regression wird in einigen Lehrblichern der Statistik fiir Wirtschaftswissenschaftler behandelt, etwa in Fahrmeir et al. (2004), Bam­berg und Baur (2002) und Schlittgen (2003).

Ausfiihrlichere Darstellungen der einfachen und der multiplen Regression findet man in Lehrbiichern der Okonometrie. Eine elementare Einfiihrung gibt von Auer (2005). Als weiterfiihrende Darstellungen sind unter anderem Hiibler (1989), Verbeek (2004) und Johnston und DiNardo (1997) zu emp-fehlen.

Page 325: Wahrscheinlichkeitsrechnung und schließende Statistik

316 7. LiNEARE REGRESSION

7.6 Anhang: Verwendung von Excel und SPSS

Lineare Einfachregression (Beispiel 7.3, Seite 303):

Excel I In der Excel-Arbeitsmappe r eg re s s ion .x l s wird eine einfache Re­gression (MENUE: EXTRAS ^ ANALYSE-FUNKTIONEN/REGRESSION) der

Form yi = PQ -\- PiXi durchgefiihrt. Die Regression ergibt /3i = —5.4756 und 5 ^ = 0.3918.

Zu testen ist HQ : Pi = 0 gegen Hi : f3i ^ 0. Die Testgrofie hat den Wert

-5.4756

0.3918 -13.9755.

Da es sich um einen zweiseitigen Test handelt, wird der Betrag der Testgrofie, namlich x = 13.9755 = | - 13.9755| in die Funktion TVERT mit Freiheitsgra-de=28 und Seiten=2 eingesetzt: Ergebnis ist der p-Wert TVERT(13,9755;28;2) ^ 0. Zum Signifikanzniveau a = 0.001 (und hoher) ist deshalb Hi gesichert.

SPSS I Die gleichen Daten sind ftir SPSS in regress ion , sav gespeichert. Die Regression wird iiber das Menii ANALYSIEREN/REGRESSION/LINEAR durch­gefiihrt. Die Ergebnisse sind die gleichen wie bei Excel.

Lineare Mehrfachregression (Beispiel 7.4, Seite 307): Die zum Beispiel 7.4 gehorenden Daten und Berechnungen sind in Excel

der Exceldatei margar ine.xls im Internet verfligbar.

Page 326: Wahrscheinlichkeitsrechnung und schließende Statistik

Tabellenanhang

Dieser Tabellenanhang enthalt Tabellen der

1. Wahrscheinlichkeiten der Binomialverteilung,

2. Wahrscheinlichkeiten der Poisson-Verteilung,

3. Quantile der Standardnormalverteilung,

4. Verteilungsfunktion der Standardnormalverteilung,

5. Quantile der x^-Verteilung,

6. Quantile der ^-Verteilung,

7. Quantile der F-Verteilung.

Ausftihrlichere Tabellen und Tabellen weiterer Verteilungen findet man in den folgenden Tabellenwerken: Hald (1952); Fischer und Yates (1957); Pearson und Hartley (1966, 1972); Kokoska und Nevison (1988).

317

Page 327: Wahrscheinlichkeitsrechnung und schließende Statistik

318 TABELLENANHANG

Tabelle 1: Wahrscheinlichkeiten der Binomial-verteilung

Tabelliert sind die Werte P{X = x) ftir X ~ B{n,Tr) mit TT < 0.5 . Fur TT > 0.5 erhalt man die Werte P{X = x) durch die Beziehung P{X = x) = P{Y = n-x), wobei Y ~ B{n, 1 - TT) .

1 1

2

3

4

5

6

7

X

0 1 0 1 2 0 1 2 3 0 1 2 3 4 0 1 2 3 4 5 0 1 2 3 4 5 6 0 1 2 3 4 5 6 7

.05 .9500 .0500 .9025 .0950 .0025 .8574 .1354 .0071 .0001 .8145 .1715 .0135 .0005 .0000 .7738 .2036 .0214 .0011 .0000 .0000 .7351 .2321 .0305 .0021 .0001 .0000 .0000 .6983 .2573 .0406 .0036 .0002 .0000 .0000 .0000

.10 .9000 .1000 .8100 .1800 .0100 .7290 .2430 .0270 .0010 .6561 .2916 .0486 .0036 .0001 .5905 .3281 .0729 .0081 .0005 .0000 .5314 .3543 .0984 .0146 .0012 .0001 .0000 .4783 .3720 .1240 .0230 .0026 .0002 .0000 .0000

.15 .8500 .1500 .7225 .2550 .0225 .6141 .3251 .0574 .0034 .5220 .3685 .0975 .0115 .0005 .4437 .3915 .1382 .0244 .0022 .0001 .3771 .3993 .1762 .0415 .0055 .0004 .0000 .3206 .3960 .2097 .0617 .0109 .0012 .0001 .0000

.20 .8000 .2000 .6400 .3200 .0400 .5120 .3840 .0960 .0080 .4096 .4096 .1536 .0256 .0016 .3277 .4096 .2048 .0512 .0064 .0003 .2621 .3932 .2458 .0819 .0154 .0015 .0001 .2097 .3670 .2753 .1147 .0287 .0043 .0004 .0000

TT

.25 .7500 .2500 .5625 .3750 .0625 .4219 .4219 .1406 .0156 .3164 .4219 .2109 .0469 .0039 .2373 .3955 .2637 .0879 .0146 .0010 .1780 .3560 .2966 .1318 .0330 .0044 .0002 .1335 .3115 .3115 .1730 .0577 .0115 .0013 .0001

.30 .7000 .3000 .4900 .4200 .0900 .3430 .4410 .1890 .0270 .2401 .4116 .2646 .0756 .0081 .1681 .3602 .3087 .1323 .0284 .0024 .1176 .3025 .3241 .1852 .0595 .0102 .0007 .0824 .2471 .3177 .2269 .0972 .0250 .0036 .0002

.35 .6500 .3500 .4225 .4550 .1225 .2746 .4436 .2389 .0429 .1785 .3845 .3105 .1115 .0150 .1160 .3124 .3364 .1811 .0488 .0053 .0754 .2437 .3280 .2355 .0951 .0205 .0018 .0490 .1848 .2985 .2679 .1442 .0466 .0084 .0006

.40 .6000 .4000 .3600 .4800 .1600 .2160 .4320 .2880 .0640 .1296 .3456 .3456 .1536 .0256 .0778 .2592 .3456 .2304 .0768 .0102 .0467 .1866 .3110 .2765 .1382 .0369 .0041 .0280 .1306 .2613 .2903 .1935 .0774 .0172 .0016

.45 .5500 .4500 .3025 .4950 .2025 .1664 .4084 .3341 .0911 .0915 .2995 .3675 .2005 .0410 .0503 .2059 .3369 .2757 .1128 .0185 .0277 .1359 .2780 .3032 .1861 .0609 .0083 .0152 .0872 .2140 .2918 .2388 .1172 .0320 .0037

.50 .5000 .5000 .2500 .5000 .2500 .1250 .3750 .3750 .1250 .0625 .2500 .3750 .2500 .0625 .0313 1 .1563 1 .3125 1 .3125 .1563 .0313 .0156 .0938 .2344 .3125 .2344 .0938 .0156 .0078 .0547 .1641 .2734 .2734 .1641 .0547 .0078 1

Page 328: Wahrscheinlichkeitsrechnung und schließende Statistik

T A B E L L E 1: BiNOMIALVERTEILUNG 319

1 n F T

r~9~

v^

11

X

~o" 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 10 0 1 2 3 4 5 6 7 8 9 10 11

.05 .6634 .2793 .0515 .0054 .0004 .0000 .0000 .0000 .0000 .6302 .2985 .0629 .0077 .0006 .0000 .0000 .0000 .0000 .0000 .5987 .3151 .0746 .0105 .0010 .0001 .0000 .0000 .0000 .0000 .0000 .5688 .3293 .0867 .0137 .0014 .0001 .0000 .0000 .0000 .0000 .0000 .0000

.10 .4305 .3826 .1488 .0331 .0046 .0004 .0000 .0000 .0000 .3874 .3874 .1722 .0446 .0074 .0008 .0001 .0000 .0000 .0000 .3487 .3874 .1937 .0574 .0112 .0015 .0001 .0000 .0000 .0000 .0000 .3138 .3835 .2131 .0710 .0158 .0025 .0003 .0000 .0000 .0000 .0000 .0000

.15 .2725 .3847 .2376 .0839 .0185 .0026 .0002 .0000 .0000 .2316 .3679 .2597 .1069 .0283 .0050 .0006 .0000 .0000 .0000 .1969 .3474 .2759 .1298 .0401 .0085 .0012 .0001 .0000 .0000 .0000 .1673 .3248 .2866 .1517 .0536 .0132 .0023 .0003 .0000 .0000 .0000 .0000

.20 .1678 .3355 .2936 .1468 .0459 .0092 .0011 .0001 .0000 .1342 .3020 .3020 .1762 .0661 .0165 .0028 .0003 .0000 .0000 .1074 .2684 .3020 .2013 .0881 .0264 .0055 .0008 .0001 .0000 .0000 .0859 .2362 .2953 .2215 .1107 .0388 .0097 .0017 .0002 .0000 .0000 .0000

TT

"~25 .1001 .2670 .3115 .2076 .0865 .0231 .0038 .0004 .0000 .0751 .2253 .3003 .2336 .1168 .0389 .0087 .0012 .0001 .0000 .0563 .1877 .2816 .2503 .1460 .0584 .0162 .0031 .0004 .0000 .0000 .0422 .1549 .2581 .2581 .1721 .0803 .0268 .0064 .0011 .0001 .0000 .0000

.30 .0576 .1977 .2965 .2541 .1361 .0467 .0100 .0012 .0001 .0404 .1556 .2668 .2668 .1715 .0735 .0210 .0039 .0004 .0000 .0282 .1211 .2335 .2668 .2001 .1029 .0368 .0090 .0014 .0001 .0000 .0198 .0932 .1998 .2568 .2201 .1321 .0566 .0173 .0037 .0005 .0000 .0000

.35 .0319 .1373 .2587 .2786 .1875 .0808 .0217 .0033 .0002 .0207 .1004 .2162 .2716 .2194 .1181 .0424 .0098 .0013 .0001 .0135 .0725 .1757 .2522 .2377 .1536 .0689 .0212 .0043 .0005 .0000 .0088 .0518 .1395 .2254 .2428 .1830 .0985 .0379 .0102 .0018 .0002 .0000

.40 .0168 .0896 .2090 .2787 .2322 .1239 .0413 .0079 .0007 .0101 .0605 .1612 .2508 .2508 .1672 .0743 .0212 .0035 .0003 .0060 .0403 .1209 .2150 .2508 .2007 .1115 .0425 .0106 .0016 .0001 .0036 .0266 .0887 .1774 .2365 .2207 .1471 .0701 .0234 .0052 .0007 .0000

.45 .0084 .0548 .1569 .2568 .2627 .1719 .0703 .0164 .0017 .0046 .0339 .1110 .2119 .2600 .2128 .1160 .0407 .0083 .0008 .0025 .0207 .0763 .1665 .2384 .2340 .1596 .0746 .0229 .0042 .0003 .0014 .0125 .0513 .1259 .2060 .2360 .1931 .1128 .0462 .0126 .0021 .0002

.50 .0039 .0313 .1094 .2188 .2734 .2188 .1094 .0313 .0039 .0020 .0176 .0703 .1641 .2461 .2461 .1641 .0703 .0176 .0020 .0010 .0098 .0439 .1172 .2051 .2461 .2051 .1172 .0439 .0098 .0010 ! .0005 ! .0054 ! .0269 .0806 .1611 .2256 .2256 .1611 .0806 .0269 .0054 .0005 1

Page 329: Wahrscheinlichkeitsrechnung und schließende Statistik

320 TABELLENANHANG

1 n m"

Tls"

lU"

X

0 1 2 3 4 5 6 7 8 9 10 11 12 0 1 2 3 4 5 6 7 8 9 10 11 12 13 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14

.05 .5404 .3413 .0988 .0173 .0021 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .5133 .3512 .1109 .0214 .0028 .0003 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .4877 .3593 .1229 .0259 .0037 .0004 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.10 .2824 .3766 .2301 .0852 .0213 .0038 .0005 .0000 .0000 .0000 .0000 .0000 .0000 .2542 .3672 .2448 .0997 .0277 .0055 .0008 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .2288 .3559 .2570 .1142 .0349 .0078 .0013 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.15 .1422 .3012 .2924 .1720 .0683 .0193 .0040 .0006 .0001 .0000 .0000 .0000 .0000 .1209 .2774 .2937 .1900 .0838 .0266 .0063 .0011 .0001 .0000 .0000 .0000 .0000 .0000 .1028 .2539 .2912 .2056 .0998 .0352 .0093 .0019 .0003 .0000 .0000 .0000 .0000 .0000 .0000

.20 .0687 .2062 .2835 .2362 .1329 .0532 .0155 .0033 .0005 .0001 .0000 .0000 .0000 .0550 .1787 .2680 .2457 .1535 .0691 .0230 .0058 .0011 .0001 .0000 .0000 .0000 .0000 .0440 .1539 .2501 .2501 .1720 .0860 .0322 .0092 .0020 .0003 .0000 .0000 .0000 .0000 .0000

71

~T25 .0317 .1267 .2323 .2581 .1936 .1032 .0401 .0115 .0024 .0004 .0000 .0000 .0000 .0238 .1029 .2059 .2517 .2097 .1258 .0559 .0186 .0047 .0009 .0001 .0000 .0000 .0000 .0178 .0832 .1802 .2402 .2202 .1468 .0734 .0280 .0082 .0018 .0003 .0000 .0000 .0000 .0000

.30 .0138 .0712 .1678 .2397 .2311 .1585 .0792 .0291 .0078 .0015 .0002 .0000 .0000 .0097 .0540 .1388 .2181 .2337 .1803 .1030 .0442 .0142 .0034 .0006 .0001 .0000 .0000 .0068 .0407 .1134 .1943 .2290 .1963 .1262 .0618 .0232 .0066 .0014 .0002 .0000 .0000 .0000

.35 .0057 .0368 .1088 .1954 .2367 .2039 .1281 .0591 .0199 .0048 .0008 .0001 .0000 .0037 .0259 .0836 .1651 .2222 .2154 .1546 .0833 .0336 .0101 .0022 .0003 .0000 .0000 .0024 .0181 .0634 .1366 .2022 .2178 .1759 .1082 .0510 .0183 .0049 .0010 .0001 .0000 .0000

.40 .0022 .0174 .0639 .1419 .2128 .2270 .1766 .1009 .0420 .0125 .0025 .0003 .0000 .0013 .0113 .0453 .1107 .1845 .2214 .1968 .1312 .0656 .0243 .0065 .0012 .0001 .0000 .0008 .0073 .0317 .0845 .1549 .2066 .2066 .1574 .0918 .0408 .0136 .0033 .0005 .0001 .0000

.45 .0008 .0075 .0339 .0923 .1700 .2225 .2124 .1489 .0762 .0277 .0068 .0010 .0001 .0004 .0045 .0220 .0660 .1350 .1989 .2169 .1775 .1089 .0495 .0162 .0036 .0005 .0000 .0002 .0027 .0141 .0462 .1040 .1701 .2088 .1952 .1398 .0762 .0312 .0093 .0019 .0002 .0000

.50 .0002 .0029 .0161 .0537 .1208 .1934 .2256 .1934 .1208 .0537 .0161 .0029 1 .0002 .0001 .0016 .0095 .0349 .0873 .1571 .2095 .2095 .1571 .0873 .0349 .0095 .0016 .0001 .0001 1 .0009 .0056 .0222 1 .0611 .1222 .1833 .2095 .1833 .1222 .0611 .0222 .0056 .0009 .0001 1

Page 330: Wahrscheinlichkeitsrechnung und schließende Statistik

T A B E L L E 1: BiNOMIALVERTEILUNG 321

1 n ris"

TW

X

"~o" 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19

.05 .4633 .3658 .1348 .0307 .0049 .0006 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .3585 .3774 .1887 .0596 .0133 .0022 .0003 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.10 .2059 .3432 .2669 .1285 .0428 .0105 .0019 .0003 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .1216 .2702 .2852 .1901 .0898 .0319 .0089 .0020 .0004 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.15 .0874 .2312 .2856 .2184 .1156 .0449 .0132 .0030 .0005 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0388 .1368 .2293 .2428 .1821 .1028 .0454 .0160 .0046 .0011 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.20 .0352 .1319 .2309 .2501 .1876 .1032 .0430 .0138 .0035 .0007 .0001 .0000 .0000 .0000 .0000 .0000 .0115 .0576 .1369 .2054 .2182 .1746 .1091 .0545 .0222 .0074 .0020 .0005 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000

TT

"~25 .0134 .0668 .1559 .2252 .2252 .1651 .0917 .0393 .0131 .0034 .0007 .0001 .0000 .0000 .0000 .0000 .0032 .0211 .0669 .1339 .1897 .2023 .1686 .1124 .0609 .0271 .0099 .0030 .0008 .0002 .0000 .0000 .0000 .0000 .0000 .0000

.30 .0047 .0305 .0916 .1700 .2186 .2061 .1472 .0811 .0348 .0116 .0030 .0006 .0001 .0000 .0000 .0000 .0008 .0068 .0278 .0716 .1304 .1789 .1916 .1643 .1144 .0654 .0308 .0120 .0039 .0010 .0002 .0000 .0000 .0000 .0000 .0000

.35 .0016 .0126 .0476 .1110 .1792 .2123 .1906 .1319 .0710 .0298 .0096 .0024 .0004 .0001 .0000 .0000 .0002 .0020 .0100 .0323 .0738 .1272 .1712 .1844 .1614 .1158 .0686 .0336 .0136 .0045 .0012 .0003 .0000 .0000 .0000 .0000

.40 .0005 .0047 .0219 .0634 .1268 .1859 .2066 .1771 .1181 .0612 .0245 .0074 .0016 .0003 .0000 .0000 .0000 .0005 .0031 .0123 .0350 .0746 .1244 .1659 .1797 .1597 .1171 .0710 .0355 .0146 .0049 .0013 .0003 .0000 .0000 .0000

.45 .0001 .0016 .0090 .0318 .0780 .1404 .1914 .2013 .1647 .1048 .0515 .0191 .0052 .0010 .0001 .0000 .0000 .0001 .0008 .0040 .0139 .0365 .0746 .1221 .1623 .1771 .1593 .1185 .0727 .0366 .0150 .0049 .0013 .0002 .0000 .0000

.50 .0000 .0005 .0032 .0139 .0417 \ .0916 .1527 .1964 .1964 .1527 .0916 .0417 .0139 .0032 .0005 .0000 .0000 .0000 .0002 .0011 .0046 ! .0148 .0370 .0739 .1201 .1602 .1762 .1602 .1201 .0739 .0370 .0148 .0046 .0011 .0002

.0000 1

Page 331: Wahrscheinlichkeitsrechnung und schließende Statistik

322 TABELLENANHANG

1 n

tw X

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

.05 .2146 .3389 .2586 .1270 .0451 .0124 .0027 .0005 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.10 .0424 .1413 .2277 .2361 .1771 .1023 .0474 .0180 .0058 .0016 .0004 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.15 .0076 .0404 .1034 .1703 .2028 .1861 .1368 .0828 .0420 .0181 .0067 .0022 .0006 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.20 .0012 .0093 .0337 .0785 .1325 .1723 .1795 .1538 .1106 .0676 .0355 .0161 .0064 .0022 .0007 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

TT

"~25 .0002 .0018 .0086 .0269 .0604 .1047 .1455 .1662 .1593 .1298 .0909 .0551 .0291 .0134 .0054 .0019 .0006 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.30 .0000 .0003 .0018 .0072 .0208 .0464 .0829 .1219 .1501 .1573 .1416 .1103 .0749 .0444 .0231 .0106 .0042 .0015 .0005 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000

.35 .0000 .0000 .0003 .0015 .0056 .0157 .0353 .0652 .1009 .1328 .1502 .1471 .1254 .0935 .0611 .0351 .0177 .0079 .0031 .0010 .0003 .0001 .0000 .0000 .0000 .0000 .0000

.40 .0000 .0000 .0000 .0003 .0012 .0041 .0115 .0263 .0505 .0823 .1152 .1396 .1474 .1360 .1101 .0783 .0489 .0269 .0129 .0054 .0020 .0006 .0002 .0000 .0000 .0000 .0000

.45 .0000 .0000 .0000 .0000 .0002 .0008 .0029 .0081 .0191 .0382 .0656 .0976 .1265 .1433 .1424 .1242 .0953 .0642 .0379 .0196 .0088 .0034 .0012 .0003 .0001 .0000 .0000

.50 .0000 .0000 .0000 .0000 .0000 .0001 .0006 .0019 .0055 .0133 .0280 .0509 .0806 .1115 .1354 .1445 .1354 .1115 .0806 .0509 .0280 .0133 .0055 .0019 .0006 .0001 .0000 1

Page 332: Wahrscheinlichkeitsrechnung und schließende Statistik

TABELLE 2: POISSON-VERTEILUNG 323

Tabelle 2: Wahrscheinlichkeiten der Poisson-Verteilung

Tabelliert sind die Werte P{X = x) fiir X ~ Po{iJ.) .

X

0 1 2 3 4 5 6 7

1 8

0.1 .9048 .0905 .0045 .0002 .0000 .0000 .0000 .0000 .0000

0.2 .8187 .1637 .0164 .0011 .0001 .0000 .0000 .0000 .0000

0.3 .7408 .2222 .0333 .0033 .0003 .0000 .0000 .0000 .0000

0.4 .6703 .2681 .0536 .0072 .0007 .0001 .0000 .0000 .0000

/ 0.5

.6065

.3033

.0758

.0126

.0016

.0002

.0000

.0000

.0000

0.6 .5488 .3293 .0988 .0198 .0030 .0004 .0000 .0000 .0000

0.7 .4966 .3476 .1217 .0284 .0050 .0007 .0001 .0000 .0000

0.8 .4493 .3595 .1438 .0383 .0077 .0012 .0002 .0000 .0000

0.9 .4066 .3659 .1647 .0494 .0111 .0020 .0003 .0000 .0000

1.0 .3679 .3679 .1839 .0613 .0153 .0031 .0005 .0001 .0000 1

1 •"' 0 1 2 3 4

^ 6 7

^ ^

10 11 12 13 14 15 16

[l7

1.5 .2231 .3347 .2510 .1255 .0471 .0141 .0035 .0008 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

2.0 .1353 .2707 .2707 .1804 .0902 .0361 .0120 .0034 .0009 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

2.5 .0821 .2052 .2565 .2138 .1336 .0668 .0278 .0099 .0031 .0009 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000

3.0 .0498 .1494 .2240 .2240 .1680 .1008 .0504 .0216 .0081 .0027 .0008 .0002 .0001 .0000 .0000 .0000 .0000 .0000

(J-

3.5 .0302 .1057 .1850 .2158 .1888 .1322 .0771 .0385 .0169 .0066 .0023 .0007 .0002 .0001 .0000 .0000 .0000 .0000

4.0 .0183 .0733 .1465 .1954 .1954 .1563 .1042 .0595 .0298 .0132 .0053 .0019 .0006 .0002 .0001 .0000 .0000 .0000

4.5 .0111 .0500 .1125 .1687 .1898 .1708 .1281 .0824 .0463 .0232 .0104 .0043 .0016 .0006 .0002 .0001 .0000 .0000

5.0 .0067 .0337 .0842 .1404 .1755 .1755 .1462 .1044 .0653 .0363 .0181 .0082 .0034 .0013 .0005 .0002 .0000 .0000

5.5 .0041 .0225 .0618 .1133 .1558 .1714 .1571 .1234 .0849 .0519 .0285 .0143 .0065 .0028 t .0011 .0004 .0001 .0000 [

Page 333: Wahrscheinlichkeitsrechnung und schließende Statistik

324 TABELLENANHANG

1 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 1' 18 19 20 21 22 23 24 125

6.0 .0025 .0149 .0446 .0892 .1339 .1606 .1606 .1377 .1033 .0688 .0413 .0225 .0113 .0052 .0022 .0009 .0003 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000

6.5 .0015 .0098 .0318 .0688 .1118 .1454 .1575 .1462 .1188 .0858 .0558 .0330 .0179 .0089 .0041 .0018 .0007 .0003 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000

7.0 .0009 .0064 .0223 .0521 .0912 .1277 .1490 .1490 .1304 .1014 .0710 .0452 .0263 .0142 .0071 .0033 .0014 .0006 .0002 .0001 .0000 .0000 .0000 .0000 .0000 .0000

7.5 .0006 .0041 .0156 .0389 .0729 .1094 .1367 .1465 .1373 .1144 .0858 .0585 .0366 .0211 .0113 .0057 .0026 .0012 .0005 .0002 .0001 .0000 .0000 .0000 .0000 .0000

M 8.0 .0003 .0027 .0107 .0286 .0573 .0916 .1221 .1396 .1396 .1241 .0993 .0722 .0481 .0296 .0169 .0090 .0045 .0021 .0009 .0004 .0002 .0001 .0000 .0000 .0000 .0000

8.5 .0002 .0017 .0074 .0208 .0443 .0752 .1066 .1294 .1375 .1299 .1104 .0853 .0604 .0395 .0240 .0136 .0072 .0036 .0017 .0008 .0003 .0001 .0001 .0000 .0000 .0000

9.0 .0001 .0011 .0050 .0150 .0337 .0607 .0911 .1171 .1318 .1318 .1186 .0970 .0728 .0504 .0324 .0194 .0109 .0058 .0029 .0014 .0006 .0003 .0001 .0000 .0000 .0000

9.5 .0001 .0007 .0034 .0107 .0254 .0483 .0764 .1037 .1232 .1300 .1235 .1067 .0844 .0617 .0419 .0265 .0157 .0088 .0046 .0023 .0011 .0005 .0002 .0001 .0000 .0000

10 .0000 .0005 .0023 .0076 .0189 .0378 .0631 .0901 .1126 .1251 .1251 .1137 .0948 .0729 .0521 .0347 .0217 .0128 i .0071 .0037 .0019 .0009 .0004 .0002 i .0001 [ .0000 1

Tabelle 3: Quant ile der Standardnormal-verteilung

1 p 1 Up

0.800 0.8416

0.850 1.0364

0.900 1.2816

0.950 1.6449

0.975 1.9600

0.990 2.3263

0.995 2.5758

0.999 0.9995 1 3.0902 3.2905 |

Weitere Quantile erhalt man aus der Beziehung Up = —ui^p

Page 334: Wahrscheinlichkeitsrechnung und schließende Statistik

TABELLE 4: STANDARDNORMALVERTEILUNG 325

Tabelle 4: Verteilungsfunktion der Standard­normalverteilung

Tabelliert sind die Werte $(u) = P{U < u) fiir U ~ N{0,1) und u > 0. Flir u <0 erhalt man die Werte aus der Beziehung $(u) = 1 - ^{—u).

1 u 1 0.0 0.1 0.2 0.3 0.4

0.5 0.6 0.7 0.8 0.9

1.0 1.1 1.2 1.3 1.4

1.5 ! 1.6

1.7 1 1.8 1.9

2.0 2.1 2.2 2.3 2.4

2.5 2.6 2.7 2.8 2.9

0_

0,5000

0.5398

0.5793

0.6179 0.6554

0.6915

0.7257

0.7580

0.7881

0.8159

0.8413

0.8643

0.8849

0.9032

0.9192

0.9332

0.9452

0.9554

0.9641

0.9713

0.9772

0.9821

0.9861

0.9893

0.9918

0.9938

0.9953

0.9965

0.9974

0.9981

1

0.5040

0.5438 0.5832

0.6217

0.6591

0.6950

0.7291

0.7611

0.7910

0.8186

0.8438

0.8665

0.8869

0.9049

0.9207

0.9345

0.9463

0.9564

0.9649

0.9719

0.9778

0.9826

0.9864

0.9896

0.9920

0.9940

0.9955

0.9966

0.9975

0.9982

2_

0.5080

0.5478

0.5871

0.6255

0.6628

0.6985

0.7324

0.7642

0.7939

0.8212

0.8461

0.8686

0.8888

0.9066

0.9222

0.9357

0.9474

0.9573

0.9656 0.9726

0.9783

0.9830

0.9868

0.9898

0.9922

0.9941

0.9956

0.9967

0.9976

0.9982

3_

0.5120

0.5517

0.5910

0.6293

0.6664

0.7019

0.7357

0.7673

0.7967

0.8238

0.8485

0.8708

0.8907

0.9082

0.9236

0.9370

0.9484

0.9582

0.9664

0.9732

0.9788

0.9834

0.9871

0.9901

0.9925

0.9943

0.9957

0.9968

0.9977

0.9983

4

0.5160

0.5557

0.5948

0.6331

0.6700

0.7054

0.7389

0.7704

0.7995

0.8264

0.8508

0.8729

0.8925

0.9099

0.9251

0.9382

0.9495

0.9591

0.9671

0.9738

0.9793

0.9838

0.9875

0.9904

0.9927

0.9945

0.9959

0.9969

0.9977

0.9984

5_

0.5199

0.5596

0.5987

0.6368 0.6736

0.7088

0.7422

0.7734

0.8023

0.8289

0.8531

0.8749

0.8944

0.9115

0.9265

0.9394

0.9505

0.9599

0.9678

0.9744

0.9798

0.9842

0.9878

0.9906

0.9929

0.9946

0.9960

0.9970

0.9978

0.9984

6_

0.5239

0.5636

0.6026

0.6406 0.6772

0.7123

0.7454

0.7764

0.8051

0.8315

0.8554

0.8770

0.8962

0.9131

0.9279

0.9406

0.9515

0.9608

0.9686

0.9750

0.9803

0.9846

0.9881

0.9909

0.9931

0.9948

0.9961

0.9971

0.9979

0.9985

7_

0.5279

0.5675

0.6064

0.6443

0.6808

0.7157

0.7486

0.7794

0.8078

0.8340

0.8577

0.8790

0.8980

0.9147

0.9292

0.9418

0.9525

0.9616

0.9693

0.9756

0.9808

0.9850

0.9884

0.9911

0.9932

0.9949

0.9962

0.9972

0.9979

0.9985

8_

0.5319

0.5714

0.6103

0.6480

0.6844

0.7190

0.7517

0.7823

0.8106

0.8365

0.8599

0.8810

0.8997

0.9162

0.9306

0.9429

0.9535

0.9625

0.9699

0.9761

0.9812

0.9854

0.9887

0.9913

0.9934

0.9951

0.9963

0.9973

0.9980

0.9986

9 II 0.5359 II 0.5753

0.6141

0.6517

0.6879

0.7224

0.7549

0.7852

0.8133

0.8389

0.8621

0.8830

0.9015

0.9177

0.9319

0.9441

0.9545

0.9633

0.9706

0.9767

0.9817

0.9857

0.9890

0.9916

0.9936

0.9952

0.9964

0.9974

0.9981

0.9986

Page 335: Wahrscheinlichkeitsrechnung und schließende Statistik

326 TABELLENANHANG

Tabelle 5: Quantile der x^-Verteilung

[1 p~ 1 V

fl l" 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37

i 3^ 1 2^

40 50

1 60 70 80 90

1 100

0.005

0.000 0.010 0.072 0.207 0.412 0.676 0.989 1.344 1.735 2.156 2.603 3.074 3.565 4.075 4.601 5.142 5.697 6.265 6.844 7.434 8.034 8.643 9.260 9.886 10.520 11.160 11.808 12.461 13.121 13.787 14.458 15.134 15.815 16.501 17.192 17.887 18.586 19.289 19.996 20.707 27.991 35.53 43.28 51.17 59.20 67.33

0.010

0.000 0.020 0.115 0.297 0.554 0.872 1.239 1.646 2.088 2.558 3.053 3.571 4.107 4.660 5.229 5.812 6.408 7.015 7.633 8.260 8.897 9.542 10.196 10.856 11.524 12.198 12.879 13.565 14.256 14.953 15.655 16.362 17.074 17.789 18.509 19.233 19.960 20.691 21.426 22.164 29.707 37.49 45.44 53.54 61.75 70.07

0.025

0.001 0.051 0.216 0.484 0.831 1.237 1.690 2.180 2.700 3.247 3.816 4.404 5.009 5.629 6.262 6.908 7.564 8.231 8.907 9.591 10.283 10.982 11.689 12.401 13.120 13.844 14.573 15.308 16.047 16.791 17.539 18.291 19.047 19.806 20.569 21.336 22.106 22.878 23.654 24.433 32.357 40.48 48.76 57.15 65.65 74.22

0.050

0.004 0.103 0.352 0.711 1.145 1.635 2.167 2.733 3.325 3.940 4.575 5.226 5.892 6.571 7.261 7.962 8.672 9.390 10.117 10.851 11.591 12.338 13.091 13.848 14.611 15.379 16.151 16.928 17.708 18.493 19.281 20.072 20.867 21.664 22.465 23.269 24.075 24.884 25.695 26.509 34.764 43.19 51.74 60.39 69.13 77.93

0.100

0.016 0.211 0.584 1.064 1.610 2.204 2.833 3.490 4.168 4.865 5.578 6.304 7.042 7.790 8.547 9.312 10.085 10.865 11.651 12.443 13.240 14.041 14.848 15.659 16.473 17.292 18.114 18.939 19.768 20.599 21.434 22.271 23.110 23.952 24.797 25.643 26.492 27.343 28.196 29.051 37.689 46.46 55.33 64.28 73.29 82.36

0.900

2.706 4.605 6.251 7.779 9.236 10.645 12.017 13.362 14.684 15.987 17.275 18.549 19.812 21.064 22.307 23.542 24.769 25.989 27.204 28.412 29.615 30.813 32.007 33.196 34.382 35.563 36.741 37.916 39.087 40.256 41.422 42.585 43.745 44.903 46.059 47.212 48.363 49.513 50.660 51.805 63.167 74.40 85.53 96.58 107.57 118.50

0.950

3.841 5.991 7.815 9.488 11.070 12.592 14.067 15.507 16.919 18.307 19.675 21.026 22.362 23.685 24.996 26.296 27.587 28.869 30.144 31.410 32.671 33.924 35.172 36.415 37.652 38.885 40.113 41.337 42.557 43.773 44.985 46.194 47.400 48.602 49.802 50.998 52.192 53.384 54.572 55.758 67.505 79.08 90.53 101.88 113.15 124.34

0.975

5.024 7.378 9.348 11.143 12.833 14.449 16.013 17.535 19.023 20.483 21.920 23.337 24.736 26.119 27.488 28.845 30.191 31.526 32.852 34.170 35.479 36.781 38.076 39.364 40.646 41.923 43.195 44.461 45.722 46.979 48.232 49.480 50.725 51.966 53.203 54.437 55.668 56.896 58.120 59.342 71.420 83.30 95.02 106.63 118.14 129.56

0.990

6.635 9.210 11.345 13.277 15.086 16.812 18.475 20.090 21.666 23.209 24.725 26.217 27.688 29.141 30.578 32.000 33.409 34.805 36.191 37.566 38.932 40.289 41.638 42.980 44.314 45.642 46.963 48.278 49.588 50.892 52.191 53.486 54.776 56.061 57.342 58.619 59.893 61.162 62.428 63.691 76.154 88.38 100.43 112.33 124.12 135.81

0.995 1

7.879 1 10.597 12.838 14.860 16.750 18.548 20.278 21.955 23.589 25.188 26.757 28.300 29.819 31.319 32.801 34.267 35.718 37.156 38.582 39.997 41.401 1 42.796 44.181 45.559 46.928 48.290 49.645 50.993 52.336 53.672 55.003 56.328 57.648 58.964 60.275 61.581 62.883 64.181 65.476 66.766 79.490 91.95 104.21 116.32 128.30 140.17 1

Fiir V > 100 konnen die Quantile der x^-Verteilung wie folgt approximiert werden:

Page 336: Wahrscheinlichkeitsrechnung und schließende Statistik

T A B E L L E 6: t-VERTEILUNG 327

Tabelle 6: Quantile der t-Verteilung

Fiir p < 0.5 erhalt man Quantile aus der Beziehung t^y^^ ^U,l—f

1 p 1 t/ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

1 40

0.750

1.0000 0.8165 0.7649 0.7407 0.7267 0.7176 0.7111 0.7064 0.7027 0.6998 0.6974 0.6955 0.6938 0.6924 0.6912 0.6901 0.6892 0.6884 0.6876 0.6870 0.6864 0.6858 0.6853 0.6848 0.6844 0.6840 0.6837 0.6834 0.6830 0.6828 0.6825 0.6822 0.6820 0.6818 0.6816 0.6814 0.6812 0.6810 0.6808 0.6807

0.800

1.3764 1.0607 0.9785 0.9410 0.9195 0.9057 0.8960 0.8889 0.8834 0.8791 0.8755 0.8726 0.8702 0.8681 0.8662 0.8647 0.8633 0.8620 0.8610 0.8600 0.8591 0.8583 0.8575 0.8569 0.8562 0.8557 0.8551 0.8546 0.8542 0.8538 0.8534 0.8530 0.8526 0.8523 0.8520 0.8517 0.8514 0.8512 0.8509 0.8507

0.850

1.9626 1.3862 1.2498 1.1896 1.1558 1.1342 1.1192 1.1081 1.0997 1.0931 1.0877 1.0832 1.0795 1.0763 1.0735 1.0711 1.0690 1.0672 1.0655 1.0640 1.0627 1.0614 1.0603 1.0593 1.0584 1.0575 1.0567 1.0560 1.0553 1.0547 1.0541 1.0535 1.0530 1.0525 1.0520 1.0516 1.0512 1.0508 1.0504 1.0500

0.900

3.0777 1.8856 1.6377 1.5332 1.4759 1.4398 1.4149 1.3968 1.3830 1.3722 1.3634 1.3562 1.3502 1.3450 1.3406 1.3368 1.3334 1.3304 1.3277 1.3253 1.3232 1.3212 1.3195 1.3178 1.3163 1.3150 1.3137 1.3125 1.3114 1.3104 1.3095 1.3086 1.3077 1.3070 1.3062 1.3055 1.3049 1.3042 1.3036 1.3031

0.950

6.3138 2.9200 2.3534 2.1318 2.0150 1.9432 1.8946 1.8595 1.8331 1.8125 1.7959 1.7823 1.7709 1.7613 1.7531 1.7459 1.7396 1.7341 1.7291 1.7247 1.7207 1.7171 1.7139 1.7109 1.7081 1.7056 1.7033 1.7011 1.6991 1.6973 1.6955 1.6939 1.6924 1.6909 1.6896 1.6883 1.6871 1.6860 1.6849 1.6839

0.975

12.7062 4.3027 3.1824 2.7764 2.5706 2.4469 2.3646 2.3060 2.2622 2.2281 2.2010 2.1788 2.1604 2.1448 2.1314 2.1199 2.1098 2.1009 2.0930 2.0860 2.0796 2.0739 2.0687 2.0639 2.0595 2.0555 2.0518 2.0484 2.0452 2.0423 2.0395 2.0369 2.0345 2.0322 2.0301 2.0281 2.0262 2.0244 2.0227 2.0211

0.990

31.8205 6.9646 4.5407 3.7470 3.3649 3.1427 2.9980 2.8965 2.8214 2.7638 2.7181 2.6810 2.6503 2.6245 2.6025 2.5835 2.5669 2.5524 2.5395 2.5280 2.5176 2.5083 2.4999 2.4922 2.4851 2.4786 2.4727 2.4671 2.4620 2.4573 2.4528 2.4487 2.4448 2.4411 2.4377 2.4345 2.4314 2.4286 2.4258 2.4233

0.995 1

63.6567 1 9.9248 5.8409 4.6041 4.0322 3.7074 3.4995 3.3554 3.2498 3.1693 3.1058 3.0545 3.0123 2.9768 2.9467 2.9208 2.8982 2.8784 2.8609 2.8453 2.8314 2.8188 2.8073 2.7969 2.7874 2.7787 2.7707 2.7633 2.7564 2.7500 2.7440 2.7385 2.7333 2.7284 2.7238 2.7195 2.7154 2.7116 2.7079 2.7045 1

Fur ly > 40 konnen die Quantile der ii^-Verteilung durch die entsprechenden Quan­tile der Standardnormalverteilung approximiert werden.

Page 337: Wahrscheinlichkeitsrechnung und schließende Statistik

328 TABELLENANHANG

Tabelle 7: Quantile der F-Verteilung

Die folgenden Tabellen enthalten die Quantile Fn^rn,p fiir p = 0.95 und p = 0.99 und verschiedene n und m Fiir p = 0.05 und p — 0.01 erhalt man die p-Quantile aus der Beziehung Fnmv = 'P—^ • Fiir grofie Werte der Preiheitsgrade m bzw. n konnen die Quantile der F-Verteilung wie folgt durch die Quantile der x^-Verteilung approximierte werden:

falls m grofi gegeniiber n,

falls n grofi gegeniiber m.

F 1 2

m

Ajn,l—P

Page 338: Wahrscheinlichkeitsrechnung und schließende Statistik

TABELLE 7: F-VERTEILUNG 329

Quantile Fn,m,p der Fn,m-Verteilung, p = 0.95

1 ^ 1 m

1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 32 34 36 38 40 42 44 46 48 50 60 70 80 90 100 200 500

1 1000

1

161.45 18.51 10.13 7.71 6.61 5.99 5.59 5.32 5.12 4.96 4.84 4.75 4.67 4.60 4.54 4.49 4.45 4.41 4.38 4.35 4.32 4.30 4.28 4.26 4.24 4.23 4.21 4.20 4.18 4.17 4.15 4.13 4.11 4.10 4.08 4.07 4.06 4.05 4.04 4.03 4.00 3.98 3.96 3.95 3.94 3.89 3.86 3.85

2

199.50 19.00 9.55 6.94 5.79 5.14 4.74 4.46 4.26 4.10 3.98 3.89 3.81 3.74 3.68 3.63 3.59 3.55 3.52 3.49 3.47 3.44 3.42 3.40 3.39 3.37 3.35 3.34 3.33 3.32 3.29 3.28 3.26 3.24 3.23 3.22 3.21 3.20 3.19 3.18 3.15 3.13 3.11 3.10 3.09 3.04 3.01 3.00

3

215.71 19.16 9.28 6.59 5.41 4.76 4.35 4.07 3.86 3.71 3.59 3.49 3.41 3.34 3.29 3.24 3.20 3.16 3.13 3.10 3.07 3.05 3.03 3.01 2.99 2.98 2.96 2.95 2.93 2.92 2.90 2.88 2.87 2.85 2.84 2.83 2.82 2.81 2.80 2.79 2.76 2.74 2.72 2.71 2.70 2.65 2.62 2.61

4

224.58 19.25 9.12 6.39 5.19 4.53 4.12 3.84 3.63 3.48 3.36 3.26 3.18 3.11 3.06 3.01 2.96 2.93 2.90 2.87 2.84 2.82 2.80 2.78 2.76 2.74 2.73 2.71 2.70 2.69 2.67 2.65 2.63 2.62 2.61 2.59 2.58 2.57 2.57 2.56 2.53 2.50 2.49 2.47 2.46 2.42 2.39 2.38

5

230.16 19.30 9.01 6.26 5.05 4.39 3.97 3.69 3.48 3.33 3.20 3.11 3.03 2.96 2.90 2.85 2.81 2.77 2.74 2.71 2.68 2.66 2.64 2.62 2.60 2.59 2.57 2.56 2.55 2.53 2.51 2.49 2.48 2.46 2.45 2.44 2.43 2.42 2.41 2.40 2.37 2.35 2.33 2.32 2.31 2.26 2.23 2.22

6

233.99 19.33 8.94 6.16 4.95 4.28 3.87 3.58 3.37 3.22 3.09 3.00 2.92 2.85 2.79 2.74 2.70 2.66 2.63 2.60 2.57 2.55 2.53 2.51 2.49 2.47 2.46 2.45 2.43 2.42 2.40 2.38 2.36 2.35 2.34 2.32 2.31 2.30 2.29 2.29 2.25 2.23 2.21 2.20 2.19 2.14 2.12 2.11

7

236.77 19.35 8.89 6.09 4.88 4.21 3.79 3.50 3.29 3.14 3.01 2.91 2.83 2.76 2.71 2.66 2.61 2.58 2.54 2.51 2.49 2.46 2.44 2.42 2.40 2.39 2.37 2.36 2.35 2.33 2.31 2.29 2.28 2.26 2.25 2.24 2.23 2.22 2.21 2.20 2.17 2.14 2.13 2.11 2.10 2.06 2.03 2.02

8

238.88 19.37 8.85 6.04 4.82 4.15 3.73 3.44 3.23 3.07 2.95 2.85 2.77 2.70 2.64 2.59 2.55 2.51 2.48 2.45 2.42 2.40 2.37 2.36 2.34 2.32 2.31 2.29 2.28 2.27 2.24 2.23 2.21 2.19 2.18 2.17 2.16 2.15 2.14 2.13 2.10 2.07 2.06 2.04 2.03 1.98 1.96 1.95

9l

240.54 1 19.38 8.81 6.00 4.77 4.10 3.68 3.39 3.18 3.02 2.90 2.80 2.71 2.65 2.59 2.54 2.49 2.46 2.42 2.39 2.37 2.34 2.32 2.30 2.28 2.27 2.25 2.24 ] 2.22 2.21 2.19 2.17 2.15 2.14 2.12 2.11 2.10 2.09 2.08 2.07 2.04 2.02 2.00 1.99 1.97 1.93 1.90 1.89 1

Page 339: Wahrscheinlichkeitsrechnung und schließende Statistik

330 TABELLENANHANG

Quantile Fn^m,p der Fn,m-Verteilung, p = 0.95 (Fortsetzung)

1 ^ 1 771

1 r 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 32 34 36 38 40 42 44 46 48 50 60 70 80 90 100 200 500

1 1000

10

241.88 19.40 8.79 5.96 4.74 4.06 3.64 3.35 3.14 2.98 2.85 2.75 2.67 2.60 2.54 2.49 2.45 2.41 2.38 2.35 2.32 2.30 2.27 2.25 2.24 2.22 2.20 2.19 2.18 2.16 2.14 2.12 2.11 2.09 2.08 2.06 2.05 2.04 2.03 2.03 1.99 1.97 1.95 1.94 1.93 1.88 1.85 1.84

11

242.98 19.40 8.76 5.94 4.70 4.03 3.60 3.31 3.10 2.94 2.82 2.72 2.63 2.57 2.51 2.46 2.41 2.37 2.34 2.31 2.28 2.26 2.24 2.22 2.20 2.18 2.17 2.15 2.14 2.13 2.10 2.08 2.07 2.05 2.04 2.03 2.01 2.00 1.99 1.99 1.95 1.93 1.91 1.90 1.89 1.84 1.81 1.80

12

243.91 19.41 8.74 5.91 4.68 4.00 3.57 3.28 3.07 2.91 2.79 2.69 2.60 2.53 2.48 2.42 2.38 2.34 2.31 2.28 2.25 2.23 2.20 2.18 2.16 2.15 2.13 2.12 2.10 2.09 2.07 2.05 2.03 2.02 2.00 1.99 1.98 1.97 1.96 1.95 1.92 1.89 1.88 1.86 1.85 1.80 1.77 1.76

13

244.69 19.42 8.73 5.89 4.66 3.98 3.55 3.26 3.05 2.89 2.76 2.66 2.58 2.51 2.45 2.40 2.35 2.31 2.28 2.25 2.22 2.20 2.18 2.15 2.14 2.12 2.10 2.09 2.08 2.06 2.04 2.02 2.00 1.99 1.97 1.96 1.95 1.94 1.93 1.92 1.89 1.86 1.84 1.83 1.82 1.77 1.74 1.73

14

245.36 19.42 8.71 5.87 4.64 3.96 3.53 3.24 3.03 2.86 2.74 2.64 2.55 2.48 2.42 2.37 2.33 2.29 2.26 2.22 2.20 2.17 2.15 2.13 2.11 2.09 2.08 2.06 2.05 2.04 2.01 1.99 1.98 1.96 1.95 1.94 1.92 1.91 1.90 1.89 1.86 1.84 1.82 1.80 1.79 1.74 1.71 1.70

15

245.95 19.43 8.70 5.86 4.62 3.94 3.51 3.22 3.01 2.85 2.72 2.62 2.53 2.46 2.40 2.35 2.31 2.27 2.23 2.20 2.18 2.15 2.13 2.11 2.09 2.07 2.06 2.04 2.03 2.01 1.99 1.97 1.95 1.94 1.92 1.91 1.90 1.89 1.88 1.87 1.84 1.81 1.79 1.78 1.77 1.72 1.69 1.68

16

246.46 19.43 8.69 5.84 4.60 3.92 3.49 3.20 2.99 2.83 2.70 2.60 2.51 2.44 2.38 2.33 2.29 2.25 2.21 2.18 2.16 2.13 2.11 2.09 2.07 2.05 2.04 2.02 2.01 1.99 1.97 1.95 1.93 1.92 1.90 1.89 1.88 1.87 1.86 1.85 1.82 1.79 1.77 1.76 1.75 1.69 1.66 1.65

17

246.92 19.44 8.68 5.83 4.59 3.91 3.48 3.19 2.97 2.81 2.69 2.58 2.50 2.43 2.37 2.32 2.27 2.23 2.20 2.17 2.14 2.11 2.09 2.07 2.05 2.03 2.02 2.00 1.99 1.98 1.95 1.93 1.92 1.90 1.89 1.87 1.86 1.85 1.84 1.83 1.80 1.77 1.75 1.74 1.73 1.67 1.64 1.63

18~|1

247.32 1 19.44 8.67 5.82 4.58 3.90 3.47 3.17 2.96 2.80 2.67 2.57 2.48 2.41 2.35 2.30 2.26 2.22 2.18 2.15 2.12 2.10 2.08 2.05 2.04 2.02 2.00 1.99 1.97 1.96 1.94 1.92 1.90 1.88 1.87 1.86 1 1.84 1.83 1.82 1.81 1.78 1.75 1.73 1.72 1.71 ! 1.66 1.62 1.61 1

Page 340: Wahrscheinlichkeitsrechnung und schließende Statistik

TABELLE 7: F-VERTEILUNG 331

Quantile Fn,m,p der Fn,m-Verteilung, p = 0.95 (Fortsetzung)

1 "~ 1 771

I 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 32 34 36 38 40 42 44 46 48 50 60 70 80 90 100 200 500

1 1000

19

247.69 19.44 8.67 5.81 4.57 3.88 3.46 3.16 2.95 2.79 2.66 2.56 2.47 2.40 2.34 2.29 2.24 2.20 2.17 2.14 2.11 2.08 2.06 2.04 2.02 2.00 1.99 1.97 1.96 1.95 1.92 1.90 1.88 1.87 1.85 1.84 1.83 1.82 1.81 1.80 1.76 1.74 1.72 1.70 1.69 1.64 1.61 1.60

20

248.01 19.45 8.66 5.80 4.56 3.87 3.44 3.15 2.94 2.77 2.65 2.54 2.46 2.39 2.33 2.28 2.23 2.19 2.16 2.12 2.10 2.07 2.05 2.03 2.01 1.99 1.97 1.96 1.94 1.93 1.91 1.89 1.87 1.85 1.84 1.83 1.81 1.80 1.79 1.78 1.75 1.72 1.70 1.69 1.68 1.62 1.59 1.58

22

248.58 19.45 8.65 5.79 4.54 3.86 3.43 3.13 2.92 2.75 2.63 2.52 2.44 2.37 2.31 2.25 2.21 2.17 2.13 2.10 2.07 2.05 2.02 2.00 1.98 1.97 1.95 1.93 1.92 1.91 1.88 1.86 1.85 1.83 1.81 1.80 1.79 1.78 1.77 1.76 1.72 1.70 1.68 1.66 1.65 1.60 1.56 1.55

24

249.05 19.45 8.64 5.77 4.53 3.84 3.41 3.12 2.90 2.74 2.61 2.51 2.42 2.35 2.29 2.24 2.19 2.15 2.11 2.08 2.05 2.03 2.01 1.98 1.96 1.95 1.93 1.91 1.90 1.89 1.86 1.84 1.82 1.81 1.79 1.78 1.77 1.76 1.75 1.74 1.70 1.67 1.65 1.64 1.63 1.57 1.54 1.53

26

249.45 19.46 8.63 5.76 4.52 3.83 3.40 3.10 2.89 2.72 2.59 2.49 2.41 2.33 2.27 2.22 2.17 2.13 2.10 2.07 2.04 2.01 1.99 1.97 1.95 1.93 1.91 1.90 1.88 1.87 1.85 1.82 1.81 1.79 1.77 1.76 1.75 1.74 1.73 1.72 1.68 1.65 1.63 1.62 1.61 1.55 1.52 1.51

28

249.80 19.46 8.62 5.75 4.50 3.82 3.39 3.09 2.87 2.71 2.58 2.48 2.39 2.32 2.26 2.21 2.16 2.12 2.08 2.05 2.02 2.00 1.97 1.95 1.93 1.91 1.90 1.88 1.87 1.85 1.83 1.81 1.79 1.77 1.76 1.75 1.73 1.72 1.71 1.70 1.66 1.64 1.62 1.60 1.59 1.53 1.50 1.49

30

250.10 19.46 8.62 5.75 4.50 3.81 3.38 3.08 2.86 2.70 2.57 2.47 2.38 2.31 2.25 2.19 2.15 2.11 2.07 2.04 2.01 1.98 1.96 1.94 1.92 1.90 1.88 1.87 1.85 1.84 1.82 1.80 1.78 1.76 1.74 1.73 1.72 1.71 1.70 1.69 1.65 1.62 1.60 1.59 1.57 1.52 1.48 1.47

35

250.69 19.47 8.60 5.73 4.48 3.79 3.36 3.06 2.84 2.68 2.55 2.44 2.36 2.28 2.22 2.17 2.12 2.08 2.05 2.01 1.98 1.96 1.93 1.91 1.89 1.87 1.86 1.84 1.83 1.81 1.79 1.77 1.75 1.73 1.72 1.70 1.69 1.68 1.67 1.66 1.62 1.59 1.57 1.55 1.54 1.48 1.45 1.43

40~|]

251.14 1 19.47 8.59 5.72 4.46 3.77 3.34 3.04 2.83 2.66 2.53 2.43 2.34 2.27 2.20 2.15 2.10 2.06 2.03 1.99 1.96 1.94 1.91 1.89 1.87 1.85 1.84 1.82 1.81 1.79 1.77 1.75 1.73 1.71 1.69 1.68 1.67 1.65 1.64 1.63 1.59 1.57 1.54 1.53 1.52 1.46 1.42 1.41 1

Page 341: Wahrscheinlichkeitsrechnung und schließende Statistik

332 TABELLENANHANG

Quantile Fn,m,p der Fn,m-Verteilung, p = 0.99

1 ^ 1 m

1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 32 34 36 38 40 42 44 46 48 50 60 70 80 90 100 200 500

1 1000

1

4052.2 98.50 34.12 21.20 16.26 13.75 12.25 11.26 10.56 10.04 9.65 9.33 9.07 8.86 8.68 8.53 8.40 8.29 8.18 8.10 8.02 7.95 7.88 7.82 7.77 7.72 7.68 7.64 7.60 7.56 7.50 7.44 7.40 7.35 7.31 7.28 7.25 7.22 7.19 7.17 7.08 7.01 6.96 6.93 6.90 6.76 6.69 6.66

2

4999.5 99.00 30.82 18.00 13.27 10.92 9.55 8.65 8.02 7.56 7.21 6.93 6.70 6.51 6.36 6.23 6.11 6.01 5.93 5.85 5.78 5.72 5.66 5.61 5.57 5.53 5.49 5.45 5.42 5.39 5.34 5.29 5.25 5.21 5.18 5.15 5.12 5.10 5.08 5.06 4.98 4.92 4.88 4.85 4.82 4.71 4.65 4.63

3

5403.4 99.17 29.46 16.69 12.06 9.78 8.45 7.59 6.99 6.55 6.22 5.95 5.74 5.56 5.42 5.29 5.18 5.09 5.01 4.94 4.87 4.82 4.76 4.72 4.68 4.64 4.60 4.57 4.54 4.51 4.46 4.42 4.38 4.34 4.31 4.29 4.26 4.24 4.22 4.20 4.13 4.07 4.04 4.01 3.98 3.88 3.82 3.80

4

5624.6 99.25 28.71 15.98 11.39 9.15 7.85 7.01 6.42 5.99 5.67 5.41 5.21 5.04 4.89 4.77 4.67 4.58 4.50 4.43 4.37 4.31 4.26 4.22 4.18 4.14 4.11 4.07 4.04 4.02 3.97 3.93 3.89 3.86 3.83 3.80 3.78 3.76 3.74 3.72 3.65 3.60 3.56 3.53 3.51 3.41 3.36 3.34

5

5763.7 99.30 28.24 15.52 10.97 8.75 7.46 6.63 6.06 5.64 5.32 5.06 4.86 4.69 4.56 4.44 4.34 4.25 4.17 4.10 4.04 3.99 3.94 3.90 3.85 3.82 3.78 3.75 3.73 3.70 3.65 3.61 3.57 3.54 3.51 3.49 3.47 3.44 3.43 3.41 3.34 3.29 3.26 3.23 3.21 3.11 3.05 3.04

6

5859.0 99.33 27.91 15.21 10.67 8.47 7.19 6.37 5.80 5.39 5.07 4.82 4.62 4.46 4.32 4.20 4.10 4.01 3.94 3.87 3.81 3.76 3.71 3.67 3.63 3.59 3.56 3.53 3.50 3.47 3.43 3.39 3.35 3.32 3.29 3.27 3.24 3.22 3.20 3.19 3.12 3.07 3.04 3.01 2.99 2.89 2.84 2.82

7

5928.4 99.36 27.67 14.98 10.46 8.26 6.99 6.18 5.61 5.20 4.89 4.64 4.44 4.28 4.14 4.03 3.93 3.84 3.77 3.70 3.64 3.59 3.54 3.50 3.46 3.42 3.39 3.36 3.33 3.30 3.26 3.22 3.18 3.15 3.12 3.10 3.08 3.06 3.04 3.02 2.95 2.91 2.87 2.84 2.82 2.73 2.68 2.66

8

5981.1 99.37 27.49 14.80 10.29 8.10 6.84 6.03 5.47 5.06 4.74 4.50 4.30 4.14 4.00 3.89 3.79 3.71 3.63 3.56 3.51 3.45 3.41 3.36 3.32 3.29 3.26 3.23 3.20 3.17 3.13 3.09 3.05 3.02 2.99 2.97 2.95 2.93 2.91 2.89 2.82 2.78 2.74 2.72 2.69 2.60 2.55 2.53

91

6022.5 1 99.39 27.35 14.66 10.16 7.98 6.72 5.91 5.35 4.94 1 4.63 4.39 4.19 4.03 3.89 3.78 3.68 3.60 3.52 ! 3.46 3.40 3.35 3.30 3.26 3.22 3.18 3.15 3.12 3.09 3.07 3.02 2.98 2.95 2.92 2.89 2.86 2.84 2.82 2.80 2.78 2.72 2.67 2.64 2.61 2.59 2.50 2.44 2.43 1

Page 342: Wahrscheinlichkeitsrechnung und schließende Statistik

TABELLE 7: F-VERTEILUNG 333

Quantile Fn,m,p der Fn,m-Verteilung, p = 0.99 (Fortsetzung)

1 n~ 1 771

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 32 34 36 38 40 42 44 46 48 50 60 70 80 90 100 200 500

1 1000

10

6055.9 99.40 27.23 14.55 10.05 7.87 6.62 5.81 5.26 4.85 4.54 4.30 4.10 3.94 3.80 3.69 3.59 3.51 3.43 3.37 3.31 3.26 3.21 3.17 3.13 3.09 3.06 3.03 3.00 2.98 2.93 2.89 2.86 2.83 2.80 2.78 2.75 2.73 2.71 2.70 2.63 2.59 2.55 2.52 2.50 2.41 2.36 2.34

11

6083.3 99.41 27.13 14.45 9.96 7.79 6.54 5.73 5.18 4.77 4.46 4.22 4.02 3.86 3.73 3.62 3.52 3.43 3.36 3.29 3.24 3.18 3.14 3.09 3.06 3.02 2.99 2.96 2.93 2.91 2.86 2.82 2.79 2.75 2.73 2.70 2.68 2.66 2.64 2.63 2.56 2.51 2.48 2.45 2.43 2.34 2.28 2.27

12

6106.3 99.42 27.05 14.37 9.89 7.72 6.47 5.67 5.11 4.71 4.40 4.16 3.96 3.80 3.67 3.55 3.46 3.37 3.30 3.23 3.17 3.12 3.07 3.03 2.99 2.96 2.93 2.90 2.87 2.84 2.80 2.76 2.72 2.69 2.66 2.64 2.62 2.60 2.58 2.56 2.50 2.45 2.42 2.39 2.37 2.27 2.22 2.20

13

6125.9 99.42 26.98 14.31 9.82 7.66 6.41 5.61 5.05 4.65 4.34 4.10 3.91 3.75 3.61 3.50 3.40 3.32 3.24 3.18 3.12 3.07 3.02 2.98 2.94 2.90 2.87 2.84 2.81 2.79 2.74 2.70 2.67 2.64 2.61 2.59 2.56 2.54 2.53 2.51 2.44 2.40 2.36 2.33 2.31 2.22 2.17 2.15

14

6142.7 99.43 26.92 14.25 9.77 7.60 6.36 5.56 5.01 4.60 4.29 4.05 3.86 3.70 3.56 3.45 3.35 3.27 3.19 3.13 3.07 3.02 2.97 2.93 2.89 2.86 2.82 2.79 2.77 2.74 2.70 2.66 2.62 2.59 2.56 2.54 2.52 2.50 2.48 2.46 2.39 2.35 2.31 2.29 2.27 2.17 2.12 2.10

15

6157.3 99.43 26.87 14.20 9.72 7.56 6.31 5.52 4.96 4.56 4.25 4.01 3.82 3.66 3.52 3.41 3.31 3.23 3.15 3.09 3.03 2.98 2.93 2.89 2.85 2.81 2.78 2.75 2.73 2.70 2.65 2.61 2.58 2.55 2.52 2.50 2.47 2.45 2.44 2.42 2.35 2.31 2.27 2.24 2.22 2.13 2.07 2.06

16

6170.1 99.44 26.83 14.15 9.68 7.52 6.28 5.48 4.92 4.52 4.21 3.97 3.78 3.62 3.49 3.37 3.27 3.19 3.12 3.05 2.99 2.94 2.89 2.85 2.81 2.78 2.75 2.72 2.69 2.66 2.62 2.58 2.54 2.51 2.48 2.46 2.44 2.42 2.40 2.38 2.31 2.27 2.23 2.21 2.19 2.09 2.04 2.02

17

6181.4 99.44 26.79 14.11 9.64 7.48 6.24 5.44 4.89 4.49 4.18 3.94 3.75 3.59 3.45 3.34 3.24 3.16 3.08 3.02 2.96 2.91 2.86 2.82 2.78 2.75 2.71 2.68 2.66 2.63 2.58 2.54 2.51 2.48 2.45 2.43 2.40 2.38 2.37 2.35 2.28 2.23 2.20 2.17 2.15 2.06 2.00 1.98

181

6191.5 1 99.44 26.75 14.08 9.61 7.45 6.21 5.41 4.86 4.46 4.15 3.91 3.72 3.56 3.42 3.31 3.21 3.13 3.05 2.99 2.93 2.88 2.83 2.79 2.75 2.72 2.68 2.65 2.63 2.60 2.55 2.51 2.48 2.45 2.42 2.40 2.37 2.35 2.33 2.32 2.25 2.20 2.17 2.14 2.12 2.03 1.97 1.95 1

Page 343: Wahrscheinlichkeitsrechnung und schließende Statistik

334 TABELLENANHANG

Quantile Fn,m,p der Fn,m-Verteilung, p • 0.99 (Fortsetzung)

1 "~ 1 m

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 32 34 36 38 40 42 44 46 48 50 60 70 80 90 100 200 500

II 1000

19

6200.6 99.45 26.72 14.05 9.58 7.42 6.18 5.38 4.83 4.43 4.12 3.88 3.69 3.53 3.40 3.28 3.19 3.10 3.03 2.96 2.90 2.85 2.80 2.76 2.72 2.69 2.66 2.63 2.60 2.57 2.53 2.49 2.45 2.42 2.39 2.37 2.35 2.33 2.31 2.29 2.22 2.18 2.14 2.11 2.09 2.00 1.94 1.92

20

6208.7 99.45 26.69 14.02 9.55 7.40 6.16 5.36 4.81 4.41 4.10 3.86 3.66 3.51 3.37 3.26 3.16 3.08 3.00 2.94 2.88 2.83 2.78 2.74 2.70 2.66 2.63 2.60 2.57 2.55 2.50 2.46 2.43 2.40 2.37 2.34 2.32 2.30 2.28 2.27 2.20 2.15 2.12 2.09 2.07 1.97 1.92 1.90

22

6222.8 99.45 26.64 13.97 9.51 7.35 6.11 5.32 4.77 4.36 4.06 3.82 3.62 3.46 3.33 3.22 3.12 3.03 2.96 2.90 2.84 2.78 2.74 2.70 2.66 2.62 2.59 2.56 2.53 2.51 2.46 2.42 2.38 2.35 2.33 2.30 2.28 2.26 2.24 2.22 2.15 2.11 2.07 2.04 2.02 1.93 1.87 1.85

24

6234.6 99.46 26.60 13.93 9.47 7.31 6.07 5.28 4.73 4.33 4.02 3.78 3.59 3.43 3.29 3.18 3.08 3.00 2.92 2.86 2.80 2.75 2.70 2.66 2.62 2.58 2.55 2.52 2.49 2.47 2.42 2.38 2.35 2.32 2.29 2.26 2.24 2.22 2.20 2.18 2.12 2.07 2.03 2.00 1.98 1.89 1.83 1.81

26

6244.6 99.46 26.56 13.89 9.43 7.28 6.04 5.25 4.70 4.30 3.99 3.75 3.56 3.40 3.26 3.15 3.05 2.97 2.89 2.83 2.77 2.72 2.67 2.63 2.59 2.55 2.52 2.49 2.46 2.44 2.39 2.35 2.32 2.28 2.26 2.23 2.21 2.19 2.17 2.15 2.08 2.03 2.00 1.97 1.95 1.85 1.79 1.77

28

6253.2 99.46 26.53 13.86 9.40 7.25 6.02 5.22 4.67 4.27 3.96 3.72 3.53 3.37 3.24 3.12 3.03 2.94 2.87 2.80 2.74 2.69 2.64 2.60 2.56 2.53 2.49 2.46 2.44 2.41 2.36 2.32 2.29 2.26 2.23 2.20 2.18 2.16 2.14 2.12 2.05 2.01 1.97 1.94 1.92 1.82 1.76 1.74

30

6260.7 99.47 26.50 13.84 9.38 7.23 5.99 5.20 4.65 4.25 3.94 3.70 3.51 3.35 3.21 3.10 3.00 2.92 2.84 2.78 2.72 2.67 2.62 2.58 2.54 2.50 2.47 2.44 2.41 2.39 2.34 2.30 2.26 2.23 2.20 2.18 2.15 2.13 2.12 2.10 2.03 1.98 1.94 1.92 1.89 1.79 1.74 1.72

35

6275.6 99.47 26.45 13.79 9.33 7.18 5.94 5.15 4.60 4.20 3.89 3.65 3.46 3.30 3.17 3.05 2.96 2.87 2.80 2.73 2.67 2.62 2.57 2.53 2.49 2.45 2.42 2.39 2.36 2.34 2.29 2.25 2.21 2.18 2.15 2.13 2.10 2.08 2.06 2.05 1.98 1.93 1.89 1.86 1.84 1.74 1.68 1.66

40l]

6286.8 II 99.47 26.41 13.75 9.29 7.14 5.91 5.12 4.57 4.17 3.86 3.62 3.43 3.27 3.13 3.02 2.92 2.84 2.76 2.69 2.64 2.58 2.54 2.49 2.45 2.42 1 2.38 2.35 2.33 2.30 2.25 2.21 2.18 2.14 2.11 1 2.09 2.07 2.04 2.02 2.01 1.94 1.89 1.85 1.82 1.80 1.69 1.63 1.61 1

Page 344: Wahrscheinlichkeitsrechnung und schließende Statistik

Literaturverzeichnis

ADM (1999). Stichproben in der Umfrageforschung: Eine Darstellung fiir die Pra­xis. Arbeitsgemeinschaft Media-Analyse, Opladen.

AGRESTI, A . (1984). Analysis of Ordinal Categorial Data. Wiley, New York.

ANDRESS, H . - J . , A . , H . J. und S., K. (1997). Analyse von Tabellen und katego-rialen Daten. Springer, Berlin.

ANDREWS, D . , BICKEL, P. J., HAMPEL, F . R . , RUBER, P. J., ROGERS, W . und

TuKEY, J. (1972). Robust Estimates of Location. Princeton University Press, New Jersey.

ANGELE, G . (2005). SPSS 13.0 fiir Windows. Eine Einfiihrung. Schriftenreihe des Rechenzentrums der Universitat Bamberg.

ASSENMACHER, W. (2000). Induktive Statistik. Springer, Berhn.

AuER, L. VON (2005). Okonometrie. Eine Einfiihrung. Springer, Berhn, 3. Aufl.

BAMBERG, G . und BAUR, F . (2002). Statistik. Oldenbourg, Miinchen, 12. Aufl.

BAUSCH, T . (1990). Stichprobenverfahren in der Marktforschung. Vahlen, Miinchen.

BERGER, J. (1993). Statistical Decision Theory and Bayesian Analysis. Springer, New York, 2. Aufl.

BERNADO, J. und SMITH, A. (1994). Bayesian Theory. Wiley, New York.

BICKEL, P. J. und DORSUM, K . A. (2000). Mathematical Statistics. Holden-Day, Oakland, 2. Aufl.

BOMSDORF, E . (2002). Wahrscheinlichkeitsrechung und Statistische Inferenz. Josef Eul, Lohmar, 8. Aufl.

BOMSDORF, E . , GROHN, E . , MOSLER, K . und SCHMID, F , (2003). Definitionen,

Formeln und Tabellen zur Statistik. Universitat zu Koln, 4. Aufl.

BOMSDORF, E . , GROHN, E . , MOSLER, K . und SCHMID, F . (2004). Klausurtraining

Statistik. Universitat zu Koln, 3. Aufl.

335

Page 345: Wahrscheinlichkeitsrechnung und schließende Statistik

336 LiTERATURVERZEICHNIS

BOSCH, K . (2003). Elementare Einfilhrung in die Wahrscheinlichkeitsrechnung. Vieweg, Braunschweig, 8. Aufi.

CASELLA, G . und BERGER, R . (2001). Statistical Inference. Duxbury Press, Bel­mont, California, 2. Aufl.

COCHRAN, W . (1977). Sampling Techniques. Wiley, New York, 3. Aufl.

D 'AGOSTINO, R . und STEPHENS, M . (1986). Goodness-of-Fit Techniques. Marcel Dekker, New York.

DEVROYE, L. (1986). Non-Uniform Random Variate Generation. Springer, New York.

DHARMADHIKARI, S . und JOAG-DEV, K . (1988). Unimodality, Convexity, and Ap­plications. Academic Press, Boston.

ECKSTEIN, P. (2004). Angewandte Statistik mit SPSS. Gabler, Wiesbaden, 4. Aufl.

EISENFUHR, F . und W E B E R , M . (2003). Rationales Entscheiden. Springer, Berlin.

FAHRMEIR, L., KUNSTLER, R . , PIGEOT, I. und TUTZ, G . (2004). Statistik - Der

Weg zur Datenanalyse. Springer, Berlin, 5. Aufl.

FELLER, W . (1968). An Introduction to Probability Theory and its Applications, Bd. 1. Wiley, New York, 3. Aufl.

FISCHER, R . und YATES, F . (1957). Statistical Tables for Biological, Agricultural, and Medical Research. Oliver Sz Boyd, Edinburgh, 5. Aufl.

FISHER, L . und MCDONALD, J. (1978). Fixed Effects Analysis of Variance. Aca­demic Press, New York.

FISHMAN, G . (1995). Monte Carlo: Concepts, Algorithms, Applications, Springer, New York.

Fisz, M. (1976). Wahrscheinlichkeitsrechnung und mathematische Statistik. Deut-scher Verlag der Wissenschaften, Berlin.

GREENWOOD, P . E. und NIKULIN, M . S . (1996). A Guide to Chi-squared Testing. Wiley, New York.

GRIMMETT, G . und STIRZAKER, D . (2001). Probability and Random Processes. Oxford University Press, New York, 3. Aufl.

G U T , A . (1995). An Intermediate Course in Probability. Springer, New York.

HAFNER, R . und WALDL, H . (2001). Statistik fur Sozial- und Wirtschaftswis-senschaftler, Bd.2, Arbeitsbuch fiir SPSS und Microsoft Excel Springer-Verlag, Wien.

HALD, A . (1952). Statistical Tables and Formulas. Wiley, New York, 3. Aufl.

Page 346: Wahrscheinlichkeitsrechnung und schließende Statistik

LITERATURVERZEICHNIS 337

HALD, A . (1990). A History of Probability and Statistics. Wiley, New York.

HAMPEL, F . R . (1986). Robust Statistics. Wiley, New York.

HARTUNG, J., ELPELT, B . und KLOSENER, K . - H . (2002). Statistik. Oldenbourg, Miinchen, 13. Aufl.

HENZE, N . (2004). Stochastik fiir Einsteiger. Vieweg, Braunschweig, 5. Aufl.

HuBLER, O. (1989). Okonometrie. Gustav Fischer, Stuttgart.

JOHNSON, N . , KOTZ, S . und BALAKRISHNAN, N . (1994). Continuous Univariate Distributions, Bd. 1. Wiley, New York, 2. Aufl.

JOHNSON, N . , KOTZ, S . und BALAKRISHNAN, N . (1995). Continuous Univariate Distributions, Bd. 2. Wiley, New York, 2. Aufl.

JOHNSON, N . , KOTZ, S . und BALAKRISHNAN, N . (1997). Discrete Multivariate Distributions. Wiley, New York.

JOHNSON, N . , KOTZ, S . und K E M P , A. (1993). Univariate Discrete Distributions. Wiley, New York.

JOHNSTON, J. und DINARDO, J. (1997). Econometric Methods. McGraw-Hill, New York, 4. Aufl.

KOKOSKA, S. und NEVISON, C . (1988). Statistical Tables and Formulae. Springer, New York.

KOTZ, S., BALAKRISHNAN, N . und JOHNSON, N . (2000). Continuous Multivariate Distributions, Models and Applications, Bd. 1. Wiley, New York.

KRAMER, W . (2002). Statistik fiir die Westentasche. Piper, Miinchen.

KRUG, W . , NOURNEY, M . und SCHMIDT, J. (2001). Wirtschafts- und Sozialstati-stik: Gewinnung von Daten. Oldenbourg, Miinchen, 6. Aufl.

LEHMANN, E . (1986). Testing Statistical Hypotheses. Wiley, New York, 2. Aufl.

LEHMANN, E . und CASELLA, G . (1998). Theory of Point Estimation. Springer, Berhn, 2. Aufl.

LEHN, J. und WEGMANN, H . (2004). Einfiihrung in die Statistik. Teubner, Stutt­gart, 4. Aufl.

LOHNINGER, H. (2001). Teach/Me Datenanalyse. Springer, Berhn.

MONKA, M. und Voss, W. (2002). Statistik am PC. Manser, Munchen, 3. Aufl.

MOSLER, K. und SCHMID, F. (2005). Beschreibende Statistik und Wirtschafts sta­tistik. Springer, Berhn, 2. Aufl.

PATIL, G . , KOTZ, S . und O R D , J. K . (1975). Statistical Distribution in Scientific Work, Bd. 1-3. D. Reidel, Dordrecht.

Page 347: Wahrscheinlichkeitsrechnung und schließende Statistik

338 LiTERATURVERZEICHNIS

PEARSON, E . und HARTLEY, H . (1966). Biometrika Tables for Statisticians, Bd. I. Cambridge University Press, London, 3. Aufl.

PEARSON, E . und HARTLEY, H . (1972). Biometrika Tables for Statisticians, Bd. II. Cambridge University Press, London, 3. Aufl.

POKROPP, F. (2002a). Stichproben: Theorie und Verfahren. Oldenbourg, Munchen, 2. Aufl.

POKROPP, F. (2002b). Was SPSS rechnet Grundlagen der angewandten Statistik mit SPSS. Shaker, Aachen.

Ross, S. (2003). Introduction to Probability Models. Academic Press, Amsterdam, 8. Aufl.

RRZN (2001a). Excel 2000. Einfuhrung in die Benutzung unter Windows 95/98/NT. Rechenzentrum Hannover, 4. Aufl.

RRZN (2001b). Excel 2000 fiir Fortgeschrittene. Fortgeschrittene Anwendungen. Rechenzentrum Hannover, 3. Aufl.

SACHS, L . (2002). Angewandte Statistik. Anwendung statistischer Methoden. Sprin­ger, Berhn, 10. Aufl.

SCHAICH, E. und MUNNICH, R. (2001). Mathematische Statistik fiir Okonomen. Lernprogram,m. Vahlen, Munchen.

SCHEFFE, H. (1959). The Analysis of Variance. Wiley, New York.

SCHIRA, J. (2003). Statistische Methoden der VWL und BWL. Pearson Studium, Munchen.

SCHLITTGEN, R. (2003). Einfuhrung in die Statistik. Oldenbourg, Munchen, 10. Aufl.

SCHNEIDER, I. (1988). Die Entwicklung der Wahrscheinlichkeitstheorie von den Anfdngen bis 1933,. Wissenschaftliche Buchgesellschaft, Darmstadt.

STATBUNDESAMT (1960). Stichproben in der amtlichen Statistik. Kohlhammer, Stuttgart.

STENGER, H . (1971). Stichprobentheorie. Physica, Wurzburg.

STENGER, H . (1986). Stichproben. Physica, Heidelberg.

STIGLER, S . M . (1986). The History of Statistics. The Measurement of Uncertainty Before 1900. Harvard University Press, Cambridge, Mass.

THOMPSON, S . (2002). Sampling. Wiley, New York, 2. Aufl.

THOMPSON, S . und SEBER, G . (1996). Adaptive Sampling. Wiley, New York.

TOUTENBURG, H. (2005). Induktive Statistik. Springer, Berhn, 3. Aufl.

VERBEEK, M . (2004). A Guide to Modern Econometrics. Wiley, New York, 2. Aufl.

ZwERENZ, K. (2001). Statistik verstehen mit Excel. Oldenbourg, Munchen.

Page 348: Wahrscheinlichkeitsrechnung und schließende Statistik

Index

A-posteriori-Dichte, 231 A-posteriori-Wahrscheinlichkeit, 31 A-priori-Dichte, 231 A-priori-Information, 231 A-priori-Wahrscheinlichkeit, 31, 231 abhangige Variable, 292 Additionssatz fur Wahrscheinlichkeiten,

15, 36 Additivitat, 17 affin-hneare Transformation, 58, 59, 65,

69, 74, 91, 107, 138 Alternative, 238 Ankunftsprozess, 167 Anordnung von Objekten, 18 Anteilswert, 181, 199, 219, 223, 266 arithmetisches Mittel, 152 Assoziativgesetze, 11 asymptotisch effizient, 212 asymptotisch erwartungstreu, 198, 204,

212 asymptotisch unverzerrt, 198 asymptotisches Konfidenzintervall, 216 Ausfallrate, 98 Ausreifier, 230 Auswahl von Objekten, 20 Auswahlsatz, 88

Bayes-Schatzer, 232 bedingte Dichte, 134 bedingte Verteilung, 102 bedingte Wahrscheinlichkeit, 24, 129 Bernoulli-Experiment, 35, 75 Bernoulli-Versuchsreihe, 35, 75, 155 Bernoulli-Verteilung, 77, 181, 183 beschreibende Statistik, 1, 173 Bestimmtheitsmafi, 299, 308 bias, 197 Binomialkoeffizient, 19

Binomialverteilung, 77, 80, 149, 160 binomische Formel, 20 Borel-Mengen, 116

Chi-Quadrat-Anpassungstest, 269, 271, 274, 277, 289

Chi-Quadrat-Statistik, 270 Chi-Quadrat-Unabhangigkeitstest, 275, 278,

289 Chi-Quadrat-Verteilung, 184, 219, 261,

262, 270, 277, 284, 286, 301, 302

De Morgansche Regeln, 11 deskriptive Statistik, 1 Dezil, 50 dichotome Variable, 278 Dichte, 53 Dichtefunktion, 53 Differenzereignis, 9 disjunkte Ereignisse, 9 diskrete Verteilung, 51 diskrete Zufallsvariable, 51 Distributivgesetze, 11 Diversifikation, 2 Drei-Sigma-Bereich, 72 Dummy-Variable, 306 Durchschnittsereignis, 9

effizient, 230 Ein-, Zwei- und Drei-Sigma-Bereiche, 110 einfache Hypothese, 238 einfache Varianzanalyse, 283 einfache Zufallsstichprobe, 174, 175 eingipflig, 60 einseitige Testprobleme, 238 Elastizitat, 293 Elementarereignis, 8

339

Page 349: Wahrscheinlichkeitsrechnung und schließende Statistik

340 INDEX

empirische Momente, 205 empirische Residuen, 296 empirische Verteilung, 180 empirische Verteilungsfunktion, 156,157,

176 endliche Grundgesamtheit, 8, 180, 266 entscheidungstheoretische Interpretation,

38 Ereignis, 7 Ereignis-(j-Algebra, 13, 116 Ereignisalgebra, 12 Ereignisanalyse, 3 Ereignisoperationen, 8 Erfolg, 35 Ergebnis, 6 Ergebnismenge, 6, 41 erklarende Variable, 292 erklarte Variable, 292 erwartungstreu, 197 Erwartungswert, 2, 3, 63, 64, 66, 67, 70,

140, 144, 153, 176, 198, 217, 218, 234, 243, 252, 257, 281

Erwartungswert vektor, 143, 165 exakter linearer Zusammenhang, 137 Exponentialverteilung, 94, 168 Exzess, 75

F-Test, 263 F-Verteilung, 187 Fehler erster Art, 240 Fehler zweiter Art, 240 Finanzmarktdaten, 4, 224 Flachenstichprobe, 190 Formel von Bayes, 28 Formel von Sylvester, 36 Formparameter, 72 Preiheitsgrade, 184, 185, 187

Gaufi-Markoff-Theorem, 312 Gaufi-Tests, 249 Gaufi-Verteilung, 102 Gedachtnislosigkeit, 97 Gegenhypothese, 238 gemeinsam diskret verteilt, 129 gemeinsam stetig verteilt, 131 gemeinsame Verteilungsfunktion, 126,143 geometrische Verteilung, 83, 97 Gestaltparameter, 72

getrimmtes Stichprobenmittel, 230 Glivenko-Cantelli-Satze, 157 Grenzwertsatze, 152 Grundgesamtheit, 41 Gutefunktion, 240, 245

Haufigkeitsinterpretation, 38, 243 hazard rate, 98 hypergeometrische Verteilung, 87

Indikatorvariable, 43 induktive Statistik, 1 Infimum, 240 Intervall, 47 Intervallschatzer, 213 Intervallschatzung, 179, 195, 212, 300 Intervallwahrscheinlichkeiten, 57

klassische Wahrscheinlichkeit, 18 Kleinste-Quadrate-Methode, 294 Klumpenauswahl, 190 Kolmogoroffsche Axiome, 17 Kombination, 20 Kombinatorik, 18 Kommutativgesetze, 11 Komplementarereignis, 9 Konfidenzniveau, 213 Konfidenzintervall, 213 konkretes Konfidenzintervall, 213 konsistent, 198, 212 Konsumfunktion, 3 Kontingenztafel, 276 Konvergenz nach Wahrscheinlichkeit, 154 Korrelationskoeffizient, 137, 203, 204, 224 Korrelationsmatrix, 144 korrigierte Stichprobenvarianz, 201 Kovarianz, 135 Kovarianzmatrix, 143, 165 KQ-Methode, 294 kritischer Bereich, 239 kritischer Wert, 244 Kurtosis, 74

lageaquivariant, 67 lageinvariant, 69 Lageparameter, 67 Laplace-Experiment, 17 Laplace-Wahrscheinlichkeit, 18

Page 350: Wahrscheinlichkeitsrechnung und schließende Statistik

I N D E X 341

least squares, 294 Likelihood-Funktion, 206 lineare Einfachregression, 3, 292, 310 lineare Mehrfachregression, 306, 313 linearer Schatzer, 228, 312 Linearkombination, 145, 165 Linksschiefe, 73 linksseitiger Limes, 45 Linkssteilheit, 73 Loglikelihood-Punktion, 207 loglineare Einfachregression, 293 Lognormalverteilung, 111

Maximum-Likelihood-Methode, 206 Mean-Squared-Error, 197 Median, 50, 67, 203 Merkmal, 41, 178 mittlerer quadratischer Fehler, 197 ML-Methode, 206 ML-Schatzer, 207, 210, 211, 274, 310 ML-Schatzwert, 207 Modus, 61 Momente, 204 Momentenschatzer, 205, 210, 211 Momentenschiefe, 72 Monte-Carlo-Simulation, 170 Multinomialkoeffizient, 19 multinomische Formel, 20 Multiplikationssatz fiir Ereignisse, 25 multivariat normalverteilt, 165, 300

Nennerfreiheitsgrade, 187 Normalverteilung, 102, 151 Nullhypothese, 238

objektive Wahrscheinlichkeit, 39 Operationscharakteristik, 240 Ordnungsstatistiken, 203

p-Wert, 288 paarweise disjunkt, 9 paarweise unabhangig, 33 paarweise unkorreliert, 145 Parameter, 77, 175 Parameterraum, 206, 238 Parameterschatzproblem, 195 parametrische Verteilungannahme, 206 Pareto-Verteilung, 100

Partition, 9 Permutation, 18 personelle Einkommensverteilung, 2 Poisson-Prozess, 167 Poisson-Verteilung, 80, 150, 162, 166 Potenzmenge, 12 power function, 240 Prognosefehler, 304, 315 Prognoseintervall, 305, 315 Priifgrofie, 239 Punktschatzung, 195 Punktprognose, 304, 315 Punktschatzung, 195, 294

Quantil, 48, 67, 203 Quantilfunktion, 47, 48, 56 Quartil, 50, 203 Quartilsschiefe, 73 Quintil, 50

Randdichte, 133 Randverteilungsfunktion, 127, 132, 143 Rand wahrscheinlichkeit, 129 Realisierung, 42, 175 Rechteckverteilung, 90 Rechtsschiefe, 73 rechtsseitiger Limes, 45 Rechtssteilheit, 73 rechtsstetig, 45 Regressand, 292 Regressionskoeffizient, 292 Regressor, 292 relative Effizienz, 230 relative Haufigkeit, 155 Rendite einer Aktie, 2, 4, 225 Reproduktionseigenschaft, 149 Residualvarianz, 292 Residuen, 292 Risikomafi, 69 robuster Schatzer, 231

Satz von Pearson, 270 Schatzer, 196 Schatzwert, 196 Schichtenauswahl, 190 Schiefe, 72, 205 schlieBende Statistik, 1, 173 Schwaches Gesetz der groBen Zahlen, 153

Page 351: Wahrscheinlichkeitsrechnung und schließende Statistik

342 INDEX

Schwerpunkt, 70 sicheres Ereignis, 8 Signifikanzniveau, 240, 242 Signifikanztest, 242 skalenaquivariant, 67, 69 Standard-Rechteckverteilung, 91 Standardabweichung, 68, 202 Standardfehler der Regression, 296, 308 standardisierte Variable, 107 Starkes Gesetz der grofien Zahlen, 153 Statistik, 182 statistisch gesichert, 242 statistische Inferenz, 1 stetig verteilt, 53 stetige Gleichverteilung, 90 stetige Verteilung, 53 stetige Zufallsvariable, 53 Stetigkeitskorrektur, 160 Stichprobe, 174, 175 Stichprobenauswahl, 189 Stichprobenfunktion, 182 Stichprobenmittel, 183, 199 Stichprobenmomente, 205 Stichprobenquantil, 203 Stichprobenumfang, 175, 222 Stichprobenvarianz, 183, 201 stochastisch unabhangige Ereignisse, 31 stochastisch unabhangige Zufallsvariable,

127, 129, 133, 144, 152 stochastische Konvergenz, 154 stochastischer Prozess, 167 stochastisches Modell, 179 Storterme, 292 Streuungszerlegungssatz, 281 Student-Verteilung, 185 subjektive Wahrscheinlichkeit, 39, 117 Supremum, 240 survival function, 98 symmetrische Verteilung, 62, 66

t-Test, 251, 301 t-Verteilung, 185 Tagesrendite, 224 Test, 239 Test auf den Gesamtzusammenhang, 310 Testgrofie, 239 Testproblem, 238 tot ale Wahrscheinlichkeit, 28

Trager, 51, 55 transformierte Zufallsvariable, 64, 129,

171 Tschebyscheff-Konfidenzintervall, 215 Tschebyscheff-Ungleichung, 61, 70

unabhangig, 33, 144 unabhangige Variable, 292 unbiased, 197 uniforme Verteilung, 90 unimodal, 60, 61 unkorreliert, 138 unmogliches Ereignis, 7 unverzerrt, 197 Urnenmodell, 75

Variablensumme, 152 Varianz, 2, 67, 69, 140, 144, 201, 218,

261, 262, 283 Variation, 20 verallgemeinerter ML-Schatzer, 232 verbundene Stichprobe, 257 Vereinigungsereignis, 9 Verteilung, 44, 51, 116 Verteilungsannahme, 179 Verteilungsfamilie, 77 verteilungsfrei, 272 Verteilungsfunktion, 44 Verteilungsparameter, 63, 175 Verzerrung, 197 Vierfeldertafel, 278 Volatilitat, 4, 225, 226 vollstandig unabhangig, 33 voUstandige Alternative, 238 vollstandige Zerlegung, 9 Vorinformation, 231

Wahrscheinhchkeit, 14, 38,116,199, 219, 265

Wahrscheinlichkeit, cr-additive, 17 WahrscheinUchkeitsfunktion, 51 Wahrscheinlichkeitsverteilung, 116 Wette, 38, 117 wirksamer, 230 Wirtschaftsstatistik, 1 Wolbung, 61, 74, 205

Zahlerfreiheitsgrade, 187

Page 352: Wahrscheinlichkeitsrechnung und schließende Statistik

I N D E X 343

Zentraler Grenzwertsatz, 158, 172, 216, 255

zentrales Schwankungsintervall, 109 zentrierte Zufallsvariable, 66 Zentrierung, 66 Ziehen mit Zuriicklegen, 76 Ziehen ohne Zuriicklegen, 76 zu erklarende Variable, 291 Zufallsexperiment, 6 Zufallsstichprobe, 175 Zufallsvariable, 41, 42 Zufallsvektor, 143 Zufallsvorgang, 5, 14 Zufallszahlen, 170, 189, 269 Zufallszahlengenerator, 170, 189 Zufallsziehung, 8 zusammengesetzte Hypothese, 238 Zwei-Sigma-Bereich, 72 zweiseitiges Test problem, 238 Zweistichproben-Gau6-Tests, 253 Zweistichproben-^-Test, 256