21
Stichworte der Einf¨ uhrung in die Wahrscheinlichkeitstheorie (entstanden aus dem Einf¨ uhrung in die Wahrscheinlichkeitstheorie Skript von Herrn Prof Dr Potthof) Author: Ralf Nicklas Stand: 24. Januar 2006

Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

  • Upload
    others

  • View
    5

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

Stichworte der Einfuhrung in die Wahrscheinlichkeitstheorie

(entstanden aus dem Einfuhrung in die Wahrscheinlichkeitstheorie Skript von Herrn Prof Dr Potthof)

Author: Ralf Nicklas

Stand: 24. Januar 2006

Page 2: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

∞�

� �

A 1

A

a posteriori Wahrscheinlichkeiten : P (Bk|A)

absolut stetig verteilet : siehe stetig verteilt

antiton : Folge (An, n ∈ N ) falls An+1 ⊂ An∀n ∈ N gilt lim An := An n n=1

falls (An, n ∈ N ) antiton ist

Axiom zur σ − Algebra : Sei Ω der Grundraum der Elementarereignisse eines Experiments. Die Menge aller Ereignisse A ist eine Familie von Teilmengen von Ω, die eine σ − Algebra bildet.

B

Bayes’sche Formel : Sei B1, . . . , Bn ∈ A eine Zerlegung von Ω mit P (Bk ) > 0 k=1, . . . , n und A ∈ A mit P(A)¿0. Es gilt fur k ∈ {1, . . . , n}P (Bk |A) = P (A∩Bk ) = P (A|Bk )P (Bk ) = n

P (A|Bk )P (Bk ) P (A) P (A) �

P (A|Bk )P (Bk ) k=1

BBW : = Brownsche Bewegung

bedingte diskrete Dichte : siehe diskrete Wahrscheinlichkeitsverteilung

BE : = bedingte Erwartung

bedingte Entropie : mit bedingter Dichte p(xi, yi) = p(xi ,yj ) = P (X = xi|Y = � pY (yj )

yj ) ⇒ H(X,Y = yj ) = − log2(p(xi|yj ))p(xi|yj ) = − log2(p(xi|Y ))p(xi|Y ) i i

Lemma: H(X|Y ) = H(Y ) + E(H(X|Y )) Satz: E(H(X|Y )) ≤ H(x)

bedingte Erwartung : Eine ZV, die BE1 und BE2 erfullt, heißt die bedingte Erwartung von X gegeben Y und wird mit E(X|Y ) notiert.

bedingte Erwartung (Vorbereitung) : Setze Z:= E(X|Y ) ⇒ Z(ω) = xip(xi|y) ∀ω ∈ � � i Ω mit Y (ω) = y ⇒ Z = xip(xi|Y ) oder Z = g◦Y mit g(y) = xip(xi, y)

i i ⇒ BE1 − BE11

bedingte Erwartung 1 : Z ist eine Funktion von Y, d.h. es gibt eine meßbare Funktion g, so dass Z(ω) = g(Y(ω)), ω ∈ Ω

bedingte Erwartung 2 : Fur jedes B ∈ B(R) gilt: ZdP = XdP � � � {Y ∈B} {Y ∈B}

⇒ {Y ∈B}

ZdP = {Y ∈B}

E(X|Y )dP = · · · = {Y ∈B}

XdP

Fakt zwischen BE2 und BE3 : Seien X,Y zwei ZV auf einem W-raum, X integreirbar oder positiv. Dann gibt es eine ZV Z, die die Eigenschaften BE1 und BE2 hat und fast sicher eindeutig ist (falls Z’ eine andere solche ZV ist gilt P(Z=Z’)=1 )

Page 3: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

//

� � �

� �

B 2

bedingte Erwartung 3 : E(·|Y ) ist linear: seien X1, X2 reellwertige ZV α1, α2 ∈ R. Dann�gilt fast sicher E(α1X�1 + α2X2|Y ) = α1E(X1|Y )+ α2(X2|Y ) au­ßerdem: f (Y )E(X|Y )dP = f (Y )XdP

bedingte Erwartung 4 : Fur jede meßbare Funktion f (derart, dass die Inte­grale existieren) gilt die Gleichung: f (Y )E(X|Y )dP = intf (Y )XdP

bedingte Erwartung 5 : Fur jede Konstante C gilt E(C|Y ) = C

bedingte Erwartung 6 : F¨ ϕ(Y )E(X|Y )

ur jede meßbare Funktion ϕ gilt E(ϕ(Y )X|Y ) =

bedingte Erwartung 7 : E(E(X|Y )|Y ) = E(X|Y )

bedingte Erwartung 8 : E(E(X|Y )) = E(X)

bedingte Erwartung 9 : E(·|Y ) ist symmetrisch im Sinne, dass fur alle X, Z E(Z|E(X|Y )) = E(E(Z|Y )|X) gilt

bedingte Erwartung 10 : Sei ϕ meßbar, Y=ϕ(Z). Es gilt E(E(X|Z)|Y ) = E(X|Y )

bedingte Erwartung 11 : Falls X und Y unabhangig sind, gilt E(X|Y ) = E(X)

bedingte Wahrscheinlichkeit : Sei (Ω,A,P) ein W-raum, B ∈ A mit P(B)¿0, A ∈ A ⇒ P (A|B) = P (A∩B) = bedingte Wahrscheinlichkeit von A unter BP (B)

⇔ P (A ∩ B) = P (A|B) · P (B)

Bernoullie-Experiment : Ω = R, A = B(R), x1, x2 ∈ R, x1 �= x2, p ∈ [0, 1], P1 = εx1 , P2 = εx2 dann ist P = pεx1 + (1-p)εx2

⇔ 2 Elemtarereignisse die nicht unmoglich sind

Bernoullie-Zufallsvariable : P (X ∈ [a, b]) = {

p falls x1 ∈ [a, b] + x2 ∈ [a, b] 1 − p falls x1 ∈ [a, b] + x2 ∈ [a, b]

1 falls x1 ∈ [a, b] + x2 ∈ [a, b] 0 sonst

mit x1, x2 ∈ R, x1 �= x2, p ∈ [0, 1] und W = pεx1 + (1 − p)εx2

Binomialverteilte Zufallsvariable : mit Parametern (n,p), n ∈ N , p ∈ [0, 1]:

W = n

k=0

n k p

k(1 − p)n−kεk

→ wobei x fast sicher die Werte k = 0, . . . , n annimmt und dabei den Wert k mit Wahrscheinlichkeit n

k pk(1 − p)n−k

Borelmenge : Sei Ω = R: Es gibt eine kleinste σ-Algebra B(R), die alle Inter­valle enthalt (=Boral-σ-Algebra) oder auch Ω = Rn: B(Rn) ist kleinste σ-Algebra, die alle Hyperquader enthalt.

Brownsche Bewegung : = Wienerprozess

Page 4: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

� �

C 3

Brownsche Bewegung Eigenschaften : * die BBW ist ein Markovprozess, da P (B(t) ∈ A|{B(u), u ≤ s}) = P (B(t) ∈ A|B(s)) gilt die BBW ist ein Martingal, da: sei t ≥ s > 0 E(B(t)|{B(u), u ≤ s}) = . . . = B(s)

C

1Cauchyverteilung : f(x) = π 1+1 x2

Chapman-Kolmogorov-Gleichung : Sei n, k in N0 dann gilt fur jede Wahl von m zwischen k und k+n und alle i,j in N P(X(k+n)) = i(X(k)=j) = P (X(k + n)) = i(X(m =) = l)P (X(m) =

l l|X(k) = j)

charakteristische Funktion von X : Sei f(x) = eiλx = cos(λx) + isin(λx) ⇒ Φ(λ) = E(eiλx) λ ∈ R

D

Dichte : Fall wie bei (absolut) stetig verteilt ⇒ f heißt die Dichte der Verteilung bzw. der Zufallsvariablen

Diracmaß : Sei Ω ein beliebiger Grundraum, A eine σ-Algebra von Ereignis­1 falls ω0 ∈ A

heißtsen uber Ω Ferner sei ω0 ∈ Ω. Setze: P(A):={ 0 sonst ¨

Diracmaß in ω0 es wird mit εω0 bezeichnet.

diskret verteilt : Sei {xn, n ∈ N } ∈ R, (pn, n ∈ N ), pn ∈ [0, 1], pn = 1, n=1

das Maß W = pnεxn ⇒ fuhrt die Abbildung A �→ W (A) zu einer n=1

Verteilung + damit zu einer diskret verteilten Zufallsvariablen

n diskrete Gleichverteilung : x1, . . . , xn ∈ R: W = 1 εxkn

k=1

diskrete Wahrscheinlichkeitsverteilung : PX = px(xi)εxi ; PY = pY (yj )εyj � � i j

mit pX (xi) = p(xi, yj ); pY (yj ) = p(xi, yj ) ¿ 0 ⇒ P (X = x|Y = y) = j i

P (X=x,Y =y) P (x,y) P (Y =y) = PY (y) = p(x|y) Damit ist die Verteilung von X unter der

Bedingung Y=y als diskrete Wahrscheinlichkeitsverteilung: p(xi|y)εxi i

gegeben auf (R,B(R)) mit p(x|y) ist die bedingte (diskrete) Dichte von X gegeben Y=y gegeben. ⇒ bedingte Erwartung von X unter Y=y: E(X|Y = y) := xip(xi|y) außerdem E(X|Y )(ω):= E(X|Y = y) fur alle ω ∈ Ω mit

i Y (ω) = y

Page 5: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

E 4

E

Elementarereignis : ω ∈ Ω

¨Entropie : = mittlerer Informationsgehalt = mittlere Uberaschung n

E(S) = − (log2(pi))pi = iH(x) i=1 �

man setzt auch: H(x):= − (log2(ϕ(x)))ϕ(x)dx mit H(x) ≤ log2(n) R

Ereignis : A ist Menge von ω ⇒ A ⊂ Ω, A ∈ P(Ω) insbesondere ordnet man ω ∈ Ω das Ereignis {ω} ⊂ Ω zu

Ergodenkette fur Markovketten : Falls k0 ∈ N existiert, so dass Pi,j (k0) > ur alle i,j in {1, . . . , n} dann ist die Markovkette ergodisch. Dabei ist0 f¨

der Invariante Zustand α der eindeutig bestimmte Eigenvektor von P zumEigenwert 1

Erwartungswert : Sei X eine positive oder integrierbare Zufallsvariable auf einem W-raum (Ω,A,P). Dann heißt XdP der mathematische Erwar-

A tungswert oder Mittelwert von X E(x) := XdP

Ω � g(x, y)f (x, y)dxdy gemeinsam stetig

R2

∞Anmerkung: E(g(X,Y)) = { � g(xi, yj )pij gemeinsam diskret

i,j=1

Korollar: X1, . . . , Xn unabhangig, f1, . . . , fn meßbar E(f1(X1) · · · fn(Xn)) = E(f1(X1))· · ·E(fn(Xn))

E bei X Bernoulli ZV : E(f ◦ X) = f (x)dPx(X) = pf (1) + (1 − p)f (0)

E bei X normalverteilt : mit µ, σ ∈ R f=id: 1E(X) = x √

2πσ2 exp(− (x−µ)2

)dx = . . . = µ2σ2

Exponentialverteilung : λ > 0 f (x) = λ1R+ (x)e−λx

F

G

1Gaußfunktion : f(x) = √ 2πσ2

exp( −(x−µ)2

) mit µ, σ ∈ R2σ2

gemeinsame Entropie : X,Y ZVs mit gemeinsamer Verteilung PX⊗Y = p(xi, yj )ε(xi, yj ) � i,j

⇒ H(X,Y) = − log2(p(xi, yk ))p(xi, yk ) i,j

gemeinsame Verteilung : V W-maß auf (R2 , B(R2)), Ω = R2 , A = B(R2), P = V, X = π1, Y = π2, πi = i − teProjektion d.h. ω=(x,y)∈ R2 ist π1(ω) = x, π2(ω) = y. Dann haben X, Y die gemeinsame Verteilung V

Page 6: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

H 5

gemeinsame Verteilungsfunktion : wahle B = (−∞, x) × (−∞, x), x,y∈ R dann heißt FX◦Y ((x, y)) = PX◦Y ((−∞, x) × (−∞, y)) = P (X < x, Y < y) die ge­meinsame Verteilungsfunktion von X und Y

2geometrische Brownsche Bewegung : Sei T=R+ X(t):=eλB(t)− λ2 t t ∈ R+

mit λ ∈ R: Der stochastische Prozess (X(t), t ∈ R+) wird geometrische BBW genannt und ist ein Martingal

geordent ohne Wiederholung : falls, man auf die Reihenfolge der Auswahl achtet und kein element mehr als einmal gewahlt werden darf ⇒ (ωi1 , . . . , ωik ) (k ≤ n) = k-Tupel

geordent mit Wiederholung : falls die Reihenfolge registriert wird und die Elemente wiederholt ausgew¨ urfenahlt werden d¨ ⇒ (ωi1 , . . . , ωik ) = k-Tupel mit Eintragen aus Ω

Gleichverteilung � auf [a,b :] sei a,b ∈ R, a¡b, f = (b − a)−11[a,b]

1W(A) = b−a 1[a,b](x)dx = λ(A∩[a,b]) b−a

A wobei λ = Labesguemaß auf ([a, b], B([a, b])) ist

GM : geordnet mit Wiederholung

GO : geordnet ohne Wiederholung

großte σ-Algebra : P(Ω)

Grundmenge : Ω = sicheres Ereignis

H

’hit and miss’-Monte-Carlo-Methode : man sch¨ ache unter dematzt die Fl¨ Graphen von f dadurch, dass man n viele Punkte gleichverteilt im Qua­drat [0, 1] × [0, 1] erzeugt und den Anteil bestimmt der unter dem Gra­phen liegt. Seien X, Y unabhangig auf [0, 1] gleichverteilte ZVs setze Z

= 1{Y ≤f (X)} (= Bernoullie-ZV) ⇒ p = �1

0 f (x)dx und es gilt E(Z) = p

1⇒ n

n

1 Zk → n→∞

�1

0 f (x)dx

Hypothese : Bk

I

Irrfahrt : Sei T = N0 und betrachte eine uiv Folge (Y (n), n ∈ N ) von Bernoul­lizufallsvariablen zu Parameter p ∈ [0, 1], mit Werten -1 und 1, P (Yi =

1) = p. Setze X(0) = 0 und X(n) := n

i=1 Y (i) n ∈ N ⇒ der stochastische

Prozess (X(n), n ∈ N0) heißt Irrfahrt.

Page 7: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

� �

J 6

� isoton : Folge (An, n ∈ N ) falls An ⊂ An+1∀n ∈ N gilt lim An := An falls

n n=1 (An, n ∈ N )isoton ist

J

K

kleinste σ-Algebra : A = {Ω, �}

Kodierung : X nehme die Werte x1, . . . , xN , N ∈ N an. Es gibt genau dann are Kodierung von x1, . . . , xN mit L¨eine bin¨ angen n1, . . . , nN , wenn gilt

N

Ko

2−ni ≤ 1 i=1

n N oglich falls f¨

1

dierung ist m¨ ur alle n in N gilt: 2−j ωj ≤ 1 ⇔ 2−ni ≤ i=1 i=1

Konstruktionsprinzip : Sei W W-maß auf (R,B(R)). Dann gibt es einen W­raum (Ω,A,P) und darauf eine Zufallsvariable X, so dass W gleich der Verteilung PX von X ist. Man wahlt ganz einfach: Ω = R, A = B(R), P = W, X = id ⇒ X(ω) = ω fur ω ∈ Ω = R noch zu zeigen dass PX = W PX ((−∞, x)) = P (X ∈ (−∞, x)) = P ({ω,X(ω) < x}) = P ({ω, ω < x}) = W ({ω, ω < x}) = W ((−∞, x))

Konvergenz (eidwt) : (Xn, n ∈ N ) sei eine Folge von reellwertigen ZVs auf einem W-raum (Ω,A,P), X sei ZV auf (Ω,A,P) i) (Xn, n ∈ N ) konvergiert fast sicher gegen X, wenn P ({ω; Xn(ω) → n→∞

X(ω)}) = 1 ur jedes � > 0:ii) (Xn, n ∈ N ) konvergiert stochastisch gegen X, wenn f¨

P ({ω; |Xn(ω) − X(ω)| > �}) → n→∞ 0 iii) (Xn, n ∈ N ) konvergiert in Verteilung gegen X, wenn die Folge (PXn , n ∈ N ) der Verteilung von (Xn, n ∈ N ) schwach gegen die Verteilung PX kon­� ur alle beschr¨vergiert, d.h. wenn f¨ ankte, stetige Funktionen f: f (x)dPXn (x) → n→∞

f (x)dPX (x) gilt iv) (Xn, n ∈ N ) konvergiert im p-ten Mittel oder in L’(P), p ≥ 1 gegen X falls

Ω |Xn − X|pdP → n→∞ 0

KV in L�(P ), p ≥ 1 ⇓ fast sichere KV ⇒ stochastische KV ⇐ KV in L1(P ) ⇓

KV in V erteilung

Korrelation : Falls die Varianz V(X), V(Y) verschwinden, so heißt die Große ρ(X,Y ) = √Cov(X,Y ) die Korrelation

V (X)V (Y )

Kovarianz : Sei X, Y quadratintegrierbare ZV. Dann heißt Cov(X,Y) = E((X-E(X))(Y-E(Y))) die Kovarianz von X und Y

Page 8: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

L 7

Korollar: Sei X und Y unabhangig mit endlicher Varianz, dann sind X und Y unkorreliert: Cov(X,Y) = 0

KV : = Konvergenz

L

Laplace-Experiment : endlicher Grundraum und alle elementarereignisse sind gleichwahrscheinlich. hier gilt:

1p = n |A|⇒ P(A) = |Ω| =

k 1P ({ωij }) = k · n mit A = {ωi1 , . . . , ωik }

j=1

Lebesguemaß : Sei Ω = [0, 1], A = B([0, 1]), d.h. unser Experiment produziert eine reelle Zahl zwischen 0 und 1. Es gibt ein W-maß λ, das jedem Intervall [a, b] in [0, 1] als W-keit dessen Lange zuordnet: λ([a, b]) = b − a

Lemma i (eidwt) : Sei X1, . . . , Xn unabhangig. Dann gilt PX1 +···+Xn = PX1 · · · PXn

Lemma ii (eidwt) : Sei X1, . . . , Xn unabhangige ZVs mit momenterzeugende Funktionen ψX1 , . . . , ψXn . Dann gilt ψX1 +···+Xn (t) = ψX1 (t) · · · ψXn (t) t ∈ R Falls X1, . . . , Xn uiv ZVs sind, gilt insbesondere ψX1 +···+Xn (t) = (ψX1 (t))

n

Lemma zur bedingten Wahrscheinlichkeit : Sei A1, . . . , An ∈ A dann gilt P(A1∩. . .∩An) = P (A1)·P (A2|A1)·P (A3|A1∩A2) · · · P (An|A1∩· · ·∩An−1)

Lemma zu meßbar und Zufallsvariablen : Sei (Ω, A) vorgelegt, g eine meß­bare Funktion von Ω nach R, f eine meßbare Funktion von R nach R. Dann ist f ◦ g meßbar ⇔ Die Komposition meßbarer Abbildungen ist meßbar ⇒ f ◦ X ist eine Zuvallsvariable

M

Markoveigenschaft : P (X(n + 1) ∈ B|X(0), . . . , X(n)) = P (X(n + 1) ∈ B|Xn) Interpretattion: Der Prozess hat kein Gedachtnis

Markovprozess : Prozess mit ME z.B. Irrfahrt

Martingal : ein stochastischer Prozess (X(n), n ∈ N ) mit der Eigenschaft MTG fur alle n in N heißt Martingal z.B. ist die Irrfahrt ein Martingal wenn p= 1 ist2

Martingalkette : (X(t), t ∈ T ) ein stochastischer Prozess mit diskreter Zeit T=N0 oder T={0, . . . , n} der die Markoveigenschaft erfullt ⇔ Markovket­te

Maß : Sei Ω eine Menge, A eine σ-Algebra uber Ω, P eine Abbildung von A¨ ¯ nach R+ := [0, +∞]

P heißt Maß, falls gilt: i) P(

Page 9: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

∞�

N 8

oslash) = 0 ii) P ist σ-additiv: falls (An, n ∈ N ) eine paarweise disjunkte Folge in A

∞ist, so gilt: P( n=1An) = P (An) n=1

ME : = Markoveigenschaft

meßbar : Sei Ω eine Menge, A eine σ-Algebra uber Ω, f eine reellwertige Funk­tion auf Ω mit f −1((−∞, x)) ∈ A∀x ∈ R ⇒ f heißt meßbarFakt: f ist genau dann meßbar, wenn f¨ur jede Borelmenge B ∈ B(R) f −1(B) ∈ A gilt

Methode der kleinsten Fehlerquadrate nach Gauß-Laplace : Die großte E((X − g(Y ))2), g meßbare Funktion, hat bei g(Y) = E(X|Y ) ihr Mini­mum

Mittelwert : siehe Erwartungswert

¨mittlerer Informationsgehalt : = Entropie = mittlere Uberraschung

¨mittlere Uberaschung : = Entropie = mittlerer Informationsgehalt

Moment : siehe auch n-tes Moment

momenterzeugende Funktion von X : ψ(λ) = E(eλX ) λ ∈ R

Monte-Carlo-Methoden : Methoden zur numerischen Berechnung von Inte­gralen zum Beispiel siehe auch: ’hit and miss’-Monte-Carlo-Methode zweit Monte-Carlo-Methode

MTG : = Martingaleigenschaft (siehe auch Martingal) E(X(n + 1)|X(1), . . . , X(n)) = X(n)

N

n-tes Moment : Sei X ZV: E(Xn) heißt das n-te Moment von X siehe Erwartungswert

Normalverteilung : N(µ, σ2), µ, σ ∈ R: 1W(A) = √

2πσ2 exp(− (x−µ)2

)dx A ∈ B(R)2σ2

A

O

ω : ω = Elementarereignis

Ω : Ω = Grundraum aller Elemtarereignissen

Page 10: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

∞�

� �

P 9

P

Pfad : von einem stochastischen Prozess X ist eine zufallige reellwertige Funk­tion auf T

Poissonprozess : T=R+, (X(t), t ≥ 0) ein stochastischer Prozess mit i) X(0) = 0 fast sicher ii) unabh¨ are Zuw¨angige, station¨ achse iii) die Zuwachse X(t) - X(s), s¡t habe die Poissonverteilung mit Parameter λ(t − s), λ > 0 heißt Poissonprozess mit Rate λ → Markovprozess aber kein Martingal

Poisonverteilung : mit Parameter λ > 0: W = e−λk 1! λ

kεk k=0

⇒ X nimmt fast sicher Werte in N0 an, dabei fur k ∈ N P(x=k) = e−λ λk

k!

Produktmaß : siehe Versuchsreihe P1 ⊗ P2 = P

Q

R

realisiert : Ist A Ereignis und gilt ω ∈ A ⇒ ω realisiert A

S

S1 : S(1) = 0

S2 : S strikt monoton fallend auf (0, 1]

S3 : S ist stetig auf (0, 1]

S4 : S(pq) = S(p) + S(q) f¨ur alle p,q in (0, 1]

Satz von Bayes : Sei B1, . . . , Bn ∈ A eine (paarweise disjunkte) Zerlegung nvon Ω d.h. Ω = k=1Bk

Dann kann man jedes Ereignis A ∈ A nach {Bk, k = 1, . . . , n} zerlegen: nA = k=1(Bk ∩ A)

RightarrowP (A) = n P (A|Bk )P (Bk ) =

k=1

n

k=1 P (Bk ∩ A)

Satz von Bienaym : X1, . . . , Xn seien paarweise unkorrelierte ZVs. Dann gilt: V(X1 + · · · + Xn) = V(X1)+ · · · +V(Xn)

Page 11: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

(

� �

S 10

Satz von Fubini : Sei f reellwertig, meßbare Funktion auf Ω1 × Ω2

a) Fur jedes ω1 ∈ Ω1 ist die Funktion f(ω1, ·) auf Ω2 meßbar ur jedes ω1 ∈ Ω1 die Funktion f(ω1, ·) positiv oder µ2-integrierbarb) Falls f¨ �

ist, dann ist die Funktion ω1 �→ f (ω1, ω2)dµ(ω2) auf Ω1 meßbar � Ω2� c) f ist µ1 ⊗ µ2-integrierbar⇔ ( |f (ω1, ω2)|dµ2(ω2))dµ1(ω1) < +∞

Ω1 Ω2

d) amaloge Aussage zu a), b) und c) gelten mutatis mutandis, wenn die Rolle der Indizes 1 und 2 vertauscht ist � e) Falls f positiv oder µ1 ⊗ µ2-integrierbar ist, dann gilt fdµ1 ⊗ µ2 = � � � � Ω1 ×Ω2

( f (ω1, ω2)dµ2(ω2))dµ1(ω1) ( f (ω1, ω2)dµ1(ω1))dµ2(ω2) Ω1 Ω2 Ω2 Ω1

Merke: Dei der Integration bezuglich eines Produktmaßes kann man die Integration Variable f¨ uhren und es kommt nicht auf dieur Variable durchf¨ Reihenfolge der Integration an.

Satz von Poisson : Sei (Xn, n ∈ N ) eine Folge von binomialverteilte ZV, wo­bei Xn Parameter (n,pn) mit lim npn = λ > 0 hat. Dann konvergiert

n (Xn, n ∈ N ) in Verteilung gegen eine Poissonzufallsvariable mit Parame­ter λ

Satz von Shannon : Fur jede Kodierung C einer ZV X mit Werten x1, . . . , xN

gilt E(LC ) ≥ H(X)

Satz zum Produkt : Gegeben seien k Mengen M1, . . . ,Mk mit |Mi| = ni ∈ N , i=1, . . . , k. Dann ist die Anzahl aller k-Tupel der Form (m1, . . . ,mk ); mi ∈ Mi i=1, . . . , k gleich k ni

i=1

Satz zur Anzahl der Moglichkeiten : zu den verschiedenen Proben gibt es jeweils die folgende Anzahl von Moglichkeiten:

n!GO: n−k)! Maxwell-Boltzmann-Statistik nUO: Fermi-Dirac-Statistikk

GM: �nk � UM: n+k−1 Bose-Einstein-Statistikk

Satz zur gemeinsamen Verteilung und dem Produktmaß : Seien die ZV X1, . . . , Xn unabhangig. Dann ist die gemeinsame Verteilung PX1 ⊕···⊕Xn

gleich dem Produktmaß PX1 ⊕ · · · ⊕ PXn der Verteilung

σ − Algebra : Sei Ω eine Menge, A eine Menge von Teilmengen von Ω dann heißt A σ-Algebra falls gilt: i) Ω ∈ A ii) fur jedes A ∈ A gilt Ac ∈ A

∞� iii) fur jede Folge (An, n ∈ N ) ∈ A gilt An ∈ A

n=1 Bsp) A = {Ω, A,Ac , �}

Standardabweichung : siehe Streuung

Page 12: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

� �

T 11

Starkes Gesetz der großen Zahlen : Sei (Xn, n ∈ N ) eine unabhangige Fol­ge von identisch verteilte ZVs, deren viertes Moment existiert. E(X1

4) ¡ n

−∞. Dann konvergiert sn mit sn = Xn fast sicher gegen E(X1)n k=1

Stetigkeit von W-maßen : Sei (An, n ∈ N ) eine isotone oder antitone Folge von Ereignissen. Dann gilt: P(lim An) = lim P (An)

n n

(absolut) stetig verteilt : f ≥ 0 st¨ �uckweise stetige Funktion mit f (x)dx = 1 ⇒ fuhrt die Abbildung A �→ W (A) = f (x)dx zu einer Verteilung +

A damit zu einer (absolut) stetig verteilten Zufallsvariablen

Stetigkeitslemma von P. Lvy : Sei (Yn, n ∈ N ) eine Folge von ZV mit exi­stierenden momenterzeugenden Funktionen: ψYn (t) = E(exp(tYn)) < +∞ mit t in R und n in N. Ferner sei Y ZV mit existierender momenter­zeugender Funktion ψY . Falls ψYn punktweise gegen ψY konvergiert, so konvergiert Yn in Verteilung gegen Y.

stochastischer Prozess : Sei T eine Teilmenge von R+, (Ω,B,P) ein W-raum, (E,E ) ein meßbarer Raum (d.h. eine Menge, die mit einer σ-Algebra aus­gestattet ist). Eine Abbildung T in einer Menge von ZV uber (Ω,B,P) mit Wertebereich E heißt stochastischer Prozess mit Zustandsraum E. (Die Menge T wird typischerweise als Bereich eines Zeitparameters aufgefasst. Gebrauchlich sin T \ N,R+) Notationen: X(t)(ω) ≡ X(t, ω) ≡ Xt(ω) mit t in T und ω ∈ Ω

Streuung : von X: V (X) (oder auch Standardabweichung)

T

Transformationssatz : Sei (Ω,A,µ) Maßraum, (Ω� ,A�) Meßraum, g meßbare Abbildung von Ω nach Ω� . Auf (Ω� ,A�) sei µg (A�) := µ(g−1(A�)), A’ ∈ A� ein Maß. Sei f reellwertige, meßbare Funktion auf Ω� , die positiv oder µg -integrierbar ist. Dann gilt f ◦ gdµ = fdµg Fakt: sei Px(B) = � Ω Ω� � φ(x)dxB ∈ B(R) mit φ(x) stuckweise stetig, sowie φ ≥ 0 und φ(x)dx =

B R 1 sei f stuckweise stetig und somit messbar und so dass das (uneigentliche)

+�∞

Riemanintegral −∞

|f (x)|φ(x)dx endlich ist. Dann gilt:

� +�∞

fdPx = f (x)φ(x)dx R −∞ � +�∞

⇒ E(f ◦ X) = fdPx = f (x)φ(x)dx mit X ZV und φ Dichte R � −∞ �

Lemma: Sei Px = αnεxn , f meßbar und so dass die Reihe αnf (xn) n � � n

absolut konvergiert. Dann gilt: fdPx = αnf (xn) R n

Page 13: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

� �

U 12

U

Uberraschung : S als Funktion der W-keit p ∈ [0, 1], p=0 bei großem S und p=1 bei kleinem S siehe S1-S4Satz: Eine Funktion auf (0, 1], die S1-S4 erf¨ullt ist von der Form: S(p) = -C log2(p) wobei C eine positive Konsante ist. (Konvention: C=1)

UM : ungeordent mit Wiederholung

unabhangig (eidwt) : Sei (Xn, n ∈ N ) eine Folge von ZV aif einem W-raum angig, falls f¨(Ω,A,P). Sie heißt unabh¨ ur jedes n ∈ N , jede Wahl von

k1, . . . , kn ∈ N und jede Wahl xk1 , . . . , xkn ∈ R,

P(Xk1 < xk1 , . . . , Xkn < xkn ) = n

l=1 P (Xkl < xkl )gilt

unabhangig (2 Ereignisse) (eidwt) : Seien A1, . . . , An Ereignisse. Sie hei­ßen unabh¨ ur jede Wahl von k ∈ {1, . . . , n} und jede Wahl von kangig falls f¨ Ereignissen Ai1 , . . . , Aik die Gleichung P (Ai1 ∩· · ·∩Aik ) = P (Ai1 ) · · · P (Aik ) gilt

P ( k

j=1 Aij ) =

k

j=1 P (Aij )

unabhangige standard normalverteilte Zustandsvariable : Seien U1 und U2 zwei unabh¨ �angige auf [0, 1] gleichverteilte ZV setze: X= −2ln(U1)cos(2πU2); Y= −2ln(U1)sin(2πU2) dann sind X,Y unabhangige standard normalverteilte ZVs.

uiv : = unabhangig identisch verteilt

Unabhangigkeit von Zufallsvariablen : X1, . . . , Xn n ∈ N wenn alle Ereig­nisse der Form {Xi ∈ Bi}, Bi ∈ B(R) i=1, . . . , n unabhangig sind.

ungeordent mit Wiederholung : falls man nicht die Reihenfolge beruck­sichtigt und die Elemente wiederholt ausgew¨ urfenahlt werden d¨ ⇒ {ωi1 , . . . , ωik } (k ≤ n) = Menge und ∀j �= k gilt ωij �= ωik

ungeordent ohne Wiederholung : falls man die Reihenfolge nicht registriert und kein Element mehr als einmal gewahlt werden darf ⇒< ωi1 , . . . , ωik > (k ≤ n) = Sammlung von Elementen aus Ω mit Vielfachheit zwischen 0 und k

unkorreliert : falls Cov(X,Y) = 0 und damit ρ(X,Y ) = 0 gilt, so heißt X und Y unkorreliert.

UO : ungeordnet ohne Wiederholung

V

Varianz : Die Große V(X) = E((X − E(X))2) heißt Varianz

Page 14: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

� �

� �

W 13

Versuchsreihe : unabh¨ uhrung von Experimenten Bsp: 2 Experi­angige Ausf¨ mente W-raume (Ω1,A1,P1), (Ω2,A2,P2) ⇒ Ω1 × Ω2 = {(ω1, ω2)} ist der grund­raum aller ω das kombinierte Experiment (zuerst 1., dann 2.) A1 × A2 = im Experiment1 tritt A1 und in Experiment2 tritt A2 ein definiere A1 ⊗A2

als kleinste σ-Algebra die alle Ereignisse A1 × A2 enthalt ⇒ P(A1 × A2) := P1(A1) · P2(A2) heißt Produktmaß

Verteilung : Sei (Ω,A,P) ein W-raum, X feste Zuvallsvariable. Dann konnen wir fur jedes B ∈ B(R) den Wert P (X ∈ B) = P (X−1(B)) ermitteln ⇒ Abbildung PX von B(R) und [0, 1] : PX (B) := P (X ∈ B) ⇒ PX = V erteilung → Die Funktion F(x) = PX ((−∞, x)) = P (X < x)heißt Verteilungsfunktion von XSatz: PX ist ein W-maß auf (R,B(R))

W

Warmeleitungsgleichung : Verteilung B(t), Dichte p(t,x) ⇒ WLGL: ( δδt −

1 δ2

2 δx2 )p(t, x) = 0

Warmeleitungskern : siehe Wienerprozess

W-keit : = Wahrscheinlichkeit

W-maß : = Wahrscheinlichkeitsmaß

W-raum : = Wahrscheinlichkeitsraum

Wahrscheinlichkeit : Sei Ω der Grundraum aller Elementarereignisse eines Experiments, A eine σ-Algebra von Ereignissen. Falls P ein W-maß auf (Ω,A) ist, so heißt fur iedes A ∈ A, P(A) die Wahrscheinlichkeit des Ereignisses A.

Wahrscheinlichkeiten : Ω = {ω1, . . . , ωn} endlich, falls wir wahlen p1, . . . , pn ∈ n

[0, 1] mit pi = 1 dann k¨ ur die W-keit des Er­onnen wir P({ωi}) = pi f¨ i=1

eignisses setzen. ⇒ wir erhalten ein W-maß auf (Ω,(P )(Ω))

k k P(A) = P ({wij }) = pj mit A = {wi1 , . . . , wik }

j=1 j=1

Wahrscheinlichkeitsmaß : Es werden alle Voraussetzungen von einem Maß benotigt und dazu: iii) P(Ω) = 1

Wahrscheinlichkeitsmaß mit α : Sei Ω ein Grundraum, A eine σ-Algebra, P1, . . . , Pn W-maße, α1, . . . , αn Zahlen in [0, 1] mit α1 + · · · + αn = 1

n n ⇒ P := αk Pk ⇒ P (A) = αk Pk(A) A ∈ A

k=1 k=1

Page 15: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

X 14

Wahrscheinlichkeitsmaß mit Integral : Sei Ω = R, A = B(R), f stuckweise stetig + positiv mit f (x)dx = 1 dann definiert:

R

P(A) := A f (x)dx, A ⊂ B(R) ein W-maß auf (R,B(R))

Wahrscheinlichkeitsraum : Das Tripel (Ω,A,P) heißt Wahrscheinlichkeits­raum

Wahrscheinlichkeitstheoretische Interpretationen fur Operationen auf Mengen : Ω = sicheres Ereignis, � = unmogliches Ereignis A ∪ B = A oder B tritt ein , A ∩ B = A und B tritt ein Ac = A tritt nicht ein , A � B = entweder A oder B tritt ein A \ B = A tritt ein und B nicht , A ⊂ B = A zieht B nach sich �

An = fur ein gewisses n ∈ N tritt An ein n=1

n=1 An = fur alle n ∈ N tritt An ein

∞�

n=1 k=n lim n inf (An) := Ak = fur fast alle n ∈ N tritt An ein

n=1

∞�

k=n lim n sup(An) := Ak = fur unendlich viele n ∈ N tritt An ein

ahlen T=R+ als Bereich f¨Wienerprozess : Wir w¨ ur den Zeitparameter. Ein Prozess B=(B(t), t ≥ 0) heißt Wienerprozess falls gilt: i) B(0) = 0 (fast sicher) ii) B hat unabh¨ are Zuw¨angige, station¨ achse iii) der Zuwachs B(t) - B(s), 0 ≤ s ≤ t ist N(0,t-s)-verteiltiv) die Pfade von B sind fast sicher stetigMeist ist es die Dichte ft1 ,...,tn (x1, . . . , xn) in dem Zeitpunkt t1, . . . , tn dergemeinsam verteilten ZVs B(t1), . . . , B(tn) zu kennen. ⇒ Falls 0 < t1 <. . . < tn gilt: ft1 ,...,tn (x1, . . . , xn) = p(t1, x1)p(t2 − t1, x2 − x1) · · · p(tn −

2 tn−1, xn − xn−1) wobei p(t, x) = √ 1 exp(− x

2t ) x ∈ R, t > 0 der soge­2πε

nannte Warmeleitungskern ist

X

Y

Z

Zentraler Grenzwertsatz : Sei (Xn, n ∈ N ) eine Folge von uiv ZVs mit E(X1) = µ und V(X1) = σ ¿ 0. Falls die momenterzeugende Funktion ψX1 auf ganz R endlich und in einer Umgebung des Ursprungs zweimal stetig diffbar ist, dann konvergiert die Folge (Zn, n ∈ N ), definiert durch

√Zn = X1 +···+Xn −nµ , n ∈ N nσ2

Page 16: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

∞�

Z 15

Zufallsvariable : Ist (Ω, A, P ) ein W-raum, so heißt eine meßbare Abbildung X von Ω nach R eine Zufallsvariable

Zufallszahlenalgorithmus : Zn = a·Zn−1+cmodM (Z0 = seed) a, c,M ∈ N = kongruente Generatoren mit c=0 == multiplikativ kongruente oder einfach kongruente Generatoren Lemma: Sei X stetig verteilt mit Dichte fx und Verteilungsfunktion Fx

Fx(x) = −∞

fx(y)dy, x ∈ R. Dann ist die ZV Fx ◦ X auf [0, 1] gleichver­

teilt.Korollar:Sei U eine auf [0, 1] gleichverteilte ZV. Dann hat Fx

−1 ◦U diessel­be Verteilung wie X = Mthode der inversen Verteilungsfunktion = Trans­formationsmethode

Zustandsraum : siehe stochastischer Prozess

ZV : = Zufallsvariable

zweidimensionale Brownsche Bewegung : BBW in der Ebene = 2 BBW: jeweils fur die x- und y-Koordinate: B(t) = (B1(t), B2(t))

zweite Monte-Carlo-Methode : Sei Z=f ◦ X wobei X eine auf [0, 1] gleich­

verteilte ZV. Dann gilt mit dem Transformationssatz E(Z) = �1

0 f (x)dx ⇒

fast sicher 1 n

1

0 f (x)dx

Zylindermenge : ((Ωn, An, Pn)n ∈ N ) Ω = n∈N

Ωn ω ∈ Ω = (ω1, . . . , ωn, . . .)

A = ⊗An mit A = A1 × · · · × An × · · · wobei nur endlich viele An ∈ An

verschieden von Ωn sind ⇒ A = Ω1 ×· · ·×Ai1 ×Ωi+1 ×· · ·×Ai2 ×· · · ⇒ P (A) = Pi1 (Ai1 ) · · · Pik (Aik )

Page 17: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

INHALT 16

Inhalt

A 1a posteriori Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . 1absolut stetig verteilt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1antiton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1Axiom zur σ − Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . 1

B 1Bayes’sche Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1BBW . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1bedingte diskrete Dichte . . . . . . . . . . . . . . . . . . . . . . . . . . 1BE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1bedingte Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1bedingte Erwartung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1bedingte Erwartung (Vorbereitung) . . . . . . . . . . . . . . . . . . . . 1bedingte Erwartung 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 1bedingte Erwartung 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 1Fakt zwischen BE2 und BE3 . . . . . . . . . . . . . . . . . . . . . . . 1bedingte Erwartung 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 10 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Erwartung 11 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . 2Bernoullie-Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . 2Bernoullie-Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . 2Binomialverteilte Zufallsvariable . . . . . . . . . . . . . . . . . . . . . 2Borelmenge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2Brownsche Bewegung . . . . . . . . . . . . . . . . . . . . . . . . . . . 2Brownsche Bewegung Eigenschaften . . . . . . . . . . . . . . . . . . . 3

C 3Cauchyverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3Chapman-Kolmogorov-Gleichung . . . . . . . . . . . . . . . . . . . . . 3charakteristische Funktion von X . . . . . . . . . . . . . . . . . . . . . 3

D 3Dichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3Diracmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3diskret verteilt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3diskrete Gleichverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . 3diskrete Wahrscheinlichkeitsverteilung . . . . . . . . . . . . . . . . . . 3

Page 18: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

INHALT 17

E 4Elementarereignis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4Ereignis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4Ergodenkette f¨ur Markovketten . . . . . . . . . . . . . . . . . . . . . . 4Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4E bei X Bernoulli ZV . . . . . . . . . . . . . . . . . . . . . . . . . . . 4E bei X normalverteilt . . . . . . . . . . . . . . . . . . . . . . . . . . . 4Exponentialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

F 4

G 4Gaußfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4gemeinsame Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4gemeinsame Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . 4gemeinsame Verteilungsfunktion . . . . . . . . . . . . . . . . . . . . . 5geometrische Brownsche Bewegung . . . . . . . . . . . . . . . . . . . . 5geordent ohne Wiederholung . . . . . . . . . . . . . . . . . . . . . . . 5geordent mit Wiederholung . . . . . . . . . . . . . . . . . . . . . . . . 5Gleichverteilung auf [a, b] . . . . . . . . . . . . . . . . . . . . . . . . . 5GM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5GO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5gr¨oßte σ-Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5Grundmenge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

H 5’hit and miss’-Monte-Carlo-Methode . . . . . . . . . . . . . . . . . . . 5Hypothese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

I 5Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5isoton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

J 6

K 6kleinste σ-Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Kodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Konstruktionsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Konvergenz (eidwt) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Korrelation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Kovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6KV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

L 7Laplace-Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Lebesguemaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Lemma i (eidwt) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Lemma ii (eidwt) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Lemma zur bedingten Wahrscheinlichkeit . . . . . . . . . . . . . . . . 7

Page 19: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

INHALT 18

Lemma zu meßbar und Zufallsvariablen . . . . . . . . . . . . . . . . . 7

M 7Markoveigenschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Markovprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Martingal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Martingalkette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7Maß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7ME . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8meßbar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8Methode der kleinsten Fehlerquadrate nach Gauß-Laplace . . . . . . . 8Mittelwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8mittlerer Informationsgehalt . . . . . . . . . . . . . . . . . . . . . . . . 8

¨mittlere Uberaschung . . . . . . . . . . . . . . . . . . . . . . . . . . . 8Moment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8momenterzeugende Funktion von X . . . . . . . . . . . . . . . . . . . . 8Monte-Carlo-Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . 8MTG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

N 8n-tes Moment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8Normalverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

O 8ω . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8Ω . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

P 9Pfad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Poissonprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Poisonverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Produktmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

Q 9

R 9realisiert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

S 9S1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9S2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9S3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9S4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Satz von Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Satz von Bienaym . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Satz von Fubini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Satz von Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Satz von Shannon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Satz zum Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Satz zur Anzahl der M¨oglichkeiten . . . . . . . . . . . . . . . . . . . . 10Satz zur gemeinsamen Verteilung und dem Produktmaß . . . . . . . . 10

Page 20: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

INHALT 19

σ − Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Standardabweichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Starkes Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . . . 11Stetigkeit von W-maßen . . . . . . . . . . . . . . . . . . . . . . . . . . 11(absolut) stetig verteilt . . . . . . . . . . . . . . . . . . . . . . . . . . . 11Stetigkeitslemma von P. Lvy . . . . . . . . . . . . . . . . . . . . . . . 11stochastischer Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . 11Streuung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

T 11Transformationssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

U 12¨Uberraschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12UM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12unabh¨angig (eidwt) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12unabh¨angig (2 Ereignisse) (eidwt) . . . . . . . . . . . . . . . . . . . . 12unabh¨angige standard normalverteilte Zustandsvariable . . . . . . . . 12 uiv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12Unabh¨angigkeit von Zufallsvariablen . . . . . . . . . . . . . . . . . . . 12ungeordent mit Wiederholung . . . . . . . . . . . . . . . . . . . . . . . 12ungeordent ohne Wiederholung . . . . . . . . . . . . . . . . . . . . . . 12unkorreliert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12UO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

V 12Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12Versuchsreihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

W 13W¨armeleitungsgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . 13W¨armeleitungskern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13W-keit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13W-maß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13W-raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13Wahrscheinlichkeitsmaß . . . . . . . . . . . . . . . . . . . . . . . . . . 13Wahrscheinlichkeitsmaß mit α . . . . . . . . . . . . . . . . . . . . . . . 13Wahrscheinlichkeitsmaß mit Integral . . . . . . . . . . . . . . . . . . . 14Wahrscheinlichkeitsraum . . . . . . . . . . . . . . . . . . . . . . . . . . 14Wahrscheinlichkeitstheoretische Interpretationen

ur Operationen auf Mengen . . . . . . . . . . . . . . . . . . . . . 14f¨Wienerprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

X 14

Y 14

Page 21: Stichworte der Wahrscheinlichkeitstheorie - WordPress.com · 2014. 7. 25. · A 1 A a posteriori Wahrscheinlichkeiten : P (B k|A) absolut stetig verteilet : siehe stetig verteilt

INHALT 20

Z 14Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . 14Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15Zufallszahlenalgorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . 15Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15ZV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15zweidimensionale Brownsche Bewegung . . . . . . . . . . . . . . . . . 15zweite Monte-Carlo-Methode . . . . . . . . . . . . . . . . . . . . . . . 15Zylindermenge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15