Upload
others
View
3
Download
0
Embed Size (px)
Citation preview
Martingaltheorie
Vorlesungsmitschrift
Professor Uwe Rosler
31. Januar 2017
Table of Contents
1 Zeitdiskrete Martingale 3
1.0.1 Meine Martingalfavoriten . . . . . . . . . . . . . . . . . 4
2 Martingaltransformierte 13
2.0.2 Filtrationwechsel . . . . . . . . . . . . . . . . . . . . . . 13
2.0.3 Raumtransformationen . . . . . . . . . . . . . . . . . . . 13
2.0.4 Raum der Martingale . . . . . . . . . . . . . . . . . . . 15
2.0.5 Doob Zerlegung . . . . . . . . . . . . . . . . . . . . . . . 15
2.1 Martingaldifferenzfolgen . . . . . . . . . . . . . . . . . . . . . . 16
2.1.1 Transformierte durch vorhersehbare Prozesse . . . . . . 17
2.2 Stoppzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Optional Sampling Theorem revisited . . . . . . . . . . 22
3 Fast sichere Konvergenz 27
3.1 Doob Upcrossing Lemma . . . . . . . . . . . . . . . . . . . . . 27
3.1.1 Fast sichere Konvergenz . . . . . . . . . . . . . . . . . . 30
3.2 Klassische Resultate zur fast sicheren Martingalkonvergenz. . . 30
3.2.1 Kolmogoroff drei Reihen Satz* . . . . . . . . . . . . . . 32
4 L1−Martingale 37
4.1 L1−konvergente Martingale . . . . . . . . . . . . . . . . . . . . 38
4.1.1 Zeitabschluss . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1.2 Regulaere Stoppzeiten . . . . . . . . . . . . . . . . . . . 41
4.1.3 Diverses . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5 Ruckwartsmartingale 45
6 Quadratintegrierbare Martingale 47
1
2 (31. Januar 2017) Table of Contents
7 Exponentielle Martingale 49
7.1 Irrfahrt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
7.2 Exponentielle Martingale . . . . . . . . . . . . . . . . . . . . . 49
8 Konvergenz und Topologie 53
8.1 Konvergenz von W-maßen . . . . . . . . . . . . . . . . . . . . . 53
8.1.1 Gleichgradige Integrierbarkeit . . . . . . . . . . . . . . . 56
8.1.2 Weitere Metriken . . . . . . . . . . . . . . . . . . . . . . 60
8.2 Konvergenz von Zufallsgroßen . . . . . . . . . . . . . . . . . . . 61
1 Zeitdiskrete Martingale
Sei (Ω,A, P ) stets der zugrundeliegende Wahrscheinlichkeitsraum.
Ein stochastischer Prozess ist eine Familie Xt : Ω → E, t ∈ T von Zgn
mit Werten in einem meßbarem Raum (E, σ(E)). E heißt der Zustandsraum
und die Indexmenge T heißt Parameterraum oder auch Zeitparameterraum.
Hintergrund ist, dass T als Teilmenge der reellen Zahlen totalgeordnet ist und
dann die Interpretation Zeit erhalt. Wir benutzen die Notation X = (Xt)t∈T
bzw. (Xt)t bzw. (Xt) fur die Familie.
Sei E eine Eigenschaft von Zgn. Wir sagen ein Prozess X hat die Eigen-
schaft E wenn alle Xn die Eigenschaft haben. Ein Beispiel ist Positivitat oder
Integrierbarkeit.
Ein stochastischer Prozess (Xt)t∈T heißt zu einer Familie At, t ∈ T, von
σ-Algebren adaptiert, falls fur alle t ∈ T die Zg Xt : Ω 7→ E meßbar ist
bezuglich At − σ(E).
Eine Filtration zu einer geordneten Menge (T,≤) ist eine isotone Familie
F = (Ft)t∈T von σ-Algebren aus A. In Formeln, s ≤ t ∈ T ⇒ Fs ⊂ Ft. Ein
filtrierter W-Raum ist ein Tupel (Ω,A,F , P ) wie oben. Die kanonische
Filtration oder naturliche Filtration eines Prozesses X ist die Filtration
Ft := σ(Xs, s ≤ t), t ∈ T gegeben wird durch die kleinste σ-Algebra erzeugt
von allenXs, s ≤ t. Dies ist die kleinste Filtration bzgl. der der Prozeß adaptiert
ist.
Ein Martingal, Submartingal, Supermartingal ist ein Tupel (X,F) =(Xt,Ft)t∈T . Hierbei ist T eine Teilmenge der reellen Zahlen mit der naturli-
chen Ordnung und X ein reellwertiger, integrierbarer stochastischer Prozess
adaptiert zur Filtration F . Es gilt die Martingaleigenschaft (Super-, Sub-)
Xs = E(Xt | Fs) Martingal (1.1)
Xs ≤ E(Xt | Fs) Submartingal (1.2)
Xs ≥ E(Xt | Fs) Supermartingal (1.3)
3
4 (31. Januar 2017) Zeitdiskrete Martingale
f.s. fur alle s ≤ t ∈ T. Die Angabe der Filtration wird haufig weggelassen,
insbesondere wenn immer dieselbe Filtration benutzt wird.
X ist Supermartingal genau dann, wenn −X ein Submartingal ist. Ein
Prozess ist ein Martingal genau dann, wenn er gleichzeitig ein Sub- und ein
Supermartingal ist.
Man unterscheidet zwischen diskreter Zeit, T ⊂ ZZ und stetiger Zeit an-
derenfalls. Die wesentliche mathematische Argumentationslinie ist ersichtlich
fur T ⊂ IN. Daher, ein Standardmartingal (Sub-,Super-) ist ein Martingal
(Sub-,Super-) mit Zeitparameter T = IN0, X0 = E(X1) und A0 die trivia-
le σ-Algebra ∅,Ω.Ist T endlich oder in den naturlichen Zahlen enthalten und X ein Martingal
dazu, so konnen wir X einbetten in ein Standardmartingal Y. Dies geschieht
durch Yn = Xm mit m das Maximum der t ∈ T mit t ≤ n oder t das kleinste
Elment in T. Ebenso verfahre mit der Filtration. Resultate fur das Standard-
martingal ubertragen sich dann auf das Originalmartingal. Ist T nicht von
obiger Struktur, so geschieht die Zuruckfuhrung auf Standardmartingalargu-
mente in der Regel via Stoppzeiten. Dies ist eher technischer Natur und wir
uberschlagen es hier.
Die Martingaleigenschaft (1.1) bzw. die Submartingal- bzw. Supermartin-
galeigenschaft ist im Standardfalle aquivalent zu
Xn = E(Xn+1 | Fn) (1.4)
bzw. ≤,≥ fur alle n ≥ 1. Verwende zum Beweis die Projektionseigenschaft
E(Xn+2 | Fn) = E(E(Xn+2 | Fn+1) | Fn) = E(Xn+1 | Fn) = Xn.
1.0.1 Meine Martingalfavoriten
Wir verwenden stets IN0 als Zeitparameter.
Beispiele 1 (Irrfahrt) Seien Xn, n ∈ IN, unabhangig, identisch verteilte,
integrierbare Zufallsgroßen, Sn =∑n
i=1 Xi die n-te Partialsumme. Dann ist
(Mn)nMn := Sn − nEX1
ein Standardmartingal bezuglich der naturlichen Filtration Fn = σ(S1, . . . , Sn) =
σ(X1, . . . , Xn).
E(Mn+1 | Fn) = Mn + E(Xn+1 − EX1 | Fn) = Mn.
(31. Januar 2017) 5
Beispiele 2 (Exponentielle Martingale) Seien Xn, n ∈ IN, unabhangig,
identisch verteilte Zufallsgroßen mit Sn die n-te Partialsumme. Definiere
Mn(λ) := exp(λSn)/Φn(λ)
mit Φ(λ) := EeλX1 , λ ∈ IR. Die Folge (Mn(λ))n ist ein Standardmartingal
bzgl. der naturlichen Filtration wie eben.
Beispiele 3 (Regulare Martingale) Sei F eine Filtration und X eine inte-
grierbare Zufallsvariable. Dann ist Mn := E(X | Fn) ein Martingal in n.
E(Mn+1 | Fn) = E(E(X | Fn+1) | Fn) = E(X | Fn) = Mn.
Spater werden wir sehen, daß genau die L1-konvergenten Martingale so dar-
stellbar sind.
Beispiele 4 ( Das Martingal) In einem Kasino spielt ein Spieler die Ver-
doppelungsstrategie, in Spielerkreisen auch als Martingalstrategie bekannt. Der
Spieler startet mit einem Einsatz von einem Chip auf einfache Chance (rot-
schwarz oder gerade-ungerade) im ersten Spiel. Verliert er, so verdoppelt er
seinen vorherigen Einsatz im nachsten Spiel. Gewinnt er irgendwann einmal,
so hort er auf. Zu diesem Zeitpunkt n hat er −1− 2− 4− 8− . . .− 2n−1 Ein-
heiten verloren und gewinnt im n-ten Spiel 2n Einheiten. Insgesamt hat er eine
Einheit gewonnen. Da er fast sicher irgendwann einmal gewinnt, erscheint dies
als eine sichere Strategie.
Mathematisches Modell: Seien Yn, n ∈ IN uiv Zg mit Werten in 1,−1und p = P (Y = 1) im offenen Einheitsintervall (0, 1). Sei Sn =
∑ni=1 2
i−1Yi.
Yi = 1 wird interpretiert als Gewinn im i-ten Spiel, Sn als Kapital nach dem
n-ten Spiel bei Anfangskapital 0, sofern der Spieler das n-te Spiel gespielt hat.
Sn ist ein Martingal im Fall p = 1/2, ein Supermartingal im Fall p < 1/2
und anderenfalls ein Submartingal. Sei τ der erste Wert m mit Ym = 1. Auf
der Menge n < τ ist Sn der Gewinn (negative Werte bedeuten Verlust) bis
einschliesslich des n-ten Spieles. Da τ fast sicher endlich ist, gilt Sτ = 1. Zu
dem Zeitpunkt kann er das Kasino mit einer Einheit Gewinn verlassen.
Beispiele 5 (Likelihoodquotient fur Munzwurf) SeienX1, X2, . . . uiv Zgn
mit diskreter Verteilung P = (p(x))x∈E . Sei Q = (q(x))x∈E ein anderes W-maß.
Dann ist
Mn :=
n∏
i=1
q(Xi)
p(Xi),
p(x) > 0 fur alle x vorausgesetzt, ein Martingal bezuglich dem W-mas P und
der naturlichen Filtration
E(Mn+1 | Fn) = MnE(q(Xn+1)
p(Xn+1)| Fn) = Mn.
6 (31. Januar 2017) Zeitdiskrete Martingale
Dieses Beispiel hat Anwendung in der Statistik. Wir wollen entscheiden, ob
die Zgn X1, X2, . . . , Xn eine Verteilung P oder Q haben, P,Q bekannt. Dazu
betrachten wir die Teststatistik Mn : IRn 7→ IR wie oben. lnMn ist eine Sum-
me von uiv Zgn. Nach dem starken Gesetz der Großen Zahl, anwendbar falls
E| ln q(Xi)p(Xi)
| <∞ gilt, konvergiert 1n lnMn gegen EP (ln
q(Xi)p(Xi)
) =∑
x lnq(x)p(x)p(x)
unter P bzw. gegen EQ(lnq(Xi)p(Xi)
) =∑
x lnq(x)p(x)q(x) unter Q. Sind diese Grenz-
werte verschieden, so konnen wir P und Q unterscheiden. Die Grenzwerte sind
verschieden fur P 6= Q, da nach Jensen gilt
EP lnq(Xi)
p(Xi)< lnEP
q(Xi)
p(Xi)= 0
EQ lnq(Xi)
p(Xi)= EQ(− ln
p(Xi)
q(Xi)) > − lnEQ
p(Xi)
q(Xi)= 0.
In der sequentiellen Statistik trifft man bereits eine Entscheidung, wenn lnMn
gewisse Schranken uberschreitet. Damit erreicht man gute Entscheidungen bei
moglichst wenig Beobachtungen.
Beispiele 6 (Radon-Nikodym Ableitung) Seien Q,P zwei W-Maße. Eine
(meßbare) Partition φ von Ω ist eine disjunkte Zerlegung von Ω in (meßbare)
Mengen. (φ ⊂ Pot(Ω),⋃ A∈φA = Ω.) Eine Partition φ1 ist feiner als φ2,
geschrieben φ1 φ2, falls jedes A ∈ φ1 in einem B ∈ φ2 enthalten ist.
Sei φ1 φ2 φ3... eine Folge von verfeinerten, meßbaren Partitionen.
Definiere
Mn :=∑
A∈φn
Q(A)
P (A)1A
n ∈ IN. Der Einfachheit nehmen wir stets P (B) > 0 an. Dann ist M = (Mn)nein Martingal bezuglich P und der Filtration Fn erzeugt von der Partition φn.
EP (Mn+1 | Fn) =∑
A∈φn+1
Q(A)
P (A)EP (1A | Fn)
=∑
B∈φn
∑
B⊃A∈φn+1
Q(A)
P (A)EP (1A | Fn)
=∑
B∈φn
∑
B⊃A∈φn+1
Q(A)
P (A)11BP (A | B)
=∑
B∈φn
∑
B⊃A∈φn+1
Q(A)
P (B)11B
=∑
B∈φn
Q(B)
P (B)11B = Mn
(31. Januar 2017) 7
Beispiele 7 (Polya Urnen Modell) Gegeben sei eine Urne mit S schwarzen
und W weißen Ballen. Es wird zufallig mit Gleichverteilung ein Ball gezogen.
Dann werden insgesamt c ∈ −1, 0, 1, . . . Balle dieser gezogenen Farbe zuruck-
gelegt. Kein Ball wird zuruckgelegt entspricht c = −1, der gezogene Ball wird
zuruckgelegt entspricht c = 0 usw..
Sei Sn,Wn, n ∈ IN, die Anzahl der schwarzen bzw. weißen Kugeln nach der
n-ten Ziehung einschließlich eventuellem Zurucklegen. Dann ist
Mn =Sn
Wn + Sn
ein Martingal bezuglich der naturlichen Filtration. (Fur c = −1 mussen wir
nach W +S Ziehungen stoppen, da kein Ball mehr in der Urne ist.) Mn ist die
bedingte Wahrscheinlichkeit, daß bei der nachsten (= n+ 1-ten) Ziehung eine
schwarze Kugel gezogen wird, bedingt auf der Kenntnis der bisher gezogenen
Kugeln.
Mathematisches Modell: Sei Xn die Farbe, kodiert als 1 fur ’schwarz’
und 0 fur ’weiß’, der gezogenen Kugel in der n-ten Ziehung. Die Filtration ist
Fn = σ(X1, . . . , Xn). Die Zg Mn schreibt sich als, Zn :=∑n
i=1 Xi,
Mn = P (Xn+1 = 1 | An) =S + cZn
W + S + nc.
Mn ist ein Martingal, da
E(Mn+1 | Fn) =S + cZn + cE(Xn+1 | Fn)
W + S + (n+ 1)c
=S + cZn + c S+cZn
W+S+nc
W + S + (n+ 1)c= . . . = Mn.
Das Polya Urnen Modell laßt sich auch fur c ∈ [−1,∞) spielen. Es werden
stets ⌊c⌋ Balle der gezogenen Farbe zuruckgelegt und, abhangig von einem
unabhangigen Bernoullizufallsexperiment zum Parameter c− ⌊c⌋, eine weitere
der Farbe.
Beispiele 8 (Verzweigungsprozesse) Historischer Ausgangspunkt fur die
Verzweigungsprozesse war die Genealogie, insbesondere die Uberlebenswahr-
scheinlichkeit eines Familiennamens. Als Nachkommen (Kinder) zahlen wir hier
nur die mannlichen Nachkommen, die den Familiennamen tragen und weiterge-
ben konnen. Die Anzahl dieser Nachkommen sei unabhangig mit stets gleicher
Verteilung. Uns interessiert die Große der n-ten Generation.
8 (31. Januar 2017) Zeitdiskrete Martingale
Mathematisches Modell: Seien Xi,j , i, j ∈ IN0, uiv Zgn mit Werten in IN0,
0 < E(X•) =: m < ∞. Der Bienayme-Galton-Watson (BGW) Prozess Z wird
rekursiv definiert durch Z0 = 1,
Zn+1 =
Zn∑
j=1
Xn,j .
Dann ist ( Zn
mn )n ein Martingal bezuglich der Filtration Fn = σ(Xi,j , i < n, j ∈IN, ) (oder auch der naturlichen Filtration).
Die Große Xn,j gibt die Anzahl der Nachkommen des j-ten Individuums
der n-ten Generation an. Zn entspricht der Anzahl der Namensvertreter in der
n-ten Generation. Ein ’typischer’ Stammbaum sieht etwa folgendermaßen aus:
s s s s s s s s s s s
s s s s s
s ss
s
❯
❯
❯
❯
s
PPPPPPPPPPPPPq21 3
11 12 13 31 32
312
Beispiele 9 (Gewichteter Verzweigungsprozess) Jedes Individuum eines
Verzweigungsprozesses tragt zusatzlich ein zufalliges Gewicht. Dies ist das Ge-
wicht der Mutter multipliziert mit einer Zufallsgroße.
Mathematisches Modell: Wir betrachten einen gerichteten Graphen (V,E).
Die Knotenmenge ist
V :=
∞⋃
n=0
INn, IN0 := ∅.
Wir benutzen fur v = (v1, ..., vn) ∈ V die Notation vi = (v1, ..., vn, i) und |v| =n, |∅| = 0, v|m = (v1, . . . , vm). (Die Kanten e ∈ E sind die Tupel e = (v, vi).)
Seien T (v) : Ω → IRIN , v ∈ V , uiv Zgn. Beachte fur festes v konnen
die Koordinaten T1(v), T2(v), . . . voneinander abhangig sein. Definiere rekursiv
L(v) : Ω 7→ IR durch L(∅) = 1 und
L(v, i) = L(v)Ti(v).
(31. Januar 2017) 9
Hieraus ergibt sich die Produktdarstellung
L(v) =n∏
i=1
Tvi(v|i−1) = Tv1
(∅)Tv2(v1)...Tvn
(v1, . . . , vn−1).
Sei Zn =∑
v||v|=n L(v). Dann ist fur m 6= 0
Wn :=Zn
mn,
0 6= m := E∑
i Ti(.) wohldefiniert, ein Martingal.
V gibt eine naturliche Indizierung des Baumes mit unendlich vielen Asten.
Die Großen L(v) geben das Gewicht des Individuums v an. Der BGW-Verzweigungsprozess
ist ein Spezialfall mit L(v) = 1 oder L(v) = 0. In der Zeichnung haben wir In-
dividuen mit Gewicht Null weggelassen.
Beispiele 10 (Zufallige Cantormengen) Als spezielles Beispiel fur einen
gewichteten Verzweigungsprozeß betrachten wir die Hausdorffdimension von
zufalligen Cantormengen.
Eine (die) Cantormenge wird folgendermaßen konstruiert: Aus dem Ein-
heitsintervall entferne das mittlere Drittel. Aus den verbliebenen Intervallen
entferne ebenfalls das mittlere Drittel usw.
t t t t0 a b 1
r r r r r r r r
♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣
♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣
Cantorset Cantorset Can Cantorset Cantorset Can
Es bleibt eine Menge C ubrig, genannt die Cantormenge.
Wir wollen diese Konstruktion nun zufallig machen. Anstelle von 1/3, 2/3
wahlen wir zufallig, aber zu gegebener Verteilung, zwei (oder auch mehrere)
Punkte aus und entfernen das mittlere (einige) Intervall. Fur jedes verbleibende
Intervall wiederholen wir diese Prozedur auf kleinerer Skala unabhangig, aber
mit derselben Verteilung. Die ubrigbleibende Menge C = C(ω) ist eine zufallige
Cantormenge.
Wir denken uns die Prozedur als Baum dargestellt wie oben mit der naturli-
chen Indizierung durch V. Sei L(v) die Lange des Intervalls v. Die Faktoren
T1(v), T2(v), .. geben die jeweilige relative Lange der verbleibenden Intervalle
bei Aufspaltung des Intervalls v. Fur die deterministische Cantormenge gilt
T1(.) ≡ 1/3 = T2(.), T3 = 0 = T4 = ...
10 (31. Januar 2017) Zeitdiskrete Martingale
t t t t0 T1(∅) 1− T2(∅) 1
Als nachstes klaren wir den Zusammenhang zur Hausdorffdimension und
Hausdorffmaß.
Sei A eine beliebige Menge in IR (metrischer Raum). Eine offene δ- Uber-
deckung von A ist eine Familie Un, n ∈ IN , von offenen Mengen mit Durch-
messer diam(Un) < δ, die A uberdeckt (A ⊂ ⋃
n Un). Fur α > 0, δ > 0,
sei Hαδ (A) = inf∑n diam
α(Un), das Infimum uber alle δ-Uberdeckungen
genommen. Das α-Hausdorffmaß von A ist: Hα(A) = limδ→0Hαδ (A). Das α-
HausdorffmaßHα kann denWert unendlich annehmen. Die Hausdorffdimension
ist das kleinste α mit endlicher α-Hausdorffdimension,
H(A) = infα|Hα(A) <∞.
Fur unsere zufalligen Cantormengen bietet sich als Uberdeckung die n-te
Generation an (modifiziert zur offenen δ-Uberdeckung!). Der Wert
S(α)n :=
∑
|v|=n
Lα(v)
ist eine erste Annaherung (im Grenzwert exakt) an das α-Hausdorfmaß.
Eine besondere Rolle spielt der Wert αmit E(Tα1 +Tα
2 ) = 2. Fur α <(=,>) α
ist S(α)n ein Submartingal (Martingal, Supermartingal). Der Wert α ist (f.s.) die
Hausdorffdimension einer zufalligen Cantormengen C, falls C nicht die Null-
menge ist. Der Grenzwert limn→∞ S(α)n ist das α-Hausdorff-Maß der zufalligen
Cantormenge.
Dieses Ergebnis laßt sich auch auf die Cantormenge selbst anwenden. Die
Zven T. sind deterministisch (1/3, 2/3). Die Hausdorff-Dimension α = ln 2/ ln 3
erhalt man durch Losen der Gleichung(13
)α+(13
)α= 1 nach α.
Beispiele 11 (Aktien) Der Aktienkurs Xn wird gerne als Martingal model-
liert. Ein Handler kauft am n-ten Tag Cn Aktien. Am folgenden Tag hat er den
Wert Cn(Xn+1 −Xn) dazugewonnen. Der Prozess
Mn :=
n−1∑
i=1
Ci(Xi+1 −Xi)
ist ein Martingal, vorausgesetzt jede Handelsentscheidung Cn ist Fn-meßbar.
(Dies ist die mathematische Formulierung fur keine Insiderinformation.)
(31. Januar 2017) 11
Beispiele 12 (Spielhauser) Ein Spieler geht in ein Kasino mit mehrfachem
Spielangebot wie z.B. Roulette und Black Jack. Zur Einfachheit sei die Zeit
getaktet. Zu Beginn jeden Zeittaktes kann der Spieler frei ein Spiel auswahlen
und es einmal zu erlaubtem Einsatz spielen. Dieser Vorgang einschießlich Aus-
zahlung wird in einem Zeittakt abgeschlossen. Sei Kn das Spielerkapital zum
n-ten Zeitpunkt.
Der Spieler mochte seinen Gewinn KN nach genau N Zeittakten maximie-
ren, z.B im Sinne vom Erwartungswert, oder der Wahrscheinlichkeit minde-
stens einen bestimmten Betrag zu haben. Welche Strategie, d.h. Auswahl der
Teilspiele, ist die beste? Dieses Problem, behandelt in Dubins-Savage, How to
gamble if you must, fuhrt auf die Konstruktion spezieller Martingale. In der
Sektion uber optimales Stoppen behandeln wir den Spezialfall mit nur zwei
Optionen, weiterspielen oder stoppen.
12 (31. Januar 2017) Zeitdiskrete Martingale
2 Martingaltransformierte
Unser Grundraum ist ein filtrierter W-raum (Ω,A,F , P ) mit einer Filtrati-
on F = (Fn)n∈IN0. Alle betrachteten Prozesse X = (Xn)n∈IN0
sind adaptiert
und integrierbar. Mit M=,M≤,M≥ bezeichnen wir die Menge der Martin-
gale (Sub-, Super-) mit Zeitparameter IN0 zur Filtration F . Da die Filtration
meistens als fest angenommen wird und sich nicht verandert, wird sie in For-
mulierungen haufig weggelassen. Zum Beispiel, ist X ein Submartingal, so ist
−X) ein Supermartingal (zu derselben Filtration).
Wir betrachten und formulieren Resultate meistens fur Submartingale, ent-
sprechendes gilt dann fur Supermartingale.
2.0.2 Filtrationwechsel
Fur einen Wechsel in eine Subfiltration gilt:
Proposition 13 Sei (X,F) ein Martingal (Sub-, Super-). Sei X adaptiert zu
einer Unterfiltration B = (Bn)n mit Bn ⊂ Fn. Dann ist (X,B) ein Martingal
(Super-, Sub-).
Beweis: Fur B ∈ Bn gilt
∫
B
E(Xn+1 | Bn) =∫
B
Xn+1 =
∫
B
E(Xn+1 | Fn) =≥,≤
∫
B
Xn
und damit E(Xn+1 | Bn) =≥,≤ Xn. q.e.d.
2.0.3 Raumtransformationen
Eine lineare Raumtransformation auf den reellen Zahlen belaßt ein Martingal
als ein Martingal und ein Submartingal, wird je nach Vorzeichen der Steigung,
zum Sub- oder Supermartingal. Bei konvexen Funktionen hilft der Satz von
Jensen.
13
14 (31. Januar 2017) Martingaltransformierte
Eine Funktion ϕ : I 7→ IR∪ ∞ mit I ein Intervall heist konvex , falls fur
alle x 6= y ∈ I, t ∈ (0, 1) und tx+ (1− t)y ∈ I gilt
ϕ(tx+ (1− t)y) ≤ tϕ(x) + (1− t)ϕ(y).
Sie heist strikt konvex, falls in obiger Ungleichung stets < gilt.
Eine Funktion ϕ : IR → IR ∪ −∞ heist (strikt) konkav genau dann,
wenn −ϕ (strikt) konvex ist.
i) Im Inneren von I ist eine konvexe Funktion ϕ ist stetig und es existieren
die linksseitige Ableitung ϕ− und die rechtsseitige Ableitung ϕ+. Beide sind
aufsteigend und ϕ− ≤ ϕ+ und verschieden an hochstens abz ahlbar vielen
Punkten.
Satz 14 (Jensen Ungleichung) Sei X eine integrierbare Zg, B ⊂ A eine
Unter-σ-Algebra und ϕ eine konvexe Funktion mit ϕ(X) wohldefiniert und in-
tegrierbar. Dann gilt
ϕ(E(X | B)) ≤ E(ϕ(X) | B)Gleichheit gilt genau dann, wenn ϕ linear ist auf einer Menge D mit P (X ∈D) = 1.
Als Merkregel: Falscher Effee Eϕ ≥ ϕE (wie fur die Jensensche Ungleichung).
Lemma 15 Sei M ein Martingal und ϕ eine konvexe (konkave) Funktion mit
ϕ(Mn) integrierbar fur jedes n. Dann ist ϕ(M) = (ϕ(Mn))n ein Submartingal
bzgl. derselben Filtration.
Sei X ein Submartingal. Sei ϕ eine aufsteigende konvexe Funktion und
ϕ(Xn) integrierbar fur jedes n. Dann ist ϕ(X) ein Submartingal.
Sei X ein Supermartingal. Sei ϕ eine absteigende konvexe Funktion und
ϕ(Xn) integrierbar fur jedes n. Dann ist ϕ(X) ein Submartingal.
Beweis: Fur ein Martingal M und ϕ konvex gilt
E(ϕ(Mn+1) | An) ≥ ϕ(E(Mn+1 | An)) = ϕ(Mn)
Fur ein Submartingal X und ϕ konvex aufsteigend gilt
E(ϕ(Xn+1) | An) ≥ ϕ(E(Xn+1 | An)) ≥ ϕ(Xn)
Fur ein Supermartingal X und ϕ konvex absteigend gilt ebenfalls die obige
Zeile. q.e.d.
Das obige Lemma sieht nach einem Symmetriebruch bzgl. Sub- und Super-
martingalen aus. Dies ist nicht der Fall. Gewisse Symmetrie erhalten wir, wenn
wir eine konvexe Funktion ϕ durch die konkave Funktion −ϕ ersetzen.
X ∈M≤, ϕ konkav ↓⇒ ϕ(X) ∈M≥
(31. Januar 2017) 15
X ∈M≥, ϕ konkav ↑⇒ ϕ(X) ∈M≥
Notation: Der Positivteil einer Funktion f is f+ = f ∨0 und der Negativteil
f− = (−f) ∨ 0. Beachte f− ist positiv und f = f+ − f , |f | = f+ + f−.
Beispiele: i) Fur ein Martingal M sind M+ := (M+n )n und M− = (M−
n )nSubmartingale zur gleichen Filtration. Fur jedes p ≥ 1 ist |M |p = (|Mn|p)nund fur jedes λ ≥ 0 ist eλM ein Submartingal.
ii) Ist X ein Submartingal, so auch X+ und eλX fur positive λ. Jedoch X−
ist im allgemeinen weder ein Sub- noch ein Supermartingal.
iii) Ist X ein Supermartingal, so sind X− und eλX fur λ ≤ 0 Submartingale.
X+ ist im allgemeinen weder ein Sub- noch ein Supermartingal.
Auch wenn der Positivteil bzw. Negativteil keine schone Martingaleigen-
schaft besitzt, last sich das erste absolute Momente gut abschatzen.
Proposition 16 Fur ein Submartingal X gilt
2EX−n + x0 ≤ E|Xn| ≤ 2EX+
n − x0
und fur ein Supermartingal
2EX+n − x0 ≤ E|Xn| ≤ 2EX−
n + x0.
Beweis: Die erste Abschatzung erhalten wir aus x0 ≤ EXn = EX+n − EX−
n
und E|Xn| = EX+n + EX−
n durch einsetzen. Die zweite folgt analog. q.e.d.
2.0.4 Raum der Martingale
Durch Addition, Supremumsbildung, Infimumsbildung und Anwendung konve-
xer Funktionen lassen sich weitere (Super–, Sub–) Martingale erzeugen.
Lemma 17 i) Der RaumM= der Martingale ist ein reeller Vektorraum.
ii) Der Raum M≤ (M≥) der Submartingale (Super-) ist abgeschlossen
bezuglich Addition, Multiplikation mit positiver Konstanten und dem endlichen
Supremum (Infimum).
Beweis: Leicht nachzurechnen. q.e.d.
2.0.5 Doob Zerlegung
Ein vorhersehbarer Prozeß zu einer Filtration F = (Fn)n∈IN0ist ein adap-
tierter Prozeß X = (Xn+1)n∈IN0. Dies ist zu verstehen mit Xn+1 ist Fn meßbar
fur alle n ∈ IN0. Aus schreibtechnischen Grunden wird manchmal X0 := X1
mit hinzugenommen.
16 (31. Januar 2017) Martingaltransformierte
Lemma 18 (Doob Zerlegung) Sei X ein Submartingal (Super-). Dann exi-
stiert genau ein Martingal M und genau ein vorhersehbarer, monoton aufstei-
gender (absteigender) Prozeß A mit A0 ≡ 0 und
Xn = Mn +An.
Der Prozess A wird rekursiv gegeben durch
An+1 = An + E(Xn+1 | An)−Xn.
Beweis: • An wie oben definiert tut’s.
An ist wohldefiniert, monoton steigend (fallend) und vorhersehbar.
Eine Rechnung zeigt die Martingaleigenschaft von Mn := Xn −An,
E(Mn+1 | Fn) = E(Xn+1−An+1 | Fn) = E(Xn+1 | Fn)−An+1−Xn+Xn = −An+Xn = Mn.
• Eindeutigkeit.Sei Xn = Mn+An eine zweite Zerlegung mit den obigen Eigenschaften. Wir
zeigen durch Induktion nach n Mn = Mn und An = An. Der Induktionsanfang
ist leicht. Wir zeigen den Schritt n→ n+ 1.
• An+1 = An+1.
An+1 = E(An+1 | Fn) = E(Xn+1 −Mn+1 | Fn)
= E(Xn+1 | Fn)−Mn = E(Xn+1 | Fn)−Mn
= E(Xn+1 −Mn+1 | Fn) = E(An+1 | Fn) = An+1
Hieraus folgt sofort Mn+1 = Mn+1. q.e.d.
2.1 Martingaldifferenzfolgen
Eine Martingaldifferenzfolge (Sup-, Super-) zu einer Filtration F ist ei-
ne Folge D = (Dn)n∈IN von adaptierten und integrierbaren Zgn mit 0 =≤,≥
E(Dn | Fn−1), n ∈ IN. Wir verwenden die Kurznotation D = (Dn)n.
Jede Martingaldifferenzfolge (Sup-Super-) D zur Filtration F liefert via
Xn =n∑
i=0
Di +X0 (2.1)
ein Martingal, (Sub-, Super-) bzgl. derselben Filtration. Umgekehrt, sei X ein
Martingal (Sup-,Super-), so ist die Differenzfolge Dn := Xn − Xn−1, n ∈ IN
eine Martingaldifferenzfolge zur selben Filtration und es gilt (2.1). Wir sprechen
von der Martingaldifferenzfolge D (Sub-, Super-) des Martingals (Sub-, Super-)
X.
2.1. Martingaldifferenzfolgen (31. Januar 2017) 17
Satz 19 Sei die Filtration F und eine reelle Zahl x vorgegeben. Es gibt ei-
ne bijektive Abbildung zwischen Martingaldifferenzfolgen (Sub-, Super-) D und
Martingalen (Sub-, Super-) mit Anfangswert x jeweils zur Filtration F . Diese
kann gegeben werden durch
Xn =
n∑
i=1
Di + x.
Beweis: Leicht. q.e.d.
2.1.1 Transformierte durch vorhersehbare Prozesse
Die Martingaltransformierte eines Martingals (Sub-, Super-) X zu einem
vorhersehbaren Prozeß C = (Cn)n∈IN ist der Prozess XC
XCn :=
n∑
i=1
CiDi +X0
n ∈ IN0. Hierbei ist Dn := Xn −Xn−1 die zugehorige Martingaldifferenzfolge.
Einige Autoren benutzen die Notation C ·X bzw. C ∗X fur XC .
Fur reellwertige Funktionen f, g (oder Vektoren) benutzen wir (fg)(x) :=
f(x)g(x).
Satz 20 Sei M ein Martingal und C vorhersehbar. Ist CD integrierbar, so ist
die Martingaltransformierte MC ein Martingal.
Sei X ein Submartingal (Super-) und sei C vorhersehbar und positiv. Falls
CD integrierbar ist, so ist die Martingaltransformierte XC ein Submartingal
(Super-).
Beweis: Die Martingaltransformierte MC ist adaptiert zur Filtration und inte-
grierbar, da die einzelnen Terme CiDi Fi meßbar und integrierbar sind.
Die Martingaleigenschaft wird nachgerechnet
E(MCn+1 | Fn) = E(
n+1∑
i=1
CiDi +M0 | Fn) = MCn + Cn+1E(Dn+1 | Fn) = MC
n .
Eine analoge Argumentation halt fur Sub- und Supermartingale. q.e.d.
Korollar 21 Sei M ein Martingal und C ein vorhersehbarer Prozess mit CD
integrierbar. Dann ist der Erwartungswert der Martingaltransformierten eine
Konstante.
Sei X ein Submartingal (Super-) und C ein positiver vorhersehbar Prozess
mit CD integrierbar. Dann ist der Erwartungswert EXCn monoton steigend
(fallend) in n.
18 (31. Januar 2017) Martingaltransformierte
Beweis: Wir zeigen nur den Martingalfall. Die anderen beiden Aussagen folgen
analog.
EMCn =
∑
i≤n
E(E(CiDi | Fi−1)) +M0 =∑
i≤n
E(CiE(Di | Fi−1)) +M0 = M0.
q.e.d.
Die punktweise Ordnung auf dem Raum der Prozesse ist die Ordnung
(Xt)t∈T (Yt)t∈T ⇔ Xt(ω) ≤ Yt(ω)
fur alle t ∈ T, ω ∈ Ω.
Lemma 22 Sei X ein Submartingal (Super-) und A B zwei vorhersehbare
positive Prozesse. Sei D die Differenzfolge und AD, BD integrierbar. Dann
gilt fur alle n ∈ IN0
EXAn ≤ (≥)EXB
n .
Beweis: Der Induktionanfang XA0 = X0 = XB
0 ist einfach. Fur den Induktions-
schritt n→ n+ 1 argumentiere
E(XBn+1−XA
n+1 | Fn) = XBn −XA
n +(Bn+1−An+1)E(Dn+1 | Fn) ≥ (≤)XBn −XA
n
Nehme auf beiden Seiten den Erwartungswert und verwende die Induktionshy-
pothese. q.e.d.
Kasinospieler: Ein Spieler spielt eine endliche Folge von (unabhangigen)
Spielen mit zufalligem Ausgang D1, D2, , . . . , DN in einem Spielkasino. Dabei
gebe Di die positive oder negative Auszahlung im i−ten Spiel bei Einsatz einer
Einheit ab. Der Spieler darf (=mus) den Einsatz Cn fur das n−te Spiel vor demn-ten Spiel bestimmen. Ublicherweise einen positiven Einsatz und nicht mehr
als er besitzt. (Es sei denn, man handelt an der Borse.) Hierbei kennt der Spieler
die σ-Algebra der gesamten Vergangenheit bis vor dem n-ten Spiel. In der Regel
ist dies die kanonische σ-Algebra σ(D1, . . . , Dn−1) = An−1 erzeugt von allen
Spielergebnisse bis zu diesem Zeitpunkt. Der von ihm gewahlte Einsatz Cn ist
daher An−1 mesbar, die Folge (Cn) ist vorhersehbar. Die Folge (Cn) heist auch
Strategie des Spielers.
Sei Kn sein Kapital nach dem n-ten Spiel, K0 ∈ IR+ sein Anfangskapital.
Nach dem n−ten Spiel betragt sein Kapital KCn unter der Strategie C
KCn =
n∑
i=1
CiDi +K0.
2.1. Martingaldifferenzfolgen (31. Januar 2017) 19
Der Spieler mochte moglichst viel gewinnen. Ein Kriterium ware, den Erwar-
tungswert EKCN zu einem festgesetzten Zeitpunkt N zu maximieren. Mathe-
matisch gesehen fuhrt dies auf
supC
EKCN
uber alle erlaubten Strategien C.
Faire Spiele: Alle Spiele Di seien fair, d.h.
E(Di | Ai−1) = 0.
Dann ist (KCn ) eine Martingaltransformierte zur Martingaldifferenz D und dem
vorhersehbaren Prozess C. Der Erwartungswert EKCn ist konstant K0 fur jedes
n und jede Strategie C liefert (20)
EKCn = K0.
Anders formuliert, alle Aktionen des Spielers haben keinen Einfluß auf sein
durchschnittlich erspieltes Kapital!
Bei fairen Spielen spielt der Spieler Dummy.
Nachteilige Spiele: Alle Spiele seien subfair (nachteilig) im Sinne
E(Dn | An−1) ≤ 0
aus Sicht des Spielers gesehen. Das Kapital KCn unter der gewahlten Strategie
C ist jetzt ein Submartingal und das erwartete Kapital E(KCn ) nach der n-ten
Runde fallt in n. Mit der Erhohung der Einsatze sinkt der Erwartungswert.
Im Sinne der Erwartungswertmaximierung von EKCN sollte der Spieler mit
moglichst geringen Einsatzen spielen. Der Einsatz stets Null entspricht garnicht
zu spielen. Selbst das Spielen einer einzigen Runde mit strikt positivem Einsatz
kann schon nachteilig fur ihn sein.
Da dies ein Nullsummenspiel ist, was der eine verliert gewinnt der andere,
profitiert das Spielkasino und wird infolgedessen versuchen den Spieler zum
Spielen zu animieren.
Vorteilhafte Spiel: Alle Spiele seien superfair (vorteilhaft) im Sinne
E(Dn | An−1) ≥ 0
aus Sicht des Spielers gesehen. Das Kapital KCn unter der gewahlten Strategie
C ist jetzt ein Supermartingal und das erwartete Kapital E(KCn ) nach der n-
ten Runde steigt in n. Es steigt auch mit Erhohung der Einsatze. Im Sinne der
20 (31. Januar 2017) Martingaltransformierte
Erwartungswertmaximierung von EKCN sollte der Spieler moglichst viel mit
grosen Einsatzen spielen, namlich stets und alles einsetzen. (Dies fuhrt auf das
Petersburger Spiel, auf unendliche Sicht gesehen geht man pleite.)
Fur das Spielkasino sind solche Spiele nachteilig, aber trotzdem gibt es
solche tatsachlich im Spielkasino [?]. Mehr hierzu in dem Kapitel uber Kasino-
spiele.
Verschiedene Spiele: Und was macht der Spieler, wenn es Spiele Di gibt,
die nachteilig sind und solche die vorteilhaft sind? Er sucht sich die fur ihn
vorteilhaften aus. Bei diesen setzt er moglichst viel (=alles), bei den anderen
moglichst wenig (=nichts). Es reicht ihm, nur bei strikt vorteilhaften Spielen
(EDi > 0) alles zu setzen.
2.2 Stoppzeiten
Wir betrachten Stoppzeiten und Zeittransformationen durch eine Folge von
Stoppzeiten. Stoppzeit ist ein wesentlicher Begriff fur stochastische Prozesse
und Wahrscheinlichkeitstheorie.
Eine Abbildung τ : Ω 7→ IN0 heißt Stoppzeit bzgl. der Filtration F , fallsfur alle n ∈ IN0 gilt:
τ ≤ n ∈ Fn. (2.2)
Wir benutzen in naturlicher Weise erweiterte bzw. beschrankte Stoppzeiten,
falls der Bildbereich erweitert (= N0) oder beschrankt ist. Ergibt sich die Fil-
tration aus dem Kontext oder ist die kanonische Filtration eines bekannten
Prozesses gemeint, so entfallt die Angabe der Filtration. Standardmaıg ver-
wenden wir F0 als triviale σ-Algebra und lassen τ = 0 zu. (Dies impliziert
dann τ ≡ 0 oder τ > 0 f.s..) Stoppzeiten bezeichnen wir stets mit griechischen
Buchstaben wie τ oder σ.
Die konstante Abbildung ist eine Stoppzeit.
Proposition 23 Sei F eine Filtration und τ eine Stoppzeit dazu. Aquivalent
sind
i) τ ist eine erweiterte Stoppzeit.
ii) ∀n ∈ IN0 : τ = n ∈ Fn.
iii) ∀n ∈ IN0 : τ > n ∈ Fn.
Beweis: Einfach. i)⇔ ii) Fur die Hinrichtung benutze τ = n = τ ≤ n\τ ≤n − 1 ∈ Fn, da τ ≤ n ∈ Fn und τ ≤ n − 1 ∈ Fn−1 ⊂ Fn gilt. Die
Ruckrichtung ergibt sich aus τ ≤ n = ⋃ni=0τ = i.
ii) ⇔ iii) Dies ergibt sich aus τ > n = Ω\τ ≤ n ∈ Fn q.e.d.
2.2. Stoppzeiten (31. Januar 2017) 21
Sei T = T (Ω,A, P,F)) die Menge der Stoppzeiten zu der vorgegebenen
Filtration F , T zu den erweiterten Stoppzeiten.
Proposition 24 Der Raum der Stoppzeiten T ist abgeschlossen bezuglich abzahl-
barem Infimum, endlichem Supremum und endlicher Summe. Der Raum der
erweiterten Stoppzeiten T ist abgeschlossen bezuglich abzahlbarem Infimum,
abzahlbarem Supremum und abzahlbarer Summe.
Beweis: Sei τi, i ∈ IN eine abzahlbare Folge von Stoppzeiten. Das abzahlbare
Infimum bzw. Supremum erfullt die Stoppzeiteigenschaft, da gilt
infiτi ≤ n =
⋃
i
τi ≤ n ∈ Fn, supi
τi ≤ n =⋂
i
τi ≤ n ∈ Fn.
Es verbleibt nachzuprufen, unter welchen Bedingungen das Infimum oder Su-
premum wieder eine Stoppzeit oder erweiterte Stoppzeit im jeweiligen Raum
ist.
Die Summe von zwei Stoppzeiten τ1, τ2 ist eine Stoppzeit wegen
τ1 + τ2 ≤ n =n∑
i=0
(τ1 = i ∩ τ2 ≤ n− i) ∈ Fn
fur alle n. Fur die abzahlbare Summe argumentiere
∑
i
τi ≤ n = limN→∞
∑
i≤N
τi ≤ n ∈ Fn.
q.e.d.
Warnung: Die Differenz von Stoppzeiten ist im allgemeinen keine Stopp-
zeit. (Ubung mit τ − 1.)
Das Standardbeispiel einer erweiterten Stoppzeit fur einen stochastischen
ProzessX mit Werten in (E, E) sind erste Eintrittszeiten (bzw. Austrittszeiten)
aus einer (meßbaren) Menge B ∈ E aus dem Zustandsraum
τB(ω) := infn : Xn(ω) ∈ B = infn : Xn(ω) 6∈ B.
Wir benutzen die Konvention inf ∅ :=∞.
Heuristik: Eine Stoppzeit ist eine genaue Handlungsanweisung fur jede
auftauchende Situation, die so genau definiert ist, dass ein Rechner diese ausfuhren
konnte. Diese Handlungsanweisung wird gegeben bevor die Situation eintritt.
Aktien: Wann sollte ein Spieler eine Aktie verkaufen? Dies ist ein Stopp-
problem. Abhangig von der Information bis zum Zeitpunkt n, grob gesagt der
Historie der Aktienkurse Xm, m ≤ n bis zu diesem Zeitpunkt, entscheidet sich
der Spieler fur halten oder abstoßen. Der Verkaufszeitpunkt ist eine Stoppzeit,
z.B. wenn der Wert Xn eine vorgegeben Schranke uberschreitet.
22 (31. Januar 2017) Martingaltransformierte
2.2.1 Optional Sampling Theorem revisited
Sei (X,F) ein adaptierter Prozess und τ eine Stoppzeit bzgl. der gegebenen
Filtration. Der Prozeß
Xτ := (Xn∧τ )n (2.3)
mit a ∧ b = mina, b, (Xτ∧n)(ω) := (Xn∧τ(ω))(ω) heißt gestoppter Prozeß.
Der Prozess Xτ laßt sich auch als transformierter Prozess XCn sehen bzgl.
dem vorhersehbaren Prozess C = (Cn)n definiert durch Cn := 11n≤τ . Der C-
transformierte Prozeß XC erfullt
XCn =
n∑
i=1
CiDi + x0 =n∧τ∑
i=1
Di + x0 = Xτ∧n
mit Di = Xi −Xi−1 die Differenzen und xo = X0.
Korollar 25 (Optional Sampling Theorem 2) Sei (X,F) ein Martingal
(Sub-, Super-) und τ eine erweiterte Stoppzeit. Dann ist ((Xτ∧n)n,F) ein Mar-
tingal (Sub, Super-). Die Funktion
n 7→ E(Xτ∧n)
ist eine konstante (aufsteigende, absteigende) Funktion.
Fur Stoppzeiten τ ≤ σ und Submartingale (Super-) gilt
EXτ∧n ≤≥ EXσ∧n
Beweis: Die erste Aussage folgt aus Theorem 21 mit der Darstellung Xτ∧n =
XCn . Die zweite aus der ersten und die dritte aus Lemma 22. q.e.d.
Kartenraten: Gegeben sei ein verdeckter Stapel gut gemischter Karten
mit je 26 roten und 26 schwarzen Karten, ein normales Bridgeblatt (Rommee-
oder Canasta-). Der Spieler gewinnt genau dann, wenn er eine rote Karte richtig
vorhersagt nach folgender Prozedur:
• Falls er die oberste zugedeckte Karte als”Rot “vorhersagen mochte, be-
kommt er sie. Ist es eine rote, hat der Spieler gewonnen, sonst verloren.
• Falls nicht wird die oberste Karte gezogen, gezeigt und beiseite gelegt.
Neustart mit dem Reststapel.
• Falls der Spieler keine Karte bis zur letzten wahlt, bekommt er die letzte
zugewiesen.
2.2. Stoppzeiten (31. Januar 2017) 23
Gefragt wird nach einer Strategie (=Stoppzeit), die seine Gewinnwahrschein-
lichkeit optimiert bzw. echt großer als 1/2 macht.
Heuristik: Wenn der Spieler die erste Karte vorhersagen mochte, hat er
eine Gewinnwahrscheinlichkeit von genau 12 . Dasselbe gilt fur die letzte Karte
aus Symmetrie. Die letzte Karte bekommt er auch, falls er vorher keine Vorher-
sage machen wollte. Falls der Spieler also keine bessere Wahl vorher findet, so
kann er stets auf diese letzte Karte zuruckgreifen. Was immer auch wahrend der
Ziehphase geschieht, die letzte Karte wird wahrend der Auswahlprozedur nicht
verandert und behalt damit ihre Wahrscheinlichkeit von 1/2, rot zu sein. Der
Spieler kann folglich stets eine Gewinnwahrscheinlichkeit von 1/2 garantieren.
In einigen Fallen hat der Spieler aber eine bessere Auswahlmoglichkeit. Falls
nach gewisser Zeit, z.B. die erste Karte war schwarz, mehr schwarze Karten als
rote gezogen wurden, verbleiben in dem zugedeckten Stapel relativ mehr ro-
te Karten als schwarze. Wenn der Spieler jetzt die oberste Karte wahlt, ist die
Wahrscheinlichkeit einer roten Karte strikt großer als 1/2, genauer der Quotien-
ten der Anzahl der roten Karten mit der Gesamtanzahl der noch verbliebenen
zugedeckten Karten. Falls sich keine dieser vorteilhaften Situationen ergibt,
kann der Spieler stets auf die letzte zur zuckgreifen. Da gunstige Situationen
wie oben beschrieben mit strikt positiver Wahrscheinlichkeit vorkommen, ist
die Gesamtwahrscheinlichkeit fur eine richtige Vorhersage des Spielers strikt
großer als 1/2. (Diese Strategie ließe sich noch optimieren, aber wir sind zu-
frieden mit strikt großer als 1/2.)
Die Ergebnisse scheinen sich zu widersprechen. Oder gibt es hier ein Lucke
in der Argumentation? Wenn ja, welche?
Mathematische Losung: Seien X1, . . . , X52 Zgn mit Werten in 0, 1. Die
Verteilung entspricht dem zufalligen Ziehen aus einer Urne mit 26 schwarzen
(=0) und 26 roten (=1) Karten ohne zurucklegen (Polya’s Urnenmodell mit
c = −1). Xi = 1 entspricht dem Ziehen einer roten Kugel in der i-ten Ziehung.
Sei
Yn := E(Xn+1 | Fn),
Fn die kanonische σ-Algebra erzeugt von X1, . . . , Xn. Die Zg Yn gibt die Wahr-
scheinlichkeit an, daß die nachste oberste verdeckte Karte rot ist, gegeben die
Kenntnis X1, . . . , Xn der ersten n Karten.
Der Spieler wahlt eine Stoppzeit τ (=Auswahlregel) und erhalt die nachste
Karte mit Gewinnwert Xτ+1. Sein erwarteter Gewinn ist EYτ . Der Spieler
versucht seinen erwarteten Gewinn zu maximieren durch Wahl einer optimalen
Stoppzeit, falls diese existiert. Er erhalt supτ E(Yτ ).
Die Schlusselbeobachtung ist, daß (Yn)51n=0 ein Martingal ist.
E(Yn+1 | Fn) = E(E(Xn+2 | Fn+1) | Fn) = E(Xn+2 | Fn) = Yn.
24 (31. Januar 2017) Martingaltransformierte
Nach dem Optional Sampling Theorem sind alle Stoppzeiten gleich gut, E(Yτ ) =
Y0 = 1/2. Die erwartete Gewinnwahrscheinlichkeit ist stets 1/2, unabhangig
von den Aktionen des Spielers, lieber Dummy.
Wo liegt der Pferdefuß in der heuristischen Argumentation? Er liegt im
Gebrauch von W-keiten und bedingten W-keiten. Es gilt stets Yn = E(Xi | Fn)
fur i = n + 1, . . . , 52, da die verbleibenden Karten austauschbar sind. Die
nachste Karte gewinnt stets mit derselben W-keit wie die letzte, gegeben die
Vorinformation. Also kann ich gleich bei der letzten bleiben. Und wenn ich
Vorabinformationen uber die ersten nKarten besitze, muß ich auch die bedingte
W-keit betrachten, das die letzte Karte gewinnt. Und diese ist nicht immer 1/2.
Wenn ich bis zur letzten nicht vorhergesagt habe und die letzte nehmen muss,
so ist die W-keit fur eine rote 0 oder 1. Die letzte Karte ist zwar unverandert
durch die vorhergehende Prozedur, aber die bedingte W-keit, das die letzte
Karte rot ist, hat sich durch die Vorabinformation geandert, von 12 am Anfang
zu 0 oder 1.
σ-Algebra der τ-Vergangenheit*
Sei (Fn) eine Filtration und τ eine erweiterte Stoppzeit. Das Mengensystem
Fτ := A ∈ A | ∀n ∈ T : A ∩ τ ≤ n ∈ Fn
heißt die σ-Algebra der τ-Vergangenheit. Wie der Name suggeriert, ist dies
eine σ−Algebra.
Proposition 26 Seien τ, σ erweiterte Stoppzeiten.
(i) Fτ ist eine σ-Algebra.
(ii) Fur τ ≡ n gilt Fτ = Fn.
(iii) Fur τ ≤ σ gilt Fτ ⊂ Fσ.
(iv) A ∈ Fτ ⇔ ∀n : A ∩ τ = n ∈ Fn
(v) Fur jedes A ∈ Fτ gilt A =⋃ n(A ∩ τ = n)
(vi) Fur eine Stoppzeit τ gilt E(· | Fτ ) =∑
i∈IN011τ=iE(· | Fi).
(vii) Sei (X,F) ein Martingal (Sub-, Super-), σ eine beschrankte Stoppzeit. Es
gilt
E(Xσ | Fτ ) =(≥,≤) Xσ∧τ .
2.2. Stoppzeiten (31. Januar 2017) 25
Beweis: i) Fτ ist nicht leer und mit A ∈ Fτ gilt auch Ac ∈ Fτ wegen Ac ∩τ ≤n = τ ≤ n\(A ∩ τ ≤ n) ∈ Fn. Fur Ai ∈ Fτ , i ∈ IN, gilt
(⋃
i
Ai) ∩ τ ≤ n =⋃
i
(Ai ∩ τ ≤ n) ∈ Fn.
ii) Die Menge τ ≤ i ist leer oder ganz Ω.
iii) Fur alle ω bis auf eine Nullmenge gilt τ(ω) ≤ σ(ω) und damit σ ≤n ⊂ τ ≤ n. Fur A ∈ Fτ gilt
A ∩ σ ≤ n = A ∩ τ ≤ n︸ ︷︷ ︸
∈Fn
∩σ ≤ n ∈ Fn.
iv)v) Leicht.
vi) Fur jedes A ∈ Fτ und integrierbare Zg Y gilt
∫
A
E(Y | Fτ ) =
∫
A
Y =∑
i
∫
11A∩(τ=i)Y =∑
i
∫
A
11τ=iE(Y | Fi).
Beide Seiten sind Fτ meßbar. Damit sind die bedingten Erwartungen gleich.
vii) E(Xσ | Fτ ) =∑
i 11τ=iE(Xσ | Fi) =(≥,≤)
∑
i 11τ=iXσ∧i = Xσ∧τ . Beide
Seiten sind Fτ meßbar und damit gleich. q.e.d.
Satz 27 Sei (X,F) ein Martingal (Sub-, Super-) und τ eine Stoppzeit. Dann
ist, sofern integrierbar, Xτ+n, n ∈ IN0 ein Martingal (Sub-, Super-) bezuglich
(Fτ+n)n.
Beweis: Wir geben die Argumentation nur fur ein Martingal.
E(Xτ+n+1 | Fτ+n) =∑
j
11τ+n=jE(Xj+1 | Fj) =∑
j
11τ+n=jXj = Xτ+n.
q.e.d.
Korollar 28 Sei τ0 ≡ 0 und τm : Ω→ 1, . . . , N, m ∈ IN, eine aufsteigende
Folge von beschrankten Stoppzeiten bzgl. einer Filtration F und (X,F) ein
Martingal (Sub-, Super-). Dann ist (Xτm)m∈IN0ein Martingal (Sub-, Super-)
bezuglich der Filtration (Fτm)m.
Beweis: Wir geben die Argumentation nur fur ein Martingal. Der Prozess
(Xτ1+n,Fτ1+n)n∈IN0ist ein Martingal. τ2 ist eine Stoppzeit bezuglich der Filtra-
tion (Fτ1+n)n. Folglich ist durch erneute Anwendung von Satz (27)Xτ1 , Xτ2 , Xτ2+1, . . .
ein Martingal bezuglich Fτ1 ,Fτ2 ,Fτ2+1, . . . . Mit Induktion (Ubung) erhalten
wir die Aussage. q.e.d.
26 (31. Januar 2017) Martingaltransformierte
Warnung: Aus x0 = E(Xτ∧n) fur alle n folgt im allgemeinen nicht x0 =
E(Xτ ), selbst fur Martingale nicht. Das Martingal (verdoppeln des Einsat-
zes bis zum ersten Gewinn) ist ein Gegenbeispiel, Mτ ≡ 1 fast sicher, aber
E(Mτ∧n) = 0 mit τ die Stoppzeit zum ersten Mal die 1 zu erreichen.
3 Fast sichere Konvergenz
Besonders wichtige Martingalkonvergenzarten sind fast sichere Konvergenz (Doob-
sche Konversatz), die L1-Konvergenz (Regularitat) und die L2-Konvergenz
(Hilbertraum). Wir betrachten alle in getrennten Kapiteln.
Satz 29 (Doob Konvergenzsatz) Sei X ein Submartingal und sei supn∈IN E(X+n ) <
∞. Dann konvergiert Xn fast sicher gegen eine reellwertige Zufallsvariable.
Dreh- und Angelpunkt fur die fast sichere Konvergenz ist das Doob Upcros-
sing Lemma.
3.1 Doob Upcrossing Lemma
Wir zeigen hier die fundamentale Upcrossing-Ungleichung, auf der mehrere
wichtige Konvergenzsatze aufbauen. Die wesentliche Idee ist der Begriff der
aufsteigenden Uberquerungen.
Definition 30 Sei x = (xn)n∈IN eine abzahlbare Folge erweiteter reeller Zah-
len und I = (a, b), a < b ein offenes Intervall. Die Anzahl U = U(I, x) der
aufsteigenden Uberquerungen von I durch die Folge x ist das Supremum aller
naturlichen Zahlen l ∈ IN0, sodaß es Indizes n1 < n2 < n3 < n4 < . . . <
n2l−1 < n2l gibt mit xn2i−1≤ a und xn2i
≥ b fur 1 ≤ i ≤ l.
Das folgende Bild zeigt die geometrische Bedeutung. In dem Bild sind die Punk-
te (n, xn) in der Ebene aufgetragen und durch Geraden verbunden. Die auf-
steigenden Uberquerungen sind fetter eingezeichnet.
27
28 (31. Januar 2017) Fast sichere Konvergenz
1 2
a
b
n1 n2 n3 n4 n5 n6
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
r
Die Anzahl ist U((4, 8), (6, 3, 2, 6, 5, 9, 10, 4, 8, 7, 5, 3, 6, 2, 8, 9)) = 3.
Eine aquivalente Beschreibung ist via der speziellen Folge, τ1 := infn |xn ≤ a τ2 := infn > τ1 | xn ≥ b τ3 := infn > τ2 | xn ≤ a usw. Allgemein:
τ2i := infn > τ2i−1 | xn ≥ b, τ2i+1 := infn > τ2i | xn ≤ a.
Dann gilt
U(I, x) = supl | n2l <∞.
Die Bedeutung aufsteigender Uberquerungen liegt in folgendes Konvergenz-
kriterium fur Folgen.
• Eine Folge x von erweiterten reellen Zahlen konvergiert in den erweiterten
reellen Zahlen dann und nur dann, falls fur jedes offene, nicht leere Intervall
I = (a, b), a < b ∈ IR die Anzahl der (aufsteigenden) Uberquerungen U(I, x)
endlich ist.
Die folgenden Eigenschaften fur eine endliche Folge x sind einfach beweis-
bar. Sei I = (a, b). Wir verwenden fur c ∈ IR x−c = (xn−c)n, x∨c = (xn∨c)nund weiteres sinngemas. (τi)i ist obige Folge (von Stoppzeiten). Aus schreib-
technischen Grundes sei x∞ = −∞.
• ∀c ∈ IR U(I, x) = U(I − c, x− c)
• U(I, x) = U(I, x ∨ a) = U(I, x ∧ b)
• U(I, x) = U(I, (xτi)i∈IN )
• U(I, (xτi)i) = 1τ2<∞ + U(I, (Xτi)i≥3).
• Fur n2i <∞ gilt ≤ xn2i−xn2i−1
b−a .
3.1. Doob Upcrossing Lemma (31. Januar 2017) 29
Damit erhalten wir
U(I, x) ≤∑
i|n2i<∞
xn2i− xn2i−1
b− a.
Lemma 31 (Upcrossing Lemma von Doob) Die erwartete Anzahl der auf-
steigenden Uberquerungen eines Intervall I = (a, b), a < b, durch ein Submar-
tingal X ist
E(U(I,X)) ≤ supn
E(Xn − a)+
b− a. (3.1)
Beachte, die Abbildung n 7→ E(Xn − a)+ ist isoton und der Grenzwert fur
n→∞ gleich dem Supremum uber n. Dasselbe gilt fur Stoppzeiten.
Beweis: Alles ist wohldefiniert. U ist eine pfadweise definierte Zg. Der Pro-
zess Y = X ∨ a ist ein Submartingal mit ebensovielen aufsteigenden Uberque-
rungen U(I − a, Y ) von (0, b− a) wie das Submartingal X bzgl. I = (a, b). Aus
schreibtechnischen Grunden sei Y∞ = 0.
Seien die τi rekursiv definiert wie oben fur den Y bzw. X Prozess. Die τisind erweiterte Stoppzeiten. Setze Y∞ = a. Dann ist (Yτi)i ein Submartingal
mit derselben Uberkreuzungsanzahl.
U(I,X) = U(I − a, Y ) =∑
i
1τ2i<∞ ≤∑
i
Yτ2i − Yτ2i−1
b− a
=1
b− alim infN→∞
∑
i
11τ2i≤N (Yτ2i − Yτ2i−1)
≤ 1
b− alim infN→∞
∑
i
(Yτ2i∧N − Yτ2i−1∧N )
(b− a)EU(I,X) ≤ E limN
∑
i
(Yτ2i∧N − Yτ2i−1∧N )
≤ limN
∑
i
(EYτ2i∧N − EYτ2i−1∧N )
≤ limN
∑
i
(EYτ2i∧N − EYτ2i−2∧N11i>1)
≤ limN
(EYN − 0) = limN
E(XN − a)+ = supN
E(XN − a)+
q.e.d.
Das Doobsche Upcroosinglemma gilt auch fur Martingale (Xn)n≤N mit end-
lichem Zeithorizont N ∈ IN. Erweitere den Zeitparameter durch Xn = XN fur
n > N.
30 (31. Januar 2017) Fast sichere Konvergenz
3.1.1 Fast sichere Konvergenz
Satz 32 (Doob Konvergenzsatz) Sei X ein Submartingal und sei supn∈IN E(X+n ) <
∞. Dann konvergiert Xn fast sicher gegen eine reellwertige Zufallsvariable.
Beweis: Sei A := lim infn Xn < lim supn Xn und Aa,b := lim infXn < a <
b < lim supXn.• P (Aa,b) = 0 fur alle a < b.
Jeder Pfad n 7→ Xn(ω) fur festes ω ∈ Aa,b uberquert aufsteigend unendlich
oft das Intervall (a, b). In Formeln
Aa,b ⊂ U((a, b), X) =∞.
Das Doob Upcrossing Lemma liefert
E(U((a, b), X)) ≤ limn→∞
E(Xn − a)+
b− a<∞.
Dies beides impliziert P (Aa,b) ≤ P (U((a, b), X) =∞) = 0.
• A ist eine Nullmenge.
Beachte A ist enthalten in der Vereinigung aller Aa,b mit rationalen Zahlen
a < b. Damit ist A eine Nullmenge.
• Xn konvergiert fast sicher gegen eine erweiterte Zg Y : Ω 7→ IR
Dies gilt auf dem Komplement von A pfadweise.
• Y ist fast sicher endlich.
Aus Tschebycheff und Proposition (16) erhalten wir fur c > 0,
P (|Y | > c) ≤ lim infn
P (|Xn| > c) ≤ lim infn
E|Xn|c≤ 1
clim inf
n(2EX+
n −x0) =1
c(2 sup
nEX+
n −x0)→c→∞ 0.
q.e.d.
Korollar 33 Jedes positive Supermartingal insbesondere Martingal ist fast si-
cher konvergent.
Beweis: Doobscher Konvergenzsatz.
3.2 Klassische Resultate zur fast sicheren Mar-
tingalkonvergenz.
Um einen kleinen Eindruck von der Starke des Doobschen Konvergenzsatzes zu
gewinnen, wollen wir klassische starke Konvergenzatze fur Summen unabhangi-
ger Zgn ableiten. Die Partialsummen Sn =∑n
i=1 Xi unabhangiger zentrierter
3.2. Klassische Resultate zur fast sicheren Martingalkonvergenz. (31. Januar 2017) 31
(integrierbarer) Zgn bilden ein Martingal,
E(Sn+1 | An) = Sn + E(Xn+1 | An)︸ ︷︷ ︸
=E(Xn+1)=0
.
Satz 34 (Levy) Seien Xn, n ∈ IN, unabhangige, zentrierte Zufallsgroßen mit∑
n∈IN Var(Xn) <∞. Dann konvergiert die n-te Partialsumme Sn =∑n
i=1 Xi
fast sicher gegen einen endlichen und wohldefinierten Wert genannt∑∞
i=1 Xi.
Beweis: Wir rechnen das Doobsche Kriterium aus Satz 29 nach.
E2(S+n )
Jensen≤ E(S2
n) =n∑
i=1
VarXi ≤∞∑
i=1
VarXi <∞.
Diese Abschatzung ist unabhangig von n. q.e.d.
Beispiel: Seien X1, X2, . . . Zufallsvariablen mit Werten +1 und −1 je-
weils mit Wahrscheinlichkeit 1/2. Sei cn, n ∈ IN eine Folge reeller Zahlen mit∑
n c2n < ∞. Dann ist
∑
n cnXn (in dieser Reihenfolge) fast sicher punktweise
wohldefiniert. Beachte die Summe muß nicht absolut konvergieren,∑
n |cnXn| =∑
n |cn| kann unendlich sein. Das Standardbeispiel ist cn = 1n .
Als nachstes ein wohlbekannter Hilfssatz fur Folgen, das Kronecker-Lemma.
Lemma 35 (Kronecker) Seien an, bn, n ∈ IN zwei Folgen reeller Zahlen.
Die Folge bn sei strikt positiv und strikt steigend gegen ∞. Dann gilt:
n∑
i=1
aibi
konvergent =⇒ limn→∞
1
bn+1
n∑
i=1
ai = 0
.
Beweis: Setze sn :=∑n
i=1 ai/bi und s := limn sn als Grenzwert der sn. Sei
(cn)n eine strikt positive Folge und∑n
i=1 ci →n ∞. Dann konvergiert die Folgec1s1+...+cnsn
c1+...+cnebenfalls gegen s.
Wahle dazu zu vorgegebenem ǫ ein n0 mit |sn − s| < ǫ fur alle n ≥ n0.
Dann gilt∑n
i=1 cisi∑n
j=1 cj= s+
∑n0
i=1 ci(si − s)∑n
j=1 cj+
∑ni=n0+1 ci(si − s)
∑nj=1 cj
Mit n→∞ and anschließend ǫ→ 0 erhalten wir die Behauptung.
Fur die spezielle Folge cn := bn+1 − bn, n ≥ 1 sind die Voraussetzungen
cn > 0 und∑n
i=1 ci = bn+1 − b1 → ∞ erfullt. Wir erhalten
∑n
i=1cisi
bn+1→n s.
Aus der Identitatn∑
i=1
cisi = . . . = bn+1sn +
n∑
i=2
bi(si−1 − si)− b1s1
32 (31. Januar 2017) Fast sichere Konvergenz
erhalten wir die nach Division durch bn+1
1
bn+1
n∑
i=1
cisi = sn −1
bn+1
n∑
i=1
ai −a1
bn+1.
Mit dem Grenzubergang n→∞ folgt die Behauptung. q.e.d.
Satz 36 (Satz von Kolmogoroff) Sei (bn)n eine strikt positive, gegen un-
endlich aufsteigende Folge. Sei X1, X2, . . . eine Folge unabhangiger, zentrierter
Zgn mit∑∞
n=1Var(Xn)
b2n<∞. Dann konvergiert Sn
bnfast sicher gegen 0.
Beweis: Die Zg Mn :=∑n
i=1Xi
biist eine Partialsumme unabhangiger Zgn. Der
Satz von Levy liefert die fast sichere Konvergenz von Mn gegen eine endliche
Zufallsvariable M∞ :=∑∞
i=1Xi
bi. Aus Kroneckers Lemma erhalten wir fast
sicher Sn
bn→ 0. q.e.d
Die Standardsituation ist die einer Folge von zentrierten uiv Zgn mit end-
licher Varianz und bn = nβ . Der Satz von Kolmogoroff liefert
Sn
nβ
f.s.→n→∞ 0
fur jedes β > 1/2. Dies ist eine Verscharfung des Starken Gesetzes der Grosen
Zahl, welches Sn
n
f.s.→n 0 besagt.
Fur β = 1/2 gilt∑
VarXn/n2β =∞ und der Satz von Kolmogoroff ist nicht
anwendbar. Der Zentrale Grenzwertsatz liefert noch Verteilungskonvergenz:
Sn√n
d→n N(0,Var(X1)).
3.2.1 Kolmogoroff drei Reihen Satz*
Dies ist eine Umkehrung des Satzes von Levy 34.
Satz 37 Seien Xn, n ∈ IN, unabhangige, zentrierte und gleichmasig beschrank-
te Zufallsvariablen.
Die Partialsumme Sn =∑n
i=1 Xi konvergiert fast sicher gegen eine Zg dann
und nur dann, wenn die Summe∑
n VarXn der Varianzen der Zuwachse Xn
endlich ist.
Im allgemeinen konvergiert Sn punktweise entweder mit Wahrscheinlichkeit
0 oder mit Wahrsch. 1.
Beweis: Die Ruckrichtung ist der Satz von Levy 34. Nun zur Hinrichtung. Seien
die Xn gleichmaßig beschrankt durch c. Definiere die Stoppzeiten τ = τC =
infn | |Sn| > C fur eine reelle Zahl C.
3.2. Klassische Resultate zur fast sicheren Martingalkonvergenz. (31. Januar 2017) 33
• |Sτ∧n| ≤ c+ C
Der Fall τ > n ist einfach und im Falle τ ≤ n argumentiere
|Sτ∧n| = |Sτ−1 +Xτ | ≤ |Sτ−1|+ |Xτ | ≤ c+ C.
• Es existiert ein C mit P (τC =∞) > 0.
Da Sn fast sicher konvergiert, folgt supn |Sn| ist beschrankt f.s. und P (τC =
∞)րC 1.
• Mn := S2n −An mit An :=
∑ni=1 Var(Xi), ist ein Martingal.
E(Mn+1 −Mn | An) = E(X2n+1 − 2Xn+1Mn −VarXn+1 | An) = 0.
• E(Aτ∧n) = E(S2τ∧n) ≤ (c+ C)2 <∞.
Mτ∧n ein Martingal und das Optinal Sampling Theorem liefert 0 = E(Mτ∧n) =
E(S2τ∧n)− E(Aτ∧n).
• A∞ :=∑
n∈IN VarXn <∞Fur C mit P (τC =∞) > 0 argumentiere
AnE11τ=∞ ≤ E(Aτ∧n) ≤ (c+ C)2 <∞
und damit An ist gleichmasig beschrankt.
Zur letzten Aussage konvergiere Sn auf einer Menge von strikt positivem
Maß. Auf dieser Menge gelten die obigen Behauptungen und analog zum obigen
konnen wir A∞ <∞ schließen. Dies impliziert seinerseits fast sichere Konver-
genz der Partialsummen via dem Satz von Levy. q.e.d.
Beispiel: Seien X1, X2, . . . unabhangige Zufallsgroßen mit Werten +1 und
−1 jeweils mit Wahrscheinlichkeit 1/2 und sei cn, n ∈ IN, eine Folge reeller
Zahlen.∑∞
n=1 cnXn ist fast sicher punktweise wohldefiniert dann und nur dann,
wenn∑∞
n=1 c2n <∞ gilt. Die Reihe
∑
n cnXn konvergiert absolut genau dann,
wenn∑∞
n=1 |cn| < ∞ gilt. Im Falle cn = 1/n konvergiert die Folge∑
i≤n ciXi
fast sicher, aber nicht absolut.
Satz 38 (Dreireihensatz von Kolmogoroff) Sei Xn, n ∈ IN, eine Folge
unabhangiger Zgn. Dann konvergiert Sn =∑n
i=1 Xi fast sicher dann und nur
dann, wenn es eine Konstante c > 0 gibt bzgl. der alle folgenden drei Reihen
gegen einen endlichen Grenzwert konvergieren
∑
n
P (|Xn| > c) (3.2)
∑
n
E(Xn11|Xn|≤c) (3.3)
34 (31. Januar 2017) Fast sichere Konvergenz
∑
n
Var(Xn11|Xn|≤c) (3.4)
Konvergieren die Reihen fur eine Konstante c > 0, so fur alle Konstanten.
Konvergiert Sn auf einer Menge von strikt positivem Maß, so fast sicher uberall.
Beweis: Wir zeigen die Hinrichtung. Sei c > 0 beliebig. Betrachte die abge-
schnittenen Zufallsgroßen X(c)n := 11|Xn|≤cXn. Wir verwenden auch S
(c)n =
∑
i≤n X(c)i .
• Konvergenz der ersten Reihe.
Da Sn fast sicher konvergiert treten die Ereignisse |Xn| > c nur endlich oft
ein mit Wahrscheinlichkeit 1. Der Satz von Borel-Cantelli impliziert Konvergenz
der ersten Reihe.
• Sn konvergiert f.s. genau dann wenn S(c)n f.s. konvergiert.
Die Differenz Sn−S(c)n =
∑
i≤n Xi11|Xi|>c <∞ ist stets endlich, da |Xn| > c
nur endlich oft eintritt.
• Die dritte Reihe konvergiert.
Wir benutzen jetzt einen Symmetrisierungtrick von Levy. Wahle weitere un-
abhangige Zgn Xn, n ∈ IN mit Xn habe dieselbe Verteilung wie Xn und
verwende S(c)
n analog. Dann konvergiert S(c)n − S
(c)
n wegen dem vorherigen
fast sicher. Dies ist auch die Partialsumme von unabhangigen zentrierten Zgn
X(c)n − X
(c)
n . Nach der Umkehrung des Satzes von Levy, 37 schließen wir auf∑
n Var(X(c)n −X
(c)
n ) <∞. Mit Var(X(c)n −X
(c)
n ) = 2Var(X(c)n ) folgt die Kon-
vergenz der dritten Reihe.
• Die zweite Reihe konvergiert.
Die Konvergenz der dritten Reihen impliziert laut dem Satz von Levy 34 die
Konvergenz von∑n
i=1(X(c)i −EX
(c)i ) = S
(c)n −
∑ni=1 EX
(c)i .Mit der Konvergenz
von S(c)n ergibt sich die Teilbehauptung.
⇐ Die Konvergenz der dritten Reihe liefert nach dem Satz von Levy 34
die Konvergenz von∑n
i=1(X(c)i − EX
(c)i ). Dies zusammen mit der Konver-
genz der zweiten Reihe impliziert die Konvergenz von S(c)n . Dies zusammen mit
der Konvergenz der ersten Reihe impliziert nach Borel-Cantelli die fast sichere
Konvergenz von Sn.
Konvergiert Sn nur auf einer Menge von strikt positivem Maß, so zeige die
Konvergenz der Reihen nur auf dieser Menge. Da die Reihen deterministisch
sind, gilt die Konvergenz uberall. Damit auch die fast sichere Konvergenz von
Sn.
Konvergieren die Reihen fur ein c > 0, so konvergiert Sn fast sicher und
dann konvergieren die Reihen fur jedes c > 0. q.e.d.
Zur Anwendung noch einmal fast sichere Konvergenz von Partialsummen
von uiv Zgn.
3.2. Klassische Resultate zur fast sicheren Martingalkonvergenz. (31. Januar 2017) 35
Satz 39 Seien Xn, n ∈ IN uiv zentrierte Zgn mit endlichem α-Moment E|X1|α <
∞ fur ein 1 < α < 2. Dann gilt∑
i≤nXi
i1/αkonvergiert fast sicher gegen eine
Zgn undSn
n1/α
f.s.→n 0.
Bew: Wegen dem Lemma von Kronecker reicht es nur die fast sichere Konver-
genz des ersten Ausdrucks zu beweisen. Wir verwenden den Drei-Reihen-Satz
von Kolmogoroff mit c = 1. Sei bn = n1/α und C generische Konstanten.
∑
n
P (|Xn|bn≥ 1) =
∑
n
P (|X1|α ≥ n) ≤ E|Xn|α <∞
∑
n
|EXn
bn11|Xn|≤bn | =
∑
n
|EX1
bn11|X1|≤bn |
=∑
n
|EX1
bn11|X1|>bn | ≤
∑
n
E|X1|bn
11|X1|>bn |
= E|X1|∑
n
n−1/α11|X1|α>n
≤ E|X1|(C +
∫ |X1|α
1
x−1/αdx)
≤ E|X1|(C + C|X1|α(−1/α+1))
≤ C + CE|X1|α <∞∑
n
VarXn
bn11|Xn|≤bn ≤
∑
n
EX2
n
b2n11|Xn|≤bn
=∑
n
EX2
1
b2n11|X1|≤bn ≤ EX2
1
∑
n
n−2/α11|X1|α≤n
≤ EX21 (
∫ ∞
|X1|α−1
x−2/αdx)
≤ CEX21 (|X1|α(−2/α+ 1)) = CE|X1|α <∞
q.e.d.
36 (31. Januar 2017) Fast sichere Konvergenz
4 L1−Martingale
Der zweite großere Konvergenzsatz fur Martingale betrifft die L1-Konvergenz.
Diese kann nur vorliegen, wenn der Erwartungswert des Absolutbetrages be-
schrankt ist. Dann liegt nach Doob 29 auch fast sichere Konvergenz vor. Damit
reduziert sich die Fragestellung auf: Wann ist eine fast sicher konvergente Folge
auch L1-konvergent? Dies fuhrt auf gleichgradige Intergrierbarkeit.
Hier ein Beispiel fur ein Martingal, welches fast sicher konvergiert aber nicht
in L1.
Multiplikative Irrfahrt: Sei Xn, n ∈ IN eine Folge unabhangiger Zgn mit
Bernoulli Verteilung zum Parameter 1/2. Betrachte das positive Martingal
Kn :=n∏
i=1
(2Xi)
Dieses konvergiert f.s. gegen Null (Ubung). Kn konvergiert nicht in L1, da 0 der
einzig mogliche Grenzwert ist (der L1-Grenzwert ist gleich dem stochastischen
Grenzwert) und ‖Kn − 0‖1 ≡ 1 6= 0 gilt. Die Interpretation ist Kn als Kapital
eines Spielers der Martingalstrategie.
Eine verfeinerte Version ist das Petersburger Spiel.
Petersburger Spiel: SeiXn, n ∈ IN, eine Folge uiv Zgn mit strikt positiven
Werten. Wir wollen E(X1) > 1 und E(lnX1) < 0 annehmen. Definiere K0 = 1
und
Kn =n∏
i=1
Xi.
(Kn)n ist ein Submartingal. Der Erwartungswert E(Kn) = (E(X1))n konver-
giert exponentiell schnell gegen unendlich. Andererseits wissen wir nach dem
starken Gesetz der Großen Zahl lnKn
n konvergiert f.s. gegen E(lnX1) < 0,
lnKn
n=
1
n
n∑
i=1
lnXif.s.→n E(lnX1) < 0.
37
38 (31. Januar 2017) L1−Martingale
Dies bedeutet Kn konvergiert f.s. gegen Null, aber Kn konvergiert nicht in L1.
Spielinterpretation: Dieser Effekt hat eine schone Interpretation. Ein
Spieler spiele obiges, fur ihn langfristig gunstiges Spiel. Kn ist sein Kapital
nach dem n−ten Teilspiel. Vor dem (n + 1)−Spiel darf er sich entscheiden,
das Kapital Kn als endgultigen Gewinn zu akzeptieren oder alles riskierend
weiterzuspielen um dann Kn+1 = KnXn+1 nach dem (n+ 1)−ten Spielzug zu
besitzen. (Mehr zur kuhnen Spielweise siehe die Sektion uber Kasinospiele.)
Um seinen erwarteten Gewinn zu maximieren, sollte der Spieler stets weiter-
spielen. Der bedingte erwartete Zugewinn Kn(E(Xn+1)−1) > 0 ist stets strikt
positiv. Andererseits wird der Spieler mit dieser Entscheidungsregel fast sicher
bankrott gehen (und dies relativ schnell). Dies laßt sich dadurch erklaren, daß
der Spieler fur große n mit sehr kleiner Wahrscheinlichkeit ein sehr großes Ka-
pital ansammeln wird, mit großer Wahrscheinlichkeit jedoch das kleine Kapital
0.
Die Erwartung allein macht nicht glucklich!
4.1 L1−konvergente Martingale
Im folgenden wird der Begriff gleichgradige Integrierbarkeit, siehe Anhang, vor-
ausgesetzt.
Proposition 40 Sei X integrierbar. Dann ist die Familie E(X | B), mit Beine Unter-σ-Algebra, gleichgradig integrierbar.
Bew: Sei Y = E(X | B)
P (|Y | > c) ≤ E|Y |c≤ E|X|
c→c→∞ 0
∫
|Y |>c
|Y | ≤∫
|Y |>c
|X| →c 0
Die Abschatzungen sind gleichmaßig. q.e.d.
Zur Wiederholung, es gilt fur Zgn Yn, n ∈ IN
YnL1
→n Y ⇔ Yns→n Y und ‖Yn‖ →n ‖Y ‖ <∞
⇔ Yns→n Y und gleichgradige Integrierbarkeit
Hierbei steht s fur stochastische Konvergenz, d.h. dem Maße nach.
Satz 41 Aquivalent fur ein Submartingal oder Supermartingale X sind:
4.1. L1−konvergente Martingale (31. Januar 2017) 39
(i) Xn konvergiert in L1.
(ii) (Xn)n∈IN0ist gleichgradig integrierbar.
(iii) supn ‖Xn‖1 ist endlich und ‖Xn‖1 →n ‖X∞‖1 mit X∞ der fast sichere
Grenzwert von X.
(iv) Es existiert eine symmetrische positive Funktion ϕ mit ϕ(x)x →x→∞ ∞
und supn Eϕ(Xn) <∞.
Beweis: i)⇒ ii) Siehe die obigen allgemeinen Aquivalenzen.
ii) ⇒ iii) Aus der gleichgradigen Integrierbarkeit folgt supn ‖Xn‖1 < ∞.
Nach Doob konvergiert die Folge (Xn)n fast sicher und damit auch stochastisch.
Fur den Rest siehe oben.
iii)⇒ i) Verwende Doob und siehe oben.
iii)⇔ iv) Dies gilt allgemein, d.h. ohne die Martingalstruktur. q.e.d.
Von der obigen Funktion ϕ konnen noch mehr schone Eigenschaften gefor-
dert werden, wie z.B. konvex und unendlich oft differenzierbar.
Bsp: Lp-Martingale sind regular fur p > 1 (Satz 41iv).
4.1.1 Zeitabschluss
Zeitabschluß: Von Zeitabschluß sprechen wir, wenn wir den Prozess (X,F) =(Xn,Fn)n∈IN0
erweitern konnen zu einer Folge (Xn,Fn)n∈IN0unter Beibehal-
tung der Struktur.
Es gibt mehrere solche Erweiterungen. Eine besondere Rolle spielt die ’klein-
ste’ Erweiterung. Hierbei wird F∞ als kleinste σ-Algebra erzeugt durch alle
Fn, n ∈ IN gewahlt und X∞ als meßbar bzgl. F∞, d.h. bestimmt bereits durch
die Folge (X,F).Jedes L1-konvergente Martingal (Sub-,Super-) (X,F) laßt sich erweitern zu
einem Martingal (Sub-, Super- ) (Xn,Fn)n∈IN0durch den L1-Grenzwert X∞.
Dies ist gleichzeitig die kleinste Erweiterung.
Lemma 42 Fur eine integrierbare Zg Y ist X mit
Xn := E(Y | Fn)
ein regulares Martingal. Dieses konvergiert fast sicher und in L1 gegen densel-
ben Grenzwert X∞ = E(Y | F∞).
Beweis: • ‖Xn‖1 ≤ ‖Y ‖1 fur n ∈ IN.
‖Xn‖1 = E(|E(Y | Fn)|) ≤ E(E(|Y | | Fn)) = E(|Y |) = ‖Y ‖1 <∞.
• Xn ist gleichgradig integrierbar.
40 (31. Januar 2017) L1−Martingale
Siehe Proposition (40)
• (X,F) ist ein Martingal.
Xn ist adaptiert, integrierbar und die Martingaleigenschaft wird mit der
Tower-Property nachgerechnet,
E(Xn+1 | Fn) = E(E(Y | Fn+1) | Fn) = E(Y | Fn) = Xn.
• Xn konvergiert fast sicher gegen eine Zg genannt X∞.
Dies folgt aus supn ‖Xn‖1 ≤ ‖Y ‖1 <∞ und dem Doob Konvergenzsatz 29.
• Xn konvergiert gegen X∞ in L1.
Aus gleichgradiger Integrierbarkeit und der fast sicheren Konvergenz von
Xn gegen X∞ folgt die L1-Konvergenz.
• Xn = E(X∞ | Fn) fast sicher.
Aus fast sicherer Konvergenz Xn → X∞ und gleichgradiger Integrierbarkeit
erhalten wir fast sicher
E(X∞ | Fn) = E(limi
Xi | Fn) = limi
E(Xi | Fn) = Xn.
• X∞ = E(Y | F∞) f.s.
Sei Z = E(Y | F∞. Aus E(X∞ | Fn) = E(Z | Fn) f.s. erhalten wir∫
AX∞ =
∫
AZ fur alle A ∈ Fn, n ∈ IN. Damit auch fur die von Fn, n ∈ IN erzeugte
σ-Algebra F∞. Da beide Zgn X∞ und Z F∞ meßbar sind, folgt Gleichheit f.s..
q.e.d.
Satz 43 (Levy) Es gibt eine bijektive Abbildung zwischen integrierbaren F∞
meßbaren Zgn Y und L1−konvergenten Martingalen (X,F). Diese kann gege-
ben werden durch
Xn = E(Y | Fn).
Xn konvergiert fast sicher und in L1 gegen Y .
Beweis: Betrachte die Abbildung Y 7→ X = (E(Y | Fn))n. Diese Abbildung ist
wohldefiniert nach dem Lemma 42. Ferner konvergiert E(Y | Fn) in n fast sicher
gegen Y. Hieraus ergibt sich sofort die Injektivitat und auch die Surjektivitat
der Abbildung. q.e.d.
Wir benutzen L1-konvergente Martingale mit dem Zeitbereich IN0.
Korollar 44 Jedes L1−konvergente Martingal ist darstellbar als die Differenz
zweier positiver L1−konvergenter Martingale.
Bew: Sei X ein regulares Martingal. Zerlege X∞ = X+∞−X−
∞ in den Positivteil
und Negativteil und setze Yn = E(X+∞ | Fn), Zn = E(X−
∞ | Fn). Dann gilt
Xn = Yn − Zn. q.e.d.
4.1. L1−konvergente Martingale (31. Januar 2017) 41
Bemerkung: Der Raum der L1−konvergenten MartingaleM1 versehen mit
der Norm ‖X‖1 = supn ‖Xn‖1 ist ein normierter Vektorraum, siehe die Bijek-
tion zu L1(F∞). Allgemeiner, wegen der Bijektivitat konnen wir den Raum
Lp(F∞), p ≥ 1 identifizieren mit einer Menge von Martingalen versehen mit
der Norm ‖X‖p = supn ‖Xn‖n.
Satz 45 (Kolmogoroff 0-1 Gesetz) Seien Xn, n ∈ IN uiv Zgn. Dann ist
die terminale σ-Algebra F∞ = ∩nFn, Fn := σ(Xn, Xn+1, . . .) trivial.
Bew: Sei Fn = σ(X1, X2, . . . , Xn) die kanonische Filtration und F ∈ F∞ ⊂F∞. Beachte Fn und F∞ sind unabhangig.
11F = E(11F | F∞) = limn
E(11F | Fn) = E(1F ) = P (F )
P (F ) ist eine Konstante und kann nur 0 oder 1 sein. q.e.d.
4.1.2 Regulaere Stoppzeiten
Eine der wesentlichen Anwendungen liegt im Optional Sampling Theorem EXτ =
EX1 fur Martingale X und regulare Stoppzeiten.
Eine Stoppzeit τ zur der Filtration F heißt regular bzgl. dem Martingal
(X,F) falls das Martingal (Xτ∧n,Fτ∧n)n L1−konvergent ist.Bem: L1−konvergente Martingale werden auch regular genannt.
Lemma 46 Sei X ein regulares Martingal bzgl. der Filtration F , X∞ der L1-
Grenzwert. Dann ist jede erweiterte Stoppzeit τ regular. Xτ hat die Darstellung
Xτ = E(X∞ | Fτ )
fur n ∈ IN. Fur jede Folge τm, m ∈ IN, von aufsteigenden Stoppzeiten ist
(Xτm ,Fτm)m ein regulares Martingal.
Beweis: Fur eine erweiterte Stoppzeit τ gilt
Xτ∧n =n∑
m=0
Xm11τ=m +Xn11τ>n
=n∑
m=0
11τ=mE(X∞ | Fm) + 11τ>nE(X∞ | Fn)
=
n∑
m=0
E(11τ=mX∞ | Fτ∧m) + E(11τ>nX∞ | Fτ∧n)
= E(X∞ | Aτ∧n).
42 (31. Januar 2017) L1−Martingale
(Bedingt auf die Menge τ = m sind die σ−Algebren Fm und Fτ gleich.)
Hieraus folgt die Regularitat von τ, Satz 41. Mit n→∞ ergibt sich
Xτ = E(X∞ | Fτ ).
Der zweite Teil der Aussage folgt nach dem Satz 43 fur die Filtration (Fτm)m.
q.e.d.
Korollar 47 Sei X ein Martingal und τ eine regulare Stoppzeit. Dann ist jede
kleinere Stoppzeit σ ≤ τ regular und
Xσ∧n = E(Xτ | Fσ∧n).
Wann ist eine Stoppzeit regular? Das folgende Lemma beantwortet diese
Frage.
Lemma 48 Sei X ein Martingal und τ eine Stoppzeit. Aquivalent sind
(i) τ ist regular.
(ii) ‖Xτ∧n‖1 →n ‖Xτ‖1.
(iii) (Xτ∧n)n ist gleichgradig integrierbar.
Beweis: Dieses Lemma ist eine Jagd durch die vorhergenhenden Satze. Wir
uberlassen es dem Leser als Ubungsaufgabe und zur Kontrolle.
Korollar 49 (Optional Sampling Theorem) Sei τ eine regulare Stoppzeit
bzgl. dem Martingal (X,F). Dann gilt
EXτ = EX1.
Der nachste Abschnitt 7.1 bringt ein Beispiel.
Waldsche Identitat
Lemma 50 (Waldsche Identitat) Seien Xn, n ∈ IN , uiv Zgn, Sn die n−tePartialsumme
∑ni=1 Xi und τ eine integrierbare Stoppzeit.
i) Ist X1 integrierbar, so ist τ regular fur das Martingal (Sn−E(Sn))n. Es
gilt
E(Sτ ) = E(τ)E(X1) (4.1)
ii) Ist X1 quadratintegrierbar, so ist τ regular fur das Martingal ((Sn−E(Sn))2−
Var(Sn))n. Ferner gilt
E((Sτ − τE(X1))2) = E(τ)Var(X1). (4.2)
4.1. L1−konvergente Martingale (31. Januar 2017) 43
Beweis: OEdA sei EX1 = 0.
Wir beginnen mit der L1−Konvergenz Sτ∧nL1
→n→∞ Sτ
‖Sτ∧n − Sτ‖1 = E|∑
m>n
Xm11τ≥m| ≤ E∑
m>n
|Xm|11τ≥m
=∑
m>n
E(11τ≥mE(|Xm| | Fm−1)) =∑
m>n
E(|X1|)E(11τ≥m)
= E(|X1|)E(τ11τ≥n)→n→∞ 0.
Obige bewiesene Eigenschaft zeigt die Regularitat von τ und damit ESτ = 0.
Nun zur zweiten Aussage. Der Einfachheit halber seien die X-Zgn zentriert.
Sei Mn := S2n − nσ2 mit σ2 die Varianz von X1.
• M ist ein Martingal.
Mn ist integrierbar und die Martingaleigenschaft wird nachgerechnet.
E(S2n | An−1) = E(S2
n−1 +X2n + 2Sn−1Xn | An−1) = S2
n−1 + E(X2n)
• τ ist regular.
Das Optional Sampling Theorem (OST) liefert EMτ∧n = M0 = 0 und
damit ES2τ∧n = σ2E(τ ∧ n). Dies impliziert die Teilaussage wegen
supn
E|Mτ∧n| ≤ 2σ2E(τ ∧ n) ≤ 2σ2Eτ <∞
• ES2τ = σ2Eτ
Dies erhalten wir aus dem OST fur regulare Stoppzeiten, EMτ = 0. q.e.d.
Bemerkung: Die Waldsche Identitat laßt vermuten, daß es ein ahnlich
gebautes Martingal gibt mit S3n, S
4n, . . . . Wie sehen diese aus? Das nachste ist
S3n−nσ2Sn−nEX3 fur zentrierte Zgn. Und dann? (Die Losung ist im Abschnitt
exponentielle Martingale.)
Folgerung 51 Seien Xn, n ∈ IN, uiv Zgn mit Werten −1 oder +1 mit Wahr-
scheinlichkeit 1/2. Sei Sn die Partialsumme und τc := infn | Sn ≥ c. Dann
gilt E(τ1) =∞.
Beweis: Ware Eτ1 <∞ so ergibt die Waldsche Identitat 1 = ESτ1 = E(τ1)E(X1) =
0 einen Widerspruch. q.e.d.
Bemerkung: Seien Xn, n ∈ IN, uiv integrierbare Zgn, c > 0.
Im Fall EX1 > 0 gilt P (τc <∞) = 1 und Eτc <∞.
Im Fall EX1 = 0 gilt P (τc <∞) = 1 und Eτc =∞.
Im Fall EX1 < 0 gilt P (τc <∞) < 1 und Eτc =∞.
Mit Hilfe der Abschneidetechnik lassen sich einige Resultate fur nicht integrier-
bare X−Zgn zeigen, sofern deren Positiv- oder Negativteil integrierbar ist.
44 (31. Januar 2017) L1−Martingale
Spielstrategie: Einfache Chance Ein Spieler am Roulettetisch setzt stets
eine Einheit auf einfache Chance, sagen wir stets auf Rot (Gewinnchance p <
1/2). Er spielt solange, bis er insgesamt eine Einheit gewonnen hat. Er darf
beliebig viel Kredit aufnehmen. Die Wald Identitat besagt, daß dieser Spieler
eventuell sehr lange spielen muß, der Erwartungswert seiner Spielzeit ist ∞.
Mit strikt positiver Wahrscheinlichkeit muß der Spieler sogar lebenslang spielen.
Selbst wenn wir die fur den Spieler nachteilige grune Zahl nicht berucksichtigen
(p = 1/2), bleibt der Erwartungswert der Spieldauer unendlich. Wird dem
Spieler nur begrenzter Kredit gegeben, so spielt er nur endlich oft, bis er pleite
ist oder eine Einheit gewonnen hat.
Verdoppelungsstrategie oder Martingalstrategie: Der Spieler spielt
am Roulette die Martingalstrategie. Er setzt jeweils auf einfache Chance, sagen
wir stets auf Rot, die mit W-keit p ∈ (0, 1) kommt.
• Gewinnt er, so verlaßt er mit seinem Gewinn den Spieltisch.
• Hat er in der letzten Spielrunde verloren, so verdoppelt er in der neuen
Spielrunde seinen Einsatz.
Er darf beliebig viel Kredit aufnehmen.
Mit dieser Strategie kann der Spieler sicher sein, genau eine Einheit zu
gewinnen (und dann noch eine und noch eine......). Irgendwann kommt Rot
und dieses Ereignis tritt sogar nach endlicher Erwartungszeit ein. Wenn der
Spieler zum ersten Mal in der n−ten Spielrunde gewinnt, so hat er bis dahin
20+21+ . . .+2n−2 = 2n−1−1 Einheiten verloren und gewinnt nun 2n−1 hinzu.
Dies macht einen Gewinn einer Einheit. Wo liegt der Pferdefuß in der Realitat?
Mathematisch ist die Argumentation sauber, die Martingalstrategie ist tatsachlich
erfolgreich. Sie mussen nur genugend viel Geld parat haben, um diese Strategie
spielen zu konnen.
4.1.3 Diverses
5 Ruckwartsmartingale
EinRuckwartsmartingal ist ein adaptierter Prozess (Xn,An)n∈IN0mit (Mt,Ft)t∈−IN0
ein Martingal, wobei M−n = Xn,F−n = An fur n ∈ IN0. Ausfuhrlicher ge-
schrieben, An, n ∈ IN ist eine fallende Folge von σ-Algebren und es gilt die
Martingaleigenschaft
E(Xn | An+1) = Xn+1
Analog definiere Ruckwartsub- und Ruckwartssupermartingale durch ≤ bzw.
≥ in obiger Gleichheit.
Die Doobsche Argumentation mit aufsteigenden bzw. absteigenden Uber-
kreuzungen und die Grenzwertbetrachtung durch Monotonie halt allgemein
auch fur Ruckwartsmartingale. Die Bedingung supn EX+n < ∞ ist fur Sub-
martingale trivialerweise erfullt, da das Supremum angenommen wird durch
E(X+0 ) und dieses ist endlich. Weiterhin sind die Ruckwartsmartingale stets
regular.
Hier ist das Standardbeispiel fur Irrfahrten.
Proposition 52 Seien Xn, n ∈ IN, uiv integrierbare Zgn, Sn die n-te Par-
tialsumme. Dann ist Sn−nE(X1)n , n ∈ IN, ein Ruckwartsmartingal bzgl. der
Filtration (An)n∈IN , An := σ(Sn, Sn+1, . . .) = σ(Sn, Xn+1, Xn+1, . . . und kon-
vergiert fast sicher und in L1.
Beweis: OEdA sei EX1 = 0.
• E(Xi | An) = E(Xi | Sn) fur 1 ≤ i ≤ n.
BeachteAn = σ(Sn, Xj , j > n) und die Unabhangigkeit vonXi und σ(Xj , j >
n).
• E(Xi | Sn) = E(X1 | Sn) fur i ≤ n.
Die Verteilung von (Xi)ni=1 ist dieselbe wie von (Xπ(1))
ni=1 fur eine Permuta-
tion π der ersten n Zahlen. Der Wert Sn andert sich unter π nicht. Insbesondere
ist (Xi, Sn) genauso verteilt wie (X1, Sn).
• (Sn
n ,An) ist ein Ruckwartsmartingal.
45
46 (31. Januar 2017) Ruckwartsmartingale
Die Integrierbarkeit ist offensichtlich.
E(Sn−1
n− 1| An) =
1
n− 1
n−1∑
i=1
E(Xi | An) = E(X1 | An) = E(1
n
n∑
i=1
Xi | An) =Sn
n.
Der Rest folgt aus Doob und Levy. q.e.d.
Um die Starke dieses Satzes zu demonstrieren, beweisen wir das starke Ge-
setz der Großen Zahl.
Satz 53 (Starke Gesetz der Großen Zahl) Seien Xn, n ∈ IN, uiv Zgn
und Sn die n-te Partialsumme.
Ist X1 integrierbar, so konvergiert Sn
n fast sicher gegen EX1.
Ist X1 nicht integrierbar, so gilt lim supn|Sn|n =∞.
Beweis: Sei X1 integrierbar und oEdA EX1 = 0. Dann konvergiert das
Ruckwartsmartingal Sn
n , n ∈ IN fast sicher und in L1 gegen eine Zg Z. Z ist
meßbar bzgl. der terminalen σ-Algebra A∞ = ∩nAn. Nach dem Kolmogoroff
0−1-Gesetz (45) istA∞ trivial. Z ist eine Konstante. Wegen der L1-Konvergenz
ist E(X1) = 0 = E(Z) = Z.
Sei jetzt X1 nicht integrierbar. Betrachte die Mengen An := |Xn| > cnfur eine positive Konstante c. Nach Borel-Cantelli treten fast sicher unendlich
viele der Ereignisse An ein, da die Mengen unabhangig sind und
∑
n
P (An) =∑
n
∑
i≥n
P (i ≤ |Xn|c
< i+ 1) =∑
i
∑
n≤i
P (i ≤ |Xn|c
< i+ 1)
=∑
i
iP (i ≤ |X1|c
< i+ 1) ≥ E|X1|c− 1 =∞.
• Fur ω ∈ An gilt |Sn(ω)n | ∨ |Sn−1(ω)
n | > c2 .
Sei oEdA |Sn−1(ω)n | ≤ c
2 . Es gilt
∣∣∣∣
Sn(ω)
n
∣∣∣∣=
∣∣∣∣
Xn(ω)
n+
Sn−1(ω)
n
∣∣∣∣≥
∣∣∣∣
∣∣∣∣
Xn(ω)
n
∣∣∣∣−
∣∣∣∣
Sn−1(ω)
n
∣∣∣∣
∣∣∣∣>
∣∣∣c− c
2
∣∣∣ =
c
2.
Damit folgt lim supn|Sn|n ≥ c
2 fur jedes vorgegebene c > 0. q.e.d.
6 Quadratintegrierbare
Martingale
Sei M ein quadratintegrierbares (EM2n < ∞) Martingal. Wir benutzen der
Einfachheit halber Standardmartingale. Mn hat die Darstellung
Mn = M0 +
n∑
i=1
Di
mit den Martingaldifferenzen Di = Mi −Mi−1. Eine einfache Rechnung ergibt
Proposition 54 Sei M ein quadratintegrierbares Martingal. Die Doob-Meier
Zerlegung des Submartingals (M2n) lautet M
2n = Xn+An mit An =
∑ni=1 E(D2
i |Fi−1) und Xn = M2
n−An. Die Varianz berechnet sich zu Var(Mn) =∑n
i=1 Var(Di).
Bew: Berechne E(M2n − M2
n−1 | Fn−1) = E(D2n | Fn−1) und die Varianz
entsprechend. q.e.d.
Satz 55 Sei M ein quadratintegrierbares Martingal. Dann konvergiert M in
L2 genau dann, wenn limn VarMn endlich ist.
Im L2-Konvergenzfall konvergiert Mn auch fast sicher gegen den L2-Grenzwert
M∞ und es gilt
VarM∞ =∑
i∈IN
VarDi.
Bew: OEdA sei M0 = 0.′ ⇒′ Das Martingal M konvergiere in L2 gegen einen Grenzwert genannt
M∞. Dann gilt ‖Mn‖2 →n ‖M∞‖2 <∞ und damit
EM2n =
n∑
i=1
VarDi →n→∞
∑
i∈IN
VarDi = EM2∞ <∞.
′ ⇐′ Die Folge (Mn)n ist eine Cauchyfolge, da fur m < n gilt
‖Mn −Mm‖22 = E(
n∑
i=m+1
Di)2 =
n∑
i=m+1
Var(Di) ≤∑
i>m
Var(Di)→m 0.
47
48 (31. Januar 2017) Quadratintegrierbare Martingale
Die fast sichere Konvergenz folgt aus Doob, supn E|Mn| ≤ supn ‖Mn‖2 <
∞. Der f.s. Grenzwert und der L2 Grenzwert sind gleich. q.e.d.
7 Exponentielle Martingale
7.1 Irrfahrt
Seien X1, X2, . . . uiv zentrierte Zgn nicht identisch 0. Sei Sn =∑n
i=1 Xi die n-
te Partialsumme. Wir nehmen die naturliche Filtration Fn := σ(S1, . . . , Sn) =
σ(X1, . . . , Xn).
• Falls |X1| integrierbar ist, so ist Sn ein Martingal.
• Falls X21 integrierbar ist, so ist S2
n − nE(X21 ) ebenfalls ein Martingal.
• Falls |X1|3 integrierbar ist, so ist S3n − 3SnnE(X2
1 ) − nE(X1)3 ein Mar-
tingal.
Und so weiter... (Bildungsgesetz? siehe hierzu 7.2)
Alle diese Martingale sind nicht regular. Zeige hierfur: E| Martingaln| −→n
∞.
7.2 Exponentielle Martingale
Seien X1, X2, . . . uiv Zgn und Sn =∑n
i=1 Xi die n-te Partialsumme. Der Ein-
fachheit habe Xi Erwartungswert 0 und sei nicht fast sicher eine Konstante.
Wir wollen das Martingal
Mn(t) := exp(tSn − n lnΦ(t)) = Φn(t) exp(n∑
i=1
(tXi)) (7.1)
mit n ∈ IN, t ∈ IR
Φ(t) := E(exp(tX)) (7.2)
betrachten.
Die erweiterte Funktion Φ : IR → IR+ ∪ ∞ wie oben definiert ist die
Laplacetransformierte.
Proposition 56 Der Logarithmus lnΦ der Laplacetransformierten ist eine kon-
vexe, unterhalb stetige erweiterte Funktion. Sie ist strikt konvex, falls X keine
Konstante ist. Es gilt stets Φ(0) = 1.
49
50 (31. Januar 2017) Exponentielle Martingale
Beweis: Fur u 6= v ∈ IR, λ ∈ (0, 1), verwende die Holdersche-Ungleichung p =
1/λ, q = 1/(1− λ):
lnΦ(λu+ (1− λ)v) = ln ‖ exp(λuX) exp((1− λ)vX)‖1Holder≤ ln ‖ exp(λuX)‖p‖ exp((1− λ)vX)‖q= ln((E exp(uX))λ(E exp(vX))1−λ)
= λ lnΦ(u) + (1− λ) lnΦ(v).
Die Holderungleichung ist strikt, da Φ strikt ist. (Der Fall X1 identisch eine
Konstante ist ausgeschlossen.) Der Rest ist einfach. q.e.d.
Die Konvexitat liefert Φ−1(IR) = t | Φ(t) < ∞) ist ein Intervall. Die
Funktion Φ ist stetig im Inneren des Endlichkeitsintervalls und stetig an den
Randern.
Bem: Eine erweiterte Funktion f : IR → IR heißt konvex, falls die Menge
(x, y) ∈ IR2 | y > f(x) konvex ist. Fur f : IR → IR ∪ ∞ entspricht diese
Definition der ublichen Konvexitatsdefinition f(tx + (1 − t)y) ≤ tf(x) + (1 −t)f(y) fur alle x, y ∈ IR und t ∈ (0, 1).
Lemma 57 Sei Φ(t) endlich fur ein t ∈ IR. Dann ist (Mn(t))n ein positives
Martingal bezuglich der naturlichen Filtration mit Anfangswert 1. Fur t 6= 0
konvergiert dieses Martingal fast sicher gegen 0.
Beweis: Die Zgn Mn(t) sind wohldefiniert, strikt positiv und adaptiert zur Fil-
tration Fn = σ(X1, . . . , Xn) = σ(M1, . . . ,Mn). Die Zgn sind integrierbar mit
Erwartungswert 1 (Nachrechnen). Nun die Martingaleigenschaft
E(Mn | Fn−1) = E(exp(t(Sn−1 +Xn)− n lnΦ(t)) | Fn−1)
= Mn−1E(exp(tXn)) exp(− lnΦ(t)) = Mn−1.
• Mn(t)n → 0 fast sicher fur t 6= 0.
lnMn(t) ist die n-te Partialsumme der uiv Zgn Yi = tXi − lnΦ(t). Die Yi
sind integrierbar und nach Jensen, X1 ist keine Konstante,
EY1 = EtXi − lnEetX < 0.
Nach dem starken Gesetz der Großen Zahl konvergiert lnMn(t)n fast sicher gegen
E(Y1) < 0. Dies impliziert die Teilausage. q.e.d.
Aus Mn(t) lassen sich durch Summierung uber t viele neue Martingale kon-
struieren. Wir geben einige Beispiele.
Proposition 58 Sei µ ein Maß auf IR. Dann ist∫
exp(tSn − n lnΦ(t))µ(dt) (7.3)
7.2. Exponentielle Martingale (31. Januar 2017) 51
ein Martingal, vorausgesetzt die Zgn sind integrierbar.
Beweis: Verwende Fubini.
Mit obiger Konstruktion konnen wir auch eine Folge von Zgn konstruieren,
die die Martingaleigenschaft erfullt, aber nicht integrierbar sind. Als Beispiel
nehmen wir normal N(0, 1) verteilte, unabhangige Zgn Xn, n ∈ IN und µ sei
das Lebesguemaß. Eine Rechnung ergibt lnΦ(t) = t2
2 und
Mn =
∫
exp(tSn−n
2t2)dt = exp(
S2n
2n)
∫
exp(−n
2(t−Sn
n)2)dt =
√
2π
nexp
(S2n
2n
)
ist wohldefiniert und endlich.Mn ist nicht integrierbar fur n = 1, aber integrier-
bar fur n > 1. Daher ist Mn kein Martingal nach der gegebenen Definition. Die
Martingaleigenschaft E(Mn+1 | Fn) = Mn ist erfullt fur alle n ≥ 1. Bedingt
auf den Anfangswert M1 ist (Mn)n ein Martingal. Das bedingte Martingal
konvergiert fast sicher gegen 0. Damit konvergiert auch Mn fast sicher gegen
0. (Ubung: Welches Problem mit Nullmengen tut sich auf und wie laßt es sich
umgehen?)
Korollar 59 Sei Φ : IR→ IR endlich in einer offenen Umgebung U der 0. Sei
exp(tx− nΦ(t)) =
∞∑
k=0
tk
k!M(k, n, x)
die Reihenentwicklung der analytischen Funktion in t ∈ U fur x ∈ IR, n ∈ IN,
fest. Dann ist fur jedes k ∈ IN die Folge M(k, n, Sn), n ∈ IN, ein Martingal.
Insbesondere
M(0, n, Sn) ≡ 1
M(1, n, Sn) = Sn
M(2, n, Sn) = (Sn)2 − nE(X2
1 )
usw.
Beweis: Wir haben bereits bewiesen
E(exp(tSn − n lnΦ(t)) | Am) = exp(tSn−1 − (n− 1) lnΦ(t)).
Eine Reihenentwicklung in t liefert
∞∑
k=0
tk
k!E(M(k, n, Sn) | An−1) =
∞∑
k=0
tk
k!M(k, n− 1, Sn−1)
Ein Koeffizientenvergleich liefert die Aussage. q.e.d.
Regulare Stoppzeiten Die exponentiellen Martingale Mn(t) = etSn−nΦ(t)
t 6= 0 sind nicht regular. Jedoch haben sie interessante regulare Stoppzeiten.
52 (31. Januar 2017) Exponentielle Martingale
Satz 60 Seien die X-Zgn gleichmaßig beschrankt. Dann ist fur jedes a < 0 < b
die Stoppzeit des ersten Verlassens des Intervalls (a, b),
τ = infn ∈ IN | Sn < a oder Sn > b
eine regulare Stoppzeit fur das Martingal Mn(t) = exp(tSn−n lnΦ(t)), n ∈ IN .
Insbesondere:
EMτ = 1.
Beweis: Sei t 6= 0. Mτ∧n ist ein beschranktes Martingal. Mτ∧n konvergiert
fast sicher und in L1 gegen einen Grenzwert. Diesen nennen wir Mτ . Es folgt
EMτ = EM1 = 1. q.e.d.
τ nimmt in der Regel den Wert∞ an mit strikt positiver W-keit. Dies folgt
aus Mn(t) konvergiert f.s. gegen 0 fur t 6= 0.
Umgekehrt, ist EMτ (t) = M0(t) = 1 so ist die Stoppzeit regular.
8 Konvergenz und Topologie
Wir betrachten verschiedene Konvergenzarten auf dem Raum der Maße und
auf dem Raum der Zufallsgroßen.
Beachte, daß fast jede Konvergenzart eine Konvergenz im topologischen
Sinne ist und umgekehrt, (Pedersen [?]). (Ein topologischer Raum ist ein Tupel
(E, τ), wobei E eine Menge ist und τ eine Teilmenge der Potenzmenge ist, die E
enthalt und abgeschlossen ist bezuglich endlichem Durchschnitt und beliebiger
Vereinigung. Eine Folge en ∈ E, n ∈ IN, konvergiert gegen e ∈ E, falls fur
alle U ∈ τ mit e ∈ U es ein n0 gibt, sodaß fur alle n ≥ n0 gilt en ∈ U.)
Die fast sichere Konvergenz ist eine Aussnahme, dies ist keine topologische
Konvergenzart.
8.1 Konvergenz von W-maßen
Fur ein Maß µ und eine Funktion f benutzen wir µ(f) :=∫fdµ, falls dies
wohldefiniert ist.
Eine Folge µn von Maßen konvergiert bzgl. einer Klasse F von Funktionen,
falls fur alle f ∈ F gilt
µn(f)→n µ(f).
Notation: µnF→n µ.
Die zugehorige Topologie wird erzeugt von den Mengen
Uǫ,f (µ) := ν |∣∣∣∣
∫
fdν −∫
fdµ
∣∣∣∣< ǫ,
ǫ > 0, f ∈ F .Fur F bestehend aus den Treppen 11A, A ∈ A, erhalten wir die punktweise
Konvergenz von Maßen.
Ab jetzt sei (Ω, τ) ein topologischer Raum. Wir sprechen von schwacher
Konvergenz fur die Konvergenz bezuglich aller stetigen beschrankten Funk-
tionen.
53
54 (31. Januar 2017) Konvergenz und Topologie
Notation: µnw→n µ oder µn
d→n µ oder µnCb→n µ. Hierbei steht w fur weak , d
fur distribution und Cb fur die Funktionenklasse. (Die W-theoretische schwache
Konvergenz ist die funktionalytische schwach* Konvergenz.)
Wir sprechen von vager Konvergenz fur die Konvergenz bzgl. allen stetigen
Funktionen mit kompaktem Trager. (Der Trager supp(f) einer Funktion ist die
kleinste abgeschlossene Menge f 6= 0 enthaltend.)
Notation: µnv→n µ.
Eine FamilieM von Maßen heißt straff, falls es fur alle ǫ > 0 eine kompakte
Menge K gibt mit µ(Kc) ≤ ǫ fur alle µ ∈M.
Lemma 61 Eine Folge von W-maßen konvergiert schwach genau dann, wenn
sie vage konvergiert und die Familie straff ist.
µnd→n µ⇔ µn
v→n µ und µn, n ∈ IN straff.
Beweis:’⇒‘ Sei K ein kompaktes Intervall und Kǫ := x ∈ IR | ∃y ∈ K :
|x− y| ≤ ǫ. Es gibt eine stetige Funktion f, die auf dem Kompaktum K stets
1 ist, außerhalb von Kǫ stets 0 und ansonsten von unten durch 0, von oben
durch 1 beschrankt ist (Lemma von Urysohn, [?]). Es gilt
µn(Kcǫ ) ≤ µn(1− f)→n µ(1− f) ≤ µ(Kc).
Wahlen wir K mit µ(K) ≥ 1− ǫ so gilt µn(Kcǫ ) < ǫ bis auf endlich viele n.
Wir vergroßern K entsprechend, um die restlichen n’s mit einzuschließen.
’⇐‘ Sei g stetig, beschrankt, und f,K wie oben. Argumentiere g = fg +
(1− f)g,
|µn(g)− µ(g)| = |µn(fg)− µn(fg)|+ |µn((1− f)g)− µ((1− f)g)|.
Der erste Term wird klein fur n hinreichend groß. Der zweite Term wird ab-
geschatzt durch ≤ ‖g‖∞(µn(Kc) + µ(Kc)) und klein fur K hinreichend groß.
q.e.d.
Beispiel: µn = δn auf den reellen Zahlen konvergiert vage (gegen Null),
aber nicht schwach.
Fur eine Verteilungsfunktion F sei F−1 die linksstetige Inverse
F−1(u) := infx | F (x) ≥ u.
Lemma 62 Seien µ, µn, n ∈ IN, W-maße auf den reellen Zahlen. Aquivalent
sind die Aussagen
i) Die Folge µn konvergiert schwach gegen µ.
ii) Die Folge konvergiert bezuglich einer der Klassen Cc, C∞b , C∞
c .
8.1. Konvergenz von W-maßen (31. Januar 2017) 55
iii) Die zugehorigen Verteilungsfunktionen Fn konvergieren gegen F fur alle
Stetigkeitspunkte von F.
iv) Die Inversen F−1n konvergieren gegen F−1 fur alle Stetigkeitspunkte von
F−1.
Beweis: i) ⇔ ii). Konvergenz bzgl. Cb ist hier gleichbedeutend, Lemma 61,
mit Konvergenz bzgl. Cc. Jede Funktion aus Cc laßt sich in Supremumsnorm
beliebig gut durch eine C∞c Funktion approximieren. Dies reicht.
i)⇒ iii) Sei fa diejenige stetige Funktion,die 1 auf (−∞, a], 0 auf [a+ ǫ,∞)
und sonst linear ist. Es gilt
F (a− ǫ) ≤ µ(fa−ǫ)←n µn(fa−ǫ) ≤ Fn(a) ≤ µn(fa)→n µ(fa) ≤ F (a+ ǫ).
Anders geschrieben,
F (a− ǫ) ≤ lim infn
Fn(a) ≤ lim supn
Fn(a) ≤ F (a+ ǫ).
Dies gilt fur alle ǫ > 0.
iii)⇐ i) Die Menge S der Stetigkeitspunkte von F ist dicht. (Eine monoton
steigende Funktion hat hochstens abzahlbar viele Unstetigkeitspunkte und ides
sind Sprungstellen.) Betrachte die Menge aller meßbarer beschrankter Funk-
tionen f mit µn(f) →n µ(f). Diese Menge ist abgeschlossen bzgl. Addition
und gleichmaßiger Konvergenz. Sie enthalt alle Treppen 11(−∞,s] mit s ∈ S
ein Stetigkeitspunkt. Die Menge enthalt alle stetigen Funktion mit kompaktem
Trager, da diese sich gleichmaßig durch Treppenfunktionen obiger Treppen ap-
proximieren lassen. Folglich konvergiert µn vage. Zusammen mit Straffheit der
Folge, siehe gleich, folgt schwache Konvergenz.
• µn, n ∈ IN, ist straff.
Wahle Stetigkeitspunkte s1, s2 mit F (s1) < ǫ, F (s2) > 1 − ǫ. Fur K = [s1, s2]
gilt
µn(Kc) ≤ Fn(s1) + 1− Fn(s2)→n F (s1) + 1− F (s2) < 2ǫ.
Daher gilt µn(Kc) < 2ǫ bis auf endlich viele n. Wir vergroßern jetzt K ent-
sprechend, um diese n mit einzuschließen.
iii) ⇔ iv) Dies ist einfach fur F stetig und strikt steigend. Der allgemeine
Fall ist eine unschone Ubung. q.e.d.
Eine Familie F von Funktionen heißt separabel oder trennend bzgl. einer
FamilieM von Maßen, falls je zwei Maße aus der Familie sich fur mindestens
eine Funktion f aus der Funktionenfamilie unterscheiden. (∀µ 6= ν ∈ M∃f ∈F : µ(f) 6= ν(f).)
Cc ist W-maß trennend, Lemma 62 und Eindeutigkeit der Verteilungsfunk-
tion.
56 (31. Januar 2017) Konvergenz und Topologie
8.1.1 Gleichgradige Integrierbarkeit
Gleichgradige Integrierbarkeit ist eine Eigenschaft von Maßen bzw. Verteilun-
gen. Wir werden die w-theoretische Sprache mit Zgn verwenden, da hier die
meisten Anwendungen sind. Die Verbingung ist: Sei µ ein W-maß auf den reel-
len Zahlen mit der Borel σ-Algebra. Dann hat F−1(U) die Verteilung µ, wobei
F die zugehorige Verteingsfunktion ist und U gleichmaßig verteilt auf dem
Einheitsintervall.
Eine Familie F von Zgn heißt gleichmaßig integrierbar oder gleichgradig
integrierbar, falls gilt
g(c) := supX∈F
∫
|X|>c
|X| −→c→∞ 0.
Fur eine Funktion f heißt die Familie F gleichmaßig f -integrierbar oder gleich-
gradig f -integrierbar, falls f(X) gleichgradig integrierbar ist. Sie heißt p-gleichmaßig
integrierbar fur 1 ≤ p <∞, oder gleichmaßig p-integrierbar , falls sie gleich-
gradig f -integrierbar ist fur die Funktion f(x) = |x|p.Bem: Eine Familie gleichgradig integrierbarer Zgn erfullt stets
supX
E|X| ≤ c+ g(c) <∞
Fur eine Zg X definiere H = HX : [0, 1] 7→ IR
HX(t) := sup∫
A
|X|dP | P (A) ≤ t.
Fur eine Familie F von Zgn benutzen wir
HF (t) := supX∈F
HX(t).
Falls der W-raum reichhaltig genug ist und eine gleichformig verteilte Zg be-
sitzt, (was wir stets annehmen,) so gilt
HX(t) =
∫ 1
1−t
F−1(u)du,
mit F die Verteilungsfunktion zu |X|. (Ubung)Bem: Genaugenommen ist H fur Verteilungen definiert.
Satz 63 Fur eine Familie F von Zgn sind die folgenden beiden Aussagen aqui-
valent:
(i) F ist gleichgradig integrierbar.
8.1. Konvergenz von W-maßen (31. Januar 2017) 57
(ii) Fur alle ǫ > 0 gibt es eine integrierbare Zg Y mit supX∈F
∫
|X|>Y|X|dP <
ǫ.
(iii) HF : [0, 1]→ IR ist stetig in 0.
(iv) Es gibt eine aufsteigende Funktion ϕ : IR+ → IR+ mit limx→∞ϕ(x)x =∞
und F ist gleichgradig ϕ| · |-integrierbar.
Beweis: OEdA sind alle Zgn positive.
i)⇒ ii) Wahle Y als eine Konstante.
ii) ⇒ iii) In der Zerlegung∫
A
X =
∫
A∩X>Y
X +
∫
A∩X≤Y
X ≤∫
X>Y
|X|+∫
A
Y
ist der erste Term klein durch Wahl des Y glm. in X. Der zweite Term ist klein
in P (A) klein glm. in X.
iii) ⇒ i) Zu vorgegebenem ǫ > 0 wahle ein p > 0 mit HF (p) < ǫ. Wahle
eine Partition (Ai)Ni=1 von Ω in N ≤ 1
p + 1 Mengen vom Maß ≤ p. Dann gilt
gleichmaßig in X ∈ F∫
X ≤∫
∪iAi
X ≤∑
i
∫
Ai
X ≤ HF (p)N <∞.
Die Markoffungleichung liefert
supX∈F
P (X > c) ≤ supX
∫X
c≤ ǫN
c→c→∞ 0
Es folgt
supX∈F
∫
X>c
X ≤ supX
HX(P (X > c) ≤ supX
HF (P (X > c)) ≤ HF (supX
(P (X > c))→c→∞ 0
iv) ⇒ i)∫
X>c
X =
∫
X>c
X
ϕ(X)ϕ(X) ≤ sup
x≥c
x
ϕ(x)Eϕ(X).
Der erste Faktor konvergiert mit c→∞ gegen 0 glm. in X ∈ F und der zweite
ist endlich gleichmaßig fur X ∈ F .i) ⇒ iv) Wahle aufsteigende Folge 0 = e0 < en →n ∞ mit g(en) ≤ 2−n.
Definiere die Funktion ϕ durch ϕ(x) =∑
n∈IN0(|x| − en)
+. ϕ ist symmetrisch
und auf IR+ strikt monoton steigend gegen unendlich. Es gilt
limx→∞
ϕ(x)
x= lim
x
∑
n
(x− en)+
x≥
∑
n≤n0
lim infx
(x− en)+
x= n0 →n0
∞
58 (31. Januar 2017) Konvergenz und Topologie
Zu vorgegebenem n0 sei c gross mit ϕ(en0) < c
∫
ϕX>c
ϕ(X) =∑
n
∫
ϕ(X)>c
(|X| − en)+
≤∑
n≥n0
∫
X>en0
(X − en)+ +
∑
n<n0
∫
ϕ(X)>c
X
≤∑
n≥n0
∫
X≥en
Xn +∑
n<n0
g(ϕ−1(c))
≤∑
n≥n0
2−n +∑
n<n0
g(ϕ−1(c))→c→∞ 0
gleichmaßig fur X ∈ F . q.e.d.
Bemerkung: Die hier konstruierte Funktion ϕ ist eine Orlicz Funktion (ϕ
ist positiv, konvex und ϕ(0) = 0). Zusatzlich ließe sich ϕ glatt wahlen, eventuell
unendlich oft differenzierbar und ϕ(x) > 0 fur x > 0.
Der wesentliche Einsatz gleichgradiger Integrierbarkeit besteht in folgendem
Lemma, welches im Beweis wesentlich Zgn benutzt.
Lemma 64 Die Folge (Xn)n konvergiere in Verteilung gegen X. Dann ist
gleichgradige Integrierbarkeit der Familie Xn, n ∈ IN aquivalent zu∫|Xn| →n
∫|X| <∞.
Bew: Sei fc die Funktion fc(x) = 11|x|≤c−1 + (|x| − c+ 1)+ = (|x| − c)+ ∧ 1
•∫|X| ≤ lim infn
∫|Xn| <∞
∫
|X| = limc→∞
∫
|X|fc(X) = limc
limn
∫
|Xn|fc(Xn) ≤ limc
lim infn
∫
|Xn| <∞
• lim supn∫|Xn| ≤
∫|X|
∫
|X| ≥∫
|X|fc(X) = limn
∫
|Xn|fc(Xn) = limn(
∫
|Xn| −∫
|Xn|(1− fc(X))
≥ lim supn
∫
|Xn| − lim supn
∫
|Xn|fc(X) ≥ lim supn
∫
|Xn| − g(c)
Mit c → ∞ erhalten wir lim sup∫|Xn| ≤
∫|X∞| ≤ lim inf
∫|Xn| und damit
die Hinrichtung.
Nun zur Ruckrichtung mit f = fc−1.
∫
|Xn|>c
|Xn| ≤∫
|Xn|(1− f(Xn)) =
∫
|Xn| −∫
|Xn|f(Xn)
8.1. Konvergenz von W-maßen (31. Januar 2017) 59
≤ |∫
|Xn| −∫
|X∞||+∫
|X|(1− f(X) + |∫
|X|f(X)−∫
|Xn|f(|Xn)|
= I + II + II
Zu vorgegebem ǫ wahle ein c hinreichend gross mit II < ǫ. Dann wahle ein
n0so dass fur alle n ≥ n0 sowohl I als auch III kleiner ǫ sind. Dies ergibt
supn≥n0
∫|Xn| > c|Xn| < 3ǫ. Durch Wahl eines noch großeren c konnen wir
g(c) < 3ǫ erreichen. ǫ war beliebig. q.e.d.
Korollar 65 Sei Xn, n ∈ IN eine gegen X in Verteilung konvergierende Folge
von Zgn. Ist die Familie (Xn)n gleichgradig integrierbar, so vertauschen fur
jede stetige Funktion f mit
lim sup|x|→∞
|f(x)||x| <∞ (8.1)
das Integral und der Limes,
limn
∫
f(Xn) =
∫
f(X).
Bew: Die Familie f(Xn), n ∈ IN ist gleichgradig integrierbar und konvergiert
in Verteilung. q.e.d.
Jetzt kommen wir zu w-theoretischen Aussagen. Die Verbindung ist: Kon-
vergiert Xn gegen X in Verteilung, so konvergiert F−1Xx
(U) fast sicher gegen
F−1X (U).
Korollar 66 Die L1-Konvergenz einer Folge (Xn)n von Zgn ist aquivalent zur
stochastischen Konvergenz und gleichgradiger Integrierbarkeit. Beide Grenzwer-
te stimmen fast sicher uberein.
Bew: Hinrichtung: Die L1-Konvergenz impliziert stochastische Konvergenz und
diese Konvergenz in Verteilung. Das obige Lemma liefert wegen ‖Xn‖ → ‖X‖1die gleichgradige Integrierbarkeit.
Fur die Ruckrichtung argumentiere
∫
|Xn −X| ≤∫
|X−Xn|<ǫ
. . .+
∫
ǫ≤|X−Xn|<c
. . .+
∫
c≤|X−Xn|
. . .
≤ ǫ+ cP (|X −Xn| ≥ ǫ) + 2
∫
|Xn|<c/2
|Xn|+ 2
∫
|X|>c/2
|X|
alle drei Terme werden beliebig klein fur kleine ǫ, große c und n hinreichend
groß. q.e.d.
60 (31. Januar 2017) Konvergenz und Topologie
Korollar 67 Seien Xn, n ∈ IN , p-integrierbare Zgn, 1 ≤ p < ∞. Dann sind
aquivalent
• Xn konvergiert in Lp.
• Xn → X stochastisch und ‖Xn‖p → ‖X‖p <∞.
• Xn konvergiert stochastisch und die Familie Xn, n ∈ IN ist gleichgradig
p-integrierbar.
Im Konvergenzfalle sind der stochastische und der Lp-Limes gleich.
Der Beweis ist einfach aus Obigem.
..........................................................................
8.1.2 Weitere Metriken
Metriken fur Verteilungsfunktionen: Weitere Metriken lassen sich aus den
Verteilungsfunktionen konstruieren. Hintergrund ist die eineindeutige Zuord-
nung von Maßen und Verteilungsfunktionen. Beispiele auf dem Raum der Ver-
teilungsfunktionen sind
d(F,G) := ‖F −G‖∞d(F,G) = inf ǫ | ∀x ∈ IR : |F (x)−G(x+ ǫ)| < ǫ und |F (x)−G(x− ǫ)| < ǫ
d(F,G) =
∫
|F (x)−G(x)|dx.
Diese Metriken auf den Verteilungsfunktionen sind auch Metriken auf W-maßen,
durch Identifizierung von Verteilungsfunktion undW-maß. (d(µ, ν) = d(Fµ, Fν).)
Wasserstein Metrik: Sei d eine Metrik auf dem Werteraum E und µ, ν
W-maße auf (E,B(E)). Definiere
D(µ, ν) := inf Ed(X,Y ).
Hierbei wird das Infimum uber alle X mit Verteilung µ und alle Y mit Vertei-
lung ν auf einem beliebigen W-raum genommen. Dies ist eine Metrik auf dem
Raum der W-maße.
Mallows Metrik: Ein Abstandsbegriff fur Maße impliziert in naturlicher
Weise einen Abstandsbegriff fur Zgn via der Verteilung. Umgekehrt, haben
wir einen Abstandsbegriff d fur Zufallsgroßen gegeben, so definieren wir einen
(potentiellen) Abstandsbegriff d auf Maßen durch
d(µ, ν) := inf d(X,Y ).
8.2. Konvergenz von Zufallsgroßen (31. Januar 2017) 61
Hierbei wird das Infimum uber alle X mit Verteilung µ und alle Y mit Vertei-
lung ν auf einem beliebigen W-raum genommen.
Ein Beispiel ist die Mallows Metrik lp : Mp ×Mp 7→ IR, 1 ≤ p ≤ ∞,
lp(µ, ν) = inf ‖X − Y ‖p
auf dem Raum Mp := µ |∫|x|pµ(dx) < ∞ der p-fach integrierbaren Maße
auf IR. Ohne Beweis sei angefuhrt, das Infimum wird angenommen mit
lp(µ, ν) = ‖F−1µ (U)− F−1
ν (U)‖p,
U eine gleichformig verteilte Zg (siehe [?]).
Satz 68 Der Raum (Mp, lp), 1 ≤ p ≤ ∞, ist ein vollstandiger, metrischer
Raum. Er ist separabel fur 1 ≤ p <∞.
Beweis: • Separabilitat.Sei D eine dichte abzahlbare Teilmenge in Lp. Dann ist die Menge aller Vertei-
lungen dazu dicht in Mp.
• Vollstandigkeit.Fur die Vollstandigkeit sei µn eine Cauchyfolge in lp-Mallow Metrik. Dann ist
F−1µn
(U), U gleichformig verteilt, eine Lp-Cauchyfolge. Diese konvergiert punkt-
weise gegen ein F−1(U). Das zugehorige W-maß µ tut’s. q.e.d.
Eine Folge Xn ist lp konvergent, falls die Verteilungen in Mallows lp Metrik
konvergieren.
Notation: Xnlp→n X.
Proposition 69 lp Konvergenz ist aquivalent zur schwachen Konvergenz plus
Konvergenz des p-ten absoluten Momentes. (=p-gleichmaßige Integrierbarkeit.)
Beweis: Wir benutzen die Version F−1n (U) = Xn und d(Fn, Fm) = ‖F−1
µ (U)−F−1ν (U)‖p. Dann verwende den Satz 71.
Bemerkung: Beachte auch die gleichmaßige Integrierbarkeit, Korollar 66.
8.2 Konvergenz von Zufallsgroßen
Konvergenzen der Verteilungen: Viele Eigenschaften ubertragen sich von
den Verteilungen nach folgendem allgemeinen Prinzip: Eine Folge, bzw. Familie
von Zgn Xn hat die Eigenschaft ∗, falls die zugehorigen Verteilungen die Ei-
genschaft ∗ besitzt. In diesem Sinne sprechen wir von schwacher und vager
62 (31. Januar 2017) Konvergenz und Topologie
Konvergenz oder von einer straffen Familie von Zgn. Wir verwenden diesel-
ben Symbole, z.B.
Notation: Xnd→ X ⇔ PXn
d→ PX .
Konvergenzen der Zgn: Nun zu Konvergenzarten der Zgn selbst. Eine
Folge Xn, n ∈ IN, von Zgn konvergiert stochastisch oder in Wahrscheinlichkeit
gegen eine Zg X, falls
limn
P (|Xn −X| > ǫ) = 0
fur alle ǫ > 0 gilt. Wir schreiben Xns→n X oder Xn
P→n X. s steht fur
stochastic und P fur probability.
Diese Konvergenz entspricht Konvergenz bzgl. der Topologie auf den Zgn
erzeugt durch die Metrik
d1(X,Y ) := infǫ ∈ IR | P (|X − Y | > ǫ) < ǫ
oder der Metrik
d2(X,Y ) := E( |X − Y |1 + |X − Y |
).
Eine Folge Xn von Zgn konvergiert fast sicher, falls
P (limn
Xn = X) = 1
gilt.
Notation: Xnf.s.→n X.
Eine Folge Xn ist Lp konvergent bzw. konvergiert im p-ten Mittel, 1 ≤ p ≤∞, gegen X, falls ‖Xn − X‖p →n 0. Wir schreiben Xn
Lp→n X und sprechen
auch von Konvergenz im p-ten Mittel.
Hier eine Ubersicht. p-te Moment steht fur Konvergenz des p-ten absoluten
Moments.
8.2. Konvergenz von Zufallsgroßen (31. Januar 2017) 63
Satz 70
L∞
Lp, 1 ≤ p <∞
L1fast sicher
stochastisch
schwach
vage
+ p-te Moment
+ 1-te Moment
Version
+ 1-te MomentVersion
Version
straff
W-theorie
Maßtheorie
Der Beweis erfogt in einer Reihe von Aussagen.
• Stochastische Konvergenz impliziert schwache Konvergenz.
Wir zeigen zuerst Xnv→ X. Sei f ∈ Cc.
|Ef(Xn)− Ef(X)| ≤ E(|f(Xn)− f(X)|(11|Xn−X|≥ǫ + 11|Xn−X|<ǫ))
≤ 2‖f‖∞P (|Xn −X| ≥ ǫ) + sup|x−y|<ǫ
|f(x)− f(y)|.
Der erste Term ist klein fur n groß, der zweite ist klein in ǫ, da eine stetige
Funktion auf einem Kompaktum gleichmaßig stetig ist.
64 (31. Januar 2017) Konvergenz und Topologie
Als nachstes zeigen wir Straffheit.
P (|Xn| > c) ≤ P (|Xn| > c, |Xn −X| < ǫ) + P (|Xn| > c, |Xn −X| ≥ ǫ)
≤ P (|X| > c− ǫ) + P (|Xn −X| ≥ ǫ).
Beide Terme sind klein fur ǫ, c, n geeignet.
• Fast sichere Konvergenz impliziert stochastische Konvergenz.
P (|Xn −X| > ǫ) ≤ P (∃N ≥ n : |XN −X| > ǫ)→n 0.
• L1-Konvergenz impliziert stochastische Konvergenz.
Dies folgt aus der Markoff Ungleichung
P (|Xn −X| > ǫ) ≤ E|Xn −X|ǫ
→n 0.
• Lq-Konvergenz impliziert Lp-Konvergenz fur 1 ≤ p ≤ q ≤ ∞.
Die Jensen Ungleichung ergibt ‖Y ‖p ≤ ‖Y ‖q.• L∞-Konvergenz impliziert fast sichere Konvergenz. Einfach.
Gegenbeispiele: Alle Beispiele sind auf dem W-raum ([0, 1],B, λ).• Schwache Konvergenz impliziert nicht stochastische Konvergenz.
SeienXn, n ∈ IN, uiv Zgn und keine Konstante. Diese Folge konvergiert schwach.
Wurde sie auch stochastisch konvergieren, so wurde gelten,
P (|Xn −Xm| > ǫ) ≤ P (|Xn −X| > ǫ/2) + P (|Xm −X| > ǫ/2)→n,m 0.
Andererseits P (|Xn−Xm| > ǫ) = P (|X1−X2| > ǫ) > 0 ist eine strikt positive
Konstante fur n 6= m und ǫ hinreichend klein. Widerspruch.
• Stochastische Konvergenz impliziert nicht fast sichere Konvergenz.
X1 = 11[0,1], X2 = 11[0,1/2], X3 = 11[1/2,1], X4 = 11[0,1/4], X5 = 11[1/4,1/2], ..., X8 =
1[0,1/8], ... usw. Formaler Xn := 11[i/2m,(i+1)/2m] mit n = 2m + i, 0 ≤ i < 2m.
(Zeichnung machen!). Diese tut’s.
• Lp-Konvergenz, 1 ≤ p <∞ impliziert nicht fast sichere Konvergenz.
Siehe oben.
• Fast sichere Konvergenz impliziert nicht Lp-Konvergenz.
Die Folge Xn := an11[0,1/n] konvergiert fast sicher gegen 0, aber nicht in Lp fur
geeignet gewahlte an.
• Lp-Konvergenz impliziert nicht Lq-Konvergenz, 1 ≤ p < q ≤ ∞.
Wahle eine Folge Xn =∑n
i=1 11( 1i+1
, 1i ]ai mit ai geeignet. Ubung.
Nun zu den verbleibenden positive Aussagen mit Zusatzbedingungen.
Version: Eine Version einer Zg ist eine Zg mit derselben Verteilung. Be-
liebt ist folgende Konstruktion. Sei U eine Zg mit gleichmaßiger Verteilung auf
[0, 1]. Dann ist F−1(U) eine Version von X. Ubung.
8.2. Konvergenz von Zufallsgroßen (31. Januar 2017) 65
• Sei Xn schwach konvergent gegen X. Dann existiert eine Version Yn der
Xn mit Yn ist fast sicher konvergent gegen eine Version von X.
Seien Fn, F die zugehorigen Verteilungsfunktionen und U eine gleichmaßig ver-
teilte Zg. Dann tut’s die Folge Yn = F−1n (U). Die Aussage beruht auf Lemma
62. (F bzw F−1 hat hochstens abzahlbar viele Unstetigkeitspunkte.) q.e.d.
Bemerkung: Schwache und stochastische Konvergenz stimmen uberein fur
Zgn Xn, die gegen eine Konstante konvergieren. Auf diskreten W-raumen stim-
men stochastische Konvergenz und fast sichere uberein.
Teilfolgenprinzip: Jede stochastisch konvergente Folge hat eine fast sicher
konvergente Teilfolge. Der Grenzwert ist derselbe. (Ubung)
Den folgenden Satz vergleiche mit dem Korollar 66.
Satz 71 Seien Xn, n ∈ IN , p-integrierbare Zgn, 1 ≤ p < ∞. Xn konvergiert
in Lp gegen X genau dann, wenn Xn stochastisch gegen X konvergiert und
‖Xn‖p → ‖X‖p <∞ gilt.
XnLp→ X ⇔ Xn
s→ X und ‖Xn‖p →n ‖X‖p <∞.
Beweis:’⇒‘ Lp Konvergenz impliziert stochastische Konvergenz. Die umge-
kehrte Dreiecksungleichung liefert
|‖Xn‖p − ‖X‖p| ≤ ‖Xn −X‖p →n 0.
’⇐‘ Sei A die Menge |Xn−X| > ǫ konvergiert mit n dem Maße nach gegen
0.
‖Xn −X‖ ≤ ‖(Xn −X)11A‖+ ‖Xn −X11Ac‖≤ ‖Xn11A‖+ ‖X11A‖+ ǫ
≤ ‖Xn‖ − ‖Xn11Ac‖+ ‖X11A‖+ ǫ
≤ ‖Xn‖ − ‖X11Ac‖+ ‖X11A‖+ 2ǫ
≤ ‖Xn‖ − ‖X‖+ 2‖X11A‖+ 2ǫ→n 2ǫ→ǫ→0 0