106
Komplexe Dynamische Systeme Barbara Drossel, Technische Universit¨ at Darmstadt Wintersemester 2009/10

Komplexe Dynamische Systeme - Festkörperphysik...Der oben beschriebene Anfangszustand ist der Spaltenvektor ~r0 = (0,0,1)t. Wenn wir an ihn von links die Matrix Q multiplizieren,

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

  • Komplexe Dynamische Systeme

    Barbara Drossel, Technische Universität Darmstadt

    Wintersemester 2009/10

  • Inhaltsverzeichnis

    1 Einführung 1

    2 Stochastische Prozesse 2

    2.1 Markov-Ketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22.2 Random Walk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

    2.2.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . 62.2.2 Kontinuumsbeschreibung . . . . . . . . . . . . . . . . . . 72.2.3 Die Diffusionsgleichung . . . . . . . . . . . . . . . . . . . 82.2.4 Varianten des Random Walk, die dieselbe Kontinuumsbe-

    schreibung haben . . . . . . . . . . . . . . . . . . . . . . . 82.3 Master-Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . 10

    2.3.1 Raten und Wahrscheinlichkeiten . . . . . . . . . . . . . . 102.3.2 Die Mastergleichung . . . . . . . . . . . . . . . . . . . . . 112.3.3 Exkurs: Monte-Carlo-Simulationen zur Bestimmung sta-

    tistischer Eigenschaften . . . . . . . . . . . . . . . . . . . 122.4 Kramers-Moyal-Entwicklung und Fokker-Planck-Gleichung . . . . 14

    2.4.1 Absorbierende Randbedingungen . . . . . . . . . . . . . . 162.5 Langevin-Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . 19

    2.5.1 Brownsche Bewegung . . . . . . . . . . . . . . . . . . . . 212.5.2 Brownsches Teilchen im Kraftfeld . . . . . . . . . . . . . . 222.5.3 Brownsche Bewegung im Doppelmuldenpotenzial: Kramers

    Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

    3 Nichtlineare Dynamik 25

    3.1 Nichtlineare Dynamik in einer Dimension . . . . . . . . . . . . . 293.1.1 Phasenportraits . . . . . . . . . . . . . . . . . . . . . . . . 293.1.2 Stabilität von Fixpunkten . . . . . . . . . . . . . . . . . . 293.1.3 Sattelknotenbifurkationen . . . . . . . . . . . . . . . . . . 313.1.4 Die transkritische Bifurkation . . . . . . . . . . . . . . . . 323.1.5 Die Heugabelbifurkation . . . . . . . . . . . . . . . . . . . 333.1.6 Bifurkationen mit mehr als einem Parameter . . . . . . . 36

    3.2 Nichtlineare Dynamik in zwei Dimensionen . . . . . . . . . . . . 403.2.1 Fixpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . 403.2.2 Bifurkationen in zwei Dimensionen . . . . . . . . . . . . . 423.2.3 Phasenportraits und topologische Überlegungen . . . . . . 46

    3.3 Seltsame Attraktoren . . . . . . . . . . . . . . . . . . . . . . . . . 503.4 Die fraktale Dimension . . . . . . . . . . . . . . . . . . . . . . . . 51

    3.4.1 Kästchenzählmethode . . . . . . . . . . . . . . . . . . . . 52

    2

  • 3.4.2 Das Spektrum der fraktalen Dimensionen . . . . . . . . . 52

    4 Phasenübergänge und kritische Phänomene 55

    4.1 Einführung in Phasenübergänge . . . . . . . . . . . . . . . . . . . 554.2 Mean-Field-Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . 58

    4.2.1 Landau-Theorie für Phasenübergänge . . . . . . . . . . . 594.2.2 Dynamik . . . . . . . . . . . . . . . . . . . . . . . . . . . 614.2.3 Kritische Exponenten . . . . . . . . . . . . . . . . . . . . 61

    4.3 Ginzburg-Landau-Funktional und Fluktuationen in gaußscher Nähe-rung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

    4.4 Ortsraumrenormierung und Skalengesetze . . . . . . . . . . . . . 714.4.1 Ortsraumrenormierung . . . . . . . . . . . . . . . . . . . . 714.4.2 Skalengesetze . . . . . . . . . . . . . . . . . . . . . . . . . 77

    4.5 Perkolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 794.5.1 Definition und Beispiele . . . . . . . . . . . . . . . . . . . 794.5.2 Kritische Exponenten und Skalenverhalten . . . . . . . . . 804.5.3 Ortsraumrenormierung . . . . . . . . . . . . . . . . . . . . 82

    5 Musterbildung in räumlich ausgedehnten Systemen 86

    5.1 Wellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 865.1.1 Fisher-Kolmogoroff-Gleichung . . . . . . . . . . . . . . . . 875.1.2 Störungstheorie für die Form der Front . . . . . . . . . . . 895.1.3 Stabilität der Front . . . . . . . . . . . . . . . . . . . . . . 90

    5.2 Turing-Muster . . . . . . . . . . . . . . . . . . . . . . . . . . . . 915.2.1 Allgemeiner Formalismus . . . . . . . . . . . . . . . . . . 915.2.2 Zwei Klassen von Systemen . . . . . . . . . . . . . . . . . 945.2.3 Das Schnakenberg-Modell . . . . . . . . . . . . . . . . . . 955.2.4 Das Gierer-Meinhardt-Modell . . . . . . . . . . . . . . . . 975.2.5 Tierfellmuster . . . . . . . . . . . . . . . . . . . . . . . . . 98

    5.3 Die komplexe Ginzburg-Landau-Gleichung . . . . . . . . . . . . . 995.3.1 Ordnungsparameterdynamik in der Nähe eines kritischen

    Punktes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1005.3.2 Anwachsen einer diffusionsgetriebenen Instabilität . . . . 1005.3.3 Die komplexe Ginzburg-Landau-Gleichung . . . . . . . . . 101

    3

  • Kapitel 1

    Einführung

    Diese Vorlesung befasst sich mit fortgeschrittenen Themen der statistischenPhysik und nichtlinearen Dynamik, die für die aktuelle Forschung von Relevanzsind. Während sich die Kursvorlesung über statistische Physik überwiegend aufdie Gleichgewichtsphysik konzentriert, sind die meisten realen Systeme offen,d.h. sie können nicht von ihrer Umgebung abgekoppelt werden und könnenkomplexe Dynamik und Strukturbildung zeigen. Heutzutage werden Methodender statistischen Physik auf so verschiedene Themen wie die Ausbildung vonVerkehrsstaus, die Fluktuationen der Börsenkurse, die Populationsdynamik inÖkosystemen, die Evolution der DNA und das Entstehen von Sanddünen ange-wandt. Diese Vorlesung soll in die verschiedenen Methoden und Konzepte aufdiesem Gebiet einführen.

    Im zweiten Kapitel werden zunächst stochastische Prozesse behandelt. Im-mer dann, wenn für die Änderungen des Wertes einer (oder mehrerer) Varia-blen nur Wahrscheinlichkeiten angegeben werden können, liegt ein stochasti-scher Prozess vor. Eines der älteren und berühmten Beispiele ist die BrownscheBewegung. Allerdings geht die Theorie stochastischer Prozesse auf das Glücks-spiel zurück. Es werden Markov-Ketten, Master-Gleichungen, Fokker-Planck-Gleichungen und Langevin-Gleichungen vorgestellt und ein paar Beispiele vor-gerechnet.

    Im dritten Kapitel behandeln wir nichtlineare Dynamik. Die mathemati-schen Gleichungen hierzu sind deterministisch. Es muss also vorausgesetzt wer-den, dass stochastische Effekte entweder unwichtig sind oder sich herausmit-teln, weil die betrachteten Variablen makroskopische Größen eines Systems ausvielen mikroskopischen Freiheitsgraden sind. Hier interessieren wir uns für dieAbhängigkeit des dynamischen Verhaltens von den Parametern des Systems undbehandeln Fixpunkte, Grenzzyklen und ihre Bifurkationen. Die Übungsbeispielesind meist aus der Ökologie gewählt.

    Ab dem vierten Kapitel wechseln wir dann zu räumlich ausgedehnten Syste-men. Wir behandeln zunächst Systeme, die sich in der Zeit einfach verhalten(nämlich die im Gleichgewicht sind), und befassen uns mit Phasenübergängenund kritischen Phänomenen. Wir betrachten die beiden klassischen Beispiele,das Ising-Modell und Perkolation. Im fünften Kapitel schließlich wird das Aus-bilden von Mustern in Nichtgleichgewichtssystemen behandelt. Ein wichtigerTeil des Kapitels befasst sich mit Wellen, ein anderer mit Turing-Instabilitäten,die z.B. Tierfellmuster erzeugen.

    1

  • Kapitel 2

    Stochastische Prozesse

    Die Theorie stochastischer Prozesse begann im 17. Jahrhundert in Verbindungmit dem Glücksspiel. Als Schlüsselereignis gilt dabei ein Briefwechsel zwischenBlaise Pascal und Pierre de Fermat im Jahr 1654, in dem sie sich mit Wahr-scheinlichkeiten beim Würfeln und der fairen Aufteilung eines Spielgewinns be-fassten. Vom Konzept her nicht allzuweit vom Glücksspiel entfernt ist die Fi-nanzmathematik, die im Jahr 1900 mit der Doktorarbeit “Théorie de la spécula-tion” von Louis Bachelier begann. Heute sind die Anwendungen stochastischerProzesse sehr vielfältig: überall dort, wo viele unvorhersagbare oder nicht imeinzelnen messbare Ereignisse beteiligt sind, hat man es mit stochastischen Pro-zessen zu tun. Hierzu gehören thermisches Rauschen, Prozesse mit Übergangs-raten (Mutationen in biologischer Evolution, Geburtenraten und Sterberaten,chemische Reaktionsraten), biologische Motoren, Verkehrsphysik, Finanzphysik,Versicherungsphysik, Krankheitsausbreitung. Die Größe, die dem stochastischenProzess unterworfen ist, nennt man eine Zufallsvariable. Beispiele für Zufalls-variablen sind gewürfelte Zahlen, Börsenkurse, die Größe einer Population, dieZahl der in den Vorlesungsstunden anwesenden Studenten, etc.

    Wir behandeln im Folgenden nur Markov-Prozesse. Dies sind Prozesse, beidenen die Wahrscheinlichkeiten für das nächste Ereignis nicht von der Vorge-schichte, sondern nur vom momentanen Zustand des Systems abhängen. Wirbeschränken uns weiterhin auf stationäre Markov-Prozesse, d.h. Prozesse, beidenen die Wahrscheinlichkeiten nicht explizit von der Zeit abhängen.

    Wir beginnen mit Systemen, die nur eine begrenzte Zahl von möglichenZuständen haben, zwischen denen Übergangswahrscheinlichkeiten vorgegebensind. Die Zustandsabfolge in derartigen Systemen ist eine Markov-Kette. Alsnächstes behandeln wir das Paradebeispiel eindimensionaler stochastischer Pro-zesse, den “Random Walk”, anhand dessen wir die diskrete und kontinuierlicheFormulierung stochastischer Prozesse in Raum und Zeit einüben können. In denfolgenden Abschnitten werden wir uns dann mit Master-Gleichungen, Fokker-Planck-Gleichungen und Langevin-Gleichungen allgemeiner befassen.

    2.1 Markov-Ketten

    Markov-Ketten sind Markov-Prozesse, die diskrete Werte der Zufallsvariablenhaben und diskret in der Zeit sind. Wenn die Zufallsvariable nur endlich viele

    2

  • Werte annehmen kann, kann man die Übergangswahrscheinlichkeiten zwischenihnen durch eine Matrix Q darstellen, wobei das Element Qji die Übergangs-wahrscheinlichkeit pro Zeitschritt von Zustand i nach Zustand j angibt. Alsogilt Qji ∈ [0, 1] für alle Elemente von Q. Da die Wahrscheinlichkeit normiertsein muss, ist die Summe der Elemente einer Spalte 1, d.h.

    i Qij = 1. Alseinfaches Beispiel betrachten wir zwei Gefäße. Im linken Gefäß befinden sichanfangs 2 weiße Kugeln, im rechten Gefäß drei rote Kugeln. Wir greifen nunmit geschlossenen Augen in beide Gefäße, nehmen aus jedem eine Kugel herausund vertauschen die beiden Kugeln. Wenn dies beliebig oft gemacht wird, be-kommen wir einen stochastischen Prozess. Als Variable können wir die Zahl yder weißen Kugeln im linken Gefäß nehmen. Sie hat drei mögliche Werte, 0, 1,2. Die Matrix Q ist also eine 3× 3 Matrix. Durch Abzählen aller Möglichkeitenkönnen wir die Elemente dieser Matrix ermitteln und finden

    Q =

    1/3 1/3 02/3 1/2 10 1/6 0

    Der oben beschriebene Anfangszustand ist der Spaltenvektor ~r0 = (0, 0, 1)t.

    Wenn wir an ihn von links die Matrix Q multiplizieren, erhalten wir die Wahr-scheinlichkeiten dafür, dass nach einem Schritt im linken Gefäß 0,1 oder 2 Ku-geln sind, ~r1 = Q~r0. Nach n Schritten erhalten wir ~rn = Q

    n~r0. In den Übungenwerden wir zeigen, dass sich im Grenzfall n → ∞ die stationäre Verteilung~rn → r∞ = (0.3, 0.6, 0.1)t ergibt, und zwar unabhängig vom Anfangszustand.

    Im Folgenden leiten wir wichtige Eigenschaften der Matrix Q und ihrer Ei-genwerte und Eigenvektoren her, die für alle Markov-Ketten gelten. Sei ~v einEigenvektor und λ der zugehörige Eigenwert. Für jedes natürliche n gelten fol-gende Beziehungen:

    i

    |∑

    j

    (Qn)ijvj | =∑

    i

    |λnvi| = |λ|n∑

    i

    |vi| (2.1)

    i

    |∑

    j

    (Qn)ijvj | ≤∑

    i

    (∑

    j

    (Qn)ij |vj |) =∑

    i,j

    (Qn)ij |vj | =∑

    i

    |vi| (2.2)

    Daraus erhalten wir die folgenden Aussagen:

    1. Der größte Eigenwert von Q ist 1. Dass 1 ein Eigenwert ist, folgt unmit-telbar aus der Tatsache, dass der Vektor (1, 1, . . . 1) ein linker Eigenvektorvon Q ist, weil die Summe der Elemente jeder Spalte von Q 1 ist. Ausdem Vergleich von (2.1) und (2.2) folgt sofort, dass es keinen Eigenwertmit einem Betrag größer als 1 geben kann.

    2. Die Summe∑

    i vi der Elemente eines Eigenvektors muss verschwinden,wenn der zugehörige Eigenwert nicht 1 ist. Dies sieht man, wenn man dieBeziehungen (2.1) und (2.2) ohne Betragsstriche schreibt. Dann wird das≤ zum Gleichheitszeichen, und die rechten Seiten der beiden Gleichungenmüssen gleich sein. Dies geht nur, wenn λ = 1 ist oder

    i vi = 0.

    3. Wenn es ein n gibt, so dass Qn lauter positive Einträge hat, dann hatQ nur einen Eigenvektor zum Eigenwert 1, und dieser hat lauter positiveEinträge. Alle anderen Eigenwerte haben einen Betrag kleiner als 1. Umdies zu zeigen, stellen wir zuerst fest, dass das Gleichheitszeichen im ersten

    3

  • Schritt von (2.2) für ein System mit lauter positiven Qnij nur dann gilt,wenn alle Komponenten von ~v positiv sind. Gäbe es einen Eigenwert 6= 1mit dem Betrag 1, wären die Komponenten des zugehörigen Eigenvektorswegen dem vorigen Punkt nicht positiv, und man hätte einen Widerspruchzwischen der Ungleichung (2.2) und der Gleichung (2.1). Gäbe es zweiverschiedene Eigenvektoren ~u und ~w zum Eigenwert 1, könnte man eineLinearkombination ~v = α~u + β ~w bilden, deren Elemente nicht alle positivsind. ~v wäre aber ebenfalls ein Eigenvektor zum Eigenwert 1. Damit würdeman wieder einen Widerspruch zwischen (2.1) und (2.2) erhalten.

    Anschaulich bedeutet ein Qn mit lauter positiven Einträgen, dass dasSystem ergodisch ist: Wenn alle Elemente von Qn positiv sind, kann man inn Schritten von jedem Zustand zu jedem anderen kommen. Wie oft welcherZustand in einer unendlich langen Zeitreihe besucht wird, kann daher nichtvom Anfangszustand abhängen. Der Eigenvektor zum Eigenwert 1 gibtden Anteil der Zeit an, die das System in einer unendlich langen Zeitreihein jedem Zustand verbringt. Gleichzeitig gibt er für ein Ensemble vonSystemen an, welcher Anteil des Ensembles in jedem der Zustände ist. Dasobige Beispiel mit den zwei weißen und drei roten Kugeln ist ergodisch,da Q2 nur positive Einträge hat, wie man leicht nachprüfen kann.

    4. Ein ergodisches System geht für jede Anfangsverteilung ~r0 mit der Zeitin die stationäre Verteilung ~v1 über. ~v1 ist der einzige Eigenvektor zumEigenwert 1, alle seine Elemente sind positiv. Um dies zu zeigen, schreibenwir die Anfangsverteilung als Linearkombination der stationären Vertei-lung und der anderen Eigenvektoren von Q,

    ~r0 =∑

    µ

    cµ~vµ .

    Nach n Schritten wird daraus

    ~rn =∑

    µ

    cµλnµ~vµ .

    Für n → ∞ bleibt nur der Eigenvektor zum Eigenwert 1 übrig. Der zweit-größte Eigenwert bestimmt, wie schnell sich das System der stationärenVerteilung annähert, da die Beiträge der anderen Eigenvektoren schnellergegen Null gehen. (Wenn es keine Basis aus Eigenvektoren gibt, kann manmit Hilfe von (2.2) dennoch zeigen, dass mit jeder Iteration der Abstand∑

    i |(~rn)i − (~v1)i| zur stationären Verteilung kleiner wird.)

    5. In einem ergodischen System gilt, dass die Matrix Qn für n → ∞ in jederSpalte ~v1 stehen hat. Denn es ist

    Qn = (Qn−1)Q .

    Eine Spalte der Matrix auf der linken Seite berechnet sich also als Produktvon Qn−1 mit der entsprechenden Spalte von Q. Im Limes n → ∞ istaber das Produkt von Qn−1 mit jedem beliebigen Vektor, der im Prinzipeine Anfangsverteilung darstellen kann, der Eigenvektor ~v1 (siehe vorigerPunkt).

    4

  • Wir haben uns in den letzten drei Punkten auf ergodische Systeme speziali-siert, da das anfangs eingeführte Beispiel ergodisch ist. Zum Schluss betrachtenwir Beispiele für Systeme, die nicht ergodisch sind. Die erste Beispiel ist eineMatrix Q, die Blockdiagonalform hat. Dann gibt es offensichtlich mehrere Ei-genvektoren zum Eigenwert 1. Das System zerfällt in disjunkte Teilsysteme, indenen eine Zeitreihe jeweils gefangen bleibt.

    Auch Systeme mit nur einem Eigenvektor zum Eigenwert 1 können nicht-ergodisch sein. Solche Systeme müssen transiente Zustände haben. Dies sindZustände, die mit einer nichtverschwindenden Wahrscheinlichkeit nie wiederauftreten, wenn man von ihnen startet. Sie können daher in der stationären Ver-teilung nicht auftreten, und alle Elemente von ~v1, die zu transienten Zuständengehören, sind folglich Null. Ein rekurrenter Zustand dagegen kommt mit Si-cherheit wieder vor und tritt daher auch in der stationären Verteilung auf. Einergodisches System hat nur rekurrente Zustände. Einfache Beispiele für Syste-me mit transienten Zuständen sind in der folgenden Abbildung gezeigt. In denKreisen stehen die verschiedenen Zustände, die einfach von 1 bis 3 durchnum-meriert sind, und an den Pfeilen stehen die Übergangswahrscheinlichkeiten. Imersten Beispiel sind die Zustände 1 und 2 transient. Der Zustand 1 im zweitenund dritten Beispiel ist ein besonderer transienter Zustand, weil man in ihnnicht zurückkehren kann, wenn man ihn einmal verlassen hat. Man nennt ihnGarten-Eden-Zustand. Zustand 3 im ersten Beispiel und Zustand 2 und 3 imdritten Beispiel sind Zustände, aus denen man nicht nehr herauskommt, wennman einmal drin ist. Man nennt solche Zustände absorbierende Zustände.

    1

    2

    3

    1 32

    1

    2 3

    0.5

    0.5

    0.20.8

    1

    0.50.5

    0.5

    0.5

    1

    1 1

    0.2 0.2

    0.6

    Aufgaben

    1. Gib für die dargestellten einfachen Beispiele jeweils die Matrix Q und dieMatrix limn→∞ Q

    n an.

    2. Berechne für das Beispiel mit den beiden Gefäßen die Eigenwerte undEigenvektoren von Q.

    3. Die Zufallsvariable y sei die beim Würfeln gewürfelte Zahl. Schreibe dieMatrix Q für diesen Fall auf. Was sind die Eigenwerte von Q, und wassind die Potenzen Qn ? Interpretiere die Ergebnisse anschaulich.

    4. Betrachte einen geschlossenen Ring aus N Plätzen. Auf einem dieser Plätzesteht ein Spielstein. Um zu entscheiden, in welcher Richtung sich der Spiel-stein bewegt, wird eine Münze geworfen. Bei “Kopf” bewegt sich der Spiel-

    5

  • stein um einen Platz im Uhrzeigersinn, bei “Zahl” um einen Platz gegenden Uhrzeigersinn. Was ist die Matrix Q, was ist der Eigenvektor zumEigenwert 1?

    5. Betrachte eine Kette aus N Plätzen. Auf einem dieser Plätze steht einSpielstein. Um zu entscheiden, in welcher Richtung sich der Spielsteinbewegt, wird eine Münze geworfen. Bei “Kopf” bewegt sich der Spielsteinum einen Platz nach rechts, bei “Zahl” um einen Platz nach links. Wennder Spielstein sich nicht in der gewünschten Richtung bewegen kann, weiler an einem der Randplätze sitzt, bewegt er sich in der anderen Richtung.Was ist die Matrix Q, was ist der Eigenvektor zum Eigenwert 1?

    2.2 Random Walk

    Von jetzt an heben wir die Beschränkung auf nur endlich viele mögliche Werteder Zufallsvariablen auf. Wir betrachten aber nur solche Zufallsvariablen, dieganzzahlige oder reelle Werte annehmen können. Die entsprechenden stochasti-schen Prozesse spielen sich also in einer Dimension ab. Die Verallgemeinerungauf mehr Dimensionen ist nicht schwer, aber wird in dieser Vorlesung kaumerwähnt.

    Wir betrachten nur solche stochastischen Prozesse, bei denen die Übergängeauf eine lokale Umgebung begrenzt sind, d.h. bei denen die Werte der Zufallsva-riable nach einem Schritt oder einer Zeiteinheit in der Nähe des Ausgangswertesbleiben. Das Paradebeispiel für derartige Prozesse ist der Random Walk, denwir in diesem Teilkapitel behandeln. Die allgemeineren eindimensionalen Pro-zesse, die wir danach betrachten werden, können mit Hilfe des Random Walksleichter verstanden werden.

    2.2.1 Einführung

    Man stelle sich einen Besoffenen vor, der versucht, nach Hause zu gehen. Da eretwas durcheinander ist, geht nicht jeder seiner Schritte in die richtige Richtung.Wir gehen davon aus, dass jeder seiner Schritte die Größe ∆x hat und mitWahrscheinlichkeit p nach rechts geht und mit Wahrscheinlichkeit q = 1 − pnach links. Wenn p > q ist, geht er häufiger nach rechts als nach links undkommt seinem Zuhause im Laufe der Zeit näher.

    Der Weg des Besoffenen ist ein Beispiel für einen Zufallspfad (“randomwalk”) auf einem eindimensionalen Gitter mit der Gitterkonstanten ∆x. DerPfad beginnt am Platz 0 und geht in jedem Schritt mit Wahrscheinlichkeit pnach rechts und mit Wahrscheinlichkeit q nach links.

    Wir fragen als erstes, wie groß die Wahrscheinlichkeit p(m, N) ist, dass derPfad nach N Schritten an der Position m ist. Um nach N Schritten bei m zusein, müssen (N+m)/2 von den N Schritten nach rechts und (N−m)/2 Schrittenach links gehen. (m + N muss eine gerade Zahl sein.) Also ist

    p(m, N) =

    (

    NN+m

    2

    )

    p(N+m)/2q(N−m)/2 . (2.3)

    Wenn N groß ist, erhalten wir unter Verwendung des zentralen Grenzwertsatzeseine Gaußverteilung. Der Mittelwert der Gaußverteilung ist N mal die mittlere

    6

  • Positionsänderung eines Schrittes (in Einheiten von ∆x), 〈m〉 = p− q = 2p− 1,und die Varianz der Gaußverteilung ist N mal die Varianz eines Schrittes σ2 =4pq. Also haben wir nach N Schritten

    p(m, N) =2√

    8πNpqe−

    (m−N(p−q))2

    8Npq . (2.4)

    Der Vorfaktor ist so gewählt, dass die Summe über alle m-Werte normiert ist.Hierbei muss man beachten, dass für (un)gerade N nur (un)gerade Werte vonm auftauchen, so dass der Abstand zweier benachbarter Werte von m die Größe2 hat. Diese Schrittgröße steht im Zähler des Vorfaktors.

    Aufgaben

    1. Peter und Paul treffen sich jeden Abend zum Kartenspielen. Derjenige, deram Ende des Abends gewonnen hat, bekommt vom anderen 10 Euro. Beidespielen gleich gut, so dass jeder die gleiche Gewinnchance hat. Inzwischensind 10 Jahre vergangen. Was ist die Wahrscheinlichkeit, dass einer derbeiden insgesamt mehr als 5000 Euro verloren hat? Berechne die Antwortunter der Annahme, dass der zentrale Grenzwertsatz verwendet werdendarf. Warum ist die Näherung, die man hierbei macht, eine gute Näherung?

    2. Zur Zeit kommen in Deutschland bei 48.5 Prozent aller Geburten Mädchenzur Welt und bei 51.5 Prozent aller Geburten Jungen. Was ist die Wahr-scheinlichkeit dafür, dass bei 10000 Geburten mehr als 5500 Jungen gebo-ren werden? Berechne die Antwort unter der Annahme, dass der zentraleGrenzwertsatz verwendet werden darf. Warum ist die Näherung, die manhierbei macht, eine gute Näherung?

    3. Dennis und Lotta sollen beide die Wahrscheinlichkeit berechnen, dass derBesoffene nach 1000 Schritten der Größe 1m zuhause angekommen ist,wenn sein Haus 1 km vom Lokal entfernt ist. Der Besoffene ist so besoffen,dass sie p = q = 1/2 wählen dürfen. Lotta verwendet Formel (2.3) underhält das Ergebnis (1/2)1000 ≃ 9 · 10−302. Dennis verwendet wegen dergroßen Schrittzahl Formel (2.4) und erhält das Ergebnis ≃ 1, 8 · 10−219,also eine extrem viel höhere Wahrscheinlichkeit. Wessen Ergebnis stimmt,und warum ist das andere Ergebnis falsch? Warum ist der Unterschied derbeiden Ergebnisse in der Praxis eigentlich nicht wichtig?

    2.2.2 Kontinuumsbeschreibung

    Wir wollen nun zu einer Kontinuumsbeschreibung übergehen und die Schritt-länge ∆x sowie den zeitlichen Abstand ∆t immer kleiner machen. Wir definieren

    x = m∆x und t = N∆t (2.5)

    und führen die Parameter

    D = 2pq(∆x)2

    ∆tund v = (p − q)∆x

    ∆t(2.6)

    ein. Dann können wir obige Gaußverteilung auf die folgende Weise schreiben:

    p(m∆x, N∆t) =2∆x√4πDt

    e−(x−vt)2

    4Dt .

    7

  • Wir machen den Grenzübergang ∆x → 0, ∆t → 0 bei konstantem D und kon-stantem v. Dies bedeutet, dass wir die beiden “makroskopischen” Charakteri-stika des Zufallspfades, die mittlere Driftgeschwindigkeit und die Diffusionskon-stante vorgeben, aber Raum und Zeit kontinuierlich machen. Bei diesem Prozessschrumpft ∆x mit der Wurzel von ∆t, und die Parameter p und q ändern sichso, dass p − q ∝ ∆x ist. Beide Parameter nähern sich also dem Wert 1/2 an.Wir erhalten dann eine Wahrscheinlichkeitsdichte

    P (x, t) =1√

    4πDte−

    (x−vt)2

    4Dt . (2.7)

    2.2.3 Die Diffusionsgleichung

    Wir kennen Gaußverteilungen, deren Breite wie√

    t anwächst, als Lösung der Dif-fusionsgleichung. Wir werden später im Zusammenhang mit der Fokker-Planck-Gleichung zeigen, dass sich der Random Walk in der Kontinuumsbeschreibungals Diffusionsprozess formulieren lässt.

    Hier geben wir die Diffusionsgleichung, deren Lösung (2.7) ist, nur an:

    ∂P (x, t)

    ∂t= −v ∂P (x, t)

    ∂x+ D

    ∂2P (x, t)

    ∂x2. (2.8)

    Gleichung (2.8) wird von der Verteilung (2.7) gelöst, wenn als Anfangsverteilungein Deltapeak am Ursprung gegeben ist. Die beiden Terme auf der rechten Seitevon Gleichung (2.8) haben eine einfache anschauliche Bedeutung: Der erste Term(mit v) verschiebt die Wahrscheinlichkeitsdichte P (x, t) mit Geschwindigkeit vnach rechts (wenn v positiv ist; sonst wird die Verteilung nach links geschoben).Man nennt diesen Term den Driftterm. Der zweite Term (mit D) macht dieVerteilung breiter. Er ist der Diffusionsterm.

    2.2.4 Varianten des Random Walk, die dieselbe Kontinu-

    umsbeschreibung haben

    Die Kontinuumsbeschreibung ist eine gute Näherung, wenn die Positionsände-rungen und Zeitintervalle, die man betrachtet, sich aus sehr vielen einzelnenSchritten zusammensetzen. Dann kann man den zentralen Grenzwertsatz ver-wenden und die Gauß-verteilte Wahrscheinlichkeitsdichte (2.7) ableiten. DasErgebnis (2.7) enthält keine Information mehr darüber, dass die Schritte desRandom Walk alle dieselbe Größe haben und in einem festen Zeittakt statt-finden. In das Ergebnis geht nur die Driftgeschwindigkeit v ein, die bestimmt,mit welcher Geschwindigkeit sich die Gaußverteilung verschiebt, und die Dif-fusionskonstante D, die bestimmt, wie schnell die Breite der Gaußverteilunganwächst.

    Varianten des Random Walk, in denen verschiedene Schrittgrößen möglichsind oder in denen Schritte nicht in einem festen Takt auftreten, sollten nach demZentralen Grenzwertsatz auch auf eine Gaußverteilung der Form (2.7) führen.Wir haben also die folgenden vier Varianten:

    1. Der ursprüngliche Random Walk, wie wir ihn bisher behandelt haben.

    2. Variante, die kontinuierlich in der Zeit und diskret im Ort ist: Statt dassder Besoffene in einem festen Takt seine Schritte macht, macht er nun mit

    8

  • einer Rate µr einen Schritt nach rechts und mit einer Rate µl einen Schrittnach links. Im infinitesimalen Zeitintervall dt macht der Besoffene also mitWahrscheinlichkeit µrdt einen Schritt der Größe ∆x nach rechts und mitWahrscheinlichkeit µldt einen Schritt nach links. Also beträgt die in derZeit dt zurückgelegte mittlere Entfernung vdt = (µr − µl)∆xdt, und wirerhalten v = (µr −µl)∆x. Die Varianz der Position des Besoffenen nimmtin der Zeit dt um (µr + µl)(∆x)

    2dt zu (nachrechnen!). Also haben wir2D = (µr + µl)(∆x)

    2. Wenn viele Schritte zurückgelegt wurden, gilt alsowieder die Gauß-Verteilung (2.7). Auch hier kann man den Grenzübergang∆x → 0 bei festem v und D durchführen. In diesem Fall müssen µr undµl sich ändern gemäß den Gleichungen

    µr =2D + v∆x

    2(∆x)2

    und

    µl =2D − v∆x

    2(∆x)2.

    Beide müssen also ∝ (∆x)−2 sein, und ihre Differenz muss mit 1/∆xanwachsen. Das Verhältnis der beiden Raten nähert sich also immer mehrdem Wert 1 an.

    3. Variante, die kontinuierlich im Ort und diskret in der Zeit ist: Der Besoffe-ne macht seine Schritte in einem festen Takt, hat aber eine Schrittgrößen-verteilung g(∆x). Das Vorzeichen von ∆x gibt jetzt an, ob der Schritt nachlinks oder rechts geht. Die Wahrscheinlichkeit, dass der nächste Schritt ei-ne Größe im Intervall [∆x, ∆x + dx] hat, beträgt also g(∆x)dx. die Funk-tion g(∆x) muss auf 1 normiert sein, also

    g(∆x)d(∆x) = 1. Damit derzentrale Grenzwertsatz angewendet werden darf, ist es wichtig, dass dieSchrittgrößenverteilung eine endliche Varianz hat, d.h. dass das zweiteMoment

    g(∆x)(∆x)2d(∆x) existiert, also das Integral nicht divergiert.Dann erhalten wir

    v∆t =

    g(∆x)(∆x)d(∆x) = 〈∆x〉

    und2D∆t = 〈∆x2〉 − 〈∆x〉2.

    Einen Kontinuumslimes ∆t → 0 durchzuführen, geht hier nicht eindeutig,außer wenn die sich die Verteilung g(∆x) durch zwei Parameter charakte-risieren lässt und man vorgibt, dass die Verteilung beim Verkleinern von∆t ihre funktionale Form beibehält, also dass sich nur die Werte der Pa-rameter ändern. Besonders wichtig ist der Fall, dass g(∆x) eine Gaußver-teilung ist. Denn dann kann man auf der einen Seite den eben erwähntenÜbergang zur Kontinuumsbeschreibung durchführen (siehe Übungsaufga-be). Zum anderen ergibt sich für g(∆x) immer dann eine Gauß-Verteilung,wenn sich das Zeitintervall ∆t in Wirklichkeit aus vielen kleinen Teilin-tervallen zusammensetzt, in denen jeweils Schritte getan werden. Dieseeinzelnen Schritte werden aber nicht aufgelöst oder nicht registriert, daman immer nur in Zeitabständen ∆t nachsieht, wo der Besoffene sich be-findet.

    9

  • 4. Variante, die kontinuierliche Werte für die Schrittgrößen und für die Zeitab-stände zwischen den Schritten hat: Diese Variante wird durch die Raten-dichte µ(∆x) spezifiziert. µ(∆x)d(∆x)dt ist die Wahrscheinlichkeit, dassder Besoffene in der infinitesimalen Zeit dt einen Schritt im Größeninter-vall [∆x, ∆x + d(∆x)] macht. Die Wahrscheinlichkeit, dass er in der Zeitdt überhaupt einen Schritt macht, ist also dt

    µ(∆x)d(∆x). Im Gegensatzzu g(∆x) ist µ(∆x) nicht normiert. Wir erhalten in diesem Fall

    v =

    µ(∆x)(∆x)d(∆x) (2.9)

    und

    2Ddt = dt

    (∆x)2µ(∆x)d(∆x) −(

    dt

    ∆xµ(∆x)d(∆x)

    )2

    = dt

    (∆x)2µ(∆x)d(∆x) ,

    weil dt infinitesimal klein ist. Also bleibt

    2D =

    (∆x)2µ(∆x)d(∆x) . (2.10)

    Aufgaben

    1. Zeige explizit, dass Gleichung (2.8) von der Verteilung (2.7) gelöst wird.Hast Du eine Idee, wie man die Lösung von Gleichung (2.8) bekommenkann, wenn die Anfangsverteilung keine δ-Funktion ist?

    2. Führe für die zweite Variante des Random Walk für den Fall, dass g(∆x)eine Gaußverteilung ist, den Kontinuumsübergang explizit durch.

    3. Random Walk in drei Dimensionen: Eine Anwendung hierfür ist die Wahr-scheinlichkeitsverteilung des End-zu-End-Abstands eines Polymers. Wirstellen ein Polymer idealisiert dar als Kette von Monomeren, die alle die-selbe Länge a haben, aber in beliebige Richtung orientiert sind. Wenn dasPolymer N Monomere hat, was ist der mittlere quadratische Abstand zwi-schen dem Anfangs- und dem Endpunkt? Und was ist die Wahrscheinlich-keitsverteilung des Abstands? Was findet Ihr an dem Modell unrealistisch?Welches verbesserte Modell würdet Ihr vorschlagen? Erwartet Ihr für dasverbesserte Modell ein ähnliches Ergebnis?

    2.3 Master-Gleichungen

    2.3.1 Raten und Wahrscheinlichkeiten

    Master-Gleichungen beschreiben Systeme mit kontinuierlicher Zeit, aber diskre-ten Zuständen. Statt der Übergangswahrscheinlichkeiten (pro Zeitschritt), dieden Elementen Qji der Matrix Q entsprechen, oder die für den Random Walkdie Werte p und q haben, gibt es nun Übergangsraten wji von Zustand i nachZustand j. Raten sind Wahrscheinlichkeiten pro Zeiteinheit. Durch Multiplika-tion einer Rate wji mit einem infinitesimal kleinen Zeitintervall erhält man die

    10

  • (infinitesimal kleine) Wahrscheinlichkeit dafür, dass in diesem Zeitintervall einÜbergang vom Zustand i in den Zustand j passiert.

    Als erstes Beispiel betrachten wir den radioaktiven Zerfall eines Isotops mitder Zerfallskonstanten λ. Jedes Atom zerfällt mit der Rate λ. Im Zeitintervalldt zerfällt es mit der Wahrscheinlichkeit λdt. Die Wahrscheinlichkeit, dass dasAtom während der Zeit t = Ndt nicht zerfällt, beträgt folglich (1−λdt)N = e−λt.Betrachtet man makroskopisch viele Atome, so folgt daraus, dass die Zahl dernicht zerfallenen Atome wie n(t) = n(0)e−λt abklingt. Dies ist äquivalent zurDifferenzialgleichung ṅ = −λn. Wenn die Zahl der Atome nicht makroskopischgroß ist, können wir keine deterministische Gleichung für die Zahl der Atomeals Funktion der Zeit schreiben, sondern wir haben es mit einem stochastischenProzess mit der Variablen n zu tun. Es gibt nur Übergänge von Werten n zumnächstkleineren Wert n− 1. Die Übergangsrate hierfür ist λn. Wenn man einensolchen Prozess am Computer simulieren will, muss man darauf achten, dassman das Zeitintervall ∆t (das jetzt natürlich nicht infinitesimal klein sein kann)so klein wählt, dass nicht nur λ∆t klein ist, sondern auch λn∆t. Dann kannman die Wahrscheinlichkeit dafür, dass in demselben Zeitintervall zwei odermehr Atome zerfallen, vernachlässigen gegenüber der Wahrscheinlichkeit, dassein Atom zerfällt. Die Wahrscheinlichkeit dafür, dass zwei Atome im Zeitintervall∆t zerfallen, beträgt 0.5n(n − 1)λ2(∆t)2.

    Als zweites Beispiel betrachten wir wieder den Random Walk. Statt dassder Besoffene in einem festen Takt seine Schritte macht, macht er nun mit einerRate µr einen Schritt nach rechts und mit einer Rate µl einen Schritt nach links,wie in der zweiten Variante. Die mittlere Zeit zwischen zwei Schritten nachrechts beträgt 1/µr, und die mittlere Zeit zwischen zwei Schritten nach linksbeträgt 1/µl. Die mittlere Zeit zwischen zwei aufeinanderfolgenden Schritten inbeliebiger Richtung beträgt 1/(µr + µl). Die Wahrscheinlichkeit dafür, dass erin einem Zeitintervall t keinen Schritt macht, beträgt e−(µr+µl)t.

    2.3.2 Die Mastergleichung

    Die zeitliche Entwicklung der Wahrscheinlichkeit, in einem bestimmten Zustandzu sein, ist durch die Master-Gleichung gegeben:

    ∂p(i, t)

    ∂t=

    j 6=i

    [p(j, t)wij − p(i, t)wji] (2.11)

    Die stationäre Verteilung ändert sich nicht mit der Zeit, und sie erfüllt daherdie Gleichung

    0 =∑

    j 6=i

    [peq(j)wij − peq(i)wji] . (2.12)

    Wenn nicht nur die Summe, sondern jeder einzelne Summand verschwindet, alsowenn

    0 = peq(j)wij − peq(i)wji , (2.13)dann liegt detailliertes Gleichgewicht vor. Anschaulich bedeutet dies, dass Über-gänge von i nach j genauso häufig sind wie Übergänge von j nach i. Wennman also eine Filmaufnahme eines Systems im detaillierten Gleichgewicht machtund den Film dann rückwärts laufen lässt, sieht er genauso realistisch aus wie

    11

  • vorwärts. Stationäre Systeme, die kein detailliertes Gleichgewicht haben, sehenunter Umkehr der Zeitrichtung anders aus.

    Detailliertes Gleichgewicht liegt z.B. im mikrokanonischen Ensemble vor.Diese Systeme sind von ihrer Umwelt isoliert. Da die elementaren physikali-schen Prozesse invariant unter Zeitumkehr sind, erwartet man dies auch für einSystem im Gleichgewicht, in dem der Anfangszustand “vergessen” ist. Auchkanonische und makrokanonische Ensembles haben detailliertes Gleichgewicht,da man man diese Systeme gemeinsam mit ihrem Wärme- oder Teilchenbadbetrachten kann, und dann liegt wieder ein isoliertes System vor. Offene Sy-steme dagegen wechselwirken beständig mit ihrer Umwelt und können daherpermanent fern von thermischen Gleichgewicht sein. Also kann man in ihnenkein detailliertes Gleichgewicht erwarten.

    Mastergleichungen lassen sich meist nicht analytisch lösen. Daher simuliertman sie üblicherweise am Computer, oder macht man Näherungen und gehtz.B. zur Fokker-Planck-Gleichung über (s.u.).

    2.3.3 Exkurs: Monte-Carlo-Simulationen zur Bestimmung

    statistischer Eigenschaften

    Das folgende Beispiel ist im Gegensatz zu den meisten anderen Beispielen diesesKapitels kein eindimensionales System. Die Zustände i und j seien Zuständeeines Systems im kanonischen Ensemble. Wir wollen durch eine Computer-simulation bestimmen, wie häufig welcher Zustand im kanonischen Ensemblevorkommt oder was der Wert einer Observablen im kanonischen Ensemble ist.Hierbei ist das Konzept von Übergangsraten und Mastergleichungen sehr hilf-reich.

    Das statistische Gewicht eines Zustands i im Ensemble ist e−E(i)/kBT /Z,wobei E die Energie des Zustands ist und Z die kanonische Zustandssumme.Die direkte Auswertung der Observablen durch Summation über alle quanten-mechanischen Zustände des Systems ist normalerweise nicht durchführbar, undman muss sich stattdessen mit einer repräsentativen Stichprobe begnügen. Aller-dings ist es wenig effizient, eine Stichprobe von Zuständen zufällig zu erzeugenund die Observable nur bezüglich dieser Zustände zu ermitteln, da die mei-sten zufällig erzeugten Zustände eine hohe Energie haben und daher zusammennur ein kleines statistisches Gewicht haben. Viel effizienter ist es, einen stocha-stischen Prozess zu definieren, der einen repräsentativen Satz von Zuständenerzeugt. Man nennt solche Computersimulationen Monte-Carlo-Simulationen.

    Zu diesem Zweck wählt man die Übergangsraten zwischen den Zuständenso, dass detailliertes Gleichgewicht vorliegt, also dass

    wijwji

    =peq(i)

    peq(j)= e−(E(i)−E(j))/kBT (2.14)

    ist. Damit ist gewährleistet, dass in einer unendlich langen Zeitreihe jeder Zu-stand genau mit der Häufigkeit vorkommt, die seinem statischen Gewicht ent-spricht.

    Zwei beliebte Möglichkeiten, die Übergangsraten zu wählen, sind die Glauber-Dynamik

    wij = aij1

    2

    [

    1 + tanh

    (

    −E(i) − E(j)2kBT

    )]

    (2.15)

    12

  • und die Metropolis-Dynamik

    wij = aijmin(1, e−(E(i)−E(j))/kBT ) . (2.16)

    Die Parameter aij = aji haben in der Praxis für viele Zustandspaare den Wert0 und für die anderen Zustandspaare einen konstanten Wert.

    In einer Computersimulation beginnt man mit einem beliebigen Anfangszu-stand i0 und erzeugt dann die weiteren Zustände i1, i2 etc mit Übergangsratenentsprechend einer der letzten beiden Formeln. Dabei muss man sicherstellen,dass die Zeitreihe so lang wird, dass die in ihr erzeugte Stichprobe auch re-präsentativ ist. Dabei ist es ratsam, den ersten Teil der Zeitreihe zu ignorieren,da der Anfangszustand wenig typisch für das kanonische Ensemble ist, wenn ernicht mit viel Einsicht ausgewählt wurde.

    Als Beispiel wählen wir das Ising-Modell auf dem zweidimensionalen Git-ter, E = −J ∑α,β Nachbarn σασβ , wobei die Indizes Gitterplätze durchzählen.Die Summe geht hier über nächste-Nachbarpaare, und die σα haben die Werte±1. Das Ising-Modell ist ein Modell für den Magnetismus, da im Grundzustandalle Spins parallel ausgerichtet sind. Ein Zustand des Gesamtsystems ist durchdie Spinkonfiguration {σα} gegeben. Wir wählen aij = 1, wenn sich die Kon-figurationen i und j nur um einen Spin unterscheiden, und sonst aij = 0. DieEnergieänderung des Gesamtsystems bei Flippen des Spins α beträgt ∆E =2Jσα

    β σβ , wobei die Summe über die 4 Nachbarspins des Spins α läuft.Eine Monte-Carlo-Simulation des Ising-Modells sieht dann so aus:

    1. Erzeuge eine Anfangskonfiguration {σα}.

    2. Wähle einen Spin α zufällig aus allen aus.

    3. Berechne die Energieänderung ∆E, die mit dem Umkehren dieses Spinsverbunden ist.

    4. Berechne das wij dafür, dass der Spin umgedreht wird, unter Verwendungder Glauber- oder Metropolis-Dynamik.

    5. Erzeuge eine Zufallszahl zwischen 0 und 1.

    6. Wenn die Zufallszahl kleiner ist als wij , dann drehe den Spin um.

    7. Gehe zu Schritt 2.

    Bei der Erstellung dieser Regeln haben wir es umgangen, Zeitintervalle zuwählen, die so klein sind, dass die Wahrscheinlichkeit für einen Übergang währendeines Zeitintervalls klein ist. Stattdessen haben wir eine Regel gewählt, die si-cherstellt, dass dann wenn der nächste Übergang passiert (egal wann er pas-siert), er mit den richtigen relativen Wahrscheinlichkeiten in einen der benach-barten Zustände geht. Mit diesem Trick können wir die Simulation mit maxi-malem Tempo ablaufen lassen und erhalten trotzdem eine korrekte Abfolge vonZuständen zu unserer Master-Gleichung. Allerdings verzerren wir die Zeitskaladabei.

    Eine alternative Methode, die kleinen Übergangswahrscheinlichkeiten amComputer zu behandeln, ohne dabei die Zeitskala zu verzerren, lernen wir inden Übungen kennen.

    13

  • Aufgaben

    1. Diskretisiere die Zeit in der Mastergleichung und zeige, dass sich dann dieZeitentwicklung einer Markovkette, also eine Zeitentwicklung der Form

    ~rt+1 = Q~rt

    ergibt.

    2. Betrachte den in der Zeit kontinuierlichen Random Walk, bei dem derPfad mit einer Rate µl bzw µr einen Schritt nach links bzw einen Schrittnach rechts geht. (a) Schreibe für den in der Zeit kontinuierlichen RandomWalk die Mastergleichung auf. (b) Wie würdest Du einen kontinuierlichenRandom Walk am Computer simulieren?

    3. In einer Bakterienkolonie aus n Individuen entstehen mit einer Rate r(n−n2/K) neue Individuen, und sie sterben mit einer Rate µ pro Individuum.Interpretieren Sie die Parameter r und K. Wie lautet die entsprechendeMastergleichung?

    2.4 Kramers-Moyal-Entwicklung und Fokker-Planck-

    Gleichung

    Ab jetzt betrachten wir wieder eindimensionale Prozesse. Die Zustände i und jersetzen wir daher durch die Variable x. Wir gehen weiterhin davon aus, dassdie Übergänge überwiegend zu nahegelegenen Werten von x stattfinden.

    Solche eindimensionalen Prozesse können genau wie der Random Walk je-weils in der Zeit und im Ort diskret oder kontinuierlich sein. Im Unterschiedzum Random Walk sind bei allgemeinen eindimensionalen Prozessen die Über-gangswahrscheinlichkeiten (Variante 1), die Übergangsraten (Variante 2), dieSchrittgrößenverteilung (Variante 3) oder die Ratendichten (Variante 4) vomOrt x abhängig.

    Die Mastergleichung (2.11) wurde für Variante 2 formuliert. Für Variante 4sieht sie folgendermaßen aus:

    ∂P (x, t)

    ∂t=

    µ(x − ∆x; ∆x)P (x − ∆x, t)d(∆x) − P (x, t)∫

    µ(x; ∆x)d(∆x) .

    (2.17)Da die Ratendichten µ vom Ort abhängen, ist als erstes Argument jeweils dieAusgangsposition des betreffenden Schrittes angegeben.

    Wir können diese Gleichung auch anders interpretieren, wenn wir viele ein-zelne Schritte zu einem Schritt zusammenfassen. Dies bedeutet, dass wir diex-Achse aus so großer Entfernung betrachten, dass benachbarte Werte der Zu-fallsvariablen sehr dicht liegen, d.h. dass im Intervall dx, das weiter unten in denIntegralen steht, viele Werte der Variablen liegen. Auch auf der Zeitskala führenwir eine solche Näherung durch. Die “infinitesimalen” Zeitintervalle dt seien alsoso groß, dass in ihnen viele Übergänge stattfinden, so dass wir µ(x; ∆x)dt alseine Schrittgrößenverteilung g(x; ∆x) interpretieren können.

    Das Ziel dieses Abschnittes ist es, die Fokker-Planck-Gleichung aus der Ma-stergleichung herzuleiten. Die Fokker-Planck-Gleichung ist die verallgemeiner-te Variante der Diffusionsgleichung (2.8). Eine wichtige Voraussetzung für die

    14

  • Gültigkeit der Herleitung ist, dass die Ratendichte µ(x; ∆x) sich stetig mit xändert, und dass die Verteilung p(x, t) sich ebenfalls stetig mit x ändert. Wenndiese Voraussetzungen erfüllt sind können wir in den Integralen in Gleichung(2.17) eine Taylorentwicklung in ∆x machen, und erhalten

    ∂P (x, t)

    ∂t=

    ∞∑

    n=1

    (−1)nn!

    ∂n

    ∂xn[an(x)P (x, t)] (2.18)

    mit

    an(x) =

    ∫ ∞

    −∞

    (∆x)nµ(x; ∆x)d∆x (2.19)

    Dies ist die Kramers-Moyal-Entwicklung der Mastergleichung.Wenn die Änderung von µ und P mit x langsam ist (bezogen auf die typische

    Schrittgröße), genügt es, nur die ersten beiden Terme dieser Entwicklung zuberücksichtigen, und wir erhalten die Fokker-Planck-Gleichung

    ∂P (x, t)

    ∂t= − ∂

    ∂x[a1(x)P (x, t)] +

    1

    2

    ∂2

    ∂x2[a2(x)P (x, t)] . (2.20)

    Man nennt a1(x) den Drift-Koeffizienten. Er ist die mittlere Änderung der Va-riablen x pro Zeiteinheit. Wenn µ von x unabhängig ist, ist der stochastischeProzess ein Random Walk, und a1 ist identisch mit der Geschwindigkeit v. a2(x)ist der Diffusionskoeffizient. Er ist die mittlere quadratische Änderung von xpro Zeiteinheit. Wenn µ von x unabhängig ist, ist der stochastische Prozess einRandom Walk, und a2 ist identisch mit 2D, also mit zweimal der Diffusionskon-stanten.

    Damit die Fokker-Planck-Gleichung eine eindeutige Lösung hat, benötigtman die noch Anfangsbedingungen und die Randbedingungen.

    Wenn der zugrunde liegende stochastische Prozess einer der anderen Varian-ten entspricht, kann man a1(x) und a2(x) natürlich direkt aus diesem Prozessausrechnen, unter Verwendung der Übergangswahrscheinlichkeiten bzw -raten.a1dt ist die mittlere Änderung von x in der Zeit dt, und diese ist dieselbe beieiner diskreten oder einer kontinuierlichen Betrachtung des Prozesses. Wichtigist nur, dass auf der Länge a1dt sich der Wert von a1 praktisch nicht ändert, sodass die Funktion a1(x) sauber definiert ist, und dies war ja die Voraussetzung,die wir zu Beginn dieses Teilkapitels gemacht haben. a2dt ist die Varianz derÄnderung von x in der Zeit dt, und sie ist proportional zu dt unabhängig davon,ob wir auf Zeitskalen sind, auf denen die Diskretheit der x-Werte wahrnehmbarist oder nicht.

    Die Vernachlässigung der Terme höherer Ordnung ist umso mehr gerecht-fertigt, je langsamer P (x, t) und µ(x; ∆x) mit der Zufallsvariablen x variieren.Dann wird nicht nur die Fokker-Planck-Gleichung eine immer bessere Nähe-rung, sondern dann darf man auch immer mehr Einzelschritte beim Übergangzum Kontinuum zusammenfassen. Nach dem zentralen Grenzwertsatz nähertsich dann die Schrittgrößenverteilung immer mehr einer Gaußverteilung.

    Aufgaben

    1. Der letzte Satz dieses Teilkapitels lautete “Nach dem zentralen Grenz-wertsatz nähert sich dann die Schrittgrößenverteilung immer mehr einer

    15

  • Gaußverteilung.” Schreibe diese Gaußverteilung explizit hin unter Verwen-dung von a1(x) und a2(x). Wie hängen die an(x) von a1dt und a2dt ab?Was ergibt sich daraus im Grenzfall dt → 0?

    2. Berechne a1 und a2 für die letzte Aufgabe (Bakterienkolonie) des vorigenAufgabenblocks.

    3. Berechne a1 und a2 für den im Abschnitt 2.3.1 beschriebenen radioaktivenZerfall von n Atomen.

    4. Leite die Fokker-Planck-Gleichung für einen stochastischen Prozess derVariante 1 auf direktem Weg gemäß der folgenden Aleitung her. Der Pro-zess sei ein Random Walk mit ortsabhängigen Werten von p und q. DieAusgangsgleichung ist also

    p(m, N + 1) = pm−1 p(m − 1, N) + qm+1 p(m + 1, N) . (2.21)

    Führe auf beiden Seiten der Gleichung eine Taylorentwicklung durch, gehedann zu den Variablen x = m∆x und t = N∆t über und drücke dieVorfaktoren auf der rechten Seite durch a1(x) und a2(x) aus. Führe denGrenzübergang ∆x → 0 und ∆t → 0 aus.

    5. Wie verallgemeinert man die Fokker-Planck-Gleichung auf mehrdimensio-nale Zufallsvariablen?

    2.4.1 Absorbierende Randbedingungen

    Es gibt noch eine andere Variante der Fokker-Planck-Gleichung. Um diese Va-riante zu motivieren, gehen wir wieder zum Random Walk zurück. In vielenBeispielen ist der Random Walk zuende, wenn ein bestimmter Wert überschrit-ten wird. Wenn Peter oder Paul sein ganzes Vermögen verloren hat, könnendie beiden nicht weiter spielen, und wenn der Besoffene zuhause angekommenist, braucht er nicht mehr weiterzulaufen. Wir definieren daher die Wahrschein-lichkeit G(xf , x, t) dafür, dass der Random Walk zur Zeit t noch nicht bei xfangekommen ist, wenn er zur Zeit 0 bei x gestartet ist. Für einen allgemeineneindimensionalen stochastischen Prozess können wir eine entsprechende Wahr-scheinlichkeit definieren. Wir geben im Folgenden eine Master- und eine Fokker-Planck-Gleichung für die Wahrscheinlichkeit G(xf , x, t) an. Wir benützen zudiesem Zweck wieder Variante 4. Der entscheidende Trick besteht dabei darin,den ersten Zeitschritt und nicht den letzten zu betrachten, so dass man eineDiffusionsgleichung bzgl der Anfangsposition x erhält. Die Zeitableitung vonG(xf , x, t) können wir dann schreiben als

    ∂G(xf , x, t)

    ∂t=

    µ(x; ∆x) (G(xf , x + ∆x, t) − G(xf , x, t)) d(∆x) . (2.22)

    Die Taylorentwicklung in x und Abbrechen nach dem 2.Term ergibt

    ∂G(xf , x, t)

    ∂t≃ a1(x)

    ∂G(xf , x, t)

    ∂x+

    a2(x)

    2

    ∂2G(xf , x, t)

    ∂x2. (2.23)

    Dies ist die Fokker-Planck-Gleichung bezüglich der Anfangsposition. a1 und a2sind genauso definiert wie bisher. Man achte darauf, dass sie diesmal vor den

    16

  • Ableitungen stehen und nicht dahinter. Der zweite Unterschied zur normalenFokker-Planck-Gleichung besteht darin, dass der Driftterm ein positives Vorzei-chen hat.

    Wir kommen nun wieder zurück zum Random Walk und setzten a1 = vund a2 = 2D. Die Lösung von (2.23) hat diesmal nicht die Form (2.7), dadie Anfangs- und Randbedingungen ganz anders sind. Es gibt jetzt auch keineNormierungsbedingung für G. Die Randbedingung lautet

    G(xf , xf , t) = 0 (2.24)

    und die Anfangsbedingung lautet

    G(xf , x, 0) = 1 (2.25)

    für x 6= xf .Wir wählen unsere x-Achse so, dass xf = 0 ist und dass der Startpunkt im In-

    tervall x ≥ 0 liegt. Im Folgenden werden wir die Fälle v > 0 und v < 0 zunächstseparat behandeln. Im Fall v > 0 besteht eine nichtverschwindende Wahrschein-lichkeit, dass der Random Walk nie beim Ursprung ankommt. Die Wahrschein-lichkeit hierfür, die “Entkommwahrscheinlichkeit” G(0, x,∞) bekommen wir aus(2.23) mit der Bedingung ∂G/∂t = 0. Die Lösung zur richtigen Randbedingung(G = 0 für x = 0 und G = 1 für x = ∞) ist dann

    G(0, x,∞) = 1 − e−vx/D . (2.26)

    Im Fall v < 0 ist die mittlere Zeit, bis der Random Walk beim Ursprungankommt, endlich. Wir nennen diese Zeit τ̄ (x). Es gilt

    τ̄ (x) = −∫ ∞

    0

    t∂

    ∂tG(xf , x, t) dt =

    ∫ ∞

    0

    G(xf , x, t) dt . (2.27)

    Dies folgt daraus, dass der Random Walk mit Wahrscheinlichkeit

    G(xf , x, t) − G(xf , x, t + dt) = −dt ∂G/∂t

    im Zeitintervall [t, t+ dt] bei xf ankommt. Integration der Gleichung (2.23) vont = 0 bis t = ∞ ergibt dann

    −1 = v dτ̄dx

    + Dd2τ̄

    dx2. (2.28)

    Die allgemeine Lösung mit der Eigenschaft τ̄ (0) = 0 lautet

    τ̄(x) =x

    |v| + A(e|v|x/D − 1) . (2.29)

    mit einem noch zu bestimmenden Parameter A. Im Limes x → ∞ darf dieserAusdruck nicht exponentiell divergieren, sondern muss sich der Form τ̄ (x) =x/|v| nähern, so dass wir A = 0 erhalten.

    Die Wahrscheinlichkeitsdichte dafür, dass ein Random Walk, der bei x star-tet, zum Zeitpunkt t zum ersten Mal den Ursprung erreicht, beträgt

    f(t) =x√

    4πDt3exp

    [

    − (x + vt)2

    4Dt

    ]

    . (2.30)

    17

  • Für v ≤ 0 ist diese Wahrscheinlichkeitsdichte auf 1 normiert, für v > 0 istdas Integral

    ∫ ∞

    0 f(t)dt durch (2.26) gegeben. Man nennt die Verteilung (2.30)die inverse Gaussverteilung, und sie wurde im Jahr 1915 von Schrödinger undSmoluchowski hergeleitet. Anschaulich kann man diese Formel folgendermaßenbegründen: Die Wahrscheinlichkeitsdichte dafür, dass ein Random Walk, der beix startet, zur Zeit t am Ursprung ist, ist proportional zum Wert der zu diesemDiffusionsprozess gehörenden Gaußverteilung am Ursprung zur Zeit t, also zu

    1√4πDt

    exp

    [

    − (x + vt)2

    4Dt

    ]

    .

    Je größer t ist, desto wahrscheinlicher ist es allerdings, dass der Random Walkzur Zeit t nicht zum ersten Mal beim Ursprung ist. Ein doppelt so lang dauernderWalk von x nach 0 überschreitet im Durchschnitt den Ursprung doppelt so oft.Also ist die Wahrscheinlichkeit, dass er zur Zeit t zum ersten Mal bei 0 ist,proportional zu 1/t. Wenn man dies an die Gaußverteilung multipliziert unddiese dann so normiert, dass

    ∫ ∞

    0f(t)dt = 1 ist (für v < 0), erhält man die

    inverse Gaussverteilung.

    Anwendung: Wahrscheinlichkeit für die Fixierung einer vorteilhaften

    Mutation

    Wir betrachten eine biologische Population aus N Individuen und nehmen an,dass in einem Individuum eine Mutation stattgefunden hat, die seine Fitness einwenig erhöht. Intuitiv gehen viele Leute davon aus, dass sich solch eine vorteil-hafte Mutation im Laufe der Generationen in der gesamten Population durch-setzen wird. Wir zeigen im Folgenden, dass diese Intuition falsch ist und dassdie Wahrscheinlichkeit, dass die Mutation sich durchsetzt, recht klein ist. Deranschauliche Grund hierfür ist, dass durch zufällige Einflüsse das Individuummit der Mutation oder seine Nachkommen evtl. keine Kinder bekommen, undsomit würde die Mutation wieder aus der Population verschwinden. Die Zahlder Individuen, die die Mutation haben, ist also ein stochastischer Prozess. Wirdefinieren ihn folgendermaßen: Wir gehen davon aus, dass die Generationen alledieselbe Populationsstärke N haben, und dass sie nicht überlappen. Es werdenalso in jedem Zeitschritt alle Individuen der vorigen Generation durch die Indi-viduen der nächsten Generation ersetzt. Der Einfachheit halber betrachten wirungeschlechtliche Fortpflanzung, so dass jedes Individuum nur einen Elternteil,die Mutter, hat. Die Mutation vererbt sich von Mutter zu Tochter. Die Tochter-generation bestimmen wir nach folgender Regel aus der Elterngeneration: Wirlosen Nmal aus, welches Individuum der Elterngeneration Mutter eines Indivi-duums der Tochtergeneration wird. Dabei haben Träger der Mutation eine umden Faktor (1+s) größere Wahrscheinlichkeit, gewählt zu werden, als Individuenohne die Mutation. Unsere stochastische Variable x ist der Anteil der Indivi-duen mit der Mutation an der Gesamtpopulation. Wenn die PopulationsstärkeN groß ist, können wir x als kontinuierliche Variable interpretieren und eineFokker-Planck-Gleichung aufstellen. Wir benötigen hierzu die Terme a1(x) unda2(x). Der Erwartungswert der stochastischen Variablen in der nächsten Gene-ration ist

    〈x(t + 1)〉 = x(t)(1 + s)x(t)(1 + s) + (1 − x(t)) =

    x(t) + x(t)s

    1 + x(t)s≃ x(t) + sx(t) − sx2(t) .

    18

  • Im letzten Schritt haben wir benützt, dass s klein ist. Es ergibt sich also a1(x) =x(1 − x)s. a2 nähert sich für kleine s einem von s unabhängigen Wert. Wirberechnen zunächst die Varianz der Zahl der Träger der Mutation (mit s = 0),und teilen sie am Ende durch N2, um die Varianz des Anteils der Träger derMutation zu bekommen. Die Varianz der Zahl der Träger der Mutation ist Nmal die Varianz für ein Kind, x ∗ (1 − x)2 + (1 − x) ∗ x2 = x(1 − x), worausa2 = x(1 − x)/N folgt.

    Uns interessiert die Wahrscheinlichkeit u(x, t) = (1 − G(1, x, t = ∞)) dafür,dass wenn zur Zeit 0 der Anteil x aller Individuen der Population die Mutationhat, bis zur Zeit t = ∞ dieser Anteil den Wert xf = 1 erreicht hat. G(xf , x, t)genügt der Fokker-Planck-Gleichung bzgl. des Anfangswertes, Gleichung (2.23).Für t = ∞ setzten wir die linke Seite dieser Gleichung zu Null. Einsetzen vona1 und a2 führt dann zu

    ∂2u(x,∞)∂x2

    = −2sN ∂u(x,∞)∂x

    was mit den Randbedingungen u(0, t) = 0 und u(1, t) = 1 auf die Lösung

    u(x,∞) = 1 − e−2Nsx

    1 − e−2Ns

    führt. Dies vereinfacht sich zu 2Nsx wenn Ns groß ist und x von der Größen-ordnung 1/N . Wenn es anfangs nur ein Individuum mit der Mutation gibt, wirddie Mutation mit der sehr kleinen Warscheinlichkeit 2s fixiert.

    Aufgaben

    1. Angenommen, der Besoffene hat einen Heimweg von einem KilometerLänge. Wenn er um Mitternacht losgeht und alle 2 Sekunden einen Schrittder Größe 1m macht – leider nur mit Wahrscheinlichkeit 1/2 jeweils in dierichtige Richtung–, mit welcher Wahrscheinlichkeit kommt er vor Sonnen-aufgang zuhause an?

    2. Leite eine zu (2.27) ähnliche Beziehung für die höheren Momente τ̄n derWahrscheinlichkeitsverteilung von τ her.

    2.5 Langevin-Gleichungen

    Den Übergang zu kontinuierlicher Zeit und kontinuierlicher Zufallsvariable, denwir bei der Herleitung der Fokker-Planck-Gleichung vollzogen haben, kann manauch direkt in der Formulierung des stochastischen Prozesses machen.

    Wir schreiben diesen Prozess in der folgenden Form:

    ẋ = v(x(t)) + b(x(t))η(t) (2.31)

    In dieser Gleichung ist v(x) ein deterministischer Term, der einfach eine Teil-chengeschwindigkeit ist, wenn wir x als den Ort eines Teilchens interpretieren.Der Einfluss des Zufalls auf die Bewegung steckt in η. Wir wählen v(x) so, dassder Erwartungswert 〈η(t)〉 des Rauschens verschwindet. In vielen Fällen wirdweißes Rauschen verwendet, und dann gilt

    〈η(t)η(t′)〉 = δ(t − t′) . (2.32)

    19

  • Hier fehlt noch eine Angabe über die Wahrscheinlichkeitsverteilung von η(t).Vorher ist allerdings noch zu klären, wie überhaupt (2.31) zusammen mit (2.32)zu verstehen ist. Es macht ja zunächst keinen Sinn, auf der linken Seite ẋ zuschreiben und folglich davon auszugehen, dass sich x kontinuierlich in der Zeitändert, und dann auf der rechten Seite einen Ausdruck zu schreiben, der sichin jedem noch so kleinen Zeitintervall unendlich oft ändert. Wir multiplizierenzunächst (2.31) mit dt und erhalten

    dx = v(x(t))dt + b(x(t))η(t)dt ≡ v(x(t))dt + b(x(t))dW . (2.33)

    Jetzt ist η(t)dt = dW als Änderung von x im Zeitintervall [t, t + dt] durchdas Rauschen zu interpretieren. (Bemerkung: Die Regeln, die wir hier für dasRechnen mit dW verwenden, sind der sogenannte Ito-Formalismus. Eine alter-native Methode ist der Stratonovich-Formalismus.) Für dW setzen wir einenWiener-Prozess an, also die Wahrscheinlichkeitsverteilung (2.7) mit v = 0 undD = 1,

    p(dW ) =1

    2π(dt)e−(dW )

    2/2(dt) . (2.34)

    Die Idee dahinter ist natürlich wieder die, dass in der Zeit dt eigentlich sehr vieleeinzelne Schritte des stochastischen Prozesses stattgefunden haben, so dass siesich nach dem zentralen Grenzwertsatz zu einer Gaußverteilung aufaddieren.

    Für nicht infinitesimale Zeiten t ergibt sich daraus

    p(W ) =1√2πt

    e−W2/2t . (2.35)

    Wenn man nur die Bewegungsgleichung ẋ = η hat und bei x = 0 startet, ist dieVerteilung der Position x nach der Zeit t folglich eine Gaußverteilung der Breitet. Das Rauschen, das wir verwenden, nennt man Gaußsches weißes Rauschen.

    Zu diesem stochastischen Prozess gibt es eine Fokker-Planck-Gleichung (2.20).Wir berechnen hierfür nun die Koeffizienten a1(x) und a2(x). Die mittlere Ände-rung der Variable x pro Zeiteinheit dt ist offensichtlich

    a1(x) = v(x) .

    Die Varianz von ∆x pro Zeit dt ist

    a2(x) = (b(x))2〈dW 2〉/dt = (b(x))2 .

    Die zu dem durch die Langevin-Gleichung beschriebenen stochastischen Pro-zess gehörende Sprunggrößenverteilung g(x; ∆x) ist

    g(x; ∆x) =e− (∆x−vdt)

    2

    2b2(dt)

    2πb2(dt)(2.36)

    Wenn wir die Zeitskala feiner wählen, wird diese Verteilung immer schmäler,und im Limes dt → 0 verschwinden alle höheren Momente 〈(∆x)n〉/dt. Diesist ein Vorteil der Kontinuumsdarstellung. Die Vernachlässigung von Termenhöherer Ordnung in der Kramers-Moyal-Entwicklung ist eine Näherung, wenndie Zufallsvariable diskret ist, und sie wird exakt, wenn die Zufallsvariable konti-nuierlich ist. Allerdings sollte man sich bewusst machen, dass die Kontinuums-formulierung ebenfalls eine Idealisierung ist, da ein physikalisch verursachtes

    20

  • Rauschen natürlich immer eine endliche Korrelationszeit hat, so dass der “in-finitesimale” Zeitschritt dt eine nichtverschwindende Größe hat und dass derTerm δ(t − t′) in (2.32) daher als δt,t′/dt interpretiert werden darf. Das Rau-schen verkörpert all diejenigen Freiheitsgrade und Einflüsse, die nicht explizitin der Rechnung berücksichtigt werden und die daher “zufällig” sind. Um dasRauschen durch eine Delta-Funktion nähern zu dürfen, muss die Dynamik dernicht berücksichtigten Einflüsse schnell sein auf der betrachteten Zeitskala. Diestrifft zum Beispiel auf thermisches Rauschen zu, das durch die thermische Be-wegung der Umgebung entsteht. Für ein Brownsches Teilchen kommt das ther-mische Rauschen von der Bewegung der Flüssigkeits- oder Gasmoleküle, die dasTeilchen umgeben. Nicht jedes Rauschen ist Gaußsches weißes Rauschen. Nurwenn das Rauschen aus der Überlagerung genügend vieler elementarer Prozessemit wohldefinierter Varianz resultiert, ist es Gaußsch. Denn nur dann gilt derzentrale Grenzwertsatz. Wenn der elementare Prozess eine Verteilung mit diver-gierendem zweiten Moment hat, dann resultiert ein Rauschen, bei dem extremeEreignisse nicht vernachlässigbar sind.

    Nachdem wir uns nun überlegt haben, wie mit der Gleichung (2.31) zu rech-nen ist, betrachten wir noch einige Anwendungen.

    2.5.1 Brownsche Bewegung

    Wir beginnen mit der Brownschen Bewegung

    mv̇(t) = −mζv(t) +√

    λη(t) (2.37)

    mit Gaußschen weißen Rauschen. Die formale Lösung dieser Gleichung ist

    v(t) = v0e−ζt + e−ζt

    ∫ t

    0

    dτeζτ√

    λη(τ)

    m.

    Damit ist

    〈v(t)v(t′)〉 = v20e−ζ(t+t′)+e−ζ(t+t

    ′)

    ∫ t

    0

    ∫ t′

    0

    dτ ′eζ(τ+τ′) λδ(τ − τ ′)

    m2≃ e−ζ|t−t′| λ

    2ζm2.

    Hierbei haben wir berücksichtigt, dass 〈η(τ)〉 = 0 ist und dass in dem Doppelin-tegral wegen der delta-Funktion die beiden Integrationsgrenzen t und t′ durchden kleineren dieser beiden Werte ersetzt werden dürfen. Im letzten Schritt ha-ben wir außerdem angenommen, dass t, t′ ≫ ζ−1 ist. ζ−1 ist eine Relaxations-zeit, nämlich die Zeitskala der Reibung, durch die die Geschwindigkeit verringertwird.

    Mit derselben Näherung berechnen wir

    〈x(t)2〉 =∫ t

    0

    ∫ t

    0

    dτ ′〈v(τ)v(τ ′)〉 ≃ λtξ2m2

    .

    Die Fokker-Planck-Gleichung zur Brownschen Bewegung ist

    ∂P (v, t)

    ∂t=

    ∂v(ζvP ) +

    λ

    2m2∂2P

    ∂v2. (2.38)

    Im Gleichgewicht wird die Geschwindigkeitsverteilung stationär, und wir ha-ben dann ∂P/∂t = 0 und

    Peq(v) ∝ e−m2ζv2/λ (2.39)

    21

  • Aus der statistischen Physik wissen wir, dass dies die Boltzmannverteilung∝ e−E/kBT sein muss (mit E = mv2/2), und daraus schießen wir, dass dieBeziehung

    λ=

    1

    2kBT(2.40)

    gelten muss. Wie zu erwarten, besteht ein Zusammenhang zwischen der Tem-peratur und der Rauschstärke λ. Solch einen Zusammenhang finden wir immerdann, wenn wir Systeme betrachten, die durch das Rauschen ins thermischeGleichgewicht gebracht werden. Wenn das Rauschen nicht thermischer Naturist, besteht dieser Zusammenhang nicht.

    2.5.2 Brownsches Teilchen im Kraftfeld

    Nun nehmen wir an, dass es eine ortsabhängige Kraft K(x) = −dV (x)/dx gibt,so dass die Bewegungsgleichung für das Teilchen die Form

    mẍ = −mζẋ + K(x) +√

    λη(t) (2.41)

    annimmt.Wir betrachten zunächst den Grenzfall starker Dämpfung, in dem der Term

    mẍ auf der linken Seite vernachlässigt werden kann. Dann vereinfacht sich dieBewegungsgleichung zu

    ẋ = −ΓdVdx

    +√

    2ΓkBTη(t) (2.42)

    mit Γ = 1/mζ. Die Stärke des Rauschterms wird durch die Bedingung gegeben,dass die Gleichgewichtsverteilung Peq(x) ∝ e−V (x)/kBT ist. Die Fokker-Planck-Gleichung für den Grenzfall starker Dämpfung ist

    ∂P (x, t)

    ∂t= − ∂

    ∂x(ΓK(x)P ) + ΓkBT

    ∂2P

    ∂x2. (2.43)

    Man nennt diese Gleichung Smoluchowski-Gleichung.Wenn man nicht den Grenzfall starker Dämpfung betrachtet, hängt die

    Fokker-Planck-Gleichung von den beiden Variablen x und v ab. Anhand vondiesem Beispiel zeigen wir, wie man eine Fokker-Planck-Gleichung für einenzweidimensionalen Prozess herleiten kann. Zunächst schreiben wir (2.41) in derForm

    v̇ = −ζv + K(x)m

    +

    2ζkBT

    mη(t)

    ẋ = v

    und leiten dann die Fokker-Planck-Gleichung über eine Taylorentwicklung derGleichung

    ∂P (x, v, t)

    ∂t=

    ∫ ∫

    [

    P (x − ∆x, v − ∆v, t)µ(x − ∆x, v − ∆v; ∆x, ∆v)

    −P (x, v, t)µ(x, v; ∆x, ∆v)]

    d(∆x)d(∆v)

    in ∆x und ∆v her. Dies ergibt

    ∂P (x, v, t)

    ∂t= −v ∂P

    ∂x− K

    m

    ∂P

    ∂v+ ζ

    ∂v(vP ) +

    ζkBT

    m

    ∂2P

    ∂v2. (2.44)

    22

  • Da der Rauschterm nur in der Gleichung für v steht, enthält der Diffusionstermnur Ableitungen bzgl. v. Man prüft leicht nach, dass die stationäre Lösung

    Peq(x, v) ∝ e−(V (x)+mv2/2)/kBT (2.45)

    ist.

    2.5.3 Brownsche Bewegung im Doppelmuldenpotenzial: Kra-

    mers Problem

    Wir spezifizieren nun, dass das Potenzial V (x) ein Doppelmuldenpotenzial ist,mit einem weniger tiefen Minimum bei xA, einem tieferen Minimum bei xC >xA, und einem Maximum bei xB zwischen den beiden Minima. Wir beginnenmit einem Anfangszustand, in dem das Brownsche Teilchen im linken (höheren)Minimum sitzt und fragen, was die Übergangsrate in das tiefere Minimum beixC ist. Das Inverse der Übergangsrate ist die durchschnittliche Zeit τ̄ , die manwarten muss, bis der Übergang passiert.

    Kramers Anwendungsbeispiel war eine chemische Reaktion. Zustand A ent-spricht den Ausgangsprodukten und C den Endprodukten. Damit die Reaktionstattfindet, muss eine Energiebarriere überwunden werden, die Aktivierungs-energie. Wir gehen davon aus, dass der Reaktionsverlauf durch eine eindimen-sionale Achse beschrieben werden kann. x ist also eine “Reaktionskoordinate”.Die Achse wird so skaliert, dass die durch das Potenzial verursachten Kräftedurch −V ′(x) gegeben sind. Weiterhin gehen wir davon aus, dass die Reaktionthermisch aktiviert ist, also dass die Reaktionspartner sich in einer thermalisier-ten Umgebung befinden und die Energie zum Überwinden der Barriere durchthermische Stöße bekommen, die wir durch Gaußsches weißes Rauschen model-lieren können. Die Barriere ist so hoch, dass die Zeit τ̄ viel größer ist als dieZeit, die das System braucht, um im Ausgangsminimum bei xA die Gleichge-wichtsverteilung zu erreichen, also V (xB) − V (xA) ≫ kBT .

    Wir betrachten den Grenzfall starker Dämpfung, so dass unser System durchdie beiden Gleichungen (2.42) und (2.43) beschrieben wird. Starke Dämpfungbedeutet, dass die Reibungskraft ẋ/Γ viel stärker als die durch das Potenzi-al verursachte Kraft V ′′(x)(x − xA) ≡ mω2A(x − xA) ist. Ohne Reibung wäredie Geschwindigkeit von der Größenordnung aωA, wobei a die Amplitude derSchwingung um das Potenzialminimum ist. Die durch das Potenzial verursachteBeschleunigung wäre also von der Größenordnung aω2. Dies ist vernachlässigbargegenüber der Beschleunigung durch Reibungskräfte aω/mΓ, wenn

    mΓω ≪ 1 (2.46)

    ist.Nun berechnen wir die mittlere Zeitdauer τ̄ , die das Teilchen benötigt, um

    von A nach C zu gelangen. Zur Beantwortung dieser Frage benötigen wir dieFokker-Planck-Gleichung bzgl der Anfangsposition, Gl. (2.23), wobei xf durchxC zu ersetzen ist.

    Bevor wir die für unser Problem zutreffenden Ausdrücke für a1 und a2 ein-setzen, berechnen wir den Ausdruck für τ̄ zunächst allgemein. Ausgehend vonder Beziehung (2.27) erhalten wir eine zu (2.28) analoge Gleichung

    −1 = a1(x)dτ̄

    dx+

    1

    2a2(x)

    d2 τ̄

    dx2(2.47)

    23

  • mit den Randbedingungen

    τ̄ (xC) = 0 , limx→−∞

    d

    dxτ̄ (x) = 0 . (2.48)

    Die Lösung, die diese Randbedingungen erfüllt, ist

    τ̄(x) = 2

    ∫ xC

    x

    dx′φ−1(x′)

    ∫ x′

    −∞

    dx′′φ(x′′)

    a2(x′′)(2.49)

    mit

    φ(x) = exp

    [∫ x

    −∞

    dx′2a1(x

    ′)

    a2(x′)

    ]

    .

    Wenn wir nun die Ausdrücke aus (2.43) a1 = −ΓV ′(x) und a2 = 2ΓkBT einset-zen, erhalten wir für Kramers Problem

    τ̄ (x) =1

    ΓkBT

    ∫ xC

    x

    dx′ exp

    [

    V (x′) − V (xA)kBT

    ] ∫ x′

    −∞

    dx′′ exp

    [

    −V (x′′) − V (xA)kBT

    ]

    .

    (2.50)Nun nützen wir noch die Näherungen aus, die wir oben gemacht haben. DaV (xB) − V (xA) ≫ kBT ist, kommt der Hauptbeitrag zum ersten Integral ausder unmittelbaren Umgebung von xB. Wir entwickeln daher das Potenzial inder ersten Exponentialfunktion bis zur zweiten Ordnung in (x − xB),

    V (x′) = V (xB) −1

    2mω2B(x

    ′ − xB)2 .

    Im zweiten Integral kann man folglich die obere Integrationsgrenze gleich xBsetzen. Hier kommt der Hauptbeitrag zum Integral von der Umgebung des lo-kalen Minimums bei xA, so dass wir das Potenzial im zweiten Integral näherndurch

    V (x′′) = V (xA) +1

    2mω2A(x

    ′ − xA)2 .

    Da die Integrale von der Umgebung der Extrema dominiert werden, können wiralle Integrationsgrenzen nach ±∞ schicken. Wir haben also nur noch Gauß-Integrale auszuführen und erhalten

    τ̄ ≃ 2πmωAωB

    e(V (xB)−V (xA))/kBT . (2.51)

    Die Übergangsrate von xA nach xC ist das Inverse dieses Ausdrucks. Für dieumgekehrte Übergangsrate von xC nach xA erhält man den entsprechendenAusdruck mit C statt A.

    Dies ist Kramers berühmtes Ergebnis für die Reaktionsrate. Die Zeitskalawird von einem thermisch aktivierten Prozess bestimmt, wobei die Energie-barriere die Höhe V (xB) − V (xA) hat. Übergangsraten, die exponenziell in derHöhe der Barriere (geteilt durch kBT ) sind, findet man in vielen Anwendungen.Man nennt dies Arrhenius-Verhalten.

    24

  • Kapitel 3

    Nichtlineare Dynamik

    Wir betrachten in diesem Kapitel dynamische Systeme, die durch Gleichungender Form

    dx(1)

    dt= F1(x

    (1), x(2), . . . , x(N)) ,

    dx(2)

    dt= F2(x

    (1), x(2), . . . , x(N)) ,

    ...

    dx(N)

    dt= FN (x

    (1), x(2), . . . , x(N)) . (3.1)

    beschrieben werden. Wenn man den Anfangszustand ~x(t0) kennt, kann man mitHilfe dieser Gleichungen die zeitliche Entwicklung von ~x berechnen.

    Wenn die Fi keine linearen Funktionen in den x(j) sind, liegt nichtlineare

    Dynamik vor, die oft schwer vorherzusagen und sehr komplex sein kann. Einigeder stochastischen Systeme des letzten Kapitels werden zu deterministischennichtlinearen Systemen, wenn wir nur die Dynamik der Mittelwerte betrachten.Ein Beispiel hierfür ist das Wachstum einer Bakterienkolonie (siehe Aufgabe 3 inAbschnitt 2.3), das bei Vernachlässigung des Rauschens und bei Umbenennungder Parameter durch

    ṅ = rn(1 − n/K) (3.2)beschrieben wird. In diesem Kapitel werden wir noch mehr Anwendungsbeispie-len aus der Populationsdynamik begegnen.

    Auch Systeme, in denen Kräfte und damit Beschleunigungen (also zweiteZeitableitungen) auftreten, lassen sich auf die Form (3.1) bringen. Hierzu wirddie Geschwindigkeit als weitere Variable eingeführt. Damit wird aus der Glei-chung d2x/dt2 = F (x)/m das Gleichungssystem

    dx

    dt= v

    dv

    dt= F (x)/m .

    Wenn die Kraft zeitabhängig ist, F = F (x, t), führt man eine dritte Variableein, um diese explizite Zeitabhängigkeit zu eliminieren und die Form (3.1) zu

    25

  • erhalten:

    ds

    dt= 1

    dx

    dt= v

    dv

    dt= F (x, s)/m .

    Der Raum, der von den Variablen des Systems aufgespannt wird, ist der Pha-senraum. Die Bahn, die von dem Zustand des Systems im Phasenraum zurück-gelegt wird, nennt man Trajektorie oder Orbit. Wir haben vorhin gesehen, dassdie zeitliche Entwicklung deterministisch und für gegebenen Anfangszustandeindeutig ist. Daraus folgt unmittelbar, dass sich Trajektorien im Phasenraumnicht schneiden können.

    Abb. 3.1 zeigt Phasenraumtrajektorien für das ideale (d.h. reibungfsreie)Pendel, das durch die Gleichungen

    dt= v

    dv

    dt= −a sinϕ

    (mit a = g/l) beschrieben ist.

    -2 0 2ϕ

    -3

    -2

    -1

    0

    1

    2

    3

    v

    Abbildung 3.1: Phasenraumtrajektorien des Pendels für verschiedene Anfangs-geschwindigkeiten und für a = 1.

    Man unterscheidet zwischen konservativen und dissipativen dynamischen Sy-stemen. In konservativen Systemen kann man die Variablen so wählen, dass dieGröße eines Phasenraumvolumenelements unter der zeitlichen Entwicklung kon-stant bleibt. Das Volumenelement ändert nur seine Form. Hierzu gehören dieHamiltonschen Systeme, die üblicherweise in der Klassischen Mechanik behan-delt werden. In dissipativen Systemen gibt es Gebiete des Phasenraums, in denenein Phasenraumvolumenelement mit der Zeit immer kleiner wird. Dieses Kapi-tel beschäftigt sich nur mit dissipativen Systemen. Ob ein Phasenraumvolumenunter der Dynamik gleich bleibt oder sich ändert, kann man an dem Ausdruck∑

    i ∂Fi/∂x(i) ablesen. Um dies zu zeigen, machen wir den Ansatz V = l1l2 . . . lN

    26

  • (mit infinitesimalen li). Es ist l̇1 = ẋ(1)e − ẋ(1)a ≃ l1∂F1/∂x(1). Damit erhalten

    wir

    V̇ = l̇1l2 . . . lN + l̇2l1l3 . . . lN + . . .

    =∂F1∂x(1)

    l1l2 . . . lN +∂F2∂x(2)

    l2l1 . . . lN + . . .

    =∑

    i

    ∂Fi∂x(i)

    l1l2 . . . lN

    = V ~∇ · ~F . (3.3)

    Wenn ∇ · ~F = 0 ist, bleibt das Phasenraumvolumenelement in seiner Größekonstant, wenn ∇ · ~F < 0 ist, schrumpft es, ansonsten wächst es.

    Dissipative Systeme haben Attraktoren im Phasenraum. Dies sind Teilmen-gen des Phasenraums, denen sich alle Trajektorien annähern, die in einem be-stimmten endlichen Phasenraumvolumenelement starten. Attraktoren könnenPunkte sein, wie z.B. für das gedämpfte Pendel, das durch die Gleichungen

    dt= v

    dv

    dt= −a sinϕ− ηv

    beschrieben wird. Der Fixpunkt v = 0, ϕ = 0 ist der Attraktor für sämtliche An-fangsbedingungen. Abb. 3.2 zeigt eine Phasenraumtrajektorie für das gedämpftePendel.

    0 2 4 6 8ϕ

    -2

    -1

    0

    1

    2

    3

    v

    Abbildung 3.2: Phasenraumtrajektorie für das gedämpfte Pendel. v(t = 0) = 3,a = 1, η = 0.15.

    Die Attraktoren können auch Grenzzyklen sein, wie z.B. in Abb. 3.3 für dasperiodisch getriebene Pendel

    dt= v

    dv

    dt= −a sinϕ− ηv + c sin(ωs)

    s = t mod 2π/ω .

    27

  • -5 0 5 10 15ϕ

    -2

    -1

    0

    1

    2

    v

    Abbildung 3.3: Zwei Phasenraumtrajektorien für das gedämpfte periodisch ge-triebene Pendel, projiziert in die ϕ − v-Ebene. a = 1, η = 0.15, ω = 1, c = 1.

    Wenn die Dynamik eines dissipativen Systems chaotisch ist, können dieAttraktoren auch kompliziertere Struktur haben. Man nennt sie dann seltsa-me Attraktoren. Ein Beispiel für einen seltsamen Attraktor ist in Abbildung3.28 gezeigt. Auch unser getriebenes gedämpftes Pendel hat seltsame Attrak-toren. Um komplexe Trajektorien oder Attraktoren besser zu erfassen, ist esoft zweckmäßig, einen Poincaré-Schnitt zu machen. Man trägt dann nur dieSchnittpunkte der Trajektorie mit einer bestimmten (Hyper)-Ebene auf. Diedreidimensionale Trajektorie unseres getriebenen Pendels wird dann zu einerzweidimensionalen Ansammlung von Punkten, wie in Abb. 3.4 gezeigt. Die Tra-jektorie wiederholt sich nie genau. Wenn man den Poincaré-Schnitt vergrößert,sieht man immer weitere Details des Attraktors (wenn die Rechengenauigkeitgenau genug war und die Laufzeit lang genug....). Mit dem Poincaré-Schnitthat man aus einem dreidimensionalen dynamischen System eine zweidimensio-nale diskrete Abbildung gemacht, die jedem Punkt der Ebene einen Folgepunktzuordnet. Diskrete Abbildungen können also auch Chaos zeigen, ebenso wiekontinuierliche dynamische Systeme. Auf diskrete Abbildungen werden wir indieser Vorlesung allerdings nicht eingehen.

    Bei Veränderung eines oder mehrerer Parameter eines nichtlinearen Systemskönnen Bifurkationen auftreten. Dies sind qualitative Änderungen der Attrak-toren und ihrer Stabilität.

    In diesem Kapitel werden zunächst mit eindimensionalen Systemen begin-nen und uns, zum Teil mit graphischen Methoden, mit Fixpunkten und ihrerStabilität und den möglichen Bifurkationen befassen. Dann wenden wir uns Bei-spielen in zwei Dimensionen zu. Als wichtigstes neues Phänomen kommen hierGrenzzyklen hinzu. In drei Dimensionen schließlich kann es seltsame Attrakto-ren geben, für die wir einige Beispiele sehen werden.

    28

  • -2 0 2ϕ

    -5

    -4

    -3

    -2

    -1

    0

    v

    Abbildung 3.4: Poincaré-Schnitt einer chaotische Trajektorie mit der s = 0–Ebene für das gedämpfte periodisch getriebene Pendel. v(t = 0) = 1.2, a = 1,η = 0.15, ω = 0.4, c = 1.5.

    3.1 Nichtlineare Dynamik in einer Dimension

    3.1.1 Phasenportraits

    Wir behandeln zunächst Systeme, deren Dynamik in der Form

    ẋ = f(x) (3.4)

    geschrieben werden kann. Über ein solches System können wir eine Menge aus-sagen, ohne die Bewegungsgleichung explizit zu lösen. Jedem Punkt der x-Achsekönnen wir einen Pfeil zuordnen, der das Vorzeichen von ẋ angibt. Wenn f(x)positiv ist, zeigt der Pfeil nach rechts, wenn f(x) negativ ist, zeigt der Pfeilnach links. Wenn f(x) verschwindet, haben wir einen Fixpunkt. Ein Bild wieAbbildung 3.5, das alle qualitativ verschiedenen Trajektorien zeigt, nennt manein Phasenportrait.

    3.1.2 Stabilität von Fixpunkten

    Um die Stabilität eines Fixpunktes zu ermitteln, untersuchen wir, ob Trajekto-rien, die in unmittelbarer Umgebung des Fixpunktes starten, in ihn hinein odervon ihm weglaufen. Wir bezeichnen den Fixpunkt mit x∗ und den Startpunktder Trajektorie mit x∗ + u mit kleinem u. Taylorentwicklung von f(x) bis zurersten Ordnung gibt

    du

    dt= f ′(x∗)u . (3.5)

    Wenn f ′(x∗) positiv ist, ist der Fixpunkt instabil, wenn f ′(x∗) negativ ist, ist erstabil. Wenn f ′(x∗) = 0 ist, können verschiedene Situationen vorliegen, die derLeser sich anhand der folgenden Beispiele veranschaulichen kann: (a) ẋ = −x3,(b) ẋ = x3, (c) ẋ = x2, (d) ẋ = 0.

    29

  • x

    f(x)

    Abbildung 3.5: Beispiel für ein Phasenportrait für ein eindimensionales dynami-sches System. Stabile Fixpunkte werden mit gefüllten Kreisen markiert, instabileFixpunkte mit leeren Kreisen.

    Aufgaben

    1. Welches Langzeitverhalten, abgesehen vom Hineinlaufen in einen Fixpunkt,kann ein eindimensionales dynamisches System noch zeigen?

    2. Die logistische Gleichung

    Ṅ = rN

    (

    1− NK

    )

    (3.6)

    wurde 1838 von Verhulst vorgeschlagen, um das Wachstum der Welt-bevölkerung zu beschreiben. Zeichnen Sie das Phasenportrait für diesesModell. Diese Gleichung passt tatsächlich ganz gut für einfache Organis-men wie Bakterien oder Hefe, wenn man sie im Labor unter konstantenBedingungen wachsen lässt. Diskutieren Sie, warum das Modell für Insek-ten nicht gut ist.

    3. Der Allee-Effekt: Für viele Organismen ist die relative WachstumsrateṄ/N am größten, wenn N nicht zu klein ist. Dies kann zum Beispieldaher kommen, dass es für kleine N schwierig ist, einen Partner zu finden,oder dass durch Inzucht wenig lebensfähige Individuen enstehen. ZeigenSie, dass dieser Effekt durch Gleichungen der Form

    N= r − a(N − b)2 (3.7)

    beschrieben wird. Welche Bedingungen müssen an a und b gestellt werden?Finden Sie alle Fixpunkte und diskutieren sie ihre Stabilität. Skizzieren Sieden qualitativen Verlauf von N(t) für verschiedene Anfangsbedingungen.Vergleichen Sie ihre Ergebnisse mit denen für die logistische Gleichung.

    4. Wissen Sie, wie man die Gleichung ẋ = f(x) am Computer integriert?

    5. Autokatalyse: Betrachten Sie die chemische Reaktion

    A + X

    k+−→k−←−

    2X

    30

  • Stellen Sie eine dynamische Gleichung für die Konzentration x der X-Moleküle auf. Bestimmen Sie die Fixpunkte und ihre Stabilität. SkizzierenSie den zeitlichen Verlauf von x für verschiedene Anfangsbedingungen.

    3.1.3 Sattelknotenbifurkationen

    Bei Veränderung der Parameter eines eindimensionalen dynamischen Systemskönnen Fixpunkte entstehen und vergehen, und ihre Stabilität kann sich ändern.Parameterwerte, an denen solche Bifurkationen auftreten, heißen Bifurkations-punkte.

    Durch eine Sattelknotenbifurkation entstehen Fixpunkte bzw werden Fix-punkte zerstört. Wenn man einen Parameter verändert, bewegen sich zwei Fix-punkte aufeinander zu, kollidieren miteinander und vernichten einander. Wennman den Parameter in entgegengesetzter Richtung verändert, entstehen plötz-lich aus dem Nichts zwei Fixpunkte, die zunächst sehr nahe beieinander sindund dann auseinanderlaufen.

    Das Standardbeispiel für eine Sattelknotenbifurkation ist das System

    ẋ = r + x2 (3.8)

    mit dem Parameter r, wie in Abbildung 3.6 gezeigt. Wenn r durch den Wert 0

    f(x)

    x

    f(x)

    x

    f(x)

    x

    r=0r0

    Abbildung 3.6: Die Sattelknotenbifurkation. Bei r = 0 ist der Fixpunkt “halb-stabil”.

    geht, geht das Minimum der Parabel über die x-Achse, und die beiden Fixpunkteverschwinden. Allerdings ist der “Geist” dieser Fixpunkte noch da, wenn r kleinist, da ẋ in der Umgebung des Ursprungs sehr klein wird. Das System verweiltalso lange in der Umgebung der verschwundenen Fixpunkte.

    Das Bifurkationsdiagramm für die Sattelknotenbifurkation ist in Abbildung3.7 gezeigt. Ihren Namen bekommt die Sattelknotenbifurkation daher, dass diebeiden Fixpunkte in zweidimensionalen dynamischen Systemen ein Sattel (alsoein Fixpunkt mit einer instabilen und einer stabilen Richtung) und ein Knoten(ein vollständig stabiler Fixpunkt) sind.

    Als weiteres Beispiel für eine Sattelknotenbifurkation betrachten wir dasSystem

    ẋ = r − x− e−x . (3.9)Hier kann man die Werte der Fixpunkte nicht sofort angeben. Durch eine gra-phische Methode kommt man am schnellsten zum Ziel. Die Fixpunkte sind dort,wo sich die Kurven y = r − x und y = e−x schneiden. (Der Leser zeichne diesselbst. Ich bin zu faul, dies für das Skript zu zeichnen....). Die Richtung der Pfei-le im Phasenportrait zeigt nach rechts, wenn die Gerade r − x über der Kurve

    31

  • r

    x

    Abbildung 3.7: Bifurkationsdiagramm für die Sattelknotenbifurkation. Der sta-bile Fixpunkt ist durch eine durchgezogene Linie markiert, der instabile durcheine gestrichelte.

    e−x liegt, und sonst nach links. Daraus ermittelt man sofort die Stabilität derFixpunkte.

    Die Bifurkation ist dort, wo die Kurve r− x gerade die Tangente an e−x ist,und das ist offensichtlich bei r = 1 der Fall. Der halbstabile Fixpunkt ist dannbei x = 0. Wenn wir die Gleichung (3.9) für r = 1 + ǫ (mit kleinem ǫ) und fürkleine x jeweils bis zur führenden nichtverschwindenden Ordnung entwickeln,erhalten wir

    ẋ ≃ ǫ− x2

    2. (3.10)

    Bis auf das Vorzeichen von x2 ist dies identisch mit unserem Standardbeispiel(3.8), wenn wir die Variable y = x/2 einführen und r = ǫ/2 setzen. In derUmgebung einer Sattelknotenbifurkation erhält man in der Tat immer ein dy-namisches System der Form r± x2. Der Grund hierfür ist, dass zwei Fixpunktedann entstehen bzw vergehen, wenn sich ein lokales Minimum oder Maximumähnlich wie in Abbildung 3.6 dargestellt über die x-Achse schiebt. In der Um-gebung dieses Minimums oder Maximums ergibt eine Taylorentwicklung abergenau die genannte quadratische Form. Man nennt sie daher auch die Normal-form. Den Vorfaktor vor dem x2 kann man durch eine Umskalierung von x zumVerschwinden bringen.

    3.1.4 Die transkritische Bifurkation

    Transkritische Bifurkationen treten in Systemen auf, in denen ein Fixpunktfür alle Parameterwerte existiert und nicht zerstört werden kann. Dies ist zumBeispiel in der Populationsdynamik der Fall, wo N = 0 ein Fixpunkt sein muss.Solch ein Fixpunkt kann aber seine Stabilität ändern, und dies passiert bei einertranskritischen Bifurkation. Die Normalform lautet

    ẋ = rx − x2 . (3.11)

    Wenn r sich ändert, sieht das Phasenportrait so aus, wie in Abbildung 3.8gezeigt. Das r − x-Diagramm ist in Abbildung 3.9 gezeigt. Für eine biologischePopulation macht natürlich nur der Bereich x ≥ 0 Sinn. Aber es kann trotzdemhilfreich sein, auch den Bereich x < 0 aufzutragen, um besser zu sehen, was ander Bifurkation mit den Fixpunkten passiert.

    32

  • x x x

    f(x) f(x) f(x)

    r0

    Abbildung 3.8: Die transkritische Bifurkation. Bei r = 0 ist der Fixpunkt “halb-stabil”.

    r

    x

    Abbildung 3.9: Bifurkationsdiagramm für die transkritische Bifurkation. Derstabile Fixpunkt ist durch eine durchgezogene Linie markiert, der instabile durcheine gestrichelte.

    Als weiteres Beispiel betrachten wir ein einfaches Lasermodell, das 1983 vonH. Haken eingeführt wurde. Die dynamische Variable ist die Zahl n(t) von Pho-tonen in dem Laser. Sie entwickelt sich gemäß

    ṅ = GnN − kn .

    N ist die Zahl der angeregten Atome im Laser. Der erste Term beschreibt also dieZunahme von Photonen durch Wechselwirkung mit den angeregten Atomen, derzweite Term das Entkommen eines Teils der Photonen am Laserende. Es fehltnoch eine Gleichung, die N durch n ausdrückt. Durch Pumpen des Lasers kanneine maximale Zahl N0 von angeregten Atomen erreicht werden, und ihre Zahlverringert sich durch die stimulierte Emission von Photonen. Also setzen wir an

    N(t) = N0 − αn

    und erhalten damitṅ = (GN0 − k)n− (αG)n2 . (3.12)

    Daraus erhalten wir die Normalform für eine transkritische Bifurkation, wennwir x = αGn und r = GN0−k setzen. Der Fixpunkt n∗ = 0 wird instabil, wennN0 die Schwelle k/G überschreitet. Es entsteht ein stabiler Fixpunkt n

    ∗ > 0,und der Laser strahlt Licht ab.

    3.1.5 Die Heugabelbifurkation

    Eine Heugabelbifurkation tritt in Systemen auf, in denen f(x) eine Symmetriebesitzt, so dass Fixpunkte in symmetrischen Paaren auftreten und verschwin-

    33

  • den. Es gibt zwei Arten von Heugabelbifurkationen, die superkritische und diesubkritische.

    Die superkritische Heugabelbifurkation hat die Normalform

    ẋ = rx − x3 . (3.13)

    Hier erkennen wir die Symmetrie bezüglich des Vorzeichens von x.Wenn r sich ändert, sieht das Phasenportrait so aus, wie in Abbildung 3.10

    gezeigt. Das r − x-Diagramm ist in Abbildung 3.11 gezeigt.

    x x x

    f(x) f(x) f(x)

    r0

    Abbildung 3.10: Die superkritsche Heugabelbifurkation.

    r

    x

    Abbildung 3.11: Bifurkationsdiagramm für die superkritsche Heugabelbifurka-tion.

    Als weiteres Beispiel betrachten wir das System

    ẋ = −x + β tanhx , (3.14)

    das in magnetischen Systemen und neuronalen Netzen auftritt. Ähnlich wie beimBeispiel für die Sattelknotenbifurkation kommen wir hier am schnellsten zumZiel, wenn wir die rechte Seite in zwei Terme zerlegen, deren Form uns vertrautist. Die Fixpunkte sind die Schnittpunkte der Kurven y = x und y = β tanhx.Wenn β < 1 ist, gibt es nur den Schnittpunkte am Ursprung, wenn β > 1 ist,gibt es zwei weitere Schnittpunkte. (Auch bei diesem Beispiel überlasse ich esdem Leser, die Bilder zu malen.) Durch Entwicklung um β = 1 und x = 0erhalten wir ẋ ≃ ǫx − x3/3,