94
Aspekte der konvexen und nichtlinearen Analysis J. Baumeister 1 27. Juli 2015 1 Dies sind Aufzeichnungen, die kritisch zu lesen sind, da sie noch nicht endgültig korrigiert sind, und daher auch nicht zitierfähig sind (Not for quotation without permission of the author). Hinweise auf Fehler und Verbesserungsvorschläge an [email protected]

Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Aspekte der konvexen undnichtlinearen Analysis

J. Baumeister1

27. Juli 2015

1Dies sind Aufzeichnungen, die kritisch zu lesen sind, da sie noch nicht endgültig korrigiert sind, unddaher auch nicht zitierfähig sind (Not for quotation without permission of the author). Hinweiseauf Fehler und Verbesserungsvorschläge an [email protected]

Page 2: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Vorwort

Die Welt ist nichtlinear. Die Linearität ist eineErfindung der Mathematik zur Vereinfachung derBerechnungen

G. Strunk und G. Schiepek

Die Lösung von Gleichungen ist eine Grundaufgabe der Mathematik, im wesentlichen lassensich die wichtigen Probleme der Angewandten Mathematik darauf reduzieren. Die Gleichungs-Aufgabe wird formuliert als

G(x) = y (1)

Dabei sind X,Y Banachräume1, U ⊂ X, G : U −→ Y, y ∈ Y . Unter Lösen von (1) haben wir zuverstehen: Nachweis der Existenz und Eindeutigkeit einer Lösung x ∈ U und der stetigen Abhän-gigkeit einer Lösung von der rechten Seite der Gleichung. Diese Forderungen entsprechen der De-finition von well-posedness/Gutgestelltheit nach Hadamard (≈ 1900). Sind diese Forderun-gen bei einer Aufgabe nicht alle erfüllt, spricht man von ill-posedness/Schlechtgestelltheit.Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer Lösung. Mit Stabilität ist gemeint, dass sich Fehler in den Daten derAufgabe und Approximations- und Rundungsfehlern nicht „dramatisch“ auf das Rechenergebnisauswirken. Bei ill-posedness stellt diese Forderung eine große Herausforderung dar.

Durch die Gleichung (1) werden miterfasst Fixpunktgleichungen

Fx = x (2)

durch die Umformulierung Gx := Fx − x, y := θ , Umgekehrt, jede Gleichung (1) kann in eineFixpunktgleichung (2) umgeschrieben werden mittels F (x) := G(x) + x − y . Das Eigenwert-problem

Rx = λx (3)

ordnet sich unter (1) ein durch die Umformulierung G(x, a) := (Rx− ax, ‖x‖ − 1), y := (θ, 0) .

Im endlichdimensionalen Kontext wird die Lösung von Gleichungen im linearen Fall durchResultate der Linearen Algebra und der Numerischen Linearen Algebra, im nichtlinearen Falldurch Resultate der (Höheren) Analysis und der Numerischen Analysis abgedeckt. Im unendlich-dimensionalen Kontext sind die Ergebnisse der linearen Funktionalanalysis für eine erfolgreicheBehandlung von linearen Gleichungen heranzuziehen. Bei der Betrachtung von nichtlinearen Glei-chungen bedient man sich meist der Linearisierungstechnik: Bestimmung der Lösungsstruktur inder Nähe einer Lösung, Berechnung einer (isolierten) Lösung. In der globalen Analysis steht dieBestimmung der Gesamtheit der Lösungen im Fokus.

1Wir hinterfragen die Ergebnisse meist nicht, ob sie auch für nichtvollständige normierte Räume gültig sind.Meist sieht man an den Beweisen der Resultate, dass die Annahme der Vollständigkeit notwendig ist.

i

Page 3: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Die Themen der Nichtlinearen Funktionalanalysis sind vielfältig. Sie unterscheiden sichmeist schon im Ansatz: Erweiterungen der Sätze aus der Linearen Funktionalanalysis, lokalebzw. globale Perspektive, geometrische versus analytische Aufbereitung der Probleme, . . . . EineKanonisierung des Gebiets Nichtlinearen Funktionalanalysis liegt eigentlich noch nicht vor. FrüheVersuche einer umfassenden Darstellung der Themen sind etwa [1, 3, 4, 5, 6, 8, 9, 11, 13, 15, 17,16, 19, 18, 21]. Lehrbücher zur Nichtlinearen Funktionalanalysis sind meist ausgerichtet auf einespezielle Anwendungsperspektive.

Konvexität spielt bei der Entwicklung der Nichtlinearen Analysis eine bedeutende Rolle,zum Einen als Werkzeug (Einsatz von Resultaten, Differenzierbarkeit,. . . ), zum Anderen bei derHerleitung von Ergebnissen (Fixpunktsätze, nichtexpansive Operatoren, . . . ). Wir bedienen unsder Ergebnisse aus dem Skriptum zur „Konvexen Analysis“ aus dem Wintersemester 2014/15([2]); siehe auch [10, 12, 14]. Dort findet man auch umfangreiche Literatur zum Thema. Einzentrales Ergebnis auf der Brücke von konvexer Analysis zur nichtlinearen Analysis wird dasVariationslemma von Ekeland sein; siehe [7]. Es ist von groser Bedeutung bei der Behandlungvon variationellen Problemen; siehe etwa [20].

Frankfurt, im April 2015 Johann Baumeister

ii

Page 4: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Literaturverzeichnis

[1] J. Appell and M. Väth. Elemente der Funktionalanalysis. Vieweg, Braunschweig, 2005.

[2] J. Baumeister. Konvexe Analysis, 2014. Skriptum WiSe 2014/15, Goethe–Universität Frank-furt/Main.

[3] M. Berger. Nonlinear functional analysis. Springer, New York, 1977.

[4] J. Cronin. Fixed points an topological degree in nonlinear analysis. Amer. Math. Soc., Providence,1964.

[5] K. Deimling. Nonlinear Functional analysis. Springer, Berlin, 1985.

[6] G. Eisenack and C. Fenske. Fixpunkttheorie. Taschenbuch. Springer, 1978.

[7] I. Ekeland. On the variational principle. J. Math. Anal. Applic., 47:325–353, 1974.

[8] H. Gajewski K. Gröger and K. Zacharias. Nichtlineare Operatorgleichungen und Operatordifferential-gleichungen. Akademie-Verlag, Berlin, 1974.

[9] H. Jeggle. Nichtlineare Funktionalanalysis. Teubner, Stuttgart, 1979.

[10] J.T. Marti. Konvexe Analysis. Birhäuser, Basel, 1977.

[11] L. Nirenberg. Topics in nonlinera functional analysis. Courant Institute of Math.Sci., New York,1974.

[12] R.R. Phelps. Convex functions, monotone operators and differentiability. Springer, Berlin, 1993.

[13] T. Riedrich. Vorlesung über nichtlineare Operatorgleichungen. Teubner, Leipzig, 1976.

[14] R.T. Rockafellar. Convex analysis. Princeton University press, Princeton, 1970.

[15] M. Ruzicka. Nichtlineare Funktionalanalysis. Springer, Berlin, 2007.

[16] R. Schätzle. Nichtlineare Funktionalanalysis, 2011. http://www.math.uni-tuebingen.de.

[17] J.T. Schwartz. Nonlinear functional analysis. Gordon & Beach, 1969.

[18] B. Schweizer. Nichtlineare Analysis, 2010. http://www.mathematik.uni-dortmund.de/lsi/schweizer.

[19] B. Schweizer. Partielle Differentialgleichungen, 2011. http://www.mathematik.uni-dortmund.de/lsi/schweizer.

[20] M. Struwe. Variational Methods. Springer, New York, 2000.

[21] E. Zeidler. Nonlinear functional analysis, Part I-IV. Springer, New York, 1991.

iii

Page 5: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Inhaltsverzeichnis

Vorwort iLiteratur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii

1 Nichtlinearität und Differenzierbarkeit 11.1 (Nichtlineare) Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Differenzierbarkeitsbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.3 Satz von der stetigen Inversen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.4 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.5 Bibliographische und historische Anmerkungen . . . . . . . . . . . . . . . . . . . 18Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2 Variationslemma von Ekeland 202.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202.2 Variationslemma: der endlichdimensionale Fall . . . . . . . . . . . . . . . . . . . . 222.3 Anwendung: Alternativsätze der linearen Optimierung . . . . . . . . . . . . . . . 232.4 Ein allgemeines Prinzip auf (halb-)geordneten Mengen . . . . . . . . . . . . . . . 272.5 Variationslemma von Ekeland: ein allgemeiner Fall . . . . . . . . . . . . . . . . . 282.6 Anwendung: Fixpunktsätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322.7 Anwendung: Zum Satz von der inversen Abbildung . . . . . . . . . . . . . . . . . 342.8 Anwendung: Moutain Pass Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . 362.9 Anhang: Bishop/Phelps–Lemma und verwandte Themen . . . . . . . . . . . . . . 41

2.9.1 Lemma von Bishop/Phelps . . . . . . . . . . . . . . . . . . . . . . . . . . 422.9.2 Blumenblatt–Theorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 452.9.3 Der Tropfensatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

2.10 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472.11 Bibliographische und historische Anmerkungen . . . . . . . . . . . . . . . . . . . 49Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

3 Der Satz von Kantorovich 523.1 Nullstellensuche nach Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523.2 Das Newtonverfahren für ein quadratisches Polynom . . . . . . . . . . . . . . . . 573.3 Der Satz von Newton-Kantorovich . . . . . . . . . . . . . . . . . . . . . . . . . . 593.4 Ein Satz zum Newtonverfahren unter Nutzung einer äußeren Inversen . . . . . . . 643.5 Der Satz von Kantorovich unter einer Surjektivitätsbedingung . . . . . . . . . . . 713.6 Anwendung: Ein Konvexitätsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . 743.7 Anhang: Äußere Inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 763.8 Anhang: Surjektivitäts- und Injektivitätsmodul . . . . . . . . . . . . . . . . . . . 783.9 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 813.10 Bibliographische und historische Anmerkungen . . . . . . . . . . . . . . . . . . . 83Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

iv

Page 6: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

4 Nichtexpansive Operatoren 874.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 874.2 Lineare nichtexpansive Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . 874.3 Einige allgemeine Ergebnisse im nichtlinearen Fall . . . . . . . . . . . . . . . . . . 874.4 Iterationsverfahren bei nicht expandierenden Abbildungen . . . . . . . . . . . . . 874.5 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 874.6 Anhang: Quadratwurzel eines linearen Operators . . . . . . . . . . . . . . . . . . 874.7 Übungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 874.8 Bibliographische und historische Anmerkungen . . . . . . . . . . . . . . . . . . . 87Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

v

Page 7: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Kapitel 1

Nichtlinearität und Differenzierbarkeit

Wenn du eine weise Antwort verlangst, musst duvernünftig fragen

J.W. Goethe

1.1 (Nichtlineare) Gleichungen

Mathematischen Modelle (für eine angewandte Fragestellung) haben meist die Form einer Glei-chung/Differentialgleichung, die gewisse Parameter enthält, und in die weitere Größen einzu-bringen sind. Siehe etwa das (Galileische) Fallgesetz: die Differentialgleichung ist v = b+ pv mitder Beschleunigung b, dem „Reibungskoeffizient p, dem Anfangszeitpunkt t0 und der Anfangsge-schwindigkeit v0 .

Eine beliebte Beschreibung eines Modells ist der Problembeschreibung in der Systemtheorieabgeschaut: sie enthält eine

Systemgleichung und die Größen Input, System-Parameter, Output.

Die Analyse eines solchen Modells kann ausgehend von der Systemgleichung dann in drei Typenvon Problemen eingeteilt werden:

(A) Das direkte Problem: Gegeben sind Input und System-Parameter, bestimme den Out-put, der in Übereinstimmung damit ist.

(B) Das Rekonstruktionsproblem: Gegeben sind Output und System-Parameter, bestimmeden Input, der in Übereinstimmung damit ist.

(C) Das Identifikationsproblem: Gegeben sind Input und Output, finde die System-Parameter,die in Übereinstimmung damit sind.

Wir nennen ein Problem vom Typ (A) ein direktes Problem, da aus bekannten Ursachen eineWirkung zu bestimmen ist. Damit ist es dann vernünftig, Probleme vom Typ (B) und (C)inverse Probleme zu nennen: es sind ja aus Wirkungen Ursachen zu bestimmen (siehe Epigraph).In den letzten 40 Jahren hat sich daraus das Forschungsgebiet Inverse Probleme entwickelt. Einbedeutender Motor dieser Entwicklung war die Computer-Tomographie.

Im Allgemeinen läuft es bei der mathematischen Behandlung der Probleme (A), (B), (C)darauf hinaus, eine Gleichung zu lösen. Dabei sind folgende Fragen zu klären:

(1) Existenz einer Lösung,

1

Page 8: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

(2) Eindeutigkeit einer Lösung,(3) Stabilität,(4) Berechnung einer Lösung.

Die Frage der Existenz und Eindeutigkeit ist von Bedeutung, wenn es darum geht, Modellannah-men zu hinterfragen. Nichteindeutigkeit etwa könnte ein Indiz sein, dass die Modellbeschreibungnicht ausreichend viele Annahmen formuliert, um sicherzustellen, dass nur eine „mathematischeLösung“ existiert. In der Frage der Stabilität soll geklärt werden, wie sich Variationen in denParametern und den Modellannahmen auf die Lösung auswirken. Die Forderung (4) ist selbst-erklärend. Als beispielhaft kann man sich immer eine lineare Gleichung in endlichdimensionalenRäumen vorstellen: hier sind die obigen Fragen im Rahmen der linearen Algebra vollständigdiskutierbar.

Dieses Konzept der „Aufgabenbewertung“ in Form der Fragestellungen (1)–(3) wurde von Ha-damard 1902 im Zusammenhang mit dem Studium von Randwertpoblemen der mathematischenPhysik eingeführt. Hadamard bezeichnet ein mathematisches Problem schlechtgestellt/ill-posed,wenn hinsichtlich der Forderungen (1),(2),(3) nicht überall eine positive Antwort gegeben werdenkann, im entgegengesetzten Fall als gutgestellt/well-posed.1 Es ist in der Natur der Problemstel-lung, dass inverse Probleme im Allgemeinen schlechtgestellt sind (Irreversibilität, Mangel anKausalität, . . . ).

In der der linearen Funktionalanalysis haben wir eine Vielzahl von Methoden kennengelernt,um Ergebnisse aus der endlichdimensionalen linearen Algebra auf den unendlichdimensionalenFall zu verallgemeinern. Eine Hauptaufgabe ist dabei, die Lösbarkeit einer (Operator-)Gleichungder Form

Tx = y

für lineare Operatoren T in unendlichdimensionalen normierten Räumen zu zeigen. Damit werdenAufgaben modelliert, die durch lineare Differential- und Integralgleichungen beschrieben werden.Hier tritt Schlechtgestelltheit bei der Invertierung kompakter Operatoren auf, da die Inverseeines kompakten Operators mit unendlichdimensionalem Bild nicht stetig sein kann auf Grundder Tatsache, dass das Bild nicht abgeschlossen ist; siehe etwa [15].

Im Zentrum der folgenden Kapitel steht eine nichtlineare (Operator-)Gleichung

G(x) = y

mit einer Abbildung G : U −→ Y,U ⊂ X (Definitionsbereich), X,Y normierte Räume. Nichtli-neare Abbildungen unterscheiden sich in ihren Eigenschaften ziemlich beträchtlich von linearenAbbildungen. Die Lösungstheorie zu diesen Gleichungen kann auf unterschiedliche Technikengestützt werden:

• Linearisierungstechnik Nichtlineare Probleme werden mittels Differenzierbarkeit durchlineare Problem approximiert.

• Fixpunktmethoden Gleichungen werden in Fixpunktgleichungen verwandelt.

• Diskretisierungsverfahren (Nichtlineare) Probleme werden durch Diskretisierung durchendlichdimensionale Probleme approximiert.

• Variationelle Methoden Gleichungen werden als Nullstellengleichungen von Ableitun-gen (kritische Punkte) interpretiert.

1Hadamard glaubte – viele Mathematiker haben dies bis vor kurzem noch getan – dass schlechtgestellt Problemenicht sachgemäß gestellt sind und daher als künstlich zu bezeichnen sind.

2

Page 9: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

• Algebraisch/Topologische Methoden Der Abbildungsgrad wird zur Diskussion heran-gezogen.

Fixpunkttheorie liegt an der Grenzlinie zwischen nichtlinearer Funktionalanalysis und geome-trischen Methoden der Topologie. Sie hat als Ecksteine folgende drei Fixpunktsätze: Banachscher,Brouwerscher und Schauderscher Fixpunktsatz. Der Banachsche Fixpunktsatz ist als Fixpunkt-satz für Kontraktionen universal für die Angewandte Mathematik. Er ist vor allem ein Hilfsmittelbei der Lösung von gewöhnlichen Differentialgleichungen und bei Integralgleichungen. Wir führenihn hier in metrischen Räumen an als Beispiel eines Satzes, in dem die Fragen nach Existenz,Eindeutigkeit und Berechenbarkeit „abschließend“ geklärt sind. Auch die stetige Abhängigkeitdes Fixpunktes lässt sich klären.

Definition 1.1 Sei (X, d) ein metrischer Raum und sei F : X −→ X eine Abbildung. EinPunkt x ∈ X heisst Fixpunkt von F, wenn F (x) = x gilt.

Sei eine FixpunktgleichungF (x) = x (1.1)

vorgelegt. Zentral ist die Fixpunktiteration:

Gegeben Startwert x ∈ X ;x0 := x , xn+1 := F (xn), n ∈ N . (1.2)

Satz 1.2 (Kontraktionssatz) Sei (X, d) ein vollständiger metrischer Raum und sei F : X −→X eine Kontraktion, d. h.

∃L ∈ [0, 1)∀x, x′ ∈ X (d(F (x), F (x′)) ≤ Ld(x, x′)) . (1.3)

Dann gilt:

a) F ist stetig.

b) F besitzt einen eindeutig bestimmten Fixpunkt x .

c) Für alle Startwerte x = x0 ∈ X konvergiert die gemäß (1.2) erzeugte Folge (xn)n∈N gegenx und wir haben

d) d(xn, x) ≤ Ln

1− L d(F (x), x) , n ∈ N .

e) d(xn+1, x) ≤ L1− L d(xn+1, xn) , n ∈ N .

Beweis:Zu a) Klar.Zu (b) Wir zeigen, dass F höchstens einen Fixpunkt besitzt. Seien x, x ∈ X Fixpunkte von F .Dann folgt aus der Ungleichung

d(x, x) = d(F (x), F (x)) ≤ Ld(x, x)

mit der Tatsache 0 ≤ L < 1 sofort x = x .Sei x = x0 ∈ X . Die Iterationsfolge (xn)n∈N gemäß (1.2) ist wohl definiert. Es gilt:

d(xk+1, xk) ≤ Lkd(F (x), x) = Lkd(x1, x0) , k ∈ N; (1.4)

d(xn, xm) ≤ Ln

1− Ld(x1, x0) , n,m ∈ N,m > n . (1.5)

3

Page 10: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Die Aussage in (1.4) beweist man mit Hilfe der Voraussetzung (1.3) durch Induktion über k .(1.5) folgt mit (1.4) so:

d(xn, xm) ≤ d(xn, xn+1) + d(xn+1, xn+2) + · · ·+ d(xm−1, xm)

≤ (Ln + Ln+1 + · · ·+ Lm−1)d(x1, x0)

= Ln(1 + · · ·+ Lm−1−n)d(x1, x0) ≤ Ln

1− Ld(x1, x0)

Aus (1.5) folgt mit L < 1, dass in (xm)m∈N eine Cauchyfolge vorliegt. Nach Voraussetzung zurVollständigkeit von X gibt es x ∈ X mit x = limm∈N xm . Da F stetig ist, folgt F (x) = x . Damitist die Existenz eines Fixpunktes gezeigt. Da der Fixpunkt eindeutig bestimmt ist, konvergiertjede gemäß (1.2) konstruierte Folge unabhängig vom gewählten Startwert x = x0 gegen x . Damitsind b), c) gezeigt.Aus (1.5) folgt durch Grenzübergang m→ ∞ die Aussage d) . e) folgt aus der Zeile

d(xn+1, x) ≤ Ld(xn, x) ≤ Ld(xn, xn+1) + Ld(xn+1, x) .

Hier sind drei Anmerkungen, die die Qualität des Kontraktionssatzes hinsichtlich der Bere-chenbarkeit des Fixpunktes aufzeigen. Die Aussage c) zeigt, dass die Fixpunktiteration (1.2)beliebig gestartet werden kann. d) ist eine a priori-Abschätzung: ohne die Iterationsfolge be-rechnet zu haben, kann nach Kenntnis von x1 := Fx0 schon die Anzahl der Iterationsschritte nabgeschätzt werden (mit Hilfe der rechten Seite), die benötigt wird, um eine vorgegebene Genau-igkeit von xn, gemessen in d(xn, x) zu erreichen. e) ist eine a posteriori-Abschätzung: währendder Berechnung der Iterationsfolge kann (mit Hilfe der rechten Seite) entschieden werden, ob xnschon die gewünschte Genauigkeit, gemessen in d(xn+1, x), besitzt.

Der Brouwersche Fixpunktsatz ist von eigenständigem Interesse. Er besagt, dass jede stetigeAbbildung F : K −→ K, wobei K eine kompakte konvexe Teilmenge in Rn ist, einen Fix-punkt besitzt. Seine Bedeutung wird deutlich in der Beziehung zu „verwandten“ Sätzen. Für dieAnwendungen im Bereich der partiellen Differentialgleichungen ist vor allem der SchauderscheFixpunktsatz relevant. Er ist eine Erweiterung des Brouwersche Fixpunktssatz auf unendlichdi-mensionale Rüme. Der Brouwersche Fixpunktssatz ist hilfreich beim Beweis des SchauderschenFixpunktsatzes.

1.2 Differenzierbarkeitsbegriffe

Kurz ein Abstecher in die Differenzierbarkeit nichtlinearer Abbildungen in normierten Räumen.Hiermit legen wir die Grundlagen für die Diskussion nichtlinearer Abbildungen. Wir bewegenuns im Folgenden immer im Bereich der normierten Räume, meist in vollständigen normiertenRäumen, also in Banachräumen X,Y, Z, . . . .

Mit θ schreiben wir den Nullvektor in einem Vektorraum. Die Normen bezeichnen wir mit‖ · ‖ und die Kugeln mit

Br(x0), Br(x

0) offene bzw. abgeschlossenen Kugel um x0 mit Radius r .

Abkürzend schreiben wir Br := Br(θ), Br := Br(θ) . Die stetigen linearen Abbildung einesnormierten Raumes X in einen normierten Raum Y fassen wir in B(X,Y ) zusammen. Wirwissen, dass B(X,Y ) bezüglich der Norm

‖T‖ := ‖T‖X→Y := sup‖x‖≤1

‖Tx‖ , T ∈ B(X,Y )

4

Page 11: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

ein Banachraum ist, wenn Y ein Banachraum ist. Dies trifft zu für den Raum X∗ der stetigenlinearen Funktionale auf X . Die Norm in X∗ ist gegeben durch

‖λ‖ := ‖λ‖X→R := sup‖x‖≤1

|〈λ, x〉| , λ ∈ B(X,R) = X∗

Spezielle Banachräume, in denen wir meist unsere Beispiele formulieren, sind die Folgenräumec0, lp, 1 ≤ p ≤ ∞ .Vereinbarung: Im Allgemeinen unterscheiden wir die Normen in unterschiedlichen Räumennicht; die Unterscheidung ergibt sich meist unschwer aus dem Kontext.

Definition 1.3 Seien X,Y normierte Räume, sei U ⊂ X offen und sei f : U −→ Y eineAbbildung.

(a) f heißt Gâteaux-differenzierbar in x0 ∈ U, falls ein stetiger linearer Operator T : X −→Y existiert mit

limh→0

f(x0 + hu)− f(x0)

h= Tu für alle u ∈ X . (1.6)

T heißt Gâteaux-Ableitung in x0 .

(b) f heißt Fréchet-differenzierbar in x0 ∈ U, falls gilt: es gibt einen stetigen linearen Ope-rator T : X −→ Y mit

∀ ε > 0 ∃δ > 0 ∀x ∈ Bδ(x0) (‖f(x)− f(x0)− T (x− x0)‖ ≤ ε‖x− x0‖) (1.7)

T heißt Fréchet-Ableitung in x0 .

(c) f heißt strikt differenzierbar in x0 ∈ U, falls es einen stetigen linearen Operator T :X −→ Y gibt mit

∀ ε > 0∃δ > 0∀x1, x2 ∈ Bδ(x0)

(‖f(x1)− f(x2)− T (x1 − x2)‖ ≤ ε‖x1 − x2‖) (1.8)

T heißt strikte Ableitung in x0 .

(d) f heißt Gâteaux- bzw. Fréchet-differenzierbar bzw. strikt differenzierbar in U, fallsf in jedem x0 ∈ U Gâteaux- bzw. Fréchet- bzw. strikt differenzierbar ist.

Die Gâteaux-Ableitung T in x0 schreiben wir als DGf(x0) . Sie nimmt die Richtungsableitung

aus der Analysis in Rn auf. Dort haben wir sie meist kennengelernt als Hilfsmittel bei der Ablei-tung notwendiger Bedingungen bei Optimierungsaufgaben. Beachte, dass in der Literatur nichtin jedem Falle die Stetigkeit und Linearität der Ableitung gefordert ist.

Gâteaux-Differenzierbarkeit führt im endlichdimensionalen Kontext sofort zur partiellen Dif-ferenzierbarkeit. In unendlichdimensionalen Räumen kann man diese sinnvollerweise auch be-trachten, wenn etwa eine Schauderbasis vorliegt.

Gâteaux-Differenzierbarkeit in einem Punkt reicht nicht aus, um Stetigekeit in diesem Punktzu garantieren; siehe folgende Beispiele.

Definition 1.4 Sei Z ein Vektorraum.

(a) Seien u, v ∈ Z . Die Menge S := av + (1 − a)u|a ∈ [0, 1] heist dann ein Segment in Zund wir schreiben S = [u, v] .

(b) Sei C ⊂ Z . C heißt konvex, wenn gilt: [u, v] ⊂ C für alle u, v ∈ C .

5

Page 12: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Folgerung 1.5 Seien X,Y normierte Räume, sei U ⊂ X offen und sei f : U −→ Y Gâteaux-differenzierbar. Seien x0, v ∈ X mit [x0, v] ⊂ U . Dann gilt:

(a) φ : [0, 1] 3 t 7−→ f(x0 + tv) ∈ Y ist stetig.

(b) φ : (0, 1) 3 t 7−→ f(x0 + tv) ∈ Y ist differenzierbar.

Beweis:Zu (b) Sei t0 ∈ (0, 1) . Dann ist

φ′(t0) = lims→0

f(x0 + (t0 + s)v)− f(x0 + t0v)

s= DGf(x

0 + t0v)(v) .

Zu (a) Wegen (b) haben wir noch die einseitige Stetigkeit in t0 = und t0 = 1 zu zeigen.

limt↓0

(φ(t)− φ(0)) = limt↓0

(f(x0 + tv)− f(x0)

t− tDGf(x

0)(v)) + limt↓0

tDGf(x0)

Daraus folgt die Rechtsstetigkeit von φ in t00 . Die Linksstetigkeit in t0 = 1 folgt durch Betrach-tung des Ausdrucks limr↑0(f(x

0 + v + rv)− f(x0 + v) .

Die Fréchet-Ableitung ist eindeutig bestimmt und hängt im Allgemeinen von x0 ab; wir schrei-ben DF f(x

0) statt T oder kurz Df(x0) und nennen DF f(x0) ∈ B(X,Y ) Fréchet-Ableitung

von f in x0 . Sie reflektiert die Idee der linearen Approximation einer nichtlinearen Abbildung.Äquivalent mit der definierenden Bedingung (1.7) ist: Es gibt ein δ > 0 und einen stetigenlinearen Operator T : X −→ Y mit

f(x0 + u) = f(x0) + T (u) + ‖u‖r(u) (1.9)

mit einer stetigen Abbildung r : Bδ −→ Y mit r(θ) = θ . Manchmal schreibt man den Term‖u‖r(u) auch als o(u) mit dem Landausymbol „Klein-o“ und meint damit, dass limu→θ ‖u‖−1o(u)0θgilt.

Man kann Fréchet-Differenzierbarkeit auch über die Gâteaux-Differenzierbarkeit definieren.

Satz 1.6 Seien X,Y normierte Räume, sei U ⊂ X offen und sei f : U −→ Y eine Abbildung.Dann sind für x0 ∈ U äquivalent:

(a) f ist Fréchet-differenzierbar in x0 .

(b) f ist Gâteaux-differenzierbar in x0 und es gilt

∀ ε > 0 ∃ t0 > 0 ∀ v ∈ B1 ∀ t ∈ [−t0, t0] (‖f(x0 + tv)− f(x0)−DGf(x0)(tv)‖ < ε|t|) ,

Beweis:(a) =⇒ (b) Sei ε > 0 . Wähle auf Grund der Fréchet-Differenzierbarkeit δ > 0 und mit

‖f(x0 + u)− f(x0)−DF f(x0)(u)‖ < ε‖u‖ für alle u ∈ Bδ .

Setze t0 := δ, sei v ∈ B1 und sei t ∈ [−t0, t0] . Dann ist u := tv ∈ Bδ und wir erhalten

‖f(x0 + tv)− f(x0)−DF f(x0)(tv)‖ < ε|t| .

Also ist DF f(x0) die Gâteaux-Ableitung DGf(x

0) .(b) =⇒ (a) Sei ε > 0 . Setze δ := t0 . Sei u ∈ Bδ ; 0. E. u 6= θ . Dann gilt mit v := u‖u‖−1 ∈ B1

und t := ‖u‖ offenbar t ∈ [−t0, t0] und daher

‖f(x0 + u)− f(x0)−DGf(x0)(u)‖ = ‖f(x0 + tv)− f(x0)−DGf(x

0)(tv)‖ < ε‖u‖ .

Also ist f Fréchet-differenzierbar in x0 mit Fréchet-Ableitung DGf(x0) .

6

Page 13: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beispiel 1.7 Sei f = (f1, . . . , fm) : U −→ Rm, U ⊂ Rn offen und sei f Fréchet-differenzierbarin x0 ∈ Rn . Dann ist f Gâteaux-differenzierbar in x0 und es existieren alle Richtungsableitun-gen in x0 . Insbesondere existiert auch die partielle Ableitung ∂

∂xjder Koordinatenfunktion fi in

x0 ; j = 1, . . . , n, i = 1, . . . ,m . Die Fréchet-Ableitung DF f(x0) hat dann als lineare Abbildung A

von Rn −→ Rm die Darstellung

A =

∂f1∂x1

(x0) · · · ∂f1∂xn

(x0)... · · ·

...∂fm∂x1

(x0) · · · ∂fm∂xn

(x0)

∈ Rm,n

Beispiel 1.8 Wir betrachten die Abbildung f : C([0, 1],R) −→ C([0, 1],R) mit folgender Ab-bildungsvorschrift:

f(x)(t) := sin(x(t)) , t ∈ [0, 1], x ∈ C([0, 1],R) .

Hierbei sei X := C([0, 1],R) versehen mit der Supremumnorm ‖ · ‖∞ . Die Taylorentwicklungzusammen mit trigonometrischen Identitäten verrät uns, wie die Ableitung auszusehen hat:

sin(x(t) + h(t)) = sin(x(t)) cos(h(t)) + cos(x(t)) sin(h(t))

= sin(x(t)) + cos(x(t))h(t) + (sin(x(t))(cos(h(t))− 1) + cos(x(t))(sin(h(t))− 1))

= sin(x(t)) + cos(x(t))h(t) +O(h(t)2) ,

Also sollte für x ∈ C([0, 1],R) definiert werden:

(DF f(x)h)(t) := cos(x(t))h(t) , t ∈ [0, 1] .

Aus der obigen Überlegungen leitet man ab, dass dies tatsächlich die Fréchet-Ableitung von f inx darstellt.

Den Zusammenhang zwischen Stetigkeit, Existenz von Richtungsableitungen, Gâteaux-Differen-zierbarkeit und Fréchet-Differenzierbarkeit beleuchten die folgenden Beispiele.

Beispiel 1.9 Es trifft nicht zu, dass die Existenz der Richtungsableitungen schon Gâteaux-Differenzierbarkeit impliziert. Ein Gegenbeispiel ist

f1 : R2 −→ R , (x, y) 7−→

x2y√x2 + y2

(x, y) 6= (0, 0)

0 sonst.

Hier existieren alle Richtungsableitungen in (0, 0), aber es liegt keine Gâteaux-Differenzierbarkeitvor, da die Linearität beim Kandidaten für die Gâteaux-Ableitung verletzt ist. Die Funktion f istnicht stetig in (0, 0), insbesondere nicht Fréchet-differenzierbar in (0, 0) .

Folgerung 1.10 Seien X,Y normierte Räume, U ⊂ X offen und sei f : U −→ Y Fréchet-differenzierbar in x0 ∈ U . Dann ist f stetig in x0 .

Beweis:Folgt aus

limv→θ

f(x0 + v) = limv→θ

(f(x0) +DF f(x0)v + ‖v‖r(v)) = f(x0)

7

Page 14: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Definition 1.11 Seien X,Y normierte Räume, U ⊂ X offen und sei f : U −→ Y Fréchet-differenzierbar. Wir sagen, dass f stetig differenzierbar ist und schreiben f ∈ C1(U, Y ), falls dieAbbildung U 3 x0 7−→ Df(x0) ∈ B(X,Y ) stetig ist.

Regel 1.12 Seien X,Y, Z normierte Räume, U ⊂ X,V ⊂ Y, offen und seien f1, f2 : U −→ YFréchet-differenzierbar in x0 ∈ U, sei f : U −→ Y differenzierbar in x0, g : V −→ ZFréchet-differenzierbar in f(x0) ∈ V , T ∈ B(Y, Z) . Dann gilt:

(a) f1 + f2 ist Fréchet-differenzierbar in x0 und es gilt

D(f1 + f2)(x0) = Df1(x

0) +Df2(x0) .

(b) Ist Y = R, dann ist f1f2 Fréchet-differenzierbar in x0 und es gilt

D(f1f2)(x0) = f2(x

0)Df1(x0) + f1(x

0)Df2(x0) .

(c) g f ist Fréchet-differenzierbar in x0 und es gilt

D(g f)((x0) = Dg(f(x0)) Df(x0) .

(d) T f : U 3 x 7−→ Tf(x) ∈ Z ist Fréchet-differenzierbar in x0 und es gilt

D(T f)(x0) = T Df(x0) .

Den Beweis dieser Differentiationsregeln überlassen wir dem Leser.

Lemma 1.13 Seien X,Y normierte Räume, U ⊂ X offen, sei f : U −→ Y Gâteaux-differenzierbar und seien x0, v ∈ X mit [x0, x0 + v] ⊂ U . Dann ist die Abbildung

φ : [0, 1] 3 t 7−→ f(x0 + tv) ∈ Y

stetig in [0, 1] und differenzierbar in (0, 1) mit φ′(t) = DGf(x0 + tv)(v), t ∈ (0, 1) .

Beweis:Zu (b) Sei t ∈ (0, 1) . Es gilt

φ′(t) = lims→0

f(x0 + (t+ s)v)− f(x0 + tv)

s= DGf(x

0 + tv)(v) .

Zu (a) Es ist nur noch die Stetigkeit in t = 0, t = 1 zu zeigen. Etwa für t = 0 folgt sie so:

limt↓0

(φ(t)− φ(0)) = limt↓0

(f(x0 + tv)− f(x0))

= limt↓0

t(f(x0 + tv)− f(x0)

t−DGf(x

0)(v)) + limt↓0

tDGf(x0)(v)

= θ

Lemma 1.14 Seien X,Y Banachräume, U ⊂ X offen, sei f : U −→ Y Gâteaux-differenzierbarund seien x0, v ∈ X mit [x0, x0 + v] ⊂ U . Es gelte zusätzlich:

[0, 1] 3 t 7−→ DGf(x0 + tv)(v) ∈ Y ist stetig.

Dann gilt für alle Q ∈ B(X,Y )

‖f(x0 + v)− f(x0)−Q(v)‖ ≤ supt∈[0,1]

‖DGf(x0 + tv)(v)−Q(v)‖X→Y (1.10)

8

Page 15: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis:Sei φ : [0, 1] 3 t 7−→ f(x0 + tv) − tQ(v) ∈ Y . Wir wissen durch Anwendung von Lemma 1.13,dass φ stetig ist und in (0, 1) differenzierbar ist; es gilt: φ′(t) = DGf(x

0+tv)(v)−Q(v) , t ∈ (0, 1) .Sei λ ∈ Y ∗ mit ‖λ‖∗ = 1 und

〈λ, f(x0 + v)− f(x0)−Q(v)〉 = ‖f(x0 + v)− f(x0)−Q(v)‖ .

Sei ψ(t) := 〈λ, φ(t)〉, t ∈ [0, 1] . Dann ist ψ stetig in [0, 1] und differenzierbar in (0, 1) mit

ψ′(t) = 〈λ, φ′(t)〉 = 〈λ,DGf(x0 + tv)(v)−Q(v)〉 , t ∈ (0, 1) .

Mit dem Hauptsatz der Analysis folgt nun

‖f(x0 + v)− f(x0)−Q(v)‖ = 〈λ, f(x0 + v)− f(x0)−Q(v)〉

= ψ(1)− ψ(0) =

∫ 1

0ψ′(t)dt

=

∫ 1

0〈λ,DGf(x

0 + tv)(v)−Q(v)〉dt

≤∫ 1

0|〈λ,DGf(x

0 + tv)(v)−Q(v)〉|dt

≤∫ 1

0‖DGf(x

0 + tv)(v)−Q(v)‖dt

≤ supt∈[0,1]

‖DGf(x0 + tv)(v)−Q(v)‖

Beachte, dass in Lemma 1.14 supt∈[0,1] ‖DGf(x

0 + tv)(v)−Q(v)‖X→Y endlich ist auf Grund dervorausgesetzten Stetigkeit von t 7−→ DGf(x

0 + tv)(v) .

Folgerung 1.15 Seien X,Y Banachräume, sei U ⊂ X offen und sei f : U −→ Y Gâteaux-differenzierbar. Es gelte:

U 3 x 7−→ DGf(x) ∈ B(X,Y ) ist stetig .

Dann gilt für alle x1, x2 ∈ U mit [x1, x2] ⊂ U :

‖f(x1)− f(x2)‖ ≤ supt∈[0,1]

‖DGf((1− t)x1 + tx2)‖‖x1 − x2‖

Beweis:Seien x1, x2 ∈ U mit [x1, x2] ⊂ U . Setze x0 := x1, v := x2 − x1 und wende Lemma 1.14 an.Beachte dabei, dass

[0, 1] 3 t 7−→ DGf(x0 + tv)(v) ∈ Y

nun stetig ist.

Satz 1.16 Seien X,Y Banachräume, sei U ⊂ X offen und sei f : U −→ Y Gâteaux-differenzierbar. Es gelte:

U 3 x 7−→ DGf(x) ∈ B(X,Y ) ist stetig in x0 .

Dann ist f sogar Fréchet-differenzierbar in x0 und es gilt DF f(x0) = DGf(x

0) .

9

Page 16: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis:Sei x0 ∈ U und sei ε > 0 . Da die Abbildung x 7−→ DGf(x) stetig ist in x0, gibt es δ > 0 mit

‖DGf(x0 + v)−DG(x

0)‖ ≤ ε für alle v ∈ Bδ .

Daraus folgtsupt∈[0,1]

‖DGf(x0 + tv)−DGf(x

0)‖ ≤ ε für alle v ∈ Bδ .

Mit Lemma 1.14 folgt mit Q := DGf(x0)(v)

‖f(x0 + v)− f(x0)−DGf(x0)(v)‖ ≤ sup

t∈[0,1]‖DGf(x

0 + tv)(v)−DGf(x0)(v)‖ ≤ ε‖v‖ , v ∈ Bδ .

Dies zeigt die Fréchet-Differenzierbarkeit in x0 und zugleich DF f(x0) = DGf(x

0) .

Im Spezialfall eines nichtlinearen Funktionals, also einer Abbildung f : U −→ R mit U ⊂X,X normierter Raum mit Skalarkörper R, ist bei Gâteaux-Differenzierbarkeit in einem Punktx0 ∈ U der lineare OperatorDGf(x

0) erklärt, also ein stetiges lineare Funktional λ := DGf(x0) ∈

X∗ . Ist (X, 〈·|·〉X) ein Hilbertraum, so lässt sich das stetige lineare Funktional DGf(x0) nach

dem Satz von Riesz sogar in X interpretieren:

〈DGf(x0), x〉 = 〈y0|x〉X , x ∈ X ,

mit dem Element y0 := RX(Df(x0)), wobei RX : X∗ −→ X die sogenannte Riesz-Abbildungist; siehe [3]. Das Element y0 heißt der Gradient von f in x0 und wir schreiben dafür ∇f(x0) .Also

〈DGf(x0), x〉 = 〈∇f(x0)|x〉X , x ∈ X .

Bemerkung 1.17 Für die „Strukturtheorie der Banachräume“ ist insbesondere die Differenzier-barkeit der Norm von Bedeutung. An der Betragsfunktion sehen wir sofort die zu erwartendenSchwierigkeiten: der Nullvektor θ in einem normierten Raum sollte diesbezüglich eine Sonderrollespielen.

Bemerkung 1.18 In differenzierbaren Mannigfaltigkeiten M mit Modellraum E (E = Rn oderE = X,X Banachraum) lassen sich die Tangentialvektoren TxM,x ∈ M, in einem Punkt aufverschiedene Weisen (algebraisch, geometrisch, physikalisch) definieren. TxM ist ein Vektorraum,der eine differenzierbare Mannigfaltigkeiten M an einem Punkt x ∈M linear approximiert.

Zu Mannigfaltigkeiten M,N mit Punkten x ∈M,y ∈ N und Tangentialräumen TxM |x ∈Mund TxN |x ∈ N gilt: Für f : M −→ N ist Df(x) eine Abbildung von TxM −→ Tf(x)N .Im elementaren Fall von Mannigfaltigkeiten M und N als offene Teilmengen von Banachräumensind alle Tangentialräume identisch zum Banachraum selbst.

Kommen wir nun zu strikt differenzierbaren Abbildungen.

Satz 1.19 Seien X,Y Banachräume, U ⊂ X offen und sei f : U −→ Y . Dann sind äquivalent:

(a) f ist strikt differenzierbar in U .

(b) f ∈ C1(U, Y ) .

10

Page 17: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis:(a) =⇒ (b) Sei x0 ∈ U, ε > 0 . Dann gibt es T ∈ B(X,Y ), δ > 0 mit

‖f(x1)− f(x2)− T (x1 − x2)‖ ≤ ε‖x1 − x2‖ für alle x1, x2 ∈ Bδ(x0) .

Wählt man x2 := x0, dann sieht man, dass f Fréchet-differenzierbar in x0 ist und wir T =DF f(x

0) haben. Es bleibt die Stetigkeit von x0 7−→ DF f(x0) zu zeigen.

Wähle u ∈ Bδ/3(x0) . Dann existiert δ′ > 0 (o. E. δ′ ≤ δ/2), so dass

‖f(x)− f(u)−DF f(u)(x− u)‖ ≤ ε‖x− u‖ für alle x ∈ Bδ′/2(u) .

Sei h := x− u . Dann gilt

‖DF (u)(h)−DF (x0)(h)‖ = ‖(f(u+h)−f(u)−DF (x

0)(h)−(f(u+h)−f(u)−DF (u)(h))‖ ≤ 2ε‖h‖ .

Daraus folgt ‖DF (u)(h) − DF (x0)(h)‖ ≤ 2ε . Damit ist die Stetigkeit von x0 7−→ DF f(x

0)gezeigt.(b) =⇒ (a) Sei x0 ∈ U und ε > 0 . Wähle δ > 0 so, dass Bδ(x

0) ⊂ U und

supx∈Bδ(x0)

‖DF f(x)−DF (x0)‖ < ε

gilt. Sei λ ∈ Y ∗ . Dann folgt mit dem Mittelwert-Satz in R

〈λ, f(x)− f(x0)〉 =∫ 1

0〈λ,DF f(x

0 + t(x− x0))(x− x0)〉dt .

Daraus folgt

〈λ, f(x)−f(x0)−DF f(x0)(x−x0)〉 =

∫ 1

0〈λ,DF f(x

0+ t(x−x0))(x−x0)−DF f(x0)(x−x0)〉dt .

Also gilt|〈λ, f(x)− f(x0)−DF f(x

0)(x− x0)〉| ≤ ε‖x− x0‖‖λ‖ .

Dies zeigt (mit Hilfe des Satzes von Hahn-Banach; siehe Folgerung 5.9 in [2] oder Korollar 2.15in [3])

‖f(x)− f(x0)−DF f(x0)(x− x0)‖ ≤ ε‖x− x0‖

und die strikte Differenzierbarkeit ist gezeigt.

Seien X,Y normierte Räume, U ⊂ X und sei f : U −→ Y Fréchet-differenzierbar in U . EineFréchet-Ableitung der Ordnung zwei in einem x0 ∈ U liegt vor, wenn die Abbildung

U 3 x 7−→ Df(x) ∈ B(X,Y )

Fréchet-differenzierbar in x0 ist; die Fréchet-Ableitung D2f(x0) liegt dann in B(X,B(X,Y )) .Dieser normierte Raum lässt sich als ein Raum bilinearer Abbildungen darstellen. Ist nämlichT ∈ B(X,B(X,Y )), kann man eine Abbildung

bT : X ×X 3 (x1, x2) 7−→ Tx1(x2) ∈ Y

assoziieren. Diese ist bilinear (also linear in beiden Argumenten) und beschränkt in dem Sinn,dass

‖bT ‖ := supx1,x2∈B1

‖bT (x1, x2)‖ <∞

11

Page 18: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

ist. Auf diese Weise wird der Raum B2(X,Y ) der beschränkten bilinearen Abbildungen vonX × X nach Y zu einem normierten Raum, der zu B(X,B(X,Y )) isometrisch isomorph ist.Denn offensichtlich ist ‖bT ‖ = ‖T‖ und eine gegebene beschränkte bilineare Abbildung b kanndurch den gemäß (Tx1)(x2) = b(x1, x2) wohldefinierten Operator T ∈ B(X,B(X,Y )) als b = bTdargestellt werden. Mit dieser Identifikation operiert die zweite Ableitung als

D2f : U −→ B2(X,Y ) .

Induktiv können wir nun höhere Ableitungen als Abbildungen

Dnf : U −→ Bn(X,Y ) ∼= B(X,Bn−1(X,Y ))

definieren. Dnf(x) ist also eine n-fach multilineare Abbildung. Damit kann man den Satz vonTaylor formulieren, der wie im Endlichdimensionalen auf den reellen Fall zurückgeführt werdenkann; nur die Notation ist etwas komplizierter. Ohne Beweis:

Satz 1.20 (Satz von Taylor) Seien X,Y Banachräume, sei U ⊂ X offen, sei x0 ∈ U, undsei f : U −→ Y (n + 1)-Fréchet-differenzierbar in x0 . Es liege für u ∈ X der Halbstrahlx ∈ X|x = x0 + tu, t ∈ [0, 1] in U . Dann existiert ein θ ∈ (0, 1) mit

f(x0 + u) = f(x0) +Df(x0)(u) +1

2!D2f(x0)(u, u) + · · ·+ 1

n!Dnf(x0)(u, . . . , u) +

+1

(n+ 1)!Dn+1f(x0 + θu)(u, . . . , u, u) . (1.11)

1.3 Satz von der stetigen Inversen

Als Anwendung des Banachschen Fixpunktsatzes kann der folgende Satz angesehen werden.

Satz 1.21 (Satz von der Inversen Abbildung) Seien X,Y Banachräume, sei U ⊂ X offen,und sei f ∈ C1(U, Y ) . Sei x0 ∈ U und sei V := f(U) . Ist Df(x0) bijektiv, dann gibt es offeneUmgebungen U0 ⊂ U, V0 ⊂ V von x0 bzw. f(x0), so dass die Einschränkung f|U0

: U0 −→ V0eine Inverse g : V0 −→ U0 besitzt, die stetig Fréchet-differenzierbar ist mit

Dg(y) = Df(g(y))−1 , y ∈ V0 .

Beweis:O.E. können wir

x0 = θ , f(θ) = θ , Df(θ) = I := id, X = Y ,

annehmen, denn beim Übergang von f zu

f(x) := T (f(x+ x0)− f(x0)) , x ∈ U ,

bleiben die Voraussetzungen des Satzes für f erhalten und nach Erhalt von g mit den Eigen-schaften des Satzes für f können wir in g(y) := x0 + g(T (y − f(x0)) die Inverse g zu f erhalten.Nun zum Beweis unter diesen vereinfachenden Annahmen.Wir haben y = f(x) genau dann, wenn x = y+G(x) gilt mit G(x) := x− f(x) . Also haben wirdie Fixpunktgleichung

x = y +G(x) =: F (x)

zu untersuchen. Dazu wollen wir den Kontraktionssatz heranziehen. Es ist mit BR ⊂ U nachFolgerung 1.15

‖F (x)− F (x′)‖ = ‖G(x)−G(x′)‖ ≤ LR‖x− x′‖

12

Page 19: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

mit LR = supξ∈BR‖DG(ξ)‖ = supξ∈BR

‖I −Df(ξ)‖ . Wähle, die Stetigkeit von ξ 7−→ Df(ξ)

nutzend, r ∈ (0, R) mit Lr ≤ 12 . Wir haben (mit der Wahl x′ := θ) die Abbildungseigenschaften

f : Br −→ B r2⊂ Br , f : Br −→ B r

2.

F ist also eine Kontraktion auf Br und wir erhalten mit dem Banachschen Fixpunktsatz dieAussage

∀ y ∈ B r2∃x = xy ∈ Br (f(x) = y) , (1.12)

und die Gleichung f(x) = y ist für y ∈ B r2

sogar eindeutig lösbar. Setze

U0 := Br ∩ x ∈ U | ‖f(x)‖ < r

2 , V0 := f(U0) , g(y) := xy, y ∈ V0 .

Offenbar ist U0 offen, f : U0 −→ V0 stetig und bijektiv, und es ist f(g(y)) = y, g(f(x)) = x füry ∈ V0, x ∈ U0 . Für u, x ∈ Br gilt

‖x− u‖ = ‖G(x)−G(u) + f(x)− f(u)‖≤ ‖G(x)−G(u)‖+ ‖f(x)− f(u)‖

≤ 1

2‖x− u‖+ ‖f(x)− f(u)‖ .

und daher‖g(y)− g(v)‖ ≤ 2‖y − v‖ , y, v ∈ B r

2.

Insbesondere ist g stetig und es folgt (mit u := θ) aus ‖f(x)‖ < r2 die Aussage ‖x‖ < r, d. h.

x ∈ Br .Nun gilt V0 = f(U0) = B r

2, denn: Ist y ∈ V0, dann ist y = f(x) mit x ∈ U0 und daher ‖f(x)‖ < r

2 ;ist y ∈ B r

2, dann gibt es x ∈ Br mit y = f(x), also y ∈ V0 . Also ist V0 insbesondere offen.

Wegen f(x) = x−G(x) ist Df(x) = I −DG(x) und da ‖DG(x)‖ ≤ 12 ist für x ∈ Br, ist Df(x)

invertierbar für x ∈ U0 ; siehe hierzu [2], Satz 7.31. Für y = f(x), v = f(u) ∈ V0, y 6= v, habenwir x 6= u und

‖g(v)− g(y)−Df(g(y))−1(v − y)‖‖v − y‖−1 = ‖u− x−Df(g(y))−1(f(u)− f(x))‖‖v − y‖−1

≤ ‖Df(g(y))−1‖‖f(u)− f(x)−Df(g(y))(u− x)‖‖u− x‖−1‖v − y‖−1‖g(u)− g(x)‖≤ 2‖Df(g(y))−1‖‖f(u)− f(x)−Df(g(y))(u− x)‖‖u− x‖−1

Daraus folgt, da g schon als stetig erkannt ist,

limv→y

‖g(v)− g(y)−Df(g(y))−1(v − y)‖‖v − y‖−1 = 0 ,

also die Fréchet-Differenzierbarkeit von g in y . Ferner ist Dg(y) = Df((g(y))−1 . Da f stetigFréchet-differenzierbar ist in U und y −→ g(y) stetig ist, ist g ∈ C1(V0, X) .

Im Gegensatz zur linearen Theorie von Gleichungen, Resultate für nichtlineare Gleichungensind im Allgemeinen lokaler Natur, d. h. gelten nur in in einer Umgebung eines Punktes.

Definition 1.22 Seien X,Y Banachräume, sei U ⊂ X offen, und sei f : U −→ Y . f heißtlokal injektiv in u ∈ U, falls es ein r > 0 gibt mit Br(u) ⊂ U und f|Br(u) injektiv.

Definition 1.23 Seien X,Y Banachräume, sei U ⊂ X offen, und sei f : U −→ Y . f heißtlokal surjektiv in u ∈ U, falls es für alle s > 0 mit Bs(u) ⊂ U ein r > 0 gibt mit Br(f(u)) ⊂f(Bs) .

13

Page 20: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Hier gehen wir nur der lokalen Injektivität nach, die lokale Surjektivität untersuchen wirim Zusammenhang mit offenen Abbildungen; siehe Abschnitt ??. Es sollte klar sein, dass derBeweis für die lokale Surjektivität im Allgemeinen schwieriger ist als der Nachweis der lokalenInjektivität, da wir ja (für viele rechten Seiten) eine Lösung einer Gleichung nachweisen müssen.

Ein Resultat zur lokale Injektivität kann man auf den Satz von der stetigen Inversen stützen.Wir beweisen ein solches Resultat auf direktem Weg.

Satz 1.24 Seien X,Y Banachräume, sei U ⊂ X offen, und sei f : U −→ Y stetig Fréchet-differenzierbar in U . Es gelte für x0 ∈ U :

Z := ran(Df(x0)) ist abgeschlossen, Df(x0) : X −→ Z ist bijektiv (1.13)

Dann gibt es eine Umgebung V von x0, V ⊂ U, so dass f|V injektiv auf V ist. Ferner istf−1 : f(V ) −→ U Lipschitz-stetig.

Beweis:Da Z abgeschlossen in Y ist, ist Z selbst ein Banachraum mit der Norm aus Y . Da Df(x0) :X −→ Z stetig und bijektiv ist, gibt es eine Konstante m > 0 mit

‖Df(x0)(x)‖ ≥ m‖x‖ , x ∈ X .

Da Df : U −→ B(X,Y ) stetig ist, gibt es ein r > 0 mit

‖Df(u)−Df(x0)‖ < 1

2m, u ∈ B3r(x

0) .

Mit dem Lemma 1.14 erhalten wir für x1, x2 ∈ Br(x0)

‖f(x1)−f(x2)−Df(x0)(x1−x2)‖ ≤ supt∈[0,1]

‖Df(x0+t(x2−x1))−Df(x0)‖‖x1−x2‖ ≤ 1

2m‖x1−x2‖

da x1 + t(x2 − x1) ∈ B3r . Damit folgt für x1, x2 ∈ Br(x0)

m‖x1 − x2‖ ≤ ‖Df(x0)(x1 − x2)‖ ≤ ‖f(x1)− f(x2)‖+ 1

2m‖x1 − x2‖

und daher1

2m‖x1 − x2‖ ≤ ‖f(x1)− f(x2)‖ .

Dies zeigt, dass f injektiv auf Br(x0) ist und dass f−1 : f(Br(x

0)) −→ U Lipschitz-stetig ist.

Dass nichtlineare Abbildungen sehr verschieden vom Verhalten linearer Abbildungen sind,zeigt folgendes Beispiel.

Beispiel 1.25 Betrachte die Abbildung

f : c0 −→ c0, (x1, x2, x3, . . . ) 7−→ (x1, (x2)2, (x3)3, . . . ) .

Man kann zeigen, dass diese Abbildung stetig ist, aber auf keiner Kugel Br, r > 1, beschränkt ist.Vergleiche dies mit linearen stetigen Operatoren.

14

Page 21: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

1.4 Übungen

1.) Sei (X, d) ein vollständiger metrischer Raum und sei U ein topologischer Raum. SeiF : X × U 3 (x, p) 7−→ F (x, p) ∈ X stetig und eine gleichmäßige Kontraktion, d. h. esgibt L ∈ [0, 1) mit

d(F (x, p), F (y, p)) ≤ Ld(x, y) , x, y ∈ X, p ∈ U .

Zeige: Es gibt zu jedem p ∈ U einen eindeutig bestimmten Fixpunkt xp ∈ X von F (·, p)und die Abbildung U 3 p 7−→ xp ∈ X ist stetig.

2.) Betrachte im euklidischen Raum (Rn, ‖ · ‖) eine stetige Abbildung g : Br −→ Rn mit

〈g(x), x〉 ≥ 0 , x ∈ Rn mit ‖x‖ = r .

Zeige: Die Gleichung g(x) = θ besitzt eine Lösung in Br .

3.) Sei X ein Banachraum, sei C ⊂ X offen und konvex, θ ∈ C .Zeige: Für alle x ∈ X\C gibt es genau ein σ(x) ∈ (0, 1] mit σ(x)x ∈ ∂C .

4.) Sei X ein Banachraum und sei A ⊂ X kompakt. Betrachte stetige Abbildungen Fi :A −→ X, i ∈ N, und eine Abbildung F : A −→ X .Es gelte limi supx∈A ‖Fi(x)− F (x)‖ = 0 . Zeige:

(a) F ist stetig.(b) Hat jedes Fi einen Fixpunkt, dann hat auch F einen Fixpunkt.

5.) Sei a : [−1, 1] 3 t 7−→ min(1, c|t|) ∈ R mit c > 1 . Betrachte im Banachraum c0 dieAbbildung

F : B1 −→ B1 , (x1, x2, . . . ) 7−→ (1, a(x1), a(x2), . . . ) .

Zeige: F ist wohldefiniert, stetig und es gilt ‖x− F (x)‖ > 1− c−1, x ∈ B1 .

6.) Welche der Funktionen fi, i = 1, . . . , 4 mit

f1(t) := 2t , f2(t) := sin(t) , f3(t) := t2 − 1

2t+

1

2, f4(t) :=

1

1 + t2, t ∈ R ,

bilden das Intervall [0, 1] in sich ab?

7.) Sei f : [0, 1] −→ [0, 1] stetig und surjektiv. Zeige, dass g := f f mindestens zweiFixpunkte besitzt. Gilt dies auch ohne die Voraussetzung „surjektiv“?

8.) Sei f : R −→ R eine Kontraktion. Zeige, dass ein abgeschlossenes Intervall existiert, dasdurch f in sich abgebildet wird.

9.) Betrachte y ∈ l2, A := (aij)i,j=1,...∞ und damit die Abbildung

G : l2 3 x = (xk)k∈N 7−→ (y1 −∞∑j=1

a1jxj , y2 −∞∑j=1

a2jxj , . . . ) ∈ l2 .

Es gelte: Es gibt l = (lk)k∈N mit

aiili ≥ |yi|+∞∑

j=1,j 6=i

|aij |lj , i = 1, 2, . . . .

Zeige: Es gibt x ∈ l2 mit Ax = y .

15

Page 22: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

10.) Betrachte in C[0, 1], versehen mit der Maximumsnorm, den nichtlinearen Operator

G(x)(t) :=

∫ 1

0κ(t, s)f(s, x(s))ds , t ∈ [0, 1], x ∈ C[0, 1] .

Dabei ist κ ∈ C([0, 1]× [0, 1]), f ∈ C([0, 1]× R) .Zeige: Gilt

|f(s, u)− f(s, v)| ≤ L|u− v| , s ∈ [0, 1], u, v ∈ R, L · maxt∈[0,1]

∫ 1

0|κ(t, s)|ds < 1,

so ist G : C[0, 1] −→ C[0, 1] eine Kontraktion.

11.) Sei X ein Banachraum, sei V eine kompakte Teilmenge von X und sei F : V −→ Vkontraktiv, d. h.

∀x, y ∈ V, x 6= y, (‖F (x)− F (y)‖ < ‖x− y‖) . (1.14)

Zeige:

(a) F besitzt genau einen Fixpunkt x .(b) Für jedes x ∈ X konvergiert die Iteration xn+1 := F (xn), x0 = x, gegen x .

Hinweis zu (b): Man kann zeigen, dass die Funktion x 7−→ ‖x − F (x)‖ entlang derIteration monoton fallend ist.

12.) Betrachte in C[0, 1], versehen mit der Maximumnorm, den nichtlinearen Operator

F (x)(t) := t

∫ 1

0x(s)2ds , t ∈ [0, 1], x ∈ C[0, 1] .

Sei 0 < r < 12 .

(a) Zeige: F : Br −→ Br .

(b) Zeige: F : Br −→ Br ist eine Kontraktion.(c) Welchen eindeutig bestimmten Fixpunkt hat F auf Br ?

(d) Hat F noch weitere Fixpunkte in C[0, 1] ?

13.) Sei X ein Banachraum, U ⊂ X offen mit θ ∈ U . Sei F : U −→ X eine Kontraktionund sei F (U) beschränkt. Es gelte eine folgenden Aussagen:

(a) ‖F (x)‖ ≤ ‖x‖ . x ∈ ∂U .

(b) ‖F (x)‖ ≤ ‖x− F (x)‖ . x ∈ ∂U .

(c) ‖F (x)‖ ≤ (‖x‖2 + ‖x− F (x)‖2)12 . x ∈ ∂U .

(d) ‖F (x)‖ ≤ max(‖x‖, ‖x− F (x)‖) . x ∈ ∂U .

(e) −x ∈ U,F (x) = −F (−x) . x ∈ ∂U .

Zeige: F besitzt genau einen Fixpunkt in U .

14.) Sei f : B1 ⊂ Rn −→ ∂B1 stetig. Dann gibt es x ∈ ∂B1 mit f(x) 6= x .

15.) Sei Ω ⊂ Rn offen und beschränkt und sei κ : Ω × Ω −→ (0,∞) stetig mit (c, CKonstanten)

0 < c ≤ κ(t, s) ≤ C , t, s ∈ Ω .

Zeige: Das Eigenwertproblem∫Ωκ(t, s)x(s)ds = λx(t) , t ∈ Ω ,

16

Page 23: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

besitzt eine Lösung mit einem positiven Eigenwert λ > 0 und dazugehöriger positiverEigenfunktion x ∈ X := C(Ω,R) .Hinweis: Betrachte auf M := x ∈ X|x(t) ≥ 0, t ∈ Ω,

∫Ω x(s)ds = 1 die Abbildung

F :M −→ M , F (x)(t) :=

∫Ωκ(t, s)x(s)ds∫

Ω

∫Ωκ(t, s)x(s)dsdt

.

16.) Sei X ein Banachraum und sei M ⊂ X nicht-leer, offen, beschränkt und konvex. SeiF :M −→ X vollstetig und es gelte F (∂M) ⊂M . Ziege, dass F einen Fixpunkt in Mbesitzt.

17.) Sei X ein Hilbertraum mit Skalarprodukt 〈·|·〉 . Zeige, dass X 3 x 7−→ 〈x|x〉 ∈ R stetigdifferenzierbar ist.

18.) Es gilt folgender Satz:Sei X ein normierter Raum und sei f : X 3 x 7−→ ‖x‖ ∈ R die Norm-Abbildung. Seix0 ∈ X, ‖x0‖ = 1 . Dann sind äquivalent:

(a) f ist Gâteaux-differenzierbar in x0 .(b) Es gibt genau ein λ0 ∈ X∗ mit 〈λ0, x0〉 = 1, ‖λ0‖∗ = 1 .

Zusatz: DGf(x0) = λ0 .

Zeige die Richtung (a) =⇒ (b) und den Zusatz.

19.) Seien X,Y, Z Banachräume, seien U ⊂ X,V ⊂ Y offen, seien f : U −→ Y, g : V −→ ZAbbildungen, und seien x0 ∈ U, y0 ∈ V . Es gelte f(U) ⊂ V, f(x0) = y0 . Zeige:

(a) Ist f Fréchet-differenzierbar in x0, und g Fréchet-differenzierbar in y0, so ist g f :U −→ Z Fréchet-differenzierbar in x0, und es giltDF (gf)(x0) = DF g(f(x

0))DF f(x0) .

(b) Ist f Gâteaux-differenzierbar in x0, und g Fréchet-differenzierbar in y0, so ist g f :U −→ Z Gâteaux-differenzierbar in x0, und es giltDG(gf)(x0) = DF g(f(x

0))DGf(x0) .

20.) Betrachte

f : R2 3 x 7−→ (x, x2) ∈ R, g : R2 3 (x, y) 7−→

x falls y = x2

0 sonst

Zeige, dass f, g Gâteaux-differenzierbar sind, dass aber in 0 die Kettenregel für gf nichtgilt.

21.) Seien X,X1, X2, Y Banachräume und sei b : X1 ×X2 −→ Y eine bilineare Abbildung.Es gelte mit m ≥ 0: ‖b(x1, x2)‖ ≤ m‖x1‖‖x2‖ , x1 ∈ X1, x2 ∈ X2 . Sei U ⊂ X offen undseien f1 : U −→ X1, f2 : U −→ X2 Abildungen. Betrachte damit g : U 3 x 7−→b(f1(x), f2(x)) ∈ Y .

(a) Zeige mit x0 ∈ U : Sind f1, f2 Fréchet-differenzierbar in x0, so ist g Fréchet-differenzierbarin x0 und es gilt

DF g(x0)(v) = b(DF f1(x

0)(v), f2(x0)) + b(f1(x

0), DF f2(x0)(v)) , v ∈ X .

(b) Zeige mit x0 ∈ U : Sind f1, f2 Gâteaux-differenzierbar in x0, so ist g Gâteaux-differenzierbar in x0 und es gilt

DGg(x0)(v) = b(DGf1(x

0)(v), f2(x0)) + b(f1(x

0), DGf2(x0)(v)) , v ∈ X .

17

Page 24: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

22.) Betrachte

f2 : R2 −→ R , (x, y) 7−→

1 (x, y) 6= (0, 0), y = x2

0 sonst.

Zeige: Diese Abbildung ist Gâteaux-differenzierbar in (0, 0), aber nicht stetig in (0, 0)(also insbesondere auch nicht Fréchet-differenzierbar in (0, 0)).

1.5 Bibliographische und historische Anmerkungen

Differenzierbarkeit ist ein großes Thema in der nichtlinearen Funktionalanalysis; siehe etwa[4, 5, 13]. Zum Stand der Kunst: Jede Lipschitzstetige Abbildung f : X → Y ist Gâteaux-differenzierbar fast überall, falls X separabel ist und Y die so genannte Radon-Nikodym-Eigenschaft2 besitzt; beachte, dass „fast überall“ eine Fortschreibung auf den unendlichdimen-sionalen Fall ist, die geeignet zu definieren ist. Jede Lipschitzstetige Abbildung f : X → R ist inmindestens einem Punkt Fréchet-differenzierbar, falls X ein Asplund-Raum ist.

Differenzierbarkeituntersuchungen sind eng verknüpft mit dem Satz von Rademacher (1919):eine Funktion f : Rn −→ R, die Lipschitzstetig ist, ist Fréchet-differenzierbar fast überall(bezüglich des Lebesguemaßes). In der Folge hat dann die Fragestellung, inwieweit der Satz vonRademacher allgemeiner gilt, in der angewandten Mathematik eine große Rolle gespielt. Ein er-ster Erfolg war der Satz von Alexandrov, der das Resultat auf Abbildungen f : Rn −→ Rm

erweiterte. Den Ausgangspunkt für die weitere Entwicklung kann man beim Studium des Sub-differentialkalküls bei konvexen Funktionen durch Fenchel, Moreau, Rockafellar u. a. finden. Re-sultate in der eigentlichen Fragestellung wurden von Rockafellar, F. Clarke, Mordukovich, Penotund vielen anderen entwickelt; siehe etwa [9, 10]. Es gibt eine Reihe von tiefen Verbindungen derFragestellung zur Strukturtheorie der Banachräume (Asplundräume3), der geometrischen Maß-theorie, den mengenwertigen Differentialgleichungen, . . . . Detailierte Darstellungen findet manetwa in [6, 11, 12].

Die Literatur zu inversen Problemen und zur Schlechtgestelltheit ist inzwischen ziemlich um-fangreich. Wir geben nur Literatur dazu an, die in ihrer Darstellung als Lehrbuchliteratur ange-sehen werden kann; siehe [1, 7, 8, 14].

2Jede Abbildung g : R → Y besitzt einen Punkt der Fréchet-Differenzierbarkeit3Ein Banachraum X ist ein Asplundraum, falls gilt: ist Y ⊂ X ein separabler linearer Teilraum, so ist Y ∗

separabel.

18

Page 25: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Literaturverzeichnis

[1] J. Baumeister. Inverse Probleme. Skriptum 2006/07/08, Goethe–Universität Frankfurt.

[2] J. Baumeister. Funktionalanalysis. Goethe–Universität Frankfurt/Main, 2013. Skriptum einerVorlesung.

[3] J. Baumeister. Konvexe Analysis, 2014. Skriptum WiSe 2014/15, Goethe–Universität Frank-furt/Main.

[4] M. Berger. Nonlinear functional analysis. Springer, New York, 1977.

[5] C. Chidume. Geometric properties of Banach spaces and nonlinear iterations. Springer, New York,2009.

[6] F.H. Clarke. Optimization and nonsmooth analysis. Wiley, 1985.

[7] H.W. Engl, M. Hanke, and A. Neubauer. Regularization of Inverse Problems. Kluwer, Dordrecht,1996.

[8] A. Kirsch. An Introduction to the Mathematical Theory of Inverse Problems. Springer, New York,1996.

[9] J. Lindenstrauss and D. Preiss. On fréchet-differentiability of Lipschitz maps between Banach spaces.Amer. Math. Soc., 157:257–288, 2003.

[10] J. Lindenstrauss, D. Preiss, and J. Tiser. Frécchet-differentiability of Lipschitz functions and poroussets in Banach spaces. Princeton University Press, Princeton, 2012.

[11] B.S. Mordukhovich and Y.H. Shao. On nonconvex subdifferential calculus in Banach spaces. J.Convex Analysis, 2:211–227, 1995.

[12] R.R. Phelps. Convex functions, monotone operators and differentiability. Springer, Berlin, 1993.

[13] M. Ruzicka. Nichtlineare Funktionalanalysis. Springer, Berlin, 2007.

[14] T. Schuster, B. Kaltenbacher, B. Hofmann, and D. Kazimierski. Regularization methods in Banachspaces. de Gruyter, 2012.

[15] D. Werner. Funktionalanalysis. Springer, 2002.

19

Page 26: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Kapitel 2

Variationslemma von Ekeland

The best of all possible worlds (Taschenbuch)

Ivar Ekeland

Wir wollen ein Resultat beweisen, das Ausstrahlung auf viele Gebiete (Optimierungstheorie,Fixpunkttheorie, Strukturtheorie von Banachräumen, Geometrie von Banachräumen, nichtlinea-re Funktionalanalysis) hat: das Variationslemma von Ekeland. Es hat sich als tragfähige Brückezwischen der konvexen und nichtlinearen Analysis herausgestellt, viele Beweise sehr vereinfachtund neue Sichtweisen eröffnet. Dies wollen wir an ausgewählten Beispielen zeigen.

2.1 Einführung

Sei X ein normierter Vektorraum und sei f : X −→ R∪∞ konvex. Aus der konvexen Analysiskennen wir folgenden Sachverhalt (siehe etwa [2]): Ist x0 ∈ X und ist f stetig in x0, insbesonderef(x0) endlich, so gibt es ein λ ∈ X∗ mit

f(x) ≥ f(x0) + 〈λ, x− x0〉 , x ∈ X .

λ ist ein Subgradient von f in x0, also λ ∈ ∂f(x0) . Er definiert die Stützhyperebene

H := (x, y) ∈ X × R|y = f(x0) + 〈λ, x− x0〉

an epi(f) in (x0, f(x0)) .Ist x0 ein Minimum von f, also

−∞ < f(x0) = infx∈X

f(x) <∞ ,

und ist f stetig in x0, so ist θ ein Subgradient von f in x0 und die Bedingung

θ ist Subgradient von f in x0

ist in dieser Situation notwendig und hinreichend für das Vorliegen eines Minimums. Die zuge-hörige Stützhyperebene ist eine „horizontale“.

Was kann man tun, wenn zwar das Infimum als endliche Zahl existiert, aber kein Minimum,insbesondere dann, wenn f : X −→ R ∪ ∞ sogar nicht konvex ist? Die entsprechendenFragestellungen sind dann sehr viel komplexer.

Zunächst zur Fragestellung „Existenz des Infimums, aber kein Minimum“. Wie wir wissen,kann diese Situation schon im Endlichdimensionalen eintreten, hier sind aber die Dinge ziemlich

20

Page 27: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

durchschaubar, denn Stetigkeit, Kompaktheit sind einfach zu studieren. Im Unendlichdimensio-nalen ist die Fragestellung sehr viel komplexer, im wesentlichen, weil Kompaktheit nicht überBeschränktheit und Abgeschlossenheit realisiert werden kann.

Die klassische Variationsrechnung1 studiert Aufgaben folgender Art:

Gegeben f : [a, b]× R× R 3 (t, u, ξ) 7−→ f(t, u, ξ) ∈ REnergiefunktional: E : D 3 u 7−→

∫ ba f(t, u(t), u

′(t))dt ∈ RGesucht: u ∈ D mit E(u) = infv∈D E(v)

Dabei ist D := v ∈ C1[a, b]|v(a) = α, v(b) = β . D ist eine affine Menge im BanachraumC1[a, b], versehen mit der Maximumsnorm. Damit E wohldefimiert ist, sind natürlich zusätzlicheVoraussetzungen nötig. Dass die Existenz eines Minimums in Zweifel ist, sieht man am wohl„ältesten“ Variationsproblem in mathematischer Formulierung, dem Fermat-Problem. Es be-schreibt den Weg, den ein Lichtstrahl in der Ebene vom Punkt (a, α) zum Punkt (b, β) (a < b!)nimmt. Stellt man den Lichtweg als Graph einer Funktion u : [a, b] −→ R dar, so hat die-ser Lichtweg im Allgemeinen einen Knick, nämlich dann, wenn der Brechungsindex der Materie,durch die das Licht läuft, nicht stetig ist, wie dies beim Übergang von Luft in das Medium Wasserder Fall ist.

Eine weiteres klassisches Beispiel für eine Aufgabe der obigen Art ist das Problem der Bra-chistochrone. Gesucht ist die Bahn, die ein sich in einer Ebene bewegender Massenpunkt unterdem Einfluss der Gravitation nehmen muss, um in kürzester Zeit von einem gegebenen Punkt(a, α) zu einem gegebenem Punkt (b, β) zu gelangen. Um das Variationsproblem zu diesem Pro-blem aufzustellen, sei die gesuchte Bahn durch den Graph der Funktion u : [a, b] −→ R gegeben;auf den Massenpunkt wirkt die Erdbeschleunigung g . Dann ist das Funktional E zu minimierenmit (o. E. α = 0)

E(u) :=

∫ b

a

√1 + u′(x)2

−2gu(x)dx .

Hier ist also f(t, u, ξ) =√

1+ξ2

−2gu . Die Lösung ist ein Teil einer Kettenlinie.

Zur Herleitung einer notwendigen Bedingung für eine Lösung u in der allgemeinen Situationgehen wir so vor. Wir wählen v ∈ C1[a, b] mit v(a) = v(b) = 0 . Dann erhalten wir in formalerRechnung

E(u+ v)− E(u) ≈∫ b

a∂f∂u

(t, u(t), u′(t))v(t) +∂f

∂ξ(t, u(t), u′(t))v′(t)dt

=

∫ b

a∂f∂u

(t, u(t), u′(t))− d

dt

∂f

∂ξ(t, u(t), u′(t))v(t)dt

Als notwendige Bedingung ergibt sich damit mit der Überlegung, dass v geschickt variiert werdenkann, die so genannte Eulersche Randwertaufgabe

− d

dt

∂f

∂ξ(t, u, u′) +

∂f

∂u(t, u, u′) = 0 (2.1)

u(a) = α , u(b) = β (2.2)

Die Differentialgleichung (2.1) ist im Allgemeinen eine implizite Differentialgleichung 2. Ordnung,welche dann 2 Freiheitsgrade besitzt, um die Randwerte (2.2) zu erfüllen.

1Bernoulli, Euler,. . . ; 1700; siehe etwa [10, 22, 27].

21

Page 28: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Die Probleme mit der Existenz (und Eindeutigkeit) wollen wir nun demonstrieren mit demBeispiel f(t, u, ξ) := (ξ2 − 1)2, a = −1, b = 1, α = β = 0 ; das zu minimierende Funktional seiwieder E . Die Eulersche Randwertaufgabe lautet

−4d

dt(u′((u′)2 − 1) = 0 , u(−1) = 0 = u(1)

Eine Lösung dieser Randwertaufgabe ist sicherlich u = θ , aber es ist keine Lösung der Variati-onsaufgabe, denn das Infimum in dieser Aufgabe ist 0 , wie man beweisen kann und wie folgendeÜberlegungen nahelegen. Aus der Eulerschen Randwertaufgabe liest man den Hinweis ab, dassfür andere Lösungen u gelten sollte: |u′(t)| = 1, t ∈ [−1, 1] . Man erhält etwa als Lösungskandidat

u(t) :=

x+ 1 −1 ≤ x ≤ 0

1− x 0 ≤ x ≤ 1.

Mit solchen Lösungen kann man die Nichtlösung u = θ „approximieren“. Aber diese Lösungender Randwertaufgabe sind nicht stetig differenzierbar! Fazit: Es gibt bei diesem Problem keinestetig differenzierbare Lösung der Variationsaufgabe.

Kommen wir zur Frage zurück, wie kann man Stützhyperebenen ersetzen, dass man auchfür „Fastminima“ eine Art notwendige Bedingung erhält. Die Idee, die Ekeland 1972 vorgelegthat, ist, Stützhyperebenen durch Stützkegel zu ersetzen. Diese Idee ist nun Inhalt der weiterenAbschnitte.

2.2 Variationslemma: der endlichdimensionale Fall

Wir beweisen das Variationslemma von Ekeland in einer endlichdimensionalen Version. Der Be-weis ist hier elementar im Gegensatz zur Situation in metrischen oder topologischen Räumen.Sei nun in diesem und dem nächsten Abschnitt | · | stets die euklidische Norm in Rn , assoziertzum euklidischen Skalarprodukt 〈·|·〉 .

Satz 2.1 (Variationslemma von Ekeland, 1972) Sei f : Rn −→ R unterhalbstetig, nachunten beschränkt. Sei ε > 0, x∗ ∈ Rn mit

f(x∗) ≤ infx∈Rn

f(x) + ε . (2.3)

Dann gibt es zu jedem γ > 0 ein x ∈ Rn mit

(a) f(x) ≤ f(x∗);

(b) |x∗ − x| ≤ εγ ;

(c) f(x) ≥ f(x)− γ|x− x| für alle x ∈ Rn .

Beweis:O. E. inff(x)|x ∈ Rn = 0 , also f(x) ≥ 0 für alle x ∈ Rn . Betrachte die Abbildung

F : Rn 3 x 7−→ f(x) + γ|x− x∗| ∈ R .

Da F nach unten beschränkt und unterhalbstetig ist, und da die Niveaumengen Nr(F ) := ‖x ∈Rn|F (x) ≤ r beschränkt und abgeschlossen sind, also kompakt sind, gibt es ein x, das einMinimum von F darstellt (siehe etwa [2], Satz 3.12) Nun haben wir

f(x) + γ|x− x∗| ≤ f(x) + γ|x− x∗| für alle x ∈ Rn , ε ≥ f(x∗) ≥ f(x) + γ|x− x∗| .

22

Page 29: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Daraus folgt (b), (c) sofort.

Im Beweis von Satz 2.1 haben wir zwei Stützkegel kennengelernt:

S(x∗) := x ∈ X|f(x) ≥ f(x∗)− γ|x− x∗|S(x) := x ∈ X|f(x) ≥ f(x)− γ|x− x|

Folgerung 2.2 Sei f : Rn −→ R Fréchet-differenzierbar und nach unten beschränkt. Seiε > 0, x∗ ∈ Rn mit

f(x∗) ≤ infx∈Rn

f(x) + ε . (2.4)

Dann gibt es ein x ∈ Rn mit

(a) f(x) ≤ f(x∗);

(b) |x∗ − x| ≤√ε;

(c) |∇f(x)| ≤√ε .

Beweis:Wende Satz 2.1 an mit γ :=

√ε . Dann gibt es also x ∈ Rn mit

f(x) ≤ f(x∗), |x∗ − x| ≤√ε,√ε|x− x| ≥ (f(x)− f(x)) für alle x ∈ Rn .

Aus der dritten Ungleichung folgt

f(x+ tw)− f(x)) ≥ −t√ε|w| für alle t > 0, w ∈ Rn .

Daraus folgt〈∇f(x), w〉 ≥ −

√ε|w| für alle w ∈ Rn ,

was nun (c) impliziert.

2.3 Anwendung: Alternativsätze der linearen Optimierung

Wir betrachten mit a0, . . . , am ∈ Rn die damit hinschreibbaren Halbräume bzw. Hyperebenen:

H+ := H+(a0, . . . , am) := x ∈ Rn|〈ai|x〉 ≥ 0, i = 0, . . . ,m . (2.5)

H++ := H++(a0, . . . , am) := x ∈ Rn|〈ai|x〉 > 0, i = 0, . . . ,m . (2.6)

H−− := H−−(a0, . . . , am) := x ∈ Rn|〈ai|x〉 < 0, i = 0, . . . ,m . (2.7)

H− := H−(a0, . . . , am) := x ∈ Rn|〈ai|x〉 ≤ 0, i = 0, . . . ,m . (2.8)

H := H(a0, . . . , am) := x ∈ Rn|〈ai|x〉 = 0, i = 0, . . . ,m . (2.9)

Wir wollen die Aussage, dass x im Schnitt solcher Halbräume liegt, charakterisieren. Dabeiverwenden wir die mit a0, . . . , am ∈ Rn definierte Abbildung

E(a0, . . . , am) : Rn 3 x 7−→m∑i=0

exp(〈ai|x〉) ∈ R . (2.10)

Satz 2.3 Seien a0, . . . , am ∈ Rn gegeben. Dann sind äquivalent:

(a) Die Funktion E(a0, . . . , am) hat eine positive untere Schranke.

23

Page 30: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

(b) Das Systemm∑i=0

λiai = θ ,

m∑i=0

λi = 1 , 0 ≤ λ0, λ1, . . . , λm ∈ R , (2.11)

besitzt eine Lösung.

(c) Das System〈ai|x〉 < 0, i = 0, . . . ,m, (2.12)

besitzt keine Lösung.

Beweis:Die Implikationen (b) =⇒ (c) =⇒ (a) sind einfach zu verifizieren. Es bleibt also zu zeigen(a) =⇒ (b) .Sei lg := lnE(a0, . . . , am) . Wir wenden das Variationslemma von Ekeland 2.2 an: für jedes k ∈ Ngibt es ein xk ∈ Rn mit

|∇lg(xk)| = |m∑i=0

λi,kai| ≤ 1

k,

wobei für die Skalare λi,k gilt:

λi,k =exp(〈ai|xk〉)∑ml=0 exp(〈al|xk〉)

> 0 ,

m∑i=0

λi,k = 1 .

Setze λk := (λ0,k, . . . , λm,k) , k ∈ N . Da die Folge (λk)k∈N beschränkt ist, besitzt sie einenHäufungspunkt. Ein solcher Häufungspunkt löst die Aufgabe (2.11).

Bemerkung 2.4 Die Äquivalenz (b) ⇐⇒ (c) in Satz 2.3 ist das Resultat von Gordan (1873).

Lemma 2.5 (Lemma von Farkas, 1902) Seien a1, . . . , am ∈ Rn und c ∈ Rn gegeben. Dannbesitzt genau eines der folgenden Systeme eine Lösung:

m∑i=1

µiai = c , 0 ≤ µ1, . . . , µm ∈ R , (2.13)

〈ai|x〉 ≤ 0, i = 1, . . . ,m , 〈c|x〉 > 0 . (2.14)

Beweis:Unmittelbar klar ist: Wenn das System (2.13) eine Lösung hat, dann hat das System (2.14) keineLösung. Wir zeigen über Induktion nach m, dass (2.13) eine Lösung besitzt, wenn immer einnichtlösbares System der Form (2.14) vorliegt.Induktionsbeginn: m = 1 .Wir haben zu zeigen, dass es ein µ1 ≥ 0 gibt mit µ1a1 = c . Ist a1 = θ, dann ist auch c = θ, dennsonst hätte (2.14) die Lösung x := c . Damit ist µ1a1 = c für beliebiges µ ≥ 0 . Sei nun a1 6= θ .Durch Basisergänzung sieht man, dass es µ1 ∈ R, z ∈ Rn gibt mit µ1a1 + z = c und 〈a1|z〉 = 0 .Dann muss z = θ gelten, denn sonst hätte (2.14) die Lösung x := z (〈c|z〉 = 〈z|z〉 > 0!). Alsogilt µ1a1 = c . Bleibt noch µ1 ≥ 0 zu zeigen. Es gilt 〈a1|−a1〉 ≤ 0 und daher 〈c|−a1〉 ≤ 0 . Dannfolgt mu1 = 〈c,−a1〉|a1|−2 ≥ 0 .Sei die Aussage richtig für m− 1 . Setze a0 := −c . Nach Satz 2.3 gibt es λ0, λ1, . . . , λn ∈ R mit

λ0c =

m∑i=1

λiai ,

m∑i=0

λi = 1 , 0 ≤ λ0, λ1, . . . , λm ∈ R .

24

Page 31: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Offenbar können nicht alle λi verschwinden. Wenn λ0 > 0 gilt, dann ist der Beweis beendet. Alsosei nun λ0 = 0 ; o. E. λm > 0 . Definiere den Teilraum Y := y ∈ Rn|〈am|y〉 = 0 = span(am)⊥ .Dann hat das System

〈ai|y〉 ≤ 0, i = 1, . . . ,m− 1 , 〈c|y〉 > 0 , y ∈ Y ,

oder anders hingeschrieben, das System

〈PY ai|x〉 ≤ 0, i = 1, . . . ,m− 1 , 〈PY c|x〉 > 0 , x ∈ Rn ,

keine Lösung. Dabei ist PY die Projektion auf Y . Nach Induktionsvoraussetzung gibt es 0 ≤µ1, . . . , µm−1 ∈ R mit

PY (

m−1∑i=1

µiai) =

m−1∑i=1

µiPY ai = PY c .

Daraus folgt, dass c−∑m−1

i=1 µiai orthogonal zu Y = span(am)⊥ ist. Daher gibt es µm ∈ R mit

µmam = c−

m−1∑i=1

µiai . (2.15)

Ist µm ≥ 0, dann haben wir eine Lösung von (2.14). Ist µm < 0, dann setzen wir am :=−λ−1

m

∑m−1i=1 λia

i in (2.15) ein und erhalten eine Lösung von (2.13).

Bemerkung 2.6 Das Lemma von Farkas lässt folgende Formulierung zu: Sei A ∈ Rm,n mitZeilenvektoren a1, . . . , am ∈ Rn und sei c ∈ Rn . Dann sind äquivalent:(a) Aty = c , y ≥ θ ist lösbar.(b) Ax ≤ θ , 〈c, x〉 > 0 ist nicht lösbar.

Bemerkung 2.7 Das Lemma von Farkas hat eine geometrische Interpretation: Entweder hatdas Gleichungssystem Aµ = c eine Lösung µ ≥ θ oder a1, . . . , am und c lassen sich durch eineHyperebene trennen. Dabei sind a1, . . . , am die Zeilenvektoren von A .

Satz 2.8 Seien a0, . . . , am ∈ Rn gegeben. Dann sind äquivalent:

(a) Das ProblemMinimiere E(a0, . . . , am)(x) , x ∈ Rn , (2.16)

besitzt eine Lösung.

(b) Das Systemm∑i=0

λiai = θ ,

m∑i=0

λi = 1 , 0 < λ0, λ1, . . . , λm ∈ R , (2.17)

besitzt eine Lösung.

(c) Das System

〈ai|x〉 ≤ 0, i = 0, . . . ,m,

m∑i=0

|〈ai|x〉| 6= 0 , (2.18)

besitzt keine Lösung x in Rn .

25

Page 32: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis:Sei E := E(a0, . . . , am) .(a) =⇒ (b).Sei x eine Lösung von (2.16). Offenbar ist E differenzierbar. Also gilt E′(x) = θ, d. h.

m∑i=0

λiai = θ mit λi :=

exp(〈ai|x〉)E(x)

, i = 0, . . . ,m .

Damit gilt nun (2.17) .(b) =⇒ (c).Annahme: x sei eine Lösung von (2.18). Dann folgt mit (b) ein Widerspruch so:

0 = 〈m∑i=0

λiai|x〉 =

m∑i=0

λi〈ai|x〉 < 0 .

(c) =⇒ (a).Offenbar ist ρ := inf E(x) wohldefiniert. Es gilt ρ ≥ 0 und wegen E(θ) = m + 1 gilt auchρ ≤ m+ 1 . Sei (xk)k∈N eine Minimalfolge, d. h. limk E(xk) = ρ . Dann gibt es γ ≥ 0 mit

〈ai|xk〉 ∈ (−∞, γ] , i = 0, . . . ,m, k ∈ N . (2.19)

Sei nun (2.16) nicht lösbar. Dann kann (xk)k∈N nicht beschränkt sein, da sonst ein Häufungs-punkt von (xk)k∈N eine Lösung von (2.16) wäre; o. E. limk |xk| = ∞ . Dann enthält (xk|xk|−1)k∈Neine konvergente Teilfolge; o. E. x := limk x

k|xk|−1 ; es gilt |x| = 1 . Aus (2.19) folgt

limk〈ai| x

k

|xk|〉 = 〈ai|x〉 ∈ (−∞, 0] , i = 0, . . . ,m . (2.20)

Annahme: 〈ai|x〉 = 0 , i = 0, . . . ,m ,Unter der Voraussetzung Y := span(a0, . . . , am) = Rn ist dann sofort ein Widerspruch erreicht,da sich |x| = 1 und 〈z|x〉 = 0 für alle z ∈ Y = Rn sofort widerspricht.Auf die Voraussetzung Y = Rn kann aber verzichtet werden, wie folgende Überlegung zeigt:Wir betrachten folgende Aussagen:(a′) Das Problem Minimiere E(a0, . . . , am)(y) , y ∈ Y , besitzt eine Lösung.(c′) Das System 〈ai|y〉 ≤ 0, i = 0, . . . ,m,

∑mi=0 |〈ai|y〉| 6= 0 , besitzt keine Lösung in Y .

Dann ist einfach zu sehen, dass (a), (a′) äquivalent und (c), (c′) äquivalent sind. Der Schlüsseldazu ist, dass Y ein orthogonales Komplement Y ⊥ hat, das die Abwandlung von Rn zu Y in denBedingungen (a) und (c) nicht beinflusst.

Bemerkung 2.9 Die Äquivalenz (b) ⇐⇒ (c) in Satz 2.8 ist das Resultat von Stiemke (1915).Es lässt sich auch so formulieren: Sei A ∈ Rm,n mit Zeilenvektoren a1, . . . , am ∈ Rn . Dann sindäquivalent:Dann sind äquivalent:(a′) Aty = θ , y > θ ist lösbar.(b′) Ax ≤ θ , Ax 6= θ ist nicht lösbar.

Bemerkung 2.10 Die Sätze 2.3, 2.8 lassen sich auch mit Trennungssätzen beweisen; siehe [2].

26

Page 33: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

2.4 Ein allgemeines Prinzip auf (halb-)geordneten Mengen

Für den Beweis des Variationslemmas im Kontext „metrische Räume/unendlichdimensionaleRäume“ stellen wir ein allgemeines Prinzip vor.Erinnerung: Sei X eine Menge. Eine Relation „≤ “heißt Halbordnung auf X genau dann,wenn gilt:

i) x ≤ x (Reflexivität)

ii) x ≤ y, y ≤ x =⇒ y = x (Symmetrie)

iii) x ≤ y, y ≤ z =⇒ x ≤ z ∀x, y, z ∈ X (Transitivität)

Wir schreiben dann (X,≤), vereinbaren die Schreibweise

S(x) := y ∈ X|y ≥ x ,

und können für eine Folge (xn)n∈N in X definieren:

(xn)n∈N monoton wachsend, falls xn ≤ xn+1 für alle n ∈ N .

Satz 2.11 (Brezis–Browder, 1976) Sei (X,≤) eine halbgeordnete Menge und ϕ : X −→ Rmonoton wachsend, d.h. ϕ(x) ≤ ϕ(y), falls x ≤ y. Es gelte:

i) Für jede monoton wachsende Folge (xn)n∈N mit supϕ(xn)|n ∈ N < ∞ existiert y ∈ Xmit xn ≤ y für alle n ∈ N .

ii) Für alle x ∈ X gibt es u ∈ X mit x ≤ u, ϕ(x) < ϕ(u) .

Dann gilt: supϕ(y)|y ∈ S(x) = ∞ für alle x ∈ X.

Beweis:Für u ∈ X setze µ(u) := supϕ(y)|y ∈ S(u) .Annahme: Es gibt x ∈ X mit µ(x) <∞.Definiere eine Folge (xn)n∈N induktiv in folgender Weise: x1 := x; sind x1, . . . , xn bestimmt,wähle xn+1 ∈ S(xn) mit µ(xn)− 1/n ≤ ϕ(xn+1) .Wegen µ(xn) ≤ µ(x) < ∞ existiert xn+1 und wegen xn+1 ≥ xn gilt µ(xn+1) ≤ µ(xn) . Nun giltalso

xn ≥ x, d. h. xn ∈ S(x), n ∈ N; (xn)n∈N ist monoton wachsend; ϕ(xn) ≤ µ(x), n ∈ N.

Wegen i) gibt es y ∈ X mit xn ≤ y für alle n ∈ N . Wähle nach ii) u ∈ X mit u ∈ S(y) undϕ(y) < ϕ(u) . Nun gilt xn ≤ u, ϕ(u) ≤ µ(xn), n ∈ N. Also

ϕ(u) ≤ µ(xn) ≤ ϕ(xn+1) + 1/n ≤ ϕ(y) +1

n, n ∈ N,

d. h. ϕ(u) ≤ ϕ(y) < ϕ(u), was ein Widerspruch ist.

Folgerung 2.12 Sei (X,≤) eine halbgeordnete Menge, ψ : X −→ R nach oben beschränkt undes gelte:

Für jede monoton wachsende Folge (xn)n∈N in X existiert y ∈ X mit xn ≤ y , n ∈ N . (2.21)

Dann gilt:

(a) Ist ψ monoton wachsend, so folgt: ∀u ∈ X ∃v ∈ S(u)∀w ∈ S(v) (ψ(v) = ψ(w)) .

27

Page 34: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

(b) Ist ψ streng monoton wachsend, so folgt: ∀u ∈ X ∃v ∈ S(u)∀w ∈ X (w ≥ v =⇒ w = v) .

Beweis:Zu (a) .Sei u ∈ X. Betrachte (S(u),≤), ϕ := ψ|S(u). Dann ist ϕ monoton wachsend und nach obenbeschränkt.Annahme: ∀ v ∈ S(u)∃w ≥ v (ϕ(v) < ϕ(w))Nun sind die Voraussetzungen des Satzes 2.11 für (S(u),≤), ϕ erfüllt. Es folgt:

∀w ∈ S(u) (supϕ(y)|y ∈ S(w) ∩ S(u) = ∞) .

Dies ist ein Widerspruch zur Beschränktheit von ϕ .Zu (b) .Sei u ∈ X. Nach (a) gibt es v ∈ S(u) mit ϕ(w) = ϕ(v) für alle w ∈ X,w ≥ v . Da ϕ strengmonoton wachsend ist, gilt also:

w ∈ X,w ≥ v =⇒ ϕ(w) = ϕ(v) =⇒ w = v .

Folgerung 2.13 Sei (X, d) ein metrischer Raum und sei (X,≤) halbgeordnet. Sei η : X −→ Rstreng monoton fallend und nach unten beschränkt. Es gelte:

(a) Für alle x ∈ X ist S(x) abgeschlossen.

(b) Für jede monoton wachsende Folge (xn)n∈N in X ist xn|n ∈ N kompakt.

Dann gilt:∀u ∈ X ∃ v ∈ S(u)∀w ∈ X (w ≥ v =⇒ w = v) .

Beweis:Sei ψ := −η. Wir weisen (2.21) nach. Sei dazu (xn)n∈N eine monoton wachsende Folge in X .Dann existiert wegen (b) ein y ∈ X und eine Teilfolge (xnk

)k∈N mit y = limk xnk. Da xnk

∈ S(xnj )für alle k ≥ j gilt, folgt wegen (a) y ∈ S(xnj ) ⊂ S(xn), nj ≥ n, n ∈ N. Also y ≤ xn für allen ∈ N. Nun können wir Folgerung 2.12 (b) anwenden.

2.5 Variationslemma von Ekeland: ein allgemeiner Fall

Satz 2.14 Sei (X, d) ein vollständiger metrischer Raum und sei f : X −→ (−∞,∞] unterhalb-stetig, nach unten beschränkt und eigentlich, d. h. es gibt z ∈ X mit f(z) <∞ . Sei ε > 0, x∗ ∈ Xmit

f(x∗) ≤ infv∈X

f(v) + ε . (2.22)

Dann gibt es x ∈ X mit

1. f(x) ≤ f(x∗) ;

2. d(x, x∗) ≤ 1 ;

3. f(y) + εd(y, x) > f(x) für alle y ∈ X\x .

28

Page 35: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis:f(x∗) ist endlich wegen (2.22). X := z ∈ X|f(z) ≤ f(x∗) ist abgeschlossen, da f unterhalbst-etig ist. Also ist (X, d) ein vollständiger metrischer Raum mit x∗ ∈ X . Haben wir das Resultatin (X, d) für f := f|X bewiesen, dann ist das Resultat in (X, d) bewiesen, denn die Bedingung3. folgt dann mit 1. aus der Zeile

f(y) + εd(y, x) > f(x∗) + εd(y, y) ≥ f(x∗) ≥ f(x) , y ∈ X\X .

O. E. können wir daher nun X = X annehmen.Wir definieren

u ≤ v : ⇐⇒ f(v)− f(u) ≤ −εd(u, v) , u, v ∈ X ,

und zeigen, dass dadurch auf X eine Halbordnung erklärt ist.Die Reflexivität ist klar. Seien u ≤ v, v ≤ u , d. h.

f(v)− f(u) ≤ −εd(u, v) , f(u)− f(v) ≤ −εd(u, v) .

Daraus folgt d(u, v) = 0 und daher ist die Symmetrie gezeigt. Seien u, v, w ∈ X mit u ≤ v, v ≤ w,d. h.

f(v)− f(u) ≤ −εd(u, v) , f(w)− f(v) ≤ −εd(v, w) .

Mit der Dreiecksungleichung folgt

f(w)− f(u) ≤ −εd(u,w) , d. h. u ≤ w .

Damit ist auch die Transitivität klar.Wir zeigen nun, dass f streng monoton fallend ist ist bezüglich der Halbordnung ≤ . Seien dazuu, v ∈ X,u ≤ v, u 6= v ; also

f(v)− f(u) ≤ −εd(u, v) < 0 , d. h. f(v) < f(u) .

Wir zeigen (a) in Folgerung 2.13. Sei dazu u ∈ X.

S(u) = y ∈ X|y ≥ u = y ∈ X|f(y) + εd(y, u) ≤ f(u)

ist abgeschlossen, da f und d(u, ·) unterhalbstetig sind.Wir zeigen (b) in Folgerung 2.13. Sei dazu (xn)n∈N eine monoton wachsende Folge in X . Dannkonvergiert die Folge (f(xn))n∈N, da sie monoton fallend und nach unten beschränkt ist. Wirlesen aus

εd(xn, xm) ≤n−1∑i=m

εd(xi, xi+1) ≤n−1∑i=m

(f(xi+1)− f(xi)) = f(xn)− f(xm) , n,m ∈ N, n > m,

ab, dass (xn)n∈N eine Cauchyfolge und daher konvergent ist.Wir können nun Folgerung 2.13 anwenden: Es gibt x ∈ S(x∗) mit der Eigenschaft

u ≥ x =⇒ u = x . (2.23)

Wegen x ∈ S(x∗) folgt

0 ≤ εd(x∗, x) ≤ f(x∗)− f(x) ≤ infv∈X

f(v) + ε− f(x) ≤ ε .

Damit ist 1., 2. gezeigt. Sei y ∈ X\x. Wegen (2.23) gilt nicht y ≥ x, d. h. f(y) − f(x) >−εd(y, x) .

29

Page 36: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Folgerung 2.15 Sei (X, d) ein vollständiger metrischer Raum und sei f : X −→ (−∞,∞]unterhalbstetig, nach unten beschränkt und eigentlich. Sei γ > 0, x∗ ∈ X . Dann gibt es x ∈ Xmit

i) f(x) < f(x) + γd(x, x) für alle x ∈ X\x;

ii) f(x) ≤ f(x∗)− γd(x∗, x)) ;

Beweis:Sei Y := x ∈ X|f(x)+γd(x, x∗) ≤ f(x∗) , g := 1

γ f |Y . Y ist abgeschlossen, da f unterhalbstetigist. Also ist (Y, d) ein vollständiger metrischer Raum. g ist unterhalbstetig, nach unten beschränktund eigentlich. Sei α := infv∈Y g(v). Es gibt x∗∗ ∈ Y mit g(x∗∗) ≤ α + 1. Also ist Satz 2.14anwendbar mit ε = 1 :

∃x ∈ Y ∀x ∈ Y \x ( 1γf(x) <

1

γf(x) + d(x, x)) .

Alsof(x) < f(x) + γd(x, x)) für alle x ∈ Y \x) , f(x) ≤ f(x∗)− γd(x∗, x) .

ii) ist damit schon bewiesen.Ist x ∈ X\Y, so gilt f(x) + γd(x, x∗) > f(x∗) und mit ii) folgt

f(x) ≤ f(x∗)− γd(x∗, x) < f(x) + γ(d(x, x∗)− d(x∗, x)) ≤ f(x) + γd(x, x) .

Damit ist auch i) bewiesen.

Satz 2.16 (Variationslemma von Ekeland, 1972) Sei (X, d) ein vollständiger metrischerRaum und sei f : X −→ (−∞,∞] unterhalbstetig, nach unten beschränkt und eigentlich.Sei ε > 0, x∗ ∈ X mit

f(x∗) ≤ infv∈X

f(v) + ε . (2.24)

Dann gibt es zu jedem γ > 0 ein x ∈ X mit

(a) f(x) ≤ f(x∗);

(b) d(x∗, x) ≤ γ;

(c) f(x) + εγ d(x, x) > f(x) für alle x ∈ X\x.

Beweis:Sei γ > 0. Wende Satz 2.14 an unter Verwendung der zu d äquivalenten Metrik d := 1

γ d .

Beachte: Es liegt folgender Kompromiss für die Wahl von γ nahe: γ :=√ε; siehe Folgerung 2.2.

Das folgende Resultat stellt eine Existenzaussage im Kontext der Voraussetzungen von Satz2.14 bereit. Ob es als Existenzsatz Verwendung finden kann, ist zweifelhaft, wir werden ihn aberverwenden können.

Satz 2.17 (Takahashi, 1989) Sei (X, d) ein vollständiger metrischer Raum und sei f : X −→(−∞,∞] unterhalbstetig, eigentlich und nach unten beschränkt. Es gelte:

Für alle u ∈ X mit f(u) > infx∈X

f(x) gibt es v ∈ X mit v 6= u, f(v) + d(u, v) ≤ f(u) .

Dann gibt es x ∈ X mit f(x) = infx∈X f(x).

30

Page 37: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis:Annahme: f(u) > µ := infx∈X f(x) für alle u ∈ X .Nach Satz 2.16 gibt es x ∈ X mit

f(y) + d(y, x) > f(x) für alle y ∈ X\x .

Wegen f(x) > µ, gibt es v ∈ X, v 6= x, mit f(v) + d(v, x) ≤ f(x) . Dies ist ein Widerspruch.

Die Vollständigkeit der metrischen Räume in den obigen Resultaten war wesentlich für dieBeweise. Sie ist auch wesentlich für die Gültigkeit der Resultate, denn man kann zeigen, dass dieVollständigkeit in einem metrischen Raum schon durch die Tatsache charakterisiert wird, dassdie Aussage von Satz 2.16 für jedes f mit den dortigen Eigenschaften gilt.

Satz 2.18 Sei (X, d) ein metrischer Raum. Dann sind äquivalent:

(a) (X, d) ist vollständig.

(b) Für jede unterhalbstetige Abbildung f : X −→ R mit infv∈X f(v) ≥ 0 gilt: Ist ε > 0, x∗ ∈ Xmit f(x∗) ≤ infv∈X f(v) + ε, so gibt es x ∈ X mit

1. f(x) ≤ f(x∗) ;

2. d(x, x∗) ≤ 1 ;

3. f(y) + εd(y, x) ≥ f(x) für alle y ∈ X .

Beweis:(a) =⇒ (b). Satz 2.14.(b) =⇒ (a).Sei (xn)n∈N eine Cauchyfolge in X . Dann existiert offenbar limn d(xn, y) für jedes y ∈ X .Definiere f : X −→ R durch

f(y) := limnd(xn, y), y ∈ X .

f ist unterhalbstetig, da d(y, ·) stetig ist für alle y ∈ X, und es gilt infv∈X f(v) = 0 . Seiε ∈ (0, 1), x∗ ∈ X mit f(x∗) ≤ ε . Dann gibt es nach Satz 2.14 x ∈ X mit

f(x) ≤ f(x∗) ≤ ε , f(y) + εd(y, x) ≥ f(x) für alle y ∈ X .

Wir zeigen: f(x) ≤ εl für alle l ∈ N .Der Induktionsanfang l = 1 ist klar.Sei η > 0 beliebig. Da f(x) ≤ εl ist nach Induktionsvoraussetzung, gibt es xm mit d(xm, x) <εl + η, f(xm) < η . Mit 3. folgt

η + ε(εl + η) > f(xm) + εd(xm, x) ≥ f(x) .

Durch Grenzübergang η → 0 folgt f(x) ≤ εl+1 .Da ε ∈ (0, 1) ist, gilt also f(x) = 0 , d. h. x = limn xn .

Satz 2.19 Sei (X, ‖·‖) ein Banachraum und sei f : X −→ (−∞,∞] eigentlich, unterhalbstetig,Gateaux–differenzierbar in dom(f) := x ∈ X|f(x) < ∞ und nach unten beschränkt Dann gibtes zu jedem ε > 0, γ > 0 und x∗ ∈ X mit

f(x∗) ≤ infv∈X

f(v) + ε

ein x ∈ X mit

31

Page 38: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

1. f(x) ≤ f(x∗) .

2. ‖x− x∗‖ ≤ γ.

3. ‖DGf(x)‖ ≤ εγ .

Beweis:Wähle x ∈ X gemäß Satz 2.16. Dann gilt

f(y) ≥ f(x)− ε

γ‖y − x‖, y ∈ X . (2.25)

Alsof(x+ tw) ≥ f(x)− ε

γ‖w‖t für alle t > 0, d. h. DGf(x)(w) ≥ − ε

γ‖w‖ .

Dies zeigt‖DGf(x)‖ ≤ ε

γ.

Bemerkung 2.20 Satz 2.19 zeigt, dass für ein Optimierungsproblem

Minimiere f(x), x ∈ X,

unter den dortigen Voraussetzungen Punkte x ∈ X existieren, die f „fast minimieren“ und diedie notwendige Bedingung DGf(x) = θ „fast erfüllen“:

f(x) ≤ infv∈X

f(v) + ε , ‖DGf(x)‖ ≤ ε

γ.

2.6 Anwendung: Fixpunktsätze

Satz 2.21 (Kontraktionssatz/Fixpunktsatz von Banach) Sei (X, d) ein vollständiger metri-scher Raum und sei F : X −→ X eine Kontraktion, d. h.

d(F (x), F (y)) ≤ L d(x, y) für alle x, y ∈ X

mit L ∈ [0, 1) . Dann besitzt F einen eindeutigen Fixpunkt.

Beweis:Betrachte

f : X 3 x 7−→ d(x, F (x)) ∈ R .

Offenbar ist f stetig, nach unten beschränkt und eigentlich. Sei x∗ ∈ X, ε := d(x∗, F (x∗)), γ :=1− L . Wende damit Satz 2.14 an: Es gibt x ∈ X mit

d(x, F (x)) < d(x, F (x)) + (1− L)d(x, x) für alle x 6= x .

Dann muss x ein Fixpunkt sein, denn anderenfalls würde x := F (x) einen Widerspruch ergebengemäß

d(x, F (x)) < d(F (x), F (F (x))) + (1− L)d(x, F (x)) ≤ Ld(x, F (x))− Ld(x, F (x)) + d(x, F (x)) .

Die Eindeutigkeit liest man mit mit zwei Fixpunkten u, v ∈ X aus

d(u, v) = d(F (u), F (v)) ≤ L d(u, v)

sofort ab.

32

Page 39: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Satz 2.22 (Fixpunktsatz von Caristi–Kirk, 1976) Sei (X, d) vollständiger metrischer Raum,sei f : X −→ R nach unten beschränkt und unterhalbstetig. Sei F : X −→ X; es gelte:

d(x, F (x)) ≤ f(x)− f(F (x)) für alle x ∈ X.

Dann besitzt F einen Fixpunkt, d. h. es gibt z ∈ X mit F (z) = z.

Beweis:Annahme: Es gilt F (z) 6= z für alle z ∈ X.Nach Satz 2.14 gibt es x ∈ X mit f(z)− f(x) > −d(z, x) für alle z ∈ X\x) . Also

f(x)− f(F (x)) < d(x, F (x)) ≤ f(x)− f(F (x)) ,

was ein Widerspruch ist.

Bemerkung 2.23 Bemerkenswert an Satz 2.22 ist, dass von der Abbildung F nicht einmalStetigkeitseigenschaften verlangt werden.Unter den Voraussetzungen von Satz 2.22 liegt i. a. keine Eindeutigkeit vor, wie folgendes Beispielzeigt:

X := [0, 1], d(x, y) := |x− y|, f(x) := |x|, F (x) := x

Beachte: Man kann den Satz 2.14 auch aus dem Fixpunktsatz von Caristi–Kirk (Satz 2.22) her-leiten.

Betrachte folgende Sätze:

Satz 2.24 Sei (X, d) ein vollständiger metrischer Raum und sei f : X −→ (−∞,∞] unter-halbstetig, eigentlich und nach unten beschränkt. Sei T : X −→ POT(X)\∅. Es gelte:

∀x ∈ X,x /∈ T (x)∃ y 6= x (f(y) + d(y, x) ≤ f(x)) .

Dann gibt es z ∈ X mit z ∈ T (z).

Satz 2.25 Sei (X, d) ein vollständiger metrischer Raum und sei f : X −→ (−∞,∞] unter-halbstetig, eigentlich und nach unten beschränkt. Sei T : X −→ POT(X)\∅. Es gelte für allex ∈ X :

f(y) + d(y, x) ≤ f(x) für alle y ∈ T (x) .

Dann gibt es z ∈ X mit z = T (z).

Satz 2.26 Sei (X, d) ein vollständiger metrischer Raum und sei f : X −→ (−∞,∞] unter-halbstetig, eigentlich und nach unten beschränkt. Sei T : X −→ POT(X)\∅ . Es gelte für allex ∈ X

f(y) + d(y, x) ≤ f(x) für alle y ∈ T (x) .

Dann gibt es z ∈ X mit z ∈ T (z).

Satz 2.27 Sei (X, d) ein vollständiger metrischer Raumund sei f : X −→ (−∞,∞] unterhalb-stetig, eigentlich und nach unten beschränkt. Sei T : X −→ POT(X)\∅ abgeschlossen. Esgelte:

d(x, T (x)) ≤ f(x)− supy∈T (x)

f(y) für alle x ∈ X .

Dann gibt es z ∈ X mit T (z) = z.

Lemma 2.28 Die Sätze 2.17, 2.24, 2.25, 2.26, 2.27 sind äquivalent.

33

Page 40: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis:Aus Satz 2.17 folgt Satz 2.24, denn:Annahme: T hat keinen Fixpunkt, d. h. x /∈ T (x) für alle x ∈ X ..Sei u ∈ X mit f(u) > infx∈X f(x). Da T (u) 6= ∅ und da u /∈ T (u) gibt es v ∈ T (u), v 6= u, mitf(v) + d(v, u) ≤ f(u) . Damit liefert nun Satz 2.17 die Existenz von x mit f(x) = infx∈X f(x) .Sei y ∈ T (x). Aus

0 < d(x, y) ≤ f(x)− f(y) ≤ f(y)− f(y) = 0

lesen wir einen Widerspruch ab.Aus Satz 2.24 folgt Satz 2.25, denn:Annahme: Es gibt kein u ∈ X mit u = T (u) .Definiere g : X 3 x 7−→ T (x)\x ∈ POT(X) . Es gilt

f(g(x)) + d(g(x), x) ≤ f(x) , x ∈ X .

Aus Satz 2.24 folgt die Existenz von z ∈ X mit z ∈ T (z) . Dies ist auch ein Fixpunkt von g nachSatz 2.22.Aus Satz 2.25 folgt Satz 2.17, denn:Definiere T : X 3 x 7−→ y ∈ X|f(y) + d(x, y) ≤ f(x) ∈ POT(X) . Auf Grund der Vorausset-zung in Satz 2.17 gilt T (x) 6= ∅ für alle x ∈ X .Annahme: Es gibt kein x ∈ X mit f(x) = infv∈X f(v) . Nun gilt

f(y) + d(x, y) ≤ f(x) , y ∈ T (x), x ∈ X .

Aus Satz 2.25 folgt die Existenz von z ∈ X mit z = T (z) . Dies zeigt, dass kein v ∈ X esistiertmit f(y) + d(y, z) ≤ f(z), was ein Widerspruch ist.Aus Satz 2.25 folgt Satz 2.26, denn:Dies ist offensichtlich. Aus Satz 2.26 folgt Satz 2.27, denn:Setze g(x) := 1

2f(x), x ∈ X . Ist d(x, T (x)) = 0, dann ist x ∈ T (x), da T (x) abgeschlossen ist.Hat also T keinen Fixpunkt, dann ist d(x, T (x)) > 0 für alle x ∈ X . Sei y ∈ T (x) so, dassd(x, y) < 1

2d(x, T (x)) . Dann haben wir

d(x, y) ≤ 1

2d(x, T (x)) ≤ 1

2(f(x)− sup

y∈T (x)f(y)) ≤ g(x)− g(y) .

Da g eigentlich, unterhalbstetig und nach unten beschränkt ist, hat T einen Fixpunkt nach Satz2.26.Aus Satz 2.27 folgt Satz 2.25, denn Satz 2.25 ist ein Spezialfall von Satz 2.27.

2.7 Anwendung: Zum Satz von der inversen Abbildung

Zunächst eine Erinnerung an Ergebnisse der konvexen Analysis. Sei (Z, ‖ · ‖) ein normierterRaum. Dann ist die Normabbildung NZ : Z 3 z 7−→ ‖z‖ ∈ R stetig und konvex. Also ist dasSubdifferential

∂NZ(z) := λ ∈ X∗|‖x‖ ≥ ‖z‖ − 〈λ, x− z〉 für alle x ∈ X

stets nichtleer und wir wissen

z 6= θ ∂NZ(z) = λ ∈ Z∗|‖λ‖ = 1, 〈λ, z〉 = ‖z‖ (2.26)z = θ ∂NZ(z) = λ ∈ Z∗|‖λ‖ ≤ 1 (2.27)

34

Page 41: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Lemma 2.29 Seien X,Y Banachräume und sei F : X −→ Y Gâteaux-differenzierbar. Be-trachte mit x, v ∈ X die Abbildung f : [0, 1] 3 t 7−→ ‖F (x + tv)‖ ∈ R . Dann gibt esλ ∈ ∂NY (F (x+ tv)) mit

limh↓0

h−1(f(t+ h)− f(t)) = 〈λ,DF (x+ tv)(v)〉 , t ∈ [0, 1] .

Beweis:Es gilt für h > 0

h−1(f(t+ h)− f(t)) = h−1(‖F (x+ tv) + hz(h)‖ − ‖F (x+ tv)‖)

mitz(h) := h−1(F (x+ (t+ h)v)− F (x+ tv))

Mit der Gâteaux-Differenzierbarkeit von F erhalten wir

limh↓0

z(h) = DF (x+ tv)(v) =: z(0) .

Unter Nutzung der Dreiecksungleichung folgt

‖F (x+ tv) + hz(h)‖ − ‖F (x+ tv) + hz(0)‖ ≤ h‖z(h)− z(0)‖ .

Mit (2.26),(2.27) folgt

limh↓0

h−1(f(t+ h)− f(t)) = limh↓0

h−1(‖F (x+ tv) + hz(h)‖ − ‖F (x+ tv)‖) = 〈λ,DF (x+ tv)(v)〉

mit λ ∈ ∂NY (F (x+ tv)) .

Satz 2.30 Seien X,Y Banachräume und sei g : X −→ Y stetig und Gâteaux-differenzierbarmit g(θ) = θ . Für alle x ∈ X besitze DGg(x) eine lineare Rechtsinverse R(x) : Y −→ X, diegleichmäßig beschränkt in einer Umgebung von θ sei, d. h.

DGg(x)R(x)v = v, v ∈ X , sup‖R(x)‖|‖x‖ ≤ r < m für ein r > 0 . (2.28)

Dann gilt: ∀ y ∈ Brm−1 ∃x ∈ Br (‖x‖ ≤ m‖y‖ , g(x) = y) .

Beweis:Sei y ∈ BRm−1 . Betrachte f : X 3 x 7−→ ‖g(x) − y‖ ∈ R . f ist stetig und nach untenbeschränkt. Nach dem Variationslemma (f(θ) ≤ infx∈X f(x) + f(θ)!) existiert ein x ∈ X mit

f(x) ≤ f(θ) = ‖y‖, ‖x‖ ≤ m‖y‖, f(x) ≥ f(x)−m−1‖x− x‖ für alle x ∈ X .

Annahme: g(x) 6= y .Dann gilt für alle t > 0, u ∈ X

t−1(f(x+ tu)− f(x)) ≥ −m−1‖u‖ .

Daraus folgt mit Lemma 2.29

limt↓0

t−1(f(x+ tu)− f(x)) = 〈λ,DGg(x)(u)〉

mit λ ∈ Y ∗, ‖λ‖ = 1, 〈λ, g(x)− y〉 = ‖g(x)− y‖ . Also

〈λ,DGg(x)(u)〉 ≥ −m−1‖u‖ für alle u ∈ X .

Wähle u := −R(x)(g(x)− y) . Dann ist DGg(x)(u) = −(g(x)− y) und

‖g(x)− y‖ = 〈λ, g(x)− y〉 = 〈λ,−DGg(x)(u)〉 ≤ m−1‖u‖ < mm−1‖g(x)− y‖,

was ein Widerspruch ist.

35

Page 42: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

2.8 Anwendung: Moutain Pass Lemma

Stationäre/kritische Punkte sind Nullstellen von Frécht-Ableitungen reellwertiger Abbildun-gen. Das Mountain Pass Lemma (und Variationen davon) ist ein Werkzeug, stationäre Punktevon Variationsproblemen nachzuweisen. Solche stationäre Punkte können als Lösungen von (par-tiellen nichtlinearen) Differentialgleichungen interpretiert werden.2

Beginnen wir als Einführung mit einem eindimensionalen Mountain Pass Lemma (MPL).

Satz 2.31 Sei f : R −→ R stetig differenzierbar und seien x1 < x3 < x2 . Es gelte:

f(x3) > max(f(x1), f(x2)) .

Dann gibt es ξ ∈ (x1, x2) mit

f ′(ξ) = 0 , f(ξ) = maxx∈[x1,x2]

f(x) = c := inf[a,b]∈Γ

maxx∈[a,b]

f(x) , (2.29)

wobei Γ := [a, b]|x1, x2 ∈ [a, b] .

Beweis:Wir können o. E. f(x1) ≤ f(x2) annehmen. Der Zwischenwertsatz besagt, dass es z′ ∈ [x1, x3)gibt mit f(z′) = f(x2) ; z sei die kleinste Zahl z′ in [x1, x3) mit dieser Eigenschaft. Wegenf(x3) > max(f(x1), f(x2)) gibt es ξ ∈ (z, x2) mit f(ξ) = maxv∈[z,x2] f(v) . Nun folgt

maxv∈[x1,x2]

f(v) ≥ maxv∈[z,x2]

f(v) = f(ξ) = maxv∈[x1,x2]

f(v) ≥ f(x3) > max(f(x1), f(x2))

und f ′(ξ) = 0 . Aus [x1, x2] ∈ Γ folgt

maxv∈[x1,x2]

f(v) ≥ c

und schließlichmaxv∈[a,b]

f(v) ≥ maxv∈[x1,x2]

f(v) für [a, b] ∈ Γ .

Dies zeigt maxx∈[x1,x2] f(x) = c .

Beachte: Γ in Satz 2.31 kann man auch so aufschreiben:

Γ = Σ ⊂ R|Σ kompakt, zusammenhängend, x1, x2 ∈ Γ .

Die Zahl c in (2.29) nennt man einen kritischen Wert; er gehört zum kritischen Punkt ξ .Die Verallgemeinerung des Satzes auf den endlichdimensionalen Raum Rn gelingt nicht ohnezusätzliche Voraussetzungen. Der Grund dafür ist, dass man aus infΣ∈Γmaxx∈Σ f(x) = c nichtschließen kann, dass c zu einem kritischen Punkt gehört. „PS“ steht im Folgenden für Palais-Smale.

Definition 2.32 Sei X ein Banachraum und sei φ : X −→ R stetig Fréchet-differenzierbar.

(a) Ein x ∈ X heißt kritischer Punkt von φ, falls DFφ(x) = θ .

2Ursprünglich geht die Argumentation andersherum: Einer Differentialgleichung (Dirichletproblem) wird einEnergiefunktional zugeordnet, dessen Minimum als stationärer Punkt eine Lösung der gegebenen Differentialglei-chung liefert.

36

Page 43: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

(b) Eine Zahl c heißt kritischer Wert von φ, falls φ(x) = c für einen kritischen Punkt vonφ ; c heißt auch Niveau aller kritischen Punkte x mit φ(x) = c .

(c) Eine Folge (un)n∈N heisst PS-Folge, wenn gilt:

(φ(un))n∈N ist beschränkt, limnDFφ(un) = θ .

(d) Eine Folge (un)n∈N heisst PSc-Folge, wenn gilt:

(un)n∈N ist PS-Folge, limnφ(un) = c .

(e) φ erfüllt PS-Bedingung, wenn jede PS-Folge eine konvergente Teilfolge besitzt.

(f) φ erfüllt PSc-Bedingung, wenn jede PSc-Folge eine konvergente Teilfolge besitzt.

Folgerung 2.33 Sei X ein Banachraum und sei φ : X −→ R stetig Fréchet-differenzierbar,nach unten beschränkt. Sei c := infx∈X φ(x) . Gilt die PS-Bedingung, so gibt es x ∈ X mitφ(x) = c und Dφ(x) = θ .

Beweis:Wähle eine Minimalfolge (un)n∈N, also limn φ(un) = c . Mit dem Variationslemma von Ekelanderhalten wir ein Folge (vn)n∈N mit

limnφ(vn) = c , lim

nDφ(vn) = θ .

Offenbar ist die Folge (φ(vn))n∈N beschränkt. Da die PS-Bedingung gilt, besitzt (vn)n∈N einekonvergente Teilfolge (xk)k∈N ; sei x := limk xk . Aus der Stetigkeit von φ und Dφ folgt

φ(x) = c , Dφ(x) = θ .

Wie uns der Beweis der Folgerung 2.33 zeigt, ersetzt die PS-Bedingung die bei Existenz von

Extrema so „unerlässliche‘ Kompaktheit.

Die Verallgemeinerung des eindimensionalen Mountain Pass Lemma auf unendlichdimensio-nale Banachräume gelingt unter Verwendung der Palais-Smale-Bedingung und einer weiterengeometrischen Bedingung. Diese wollen wir nun beschreiben.

Sei X ein Banachraum und sei Γ := γ : [0, 1] −→ X|γ stetig . Wir machen Γ zu einemnormierten Raum durch Einführung einer Norm:

‖γ‖Γ := maxt∈[0,1]

‖γ(t)‖ , γ ∈ Γ .

Damit ist (Γ, ‖ · ‖Γ) sogar ein Banachraum.Betrachte mit e ∈ X die θ und e verbindenden Pfade:

Γe := γ ∈ Γ|γ(0) = θ, γ(1) = e . (2.30)

Klar, es ist Γe 6= ∅, denn es ist γ0 ∈ Γe für γ0(t) := te, t ∈ [0, 1] . Da Γe eine abgeschlosseneTeilmenge von Γ ist, macht die Norm ‖ · ‖Γ die affine Menge Γe zu einem vollständige metrischenRaum.

Wir setzen Γ0 := Γθ . Offenbar ist Γ0 ein abgeschlossener linearer Teilraum von Γ und damitselbst ein Banachraum.

37

Page 44: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Satz 2.34 (Mountain Pass Lemma) Sei X ein Banachraum, sei φ : X −→ R stetig Fréchet-differenzierbar. φ erfülle die PS-Bedingung und es gelte

Es gibt e ∈ X\θ und r ∈ (0, ‖e‖) mit ) infu∈Br\Br

φ(u) > max(φ(θ), φ(e)) . (2.31)

Dann gibt es einen kritischen Punkt x ∈ X von φ mit zugehörigem Wert c mit

φ(x) = c ≥ infu∈Br

φ(u) , c = infγ∈Γe

maxt∈[0,1]

φ(γ(t)) (2.32)

Beweis:Wir definieren

f : Γe 3 γ 7−→ maxt∈[0,1]

φ(γ(t)) ∈ R

und setzenM(γ) := s ∈ [0, 1]|φ(γ(s)) = max

t∈[0,1]φ(γ(t)) = f(γ) , γ ∈ Γe .

f ist unterhalbstetig als Maximum von stetigen Funktionen. Ferner ist f nach unten beschränkt,da

f(γ) ≥ max(φ(θ), φ(e)) für alle γ ∈ Γe .

Wir setzen c := infγ∈Γe f(γ) . Nun können wir das Variationslemma von Ekeland anwenden: Füralle ε > 0 gibt es ein γε ∈ Γe mit

f(γε) ≤ c+ ε , f(γ) ≥ f(γε)− ε‖γ − γε‖Γ für alle γ ∈ Γe .

Damit erhalten wir

f(γε + hv)− f(γε) ≥ −hε‖v‖ für alle h > 0, v ∈ Γ0, (2.33)

wobei Γ0 := γ ∈ Γ|γ(0) = θ, γ(1) = θ ist.Nun sind wir angelangt an der Problematik, die Schar (γε)ε>0 in Verbindung zu bringen mit

einer Folge (un)n∈N, die die Voraussetzung für die Anwendung der PS-Bedingung erfüllt, die jamit φ formuliert ist. Offenbar ist ein Überlegung nötig, die mit Hilfe von (2.33) zu der Fréchet-Ableitung Dφ führt. Diese Brücke wird im folgenden Lemma gebaut. Wir berufen uns hier schondarauf, um den Beweis zu Ende zu bringen.

Wir setzen Mε := M(γε) . Dann gilt stets Mε ⊂ (0, 1) . Nach Lemma 2.35 ist f lokal Lip-schitzstetig und es existiert für alle v ∈ Γ0

f ′(γε; v) := lim supκ→γε,h↓0

f(κ+ hv)− f(κ)

h.

Damit folgt aus (2.33)

f ′(γε; v) ≥ lim suph↓0

f(γε + hv)− f(γε)

h≥ −ε‖v‖ für alle v ∈ Γ0 .

Nach Lemma 2.35 existiert sε ∈Mε mit

φ(γε(sε)) = f(γε) , Dφ(γε(sε))(v) ≥ −ε‖v‖ für alle v ∈ Γ0 .

Wenden wir nun diese Überlegungen auf die Folge ε := εn := 1/n an, so erhalten wir Folgen(γn)n∈N, (sn)n∈N mit

φ(γn(sn)) = f(γn) , Dφ(γn(sn))(v) ≥ −1/n ‖v‖ für alle v ∈ Γ0 .

38

Page 45: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Wir setzen xn := γn(sn), n ∈ N und erhalten sofort limn φ(xn) = c . Ferner

Dφ(xn)(v) ≥ −1/n ‖v‖ für alle v ∈ Γ0 .

Da Γ0 ein linearer Teilraum von Γ ist, folgt ‖Dφ(xn)‖ ≤ 1/n , n ∈ N , also

limnDφ(xn) = θ .

Aus der PS-Bedingung folgt, dass die Folge (xn)n∈N eine konvergente Teilfolge (xnk)k∈N besitzt;

sei x := limk xnk. Dann gilt aus Stetigkeitsgründen

φ(x) = c , Dφ(x) = θ .

Lemma 2.35 Sei X ein Banachraum und sei φ : X −→ R stetig Fréchet-differenzierbar. Dannhaben wir folgende Aussagen:

(a) f : Γ 3 γ 7−→ maxt∈[0,1] φ(γ(t)) ∈ R ist wohldefiniert.

(b) M(γ) := s ∈ [0, 1]|φ(γ(s)) = f(γ) ist kompakt für alle γ ∈ Γ .

(c) f ist lokal Lipschitzstetig.

(d) f ′(γ; v) := lim supκ→γ,h↓0f(κ+ hv)− f(κ)

hexistiert für alle γ ∈ Γ, v ∈ Γ0 .

(e) Es gilt f ′(γ; v) ≤ maxs∈M(γ)Dφ(γ(s))(v) für alle γ ∈ Γ, v ∈ Γ0 .

(f) Für γ ∈ Γ gelte M(γ) ⊂ (0, 1) und

∃ ε > 0 ∀ v ∈ Γ0 (f′(γ; v) ≥ −ε‖v‖) (2.34)

Dann gibt es s ∈M(γ) mit Dφ(γ(s))(v) ≥ −ε‖v‖ für alle v ∈ Γ0 .

Beweis:Zu (a) Klar, da [0, 1] kompakt und t 7−→ φ(γ(t)) stetig ist.Zu (b) Klar, denn offensichtlich ist M(γ) abgeschlossene Teilmenge der kompakten Menge [0, 1] .Zu (c) Sei γ ∈ Γ . Dann ist das Bild γ([0, 1]) kompakt, da γ stetig ist. Da φ als stetig Fréchet-differenzierbare Funktion lokal Lipschitzstetig ist, gibt es für jedes t ∈ [0, 1] ein δt > 0 und eineKonstante ct ≥ 0 mit

|φ(x1)− φ(x2)| ≤ ct‖x1 − x2‖ für alle x1, x2 ∈ Bδt(γ(t)) .

Damit stellt (Bδt(γ(t)))t∈[0,1] eine offene Überdeckung von γ([0, 1]) dar. Da γ([0, 1]) kompakt ist,gibt es t1, . . . , tk ∈ [0, 1] mit

γ([0, 1]) ⊂ ∪kj=1Bδtj

(γ(tj)) .

Nach Lebegue’s Überdeckungslemma3 gibt es δ > 0, so dass für alle x ∈ γ([0, 1]) ein j existiertmit

Bδ(x) ⊂ Bδtj(γ(tj)) .

Setze cγ := maxj=1,...,k ctj . Dann folgt nun

|φ(x1)− φ(x2)| ≤ cγ‖x1 − x2‖ für alle t ∈ [0, 1], x1, x2 ∈ Bδ(γ(t)) .

3Lebesgue’s Überdeckungslemma ist eine wichtige Aussage für kompakte Räume; siehe etwa [19]. Es besagt:Ist X ein kompakter metrischer Raum und (Ui)i∈I eine offene Überdeckung von X, dann gibt es eine Zahl δ > 0(Lebesgue-Zahl) mit folgender Eigenschaft: ∀x ∈ X ∃ i ∈ I (Bδ(x) ⊂ Ui).

39

Page 46: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Seien nun γ1, γ2 ∈ Γ mit ‖γi − γ‖ < δ, i = 1, 2 . Dann folgt

|f(γ1)− f(γ1)| = | maxt∈[0,1]

φ(γ1(t))− maxt∈[0,1]

φ(γ2(t))|

≤ maxt∈[0,1]

|φ(γ1(t))− φ(γ2(t))|

≤ cγ maxt∈[0,1]

‖γ1(t)− γ2(t)‖ = cγ‖γ1 − γ2‖

Zu (d) Folgt aus der lokalen Lipschitzstetigkeit; siehe (c) .4

Zu (e) Sei γ ∈ Γ, v ∈ Γ0 . Wähle Folgen (κn)n∈N ⊂ Γ, (hn)n∈N ⊂ (0,∞), so dass

limnκn = γ , lim

nhn = 0 , f ′(γ; v) = lim

n

f(κn + hnv)− f(κn)

hn.

Wähle sn ∈M(κn + hnv), n ∈ N . Nun folgt

f(κn + hnv)− f(κn)

hn≤ φ((κn + hnv)(sn))− φ(κn(sn))

hn, n ∈ N .

Nach dem Mittelwertsatz gibt es θn ∈ (0, 1) mit

φ((κn + hnv)(sn))− φ(κn(sn))

hn= Dφ((κn + θnhnv)(sn))(v) , n ∈ N .

Da [0, 1] kompakt ist, können wir annehmen, dass die Folge (sn)n∈N konvergiert; s := limn sn .Dann folgt limn κn(sn) + θnhnv(sn) = γ(s) . Also folgt

f ′(γ; v) ≤ Dφ(γ(s))(v) .

Wir haben noch s ∈M(γ) nachzuweisen. Da sn ∈M(κn + hnv) ist für alle n ∈ N, folgt

φ(κn(sn) + hnv(sn)) ≥ φ(κn(t) + hnv(t)) , n ∈ N,

und durch Grenzübergang erhalten wir

φ(γ(s)) ≥ φ(γ(t)) für alle t ∈ [0, 1] .

Zu (f) Annahme: Es gibt kein s der behaupteten Art. Dann gilt:

∀ t ∈M(γ)∃ vt ∈ Γ0 (‖vt‖ = 1, Dφ(γ(t))(vt) < −ε)

Da γ und Dφ stetig ist, folgt: für alle t ∈ M(γ) gibt es ein vt ∈ X mit ‖vt‖ = 1, ein δt > 0, sodass

Dφ(γ(s))(vt) < −ε für alle s ∈ [0, 1] mit |s− t| < δt .

Dann ist ((t − δt, t + δt))t∈M(γ) eine offene Überdeckung der kompakten Menge M(γ) . WegenM(γ) ⊂ (0, 1) können wir

0, 1 ∩ (t− δt, t+ δt) = ∅ für alle t ∈M(γ)

annehmen. Ferner gibt es t1, . . . , tk ∈M(γ) mit

M(γ) ⊂ ∪kj=1(tj − δtj , tj + δtj ) .

4f ′(γ, v) definiert das Clarkesche Subdifferential für lokal lipschitzstetige Funktionen: ∂f(γ) := λ ∈X∗|f ′(γ, ·) ≥ λ; siehe etwa [5]. Es ist eine nichtleere, konvexe, schwach∗-kompakte Menge. Ist f konvex, dannstimmt es mit dem Subdifferential konvexer Funktionen überein.

40

Page 47: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Definiere für alle t ∈ [0, 1]

ρ0(t) := mins∈M(γ)

|t− s| , ρi(t) := mins∈[0,1],|s−ti|≥δti

|ti − s|, i = 1, . . . , k .

Dann haben wir

[0, 1] = ∪kj=1(tj − δtj , tj + δtj ) ∪ [0, 1]\M(γ) und

k∑i=0

ρi(t) > 0 für alle t ∈ [0, 1] .

Offenbar ist

v : [0, 1] 3 t 7−→ (

k∑i=1

vtiρi(t))(

k∑i=0

ρi(t))−1 ∈ X

in Γ0 . Ferner gilt

‖v‖ ≤ 1 , Dφ(γ(t))(v) = (

k∑i=1

ρi(t)Dφ(γ(t))(vti))(

k∑i=0

ρi(t))−1 .

Für alle t ∈ M(γ) gilt ρ0(t) = 0 . Ist t ∈ M(γ) mit ρi(t) > 0, so ist Dφ(γ(t))(vti) < −ε . Diesimpliziert

Dφ(γ(t))(v) < −ε ≤ −ε‖v‖ .

Nun folgt aus (e) f ′(γ, v) ≤ −ε‖v‖, was ein Widerspruch zu (2.34) ist.

Die Bedingung (2.31) wird als starke Form der Mountain-Pass-Geometrie bezeichnet.Das Mountain-Pass-Lemma (Satz 2.34) kann, wie der Name auch schon sagt, geometrisch inter-pretiert werden. Die Punkte θ und e können dabei als zwei Täler gesehen werden, welche durchein Gebirge mit einer Höhe von mindestens ρ räumlich voneinander getrennt werden. Um voneinem Tal zum anderen Tal zu gelangen, muss demnach eine Mindesthöhe von ρ bezwungenwerden. Wählt man nun von allen möglichen Wegen, welche die Täler verbindet, denjenigen mitdem niedrigsten Pass, so befindet sich auf diesem Weg in der Regel ein Sattelpunkt. Gemäßdieser Prozedur wird auch das Minimax-Niveau c angenommen; denn aus der Klasse der stetigenVerbindungsstrecken von θ nach e wird über die maximale Höhe des Weges minimiert.

Beispiel 2.36 Betrachte φ : R2 3 (x, y) 7−→ x2 + (1− x)3y2 ∈ R . Wähle R > 0 so, dass

φ(x, y) > 0 für 0 < x2 + y2 < R2 , φ(x0, y0) ≤ 0 für ein (x0.y0) mit x20 + y20 > R2 .

Es gilt ∇φ(x, y) = (2x− 3(1− x)2y2, 2(1− x)3y) und daher ist (0, 0) der einzige kritische Punktvon φ . Aber c aus (2.32) ist positiv und kann daher kein kritischer Wert sein. Dies zeigt, dassder Satz 2.34 ohne die PS-Bedingung nicht gilt.

2.9 Anhang: Bishop/Phelps–Lemma und verwandte Themen

Hier zeigen wir, dass das Lemma von Bishop/Phelps enge Verbindung zum Variationslemma vonEkeland hat.

41

Page 48: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

2.9.1 Lemma von Bishop/Phelps

Lemma 2.37 Sei (X, ‖ · ‖) ein Banachraum, sei A ⊂ X abgeschlossen, sei λ ∈ X∗ und es gelte

supx∈A

〈λ, x〉 <∞ , ‖λ‖∗ = 1.

Dann gibt es für alle γ ∈ (0, 1) und x ∈ A ein x ∈ A mit

x ∈ x+ C(γ, λ) , A ∩ (x+ C(γ, λ)) = x , (2.35)

wobei C(γ, λ) := z ∈ X|γ‖z‖ ≤ 〈λ, z〉 ist.

Beweis:Sei γ ∈ (0, 1), x ∈ A. Setze

Y := y ∈ A|γ‖x− y‖ − 〈λ, y〉 ≤ −〈λ, x〉.

Y ist wegen x ∈ Y nicht leer und wegen der Stetigkeit der Norm abgeschlossen. Also ist Y mitder Metrik d(x, y) := ||x− y||, x, y ∈ Y, ein vollständiger metrischer Raum.Sei f := −λ|Y . Dann ist f unterhalbstetig, eigentlich und nach unten beschränkt. Aus Satz 2.16folgt die Existenz von x ∈ Y mit

f(x) ≤ f(x)− γ‖x− x‖, f(y) + γ‖y − x‖ > f(x), y ∈ Y \x.

Ist y ∈ A\Y, so folgt

f(y) + γ‖y − x‖ ≥ f(y) + γ‖y − x‖ − γ‖x− x‖ > f(x)− γ‖x− x‖ ≥ f(x).

Also giltf(y) + γ‖y − x‖ > f(x), y ∈ A\x (2.36)

Also haben wir

γ‖x− x‖ ≥ f(x)− f(x) = −〈λ, x− x〉 , d. h. x ∈ A ∩ (x+ C(γ, λ)) .

Aus (2.36) erhalten wir

γ‖y − x‖ > f(x)− f(y) = 〈λ, y − x〉 für alle y ∈ A\x , d. h. x = A ∩ (x+ C(γ, λ)) .

Definition 2.38 Sei X ein Vektorraum und A ⊂ X. Ein Kegel C ⊂ X heißt Stützkegel von Ain x ∈ A, falls gilt:

A ∩ (x+ C) = x.

Das obige Lemma 2.37 besagt, dass jeder Punkt x ∈ A einen Stützkegel fest vorgegebenerForm zulässt.

Lemma 2.39 Sei (X, ‖·‖) ein Banachraum, sei A ⊂ X abgeschlossen, konvex, 6= ∅ . Sei λ ∈ X∗,sei ε > 0 und sei x ∈ A . Es gelte

supz∈A

〈λ, z〉 ≤ 〈λ, x〉+ ε , ‖λ‖∗ = 1.

Dann gilt:

∀ γ ∈ (0, 1) ∃ρ ∈ X∗ ∃x ∈ A (〈ρ, x〉 = supw∈A

〈ρ,w〉 , ‖x− x‖ ≤ ε

γ, ‖ρ− λ‖∗ ≤ γ) .

42

Page 49: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis:Nach Lemma 2.37 gibt es x ∈ A mit

x ∈ x+ C,A ∩ (x+ C) = x wobei C = z ∈ X|γ‖z‖ ≤ 〈λ, z〉 .

Sei f(z) := γ‖z‖ − 〈λ, z〉, z ∈ X, und definiere

B1 := (z, 0) ∈ X × R|x+ z ∈ A , A1 := (z, r) ∈ X × R|f(z) < r .

Dann gilt:A1 ∩B1 = ∅ , A1, B1 sind konvex , A1 ist offen .

Nach Satz 2.21 in [2] gibt es (ψ, q) ∈ X∗ × R und α ∈ R mit

〈ψ, z〉+ qr < α ≤ 〈ψ, y〉 für alle (z, r) ∈ A1, (y, 0) ∈ B1 .

Da (θ, 0) ∈ B1 ist, folgt α ≤ 0. Da (θ, r) ∈ A1 ist für alle r > 0 folgt q < 0, α = 0.Setze ρ := q−1ψ. Dann gilt also:

〈ρ, z〉 > −r für alle (z, r) ∈ A1 ; (2.37)〈ρ, y〉 ≤ 0 für alle (y, 0) ∈ B1 . (2.38)

Sei w ∈ A beliebig. Dann ist (w − x, 0) ∈ B1 und daher 〈ρ,w〉 ≤ 〈ρ, x〉 . Also 〈ρ, x〉 =supw∈A〈ρ,w〉. Da (z, f(z)) ∈ A1 für alle z ∈ X gilt, haben wir wegen (2.37)

〈ρ, z〉 ≥ −f(z) = −γ‖z‖+ 〈λ, z〉 für alle z ∈ X .

Dies bedeutet ‖λ− ρ‖∗ ≤ γ . Da x− x ∈ C gilt, folgt

γ‖x− x‖ ≤ 〈λ, x− x〉 ≤ supw∈A

〈λ,w〉 − 〈λ, x〉 ≤ ε .

Definition 2.40 Sei X lokalkonvexer Raum. Sei K ⊂ X,K 6= ∅ . x ∈ X heisst Stützpunkt vonK, wenn es λ ∈ X∗\θ gibt mit

〈λ, x〉 = supv∈K

〈λ, v〉 .

Ax

x

x + C(

γ,λ)x + C(

γ,λ)

Abbildung 2.1: Bishop–Phelps

Das Hauptergebnis dieses Abschnitts ist der fol-gende Satz von Bishop–Phelps. Dazu erinnernwir an:M heißt dicht in N : ⇐⇒ N ⊂ M ;M\M heißtder Rand von M .

Satz 2.41 (Bishop/Phelps) Sei (X, ‖ · ‖) ein Ba-nachraum und sei A ⊂ X konvex und abgeschlossen.Dann sind die Stützpunkte von A dicht im Rand vonA.

43

Page 50: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis:Wenn ∂A = ∅ gilt, ist nichts zu beweisen. Sei x ∈∂A := A\A und sei δ > 0. Wähle z ∈ X\A mit‖x − z‖ < δ

2 , wähle λ ∈ X∗ mit supu∈A〈λ, u〉 <〈λ, z〉 ; wende dazu den Trennungssatz von Eidelheitan. O. E. ‖λ‖∗ = 1. Dann folgt

〈λ, z〉 ≤ 〈λ, x〉+ ‖x− z‖, supu∈A

〈λ, u〉 < 〈λ, x〉+ δ

2.

Anwendung von Lemma 2.39 mit ε = δ2 , γ = 1

2 ergibt: es existiert x ∈ A, ρ ∈ X∗ mit

supu∈A

〈ρ, u〉 = 〈ρ, x〉 , ‖x− x‖ ≤ δ , ‖λ− ρ‖∗ ≤1

2.

Damit gilt auch ρ 6= θ, da ‖λ‖∗ = 1 . x ∈ Bδ(x) ist also Stützpunkt von A .

Man kann durch Beispiele zeigen, dass keine Hoffnung besteht, Satz 2.41 sehr stark zu ver-bessern. Wir geben als Indiz dafür folgendes Beispiel.

Beispiel 2.42 Sei

X := l2, A := x = (xn)n∈N ∈ X||(xn)| ≤1

n, n ∈ N (Hilbert Würfel)

Es gilt:

(1) A ist beschränkt, denn x ∈ A impliziert ‖x‖2 =∑∞

n=1 |xn|2 ≤∑∞

n=1 n−2 = π2

6 .

(2) A ist konvex. Dies ist offensichtlich.

(3) A ist kompakt. Dies verifiziert man leicht.

(4) Sei x := ( 12n)n∈N. Es gilt x ∈ A\A ; dies ist zu verifizieren.

Annahme: x sei ein Stützpunkt von A.Dann gibt es z 6= θ in l2 mit (beachte dabei die Identifikation l∗2 = l2 nach dem Satz von Riesz)

supy=(yn)n∈N∈A

∞∑n=1

ynzn

=

∞∑n=1

xnzn .

Wähle y′ ∈ A als y′n := (signzn) 1n , n ∈ N. Dann haben wir

∞∑n=1

|zn|n−1 =∞∑n=1

zny′n ≤

∞∑n=1

znxn =1

2

∞∑n=1

|zn|n−1 .

Dies ist ein Widerspruch zu z 6= θ . Also hat A Randpunkte, die keine Stützpunkte von A sind.

44

Page 51: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

2.9.2 Blumenblatt–Theorem

Definition 2.43 Sei (X, d) ein metrischer Raum. Das Blumenblatt zu u, v ∈ X zum Parameterγ > 0 ist die Menge

Pγ(u, v) := x ∈ X|γd(u, x) + d(x, v) ≤ d(u, v) .

In der euklidischen Ebene sehen Blumenblätter in der Tat Blättern von Blumen ähnlich.Eine einfache Beobachtung ist:

Pγ2(a, b) ⊂ Pγ1(a, b) falls 0 < γ1 < γ2 . (2.39)

Satz 2.44 (Blumenblatt–Theorem) Sei (X, d) ein vollständiger metrischer Raum, sei A ⊂X abgeschlossen, sei x ∈ X und sei v ∈ X\A . Dann gibt es zu jedem γ > 0 ein x ∈ A∩Pγ(x, v)mit Pγ(x, v) ∩A = x .

Beweis:(A, d) ist ein vollständiger metrischer Raum. Wir definieren

f : A 3 z 7−→ d(z, v) ∈ R, r := dist(v,A) := infz∈A

d(v, z), s := d(v, x).

f ist stetig, also unterhalbstetig, nach unten beschränkt durch r und eigentlich. Also ist Satz2.14 anwendbar und es gibt x ∈ A mit

f(x) < f(y) + γd(y, x) für alle y ∈ A\x, f(x) ≤ f(x)− γd(x, x) .

Dies impliziert Pγ(a, b) ∩A = x, denn:Offenbar ist x ∈ Pγ(x, v) ∩A. Für y ∈ A\x folgt nun

d(x, v) < d(y, v) + γd(y, ax , d. h. Pγ(x, v) ∩A\x = ∅ .

Ferner erhalten wir x ∈ Pγ(x, v) ∩A, denn:Da x ∈ A, bleibt zu zeigen x ∈ Pγ(x, v). Wegen f(x) ≤ f(x)− γd(x, x), folgt d(x, v) ≤ d(x, x)−γd(x, x) , d. h.

γd(x, x) + d(x, v) ≤ d(x, v) , x ∈ Pγ(x, v).

x0a

P (a,b)γ

P (x0, b)γ

A

Abbildung 2.2: Blumenblatt–Theorem

Aus dem Blumenblatt–Theorem folgt auch dasLemma von Bishop–Phelps und das Variationslem-ma von Ekeland, wie wir unten sehen werden.

2.9.3 Der Tropfensatz

Aus dem Blumenblatt–Theorem folgt der der soge-nannte Tropfensatz – an die Stelle der Blumem-blätter treten Tropfen, die als konvexe Hülle einerKugel und einem Punkt außerhalb der Kugel auftre-ten.

45

Page 52: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Definition 2.45 Sei (X, || · ||) ein normierterRaum, sei x ∈ X und r > 0. Für B := Br(x), x

0 ∈X\Br(x) setze

D(x0, B) := co(x0, B)

und nenne D(x0, B) einen Tropfen.

Lemma 2.46 Sei (X, || · ||) ein Banachraum, seien x, x0 ∈ X, r > 0 mit x0 /∈ B := Br(x) . Setzet := ||x− x0||. Dann gilt für alle γ ∈ (0, t− r

t+ r )

D(x0, B) ⊂ Pγ(x0, x).

Beweis:Sei y ∈ D(x0, B). Dann gibt es s ∈ (0, 1), z ∈ B mit y = sx0 + (1− s)z. Damit haben wir

γ‖y − x0‖+ ‖y − x‖ ≤ γs‖x0 − z‖+ (1− s)‖x0 − x‖+ s‖z − x‖≤ γs(‖x0 − x‖+ ‖x− z‖) + (1− s)‖x0 − x‖+ s‖z − x‖≤ γs(t− r) + (1 + s)t+ sr

≤ s(t− r) + (1− s) + sr

= t = ‖x0 − x‖,

da γ(t+ r) ≤ t− r. Dies zeigt x ∈ Pγ(x0, x).

Satz 2.47 Sei (X, || · ||) ein Banachraum, sei A ⊂ X abgeschlossen, sei r > 0 und x ∈ X\A. Istr < dist(x,A), dann gibt es x ∈ A mit

D(x, B) ∩A = x, B := Br(x).

Beweis:Wir folgern das Resultat aus dem Blumenblatt–Theorem. Wähle x0 ∈ A und setze

Y := A ∩D(x0, B)

Setze d := dist(x,A), γ0 := d− rd+ r

. Da r > dist(x,A) = d, gilt γ0 > 0. Das Blumenblatt–Theoremimpliziert die Existenz von x ∈ Y. mit

x ∈ Pγ0(x0, x) ∩ Y, Pγ0(x, x) ∩ Y = x.

Da t := ‖x− x‖ ≥ dist(x, Y ) = d > r gilt, haben wir

0 < γ0 =d− r

d+ r≤ t− r

t+ r.

Also mit Lemma 2.46D(x, B) ⊂ Pγ0(x, x).

Da x ∈ D(x0, B) folgt D(x, B) ⊂ D(x0, B). Also haben wir

x ∈ D(x, B) ∩A = D(x, B) ∩ (D(x0, B) ∩A) ⊂ Pγ0(x, x) ∩ Y = x ,

d. h.D(x, B) ∩A = x.

Bemerkung 2.48 Man kann zeigen, dass das Variationslemma von Ekeland, das Blumenblatt–Theorem und der Tropfensatz äquivalent sind.

46

Page 53: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

2.10 Übungen

1.) Beweise folgende Variante des Lemmas von Ekeland:Sei (X, d) ein vollständiger normierter Raum und sei f : X −→ (−∞,∞] unterhalb-stetig, nach unten beschränkt durch 0 und eigentlich, d. h. es gibt z ∈ X mit f(z) <∞ .Dann gibt es zu jedem a > 0 ein x ∈ X mit

1. f(x) ≤ f(0) ;

2. ‖x‖ ≤ a ;

3. f(x) + f(θ)a ‖x− x‖ ≥ f(x) für alle x ∈ X .

2.) Betrachte f : L4[0, 1] 3 u 7−→ 12

∫ 10 (u(x)

2 − u(x)4)dx ∈ R .

(a) Zeige: f ist wohldefiniert.(b) Zeige: f ist zweimal Fréchet-differenzierbar in θ und

Df(θ) = θ , D2f(θ)(v, v) =

∫ 1

0v(x)2dx, v ∈ L4[0, 1] .

(c) θ ist kein lokales Minimum von f .

3.) Sei f : R −→ R differenzierbar und es gelte lim|x|→∞ f(x)|x|−1 = ∞ . Dann gilt:f ′(x)|x ∈ R = R .

4.) Sei (X, ‖ · ‖) ein Banachraum, F : X −→ (−∞,∞] unterhalbstetig, eigentlich, nachunten beschränkt und Gateaux–differenzierbar in dom(F ). Es gelte:

F (v) ≥ k‖v‖+ c, v ∈ X .

Fann ist λ ∈ X∗|λ = F ′(v; ·), v ∈ X dicht in Bk ⊂ X∗ .Hinweis: Betrachte zu µ ∈ X∗ G(v) := F (v)− 〈µ, v〉, v ∈ X .

5.) Sei X ein Banachraum, sei U ⊂ X offen und konvex, und sei f : U −→ R konvex. Dannsind für x0 ∈ U äquivalent:

(a) f ist Fréchet-differenzierbar in x0 .

(b) limt→0f(x0+th)−2f(x0)+f(x0−th)

t = 0 gleichmäßig für h ∈ B1\B1 .

6.) Betrachte in X := C1[a, b] das Funktonal f :

f : X 3 x 7−→∫ b

a

√1 + x′(t)2dt ∈ R

X sei dabei mit der Norm ‖x‖ := ‖x‖∞ + ‖x′‖∞, x ∈ X, versehen.

(a) Zeige: f ist Fréchet-differenzierbar in jedem x ∈ X und es gilt

fF (x)(u) =

∫ b

a

x′(t)√1 + x′(t)2

v′(t)dt , u ∈ X .

(b) Leite die Eulersche Differentialgleichung ab und schließe daraus, dass die Lösungengegeben sind durch die Schar x(t) := mt+ c,m, c ∈ R .

7.) Sei X := l2, versehen mit dem üblichen Skalarprodukt 〈·|·〉 und der dazu assoziertenNorm ‖ · ‖ . Die Einheitsvektoren ei ∈ X sind definiert durch ei := (δi,n)n∈N . DefiniereRechtsverschiebung R und Linksverschiebung L durch

R(x) := (0, x1, x2, . . . ) , L(x) := (x2, x3, . . . ), x = (x1, x2, . . . ) .

47

Page 54: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

(a) Zeige: 〈x|R(x)〉 = 〈L(x)|x〉, x ∈ X .

(b) Definiere T : X −→ X durch T (x) := (12 − ‖x‖2)e1 + R(x), x ∈ X . Zeige: T iststetig und T (x) 6= x, x ∈ X .

(c) Betrachte f : X 3 x 7−→ 1− ‖x‖2‖x− T (x)‖2

∈ R . Zeige: f ist Fréchet-differenzierbar.

(d) Zeige: f(x) = 0, x ∈ B1\B1, fF (x) 6= θ für alle x ∈ B1 .

8.) Sei (X, d) ein kompakter metrischer Raum und sei F : X −→ X stetig. Sei φ : X −→[0,∞) . Es gelte:

(a) φ ist schwach kontraktiv auf F, d. h. für alle x ∈ X mit φ(x) > 0 gibt es ein n ∈ Nmit φ(Fn(x)) < φ(x) .

(b) φ ist invariant unter F, d. h. aus φ(x) = 0 folgt stets F (x) = x .

Zeige: F besitzt einen Fixpunkt.

9.) Betrachte f : R 3 x 7−→ xe1−x ∈ R und zeige: f esitzt PSc-Folgen mit c = 0 und c = 1 .

10.) Zeige: Ist die PS-Bedingung erfüllt, dann ist die PSc-Bedingung erfüllt für alle c ∈ R .

11.) Betrachte φ : R2 3 (x, y) 7−→ x2 + (1 + x)3y2 ∈ R . Zeige, dass die PS-Bedingung nichterfüllt ist.

12.) Betrachte φ : R2 3 (x, y) 7−→ x2 + (1− x)3y2 ∈ R . Zeige, dass die PS-Bedingung nichterfüllt ist.

13.) Betrachte φ : R2 3 (x, y) 7−→ x2 + (1 + x)3y2 ∈ R . Zeige, dass die MPρ-Bedingungerfüllbar ist.

14.) Sei X ein normierter Raum und sei zu γ > 0, u, v ∈ X

Pγ(u, v) := x ∈ X|γ‖u− x‖+ ‖x− v‖ ≤ ‖u− v‖ .

Zeige:

(a) Pγ(u, v) = u, falls γ > 1 .

(b) P1(u, v) = [v, u] .

(c) Pγ(u, v) ist konvex.

15.) Sei X ein Banachraum und sei λ ∈ X∗ . Setze

K(λ, ε) := x ∈ X|ε‖x‖‖λ‖∗ ≤ 〈λ, x〉 .

Zeige: K(λ, ε) ist konvexer Kegel.

16.) Sei X ein Banachraum, sei S ⊂ X nichtleer und abgeschlossen und sei λ ∈ X∗, ‖λ‖∗ = 1,beschränkt auf S . Dann gilt:

∀ ε > 0∃ y ∈ S (y = S ∩ (y+ x ∈ X|ε‖x‖‖λ‖∗ ≤ 〈λ, x〉)

Hinweis: Betrachte das Variationslemma von Ekeland für f(x) := −〈λ, x〉+ χS(x) .

17.) Sei x ∈ Rn, x = (x1, . . . , xn) . Definiere dazu x↓ := (x↓1, . . . , x↓n) so , dass x↓1 ≥ x↓2 ≥ · · · ≥

x↓n .Seien x = (x1, . . . , xn), y = (y1, . . . , yn) ∈ Rn . Definiere:

x y : ⇐⇒n∑

i=1

xi =

n∑i=1

yi ,

k∑i=1

x↓i ≤k∑

i=1

y↓i , k = 1, . . . , n− 1 .

48

Page 55: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Zeige: Ist x = (x1, . . . , xn) ∈ Rn mit xi ≥ 0, i = 1, . . . , n,∑m

i=1 xi = 1, so gilt:

(1

n,1

n, . . . ,

1

n) x (1, 0, . . . , 0) .

18.) Seien x, y ∈ Rn . Dann sind äquivalent (〈·|·〉 ist das euklidische Skalarprodukt in Rn):

(a) x y .

(b) 〈z↓|x↓〉 ≤ 〈z↓|y↓〉 .

Dabei ist · · in der vorhergehenden Übungsaufgabe erklärt.

19.) Sei X ein unendlichdimensionaler Banachraum und sei g : [0,∞) −→ R stetig differen-zierbar mit

g(s) :=

0 falls s ∈ [0, 2]

s falls s ≥ 3.

Betrachte damit die Abbildung φ : X 3 x 7−→ g(‖x‖) ∈ R . Zeige: φ ist nach untenbeschränkt, koerziv, aber erfüllt nicht die PSc-Bedingung für c = 0 .

20.) Sei X := Rn und φ : X −→ R stetig differenzierbar. Zeige: Ist X 3 x 7−→ |φ(x)| +‖Dφ(x)‖ ∈ R koerziv, dann erfüllt φ die PS-Bedingung.

21.) Sei X := Rn und φ : X 3 x 7−→ 〈x|Ax〉+ 〈b|x〉+ c ∈ R . Zeige: Ist A invertierbar, dannerfüllt φ die PS-Bedingung.

22.) Sei X := Rn und φ : X −→ R stetig differenzierbar. Zeige: Ist φ koerziv, dann erfüllt φdie PS-Bedingung.

23.) Betrachte φ : R2 3 (x, y) 7−→ x2 + (1 + x)3y2 ∈ R . Zeige, dass eine Cerami-Folge((xn, yn))n∈N existiert, d. h.

(φ(xn, yn))n∈N ist beschränkt , limn(1 + |(xn, yn)|)Dφ(xn, yn) = θ .

2.11 Bibliographische und historische Anmerkungen

Beweise zum Variationslemma von Ekeland finden sich bei [6, 12, 13, 14, 15]. Interessante Zu-sammenhänge werden in [11, 17, 20, 21] aufgezeigt.

Weitere tiefe Anwendungen des Variationslemmas von Ekeland findet man bei der Herleitungvon notwendigen Bedingungen in der nichtglatten Optimierung (siehe [8]), in der Kontrolltheoriebei der Herleitung des Maximumprinzips (siehe [12]), bei Existenzsätzen für Sattelpunkten.Eine glatte Variante des Variationsprinzips findet sich in [4].

Detailierte Darstellungen der Fixpunkttheorie stellen etwa [1, 9, 16, 18, 6, 7, 26] dar. Sieheauch [3]

Das dargestellte Mountain Pass Lemma und seine Beziehung zu den sogenannten Palais–Smale–Bedingungen sind nur ein kleiner Ausschnitt der einschlägigen Resultate (siehe etwa[23, 24]). Stichworte sind Deformation, linking, Sandwich-Paare. Aus unserem Beweis des Moun-tain Pass Lemmas mit Hilfe des Variationslemmas von Ekeland wird deutlich, dass man es hinzu Lipschitstetigen Abbildungen φ abschwächen kann; siehe [25].

49

Page 56: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Literaturverzeichnis

[1] R.P. Agarwal, M. Meehan, and D. O’Regan. Fixed point theory and applications. CambridgeUniversity Press, 2004.

[2] J. Baumeister. Konvexe Analysis, 2014. Skriptum WiSe 2014/15, Goethe–Universität Frank-furt/Main.

[3] M. Berti, P. Bolle, and M. Processi. An abstract Nash-Moser theorem with parameters and appli-cations to PDEs. Annales IHP (C), 27:377–399, 2010.

[4] J.M. Borwein and D. Preiss. A smooth variational principle with applications to subdifferentiabilityand to differentiability of convex functions. Trans. Amer. Math. Soc., 303:517–527, 1987.

[5] J.M. Borwein and Q.J. Zhu. Techniques of variational analysis. Springer, New York, 2005.

[6] H. Brezis and F. Browder. A general principle on ordered sets in nonlinear functional analysis.Advances in Math., 21:355–364, 1976.

[7] J. Caristi. Fixed point theorems for mappings satisfying inwardness conditions. Trans. Amer. Math.Soc., 215:241–251, 1976.

[8] F.H. Clarke. Optimization and nonsmooth analysis. Wiley, 1985.

[9] J. Cronin. Fixed points an topological degree in nonlinear analysis. Amer. Math. Soc., Providence,1964.

[10] B. Dacorogna. Direct methods in the calculus of variations. Springer, Berlin, 2000.

[11] J. Danes. Equivalence of some geometric and related results of nonlinear functional analysis. Comm.Math. Universitatis Carolinae, 26:443–454, 1985.

[12] I. Ekeland. On the variational principle. J. Math. Anal. Applic., 47:325–353, 1974.

[13] I. Ekeland. Nonconvex minimization problems. Bull. Am. Math. Soc., 1:443–474, 1979.

[14] I. Ekeland. An inverse function theorem in Fréchet spaces. Annales IHP (C), 28:91–105, 2011.

[15] BG. Goga. Spome equivalent geometrical results with Ekelands variational principle. Am. St. Univ.Ovidius Constanta, 13, 2005.

[16] A. Granas and J. Dugundij. Fixed point theory. Springer, Berlin, 2003.

[17] A.H. Hamel. Phelp’s lemma, danes’ drop theorem and Ekaland’s principle in locally convex topolo-gical vector spaces. Proc. Amer. Math. Soc., 131:3025–3038, 2003.

[18] V.I.. Istratescu. Fixed point theorems: an introduction. Reidel, Dordrecht, 1988.

[19] K. Jänich. Topologie. Springer, 1999.

[20] I. Meghea. Ekeland variational principle with generalizations and variants. Old City Publishing,Philadelphia, 2009.

50

Page 57: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

[21] J.-P. Penot. The drop theorem, the petal theorem and ekeland’s variational principle. NonlinearAnalysis, 10:813–822, 1986.

[22] R.T. Rockafellar and R. Wets. Variational analysis. Springer, New York, 2009.

[23] M. Schechter. A variation of the mountain pass theorem and applications. J. London Math. Soc.,44:491–502, 1991.

[24] M. Schechter. A bounded maountain pass lemma without the ps-condition. Trans. Amer. Math.Soc., 331:681–703, 1992.

[25] S. Shuzhong. Ekeland’s variational principle and the Mountain Pass Lemma. Acta MathematicaSinica, New Series, 1:348–355, 1985.

[26] J. Siegel. A new proof of Caristi’s fixed point theorem. Proc. Amer. Math. Soc., 66:54–56, 1977.

[27] M. Struwe. Variational Methods. Springer, New York, 2000.

51

Page 58: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Kapitel 3

Der Satz von Kantorovich

Ich kann die Bewegungen der Himmelskörperberechnen, aber nicht die Verrücktheit der Menschen

Isaac Newton

Wir betrachten hier das Newton-Verfahren im unendlichdimensionaleen Kontext. Nach einerEinführung bereiten wir den Beweis des Satzes von Kantorovich vor durch die Diskussion einesquadratischen Polynoms. Es dient für den Beweis als majorisierendes Polynom für die Abschät-zungen des Fehlers der Iterierten. Im Anhang stellen wir eine Variante des Satzes bereit, die mitetwas abgeschwächten Voraussetzungen auskommt.

3.1 Nullstellensuche nach Newton

Iterative Verfahren lassen sich in die Antike zurückverfolgen: einschlägige Namen hierzu sind: Eu-klid, Archimedes, Theon von Alexandrien. Iterative Verfahren schreibt man „meist“ in Form einesAlgorithmus auf1. Der erste europäische Mathematiker, der iterative Verfahren nutzte, scheintVieta (1540-1603) gewesen zu sein. Er nutzte die Störungsrechnung für die Lösung skalarer Glei-chungen. Isaac Newton entdeckte Vieta’s Methode, beschreibt2 ein Rechenverfahren zum Löseneiner polynomialen Gleichung und begründet damit ein Verfahren, das heutzutage als Newton-Verfahren bezeichnet wird. Er tut dies am Beispiel des Polynoms p(x) := x3 − 2x − 5 = 0 .Eine leicht zu erratende Näherung ist x0 = 2, denn p(2) = −1 ist „klein“. Newton machte denAnsatz x = x0 + u = 2 + u mit einem als „klein“ angenommenen u und setzte diesen Ansatz indie Gleichung ein. Es gilt:

x3 = (2 + u)3 = 8 + 12u+ 6u2 + u3 , 2x = 2(2 + u) = 4 + 2u .

Also folgtx3 − 2x− 5 = −1 + 10u+ 6u2 + u3

!= 0 .

Da u als „klein“ angenommen wurde, können die Terme höherer Ordnung gegen den linearenund konstanten Anteil vernachlässigt werden, womit 10u− 1 = 0 bzw. u = 0.1 übrig bleibt. AlsNäherung x1 resultiert x1 = 2.1 .

Wir können nun dieses Vorgehen wiederholen: wir setzen u = 0.1 + v an, betrachten dieGleichung p(2 + 0.1 + v) = 0, berücksichtigen wiederum nur den linearen Anteil und erhalten sov = −0.061/11.23 = −0.0054 . . . . Als Näherung x2 resultiert x2 = 2.0946 .

1Die Bezeichnung leitet sich aus dem Namen Al–Khwarazmi ab, einem der bedeutensten Mathematikers desanfangenden Mittelalters.

2Isaac Newton, 1643–1727; „Methodus fluxionum et serierum infinitarum“; siehe [13]

52

Page 59: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Raphson3 beschrieb diesen Rechenprozess formal und illustrierte den Formalismus an derallgemeinen Gleichung 3. Grades, die abstrakte Form des Verfahrens mit Benutzung von Ablei-tungen stammt von Thomas Simpson (1710-1761). Simpson und Fourier (1768-1830) brachten esin eine Form, die in etwa unserer heutigen Formulierung entspricht.

Sei f : R −→ R . Eine Nullstelle wird nach folgendem Vorgehen gesucht:

(1) Man rät eine Näherung x0 . O.E. f(x0) 6= 0 .

(2) Man berechnet/zeichnet die Tangente T0 an den Graphen von f im Punkt(x0, f(x0)) .

(3) Man berechnet/konstruiert die Nullstelle x1 der Tangente T0 .

(4) Man setzt x0 := x1 und wiederholt den Vorgang, beginnend bei (1).

Klar, um die Tangente bestimmen zu können, müssen wir voraussetzen, dass diese existiert, wasdie Differenzierbarkeit von f voraussetzt. Dann lautet die Tangentengleichung

T0 : y = f(x0) + f ′(x0)(x− x0) (3.1)

und die Berechnung der Nullstelle von T0 führt zur Formel

x1 = x0 − f ′(x0)−1f(x0) . (3.2)

Hier tritt das Problem auf, dass f ′(x0) 6= 0 gelten muss, d. h. dass f in (x0, f(x0)) keine waagrech-te Tangente besitzt. Von der Anschauung her, keine überraschende Forderung, von der Analysedes Verfahrens her eine Forderung, die sukzessive oder a-priori sichergestellt werden muss.

Schreiben wir das Verfahren nun kompakt auf:

xn+1 := xn − f ′(xn)−1f(xn) , n ∈ N0 . (3.3)

Dabei ist die Startnäherung x0 geeignet zu wählen. Wir nennen dieses Vorgehen nun Newton–Verfahren; siehe Abbildung 3.1.

Das Newton–Verfahren ist ein so genanntes lokal konvergentes Verfahren. Konvergenz derin der Newton–Iteration erzeugten Folge zu einer Nullstelle ist also nur garantiert, wenn derStartwert schon „ausreichend nahe“ an der Nullstelle liegt. Ist der Startwert nicht gut genug, sohaben wir zu rechnen mit:

• Die Folge divergiert, der Abstand zur Nullstelle wächst über alle Grenzen.

• Die Folge divergiert, bleibt aber beschränkt. Sie kann z.B. periodisch werden, d. h. endlichviele Punkte wechseln sich in immer derselben Reihenfolge ab. Man sagt auch, dass dieFolge oszilliert (Bei f(x) := x3 − 2x+ 2 ist dies machbar).

• Die Folge konvergiert, falls die Funktion mehrere Nullstellen hat, gegen eine andere als diegewünschte Nullstelle konvergieren; in der Abbildung 3.1 kann man dies erahnen.

Ist der Startwert x0 so gewählt, dass das Newton–Verfahren konvergiert, so ist die Konvergenzallerdings quadratisch, also mit der Konvergenzordnung 2 (falls die Ableitung an der Nullstellenicht verschwindet).

3Joseph Raphson, 1648–1715; Arbeit „Analysis Aequationum universalis“

53

Page 60: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Bemerkung 3.1 Wie ordnet sich das Newtonsche Vorgehen hier nun ein? Ausgehend von derStartnäherung x0 = 2 wird ein Newtonschritt auf die Nullstellengleichung p(x+2) = 0 mit x = 0als Startnäherung angewendet:

x1 := 0− p(2)

p′(2)=

1

10.

Nun betrachtet man die Nullstellengleichung p(x + 2.1) = 0 mit x = 0 als Startnäherung undwendet wieder einen Newtonschritt mit Ausgangsnäherung x = 0 an:

x2 := 0− p(2.1)

p′(2.1)=

0.061

11.23.

Und so weiter!

t

tf(x)

x0

x1x2

Abbildung 3.1: Newtonverfahren

Viele nichtlineare Gleichungen haben mehre-re Lösungen, so hat ein Polynom n-ten Gradesbis zu n Nullstellen. Will man alle Nullstellenin einem bestimmten Bereich D ⊂ R ermitteln,so muss zu jeder Nullstelle ein passender Start-wert in D gefunden werden, für den das Newton–Verfahren konvergiert. Ein beliebtes Vorgehendazu besteht in Einschachtelungsverfahren: zwi-schen zwei Punkten z1, z2, so dass f(z1), f(z2) un-terschiedliche Vorzeichen besitzen, liegt immer ei-ne Nullstelle von f, da wir ja Differenzierbarkeitvon f (und damit Stetigkeit) voraussetzen.

Beispiel 3.2 Ein Spezialfall des NewtonschenNäherungsverfahrens ist das Babylonische Wur-zelziehen, auch bekannt als Heronverfahren nachHeron von Alexandria: Wendet man das Verfah-ren zur Nullstellenbestimmung auf die Funktionf(x) := x2−a (a > 0) an, so erhält man wegen der Ableitungsfunktion f ′(x) = 2x für die Lösung√a das Näherungsverfahren

xn+1 := xn − (xn)2 − a

2xn=

1

2

(xn +

a

xn

).

Dieses Verfahren konvergiert für jedes a ≥ 0 und für jeden beliebigen Anfangswert x0 > 0 .

Beispiel 3.3 Die Quadratwurzel einer Zahl a > 0 sind die Nullstellen der Funktion f(x) :=1−a/x2 . Diese Funktion hat die Ableitung f ′(x) = 2a/x3, die Newton-Iteration erfolgt also nachder Vorschrift

xn+1 := xn − (xn)3

2a+xn2

=xn2

(3− (xn)

2

a

).

Der Vorteil dieser Vorschrift gegenüber dem Wurzelziehen nach Heron (siehe Beispiel 3.2) ist,dass es divisionsfrei ist, sobald einmal der Kehrwert von a bestimmt wurde. Als Startwert wurdein der Tabelle x0 := (1 + a)/2 gewählt. Die Iterierten wurden an der ersten ungenauen Stelleabgeschnitten. Es ist zu erkennen, dass nach wenigen Schritten die Anzahl gültiger Stellen schnell

54

Page 61: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

wächst.

n xn bei a = 2 xn bei a = 3 xn bei a = 5

0 1, 5 2 31 1, 40 1, 6 1, 82 1, 4141 1, 72 2, 13 1, 41421355 1, 73203 2, 224 1, 41421356237309502 1, 7320508074 2, 236015 1, 414213562373095048801688724209697 1, 73205080756887729351 2, 236067975

Das Newton-Verfahren gilt als ein sehr effizientes Verfahren (in den Naturwissenschaften undanderswo). Worin ist dies begründet, obwohl das Problem der guten Startnäherung und dieTatsache, dass eine Ableitung ausgerechnet werden muss, schwer wiegen? Es liegt an vier Beob-achtungen, die in der Literatur ausreichend diskutiert wurden und immer noch werden:

(1) Das Verfahren hat eine naheliegende Erweiterung auf Aufgaben in mehreren Variablen. Imnächsten Abschnitt werden wir es sogar in unendlichdimensionalen Kontext betrachten.

(2) Das Verfahren konvergiert unter gut zu durchschaubaren Voraussetzung (siehe unten) qua-dratisch.

(3) Das Verfahren kann modifiziert werden, um die Berechnung der Ableitung in jedem Schrittzu vermeiden. Etwa durch:

xn+1 := xn − f ′(x0)−1f(xn) , n = 0, . . . . (3.4)

Allerdings ist dann die Konvergenzgeschwindigkeit schlechter.

(4) Das Verfahren kann globalisiert werden, d. h. man kann Vorkehrungen einbauen, die sicher-stellen, dass das so abgeänderte Verfahren auch bei „schlechten“ Startwerten konvergiert; dasStichwort ist Schrittweitensteuerung:

xn+1 := xn − snf′(xn)

−1f(xn) , n = 0, . . . . (3.5)

Satz 3.4 Sei f : [a, b] −→ R zweimal stetig differenzierbar und es gelte

|f ′(x)| ≥ m, |f ′′(x)| ≤M für alle x ∈ [a, b] (3.6)

mit m > 0,M > 0 . Dann gilt:

(a) f hat in [a, b] höchstens eine Nullstelle.

(b) Ist z eine Nullstelle in (a, b), dann ist die Iteration (3.3) definiert für alle x0 ∈ Ur(z) :=(z − r, z + r) wobei r := min(2mM−1, b− z, z − a) ist.Weiterhin gilt mit q :=M(2m)−1|x0 − z| < 1 für alle n ∈ N :

1. |z − xn| ≤ M2m |z − xn−1|2 (Konvergenzordnung)

2. |z − xn| ≤ 2mM q2

n (a priori Abschätzung)

3. |z − xn| ≤ 1m |f(xn)| ≤ M

2m |xn − xn−1|2 (a posteriori Abschätzung)

55

Page 62: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis:Seien z1, z2 Nullstellen von f in [a, b] . Aus

0 = |f(z1)− f(z2)| = |f ′(η)||z1 − z2|

erhalten wir z1 = z2 und a) ist bewiesen.Mit der Taylorentwicklung folgt

0 = f(z) = f(xn) + f ′(xn)(z − xn) +1

2f ′′(η)(z − xn)

2 , η ∈ [a, b] ,

0 = f(xn) + f ′(xn)(xn+1 − xn) ,

und wir erhalten mit Subtraktion

0 = (z − xn+1)f′(xn) +

1

2f ′′(η)(z − xn)

2 .

Dies zeigt

|z − xn+1| ≤M

2m|z − xn|2.

Sei x0 ∈ (z − r, z + r). Dann folgt

|z − x1| ≤M

2m|z − x0|2 ≤

M

2m(2m

M)2q2 .

Mittels vollständiger Induktion erhalten wir die a priori Abschätzung 2. .Es gilt

|f(xn+1)| = |f(z)− f(xn+1)| = |f ′(η)||z − xn+1| ≥ m|z − xn+1|und

f(xn+1) = f(xn − f(xn)

f ′(xn)) =

1

2f ′′(ξ)(xn+1 − xn)

2

was die a posteriori Abschätzung impliziert.

Die 1. Abschätzung von (b) in Satz 3.4 besagt, dass die Konvergenzordnung der Folge(xn)n∈N (mindestens) zwei, also quadratisch ist. Man kann dies so formulieren, dass bei jedemIterationsschritt die Anzahl der signifikanten Stellen der Approximation xn sich verdoppelt.

Beispiel 3.5 Betrachte die Funktion f(x) := x2, x ∈ R . Die Nullstelle z := 0 von f ist zweifach.Die Newton-Iteration mit Startwert x0 6= 0 ergibt

xn+1 =1

2xn also |xn+1 − z| = 1

2|xn − z| , n ∈ N0 ,

und die Konvergenzrate ist nur linear.Bei einer Nullstelle z mit Vielfachheit p einer Funktion f können wir die Iteration

xk+1 := xk − pf(xk)

f ′(xk)

betrachten und man kann beweisen, dass wieder quadratische Konvergenz gegen z gegeben ist.Aber die Iteration ist von wenig praktischem Wert, denn nur selten kennt man die Vielfachheiteiner Nullstelle im Vorhinein.

Bemerkung 3.6 Newton’s Methode kann als eine Fixpunktiteration betrachtet werden. Setzeg(x) := x+h(x)f(x), x ∈ [a, b], mit einer glatten Funktion h . Eine Nullstelle von f ist sicher einFixpunkt von g . Wir wählen h(x) := −1/f ′(x) . Wegen g′(z) = 0 für jede einfache Nullstelle z vonf ist die Kontraktionskonstante von g in einer Nullstelle z von f Null. Dies hat die quadratischeKonvergenz der Fixpunktiteration zur Konsequenz.

56

Page 63: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Bemerkung 3.7 Newton’s Methode kann auch aus folgender Beobachtung abgeleitet werden. Istxn eine aktuelle Näherung für die Nullstelle der differenzierbaren Funktion f : R −→ R, so gilt∫ x

xn

f ′(t)dt = f(x)− f(xn) .

Nutzt man eine Quadraturformel zur Approximation des Integrals

Qn := (x− xn)

m∑i=0

aif′(ti) (ai Gewichte, ti Stützpunkte),

so gewinnt man xn+1 für die Verbesserung der Näherung xn folgendermaßen:

xn+1 = xn − f(xn)m∑i=0

aif′(ti)

,

wobei wir unterstellen, dass schon f(x) ≈ 0 ist. Verwendet man die Rechteckregel Qn := (x −xn)f

′(xn), so gewinnt man das Newtonverfahren zurück. Verwendet man die MittelpunktregelQn := (x− xn)f

′(12(x+ xn)), so gewinnt man in naheliegender Weise die Iterationsformel

xn+1 = xn − f(xn)

f ′(xn − f(xn)

2f ′(xn))

(3.7)

Dieses Verfahren („deformiertes Newton-Verfahren“) konvergiert unter angepassten Vorausset-zungen kubisch; siehe [20].

Bemerkung 3.8 Das Newtonverfahren kann man auch kontinuierlich formulieren. Wir schrei-ben es im Rn auf. Sei f : Rn −→ Rn differenzierbar. Dann ist die kontinuierliche Versionbeschrieben durch die Anfangswertaufgabe

x′ = −Df(x)−1f(x) , x(0) = x0 ; x0 Startwert . (3.8)

Die einfache Differenzen-Approximation führt zzur diskreten Iteration

x(t+ h) = x(t)− hDf(x)−1(x(t)f(x(t)) , x(0) = x0 (3.9)

mit der Schrittweite h > 0 . Es ist damit eine Art „gedämpftes Newtonverfahren“ entstanden, vondem man weiß, dass damit eine globale Konvergenz erreicht werden kann. Dies entspricht derErkenntnis, dass das kontinuierliche Verfahren (3.8) global konvergiert; siehe [37].

3.2 Das Newtonverfahren für ein quadratisches Polynom

Wir wenden nun die Idee des Newton–Verfahrens auf ein spezielles quadratisches Polynom an.Die Betrachtungen dienen als Vorbereitung auf den Beweis des Satzes von Newton-Kantorovichim nächsten Abschnitt, wo wir wie hier [19] folgen. Der Unterschied zum Vorgehen im letztenAbschnitt ist, dass wir die hier die Existenz einer Nullstelle mit dem Newton-Verfahren mitbe-weisen. Klar, bei einem quadratischen Polynom wissen wir über die Existenz von Nullstellen ohneVerfahren Bescheid, es geht hier eine Reihe von Beobachtungen bei der Newton-Iterationsfolge,die wir im nächsten Abschnitt nutzen wollen.

57

Page 64: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Sei L, b > 0 . Wir betrachten damit das Polynom

g : R −→ R , t 7−→ 1

2Lt2 − t+ b .

unter der Voraussetzung 0 < 2bL ≤ 1 .

Wir fassen die benötigten Aussagen in einer Liste von Beobachtungen zusammen:

(1) Nullstellen von g: t∗ = 1−√1− 2bLL , t∗∗ =

1 +√1− 2bLL .

(2) g(t) = 12L(t− t∗)(t− t∗∗) , g

′(t) = 12L((t− t∗) + (t− t∗∗)), t ∈ R .

(3) g(t) > 0 , t ∈ [0, t∗) .

(4) g′(t) ≤ L(t− t∗) < 0 , t ∈ [0, t∗) .

(5) g ist monoton fallend in [0, t∗] .

(6) Der Newton-Operator ng : [0, t∗) 3 t 7−→ t− g′(t)−1g(t) ∈ R zu g ist wohldefiniert.

(7) t∗ − ng(t) = −12Lg

′(t)−1(t∗ − t)2 , t ∈ [0, t∗) .

(8) t∗∗ − ng(t) = −12Lg

′(t)−1(t∗∗ − t)2 , t ∈ [0, t∗) .

(9) t < ng(t) < t∗ und g(ng(t)) = 12Lg(t)

2g′(t)−2 , t ∈ [0, t∗) .

(10) ng([0, t∗)) ⊂ [0, t∗) .

(11) Die Newton-Iteration ist wohldefiniert: t0 := 0 , tk+1 := ng(tk) , k ∈ N0 .

(12) tk ∈ [0, t∗) , k ∈ N0 .

(13) Die Folge (tk)k∈N0 ist strikt monoton wachsend.

(14) t∗ − tk+1 = −12Lg

′(tk)−1(t∗ − tk)

2 ≤ 12(t∗ − tk) , k ∈ N0 .

(15) tk+1 − t∗tk+1 − t∗∗

=(tk − t∗tk − t∗∗

)2, k ∈ N0 .

(16) Ist 2bL < 1, dann gilt θ := t∗/t∗∗ < 1 und wir haben

t∗ − tk+1 =1− θ2

1 + θ2L

2√1− 2bL

(t∗ − tk)2 ≤ L

2√1− 2bL

(t∗ − tk)2 , k ∈ N0 .

(17) Ist 2bL < 1, dann gilt

tk = t∗ −θ2

k

1− θ2k2√1− 2bL

L, k ∈ N0 .

Wir geben Hinweise zum Beweis von Aussagen, die nicht ganz offensichtlich sind.Zu (2) Satz von Vietá.Zu (6) Klar.Zu (7)

t∗ − ng(t) = g′(t)−1(g′(t)(t∗ − t) + g(t))

= −g′(t)−1

∫ t∗

t(g′(s)− g′(t))ds

= −g′(t)−1

∫ t∗

tL(s− t)ds = −1

2Lg′(t)−1(t∗ − t)

58

Page 65: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Zu (8) Analog zu (7).Zu (9) Folgt aus (7) und einer einfachen Rechnung (Taylorentwicklung).Zu (10) Folgt aus (9).Zu (11) Klar. Zu (12), (13) Beweist man induktiv.Zu (14) Die erste Gleichheit ist nach (9) klar, die Ungleichung folgt aus g′(tk) ≤ L(t∗ − tk) < 0,da tk ∈ [0, t∗) .Zu (15) Beweist man induktiv.Zu (16), (17) Beweist man induktiv.

3.3 Der Satz von Newton-Kantorovich

Erneut gehen wir der Fragestellung „Nullstellen“ nach, und zwar im unendlichdimensionalenKontext. Dazu betrachten wir die Lösung einer nichtlinearen Gleichung:

G(x) = θ . (3.10)

Dabei sei G : U −→ Y mit X,Y Banachräume, U ⊂ X offen. Es geht hier darum, Existenz undEindeutigkeit einer Lösung nachzuweisen und sie konstruktiv zu berechnen. Dazu wollen wir das(iterative) Newton-Verfahren verwenden. Es unterstellt die (lokale) Fréchet-Differenzierbarkeitder Abbildung G . Dann besteht die Iteration des Newton-Verfahrens in

DG(xk)∆xk = −G(xk) , xk+1 := xk +∆xk , k = 0, 1, 2, . . . (3.11)

Dabei ist der Startwert x0 geeignet zu wählen. Um das Newton-Verfahren anwenden zu können,muss notwendigerweise G(xk)−1 für jedes xk existieren und beschränkt sein. Diese Iteration leitetsich aus der Taylorentwicklung ab:

G(xk +∆) = G(xk) +DG(xk)∆ + o(∆) . (3.12)

Hier ist das berühmte Theorem von Kantorovich ([23]). Der ursprüngliche Beweis ist ziemlichverwickelt, da die Absicherung, dass die Newtonfolge aus (3.11) eine vorgegebene Kugel nichtverlässt, mehrere ineinandergeschachtelte Argumente verlangt, mehr Klarheit wurde durch dieso genannte Majorantenmethode erreicht; siehe [24]. Es sind eine Reihe von erfolgreichen Ver-suchen unternommen worden, den Beweis zu vereinfachen, und die quantitiven Abschätzungenfür die Konvergenzgeschwindigkeit zu verbessern; siehe [14, 31, 39]. Wir folgen ganz eng derBeweisausarbeitung in [19].

Satz 3.9 (Kantorovich, 1939, 1948) Seien X,Y Banachräume, sei U ⊂ X offen, und seiG stetig Fréchet-differenzierbar in U . Sei x0 ∈ U und seien damit die folgenden quantitativenAnnahmen erfüllt:

(1) DG(x0) ist stetig invertierbar

(2) ‖DG(x0)−1G(x0)‖ ≤ b

(3) ‖DG(x0)−1(DG(u)−DG(v))‖ ≤ L‖u− v‖ , u, v ∈ U

(4) 2bL ≤ 1

59

Page 66: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Setzet∗ := (1−

√1− 2bL)/L , t∗∗ := (1 +

√1− 2bL)/L , θ := t∗/t∗∗ < 1 .

Ist dannBt∗(x

0) ⊂ U

erfüllt, dann gilt:

(a) Die Folge (xk)k∈N der Iteration xk+1 := xk −DG(xk)−1G(xk), k ∈ N0, existiert.

(b) xk ∈ Bt∗(x0), k ∈ N .

(c) (xk)k∈N konvergiert gegen ein x∗ ∈ Bt∗(x0) mit G(x∗) = θ .

(d) x∗ ist die einzige Nullstelle von G in Bt∗(x0) .

(e)

‖xk+1 − x∗‖ ≤ 1

2‖xk − x∗‖ , k ∈ N0 . (3.13)

(f) Falls in der Voraussetzung (3) die strikte Ungleichung gilt, also 2bL < 1, dann gilt

‖xk+1 − x∗‖ ≤ 1− θ2k

1 + θ2kL

2√1− 2bL

‖xk − x∗‖2 ≤ L

2√1− 2bL

‖xk − x∗‖2 , k ∈ N0 , (3.14)

und x∗ ist die eindeutige Nullstelle von G in Bρ(x0) für alle ρ in [t∗, t∗∗) mit Bρ(x

0) ⊂ U .

Beweis:Die quantitativen Voraussetzungen und die Newton-Iteration aus (a) sind invariant unter einerlinearen Transformation, die ein topologischer Isomorphismus zwischen den Räumen X,Y ist.Daher ist es ausreichend, den Satz unter der vereinfachenden Annahme

X = Y , DG(x0) = I (3.15)

zu beweisen, denn die Transformation x 7−→ DG(x0)−1G(x) führt auf diese vereinfachte Situa-tion. Sei nun (3.15) zutreffend. Die Argumentation nutzt nun die skalare Funktion g aus demAbschnitt 3.2 und die dort bereitgestellten Ergebnisse; die Bezeichnungen übernehmen wir.Resultat 1Ist u ∈ Br(x

0) und v ∈ Br(x0) ⊂ U, dann gilt:

‖G(u)− (G(v) +DG(v)(u− v))‖ ≤ 1

2L‖u− v‖2 . (3.16)

Beweis dazu:Der Satz von Hahn-Banach liefert λ ∈ X∗ mit

‖λ‖∗ = 1 , 〈λ,G(u)− (G(v) +DG(v)(u− v))〉 = ‖G(u)− (G(v) +DG(v)(u− v))‖

Setze mit a ∈ [0, 1] xa := v + a(u− v) und h(a) := 〈λ,G(xa)− (G(v) +DG(v)(xa − v))〉 . Eineeinfache Rechnung ergibt h′(a) = 〈λ, (DG(xa)−DG(v))(u− v)〉 und h ist stetig differenzierbar.Mit der Voraussetzung (3) folgt h′(a) ≤ La‖u− v‖2 und Integration ergibt das Resultat.Resultat 2Ist t ∈ [0, t∗) und x ∈ Bt(x

0), dann ist DG(x) stetig invertierbar und es gilt

‖DG(x)−1‖ ≤ |g′(t)|−1 ≤ 1 + Lt∗ . (3.17)

Beweis dazu:Wir wissen t∗ ≤ 1/L und damit t ∈ [0, 1/L) . Damit folgt (unter den vereinfachenden Annahmenaus Voraussetzung (2)

‖DG(x)− I‖ ≤ L‖x− x0‖ ≤ Lt < 1 .

60

Page 67: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Mit der Neumannschen Reihe (siehe [5], Satz 7.31) folgt

‖DG(x)−1‖ ≤ (1− Lt)−1 = |g′(t)|−1 .

Offenbar gilt |g′(t)|−1 ≤ 1 + Lt∗ für t ∈ [0, t∗) .

Das Resultat 2 rechtfertigt die Definition des so genannten Newton-Operators:

NG : Bt∗(x0) 3 x 7−→ x−DG(x)−1G(x) ∈ X .

Solange x ∈ Bt∗(x0) gilt, ist der Newton-Operator definiert, aber es ist zumindest nicht offen-

sichtlich, dass das Bild NG(x) in Bt∗(x0) liegt. Dies gilt es nun abzusichern. Setze

K(t) := x ∈ Bt(x)| ‖G(x)‖ ≤ g(t), t ∈ [0, t∗) , K := ∪t∈[0,t∗)K(t) .

Resultat 3Für t ∈ [0, t∗) und x ∈ K(t) gilt:

(α) ‖DG(x)−1G(x)‖ ≤ −g′(t)−1g(t)

(β) ‖NG(x)− x0‖ ≤ ng(t)

(γ) ‖G(NG(x))‖ ≤ g(ng(t))

(δ) NG(K(t)) ⊂ K(ng(t))

(η) NG(K) ⊂ K

Beweis dazu:Sei x ∈ K(t), t ∈ [0, t∗) . Wir wissen ‖DG(x)−1‖ ≤ |g(t)|−1 (Resultat 2). Daher folgt

‖DG(x)−1G(x)‖ ≤ ‖DG(x)−1‖‖G(x)‖ ≤ |g′(t)|−1g(t)

und (α) ist gezeigt. (β) folgt aus

‖NG(x)− x0‖ ≤ ‖x− x0‖+ ‖DG(x)−1D(x)‖ ≤ t− g(t)g′(t)−1 = ng(t) .

Daraus folgt nun NG(x) ∈ Bt∗(x0) . Dies ergibt mit Resultat 1

‖G(ND(x))− (G(x) +DG(x)(NG(x)− x))‖ ≤ 1

2L‖DG(x)−1G(x)‖2 .

Da G(x) +DG(x)(NG(x)− x) = θ gilt, folgt mit der Identität g(ng(t)) = 12Lg(t)

2g′(t)−2 (sieheBeobachtung (8) im vorhergehenden Abschnitt) die Aussage (γ) . Da t < ng(t) < t∗ gilt (sieheBeobachtung (8) im vorhergehenden Abschnitt), erhalten wir mit (β), (γ) NG(x) ∈ K(ng(t)) .Damit ist auch (δ) gezeigt. Sei x ∈ K, also x ∈ K(t) für ein t ∈ [0, t∗) . Dann ist NG(x) ∈K(ng(t)) ⊂ K . Also gilt (η) .Resultat 4Die Folge (xk)k∈N der Newton-Iteration ist wohldefiniert und es gilt:

(α) xk ∈ K(tk) ⊂ Bt∗(x0), k ∈ N .

(β) (xk)k∈N konvergiert gegen ein x∗ ∈ Bt∗(x0) .

(γ) G(x∗) = θ .

(δ) ‖x∗ − xk‖ ≤ t∗ − tk , k ∈ N .

61

Page 68: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis dazu:Die Definiertheit der Folge ist schon klar, ebenso xk ∈ K, k ∈ N . Da K ⊂ Bt∗(x

0) gilt, istxk ∈ Bt∗(x

0), k ∈ N . Wegen t0 = 0 ist x0 ∈ K(t0) nach Voraussetzung (2). Induktiv folgtxk ∈ K(tk), k ∈ N . Damit ist (α) bewiesen. Nun erhalten wir mit Resultat 3 (α)

‖xk+1 − xk‖ ≤ tk+1 − tk , k ∈ N .

Da die Folge (tk)k∈N konvergiert (siehe Beobachtung (12), (13) im vorhergehenden Abschnitt),konvergiert auch

∑k∈N0

(tk+1 − tk) und wir folgern daraus, dass (xk)k∈N eine Cauchyfolge ist.Also konvergiert (xk)k∈N gegen ein x∗ ∈ Bt∗(x

0) . Ferner

‖x∗ − xk‖ ≤∑∞

j=k(tj+1 − tj) = t∗ − tk , k ∈ N .

Wegen G(xk) = DG(xk−1)(xk+1 − xk) und ‖DG(x)‖ ≤ 1 + Lt∗, x ∈ Bt∗(x0), erhalten wir

limkG(xk) = θ . Mit der Stetigkeit von G folgt G(x∗) = θ . Damit sind alle Punkte des Resultats

gezeigt.

Nun haben wir noch die Eindeutigkeits- und Konvergenzaussagen zu beweisen.Resultat 5Seien u, v ∈ X, t, s ≥ 0, r > 0 . Ist

‖u− x0‖ ≤ t < t∗, ‖v − x0‖ ≤ r,G(v) = θ, g(s) ≤ 0, Br(x0) ⊂ U,

dann gilt

s > t und ‖v −NG(u)‖ ≤ (s− ng(t))‖v − u‖(s− t)2

(3.18)

Beweis dazu:Wir haben v −NG(u) = DG(u)−1(G(u) +DG(u)(v − u) und da G(v) = θ ist, erhalten wir

‖DG(u)−1(G(u) +DG(u)(v − u)‖ ≤ 1

2L|g′(t)|−1‖v − u‖2 .

Daraus folgt

‖v −NG(u)‖ ≤ L

2|g′(t)|(s− t)2

‖v − u‖(s− t)2

.

Da g′(t) < 0 und g(s) ≤ 0 ist, folgt

s− ng(t) = −g′(t)−1(−g(t)− g′(t)(s− t))

≥ |g′(t)|−1((g(s)− g(t)− g′(t)(s− t)) =L

2|g′(t)|(s− t)2 .

Nun folgen die behaupteten Aussagen unmittelbar.Resultat 6Ist v ∈ Bt∗(x

0) mit G(v) = θ, dann gilt:

‖v − xk+1‖ ≤ t∗ − tk+1

(t∗ − tk)2‖v − xk‖2 , ‖v − xk‖ ≤ t∗ − tk , k ∈ N0 . (3.19)

Insbesondere ist x∗ die eindeutig bestimmte Nullstelle von G in Bt∗(x0) .

Beweis dazu:Sei k ∈ N0 . Aus Resultat 4 folgt ‖xk − x0‖ ≤ tk und mit Resultat 5 mit u = xk, t = tk, s = t∗erhalten wir

‖v −NG(xk)‖ ≤ (t∗ − ng(tk))

‖v − xk‖2

(t∗ − tk)2

62

Page 69: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Damit ist die erste Ungleichung schon klar. Wir beweisen die zweite Ungleichung induktiv. Siegilt für k = 0, da v ∈ Bt∗(x

0) und t0 = 0 . Mit der Induktionsvoraussetzung ‖v − xk‖ ≤ t∗ − tkund der ersten Ungleichung folgt ‖v − xk+1‖ ≤ t∗ − tk+1 .Wir wissen schon x∗ ∈ Bt∗(x

0) und G(x∗) = θ . Aus der Konvergenz der Folgen (xk)k∈N und(tk)k∈N gegen x∗ bzw. t∗, folgt mit der zweiten Ungleichung v = x∗ .Resultat 7Wir haben

‖x∗ − xk+1‖ ≤ t∗ − tk+1

(t∗ − tk)2‖x∗ − xk‖2 , k ∈ N0 , (3.20)

‖x∗ − xk+1‖ ≤ 1

2‖x∗ − xk‖ , k ∈ N0 . (3.21)

Zusatz: Ist 2bL < 1, dann gilt

‖x∗ − xk+1‖ ≤ 1− θ2k

1 + θ2kL

2√1− 2bL

‖x∗ − xk‖2 ≤ L

2√1− 2bL

‖x∗ − xk‖2 , k ∈ N0 . (3.22)

Beweis dazu:Die erste Ungleichung folgt mit v := x∗ aus Resultat 6. Da (t∗ − tk+1)(t∗ − tk)

−1 ≤ 12 , und ‖x∗ −

xk‖(t∗−tk)−1 ≤ 1, folgt die zweite Ungleichung. Die dritte Aussage folgt aus den vorhergehendenResultaten und Aussagen zum Hilfspolynom.Resultat 8Ist 2bL < 1, t∗ ≤ ρ < t∗∗, und Bρ(x

0) ⊂ U, dann ist x∗ die einzige Nullstelle von G in Bρ(x0) .

Beweis dazu:Sei v∗ ∈ Bρ(x

0) und G(v∗) = θ .Mit Resultat 1 folgt mit v = x0, u = v∗ offenbar ‖G(x0) + v∗ − x0‖ ≤ 1

2L‖v∗ − x0‖2 (beachte

DG(x0) = I). Mit der Dreiecksungleichung und der Voraussetzung folgt

‖G(x0) + v∗ − x0‖ ≥ ‖v∗ − x0‖ − ‖G(x0)‖ ≥ ‖v∗ − x0‖ − b

und daher1

2L‖v∗ − x0‖2 ≥ ‖v∗ − x0‖ − b, d. h. g(‖v∗ − x0‖) ≥ 0 .

Dies ergibt ‖v∗ − x0‖ ≤ t∗ . Damit folgt mit Resultat 6, dass G(v∗) = θ gilt und daher v∗ = x∗

ist.Nun sind alle Aussagen des Satzes von Kantorovich bewiesen.

Die Newtoniteration ist invariant gegenüber einer affinen Transformation der Abbildung G .Glücklicherweise sind die Voraussetzungen des Satzes auch invariant gegenüber einer affinenTransformation der Abbildung G . Daher heißt diese Fassung des Satzes auch der affin-invarianteSatz von Kantorovich; siehe [14]. Wir fügen noch eine nicht affin-invariante Fassung des Satzesan, die zudem auch nicht die Existenz einer Lösung mitbeinhaltet.

Satz 3.10 (Newton-Verfahren) Seien X,Y Banachräume, sei U ⊂ X offen und sei G : U 3x 7−→ G(x) ∈ Y Fréchet-differenzierbar. Sei z ∈ U eine Lösung der Gleichung G(x) = θ andsei DF (z) stetig invertierbar. Es gelte mit Konstanten r, β, L > 0:

Br(z) ⊂ U , ‖DF (z)−1‖ ≤ β , ‖DF (x)−DF (y)‖ ≤ L|x− y| for all x, y ∈ U .

Dann ist für alle x0 ∈ Bδ(z) mit δ := minr, 12βL

die Iteration xk+1 := xk−DG(xk)−1DG(xk)

definiert und liefert eine Folge (xn)n∈N mit

|xn+1 − z| ≤ βL|xn − z|2 ≤ 1

2|xn − z| , n = 0, 1, . . . . (3.23)

63

Page 70: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis:Wir wollen zeigen:

Falls x ∈ Bδ(z) dann ist DF (x) stetig invertierbar und ‖DF (x)−1‖ ≤ 2β .

Sei x ∈ Bδ(z) . Dann setzen wir

η := ‖DF (z)−1(DF (x)−DF (z))‖ ≤ ‖DF (z)−1‖‖DF (x)−DF (z)‖ ≤ βL|x− z| ≤ βLδ ≤ 1

2.

Nun ist DF (x) invertierbar und

DF (x)−1‖ ≤ (1− η)−1‖DF (z)−1‖ ≤ 2β .

Wir zeigen nun induktivxn ∈ Bδ(z) , n = 0, 1, . . . , .

Die Induktionsvoraussetzung ist auf Grund der Voraussetzungen des Satzes schon klar. Sei xn ∈Bδ(z) . Wir haben

xn+1 = xn −DF (xn)−1F (xn) = xn −DF (xn)−1(F (xn)− F (z))

und daherxn+1 − z = DF (xn)−1(F (z)− F (xn)−DF (xn)(z − xn)) .

Dies hat|xn+1 − z| ≤ 2β

L

2|xn − z|2 ≤ βLδ|xn − z| ≤ 1

2|xn − z|

zur Folge und die Induktion ist abgeschlossen.

Bemerkung 3.11 Beachte, dass die Abschätzung (3.23) quadratische Konvergenz der Folge(xn)n∈N zur Lösung z zur Konsequenz hat.

Bemerkung 3.12 Das Newton-Verfahren kann genutzt werden, einen Kandidaten für ein Mi-nimum einer glatten Zielfunktion f : U −→ R zu berechnen, indem man eine Lösung dernotwendigen Bedingung F (x) := ∇f(x) = θ berechnet. Als Herausforderung kommt hier hinzu,dass man sicherstellen möchte, dass die Zielfunktion entlang der Newton-Iteration monoton nichtwachsend ist. Dazu gibt es eine Reihe von Vorschlägen; siehe etwa [38].

Bemerkung 3.13 Das deformierte Newton-Verfahren (siehe Bemerkung 3.7) wird übertragenin den unendlichdimensionalen Kontext in [25]. Es wird beschrieben durch folgende Iteration:

yn := xn −DG(xn)−1G(xn) , xn+1 := xn −DG(1

2(xn + yn))−1G(xn) , n ∈ N0 . (3.24)

3.4 Ein Satz zum Newtonverfahren unter Nutzung einer äußerenInversen

Wir wollen erneut die GleichungG(x) = θ . (3.25)

mittels eines Newtonverfahrens lösen. Dabei sei G : U −→ Y mit X,Y Banachräume, U ⊂ Xoffen. Wir wollen hier auf die Voraussetzung verzichten, dass DG entlang einer Iteration injektiv

64

Page 71: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

ist. Daher wollen wir statt DG(·)−1 mit einer stetigen Abbildung Γ : U −→ B(Y,X) arbeiten.Die Iteration, die wir dann hinschreiben können, ist folgende:

xk+1 = xk − Γ(xk)G(xk) , k ∈ N0 . (3.26)

Dabei ist x0 ∈ U ein Startwert. Wenn wir sicherstellen können, dass die Folge (xk)k∈N0 wohlde-finiert ist, d. h. xk ∈ U gilt, dann gilt:

limk Γ(xk)G(xk) = θ falls x∗ = limk x

k existiertΓ(x∗)G(x∗) = θ falls x∗ = limk x

k existiertG(x∗) = θ falls x∗ = limk x

k existiert und Γ(x∗) injektiv ist

Ist nun aber Γ(x∗) nicht injektiv, können wir nur auf G(x∗) ∈ ker(Γ(x∗)) schließen. Da wir Γ(x∗)a priori nicht kennen, liegt es nahe, die Abbildung Γ : U −→ B(Y,X) so zu wählen, dass sichder Kern von Γ entlang der Iteration nicht ändert, was sichergestellt wird durch

ker(Γ(x)) = ker(Γ(x0)) , x ∈ U . (3.27)

Unter dieser Voraussetzung können wir dann hoffen, die Gleichung (3.25) in folgendem Sinne zulösen:

G(x) ∈ ker(Γ(x0)) . (3.28)

Dies führt uns nun zur eigentlichen Aufgabenstellung:Gegeben Γ∗ ∈ B(Y,X) . Löse

G(x) ∈ ker(Γ∗) . (3.29)

Wenn es möglich ist, sicherzustellen, dass ker(Γ(x0)) = ker(Γ∗), dann ist das Verfahren (3.26)eine Iteration zur Berechnung einer Lösung von (3.29).

Definition 3.14 Seien X,Y Banachräume und seien T : X −→ Y, S : Y −→ x linearund stetig. S heißt äußere Inverse von T genau dann, wenn STS = S . Wir schreiben dannS = T# .

Eigenschaften der äußeren Inversen sind im Anhang 3.8 aufgeführt. Beachte, dass äußereInverse (im Sinne unserer Definition) nicht eindeutig bestimmt sind; der Nulloperator ist jaimmer schon eine äußere Inverse. Es kommt also immer auf den Kontext an, welche äußereInverse Verwendung finden soll.

Wir starten mit einer Approximation J : U −→ B(X,Y ) von DG . Sei x0 ∈ U und seiΓ(x0) eine äußere Inverse von J(x0) mit ker(Γx0) . Damit können wir eine Abbildung Γ : U −→B(Y,X) konstruieren gemäß

Γ(x) := (I − Γ(x0)(J(x0)− J(x)))−1Γ(x0) , x ∈ U . (3.30)

Nun ist jedes Γ(x) ist eine äußere Inverse von J(x) mit ker(Γ(x)) = ker(Γ(x0)), falls gilt:

‖Γ(x0)(J(x0)− J(x))‖ < 1 ;

siehe Lemma 3.28.

Satz 3.15 (Chen-Nashed, 1993) Seien X,Y Banachräume, sei U ⊂ X offen, und sei G stetigFréchet-differenzierbar in U . Sei x0 ∈ U und seien mit den Konstanten b, L,M,m,N, n ≥ 0 diefolgenden quantitativen Annahmen erfüllt:

(1) ‖Γ(x0)G(x0)‖ ≤ b

65

Page 72: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

(2) ‖Γ(x0)(DG(u)−DG(v))‖ ≤ L‖u− v‖ , u, v ∈ U

(3) ‖Γ(x0)(DG(x)− J(x))‖ ≤M‖x− x0‖+m, x ∈ U

(4) ‖Γ(x0)(J(x)− J(x0))‖ ≤ N‖x− x0‖+ n , x ∈ U

Setzep := m+ n , K := max(L,M +N) , κ := Kb .

IstK > 0 , p < 1 , κ ≤ 1

2(1− p)2 , Bt∗(x

0) ⊂ U ,

t∗ := (1− p−√

(1− p)2 − 2κ)/K , t∗∗ := (1− p+√

(1− p)2 − 2κ)/K ,

dann gilt:

(a) Die Folge (xk)k∈N der Iteration xk+1 := xk − Γ(xk)G(xk), k ∈ N0, existiert.

(b) xk ∈ Bt∗(x0), k ∈ N .

(c) (xk)k∈N konvergiert gegen ein x∗ ∈ Bt∗(x0) .

(d) G(x∗) ∈ ker(Γ(x0)) .

(e) x∗ ist lokal eindeutig bestimmte Lösung von G(x) ∈ ker(Γ(x0)) in folgendem Sinne:

V ∩ (Γ(x0)G)−1 = x∗ mit V := (Bt∗(x0) ∪Bt∗∗(x

0) ∩ U)) ∩ (x0 + Γ(x0))

(f) Ist J = DG und κ = 12 , dann haben wir die Abschätzung

‖xk+1 − x∗‖ ≤ 1

2‖xk − x∗‖ , k ∈ N0 . (3.31)

(g) Ist J = DG und κ < 12 , dann kann die Abschätzung 3.32 verschärft werden zu

‖xk+1 − x∗‖ ≤ 1

2√1− 2κ

‖xk − x∗‖2 , k ∈ N0 , (3.32)

Zur Vorbereitung des Beweises zwei Lemmata zu Hilfsfunktionen, die dann zur Majorisierungbeim Beweis Verwendung finden.

Lemma 3.16 Definiere mit den Konstanten K, p, b, κ,M,m,N, n, t∗, t∗∗ aus Satz 3.15 die Funk-tionen f, g : R −→ R durch

f(t) :=1

2Kt2 + (p− 1)t+ b , g(t) := Nt+ (n− 1) , t ∈ R .

Ferner sei t+ := (1− n)/N . Dann gilt:

(1) 0 < t∗ ≤ t∗∗ ; t∗ ≤ t+ , t∗ = t∗∗ ⇐⇒ κ = 12(1− p)2 .

(2) f−1(−∞, 0) = (t∗, t∗∗) , f−1(0) = t∗, t∗∗ , f−1(0,∞) = R\[t∗, t∗∗] .

(3) g−1(−∞, 0) = (∞, t+) , g−1(0) = t+ , g−1(0,∞) = (t+,∞) .

(4) f(s) = f(t) + f ′(t)(s− t) + 12K(s− t)2 , s, t ∈ R .

(5) 0 ≤Mt+m ≤ f ′(t)− g(t) , t ∈ R .

66

Page 73: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis:Diese Aussagen sind einfach nachzurechnen.

Lemma 3.17 Definiere mit den Konstanten K, p, b, κ,M,m,N, n, t∗, t∗∗ aus Satz 3.15 die Funk-tionen f, g : R −→ R durch

f(t) :=1

2Kt2 + (p− 1)t+ b , g(t) := Nt+ (n− 1) , t ∈ R .

Betrachte damit die Funktion

ψ : [0, t∗) 3 t 7−→ t− f(t)

g(t)∈ R .

Dann gilt:

(1) 0 < ψ(t) < t∗ , t ∈ [0, t∗) .

(2) ψ([0, t∗)) ⊂ [0, t∗) .

(3) Die Folge (tk)k∈N, definiert durch

t0 := 0 , tk+1 := ψ(tk) , k ∈ N0 ,

ist wohldefiniert, strikt monoton wachsend, konvergent, und es gilt limk tk = t∗ .

Beweis:Zu (1) Sei t ∈ [0, t∗) . Dann ist f(t) > 0, g(t) < 0, und daher ψ(t) > 0 . Ferner

0 = f(t∗) = f(t) + f ′(t)(t∗ − t) +1

2K(t∗ − t)2 ≥ f(t) + g(t)(t∗ − t) +

1

2(t∗ − t)2 .

Daraus lesen wir dann ab:t∗ − ψ(t) ≥ − K

2g(t)(t∗ − t)2 > 0

Zu (2) Konsequenz von (1).Zu (3) Wegen (2) ist die Folge wohldefiniert und wir wissen tk ∈ [0, t∗) für alle k ∈ N0 . Aus (1)folgt die Monotonieaussage. Also ist (tk)k∈N konvergent; sei l := limk tk . Aus

|f(l)| = lim supk

|f(tk)| ≤ lim supj

|g(tj)| lim supk

|f(tk)||g(tk)|

≤ (1− n) lim supk

|tk+1 − tk| = 0

und f−1(0) ∩ [0, t∗] = t∗ schließen wir l = t∗ .

Kommen wir nun zum Beweis von Satz 3.15 . Wir teilen ihn in Teilresultate auf. Zunächsteine Definition:

W (t) := x ∈ X|‖x− x0‖ ≤ t, ‖Γ(x0)G(x)‖ ≤ f(t), t ∈ [0, t∗) , W := ∪t∈[0,t∗)W (t) .

Resultat 1Ist t ∈ [0, t∗), x ∈W (t), dann gilt ‖Γ(x)G(x)‖ ≤ −g(t)−1f(t) .Beweis dazu:

‖Γ(x)G(x)‖ = ‖Γ(x)J(x0)Γ(x0)G(x)‖( siehe Lemma 3.28) ≤ ‖Γ(x)J(x0)‖‖Γ(x0)G(x)‖

≤ f(t)

1− ‖Γ(x0)(J(x0)− J(x))‖≤ f(t)

1−N‖x− x0‖ − n≤ −f(t)

g(t).

67

Page 74: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Resultat 2Ist t ∈ [0, t∗), x ∈W (t), dann gilt ‖x0 −Ψ(x)‖ ≤ ψ(t) .Beweis dazu:

‖x0 −Ψ(x)‖ ≤ ‖x0 − x‖+ ‖Γ(x)G(x)‖ ≤ t− f(t)

g(t)= ψ(t) .

Resultat 3Ist t ∈ [0, t∗), x ∈W (t), dann gilt ‖Γ(x0)G(Ψ(x))‖ ≤ ψ(f(t)) .Beweis dazu: Wir schreiben Γ(x0)G(Ψ(x)) = u+ v + w mit

u := Γ(x0)G(Ψ(x))− Γ(x0)G(x)− Γ(x0)DG(x)(Ψ(x)− x)

v := Γ(x0)G(x) + Γ(x0)J(x)(Ψ(x)− x)

w := Γ(x0)DG(x)(Ψ(x)− x)− Γ(x0)J(x)(Ψ(x)− x)

Dann folgt

‖u‖ ≤ 1

2L‖Ψ(x)− x‖2 ≤ 1

2K‖Γ(x)G(x)‖2 ≤ 1

2Kf(t)2

g(t)2,

‖v‖ = Γ(x0)(G(x) + J(x)(ψ(x)− x)) = Γ(x0)(I − J(x)Γ(x))G(x) = θ ,

‖w‖ ≤ ‖Γ(x0)(J(x)−DG(x))‖‖Ψ(x)− x‖ ≤ (M‖x− x0‖+m)‖Γ(x)G(x)‖

≤ −(Mt+m)f(t)

g(t)≤ (g(t)− f ′(t))

f(t)

g(t).

Dies ergibt nun

‖Γ(x0)G(Ψ(x))‖ ≤ 1

2Kf(t)2

g(t)2+ (g(t)− f ′(t))

f(t)

g(t)

= f(t) + f ′(t)(ψ(t)− t) +1

2K(ψ(t)− t)2 = f(ψ(t)) .

Resultat 4Wir haben Ψ(W (t)) ⊂W (ψ(t)) ⊂W, t ∈ [0, t∗), und Ψ(W ) ⊂W .Beweis dazu: Folgt aus Resultat (2),(3) und einer einfachen Rechnung.Resultat 5Ist u, v ∈ V mit Γ(x0)G(v) = θ, dann gilt

‖Ψ(u)− v‖ ≤ ‖Γ(u)J(x0)‖(12L‖u− v‖2 + (M‖u− v‖+m)‖u− v‖) .

Beweis dazu: Wir haben (siehe 3.28,3.26)

ran(Γ(x0)) = ran(Γ(u)) = ran(Γ(u)J(u)) = ker(I − Γ(u)J(u))

und daherv − u = (v − x0)− (u− x0) ∈ ker(I − Γ(u)J(u)) .

Wir setzen

y := Γ(u)J(x0)(Γ(x0)(G(v))− Γ(x0)(G(u))− Γ(x0)DG(u)(v − u) ,

z := Γ(u)J(x0)(Γ(x0)DG(u)(v − u)− Γ(x0)J(u)(v − u)) .

Dann folgt

y + z = −Γ(u)J(x0)Γ(x0)(G(u) + J(u)(v − u))

= −Γ(u)(G(u))− Γ(u)J(u)(v − u)

= u− Γ(u)(G(u))− v = ψ(u)− v .

68

Page 75: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Aus der Voraussetzung (2) folgt

‖y‖ ≤ 1

2L‖Γ(u)J(x0)‖‖u− v‖2 ,

‖z‖ ≤ ‖Γ(u)J(x0)‖(M‖u− v‖+m)‖u− v‖ .

Daraus leitet man die Aussage ab.Resultat 5xk ∈W (tk) , k ∈ N0 , und es gilt die Aussage (a) des Satzes.Indukion: k = 0 Wir haben t0 = 0 und daher ‖Γ(x0)G(x0)‖ ≤ b = f(t0) .k → k + 1 Wegen

‖xk+1 − x0‖ = ‖Ψ(xk)− x0‖ ≤ ψ(tk) = tk+1

und‖Γ(x0)G(xk+1)‖ = ‖Γ(x0)G(Ψ(xk))‖ ≤ f(ψ(tk)) = f(tk+1)

ist der Induktionsschluss abgeschlossen.Aussage (a) ergibt sich daraus.Resultat 6Aussage (b) gilt.Beweis dazu: Aus folgt

‖xk+1 − xk‖ = ‖Γ(xk)G(xk)‖ ≤ −f(tk)g(tk)

= tk+1 − tk , k ∈ N0 .

Daraus folgt, da (tk)k∈N0 konvergent ist gegen t∗, ist auch (xk)k∈N0 konvergent und x∗ :=limk x

k ∈ Bt∗(x0) existiert.

Resultat 7Aussage (c) gilt.Beweis dazu: Wir haben

supk∈N0

‖Γ(x0)(J(xk)− J(x0))‖ ≤ N supk∈N0

‖xk − x0‖+ n ≤ Nt∗ + n

und erhalten daher

‖Γ(x0)G(x∗)‖ = lim supk

‖Γ(x0)G(xk)‖

= lim supk

‖(I − Γ(x0)(J(x0)− J(xk))Γ(xk)G(xk)‖

≤ (1 + supj∈N0

‖Γ(x0)(J(xj)− J(x0)‖) lim supk

‖Γ(xk)G(xk)‖

≤ (1 +Nt∗ + n) lim supk

‖xk+1 − xk‖ = 0

Resultat 8Aussage (d) gilt.Beweis dazu: Sei v ∈ V mit Γ(x0)G(v) = θ . Setze t := ‖v − x0‖ . Dann folgt

‖x1 − v‖ = ‖Ψ(x0)− v‖ ≤ ‖Γ(x0)J(x0)‖(12Lt2 +mt) ≤ 1

2Kt2 + pt .

Wir haben auch ‖x1 − x0‖ ≤ a und daher

t ≤ ‖x1 − v‖+ ‖x1 − x0‖ ≤ 1

2Kt2 + bt+ a .

69

Page 76: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Daraus folgt f(t) ≥ 0 und es muss daher t ≤ t∗ gelten. Dies zeigt v ∈ Bt∗(x0) .

Wir zeigen nun xk ∈ V für alle k ∈ N0 . Wir wissen schon xk ∈ W (tk) ⊂ Bt∗(x0), k ∈ N0 , und

xj+1 − xj = −Γ(xj)G(xj) ∈ ran(Γ(xj)) = ran(Γ(x0)) , j ∈ N0 . Daher

xk − x0 =k−1∑j=0

xj+1 − xj = −k−1∑j=0

Γ(xj)G(xj) ∈ ran(Γ(x0)) .

Nun beweisen wir induktiv ‖xk − v‖ ≤ t∗ − tk , k ∈ N0 , was dann unmittelbar v = limk xk = x∗

zur Konsequenz hat.k = 0 Dies ist schon klar, t0 = ist.k → k + 1

‖Γ(xk)J(xk)‖ ≤ (1− ‖Γ(x0)(J(xk)− J(x0))‖)−1

≤ (1−N‖xk − x0‖ − n)−1 ≤ −g(tk)−1

Mit der Induktionsvoraussetzung xk ∈ V folgt

‖xk+1 − v‖ ≤ ‖Γ(xk)J(x0)‖(12L‖xk − v‖2 + (M‖xk − x0‖+m)‖xk − v‖)

≤ −g(tk)−1(1

2K(t∗ − tk)

2 + (Mtk +m)(t∗ − tk))

≤ −g(tk)−1(1

2K(t∗ − tk)

2 + (f ′(tk)− g(tk))(t∗ − tk))

≤ −g(tk)−1(f(t∗)− f(tk)) + t∗ − tk

= t∗ +f(tk)

g(tk)− tk = t∗ − tk+1

Resultat 9Aussage (e) gilt.Beweis dazu: Im Spezialfall J = DG können die Konstanten vereinfacht werden zu

M = m = n = p = 0 , L = K = N .

Wir haben nun

‖xk+1−x∗‖ ≤ ‖Γ(xk)DG(x0)‖(12L‖xk−x∗‖2) ≤ −Lg(tk)−1‖xk−x∗‖2 = L

2(1− Ltk)‖xk−x∗‖2 .

Ist κ = 12 , dann folgt mit v := x∗ und Lt∗ ≤ 1

L

2(1− Ltk)‖xk − x∗‖2 ≤ 1

2

L(t∗ − tk)

1− Ltk‖xk − x∗‖ ≤ 1

2‖xk − x∗‖ .

Ist κ < 12 , dann haben wir 0 ≤ Lt∗ < 1 . Also

L

2(1− Ltk)‖xk − x∗‖2 ≤ L

2(1− Lt∗)‖xk − x∗‖2 = L

2√1− 2κ

‖xk − x∗‖2 .

Bemerkung 3.18 Die Voraussetzungen des Satzes 3.15 können als affin invariant angesehenwerden, da man die Transformation, der man G unterwirft, auch J unterwerfen kann.

Eine Anwendung des Satzes 3.15 findet man in [2]. Dort wird die Existenz einer Lösung derEuler-Lagrange-Gleichung eines nichtlienaren Pendels nachgewiesen.

70

Page 77: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

3.5 Der Satz von Kantorovich unter einer Surjektivitätsbedin-gung

Betrachte erneut die GleichungG(x) = θ . (3.33)

Dabei sei G : U −→ Y mit X,Y Banachräume, U ⊂ X offen. Wir betrachten nun folgendeIterationsmethode zur Lösung dieser Gleichung:

xk+1 = xk − Φk(xk) , k ∈ N0 . (3.34)

Dabei sei x0 ∈ U ein Startwert und (Φk)k∈N0 eine Familie von Abbildungen, definiert auf U mitWerten in X .

Satz 3.19 (Polyak, 1964) Seien X,Y Banachräume, sei U ⊂ X offen, und sei G stetig Fréchet-differenzierbar in U . Sei x0 ∈ U und seien damit die folgenden quantitativen Annahmen erfüllt:

(1) ‖G(x0)‖ ≤ a

(2) ‖DG(u)−DG(v)‖ ≤ L‖u− v‖ , u, v ∈ U

(3) ‖Φk(x)‖ ≤ b‖G(x)‖ , x ∈ U , k ∈ N0 .

(4) ‖G(x)−DG(x)Φk(x)‖ ≤ c‖G(x)‖ , x ∈ U, k ∈ N0 .

(5) κ := 12Lab

2 + c < 1 . 3.15

Setze τ∗ := ab1− κ . Ist dann

Bτ∗(x0) ⊂ U

erfüllt, dann gilt:

(a) Die Folge (xk)k∈N der Iteration xk+1 := xk − Φk(xk)G(xk), k ∈ N0, existiert.

(b) xk ∈ Bτ∗(x0), k ∈ N .

(c) (xk)k∈N konvergiert gegen ein x∗ ∈ Bτ∗(x0) mit G(x∗) = θ .

(d) Wir haben die a priori-Abschätzung

‖xk+1 − x∗‖ ≤ τ∗κk , k ∈ N0 . (3.35)

(e) Falls in der Voraussetzung (4) c = 0 gilt, dann gilt xk ∈ Bs∗(x0), k ∈ N0, mit s∗ :=

ab∑∞

j=0 κ2j−1 und die a priori-Abschätzung 3.35 kann verschärft werden zu

‖xk+1 − x∗‖ ≤ abκ2

k−1

1 + κ2k≤ τ∗κ

2k−1 , k ∈ N0 . (3.36)

Beweis:Zu (a) Sei xk ∈ U mit xk+1 ∈ U . Dann gilt

‖G(xk+1)‖ ≤ ‖G(xk+1)− (G(xk) +DG(xk)(xk+1 − xk))‖+ ‖G(xk)−DG(xk)Φk(xk)‖

≤ 1

2L‖xk+1 − xk‖2 + c‖G(xk)‖

≤ (1

2Lb2‖G(xk)‖+ c)‖G(xk)‖

71

Page 78: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Definiere die Folge (τk)k∈N0 ⊂ [0,∞) durch

τk := ab

k−1∑j=0

κj , k ∈ N0 .

Offenbar ist diese Folge konvergent; τ∗ := limk τk . Wir zeigen induktiv

xk ∈ Bτk(x0) ⊂ Bτ∗(x

0) , ‖G(xk)‖ ≤ aκk ≤ a , k ∈ N0 . (3.37)

k = 0 Klar, da τ0 = 0 ist; siehe Vorausetzung (1).k → k + 1

‖xk+1 − x0‖ ≤ ‖xk+1 − xk‖+ ‖xk − x0‖≤ ‖Φk(x

k)‖+ τk ≤ abκk + τk ≤ τk+1 .

Dies zeigt xk+1 ∈ Bτk+1(x0) . Ferner

‖G(xk+1)‖ ≤ (1

2Lb2‖G(xk)‖+ c)‖G(xk)‖ ≤ (

1

2Lab2 + c)aκk = aκk+1

Damit ist nun klar, dass die Folge (xk)k∈N0 wohldefiniert ist.Zu (b) Wir haben nun

‖xk+1 − xk‖ ≤ b‖G(xk)‖ ≤ abκk = τk+1 − τk , k ∈ N0 .

Da (τk)k∈N0 konvergent ist, ist auch (xk)k∈N0 konvergent. Also existiert x∗ := limk xk ∈ Bτ∗(x

0) .Zu (c) Nun folgt

‖G(x∗)‖ = lim supk

‖G(xk)‖ ≤ a lim supk

κk = 0 .

Zu (d) Wir erhalten

‖x∗ − xk‖ ≤ τ∗ − τk = ab∞∑j=0

κj = abκk

1− κ= τ∗κ

k , k ∈ N0 .

Zu (e) Definiere die Folge (tk)k∈N0 durch

tk := abk−1∑j=0

κ2j−1 , k ∈ N0 .

Klar, t∗ := limk tk existiert. Dann können wir zeigen

‖xk − x0‖ ≤ tk − t∗ ≤ tk ≤ t∗ , k ∈ N0 ,

und

‖x∗ − xk‖ ≤ t∗ − tk = ab

∞∑j=0

κ2j−1 k ∈ N0 .

Ferner gilt∞∑j=0

κ2j−1 = κ−1

∞∑j=0

(κ2k)2

j ≤ κ−1∞∑j=1

(κ2k)j =

κ2k − 1

1− κ2k ≤ κ2

k − 1

1− κ.

Nun können wir ein Resultat zum Newtonverfahren aufschreiben, das nur eine Surjektivitäts-bedingung nutzt; siehe Anhang 3.8. Wir schreiben es als ein relaxiertes Verfahren auf. Rela-xation meint, dass der Newtonschritt nicht ohne „Schrittweitensteuerung“ ausgeführt wird.

72

Page 79: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Satz 3.20 (Newton-Mysovskikh-Theorem, Polyak, 1964) Seien X,Y Banachräume, seiU ⊂ X offen, und sei G stetig Fréchet-differenzierbar in U . Sei x0 ∈ U und seien mit denKonstanten a, L, b damit die folgenden quantitativen Annahmen erfüllt:

(1) ‖G(x0)‖ ≤ a

(2) ‖DG(u)−DG(v)‖ ≤ L‖u− v‖ , u, v ∈ U

(3) sur(DG(x)) > 1/b , x ∈ U .

Seien ω−, ω+ ∈ (0, 2) und setze c := max(|ω−−1|, |ω+−1|) . Setze κ := 12ω

2+Lab

2 . Ist dann κ < 1

und ist (ωk)k∈N eine Folge mit ωk ∈ [ω−, ω+], k ∈ N0 , und gilt Bτ∗(x0) ⊂ U mit τ∗ := ω+

ab1−κ ,

dann gilt:

(a) Es gibt eine stetige Abbildung Γ : U −→ B(Y,X) mit ‖Γ(x)‖ ≤ b, x ∈ U .

(b) Die Folge (xk)k∈N, definiert durch die Iteration

xk+1 = xk − ωkΓ(xk)G(xk) , k ∈ N0, (3.38)

ist wohldefiniert.

(c) xk ∈ Bτ∗(x0), k ∈ N0 .

(d) (xk)k∈N konvergiert gegen ein x∗ ∈ Bτ∗(x0) mit G(x∗) = θ .

(e) Wir haben die a priori-Abschätzung

‖xk+1 − x∗‖ ≤ τ∗κk , k ∈ N0 . (3.39)

(f) Falls ωk = 1, k ∈ N0, gilt, dann gilt xk ∈ Bs∗(x0), k ∈ N0 mit s∗ := ab

∑∞j=0 κ

2j−1 und diea priori-Abschätzung 3.39 kann verschärft werden zu

‖xk+1 − x∗‖ ≤ abκ2

k−1

1 + κ2k≤ τ∗κ

2k−1 , k ∈ N0 . (3.40)

Beweis:Zu (a) Dies folgt aus 3.33. Also ist der Newtonschritt ausführbar, solange xk in U ist.Zu (b),(c),(d) Wir haben

Φk(x) = ωkΓ(x)G(x) , x ∈ U, k ∈ N0 .

Nun sieht man einfach ein, dass alle Voraussetzungen des Satzes 3.19 erfüllt sind. Wir haben fürx ∈ U

‖G(x)−DG(ωkΓ(x)G(x))‖ = |1− ωk|‖G(x)‖ ≤ c‖G(x)‖

und‖ωkΓ(x)G(x)‖ ≤ ωk‖Γ(x)‖‖G(x)‖ ≤ ω+b‖G(x)‖ .

Im Vergleich zu Satz 3.19 haben wir b durch ω+b zu ersetzen.Zu (e) Wir beobachten, dass c = 0 genau dann gilt, wenn ωk = 1, k ∈ N0, ist.

Bemerkung 3.21 In der Originalarbeit [33] ist die Voraussetzung sur(DG(x)) > 1/b ersetztdurch inj(DG(x)∗) > 1/b ; siehe dazu Lemma 3.34.

Die Voraussetzungen in Satz 3.20 sind nicht affin invariant gestellt. Sie können auch nichtdie Eindeutigkeit garantieren.

73

Page 80: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

3.6 Anwendung: Ein Konvexitätsprinzip

Als Anwendung von Satz 3.20 beweisen wir das so genannte Konvexitätsprinzip. Es handeltvon der Idee, dass (auch) nichtlineare Abbildungen lokal die gleichen Eigenschaften haben wiedie Linearisierung4.

Lemma 3.22 Sei Z ein Banachraum und sei K ⊂ Z mit der Eigenschaft

1

2(u+ v) ∈ int(K) für alle u, v ∈ K,u 6= v . (3.41)

Dann ist K strikt konvex.5

Beweis:Es genügt zu zeigen, dass K konvex ist. Seien u, v ∈ K,u 6= v, und sei damit yt := (1−t)u+tv, t ∈[0, 1] . Sei Q := t ∈ [0, 1]|yt ∈ K . Setze

Wk := j2−k|j ∈ Z, 1 ≤ j ≤ 2k − 1 , W := ∪∞k=0Wk .

Induktiv folgt mit (3.41) Wk ⊂ Q, k ∈ N0, und daher gilt W ⊂ Q . Setze

a := sups ∈ [0,1

2]|[12− s,

1

2+ s] ⊂ Q .

Wegen (3.41) haben wir a > 0 . Ferner

(1

2− a,

1

2+ a) = ∪s∈(0,a)[

1

2− s,

1

2+ s] ⊂ Q .

Wenn wir a = 12 zeigen können, ist K konvex.

Annahme: a < 12 .

Da W dicht in [0, 1] ist, können wir d ∈ (a,min(12 , 3a)) ∩W wählen. Diese Wahl ergibt

0 < 1− a− d < 1− 2a < 1 + a− d < 1 , 1 < 1− a+ d < 1 + 2a < 1 + a+ d < 2 .

Mit (3.41) erhalten wir

(1

2(1− a− d),

1

2(1 + a− d)) ⊂ Q , (

1

2(1− a+ d),

1

2(1 + a+ d)) ⊂ Q .

Dann haben wir

(1

2− 1

2(a+ d),

1

2+

1

2(a+ d)) =

= (1

2(1− a− d),

1

2(1 + a− d)) ∪ (

1

2(1− 2a),

1

2(1 + 2a)) ∪ (

1

2(1− a+ d),

1

2(1 + a+ d)) ⊂ Q .

Insbesondere gilt [12 − s, 12 + s] ⊂ Q für alle s ∈ (a, 12(a+ d)), was ein Widerspruch zur Definitionvon a ist.

Satz 3.23 Seien X,Y Banachräume, sei U ⊂ X offen, und sei G stetig Fréchet-differenzierbarin U . Sei ρ > 0 und Bρ(x

0) ⊂ U . Seien damit mit den Konstanten K,L, b die folgenden quan-titativen Annahmen erfüllt:

4Beispiele sind: G invertierbar, DG(x) invertierbar (unter Voraussetzungen!), G kompakt, DG(x) kompakt, Goffen, DG(x) offen,. . .

5K heisst strikt konvex, wenn für alle u, v ∈ K,u 6= v, und t ∈ (0, 1) tu+ (1− t)v ∈ int(K) gilt.

74

Page 81: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

(1) ‖G(x0)‖ ≤ ρb

(2) ‖DG(u)−DG(v)‖ ≤ L‖u− v‖ , u, v ∈ Bρ(x0)

(3) sur(DG(x)) > 1/b , x ∈ Bρ(x0) .

Dann hat die Gleichung G(x) = θ eine Lösung in Bρ(x0) .

Beweis:Wir wollen Satz 3.20 anwenden für U := Bρ(x

0) und ωk := ω ∈ (0, 1), k ∈ N0 . Die Wahl von ωist noch geeignet zu treffen. Wir haben dazu sicherzustellen, dass

1 > κ(ω) := 1− ω +1

2ω2Lab2 , ρ > τ∗(ω) := ω

ab

1− κ=

2ab

2− ωLab2

gilt. Dazu setze

ω := min(1,2

Lab2(1− abρ−1)) > 0

und wähle ω ∈ (0, ω) . Dann sind alle Voraussetzungen von Satz 3.20 erfüllt und wir haben eineLösung x∗(ω) der Gleichung G(x) = θ in Bτ∗(ω) ⊂ Bρ(x

0) .

Satz 3.24 (Konvexitätsprinzip, Polyak, 2003) Seien X,Y Hilberträume, sei U ⊂ X offen,und sei G stetig Fréchet-differenzierbar in U . Sei z ∈ U und R > 0 mit BR(z) ⊂ U . Seien damitmit den Konstanten L, b die folgenden quantitativen Annahmen erfüllt:

(1) ‖DG(u)−DG(v)‖ ≤ L‖u− v‖ , u, v ∈ BR(z)

(2) sur(DG(z)) > 1/c .

Sei nun r ∈ (0,min( 12cL , R) . Dann gilt:

(a) G(BR(z)) ist strikt konvex.

(b) G(BR(z)) ist offen.

Beweis:Setze 1/b := 1/c− Lr > 0 . Dann gilt sur(DG(x)) > 1/b, x ∈ Br(z) , denn mit Lemma

sur(DG(x)) ≥ sur(DG(z))− ‖DG(x)−DG(z)‖ > 1/c− L‖x− z‖ ≥ 1/c− Lr , x ∈ Br(z) .

Zu (a) Seien x0, x1 ∈ Br(z) . Setze

y0 := G(x0), y1 := G(x1) , x1/2 :=1

2(x0 + x1), y1/2 :=

1

2(y0 + y1) .

Setze ρ :=‖x0 − x1‖

8r . Dann haben wir Bρ(x1/2) ⊂ Br(z)6 und

yi = G(x1/2) +DG(x1/2)(xi − x1/2) +Ri , ‖Ri‖ ≤ 1

2L‖xi − x1/2‖2 =

1

8L‖x0 − x1‖2 , i = 0, 1 .

Wir setzen R1/2 :=12(R0 +R1) und erhalten

‖R1/2‖ ≤ 1

2(‖R0‖+ ‖R1‖) ≤

1

8‖x0 − x1‖ .

6Hier wird benutzt, dass ein Hilbertraum gleichmäßig konvex ist. Dies folgt aus der Parallelogrammidentitätsofort.

75

Page 82: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Ferner gilt mit Lr = 2Lr − Lr < 1/c− Lr = 1/b

‖G(x1/2)− y1/2‖ ≤ 1

8‖x0 − x1‖2 = ρLr < ρb−1 .

Wir betrachten nun G : Bρ(x1/2) 3 x 7−→ G(x) − y1/2 ∈ Y . Aus Satz 3.23 folgt die Existenzvon x∗ ∈ Bρ(x1/2) mit G(x∗) = y1/2 und daher y1/2 ∈ G(BR(z)) . Nun ist G(x∗) = y1/2 mitx∗ ∈ Br(z) . Also folgt y1/2 ∈ int(G(Br(z))) . Damit folgt die Konvexität von G(Br(z)) ausLemma 3.22.Sei x ∈ Br(z) und setze y := G(x) . Dann gibt es r > 0, so dass Br(z) ⊂ Br(z) . Sei y ∈ Y mit‖G(x)− y‖ < rb−1 . Dann können wir Satz 3.23 auf G : Br(x) 3 x 7−→ G(x)− y ∈ Y anwendenund erhalten x ∈ Br(x) mit G(x) = y . Dies zeigt

Bxb−1(y) ⊂ G(Br(x)) ⊂ G(Br(z))

und daher ist y ein innerer Punkt von G(Br(z)) .

3.7 Anhang: Äußere Inverse

Wir fassen hier Ergebnisse zur Existenz und zu Eigenschaften einer äußeren Inversen zusammen.Nicht zu allen Ergebnissen werden wir die Beweise anführen.

Definition 3.25 Seien X,Y Banachräume und seien T ∈ B(X,Y ), S ∈ B(Y,X) . Wir nennenS eine äußere Inverse von T falls STS = S . Wir schreiben dann T# := S .

Äußere Inverse sind nicht eindeutig bestimmt. Beispielsweise ist der Nulloperator stets eine äußereInverse. Ist ein Operator T ∈ B(X,Y ) stetig invertierbar, dann ist diese Inverse auch eine äußereInverse.

Lemma 3.26 Seien X,Y Banachräume, sei T ∈ B(X,Y ), und sei S ∈ B(Y,X) eine äußereInverse. Dann gilt:

(1) (ST )(ST ) = (ST ) , (TS)(TS) = (TS) .

(2) ran(ST ) = ker(I − ST ) , ran(TS) = ker(I − TS) .

(3) X = ker(ST )⊕ ran(ST ) , Y = ker(TS)⊕ ran(TS) .

(4) ker(TS) = ker(S) , ran(ST ) = ran(S) .

Beweis:Zu (1),(2),(3) Sei P ∈ TS, ST . Klar, P ist linear stetig und offenbar gilt PP = P (P ist einProjektor). Damit folgen (2),(3) in wohlbekannter Weise.Zu (4) Aus STS = S folgt

S−1(θ) ⊂ S−1(T−1(θ)) = (TS)−1(θ) ⊂ (TS)−1(S−1(θ)) = (STS)−1(θ) = S−1(θ)

undS(Y ) = (STS)(Y ) = (ST )(S(Y )) ⊂ (ST )(X) = S(T (X)) ⊂ S(Y )

Zur Erinnerung: Der Rang eines linearen Operators T ist die Dimension seines Bildes, also

rank(T ) = dim ran(T ) .

76

Page 83: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Lemma 3.27 Seien X,Y Banachräume und sei T ∈ B(X,Y ) . Dann gilt:

(1) Für alle k ∈ Z, 0 ≤ k ≤ rank(T ), existiert eine äußere Inverse S von T mit k = rank(S) .

(2) Es gibt eine äußere Inverse S von T mit rank(S) = ∞ genau dann, wenn ein abgeschlossenerlinearer Teilraum X0 von X existiert, so dass X0∩ker(T ) = θ gilt und der lineare TeilraumY0 := T (X0) von Y ein Komplement in Y besitzt.

Beweis:Siehe [36], Theorem 2.3.

Lemma 3.28 Seien X,Y Banachräume, sei T ∈ B(X,Y ) und sei T# eine äußere Inverse vonT . Ferner sei S ∈ B(Y,X), und es gelte: ‖T#(T −S)‖ < 1 . Dann ist I−T#(T −S) invertierbarund durch

S# := (I − T#(T − S))−1T#

wird eine äußere Inverse von S definiert mit

ker(S#) = ker(T#) , ran(S#) = ran(T#)

und es gilt:

‖S#T‖ ≤ 1

1− ‖T#(T − S)‖Beweis:Sei R := I−T#(T−S) . Da ‖T#(T−S)‖ < 1 gilt, hat R eine beschränkte Inverse (NeumannscheReihe!). Also ist S# wohldefiniert. Da T# eine äußere Inverse von T ist, folgt T#TR = T#Sund daher T#SR−1 = T#T . Nun erhalten wir

S#SS# = R−1T#SR−1T# = R−1T#TT# = R−1T# = S# .

Also ist S# eine äußere Inverse von S .ker(S#) = ker(T#) folgt unmittelbar aus S# = R−1T# . Die Gleichheit ran(S#) = ran(T#) istoffenbar äquivalent zu

ker(I − S#S) = ker(I − T#T ) ,

eine Aussage, die wir nun beweisen wollen.Sei (I − T#T )(x) = θ . Dann ergibt sich

RS#S(x) = T#S(x) = T#ST#T (x) = (T#TT# − T#(T − S)T#)(T (x))

= (I − T#(T − S))(T#T (x))) = R(x)

Da R invertierbar ist, gilt (I − S#S)(x) = θ .Sei (I − S#S)(x) = θ . Setze Q := I − S#(S − T ) . Man erhält in analoger Weise R−1T#T (x) =Q(x) . Daraus ergibt sich

RQ = R(I −R−1T#(S − T )) = R− T#(S − T ) = I .

Also ist Q−1R .Wir haben

‖S#T‖ = sup‖R−1T#Tx‖|x ∈ X, ‖x‖ = 1= sup‖R−1T#Tx‖|x ∈ ker(I − T#T ), ‖x‖ = 1= sup‖R−1x‖|x ∈ ker(I − T#T ), ‖x‖ = 1= sup‖R−1x‖|x ∈ X, ‖x‖ = 1

= ‖R−1‖ =1

1− ‖T#(T − S)‖

77

Page 84: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Lemma 3.29 Seien X,Y Banachräume, seien T, S ∈ B(X,Y ) und seien T#, S# äußere Inversevon T bzw. S . Dann sind äquivalent:

(1) S#(I − TT#) = 0 .

(2) ker(T#) ⊂ ker(S#) .

Beweis:Wir haben

S#(I − TT#) = 0 ⇐⇒ S#(I − TT#)|ker(TT#) = 0 ⇐⇒ S#|ker(TT#)

= 0

⇐⇒ S#|ker(T#)

= 0 ⇐⇒ ker(T#) ⊂ ker(S#)

Bemerkung 3.30 Es gibt viele Versuche, einen Ersatz für die Inverse eines nichtinvertierbearenlinearen Operators zu definieren. Hier ist eine Art Klassifikation.

Seien X,Y Hilberträume – Hilberträume setzen wir voraus, um die Adjungierte eines Opera-tors auf den Ausgangsräumen zur Verfügung zu haben – und seien T ∈ B(X,Y ), S ∈ B(Y,X) .Betrachte folgende Eigenschaften:

TST = T (1)STS = S (2)

(TS)∗ = TS (3)(ST )∗ = ST (4)

Sei M die Menge der Gleichungen, die gültig sind für das Paar (T, S) . Wir nennen S eineM-Inverse für T, falls M 6= ∅ ist. Beispielsweise:

(1) Eine 1-Inverse wird innere Inverse genannt.

(2) Eine 2-Inverse wird äußere Inverse genannt; siehe oben.

(3) Eine 1, 2, 3, 4-Inverse wird Moore-Penrose-Inverse genannt.

3.8 Anhang: Surjektivitäts- und Injektivitätsmodul

Wir haben die Newtoniteration

DG(xk)vk = −G(xk) , xk+1 := xk + vk , k ∈ N0 , (3.42)

für die GleichungG(x) = θ (3.43)

betrachtet. Wenn die Gleichung DG(xk)vk = −G(xk) lösbar ist, ist die Iteration definiert; dieSurjektivität von DG(xk) reicht dafür aus. Ist diese Gleichun3.15g nicht eindeutig lösbar, stelltsich aber die Frage der Auswahl einer Lösung. Als vernünftige Auswahl könnte

vk := argmin‖v‖|v ∈ X,DG(xk)vk = −G(xk)

angesehen werden. Hier stellt sich dann im unendlichdimensionalen Kontext wieder eine Exi-stenzproblem. Für damit zusammenhängende Fragen dienen die folgenden Ergebnisse.

78

Page 85: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Definition 3.31 Seien X,Y Banachräume und sei T ∈ B(X,Y ) . Dann heißen

inj(T ) := inf‖Tx‖|‖x‖ = 1 , sur(T ) := sups ≥ 0|Bs ⊂ T (B1)

der Injektivitätsmodul bzw. der Surjektivitätsmodul von T .

Lemma 3.32 Seien X,Y Banachräume und sei T ∈ B(X,Y ) . Dann sind äquivalent:

(a) T ist injektiv und hat abgeschlossenes Bild.

(b) inj(T ) > 0 .

Beweis:Sei Z := ran(T ) . Z ist ein normierter linearer Teilraum von Y . Zu (a) =⇒ (b) Z ist einBanachraum und T : X 3 x 7−→ Tx ∈ Z kann als bijektiver linearer stetiger Operatorbetrachtet werden. Nach dem Satz über die stetige Inverse (siehe [41]) hat T eine stetige lineareInverse und es gibt c > 0 mit ‖T−1z| ≤ c‖z‖ für alle z ∈ Z . Also haben wir inj(Z) ≥ c−1 > 0 .Zu (b) =⇒ (a) Die Injektivität ist klar. Sei (zn)n∈N eine Folge in Z mit limn zn = z . Da Tinjektiv ist, gibt es eine Folge (xn)n∈N mit Txn = zn, n ∈ N . Wegen

‖zm − zn‖ = ‖Txm − Txn‖ ≥ inj‖xm − xn‖ , m, n ∈ N

ist (xn)n∈N eine Cauchyfolge in X . Sei x := limn xn . Dann folgt mit der Stetigkeit von Tx =limT xn = limn zn = z . Also ist ran(T ) abgeschlossen.

Hier ist eine etwas erweiterte Fassung des Satzes über die Offenheit linearer Abbildungen.

Satz 3.33 Seien X,Y Banachräume und sei T ∈ B(X,Y ) . Dann sind äquivalent:

(a) T ist surjektiv.

(b) T ist eine offenen Abbildung.

(c) sur(T ) > 0 .

(d) Es gibt Q : Y −→ X (Rechtsinverse, nicht notwendigerweise linear) mit TQ = I .

Zusatz zu (d): Ist b ∈ (0,∞) mit b−1 < sur(T ), dann ist ‖Qy‖ ≤ b‖y‖ für alle y ∈ Y .

Beweis:Zu (a) =⇒ (b) Dies ist Inhalt des klassischen Satzes über die Offenheit von bijektiven stetigenlinearen Operatoren; siehe etwa [6, 41].Zu (b) =⇒ (a), (b) =⇒ (c), (d) =⇒ (a) Trivial.Zu (c) =⇒ (d) Sei b−1 ∈ (0, sur(T )) . Dann ist offenbar Bb−1\Bb−1 ⊂ T (B1) . Definiere Q :Y −→ X in folgender Weise:

Q(y) := θ, falls y = θ , Q(y) := b‖y‖x wobei T x = y mit y = b−1‖y‖−1y ∈ Bb−1\Bb−1 , für y 6= θ .

Dann gilt T (Q(y)) = y für alle y ∈ Y . Q ist also eine Rechtsinverse von T . Ferner

‖Q(y)‖ = b‖y‖ , y ∈ Y .

Lemma 3.34 Seien X,Y Banachräume und sei T ∈ B(X,Y ) . Dann gilt:

inj(T ) = sur(T ∗) , sur(T ) = inj(T ∗)

79

Page 86: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Beweis:Wir beweisen nur die zweite Gleichheit; für einen Beweis der ersten Identität siehe [32].Es gilt

sur(T ) > 0 ⇐⇒ ran(T ) = Y, ran(T ) abgeschlossen⇐⇒ ker(T ∗) = θ, ran(T ∗) abgeschlossen ⇐⇒ inj(T ∗) > 0 .

Dies zeigt insbesondere sur(T ) = 0 genau dann, wenn inj(T ∗) = 0 ist. Es bleibt die zweiteUngleichung zu zeigen unter der Bedingung sur(T ) > 0, inj(T ∗) > 0 .Zu sur(T ) ≤ inj(T ∗) . Sei s ∈ (0, sur(T )) .Sei λ ∈ X∗ mit ‖λ‖ = 1 und sei ϑ ∈ (0, 1) . Dann können wir y ∈ B1 wählen mit |〈λ, y〉| ≥ ϑ .Wegen Bs ⊂ T (B1) finden wir x ∈ Bs−1 mit Tx = y . Da sx ∈ B1 ist, folgt

‖T ∗λ‖ ≥ |〈T ∗(λ), sx〉| = s|〈λ, Tx〉| = s|〈λ, y〉| ≥ sϑ .

Daraus folgt sur(T ) ≤ inj(T ∗) durch Bildung der Suprema bzgl . ϑ, λ und s .Zu sur(T ) ≥ inj(T ∗) . Sei s ∈ (0, inj(T ∗)) .

Annahme: Es gilt nicht Bs ⊂ T (B1) .

Dann gibt es z ∈ Bs mit z /∈ C := T (B1) . Mit dem Satz von Hahn-Banach für konvexe Mengen(siehe [6, 41]) folgt die Existenz von λ ∈ Y ∗ mit

〈λ, y〉 ≤ 1 ≤ 〈λ, z〉 für alle y ∈ C .

Also

‖T ∗λ‖ = supx∈X,‖λ‖≤1

|〈T ∗λ, x〉| = supx∈X,‖x‖≤1

|〈λ, Tx〉| ≤ supy∈C

|〈λ, y〉| ≤ 1 < λ, z〉 ≤ s‖λ‖ ,

also ‖T ∗(λ‖λ‖−1)‖ < s < inj(T ∗) , was der Definition von inj(T ∗) widerspricht.Also gilt nun Bs ⊂ T (B1) . Daraus schließt man

Bϑs ⊂ T (B1) , ϑ ∈ (0, 1) .

Dies zeigt sur(T ) ≥ ϑs . Daraus folgt sur(T ) ≥ inj(T ∗) .

Lemma 3.35 Seien X,Y Banachräume und seien T, S ∈ B(X,Y ) . Dann gilt:

|inj(T )− inj(S)| ≤ ‖T − S‖ , |sur(T )− sur(S)| ≤ ‖T − S‖

Beweis:Zur ersten Abschätzung: O.E. können wir annehmen: inj(T ) ≥ inj(S) . Dann haben wir

inj(S) = infx∈X,‖x‖=1

‖Sx‖ ≥ infx∈X,‖x‖=1

(‖Tx‖ − ‖Tx− Sx‖)

≥ infx∈X,‖x‖=1

‖Tx‖ − supx∈X,‖x‖=1

‖(T − S)x‖ = inj(T )− ‖T − S‖

also|inj(T )− inj(S)| = inj(T )− inj(S) ≤ ‖T − S‖ .

Zur zweiten Abschätzung: Wenn wir die Identitäten aus Lemma 3.34 und die eben bewieseneerste Abschätzung nutzen, folgt

|sur(T )− sur(S)| = |inj(T ∗)− inj(S∗)| ≤ ‖T ∗ − S∗‖ = ‖T − S‖

80

Page 87: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

3.9 Übungen

1.) Betrachte das Polynom f(x) := x3 − 3x2 + 3x − 1 und dazu die Nullstellengleichungf(x) = 0 .

(a) Berechne zwei Newtonnäherungen x1, x2, ausgehend vom Startwert x0 := 1.1 .

(b) Zeige, dass das Newtoverfahren für alle Startwerte x0 ∈ R konvergiert.(c) Welche Nullstellen hat das Polynom f .

2.) Betrachte in R die Gleichung5− x =

x√x2 − 1

.

Löse diese Gleichung mit einer Genauigkeit von 10−2 .

3.) Betrachte die Funktion f(x) := sin(x) − 0.5x − 0.1 und dazu die Nullstellengleichungf(x) = 0 .

(a) Zeige: f hat eine Nullstelle x∗ in (0, 0.3) .

(b) Zeige: |x0 − x∗| < 0.2 für x0 := 0.1 .

(c) Zeige für die Newtoniterierten (xn)n∈N (Startwert x0 := 0.1)

|xn+1 − x∗| ≤ 2

3|xn − x∗|2, n ∈ N0 , |xn − x∗| < 0.2, n ∈ N ,

und limn xn = x∗ .

4.) Sei f : R −→ R stetig differenzierbar. Betrachte mit einem Startwert x0 dazu dieIteration

xk+1 := xk − f(xk)2

f(xk)− f(xk − f(xk)), k ∈ N0 .

Zeige: limk xk = x∗, wenn f nur eine einfache Nullstelle besitzt.

5.) Sei f : R 3 x 7−→ cosh(x)− 2 ∈ R . Für welche Starwerte x0 konvergiert die Newtonite-ration?

6.) Betrachte das Gleichungssystem

x2 + y2 − 9 = 0 , x+ y − 1 = 0 .

(a) Zeige: Es gibt genau zwei Lösungen.(b) Schreibe das Newton–Verfahren zur Lösung des Systems auf.(c) Gib zu jeder Lösung einen Startwert an, so dass das Newton-Verfahren gegen diese

Lösung konvergiert.

7.) Betrachte

F (x, y, z) := (x cos(y)− z, x2 + z, ex+z sin(y

2+ z)) , (x, y, z) ∈ R3 .

(a) Gib mindestens zwei Lösungen für die Gleichung

F (x, y.z) = θ

an.

(b) Formuliere das Newton–Verfahren mit Startwert (1

4, π2 ,−

1

2) zur Berechnung einer

Nullstelle und berechne damit eine Nullstellennäherung (x, y, z) mit |F (x, y, z)| <10−2 .

81

Page 88: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

8.) Für eine invertierbare Matrix A ∈ Rn,n ist die MatrixX := A−1 offensichtlich eine Lösungder (nichtlinearen) Gleichung

X−1 −A = Θ . (3.44)

Zeige:

(a) Die IterationXn+1 := Xn +Xn(E −AXn) , n = 0.1, . . . , (3.45)

stellt das Newton–Verfahren zur Lösung von (3.44) dar.(b) Für jede Startmatrix X0 mit ‖E − AX0‖ ≤ q < 1 (‖ · ‖ ist eine Matrixnorm)

konvergiert die in (3.45) erklärte Folge (Xn)n∈N gegen die Matrix A−1 und es geltendie Abschätzungen

‖Xn −A−1‖ ≤ (1− q)−1‖X0‖‖E −AXn‖ ≤ (1− q)−1‖X0‖q2n , n = 0, 1, . . . .

9.) Sei X ein normierter Raum und sei F : X −→ X Fréchet-differenzierbar. Betrachte dieNewton-Iteration:

xn+1 := xn −DF (xn)−1F (xn), n ∈ N0;x0 Startwert .

Die Iterationsfolge (xn)n∈N sei wohldefiniert und konvergent mit Grenzwert x∗ . Zeige: IstDF stetig in x∗, so gilt F (x∗) = θ .

10.) Sei X ein normierter Raum und sei F : X −→ X zweimal Fréchet-differenzierbar.Betrachte die Newton-Iteration:

xn+1 := xn −DF (xn)−1F (xn), n ∈ N0;x0 Startwert .

Die Iterationsfolge (xn)n∈N sei wohldefiniert und konvergent mit Grenzwert x∗ . Zeige: IstD2F beschränkt in einer Umgebung von x∗, so gilt F (x∗) = θ .

11.) Betrachte die Funktion

F : (0,∞) 3 x 7−→ x1+1/n

1 + 1/n+ c1x+ c0 ∈ R

mit c1, c0 > 0 . Sei x0 ∈ (0,∞). Zeige:

(a) F ist nicht Lipschitzstetig.(b) Es gibt L ≥ 0 mit

|DF (x0)−1(DF (x)−DF (x0))| ≤ L|x− x0|, , x ∈ (0,∞) .

12.) Betrachte im Banachraum X := C[0, 1] (versehen mit der Maximumsnorm) die Integral-gleichung F (x) = θ mit

F (x)(t) :=1

4x(t)

∫ 1

0

t

t+ sx(s)ds+ 1− x(t), t ∈ [0, 1] .

Berechne die Konstanten in den Voraussetzungen des Satzes von Kantorovich in x0 mitx0(t) = 1, t ∈ [0, 1] .

13.) Betrachte die Funktion F : R −→ R mit

F (t) :=1

6t3 +

1

6t2 − 5

6t+

1

3, t ∈ R .

Zeige: F hat eine Nullstelle in R und zwei Nullstellen in C .

82

Page 89: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

14.) Betrachte die Abbildung G : R2 3 (x1, x2) 7−→ (x1x2 − x1, x1x2 + x2) ∈ R2 . Zeige: Esgibt r∗ > 0 mit

G(Br) ist konvex für alle r ∈ [0, r∗] .

15.) Sei X ein Banachraum und sei K ⊂ X abgeschlossen. Zeige: K ist konvex genau dann,wenn 1

2(x1 + x2) ∈ K gilt für alle x1, x2 ∈ K .

16.) Sei X ein gleichmäßig konvexer Banachraum mit Konvexitätsmodul

δX(ε) := inf1− 1

2‖x1 + x2‖ |x1, x2 ∈ B1, ‖x1 − x2‖ ≥ ε ≥ cε2 , ε ∈ (0, 2] (c > 0) .

Zeige: Für alle x0, x1, x2 ∈ X, r > 0, mit x1, x2 ∈ Br(x0) gilt mit s :=c‖x1 − x2‖2

r12(x1 + x2) ∈ Br(x0) .

17.) Betrachte das Polynom f : C 3 z 7−→ z3 − 1 ∈ C .

(a) Berechne die Nullstellen von f .(b) Die Übertragung des Newtonverfahrens zur Berechnung der Nullstellen ist:

zk+1 = zk − f ′(zk)f(zk), k = 0, 1, . . . ; z0 Startwert

Betrachte S0,k := z0|zk = 0, k = 0, 1, . . . , und bestimme ein z0 ∈ S0,1 .

(c) Bestimme #S0,k, k = 0, 1, . . . .

18.) Betrachte die Abbildung f : R 3 x 7−→ x(1− |x|) ∈ R .

(a) Berechne die Nullstelle(n) von f .(b) Ist f differenzierbar?(c) Ist der Satz von Kantorovich anwendbar für x0 ∈ [−1

2 ,12 ]?

19.) Sei a ∈ R, b ∈ (0, 1) . Zeige, dass die Gleichung

x = a+ b sin(x)

genau eine Lösung besitzt.

3.10 Bibliographische und historische Anmerkungen

Die Literatur zum Newtonverfahren und zum Satz von Kantorovich ist dank der Qualität desVerfahrens bzw. des Satzes umfangreich. Grundzüge der historischen Entwicklung findet manetwa in [13, 42]. Hier sind einige Anmerkungen zu unterschiedlichen Entwicklungen.

Beweistechniken zum Newtonverfahren und zum Satz von Kantorovich und Anwendungenfindet man etwa in [3, 11, 12, 19, 31, 33, 34, 35]. Verbindungen zum Satz der inversen Funktionwerden beschrieben in [7, 10, 17, 22]. Hier ordnet sich auch das Verfahren von Moser ein; siehe[21, 27] ein.

Das deformierte Newtonverfahren im Reellen (siehe [20]) wird auf Banachräume übertragen in[25]. Inexakte Varianten werden beschrieben in [16, 18]. Verbindungen zwischen den Nullstellen-sätzen von Kantorovich, Miranda und Borsuk werden diskutiert in [1, 26]. Die Verallgemeinerungdes Satzes von Kantorovich in den Kontext von Mannigfaltigkeiten ist zu finden in [8]. Konti-niuierliche Analoga werden u. a. beschrieben in [9, 30].

Zu den Abschnitten 3.5, 3.6, 3.8, 3.7 siehe [4, 33, 28, 29, 32, 36, 40]. Wir folgen im wesentlichen[15],

83

Page 90: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Literaturverzeichnis

[1] G. Ahlefeld, A. Frommer, G. Heindl, and J. Mayer. On the existence theorems ofKantorovich, Miranda and Borsuk. Electronic transactions on numerical analysis, 17:102–111, 2004.

[2] M. Anitescu, D.L. Coroian, M.Z. Nashed, and F.A. Potra. Outer inverses and multi-bodysystem simulation. Numer. Funct. Anal. Optim., 17:661–678, 1996.

[3] I.K. Argyros. On a theorem of I.V. Kantorovich concerning Newton’s method. J. Comp.Applied Math., 155:223–230, 2003.

[4] I. Banakh, T. Banakh, A. Plichko, and A. Prykarpatsky. On the local convexity of nonlinearmappings between Banach spaces. Centr. Eur. J. Math., 10:2264–2271, 2012.

[5] J. Baumeister. Inverse problems in finance. In Recent Developments in ComputationalFinance: Foundations, Algorithms and Applications, volume 14 of Interdisciplinary Mathe-matical Sciences. World Scientific, 2012.

[6] J. Baumeister. Funktionalanalysis. Goethe–Universität Frankfurt/Main, 2013. Skriptumeiner Vorlesung.

[7] M. Berti, P. Bolle, and M. Processi. An abstract Nash-Moser theorem with parameters andapplications to PDEs. Annales IHP (C), 27:377–399, 2010.

[8] T. Bittencourt and O.P. Ferreira. Robust Kantorovich’s theorem on Newton’s methodunder majorant conditions in Riemannian manifolds. arXiv:1505.0557301 [math.OC], 21.May 2015.

[9] L. Bittner. Einige kontinuierliche Analogien von Iterationsverfahren. In International Seriesof Numerical Mathematics, pages 114–135, Basel, 1967. Birkhäuser.

[10] A. Castro and J. Neuberger. An inverse function theorem via continuous Newton’s method.Nonlinear Analysis, 47:3223–3229, 2001.

[11] X. Chen and M.Z. Nashed. Convergence of Newton-like methods for singular operatorequations using outer inverses. Numer. Math., 66:235–257, 1993.

[12] P.G. Ciarlet and C. Mardare. On the Newton-Kantorovich theorem. Analysis and Applica-tions, 10:249–269, 2012.

[13] P. Deuflhard. A short history of Newton’s method. Documenta Mathematica, Extra volumeISMP:25–30, 2012.

[14] P. Deuflhard and G. Heindl. Affine invariant convergence theorems for Newton’s methodand extensions to related methods. SIAM J. Numer. Anal., 16:1–10, 1979.

84

Page 91: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

[15] K. Dietrich. Variants of the Newton-Kantorovich theorem. Technische Universität München,2013. Bachelorarbeit.

[16] S.C. Eisenstat and H.F. Walker. Choosing the forcing terms in an inexact newton method.SIAM J. Sci. Computing, 17:16–32, 1994.

[17] I. Ekeland. An inverse function theorem in Fréchet spaces. Annales IHP (C), 28:91–105,2011.

[18] O.P. Ferreira and B.F. Svaiter. A robust Kantorovich’s theorem on inexact Newton methodwith relative residual error tolerance, 2011. arXiv:1110.3430v1 [math.NA] 15 Oct 2011.

[19] O.P. Ferreira and B.F. Svaiter. Kantorovich’s theorem and Newton’s method, 2012. ar-Xiv:1209.5704v1 [math.NA] 25 Sep 2012.

[20] M. Frontini and E. Sormani. Some variants of Newton’s method with third-order conver-gence. Applied Mathematics and Computation, 140:419–426, 2003.

[21] O.H. Hald. On a Newton-Moser type method. Numerische Mathematik, 23:411–426, 1975.

[22] R.S. Hamilton. The inverse function teorem of Nash-Moser. Bull. Amer. Math. Soc., 7:65–222, 1982.

[23] L.V. Kantorovich. On Newton’s method for functional equations. Akad. Nauk. SSSR,59:1237–1240, 1948.

[24] L.V. Kantorovich and G.P. Akilov. Functional analysis in normed spaces. Pergamon, NewYork, 1964.

[25] R. Lin, Y. Zhao, Z. Smarda, Y. Khan, and Q. Wu. Newton-Kantorovich and Smale uniformtype convergence theorem for a deformed Newton method in Banach spaces. Abstract andApplied Analysis, page 8 pages, 2013.

[26] J. Mayer. A generalized theorem of miranda and the theorem of newton-kantorovich. Com-puting, 23:313–357, 2002.

[27] J. Moser. A rapidly convergent iteration method and non-linear differential equations. Ann.Scuola Norm. Sup. Pisa, 20:499–535, 1966.

[28] V. Müller. Spectral Theory of Linear Operators and Spectral Systems in Banach Algebras.Birkhäuser, Basel, 2007.

[29] M.Z. Nashed. Inner, outer and generalized inverses in Banach and Hilbert spaces. Numer.Funct. Anal. Optim., 9:261–325, 1987.

[30] J. Neuberger. Continuous newton’s method for polynomials. Math. Intelligencer, 21:18–23,1999.

[31] J.M. Ortega. The Newton-Kantorovich Theorem. The American Mathematical Monthly,75:658–660, 1968.

[32] A. Pietsch. Operator Ideals. North-Holland, Amsterdam, 1980.

[33] B.T. Polyak. Gradient methods for solving equations and inequalities. USSR Comp. Math.Phys., 4:17–32, 1964.

85

Page 92: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

[34] B.T. Polyak. Convexity principle and its applications. Bull. Braz. Math. Soc., 34:59–75,2003.

[35] B.T. Polyak. Newton-Kantorovich method and its global convergence. J. of Math. Sciences,133:1513–1523, 2006.

[36] B. Shekhtman. On some problems of m. z. nashed on outer inverses. Linear Algebra,76:149–152, 1986.

[37] S. Smale. A convergent process of price adjustment and global newton methods. J. Math.Econom., 3:107–120, 1976.

[38] P. Spellucci. Numerische Verfahren der nichtlinearen Optimierung. Birhäuser, Basel, 1993.

[39] R.A. Tapia. The Kantorovich Theorem for Newton’s method. The American MathematicalMonthly, 78:389–392, 1971.

[40] A. Uderzo. On the Polyak convexity principle and its applications to variational analysis.arXiv:1303.7443[math.OC], 2013.

[41] D. Werner. Funktionalanalysis. Springer, 2002.

[42] T. Ypma. Historical developments of th Newton-Raphson method. SIAM Review, 124:1–23,2000.

86

Page 93: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Kapitel 4

Nichtexpansive Operatoren

Der Banachsche Fixpunktsatz handelt von Kontraktionen, also lipschitzstetigen Abbildungenmit Lipschitzkonstante L . In diesem Kapitel studieren wir solche Abbildungen mit Lipschitz-konstante L ≤ 1; wir nennen solche Abbildungen nichtexpansiv. Die Konstruktion von Fix-punkten bei nichtexpansiven Abbildungen ist der Funktionalanalysis und der Konvexen Analysiszuzuordnen. Anwendungen findet man in der Approximations- und Optimierungstheorie, in derBildbearbeitung, in der Signalverarbeitung und bei schlechtgestellten Problemen.

Siehe [4, 3, 2], [4, 1, 5, 6]

Geplant, aber nicht vorgetragen!

4.1 Einführung

4.2 Lineare nichtexpansive Operatoren

4.3 Einige allgemeine Ergebnisse im nichtlinearen Fall

4.4 Iterationsverfahren bei nicht expandierenden Abbildungen

4.5 Anwendungen

4.6 Anhang: Quadratwurzel eines linearen Operators

4.7 Übungen

4.8 Bibliographische und historische Anmerkungen

87

Page 94: Aspekte der konvexen und nichtlinearen Analysisbaumeist/kn-shell.pdf · Hinzu kommt in der angewandten Mathematik die Forderung nach der stabilen (approximati-ven) Berechnung einer

Literaturverzeichnis

[1] H. H. Bauschke. The approximation of fixed points of compositions of nonexpansive mappingsin Hilbert space. J. Math. Anal. and Appl., 202:150–159, 1996.

[2] L. Bittner. Einige kontinuierliche Analogien von Iterationsverfahren. In International Seriesof Numerical Mathematics, pages 114–135, Basel, 1967. Birkhäuser.

[3] C. Böckmann and P. Pornsawad. Iterative Runge-Kutta-type methods for nonlinear ill-posedproblems. Inverse Problems, 24:1–17, 2008.

[4] F. Browder and W. Petryshyn. Construction of fixed points of nonlinear mappings in Hilbertspace. J. Math. Anal. Appl., 20:197–228, 1967.

[5] K. Goebel and W.A. Kirk. Topics in metric fixed point theory. Cambridge University Press,Cambridge, 1990.

[6] N.M. Gulevich. Fixed points of nonexpansive mappings. Journal of Mathematical Sciences,79:755–815, 1996.

88