366
Mathematik f¨ ur Studierende der Ingenieurwissenschaften II Wolfgang Mackens & Heinrich Voß Arbeitsbereich Mathematik der Technischen Universit¨ at Hamburg–Harburg 1998

Mathematik f¨ur Studierende der Ingenieurwissenschaften II · Mathematik f¨ur Studierende der Ingenieurwissenschaften II Wolfgang Mackens & Heinrich Voß Arbeitsbereich Mathematik

  • Upload
    tranque

  • View
    228

  • Download
    0

Embed Size (px)

Citation preview

Mathematik fur Studierende

der Ingenieurwissenschaften II

Wolfgang Mackens & Heinrich Voß

Arbeitsbereich Mathematik

der Technischen Universitat Hamburg–Harburg

1998

Inhaltsverzeichnis

1 Grundlagen 1

1.1 Aussagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.2 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.3 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.4 Die reellen Zahlen IR . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.4.1 Algebraische Eigenschaften . . . . . . . . . . . . . . . . . . . 18

1.4.2 Ordnungseigenschaften . . . . . . . . . . . . . . . . . . . . . 19

1.4.3 Betrage, Vollstandigkeit . . . . . . . . . . . . . . . . . . . . 20

1.5 Die naturlichen Zahlen IN . . . . . . . . . . . . . . . . . . . . . . . 21

1.6 Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

1.6.1 Rechnen mit komplexen Zahlen . . . . . . . . . . . . . . . . 29

1.6.2 Zahlenebene . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

1.6.3 Polardarstellung . . . . . . . . . . . . . . . . . . . . . . . . . 32

1.6.4 Wurzeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

2 Vektorrechnung 38

2.1 Vektoren im 2- und 3-dim. Anschauungsraum . . . . . . . . . . . . 38

2.2 Allgemeine Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . 64

2.2.1 Definition und Beispiele . . . . . . . . . . . . . . . . . . . . 66

2.2.2 Teilraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

2

INHALTSVERZEICHNIS 3

2.2.3 Basis, Dimension . . . . . . . . . . . . . . . . . . . . . . . . 72

2.2.4 Isomorphie von Vektorraumen . . . . . . . . . . . . . . . . . 80

2.2.5 Euklidische Vektorraume . . . . . . . . . . . . . . . . . . . . 82

2.2.6 Normierte Vektorraume . . . . . . . . . . . . . . . . . . . . 91

2.2.7 Lineare Mannigfaltigkeiten . . . . . . . . . . . . . . . . . . . 94

2.2.8 Komplexe Vektorraume . . . . . . . . . . . . . . . . . . . . . 96

4 Matrizen 121

4.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . 123

4.2 Das Matrizenprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . 134

4.3 Lineare Gleichungssysteme und Inverse . . . . . . . . . . . . . . . . 141

4.4 Kongruenztransformationen . . . . . . . . . . . . . . . . . . . . . . 150

4.5 LR-Zerlegung regularer Matrizen . . . . . . . . . . . . . . . . . . . 155

4.6 Block-Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165

6 Lineare Abbildungen 190

6.1 Der Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190

6.2 Die orthogonale Projektion . . . . . . . . . . . . . . . . . . . . . . . 203

6.3 Orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 210

6.4 Householder Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 215

7 Lineare Ausgleichsprobleme 220

7.1 Die QR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224

7.2 Die Normalgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . 231

7.3 Lineare diskrete Approximation . . . . . . . . . . . . . . . . . . . . 234

4 INHALTSVERZEICHNIS

8 Eigenwertaufgaben 241

8.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241

8.2 Diagonalisierbarkeit von Matrizen . . . . . . . . . . . . . . . . . . . 250

8.3 Normale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252

8.4 Symmetrische und Hermitesche Matrizen . . . . . . . . . . . . . . . 257

8.5 Die Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . 273

8.6 Lokalisierung von Eigenwerten . . . . . . . . . . . . . . . . . . . . . 278

8.7 Die Hauptachsentransformation . . . . . . . . . . . . . . . . . . . . 292

8.8 Verallgemeinerte Eigenwertaufgaben . . . . . . . . . . . . . . . . . . 307

10 Folgen und Reihen 1

10.1 Einfuhrende Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . 1

10.2 Konvergenz von Folgen . . . . . . . . . . . . . . . . . . . . . . . . . 13

10.3 Reelle Zahlenfolgen . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

10.4 Cauchysches Konvergenzkriterium . . . . . . . . . . . . . . . . . . . 33

10.5 Folgen in Vektorraumen . . . . . . . . . . . . . . . . . . . . . . . . 36

10.6 Konvergenzkriterien fur Reihen . . . . . . . . . . . . . . . . . . . . 43

11 Stetige Funktionen 59

11.1 Motivation und Definition . . . . . . . . . . . . . . . . . . . . . . . 59

11.2 Eigenschaften stetiger (reeller) Funktionen . . . . . . . . . . . . . . 70

11.3 Gleichmaßige Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . 76

11.4 Grenzwerte von Funktionen . . . . . . . . . . . . . . . . . . . . . . 78

INHALTSVERZEICHNIS 5

12 Elementare Funktionen 84

12.1 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

12.2 Konvergenz in Funktionenraumen . . . . . . . . . . . . . . . . . . . 96

12.3 Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

12.4 Exponentialfunktion, Logarithmusfunktion . . . . . . . . . . . . . . 111

12.5 Trigonometrische Funktionen . . . . . . . . . . . . . . . . . . . . . 116

12.6 Hyperbelfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

13 Differenzierbare reelle Funktionen 126

13.1 Motivation und Definition . . . . . . . . . . . . . . . . . . . . . . . 126

13.2 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

13.3 Hohere Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

14 Anwendungen der Differentialrechnung 152

14.1 Mittelwertsatze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152

14.2 Regeln von de l’Hopital . . . . . . . . . . . . . . . . . . . . . . . . . 160

14.3 Der Satz von Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . 166

14.4 Kurvendiskussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

14.5 Der Fehler der Polynominterpolation . . . . . . . . . . . . . . . . . 195

15 Numerische Losung von Gleichungen 201

15.1 Bisektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

15.2 Fixpunktsatz fur kontrahierende Abbildungen . . . . . . . . . . . . 205

15.3 Newton Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214

15.4 Iterative Methoden fur lineare Systeme . . . . . . . . . . . . . . . . 221

15.5 Berechnung von Eigenwerten . . . . . . . . . . . . . . . . . . . . . . 224

6 INHALTSVERZEICHNIS

16 Das bestimmte Riemannsche Integral 229

16.1 Definition des Riemann Integrals . . . . . . . . . . . . . . . . . . . 229

16.2 Integrierbarkeitskriterien . . . . . . . . . . . . . . . . . . . . . . . . 233

16.3 Klassen integrierbarer Funktionen . . . . . . . . . . . . . . . . . . . 236

16.4 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238

17 Das unbestimmte Integral 244

17.1 Fundamentalsatz der Infinitesimalrechnung . . . . . . . . . . . . . . 244

17.2 Partielle Integration . . . . . . . . . . . . . . . . . . . . . . . . . . 248

17.3 Substitutionsregel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253

17.4 Partialbruchzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . 257

17.5 Vertauschen von Grenzwerten . . . . . . . . . . . . . . . . . . . . . 262

18 Uneigentliche Integrale 267

18.1 Unbeschrankte Integrationsintervalle . . . . . . . . . . . . . . . . . 267

18.2 Unbeschrankte Integranden . . . . . . . . . . . . . . . . . . . . . . 273

19 Numerische Integration 278

19.1 Einfuhrende Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . 278

19.2 Konstruktion von Quadraturformeln . . . . . . . . . . . . . . . . . 281

19.3 Fehler von Quadraturformeln . . . . . . . . . . . . . . . . . . . . . 282

19.4 Quadraturformeln von Gauß . . . . . . . . . . . . . . . . . . . . . . 287

19.5 Adaptive Quadratur . . . . . . . . . . . . . . . . . . . . . . . . . . 290

19.6 Nicht glatte Integranden . . . . . . . . . . . . . . . . . . . . . . . . 297

20 Anwendungen der Integralrechnung 302

20.1 Volumen von Rotationskorpern . . . . . . . . . . . . . . . . . . . . 302

20.2 Kurven, Bogenlangen . . . . . . . . . . . . . . . . . . . . . . . . . . 305

20.3 Krummung einer Kurve . . . . . . . . . . . . . . . . . . . . . . . . 314

20.4 Von einer Kurve umschlossene Flache . . . . . . . . . . . . . . . . . 321

20.5 Mantelflachen von Rotationskorpern . . . . . . . . . . . . . . . . . 323

20.6 Kurvenintegrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325

21 Periodische Funktionen 328

21.1 Einleitende Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . 328

21.2 Fourierentwicklung periodischer Funktionen . . . . . . . . . . . . . 330

21.3 Approximation im quadratischen Mittel . . . . . . . . . . . . . . . . 336

21.4 Gleichmaßige Konvergenz von Fourierreihen . . . . . . . . . . . . . 338

21.5 Asymptotisches Verhalten der Fourierkoeffizienten . . . . . . . . . . 343

21.6 Andere Formen der Fourierreihe . . . . . . . . . . . . . . . . . . . . 345

21.7 Numerische Fourieranalyse und -synthese . . . . . . . . . . . . . . . 347

Literaturverzeichnis 353

Kapitel 10

Folgen und Reihen

In diesem Kapitel beginnen wir die Behandlung der Infinitesimalrechnung1, in der

man sich mit Grenzprozessen und deren Anwendungen befasst. Mit Hilfe von Grenz-

prozessen werden komplizierte Objekte durch einfachere Objekte approximiert. Hau-

fig werden dabei Objekte der Mathematik sogar erst vermittels dieser Grenzprozesse

definiert. Beide Aspekte bereiten Anfangern in der Regel erhebliche Verstandnis-

schwierigkeiten. Wir fuhren deshalb im ersten Unterabschnitt in die Problematik

mit einer Reihe von Beispielen ein, wobei wir einige (moglicherweise schon aus der

Schule bekannte) Sprechweisen uber Folgen in intuitiver Weise benutzen. Die exakte

Definition und deren genauer Gebrauch wird erst in den nachfolgenden Unterab-

schnitten dargestellt werden. Wenn Sie daher im ersten Unterabschnitt den Eindruck

gewinnen, Sachverhalte nicht genau zu verstehen, so brauchen Sie nicht beunruhigt

zu sein, da Sie sie ohne genaue Vereinbarung ja tatsachlich noch gar nicht verstehen

konnen. Sie sollten in diesem Unterabschnitt nur grobe motivierende Vorstellun-

gen von den nachfolgenden Fragestellungen gewinnen. Wir hoffen, dass diese beim

Verstandnis der genauen Untersuchungen hilfreich sein werden.

10.1 Einfuhrende Beispiele

Jede rationale Zahl r lasst sich bekanntlich durch endlich viele Ziffern eindeutig

beschreiben. Dies kann durch die Angabe des Zahlers und Nenners eines Bruches aus

ganzen Zahlen geschehen oder mit Hilfe eines Dezimalbruchs. Dieser hat entweder

1finit=endlich, infinit=unendlich

2 KAPITEL 10. FOLGEN UND REIHEN

die Form

±0.Z−1Z−2 . . . Z−m · 10E := ±10E ·m∑

k=1

Z−k · 10−k,

mit Zj ∈ {0, 1, . . . , 9}, Z−1 6= 0 fur r 6= 0, E ∈ ZZ, oder der Dezimalbruch wird

(eventuell nach einigen Vorlaufziffern) periodisch

±0.Z−1Z−2 . . . Z−mZ−m−1 . . . Z−m−p · 10E,

wobei hier der Strich uber den letzten p Ziffern bedeutet, dass diese periodisch

wiederholt werden.

Irrationale Zahlen wie√

2 (vgl. Satz 1.8) oder π konnen weder durch einen endlichen

noch durch einen periodischen Dezimalbruch dargestellt werden. Die exakte Angabe

des Dezimalbruchs einer irrationalen Zahl erfordert die Spezifikation von abzahlbar

unendlich vielen Ziffern. Diesen Wert kann deshalb niemand exakt angeben.

Tatsachlich wird der exakte Zahlenwert einer reellen Große eigentlich niemals wirk-

lich benotigt. Wer wollte diesen etwa auf einem Potentiometer einstellen, und wel-

chen Sinn macht es, fur die Lange eines zu erzeugenden Werkstuckes die genaue

Lange von 1 m zu fordern? Dass”Exaktheit“ in der Praxis ein veranderlicher, zeit-

und anwendungsabhangiger Begriff ist, zeigt sich z.B. darin, dass die ursprungliche

Definition des Meters durch die Hinterlegung eines Urmeters in Paris fur gewisse

Anwendungen zu ungenau wurde, was eine verfeinerte Definition nach sich zog.

Was wir in den allermeisten Situationen brauchen, ist eine Approximation der ex-

akten Zahl mit einem durch die spezifische Anwendung vorbestimmten maximal

erlaubten Fehler. Die Große der Fehlerschranke ist dabei durch die im Anwendungs-

bereich zum jeweiligen Anwendungszeitpunkt tolerierte Fehlergroße bestimmt.

Wenn mit einer fehlerbehafteten Große noch gerechnet werden muss, so wird auch

zu berucksichtigen sein, wie der Fehler bei der weiteren Rechnung das gewunschte

Endresultat verfalscht, wie er sich”fortpflanzt“. In einem solchen Fall wird die er-

laubte Große des Fehlers im Endresultat ausschlaggebend fur den erlaubten Fehler

der aktuellen Approximation sein, so dass also auch die Art der zu erwartenden

Fehlerfortpflanzung Einfluss auf die tolerierbare Fehlergroße hat.

Um allen Situationen des Einsatzes von Naherungen einer reellen Zahl r gewachsen

zu sein, benotigt man letztendlich fur diese Zahl”nur“ einen Algorithmus, der zu

jeder vorgegebenen positiven Schranke ε > 0 eine Naherung rε ∈ Q liefert mit

|r − rε| ≤ ε.

10.1. EINFUHRENDE BEISPIELE 3

Tabelle 10.1: Intervallhalbierungsmethode

n untere Schranke obere Schranke

0 1.0000000 2.00000001 1.0000000 1.50000002 1.2500000 1.50000003 1.3750000 1.50000004 1.3750000 1.43750005 1.4062500 1.43750006 1.4062500 1.42187507 1.4140625 1.42187508 1.4140625 1.41796889 1.4140625 1.416015610 1.4140625 1.4150391

n untere Schranke obere Schranke

11 1.4140625 1.414550812 1.4140625 1.414306613 1.4141846 1.414306614 1.4141846 1.414245615 1.4141846 1.414215116 1.4141998 1.414215117 1.4142075 1.414215118 1.4142113 1.414215119 1.4142132 1.414215120 1.4142132 1.4142141

Dabei wird eine großere Genauigkeit normalerweise mit einem großeren Arbeits-

aufwand verbunden sein, weshalb man versuchen wird, mit der gerade erforderli-

chen Genauigkeit auszukommen. Der Algorithmus sollte deshalb im Idealfall nicht

nur Approximationen liefern, sondern zugleich auch Schranken fur die Betrage der

entsprechenden Fehler, so dass man die Rechnung zu einem geeigneten Zeitpunkt

abbrechen kann.

Ein einfaches Beispiel fur einen solchen Algorithmus ist die kontrollierte Approxi-

mation der Zahl√

2 mit dem Bisektions- oder Intervallhalbierungsverfahren:

Beispiel 10.1. (Approximation von√

2; Intervallhalbierung)

Fur die Startwerte a0 := 1 und b0 := 2 gilt a20 < 2 < b2

0, und damit a0 <√

2 < b0.

Sind an, bn bereits bestimmt mit a2n < 2 ≤ b2

n ( d.h. an <√

2 ≤ bn), so setzen wir

cn := 0.5(an + bn) und definieren induktiv

an+1 :=

an falls c2n ≥ 2

cn sonst, bn+1 :=

cn falls c2n ≥ 2

bn sonst.

Es folgt dann an <√

2 ≤ bn fur alle n ∈ IN, und wegen bn − an = 2−n kann man

auf diese Weise Naherungen an bzw. bn von√

2 von jeder gewunschten Genauigkeit

erzeugen.

Das angegebene Verfahren heißt Intervallhalbierungsmethode . Mit ihm erhalt

man die oberen und unteren Schranken fur√

2 in Tabelle 10.1. 2

Algorithmen zur Approximation reeller Zahlen laufen auch in Ihren Taschenrech-

nern ab, etwa zur Berechnung von√

a, a ∈ IR+, oder von cos(a), a ∈ IR. Wir haben

eben ausdrucklich nicht nur von irrationalen Zahlen gesprochen, weil selbst die mei-

sten rationalen Zahlen durch Ihren Rechner nur approximativ dargestellt werden.

4 KAPITEL 10. FOLGEN UND REIHEN

Tabelle 10.2: Newton-Verfahren fur√

2

n xn xn −√

2

0 2.00000000000000000 0.585786437626904951 1.50000000000000000 0.085786437626904952 1.41666666666666667 0.002453104293571623 1.41421568627450980 0.000002123901414764 1.41421356237468991 0.000000000001594865 1.41421356237309505 0.00000000000000000

Wollen sie z.B. die rationale Zahl 1/3 auf Ihrem Rechner darstellen, so mussen Sie

mit einer Approximation der Form 0.333333333...3 zufrieden sein. Allgemein ist bei

diesen”Rechnerapproximationen“ die Approximationsgenauigkeit ε durch die Dar-

stellungsmethode des jeweiligen Rechners bestimmt.

Da Sie erwarten, dass Ihr Taschenrechner Ihnen elementare Approximationen so-

fort liefert, sollten die verwendeten Approximationsalgorithmen nicht zu langsam

sein. Einen Algorithmus, der√

2 schneller als die Intervallhalbierungsmethode ap-

proximiert, gibt das folgende Beispiel eines Algorithmus zur Berechnung von√

a,

a ∈ IR+:

Beispiel 10.2. (Approximation von√

a, a > 0; Newton Verfahren)

Es sei x0 > 0 fest gewahlt, und fur n ≥ 0 werde xn+1 rekursiv definiert durch

xn+1 :=1

2(xn +

a

xn

). (10.1)

Wir werden schon im nachsten Unterabschnitt zeigen konnen, dass die gelieferte Ap-

proximationsfolge x0, x1, x2, . . . (von x1 an) dem gewunschten Wert in jedem Schritt

naher kommt und dass die Anzahl der in einem Schritt gewonnenen exakten Dezi-

malstellen von Schritt zu Schritt großer wird.

Fur a = x0 = 2 erhalt man die Approximationen aus Tabelle 10.2, wobei in der

zweiten Spalte die ersten siebzehn Nachkommastellen des Fehlers dargestellt sind.

Das Verfahren war schon den Babyloniern ca. 2000 vor Christi Geburt bekannt und

wird haufig nach Heron von Alexandria2 benannt. Wir werden weiter unten sehen,

dass es ein Spezialfall des sogenannten Newton3-Verfahrens zur Approximation

von Nullstellen reeller, differenzierbarer Funktionen ist (hier der positiven Nullstelle

von f(x) := x2 − a). 2

2Heron von Alexandria, ca. 65 - ca. 125, griechischer Mathematiker

3Sir Isaac Newton, 1643 - 1727, englischer Mathematiker

10.1. EINFUHRENDE BEISPIELE 5

Bemerkung 10.3. Beachten Sie, dass das Newton-Verfahren aus dem letzten Bei-

spiel nur eine einzige Sequenz von Approximationen liefert, so dass hier zunachst

keine Fehlerkontrolle moglich ist. Man kann aber im vorliegenden Anwendungsfall

aus den”Zutaten der rechten Seite“ der Formel (10.1) Folgen unterer und obe-

rer Schranken fur√

a konstruieren, wobei die oberen Schranken die berechneten

Newton-Approximationen sind (vgl. Beispiel 10.6.). 2

Wir hatten oben ausgefuhrt, dass die gewonnenen Approximationen ublicherweise

in weiteren Rechnungen verwendet werden und dass die von ihnen geforderte Appro-

ximationsgute auch bestimmt wird durch die Auswirkungen ihrer Fehler in diesen

Nachfolgerechnungen. Das folgende Beispiel zeigt einen Algorithmus zur Approxi-

mation von π, in dem Werte der Wurzelfunktion benotigt werden. Der dem Algorith-

mus zugrundeliegende geometrische Hintergrund lasst vermuten, dass die Sequenz

der darin induktiv definierten Zahlen fn monoton steigend π naherkommt. Dass dies

im Rahmen der Rechnergenauigkeit tatsachlich der Fall ist, setzt allerdings voraus,

dass die Approximationen fur die dort definierten Zahlen cn hinreichend genau sind:

Beispiel 10.4. (Approximation von π)

Wir approximieren den Flacheninhalt π

eines Kreises mit dem Radius 1 durch

die Flacheninhalte fn der eingeschriebe-

nen regelmaßigen 3n-Ecke. Mit wachsen-

dem n schopfen die 3n-Ecke den Einheits-

kreis immer weiter aus, und daher sind die

fn immer bessere Naherungen fur π.

Die nebenstehende Skizze zeigt die einge-

schriebenen regelmaßigen 3-, 6-, 12-, 24-

und 48-Ecke.

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

Abbildung 10.1

Elementargeometrische Uberlegungen zeigen, dass mit cn := cosπ

3ngilt

f2n :=fn

cn

, c2n :=

1

2(1 + cn), f1 :=

3

4

√3, c1 :=

1

2.

Berechnet man hierin die Wurzeln auf Rechnergenauigkeit, so erhalt man bis f16777216

die Naherungen in Tabelle 10.3.

Werden die Wurzeln nur jeweils auf drei Stellen nach dem Komma genau berechnet,

6 KAPITEL 10. FOLGEN UND REIHEN

Tabelle 10.3: Approximation von π

n fn π − fn

1 1.29903810567665797 1.842554547913135272 2.59807621135331594 0.543516442236477304 3.00000000000000000 0.141592653589793248 3.10582854123024915 0.03576411235954409

16 3.13262861328123820 0.0089640403085550432 3.13935020304686721 0.0022424505429260364 3.14103195089050964 0.00056070269928360

128 3.14145247228546208 0.00014018130433116256 3.14155760791185765 0.00003504567793559512 3.14158389214831841 0.00000876144147483

1024 3.14159046322805010 0.000002190361743142048 3.14159210599927155 0.000000547590521694096 3.14159251669215745 0.000000136897635798192 3.14159261936538395 0.00000003422440928

16384 3.14159264503369090 0.0000000085561023432768 3.14159265145076765 0.0000000021390255965536 3.14159265305503684 0.00000000053475640

131072 3.14159265345610414 0.00000000013368910262144 3.14159265355637096 0.00000000003342228524288 3.14159265358143767 0.00000000000835557

1048576 3.14159265358770435 0.000000000002088892097152 3.14159265358927101 0.000000000000522224194304 3.14159265358966268 0.000000000000130568388608 3.14159265358976060 0.00000000000003264

16777216 3.14159265358978508 0.00000000000000816

so wird ein solcher Fehler auch zu einem Fehler im Endergebnis fuhren. Der vorlie-

gende Algorithmus ist allerdings hinsichtlich der Fehlerfortpflanzung des c-Fehlers

sehr gutmutig. Es tritt im Endergebnis nur ein Fehler von der Großenordnung des

Rundungsfehlers auf. Ein nicht so gutmutiges Verhalten demonstriert das nachste

Beispiel. 2

Beispiel 10.5. (Noch eine Approximation von π)

Eine andere π approximierende Folge kann man durch die Aufstellung einer Re-

kursion fur die Seitenlangen der dem Einheitskreis eingeschriebenen regelmaßigen

6 · 2n-Ecke erhalten. Es ergibt sich hierfur (vgl. Aufgabenband) der folgende For-

melsatz:

sn+1 :=

6 · 2n+1

(

6 · 2n −√

(6 · 2n)2 − s2n

)

, n ≥ 0, s0 = 3.

Berechnet man die ersten Glieder dieser Folge mit voller Genauigkeit von MATLAB

(15–16 Stellen), so ergeben sich die Zahlen der Tabelle 10.4, worin die dritte Spalte

den relativen Fehler angibt. Nach 10 Schritten stimmen schon die ersten 7 Stellen.

Rechnet man nun aber auf einem Rechner mit sieben Stellen, so erhalt man nicht

etwa ein ahnliches Ergebnis. Vielmehr schaukelt sich der Rundungsfehler hier auf

10.1. EINFUHRENDE BEISPIELE 7

Tabelle 10.4: Approximation von π

n sn (π − sn)/π

1 3.10582854123025 1.14e − 022 3.13262861328124 2.85e − 033 3.13935020304685 7.14e − 044 3.14103195089048 1.78e − 045 3.14145247228556 4.46e − 056 3.14155760791206 1.12e − 057 3.14158389214894 2.79e − 068 3.14159046322287 6.97e − 079 3.14159210604305 1.74e − 07

10 3.14159251681049 4.35e − 06

Tabelle 10.5: Approximation von π

n sn (π − sn)/π

1 3.10582935783665 1.14e − 022 3.13262828947196 2.85e − 033 3.13932476816274 7.22e − 044 3.14100620820780 1.87e − 045 3.14146462657153 4.08e − 056 3.14146462657153 4.08e − 057 3.14757049166519 −1.90e − 038 3.15974682529131 −5.77e − 039 3.03578655372575 3.36e − 02

10 3.50542436799162 −1.16e − 0111 3.50542436839014 −1.16e − 0112 0 1.00e + 00

und macht das Ergebnis unbrauchbar. Bei der zur Tabelle 10.5 fuhrenden Rech-

nung wurde die siebenstellige Genauigkeit durch Rundung der inneren Wurzel der

Rekursionsformel auf die fuhrenden sieben Ziffern simuliert.

Die Grunde fur das instabile Verhalten und Moglichkeiten dieses zu vermeiden wer-

den im Aufgabenband genauer diskutiert. 2

In den bisherigen (vernunftigen) Beispielen wurden die zu approximierenden Zahlen

durchweg monoton von einer Seite angenahert. Diese Eigenschaft ist in der Tat

haufig zu beobachten, und wie wir schon bald sehen werden, ist sie fur die Analyse

des Approximationsprozesses auch recht nutzlich. Das nachste Beispiel zeigt, dass

monotone Approximation nicht immer vorliegt.

Beispiel 10.6. (Noch eine Approximation von√

2)

Die Rechenvorschrift

x0 := 2; x2n+1 :=2

x2n

, x2n+2 :=1

2(x2n + x2n+1), n ≥ 0

8 KAPITEL 10. FOLGEN UND REIHEN

Tabelle 10.6: Alternierende Approximation von√

2

n xn xn −√

2

0 2.00000000000000 +5.8579e − 011 1.00000000000000 −4.1421e − 012 1.50000000000000 +8.5786e − 023 1.33333333333333 −8.0880e − 024 1.41666666666667 +2.4531e − 035 1.41176470588235 −2.4489e − 036 1.41421568627451 +2.1239e − 067 1.41421143847487 −2.1239e − 068 1.41421356237469 +1.5947e − 129 1.41421356237150 −1.5949e − 12

fuhrt zu den Approximationen von√

2 der Tabelle 10.6. Wie man sieht, nahern

sich die Werte alternierend dem gewunschten Wert. Durch Vergleich mit dem Bei-

spiel 10.2. und mit der Beobachtung, dass die geradzahlig indizierten Werte gerade

die der Newton-Iteration sind, sieht man leicht den Grund. 2

Die alternierende Approximation ist kein unangenehmes Verhalten, da man durch

jeweils zwei aufeinander folgende Approximationen xn und xn+1 die zu approximie-

rende Zahl x einschließen kann. Fur das Mittel cn := 0.5(xn +xn+1) findet man dann

die sichere Fehlerabschatzung

|x − cn| ≤ 0.5|xn − xn+1|.

Aus der Monotonie bzw. dem Alternieren der bislang angefuhrten Approximati-

onssequenzen darf nicht geschlossen werden, dass ausschließlich diese Verhaltens-

varianten auftreten konnen. Wir hatten auch Beispiele wesentlich unregelmaßigerer

Sequenzen konstruieren konnen, die aber dennoch letztlich einen bestimmten Wert

”approximieren“. Sequenzen, die von Naherungsverfahren berechnet werden, sind

aber tatsachlich haufig monoton oder alternierend, da diese Eigenschaften nutzlich

sind und daher beim Verfahrensentwurf schon angestrebt werden.

Bis hierhin waren die Folgen in den Beispielen auf die Approximation vorher defi-

nierter Großen ausgerichtet. Im nachsten Beispiel soll es nun um die Definition einer

Zahl als Grenzwert einer Folge gehen.

Beispiel 10.7. (Radioaktiver Zerfall)

In einer Probe seien zum Zeitpunkt t = 0 N radioaktive Teilchen vorhanden;

wieviele sind zum Zeitpunkt t = T noch nicht zerfallen?

Wir machen die Annahme (die sich durch Experimente bestatigen lasst), dass fur

kleine h > 0 in einem Zeitintervall t0 < t ≤ t0 + h der Lange h etwa αhK Teilchen

10.1. EINFUHRENDE BEISPIELE 9

zerfallen, wobei K die Anzahl der zum Zeitpunkt t = t0 vorhandenen radioaktiven

Teilchen bezeichnet und α > 0 eine Materialkonstante ist.

Wir zerlegen das Intervall (0, T ] in n gleich lange Intervalle ((j−1)τ, jτ ], j = 1, . . . , n,

wobei τ := T/n die Lange der Teilintervalle bezeichnet. Wir wenden auf jedes der

Intervalle die obige Annahme an. Dann sind zum Zeitpunkt t = τ noch N(1 − ατ),

zum Zeitpunkt t = 2τ noch N(1 − ατ)2, . . . , und zum Zeitpunkt t = T noch

an = N(1 − ατ)n Teilchen vorhanden. Experimente zeigen, dass diese Zahl um so

besser die Realitat beschreibt, je großer n gewahlt ist.

Genauso werden Wachstumsprozesse (z.B. Wachstum einer Bakterienkultur) nahe-

rungsweise beschrieben durch bn = N(1 + βτ)n, wobei N die Zahl der Individuen

zum Zeitpunkt t = 0, bn die Zahl der Individuen zum Zeitpunkt t = T und β > 0

die Wachstumsrate ist.

Wir werden spater zeigen, dass mit wachsendem n die Zahlen an bzw. bn jeweils eine

feste reelle Zahlen approximieren, namlich Ne−αT bzw. NeβT . Dabei wird die Zahl e

selbst als das durch die Zahlen bn fur βT = 1 und N = 1 Approximierte definiert und

der Umstand, dass es Sinn macht, die Zahlen e−αT bzw. eβT als Potenzen von e zu

interpretieren, wird ebenfalls durch Approximationsbetrachtungen erklart werden.

2

Die Approximation durch Folgen wird uns nicht nur — wie in allen obigen Bei-

spielen — in Anwendungen begegnen, wo der Grenzwert nicht exakt angebbar ist.

Es kann durchaus sinnvoll sein, Approximationen fur rationale Zahlen, ja selbst fur

Maschinenzahlen zu verwenden.

Beispiel 10.8. (Iterative Losung linearer Gleichungssysteme)

In vielen praktischen Problemen treten so große lineare Gleichungssysteme Ax = b

auf, dass das Gaußsche Eliminationsverfahren aus Speicherplatz- und Rechenzeit-

grunden nicht mehr angewendet werden kann. Schreibt man das Gleichungssystem

um in

x = (E − A)x + b

so kann man versuchen, eine Anfangsnaherung x0 der Losung sukzessive uber

xm+1 := (E − A)xm + b.

zu verbessern. Das so definierte Verfahren heißt Richardson4–Iteration und ist

eine der strukturell einfachsten Varianten der großen Klasse iterativer Loser fur

4Lewis Fry Richardson, 1881 - 1953, englischer Mathematiker

10 KAPITEL 10. FOLGEN UND REIHEN

lineare Systeme. Wir werden in Kapitel 15 untersuchen, unter welchen Bedingungen

die so definierte Folge {xm} beliebig gute Naherungen fur die Losung von Ax = b

liefert.

Solche Iterationsverfahren haben fur (große) Ingenieuranwendungen oftmals viele

Vorteile. So kann man die Iteration bei Erreichen einer gewunschten Genauigkeit

abbrechen, so dass nur fur die benotigte Genauigkeit mit Rechenzeit bezahlt wer-

den muss. Außerdem kann man (u.a.) mit dem Startvektor x0 schon Vorwissen in

die Iteration einbringen, welches die Iterations- und damit die Arbeitsdauer weiter

reduzieren kann. 2

Beispiel 10.9. (von Mises Verfahren)

Wir haben bereits bemerkt, dass Eigenwerte (und dann auch Eigenvektoren) i.a. nicht

mit endlich vielen Operationen berechnet werden konnen, sondern dass hierfur Nahe-

rungsmethoden verwendet werden mussen. Ein einfaches Verfahren hierfur ist die

von Mises5-Iteration oder die Potenzmethode

xm+1 :=Axm

‖Axm‖ (x0 ∈ IRn gegeben),

die unter sehr allgemeinen Bedingungen Vektorapproximationen liefert, die einen Ei-

genvektor zum betragsmaximalen Eigenwert von A annahern. Auch dieses Verfahren

werden wir in Kapitel 15 untersuchen. 2

Beispiel 10.10. Aus der Schule ist wahrscheinlich schon bekannt, dass die in die-

sem Kurs bislang nur geometrisch definierte Funktion f(x) = cos(x) fur kleine Bo-

genlangenwerte |x| gut approximiert werden kann durch (siehe Abbildung 10.2)

p0(x) ≡ 1,

p2(x) = 1 − x2

2,

p4(x) = 1 − x2

2+

x4

24,

p6(x) = 1 − x2

2+

x4

24− x6

720,

p8(x) = 1 − x2

2+

x4

24− x6

720+

x8

40320, . . .

und dass die Funktion f(x) letztendlich als”Grenzwert einer Funktionenfolge“ de-

finiert ist, deren erste Glieder p0, . . . , p8 sind. 2.

5Richard von Mises, 1883 - 1953, deutscher Mathematiker

10.1. EINFUHRENDE BEISPIELE 11

−4 −3 −2 −1 0 1 2 3 4−1.5

−1

−0.5

0

0.5

1

1.5

cos

p0

p2

p4

p6

p8

Abbildung 10.2: Approximation von f(x) = cos x

Beispiel 10.11. Schwingungen werden beschrieben durch periodische Funktionen

f : IR −→ IR mit f(t + T ) = f(t) fur alle t ∈ IR

Der feste Wert T heißt hierin Periode der Funktion f und ist bei der beschriebenen

Schwingung die Lange des Zeitintervalles, nach dem sich die Bewegung wiederholt.

Unter sehr allgemeinen Bedingungen an f ist f dann gut approximierbar durch

trigonometrische Polynome

f(t) ∼ a0 +n∑

j=1

(

a2j−1 sin2πjt

T+ a2j cos

2πjt

T

)

=: fn(t).

Die Entwicklung von f in trigonometrische Polynome ist mit einem geeigneten Vek-

torraum und einem geeigneten inneren Produkt eine Fourierentwicklung im Sinne

des Abschnittes 2.2.5. Tatsachlich hat Fourier6 speziell die Entwicklung nach trigo-

nometrischen Funktionen untersucht, und die Bezeichnung aus 2.2.5 ist eine Verall-

gemeinerung dieser klassischen Fourier-Entwicklung.

Abbildung 10.3 zeigt Ausschnitte der Graphen der durch

fh(t) :=

−1 fur −π ≤ t < 0

1 fur 0 ≤ t < π

festgelegten 2π-periodische Funktion und einiger der approximierenden Funktionen

fn(t) (n = 1, 2, 5).

6Jean Baptiste Joseph Fourier, 1768 - 1830, franzosischer Mathematiker

12 KAPITEL 10. FOLGEN UND REIHEN

−3 −2 −1 0 1 2 3

−1

−0.5

0

0.5

1

f1

f2f

5

Abbildung 10.3: Fourierentwicklung

Auch wenn die Sprungfunktion fh selbst viel einfacher zu beschreiben und zu inter-

pretieren scheint, ist es doch nicht ohne praktisches Interesse, eine Funktion dieser

einfachen Art durch zunachst viel komplizierter anmutende trigonometrische Po-

lynome zu approximieren. Trigonometrische Polynome entsprechen namlich einer

Uberlagerung harmonischer Schwingungen, die sich praktisch z.B. leicht mit elektri-

schen Schwingkreisen realisieren lassen. 2

Allen Folgenbeispielen oben ist gemein, dass mit ihnen Objekte approximiert werden.

Dies ist in der Tat auch der fur die Infinitesimalrechnung wichtigste Aspekt der

Folgen. Wir wollen der Vollstandigkeit halber erwahnen, dass Folgen auch ohne das

Ziel der Approximation verwendet werden. So kann das Zeitverhalten eines Systems

durch eine Funktion auf IR+ beschrieben werden, bei dem jedem nichtnegativen

reellen Wert t ein Systemzustand F (t) aus einer geeigneten Menge zugeordnet wird.

Wird der Systemzustand jeweils z.B. nur nach jeder Sekunde einmal aufgezeichnet,

so wird das System durch die Folge

F (1sec) =: F1, F (2sec) =: F2, F (3sec) =: F3, . . .

beschrieben, die dann oft auch Zeitreihe genannt wird.

10.2. KONVERGENZ VON FOLGEN 13

10.2 Konvergenz von Folgen

Im weiteren interessiert uns wesentlich die Approximationskraft von Folgen. Deren

Beschreibung durch Definition 10.13. macht erfahrungsgemaß zunachst erhebliche

Probleme. Studenten aus den Anwendungsfachern (und nicht nur diese) neigen dann

dazu, diese Definition fur unpraktischen Formalismus zu halten.

Es ist deshalb angebracht, an dieser Stelle darauf hinzuweisen, dass diese formale

Definition nicht nur von theoretischem Interesse ist, sondern extrem nutzlich und

praktisch, da in ihr der Begriff der Konvergenz in eine kurze, einpragsame Formu-

lierung gefasst wird und dem mathematischen Kalkul zuganglich gemacht wird. Es

lohnt sich daher, die anfanglich nicht ganz einfachen Aussagen dieses Abschnitts, in

dem wir jetzt wieder mathematisch prazise werden, sehr genau zu bearbeiten.

Definition 10.12. Eine Folge a : IN → M in einer Menge M ist eine Abbildung

der naturlichen Zahlen IN in M .

Ist M = IR oder M = C, so sprechen wir von einer Zahlenfolge (Beispiele 10.1.,

10.2., 10.4., 10.7.). Daneben treten aber auch Vektorfolgen (Beispiele 10.8., 10.9.)

oder Folgen von Funktionen (Beispiele 10.10., 10.11.) auf oder Folgen aus anderen

Mengen, wenn es denn sinnvoll ist, Elemente solcher Mengen durchzunumerieren.

Der n ∈ IN zugeordnete Funktionswert a(n) ∈ M wird ublicherweise mit an bezeich-

net und heißt n-tes Glied der Folge.

Wir bezeichnen Folgen mit {an}n∈ IN oder {an}n≥1 oder kurz mit {an}. Manchmal ist

es bequemer, die Folge mit einem anderen Index als 1 zu beginnen (Beispiele 10.1.,

10.9.); wir schreiben dann z.B. {an}n≥0. Dies macht mathematisch keine Probleme,

weil Mengen {m ∈ ZZ : k ≤ m} fur eine ganze Zahl k bijektiv auf IN abgebildet

werden konnen.

Dass der Urbildbereich der Folgen immer IN ist (oder mit IN identifiziert werden

kann), wird bei der rekursiven Definition von Folgen ausgenutzt. Wenn nach expli-

ziter Definition erster Elemente a1, a2, . . . , ap weiter an+1 fur n ≥ p in Abhangigkeit

von an (und moglicherweise von an−1, . . . , a1) definiert wird (Beispiele 10.2., 10.8.,

10.9.), so sagt das Induktionsprinzip, dass an damit fur alle n ∈ IN erklart ist.

Nach der exakten Definition von”Folge“ wenden wir uns nun der fur Anfanger un-

gleich schwierigeren Prazisierung der Ausdrucke”Naherungen von jeder gewunschten

Genauigkeit“,”immer bessere Approximationen“ zu. Um Approximation und Nahe

14 KAPITEL 10. FOLGEN UND REIHEN

messen zu konnen, benotigen wir auf M als erstes einen Abstandsbegriff. Die im

Rahmen unserer Kenntnisse allgemeinste Annahme ware dazu, dass die Menge M

einem metrischen Raum angehort. Fur unsere Zwecke reicht allerdings etwas weniger

Allgemeinheit, und wir setzen deshalb von nun an voraus, dass M ein normierter

Vektorraum ist. Wir werden sagen, dass die Folge {an} ⊂ M ein Element a ∈ M

beliebig gut approximiert oder gegen a konvergiert, wenn fur jede vorgegebene re-

elle Toleranz ε > 0 der Abstand des n-ten Folgengliedes an von a fur alle genugend

großen n kleiner als ε ist.

Ein Approximationsverfahren, das wie in unseren einleitenden Beispielen eine Zahl

a beliebig gut annahert, erzeugt also in dieser Sprechweise eine gegen a konvergente

Zahlenfolge {an}.

Prazise und dem mathematischen Kalkul zuganglich lauten die relevanten Verein-

barungen wie folgt:

Definition 10.13. Eine Folge {an} in einem normierten Vektorraum M heißt

(i) konvergent gegen den Grenzwert a ∈ M , wenn fur jedes ε > 0 ein N =

N(ε) existiert, so dass fur alle n ≥ N gilt

‖an − a‖ < ε,

(ii) konvergent, wenn ein Grenzwert a ∈ M existiert, gegen den sie konvergiert,

(iii) divergent, wenn sie nicht konvergent ist.

Bemerkung 10.14. Mit der Schreibweise N = N(ε) wird in der letzten Definition

darauf hingewiesen, dass der Index N , von dem an alle Folgenglieder an von a einen

Abstand kleiner als ε haben, i.a. von ε abhangt. Einfache Falle solcher Abhangig-

keiten zeigen die nachsten beiden Beispiele. 2

Beispiel 10.15. Die Folge { 1

n} konvergiert mit dem Grenzwert 0, denn fur ε > 0

gilt∣∣∣∣

1

n− 0

∣∣∣∣ =

1

n< ε fur alle n ≥

⌊1

ε

+ 1 =: N.

Dabei bezeichnet fur eine reelle Zahl x der Ausdruck ⌊x⌋ die großte ganze Zahl, die

kleiner oder gleich x ist. 2

10.2. KONVERGENZ VON FOLGEN 15

Beispiel 10.16. Die Folge {n−k}, k ∈ IN, konvergiert mit dem Grenzwert 0, denn

|n−k − 0| = n−k < ε fur alle n ≥ ⌊1/ k√

ε⌋+1 =: N. 2

Beispiel 10.17. Die Folge {an} := {(−1)n} ist divergent, denn konvergierte sie

gegen a ∈ IR, so ware wegen

|an − a| < 0.1 fur alle n ≥ N(0.1)

die Zahl a sowohl von 1 = a2m fur alle m ∈ IN als auch von −1 = a2m+1 fur alle

m ∈ IN weniger als 0.1 entfernt, was offenbar nicht moglich ist. 2

Bemerkung 10.18. In den Beispielen 10.15. und 10.16. haben wir ausgenutzt,

dass es zu jeder reellen Zahl x eine naturliche Zahl gibt, die x an Große ubert-

rifft. Diese intuitiv einleuchtende Eigenschaft folgt nicht aus den fur IR in Kapitel 1

betrachteten Korperaxiomen und Ordnungsaxiomen, sondern muss bei einer axio-

matischen Einfuhrung von IR zusatzlich gefordert werden. Das Postulat

Fur alle x ∈ IR existiert n = n(x) ∈ IN mit n(x) ≥ x

heißt das Archimedische Axiom. 2

Wenn Teilmengen normierter Raume wie die naturlichen Zahlen zu jeder reellen Zahl

C ein Element enthalten, dessen Norm großer als C ist, heißen sie unbeschrankt.

Ist dies nicht der Fall, gibt es also eine nichtnegative Zahl C, welche großer als die

Normen aller Mengenelemente ist, so heißt die Menge beschrankt. Folgen nennt

man beschrankt, wenn die Menge ihrer Folgenglieder beschrankt ist.

Definition 10.19. Eine Folge {an} heißt beschrankt, wenn es ein C ≥ 0 gibt

mit

‖an‖ ≤ C fur alle n ∈ IN.

Satz 10.20. Jede konvergente Folge ist beschrankt.

Beweis: Sei a (ein) Grenzwert der Folge. Dann existiert zu ε > 0 ein N mit

‖an − a‖ < ε. Daher ist

‖an‖ ≤ ‖an − a‖ + ‖a‖ ≤ ε + ‖a‖ fur alle n ≥ N,

und fur C := max{‖a1‖, . . . , ‖aN−1‖, ‖a‖ + ε} folgt ‖an‖ ≤ C fur alle n ∈ IN.

16 KAPITEL 10. FOLGEN UND REIHEN

Bemerkung 10.21. Mit dem letzten Satz uberzeugt man sich oft leicht von der

Divergenz einer Folge. So ist die Folge {(−1)n n2}n∈ IN offenbar divergent, da alle

Elemente aus IN Folgenglieder sind, so dass die Folge unbeschrankt ist. 2

Bemerkung 10.22. Die Umkehrung von Satz 10.20. gilt nicht, denn die Folge

{an} mit an := (−1)n ist sicher beschrankt, aber nicht konvergent. 2

Der Sachverhalt

‖an − a‖ < ε fur alle n ≥ N(ε)

besagt, dass zu jedem (noch so kleinen) vorgegeben positiven ε hochstens endlich

viele Folgenglieder einen Abstand von a haben, der großer oder gleich ε ist.

Hiermit ist der Beweis des nachsten Satzes, wonach eine konvergente Folge nur

einen Grenzwert hat, eigentlich sogleich klar. Hatte sie namlich zwei verschiedene

Grenzwerte, so wahlten wir ε etwa gleich einem Viertel von deren Abstand. Dann

hatten die beiden Kugeln um die beiden Grenzwerte mit den Radien ε keinen Schnitt.

Nach der obigen Formulierung der Konvergenz mussten zugleich aber in jeder der

Kugeln bis auf jeweils endlich viele alle Folgenelemente enthalten sein, was offenbar

nicht moglich ist.

Sicherheitshalber beweisen wir die Aussage auch noch einmal ganz formell.

Satz 10.23. Der Grenzwert einer konvergenten Folge ist eindeutig bestimmt.

Beweis: (indirekt): Es konvergiere {an} mit den Grenzwerten a und b, a 6= b. Es

sei ε ∈ (0, 12‖b − a‖). Dann gibt es ein N1 ∈ IN mit ‖an − a‖ < ε fur alle n ≥ N1 und

ein N2 ∈ IN mit ‖an − b‖ < ε fur alle n ≥ N2. Daher gilt fur alle n ≥ max(N1, N2)

‖a − b‖ ≤ ‖a − an‖ + ‖an − b‖ < 2ε

im Widerspruch zur Wahl von ε.

Bemerkung 10.24. Da der Grenzwert einer konvergenten Folge eindeutig be-

stimmt ist, sind folgende Schreibweisen fur”{an} konvergiert gegen a“ sinnvoll:

limn→∞

an = a

oder

an → a fur n → ∞ oder kurz an → a. 2

10.2. KONVERGENZ VON FOLGEN 17

Definition 10.25. Eine Folge, die gegen 0 konvergiert, heißt eine Nullfolge.

Nullfolgen haben schon aus rechentechnischen Grunden eine Sonderrolle: Will man

namlich zeigen, dass eine Folge {an} gegen a konvergiert, so zeigt man meist statt-

dessen die aquivalente Aussage, dass die durch bn := an − a fur alle n definierte

Folge {bn} eine Nullfolge ist. Dass dies erlaubt ist, ergibt sich aus dem folgenden

allgemein sehr nutzlichen Satz.

Satz 10.26. (Rechenregeln fur konvergente Folgen)(i) Es seien {an}, {bn} konvergente Folgen mit lim

n→∞ an = a, limn→∞ bn = b. Dann ist

auch {an + bn} konvergent und es gilt

limn→∞(an + bn) = a + b.

(ii) Es sei {an} eine konvergente Folge mit limn→∞ an = a und λ ∈ IR (bzw. ∈ C).

Dann ist auch {λan} konvergent und

limn→∞(λan) = λa.

Beweis: Es sei ε > 0 fest gewahlt.

(i): Zu ε2

> 0 gibt es N1 ∈ IN mit ‖an − a‖ < ε2

fur alle n ≥ N1 und N2 ∈ IN mit

‖bn − b‖ < ε2

fur alle n ≥ N2, und daher folgt fur n ≥ max(N1, N2) =: N

‖(an + bn) − (a + b)‖ ≤ ‖an − a‖ + ‖bn − b‖ <ε

2+

ε

2= ε.

(ii): Fur λ = 0 ist die Behauptung trivial. Fur λ 6= 0 gibt es ein N ∈ IN mit

‖an − a‖ < ε|λ| fur alle n ≥ N , und daher fur alle n ≥ N

‖(λan) − (λa)‖ = |λ| · ‖an − a‖ < ε.

Bemerkung 10.27. Mit Hilfe des letzten Satzes kann man oft die Konvergenz

komplizierterer Folgen mit wenig Aufwand auf die Konvergenz einfacherer schon

bekannter Folgen zuruckfuhren. Gleichzeitig ergibt sich dabei der Grenzwert der

neuen Folge aus denen der eingehenden Folgen. Fur reelle Folgen werden wir weiter

unten die Reihe von Rechenregeln noch erweitern konnen. 2

Beispiel 10.28. Die Folge

{an} :=

{(n + 1

n

)2}

konvergiert wegen

an =(

n + 1

n

)2

=n2 + 2n + 1

n2= 1 +

2

n+

1

n2

gegen 1, da sie die Summe der konstanten Folge {1} und zweier Nullfolgen ist. 2

18 KAPITEL 10. FOLGEN UND REIHEN

10.3 Reelle Zahlenfolgen

In diesem Abschnitt betrachten wir nur reelle Folgen {an}, {bn}, . . .. Eine ganz

wesentliche Eigenschaft der reellen Zahlen ist ihre Ordnung, und so schopfen wir

auch hier aus dieser Struktur sehr nutzliche Resultate. In den Beispielen des ersten

Unterabschnittes haben wir den Nutzen von Ordnung schon in der monotonen bzw.

alternierenden Approximation gesehen.

Um diese Eigenschaft nutzen zu konnen, werden wir einige Vorarbeit leisten mussen.

Zunachst vereinbaren wir weiteres mathematisches Vokabular, welches fur die Be-

schreibung von Folgen in der geordneten Menge IR gebrauchlich ist.

Definition 10.29. (i) Eine Zahlenfolge {an} ⊂ IR heißt monoton wachsend

, falls an ≤ an+1 fur alle n ∈ IN, und streng monoton wachsend , falls

an < an+1 fur alle n ∈ IN. Sie heißt monoton fallend , falls an ≥ an+1 fur

alle n ∈ IN, und streng monoton fallend , falls an > an+1 fur alle n ∈ IN.

(ii) Die Zahlenfolge {an} heißt nach oben beschrankt , falls ein Co ∈ IR existiert

mit an ≤ Co fur alle n ∈ IN, und nach unten beschrankt , falls ein Cu ∈ IR

existiert mit an ≥ Cu fur alle n ∈ IN. Ist sie nach unten und nach oben

beschrankt, existiert also ein C ∈ IR mit |an| ≤ C fur alle n ∈ IN, so heißt sie

beschrankt.

(iii) Die Zahlenfolge {an} ⊂ IR heißt uneigentlich konvergent gegen ∞ (bzw. ge-

gen −∞), wenn fur alle C ∈ IR ein N ∈ IN existiert mit an ≥ C (bzw. an ≤ C)

fur alle n ≥ N .

Durch (iii) wird das”uber-alle-Grenzen-Wachsen“ und

”unter-alle-Grenzen-Fallen“

einer Folge {an} erfasst. Man schreibt in diesem Fall

limn→∞ an = ∞ bzw. lim

n→∞ an = −∞

und nennt die Folge {an} auch bestimmt divergent gegen ∞ bzw. gegen −∞.

Beispiel 10.30. Die durch an := 1n, n ∈ IN definierte Folge ist nach oben be-

schrankt (z.B. durch Co = 3.1415), nach unten beschrankt (z.B. durch Cu = −1997),

also beschrankt (z.B. |an| ≤ C := max(|Cu|, |Co|) = 1997), und streng monoton fal-

lend. 2

10.3. REELLE ZAHLENFOLGEN 19

Bemerkung 10.31. Die Schranken Co und Cu sind nicht optimal. Obwohl die op-

timalen Schranken Copto = 1 und Copt

u = 0 hier auch von Anfangern leicht eingesehen

werden, wurden Sie im Beispiel nicht gewahlt, um zu verdeutlichen, dass Schranken

nicht notwendig optimal sein mussen. 2

Beispiel 10.32. Die Folge {n}n∈ IN ist nach unten beschrankt, nach oben nicht

beschrankt und nach dem Archimedischen Axiom bestimmt divergent gegen ∞.

Ist h 6= 0, so ist die Folge {nh}n≥1 auch bestimmt divergent, und zwar fur h > 0

gegen ∞ und fur h < 0 gegen −∞. Zu gegebenem C > 0 ist im Falle h > 0

(bzw. h < 0) die Bedingung nh > C (bzw. nh < C) aquivalent mit n > C/h

(bzw. n > −C/h), was nach dem Archimedischen Axiom von einer naturlichen Zahl

erreicht wird und dann fur deren Nachfolger naturlich erhalten bleibt. 2

Beispiel 10.33. Ist {bn} eine Folge mit bn ≥ h > 0 fur alle n ∈ IN und ein h > 0

und gilt fur die Folge {an} mit einem M ∈ IN

an ≥ bn · n fur alle n ≥ M,

so ist {an} bestimmt divergent gegen ∞. Ist namlich C > 0 gegeben, so ist

an ≥ bn · n ≥ h · n fur alle n ≥ M,

und hieraus erhalt man an ≥ C fur alle n ≥ N := max{M,C/h}. 2

Beispiel 10.34. Wir haben gesehen, dass fur die bestimmt divergente Folge {n}n∈ IN

die Folge {n−1}n∈ IN der Kehrwerte eine Nullfolge ist.

Allgemeiner gilt: Ist {an}n∈ IN eine beliebige bestimmt divergente Folge, so gibt es

ein N ∈ IN mit an 6= 0 fur n ≥ N , und die Folge {a−1n }n≥N der Kehrwerte ist eine

Nullfolge.

Denn zunachst konvergiert die Folge {|an|}n∈ IN uneigentlich gegen ∞, und daher

gibt es fur jedes feste C > 0 ein N(C) ∈ IN mit |an| ≥ C fur alle n ≥ N(C). Wahlt

man insbesondere N = N(1), so ist an 6= 0 fur n ≥ N , und die Folge der Kehrwerte

ist definiert.

{a−1n } ist eine Nullfolge, denn ist ε > 0 gegeben, so gilt fur n ≥ max(N(1), N(2/ε))

an 6= 0 und |an| ≥2

ε, d.h. |a−1

n − 0| = |a−1n | ≤ ε

2< ε. 2

20 KAPITEL 10. FOLGEN UND REIHEN

Beispiel 10.35. Die Folge

an :=

(−1)n/n, falls n durch 3 teilbar,

−n, sonst,

(an = −1,−2,−13,−4,−5, +1

6,−7, . . .) ist nicht monoton. Sie ist nach oben be-

schrankt (z.B. durch C = 16). Sie ist aber nicht nach unten beschrankt, denn be-

trachtet man die durch

bn := a3n+1 = −(3n + 1)

definierte Folge, so ist diese sicher gegen −∞ bestimmt divergent. Mit {an} ware

nun aber auch {bn} nach unten beschrankt, was nicht der Fall ist. 2

Definition 10.36. Es sei {an} eine Folge auf einer allgemeinen Menge M . Dann

heißt eine Folge {anj}j∈ IN mit {nj} ⊂ IN eine Teilfolge von {an}, falls die Folge

{nj}j∈ IN streng monoton wachsend ist, d.h.

n1 < n2 < n3 < . . .

Bemerkung 10.37. Die Folge

an :=

(−1)n/n, falls n durch 3 teilbar,

−n, sonst,

des letzten Beispiels zeigte einerseits, dass eine Folge viele Teilfolgen mit angenehmen

Eigenschaften haben kann, ohne dass die Folge selbst sie haben musste. So sind die

durch b[k]n := a3kn+1, c[k]

n := a3kn+2 fur k ∈ IN definierten Teilfolgen {b[k]n }n∈ IN und

{c[k]n }n∈ IN uneigentlich konvergent gegen −∞ und die durch d[k]

n := a3kn fur k ∈ IN

definierten Teilfolgen {d[k]n }n∈ IN sind allesamt Nullfolgen, ohne dass die Originalfolge

diese Eigenschaften hatte.

Man sieht aber auch andererseits, dass man mit Hilfe der Eigenschaften von Teilfol-

gen gewisse Eigenschaften der Gesamtfolge leicht ausschließen kann. Ist eine Teilfolge

einer reellen Folge namlich z.B. bestimmt divergent, so wird die Originalfolge weder

beschrankt noch (eigentlich) konvergent sein konnen, und gibt es umgekehrt eine

beschrankte Teilfolge, so kann die Folge nicht bestimmt divergent sein.

Wahrend also Eigenschaften der Teilfolgen sich nicht auf die Gesamtfolge ubertragen

lassen, vererben sich umgekehrt gewisse Eigenschaften der Gesamtfolge auf alle ihre

Teilfolgen sehr wohl. Man uberlegt sich recht leicht, dass zu diesen vererbbaren

Eigenschaften reeller Folgen gehoren: Monotones und streng monotones Wachsen

10.3. REELLE ZAHLENFOLGEN 21

und Fallen, Beschranktheit nach oben oder nach unten und bestimmte Divergenz.

Dass auch Konvergenz (allgemein im normierten Raum) zu diesen Eigenschaften

gehort, zeigt der folgende Satz. 2

Satz 10.38. Es sei {an} eine Folge in einem normierten Raum V . Konvergiert

{an} gegen a ∈ V , so konvergiert auch jede Teilfolge von {an} gegen a.

Beweis: Sei ε > 0 vorgegeben, und sei fur N = N(ε)

‖an − a‖ < ε fur alle n ≥ N.

Ist {anj} eine Teilfolge von {an} und ist J die erste naturliche Zahl, fur die nJ ≥ N(ε)

ist, so ist

N(ε) ≤ nJ < nJ+1 < nJ+2 < . . . ,

so dass

‖anj− a‖ < ε fur alle j ≥ J

gilt.

Ein bei Konvergenzuntersuchungen fur Zahlenfolgen haufig verwendetes Hilfsmittel

ist die Bernoullische Ungleichung:

Lemma 10.39. (Bernoullische Ungleichung)

Fur alle h > −1 und alle n ∈ IN gilt

(1 + h)n ≥ 1 + nh.

Beweis: (durch Induktion uber n)

Fur n = 1 ist die Behauptung offenbar erfullt. Ist sie schon fur ein n ∈ IN richtig,

so folgt

(1 + h)n+1 = (1 + h) (1 + h)n ≥ (1 + h) (1 + nh)

= 1 + (n + 1)h + nh2 ≥ 1 + (n + 1)h.

Mit der Bernoullischen Ungleichung konnen wir das Konvergenzverhalten der sehr

wichtigen sogenannten Geometrischen Folge im nachsten Beispiel diskutieren. Die

geometrische Folge ist selbst wieder eine der wichtigsten Vergleichsfolgen bei Kon-

vergenzuntersuchungen.

22 KAPITEL 10. FOLGEN UND REIHEN

Beispiel 10.40. (Geometrische Folge)

Es sei die Folge an := qn, q ∈ IR, vorgegeben. Wir unterscheiden sieben Falle.

(i) q > 1: Dann ist qn streng monoton wachsend, nach oben nicht beschrankt und

bestimmt divergent gegen ∞. Da namlich nach

qn =(

1 + (q − 1))n ≥ 1 + n (q − 1)

︸ ︷︷ ︸

>0

die Elemente immer mindestens so groß sind, wie die der bestimmt divergenten

Folge {n(q − 1)}, ist limn→∞ qn = ∞.

(ii) q = 1: Dann gilt qn = 1 fur alle n, also limn→∞ qn = 1.

(iii) 0 < q < 1: Dann ist qn streng monoton fallend, und analog zu (i) zeigt man

0 < qn =1

(1/q)n≤ 1

1 + n(1/q − 1)

Da die Elemente von {qn} also stets kleiner als die Kehrwerte der entsprechen-

den Elemente einer uneigentlich gegen ∞ konvergierenden Folge sind, ist die

geometrische Folge in diesem Falle eine Nullfolge, d.h. limn→∞ qn = 0.

(iv) q = 0: Dann gilt qn = 0 fur alle n, also limn→∞ qn = 0.

(v) −1 < q < 0: Dann hat qn alternierendes Vorzeichen, ist also nicht monoton.

Wegen |qn| = |q|n −→ 0 nach (iii) gilt limn→∞ qn = 0.

(vi) q = −1: Dann ist qn = (−1)n beschrankt, aber nicht konvergent.

(vii) q < −1: Dann hat qn alternierendes Vorzeichen, ist unbeschrankt, also diver-

gent, aber nicht uneigentlich konvergent. 2

Wir zeigen nun die Konvergenz des Newton Verfahrens zur Bestimmung von√

2

durch Vergleich mit einer konvergenten geometrischen Folge.

Beispiel 10.41. (Newton Verfahren zur Berechnung von√

2)

Die Rekursion des Newton-Verfahrens aus Beispiel 10.2.

xn+1 :=1

2

(

xn +2

xn

)

, x0 > 0, (10.2)

ergibt durch Subtraktion von√

2 auf beiden Seiten

xn+1−√

2 =1

2

(

xn−2√

2+2

xn

)

=1

2xn

(x2n−2

√2 xn +2) =

1

2xn

(xn−√

2)2. (10.3)

10.3. REELLE ZAHLENFOLGEN 23

Hieraus liest man sofort ab: Ist x0 > 0, so gilt xn ≥√

2 fur alle n ∈ IN. Ferner hat

man fur n ≥ 1

xn+1 −√

2 =xn −

√2

xn︸ ︷︷ ︸

0< · <1

· 1

2(xn −

√2) ≤ 1

2(xn −

√2).

Der Abstand von xn zu√

2 wird daher in jedem Schritt wenigstens halbiert, und

durch Induktion folgt

0 < xn −√

2 ≤(

1

2

)n−1

(x1 −√

2) fur alle n ≥ 1.

Auf der rechten Seite steht hier (bis auf einen festen Faktor) die geometrische Null-

folge {2−n}. Daher ist auch {xn −√

2} Nullfolge und also limn→∞

xn =√

2.

Genauso sieht man, dass fur a > 0 die Folge

yn+1 :=1

2(yn +

a

yn

), y0 > 0,

gegen√

a konvergiert, und dass fur den Fehler gilt:

yn+1 −√

a =1

2yn

(yn −√

a)2. 2

Bemerkung 10.42. Die Feststellung, dass der Fehler des Newton-Verfahrens zur

Approximation von√

2 in jedem Schritt um den Faktor 0.5 fallt, unterschatzt die

Konvergenzgeschwindigkeit erheblich (vgl. Tabelle 10.2 auf Seite 4). Ware dies rea-

listisch, so brauchte das Verfahren zum Gewinn von drei Dezimalstellen wegen

210 = 1024 ≈ 103 etwa 10 Iterationen (und zwar unabhangig von der schon er-

reichten Genauigkeit). Formel (10.3) besagt dagegen, dass der Fehler (bis auf eine

multiplikative Konstante, die wir zur Vereinfachung der Argumentation vernachlassi-

gen) in jedem Schritt quadriert wird (man nennt dies quadratische Konvergenz)

. Ist der Fehler also schon 10−1, so hat er nach einem Schritt die Großenordnung

10−2, nach zwei Schritten die Großenordnung 10−4 und nach drei Schritten schon die

Großenordnung 10−8, so dass man zur Verkleinerung des Fehlers um den Faktor 10−3

ausgehend vom Fehler 0.1 zwei Schritte, ausgehend vom Fehler 10−3 gerade einen

Schritt und fur alle kleineren Fehler nur einen”Bruchteil eines Schrittes“ benotigt.

2

Eine weitere wichtige Folge behandelt das nachste Beispiel.

24 KAPITEL 10. FOLGEN UND REIHEN

Beispiel 10.43. Wir zeigen

an =xn

n!→ 0 fur jedes feste x ∈ IR.

Man fasst diese Aussage gewohnlich in die Worte, dass”n! schneller wachst als xn

fur jedes x“.

Zum Beweis teilt man|xn|n!

=|x|1

· |x|2

· . . . · |x|n

auf in die Quotienten, die kleiner als 1 sind, und diejenigen, die dies nicht sind.

Damit es uberhaupt welche gibt, die kleiner als 1 sind, betrachten wir nur Werte

n ≥ n0, wobei n0 selbst eine Zahl großer als |x| sei. Es ist damit

|an − 0| =|x|nn!

=|x|n0

n0!· |x|n0 + 1︸ ︷︷ ︸

<1

· . . . · |x|n − 1︸ ︷︷ ︸

<1

· |x|n

.

Aus der letzten Abschatzung konnen wir nun auf mehrere Weisen auf die Konvergenz

gegen Null schließen. Lasst man einerseits die als < 1 gekennzeichneten Faktoren

einfach weg, so erhalt man

|an − 0| ≤ |x|n0

n0!· |x|

n,

schatzt also die Abweichung von Null durch ein konstantes Vielfaches der Nullfolge

{n−1} ab.

Schatzt man andererseits alle Terme ab dem Quotienten q := |x|/(n0 + 1) durch q

ab, so erhalt man die Abschatzung

|an − 0| ≤ |x|n0

n0!· qn−n0 ,

die die Konvergenz gegen Null zeigt, da {qn−n0}n≥n0 geometrische Nullfolge ist. 2

Bisher wurden nur Folgen betrachtet, deren Grenzwert man erraten konnte. Die

Konvergenz der Folge an := (1 + 1n)n aus Beispiel 10.7. ist nicht so leicht beweisbar,

da der Grenzwert nicht bekannt ist. Sie ist aber monoton wachsend und nach oben

beschrankt. Hinsichtlich der Monotonie hat man namlich

an+1

an

=(1 + 1

n+1)n+1

(1 + 1n)n

= (1 +1

n + 1)

(1 + 1

n+1

1 + 1n

)n

= (1 +1

n + 1) (1 − 1

(n + 1)2)n,

und aus der Bernoullischen Ungleichung (Lemma 10.39.) folgt

an+1

an

≥ (1 +1

n + 1) (1 − n

(n + 1)2) =

n + 2

n + 1· n2 + n + 1

n2 + 2n + 1=

n3 + 3n2 + 3n + 2

n3 + 3n2 + 3n + 1> 1.

10.3. REELLE ZAHLENFOLGEN 25

Weiter ist {an} nach oben beschrankt, denn es ist

an = (1 +1

n)n ≤ (1 +

1

2n)2n = (1 − 1

2n + 1)−2n,

und mit der Bernoullischen Ungleichung erhalt man

an ≤ (1 − n

2n + 1)−2 =

(2n + 1

n + 1

)2 ≤(2n + 2

n + 1

)2= 4.

Zu einer monoton wachsenden und nach oben beschrankten Folge sagt uns unsere

Anschauung, dass eine solche Folge konvergieren muss. Wogegen konvergiert die-

se Folge aber? Tatsachlich ist der Grenzwert eine irrationale Zahl, die wir mit e

bezeichnen werden.

Naturlich stellt sich wieder die Frage, ob diese Zahl denn uberhaupt existiert. Da wir

fur e (zumindest zum gegenwartigen Zeitpunkt) anders als fur π noch keine andere

(z.B. geometrische) Definition haben, mag die Relevanz der Frage nach der Existenz

von e schon einleuchtender sein als bei π.

Ein Weg, e zu definieren, ist nun der, auf der Konvergenz der monoton wachsen-

den und nach oben beschrankten Folge zu beharren und zu postulieren, dass der

Grenzwert zu den reellen Zahlen gehort. Man definiert damit gewissermaßen die re-

elle Zahl durch ihre approximierende Folge. Die Menge der reellen Zahlen ließe sich

so als Gesamtheit aller Grenzwerte von konvergenten Folgen aus rationalen Zahlen

definieren.

Indem man die Konvergenz von Folgen mit Hilfe eines grenzwertunabhangigen Kri-

teriums (siehe Cauchy-Kriterium, unten) charakterisiert, wird diese Vorgehensweise

ubrigens allgemein eingesetzt, um normierte Raume, welche so unvollstandig sind wie

die rationalen Zahlen (also gewissermaßen auch noch”irrationale Locher“ haben),

zu”vervollstandigen“. Die Elemente des Raumes werden erganzt um die Grenzwerte

konvergenter Folgen, die sich aus Elementen des Raumes bilden lassen.

Obwohl diese Methode eigentlich sehr konstruktiv ist und wir sie spater auch in

abstrakterem Rahmen wieder gebrauchen werden, wollen wir hier einen anderen

Weg gehen, die rationalen Zahlen Q zu den reellen Zahlen IR zu erweitern. Wir

brauchen hierzu allerdings auch noch einige weitere elementare Begriffe. U.a. gehort

dazu der Begriff der Beschranktheit einer Menge in IR. Dieser Begriff ist uns fur den

Spezialfall (der Bildmenge) einer Folge schon bekannt.

Definition 10.44. Es sei M ⊂ IR. Existiert K ∈ IR mit x ≤ K fur alle x ∈ M

(bzw. x ≥ K fur alle x ∈ M), so heißt M nach oben beschrankt (bzw. nach

26 KAPITEL 10. FOLGEN UND REIHEN

unten beschrankt) und K heißt eine obere Schranke (bzw. untere Schranke) von

M . Ist M nach oben und nach unten beschrankt, so heißt M beschrankt .

Ist K0 eine obere (untere) Schranke fur M und gilt K0 ≤ K (K0 ≥ K) fur jede obere

(untere) Schranke K von M , so heißt K0 k leinste obere Schranke (großte untere

Schranke) oder auch Supremum ( Infimum) von M .

Wir verwenden hierfur die Schreibweise

K0 = sup M (bzw. K0 = inf M).

Bemerkung 10.45. Wie im Falle der Folgen ist eine Menge M ⊂ IR genau dann

beschrankt, wenn es ein K ≥ 0 gibt mit |x| ≤ K fur alle x ∈ M . In dieser Fassung

ergibt die Definition auch fur Teilmengen von C oder von IRn einen Sinn, wenn man

|x| als komplexen Betrag liest oder durch ‖x‖ ersetzt. 2

Beispiel 10.46. Die Menge IN ist nicht nach oben beschrankt. Dies besagt gerade

das Archimedische Axiom. 2

Beispiel 10.47. M := {x ∈ IR : x > 0, x2 < 2} ist nach oben beschrankt, denn

x ≥ 2 impliziert x2 ≥ 4, also x /∈ M , und daher ist 2 obere Schranke von M . Als

kleinste obere Schranke vermutet man hier schnell√

2. Uberlegen Sie einmal allein,

weshalb dies richtig ist. 2

Beim Nachweis, dass√

2 die kleinste obere Schranke der Menge M ist, haben Sie

vermutlich stillschweigend angenommen, dass√

2 auch eine reelle Zahl ist. Dass dies

der Fall ist, postuliert das sogenannte

Vollstandigkeitsaxiom

Jede nach oben beschrankte Teilmenge M von IR besitzt eine kleinste

obere Schranke.

Bemerkung 10.48. Durch das Vollstandigkeitsaxiom wird die Menge Q der ra-

tionalen Zahlen zur Menge IR der reellen Zahlen vervollstandigt. Damit man mit

den reellen Zahlen auch rechnen kann, mussen die Addition und Multiplikation von

Q auf IR fortgesetzt werden. Dies geschieht fur die Addition a + b, indem man fur

beide Summanden Folgen {an} ⊂ Q und {bn} ⊂ Q wahlt mit limn→∞ an = a und

10.3. REELLE ZAHLENFOLGEN 27

limn→∞ bn = b und a+b definiert durch a+b = limn→∞(an +bn). Fur die Multiplika-

tion verfahrt man genauso. Naturlich muss man noch zeigen, dass die so definierten

Summen und Produkte unabhangig von den gewahlten Folgen sind. Wir verzichten

darauf und halten nur fest, dass hiermit die reellen Zahlen alle in Abschnitt 1.4

genannten algebraischen Eigenschaften und Ordnungseigenschaften der rationalen

Zahlen erben. 2

Beispiel 10.49. Die Intervalle [0, 1) und [0, 1] haben beide den Wert 1 zum Su-

premum. Suprema konnen also zur Menge gehoren, mussen es aber nicht. 2

Bemerkung 10.50. Aus dem Vollstandigkeitsaxiom folgt naturlich, dass jede nach

unten beschrankte Teilmenge von IR ein Infimum besitzt. Betrachtet man namlich

M := {x ∈ IR : −x ∈ M}, dann gilt inf M = − sup M . 2

Fur die zu Beginn der Diskussion uber die Erweiterung von Q betrachtete Folge{

(1 + 1n)n

}

n∈ INhat die nach oben beschrankte Menge

{

(1 + 1n)n : n ∈ IN

}

nach

dem Vollstandigkeitsaxiom eine kleinste obere Schranke. Die Idee, dass die monoton

wachsende Folge gegen ihr Supremum konvergiert, ist nun naheliegend und wird

sogleich bewiesen werden. Hierzu zeigen wir zunachst eine Charakterisierung des

Supremums, der beim Umgang mit Folgen zweckmaßiger ist als unsere Definition.

Satz 10.51. Es sei M ⊂ IR nach oben beschrankt. Dann ist K0 genau dann das

Supremum von M , wenn gilt

(i) K0 ist obere Schranke,

(ii) fur alle ε > 0 existiert m ∈ M mit m > K0 − ε.

Beweis: (indirekt)

Ist K0 Supremum von M und ist die Bedingung (ii) verletzt, so existiert ein ε > 0,

so dass m ≤ K0 − ε fur alle m ∈ M gilt. Damit ist K0 − ε eine obere Schranke von

M und K0 − ε < K0 im Widerspruch zur Minimalitat von K0.

Gilt umgekehrt (i) und (ii) und K0 6= sup M , so ist K0 > sup M und mit ε :=

0.5(K0 − sup M) gilt fur alle m ∈ M

m ≤ sup M < sup M + ε = K0 − ε

im Widerspruch zu (ii).

Nun sind wir endlich in der Lage, die Konvergenz monotoner beschrankter Folgen

zu zeigen.

28 KAPITEL 10. FOLGEN UND REIHEN

Satz 10.52. Jede monoton wachsende, nach oben beschrankte (bzw. monoton fal-

lende, nach unten beschrankte) Zahlenfolge ist konvergent.

Beweis: Es sei M := {an : n ∈ IN} und a := sup M . Dann gibt es nach Satz 10.51.

fur alle ε > 0 ein aN ∈ M mit aN > a− ε, und wegen der Monotonie von {an} folgt

a − ε < an ≤ a fur alle n ≥ N , d.h. an → a.

Beispiel 10.53. Wir haben schon gesehen, dass die Folge mit den Elementen

an :=(

1 +1

n

)n

monoton wachsend und nach oben beschrankt ist. Nach Satz 10.52. ist sie also

konvergent. Ihr Grenzwert

e := limn→∞(1 +

1

n)n

heißt Eulersche7 Zahl und spielt bei allen Wachstums- oder Zerfallsprozessen eine

Rolle. Die ersten Ziffern des unendlichen (nichtperiodischen) Dezimalbruches von e

sind

e = 2.71828182845904523536028747135266249775724709... 2

Beispiel 10.54. Auf Seite 3 haben wir in Beispiel 10.1. zur Berechnung von√

2

zwei Folgen {an} und {bn} konstruiert mit den Eigenschaften

(i) {an} ist monoton wachsend,

(ii) {bn} ist monoton fallend,

(iii) an ≤ bn fur alle n ∈ IN.

Zwei Folgen mit diesen Eigenschaften definieren eine Intervallschachtelung (fur

die Intervalle [an, bn] gilt ja [a1, b1] ⊃ [a2, b2] ⊃ . . .). Nach Satz 10.52. sind beide

Folgen konvergent. Gilt zusatzlich bn − an → 0, so folgt limn→∞

an = limn→∞

bn. 2

Wir haben in Satz 10.26. schon Rechenregeln fur Folgen im allgemeinen Vektorraum

aufgestellt. Wir erweitern diese nun um Regeln fur reelle Zahlenfolgen.

7Leonhard Euler, 1707 - 1783, schweizer Mathematiker

10.3. REELLE ZAHLENFOLGEN 29

Satz 10.55. (Rechenregeln fur konvergente Zahlenfolgen)

Es seien {an}, {bn} ⊂ IR konvergent mit a := limn→∞ an, b := lim

n→∞ bn. Dann gilt

(i) Aus an ≤ bn fur alle n ∈ IN folgt a ≤ b.

(ii) {an ·bn} ist konvergent und limn→∞ anbn = ab. Insbesondere gilt also lim

n→∞ amn = am

fur alle m ∈ IN.

(iii) Gilt b 6= 0 und bn 6= 0 fur alle n, so ist{an

bn

}

konvergent und limn→∞

an

bn

=a

b.

Beweis: (i): Wegen Satz 10.26. genugt es zu zeigen, dass an ≥ 0 fur alle n ∈ IN

a ≥ 0 impliziert. Angenommen a < 0; dann gilt |an − a| < −a2

fur genugend große

n, d.h. an < a2

< 0, und dies ist ein Widerspruch.

(ii): Zu δ > 0 existieren N1, N2 ∈ IN mit |an−a| < δ fur alle n ≥ N1 und |bn− b| < δ

fur alle n ≥ N2, und nach Satz 10.20. gibt es ein C ≥ 0 mit |an| ≤ C fur alle n.

Daher gilt

|ab − anbn| = |ab − anb + anb − anbn| = |(a − an)b + an(b − bn)|≤ |a − an| · |b| + |an| · |b − bn| < δ(|b| + C) ≤ ε

fur δ ≤ ε/(|b| + C) und alle n ≥ max(N1, N2). Mit bn := an erhalt man speziell

limn→∞ a2

n = a2 und durch Induktion limn→∞ am

n = am fur alle m ∈ IN.

(iii): Wegen (ii) genugt es, limn→∞

1bn

= 1b

zu zeigen.

Zu |b|2

> 0 existiert N mit |b− bn| < |b|2

fur alle n ≥ N , d.h. |bn| ≥ |b| − |bn − b| > |b|2,

und daher folgt

|bn| ≥ min{|b1|, . . . , |bN−1|,|b|2} =: L > 0

fur alle n ∈ IN. Hiermit gilt

∣∣∣∣

1

bn

− 1

b

∣∣∣∣ =

|b − bn||bn| · |b|

≤ 1

L |b| |bn − b| −→ 0 fur n → ∞.

Bemerkung 10.56. Die Aussagen (ii) und (iii) gelten mit demselben Beweis auch

fur komplexe Folgen. 2

30 KAPITEL 10. FOLGEN UND REIHEN

Bemerkung 10.57. Wir haben bei der Konstruktion der m komplexen Wurzeln

aus einer komplexen Zahl in Mathematik I die Existenz der m-ten Wurzel einer

positiven rellen Zahl vorausgesetzt. Erst jetzt konnen wir uns davon uberzeugen,

daß es zu jeder positiven reellen Zahl a eine positive reelle Zahl m√

a gibt, deren m-te

Potenz gleich a ist.

Um dies zu sehen, betrachten wir ahnlich wie in Beispiel 10.2. die Folge

an+1 := an − amn − a

m am−1n

, a0 > 0 mit am0 > a,

und zeigen, daß diese Folge gegen eine reelle Zahl α konvergiert mit αm = a. Die

Folge selbst ergibt sich wieder aus dem sogenannten Newton-Verfahren zur Appro-

ximation der positiven Nullstelle von f(x) = xm−a, das wir selbst erst etwas spater

erklaren konnen.

Wegen

an+1 = an

(

1 +a − am

n

m amn

)

erhalt man aus am0 > a zunachst a1 < a0, und mit der Bernoullischen Ungleichung

(Lemma 10.39.)

am1 = am

0

(

1 +a − am

0

m am0

)m

≥ am0

(

1 +a − am

0

am0

)

= a.

Durch vollstandige Induktion folgt genauso

an > an+1, amn > a fur alle n ∈ IN.

Die Folge {an} ist damit monoton fallend, und da sie weiter wegen

an+1 =(m − 1) am

n + a

m am−1n

> 0

nach unten beschrankt ist, konvergiert sie. Wir nennen den Grenzwert α.

Wegen des Fallens von {an} kann man die letzte Abschatzung sogar verbessern zu

der Aussage, daß die Folgenelemente von Null weg beschrankt bleiben:

an+1 =(m − 1) am

n + a

m am−1n

≥ a

mam−10

=: β > 0

Da mit an ≥ β > 0 fur alle n nach der ersten Aussage von Satz 10.55. auch α =

limn→∞ an ≥ β > 0 gilt, kann man mit Satz 10.26. und Satz 10.55. den Schluß ziehen,

daß

α = limn→∞ an+1 = lim

n→∞

(

an − amn − a

m am−1n

)

= α − αm − a

m αm−1.

Das heißt aber, daß αm = a gilt, womit die Existenz einer m-ten Wurzel aus a

gezeigt ist. 2

10.3. REELLE ZAHLENFOLGEN 31

Fur die m-te Wurzel gilt die weitere Rechenregel

Satz 10.58. Gilt an ≥ 0 fur alle n, so ist { m√

an } fur alle m ∈ IN konvergent, und

es gilt limn→∞

m√

an = m√

a.

Beweis: Aus Satz 10.55. (i) folgt a ≥ 0.

Sei zunachst a = 0. Dann gibt es zu jedem δ > 0 ein N ∈ IN mit an < δ fur alle

n ≥ N , und mit δ := εm erhalt man m√

an < ε fur n ≥ N , d.h. limn→∞

m√

an = 0.

Fur a > 0 verwenden wir, dass fur alle c, d ∈ IR

(c − d)m−1∑

j=0

cm−1−jdj =m−1∑

j=0

cm−jdj −m−1∑

j=0

cm−1−jdj+1

=m−1∑

j=0

cm−jdj −m∑

j=1

cm−jdj = cm − dm

gilt. Mit c := m√

an und d := m√

a erhalten wir daraus

| m√

an − m√

a| = |an − a|/(

( m√

an)m−1

︸ ︷︷ ︸

≥0

+ · · ·︸︷︷︸

≥0

+( m√

a)m−1)

≤ |an − a|/

( m√

a)m−1 −→ 0 fur n → ∞.

Beispiel 10.59. Fur an :=√

n2 + 3n + 4 − n gilt

limn→∞ an = lim

n→∞(n2 + 3n + 4) − n2

√n2 + 3n + 4 + n

= limn→∞

3n + 4√n2 + 3n + 4 + n

= limn→∞

3 + 4/n√

1 + 3/n + 4/n2 + 1=

limn→∞ 3 + lim

n→∞ 4/n√

limn→∞ 1 + lim

n→∞ 3/n +(

limn→∞ 2/n

)2

+ 1

=3

22

Beispiel 10.60. Fur an := n√

a, a > 0, gilt limn→∞

an = 1.

Im Falle a ≥ 1 folgt namlich aus der Bernoullischen Ungleichung

a = (1 + ( n√

a − 1))n ≥ 1 + n ( n√

a − 1),

und daher

| n√

a − 1| = n√

a − 1 ≤ a − 1

n−→ 0 fur n → ∞.

Fur 0 < a < 1 folgt die Behauptung mit b := 1a

> 1 aus

limn→∞

n√

a = limn→∞

1n√

b=

1

limn→∞

n√

b= 1. 2

32 KAPITEL 10. FOLGEN UND REIHEN

In Satz 10.38. haben wir gesehen, dass alle Teilfolgen einer konvergenten Folge kon-

vergieren, und Beispiel 10.35. zeigt, dass die Umkehrung i.a. nicht richtig ist. Fur

monotone reelle Folgen reicht jedoch aus, dass eine beliebige Teilfolge konvergiert,

um die Konvergenz der gesamten Folge zu sichern.

Satz 10.61. Besitzt die monotone Zahlenfolge {an} ⊂ IR eine konvergente Teilfol-

ge {anj}, so konvergiert auch die gesamte Folge, und es gilt

a := limj→∞

anj= lim

n→∞ an.

Beweis: Ohne Beschrankung der Allgemeinheit sei die Folge {an} monoton wach-

send. Dann gilt a ≥ an fur alle n ∈ IN.

Es sei ε > 0 gegeben. Dann gibt es ein J ∈ IN mit

|anj− a| < ε fur alle j ≥ J,

und daher gilt fur alle n ≥ N := nJ wegen an ≥ anJ

|a − an| = a − an ≤ a − anJ< ε.

Beispiel 10.62. Wir betrachten als Verallgemeinerung der die Eulersche Zahl de-

finierenden Folge {(1 + 1n)n} die Folge {an} mit

an :=(

1 +λ

n

)n, λ ∈ Q.

Fur λ = 1 gilt limn→∞(1 + 1

n)n = e, und nach Satz 10.38. folgt

limk→∞

(

1 +1

kq

)kq= e fur jedes feste q ∈ IN.

Sei nun zunachst λ > 0, so daß mit naturlichen Zahlen p und q gilt λ = pq

> 0. Dann

ist fur k ∈ IN

akp =(

1 +p

qkp

)kp=

(

1 +1

kq

)kp=

(

(1 +1

kq)kq

) p

q ,

und nach Satz 10.55. konvergiert die Teilfolge {akp}k∈ IN mit

limk→∞

(

1 +p

qkp

)kp=

(

limk→∞

(1 +1

kq)kq

) p

q = eλ.

10.4. CAUCHYSCHES KONVERGENZKRITERIUM 33

Da die Folge {an} monoton wachst (dies zeigt man fast wortlich wie fur die Folge

{(1 + 1n)n}), konvergiert nach Satz 10.61. auch die gesamte Folge, und es gilt

limn→∞

(

1 +λ

n

)n= eλ.

Fur λ < 0 gilt nach der Bernoullischen Ungleichung (Lemma 10.39.) fur alle n > |λ|

(

1 +λ

n

)n (

1 − λ

n

)n=

(

1 − λ2

n2

)n ≥ 1 − λ2

n,

d.h.

1 − λ2

n≤

(

1 +λ

n

)n (

1 − λ

n

)n ≤ 1,

und daher1 − λ2

n

(1 − λn)n

≤(

1 +λ

n

)n ≤ 1

(1 − λn)n

.

Nach Satz 10.55. konvergieren die linke und rechte Seite beide nach dem ersten Teil

des Beweises gegen 1e−λ (beachte −λ > 0), und daher gilt

limn→∞

(

1 +λ

n

)n=

1

e−λ= eλ,

auch fur λ < 0. 2

10.4 Cauchysches Konvergenzkriterium

Wir beweisen als erstes das Cauchysche8 Konvergenzkriterium, das wie Satz 10.52.

nicht die Kenntnis des Grenzwertes voraussetzt. Es nutzt nicht die Ordnungsstruktur

von IR aus und kann auf normierte Raume (oder noch allgemeiner metrische Raume)

erweitert werden. Wenn wir ein solches Kriterium haben, konnen wir die Frage nach

der Vollstandigkeit auch solcher Raume stellen, wobei man bei der Frage nach”der

Vollstandigkeit“ immer die Vollstandigkeit bezuglich der Grenzwertbildung meint.

Satz 10.63. (Cauchysches Konvergenzkriterium)

Eine Folge {an} ⊂ IR ist genau dann konvergent, wenn es zu jedem ε > 0 ein (von

ε abhangiges) N ∈ IN gibt mit

|an − am| < ε fur alle n,m ≥ N. (10.4)

8Augustin Louis Cauchy, 1789 - 1857, franzosischer Mathematiker

34 KAPITEL 10. FOLGEN UND REIHEN

Beweis: Ist {an} konvergent mit limn→∞

an = a, so existiert zu ε2

> 0 ein N ∈ IN mit

|ap − a| < ε2

fur alle p ≥ N , und daher gilt fur n,m ≥ N

|an − am| ≤ |an − a| + |am − a| <ε

2+

ε

2= ε.

Ist umgekehrt die Bedingung von Satz 10.63. erfullt, so ist {an} beschrankt, denn

fur n ≥ N gilt |an| ≤ |aN | + |an − aN | ≤ |aN | + ε, und daher

|an| ≤ max{|aN | + ε, |a1|, . . . , |aN−1|} =: K fur alle n ∈ IN.

Es sei nun bn := inf{ak : k ≥ n}. Dann ist bn = min{an, bn+1} ≤ bn+1 monoton

wachsend und wegen bn ≤ an ≤ K nach oben beschrankt, also konvergent.

Sei a := limn→∞ bn und ε > 0 vorgegeben. Dann existiert ein n0 ≥ N mit a ≥ bn0 ≥ a−ε

und ein n1 ≥ n0 mit |bn0 − an1| < ε, und daher gilt fur n ≥ N

|a − an| ≤ |a − bn0 | + |bn0 − an1| + |an1 − an| < 3ε,

d.h. limn→∞

an = a.

Bemerkung 10.64. Die Eigenschaft (10.4) aus Satz 10.63. ist auch fur Folgen in

normierten Raumen (ja sogar metrischen Raumen) sinnvoll, wenn man den Betrag

durch die Norm (bzw. |an − am| durch d(an, am)) ersetzt. Folgen mit dieser Eigen-

schaft heißen Cauchy Folgen.

Der erste Teil des Beweises von Satz 10.63. kann wortlich auf den allgemeinen Fall

von Folgen in normierten Raumen ubertragen werden. Konvergente Folgen in nor-

mierten Raumen sind also stets Cauchy Folgen. Die Umkehrung ist aber im allge-

meinen falsch. Genau wie es in den rationalen Zahlen Q Cauchy-Folgen gibt, die

nicht gegen rationale Zahlen konvergieren, gibt es normierte Raume, in denen nicht

jede Cauchy-Folge einen Grenzwert hat. 2

Bemerkung 10.65. Ein normierter Raum, in dem jede Cauchy Folge konvergent

ist, heißt vollstandiger normierter Raum oder Banachraum9. Wird die Norm

des Banach-Raumes M durch ein inneres Produkt induziert, so nennt man ihn einen

vollstandigen Euklidischen Vektorraum oder Hilbertraum10. 2

9Stefan Banach, 1892 - 1945, polnischer Mathematiker

10David Hilbert, 1862 - 1943, deutscher Mathematiker

10.4. CAUCHYSCHES KONVERGENZKRITERIUM 35

Wir haben gesehen, dass jede konvergente Folge beschrankt ist, aber nicht jede

beschrankte Folge konvergiert. Es wird sich zeigen, daß es oft schon nutzlich ist zu

wissen, daß es eine konvergente Teilfolge gibt. Der folgende Satz von Bolzano11 und

Weierstraß12 zeigt, dass dies schon die Beschranktheit der Folge liefert.

Satz 10.66. (Bolzano, Weierstraß)

Jede beschrankte reelle Zahlenfolge {an} besitzt eine konvergente Teilfolge.

Beweis: Es sei [A,B] ein Intervall, das alle an enthalt. Durch Intervallhalbierung

konstruieren wir eine Intervallschachtelung, so dass jedes Intervall unendlich viele

Folgenglieder enthalt:

Sei A0 := A, B0 := B und A ≤ An ≤ Bn ≤ B schon konstruiert, so dass unendlich

viele der ak in [An, Bn] liegen.

Sei Cn+1 := 12(An + Bn) und An+1 := An, Bn+1 := Cn+1, falls {k : ak ∈ [An, Cn+1]}

eine unendliche Menge ist, und An+1 := Cn+1, Bn+1 := Bn sonst. Dann gilt An ≤An+1 ≤ Bn+1 ≤ Bn und Bn −An = 2−n (B−A), und daher lim

n→∞An = α = limn→∞Bn.

Wir definieren nun die konvergente Teilfolge {ani} von {an}: Sei n0 = 1. Ist nk schon

bestimmt, so wahlen wir nk+1, so dass nk+1 > nk und ank+1∈ [Ak+1, Bk+1]. Dann

gilt wegen α ← Ak ≤ ank≤ Bk → α auch limk→∞ ank

= α.

Definition 10.67. Die Grenzwerte konvergenter Teilfolgen von {an} heißen die

Haufungspunkte von {an}.

Mit diesem Begriff formuliert man Satz 10.66. gewohnlich wie folgt:

Satz 10.68. (Bolzano, Weierstraß, 2. Fassung)

Jede beschrankte reelle Zahlenfolge {an} besitzt einen Haufungspunkt.

Bemerkung 10.69. Ist {an} eine konvergente Folge und a ihr Grenzwert, so ist

a naturlich ein Haufungspunkt von {an}, und es ist klar, dass es keine weiteren

Haufungspunkte von {an} geben kann.

Wahrend wir fur den Grenzwert a einer konvergenten Folge {an} sagen konnen, daß

fur jedes ε > 0 fast alle (d.h. alle bis auf endlich viele) Folgenelement eine Abstand

11Bernhard Placidus Johann Nepomuk Bolzano, 1781 - 1848, bohmischer Mathematiker

12Karl Theodor Wilhelm Weierstraß, 1815 - 1897, deutscher Mathematiker

36 KAPITEL 10. FOLGEN UND REIHEN

kleiner als ε von a haben, kann man fur einen Haufungspunkt h nur sagen, daß fur

jedes ε > 0 unendlich viele Folgenelemente einen Abstand von h haben, der kleiner

als ε ist. 2

Da auch die Haufungspunkte von Haufungspunkten wieder Haufungspunkte sind

(vgl. Aufgabenband), besitzt jede beschrankte reelle Zahlenfolge einen maximalen

und einen minimalen Haufungspunkt. Diese heißen limes superior ( lim supn→∞ an)

und limes inferior ( lim infn→∞ an). Ist {an} nach oben (bzw. nach unten) unbe-

schrankt, so schreiben wir lim supn→∞ an = ∞ (bzw. lim infn→∞ an = −∞).

Ist a = lim supn→∞ an, so ist dadurch zweierlei sicher gestellt: Fur alle α > a gibt

es hochstens endlich viele Folgenglieder an mit an ≥ α, und fur alle β < a gibt es

unendlich viele Folgenglieder an mit β < an.

Beispiel 10.70.

an :=

(−1)k fur n = 3k, k ∈ IN,

5 − 1n

fur n = 3k + 1, k ∈ IN,

−n fur n = 3k + 2, k ∈ IN.

Dann besitzt {an} die Haufungspunkte −1, 1, 5. Es gilt

lim sup an = 5 und lim inf an = −∞. 2

10.5 Folgen in Vektorraumen

Wir kehren nun zu der allgemeinen Situation einer Folge in einem Vektorraum M

mit einer Norm ‖ · ‖ zuruck. Eine Folge {an} heißt dann konvergent gegen a, wenn

es zu jedem ε > 0 ein N ∈ IN gibt mit ‖an − a‖ < ε fur alle n ∈ IN.

Bekanntlich kann ein und derselbe Vektorraum mit verschiedenen Normen versehen

werden. In der Definition der Konvergenz tritt nun eine bestimmte Norm auf. Es ist

deshalb von vornherein nicht auszuschließen, dass die Konvergenz einer Folge von

der jeweils betrachteten Norm abhangt. Dies hieße, daß eine Folge, die bezuglich

der einen Norm gegen ein Grenzelement konvergiert, bezuglich einer anderen Norm

divergent sein konnte.

Tatsachlich konnen solche Komplikationen in unendlichdimensionalen Raumen auf-

treten, wie das nachste Beispiel zeigt.

10.5. FOLGEN IN VEKTORRAUMEN 37

Beispiel 10.71. Es sei

M := {f : [0, 1] → IR stetig}.

Wir betrachten die Folge {fn} der Monome fn(x) := xn.

In Mathematik I haben wir gesehen, daß auf M durch

〈f, g〉 :=

1∫

0

f(x) g(x) dx

ein inneres Produkt definiert ist. Wir betrachten das Verhalten der Folge {fn}bezuglich der durch dieses innere Produkt induzierten Norm ‖f‖2 :=

〈f, f〉 und

bezuglich der weiteren sogenannten Maximum-Norm

‖f‖∞ = max{|f(x)| : x ∈ [0, 1]}.

Wegen

‖fn‖2 =

√√√√√

1∫

0

x2n dx =1√

2n + 1→ 0

konvergiert die Folge bezuglich der ‖ · ‖2-Norm gegen die Null-Funktion.

Fur die Maximum-Norm dagegen findet man ‖fn‖∞ = 1 fur alle n ∈ IN, so daß {fn}nicht gegen die Funktion f(x) ≡ 0 konvergiert. 2

Daßdie Konvergenz einer Folge von der gewahlten Norm abhangt, kann nur in un-

endlich dimensionalen Raumen auftreten. Wir werden die wichtigsten Konvergenz-

begriffe fur Folgen stetiger Funktionen in Abschnitt 12.2 diskutieren. In endlich

dimensionalen Raumen folgt aus der Konvergenz bezuglich einer Norm die Konver-

genz bezuglich jeder anderen Norm. Um dies einzusehen benotigen wir den folgenden

Begriff.

Definition 10.72. Es sei V ein Vektorraum (endlicher oder unendlicher Dimensi-

on), und es seien ‖·‖ und ‖·‖ zwei Normen auf V . Diese Normen heißen aquivalent,

wenn es Konstanten C1 > 0 und C2 > 0 gibt, so dass

C1 ‖v‖ ≤ ‖v‖′ ≤ C2 ‖v‖ fur alle v ∈ V (10.5)

gilt.

Bezuglich aquivalenter Normen stimmen die Konvergenzbegriffe uberein.

38 KAPITEL 10. FOLGEN UND REIHEN

Satz 10.73. Es sei V ein Vektorraum, und seien ‖ · ‖ und ‖ · ‖′ zwei aquivalente

Normen auf V . Eine Folge {an} konvergiert genau dann bzgl. der Norm ‖ · ‖, wenn

sie bzgl. der Norm ‖ · ‖′ konvergiert.

Beweis: Konvergiert die Folge {an} bzgl. der Norm ‖ · ‖, so gibt es ein a ∈ V , so

dass ‖an − a‖ → 0 fur n → ∞, und aus

0 ≤ ‖an − a‖′ ≤ C2‖an − a‖

folgt dann auch ‖an − a‖′ → 0 fur n → ∞. Gilt umgekehrt ‖an − a‖′ → 0, so folgt

aus

0 ≤ ‖an − a‖ ≤ 1

C1

‖an − a‖′

auch die Konvergenz bzgl. der Norm ‖ · ‖.

Bemerkung 10.74. Beispiel 10.71. zeigt, dass die Normen

‖f‖2 :=

√√√√√

1∫

0

|f(t)| dt und ‖f‖∞ := max1≤t≤1

|f(t)|

auf dem Raum der stetigen, reellenwertigen Funktion auf dem Intervall [0, 1] nicht

aquivalent sind. 2

Satz 10.75. (Normaquivalenzsatz)

Je zwei Normen auf dem Raum IRn sind aquivalent.

Beweis: Es genugt zu zeigen, dass jede Norm auf IRn der Maximumnorm

‖x‖∞ := maxi=1,...,n

|xi|

aquivalent ist. Sind namlich ‖ · ‖ und ‖ · ‖′ zwei Normen auf IRn und gilt fur alle

x ∈ IRn

C1‖x‖∞ ≤ ‖x‖ ≤ C2‖x‖∞ und C ′1‖x‖∞ ≤ ‖x‖′ ≤ C ′

2‖x‖∞

fur positive Konstante C1, C2, C′1, C

′2 > 0, so folgt

C ′1

C2

‖x‖ ≤ C ′1‖x‖∞ ≤ ‖x‖′ ≤ C ′

2‖x‖∞ ≤ C ′2

C1

‖x‖.

Zunachst gilt

‖x‖ = ‖n∑

j=1

xjej‖ ≤

n∑

j=1

|xj| · ‖ej‖ ≤ maxj=1,...,n

|xj| ·n∑

j=1

‖ej‖ =: c2‖x‖∞.

10.5. FOLGEN IN VEKTORRAUMEN 39

Um auch die zweite Ungleichung zu zeigen, setzen wir

C1 := inf{‖x‖ : ‖x‖∞ = 1}.

Ist C1 > 0, so sind wir fertig, denn dann gilt

∥∥∥∥∥

x

‖x‖∞

∥∥∥∥∥

=1

‖x‖∞‖x‖ ≥ C1 fur alle x 6= 0,

und daher

C1‖x‖∞ ≤ ‖x‖ fur alle x ∈ IRn.

Wir fuhren also die Annahme C1 = 0 zum Widerspruch. Im Falle C1 = 0 gibt es

eine Folge {am} ⊂ IRn mit

‖am‖∞ = 1 und ‖am‖ → 0 fur m → ∞.

Aus dieser Folge wahlen wir eine bzgl. ‖ · ‖∞ konvergente Teilfolge aus. Wegen

‖am‖∞ = maxj=1,...,n

|am,j| = 1

gilt fur die Folge der ersten Komponenten −1 ≤ am,1 ≤ 1. Sie ist also beschrankt,

und daher besitzt sie nach dem Satz von Bolzano und Weierstraß (Satz 10.66.) eine

konvergente Teilfolge {amj, 1}.

Wir betrachten nun die Teilfolge {amj} der Ausgangsfolge, deren erste Komponenten

die eben ausgewahlte konvergente reelle Teilfolge der ersten Komponenten bilden.

Mit der gesamten Folge {am} ist auch die Teilfolge {amj} in der Maximumnorm be-

schrankt, und daher gilt dann auch fur die zweiten Komponenten −1 ≤ amj ,2 ≤ 1.

Nach Satz 10.66. konnen wir also hieraus wieder eine konvergente Teilfolge {amjk,2}

auswahlen. Fur die entsprechende Teifolge {amjk} der Vektorfolge konvergieren dann

schon die ersten beiden Komponentenfolgen. Indem wir so fortfahren, sind wir nach

insgesamt n-maligem Auswahlen bei einer Teilfolge {am′} angelangt, fur die alle

Komponenten konvergieren, und die damit in der Maximumnorm gegen ein a kon-

vergiert.

Es gilt also

‖am′‖∞ = 1, ‖am′ − a‖∞ → 0, ‖am′‖ → 0.

Hieraus folgt einerseits

‖a‖ ≤ ‖a − am′‖ + ‖am′‖ ≤ C2‖a − am′‖∞ + ‖am′‖ → 0 fur m′ → ∞.

40 KAPITEL 10. FOLGEN UND REIHEN

Da die linke Seite unabhangig von m′ ist, gilt ‖a‖ = 0, d.h. a = 0. Andererseits hat

man

‖a‖∞ ≥ ‖am′‖∞ − ‖a − am′‖∞ → 1,

und daher a 6= 0. Damit ist der Widerspruch erreicht und die Aquivalenz von ‖ · ‖und ‖ · ‖∞ nachgewiesen.

Beispiel 10.76. Man kann sich uberlegen, dass die Aquivalenz der Normen geo-

metrisch bedeutet, dass fur je zwei Normen die Einheitskugel bezuglich der einen

Norm durch ein positives Vielfaches der Einheitskugel bezuglich der anderen Norm

umfasst werden kann. Wie der dabei zu wahlende Faktor mit den Konstanten C1 und

C2 aus der Ungleichung (10.5) zusammenhangt, behandeln wir im Aufgabenband.

Als haufig verwendete Normen des IRn

sind schon aus der Mathematik I be-

kannt

‖x‖1 :=n∑

i=1

|xi|

‖x‖2 :=

√√√√

n∑

i=1

x2i

‖x‖∞ := maxi=1,...,n

|xi|.

Die Abbildung 10.4 enthalt fur den Fall

n = 2 die zugehorigen Einheitskugeln.−1 0 1

−1

0

1

||.||1

||.||2

||.||∞

Abbildung 10.4

Fur die eben angegebenen Normen lauten die Normaquivalenzungleichungen (mit

optimalen Konstanten) gerade

‖x‖2 ≤ ‖x‖1 ≤ √n ‖x‖2 fur alle x ∈ IRn,

‖x‖∞ ≤ ‖x‖2 ≤ √n ‖x‖∞ fur alle x ∈ IRn. 2

Aus Satz 10.73. und Satz 10.75. folgt, dass die Konvergenz einer Folge {am} in IRn

nicht von der gewahlten Norm abhangt. Wahlt man bei der Konvergenzuntersuchung

speziell die Maximumnorm, so erhalt man das folgende Kriterium.

Korollar 10.77. Eine Folge {ak} ⊂ IRn konvergiert genau dann, wenn jede ihrer

Komponentenfolgen konvergiert. Der Grenzwert kann komponentenweise berechnet

werden.

10.5. FOLGEN IN VEKTORRAUMEN 41

Beweis: Es seien am := (ak1, . . . , amn)T , a := (α1, . . . , αn)T ∈ IRn mit am → a.

Dann gilt

ak → a ⇐⇒ ‖ak − a‖∞ → 0

⇐⇒ max1≤i≤n

|aki − αi| → 0

⇐⇒ |aki − αi| → 0 fur i = 1, . . . , n.

Die Normunabhangigkeit der Konvergenz gilt allgemeiner als oben gezeigt in allen

endlichdimensionalen normierten Raumen. In Mathematik I wurde gezeigt, dass

jeder endlichdimensionale Vektorraum V (mit Skalaren aus IR) der Dimension n

dem IRn isomorph ist. Ist namlich v1, . . . ,vn eine Basis von V , so kann uber die

Darstellung v =∑n

i=1 xi(v)vi jeder Vektor v ∈ V mit seinem Koordinatenvektor

x(v) = (x1(v), . . . , xn(v))T ∈ IRn identifiziert werden. Ist in V eine Norm ‖ · ‖V

gegeben, so ist durch

‖x(v)‖ := ‖n∑

i=1

xivi‖V = ‖v‖V (10.6)

eine Norm des Koordinatenvektors x(v) ∈ IRn bestimmt. Damit sieht man nun leicht

die Aquivalenz zweier Normen ‖ · ‖ und ‖ · ‖′ in V : Fur die zugehorigen Normen

‖ · ‖ und ‖ · ‖′ der Koordinatenvektoren in IRn gibt es nach Satz 10.75. Konstanten

C1, C2 > 0 mit

C1‖x‖ ≤ ‖x‖′ ≤ ‖x‖ fur alle x ∈ IRn,

und daher gilt dann fur alle v ∈ V

C1‖v‖ = C1‖x(v)‖ ≤ ‖x(v)‖′ = ‖v‖′ = ‖x(v)‖′ ≤ C2‖x(v)‖ = C2‖v‖.

Es gilt also die Verallgemeinrung von Satz 10.75.

Satz 10.78. Ist V ein endlichdimensionaler Vektorraum, so sind je zwei Normen

auf V aquivalent. Damit ist die Konvergenz einer Folge {am} (und ihr Grenzwert)

unabhangig von der gewahlten Norm.

Mit Korollar 10.77. und Satz 10.78. kann man nun alle Resultate aus Abschnitt 10.1

und Abschnitt 10.4 auf Folgen von Vektoren ubertragen. Es gilt z.B. das Cauchysche

Konvergenzkriterium.

Satz 10.79. (Cauchysches Konvergenzkriterium)

Es sei V ein endlichdimensionaler Vektorraum und ‖ · ‖ eine Norm auf V . Eine

42 KAPITEL 10. FOLGEN UND REIHEN

Folge {am} ⊂ V ist genau dann konvergent, wenn sie Cauchy-Folge ist, d.h. wenn

es zu jedem ε > 0 ein N = N(ε) ∈ IN gibt mit

‖ak − am‖ < ε fur alle k,m ≥ N.

Jeder endlichdimensionale normierte Vektorraum ist also ein Banachraum.

Beweis: Wir wissen schon, daß jede konvergente Folge Cauchy-Folge ist und brau-

chen daher nur noch die andere Richtung der Aquivalenz zu zeigen.

Es sei {am} ⊂ V eine Cauchy-Folge. Durch Ubergang zur Folge der Koordinaten-

vektoren unter Benutzung der induzierten Norm aus (10.6) konnen wir ohne Be-

schrankung der Allgemeinheit annehmen, dass {am} eine Cauchy-Folge im IRn ist,

und wegen der Aquivalenz der Normen ist sie dann auch bzgl. der Maximumnorm

eine Cauchy-Folge.

Zu jedem ε > 0 gibt es also ein N ∈ IN, so daß mit den Bezeichnungen des letzten

Beweises

|aki − ami| < ε fur alle k,m ≥ N und fur alle i = 1, . . . , n.

Alle Komponentenfolgen sind also reelle Cauchy-Folgen, und da IR vollstandig ist,

sind die Komponentenfolgen mithin konvergent. Nach Korollar 10.77. folgt hieraus

dann auch die Konvergenz der ganzen Folge.

Ebenso laßt sich der Satz von Bolzano-Weierstraß verallgemeinern:

Korollar 10.80. (Bolzano–Weierstraß, allgemeine Version)

Jede beschrankte Folge in einem endlich dimensionalen normierten Raum hat eine

konvergente Teilfolge.

Beweis: Wir beschranken uns wieder auf den Fall des Raumes IRn. Ist die Folge

{am} bezuglich irgendeiner Norm beschrankt, so ist sie auch bezuglich der Ma-

ximumnorm beschrankt, und daher sind auch alle Folgen der Vektorkomponenten

beschrankt. Wie im Beweis des Normaquivalenzsatzes kann man daher nacheinan-

der Teilfolgen auswahlen, so dass schließlich alle Komponentenfolgen und damit die

ausgewahlte Vektorfolge konvergiert.

10.6. KONVERGENZKRITERIEN FUR REIHEN 43

Beispiel 10.81. Mit der komplexen Zahl z := r eiφ definieren wir die komplexe

Folge zn = rn einφ = rn(cos nϕ + i sin nϕ), die wir mit der Folge

an := (rn cos nϕ, rn sin nϕ)T

in IR2 identifizieren.

Fur |z| < 1 ist die Folge dann beschrankt. Es ist klar, daß sie eine konvergente

Teilfolge besitzt, denn die gesamte Folge ist wegen ‖an‖2 = |z|n = rn → 0 fur

n → ∞ eine Nullfolge.

Fur |z| > 1 ist die Folge {an} unbeschrankt und also divergent. Sie besitzt auch keine

Haufungspunkte, denn die Folge {‖an‖} wachst streng monoton uber alle Grenzen.

Fur |z| = 1 schließlich ist {an} beschrankt, aber Konvergenz kann (außer fur z = 1)

nicht festgestellt werden. Die Folge hat aber (mindestens) eine konvergente Teilfol-

ge, so daß es stets (mindestens) einen Haufungspunkt der Folge auf dem komplexen

Einheitskreis gibt. Tatsachlich konnen sowohl endlich viele als auch unendlich vie-

le Haufungspunkte auftreten. Mit Mitteln, die sehr weit außerhalb des aktuellen

Kenntnisstandes liegen, kann man ubrigens zeigen, daß es (sehr viele) Falle gibt, bei

denen alle Punkte des Einheitskreises Haufungspunkte sind. 2

10.6 Konvergenzkriterien fur Reihen

Eine besonders wichtige Klasse unendlicher Folgen sind die Reihen.

Definition 10.82. Es sei {an} ⊂ V eine gegebene Folge in dem vollstandigen

normierten Vektorraum V . Dann heißt die hiermit definierte Folge

sn :=n∑

j=1

aj

eine (unendliche) Reihe. Die aj heißen die Glieder der Reihe, die sn heißen die

Partialsummen der Reihe.

Die Reihe heißt genau dann konvergent (divergent), wenn die Folge {sn} kon-

vergiert (divergiert). Wir bezeichnen die Reihe und — im Falle der Konvergenz —

auch ihren Grenzwert mit∞∑

j=1aj.

44 KAPITEL 10. FOLGEN UND REIHEN

Wir hatten oben festgestellt, dass Folgen haufig nicht direkt verfugbare Objekte ap-

proximieren. Bei solchen Approximationen ist die Verwendung von Reihen naturlich.

Der Approximationsprozess

sn −→ s

fur ein Objekt s durch eine Folge {sn} verlauft namlich oft so, dass man im (n+1)-

ten Schritt fur die Approximation sn mit geeigneten Mitteln eine Schatzung an+1

des Fehlers

an+1 ≈ s − sn

ermittelt und hiermit die Approximation durch

sn+1 := sn + an+1,

verbessert. Die sn sind offenbar die Partialsummen der Reihe mit den Gliedern an.

Beispiel 10.83. (Iterative Losung linearer Systeme)

Wir betrachten das lineare Gleichungssystem

Ax = b,

wobei die nichtsingulare Matrix A ∈ IR(n,n) und der Vektor b ∈ IRn gegeben sind.

Wir nehmen an, dass die Dimension n des Systems so groß ist, dass wir nicht das

Gaußsche Eliminationsverfahren anwenden konnen.

Es sei x0 eine Naherung der Losung x∗ = A−1b. Um diese zu verbessern, schatzen

wir den den Fehler x0 − x∗ durch das sogenannte Residuum

r0 := b − Ax0.

Wegen

A(x∗ − x0) = b − Ax0 = r0

kann man aus r0 eine Naherung φ0 des Fehlers x0 − x∗ berechnen, wenn man nur

eine regulare Matrix A ∈ IR(n,n) hat, die A gut approximiert und fur die man lineare

Gleichungssysteme Ay = c, c ∈ IRn, leicht losen kann.

Setzt man namlich

φ0 := A−1

r0 = A−1

A(x∗ − x0),

so wird φ0 eine umso bessere Naherung des Fehlers sein und

x1 := x0 + φ0 = x0 + A−1

A(x∗ − x0) = (E − A−1

A)x0 + A−1

Ax∗

10.6. KONVERGENZKRITERIEN FUR REIHEN 45

eine umso bessere Naherung von x∗ je naher A bei A liegt.

Wiederholt man das Verfahren, so ergibt sich

xn+1 := xn − A−1

(Axn − b).

Mit G := E − A−1

A und g := A−1

b schreibt sich dies einfacher als

xn+1 := Gxn + g,

woraus man nach den ersten Iterationen

x1 = Gx0 + g,

x2 = Gx1 + g = G2x0 + Gg + g,

x3 = Gx2 + g = G3x0 + G2g + Gg + g

induktiv schnell

xn = Gnx0 +n−1∑

i=0

Gig, n ∈ IN (10.7)

schließt. 2

Beispiel 10.84. (Geometrische Reihe)

Die wohl wichtigste Reihe ist die geometrische Reihe

∞∑

j=0

qj mit vorgegebenem q ∈ C.

Sie spielt in der Finanzmathematik eine zentrale Rolle. Wir benotigen sie vor allem,

um andere Reihen durch Vergleich mit geometrischen Reihen auf Konvergenz zu

untersuchen.

Nach Abschnitt 1.5 gilt fur die Partialsummen

sn =n∑

j=0

qj =

1 − qn+1

1 − qfur q 6= 1,

n + 1 fur q = 1.

Daher konvergiert die geometrische Reihe genau dann, wenn die Folge {qn} konver-

giert und q 6= 1 gilt, d.h. wenn |q| < 1. Fur den Grenzwert gilt in diesem Fall

∞∑

j=0

qj =1

1 − q. 2

46 KAPITEL 10. FOLGEN UND REIHEN

Beispiel 10.85. (Harmonische Reihe)

Die harmonische Reihe∞∑

j=1

1

jdivergiert, denn sicher ist die Folge der Partialsummen

sn :=n∑

j=1

1

jmonoton wachsend, und wegen

s1 = 1, s2 − s1 =1

2, s4 − s2 =

1

3+

1

4≥ 1

2, . . . ,

s2n − sn =1

n + 1+

1

n + 2+ · · · + 1

2n≥ n · 1

2n=

1

2

gilt

s2n = s1 + (s2 − s1) + (s4 − s2) + · · · + (s2n − s2n−1)

≥ 1 +1

2+

1

2+ · · · + 1

2= 1 +

n

2.

Die Folge sn ist also unbeschrankt. 2

Beispiel 10.86. Mit fast der gleichen Technik wie in Beispiel 10.85., mit der man

dort die Divergenz der harmonischen Reihe zeigte, kann man andererseits die Kon-

vergenz der Reihe∞∑

j=1

1

jafur jedes a > 1 zeigen. Die harmonische Reihe konvergiert

also”nur ganz knapp nicht“.

Sowohl schon beim Aufschreiben dieser Aussage als auch bei ihrem gleich anzuge-

henden Beweis verwenden wir schon die”allgemeine Potenz“ xα fur positive reelle

Werte von x und α, ohne dass diese fur nichtnaturliche Werte von α definiert und

untersucht worden ware. Wir erlauben uns aber einmal diesen Vorgriff, da sich die

Behandlung der angegebenen Reihe an dieser Stelle anbietet, um dem Eindruck

entgegenzuwirken, dass die harmonische Reihe etwa”ganz heftig divergiere“.

Wir benotigen hier im Vorgriff die Aussagen, dass bei dieser Verallgemeinerung der

Potenz die bekannten Potenzregeln erhalten bleiben und dass 2α > 1 fur alle α > 0

gilt. Damit konnen wir nun in die Analyse der Reihe einsteigen.

Die Folge der Partialsummen

sn :=n∑

j=1

1

ja

ist monoton wachsend. Wir haben daher nur die Beschranktheit der Folge {sn} zu

zeigen.

Es ist

s2n−1 − s2n−1−1 =1

(2n−1)a+ · · · + 1

(2n − 1)a≤ 2n−1 · 1

(2n−1)a=

(1

2a−1

)n−1

,

10.6. KONVERGENZKRITERIEN FUR REIHEN 47

und daher (mit s0 := 0 und q := 1/2a−1 < 1)

s2n−1 =n∑

j=1

(s2j−1 − s2j−1−1) ≤n∑

j=1

(1

2a−1

)j−1

=n−1∑

j=0

qj ≤ 1

1 − q,

woraus wegen der Monotonie von {sn} die Beschranktheit von {sn} folgt, also die

Konvergenz. 2

Da die Konvergenz von Reihen auf die der Partialsummen zuruckgefuhrt wird, sind

die folgenden beiden Satze 10.87. und 10.88. sofort auf entsprechende Satze fur

Folgen zuruckfuhrbar:

Satz 10.87. (Rechenregeln fur Reihen)

Konvergieren die Reihen∞∑

j=1aj und

∞∑

j=1bj und ist α ∈ IR (bzw. α ∈ C), so konver-

gieren auch die Reihen∞∑

j=1(aj + bj) und

∞∑

j=1(α aj), und es gilt

∞∑

j=1

(aj + bj) =∞∑

j=1

aj +∞∑

j=1

bj,

∞∑

j=1

(α aj) = α∞∑

j=1

aj.

Satz 10.88. (Cauchysches Konvergenzkriterium)

Es sei V ein vollstandiger normierter Vektorraum. Die Reihe∞∑

j=1aj in V konvergiert

genau dann, wenn fur alle ε > 0 ein N = N(ε) ∈ IN existiert mit

∥∥∥∥

m∑

j=n

aj

∥∥∥∥ < ε fur alle n,m ≥ N.

Bemerkung 10.89. Aus Satz 10.88. liest man unmittelbar ab, dass das Konver-

genzverhalten unverandert bleibt, wenn man endlich viele Glieder abandert; anders

als bei den Folgen wird hierdurch aber naturlich der Grenzwert geandert. 2

Setzt man im Cauchy Kriterium (Satz 10.88.) m = n, so folgt aus der Konvergenz

der Reihe∞∑

j=1aj, dass es zu jedem ε > 0 ein N ∈ IN gibt mit ‖an‖ < ε fur alle

n ≥ N . Es gilt also

Satz 10.90. (Notwendige Konvergenz-Bedingung fur Reihen)

Ist∞∑

j=1aj konvergent, so ist {an} eine Nullfolge.

48 KAPITEL 10. FOLGEN UND REIHEN

Dass die Umkehrung nicht gilt, zeigt das Beispiel 10.85. der harmonischen Reihe.

Besitzt die Reihe reelle Glieder, so kann man die Ordnungsstruktur von IR ausnutzen,

um die Konvergenz zu zeigen.

Definition 10.91. Eine reelle Reihe∞∑

j=1aj heißt alternierend , wenn die Glieder

aj wechselndes Vorzeichen haben, d.h. wenn

aj · aj+1 < 0 fur alle j ∈ IN.

gilt.

Fur alternierende Reihen gilt das folgende Leibniz13 Kriterium.

Satz 10.92. (Leibniz Kriterium)

Es sei {an} eine monoton fallende reelle Nullfolge. Dann konvergiert die alternie-

rende Reihe∑∞

j=0(−1)jaj, und fur den Grenzwert s :=∑∞

j=0(−1)jaj gilt

−a2n+1 ≤ s − s2n ≤ 0 ≤ s − s2n−1 ≤ a2n, (10.8)

also insbesondere die Einschließung

s2n−1 ≤ s ≤ s2n fur alle n ∈ IN.

Beweis: Es seien

bn :=2n−1∑

j=0

(−1)jaj und cn :=2n∑

j=0

(−1)jaj.

Dann gilt fur alle n ∈ IN

bn+1 = bn + (a2n − a2n+1) ≥ bn,

cn+1 = cn + (a2n+2 − a2n+1) ≤ cn,

cn = bn + a2n ≥ bn.

Die Folgen {bn}, {cn} bilden also eine Intervallschachtelung, und wegen cn − bn =

a2n → 0 gilt limn→∞ bn = lim

n→∞ cn. Damit existiert auch∞∑

j=0(−1)jaj, und es gilt die

Einschließung (10.8).

13Gottfried von Leibniz, 1646 - 1716, deutscher Mathematiker

10.6. KONVERGENZKRITERIEN FUR REIHEN 49

Beispiel 10.93. Die alternierende harmonische Reihe

−∞∑

j=1

(−1)j · 1

j= 1 − 1

2+

1

3− 1

4+

1

5− + · · ·

konvergiert. Fur ihre Partialsummen sn = −n∑

j=1

(−1)j · 1

jgilt

∣∣∣∣sn +

∞∑

j=1

(−1)j · 1

j

∣∣∣∣ ≤

1

n + 1.

Wir werden noch sehen, dass gilt

−∞∑

j=1

(−1)j · 1

j= ln 2. 2

Beispiel 10.94. Auf die Voraussetzung, dass die Folge {an} monoton fallt, kann

man nicht verzichten. Es sei namlich

a2n−1 :=1

nund a2n =

1

2n.

Dann divergiert die alternierende Reihe

∞∑

n=1

(−1)n+1an = 1 − 1

2+

1

2− 1

4+

1

3− 1

6+

1

4− 1

8+ −,

denn diese hat offenbar die Partialsummen

s2n =1

2

n∑

j=1

1

j. 2

Man kann den Wert einer Reihe als die Summe von unendlich vielen Elementen

auffassen. Wir fragen, ob man wie bei endlich Summen die Reihenfolge der Sum-

manden andern kann, ohne den Wert der Reihe zu verandern. Es ist klar, dass bei

Vertauschung von endlich vielen Elementen an der Konvergenz oder Divergenz der

Reihe sich nichts andert und dass der Grenzwert erhalten bleibt. Es wird sich jedoch

zeigen, dass man die Reihenfolge der Glieder einer konvergenten Reihe i.a. nicht

andern darf. Dies ist nur fur eine eingeschrankte Klasse von Reihen moglich, die

absolut konvergenten Reihen. Da die meisten Konvergenzkriterien auch gleich ab-

solute Konvergenz liefern, ist absolute Konvergenzin der Regel als der naturliche

Konvergenzbegriff anzusehen.

Definition 10.95. Die Reihe∞∑

j=1aj heißt absolut konvergent , falls die Reihe

der Normen ihrer Glieder konvergiert, d.h. falls∞∑

j=1‖aj‖ konvergent ist. Eine kon-

vergente Reihe, die nicht absolut konvergiert, heißt bedingt konvergent.

50 KAPITEL 10. FOLGEN UND REIHEN

Aus dem Cauchy Kriterium (Satz 10.88.) folgt unmittelbar

Satz 10.96. Jede absolut konvergente Reihe in einem vollstandigen normierten

Vektorraum ist konvergent.

Beweis: Ist∞∑

j=1aj absolut konvergent, so erfullt

∞∑

j=1‖aj‖ das Cauchysche Konver-

genzkriterium, und wegen

∥∥∥

m∑

j=n

aj∥∥∥ ≤

m∑

j=n

‖aj‖ fur alle n,m ∈ IN.

erfullt dann auch∞∑

j=1aj das Cauchy Kriterium. Nach Satz 10.88. ist daher

∞∑

j=1aj

konvergent.

Die Umkehrung von Satz 10.96. gilt jedoch nicht, wie die harmonische und die

alternierende harmonische Reihe zeigen.

Satz 10.97. (Kriterien fur absolute Konvergenz)

(i) Die Reihe∞∑

n=0aj ist genau dann absolut konvergent, wenn die Folge

{ n∑

j=1

‖aj‖}

n∈ IN

beschrankt ist.

(ii) Majorantenkriterium: Die Reihe∞∑

j=1bj sei konvergent, und es gelte ‖aj‖ ≤

bj fur alle j ∈ IN. Dann ist die Reihe∞∑

j=1aj absolut konvergent.

Beweis: (i): Die Folge∑n

j ‖aj‖ ist monoton wachsend und daher genau dann kon-

vergent, wenn sie beschrankt ist.

(ii): Wegen bj ≥ ‖aj‖ ≥ 0 fur j ∈ IN sind alle Glieder der Folge {bj} nichtnegativ,

und daher ist∞∑

j=1bj absolut konvergent. Nach Teil (i) ist

n∑

j=1bj beschrankt. Daher ist

auchn∑

j=1‖aj‖ ≤

n∑

j=1bj beschrankt, und nach (i) ist

∞∑

j=1aj absolut konvergent.

Bemerkung 10.98. Da die Anderung von endlich vielen Gliedern nichts an der

Konvergenz oder Divergenz an einer Reihe andert, genugt es, dass im Majoranten-

kriterium ‖aj‖ ≤ bj nur fur alle j ≥ N mit einem geeigneten N ∈ IN gilt. 2

10.6. KONVERGENZKRITERIEN FUR REIHEN 51

Beispiel 10.99. Die Reihe

∞∑

n=1

an :=∞∑

n=1

3 − 7 sin(n3)√

4√

n + n3

konvergiert absolut, denn es gilt

|an| =∣∣∣3 − 7 sin(n3)√

4√

n + n3

∣∣∣ ≤ 3 + 7| sin(n3)|

n3/2≤ 10

n3/2,

und da nach Beispiel 10.86. die Reihe

∞∑

n=1

10

n3/2

konvergiert, liefert das Majorantenkriterium die absolute Konvergenz der Ausgangs-

reihe. 2

Eine Folgerung aus dem Majorantenkriterium, die haufig leichter uberpruft werden

kann, ist das Wurzelkriterium:

Korollar 10.100. (Wurzelkriterium)

Es sei

R := lim supn→∞

n

‖an‖.

Dann gilt

(i) Die Reihe∞∑

n=0an konvergiert absolut, falls R < 1 gilt.

(ii) Die Reihe∞∑

n=0an divergiert, falls R > 1 gilt.

(iii) Ist R = 1, so ist keine Aussage uber die Konvergenz von∞∑

n=0an moglich.

Beweis: (i) Ist R < 1, so wahlen wir q ∈ (R, 1). Dann existiert ein N ∈ IN mit

n

‖an‖ ≤ q, d.h. ‖an‖ ≤ qn fur alle n ≥ N,

und da die geometrische Reihe∞∑

n=0qn konvergiert, erhalt man aus dem Majoranten-

kriterium die absolute Konvergenz der Reihe∞∑

n=0an.

(ii) Ist R > 1, so gilt ‖an‖ ≥ 1 fur unendlich viele n. Daher ist {an} keine Nullfolge,

und nach Satz 10.90. ist die Reihe∞∑

n=0an nicht konvergent.

52 KAPITEL 10. FOLGEN UND REIHEN

(iii) Wegen limn→∞

n√

n = 1 gilt

limn→∞

n

1

n= 1 und lim

n→∞n

1

n2= 1,

wobei die harmonische Reihe∞∑

n=0

1n

divergiert und die Reihe∞∑

n=0

1n2 konvergiert.

Beispiel 10.101. Die Reihe∞∑

n=0

an :=∞∑

n=0

( n

1 + n

)n2

konvergiert nach dem Wurzelkriterium, denn es gilt

limn→∞

n

|an| = limn→∞

( n

1 + n

)n= lim

n→∞

((

1 +1

n

)n)−1=

1

e< 1. 2

Beispiel 10.102. Wir betrachten die Reihe∞∑

n=0an mit

an :=

0.5n , falls n gerade

5 · 0.5n , falls n ungerade.

Dann gilt

n

|an| =

0.5 , falls n geraden√

5 · 0.5 , falls n ungerade,

und wegen limn→∞

n√

5 = 1 folgt

limn→∞

n

|an| = 0.5 < 1.

Das Wurzelkriterium liefert also die (absolute) Konvergenz der Reihe. 2

Noch leichter anzuwenden als das Wurzelkriterium ist haufig das nun folgende Quo-

tientenkriterium.

Korollar 10.103. (Quotientenkriterium)

Es gelte an 6= 0 fur alle n ∈ IN, und es seien

r := lim infn→∞

‖an+1‖‖an‖ und R := lim sup

n→∞

‖an+1‖‖an‖ .

Dann gilt

(i) Die Reihe∞∑

n=0an konvergiert absolut, falls R < 1 gilt.

(ii) Die Reihe∞∑

n=0an divergiert, falls r > 1 gilt.

(iii) Ist r ≤ 1 ≤ R, so ist keine Aussage uber die Konvergenz von∞∑

n=0an moglich.

10.6. KONVERGENZKRITERIEN FUR REIHEN 53

Beweis: (i) Ist R < 1, so wahlen wir q ∈ (R, 1). Dann existiert ein N ∈ IN mit

‖an+1‖‖an‖ ≤ q, d.h. ‖an+1‖ ≤ q‖an‖ fur alle n ≥ N.

Durch Induktion erhalt man

‖an‖ ≤ qn−N‖aN‖ =: Cqn,

und der Vergleich mit der geometrischen Reihe liefert die absolute Konvergenz der

Reihe∞∑

n=0an.

(ii) Ist r > 1, so gibt es ein N ∈ IN mit ‖an+1‖ ≥ ‖an‖ fur alle n ≥ N . Die Folge

{an} ist also sicher keine Nullfolge, und daher konvergiert die Reihe∞∑

n=0an nicht.

(iii) Um zu zeigen, dass im Falle r ≤ 1 ≤ R keine Entscheidung uber die Konver-

genz moglich ist, betrachten wir wieder die harmonische Reihe∞∑

n=0

1n

und die Reihe

∞∑

n=0

1n2 . Fur beide gilt r = R = 1, und die eine Reihe divergiert, wahrend die andere

konvergiert.

Beispiel 10.104. Fur jedes feste x ∈ C konvergiert die Reihe∞∑

j=0

xj

j!absolut, denn

mit aj :=xj

j!gilt

limj→∞

∣∣∣aj+1

aj

∣∣∣ = lim

j→∞

∣∣∣∣

xj+1

(j + 1)!· j!

xj

∣∣∣∣ = lim

j→∞

|x|j + 1

= 0 < 1.

Das Quotientenkriterium ist daher anwendbar.

Dieses Beispiel zeigt ubrigens erneut, dass{

xn

n!

}

eine Nullfolge ist. Wir werden

spater noch sehen, dass∞∑

j=0

xj

j!= ex

ist. Dort wird auch klar werden, daß diese Reihe wesentlich schneller konvergiert als

die Folge(

1 +x

n

)n

. 2

Beispiel 10.105.∞∑

j=1

j!

jjkonvergiert (absolut), denn mit aj :=

j!

jjgilt

∣∣∣aj+1

aj

∣∣∣ =

(j + 1)!

(j + 1)j+1· jj

j!=

jj

(j + 1)j=

1

(1 + 1j)j

−→ 1

e< 1. 2

54 KAPITEL 10. FOLGEN UND REIHEN

Beispiel 10.106.∞∑

j=1

(−1)j+1 xj

jkonvergiert fur jedes x ∈ C mit |x| < 1 absolut,

denn mit aj := (−1)j+1xj

jgilt

limj→∞

∣∣∣aj+1

aj

∣∣∣ = lim

j→∞

∣∣∣xj+1

j + 1· j

xj

∣∣∣ = |x| lim

j→∞

j

j + 1= |x| < 1.

Fur x = 1 hat man bedingte Konvergenz, fur x = −1 keine Konvergenz. Was fur

|x| = 1 aber x 6∈ {−1, 1} geschieht, konnen wir noch nicht beurteilen. 2

Bemerkung 10.107. Das Quotientenkriterium ist schwacher als das Wurzelkri-

terium in dem folgenden Sinne: Wenn das Quotientenkriterium anwendbar ist und

fur eine Reihe Konvergenz oder Divergenz liefert, so erhalt man dieses Ergebnis

auch aus dem Wurzelkriterium. Es gibt aber Reihen, bei denen das Wurzelkriterium

die Konvergenz liefert und das Quotientenkriterium versagt. Wir behandeln diese

Fragen im Aufgabenband. Hier geben wir nur ein Beispiel. 2

Beispiel 10.108. Wir betrachten erneut die Reihe∞∑

n=0an mit

an :=

0.5n , falls n gerade

5 · 0.5n , falls n ungerade

aus Beispiel 10.102. Dann gilt

an+1

an

=

5 · 0.5 , falls n gerade15· 0.5 , falls n ungerade

.

Mit den Bezeichnungen aus Korollar 10.103. gilt also

r =1

10< 1 <

5

2= R,

und das Quotientenkriterium ist nicht anwendbar, um zu entscheiden, ob die vorge-

legte Reihe konvergiert oder divergiert. In Beispiel 10.102. haben wir die Konvergenz

mit dem Wurzelkriterium erhalten. 2

Wir kommen nun auf die einleitenden Worte zur absoluten Konvergenz zuruck und

fragen nach der Sensitivitat von Reihen gegen eine Umordnung der Summationsrei-

henfolge.

Als Beispiel betrachten wir die nur bedingt konvergente alternierende harmonische

Reihe

s = 1 − 1

2+

1

3− 1

4+

1

5− 1

6+

1

7− 1

8+

1

9− 1

10+

1

11− 1

12+

1

13− + · · ·

10.6. KONVERGENZKRITERIEN FUR REIHEN 55

Dann gilt nach dem 2. Teil von Satz 10.87. die Aussage

1

2s =

1

2− 1

4+

1

6− 1

8+

1

10− 1

12+

1

14− + · · ·

und damit sicher auch

1

2s = 0 +

1

2+ 0 − 1

4+ 0 +

1

6+ 0 − 1

8+ 0 +

1

10+ 0 − 1

12+ 0 + · · · .

Durch elementweise Addition der alternierenden harmonischen Reihe zu der letzten

Reihe ergibt sich mit dem ersten Teil von Satz 10.87. das Resultat

3

2s = 1 + (

1

3− 1

2+

1

5) + (

1

7− 1

4+

1

9) + (

1

11− 1

6+

1

13) +

1

15− + · · ·

= 1 +∞∑

j=1

( 1

4j − 1− 1

2j+

1

4j + 1

)

.

Erstaunlicherweise stehen rechts wieder die Glieder der alternierenden harmonischen

Reihe, allerdings in anderer Reihenfolge. Hieraus kann man nur schließen, daß durch

Umordnung der Glieder der Reihe der Grenzwert geandert wird.

Wir untersuchen die Umordnung von Reihen, d.h. die Anderung der Reihenfolge der

Glieder einer Reihe genauer.

Definition 10.109. Ist f : IN → IN bijektiv, so heißt die Reihe∑∞

n=1 bn mit

bn := af(n) ein Umordnung der Reihe∑∞

n=1 an.

Satz 10.110. Ist die Reihe∑∞

n=1 an absolut konvergent mit dem Grenzwert s, so

konvergiert jede Umordnung∑∞

n=1 bn, bn := af(n), ebenfalls absolut gegen s.

Beweis: Wegen der absoluten Konvergenz der Reihe∞∑

n=0an gibt es zu ε > 0 ein

N ∈ IN mitm∑

j=n

‖aj‖ < ε fur alle n,m ≥ N. (10.9)

Es sei

M := max{f−1(j) : 1 ≤ j ≤ N} + 1.

Dann gilt f(j) > N fur alle j ≥ M , und daher folgt aus (10.9)

m∑

j=n

‖af(j)‖ < ε fur alle n,m ≥ M.

Damit ist die gleichmaßige Konvergenz der umgeordneten Reihe gezeigt.

56 KAPITEL 10. FOLGEN UND REIHEN

Wir zeigen nun, dass durch Umordnung der Grenzwert nicht geandert wird. Es seien

sn :=n∑

j=1

aj und tn :=n∑

j=1

af(j)

die Partialsummen der Originalreihe und der umgeordneten Reihe. Dann gilt nach

der Dreiecksungleichung

‖s − tn‖ ≤ ‖s − sn‖ + ‖sn − tn‖,

und wegen ‖s − sn‖ → 0 fur n → ∞ bleibt nur noch ‖sn − tn‖ → 0 fur n → ∞ zu

zeigen.

Es sei m(n) := min{j : j 6∈ {f(1), . . . , f(n)}} der kleinste Index, der in der Differenz

sn − tn =n∑

j=1

aj −n∑

j=1

af(j)

der endlich Summen sn und tn auftritt. Dann gilt m(n) ≥ N fur n ≥ M (wobei N

und M wie im ersten Teil bestimmt sind), und daher folgt

‖sn−tn‖ =∥∥∥

n∑

j=1

aj−n∑

j=1

af(j)∥∥∥ ≤

max f(j)∑

j=m(n)

‖aj‖ < ε fur n ≥ M.

Fur bedingt konvergente Reihen mit reellen Gliedern gilt das folgende Resultat, das

wir ohne Beweis angeben und das zeigt, dass fur diese Reihen genau die absolut

konvergenten Reihen beliebig umgeordnet werden konnen, ohne die Konvergenz zu

storen und ohne den Grenzwert zu andern.

Satz 10.111. (Riemann) Es sei∑∞

n=1 an eine bedingt konvergente Reihe mit re-

ellen Gliedern, und es seien x, y ∈ IR ∪ {∞,−∞} gegeben mit x ≤ y.

Dann gibt es eine Umordnung∑∞

n=1 bn der Reihe∑∞

n=1 an mit folgender Eigenschaft:

Bezeichnet tn :=∑n

j=1 bj die n–te Partialsumme von∑∞

n=1 bn, so gilt

lim infn→∞ tn = x, lim sup

n→∞tn = y.

Insbesondere kann diese Reihe also so umgeordnet werden, dass sie jeden gewunsch-

ten Grenzwert annimmt.

10.6. KONVERGENZKRITERIEN FUR REIHEN 57

Beweis: s. Gaskill—Narayanaswami [7, p. 357].

Wir wenden uns nun der Multiplikation unendlicher Reihen mit reellen oder kom-

plexen Gliedern zu. Fur das Produkt endlicher Summen gilt( n∑

i=0

ai

)

·( m∑

j=0

bj

)

=n∑

i=0

m∑

j=0

aibj.

Diese Formel lasst sich auf unendliche Reihen ubertragen, falls beide Faktoren ab-

solut konvergieren:

Satz 10.112. Sind∞∑

i=0

ai und∞∑

j=0

bj absolut konvergente Reihen mit reellen oder

komplexen Gliedern, so gilt( ∞∑

i=0

ai

)

·( ∞∑

j=0

bj

)

=∞∑

i=0,j=0

aibj, (10.10)

wobei die Indizes in der rechten Summe alle Paare

(0, 0) (0, 1) (0, 2) (0, 3) · · ·(1, 0) (1, 1) (1, 2) (1, 3) · · ·(2, 0) (2, 1) (2, 2) (2, 3) · · ·. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

in irgendeiner Reihenfolge durchlaufen.

Beweis: Ist sn =:n∑

k=1pk die n-te Partialsumme der rechten Seite von (10.10) (bei

fest gewahlter Indexfolge) und m das Maximum der in der endlichen Summe sn

auftretenden Indizes i und j (m := max{i, j : ai · bj = pk, k = 1, . . . , n}), so gilt

|sn| ≤n∑

j=1

|pj| ≤m∑

i=0

m∑

j=0

|aibj| =( m∑

i=0

|ai|) ( m∑

j=0

|bj|)

≤( ∞∑

i=0

|ai|) ( ∞∑

j=0

|bj|)

.

Es ist alson∑

j=0|pj| beschrankt, nach Satz 10.97.(i) ist sn absolut konvergent, und

nach Satz 10.110. konvergiert die rechte Seite von (10.10) fur jede Anordnung der

Indizes, wobei der Grenzwert s unabhangig von der Anordnung der Indizes ist.

Es sei nun∞∑

k=1qk =

∞∑

i,j=0aibj, wobei die Indexfolge so gewahlt ist:

1 2 5 10...

4 3 6 11...

9 8 7 12...

16 15 14 13...

. . . . . . . . . . . . . . . .. . .

58 KAPITEL 10. FOLGEN UND REIHEN

Dann gilt

q1 + q2 + · · · + q(n+1)2 = (a0 + · · · + an) (b0 + · · · + bn)

→( ∞∑

i=0

ai

) ( ∞∑

j=0

bj

)

,

und nach dem ersten Teil∞∑

k=1qk = s, zusammen also (10.10).

Haufig ist es bequem, die Indizes langs der Diagonalen anzuordnen:

1 3 6 10

2 5 9. . .

4 8. . .

7. . .

Definition 10.113. Die entstehende Summe

∞∑

i=0

( i∑

j=0

aj bi−j

)

heißt Cauchy-Produkt der Reihen∑∞

j=0 aj und∑∞

j=0 bj.

Aus Satz 10.112. folgt

Korollar 10.114. Es seien∞∑

i=0ai und

∞∑

j=0bj absolut konvergente Reihen mit reellen

oder komplexen Gliedern. Dann konvergiert auch das Cauchy-Produkt

( ∞∑

i=0

ai

) ( ∞∑

j=0

bj

)

=∞∑

i=0

( i∑

j=0

aj bi−j

)

.

Beispiel 10.115. Es sei ai =xi

i!, bj =

yj

j!mit x, y ∈ C. Dann gilt nach dem

binomischen Satz (Satz 1.19.)

( ∞∑

i=0

xi

i!

) ( ∞∑

j=0

yj

j!

)

=∞∑

i=0

( i∑

j=0

xj

j!· yi−j

(i − j)!

)

=∞∑

i=0

(1

i!

i∑

j=0

(ij

)

xj yi−j)

=∞∑

i=0

(x + y)i

i!;

bezeichnet also f : C → C die Funktion f(x) :=∞∑

i=0

xi

i!, so gilt fur alle x, y ∈ C

f(x + y) = f(x) · f(y). (10.11)

2

Kapitel 11

Stetige Funktionen

11.1 Motivation und Definition

Wir betrachten in diesem Abschnitt stetige Funktionen. In der Schule arbeitet man

haufig mit der”Charakterisierung“, daß man den Graphen einer stetigen Funktion

(IR → IR) skizzieren kann, ohne dabei den Stift abzusetzen.

Diese Vorstellung ist nicht schlecht und ganz nutzlich, wenn es z.B. darum geht

einzusehen, daß eine zwischen x1 und x2 stetige Funktion f mit einem positiven

Funktionswert f(x1) > 0 und einem negativen Funktionswert f(x2) < 0 zwischen x1

und x2 eine Nullstelle besitzt. Der Stift, der (ohne Absetzen) vom Punkt (x1, f(x1))

mit positivem Funktionswert zum Punkt (x2, f(x2)) mit negativem Funktionswert

fahrt, wird namlich (mindestens einmal) die x-Achse kreuzen mussen.

Leider konnen wir uns diese anschauliche Beschreibung von Stetigkeit aus minde-

stens drei Grunden nicht als Definition zu eigen machen: Erstens betrachten wir

nicht nur Funktionen von reellen Intervallen in die reellen Zahlen, zweitens ist die

obige geometrische Veranschaulichung dem Kalkul unzuganglich, und drittens ist

Stetigkeit eine lokale Eigenschaft, die Funktionen an einzelnen Punkten zukommt,

wahrend die Veranschaulichung sich immer auf den Graphen der Funktion uber

einem Intervall bezieht.

Es gibt mehrere aquivalente analytische Definitionen der Stetigkeit von Funktionen.

Jede fuhrt zu einer eigenen Sicht von Stetigkeit, die jeweils in bestimmten Situatio-

nen besonders hilfreich ist. Zwei von ihnen werden wir hier behandeln.

60 KAPITEL 11. STETIGE FUNKTIONEN

Definition 11.1. Es seien V und W normierte Vektorraume und f : D → W ,

D ⊂ V , eine Abbildung.

(i) f heißt stetig in x0 ∈ D, wenn fur jede Folge {xn} ⊂ D mit limn→∞xn = x0 gilt

limn→∞

f(xn) = f(x0).

(ii) f heißt stetig in D, wenn f stetig in jedem Punkt x0 ∈ D ist.

(iii) f heißt unstetig in x0 ∈ D, wenn f in x0 nicht stetig ist.

Bemerkung 11.2. Beachten Sie, daß in der Definition der Stetigkeit nicht fur

nur eine Folge {xn} mit limn→∞xn = x0 die Konvergenz der Bildfolge {f(xn)} gegen

den Funktionswert f(x0) gefordert wird, sondern daß dies fur jede Folge {xn} mit

limn→∞xn = x0 gelten soll. 2

Bemerkung 11.3. Die Fortsetzung der Addition und der Multiplikation von der

Menge der rationalen Zahlen auf die Menge der reellen Zahlen (vgl. Bemerkung 10.48.)

wird gerade so durchgefuhrt, dass die Abbildungen

+

IR × IR → IR

(a, b) 7→ a + b, ·

IR × IR → IR

(a, b) 7→ a · b

stetig sind.

Eine beliebige Funktion f : IR → IR konnen wir genau dann an einer Stelle x0 mit

Hilfe einer approximierenden Folge {xn}, limn→∞xn = x0, durch f(x0) = lim

n→∞ f(xn)

auswerten, wenn f an der Stelle x0 stetig ist. 2

Beispiel 11.4. Wir betrachten die Dirichletsche1 Sprungfunktion

χQ(x) :=

0 falls x irrational ist,

1 falls x rational ist,

die manches Vorurteil uber Funktionen widerlegen hilft.

— Erstens mussen sich Funktionen nicht grundsatzlich durch geschlossene Aus-

drucke wie f(x) = 3x2 + sin(x) beschreiben lassen. Fur die Praxis wichtig ist

z.B. die stuckweise Definition, bei der eine Funktion auf verschiedenen Teilen

des Definitionsbereichs durch verschiedene Ausdrucke definiert ist. Bei einem

Werkstuck aus mehreren Materialien finden Sie an den Materialgrenzen ganz

naturliche Wechsel der Beschreibungen solch praxisrelevanter Funktionen wie

z.B. der Dichte oder der elektrischen Leitfahigkeit.

1Johan Peter Gustav Lejeune Dirichlet, 1805 - 1859, deutscher Mathematiker

11.1. MOTIVATION UND DEFINITION 61

— Zweitens ist es moglich, dass limn→∞ f(xn) = f(x0) fur manche Folgen {xn} ⊂D mit limn→∞ xn = x0 gilt und fur andere nicht. Betrachtet man namlich etwa

x0 = 0 mit χQ(x0) = 1 und die durch xn = n−1 definierte gegen x0 konvergente

Folge, so ist

limn→∞χQ(xn) = lim

n→∞ 1 = 1 = χQ(x0).

Fur die ebenfalls gegen Null konvergente Folge mit Elementen yn = n−1π hat

man allerdings

limn→∞χQ(yn) = lim

n→∞ 0 = 0 6= χQ(x0).

Dies zeigt die Wichtigkeit von Bemerkung 11.2..

— Drittens konnen Funktionen an beliebig vielen Stellen unstetig sein. Die Funk-

tion χQ ist sogar in keinem Punkt x ∈ IR stetig, denn die Unstetigkeit in 0

haben wir schon gezeigt, und fur alle anderen x kann man analog argumentie-

ren. 2

Beispiel 11.5. Die Funktion f : IR → IR, f(x) := 19.97 ist sicher stetig in allen

Punkten. Da Sie uberall den konstanten Wert 19.97 hat, wird der Funktionswert

f(x0) eines jeden Punktes auch durch die Funktionswertefolge {f(xk)} zu jeder x0

approximierenden Folge {xk} richtig vorausgesagt. 2

Beispiel 11.6. f : IR → IR, f(x) := x, ist sicher stetig in allen Punkten x0 ∈ IR,

denn ist {xn} irgendeine Folge mit limn→∞xn = x0, so gilt

limn→∞ f(xn) = lim

n→∞xn = x0 = f(x0). 2

Beispiel 11.7. Die stuckweise definierte Heaviside2-Funktion

h(x) :=

0 fur x < 0,

1 fur x ≥ 0,

(vgl. Abbildung 11.1, links) ist stetig fur alle reellen Punkte x 6= 0 und unstetig in

x = 0.

Fur x0 > 0 sind namlich alle bis auf endlich viele Elemente einer x0 approximie-

renden Folge {xn} auch positiv, so daß sie mit x0 den Funktionswert 1 erhalten

und die Bildfolge {h(xn)} somit gegen h(x0) konvergiert. Fur negatives x0 schließt

man analog. Fur x0 = 0 ist der Funktionswert dagegen h(0) = 1, wobei aber

limn→∞h(−n−1) = 0 6= 1 = h(x0) ist. 2

2Oliver Heaviside, 1850 - 1925, englischer Elektroingenieur

62 KAPITEL 11. STETIGE FUNKTIONEN

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1−0.2

0

0.2

0.4

0.6

0.8

1

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2

0

1

2

3

4

5

6

7

8

9

10

Abbildung 11.1: Bei 0 unstetige Funktionen

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

Abbildung 11.2: Graph von f(x) = sin 1x

Beispiel 11.8. Die durch

p(x) :=

x−2 fur x 6= 0,

0.9876 fur x = 0,

definierte Funktion (vgl. Abbildung 11.1, rechts) ist in Null nicht stetig, denn fur

jede gegen Null konvergente Folge {xn} konvergiert {p(xn)} uneigentlich gegen +∞.

Die Stetigkeit von p(x) in allen von Null verschiedenen Werten werden wir etwas

weiter unten ganz leicht sehen konnen. 2

Beispiel 11.9.

f : IR → IR, f(x) :=

sin 1x

fur x 6= 0,

0 fur x = 0,

11.1. MOTIVATION UND DEFINITION 63

(vgl. Abbildung 11.2) ist nicht stetig in x0 = 0. Es gilt zwar fur die durch xn = 1nπ

definierte Nullfolge

limn→∞ f(xn) = lim

n→∞ sin(nπ) = 0 = f(0),

aber andererseits hat man fur die Folge xn := ((2n + 12)π)−1 das Ergebnis

f(xn) = sin(2n +1

2)π = sin

π

2= 1 6→ f(0) = 0.

Die Stetigkeit der Funktion konnen wir in (den meisten) anderen Punkten erst ana-

lysieren, wenn wir eine analytische Beschreibung von sin(x) zur Verfugung gestellt

haben. 2

Nach diesen einfachen Beispielen wollen wir jetzt verdeutlichen, daß die getroffene

Definition der Stetigkeit auch geeignet ist, die Vorstellung “Skizzierbarkeit ohne

Absetzen“ fur reelle Funktionen zu ersetzen, wenn dort die Existenz einer Nullstelle

aus einem Vorzeichenwechsel geschlossen wird:

Satz 11.10. Es sei f : IR ⊃ [a, b] → IR stetig. Gilt f(a) · f(b) < 0, so gibt es ein

ξ ∈ (a, b) mit f(ξ) = 0.

Beweis: Aus a0 := a und b0 := b mit f(a0) · f(b0) < 0 konstruiert man mit dem

Bisektionsverfahren induktiv eine Intervallschachtelung

an ≤ an+1 ≤ bn+1 ≤ bn mit bn − an = 2−n(b0 − a0) (11.1)

und f(an) · f(bn) ≤ 0 sowie

f(a0) · f(an) ≥ 0 und f(a0) · f(bn) ≤ 0 (11.2)

fur alle naturlichen n. Analog Beispiel 10.1. geht man dazu wie folgt vor:

Sind bereits an, bn ∈ [a, b] mit f(an)·f(bn) ≤ 0 bekannt, so setze man cn :=1

2(an+bn)

und

an+1 :=

an

cn

, bn+1 :=

cn falls f(an) · f(cn) ≤ 0,

bn sonst.

Aus (11.1) folgt, daß die Folgen {an} und {bn} gegen einen gemeinsamem Grenzwert

ξ ∈ [a, b] konvergieren. Da f in [a, b] und damit auch in ξ stetig ist, konvergieren die

Folgen der Funktionswerte {f(an)} und {f(bn)} beide gegen f(ξ). Aus (11.2) folgt

dann

f(ξ) · f(a0) = limn→∞ f(bn) · f(a0) ≤ 0 ≤ lim

n→∞ f(an) · f(a0) = f(ξ) · f(a0).

64 KAPITEL 11. STETIGE FUNKTIONEN

Wegen f(a0) 6= 0 hat dies f(ξ) = 0 zur Folge, und wegen f(a) 6= 0 6= f(b) gilt

ξ ∈ (a, b).

Fur den Konvergenznachweis zusammengesetzter Folgen haben wir Rechenregeln

(Satz 10.26. und Satz 10.55.) gefunden. Die Anwendung dieser Regeln auf die bei

der Stetigkeitsdefinition zu betrachtenden Folgen liefert entsprechende Regeln fur

den Stetigkeitsnachweis zusammengesetzter Funktionen.

Satz 11.11. (i) Es seien f, g : D → W stetig in x0 ∈ D (in D) und λ ∈ IR

oder λ ∈ C. Dann sind auch f + g und λ · f stetig in x0 (in D).

(ii) Es sei f : V ⊃ D → W stetig in x0 ∈ D (in D) und g : W ⊃ D → Z

stetig in f(x0) ∈ D ⊃ f(D) (in D). Dann ist die Hintereinanderausfuhrung

g ◦ f : D → Z stetig in x0 (in D).

(iii) Es sei W = IR oder W = C und seien f, g : D → W stetig in x0 ∈ D (in

D). Dann ist auch f · g stetig in x0 (in D). Gilt f(x0) 6= 0 (f(x) 6= 0 fur alle

x ∈ D), so ist auch1

fstetig in x0 (in D).

Beweis: Die erste und letzte Aussage sind direkte Folgerungen aus Satz 10.26.

und Satz 10.55. Fur den Beweis der zweiten Aussage sei {xk} ⊂ D eine gegen x0

konvergente Folge. Wegen der Stetigkeit von f in x0 ist dann f(x0) Grenzwert der

Folge {f(xk)}, die wegen der Voraussetzung von f(D) ⊂ D im Definitionsbereich

von g liegt.

Wegen der Stetigkeit von g in f(x0) folgt aus f(xk) → f(x0), daß die Folge {g(f(xk))}gegen g(f(x0)) konvergiert. Damit gilt

(g ◦ f)(xk) → (g ◦ f)(x0) fur alle Folgen xk → x0,

was die Stetigkeit von g ◦ f in x0 bedeutet.

Beispiel 11.12. Da f : C → C, f(x) ≡ 1, und g : C → C, g(x) = x, offensicht-

lich stetig sind, folgert man mit der dritten Aussage des letzten Satzes induktiv, daß

alle Potenzfunktionen pj(x) := xj in C stetig sind. Nach dem ersten Teil des Satzes

sind damit auch die Summanden eines jeden Polynoms

p(x) :=n∑

j=0

ajxj, aj ∈ C,

stetig und damit schließlich (wiederum induktiv) auch das gesamte Polynom als

Summe solcher stetigen Funktionen . 2

11.1. MOTIVATION UND DEFINITION 65

Beispiel 11.13. Jede rationale Funktion

f(x) :=

∑nj=0 ajx

j

∑mj=0 bjxj

ist in jedem Punkt x0 stetig, in dem der Nenner von Null verschieden ist, denn sie

ist der Quotient zweier dort stetiger Funktionen. Nach dem dritten Teil des letzten

Satzes ist dieser Quotient stetig, wo der Nenner von Null verschieden ist.

Insbesondere ist die Funktion

p(x) :=

x−2 fur x 6= 0,

0.9876 fur x = 0,

aus Beispiel 11.8. in allen Punkten x 6= 0 stetig. 2

Beispiel 11.14. Nach Satz 10.58. ist jede Wurzelfunktion f : IR+ → IR+, f(x) :=m√

x, stetig in IR+. Wegen Satz 11.11.(ii) ist dann die rationale Potenz-Funktion

x 7→ xq fur alle q ∈ Q stetig auf IR+. 2

Beispiel 11.15. Polynome in mehreren Variablen

f(x1, . . . , xn) =m1∑

i1=0

m2∑

i2=0

· . . . ·mn∑

in=0

ai1,...,inxi11 · . . . · xin

n

sind stetig in IRn (oder Cn).

Diese lassen sich namlich mit den Rechenregeln des letzten Satzes aus den einfachen

Funktionen n(x1, . . . , xn) ≡ 1 und wi(x1, . . . , xn) := xi, i = 1, . . . , n kombinieren,

welche wiederum sehr leicht als stetig in ganz IRn (bzw. Cn) erkannt werden. 2

Beispiel 11.16. Sind fi(x) = fi(x1, x2, . . . , xn), i = 1, . . . ,m, stetige Funktionen

auf einer Menge D ⊂ IRn, so ist durch

f(x) :=

f1(x1, . . . , xn)...

fm(x1, . . . , xn)

eine stetige Abbildung von D nach IRm bestimmt. Die Funktionen fi, i = 1, . . . ,m,

nennt man auch die Komponentenfunktionen von f .

Die Vektorfunktion f ist mit ihren Komponentenfunktionen stetig, weil aus xk →x0 wegen der Stetigkeit der Komponentenfunktionen fi(x

k) → fi(x0) fur alle i =

1, . . . ,m folgt und dies gerade f(xk) → f(x0) bedeutet.

Insbesondere sind affin lineare Abbildungen f : IRn → IRm, f(x) := Ax + b mit

A ∈ IR(m,n) und b ∈ IRm stetig auf IRn. 2

66 KAPITEL 11. STETIGE FUNKTIONEN

Typische Unstetigkeitsstellen reeller Funktionen sind Sprungstellen (wie z.B. der

Punkt Null bei der Heaviside Funktion im linken Graphen von Abbildung 11.1 auf

Seite 62), Polstellen (rechter Graph von Abbildung 11.1) oder Oszillationsstellen

wie bei sin1

x(siehe Abbildung 11.2).

Sehr haufig sind in den Natur- und Ingenieurwissenschaften auftretende Funktionen

sogar uberall stetig. Falls allerdings doch Unstetigkeiten auftreten, so sind diese fur

die Funktion und den dadurch beschriebenen Sachverhalt meist sehr wichtig und

strukturbestimmend.

Beispiel 11.17. Gerat bei der Echoloterfassung der Hohe des Meeresgrundes ein

Fischschwarm in den Erfassungsstrahl, so springt die ermittelte Hohe am Anfang des

Schwarmes um die Schwimmhohe des Schwarmes uber Meeresgrund und fallt ebenso

plotzlich am Ende des Schwarmes wieder ab. Die beiden Sprungstellen markieren

damit Grenzen einer interessanten Einheit. Die Begrenzung von Einheiten durch

niedrigdimensionale Mengen, bei deren Uberquerung charakteristische Funktionen

springen, findet man sehr haufig.

In der Mathematik definiert man als charakteristische Funktion einer Menge

M ⊂ IRn die Funktion

χM(x) :=

0 falls x 6∈ M

1 falls x ∈ M2

11.1. MOTIVATION UND DEFINITION 67

Beispiel 11.18. (von Mises Stabwerk)Belastet man das von Mises Stabwerk

in der Abbildung 11.3 mit wachsender

Last P , so verandert sich die Lage des

Punktes A zunachst stetig. Bei der kri-

tischen Last P1 schlagt das Stabwerk

jedoch durch, und die Funktion, die je-

der Last P die Hohe von A zuordnet,

hat in P1 eine Sprungstelle. Abbildung 11.3

Beachten Sie, daß die Zuordnung

Last −→ Lage A

von der”Geschichte des Stabwerks

abhangt“. Entlastet man namlich das

Stabwerk bis zur Null-Last und erhoht

danach die Last in umgekehrter Rich-

tung, so erhalt man eine zweite Sprung-

stelle bei einer anderen kritischen Last

P2 und also auch einen anderen Verlauf

des Graphen.

−0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 0.5

−1

−0.5

0

0.5

1

y

PP1

P2

Abbildung 11.4

Zwischen den Lasten P1 und P2 ist die Zuordnung somit nicht eindeutig definiert

und deshalb eigentlich gar keine Funktion. Nur unter zusatzlicher Kenntnis des Ge-

schichte kann die Zuordnung durch eine Funktion dargestellt werden.

Es ist klar, daß der Anwender ganz besonders an den Sprungstellen interessiert ist,

weil diese plotzliche Anderungen des Systems signalisieren. In komplexeren Syste-

men konnen Unstetigkeiten Ereignisse anzeigen wie etwa das Zusammenbrechen von

Brucken oder anderen Bauwerken bei Uberschreiten von Grenzlasten, die Explosion

von Reaktoren bei Uberschreiten kritischer Betriebstemperaturen, das Heraussprin-

gen von Eisenbahnradern aus den Schienen bei Uberschreiten einer Grenzgeschwin-

digkeit, das plotzliche Kentern eines Schiffes bei Erreichen einer kritischen Krangung,

usw. 2

Der folgende Satz 11.19. enthalt eine weitere Charakterisierung der Stetigkeit, die

haufig als Definition verwendet wird und dann meist als ε-δ-Definition bezeichnet

wird.

68 KAPITEL 11. STETIGE FUNKTIONEN

Satz 11.19. f : D → W ist genau dann stetig in x0 ∈ D, wenn gilt:

Fur alle ε > 0 gibt es ein δ > 0, so dass

‖f(x) − f(x0)‖ < ε fur alle x ∈ D mit ‖x − x0‖ < δ.

}

(11.3)

Bemerkung 11.20.Ist x eine gemessene Große und wird

hieraus die Ausgangsgroße y = f(x)

berechnet, so besagt die Stetigkeit von

f in x0 gerade, dass es zu jeder To-

leranz ε > 0 fur die Ausgangsgroße

y0 = f(x0) eine Messgenauigkeit δ > 0

gibt, so dass ein Fehler von hochstens δ

bei der Messung x von x0 zu einem Feh-

ler ‖f(x) − f(x0)‖ der Ausgangsgroße

fuhrt, der hochstens ε ist.

δ δ

εε

Abbildung 11.5

Wahrend die erste Definition der Stetigkeit auf die Voraussagbarkeit des Funkti-

onswertes an der Stetigkeitsstelle durch die Funktionswerte auf approximierenden

Folgen zielte, hat die alternative Definition durch (11.3) die Kontrollierbarkeit des

Ausgabe-Fehlers (Output) durch den Eingabe-Fehler (Input) im Auge.

Naturlich sind beide Definitionen aquivalent (das sagt ja gerade der Satz), aber jede

der Versionen hat fur bestimmte Ziele ihre jeweiligen Vor- oder Nachteile. 2

Beweis: (von Satz 11.19.)

Es gelte (11.3) und es sei {xn} ⊂ D eine Folge mit limn→∞

xn = x0. Wir haben zu zeigen,

daß dann auch limn→∞ f(xn) = f(x0) ist. Fur das letztere haben wir zu vorgegebenem

ε > 0 die Existenz eines Index N ∈ IN nachzuweisen mit ‖f(xn) − f(x0)‖ < ε fur

alle n ≥ N .

Nach (11.3) gibt es aber zu dem vorgegebenem ε ein δ > 0, so daß die gewunschte

Ungleichung ‖f(xn) − f(x0)‖ < ε fur alle xn gilt, die ‖xn − x0‖ < δ erfullen. Da

die Folge {xn} gegen x0 konvergiert, gibt es aber sicher einen Index M , so daß

‖xn − x0‖ < δ fur alle n > M ist. Wahlen wir nun N := M so haben wir unser Ziel

erreicht.

Die Umkehrung zeigen wir indirekt: Es sei f stetig in x0, und es gelte nicht die

Eigenschaft (11.3). Dann gibt es ein ε > 0, so dass fur alle δ > 0 ein x(δ) ∈ D

existiert mit ‖x(δ) − x0‖ < δ aber ‖f(x(δ)) − f(x0)‖ ≥ε.

11.1. MOTIVATION UND DEFINITION 69

Wir wahlen nun eine Folge von δ-Werten δn := 1n, n ∈ IN, und zu jedem n ∈ IN das

Folgenelement xn := x(δn) ∈ D. Dann gilt

‖xn − x0‖ < 1n

und ‖f(xn) − f(x0)‖ ≥ ε, d.h.

limn→∞xn = x0 und lim

n→∞ f(xn) 6= f(x0)

im Widerspruch zur Stetigkeit von f in x0.

Beispiel 11.21. Wir verwenden die ε-δ-Charakterisierung, um die Stetigkeit der

reellen Funktion q(x) := x2 in jedem Punkt x0 ∈ IR nachzuweisen. Es ist dafur zu

zeigen, daß zu jedem vorgegebenen ε > 0 ein δ > 0 existiert, so daß aus |x− x0| < δ

die Ungleichung |q(x) − q(x0)| < ε folgt. Dies soll hier einmal ganz langsam und

ausfuhrlich geschehen.

Wegen

|q(x) − q(x0)| = |x + x0| · |x − x0| ≤ |x + x0| · δ (11.4)

fur |x−x0| < δ erreichen wir sicher unser Ziel, wenn fur |x−x0| < δ die rechte Seite

von (11.4) kleiner ε wird. Sicher konnen wir

|x + x0|δ < ε

erreichen, wenn δ abhangig von ε hinreichend klein gewahlt und wenn der Vorfaktor

|x + x0| dabei nicht groß wird. Diesen konnen wir im Falle |x − x0| < δ durch

|x + x0| ≤ |x − x0 + 2x0| ≤ |x − x0| + 2|x0| < δ + 2|x0|

abschatzen. Um uns nicht weiter mit dem δ in diesem Ausdruck herumargern zu

mussen, nehmen wir nun einfach an, daß δ auf keinen Fall großer als 1 gewahlt wird.

Dann gilt

|x + x0|δ < (2|x0| + 1)δ

und wir erreichen |x + x0|δ < ε offenbar fur

δ ≤ min

{

1,ε

2|x0| + 1

}

,

wobei die Minimumbildung der zwischenzeitlich benotigten Annahme Rechnung

tragt, daß δ ≤ 1 sein soll. 2

Beispiel 11.22. Die in Beispiel 11.7. schon behandelte Heaviside Funktion

h(x) :=

0 fur x < 0,

1 fur x ≥ 0,

70 KAPITEL 11. STETIGE FUNKTIONEN

ist nicht stetig in 0, denn wie klein man auch immer δ > 0 wahlt, immer gibt es eine

Zahl xδ mit |0−xδ| < δ ( namlich z.B. xδ := −δ/2), fur die |h(0)−h(xδ)| = |1−0| = 1

gilt. Wahlt man also ε ∈ (0, 1), so kann man hierzu kein positives δ finden, so dass

|h(x) − h(0)| < ε fur alle x mit |x − 0| < δ

gilt. Der Ausgangsfehler kann daher nicht durch Verkleinerung des Eingangsfehlers

beliebig klein gemacht werden. 2

11.2 Eigenschaften stetiger (reeller) Funktionen

In diesem Abschnitt leiten wir globale Eigenschaften von Funktionen her, welche

aus der Stetigkeit der Funktion in ihrem Definitionsbereich resultieren.

Der kontinuierliche Zusammenhang des Graphen einer stetigen reellen Funktion,

welchen wir anfangs als Veranschaulichung der Stetigkeit aus der Schulmathematik

zitierten, ist eine solche globale Eigenschaft. Mathematisch formuliert man diesen

Zusammenhang als den folgenden Zwischenwertsatz.

Satz 11.23. (Zwischenwertsatz)

Es sei f : [a, b] → IR stetig. Gilt

f(a) < c < f(b) oder f(b) < c < f(a),

so gibt es ein ξ ∈ (a, b) mit f(ξ) = c.

Eine stetige Funktion nimmt also jeden

Wert zwischen f(a) und f(b) an.

Beweis: Der Beweis folgt unmittel-

bar aus Satz 11.10., wonach die stetige

Funktion g(x) := f(x)− c in (a, b) eine

Nullstelle hat.

ξ ξ ξ

Abbildung 11.6

Wir fragen nun nach der Stetigkeit der Umkehrfunktion einer stetigen Funktion. An-

schaulich ist diese klar, wenn wir uns auf das Schulwissen berufen, daß der Graph der

Umkehrfunktion durch Spiegelung an der Winkelhalbierenden (d.h. dem Graphen

von f(x) = x) entsteht.

Um dieses Ergebnis prazise fassen zu konnen, brauchen wir noch eine Definition.

11.2. EIGENSCHAFTEN STETIGER (REELLER) FUNKTIONEN 71

Definition 11.24. Sei D ⊂ IR. Dann heißt f : D → IR monoton wachsend,

wenn fur alle x1, x2 ∈ D die Implikation

x1 < x2 ⇒ f(x1) ≤ f(x2)

gilt. Steht dabei zwischen f(x1) und f(x2) das echte <-Zeichen, so heißt f streng

monoton wachsend.

Analog heißt f monoton fallend bzw. streng monoton fallend , wenn an dieser

Stelle das ≥- bzw. >-Zeichen steht.

Bemerkung 11.25. Eine streng monoton wachsende oder streng monoton fallen-

de Funktion f : IR ⊃ D → IR ist sicher injektiv, da in beiden Fallen verschiedene

Argumente nicht auf gleiche Funktionswerte abgebildet werden konnen. Ihre Um-

kehrfunktionen f−1 existiert dann auf dem Bild f(D).

Man beachte aber, daß das Wort streng hier nicht vergessen werden darf. Die kon-

stante Funktion f : IR → 1 ist sowohl monoton wachsend als auch monoton fallend,

sie ist aber sicher nicht injektiv. 2

Satz 11.26. Sei I ⊂ IR ein Intervall. Ist f : I → IR stetig und streng monoton

wachsend (oder fallend), so ist f(I) ein Intervall, und f−1 : f(I) → IR ist stetig

und streng monoton wachsend (fallend).

Beweis: Wir betrachten nur den Fall des monotonen Wachsens. Die Injektivitat

von f und die Existenz der inversen Funktion auf f(I) ist uns aus der letzten Be-

merkung bekannt.

Wegen des Zwischenwertsatzes ist f(I) ein Intervall. Die strenge Monotonie von f−1

zeigen wir durch indirekten Beweis. Gabe es namlich y1, y2 ∈ f(I) mit y1 < y2 und

f−1(y1) ≥ f−1(y2), so folgte durch Anwendung von f auf die letzte Ungleichung der

Widerspruch y2 = f(f−1(y2)) ≤ f(f−1(y1)) = y1.

Zu zeigen bleibt die Stetigkeit von f−1. Wir konnen o.B.d.A. annehmen, dass I

offen ist, denn anderenfalls konnen wir f stetig und streng monoton auf ein offenes

Intervall I ⊃ I fortsetzen. Ist z.B. b := sup I ∈ I, so setzen wir etwa f(x) :=

x − b + f(b) fur x > b.

Es sei y0 = f(x0) ∈ f(I) und ε > 0 vorgegeben, wobei wir wegen der Offenheit von I

fur hinreichend kleines ε die Inklusion [x0 − ε, x0 + ε] ⊂ I annehmen konnen. Wegen

72 KAPITEL 11. STETIGE FUNKTIONEN

der Monotonie ist dann f(x) ∈ [f(x0 − ε), f(x0 + ε)] fur alle x mit |x− x0| ≤ ε und

wegen der strengen Monotonie ist δ := min(|y0 − f(x0 − ε)|, |f(x0 + ε)− y0|) großer

als Null.

Dann gibt es fur alle y ∈ f(I) mit |y − y0| < δ ein x ∈ (x0 − ε, x0 + ε) mit f(x) = y,

und daher gilt

|f−1(y) − f−1(y0)| = |x − x0| < ε.

Bemerkung 11.27. Aus Satz 11.26. folgt (erneut) die Stetigkeit der Wurzelfunk-

tion x 7→ m√

x fur jedes m ∈ IN, da x 7→ xm auf IR+ streng monoton wachsend und

stetig ist. 2

Bemerkung 11.28. Der Satz 11.26. ist nur richtig, wenn der Definitionsbereich

von f ein Intervall ist. Die Funktion f : [0, 1] ∪ (2, 3] → IR,

f(x) :=

x falls 0 ≤ x ≤ 1,

x − 1 falls 2 < x ≤ 3,

ist stetig und streng monoton, aber die inverse Funktion f−1 : [0, 2] → IR,

f−1(x) :=

x falls 0 ≤ x ≤ 1,

x + 1 falls 1 < x ≤ 2,

besitzt in x0 = 1 eine Sprungstelle, ist also nicht stetig. 2

Daß die Bestimmung von Argumentwerten, an denen eine gegebene reellwertige

Funktion einen minimalen (oder auch einen maximalen) Wert annimmt, eine wich-

tige Aufgabe der Analysis ist, haben Sie die Kurvendiskussionen des Mathematik-

unterrichtes an der Schule gelehrt. In der Praxis ist das dort meist Optimierung ge-

nannte Minimieren oder Maximieren von Funktionswerten mindestens ebenso wich-

tig. Optimiert wird uberall: Fahrzeuge sollen moglichst wenig Kraftstoff verbrau-

chen, dabei aber moglichst schnell fahren, trotzdem wenig umweltschadlich sein und

gleichzeitig bei Unfallen die Passagiere moglichst gut schutzen, mit dem Verkauf der

Fahrzeuge will die Firma moglichst viel Profit machen, usw.

Bei solch einer Maximierung ist es sicher von Bedeutung, ob die Menge der Funk-

tionswerte uberhaupt nach oben beschrankt ist, und ob es einen Punkt gibt, an

dem die Funktion maximal wird. Beides muß nicht der Fall sein. Bevor wir dazu ein

Beispiel angeben, fuhren wir einige Bezeichnungen ein.

11.2. EIGENSCHAFTEN STETIGER (REELLER) FUNKTIONEN 73

Definition 11.29. (i) Eine Funktion f von einer Menge M in die reellen Zahlen

heißt nach oben beschrankt (unten beschrankt) , wenn die Menge f(M) ⊂IR nach oben (unten) beschrankt ist.

(ii) Ist die Funktion f nach oben (unten) beschrankt, so heißt die Zahl sup f(M)

(inf f(M)) das Supremum (Infimum) von f auf M . Man schreibt auch

supx∈M

f(x) := sup f(M) und infx∈M

f(x) := inf f(M).

(iii) Ist f nach oben (unten) unbeschrankt, so schreibt man sup f(M) = +∞(inf f(M) = −∞).

(iv) Gibt es einen Punkt x ∈ M (x ∈ M), fur den f(x) = sup f(M) (f(x) =

inf f(M)) ist, so sagt man, dass f in M sein Supremum (Infimum) annimmt.

In diesem Fall nennt man f(x) das Maximum (f(x) das Minimum) von f

auf M und schreibt

f(x) =: maxx∈M

f(x) bzw. f(x) =: minx∈M

f(x).

Bemerkung 11.30. Nimmt die Funktion f auf M ihr Supremum (Infimum) an,

so sagt man auch, dass f ihr Maximum (Minimum) in M annimmt. Diese Formulie-

rung ist nicht besonders glucklich, denn ein Maximum, das nicht angenommen wird,

existiert nicht. 2

Bemerkung 11.31. Ist f : M → IR nach unten unbeschrankt, so gibt es eine

Folge {xn} ⊂ M , so daß {f(xn)} bestimmt divergent gegen −∞ ist. Im Sinne der

uneigentlichen Konvergenz gilt limn→∞ f(xn) = −∞.

In jedem Fall (ob f nun nach unten beschrankt ist oder nicht) gibt es also eine Folge

{xn} aus M mit limn→∞

f(xn) = inf f(M).

Ebenso gibt es stets eine Folge {zn} in M mit limn→∞

f(zn) = sup f(M). 2

Beispiel 11.32. Fur die Funktion

f :

(0, 1) −→ IR,

x 7−→ 1x

74 KAPITEL 11. STETIGE FUNKTIONEN

und die Folgen xn = n−1, n ∈ IN, und zn := 1 − n−1, n ∈ IN, gelten die Aussagen:

(i) limn→∞ f(xn) = supx∈(0,1) f(x) = +∞,

(ii) limn→∞ f(zn) = infx∈(0,1) f(x) = 1,

(iii) f nimmt auf (0, 1) weder sein Infimum noch sein Supremum an. 2

Satz 11.33. (Annahme von Minimum und Maximum)

Ist die Funktion f : [a, b] → IR stetig auf dem abgeschlossenen Intervall [a, b], so

nimmt sie in [a, b] ihr Minimum und Maximum an. Es existieren also x, x ∈ [a, b]

mit

f(x) = inf{f(x) : a ≤ x ≤ b}, f(x) = sup{f(x) : a ≤ x ≤ b}.

Beweis: Wir fuhren den Beweis nur fur das Maximum. Es sei s := sup{f(x) :

x ∈ [a, b]}, wobei zunachst auch s = ∞ zugelassen ist. Dann existiert eine Folge

{xn} ⊂ [a, b] mit f(xn) → s.

Nach dem Satz von Bolzano und Weierstraß (Satz 10.66.) gibt es eine konvergente

Teilfolge {xnj} von {xn}, und wegen der Abgeschlossenheit von [a, b] existiert ein

x ∈ [a, b] mit limn→∞xnj

= x.

Die Stetigkeit von f liefert nun f(x) = limj→∞

f(xnj) = s. Das Supremum von f wird

also in x angenommen und ist endlich.

Bemerkung 11.34. Die Beschranktheit des Intervalls [a, b] ist wesentlich fur das

letzte Ergebnis. Die Funktion f1 : IR → IR, f1(x) := x, ist stetig auf IR aber sicher

unbeschrankt.

Die Abgeschlossenheit des Intervalls [a, b] ist ebenfalls wesentlich, da sonst nicht

sicher ist, dass x bzw. x im Definitionsbereich von f liegt. Die Funktion f2 : (0, 1] →IR, f2(x) :=

1

x, ist nach oben unbeschrankt, die Funktion f3 : (0, 1) → IR, f3(x) :=

x, ist zwar beschrankt, aber sup{f3(x) : x ∈ (0, 1)} = 1 und inf{f3(x) : x ∈(0, 1)} = 0 werden in (0, 1) nicht angenommen. 2

Satz 11.33. kann sofort (mit demselben Beweis) auf allgemeinere stetige Funktionen

f : D → IR ubertragen werden, wenn die Teilmenge D eines normierten Vektorrau-

mes die Eigenschaft hat, dass aus der Folge {xk} mit limk→∞ f(xk) = sup f(D) eine

konvergente Teilfolge ausgewahlt werden kann, deren Grenzelement in D liegt. Dies

ist sicher richtig, wenn die Menge D die folgende Eigenschaft hat.

11.2. EIGENSCHAFTEN STETIGER (REELLER) FUNKTIONEN 75

Definition 11.35. Eine Teilmenge D eines normierten Vektorraumes V heißt

kompakt, wenn jede Folge {xn} ⊂ D eine konvergente Teilfolge {xnj} besitzt, deren

Grenzelement x Element von D ist.

Satz 11.36. Ist D ⊂ V kompakt und f : D → IR stetig, so nimmt f Minimum

und Maximum in D an.

In Bemerkung 11.34. hatten wir festgestellt, daß wesentliche Teileigenschaften der

kompakten Menge [a, b] aus IR ihre Beschranktheit und ihre Abgeschlossenheit wa-

ren. Wie wir gleich feststellen werden, charakterisieren diese beiden Eigenschaften

die Kompaktheit allgemein im IRn. Allerdings mussen wir dazu erst einmal eine ge-

eignete Definition von Abgeschlossenheit einer allgemeinen Menge im IRn festlegen.

Definition 11.37. Eine Teilmenge D eines normierten Vektorraumes V heißt ab-

geschlossen, wenn das Grenzelement x jeder konvergenten Folge {xn} aus D zu D

gehort.

Abgeschlossen heißt hier also”abgeschlossen gegenuber Grenzwertbildung.“ Kon-

vergente Folgen konnen auch im Grenzwert die Menge nicht verlassen.

Lemma 11.38. Die kompakten Mengen K des IRn sind genau die beschrankten

und abgeschlossenen Mengen.

Beweis: Ist K nicht beschrankt, so gibt es eine Folge {xk} ⊂ K mit

limk→∞

‖xk‖ = ∞.

Diese Folge hat keine konvergente Teilfolge, so daß K nicht kompakt ist. Die Be-

schranktheit ist damit notwendig fur Kompaktheit.

Ist K nicht abgeschlossen, so gibt es eine konvergente Folge in K, deren Grenzele-

ment x nicht in K liegt. Jede Teilfolge davon konvergiert ebenfalls gegen x, so daß

es keine in K konvergente Teilfolge gibt.

Sei nun K beschrankt und abgeschlossen und sei {xk} eine Folge in K. Wegen der

Aquivalenz der Normen ist K auch in der Maximum-Norm beschrankt und daher in

einem n-dimensionalen Wurfel

W := {x ∈ IRn : −a ≤ xi ≤ a, i = 1, . . . , n}

76 KAPITEL 11. STETIGE FUNKTIONEN

enthalten. Mit {xk} ⊂ K ⊂ W ist die Folge aus K naturlich auch Folge aus W .

Mit xk = (xk1, . . . , x

kn)T konnen wir wegen {xk

1} ⊂ [−a, a] mit dem Satz von Bolzano

und Weierstraß eine Teilfolge der Vektorfolge {xk} auswahlen, so daß die Folge der

ersten Komponenten dieser Teilfolge konvergiert. Indem wir uns nun sukzessiv in

derselben Weise mit dem Satz von Bolzano und Weierstraß der weiteren Kompo-

nenten annehmen, konnen wir durch weitere n−1 Auswahlen einer Teilfolge aus der

jeweils zuletzt gebildeten Teilfolge eine abschließende Teilfolge {xnj} konstruieren,

deren samtlichen Komponentenfolgen konvergieren, die also im IRn konvergiert. Da

{xnj} ⊂ K und K abgeschlossen ist, gehort das Grenzelement zu K. Damit haben

wir eine in K konvergente Teilfolge konstruiert. K ist also kompakt.

Beispiel 11.39. Der letzte Beweis zeigt auch, daß der dort verwendete Wurfel W

kompakt ist. Allgemeiner ist jedes verallgemeinerte abgeschlossene Intervall

I := {x ∈ IRn : ai ≤ xi ≤ bi, i = 1, . . . , n}

kompakt. 2

11.3 Gleichmaßige Stetigkeit

Die Funktion f : D → W , D ⊂ V (V , W normierte Raume) ist stetig in D, wenn

es zu jedem x0 ∈ D und jedem ε > 0 ein δ > 0 gibt, so dass

‖f(x) − f(x0)‖ < ε fur alle x ∈ D mit ‖x − x0‖ < δ

gilt. Dabei wird δ i.a. sowohl von ε als auch von dem betrachteten Punkt x0 ab-

hangen (ein Beispiel geben wir noch an).

Wir werden spater (z.B. beim Nachweis der Integrierbarkeit stetiger Funktionen)

die starkere Eigenschaft benotigen, dass (fur gewisse Mengen D) δ unabhangig von

x0 gewahlt werden kann.

Definition 11.40. Die Funktion f : D → W , D ⊂ V , heißt gleichmaßig stetig

auf D, wenn fur alle ε > 0 ein δ > 0 existiert, so dass ‖f(x) − f(y)‖ < ε fur alle

x, y ∈ D mit ‖x − y‖ < δ gilt.

Gleichmaßige Stetigkeit wird im allgemeinen schwieriger nachzuweisen sein als”ein-

fache“ Stetigkeit. Glucklicherweise ergibt sich jedoch die globale Eigenschaft der

11.3. GLEICHMASSIGE STETIGKEIT 77

gleichmaßigen Stetigkeit im Fall eines kompakten Urbildbereiches sofort aus der lo-

kalen Eigenschaft der Stetigkeit in den einzelnen Punkten. Wir zeigen dieses Ergebnis

ausfuhrlich nur fur den Spezialfall eines kompakten Intervalls:

Satz 11.41. Es sei f : [a, b] → IR stetig. Dann ist f sogar gleichmaßig stetig.

Beweis: (indirekt)

Wir nehmen an, f sei nicht gleichmaßig stetig. Dann gibt es ein ε > 0, so dass fur

jedes δ > 0 zwei Punkte x, y ∈ [a, b] existieren mit

|x − y| < δ, aber |f(x) − f(y)| ≥ ε.

Speziell fur δn =1

ngibt es also xn, yn ∈ [a, b] mit

|xn − yn| <1

nund |f(xn) − f(yn)| ≥ ε.

Nach dem Satz 10.66. von Bolzano und Weierstraß gibt es eine konvergente Teilfolge

{xnj} von {xn} mit lim

j→∞xnj

= x ∈ [a, b], und wegen |xnj− ynj

| <1

nj

gilt dann auch

limj→∞

ynj= x. Die Stetigkeit von f in x liefert nun

limj→∞

f(xnj) = f(x) = lim

j→∞f(ynj

)

im Widerspruch zu |f(xnj) − f(ynj

)| ≥ ε fur alle j.

Der Beweis verlauft fur den allgemeineren Fall einer kompakten Definitionsmenge

ganz analog, wobei die Auswahlbarkeit einer konvergenten Teilfolge mit der Voraus-

setzung der Kompaktheit an Stelle des Satzes von Bolzano und Weierstraß gesichert

wird.

Satz 11.42. Ist D ⊂ IRn kompakt und f : D → IR stetig, so ist f gleichmaßig

stetig.

Beispiel 11.43. Die stetige Funktion f : (0, 1] → IR, f(x) :=1

x, ist nicht gleich-

maßig stetig, denn ist ε = 1 und δ ∈ (0, 1], so gilt fur x = δ und y =δ

2

|x − y| =δ

2< δ und |f(x) − f(y)| =

2

δ− 1

δ=

1

δ≥ ε.

2

78 KAPITEL 11. STETIGE FUNKTIONEN

11.4 Grenzwerte von Funktionen

In diesem Abschnitt befassen wir uns mit der Frage, wie man eine stetige Funktion

in Lucken oder Rander des Definitionsbereichs fortsetzt, damit die Fortsetzung die

Stetigkeit erbt.

Beispiel 11.44. Die rationale Funktion

f(x) :=x3 − 4x2 + 3x

1 − x

ist in IR \ {1} stetig. Der Graph von f

macht den Eindruck, als konne man f

durch die Festsetzung f(1) := 2 zu einer

stetigen Funktion erganzen. Tatsachlich

gilt f(x) = 3x − x2 fur alle x 6= 1, und

die Unstetigkeit von f in x0 = 1 beruht

allein auf der Art der Definition der Ab-

bildungsvorschrift. 2

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

0

0.5

1

1.5

2

2.5

x

f

Abbildung 11.7

Ist allgemeiner f : I \ {x0} → IR (I ⊂ IR ein Intervall, x0 ∈ I) eine stetige

Abbildung, so kann f genau dann zu einer stetigen Funktion f : I → IR fortgesetzt

werden, wenn es ein α ∈ IR gibt, so dass fur jede Folge {xn} → x0, xn 6= x0 fur alle

n ∈ IN, die Bildfolge {f(xn)} gegen α ∈ IR konvergiert. Man hat nur

f(x) =

f(x) fur x ∈ I \ {x0},α fur x = x0,

zu setzen.

In der obigen Situation sagt man, dass f in x0 den Grenzwert α besitzt, und

schreibt

limx→x0

f(x) = α.

Aus der ε-δ-Charakterisierung folgt

Satz 11.45. Die Funktion f : I \ {x0} → IR besitzt genau dann den Grenzwert

α in x0, wenn fur alle ε > 0 ein δ > 0 existiert, so dass |f(x) − α| < ε fur alle

x ∈ I \ {x0} mit |x − x0| < δ gilt.

11.4. GRENZWERTE VON FUNKTIONEN 79

Beispiel 11.46. Die Funktion f : IR \ {0} → IR, f(x) := x · sin1

xbesitzt den

Grenzwert α = 0 in x0 = 0, denn mit δ := ε gilt

|f(x)−0| = |x·sin 1

x| ≤ |x| < ε fur alle x 6= 0 mit |x| < δ. 2

Der Grenzwertbegriff fur reelle Funktionen kann sofort auf die Falle α = ±∞und/oder x0 = ±∞ verallgemeinert werden:

Definition 11.47. f : I \ {x0} → IR besitzt in x0 den uneigentlichen Grenz-

wert

limx→x0

f(x) = ∞, (bzw. −∞)

falls fur jede Folge {xn} ⊂ I mit xn → x0 und xn 6= x0 fur alle n die Folge {f(xn)}uneigentlich gegen ∞ (bzw. −∞) konvergiert.

Ist f stetig in I \{x0} und besitzt |f(x)| den uneigentlichen Grenzwert limx→x0

|f(x)| =

∞, so heißt x0 Pol von f .

Beispiel 11.48. Ist f(x) =p(x)

q(x)eine rationale Funktion mit p(x0) 6= 0 und

q(x0) = 0, so besitzt f einen Pol in x0.

Es gibt namlich zunachst zu ε := 12|p(x0)| > 0 ein δ > 0 mit

|p(x)| = |p(x0) + (p(x) − p(x0))| ≥ |p(x0)| − |p(x) − p(x0)|

≥ |p(x0)| −1

2|p(x0)| =

1

2|p(x0)| fur alle x mit |x − x0| < δ.

Ferner gibt es zu jedem M > 0 ein η > 0 mit |q(x)| <|p(x0)|2M

fur alle x mit

|x − x0| < η.

Daher folgt fur alle x mit |x − x0| < min(δ, η)

|f(x)| =|p(x)||q(x)| ≥

1

2|p(x0)|

1

|q(x)| > M,

und somit haben wir

limx→x0

|f(x)| = ∞

bewiesen. 2

Beispiel 11.49. Die Funktion g : IR \ {0} → IR, g(x) =1

xsin(

1

x) hat bei x0 = 0

keinen Pol, denn fur die Folge {xn}, xn :=1

nπ, gilt lim xn = 0 und g(xn) = 0 fur

alle n ∈ IN, also sicher nicht limx→x0 |g(x)| = ∞. 2

80 KAPITEL 11. STETIGE FUNKTIONEN

−3 −2 −1 0 1 2 3

−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1f

x

Abbildung 11.8: Sagezahnkurve

Definition 11.50. f : IR → IR besitzt den (eigentlichen oder uneigentlichen)

Grenzwert α ∈ IR ∪ {−∞,∞} in ∞, wenn limn→∞ f(xn) = α fur jede Folge {xn} mit

xn → ∞ gilt.

Man schreibt wieder limx→∞ f(x) = α. Den Grenzwert in −∞ definiert man entspre-

chend.

Aus Definition 11.47. und Definition 11.50. des uneigentlichen Grenzwertes folgt

wieder

Satz 11.51. (i) Es sei f : I \ {x0} → IR stetig. f besitzt den uneigentlichen

Grenzwert ∞ in x0 (bzw. einen Pol) genau dann, wenn fur alle M > 0 ein

δ > 0 existiert mit f(x) > M (bzw. |f(x)| > M) fur alle x ∈ I mit |x−x0| < δ,

x 6= x0.

(ii) f : IR → IR besitzt genau dann den Grenzwert α ∈ IR in ∞, wenn fur alle

ε > 0 ein M ∈ IR existiert mit |f(x) − α| < ε fur alle x ≥ M .

Beispiel 11.52. Die Funktion f(x) := x − n fur n − 12

< x ≤ n + 12, n ∈ ZZ,

die Sagezahnkurve in Abbildung 11.6, besitzt keinen Grenzwert in den Punkten

x = n − 12. Es existieren aber die Grenzwerte lim

j→∞f(xj) = −1

2bzw. lim

j→∞f(xj) = 1

2,

wenn xj gegen n − 12

konvergiert und die ganze Folge {xj} rechts bzw. links von

n − 12

liegt. 2

Definition 11.53. Es sei f : (c, x0) → IR (bzw. f : (x0, d) → IR) eine Funktion.

f besitzt den linksseitigen Grenzwert (bzw. den rechtsseitigen Grenzwert) α,

11.4. GRENZWERTE VON FUNKTIONEN 83

wenn fur jede Folge {xn} ⊂ (c, x0) (bzw. {xn} ⊂ (x0, d)) mit limn→∞

xn = x0 gilt

limn→∞

f(xn) = α.

Wir schreiben dann

limx → x0

x < x0

f(x) := limx→x0−0

f(x) := f(x0 − 0) := α

bzw.

limx → x0

x > x0

f(x) := limx→x0+0

f(x) := f(x0 + 0) := α.

Definition 11.54. f : (c, d) → IR heißt linksseitig stetig (bzw. rechtsseitig

stetig ) in x0 ∈ (c, d), wenn f in x0 einen linksseitigen (rechtsseitigen) Grenzwert

besitzt und f(x0) = f(x0 − 0) (bzw. f(x0) = f(x0 + 0)) gilt.

Beispiel 11.55. Die Sagezahnkurve von Beispiel 11.52. besitzt den linksseitigen

Grenzwert f(n − 12− 0) = 1

2und den rechtsseitigen Grenzwert f(n − 1

2+ 0) = −1

2

und ist linksseitig aber nicht rechtsseitig stetig in n − 12, n ∈ ZZ. 2

Bemerkung 11.56. Es ist klar, dass eine Funktion f : I → IR genau dann stetig

in x0 ∈ I ist, wenn f sowohl links- als auch rechtsseitig stetig in x0 ist. 2

Kapitel 12

Elementare Funktionen

12.1 Polynome

Eine besonders wichtige Klasse von Funktionen sind die Polynome oder ganzen

rationalen Funktionen

pn(z) :=n∑

j=0

ajzj, z ∈ C (bzw. z ∈ IR),

wobei a0, . . . , an ∈ C (bzw. ∈ IR), an 6= 0, gegeben sind. Sie sind sehr leicht auswert-

bar, da nur Additionen und Multiplikationen verwendet werden. Ferner werden wir

sehen, dass man jede stetige, reellwertige Funktion auf einem beschrankten Intervall

durch ein Polynom genugend hohen Grades beliebig gut approximieren kann.

Die Zahl n heißt der Grad des Polynoms pn. Die Menge aller Polynome vom

Hochstgrade n bezeichnen wir mit Πn.

Die Auswertung eines Polynoms an einer Stelle z0 wird besonders einfach, wenn man

in folgender Weise ausklammert:

pn(z) = (. . . ((anz + an−1) · z + an−2) · z + . . . + a1) · z + a0.

Dann beginnt man die Auswertung durch Berechnung von an · z als Schritt S1 und

fahrt mit den Schritten S2, S3, usw. gemaß

pn(z) = ( (anz︸︷︷︸

S1

+an−1

︸ ︷︷ ︸

S2

) · z

︸ ︷︷ ︸

S3

+an−2

︸ ︷︷ ︸

...

) · z + . . . + a1) · z + a0

︸ ︷︷ ︸

S2n

12.1. POLYNOME 85

fort, bis man nach Schritt S2n den Polynomwert erhalt.

Programmieren laßt sich das ganz einfach. In PASCAL sieht es etwa so aus:

p := a[n];

FOR i:=n-1 DOWNTO 0 DO

p := p * z0 + a[i];

Ein Schema fur die Handrechnung ist

an an−1 . . . a1 a0

+ ↓ 0 a′n−1z0 . . . a′

1z0 a′0z0

·z0 ր a′n−1 := an a′

n−2 := an−1 + a′n−1z0 . . . a′

0 := a1 + a′1z0 pn(z0).

Dieses letzte Berechnungsschema heißt Horner Schema1. Die Rechenmethode an

sich wird oft als Horner Algorithmus bezeichnet oder ebenfalls als Horner Schema.

Mit ihr benotigt man n Multiplikationen und n Additionen fur die Auswertung

eines Polynoms vom Grad n, wahrend die naive Auswertung (Berechne z2, . . . , zn,

multipliziere zj mit aj, j = 1, . . . , n, und addiere) 2n − 1 Multiplikationen und n

Additionen erfordert. Man kann zeigen, daß unter allen Auswertungsmethoden fur

allgemeine Polynome das Horner Schema am effizientesten ist.

Beispiel 12.1. Seien p(z) = z4 + 2z3 − z2 + 1 und z0 = −2 gegeben. Dann findet

man mit dem Horner Schema

1 2 −1 0 1

[z0 = −2] 0 −2 0 2 −4

1 0 −1 2 −3 = p(−2).

Achtung: Man darf nicht vergessen, die Koeffizienten ai, die 0 sind, im Schema zu

berucksichtigen. 2

Unter den Zahlen der letzten Zeile des Horner Schemas ist die letzte der Wert des

Polynoms an der Auswertungsstelle. Aber auch die davor stehenden Werte haben

eine praktische Bedeutung. Bildet man mit ihnen entsprechend der ersten Zeile

des Horner Schemas ein Polynom (vom Grad n − 1), so ist dies gerade dasjenige

Polynom, das man bei der Polynomdivision des gegebenen Polynoms durch das

lineare Polynom (z − z0) mit Rest p(z0) erhalt.

1William George Horner, 1786 - 1837, englischer Mathematiker

86 KAPITEL 12. ELEMENTARE FUNKTIONEN

Beispiel 12.2. Im letzten Beispiel lautet dieses Polynom

p3(z) = 1 · z3 + 0 · z2 − 1 · z + 2.

Durch Ausmultiplizieren der linken Seite bestatigt man

(z3 − z + 2)(z − (−2)) + (−3) = z4 + 2z3 − z2 + 1.

Daher ist hier

p(z) = p3(z)(z−z0)+p(z0). 2

Um dies allgemein einzusehen, definieren wir mit den Werten a′n−1, . . . , a

′0 der letzten

Zeile des Schemas das Polynom

pn−1(z) :=n−1∑

j=0

a′jz

j.

Da fur die a′i nach Konstruktion

a′n−1 = an fur j = n,

a′j−1 − a′

jz0 = aj fur j = 1, . . . , n − 1,

pn(z0) − a′0z0 = a0 fur j = 0

gelten, erhalt man leicht

(z − z0) pn−1(z) + pn(z0) =n−1∑

j=0

a′jz

j(z − z0) + pn(z0)

=n−1∑

j=0

a′jz

j+1 −n−1∑

j=0

a′jz

jz0 + pn(z0)

= a′n−1z

n +n−1∑

j=1

(a′j−1 − a′

jz0)zj − a′

0z0 + pn(z0)

= pn(z).

Die Zusammenfassung dieser Uberlegungen ist der

Satz 12.3. Ist pn(z) =n∑

j=0ajz

j ein Polynom vom Grade n ≥ 1, so liefert das

Horner Schema den Wert pn(z0) und die Koeffizienten eines Polynoms

pn−1(z) =n−1∑

j=0

a′jz

j,

fur das gilt

pn(z) = (z − z0) pn−1(z) + pn(z0) fur alle z ∈ C. (12.1)

12.1. POLYNOME 87

Ist speziell z0 ∈ C eine Nullstelle von pn, so ist pn(z0) = 0. Dann sagt (12.1), dass

das Polynom pn durch den Linearfaktor (z − z0) teilbar ist:

pn(z) = (z − z0) pn−1(z).

Hieraus sieht man, daß alle Nullstellen von pn (moglicherweise mit Ausnahme von

z0) auch Nullstellen von pn−1 sind.

Eine Nullstelle von pn−1 kann man nun ganz analog mit dem Horner Schema in

Gestalt eines Linearfaktors von pn−1 abspalten, wobei der Grad des Restpolynoms

wieder um den Wert 1 fallt.

Um mit dieser Vorgehensweise die vollstandige Zerlegbarkeit eines Polynoms in Line-

arfaktoren (z−ζi) mit den Nullstellen ζi von pn zeigen zu konnen, braucht man daher

nur noch zu wissen, daß jedes Polynom vom Grad ≥ 1 mindestens eine Nullstelle

hat.

Dies besagt gerade der Fundamentalsatz der Algebra, den wir bereits in Kapitel 8

angesprochen hatten. Wir werden ihn in Mathematik IV beweisen.

Satz 12.4. (Fundamentalsatz der Algebra)

Jedes Polynom vom Grade n ≥ 1 besitzt in C wenigstens eine Nullstelle.

Bemerkung 12.5. Satz 12.4. ist nur richtig in C. Auch wenn pn nur reelle Ko-

effizienten hat (aj ∈ IR, j = 0, . . . , n), ist die Existenz einer Nullstelle von pn nur

in C gesichert. p(x) = x2 + 1 hat z.B. nur die Nullstellen ±i /∈ IR. Wir hatten die

komplexen Zahlen gerade mit dem Ziel eingefuhrt, die Unlosbarkeit von x2 + 1 = 0

in IR zu beseitigen. 2

Die oben schon angedeutete Zerlegbarkeit jedes Polynoms in Linearfaktoren formu-

lieren und beweisen wir nun noch einmal induktiv.

Korollar 12.6. Jedes Polynom pn ∈ Πn vom Grade n ≥ 1 lasst sich (uber C) in

Linearfaktoren zerlegen:

pn(z) = an · (z − ζ1) · (z − ζ2) · . . . · (z − ζn). (12.2)

Dabei sind ζ1, . . . , ζn ∈ C die (nicht notwendig verschiedenen) Nullstellen von pn.

88 KAPITEL 12. ELEMENTARE FUNKTIONEN

Beweis: Ein lineares Polynom p1 = a1z + a0 ∈ Π1 laßt sich offenbar in der

gewunschten Form

p1(z) = a1

(

z +a0

a1

)

darstellen.

Es lasse sich nun jedes Polynom vom Grade n − 1 ≥ 1 in Linearfaktoren zerlegen.

Ist pn ∈ Πn, so hat pn nach Satz 12.4. eine Nullstelle ζn ∈ C, nach Satz 12.3.

gibt es also ein Polynom pn−1 ∈ Πn−1 mit pn(z) = (z − ζn) pn−1(z), und nach

Induktionsvoraussetzung folgt

pn(z) = (z − ζn) · a′n−1

n−1∏

j=1

(z − ζj) = an

n∏

j=1

(z − ζj).

Tritt eine Nullstelle ζj in der Darstellung (12.2) genau k-mal auf, so heißt ζj eine

k-fache Nullstelle von pn. Berucksichtigt man die Vielfachheiten der Nullstellen,

so kann man Korollar 12.6. so ausdrucken:

Jedes Polynom vom Grade n hat genau n entsprechend ihrer Vielfachheit

gezahlte Nullstellen in C.

In dieser Form hatten wir den Fundamentalsatz der Algebra in Mathematik I zitiert.

Beispiel 12.7.

p5(z) = z5 + z3 = z3 (z + i) (z − i)

besitzt die einfachen Nullstellen +i und −i und die dreifache Nullstelle 0. 2

Besitzt pn(z) =n∑

j=0ajz

j nur reelle Koeffizienten aj ∈ IR, j = 0, . . . , n, und ist ein

ζ ∈ C\IR Nullstelle des Polynoms, so gilt wegen z1 · z2 = z1 ·z2 und z1 + z2 = z1 +z2

auch

pn(ζ) =n∑

j=0

aj

(

ζ)j

=n∑

j=0

ajζj = pn(ζ) = 0.

Es ist somit auch ζ Nullstelle des Polynoms. Nicht reelle Nullstellen treten deshalb

stets als konjugiert komplexe Paare auf.

Sind nun z1 und z1 Nullstellen von pn, so ist pn teilbar durch

(z − z1) (z − z1) = z2 − 2 Re (z1) · z + |z1|2.

12.1. POLYNOME 89

Die rechte Seite ist hierbei ein reelles Polynom, welches als Nullstellen gerade das

konjugiert komplexe Paar z1, z1 hat.

Will man ein reelles Polynom in moglichst einfache Faktoren zerlegen, aus denen die

Nullstellen sofort zu ersehen sind, und soll diese Zerlegung selbst auch reell sein, so

bietet es sich an, jeweils zu konjugiert komplexen Nullstellenpaaren gehorige Line-

arfaktoren wie eben demonstriert zu quadratischen Polynomen zusammenzufassen.

Fur die spatere Benutzung halten wir fest:

Satz 12.8. Die Koeffizienten aj, j = 0, . . . , n, von pn(z) =n∑

j=0ajz

j seien reell.

Dann gilt

(i) pn(ζ) = 0 ⇐⇒ pn(ζ) = 0.

(ii) Die Anzahl der nichtreellen Nullstellen von pn ist gerade.

(iii) Ist n ungerade, so hat pn mindestens eine reelle Nullstelle.

(iv) pn lasst sich als Produkt von reellen Linearfaktoren und quadratischen Poly-

nomen mit reellen Koeffizienten schreiben, wobei die quadratischen Faktoren

keine reellen Nullstellen besitzen.

Wir wenden uns nun dem Problem zu, eine reelle oder komplexe Funktion durch ein

Polynom zu approximieren. Hierzu muß man sicher Information uber die Funktion

in das Polynom integrieren. Naheliegende Informationen uber eine Funktion sind

Funktionswerte. Wenn eine Approximation mit einer Funktion vollstandig uberein-

stimmt, hat sie uberall dieselben Funktionswerte. Von daher liegt die Idee nicht fern,

bei Kenntnis einiger Funktionswerte einer Funktion ein Polynom erzeugen zu wollen,

welches dieselben Funktionswerte hat. Wieweit dies auch zu einer guten Annaherung

der Funktion außerhalb der Datenpunkte selbst fuhrt, werden wir erst beantworten

konnen, wenn (hohere) Ableitungen von Funktionen definiert sind.

Dies fuhrt uns zu dem

Interpolationsproblem:

Gegeben seien n+1 Wertepaare (zj, wj) ∈ C2, j = 0, . . . , n, zj paarweise

verschieden.

Bestimme p ∈ Πn mit p(zj) = wj, j = 0, . . . , n.

90 KAPITEL 12. ELEMENTARE FUNKTIONEN

Mit Methoden der linearen Algebra haben wir bereits in Kapitel 7 gesehen, daß das

Interpolationsproblem stets eindeutig losbar ist.

Die Eindeutigkeit kann man auch mit dem Fundamentalsatz der Algebra leicht se-

hen: Wenn p ∈ Πn und q ∈ Πn beide das Interpolationsproblem losen, so gilt fur

r := p − q ∈ Πn

r(zj) = p(zj) − q(zj) = wj − wj = 0, j = 0, . . . , n.

Das Polynom r ∈ Πn hat also n + 1 Nullstellen. Dies ist aber nur moglich, wenn

r ≡ 0 ist. Also stimmen p und q uberein.

Die Existenz kann man konstruktiv sichern: Fur j = 0, . . . , n ist

ℓj(z) :=n∏

i=0i 6=j

(z − zi)

/n∏

i=0i 6=j

(zj − zi)

offenbar das eindeutige Polynom vom Grade n, fur das gilt:

ℓj(zi) = δij, i, j = 0, 1, . . . , n. (12.3)

Damit hat man

Satz 12.9. (Lagrangesche Interpolationsformel)

Es seien (zj, wj) ∈ C2, j = 0, . . . , n, zj paarweise verschieden. Dann ist das zu-

gehorige Interpolationsproblem eindeutig losbar, und die Losung ist

p(z) =n∑

j=0

wjℓj(z) (12.4)

mit den in (12.3) gegebenen Polynomen ℓj.

Die Lagrangesche2 Interpolationsformel ist sehr ubersichtlich und nutzlich fur theo-

retische Zwecke.

Da die Polynome ℓj durch die Stutzstellen zk eindeutig festgelegt sind und un-

abhangig von den Werten wk sind, ist klar, dass das Interpolationspolynom (bei

festgehaltenen Stutzstellen) linear von den vorgegebenen Werten wk abhangt: Inter-

poliert p ∈ Πn die Daten (zj, wj) ∈ C2, j = 0, . . . , n, und q ∈ Πn die Daten (zj, vj),

j = 0, . . . , n, so ist p + q das Interpolationspolynom zu (zj, vj + wj), j = 0, . . . , n,

und fur α ∈ C interpoliert αp ∈ Πn die Daten (zj, αwj), j = 0, . . . , n.

2Joseph-Louis Lagrange, franzosischer Mathematiker, 1736 - 1813

12.1. POLYNOME 91

Man kann ferner die Veranderung des Interpolationspolynoms bei Variation einzelner

Werte sofort angeben: Interpoliert p die Daten (zj, wj), j = 0, . . . , n, und q die Daten

(zj, wj), j = 0, . . . , n − 1, und (zn, wn + δ), so gilt

q(z) − p(z) = δℓn(z) = δn−1∏

i=0

z − zi

zn − zi

.

Nachteilig ist jedoch, dass die Anderung des Interpolationspolynoms bei Hinzunah-

me eines weiteren Wertepaares in der Lagrangeschen Form sehr unubersichtlich ist,

da sich alle Basisfunktionen ℓj andern. Eine solche Interpolation mit wachsender Zahl

von Stutzstellen tritt z.B. bei der numerischen Berechnung von Integralen durch Ex-

trapolation oder der numerischen Behandlung von Differentialgleichungen auf. Sie

lasst sich ubersichtlicher mit der Newtonschen Interpolationsformel durchfuhren, die

wir nun herleiten wollen.

Das Polynom pn(z) ∈ Πn interpoliere die Daten (zj, wj) ∈ C2, j = 0, . . . , n. Wir

nehmen ein weiteres Zahlenpaar (zn+1, wn+1) ∈ C2, zn+1 6= zj, j = 0, . . . , n, hinzu

und fragen, ob und wie man das Interpolationspolynom pn+1(z) ∈ Πn+1 zu den

Daten (zj, wj), j = 0, . . . , n + 1 als

pn+1(z) = pn(z) + f(z)

mit einer leicht berechenbaren Funktion f(z) schreiben kann.

Wegen pn(z) ∈ Πn, pn+1(z) ∈ Πn+1 gilt f(z) = pn(z) − pn+1(z) ∈ Πn+1, und wegen

wj = pn+1(zj) = pn(zj)+f(zj) = wj+f(zj), j = 0, . . . , n, gilt f(zj) = 0, j = 0, . . . , n.

Daher hat f(z) mit einem a ∈ C die Gestalt

f(z) = an∏

j=0

(z − zj).

Da zn+1 von allen vorangehenden zj verschieden ist, ist∏n

j=0(zn+1 − zj) von Null

verschieden. Daher kann man a aus der Interpolationsbedingung

wn+1 = pn+1(zn+1) = pn(zn+1) + an∏

j=0

(zn+1 − zj)

ermitteln:

a =wn+1 − pn(zn+1)

(zn+1 − z0) · . . . · (zn+1 − zn).

Man verwendet diese Formel aber nicht, da es einen weniger aufwendigen Weg gibt.

Dieser benutzt die Beobachtung, daß a der fuhrende Koeffizient (Koeffizient der

(n + 1)-ten z-Potenz des Interpolationspolynoms aus Πn+1) ist und leitet fur diese

92 KAPITEL 12. ELEMENTARE FUNKTIONEN

fuhrenden Koeffizienten eine Rekursion her. Grundlage dafur ist das Lemma von

Aitken3:

Satz 12.10. (Aitken Lemma)

Es sei zu (zj, wj) ∈ C2, j = 0, . . . , n, zi 6= zj fur i 6= j, das Interpolationspolynom

p(z) gesucht.

Seien p[0], p[n] ∈ Πn−1 festgelegt durch die Interpolationsbedingungen p[0](zj) = wj,

j = 0, . . . , n − 1, und p[n](zj) = wj, j = 1, . . . , n. Dann gilt

p(z) =p[0](z)(z − zn) − p[n](z)(z − z0)

z0 − zn

.

Beweis: Durch Verifikation von p(zj) = wj, j = 0, . . . , n.

Fur 0 ≤ i ≤ j ≤ n bezeichnen wir nun mit pij ∈ Πj−i das Interpolationspolynom,

das pij(zk) = wk, k = i, . . . , j, erfullt. Dann folgt aus dem Aitken Lemma, dass die

pij rekursiv berechnet werden konnen durch

pij(z) =pi,j−1(z)(z − zj) − pi+1,j(z)(z − zi)

zi − zj

. (12.5)

Insbesondere ist pii ein Polynom vom Grade 0, das die Interpolationbedingung

pii(zi) = wi, i = 0, . . . , n, erfullt, d.h.

pii(z) ≡ wi, i = 0, . . . , n. (12.6)

Um diese Anfangsbedingungen ist die Rekursion (12.5) zu erganzen.

Aus (12.5) und (12.6) liest man unmittelbar eine Rekursionsformel fur die fuhrenden

Koeffizienten der Polynome pij ab, die wir mit [zi, . . . , zj] bezeichnen:

[zi] := wi, i = 0, . . . , n, (12.7)

[zi, . . . , zj] :=[zi, . . . , zj−1] − [zi+1, . . . , zj]

zi − zj

, 0 ≤ i < j ≤ n. (12.8)

Definition 12.11. Wegen der hier gefundenen Form der Rekursion, heißen die

Koeffizienten [zi, . . . , zj] aus (12.8) mit den Anfangsbedingungen (12.7) dividierte

Differenzen.

3Alexander Craig Aitken, 1895 - 1967, britischer Mathematiker

12.1. POLYNOME 93

Offenbar kann man alle dividierten Differenzen [zi, . . . , zj], 0 ≤ i ≤ j ≤ n, von links

nach rechts rekursiv mit dem folgenden Schema und Formel (12.8) berechnen:

[z0] ց[z0, z1]ր ց

[z1] [z0, z1, z2]ց ր ց...ց... . . . [z0, . . . , zn]ր...

ր ց ր[zn−1] [zn−2, zn−1, zn]

ց ր[zn−1, zn]

ր[zn]

Die angekundigte Newtonsche Interpolationsformel findet man, indem man die jetzt

gefundene Rekursion

pn+1(z) = pn(z) + [z0, . . . , zn+1]n∏

j=0

(z − zj)

wiederholt anwendet:

Satz 12.12. (Newtonsche Interpolationsformel)

Das Interpolationspolynom p ∈ Πn aus (12.4) hat die Gestalt

p(z) =n∑

j=0

[z0, . . . , zj]j−1∏

k=0

(z − zk), (12.9)

wobei die dividierten Differenzen [z0, . . . , zj] rekursiv berechnet werden aus

[zj] := wj,

[zk, . . . , zj] :=[zk, . . . , zj−1] − [zk+1, . . . , zj]

zk − zj

, j > k ≥ 0.

Die Berechnung der dividierten Differenzen cj := [z0, . . . , zj] kann man mit folgen-

dem PASCAL-Algorithmus aus den Wertepaaren (zj, wj) berechnen:

FOR k:=0 TO n DO

BEGIN

t[k] := w[k];

IF k>0 THEN

FOR i:=k-1 DOWNTO 0 DO

t[i] := (t[i+1]-t[i]) / (z[k]-z[i]);

c[k] := t[0]

END;

94 KAPITEL 12. ELEMENTARE FUNKTIONEN

Nach dem Schritt k ist t[i] = [zi, . . . , zk] fur i = 0, 1, . . . , k.

Das Newtonsche Interpolationspolynom kann wieder an jeder gewunschten Stelle

z∗ mit einem Horner-ahnlichen Schema ausgewertet werden. Indem man in (12.9)

wieder weitmoglichst ausklammert

p(z) =(

· · ·(

[z0, . . . , zn](z−zn−1)+[z0, . . . , zn−1])

(z−zn−2)+· · ·+[z0, z1])

(z−z0)+[z0],

gelangt man zu folgendem Algorithmus (Wert fur die Auswertung im Speicher z):

p := c[n];

FOR i:=n-1 DOWNTO 0 DO

p := p * (z - z[i]) + c[i];

Man benotigt 32n (n + 1) Operationen zur Berechnung aller cj, zur Berechnung des

Funktionswertes an einer Stelle zusatzlich 3n Operationen. Zu den 2n Operationen

eines Horner Schemas kommen hier noch n Differenzenbildungen z − zj.

Beispiel 12.13. Bestimme p ∈ Π5 mit

p(0) = 1, p(1) = 0, p(2) = 0, p(3) = −1, p(4) = 0.

Wegen p(1) = p(2) = p(4) = 0 benotigt man fur die Lagrangesche Interpolations-

formel nur

ℓ0(z) =(z − 1) (z − 2) (z − 3) (z − 4)

(0 − 1) (0 − 2) (0 − 3) (0 − 4)=

1

24(z − 1) (z − 2) (z − 3) (z − 4),

ℓ3(z) =(z − 0) (z − 1) (z − 2) (z − 4)

(3 − 0) (3 − 1) (3 − 2) (3 − 4)= −1

6z (z − 1) (z − 2) (z − 4),

und erhalt

p(z) =1

24(z − 1) (z − 2) (z − 3) (z − 4) + (−1) · (−1

6) z (z − 1) (z − 2) (z − 4)

=1

24(z − 1) (z − 2) (z − 4) (5z − 3).

Der Algorithmus auf Seite 93 liefert fur das Newtonsche Interpolationspolynom die

Koeffizienten

i zi wi = [zi] [zi, zi+1] [zi, . . . , zi+2] [zi, . . . , zi+3] [zi, . . . , zi+4]

0 0 1 = c0 −1 = c112

= c2 −13

= c3524

= c4

1 1 0 0 −12

12

2 2 0 −1 1

3 3 −1 1

4 4 0

12.1. POLYNOME 95

Es ist daher

p(z) = 1 − z +1

2z (z − 1) − 1

3z (z − 1) (z − 2) +

5

24z (z − 1) (z − 2) (z − 3)

oder — nach Ausklammern —

p(z) =((( 5

24(z − 3) − 1

3

)

(z − 2) +1

2

)

(z − 1) − 1)

(z − 0) + 1.

Wegen der vielen Nullen in den Interpolationsdaten ist hier die Lagrangesche Dar-

stellung auch recht gunstig; bei allgemeinen Daten ist die Newtonsche Darstellung

vorteilhafter. 2

Die Rekursionsformel (12.5) fur die Polynome pij kann man verwenden, um das

Interpolationspolynom p an einer festen Stelle z auszuwerten, ohne zunachst das

Interpolationspolynom in der Lagrangeschen oder Newtonschen Form bestimmen.

Nach (12.5) gilt

pij(z) =pi,j−1(z)(z − zj) − pi+1,j(z)(z − zi)

zi − zj

= pi+1,j(z) + (pi,j−1(z) − pi+1,j(z))z − zj

zi − zj

.

Hiermit erhalt man entsprechend dem Algorithmus zur Berechnung der dividierten

Differenzen:

Korollar 12.14. (Algorithmus von Neville und Aitken)

Es seien die Daten (zj, wj), j = 0, . . . , n, in den Variablen z[j], w[j], j=0,..,n,

gespeichert und die Variable z enthalte die Auswertungsstelle. Dann liefert der fol-

gende Programmabschnitt (in PASCAL) am Ende den Wert des Interpolationspoly-

noms der Daten im Speicher der Variable p :

FOR j:=0 TO n DO

BEGIN

t[j] := w[j];

zj:=z-z[j];

IF j>0 THEN

FOR i:=j-1 DOWNTO 0 DO

t[i] := t[i+1]+(t[i]-t[i+1])*zj / (z[i]-z[j])

END;

p:=t[0];

Nach dem Schritt j gilt t[i] = pij(z) fur i = 0, . . . , j.

96 KAPITEL 12. ELEMENTARE FUNKTIONEN

Bemerkung 12.15. Beachten Sie, daß man den Neville-Aitken-Algorithmus nur

verwendet, um mit einem Zahlenwert fur z den Funktionswert von p an dieser Stelle

zu berechnen. Es macht keine Freude, den Algorithmus mit variablem z zu verwen-

den, um eine Formel fur das Interpolationspolynom zu erzeugen. 2

12.2 Konvergenz in Funktionenraumen

Wir haben am Anfang dieses Abschnitts gesagt, dass die Polynome u.a. deswegen so

wichtig sind, weil sie sich elementar auswerten lassen und weil man durch Polynome

alle stetigen Funktionen beliebig gut approximieren kann. Wir wollen die zweite

dieser Bemerkungen nun prazisieren.

Wir haben in Abschnitt 10.5 bereits angemerkt, dass nur in endlich dimensiona-

len Vektorraumen die Konvergenz oder Divergenz einer Folge unabhangig von der

gewahlten Norm ist, dass dies aber in unendlichdimensionalen Raumen i.a. nicht

der Fall ist. Beispiel 10.71. gab ein Beispiel einer Folge von Funktionen, die bzgl.

der ‖ · ‖2-Norm konvergierte, bzgl. der ‖ · ‖∞-Norm aber divergierte. Wir wollen

in diesem Abschnitt drei Konvergenzbegriffe fur Folgen von Funktionen diskutie-

ren. Es gibt weitere fur die Anwendungen wichtige Konvergenzbegriffe, die andere

Struktureigenschaften der betrachteten Funktionen ausnutzen.

Definition 12.16. Es seien V und W normierte Vektorraume Wir betrachten die

Folge von Funktionen fn : V ⊃ D → W mit dem gemeinsamen Definitionsbereich

D.

(i) Die Folge {fn} heißt punktweise konvergent in D gegen die Funktion

f : D → W , wenn

limn→∞ fn(x) = f(x) fur alle x ∈ D.

(ii) Die Folge {fn} heißt gleichmaßig konvergent in D gegen die Funktion

f : D → W , wenn fur alle ε > 0 ein N ∈ IN existiert, so dass

‖fn(x) − f(x)‖W < ε fur alle n ≥ N und alle x ∈ D. (12.10)

Bemerkung 12.17. Eine Folge von Funktionen {fn} konvergiert also genau dann

in D punktweise gegen f , wenn es zu jedem x ∈ D und zu jedem ε > 0 ein N =

N(ε,x) gibt mit

‖fn(x) − f(x)‖W < ε fur alle n ≥ N(ε,x).

12.2. KONVERGENZ IN FUNKTIONENRAUMEN 97

Im Falle der gleichmaßigen Konvergenz ist diese Bedingung naturlich ebenfalls er-

fullt. Es gilt aber zusatzlich, dass bei gegebenem ε > 0 die Zahl N unabhangig von

x gewahlt werden kann, also gleichmaßig in D. Gleichmaßige Konvergenz impliziert

somit punktweise Konvergenz. 2

Beispiel 12.18. In Beispiel 10.71. haben wir die Folge von Funktionen

fn : [0, 1] → IR, fn(x) := xn,

betrachtet. Diese konvergiert offenbar punktweise gegen die Funktion

f : [0, 1] → IR, f(x) :=

0 fur 0 ≤ x < 1

1 fur x = 1.

Dass die Folge nicht gleichmaßig konvergieren kann, werden wir noch sehen. 2

Der Begriff der punktweisen Konvergenz ist konzeptionell sehr einfach und scheint

sehr naturlich zu sein, Beispiel 12.18. zeigt aber, dass er zu schwach fur die Zwecke

der Infinitesimalrechnung ist, denn die Stetigkeit aller Glieder einer punktweise

konvergenten Folge {fn} vererbt sich nicht notwendig auf den punktweisen Grenz-

wert. Der Begriff der gleichmaßigen Konvergenz weist diesen Mangel nicht auf. Fur

gleichmaßig konvergente Folgen gilt

Satz 12.19. Es seien fn : V ⊃ D → W stetige Funktionen. Konvergiert die Folge

{fn} gleichmaßig in D gegen eine Funktion f : D → W , so ist auch f stetig in D.

Beweis: Es sei ε > 0 gegeben. Dann gibt es ein N ∈ IN, so dass gilt

‖f(x) − fn(x)‖W < ε fur alle n ≥ N und alle x ∈ D.

Es sei x0 ∈ D beliebig gewahlt. Dann gilt mit jedem (festgehaltenen) n ≥ N

‖f(x) − f(x0)‖W ≤ ‖f(x) − fn(x)‖W + ‖fn(x) − fn(x0)‖W + ‖fn(x0) − f(x0)‖W

≤ 2ε + ‖fn(x) − fn(x0)‖W .

Wegen der Stetigkeit von fn gibt es ein δ > 0 mit

‖fn(x) − fn(x0)‖W < ε fur alle x ∈ D mit ‖x − x0‖V < δ,

und es folgt

‖f(x) − f(x0)‖W < 3ε fur alle x ∈ D mit ‖x − x0‖V < δ.

Dies ist gerade die Stetigkeit von f in x0.

98 KAPITEL 12. ELEMENTARE FUNKTIONEN

Beispiel 12.20. (Fortsetzung von Beispiel 12.18.)

Die durch fn(x) = xn definierte Folge aus Beispiel 12.18. konvergiert auf jedem

Teilintervall [a, b] von [0, 1] mit 0 ≤ a < b < 1 gleichmaßig gegen die Nullfunktion.

Wegen b ∈ [0, 1) ist namlich {bn} eine reelle Nullfolge, und daher gibt es zu jedem ε

ein N ∈ IN mit bn < ε fur alle n > N . Mit diesem N ist dann auch

|fn(x) − 0| = |x|n ≤ bn < ε fur alle n > N und fur alle x ∈ [a, b]. (12.11)

Konform mit der Aussage des letzten Satzes ist die Nullfunktion auch stetig in einem

solchen Intervall [a, b].

Im Falle b = 1 ist die Grenzfunktion unstetig, da in allen Punkten x < 1 der Wert

Null und in 1 naturlich der Wert 1 angenommen wird. Die Konvergenz ist auch nicht

gleichmaßig. Zu ε = 12

und jedem Index n gibt es namlich immer ein xn ∈ [a, 1), fur

das |fn(xn) − 0| > ε = 12

ist. Jedes xn ∈ ((12)1/n, 1) ∩ [a, 1) eignet sich z.B. dafur.

Es sei noch bemerkt, daß die punktweise Grenzfunktion einer Folge stetiger Funk-

tionen naturlich stetig sein kann, obwohl die Konvergenz nicht gleichmaßig ist.

Schranken wir die eben betrachtete Funktionenfolge {fn} etwa auf das Intervall

[0, 1) ein, so ist die punktweise Grenzfunktion dort die stetige Nullfunktion. Aber

naturlich liegt keine gleichmaßige Konvergenz vor. 2

Die Definition der punktweisen Konvergenz und der gleichmaßigen Konvergenz von

Folgen von Funktionen in Definition 12.16. weicht von unserem allgemeinen Konzept

der Konvergenz von Folgen in Abschnitt 10.1 ab. Dort hatten wir eine Folge {an}in einem normierten Vektorraum X konvergent gegen a ∈ X genannt, wenn es zu

jedem ε > 0 ein N ∈ IN gibt mit ‖an − a‖X < ε fur alle n ≥ N , wobei ‖ · ‖X die

Norm auf X bezeichnet.

Man kann zeigen, dass die punktweise Konvergenz nicht durch eine Norm induziert

wird. Die gleichmaßige Konvergenz kann man diesem Konzept jedoch auf folgende

Weise unterordnen.

Es sei

B(D) := {f : D → W : es existiert M ≥ 0 mit ‖f(x)‖W ≤ M fur alle x ∈ D}

der Vektorraum der beschrankten Funktionen auf D mit der Supremumnorm

‖f‖∞ := supx∈D

‖f(x)‖W . (12.12)

12.2. KONVERGENZ IN FUNKTIONENRAUMEN 99

Dann konvergiert eine Folge {fn} ⊂ B(D) genau dann gegen eine Funktion f ∈B(D), wenn es zu jedem ε > 0 ein N ∈ IN gibt mit

‖fn − f‖∞ = supx∈D

‖fn(x) − f(x)‖W < ε fur alle n ≥ N,

und dies ist offenbar genau dann der Fall, wenn fur alle x ∈ D

‖fn(x) − f(x)‖W < ε fur alle n ≥ N

gilt. Da N nicht von x ∈ D abhangt, konvergiert {fn} genau dann im Sinne der

Norm ‖ · ‖∞ gegen f , wenn {fn} gleichmaßig in D gegen f konvergiert.

Es sei nun noch spezieller D ⊂ V eine kompakte Menge. Dann bezeichnen wir mit

C(D) den Vektorraum der stetigen und reellwertigen Funktionen auf D, wobei das

C an das englische Wort”continuous“ fur stetig erinnert. Nach Satz 11.36. ist jede

Funktion aus C(D) beschrankt, und das Supremum wird angenommen. Wir konnen

daher in diesem Fall in Gleichung (12.12)

‖f‖∞ = maxx∈D

‖f(x)‖W

schreiben. In diesem Fall sprechen wir von der Maximumnorm oder auch Tsche-

byscheff Norm4 .

Nach Satz 12.19. ist der gleichmaßige Grenzwert stetiger Funktion wieder stetig.

Hieraus erhalt man

Satz 12.21. Es sei V ein normierter Raum und W ein Banachraum, und es sei

D ⊂ V eine kompakte Menge. Dann ist der Vektorraum C(D) der stetigen Funktio-

nen f : D → W bzgl. der Maximumnorm vollstandig.

Beweis: Es sei {fn} eine Cauchy Folge in C(D) bzgl. der Maximumnorm. Dann

existiert zu jedem ε > 0 ein N ∈ IN, so dass

‖fn(x) − fm(x)‖W < ε fur alle n,m ≥ N und alle x ∈ D. (12.13)

Damit ist fur jedes feste x ∈ D die Folge {fn(x)} eine Cauchy Folge in W , und

wegen der Vollstandigkeit von W gibt es ein f(x) ∈ D mit limn→∞ fn(x) = f(x).

Damit ist die Existenz einer Funktion f : D → W gesichert, gegen die die Folge

{fn} punktweise konvergiert.

4Pafnuty Lvovich Tschebyscheff, 1821 - 1894, russischer Mathematiker; in der englischen Lite-

ratur: Chebyshev

100 KAPITEL 12. ELEMENTARE FUNKTIONEN

{fn} konvergiert auch gleichmaßig gegen f , denn aus (12.13) folgt fur jedes x ∈ D

limm→∞ ‖fn(x) − fm(x)‖W = ‖fn(x) − f(x)‖W < ε fur jedes n ≥ N.

Da nach Satz 12.19. f : D → W stetig ist, besitzt die Cauchy Folge {fn} einen

Grenzwert f ∈ C(D), und daher ist C(D) vollstandig.

Ahnlich wie bei der absoluten Konvergenz von Reihen mit konstanten Gliedern

erhalt man die gleichmaßige Konvergenz von Reihen von Funktionen durch Majo-

risierung durch eine konstante Reihe. Dabei ist die punktweise und gleichmaßige

Konvergenz von Reihen von Funktionen naturlich wieder durch die entsprechende

Konvergenz der Folge der Partialsummen erklart.

Satz 12.22. Fur n ∈ IN seien fn Abbildungen einer Teilmenge D eines normier-

ten Vektorraumes V in einen Banachraum W . Die Reihe∞∑

n=0fn(x) konvergiert

gleichmaßig auf der Menge D gegen eine Abbildung s : D → W , wenn es eine

konvergente Reihe∞∑

n=0an mit reellen konstanten Gliedern an ≥ 0 gibt, so dass

‖fn(x)‖W ≤ an fur alle n ∈ IN0 und alle x ∈ D.

Beweis: Fur sm(x) :=m∑

n=0fn(x) und tm :=

m∑

n=0an gilt

‖sm(x) − sk(x)‖W = ‖m∑

n=k+1fn(x)‖

W

≤m∑

n=k+1

‖fn(x)‖W ≤m∑

n=k+1

an = tm − tk.

Da man die rechte Seite (unabhangig von x ∈ D) durch genugend große Wahl von

m und k beliebig klein machen kann, ist die Folge der Partialsummen fur jedes x

eine Cauchy Folge in W , also gegen ein Element in W konvergent, welches s(x)

definiert. Durch Ubergang m → ∞ in der letzten Abschatzung erhalt man

‖s(x) − sk(x)‖W ≤∞∑

n=k+1

an fur alle x ∈ D.

Daher ist auch die gleichmaßige Konvergenz klar.

Neben der Maximumnorm haben wir in Abschnitt 10.5 auf C[a, b], dem Vektorraum

der stetigen, reellwertigen Funktionen auf dem Intervall [a, b], die Norm

‖f‖2 :=

√√√√√

b∫

a

|f(x)|2 dx

betrachtet. Die Konvergenz bzgl. dieser Norm ist angemessen bei der Behandlung

von Fourier Reihen.

12.2. KONVERGENZ IN FUNKTIONENRAUMEN 101

Definition 12.23. Eine Folge {fn} ⊂ C[a, b] stetiger, reellwertiger Funktionen

auf dem Intervall [a, b] heißt konvergent im quadratischen Mittel gegen eine

Funktion f : [a, b] → IR, wenn fur alle ε > 0 ein N ∈ IN existiert mit√√√√√

b∫

a

(fn(x) − f(x))2 dx < ε fur alle n ≥ N.

Konvergenz im quadratischen Mittel ist ein schwacherer Konvergenzbegriff als gleich-

maßige Konvergenz in dem folgenden Sinne:

Satz 12.24. Es sei {fn} ⊂ C[a, b] eine Folge stetiger Funktionen, die gleichmaßig

gegen f : [a, b] → IR konvergiert. Dann konvergiert sie auch im quadratischen Mittel

gegen f .

Beweis: Wir greifen hier wieder vor und benutzen die Tatsache, dass das Integral

uber eine stetige, nichtnegative Funktion nach oben abgeschatzt werden kann durch

das Produkt der Intervallange mit dem Maximum des Integranden. Hiermit gilt die

Abschatzung

‖f − fn‖2 =(

b∫

a

(f(x) − fn(x))2 dx)1/2 ≤

√b − a‖f − fn‖∞,

aus der unmittelbar die Behauptung folgt.

Mit der ‖ · ‖2-Norm ist der Vektorraum C[a, b] nicht vollstandig. Das zeigt das

folgende Beispiel.

Beispiel 12.25. Wir betrachten in C[−1, 1] die Folge {gn}n≥2, die definiert sei

durch

gn(x) :=

−1 fur x ∈ [−1,−n−1),

nx fur x ∈ [−n−1, n−1],

1 fur x ∈ (n−1, 1].

{gn} konvergiert im quadratischen Mittel gegen die Funktion

g(x) :=

−1 fur x ∈ [−1, 0),

0 fur x = 0,

1 fur x ∈ (0, 1]

denn es gilt

‖gn − g‖22 =

∫ 1

−1(gn(x) − g(x))2 dx =

∫ n−1

−n−1(gn(x) − g(x))2 dx =

2

3n.

102 KAPITEL 12. ELEMENTARE FUNKTIONEN

Wie in Satz 10.63. erhalt man hieraus, dass {gn} in der ‖ · ‖2-Norm eine Cauchy-

Folge ist, und wie in dem Eindeutigkeitssatz fur Grenzwerte (Satz 10.23.) sieht man,

dass die Folge {gn} keinen anderen Grenzwert als g haben kann. Da g offenbar nicht

stetig ist, besitzt die Cauchy-Folge {gn} keinen Grenzwert in C[−1, 1], und daher

ist der Raum C[−1, 1] mit der ‖ · ‖2-Norm nicht vollstandig.

Daß die Folge bezuglich der Maximum-Norm nicht gegen die Funktion g konvergiert,

ist leicht zu sehen. Man kann auch leicht feststellen, daß {gn} bezuglich dieser Norm

keine Cauchy-Folge ist. Daher ist die Folge auch nicht konvergent. 2

Wir zeigen nun, dass jede stetige Funktion auf einem abgeschlossenen Intervall be-

liebig gut gleichmaßig durch ein Polynom approximiert werden kann.

Satz 12.26. (Approximationssatz von Weierstraß)

Es sei f : [a, b] → IR stetig. Dann gibt es zu jedem ε > 0 ein Polynom p mit

‖f − p‖∞ < ε.

Der Beweis des Weierstraßschen Approximationssatzes ergibt sich konstruktiv durch

Transformation des Intervalls [a, b] auf das Intervall [0, 1] und die Verwendung des

nachsten Satzes. Dieser stellt eine konstruktive Variante des Approximationssatzes

dar und benutzt die sogenannten Bernstein5 Polynome zu einer Funktion, die wir

zunachst definieren:

Definition 12.27. Zu f : [0, 1] → IR heißt

Bf,n(x) :=n∑

k=0

(

n

k

)

xk(1 − x)n−kf(k

n)

das zu f gehorende Bernstein Polynom vom Grade n.

Satz 12.28. (Bernstein)

Ist f : [0, 1] → IR stetig, so gibt es zu jedem ε > 0 ein N ∈ IN, so dass

|f(x) − Bf,n(x)| < ε fur alle x ∈ [0, 1] und alle n ≥ N

gilt.

5Sergi Natanovich Bernstein, 1880 - 1968, ukrainischer Mathematiker

12.2. KONVERGENZ IN FUNKTIONENRAUMEN 103

Bemerkung 12.29. Es gilt

Bf,n(0) = f(0), Bf,n(1) = f(1), aber i.a. Bf,n(k

n) 6= f(

k

n).

Das zu f gehorende Bernstein Polynom ist also kein Interpolationspolynom von f

zu den Knotenk

n. 2

Beweis: (von Satz 12.26.)

Satz 12.28. liefert sofort die Aussage des Satzes von Weierstraß, wenn das Intervall

[a, b] dort gleich [0, 1] ist. Ist dies nicht der Fall, so betrachtet man zu f : [a, b] → IR

die stetige Abbildung

g :

[0, 1] → IR,

x 7→ f(a + (b − a)x)

mit der

g( t − a

b − a

)

= f(t), t ∈ [a, b],

ist. Nach dem letzten Satz gibt es dann zu ε > 0 einen Index N , so daß fur alle

n ≥ N gilt

maxx∈[0,1]

|g(x) − Bg,n(x)| < ε fur alle x ∈ [0, 1],

und durch Rucktransformation folgt

maxt∈[a,b]

∣∣∣f(t) − Bg,n

( t − a

b − a

)∣∣∣ = max

t∈[a,b]

∣∣∣g

( t − a

b − a

)

− Bg,n

( t − a

b − a

)∣∣∣ < ε

fur dieselben Indizes, und da Bg,n

( t − a

b − a

)

ein Polynom in t vom selben Grad wie

Bg,n(x) in x ist, ist der Satz von Weierstraß somit auch fur allgemeine Intervalle

klar.

Den Beweis von Satz 12.28. fuhren wir der Vollstandigkeit halber im letzten Teil

dieses Unterabschnittes aus. Er ist ganz elementar, kann aber — da er keine fur

die Ziele dieser Vorlesung relevanten Techniken vermittelt — beim ersten Lesen

ubergangen werden.

Zunachst benotigen wir einige elementare Aussagen uber Bernstein-Summen:

Lemma 12.30. Es gilt fur alle n ∈ IN

n∑

k=0

(

n

k

)

xk(1 − x)n−k = 1 (12.14)

104 KAPITEL 12. ELEMENTARE FUNKTIONEN

n∑

j=0

j

n

(

n

j

)

xj(1 − x)n−j = x (12.15)

n∑

k=0

k(k − 1)

(

n

k

)

xk(1 − x)n−k = n(n − 1)x2 (12.16)

n∑

k=0

k2

n2

(

n

k

)

xk(1 − x)n−k = (1 − 1

n)x2 +

1

nx (12.17)

n∑

k=0

(x − k

n)2

(

n

k

)

xk(1 − x)n−k =1

nx(1 − x) (12.18)

Beweis: Nach dem binomischen Satz gilt

n∑

k=0

(

n

k

)

xk(1 − x)n−k = (x + (1 − x))n ≡ 1,

und dies beweist (12.14)

Aus (12.14) folgt

x =n−1∑

k=0

(

n − 1

k

)

xk+1(1 − x)n−1−k =n−1∑

k=0

k + 1

n

(

n

k + 1

)

xk+1(1 − x)n−1−k

=n∑

j=1

j

n

(

n

j

)

xj(1 − x)n−j =n∑

j=0

j

n

(

n

j

)

xj(1 − x)n−j,

d.h. (12.15)

Ebenfalls aus (12.14) folgt

n(n − 1)x2 = n(n − 1)x2n−2∑

j=0

(

n − 2

j

)

xj(1 − x)n−2−j

=n−2∑

j=0

n(n − 1)

(

n − 2

j

)

xj+2(1 − x)n−2−j

=n∑

k=2

n(n − 1)

(

n − 2

k − 2

)

xk(1 − x)n−k

=n∑

k=2

n(n − 1)(n − 2)!

(k − 2)!(n − 2 − (k − 2))!xk(1 − x)n−k

=n∑

k=2

k(k − 1)n!

k!(n − k)!xk(1 − x)n−k

=n∑

k=0

k(k − 1)

(

n

k

)

xk(1 − x)n−k,

d.h. (12.16).

12.2. KONVERGENZ IN FUNKTIONENRAUMEN 105

Aus (12.15) und (12.16) folgt

(1 − 1

n)x2 +

1

nx =

1

n2

(

n(n − 1)x2 + nx)

=1

n2

( n∑

k=0

k(k − 1)

(

n

k

)

xk(1 − x)n−k +n∑

k=0

k

(

n

k

)

xk(1 − x)n−k)

=n∑

k=0

k2

n2

(

n

k

)

xk(1 − x)n−k,

also (12.17)

Schließlich ist

1

nx(1 − x) = x2 − 2x2 + (1 − 1

n)x2 +

1

nx

= x2n∑

k=0

(

n

k

)

xk(1 − x)n−k − 2xn∑

k=0

k

n

(

n

k

)

xk(1 − x)n−k

+n∑

k=0

k2

n2

(

n

k

)

xk(1 − x)n−k

=n∑

k=0

(

x2 − 2xk

n+

k2

n2

)(

n

k

)

xk(1 − x)n−k

=n∑

k=0

(

x − k

n

)2(

n

k

)

xk(1 − x)n−k.

Beweis: (von Satz 12.28.)

Da f stetig auf dem abgeschlossenen Intervall [0, 1] ist, ist f beschrankt auf [0, 1].

Es gibt also ein K ≥ 0 mit

|f(x)| ≤ K fur alle x ∈ [0, 1].

Ferner ist f auf [0, 1] gleichmaßig stetig, d.h. zu ε > 0 gibt es ein δ > 0 mit

|f(x) − f(y)| <ε

2fur alle x, y ∈ [0, 1] mit |x − y| < δ.

Es sei nun x ∈ [0, 1] fest gewahlt. Dann gilt

|f(x) − Bf,n(x)| = |f(x) · 1 − Bf,n(x)|

=∣∣∣

n∑

k=0

(

n

k

)

xk(1 − x)n−k(f(x) − f(k

n))

∣∣∣

≤n∑

k=0

(

n

k

)

xk(1 − x)n−k|f(x) − f(k

n)|.

Wir zerlegen die Summe nun in zwei Anteile: Σ1 enthalte alle Terme, fur die |x −k/n| < δ gilt, und Σ2 enthalte die ubrigen Summanden. Wir zeigen, dass beide

106 KAPITEL 12. ELEMENTARE FUNKTIONEN

Anteile sich fur n ≥ N fur genugend großes N (das nicht von x abhangt) durch ε/2

abschatzen lassen.

Es gilt

Σ1 =∑

k : |x−k/n|<δ

(

n

k

)

xk(1 − x)n−k|f(x) − f(k

n)|

≤∑

k : |x−k/n|<δ

(

n

k

)

xk(1 − x)n−k ε

2

≤n∑

k=0

(

n

k

)

xk(1 − x)n−k ε

2=

ε

2.

Aus (12.18) folgt

n∑

k=0

(

n

k

)

xk(1 − x)n−k(x − k

n)2 =

1

nx(1 − x) ≤ 1

4n.

Wir wahlen N ≥ K/(εδ2) (unabhangig von x). Dann gilt fur alle n ≥ N

Σ2 =∑

k : |x−k/n|≥δ

(x − k

n)2

(

n

k

)

xk(1 − x)n−k |f(x) − f( kn)|

(x − kn)2

≤∑

k : |x−k/n|≥δ

(x − k

n)2

(

n

k

)

xk(1 − x)n−k |f(x)| + |f( kn)|

(x − kn)2

≤∑

k : |x−k/n|≥δ

(x − k

n)2

(

n

k

)

xk(1 − x)n−k 2K

δ2

≤ 2K

δ2

n∑

k=0

(x − k

n)2

(

n

k

)

xk(1 − x)n−k

≤ 1

4n· 2K

δ2<

ε

2.

Zusammengenommen gilt also

∣∣∣f(x)−Bf,n(x)

∣∣∣ ≤ Σ1+Σ2 <

ε

2+

ε

2= ε.

Beispiel 12.31. Abbildung 12.1 enthalt die Bernstein Polynome vom Grad n =

2, 4, 8, 16, . . . , 1024 fur die Funktion

f(x) :=

2x , 0 ≤ x ≤ 0.5

2 − 2x , 0.5 ≤ x ≤ 1. 2

12.3. POTENZREIHEN 107

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Abbildung 12.1: Bernsteinpolynome

12.3 Potenzreihen

In Verallgemeinerung der Polynome betrachten wir die sogenannten Potenzreihen

f(z) =∞∑

j=0

aj (z − z0)j.

Dabei seien aj ∈ C und z0 ∈ C gegeben.

Naturlich interessieren uns diese Reihen nur fur z-Werte, fur die sie auch konvergie-

ren. Das typische Konvergenzverhalten von Potenzreihen zeigt

Beispiel 12.32. Wir betrachten

f(z) =∞∑

j=0

zj.

Die geometrische Reihe divergiert fur |z| > 1 und konvergiert fur |z| < 1 mit dem

Grenzwert1

1 − z. Im Inneren des Kreises K := {z ∈ C : |z| < 1} wird die Funktion

1

1 − zdurch die (konvergente) geometrische Reihe dargestellt.

Typisch fur Potenzreihen ist die Konvergenz im Inneren eines Kreises und die Di-

vergenz im Außeren desselben Kreises. Auf dem Rand des Einheitskreises divergiert

die vorgelegte Reihe uberall. Solch ein gleichmaßiges Verhalten auf dem Kreisrand,

der den inneren Konvergenz- vom außeren Divergenzbereich trennt, ist allerdings

nicht typisch fur Potenzreihen. 2

108 KAPITEL 12. ELEMENTARE FUNKTIONEN

Das Konvergenzverhalten von Potenzreihen wird durch die Formel von Cauchy und

Hadamard6 beschrieben.

Satz 12.33. Zu jeder Potenzreihe∞∑

j=0aj (z−z0)

j gibt es eine Zahl r mit 0 ≤ r ≤ ∞,

so dass die Reihe fur |z − z0| < r absolut konvergiert und fur |z − z0| > r divergiert.

Fur |z − z0| = r ist keine allgemeine Aussage moglich.

Die Zahl r kann berechnet werden mit der Formel von Cauchy und Hadamard

1

r= lim sup

n→∞n

|an|, (12.19)

wobei hier ausnahmsweise die Rechnungen (1r

= 0 ⇔ r = ∞) und (1r

= ∞ ⇔ r =

0) erlaubt sind. r = ∞ soll besagen, dass die Reihe fur alle z ∈ C konvergiert.

Definition 12.34. r heißt Konvergenzradius und {z ∈ C : |z − z0| < r} heißt

Konvergenzkreis der Reihe. Ist r = ∞, so heißt die durch

z 7−→∞∑

j=0

aj (z − z0)j

definierte Funktion eine ganze Funktion.

Beweis: (von Satz 12.33.)

Es sei r nach Formel (12.19) berechnet. Wir betrachten zunachst den Fall 0 < r ≤ ∞.

Es gilt

lim supn→∞

n

|an(z − z0)n| = |z − z0| lim supn→∞

n

|an| =|z − z0|

r,

und nach dem Wurzelkriterium (Korollar 10.100.) konvergiert die Potenzreihe fur

|z − z0| < r und divergiert fur |z − z0| > r, wahrend fur |z − z0| = r keine Aussage

moglich ist.

Im Falle r = 0 gilt lim supn→∞

n

|an| = ∞. Fur jedes z 6= z0 ist die Folge { n

|an|·|z−z0|}

also unbeschrankt und damit auch die Folge {|an (z−z0)n|}. Somit ist

∞∑

n=0an (z−z0)

n

divergent.

Um die Ausdrucke abzukurzen, betrachten wir von nun an den Spezialfall z0 = 0.

Dies entspricht der Transformation ζ := z − z0 von z0 in den Nullpunkt.

Die Formel (12.19) von Cauchy und Hadamard wird vor allem fur theoretische Uber-

legungen benotigt. Eine haufig einfache Art, den Konvergenzradius zu berechnen,

enthalt der folgende Satz 12.35.

6Jacques Salomon Hadamard, 1865 - 1963, franzosischer Mathematiker

12.3. POTENZREIHEN 109

Satz 12.35. Es sei an 6= 0 fur alle n ≥ N . Existiert

limn→∞

∣∣∣∣

an

an+1

∣∣∣∣ = r > 0,

so ist r der Konvergenzradius der Potenzreihe∞∑

n=0anz

n.

Beweis: Nach dem Quotientenkriterium konvergiert die Reihe∞∑

n=0anz

n absolut fur

alle z ∈ C mit

limn→∞

∣∣∣∣

an+1 zn+1

an zn

∣∣∣∣ = lim

n→∞

∣∣∣∣

an+1

an

∣∣∣∣ |z| =

|z|r

< 1,

d.h. fur |z| < r. Fur|z|r

> 1 divergiert sie, da dann nicht einmal die Glieder der

Reihe anzn gegen 0 konvergieren.

Beispiel 12.36.

f(z) :=∞∑

n=1

(−1)n+1 zn

n

hat den Konvergenzradius

r = limn→∞

∣∣∣∣

an

an+1

∣∣∣∣ = lim

n→∞

∣∣∣n + 1

n

∣∣∣ = 1.

In diesem Fall ist das Konvergenzverhalten auf dem Rand des Einheitskreises nicht

einheitlich. In z = 1 konvergiert die Reihe (alternierende harmonische Reihe) und

in z = −1 nicht (harmonische Reihe). 2

Aus den Rechenregeln (Satz 10.87. und Korollar 10.114.) fur absolut konvergente

Reihen folgt Satz 12.37.

Satz 12.37. Sind f(z) =∞∑

n=0anz

n und g(z) =∞∑

n=0bnzn Potenzreihen mit den Kon-

vergenzradien rf und rg, so gilt

(i) f(z) + g(z) =∞∑

n=0(an + bn) zn fur alle z ∈ C mit |z| < min(rf , rg),

(ii) αf(z) =∞∑

n=0(αan) zn fur alle z ∈ C mit |z| < rf ,

(iii) f(z) · g(z) =∞∑

n=0

( n∑

j=0ajbn−j

)

zn fur alle z ∈ C mit |z| < min(rf , rg).

110 KAPITEL 12. ELEMENTARE FUNKTIONEN

Bemerkung 12.38. Nur in Teil (ii) ist mit rf der Konvergenzradius exakt an-

gegeben (sofern α 6= 0 gilt). In den Teilen (i) und (iii) ist min(rf , rg) nur jeweils

der Radius eines Kreises, in dem die Konvergenz der Potenzreihen garantiert ist. In

beiden Fallen kann der Konvergenzradius sehr wohl großer sein.

Fur Teil (i) ist dies trivial. Wir wahlen namlich z.B. f aus Beispiel 12.36. mit dem

Konvergenzradius rf = 1 und g := −f . Dann ist∞∑

n=0

(an + bn)zn ≡ 0

eine ganze Funktion, der Konvergenzradius also großer als min(rf , rg) = 1. Fur das

Cauchy Produkt behandeln wir ein Beispiel in dem Aufgabenband. 2

Wir zeigen nun, dass die Potenzreihe in ihrem Konvergenzkreis eine stetige Funktion

definiert.

Satz 12.39. Besitzt die Potenzreihe∞∑

n=0anz

n den Konvergenzradius r > 0, so kon-

vergiert sie fur jedes ρ < r gleichmaßig in dem abgeschlossenen Kreis Kρ := {z ∈C : |z| ≤ ρ}.

Jede Potenzreihe definiert in ihrem Konvergenzkreis eine stetige Funktion.

Beweis: Es sei ρ < r. Die Reihe konvergiert fur z ∈ C mit |z| = ρ absolut, also

ist∞∑

n=0|an| ρn fur |z| ≤ ρ eine von z unabhangige konvergente Majorante, und nach

Satz 12.22. konvergiert∑∞

n=0 anzn gleichmaßig in Kρ gegen eine Funktion f .

Da die Funktionen z 7→ anzn fur n ∈ IN0 stetig sind, ist die Grenzfunktion f nach

Satz 12.21. stetig in Kρ, und da ρ beliebig nahe an r gewahlt werden kann, ist die

durch∑∞

n=0 anzn definierte Funktion fur alle z mit |z| < r stetig.

Bemerkung 12.40. Die in Satz 12.39. beschriebene Konvergenz von Potenzreihen

wird durch die in Abschnitt 12.2 betrachteten Arten der Konvergenz von Folgen von

Funktionen nicht hinreichend erfasst. Ist Kr := {z : |z| < r} der Konvergenzkreis

einer Potenzreihe, so konvergiert diese sicher punktweise in Kr. Sie konvergiert dort

aber nicht gleichmaßig, sondern nur in jedem abgeschlossenen Kreis Kρ, der in Kr

enhalten ist.

Ist M eine kompakte Teilmenge des Konvergenzkreises Kr, so ist M insbesondere

abgeschlossen, und daher gibt es ein ρ < r mit M ⊂ Kρ. Damit konvergiert die Po-

tenzreihe auch in M gleichmaßig. Diese Art der Konvergenz (punktweise konvergent

in der Menge und gleichmaßig konvergent in jeder kompakten Teilmenge) wird auch

kompakte Konvergenz genannt. 2

12.4. EXPONENTIALFUNKTION, LOGARITHMUSFUNKTION 111

12.4 Exponentialfunktion, Logarithmusfunktion

Definition 12.41. Die Funktion

exp(z) := ez :=∞∑

n=0

zn

n!(12.20)

heißt Exponentialfunktion oder kurz e-Funktion.

Wir haben bereits gesehen (Beispiel 10.104.), dass der Konvergenzradius der Po-

tenzreihe in (12.20) r = ∞ ist. Daher ist die Exponentialfunktion nach Satz 12.39.

stetig in C. Ferner gilt nach Beispiel 10.115. die Funktionalgleichung

exp(x + y) = exp(x) · exp(y) fur alle x, y ∈ C (12.21)

der Exponentialfunktion.

An Stelle der Schreibweise exp(z) findet man haufig fur die Exponentialfunktion den

Ausdruck ez. Inwiefern es sich bei ez um eine”echte Potenz“ handelt, wollen wir

nun untersuchen. Wir zeigen zunachst

Lemma 12.42. exp(1) = e.

Beweis: Es sei

an := (1 +1

n)n und sn :=

n∑

j=0

1

j!.

Dann gilt

limn→∞

an = e und limn→∞

sn = exp(1).

Nach dem binomischen Satz gilt

an = (1 +1

n)n =

n∑

j=0

(

n

j

)

1

nj= 1 +

n∑

j=1

1

j!· n!

(n − j)! nj

= 1 +n∑

j=1

1

j!(1 − 1

n) (1 − 2

n) · . . . · (1 − j − 1

n)

≤ 1 +n∑

j=1

1

j!= sn,

und daher folgt

e = limn→∞ an ≤ lim

n→∞ sn = exp(1). (12.22)

112 KAPITEL 12. ELEMENTARE FUNKTIONEN

−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5 3

0

2

4

6

8

10

12

14

16

18

20exp

x

Abbildung 12.2: f(x) = exp(x)

Sei nun n ∈ IN fest gewahlt und N ≥ n. Dann gilt wie oben

aN = (1 +1

N)N = 1 +

N∑

j=1

1

j!(1 − 1

N) · . . . · (1 − j − 1

N)

≥ 1 +n∑

j=1

1

j!(1 − 1

N) · . . . · (1 − j − 1

N),

und daher

e = limN→∞

aN ≥ 1 +n∑

j=1

1

j!lim

N→∞

[

(1 − 1

N) · . . . · (1 − j − 1

N)]

= sn,

d.h.

e ≥ limn→∞ sn = exp(1).

Zusammen mit (12.22) gilt also e = exp(1).

Bemerkung 12.43. Lemma 12.42. zeigte e1 = exp(1).

Durch Induktion erhalten wir dann aus (12.21) fur n ∈ IN

exp(n) = [exp(1)]n = en.

Wegen

1 = exp(0) = exp(p) · exp(−p)

gilt exp(p) = ep fur alle p ∈ ZZ, und fur p ∈ ZZ und q ∈ IN ist

ep = exp(p) = exp(q · p

q) = [exp(

p

q)]q.

Daher ist

er = exp(r) fur alle r ∈ Q.

12.4. EXPONENTIALFUNKTION, LOGARITHMUSFUNKTION 113

Fur irrationale Werte x wird man nun ex so festlegen, daß die Funktionswerte fur

irrationale Argumente mit den Funktionsgrenzwerten entlang rationaler approximie-

render Argumentfolgen ubereinstimmen. Da die Exponentialfunktion stetig ist, hat

man hiermit nur noch die Moglichkeit,

ex := exp(x) fur irrationale x ∈ IR

zu definieren.

Daruber hinaus ist es naheliegend, dann auch noch

ez := exp(z) fur z ∈ C \ IR

zu setzen. 2

Satz 12.44. (Eigenschaften der reellen Exponentialfunktion)

(i) ex > 0 fur alle x ∈ IR,

(ii) x 7→ ex ist streng monoton wachsend in IR,

(iii) limx→∞

xn

ex= 0 fur jedes n ∈ IN, d.h. ex wachst fur x → ∞ schneller als jede

Potenz von x. Speziell gilt

limx→∞

ex = ∞, limx→−∞

ex = 0.

Beweis: (i): Fur x > 0 sind alle Glieder der Potenzreihe (12.20) positiv. Daher

gilt ex ≥ e0 = 1 fur alle x ≥ 0, und aus (12.21) folgt fur x < 0 auch ex = 1e−x > 0.

(ii): Fur x < y folgt aus ey−x > 1

ey = ey−x+x = ey−x · ex > ex.

(iii): Fur x > 0 folgt aus der Potenzreihe ex >xn+1

(n + 1)!, und daher

0 < xne−x <1

x(n + 1)! −→ 0 fur x → ∞.

Wegen (ii) und (iii) bildet die Exponentialfunktion die Menge IR streng monoton

auf die Menge IR+ := (0,∞) der positiven reellen Zahlen ab. Sie besitzt also eine

inverse Funktion

ln : IR+ → IR,

114 KAPITEL 12. ELEMENTARE FUNKTIONEN

0 0.5 1 1.5 2 2.5 3−3

−2.5

−2

−1.5

−1

−0.5

0

0.5

1

1.5ln

x

Abbildung 12.3: f(x) = ln(x)

den naturlichen Logarithmus (siehe Abbildung 12.3).

In der mathematischen Literatur wird an Stelle von ln meistens log verwendet.

Aus den Eigenschaften der Exponentialfunktion ergeben sich die folgenden Aussagen

fur den naturlichen Logarithmus:

Satz 12.45. (Eigenschaften des naturlichen Logarithmus)

(i) ln(x · y) = ln(x) + ln(y) fur alle x, y ∈ IR+,

(ii) ln ist stetig und streng monoton wachsend in IR+ mit

ln(1) = 0, ln(e) = 1, limx→0+0

ln(x) = −∞, limx→∞ ln(x) = ∞.

(iii) ln wachst schwacher als jede Potenz von x, d.h.

limx→∞(x−n · ln(x)) = 0 fur alle n ∈ IN, (12.23)

limx→0+0

(xn · ln(x)) = 0 fur alle n ∈ IN. (12.24)

Beweis: (i): folgt unmittelbar aus (12.21).

(ii): folgt aus Satz 11.26. und Satz 12.44.(iii).

(iii): Mit y := ln x gilt

x−n ln x =y

eny−→ 0 fur y → ∞, d.h. (12.23),

xn ln x = eny · y −→ 0 fur y → −∞, d.h. (12.24).

Mit exp und ln kann man nun die allgemeine Potenz und den allgemeinen Logarith-

mus definieren:

12.4. EXPONENTIALFUNKTION, LOGARITHMUSFUNKTION 115

Definition 12.46. Fur festes a ∈ IR+, a 6= 1, sei aexp : IR → IR+ definiert durch

aexp x := ax := ex·ln a.

Die Umkehrfunktion (die Existenz folgt aus dem folgenden Lemma 12.47. fur a 6= 1)

heißt Logarithmus zur Basis a

alog : IR+ → IR.

Die Funktionen aexp und alog haben die folgenden Eigenschaften, die unmittelbar

aus denen der Exponentialfunktion und des naturlichen Logarithmus folgen.

Lemma 12.47.

(i) aexp und alog sind fur 0 < a < 1 streng monoton fallend und fur a > 1 streng

monoton wachsend.

(ii) ax+y = ax · ay fur alle x, y ∈ IR und alog(x · y) = alog x + alog y fur alle

x, y ∈ IR+.

(iii) Fur a > 1 gilt

limx→∞

aexp x = ∞, limx→−∞

aexp x = 0,

limx→∞

alog x = ∞, limx→0+0

alog x = −∞.

Fur 0 < a < 1 mussen die Grenzwerte jeweils vertauscht werden.

(iv) (ax)y = ax·y fur alle x, y ∈ IR und alog(xy) = y · alog x fur alle x, y ∈ IR+.

Bemerkung 12.48. Auf Taschenrechnern sind haufig verschiedene Logarithmen

implementiert: ln, 10log, 2log,. . . . Tatsachlich genugt es, dass nur eine dieser Funk-

tionen aufrufbar ist, denn fur a > 0 und x > 0 folgt aus

x = aalog x =

(

eln a) alog x

= eln a· alog x

durch Logarithmieren

ln x = ln a · alog x, d.h. alog x =ln x

ln a. 2

116 KAPITEL 12. ELEMENTARE FUNKTIONEN

12.5 Trigonometrische Funktionen

Die Funktion

sin : C → C, sin z :=∞∑

n=0

(−1)n

(2n + 1)!z2n+1,

heißt Sinusfunktion, und die Funktion

cos : C → C, cos z :=∞∑

n=0

(−1)n

(2n)!z2n,

heißt Kosinusfunktion. Daß es sich bei den Restriktionen dieser beiden Funktionen

auf IR um die bisher geometrisch definierten Funktionen gleichen Namens handelt,

werden wir bald sehen.

Zunachst folgt mit dem Quotientenkriterium, dass beide Potenzreihen den Konver-

genzradius r = ∞ haben, so daß sin und cos ganze Funktionen sind und damit stetig

in ganz C sind.

Offenbar gilt

sin(−z) = − sin z und cos(−z) = cos z fur alle z ∈ C. (12.25)

Die Sinusfunktion ist also eine ungerade Funktion , und die Kosinusfunktion ist

eine gerade Funktion.

Satz 12.49. (i) Fur alle z ∈ C gilt

eiz = cos z + i · sin z,

sin z =1

2i(eiz − e−iz),

cos z =1

2(eiz + e−iz).

(ii) Fur alle z ∈ C und alle n ∈ IN gilt die Formel von Moivre7

(cos z + i sin z)n = cos(nz) + i sin(nz).

(iii) Fur alle z ∈ C und ζ ∈ C gilt

sin2 z + cos2 z = 1,

sin(z + ζ) = sin z · cos ζ + cos z · sin ζ,

cos(z + ζ) = cos z · cos ζ − sin z · sin ζ.

7Abraham de Moivre, 1667 - 1754, franzosischer Mathematiker

12.5. TRIGONOMETRISCHE FUNKTIONEN 117

Bemerkung 12.50. Man kann zeigen, daß die Funktionalgleichungen in (iii) zu-

sammen mit der Stetigkeit und den Normierungsbedingungen cos 0 = 1 und

limx→0

sin x

x= 1 die Sinus- und Kosinusfunktion auf IR eindeutig festlegen. Da die

fruher geometrisch eingefuhrten Sinus- und Kosinusfunktion diesen charakterisie-

renden Gleichungen auch genugen (Fur die geometrische Bestatigung der Grenz-

wertbedingung an den Quotienten sin(x)/x konsultiere man den Aufgabenband),

handelt es sich bei den jetzt analytisch definierten Funktionen auf IR tatsachlich um

die alten Bekannten aus Mathematik I. 2

Beweis: (von Satz 12.49.)

(i): Da die Reihe eiz =∞∑

n=0

(iz)n

n!absolut konvergiert, kann man sie umordnen und

erhalt wegen i2n = (−1)n

eiz =∞∑

n=0

(iz)n

n!=

∞∑

n=0

(−1)n

(2n)!z2n + i

∞∑

n=0

(−1)n

(2n + 1)!z2n+1 = cos z + i sin z.

Hiermit sieht man weiter

1

2(eiz + e−iz) =

1

2(cos z + i sin z + cos z − i sin z) = cos z,

und genauso erhalt man sin z =1

2i(eiz − e−iz).

(ii): (cos z + i sin z)n = (eiz)n = ei·nz = cos(nz) + i sin(nz).

(iii): Es ist fur alle z ∈ C

1 = eiz · e−iz = (cos z + i sin z) (cos z − i sin z) = cos2 z + sin2 z.

Ferner gilt

cos(z + ζ) + i sin(z + ζ) = ei(z+ζ) = eiz · eiζ

= (cos z + i sin z) · (cos ζ + i sin ζ)

= (cos z cos ζ − sin z sin ζ) + i (sin z cos ζ + cos z sin ζ) ,

und unter Benutzung von (12.25) erhalt man genauso

cos(z + ζ) − i sin(z + ζ) = cos(−(z + ζ)) + i sin(−(z + ζ))

= e−(z+ζ)i = . . . = (cos z cos ζ − sin z sin ζ) − i(sin z cos ζ + cos z sin ζ).

Subtrahiert bzw. addiert man die letzten beiden Gleichungen, so erhalt man die

Additionstheoreme.

Wir untersuchen nun die analytischen Eigenschaften der Sinus- und Kosinusfunktion

als Funktion auf der reellen Achse.

118 KAPITEL 12. ELEMENTARE FUNKTIONEN

−5 0 5 10

−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

sincos

Abbildung 12.4: f(x) = sin x und f(x) = cos x

Satz 12.51. (i) Fur alle x ∈ (0, 2] gilt sin x > 0, und cos besitzt in diesem

Intervall eine Nullstelle; es sei π2

die kleinste positive Nullstelle von cos (dies

ist eine analytische Definition von π !).

(ii) Fur alle z ∈ C gilt

sin(z + π2) = cos z, cos(z + π

2) = − sin z,

sin(z + π) = − sin z, cos(z + π) = − cos z,

sin(z + 2π) = sin z, cos(z + 2π) = cos z.

sin und cos sind also periodisch mit der Periode 2π.

(iii) cos 0 = sin π2

= 1, cos π = sin 3π2

= −1, sin 0 = sin π = cos π2

= cos 3π2

= 0.

cos ist im Intervall [0, π] streng monoton fallend und in [π, 2π] streng monoton

wachsend. sin ist in [−π2, π

2] streng monoton wachsend und in [π

2, 3π

2] streng

monoton fallend.

Beweis: (i): Es ist fur x ∈ [0, 2]

cos x =∞∑

n=0

(−1)n

(2n)!x2n

= 1 − x2

2+

x4

24+

∞∑

k=1

(

− x4k+2

(4k + 2)!+

x4k+4

(4k + 4)!

)

= 1 − x2

2+

x4

24+

∞∑

k=1

x4k+2

(4k + 2)!

(

−1 +x2

(4k + 3) (4k + 4)︸ ︷︷ ︸

≤ 456

)

≤ 1 − x2

2+

x4

24.

12.5. TRIGONOMETRISCHE FUNKTIONEN 119

Daher ist cos 2 ≤ 1 − 42

+ 1624

= −13

< 0. Da cos 0 = 1 > 0 schon bekannt ist, liefert

der Zwischenwertsatz die Existenz einer Nullstelle des cos in (0, 2).

Genauso ist fur x ∈ (0, 2]

sin x =∞∑

n=0

(−1)n

(2n + 1)!x2n+1

= x(

1 − x2

6+

∞∑

k=1

( x4k

(4k + 1)!− x4k+2

(4k + 3)!

))

= x(

1 − x2

6+

∞∑

k=1

x4k

(4k + 1)!

(

1 − x2

(4k + 2) (4k + 3)︸ ︷︷ ︸

≤ 442

))

≥ x(

1 − x2

6

)

> 0.

(ii): Nach Satz 12.49.(iii) gilt sin π2

= 1 und damit

sin(z +π

2) = sin z · cos

π

2+ cos z · sin π

2= cos z,

cos(z +π

2) = cos z · cos

π

2− sin z · sin π

2= − sin z,

sin(z + π) = sin((z +π

2) +

π

2) = cos(z +

π

2) = − sin z,

und die weiteren Aussagen erhalt man genauso.

(iii): Die angegebenen Funktionswerte erhalt man mit (ii) aus cos 0 = 1 und sin 0 = 0.

Die Monotonieaussagen erhalt man so: Es seien x, y ∈ [0, π2] mit x < y und t := y−x.

Wegen t ∈ (0, π2] sind dann sin t > 0 und 0 ≤ cos t < 1. Da sin x > 0 ist, erhalt man

cos y = cos(x + t) = cos x cos t − sin x sin t < cos x.

Der Kosinus ist also streng monoton fallend in [0, π2].

Wegen sin x =√

1 − cos2 x ist der Sinus dann streng monoton wachsend in [0, π2].

Die Beziehung cos(x + π2) = − sin x liefert, dass der Kosinus streng monoton fallt in

[π2, π], so daß der Kosinus in ganz [0, π] streng monoton fallt. Die ubrigen Aussagen

erhalt man aus (ii).

Die Bestimmung von Winkeln zwischen Vektoren aus inneren Produkten stellt ei-

ne Beispielaufgabe dar, bei der die Bestimmung von Bogenmaßen aus zugehorigen

Sinus- und/oder Kosinus-Werten von Interesse war. Wie wir schon in Mathematik I

diskutierten, sind diese Funktionen aber nicht global invertierbar. Die Winkel sind

z.B. aus Sinuswerten nur bis auf additive Vielfache von 2π sowie das Vorzeichen

bestimmt. Analytisch zieht man zur Definition lokaler Umkehrfunktionen den Satz

uber die Umkehrbarkeit stetiger streng monotoner Funktionen heran:

120 KAPITEL 12. ELEMENTARE FUNKTIONEN

Man kann die Sinus- und Kosinusfunktion

auf den jeweiligen Monotonieintervallen um-

kehren. Fur jedes n ∈ ZZ besitzt also

sin : [2n − 1

2π,

2n + 1

2π] → [−1, 1]

eine Umkehrfunktion

arcsinn : [−1, 1] → [2n − 1

2π,

2n + 1

2π]

und

cos : [nπ, (n + 1)π] → [−1, 1]

eine Umkehrfunktion

arccosn : [−1, 1] → [nπ, (n + 1)π].

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

−2.5

−2

−1.5

−1

−0.5

0

0.5

1

1.5

2

2.5arcsin

Abbildung 12.5

Diese heißen die Zweige des Arcussinus bzw. des Arcuskosinus. arcsin0 und

arccos0 heißen die Hauptwerte der jeweiligen Funktionen.

Wegen sin(x + π2) = cos x gilt

arcsinn+1 x = arccosn x +π

2.

Ferner folgt aus sin(x + nπ) = sin x fur n = 2k, k ∈ ZZ,

arcsin2k x = arcsin0 x + 2kπ,

und aus sin(x + nπ) = − sin x fur n = 2k + 1, k ∈ ZZ,

arcsin2k+1 x = − arcsin0 x + (2k + 1)π.

Auf diese Weise kann man alle Zweige von arcsin und arccos auf den Hauptwert des

Arcussinus zuruckfuhren.

Wir definieren nun die Tangens- und Kotangensfunktion:

Nach (ii) und (iii) von Satz 12.51. besitzt sin bzw. cos genau die reellen Nullstellen

nπ, n ∈ ZZ, bzw. 2n+12

π, n ∈ ZZ, und wir werden noch sehen, dass dies die einzigen

Nullstellen in C sind. Es sind also

tan : C \ {2n + 1

2π : n ∈ ZZ} → C, tan z :=

sin z

cos z,

12.5. TRIGONOMETRISCHE FUNKTIONEN 121

−2 −1 0 1 2 3 4 5 6 7 8−5

−4

−3

−2

−1

0

1

2

3

4

5tan

x

Abbildung 12.6: f(x) = tan x

und

cot : C \ {nπ : n ∈ ZZ} → C, cot z :=cos z

sin z,

wohldefiniert und als Quotienten stetiger Funktionen stetig (siehe Abbildung 12.6).

Betrachtet man tan und cot als reelle Funktionen, so erhalt man aus Satz 12.51. die

folgenden Eigenschaften:

(i) tan und cot sind periodisch mit der Periode π.

(ii) tan ist in (−π2, π

2) streng monoton wachsend mit

limx→−π

2+0

tan x = −∞, limx→π

2−0

tan x = ∞.

(iii) cot ist in (0, π) streng monoton fallend mit

limx→0+0

cot x = ∞, limx→π−0

cot x = −∞.

(iv) tan(x + π2) = − cot x und cot(x + π

2) = − tan x.

(v) tan(x + y) =tan x + tan y

1 − tan x · tan yund cot(x + y) =

cot x · cot y − 1

cot x + cot y.

Fur alle n ∈ ZZ besitzt tan : (2n−12

π, 2n+12

π) =: In → IR Umkehrfunktionen

arctann : IR → In,

die Zweige des Arcustangens. arctan0 heißt Hauptwert des Arcustangens.

Wegen tan(x + π) = tan x kann man wieder alle Zweige auf den Hauptwert des

Arcustangens zuruckfuhren:

arctann x = arctan0 x + nπ.

122 KAPITEL 12. ELEMENTARE FUNKTIONEN

−5 −4 −3 −2 −1 0 1 2 3 4 5

−1.5

−1

−0.5

0

0.5

1

1.5 arctan

x

Abbildung 12.7: f(x) = arctan(x)

12.6 Hyperbelfunktionen

Die Funktionen Sinus hyperbolicus,

sinh : C → C, sinh z :=1

2(ez − e−z),

und Kosinus hyperbolicus,

cosh : C → C, cosh z :=1

2(ez + e−z),

spielen als Losungen der Differentialgleichung z′′−z = 0 eine Rolle. Analoge Bedeu-

tung haben die Sinus- und Kosinusfunktion bei der Differentialgleichung z′′ + z = 0.

Aus den Eigenschaften der Exponentialfunktion erhalt man Satz 12.52.

Satz 12.52.

(i) sinh z =∞∑

n=0

z2n+1

(2n + 1)!, cosh z =

∞∑

n=0

z2n

(2n)!.

(ii) sinh(z + ζ) = sinh z · cosh ζ + cosh z · sinh ζ,

cosh(z + ζ) = cosh z · cosh ζ + sinh z · sinh ζ.

(iii) cosh2 z − sinh2 z = 1.

(iv) sinh ist eine ungerade und cosh eine gerade Funktion.

Wegen (iii) liegen fur alle t ∈ IR die Punkte (cosh t, sinh t) auf der Hyperbel x2−y2 =

1. Dies erklart den Namen.

12.6. HYPERBELFUNKTIONEN 123

−3 −2 −1 0 1 2 3−10

−8

−6

−4

−2

0

2

4

6

8

10

sinh

cosh

x

Abbildung 12.8: Sinus hyperbolicus und Kosinus hyperbolicus

−10 −8 −6 −4 −2 0 2 4 6 8 10−3

−2

−1

0

1

2

3

Arsinh

Arcosh+

Arcosh−

x

Abbildung 12.9: f(x) = Arsinh x und f(x) = Arcosh x

Der Graph von cosh wird auch als Kettenlinie bezeichnet, da eine Kette unter dem

Einfluss der Schwerkraft in einer solchen Kurve durchhangt.

Aus den Potenzreihen entnimmt man, dass sinh streng monoton wachsend in IR ist

und cosh in (−∞, 0] streng monoton fallt und in [0,∞) streng monoton wachst.

Ferner folgt aus den Eigenschaften der Exponentialfunktion limx→−∞

sinh x = −∞,

limx→∞ sinh x = ∞, lim

x→±∞cosh x = ∞. Daher gibt es Umkehrfunktionen

Arsinh : IR → IR

(Area Sinus hyperbolicus) von sinh und

Arcosh : [1,∞) → [0,∞)

124 KAPITEL 12. ELEMENTARE FUNKTIONEN

(Area Kosinus hyperbolicus) und

Arcosh : [1,∞) → (−∞, 0]

von cosh (Diese beiden Zweige unterscheiden sich nur im Vorzeichen).

Die Umkehrfunktionen der Hyperbelfunktionen kann man durch die Logarithmus-

funktion ausdrucken. Zur Bestimmung von Arsinh y haben wir die Gleichung y =

sinh x = 12(ex − e−x) nach x aufzulosen. Durch Multiplikation mit ex erhalt man die

in ex quadratische Gleichung

e2x − 2exy − 1 = 0

mit den Losungen

ex = y ±√

y2 + 1.

Im Falle”−“ wird die rechte Seite negativ, wahrend ex > 0 gilt. Daher muss

ex = y +√

y2 + 1

gelten, und es folgt

x = ln(y +√

y2 + 1) = Arsinh y.

Genauso erhalt man die beiden Zweige

Arcosh y = ± ln(y +√

y2 − 1), y ≥ 1,

der Umkehrfunktion von cosh.

Zwischen den Hyperbelfunktionen und den trigonometrischen Funktionen besteht

der folgende Zusammenhang fur alle z ∈ C:

cosh(iz) = 12(eiz + e−iz) = cos z,

sinh(iz) = 12(eiz − e−iz) = i sin z,

und daher fur x + iy ∈ C, x, y ∈ IR,

sin(x + iy) = sin x cos(iy) + cos x sin(iy)

= sin x cosh y + i cos x sinh y

(wegen sin(iy) = −i sinh(i2y) = i sinh y, cos(iy) = cosh(−y) = cosh y),

cos(x + iy) = cos x cos(iy) − sin x sin(iy)

= cos x cosh y − i sin x sinh y.

12.6. HYPERBELFUNKTIONEN 125

−5 −4 −3 −2 −1 0 1 2 3 4 5

−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1tanh

x

Abbildung 12.10: f(x) = tanhx

Diese beiden Gleichungen zeigen, dass sin und cos nur reelle Nullstellen haben, denn

ist z.B. z = x + iy, y 6= 0, eine Nullstelle der Sinusfunktion, so folgt aus cosh y > 0,

sinh y 6= 0 zugleich sin x = 0, cos x = 0, und dies ist wegen cos2 x + sin2 x = 1

unmoglich.

Die Funktion Tangens hyperbolicus (siehe Abbildung 12.10) ist definiert durch

tanh : C \ {2n − 1

2iπ : n ∈ ZZ} → C, tanh z :=

sinh z

cosh z

(wegen cosh z = cos(iz) besitzt cosh genau die Nullstellen2n − 1

2iπ, n ∈ ZZ).

Wir betrachten die Funktion tanh nur auf IR. Wegen tanhx =1 − e−2x

1 + e−2xund 0 <

e−t < 1 fur t > 0 gilt 0 ≤ tanh x < 1 fur x ≥ 0 und limx→∞

tanh x = 1.

Da tanh ungerade ist, gilt −1 < tanh x ≤ 0 fur x ≤ 0 und limx→−∞

tanh x = −1.

Schließlich werden wir noch sehen, dass tanh streng monoton wachsend in IR ist.

Daher existiert die Umkehrfunktion Artanh : (−1, 1) → IR (Area Tangens hy-

perbolicus).

Auch Artanh kann man wieder durch den naturlichen Logarithmus ausdrucken. Lost

man

y = tanh x =ex − e−x

ex + e−x

nach x auf, so erhalt man

x =1

2ln

(1 + y

1 − y

)

= Artanh y, |y| < 1.

Kapitel 13

Differenzierbare reelle Funktionen

13.1 Motivation und Definition

Zum Begriff der Ableitung einer Funktion gibt es mindestens drei Zugange:

Physikalischer Zugang: Ein Punkt bewege sich auf der Zahlengerade. Jeder Zeit

t ∈ IR werde der Ort s(t) ∈ IR zugeordnet. Fur zwei verschiedene Zeiten τ, t heißt

dann

v(τ, t) :=s(τ) − s(t)

τ − t

die mittlere Geschwindigkeit. Existiert zur Zeit t der Limes v(t) := limτ→t

v(τ, t), so

ordnen wir dem Zeitpunkt t die momentane Geschwindigkeit v(t) zu, die dann Ab-

leitung von s bei t heißt.

Andert sich die Bewegung nicht zu schnell, so kann die Ortsanderung ∆s fur kleine

Zeitanderungen ∆t durch den linearen Zusammenhang ∆s ≈ ∆t · v(t) gut voraus-

gesagt werden. Die Funktion s(t), welche die Zeitabhangigkeit des Ortes beschreibt,

wird dabei selbst in der Nahe eines Zeitpunktes t0 durch die affin lineare Funktion

ℓ(t) := s(t0) + v(t0)(t − t0) ersetzt.

Analytisch-numerischer Zugang (siehe Abbildung 13.1): Gegeben sei f : IR ⊃I → IR. Bei diesem Zugang geht es direkt um eine in der Nahe von x0 ∈ I

”moglichst

gute“ Approximation der Funktion durch eine affin lineare Funktion g(x) = c1+c2x.

Zunachst wahlt man sicher die ci so, dass f(x0) = g(x0) gilt. Dies ist genau fur die

Geraden der Gestalt g(x) = a · (x − x0) + f(x0) der Fall.

13.1. MOTIVATION UND DEFINITION 127

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6−1

−0.5

0

0.5

1

1.5

2

2.5

3

xx0

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6−1

−0.5

0

0.5

1

1.5

2

2.5

3

xx0

Abbildung 13.1: Tangente an f in x0; Sekanten von f durch (x0, f(x0))

Zur Bestimmung von a fordert man, dass der Fehler f(x)−g(x) fur x → x0 schneller

gegen 0 geht als (x−x0). (Man laßt im Fehler gewissermaßen keinen linearen Anteil

zuruck.) Ist eine solche Approximation moglich, so ist a die Ableitung von f bei x0.

Geometrischer Zugang: Man fragt nach einer Tangente an den Graphen einer

Funktion f : IR ⊃ I → IR im Punkte x0 ∈ I, d.h. nach einer Gerade, die den

Graphen im Punkt (x0, f(x0)) beruhrt, und nennt — wenn eine solche Tangente

(eindeutig) existiert — die Steigung der Gerade die Ableitung der Funktion in x0.

All diese Zugange sind aquivalent. In der Schule werden Sie die Tangente an einen

Graphen sicher als Grenzgerade einer Folge von Sekanten durch die Punkte (x0, f(x0))

und (x, f(x)) beim Grenzubergang x → x0 (siehe Abbildung 13.1, rechts) kennen-

gelernt haben, was die Verwandtschaft des geometrischen und des physikalischen

Zuganges zeigt, und die Forderung der”moglichst guten Approximation bei x0“

aus der analytisch-numerischen Definition stellt nur eine andere Formulierung des

Beruhrens der Graphen dar.

Wir wahlen im folgenden fur unsere Definition der Differenzierbarkeit einer Funk-

tion den analytisch-numerischen Zugang, da er spater auf allgemeinere Funktionen

einfach ubertragen werden kann. Wir werden aber in Satz 13.10. zeigen, daß die

Definition uber Grenzwerte von Differenzenquotienten (aus dem physikalischen und

dem geometrischen Zugang) im Falle reellwertiger Funktionen eines reellen Argu-

ments zur gewahlten Definition aquivalent ist.

128 KAPITEL 13. DIFFERENZIERBARE REELLE FUNKTIONEN

Definition 13.1. Sei I ⊂ IR ein offenes Intervall.

f : I → IR heißt differenzierbar in x0 ∈ I, wenn es ein a ∈ IR gibt mit

(i) f(x) = f(x0) + a · (x − x0) + r(x, x0),

(ii) limx→x0

r(x, x0)

x − x0

= 0.

a heißt Ableitung oder Differentialquotient von f in x0 und wird mit

a = f ′(x0) =df

dx(x0)

bezeichnet.

Die affin lineare, approximierende Funktion

ℓ : IR → IR, ℓ(x) := f(x0) + f ′(x0)(x − x0) (13.1)

heißt Linearisierung von f in x0.

Die durch (x, ℓ(x)) gegebene Gerade heißt Tangente an den Graphen von f in x0.

Bemerkung 13.2. In der Literatur wird die affin lineare Funktion ℓ aus (13.1)

haufig verkurzt linear genannt, obwohl ℓ : IR → IR keine lineare Abbildung im

Sinne von Kapitel 4 definiert. Wir werden uns dieser Sprachregelung anschließen. 2

Bemerkung 13.3. Es sei an dieser Stelle deutlich darauf hingewiesen, daß wir die

Differenzierbarkeit der Funktion f nur in einem inneren Punkt des Definitions-

bereiches der Funktion definieren, d.h. einem Punkt, der in einem offenen Intervall

liegt, das ganz im Definitionsbereich enthalten ist.

Wenn wir daher unten voraussetzen, daß eine Funktion in einem Punkt x0 differen-

zierbar sei, so bedeutet dies automatisch, daß die Funktion in einem offenen Intervall

erklart ist, welches den Punkt x0 umgibt. Eine solche Menge heißt in der Mathematik

auch Umgebung des Punktes x0. 2

Beispiel 13.4. Sei f : IR → IR, f(x) := mx + b, und sei x0 ∈ IR beliebig. Dann

ist f differenzierbar in x0 mit der Ableitung f ′(x0) = m. Da namlich

f(x) = mx + b = mx0 + b + m(x − x0) + 0 = f(x0) + m(x − x0) + r(x, x0)

ist, ist mit r(x, x0) ≡ 0 sicher limx→x0 r(x, x0)/(x − x0) = 0.

Nach dem numerisch-analytischen Zugang ist das klar: Die beste Approximation ei-

ner linearen Funktion aus der Menge der linearen Funktionen ist wohl unubertreffbar

sie selbst. 2

13.1. MOTIVATION UND DEFINITION 129

Beispiel 13.5. Sei g(x) = x2 und x0 ∈ IR beliebig. Dann gilt

g(x) = x2 = x20 + 2x0(x − x0) + (x − x0)

2 =: g(x0) + a (x − x0) + r(x, x0),

und wegen

limx→x0

r(x, x0)

x − x0

= limx→x0

(x − x0) = 0

ist g differenzierbar in x0 mit der Ableitung g′(x0) = 2x0. 2

Beispiel 13.6. Betrachte h(x) = |x| in x0 = 0. Aus dem Ansatz

h(x) = h(x0) + a (x − x0) + r(x, x0)

mit unbekanntem a erhalt man

r(x, x0)

x − x0

=1

x

(

h(x) − h(x0) − a (x − x0))

=1

x(|x| − ax) =

−1 − a fur x < 0,

1 − a fur x > 0.

Danach existiert limx→x0

r(x, x0)

x − x0

fur kein a ∈ IR, und h ist somit nicht differenzierbar

in x0 = 0.

h ist sehr wohl differenzierbar in jedem Punkt x0 6= 0. Ist z.B. x0 > 0, so gibt es

stets ein offenes Intervall (a, b), welches x0 enthalt und ganz aus positiven Werten

besteht. Auf diesem Intervall ist h(x) = x, so daß nach Beispiel 13.4. dort h′(x0) = 1

ist. Analog ist h in allen x0 < 0 differenzierbar mit h′(x0) = −1. 2

Beispiel 13.7. Es sei k(x) :=√

|x|. Dann gilt fur x0 > 0 und x > 0

√x =

√x0 +

1

2√

x0

(x − x0) +(√

x −√x0 −

1

2√

x0

(x − x0))

=√

x0 +1

2√

x0

(x − x0) +1

2√

x0

(

2√

x√

x0 − 2x0 − x + x0

)

=√

x0 +1

2√

x0

(x − x0) −1

2√

x0

(√x −√

x0

)2

=:√

x0 +1

2√

x0

(x − x0) + r(x, x0)

und

limx→x0

r(x, x0)

x − x0

= − 1

2√

x0

limx→x0

(√

x −√x0)

2

(√

x −√x0)(

√x +

√x0)

= − 1

2√

x0

√x −√

x0√x +

√x0

= 0.

130 KAPITEL 13. DIFFERENZIERBARE REELLE FUNKTIONEN

k ist also fur alle x0 > 0 differenzierbar in x0 mit der Ableitung

k′(x0) =1

2√

x0

.

Genauso zeigt man, dass k fur alle x0 < 0 differenzierbar ist und dass

k′(x0) = − 1√

|x0|

gilt. In x0 = 0 ist k nicht differenzierbar, denn sonst wurde ein a ∈ IR existieren mit

limx→0

k(x) − k(0) − a · xx

= limx→0

(

|x|x

− a)

= 0.

Dies ist aber fur kein a ∈ IR erfullbar.

Die Kenntnis der Ableitung von k kann man nutzen, um z.B.√

401 naherungsweise

zu berechnen. Es ist bekannt, dass√

400 = 20 gilt, und daher liefert die Linearisie-

rung der Wurzelfunktion in x0 = 20

√401 ≈

√400 +

1

2√

400(401 − 400) = 20.025.

Tatsachlich gilt√

401 = 20.024984 . . .. 2

Definition 13.8. Ist eine in dem Intervall I := (a, b) definierte Funktion in allen

Punkten x0 ∈ I differenzierbar, so heißt f differenzierbar in I.

Ist f in I differenzierbar, so definiert die Zuordnung x0 7→ f ′(x0) eine reellwertige

Funktion auf I. Diese wird mit f ′ bezeichnet und heißt die Ableitung von f in I.

Ist die Funktion f ′ eine in x0 ∈ I stetige Funktion, so heißt f in x0 stetig diffe-

renzierbar. Die Menge der in I stetig differenzierbaren Funktionen bezeichnet man

mit C1(a, b).

Der spater wichtige Raum C1[a, b] (nun mit abgeschlossenen Intervall), ist der Raum

der auf [a, b] stetigen und in (a, b) differenzierbaren Funktionen f , deren Ableitung

f ′ : (a, b) → IR in (a, b) stetig ist und in die Randpunkte a und b stetig fortgesetzt

werden kann.

Den Raum der auf einem Intervall I (offen oder abgeschlossen) stetigen Funktionen

bezeichnet man mit C(I).

In allen hier gegebenen Definitionen ist es sinnvoll, auch verallgemeinerte Intervalle

(z.B. (a,∞), (−∞, b] oder IR) fur I zuzulassen.

13.1. MOTIVATION UND DEFINITION 131

Beispiel 13.9. Fur die Abbildungen f(x) := mx+b aus Beispiel 13.4. und g(x) :=

x2 aus Beispiel 13.5. gilt offenbar f ∈ C1(IR) und g ∈ C1(IR), und die Ableitungen

sind f ′(x) ≡ m und g′(x) = 2x.

Fur die Abbildung h(x) := |x| aus Beispiel 13.6. gilt h 6∈ C1(IR), da h nicht in

x0 = 0 differenzierbar ist. Es sind jedoch die Restriktionen von h auf die Intervalle

(−∞, 0) und (0,∞) stetig differenzierbar. Wir schreiben dafur h ∈ C1(−∞, 0) und

h ∈ C1(0,∞). Fur die Ableitung gilt

h′(x) =

−1 fur x < 0

1 fur x > 0.

Da h′ : (−∞, 0) → IR, h′(x) = −1 offenbar stetig auf x0 = 0 durch h′(0) = −1 stetig

fortgesetzt werden kann, gilt sogar h ∈ C1(−∞, 0]. Genauso gilt auch h ∈ C1[0,∞).

Man beachte aber, dass man hieraus nicht f ∈ C1((−∞, 0] ∪ [0,∞)) = C1(IR)

schließen kann.

Die Funktion k aus Beispiel 13.7. ist in (−∞, 0) und in (0,∞) stetig differenzierbar.

Es gilt aber k 6∈ C1(−∞, 0] und k 6∈ C1[0,∞), denn die Grenzwerte

limx→0−0

k′(x) = limx→0−0

1

2√−x

und limx→0+0

k′(x) = limx→0+0

1

2√

x

existieren nicht. 2

Satz 13.10. (i) f ist genau dann differenzierbar in x0, wenn

limx→x0

f(x) − f(x0)

x − x0

existiert. Es gilt dann

f ′(x0) = limx→x0

f(x) − f(x0)

x − x0

. (13.2)

(ii) Ist f differenzierbar in x0, so ist f stetig in x0.

(iii) Ist f differenzierbar in x0, so ist die Ableitung f ′(x0) eindeutig bestimmt.

Beweis: (i): f ist genau dann in x0 differenzierbar, wenn a ∈ IR existiert, so daß

fur r(x, x0) aus

f(x) = f(x0) + a(x − x0) + r(x, x0) (13.3)

folgt limx→x0

r(x, x0)/(x − x0) = 0. Indem wir (13.3) nach r(x, x0) auflosen

r(x, x0) = f(x) − f(x0) − a(x − x0)

132 KAPITEL 13. DIFFERENZIERBARE REELLE FUNKTIONEN

und durch (x− x0) teilen, sehen wir, daß f genau dann differenzierbar ist, wenn ein

a ∈ IR existiert mit limx→x0

(f(x) − f(x0)

x − x0

− a)

= 0. Letzteres ist genau dann der Fall,

wenn der Grenzwert in (13.2) existiert und gleich a ist.

(iii): Die Aussage folgt aus den Rechenregeln fur Grenzwerte.

(ii): Es ist

limx→x0

(f(x)−f(x0)) = limx→x0

(x−x0)f(x) − f(x0)

x − x0

= limx→x0

(x−x0) f ′(x0) = 0.

Bemerkung 13.11. Beispiel 13.6. zeigt, dass die Umkehrung von Satz 13.10. (ii)

nicht gilt. Die Funktion f(x) = |x| ist in x0 = 0 stetig, aber nicht differenzierbar. 2

Wir haben die Ableitung einer Funktion f in einem Punkt x0 dadurch motiviert,

dass wir f in einer Umgebung von x0 linearisieren wollten. Naturlich macht es auch

Sinn, eine auf einem abgeschlossenen Intervall [a, b] definierte Funktion in der Nahe

des Randpunktes linearisieren zu wollen, d.h. durch eine lineare Funktion zu ap-

proximieren. In diesem Fall hat man aber auf die Richtung zu achten, in der die

Approximation gelten soll.

Fur die Differentiation in einem Intervallrandpunkt wahlt man zur Definition die

sogenannte einseitige Ableitung, die auch in inneren Punkten des Definitionsbe-

reichs Sinn macht.

Definition 13.12. Die Funktion f : [c, d] → IR besitze in x0 ∈ (c, d] einen links-

seitigen Grenzwert f(x0−0) = limx→x0−0

f(x). f heißt linksseitig differenzierbar in

x0, falls

f(x) = f(x0 − 0) + a (x − x0) + r(x, x0), limx→x0−0

r(x, x0)

x − x0

= 0. (13.4)

f ′−(x0) := a heißt dann linksseitige Ableitung von f in x0.

Entsprechend heißt f rechtsseitig differenzierbar in x0 ∈ [c, d), wenn f einen

rechtsseitigen Grenzwert f(x0 + 0) besitzt und

f(x) = f(x0 + 0) + a (x − x0) + r(x, x0), limx→x0+0

r(x, x0)

x − x0

= 0. (13.5)

f ′+(x0) := a heißt dann rechtsseitige Ableitung von f in x0.

Die linearen Anteile der rechten Seiten der ableitungsdefinierenden Gleichungen

(13.4) bzw. (13.5) nennt man links- bzw. rechtsseitige Linearisierung der Funkti-

on.

13.1. MOTIVATION UND DEFINITION 133

Bemerkung 13.13. Entsprechend Satz 13.10. (i) ist f in x0 genau dann linksseitig

bzw. rechtsseitig differenzierbar, wenn der einseitige Grenzwert des Differenzenqou-

tienten

limx→x0−0

f(x) − f(x0 − 0)

x − x0

bzw. limx→x0+0

f(x) − f(x0 + 0)

x − x0

existiert. Es gilt dann entsprechend (13.2)

f ′−(x0) = lim

x→x0−0

f(x) − f(x0 − 0)

x − x0

bzw. f ′+(x0) = lim

x→x0+0

f(x) − f(x0 + 0)

x − x0

2

Bemerkung 13.14. Die Definition der einseitigen Ableitungen in x0 ist unabhan-

gig vom Wert f(x0). Sie gibt an, mit welcher Steigung die Funktion sich ihrem

einseitigen Grenzwert von der jeweiligen Seite nahert.

Wenn f(x) nahe c in [c, d) (inklusive c) durch die Linearisierung f(c+0)+f ′+(c)(x−c)

ersetzt werden soll, ist diese bei c selbst sicher nur dann eine gute Approximation,

wenn f in c stetig ist, so daß dann f(c+0) = f(c) ware. Man nennt in diesem Fall die

rechtsseitige Ableitung f ′+(c) im Randpunkt c auch etwas unsauber die Ableitung

von f im Randpunkt c. 2

Beispiel 13.15. Die Funktion h aus Beispiel 13.6. ist nicht in x0 = 0 differenzier-

bar. Sie ist aber offenbar linksseitig differenzierbar in x0 = 0 mit h′−(0) = −1 und

rechtsseitig differenzierbar in x0 = 0 mit h′+(0) = 1. 2

Beispiel 13.16. Die Funktion

f(x) :=

1 , x ≥ 0

0 , x < 0

ist nicht differenzierbar in x0 = 0, da sie in x0 nicht einmal stetig ist.

f ist linksseitig differenzierbar in x0 mit f ′−(0) = 0, denn es existiert limx→0−0 f(x) =

0 und

limx→0−0

f(x) − f(0 − 0) − 0 · xx − 0

= 0.

Beachten Sie, daß f nicht linksseitig stetig in x0 = 0 ist.

Im Gegensatz dazu ist f rechtsseitig stetig. Die Tatsache, daß f auch rechtsseitig

differenzierbar in x0 = 0 ist mit f ′+(0) = 0, hangt allerdings nicht von der rechts-

seitigen Stetigkeit ab. Ware f(0) nicht durch den Wert 1, sondern etwa den Wert

f(0) = 19.98 definiert, so ware f in Null weder links- noch rechtsseitig stetig, aber

immer noch links- und rechtsseitig differenzierbar. Die linksseitigen und die rechts-

seitigen Linearisierungen von f stimmen ubrigens links bzw. rechts von x0 = 0 mit

der Funktion uberein. 2

134 KAPITEL 13. DIFFERENZIERBARE REELLE FUNKTIONEN

Satz 13.17. f ist genau dann differenzierbar in x0, wenn f stetig in x0 ist, links-

seitig und rechtsseitig differenzierbar in x0 ist und wenn f ′−(x0) = f ′

+(x0) gilt.

Beweis: Ist f differenzierbar in x0, so ist f nach Satz 13.10. stetig in x0. Zudem

erfullt die Linearisierung f(x0) + f ′(x0)(x− x0) sowohl die Bedingung (13.4) fur die

linksseitige Linearisierung f(x0 − 0) + f ′−(x0)(x− x0) als auch die Bedingung (13.5)

fur die rechtsseitige Linearisierung f(x0 + 0) + f ′+(x0)(x − x0).

Ist umgekehrt f stetig in x0, dort links- und rechtsseitig differenzierbar und stimmen

die einseitigen Ableitungen uberein, so stimmen wegen f(x0 + 0) = f(x0 − 0) =

f(x0) und f ′−(x0) = f ′

+(x0) die links- und rechtseitigen Linearisierungen uberein

und erfullen die Bedingungen an die Linearisierung f(x0) + f ′(x0)(x − x0).

In Beispiel 13.6. und Beispiel 13.16. ist die Differenzierbarkeit jeweils in nur einem

Punkt verletzt. Man kann leicht Beispiele angeben, die in endlich vielen Punkten,

oder abzahlbar vielen Punkten nicht differenzierbar sind. Von Weierstraß wurde

ein Beispiel einer Funktion konstruiert, die auf ganz IR stetig ist, aber nirgends

differenzierbar.

Beispiel 13.18. Ist 0 < α < 1 und ist b ∈ IN eine gerade Zahl mit αb > 1 + 32π,

so ist die Funktion

f : IR → IR, f(x) :=∞∑

n=1

αn sin(bnπx) (13.6)

stetig auf IR, aber nirgends differenzierbar.

Fur alle n ∈ IN und alle x ∈ IR gilt

|αn sin(bnπx)| ≤ αn,

und∑∞

n=1 αn konvergiert. Daher konvergiert die Reihe in (13.6) gleichmaßig, und da

alle Glieder stetig in IR sind, ist f stetig in IR.

Dass f in keinem Punkt x ∈ IR differenzierbar ist, findet man in Mangold und

Knopp [12], Band 2, Seite 280 ff.

Abbildung 13.2 und Abbildung 13.3 enthalten die ersten Partialsummen

fn(x) =n∑

j=1

1

2jcos(12jπx)

von f . 2

13.1. MOTIVATION UND DEFINITION 135

−0.05 −0.04 −0.03 −0.02 −0.01 0 0.01 0.02 0.03 0.04 0.05

−0.5

0

0.5

1

n=1

−0.05 −0.04 −0.03 −0.02 −0.01 0 0.01 0.02 0.03 0.04 0.05

−0.5

0

0.5

1

n=2

Abbildung 13.2: Partialsummen fn(x) =n∑

j=1

1

2jcos(12jπx), n = 1, n = 2

−0.05 −0.04 −0.03 −0.02 −0.01 0 0.01 0.02 0.03 0.04 0.05

−0.5

0

0.5

1

n=3

−0.05 −0.04 −0.03 −0.02 −0.01 0 0.01 0.02 0.03 0.04 0.05

−0.5

0

0.5

1

n=4

Abbildung 13.2: Partialsummen fn(x) =n∑

j=1

1

2jcos(12jπx), n = 3, n = 4

136 KAPITEL 13. DIFFERENZIERBARE REELLE FUNKTIONEN

Die in Satz 13.10. (i) bewiesene Charakterisierung der Differenzierbarkeit uber eine

Grenzwertbildung des Differenzenquotienten ist vermutlich in der Schule zur De-

finition herangezogen worden. Der hier gewahlte Zugang zur Ableitung uber die

lokale lineare Approximation von f(x) − f(x0) hat den Vorteil, leicht auf Funk-

tionen ubertragbar zu sein, deren Definitionsbereich und/oder Bildbereich hohere

Dimension haben.

Ist namlich f : D → IRn, D ⊂ IRm und x0 ein innerer Punkt von D (das ist hier

ein Punkt, zu dem eine ganze Kugel um x0 auch noch zu D gehort), so wird — wie

vorher im eindimensionalen Fall f(x) − f(x0) durch a(x − x0) linear approximiert

wurde — jetzt die Funktion f(x)−f(x0) von IRm nach IRn linear approximiert. Wie

aus Mathematik I bekannt, werden die linearen Abbildungen von IRm nach IRn durch

die (n,m)-Matrizen vermittelt. Man zielt daher bei der Definition der Ableitung auf

eine lineare Approximation

f(x) − f(x0) ≈ A(x − x0),

wobei die (1, 1)-Matrix a =: f ′(x0) nun allgemeiner zur Matrix A ∈ IR(n,m) wird.

Vollig analog zur eindimensionale Definition vereinbart man deshalb:

Definition 13.19. f : D → IRn, D ⊂ IRm, ist im inneren Punkt x0 von D

differenzierbar mit der Ableitung f ′(x0) = A ∈ IR(n,m), wenn fur

r(x,x0) := f(x) − f(x0) − A(x − x0)

gilt

limx→x0

‖r(x,x0)‖‖x − x0‖ = 0.

Bemerkung 13.20. Wegen der Aquivalenz der Normen in endlichdimensionalen

Raumen ist diese Definition unabhangig von der Wahl der dabei verwendeten Nor-

men. Wir konnten uns daher in der Definition die Laxheit erlauben, nicht gleich dar-

auf hinzuweisen, daß im Urbildraum (fur die Normierung der x-Differenz ‖x−x0‖)und im Bildraum (fur die Normierung des Approximationsfehlers ‖r(x,x0)‖ =

‖f(x) − f(x0) − A(x − x0)‖) im Falle m 6= n auf jeden Fall verschiedene Nor-

men verwendet werden mussen.

Im Falle m = 1 und n ≥ 1 beliebig konnen wir in der Definition der Differenzierbar-

keit von f : I → IRn, I ⊂ IR, f(x) :=

f1(x)...

fn(x)

in einem inneren Punkt x0 ∈ I, im

13.2. RECHENREGELN 137

Bildraum die Maximum-Norm ‖ · ‖∞ auf IRn verwenden und fur den Urbildraum IR

als Norm einfach den Betrag. Dann ist A =

a1...

an

∈ IR(n,1) genau dann Ableitung

von f im Punkt x0, wenn

limx→x0

1

|x − x0|max

i=1,...,n|fi(x) − fi(x0) − ai (x − x0)| = 0.

Das ist aber genau dann der Fall, wenn jede Komponentenfunktion fi in x0 differen-

zierbar ist mit der Ableitung ai. Die Ableitung von f ist damit also gegeben durch

den Vektor der Ableitungen der Komponentenfunktionen

f ′(x0) =

f ′1(x0)

...f ′

n(x0)

. 2

Wir beschranken uns in diesem Kapitel 13 im weiteren allerdings auf den eindimen-

sionalen Fall n = m = 1.

13.2 Rechenregeln

Genau wie bei der Stetigkeitsanalyse von Funktionen nutzen wir bei der Differentia-

tion aus, daß viele Funktionen mit Hilfe weniger Grundoperationen aus einfacheren

Funktionen erzeugt werden konnen. Unter der Annahme der Kenntnis der Ableitun-

gen der Bausteine kann man dann die Ableitungen zusammengesetzter Funktionen

leicht finden, wenn man Regeln fur das Verhalten der Verbindungsoperationen unter

der Operation der Differentiation kennt.

Um die Herleitung solcher Rechenregeln der Differentiation sowie ihre exemplarische

Anwendung geht es in diesem Unterabschnitt.

Satz 13.21. (Differentiationsregeln)

Sind f , g differenzierbar in x0, so auch f ± g, α · f (fur alle α ∈ IR) und f · g, und

es gilt

(i) (f ± g)′(x0) = f ′(x0) ± g′(x0),

(ii) (αf)′(x0) = α · f ′(x0),

(iii) (f · g)′(x0) = f(x0) · g′(x0) + f ′(x0) · g(x0) (Produktregel).

138 KAPITEL 13. DIFFERENZIERBARE REELLE FUNKTIONEN

Beweis: (i) und (ii) folgen sofort aus den Rechenregeln fur konvergente Folgen.

Die Aussage (iii) folgt so:

(f · g)′(x0) = limx→x0

f(x) · g(x) − f(x0) · g(x0)

x − x0

= limx→x0

f(x) (g(x) − g(x0)) + g(x0) (f(x) − f(x0))

x − x0

= limx→x0

f(x) · limx→x0

g(x) − g(x0)

x − x0

+ g(x0) · limx→x0

f(x) − f(x0)

x − x0

= f(x0) · g′(x0) + g(x0) · f ′(x0).

Bemerkung 13.22. (und Definition) An Stelle der Schreibweise f ′(x) benutzt

man auch die Schreibweised

dxf(x). Diese ist z.B. dann oft bequemer und deutlicher,

wenn man zeigen will, daß ein langerer Ausdruck differenziert werden soll oder wenn

z.B. eine durch eine algebraische Formel gegebenen Funktion direkt differenziert

werden soll. So schreibt man z.B. besser

d

dx

(

5x3 + 3x2 − x + 21)

statt(

5x3 + 3x2 − x + 21)′

.

Fur die durch Ableitung aus f entstehende Funktion schreibt mand

dxf oder auch

df

dx. Fur f ′(x0) schreibt man

df

dx(x0). 2

Bemerkung 13.23. An der Formdf

dxfur die Ableitung

d

dxf = f ′ kann man noch

die Entstehung der Schreibweise erkennen. Bezeichnet man mit ∆x := x − x0 ei-

ne Argumentdifferenz und mit ∆f := f(x) − f(x0) die zugehorige Differenz der

Funktionswerte, so ist die Ableitung

df

dx(x0) = lim

x→x0

∆f

∆x.

der Grenzwert der Differenzenquotienten ∆f/∆x bei x → x0. Unter df und dx stellte

man sich bei der Entwicklung der Infinitesimalrechnung im siebzehnten Jahrhundert

”die unendlich (infinitesimal) kleinen Achsenabschnitte“ vor (die man Differentiale

nannte), gegen die ∆f bzw. ∆x sich bei x → x0 bewegten und deren”Differential-

quotient“df

dxdie Ableitung war.

Es sei vorsichtshalber gesagt, daß man bei der Verwendung dieser Vorstellung der

Quotientenbildung von”beliebig kleinen Großen“ auch beliebig viele und und belie-

big große Fehler machen kann. Zwar gibt es inzwischen eine mathematische Theorie

13.2. RECHENREGELN 139

der Differentiale, in der dieser Differential-Kalkul sauber durchfuhrbar ist, doch ist

diese Theorie nicht einfach, und es sind die Differentiale dabei etwas ganz anderes

als”infinitesimal kleine Großen“. Ohne eine genaue Kenntnis dieser Theorie sollte

man es deshalb unterlassen, mit Differentialen zu rechnen und lieber sicher mit der

Definition der Ableitung arbeiten. 2

Bemerkung 13.24. Die Schreibweised

dxfur die Operation der Ableitung hat

einen weiteren Vorteil. Mit ihr wird der Tatsache Rechnung getragen, daß das Ablei-

ten einer (uberall) differenzierbaren Funktion eine Abbildung von einem Funktionen-

raum in den Raum der abgeleiteten Funktionen darstellt. Fur Abbildungen, welche

Funktionen auf Funktionen abbilden, benutzt man ubrigens gern die Bezeichnung

Operator.

Die Teile (i) und (ii) von Satz 13.21. sagen in dieser Sichtweise, daß der Ableitungs-

operatord

dxein linearer Operator ist (vgl. hierzu auch Mathematik I), da

d

dx(αf + βg) = α

d

dxf + β

d

dxg

fur alle differenzierbaren Funktionen und alle reellen Zahlen α und β ist.

Beachten Sie in diesem Zusammenhang, daß

d

dx: C1(a, b) −→ C(a, b)

undd

dx: C1[a, b] −→ C[a, b]

gelten. 2

Satz 13.25. Jedes Polynom p(x) =n∑

j=0ajx

j ist differenzierbar in IR, und es ist

p′(x) =n∑

j=1

j aj xj−1,

so daßd

dx: Πn −→ Πn−1

fur n ≥ 0, wenn man unter Π−1 den”nulldimensionalen Raum“ {0} versteht.

Beweis: Wegen (i) und (ii) aus Satz 13.21. haben wir nur zu zeigen, dass jedes

Monom xn differenzierbar ist mitd

dx(xn) = nxn−1.

140 KAPITEL 13. DIFFERENZIERBARE REELLE FUNKTIONEN

Fur n = 0, 1 ist dies nach Beispiel 13.4. richtig, und aus der Richtigkeit fur ein

n ∈ IN folgt nach Satz 13.21.(iii)

d

dx(xn+1) =

d

dx(x · xn) = x · d

dx(xn) +

d

dx(x) · xn

= x · n · xn−1 + xn = (n + 1) xn.

Beispiel 13.26. Fur das durch p(x) = x5 + x3 − 3x2 + 4x − 5 definierte Polynom

gilt

p′(x) = 5x4 + 3x2 − 6x + 4. 2

Satz 13.27. (Quotientenregel)

Sind f und g differenzierbar in x0 und ist g(x0) 6= 0, so istf

gin x0 differenzierbar

und es gilt(

f

g

)′(x0) =

g(x0) · f ′(x0) − g′(x0) · f(x0)

(g(x0))2.

Beweis: Es gilt

(1

g

)′(x0) = lim

x→x0

1g(x)

− 1g(x0)

x − x0

= limx→x0

−g(x)−g(x0)x−x0

g(x) · g(x0)=

−g′(x0)

(g(x0))2,

und daher folgt aus der Produktregel

(f

g

)′(x0) = (f · 1

g)′(x0) = f(x0) ·

(1

g

)′(x0) + f ′(x0) ·

(1

g

)

(x0)

= f(x0)−g′(x0)

g2(x0)+

f ′(x0)

g(x0)=

g(x0) · f ′(x0) − g′(x0) · f(x0)

g2(x0)

Aus Satz 13.27. folgt insbesondere, dass jede rationale Funktion in allen Punkten

differenzierbar ist, in denen sie definiert ist (der Nenner von Null verschieden ist).

Beispiel 13.28. Die rationale Funktion f(x) =x2 + 1

x2 − 1ist fur alle x ∈ IR \ {1,−1}

differenzierbar und es gilt dort

f ′(x) =2x(x2 − 1) − 2x(x2 + 1)

(x2 − 1)2=

−4x

(x2 − 1)2. 2

13.2. RECHENREGELN 141

Die Differenzierbarkeit der in Kapitel 12 durch Potenzreihen eingefuhrten elemen-

taren Funktionen ergibt sich aus dem folgenden Satz.

Satz 13.29. (Differentiation von Potenzreihen)

Die Potenzreihe f(x) =∞∑

n=0anx

n habe den Konvergenzradius r > 0. Dann ist f in

(−r, r) differenzierbar, und die Ableitung erhalt man durch gliedweises Differenzie-

ren:

f ′(x) =∞∑

n=1

n anxn−1.

Die abgeleitete Reihe hat wieder den Konvergenzradius r.

Bemerkung 13.30. Die gliedweise Differentiation lasst sich nicht auf beliebige

Reihen von Funktionen (auch nicht auf gleichmaßig konvergente Reihen) ubertragen.

Die Reihe∞∑

n=1

sin nx

n2

ist nach Satz 12.19. gleichmaßig konvergent. Die gliedweise differenzierte Reihe

∞∑

n=1

cos nx

n

konvergiert jedoch nicht fur alle x. Wir kommen auf das gliedweise Differenzieren

von Reihen in Kapitel 17 zuruck. 2

Beweis: (von Satz 13.29.)

Wir zeigen zunachst, dass die Konvergenzradien der angegebenen Reihen uberein-

stimmen. Sei z ∈ C mit |z| < r. Wir wahlen ζ ∈ C mit |z| < |ζ| < r. Wegen der

Konvergenz der Reihe∞∑

n=0anζ

n gibt es ein M ≥ 0 mit |anζn| ≤ M fur alle n ∈ IN.

Daher folgt

|n anzn−1| =|anζ

n||z| n

∣∣∣z

ζ

∣∣∣

n ≤ M

|z| · n ·∣∣∣z

ζ

∣∣∣

n.

Wegen∣∣∣z

ζ

∣∣∣ < 1 konvergiert die Reihe

∞∑

n=1

M

|z| · n ·∣∣∣z

ζ

∣∣∣

nnach dem Quotientenkrite-

rium, und nach dem Majorantenkriterium konvergiert die Reihe∞∑

n=1n anzn−1. Der

Konvergenzradius r′ dieser Reihe ist also nicht kleiner als r.

Ist umgekehrt |z| < r′, so folgt aus |anzn| ≤ |z| · |n anzn−1| und dem Majoranten-

kriterium die Konvergenz von∞∑

n=0anz

n, d.h. r′ ≤ r, zusammen mit dem ersten Teil

also r = r′.

142 KAPITEL 13. DIFFERENZIERBARE REELLE FUNKTIONEN

Es seien x, x0 ∈ (−ρ, ρ) mit ρ < r. Dann gilt

xn − xn0 = (x − x0)

n−1∑

j=0

xj0x

n−1−j

= nxn−10 (x − x0) + (x − x0)

n−1∑

j=1

(xn−jxj−10 − xn−1

0 )

= nxn−10 (x − x0) + (x − x0)

2n−1∑

j=1

xj−10

n−j−1∑

k=0

xn−j−1−kxk0

=: nxn−10 (x − x0) + (x − x0)

2sn(x, x0).

Indem man jedes x0 und jedes x in sn(x, x0) betragsmaßig einfach durch ρ abschatzt

und berucksichtigt, daß es sich genau um 12n(n − 1) Summanden handelt, fin-

det man |sn(x, x0)| ≤ 12n(n − 1) ρn−2. Wie im ersten Teil zeigt man nun, daß

∞∑

n=2n(n − 1) anρn−2 konvergiert. Daraus ergibt sich, daß die Reihe

∞∑

n=2ansn(x, x0)

absolut konvergiert, und man hat

f(x) = f(x0) + (x − x0)∞∑

n=1

n anxn−10 + (x − x0)

2∞∑

n=2

ansn(x, x0).

Dies bedeutet aber gerade, dass f ′(x0) =∞∑

n=1n anx

n−10 ist.

Beispiel 13.31. Die Exponentialfunktion f(x) := ex ist differenzierbar in IR und

es ist

d

dxex =

d

dx

( ∞∑

n=0

xn

n!

)

=∞∑

n=1

n1

n!xn−1 =

∞∑

n=0

xn

n!= ex. 2

Beispiel 13.32. Die trigonometrischen Funktionen x 7→ sin x und x 7→ cos x sind

differenzierbar in IR, und es gelten

d

dxsin x =

d

dx

( ∞∑

n=0

(−1)n x2n+1

(2n + 1)!

)

=∞∑

n=0

(−1)n x2n

(2n)!= cos x,

d

dxcos x =

d

dx

( ∞∑

n=0

(−1)n x2n

(2n)!

)

=∞∑

n=1

(−1)n x2n−1

(2n − 1)!

= −∞∑

n=0

(−1)n x2n+1

(2n + 1)!= − sin x. 2

Beispiel 13.33. x 7→ tan x ist differenzierbar in IR \ {2n−12

π : n ∈ ZZ} mit

d

dxtan x =

d

dx

( sin x

cos x

)

=cos x · d

dxsin x − sin x · d

dxcos x

cos2 x

=cos2 x + sin2 x

cos2 x=

1

cos2 x. 2

13.2. RECHENREGELN 143

Beispiel 13.34. Die Hyperbelfunktionen x 7→ sinh x, x 7→ cosh x und x 7→ tanh x

sind differenzierbar in IR, und man hat die Regeln

d

dxsinh x =

d

dx

( ∞∑

n=0

x2n+1

(2n + 1)!

)

=∞∑

n=0

x2n

(2n)!= cosh x,

d

dxcosh x =

d

dx

( ∞∑

n=0

x2n

(2n)!

)

=∞∑

n=1

x2n−1

(2n − 1)!= sinh x,

d

dxtanh x =

d

dx

( sinh x

cosh x

)

=cosh2 x − sinh2 x

cosh2 x=

1

cosh2 x. 2

Wir haben nun die Ableitungen der meisten der in Kapitel 12 vorgestellten Funk-

tionen bestimmt. Die restlichen Abbildungen waren als Umkehrfunktionen definiert.

Diese behandeln wir mit Hilfe des nun folgenden Satzes.

Satz 13.35. (Differentiation der inversen Funktion)

Ist f streng monoton in I, differenzierbar in x0 ∈ I und f ′(x0) 6= 0, so ist f−1

differenzierbar in y0 := f(x0), und es gilt

d

dy(f−1)(y0) =

1ddx

f(x0).

Beweis: Nach Satz 11.26. ist die inverse Funktion f−1 stetig und streng monoton.

Daher gilt fur jede Folge {yn} ⊂ f(I) mit yn → y0, yn 6= y0, mit xn := f−1(yn) auch

xn 6= x0, xn → x0. Hiermit folgt

limn→∞

f−1(yn) − f−1(y0)

yn − y0

= limn→∞

xn − x0

f(xn) − f(x0)= lim

n→∞1

f(xn)−f(x0)xn−x0

=1

f ′(x0).

Beispiel 13.36. f(y) := ln y ist differenzierbar in IR+, und nach Satz 13.35. gilt

mit x = ln y

d

dyln y =

1ddx

ex=

1

ex=

1

eln y=

1

y. 2

Beispiel 13.37. f(y) := arcsinn y ist differenzierbar in (−1, 1), und mit x =

arcsinn y gilt

d

dyarcsinn y =

1ddx

sin x=

1

cos(arcsinn y)= ± 1

1 − sin2(arcsinn y)= ± 1√

1 − y2,

wobei das richtige Vorzeichen noch bestimmt werden muss.

144 KAPITEL 13. DIFFERENZIERBARE REELLE FUNKTIONEN

Nach Definition liegen die Werte von arcsinn y in [(n − 12)π, (n + 1

2)π]. Dort hat cos

das Vorzeichen (−1)n, und daher gilt

d

dyarcsinn y =

(−1)n

√1 − y2

. 2

Beispiel 13.38. f(y) := arctann y ist differenzierbar in IR mit

d

dyarctann y =

1ddx

tan x=

1

1/ cos2 x= cos2 x

=1

1 + tan2 x=

1

1 + tan2(arctann y)=

1

1 + y2. 2

Beispiel 13.39. Entsprechend dem Vorgehen in Beispiel 13.37. und Beispiel 13.38.

erhalt man

d

dxArsinh x =

1√x2 + 1

, x ∈ IR,

d

dxArcosh x = ± 1√

x2 − 1, x > 1,

d

dxArtanh x =

1

1 − x2, |x| < 1. 2

Die folgende Regel erleichtert das Differenzieren verketteter Funktionen:

Satz 13.40. (Kettenregel)

Ist f differenzierbar in x0 und g differenzierbar in y0 := f(x0), so ist h := g ◦ f

differenzierbar in x0, und es gilt

(g ◦ f)′(x0) = g′(f(x0)) · f ′(x0).

Beweis: Es sei

G(y) :=

g(y) − g(y0)

y − y0

fur y 6= y0,

g′(y0) fur y = y0.

Dann ist G stetig in y0 und g(y) − g(y0) = (y − y0) · G(y) fur alle y, d.h.

g(f(x)) − g(f(x0)) = (f(x) − f(x0)) · G(f(x)).

Daher folgt

limx→x0

g(f(x)) − g(f(x0))

x − x0

= limx→x0

f(x) − f(x0)

x − x0

· limx→x0

G(f(x))

= f ′(x0) · g′(f(x0)).

13.2. RECHENREGELN 145

Beispiel 13.41. h(x) := xa, a ∈ IR fest, ist differenzierbar in IR+, denn sei f(x) =

a · ln x, g(y) = exp(y). Dann gilt

(g ◦ f)(x) = exp(a · ln x) = exp(ln(xa)) = xa,

und nach Satz 13.40.

h′(x) = g′(f(x)) · f ′(x) = exp(a · ln(x)) · a

x= axa−1.

Die fur n ∈ IN nachgewiesene Formel (xn)′ = nxn−1 gilt also fur alle reellen Expo-

nenten. 2

Beispiel 13.42. Auch mehrfach verschachtelte Funktionen kann man leicht diffe-

renzieren, indem man von innen nach außen die Kettenregel mehrfach anwendet.

f(x) = exp(sin(cos(ln x)))

ist differenzierbar in IR+ und

f ′(x) = exp(sin(cos(ln x))) · (sin(cos(ln x)))′

= f(x) · cos(cos(ln x)) · (cos(ln x))′

= −f(x) · cos(cos(ln x)) · sin(ln x) · (ln x)′

= −f(x) · cos(cos(ln x)) · sin(ln x) · 1

x. 2

Eine Funktion des Typs

f(x) =n∏

j=1

fj(x)/ m∏

k=1

gk(x)

mit in x0 differenzierbaren fj, gk und o.B.d.A. fj(x0) > 0, j = 1, . . . , n, und gk(x0) >

0, k = 1, . . . ,m, kann man im Prinzip durch mehrfache Anwendung der Produkt-

und Quotientenregel differenzieren.

Einfacher ist haufig die sogenannte logarithmische Differentiation : Man loga-

rithmiere die f(x) definierende Gleichung und differenziere die entstehende Glei-

chung

ln f(x) =n∑

j=1

ln fj(x) −m∑

k=1

ln gk(x)

unter Beachtung vond

dx(ln h(x)) =

1

h(x)· h′(x). Dann folgt

f ′(x0)

f(x0)=

n∑

j=1

f ′j(x0)

fj(x0)−

n∑

k=1

g′k(x0)

gk(x0),

146 KAPITEL 13. DIFFERENZIERBARE REELLE FUNKTIONEN

woraus sich

f ′(x0) = f(x0)

(n∑

j=1

f ′j(x0)

fj(x0)−

m∑

k=1

g′k(x0)

gk(x0)

)

ergibt.

Beispiel 13.43.

f(x) =e3x

x6 cosh x.

Dann gilt ln f(x) = ln(e3x) − ln(x6) − ln(cosh x), und daher

f ′(x) = f(x)(

3e3x

e3x− 6x5

x6− sinh x

cosh x

)

=e3x

x6 cosh x(3− 6

x−tanh x). 2

Wir haben die Differentiationsregeln fur reelle Funktionen hergeleitet. Da die Ab-

leitungen einer vektorwertigen Funktion (einer reellen Variablen) der Vektor der

Ableitungen der Komponentenfunktionen ist, konnen wir sofort alle Regeln kompo-

nentenweise ubertragen.

Fur die Anwendungen wichtige Kombinationen vektorwertiger Funktionen sind de-

ren inneres sowie deren Kreuzprodukt. Fur diese gelten die Regeln von Satz 13.44.

Satz 13.44. (i) Sind f , g : I → IRn differenzierbar in x0, so ist auch das innere

Produkt 〈f , g〉 : I → IR differenzierbar in x0 und

d

dx〈f(x), g(x)〉

∣∣∣x=x0

= 〈f ′(x0), g(x0)〉 + 〈f(x0), g′(x0)〉.

(ii) Sind f , g : I → IR3 differenzierbar in x0, so auch f × g : I → IR3 und

d

dx(f(x) × g(x))

∣∣∣x=x0

= f ′(x0) × g(x0) + f(x0) × g′(x0).

Beweis: (i):

d

dx〈f(x), g(x)〉|x=x0

=d

dx

( n∑

i=1

fi(x)gi(x))∣∣∣∣∣x=x0

=n∑

i=1

d

dx(fi(x)gi(x))

∣∣∣∣∣x=x0

=n∑

i=1

(f ′i(x0)gi(x0) + fi(x0)g

′i(x0))

= 〈f ′(x0), g(x0)〉 + 〈f(x0), g′(x0)〉.

13.3. HOHERE ABLEITUNGEN 147

(ii): Die erste Komponente von f ×g lautet det(f2 f3

g2 g3

)

= f2g3 −f3g2. Hierfur gilt

d

dx(f2(x)g3(x) − f3(x)g2(x))|x=x0

= f ′2(x0)g3(x0) + f2(x0)g

′3(x0) − f ′

3(x0)g2(x0) − f3(x0)g′2(x0)

=(

det(f ′

2(x) f ′3(x)

g2(x) g3(x)

)

+ det(f2(x) f3(x)g′2(x) g′

3(x)

))∣∣∣∣x=x0

,

und dies ist die erste Komponente von f ′(x0) × g(x0) + f(x0) × g′(x0). Die beiden

anderen Komponenten erhalt man genauso.

Beispiel 13.45. Ein Teilchen bewege sich auf einer Kreisbahn (Ortsvektor r =

r(t)) mit der Geschwindigkeit v = v(t). Bezeichnet ω = ω(t) den Vektor der Win-

kelgeschwindigkeit, so gilt

v = ω × r.

Fur die Beschleunigung gilt nach Satz 13.44.

v =d

dt(ω×r) = ω×r+ω×r = ω×r+ω×v.

Da die Winkelbeschleunigung ω dieselbe

Richtung wie ω (senkrecht auf der Ebene der

Kreisbahn) hat, hat ω × r die Richtung von

v.

ω × r heißt Tangentialbeschleunigung.

ω × v = ω × (ω × r) = −|ω|2r heißt Zen-

tripetalbeschleunigung. 2

Abbildung 13.4

13.3 Hohere Ableitungen

Ist f : (a, b) → IR in (a, b) differenzierbar, so wird durch g : x 7→ f ′(x) eine reelle

Funktion auf (a, b) definiert, die erste Ableitung von f . Ist g differenzierbar in (a, b)

(in x0 ∈ (a, b)), so heißt f zweimal differenzierbar in (a, b) (in x0 ∈ (a, b)) und

f ′′(x) := g′(x) heißt die zweite Ableitung von f in x.

Allgemein definieren wir fur n ∈ IN, n ≥ 2, rekursiv

148 KAPITEL 13. DIFFERENZIERBARE REELLE FUNKTIONEN

Definition 13.46. Es sei n ∈ IN, n ≥ 2, und f : (a, b) → IR (n − 1)-mal

differenzierbar in (a, b) mit der (n − 1)-ten Ableitung f (n−1) : (a, b) → IR. f

heißt n-mal differenzierbar in (a, b), wenn f (n−1) differenzierbar in (a, b) ist.

f (n)(x) :=d

dxf (n−1)(x) heißt dann die n-te Ableitung von f in x.

f : (a, b) → IR heißt n-mal differenzierbar in x0 ∈ (a, b), wenn f in einer

Umgebung U ⊂ (a, b) von x0 (n − 1)-mal differenzierbar ist und f (n−1) : U → IR in

x0 differenzierbar ist.

Beispiel 13.47. Es sei f(x) = ex. Dann ist f ′(x) = ex differenzierbar in IR, und

es ist f ′′(x) = ex. Ein trivialer Induktionsbeweis zeigt, dass ex in IR beliebig oft

differenzierbar ist und dass f (n)(x) = ex fur alle n ∈ IN und alle x ∈ IR gilt. 2

Beispiel 13.48.

f(x) := |x|3 =

x3 fur x ≥ 0,

−x3 fur x ≤ 0,

ist differenzierbar in IR mit

f ′(x) =

3x2 fur x ≥ 0,

−3x2 fur x ≤ 0.

Wegen der Differenzierbarkeit von f ′ ist f zweimal differenzierbar in IR mit

f ′′(x) =

6x fur x ≥ 0,

−6x fur x ≤ 0.

= 6 |x|.

Da f ′′′(0) nicht existiert, ist f genau zweimal differenzierbar in x0 = 0. In jedem

anderen Punkt ist f beliebig oft differenzierbar. 2

Beispiel 13.49. Sei f(x) :=∞∑

n=0an(x − x0)

n eine Potenzreihe mit dem Konver-

genzradius r > 0. Dann ist nach Satz 13.29. f in (x0 − r, x0 + r) differenzierbar

mit der Ableitung f ′(x) =∞∑

n=1n an(x − x0)

n−1 und auch diese Potenzreihe hat den

Konvergenzradius r. Erneute Anwendung von Satz 13.29. liefert, dass f zweimal

differenzierbar ist mit f ′′(x) =∞∑

n=2n (n − 1) an(x − x0)

n−2, und durch Induktion

erhalt man, dass jede durch eine Potenzreihe definierte Funktion beliebig oft in ih-

rem Konvergenzintervall differenzierbar ist. Die Reihe darf gliedweise differenziert

werden

f (m)(x) =∞∑

n=m

m!

(

n

m

)

an(x − x0)n−m,

und die differenzierte Reihe besitzt den Konvergenzradius r.

13.3. HOHERE ABLEITUNGEN 149

Insbesondere erhalt man

f (m)(x0) = m! am.

Wir haben in Abschnitt 13.1 schon den Raum der auf einem offenen Intervall stetig

differenzierbaren Funktionen C1(a, b) eingefuhrt. Weiter hatten wir C1[a, b] als den

Raum der Funktionen f ∈ C1(a, b) definiert, deren Funktionen und Ableitungen sich

aus (a, b) stetig auf den Rand fortsetzen ließen. Analog definieren wir fur naturliche

Zahlen n ≥ 2:

Definition 13.50. Es sei n ∈ IN, n ≥ 2. Dann bezeichnet Cn(a, b) den Raum

der auf (a, b) n-mal stetig differenzierbaren Funktionen, und Cn[a, b] ist die Menge

der Funktionen aus Cn−1[a, b] ∩ Cn(a, b), deren n-te Ableitung sich stetig in die

Randpunkte fortsetzen laßt.

C∞(a, b) bezeichnet die Menge der beliebig oft stetig differenzierbaren Funktionen

auf (a, b) und C∞[a, b] die Menge der Funktionen aus C∞(a, b), deren Ableitungen

alle in beide Randpunkte stetig fortgesetzt werden konnen.

Bemerkung 13.51. Die Bezeichnung Cn−1[a, b]∩Cn(a, b) ist zunachst nicht sinn-

voll, denn Cn−1[a, b] und Cn(a, b) sind Mengen von Funktionen, die auf verschiede-

nen Definitionsbereichen erklart sind. Man interpretiert diesen Durchschnitt als die

Menge aller Funktionen, die auf dem großeren der Definitionsbereiche erklart sind

und die angegebenen Eigenschaften besitzen. Cn−1[a, b] ∩ Cn(a, b) besteht also aus

allen Funktionen f : [a, b] → IR, die auf dem offenen Intervall (a, b) n-mal differen-

zierbar sind und deren Ableitungen bis zur Ordnung n− 1 stetig in die Randpunkte

fortgesetzt werden konnen. 2

Bemerkung 13.52. Wir werden im nachsten Kapitel sehen, dass die Funktionen

f ∈ Cn[a, b] in den Randpunkten a und b einseitige Ableitungen

f(j)+ (a) = lim

x→a+0

f (j−1)(x) − f(j−1)+ (a)

x − a, j = 1, . . . , n,

und

f(j)− (b) = lim

x→b−0

f (j−1)(x) − f(j−1)− (b)

x − b, j = 1, . . . , n,

besitzen. Man findet daher in der Literatur auch die Definition, dass Cn[a, b] aus al-

len Funktionen besteht, die auf [a, b] n-mal stetig differenzierbar sind. Dabei sind in

150 KAPITEL 13. DIFFERENZIERBARE REELLE FUNKTIONEN

den Randpunkten die jeweiligen einseitigen Ableitungen bis zur Ordnung n gemeint.

Wir haben diesen Weg der Definition vorgezogen, da er sofort auf den Fall ubert-

ragen werden kann, dass f nicht auf einem Intervall, sondern auf einer geeigneten

Teilmenge des IRn, n ≥ 2, erklart ist. 2

Fur hohere Ableitungen gilt die folgende Verallgemeinerung der Produktregel.

Satz 13.53. (Leibnizsche Regel) Sind f, g : [a, b] → IR in einer Umgebung von

x0 n mal differenzierbar, so gilt

(f · g)(n)(x0) =n∑

k=0

(nk

)

f (k)(x0)g(n−k)(x0) ,

wobei f (0)(x) := f(x) und g(0)(x) := g(x) gesetzt ist.

Beweis: Fur n = 1 ist die Leibnizsche Regel gerade die Produktregel. Ist sie schon

fur ein n ∈ IN bewiesen, so folgt

(f · g)(n+1)(x0) =d

dx

(

(f · g)(n))

(x0)

=d

dx

n∑

k=0

(nk

)

f (k)(x0)g(n−k)(x0)

=n∑

k=0

(nk

)

f (k+1)(x0)g(n−k)(x0) +

n∑

k=0

(nk

)

f (k)(x0)g(n+1−k)(x0)

= f (n+1)(x0)g(x0) +n−1∑

k=0

(nk

)

f (k+1)(x0)g(n−k)(x0)

+n∑

k=1

(nk

)

f (k)(x0)g(n+1−k)(x0) + f(x0)g

(n+1)(x0)

= f (n+1)(x0)g(x0) +n∑

k=1

(n

k−1

)

f (k)(x0)g(n+1−k)(x0)

+n∑

k=1

(nk

)

f (k)(x0)g(n+1−k)(x0) + f(x0)g

(n+1)(x0)

= f (n+1)(x0)g(x0) +n∑

k=1

((n

k−1

)

+(

nk

))

f (k)(x0)g(n+1−k)(x0) + f(x0)g

(n+1)(x0)

=n+1∑

k=0

(n+1

k

)

f (k)(x0)g(n+1−k)(x0) .

Beispiel 13.54. Es sei

h(x) := x5 · ln 7 + x2

1 + x.

13.3. HOHERE ABLEITUNGEN 151

Wir bestimmen die Ableitung h(5)(0).

Mit

f(x) := x5 und g(x) := ln7 + x2

1 + x

gilt h(x) = f(x) · g(x). Wegen f (j)(0) = 0 fur j = 0, 1, 2, 3, 4 und f (5)(0) = 5! folgt

aus der Leibnizschen Regel

h(5)(0) = f (5)(0) · g(0) = 5! ln 7 . 2

Kapitel 14

Anwendungen der

Differentialrechnung

14.1 Mittelwertsatze

Der Mittelwertsatz der Differentialrechnung stellt eine Beziehung her zwischen der

Wertedifferenz einer Funktion an den Randern eines Intervalls und einem Ablei-

tungswert im Innern dieses Intervalls. Man kann ihn verwenden, um mit Hilfe der

Ableitung den Fehler abzuschatzen, den man macht, wenn man einen Funktionswert

durch einen benachbarten Funktionswert ersetzt. Tatsachlich wird man in der Praxis

versuchen, bessere Approximationen zu erreichen, indem man bei der Interpolation

Funktionswerte an mehreren benachbarten Stellen hinzuzieht (Abschnitt 12.1) oder

in der Taylorapproximation an einer benachbarten Stelle sowohl den Funktionswert

als auch Ableitungswerte berucksichtigt (Abschnitt 14.3). Die entsprechenden Feh-

lerabschatzungen lassen sich als Verallgemeinerungen des Mittelwertsatzes deuten.

Gleichzeitig benotigen wir den Mittelwertsatz als beweistechnisches Hilfsmittel. Er

ist also ein wichtiges Werkzeug zur Weiterentwicklung der Differentialrechnung.

Wir beweisen zunachst den Satz von Rolle1, der einerseits ein Spezialfall des Mittel-

wertsatzes ist, andererseits aber beim Beweis des Mittelwertsatzes verwendet wird.

Satz 14.1. (Satz von Rolle)

Es sei f : [a, b] → IR stetig in [a, b] und differenzierbar in (a, b) mit f(a) = f(b) = 0.

Dann existiert ein ξ ∈ (a, b) mit f ′(ξ) = 0.

1Michel Rolle, 1652 - 1719, franzosischer Mathematiker

14.1. MITTELWERTSATZE 153

Beweis: Ist f(x) = 0 fur alle x ∈ [a, b], so gilt f ′(x) = 0 fur alle x ∈ (a, b), und es

ist nichts zu zeigen. Anderenfalls nimmt f ein positives Maximum oder ein negatives

Minimum ξ ∈ (a, b) an. Es gelte o.B.d.A. f(ξ) ≥ f(x) fur alle x ∈ (a, b) (betrachte

sonst −f an Stelle von f). Dann gilt

f(x) − f(ξ)

x − ξ

≥ 0 fur x < ξ,

≤ 0 fur x > ξ,

und daher

0 ≤ limx→ξ−0

f(x) − f(ξ)

x − ξ= f ′(ξ) = lim

x→ξ+0

f(x) − f(ξ)

x − ξ≤ 0,

d.h. f ′(ξ) = 0.

Bemerkung 14.2. Geometrisch besagt der Satz von Rolle, dass eine differenzier-

bare Funktion zwischen je zwei Nullstellen eine waagerechte Tangente besitzt.

Physikalisch kann man den Satz z.B. so interpretieren, daß ein Korper, der sich (dif-

ferenzierbar) entlang der reellen Achse bewegt und sich zu Beginn t = a und am

Ende t = b eines Zeitintervalles [a, b] jeweils am selben Ort befindet, zu (mindestens)

einem (Umkehr-) Zeitpunkt t = ξ ∈ (a, b) die Geschwindigkeit Null haben muß.

Wendet man Satz 14.1. gleich auf die Geschwindigkeit an, so ist eine andere Interpre-

tation die folgende: Ein Korper, der sich geradlinig bewegt und zu den Zeitpunkten

t = a und t = b in Ruhe ist, muß zu einem Zeitpunkt t = ξ ∈ (a, b) die Beschleuni-

gung 0 haben. 2

Bemerkung 14.3. Wie das Beispiel [a, b] := [−1, 1] mit f(x) := |x|−1 zeigt, kann

in Satz 14.1. auf die Differenzierbarkeit in ganz (a, b) nicht verzichtet werden. 2

Eine Verallgemeinerung von Satz 14.1. ist

Satz 14.4. (Mittelwertsatz der Differentialrechnung)

Sei f : [a, b] → IR stetig in [a, b] und differenzierbar in (a, b). Dann gibt es ein

ξ ∈ (a, b) mit

f(b) − f(a) = f ′(ξ) · (b − a).

Beweis: Die Funktion

g(x) := f(x) − f(a) − x − a

b − a(f(b) − f(a))

154 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

ξξ

x

f

ξξ

Abbildung 14.1: Satz von Rolle, Mittelwertsatz

erfullt die Voraussetzungen von Satz 14.1. (Satz von Rolle). Daher existiert ein

ξ ∈ (a, b) mit

0 = g′(ξ) = f ′(ξ)− 1

b − a(f(b)− f(a)).

Bemerkung 14.5. Geometrisch besagt der Mittelwertsatz, dass die Tangente in

einem Punkt ξ ∈ (a, b) parallel zur Sehne durch die Punkte (a, f(a)) und (b, f(b))

ist. Als physikalische Anwendung von Satz 14.4. kann man z.B. die folgende Aussage

notieren: Durchlauft ein Mensch 100m in 10.0 Sekunden, so ist seine Durchschnitts-

geschwindigkeit 36km/h, und er muss wahrend seines Laufes zu einem Zeitpunkt die

Momentangeschwindigkeit 36km/h haben. 2

Bemerkung 14.6. Fur die numerische Rechentechnik stellt der Mittelwertsatz ein

probates Mittel der Abschatzung von Funktionswertdifferenzen durch Argument-

wertdifferenzen (und umgekehrt) dar.

Nehmen wir fur ein erstes Anwendungsbeispiel einmal an, daß man eine Funktion f

in π auswerten will, daß man dies aber nicht kann (weil f z.B. nicht einfach eine kon-

stante Funktion ist und man π ja bekanntlich numerisch nie genau angeben kann).

Wie oben besprochen, wird man f dann in einer rationalen Approximation aπ von

π auswerten wollen, und naturlich wird man sich fragen, ob man den unbekannten

Approximationsfehler f(aπ)−f(π) mit Hilfe einer — meist angebbaren — Schranke

fur den Fehler der Argumentapproximation

|aπ − π| ≤ S

14.1. MITTELWERTSATZE 155

in den Griff bekommen kann. Ist unter diesen Gegebenheiten f differenzierbar in

einem offenen Intervall I, welches π und seine Approximation aπ enthalt, so liefert

der Mittelwertsatz mit einem ξ in (aπ, π) bzw. in (π, aπ) (je nachdem, ob aπ < π

oder ob π < aπ) die Beziehung

f(aπ) − f(π) = f ′(ξ)(aπ − π).

Kennt man nun noch eine Schranke L fur die Ableitung f ′ auf diesem Intervall,

|f ′(x)| ≤ L fur alle x ∈ I,

so gilt naturlich auch |f ′(ξ)| ≤ L in der letzten Beziehung, und man hat die

Abschatzung

|f(aπ) − f(π)| ≤ L|aπ − π| ≤ LS

des unbekannten Funktionsfehlers |f(aπ)−f(π)| durch die verfugbaren Werte L und

S. 2

Bemerkung 14.7. Um zu zeigen, daß es auch Sinn macht, den Mittelwertsatz

heranzuziehen, um von bekannten Funktionswertdifferenzen auf zugehorige Argu-

mentwertdifferenzen zu schließen, betrachten wir das Problem, eine Nullstelle x∗

einer Funktion f : IR −→ IR zu berechnen. Dies geschieht meistens iterativ, indem

eine gegebene Naherung xk sukzessive durch eine f involvierende Rechenvorschrift

zu einer neuen Naherung xk+1 (hoffentlich) verbessert wird. Weiter oben haben Sie

fur den Fall eines quadratischen Polynoms f(x) = x2 − a (bzw. eines Polynoms

xm − a) schon das Newton-Verfahren kennengelernt. Um zu wissen, daß mit diesem

Verfahren√

a beliebig genau approximiert werden kann, haben wir gezeigt, daß die

generierte Folge gegen die gewunschte Zahl konvergiert (und damit√

a eigentlich

erst definiert). Fur den praktischen Einsatz der Iteration haben wir auf der ande-

ren Seite konkrete Fehlerabschatzungen fur die Naherungen hergeleitet, mit denen

sich dann die Iteration gezielt abbrechen ließ, wenn eine vorgegebene Genauigkeit

erreicht wurde.

Leider waren die oben gefundenen Fehlerabschatzungen nur fur die betrachteten

Verfahren und speziellen Funktionen (xm − a) gultig. Allgemein wird man bei Ite-

rationsverfahren aus der Große |f(xk)| des Funktionswertes (der ja an der Losung

Null werden soll) auf die Gute von xk schließen wollen. Je kleiner |f(xk)| ist, desto

mehr wird man geneigt sein zu hoffen, daß xk nahe bei einer Losung x∗ liegt.

Mit Hilfe des Mittelwertsatzes kann man diese Hoffnung quantifizieren, wenn man

weiß, daß die Funktion f differenzierbar ist, und wenn man eine untere Abschatzung

156 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

|f ′(x)| ≥ C > 0 in einem hinreichend großen Intervall um xk hat. Wir nehmen zur

Vereinfachung der Argumentation einmal an, daß f ′(x) ≥ C > 0 fur alle x ∈ IR

ist. Außerdem sei f(xk) < 0. Dann ergibt sich fur x-Werte großer als xk nach dem

Mittelwertsatz

f(x) − f(xk) = f ′(ξ)(x − xk) ≥ C(x − xk).

Insbesondere ist fur

x > xk +1

C|f(xk)|

bestimmt

f(x) ≥ f(xk) + C(x − xk) > f(xk) + |f(xk)| = 0,

so daß f nach dem Zwischenwertsatz auf jedem Fall eine Nullstelle x∗ hat. Wegen

f(x∗) = 0 erhalt man fur diese nun weiter

|f(xk)| = |f(xk) − f(x∗)| = |f ′(ζ)| · |xk − x∗| ≥ C · |xk − x∗|.

Indem man dies nach der Differenz |xk − x∗| auflost, erhalt man die Abschatzung

des Argumentfehlers

|xk − x∗| ≤ C−1|f(xk)|

durch den bekannten Wert von f bei xk. 2

Bemerkung 14.8. Wir haben in Abschnitt 13.3 darauf hingewiesen, dass fur f ∈Cn[a, b] die (n− 1)-te Ableitung f (n−1) in den Intervallenden einseitige Ableitungen

besitzt. Dies konnen wir nun mit dem Mittelwertsatz leicht einsehen. Danach gibt

es fur alle x ∈ (a, b) ein ξ(x) ∈ (a, x) mit

f (n−1)(x) − f (n−1)(a + 0) = f (n)(ξ(x))(x − a),

und daher folgt

limx→a+0

f (n−1)(x) − f (n−1)(a + 0)

x − a= lim

x→a+0f (n)(ξ(x)).

Da der rechtsseitige Grenzwert von f (n) in a existiert, ist f (n−1) in a rechtsseitig

differenzierbar. Genauso zeigt man die linksseitige Differenzierbarkeit von f (n−1) in

dem rechten Intervallende b.

Die Umkehrung der obigen Aussage gilt ubrigens nicht. Die Funktion

f(x) :=

x2 sin 1x

fur 0 < x ≤ 1

0 fur x = 0

14.1. MITTELWERTSATZE 157

ist offenbar in (0, 1) differenzierbar mit der Ableitung

f ′(x) = 2x sin1

x− cos

1

x.

Diese kann nicht von rechts in den Punkt x = 0 stetig fortgesetzt werden, denn die

Folge

f( 1

πn

)

=2

πnsin(πn) − cos(πn) = (−1)n

konvergiert nicht. Damit gilt f 6∈ C1[0, 1]. Wegen

limx→0+0

f(x) − f(0 + 0)

x − 0= lim

x→0+0x sin

1

x= 0

ist f aber rechtsseitig differenzierbar in x = 0 mit f ′+(0) = 0. 2

In der Beispielrechnung von Bemerkung 14.6. hatten wir bei der Formulierung der

Anwendung des Mittelwertsatzes abhangig von der Anordnung der Werte π und aπ

die Fallunterscheidung ξ ∈ (aπ, π) bzw. ξ ∈ (π, aπ) zu machen. Eine andere Form

des Mittelwertsatzes, die haufig handlicher ist als die Formulierung in Satz 14.4. und

mit der man auf die genannte Fallunterscheidung verzichten kann, ist Satz 14.9.

Satz 14.9. (Mittelwertsatz, 2. Fassung)

Sei f differenzierbar in einer Umgebung U von x0 (d.h. in einem offenen Intervall,

das x0 enthalt). Dann existiert fur alle h ∈ IR mit x0 + h ∈ U ein θ = θ(h) ∈ (0, 1)

mit

f(x0 + h) = f(x0) + f ′(x0 + θh) · h.

Beweis: Wahle a := x0 und b := x0 +h im Falle h > 0 und a := x0 +h und b := x0

im Falle h < 0 und θ := (ξ − x0)/h mit ξ nach Satz 14.4.

Bemerkung 14.10. Beachten Sie, daß die Darstellung des Punktes x0 + θh, an

dem die Ableitung im Mittelwertsatz auszuwerten ist, diesen Punkt stets zwischen

die Punkte x0 und x0 + h legt, unabhangig von der Anordnung dieser Punkte in IR.

2

Es folgen nun einige weitere nutzliche Anwendungsbeispiele des Mittelwertsatzes.

Fur die konstante Funktion f(·) ≡ c gilt f ′(·) ≡ 0. Mit dem Mittelwertsatz kann

man auch die Umkehrung zeigen:

Korollar 14.11. Sei f : [a, b] → IR stetig in [a, b] und differenzierbar in (a, b) mit

f ′(x) = 0 fur alle x ∈ (a, b). Dann ist f konstant in [a, b].

158 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

Beweis: Zu jedem x ∈ (a, b] existiert ein ξ ∈ (a, x) mit f(x)−f(a) = f ′(ξ)(x−a) =

0, d.h. f(x) = f(a).

Korollar 14.12. Sind f, g : [a, b] → IR stetig in [a, b] und differenzierbar in (a, b)

mit f ′(x) = g′(x) fur alle x ∈ (a, b), so gibt es ein c ∈ IR mit f(x) = g(x) + c fur

alle x ∈ [a, b].

Beweis: d(x) := f(x) − g(x) erfullt die Voraussetzungen von Korollar 14.11., ist

also konstant.

Korollar 14.13. Es sei f : [a, b] → IR stetig in [a, b] und differenzierbar in (a, b),

und es gelte mit einem λ ∈ IR

f ′(x) = λ f(x) fur alle x ∈ (a, b).

Dann gilt fur jedes feste c ∈ (a, b) mit A := f(c)

f(x) = A exp(λ(x − c)) fur alle x ∈ [a, b].

Beweis: Es sei g(x) := f(x) · exp(−λx). Dann gilt nach der Produktregel fur die

Ableitung

g′(x) = f ′(x) exp(−λx) − λ · f(x) · exp(−λx) = 0

fur alle x ∈ (a, b), und daher ist g konstant auf [a, b].

Fur x = c gilt g(c) = f(c) exp(−λc) und daher

f(x) = g(c) exp(λx) = f(c) exp(λ(x − c)).

Bemerkung 14.14. Speziell erhalt man aus Korollar 14.13., dass exp : IR → IR

die einzige differenzierbare Funktion f : IR → IR ist mit f ′ = f und f ′(0) = 1.

Auch hierdurch hatte man die Exponentialfunktion definieren konnen. 2

Als weitere Folgerung aus dem Mittelwertsatz zeigen wir einen Zusammenhang zwi-

schen der Monotonie einer Funktion und dem Vorzeichen ihrer Ableitung:

14.1. MITTELWERTSATZE 159

Korollar 14.15. Sei f : [a, b] → IR stetig in [a, b] und differenzierbar in (a, b).

Dann gilt

(i) f ist genau dann monoton wachsend (fallend) in [a, b], wenn f ′(x) ≥ 0 (≤ 0)

fur alle x ∈ (a, b) gilt.

(ii) Gilt f ′(x) > 0 (< 0) fur alle x ∈ (a, b), so ist f streng monoton wachsend

(fallend) in [a, b].

Beweis: Ist f monoton wachsend in [a, b], so giltf(x) − f(y)

x − y≥ 0 fur alle x 6= y.

Der Grenzubergang y → x zeigt daher f ′(x) ≥ 0 in (a, b).

Die umgekehrte Implikation von (i) sowie die Aussage (ii) sieht man wie folgt:

Zu x, y ∈ [a, b] mit x < y existiert ein ξ ∈ (a, b) mit f(y)− f(x) = f ′(ξ) (y−x), und

hieraus folgt fur f ′(ξ) ≥ 0 die Monotonie und aus f ′(ξ) > 0 die strenge Monotonie

von f in [a, b].

Bemerkung 14.16. Die Aussage (ii) kann man nicht umkehren, denn f : IR →IR, f(x) = x3, ist streng monoton wachsend, aber es gilt f ′(0) = 0. 2

Bemerkung 14.17. Mit Hilfe von Korollar 14.15. ist nun leicht zu sehen, dass die

Funktionen f(x) = tan x in jedem Intervall(

(n − 12) π, (n + 1

2) π

)

, g(x) := sinh x in

IR und h(x) := tanhx in IR streng monoton wachsend sind. Fur x in den jeweils

angegebenen Bereichen der reellen Achse gelten namlich die Ungleichungen

f ′(x) =1

cos2 x> 0, g′(x) = cosh x > 0, h′(x) =

1

cosh2 x> 0.

Daher existieren die in Kapitel 12 besprochenen inversen Abbildungen von f , g und

h. 2

Satz 14.18. (Erweiterter Mittelwertsatz)

Es seien f und g stetig in [a, b], differenzierbar in (a, b), und es gelte g′(x) 6= 0 fur

alle x ∈ (a, b). Dann gilt g(b) 6= g(a), und es gibt ein ξ ∈ (a, b) mit

f(b) − f(a)

g(b) − g(a)=

f ′(ξ)

g′(ξ).

Bemerkung 14.19. Fur g(x) := x erhalt man den Mittelwertsatz (Satz 14.4.). 2

160 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

Beweis: (von Satz 14.18.)

g(b) 6= g(a) folgt aus g′(x) 6= 0 und dem Mittelwertsatz. Es sei

h(x) := f(x) − f(a) − f(b) − f(a)

g(b) − g(a)(g(x) − g(a)).

Dann genugt h den Voraussetzungen des Satzes von Rolle (Satz 14.1.). Daher exi-

stiert ein ξ ∈ (a, b) mit

0 = h′(ξ) = f ′(ξ) − f(b) − f(a)

g(b) − g(a)g′(ξ),

und hieraus folgt die Behauptung.

14.2 Regeln von de l’Hopital

Der erweiterte Mittelwertsatz ist das Hauptmittel bei der Herleitung der sogenann-

ten Regeln von de l’Hopital2. Diese Regeln ermoglichen die Berechnung von Grenz-

werten des Typs

limx→a

f(x)

g(x),

wenn Zahler und Nenner (jeder fur sich) keine der bei Bruchen ublichen Grenzwerte

(Zahler endlich, Nenner endlich und von Null verschieden) haben, dies aber sehr wohl

fur ihren Quotienten gilt. Ein offensichtliches Beispiel ergibt sich mit f(x) = g(x) =

x und a = 0. In diesem Fall wird der Nenner im Grenzpunkt Null, der Quotient

f(x)/g(x) ≡ 1 hat aber offenbar bei Null einen Grenzwert. Sicher brauchen wir zur

Ermittlung dieses Grenzwertes keine raffinierten Regeln, aber schon die Berechnung

des Grenzwertes limx→0

sin x

x, bei dem Zahler und Nenner wieder beide gegen Null

streben (Wir wollen dies den”Grenzfall 0

0“ nennen), erscheint weniger trivial.

Der folgende Satz gibt fur den Grenzfall 00

eine hinreichende Bedingung dafur, dass

der Grenzwert existiert, und eine Moglichkeit zu seiner Berechnung.

Satz 14.20. (Regel von de l’Hopital; Fall 00)

Es seien f, g : [a, b] → IR differenzierbar in (a, b) und x0 ∈ (a, b) mit f(x0) =

g(x0) = 0, und es gelte g′(x) 6= 0 fur x 6= x0.

Existiert der (uneigentliche) Grenzwert limx→x0

f ′(x)

g′(x), so besitzt auch

f(x)

g(x)fur x → x0

einen (uneigentlichen) Grenzwert, und es gilt

limx→x0

f(x)

g(x)= lim

x→x0

f ′(x)

g′(x).

2Guillaume Francois Antoine Marquis de l’Hopital, 1661 - 1704, franzosischer Mathematiker

14.2. REGELN VON DE L’HOPITAL 161

Beweis: Fur alle x 6= x0 gibt es nach Satz 14.18. ein θx ∈ (0, 1) mit

f(x)

g(x)=

f(x) − f(x0)

g(x) − g(x0)=

f ′(x0 + θx(x − x0))

g′(x0 + θx(x − x0)),

und hieraus folgt die Behauptung, da fur jede Folge {xn} mit limn→∞xn = x0 wegen

θxn∈ (0, 1) auch lim

n→∞(x0 + θxn(xn − x0)) = x0 gilt.

Bemerkung 14.21. Der Beweis von Satz 14.20. zeigt, dass die Behauptung auch

fur einseitige Grenzwerte der Form limx→x0+0

f(x)

g(x)(bzw. lim

x→x0−0

f(x)

g(x)) gilt, wenn f fur

ein h > 0 in [x0, x0+h] (bzw. [x0−h, x0]) stetig und in (x0, x0+h) (bzw. (x0−h, x0))

differenzierbar ist. 2

Beispiel 14.22.

limx→0

sin x

x= lim

x→0

cos x

1= 1.

Diese Gleichung muss man richtig interpretieren. Zunachst gilt das linke Gleichheits-

zeichen nicht. Insbesondere folgt nach Satz 14.20. aus der Existenz des Grenzwertes

limx→0 sin x/x nicht die Existenz des mittleren Grenzwertes limx→0 cos x/1. Nach-

dem aber eingesehen wurde, dass limx→0 cos x/1 existiert (und den Wert 1 hat) liefert

Satz 14.20., dass auch limx→0 sin x/x existiert (und ebenfalls den Wert 1 hat), so

dass die gesamte Gleichung richtig ist.

Auch in den folgenden Beispielen muss man die auftretenden Gleichungen immer von

rechts nach links lesen. Wahrend der Rechnung stehen alle Gleichheitszeichen unter

dem Vorbehalt, dass am Ende die Existenz eines (eigentlichen oder uneigentlichen)

Grenzwerts eingesehen wird. Danach erhalt man dann nach Satz 14.20. die Existenz

der vorhergehenden Grenzwerte und die Richtigkeit der Gleichheitszeichen. 2

Beispiel 14.23. Wir bestimmen den Grenzwert

limx→0

x2 sin 1x

sin x.

Es gilt

limx→0

x2 sin 1x

sin x= lim

x→0

(

x sin1

x

)

· limx→0

x

sin x.

Wegen der Beschranktheit der Sinusfunktion konvergiert der erste Grenzwert der

rechten Seite gegen 0 und der zweite ist nach der Regel von de l’Hopital 1. Daher

gilt

limx→0

x2 sin 1x

sin x= 0.

162 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

Dieses Beispiel verdeutlicht noch einmal die Aussage von Satz 14.20.: Der Grenzwert

limx→0

x2 sin 1x

sin x

existiert, aber der Quotient der Ableitungen

ddx

(x2 sin 1x)

ddx

sin x=

2x sin 1x− cos 1

x

cos x

besitzt keinen Grenzwert fur x → 0.

Das Beispiel zeigt, dass im Falle f(0) = g(0) = 0 die Existenz von

limx→0

f ′(x)

g′(x)

hinreichend fur die Existenz von

limx→0

f(x)

g(x)

ist, nicht aber notwendig. Mehr wurde in Satz 14.20. auch nicht behauptet. 2

Beispiel 14.24. Man kann die de l’Hopitalsche Regel gegebenenfalls auch mehr-

fach anwenden, wenn nach einmaliger Differentiation der Grenzwert noch nicht klar

ist.

Sind z.B. f(x) = 2x3 + x4 und g(x) = x3 − x5, so findet man aus der Existenz von

limx→0

f (3)(x)

g(3)(x)= lim

x→0

12 + 24x

6 − 60x2= 2

und der Tatsache, daß f (k)(0) = g(k)(0) = 0 fur k = 0, 1, 2 gilt, daß

limx→0

f(x)

g(x)= lim

x→0

f ′(x)

g′(x)= lim

x→0

f (2)(x)

g(2)(x)= lim

x→0

f (3)(x)

g(3)(x)= 2.

Naturlich konnten Sie den Grenzwert auch schon vorher ohne die neue Regel bewei-

sen, das Beispiel soll aber verdeutlichen, daß man mit der de l’Hopitalschen Regel

von Zahler und Nenner gewissermaßen Nullstellen abspaltet, um diese gegeneinan-

der zu kurzen.

Daß dies nicht immer so einfach auch ohne die gewonnene Regel gemacht werden

kann, zeigt das folgende Beispiel. 2

Beispiel 14.25.

limx→0

x (1 − (1 − x)4/3)

(1 − x2)1/3 − 1=: lim

x→0

f(x)

g(x).

14.2. REGELN VON DE L’HOPITAL 163

Es ist

f ′(x) = 1 − (1 − x)4/3 +4

3x (1 − x)1/3, g′(x) = −2

3x (1 − x2)−2/3,

also f ′(0) = g′(0) = 0, und die l’Hopitalsche Regel liefert noch nicht den Grenzwert.

Wir wenden Satz 14.20. erneut an auf F (x)G(x)

mit

F (x) := f ′(x), G(x) := g′(x),

F ′(x) =8

3(1 − x)1/3 − 4

9x (1 − x)−2/3,

G′(x) = −2

3(1 − x2)−2/3 − 8

9x2(1 − x2)−5/3.

Dann gilt

limx→0

f(x)

g(x)= lim

x→0

f ′(x)

g′(x)= lim

x→0

F ′(x)

G′(x)=

8/3

−2/3= −4. 2

Bemerkung 14.26. Die Aussage von Satz 14.20. bleibt richtig, wenn in der Grenz-

wertbildung x0 = ±∞ ist. In diesem Fall substituieren wir y := 1x.

Sei o.B.d.A. x0 = +∞. Dann gilt mit f(y) := f(x) = f( 1y), g(y) := g(x) = g( 1

y)

limx→∞

f(x)

g(x)= lim

y→0+0

f(y)

g(y)= lim

y→0+0

f ′(y)

g′(y)= lim

y→0+0

f ′( 1y) ·

(

− 1y2

)

g′( 1y) ·

(

− 1y2

)

= limy→0+0

f ′( 1y)

g′( 1y)

= limx→∞

f ′(x)

g′(x). 2

Beispiel 14.27. Die de l’Hopitalsche Regel ist manchmal auch geeignet, Grenz-

werte des Typs ∞−∞ zu berechnen:

limx→0

( 1

ln(1 + x)− 1

x

)

= limx→0

x − ln(1 + x)

x · ln(1 + x)

= limx→0

1 − 11+x

ln(1 + x) + x1+x

= limx→0

x

(1 + x) ln(1 + x) + x,

und die erneute Anwendung von Satz 14.20. liefert

limx→0

( 1

ln(1 + x)− 1

x

)

= limx→0

1

ln(1 + x) + 1 + 1=

1

2. 2

Satz 14.28. (Regel von de l’Hopital; Fall ∞∞)

Seien f, g : (a, b) → IR differenzierbar, mit

limx→a+0

1

f(x)= lim

x→a+0

1

g(x)= 0, (14.1)

164 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

und es sei g′(x) 6= 0 fur x ∈ (a, b).

Besitztf ′(x)

g′(x)fur x → a + 0 den (eigentlichen oder uneigentlichen) Grenzwert c, so

auchf(x)

g(x).

Beweis: Wir betrachten zunachst den Fall eines eigentlichen Grenzwerts c ∈ IR.

Zu ε ∈ (0, 12) (ε < 1

2wird spater benotigt) gibt es ein x ∈ (a, b) mit

∣∣∣∣

f ′(ξ)

g′(ξ)− c

∣∣∣∣ < ε

fur alle ξ ∈ (a, x).

Wegen1

f(x)→ 0,

1

g(x)→ 0 fur x → a+0 existiert δ > 0 mit

∣∣∣∣

f(x)

f(x)

∣∣∣∣ < ε,

∣∣∣∣

g(x)

g(x)

∣∣∣∣ < ε

fur alle x ∈ (a, a + δ).

Fur diese x gilt nach dem erweiterten Mittelwertsatz (Satz 14.18.)

f(x)

g(x)=

f(x)

f(x) − f(x)· g(x) − g(x)

g(x)· f(x) − f(x)

g(x) − g(x)=

1 − g(x)/g(x)

1 − f(x)/f(x)· f ′(ξ)

g′(ξ),

und daher

f(x)

g(x)− c =

f ′(ξ)

g′(ξ)− c +

f(x)/f(x) − g(x)/g(x)

1 − f(x)/f(x)· f ′(ξ)

g′(ξ),

das heißt

∣∣∣f(x)

g(x)− c

∣∣∣ ≤

∣∣∣f ′(ξ)

g′(ξ)− c

∣∣∣ +

(∣∣∣f(x)

f(x)

∣∣∣ +

∣∣∣g(x)

g(x)

∣∣∣

)

·∣∣∣f ′(ξ)

g′(ξ)

∣∣∣ · 1

1 − |f(x)f(x)

|

≤ ε + (ε + ε) (|c| + ε) · 1

1 − ε.

Benutzen wir nun zur Abschatzung der zuletzt gewonnenen Schranke die am Anfang

des Beweises angenommene Beschrankung 0 < ε < 12, so ergibt sich schließlich

∣∣∣∣∣

f(x)

g(x)− c

∣∣∣∣∣≤ (4 |c| + 3) ε.

Es sei nun c ∈ {−∞,∞}. Dann existiert eine rechtsseitige Umgebung (a, a + η) von

a auf der f ′ von Null verschieden ist, denn sonst wurde eine Folge {xn} in (a, b)

existieren mit limn→∞ xn = a und f ′(xn) = 0 fur alle n ∈ IN. Damit wurde man mit

g′(xn) 6= 0 den Widerspruch

limn→∞

f ′(xn)

g′(xn)= 0 6= lim

x→a+0

f ′(x)

g′(x)= c ∈ {−∞,∞}

erhalten. Wir konnen also die Rollen von f und g vertauschen, und nach dem ersten

Teil des Beweises folgt

limx→a+0

g(x)

f(x)= lim

x→a+0

g′(x)

f ′(x)= 0. (14.2)

14.2. REGELN VON DE L’HOPITAL 165

Da g′ und f ′ in einer rechtsseitigen Umgebung von a ihr Vorzeichen nicht wechseln,

sind f und g in dieser Umgebung streng monoton wachsend oder fallend, und es

folgt aus (14.2)

limx→a+0

f(x)

g(x)= lim

x→a+0

f ′(x)

g′(x).

Bemerkung 14.29. Auch Satz 14.28. lasst sich naturlich auf linksseitige Grenz-

werte und auf den Fall limx→∞ sofort ubertragen. 2

In den folgenden Beispielen seien α und β positive reelle Zahlen.

Beispiel 14.30.

limx→∞

eαx

x= lim

x→∞αeαx

1= ∞. 2

Beispiel 14.31.

limx→∞

eαx

xβ= lim

x→∞

(eαx/β

x

=(

limx→∞

eαx/β

x

= ∞,

fur x → ∞ wachst also jede Exponentialfunktion exp(αx) schneller als jede Potenz

xβ von x. 2

Beispiel 14.32.

limx→∞

ln x

xβ= lim

x→∞1/x

βxβ−1= lim

x→∞1

βxβ= 0,

der Logarithmus ln x geht also fur x → ∞ langsamer gegen ∞ als jede Potenz xβ

von x. 2

Beispiel 14.33.

limx→0+0

xβ ln x = limx→0+0

ln x

x−β= lim

x→0+0

1/x

−βx−β−1= lim

x→0+0

−β= 0. 2

Beispiel 14.34.

limx→0+0

xx = limx→0+0

ex ln x = exp( limx→0+0

(x·ln x)) = e0 = 1. 2

166 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

14.3 Der Satz von Taylor

Die Differentiation wurde motiviert durch Aufgabenstellung, eine Funktion lokal

durch eine (affin) lineare Funktion, also ein Polynom vom Grade 1, moglichst gut

zu approximieren. Wir verallgemeinern diese Problemstellung nun und fragen nach

einer lokal moglichst guten Approximation einer Funktion f in einer Umgebung eines

Punktes x0 durch ein Polynom p.”Moglichst gut in der Nahe von x0“ prazisieren

wir dabei durch die Forderung, dass

limx→x0

f(x) − p(x)

(x − x0)m= 0

fur moglichst großes m ∈ IN gelten moge.

Bei in x0 differenzierbarem f und bei linearem Polynom p hatten wir gefunden, daß

das Gutemaß m = 1 moglich ist. Als Verallgemeinerung dieses Ergebnisses werden

wir im Satz von Taylor3 erhalten, daß im Falle einer n-mal stetig differenzierbaren

Funktion mit einem Polynom vom Maximalgrad n eine Approximation moglich ist,

welche das Gutemaß m = n erlaubt.

Satz 14.35. (Taylorscher Satz)

Sei f ∈ Cn(a, b). Dann gibt es zu jedem x0 ∈ (a, b) genau ein Polynom Tn(x; x0)

vom Hochstgrad n mit

limx→x0

f(x) − Tn(x; x0)

(x − x0)n= 0.

Tn, das n-te Taylorpolynom von f in x0, ist gegeben durch

Tn(x; x0) =n∑

k=0

f (k)(x0)

k!(x − x0)

k, (14.3)

wobei f (0)(x) := f(x) die Funktion f bezeichnet.

Gilt sogar f ∈ Cn+1(a, b), so hat das Restglied

Rn(x) := f(x) − Tn(x; x0)

fur x ∈ (a, b) die folgende Darstellung: Fur alle p ∈ {1, . . . , n + 1} gibt es ein

ξ = x0 + θ(x − x0), θ ∈ (0, 1), mit

Rn(x) =f (n+1)(ξ)

p · n!(x − x0)

n+1(1 − θ)n+1−p. (14.4)

3Brook Taylor, 1685 - 1731, englischer Mathematiker

14.3. DER SATZ VON TAYLOR 167

0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

−1.5

−1

−0.5

0

0.5

1

ln

T1

T3

T2

T4

T1

T2

T3

T4

ln

Abbildung 14.2: Taylorpolynome fur f(x) = ln x

Bemerkung 14.36. (14.4) heißt die Restgliedformel nach Schlomilch4. 2

Bemerkung 14.37. Ist der Entwicklungspunkt x0 = 0, so heißt die Entwicklung

(14.3) auch die MacLaurin Entwicklung5 von f . 2

Beispiel 14.38. Abbildung 14.2 zeigt die Funktion f(x) := ln x und die Taylor-

polynome T0 ≡ 0, und T1, T2, T3 fur x0 = 1.

Ferner enthalt die Abbildung 10.2 auf Seite 11 die Funktion g(x) := cos x und deren

Taylorpolynome T0, T2, T4, T6, T8 mit dem Entwicklungspunkt x0 = 0. 2

Beweis: des Taylorschen Satzes (Satz 14.35.)

Um die Eindeutigkeit zu zeigen, nehmen wir an, dass es zwei Polynome p, q ∈ Πn

p(x) :=n∑

k=0

ak (x − x0)k, q(x) :=

n∑

k=0

bk (x − x0)k,

mit der geforderten Approximationseigenschaft gibt. Dann folgt

p(x) − q(x)

(x − x0)j=

p(x) − f(x)

(x − x0)j+

f(x) − q(x)

(x − x0)j−→ 0

fur x → x0 und j = 0, 1, . . . , n. Fur diese j-Werte gilt also

limx→x0

n∑

k=0

(ak − bk) (x − x0)k−j = 0.

4Oscar Xavier Schlomilch, 1823 - 1901, deutscher Mathematiker

5Colin MacLaurin, 1698 - 1746, schottischer Mathematiker

168 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

Setzt man hierin nacheinander j = 0, 1, . . . , n ein, so folgt sukzessiv bj = aj, j =

0, . . . , n, und daher ist p = q.

Um zu sehen, dass das in (14.3) angegebene Tn(x, x0) die geforderte Approximati-

onseigenschaft hat, definieren wir fur festes x 6= x0 die folgenden Hilfsfunktionen:

g(t) := f(x) −n−1∑

k=0

f (k)(t)

k!(x − t)k, a < t < b,

h(t) := g(t) − g(x0)(

x − t

x − x0

)n

, a < t < b.

Dann sind g und h stetig differenzierbar, und

g′(t) = −n−1∑

k=0

f (k+1)(t)

k!(x − t)k +

n−1∑

k=1

f (k)(t)

(k − 1)!(x − t)k−1

= − f (n)(t)

(n − 1)!(x − t)n−1, a < t < b.

Wegen h(x) = g(x) = 0, h(x0) = g(x0) − g(x0) · 1 = 0 folgt aus dem Satz von Rolle

die Existenz eines ξ := x0 + θ (x − x0), θ ∈ (0, 1), mit h′(ξ) = 0. Setzen wir die

Definition von h(t) hier ein, ergibt sich

0 = g′(ξ) + n g(x0)(x − ξ)n−1

(x − x0)n

= − f (n)(ξ)

(n − 1)!(x − ξ)n−1 + n g(x0)

(x − ξ)n−1

(x − x0)n.

Indem man den von Null verschiedenen Faktor (x − ξ)n−1 kurzt, erhalt man

0 = − f (n)(ξ)

(n − 1)!+

n g(x0)

(x − x0)n,

d.h.

g(x0) =f (n)(ξ)

n!(x − x0)

n.

Einsetzen der Definition von g liefert schließlich

f(x) =n−1∑

k=0

f (k)(x0)

k!(x − x0)

k +f (n)(ξ)

n!(x − x0)

n. (14.5)

Damit erhalt man

f(x) − Tn(x; x0) =1

n!

(

f (n)(ξ) − f (n)(x0))

(x − x0)n,

und da mit x → x0 auch ξ → x0 gilt, folgt aus der Stetigkeit von f (n)

limx→x0

f(x) − Tn(x; x0)

(x − x0)n=

1

n!lim

x→x0

(

f (n)(ξ) − f (n)(x0))

= 0.

14.3. DER SATZ VON TAYLOR 169

Damit ist die Approximationseigenschaft von Tn gezeigt.

Fur die Herleitung der Schlomilchschen Restglieddarstellung benotigen wir nun die

Differenzierbarkeit von f (n) in (a, b). Diese ist durch die Voraussetzung von f ∈Cn+1(a, b) im Satz sicher gewahrleistet (Wir haben es vorgezogen, im Satz etwas zu

viel zu fordern, da sich diese Forderung flinker formulieren und einfacher behalten

laßt). Wir betrachten dann fur x ∈ (a, b), x 6= x0 und mit der ganzen Zahl p ∈{1, . . . , n + 1} die Funktion

φ(t) := f(x) −n∑

j=0

f (j)(t)

j!(x − t)j − α

( x − t

x − x0

)p.

Dabei sei α ∈ IR die durch die Forderung φ(x0) = 0 eindeutig bestimmte Zahl.

φ ist stetig in [a, b] und differenzierbar in (a, b) mit φ(x0) = 0 und φ(x) = 0. Daher

gibt es nach dem Satz von Rolle ein ξ = x0 + θ(x − x0), θ ∈ (0, 1), mit φ′(ξ) = 0.

Nun ist

φ′(t) = −n∑

j=0

f (j+1)(t)

j!(x − t)j +

n∑

j=1

f (j)(t)

(j − 1)!(x − t)j−1 +

(x − x0)p(x − t)p−1

= −f (n+1)(t)

n!(x − t)n +

(x − x0)p(x − t)p−1,

und φ′(ξ) = 0 liefert

α =1

p · n!f (n+1)(ξ)(x − x0)

p(x − ξ)n+1−p

=1

p · n!f (n+1)(ξ)(x − x0)

p(x − x0 − θ(x − x0))n+1−p

=1

p · n!f (n+1)(ξ)(1 − θ)n+1−p(x − x0)

n+1.

Hiermit erhalt man wegen φ(x0) = 0

f(x) =n∑

j=0

f (j)(x0)

j!(x−x0)

j +f (n+1)(ξ)

p · n!(x−x0)

n+1(1−θ)n+1−p.

Bemerkung 14.39. Eine der 2. Fassung des Mittelwertsatzes entsprechende Fas-

sung des Taylorpolynoms (14.3) mit seinem Restterm (14.4) ist

f(x0 + h) =n∑

k=0

f (k)(x0)

k!hk +

f (n+1)(x0 + θh)

p · n!hn+1(1 − θ)n+1−p

fur ein θ ∈ (0, 1). Der Mittelwertsatz ist mit n = 0 und p = 1 hierin als Spezialfall

enthalten. 2

170 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

Fur das Restglied der Taylorformel sind weitere Darstellungen gebrauchlich:

Korollar 14.40. Es sei f ∈ Cn+1(a, b) und x0 ∈ (a, b). Dann hat das Restglied

Rn(x) in

f(x) =n∑

j=0

f (j)(x0)

j!(x − x0)

j + Rn(x)

fur x = x0 + h ∈ (a, b) die Darstellungen

Rn(x) =f (n+1)(ξ)

(n + 1)!hn+1, ξ = x0 + θh, fur ein θ ∈ (0, 1), (14.6)

Rn(x) =f (n+1)(ξ)

n!hn+1(1 − θ)n, ξ = x0 + θh, fur ein θ ∈ (0, 1), (14.7)

Rn(x) =1

n!

x∫

x0

(x − t)n f (n+1)(t) dt. (14.8)

(14.6) heißt die Restgliedformel von Lagrange, (14.7) heißt Restgliedformel

von Cauchy und (14.8) heißt die Integraldarstellung des Restgliedes oder die

Restgliedformel von Taylor.

Beweis: Die Restgliedformel (14.6) von Lagrange ist mit p = n + 1 in der Formel

von Schlomilch enthalten und die Restgliedformel (14.7) von Cauchy erhalt man als

Spezialfall von (14.4) mit p = 1. Die Gultigkeit der Integraldarstellung werden wir

in Satz 17.14. beweisen.

Bemerkung 14.41. Man kann den Taylorschen Satz auch fur Cn-Funktionen

(bzw. seine Restgliedformeln fur Cn+1-Funktionen) auf abgeschlossenen Interval-

len [a, b] beweisen, wobei dann auch fur den Entwicklungspunkt x0 die Randpunkte

zulassig sind. Man hat dann nur uberall Ck(a, b) durch Ck[a, b] zu ersetzen. 2

Der Taylorsche Satz 14.35. ist fur die Anwendungen außerordentlich wichtig. Er

liefert das Standardverfahren zur lokalen Approximation einer gegebenen Funktion

durch ein Polynom einschließlich einer Fehlerabschatzung.

Beispiel 14.42. Einen typischen Anwendungsfall des Taylorschen Satzes liefert die

Aufgabe, eine Approximation fur die Zahl e1.5 mit einer vorgegebenen Fehlerschranke

etwa von 10−4 zu bestimmen.

14.3. DER SATZ VON TAYLOR 171

Die Funktion f(x) = ex ist beliebig oft differenzierbar, und daher existiert das

Taylorpolynom jeden Grades n. Wegen f (k)(x) = ex fur alle k ∈ IN gilt f (k)(0) = 1,

und daher ist

Tn(x; 0) =n∑

k=0

1

k!xk.

(Das Taylorpolynom ist also gerade die n-te Partialsumme der Potenzreihe, die die

Exponentialfunktion definiert). Das Lagrangesche Restglied ist

Rn(x) =eξ

(n + 1)!xn+1

mit ξ = θ x fur ein θ ∈ (0, 1).

Speziell fur x = 1.5 ist

0 < Rn(x) =eξ

(n + 1)!xn+1 <

31.5

(n + 1)!1.5n+1,

und man kann |Rn(x)| ≤ 10−4 garantieren, falls

1.5n+1

(n + 1)!≤ 1

3√

3· 10−4.

Dies ist fur n ≥ 9 der Fall.

Es ist T9(1.5; 0) = 4.481671, und mit jedem guten Taschenrechner, der eine Approxi-

mation fur exp(1.5) verwenden sollte, welche die angezeigten Stellen korrekt liefert,

uberzeugt man sich nun davon, daß der tatsachliche Fehler | exp(1.5) − T9(1.5; 0)|die Großenordnung 1.9 · 10−5 hat und damit wie gewunscht kleiner als 10−4 ist. 2

Bemerkung 14.43. Dass im Beispiel 14.42. das n-te Taylorpolynom Tn(x; 0) ge-

rade die n-te Partialsumme der exp(x) definierenden Potenzreihe ist, ist kein Zufall.

Besitzt

f(x) :=∞∑

n=0

an (x − x0)n

namlich einen positiven Konvergenzradius r, so ist f in (x0 − r, x0 + r) beliebig oft

differenzierbar mit f (m)(x0) = m! am (vgl. Beispiel 13.49.), und das n-te Taylorpo-

lynom ist

Tn(x; x0) =n∑

k=0

ak (x − x0)k. 2

Definition 14.44. Ist f : (a, b) → IR eine C∞-Funktion, so existieren fur jedes

x0 ∈ (a, b) alle Ableitungen f (n)(x0), n ∈ IN. Dann heißt die Reihe

Tf (x) :=∞∑

n=0

f (n)(x0)

n!(x − x0)

n

die Taylorreihe von f mit Entwicklungspunkt x0.

172 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

Zur Taylorreihe sind zwei wichtige Bemerkungen angebracht:

Bemerkung 14.45. Der Konvergenzradius einer Taylorreihe ist nicht notwendig

positiv. 2

Bemerkung 14.46. Falls die Taylorreihe von f konvergiert, so konvergiert sie

nicht notwendig gegen f . 2

Bemerkung 14.47. Die Taylorreihe konvergiert genau fur diejenigen x ∈ [a, b]

gegen f(x), fur die die Folge der Restglieder der Taylorpolynome aus Satz 14.35. bei

steigendem Grad gegen 0 konvergiert. 2

Bemerkung 14.48. Eine C∞-Funktion f : (a, b) → IR, die in jedem Punkt x0 ∈(a, b) in eine Taylorreihe entwickelt werden kann, die in einer Umgebung (x0−ε, x0+

ε) von x0 gegen f konvergiert, heißt reell-analytisch . Dabei muß f nicht in eine

in ganz (a, b) konvergente Potenzreihe entwickelbar sein, wie das folgende Beispiel

der in ganz IR+ analytischen Funktion f(x) =1

xzeigt. 2

Beispiel 14.49. Fur

f : IR+ → IR, f(x) :=1

x,

gilt

f (n)(x) = (−1)n n!x−n−1,

und daher ist die Taylorreihe von f mit dem Entwicklungspunkt x0 ∈ IR+

Tf (x; x0) =∞∑

n=0

(−1)nx−n−10 (x − x0)

n =1

x0

∞∑

n=0

(x0 − x

x0

)n

mit dem Konvergenzradius r = x0.

Bei |x − x0| < r = x0 gilt fur das Restglied

|Rn(x; x0)| =∣∣∣1

x− 1

x0

n∑

j=0

(x0 − x

x0

)j∣∣∣ =

∣∣∣1

x− 1

x0

·1 −

(x0−x

x0

)n+1

1 − x0−xx0

∣∣∣

=∣∣∣1

x−

1 −(

x0−xx0

)n+1

x

∣∣∣ =

1

x

∣∣∣x0 − x

x0

∣∣∣

n+1 → 0 fur n → ∞.

Tf (x; x0) konvergiert also fur |x−x0| < x0 gegen f(x), und daher ist f reell-analytisch

in IR+. Es gibt aber keine Potenzreihenentwicklung von f , die in ganz IR+ konver-

giert. 2

14.3. DER SATZ VON TAYLOR 173

−3 −2 −1 0 1 2 3

0

0.2

0.4

0.6

0.8

1

x

exp(−1/x2)

Abbildung 14.3: Taylorreihe, die nicht gegen f(x) konvergiert (Beispiel 14.50.)

Beispiel 14.50. Ein besonders pathologisches Beispiel zu Bemerkung 14.46. ist

f(x) :=

exp(− 1x2 ) fur x 6= 0,

0 fur x = 0.

Wir zeigen, dass f beliebig oft differenzierbar ist mit f (n)(0) = 0 fur alle n ∈ IN0.

Die Taylorreihe mit x0 = 0 ist also Tf (x) ≡ 0, und diese stimmt mit f nur im

Entwicklungspunkt uberein (siehe Abbildung 14.3).

Um diese Aussagen einzusehen, mussen wir uns nur induktiv von der Darstellbarkeit

der n-ten Ableitung von f in der Form

f (n)(x) =

pn( 1x) exp(− 1

x2 ) fur x 6= 0,

0 fur x = 0

mit einem Polynom pn (vom Grad 3n) uberzeugen.

Fur n = 0 ist diese Aussage klar. Ist sie fur ein n ∈ IN0 richtig, so folgt fur x 6= 0

f (n+1)(x) =d

dxf (n)(x) =

d

dx

(

pn

(1x

)

e−1/x2)

=(

−p′n(

1x

)

· 1

x2+

2

x3pn

(1x

))

e−1/x2

=: pn+1

(1x

)

e−1/x2

,

und fur x = 0

f (n+1)(0) = limx→0

f (n)(x) − f (n)(0)

x − 0= lim

x→0

1

x· pn

(1x

)

· e−1/x2

= limy→∞ y pn(y) e−y2

= 0. 2

Beispiel 14.51. Als weiteres Beispiel betrachten wir die Funktion

f(x) := ln(1 + x),

174 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

die fur x > −1 beliebig oft differenzierbar ist, also z.B. in dem Entwicklungspunkt

x0 = 0 in eine Taylorreihe entwickelt werden kann.

Es gilt f ′(x) = (1 + x)−1, f ′′(x) = −(1 + x)−2, f ′′′(x) = 2 (1 + x)−3 und (durch

Induktion)

f (n)(x) = (−1)n−1 (n − 1)! (1 + x)−n.

Fur x0 = 0 ist also f(0) = 0, f (n)(0) = (−1)n−1 (n − 1)!, n ≥ 1, und daher ist die

Taylorreihe gegeben durch

Tf (x) =∞∑

n=1

(−1)n−1 xn

n.

Tf hat den Konvergenzradius 1 (die Reihe konvergiert fur x = 1 und divergiert fur

x = −1).

Wir zeigen, dass durch Tf im Intervall (−1, 1) die Funktion f dargestellt wird:

Es gilt fur |x| < 1

d

dxTf (x) =

∞∑

n=1

(−1)n−1xn−1 =∞∑

n=0

(−x)n =1

1 − (−x)=

1

1 + x= f ′(x),

und nach Korollar 14.12. gibt es eine Konstante c ∈ IR mit

f(x) = Tf (x) + c fur alle x ∈ (−1, 1).

Fur x = 0 gilt f(0) = ln 1 = 0 = Tf (0), d.h. c = 0, und daher f(x) = Tf (x) fur alle

x ∈ (−1, 1).

Fur x = 1 ist Tf (1) =∞∑

n=1(−1)n−1 · 1

ndie alternierende harmonische Reihe. Um die

Konvergenz gegen f(1) = ln(2) einzusehen, betrachten wir das Restglied

Rn(1) =f (n+1)(ξ)

(n + 1)!· 1n+1 = (−1)n n! (1 + ξ)−(n+1)

(n + 1)!=

(−1)n

(n + 1) (1 + ξ)n+1.

Wegen ξ > 0 gilt (1 + ξ)−(n+1) < 1, und daher |Rn(1)| <1

n + 1→ 0 fur n → ∞. 2

Damit ist gezeigt

Satz 14.52. Fur −1 < x ≤ 1 gilt

ln(1 + x) =∞∑

n=1

(−1)n−1 · xn

n.

14.3. DER SATZ VON TAYLOR 175

Beispiel 14.53. Wir betrachten nun die Funktion

f(x) := (1 + x)α, α ∈ IR, x > −1.

Dann gilt f ′(x) = α (1 + x)α−1, f ′′(x) = α (α− 1) (1 + x)α−2 und (durch Induktion)

f (n)(x) = α (α − 1) · . . . · (α − n + 1) (1 + x)α−n.

Als Taylorreihe erhalt man also

Tf (x) =∞∑

n=0

(

α

n

)

xn,

wobei die Verallgemeinerung der Binomialkoeffizienten(

α

n

)

:=α (α − 1) · . . . · (α − n + 1)

n!fur n ≥ 1 und

(

α

0

)

:= 1, (14.9)

verwendet wird, die diese auf den Fall reeller nicht naturlicher α-Werte erweitert.

Wie man leicht bestatigt, ergibt die obige Definition (14.9) fur naturliche α-Werte

die ublichen Binomialkoeffizienten.

Ist insbesondere α = m ∈ IN, und ist m < n, so gilt(

mn

)

= 0. Daher erhalt man als

Spezialfall

Tf (x) =m∑

n=0

(

m

n

)

xn,

wobei — wegen Rn =(

mn+1

)

ξn+1 = 0 fur alle n ≥ m — die letzte endliche Reihe die

Funktion (1 + x)m exakt darstellt. Hieraus resultiert noch einmal die aus Kapitel 1

bekannte binomische Formel

(1 + x)m =m∑

n=0

(

m

n

)

xn,

die sich somit als besonders einfacher Sonderfall eines viel allgemeineren Sachver-

haltes entpuppt. Allgemein gilt 2

Satz 14.54. (Binomische Reihe)

Fur alle α ∈ IR und alle x ∈ (−1, 1) gilt

(1 + x)α =∞∑

n=0

(

α

n

)

xn.

Beweis: Zunachst besitzt die Reihe g(x) :=∞∑

n=0

(αn

)

xn wegen

limn→∞

∣∣∣∣∣

n+1

)

xn+1

(αn

)

xn

∣∣∣∣∣= lim

n→∞

∣∣∣α − n

n + 1x

∣∣∣ = |x|

176 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

nach dem Quotientenkriterium den Konvergenzradius r = 1.

Fur |x| < 1 erhalt man durch gliedweise Differentiation

g′(x) =∞∑

n=1

(αn

)

nxn−1 =∞∑

n=1

n−1

)

(α − n + 1) xn−1

= α∞∑

n=0

(αn

)

xn − x∞∑

n=0

n(

αn

)

xn−1 = α g(x) − x g′(x),

d.h. (1 + x) g′(x) = α g(x).

Fur h(x) := (1 + x)−α g(x) folgt daher

h′(x) = −α (1 + x)−α−1 g(x) + (1 + x)−α g′(x)

= (1 + x)−α−1(

−α g(x) + (1 + x) g′(x))

= 0,

und damit h(x) ≡ h(0) = g(0) =(

α0

)

= 1, d.h. g(x) = (1 + x)α.

Beispiel 14.55. Mit der binomischen Reihe kann man nun leicht die Potenzreihe

der Funktion

f(x) := arcsin0 x

ermitteln. f ist fur |x| < 1 beliebig oft differenzierbar, besitzt also eine Taylorreihe

Tf (x) =∞∑

n=0

an xn.

Durch gliedweises Differenzieren erhalt man

d

dxTf (x) =

∞∑

n=1

n an xn−1 =∞∑

n=0

(n + 1) an+1 xn.

Andererseits erhalt man aus Satz 14.54. fur |x| < 1

f ′(x) =1√

1 − x2=

∞∑

k=0

(

−1/2

k

)

(−x2)k =∞∑

k=0

(−1)k

(

−1/2

k

)

x2k,

und diese Reihen stimmen genau dann uberein, wenn

a2k = 0, a2k+1 =(−1)k

2k + 1

(

−1/2

k

)

, k ∈ IN0.

Die Reihe

g(x) :=∞∑

k=0

(−1)k

2k + 1

(

−1/2

k

)

x2k+1

konvergiert nach dem Quotientenkriterium fur |x| < 1. Durch gliedweises Differen-

zieren erhalt man nach Wahl der ak

d

dx

(

arcsin0 x − g(x)) = 0 fur |x| < 1,

14.3. DER SATZ VON TAYLOR 177

und nach Korollar 14.11. gibt es daher ein c ∈ IR mit

arcsin0 x = c + g(x) fur |x| < 1.

Hieraus folgt schließlich wegen arcsin0 0 = 0 fur |x| < 1

arcsin0 x =∞∑

k=0

(−1)k

2k + 1

(

−1/2

k

)

x2k+1 = x +1

2· x3

3+

1 · 32 · 4 · x5

5+

1 · 3 · 52 · 4 · 6 · x7

7+ . . . 2

Beispiel 14.56. Vollig analog kann man (mit Hilfe der geometrischen Reihe) die

Taylorreihe der Funktion x 7→ arctan0 x ermitteln. Man erhalt fur |x| < 1

arctan0 x =∞∑

k=0

(−1)k x2k+1

2k + 1= x− x3

3+

x5

5− x7

7+ . . . 2

Eine weitere Anwendung des Taylorschen Satzes ist die Umordnung von Polynomen.

Es sei p ∈ Πn,

p(x) =n∑

j=0

ajxj. (14.10)

Dann gilt nach dem Taylorschen Satz fur jedes x0 ∈ IR

p(x) =n∑

j=0

p(j)(x0)

j!(x − x0)

j + Rn(x; x0)

und wegen

Rn(x; x0) =p(n+1)(ξ)

(n + 1)!(x − x0)

n+1 = 0

erhalt man das umgeordnete Polynom

p(x) =n∑

j=0

p(j)(x0)

j!(x − x0)

j. (14.11)

Der Ubergang von der Taylorentwicklung (14.10) des Polynoms im Entwicklungs-

punkt Null zur Taylorentwicklung (14.11) im Punkte x0 ist im Sinne der linearen

Algebra nichts anderes als ein Basiswechsel im Raum der Polynome Πn.

Die neuen Koeffizienten bj :=1

j!p(j)(x0) fur die Entwicklung nach der neuen Basis

{(x− x0)0, (x− x0)

1, . . . , (x− x0)n} erhalt man mit dem sogenannten erweiterten

Horner Schema:

Wendet man auf pn := p das Horner Schema an, so erhalt man nach Satz 12.3. den

Wert pn(x0) und ein Polynom pn−1(x) =n−1∑

j=0a′

j xj mit

pn(x) = (x − x0) pn−1(x) + pn(x0).

178 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

Wendet man das Horner Schema auf pn−1 an, so erhalt man

pn−1(x0) und pn−2(x) =n−2∑

j=0

a′′j xj

mit

pn−1(x) = (x − x0) pn−2(x) + pn−1(x0),

d.h.

pn(x) = (x − x0)2 pn−2(x) + (x − x0) pn−1(x0) + pn(x0).

Fahrt man so fort, so erhalt man schließlich

pn(x) =n∑

j=0

bj (x − x0)j,

wobei

an an−1 an−2 · · · a2 a1 a0

x = x0 a′n−1x0 a′

n−2x0 · · · a′2x0 a′

1x0 a′0x0

a′n−1 a′

n−2 a′n−3 · · · a′

1 a′0 b0 = p(x0)

x = x0 a′′n−2x0 a′′

n−3x0 · · · a′′1x0 a′′

0x0

a′′n−2 a′′

n−3 a′′n−4 · · · a′′

0 b1 =1

1!p′(x0)

x = x0 a′′′n−3x0 a′′′

n−4x0 · · · a′′′0 x0

a′′′n−3 a′′′

n−4 a′′′n−5 · · · b2 =

1

2!p′′(x0)

......

x = x0

bn =1

n!p(n)(x0)

wobei naturlich die Striche bei den ak im Gegensatz zu denen bei p keine Ableitungen

bezeichnen.

14.4. KURVENDISKUSSION 179

Beispiel 14.57. p(x) := x4 + 2x3 − x2 + 1 soll nach Potenzen von x− 1 entwickelt

werden:

1 2 −1 0 1

x = 1 1 3 2 2

1 3 2 2 3 = p(1)

x = 1 1 4 6

1 4 6 8 = p′(1)

x = 1 1 5

1 5 11 =1

2p′′(1)

x = 1 1

1 6 =1

6p′′′(1)

x = 1

1 =1

24p(4)(1) ,

d.h.

p(x) = (x − 1)4 + 6 (x − 1)3 + 11 (x − 1)2 + 8 (x − 1) + 3

und

p(1) = 3, p′(1) = 8, p′′(1) = 22, p′′′(1) = 36, p(4)(1) = 24. 2

14.4 Kurvendiskussion

Ziel einer Kurvendiskussion ist es, wesentliche Merkmale einer reellen Funktion

festzustellen, die durch eine Zuordnungsvorschrift x 7→ f(x) gegeben ist.

Ein solches Vorhaben wird ublicherweise von Anwendern der Mathematik nicht zum

mathematischen Zeitvertreib vorgenommen, sondern soll z.B. nutzliche Aussagen

uber den durch die Funktion modellierten Sachverhalt enthullen oder umgekehrt

klaren, ob ein Satz von Formeln zur Modellierung eines untersuchten Stuckes der

Realitat geeignet ist.

Fur die Kurvendiskussion hat es sich als zweckmaßig erwiesen, die durch die folgende

Schlagwortliste angedeuteten Untersuchungsschritte abzuarbeiten:

Definitionsbereich, Symmetrien, Grenzwerte und Pole, Asymptoten,

Nullstellen, Monotonie-Verhalten, Extrema, Konvexitat, Konkavitat,

Wendepunkte.

180 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

Wir diskutieren im Rest dieses Abschnittes genauer, was unter den dadurch an-

gesprochenen Analyseschritten genauer zu verstehen ist und welche Aussagen und

Hilfsmittel zu ihrer Bewaltigung u.a. zur Verfugung stehen.

Es sei vorher aber noch einmal ausdrucklich betont, daß die Analyseschritte und

ihre Reihenfolge nur ein Vorschlag zur Untersuchung reeller Funktionen sind. Was

im konkreten Fall der Praxis getan werden muß, wird durch die aus der Praxis an

die Funktion herangetragenen Fragen bestimmt. Allerdings werden Sie im folgenden

Abschnitt sicher auch ein wenig an Fahigkeit gewinnen, geeignete praxisrelevante

Fragen an Funktionen zu stellen.

Es ist auf jeden Fall gut, wenn Sie sich bei der nun folgenden Abarbeitung der Li-

ste von Analyseschritten immer bemuhen, Anwendungsbeispiele fur die betreffende

Fragestellung zu bedenken.

Definitionsbereich: Bestimme die Menge Df aller x ∈ IR, fur die die Zuordnungs-

vorschrift sinnvoll ist, so daß sie auf Df eine Funktion definiert.

Beispiel 14.58. Die Rechenvorschrift

f(x) :=x4 − 5x2 + 4

x3

ist ausfuhrbar fur alle von Null verschiedenen x-Werte. Daher ist der Definitionsbe-

reich Df := IR \ {0}. 2

Bemerkung 14.59. Die Tatsache, daß ein mathematischer Formelausdruck fur

einen bestimmten Wert x0 eine ausfuhrbare Rechenvorschrift darstellt, laßt zu, daß

durch ihn eine Funktion erklart wird, die x0 zu ihrem Definitionsbereich zahlt. Es

heißt aber im Anwendungsfall noch lange nicht, daß der Punkt x0 auch im Definiti-

onsbereich einer durch die Rechenvorschrift darzustellenden ingenieurwissenschaft-

lichen Modellfunktion liegen mußte. Daruber entscheidet die modellierende Person.

Einer Formel fur die optimale Reisegeschwindigkeit eines Raumfahrzeuges wird man

z.B. auch bei noch so schoner Auswertbarkeit mit Skepsis begegnen, wenn sie Ge-

schwindigkeiten jenseits der Lichtgeschwindigkeit vorschlagt. 2

Symmetrien: Eine Symmetrie der Funktion (besser eine Symmetrie ihres Graphen)

liegt dann vor, wenn der Graph unter einer (einfachen) Bijektion des ihn enthalten-

den IR2 auf sich selbst invariant bleibt. Dann kann man meistens die Analyse auf

einen bestimmten Teilbereich des IR2 reduzieren.

Eine Standardsymmetrie ist etwa die Invarianz des Graphen unter der Spiegelung

14.4. KURVENDISKUSSION 181

an der y-Achse. Dann ist der Graph durch seinen Teilgraphen im Bereich x ≥ 0

bestimmt, und man kann die Untersuchung hierauf beschranken. Die Funktion ist

in solch einem Fall eine gerade Funktion (d.h. f(−x) = f(x) fur alle x ∈ Df ), was

sich am Formelsatz meist leicht prufen laßt.

Ebenso leicht pruft man, ob ein Formelsatz eine ungerade Funktion beschreibt.

Dann ist f(−x) = −f(x) fur alle x ∈ Df , der Graph ist invariant unter einer Dre-

hung des IR2 um π, und man kann sich wieder auf die Analyse fur x ≥ 0 beschranken.

Ein anderer Symmetrietyp, den man vielleicht bislang nicht unter diesem Begriff ein-

geordnet hatte, ist die normalerweise Periodizitat genannte Verschiebungssymmetrie

der trigonometrischen Funktionen. Der Graph wird bei der reellen Sinusfunktion

z.B. durch Verschiebung in x-Richtung um 2π auf sich abgebildet, und es reicht ja

bekanntlich auch, die Sinusfunktion in einem beliebigen Intervall der Lange 2π zu

diskutieren, um sie vollstandig zu kennen.

Daß die Sinusfunktion gleichzeitig noch einige weitere Symmetrien aufweist (sie ist

u.a. auch ungerade), kann man ausnutzen, um das benotigte Untersuchungsgebiet

ihres Graphen noch weiter zu reduzieren.

Wenn Symmetrien zu einem fruhen Zeitpunkt der Kurvendiskussion gesehen wer-

den, kann dies erheblich Arbeit sparen.

Abgesehen von Periodizitat, Geradheit oder Ungeradheit oder auch einer dieser Ei-

genschaften nach einer einfachen Urbild- und/oder Bildtransformation (ξ := x − x0

und η := y−y0) der Rechenvorschrift f(x) zu g(ξ) := f(ξ+x0)−y0 sind Symmetrien

aber nicht immer leicht zu entdecken. (Ein einfacher Fall ist Beispiel 14.58. Dort ist

f offensichtlich ungerade.)

Erkennt man Symmetrien nicht rasch, so stellt man die Behandlung dieses Punk-

tes zunachst zuruck. Da Symmetrien sehr viel Aufschluß uber die Funktion geben

konnen, ist es aber sinnvoll, die Frage nach Symmetrien zu einem spateren Zeitpunkt

mit mehr vorliegender Information noch einmal zu stellen.

Grenzwerte, Pole: Ist x0 ein Haufungspunkt des Definitionsbereichs mit x0 /∈ Df ,

so bestimme man die Grenzwerte limx→x0−0

f(x), limx→x0+0

f(x), falls diese existieren, und

entscheide, ob in x0 die Funktion stetig erganzt werden kann oder ob in x0 ein Pol

vorliegt. Man bestimme an diesen Stellen und an isolierten Stellen, an denen f nicht

differenzierbar ist, einseitige Grenzwerte von f ′, falls diese existieren.

In Beispiel 14.58. gilt

limx→0−0

f(x) = limx→0−0

(x − 5x−1 + 4x−3) = −∞, limx→0+0

f(x) = ∞,

182 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

d.h. f hat in x0 = 0 einen Pol. Damit ist auch das Verhalten von f ′ in der Nahe von

x0 klar, so dass man sich um Grenzwerte von f ′ nicht weiter zu kummern braucht.

Asymptoten: Man untersuche das Verhalten von f(x) fur x → ±∞, d.h., ob

limx→∞ f(x) und/oder lim

x→−∞f(x) existiert, oder allgemeiner, ob eine einfache Funktion

g(x) (etwa ein Polynom niedrigen Grades) existiert mit

f(x) − g(x) −→ 0 fur x → ∞ oder x → −∞.

Ein solches g heißt Asymptote von f in ∞ bzw. −∞.

In Beispiel 14.58. ist g(x) := x in ∞ und −∞ eine Asymptote, denn

limx→±∞

(f(x) − g(x)) = limx→±∞

−5x2 + 4

x3= 0.

Ermitteln kann man diese Asymptote hier z.B. einfach durch Ablesen aus der Form

f(x) = x − 5x−1 + 4x−3.

Nullstellen: Bestimme die Nullstellen von f .

In Beispiel 14.58. ist f(x) genau dann 0, wenn x4 − 5x2 + 4 = 0, d.h.

x2 =5

25

4− 4 =

1

4.

Somit hat f die vier Nullstellen

x1 = −2, x2 = −1, x3 = 1, x4 = 2.

Die Ermittlung von Nullstellen ist von der Anwendungsseite her gesehen nur dann in-

teressant, wenn der Null im Bildbereich eine besondere Rolle zukommt. Sonst konnte

man genausogut (π − 1.27)-Stellen ermitteln. Wie das Beispiel der Ertragsfunkti-

on eines Betriebes zeigt, kommt der Nullinie allerdings sehr haufig eine wichtige

Trennfunktion zu.

Monotonieverhalten: Bestimme die Bereiche, in denen f monoton ist. Dabei wird

man (moglichst) die Ergebnisse aus Korollar 14.15. verwenden, wonach f streng

monoton wachsend ist, falls f ′(x) > 0 gilt, und streng monoton fallend, falls f ′(x) <

0 gilt.

In Beispiel 14.58. ist

f ′(x) =x4 + 5x2 − 12

x4

14.4. KURVENDISKUSSION 183

mit den Nullstellen x5,6 = ±√

12(−5 +

√73).

Wegen f ′(1) < 0 fallt f streng monoton in (0, x5) und wegen f ′(2) > 0 und 2 > x5

ist f streng monoton wachsend in (x5,∞).

Da f ungerade ist, ist f streng monoton wachsend in (−∞, x6) und streng monoton

fallend in (x6, 0).

Extrema: In diesem Arbeitsschritt bestimmt man moglichst alle Extrema der Funk-

tion, d.h. alle Minima und Maxima, wobei wir — weil diese Worte in allgemeinerer

Weise benutzt werden sollen als bislang schon — erst noch genauer (in einer gleich

zu gebenden Definition) deren Bedeutung erlautern werden.

Im Zusammenhang mit dem Nachweis der Annahme des Supremums und des Infi-

mums durch stetige Funktionen auf kompakten Mengen im Satz 10.52. hatten wir

bereits ausgefuhrt, daß das Erstreben von Extremen treibende Kraft vieler Akti-

vitaten ist. Man kann sich deshalb leicht vorstellen, daß der Wunsch, Extrema von

Funktionen zu charakterisieren, um sie mit Hilfe ihrer Charakterisierung anschlie-

ßend zu berechnen, ein Hauptantrieb der Wissenschaftler des 17. Jahrhunderts bei

der Konzeption der Grundlagen der Analysis war. Die Beobachtung, daß der Graph

von Funktionen in Extrem-Punkten (oft) eine waagerechte Tangente hatte, war u.a.

Motivation fur die Entwicklung eines Kalkuls zur Berechnung der Tangente, und das

heißt der grundlegenden Technik des Differenzierens.

Nun sind bei der Kurvendiskussion die Extrema nicht allein wegen der extremalen

Große der Funktionswerte interessant. Wichtig ist auch die Aussage, daß sich beim

Durchlaufen von Argumentwerten mit extremalen Funktionswerten das Verhalten

der Funktion meist grundlegend andert. Eine solche Verhaltensanderung ist sicher

in vielen Anwendungen von fundamentaler Bedeutung. Ob es sich nun um die Borse,

die Staatsverschuldung, die eigene Karriere oder nur einen Wanderweg handelt: Es

ist stets wesentlich, ob es bergab oder bergauf geht.

Solche Wechsel des Monotonietyps liegen nicht nur in den bislang als Maxima (bzw.

Minima) bezeichneten Punkten vor, welche den global (d.h. im Vergleich zu allen

konkurrierenden Funktionswerten) maximalen bzw. minimalen Funktionswert reali-

sierten. Auch in Punkten, die nur im Vergleich zu ihren direkten Nachbarn (in einem

umgebenden offenen Intervall) extremal sind, andern Funktionen ihr Monotoniever-

halten, weshalb wir lokale Extrema definieren werden.

Die folgende Definition erfaßt die Grundformen extremalen Verhaltens.

184 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

−1

−0.5

0

0.5

1

1.5

2

x1

x2

x3

x4

x5

x6

Abbildung 14.4: Extrema

Definition 14.60. Sei f : D → IR, D ⊂ V , V ein normierter Vektorraum und

x0 ∈ D.

(i) f besitzt in x0 ein globales Maximum , wenn

f(x) ≤ f(x0) fur alle x ∈ D.

(ii) f besitzt in x0 ein striktes globales Maximum , wenn

f(x) < f(x0) fur alle x ∈ D \ {x0}.

(iii) f besitzt in x0 ein lokales Maximum (relatives Maximum), wenn es ein

ε > 0 gibt, so dass

f(x) ≤ f(x0) fur alle x ∈ D mit ‖x − x0‖ < ε.

(iv) f besitzt in x0 ein striktes lokales Maximum , wenn es ein ε > 0 gibt, so

dass

f(x) < f(x0) fur alle x ∈ D mit ‖x − x0‖ < ε und x 6= x0.

(v) f besitzt in x0 ein globales, striktes globales, lokales, striktes lokales Mini-

mum, wenn die Funktion −f ein Maximum des entsprechenden Typs besitzt.

(vi) Extremum ist der gemeinsame Oberbegriff fur Minimum und Maximum.

In dem in Abbildung 14.4 skizzierten Beispiel sind x2 und x6 globale Minima, x5 ist

ein globales Maximum, die Menge aller lokalen Minima ist {x2, x6} ∪ (x3, x4], und

14.4. KURVENDISKUSSION 185

f(x0)+f+´(x0)(x−x0)

f(x0)+f −´(x0)(x−x0)

x

f

Abbildung 14.5: Notwendige Bedingungen fur Extrema

die Menge aller lokalen Maxima ist {x1, x5}∪ [x3, x4). Die Extrema x1, x2, x5 und x6

sind als lokale Extrema strikt. Zusatzlich ist x5 striktes globales Maximum. Wegen

f(x2) = f(x6) existiert kein striktes globales Minimum.

Der folgende Satz 14.61. enthalt Charakterisierungen lokaler Extrema reeller Funk-

tionen einer Veranderlichen.

Satz 14.61. (i) ( notwendige Bedingung): f besitze in x0 ein lokales Minimum

und sei stetig in x0. Existiert f ′−(x0) bzw. f ′

+(x0) bzw. f ′(x0), so gilt f ′−(x0) ≤ 0

bzw. f ′+(x0) ≥ 0 bzw. f ′(x0) = 0.

(ii) ( hinreichende Bedingung): f sei in einer Umgebung (x0 − ε, x0 + ε) von x0

n-mal stetig differenzierbar (n ≥ 2), und es gelte

f ′(x0) = f ′′(x0) = . . . = f (n−1)(x0) = 0, f (n)(x0) 6= 0.

Ist n ungerade, so besitzt f in x0 kein lokales Extremum. Ist n gerade und

f (n)(x0) > 0, so besitzt f in x0 ein striktes lokales Minimum, ist n gerade und

f (n)(x0) < 0, so besitzt f in x0 ein striktes lokales Maximum.

Beweis: (i): Es sei x0 ein lokales Minimum, und es existiere f ′−(x0). Dann gilt fur

x ∈ D, x < x0, |x − x0| < ε wegen f(x) ≥ f(x0) fur den Differenzenquotienten

f(x) − f(x0)

x − x0

≤ 0. (14.12)

Da f stetig in x0 ist, sind die einseitigen Ableitungen im Falle ihrer Existenz als

einseitige Grenzwerte des Differenzenquotienten (14.12) darstellbar. Daher folgt

186 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

f ′−(x0) ≤ 0 bzw. f ′

+(x0) ≥ 0, falls f ′−(x0) bzw. f ′

+(x0) existiert. Ist f differenzierbar

in x0, so ist

f ′(x0) = f ′+(x0) ≥ 0 ≥ f ′

−(x0) = f ′(x0),

so daß dann f ′(x0) = 0 ist.

(ii): Nach dem Taylorschen Satz (Satz 14.35.) gilt mit einem ξ = x0 + θ (x − x0),

θ ∈ (0, 1), die Darstellung

f(x) =n−1∑

j=0

f (j)(x0)

j!(x − x0)

j +f (n)(ξ)

n!(x − x0)

n

= f(x0) +f (n)(ξ)

n!(x − x0)

n.

Liegt x 6= x0 genugend nahe bei x0, so besitzen f (n)(x0) und f (n)(ξ) wegen der

Stetigkeit von f (n) in x0 gleiches Vorzeichen. Daher gilt fur gerades n und solche

x-Werte:

f(x) − f(x0) =1

n!f (n)(ξ) (x − x0)

n

> 0 fur f (n)(x0) > 0,

< 0 fur f (n)(x0) < 0.

Im ersten Fall liegt damit ein striktes lokales Minimum vor, im zweiten Fall ein

striktes lokales Maximum.

Fur ungerades n und f (n)(x0) > 0 gilt

f(x) − f(x0) =1

n!f (n)(ξ) (x − x0)

n

> 0 fur x > x0,

< 0 fur x < x0.

Fur f (n)(x0) < 0 kehren sich die Ungleichheitszeichen um.

Beispiel 14.62. Im Beispiel 14.58. auf Seite 180 gilt

f ′(x) =x4 + 5x2 − 12

x4

mit den Nullstellen x5,6 = ±√

(−5 +√

73)/2 und

f ′′(x) =−10x2 + 48

x5

mit f ′′(x5) > 0 und f ′′(x6) < 0.

f besitzt also in x5 ein striktes lokales Minimum und in x6 ein striktes lokales

Maximum. Dies war auch schon nach den Monotonieuberlegungen klar. 2

14.4. KURVENDISKUSSION 187

Beispiel 14.63. Die Aufgabe aus dem Beispiel 14.58., die wir fortgesetzt als De-

monstrationsbeispiel verwenden, ist dazu geeignet, die vermutlich auch schon in

der Schule eingepragte Idee zu verfestigen, daß man bei der Kurvendiskussion einer

Funktion ihre Nullstellen, ihre Extrema und vielleicht auch noch ihre (hier noch zu

besprechenden) Wendepunkte immer einfach ausrechnen konnte. Das ist in konstru-

ierten Aufgaben des Mathematikunterrichtes oft der Fall. Es trifft aber in Aufgaben

der Praxis eher selten zu. Dort muß man stattdessen mit numerischen Approxi-

mationen der dabei jeweils zu bestimmenden Nullstellen der Funktion oder ihrer

Ableitungen zufrieden sein.

Wie das folgende Beispiel zeigt, kann man mit den Bedingungen fur Extrema durch-

aus nutzliche Information herleiten, ohne daß man eine einzige Nullstelle exakt be-

stimmt haben mußte.

Als Anwendung von Satz 14.61. leiten wir das

Reflexionsgesetz her: Ein von dem Punkt

A = (0, a2) ausgehender Lichtstrahl wer-

de im Punkt P = (x1, 0) an einer Geraden

(x-Achse) reflektiert und erreiche dann den

Punkt B = (b1, b2). Gesucht ist x1.

Nach dem Fermatschen Prinzip wahlt das

Licht denjenigen Weg, fur den die benotig-

te Zeit minimal ist, d.h. P ist dadurch be-

stimmt, dass die Summe der Entfernungen

PA + PB minimal ist.

x

y

A

P

B

Abbildung 14.6

Wir machen den Ansatz P = (x, 0) und erhalten die Entfernungssumme

f(x) =√

x2 + a22 +

(x − b1)2 + b22.

Die Ableitungen

f ′(x) =x

x2 + a22

+x − b1

(x − b1)2 + b22

,

f ′′(x) =a2

2√

x2 + a22

3 +b22

(x − b1)2 + b22

3

sind nicht schwer zu bilden.

Da die zweite Ableitung nur aus Quadraten besteht, ist sie offenbar uberall positiv.

188 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

x yλ x+(1−λ)y

f(λ x+(1−λ)y)

λ f(x)+(1−λ )f(y)

Abbildung 14.7: Konvexe Funktion

Daher ist f ′ uberall streng monoton wachsend. In den Endpunkten des interessie-

renden Intervalls ist

f ′(0) = − b1√

b21 + b2

2

< 0, f ′(b1) =b1

b21 + a2

2

> 0.

Nach dem Zwischenwertsatz besitzt f ′ daher im Inneren dieses Intervalls eine Null-

stelle x1, und wegen der strengen Monotonie ist diese eindeutig. Da f ′′ uberall großer

als Null ist, gilt dies auch fur die Stelle x1, die nach dem hinreichenden Kriterium

fur Extrema damit ein striktes lokales Minimum ist. Da keine weiteren Extrema

existieren, ist x1 sogar globales Minimum.

Man kann sich nun naturlich bemuhen, aus f ′(x1) = 0, also

x1√

x21 + a2

2

=b1 − x1

(x1 − b1)2 + b22

eine Formel fur x1 herzuleiten. Einpragsamer wird das Ergebnis aber, wenn man

die letzte Gleichung genauer ansieht. Dann findet man, daß diese Gleichung fur den

Einfallswinkel α und den Ausfallswinkel β nichts anderes besagt als cos α = cos β.

Da α und β spitze Winkel sind und ihre Vorzeichen aus der Geometrie auch klar

sind, ist dies gerade das Reflexionsgesetz”Einfallswinkel = Ausfallswinkel“. 2

Wendepunkte: In einem Fahrzeug wird das Fahrgefuhl neben der Fahrtrichtung

wesentlich dadurch bestimmt, ob das Fahrzeug beschleunigt oder ob es bremst. Fahrt

man mit einem Fahrrad bergauf oder bergab, findet man es informativ zu wissen,

ob dabei die Steigung zunimmt oder abnimmt. Folgt man einer Kurve in einer Ebe-

ne (bei Zeichnen auf dem Papier oder per Fahrzeug auf der Erdoberflache) ist es

nutzlich zu wissen, ob die Kurve nach links oder nach rechts gekrummt ist.

14.4. KURVENDISKUSSION 189

In all diesen Fallen bezieht sich die benotigte Information auf die Art der Anderung

der ersten Ableitung, und diese wird (im Falle der Differenzierbarkeit der Ablei-

tungsfunktion) durch das Vorzeichen der zweiten Ableitung bestimmt. Wenn man

die genannten Anwendungsfalle einmal durchgeht, wird man feststellen, daß wir

meist fur Anderungen hoherer Art (Verstarkung der Beschleunigung, Zunahme der

Steigungsvergroßerung, Verstarkung der Linkskrummung) weniger empfindlich zu

sein scheinen. Diese naturliche Wahrnehmungsschranke fur Anderungen hoherer als

zweiter Ordnung schlagt sich auch in der Kurvendiskussion nieder, indem hier zwar

noch Umschlagspunkte dieser Anderungen zweiter Ordnung (Vorzeichenwechsel der

zweiten Ableitung) in die Diskussion einbezogen, aber nur selten Anderungen hoher-

er Ableitungen diskutiert werden.

Da Krummungsarten von Graphen auch ohne die Differenzierbarkeit der Funktionen

beschrieben werden konnen, und durch solche Beschreibungen erstens mehr Funktio-

nen erfaßt werden und zweitens auch im mehrfach differenzierbaren Fall interessante

und nutzliche Informationen uber die Funktionen und verschiedene lineare Appro-

ximationen (Sekanten und Tangenten) resultieren, beginnen wir den Abschnitt uber

Krummungen und Wendepunkte (in denen die Art der Krummung sich andert) et-

was allgemeiner als vielleicht erwartet.

Definition 14.64. Sei I ⊂ IR ein Intervall. f : I → IR heißt konvex in I, wenn

fur alle x, y ∈ I, x 6= y, und alle λ ∈ (0, 1) gilt

f(λx + (1 − λ)y) ≤ λ f(x) + (1 − λ) f(y).

Gilt diese Ungleichung mit”<“, so heißt f strikt konvex in I.

f heißt (strikt) konkav, falls −f (strikt) konvex ist.

Bemerkung 14.65. In Worten bedeutet Konvexitat (Konkavitat) von f in I, dass

zu je zwei Punkten x, y ∈ I der Graph von f zwischen x und y nicht oberhalb (un-

terhalb) der Sehne durch (x, f(x)), (y, f(y)) liegen kann.

Wir werden Konvexitat im Falle der Differenzierbarkeit mit einem Zuwachs der Ab-

leitung in Verbindung bringen. Denkt man sich den Hohenverlauf einer Straße durch

den Graphen einer Funktion modelliert, so ist der Zusammenhang von Zunahme der

Ableitung und Konvexitat schon jetzt klar. Nimmt die Steigung zu, so ist der Ge-

genverkehr erkennbar. Der Sehstrahl lauft oberhalb des Graphen von f . Nimmt die

Steigung dagegen ab (etwa vor einer Bergkuppe), so mußte der direkte Sehstrahl

zum Gegenverkehr die Kuppe durchdringen.

190 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

Als Folgerung aus Satz 14.71. werden wir ubrigens erhalten, daß Tangenten an die

eben genannten konvexen bzw. konkaven Funktionen gerade stets auf der anderen

Seite liegen wie die Sekanten. Bekannt ist dies aus dem praktischen Wissen, daß

man gemeinhin aus Linkskurven nach rechts und aus Rechtskurven nach links her-

ausgetragen wird (wenn man nicht achtgibt, und der Tangente folgt). 2

Bemerkung 14.66. Sind f , g konvexe Funktionen, so sind offenbar auch f + g

und h(x) := max(f(x), g(x)) konvex. Es ist aber nicht f · g konvex, denn f(x) := x2

und g(x) := −1 sind konvex, aber nicht (f · g)(x) = −x2. Auch wenn f und g strikt

konvex sind, ist f ·g i.a. nicht konvex, denn f(x) := (x−1)2 und g(x) := (x+1)2 sind

strikt konvex, aber (f · g)(x) = (x2 − 1)2 ist in (− 1√3, 1√

3) strikt konkav. Letzteres

zeigt man mit dem folgenden Satz 14.67. 2

Satz 14.67. Sei f : [a, b] → IR stetig in [a, b] und zweimal stetig differenzierbar

in (a, b). Dann gilt

(i) f ist genau dann konvex (konkav) in [a, b], wenn f ′′(x) ≥ 0 (f ′′(x) ≤ 0) fur

alle x ∈ (a, b) gilt.

(ii) Gilt f ′′(x) > 0 (f ′′(x) < 0) fur alle x ∈ (a, b), so ist f strikt konvex (konkav)

in [a, b].

Bemerkung 14.68. Die Aussage (ii) kann man nicht umkehren, denn es ist z.B.

f(x) = x4 strikt konvex, aber f ′′(0) = 0. 2

Beweis: (von Satz 14.67.)

Es sei f ′′(x) ≥ 0 fur alle x ∈ (a, b) und x, y ∈ [a, b] mit x < y. Zu zeigen ist, dass fur

alle t ∈ (x, y), d.h. t := λx + (1 − λ)y mit λ ∈ (0, 1), gilt

λ f(x) + (1 − λ) f(y) − f(t) ≥ 0.

Nach dem Mittelwertsatz gibt es

ξ ∈ (x, t) mit f(x) − f(t) = f ′(ξ) (x − t),

η ∈ (t, y) mit f(y) − f(t) = f ′(η) (y − t)

und

ζ ∈ (ξ, η) mit f ′(η) − f ′(ξ) = f ′′(ζ) (η − ξ).

14.4. KURVENDISKUSSION 191

Daher gilt

λ f(x) + (1 − λ) f(y) − f(t)

= λ (f(x) − f(t)) + (1 − λ) (f(y) − f(t))

= λ (x − t) f ′(ξ) + (1 − λ) (y − t) f ′(η)

= λ (1 − λ) (x − y) f ′(ξ) + (1 − λ) λ (y − x) f ′(η)

= λ (1 − λ) (y − x) (η − ξ) f ′′(ζ) ≥ 0,

d.h. f ist konvex.

Ist f ′′(x) > 0 fur alle x ∈ (a, b), so erhalt man genauso die strikte Konvexitat von

f .

Es sei nun umgekehrt f konvex, x, y ∈ (a, b) mit x < y fest gewahlt und t ∈ (x, y).

Dann gilt fur die Gerade

g(t) := f(x) +f(y) − f(x)

y − x(t − x) =: f(x) + m (t − x)

f(t) ≤ g(t), d.h.f(t) − f(x)

t − x≤ g(t) − g(x)

t − x= m,

und mit t → x folgt f ′(x) ≤ m.

Genauso erhalt man aus f(t) ≤ g(t) zunachst

f(t) − f(y)

t − y≥ g(t) − g(y)

t − y= m,

und mit t → y dann f ′(y) ≥ m.

Zusammen folgt f ′(x) ≤ f ′(y), d.h. f ′ ist monoton wachsend in (a, b), und daher

erhalt man f ′′(x) ≥ 0 fur alle x ∈ (a, b).

Beispiel 14.69. f(x) := ex, g(x) := x2, h(x) := cosh x sind strikt konvex in IR,

k(x) := sin x ist konkav in [0, π]. 2

Wir haben in Satz 14.67. eine Charakterisierung von Konvexitat unter der globalen

Voraussetzung der zweimaligen stetigen Differenzierbarkeit diskutiert. Tatsachlich

hat die Konvexitat einer Funktion selbst schon eine erhebliche Glattheit zur Folge.

Dies sagt z.B. die folgende Aussage aus R.T. Rockafellar: Convex Analysis,

deren Beweis uns hier allerdings zuviel Raum kosten wurde und die wir daher einfach

zitieren.

192 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

x

f(x)+f´+(x)(y−x)f(x)+f´

−(x)(z−x)

f

Abbildung 14.8: Zu Satz 14.71.

Satz 14.70. Ist f : [a, b] → IR konvex in [a, b], so ist f stetig in (a, b) und besitzt

in jedem Punkt x ∈ (a, b) endliche links- und rechtsseitige Ableitungen. f ′− und f ′

+

sind monoton wachsend in (a, b).

Satz 14.71. Ist f : [a, b] → IR konvex, so gilt fur alle x, y ∈ (a, b)

f(y) ≥ f(x) + f ′+(x) (y − x) fur alle y ∈ [x, b],

f(z) ≥ f(x) + f ′−(x) (z − x) fur alle z ∈ [a, x].

Bemerkung 14.72. Ist f differenzierbar in x, so besagen beide Ungleichungen

zusammen, dass die Tangente von f in x unterhalb des Graphen von f liegt. 2

Beweis: (von Satz 14.71.)

Es gilt fur y ≥ w > x mit w =: λx + (1 − λ)y nach Definition 14.64.

f(w) ≤ y − w

y − xf(x) +

w − x

y − xf(y),

und daher

f(y) ≥ f(x) +f(w) − f(x)

w − x(y − x). (14.13)

Hieraus folgt fur w → x + 0

f(y) ≥ f(x) + f ′+(x) (y − x),

wobei die Existenz von f ′+(x) nach Satz 14.70. gesichert ist. Die zweite Ungleichung

erhalt man analog.

14.4. KURVENDISKUSSION 193

Bemerkung 14.73. Unser Wissen, daß Sehnen bei konvexen Funktionen stets

oberhalb des Graphen verlaufen und Tangenten stets unterhalb, konnen wir z.B.

verwenden, um stuckweise lineare Funktionen zu finden, die eine Funktion uberall

einschließen und die damit berechenbare Approximationen mit Fehlerschranken lie-

fern. Bei konkaven Funktionen ist es gerade umgekehrt. Hier liefern die Sehnen die

unteren und die Tangenten die oberen Schranken. Will man eine allgemeine Funktion

einschließen, so benotigt man Informationen, wo eine Funktion den Krummungstyp

wechselt. Solche Punkte heißen Wendepunkte. 2

Definition 14.74. Sei f : [a, b] → IR stetig in x0 ∈ (a, b). Der Punkt x0 heißt

Wendepunkt von f , wenn f in einem Intervall (x0 − ε, x0) konvex und in einem

Intervall (x0, x0 + η) konkav ist oder umgekehrt.

Ist f zweimal stetig differenzierbar in einer Umgebung von x0, so gilt also nach

Satz 14.67. f ′′(x) ≥ 0 fur x ∈ (x0 − ε, x0) und f ′′(x) ≤ 0 fur x ∈ (x0, x0 + η), wegen

der Stetigkeit von f ′′ folgt f ′′(x0) = 0.

Dies ist eine notwendige Bedingung fur einen Wendepunkt. Sie ist aber nicht hin-

reichend, wie das Beispiel f(x) = x4 zeigt. f ist konvex in IR, aber es ist f ′′(0) = 0.

Eine hinreichende Bedingung erhalt man ahnlich wie in Satz 14.61. wieder unter

Benutzung hoherer Ableitungen.

Satz 14.75. (i) (notwendige Bedingung): Sei f zweimal stetig differenzierbar in

einer Umgebung des Wendepunktes x0. Dann gilt f ′′(x0) = 0.

(ii) (hinreichende Bedingung): Es sei n ≥ 3. Die Funktion f sei n-mal stetig dif-

ferenzierbar in einer Umgebung von x0, und es gelte

f (j)(x0) = 0, j = 2, . . . , n − 1, f (n)(x0) 6= 0.

Ist n ungerade, so besitzt f in x0 einen Wendepunkt. Ist n gerade, so ist f im

Falle f (n)(x0) > 0 konvex in einer Umgebung von x0 und im Falle f (n)(x0) < 0

konkav in einer Umgebung von x0.

Beweis: Die notwendige Bedingung haben wir schon gezeigt. Um die hinreichende

Bedingung Teil zu beweisen, wenden wir auf die Funktion g := f ′′ den Taylorschen

194 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

−6 −4 −2 0 2 4 6−6

−4

−2

0

2

4

6

x

f

Abbildung 14.9: f(x) =x4 − 5x2 + 4

x3

Satz an. Mit einem ξ = x0 + θ(x − x0) gilt

f ′′(x) = g(x) =n−3∑

j=0

g(j)(x0)

j!(x − x0)

j +g(n−2)(ξ)

(n − 2)!(x − x0)

n−2

=n−3∑

j=0

f (j+2)(x0)

j!(x − x0)

j +f (n)(ξ)

(n − 2)!(x − x0)

n−2

=f (n)(ξ)

(n − 2)!(x − x0)

n−2.

Wegen der Stetigkeit von f (n) in einer Umgebung von x0 erhalt man hieraus, dass

f ′′ fur ungerades n links und rechts von x0 entgegengesetztes Vorzeichen hat, in x0

also einen Wendepunkt besitzt. Fur gerades n ist f ′′ im Falle f (n)(x0) > 0 nicht

negativ in einer Umgebung von x0, also f dort konvex, und im Falle f (n)(x0) < 0

nicht positiv, also f dort konkav.

Beispiel 14.76. In Beispiel 14.58. gilt

f ′′(x) =−10x2 + 48

x5,

d.h. f ist strikt konvex in (−∞,−√

4.8), strikt konkav in (−√

4.8, 0), strikt konvex in

(0,√

4.8) und strikt konkav in (√

4.8,∞) und besitzt in x7,8 = ±√

4.8 Wendepunkte.

0 ist kein Wendepunkt von f , da f dort nicht definiert ist.

Aus den verschiedenen Punkten der Kurvendiskussion ergibt sich zusammen die

14.5. DER FEHLER DER POLYNOMINTERPOLATION 195

Abbildung 14.9 des Graphen der Funktion

f(x) =x4 − 5x2 + 4

x3. 2

14.5 Der Fehler der Polynominterpolation

Wir haben in Abschnitt 12.1 das Interpolationsproblem mit Polynomen be-

handelt:

Gegeben seien n + 1 Wertepaare (xj, yj) ∈ C2, j = 0, 1, . . . , n, xj paar-

weise verschieden. Bestimme p ∈ Πn mit p(xj) = yj, j = 0, . . . , n.

Dieses Problem ist fur alle Daten eindeutig losbar. Fur die Losung gibt es verschie-

dene Darstellungs- und Berechnungsformen: Wir hatten die Lagrangesche und die

Newtonsche Interpolationsformel behandelt sowie das Verfahren von Neville und

Aitken.

Fruher mußte die Interpolation oft verwendet werden, um aus Tabellenwerten von

Funktionen Naherungswerte fur Funktionen an Argumentstellen zu berechnen, die

nicht in den Tabellen enthalten waren. Wahlt man dazu im Interpolationsproblem

xj-Werte, an denen die Funktion bekannt (tabelliert) ist, und benutzt dann als

yj-Werte die zugehorigen Funktionswerte, so ergibt sich sofort die Frage, wie gut

ein Interpolationspolynom die interpolierte Funktion in von den dann Interpo-

lationsstutzstellen oder Interpolationsknoten genannten xj verschiedenen x-

Werten darzustellen vermag. Das Argument, daß man so etwas nicht mehr brauche,

da die Funktionen ja heute per Rechner verfugbar seien, greift etwas kurz, denn oft

sind die Funktionen (oder jedenfalls erste noch zu verfeinernde Approximationen

davon) auf dem Rechner als Tabellen mit geeigneten Interpolationen implementiert.

Beispiel 14.77. Gegeben sei auf dem Intervall I = [−1, 1] die Funktion

f(x) = sin(πx)

und p8(x) ∈ Π8, das Interpolationspolynom zu den Knoten xi = −1 + i/4 fur

i = 0, . . . , 8. Dann erhalt man die Fehlerkurve in Abbildung 14.10.

Plottet man die Funktion und ihre Interpolation, so kann man den Fehler kaum

sehen. Der auftretende absolute Fehler von der Großenordnung 0.0012 ist schon fur

die meisten Zwecke klein genug. 2

196 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

−1

−0.5

0

0.5

1

x 10−3

Abbildung 14.10: Fehlerkurve (aquidistante Knoten)

Naturlich stellt sich hier die Frage, ob man ein solches Fehlerverhalten voraussa-

gen kann. Und naturlich wird nach leichtem Uberlegen klar, daß man außer dem

Verschwinden der Fehlerfunktion in den Interpolationsstutzstellen keine Aussagen

uber das Fehlerverhalten machen kann, wenn man nicht gewisse Glattheitsannah-

men (d.h. Annahmen uder die Differenzierbarkeit) uber die interpolierte Funktion

macht, mit denen sich das Abbildungsverhalten in den Stutzstellen auf Zwischen-

werte ausdehnen laßt. Eine Voraussetzung, unter der sich die Analyse der Interpo-

lation mit einem Polynom aus Πn gut durchfuhren laßt, ist die (n + 1)-fache stetige

Differenzierbarkeit der zu interpolierenden Funktion im interessierenden Teil ihres

Definitionsbereiches, der die Interpolationsknoten und auch die relevanten Auswer-

tungsstellen enthalt.

Satz 14.78. Sei f ∈ Cn+1[a, b] und seien xi ∈ [a, b], i = 0, . . . , n, paarweise ver-

schiedene Knoten. Dann gilt fur das durch p(xi) = f(xi), i = 0, . . . , n, bestimmte

Polynom p ∈ Πn: Zu jedem x ∈ [a, b] existiert ξ = ξ(x) aus dem kleinsten Intervall

I(x, x0, . . . , xn), das alle xi und x enthalt, so dass

f(x) − p(x) =w(x)

(n + 1)!f (n+1)(ξ), (14.14)

wobei

w(x) =n∏

i=0

(x − xi). (14.15)

Beweis: Fur x = xi, i = 0, . . . , n, ist die Aussage trivial.

Fur festes x 6= xi betrachten wir die Funktion

F (z) := f(z) − p(z) − α w(z) (14.16)

14.5. DER FEHLER DER POLYNOMINTERPOLATION 197

und bestimmen α so, dass F (x) = 0 gilt.

Dann besitzt F in I(x, x0, . . . , xn) wenigstens n + 2 Nullstellen. Nach dem Satz von

Rolle (Satz 14.1.) besitzt F ′ dort wenigstens n+1 Nullstellen, F ′′ wenigstens n Null-

stellen, usw. Schließlich hat F (n+1) mindestens eine Nullstelle ξ ∈ I(x, x0, . . . , xn).

Wegen p ∈ Πn erhalt man aus (14.16)

F (n+1)(ξ) = f (n+1)(ξ) − 0 − α · (n + 1)! = 0.

Hiermit folgt wegen F (x) = 0 aus (14.16) die Behauptung.

Bemerkung 14.79. Fur den Fall der Interpolation mit einer Stutzstelle x0 durch

die konstante Funktion p(x) = f(x0) war das Ergebnis des letzten Satzes als Mittel-

wertsatz

f(x) − f(x0) = f ′(ξ)(x − x0)

schon bekannt. 2

Bemerkung 14.80. Laßt man im Falle der linearen Interpolation

f(x) −(

f(x0) +f(x1) − f(x0)

x1 − x0

(x − x0)

)

=f ′′(ξ)

2!(x − x0)(x − x1)

den Punkt x1 gegen x0 gehen, so geht die Sekante gegen die Tangente in x0 und der

Fehlerterm geht gegen den Fehlerterm dieses Taylorpolynoms erster Ordnung

f(x) − (f(x0) + f ′(x0)(x − x0)) =f ′′(ξ)

2!(x − x0)

2.

Man kann allgemeiner zeigen, daß beim Zusammenlaufen aller n + 1 Punkte des

Interpolationspolynoms aus Satz 14.78. analog das Interpolationspolynom zum n-

ten Taylorpolynom aus Πn wird und das Restglied zum Lagrangeschen Restglied der

Taylorapproximation.

Bei dieser Sicht ist es vielleicht auch einsichtig, weshalb man fur die Fehleranlyse

des Interpolationspolynoms mit n + 1 Stutzstellen gerade f ∈ Cn+1 annimmt. Der

Satz von Taylor sagt dann ja, daß f dann wenigstens lokal gut durch Polynome aus

Πn approximierbar ist. 2

Aus der Fehlerdarstellung von Satz 14.78. erhalt man eine gleichmaßige Abschatzung

fur die Gute der Approximation durch das Interpolationspolynom auf dem ganzen

Intervall [a,b]

‖f − p‖∞ := maxx∈[a,b]

|f(x) − p(x)| ≤ ‖f (n+1)‖∞(n + 1)!

‖w‖∞, (14.17)

198 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

worin die Einflusse der Funktion und der Lage der Interpolationsknoten getrennt

sind.

Am Faktor ‖f (n+1)‖∞ ist normalerweise nicht zu rutteln, da dieser durch die zu

interpolierende Funktion festgelegt ist. In

‖w‖∞ = maxx∈[a,b]

|(x − x0)(x − x1) · · · (x − xn)|

sind aber noch die xi variabel, und die Frage ist naheliegend, wie man sie wahlen

sollte, so daß ‖w‖∞ moglichst klein wird.

Man kann beobachten, daß bei aquidistanten Knoten

xi := a + ib − a

n, i = 0, . . . , n, (14.18)

w stets einen Verlauf wie in Abbildung 14.10 zeigt. w ist im Inneren des Intervalls

relativ klein und neigt am Rand des Intervalls zu großen Ausschlagen, die mit großer

werdendem Interpolationsgrad n immer großer werden. Dies legt die Idee nahe, die

Knoten am Rande des Intervalls dichter zu legen. Als sehr gute Wahl erweisen sich

die sogenannten Tschebyscheff Knoten

xi :=b − a

2· cos

(2i + 1

2n + 2π

)

+a + b

2, i = 0, . . . , n. (14.19)

Zur naheren Untersuchung nehmen wir a = −1 und b = 1 an und betrachten die

Funktionen

Tn(x) := cos(n arccos(x)), −1 ≤ x ≤ 1, n ∈ IN0. (14.20)

Tn ist ein Polynom vom Grade n, das n-te Tschebyscheff Polynom, denn aus

cos((n + 1) z) = 2 · cos z · cos(nz) − cos((n − 1) z)

und aus (14.20) liest man sofort ab, dass gilt

T0(x) ≡ 1, T1(x) = x, Tn+1(x) = 2 · x · Tn(x) − Tn−1(x). (14.21)

Aus dieser Rekursion folgt, dass der Koeffizient bei xn+1 in Tn+1 gleich 2n ist.

Aus (14.20) liest man ab, dass Tn+1 in [−1, 1] genau die Nullstellen xi = cos(

2i+12n+2

π)

,

i = 0, . . . , n, besitzt. Es gilt also mit diesen xi

w(x) =n∏

i=0

(x − xi) = 2−n Tn+1(x)

und

‖w‖∞ = 2−n.

Ferner zeigt (14.20), dass Tn+1 in [−1, 1] genau (n + 2) Extrema besitzt, in denen

abwechselnd die Werte +1 und −1 angenommen werden.

14.5. DER FEHLER DER POLYNOMINTERPOLATION 199

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

−2.5

−2

−1.5

−1

−0.5

0

0.5

1

1.5

2

2.5

x 10−4

Abbildung 14.11: Fehlerkurve (Tschebyscheff-Knoten)

Satz 14.81. Sei w wie in (14.15) definiert. Unter allen Knotenwahlen ist

maxx∈I

|w(x)| = ‖w‖∞

fur die Tschebyscheff-Knoten (14.19) minimal.

Bemerkung 14.82. Wegen Satz 14.81. ist die Abschatzung (14.17) fur die Tsche-

byscheff-Knoten optimal. Hieraus kann man die Empfehlung ableiten, zur Poly-

nominterpolation die Tschebyscheff-Knoten zu verwenden, wenn man eine auf dem

Approximationsintervall gleichmaßig gute Approximation anstrebt. 2

Beweis: (von Satz 14.81.)

Sei

w0(x) :=n∏

i=0

(x − xi)

mit den Tschebyscheff-Knoten xi, i = 0, . . . , n, und sei ξi, i = 0, . . . , n, eine bessere

Knotenwahl, d.h. fur w(x) :=n∏

i=0

(x − ξi) gelte

maxx∈I

|w(x)| < maxx∈I

|w0(x)|. (14.22)

Da w und w0 beide den fuhrenden Koeffizienten 1 besitzen, gilt

p := w − w0 ∈ Πn.

Es seien ηj, j = 0, . . . , n + 1, die der Große nach geordneten Extremwerte von w0 in

[a, b] (η0 = a, ηn+1 = b, η1, . . . , ηn relative Extrema). Dann gilt

w0(ηj) + w0(ηj+1) = 0, j = 0, . . . , n,

200 KAPITEL 14. ANWENDUNGEN DER DIFFERENTIALRECHNUNG

und

|w0(ηj)| = ‖w0‖∞, j = 0, . . . , n + 1.

Wegen (14.22) hat p in den ηj wechselndes Vorzeichen, und daher liegt zwischen ηj

und ηj+1, j = 0, . . . , n, nach dem Zwischenwertsatz eine Nullstelle von p, d.h. p ∈ Πn

hat n + 1 Nullstellen im Widerspruch zu p 6≡ 0.

Beispiel 14.83. Fur Tschebyscheff-Knoten hat die Fehlerkurve in Beispiel 14.77.

die Gestalt in Abbildung 14.11. 2

Kapitel 15

Numerische Losung von

Gleichungen

Wir betrachten in diesem Kapitel 15 das Problem

f(x) = 0 (15.1)

mit einer reellen Funktion f : [a, b] → IR.

Viele praktische Probleme wie z.B. die Bestimmung der Extrema einer differenzier-

baren Funktion oder die Berechnung von Eigenwerten einer Matrix konnen auf das

Nullstellenproblem zuruckgefuhrt werden.

Es ist nur selten moglich, die Losungen von (15.1) in geschlossener Form anzugeben,

sondern man ist meistens auf numerische Verfahren angewiesen.

15.1 Bisektion

Eine sichere (wenn auch langsame) Methode zur Nullstellenbestimmung, die Inter-

vallhalbierungsmethode oder Bisektionsmethode, ist uns schon bekannt (vgl.

Kapitel 11):

Ist f : [a, b] → IR stetig mit f(a) · f(b) < 0, so setze man a0 := a,

b0 := b. Ist [an, bn] ⊂ [a, b] mit f(an) · f(bn) ≤ 0 schon bekannt, so setze

man γ := (an + bn)/2 sowie

[an+1, bn+1] :=

[an, γ], falls f(an) · f(γ) ≤ 0,

[γ, bn], sonst.

202 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 2.8 3

−2

−1.5

−1

−0.5

0

0.5

1

1.5

2

a0

a1

a2

a3

b0

Abbildung 15.1 : regula falsi

Dann enthalt jedes der Intervalle [an, bn] eine Nullstelle x von f und

bn − an =b − a

2n.

Die Konvergenzeigenschaften des Bisektionsverfahrens konnen verbessert werden,

wenn man γ nicht als Mittelpunkt von [an, bn] wahlt, sondern als Schnittpunkt der

Sekante durch (an, f(an)) und (bn, f(bn)) mit der x-Achse. Die Sekante ist

s(x) = f(an) +f(bn) − f(an)

bn − an

(x − an),

und daher gilt

γ := an − bn − an

f(bn) − f(an)f(an).

Hiermit setzen wir

[cn, dn] :=

[an, γ], falls f(an) · f(γ) ≤ 0,

[γ, bn], sonst.

Wahlt man [an+1, bn+1] := [cn, dn] (dies ist die regula falsi), so ist in dem Beispiel

von Abbildung 15.1 klar, dass die Folge {bn} wahrend des ganzen Verfahrens kon-

stant bleibt, und dass die Folge {an} sich von unten der Nullstelle x nahert (und

dieses Verhalten ist bei allen in [a, b] konkaven und monoton fallenden Funktionen

gleich).

Man modifiziert daher das Verfahren in folgender Weise: Wurde die Intervallange

nicht mindestens halbiert, so fuhren wir einen zusatzlichen Bisektionsschritt aus,

15.1. BISEKTION 203

Tabelle 15.1: Einschließung mit der modifizierten regula falsi

an bn

0.000000000 1.0000000000.390101359 0.7802027170.518660169 0.6472189790.569922327 0.6211844850.594532026 0.6191417260.606797436 0.6190628460.612929369 0.6190613020.615995328 0.6190612870.617528307 0.6190612870.618294797 0.6190612870.619061287 0.619061287

an bn

1.000000000 2.0000000001.168615340 1.5843076701.460003711 1.5843076701.506712626 1.5455101481.511875695 1.5286929211.512128340 1.5204106311.512134476 1.5162725531.512134551 1.5142035521.512134552 1.5131690521.512134552 1.5126518021.512134552 1.5123931771.512134552 1.5122638641.512134552 1.5121992081.512134552 1.5121668801.512134552 1.5121507161.512134552 1.512142634

d.h. wir setzen γ := (cn + dn)/2 und hiermit

[an+1, bn+1] :=

[cn, γ], falls f(cn) · f(γ) ≤ 0,

[γ, cn], sonst,

und, falls dn − cn ≤ bn − an

2,

[an+1, bn+1] := [cn, dn].

Das beschriebene Verfahren heißt modifizierte regula falsi . Wie beim Bisekti-

onsverfahren liegt in jedem Intervall [an, bn] eine Nullstelle x von f .

Beispiel 15.1.

f(x) := ex − 3x.

Dann gilt

f(0) = 1 > 0 > f(1) = e − 3,

f(1) = e − 3 < 0 < f(2) = e2 − 6,

und daher besitzt f wenigstens zwei Nullstellen x1 ∈ [0, 1] und x2 ∈ [1, 2].

Dies sind auch alle Nullstellen von f , denn wenn f 3 Nullstellen besaße, so hatte

f ′ nach dem Satz von Rolle zwei Nullstellen und f ′′ eine Nullstelle. Es ist aber

f ′′(x) = ex > 0.

Mit der modifizierten regula falsi

204 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

REPEAT

c := a - h * fa / (fb-fa);

fc := f(c);

IF fb*fc<=0 THEN BEGIN a := c; fa := fc END

ELSE BEGIN b := c; fb := fc END;

IF b-a>h/2 THEN

BEGIN

c := (b+a) / 2;

fc := f(c);

IF fb*fc<=0 THEN BEGIN a := c; fa := fc END

ELSE BEGIN b := c; fb := fc END

END;

WRITELN (a:12:9, b:12:9);

h := b - a

UNTIL h<1E-5;

erhalt man die Einschließungen in Tabelle 15.1. 2

Die beiden betrachteten Verfahren ha-

ben den Vorteil, dass sie eine Fehler-

abschatzung (in Form einer Einschlie-

ßung) mitliefern. Nachteil ist, dass sie

nicht geeignet sind, Nullstellen zu erfas-

sen, in denen die Funktion f nicht das Vor-

zeichen wechselt. (siehe Abbildung 15.2).

Zudem lassen sie sich nicht auf Nullstellen

von Funktionen f : D → IRn, D ⊂ IRn,

ubertragen.

−0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6−0.2

0

0.2

0.4

0.6

0.8

1

1.2

Abbildung 15.2

Definition 15.2. Eine Nullstelle x einer stetigen Funktion f heißt m-fache Null-

stelle (m ∈ IN) oder Nullstelle der Vielfachheit m, falls f geschrieben werden kann

in der Form

f(x) = (x − x)m g(x)

mit einer stetigen Funktion g, fur die g(x) 6= 0 gilt.

Ist f m-mal stetig differenzierbar in einer Umgebung von x, so ist x genau dann

eine m-fache Nullstelle von f , wenn f (j)(x) = 0, j = 0, . . . ,m − 1, und f (m)(x) 6= 0

15.2. FIXPUNKTSATZ FUR KONTRAHIERENDE ABBILDUNGEN 205

gilt, denn nach dem Taylorschen Satz ist

f(x) =m−1∑

j=0

f (j)(x)

j!(x − x)j +

f (m)(ζ)

m!(x − x)m =

f (m)(ζ)

m!(x − x)m,

ζ = x + θx (x− x), und wegen der Stetigkeit von f (m) gilt f (m)(ζ) 6= 0 fur genugend

nahe bei x liegende x.

Fur Nullstellen x gerader Vielfachheit wechselt f bei x nicht das Vorzeichen. Sie

sind also nicht mit der Bisektion oder der regula falsi berechenbar.

15.2 Fixpunktsatz fur kontrahierende

Abbildungen

Eine andere Moglichkeit der Berechnung einer Nullstelle von f ist, die Gleichung

f(x) = 0 in ein Fixpunktproblem

x = φ(x)

zu transformieren und zu iterieren gemaß

xn+1 := φ(xn) (15.2)

mit einem geeigneten Startwert x0.

Konvergiert die so erzeugte Folge {xn} gegen ein x und ist φ stetig in x, so gilt

x = limn→∞xn = lim

n→∞φ(xn−1) = φ(x),

d.h. x ist ein Fixpunkt von φ.

Beispiel 15.3.

f(x) = ex − 3x = 0

kann man auf verschiedene Weisen in ein Fixpunktprobleproblem umformen:

f(x) = 0 ⇐⇒ x =ex

3=: φ1(x),

x > 0 : f(x) = 0 ⇐⇒ x = ln(3x) =: φ2(x),

wobei dies nur die naheliegenden Moglichkeiten sind.

206 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

Tabelle 15.2: konvergente Iterationen

n x(n)

0 0.5000000000000001 0.5495737569000432 0.5775047960523803 0.5938624853204424 0.6036565893924835 0.6095979123272266 0.6132305109196917 0.6154621821393288 0.6168372251292349 0.617685986239335

10 0.61821047663474820 0.61905426105631530 0.61906122865671840 0.61906128625581750 0.619061286731976

n x(n)

0 1.5000000000000001 1.5040773967762742 1.5067919734942283 1.5085951586342344 1.5097911479224635 1.5105836172947386 1.5111083663421647 1.5114556876810328 1.5116855066917729 1.511837546571094

10 1.51193811790908020 1.51213140830089830 1.51213450136680040 1.51213455085323150 1.512134551644969

Tabelle 15.3: nicht konvergente Iterationen

n x(n)

0 1.5130000000000001 1.5134437924571152 1.5141155964562223 1.5151331271213494 1.5166756061667215 1.5190168517047536 1.5225774095747037 1.5280082973104688 1.5363293136331909 1.549166469953075

10 1.56918155562442911 1.60090527634201712 1.65250610588344013 1.74001514500658514 1.89914323654301715 2.22672288847077216 3.08981308813270617 7.32432352765116518 505.582504596351894

n x(n)

0 0.6190000000000001 0.6189622823705692 0.6189013473485893 0.6188028954342344 0.6186438074854975 0.6183866845738806 0.6179709746670187 0.6172984994824768 0.6162097083076809 0.614444350848870

10 0.61157537454059411 0.60689521893515812 0.59921316465058013 0.58647441202577414 0.56498604856821315 0.52765804772791816 0.45930544670593717 0.32057245965835218 −0.039034656328867

Mit der Iteration (15.2) erhalt man die Werte in Tabelle 15.2 fur φ1 (linke Spalte)

bzw. φ2 (rechte Spalte). Startet man die Iteration (15.2) fur φ1 mit dem Startwert

x0 = 1.513 bzw. fur φ2 mit x0 = 0.619, so erhalt man Tabelle 15.3.

Dasselbe ereignet sich (wenn auch nach einer langeren Anlaufphase), wenn man als

Startwert x0 = x2+ε, ε > 0 bzw. x0 = x1−ε, ε > 0, wahlt. Startet man die Iteration

fur φ1 mit x0 = x2 − ε, ε > 0 klein, so erhalt man Konvergenz gegen x1, und fur φ2

mit x0 = x1 + ε, ε > 0 klein, so erhalt man Konvergenz gegen x2. Man kann also

nicht jeden Fixpunkt von φ mit der Iteration (15.2) approximieren. 2

Zur Untersuchung der Eigenschaften der Iteration (15.2) benotigen wir die folgenden

Begriffe, die wir gleich fur allgemeinere Falle definieren.

15.2. FIXPUNKTSATZ FUR KONTRAHIERENDE ABBILDUNGEN 207

Definition 15.4. Sei V ein normierter Raum. φ : D → V , D ⊂ V , heißt

Lipschitz-stetig auf D, wenn es eine Konstante L, die Lipschitz-Konstante

von φ, gibt mit

‖φ(x) − φ(y)‖ ≤ L ‖x − y‖

fur alle x,y ∈ D.

Ist φ Lipschitz-stetig mit einer Lipschitz-Konstanten L < 1, so heißt φ kontrahie-

rend auf D, und L heißt die Kontraktionskonstante.

Bemerkung 15.5. Offenbar ist jede Lipschitz-stetige Funktion φ auch gleichmaßig

stetig auf D, denn fur ε > 0 gilt mit δ := ε/L fur alle x,y ∈ D mit ‖x − y‖ < δ

‖φ(x) − φ(y)‖ ≤ L ‖x − y‖ < Lδ = ε.

2

Bemerkung 15.6. Die Kontraktionsbedingung besagt, dass unter der Abbildung

φ Abstande von Punkten aus D gleichmaßig wenigstens um den Faktor L verkurzt

werden. 2

Bemerkung 15.7. Fur den Fall V = IRn folgt aus der Aquivalenz der Normen,

dass der Begriff “Lipschitz-stetig” unabhangig von der gewahlten Norm ist. Fur

den Begriff “kontrahierend” gilt dies nicht. Es gibt z.B. Funktionen, die bzgl. ‖ · ‖1

kontrahierend sind und bzgl. ‖ · ‖∞ nicht. Wir kommen darauf in Abschnitt 24.1

zuruck. 2

Bemerkung 15.8. Ist V = IR, D ein Intervall und φ differenzierbar in D, so gilt

nach dem Mittelwertsatz φ(x)−φ(y) = φ′(ξ) (x−y)fur ein ξ zwischen x und y. Ist also

φ′ beschrankt auf D, so ist φ Lipschitz-stetig auf D mit der Lipschitz-Konstanten

L := sup{|φ′(x)| : x ∈ D}.

2

Bemerkung 15.9. Ist A ∈ IR(n,n), b ∈ IRn und φ(x) := Ax+ b, so gilt fur alle x,

y ∈ IRn

‖φ(x) − φ(y)‖ = ‖Ax + b − Ay − b‖ ≤ ‖A‖ · ‖x − y‖.

φ ist also Lipschitz-stetig mit der Lipschitz-Konstanten L = ‖A‖ fur jede Vektor-

norm ‖·‖ und zugehorige Matrixnorm ‖A‖. 2

208 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

Satz 15.10. (Fixpunktsatz fur kontrahierende Abbildungen)

Es sei I := [a, b] ein abgeschlossenes Intervall, φ eine kontrahierende Abbildung auf

I mit der Lipschitz-Konstanten q ∈ [0, 1) und φ(I) ⊂ I.

Dann gilt

(i) φ hat genau einen Fixpunkt x ∈ I.

(ii) Fur jeden Startwert x0 ∈ I konvergiert die durch xn+1 := φ(xn) definierte

Folge gegen x.

(iii) Es gelten die Fehlerabschatzungen

|x − xn| ≤ qn

1−q|x1 − x0| (a priori),

|x − xn| ≤ q1−q

|xn − xn−1| (a posteriori),

Beweis: Die Existenz eines Fixpunktes zeigen wir konstruktiv:

Sei x0 ∈ I beliebig gewahlt. Wegen φ(I) ⊂ I ist dann die Folge {xn}, xn+1 := φ(xn),

definiert und {xn} ⊂ I.

Aus

|xn+1 − xn| = |φ(xn) − φ(xn−1)| ≤ q |xn − xn−1|

erhalt man durch Induktion fur alle k ∈ IN

|xn+k − xn+k−1| ≤ qk |xn − xn−1|,

und daher

|xn+m − xn| = |m∑

k=1

(xn+k − xn+k−1)|

≤m∑

k=1

|xn+k − xn+k−1| ≤m∑

k=1

qk |xn − xn−1|

≤ q |xn − xn−1|m−1∑

k=0

qk ≤ q

1 − q|xn − xn−1|

≤ qn

1 − q|x1 − x0| −→ 0. (15.3)

Nach dem Cauchyschen Konvergenzkriterium ist {xn} konvergent gegen ein x, da I

abgeschlossen ist, gilt x ∈ I, und wegen der Stetigkeit von φ ist x ein Fixpunkt von

φ.

15.2. FIXPUNKTSATZ FUR KONTRAHIERENDE ABBILDUNGEN 209

x ist der einzige Fixpunkt von φ in I, denn ist x ein beliebiger Fixpunkt von φ in I,

so gilt

|x − x| = |φ(x) − φ(x)| ≤ q |x − x|,

d.h. 0 ≤ (1 − q) |x − x| ≤ 0, und wegen q < 1 folgt x = x.

Die Fehlerabschatzungen (iii) erhalt man unmittelbar aus (15.3) mit m → ∞.

Bemerkung 15.11. Der Fixpunktsatz bleibt auch fur Abbildungen φ : D → D,

(D ⊂ V , V ein normierter Vektorraum) richtig, falls

(i) V ein Banachraum ist, d.h. jede Cauchy-Folge einen Grenzwert besitzt (also

z.B. fur V = IRn) und

(ii) fur jede konvergente Folge {xm} ⊂ D auch der Grenzwert x = limm→∞ xm in

D liegt. Eine Menge mit dieser Eigenschaft heißt abgeschlossen (in IRn sind

z.B. verallgemeinerte Intervalle des Typs

[a, b] := {x ∈ IRn : ai ≤ xi ≤ bi, i = 1, . . . , n}

oder Kugeln des Typs

K := {x ∈ IRn : ‖x − x‖ ≤ r}

aber auch der ganze Raum IRn abgeschlossen). 2

Bemerkung 15.12. Die Ungleichung (15.3) zeigt, dass die a posteriori Abschat-

zung bessere Fehlerschranken liefert als die a priori Abschatzung. Die a priori Ab-

schatzung wird vor allem dazu benutzt, nach nur einer Iteration eine obere Schranke

fur die Anzahl der Iterationen zu bestimmen, die benotigt werden, um einen Fix-

punkt x von φ mit einer vorgegebenen Genauigkeit ε > 0 zu berechnen.

Es gilt ja

|x − xn| ≤qn

1 − q|x1 − x0| ≤ ε, falls n ≥

ln(

ε (1−q)|x1−x0|

)

ln q.

Die a posteriori Abschatzung kann benutzt werden, um wahrend der Rechnung die

Gute der Naherung zu kontrollieren. 2

210 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

Tabelle 15.4: Fixpunktiteration mit Abschatzung

n x(n) a priori a posteriori Fehler

0 0.5000000000000001 0.877582561890373 2.00E + 00 2.00E + 00 1.38E − 012 0.639012494165259 1.69E + 00 1.27E + 00 1.00E − 013 0.802685100682335 1.42E + 00 8.69E − 01 6.36E − 024 0.694778026788006 1.19E + 00 5.73E − 01 4.43E − 025 0.768195831282016 1.00E + 00 3.90E − 01 2.91E − 026 0.719165445942419 8.46E − 01 2.60E − 01 1.99E − 027 0.752355759421527 7.12E − 01 1.76E − 01 1.33E − 028 0.730081063137823 5.99E − 01 1.18E − 01 9.00E − 039 0.745120341351440 5.04E − 01 7.98E − 02 6.04E − 03

10 0.735006309014843 4.24E − 01 5.37E − 02 4.08E − 0320 0.739006779780813 7.55E − 02 1.03E − 03 7.84E − 0530 0.739083626103480 1.34E − 02 1.99E − 05 1.51E − 0640 0.739085104225471 2.39E − 03 3.82E − 07 2.90E − 0842 0.739085120060997 2.01E − 03 1.73E − 07 1.31E − 0843 0.739085142075963 1.69E − 03 1.17E − 07 8.86E − 0949 0.739085134042973 5.06E − 04 1.09E − 08 8.28E − 1050 0.739085132657536 4.25E − 04 7.35E − 09 5.58E − 10

Beispiel 15.13. φ(x) := cos x, I := [0, 1].

Da φ monoton fallend in [0, 1] ist, folgt aus φ(0) = 1 ∈ I und φ(1) = 0.54 ∈ I, dass

φ(I) ⊂ I gilt.

φ ist kontrahierend auf I mit der Kontraktionskonstanten q = 0.85, denn

maxx∈I

|φ′(x)| = maxx∈I

| sin x| = sin 1 ≤ 0.85 =: q.

Wir setzen uns das Ziel, den Fixpunkt x von φ mit einem absoluten Fehler von

hochstens 10−8 zu bestimmen. Mit der a priori Schranke erhalten wir (vgl. Bemer-

kung 15.12.) wegen

ln(

10−8·(1−q)|x1−x0|

)

ln q≈ 119.03,

dass nach 120 Iterationen dieses Ziel sicher erreicht ist.

Tabelle 15.4 enthalt die Iterierten, die a priori und a posteriori Schranken des Fehlers

und den tatsachlichen Fehler. Dieser ist bereits nach 43 Schritten kleiner als 10−8.

Die a posteriori Schranken garantieren dies nach 50 Schritten und liefern damit einen

wesentlich realistischeren Wert als die a priori Schranken. 2

Bemerkung 15.14. Satz 15.10. bleibt nicht richtig, wenn man die Kontraktions-

bedingung abschwacht zu |φ(x) − φ(y)| < |x − y| fur alle x, y ∈ I, x 6= y, denn fur

die abgeschlossene Menge I := [0,∞) und φ(x) := x + e−x gilt φ(I) ⊂ I und

|φ(x) − φ(y)| = |φ′(ξ) (x − y)| = |(1 − e−ξ) (x − y)| < |x − y|,

15.2. FIXPUNKTSATZ FUR KONTRAHIERENDE ABBILDUNGEN 211

aber φ besitzt keinen Fixpunkt in I. Man benotigt also, dass Abstande von Punkten

unter der Abbildung φ gleichmaßig verkurzt werden. 2

Es ist haufig schwierig, insbesondere bei der Anwendung auf Funktionen von mehre-

ren Veranderlichen, eine geeignete Menge D zu finden, die durch φ in sich abgebildet

wird. Hilfreich hierbei ist Satz 15.15.

Satz 15.15. Es gebe eine Kugel

K := {x ∈ IRn : ‖y − x‖ ≤ r}

auf der φ kontrahierend ist mit der Konstanten q, und es gelte

‖φ(y) − y‖ ≤ (1 − q) r.

Dann besitzt φ genau einen Fixpunkt x ∈ K, die durch xn+1 := φ(xn) definierte Fol-

ge konvergiert fur jeden Startwert x0 ∈ K gegen x, und es gilt die Fehlerabschatzung

‖xn − x‖ ≤ q

1 − q‖xn − xn−1‖ ≤ qn

1 − q‖x1 − x0‖.

Beweis: Wir haben nur zu zeigen, dass φ(K) ⊂ K gilt. Fur x ∈ K ist

‖φ(x) − y‖ ≤ ‖φ(x) − φ(y)‖ + ‖φ(y) − y‖≤ q ‖x − y‖ + r (1 − q) ≤ r q + r (1 − q) = r,

d.h. φ(K) = K.

Wir haben bereits gesehen, dass man nicht jeden Fixpunkt x von φ mit der Iteration

xn+1 := φ(xn) erreichen kann.

Definition 15.16. Ein Fixpunkt x von φ : D → V , D ⊂ V , heißt anziehend,

wenn die Fixpunktiteration fur jeden genugend nahe bei x liegenden Startwert x0

gegen x konvergiert (d.h. es gibt ein ε > 0, so dass ‖x0 − x‖ ≤ ε, xn+1 := φ(xn),

zur Folge hat limn→∞xn = x); er heißt abstoßend, wenn es eine Kugel gibt mit

dem Mittelpunkt x, so dass fur jeden Startwert x0 6= x aus dieser Kugel die Fix-

punktiteration aus der Kugel herausfuhrt (d.h. es gibt ein ε > 0, so dass zu jedem

x0 ∈ V mit ‖x0 − x‖ < ε, x0 6= x, ein m ∈ IN existiert mit ‖xm − x‖ ≥ ε, wobei

xn+1 := φ(xn)).

212 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

0 0.5 1 1.5 2

0

0.5

1

1.5

2

x0

x0

x1

x1x

2x

2x

3

−0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6−0.2

0

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

x0

x1x

2x

3x4

Abbildung 15.3 : Fixpunktiteration bei anziehenden Fixpunkten

0 0.5 1 1.5 2

0

0.5

1

1.5

2

x0x

0x

1x1

x2

x3

0 0.5 1 1.5 2

0

0.5

1

1.5

2

x0

x1 x

2x

3x

4

Abbildung 15.4 : Fixpunktiteration bei abstoßenden Fixpunkten

Die beiden Bilder in Abbildung 15.3 zeigen den Verlauf der Iteration im Falle eines

anziehenden Fixpunktes, die in Abbildung 15.4 im Falle eines abstoßenden Fixpunk-

tes.

Im Falle einer stetig differenzierbaren reellen Funktion φ : I → IR ist ein Fixpunkt

x anziehend, falls |φ′(x)| < 1 gilt, denn zu ε > 0 mit |φ′(x)| + ε =: q < 1 gibt es ein

δ > 0 mit

|φ′(x)| ≤ |φ′(x)| + |φ′(x) − φ′(x)| ≤ |φ′(x)| + ε = q < 1

fur alle x ∈ [x−δ, x+δ] =: J , d.h. φ ist kontrahierend auf J , und wegen |x−φ(x)| =

0 ≤ (1 − q) δ wird J nach Satz 15.15. durch φ in sich abgebildet.

15.2. FIXPUNKTSATZ FUR KONTRAHIERENDE ABBILDUNGEN 213

Ist |φ′(x)| > 1, so gibt es ein Intervall J := [x − r, x + r] mit

|φ′(x)| ≥ |φ′(x)| − |φ′(x) − φ′(x)| ≥ L > 1

fur alle x ∈ J , und daher gilt fur x ∈ J mit einem ξ = x + θ (x − x)

|x − φ(x)| = |φ(x) − φ(x)| = |φ′(ξ)| · |x − x| ≥ L |x − x|,

und es folgt, dass x abstoßend ist.

Ist |φ′(x)| = 1, so kann x anziehend oder abstoßend oder keines von beiden sein.

Dies zeigen die folgenden Beispiele:

Beispiel 15.17.

φ(x) := x − x3

besitzt den Fixpunkt x = 0 mit φ′(x) = 1. x ist anziehend, denn fur xk ∈ (−1, 0)

gilt

xk+1 = φ(xk) = xk(1 − x2k) ∈ (xk, 0).

Die Folge {xk} ist fur x0 ∈ (−1, 0) also monoton wachsend und nach oben be-

schrankt, und daher konvergent. Wegen der Stetigkeit von φ ist der Grenzwert

x ∈ (x0, 1] ein Fixpunkt von φ, und daher gilt x = x = 0.

Genauso ist fur x0 ∈ (0, 1) die Folge {xk} ⊂ (0, x0) monoton fallend und nach unten

beschrankt, woraus wieder limk→∞ φ(xk) = 0 folgt. Damit ist x ein anziehender

Fixpunkt. 2

Beispiel 15.18.

φ(x) := x + x3

besitzt den abstoßenden Fixpunkt x = 0 mit φ′(x) = 1, denn fur xk ∈ (−∞, 0) gilt

xk+1 = φ(xk) = xk(1 + x2k) < xk,

und fur xk > 0 ist xk+1 = xk(1+x2k) > xk. In jedem Fall entfernen sich die Iterierten

also vom Fixpunkt x = 0. 2

Beispiel 15.19. Der Fixpunkt x = 0 von

φ(x) := x + x2

mit φ′(x) = 1 ist weder anziehend noch abstoßend, denn fur x0 ∈ (−1, 0) konvergiert

die Folge {xk} wie in Beispiel 15.17. monoton gegen x, und fur x0 > 0 wachst die

Folge {xk} uber alle Grenzen. 2

214 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

Tabelle 15.5: Newton Verfahren, f(x) = cos(x)

n x(n)

0 1.5000000000000001 1.5709148443026522 1.5707963267943423 1.5707963267948974 1.570796326794897

15.3 Newton Verfahren

Wir kehren nun zum Nullstellenproblem

(15.1)

f(x) = 0

mit einer differenzierbaren Funktion f :

[a, b] → IR zuruck.

Es sei x0 eine Naherung fur eine Nullstelle x

von f . Wir ersetzen dann die Funktion durch

ihre lineare Approximation in x0:

f(x) = f(x0) + f ′(x0) (x − x0).

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

0

0.5

1

1.5

2

x0x

1x

2

Abbildung 15.5

Gilt f ′(x0) 6= 0, so besitzt die Ersatzfunktion f genau eine Nullstelle

x1 = x0 −f(x0)

f ′(x0),

die wir als neue Naherung fur x auffassen.

Wiederholt man diesen Schritt iterativ mit xn an Stelle von x0, so erhalt man das

Newton Verfahren

xn+1 := xn − f(xn)

f ′(xn). (15.4)

Bemerkung 15.20. Ist f ein Polynom vom Grade m, so kann man f und f ′ mit

dem erweiterten Horner Schema berechnen. Man benotigt also in jedem Schritt des

Newton Verfahrens 2m Multiplikationen. 2

Beispiel 15.21. Berechneπ

2als kleinste Nullstelle von f(x) = cos x mit dem New-

ton Verfahren (siehe Tabelle 15.5)

xn+1 := xn +cos xn

sin xn

.

2

15.3. NEWTON VERFAHREN 215

Tabelle 15.6: Newton Verfahren,f(x) = x/(x2 + 1)

n xn, x0 = 0.5 xn, x0 = 1.1

0 0.500000000000000 1.1000000000000001 −0.333333333333333 12.6761904761904762 0.083333333333333 25.5111451014809993 −0.001165501165501 51.1008079556698804 0.000000003166421 102.240769229607682

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1−0.5

−0.4

−0.3

−0.2

−0.1

0

0.1

0.2

0.3

0.4

0.5

x2n

x2n+1

Abbildung 15.6 : Beispiel 15.23.

Beispiel 15.22. f(x) :=x

x2 + 1hat die eindeutige Nullstelle x = 0. Mit dem

Startwert x0 = 0.5 konvergiert das Newton Verfahren sehr rasch (siehe Tabelle 15.6),

mit dem Startwert x0 = 1.1 erhalt man uneigentliche Konvergenz gegen ∞ (und dies

gilt fur jeden Startwert x0 > 1). 2

Beispiel 15.23. Fur f(x) = x3 − x lautet das Newton Verfahren

xn+1 :=2x3

n

3x2n − 1

.

Mit x0 :=1√5

erhalt man xn = (−1)n 1√5

(siehe Abbildung 15.6). 2

An den Beispielen sieht man, dass fur das Newton Verfahren keine globale Konver-

genz zu erwarten ist, nicht einmal dann, wenn f , wie in Beispiel 15.22., genau eine

Nullstelle hat.

Das Newton Verfahren kann geschrieben werden als

xn+1 = φ(xn), n ∈ IN0,

216 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

wenn man

φ(x) := x − f(x)

f ′(x)

setzt.

φ ist auf D := {x ∈ [a, b] : f ′(x) 6= 0} definiert, und die Nullstellen von f in D sind

genau die Fixpunkte von φ in D.

Wendet man den Fixpunktsatz fur kontrahierende Abbildungen (Satz 15.10.) auf

dieses φ an, so erhalt man Satz 15.24.

Satz 15.24. Es sei f : I → IR zweimal stetig differenzierbar und x eine einfache

Nullstelle von f . Dann gibt es ein r > 0, so dass das Newton Verfahren fur alle

Startwerte x0 ∈ I mit |x − x0| ≤ r gegen x konvergiert.

Beweis: x ist Fixpunkt von φ(x) := x− f(x)

f ′(x). Wegen f ′(x) 6= 0 gilt f ′(x) 6= 0 fur

alle x ∈ J := [x − ρ, x + ρ] mit einem geeigneten ρ > 0 (f ′ ist stetig!). Daher ist φ

in J definiert und stetig differenzierbar mit

φ′(x) =f(x) f ′′(x)

(f ′(x))2,

d.h. φ′(x) = 0, und x ist anziehender Fixpunkt von φ.

Satz 15.24. ist ein typischer lokaler Konvergenzsatz: Wenn der Startwert x0 nur

genugend nahe an der Losung liegt (|x − x0| ≤ r), so konvergiert das Verfahren.

Uber die Große von r wird nichts ausgesagt.

Aus den Abschatzungen von Satz 15.10. folgt, dass der Fehler beim Newton Verfah-

ren wie eine geometrische Folge gegen 0 geht. Tatsachlich gilt nach dem Taylorschen

Satz

|xn+1 − x| =∣∣∣∣xn − f(xn)

f ′(xn)− x

∣∣∣∣ = |f(x) − f(xn) − f ′(xn) (x − xn)

f ′(xn)

∣∣∣∣

=1

2

∣∣∣∣

f ′′(ξn)

f ′(xn)(x − xn)2

∣∣∣∣, ξn = x + θn (x − xn), θn ∈ (0, 1).

Da fur ε > 0 ein genugend kleines r > 0 existiert, so daß

|f ′(x)| ≥ 1

2|f ′(x)|, |f ′′(x)| ≤ ε + |f ′′(x)|

fur alle x mit |x − x| ≤ r gilt, erhalt man

|xn+1 − x| ≤ |f ′′(x)| + ε

|f ′(x)| |x − xn|2 =: C |x − xn|2.

15.3. NEWTON VERFAHREN 217

Bis auf die multiplikative Konstante C wird also der Fehler beim Newton Verfahren

von Schritt zu Schritt quadriert, was die rasche Konvergenz des Verfahrens erklart.

Um die Konvergenzgeschwindigkeit von Folgen zu vergleichen, fuhren wir den fol-

genden Begriff ein:

Definition 15.25. Sei {xn} eine Folge in dem normierten Raum V mit limn→∞xn =

x. Die Folge {xn} konvergiert von wenigstens der Ordnung p ∈ [1,∞), wenn es eine

Konstante C > 0 gibt mit

‖x − xn+1‖ ≤ C · ‖x − xn‖p fur alle n.

Ist p = 1, so fordern wir zusatzlich C < 1.

Das maximale p mit dieser Eigenschaft heißt die Konvergenzordnung der Folge.

Ein Iterationsverfahren hat die Konvergenzordnung p, wenn jede mit ihm erzeugte,

konvergente Folge die Konvergenzordnung p hat.

Eine Folge konvergiert linear, falls p = 1 ist, superlinear , falls p > 1 gilt, und

quadratisch im Falle p = 2.

Die durch Satz 15.10. erfassten Verfahren konvergieren wenigstens linear, das New-

ton Verfahren konvergiert lokal quadratisch gegen einfache Nullstellen von f .

Ist x eine mehrfache Nullstelle von f , so konvergiert das Newton Verfahren immer

noch lokal, aber nur linear, also wie vom Fixpunktsatz fur kontrahierende Abbil-

dungen (Satz 15.10.) vorhergesagt. Genauer gilt Satz 15.26.

Satz 15.26. Ist f : [a, b] → IR (k + 3)-mal stetig differenzierbar, und besitzt f

eine Nullstelle x der Vielfachheit k ≥ 2, so konvergiert das Verfahren

xn+1 := xn − αf(xn)

f ′(xn)(15.5)

fur alle α ∈ (0, 2k) lokal linear gegen x. Fur α = k ist die Konvergenz sogar qua-

dratisch.

Beweis: Es ist f(x) = (x − x)k g(x), wobei g(x) 6= 0 gilt und g dreimal stetig

differenzierbar ist. Hiermit kann man die Iterationsvorschrift (15.5) schreiben als

xn+1 = φ(xn),

φ(x) = x − α(x − x) g(x)

k g(x) + (x − x) g′(x).

218 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

Tabelle 15.7: Newton Verfahren

n Newton fur f (15.5) mit α = 3 Newton fur g

0 1.000000000000000 1.000000000000000 1.0000000000000001 0.655145072042431 −0.034564783872708 0.0647933188462812 0.433590368363493 0.000001376571625 0.0000181320674813 0.288148400892501 −0.000000000000233 0.000000000000034

φ ist sicher in einer Umgebung von x definiert und differenzierbar, und es gilt mit

h(x) := k g(x) + (x − x) g′(x)

φ′(x) = 1 − αh(x)

(

g(x) + (x − x) g′(x))

− (x − x) g(x) h′(x)

(h(x))2,

d.h.

φ′(x) = 1 − αh(x) g(x)

(h(x))2= 1 − α

k.

Fur α ∈ (0, 2k) gilt |φ′(x)| < 1, und x ist ein anziehender Fixpunkt von φ.

Im Falle α = k gilt φ′(x) = 0, und die quadratische Konvergenz folgt aus dem

Taylorschen Satz

|xn+1 − x| = |φ(xn) − φ(x)| = |12

φ′′(ξn) (xn − x)2|.

Im allgemeinen ist die Vielfachheit einer Nullstelle nicht bekannt. Ist x eine k-fache

Nullstelle von f , so ist x eine (k − 1)-fache Nullstelle von f ′, und daher hat

g(x) :=f(x)

f ′(x)

die einfache Nullstelle x. Das Newton Verfahren fur g konvergiert quadratisch.

Beispiel 15.27. Fur die dreifache Nullstelle x = 0 von

f(x) = sin x − x

erhalt man Tabelle 15.7. 2

Da die Berechnung der Ableitung f ′(x) oft aufwendig ist, ersetzt man im Newton

Verfahren f ′(xn) durch f ′(x0) (berechnet also die Ableitung nur im Startwert x0).

Man erhalt dann das vereinfachte Newton Verfahren

xn+1 := xn − f(xn)

f ′(x0). (15.6)

Hierfur gilt der folgende Konvergenzsatz

15.3. NEWTON VERFAHREN 219

Satz 15.28. Ist f : [a, b] → IR stetig differenzierbar und x ∈ (a, b) eine einfache

Nullstelle von f, so gibt es ein r > 0, so dass das vereinfachte Newton Verfahren

(15.6) fur alle x0 ∈ [x − r, x + r] gegen x konvergiert. Die Konvergenz ist linear.

Beweis: Wir wenden Satz 15.15. fur festes x0 ∈ Ir : = [x− r, x+ r] und geeignetes

r > 0 auf die Iterationsfunktion

φ(x; x0) : = x − f(x)

f ′(x0)

an.

Wegen φ(x; x0) = x muss das Intervall Ir nur so klein gewahlt werden, dass fur jedes

x0 ∈ Ir die Funktion φ(·; x0) : Ir → IR kontrahierend auf Ir ist, d.h. so dass fur ein

q ∈ [0, 1)

maxx∈Ir

|1 − f ′(x)

f ′(x0)| ≤ q

gilt. Dass diese Wahl von r moglich ist, folgt aus der Stetigkeit der Funktion ψ(x, x0) :

= 1 − f ′(x)

f ′(x0)in einer Umgebung des Punktes (x, x) und ψ(x, x) = 0.

Eine andere Moglichkeit,ein ableitungsfreies Verfahren zu entwickeln, ist, die Ablei-

tung f ′(xn) durch den Differenzenquotienten

f(xn) − f(xn−1)

xn − xn−1

zu ersetzen. Man erhalt dann das Sekantenverfahren

xn+1 := xn − xn − xn−1

f(xn) − f(xn−1)f(xn).

Wie das Newton Verfahren konvergiert

das Sekantenverfahren lokal, d.h. wenn

die Startwerte x0, x1 genugend nahe bei

der Nullstelle x gewahlt wurden, falls die

Nullstelle einfach ist.

Man kann zeigen, dass das Sekantenver-

fahren die Konvergenzordnung p = (1 +√5)/2 = 1.618 besitzt, also superlinear

konvergiert (vgl. Stoer [20, S. 265]). Da−0.5 0 0.5 1 1.5 2 2.5−1

−0.5

0

0.5

1

1.5

2

2.5

x0

x1

x2

x3

x4

x5

fig7

220 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

das Sekantenverfahren nur eine Funktionsauswertung in jedem Schritt benotigt (aus

dem vorhergehenden Schritt ist f(xn−1) ja bekannt) und keine Auswertung der Ab-

leitung, ist es effizienter als das Newton Verfahren. Vergleicht man namlich |xn+2−x|mit |xn−x| (der Aufwand beim Ubergang von xn zu xn+2 mit dem Sekantenverfahren

entspricht dem Aufwand eines Newton-Schrittes), so erhalt man

|xn+2 − x| ≤ C |xn+1 − x|p ≤ Cp+1 |xn − x|p2

,

also ein Verfahren der Ordnung p2 = (3 +√

5)/2 = 2.618.

Wir fragen nun nach Abbruchkriterien fur die behandelten Verfahren. Im Falle der

Bisektion, der regula falsi und der Fixpunktiteration (mit bekannter Kontraktions-

konstante) kann man den Fehler in jedem Iterationsschritt leicht berechnen. Beim

Newton Verfahren oder Sekantenverfahren ist dies nicht der Fall.

Naheliegend ist, die Iteration abzubre-

chen, wenn der Zuwachs |xn − xn−1| un-

terhalb einer vorgegebenen Toleranz tolx

liegt. Die nebenstehende Skizze zeigt, dass

auch bei kleinem tolx der Funktionswert

f(xn) in der letzten Naherung xn noch

sehr weit von 0 entfernt sein kann, wenn

|xn − xn−1| < tolx gilt. Dies ist fur das

Newton Verfahren z.B. dann der Fall,

wenn |f ′(xn)| wesentlich großer als |f(xn)|ist.

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

Abbildung 15.8

Eine andere Moglichkeit ist, die Iteration abzubrechen, wenn |f(xn)| < tolf bei

gegebener Toleranz tolf > 0 gilt. Die letzte Skizze zeigt, dass auch in diesem Fall

beim Abbruch der Fehler |xn − x| noch sehr groß sein kann.

Zu empfehlen ist, die beiden Kriterien zu kombinieren, d.h. zu iterieren gemaß

ff := f (x);

REPEAT

h := ff / fx (x);

x := x - h;

ff := f (x)

UNTIL (ABS (h) < tolx) AND (ABS (ff) < tolf);

15.4. ITERATIVE METHODEN FUR LINEARE SYSTEME 221

Aber auch hierzu kann man Beispiele konstruieren, bei denen der Fehler beim Ab-

bruch noch sehr groß ist.

15.4 Iterative Methoden fur lineare Systeme

Abschließend in diesem Kapitel 15 betrachten wir noch einmal das lineare Glei-

chungssystem

Ax = b (15.7)

mit regularem A ∈ IR(m,m) und b ∈ IRm.

Zur numerischen Behandlung haben wir bereits das Gaußsche Eliminationsverfahren

(LR-Zerlegung) und die QR-Zerlegung sowie fur symmetrisches, positiv definites A

die Cholesky Zerlegung kennengelernt, die einen Aufwand von 13m3 bzw. 2

3m3 bzw.

16m3 Operationen und m2 Speicherplatzen erfordern.

In den Anwendungen (z.B. bei elektrischen Netzwerken oder bei Berechnungen mit

Finiten Elementen in der Festigkeitslehre) treten Gleichungssysteme mit mehreren

tausend Variablen auf. Auch wenn die Koeffizientenmatrizen in diesen Fallen oft

dunn besetzt sind (d.h. sehr viele Nullen enthalten) und die oben genannten direkten

Verfahren so modifiziert werden konnen, dass die spezielle Struktur genutzt wird,

bleibt der Aufwand und der Speicherplatzbedarf viel zu hoch.

In dieser Situation werden iterative Verfahren verwendet:

Es sei A ∈ IR(m,m) eine Approximation der Matrix A. Dann ist die

Gleichung (15.7) aquivalent zu

Ax = (A − A)x + b,

d.h.

x = A−1

(A − A)x + A−1

b =: Mx + g =: φ(x). (15.8)

Wir haben bereits gesehen, dass die Abbildung φ auf IRm kontrahierend ist bzgl. einer

Vektornorm ‖·‖, wenn fur die zugehorige Matrixnorm ‖M‖ < 1 gilt. In diesem Fall

konvergiert fur jeden Startwert x0 ∈ IRm die Iteration

xn+1 = Mxn + g

222 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

gegen den einzigen Fixpunkt x von φ, d.h. die eindeutige Losung x von (15.7), und

es gilt die Fehlerabschatzung

‖x − xn‖ ≤ ‖M‖1 − ‖M‖ ‖xn − xn−1‖. (15.9)

Zur Durchfuhrung der Iteration wird man naturlich nicht M = A−1

(A − A) be-

rechnen, also A−1

bestimmen (diese Matrix ist ubrigens auch bei dunnbesetzem A

haufig voll besetzt), sondern man wird in jedem Schritt das lineare Gleichungssystem

A xn+1 = (A − A) xn + b, n = 0, 1, 2, . . .

losen. Man wird daher bei der Konstruktion von Iterationsverfahren nur Approxima-

tionen A fur A verwenden, fur die das lineare Gleichungssystem Ay = c, c ∈ IRm

gegeben, leicht losbar ist.

Es sei

L = (lij)i,j, lij :=

aij, fur i > j,

0, fur i ≤ j,

R = (rij)i,j, rij :=

0, fur i ≥ j,

ai,j, fur i < j,

D := A − L − R = diag (a11, . . . , amm).

Dann wird A haufig auf folgende Art gewahlt:

(i): A = D: Gesamtschrittverfahren, Jacobi Iteration:

In diesem Fall lautet die Iterationsvorschrift

xn+1 = −D−1(L + R)xn + D−1b,

oder komponentenweise

xn+1i =

1

aii

(bi −m∑

j =1

j 6= i

aijxnj ), i = 1, . . . ,m.

Fur die Berechnung der neuen Naherungen xn+1i von xi benotigt man also so viele

Multiplikationen wie von Null verschiedene Elemente in der i-ten Zeile von A stehen.

Sind im Mittel k Elemente in den Zeilen von A besetzt, so benotigt man fur einen

Schritt der Jacobi Iteration m k Multiplikationen. Typisch fur diskrete Versionen

von Randwertaufgaben zweiter Ordnung ist k = 5.

15.4. ITERATIVE METHODEN FUR LINEARE SYSTEME 223

Das Gesamtschrittverfahren konvergiert, falls das starke Zeilensummenkriteri-

um erfullt ist:m∑

j =1

j 6= i

|aij| < |aii|, i = 1, . . . ,m.

In dem Fall gilt namlich fur die Zeilensummennorm der Iterationsmatrix M =

D−1(D − A)

‖M‖∞ = maxi=1,...,m

m∑

j=1

|mij| = maxi=1,...,m

m∑

j =1

j 6= i

| − aij

aii

| < 1,

und man kann die Fehlerabschatzung (15.9) mit der Maximumnorm verwenden.

Man kann zeigen, dass das Gesamtschrittverfahren ebenfalls konvergiert, wenn das

starke Spaltensummenkriterium

m∑

i=1i 6=j

|aij| < |ajj|, j = 1, . . . ,m

erfullt ist.

(ii): A = L + D: Einzelschrittverfahren , Gauß-Seidel Verfahren .

Die Iterationsvorschrift

xn+1 = −(D + L)−1Rxn + (D + L)−1b

lautet komponentenweise

xn+1i =

1

aii

(

−i−1∑

j=1

aijxn+1j −

m∑

j=i+1

aijxnj + bi

)

= xni +

1

aii

(

bi −i−1∑

j=1

aijxn+1j −

m∑

j=i

aijxnj

)

.

Im Unterschied zum Gesamtschrittverfahren werden also die bereits berechneten

verbesserten Naherungen xn+11 , . . . , xn+1

i−1 bei der Bestimmung von xn+1i schon ver-

wendet.

Der Aufwand fur jeden Iterationsschritt ist wie beim Gesamtschrittverfahren k m

Multiplikationen.

Die Konvergenzuntersuchungen sind schwieriger als beim Gesamtschrittverfahren.

Man kann zeigen (vgl. Stoer, Bulirsch [21, p. 233]), dass das Einzelschrittverfahren

konvergiert, falls das starke Zeilensummenkriterium erfullt ist. Es gilt die Faustregel,

224 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

dass das Einzelschrittverfahren schneller konvergiert als das Gesamtschrittverfahren.

Diese lasst sich fur symmetrische, positiv definite Matrizen A auch beweisen, ist aber

i.a. falsch.

(iii): A = 1ωD + L: Relaxationsverfahren (SOR Verfahren)

Die Iterationsvorschrift

xn+1 =( 1

ωD + L

)−1(

1

ω

(

(1 − ω)D − ωR)

xn + b

)

lautet komponentenweise

xn+1i = xn

i +ω

aii

(

bi −i−1∑

j=1

aij xn+1j −

m∑

j=i

aij xnj

)

, i = 1, . . . ,m,

es wird also der Zuwachs xn+1i − xn

i des Einzelschrittverfahrens mit der reellen Zahl

ω multipliziert.

Man kann zeigen, dass das Relaxationsverfahren fur symmetrisches, positiv definites

A fur alle ω ∈ (0, 2) konvergiert. Durch geeignete Wahl von ω kann die Konvergenz

gegenuber dem Einzelschrittverfahren (ω = 1) erheblich beschleunigt werden.

15.5 Berechnung von Eigenwerten

Wir kommen nun zu einem einfachen Verfahren zur Bestimmung des betragsmaxi-

malen Eigenwerts einer Matrix.

Es sei A ∈ IR(n,n) diagonalisierbar, d.h. es gebe n linear unabhangigige Eigenvektoren

u1, . . . ,un mit zugehorigen Eigenwerten λ1, . . . , λn.

Wir ordnen die λi dem Betrage nach an und nehmen an, dass A einen betragsma-

ximalen Eigenwert besitzt:

|λ1| > |λ2| ≥ . . . ≥ |λn|.

Ist x0 ∈ IRn \ {0} gegeben, x0 =n∑

i=1αiu

i, so gilt

x1 := Ax0 =n∑

i=1

αiAui =n∑

i=1

αiλiui.

Definiert man die Folge {xm}, m = 0, 1, . . ., rekursiv durch xm+1 := Axm, so erhalt

man genauso

xm =n∑

i=1

αiλmi ui = λm

1

(

α1u1 +

n∑

i=2

αi

( λi

λ1

)mui

)

.

15.5. BERECHNUNG VON EIGENWERTEN 225

Tabelle 15.8: von Mises Verfahren

m xm1 xm

2 xm3 xm

4 R(xm)

1 0.7071 0.0000 0.0000 0.7071 2.00002 0.6325 −0.3162 −0.3162 0.6325 2.60003 0.6063 −0.3638 −0.3638 0.6063 2.61764 0.6022 −0.3706 −0.3706 0.6022 2.61802575 0.6016 −0.3716 −0.3716 0.6016 2.61803386 0.6015 −0.3717 −0.3717 0.6015 2.6180339857 0.6015 −0.3717 −0.3717 0.6015 2.618033988

Wegen∣∣∣λi

λ1

∣∣∣ < 1, i = 2, . . . , n, konvergiert die Summe

n∑

i=2

αi

( λi

λ1

)mui gegen 0.

Ist α1 6= 0, hat also der Startvektor x0 eine Komponente in Richtung von u1, so

”konvergiert“ die erzeugte Folge {xm} gegen einen Eigenvektor von A zum betrags-

maximalen Eigenwert λ1.

Gilt |λ1| 6= 1, so erhalt man fur große m Exponentenuber- oder -unterlauf. Man wird

also die Folge {xm} noch normieren und erhalt die Potenzmethode oder das von

Mises Verfahren :

Sei x0 ∈ IRn; bestimme fur m = 0, 1, 2, . . . Vektoren xm+1 :=Axm

‖Axm‖ .

Als Naherung fur einen Eigenwert wahlt man, wenn A symmetrisch ist, den Rayleigh

Quotienten R(xm); im allgemeinen Fall nimmt man den Quotienten(Axm)j

xmj

fur ein

j ∈ {1, . . . , n}, das u1j 6= 0 erfullt.

Beispiel 15.29.

A =

2 −1 0 0−1 2 −1 00 −1 2 −10 0 −1 2

.

Mit dem Startvektor x0 := (1, 1, 1, 1)T erhalt man die Naherungen der Tabelle 15.8

Startet man mit x0 = (0.154, 0.515, 0.681, 0.401)T (dieser Startwert wurde mit einem

Zufallszahlengenerator erzeugt), so erhalt man die Naherungen in Tabelle 15.9

Tatsachlich ist der maximale Eigenwert von A

λ1 = 2 (1 + cosπ

5) = 3.61803398874989.

Fur den ersten Startwert x0 = (1, 1, 1, 1)T gilt in der Entwicklung x0 =4∑

i=1αiu

i:

α1 = 0, und daher konvergiert xm gegen den Eigenvektor zum zweiten Eigenwert

λ2 = 2 (1 + cos2π

5) = 2.61803398874989.

226 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

Tabelle 15.9: von Mises Verfahren

m xm1 xm

2 xm3 xm

4 R(xm)

1 0.2422 0.7799 0.4000 −0.4161 1.33122 −0.1819 0.5649 0.2686 −0.7587 2.30963 −0.3899 0.4379 0.3069 −0.7497 2.5328. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10 −0.3462 0.0368 0.6146 −0.7079 2.850420 0.3279 −0.5734 0.6265 −0.4137 3.612930 0.3701 −0.6005 0.6026 −0.3734 3.61802640 0.3717 −0.6015 0.6015 −0.3718 3.618033976

Tabelle 15.10: von Mises Verfahren

m R(xm)

80 2.6180339887501390 2.61803398890

100 2.61803408110 2.618096120 2.6569130 3.5811140 3.6179150 3.618033896160 3.618033988607170 3.61803398874967

Auf dem Rechner wird durch Rundungsfehler eine Komponente in Richtung von u1

erzeugt. Setzt man die erste Iteration fort, so erhalt man

R(x30) = R(x40) = R(x50) = R(x60) = R(x70) = 2.61803398874989

(dies ist der Eigenvektor λ2 im Rahmen der Rechengenauigkeit unter Turbo Pas-

cal 6.0). Danach liefert das von Mises Verfahren weiter die Naherungen aus Ta-

belle 15.10 also doch noch Konvergenz gegen den Eigenvektor zum maximalen

Eigenwert. 2

Hat man (z.B. mit der Potenzmethode) einen Eigenvektor u1 bestimmt, so kann

man u1 zu einer orthogonalen Matrix U = (u1,v2, . . . ,vn) erganzen. Dann besitzt

B := U−1AU = UT AU

die Gestalt B =

(

λ1 bT

0 C

)

, wobei C ∈ IR(n−1,n−1) die Eigenwerte λ2, . . . , λn besitzt.

Auf C kann man wieder die Potenzmethode anwenden.

Diesen Prozess (Deflation) kann man wiederholen, um weitere Eigenvektoren und

Eigenwerte zu bestimmen.

Die Potenzmethode konvergiert linear, d.h.

‖xm+1 − u1‖ ≤ q‖xm − u1‖ mit q =∣∣∣λ2

λ1

∣∣∣;

15.5. BERECHNUNG VON EIGENWERTEN 227

Tabelle 15.11: Inverse Iteration

m xm1 xm

2 xm3 xm

4 R(xm)

1 −0.0067 −0.1477 −0.2367 −0.0914 0.66442 −0.0205 0.0698 0.3869 −0.0377 1.86253 −0.2568 0.5730 −0.1066 0.5806 3.47454 0.7989 −1.4099 1.6015 −1.0133 3.61065 −0.9338 1.5471 −1.5950 1.0007 3.6157246 0.9631 −1.5684 1.5808 −0.9821 3.617995917 −0.9705 1.5731 −1.5764 0.9758 3.618031098 0.9725 −1.5743 1.5752 −0.9740 3.61803376789 −0.9730 1.5746 −1.5749 0.9735 3.6180339718

10 0.9732 −1.5747 1.5748 −0.9733 3.618033987460

liegen also λ1 und λ2 dem Betrage nach sehr nahe beieinander, so ist die Konvergenz

sehr langsam.

Die Konvergenz kann wesentlich verbessert werden, wenn man die inverse Itera-

tion verwendet, d.h. xm+1 bestimmt aus dem linearen Gleichungssystem

(A − λ(m)E) xm+1 = xm,

wobei λ(m) eine Naherung fur einen Eigenwert von A ist. Dies entspricht (bei festem

λ(m)) der Potenzmethode fur die Matrix (A − λ(m)E)−1, die dieselben Eigenvek-

toren wie A hat und die Eigenwerte1

λi − λ(m). Ist λ(m) eine gute Naherung fur

z.B. λ1, so ist1

λ1 − λ(m)betragsmaximaler Eigenwert von (A − λ(m)E)−1, und die

Konvergenzrate der Potenzmethode ist

maxi=2,...,m

∣∣∣λ1 − λ(m)

λi − λ(m)

∣∣∣,

und diese kann sehr klein sein.

Wahlt man in Beispiel 15.29. den Startvektor x0 := (0.154 , 0.515 , 0.681 , 0.401)T

und λ(m) = 4 (dies ist nach dem Satz von Gerschgorin eine obere Schranke fur den

maximalen Eigenwert λ1, so dass man garantierte Konvergenz gegen λ1 erhalt), so

erhalt man mit der inversen Iteration die Naherungen der Tabelle 15.11

Man beachte, dass man bei der obigen Variante in den Schritten lineare Gleichungs-

systeme zu losen hat, deren Koeffizientenmatrizen A−λ(m)E identisch sind, wahrend

die rechten Seiten im vorhergehenden Schritt erzeugt. Man kann also hier mit Ge-

winn die LR-Zerlegung einsetzen.

Iteriert man λ(m) mit, so kann man sogar ein quadratisch oder bei symmetrischen

Matrizen ein kubisch konvergentes Verfahren erhalten. Der Preis ist, dass man in je-

dem Schritt ein lineares Gleichungssystem losen muss, wobei die Koeffizientenmatrix

sich von Schritt zu Schritt verandert.

228 KAPITEL 15. NUMERISCHE LOSUNG VON GLEICHUNGEN

Tabelle 15.12: Inverse Iteration; variabler Shift

m xm1 xm

2 xm3 xm

4 R(xm)

4 −2.6597 4.1098 −3.8196 2.3022 3.61555 −14.4140 23.3269 −23.3308 14.4207 3.61803397266 3.618033988749895

Wechselt man in der letzten Iteration nach dem dritten Schritt zu der inversen

Iteration mit λ(m) = R(xm−1), so erhalt man die Naherungen der Tabelle 15.12

Der wohl gebrauchlichste Algorithmus zur Berechnung von Eigenwerten von Matri-

zen ist der QR Algorithmus (Francis, Kublanovskaja 1961/62), dessen Grundform

auf der folgenden Iteration basiert:

Es sei A0 := A. Im k-ten Schritt des Algorithmus fuhre man eine QR

Zerlegung von Ak−1 durch, d.h. man bestimme wie in Kapitel 7 eine

orthogonale Matrix Qk−1 und eine obere Dreiecksmatrix Rk−1 mit

Ak−1 = Qk−1Rk−1,

und setze dann

Ak = Rk−1Qk−1.

Wegen Rk−1 = QTk−1Ak−1 gilt dann Ak = QT

k−1Ak−1Qk−1 und durch Induktion

Ak = (Q1 · · ·Qk−1)T A (Q1 · · ·Qk−1),

d.h. alle auftretenden Matrizen sind der Ausgangsmatrix A ahnlich und haben daher

dieselben Eigenwerte wie A.

Man kann zeigen, dass unter sehr allgemeinen Bedingungen an A die Diagonalele-

mente von Ak gegen die Eigenwerte von A konvergieren.

In der Praxis wird der QR Algorithmus nicht auf A angewendet, sondern es wird

zunachst A durch eine orthogonale Ahnlichkeitstransformation auf obere Hessen-

berg Gestalt gebracht, d.h. B = QT AQ (Q orthogonal, B so, dass bij = 0 fur

i ≥ j − 2). Diese Gestalt bleibt wahrend des QR Algorithmus erhalten. Ferner

wird der Algorithmus durch eine Shift Strategie (vgl. inverse Iteration) erheblich

beschleunigt.

Kapitel 16

Das bestimmte Riemannsche

Integral

16.1 Definition des Riemann Integrals

Wir betrachten in diesem Kapitel 16 das Problem der Berechnung von Flachenin-

halten. Dabei beschranken wir uns auf Flachen des Typs

F := {(x, y) : a ≤ x ≤ b, 0 ≤ y ≤ f(x)},

die links und rechts durch Parallelen zur y-Achse und oben und unten durch den

Graphen einer beschrankten, nichtnegativen Funktion f : [a, b] → IR und die x-

Achse begrenzt werden. Kompliziertere Flachen kann man haufig aus Flachen dieses

Typs zusammensetzen.

Zur Definition des Flacheninhalts zerlegen wir die Flache in schmale Streifen, erset-

zen in jedem Streifen die Flache durch ein approximierendes Rechteck und berech-

nen die Rechteckflachen elementargeometrisch als”Lange mal Breite“ (siehe Abbil-

dung 16.1). Existiert bei Verfeinerung der Zerlegung in Rechtecke der Grenzwert und

ist der Grenzwert unabhangig von der speziell gewahlten Folge von Zerlegungen, so

definieren wir den Flacheninhalt als diesen Grenzwert.

Definition 16.1. Eine endliche Teilmenge Z := {xi : i = 0, . . . , n} ⊂ [a, b] heißt

Zerlegung von [a, b], wenn gilt

a = x0 < x1 < . . . < xn−1 < xn = b.

230 KAPITEL 16. DAS BESTIMMTE RIEMANNSCHE INTEGRAL

0 0.5 1 1.5 2 2.5

0

0.5

1

1.5

2

2.5

3

x1

x0

x2

x3

x4

x5

x6 x

7

m1

m2

m3

m4

m5

m6

m7

M1

M2

M3

M4

M5

M6

M7

Abbildung 16.1 : Riemannsches Integral

Wir bezeichnen mit ∆xi := xi − xi−1 die Lange des i-ten Teilintervalls der Zerle-

gung und nennen die maximale Intervallange |Z| := maxi=1,...,n

∆xi die Feinheit der

Zerlegung Z.

Es sei mi := inf{f(x) : x ∈ [xi−1, xi]}, Mi := sup{f(x) : x ∈ [xi−1, xi]} das Infimum

bzw. Supremum von f im i-ten Teilintervall. Dann schließen die Rechteckflachen

UZ(f) :=∑n

i=1 mi ∆xi (Untersumme von f bzgl. Z),

OZ(f) :=∑n

i=1 Mi ∆xi (Obersumme von f bzgl. Z),

den Flacheninhalt von F ein.

Die Ober- und Untersummen haben die folgenden Eigenschaften:

Satz 16.2.

(i) UZ(f) ≤ OZ(f) fur jede Zerlegung Z von [a, b].

(ii) Ist Z1 eine Verfeinerung von Z2, d.h. Z1 ⊃ Z2, so gilt UZ1(f) ≥ UZ2(f),

OZ1(f) ≤ OZ2(f).

(iii) UZ1(f) ≤ OZ2(f) fur alle Zerlegungen Z1, Z2 von [a, b].

16.1. DEFINITION DES RIEMANN INTEGRALS 231

Beweis: (i): folgt aus mi ≤ Mi fur alle i = 1, . . . , n.

(ii): Wird im Intervall (xi−1, xi) der Zerlegung Z2 ein neuer Knoten x′ gewahlt, so

gilt

mi∆xi ≤ (x′ − xi−1) inf{f(x) : x ∈ [xi−1, x′]} + (xi − x′) inf{f(x) : x ∈ [x′, xi]},

und daher fur die Zerlegung

Z ′ : a = x0 < . . . < xi−1 < x′ < xi < . . . < xn = b

UZ′(f) ≥ UZ2(f), und genauso OZ′(f) ≤ OZ2(f).

Da Z1 aus Z2 durch Hinzufugen von endlich vielen Knoten entsteht, erhalt man (mit

einem trivialen Induktionsbeweis) die Behauptung.

(iii): Die Zerlegung Z3 := Z1 ∪Z2 ist eine gemeinsame Verfeinerung von Z1 und Z2.

Daher folgt aus (i) und (ii)

UZ1(f) ≤ UZ3(f) ≤ OZ3(f) ≤ OZ2(f).

Wegen (iii) existieren supZ UZ(f) und infZ OZ(f) und sind nach Konstruktion eine

untere bzw. obere Schranke fur den Inhalt der Flache unterhalb des Graphen von

f . Stimmen beide Schranken uberein, so wird man den gemeinsamen Wert als den

gesuchten Flacheninhalt ansehen.

Die obigen Uberlegungen ergeben auch

einen Sinn, wenn f auch negative Wer-

te annehmen kann. Man erhalt dann

als gemeinsamen Wert des Supremums

der UZ(f) und des Infimums der OZ(f)

die Differenz der Flachen oberhalb und

unterhalb der x-Achse. Wir verzich-

ten von nun an auf die Forderung der

Nichtnegativitat von f . 0 0.5 1 1.5 2 2.5 3 3.5 4 4.5

−8

−6

−4

−2

0

2

4

6

8

a b

+ +

Abbildung 16.2

232 KAPITEL 16. DAS BESTIMMTE RIEMANNSCHE INTEGRAL

Definition 16.3. Es sei f : [a, b] → IR eine beschrankte Funktion.

(i)b∫

a∗f(x) dx := sup{UZ(f) : Z ist Zerlegung von [a, b]} heißt Unterintergral

von f uber [a, b].

(ii)b∫

a

∗f(x) dx := inf{OZ(f) : Z ist Zerlegung von [a, b]} heißt Oberintegral von

f uber [a, b].

(iii) Stimmen das Ober- und Unterintegral von f uber [a, b] uberein, so heißt f

integrierbar uber [a, b], und der gemeinsame Wert

b∫

a

f(x) dx :=

b∫

a∗f(x) dx =

b∫

a

∗f(x) dx

heißt das Integral von f uber [a, b].

Bemerkung 16.4. Das hier eingefuhrte Integral heißt Riemann Integral . Es

gibt allgemeinere Integralbegriffe wie das Lebesgue Integral, das schonere Eigen-

schaften besitzt, fur dessen Einfuhrung aber ein wesentlich großerer Begriffsapparat

erforderlich ist. 2

Beispiel 16.5. f : [0, 1] → IR,

f(x) :=

1, falls x rational,

0, falls x irrational.

Ist Z eine beliebige Zerlegung von [0, 1], so liegen in jedem Intervall [xi−1, xi] sowohl

rationale als auch irrationale Zahlen, und daher gilt mi = 0 und Mi = 1, d.h.

OZ(f) = 1 und UZ(f) = 0. Es gilt also

1∫

0∗f(x) dx = 0,

1∫

0

∗f(x) dx = 1,

und f ist nicht integrierbar. 2

Beispiel 16.6. f : [0, 1] → IR, f(x) := x2.

Wegen der Monotonie von f gilt fur jede Zerlegung Z von [0, 1]

UZ(f) =n∑

i=1

x2i−1 (xi − xi−1), OZ(f) =

n∑

i=1

x2i (xi − xi−1),

16.2. INTEGRIERBARKEITSKRITERIEN 233

und daher

OZ(f) − UZ(f) =n∑

i=1

(x2i − x2

i−1) (xi − xi−1) =n∑

i=1

(xi−1 + xi) (∆xi)2

≤ 2 ·n∑

i=1

(∆xi)2 ≤ 2 |Z|

n∑

i=1

∆xi = 2 |Z|.

Ist also {Zn} eine Folge von Zerlegungen mit limn→∞ |Zn| = 0, so folgt

0 ≤1∫

0

∗f(x) dx −

1∫

0∗f(x) dx ≤ OZn

(f) − UZn(f) ≤ 2 |Zn| → 0,

und f ist integrierbar.

Ferner gilt1∫

0f(x) dx = lim

n→∞OZn(f) fur jede Folge {Zn} mit lim

n→∞ |Zn| = 0. Wahlt

man speziell die aquidistanten Zerlegungen Zn mit den Zerlegungspunkten

x(n)i =

i

n, i = 0, . . . , n,

so erhalt man

OZn=

n∑

i=1

( i

n

)2 · 1

n=

1

n3

n∑

i=1

i2 =n (n + 1) (2n + 1)

6n3→ 1

3,

d.h.

1∫

0

x2 dx =1

3. 2

16.2 Integrierbarkeitskriterien

Die Definition der Integrierbarkeit ist etwas unhandlich. Wir leiten in diesem Ab-

schnitt Charakterisierungen der integrierbaren Funktionen her, die fur die folgenden

Untersuchungen geeigneter sind.

Satz 16.7. (Riemannsches Integrabilitatskriterium)

Sei f : [a, b] → IR eine beschrankte Funktion.

f ist genau dann integrierbar uber [a, b], wenn es fur jedes ε > 0 eine Zerlegung Z

des Intervalls [a, b] gibt, so dass

OZ(f) − UZ(f) < ε.

234 KAPITEL 16. DAS BESTIMMTE RIEMANNSCHE INTEGRAL

Beweis: Ist f integrierbar uber [a, b], so gibt es zu jedem ε > 0 Zerlegungen Z1

und Z2 von [a, b] mit

0 ≤b∫

a

f(x) dx − UZ1(f) =

b∫

a∗f(x) dx − UZ1(f) <

ε

2,

0 ≤ OZ2(f) −b∫

a

f(x) dx = OZ2(f) −b∫

a

∗f(x) dx <

ε

2,

und durch Addition erhalt man

0 ≤ OZ2(f) − UZ1(f) < ε.

Ist Z eine gemeinsame Verfeinerung von Z1 und Z2, so folgt

0 ≤ OZ(f) − UZ(f) ≤ OZ2(f) − UZ1(f) < ε.

Die Umkehrung folgt unmittelbar aus der Definition des Supremums und des Infi-

mums.

Die folgende Charakterisierung der Integrierbarkeit ist insbesondere bei der Ubertra-

gung von Begriffen, die fur diskrete Systeme erklart sind, auf kontinuierliche Systeme

von Bedeutung. Beispiele behandeln wir in Kapitel 20.

Definition 16.8. Es sei f : [a, b] → IR beschrankt, Z : = {xj : j = 0, . . . , n} eine

Zerlegung und ξj ∈ [xj−1, xj] fest gewahlt. Dann heißt

RZ(f) : =n∑

j=1

f(ξj)(xj − xj−1)

eine Riemann Summe von f zur Zerlegung Z.

Satz 16.9. (Riemann Summen)

Es sei f : [a, b] → IR eine beschrankte Funktion.

f ist genau dann integrierbar uber [a, b], wenn fur jede Folge von Zerlegungen Zk :

= {x(k)j : j = 0, . . . , nk} von [a, b] mit |Zk| → 0 fur k → ∞ und jede Auswahl von

Zwischenpunkten ξ(k)j ∈ [x

(k)j−1, x

(k)j ], j = 1, . . . , nk, die Folge der Riemann Summen

RZk(f) : =

nk∑

j=1

f(ξ(k)j )(x

(k)j − x

(k)j−1)

konvergiert. Ist f integrierbar uber [a, b], so konvergiert jede dieser Folgen gegen das

Integral

I(f) : =

b∫

a

f(x) dx.

16.2. INTEGRIERBARKEITSKRITERIEN 235

Beweis: Es sei f integrierbar uber [a, b], Zk eine Folge von Zerlegungen von [a, b]

mit |Zk| → 0 fur k → ∞ und {RZk(f)} eine zugehorige Folge von Riemann Summen.

Es sei ε > 0 vorgegeben. Dann gibt es nach dem Riemannschen Integrabilitats-

kriterium (Satz 16.7. ) eine Zerlegung Z : = {xi : i = 1, . . . , n} von [a, b] mit

OZ(f) − I(f) < ε.

Wir zerlegen die Riemann Summen in RZk= : R′

k + R′′k, wobei R′

k diejenigen Sum-

manden f(ξ(k)j )(x

(k)j − x

(k)j−1) aus RZk

(f) enthalt, fur die das Intervall [x(k)j−1, x

(k)j ] in

einem der Intervalle [xi−1, xi] der Zerlegung Z enthalten ist, und R′′k die ubrigen

Summanden, fur die die Endpunkte des Intervalls [x(k)j−1, x

(k)j ] in zwei verschiedenen

Intervallen der Zerlegung Z liegen.

Dann gilt sicher R′k ≤ OZ(f) und, da R′′

k hochstens n Summanden enthalt, |R′′k| ≤

n|Zk|supx∈[a,b]|f(x)| → 0 fur k → ∞.

Man kann also k0 so groß wahlen, dass

RZk(f) − I(f) = R′′

k + R′k − OZ(f) + OZ(f) − I(f) < 2ε

fur alle k > k0 gilt. Da man mit Hilfe einer geeigneten Untersumme UZ(f) genauso

RZk(f) − I(f) > 2ε erhalt, ist die Konvergenz der RZk

(f) gegen I(f) gezeigt.

Wir nehmen nun an, dass fur jede Zerlegungsfolge Zk von [a, b] mit |Zk| → 0 fur

k → ∞ und jede Auswahl von Zwischenpunkten die Folge der Riemann Sum-

men konvergiert. Dann haben alle Folgen dieses Typs denselben Grenzwert R (sind

namlich Rk(f) und Sk(f) Folgen von Riemann Summen mit verschiedenen Grenz-

werten, so konvergiert die Folge Tk(f), T2k(f) := Rk(f), T2k+1(f) := Sk(f), nicht).

Es sei Zk eine Folge von Zerlegungen von [a, b] mit |Zk| → 0 fur k → ∞. Dann gibt

es zu jedem k ∈ IN Punkte ξ(k)j ∈ [x

(k)j−1, x

(k)j ], j = 1, . . . , nk, so dass fur die zugehorige

Riemann Summe RZk(f) die Ungleichung OZk

(f)−RZk(f) < 1

kgilt (man muss nur

ξ(k)j so wahlen, dass f(ξ

(k)j ) genugend nahe bei sup{f(x) : x ∈ [x

(k)j−1, x

(k)j ]} liegt).

Mit dieser Wahl erhalt man

limk→∞

OZk(f) = lim

k→∞RZk

(f) = R.

Genauso kann man limk→∞ UZk(f) = R zeigen, und daher ist f integrierbar uber

[a, b] undb∫

af(x) dx = R.

236 KAPITEL 16. DAS BESTIMMTE RIEMANNSCHE INTEGRAL

16.3 Klassen integrierbarer Funktionen

Satz 16.10. Jede auf [a, b] stetige Funktion f ist integrierbar uber [a, b].

Beweis: Als stetige Funktion auf dem abgeschlossenen Intervall [a, b] ist f nach

Satz 11.41. sogar gleichmaßig stetig, d.h. fur alle η > 0 existiert ein δ > 0, so dass

fur alle x, y ∈ [a, b] mit |x − y| < δ

|f(x) − f(y)| < η.

Es sei η := ε/(b − a), δ wie oben gewahlt und

Z : a = x0 < x1 < . . . < xn = b

eine Zerlegung mit |Z| < δ.

Wegen der Stetigkeit von f gibt es ξi, ζi ∈ [xi−1, xi] mit mi = f(ξi) und Mi = f(ζi),

und es folgt

OZ(f) − UZ(f) =n∑

i=1

(Mi − mi) ∆xi =n∑

i=1

(

f(ζi) − f(ξi))

∆xi

≤ ηn∑

i=1

∆xi = η (b − a) = ε,

und nach dem Riemannschen Kriterium ist f integrierbar.

Aus Satz 16.10. folgt, dass alle Polynome, sin, cos und exp uber jedes endliche

Intervall integrierbar sind und dass rationale Funktionen und die in Kapitel 12 be-

trachteten elementaren Funktionen uber jedes abgeschlossene Intervall in ihrem De-

finitionsbereich integrierbar sind.

Wir kommen nun zu einer weiteren Klasse integrierbarer Funktionen:

Definition 16.11. Die beschrankte Funktion f : [a, b] → IR heißt von beschrank-

ter Variation (Schwankung), wenn es eine Konstante K ≥ 0 gibt, so dass fur alle

Zerlegungen Z von [a, b] gilt

V (f ; Z) :=n∑

i=1

(Mi − mi) ≤ K.

Mi − mi = sup{f(x) : xi−1 ≤ x ≤ xi} − inf{f(x) : xi−1 ≤ x ≤ xi} misst die

Schwankung von f in dem Teilintervall [xi−1, xi],

V (f) := sup{V (f ; Z) : Z ist Zerlegung von [a, b]}

ist also die Gesamtschwankung von f in [a, b].

16.3. KLASSEN INTEGRIERBARER FUNKTIONEN 237

Bemerkung 16.12. Ist f : [a, b] → IR monoton und beschrankt, so ist f von

beschrankter Variation, denn ist f z.B. monoton wachsend, so gilt fur jede Zerlegung

Z

Mi−1 ≤ mi, i = 1, . . . , n,

und daher

V (f ; Z) =n∑

i=1

(Mi − mi) ≤ Mn − m1 = f(b) − f(a) = V (f).

2

Bemerkung 16.13. Nicht jede auf [a, b] stetige Funktion ist von beschrankter

Variation, denn wahlt man fur die auf [0, 2π] stetige Funktion

f(x) := x sin1

x, x ∈ (0,

2

π], f(0) := 0,

die Zerlegung Zn mit den Teilpunkten 0,2

πund

2

(2i − 1) π, i = 1, . . . , n, so gilt

V (f ; Z) ≥n−1∑

i=1

∣∣∣∣

2

(2i − 1) πsin(

2i − 1

2π) − 2

(2i + 1) πsin(

2i + 1

2π)

∣∣∣∣

=n−1∑

i=1

( 2

(2i − 1) π+

2

(2i + 1) π

)

=2

π

n−1∑

i=1

( 1

2i − 1+

1

2i + 1

)

→ ∞

fur n → ∞. 2

Bemerkung 16.14. Ist f : [a, b] → IR differenzierbar und f ′ beschrankt, so ist f

von beschrankter Variation, denn sei |f ′(x)| ≤ M fur alle x ∈ [a, b]. Dann gilt fur

jede Zerlegung Z von [a, b] mit ξi und ζi wie im Beweis von Satz 16.10.

V (f ; Z) =n∑

i=1

(

f(ζi) − f(ξi))

=n∑

i=1

|f ′(ζi + θi (ξi − ζi))| (xi − xi−1)

≤ Mn∑

i=1

(xi − xi−1) = M (b − a).

2

Satz 16.15. Ist f : [a, b] → IR von beschrankter Variation, so ist f integrierbar

uber [a, b]. Insbesondere ist jede auf [a, b] monotone Funktion integrierbar uber [a, b].

Beweis: Es sei Zn die aquidistante Zerlegung von [a, b] mit den Teilpunkten xi =

a + ib − a

n, i = 0, . . . , n. Dann gilt fur die zugehorigen Ober- und Untersummen

OZn(f) − UZn

(f) =n∑

i=1

(Mi − mi)b − a

n≤ V (f) · b − a

n→ 0

fur n → ∞, und aus Satz 16.7. folgt die Integrierbarkeit von f .

238 KAPITEL 16. DAS BESTIMMTE RIEMANNSCHE INTEGRAL

16.4 Rechenregeln

Satz 16.16. Es seien f, g : [a, b] → IR integrierbar, und es sei λ ∈ IR. Dann sind

auch f + g und λ · f und f · g integrierbar, und es gilt

(i)b∫

a(f(x) + g(x)) dx =

b∫

af(x) dx +

b∫

ag(x) dx.

(ii)b∫

a(λ f)(x) dx = λ

b∫

af(x) dx.

(iii) Gilt f(x) ≤ g(x) fur alle x ∈ [a, b], so folgt

b∫

a

f(x) dx ≤b∫

a

g(x) dx.

Bemerkung 16.17. Satz 16.16. besagt, dass die Menge I aller uber [a, b] integrier-

baren Funktionen ein Vektorraum ist und dass durch

b∫

a

: I → IR

eine lineare Abbildung definiert wird, die wegen (iii) monoton ist. 2

Beweis: (von Satz 16.16.)

(i): Da f und g integrierbar sind, gibt es zu ε > 0 Zerlegungen Z1 und Z2 mit

OZ1(f) − UZ1(f) <ε

2, OZ2(g) − UZ2(g) <

ε

2.

Ist Z eine gemeinsame Verfeinerung der Zerlegungen Z1 und Z2 mit den Zerlegungs-

punkten a = x0 < x1 < . . . < xn = b, so gilt wegen

Mi(f + g) ≤ Mi(f) + Mi(g),

mi(f + g) ≥ mi(f) + mi(g) :(16.1)

OZ(f + g) − UZ(f + g) =n∑

i=1

(

Mi(f + g) − mi(f + g))

∆xi

≤n∑

i=1

(

Mi(f) + Mi(g) − mi(f) − mi(g))

∆xi

=n∑

i=1

(

Mi(f) − mi(f))

∆xi +n∑

i=1

(

Mi(g) − mi(g))

∆xi

= OZ(f) − UZ(f) + OZ(g) − UZ(g)

≤ OZ1(f) − UZ1(f) + OZ2(g) − UZ2(g) < ε,

16.4. RECHENREGELN 239

und nach Satz 16.7. ist f + g integrierbar.

Fur jede Zerlegung Z von [a, b] gilt nach Definition

UZ(f) + UZ(g) ≤b∫

a

f(x) dx +

b∫

a

g(x) dx ≤ OZ(f) + OZ(g),

und nach (16.1)

UZ(f) + UZ(g) ≤b∫

a

(f(x) + g(x)) dx ≤ OZ(f) + OZ(g),

und da die Differenz OZ(f)+OZ(g)−UZ(f)−UZ(g) beliebig klein gemacht werden

kann, folgtb∫

a

f(x) dx +

b∫

a

g(x) dx =

b∫

a

(f(x) + g(x)) dx.

(ii): Fur λ ≥ 0 gilt

mi(λf) = λmi(f), Mi(λf) = λMi(f),

und fur λ < 0

mi(λf) = λMi(f), Mi(λf) = λmi(f).

In jedem Fall ist also fur jede Zerlegung Z

OZ(λf) − UZ(λf) = |λ| · (OZ(f) − UZ(f)),

und daher ist mit f auch λ f integrierbar, und es gilt

b∫

a

(λf)(x) dx = λ

b∫

a

f(x) dx.

(iii): folgt unmittelbar aus mi(f) ≤ mi(g), Mi(f) ≤ Mi(g), d.h. UZ(f) ≤ UZ(g),

OZ(f) ≤ OZ(g) und der Integrierbarkeit von f und g.

Zu zeigen bleibt, dass f · g integrierbar ist. Es gilt

Mi(fg) − mi(fg) = sup{|f(x) g(x) − f(y) g(y)| : x, y ∈ [xi−1, xi]}= sup{|f(x) · (g(x) − g(y)) + g(y) · (f(x) − f(y))| : x, y ∈ [xi−1, xi]}≤ sup{|f(x)| · |g(x) − g(y)| + |g(y)| · |f(x) − f(y)| : x, y ∈ [xi−1, xi]}≤ ‖f‖∞ (Mi(g) − mi(g)) + ‖g‖∞ (Mi(f) − mi(f)),

240 KAPITEL 16. DAS BESTIMMTE RIEMANNSCHE INTEGRAL

wobei ‖f‖∞ := sup{|f(x)| : x ∈ [a, b]} gesetzt ist.

Daher folgt

OZ(f · g) − UZ(f · g) ≤ ‖f‖∞ (OZ(g) − UZ(g)) + ‖g‖∞ (OZ(f) − UZ(f)),

und hieraus erhalt man wie im Falle f + g die Integrierbarkeit von f · g.

Satz 16.18.

(i) Ist f uber [a, b] und uber [b, c] integrierbar, so ist f auch uber [a, c] integrierbar,

und es giltb∫

a

f(x) dx +

c∫

b

f(x) dx =

c∫

a

f(x) dx.

(ii) Ist f uber [a, b] integrierbar, so ist f auch uber jedes Teilintervall [c, d] ⊂ [a, b]

integrierbar.

Beweis: (i): Ist Z bzw. Z ′ eine Zerlegung von [a, b] bzw. [b, c], so ist Z := Z ∪ Z ′

eine Zerlegung von [a, c], und es gilt

c∫

a∗f(x) dx ≥ UZ(f) + UZ′(f),

c∫

a

∗f(x) dx ≤ OZ(f) + OZ′(f).

Daher folgt aus der Integrierbarkeit von f uber [a, b] und [b, c]

b∫

a

f(x) dx +

c∫

b

f(x) dx =

b∫

a∗f(x) dx +

c∫

b∗f(x) dx ≤

c∫

a∗f(x) dx

≤c∫

a

∗f(x) dx ≤

b∫

a

∗f(x) dx +

c∫

b

∗f(x) dx =

b∫

a

f(x) dx +

c∫

b

f(x) dx,

und dies ist nur moglich, wenn uberall das Gleichheitszeichen steht.

(ii): Fur alle ε > 0 existiert eine Zerlegung Z von [a, b] mit OZ(f)−UZ(f) < ε. Nimmt

man als Teilpunkte c und d hinzu (falls diese nicht schon in Z liegen), so gilt fur die

neue Zerlegung Z ′ wegen OZ(f) ≥ OZ′(f), UZ(f) ≤ UZ′(f) auch OZ′(f)−UZ′(f) <

ε, und dann erst recht fur die Restriktion Z := {xi ∈ Z ′ : xi ∈ [c, d]} von Z ′ auf

[c, d]

OZ(f) − UZ(f) < ε,

d.h. f ist integrierbar uber [c, d].

16.4. RECHENREGELN 241

Aus Satz 16.18. folgt zusammen mit Satz 16.10., dass jede stuckweise stetige Funkti-

on in [a, b] (d.h. stetig mit Ausnahme von hochstens endlich vielen Sprungstellen) in-

tegrierbar uber [a, b] ist. Ist namlich f stetig in [ai−1, ai], a = a0 < a1 < . . . < am = b,

wobei f(ai−1) := f(ai−1 + 0), f(ai) := f(ai − 0) gesetzt ist, so ist f nach Satz 16.10.

uber jedes Intervall [ai−1, ai] integrierbar und nach Satz 16.18.(i), ist f dann auch

uber die endliche Vereinigung dieser Intervalle

m⋃

i=1

[ai−1, ai] = [a, b]

integrierbar.

Satz 16.19. Ist f integrierbar uber [a, b], so ist auch |f | integrierbar, und es gilt

b∫

a

f(x) dx ≤b∫

a

|f(x)| dx. (16.2)

Beweis: Ist Z eine beliebige Zerlegung von [a, b], so gilt fur x, y ∈ [xi−1, xi]

|f(x)| − |f(y)| ≤ |f(x) − f(y)| ≤ Mi(f) − mi(f).

Daher folgt Mi(|f |) − mi(|f |) ≤ Mi(f) − mi(f), d.h. OZ(|f |) − UZ(|f |) ≤ OZ(f) −UZ(f), und |f | ist integrierbar.

Wegen f(x) ≤ |f(x)| fur alle x ∈ [a, b] folgt aus Satz 16.16.(iii)

b∫

a

f(x) dx ≤b∫

a

|f(x)| dx.

Bezeichnet f+(x) := max{f(x), 0} den Positivteil und f−(x) := max{−f(x), 0}den Negativteil der integrierbaren Funktion f , so gilt

f+(x) =|f(x)| + f(x)

2und f−(x) =

|f(x)| − f(x)

2,

und nach Satz 16.19. und Satz 16.16. sind auch f+ und f− integrierbar uber [a, b].

Wir haben bisher b > a vorausgesetzt. Sonst war der Ausdruckb∫

af(x) dx nicht

definiert. Wir erweitern diese Definition nun durch

a∫

a

f(x) dx := 0

242 KAPITEL 16. DAS BESTIMMTE RIEMANNSCHE INTEGRAL

fur jede in a definierte Funktion und

a∫

b

f(x) dx := −b∫

a

f(x) dx,

falls b > a und f integrierbar uber [a, b] ist.

Diese Erweiterung der Definition ist sinnvoll, da alle bisher nachgewiesenen Eigen-

schaften des Integrals richtig bleiben. Wir haben lediglich die Ungleichung (16.2) zu

ersetzen durch∣∣∣∣

b∫

a

f(x) dx∣∣∣∣ ≤

∣∣∣∣

b∫

a

|f(x)| dx∣∣∣∣. (16.3)

Allgemeiner gilt

Satz 16.20. Es sei f : [a, b] → IRn (komponentenweise) integrierbar und es sei

‖ · ‖ eine beliebige Norm auf IRn.

Dann ist die Abbildung φ : [a, b] → IR, φ(x) : = ‖f(x)‖, integrierbar, und es gilt

‖b∫

af(x) dx‖ ≤

b∫

a

‖f(x)‖ dx. (16.4)

Beweis: Wegen des Normaquivalenzsatzes (Satz 10.75.) gibt es ein C > 0 mit

‖y‖ ≤ C · ‖y‖∞ fur alle y ∈ IRn.

Es sei Z : = {xi : i = 0, . . . ,m} eine Zerlegung von [a, b], und

Mi(g) : = supx∈[xi−1,xi]

g(x), mi(g) : = infx∈[xi−1,xi]

g(x)

fur jede reelle Funktion g : [a, b] → IR.

Dann gilt fur alle x, y ∈ [xi−1, xi] nach der Dreiecksungleichung

|φ(x) − φ(y)| =∣∣∣‖f(x)‖ − ‖f(y)‖

∣∣∣ ≤ ‖f(x) − f(y)‖

≤ C‖f(x) − f(y)‖∞ ≤ C maxj=1,...,n

|Mi(fj) − mi(fj)|.

Hieraus folgt fur alle i = 1, . . . ,m

Mi(φ) − mi(φ) ≤ C maxj=1,...,n

(Mi(fj) − mi(fj))

und daher

OZ(φ) − UZ(φ) ≤ C maxj=1,...,n

(OZ(fj) − UZ(fj)),

16.4. RECHENREGELN 243

und aus der Integrierbarkeit aller fj folgt die Integrierbarkeit von φ.

Die Ungleichung (16.4) erhalt man aus Satz 16.9., da fur jede Zerlegung Z : {xi :

i = 0, . . . ,m} von [a, b] und jede Riemann Summe

‖( m∑

i=1fj(ξi)(xi − xi−1)

)

j=1,...,n‖ ≤

m∑

i=1

‖f(ξi)‖(xi − xi−1)

gilt.

Satz 16.21. (Mittelwertsatz der Integralrechnung)

Es sei f stetig aus [a, b], g integrierbar uber [a, b] und g(x) ≥ 0 fur alle x ∈ [a, b]

(oder g(x) ≤ 0 in [a, b]).

Dann existiert ein ξ ∈ (a, b) mit

b∫

a

f(x) g(x) dx = f(ξ)

b∫

a

g(x) dx.

Insbesondere gilt (mit g(x) ≡ 1)

b∫

a

f(x) dx = f(ξ) (b − a). (16.5)

Beweis: Nach Satz 16.7. und Satz 16.16. ist f · g integrierbar uber [a, b]. Sei m :=

min{f(x) : x ∈ [a, b]}, M := max{f(x) : x ∈ [a, b]}. Dann gilt wegen g(x) ≥ 0 in

[a, b]

m g(x) ≤ f(x) g(x) ≤ M g(x)

fur alle x ∈ [a, b], und aus Satz 16.16. folgt

m

b∫

a

g(x) dx ≤b∫

a

f(x) g(x) dx ≤ M

b∫

a

g(x) dx.

Es existiert also ein µ ∈ [m,M ] mit

b∫

a

f(x) g(x) dx = µ

b∫

a

g(x) dx,

und da f stetig ist, folgt aus dem Zwischenwertsatz, dass es ein ξ ∈ (a, b) gibt mit

f(ξ) = µ.

Geometrisch sagt (16.5), dass die Flache unterhalb des Graphen von f gleich der

Flache eines Rechtecks ist mit den Seitenlangen b − a und f(ξ) fur ein ξ ∈ (a, b).

Kapitel 17

Das unbestimmte Integral

17.1 Der Fundamentalsatz der

Infinitesimalrechnung

Wir haben in Kapitel 16 das Integral in Anlehnung an seine anschauliche Bedeutung

als Flacheninhalt definiert. Wir zeigen nun, dass die Integration die Umkehrung der

Differentiation ist. Hierdurch erhalten wir eine handliche Moglichkeit zur Berech-

nung von Integralen.

Ist f : [a, b] → IR integrierbar uber [a, b], so ist f auch uber [a, x] integrierbar fur

jedes x ∈ [a, b]. Daher ist durch

G(x) :=

x∫

a

f(t) dt (17.1)

eine Funktion G : [a, b] → IR definiert.

Andert man die untere Grenze, so erhalt man fur festes c ∈ [a, b]

H(x) :=

x∫

c

f(t) dt =

a∫

c

f(t) dt +

x∫

a

f(t) dt =: C + G(x).

Etwas allgemeiner definieren wir:

Definition 17.1. Eine Funktion F : [a, b] → IR heißt Stammfunktion von f ,

wenn es eine Konstante C ∈ IR gibt mit

F (x) = C +

x∫

a

f(t) dt fur alle x ∈ [a, b].

17.1. FUNDAMENTALSATZ DER INFINITESIMALRECHNUNG 245

Wird bei einer solchen Stammfunktion der Wert der Konstanten noch offen gelassen,

so spricht man von dem unbestimmten Integral von f und schreibt∫

f(x) dx.

Man beachte, dass das Symbol∫

f(x) dx eine ganze Familie von Funktionen be-

schreibt, dass also die Schlussweise: “Aus F (x) =∫

f(x) dx und G(x) =∫

f(x) dx

folgt F (x) = G(x)” im allgemeinen falsch ist und dass nur folgt, dass es eine Kon-

stante C ∈ IR gibt mit

F (x) = C + G(x).

Beispiel 17.2. Es sei f(x) = x3. Dann ist f integrierbar, und es gilt mit der

aquidistanten Zerlegung x(n)i := i x

n, i = 0, . . . , n, n ∈ IN von [0, x]

x∫

0

f(t) dt = limn→∞

n∑

i=1

(

ix

n

)3 · x

n= x4 lim

n→∞1

n4

n∑

i=1

i3

= x4 limn→∞

1

n4· 1

4n2 (n + 1)2 =

1

4x4.

Das unbestimmte Integral ist also∫

x3 dx =1

4x4 + C, C ∈ IR.

2

Ist eine Stammfunktion F von f bekannt, so kann man offenbar das bestimmte

Integral von f durch Auswerten von F an den Integralgrenzen berechnen. Es gilt

Satz 17.3. Sei f : [a, b] → IR integrierbar und F eine Stammfunktion von f auf

[a, b]. Dann giltb∫

a

f(x) dx = F (b) − F (a).

Wir schreiben hierfur auch

b∫

a

f(x) dx = F (b) − F (a) = : [F (x)]ba.

Wir fragen nun, wie man Stammfunktionen ermitteln kann. Im Beispiel 17.2. giltd

dx

(∫

x3 dx)

= x3, d.h. die Differentiation der Stammfunktion fuhrt zur Ausgangs-

funktion zuruck. Dies ist allgemein richtig:

246 KAPITEL 17. DAS UNBESTIMMTE INTEGRAL

Satz 17.4. (Fundamentalsatz der Infinitesimalrechnung)

Es sei f : [a, b] → IR eine stetige Funktion. F : [a, b] → IR ist genau dann

Stammfunktion von f , wenn F stetig differenzierbar ist und F ′(x) = f(x) fur alle

x ∈ [a, b] gilt.

Beweis: Es sei F (x) :=

x∫

a

f(t) dt + C eine Stammfunktion von f . Dann gilt nach

dem Mittelwertsatz der Integralrechnung (Satz 16.21.) fur alle x, x + h ∈ [a, b]

F (x + h) − F (x)

h=

1

h

( x+h∫

a

f(t) dt −x∫

a

f(t) dt)

=1

h

x+h∫

x

f(t) dt = f(x + θ(x, h) h),

θ(x, h) ∈ (0, 1).

Fur h → 0 gilt x + θ(x, h) h → x, und die Stetigkeit von f liefert

limh→0

f(x + θ(x, h) h) = f(x).

Also ist F differenzierbar in x und F ′(x) = f(x).

Ist umgekehrt F ′(x) = f(x) eine stetige Funktion, so existiert das Integral G(x) :=x∫

a

F ′(t) dt. Nach dem ersten Teil ist G differenzierbar und G′(x) = F ′(x) fur alle

x ∈ (a, b), und daher gibt es eine Konstante C ∈ IR mit

F (x) = C + G(x) = C +

x∫

a

f(t) dt,

d.h. F ist Stammfunktion von f .

Eine große Anzahl von Stammfunktionen und Regeln zur Ermittlung von unbe-

stimmten Integralen erhalten wir, indem wir die Differentiation umkehren (vgl.

Satz 17.4.). Die Aufstellung in Tabelle 17.1 enthalt die unbestimmten Integrale ei-

niger elementarer Funktionen.

Fur jedes Polynom p(x) =n∑

j=0ajx

j gilt

p(x) dx =n∑

j=0

1

j + 1aj xj+1 + C.

Diese Regel bleibt auch fur Potenzreihen im Inneren ihres Konvergenzintervalls rich-

tig:

17.1. FUNDAMENTALSATZ DER INFINITESIMALRECHNUNG 247

Tabelle 17.1: Einige unbestimmte Integrale von elementaren Funktionen

1.∫

xα dx =1

α + 1xα+1 + C, α 6= −1,

2.∫ 1

xdx = ln |x| + C,

3.∫

ex dx = ex + C,

4.∫

sin x dx = − cos x + C,∫

cos x dx = sin x + C,∫ 1

cos2 xdx = tan x + C,

5.∫

sinh x dx = cosh x + C,∫

cosh x dx = sinh x + C,

6.∫ 1√

1 − x2dx = arcsin x + C, |x| < 1,

∫ 1

1 + x2dx = arctan x + C,

7.∫ 1√

x2 + 1dx = Arsinh x + C,

∫ 1√x2 − 1

dx = Arcosh x + C, x > 1,∫ 1

1 − x2dx = Artanh x + C, |x| < 1.

Satz 17.5. Die Potenzreihe f(x) =∞∑

n=0anx

n habe den Konvergenzradius r > 0.

Dann gilt∫ ∞∑

n=0

anxn dx =

∞∑

n=0

1

n + 1an xn+1 + C =: F (x),

und die Potenzreihe F hat ebenfalls den Konvergenzradius r.

Beweis: Dass die Konvergenzradien der ursprunglichen und der gliedweise inte-

grierten Potenzreihe ubereinstimmen, folgt wie im Beweis von Satz 13.29. Ferner

sagt Satz 13.29., dass man die Potenzreihe F (x) in (−r, r) gliedweise differenzieren

darf.

Beispiel 17.6. Fur das Gaußsche Fehlerintegral

φ(x) :=2√π

x∫

0

e−t2 dt,

das in der Wahrscheinlichkeitstheorie und der Statistik eine große Rolle spielt, gilt

248 KAPITEL 17. DAS UNBESTIMMTE INTEGRAL

nach Satz 17.5.

φ(x) =2√π

x∫

0

e−t2 dt =2√π

∞∑

n=0

(−1)n x2n+1

(2n + 1) · n!.

2

17.2 Partielle Integration

Das Integrieren, d.h. das Bestimmen des unbestimmten Integrals einer gegebenen

Funktion, ist technisch wesentlich schwieriger als das Differenzieren, bei dem man

durch Anwendung fester Regeln (Kettenregel, Produktregel, Quotientenregel) im Be-

reich der elementaren Funktionen stets zum Ziel kommt. Beim Integrieren benotigt

man eine große Erfahrung (oder Gluck). Es gibt eine große Zahl von elementaren

Funktionen, die keine elementaren Stammfunktionen besitzen. Das Gaußsche Feh-

lerintegral aus Beispiel 17.6.,

φ(x) :=2√π

x∫

0

exp(−ξ2) dξ,

kann z.B. nicht geschlossen ausgewertet werden.

Kehrt man die Produktregel der Differentiation um so erhalt man

Satz 17.7. (Partielle Integration)

Es seien f , g : [a, b] → IR stetig differenzierbar. Dann gilt in [a, b]

f ′(x) g(x) dx = f(x) g(x) −∫

f(x) g′(x) dx. (17.2)

Fur das bestimmte Integral erhalt man hieraus

b∫

a

f ′(x) g(x) dx = [f(x) g(x)]ba −b∫

a

f(x) g′(x) dx.

Beweis: Die Produktregel besagt

(

f(x) g(x))′

= f ′(x) g(x) + f(x) g′(x),

und durch Integration dieser Gleichung erhalt man (17.2).

17.2. PARTIELLE INTEGRATION 249

Beispiel 17.8.

ln x dx =∫

1 · ln x dx = x · ln x −∫

x · 1

xdx = x · ln x − x + C.

2

Beispiel 17.9.

arcsin x dx =∫

1 · arcsin x dx = x · arcsin x −∫ x√

1 − x2dx

= x · arcsin x +√

1 − x2 + C.

2

Beispiel 17.10.∫

sin(nx) · cos(mx) dx mit n,m ∈ IN.

Wir wahlen f ′(x) = sin(nx), d.h.

f(x) = − 1

ncos(nx), g(x) = cos(mx).

Dann gilt

sin(nx) cos(mx) dx = − 1

ncos(nx) cos(mx) − m

n

cos(nx) sin(mx) dx,

und durch erneute Anwendung von Satz 17.7. mit f ′(x) = cos(nx), g(x) = sin(mx)

erhalt man

sin(nx) cos(mx) dx = − 1

ncos(nx) cos(mx) − m

n2sin(nx) sin(mx)

+m2

n2

sin(nx) cos(mx) dx.

Man beachte, dass hieraus im Falle m = n = 1 nicht der Widerspruch

0 = − cos2 x − sin2 x = −1

folgt, da die unbestimmten Integrale links und rechts vom Gleichheitszeichen sich

um eine additive Konstante (hier 1) unterscheiden konnen.

Fur n 6= m erhalt man

sin(nx) cos(mx) dx

=n2

n2 − m2

(

− 1

ncos(nx) cos(mx) − m

n2sin(nx) sin(mx)

)

+ C

=1

m2 − n2(n cos(nx) cos(mx) + m sin(nx) sin(mx)) + C

250 KAPITEL 17. DAS UNBESTIMMTE INTEGRAL

und wegen der 2π-Periodizitat der beteiligten Funktionen

2π∫

0

sin(nx) cos(mx) dx = 0. (17.3)

Fur n = m gilt

sin(nx) cos(nx) dx =1

2

sin(2nx) dx = − 1

4ncos(2nx) + C,

also gilt (17.3) fur alle m,n ∈ IN.

Ebenfalls durch partielle Integration erhalt man fur m 6= n

sin(nx) sin(mx) dx =1

n2 − m2(−n cos(nx) sin(mx) + m sin(nx) cos(mx)) + C,

cos(nx) cos(mx) dx =1

n2 − m2(n sin(nx) cos(mx) − m cos(nx) sin(mx)) + C,

d.h.2π∫

0

sin(nx) sin(mx) dx =

2π∫

0

cos(nx) cos(mx) dx = 0, (17.4)

und fur m = n mit f ′(x) = g(x) = sin(nx)

sin2(nx) dx = − 1

ncos(nx) sin(nx) +

cos2(nx) dx

= − 1

ncos(nx) sin(nx) +

(1 − sin2(nx)) dx

= x − 1

ncos(nx) sin(nx) −

sin2(nx) dx,

d.h.∫

sin2(nx) dx =x

2− 1

2ncos(nx) sin(nx) + C

und genauso∫

cos2(nx) dx =x

2+

1

2nsin(nx) cos(nx) + C.

Fur die bestimmten Integrale gilt also fur alle n ∈ IN

2π∫

0

sin2(nx) dx =

2π∫

0

cos2(nx) dx = π. (17.5)

Schließlich folgt aus∫

sin(nx) dx = − 1n

cos(nx) + C,∫

cos(nx) dx = 1n

sin(nx) + C

2π∫

0

sin(nx) dx =

2π∫

0

cos(nx) dx = 0. (17.6)

2

17.2. PARTIELLE INTEGRATION 251

Die Gleichungen (17.3), (17.4), (17.5) und (17.6) konnen wir zusammenfassen zu

Satz 17.11. Die Funktionen

φ0(x) :≡ 1√2, φ2n−1(x) := sin(nx), φ2n(x) := cos(nx), n ∈ IN,

bilden im Raum der 2π-periodischen Funktionen bezuglich des inneren Produktes

〈f, g〉 :=1

π

2π∫

0

f(x) g(x) dx

ein Orthonormalsystem, d.h.

〈φi, φj〉 = δij, i, j ∈ IN0.

Bemerkung 17.12. Wir wissen bereits, dass in einem endlich dimensionalen nor-

mierten Raum eine Menge genau dann kompakt ist, wenn sie abgeschlossen und

beschrankt ist. Ein Standardbeispiel hierfur ist die Einheitskugel {x : ‖x‖ = 1}.

Satz 17.11. zeigt, dass diese Aussage in unendlich dimensionalen Raumen nicht zu er-

warten ist. In dem Raum C2π der 2π-periodischen Funktionen mit dem in Satz 17.11.

gegebenen inneren Produkt gilt namlich fur alle n,m ∈ IN0, n 6= m,

‖φn − φm‖2 = 〈φn − φm, φn − φm〉 = 〈φn, φn〉 − 2〈φn, φm〉 + 〈φm, φm〉= ‖φn‖2 + ‖φm‖2 = 2,

und daher kann man sicher aus der Folge

{φn} ⊂ {f ∈ C2π : ‖f‖ = 1}

keine konvergente Teilfolge auswahlen. 2

Satz 17.13. Die Integrale

In(x) :=∫ dx

(1 + x2)n

erfullen die Rekursionsformel

In(x) =1

2(n − 1)

(x

(1 + x2)n−1+ (2n − 3) In−1(x)

)

, n ≥ 2, (17.7)

I1(x) = arctan x + C. (17.8)

252 KAPITEL 17. DAS UNBESTIMMTE INTEGRAL

Beweis: (17.8) ist bereits bekannt. Fur n ≥ 2 erhalt man durch partielle Integra-

tion

In−1(x) =∫

1 · 1

(1 + x2)n−1dx =

x

(1 + x2)n−1−

x ·(

1

(1 + x2)n−1

)′dx

=x

(1 + x2)n−1+ 2 (n − 1)

∫ x2

(1 + x2)ndx

=x

(1 + x2)n−1+ 2 (n − 1)

∫ (1

(1 + x2)n−1− 1

(1 + x2)n

)

dx

=x

(1 + x2)n−1+ 2 (n − 1) In−1(x) − 2 (n − 1) In(x),

und hieraus folgt (17.7).

Als weitere Anwendung der partiellen Integration beweisen wir noch einmal den Satz

von Taylor, wobei wir nun aber die Integraldarstellung des Restgliedes erhalten:

Satz 17.14. (Satz von Taylor)

Sei f : [a, b] → IR eine n+1-mal stetig differenzierbare Funktion und sei x0 ∈ [a, b].

Dann gilt

f(x) =n∑

j=0

f (j)(x0)

j!(x − x0)

j +1

n!

∫ x

x0

(x − t)n f (n+1)(t) dt. (17.9)

Beweis: Wir zeigen durch Induktion, dass die Formel (17.9) mit k an Stelle von

n fur k = 0, 1, . . . , n gilt.

Fur k = 0 besagt (17.9)

f(x) = f(x0) +∫ x

x0

f ′(t) dt,

und dies ist nach dem Fundamentalsatz (Satz 17.4.) richtig.

Ist (17.9) fur ein k ∈ {0, . . . , n − 1} richtig, so folgt durch partielle Integration

f(x) =k∑

j=0

f (j)(x0)

j!(x − x0)

j +1

k!

x∫

x0

(x − t)k f (k+1)(t) dt

=k∑

j=0

f (j)(x0)

j!(x − x0)

j

+1

k!

([

− 1

k + 1(x − t)k+1 f (k+1)(t)

]x

x0

+1

k + 1

x∫

x0

(x − t)k+1 f (k+2)(t) dt

)

=k+1∑

j=0

f (j)(x0)

j!(x − x0)

j +1

(k + 1)!

x∫

x0

(x − t)k+1 f (k+2)(t) dt,

17.3. SUBSTITUTIONSREGEL 253

d.h. (17.9) fur k + 1.

Da (x − t)n in [x0, x] bzw. [x, x0] das Vorzeichen nicht wechselt, folgt aus dem Mit-

telwertsatz Satz 16.21.x∫

x0

(x − t)n f (n+1)(t) dt = f (n+1)(ξ)

x∫

x0

(x − t)n dt

=1

n + 1(x − x0)

n+1 f (n+1)(ξ)

fur ein ξ zwischen x und x0. Die Lagrangesche Restgliedformel folgt aus der Inte-

gralformel fur das Restglied.

17.3 Substitutionsregel

Wir haben die partielle Integration als Umkehrung der Produktregel fur die Ablei-

tung hergeleitet. Ein entsprechendes Vorgehen fur die Kettenregel liefert Satz 17.15.

Satz 17.15. (Substitutionsregel)

Es sei f : I → IR eine stetige Funktion und φ : [a, b] → IR eine stetig differenzier-

bare Funktion mit φ([a, b]) ⊂ I. Dann gilt∫

f(φ(t)) · φ′(t) dt =∫

f(x) dx∣∣∣∣x=φ(t)

, (17.10)

und fur das bestimmte Integral

b∫

a

f(φ(t)) · φ′(t) dt =

φ(b)∫

φ(a)

f(x) dx. (17.11)

Beweis: Ist F : I → IR eine Stammfunktion von f , so gilt fur die Funktion

F ◦ φ : [a, b] → IR nach der Kettenregel

(F ◦ φ)′(t) = F ′(φ(t)) · φ′(t) = f(φ(t)) · φ′(t)

und durch Integration (mit x : = φ(t))∫

f(x) dx = F (x) = F (φ(t)) =∫

f(φ(t)) · φ′(t) dt

bzw. durch Integration von a bis b

b∫

a

f(φ(t)) · φ′(t) dt = [F ◦ φ]ba = F (φ(b)) − F (φ(a)) =

φ(b)∫

φ(a)

f(x) dx.

254 KAPITEL 17. DAS UNBESTIMMTE INTEGRAL

Bemerkung 17.16. Mit der auf Leibniz zuruckgehenden Schreibweise

dx

dt= φ′(t)

erhalt Gleichung (17.10) die folgende Gestalt, die man sich besonders gut merken

kann:∫

f(x) dx =∫

f(φ(t))dx

dtdt, x = φ(t).

Formal (aber auch nur formal; die tatsachliche Begrundung liefert der Beweis von

Satz 17.15.) wird das Symbol dt aus der rechten Seite der Gleichung herausgekurzt

und x fur φ(t) eingesetzt. 2

Beispiel 17.17. Haufig haben Integranden die Gestaltφ′(t)

φ(t), d.h. mit f(x) =

1

xhat man die linke Seite der Gleichung (17.10). Daher gilt

∫ φ′(t)

φ(t)dt =

∫ 1

xdx = ln |x| + C = ln |φ(t)| + C.

Ein Beispiel dieses Typs ist

tan t dt = −∫ − sin t

cos tdt = − ln | cos t| + C.

2

Beispiel 17.18. Fur Integranden des Typs φ(t) · φ′(t) erhalt man mit f(x) = x

analog∫

φ(t) · φ′(t) dt =∫

x dx =1

2x2 + C =

1

2(φ(t))2 + C.

2

Beispiel 17.19.

F = 2b

a

π/2∫

−π/2

a2 − a2 sin2 t · a · cos t dt = 2ab

π/2∫

−π/2

cos2 t dt

= 2ab[t

2+

1

2sin t cos t

]π/2

−π/2= abπ.

Insbesondere gilt fur die Flache des Kreises mit dem Radius r: F = πr2. 2

17.3. SUBSTITUTIONSREGEL 255

Die Flache der Ellipse

E = {(x, y) :x2

a2+

y2

b2= 1}

ist gegeben durch

F = 2b

a

a∫

−a

√a2 − x2 dx.

Mit der Substitution x = φ(t) := a sin t

gilt wegen φ′(t) = a cos t und ±a =

φ(

±π2

)

−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5−1.5

−1

−0.5

0

0.5

1

1.5

a

b

x

y

Abbildung 17.1

Fur den Fall, dass φ′(t) 6= 0 gilt, also die Funktion φ eine Inverse ψ := φ−1 besitzt,

geben wir der Gleichung (17.10) eine handlichere Gestalt. Es sei g(t) := f(φ(t));

t ∈ [a, b], d.h. f(x) = g(ψ(x)). Dann besagt (17.10)

g(ψ(x)) dx =∫

f(x) dx =∫

f(φ(t)) · φ′(t) dt

=∫

g(t) · φ′(t) dt,

und wegen φ′(t) = 1 /ψ′(φ(t)) (vgl. Satz 13.35.) folgt

g(ψ(x)) dx =∫

g(t) · 1

ψ′(φ(t))dt, t = ψ(x), (17.10’)

und fur das bestimmte Integral

β∫

α

g(ψ(x)) dx =

ψ(β)∫

ψ(α)

g(t)1

ψ′(φ(t))dt. (17.11’)

Beispiel 17.20.

I :=∫ x3

1 +√

x4 + 1dx.

Mit ψ(x) =√

x4 + 1 = t gilt ψ′(x) =2x3

√x4 + 1

= 2x3

t, und nach (17.10’)

∫ x3

1 +√

x4 + 1dx =

∫ x3

1 + t· t

2x3dt =

1

2

∫ t

1 + tdt

=1

2

(∫

dt −∫ 1

1 + tdt

)

=1

2(t − ln |1 + t|) + C

=1

2(√

x4 + 1 − ln |1 +√

x4 + 1|) + C.

2

256 KAPITEL 17. DAS UNBESTIMMTE INTEGRAL

Beispiel 17.21.

I :=∫ dx

1 + cos x.

Mit ψ(x) := tan x2

= t gilt

ψ′(x) =1

2 cos2 x2

=1 + tan2 x

2

2=

1 + t2

2,

und wegen

cos x = cos2 x

2− sin2 x

2=

1 − tan2 x2

1 + tan2 x2

=1 − t2

1 + t2

folgt

I =∫ 1

1 + 1−t2

1+t2

· 2

1 + t2dt =

dt = t + C = tanx

2+ C.

2

Beispiel 17.22.

I :=∫ 1√

x2 + bx + cdx.

Es ist x2 + bx + c = (x + b2)2 + c − b2

4=: (x + b

2)2 + γ.

Daher folgt mit ψ(x) := (x + b2)/

|γ| = t wegen ψ′(x) = 1/√

|γ|

I =∫

(

|γ| ·(( 1

|γ|(x +

b

2))2

+ sign γ))−1/2

dx

=1

|γ|

(t2 + sign γ)−1/2√

|γ| dt =∫

(t2 + sign γ)−1/2 dt

=

Arsinh t + C = Arsinh

(

1√

c − b2/4

(

x +b

2

))

+ C, falls c >b2

4,

Arcosh t + C = Arcosh

(

1√

b2/4 − c

(

x +b

2

))

+ C, falls c <b2

4.

2

Als Anwendung der Substitutionsregel leiten wir in Satz 17.23. eine Formel fur

unbestimmte Integrale inverser Funktionen her.

Satz 17.23. Es sei f : [a, b] → IR differenzierbar mit f ′(x) 6= 0. Dann gilt

f−1(y) dy = y f−1(y) −∫

f(x) dx, x = f−1(y).

17.4. PARTIALBRUCHZERLEGUNG 257

Beweis: Wegen (partielle Integration)

x f ′(x) dx = x f(x) −∫

f(x) dx

gilt mit x = f−1(y)

f−1(y) dy =∫

f−1(f(x)) f ′(x) dx∣∣∣∣x=f−1(y)

=∫

x f ′(x) dx∣∣∣∣x=f−1(y)

= x f(x) −∫

f(x) dx∣∣∣∣x=f−1(y)

= f−1(y) · y −∫

f(x) dx

∣∣∣∣x=f−1(y)

Beispiel 17.24.

arcsin(y) dy = y · arcsin(y) −∫

sin x dx∣∣∣∣x=arcsin(y)

= y arcsin y + cos(arcsin y) + C

= y arcsin y +√

1 − y2 + C.

2

17.4 Partialbruchzerlegung

Wir betrachten nun die Integration rationaler Funktionen

R(x) =P (x)

q(x)

mit Polynomen P und q.

Ist der Grad von P nicht kleiner als der Grad von q, so kann man durch Polynom-

division erreichen, dass

R(x) = r(x) +p(x)

q(x),

wobei r, p, q Polynome sind und Grad(p) < Grad(q) gilt.

Beispiel 17.25.

R(x) =x5 − x4 − x2 + 5x − 1

x4 − x2 − 2x + 2.

258 KAPITEL 17. DAS UNBESTIMMTE INTEGRAL

(x5 − x4 − x3 + 5x − 1) : (x4 − x2 − 2x + 2) = x − 1

− (x5 − x3 − 2x2 + 2x

− x4 + 2x2 + 3x − 1

− (− x4 + x2 + 2x − 2)

x2 + x + 1

Daher gilt (p(x) = x2 + x + 1, r(x) = x − 1)

R(x) = x − 1 +x2 + x + 1

x4 − x2 − 2x + 2

2

Da das Integral des Polynoms r bekannt ist, mussen wir nur∫ p(x)

q(x)dx, Grad(p) <

Grad(q), untersuchen. Dazu schreiben wir den Quotientenp(x)

q(x)in einer Form, die

leicht integriert werden kann.

Es seien x1, . . . , xk ∈ IR die verschiedenen reellen Nullstellen von q, und es sei ρi

die Vielfachheit der Nullstelle xi, i = 1, . . . , k. Da q reelle Koeffizienten hat, ist mit

zi ∈ C \ IR auch zi eine Nullstelle von q und beide besitzen dieselbe Vielfachheit

(dies erkennt man, indem man q durch das quadratische Polynom (z − zi) (z −zi) mit reellen Koeffizienten dividiert). Es seien z1, . . . , zℓ, z1, . . . , zℓ ∈ C \ IR die

verschiedenen nicht reellen Nullstellen von q, und es sei σi die Vielfachheit von zi

und zi, i = 1, . . . , ℓ.

Mit diesen Bezeichnungen hat q die Darstellung

q(x) = γk∏

j=1

(x − xj)ρj ·

ℓ∏

i=1

(

(x − zi) (x − zi))σi

, γ ∈ IR \ {0},

wobei die quadratischen Polynome

(x − zi) (x − zi) = x2 − 2 Re (zi) x + |zi|2

= (x − Re zi)2 + (|zi|2 − (Re zi)

2) =: (x − αi)2 + β2

i

keine reellen Nullstellen besitzen.

Hiermit gilt

17.4. PARTIALBRUCHZERLEGUNG 259

Satz 17.26. Jede rationale Funktion φ(x) :=p(x)

q(x)mit Grad(p) < Grad(q) besitzt

eine eindeutige Darstellung

φ(x) =k∑

j=1

ρj∑

i=1

aij

(x − xj)i+

ℓ∑

j=1

σj∑

i=1

bij x + cij

((x − αj)2 + β2j )

i=: ψ(x), (17.12)

wobei xj, ρj, αj, βj, σj wie oben gewahlt sind und die Bestimmmung der aij, bij,

cij ∈ IR im Beweis dieses Satzes beschrieben wird.

Die Zerlegung (17.12) heißt Partialbruchzerlegung.

Beweis: Wir multiplizieren den Ansatz ψ(x) =p(x)

q(x)mit q(x) und erhalten die

Polynomgleichung ψ(x) · q(x) = p(x), die aus Stetigkeitsgrunden in ganz C gilt:

p(x) = γk∑

j=1

ρj∑

i=1

aij (x − xj)ρj−i

k∏

n=1n 6=j

(x − xn)ρn

ℓ∏

m=1

(

(x − αm)2 + β2m

)σm

+ q(x)ℓ∑

j=1

σj∑

i=1

bij x + cij(

(x − αj)2 + β2j

)i . (17.13)

Setzt man hier x = xµ, µ ∈ {1, . . . , k} ein, so folgt

p(xµ) = γ aρµµ

k∏

n=1n 6=µ

(xµ − xn)ρn

ℓ∏

m=1

(

(xµ − αm)2 + β2m

)σm

,

und man erhalt auf eindeutige Weise aρµµ.

Differenziert man die Gleichung (17.13) (ρµ − 1)-mal und setzt jeweils xµ ein, so

erhalt man genauso nacheinander aρµ−1,µ, . . . , a1µ, µ = 1, . . . , k.

Setzt man fur ν = 1, . . . , ℓ in (17.13) (und die Ableitungen bis zur (σν − 1)-ten

Ordnung) x = zν und x = zν ein, so erhalt man analog dem obigen Vorgehen in jedem

Fall ein lineares Gleichungssystem (mit komplexen Koeffizienten) zur eindeutigen

Bestimmung von (bσνν , cσνν), . . . , (b1ν , c1ν).

Beispiel 17.27. (Fortsetzung von Beispiel 17.25.)

φ(x) =p(x)

q(x)=

x2 + x + 1

x4 − x2 − 2x + 2.

Es gilt q(x) = (x−1)2 (x+1−i) (x+1+i) = (x−1)2 ((x+1)2+1). Das Nennerpolynom

q hat also die doppelte, reelle Nullstelle x1 = 1 und die beiden einfachen, nicht reellen

Nullstellen z1 = −1 + i und z1 = −1 − i.

260 KAPITEL 17. DAS UNBESTIMMTE INTEGRAL

Aus dem Ansatz

ψ(x) =a1

x − 1+

a2

(x − 1)2+

bx + c

x2 + 2x + 2=

p(x)

q(x)

erhalt man durch Multiplikation mit q

(

a1 (x − 1) + a2

) (

x2 + 2x + 2)

+ (bx + c) (x − 1)2 = x2 + x + 1 = p(x).

Hieraus folgt

p(1) = 3 = a2 (x2 + 2x + 2)|x=1 = 5a2, d.h. a2 = 35,

p′(1) = 3 = a1 (x2 + 2x + 2) + a2 (2x + 2)|x=1 = 5a1 + 4a2, d.h. a1 = 325

,

p(z1) = (b z1 + c) (z1 − 1)2,

p(z1) = (b z1 + c) (z1 − 1)2,

mit der Losung b = − 3

25, c = 1

25. 2

Die komplexe Arithmetik kann vermieden werden, wenn man in (17.13) die linke

Seite ausmultipliziert und einen Koeffizientenvergleich durchfuhrt, oder wenn man

in die Gleichung (17.13)k∑

j=1

ρj + 2ℓ∑

j=1

σj =: κ

verschiedene reelle Werte einsetzt. In beiden Fallen erhalt man ein (eindeutig losba-

res) lineares Gleichungssystem von κ Gleichungen in κ Unbekannten.

In Beispiel 17.27. ist die Gleichung ψ(x) · q(x) = p(x) aquivalent

(a1 + b) x3 + (a1 + a2 − 2b + c) x2 + (2a2 + b − 2c) x − 2a1 + 2a2 + c = x2 + x + 1,

und der Koeffizientenvergleich liefert das lineare Gleichungssystem

a1 + b = 0,

a1 + a2 − 2b + c = 1,

2a2 + b − 2c = 1,

−2a1 + 2a2 + c = 1,

mit der bereits angegebenen Losung.

Setzt man in ψ(x) · q(x) = p(x) die Werte x = 0, x = 1, x = 2 und x = 3 ein, so

erhalt man das lineare Gleichungssystem

−2a1 + 2a2 + c = 1,

5a2 = 3,

10a1 + 10a2 + 2b + c = 7,

34a1 + 17a2 + 12b + 4c = 13,

17.4. PARTIALBRUCHZERLEGUNG 261

mit der bereits angegebenen Losung.

Hat man die Partialbruchzerlegung der rationalen Funktion φ(x) =p(x)

q(x)gefunden

(dies ist keine Kleinigkeit, denn man hat alle Nullstellen von q zu bestimmen),

so kann man φ integrieren, wenn man nur die folgenden beiden Grundtypen von

Integralen berechnen kann:∫ dx

(x − α)k, k ≥ 1,

∫ γx + δ(

(x − α)2 + β2)k dx, k ≥ 1, β 6= 0.

Der erste Typ ist bereits bekannt:

∫ dx

(x − α)k=

ln |x − α| + C fur k = 1,1

1−k(x − α)1−k + C fur k > 1.

Fur den zweiten Typ gilt

∫ γx + δ(

(x − α)2 + β2)k dx =

γ

2

∫ 2 (x − α)(

(x − α)2 + β2)k dx + (δ + αγ)

∫ dx(

(x − α)2 + β2)k .

Mit der Substitution ψ(x) := (x − α)2 + β2 =: t gilt

∫ 2 (x − α)(

(x − α)2 + β2)k dx =

∫ 1

tkdt =

ln((x − α)2 + β2) + C fur k = 1,

− 1k−1

(

(x − α)2 + β2)1−k

+ C fur k > 1.

Schließlich erhalt man mit der Substitution ψ(x) = 1β

(x − α) =: t

∫ dx(

(x − α)2 + β2)k =

∫ β dt

(β2 t2 + β2)k= β1−2k

∫ dt

(1 + t2)k=: β1−2k Ik(x),

und fur die Integrale Ik wurde in Satz 17.13. eine Rekursionsformel bereitgestellt.

Fur Beispiel 17.25. auf Seite 257 erhalt man insgesamt

∫ x5 − x4 − x3 + 5x − 1

x4 − x2 − 2x + 2dx =

∫ (

x − 1 +x2 + x + 1

x4 − x2 − 2x + 2

)

dx

=∫

(x − 1) dx +3

25

∫ dx

x − 1+

3

5

∫ dx

(x − 1)2+

1

25

∫ −3x + 1

(x + 1)2 + 1dx

=1

2x2 − x +

3

25ln |x − 1| − 3

5

1

x − 1

+1

25

(

−3

2

∫ 2 (x + 1)

(x + 1)2 + 1dx + 4

∫ dx

(x + 1)2 + 1

)

=1

2x2 − x +

3

25ln |x − 1| − 3

5

1

x − 1

− 3

50ln(x2 + 2x + 2) +

4

25arctan(x + 1) + C.

262 KAPITEL 17. DAS UNBESTIMMTE INTEGRAL

17.5 Vertauschen von Grenzwerten

Wir haben bereits gesehen, dass man Potenzreihen in ihrem Konvergenzintervall

gliedweise differenzieren und integrieren kann, dass man also den Grenzprozess der

Summation einer Reihe mit dem Grenzprozess bei der Integration und der Diffe-

rentiation miteinander vertauschen kann. Wir zeigen nun, dass dies bereits aus der

gleichmaßigen Konvergenz der Potenzreihen folgt. Allgemeiner gilt

Satz 17.28. Ist jede der Funktionen fn : [a, b] → IR, n ∈ IN, integrierbar uber

[a, b] und konvergiert die Folge {fn} gleichmaßig auf [a, b] gegen die Funktion f , so

ist f integrierbar uber [a, b], und es gilt

b∫

a

f(x) dx =

b∫

a

limn→∞ fn(x) dx = lim

n→∞

b∫

a

fn(x) dx.

Beweis: Wir wenden das Riemannsche Integrabilitatskriterium an, um die Inte-

grierbarkeit von f nachzuweisen. Sei ε > 0 gegeben. Da die Folge {fn} gleichmaßig

gegen f konvergiert, gibt es ein N ∈ IN mit

|fn(x) − f(x)| <ε

3(b − a)fur alle n ≥ N und alle x ∈ [a, b].

Hieraus folgt schon die Beschranktheit von f , denn fN ist als integrierbare Funktion

beschrankt, und daher gilt fur alle x ∈ [a, b]

|f(x)| ≤ |fN(x)| + |f(x) − fN(x)| ≤ supa≤x≤b

|fN(x)| + ε.

Ferner gibt es nach dem Riemannschen Integrabilitatskriterium eine Zerlegung

Z : a = x0 < x1 < . . . < xm = b von [a, b]

mit

OZ(fN) − UZ(fN) <ε

3.

Es seien

mj := inf{f(x) : xj−1 ≤ x ≤ xj}, µj := inf{fN(x) : xj−1 ≤ x ≤ xj}.

Dann gilt

µj − mj ≤ε

3(b − a).

17.5. VERTAUSCHEN VON GRENZWERTEN 263

Es folgt

UZ(fN) − UZ(f) =m∑

j=1

µj(xj − xj−1) −m∑

j=1

mj(xj − xj−1)

=m∑

j=1

(µj − mj)(xj − xj−1) ≤ε

3(b − a)

m∑

j=1

(xj − xj−1) =ε

3,

und daher gilt

UZ(fn) ≤ UZ(f) +ε

3.

Auf ahnliche Weise erhalt man fur die Obersummen

OZ(f) ≤ OZ(fN) +ε

3,

und damit folgt

OZ(f)−UZ(f) = (OZ(f)−OZ(fN)) + (OZ(fN)−UZ(fN)) + (UZ(fN)−UZ(f)) < ε,

und aus Satz 16.7. folgt die Integrierbarkeit von f .

Dass die Integration mit der Grenzwertbildung vertauscht werden kann, sieht man

so:

∣∣∣

b∫

a

f(x) dx −b∫

a

fN(x) dx∣∣∣ ≤

b∫

a

|f(x) − fN(x)| dx <ε

3(b − a)(b − a) =

ε

3.

Beispiel 17.29. Auf die Gleichmaßigkeit der Konvergenz kann man in Satz 17.28.

nicht verzichten. Die Funktionenfolge fn : [0, 1] → IR,

fn(x) :=

n3x , 0 ≤ x ≤ 1n

2n2 − n3x , 1n≤ x ≤ 2

n

0 , 2n≤ x ≤ 1

konvergiert punktweise gegen die Nullfunktion (aber nicht gleichmaßig), und es gilt

1∫

0

fn(x) dx = 2

1/n∫

0

n3x dx = n 6→ 0.

2

Wendet man Satz 17.28. auf die Folge der Partialsummen an, so erhalt man so-

fort den folgenden Satz uber die gliedweise Integrierbarkeit von Reihen, in dem als

Spezialfall Satz 17.5. uber die gliedweise Integration von Potenzreihen enthalten ist.

264 KAPITEL 17. DAS UNBESTIMMTE INTEGRAL

Korollar 17.30. Sind die fn : [a, b] → IR integrierbar uber [a, b] und konvergiert

die Reihe

f(x) :=∞∑

n=0

fn(x)

gleichmaßig auf [a, b], so ist f integrierbar uber [a, b], und es gilt

b∫

a

∞∑

n=0

fn(x) dx =∞∑

n=0

b∫

a

fn(x) dx.

Wir sind nun auch in der Lage, die Vertauschbarkeit der Differentiation mit der

Grenzwertbildung zu untersuchen.

Satz 17.31. Es sei fn : [a, b] → IR eine Folge auf [a, b] stetig differenzierbarer

Funktionen. Konvergiert die Folge {f ′n} gleichmaßig auf [a, b] und existiert ein x0 ∈

[a, b], so dass die Folge {fn(x0)} konvergiert, so konvergiert die Funktionenfolge {fn}gleichmaßig auf dem Intervall [a, b] gegen eine stetig differenzierbare Funktion f , und

es gilt

limn→∞

f ′n(x) = f ′(x) fur alle x ∈ (a, b).

Beweis: Wir zeigen, dass {fn} eine Cauchy Folge ist.

Es sei ε > 0 gegeben. Da die Folge {f ′n} gleichmaßig auf [a, b] konvergiert, gibt es

ein N ∈ IN, so dass

|f ′n(x) − f ′

m(x)| <ε

2(b − a)fur alle x ∈ [a, b] und alle m,n ≥ N

gilt. Ferner folgt aus der Konvergenz der Folge {fn(x0)}, dass

|fn(x0) − fm(x0)| <ε

2fur alle m,n ≥ N

gilt, wobei moglicherweise N vergroßert werden mußte.

Nach dem Fundamentalsatz der Infinitesimalrechnung gilt

fn(x) = fn(x0) +

x∫

x0

f ′n(t) dt.

Hieraus folgt

fn(x) − fm(x) = fn(x0) − fm(x0) +

x∫

x0

(f ′n(t) − f ′

m(t)) dt,

17.5. VERTAUSCHEN VON GRENZWERTEN 265

und daher erhalt man fur alle x ∈ [a, b] und alle n,m ≥ N

|fn(x) − fm(x)| ≤ |x∫

x0

(f ′n(t) − f ′

m(t)) dt| + |fn(x0) − fm(x0)|

2(b − a)(b − a) +

ε

2= ε.

Daher ist die Folge {fn(x)} fur jedes x ∈ [a, b] eine Cauchy Folge. Sie konvergiert also

gegen ein f(x) ∈ IR, und da N in den vorhergehenden Uberlegungen unabhangig

von x gewahlt werden konnte, ist die Konvergenz gleichmaßig in [a, b].

Die Vertauschbarkeit der Differentiation mit der Grenzwertbildung folgt nun so: Es

sei

g(x) := limn→∞ f ′

n(x).

Nach dem Fundamentalsatz der Infinitesimalrechnung gilt

fn(x) − fn(a) =

x∫

a

f ′n(t) dt.

Da {f ′n} gleichmaßig gegen g konvergiert, folgt aus Satz 17.28.

f(x) − f(a) =

x∫

a

g(t) dt.

Da g als gleichmaßiger Grenzwert stetiger Funktionen stetig ist, ist f stetig diffe-

renzierbar in (a, b), und es gilt

f ′(x) = g(x) = limn→∞ f ′

n(x).

Als Folgerung erhalt man wieder das folgende Resultat uber die gliedweise Differen-

zierbarkeit von Reihen, das als Spezialfall Satz 13.29. uber die Differentiation von

Potenzreihen enthalt:

Korollar 17.32. Es seien fn : [a, b] → IR stetig differenzierbar, es konvergiere fur

ein x0 ∈ [a, b] die Reihe∞∑

n=0

fn(x0),

und es konvergiere die Reihe

∞∑

n=0

f ′n(x) gleichmaßig in [a, b].

266 KAPITEL 17. DAS UNBESTIMMTE INTEGRAL

Dann konvergiert fur alle x ∈ [a, b] die Reihe

f(x) :=∞∑

n=0

fn(x),

die Funktion f ist stetig differenzierbar in (a, b), und es gilt

f ′(x) =d

dx

∞∑

n=0

fn(x) =∞∑

n=0

f ′n(x).

Beispiel 17.33. Die Funktion

f(x) :=∞∑

n=1

1

nsin

x

n, 0 ≤ x ≤ 1,

ist stetig in [0, 1] und stetig differenzierbar in (0, 1), denn die gliedweise differenzierte

Reihe

−∞∑

n=1

1

n2cos

x

n

konvergiert gleichmaßig auf [0, 1] und f(0) konvergiert offensichtlich. 2

Beispiel 17.34. Eine gleichmaßig konvergente Reihe von differenzierbaren Funk-

tionen ist i.a. nicht differenzierbar, denn

f(x) :=∞∑

n=1

1

n2sin nx

konvergiert nach dem Majorantenkriterium in IR. f ist nicht gliedweise differenzier-

bar, denn∞∑

n=1

1

ncos nx

konvergiert nicht. Fur x = 0 erhalt man z.B. die harmonische Reihe. 2

Kapitel 18

Uneigentliche Integrale

Wir haben bisher vorausgesetzt, dass das Integrationsintervall endlich ist, und dass

der Integrand beschrankt ist. In diesem Kapitel 18 wollen wir den Integralbegriff auf

unendliche Integrationsintervalle und/oder unbeschrankte Funktionen erweitern.

Definition 18.1. Es sei I ⊂ IR ein (nicht notwendig beschranktes, nicht notwendig

abgeschlossenes) Intervall und f : I → IR. f heißt lokal integrierbar in I, wenn

f uber jedes abgeschlossene Teilintervall [a, b] von I integrierbar ist.

Beispiel 18.2. f(x) = xλ, λ ∈ IR, ist lokal integrierbar in (0,∞), da f in [a, b]

stetig ist fur jedes [a, b] ⊂ (0,∞). Fur λ < 0 ist f nicht integrierbar uber [0, 1], da

f unbeschrankt auf [0, 1] ist. 2

18.1 Unbeschrankte Integrationsintervalle

Wir betrachten zunachst unbeschrankte Integrationsintervalle.

Definition 18.3. Es sei f : [a,∞) → IR lokal integrierbar. Existiert der Grenz-

wert limα→∞

α∫

a

f(x) dx, so heißt f uneigentlich integrierbar uber [a,∞) und

∞∫

a

f(x) dx := limα→∞

α∫

a

f(x) dx (18.1)

heißt das uneigentliche Integral von f uber [a,∞).

268 KAPITEL 18. UNEIGENTLICHE INTEGRALE

Man sagt auch (in Analogie zur Terminologie bei den Reihen), dass das uneigentliche

Integral

∞∫

a

f(x) dx konvergiert.

Entsprechend definiert man das uneigentliche Integral der lokal integrierbaren Funk-

tion f : (−∞, b] → IR durch

b∫

−∞f(x) dx = lim

β→−∞

b∫

β

f(x) dx,

falls dieser Grenzwert existiert.

Die lokal integrierbare Funktion f : IR → IR heißt uneigentlich integrierbar uber IR,

wenn fur ein c ∈ IR die uneigentlichen Integrale

c∫

−∞f(x) dx und

∞∫

c

f(x) dx existieren.

In diesem Fall setzt man∞∫

−∞f(x) dx :=

c∫

−∞f(x) dx +

∞∫

c

f(x) dx. (18.2)

Bemerkung 18.4. Die Definition in (18.2) ist unabhangig von der Wahl von c.

Existieren

∞∫

c

f(x) dx und

c∫

−∞f(x) dx, so existieren offenbar auch

∞∫

d

f(x) dx und

d∫

−∞f(x) dx fur alle d ∈ IR, und es gilt

c∫

−∞f(x) dx +

∞∫

c

f(x) dx =

d∫

−∞f(x) dx +

∞∫

d

f(x) dx.

2

Bemerkung 18.5. In (18.2) mussen die beiden Grenzwerte auf der rechten Sei-

te getrennt gebildet werden. Es genugt nicht, die Existenz von limα→∞

α∫

−α

f(x) dx zu

untersuchen. Betrachtet man z.B. die Funktion f(x) = x, so gilt

limα→∞

α∫

0

f(x) dx = limα→∞

1

2α2 = ∞,

das uneigentliche Integral

∞∫

−∞f(x) dx existiert also nicht. Es gilt jedoch

limα→∞

α∫

−α

f(x) dx = limα→∞

[1

2x2

−α= 0.

2

18.1. UNBESCHRANKTE INTEGRATIONSINTERVALLE 269

Beispiel 18.6. Es sei λ ∈ IR und f(x) = xλ, x ≥ 1. Dann ist f stetig auf [1,∞),

also lokal integrierbar, und es gilt

α∫

1

xλ dx =

[ 1λ+1

xλ+1]α1 = 1λ+1

(αλ+1 − 1), falls λ 6= −1,

[ln x]α1 = ln α, falls λ = −1.

Daher existiert

∞∫

1

xλ dx genau dann, wenn λ < −1, und es gilt in diesem Fall

∞∫

1

xλ dx = − 1

λ + 1. 2

Beispiel 18.7. f(x) = |x| e−x2ist als stetige Funktion lokal integrierbar in IR. Es

giltα∫

0

f(x) dx =

α∫

0

x e−x2

dx = [−1

2e−x2

]α0 = −1

2e−α2

+1

2

und genauso

0∫

β

f(x) dx = −0∫

β

x e−x2

dx = [1

2e−x2

]0β =1

2− 1

2e−β2

.

Daher existiert∞∫

−∞|x| e−x2

dx = 1. 2

Die folgenden Resultate konnen sofort auf Integrale uber das Intervall (−∞, b] und

dann auf Integrale uber IR ubertragen werden. Wir formulieren sie nur fur den Fall

[α,∞).

Ahnlich wie fur Reihen gilt

Satz 18.8. (Cauchy Kriterium)

Es sei f : [a,∞) → IR lokal integrierbar. Das uneigentliche Integral

∞∫

a

f(x) dx

existiert genau dann, wenn fur alle ε > 0 ein c ∈ [a,∞) existiert, so dass gilt

∣∣∣∣

η∫

ξ

f(x) dx

∣∣∣∣ < ε fur alle ξ, η ≥ c. (18.3)

Beweis: Es gelte (18.3), und es sei F (α) :=

α∫

a

f(x) dx. Fur jede Folge {αn},

αn → ∞, ist dann {F (αn)} eine Cauchy Folge, also konvergent. Der Grenzwert

270 KAPITEL 18. UNEIGENTLICHE INTEGRALE

ist unabhangig von der gewahlten Folge {αn}, den wenn zwei Folgen {αn}, {βn} mit

αn → ∞, βn → ∞ und limn→∞F (αn) 6= lim

n→∞F (βn) existieren, so konvergiert fur die

Folge {γn}, γ2n := αn, γ2n+1 := βn, die Folge {F (γn)} nicht. Also ist f uneigentlich

integrierbar uber [a,∞).

Existiert umgekehrt

∞∫

a

f(x) dx =: I, so gibt es zu jedem ε > 0 ein c ≥ a mit

|F (α) − I| < ε2

fur alle α ≥ c. Fur ξ, η ≥ c gilt daher

∣∣∣

η∫

ξ

f(x) dx∣∣∣ = |F (η) − F (ξ)| ≤ |F (η) − I| + |I − F (ξ)| < ε.

Beispiel 18.9.

∞∫

0

sin x

xdx existiert, denn

sin x

xist stetig fortsetzbar auf [0,∞),

also lokal integrierbar, und

∣∣∣∣

η∫

ξ

sin x

xdx

∣∣∣∣ =

∣∣∣∣

[

−cos x

x

ξ−

η∫

ξ

cos x

x2dx

∣∣∣∣

=∣∣∣∣

cos ξ

ξ− cos η

η−

η∫

ξ

cos x

x2dx

∣∣∣∣

≤ | cos ξ|ξ

+| cos η|

η+

η∫

ξ

| cos x|x2

dx

≤ 1

ξ+

1

η+

η∫

ξ

dx

x2=

2

ξ< ε, falls η, ξ > 2

ε.

2

Bemerkung 18.10. Die Funktion

Si(x) :=

x∫

0

sin t

tdt,

der Integralsinus, wird in der Nachrichtentechnik benotigt, um die Sprungantwort

des idealen Tiefpassfilters zu beschreiben (vgl. Sauer [17, Seite 275]). Der Endwert

Si(∞), das Dirichletsche Integral , wird benotigt, um die Einschwingzeit des

idealen Tiefpassfilters zu bestimmen. 2

Bemerkung 18.11. Wie im Beweis von Satz 18.8. treten bei der Untersuchung

uneigentlicher Integrale sehr ahnliche Techniken auf wie bei den Reihen, und es

gelten sehr ahnliche Aussagen. Das folgende Beispiel 18.12. zeigt die Grenzen der

Analogie. 2

18.1. UNBESCHRANKTE INTEGRATIONSINTERVALLE 271

Beispiel 18.12. Aus der Existenz von

∞∫

a

f(x) dx folgt nicht limx→∞ f(x) = 0, denn

fur f(x) = sin(x2) gilt mit der Variablentransformation t = x2 (ahnlich wie oben)

∣∣∣

η∫

ξ

sin(x2) dx∣∣∣ =

1

2

∣∣∣

η2∫

ξ2

sin t√t

dt∣∣∣

=1

2

∣∣∣[−cos t√

t]η

2

ξ2 −1

2

η2∫

ξ2

cos t

t3/2dt

∣∣∣∣ <

1

2(1

ξ+

1

η+

1

ξ− 1

η) ≤ 1

ξ,

d.h.

∞∫

0

sin(x2) dx existiert, aber sin(x2) konvergiert nicht gegen 0 fur x gegen ∞. 2

Dagegen gilt nach Satz 18.8. fur jedes feste h > 0

limα→∞

α+h∫

α

f(x) dx = 0,

und dies entspricht der Aussage limn→∞ an = 0 fur jede konvergente Reihe

∞∑

n=0an.

Der folgende Satz 18.13. entspricht Satz 10.97.(i) fur Reihen und ist unmittelbar

klar:

Satz 18.13. (Monotoniekriterium)

Es sei f : [a,∞) → IR lokal integrierbar und nicht negativ. Das uneigentliche

Integral

∞∫

a

f(x) dx existiert, wenn es eine Konstante K gibt mit

F (α) :=

α∫

a

f(x) dx ≤ K fur alle α > a.

Definition 18.14. Das uneigentliche Integral

∞∫

a

f(x) dx heißt absolut konver-

gent, wenn

∞∫

a

|f(x)| dx existiert.

Der Beweis des nun folgenden Satzes 18.15. verlauft vollig analog dem der entspre-

chenden Aussagen fur Reihen und wird daher fortgelassen.

272 KAPITEL 18. UNEIGENTLICHE INTEGRALE

Satz 18.15. Es seien f , g : [a,∞) → IR lokal integrierbar. Dann gilt

(i) Existiert

∞∫

a

|f(x)| dx, so ist f uneigentlich integrierbar, und es gilt

∣∣∣

∞∫

a

f(x) dx∣∣∣ ≤

∞∫

a

|f(x)| dx.

(ii) (Majorantenkriterium)

Existiert

∞∫

a

g(x) dx und gilt |f(x)| ≤ g(x) fur x ∈ [a,∞), so konvergiert

∞∫

a

f(x) dx absolut.

(iii) (Minorantenkriterium)

Divergiert

∞∫

a

g(x) dx und gilt 0 ≤ g(x) ≤ f(x) fur x ∈ [a,∞), so ist f nicht

uneigentlich integrierbar.

Beispiel 18.16.

∞∫

0

sin x

xdx existiert, aber ist nicht absolut konvergent, denn aus

∞∫

0

∣∣∣sin x

x

∣∣∣ dx < ∞ folgt

∞∫

0

∣∣∣sin x

x

∣∣∣ dx =

∞∑

n=1

n π∫

(n−1) π

∣∣∣sin x

x

∣∣∣ dx ≥

∞∑

n=1

1

n π∫

(n−1) π

| sin x| dx

=1

π

π∫

0

sin x dx∞∑

n=1

1

n

im Widerspruch zur Divergenz der harmonischen Reihe. 2

Beispiel 18.17. Das Exponentialintegral

Ei(x) :=

x∫

−∞

et

tdt

ist fur alle x < 0 absolut konvergent, denn wegen limt→−∞

t et = 0 existiert zu x < 0

ein M > 0 mit |t et| ≤ M fur alle t ∈ (−∞, x]. Daher gilt fur diese t∣∣∣∣

et

t

∣∣∣∣ =

∣∣∣∣

t et

t2

∣∣∣∣ ≤

M

t2,

und aus der Konvergenz von

x∫

−∞

1

t2dt und dem Majorantenkriterium folgt die Be-

hauptung. 2

18.2. UNBESCHRANKTE INTEGRANDEN 273

0 1 2 3 4 5 6 7

0

0.5

1

1.5

f h

g

Abbildung 18.1 : Zu Beispiel 18.18.

Man kann Satz 18.15. nutzen, um die Konvergenz unendlicher Reihen zu untersu-

chen:

Beispiel 18.18. Es ist

∞∑

n=1

1

nλ=

∞∫

0

f(x) dx mit f(x) = n−λ fur n − 1 < x ≤ n.

Offensichtlich gilt f(x) ≤ g(x) := x−λ, und fur λ > 1 existiert

∞∫

1

g(x) dx, also auch

∞∑

n=1

1

nλ= 1 +

∞∫

1

f(x) dx.

Andererseits ist∞∑

n=1

n−λ =

∞∫

1

h(x) dx mit h(x) := n−λ fur n ≤ n < n + 1 und

h(x) ≥ g(x), so dass fur λ ≤ 1 die Reihe nach Satz 18.15.(iii) divergiert. 2

18.2 Unbeschrankte Integranden

Wir betrachten nun den Fall unbeschrankter Integranden.

Definition 18.19. Ist f : (a, b] → IR lokal integrierbar, limx→a+0

f(x) = ±∞, und

274 KAPITEL 18. UNEIGENTLICHE INTEGRALE

existiert limα→a+0

b∫

αf(x) dx, so heißt f uneigentlich integrierbar uber (a, b] und

b∫

a

f(x) dx := limα→a+0

b∫

α

f(x) dx

heißt das uneigentliche Integral von f uber (a, b].

Analog definiert man das uneigentliche Integral einer lokal integrierbaren Funktion

f : [a, b) → IR mit limx→b−0

f(x) = ±∞ uber [a, b) durch

b∫

a

f(x) dx := limβ→b−0

β∫

a

f(x) dx.

Ist f : (a, b) → IR an beiden Intervallenden a und b unbeschrankt, so heißt f unei-

gentlich integrierbar uber (a, b), wenn fur ein c ∈ (a, b) die uneigentlichen Integralec∫

a

f(x) dx und

b∫

c

f(x) dx existierten. Man setzt dann

b∫

a

f(x) dx := limα→a+0

c∫

α

f(x) dx + limβ→b−0

β∫

c

f(x) dx.

Schließlich kann man aus den beiden betrachteten Begriffen des uneigentlichen Inte-

grals auf offensichtliche Weise das uneigentliche Integral einer unbeschrankten Funk-

tion uber einen unbeschrankten Bereich erklaren (vgl. Definition der Gammafunk-

tion im nachfolgenden Beispiel 18.22.).

Wie im Fall des unbeschrankten Integrationsintervalls gilt fur uneigentliche Inte-

grale einer unbeschrankten Funktion das Cauchysche Kriterium, das Monotonie-,

Majoranten- und Minorantenkriterium. Da die Ubertragungen offensichtlich sind,

verzichten wir auf ihre Formulierungen.

Beispiel 18.20. Sei f(x) := xλ, x ∈ (0, 1]. Dann gilt

1∫

α

xλ dx =

[ 1λ+1

xλ+1]1α = 1λ+1

(1 − αλ+1) fur λ 6= −1,

[ln x]1α = − ln α fur λ = −1,

daher existiert das (uneigentliche) Integral genau fur λ > −1, und es gilt

1∫

0

xλ dx =1

λ + 1.

2

18.2. UNBESCHRANKTE INTEGRANDEN 275

Beispiel 18.21. Sei f(x) = ln x, x ∈ (0, 1]. Dann gilt

limα→0+0

1∫

α

ln x dx = limα→0+0

[x ln x − x]1α = limα→0+0

(−1 − α ln α + α) = −1.

2

Beispiel 18.22.

Γ(x) :=

∞∫

0

e−t tx−1 dt, x > 0. (18.4)

Fur x ∈ (0, 1) ist der Integrand f(t; x) := e−t tx−1 in einer Umgebung von t = 0

unbeschrankt. Wir zerlegen daher das uneigentliche Integral Γ(x) in

Γ(x) =

1∫

0

e−t tx−1 dt +

∞∫

1

e−t tx−1 dt =: I1(x) + I2(x).

Es gilt fur jedes x > 0

|e−t tx−1| ≤ tx−1 fur alle t ∈ (0, 1],

und wegen x−1 > −1 existiert nach dem Majorantenkriterium I1(x). I2(x) existiert

ebenfalls nach dem Majorantenkriterium, denn sicher ist e−t tx+1 fur t ∈ [1,∞)

beschrankt, etwa |e−t tx+1| ≤ M , und daher gilt

|e−t tx−1| ≤ M

t2,

und

∞∫

1

M

t2dt existiert.

Die durch (18.4) definierte Funktion Γ : IR+ → IR heißt Eulersche Gammafunk-

tion oder kurz Gammafunktion. Sie spielt in vielen Gebieten der angewandten

Mathematik (Mathematische Physik, Stochastik) eine große Rolle.

Durch partielle Integration erhalt man fur x > 0

Γ(x + 1) =

∞∫

0

e−t tx dt = [−e−t tx]∞0 + x

∞∫

0

e−t tx−1 dt = x Γ(x),

und hieraus wegen

Γ(1) =

∞∫

0

e−t dt = [−e−t]∞0 = 1

durch vollstandige Induktion

Γ(n + 1) = n! fur alle n ∈ IN0.

Die Gammafunktion ist also eine Fortsetzung der Fakultat von IN auf IR+. 2

276 KAPITEL 18. UNEIGENTLICHE INTEGRALE

Wir haben bisher das uneigentliche Integral fur den Fall definiert, bei dem der In-

tegrand in Umgebungen der Randpunkte des Intervalls unbeschrankt sein konnte.

Wir betrachten nun eine lokal integrierende Funktion f : [a, b]\{c} → IR, c ∈ (a, b).

Um die Gebietsadditivitatβ∫

α=

γ∫

α+

β∫

γfur Integrale zu erhalten, nennen wir f un-

eigentlich integrierbar uber [a, b], wenn die uneigentlichen Integrale

c∫

a

f(x) dx und

b∫

c

f(x) dx existieren. Man setz dann

b∫

a

f(x) dx := limα→c−0

α∫

a

f(x) dx + limβ→c+0

b∫

β

f(x) dx. (18.5)

Auch in (18.5) mussen die Grenzubergange getrennt ausgefuhrt werden. Die Funk-

tion f(x) =1

x, x ∈ [−1, 1] \ {0}, ist also nicht uneigentlich integrierbar, da das

uneigentliche Integral

1∫

0

1

xdx nicht existiert.

Existiert der Grenzwert

limε→0+0

( c−ε∫

a

f(x) dx +

b∫

c+ε

f(x) dx)

,

so spricht man vom Cauchyschen Hauptwert des Integrals und schreibt

C

b∫

a

f(x) dx = limε→0+0

( c−ε∫

a

f(x) dx +

b∫

c+ε

f(x) dx)

.

Fur f(x) =1

x, x ∈ [−1, 1] \ {0} gilt

C

1∫

−1

f(x) dx = limε→0+0

( −ε∫

−1

1

xdx +

1∫

ε

1

xdx

)

= limε→0+0

(

[ln |x|]−ε−1 + [ln |x|]1ε

)

= limε→0+0

(ln ε − ln ε) = 0,

der Cauchysche Hauptwert existiert also.

Das Exponentialintegral

Ei(x) =

x∫

−∞

et

tdt

18.2. UNBESCHRANKTE INTEGRANDEN 277

ist fur x < 0 definiert. Fur x = 0 existiert das Integral nicht, denn

et

t=

1

t+

∞∑

n=0

tn

(n + 1)!,

d.h. der Integrand ist Summe einer glatten Funktion∞∑

n=0

tn

(n+1)!und der nicht unei-

gentlich integrierbaren Funktion1

t. Fur x > 0 existiert dann

x∫

−∞

et

tdt als uneigentli-

ches Integral auch nicht, aber als Cauchyscher Hauptwert. Das Exponentialintegral

wird fortgesetzt durch

Ei(x) = C

x∫

−∞

et

tdt.

Kapitel 19

Numerische Integration

Bestimmte Integrale konnen in vielen Fallen nicht elementar (d.h. mit Hilfe einer

Stammfunktion) ausgewertet werden, in anderen Fallen ist die exakte Auswertung

zu muhsam. Man verwendet dann numerische Quadraturverfahren. Diese gewinnt

man dadurch, dass man den Integranden durch eine Funktion ersetzt, die leicht

integriert werden kann.

19.1 Einfuhrende Beispiele

Wir betrachten das Integral

I =

b∫

a

f(x) dx. (19.1)

Wir zerlegen das Intervall [a, b] aquidistant in n Teilintervalle

a = x0 < x1 < . . . < xn = b, xi = a + i h, h :=b − a

n,

und ersetzen f im i-ten Teilintervall [xi−1, xi] durch die konstante Funktion f(xi −h/2). Die Integration dieser stuckweise konstanten Funktion liefert die Naherung

R(f) = hn∑

i=1

f(xi − h/2) (19.2)

fur das bestimmte Integral (19.1). Die Quadraturformel (19.2) heißt summierte Mit-

telpunktregel oder Rechteckregel (siehe Abbildung 19.1).

19.1. EINFUHRENDE BEISPIELE 279

0 0.5 1 1.5 2 2.5 3 3.5 4

0

0.5

1

1.5

2

2.5

3

3.5

4

x0

x1

x2

x3 x

4x

5

Abbildung 19.1 : Mittelpunktregel

Ersetzt man f im i-ten Teilintervall einer aquidistanten Zerlegung durch die Sehne,

und integriert man die entstehende stuckweise lineare Funktion, so erhalt man als

Naherung fur das Integral (19.1)

T (f) = h(1

2f(a) +

n−1∑

i=1

f(xi) +1

2f(b)

)

, (19.3)

die summierte Trapezregel (siehe Abbildung 19.2).

Bei der Rechteckregel haben wir f durch eine stuckweise konstante Funktion ersetzt,

bei der Trapezregel durch eine stuckweise lineare Funktion. Es liegt nun nahe, das

Intervall [a, b] in eine gerade Anzahl von Intervallen zu zerlegen, in zwei benachbarten

Intervallen [xi, xi+1], i = 0, 2, 4, . . . , n − 2 die Funktion f durch die interpolierende

Parabel an den Knoten xi, xi+1, xi+2 zu ersetzen und als Naherung fur (19.1) das

Integral der so erhaltenen stuckweise quadratischen Funktion zu wahlen.

Man erhalt die summierte Simpson Regel

S(f) =h

3

(

f(x0) + 4 f(x1) + 2 f(x2) + 4 f(x3) + . . . + 4 f(x2n−1) + f(x2n))

=h

3

(

f(x0) + 4n∑

i=1

f(x2i−1) + 2n−1∑

i=1

f(x2i) + f(x2n))

,

die in der deutschsprachigen Literatur auch Keplersche Fassregel heißt (und erst-

mals von Toricelli verwendet wurde).

280 KAPITEL 19. NUMERISCHE INTEGRATION

0 0.5 1 1.5 2 2.5 3 3.5 4

0

0.5

1

1.5

2

2.5

3

3.5

4

x0

x1 x

2x

3x

4x

5

Abbildung 19.2 : Trapezregel

Tabelle 19.1: Fehler fur verschiedene Schritweiten

n R T S

1 1.1415926536 −2.00000000002 0.2214414691 −0.4292036732 0.0943951023931954 0.0523443060 −0.1038811021 0.0045597549844218 0.0129090856 −0.0257683981 0.000269169948388

16 0.0032163782 −0.0064296562 0.00001659104793632 0.0008034163 −0.0016066390 0.00000103336941364 0.0002008117 −0.0004016114 0.000000064530002

128 0.0000502003 −0.0001003998 0.000000004032257256 0.0000125499 −0.0000250998 0.000000000252003512 0.0000031375 −0.0000062749 0.000000000015750

1024 0.0000007844 −0.0000015687 0.000000000000984

Beispiel 19.1. Wir behandeln

π∫

0

sin x dx

mit den hergeleiteten Formeln. Tabelle 19.1 enthalt die Fehler fur die Schrittweiten

hn = πn

fur verschiedene n.

Man sieht, dass bei Verdopplung der Anzahl der Knoten, d.h. bei Halbierung der

Schrittweite h, der Fehler der Rechteck- und der Trapezregel geviertelt wird, der

Fehler der Simpson Regel um den Faktor1

16verkleinert wird. Wir untersuchen das

Fehlerverhalten der Quadraturformeln noch genauer. 2

19.2. KONSTRUKTION VON QUADRATURFORMELN 281

19.2 Konstruktion von Quadraturformeln

Wir kommen nun zur Konstruktion von numerischen Integrationsmethoden. Die

Grundidee dabei ist, den Integranden f bei gegebenen Knoten x0, . . . , xn ∈ [a, b]

durch das interpolierende Polynom p ∈ Πn mit p(xi) = f(xi), i = 0, . . . , n, zu erset-

zen und als Naherung fur

b∫

a

f(x) dx das elementar auswertbare Integral

b∫

a

p(x) dx

zu wahlen.

Die nachstliegende und historisch alteste Knotenwahl ist die aquidistante

xi = a + ib − a

n, i = 0, . . . , n.

Dann gilt nach der Lagrangeschen Interpolationsformel

p(x) =n∑

i=0

f(xi) ℓi(x), ℓi(x) =n∏

j =0

j 6= i

(x − xj

xi − xj

)

,

und man erhalt als Naherung fur (19.1) die Newton-Cotes-Formeln

In(f) =

b∫

a

p(x) dx =n∑

i=0

f(xi)

b∫

a

n∏

j =0

j 6= i

(x − xj

xi − xj

)

dx. (19.4)

Mit der Variablentransformation

x =: a + tb − a

n, 0 ≤ t ≤ n,

erhalt man

b∫

a

n∏

j =0

j 6= i

(x − xj

xi − xj

)

dx =b − a

n

n∫

0

n∏

j =0

j 6= i

(t − j

i − j

)

dt =: (b − a) αin,

wobei die Gewichte

αin :=1

n

n∫

0

n∏

j =0

j 6= i

(t − j

i − j

)

dt, i = 0, 1, . . . , n,

unabhangig von f und vom speziellen Intervall [a, b] sind. Hiermit lauten die Newton-

Cotes Formeln

In(f) = (b − a)n∑

i=0

αin f(xi).

Tabelle 19.2 enthalt die wichtigsten Newton-Cotes-Formeln.

282 KAPITEL 19. NUMERISCHE INTEGRATION

Tabelle 19.2: Newton-Cotes Formeln

n αin Name

1 1/2 1/2 Trapezregel

2 1/6 4/6 1/6 Simpson Regel

3 1/8 3/8 3/8 1/8 3/8-Regel

4 7/90 32/90 12/90 32/90 7/90 Milne Regel

Tabelle 19.3: Clenshaw-Curtis Formeln

n αin

1 1/2 1/22 1/6 4/6 1/63 1/18 8/18 8/18 1/184 1/30 8/30 12/30 8/30 1/30

Die Gewichte der Newton-Cotes Formeln bis n = 10 sind in Braß: Quadraturver-

fahren, S. 122, tabelliert. Sie wachsen rasch an und haben fur n ≥ 8 wechselndes

Vorzeichen, sind also rundungsfehleranfallig. Man benutzt die daher nur fur kleine

n auf Teilintervallen von[a, b] und summiert auf (summierte Trapez und Simpson

Regel).

In Abschnitt 14.5 haben wir gesehen, dass der Fehler des Interpolationspolynoms bei

aquidistanten Knoten am Rande des Intervalls stark wachst und dass das Fehlerver-

halten wesentlich gunstiger ist, wenn man an den Tschebyscheffknoten interpoliert.

Nimmt man die Endpunkte des Intervalls hinzu, und wahlt man als Knoten

xi =a + b

2− b − a

2cos(

i

nπ), i = 0, 1, . . . , n,

so erhalt man die Clenshaw-Curtis Formeln.

Die Gewichte der ersten Clenshaw-Curtis Formeln

CCn(f) = (b − a)n∑

i=0

αin f(xi)

enthalt Tabelle 19.3.

19.3 Fehler von Quadraturformeln

Wir untersuchen nun den Fehler von Quadraturformeln. Da man jedes Intervall [α, β]

durch die lineare Substitution x =: α+β2

+β−α2

t auf das Intervall [−1, 1] transformieren

19.3. FEHLER VON QUADRATURFORMELN 283

kann, genugt es, das Integral

I :=

1∫

−1

f(x) dx

und eine zugehorige Quadraturformel

Q(f) :=n∑

i=0

wi f(xi)

fur das Referenzintervall [−1, 1] zu betrachten.

Definition 19.2. Die Quadraturformel Q(f) hat die Fehlerordnung m, wenn

fur den Fehler

E(f) :=

1∫

−1

f(x) dx −n∑

i=0

wi f(xi)

E(f) = 0 fur alle Polynome f ∈ Πm−1 gilt und E(f) 6= 0 fur ein f ∈ Πm ist.

Wegen der Linearitat des Fehlers ist klar, dass Q genau die Fehlerordnung m hat,

wenn E(xj) = 0, j = 0, . . . ,m − 1, und E(xm) 6= 0 gilt.

Die Konstruktion liefert, dass die Newton-Cotes und die Clenshaw-Curtis Formeln

wenigstens die Fehlerordnung n + 1 haben. Fur die Trapezregel ist dies die genaue

Fehlerornung, denn

T (x2) = 2 6=1∫

−1

x2 dx =2

3.

Fur die Simpson Regel gilt

S(x3) =1

3(−1 + 4 · 0 + 1) = 0 =

1∫

−1

x3 dx, S(x4) =2

36=

1∫

−1

x4 dx =2

5,

so dass die Simpson Regel sogar die Ordnung 4 hat.

Satz 19.3. Es sei Q die Quadraturformel der Fehlerordnung m ≥ 1. Dann gibt es

eine Funktion K, den Peano Kern, so dass gilt

E(f) =

1∫

−1

f(x) dx − Q(f) =

1∫

−1

K(x) f (m)(x) dx (19.5)

fur alle f ∈ Cm[−1, 1].

284 KAPITEL 19. NUMERISCHE INTEGRATION

Beweis: Nach dem Taylorschen Satz gilt

f(x) =m−1∑

k=0

f (k)(−1)

k!(x + 1)k +

1

(m − 1)!

x∫

−1

f (m)(t) (x − t)m−1 dt,

=: p(x) + r(x)

und daher mit der Funktion

(t)k+ :=

tk, falls t ≥ 0,

0, falls t < 0,k ∈ IN0,

E(f) = E(p) + E(r) = E(r)

=1

(m − 1)!

{ 1∫

−1

x∫

−1

f (m)(t) (x − t)m−1 dt dx −n∑

i=0

wi

xi∫

−1

f (m)(t) (xi − t)m−1 dt}

=1

(m − 1)!

{ 1∫

−1

1∫

t

f (m)(t) (x − t)m−1 dx dt −n∑

i=0

wi

1∫

−1

f (m)(t) (xi − t)m−1+ dt

}

=1

(m − 1)!

{ 1∫

−1

( 1

m(1 − t)m −

n∑

i=0

wi (xi − t)m−1+

)

f (m)(t) dt}

,

d.h. (19.5) mit dem Peano Kern

K(t) =1

(m − 1)!

(1

m(1 − t)m −

n∑

i=0

wi (xi − t)m−1+

)

.

Dabei muss die Vertauschung der Integrationsreihenfolge (in Mathematik III) noch

gerechtfertigt werden.

Beispiel 19.4. Fur die Trapezregel gilt x0 = −1, x1 = 1, w0 = w1 = 1, m = 2,

und daher gilt

KT (t) =1

2(1 − t)2 − (1 − t) = −1

2(1 − t2).

2

Beispiel 19.5. Fur die Simpson Regel gilt x0 = −1, x1 = 0, x2 = 1, w0 = w2 = 13,

w1 = 43

und m = 4, und daher

KS(t) =1

3!

(1

4(1 − t)4 − 1

3(1 − t)3 − 4

3(−t)3

+

)

.

2

19.3. FEHLER VON QUADRATURFORMELN 285

Aus Satz 19.3. erhalt man die folgende Abschatzung fur den Fehler

|E(f)| ≤ max−1≤x≤1

|f (m)(x)|1∫

−1

|K(x)| dx

=: 2m+1 cm max−1≤x≤1

|f (m)(x)|. (19.6)

In vielen Fallen wechselt der Peano Kern K(x) das Vorzeichen auf [−1, 1] nicht.

Dann folgt aus (19.5) mit dem Mittelwertsatz der Integralrechnung (Satz 16.21.)

mit einem ξ ∈ (−1, 1)

E(f) = f (m)(ξ)

1∫

−1

K(x) dx =: 2m+1 cm f (m)(ξ) (19.7)

fur eine Quadraturformel der Ordnung m (Die Bedeutung des Faktors 2m+1 — auch

in Formel (19.6) — wird spater klar). cm heißt die Fehlerkonstante des Verfahrens.

Fur die Trapezregel gilt KT (x) = −(1 − x2)/2 ≤ 0 fur alle x ∈ [−1, 1]. Da T die

Ordnung 2 hat, gilt

ET (f) = −1

2f ′′(ξ)

1∫

−1

(1 − x2) dx = −2

3f ′′(ξ) = −23 f ′′(ξ)

12,

und die Fehlerkonstante ist c2 = − 1

12.

Eine elementare Rechnung zeigt, dass auch fur die Simpson Regel

KS(x) =1

3!

(1

4(1 − x)4 − 1

3(1 − x)3 − 4

3(−x)3

+

)

≤ 0

fur alle x ∈ [−1, 1] gilt. Durch Integration von K von −1 bis 1 erhalt man fur den

Fehler wegen m = 4

ES(f) = − 1

90f (4)(ξ) = −25 f (4)(ξ)

2880

fur ein ξ ∈ (−1, 1), d.h. c4 = − 1

2880.

Man kann die Fehlerkonstante der Simpson Regel und auch anderer Formeln ohne

Integration (sogar ohne Kenntnis) des Peano Kerns bestimmen. Ist bekannt, dass der

Peano Kern einer Formel der Ordnung m sein Vorzeichen in [−1, 1] nicht wechselt,

der Fehler also eine Darstellung (19.7) hat, so hat man nur E(xm) zu berechnen.

Es ist namlichdm

dxm(xm) = m! und daher

E(xm) = 2m+1 · m! · cm,

286 KAPITEL 19. NUMERISCHE INTEGRATION

und hieraus erhalt man cm.

Im Fall der Simpson Regel ist

E(x4) =

1∫

−1

x4 dx − 1

3

(

(−1)4 + 4 · 04 + 14)

=2

5− 2

3= − 4

15,

und daher gilt

c4 = 2−5 · 1

4!·(

− 4

15

)

= − 1

2880.

WIr betrachten nun das Integral von f uber ein Intervall der Lange h:

α+h∫

α

f(x) dx.

Mit der Variablentransformation x =: α +h

2(t + 1) geht dieses uber in

h

2

1∫

−1

g(t) dt, g(t) := f(

α +h

2(t + 1)

)

= f(x),

das wir mit mit der Quadraturformel

Q(g) =n∑

i=0

wig(xi)

behandeln, d.h.

Q[α,α+h](f) :=h

2

n∑

i=0

wi f(

α +h

2(xi + 1)

)

.

Fur den Fehler gilt

E[α,α+h](f) :=

α+h∫

α

f(x) dx − Q[α,α+h](f)

=h

2

( 1∫

−1

g(t) dt − Q(g))

=h

2E(g).

Besitzt der Fehler E(g) eine Darstellung (19.6), so folgt wegen

dmg

dtm=

dmf

dxm·(

dx

dt

)m

=(

h

2

)m dmf

dxm

|E[α,α+h](f)| ≤ h

2·(

h

2

)m

· 2m+1 · cm · maxα≤x≤α+h

|f (m)(x)|

= hm+1 · cm · maxα≤x≤α+h

|f (m)(x)|; (19.8)

gilt eine Darstellung (19.7), so erhalt man genauso

E[α,α+h](f) = hm+1 · cm · f (m)(η), η ∈ [α, α + h]. (19.9)

19.4. QUADRATURFORMELN VON GAUSS 287

Wir haben bereits erwahnt, dass die Genauigkeit einer Naherung fur ein Integral

nicht durch die Erhohung der Ordnung der benutzten Quadraturformel verbessert

wird, sondern dass das Intervall [a, b] in n Teilintervalle der Lange h zerlegt wird,

und dass in jedem Teilintervall eine Quadraturformel kleiner Qrdnung verwendet

wird. Fur die summierte Quadraturformel

Qh(f) :=n∑

i=1

Q[a+(i−1) h,a+i h](f)

erhalt man aus (19.8)

∣∣∣

b∫

a

f(x) dx − Qh(f)∣∣∣ =

∣∣∣∣

n∑

i=1

a+i h∫

a+(i−1) h

f(x) dx − Q[a+(i−1) h,a+i h](f)∣∣∣∣

≤n∑

i=1

|E[a+(i−1) h,a+i h](f)|

≤n∑

i=1

hm+1 · cm · max{|f (m)(x)| : a + (i − 1) h ≤ x ≤ a + i h}

≤ nh · hm · cm · maxa≤x≤b

|f (m)(x)|

≤ hm (b − a) cm maxa≤x≤b

|f (m)(x)|.

Man verliert also fur die summierte Formel eine Potenz in h.

19.4 Quadraturformeln von Gauß

Wir haben bisher die Knoten der Quadraturformeln (aquidistant oder als Nullstellen

der Tschebyscheff Polynome) vorgegeben. Die Fehlerordnung war dann (wenigstens)

gleich der Anzahl der Knoten (im Falle der Simpson Regel bei 3 Knoten 4). Wir

fragen nun, wie weit wir durch Wahl der Knoten und der Gewichte die Fehlerordnung

erhohen konnen.

Beispiel 19.6. Wir betrachten die Quadraturformel G1(f) := w1 f(x1) mit einem

Knoten x1 fur das Integral

1∫

−1

f(x) dx und bestimmen x1 ∈ [−1, 1] und w1 ∈ IR so,

dass Polynome moglichst hohen Grades exakt integriert werden:

1∫

−1x0 dx = 2 = w1 x0

1 = w1 ⇒ w1 = 2,

1∫

−1x1 dx = 0 = w1 x1

1 = 2x1 ⇒ x1 = 0.

288 KAPITEL 19. NUMERISCHE INTEGRATION

Durch diese beiden Gleichungen ist also die Quadraturformel G1(f) = 2 f(0) bereits

festgelegt; man erhalt die Mittelpunktregel. Wegen

1∫

−1

x2 dx =2

36= 2 · 02 hat sie die

Fehlerordnung 2. 2

Beispiel 19.7. Fur die Quadraturformel

G2(f) = w1 f(x1) + w2 f(x2)

mit zwei Knoten x1, x2 ∈ [−1, 1] erhalt man die Bestimmungsgleichungen

1∫

−1

x0 dx = 2 = w1 + w2,

1∫

−1

x1 dx = 0 = w1 x1 + w2 x2,

1∫

−1

x2 dx =2

3= w1 x2

1 + w2 x22,

1∫

−1

x3 dx = 0 = w1 x31 + w2 x3

2,

mit der eindeutigen Losung

w1 = w2 = 1, x1 = − 1√3, x2 =

1√3.

Wegen1∫

−1

x4 dx =2

56= 1 ·

(

− 1√3

)4+ 1 ·

( 1√3

)4=

2

9

hat die gefundene Quadraturformel

G2(f) = f(

− 1√3

)

+ f( 1√

3

)

die Fehlerordnung 4. 2

Man kann zeigen (vgl. Stoer [20, S. 122]), dass es zu jedem n ∈ IN eine eindeutige

Quadraturformel der Ordnung 2n gibt, die sog. Gaußsche Quadraturformel,

Gn(f) =n∑

i=1

wi f(xi),

und dass keine hohere Ordnung durch Wahl der Knoten und Gewichte erreichbar

ist.

19.4. QUADRATURFORMELN VON GAUSS 289

Die Knoten und Gewichte werden nicht wie in Beispiel 19.6. und Beispiel 19.7. fur

n = 1 und n = 2 aus einem nichtlinearen Gleichungssystem bestimmt, sondern man

kann zeigen, dass die Knoten von Gn die Nullstellen des n-ten Legendre Polynoms

pn(x) =1

2n · n!

dn

dxn

(

(x2 − 1)n)

sind, und dass die Gewichte aus einem linearen Gleichungssytem berechnet werden

konnen. Eine Aufstellung fur

n = 1, . . . , 12, 16, 20, 24, 32, 40, 48, 64, 80, 96

findet man in Abramowitz, Stegun [1]. Wir geben nur noch G3 an

G3(f) =5

9f(−

√0.6) +

8

9f(0) +

5

9f(√

0.6).

Anders als bei den Newton-Cotes Formeln sind die Gewichte der Gaußformeln

stets positiv. Es treten also bei ihnen auch fur große n keine Instabilitaten durch

Ausloschung auf. Man benutzt sie dennoch vornehmlich in summierten Quadratur-

formeln mit kleiner Ordnung.

Bemerkung 19.8. Bei einigen Anwendungen (insbesondere der Diskretisierung

von Integralgleichungen) ist es erforderlich, dass ein Randpunkt (bzw. beide Rand-

punkte) zu den Knoten gehort. Man setzt also xn = 1 (bzw. x1 = −1, xn = 1) und

bestimmt die ubrigen Knoten x1, . . . , xn−1 (bzw. x2, . . . , xn−1) und die Gewichte wi,

i = 1, . . . , n, so, dass die Ordnung der Quadraturformel maximal wird.

Im ersten Fall erhalt man die Radau Formel (ihre Ordnung ist bei n Knoten

2n − 1, die Knoten x1, . . . , xn−1 sind die Nullstellen des Polynoms pn − pn−1 mit

den Legendre Polynomen pν), im zweiten Fall die Lobatto Formel (ihre Ordnung

ist bei n Knoten 2n − 2, die Knoten x2, . . . , xn−1 sind die Nullstellen des Polynoms

pn − pn−2).

Als Beispiel geben wir nur die Lobatto Formel der Ordnung 6 an:

Q(f) =1

6

(

f(−1) + 5 f(

− 1√5

)

+ 5 f( 1√

5

)

+ f(1))

.

2

290 KAPITEL 19. NUMERISCHE INTEGRATION

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

0

1

2

3

4

5

6

7

8

9

10

Abbildung 19.3 : Beispiel 19.9.

19.5 Adaptive Quadratur

Wir haben summierte Quadraturformeln nur mit konstanter Schrittweite h > 0 be-

trachtet. Es ist klar, dass man dabei fur Funktionen mit unterschiedlichem Verhalten

in verschiedenen Teilen des Integrationsintervalls entweder bei zu groß gewahltem

h ein ungenaues Ergebnis erhalt oder bei zu kleinem h Arbeit in den Bereichen

verschenkt, in denen die Funktion “gutartig” ist.

Beispiel 19.9. (siehe dazu Abbildung 19.3)

f(x) = exp(

−200 (x + 0.8)2)

+ 10 · exp(

−500 (x − 0.9)2)

, −1 ≤ x ≤ 1.

2

Wir entwickeln nun eine Vorgehensweise, mit der bei gegebenem Integranden, gege-

benen Grenzen a und b und gegebener Genauigkeitsschranke ε > 0 eine Quadratur-

formel

I(f) =k∑

j=0

wj f(xj)

erzeugt wird, fur die gilt∣∣∣∣

b∫

a

f(x) dx − I(f)∣∣∣∣

·< ε,

wobei der Punkt uber dem Ungleichungszeichen besagt, dass die Ungleichung nur

asymptotisch fur feine Zerlegungen a ≤ x0 < x1 < . . . < xk ≤ b von [a, b] gilt.

19.5. ADAPTIVE QUADRATUR 291

Die Knoten xj und Gewichte wj werden adaptiv durch das Verfahren in Abhangigkeit

von f und ε erzeugt.

Es sei Q(f) =n∑

i=1wi f(ti) eine Quadraturformel der Ordnung m fur das Referenzin-

tervall [−1, 1].

Es sei das Integral bis zum Punkt xj ∈ [a, b) schon naherungsweise bestimmt, und

es sei xj+1 ∈ (xj, b] gegeben. Dann berechnen wir die zwei Naherungen

Q[xj ,xj+1](f) =xj+1 − xj

2

n∑

i=1

wi f(

xj+1 + xj

2+ ti

xj+1 − xj

2

)

und

Q[xj ,xj+1](f) :=xj+ 1

2− xj

2

n∑

i=1

wi f(xj+ 1

2+ xj

2+ ti

xj+ 12− xj

2

)

+xj+1 − xj+ 1

2

2

n∑

i=1

wi f(xj+1 + xj+ 1

2

2+ ti

xj+1 − xj+ 12

2

)

fur

xj+1∫

xj

f(x) dx, wobei xj+ 12

:=xj + xj+1

2gesetzt ist, und hiermit

Q[xj ,xj+1] :=1

2m − 1

(

2m · Q[xj ,xj+1](f) − Q[xj ,xj+1](f))

.

Dann ist mit Q und Q auch Q eine Quadraturformel von mindestens der Ordnung

m, und man kann leicht mit Hilfe der Fehlerdarstellung aus Satz 19.3. zeigen, dass

durch Q sogar Polynome vom Grade m exakt integriert werden, Q also wenigstens

die Ordnung m + 1 hat.

Wir benutzen nun Q, um den Fehler von Q (der genaueren der beiden Ausgangsfor-

meln) zu schatzen.

Es gilt mit h := xj+1 − xj

E[xj ,xj+1](f) :=

xj+1∫

xj

f(x) dx − Q[xj ,xj+1](f)

= Q[xj ,xj+1](f) − Q[xj ,xj+1](f) + Cm+1 hm+1

=1

2m − 1

(

2m Q[xj ,xj+1](f) − Q[xj ,xj+1](f))

− Q[xj ,xj+1](f) + Cm+1 hm+1

=1

2m − 1

(

Q[xj ,xj+1](f) − Q[xj ,xj+1](f))

+ Cm+1 hm+1.

292 KAPITEL 19. NUMERISCHE INTEGRATION

Da andererseits E[xj ,xj+1](f) = Cm hm gilt, konnen wir fur kleine h den Summanden

Cm+1 hm+1 vernachlassigen und erhalten die Fehlerabschatzung

E[xj ,xj+1](f) ≈ 1

2m − 1

(

Q[xj ,xj+1](f) − Q[xj ,xj+1](f))

. (19.10)

Wir benutzen (19.10), um das Intervall [a, b] durch Bisektion zu zerlegen in a =

x0 < x1 < . . . < xk = b, so dass fur j = 1, . . . , k gilt∣∣∣∣Q[xj−1,xj ](f) − Q[xj−1,xj ](f)

∣∣∣∣ ≤ 2m − 1

b − a(xj − xj−1) ε.

Dann folgt fur die summierte Quadraturformel

Q(f) :=k∑

j=1

Q[xj−1,xj ](f)

aus (19.10)

E(f) =

b∫

a

f(x) dx − Q(f) =k∑

j=1

E[xj−1,xj ](f)

·≤ 1

2m − 1

k∑

j=1

∣∣∣Q[xj−1,xj ](f) − Q[xj−1,xj ](f)

∣∣∣

≤ 1

b − a

k∑

j=1

(xj − xj−1) ε = ε.

Das folgende PASCAL Programm ist eine Realisierung des adaptiven Verfahrens

unter Benutzung der Gauß Formel der Ordnung m = 6.

FUNCTION Adaptive_Gauss (a, b, eps: REAL) : REAL;

{ Adaptive_Gauss berechnet das Integral der Funktion f in den

Grenzen von a bis b mit der relativen Genauigkeit eps.

f muss als FUNCTION bereitgestellt werden. }

VAR l, kn : REAL;

FUNCTION Gauss_3 (a, b: REAL) : REAL;

VAR mp : REAL;

BEGIN

mp := (a+b) / 2;

Gauss_3 := (b-a)/2 *

(5 * f(mp-kn*(b-a)/2) + 5 * f(mp+kn*(b-a)/2) + 8 * f(mp)) / 9

END; { OF GAUSS_3 }

19.5. ADAPTIVE QUADRATUR 293

Tabelle 19.4: Adaptive Gauß Quadratur

x(i − 1) x(i) x(i) − x(i − 1)

−1.00000 −0.75000 0.25000−0.75000 −0.50000 0.25000−0.50000 0.00000 0.500000.00000 0.50000 0.500000.50000 0.75000 0.250000.75000 0.87500 0.125000.87500 0.93750 0.062500.93750 1.00000 0.06250

FUNCTION Adapt (a, b, p: REAL) : REAL;

VAR c, h, ac_int, cb_int, q : REAL;

BEGIN

c := (a+b) / 2;

h := b - a;

ac_int := Gauss_3 (a, c);

cb_int := Gauss_3 (c, b);

q := ac_int + cb_int;

IF ABS(q-p) > h*l THEN

Adapt := Adapt (a, c, ac_int) + Adapt (c, b, cb_int)

ELSE

Adapt := q + (q-p) / 63 {+}

END; { OF ADAPT }

BEGIN

l := 63 * eps / (b-a);

kn := SQRT (0.6);

Adaptive_Gauss := Adapt (a, b, Gauss_3 (a, b))

END; { OF ADAPTIVE_GAUSS }

Wir haben die Fehlerschatzung fur die Quadraturformel Q durchgefuhrt. Da uns die

Formel Q hoherer Ordnung zur Verfugung steht, haben wir im Programm Q zur

Berechnung einer Naherung fur

xj+1∫

xj

f(x) dx verwendet (Anweisung {+}).

Fur das Beispiel 19.9.

f(x) = exp(

−200 (x + 0.8)2)

+ 10 · exp(

−500 (x − 0.9)2)

, −1 ≤ x ≤ 1,

erhalt man hiermit mit der Genauigkeitsschranke ε = 1E − 3 die Knotenverteilung

in Tabelle 19.4 und mit 93 Funktionsauswertungen den Naherungswert 0.917542.

Der tatsachliche Fehler ist hierfur 1.7E − 4.

Verwendet man wie oben in einem adaptiven Verfahren dieselbe Gauß Formel fur Q

und Q, so kann man die an den Knoten von Q berechneten Funktionswerte bei der

294 KAPITEL 19. NUMERISCHE INTEGRATION

Auswertung von Q nicht wiederverwenden. Von Kronrod wurde 1965 die folgende

Vorgehensweise vorgeschlagen, die diesen Nachteil nicht hat:

Wir gehen aus von einer Gauß Formel

Gn(f) =n∑

i=1

wi f(xi)

der Ordnung 2n mit den Knoten x1, . . . , xn ∈ (−1, 1), und bestimmen

n + 1 weitere Knoten y0, . . . , yn ∈ (−1, 1) und Gewichte αi, βi, so dass

die Quadraturformel

Kn(f) :=n∑

i=1

αi f(xi) +n∑

i=0

βi f(yi)

moglichst hohe Ordnung besitzt. Kn heißt die zu Gn gehorige Kronrod

Formel.

Beispiel 19.10. Ausgehend von

G2(f) = f(

− 1√3

)

+ f( 1√

3

)

machen wir fur K2 den Ansatz

K2(f) = α1 f(

− 1√3

)

+ α2 f( 1√

3

)

+ β0 f(y0) + β1 f(y1) + β2 f(y2)

und bestimmen die 8 Unbekannten α1, α2, β0, β1, β2, y0, y1, y2 so, dass die Funktio-

nen xj, j = 0, 1, 2, . . . ,m, fur moglichst großes m durch K2 exakt integriert werden.

Man kann zeigen, dass die Kronrod Formeln symmetrisch sind (hier: α1 = α2, β0 =

β2, y0 = −y2, y1 = 0). Unter Ausnutzung dieser Symmetrie folgt

K2(x2j+1) = 0 =

1∫

−1

x2j+1 dx fur alle j = 0, 1, 2, . . .

Fur die geraden Potenzen ergibt sich das nichtlineare Gleichungssystem

x0 : 2 α1 + 2 β0 + β1 = 2,

x2 : 23α1 + 2 β0 y2

0 = 23,

x4 : 29α1 + 2 β0 y4

0 = 25,

x6 : 227

α1 + 2 β0 y60 = 2

7,

mit der eindeutigen Losung

y0 =

6

7, α1 =

243

495, β0 =

98

495, β1 =

308

495,

19.5. ADAPTIVE QUADRATUR 295

d.h.

K2(f) =243

495G2(f) +

1

495

(

98(

f(

−√

6

7

)

+ f(√

6

7

))

+ 308 f(0)

)

.

Nach Konstruktion hat diese Formel midestens die Ordnung 8, und durch Berech-

nung von E(x8) sieht man, dass die Ordnung genau 8 ist. 2

Man kann zeigen, dass zu einer n-Punkt Gauß Formel Gn stets die (2n + 1)-Punkt

Kronrod Formel konstruiert werden kann, und dass ihre Ordnung 3n + 2 ist, falls n

gerade ist, und 3n + 3, falls n ungerade ist.

Die Kronrod Formel Kn kann man nun auf folgende Weise nutzen, um den Fehler

En der zugehorigen Gauß Formel zu schatzen. Es gilt fur [xj, xj+1] ⊂ [−1, 1]

xj+1∫

xj

f(x) dx = Kn(f) + h3n+2 · c3n+2 · f (3n+2)(η),

h := xj+1 − xj, und daher folgt

En :=

xj+1∫

xj

f(x) dx − Gn(f)

= Kn(f) − Gn(f) + h3n+2 · c3n+2 · f (3n+2)(η).

Da En proportional zu h2n ist, konnen wir fur kleine h den letzten Summanden

vernachlassigen und erhalten

En ≈ Kn(f) − Gn(f).

In dem folgenden Algorithmus schatzen wir hiermit den Fehler der Gauß Formel,

verwenden aber als Naherung fur das Integral

xj+1∫

xj

f(x) dx den mit der Kronrod

Formel ermittelten Wert. Dies fuhrt dazu, dass der Fehler wesentlich unterhalb der

geforderten Toleranz liegt.

FUNCTION Kronrod_Gauss (a, b, eps: REAL) : REAL;

{ Kronrod_Gauss berechnet das Integral der Funktion f in den

Grenzen von a bis b mit der asymptotischen Genauigkeit eps.

f muss als FUNCTION bereitgestellt werden. }

VAR k1, k2, Tol : REAL;

296 KAPITEL 19. NUMERISCHE INTEGRATION

Tabelle 19.5: Kronrod Gauß Quadratur

x(i − 1) x(i) x(i) − x(i − 1)

−1.00000 −0.87500 0.12500−0.87500 −0.75000 0.12500−0.75000 −0.50000 0.25000−0.50000 0.00000 0.500000.00000 0.50000 0.500000.50000 0.75000 0.250000.75000 0.87500 0.125000.87500 0.93750 0.062500.93750 1.00000 0.06250

PROCEDURE Integral (a, b: REAL; VAR Kronrod, Gauss : REAL);

VAR mp, h, x : REAL;

BEGIN

mp := (a+b) / 2;

h := (b-a) / 2;

x := f(mp-h*k1) + f(mp+h*k1);

Gauss := h * x;

Kronrod := h * (98 * (f(mp-h*k2) + f(mp+h*k2))

+ 243*x + 308*f(mp)) / 495

END; { OF INTEGRAL }

FUNCTION Adaption (a, b: REAL) : REAL;

VAR mp, p, q, h : REAL;

BEGIN

mp := (a+b) / 2;

h := b - a;

Integral (a, b, q, p);

IF ABS(q-p) > Tol THEN

Adaption := Adaption (a, mp) + Adaption (mp, b)

ELSE

Adaption := q

END; { OF ADAPTION }

BEGIN

Tol := eps / (b-a);

k1 := 1 / SQRT (3);

k2 := SQRT (6/7);

Kronrod_Gauss := Adaption (a, b)

END; { OF KRONROD_GAUSS }

Mit ε = 1E − 2 erhalt man fur Beispiel 19.9. die Knotenverteilung in Tabelle 19.5

und mit 85 Funktionsauswertungen die Naherung 0.917405. Der tatsachliche Fehler

ist 3.3E − 5, also wesentlich kleiner als das vorgegebene ε.

19.6. NICHT GLATTE INTEGRANDEN 297

Tabelle 19.6: Integrand nicht differenzierbar (Beispiel 19.11.)

n nicht unterteilt unterteilt

1 −1.01E − 02 1.11E − 012 −1.72E − 01 1.53E − 033 4.35E − 02 8.12E − 064 1.78E − 02 2.28E − 085 −2.54E − 02 3.96E − 116 4.98E − 03 4.66E − 147 9.29E − 03 4.44E − 16

19.6 Nicht glatte Integranden

Wir kommen nun zu einigen speziellen Tricks bei der numerischen Integration. Alle

Konvergenzuberlegungen setzen voraus, dass der Integrand glatt ist, d.h. wir benoti-

gen f ∈ Cm[a, b], um die Fehlerordnung m zu erreichen. Fur weniger glatte Funk-

tionen konvergieren die Verfahren immer noch, aber die Konvergenz ist sehr viel

langsamer.

Beispiel 19.11.

I :=

2∫

0

| cos x| dx. (19.11)

Der Integrand ist stetig, aber nicht differenzierbar in [0, 2]. Man kann hier einfach

die Schwierigkeit beheben, indem man den Integrationsbereich zerlegt und setzt:

I =

π/2∫

0

cos x dx −2∫

π/2

cos x dx. (19.12)

Tabelle 19.6 enthalt die Fehler fur die Gauß Formeln Gn, n = 1, . . . , 7, fur die

Integrale (19.11) und (19.12). 2

Man kann haufig die Schwierigkeiten durch eine Substitution beseitigen:

Beispiel 19.12.

I :=

2∫

0

3√

x sin x dx.

Auch dieser Integrand ist nur einmal stetig differenzierbar. Mit der Variablentrans-

formation t := 3√

x geht das Integral uber in

I = 3

3√2∫

0

t3 sin(t3) dt.

298 KAPITEL 19. NUMERISCHE INTEGRATION

Tabelle 19.7: Integrand nur einmal differenzierbar (Beispiel 19.12.)

n nicht transformiert transformiert

1 −5.80E − 05 −2.80E − 052 −1.15E − 05 6.76E − 083 −4.47E − 06 9.00E − 104 −2.29E − 06 2.75E − 115 −1.36E − 06 1.65E − 12

Der Integrand ist nun analytisch und man erhalt mit der (aquidistant) summierten

Gauß Formel G6 die Fehler in Tabelle 19.7 (n = Anzahl der Teilintervalle). 2

Dieses Vorgehen kann man verallgemeinern: Ist γ ∈ IR, γ > 0, und f : [0, b] → IR

stetig, so erhalt man mit der Substitution t := xγ und β := bγ

b∫

0

xγ f(x) dx =1

γ

β∫

0

t1/γ f(t1/γ) dt.

Ist 1γ∈ IN, so ist der neue Integrand (wenigstens) so glatt wie die Funktion f .

Eine weitere Moglichkeit besteht darin, in einer Umgebung der Singularitat den

Integranden in eine Reihe zu entwickeln, die Reihe gliedweise zu integrieren, und fur

das Restintervall eine Quadraturformel zu verwenden.

Fur das Beispiel 19.12. erhalt man

2∫

0

3√

x sin x dx =

1∫

0

∞∑

n=0

(−1)n x2n+4/3

(2n + 1)!dx +

2∫

1

3√

x sin x dx

=∞∑

n=0

(−1)n

(2n + 1)! (2n + 7/3)+

2∫

1

3√

x sin x dx.

Berucksichtigt man die ersten 5 Terme der Reihe und wertet man das Integral mit

der Gauß Formel G4 aus, so erhalt man den Fehler 3.9E − 10.

Reihenentwicklung ist auch bei uneigentlichen Integralen

b∫

a

f(x) dx mit limx→a+0

|f(x)| = ∞ oder limx→a−0

|f(x)| = ∞

anwendbar.

Daneben benutzt man hierfur gewichtete Quadraturformeln. Dabei schreibt man das

Integral in der Gestaltb∫

a

w(x) f(x) dx,

19.6. NICHT GLATTE INTEGRANDEN 299

wobei die Gewichtsfunktion w (mit w(x) > 0 fur alle x ∈ (a, b)) die Singularitat

enthalt und f eine (moglichst) glatte Funktion ist. Hierbei verwendet man eine

Quadraturformel der Gestalt

b∫

a

w(x) f(x) dx =n∑

i=1

wi f(xi) + Fehler, (19.13)

wobei die Gewichte wi und die Knoten so bestimmt werden, dass die Quadraturfor-

mel fur Polynome f(x) moglichst hohen Grades exakt ist.

Man kann zeigen, dass es zu jeder nichtnegativen Gewichtsfunktion w, fur die die

Integrale

b∫

a

w(x) xj dx fur j = 0, 1, . . . , 2n − 1 (im eigentlichen oder uneigentlichen

Sinne) existieren, eindeutig bestimmte Knoten x1, . . . , xn und positive Gewichte

w1, . . . , wn gibt, so dass die Quadraturformel (19.13) exakt ist fur Polynome f(x)

vom Hochstgrad 2n − 1, und dass dies der maximal erreichbare Polynomgrad ist

(vgl. Stoer [20, S. 122]).

Fur w(x) ≡ 1 sind dies gerade die betrachteten Gauß Formeln. Auch im allgemeinen

Fall spricht man von Quadraturformeln von Gauß.

Fur die Gewichtsfunktion

w(x) =1√

1 − x2, x ∈ [−1, 1],

sind die Knoten gerade die Tschebyscheff Knoten

xi = cos(

2i − 1

2nπ

)

, i = 1, . . . , n,

und die Gewichte stimmen uberein:

wi =π

n, i = 1, . . . n.

Die Aussage bleibt auch richtig fur unbeschrankte Intervalle (a = −∞ und/oder

b = ∞). Die wichtigsten Quadraturformeln fur unbeschrankte Integrationsintervalle

sind die Gauß-Laguerre Formeln ([a, b) = [0,∞), w(x) = e−x) und die Gauß-

Hermite Formeln ((a, b) = IR, w(x) = e−x2). Die Knoten und Gewichte hierzu

sind in Abramowitz, Stegun [1] tabelliert.

Beispiel 19.13.∞∫

0

x

1 + exp(x)dx.

19.6. NICHT GLATTE INTEGRANDEN 301

Schreibt man dieses Integral um in

∞∫

0

x

1 + exp(x)dx =

∞∫

0

exp(−x)x · exp(x)

1 + exp(x)dx,

so ist die Gauß-Laguerre Formel anwendbar mit

f(x) =x · exp(x)

1 + exp(x).

Fur n = 2 lauten die Knoten x1 = 2 −√

2, x2 = 2 +√

2 und die Gewichte w1 =

(2 +√

2)/4, w2 = (2 −√

2)/4 (Man erhalt sie ahnlich wie die Kronrod Knoten und

Gewichte auf Seite 294).

Hiermit erhalt man ∞∫

0

x

1 + exp(x)dx ≈ 0.805.

Der tatsachliche Wert istπ2

12= 0.822.

2

Kapitel 20

Anwendungen der

Integralrechnung

20.1 Volumen von Rotationskorpern

Zur Volumenberechnung eines Korpers K approximieren wir diesen durch eine Ver-

einigung von zylindrischen Scheiben parallel zur (y, z)-Ebene.

Das Volumen des Ersatzkorpers ist dann

V (Z) =n∑

i=1

q(xi) (xi − xi−1), (20.1)

wobei q(x) der Flacheninhalt des zur (y, z)-Ebene parallelen Querschnitts Q(x) :=

{(y, z) : (x, y, z) ∈ K} von K an der Stelle x ist und Z eine Zerlegung eines

Intervalls [a, b] ist, das die Projektion von K auf die x-Achse enthalt.

Betrachtet man eine Folge von Zerlegungen {Zm} von [a, b] mit |Zm| → 0, so kon-

vergiert V (Zm) gegen das Volumen von K und die rechte Seite von (20.1) gegen

V :=

b∫

a

q(x) dx (falls q integrierbar uber [a, b] ist).

Aus dieser Konstruktion liest man unmittelbar Satz 20.1. ab.

Satz 20.1. (Prinzip von Cavalieri)

Gegeben seien zwei Korper und eine feste Ebene E. Besitzen fur alle zu E parallelen

Ebenen die Querschnittsflachen mit beiden Korpern gleichen Flacheninhalt, so haben

beide Korper gleiches Volumen.

20.1. VOLUMEN VON ROTATIONSKORPERN 303

−1 0 1 2 3 4 5 6 7

−6

−4

−2

0

2

4

6

x

yz

Abbildung 20.1 : Volumenberechnung

Wir betrachten nun speziell Rotationskorper,

die durch Rotation des Graphen einer nicht-

negativen Funktion f(x), a ≤ x ≤ b, um die

x-Achse entstehen. Dann gilt

q(x) = π(

f(x))2

,

und daher erhalt man das Volumen des

Rotationskorpers

V = π

b∫

a

(

f(x))2

dx.

Beispiel 20.2. RotationsellipsoidEs gilt

f(x) = b

1 − x2

a2,

und daher

V = π

a∫

−a

b2(

1 − x2

a2

)

dx

= π b2[

x − 1

3

x3

a2

]a

−a=

4

3π a b2.

Fur a = b = r erhalt man das Volumen V = 43π r3 der Kugel mit dem Radius r. 2

304 KAPITEL 20. ANWENDUNGEN DER INTEGRALRECHNUNG

Beispiel 20.3. KegelstumpfMit der Variablentransformation

ξ := 1h

(R − r) x + r erhalt man

V = π

h∫

0

(1

h(R − r) x + r

)2dx

= π

R∫

r

ξ2 h

R − rdξ

=hπ

3· R3 − r3

R − r

=hπ

3(R2 + rR + r2).

Fur r = 0 erhalt man das Volumen des Kegels V = π3h R2. 2

Wir betrachten nun den Fall des Rotationskorpers, den man durch Rotation der

Flache unterhalb des Graphen einer nichtnegativen Funktion f(x), a ≤ x ≤ b, um

die y-Achse erhalt.

Ahnlich wie oben approximieren wir

das Volumen durch die Summen der

Volumina von Hohlzylindern der Hohe

f(xi) mit de Auß enradius xi und dem

Innenradius xi−1 bei gegebener Zerle-

gung Z : a = x0 < x1 < . . . < xn = b

von [a, b], d.h. durch

V (Z) = πn∑

i=1

f(xi) (xi + xi−1) (xi − xi−1),

und durch Verfeinerung der Zerlegung erhalt man das Volumen

V = 2π

b∫

a

x f(x) dx.

Beispiel 20.4. Das Volumen des Korpers, den man durch Rotation von

{(x, y) : 1 ≤ x ≤ 3, 0 ≤ y ≤ ex}

um die y-Achse erhalt, ist

V = 2 π

3∫

1

x ex dx = 2 π [(x − 1) ex]31 = 4 π e3.

2

20.2. KURVEN, BOGENLANGEN 305

20.2 Kurven, Bogenlangen

Um die Bahn eines Teilchens (z.B. Satelliten) zu beschreiben, muss man zu jedem

Zeitpunkt t seinen Ort x(t) angeben.

Definition 20.5. Eine stetige Funktion x : [a, b] → IRn heiß t Kurve im IRn .

x(a) heiß t der Anfangspunkt, x(b) der Endpunkt der Kurve. Eine Kurve heiß

t geschlossen, falls x(a) = x(b).

x : [a, b] → IRn heiß t C1-Kurve, falls die Komponentenfunktionen xi : [a, b] → IR,

i = 1, . . . , n, stetig differenzierbar sind. x heiß t stuckweise C1-Kurve, falls es

eine Zerlegung a = t0 < t1 < . . . < tm = b gibt, so dass x auf jedem Teilintervall

[ti−1, ti] eine C1-Kurve ist (insbesondere mussen alle einseitigen Ableitungen x′−(tj)

und x′+(tj) existieren).

Eine C1-Kurve heiß t glatt, falls x(t) := dxdt

(t) 6= 0 fur alle t ∈ [a, b] gilt.

Beispiel 20.6.

x(t) :=

r cos tr sin t

ht/(2π)

, t ∈ [0, 2πn],

beschreibt eine Schraubenlinie mit

dem Radius r und der Ganghohe h mit

n Windungen.

Wegen

x(t) =

−r sin tr cos th/(2π)

6=

000

fur alle t ∈ [0, 2πn] ist die Kurve glatt. −1

−0.5

0

0.5

1

−1

−0.5

0

0.5

10

0.1

0.2

0.3

0.4

0.5

Abbildung 20.6

2

Beispiel 20.7.

x(t) :=

(

t3

t2

)

, t ∈ [−1, 1],

beschreibt eine Kuspe (siehe Abbildung 20.7).

Die Kurve ist wegen x(t) =

(

3t2

2t

)

und x(0) = 0 nicht glatt. 2

306 KAPITEL 20. ANWENDUNGEN DER INTEGRALRECHNUNG

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

Abbildung 20.7 : Kuspe

Beispiel 20.8.

x(t) :=(cos tsin t

)

, t ∈ [0, 2π],

beschreibt einen Kreis. x ist eine glatte Kurve, denn x(t) =(− sin t

cos t

)

6=(00

)

fur

alle t ∈ [0, 2π]. 2

Beispiel 20.9.

x(t) :=(cos(ln t)sin(ln t)

)

, t ∈ [1, e2π],

beschreibt wieder den Kreis aus Beispiel 20.8. 2

Beispiel 20.10.

x(t) :=(cos(−t)sin(−t)

)

, t ∈ [0, 2π],

beschreibt erneut den Kreis aus Beispiel 20.8., der in entgegengesetzte Richtung

durchlaufen wird. 2

Beispiel 20.11.

x(t) :=(cos tsin t

)

, t ∈ [0, 2nπ],

beschreibt einen n-mal durchlaufenen Kreis. 2

Die Wertebereiche {x(t) : t ∈ [a, b]} (man sagt auch Spuren der Kurven) sind

in den letzten vier Beispielen gleich. Interpretiert man den Parameter t als Zeit, so

unterscheiden sich Beispiel 20.8. und Beispiel 20.9. nur in der Geschwindigkeit, in

der der Kreis durchlaufen wird, bei gleicher Orientierung. In Beispiel 20.10. wird

der Kreis in umgekehrte Richtung durchlaufen, in Beispiel 20.11. wird er n-mal

20.2. KURVEN, BOGENLANGEN 307

durchlaufen. In den ersten beiden Fallen werden die beiden Kurven miteinander

identifiziert und als gleich angesehen. Die Kurven in den anderen beiden Fallen sind

jedoch hiervon (und voneinander) verschieden.

Allgemeiner sei x : [a, b] → IRn eine Kurve und h : [α, β] → [a, b] bijektiv und

streng monoton wachsend. Dann ist τ 7→ x(h(τ)), τ ∈ [α, β], eine Kurve, die densel-

ben Wertebereich und dieselbe Orientierung wie die Kurve x : [a, b] → IRn besitzt.

Eine Abbildung h mit diesen Eigenschaften heiß t daher Parameterwechsel .

Definition 20.12. Zwei Kurven x : [a, b] → IRn und x : [α, β] → IRn heiß en

gleich, wenn es einen Parameterwechsel h : [α, β] → [a, b] gibt mit x ◦ h = x.

Ist x eine glatte Kurve, so betrachten wir nur stetig differenzierbare Parameterwech-

sel mit h′(τ) > 0 fur alle τ ∈ [α, β].

Wir fragen nun nach der Lange einer Kurve x : [a, b] → IRn. Wir approximieren

die Kurve durch einen Polygonzug, d.h. wir wahlen Punkte P i := x(ti), Z : a =

t0 < t1 < . . . < tm = b, und ersetzen die Kurve durch die Vereinigung der Strecken

P i−1 P i, i = 1, . . . ,m. Dann ist die Lange des Polygonzugs zur Zerlegung Z

ℓ(Z) =m∑

i=1

‖x(ti) − x(ti−1)‖2.

Es ist klar, dass ℓ(Z) fur jede Zerlegung Z von [a, b] eine untere Schranke der Lange

ℓ(x) der Kurve x ist (die kurzeste Verbindung zwischen zwei Punkten ist die Gera-

de), und dass fur |Z| → 0 die Langen ℓ(Z) gegen ℓ(x) konvergieren.

308 KAPITEL 20. ANWENDUNGEN DER INTEGRALRECHNUNG

Definition 20.13. Die Kurve x : [a, b] → IRn heiß t rektifizierbar, wenn {ℓ(Z) :

Z ist Zerlegung von [a, b]} nach oben beschrankt ist. In diesem Fall heiß t

ℓ(x) := supZ

ℓ(Z)

die Lange der Kurve x. Eine rektifizierbare Kurve heiß t auch Weg .

Satz 20.14.

(i) Jede C1-Kurve x : [a, b] → IRn ist rektifizierbar, und es gilt

ℓ(x) =

b∫

a

‖x(t)‖2 dt.

(ii) Die Langen von C1-Kurven sind parameterinvariant.

Beweis: (i): Fur jede Zerlegung Z gilt nach dem Mittelwertsatz der Differential-

rechnung (Satz 14.4.)

ℓ(Z) =m∑

i=1

√√√√

n∑

k=1

(

xk(ti) − xk(ti−1))2

=m∑

i=1

√√√√

n∑

k=1

(

xk(τki))2

(ti − ti−1),

wobei τki ∈ (ti−1, ti), i = 1, . . . ,m, k = 1, . . . , n.

Wir vergleichen ℓ(Z) mit einer Riemannschen Summe

S(Z) :=m∑

i=1

√√√√

n∑

k=1

(

xk(σi))2

(ti − ti−1), σi ∈ [ti−1, ti].

Da die xk : [a, b] → IR gleichmaß ig stetig sind, gibt es zu ε > 0 ein δ > 0, so dass

fur alle k = 1, . . . , n gilt

|xk(t) − xk(τ)| < ε fur alle t, τ ∈ [a, b] mit |t − τ | < δ.

Ist Z eine Zerlegung von [a, b] mit |Z| < δ, so folgt aus der Dreiecksungleichung

|ℓ(Z) − S(Z)| =

∣∣∣∣∣

m∑

i=1

(

‖(

xk(τki))

k=1,...,n‖

2− ‖x(σi)‖2

)

(ti − ti−1)

∣∣∣∣∣

≤m∑

i=1

‖(

xk(τki) − xk(σi))

k=1,...,n‖

2(ti − ti−1)

< ε√

nn∑

i=1

(ti − ti−1) = ε√

n (b − a),

20.2. KURVEN, BOGENLANGEN 309

und da S(Z) mit ε → 0 gegenb∫

a‖x(t)‖2 dt konvergiert, gilt auch

ℓ(Z) =

b∫

a

‖x(t)‖2 dt.

(ii): Ist h : [α, β] → [a, b] ein Parameterwechsel und x := x ◦ h, so gilt nach der

Substitutionsregel

ℓ(x) =

β∫

α

‖ ddτ

x(h(τ))‖2dτ =

β∫

α

‖x(h(τ)) h′(τ)‖2 dτ

=

β∫

α

‖x(h(τ))‖2 h′(τ) dτ =

b∫

a

‖x(t)‖2 dt = ℓ(x).

Bemerkung 20.15. Die Aussagen aus Satz 20.14. bleiben offensichtlich auch fur

stuckweise stetig differenzierbare Kurven richtig. 2

Beispiel 20.16. Die Kurve

x(t) :=(r cos tr sin t

)

, t ∈ [0, α],

beschreibt einen Kreisbogen vom Radius r > 0 mit dem Offnungswinkel α. Fur die

Bogenlange gilt

ℓ =

α∫

0

r2 sin2 t + r2 cos2 t dt = r

α∫

0

dt = r α.

Insbesondere erhalt man U = 2 π r als Umfang des Kreises mit dem Radius r. 2

Beispiel 20.17. Die geschlossene Kurve

x(t) :=

(

r cos3 tr sin3 t

)

, t ∈ [0, 2π],

heißt Astroide. Fur den Umfang gilt

U = 3r

2π∫

0

(− cos2 t sin t)2 + (sin2 t cos t)2 dt

= 3r

2π∫

0

cos2 t sin2 t (cos2 t + sin2 t) dt

= 3r

2π∫

0

| sin t cos t| dt = 12r

π/2∫

0

sin t cos t dt

= 12r[1

2sin2 t

]π/2

0= 6 r. −1 −0.5 0 0.5 1

−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

2

310 KAPITEL 20. ANWENDUNGEN DER INTEGRALRECHNUNG

Beispiel 20.18. Die Ellipse mit den Halbachsen a > 0 und b > 0 (und dem

Mittelpunkt (0, 0)) kann beschrieben werden durch

x(t) :=(a cos tb sin t

)

, t ∈ [0, 2π].

Fur den Umfang gilt (unter Beachtung der Symmetrie zur x1-Achse)

U = 2

π∫

0

(−a sin t)2 + (b cos t)2 dt

= 2

π∫

0

a2 − (a2 − b2) cos2 t dt

= 2a

π∫

0

1 −(

1 − b2

a2

)

cos2 t dt. (20.2)

Dieses Integral laß t sich nur im Falle a = b (Kreis) elementar losen. Fur a 6= b ist

man auf numerische Verfahren angewiesen.

Eine andere Parametrisierung der Ellipse ist

x(t) :=1√

a2 cos2 t + b2 sin2 t

(

a2 cos tb2 sin t

)

, t ∈ [0, 2π],

die wegend

dtx(t) =

1

(a2 cos2 t + b2 sin2 t)3/2

(

−a2 b2 sin ta2 b2 cos t

)

auf den Umfang der Ellipse

U = 2 a2 b2

π∫

0

dt

(a2 cos2 t + b2 sin2 t)3/2(20.3)

fuhrt. Auch dieses Integral, das naturlich mit dem Integral in (20.2) ubereinstimmt,

ist nicht elementar berechenbar. 2

Beispiel 20.19. Die Bogenlange der Schraubenlinie aus Beispiel 20.6.

x(t) :=

r cos tr sin t

ht/(2π)

, t ∈ [0, 2πn],

ist

ℓ(x) =

2πn∫

0

r2 sin2 t + r2 cos2 t + h2/(2π)2 dt

= 2 π n√

r2 + h2/(2π)2.

2

20.2. KURVEN, BOGENLANGEN 311

0 0.5 1 1.5 2 2.5 3 3.5

0

0.5

1

1.5

2

x1

x2

at

at

Abbildung 20.10 : Zykloide

Beispiel 20.20. Ein Kreis rolle auf einer Geraden ab. Dann heiß t die Kurve, die

ein auf dem Kreis fixierter Punkt beschreibt, eine Zykloide.

Ist der Radius des Kreises a und startet der fixierte Punkt in (0, 0), so ist die

Parameterdarstellung der Zykloide offenbar

x1(t) = a (t − sin t), x2(t) = a (1 − cos t), t ≥ 0.

Die Bogenlange der Zykloide, die einem Umlauf entspricht, ist

ℓ =

2π∫

0

a2 (1 − cos t)2 + a2 sin2 t dt

= a

2π∫

0

√2 − 2 cos t dt = a

2π∫

0

4 sin2 t

2dt

= a

2π∫

0

2 sint

2dt =

[

− 4a cost

2

]2π

0= 8a.

2

Wir betrachten nun einige spezielle Parametrisierungen von Kurven:

Ist f : [a, b] → IR eine reelle Funktion, so ist der Graph

x(t) :=(

tf(t)

)

, t ∈ [a, b],

312 KAPITEL 20. ANWENDUNGEN DER INTEGRALRECHNUNG

eine Kurve in IR2. Ist f differenzierbar in [a, b], so erhalt man fur die Lange des

Graphen von f wegen x(t) =(

1f ′(t)

)

ℓ(x) =

b∫

a

1 +(

f ′(t))2

dt.

Entsprechend erhalt man fur eine Kurve im IR3, die sich parametrisieren laß t durch

x(t) =

tf(t)g(t)

, t ∈ [a, b],

die Lange

ℓ(x) =

b∫

a

1 +(

f ′(t))2

+(

g′(t))2

dt.

Ist die ebene Kurve

x(t) := r(t)(cos φ(t)sin φ(t)

)

, t ∈ [a, b],

in Polarkoordinaten gegeben, so gilt

x(t) = r(t)(cos φ(t)sin φ(t)

)

+ r(t) φ(t)(− sin φ(t)

cos φ(t)

)

,

und da die Vektoren(cos φ(t)sin φ(t)

)

und(− sin φ(t)

cos φ(t)

)

orthonormal sind, folgt

ℓ(x) =

b∫

a

√(

r(t))2

+(

r(t))2 (

φ(t))2

dt.

Ist die ebene Kurve noch spezieller gegeben durch

x(φ) = r(φ)(cos φsin φ

)

, φ ∈ [α, β],

so gilt fur die Lange

ℓ(x) =

β∫

α

√(

r′(φ))2

+(

r(φ))2

dφ.

Beispiel 20.21. Die Archimedische Spirale (Abbildung 20.11) ist gegeben durch

x(φ) := a φ(cos φsin φ

)

, φ ∈ [α, β].

20.2. KURVEN, BOGENLANGEN 313

−8 −6 −4 −2 0 2 4 6 8

−4

−2

0

2

4

6

8

Abbildung 20.11 : Archimedische Spirale

Fur den Umfang der inneren Windung gilt

U(x) =

π/2∫

−π/2

a2 + a2 φ2 dφ = a

π/2∫

−π/2

1 + φ2 dφ

=a

2

[

φ√

1 + φ2 + ln(

φ +√

1 + φ2)]π/2

−π/2

=a

2

(

ln

1 + (π/2)2 + π/2√

1 + (π/2)2 − π/2+ π

1 + (π/2)2

)

≈ 4.16 a.

2

Beispiel 20.22. Die Kurve

x : [0, 1] → IR, x(t) :=

t cos πt

, t > 0

0 , t = 0

ist nicht rektifizierbar, denn fur die Zerlegung

tk :=1

k, k = 1, . . . ,m − 1, tm := 0

gilt

x(tk) =(−1)k

k,

und daher folgt

ℓ(x) ≥m−1∑

k=1

|x(tk) − x(tk+1)| =m−1∑

k=1

∣∣∣(−1)k

k− (−1)k+1

k + 1(1 − δk,m−1)

∣∣∣

≥m−1∑

k=1

1

k→ ∞ fur m → ∞.

2

314 KAPITEL 20. ANWENDUNGEN DER INTEGRALRECHNUNG

Ist x : [a, b] → IRn eine glatte Kurve, so ist die Bogenlange s : [a, b] → [0, ℓ(x)],

s(t) :=

t∫

a

‖x(σ)‖2dσ,

eine streng monoton wachsende C1-Funktion. Sie besitzt daher eine stetig differen-

zierbare Unkehrfunktion s−1. Die Parametrisierung

x(σ) := x(

s−1(σ))

, 0 ≤ σ ≤ ℓ(x),

heiß t Parametrisierung nach der Bogenlange .

Fur die Ableitung gilt

d

dσx(σ) = x

(

s−1(σ))

· d

dσs−1(σ)

=x

(

s−1(σ))

ddτ

s(τ)∣∣∣τ=s−1(σ)

=x

(

s−1(σ))

‖x(

s−1(σ))

‖2

,

d.h.

‖ ddσ

x(σ)‖2

= 1 fur alle σ ∈ [0, ℓ(x)].

Die Parametrisierung nach der Bogenlange ist also derart, dass die Kurve mit der

gleichformigen Geschwindigkeit 1 durchlaufen wird. Der Vektor ddσ

x(σ) ist der Tan-

genteneinheitsvektor der Kurve im Punkt x(σ).

20.3 Krummung einer Kurve

Wir betrachten eine Kurve x : [0, ℓ(x)] → IR2, die bzgl. der Bogenlange σ parame-

trisiert sei.

Es sei

T (σ) =d

dσx(σ)

der Tangenteneinheitsvektor der Kurve im Punkt x(σ). Dann miß t

∆T

∆σ=

T (σ + ∆σ) − T (σ)

∆σ

die mittlere Krummung der Kurve x in dem Intervall [σ, σ + ∆σ]. Die folgende

Definition ist also sinnvoll

20.3. KRUMMUNG EINER KURVE 315

Definition 20.23. Es sei x : [0, ℓ(x)] → IR2 eine C2–Kurve, die bzgl. der Bo-

genlange parametrisiert sei. Dann heiß t

κ(σ) :=∥∥∥

d

dσT (σ)

∥∥∥2

=∥∥∥

d2

dσ2x(σ)

∥∥∥2

die Krummung der Kurve x im Punkt x(σ).

Beispiel 20.24. Wir berechnen die Krummung eines Kreises mit dem Radius r.

Dieser ist gegeben durch

x(σ) = r(

cosσ

r, sin

σ

r

)T, 0 ≤ σ ≤ 2π.

Der Tangenteneinheitsvektor ist dann

T (σ) =d

dσx(σ) =

(

− sinσ

r, cos

σ

r

)T

und die Krummung ist

κ(σ) =∥∥∥

d2

dσ2x(σ)

∥∥∥2

=∥∥∥

(

− 1

rcos

σ

r, −1

rsin

σ

r

)T ∥∥∥2

=1

r.

Der Kreis mit dem Radius r hat also die konstante Krummung1

r. 2

Definition 20.25. Die C2–Kurve x : [0, ℓ(x)] → IR2 besitze die Krummung

κ(σ) > 0 im Punkte x(σ). Dann heiß t

ρ(σ) :=1

κ(σ)

der Krummungsradius der Kurve x im Punkte x(σ).

Der Krummungsradius gibt den Radius desjenigen Kreises an, der dieselbe Krum-

mung wie die Kurve x im Punkt x(σ) hat, den man also im Punkt x(σ) an die

Kurve anschmiegen kann.

Satz 20.26. Es sei x : [a, b] → IR2 eine C2–Kurve. Dann ist die Krummung von

x im Punkt x(t) gegeben durch

κ =|x1(t)x2(t) − x2(t)x1(t)|

x1(t)2 + x2(t)23 =

‖x(t)‖22‖x(t)‖2

2 − 〈x(t), x(t)〉2

‖x(t)‖32

.

316 KAPITEL 20. ANWENDUNGEN DER INTEGRALRECHNUNG

Beweis: Wegendσ

dt= ‖x(t)‖2 und T (t) =

x(t)

‖x(t)‖2

gilt

κ(σ) =∥∥∥dT

∥∥∥2

=‖dT /dt‖2

dσ/dt=

1

‖x(t)‖2

·∥∥∥

d

dt

( x(t)

‖x(t)‖2

)∥∥∥2

=1

‖x(t)‖32

·∥∥∥x(t)‖x(t)‖2 − x(t)

d

dt‖x(t)‖2

∥∥∥2.

Mit

φ(t) :=d

dt‖x(t)‖2 =

d

dt

x1(t)2 + x2(t)2 =〈x(t), x(t)〉‖x(t)‖2

erhalt man

κ(σ) =1

‖x(t)‖32

〈‖x(t)‖x(t) − φ(t)x(t), ‖x(t)‖2x(t) − φ(t)x(t)〉

=1

‖x(t)‖32

‖x(t)‖22‖x(t)‖2

2 − 2φ(t)‖x(t)‖2〈x(t), x(t)〉 + φ(t)2‖x(t)‖22

=1

‖x(t)‖32

‖x(t)‖22‖x(t)‖2

2 − 〈x(t), x(t)〉2.

Nun gilt

‖x(t)‖22‖x(t)‖2

2 − 〈x(t), x(t)〉 = (x21 + x2

2)(x21 + x2

2) − (x1x1 + x2x2)

= x21x

21 + x2

1x22 + x2

2x21 + x2

2x22 − (x2

1x21 + 2x1x1x2x2 + x2

2x22)

= (x1x2)2 − 2(x1x2)(x1x2) + (x2x1)

2

= (x1x2 − x2x1)2.

Daher erhalten wir

κ(t) =1

‖x(t)‖32

|x1(t)x2(t) − x2(t)x1(t)|.

Beispiel 20.27. Fur die Krummung der Ellipse

x(t) =(a cos tb sin t

)

gilt

κ(t) =|x1(t)x2(t) − x2(t)x1(t)|

(x1(t)2 + x2(t)2)3/2=

ab

(a2 sin2 t + b2 cos2 t)3/2.

2

20.3. KRUMMUNG EINER KURVE 317

Beispiel 20.28. Fur die Archimedische Spirale

x(t) :=(at cos tat sin t

)

, t ∈ IR

gilt

x(t) =(a cos t − at sin ta sin t + at cos t

)

= a(cos tsin t

)

+ at(− sin t

cos t

)

x(t) =(−2a sin t − at cos t

2a cos t − at sin t

)

= −2a(

sin t− cos t

)

− at(cos tsin t

)

.

Daher ist

‖x(t)‖22 = a2 + a2t2, ‖x(t)‖2

2 = 4a2 + a2t2, 〈x(t), x(t)〉 = a2t,

und damit

κ(t) =

√√√√

(a2 + a2t2)(4a2 + a2t2) − a4t2

(a2 + a2t2)3=

t2 + 2

a√

1 + t23 .

2

Bemerkung 20.29. Erganzt man den Vektor x um eine dritte Komponente 0, so

gilt offensichtlich

x(t) × x(t) = (0 , 0 , x1(t)x2(t) − x1(t)x2(t))T ,

und man kann die Krummung auch schreiben als

κ(t) =‖x(t) × x(t)‖2

‖x(t)‖32

.

2

Bemerkung 20.30. Den Graphen einer C2–Funktion f : [a, b] → IR kann man

als Kurve

x(t) := (t , f(t))T , t ∈ [a, b],

auffassen. Wegen x1(t) = 1 und x1(t) = 0 ist die Krummung

κ(t) =|f ′′(t)|

1 + f ′(t)23 .

2

318 KAPITEL 20. ANWENDUNGEN DER INTEGRALRECHNUNG

Bemerkung 20.31. Ist T (σ) der Tangenteneinheitsvektor der Kurve x(σ), die

bzgl. der Bogenlange σ parametrisiert ist, so gilt

1 = ‖T (σ)‖22 = 〈T (σ),T (σ)〉,

und durch Differenzieren dieser Gleichung folgt

0 = 2〈T (σ), ddσ

T (σ)〉.

der Vektord

dσT (σ) steht also senkrecht auf dem Tangenvektor. Gilt κ(σ) 6= 0, so

heiß t

n(σ) :=ddσ

T (σ)

‖ ddσ

T (σ)‖2

der Einheitsnormalenvektor der Kurve x. Offensichtlich gilt

d

dσT (σ) = κ(σ)n(σ).

2

Die Definition der Krummung ist sofort ubertragbarauf Kurven x : [0, ℓ(x)] → IR3.

Definition 20.32. Es sei x : [0, ℓ(x)] → IR3 eine Raumkurve. Dann heiß t

κ(σ) :=∥∥∥

d

dσT (σ)

∥∥∥2

die Krummung der Kurve x im Punkte x(σ).

Bemerkung 20.33. Die Darstellung

κ(t) =‖x(t) × x(t)‖2

‖x(t)‖32

der Krummung bei beliebiger Parametrisierung aus Bemerkung 20.29. bleibt auch

fur Raumkurven richtig, denn wegen

〈T (σ), ddσ

T (σ)〉 = 0

gilt zunachst

‖T (σ) × ddσ

T (σ)‖2

= ‖T (σ)‖2 · ‖ ddσ

T (σ)‖2

= ‖ ddσ

T (σ)‖2

= κ(σ),

und ausd

dσT (σ) =

dT /dt

dσ/dt=

‖x(t)‖22x(t) − 〈x(t), x(t)〉x(t)

‖x(t)‖42

folgt

κ(t) =∥∥∥

x(t)

‖x(t)‖2

× ‖x(t)‖22x(t) − 〈x(t), x(t)〉x(t)

‖x(t)‖42

∥∥∥2

=‖x(t) × x(t)‖2

‖x(t)‖32

.

2

20.3. KRUMMUNG EINER KURVE 319

Wie fur ebene Kurven ist auch hier

n(σ) =1

κ(σ)

dT (σ)

ein Normalenvektor der Kurve x (der Lange 1). Die Normalenrichtung der Kur-

ve ist aber hier nicht mehr eindeutig bestimmt, sondern der Orthogonalraum zum

Tangenvektor ist zweidimensional. Ein weiterer Vektor in dieser Ebene ist sicher

B := T × n.

Definition 20.34. Es sei x : [0, ℓ(x)] → IR3 eine C2–Kurve, die bzgl. der Bo-

genlange parametrisiert sei. Dann heiß t

n(σ) =1

κ(σ)

d

dσT (σ)

die Hauptnormale der Kurve x und

B(σ) := T (σ) × n(σ)

die Binormale der Kurve x im Punkt x(σ).

Bemerkung 20.35. Durch (T (σ) , n(σ) , B(σ)) wird zu jedem Punkt x(σ) der

Kurve x ein Rechtssystem von rechtwinkligen Koordinatenrichtungen definiert, wo-

bei T (σ) in die Tangentenrichtung der Kurve weist, n(σ) einen dazu orthogonalen

Vektor bezeichnet, der dadurch charakterisiert ist, dass die Kurve lokal in der von T

und n aufgespannten Ebene verlauft (d.h. nimmt man zu x(σ) zwei weitere vonein-

ander verschiedene Punkte x(σ1) und x(σ2) hinzu, so geht die durch x(σ1) − x(σ)

und x(σ2)−x(σ) aufgespannte Ebene fur σ1 → σ und σ2 → σ gegen die von T und

n aufgespannte Ebene). 2

Differenziert man die Gleichung 〈B(σ),T (σ)〉 ≡ 0, so folgt

0 = 〈 d

dσB(σ),T (σ)〉 + 〈B(σ),

d

dσT (σ)〉

= 〈 d

dσB(σ),T (σ)〉 + κ(σ)〈B(σ),n(σ)〉 = 〈 d

dσB(σ),T (σ)〉.

Ist ddσ

B(σ) 6= 0, so ist ddσ

B(σ) orthogonal zu T (σ) und (entsprechend der Orthogo-

nalitat von T und n) orthogonal zu B(σ). Daher gibt es ein τ ∈ IR mit

d

dσB(σ) = −τ(σ)n(σ). (20.4)

τ(σ) heiß t die Torsion der Kurve x im Punkt x(σ). Fur sie gilt (man bilde in der

definierenden Gleichung (20.4) auf beiden Seiten das innere Produkt mit n)

τ(σ) = τ(σ)〈n(σ),n(σ)〉 = −〈 d

dσB(σ),n(σ)〉.

320 KAPITEL 20. ANWENDUNGEN DER INTEGRALRECHNUNG

Satz 20.36. Eine C2–Kurve x : [0, ℓ(x)] → IR3 mit κ(σ) 6= 0 ist genau dann eine

ebene Kurve, wenn ihre Binormale konstant ist. In diesem Fall steht B ≡ B(σ)

senkrecht auf der Ebene, in der die Kurve verlauft.

Beweis: Verlauft die Kurve x ganz in der Ebene E = x(0) + V mit einem zwei-

dimensionalen Teilraum V des IR3, so gilt T (σ),n(σ) ∈ V . Daher ist B(σ) =

T (σ) × n(σ) fur alle σ ein Normaleneinheitsvektor von V , und da B(σ) stetig ist,

kann B(σ) nicht seine Richtung umkehren, und muss daher konstant sein.

Ist umgekehrt B := B(σ) konstant, so folgt aus 〈B,T (σ)〉 = 0, d.h. 〈B, ddσ

x(σ)〉 =

0, durch Integration 〈B,x(σ)〉 = c fur ein c ∈ IR, und damit liegt die Kurve ganz

in der Ebene 〈B,y〉 = 0.

Man kann also die Lange vond

dσB(σ) als Maß fur die Abweichung der Kurve x von

einem ebenen Verlauf ansehen. Dies rechtfertigt den Namen Torsion fur τ .

Beispiel 20.37. Wir betrachten die Schraubenlinie

x(t) :=(

r cos t , r sin t ,ht

)T, t ≥ 0.

Dann gilt

dt= ‖x(t)‖2 =

r2 sin2 t + r2 cos2 t +h2

4π2=

r2 +h2

4π2=: γ.

Der Tangenteneinheitsvektor ist dann

T (t) =dx

dσ=

dx/dt

dσ/dt=

1

γ

(

− r sin t , r cos t ,h

)T.

WegendT

dσ=

dT /dt

dσ/dt=

1

γ2(−r cos t , −r sin t , 0)T

ist die Hauptnormale

n(t) =1

κ(t)

dT

dσ= (− cos t , − sin t , 0)T .

Fur die Binormale erhalt man

B(t) = T (t) × n(t) =1

γ

( h

2πsin t , − h

2πcos t , r

)T=

h

2πγ

(

sin t , − cos t ,2πr

h

)T.

Schließ lich ist wegen

dB

dσ=

dB/dt

dσ/dt=

h

2πγ2(cos t , sin t , 0)T = − h

2πγ2n(t)

die Torsion

τ(t) =h

2π(r2 + h2

4π2 )=

2πh

4π2r2 + h2.

2

20.4. VON EINER KURVE UMSCHLOSSENE FLACHE 321

Abbildung 20.12 : mathematisch positiver/negativer Sinn

20.4 Von einer Kurve umschlossene Flache

Wir fragen zunachst nach der vom Ortsvek-

tor einer Kurve uberstrichenen Flache.

Ist

Z : a = t0 < t1 < . . . < tm = b

eine Zerlegung des Parameterintervalls, so

gilt fur die Flache des Dreiecks Fi

Fi =1

2

(

x(ti−1) × x(ti))

3=

1

2

(

x1(ti−1) x2(ti) − x1(ti) x2(ti−1))

,

und daher

F (Z) =m∑

i=1

Fi =1

2

m∑

i=1

(

x1(ti−1) x2(ti) − x1(ti) x2(ti−1))

=1

2

m∑

i=1

x1(ti−1) x2(ti) − x1(ti) x2(ti−1)

ti − ti−1

∆ti

=1

2

m∑

i=1

(

x1(ti−1)x2(ti) − x2(ti−1)

ti − ti−1

− x2(ti−1)x1(ti) − x1(ti−1)

ti − ti−1

)

∆ti

→ 1

2

b∫

a

(

x1(t) x2(t) − x1(t) x2(t))

dt fur |Z| → 0,

und dies ist der insgesamt uberstrichene Flacheninhalt

F (x) =1

2

b∫

a

(

x1(t) x2(t) − x1(t) x2(t))

dt.

322 KAPITEL 20. ANWENDUNGEN DER INTEGRALRECHNUNG

Dabei hat F (x) positives Vorzeichen,

falls x(t) im mathematisch positiven

Sinn (gegen den Uhrzeigersinn bzgl. 0)

durchlaufen wird, und negatives Vorzei-

chen, falls x(t) im mathematisch nega-

tiven Sinn durchlaufen wird (siehe Ab-

bildung 20.12).

Bei einer geschlossenen Kurve erhalt

man durch F (x) offenbar den Inhalt

der von x umschlossenen Flache.

Beispiel 20.38. Fur die Flache der Ellipse mit den Halbachsen a und b gilt wegen

x(t) =(a cos tb sin t

)

, x(t) =(−a sin t

b cos t

)

F =1

2

2π∫

0

(

x1(t) x2(t) − x1(t) x2(t))

dt

=1

2

2π∫

0

(ab cos2 t + ab sin2 t) dt = a b π.

2

Beispiel 20.39. Wir berechnen die von der Archimedischen Spirale eingeschlosse-

ne innere Flache. Es gilt

x(t) = r(t)(cos φ(t)sin φ(t)

)

,

x(t) = r(t)(cos φ(t)sin φ(t)

)

+ r(t) φ(t)(− sin φ(t)

cos φ(t)

)

,

und daher

x1 x2 − x2 x1 = r cos φ (r sin φ + r φ cos φ) − r sin φ (r cos φ − r φ sin φ)

= r2 φ (cos2 φ + sin2 φ) = r2 φ,

d.h.

F =1

2

π/2∫

−π/2

r2 φ dt =1

2

π/2∫

−π/2

r2 dφ =1

2a2

π/2∫

−π/2

φ2 dφ

=[1

6a2 φ3

]π/2

−π/2=

1

24a2 π3 ≈ 1.29 a2.

2

20.5. MANTELFLACHEN VON ROTATIONSKORPERN 323

20.5 Mantelflachen von Rotationskorpern

Wir approximieren die Mantelflache eines

Rotationskorpers aus Abschnitt 20.1 durch

Summen von Mantelflachen von Kegelstump-

fen.

Zunachst gilt fur den Mantel eines Kegels we-

genM

π ℓ2=

2 π r

2 π ℓ=

r

M = π r ℓ.

Abbildung 20.16

Fur den Kegelstumpf (Abbildung 20.16) gilt nach dem Strahlensatz

ℓ1

ℓ=

r1

r1 − r2

,ℓ2

ℓ=

r2

r1 − r2

,

und daher folgt fur den Mantel

M = π r1 ℓ1 − π r2 ℓ2 = π ·(

r21

r1 − r2

− r22

r1 − r2

)

· ℓ = π ℓ (r1 + r2),

d.h.

∆F = π (2f + ∆f) ∆s = π (2f + ∆f)∆s

∆x∆x.

Ist also F (x) die gesuchte Mantelflache zwischen a und x, so gilt (∆x → 0)

F ′(x) = 2π f(x)ds

dx= 2π f(x)

1 +(

f ′(x))2

,

324 KAPITEL 20. ANWENDUNGEN DER INTEGRALRECHNUNG

und daher

F = F (b) = 2π

b∫

a

f(x)

1 +(

f ′(x))2

dx.

Beispiel 20.40. Eine Kugel erhalt man durch Rotation des Kreises x2 + y2 = r2

um die x-Achse. Daher gilt fur die Oberflache der Kugel

F = 2π

r∫

−r

√r2 − x2 ·

1 +x2

r2 − x2dx

= 2π

r∫

−r

r dx = 4 π r2.

2

Ist die rotierende Kurve in parametrischer Form(x(t)y(t)

)

, t ∈ [a, b], gegeben, so gilt

ds

dt=

(x(t))2 + (y(t))2,

und man erhalt wie oben fur die Mantelflache

F = 2π

b∫

a

y(t)√

(x(t))2 + (y(t))2 dt.

Beispiel 20.41. Laß t man eine Zykloide um die x-Achse rotieren, so gilt fur die

Oberflache des Rotationskorpers (vgl. Beispiel 20.20. auf Seite 311)

F = 2π

2π∫

0

a (1 − cos t) (2a sint

2) dt

= 8π a2

2π∫

0

(sin2 t

2) sin

t

2dt

= 8π a2

2π∫

0

(1 − cos2 t

2) sin

t

2dt

= 8π a2[

− 2 cost

2+

2

3cos3 t

2

]2π

0=

64

3π a2.

2

20.6. KURVENINTEGRALE 325

20.6 Kurvenintegrale

Definition 20.42. Ist f : D → IR, D ⊂ IRn, eine Abbildung und C eine Kurve

in D, die durch die Parameterdarstellung x : [a, b] → IRn gegeben ist, so ist das

Kurvenintegral von f uber C definiert durch

C

f(x) ds :=

b∫

a

f(x(t)) ‖x(t)‖2 dt.

Das Kurvenintegral existiert, falls das rechts stehende Integral im eigentlichen oder

uneigentlichen Sinne existiert.

Der Begriff des Kurvenintegrals kann folgen-

dermaß en motiviert werden: Die Gesamt-

masse eines inhomogenen Drahtes der Dichte

ρ (= Masse / Lange) ist

m ≈k∑

j=1

ρ(x(tj)) ‖x(tj) − x(tj−1)‖2

≈k∑

j=1

ρ(x(tj)) ‖x(tj)‖2 (tj − tj−1)

→b∫

a

ρ(x(t)) ‖x(t)‖2 dt =∫

C

ρ(x) ds.

Satz 20.43. Das Kurvenintegral ist unabhangig von der Parametrisierung von C.

Beweis: Sei x : [a, b] → IRn eine Parametrisierung von C und h : [α, β] → [a, b]

ein Parameterwechsel. Dann gilt fur y = x ◦ h : [α, β] → IRn wegen h′(τ) > 0

β∫

α

f(

y(τ))

‖ ddτ

y(τ)‖2dτ =

β∫

α

f(

x(

h(τ)))

‖x(

h(τ))

· h′(τ)‖2dτ

=

β∫

α

f(

x(

h(τ)))

‖x(

h(τ))

‖2· h′(τ) dτ

=

b∫

a

f(

x(t))

‖x(t)‖2 dt.

Wir betrachten nun weitere Bereiche, in denen Kurvenintegrale auftreten.

326 KAPITEL 20. ANWENDUNGEN DER INTEGRALRECHNUNG

Fur n Massenpunkte mi mit den Ortsvektoren xi, i = 1, . . . , n, ist der Schwerpunkt

xS :=n∑

i=1

mi xi

/ n∑

i=1

mi.

Entsprechend definiert man den Schwerpunkt eines massebelegten Drahtes

xS ≈

n∑

i=1ρ(x(ti)) ‖x(ti) − x(ti−1)‖2 x(ti)

n∑

i=1ρ(x(ti)) ‖x(ti) − x(ti−1)‖2

→b∫

a

ρ(x(t)) ‖x(t)‖2 x(t) dt/ b∫

a

ρ(x(t)) ‖x(t)‖2 dt,

d.h.

xS =∫

C

ρ(x) x ds/ ∫

C

ρ(x) ds.

Dabei ist das Kurvenintegral uber die Vektorfunktion t 7→ ρ(x(t)) ‖x(t)‖2 x(t) kom-

ponentenweise auszuwerten.

Beispiel 20.44. Eine homogene Schraubenfeder der Dichte ρ mit n Windungen

hat die Masse (vgl. Beispiel 20.6. auf Seite 305)

m =

2π n∫

0

ρ ‖x(t)‖2 dt = ρ · 2π n√

r2 + h2/(2π)2,

und wegen

2π n∫

0

ρ ‖x(t)‖2 x(t) dt = ρ√

r2 + h2/(2π)2

2π n∫

0

r cos tr sin t

ht/(2π)

dt

= ρ√

r2 + h2/(2π)2 ·

00

h2π

· 12(2π n)2

ist der Schwerpunkt

xS =

00

12nh

.

2

Rotiert ein Massenpunkt m im Abstand r um eine Achse A mit der Winkelgeschwin-

digkeit ω, so gilt fur die kinetische Energie

E =1

2m v2 =

1

2m r2 ω2 =:

1

2θA ω2.

20.6. KURVENINTEGRALE 327

θA heiß t das Tragheitsmoment von m bzgl. A.

Entsprechend ist fur ein System von n Massenpunkten mi mit den Radien ri das

Tragheitsmoment

θA =n∑

i=1

mi r2i ,

und in Verallgemeinerung hiervon das Tragheitsmoment eines massebelegten Drah-

tes

θA =∫

C

ρ(x) r2(x) ds,

wobei r(x) den Abstand von x ∈ C von der Achse A bezeichnet.

Beispiel 20.45. Ein homogener dunner Stab der Lange ℓ rotiere um ein Ende mit

der Winkelgeschwindigkeit ω. Damit ist das Tragheitsmoment

θ = ρ

ℓ∫

0

s2 ds =1

3ρ ℓ3.

2

Beispiel 20.46.

Ein kreisformiger homogener Draht mit Radius a

rotiere um eine senkrechte Achse durch einen sei-

ner Punkte.

Mit der Parametrisierung

x(t) := a

1 + cos tsin t0

, t ∈ [0, 2π],

des Drahtes gilt wegen (r(x(t)))2 = 2a2 (1 + cos t)

und ‖x(t)‖2 = a

θA = ρ

2π∫

0

2a3 (1 + cos t) dt = 4π ρ a3. 2

Kapitel 21

Periodische Funktionen

21.1 Einleitende Beispiele

Periodische Vorgange spielen in den Anwendungen eine große Rolle (mechanische

oder elektrische Schwingungen, Wellen, Drehbewegungen). Sie werden durch Funk-

tionen beschrieben, die dieses Verhalten widerspiegeln.

Definition 21.1. Eine Funktion f : IR → C heißt periodisch, wenn es ein T > 0

gibt mit f(x + T ) = f(x) fur alle x ∈ IR. T heißt dann die Periode von f , jedes

Intervall [a, a + T ], a ∈ IR, der Lange T heißt ein Periodenintervall.

Beispiel 21.2. cos(kx), sin(kx), k ∈ IN, sind 2π-periodische Funktionen (genauer

sogar 2π/k-periodisch). 2

Beispiel 21.3. ei kx = cos(kx) + i sin(kx) ist 2π-periodisch fur jedes k ∈ ZZ. 2

Beispiel 21.4. Jedes trigonometrische Polynom

f(x) =1

2a0 +

n∑

j=1

(

aj cos(jx) + bj sin(jx))

, aj, bj ∈ IR,

ist 2π-periodisch. 2

Beispiel 21.5. Jedes trigonometrische Polynom in komplexer Schreibweise

f(x) =n∑

j=−n

cj ei jx, cj ∈ C,

ist 2π-periodisch. 2

21.1. EINLEITENDE BEISPIELE 329

0 2 4 6 8 10 12 14 16−2.5

−2

−1.5

−1

−0.5

0

0.5

1

1.5

2

2.5

3

Abbildung 21.1 : Periodische Funktion

−2 0 2 4 6 8 10 12

−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

−2 0 2 4 6 8 10 12 14

−3

−2

−1

0

1

2

3

Abbildung 21.2 : Rechteckschwingung / Sagezahnschwingung

Beispiel 21.6. Die Rechteckschwingung (Abbildung 21.2, links)

f(x) =

−1, (2k − 1) π < x < 2kπ,

1, 2kπ < x < (2k + 1) π,

ist 2π-periodisch. 2

Beispiel 21.7. Die Sagezahnschwingung (Abbildung 21.2, rechts)

f(x) = x − 2k π, (2k − 1) π ≤ x < (2k + 1) π,

ist 2π-periodisch. 2

Das folgende Lemma 21.8. gibt Auskunft uber die Menge der Perioden einer peri-

odischen Funktion.

330 KAPITEL 21. PERIODISCHE FUNKTIONEN

Lemma 21.8. Sei f : IR → C periodisch, M die Menge aller positiven Perioden

von f und T := inf M . Dann gilt

(i) Ist T > 0, so gilt M = {n · T : n ∈ IN}.

(ii) Ist T = 0 und f stetig, so ist f konstant.

Beweis: (i): Mit T1, T2 ∈ M , T1 > T2, gilt auch T1 − T2 ∈ M , denn

f(x + (T1 − T2)) = f(x + (T1 − T2) + T2) = f(x + T1) = f(x).

Wegen T > 0 ist also T nicht Haufungspunkt von M , und daher gilt T ∈ M .

Ist T eine weitere Periode von f , so wahlen wir n ∈ IN0 mit nT ≤ T < (n + 1) T .

Dann ist T − nT eine Periode von f , und wegen 0 ≤ T − nT < T und T = inf M

folgt T = nT .

(ii): Ist T = 0, so gibt es zu jedem ε > 0 eine Periode T von f mit 0 < T < ε.

Fur beliebiges x0 ∈ IR liegt daher in jedem Intervall [x0, x0 + ε] ein ganzzahliges

Vielfaches nT von T , und hierfur gilt f(nT ) = f(0). Wegen der Stetigkeit von f ist

dies nur moglich fur f(x0) = f(0), d.h. f ist konstant.

Ist f periodisch mit der Periode T , so ist g : IR → C, g(x) := f(x T2π

) periodisch mit

der Periode 2π. Wir konnen uns daher von nun an auf 2π-periodische Funktionen

beschranken.

21.2 Fourierentwicklung periodischer Funktionen

Zur Approximation von 2π-periodischen Funktionen verwenden wir trigonometrische

Polynome (Beispiel 21.4.) bzw. trigonometrische Reihen

a0

2+

∞∑

n=1

(an cos(nx) + bn sin(nx)).

Um bei gegebener 2π-periodischer Funktion f die Wahl der an, bn zu begrunden und

um die Konvergenz einer solchen Reihe zu untersuchen, benotigen wir

Satz 21.9. Ist fn : [a, b] → IR eine gleichmaßig konvergente Folge integrierbarer

Funktionen, so ist auch f(x) := limn→∞ fn(x) integrierbar, und es gilt

limn→∞

b∫

a

fn(x) dx =

b∫

a

f(x) dx. (21.1)

21.2. FOURIERENTWICKLUNG PERIODISCHER FUNKTIONEN 331

Bemerkung 21.10. Der Spezialfall von Satz 21.9. einer Potenzreihe f und ihrer

Partialsummen fn wurde schon in Satz 17.5. gezeigt. 2

Beweis: (von Satz 21.9.)

Es sei Z eine Zerlegung von [a, b]. Dann gilt fur n ∈ IN (OZ bzw. UZ bezeichnet die

Ober- bzw. Untersumme zur Zerlegung Z)

OZ(f) − UZ(f) ≤ OZ(f − fn) + OZ(fn) −(

UZ(f − fn) + UZ(fn))

≤ 2 supa≤x≤b

|f(x) − fn(x)| (b − a) + (OZ(fn) − UZ(fn)).

Ist nun ε > 0 vorgegeben, so konnen wir zunachst n so groß wahlen, dass

2 supa≤x≤b

|f(x) − fn(x)| (b − a) <ε

2

gilt, und danach die Zerlegung Z so fein, dass

OZ(fn) − UZ(fn) <ε

2.

Dann ist OZ(f) − UZ(f) < ε, und f ist integrierbar.

Die Gleichung (21.1) erhalt man aus

∣∣∣∣

b∫

a

fn(x) dx −b∫

a

f(x) dx∣∣∣∣ =

∣∣∣∣

b∫

a

(fn(x) − f(x)) dx∣∣∣∣

≤ supa≤x≤b

|fn(x) − f(x)| |b − a| → 0

fur n → ∞.

Satz 21.11. Die Reihe

f(x) :=a0

2+

∞∑

n=1

(an cos(nx) + bn sin(nx))

sei gleichmaßig konvergent in [0, 2π]. Dann gilt

an =1

π

2π∫

0

f(x) cos(nx) dx, n ∈ IN0,

bn =1

π

2π∫

0

f(x) sin(nx) dx, n ∈ IN.

332 KAPITEL 21. PERIODISCHE FUNKTIONEN

Beweis: Zum Beweis benutzen wir, dass die Funktionen 1/√

2, sin(kx) und cos(kx),

k ∈ IN, orthonormal sind bzgl. des inneren Produktes

〈f, g〉 :=1

π

2π∫

0

f(x) g(x) dx (21.2)

(vgl. Satz 17.11.).

Da die Reihen f(x), f(x) sin(mx), f(x) cos(mx) gleichmaßig konvergieren, kann

man gliedweise integrieren:

1

π

2π∫

0

f(x) sin(mx) dx =a0

2π∫

0

sin(mx) dx

+∞∑

n=1

(

an1

π

2π∫

0

cos(nx) sin(mx) dx + bn1

π

2π∫

0

sin(nx) sin(mx) dx)

= bm.

Genauso erhalt man

am =1

π

2π∫

0

f(x) cos(mx) dx.

Allgemeiner definieren wir fur jede Funktion f , fur die die Zahlen an und bn aus

Satz 21.11. erklart sind:

Definition 21.12. Es sei f : IR → IR eine 2π-periodische, uber [0, 2π] integrier-

bare Funktion.

Dann heißen die Zahlen

an :=1

π

2π∫

0

f(x) cos(nx) dx, n ∈ IN0,

bn :=1

π

2π∫

0

f(x) sin(nx) dx, n ∈ IN,

die Fourierkoeffizienten von f und

a0

2+

∞∑

n=1

(an cos(nx) + bn sin(nx))

heißt die Fourierreihe von f .

Bemerkung 21.13. Da mit f(x) auch f(x) ·sin(nx) und f(x) ·cos(nx) uber [0, 2π]

integrierbar sind, sind die Fourierkoeffizienten definiert. 2

21.2. FOURIERENTWICKLUNG PERIODISCHER FUNKTIONEN 333

−3 −2 −1 0 1 2 3

−1

−0.5

0

0.5

1

Abbildung 21.3 : Approximation der Rechteckschwingung, n = 0, 1, 4

Bemerkung 21.14. Wegen der 2π-Periodizitat von f kann man bei der Bestim-

mung der Fourierkoeffizienten uber jedes Intervall der Lange 2π integrieren; z.B.

gilt

an =1

π

π∫

−π

f(x) cos(nx) dx, bn =1

π

ρ+2π∫

ρ

f(x) sin(nx) dx

fur alle ρ ∈ IR. 2

Beispiel 21.15. (Rechteckschwingung)

f(x) =

1, 0 ≤ x < π,

−1, π ≤ x < 2π,2π-periodisch.

Da f ungerade ist (d.h. f(x) = −f(−x) fur alle x ∈ IR), ist auch f(x) · cos(nx)

ungerade, und es gilt

an =1

π

π∫

−π

f(x) cos(nx) dx = 0,

bn =1

π

π∫

−π

f(x) sin(nx) dx =2

π

π∫

0

sin(nx) dx

=2

π[− 1

ncos(nx)]π0 =

2

(

1 − (−1)n)

.

Die zugehorige Fourierreihe ist also

f(x) ∼ 4

π

∞∑

n=0

1

2n + 1sin(2n + 1) x.

334 KAPITEL 21. PERIODISCHE FUNKTIONEN

Abbildung 21.3 enthalt die Funktion f und

fn(x) =4

π

n∑

j=0

1

2j + 1sin(2j + 1) x fur n = 0, 1, 4.

2

Wir haben gesehen, dass fur eine ungerade Funktion die Fourierkoeffizienten an

verschwinden. Allgemeiner gilt der Satz 21.16.

Satz 21.16. f : IR → IR sei 2π-periodisch und integrierbar uber [0, 2π]. Dann gilt

(i) Ist f eine gerade Funktion, so gilt bn = 0 fur alle n ∈ IN, d.h. f ist in eine

reine Kosinusreihe entwickelbar

f(x) ∼ a0

2+

∞∑

n=1

an cos(nx),

wobei

an =1

π

∫ π

−πf(x) cos nx dx =

2

π

∫ π

0f(x) cos nx dx.

(ii) Ist f eine ungerade Funktion, so gilt an = 0 fur alle n ∈ IN0, d.h. f ist in eine

reine Sinusreihe entwickelbar

f(x) ∼∞∑

n=1

bn sin(nx)

mit

bn =2

π

∫ π

0f(x) sin nx dx.

Beispiel 21.17. (Sagezahnkurve) Sei f(x) = x, −π ≤ x < π, 2π-periodisch.

Da f eine ungerade Funktion ist, laßt sich f in eine reine Sinusreihe entwickeln. Es

gilt

bn =1

π

π∫

−π

x sin(nx) dx =2

n(−1)n+1,

und die Fourierreihe ist

f(x) ∼ 2∞∑

n=1

(−1)n+1 1

nsin(nx).

2

21.2. FOURIERENTWICKLUNG PERIODISCHER FUNKTIONEN 335

−2 0 2 4 6 8 10 12 14

0

1

2

3

4

5

6

7

8

9

10

Abbildung 21.4 : Zu Beispiel 21.18.

Beispiel 21.18. Sei f(x) = x2, −π < x < π, 2π-periodisch.

Da f eine gerade Funktion ist, laßt sich f in eine reine Kosinusreihe entwickeln. Fur

die Fourierkoeffizienten an gilt

a0 =1

π

π∫

−π

x2 dx =2

3π2,

an =1

π

π∫

−π

x2 cos(nx) dx = (−1)n · 4

n2.

Daher erhalt man

f(x) ∼ π2

3+ 4

∞∑

n=1

(−1)n 1

n2cos(nx).

Diese Fourierreihe wird ubrigens dem Betrage nach fur alle x durch die konstante

konvergente Reihe

4∞∑

n=1

1

n2

majorisiert. Daher konvergiert sie gleichmaßig. Wir werden noch sehen, dass der

Grenzwert f(x) ist. Daher gilt speziell fur x = 0

0 =π2

3+ 4

∞∑

n=1

(−1)n 1

n2, d.h.

∞∑

n=1

(−1)n+1 1

n2=

π2

12

und fur x = π

π2 =π2

3+ 4

∞∑

n=1

(−1)n 1

n2(−1)n, d.h.

∞∑

n=1

1

n2=

π2

6.

2

336 KAPITEL 21. PERIODISCHE FUNKTIONEN

21.3 Approximation im quadratischen Mittel

Wir geben nun eine andere Motivation fur die Definition der Fourierreihe.

Es sei

Tn :={α0

2+

n∑

j=1

(αj cos(jx) + βj sin(jx)) : αj, βj ∈ IR}

die Menge aller trigonometrischen Polynome vom Grade n und

‖g‖ :=

√√√√√

1

π

2π∫

0

(g(x))2 dx (21.3)

die durch das innere Produkt (21.2) induzierte Norm.

Satz 21.19. Es sei f : IR → IR 2π-periodisch und integrierbar uber [0, 2π], und

es sei

fn(x) :=a0

2+

n∑

j=1

(aj cos(jx) + bj sin(jx))

die abgeschnittene Fourierreihe von f . Dann gilt

(i) ‖f − fn‖ < ‖f − g‖ fur alle g ∈ Tn, g 6= fn, fn ist also die eindeutig bestimmte

beste Approximation fur f durch ein trigonometrisches Polynom vom Grade

n.

(ii) Es gilt die Besselsche Ungleichung

1

2a2

0 +n∑

j=1

(a2j + b2

j) ≤1

π

2π∫

0

(f(x))2 dx.

Beweis: (i): Nach dem Approximationssatz Satz 6.16. ist die Projektion P (f) von

f auf Tn die beste Approximation fur f in Tn, und diese ist charakterisiert durch

〈f − P (f), φj〉 = 0 fur alle Elemente φj einer Basis von Tn.

Wir wahlen als Basis von Tn

{1/√

2, cos(jx), sin(jx) : j = 1, . . . , n}.

Dann folgt die Behauptung aus der Orthogonalitat der Basiselemente und der De-

finition der Fourierkoeffizienten.

21.3. APPROXIMATION IM QUADRATISCHEN MITTEL 337

(ii): Es gilt

0 ≤ ‖f − fn‖2 =1

π

2π∫

0

(f(x))2 dx − 2

π

2π∫

0

f(x) fn(x) dx +1

π

2π∫

0

(fn(x))2 dx,

wobei

2π∫

0

f(x) fn(x) dx

=a0

2

2π∫

0

f(x) dx +n∑

j=1

(

aj

2π∫

0

f(x) cos(jx) dx + bj

2π∫

0

f(x) sin(jx) dx)

= π ·(

a20

2+

n∑

j=1

(a2j + b2

j))

,

und wegen der Orthonormalitat

2π∫

0

(fn(x))2 dx =

2π∫

0

(a0

2+

n∑

j=1

(

aj cos(jx) + bj sin(jx)))2

dx

= π ·(

a20

2+

n∑

j=1

(a2j + b2

j))

.

Damit folgt

0 ≤ 1

π

2π∫

0

(f(x))2 dx −(a2

0

2+

n∑

j=1

(a2j + b2

j))

.

Fur n → ∞ folgt aus der Besselschen Ungleichung

a20

2+

∞∑

j=1

(a2j + b2

j) ≤1

π

2π∫

0

(f(x))2 dx.

Die Reihe links ist also konvergent, und daher folgt fur die Fourierkoeffizienten jeder

integrierbaren Funktion

limn→∞ an = lim

n→∞ bn = 0.

Ferner konvergieren die Fourierpolynome genau dann im quadratischen Mittel gegen

f (d.h. in der Norm (21.3)), wenn die Parsevalsche Gleichung gilt:

a20

2+

∞∑

n=1

(a2n + b2

n) =1

π

2π∫

0

(f(x))2 dx.

Dies ist (ohne Beweis) fur alle uber [0, 2π] integrierbaren Funktionen (sogar fur

die wesentlich großere Klasse der im Lebesgueschen Sinne uber [0, 2π] quadratisch

integrierbaren Funktionen) der Fall.

338 KAPITEL 21. PERIODISCHE FUNKTIONEN

Die Approximation im quadratischen Mittel laßt zu, dass in einzelnen Punkten (z.B.

Unstetigkeitsstellen von f) durchaus große Abweichungen des approximierenden tri-

gonometrischen Polynoms auftreten konnen.

21.4 Gleichmaßige Konvergenz von

Fourierreihen

Es sei f eine stetige, 2π-periodische Funktion, die mit Ausnahme von endlich vielen

Stellen in [0, 2π] eine stetige Ableitung f ′ habe, wobei die Unstetigkeitsstellen von

f ′ Sprungstellen seien. Dann existieren die Fourierkoeffizienten von f ′

a′n =

1

π

ρ+2π∫

ρ

f ′(x) cos(nx) dx, b′n =1

π

ρ+2π∫

ρ

f ′(x) sin(nx) dx,

wobei ρ so gewahlt sei, dass f ′ in ρ stetig ist.

Durch partielle Integration erhalt man

a′n =

1

π[f(x) cos(nx)]ρ+2π

ρ +n

π

ρ+2π∫

ρ

f(x) sin(nx) dx = n bn

und genauso b′n = −n an, wobei an, bn die Fourierkoeffizienten von f sind.

Um die gleichmaßige Konvergenz der Fourierreihe von f zu zeigen, untersuchen wir

die Reihe der absoluten Betrage:

n∑

j=1

|aj cos(jx) + bj sin(jx)| =n∑

j=1

1

j|a′

j sin(jx) − b′j cos(jx)|.

Nach der Cauchy-Schwarzschen Ungleichung (Satz 2.50.) gilt

( n∑

j=1

|aj cos(jx) + bj sin(jx)|)2

=( n∑

j=1

1

j

∣∣∣ − b′j cos(jx) + a′

j sin(jx)∣∣∣

)2

≤( n∑

j=1

1

j2

)

·( n∑

j=1

(

a′j sin(jx) − b′j cos(jx)

)2)

.

Wegen

(a′j sin(jx) − b′j cos(jx))2 = a′

j2 + b′j

2 − (a′j cos(jx) + b′j sin(jx))2

≤ a′j2 + b′j

2

21.4. GLEICHMASSIGE KONVERGENZ VON FOURIERREIHEN 339

gilt weiter

( n∑

j=1

|aj cos(jx) + bj sin(jx)|)2

≤( n∑

j=1

1

j2

) n∑

j=1

(a′j2 + b′j

2),

und die Besselsche Ungleichung liefert

n∑

j=1

|aj cos(jx) + bj sin(jx)| ≤√√√√

n∑

j=1

1

j2·

√√√√√

1

π

2π∫

0

(f ′(x))2 dx

=: C

√√√√

n∑

j=1

1

j2.

Da die majorisierende Folge C

√n∑

j=1

1j2 konvergiert, konvergiert die Fourierreihe von

f gleichmaßig, und da alle Summanden aj cos(jx) + bj sin(jx) stetig sind, ist die

Grenzfunktion

F (x) :=a0

2+

n∑

j=1

(aj cos(jx) + bj sin(jx))

stetig in IR.

Um zu zeigen, dass F (x) = f(x) fur alle x ∈ IR gilt, betrachten wir die stetige

Funktion g(x) := F (x)−f(x). Da F (x) nach Satz 21.11. die Fourierkoeffizienten aj,

bj besitzt, sind alle Fourierkoeffizienten von g Null. Wir zeigen, dass daraus g(x) ≡ 0

folgt.

Lemma 21.20. Es sei g : IR → IR stetig und 2π-periodisch, und es seien alle

Fourierkoeffizienten von g Null. Dann gilt

g(x) = 0 fur alle x ∈ IR.

Beweis: (indirekt)

Angenommen g(x) 6≡ 0. Dann existiert wegen der Stetigkeit von g ein Intervall

[a, b] ⊂ [0, 2π] und o.B.d.A. ein m > 0 mit g(x) ≥ m fur alle x ∈ [a, b].

Wir wahlen ein trigonometrisches Polynom P1(x) := α + β · cos(x + φ), wobei α,

β, φ so gewahlt sind, dass P1(x) > 1 fur alle x ∈ (a, b) und |P1(x)| < 1 fur alle

x ∈ [0, a) ∪ (b, 2π] gilt.

Dann ist Pn(x) := (P1(x))n ein trigonometrisches Polynom vom Grade n, und daher

gilt2π∫

0

g(x) Pn(x) dx = 0.

340 KAPITEL 21. PERIODISCHE FUNKTIONEN

0 1 2 3 4 5 6−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

1.2

a b

Abbildung 21.5 : Zu Lemma 21.20.

Andererseits gilt fur genugend kleine ε > 0 fur x ∈ [a + ε, b − ε]

P1(x) ≥ K > 1

mit einer geeigneten Konstanten K, d.h.

b∫

a

g(x) Pn(x) dx ≥b−ε∫

a+ε

g(x) Pn(x) dx ≥ m (b − a − 2ε) Kn

und |P1(x)| ≤ 1 fur x ∈ [0, a] ∪ [b, 2π]. Daraus folgt

∣∣∣

a∫

0

g(x) Pn(x) dx +

2π∫

b

g(x) Pn(x) dx∣∣∣

≤a∫

0

|g(x)| |Pn(x)| dx +

2π∫

b

|g(x)| |Pn(x)| dx

≤ (a + 2π − b) maxx∈ IR

|g(x)|.

Aus den letzten beiden Ungleichungen erhalt man den Widerspruch

∣∣∣

2π∫

0

g(x) Pn(x) dx∣∣∣ ≥

∣∣∣

b∫

a

g(x) Pn(x) dx∣∣∣ −

∣∣∣ (

a∫

0+

2π∫

b) g(x) Pn(x) dx

∣∣∣

≥ m Kn (b − a − 2ε) − (2π + a − b) maxx∈ IR

|g(x)| > 0

fur genugend großes n ∈ IN.

Damit ist gezeigt:

21.4. GLEICHMASSIGE KONVERGENZ VON FOURIERREIHEN 341

Satz 21.21. Es sei f : IR → IR stetig, 2π-periodisch und in [0, 2π] mit Ausnahme

von endlich vielen Stellen stetig differenzierbar, wobei f ′ in den Unstetigkeitsstellen

Sprungstellen besitze. Dann konvergiert die Fourierreihe von f gleichmaßig gegen f .

Bemerkung 21.22. Es genugt nicht, f als stetig vorauszusetzen. Es gibt sogar

stetige Funktionen, deren Fourierreihe nicht einmal punktweise gegen f konvergiert.

2

Wir lassen nun Sprungstellen fur die Funktion f zu. Als Vorbereitung untersuchen

wir zunachst die Konvergenz der Fourierreihe der Sagezahnschwingung (vgl. Bei-

spiel 21.17.).

Lemma 21.23. Es sei f(x) := x, −π < x < π, 2π–periodisch. Dann konvergiert

die Fourierreihe

2∞∑

n=1

(−1)n+1 1

nsin nx

gleichmaßig in jedem Intervall [−π + ε, π − ε], ε ∈ (0, π) gegen f .

Beweis: Fur die Partialsumme

fn(x) := 2n∑

j=1

(−1)j+1 1

jsin jx

gilt

f ′n(x) = 2

n∑

j=1

(−1)j+1 cos jx = 2Re( n∑

j=1

(−1)j+1eijx)

= 2Re(

1 −n∑

j=0

( − eix)j)

= 2Re(

1 − 1 − (−eix)n+1

1 + eix

)

= 2Re(eix + (−eix)n+1

1 + eix

)

= Ree−0.5ix(eix + (−eix)n+1)

0.5(e−0.5ix + e0.5ix)

=1

cos 0.5xRe

(

e0.5ix + (−1)n+1ei(n+0.5)x)

=1

cos 0.5x

(

cos 0.5x + (−1)n+1 cos(n + 0.5)x)

= 1 + (−1)n+1 cos(n + 0.5)x

cos 0.5x.

Es sei

gn(x) := fn(x) − (−1)n+1 1

n + 0.5· sin(n + 0.5)x

cos 0.5x.

342 KAPITEL 21. PERIODISCHE FUNKTIONEN

Dann folgt

g′n(x) = f ′

n(x)

−(−1)n+1 · 1

n + 0.5· (n + 0.5) cos 0.5x cos(n + 0.5)x + 0.5 sin 0.5x sin(n + 0.5)x

(cos 0.5x)2

= 1 − (−1)n+1 1

2n + 1· sin 0.5x sin(n + 0.5)x

(cos 0.5x)2.

Fur x ∈ [−π + ε, π − ε] ist cos 0.5x ≥ cos(0.5(π − ε)) > 0 von 0 wegbeschrankt.

Daher gilt

limn→∞

g′n(x) = 1 gleichmaßig in [−π + ε, π − ε],

und es folgt

limn→∞

x∫

0

g′n(t) dt =

x∫

0

(

limn→∞ g′

n(t))

dt = x gleichmaßig in [−π + ε, π − ε].

Hiermit erhalten wir schließlich

limn→∞ fn(x) = lim

n→∞

(

gn(x) + (−1)n+1 1

n + 0.5· sin(n + 0.5)x

cos 0.5x

)

= limn→∞

(x∫

0

g′n(t) dt + (−1)n+1 1

n + 0.5· sin(n + 0.5)x

cos 0.5x

)

= x gleichmaßig in [−π + ε, π − ε].

Es sei nun f(x) eine 2π-periodische Funktion, die uberall stetig ist mit Ausnahme

der Punkte (2k + 1) π, k ∈ ZZ, wo sie einen Sprung der Hohe 2π habe:

f((2k + 1) π + 0) − f((2k + 1) π − 0) = 2π,

und die eine Ableitung besitze, die der Voraussetzung von Satz 21.21. genugt. Dann

erfullt mit F (x) := x, −π < x < π, 2π-periodisch, die Funktion g(x) := f(x) +

F (x) die Voraussetzungen von Satz 21.21., besitzt also eine gleichmaßig konvergente

Fourierreihe

g(x) =a0

2+

∞∑

j=1

(aj cos(jx) + bj sin(jx)).

Wegen f(x) = g(x) − F (x) ist dann

f(x) ∼ a0

2+

∞∑

j=1

(

aj cos(jx) + (bj + (−1)j 2

j) sin(jx)

)

.

die Fourierreihe von f , und diese konvergiert nach Lemma 21.23. gleichmaßig in

jedem Intervall, das keine Sprungstelle (2k + 1) π von f enthalt, gegen f(x).

21.5. ASYMPTOTISCHES VERHALTEN DER FOURIERKOEFFIZIENTEN343

Wegen∞∑

j=1

(−1)j 2

jsin(jx)

∣∣∣∣∣x=(2k+1) π

= 0

konvergiert die Fourierreihe von f fur x0 = (2k + 1) π gegen

g(x0) =f(x0 + 0) + f(x0 − 0)

2,

den Mittelwert der Grenzwerte von links und rechts.

Besitzt f an irgend einer Stelle x0 ∈ (−π, π) eine Sprungstelle der Hohe f(x0 +0)−f(x0 − 0) =: s, so kann man diese genauso behandeln durch den Ubergang zu

g(x) := f(x) +s

2πF (x − π − x0).

Schließlich kann man auch endlich viele Sprunge von f auf diese Weise kompensieren

und erhalt

Satz 21.24. Sei f : IR → IR 2π-periodisch, stuckweise stetig und stuckweise

stetig differenzierbar. Dann konvergiert die Fourierreihe von f in jedem Stetigkeits-

punkt x von f gegen f(x) und in jeder Sprungstelle x von f gegen den Mittelwert

(f(x+0)+f(x−0))/2. Die Konvergenz ist gleichmaßig in jedem Intervall, das keine

Sprungstellen von f enthalt.

21.5 Asymptotisches Verhalten der

Fourierkoeffizienten

Wir untersuchen nun das asymptotische Verhalten der Fourierkoeffizienten einer

Funktion f fur n → ∞. Erfullt f die Voraussetzungen von Satz 21.21., so gilt fur

die Fourierkoeffizienten an, bn von f

an = − 1

nb′n, bn =

1

na′

n,

wobei a′n, b′n die Fourierkoeffizienten von f ′ sind. Da nach der Besselschen Unglei-

chung a′n → 0, b′n → 0 fur n → ∞ gilt, folgt

limn→∞n an = lim

n→∞n bn = 0.

Man schreibt hierfur auch

an = o(1

n), bn = o(

1

n) fur n → ∞.

(gesprochen: an ist ein klein o von 1 durch n; o heißt Landau Symbol)

344 KAPITEL 21. PERIODISCHE FUNKTIONEN

Beispiel 21.25. f(x) = x2, −π ≤ x ≤ π, 2π-periodisch, ist stetig und f ′ besitzt

Sprunge in (2k + 1) π, k ∈ ZZ. Die Fourierkoeffizienten an = (−1)n · 4/n2, bn = 0

erfullen

limn→∞

n an = 0, limn→∞

n bn = 0.

2

Ist f 2π-periodisch, k-mal stetig differenzierbar und erfullt die k-te Ableitung die

Voraussetzungen von Satz 21.21., so erhalt man entsprechend den Formeln an =

−b′n/n, bn = a′n/n durch (k + 1)-malige partielle Integration

an = (−1)ℓ 1

nk+1a(k+1)

n , bn = (−1)ℓ 1

nk+1b(k+1)n

fur k = 2ℓ − 1, und

an = (−1)ℓ+1 1

nk+1b(k+1)n , bn = (−1)ℓ 1

nk+1a(k+1)

n

fur k = 2ℓ, wobei a(k+1)n und b(k+1)

n die Fourierkoeffizienten von f (k+1) sind.

In jedem Fall gilt also wegen limn→∞ a(k+1)

n = limn→∞ b(k+1)

n = 0

limn→∞(nk+1 an) = lim

n→∞(nk+1 bn) = 0,

d.h.

an = o( 1

nk+1

)

, bn = o( 1

nk+1

)

.

Erfullt f die Voraussetzungen von Satz 21.24., so kann man f als Summe einer

Funktion g, die die Voraussetzungen von Satz 21.21. erfullt, und von Sagezahnkurven

h(x) = s F (x − x0) schreiben. h(x) besitzt die Fourierreihe

h(x) ∼ 2s∞∑

n=1

(−1)n+1 1

nsin(n (x − x0))

= 2s∞∑

n=1

(−1)n+1 1

n(cos(nx0) sin(nx) − sin(nx0) cos(nx)),

also gilt fur die Fourierkoeffizienten an und bn: |an|, |bn| ≤ C/n.

Da die Fourierkoeffizienten an, bn von g sogar limn→∞n an = lim

n→∞n bn = 0 erfullen,

also erst recht |an|, |bn| ≤ C/n, gibt es also eine Konstante C > 0, so dass fur die

Fourierkoeffizienten von f gilt

|an| ≤C

n, |bn| ≤

C

n.

21.6. ANDERE FORMEN DER FOURIERREIHE 345

0 0.5 1 1.5 2

0

0.5

1

|an|

|bn||A

n|

αn

δn

Abbildung 21.6

Ist f schließlich (k− 1)-mal stetig differenzierbar und besitzt f eine k-te Ableitung,

die den Voraussetzungen von Satz 21.24. genugt, so erhalt man wieder durch k-

malige partielle Integration

|an|, |bn| ≤1

nkmax(|a(k)

n |, |b(k)n |)

und wie oben |a(k)n |, |b(k)

n | ≤ C/n, insgesamt also

|an|, |bn| ≤C

nk+1.

Man schreibt hierfur

an = O( 1

nk+1

)

, bn = O( 1

nk+1

)

und liest an ist ein groß O von 1/nk+1. Auch O heißt Landau Symbol.

Beispiel 21.26. f(x) = x2, −π ≤ x ≤ π, 2π-periodisch, ist 0-mal stetig differen-

zierbar und f ′(x) erfullt die Voraussetzungen von Satz 21.24.. Fur die Fourierkoef-

fizienten gilt

|an| =4

n2, |bn| = 0 ≤ 4

n2.

2

21.6 Andere Formen der Fourierreihe

Wir betrachten nun andere Formen der Fourierreihe: Die 2π-periodische Funktion

f : IR → IR besitze die Fourierreihe

f(x) =a0

2+

∞∑

n=1

(

an cos(nx) + bn sin(nx))

.

346 KAPITEL 21. PERIODISCHE FUNKTIONEN

Wir definieren Winkel αn, δn wie in dem Dreieck der Abbildung 21.6 und A0 := a0/2,

An :=√

a2n + b2

n. Dann gilt

f(x) = A0 +∞∑

n=1

An cos(nx − αn)

und

f(x) = A0 +∞∑

n=1

An sin(nx + δn).

In beiden Fallen ist An die Amplitude der Komponente der Frequenz n (die Ampli-

tude des n-ten harmonischen Mittels von f).

Wegen

cos(nx) =einx + e−inx

2, sin(nx) =

einx − e−inx

2i

gilt

f(x) =a0

2+

∞∑

n=1

(an

2(einx + e−inx) − bn i

2(einx − e−inx)

)

=∞∑

n=−∞cn einx,

wobei

c0 :=a0

2, cn =

an − i bn

2, c−n =

an + i bn

2, n > 0.

Die komplexen Fourierkoeffizienten cn kann man auch direkt ausrechnen:

cn =1

2π∫

0

f(x) (cos(nx) − i sin(nx)) dx =1

2π∫

0

f(x) e−inx dx,

c−n =1

2π∫

0

f(x) (cos(nx) + i sin(nx)) dx =1

2π∫

0

f(x) einx dx,

c0 =a0

2=

1

2π∫

0

f(x) dx =1

2π∫

0

f(x) ei0x dx ;

in jedem Fall gilt also

ck =1

2π∫

0

f(x) e−ikx dx, k ∈ ZZ.

Bemerkung 21.27. Die ck lassen sich als Integrale komplexwertiger Funktionen

φ : [a, b] → C berechnen. Ein solches φ ist genau dann integrierbar, wenn die reellen

21.7. NUMERISCHE FOURIERANALYSE UND -SYNTHESE 347

Funktionen Re φ, Im φ : [a, b] → IR integrierbar sind. Das Integral ist dann definiert

durchb∫

a

φ(x) dx =

b∫

a

Re φ(x) dx + i

b∫

a

Im φ(x) dx.

2

Wegen cn · c−n = (a2n + b2

n)/4 erhalt man die Amplitude des n-ten harmonischen

Mittels aus den komplexen Fourierkoeffizienten durch

An = 2√

cn · c−n.

Beispiel 21.28. f(x) = e−x, −π ≤ x < π, 2π-periodisch. Dann gilt

cn =1

π∫

−π

e−x e−inx dx =1

2π[e−(1+i n) x

−(1 + i n)]π−π =

e(1+i n) π − e−(1+i n) π

2π (1 + i n),

und wegen ei nπ = cos nπ + i sin nπ = (−1)n

cn =(−1)n (1 − i n)

(1 + n2) πsinh(π).

Wegen

an = cn + c−n =(−1)n · 2 sinh(π)

(1 + n2) π, bn = i (cn − c−n) =

(−1)n · 2n sinh(π)

(1 + n2) π

erhalt man hieraus die reelle Fourierreihe. 2

21.7 Numerische Fourieranalyse und -synthese

Die Integrale, die die Fourierkoeffizienten an und bn bzw. cn festlegen, konnen nur in

seltenen Fallen exakt ausgewertet werden und mussen numerisch bestimmt werden.

Hierzu verwendet man stets die Trapezregel, die fur eine 2π-periodische Funktion f

wegen f(0) = f(2π) die Gestalt hat

2π∫

0

f(x) dx ≈ 2π

m

m∑

j=1

f(j2π

m) =: Tm(f). (21.4)

Aufgrund der Uberlegungen in Kapitel 19 ist der Fehler von (21.4) ein O(1/m2).

Tatsachlich gilt fur f ∈ C2k[0, 2π] in diesem speziellen Fall einer periodischen Funk-

tion (vgl. Stoer [20, S. 105])

2π∫

0

f(x) dx − Tm(f) = O( 1

m2k

)

,

348 KAPITEL 21. PERIODISCHE FUNKTIONEN

und eine hohere Konvergenzordnung ist nicht erreichbar.

Es ist auch anschaulich klar, dass fur periodische Funktionen die Trapezregel optimal

ist, denn wegen2π∫

0

f(x) dx =

a+2π∫

a

f(x) dx fur alle a ∈ IR

ist es nicht sinnvoll, gewisse Knoten starker zu gewichten als andere oder die Knoten

in einem Teil des Integrationsintervalls dichter zu wahlen als in einem anderen.

Als Naherungen fur die Fourierkoeffizienten erhalt man aus (21.4) mit h = 2π/m

ak =1

π

2π∫

0

f(x) cos(kx) dx ≈ 2

m

m∑

j=1

f(j h) cos(kjh) =: Ak, (21.5)

bk ≈ 2

m

m∑

j=1

f(j h) sin(kjh) =: Bk, (21.6)

ck ≈ 1

m

m∑

j=1

f(j h) e−i kjh =: Ck. (21.7)

Diese Naherungsformeln sind nicht fur beliebig große k brauchbar, denn wegen der

Periodizitat der Sinus- und Kosinusfunktion gilt Ak+ℓm = Ak, Bk+ℓm = Bk, Ck+ℓm =

Ck, wahrend limk→∞

ak = limk→∞

bk = limk→±∞

ck = 0 gilt. Man akzeptiert daher Ak und Bk

nur fur k < m2

und Ck nur fur |k| < m2

als Naherungen fur ak, bk und ck.

Die Naherungen in (21.5), (21.6) und (21.7) fur die Fourierkoeffizienten konnen

auch auf andere Weise begrundet werden. Wir betrachten das Problem der trigo-

nometrischen Interpolation (auch diskrete Fourieranalyse):

Bestimme ein trigonometrisches Polynom f , das eine gegebene 2π-perio-

dische Funktion f an den aquidistanten Stellen xj := j h := j 2πm

inter-

poliert: f(xj) = f(xj), j = 1, . . . ,m.

Dieses Problem ist stets eindeutig losbar; die Losung wird im folgenden Satz 21.29.

beschrieben.

Satz 21.29. Es sei eine 2π-periodische Funktion f an den aquidistanten Knoten

xj := j h, j = 1, . . . ,m, h := 2π/m, gegeben.

Dann erfullen die trigonometrischen Polynome

f(x) =m−1∑

k=0

ck ei kx

21.7. NUMERISCHE FOURIERANALYSE UND -SYNTHESE 349

und

f(x) =a0

2+

µ−1∑

k=1

(ak cos(kx) + bk sin(kx)) +θ

2aµ cos(µx) (21.8)

mit θ = 0, µ = (m− 1)/2 fur ungerades m und θ = 1, µ = m/2 fur grades m, wobei

ck =1

m

m∑

j=1

f(j h) e−i jkh, (21.9)

ak =2

m

m∑

j=1

f(j h) cos(jkh), (21.10)

bk =2

m

m∑

j=1

f(j h) sin(jkh) (21.11)

gilt, die Interpolationsbedingung f(xj) = f(xj) bzw. f(xj) = f(xj), j = 1, . . . ,m.

Zum Beweis benotigen wir eine Satz 17.11. entsprechende diskrete Orthogonalitats-

relation. Wir formulieren diese nur fur die Funktionen eikx und fuhren die Rechnung

(der Bequemlichkeit halber) im Komplexen durch.

Wir betrachten das Skalarprodukt

(f, g)m := hm∑

ℓ=1

f(xℓ) g(xℓ)

und die zugehorige Norm

‖f‖m :=√

(f, f)m.

Man beachte, dass dies kein Skalarprodukt und keine Norm auf einem Funktionen-

raum sind, sondern auf dem Raum der diskreten Werte (f(x1), . . . , f(xm))T , also

auf dem Cm.

Satz 21.30. (diskrete Orthogonalitat) Fur φk(x) := eikx, k ∈ ZZ, gilt

(φk, φl)m =

2π, fallsk − ℓ

m∈ ZZ,

0, sonst.

Beweis: Mit q := exp(i k−ℓm

2π) gilt wegen exp(ix) = exp(−ix)

(φk, φℓ)m = hm∑

j=1

exp(i kjh) exp(−i ℓjh)

= hm∑

j=1

exp(i (k − ℓ) jh) = hm∑

j=1

qj.

350 KAPITEL 21. PERIODISCHE FUNKTIONEN

Ist (k − ℓ)/m ganzzahlig, so gilt q = 1, und daher

(φk, φℓ)m = m h = 2π.

Ist (k − ℓ)/m nicht ganzzahlig, so folgt q 6= 1 und qm = 1, und daher

(φk, φℓ)m = h qm−1∑

j=0

qj = h q1 − qm

1 − q= 0.

Beweis: (von Satz 21.29.)

Die Interpolationsbedingungen lauten

f(xj) = f(xj) =m−1∑

k=0

ck φk(xj), j = 1, . . . ,m. (21.12)

Dieses lineare Gleichungssystem zur Bestimmung der ck kann man mit Hilfe von

Satz 21.30. leicht losen:

(f, φℓ)m = hm∑

j=1

f(xj) φℓ(xj) = hm∑

j=1

m−1∑

k=0

ck φk(xj) φℓ(xj)

=m−1∑

k=0

ck hm∑

j=1

φk(xj) φℓ(xj) =m−1∑

k=0

ck (φk, φℓ)m = 2π cℓ,

d.h.

cℓ =1

2π(f, φℓ)m =

1

m

m∑

j=1

f(jh) ei jℓh.

Das Gleichungssystem (21.12) ist also stets losbar, und da man wie oben fur das

homogene Problem (f(xj) = 0, j = 1, . . . ,m) als eindeutige Losung die triviale

erhalt, ist (21.12) eindeutig losbar.

Es sei nun m ungerade und µ := (m− 1)/2. Dann sieht man wie eben ein, dass das

Interpolationsproblem

Bestimme dk, k = −µ, . . . , µ, mit f(xj) =µ∑

k=−µdk φk(xj), j = 1, . . . ,m,

eindeutig losbar ist, und dass die Losung wieder gegeben ist durch

dk =1

2π(f, φk)m =

1

m

m∑

j=1

f(jh) e−i jkh.

21.7. NUMERISCHE FOURIERANALYSE UND -SYNTHESE 351

Hiermit erhalt man

f(x) =µ

k=−µ

dk φk(x) =1

m

µ∑

k=−µ

m∑

j=1

f(xj) e−i jkh ei kx

=1

m

µ∑

k=−µ

m∑

j=1

f(xj)(

cos(k(x − xj)) + i sin(k(x − xj)))

=1

m

µ∑

k=−µ

m∑

j=1

f(xj) cos(k(x − xj)) +i

m

m∑

j=1

f(xj)µ

k=−µ

sin(k(x − xj)).

Da sin ungerade ist, ist der rechte Summand 0, und wegen der Geradheit von cos

folgt

f(x) =1

m

m∑

j=1

f(xj) +2

m

µ∑

k=1

m∑

j=1

f(xj) cos(k(x − xj))

=1

2a0 +

2

m

µ∑

k=1

m∑

j=1

f(xj) (cos(kx) cos(kxj) + sin(kx) sin(kxj)),

d.h. (21.8) mit (21.10) und (21.11) fur ungerades m.

Die Rechnung fur gerades m verlauft genauso.

Die interpolierenden Funktionen sind i.a. verschieden:

Fur m = 2, f(π) = 1, f(2π) = 0 gilt

c0 =f(π) e0 + f(2π) e0

2=

1

2, c1 =

f(π) e−π i + f(2π) e−2π i

2= −1

2,

d.h. f(x) = (1 − eix)/2 = (1 − cos x − i sin x)/2 und a0 = 1, a1 = −1, d.h.

f(x) =1 − cos x

2.

Ist dk wie im Beweis zu Satz 21.29. definiert, so gilt fur 0 < k < µ

d−k =1

m

m∑

j=1

f(jh) ei jkh e−i jmh =1

m

m∑

j=1

f(jh) e−i j (m−k) h = cm−k.

Ferner gilt wie fur die (diskreten) Fourierkoeffizienten

ak = dk + d−k = ck + cm−k, bk = −i (dk − d−k) = −i (ck − cm−k).

Ist f eine reelle Funktion, so gilt cm−j = d−j = dj = cj, und man erhalt noch

spezieller

ak = 2 Re ck, bk = −2 Im ck, k = 0, . . . ,m

2.

352 KAPITEL 21. PERIODISCHE FUNKTIONEN

In jedem Fall genugt es also, die komplexen (diskreten) Fourierkoeffizienten

cℓ :=1

m

m∑

j=1

f(xj) e−i ℓxj

zu berechnen. Wir geben hierfur im folgenden die Ideen fur einen sehr schnellen

Algorithmus, die schnelle Fouriertransformation (fast Fouriertransform, FFT),

an, die Cooley und Tuckey (1965) zugeschrieben wird, aber erstmals von Good (1958

und 1960) veroffentlicht wurde.

Wir betrachten nur den Fall m = 2p, p ∈ IN, da hierfur der Algorithmus am besten

arbeitet und am leichtesten zu durchschauen ist.

Zur Abkurzung setzen wir

fj :=1

mf(xj), j = 0, 1, . . . ,m,

w := e−i h = e−(2π/m) i.

Dann gilt f0 = fm und wm = 1, und wir haben

cℓ =m∑

j=1

fj wjℓ, ℓ = 0, 1, . . . ,m − 1, (21.13)

zu berechnen.

Die Summe (21.13) kann man aufteilen in

cℓ =m/2∑

ι=1

f2ι w2ιℓ +

m/2∑

ι=1

f2ι−1 w(2ι−1) ℓ

=m/2∑

ι=1

f2ι (w2)ιℓ + w−ℓ

m/2∑

ι=1

f2ι−1 (w2)ιℓ, ℓ = 0, . . . ,m − 1.

Da wm = 1 gilt, ist wr = wr+ℓ m fur alle ℓ ∈ ZZ. Schreiben wir also fur das in (21.13)

auftretende ℓ

ℓ = αm

2+ λ

mit α = 0 fur ℓ = 0, . . . , m2− 1 und α = 1 fur ℓ = m

2, . . . ,m − 1, so gilt

(w2)ιℓ = (w2)ι (α m2

+λ) = (wm)αι (w2)ιλ = (w2)ιλ,

und daher

cℓ =m/2∑

ι=1

f2ι (w2)ιλ + w−ℓ

m/2∑

ι=1

f2ι−1 (w2)ιλ, ℓ = 0, . . . ,m − 1,

=: dλ + w−ℓ eλ. (21.14)

21.7. NUMERISCHE FOURIERANALYSE UND -SYNTHESE 353

Die Summen dλ und eλ haben wieder dieselbe Struktur wie die Summe cℓ (Beachte:

mit m1 := m/2 = 2p−1 und w1 := w2 gilt wm11 = 1). Wir konnen also die Fourier-

analyse in (21.13) durch zwei Fourieranalysen mit der halben Knotenzahl ersetzen.

Wendet man dieselbe Idee an, um dλ und eλ zu berechnen, so muss man 4 = 22

Fourieranalysen mit je m2 := m1/2 = 2p−2 Summanden berechnen. Fahrt man mit

der Zerlegung so fort, so hat man schließlich 2p Fourieranalysen mit jeweils mp = 2p−p

Summanden auszufuhren, die wegen wp = w2p−1 = w4

p−2 = . . . = wm = 1 trivial sind.

Ihre Werte sind gerade f1, . . . , fm.

Beim Algorithmus geht man umgekehrt vor. Man beginnt mit vorgegebenen Werten

f1, f2, . . . , fm, berechnet hiermit m/2 Fouriersummen mit 2 Summanden aus, hieraus

m/4 Fouriersummen mit 22 = 4 Summanden, usw.

Die tatsachliche Implementierung dieses Algorithmus ist technisch nicht ganz ein-

fach.

Wir ermitteln nun den Aufwand zur Bestimmung aller Fourierkoeffizienten. Verwen-

det man hierzu Formel (21.13) naiv, so benotigt man m2 komplexe Multiplikationen.

Wir bezeichnen mit FTk eine Fouriertransformation der Ordnung k, d.h. einen Satz

von k Parametern wie z.B. die cℓ oder dλ oder eλ oder . . .

Wegen (21.14) erhalt man alle cj durch 2p Multiplikationen aus den beiden FT2p−1

(dλ) und (eλ), die zwei FT2p−1 erhalt man im zweiten Reduktionsschritt mit 2 · 2p−1

Multiplikationen aus vier FT2p−2 . Allgemein erhalt man im s-ten Reduktionsschritt

2s FT2p−s mit 2s · 2p−s = 2p Multiplikationen aus 2s+1 FT2p−(s+1) .

Da nach p Redunktionsschritten die Daten f0, . . . , fm−1 erreicht sind und fur jeden

Reduktionsschritt 2p komplexe Multiplikationen benotigt werden, ist der gesamte

Aufwand zur Bestimmung aller 2p Fourierkoeffizienten p · 2p Multiplikationen.

Bemerkung 21.31. Sind die Daten fj reell, so gilt cm−j = cj, k = 0, . . . , m2− 1,

und der Aufwand zur Bestimmung der cj kann noch einmal halbiert werden zup

22p.

2

Bemerkung 21.32. Soll ein gegebenes trigonometrisches Polynom

f(x) =m−1∑

j=0

cj ei jx

an den aquidistanten Punkten xk = k h, k = 0, . . . ,m, ausgewertet werden (Fourier-

synthese), so kann diese ebenfalls mit der FFT ausgefuhrt werden. 2

Literaturverzeichnis

[1] M. Abramowitz, I. A. Stegun (Eds.): Handbook of Mathematical Functions .

Dover, New York 1964

[2] F. Ayres Jr.: Schaum’s Outline of Theory and Problems of Differential and

Integral Calculus . McGraw-Hill, New York 1962

[3] A. Blickensdrfer-Ehlers, W. G. Eschmann, H. Neunzert, K. Schelkes: Ana-

lysis 1 und 2 . Springer, Berlin 1980

[4] I.N. Bronstein, K.A. Semendjajew, G. Musiol, H. Mhlig: Taschenbuch der

Mathematik . Verlag Harri Deutsch, Thun 1993

[5] K. Burg, H. Haf, F. Wille: Hhere Mathematik fr Ingenieure (Band I–IV).

Teubner, Stuttgart 1985

[6] O. Forster: Analysis (Band 1–3). Vieweg, Braunschweig 1976

[7] H.S. Gaskill, P.P. Narayanaswami: Foundations of Analysis. The Theory of

Limits . Harper & Row, New York 1989

[8] K. Habetha: Hhere Mathematik fr Ingenieure und Physiker (Band 1–3). Klett,

Stuttgart 1976

[9] H. Heuser: Lehrbuch der Analysis (Band 1 und 2). Teubner, Stuttgart 1984

[10] W. Mackens, H. Voß: Mathematik I fr Studierende der Ingenieurwissenschaf-

ten. HECO-Verlag, Ahlsdorf 1993

[11] W. Mackens, H. Voß: Aufgaben und Lsung zu Mathematik I fr Studierende

der Ingenieurwissenschaften. HECO-Verlag, Ahlsdorf 1994

[12] H. von Mangoldt, K. Knopp: Einfhrung in die Hhere Mathematik . Band I –

III, Hirzel Verlag, Stuttgart 1958

354

LITERATURVERZEICHNIS 355

[13] J. Marsden, A. Weinstein: Calculus . Benjamin/Cummings, Menlo Park 1980

[14] E. Martensen: Analysis (Band 1–3). Bibliographisches Institut, Mannheim

1977

[15] K. Meyberg, P. Vachenauer: Hhere Mathematik (Band 1 – 2) Springer, Berlin

1991

[16] K. Niederenk, H. Yserentant: Funktionen einer Vernderlichen. Vieweg,

Braunschweig 1987

[17] R. Sauer, I. Szabo (Eds.): Mathematische Hilfsmittel des Ingenieurs (Teil I–

IV). Springer, Berlin 1967

[18] H. R. Schwarz: Numerische Mathematik . Teubner, Stuttgart 1988

[19] R. S. L. Srivastava: Engineering Mathematics (vol. 1–2). Tata McGraw-Hill,

New Delhi 1980

[20] J. Stoer: Einfhrung in die Numerische Mathematik I . Springer, Berlin 1976

[21] J. Stoer, R. Bulirsch: Einfhrung in die Numerische Mathematik II . Springer,

Berlin 1973

[22] K. A. Stroud: Engineering Mathematics . Programmes and Problems. Mac-

Millan, London 1982

[23] G.B. Thomas, Jr., R.L. Finney: Calculus and Analytic Geometry . 8th ed.,

Addison–Wesley, Reading 1992

Index

m-fache Nullstelle, 204

- . Bisektionsmethode, 201

- . Fixpunktproblem, 205

- . Francis, 228

- . Gauß-Seidel-Verfahren, 223

- . Intervallhalbierungsmethode, 201

- . Jacobi Iteration, 222

- . Konvergenzrate, 227

- . Kublanovskaja, 228

- . Potenzmethode, 226, 227

- . QR-Algorithmus, 228

- . QR-Zerlegung, 228

- . Rayleigh Quotienten, 225

- . SOR-Verfahren, 224

- . Ahnlichkeitstransformation, 228

- . ahnlich, 228

- . betragsmaximalen Eigenwerts, 224

- . dunn besetzt, 221

- . diagonalisierbar, 224

- . inverse Iteration, 228

- . k, 27

- . lineare Gleichungssystem, 221

- Fixpunktsatz fur kontrahierende Abbil-

dungen, 207

- Lipschitz-Konstante, 206

- Shift-Strategie, 228

- abgeschlossen, 209

- obere Hessenberg Gestalt, 228

aquivalente Normen, 38

abgeschlossene Menge, 76

Ableitung, 128, 130

hohere, 148

absolut konvergent, 50, 271

abstoßend, 211

Aitken Lemma, 92

Algorithmus von Neville und Aitken, 95

alternierende harmonische Reihe, 49

alternierende Reihe, 48

anziehend, 211

Approximationssatz von Weierstraß, 102

Archimedische Spirale, 313

Archimedisches Axiom, 16

Arcuskosinus, 120

Arcussinus, 120

Arcustangens, 121

Area Kosinus hyperbolicus, 124

Area Sinus hyperbolicus, 123

Area Tangens hyperbolicus, 125

Astroide, 309

Asymptote, 182

Banachraum, 35

bedingt konvergent, 50

Bernoullische Ungleichung, 22

Bernstein Polynome, 102

beschrankte Folge, 19

beschrankte Menge, 16, 26

Besselsche Ungleichung, 336

bestimmt divergent, 19

binomische Formel, 175

binomische Reihe, 175

356

INDEX 357

Binormale, 319

Bogenlange

Parametrisierung nach der, 314

Bolzano und Weierstraß, Satz von, 36, 43

C1–Kurve, 305

Cauchy Folge, 35

Cauchy Kriterium, 269

Cauchy und Hadamard, Formel von, 108

Cauchy-Produkt von Reihen, 59

Cauchyscher Hauptwert, 276

Cauchysches Konvergenzkriterium, 34, 42,

48

Cavalieri

Prinzip von, 302

charakteristische Funktion, 67

Clenshaw-Curtis Formeln, 282

Deflation, 226

Differentialquotient, 128

Differentiation

der inversen Funktion, 143

logarithmische, 145

von Potenzreihen, 141

differenzierbar, 128

Dirichletsche Sprungfunktion, 61

Dirichletsches Integral, 270

diskrete Fourieranalyse, 348

diskrete Orthogonalitat, 349

divergent, 15, 44

dividierte Differenz, 92

e-Funktion, 110

einseitige Ableitung, 132

Einzelschrittverfahren, 223

erweiterter Mittelwertsatz, 159

erweitertes Horner Schema, 177

Eulersche Zahl, 29

Exponentialfunktion, 110

Exponentialintegral, 272

Extremum, 183, 184

fast Fouriertransform, 352

Fehlerintegral, 247

Fehlerkonstante, 285

Fehlerordnung einer Quadraturformel, 283

Feinheit einer Zerlegung, 230

Fermatsches Prinzip, 187

FFT, 352

Folge, 14

beschrankte, 19

bestimmt divergent, 19

geometrische, 23

Haufungspunkt einer, 36

limes inferior einer, 37

limes superior einer, 36

monoton fallende, 19

monoton wachsende, 19

nach oben beschrankte, 19

nach unten beschrankte, 19

streng monoton fallende, 19

streng monoton wachsende, 19

uneigentlich konvergente, 19

Formel von Cauchy und Hadamard, 108

Formel von Moivre, 116

Fourierkoeffizient, 332

Fourierreihe, 332

Fouriersynthese, 353

Fundamentalsatz der Algebra, 87

Fundamentalsatz der Infinitesimalrechnung,

246

Funktion

differenzierbare, 128

gerade, 116, 181

gleichmaßig stetige, 77

358 INDEX

Grenzwert einer, 79

konkave, 189

konvexe, 189

linksseitig stetige, 83

monoton fallende, 72

monoton wachsende, 72

nach oben beschrankte, 74

nach unten beschrankte, 74

rechtsseitig stetige, 83

reell–analytische, 172

streng monoton fallende, 72

streng monoton wachsende, 72

strikt konvexe, 189

uneigentlicher Grenzwert, 80

ungerade, 116, 181

Gammafunktion, 275

ganze Funktion, 108

ganze rationale Funktion, 84

Gauß-Hermite Formeln, 299

Gauß-Laguerre Formeln, 299

Gaußsche Quadraturformel, 288

Gaußsches Fehlerintegral, 247

geometrische Folge, 23

geometrische Reihe, 46

gerade Funktion, 116, 181

Gesamtschrittverfahren, 222

geschlossene Kurve, 305

glatte Kurve, 305

Gleichheit von Kurven, 307

gleichmaßig konvergent, 96

gleichmaßig stetig, 77

Gleichungssystem

iterative Losung, 10

Glied einer Reihe, 44

globales Maximum, 184

großte obere Schranke, 27

Grad eines Polynoms, 84

Grenzwert, 15, 79

Haufungspunkt einer Folge, 36

harmonische Reihe, 46

Hauptnormale, 319

Hauptwert, 120

Heaviside Funktion, 62

Hilbertraum, 35

Horner Schema, 85

erweitertes, 177

Infimum, 27, 74

innerer Punkt, 128

Integrabilitatskriterium, 233

Integral, 232

Dirichletsches, 270

unbestimmtes, 245

uneigentliches, 267

Integralsinus, 270

Integration

partielle, 248

integrierbar, 232

lokal, 267

uneigentlich, 267

Interpolation, 89, 195

trigonometrische, 348

Interpolationsformel

von Lagrange, 90

Interpolationsknoten, 195

Intervallhalbierungsmethode, 4

Intervallschachtelung, 29

inverse Iteration, 227

iterative Losung linearer Gleichungssyste-

me, 10

iterative Losung linearer Systeme, 45

Kegelstumpf, 304

INDEX 359

Keplersche Faßregel, 279

Kettenregel, 144

kleinste obere Schranke, 27

kompakt, 76

kompakte Konvergenz, 110

Komponentenfunktion, 66

kontrahierend, 206

konkav, 189

Kontraktionskonstante, 206

konvergent, 15, 44

gleichmaßig, 96

im quadratischen Mittel, 101

kompakt, 110

punktweise, 96

quadratisch, 24

Konvergenzkreis, 108

Konvergenzkriterium

von Cauchy, 48

Konvergenzkriterium von Cauchy, 42

Konvergenzordnung der Folge, 217

Konvergenzradius, 108

konvergiert linear, 217

konvex, 189

Kosinus hyperbolicus, 122

Kosinusfunktion, 115

Krummung, 315, 318

Krummungsradius, 315

Kriterien fur absolute Konvergenz, 51

Kronrod Formel, 294

Kurve, 305

geschlossene, 305

glatte, 305

Spur einer, 306

Kurvendiskussion, 179

Kurvenintegral, 325

Kuspe, 305

Lange einer Kurve, 308

Lagrangesche Interpolationsformel, 90

Landau Symbol, 343, 345

Lebesgue Integral, 232

Legendre Polynom, 289

Leibniz Kriterium, 49

Leibnizsche Regel, 151

Lemma

von Aitken, 92

limes inferior, 37

limes superior, 36

lineares System

iterative Losung, 45

Linearisierung, 128

linksseitig differenzierbar, 132

linksseitig stetig, 83

linksseitige Ableitung, 132

linksseitiger Grenzwert, 81

Lipschitz-stetig, 206

Lobatto Formel, 289

logarithmische Differentiation, 145

Logarithmus, 113

lokal integrierbar, 267

lokales Maximum, 184

MacLaurin Entwicklung, 167

Majorantenkriterium, 51, 272

Maximum, 74

globales, 184

lokales, 184

striktes globales, 184

striktes lokales, 184

Maximumnorm, 99

Menge

beschrankte, 26

nach oben beschrankte, 26

Minimum, 74, 184

360 INDEX

Minorantenkriterium, 272

Mittelpunktregel, 278

Mittelwertsatz

erweiterter, 159

Mittelwertsatz der Differentialrechnung,

153

Mittelwertsatz der Integralrechnung, 243

modifizierte regula falsi, 203

Moivre, Formel von, 116

monoton fallend, 72

monoton fallende Folge, 19

monoton wachsend, 72

monoton wachsende Folge, 19

Monotoniekriterium, 271

nach oben beschrankt, 74

nach oben beschrankte Folge, 19

nach oben beschrankte Menge, 26

nach unten beschrankt, 74

nach unten beschrankte Folge, 19

naturlicher Logarithmus, 113

Negativteil einer Funktion, 241

Neville–Aitken Algorithmus, 95

Newton-Cotes-Formeln, 281

Newton-Verfahren, 214

Normaquivalenzsatz, 39

Normalenvektor, 318

Nullfolge, 18

Nullstelle

Vielfachheit, 88

obere Schranke, 26

Oberintegral, 232

Obersumme, 230

Operator, 139

Oszillationsstelle, 67

Parameterwechsel, 307

Parametrisierung nach der Bogenlange,

314

Parsevalsche Gleichung, 337

Partialbruchzerlegung, 259

Partialsumme, 44

partielle Integration, 248

Peano Kern, 283

Periode, 328

periodisch, 328

Polstelle, 67, 80

Polygonzug, 307

Polynom, 84

Legendre, 289

trigonometrisches, 328

Umordnung, 177

Positivteil einer Funktion, 241

Potenzmethode, 11, 225

Potenzreihe, 106

Differentiation, 141

Formel von Cauchy und Hadamard,

108

Prinzip von Cavalieri, 302

Produktregel, 137

punktweise konvergent, 96

QR-Algorithmus, 228

quadratisch, 217

quadratisch konvergent, 24

Quadraturformel

Fehlerordnung, 283

Quotientenkriterium, 53

Quotientenregel, 140

Radau Formel, 289

radioaktiver Zerfall, 9

Rechenregeln fur Reihen, 48

Rechteckregel, 278

INDEX 361

rechtsseitig differenzierbar, 132

rechtsseitig stetig, 83

rechtsseitige Ableitung, 132

rechtsseitiger Grenzwert, 81

reell–analytische Funktion, 172

Reflexionsgesetz, 187

regula falsi, 202

Reihe, 44

absolut konvergente, 50

alternierende, 48

bedingt konvergente, 50

Cauchy-Produkt, 59

geometrische, 46

harmonische, 46

Leibniz Kriterium, 49

Majorantenkriterium, 51

Partialsumme einer, 44

Quotientenkriterium, 53

Rechenregeln, 48

Wurzelkriterium, 52

rektifizierbar, 308

relatives Maximum, 184

Relaxationsverfahren, 224

Residuum, 45

Restgliedformel

nach Schlomilch, 167

von Cauchy, 170

von Lagrange, 170

von Taylor, 170

Richardson Iteration, 10

Riemann Integral, 232

Riemann Summe, 234

Riemann, Satz von, 57

Riemannsches Integrabilitatskriterium, 233

Rolle, Satz von, 152

Rotationsellipsoid, 303

Rotationskorpers

Volumen, 303

Satz

von Bolzano und Weierstraß, 36, 43

von Rolle, 152

von Taylor, 166, 252

Zwischenwertsatz, 71

Satz von Riemann, 57

schnelle Fouriertransformation, 352

Schraubenlinie, 305

Sekantenverfahren, 219

Simpson Regel, 279

Sinus hyperbolicus, 122

Sinusfunktion, 115

Sprungstelle, 67

Spur einer Kurve, 306

stuckweise C1-Kurve, 305

Stammfunktion, 244

starke Spaltensummenkriterium, 223

starke Zeilensummenkriterium, 223

stetig, 61

stetig differenzierbar, 130

streng monoton fallend, 72

streng monoton fallende Folge, 19

streng monoton wachsend, 72

streng monoton wachsende Folge, 19

strikt konvex, 189

striktes globales Maximum, 184

striktes lokales Maximum, 184

Supremumnorm, 98

Substitutionsregel, 253

summierte Trapezregel, 279

superlinear, 217

Supremum, 27, 74

Tangens hyperbolicus, 125

362 INDEX

Tangente, 128

Tangentialbeschleunigung, 147

Taylorpolynom, 166

Taylorreihe, 171

Taylorscher Satz, 166, 252

Teilfolge, 21

Torsion, 319

Trapezregel

summierte, 279

trigonometrische Interpolation, 348

trigonometrisches Polynom, 328

Tschebyscheff Knoten, 198

Tschebyscheff Norm, 99

Tschebyscheff Polynom, 198

Umgebung, 128

Umordnung eines Polynoms, 177

Umordnung von Reihen, 56

unbeschrankte Menge, 16

unbestimmtes Integral, 245

uneigentlich integrierbar, 267

uneigentlich konvergent, 19

uneigentlicher Grenzwert, 80

uneigentliches Integral, 267

ungerade Funktion, 116, 181

Ungleichung

Bernoullische, 22

Besselsche, 336

untere Schranke, 26

Unterintergral, 232

Untersumme, 230

Variation

von beschrankter, 236

vereinfachte Newton Verfahren, 218

Vielfachheit m, 204

Vielfachheit einer Nullstelle, 88

vollstandigen Euklidischen Vektorraum,

35

vollstandiger normierter Raum, 35

Vollstandigkeitsaxiom, 27

von Mises Stabwerk, 68

von Mises Verfahren, 11, 225

Weg, 308

Weierstraß

Approximationssatz von, 102

Wendepunkt, 188, 193

Wurzelkriterium, 52

Zahlenfolge, 14

Zentripetalbeschleunigung, 147

Zerlegung, 229

Zwischenwertsatz, 71

Zykloide, 311