81
Kapitel 7 Lineare Algebra und Analysis 7.1 Normierte Vektorräume 7.1.1 Analysis auf normierten Vektorräumen In Definition 1.91 wurde mit dem Begrider Norm eine abstrakte Längenmessung auf einem R-Vektorraum eingeführt. Dies geht genauso auf einem K-Vektorraum, K ∈{R, C}. Definition 7.1 Sei V ein K-Vektorraum. Eine Norm auf V ist eine Abbildung von V nach R mit den Eigenschaften 1) u0, u = 0 u = 0 für u V (Definitheit) 2) γ u = |γ|u für γ K, u V (Homogenität) 3) u + wu + w für u, w V (Dreiecksungleichung) Normen können, müssen aber nicht, durch innere Produkte . erzeugt werden u := u . u (siehe Satz 1.92 für K = R), wobei dann die Cauchy-Schwarz-Ungleichung |u . w|≤uw für u, w V gilt (siehe (1.59)). Zu den in den Bemerkungen 1.93 schon genannten Beispielen fügen wir hinzu: 693 P. Knabner, W. Barth, Lineare Algebra, Springer-Lehrbuch, DOI 10.1007/978-3-642-32186-3_7, © Springer-Verlag Berlin Heidelberg 2013

[Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

  • Upload
    wolf

  • View
    221

  • Download
    6

Embed Size (px)

Citation preview

Page 1: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

Kapitel 7

Lineare Algebra und Analysis

7.1 Normierte Vektorräume

7.1.1 Analysis auf normierten Vektorräumen

In Definition 1.91 wurde mit dem Begriff der Norm eine abstrakte Längenmessung aufeinemR-Vektorraum eingeführt. Dies geht genauso auf einem K-Vektorraum,K ∈ {R,C}.

Definition 7.1

Sei V ein K-Vektorraum. Eine Norm auf V ist eine Abbildung von V nach R mit denEigenschaften

1) ‖u‖ ≥ 0, ‖u‖ = 0 ⇔ u = 0 für u ∈ V (Definitheit)2) ‖γ u‖ = |γ| ‖u‖ für γ ∈ K, u ∈ V (Homogenität)3) ‖u + w‖ ≤ ‖u‖ + ‖w‖ für u,w ∈ V (Dreiecksungleichung)

Normen können, müssen aber nicht, durch innere Produkte 〈 . 〉 erzeugt werden

‖u‖ :=√〈u . u〉

(siehe Satz 1.92 für K = R), wobei dann die Cauchy-Schwarz-Ungleichung

| 〈u .w〉 | ≤ ‖u‖ ‖w‖ für u,w ∈ V

gilt (siehe (1.59)). Zu den in den Bemerkungen 1.93 schon genannten Beispielen fügenwir hinzu:

693P. Knabner, W. Barth, Lineare Algebra, Springer-Lehrbuch, DOI 10.1007/978-3-642-32186-3_7, © Springer-Verlag Berlin Heidelberg 2013

Page 2: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

694 7 Lineare Algebra und Analysis

Bemerkungen 7.2

1) (Kn, ‖ . ‖p), p ∈ R, p ≥ 1, wobei

‖x‖p :=(∑n

i=1 |xi|p)1/p

für x = (xi) ∈ Kn , (7.1)

ist ein normierter K-Vektorraum. Für p = 2 handelt es sich um die euklidische Länge und‖ . ‖2 wird vom euklidischen inneren Produkt

〈x . y〉 =n∑

i=1

xiyi , x, y ∈ Kn

erzeugt. Bei den Normeigenschaften ist nur die Dreiecksungleichung nicht offensichtlich,die hier auch Minkowskische Ungleichung heißt. Sie wird für p > 1 aus der

Hölder1schen Ungleichung

〈x . y〉 =n∑

i=1

xiyi ≤ ‖x‖p‖y‖q für x, y ∈ Kn (7.2)

gefolgert, dabei ist

q :=(1 − 1

p

)−1

=p

p − 1, für p > 1

und q := ∞ für p = 1 bzw. q := 1 für p = ∞

die zu p konjugierte Potenz, also gilt 1p +

1q = 1, setzt man 1/∞ := 0. Ein Beweis findet

sich z. B. in Amann und Escher 1998, S. 343. Für p = 2 ist also (7.2) wieder dieCauchy-Schwarz-Ungleichung.Die Dreiecksungleichung ‖x + y‖p ≤ ‖x‖p + ‖y‖p kann auf diese Weise gefolgert werden:Für p = 1 ist sie offensichtlich, für p > 1 sei o. B. d. A. ‖x + y‖p > 0. Wegen

|xi + yi |p ≤ (|xi | + |yi |) |xi + yi |p−1 =: (ai + bi) ci

folgt mit (7.2)

‖x + y‖pp = 〈a . c〉 + 〈b . c〉 ≤ ‖a‖p ‖c‖q + ‖b‖p ‖c‖q =(‖x‖p + ‖y‖p

) ⎛⎜⎜⎜⎜⎜⎝ n∑i=1

|xi + yi |p⎞⎟⎟⎟⎟⎟⎠

p−1p

=(‖x‖p + ‖y‖p

)‖x + y‖p−1

p

d. h. die Behauptung.

2) Ein analoges Beispiel mit unendlich vielen Komponenten ergibt sich durch

1 Otto Ludwig Hölder ∗22. Dezember 1859 in Stuttgart †29. August 1937 in Leipzig

Page 3: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.1 Normierte Vektorräume 695

(lp(K), ‖ . ‖p), p ∈ R, p ≥ 1.

Dabei ist lp(K) der Folgenraum

lp(K) := {(xn)n : (xn)n ist Folge in K und∞∑

n=1

|xn|p konvergiert} .

Auf lp(K) ist also die folgende Abbildung nach R wohldefiniert:

‖(xn)n‖p :=

⎛⎜⎜⎜⎜⎜⎝ ∞∑n=1

|xn|p⎞⎟⎟⎟⎟⎟⎠1/p

(7.3)

für die Definitheit und Homogenität offensichtlich sind, so dass nur noch die Dreiecksun-gleichung zu zeigen ist, die analog zu 1) aus

der Hölderschen Ungleichung für

〈(xn)n . (yn)n〉 :=∞∑

n=1

xnyn , (7.4)

d. h. für 1p +

1q = 1 bei p, q ≥ 1. aus

〈(xn)n . (yn)n〉 ≤ ‖(xn)n‖p‖(yn)n‖q (7.5)

folgt. Ein Beweis dafür folgt sofort aus (7.2), angewendet auf die Partialsummen. Fürp = 2 ist (7.4) ein inneres Produkt auf l2(K) (wegen (7.5) wohldefiniert) und (7.5) wirdwieder zur Cauchy-Schwarz-Ungleichung. Also:(l2(K), 〈 . 〉) ist ein euklidischer bzw. unitärer Raum mit ‖ . ‖2 als erzeugter Norm. Dielp(K) sind also auch als Menge unterschiedlich. Es gilt

p1 < p2 ⇒ lp1 (K) � lp2 (K) .

Die lp(K) sind unendlichdimensional.

3) Das kontinuierliche Analogon zu 1) oder 2) könnte dann, z. B. auf einem abgeschlos-senen Intervall [a, b], a < b, sein: (

C([a, b],K), ‖ . ‖p) .

Dabei ist C([a, b],K) (siehe (3.10)) der Raum der stetigen Funktionen f : [a, b]→ K und

Page 4: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

696 7 Lineare Algebra und Analysis

‖ f ‖p :=(∫ b

a | f (t)|pdt)1/p

.

‖ . ‖p ist eine Norm auf (C[a, b],K), wobei die Dreiecksungleichung wieder aus der Höl-derschen Ungleichung

〈 f . g〉 ≤ ‖ f ‖p‖g‖q ,

für p, q ≥ 1 mit 1p +

1q = 1 folgt. Ein Beweis dafür findet sich z. B. in Amann und Escher

1998, S. 343.

〈 f . g〉 :=∫ b

af (t)g(t)dt

ist dabei das für K = R schon in Bemerkung 1.90 und für K = C in (3.21) eingeführteinnere Produkt. Also:C([a, b],K), 〈 . 〉) ist ein euklidischer bzw. unitärer Raum und ‖ . ‖2 ist die erzeugte Norm.

4) Ist ‖ . ‖ eine Norm auf Rn, dann ist ‖x+ iy‖ := ‖x‖+ ‖y‖ eine Norm auf Cn. Dabei kann|a| + |b| = ∥∥∥( a

b)∥∥∥

1 durch jede Norm auf R2 ersetzt werden.

�Sei nun (V, ‖ . ‖) ein beliebiger (insbesondere auch unendlichdimensionaler)K-Vektorraum.− Ein (abstrakter) Vektor u in V kann also ein Zahlentupel, eine Folge oder eine Funktion sein.−Mit der durch ‖ . ‖ definierten Abstandsfunktion

d(u,w) := ‖u − w‖ ,die eine Metrik (siehe Anhang Definition C.1) auf V darstellt, kann genau so Analysisbetrieben werden, wie es in der Analysis für V = Kn, ‖ . ‖ = ‖ . ‖2 entwickelt wird. Auf derBasis von d definiert man also in V:

- abgeschlossene Kugel- offene Kugel- abgeschlossene Menge- offene Menge- beschränkte Menge- Konvergenz von Folgen (un)n in V- Cauchy-Folge in V- Stetigkeit von Abbildungen Φ : V → W,

wobei V, W normierte K-Vektorräume mit Normen ‖ . ‖V , ‖ . ‖W sind.

Viele aus der Analysis bekannten Aussagen gelten auch hier (siehe Anhang C).Sei Φ ∈ Hom(Kn,Km) dargestellt durch

A = (ai, j) ∈ K(m,n) .

Page 5: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.1 Normierte Vektorräume 697

Dann folgt durch Anwendung der Cauchy-Schwarz-Ungleichung auf⟨a(i) . x

⟩2, wobeia(i) die i-te Zeile von A bezeichnet, und Aufsummation der Quadrate:

‖Ax‖2 ≤ C‖x‖2 für alle x ∈ Kn ,

wobei

C :=

⎛⎜⎜⎜⎜⎜⎜⎝ n∑i, j=1

|ai, j|2⎞⎟⎟⎟⎟⎟⎟⎠

1/2

, (7.6)

also insbesondere

‖Ax − Ay‖2 ≤ C‖x − y‖2 .

Auf Kn ist also jede lineare Abbildung stetig (bezüglich ‖ . ‖2), sogar Lipschitz2-stetig:

Definition 7.3

Seien (V, ‖ . ‖V), (W, ‖ . ‖W ) normierte K-Vektorräume. Sei Φ : V → W eine Abbil-dung (i. Allg. nichtlinear). Φ heißt Lipschitz-stetig (mit Lipschitz-KonstanteL > 0), wenn gilt

‖Φ(u1) − Φ(u2)‖W ≤ L‖u1 − u2‖V für u1, u2 ∈ V .

Bei Lipschitz-stetigen Abbildungen ist die „ε-δ-Beziehung“ folglich nicht lokal und nurqualitativ, sondern überall durch δ := ε/L gegeben, i. Allg. ist also Lipschitz-Stetigkeiteine viel schärfere Forderung als Stetigkeit. Das gilt nicht für lineare Abbildungen.

Theorem 7.4: stetig↔ beschränkt für lineare Operatoren

Seien (V, ‖ . ‖V) und (W, ‖ . ‖W ) normierte K-Vektorräume, Φ ∈ Hom(V, W). Dannsind äquivalent:

(i) Φ ist beschränkt, d. h. es existiert ein L > 0, so dass

‖Φu‖W ≤ L‖u‖V für u ∈ V .

(ii) Φ ist Lipschitz-stetig mit Lipschitz-Konstante L > 0.

2 Rudolf Otto Sigismund Lipschitz ∗14. Mai 1832 in Königsberg †7. Oktober 1903 in Bonn

Page 6: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

698 7 Lineare Algebra und Analysis

(iii) Φ ist stetig in u0 für ein u0 ∈ V .

(iv) Φ ist stetig in u = 0.

Beweis: Auf die Normindizierung wird verzichtet. (i)⇒ (ii)⇒ (iii) sind klar, (iii)⇒ (iv)gilt, da zu ε > 0 ein δ > 0 existiert, so dass

‖Φu − Φ0‖ = ‖Φ(u + u0) − Φu0‖ ≤ ε

gilt, wenn ‖u − 0‖ = ‖u + u0 − u0‖ ≤ δ, so dass nur (iv)⇒ (i) zu zeigen bleibt.Sei Φ stetig in u = 0. Dann gibt es zu ε = 1 ein a := δ(1) > 0, so dass

‖Φu − Φ0‖ ≤ 1 für ‖u − 0‖ ≤ a .

Sei u ∈ V , u � 0, dann∥∥∥∥∥ a‖u‖ u

∥∥∥∥∥ = a und daher a‖u‖ ‖Φu‖ = ‖Φ

(a‖u‖ u

)‖ ≤ 1 , so dass für alle

u ∈ V gilt

‖Φu‖ ≤ 1a‖u‖ . �

Bemerkungen 7.5

1) Sei Φ,Ψ : V → W linear, wobei V, W normierte K-Vektorräume seien.Sind Φ,Ψ beschränkt, dann sind auch Φ + Ψ und λΦ für λ ∈ K beschränkt.

2) Sei (V, ‖ . ‖) ein n-dimensionaler normierter K-Vektorraum, B := {u1, . . . , un} eine fest-gewählte Basis von V , ΨB die Koordinatenabbildung, d. h. das durch

ΨB(ui) = ei, i = 1, . . . , n

eindeutig festgelegte ΨB ∈ Hom(V,Kn).Dann ist Ψ−1

B ∈ Hom(Kn, V) stetig, wenn Kn mit der euklidischen Norm versehen wird.Das kann man folgendermaßen einsehen:Sei

u =n∑

i=1

aiui ∈ V, a = (ai)i ∈ Kn ,

also ΨB(u) = a und

‖u‖ = ‖n∑

i=1

aiui‖ ≤n∑

i=1

|ai | ‖ui‖ ≤ L‖a‖2 (7.7)

nach der Cauchy-Schwarz-Ungleichung auf Rn, wobei

L :=

⎛⎜⎜⎜⎜⎜⎝ n∑i=1

‖ui‖2⎞⎟⎟⎟⎟⎟⎠1/2

.

Page 7: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.1 Normierte Vektorräume 699

Eine weitere wichtige (nichtlineare) stetige Abbildung auf (V, ‖ . ‖) wird durch die Normselbst definiert. Aus der Dreiecksungleichung folgt die umgekehrte Dreiecksungleichung

| ‖u‖ − ‖w‖ | ≤ ‖u − w‖ für u,w ∈ V

(Beweis als Übung), also:

Satz 7.6: Norm Lipschitz-stetig

Sei (V, ‖ . ‖) ein normierter K-Vektorraum.Die Abbildung

f : (V, ‖ . ‖)→ (R, | . |), u �→ ‖u‖ist Lipschitz-stetig mit Lipschitz-Konstante 1.

Bemerkung 7.7 Verwandt mit Satz 7.6 ist im Fall eines euklidischen bzw. unitären Raums(V, 〈 . 〉) auch die Abbildung

〈 . 〉 : V × V → K, (u,w) �→ 〈u .w〉stetig (aber nicht Lipschitz-stetig). Dabei ist auf V × V eine Norm durch

‖(u,w)‖ := (‖u‖2 + ‖w‖2)1/2

definiert. Diese Aussage ergibt sich aus der Cauchy-Schwarz-Ungleichung:

〈u1 − u2 .w1 − w2〉 ≤ ‖u1 − u2‖ ‖w1 − w2‖ ≤ 12

(‖u1 − u2‖2 + ‖w1 − w2‖2) . �

Argumentationen über Satz 7.6 sind sehr nützlich. Aus der Stetigkeit der Norm zusammenmit der Charakterisierung von Stetigkeit in Satz C.9 ergibt sich z. B. sofort die Offenheitder offenen Kugel K := {u : ‖u − a‖ < ε} über

K = f −1((−1, ε)) ,

wobei f (u) := ‖u − a‖ eine stetige Abbildung von V nach R ist.Etwas Vorsicht ist mit dem Begriff der Kompaktheit geboten. Hier verallgemeinert sich

das Heine-Borel34-Kriterium (siehe Anhang C, Definition C.10 ff.), aber nur für denendlichdimensionalen Fall.

3 Heinrich Eduard Heine ∗18. März 1821 in Berlin †21. Oktober 1881 in Halle (Saale)4 Félix Édouard Justin Émile Borel ∗7. Januar 1871 in Saint-Affrique †3. Februar 1956 in Paris

Page 8: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

700 7 Lineare Algebra und Analysis

7.1.2 Normen und Dimension

Ist es notwendig verschiedene Normen auf einem Raum zu betrachten? Lineare Skalierun-gen einer Norm, wie etwa

‖u‖′ := α‖u‖ für u ∈ V

für festes α > 0 und einen normierten K-Vektorraum, ändern nur die Längenwerte, nichtaber Konvergenz-, Stetigkeits-, etc. -aussagen. Das Gleiche gilt für nichtlineare Skalierun-gen, wenn diese durch lineare abschätzbar sind.

Definition 7.8

Sei V ein K-Vektorraum, ‖ . ‖, ‖ . ‖′ seien Normen auf V .‖ . ‖ heißt stärker als ‖ . ‖′, wenn ein β > 0 existiert, so dass

‖u‖′ ≤ β‖u‖ für alle u ∈ V .

Ist ‖ . ‖ stärker als ‖ . ‖′ und ‖ . ‖′ stärker als ‖ . ‖, d. h. gibt es α, β > 0, so dass

α‖u‖ ≤ ‖u‖′ ≤ β‖u‖ für alle u ∈ V ,

dann heißen ‖ . ‖ und ‖ . ‖′ äquivalent.

Bemerkungen 7.9

1) Ist also ‖ . ‖ stärker als ‖ . ‖′ auf einem Vektorraum V , so folgt für eine beliebige Folge(un)n in V:

Gilt un → u für n→ ∞ bezüglich ‖ . ‖ (also ‖un − u‖ → 0 für n→ ∞),dann gilt auch un → u für n→ ∞ bezüglich ‖ . ‖′ (also ‖un − u‖′ → 0 für n→ ∞)

Man betrachte dazu ‖un − u‖′ ≤ β‖un − u‖.

Dasselbe gilt für Cauchy-Folgen oder beschränkte Folgen. Eine äquivalente Formulie-rung ist:

Φ : (V, ‖ . ‖)→ (V, ‖ . ‖′), u �→ u (die Einbettung von (V, ‖ . ‖) nach (V, ‖ . ‖′))ist stetig (nach (7.3)).

2) Bei äquivalenten Normen sind also die konvergenten Folgen identisch, und damit auchdie offenen, abgeschlossenen, kompakten, . . . Mengen und die stetigen Abbildungen. Mansagt auch: Die von den Normen erzeugten Topologien sind gleich.

3) Die Äquivalenz von Normen ist eine Äquivalenzrelation auf der „Kategorie“ der nor-mierten K-Vektorräume, d. h.

Page 9: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.1 Normierte Vektorräume 701

- (V, ‖ . ‖) ist äquivalent zu (V, ‖ . ‖).- Ist (V, ‖ . ‖) zu (V, ‖ . ‖′) äquivalent, dann auch (V, ‖ . ‖′) zu (V, ‖ . ‖).- Ist (V, ‖ . ‖) zu (V, ‖ . ‖′) äquivalent, (V, ‖ . ‖′) zu (V, ‖ . ‖′′) äquivalent, dann auch

(V, ‖ . ‖) zu (V, ‖ . ‖′′). �Im Sinne der Äquivalenz von Normen gibt es auf einem endlichdimensionalen Vektorraumim Wesentlichen nur eine Norm:

Hauptsatz 7.10: alle Normen äquivalent auf endlichdimensionalem Raum

Sei V ein endlichdimensionaler K-Vektorraum, ‖ . ‖ und ‖ . ‖′ seien Normen auf V .Dann sind ‖ . ‖ und ‖ . ‖′ äquivalent.

Beweis: Wegen Bemerkungen 7.9, 3) reicht es, eine feste Norm ‖ . ‖′ auf V anzugeben unddie Äquivalenz einer beliebigen Norm ‖ . ‖ dazu zu zeigen.Sei {u1, . . . , un} eine fest gewählte Basis von V . Dann definiert

‖u‖′ :=∥∥∥∑n

i=1 aiui∥∥∥′ :=

(∑ni=1 |ai|2

)1/2= ‖a‖2

eine Norm auf V (Übung).Sei ‖ . ‖ eine beliebige Norm auf V . Dann folgt aus (7.7), dass ‖ . ‖′ stärker ist als ‖ . ‖. Es

fehlt somit noch die Umkehrrichtung, also die Existenz einer Konstanten α > 0, so dass

α‖u‖′ ≤ ‖u‖ für alle u ∈ V (7.8)

bzw. äquivalent die Stetigkeit der Koordinatenabbildung aus Bemerkungen 7.5. Betrachtedazu die Abbildung f von Kn nach R, definiert durch

a = (ai)i �→n∑

i=1

aiui →∥∥∥∥ n∑

i=1

aiui∥∥∥∥ .

Nach Bemerkungen 7.5, 2) und Satz 7.6 ist f die Komposition zweier stetiger Abbildungenund damit stetig. Sei

K := {x ∈ Kn : ‖x‖2 = 1} ,wobei ‖ . ‖2 die euklidische Norm auf Kn bezeichnet. K ist abgeschlossen und beschränkt,also kompakt (siehe Satz C.11, 2)). Daher nimmt f auf K sein Minimum m an (sieheSatz C.12, 2)), etwa an der Stelle x ∈ K, also gilt für alle x ∈ K:

f (x) ≥ f (x) = m .

Es ist m > 0, da sonst∑n

i=1 xiui = 0 und damit auch x = 0 im Widerspruch zu x ∈ K.Für beliebige u ∈ V , u � 0, u =

∑ni=1 xiui folgt also: Für

Page 10: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

702 7 Lineare Algebra und Analysis

w :=1‖u‖′ u =

n∑i=1

yiui =n∑

i=1

xi

‖u‖′ ui

ist ‖w‖′ = 1, also ‖y‖2 = 1 und damit y ∈ K und somit

1‖u‖′ ‖u‖ =

∥∥∥∥ n∑i=1

yiui∥∥∥∥ = f (y) ≥ m ,

so dass α := m gewählt werden kann. �

Bemerkungen 7.11

1) Mit (7.8) ist also gezeigt: Die Koordinatenabbildung ΨB : (V, ‖ . ‖) → (Kn, ‖ . ‖2) iststetig (nicht nur ihre Umkehrabbildung, wie schon in (7.7) gezeigt).

2) Auf Kn reicht es also, Konvergenz bezüglich einer spezifischen Norm zu betrachten,z. B.

‖x‖∞ := max{|xi| : i = 1, . . . , n}der Maximumsnorm (oder auch einer der p-Normen). Da aber für x ∈ Kn, x = (xi)i offen-sichtlich gilt

‖x‖∞ ≤ ε⇔ |xi| ≤ ε für i = 1, . . . , n ,

folgt:

Sei (xk)k eine Folge in Kn, k = 1, 2, . . . , xk = (xi,k)i. Dann sind äquivalent:

(i) (xk)k ist konvergent gegen x [ist Cauchy-Folge] bezüglich einer Norm ‖ . ‖für k → ∞.

(ii) (xk)k ist konvergent gegen x [ist Cauchy-Folge] bezüglich ‖ . ‖∞ für k → ∞.

(iii) Die Komponentenfolgen (xi,k)k sind konvergent gegen xi [sind Cauchy-Folgen] für k → ∞ und alle i = 1, . . . , n.

Auf Grund dessen können wir die Definitionen von (1.50), (3.10) bzw. (3.11) verallgemei-nern zu

C([a, b],Kn) :={ f : [a, b]→ Kn : f ist stetig} (7.9)

Cq((a, b),Kn) :={ f : [a, b]→ Kn : f ist stetig auf [a, b] ,q-mal stetig differenzierbar auf (a, b)} für q ∈ N .

Dabei kann Stetigkeit als Stetigkeit der Komponentenfunktion fi von f = ( fi)i verstandenwerden und analog Differenzierbarkeit (siehe auch Definition 7.75 ff.).

Page 11: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.1 Normierte Vektorräume 703

3)

Seien (V, ‖ . ‖V), (W, ‖ . ‖W) beliebige normierte K-Vektorräume, Φ ∈ Hom(V, W).Weiter sei V endlichdimensional. Dann ist Φ stetig.

Das kann man folgendermaßen einsehen:Da nach Satz 2.3 dim BildΦ ≤ dim V < ∞ kann auch W als endlichdimensional angenommen werden.Wegen der Stetigkeit der Koordinatenabbildungen und ihrer Umkehrabbildungen reicht es, die Stetigkeitder durch die Darstellungsmatrix definierten Abbildung, d. h. von

A : (Kn , ‖ . ‖2) → (Km , ‖ . ‖2)

zu betrachten, (n := dim V, m := dim W), da

Φ = Ξ−1B2◦ A ◦ ΨB1 ,

wenn B1 eine fest gewählte Basis von V und B2 von W ist.

Für A = (ai, j) ∈ K(m,n) gilt (siehe (7.6))

‖Ax‖2 ≤ L‖x‖2 ,

wobei

L :=

⎛⎜⎜⎜⎜⎜⎜⎝ n∑i=1

n∑j=1

|ai, j|⎞⎟⎟⎟⎟⎟⎟⎠

1/2

.

A ist also beschränkt mit Lipschitz-Konstante L und nach Theorem 7.4 stetig.

4) Mögliche Äquivalenzkonstanten für ‖ . ‖1, ‖ . ‖2 und ‖ . ‖∞ auf Kn ergeben sich aus:

‖x‖∞ ≤ ‖x‖1 ≤ n‖x‖∞‖x‖∞ ≤ ‖x‖2 ≤ n1/2‖x‖∞ .

�Bemerkungen 7.12 Seien V1, V2 (oder auch V1, . . . , Vn) (nicht notwendig endlichdimen-sionale) K-Vektorräume.

1) Dann ist auch V1 × V2 (bzw. V1 × . . . × Vn) nach Beispiele 3.15, 5) mit einer K-Vektorraumstruktur versehen. Seien ‖ . ‖i Normen auf Vi, dann wird für (u1, . . . , un) ∈ V1 ×. . . × Vn durch

‖(u1, . . . , un)‖ = ∥∥∥(‖u1‖1, . . . , ‖un‖n)t∥∥∥∗

eine Norm auf V1 × . . . × Vn definiert. Dabei ist ‖ . ‖∗ eine beliebige Norm auf Kn und dieNormen sind für alle Wahlen von ‖ . ‖∗ äquivalent.Die Normeigenschaften rechnet man sofort nach, die Äquivalenz folgt aus Hauptsatz 7.10.

Eine mögliche Wahl ist also

Page 12: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

704 7 Lineare Algebra und Analysis

‖(u1, . . . , un)‖ :=n

maxi=1‖ui‖i . (7.10)

2) Die Charakterisierung von Stetigkeit (bei 0) durch Beschränktheit aus Theorem 7.4lässt sich von linearen Abbildungen auf nichtlineare übertragen. Dabei seien V1 × . . .×Vn,W normierte K-Vektorräume,

Φ : V1 × . . . × Vn → W

sei multilinear, d. h. bei Festhalten von n − 1 Variablen (außer ui) entsteht eine lineareAbbildung von Vi nach W. V1 × . . . × Vn sei mittels (7.10) normiert.

Dann sind äquivalent:

(i) Φ ist beschränkt, d. h. es gibt ein L > 0 so dass

‖Φ (u1, . . . , un) ‖ ≤ Ln∏

i=1

‖ui‖i (7.11)

(ii) Φ ist stetig auf V1 × . . . × Vn

(iii) Φ ist stetig in (0, . . . , 0)

Der Beweis verläuft analog zu dem von Theorem 7.4. Wir beschränken uns auf n = 2.(i)⇒ (ii):

‖Φ(u1, u2) −Φ(w1,w2)‖ = ‖Φ(u1, u2) −Φ(w1, u2) +Φ(w1, u2) −Φ(w1,w2)‖≤ L(‖u1 − w1‖1‖u2‖2 + ‖w1‖1‖u2 − w2‖2)

und daraus folgt die Behauptung(ii)⇒ (iii): ist klar(iii)⇒ (i): Die Behauptung ist für beliebige L > 0 richtig, sofern ui = 0 für ein i gilt, da dann Φ(u1, u2) = 0.Zu ε = 1 existiert δ > 0, so dass ‖Φ(u1, u2)‖ ≤ 1 für max(‖u1‖1, ‖u2‖2) ≤ δ. Also ist für beliebige ui ∈Vi, ui � 0 ∥∥∥∥∥∥Φ

‖u1‖1 u1,δ

‖u2‖2 u2)∥∥∥∥∥∥ ≤ 1

und damit

‖Φ(u1, u2)‖ ≤ 1δ2 ‖u1‖1 , ‖u2‖2 .

3) Neben linearen sind uns auch schon einige nichtlineare Abbildungen begegnet: Linear(und damit stetig) sind z. B.

x �→ Ax ∈ Km für x ∈ Kn, und festes A ∈ K(m,n) ,

A �→ Ax ∈ Km für A ∈ K(m,n) und festes x ∈ Kn .

Page 13: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.1 Normierte Vektorräume 705

Nichtlinear sind dagegen

(1) (A, x) �→ Ax als Abbildung von K(m,n) ×Kn nach Km.

(2) (a, b) �→ a × b als Abbildung von R3 ×R3 nach R3.

(3) (A, B) �→ AB als Abbildung von K(m,p) ×K(p,n) nach K(m,n).

(4) A �→ det A als Abbildung von K(n,n) nach K.

Dann sind aber die ersten drei Abbildungen bilinear (siehe Hauptsatz 2.130, 2)) und allestetig.Die Stetigkeit kann im bilinearen Fall über (7.11) bewiesen werden. Im Fall (2) folgt etwa aus Satz 2.131, 3):

‖a × b‖ = sin α ‖a‖ ‖b‖ ≤ ‖a‖ ‖b‖ ,

d. h. die Beschränktheit. Ein anderer Zugang besteht darin, auszunutzen, dass für alle Kn bzw. K(m,n) alleNormen jeweils äquivalent sind und daher nur Folgenstetigkeit in den Komponenten der Urbilder undBilder betrachtet werden muss. Im Fall (4) gilt nach Definition 2.105

det A =∑σ∈Σn

sign(σ) a1,σ(1) . . . an,σ(n) .

Für eine konvergente Matrizenfolge An → A konvervieren also alle Komponentenfolgen, damit auch dieeinzelnen Summanden und damit schließlich die Summe, d. h. det An → det A für n→ ∞.

Betrachtet man statt (4)

(4)’(a(1), . . . , a(n)

)�→ det

(a(1), . . . , a(n)

)d. h. det als Abbildung von Kn × . . . × Kn (n-mal) nach K, so ist diese multilinear nachTheorem 2.106, Theorem 2.111, 3). Die Äquivalenzaussagen aus 2) sichert also ein L > 0,so dass

| det(A)| ≤ Ln∏

i=1

∥∥∥a(i)∥∥∥

für eine fest gewählte Norm ‖ . ‖ auf Kn.Eine implizit gegebene nichtlineare Abbildung ist:

4) A �→ A−1

als Abbildung von GL(n,K) in sich. Diese ist stetig.Dies kann über die explizite Darstellung Satz 2.118 und unter Berücksichtigung der Stetigkeit der Zuord-nung der Determinante zu einer Matrix eingesehen werden.

Schließlich stellt sich die Frage nach der stetigen Abhängigkeit der Eigenwerte von derMatrix, z. B. der Abbildung

A �→ (λ1, . . . , λn)t

als Abbildung von der Menge der selbstadjungierten Matrizen in K(n,n) nach Rn, wobeidie Eigenwerte λi z. B. absteigend angeordnet sind:

Page 14: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

706 7 Lineare Algebra und Analysis

λ1 ≥ λ2 ≥ . . . ≥ λn .

�Auf unendlichdimensionalen Räumen werden verschiedene Normen wesentlich:

Bemerkungen 7.13

1)

‖ . ‖∞ ist stärker als ‖ . ‖2 auf C([a, b],K), aber nicht umgekehrt.

Dabei ist

‖ f ‖∞ := max{| f (t) : t ∈ [a, b]}die Maximumsnorm auf C([a, b],K) (siehe (1.68)).Es gilt nämlich:

‖ f ‖2 =(∫ b

a| f (t)|2dt

)1/2

≤(∫ b

a‖ f ‖2∞dt

)1/2

= (b − a)1/2‖ f ‖∞ .

Um zu sehen, dass die umgekehrte Abschätzung nicht möglich ist, betrachte man für [a, b] = [0, 1] dieFunktionenfolge

fn(t) ={

n(1 − n2t) für 0 ≤ t ≤ 1n2

0 für 1n2 < t ≤ 1

,

da für diese

‖ fn‖∞ = n, aber

‖ fn‖22 =∫ 1/n2

0n2(1 − n2t)2dt = −1

3(1 − n2t)3

∣∣∣1/n2

0 =13

.

Aus gleichmäßiger Konvergenz einer Folge (stetiger) Funktionen (d. h. bezüglich ‖ . ‖∞)folgt also Konvergenz im quadratischen Mittel (d. h. bezüglich ‖ . ‖2), aber i. Allg. nichtumgekehrt.

2) Auf unendlichdimensionalen Räumen ist nicht jede lineare Abbildung stetig.Man betrachte als Beispiel

V := C([a, b],K), ‖ . ‖V := ‖ . ‖∞W := { f ∈ C1((a, b),K

): f (a) = 0}, ‖ . ‖W = ‖ . ‖∞

(siehe (3.10)) und die linearen Abbildungen

Page 15: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.1 Normierte Vektorräume 707

S : V → W, f �→ g mit g(t) :=∫ t

af (s)ds, d. h. die Stammfunktion.

D : W → V, g �→ f mit f (t) := g′(t), d. h. die Ableitung,

dann S −1 = D und D−1 = S , und S ist stetig, da

‖S f ‖∞ = max{∣∣∣∣∣∣

∫ t

af (s)ds

∣∣∣∣∣∣ : t ∈ [a, b]}

≤ max{∫ t

a‖ f ‖∞ds : t ∈ [a, b]

}= (b − a) ‖ f ‖∞ .

Aber D ist nicht stetig, wie für [a, b] = [0, 2π] die Beispielfolge

fn(t) := sin(nt)

zeigt, für sie gilt

‖ fn‖∞ = 1, ‖D fn‖∞ = ‖ f ′n‖∞ = n .

Die Aussagen bleiben gleich, wenn V und W mit ‖ . ‖2 versehen werden.

Definition 7.14

Seien (V, ‖ . ‖V), (W, ‖ . ‖W) normierte K-Vektorräume.

L[V, W] := {Φ ∈ Hom(V, W) : Φ ist beschränkt }bezeichnet den K-Vektorraum der linearen, beschränkten Abbildungen von V nachW. Ist speziell W = K, so setzt man auch

V ′ := L[V,K]

für den Raum der beschränkten und linearen Funktionale.

Die Vektorraumeigenschaft ergibt sich daraus, dass L[V, W] nach Bemerkungen 7.5, 1) einlinearer Unterraum von Hom(V, W) ist. Ist V endlichdimensional, ist also

L [V, W] = Hom(V, W) ,

i. Allg. aber nur

L [V, W] ⊂ Hom(V, W) .

Nur für endlichdimensionales V gilt somit

Page 16: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

708 7 Lineare Algebra und Analysis

V ′ = V∗,

wenn V∗ den (algebraischen) Dualraum von V bezeichnet, i. Allg. ist

V ′ � V∗ .

Eine wesentliche Eigenschaft des normiertenR-Vektorraums (R, | . |) ist seine Vollständig-keit und dies ist der Grund, weshalb wir ihn (Q, | . |) vorziehen:

Definition 7.15

Sei (V, ‖ . ‖) ein normierter K-Vektorraum. (V, ‖ . ‖) heißt vollständig bzw. ein Ba-nach5-Raum, wenn für jede Cauchy-Folge (un)n in V ein u ∈ V existiert, so dassun gegen u konvergiert für n→ ∞.Ist ‖ . ‖ von einem inneren Produkt 〈 . 〉 erzeugt, so heißt (V, 〈 . 〉) ein Hilbert-Raum.

Die Vollständigkeit eines (Funktionen-)Raums ist unverzichtbar, um auf ihm Analysis wieauf K (oder Kn) zu machen.

Satz 7.16: endlichdimensional→ vollständig

Sei (V, ‖ . ‖) ein normierter K-Vektorraum.

1) Ist V endlichdimensional, dann ist V vollständig.

2) Ist W ein vollständiger Unterraum von V , so ist W abgeschlossen in V .

3) Ist W ein endlichdimensionaler Unterraum, so ist W abgeschlossen.

Beweis: Zu 1): (Skizze) Vollständigkeit wird durch stetige Isomorphismen Φ übertra-gen, deren Umkehrabbildungen Φ−1 auch stetig sind (Stetigkeit von Φ: Zur Übertragungder Cauchy-Folge, Stetigkeit von Φ−1: Zur Übertragung der Konvergenz). Da die Ko-ordinatenabbildung einen stetigen Isomorphismus mit stetiger Umkehrabbildung darstellt(nach Bemerkungen 7.11, 1)), reicht die Vollständigkeit von (Kn, ‖ . ‖2), die über Bemer-kungen 7.11, 2) aus der Vollständigkeit von K folgt (siehe auch Analysis).Zu 2): Sei (un)n eine Folge in W, so dass

un → u für n→ ∞ .

Da (un)n auch eine Cauchy-Folge in W ist, konvergiert (un)n in W, also u ∈ W.Zu 3): folgt sofort aus 1) und 2).

5 Stefan Banach ∗30. März 1892 in Krakau †31. August 1945 in Lemberg

Page 17: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.1 Normierte Vektorräume 709

Bemerkungen 7.17

1) (C([a, b],K), ‖ . ‖∞) ist vollständig (siehe Analysis).

2) (C([a, b],K), ‖ . ‖p) ist nicht vollständig für 1 ≤ p < ∞. Es gibt also Cauchy-Folgenstetiger Funktionen bezüglich ‖ . ‖p (für p = 2 also bezüglich des quadratischen Mittels),die nicht bezüglich ‖ . ‖p gegen eine stetige Funktion konvergieren. (C([a, b],K), ‖ . ‖p) istalso zu „klein“. Eine angemessene, da vollständige Erweiterung ist

Lp([a, b],K) := { f : [a, b]→ K : | f |p ist integrierbar } .Dafür muss aber der Integrationsbegriff richtig gefasst werden (Lebesgue6-Integrationstatt Riemann-Integration: Siehe Analysis).

3) Sei (V, ‖ . ‖) ein normierter Raum, U ein abgeschlossener Unterraum. Dann wird aufV/U durch

‖u + U‖ := inf{‖w‖ : w ∈ u + U}eine Norm definiert.Dreiecksungleichung und Homogenität folgen direkt und allgemein. Für die Definitheit wird die Abge-schlossenheit gebraucht: Bei 0 = ‖u + U‖ = inf{‖w‖ : w ∈ u + U} existiert eine Folge (wn)n , wn ∈ u + U,so dass ‖wn‖ → 0 für n→∞, wn = u + un also un → −u für n→∞ und damit u ∈ U, d. h. u +U = U.

�Auch für gewisse lineare Operatoren auf unendlichdimensionalen Vektorräumen lässt sichSpektralanalyse betreiben.

Definition 7.18

Sei (V, ‖ . ‖) ein Banach-Raum über K und Φ ∈ L[V, V].

1) !(Φ) := {λ ∈ C : Φ − λ id ist bijektiv und (Φ − λ id)−1ist beschränkt} heißtdie Resolventenmenge von Φ.

2) σ(Φ) := C\!(A) heißt das Spektrum von Φ.

Bemerkungen 7.19

1) Alle komplexen Eigenwerte von Φ gehören zu σ(Φ).

2) Ist V endlichdimensional, so fällt die Definition mit Definition 4.16 für K = C zusam-men, d. h. die Elemente von σ(Φ) sind die komplexen Eigenwerte von Φ.Wegen der Endlichdimensionalität ist Φ beschränkt und analog unter Beachtung von Hauptsatz 2.31

σ(Φ) := {λ ∈ C : Φ − λ id ist nicht injektiv} .

6 Henri Léon Lebesgue ∗28. Juni 1875 in Beauvais †26. Juli 1941 in Paris

Page 18: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

710 7 Lineare Algebra und Analysis

3) Das folgende Beispiel zeigt, dass bei unendlichdimensionalem V die Menge σ(Φ) nichtnur aus Eigenwerten bestehen muss.Sei Φ : l2(K) → l2(K) definiert durch Φ((xi)i) = (yi)i mit y1 = 0, yk := xk−1 für k ≥ 2, dann ist Φ linearund beschränkt und für λ = 0 gilt: λ ∈ σ(Φ), da Φ nicht surjektiv ist, aber λ ist kein Eigenwert.

*Satz 7.20: Zusammensetzung des Spektrums

Unter den Voraussetzungen von Definition 7.18 gilt

σ(Φ) = σp(Φ) ∪ σs(Φ) ∪ σr(Φ) ,

wobei:σp(Φ) := {λ ∈ C : Φ − λ id ist nicht injektiv}, das Punktsprektrum von Φ, beste-

hend aus den komplexen Eigenwerten.σs(Φ) := {λ ∈ C : Φ − λ id ist injektiv, aber nicht surjektiv, und Bild(Φ −

λ id) ist dicht in V}, das stetige Spektrum.σr(Φ) := {λ ∈ C : Φ − λ id ist injektiv, aber Bild(Φ − λ id) ist nicht dicht in V},

das Residualspektrum.

Beweis: Es reicht zu zeigen, dass

!(Φ) = {λ ∈ C : Φ − λ id ist bijektiv} ,d. h. es ist „⊃“ zu zeigen. Dies folgt aus dem Satz von der inversen Abbildung (siehe z. B.Alt 2006, S. 221). �

Bemerkungen 7.21

1) Im Beispiel von Bemerkungen 7.19, 2) ist σ(Φ) = σr(Φ) = {0}.2) Hinsichtlich einer möglichen Spektraldarstellung kommen für unendlichdimensionaleBanach-Räume noch kompakte Operatoren der Situation im Endlichdimensionalen amnächsten:

Φ ∈ L[V, V] heißt kompakt, wenn cl(Φ(B1(0)) kompakt in V ist.

Ist Φ ∈ Hom(V, V) und Bild Φ endlichdimensional, dann ist Φ kompakt.Nach Theorem 7.4 ist Φ beschränkt, d. h. cl(Φ(B1(0))) ist beschränkt und abgeschlossen in BildΦ, nachSatz C.11, 2) also kompakt.

Insbesondere ist also für endlichdimensionales V jedes Φ ∈ Hom(V, V) kompakt.Andererseits lässt sich jedes kompakte Φ durch Φn mit dim Bild Φn < ∞ beliebig gut inder erzeugten Norm auf L[V, V] approximieren (siehe Alt 2006, S. 316)

3) a) Für kompakte Φ ∈ L[V, V] gilt: σ(Φ)\{0} besteht aus abzählbar vielen Eigen-werten, die sich höchstens bei 0 häufen.

Page 19: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.1 Normierte Vektorräume 711

b) Jedes λ ∈ σ(Φ)\{0} hat einen Fitting-Index kλ (siehe (4.71)), der Hauptraumist endlichdimensional. Es gilt die Φ-invariante Zerlegung (siehe V = Kern((Φ −λ id)kλ) ⊕ Bild(Φ − λ id)kλ) (siehe z. B. Alt 2006, S. 377).

4) Ist Φ kompakt und normal, kann für jedes λ ∈ N := σ(Φ)\0 ein Eigenvektor uλ ∈ Vgewählt werden, so dass

B := {vλ : λ ∈ N}eine Orthonormalbasis bildet und V = KernΦ ⊕ cl(span(B)) ist eine orthogonale Zerle-gung, für die gilt:

Φu =∑λ∈N

λ 〈u . uλ〉 uλ

(siehe z. B. Alt 2006, S. 391).

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe

• Höldersche Ungleichung in (Kn, ‖ . ‖p), (lp(K), ‖ . ‖p) und (C([a, b],K), ‖ . ‖p)• Lipschitz-Stetigkeit einer Abbildung• Beschränktheit einer Abbildung• Äquivalenz von Normen• L[V, W], V ′ für normierte K-Vektorräume V, W• Banach-Raum, Hilbert-Raum

Zusammenhänge

• stetig = beschänkt bei linearen Operatoren (Theorem 7.4)• Auf endlichdimensionalen Räumen sind alle Normen äquivalent (Hauptsatz 7.10)

Beispiele

• (Kn, ‖ . ‖p), 1 ≤ p ≤ ∞• (lp(K), ‖ . ‖p), 1 ≤ p < ∞• C

([a, b],K

), ‖ . ‖p), 1 ≤ p ≤ ∞

• ‖ . ‖2 ist nicht stärker als ‖ . ‖∞ auf C([a, b],K).• Die Zuordnung der Ableitung ist unstetig bezüglich ‖ . ‖∞.

Page 20: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

712 7 Lineare Algebra und Analysis

Aufgaben

Aufgabe 7.1 (T) Gegeben sei ein normierter K-Vektorraum (V, ‖ . ‖). Zeigen Sie:

| ‖u‖ − ‖w‖ | ≤ ‖u − w‖für u,w ∈ V .

Aufgabe 7.2 (T)

a) Man zeige die Höldersche Ungleichung

〈x . y〉 ≤ ‖x‖p‖y‖qauf dem euklidischen Raum (Kn, 〈 . 〉) für den Spezialfall p = 1, q = ∞.

b) Zeigen Sie die Dreiecksungleichung für die in Bemerkungen 7.17, 3) definierteNorm auf V/U.

Aufgabe 7.3 (T) Sei V ein n-dimensionaler K-Vektorraum. Zeigen Sie: Für eine fest ge-wählte Basis {u1, . . . , un} ist ‖ . ‖′ eine Norm auf V , wobei

‖u‖′ :=∥∥∥ n∑

i=1

aiui∥∥∥′ :=

( n∑i=1

|ai|2)1/2= ‖a‖2 .

Aufgabe 7.4 (T) Im Folgenraum l2(R) mit der vom inneren Produkt 〈 . 〉 induzierten Norm‖(xn)n‖2 :=

(∑∞n=1 x2

n

)1/2betrachte man die lineare Abbildung

T : l2(R)→ l2(R), A := (an)n �→ B := (bn)n mit bn =

⎧⎪⎪⎨⎪⎪⎩0 für n = 1 ,

an−1 sonst .

a) Zeigen Sie, dass für alle A, B ∈ l2(R) gilt: 〈T A . T B〉 = 〈A . B〉 .b) Zeigen Sie, dass T injektiv ist.c) Geben Sie eine Abbildung T an mit T ◦ T = id. Ist T bijektiv?

Aufgabe 7.5 (T) Sei 1 ≤ p ≤ q < ∞. Zeigen Sie (lp(K), ‖ . ‖p) ⊂ (lq(K), ‖ . ‖q), indem Siedie Abschätzung

‖(xn)n‖q ≤ ‖(xn)n‖p für alle (xn)n ∈ lp(K)

beweisen.

Page 21: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 713

7.2 Normierte Algebren

7.2.1 Erzeugte und verträgliche Normen

Seien (V, ‖ . ‖V), (W, ‖ . ‖W) normierte K-Vektorräume. Dann ist auch L[V, W] ein K-Vektorraum und damit i. Allg. auch normierbar. Es ist nützlich, wenn eine auf L[V, W]eingeführte Norm verträglich ist in folgendem Sinn:

Definition 7.22

Seien (V, ‖ . ‖V) und (W, ‖ . ‖W ) normierteK-Vektorräume. Eine Norm ‖ . ‖ auf L[V, W]heißt verträglich mit ‖ . ‖V und ‖ . ‖W , wenn für alle Φ ∈ L[V, W] gilt

‖Φu‖W ≤ ‖Φ‖ ‖u‖V für alle u ∈ V .

Speziell für V = Kn, W = Km, d. h. dem Abbildungsraum K(m,n) wird durch jede Tupel-norm auch eine Norm auf K(m,n) definiert (da K(m,n) auch als Kmn auffassbar ist), also etwadurch

‖A‖F :=

⎛⎜⎜⎜⎜⎜⎜⎝ n∑i, j=1

|ai, j|2⎞⎟⎟⎟⎟⎟⎟⎠

1/2

für A ∈ K(m,n), die Frobenius-Norm.Die Abschätzung vor (7.6) zeigt die Verträglichkeit von ‖ . ‖F mit ‖ . ‖2 auf Kn bzw.

Km. Bei einer verträglichen Norm ist ‖Φ‖ eine mögliche (Lipschitz-)Konstante in derBeschränktheitsabschätzung von Φ, aber nicht immer die kleinstmögliche:

Zum Beispiel für Φ = A = 1 ∈ K(n,n) ist wegen

‖Φx‖2 = ‖x‖2L = 1 die kleinste Konstante, aber es gilt

‖A‖F = n1/2 .

Die minimale Lipschitz-Konstante definiert ebenfalls eine Norm auf L[V, W], also dieminimale Norm auf L[V, W], die mit den Normen von V und W verträglich ist.

Theorem 7.23: Erzeugte Norm

Seien (V, ‖ . ‖V ) und (W, ‖ . ‖W ) normierte K-Vektorräume.

1) Sei Φ ∈ L[V, W]. Dann gilt:

Page 22: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

714 7 Lineare Algebra und Analysis

L : = inf{α > 0 : ‖Φu‖W ≤ α‖u‖V für alle u ∈ V} (7.12)

= sup{‖Φu‖W‖u‖V : u ∈ V, u � 0

}= sup{‖Φu‖W : u ∈ V, ‖u‖V = 1}= sup{‖Φu‖W : u ∈ V, ‖u‖V ≤ 1}

Insbesondere gilt also

‖Φu‖W ≤ L‖u‖V für alle u ∈ V ,

d. h. das inf in (7.12) kann durch min ersetzt werden.

2) Durch ‖Φ‖ := L nach (7.12) wird eine Norm auf L[V, W] definiert, die von ‖ . ‖V ,‖ . ‖W erzeugte Norm.Insbesondere ist also für Φ ∈ L[V, W] :

‖Φu‖W ≤ ‖Φ‖ ‖u‖V für u ∈ V , (7.13)

d. h. eine erzeugte Norm ist verträglich.

Beweis: Zu 1): Die behauptete Identität wird mit L = A = B = C abgekürzt. Sei α > 0aus der Menge M ⊂ R, worüber in (7.12) das Infimum genommen wird, dann

‖Φu‖W‖u‖V ≤ α für u ∈ V, u � 0 ⇒ A := sup

{‖Φu‖W‖u‖V : u ∈ V, u � 0} ≤ α

⇒ A ≤ L .

Wegen ‖Φu‖W ≤ A‖u‖V für alle u ∈ V ist aber auch L ≤ A, also A = L . Wegen

‖Φu‖W‖u‖V =

∥∥∥∥∥Φ u

‖u‖V∥∥∥∥∥

W

gilt ebenso A = B , da die Mengen gleich sind, über die das Supremum gebildet wird.Weiter gilt offensichtlich

L = A = B ≤ C .

Sei andererseits u ∈ V, ‖u‖V ≤ 1, o. B. d. A. u � 0, dann

‖Φu‖W ≤ ‖Φu‖W‖u‖V ≤ A , also C ≤ A.

Zu 2): Definitheit und Homogenität folgen sofort z. B. aus der Darstellung als Term A.Die Dreiecksungleichung folgt aus

Page 23: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 715

‖(Φ + Ψ )u‖W = ‖Φu + Ψu‖W ≤ ‖Φ‖ ‖u‖V + ‖Ψ‖ ‖u‖V= (‖Φ‖ + ‖Ψ‖)‖u‖V für alle u ∈ V

und damit

‖Φ + Ψ‖ ≤ ‖Φ‖ + ‖Ψ‖.�

Bemerkungen 7.24

1) Das „sup“ in den verschiedenen Darstellungsformen von ‖Φ‖ wird i. Allg. nicht ange-nommen, aber es gilt:Sei (V, ‖ . ‖V ) endlichdimensional, dann gilt für Φ ∈ L[V, W] und einen Vektorraum(W, ‖ . ‖W):

‖Φ‖ = max{ ‖Φu‖W‖u‖V : u ∈ V, u � 0

}= max{‖Φu‖W : u ∈ V, ‖u‖V = 1}= max{‖Φu‖W : u ∈ V, ‖u‖V ≤ 1} .

Wie schon erwähnt, sind die Mengen im 1. und 2. Fall gleich, so dass nur die Annahme des sup im 2. und3. Fall geklärt werden muss. Mit

u �→ ‖Φu‖Wwird eine stetige Abbildung von V nach R betrachtet, und zwar auf einer in V beschränkten und abge-schlossenen, nach Satz C.11, 2) also kompakten Menge, so dass dort das Supremum angenommen wird(siehe Satz C.12, 2)).

Diese Situation liegt unabhängig von der Dimension von V vor, wenn es ein α > 0 und einu ∈ V , u � 0 gibt, so dass ‖Φu‖W ≤ α‖u‖V für alle u ∈ V und ‖Φu‖W = α‖u‖V .

2) Seien (V, ‖ . ‖V), (W, ‖ . ‖W) normierte Räume und Φ bzw. Ψ lineare Isomorphismen aufV bzw. W. Dann:

a) ‖u‖′V := ‖Φu‖V bzw. ‖w‖′W := ‖Ψw‖V sind Normen auf V bzw. W.

b) Ist ‖ . ‖ eine Norm auf L[V, W], dann ist auch

‖χ‖ := ‖ΨχΦ−1‖ für χ ∈ L[V, W]

eine Norm auf L[V, W].

c)

Ist ‖ . ‖ die von ‖ . ‖V und ‖ . ‖W erzeugte Norm auf L[V, W], dann ist die durch ‖ . ‖′Vund ‖ . ‖′W (nach a)) erzeugte Norm gegeben durch

‖χ‖′ := ‖ΨχΦ−1‖ für χ ∈ L[V, W] .

Page 24: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

716 7 Lineare Algebra und Analysis

Bei a) und b) lassen sich die Normeigenschaften sofort verifizieren, bei c) beachte man

‖χv‖′W = ‖Ψχv‖W = ‖ΨχΦ−1(Φu)‖W ≤ ‖ΨχΦ−1‖ ‖u‖′V ,

also gilt ‖χ‖′ ≤ ‖ΨχΦ−1‖.Ist andererseits α > 0, so dass ‖Ψχu‖W ≤ α‖Φu‖V für alle u ∈ V bzw.‖ΨχΦ−1w‖W ≤ α‖w‖V für alle w ∈ Vdann auch ‖ΨχΦ−1‖ ≤ α und so ‖ΨχΦ−1‖ ≤ ‖χ‖′.

3) Sei Φ :(C([a, b],K), ‖ . ‖∞)→ (K, | . |) definiert durch

f �→b∫

a

f (x)dx.

Dann gilt:

|Φ( f )| =∣∣∣∣∣∣∫ b

af (x)dx

∣∣∣∣∣∣ ≤ (b − a)‖ f ‖∞

und damit ‖Φ‖ ≤ b − a . Da aber für f , definiert durch f (x) = 1, gilt

|Φ( f )| = (b − a)1 = (b − a)‖ f ‖∞,

folgt ‖Φ‖ = b − a und die Suprema werden hier angenommen (durch f ).

�Im Fall V = W ist mit Φ,Ψ ∈ Hom(V, V) bzw. L[V, V] auch Φ ◦ Ψ ∈ Hom(V, V) bzw.L[V, V] und diese innere Verknüpfung erfüllt mit + alle Eigenschaften eines Körpers mitAusnahme der Kommutativität von ◦ und der Existenz von Inversen (das neutrale Ele-ment bezüglich ◦ ist id). Insbesondere handelt es sich um eine K-Algebra (siehe Defini-tion 3.17). Ist diese im Fall K = K mit einer Norm versehen, so ist eine Verträglichkeitdieser Norm mit der (inneren) Multiplikation wünschenswert.

Definition 7.25

Sei (V, ‖ . ‖) ein normierter K-Vektorraum mit zusätzlicher innerer Multiplikation, sodass (V,+, λ·, ·) eine K-Algebra ist.Ist die Norm bezüglich · submultiplikativ, d. h.

‖u · w‖ ≤ ‖u‖ ‖w‖ für alle u,w ∈ V ,

dann heißt (V,+, λ·, ·, ‖ . ‖) normierte Algebra. Ist diese bezüglich ‖ . ‖ vollständig,spricht man von einer Banach-Algebra.

Page 25: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 717

Satz 7.26: Erzeugte Norm submultiplikativ

Seien (U, ‖ . ‖), (V, ‖ . ‖), (W, ‖ . ‖) normierte K-Vektorräume, ‖ . ‖ sei die auf L[U, W],L[V, W] bzw. L[U, V] erzeugte Norm. Dann gilt

‖Φ ◦ Ψ‖ ≤ ‖Φ‖ ‖Ψ‖ für Ψ ∈ L[U, V], Φ ∈ L[V, W] ,

d. h. eine erzeugte Norm ist submultiplikativ, insbesondere ist (L[V, V],+, λ·, ◦) einenormierte Algebra.

Beweis:

‖Φ ◦ Ψu‖ = ‖Φ(Ψu)‖ ≤ ‖Φ‖ ‖Ψu‖ ≤ ‖Φ‖ ‖Ψ‖ ‖u‖ für alle u ∈ V

und damit

‖Φ ◦ Ψ‖ ≤ ‖Φ‖ ‖Ψ‖ . �

Bemerkungen 7.27

1) In einer normierten Algebra gilt für Potenzen un = u · . . . · u (n-fach):

‖un‖ ≤ ‖u‖n ,

so dass sofort folgt

(un)n ist eine Nullfolge, falls ‖u‖ < 1 .

2) Ist ‖ . ‖ eine erzeugte Norm auf L[V, V], dann gilt für die Identität id:

‖ id ‖ = 1 .

3) Für n > 1 ist also die Frobenius-Norm nicht erzeugt, aber sie ist submultiplikativ.(Übung)

�Bemerkungen 7.28 Für die Dualräume V ′ folgt insbesondere:Sei V = (Kn, ‖ . ‖p), 1 ≤ p ≤ ∞ .Es gilt V ′ = V∗ � V , wobei nach Theorem 3.48 ein (anti)linearer Isomorphismus durch

J : V → V ′ durch a �→ (x �→ 〈x . a〉)gegeben ist. Für die auf V ′ erzeugte Norm gilt

‖ϕ‖ = ‖a‖q für a := J−1(ϕ) ,

Page 26: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

718 7 Lineare Algebra und Analysis

wobei q zu p konjugiert ist.Das kann man folgendermaßen einsehen: Sei 1 < p < ∞. Es gilt nach der Hölderschen Ungleichung

|ϕ(x)| = | 〈x . a〉 | ≤ ‖x‖p‖a‖q und damit ‖ϕ‖ ≤ ‖a‖q .

Um die Gleichheit zu zeigen, muss ein x ∈ Kn mit

| 〈x . a〉 | = ‖x‖pfür a ∈ Kn mit ‖a‖q = 1 angegeben werden. Der Ansatz xi = ai |ai |α−1 (bzw. xi = 0 für ai = 0) führt zu

〈x . a〉 =n∑

i=1

xiai =

n∑i=1

|ai |α+1 ,

was die Wahl α = q − 1 nahelegt, also 〈x . a〉 = ‖a‖qq = 1 und

‖x‖p =⎛⎜⎜⎜⎜⎜⎝ n∑

i=1

(|ai | |ai |q−2)p

⎞⎟⎟⎟⎟⎟⎠1/q

= ‖a‖q = 1

wegen (q− 1)p = q. Für p = 1 und q = ∞ oder umgekehrt kann die obige Argumentation modifiziert oderdirekt Theorem 7.30 1), 2) angewendet werden.

�Speziell für V = Kn und W = Km berechnen wir einige auf Hom(V, W) erzeugte Normen.Dabei identifizieren wir Φ ∈ Hom(V, W) mit der Darstellungsmatrix A ∈ K(m,n), jeweilsfür die Einheitsbasis, d. h. Φx = Ax. Dafür setze man:

Definition 7.29

Sei A ∈ K(n,n).

ρ(A) = max{|λ| : λ ∈ C ist Eigenwert von A}heißt Spektralradius von A.

Theorem 7.30: Erzeugte Matrixnormen

Sei V = (Kn, ‖ . ‖p), W = (Km, ‖ . ‖p) für p ≥ 1 oder p = ∞. Sei A ∈ K(m,n): Dann istdie auf K(m,n) erzeugte Norm gegeben durch

1) für p = ∞:

‖A‖ = ‖A‖∞ := max

⎧⎪⎪⎪⎨⎪⎪⎪⎩n∑

j=1

|ai, j| : i = 1, . . . , m

⎫⎪⎪⎪⎬⎪⎪⎪⎭ ,

die Zeilensummennorm ,

Page 27: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 719

2) für p = 1:

‖A‖ = ‖A‖1 := max

⎧⎪⎪⎨⎪⎪⎩ m∑i=1

|ai, j| : j = 1, . . . , n

⎫⎪⎪⎬⎪⎪⎭ ,

die Spaltensummennorm,

3) für p = 2:

‖A‖ = ‖A‖2 := ρ(A† A)1/2 ,

die Spektralnorm. Es ist also

‖A‖2 = σ1 ,

wenn σ1 > 0 der größte Singulärwert von A in einer normierten SVD ist.

4) Ist A ∈ K(n,n) normal, gilt

‖A‖2 = ρ(A) .

Beweis: Zu 1):

‖Ax‖∞ = max

⎧⎪⎪⎪⎨⎪⎪⎪⎩∣∣∣∣∣∣∣∣

n∑j=1

ai, jx j

∣∣∣∣∣∣∣∣ : i = 1, . . . , m

⎫⎪⎪⎪⎬⎪⎪⎪⎭ ≤ max

⎧⎪⎪⎪⎨⎪⎪⎪⎩n∑

j=1

|ai, j| ‖x‖∞ : i = 1, . . . , m

⎫⎪⎪⎪⎬⎪⎪⎪⎭≤ ‖A‖∞‖x‖∞

und sei k ∈ {1, . . . , m}, so dass

n∑j=1

|ak, j| = ‖A‖∞ .

Sei x j ∈ K, so dass |x j| = 1 und ak, jx j = |ak, j|, dann gilt für x = (x j) ∈ Kn:

‖x‖∞ = 1 und

∣∣∣∣∣∣∣∣n∑

j=1

ak, jx j

∣∣∣∣∣∣∣∣ =n∑

j=1

|ak, j| = ‖A‖∞ .

Also:

‖Ax‖∞ = ‖A‖∞ = ‖A‖∞‖x‖∞ , und damit ‖A‖ = ‖A‖∞ .

Zu 2): analog zu 1)Zu 3):

‖A‖ = sup{ ‖Ax‖2‖x‖2 : x ∈ Kn, x � 0

}

Page 28: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

720 7 Lineare Algebra und Analysis

Sei A = U†ΣV eine normierte SVD von A, d. h. U ∈ K(m,m), V ∈ K(n,n) orthogonalbzw. unitär, Σ ∈ K(m,n) eine verallgemeinerte Diagonalmatrix mit den positiven Singulär-werten σ1 ≥ . . . ≥ σr > 0, dann

‖Ax‖2 = ‖U†Σ Vx‖2 = ‖Σy‖2 ≤ σ1‖y‖2 für y := Vx‖x‖2 = ‖Vx‖2 = ‖y‖2 ,

also

‖A‖ ≤ σ1 = ρ(A† A)1/2

und die Schranke wird für y = e1 angenommen.Zu 4): Es gibt eine ONB u1, . . . , un ∈ Kn aus Eigenvektoren zu den Eigenwerten λ1, . . . , λn ∈K , der betragsgrößte werde mit λmax bezeichnet. Ist also x =

∑ni=1 αiui ∈ V , dann

‖x‖2 =⎛⎜⎜⎜⎜⎜⎝ n∑

i=1

|αi|2⎞⎟⎟⎟⎟⎟⎠1/2

= ‖α‖2 mit α = (αi)i ∈ Kn und

Ax =n∑

i=1

αiλiui, so dass ‖Ax‖2 =⎛⎜⎜⎜⎜⎜⎝ n∑

i=1

|αi|2|λi|2⎞⎟⎟⎟⎟⎟⎠1/2

≤ |λmax| ‖α‖2 .

Daraus ergibt sich

‖A‖2 ≤ ρ(A)

und die Gleichheit durch Wahl x = uk bei |λmax| = |λk|: ‖Ax‖2 = |λk | = |λk| ‖x‖2.�

Bemerkungen 7.31

1) Es folgt für A ∈ K(m,n) : ρ(A† A) ≤ ‖A‖2F ,da links das Quadrat einer erzeugten und rechts einer verträglichen Norm steht.

2) ‖A‖∞ = ‖A†‖1 für A ∈ K(m,n).

3) ‖A‖2 = ‖A†‖2 ,da A†A und A A† die gleichen von 0 verschiedenen Eigenwerte haben.

*4) ‖A‖2 = ‖A†A‖1/22 mittels Theorem 7.30, 3) und 4), da A†A normal ist.

In Erweiterung von ‖A‖2 = σ1 können die Ky-Fan7-Normen von A ∈ K(m,n) definiertwerden durch

‖A‖KF,p :=p∑

i=1

σi für 1 ≤ p ≤ n ,

wobei A = U†ΣV eine normierte SVD von A ist und σ1 ≥ . . . ≥ σn > 0 die nicht negativenSingulärwerte von A sind (Normeigenschaften ohne Beweis). Es ist also

7 Ky Fan ∗19. September 1914 in Hangchow †22. März 2010 in Santa Barbara

Page 29: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 721

‖A‖KF,1 = ‖A‖2 ,

Für p ≥ k, wenn k die Anzahl der positiven Eigenwerte bezeichnet, gilt

‖A‖KF,p = sp(AA†)12 . (7.14)

Wegen AA† = UΣΣU† gilt (AA†)12 = UΣU† und Σ = diag(σi) ∈ R(m,m), σi = σi für i = 1, . . . , k und

σi = 0 sonst.Somit gilt nach Satz 4.30

sp(A†A)12 = sp(Σ) =

k∑i=1

σi.

*5) Die Frobenius-Norm erfüllt nach (4.7)

‖A‖F =⎛⎜⎜⎜⎜⎜⎜⎝ k∑

i=1

σ2i

⎞⎟⎟⎟⎟⎟⎟⎠12

,

wobei die σi die positiven Singulärwerte einer normierten SVD sind. Daraus folgt noch-mals 1). In Verallgemeinerung davon lassen sich die Schatten8-p-Normen definierendurch

‖A‖S ,p :=

⎛⎜⎜⎜⎜⎜⎜⎝ k∑i=1

σpi

⎞⎟⎟⎟⎟⎟⎟⎠1p

(7.15)

für p ≥ 1 (Normeigenschaften ohne Beweis). Es gilt also

‖A‖S ,1 = ‖A‖KF,n .

Alle Normen aus 4) und 5) sind invariant gegenüber der Multiplikation mit orthogonalenbzw. unitären Matrizen,da die Singulärwerte einer normierten SVD diese Eigenschaft besitzen.

6) Die von ‖ . ‖p erzeugten Matrixnormen sind, wie schon für p = 1, 2,∞ bekannt, imAllgemeinen verschieden. Ist aber A = D = diag(λi) ∈ K(n,n) eine Diagonalmatrix, so giltimmer

‖D‖p = max{|λi| : i = 1, . . . , n} .

7) Für A = u ⊗ u im Fall ‖ . ‖ = ‖ . ‖2 gilt

‖A‖2 = ‖u‖2‖u‖2 . (7.16)

Das kann man folgendermaßen einsehen:

8 Robert Schatten ∗28. Januar 1911 in Lemberg †26. August 1977 in New York City

Page 30: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

722 7 Lineare Algebra und Analysis

‖Ax‖ = ‖uu†x‖ = ‖ 〈u . x〉u‖ = | 〈u . x〉 | ‖u‖ ≤ ‖x‖ ‖u‖ ‖u‖ ⇒ ‖A‖2 ≤ ‖u‖2‖u‖2 .

Bei x = u gilt Gleichheit. Alternative Berechnung der erzeugten Norm über die Eigenwerte von A†A:

A†A = uu†uu† = ‖u‖2uu†A†Au = ‖u‖2‖u‖2uA†Aw = 0 für w ∈ u⊥ .

Somit ist die Wurzel aus dem betragsmäßig größten Eigenwert gerade ‖u‖ ‖u‖.8) Sei A ∈ K(n,n), A sei invertierbar, dann gilt

‖A−1‖2 = 1/σn ,

wobei σn der kleinste Singulärwert einer normierten SVD ist,

bzw.

für normale A:

‖A−1‖2 = 1/|λn| ,wobei λn der betragsmäßig kleinste Eigenwert von A ist.

Ist A = U†ΣV eine normierte SVD von A, so wird aus A−1 = V†Σ−1U nach entsprechender Umord-nung der Diagonalwerte eine normierte SVD von A−1 mit 1/σn als größtem Singulärwert, so dass Theo-rem 7.30, 3) das Ergebnis liefert. Analog ergibt sich die zweite Aussage aus Theorem 7.30, 4).

9) Ist A ∈ K(n,n) normal, so gilt für die Spektralnorm

‖Ak‖ = ‖A‖k für alle k ∈ N .

Mit A ist auch Ak normal und somit nach Theorem 7.30, 4): ‖Ak‖ = ρ(Ak) = ρ(A)k = ‖A‖k .

10) Für eine orthogonale bzw. unitäre Matrix A gilt

‖A‖2 = ρ(A) = 1 .

Damit ist O(n,K) und auch SO(n,K) in GL(n,K) oder K(n,n) beschränkt. Da sie auchabgeschlossen sind, sind also

O(n,K) und SO(n,K) kompakte Mengen in GL(n,K) oder K(n,n) .

Für die Abgeschlossenheit beachte man, dass (nach Bemerkungen 7.12, 3) aus A†A = limn→∞ A†nAn = 1

bzw. det An = 1 auch A†A = 1 bzw. det A = 1 folgt.

Page 31: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 723

7.2.2 Matrixpotenzen

ρ(A) und ‖A‖ hängen also eng zusammen für A ∈ K(n,n). Falls A normal ist, gibt es eineNorm auf Kn (nämlich ‖ . ‖ = ‖ . ‖2), so dass ρ(A) eine erzeugte Norm ist. Im Allgemeinengilt das nicht, ρ(A) ist aber das Infimum aller erzeugten Normen auf K(n,n) angewendet aufA.

Theorem 7.32: Spektralradius und erzeugte Norm

Sei A ∈ K(n,n).

1) Ist ‖ . ‖ eine Norm auf C(n,n), die verträglich mit einer Norm auf Cn ist, dann gilt

ρ(A) ≤ ‖A‖ .

2) Zu ε > 0 und A ∈ K(n,n) gibt es eine erzeugte Norm ‖ . ‖, so dass

‖A‖ ≤ ρ(A) + ε .

Beweis: Zu 1): Sei λ ∈ C ein Eigenwert von A, x ∈ Cn ein Eigenvektor dazu. Dann gilt

|λ| ‖x‖ = ‖Ax‖ ≤ ‖A‖ ‖x‖ und damit |λ| ≤ ‖A‖ .Zu 2): Ein A ∈ R(n,n) kann im Folgenden als A ∈ C(n,n) aufgefasst werden, so dasso. B. d. A. K = C. Sei J = C−1AC eine Jordan-Normalform nach Hauptsatz 4.112,d. h.

J = D + N ,

wobei D eine Diagonalmatrix mit den Eigenwerten als Diagonaleinträgen und N eine ausJordan-Blöcken zum Eigenwert 0 zusammengesetzte Matrix ist, die also höchstens aufder oberen Nebendiagonale den Eintrag 1 hat und sonst immer 0. Sei D := diag(ε−i)i undauf Cn werde die Norm ‖x‖′ := ‖Dx‖∞ betrachtet (siehe Bemerkungen 7.24, 2a), so dassdie davon erzeugte Norm (nach Bemerkungen 7.24, 2c)

‖B‖′ := ‖DBD−1‖∞ für B ∈ C(n,n)

mit der Zeilensummennorm ‖ . ‖∞ ist. Nach Bemerkungen 7.24, 2c) ist

‖B‖′′ := ‖C−1BC‖′ für B ∈ C(n,n)

eine erzeugte Norm. In dieser Norm gilt (siehe Bemerkungen 7.31, 6))

‖A‖′′ = ‖J‖′ ≤ ‖D‖′ + ‖N‖′ = ρ(A) + ‖DND−1‖∞ ≤ ρ(A) + ε . �

Page 32: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

724 7 Lineare Algebra und Analysis

Bemerkungen 7.33

1) Für jede Norm ‖ . ‖ auf K(n,n) gilt:

ρ(A) = limk→∞

(‖Ak‖

)1/k.

Es reicht, eine spezielle Norm ‖ . ‖∼ zu finden, so dass limk→∞(‖Ak‖∼)1/k existiert und gleich ρ(A) ist. Diesgilt dann wie folgt auch für jede andere Norm ‖ . ‖:Die Normen ‖ . ‖ und ‖ . ‖∼ sind äquivalent, d. h. es gibt α, β > 0

α ‖B‖∼ ≤ ‖B‖ ≤ β ‖B‖∼ für B ∈ K(n,n)

und damit

α1/k ‖Ak‖1/k∼ ≤ ‖Ak‖1/k ≤ β1/k ‖Ak‖1/k

∼ ,

woraus wegen limk→∞ γ1/k = 1 für γ ∈ R, γ > 0 die Behauptung folgt. Die Konstruktion einer Norm‖ . ‖∼ ist mit den vorhandenen Kenntnissen durchführbar, es wird aber auf den Beweis verzichtet (siehez. B. Huppert und Willems 2006, S.330-332). Dabei kann o. B. d. A. K = C gesetzt werden (sieheBemerkungen 7.2, 4)).

2) Ist ‖ . ‖ submultiplikativ auf K(n,n), dann gilt sogar

ρ(A) ≤(‖Ak‖

)1/kfür k ∈ N ,

denn es gilt ρ(A) = limk→∞(‖Ak‖

)1/k ≤ limk→∞(‖A‖k

)1/k= ‖A‖ und damit ρ(A)k = ρ(Ak) ≤ ‖Ak‖ , also

ρ(A) ≤(‖Ak‖

)1/k.

Wir hatten schon gesehen, dass das Konvergenzverhalten von Ak wichtig ist für diskrete(oder diskretisierte) dynamische Systeme. In Kapitel 8 folgt eine weitere Anwendung.Eine wichtige Charakterisierung lautet:

Hauptsatz 7.34: Konvergenz der Matrixpotenz gegen 0

Sei A ∈ K(n,n). Es sind äquivalent:

(i) limk→∞ Ak = 0

(ii) ρ(A) < 1 .

Beweis: Sei ‖ . ‖ die erzeugte Norm auf K(n,n) nach Theorem 7.32, 2). Die Konvergenzkann o. B. d. A. darin betrachtet werden.

„(i)⇒ (ii)“: Aus (i) folgt nach Theorem 7.32, 1)

ρ(A)k = ρ(Ak) ≤ ‖Ak‖ < 1

für k groß genug, also ρ(A) < 1.

Page 33: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 725

„(ii)⇒ (i)“: Gilt umgekehrt (ii), d. h. ρ(A) + ε < 1 für ein ε > 0, also nach Theo-rem 7.32, 2)

‖Ak‖ ≤ ‖A‖k ≤ (ρ(A) + ε)k

so dass limk→∞ ‖Ak‖ = 0 folgt.

Bemerkung 7.35 Die Beschränktheit von Lösungen von Differenzengleichungen wirdcharakterisiert durch:

Sei A ∈ K(n,n). Dann sind äquivalent:

(i) Ak ist beschränkt für k ∈ N(ii) ρ(A) ≤ 1 und Eigenwerte λ mit |λ| = 1 sind halbeinfach.

Das kann man folgendermaßen einsehen:Wegen der Äquivalenz der Normen darf eine beliebige herangezogen werden. Sei J = C−1AC eineJordan-Normalform, dann werde die Norm durch

‖B‖ := ‖C−1BC‖∞definiert. Nach Bemerkungen 7.24, 2c) handelt es sich dabei um eine erzeugte Norm und

‖Ak‖ := ‖C−1AkC‖∞ = ‖Jk‖∞ .

Jk ist eine Blockdiagonalmatrix mit Blöcken Jki, j nach (4.75) (o. B. d. A. sei K = C).

„(i)⇒ (ii)“: Durch Kontraposition: Ist ρ(A) > 1, d. h. |λi | > 1 für ein i, so folgt nach (4.75)

‖Jk‖∞ ≥ ‖Jki, j‖∞ ≥ |λi |k → ∞ für k → ∞ .

Ist ρ(A) = 1, aber ein λi mit |λi | = 1 nicht halbeinfach, so folgt analog nach (4.75)

‖Jk‖∞ ≥ |λi |k + k |λi |k−1 = 1 + k → ∞ für k →∞ .

„(ii)⇒ (i)“: Ist ρ(A) < 1, so folgt die Aussage insbesondere aus Hauptsatz 7.34. Im allgemeinen Fall hatJ o. B. d. A. die Gestalt

J =(

D 00 J

),

wobei D = diag(λ1 , . . . , λs) und |λi | = 1, i = 1, . . . , s und ρ(J) < 1. Es ist

Jk =

(Dk 00 Jk

),

‖Dk‖∞ = 1 und die nichtverschwindenden Einträge von Jk haben nach (4.75) die Gestalt(

kl

)λk−l, wobei

|λ| < 1 und l ≤ s für einen festen Wert s. Mit der Abschätzung(kl

)|λ|k−l ≤ ckl |λ|k−l → 0 für k → ∞

Page 34: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

726 7 Lineare Algebra und Analysis

(man beachte xl exp(−x) → 0 für x → ∞) ergibt sich ‖Jk‖∞ → 0 für k → ∞ und damit ist also Jk

beschränkt.

�Bemerkung 7.36 Für die Konvergenz von Lösungen von Differenzengleichungen ist diefolgende Aussage wichtig:

Sei A ∈ K(n,n), dann sind äquivalent:

(i) Ak konvergiert für k → ∞.

(ii) ρ(A) ≤ 1 und Eigenwerte λ mit |λ| = 1 sind halbeinfach und erfüllen λ = 1.

Für den Grenzwert gilt:

P = P2 = PA = AP ,

d. h. es handelt sich um eine mit A vertauschbare Projektion.

Der Beweis ist eine Fortsetzung des Beweises von Bemerkung 7.35.(i) ⇒ (ii): Gäbe es einen Eigenwert λ mit |λ| = 1, λ � 1, so würde für einen zugehörigen Jordan-

Block Ji, j gelten: Jki, j hat die Diagonalelemente λk, die also nicht konvergieren für k → ∞, also auch nicht

Jki, j und damit auch nicht die Jordansche Normalform Jk (in der Zeilensummennorm), also auch nicht

Ak in der wie in Bemerkung 7.35 definierten Norm.(ii)⇒ (i): Wie im entsprechenden Teil von Bemerkung 7.35 folgt wegen D = 1

Jk →(1 00 0

)für k → ∞

und damit die Behauptung. Die Zusatzbehauptung folgt sofort aus

P = limk→∞

A2k = limk→∞

Ak limk→∞

Ak = P2 bzw. P = limk→∞

Ak−1A = PA = limk→∞

AAk−1 = AP .

Theorem 7.37: Neumannsche Reihe

Seien A, B ∈ K(n,n).

1) Sei ρ(A) < 1, dann ist 1 − A invertierbar und

(1 − A)−1 =

∞∑k=0

Ak (Neumann9sche Reihe).

2) Ist ‖A‖ < 1 für eine submultiplikative Norm auf C(n,n), dann ist 1−A invertierbarund

‖(1 − A)−1‖ ≤ 11 − ‖A‖ .

Page 35: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 727

3) Ist A invertierbar und ρ(A−1B) < 1, dann ist A + B invertierbar und

(A + B)−1 = A−1 − A−1BA−1 +

∞∑n=2

(−1)n(A−1B)n A−1 .

4) Ist ‖ . ‖ eine submultiplikative Norm, für die

‖A−1B‖ < 1 [ bzw. ‖A−1‖ ‖B‖ < 1]

gilt, so folgt

‖(A + B)−1‖ ≤ ‖A−1‖(1 − ‖A−1B‖)−1[≤ ‖A−1‖(1 − ‖A−1‖ ‖B‖)−1

].

Beweis: Zu 1): Nach Satz 7.39 (für an = 1, d. h. R = 1) gilt:

S :=∞∑

k=0

Ak = limk→∞

S k existiert, wobei S k =

k∑i=0

Ai .

Dann folgt mit Hauptsatz 7.34

S k(1 − A) = 1 − Ak+1

↓ k → ∞ ↓ k → ∞S (1 − A) = 1

und analog (1 − A)S = 1 und damit S −1 = 1 − A.Zu 2): Nach Bemerkungen 7.40, 2) gilt:

‖(1 − A)−1‖ ≤∞∑

k=0

‖A‖k = 11 − ‖A‖ ,

unter Beachtung der geometrischen Reihe in R.Zu 3): Nach 1) ist 1 + A−1B invertierbar und damit auch

A(1 + A−1B) = A + B ,

so dass gilt

(A + B)−1 = (A(1 + A−1B))−1 = (1 + A−1B)−1A−1 =

∞∑n=0

(−1)n(A−1B)nA−1.

Die letzte Gleichheit folgt aus 1) und damit die Behauptung.Zu 4): Unter Verwendung von 3) und Bemerkungen 7.40, 2) gilt

9 Carl Gottfried Neumann ∗7. Mai 1832 in Königsberg †27. März 1925 in Leipzig

Page 36: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

728 7 Lineare Algebra und Analysis

‖(A + B)−1‖ =∥∥∥∥∥∥∥∞∑

n=0

(−1)n(A−1B)nA−1

∥∥∥∥∥∥∥ ≤∞∑

n=0

‖(A−1B)nA−1‖

≤∞∑

n=0

‖A−1B‖n‖A−1‖ = (1 − ‖A−1B‖)−1‖A−1‖

und unter der stärkeren Voraussetzung die analoge Aussage.�

Bemerkungen 7.38

1) Ist bei Theorem 7.37, 3) ‖A−1‖ ‖B‖ < 1 bezüglich einer submultiplikativen Norm ‖ . ‖,dann kann die Norm der Reihe abgeschätzt werden durch

∞∑n=2

(‖A−1‖ ‖B‖

)n ‖A−1‖ =⎛⎜⎜⎜⎜⎜⎝ ∞∑

n=1

(‖A−1‖ ‖B‖

)n ‖A−1‖2⎞⎟⎟⎟⎟⎟⎠ ‖B‖ = ( ‖A−1‖3‖B‖

1 − ‖A−1‖ ‖B‖)‖B‖ ,

so dass dieser letzte Summand in 3) ein Term g(B) ist, für den gilt

‖g(B)‖/‖B‖ → 0 für ‖B‖ → 0 .

Damit ist also die nichtlineare Abbildung

F : GL(Kn)→ GL(Kn), A �→ A−1 ,

die die Inverse der Matrix zuordnet, differenzierbar. Für A ∈ GL(Kn) ist die (Fréchet10-)Ableitung DF(A) ∈ L[GL(Kn), GL(Kn)] gegeben durch

B �→ −A−1B A−1 .

2) Theorem 7.37, 3) bzw. 4) zeigt, dass GL(Kn) offen ist in K(n,n) (bezüglich einer belie-bigen Norm). �Nach diesen Vorbereitungen können nicht nur Polynome von Matrizen, sondern auch Po-tenzreihen definiert werden (siehe Analysis).

Satz 7.39: Matrix-Potenzreihe

Sei f (z) =∑∞

n=0 anzn mit an ∈ K eine Potenzreihe mit Konvergenzradius R > 0.Sei A ∈ K(n,n) mit ρ(A) < R. Dann existiert

f (A) :=∞∑

n=0

anAn := limn→∞

n∑i=0

aiAi .

10 Maurice René Fréchet ∗2. September 1878 in Maligny †4. Juni 1973 in Paris

Page 37: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 729

Beweis: Sei ε > 0, so dass ρ(A) + ε < R. Sei ‖ . ‖ die erzeugte Norm auf K(n,n), nachTheorem 7.32, 2). Damit gilt für m > n∥∥∥∥∥∥∥

m∑i=n

aiAi

∥∥∥∥∥∥∥ ≤m∑

i=n

|ai| ‖Ai‖ ≤m∑

i=n

|ai| ‖A‖i ≤m∑

i=n

|ai|(ρ(A) + ε)i → 0 für m, n→ ∞ ,

da f in z = ρ(A) + ε absolut konvergiert. Damit ist die Partialsummenfolge zu f (A) eineCauchy-Folge, die wegen der Vollständigkeit von Kn konvergiert. �

Bemerkungen 7.40 Die Doppelbenutzung von n als Dimension des Tupelraums und alssymbolischer Laufindex der Reihen sollte (hoffentlich) nicht zu Verwechslungen führen.

Bei angemessener Vorsicht übertragen sich viele aus der reellen Analysis bekannte Eigen-schaften von Reihen:

Seien Ak ∈ K(m,n), k ∈ N0,

1) Falls∑∞

n=0 An konvergiert, dann ist (Ak)k eine Nullfolge, d. h. limh→∞ Ak = 0.

Ak =

k∑l=0

Al −k−1∑l=0

Al (7.17)

und beide Partialsummenfolgen haben den gleichen Grenzwert.

2) ∥∥∥∥∥∥∥∞∑

n=0

An

∥∥∥∥∥∥∥ ≤∞∑

n=0

‖An‖

und die Konvergenz der reellen Reihe rechts hat die Konvergenz von∑∞

n=0 An zur Folge(Übung).

3) Sei (Ak)i, j ≥ 0 für alle i = 1, . . . , m, j = 1, . . . , n, k ∈ N0, sei S k :=(∑k

l=0 Al

)i, j≤ (A)i, j

für eine A ∈ K(m,n) und alle i = 1, . . . , m, j = 1, . . . , n, dann konvergiert∑∞

n=0 An.Die Partialsummenfolge S k ist komponentenweise monoton wachsend und auch beschränkt, daher ist siekomponentenweise (und so in jeder Norm) konvergent.

�Aus der reellen Analysis (siehe z. B. Amann und Escher 1998, S. 217) überträgt sichsofort

Satz 7.41: Cauchy-Produkt

Seien f (z) =∑∞

n=0 anzn, g(z) =∑∞

n=0 bnzn mit an, bn ∈ K Potenzreihen mit Konver-genzradius R > 0.Sei A ∈ K(n,n) mit ρ(A) < R. Dann konvergiert in K(n,n) die Reihe

Page 38: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

730 7 Lineare Algebra und Analysis

C :=∞∑

n=0

n∑k=0

akAkbn−kBn−k das Cauchy-Produkt ,

und es ist

∞∑i=0

aiAi∞∑j=0

b jB j = C .

Theorem 7.42: exp(Matrix)

Sei A ∈ K(n,n), dann ist

exp(A) =∞∑

n=0

1n!

An

wohldefiniert und es gilt

1) exp(0) = 1.

2) Seien A, B ∈ K(n,n), so dass

A B = B A ,

dann gilt

exp(A + B) = exp(A) exp(B) .

3) exp(A) ist invertierbar und

exp(A)−1 = exp(−A) .

Beweis: Die Wohldefinition folgt aus Satz 7.39 und R = ∞ für die reelle Exponentialreihe.

1) ist offensichtlich und 3) eine Folge von 2).Zu 2): Wegen der Kommutativität gilt mit dem gleichen Beweis wie in R die binomischeFormel

(A + B)n =

n∑k=0

(nk

)An−kBk

und daher mit Satz 7.41:

Page 39: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 731

exp(A + B) =∞∑

n=0

1n!

(A + B)n =

∞∑n=0

1n!

n∑k=0

(nk

)An−kBk

=

∞∑n=0

1n!

n∑k=0

n!k!(n − k)!

An−kBk =

∞∑n=0

n∑k=0

1(n − k)!

An−k 1k!

Bk

=

∞∑i=0

1i!

Ai∞∑j=0

1j!

B j = exp(A) exp(B) .

Satz 7.43

Sei A ∈ K(n,n).

1) ρ(t) := exp(At) ist stetig auf R.

2) ρ ist differenzierbar und ρ′(t) = exp(At)A = A exp(At).

Beweis: Zu 1): Seien t0, Δt ∈ R.Wegen ρ(t0 + Δt) − ρ(t0) = exp(At0) exp(AΔt) − exp(At0) = exp(At0)(exp(AΔt) − 1) nachTheorem 7.42, 2) ist nur die Stetigkeit für t0 = 0 zu prüfen:

exp(AΔt) = 1 +

∞∑n=1

1n!

(Δt)nAn =: 1 + B(Δt)

und

‖B(Δt)‖ ≤∞∑

n=1

1n!

(Δt)n‖A‖n = exp(‖A‖Δt) − 1→ 0 für Δt → 0 .

Zu 2): Analog zu 1) ist wegen

1Δt

(ρ(t0 + Δt) − ρ(t0)) = exp(At0)1Δt

(exp(AΔt) − 1)

nur Differenzierbarkeit bei t0 = 0 zu prüfen und:

1Δt

(exp(AΔt) − 1) =1Δt

B(Δt) = A + Δt∞∑

n=2

1n!

(Δt)n−2An =: A + ΔtC(Δt)

und

‖C(Δt)‖ ≤∞∑

n=2

1n!

(Δt)n−2‖A‖n ≤ ‖A‖2 exp(‖A‖Δt) ,

Page 40: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

732 7 Lineare Algebra und Analysis

und somit folgt für Δt→ 0

ρ′(0) = A bzw. ρ′(t0) = exp(At0)A = A exp(At0) .

Beispiel 7.44 (Anfangswertaufgabe für gewöhnliche Differentialgleichungen)

1) Sei A ∈ K(n,n), y0 ∈ Kn und

y(t) := exp(A t)y0 , t ∈ R (7.18)

eine Abbildung von R nach Kn. Dann ist y differenzierbar und es gilt

y(t) = A exp(A t)y0 , t ∈ R(als Komposition einer differenzierbaren und einer linearen Abbildung), also ist (7.18)eine Lösung des homogenen linearen Systems gewöhnlicher Differentialgleichungen mitkonstanten Koeffizienten

y(t) = Ay(t) , t ∈ R . (7.19)

Sei ein Anfangswert y0 ∈ Kn gegeben.Aufgrund des Satzes von Picard-Lindelöf1112 (siehe Analysis) oder auch durch diedirekte Verifikation (siehe Bemerkungen 8.66, 7)) ist die Lösung der Anfangswertaufgabe

y(t) = Ay(t), t ∈ [t0, T ]y(t0) = y0

(7.20)

eindeutig (und existiert). Folglich ist

y(t) = exp(A(t − t0))y0

die eindeutige Lösung von (7.20).

2) Betrachte die Anfangswertaufgabe für das inhomogene lineare System gewöhnlicherDifferentialgleichungen zu A ∈ K(m,n), y0 ∈ Kn, f : [t0, T ]→ Kn (z. B.) stetig:Gesucht ist y : [t0, T ]→ Kn, so dass

y(t) = Ay(t) + f (t), t ∈ [t0, T ]y(t0) = y0 .

Die (eindeutige) Lösung wird durch die Variation der Konstanten-Formel gegeben:Sei Y(t) := exp(A(t − t0)), dann:

11 Charles Émile Picard ∗24. Juli 1856 in Paris †11. Dezember 1941 in Paris12 Ernst Leonard Lindelöf ∗7. März 1870 in Helsingfors †4. Juni 1946 in Helsinki

Page 41: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 733

y(t) = Y(t)y0 +∫ t

t0Y(t − s) f (s)ds .

Dabei ist das Integral komponentenweise definiert.

3) Man betrachte lineare Systeme gewöhnlicher Differentialgleichungen mit variablenKoeffizienten: Sei A : [t0, T ] → K(n,n) (z. B.) stetig, f : [t0, T ] → Kn (z. B.) stetig,y0 ∈ Kn, dann lautet die (inhomogene) Anfangswertaufgabe:Gesucht y : [t0, T ]→ Kn, so dass

y(t) = A(t)y(t) + f (t), t ∈ [t0, T ]y(t0) = y0 .

Hier lässt sich eine „explizite“ Lösung nicht allgemein angeben, aber viele „strukturel-le“ Eigenschaften der Lösungen sind gleich und werden in Abschnitt 8.6 untersucht. Mankann auch weitere und höhere Ableitungen betrachten, d. h. z. B. für m ∈ N

y(m)(t) =m−1∑i=0

A(i)(t)y(i)(t) + f (t) (7.21)

mit matrix-wertigen Funktionen A(i) und y(i) zur Bezeichnung der i-ten (komponentenwei-sen) Ableitung. Durch die Einführung von y, . . . , y(m−1) als weiteren Unbekannten kann(7.21) auf ein System 1. Ordnung (aber im Knm) zurückgeführt werden. Für eine allge-meine Theorie sind also (lineare) Gleichungen höherer Ordnung „nicht nötig“. Es ist aberpraktisch, mindestens den oft auftretenden skalaren Fall direkt zu behandeln:Gesucht ist y : [t0, T ]→ K, so dass

y(m)(t) =m−1∑i=0

a(i)(t)y(i)(t) + f (t) . (7.22)

Dies lässt sich als ein System 1. Ordnung schreiben für

y(t) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝y(t)y(t)...

y(m−1)(t)

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ = (yi)i ∈ Km .

Wegen yi = yi+1 für i = 1, . . . , m − 1 und

ym =

m−1∑i=0

a(i)yi+1 + f

ist

Page 42: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

734 7 Lineare Algebra und Analysis

(7.22) äquivalent zu

y(t) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 1 0 · · · 0

.... . .

. . .

0 0 1

a(0)(t) · · · · · · · · · a(m−1)(t)

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

y(t) +

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0

...

0

f (t)

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

=: A(t)y(t) + f (t) . (7.23)

Die Matrix(funktion) A(t) heißt die Begleitmatrix von (7.22). Sie ist schon in (4.5) ein-geführt worden und tritt auch in (4.35) bei der Umschreibung einer Differenzengleichungm-ter Ordnung in einem Differenzensystem 1. Ordnung auf.

4) Schon für konstante Koeffizienten kommt es darauf an, exp(At) wirklich zu „berech-nen“. Hierbei gilt:

a) exp(diag(λi)) = diag(exp(λi)) für λi ∈ K bzw. allgemein:

Sei A eine Blockdiagonalmatrix, bestehend aus den Blöcken Bi, i = 1, . . . , k, dann

exp(A) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝exp(B1)

. . .

exp(Bk)

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ . (7.24)

Wegen An = diag(Bn1, . . . , Bn

k) und einer analogen Darstellung für die Partialsummen folgt auch die be-hauptete Grenzwertbeziehung, da Matrixkonvergenz komponentenweise aufgefasst werden kann.

b)

Ist A′ = C−1A C eine Ähnlichkeitstransformation von A, dann

exp(A′) = C−1exp(A)C .

Es ist nämlich

C−1AnC = (C−1A C)n

für alle n ∈ N, so dass für die jeweiligen Partialsummen gilt:

Page 43: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 735

n∑i=0

1i!

(A′)i = C−1

⎛⎜⎜⎜⎜⎜⎝ n∑i=0

1i!

Ai

⎞⎟⎟⎟⎟⎟⎠C

und damit das gleiche für die Grenzwerte, da

B �→ C−1B C eine stetige Abbildung auf K(n,n) ist.

Ist also im Fall „diagonalisierbar in K“ C = (u1, . . . , un), wobei ui Eigenvektor zu denEigenwerten λi ∈ K ist und damit A′ = diag(λi), so folgt

exp(A(t − t0)) = C diag(exp(λi(t − t0)))C−1

und somit ist mit der Lösung

y(t) = exp(A(t − t0))y0 =

n∑i=1

αi exp(λi(t − t0))ui , (7.25)

wobei α := C−1y0,

die Darstellung (4.86) wiederentdeckt worden.Ist A ∈ R(n,n) zwar diagonalisierbar in C, aber nicht in R, so gibt es eine reelle Blockdia-gonalform als Spezialfall von Theorem 4.55 oder Theorem 4.118 (siehe Aufgabe 4.14),d. h. es gibt eine invertierbare Matrix C ∈ R(n,n) (aus Real- und Imaginärteilen von Eigen-vektoren als Spalten), so dass

A = CDC−1

und D eine Blockdiagonalmatrix, entweder mit (1,1) Diagonalblöcken, die genau den re-ellen Eigenwerten entsprechen, oder mit (2,2) Blöcken der Form (4.29), die genau denkomplex-konjugierten Eigenwerten entsprechen.Zur Berechnung von exp(D(t − t0)) reicht nach 1) die Bestimmung von exp(Bt), wobeit := t − t0.

Dies ergibt für B =(

μ ν−ν μ

)∈ R(2,2)

exp(Bt) = exp(μt)(cos(νt) − sin(νt)sin(νt) cos(νt)

). (7.26)

Es ist (μ ν−ν μ

)=

(μ 00 μ

)+

(0 ν−ν 0

)und die beiden Summanden sind multiplikativ kommutativ. Nach Theorem 7.42, 2) und 1) gilt also

Page 44: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

736 7 Lineare Algebra und Analysis

exp(Bt) = exp(μt) exp((

0 νt−νt 0

)).

Sei A :=(

0 ν−ν 0

), dann kann man sofort mittels vollständiger Induktion zeigen:

A2m = (−1)mν2m1, A2m+1 = (−1)mν2mA für m ∈ N ,

und damit

S 2m :=2m∑k=0

1k!

(0 νt−νt 0

)k

=

(am bm−bm am

)mit

am =

m∑l=0

(−1)l (νt)2l

(2l)!, bm =

m−1∑l=0

(−1)l (νt)2l+1

(2l + 1)!.

Also: S 2m →(

a b−b a

)mit a = cos(νt), b = sin(νt) und damit gilt (7.26).

Hiermit ergibt sich die Lösungsdarstellung für die Anfangswertaufgabe

y(t) = exp(At)y0 =∑k

i=1 αi exp(λit)ui ++

∑li=1 exp(μit)

(βi

(cos(νit)ui − sin(νit)wi

)+ γi

(cos(νit)wi + sin(νi t)ui

)) (7.27)

und (α1, . . . , αk, β1, γ1, . . . , βl, γl) = C−1y0 .

Die exponentiell wachsenden oder fallenden Lösungskomponenten aus (7.25) werden alsovon Schwingungen überlagert.Im allgemeinen Fall mit paarweise verschiedenen Eigenwerten λ1, . . . , λk ∈ K kann analogzu Beispiel 4.117 C als eine Basis aus Hauptvektoren gewählt werden und die Ähnlich-keitstransformation ergibt

J = D + N ,

wobei D eine Diagonalmatrix mit den Diagonaleinträgen λi gemäß ihrer algebraischenVielfachheit und N eine Blockdiagonalmatrix aus Jordan-Blöcken Nj zum Eigenwert0 ist. Da D und N nach Theorem 4.114 kommutieren, folgt aus Theorem 7.42, 2) mitt := t − t0

exp(Jt) = exp(Dt) exp(Nt) . (7.28)

Nach a) ist

exp(Nt) = diag(exp(Njt) ,

so dass also eine Blockdiagonalmatrix entsteht, für deren Blöcke exp(Njt) mit einem festenexp(λit) zu multiplizieren ist. Sei Nj zu einer Kette der Länge ki, j gehörig, die also von

Page 45: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 737

einem Hauptvektor der Stufe ki, j ausgeht, d. h. Nj habe Dimension ki, j, dann

exp(Njt) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 t . . . tki, j−1

(ki. j−1)!. . .

. . ....

. . . t1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠. (7.29)

Daraus lassen sich die Darstellungen (4.89) bzw. (4.87) wiedergewinnen.Ist schließlich A ∈ R(n,n), hat aber komplexe Eigenwerte, kann auf Theorem 4.114 zurück-gegriffen werden und exp(λt) ist analog zu (7.26) zu ersetzen.

5) Man betrachte eine skalare Gleichung m-ter Ordnung nach (7.22) mit konstanten Ko-effizienten. Die Begleitmatrix wurde schon in 3) entwickelt. Die Eigenwerte der Begleit-matrix sind nach Bemerkung 4.27 gerade die Nullstellen der charakteristischen Gleichung

λm −m−i∑i=0

a(i)λi = 0 .

Genau dann wenn in K m paarweise verschiedene Nullstellen existieren, kann dann alsodirekt ein Lösungsansatz mit der Basislösung

exp(λ(t − t0))

gemacht werden.

◦Bemerkung 7.45

Es gilt für A ∈ K(n,n)

det(exp(A)) = exp(sp(A)) .

Insbesondere: det(exp(A) = 1 genau dann, wenn sp(A) = 0.Für eine Diagonalmatrix D = diag(λi) folgt die Behauptung wegen

det(exp(D)) = det(diag(eλi )) =n∏

i=1

eλi = exp

⎛⎜⎜⎜⎜⎜⎝ n∑i=1

λi

⎞⎟⎟⎟⎟⎟⎠ = exp(sp(D)) .

Sei A = CJC−1 eine Darstellung in Jordan-Normalform und

J = D + N

die Jordan-Zerlegung. Dann gilt nach (7.29)

Page 46: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

738 7 Lineare Algebra und Analysis

exp(J) = exp(D)

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 ∗

. . .

0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠und damit

det(exp(J)) = det(exp(D)) det

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 ∗

. . .

0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ = exp(sp(D)) = exp(sp(J)) .

Da nach Satz 4.30 det und sp invariant unter Ähnlichkeitstransformationen sind, gilt die Aussage alsoallgemein.

Bei einer Anfangsaufgabe (7.20) wird also bei sp(A) = 0 das Volumen erhalten (genauersiehe (8.109)ff). �Beispiel 7.46 (Geometrie) In Beispiele 4.70 sind die räumlichen Drehungen D(ϕ, a) un-tersucht worden. Sei im Folgenden die Drehachse a ∈ R3, ‖a‖2 = 1, fest gewählt. Durch

G(a) := {D(ϕ, a) : ϕ ∈ [0, 2π)} ,d. h. die Drehgruppe in R3 zur festen Drehachse a wird eine Untergruppe von SO(3,R)definiert. Ein J ∈ R(3,3) heißt Erzeugende von G(a), wenn gilt

D(ϕ, a) = exp(ϕJ) für ϕ ∈ [0, 2π) .

Dann gilt:

1) D(ϕ, a) ist nach ϕ differenzierbar und

ddϕ

D(ϕ, a)|ϕ=0 = J ,

d. h. J beschreibt die Drehung um einen „infinitesimalen“ Winkel.Aus Satz 7.43, 2) folgt

ddϕ

D(ϕ, a) =d

dϕexp(ϕJ) = J exp(ϕJ)

und damit die Behauptung.

2) Sei J Erzeugende einer Drehgruppe, so ist J schiefsymmetrisch, d. h. insbesonderesp(J) = 0.

J = limϕ→0

(D(ϕ, a) − 1) und daher

Jt = limϕ→0

(D(ϕ, a)t − 1) = limϕ→0

(D(−ϕ, a) − 1) = −J ,

da A �→ At als lineare Abbildung stetig ist.

3) Für die Drehungen um die z-Achse ist

Page 47: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 739

Jz =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ 0 −1 01 0 00 0 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠eine Erzeugende und analog für die Drehungen um die x- und y-Achse

Jx =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝0 0 00 0 −10 1 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ , Jy =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ 0 0 10 0 0−1 0 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

Jx, Jy, Jz sind linear unabhängig und bilden eine Basis des Unterraums der schiefsymme-trischen Matrizen von R(3,3).

exp(ϕJz) =(

exp(

0 −ϕϕ 0

)exp(0)

)nach Beispiel 7.44, 4a) (7.24) und so nach (7.26)

exp(ϕJz) =

⎛⎜⎜⎜⎜⎜⎜⎜⎝ cos(ϕ) − sin(ϕ) 0sin(ϕ) cos(ϕ) 0

0 0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎠ .

4) Sei S ∈ SO(3,R), dann lässt sich S schreiben als

S = exp(ϕJ), wobei J =3∑

i=1

(a × ei) ⊗ ei .

Wie im Beweis von Beispiele 4.70, 2) (Notation wie dort) ist mit 2)

S = AD(ϕ, e3)A−1 = A exp(ϕJz)A−1 = exp(ϕAJzA−1) .

Die Berechnung von AJzA−1 entspricht der von AD(ϕ, e3)A−1, wenn in D(ϕ, e3) der Eigenwert 1 durch 0ersetzt und ϕ = π

2 gesetzt wird. Damit ergibt sich aus (4.50) die Behauptung.

◦Beispiel 3(9) – Massenkette In (MM.74) wird zur Beschreibung des dynamischen Verhaltens eine An-fangswertaufgabe für eine gewöhnliche Differentialgleichung 2. Ordnung formuliert. In Verallgemeine-rung davon soll im Folgenden die Anfangswertaufgabe

Gesucht ist x : [t0,∞)→ Rm, so dassM x + Ax = 0 auf [t0,∞)

und x(t0) = x0, x0(t0) = x′0(MM.96)

für vorgegebene x0, x′0 ∈ Rm betrachtet werden.Dabei entspricht M konkret einer Diagonalmatrix M = diag(mi) mit Einzelmassen mi > 0 als Diagonal-

elementen, A ist (bei beidseitiger Einspannung) eine Matrix vom Typ (MM.11) bzw. (bei einseitiger Ein-spannung) vom Typ (MM.12). Man spricht auch von der diskreten Wellengleichung (siehe Abschnitt 8.6.4)Wegen (1.87) bzw. (MM.52) bzw. (MM.82) ist es also sinnvoll vorerst allgemein vorauszusetzen:

M ist positiv definit, A positiv semidefinit

Page 48: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

740 7 Lineare Algebra und Analysis

(MM.96) lässt sich analog zu (7.23) als ein System 1. Ordnung schreiben für

y(t) :=(

x(t)x(t)

)∈ R2m ,

nämlich

y(t) = By(t), t ≥ t0, y(t0) = y0 :=(

x0

x′0

)(MM.97)

mit

B :=(

0 1

−M−1A 0

)∈ R(2m,2m) . (MM.98)

Dabei ist nach Bemerkungen 4.137, 3) M−1A diagonalisierbar und hat nicht negative Eigenwerte. Über dieKonsequenz für B gibt der folgende Satz Auskunft:

Satz 7.47

Sei A ∈ K(n,n) und

B :=(

0 1

A 0

)∈ K(2n,2n) .

1) Dann gilt für die charakteristischen Polynome:

PB(λ) = PA(λ2) für λ ∈ C, d. h.

hat A die paarweise verschiedenen Eigenwerte λ1, . . . , λk ∈ C, so hat B die 2. Einheitswurzeln±√λ1 , . . . ,±

√λk ∈ C als Eigenwerte.

2) Ist A diagonalisierbar und invertierbar, so auch B. Ist Wi der Eigenraum von A zu λi und

Wi :={(ui0

),

(0ui

): ui ∈ Wi

}, dann U+i ⊕ U−i = Wi ,

wobei U±i die Eigenräume von B zu ±√λi sind.

Beweis: Zu 1)

pB(λ) = det(−λ1 1

A −λ1)= det(λ21 − A) = pA(λ2)

nach Aufgabe 2.36.

Zu 2) Sei C = (u1, . . . , un), wobei die ui eine Eigenvektorbasis zu den Eigenwerten λ1 , . . . , λn ∈ C von Abilden, also

C−1AC = diag(λi) ,

dann gilt mit

E :=(

C 00 C

)F :=E−1BE =

(0 1

D 0

)bzw. BE =EF, also (MM.99)

Page 49: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 741

B(ui0

)= λi

(0

ui

), B

(0

ui

)=

(ui0

)für i = 1, . . . , n ,

d. h. Ui := span((ui0

),

(0

ui

))sind zweidimensionale B-invariante Unterräume. B|Ui hat die Darstellungs-

matrix in der angegebenen Basis (0 1λi 0

)und damit die Eigenwerte ±√λi. Da λi � 0, hat B|Ui zwei verschiedene Eigenwerte, ist also diagonalisier-bar und damit B. B ist invertierbar, da alle Eigenwerte von Null verschieden sind. Es ist

n∑i=1

dim U+i + dim U−i = 2n . (MM.100)

Es folgt wegen

B2(ui0

)= λiB

(0ui

)= λi

(ui0

)und wegen der analogen Aussage für (0, uti)

t

Wi ⊂ Vi .

Dabei ist Vi der Eigenraum von B2 zu λi und

n∑i=1

dim Wi = 2n∑

i=1

dim Wi = 2n. (MM.101)

Sei x±i ∈ U±i , dann gilt auch

B2x±i = λi x±i ,

also U+i ⊕ U−i ⊂ Vi. Wegen (MM.100) und (MM.101) muss die Gleichheit Wi = Vi = U+1 ⊕ U+2 gelten.�

Bemerkung 7.48 Wird auch der Eigenwert λ = 0 zugelassen, so muss die Aussage in 2) folgendermaßenmodifiziert werden:B hat λ = 0 als doppelten Eigenwert und B|Ui hat eine Kettenbasis der Länge 2. Damit folgt für λi = 0:

Wi = Ui �Damit lässt sich also die Lösung von (MM.96) angeben.

Sei A positiv definit. Seien λ1, . . . , λm die Eigenwerte von M−1A, d. h. −M−1A ist diagonalisierbar undhat die negativen Eigenwerte −λ j. B nach (MM.98) ist also nach Satz 7.47 diagonalisierbar und hat dieEigenwerte ±√

λ j, j = 1, . . . , m. Nach (7.27) gilt also mit t := t − t0:

y(t) =m∑

i=1

β+i cos( √

λi t)

x+i + β−i cos(−√

λi t)

x−i ,

wobei C := (x+1 , x−1 , . . . , x+m, x−m) eine Eigenvektorbasis von B zu den Eigenwerten ±√λi darstellt und(β+1 , β

−1 , . . . , β

+m, β−m

)= C−1y0 .

Page 50: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

742 7 Lineare Algebra und Analysis

Nach Satz 7.47, 2) gibt es also Koeffizienten δ±i , so dass

x(t) =n∑

i=1

(δ+i cos

( √λit

)+ δ−i cos

(−√

λit))ui , (MM.102)

wobei ui, i = 1, . . . , m eine Eigenvektorbasis von M−1A zu den Eigenwerten λi ist.Wie zu erwarten, besteht die Lösung also aus einer Überlagerung ungedämpfter Schwingungen. Ist

speziell M = m1 = 1 (durch Skalierung) und A durch (MM.11) gegeben, so sind λi und ui nach (MM.81)explizit bekannt.

Sei A nur positiv semidefinit.Für jeden Eigenvektor ui von A zu λ = 0 kommen also in (MM.102) noch die Summanden(

δ+i + tδ−i)ui

dazu. �

Kriechfallungedämpfte Schwingunggedämpfte Schwingungaperiodischer Grenzfall

Abb. 7.1: Der elektrische Schwingkreis: Kriechfall, ungedämpfte Schwingung, gedämpfteSchwingung, aperiodischer Grenzfall.

Beispiel 2(6) – Elektrisches Netzwerk Hier soll die allgemeine Lösung für den Einschwingvorgang deselektrischen Schwingkreises (Abbildung 2.9) entwickelt werden. Nach (7.23), Bemerkung 4.27 ist nachden Nullstellen von

p(λ) = λ2 + 2aλ + b

mit a = R2L , b = 1

LC , d. h. nach

Page 51: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.2 Normierte Algebren 743

λ1,2 = −a ±√

a2 − b

zu unterscheiden: Sei t := t − t0.Fall 1: b < a2: Beide Nullstellen sind reell und negativ, d. h. die allgemeine Lösung ist für α, β ∈ R:

y(t) = α exp(λ1t) + β exp(λ2t) .

Fall 2: b > a2: Beide Nullstellen sind komplex:

λ1,2 = −a ± iω, ω :=√

b − a2 : y(t) = exp(−at)(α cos(ωt) + β sin(ωt)) .

Fall 3: b = a2 hat die doppelte Nullstelle λ = −a:

y(t) = exp(−at)(α + βt) .

Da b � a2 genau dann wenn R2C4L � 1, ist Fall 1 der Fall dominierender Dämpfung, in dem die Lösung

sich dem stationären Zustand y = 0 exponentiell annähert (Kriechfall ). In Fall 2 liegt eine Schwingungvor, die für a = 0 (R = 0) ungedämpft und für a > 0 gedämpft ist und sich der Ruhelage nähert. Dazwi-schen, im (Grenz-)Fall 3, haben wir den Übergang aus einer Schwingung in den Kriechfall (aperiodischerGrenzfall ). �

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe

• verträgliche Operatornorm• erzeugte Operatornorm (Theorem 7.23)• submultiplikative Norm (Algebrennorm)• Spektralradius• f (A) für Potenzreihen f und Matrix A• Neumannsche Reihe (Theorem 7.37)

Zusammenhänge

• Spektralradius und erzeugte Norm (Theorem 7.32)• Ak → 0⇔ ρ(A) < 1 (Hauptsatz 7.34)• ρ(A) < Konvergenzradius von Potenzreihe f ⇒ f (A) existiert (Satz 7.39)• exp(At) ist für alle A ∈ K(n,n), t ∈ R, definiert und erfüllt Y′ = AY (Theorem 7.42,

Satz 7.43)• GL(Kn) ist offen in K(n,n) und A �→ A−1 ist differenzierbar auf GL(Kn) (Theo-

rem 7.37)

Beispiele

• Zeilensummennorm (Theorem 7.30)• Spaltensummennorm (Theorem 7.30)• Spektralnorm (Theorem 7.30)

Page 52: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

744 7 Lineare Algebra und Analysis

Aufgaben

Aufgabe 7.6 (T) Sei V ein n-dimensionaler K-Vektorraum. Zeigen Sie, dass für n > 1die Frobenius-Norm eine submultiplikative Norm auf L[V, V] ist, aber keine erzeugteNorm.

Aufgabe 7.7 (T) Die Gesamtnorm ‖ · ‖G einer Matrix A ∈ K(n,n) sei definiert durch

‖A‖G := n max1≤i, j≤n

|ai j| .

Zeigen Sie, dass die Gesamtnorm ‖ · ‖G zur Maximumsnorm ‖ · ‖∞ und zur 1-Norm ‖ · ‖1verträglich ist.

Aufgabe 7.8 (T) Sei ‖ · ‖ eine submultiplikative Norm auf K(n,n) und A ∈ K(n,n). ZeigenSie, dass die folgenden Aussagen äquivalent sind:

(i) ρ(A) = ‖A‖ .

(ii) Es gilt ‖Ak‖ = ‖A‖k für alle k = 1, 2, . . .

Aufgabe 7.9 Sei ‖ . ‖ eine Norm auf K(n,n), die nicht notwendigerweise erzeugt ist. ZeigenSie, dass es eine Konstante C > 0 gibt, so dass gilt:

‖AB‖ ≤ C‖A‖ ‖B‖ für alle A, B ∈ K(n,n) .

Aufgabe 7.10 (K) Zeigen Sie, dass für

A =(2 00 3

)und B =

(0 10 0

)gilt:

AB � BA und exp(A + B) � exp(A) exp(B) .

Aufgabe 7.11 (K) Betrachtet wird die Matrix

A =(a + 1 1−1 a − 1

)mit a � 0 .

a) Zeigen Sie mit dem Satz von Cayley-Hamilton und vollständiger Induktion,dass gilt:

Ak = ak−1(kA − a(k − 1)1) , k ≥ 1 .

b) Lösen Sie die Anfangswertaufgabe

y(t) = Ay(t) , t ∈ R , y(t0) =(

1−1

).

Page 53: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

Aufgaben 745

Aufgabe 7.12 Seien A, B ∈ K(n,n) und es gelte A = exp(B). Zeigen Sie:

A ist unitär ⇔ B ist schief-hermitesch .

Aufgabe 7.13 (T) Leiten Sie mittels (7.29) eine Lösungsdarstellung her für die Anfangs-wertaufgabe (7.20) bei allgemeinem A ∈ K(n,n) mit Eigenwerten in K.

Aufgabe 7.14 (T) Leiten Sie mittels (7.26) und (7.29) eine reelle Lösungsdarstellung herfür die Anfangswertaufgabe (7.20) für allgmeines A ∈ R(n,n) .

Aufgabe 7.15 (T)

a) Zeigen Sie, dass für x ∈ Kn gilt: ‖x‖2 ≤ ‖x‖1 ≤ √n‖x‖2.b) Zeigen Sie, dass die Normen

‖u‖∞ := maxx∈[0,1]

|u(x)| und ‖u‖1 :=∫ 1

0|u(x)| dx

im Raum V = C([0, 1],K) der stetigen Funktionen auf dem Intervall [0, 1] nichtäquivalent sind.

Page 54: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

746 7 Lineare Algebra und Analysis

7.3 Hilbert-Räume

7.3.1 DerRieszsche Darstellungssatz und der adjungierte Operator

Manche Ergebnisse der vorherigen Kapitel setzen die Endlichdimensionalität des Vektor-raums voraus, wie etwa bei der orthogonalen Projektion. Hier werden wir untersuchen,inwieweit im speziellen Fall einer von einem inneren Produkt erzeugten Norm und derVollständigkeit des Raums, d. h. eines Hilbert-Raums, auf die Endlichdimensionalitätverzichtet werden kann.

Euklidischem bzw. unitäre Räume erfüllen nach (1.62) die Parallelogrammgleichung.Tatsächlich charakterisiert diese das Vorliegen eines inneren Produkts:

Satz 7.49: inneres Produkt = Parallelogrammgleichung

Sei (V, ‖ . ‖) ein normierter K-Vektorraum. Bei Gültigkeit der Parallelogrammglei-chung

‖x + y‖2 + ‖x − y‖2 = 2(‖x‖2 + ‖y‖2

)für alle x, y ∈ V

gibt es ein inneres Produkt 〈 . 〉, das ‖ . ‖ erzeugt.

Beweis: K = R: Sei

〈x . y〉 :=14

(‖x + y‖2 − ‖x − y‖2

), (7.30)

wie durch die Polarisationsformel (3.23) nahegelegt. Definitheit und Symmetrie folgendirekt. Um die Linearität in der ersten Komponente zu zeigen, gehe man aus von

〈x . z〉 + 〈y . z〉 = 14

(‖x + z‖2 − ‖x − z‖2 + ‖y + z‖2 − ‖y − z‖2

)(1.62)=

18

(‖x + y + 2z‖2 + ‖x − y‖2 − ‖x + y − 2z‖2 − ‖x − y‖2

)=

12

(∥∥∥∥∥12

(x + y) + z∥∥∥∥∥2

+

∥∥∥∥∥12

(x + y) − z∥∥∥∥∥2)

= 2⟨

12

(x + y) . z⟩

. (7.31)

Für y = 0 folgt daraus

〈x . z〉 = 2⟨

12

x . z⟩

und daraus für x + y statt x

Page 55: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.3 Hilbert-Räume 747

〈x + y . z〉 = 2⟨

12

(x + y) . z⟩

,

also mit (7.31) die Verträglichkeit mit der Addition. Damit gilt auch

〈nx . y〉 = n 〈x . y〉 für n ∈ N (7.32)

und somit (7.32) auch für q ∈ Q; denn sei q = nm , n, m ∈ N, dann

m2⟨ n

mx . y

⟩= 〈n m x . y〉 = n m 〈x . y〉

und 〈−x . y〉 = − 〈x . y〉, da 〈x . y〉 + 〈−x . y〉 = 0 nach (7.31). Da ‖ . ‖ nach Satz 7.6 einestetige Abbildung ist und damit auch 〈 . 〉 nach (7.30), folgt wegen der Dichtheit von Q inR:

〈λx . y〉 = λ 〈x . y〉 für alle x, y ∈ V, λ ∈ R .

K = C: Insbesondere ist V auch ein normierter R-Vektorraum (VR, ‖ . ‖), so dass also einSkalarprodukt ( . ) auf (VR, ‖ . ‖) existiert, das die Norm induziert. Es bleibt zu zeigen,dass auch auf dem C-Vektorraum V ein inneres Produkt existiert, das ebenfalls die Norminduziert. (3.20) legt die Definition

〈x . y〉 :=12

((x . y) + i (x . iy)) (7.33)

nahe. 〈 . 〉 ist Hermite-symmetrisch, weil

2〈y . x〉 = (y . x) − i (ix . y) = (x . y) − i (ix . y) = (x . y) + i (x . iy) = 2 〈x . y〉 ,da gilt

(ix . y) = − (x . iy) , (7.34)

denn

(ix . y) =14

(‖ix + y‖2 − ‖ix − y‖2

)=

14

(‖x − iy‖2 − ‖x + iy‖2

)= − (x . iy) .

Weiter ist 〈 . 〉mit + und der Multiplikation mit reellen Skalaren in der ersten Komponenteverträglich, da dies auf ( . ) zutrifft. Es fehlt also nun die Verträglichkeit mit der Multipli-kation mit i, d. h.

〈ix . y〉 = i 〈x . y〉 ,

was mit (7.34) gilt wegen

〈ix . y〉 = 12((ix . y) + i (ix . iy)

), i 〈x . y〉 = 1

2(− (x . iy) + i (x . y)

).

Page 56: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

748 7 Lineare Algebra und Analysis

Schließlich gilt:

〈x . x〉 = 12((x . x) − i (ix . x)

)=

12((x . x) + (x . x)

)= ‖x‖2 .

Hauptsatz 7.50: Orthogonale Projektion

Sei (V, 〈 . 〉) ein K-Hilbert-Raum, ‖ . ‖ die erzeugte Norm, K ⊂ V abgeschlossenund konvex. Dann existiert zu jedem x ∈ V eindeutig ein u ∈ K, so dass für dasFehlerfunktional

ϕ(u) := ‖x − u‖gilt:

ϕ(u) = min{ϕ(u) : u ∈ K} .PK(x) := u heißt die orthogonale Projektion von x auf K. Für alle u ∈ K gilt:

u = PK(x)⇔ Re 〈x − u . u − u〉 ≤ 0 für alle u ∈ K . (7.35)

Eine solche Bedingung nennt man Variationsungleichung.

Beweis: d(x, K) := inf{ϕ(u) : u ∈ K} ≥ 0 ist wohldefiniert, also existiert eine Folge un inK, so dass

‖x − un‖ → d(x, K) für n→ ∞.

Ein solches (un) heißt Minimalfolge. Aufgrund der Parallelogrammgleichung (1.62) ist

‖um − un‖2 = ‖(x − un) − (x − um)‖2= 2(‖x − un‖2 + ‖x − um‖2) − ‖(x − un) + (x − um)‖2

= 2(‖x − un‖2 + ‖x − um‖2) − 4‖x − 12

(un + um)‖2 .

Da wegen der Konvexität von K 12 (un + um) ∈ K gilt, folgt

‖um − un‖2 ≤ 2(‖x − un‖2 + ‖x − um‖2 − 2d(x, K)2

)→ 0 für n, m→ ∞,

so dass (un)n eine Cauchy-Folge in K ist. Wegen der Vollständigkeit existiert

u := limn→∞ un

und wegen der Abgeschlossenheit von K ist u ∈ K. Aus der Stetigkeit der Norm folgt

Page 57: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.3 Hilbert-Räume 749

‖x − un‖ → ‖x − u‖ für n→ ∞ , also ‖x − u‖ = d(x, K) ,

und damit ist u eine Lösung der Minimierungsaufgabe.Ist u eine weitere Lösung, so folgt wie oben aus der Parallelogrammgleichung

‖u − u‖2 ≤ 2(‖x − u‖2 + ‖x − u‖2 − 2d(x, K)2

)= 0 .

Somit ist PK(x) := u wohldefiniert. Sei u ∈ K, dann (1 − ε)PK(x) + εu ∈ K für 0 ≤ ε ≤ 1,also

‖x − PK(x)‖2 ≤ ‖x − (1 − ε)PK(x) − εu‖2= ‖x − PK(x)‖2 − 2 ε Re 〈x − PK(x) . u − PK(x)〉 + ε2r

für ein r ≥ 0. Also für ε→ 0

Re 〈x − PK(x) . u − PK(x)〉 ≤ 0 .

Gilt andererseits diese Bedingung für ein PK(x), dann gilt für beliebiges u ∈ K

‖x − u‖2 = ‖x − PK(x) + PK(x) − u‖2= ‖x − PK(x)||2 + 2 Re 〈x − PK(x) . PK(x) − u〉 + ‖PK(x) − u‖2≥ ‖x − PK(x)‖2 ,

folglich ist PK(x) die orthogonale Projektion. �

Bemerkungen 7.51

1) Ein affiner Unterraum ist offensichtlich konvex. Nach Satz 7.16 ist er abgeschlossen,wenn er vollständig ist, d. h. insbesondere wenn er endlichdimensional ist. Sei K ein affinerUnterraum, K = w + U mit einem Unterraum U, dann ist die Charakterisierung (vgl.Hauptsatz 1.102, Bemerkungen 1.106, 2))

〈x − PK(x) . u〉 = 0 für alle u ∈ U , (7.36)

PK : V → V ist dann affin-linear.Die Affin-Linearität von PK folgt sofort aus

〈αx + (1 − α)y − αPK (x) − (1 − α)PK (y) . u〉 = 0 und αPK(x) + (1 − α)PK (y) ∈ K

für x, y ∈ V, α ∈ [0, 1].

2) Ist also U ein abgeschlossener Unterraum in einem auch unendlichdimensionalen K-Hilbert-Raum V, dann ist PU wohldefiniert und es gilt

V = U ⊕ U⊥ .

PU⊥ ist wohldefiniert und

Page 58: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

750 7 Lineare Algebra und Analysis

PU⊥ (u) = u − PU(u) ,

(U⊥)⊥ = U .

Man vergleiche den Beweis von Satz 1.105. Die dortigen Beweise lassen sich übertragen, auch ist U⊥immer abgeschlossen.

Hauptsatz 7.50 erweitert also Hauptsatz 1.102 auf unendlichdimensionale, aber abge-schlossene und konvexe Projektionsmengen in Hilbert-Räumen.

3) Die Charakterisierung von PK(x) durch (7.35) gilt allgemein für jede konvexe Teilmen-ge U eines euklidischen bzw. unitären K-Vektorraums.Sei K ein Kegel über M mit Spitze a, K = conea(M), wobei M ⊂ V konvex ist. Dann istdie Charakterisierung von PK(x) äquivalent mit

Re 〈x − u . u〉 = 0 wobei u = u + aRe 〈x − u . u〉 ≤ 0 für alle u ∈ cone0(M − a) .

(7.37)

Das kann man folgendermaßen einsehen: Nach Satz 6.45 ist conv(conea(M)) = conea(conv(M)) =conea(M) und damit ist K konvex. Weiter gilt

K = a + cone0(M) , wobei M := M − a ,

das ebenfalls konvex ist. Für u = a ∈ K folgt Re 〈x − u . u〉 ≥ 0. Für u = a + 2u ∈ K ist Re 〈x − u . u〉 ≤ 0,d. h. die erste Behauptung. Für die zweite Ungleichung wähle man zu u ∈ cone0(M) u := u + u ∈ K.Die Rückrichtung ist offensichtlich.

4) Für beliebige Normen existiert die orthogonale Projektion i. Allg. nicht.

5) Geometrisch bedeutet die Charakterisierung, dass der Winkel zwischen −→ux und −→uv fürbeliebige u ∈ K im Fall u = PK(x) stumpf (≥ π/2) sein muss, mit = π

2 im Fall einesaffin-linearen K (vgl. Abbildung 7.2).

K u

uα ≥ π

2

x

.π2

x

u

u

K

Abb. 7.2: Orthogonale Projektion auf allgemeines, konvexes K und affin-lineares K.

Page 59: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.3 Hilbert-Räume 751

6) Ist ‖ . ‖ nicht von einem inneren Produkt erzeugt, wie z. B. ‖ . ‖∞ auf R2, dann hat z. B.(3, 0) für K = {(x, y) : ‖(x, y)‖∞ ≤ 1} von allen (1, y) ∈ K mit |y| ≤ 1, den gleichen Abstand2 (siehe Abbildung 7.3).

1

-1

-1 1 2 3

K

Abb. 7.3: Orthogonalprojektion von (3, 0) bezüglich ‖ . ‖∞ auf K.

*Bemerkungen 7.52 Die orthogonale Projektion hängt eng mit Trennungssätzen zusam-men. Sei V ein K-Hilbert-Raum.

1) Sei K ⊂ V konvex und abgeschlossen, x � K. Dann gibt es ein a ∈ V , so dass

Re 〈u . a〉 < Re 〈x . a〉 für alle u ∈ K .

Sei u := PK (x), dann folgt aus Hauptsatz 7.50

Re 〈x − u . u〉 ≤ Re 〈x − u . u〉 < Re 〈x − u . u〉 + ‖x − u‖2 = Re 〈x − u . x〉 ,

sodass also a = x − u gewählt werden kann.

2) Seien K, L konvex und abgeschlossen, L sei kompakt, K ∩ L = ∅. Dann gibt es eina ∈ V , so dass

Re 〈u1 . a〉 < Re 〈u2 . a〉 für u1 ∈ K, u2 ∈ L .

Mit K und L ist auch

K − L := {u1 − u2 : u1 ∈ K, u2 ∈ L}konvex und nach Voraussetzung 0 � K−L. K−L ist abgeschlossen, d. h. konvergiert eine Folge aus K−L:kn − ln → a für n → ∞, kn ∈ K, ln ∈ L, so hat ln eine in L konvergente Teilfolge: lni → l für i → ∞ unddaher kni → a + l =: k ∈ K, also a = k − l ∈ K − L. Nach 1) existiert folglich a ∈ V, so dass

Re 〈u1 − u2 . a〉 < Re 〈0 . a〉 = 0 für u1 ∈ K, u2 ∈ L .

Page 60: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

752 7 Lineare Algebra und Analysis

Die Stetigkeit von PK wird später untersucht.

Theorem 7.53: Rieszscher Darstellungssatz, endgültige Fassung

Sei (V, 〈 . 〉) ein K-Hilbert-Raum. Sei ϕ ∈ V ′(= L[V,K]).Dann gibt es ein eindeutiges a ∈ V , so dass

ϕ(x) = 〈x . a〉 für alle x ∈ V .

Die Zuordnung J : V → V ′, a → 〈 . . a〉 ist ein antilinearer Isomorphismus von Vnach V ′ mit

‖J(a)‖ = ‖a‖. (7.38)

Die Norm in V ′ ist dabei die erzeugte Norm. J ist also eine Isometrie.Antilinear bedeutet:

J(λx + y) = λ J(x) + J(y) für λ ∈ K, x, y ∈ V .

Beweis: (nach Alt 2006, S. 163) Wegen |J(a)(x)| ≤ ‖a‖ ‖x‖ für a, x ∈ V ist J(a) ∈ V ′(die Linearität ist klar) und

‖J(a)‖ ≤ ‖a‖ .Weiter ist

|J(a)a| = ‖a‖2 = ‖a‖ ‖a‖und damit auch

‖J(a)‖ = ‖a‖ für alle a ∈ V .

Wegen der Eigenschaften des inneren Produkts in der zweiten Komponente ist J antilinear(insbesondere linear für K = R). Da J eine Isometrie ist, ist es insbesondere injektiv:

J(a) = J(a)⇔ 0 = J(a) − J(a) = J(a − a)⇔ ‖a − a‖ = ‖J(a − a)‖ = 0 .

Es fehlt also noch der Nachweis der Surjektivität von J.Sei ϕ ∈ V ′ � 0 und P die orthogonale Projektion von V auf Kernϕ nach Hauptsatz 7.50.Diese ist wohldefiniert, da der Kern ϕ abgeschlossen ist. Zur geometrischen Interpretationder folgenden Beweisstruktur siehe Bemerkungen 7.54. Sei u ∈ V, so dass ϕ(u) � 0, unddann

e :=1

ϕ(u)u, also ϕ(e) = 1 .

Page 61: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.3 Hilbert-Räume 753

Für aϕ := e − Pe ist ϕ(aϕ) = 1, insbesondere also aϕ � 0. Aufgrund der Fehlerorthogona-lität ist ⟨

y . aϕ

⟩= 0 für alle y ∈ Kern ϕ ,

also für x ∈ V

x = x − ϕ(x)aϕ + ϕ(x)aϕ

und damit wegen x − ϕ(x)aϕ ∈ Kern ϕ⟨x . aϕ

⟩=

⟨ϕ(x)aϕ . aϕ

⟩= ϕ(x)‖aϕ‖2 .

Folglich ist a := aϕ/‖aϕ‖2 das gesuchte Darstellungselement für ϕ. �

Bemerkungen 7.54

1) Die geometrische Motivation für die Beweiskonstruktion ist die folgende: Ist V = Rn

(und dann schon bekannt, dass ϕ(x) = 〈x . a〉) geht es nur darum, a ∈ Rn zu „identifizie-ren“.U := {x : ϕ(x) = 0} = a⊥ ist also eine Hyperebene mit dim U := n−1, auf der a senkrechtsteht. Wegen dim U⊥ = dim(a⊥⊥) = dim span{a} = 1 reicht es demzufolge, einen auf Usenkrecht stehenden Vektor a zu bestimmen und diesen eventuell in der Länge anzupassen.Aufgrund der Fehlerorthogonalität ist als a jedes Pe − e für e � U möglich. Der Beweiszeigt, dass diese Argumentation auch im unendlichdimensionalen Hilbert-Raum-Fallmöglich ist (ohne U⊥⊥ = U zur Verfügung zu haben).

2) Der Begriff der Isometrie wird allgemein in Definition 5.23 eingeführt und bedeutetauf Hilbert-Räumen die Erhaltung des inneren Produkts, die die Normerhaltung nach(7.38) sofort nach sich zieht. Andererseits folgt nach der Polarisationsformel (allgemeinTheorem 5.29 oder schon (3.23)) auch aus der Normerhaltung die Erhaltung des innerenProdukts.

3) Sei Φ ∈ HomK(V, W) für K-Vektorräume V, W. Eine lineare oder antilineare IsometrieΦ ist stetig.

Der erste Fall ist klar und sogar ‖Φ‖ = 1. Im zweiten Fall beachte man, dass auch hier aus BeschränktheitStetigkeit folgt:

‖Φx −Φy‖ = ‖Φ(x − y)‖ ≤ K‖x − y‖ .

4) Eine Anwendung von Riesz ist die folgende Aussage über näherungsweise Integration(Quadraturformeln) :Seien a ≤ x1 < . . . < xn ≤ b reelle Zahlen, mi ∈ R, i = 1, . . . , n (Quadraturgewichte)beliebig. Dann gibt es eindeutig ein q ∈ V := Rn−1[a, b], so dass

I(p) =∫ b

aq(x)p(x)dx =

n∑i=1

mi p(xi) =: In(p)

Page 62: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

754 7 Lineare Algebra und Analysis

für alle p ∈ V gilt.Das kann man folgendermaßen einsehen: Sei ϕi(p) := p(xi), i = 1, . . . , n, dann ist wegen |ϕi(p)| ≤ ‖p‖∞

ϕi ∈ V′ ,

erst einmal für ‖ . ‖ = ‖ . ‖∞, dann wegen der Endlichdimensionalität von V auch für ‖ . ‖ = ‖ . ‖2. AlsoIn ∈ V′ und damit gibt es eindeutig ein q ∈ V, so dass

〈p . q〉 = In(p) für p ∈ V für das L2-Skalarprodukt 〈 . 〉 .

�Damit kann allgemein (aber nur) für Φ ∈ L[V, W] der adjungierte Operator definiert wer-den (vgl. Definition 2.60).

Definition 7.55

Seien V, W K-Hilbert-Räume mit inneren Produkten 〈 . 〉 (in der Schreibweisenicht unterschieden). Sei Φ ∈ L[V, W]. Der Adjungierte Φ† ∈ L[W, V] wird definiertdurch die Eigenschaft

〈Φu .w〉 =⟨u . Φ†w

⟩für alle u ∈ V,w ∈ V .

Satz 7.56: Adjungierte

Seien V, W K-Hilbert-Räume, Φ ∈ L[V, W].Dann existiert Φ† ∈ L[W, V] eindeutig und es gilt für die erzeugte Norm

‖Φ‖ = ‖Φ†‖ .

Die Zuordnung: † : L[V, W]→ L[W, V], Φ �→ Φ† ist antilinear und eine Isometrie.

Beweis: Sei Φ ∈ L[V, W]. Für ein beliebiges, festes w ∈ W definiere man

Ψw : V → K durch u �→ 〈Φu .w〉 ,dann ist Ψw ∈ V∗ und wegen

| 〈Φu .w〉 | ≤ ‖Φ‖ ‖u‖ ‖w‖ auch Ψw ∈ V ′, ‖Ψw‖ ≤ ‖Φ‖ ‖w‖.

Durch Φ : W → V ′,w �→ Ψw wird also eine antilineare Abbildung von W nach V ′ definiertund

‖Φw‖ = ‖Ψw‖ ≤ ‖Φ‖ ‖w‖ .

Page 63: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.3 Hilbert-Räume 755

Es gilt damit:

Φ(w)(u) = 〈Φu .w〉 .

Man setze also Φ†(w) := J−1(Φ(w)) , wobei J der Isomorphismus von V nach V ′ ausdem Rieszschen Darstellungssatz ist, somit⟨

u . Φ†(w)⟩= 〈Φu .w〉 ,

wie gewünscht und Φ† : W → V ist linear als Komposition zweier antilinearer Abbildun-gen. Es ist:

‖Φ†(w)‖ = ‖Φ(w)‖ ≤ ‖Φ‖ ‖w‖

und damit ist Φ† auch beschränkt,

Φ† ∈ L[W, V] und ‖Φ†‖ ≤ ‖Φ‖ . (7.39)

Der Adjungierte ist auch eindeutig, denn sind Ψ1 und Ψ2 Adjungierte zu Φ, dann

〈u . Ψ1w〉 = 〈u . Ψ2w〉 für alle u ∈ V,w ∈ W

also 〈u . Ψ1w − Ψ2w〉 = 0 für alle u ∈ V,w ∈ W ,

d. h. Ψ1w − Ψ2w = 0 für alle w ∈ W .

Damit gilt insbesondere:

Φ†† = Φ und aus (7.39) folgt ebenso ‖Φ‖ = ‖Φ††‖ ≤ ‖Φ†‖und damit die Isometrie der Zuordnung †. Die Antilinearität folgt sofort aus der Eindeu-tigkeit (siehe Bemerkungen 7.57, 1)). �

Bemerkungen 7.57

1) Es gelten die Rechenregeln für Φ,Ψ ∈ L[V, W]:

• Φ†† = Φ.

• (Φ + Ψ )† = Φ† + Ψ†, (λΦ)† = λΦ† für λ ∈ C.

• (Φ ◦ Ψ )† = Ψ† ◦Φ† für Ψ ∈ L[U, V], Φ ∈ L[V, W]

2) Seien V, W normierte K-Vektorräume.

Page 64: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

756 7 Lineare Algebra und Analysis

Analog zu Definition 3.52 kann auch für Φ ∈ L[V, W] der duale Operator Φ′ :L[W′, V ′] definiert werden durch

ϕ �→ ϕ ◦Φ .

Φ′ ergibt sich aus der (algebraischen) dualen Abbildung Φ∗ ∈ Hom(W∗, V∗) durch

Φ′ = Φ∗|W ′ .Es ist nur Φ′(ϕ) ∈ V′ und die Beschränktheit von Φ′ zu prüfen, die sofort aus Satz 7.26 folgen in der Form

‖Φ′(ϕ)‖ = ‖ϕ ◦Φ‖ ≤ ‖ϕ‖ ‖Φ‖ und hieraus ||Φ′|| ≤ ||Φ|| für die erzeugten Normen folgt.

Tatsächlich gilt sogar

‖Φ′‖ = ‖Φ‖ .

Dazu nutzt man aus, dass für u ∈ V, ‖u‖ = 1 ein ψ ∈ W ′ existiert, so dass ‖ψ‖ = 1 und ψ(Φu) = ‖Φu‖ ,nämlich gegeben durch ψ(w) := 〈w . Φ(u/‖Φu‖〉 (siehe Theorem 7.53), und daher

‖Φ′‖ ≥ ‖Φ′(ψ)‖ = ‖ψ ◦Φ‖ ≥ |(ψ ◦Φ)u| = |ψ(Φu)| = ‖Φu‖ und damit noch ‖Φ‖ ≤ ‖Φ′‖ .

3) Der Zusammenhang zwischen dem Adjungierten Φ† und dem dualen Operator Φ′ er-gibt sich durch

Φ† = J−1V ◦Φ′ ◦ JW

mit den Rieszschen Darstellungsoperatoren JV bzw. JW . Die Hilfskonstruktion Φ im Be-weis von Satz 7.56 ist also

Φ = Φ′ ◦ JW . �

Beispiel 7.58 Sei V = H10[a, b] ein Raum von reellwertigen stetigen Funktionen auf [a, b],

die in einem verallgemeinerten Sinn differenzierbar seien, so dass

v′ ∈ L2(a, b) für v ∈ H10[a, b]

und für die v(a) = v(b) = 0. Also ist für W = L2([a, b],R)=: L2[a, b]

Φ : V → W , v �→ v′

ein linearer Operator, der dann auch beschränkt ist für ‖v‖V := (‖v‖2L2 + ‖v′‖2L2 )12 . Nach dem

Rieszschen Darstellungssatz (Theorem 7.53) ist (L2[a, b])′ mit L2[a, b] durch

wϕ ∈ L2[a, b] �→ ϕ(w) :=∫ b

aw(x)wϕ(x)dx, ϕ ∈ (L2[a, b])′

Page 65: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.3 Hilbert-Räume 757

identifizierbar. Auch ‖ . ‖V wird durch ein inneres Produkt erzeugt und aus der Vollständig-keit von L2[a, b] folgt die von V , also gilt eine analoge Identifikation.Für den dualen Operator gilt Φ′ : W′ → V ′ und für ψ := Φ′(ϕ): ψ(v) = ϕ(v′) für v ∈ V . Istwϕ ∈ W das darstellende Element zu ϕ, dann

ψ(v) =∫ b

av′(x)wϕ(x)dx

also für wϕ ∈ C1((a, b),R

):

ψ(v) = −∫ b

av(x)w′ϕ(x)dx

und in diesem (formalen) Sinn

Φ′(ϕ) = −w′ϕ .

Ersetzt man (a, b) durch eine offene Menge Ω ⊂ RN , dann entsprechen sich

Φ : v �→ ∇vwobei ∇v = (∂x1v, . . . , ∂xN v)

t, der Gradient von v und

Φ′ : ϕ �→ − divwϕ ,

wobei divw :=∑N

i=1 ∂xiwi, die Divergenz von w. ◦Definition 3.29 überträgt sich zu

Definition 7.59

Sei V ein K-Hilbert-Raum, Φ ∈ L[V, V].

1) Φ heißt unitär, wenn Φ invertierbar ist und

Φ−1 = Φ† .

2) Φ heißt selbstadjungiert (bzw. für K = R: symmetrisch, für K = C hermi-tesch), wenn

Φ = Φ† .

3) Φ heißt normal, wenn

Φ Φ† = Φ†Φ .

Page 66: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

758 7 Lineare Algebra und Analysis

Bemerkung 7.60 Wie aus Bemerkungen 7.13, 2) ersichtlich, ist für unendlichdimen-sionale Räume für Φ ∈ L[V, W] bei Existenz von Φ−1 ∈ Hom(W, V) nicht zwingendΦ−1 ∈ L[W, V].Bei unitären Φ wird die Beschränktheit von Φ−1 durch Φ−1 = Φ† erzwungen. Allerdingsfolgt es hier auch automatisch wegen der Vollständigkeit von V = W ( Dies ist eine Aus-sage der Funktionalanalysis: Satz von der inversen Abbildung, siehe z. B. Alt 2006, S.221).

Im Beispiel aus Bemerkungen 7.13, 2) muss also immer einer der beteiligten Räumenicht vollständig sein. �

Satz 7.61: Unitäre Operatoren

Seien V, W K-Hilbert-Räume, L[V, W], L[W, V] jeweils mit der erzeugten Normversehen, Φ ∈ L[V, W]. Dann gilt:

1) ‖Φ‖2 = ‖ΦΦ†‖ = ‖Φ†Φ‖.2) Die Zuordnung Φ �→ Φ† von L[V, W] nach L[W, V] ist stetig.

3) Ist Φ unitär, dann ‖Φ‖ = 1.

Beweis: Zu 1): Es ist

‖Φ†Φ‖ ≤ ‖Φ†‖ ‖Φ‖ ≤ ‖Φ‖2und ‖Φu‖2 = 〈Φu . Φu〉 =

⟨u . Φ†Φu

⟩≤ ‖u‖ ‖Φ†Φ‖ ‖u‖,

also ‖Φ‖2 ≤ ‖Φ†Φ‖ und somit ‖Φ†Φ‖ = ‖Φ‖2 = ‖Φ†‖2 = ‖ΦΦ†‖ .

Zu 2): Klar, da Φ �→ Φ† sogar eine Isometrie ist.zu 3): Klar wegen ‖Φu‖2 = 〈Φu . Φu〉 =

⟨u . Φ†Φu

⟩= ‖u‖2 für u ∈ V .

Bemerkung 7.62 Es gilt für Φ ∈ L[V, V] :

Φ ist normal ⇔ ‖Φu‖ = ‖Φ†u‖ für alle u ∈ V

(Übung). �

Satz 7.63

Sei V ein K-Hilbert-Raum, Φ ∈ L[V, V] selbstadjungiert. Dann:

‖Φ‖ = sup {| 〈Φu . u〉 | : u ∈ V, ‖u‖ ≤ 1} . (7.40)

Page 67: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.3 Hilbert-Räume 759

Beweis: Sei M := sup {| 〈Φu . u〉 | : u ∈ V, ‖u‖ ≤ 1}, dann ist wegen

| 〈Φu . u〉 | ≤ ‖Φ‖ ‖u‖2 auch M ≤ ‖Φ‖ .Zum Nachweis von M = ‖Φ‖ muss noch

‖Φu‖ ≤ M

für alle u ∈ V, ‖u‖ = 1 gezeigt werden. O. B. d. A. kann also Φu � 0 angenommen werden.Setze w := 1

‖Φu‖Φu, also ‖w‖ = 1, dann ist wegen∣∣∣ 〈Φu . u〉 ∣∣∣ ≤ M‖u‖2 für beliebige u ∈ V

4M = M(2‖u‖2 + 2‖w‖2) = M(‖u + w‖2 + ‖u − w‖2) nach (1.62)≥ | 〈Φ(u + w) . u + w〉 | + | 〈Φ(u − w) . u − w〉 |≥ | 〈Φ(u + w) . u + w〉 − 〈Φ(u − w) . u − w〉 |= 2| 〈Φu .w〉 + 〈Φw . u〉 | = 2| 〈Φu .w〉 + 〈w . Φu〉 |= 2

∣∣∣∣ ⟨Φu . 1‖Φu‖Φu

⟩+

⟨1‖Φu‖Φu . Φu

⟩ ∣∣∣∣=

4‖Φu‖‖Φu‖

2 = 4‖Φu‖ .

Bemerkungen 7.64

1) Ist V endlichdimensional, kann in (7.40) sup durch max ersetzt werden, da ein stetigesFunktional auf einer kompakten Menge betrachtet wird. Demzufolge gibt es ein u0 ∈ Vmit ‖u0‖ ≤ 1, so dass

‖Φ‖ = | 〈Φu0 . u0〉 | . (7.41)

2) In der Situation von (7.41) gilt

Φu0 = 〈Φu0 . u0〉 u0 = ±‖Φ‖u0 ,

d. h. u0 ist Eigenvektor zum betragsgrößten Eigenwert ±‖Φ‖.Das kann folgendermaßen eingesehen werden: Da 〈Φu0 . u0〉 = 〈u0 . Φu0〉 = 〈Φu0 . u0〉 ist somit 〈Φu0 . u0〉 ∈R (richtig für jedes u0 ∈ V wegen der Selbstadjungiertheit). Deshalb gilt

〈Φu0 . u0〉 = ‖Φ‖ oder = −‖Φ‖ .Dann folgt die Behauptung aus:

〈Φu0 − 〈Φu0 . u0〉 u0 . Φu0 − 〈Φu0 . u0〉 u0〉 = ‖Φu0‖2 − 2 〈Φu0 . u0〉2 + 〈Φu0 . u0〉2 ‖u0‖2≤ ‖Φu0‖2 − 〈Φu0 . u0〉2 ≤ ‖Φu0‖2 − ‖Φ‖2 ≤ 0

Für endlichdimensionale V folgt die Aussage auch aus Satz 4.15.

Page 68: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

760 7 Lineare Algebra und Analysis

Satz 7.65: Norm von Projektionen

Sei V ein euklidischer bzw. unitärer Raum, P ∈ Hom(V, V) eine Projektion, d. h.P2 = P. Dann sind äquivalent:

(i) Es gilt P ∈ L[V, V] mit ‖P‖ ≤ 1 in der erzeugten Norm bzw.

〈Pu . Pu〉 ≤ 〈u . u〉 für alle u ∈ V .

(ii) P ist orthogonale Projektion auf Bild P.

Bei der Gültigkeit von (i) bzw. (ii) ist für P � 0 sogar ‖P‖ = 1.

Beweis: „(i)⇒ (ii)“: Für x ∈ V ist zu zeigen:

x − Px ∈ (Bild P)⊥ bzw. Kern P ⊂ (Bild P)⊥ .

Angenommen, es gäbe ein

u ∈ Kern P (mit ‖u‖ = 1), so dass u � (Bild P)⊥ ,

d. h. es gäbe ein w = Pw ∈ Bild P, so dass

〈u .w〉 � 0 bzw. o. B. d. A. = 1.

Dann:

〈u − 2w . u − 2w〉 = 〈u . u〉 − 2 〈u .w〉 − 2 〈w . u〉 + 4 〈w .w〉= 1 − 4 + 4 〈w .w〉< 4 〈w .w〉 = 〈P(u − 2w) . P(u − 2w)〉

im Widerspruch zu ‖P‖ ≤ 1.„(ii)⇒ (i)“: Nach Satz 2.64 ist P selbstadjungiert, also

‖Pu‖2 = 〈Pu . Pu〉 =⟨u . P2u

⟩= 〈u . Pu〉 ≤ ‖u‖ ‖Pu‖ ,

folglich

‖Pu‖ ≤ ‖u‖ für alle u ∈ V .

Für den Zusatz beachte man für eine Projektion

‖P‖ = ‖P2‖ ≤ ‖P‖ ‖P‖ .�

Page 69: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.3 Hilbert-Räume 761

Theorem 7.66: Bessel13sche Ungleichung

Seien V ein K-Hilbert-Raum, u1, . . . , un ∈ V orthonormal und u ∈ V .Sei Un := span(u1, . . . , un), P die orthogonale Projektion V auf Un.Dann:

1)

n∑i=1

| 〈u . ui〉 |2 ≤ ‖u‖2 .

2)

inf{‖u − u‖ : u ∈ span(u1, . . . , un)

}=

⎛⎜⎜⎜⎜⎜⎝‖u‖2 − n∑i=1

| 〈u . ui〉 |2⎞⎟⎟⎟⎟⎟⎠1/2

=(‖u‖2 − ‖Pu‖2

)1/2.

Beweis: Zu 1): Ist eine direkte Folge von 2).Zu 2): Der linke Ausdruck quadriert ist

‖u − Pu‖2 =∥∥∥∥∥∥∥u −

n∑i=1

〈u . ui〉 ui∥∥∥∥∥∥∥

2

= ‖u‖2 − 2n∑

i=1

| 〈u . ui〉 |2 +n∑

i=1

| 〈u . ui〉 |2 .

Die zweite Identiät folgt aus (vgl. Bemerkungen 1.110, 1))

Pu =n∑

i=1

〈u . ui〉 ui

und damit nach Pythagoras (Satz 1.96)

‖Pu‖2 =n∑

i=1

| 〈u . ui〉 |2 .

13 Friedrich Wilhelm Bessel ∗22. Juli 1784 in Minden (Westfalen) †17. März 1846 in Königsberg(Preußen)

Page 70: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

762 7 Lineare Algebra und Analysis

7.3.2 Schauder-Basen

Schon in Abschnitt 1.4 wurde erwähnt, dass auch in einem unendlichdimensionalen Vek-torraum die Existenz einer Basis gezeigt werden kann. Zumindest in Banach-Räumenwird der Begriff aber unhandlich, da gilt (ohne Beweis):

Sei (V, ‖ . ‖) ein Banach-Raum mit einer abzählbaren Basis. Dann ist V endlichdimensio-nal.

Insbesondere in einem Hilbert-Raum kann somit eine solche (algebraische) Basis, hierauch Hamel14-Basis genannt, nur überabzählbar sein. Um wieder zu einer handhabba-ren, abzählbaren Menge zu gelangen, reduziert man die Anforderung von „Darstellbar-keit“ durch eine endliche Linearkombination auf „Approximierbarkeit“ durch endlicheLinearkombinationen in folgendem Sinn:

Definition 7.67

Sei (V, ‖ . ‖) ein normierter K-Vektorraum. Eine Folge u1, u2, . . . in V heißt Schau-der15-Basis von V , wenn gilt:Zu jedem u ∈ V gibt es eindeutige αi ∈ K, i ∈ N so dass

u =∞∑

n=1

αnun

(im üblichen Sinn der Konvergenz der Partialsummenfolge, d. h. von

sn :=n∑

i=1

αiui → u für n→ ∞) .

Die αi heißen Koeffizienten von u bezüglich B.

Bemerkungen 7.68 Sei B := {ui : i ∈ N} eine Schauder-Basis.

1) B ist linear unabhängig.

Sei∑N

j=1 αi jui j = 0 für beliebige ui j ∈ B, dann können die αi j mit αk := 0 für k � i j zu einer Folge (αi)i inK ergänzt werden, für die gilt

∞∑n=1

αnun = 0 ,

d. h. wegen der Eindeutigkeit der Koeffizienten

αn = 0 für alle n ∈ N .

14 Georg Karl Wilhelm Hamel ∗12. September 1877 in Düren †4. Oktober 1954 in Landshut15 Juliusz Paweł Schauder ∗21. September 1899 in Lemberg †September 1943 in Lemberg

Page 71: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.3 Hilbert-Räume 763

2) Sei u =∑∞

n=1 αnun die eindeutige Darstellung, dann folgt für ϕ ∈ V ′:

ϕ(u) = ϕ

⎛⎜⎜⎜⎜⎜⎝ ∞∑n=1

αnun

⎞⎟⎟⎟⎟⎟⎠ = ∞∑n=1

αnϕ(un)

d. h. ϕ ist durch ϕ(un), n ∈ N, eindeutig definiert. Die Funktionale

ϕk : V → K, u �→ αk, k ∈ Nsind wohldefiniert und linear. Ohne Beweis halten wir fest, dass die ϕk sogar beschränktsind, d. h. ϕk ∈ V ′ . Es ist also ϕi(u j) = δi j für i, j ∈ N. Insgesamt ergibt sich

ϕ =

∞∑n=1

αnϕn ⇔ ϕ(um) =

∞∑n=1

αnϕn(um) für alle m ∈ N

⇔ ϕ(um) = αm für alle m ∈ N (vergleiche Satz 3.50).

ϕ ∈ V ′ lässt sich folglich auf eindeutige Weise durch B′ = {ϕn : n ∈ N} darstellen. B′ istalso eine Schauder-Basis von V ′, die zu B duale Basis.

3) Anscheinend ist die Forderung nach Eindeutigkeit der Darstellung, anders als im end-lichdimensionalen Fall, stärker als die lineare Unabhängigkeit von B.

�So wie die ONB unter den Basen besonders übersichtlich sind, so sind sie es auch unterden Schauder-Basen:

Definition 7.69

Sei (V, 〈 . 〉) ein euklidischer bzw. unitärer Raum. Sei B := {ui : i ∈ N} ⊂ V .

1) B heißt Orthonormalsystem, wenn gilt⟨ui . u j

⟩= δi j für i, j ∈ N .

2) B heißt (Schauder-)Orthonormalbasis (SONB), wenn gilt:

(i) B ist Orthonormalsystem.(ii) B ist Schauder-Basis.

Bemerkungen 7.70 Sei B := {ui : i ∈ N} eine SONB.

1) Für die Koeffizienten von u ∈ V bezüglich B gilt:

αn = 〈u . un〉 , n ∈ N , die Fourier-Koeffizienten .

Page 72: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

764 7 Lineare Algebra und Analysis

Ist nämlich u =∑∞

n=1 αnun, dann folgt für m ∈ N wegen der Stetigkeit des inneren Produkts (nach Bemer-kung 7.7)

〈u . um〉 =⟨ ∞∑

n=1

αnun . um

⟩=

∞∑n=1

αn 〈un . um〉 =∞∑

n=1

αnδnm = αm .

Man vergleiche Bemerkungen 1.110, 1) (r = n) für den endlichdimensionalen Fall.

2) Für ein Orthonormalsystem muss also die Eindeutigkeit der Darstellung nicht gefordertwerden, da sie automatisch folgt.

3) Sei Un := span(u1, . . . , un), d. h. Un ist eine aufsteigende Folge von n-dimensionalenUnterräumen, für die für u ∈ V gilt:

u(n) := PUnu =n∑

i=1

〈u . ui〉 ui (7.42)

ist die orthogonale Projektion auf Un und nach 1) ist u(n) auch die n-te Partialsummenfolgevon u in der Schauder-Basisdarstellung, d. h.

u(n) → u für n→ ∞ .

4) Sei V = l2(K), dann ist eine Schauder-Basis definiert durch (vi) j = δi, j für i, j ∈ N .

�Der folgende Satz liefert eine Charakterisierung der Schauder-Basis-Eigenschaft, auchVollständigkeit genannt, eines Orthonormalsystems.

Theorem 7.71: Charakterisierung SONB

Sei (V, 〈 . 〉) ein K-Hilbert-Raum, B := {ui : i ∈ N} ein Orthonormalsystem in V .Dann sind folgende Aussagen äquivalent:

(i) spanB ist dicht in V .

(ii) B ist eine Schauder-Basis von V .

(iii) 〈u .w〉 = ∑∞n=1 〈u . un〉 〈w . un〉 für alle u,w ∈ V , die Parseval16-Identität.

(iv) ‖u‖2 = ∑∞n=1 | 〈u . un〉 |2 für u ∈ V , die Vollständigkeitsrelation.

(v) Die Abbildung J : V → l2(K), u �→ (〈u . un〉)n, die jedem Vektorraumele-ment die Folge der Fourier-Koeffizienten zuordnet, ist wohldefiniert undisometrisch.

16 Marc-Antoine Parseval des Chênes ∗27. April 1755 in Rosières-aux-Salines †16. August 1836 inParis

Page 73: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.3 Hilbert-Räume 765

Beweis: „(i)⇒ (ii)“: Sei u ∈ V . Nach Voraussetzung gibt es eine Folge natürlicher Zah-len mn → ∞ für n→ ∞, o. B. d. A. monoton wachsend, und für diese

αn,k ∈ K, k = 1, . . . , mn, so dass w(n) :=mn∑k=1

αn,kuk → u für n→ ∞ .

Sei u(m) die m-te Partialsumme nach (7.42), ε > 0 beliebig, so folgt für n, m ∈ N,m ≥ mn

‖u(m) − u‖ = inf{‖u − u‖ : u ∈ Um} ≤ ‖w(n) − u‖ ≤ ε ,

falls n groß ist, und damit ‖u(m) − u‖ → 0 für m→ ∞.„(ii)⇒ (i)“: Folgt sofort aus der Definition mittels (7.42).„(ii)⇒ (iii)“: Unter Beachtung von Bemerkungen 7.70, 1) und der Stetigkeit des innerenProdukts folgt für u,w ∈ V:

〈u .w〉 =⟨ ∞∑

n=1

〈u . un〉 un .

∞∑k=1

〈w . uk〉 uk⟩

=

∞∑n=1

∞∑k=1

〈u . un〉 〈w . uk〉 〈un . uk〉 =∞∑

n=1

〈u . un〉 〈w . un〉 .

„(iii)⇒ (iv)“: Folgt sofort für u = w.„(iv)⇒ (ii)“: Mit der Notation von Bemerkungen 7.70, 3) und Theorem 7.66, 2) gilt

‖u − PUnu‖2 = ‖u‖2 −n∑

i=1

| 〈u . ui〉 |2 → 0 für n→ ∞ .

(v) ist eine Umformung von (iv). �

Da die Orthonormalität einer Folge linear unabhängiger Vektoren u1, . . . , un, . . . bei Bei-behaltung der erzeugten n-dimensionalen Unterräume Un durch das Schmidtsche Or-thonormalisierungsverfahren (siehe Theorem 1.112) hergestellt werden kann, ergibt sichfolgende Existenzcharakterisierung:

Satz 7.72: Existenz SONB

Sei (V, 〈 . 〉) ein K-Hilbert-Raum. Dann sind äquivalent:

(i) V hat eine SONB.

(ii) Es gibt eine linear unabhängige Menge B′ := {wi : i ∈ N}, so dass spanB′dicht liegt in V .

Page 74: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

766 7 Lineare Algebra und Analysis

Bemerkungen 7.73

1) Zu Aussage (ii) ist weiterhin äquivalent (ohne Beweis):

Es gibt eine abzählbare Teilmenge von V , die dicht in V liegt. Solche normiertenRäume heißen separabel . Also haben separable Hilbert-Räume eine SONB.

2) Für separable Hilbert-Räume (V, 〈 . 〉) gilt demnach:Es gibt einen isometrischen Isomorphismus

J : V → l2(K), u �→ (〈u . ui〉)i ,

wobei B = {ui : i ∈ N} eine SONB von V ist.

Für einen separablen Hilbert-Raum V kann also ein Problem äquivalent betrachtetwerden als

a) Problem in V: im Zustandsraum.

b) Problem in l2(K): im Frequenzraum. Dabei gelten folgende Bezeichnungen:

(i) 〈u . ui〉 heißt i-ter Fourier-Koeffizient.

(ii) Pnu :=∑n

i=1 〈u . ui〉 ui heißt n-te Fourier-Summe.

(iii)∑∞

i=1 〈u . ui〉 ui heißt Fourier-Reihe.

Die Begrifflichkeiten aus der letzten Bemerkung werden klarer durch das folgende, wichti-ge Beispiel einer SONB, das schon in Mathematische Modellierung 4, S. 119 angeklungenist.

Man betrachte dazu V := L2([a, b],K) , wobei o. B. d. A. a = −π, b = π gewählt seien.V repräsentiert also „allgemeine“ periodische Funktionen der Periode b − a (2π), wie siedurch direkte Fortsetzung einer Funktion auf [a, b] zu einer Funktion auf R entstehen.

Inwieweit ist es möglich, ein beliebiges f ∈ V durch Linearkombinationen aus Grund- undOberschwingungen darzustellen (Fourier-Analyse)? Eine erste Antwort gibt folgenderSatz:

Page 75: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.3 Hilbert-Räume 767

Satz 7.74: SONB aus sin, cos Funktionen

Sei V := L2([−π, π],K). Dann bilden

1) für K = C:

fk(x) :=1

(2π)1/2 exp(ikx) für k ∈ Z ,

2) für K = R

gk(x) :=

⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩1

π1/2 sin(kx) für k = 1, 2, . . .1

(2π)1/2 für k = 01

π1/2 cos(kx) für k = −1,−2, . . .

eine SONB in V (bezüglich des L2-inneren Produkts).

Beweis: Sei B := { fk : k ∈ Z} bzw. B := {gk : k ∈ Z}.Es ist zu zeigen: 1) B ist orthonormal und 2) B ist vollständig.

Zu 1): K = C:

〈 fk . fl〉 = 12π

π∫−π

eikxe−ilxdx =

⎧⎪⎪⎨⎪⎪⎩ 12π

∫ π

−π 1dx = 1 für k = l1

2πi(k−l)

∫ π

−πd

dx

(ei(k−l)x

)dx = 0 für k � l .

K = R:Entweder rechnet man die Integralbeziehungen direkt nach (mit partieller Integration) oderman nutzt, dass

gk(x) =

⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩21/2 Im fk(x) für k = 1, 2, . . .f0(x) für k = 021/2 Re fk(x) für k = −1,−2, . . .

(Übung).Zu 2): Sei Pn f :=

∑|k|≤n 〈 f . fk〉 fk für K = C und analog für K = R. Zu zeigen ist also

Pn f → f für n→ ∞ in ‖ . ‖2 .

Nach der Besselschen Ungleichung (Theorem 7.66) gilt∑|k|≤n

| 〈 f . fk〉 |2 ≤ ‖ f ‖22(< ∞)

und damit auch

Page 76: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

768 7 Lineare Algebra und Analysis∑k∈Z| 〈 f . fk〉 |2 ≤ ‖ f ‖22 ,

wobei∑

k∈Z |ak| eine absolut konvergente Reihe mit Indexbereich Z (statt N) bezeichnet.Man beachte, dass bei absolut konvergenten Reihen in R Permutationen des Indexbereichsohne Einfluss auf Konvergenz und Grenzwert sind, so dass die obige Reihe wohldefiniertist. Damit ist (Pn f )n eine Cauchy-Folge in L2([−π, π],K), denn

‖Pm f − Pn f ‖2 ≤m∑

|k|=n+1

| 〈 f . fk〉 |2 ≤∑|k|>n

| 〈 f . fk〉 |2 → 0 für m ≥ n, n, m→ ∞ .

Also

Pn f → f für n→ ∞ für ein f ∈ L2([−π, π],K) ,

so dass nur noch der Nachweis von f = f fehlt. Diesen können wir nicht vollständig füh-ren. Eine Skizze ist:Die unendlich differenzierbaren Funktionen (mit kompaktem Träger) liegen dicht inL2([−π, π],K), so dass bei der obigen Überlegung f als so glatt vorausgesetzt werdenkann. Für solche f konvergiert die Fourier-Reihe punktweise gegen f und Pn f hat (we-gen der L2-Konvergenz) auch eine Teilfolge, die punktweise gegen f konvergiert, folglichist f = f .

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe

• Adjungierter Operator Φ†• Dualer Operator Φ′• Unitärer, selbstadjungierter oder normaler Operator• Besselsche Ungleichung• Schauder-Basis, Schauder-Orthonormalbasis• Parseval-Identität, Vollständigkeitsrelation• Fourier-Analyse

Zusammenhänge

• Orthogonale Projektion auf konvexe, abgeschlossene Menge existiert eindeutig imHilbert-Raum und ist durch eine Variationsungleichung charakterisiert (Haupt-satz 7.50)

• Rieszscher Darstellungssatz (Theorem 7.53)• Für Projektionen P gilt: ‖P‖ ≤ 1 für die erzeugte Norm⇔ P orthogonal• Besselsche Ungleichung gilt für jedes Orthonormalsystem (Theorem 7.66)• Schauder-Basis⇔ Parseval⇔ Vollständigkeitsrelation (Theorem 7.71)

Page 77: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

Aufgaben 769

Aufgaben

Aufgabe 7.16 (T) Es sei (V, 〈 . 〉) ein euklidischer oder unitärer Vektorraum. Zeigen Sie:

a) Für konvergente Folgen (vn)n und (wn)n gilt⟨limn→∞ vn . lim

n→∞wn

⟩= lim

n→∞ 〈vn . wn〉 .

b) Für konvergente Reihen∑∞

n=1 vn gilt⟨ ∞∑n=1

vn . w

⟩=

∞∑n=1

〈vn . w〉 .

Aufgabe 7.17 (T) Sei (V, 〈 . 〉) ein K-Hilbert-Raum, ‖ . ‖ die erzeugte Norm. ZeigenSie:

‖x‖ = sup‖y‖=1| 〈y . x〉 | .

Aufgabe 7.18 (T) Sei V ein C-Hilbert-Raum und Φ ∈ L[V, V]. Man zeige:

Φ selbstadjungiert ⇔ 〈Φx . x〉 ∈ R für alle x ∈ V .

Aufgabe 7.19 (K) Verifizieren Sie, dass

gk(x) :=

⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩1√π

sin(kx) für k = 1, 2, . . .1√2π

für k = 01√π

cos(kx) für k = −1,−2, . . .

mit k ∈ Z ein Orthonormalsystem in L2([−π, π],R) ist.

Aufgabe 7.20 (T) Sei (X, ‖ · ‖) ein normierter C-Vektorraum und B = {ui : i ∈ N} eineSchauder-Basis von X. Zeigen Sie, dass X separabel ist.Hinweis: Zeigen Sie, dass M := {∑N

n=1 αnun : N ∈ N, α1, α2, . . . ∈ Q + iQ} abzählbar unddicht in X ist.

Aufgabe 7.21 (T) Zeigen Sie, dass B = {(ein)n : i ∈ N} mit

(ein)n = (0, . . . , 0,

i1, 0, . . .)

eine Schauder-Orthonormalbasis des Hilbert-Raums (l2(K), 〈 . 〉) ist.

Page 78: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

770 7 Lineare Algebra und Analysis

7.4 Ausblick: Lineare Modelle, nichtlineare Modelle, Linearisierung

Lineare Algebra ist die Theorie linearer Strukturen: Was darunter zu verstehen ist, isthoffentlich in den letzten 7 Kapiteln entwickelt worden. So standen lineare (und affine)Räume im Mittelpunkt sowie (affin-)lineare Abbildungen und insbesondere Funktionale.Aber auch Nichtlinearität spielte ein Rolle: Als wesentliches Untersuchungsinstrumenthaben sich die Eigenwerte einer Matrix herausgestellt, die nichtlinear von dieser abhän-gen. Mit quadratischen Funktionalen (und Polyedern) wurden auch nichtlineare Objektedirekt untersucht. Quadratische Funktionale erzeugten in Abschnitt 5.3 Quadriken und er-laubten deren Untersuchung durch ihre Darstellung mittels Matrizen. In Abschnitt 4.7.2stellte sich die Minimierung quadratischer Funktionalen ohne Einschränkungen oder mitGleichungsnebenbedingungen als äquivalent zum Lösen von LGS heraus. Erst bei Un-gleichungsnebenbedingungen traten in Abschnitt 6.7 mit Komplementaritätsbedingungenecht nichtlineare Probleme auf. In der Polyedertheorie wurden die (für das Lösen linea-rer Optimierungsprobleme wichtigen) Randpunkte über LGS beschrieben. Aber auch beiallgemeinen nichtlinearen Problemen, wie dem Lösen eines Systems nichtlinearer Glei-chungen, etwa

f (x1, . . . , xn) = 0 , (7.43)

wobei f = ( fi)i, fi : Rn → R, i = 1, . . . , n oder der Minimierung eines nichtlinearenFunktionals

Minimiere f (x) unterBtx = d, Ct x ≥ e (7.44)

wobei f : Rn → R und wie in (6.44) B ∈ R(n,m1), C ∈ R(n,m2), d ∈ Rm1 , e ∈ Rm2 könnenwesentliche Aussagen mittels linearen Ersatzaufgaben gemacht werden. Für quadratischeFunktionale (bzw. orthogonale Projektionen)

f (x) =12〈Ax . x〉 − 〈x . b〉 + c

(siehe z. B. Satz 4.144, Bemerkungen 4.145) ist dies lange bekannt. Darüber hinaus hilftals wesentliches Konzept der für die Analysis zentrale Begriff der Differenzierbarkeit, derdie lokale Approximierbarkeit einer Abbildung durch eine affin-lineare Abbildung mitgewisser Güte beinhaltet.

Definition 7.75

Sei f : Ω → Rm, Ω ⊂ Rn offen. f heisst in x0 ∈ Ω differenzierbar, wenn einD f (x0) ∈ L[Rn,Rm] existiert, dass

f (x) = f (x0) + D f (x0)(x − x0) + o(x − x0) .

Page 79: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

7.4 Ausblick: Lineare Modelle, nichtlineare Modelle, Linearisierung 771

Der Begriff könnte so wörtlich auch für unendlich dimensionale Vektorräume gefasst wer-den. Die benutzte Notation o(hk) (sprich: klein o von hk) ist dabei in normierten Räumen(V, ‖ ‖V ), (W, ‖ ‖W ) für g : V → W definiert durch:

g(h) = o(hk) genau dann wenn ‖g(hn)‖W/‖hn‖kV → 0 für jede Folge (hn)n in V ,hn � 0, so dass hn → 0 für n→ ∞ .

Die dann eindeutige (Frechet-)Ableitung D f (x0) lässt sich also (bei gleicher Notati-on) über ein D f (x0) ∈ R(m,n) darstellen und notwendigerweise existieren die partiellenAbleitungen ∂xi f j und

D f (x0) =(∂x j fi(x0)

)i, j

, die Jacobi-Matrix.

f ∈ C1(Ω,Rm) bezeichne die Funktionen, für die alle ∂xi f auf Ω stetig existieren. (sieheLehrbuch über mehrdimensionale Differentialrechnung, z. B. Amann und Escher 1999)Dies bedeutet für n = 1

D f (x0) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝f ′1(x0)

...f ′m(x0)

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠gemäß dem bei Differentialgleichungen benutzten Ableitungsbegriff (siehe (4.83))

und für m = 1

D f (x0) =(∂x1 f (x0), . . . , ∂xn f (x0)

)mit D f (x0)t =: ∇ f (x0) , der Gradient von f bei x0

und D f (x0)h = 〈∇ f (x0) . h〉im euklidischen SKP 〈 . 〉.

Gegebenenfalls lässt sich die lokale Approximation verbessern:Sei f ∈ C2(Ω,Rm) in dem Sinn, dass alle partiellen Ableitungen von f bis zur 2. Ordnungin Ω existieren und stetig sind. Dann gibt es eine bilineare Abbildung D2 f (x0) : Rn×Rn →Rm, so dass

f (x) = f (x0) + D f (x0)h + D2 f (x0)(h, h) + o(h2) . (7.45)

Ist m = 1 kann auch D2 f (x0) (nach Satz 5.9) mit einer gleichbezeichneten Matrix dar-gestellt werden. D f 2(x0) heisst dann Hesse-Matrix, hat die Darstellung D f 2(x0) =(∂xi,x j f )i, j=1...,n und ist damit symmetrisch.

Für ein nichtlineares, differenzierbares Funktional ist ±∇ f (x0) die (lokale) Richtungdes stärksten Anstiegs (Abstiegs), so dass für ein Minimum von (7.44) das Komplementa-

Page 80: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

772 7 Lineare Algebra und Analysis

ritätssystem

∇ f (x) + By +Cz = 0

Btx = dCt x ≥ e

z ≤ 0

(Ct x − e)t z = 0

(7.46)

(siehe Hauptsatz 6.68, Bemerkungen 6.70, 1)) notwendig wird. Dies kann z. B. iterativdurch eine Folge von Gleichungssystemen angenähert werden, bzw. reduziert sich ohneUngleichungsbedingung auf ein solches bzw. ohne Nebenbedingung auf die bekannte Sta-tionaritätsbedingung

∇ f (x) = 0 . (7.47)

Diese Bedingungen sind aber im Allgemeinen nur notwendig (siehe Bemerkungen 6.70,3), 4)) und sind für quadratisches f linear (siehe Bemerkungen 4.145, 2)).

Als eine Grundaufgabe ergibt sich also ein System von n nichtlinearen Gleichungen für nUnbekannte, wie in (7.43). Eine Lösung davon kann oft iterativ durch das Lösen appro-ximativer LGS angenähert werden. Ist x(0) „nahe“ an einer Lösung x von (7.43), so kon-vergiert unter bestimmten Bedingungen (siehe z. B. Deuflhard 2006) das Newton-Verfahren, bei dem eine neue Näherung

x(k+1) = x(k) + δ(k)

dadurch bestimmt wird, dass die Gleichung bei x(k) linearisiert und die Nullstelle dieseraffin-linearen Funktion bestimmt wird:

f (x(k)) + D f (x(k)) δ(k) = 0 .

Eine Implementierung eines einfachen Newton-Verfahrens findet sich in Algorithmus 5.

Algorithmus 5 (Newton-Verfahren)

function x = newton(f, Df, x0, tol, maxit)

x = x0;for k = 1 : maxit[L, R, P] = gausszerlegungpivot(Df(x));d = vorwrueckwsubs(L, R, P, f(x));x = x - d;if norm(f(x)) < tolbreak

endendend

Die Eingabeargumente f und Df sollten der Klasse function_handle angehören, z. B.

Page 81: [Springer-Lehrbuch] Lineare Algebra || Lineare Algebra und Analysis

Aufgaben 773

f = @(x)[sin(x(1))*cos(x(2)); x(1)^2+x(2)^2-3] ,Df = @(x)[cos(x(1))*cos(x(2)), -sin(x(1))*sin(x(2)); 2*x(1), 2*x(2)] .

Weiter sei x0 ein Startwert nahe der vermuteten Lösung, tol eine kleine positive Schrankeund maxit die Anzahl der maximal erlaubten Iterationen.

Oft wird auch das Problem selbst verändert, d. h. an einer festen, „hoffentlich guten“Näherung der Lösung x linearisiert und das so entstehende lineare Problem gelöst, d. h.

f (x) + D f (x) δ = 0 , x := x + δ .

Aber auch qualitative Aussagen übertragen sich aus der linearisierten Situation, wenn dieBedingung noch eine „kleine Störung verträgt“. So ist das Vorliegen eines lokalen Mini-mums bei (7.44) ohne Nebenbedingungen im quadratischen Fall charakterisiert durch

0 = ∇ f (x)(= Ax − b) , D2 f (x)(= A) ist positiv definit (7.48)

Auch für f ∈ C2(Ω,Rm) ist (7.48) hinreichend für ein lokales Minimum bei x und analogNegativdefinitheit für ein lokales Maximum und Indefinitheit dafür, dass kein lokales Ex-tremum vorliegt.Erlaubt die Bedingung im linearisierten Fall aber keine Störung, so ist sie i. Allg. nichtaussagekräftig für den nichtlinearen Fall. Dies sei illustriert an der Frage nach der asym-ptotischen Stabilität der Nulllösung (nach Definition 8.84) von

y(t) = g(y(t)) , t ∈ [t0, T ]y(t0) = y0

(7.49)

wobei g ∈ C1(Rn,Rn). g(0) = 0, d. h. (7.49) ist die nichtlineare Version von (8.90). AnstattTheorem 8.87 gilt hier für die Eigenwerte λ1, . . . , λn von Dg(0):Ist Re(λi) < 0 für alle i = 1, . . . , n, dann ist die Nulllösung asymptotisch stabil.Ist Re(λ j) > 0 für ein j ∈ {1, . . . , n}, dann ist die Nulllösung nicht asymptotisch stabil.Ist Re(λi) ≤ 0 für alle i = 1, . . . , n, Re(λ j) = 0 für ein j ∈ {1, . . . , n}, kann keine allgemeineAussage zur asymptotischen Stabilität gemacht werden.

Aufgaben

Aufgabe 7.22 Sei Ω ⊂ R2 offen, f ∈ C2(Ω,R), sei ∇ f (x0) = 0,

δ := ∂x1,x1 f (x0) ∂x2,x2 f (x0) − (∂x1,x2 f (x0)

)2 und a := ∂x1,x1 f (x0) .

Zeigen Sie:

a) Ist δ > 0, a > 0, so liegt in x0 ein lokales Minimum vor.b) Ist δ > 0, a < 0, so liegt in x0 ein lokales Maximum vor.c) Ist δ < 0, so liegt in x0 kein lokales Extremum vor.