141
Lineare Algebra Daniel Roggenkamp Universit¨ at Mannheim, HS 2016 / FSS 2017 Version vom 31. M¨ arz 2017 Korrekturen/Anmerkungen an [email protected]

Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

Embed Size (px)

Citation preview

Page 1: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

Lineare AlgebraDaniel Roggenkamp

Universitat Mannheim, HS 2016 / FSS 2017

Version vom 31. Marz 2017Korrekturen/Anmerkungen an [email protected]

Page 2: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

2 Inhaltsverzeichnis

Inhaltsverzeichnis

Teil 1 Lineare Algebra I 4

1 Mengen und Abbildungen 41.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.3 Aquivalenzrelationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2 Gruppen 122.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.2 Untergruppen und Gruppenhomomorphismen . . . . . . . . . . . . . . . . . 142.3 Die Symmetrische Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3 Korper 193.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193.2 Unterkorper und Korperhomomorphismen . . . . . . . . . . . . . . . . . . . 223.3 Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

4 Vektorraume 264.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264.2 Untervektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274.3 Erzeugendensysteme, lineare Unabhangigkeit, Basen . . . . . . . . . . . . . . 284.4 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344.5 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

5 Matrizen und Lineare Gleichungssysteme 405.1 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405.2 Matrizen und lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . 485.3 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

6 Determinanten 656.1 Alternierende Multilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . 656.2 Determinanten von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

7 Eigenvektoren und Eigenwerte 787.1 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 797.2 Eigenvektoren und Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . . 837.3 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . 847.4 Diagonalisierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

8 Euklidische Vektorraume 918.1 Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 918.2 Euklidische Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

Page 3: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

Inhaltsverzeichnis 3

Teil 2 Lineare Algebra IIa 106

9 Unitare Vektorraume 1069.1 Erganzung zu symmetrischen Bilinearformen . . . . . . . . . . . . . . . . . . 1069.2 Hermitesche Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1099.3 Unitare Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1119.4 Normale Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

10 Jordansche Normalform 11410.1 Nilpotente Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . 11510.2 Hauptraumzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11810.3 Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

11 Quotientenkonstruktionen 12611.1 Aquivalenzrelationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12611.2 Quotientengruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12811.3 Quotientenraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134

12 Tensorprodukt 137

Anhang A Notationen und Symbole 139

Page 4: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

4

Teil 1

Lineare Algebra I

1 Mengen und Abbildungen

1.1 Mengen

In diesem Kapitel werden zunachst einige Grundbegriffe der Mengenlehre diskutiert, die furdie lineare Algebra relevant sind. Dabei wird auf eine axiomatische und formale Einfuhrungverzichtet.

• Eine Menge ist eine Zusammenfassung von unterscheidbaren Objekten zu einem neuenObjekt. Man kann sie z.B. durch Aufzahlung definieren: null

M = {1, 5, 7} , M = {1, 2, 3, . . . , 10} , M = {1, 7, {2, 3}} .

• Eine Menge kann auch aus unendlich vielen Objekten bestehen. Wichtige unendliche Men-gen sind z.B. die Menge der naturlichen Zahlen

N = {1, 2, 3, . . .} ,

die Menge der naturlichen Zahlen mit 0

N0 = {0, 1, 2, 3, . . .} ,

oder die Menge der ganzen Zahlen

Z = {0, 1,−1, 2,−2, 3,−3, . . .} .

• Die Anzahl der Elemente einer Menge M wird Ordnung genannt und als |M | geschrieben.

• Gehort ein Objekt x zu einer Menge M , so sagen wir auch ‘x ist in M enthalten’, oderauch ‘x ist Element von M ’, und schreiben x ∈ M . Anderenfalls schreiben wir x /∈ M .So gilt z.B.

−1 ∈ Z , aber − 1 /∈ N .

• Zwei Mengen sind gleich, M = N genau dann wenn die Aussagen x ∈ M und x ∈ Naquivalent sind (x ∈M ⇔ x ∈ N), anderenfalls sind sie ungleich, M 6= N .

• Die leere Menge ∅ = {} ist die Menge zu der kein Objekt gehort, d.h. x /∈ ∅ fur alleObjekte x.

Page 5: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

1 Mengen und Abbildungen 5

• Es ist auch moglich, Mengen durch Charakterisierung ihrer Elemente zu definieren. Sokann man haufig die Menge all derjeniger Objekte bilden, die eine Eigenschaft E besitzen:

M = {x |x hat die Eigenschaft E} ,

d.h. x ist genau dann Element von M , wenn x die Eigenschaft E besitzt. Zum Beispiel

M = {x |x ist eine gerade naturliche Zahl} = {2, 4, 6, . . .} .

Achtung - das geht nicht immer: betrachte z.B.

M = {x |x ist eine Menge und x /∈ x} .

Wurde M existieren, so wurde dies zu einem Widerspruch fuhren, denn fur eine Menge xwurde nach der Definition von M gelten

x ∈M ⇔ x /∈ x .

Angewendet auf x = M wurde das bedeuten

M ∈M ⇔M /∈M , .

Das nennt man die Russelsche Antinomie.

Definition 1.1.(1) Eine Menge M ist Teilmenge (oder auch Untermenge) einer Menge N , falls fur alle

x ∈M auch gilt x ∈ N . Dann schreiben wir M ⊆ N oder N ⊇M . N nennt man dannauch Obermenge von M .

(2) Ist daruberhinaus außerdem M 6= N , so nennt man M echte Teilmenge von N undschreibt M ⊂ N , bzw. N ⊃M .

Bemerkung 1.2.(1) Aus A ⊆ B und B ⊆ C folgt A ⊆ C.(2) Aus A ⊆ B und B ⊆ A folgt A = B.

Beweis. (1) Sei A ⊆ B und B ⊆ C. Dann folgt aus x ∈ A auch x ∈ B und daraus wiederumx ∈ C. Also ist A ⊆ C.(2) Sei A ⊆ B und B ⊆ A. Dann folgt aus x ∈ A auch x ∈ B, und umgekehrt folgt ausx ∈ B auch x ∈ A. Die Aussagen x ∈ A und x ∈ B sind somit aquivalent, x ∈ A ⇔ x ∈ B,und daher A = B.

Definition 1.3. Fur zwei Mengen M und N definieren wir die folgenden Mengen:(1) den Durchschnitt M ∩N := {x |x ∈M ∧ x ∈ N},(2) die Vereinigung M ∪N := {x |x ∈M ∨ x ∈ N} und(3) die Differenz M \N := {x |x ∈M ∧ x /∈ N}.

Page 6: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

6 1.1 Mengen

Abbildung 1: Mengenoperationen am Beispiel von Teilmengen des R2.

Die Differenz wird auch das Komplement von N in M genannt, und auch als M − Ngeschrieben. (Vgl. Abbildung 1.)

Definition 1.4. Zwei Mengen M und N nennt man disjunkt, falls ihr Durchschnitt leerist, M ∩N = ∅.

Bemerkung 1.5. Fur Mengen M und N gilt:

(1) M ∩N ⊆M ⊆M ∪N und genauso M ∩N ⊆ N ⊆M ∪N(2) M \N ⊆M(3) (M \N) ∩N = ∅(4) M \N = ∅ ⇔ M ⊆ N(5) M ∪N = ∅ ⇔ (M = ∅ ∧ N = ∅)

Beweis. (1) Aus x ∈ M ∩ N folgt x ∈ M ∧ x ∈ N . Daraus folgt insbesondere x ∈ M .Damit ist die erste Gleichung in (1) gezeigt. Fur die zweite Gleichung bemerkt man, dassaus x ∈M auch folgt x ∈M ∨ x ∈ N . Den zweiten Teil beweist man analog.(2) Sei x ∈M \N . Das bedeutet x ∈M ∧ x /∈ N , woraus aber insbesondere folgt x ∈M .(3) Nehme an, es gibt ein x ∈ (M \ N) ∩ N . Dann gilt x ∈ M \ N und x ∈ N . Aber ausx ∈M \N folgt insbesondere x /∈ N . Aber x ∈ N ∧ x /∈ N ist ein Widerspruch, . Es kannein solches x also nicht geben, daher ist (M \N) ∩N = ∅.(4) Sei M \N = ∅. Daraus folgt, dass es kein x ∈M gibt mit x /∈ N . Daher folgt aus x ∈Mauch x ∈ N , und M ⊆ N . Sei umgekehrt M ⊆ N , d.h. aus x ∈M folgt x ∈ N . Es gibt alsokein x ∈M mit x /∈ N , und daher ist M \N = ∅.(5) Falls M ∪N = ∅ folgt aus (1) sofort, dass M ⊂ ∅ ist. Daher M = ∅. Gleiches gilt fur dieMenge N . Daraus folgt die Richtung “⇒”der Aussage. Fur die andere Richung nehme an,dass M ∪ N 6= ∅. Das bedeutet, dass es ein x ∈ M oder ein x ∈ N geben muss. Es konnenalso nicht beide Mengen M und N leer sein. Das ist die Negation von M = ∅ ∧ N = ∅.

Bemerkung 1.6. Fur Mengen M,N und O gilt:

(1) M ∩N = N ∩M und M ∪N = N ∪M(2) (M ∩N) ∩O = M ∩ (N ∩O) und (M ∪N) ∪O = M ∪ (N ∪O)(3) (M ∪N) ∩O = (M ∩O) ∪ (N ∩O) und (M ∩N) ∪O = (M ∪O) ∩ (N ∪O)(4) (M \N) ∩O = (M ∩O) \N = (M ∩O) \ (N ∩O)(5) O \ (M ∩N) = (O \M) ∪ (O \N) und O \ (M ∪N) = (O \M) ∩ (O \N)

Page 7: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

1 Mengen und Abbildungen 7

Beweis. Exemplarisch wird die erste Gleichung von (5) gezeigt. Sei x ∈ O \ (M ∩N). Danngilt x ∈ O und x /∈M ∩N , d.h. x /∈M oder x /∈ N . Also x ∈ O \M oder x ∈ O \N . Daherx ∈ (O \M) ∪ (O \N). Es folgt O \ (M ∩N) ⊆ (O \M) ∪ (O \N).Sei andererseits x ∈ (O \M) ∪ (O \N). Dann gilt x ∈ (O \M) oder x ∈ (O \N), also (x ∈O ∧ x /∈M) ∨ (x ∈ O ∧ x /∈ N). Das ist gleichbedeutend mit (x ∈ O) ∧ (x /∈M ∨ x /∈ N),was wiederum gleichbedeutend ist mit (x ∈ O) ∧ (x /∈ (M ∩N)). Es folgt x ∈ O \ (M ∩N).Also (O \M) ∪ (O \N) ⊆ O \ (M ∩N). Mit Hilfe von Bemerkung 1.2(2) folgt (5)

Definition 1.7. Das Produkt zweier Mengen M und N ist definiert als die Menge

M ×N = {(x, y) |x ∈M ∧ y ∈ N}der geordneten Paare (x, y), x ∈M , y ∈ N .Beispiel 1.8. Sei I = [0, 1] = {x ∈ R | 0 ≤ x ≤ 1} ⊂ R dasIntervall zwischen 0 und 1. Dann ist das Produkt I×I geradedas Quadrat mit Eckpunkten (0, 0), (0, 1), (1, 1), (1, 0) in derEbene.

Bemerkung 1.9. Seien M,N and O Mengen. Dann gilt(1) (M ∩N)×O = (M ×O) ∩ (N ×O)(2) (M ∪N)×O = (M ×O) ∪ (N ×O)(3) (M \N)×O = (M ×O) \ (N ×O)

Beweis. Zeige (1). (2) und (3) folgen analog. Sei x ∈ (M∩N)×O. Das ist aquivalent zu x =(a, b) mit a ∈M ∩N und b ∈ O. Das wiederum ist aquivalent zu x ∈ (M×O)∩ (N×O).

Definition 1.10. Das Produkt von Mengen M1, . . . ,Mn ist definiert als die Menge

M1 × . . .×Mn = {(x1, . . . , xn) |x1 ∈M1 , . . . , xn ∈Mn}der geordneten n-Tupel (x1, . . . , xn), x1 ∈M1, . . . , xn ∈Mn.Im Fall Mi = M fur alle 1 ≤ i ≤ n schreiben wir

Mn = M × . . .×M︸ ︷︷ ︸n Faktoren

.

1.2 Abbildungen

Um Beziehungen zwischen Mengen zu beschreiben verwendet man Abbildungen.

Definition 1.11. Eine Abbildung f von einer MengeM in eine MengeN ist eine Vorschrift,die jedem Element m ∈M ein eindeutiges Element n = f(m) ∈ N zuordnet. Man schreibt1

f : M −→ N , m 7−→ f(m) .

1Manchmal wird der Name der Abbildung auch uber den Pfeil gesetzt:

Mf−→ N .

Page 8: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

8 1.2 Abbildungen

Die Menge M nennt man den Definitionsbereich, die Menge N den Wertebereich derAbbildung.

Beispiel 1.12.(1) Fur jede nicht-leere Menge M gibt es die identische Abbildung idM : M −→ M ,

m 7−→ m.(2) Seien M und N zwei nicht-leere Mengen, und n0 ∈ N ein beliebiges Element in N .

Dann ist f : M −→ N , m 7−→ n0 eine konstante Abbildung.(3) Seien M1 und M2 zwei nicht-leere Mengen. Dann nennt man die Abbildungen

pr1 : M1 ×M2 −→ M1 , (m1,m2) 7−→ m1 und

pr2 : M1 ×M2 −→ M1 , (m1,m2) 7−→ m2

die Projektionen auf die beiden Faktoren des Mengenprodukts M1 ×M2.

Beispiel 1.13. Abbildungen f : R −→ R, x 7−→ f(x) werden auch Funktionen genannt.(1) Zum Beispiel definieren die Vorschriften f(x) = x2, oder f(x) = ex sin(x) Funktionen.(2) Man kann auch andere Funktionen definieren:

f(x) =

{1 , x ≥ 00 , x < 0

, oder f(x) =

{x2 , x ∈ Q ⊂ R0 , x /∈ Q .

(3) Beachten Sie, dass f auf dem gesamten Definitionsbereich definiert sein muss. So de-finiert die Vorschrift f(x) = 1

xkeine Abbildung f : R −→ R, da sie in 0 ∈ R nicht

wohldefiniert ist. Sie definiert aber sehr wohl eine Abbildung f : R \ {0} −→ R.(4) Allgemeiner werden auch Abbildungen von Rn −→ R Funktionen genannt. Ein Beispiel

einer solchen Funktion ist die Additition

R2 −→ R , (x, y) 7−→ x+ y .

Definition 1.14. Zwei Abbildungen f : M −→ N und g : M −→ N sind gleich, geschriebenals f = g, falls f(m) = g(m) fur alle m ∈M . Die Menge aller Abbildungen f : M −→ Nwird mit Abb(M,N) bezeichnet.

Abbildungen konnen auf Teilmengen des Definitionsbereiches eingeschrankt werden:

Definition 1.15. Seien M und N Mengen, f : M −→ N eine Abbildung, und M ′ ⊂M eineTeilmenge. Die Einschrankung von f auf M ′ ist definiert durch2

f∣∣M ′

: M ′ −→ N , m 7−→ f(m) .

2In der Tat kann man die Einschrankung auf M ′ auch als eine Abbildung∣∣M ′

: Abb(M,N) −→ Abb(M ′, N) , f 7−→ f∣∣M ′

zwischen Mengen von Abbildungen auffassen.

Page 9: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

1 Mengen und Abbildungen 9

Genauso kann man den Bildbereich einer Funktion ausdehnen: fur f : M −→ N undN ⊂ N , so ist die Ausdehnung von f auf N die Abbildung M −→ N , m 7−→ f(m). Mangibt dieser Abbildung typischerweise keinen neuen Namen, sondern bezeichnet sie einfachals f : M −→ N .

Definition 1.16. Sei f : M −→ N eine Abbildung zwischen den Mengen M und N , undseien M ′ ⊆M und N ′ ⊆ N Teilmengen von M und N . Dann definiert man

(1) das Bild von M ′ als f(M ′) := {f(m) |m ∈M ′} ⊆ N , und(2) das Urbild von N ′ als f−1(N ′) := {m ∈M | f(m) ∈ N ′} ⊆M .

Das Urbild eines Elements n ∈ N definiert man als f−1(n) := f−1({n}).Das Bild f(M) des gesamten Definitionsbereichs wird auch als Bild von f bezeichnet.

Bemerkung 1.17.(1) Es gilt f−1(N) = M , aber im allgemeinen nicht f(M) = N .(2) Es gilt ferner f(M ′) ⊆ N ′ ⇔ M ′ ⊆ f−1(N ′), und damit insbesondere auch(3) M ′ ⊆ f−1(f(M ′)) und f(f−1(N ′)) ⊆ N ′.

Beweis. (2) Sei f(M ′) ⊆ N ′. Daraus folgt, dass f(m) ∈ N ′ fur alle m ∈ M ′, also M ′ ⊆f−1(N ′). Sei andererseits M ′ ⊆ f−1(N ′). Dann folgt, dass f(m) ∈ N ′ fur alle m ∈ M ′, unddamit f(M ′) ⊆ N ′. Damit ist die Aquivalenz gezeigt. Fur (3) setzt man nun in (2) einfachN ′ = f(M ′), bzw. M ′ = f−1(N ′) ein.

Wichtige Eigenschaften von Abbildungen sind:

Definition 1.18. Eine Abbildung f : M −→ N heißt(1) injektiv, falls fur alle n ∈ N f−1(n) hochstens ein Element enthalt,(2) surjektiv, falls f(M) = N und(3) bijketiv, falls f sowohl injektiv als auch surjektiv ist.

Bemerkung 1.19.(1) f ist injektiv, genau dann wenn aus f(m) = f(m′) fur m,m′ ∈M folgt m = m′.(2) f ist surjektiv, genau dann wenn es zu jedem n ∈ N ein m ∈M gibt mit f(m) = n.(3) f ist bijektiv, genau dann wenn es zu jedem n ∈ N genau ein m ∈ M gibt mit

f(m) = n. D.h. f−1(n) besteht fur alle n ∈ N genau aus einem Element. In diesemFall kann man die Umkehrabbildung f−1 : N −→ M definieren als die Abbildungn 7−→ m, die n das eindeutige m ∈ M zuordnet, fur das gilt f(m) = n. (Hierbei istzu beachten, dass das Symbol f−1 in zwei verschiedenen Weisen verwendet wird, zumeinen als Urbild, zum anderen als Umkehrfunktion.)

Beweis. Der Beweis folgt direkt aus den Definitionen.

Definition 1.20. Seien f : M −→ N und g : N −→ O zwei Abbildungen. Die Abbildung

g ◦ f : M −→ O , m 7−→ g(f(m))

Page 10: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

10 1.2 Abbildungen

heißt Komposition oder auch Hintereinanderschaltung von f und g. Als Diagramm:

M

f

g◦f // O

N

g

>> .

Bemerkung 1.21. Die Komposition zweier injektiver (bzw. surjektiver oder bijektiver)Abbildung ist wieder injektiv (bzw. surjektiv oder bijektiv).

Beweis. Seien f : M −→ N und g : N −→ O Abbildungen. Nehme an, beide sind injektiv.Falls nun (g ◦ f)(m) = (g ◦ f)(m′) fur m,m′ ∈M gilt. Dann folgt g(f(m)) = g(f(m′)). Nunist g injektiv, nach Bemerkung 1.19 bedeutet dies f(m) = f(m′). Da aber auch f injektivist, folgt m = m′. Also ist auch g ◦ f injektiv.Betrachte nun den Fall, dass sowohl f als auch g surjektiv sind. Aus der Surjektivitat vong folgt, dass es fur alle o ∈ O ein n ∈ N gibt mit g(n) = o. Da auch f surjektiv ist, gibt eswiederum ein m ∈M mit f(m) = n, also (g ◦ f)(m) = o. Also ist auch g ◦ f surjektiv.Der Fall der Bijektivitat folgt aus den beiden anderen.

Bemerkung 1.22. Die Komposition von Abbildung ist assoziativ, d.h. fur Abbildungenf : M −→ N , g : N −→ O und h : O −→ P gilt

(h ◦ g) ◦ f = h ◦ (g ◦ f) .

Beweis. Das ist einfach zu sehen: fur m ∈M gilt

((h ◦ g) ◦ f)(m) = (h ◦ g)(f(m)) = h(g(f(m))) = h((g ◦ f)(m)) = (h ◦ (g ◦ f))(m) .

Man kann also die Klammern beim Komponieren von Abbildungen weglassen, und schreibt,z.B. fur Abbildungen f : M −→M auch fn := f ◦ . . . ◦ f︸ ︷︷ ︸

n mal

.

Bemerkung 1.23. Sei f : M −→ N . Dann gilt(1) f ◦ idM = f = idN ◦ f .(2) Ist f bijektiv, so gilt f−1 ◦ f = idM und f ◦ f−1 = idN .

Beweis. Der Beweis ist eine direkte Konsequenz aus den Definitionen.

Lemma 1.24. Sei f : M −→ N eine Abbildung zwischen nicht-leeren Mengen M und N .Dann gilt

(1) f ist genau dann injektiv, falls es eine Abbildung g : N −→M gibt, so dass g◦f = idM .(g ist linksinvers zu f .)

(2) f ist genau dann surjektiv, falls es eine Abbildung g : N −→M gibt, so dass f◦g = idN .(g ist rechtsinvers zu f .)

Page 11: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

1 Mengen und Abbildungen 11

(3) f ist genau dann bijektiv, falls es eine Abbildung g : N −→M gibt, so dass g◦f = idMund f ◦ g = idN . In diesem Fall ist g = f−1. (g ist die Umkehrfunktion von f .)

Beweis. (1) Sei f injektiv. Dann gibt es zu jedem n ∈ f(M) genau einm ∈M mit f(m) = n.Definiere g(n) := m. Fur alle n ∈ N \f(M) definiere g(n) := m0, wobei m0 ∈M ein beliebiggewahltes Element ist. Auf diese Weise erhalt man eine Abbildung g mit g ◦ f = idM .Sei umgekehrt eine Abbildung g : N −→ M gegeben, mit g ◦ f = idM . Falls dann f(m) =f(m′) fur m,m′ ∈ M , so folgt m = (g ◦ f)(m) = g(f(m)) = g(f(m′)) = (g ◦ f)(m′) = m′.Nach Bemerkung 1.19 ist daher f injektiv.(2) Sei f surjektiv. Dann ist fur alle n ∈ N das Urbild f−1(n) 6= ∅. Wahle nun fur jedes nein m ∈ f−1(n) aus3, und definiere die Abbildung g : N −→ M durch g(n) := m. Dann giltf ◦ g = idN .Gibt es umgekehrt eine Abbildung g : N −→ M mit f ◦ g = idN , dann gilt fur alle n ∈ N(f ◦ g)(n) = f(g(n)) = n, und f ist surjektiv.(3) Falls f bijektiv ist, so erfullt die Umkehrabbildung f−1 =: g die beiden Relationen. Gibtes umgekehrt ein g : N −→ M , so dass die beiden Relationen erfullt sind, so ist f nach (1)und (2) bijektiv.

1.3 Aquivalenzrelationen

Eine Relation setzt Elemente einer gegebenen Menge M in Beziehung zueinander. Manschreibt m ∼ n, falls m,n ∈M in dieser Beziehung stehen.

Beispiel 1.25.(1) Fur M = R kann man die Relation x ∼ y :⇔ x < y definieren.(2) Fur M = Z kann man die Relation x ∼ y :⇔ (x− y) ist gerade definieren.

Definition 1.26. Eine Relation auf einer Menge M ist eine Teilmenge R ⊂M ×M :

m ∼ n :⇔ (m,n) ∈ R .

Definition 1.27. Eine Relation ∼ auf einer Menge M nennt man Aquivalenzrelation,wenn fur alle m,n, o ∈M gilt

(1) m ∼ m (reflexiv)(2) m ∼ n ⇒ n ∼ m (symmetrisch)(3) m ∼ n und n ∼ o ⇒ m ∼ o (transitiv)

Elemente m ∼ n in M nennt man dann aquivalent.

Definition 1.28. Sei M eine Menge mit einer Aquivalenzrelation ∼. Fur m ∈ M definieredie Aquivalenzklasse

[m] := {n ∈M |n ∼ m} ⊆M .

Bemerkung 1.29. Aquivalenzklassen sind entweder disjunkt, oder identisch.

3Dazu benotigt man das Auswahlaxiom.

Page 12: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

12

Beweis. Gegeben m,n ∈ M . Falls o ∈ ([m] ∩ [n]), so gilt o ∼ m und o ∼ n. Sei jetztp ∈ [n] beliebig. Dann gilt auch p ∼ n. Aus Reflexivitat von ∼ folgt nun n ∼ o und wegenTransitivitat auch p ∼ o und damit auch p ∼ m. Daher ist p ∈ [m]. Es folgt [n] ⊆ [m]. UnterVertauschung der Rollen von m und n erhalt man auf gleiche Art und Weise [m] ⊆ [n], unddaher [m] = [n].Jedes m ∈ M ist also in genau einer Aquivalenzklasse enthalten, und M zerfallt in einedisjunkte Vereinigung von Aquivalenzklassen:

M =⋃

[a]∈M/∼

[a] ,

wobei mit M/∼ die Menge der Aquivalenzklassen, die sogenannte Quotientenmenge be-zeichnet ist. Es gibt eine kanonische Abbildung

M −→M/∼ , m 7−→ [m] .

Das Urbild einer Aquivalenzklasse unter dieser Abbildung ist gerade die Aquivalenzklasseselber, aber aufgefaßt als Teilmenge von M .

Beispiel 1.30. Sei M = Z, und wahle außerdem eine naturliche Zahl p ∈ N. Definiere dieRelation auf Z

x ∼ y :⇔ (x− y) ist durch p teilbar .

Man uberpruft leicht, dass dies eine Aquivalenzrelation ist. Die Aquivalenzklassen sind ge-geben durch

[x] = {x+ np |n ∈ Z} .In der Tat gilt [x] = [x + np] fur alle n ∈ Z, und daher gibt es genau p verschiedeneAquivalenzklassen: [0], [1], . . . , [p− 1], d.h.

Z/∼= {[0], [1], . . . , [p− 1]} .

Das kann man sich leicht wie in Abbildung 2 veranschaulichen. Diese Quotientenmenge, dieauch Z/pZ genannt wird, wird uns im nachsten Kapitel wieder begegnen. Die Aquivalenz-klassen [n] werden auch Restklassen modulo p genannt.

2 Gruppen

2.1 Definition

Interessante mathematische Objekte konnen gewonnen werden, in dem man Mengen mitzusatzlichen Strukturen versieht.

Definition 2.1. Eine Gruppe ist ein Paar (G, ·) bestehend aus einer Menge G zusammenmit einer Abbildung · : G × G −→ G, (g, h) 7−→ g · h, so dass die folgenden Bedingungenerfullt sind:

Page 13: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

2 Gruppen 13

......

......

2p 2p + 1 2p + 2 . . . 3p� 1p p + 1 p + 2 . . . 2p� 10 1 2 . . . p� 1�p �p + 1 �p + 2 . . . �1�2p �2p + 1 �2p + 2 . . . �p� 1

......

......

[0] [1] [2] . . . [p� 1]

Abbildung 2: Z/pZ: rot umrandet sind jeweils die Aquivalenzklassen.

(G1) (g · h) · i = g · (h · i) fur alle g, h, i ∈ G (Assoziativitat)(G2) es gibt ein e ∈ G, so dass g · e = g fur alle g ∈ G (rechts-neutrales Element)(G3) fur alle g ∈ G gibt es ein g′ ∈ G, so dass gg′ = e (rechts-Inverses)Eine Gruppe heißt abelsch oder kommutativ, falls zusatzlich gilt(G4) g · h = h · g, fur alle g, h ∈ G (Kommutativitat)(Manchmal schreibt man auch gh fur g · h.)

Beispiel 2.2.(1) die reellen Zahlen mit der Addition (R,+) sind eine abelsche Gruppe:

die Addition ist assoziativ, (x+ y) + z = x+ (y + z), e = 0, und x−1 = −x(2) die reellen Zahlen ohne Null mit der Multiplikation (R \ {0}, ·) bilden eine abelsche

Gruppe: auch die Multiplikation ist assoziativ (xy)z = x(yz), e = 1, x−1 = 1x

(3) genauso bilden die positiven reellen Zahlen mit der Multiplikation (R>0, ·) eine abelscheGruppe

Satz 2.3.(1) Sei g′ rechts-invers zu g ∈ G. Dann gilt auch g′g = e, d.h. g′ ist auch links-invers zu g.(2) Das rechts-neutrale Element e ∈ G ist auch links-neutral, d.h. e · g = g fur alle g ∈ G.(3) Das neutrale Element ist eindeutig, d.h. falls gh = g so ist h = e.(4) Das Inverse g′ zu g ∈ G ist eindeutig, wir nennen es g′ =: g−1.

Beweis. (1) Nach (G3) gibt es ein rechts-Inverses g′′ von g′. Dann gilt das folgende:

e(G3)= g′g′′

(G2)= (g′e)g′′

(G3)= (g′(gg′))g′′

(G1)= (g′g)(g′g′′)

(G3)= (g′g)e

(G2)= g′g .

(2) Dazu benutzt man (1), also dass g′ sowohl rechts- als auch links-invers zu g ist.

eg(G3)= (gg′)g

(G1)= g(g′g)

(1)= ge

(G2)= g .

(3) Sei h ∈ G mit gh = g. Dann gilt

h(2)= eh

(1)= (g′g)h

(G1)= g′(gh) = g′g

(1)= e .

Page 14: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

14 2.2 Untergruppen und Gruppenhomomorphismen

(4) Sei h ∈ G ein anderes rechts-inverses zu g, d.h. gh = e. Dann gilt

h(2)= eh

(1)= (g′g)h

(G1)= g′(gh) = g′ .

Beispiel 2.4. Betrachte die Quotientenmenge Z/pZ aus Beispiel 1.30. Zu zwei Aquivalenz-klassen [m], [n] ∈ Z/pZ definiere die Menge

[m] + [n] := {a+ b | a ∈ [m] , b ∈ [n]} . (2.1)

In der Tat ist dies wieder eine Aquivalenzklasse:

[m] + [n] = {m+ kp+ n+ lp | k, l ∈ Z} = {(m+ n) + (k + l)p | k, l ∈ Z}= {(m+ n) + rp | r ∈ Z} = [m+ n] .

Gleichung (2.1) definiert also eine Verknufpung + : Z/pZ × Z/pZ → Z/pZ, [m] + [n] 7→[m+n] auf Z/pZ. Diese Verknupfung ist assoziativ und kommutativ, e = [0] ist ein neutralesElement, und [m]−1 = [−m] ist invers zu [m]. (Z/pZ,+) ist daher eine abelsche Gruppe.

Bemerkung 2.5. Die Menge Bij(X,X) der bijektiven Abbildungen X −→ X einer nichtleeren Menge X in sich selber zusammen mit der Komposition · = ◦ ist eine Gruppe. (Aufdiese Art kann man leicht interessante Gruppen konstruieren. Insbesondere werden wir inKapitel 2.3 auf diese Art die wichtigen symmetrischen Gruppen erhalten.)

Beweis. Zunachst stellt man fest, dass nach Bemerkung 1.19 die Komposition zweier bijek-tiver Abbildungen wieder bijektiv ist. ◦ ist daher wirklich eine Verknupfung auf Bij(X,X).Die Assoziativitat der Komposition haben wir in Bemerkung 1.22 gezeigt. Das neutrale Ele-ment ist e = idX , und das Inverse einer bijektiven Abbildung f ist ihre Umkehrabbildungf ′ = f−1, vgl. Bemerkung 1.23.

2.2 Untergruppen und Gruppenhomomorphismen

In den Kapitel 1.1 und 1.2 wurden Untermengen und Abbildungen eingefuhrt, um Beziehun-gen zwischen Mengen beschreiben zu konnen. Fur die Untersuchung von Relationen zwischenGruppen paßt man diese Begriffe dahingehend an, dass sie mit der zusatzlichen Struktur derGruppen, d.h. der Gruppenverknupfung · : G×G→ G kompatibel sind.

Definition 2.6. Eine Untergruppe ist eine nicht-leere Teilmenge H von G, so dass fur allea, b ∈ H folgt ab−1 ∈ H. Man schreibt H ⊆ G.

Bemerkung 2.7. In der Tat ist unter diesen Bedingungen H mit der von G geerbtenVerknupfung selber eine Gruppe. Wahlt man a = b so folgt direkt, dass e ∈ H ist. Wahltman nun a = e, so folgt, dass fur alle b ∈ H auch b−1 in H ist. Die Gruppenverknupfungbildet H ×H nach H ab. Assoziativitat folgt aus der Assoziativitat der Verknupfung auf G.

Page 15: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

2 Gruppen 15

Beispiel 2.8.(1) (Z,+) ⊂ (Q,+) ⊂ (R,+)(2) Fur p ∈ N sei pZ = {pn |n ∈ Z} die Menge der durch p teilbaren ganzen Zahlen. Dann

sieht man leicht, dass (pZ,+) ⊂ (Z,+) eine Untergruppe ist.

Satz 2.9. Alle Untergruppen H ⊆ Z sind von der Form pZ, p ∈ N0.

Beweis. Sei H ⊂ Z eine Untergruppe. Es gilt 0 ∈ H. Falls H = {0}, so ist H = pZ mitp = 0. Falls andererseits H ⊃ {0}, so enthalt sie mindestens eine positive ganze Zahl, dennfur alle q ∈ H ist auch −q ∈ H. Sei p die kleinste positive ganze Zahl in H. Aus der Grup-peneigenschaft folgt weiter, dass auch alle np, mit n ∈ Z in H enthalten sein mussen, alsopZ ⊆ H. In der Tat ist H = pZ. Denn gabe es ein q ∈ H \pZ, so waren auch alle q−np ∈ H.Die kleinste positive solche Zahl ist aber kleiner als p, . Das ist ein Widerspruch, da p jadie kleinste positive ganze Zahl in H ist.

Um Gruppen zu vergleichen betrachtet man Abbildungen zwischen Gruppen, die mit derVerknupfung kompatibel sind:

Definition 2.10. Seien (G, ·G) und (H, ·H) zwei Gruppen. Ein Gruppenhomomorphis-mus von G nach H ist eine Abbildung ϕ : G→ H, so dass fur alle g, h ∈ G gilt:

ϕ(g ·G h) = ϕ(g) ·H ϕ(h) . (GH)

Ist ϕ ferner bijektiv, so nennt man es einen Gruppenisomorphismus, und die beidenGruppen isomorph. Man schreibt dann G ∼= H.(Da meist klar ist, welche Verknupfung gemeint ist, werden die Verknupfungen in der Nota-tion normalerweise nicht unterschieden, sondern man schreibt ‘·’ sowohl fur die Verknupfungin G als auch fur die in H.)

Beispiel 2.11.(1) Fur p ∈ N ist die Inklusionsabbildung

i : pZ −→ Zpn 7−→ pn

ein Gruppenhomomorphismus.(2) Daruberhinaus ist die Abbildung

Z −→ pZn 7−→ pn

ein Gruppenisomorphismus. Z und pZ sind also isomorph.(3) Außerdem ist die Quotientenabbildung

mod− p : Z −→ Z/pZn 7−→ [n]

die n auf die Aquivalenzklasse [n] abbildet ein Gruppenhomomorphismus.

Page 16: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

16 2.2 Untergruppen und Gruppenhomomorphismen

(4) ({±1}, ·), die Menge bestehend aus ±1 zusammen mit der Multiplikation bildet eineGruppe, wobei hier e = 1 ist. Vermoge des Gruppenisomorphismus

({±1}, ·) −→ (Z/2Z,+)

+1 7−→ [0]

−1 7−→ [1]

ist ({±1}, ·) isomorph zu (Z/2Z,+).(5) Die Abbildung

exp : R −→ R>0

x 7−→ ex

ist ein Isomorphismus zwischen den beiden Gruppen (R,+) und (R>0, ·).Proposition 2.12. Seien G und H zwei Gruppen und ϕ : G −→ H ein Gruppenhomomor-phismus.

(1) Dann gilt ϕ(eG) = eH und ϕ(g−1) = (ϕ(g))−1 fur alle g ∈ G.(2) Sei G′ ⊆ G eine Untergruppe von G, dann ist ϕ(G′) eine Untergruppe von H. Insbe-

sondere ist ϕ(G) Untergruppe von H.(3) Ist H ′ ⊆ H eine Untergruppe von H, so ist auch ϕ−1(H ′) eine Untergruppe von G.

Insbesondere ist der Kern ker(ϕ) := ϕ−1({eH}) ⊂ G eine Untergruppe.4

(4) Ist ϕ ein Gruppenisomorphismus, so gilt das auch fur die Umkehrabbildung ϕ−1.

Beweis. (1) Es gilt ϕ(g) = ϕ(eG · g) = ϕ(eG) · ϕ(g). Mit Satz 2.3 folgt ϕ(eG) = eH .Daraus folgt weiter eH = ϕ(eG) = ϕ(g · g−1) = ϕ(g) · ϕ(g−1). Nach Satz 2.3 gilt daher(ϕ(g))−1 = ϕ(g−1).(2) Seien a, b ∈ ϕ(G′), d.h. a = ϕ(g), b = ϕ(h) fur g, h ∈ G′. Dann gilt aber a · b−1 =ϕ(g) · (ϕ(h))−1 = ϕ(g) · ϕ(h−1) = ϕ(g · h−1). Dies ist aber in ϕ(G′), da G′ eine Untergruppeist, vgl. Definition 2.6.(3) Seien a, b ∈ ϕ−1(H ′). Dann gilt ϕ(a), ϕ(b) ∈ H ′. Da dies eine Untergruppe ist folgt, dassH ′ 3 ϕ(a) · (ϕ(b))−1 = ϕ(a) · ϕ(b−1) = ϕ(a · b−1), und daher ist auch a · b−1 in ϕ−1(H ′). Esist also eine Untergruppe.(4) Die Umkehrabbildung ist bijektiv. Zu zeigen ist lediglich, dass sie ein Gruppenhomomor-phismus ist. Seien a, b ∈ H mit ϕ(a′) = a und ϕ(b′) = b. Dann gilt ϕ−1(a) ·ϕ−1(b) = a′ · b′ =ϕ−1(ϕ(a′ · b′)) = ϕ−1(ϕ(a′) · ϕ(b′)) = ϕ−1(a · b).

Beispiel 2.13.(1) Das Bild i(pZ) = pZ ⊂ Z der Inklusionsabbildung in Beispiel 2.11(1) ist eine Unter-

gruppe.(2) Der Kern ker(mod− p) = pZ der Quotientenabbildung mod− p in Beispiel 2.11(3) ist

eine Untergruppe.

4Der Kern ist in der Tat sogar eine sogenannte normale Untergruppe. Dies sind sehr wichtige spezielleUntergruppen, die hier jedoch nicht diskutiert werden.

Page 17: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

2 Gruppen 17

2.3 Die Symmetrische Gruppe

Wahlt man in Bemerkung 2.5 die Menge X = {1, . . . , n} fur n ∈ N so erhalt man diesogenannte symmetrische Gruppe

Sn := (Bij(X,X), ◦) . (2.2)

Elemente π ∈ Sn sind Bijektionen von {1, . . . , n}, d.h. Abbildungen die die Zahlen von1 bis n miteinander permutieren. Man nennt sie daher auch Permutationen und Sn diePermutationsgruppe. Man benutzt die Schreibweise

Sn 3 π =

(1 2 . . . n

π(1) π(2) . . . π(n)

).

Die Gruppe S1 besteht nur aus dem neutralen Element e. Die Gruppe S2 besteht aus zweiElementen, der Identitatsabbildung e, und der Transposition τ , die 1 und 2 vertauscht:

e =

(1 21 2

), τ =

(1 22 1

).

Es gilt τ 2 = e, und daher ist S2 isomorph zu der abelschen Gruppe Z/2Z

S2

∼=−→ Z/2Z .e 7−→ [0]

τ 7−→ [1]

Fur n > 2 ist Sn nicht abelsch, denn seien π und σ die Permutationen, die die Elemente 1und 2, bzw. 2 und 3 vertauschen:

π =

(1 2 3 . . . n2 1 3 . . . n

), σ =

(1 2 3 4 . . . n1 3 2 4 . . . n

),

so gilt

π ◦ σ =

(1 2 3 4 . . . n2 3 1 4 . . . n

)6=(

1 2 3 4 . . . n3 1 2 4 . . . n

)= σ ◦ π .

Man sieht leicht, dass Sn die Ordnung |Sn| = n! hat. Denn um π zu spezifizieren, muß mandie Bilder π(i) fur alle 1 ≤ i ≤ n festlegen. Das kann man sukzessive tun. Bei π(1) hatman n verschiedene Moglichkeiten, namlich alle Elemente von {1, . . . , n}. Da π injektiv ist,muß π(1) 6= π(2) gelten. Bei π(2) hat man daher nur noch (n − 1) Moglichkeiten, namlich{1, . . . , n}\{π(1)}. Bei der Wahl von π(3) gibt es nur noch (n−2) Moglichkeiten, und bei π(i)(n+ 1− i) viele. Insgesamt hat man also n(n− 1) . . . 1 = n! unterschiedliche Permutationen.

Bemerkung 2.14. Die Teilmenge

{π ∈ Sn |π(n) = n} ⊂ Sn

aller Elemente in Sn, die n ∈ X auf n abbilden ist eine Untergruppe von Sn, die isomorphist zu Sn−1.

Page 18: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

18 2.3 Die Symmetrische Gruppe

Permutationen, die zwei Elemente i 6= j ∈ X vertauschen, und alle anderen invariantlassen werden Transpositionen genannt:

Sn 3 (i j) : x 7−→

x , x /∈ {i, j}j , x = ii , x = j

.

Fur diese gilt (i j) = (j i), und außerdem (i j)2 = e. Die Transpositionen erzeugen die gesamtePermutationsgruppe. Genauer gilt

Proposition 2.15. Jede Permutation π ∈ Sn kann als Produkt von hochstens (n − 1)Transpositionen dargestellt werden.

Beweis. Das beweist man leicht induktiv nach n. Es ist klar fur n = 1. Sei nun π ∈ Sn. Fallsπ(n) = n, so liegt π in der in Bemerkung 2.14 beschriebenen Untergruppe Sn−1 ⊂ Sn, und istdaher nach Induktionsvorraussetzung darstellbar als Produkt von hochstens (n−2) < (n−1)Transpositionen. Falls andererseits π(n) = p 6= n, so bildet die Komposition ((n p) ◦π) n aufn ab: ((n p)◦π)(n) = n. Also ist (n p)◦π ∈ Sn−1 und kann nach Induktionsvorraussetzung alsProdukt von hochstens (n−2) Transpositionen geschrieben werden. Mit (n p)2 = e folgt nun,dass π als Transposition aus hochstens (n− 1) Transpositionen dargestellt werden kann.

Definition 2.16. Fur π ∈ Sn definiere die Menge der Fehlstande

Fπ := {(i, j) | i < j , und , π(i) > π(j)}

von π.

l(π) := |Fπ|nennt man die Lange von π, und

sign(π) := (−1)l(π)

das Signum von π. Ferner nennt man π gerade (ungerade) falls sign(π) = +1(−1).

Satz 2.17.

(1) sign(e)=1(2) Fur σ ∈ Sn gilt

sign(σ) =∏

1≤i<j≤n

σ(i)− σ(j)

i− j =∏

{a,b}⊂{1,...,n}, a 6=b

σ(a)− σ(b)

a− b .

(3) sign(π ◦ σ) = sign(π) sign(σ) .(4) Falls τ ∈ Sn eine Transposition ist so gilt sign(τ) = −1.

Page 19: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

3 Korper 19

Beweis. (1) e hat keine Fehlstande.(2) Der Unterschied der beiden Produktformeln liegt lediglich in dem Umstand, dass dieReihenfolge der beiden Elemente in der ersten Formel vorgegeben ist, und in der zweitennicht. Die Formel hangt von der Reihenfolge jedoch nicht ab. Daher ist die zweite Formelwohldefiniert, und gleich der ersten. Wenn nun {a, b} alle Teilmengen von {1, . . . , n} mitzwei Elementen durchlaufen, so gilt das auch fur {σ(a), σ(b)}. Daher sind die Betrage desNenners und des Zahlers in der Gleichung identisch. Der Quotient muß also ±1 sein. Wieman an der ersten Formel sieht, muß das Vorzeichen aber gerade (−1)|Fσ | = sign(σ) sein.(3) Nach (2) gilt

sign(π ◦ σ) =∏

{a,b}⊂{1,...,n}, a 6=b

(π ◦ σ)(a)− (π ◦ σ)(b)

a− b

=∏

{a,b}⊂{1,...,n}, a 6=b

((π ◦ σ)(a)− (π ◦ σ)(b)

σ(a)− σ(b)

)(σ(a)− σ(b)

a− b

)

=

∏{a,b}⊂{1,...,n}, a 6=b

π(a)− π(b)

a− b

∏{a,b}⊂{1,...,n}, a 6=b

σ(a)− σ(b)

a− b

= sign(π) sign(σ) .

Dabei wurde verwendet, dass {σ(a), σ(b)} alle zwei-Elemente Teilmengen von {1, . . . , n}durchlauft, wenn {a, b} alle solche Teilmengen durchlauft.(4) Sei τ = (i j) mit oBdA i < j. Dann sind die Fehlstande gegeben durch die disjunkteVereinigung

Fτ = {(i, l) | i < l < j} ∪ {(l, j) | i < l < j} ∪ {(i, j)} ,

und da die ersten beiden Teilmengen die gleiche Ordnung haben folgt die Behauptung.

Bemerkung 2.18. Satz 2.17(3) besagt insbesondere, dass die Abbildung sign : Sn → {±1}ein Gruppenhomomorphismus ist, vgl. Beispiel 2.11(4). Nach Proposition 2.12 ist der Kernker(sign) = {π ∈ Sn |π ist gerade} eine Untergruppe von Sn. Diese wird alternierendeGruppe genannt und mit An bezeichnet.

3 Korper

3.1 Definition

Im vorherigen Kapitel wurden Gruppen als Mengen mit einer Verknupfung eingefuhrt. In derLinearen Algebra benotigt man Objekte, die wie z.B. die reellen Zahlen zwei Verknupfungenhaben, Addition und Multiplikation.

Page 20: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

20 3.1 Definition

Definition 3.1. Ein Korper ist ein Tripel (K,+, ·) bestehend aus einer nicht-leeren MengeK und zwei Verknupfungen

+ : K ×K −→ K und · : K ×K −→ K ,(x, y) 7−→ x+ y (x, y) 7−→ x · y

so dass die folgenden Axiome erfullt sind(K1) (K,+) ist eine abelsche Gruppe. Das neutrale Element bezeichnen wir mit 0.(K2) (K∗ = K \ {0}, ·) ist eine abelsche Gruppe.(K3) Distributivgesetz: fur alle x, y, z ∈ K gilt

(x+ y) · z = (x · z) + (y · z) und z · (x+ y) = (z · x) + (z · y) .

Schwacht man die Korperaxiome (K1-3) dahingehend ab, dass man statt (K2) lediglichdie Assoziativitat der Verknupfung · fordert, erhalt man die Definition eines Rings:

Definition 3.2. Ein Ring ist ein Tripel (K,+, ·) wie in Definition 3.1, das (K1) und (K3)erfullt, und dessen Multiplikation · assoziativ ist.

Notation 3.2.1. Sei (K,+, ·) ein Korper, dann verwenden wir die folgenden Notationen:• das Inverse von x in der Gruppe (K,+) bezeichnen wir mit −x• wir schreiben x− y fur x+ (−y)• das neutrale Element von (K∗, ·) bezeichnen wir mit 1• x−1 oder auch 1

xist das Inverse von x in der Gruppe (K∗, ·)

• wir schreiben xy fur x · y und xy

fur xy−1 bzw. y−1x• fur x ∈ K∗, i ∈ Z verwenden wir die Potenzschreibweise

xi =

1 , i = 0x · x · . . . · x︸ ︷︷ ︸

i mal

, i > 0

(x−i)−1 , i < 0

• wir benutzen die ‘Punkt-vor-Strich-Regel’ und schreiben x+ yz fur x+ (yz)

Beispiel 3.3.• (R,+, ·) und (Q,+, ·) sind Korper.• Auch

Q[√

2] := {r + s√

2 | r, s ∈ Q}ist ein Korper. (Siehe Ubungsaufgabe.)• (Z,+, ·) ist kein Korper, sondern nur ein Ring, denn es gibt nicht fur jede ganze Zahl

ein multiplikatives Inverses.

Bemerkung 3.4. In einem Korper gelten die folgenden Regeln (x, y, z ∈ K):(1) 1 6= 0(2) 0 · x = 0 = x · 0 fur alle x ∈ K(3) x · y = 0 ⇒ (x = 0 ∨ y = 0)

Page 21: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

3 Korper 21

(4) x · (−y) = −x · y, (−x) · (−y) = x · y(5) (x · z = y · z ∧ z 6= 0) ⇒ x = y

Beweis. (1) 1 ∈ K∗ = K \ {0}.(2) Aus dem Distributivgesetz (K3) folgt 0x = (0 + 0)x = 0x + 0x. Mit Satz 2.3(3) folgtdaher 0x = 0. Analog zeigt man x0 = 0.(3) Wegen der Gruppeneigenschaft von (K∗, ·) ist xy 6= 0 falls x, y ∈ K∗.(4) xy + x(−y) = x(y + (−y)) = x0 = 0 ⇒ x(−y) = −xy. Ferner (−x)(−y) = −(−x)y =−(−xy) = xy.(5) Die Behauptung gilt wegen der Gruppeneigenschaft fur x, y ∈ K∗. Falls nun x = 0, somuß nach (3) auch y = 0 sein. Es folgt also auch in diesem Fall x = y.

Satz 3.5. Definiere das Produkt zweier Aquivalenzklassen [m], [n] ∈ Z/pZ als

[m] · [n] := {MN + kp |M ∈ [m] , N ∈ [n] , k ∈ Z} .

Dann gilt [m] · [n] = [mn]. Neben der Addition (vgl. Gleichung (2.1)) ist · also eine weitereVerknupfung auf Z/pZ. Falls p ∈ N eine Primzahl ist, so ist (Z/pZ \ {[0]}, ·) eine abelscheGruppe und (Z/pZ,+, ·) ein Korper, der auch Fp genannt wird.5

Beweis. Es gilt

[m] · [n] = {(m+ ap)(n+ bp) + kp | a, b, k ∈ Z}= {mn+ p(k +mb+ na+ abp) | a, b, k ∈ Z} = {mn+ pl | l ∈ Z}= [mn]

Dass (Z/pZ,+) eine abelsche Gruppe ist, ist bekannt. Kommutativitat und Assoziativitatvon · und das Distributivgesetz folgen aus den entsprechenden Eigenschaften von Z. Dasneutrale Element von (Z/pZ \ {[0]}, ·) ist [1]. Fur die Existenz von Inversen benotigt mandass p eine Primzahl ist. In diesem Fall ist die Multiplikation mit [n] 6= [0] eine injektiveAbbildung auf Z/pZ. Denn aus [n][a] = [n][b] folgt, dass n(a− b) durch p teilbar. Da p primist, und n nicht durch p teilbar, muß (a − b) durch p teilbar sein, also [a] = [b]. Da Z/pZeine endliche Menge ist, folgt aus der Injektivitat auch die Surjektivitat. Insbesondere gibtes also ein [n′] mit [n] · [n′] = [1].

Bemerkung 3.6. Falls p keine Primzahl ist, so gibt es in Z/pZ sogenannte Nullteiler, d.h.es gibt [n], [m] ∈ Z/pZ \ {[0]} mit [m] · [n] = [0]. Falls namlich p = ab mit a, b ∈ N>1, sogilt [a], [b] 6= [0] aber [a] · [b] = [0]. Insbesondere ist (Z/pZ \ {[0]}, ·) keine Gruppe. Da dieMultiplikation assoziativ ist, ist Z/pZ aber trotzdem noch ein Ring.

5Diese Konstruktion laßt sich verallgemeinern: in der Tat, gibt es fur jede Primzahl p und jedes n ∈ Neinen Korper Fq mit q = pn Elementen, und jeder endliche Korper ist isomorph (siehe unten) zu einemsolchen Korper Fq.

Page 22: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

22 3.2 Unterkorper und Korperhomomorphismen

Beispiel 3.7. Der Korper F2 hat zwei Elemente: das neutrale Element der Addition 0und das neutrale Element der Multiplikation 1. Multiplikation und Addition sind durch diefolgenden Tabellen beschrieben:

+ 0 10 0 11 1 0

· 0 10 0 01 0 1

Wenn man 0 und 1 als die logischen Werte ‘falsch’ und ‘wahr’ interpretiert, entsprechen dieOperationen + und · gerade den logischen Operationen ∨ (‘xor’) und ∧ (‘und’).

3.2 Unterkorper und Korperhomomorphismen

Genau wie bei Gruppen adaptiert man die Begriffe Untermenge und Abbildung derart, dasssie mit der zusatzlichen Korper-Struktur kompatibel sind, um damit Beziehungen zwischenKorpern formulieren zu konnen.

Definition 3.8. Sei L ⊆ K eine Teilmenge eines Korpers (K,+, ·), so dass (L,+) ⊆ (K,+)und (L \ {0}, ·) ⊆ (K \ {0}, ·) Untergruppen sind, so ist (L,+, ·) selber ein Korper, mannennt ihn einen Unterkorper von K.

Definition 3.9. Seien (K,+K , ·K) und (L,+L, ·L) Korper, und f : K → L eine Abbildung,die mit der Addition und Multiplikation kompatibel ist, d.h.

f(x+K y) = f(x) +L f(y) und f(x ·K y) = f(x) ·L f(y) ,

dann nennt man f einen Korperhomomorphismus6.Ist f bijektiv, so nennt man f Korperisomorphismus, und die beiden Korper isomorph.Man schreibt (K,+K , ·K) ∼= (L,+L, ·L).(Handelt es sich bei (K,+K , ·K) und (L,+L, ·L) um Ringe, nennt man f einen Ringhomo-morphismus.)

Beispiel 3.10. Q ⊂ Q[√

2] ⊂ R sind Unterkorper und die jeweiligen Inklusionen sindKorperhomomorphismen.

Lemma 3.11. Sei K ein Korper. Dann ist

ϕ : Z −→ K

n 7−→ n · 1K := 1K + . . .+ 1K︸ ︷︷ ︸n mal

ein Ringhomomorphismus.

Beweis. Einfach.

6Anders ausgedruckt mussen f : (K,+K) → (L,+L) und f |K∗ : (K∗, ·K) → (L∗, ·L) Gruppenhomomor-phismen sein.

Page 23: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

3 Korper 23

Definition 3.12. Die Charakteristik eines Korpers K ist definiert als

char(K) :=

{0 , n · 1K 6= 0 ∀n ∈ Nmin{n ∈ N |n · 1K = 0} , sonst

.

Proposition 3.13.(1) Die Charakteristik eines Korpers ist entweder 0 oder eine Primzahl.(2) char(Q) = char(Q[

√2]) = char(R) = 0

(3) Sei p eine Primzahl. Dann ist char(Fp) = p.

Beweis. (1) Nehme an, dass char(K) = ab mit a, b ∈ N>1. Da die Abbildung ϕ einRinghomomorphismus ist, folgt 0 = ϕ(ab) = ϕ(a) ·K ϕ(b). Nach Bemerkung 3.4(3) folgt,ϕ(a) = 0 oder ϕ(b) = 0. Das ist ein Widerspruch zur Definition der Charakteristik, denna, b < char(K).(2) In Q,Q[

√2],R gilt n · 1 = n 6= 0 fur alle n ∈ N.

(3) In Fp gilt n · [1] = [n]. Das ist gleich 0 = [0] in Fp genau dann wenn n ∈ pZ.

3.3 Die komplexen Zahlen

Satz 3.14. Die Menge R× R = {(x, y) |x, y ∈ R} zusammen mit den Verknupfungen

(a, b) + (x, y) = (a+ x, b+ y) und (a, b) · (x, y) = (ax− by, ay + bx)

ist ein Korper, mit 0 = (0, 0) und 1 = (1, 0). Die Inversen sind gegeben durch

− (x, y) = (−x,−y) und (x, y)−1 =

(x

x2 + y2,−y

x2 + y2

),

wobei bei dem multiplikativen Inversen (x, y) 6= (0, 0) vorrausgesetzt ist. Man nennt denKorper auch Korper der komplexen Zahlen, und bezeichnet ihn als C.

Beweis. Ubungsaufgabe.

Die Abbildung R −→ C, x 7−→ (x, 0) ist ein injektiver Korperhomomorphismus. (Dasliest man leicht aus der Definition der Verknupfungen von C ab.) Er identifiziert R alsUnterkorper von C: R = {(x, 0) |x ∈ R} ⊂ C. Wenn man die imaginare Einheit i := (0, 1)definiert, so laßt sich damit jede komplexe Zahl z schreiben als

z = (x, y) = x+ iy .

Dabei nennt man x = <(z) den Realteil von z, und y = =(z) den Imaginarteil. Dieimaginare Einheit hat die Eigenschaft7

i2 = −1 .

Man kann sich die komplexen Zahlen als Punkte in der Gaußschen Zahlenebene veranschau-lichen.

7Das ist auch der Grund, warum die komplexen Zahlen so nutzlich sind. Uber ihnen sind alle quadratischenGleichungen losbar, insbesondere x2 = −1.

Page 24: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

24 3.3 Die komplexen Zahlen

Abbildung 3: Gaußsche Zahlenebene: (a) Real- und Imaginarteil, (b) komplexe Konjugation,(c) Absolutbetrag und Argument

Definition 3.15. Die Abbildung

C −→ C (3.1)

z = x+ iy 7−→ z = x− iy

nennt man die komplexe Konjugation.

Proposition 3.16. Die komplexe Konjugation ist ein Korperisomorphismus C→ C. Insbe-sondere gilt

z + w = z + w , und z w = z w .

Desweiteren gilt• z = z• z = z ⇒ z ∈ R ⊂ C• <(z) = 1

2(z + z), =(z) = 1

2i(z − z)

• z z = x2 + y2 ∈ R≥0 fur z = x+ iy

Beweis. Das rechnet man leicht nach.

Definition 3.17. Der Absolutbetrag einer komplexen Zahl z = x+ iy ist definiert durch

|z| = |x+ iy| =√zz =

√x2 + y2 .

Bemerkung 3.18. Es gilt• |zw| = |z| |w|• |z| = |z|• |z + w| ≤ |z|+ |w| (Dreiecksungleichung)

Page 25: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

3 Korper 25

Abbildung 4: Addition und Multiplikation in der Gaußschen Zahlenebene

Beweis. Auch dies rechnet man leicht nach.

Bemerkung 3.19.(1) Sei z = x+ iy ∈ C \ {0}. Es gilt(

x

|z|

)2

+

(y

|z|

)2

= 1 ,

und wie in der Analysis diskutiert wird, gibt es daher ein eindeutiges α ∈ [0, 2π), sodass

z = |z| z|z| = |z|(x

|z| + iy

|z|

)= |z| (cos(α) + i sin(α)) .

Man nennt α auch das Argument von z und schreibt α = arg(z). Das Argumentbezeichnet den Winkel zwischen der x-Achse und dem Vektor z in der GaußschenZahlenebene.

(2) In der Analysis wird ferner die Eulersche Formel bewiesen

eiα = cos(α) + i sin(α) ,

Man kann also jede komplexe Zahl z 6= 0 eindeutig schreiben als

z = |z|ei arg(z) .

(3) Aus den Additionstheoremen der trigonometrischen Funktionen folgt

eiαeiβ = (cos(α) + i sin(α)) (cos(β) + i sin(β))

= (cos(α) cos(β)− sin(α) sin(β)) + i (cos(α) sin(β) + sin(α) cos(β))

= cos(α + β) + i sin(α + β) = ei(α+β) .

Page 26: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

26

Unter Multiplikation verhalten sich die Argumente also additiv, wahrend sich die Be-trage multiplizieren (vgl. Bemerkung 3.18):

z w = |z| ei arg(z) |w| ei arg(w) = |z| |w| ei(arg(z)+arg(w)) .

Addition und Multiplikation von komplexen Zahlen lassen sich in der Gaußschen Zahlenebeneveranschaulichen (siehe Abbildung 4).

4 Vektorraume

4.1 Definition

Definition 4.1. Sei K ein Koper. Ein Vektorraum uber K (oder auch K-Vektorraum) isteine abelsche Gruppe (V,+) zusammen mit einer Verknupfung

· : K × V −→ V

(k, v) 7−→ k · v

so dass die folgenden Axiome erfullt sind:(V1) k · (l · v) = (k l) · v fur alle k, l ∈ K, v ∈ V .(V2) Das 1-Element aus K operiert trivial auf V , d.h. 1 · v = v fur alle v ∈ V .(V3) Fur alle k, l ∈ K, v, w ∈ V gilt

(k + l) · v = k · v + l · v , k · (v + w) = k · v + k · w .

+ wird auch die Vektorraum-Addition genannt, und · die skalare Multiplikation.(Achtung: die Symbole ‘+’ und ‘·’ werden hier jeweils fur zwei unterschiedliche Operationenverwendet: zum einen fur die Addition und Multiplikation im Korper K und zum anderen furdie Vektorraum-Addition und die skalare Multiplikation auf V . Welche Operationen gemeintsind erschließt sich daraus, auf welche Objekte sie angewendet werden.)

Beispiel 4.2.(1) Sei K ein Korper, dann ist die Menge Kn aller n-Tupel mit der folgenden Addition

und skalaren Multiplikation ein Vektorraum:

(x1, . . . , xn) + (y1, . . . , yn) := (x1 + y1, . . . , xn + yn)

k · (x1, . . . , xn) = (k x1, . . . , k xn) ,

wobei hier x1, . . . , xn, y1, . . . , yn, k ∈ K.(2) Fur n = 0 ist der Nullvektorraum K0 := {0} auch ein Vektorraum.(3) Sei K ein Korper und X eine beliebige Menge. Die Menge der Abbildungen Abb(X,K)

von X nach K zusammen mit der Addition

+ : Abb(X,K)× Abb(X,K) −→ Abb(X,K)

(f, g) 7−→ f + g , (f + g)(x) := f(x) + g(x) ,

Page 27: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

4 Vektorraume 27

und der skalaren Multiplikation

· : K × Abb(X,K) −→ Abb(X,K)

(k, f) 7−→ k · f , (k · f)(x) := k f(x) ,

ist ein Vektorraum.(4) Die komplexen Zahlen C sind ein Vektorraum uber R.(5) Sei allgemeiner K ein Korper, V ein K-Vektorraum und L ⊂ K ein Teilkorper, so ist

V auch ein L-Vektorraum.

Bemerkung 4.3. In einem K-Vektorraum V gelten die folgenden Regeln:(1) 0K · v = 0 , fur alle v ∈ V(2) k · 0 = 0 , fur alle k ∈ K(3) fur k ∈ K, v ∈ V hat man k · v = 0 ⇒ (k = 0 ∨ v = 0)(4) (−k) · v = −(k · v)

Beweis. (1) 0K · v = (0K + 0K) · v = 0K · v + 0K · v. Aus der Gruppeneigenschaft von (V,+)folgt 0K · v = 0.(2) Analog stellt man fest k · 0 = k · (0 + 0) = k · 0 + k · 0, und daraus folgt k · 0 = 0.(3) Sei k · v = 0 aber k 6= 0. Dann folgt v = (k−1 k) · v = k−1(k · v) = k−1 · 0 = 0.(4) (k · v) + (−k) · v = (k+ (−k)) · v = (k− k) · v = 0 · v = 0. Es folgt (−k) · v = −(k · v).

4.2 Untervektorraume

Definition 4.4. Sei V ein K-Vektorraum. Eine Teilmenge W ⊆ V heißt Untervektorraumvon V falls gilt

(1) W 6= ∅(2) v, w ∈ W ⇒ v + w ∈ W (Abgeschlossenheit unter der Addition)(3) v ∈ W, k ∈ K ⇒ k · v ∈ W (Abgeschlossenheit unter der skalaren Multiplikation)

Bemerkung 4.5. Sei W ⊆ V ein Untervektorraum.(1) Dann ist W mit der Einschrankung von + und · selber Vektorraum,(2) und (W,+) ist Untergruppe von (V,+).

Beispiel 4.6.(1) {0} ist Untervektorraum eines jeden Vektorraums.(2) Wie bereits gesehen kann man C als R-Vektorraum ansehen. Dann ist R ⊂ C ein

R-Untervektorraum.(3) Sei V ein K-Vektorraum und 0 6= v ∈ V . Dann ist K · v := {k · v | k ∈ K} ⊆ V ein

Untervektorraum.(4) W := {(x, y) ∈ R2 | ax+ by = 0} ist fur alle a, b ∈ R ein Untervektorraum von R2.(5) Sei K ein Korper und X eine nicht-leere Menge. Wir hatten bereits gesehen, dass

V := Abb(X,K) ein K-Vektorraum ist. Sei nun Y ⊆ X eine nicht-leere Teilmenge, undW := {f ∈ Abb(X,K) | f(y) = 0∀ y ∈ Y } die Teilmenge derjenigen Abbildungen vonX nach K, die alle y ∈ Y auf 0 ∈ K abbilden. Dann ist W ⊆ V ein Untervektorraum.

Page 28: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

28 4.3 Erzeugendensysteme, lineare Unabhangigkeit, Basen

Beispiel 4.7. Kein Untervektorraum sind z.B. die folgenden Teilmengen von R2:• {(x, x2) |x ∈ R}• {(x, y) ∈ R2 |x2 + y2 = 1}

Beide sind nicht abgeschlossen unter Addition und skalarer Multiplikation.

Proposition 4.8. Sei V ein K-Vektorraum, I eine Indexmenge und seien Wi ⊆ V Unter-vektorraume fur alle i ∈ I. Dann ist auch

W :=⋂i∈I

Wi = {w |w ∈ Wi ∀ i ∈ I}

ein Untervektorraum von V .

Beweis. Da die Wi alle Untervektorraume von V sind gilt 0 ∈ Wi fur alle i. Damit ist auch0 ∈ W . Seien ferner v, w ∈ W . Daraus folgt, dass v, w ∈ Wi fur alle i ∈ I. Da die Wi

Untervektorraume sind, folgt, dass v + w ∈ Wi fur alle i. Es folgt, v + w ∈ W . Ferner giltfur v ∈ W , dass v ∈ Wi fur alle i. Da die Wi Untervektorraume sind, folgt, dass k · v ∈ Wi

fur alle k ∈ K und alle i. Daher ist auch k · v ∈ W .

Vorsicht – Vereinigungen von Untervektorraumen sind im allgemeinen keine Untervek-torraume:

Bemerkung 4.9. Seien W1,W2 ⊆ V Untervektorraume, so dass W1 ∪W2 ⊆ V auch einUntervektorraum ist. Dann gilt W1 ⊆ W2 oder W2 ⊆ W1.

Beweis. Angenommen W1 6⊆ W2. Sei v2 ∈ W2 und v1 ∈ W1 \W2. Dann sind auf jeden Fallv1, v2 ∈ W1 ∪W2, damit auch v1 + v2. Aber v1 + v2 kann nicht in W2 sein, denn sonst wareauch v1 = (v1+v2)−v2 ∈ W2. Also muß v1+v2 in W1 sein, und damit auch v2 = (v1+v2)−v1.Also W2 ⊆ W1.

4.3 Erzeugendensysteme, lineare Unabhangigkeit, Basen

Im folgenden sei V ein Vektorraum uber einem Korper K.

Definition 4.10. Seien v1, . . . , vn ∈ V . Ein Vektor w ∈ V ist eine Linearkombination vonv1, . . . , vn falls es k1, . . . , kn ∈ K gibt, so dass

w = k1 v1 + . . .+ kn vn .

Definition 4.11. Fur eine Teilmenge S ⊆ V sei

L(S) := {v ∈ V | v ist Linearkombination von Vektoren in S} , L(∅) := {0} .

L(S) ist offensichtlich ein Untervektorraum von V und wird der von S erzeugte Unterraum,oder auch die lineare Hulle von S genannt.8

8Haufig wird die lineare Hulle auch der Spann genannt und span(S) geschrieben.

Page 29: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

4 Vektorraume 29

L(S) ist der kleinste Unterraum, der S enthalt:

Proposition 4.12. Sei S ⊆ V Teilmenge, undWS := {U |U Unterraum von V , der S enthalt},dann gilt

L(S) =⋂

U∈WS

U .

Beweis. Auf der einen Seite ist L(S) ∈ WS, daher L(S) ⊇ ⋂U∈WS

U . Sei andererseitsv ∈ L(S), dann gilt v ∈ U fur alle U ∈ WS, also L(S) ⊆ ⋂U∈WS

U . Daher also L(S) =⋂U∈WS

U .

Insbesondere gilt L(U) = U fur alle Untervektorraume U ⊆ V .

Bemerkung 4.13. Die lineare Hulle besitzt die folgenden Eigenschaften:(1) S ⊆ L(S)(2) S ⊆ T ⇒ L(S) ⊆ L(T )(3) S = L(S) ⇒ S ist Untervektorraum(4) L(L(S)) = L(S)

Beweis. Einfach.

Definition 4.14. S nennt man Erzeugendensystem von V , falls L(S) = V . V ist endlicherzeugt, falls es eine endliche Teilmenge T ⊆ V gibt, mit V = L(T ).

Definition 4.15. Sei S ⊆ V eine Teilmenge. Ein Vektor v ∈ V ist linear abhangig vonS, falls v ∈ L(S). Anderenfalls ist v linear unabhangig von S. Die Menge S heißt linearunabhangig, falls fur alle v ∈ S gilt: v ist linear unabhangig von S \ {v}.

Beispiel 4.16.(1) Fur v ∈ V ist {v} linear unabhangig genau dann wenn v 6= 0.(2) Fur v ∈ V ist k v linear abhangig von {v}.(3) Betrachte die Vektoren e1 = (1, 0) und e2 = (0, 1) in R2. Dann ist S = {e1, e2} linear

unabhangig. Aber e1 − e2 = (1,−1) ist linear abhangig von S.

Lemma 4.17. Sei S ⊆ V eine Teilmenge. Dann sind die folgenden Aussagen aquivalent:(1) S ist linear unabhangig.(2) Fur alle n ∈ N, alle paarweise verschiedene v1, . . . , vn ∈ S, und alle k1, . . . , kn ∈ K gilt

n∑i=1

ki vi = k1 v1 + . . . + kn vn = 0 ⇒ k1 = . . . = kn = 0 .

(3) Fur jedes 0 6= w ∈ L(S) ist die Darstellung w =∑n

i=1 ki vi, vi ∈ S, ki ∈ K bis aufVertauschung der Reihenfolge eindeutig. D.h. falls w =

∑mi=1 k

′i v′i fur v′i ∈ S, k′i ∈ K,

so gilt m = n und v′i = vσ(i), k′i = kσ(i) fur ein σ ∈ Sn.

Page 30: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

30 4.3 Erzeugendensysteme, lineare Unabhangigkeit, Basen

Beweis. (2) gilt nicht ⇒ es gibt n ∈ N, 0 6= vi ∈ S und ki ∈ K∗ mit∑n

i=1 kivi = 0. Alsov1 =

∑ni=2

kik1vi. Daraus folgt, dass S nicht linear unabhangig ist, also gilt (1) nicht. Gelte

umgekehrt (1) nicht, so gibt es ein v1 ∈ S, das linear abhangig von S \ {v1} ist. Es gibtalso ein n ∈ N, Vektoren v2, . . . , vn ∈ S die ungleich v1 sind, und k2, . . . , kn ∈ K, so dassv1 =

∑ni=2 ki vi. Mit k1 := −1 gilt also

∑ni=1 ki vi = 0, wobei nicht alle ki null sind. (2) gilt

also nicht. Damit ist gezeigt (1)⇔(2).Gilt (3) nicht, so gibt es ein 0 6= w ∈ L(S) mit zwei solchen Darstellungen, d.h.

m∑j=1

k′j v′j = w =

n∑i=1

ki vi ,

die nicht Permutationen voneinander sind. Definiere paarweise disjunkte vi ∈ S, so dass{v1, . . . , vn} ∪ {v′1, . . . , v′m} = {v1, . . . , vk}. Dann gilt

0 =m∑j=1

k′j v′j −

n∑i=1

ki vi =k∑l=1

kl vl .

Da die beiden Darstellungen keine Permutationen voneinander sind, gilt dass zumindesteinige der Summanden von Null verschieden sind. Also gilt (2) nicht. Gilt andererseits (2)nicht, so gibt es n > 1 paarweise verschiedene vi ∈ S und ki ∈ K, so dass

∑ni=1 ki vi = 0,

wobei mindesten ein ki von Null verschieden sein muß. Wahle oBdA k1 6= 0. Dann gilt

0 6= w := k1 v1 = −n∑i=2

ki vi .

w hat also zwei unterschiedliche (d.h. nicht durch Permutationen ineinander uberfuhrbare)Darstellungen als Linearkombinationen der vi. Also gilt (3) nicht. Dies zeigt (2)⇔(3).

Proposition 4.18. Sei S ⊆ V linear unabhangig, und 0 6= v 6∈ L(S). Dann ist S ′ := S∪{v}auch linear unabhangig.

Beweis. Anderenfalls gabe es k, ki ∈ K, die nicht alle Null sind, und vi ∈ S (paarweiseverschieden) mit k v +

∑ni=1 ki vi = 0. Falls k = 0, so folgt aus der linearen Unabhangigkeit

von S, dass ki = 0 fur alle i. Also k 6= 0, und daher v =∑n

i=1kikvi. Das bedeutet aber, dass

v ∈ L(S), .

Definition 4.19. Eine Teilmenge S ⊆ V nennt man Basis von V , wenn S ein linearunabhangiges Erzeugendensystem von V ist.

Proposition 4.20. S ⊆ V ist Basis genau dann wenn sich jedes Element v ∈ V eindeutig(bis auf Permutationen) schreiben laßt als v =

∑ni=1 ki vi, wobei vi ∈ S paarweise verschieden

sind, und ki ∈ K.

Page 31: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

4 Vektorraume 31

Beweis. Sei S eine Basis. Da es ein Erzeugendensystem ist, folgt dass sich v ∈ V schrei-ben laßt als v =

∑ni=1 ki vi. Da S linear unbhangig ist, folgt nach Lemma 4.17, dass diese

Darstellung bis auf Permutationen eindeutig ist. Hat umgekehrt jedes v ∈ V eine solcheDarstellung, so ist S ein Erzeugendensystem. Aus der Eindeutigkeit folgt nach Lemma 4.17auch die lineare Unabhangigkeit von S.

Beispiel 4.21. Fur n ∈ N betrachte Kn. Definiere die Vektoren ei := (0, . . . , 0, 1, 0, . . . , 0)1 ≤ i ≤ n, deren Eintrage alle Null sind, außer an der i-ten Stelle, wo der Eintrag 1 ist. Dannist die Menge B := {e1, . . . , en} eine Basis von Kn, die auch die Standardbasis genanntwird.

Beweis. Die Menge B erzeugt Kn, denn (k1, . . . , kn) =∑n

i=1 ki ei. Außerdem ist B linearunabhangig, denn

L(B \ {ej}) = {n∑i=1i6=j

ki ei | ki ∈ K} = {(k1, . . . , kn) | ki ∈ K , kj = 0} 63 ej .

Lemma 4.22. Sei S eine endliche Teilmenge eines Vektorraumes V , die V erzeugt. Danngibt es eine Teilmenge B ⊆ S, die eine Basis von V ist.

Beweis. Sei M die Menge aller Teilmengen von S, die V erzeugen:

M := {U ⊆ S | L(U) = V } .

M besteht aus endlichen Mengen und ist nicht leer (S ∈ M). Sei B ∈ M eine Teilmenge,mit der kleinsten Anzahl von Elementen, d.h. |B| ≤ |U | fur alle U ∈ M . Dann ist B linearunabhangig und insbesondere eine Basis von V . Ware dem nicht so, gabe es ein b ∈ B mitb ∈ L(B \ {b}), und B′ := B \ {b} ∈M , denn

L(B′) = L(L(B′)) (Bemerkung 4.13)= L(L(B′) ∪ {b}) (b ∈ L(B′))⊇ L(B) = V (L(B′) ∪ {b} ⊇ B)

Also erzeugt B′ auch V und ist damit Element von M , , da |B′| < |B|.

Bemerkung 4.23. Mit Hilfe des Auswahlaxioms kann man Lemma 4.22 auch fur nicht-endliche S fuhren. Insbesondere hat jeder Vektorraum eine Basis.

Korollar 4.24. Jeder Vektorraum der ein endliches Erzeugendensystem besitzt hat aucheine endliche Basis.

Page 32: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

32 4.3 Erzeugendensysteme, lineare Unabhangigkeit, Basen

Definition 4.25. Man nennt einen Vektorraum endlich-dimensional, wenn er eine endli-che Basis besitzt.

Satz 4.26 (Austauschsatz von Steinitz). Sei V ein Vektorraum uber einem Korper K. T ⊆ Veine endliche Teilmenge, die V erzeugt, und S ⊆ V eine linear unabhangige Menge. Danngilt

(1) |S| ≤ |T |(2) S kann durch |T | − |S| Elemente von T zu einem Erzeugendensystem von V erganzt

werden.

Beweis. Beweis durch vollstandige Induktion nach |S|. Fur |S| = 0, d.h. S = ∅ ist dieBehauptung trivial. Angenommen die Behauptung gilt fur alle Mengen mit weniger als |S|Elementen. Sei b ∈ S, und S ′ := S \ {b}. S ′ ist linear unabhangig. Sei n := |T | − |S ′|. Dannist nach (1) n ≥ 0 und es gibt nach (2) t1, . . . , tn ∈ T , sodass S ′ ∪ {t1, . . . , tn} V erzeugt.Insbesondere gibt es ein w ∈ L(S ′) und k1, . . . , kn ∈ K mit b = w +

∑ni=1 ki ti. Falls nun

n = 0, so ist b ∈ L(S ′), zur linearen Unabhangigkeit von S. Also ist n ≥ 1, und es folgt(1) fur S. Aus dem gleichen Grund muß mindestens eines der ki ungleich Null sein, oBdA,kn 6= 0. Es gilt

tn =1

kn(b− w)−

n−1∑i=1

kiknti ∈ L(S ∪ {t1, . . . , tn−1}) ,

und V wird durch S ∪ {t1, . . . , tn−1} erzeugt. Damit ist (2) fur S gezeigt.

Korollar 4.27. Zwei Basen eines endlich-dimensionalen Vektorraumes V haben die gleicheAnzahl von Elementen.

Beweis. Da V endlich-dimensional ist, gibt es eine endliche Basis S ⊆ V . Sei B eine andereBasis, so folgt aus Satz 4.26, dass |B| ≤ |S| gilt. Wenn man nun die Rollen von B und S indem Satz vertauscht folgt aber auch |B| ≥ |S|.

Definition 4.28. Die Anzahl der Elemente einer Basis eines endlich-dimensionalen Vektor-raums V wird Dimension von V genannt. Man schreibt dim(V ).

Korollar 4.29. Sei V endlich-dimensionaler K-Vektorraum, S ⊆ V eine linear unabhangigeTeilmenge, und T ⊆ V ein endliches Erzeugendensystem von V . Dann gilt:

(1) |S| ≤ dim(V )(2) S ist Basis genau dann wenn |S| = dim(V ).(3) |T | ≥ dim(V )(4) T ist Basis genau dann wenn |T | = dim(V ).(5) Jede linear unabhangige Teilmenge S ⊆ V kann zu einer Basis erganzt werden.

Beweis. (1) V ist endlich-dimensional hat also eine Basis B. Satz 4.26 impliziert |S| ≤|B| = dim(V ).(2) Nach Satz 4.26 kann S durch Erganzung von |B| − |S| = 0 Elementen zu einer Basis

Page 33: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

4 Vektorraume 33

erganzt werden.(3) Anwendung von Satz 4.26 auf B und T impliziert dim(V ) = |B| ≤ |T |.(4) Nach Lemma 4.22 gibt es eine Teilmenge T ′ ⊆ T , die eine Basis von V ist. Falls aberT ′ ( T , so ware |T ′| < |T | = dim(V ), .(5) Nach Satz 4.26 kann S durch Erganzung von |B| − |S| Elementen zu einem Erzeugen-densystem S ′ erganzt werden. Es gilt |S ′| ≤ |S| + |B| − |S| = dim(V ). Nach (3) gilt dieGleichheit, und aus (4) folgt, dass S ′ eine Basis ist.

Lemma 4.30. Sei V ein K-Vektorraum, und n ∈ N, so dass fur jede linear unabhangigeMenge S ⊆ V gilt |S| ≤ n, dann ist V endlich-dimensional.

Beweis. Sei S ⊆ V eine linear unabhangige Menge mit |S| = n. Dann ist S auch ein Er-zeugendensystem von V . Denn anderenfalls gabe es ein V 3 v 6∈ L(S), und damit wareS ′ := S ∪ {v} auch linear unabhangig, aber |S ′| > n, .

Proposition 4.31. Sei W ein Untervektorraum eines endlich-dimensionalen VektorraumsV . Dann ist auch W endlich-dimensional und dim(W ) ≤ dim(V ) mit Gleichheit genau dannwenn V = W .

Beweis. Jede linear unabhangige Menge S ⊂ W ist auch in V linear unabhangig. Daher gilt|S| ≤ dim(V ). Nach Lemma 4.30 ist daher auch W endlich-dimensional. Sei B eine Basis vonW . Dann ist B auch linear unabhangig in V . Also gilt dim(W ) = |B| ≤ dim(V ). Bei Gleich-heit gilt |B| = dim(V ), und damit ist B auch eine Basis von V . Also ist V = L(B) = W .

Beispiel 4.32. Seien V und W zwei Vektorraume uber K. Dann ist

V ×W := {(v, w) | v ∈ V, w ∈ W}vermoge

k · (v, w) = (k · v, k · w) fur k ∈ K und

(v, w) + (v′, w′) = (v + v′, w + w′) fur v, v′ ∈ V, w,w′ ∈ Wauch ein Vektorraum. Man nennt ihn auch die außere direkte Summe V ⊕W von V undW . Das Null-Element ist 0V⊕W = (0V , 0W ).

Falls V und W endlich-dimensional sind, mit Basen {v1, . . . , vn} bzw. {w1, . . . , wm}, soist {(v1, 0), . . . , (vn, 0), (0, w1), . . . , (0, wm)} eine Basis von V ⊕W . Insbesondere gilt

dim(V ⊕W ) = dim(V ) + dim(W ) .

Analog tragt auchV r = V × . . .× V︸ ︷︷ ︸

rmal

die Struktur eines K-Vektorraums, und

dim(V r) = r dim(V ) .

Page 34: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

34 4.4 Lineare Abbildungen

Beweis. Seien V und W endlich-dimensionale K-Vektorraume mit Basen {v1, . . . , vn} und{w1, . . . , wm}. Dann ist {(v1, 0), . . . , (vn, 0), (0, w1), . . . , (0, wm)} ein Erzeugendensystem vonV ⊕W . Denn, sei (v, w) ∈ V ×W . Da {v1, . . . , vn} und {w1, . . . , wm} Basen von V und Wsind, gilt

(v, w) =

(n∑i=1

xivi,

m∑j=1

yjwj

)=

(n∑i=1

xivi, 0

)+

(0,

m∑j=1

yjwj

)

=n∑i=1

xi (vi, 0) +m∑j=1

yj (0, wj) .

Es ist außerdem linear unabhangig, denn aus

0 = (0, 0) =n∑i=1

xi (vi, 0) +m∑j=1

yj (0, wj) =

(n∑i=1

xivi,

m∑j=1

yjwj

)

folgt wegen der linearen Unabhangigkeit von {v1, . . . , vn} und {w1, . . . , wn}

x1 = . . . = xn = 0 = y1 . . . = ym .

4.4 Lineare Abbildungen

Um Vektorraume in Beziehung zueinander zu setzen betrachtet man Abbildungen zwischenIhnen, die mit der Vektorraum-Struktur kompatibel sind. Im folgenden bezeichnet K immereinen Korper.

Definition 4.33. Seien V und W K-Vektorraume. Eine Abbildung f : V → W heißtK-linear, oder einfach nur linear, falls

(1) f(v + w) = f(v) + f(w) fur alle v, w ∈ V , (d.h. f : (V,+) → (W,+) ist ein Gruppen-homomorphismus), und

(2) f(k · v) = k · f(v), fur alle k ∈ K und v ∈ V .Lineare Abbildungen nennt man auch Vektorraumhomomorphismen.

Beispiel 4.34.(1) Die Abbildung f : R→ R, die gegeben ist durch x 7→ a x fur ein a ∈ R ist linear.(2) Das gilt auch fur die Abbildung f : Rn → R, x 7→ a1 x1 + . . .+ an xn, wobei ai ∈ R.(3) C ist Vektorraum sowohl uber R als auch uber C. Die Abbildung f : C → C, z 7→ z

ist R-linear, nicht aber C-linear. (f(rz) = rz, aber r = r gilt genau dann wenn r ∈ R.)(4) Sei X eine Menge, x ∈ X, und K ein Korper. Dann ist die Einsetzungsabbildung

Φx : Abb(X,K)→ K, f 7→ f(x) linear.(5) Die Ableitung (·)′ : C∞(R,R) → C∞(R,R), f 7→ f ′, die glatte Funktionen f : R → R

auf ihre Ableitungen abbildet, ist eine lineare Abbildung.

Page 35: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

4 Vektorraume 35

Definition 4.35. Es gibt noch einige weitere Spezialfalle linearer Abbildungen, die eigeneNamen haben: sei f : V → W linear.• Monomorphismus: f ist injektiv,• Epimorphismus: f ist surjektiv,• Isomorphismus: f ist bijektiv, (Dann nennt man V und W isomorph: V ∼= W .)• Endomorphismus: V = W ,• Automorphismus: f ist bijketiv und V = W .

Bemerkung 4.36. Ist f : V → W ein Isomorphismus, dann ist die Umkehrabbildungf−1 : W → V auch linear, und damit ein Isomorphismus.

Proposition 4.37. Seien f, g : V → W lineare Abbildungen, k ∈ K. Dann sind die Abbil-dungen• (f + g) : V → W , x 7→ f(x) + g(x) und• (k · f) : V → W , x 7→ k · f(x)

linear. Insbesondere ist die Menge der linearen Abbildungen V → W ein K-Vektorraum.Wir nennen ihn Hom(V,W ).

Beweis. Einfaches Nachrechnen.

Proposition 4.38.(1) Sei f : V → W eine lineare Abbildung. Dann gilt

f

(n∑i=1

ki xi

)=

n∑i=1

ki f(xi) , fur alle ki ∈ K , xi ∈ V .

(2) Die identische Abbildung id : V → V , x 7→ x ist linear.(3) Die Komposition zweier linearer Abbildungen ist linear.(4) Die Einschrankung einer linearen Abbildung auf einen Untervektorraum ist linear.

Beweis. (1) Induktion nach n. Die Aussage gilt fur n = 1, denn f(k1 x1) = k1 f(x1). Giltdie Aussage fur n, so folgt

f

(n+1∑i=1

ki xi

)= f

(n∑i=1

ki xi + kn+1 xn+1

)= f

(n∑i=1

ki xi

)+ f (kn+1 xn+1)

= f

(n∑i=1

ki xi

)+ kn+1f (xn+1) =

n∑i=1

ki f(xi) + kn+1f(xn+1)

=n+1∑i=1

ki f(xi) .

(2) ist offensichtlich.

(3) Seien Ug−→ V

f−→ W lineare Abbildungen. Fur x, y ∈ U gilt

(f ◦ g)(x+ y) = f(g(x+ y)) = f(g(x) + g(y)) = f(g(x)) + f(g(y)) = (f ◦ g)(x) + (f ◦ g)(y) .

Page 36: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

36 4.4 Lineare Abbildungen

Sei weiter k ∈ K, so gilt

(f ◦ g)(k x) = f(g(k x)) = f(k g(x)) = k f(g(x)) = k (f ◦ g)(x) .

(4) ist auch offensichtlich.

Proposition 4.39. Seien V undW endlich-dimensionaleK-Vektorraume mit Basen {v1, . . . , vn}bzw. {w1, . . . , wm}. Dann ist eine lineare Abbildung f : V → W eindeutig bestimmt durchdie Bilder f(v1), . . . , f(vn) ∈ W , und die linearen Abbildungen

fi,a : V −→ W , v =n∑j=1

xj vj 7−→ xiwa , 1 ≤ i ≤ n , 1 ≤ a ≤ m

formen eine Basis von Hom(V,W ). Daher ist

dim Hom(V,W ) = dim(V ) dim(W ) .

Beweis. Es ist klar, dass f durch die Bilder f(vi) der Basisvektoren festgelegt wird, dennsei g eine andere lineare Abbildung mit g(vi) = f(vi), so folgt (g − f)(vi) = 0 fur alle i unddaher wegen der Linearitat, und dem Umstand, dass die vi V erzeugen (g − f)(v) = 0 furalle v ∈ V . Also g = f .Um zu sehen, dass die fi,a ein Erzeugendensystem von Hom(V,W ) sind, muss man nunzeigen, dass man fur eine beliebige Wahl von u1, . . . , un ∈ W , xi,a ∈ K findet, sodass dielineare Abbildung f =

∑i,a xi,afi,a die vi gerade auf die ui abbildet. Da {w1, . . . , wm} eine

Basis von W ist, kann man die ui schreiben als ui =∑

b yi,awa. Dann bildet f :=∑

i,a yi,a fi,adie Basisvektoren vi auf die ui ab.Ferner sind die fi,a linear unabhangig. Sei namlich f =

∑i,a yi,a fi,a = 0. Dann gilt

0 = f(vj) =∑i,a

yi,a fi,a(vj) =∑a

yj,awa ,

fur alle j. Da die wa linear unabhangig sind, folgt, yj,a = 0 fur alle a und j. Die fi,a sind alsoeine Basis, und daraus folgt sofort die Dimensionsformel.

Proposition 4.40. Sei f : V → W linear und seien X ⊆ V und Y ⊆ W Untervektorraume.Dann ist f(X) ein Untervektorraum von W , und f−1(Y ) ein Untervektorraum von V .

Beweis. Seien w1, w2 ∈ f(X), k ∈ K. Dann gibt es x1, x2 ∈ X mit wi = f(xi). Danngilt aber w1 + w2 = f(x1) + f(x2) = f(x1 + x2) ∈ f(X), denn x1 + x2 ∈ X. Außerdemist k w1 = k f(x1) = f(k x1) ∈ f(X), denn k x1 ∈ X. Also ist f(X) abgeschlossen unterAddition und skalarer Multiplikation, damit also ein Untervektorraum.Seien nun v1, v2 ∈ f−1(Y ). Dann gilt f(vi) = yi ∈ Y . Da Y Untervektorraum, so ist auchY 3 y1 + y2 = f(v1) + f(v2) = f(v1 + v2). Also ist v1 + v2 ∈ f−1(Y ). Fur k ∈ K giltaußerdem Y 3 k y1 = k f(v1) = f(k v1). Also ist k v1 ∈ f−1(Y ). Damit ist auch f−1(Y ) einUntervektorraum.Zwei wichtige Spezialfalle davon sind:

Page 37: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

4 Vektorraume 37

Definition 4.41. Sei f : V → W linear.• Das Bild von f ist der Untervektorraum im(f) := f(V ) ⊆ W .• Der Kern von f ist der Untervektorraum ker(f) := f−1({0}) ⊆ V .

Proposition 4.42. Sei f : V → W eine lineare Abbildung. Dann gilt(1) f ist surjektiv genau dann wenn im(f) = W .(2) f ist injektiv genau dann wenn ker(f) = {0}.

Beweis. (1) ist klar.(2) Falls f injektiv ist, so gilt |f−1({0})| = 1. Da aber f(0) = 0 folgt, dass ker(f) = {0}.Sei andererseits ker(f) = {0}, und x1, x2 ∈ V mit f(x1) = f(x2). Wegen der Linearitat vonf gilt 0 = f(x1)− f(x2) = f(x1 − x2). Also x1 − x2 ∈ ker(f). Also x1 − x2 = 0, und damitx1 = x2. Also ist f injektiv.

Satz 4.43. Sei f : V → W lineare Abbildung, und V endlich-dimensional. Dann ist auchim(f) = f(V ) endlich-dimensional und es gilt

dim(V ) = dim(ker(f)) + dim(im(f)) .

Insbesonder ist f genau dann injektiv, wenn dim(V ) = dim(im(f)).

Beweis. Seien B eine Basis von V und B′ eine Basis von ker(f) ⊆ V . Nach Satz 4.26 undKorollar 4.29 kann man B′ durch hinzufugen von |B| − |B′| = dim(V ) − dim(ker(f)) =: dElementen zu einer Basis von V erganzen. Sei S die Menge dieser d Elemente. Aus derBehauptung, dass f(S) gerade eine Basis von im(f) ist folgt der Satz. Im folgenden wird dieBehauptung gezeigt. Sei dazu B′ = {x1, . . . , xn−d}, S = {xn−d+1, . . . , xn}. Als erstes wirdgezeigt, dass f(S) das Bild im(f) erzeugt: Sei w ∈ im(f). Dann gibt es ki ∈ K, so dassf (∑n

i=1 ki xi) = w. Da aber x1, . . . , xn−d ∈ ker(f) folgt

w = f

(n∑i=1

ki xi

)=

n∑i=1

ki f(xi) =n∑

i=n−d+1

ki f(xi) ∈ L(f(S)) .

Als nachstes wird gezeigt, dass f(S) linear unabhangig ist. Sei kn−d+1, . . . , kn ∈ K und0 =

∑ni=n−d+1 ki f(xi) = f

(∑ni=n−d+1 ki xi

). Dann ist also

∑ni=n−d+1 ki xi ∈ ker(f). Nun ist

aber B′ = {x1, . . . , xn−d} eine Basis von ker(f). Also gibt es k1, . . . , kn−d ∈ K mit

n∑i=n−d+1

ki xi = −n−d∑i=1

ki xi ⇔n∑i=1

ki xi = 0 .

Da aber B = {x1, . . . , xn} eine Basis von V ist, also insbesondere linear unabhangig, folgtki = 0 fur alle 1 ≤ i ≤ n, damit aber insbesondere auch fur n − d + 1 ≤ i ≤ n. Damit istf(S) linear unabhangiges Erzeugendensystem von im(f) und damit eine Basis.

Page 38: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

38 4.5 Der Dualraum

Korollar 4.44. Eine lineare Abbildung f : V → W zwischen endlich-dimensionalen Vek-torraumen ist genau dann ein Isomorphismus wenn dim(V ) = dim(W ), und f ein Epimor-phismus oder Monomorphismus ist.

Beweis. Sei dim(V ) = dim(W ) =: d. Ist f Monomorphismus, so gilt dim(ker(f)) = 0, unddamit nach Satz 4.43 dim(im(f)) = d. Nach Proposition 4.31 folgt im(f) = W , und daherist f auch surjektiv. Ist f Epimorphismus so ist dim(im(f)) = d, und daher nach Satz 4.43dim ker(f) = 0. Also ist f nach Proposition 4.42 auch injektiv. In beiden Fallen ist f alsoIsomorphismus.Sei umgekehrt f ein Isomorphismus, dann ist nach Proposition 4.42 im(f) = W und ker(f) ={0}. Nach Satz 4.43 ist ferner dim(V ) = dim(W ).

Definition 4.45. Sei f : V → W eine lineare Abbildung, und V endlich-dimensionalerVektorraum, dann nennt man die Dimension des Bildes von f auch den Rang von f undschreibt

rang(f) := dim(im(f)) .

Satz 4.46. Zwei endlich-dimensionale K Vektorraume sind genau dann isomorph wennihre Dimensionen ubereinstimmen. Insbesondere sind fur n ∈ N0 alle K-Vektorraume derDimension n isomorph zu Kn.

Beweis. Sei V ein n-dimensionaler K-Vektorraum. Wahle eine Basis {v1, . . . , vn} von V ,und definiere die lineare Abbildung

iB : Kn −→ V .

(k1, . . . , kn) 7−→n∑i=1

ki vi

Dann ist ker(iB) = {0} und dim(V ) = dim(Kn). Korollar 4.44 impliziert daher, dass iB einIsomorphismus ist. Ist dim(V ) 6= dim(W ) so folgt aus Korollar 4.44, dass es keinen Isomor-phismus zwischen V und W gibt.

4.5 Der Dualraum

Wie wir in Proposition 4.37 gesehen haben bilden die Mengen von linearen Abbildungen zwi-schen zwei K-Vektorraumen wieder einen K-Vektorraum. Dies gilt insbesondere fur lineareAbbildungen zwischen einem K-Vektorraum und K.

Definition 4.47. Sei V ein K-Vektorraum. Dann definieren wir den K-Vektorraum derlinearen Funktionale auf V

V ∗ := Hom(V,K) .

V ∗ wird auch der Dualraum von V genannt.

Page 39: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

4 Vektorraume 39

Sei V ein endlich-dimensionaler K-Vektorraum mit Basis B = {v1, . . . , vn}. Aus Propo-sition 4.39 erhalten wir sofort, dass dim(V ∗) = dim(V ), und dass die linearen Funktionaleϕ1, . . . , ϕn ∈ V ∗, gegeben durch

ϕi(vj) = δi,j :=

{1, i = j0, i 6= j

(4.1)

eine Basis von V ∗ bilden. Sie wird die zu B duale Basis genannt. (In der Notation vonProposition 4.39: ϕi = fi1, wobei hier als Basis von K gerade {w1 = 1} gewahlt wurde.)

Bemerkung 4.48. Sei V endlich-dimensionaler K-Vektorraum. Betrachte den DualraumV ∗∗ := (V ∗)∗ des Dualraums von V . Dann ist die Abbildung δV : V −→ V ∗∗ definiert durch

(δV (v))(ϕ) = ϕ(v) , furϕ ∈ V ∗

ein Isomorphismus. V und V ∗∗ sind also kanonsich isomorph.

Beweis. Die Abbildung δV ist eine Einsetzungsabbildung, also linear (vgl. Beispiel 4.34).Desweiteren gilt dim(V ) = dim(V ∗) = dim(V ∗∗). Die Abbildung δV ist nach Korollar 4.44also ein Isomorphismus genau dann, wenn sie injektiv ist. Seien v, w ∈ V mit δV (v) = δV (w),also δV (v)− δV (w) = δV (v − w) = 0. Daraus folgt, dass ϕ(v − w) = 0 fur alle ϕ ∈ V ∗. Fallsx1 := v−w 6= 0, erganze {x1} zu einer Basis {x1, . . . , xn} von V . Sei {ϕ1, . . . , ϕn} die dualeBasis von V ∗. Dann ist insbesondere ϕ1 ∈ V ∗ und ϕ1(x1) = ϕ1(v − w) = 1 6= 0. Also mussx1 = v − w = 0 und damit v = w gelten. Damit ist δV injektiv.

Definition 4.49. Sei f : V −→ W eine lineare Abbildung zwischen zwei K-VektorraumenV und W . Die zu f duale Abbildung f ∗ : W ∗ −→ V ∗ ist definiert durch

f ∗(ϕ) = ϕ ◦ f , furϕ ∈ W ∗ , Vf //

ϕ◦f

W

ϕ��K

.

Sie ist ebenfalls eine lineare Abbildung, d.h. f ∗ ∈ Hom(W ∗, V ∗).

Bemerkung 4.50. Sei f ∈ Hom(V,W ). Dann entspricht das duale der dualen Abbildungf ∗∗ := (f ∗)∗ vermoge des Isomorphismus δV gerade der ursprunglichen Abbildung f , genauer

f ∗∗ ◦ δV = δW ◦ f , V ∗∗f∗∗ //W ∗∗

Vf//

δV

OO

W

δW

OO .

Beweis. Sei dazu v ∈ V und ϕ ∈ W ∗. Dann gilt

(f ∗∗ ◦ δV (v))(ϕ) = δV (v)(f ∗(ϕ)) = f ∗(ϕ)(v) = ϕ(f(v)) = δW (f(v))(ϕ) = (δW ◦ f(v))(ϕ) .

Page 40: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

40

5 Matrizen und Lineare Gleichungssysteme

Lineare Abbildungen zwischen endlich-dimensionalen Vektorraumen kann man effizient mitHilfe von Matrizen beschreiben. In diesem Kapitel bezeichnet K stets einen Korper.

5.1 Matrizenrechnung

Definition 5.1.(1) Eine m × n-Matrix A mit Eintragen in K ist ein rechteckiges Schema mit m Zeilen

und n Spalten und Eintragen in K:

A =

a11 a12 . . . a1n

a21 a22 . . . a2n...

.... . .

...am1 am2 . . . amn

= (aij)m ni=1 j=1 , aij ∈ K .

Die Eintrage aij nennt man auch die Matrixkoeffizienten und schreibt aij = (A)ij.(2) Die Menge aller m×n-Matrizen wird mit Mat(m,n;K) bezeichnet. Sie tragt die Struk-

tur eines K-Vektorraums vermoge der folgenden Operationen:

k · A = (k aij)m ni=1 j=1 =

k a11 k a12 . . . k a1n

k a21 k a22 . . . k a2n...

.... . .

...k am1 k am2 . . . k amn

A+B = (aij + bij)m ni=1 j=1 =

a11 + b11 a12 + b12 . . . a1n + b1n

a21 + b21 a22 + b22 . . . a2n + b2n...

.... . .

...am1 + bm1 am2 + bm2 . . . amn + bmn

,

wobei k ∈ K und A = (aij)m ni=1 j=1, B = (bij)

m ni=1 j=1 ∈ Mat(m,n;K). Das Null-Element

ist die Matrix, deren Eintrage alle Null sind: aij = 0.(3) Fur 1 ≤ i ≤ m ist

(aij)nj=1 = (ai1 ai2 . . . ain) ∈ Mat(1, n;K)

der i-te Zeilenvektor von A, und fur 1 ≤ j ≤ n

(aij)mi=1 =

a1j

a2j...amj

∈ Mat(m, 1;K)

der j-te Spaltenvektor von A, vgl. Abbildung 5.

Page 41: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

5 Matrizen und Lineare Gleichungssysteme 41

Abbildung 5: Zeilen- und Spaltenvektoren einer Matrix

Beispiel 5.2.

A =

1 12

7 035

8

∈ Mat(3, 2;Q) , B =

0 234−2

17 1

∈ Mat(3, 2;Q)

2 · A =

2 114 065

16

, A+B =

1 212

734−2

1735

9

A hat die drei Zeilenvektoren(

11

2

), (7 0) ,

(3

58

)∈ Mat(1, 2;Q)

und die zwei Spaltenvektoren 1735

,

12

08

∈ Mat(3, 1;Q) .

Bemerkung 5.3. Mat(m,n;K) ist K-Vektorraum der Dimension

dim(Mat(m,n;K)) = mn .

Eine Basis ist gegeben durch {E(a i) | 1 ≤ a ≤ m, 1 ≤ i ≤ n} mit

(E(a i)

)b j

=

{1 , a = b ∧ i = j0 , sonst

, E(a i) =

0 . . . . . . 0...

. . . 1...

.... . .

...0 . . . . . . 0

← a-te Zeile

↑i-te Spalte

In der Tat laßt sich jede Matrix A = (aij)m ni=1 j=1 ∈ Mat(m,n;K) eindeutig schreiben als

A =m∑i=1

n∑j=1

aijE(i j) .

Page 42: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

42 5.1 Matrizenrechnung

Fur den Fall Mat(m, 1;K) von Matrizen mit nur einer Spalte (also von Spaltenvektoren)bezeichnen wir die Basisvektoren haufig mit

ea := E(a 1) =

0...010...0

← a-te Zeile .

Matrizen lassen sich multiplizieren:

Definition 5.4. Fur A = (aij)m ni=1 j=1 ∈ Mat(m,n;K), B = (bjk)

n oj=1 k=1 ∈ Mat(n, o;K)

definiere das Matrixprodukt

A ·B :=

(n∑j=1

aij bjk

)m o

i=1 k=1

=

∑n

j=1 a1j bj1 . . .∑n

j=1 a1j bjo...

. . ....∑n

j=1 amj bj1 . . .∑n

j=1 amj bjo

∈ Mat(m, o;K)

Beachte: Das Matrixprodukt ist nur definiert, wenn die Anzahl der Spalten von A und dieAnzahl der Zeilen von B ubereinstimmen! Der Eintrag (A ·B)ij in der i-ten Zeile und j-tenSpalte der Produktmatrix ist gerade das Matrixprodukt des i-ten Zeilenvektors von A unddes j-ten Spaltenvektors von B.

Beispiel 5.5.

• A =

(1 1

20

7 34

2

)∈ Mat(2, 3;R) , B =

1 2 015

3 12

4 5 9

∈ Mat(3, 3;R)

⇒ A ·B =

(1 1

1031

214

15 320

2614

1838

)∈ Mat(2, 3;K)

• A =

(1

1

3

)∈ Mat(1, 2;R) , B =

(214

)∈ Mat(2, 1;R)

⇒ A ·B =

(2

1

12

)∈ Mat(1, 1;R)

• A =

(12

)∈ Mat(2, 1;R) , B =

(1

3

1

7

)∈ Mat(1, 2;R)

⇒ A ·B =

(13

17

23

27

)∈ Mat(2, 2;R)

Proposition 5.6. Es gelten die folgenden Regeln: Seien A,A′ ∈ Mat(m,n;K), B,B′ ∈Mat(n, o;K), C ∈ Mat(o, p;K), k ∈ K

Page 43: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

5 Matrizen und Lineare Gleichungssysteme 43

(1) A · (B · C) = (A ·B) · C (Assoziativitatsgesetz)(2) (A+ A′) ·B = (A ·B) + (A′ ·B) (Distributivgesetz)

A · (B +B′) = (A ·B) + (A ·B′)(3) A · (k B) = k(A ·B) = (k A) ·B (Skalare Multiplikation)

Achtung: Das Kommutativitatsgesetz gilt nicht:

A =

(1 00 0

), B =

(0 10 0

)⇒ A ·B =

(0 10 0

)6=(

0 00 0

)= B · A .

Beweis. Leichtes Nachrechnen, Ubungsaufgabe.

Bemerkung. Die Matrizen Mat(n, n;K) fur n ∈ N, zusammen mit der Matrixmultiplikationbilden also einen Ring, vgl. Definition 3.2.

Korollar 5.7. Insbesondere ist fur alle A ∈ Mat(m,n;K) und alle o ∈ N die Abbildung

A· : Mat(n, o;K) −→ Mat(m, o;K)

B 7−→ A ·B

ein Vektorraumhomomorphismus.Ein wichtiger Spezialfall ist o = 1 – Matrixmultiplikation ist ein Homomorphismus zwischenVektorraumen von Spaltenvektoren:

A· : Mat(n, 1;K) −→ Mat(m, 1;K)

b =

b1

b2...bn

7−→ A · b =

∑n

i=1 a1i bi∑ni=1 a2i bi

...∑ni=1 ami bi

Aus der Assoziativitat der Matrixmultiplikation folgt sofort, dass die Komposition solcherHomomorphismen gerade durch das Matrixprodukt beschrieben ist: sei A ∈ Mat(m,n;K),A′ ∈ Mat(l,m;K). Betrachte die Abbildungen

A· : Mat(n, o;K) −→ Mat(m, o;K)B 7−→ A ·B ,

A′· : Mat(m, o;K) −→ Mat(l, o;K)B 7−→ A′ ·B .

Dann findet man fur die Komposition (B ∈ Mat(n, o;K))

((A′·) ◦ (A·)) (B) = A′ · (A ·B) = (A′ · A) ·B= ((A′ · A)·)(B) ,

also(A′·) ◦ (A·) = (A′ · A) · .

Page 44: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

44 5.1 Matrizenrechnung

Proposition 5.8. Die Abbildung, A 7→ A·, die eine Matrix A ∈ Mat(m,n;K) auf dielineare Abbildung (A·) ∈ Hom(Mat(n, 1;K),Mat(m, 1;K)) abbildet, ist ein Isomorphismusvon Vektorraumen.

Jede lineare Abbildung zwischen Raumen von Spaltenvektoren ist also eindeutig durcheine Matrix beschrieben, und Komposition dieser Abbildungen entspricht der Matrixmulti-plikation.

Beweis. A 7→ A· ist offensichtlich linear ((k A) 7→ (k A)· = k (A·) fur k ∈ K, und(A+B)· = A ·+B·, fur A,B ∈ Mat(m,n;K)).Um zu zeigen, dass es ein Isomorphismus ist, stelle zunachst fest, dass nach Propositi-on 4.39 und Bemerkung 5.3, die Dimensionen von Hom(Mat(n, 1;K),Mat(m, 1;K)) undMat(m,n;K) ubereinstimmen. Nach Korollar 4.44 genugt es also zu zeigen, dass die Ab-bildung A 7→ A· injektiv ist. Sei dazu (A·) = 0. Daraus folgt, dass (A·)(v) = 0 fur allev ∈ Mat(n, 1;K), insbesondere fur die Basis Vektoren v = ej, 1 ≤ j ≤ n

ej =

0...010...0

← j-te Zeile .

Nun ergibt die Matrixmultiplikation jeder Matrix mit dem Spaltenvektor ej gerade den j-tenSpaltenvektor der Matrix. Insbesondere:

(A·)(ej) =

a1j

a2j...amj

,

und daher folgt aij = 0 fur alle 1 ≤ i ≤ m, 1 ≤ j ≤ n. Also A = 0.

Beispiel 5.9. Die Matrix

In :=

1 0 . . . 0

0 1. . .

......

. . . . . . 00 . . . 0 1

∈ Mat(n, n;K)

deren Diagonaleintrage alle 1 sind, und deren sonstige Eintrage alle 0 sind wird Einheits-matrix genannt. Man sieht leicht, dass

Im · A = A = A · In

Page 45: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

5 Matrizen und Lineare Gleichungssysteme 45

fur alle A ∈ Mat(m,n;K). Insbesondere entspricht Im· : Mat(m,n;K)→ Mat(m,n;K) derIdentitatsabbildung idMat(m,n;K).

Proposition 5.10. Sei A ∈ Mat(n, n;K). Dann sind die folgenden Bedingungen aquivalent.(1) Die Abbildung A· : Mat(n, 1;K)→ Mat(n, 1;K) ist bijektiv.(2) Es gibt eine Matrix B ∈ Mat(n, n;K), mit B ·A = In. B ist eindeutig, und es gilt auch

A ·B = In. B wird die inverse Matrix genannt. Man schreibt B = A−1.

Beweis. “⇒”: Sei g die Umkehrabbildung von A·. Nach Proposition 5.8 gibt es eine eindeu-tige Matrix B ∈ Mat(n, n;K), mit g = B·. Nun gilt idMat(n,1;K) = g◦(A·) = (B·)◦(A·). NachBeispiel 5.9 ist die linke Seite der Gleichung gerade In·, wahrend nach Korollar 5.7 die rechteSeite nichts anderes ist als (B · A)·. Aus Proposition 5.8 folgt daher B · A = In. Da fur dieUmkehrabbildung auch (A·) ◦ g = idMat(n,1;K) folgt genauso, dass A · B = In. Eindeutigkeitfolgt aus der Eindeutigkeit der Umkehrabbildung.“⇐”: Sei B ∈ Mat(n, n;K) eine Matrix mit B · A = In. Dann gilt fur alle x ∈ Mat(n, 1;K)x = In · x = (B · A) · x = B · (A · x). Daraus folgt, dass ker(A·) = {0}, also ist A· injektiv.Nach Korollar 4.44 ist A· auch surjektiv und damit bijektiv.

Definition 5.11.• Eine Matrix A ∈ Mat(n, n;K), die die Bedingungen in Proposition 5.10 erfullt nennt

man invertierbar.• Die Teilmenge GLn(K) := {A ∈ Mat(n, n;K) |A ist invertierbar} bildet zusammen

mit der Matrixmultiplikation eine Gruppe. Man nennt sie die allgemeine lineareGruppe. (Die Gruppenaxiome pruft man leicht nach. In ist das neutrale Element.)

Beispiel 5.12.(1) Sei

A =

(a bc d

)∈ Mat(2, 2;K) mit ad− bc 6= 0

Dann ist die inverse Matrix gegeben durch

A−1 =1

ad− bc

(d −b−c a

).

(2) Sei B ∈ Mat(n, n;K) die Diagonalmatrix

B =

k1 0 . . . 00 k2 . . . 0...

.... . .

...0 0 . . . kn

mit k1, . . . , kn ∈ K \ {0} .

Dann gilt

B−1 =

k−1

1 0 . . . 00 k−1

2 . . . 0...

.... . .

...0 0 . . . k−1

n

.

Page 46: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

46 5.1 Matrizenrechnung

(3) Sei

C =

1 a b0 1 c0 0 1

mit a, b, c ∈ K

Dann ist

C−1 =

1 −a −b+ ac0 1 −c0 0 1

.

Beachte: Seien A,B ∈ GL(n;K), dann gilt

(A ·B)−1 = B−1 · A−1 .

Wie beim Verknupfen von Umkehrabbildungen bijektiver Abbildungen dreht sich die Rei-henfolge um!

Beweis. Das folgt ganz einfach:

(B−1 · A−1) · (A ·B) = B−1 · (A−1 · A)︸ ︷︷ ︸=In

·B = B−1 ·B = In .

Also ist B−1 · A−1 invers zu A ·B.

Definition 5.13. Sei A ∈ Mat(m,n;K). Die lineare Hulle aller Spaltenvektoren (ai,j)mi=1 ∈

Mat(m, 1;K), 1 ≤ j ≤ n nennt man den Spaltenraum von A. Die Dimension des Spalten-raums nennt man den Spaltenrang von A. (Der Spaltenrang ist also die Anzahl der linearunabhangigen Spaltenvektoren von A.)

Analog definiert man Zeilenraum und Zeilenrang von A als die lineare Hulle allerZeilenvektoren (ai,j)

nj=1 ∈ Mat(1, n;K), 1 ≤ i ≤ m, und deren Dimension.

Bemerkung 5.14. Der Spaltenrang einer Matrix A ∈ Mat(m,n;K) entspricht dem Rangder linearen Abbildung A· : Mat(n, 1;K)→ Mat(m, 1;K): Spaltenrang(A) = rang(A·).

Beweis. Den j-ten Spaltenvektor von A erhalt man durch Matrixmultiplikation von A mitdem Spaltenvektor ej ∈ Mat(n, 1;K):

A · ej =

a1j

a2j...amj

= (aij)mi=1 .

Nun bilden die ej fur 1 ≤ j ≤ m eine Basis von Mat(m, 1;K). Daher erzeugen die (A·)(ej) =A · ej das Bild im(A·) der Abbildung A·. Der Spaltenraum von A stimmt also mit dem Bildim(A·) uberein.

Page 47: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

5 Matrizen und Lineare Gleichungssysteme 47

Bemerkung. Spater werden wir zeigen, dass Zeilenrang und Spaltenrang von Matrizenubereinstimmen!

Proposition 5.15. Sei A ∈ Mat(m,n;K) eine Matrix und seien B ∈ GLn(K), C ∈GLm(K). Dann stimmen die Spaltenraume von A und A · B uberein, und die Spaltenrangevon A und C · A ·B sind gleich.

Beweis. Da B ∈ GLn(K) ist die lineare Abbildung B· : Mat(n, 1;K) → Mat(n, 1;K)bijektiv. Insbesondere (B·)(Mat(n, 1;K)) = Mat(n, 1;K). Daher gilt

Spaltenraum(A ·B) = im((A ·B)·) = im(A·) = Spaltenraum(A) .

Da C ∈ GLm(K) ist auch C· : Mat(m, 1;K)→ Mat(m, 1;K) bijektiv. Durch Einschrankungerhalt man einen Isomorphismus C · |im((A·B)·) : im((A · B)·) → (C·)(im((A · B)·) = im((C ·A ·B)·). Insbesondere folgt

Spaltenrang(A ·B) = dim(im((A ·B)·)) = dim(im((C · A ·B)·)) = Spaltenrang(C · A ·B) .

Definition 5.16. Fur eine Matrix A = (aij)m ni=1 j=1 ∈ Mat(m,n;K) definiere die transpo-

nierte MatrixAt := (aji)

n mi=1 j=1 ∈ Mat(n,m;K) .

a11 a12 . . . a1n

a21 a22 . . . a2n...

.... . .

...am1 am2 . . . amn

t

=

a11 a21 . . . am1

a12 a22 . . . am2...

.... . .

...a1n a2n . . . amn

Die Transponierte At einer Matrix A geht aus A durchSpiegelung an der Diagonalen hervor, vgl. Abbildung 6.

Beispiel 5.17.

(1 2 34 5 6

)t

=

1 42 53 6

Abbildung 6: A 7→ At

Proposition 5.18. Es gilt(1) (A+B)t = At +Bt fur A,B ∈ Mat(m,n;K)(2) (k A)t = k At fur A ∈ Mat(m,n;K) und k ∈ K(3) (At)

t= A fur A ∈ Mat(m,n;K)

(4) (At)−1

= (A−1)t

fur A ∈ GLn(K)

Page 48: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

48 5.2 Matrizen und lineare Abbildungen

Beweis. Einfaches Nachrechnen!

Bemerkung 5.19. Insbesondere ist die Abbildung (·)t : Mat(m,n;K)→ Mat(n,m;K) einIsomorphismus von Vektorraumen.

Beweis. Linearitat folgt aus Proposition 5.18(1),(2). Außerdem ist die Abbildung (·)t in-jektiv, und die Dimensionen von Mat(m,n;K) und Mat(n,m;K) stimmen uberein. NachKorollar 4.44 ist die Abbildung also ein Isomorphismus.

Bemerkung 5.20. Unter der Transposition wird die Rolle von Spalten- und Zeilenvektorenvertauscht. Insbesondere gilt fur A ∈ Mat(m,n;K)

(Zeilenraum(A))t = Spaltenraum(At)

Zeilenrang(A) = Spaltenrang(At) .

5.2 Matrizen und lineare Abbildungen

Satz 5.21. Seien V und W endlich-dimensionale Vektorraume uber K mit geordneten BasenA = (v1, . . . , vn) und B = (w1, . . . , wm). Dann gibt es fur jede lineare Abbildung f ∈Hom(V,W ) genau eine Matrix A = (aij)

m ni=1 j=1 ∈ Mat(m,n;K), so dass

f(vj) =m∑i=1

aijwi , 1 ≤ j ≤ n .

Man nennt MatAB(f) := A die Matrixdarstellung von f bzgl. A und B.(1) Die so erhaltene Abbildung

MatAB : Hom(V,W ) −→ Mat(m,n;K)

f 7−→ A = MatAB(f)

ist ein Isomorphismus von Vektorraumen.(2) Sei

iA : Mat(n, 1;K) −→ V x1...xn

7−→n∑i=1

xi vi

der Isomorphismus, der die Standard-Basis (e1, . . . , en) von Mat(n, 1;K) (vgl. Bemer-kung 5.3) auf die Basis A = (v1, . . . , vn) abbildet, und analog iB : Mat(m, 1;K) −→ Wder Isomorphismus, der die Standard-Basis (e1, . . . , em) von Mat(m, 1;K) auf die BasisB = (w1, . . . , wm) abbildet. Dann gilt

f ◦ iA = iB ◦ (MatAB(f)·) ,

Page 49: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

5 Matrizen und Lineare Gleichungssysteme 49

d.h. das folgende Diagramm kommutiert

Mat(n, 1;K)MatAB(f)·−−−−−−−−→ Mat(m, 1;K)

iA

yyiB

Vf

−−−−−−−−→ W

(3) Sei nun U ein weiterer K-Vektorraum mit geordneter Basis C und g ∈ Hom(W,U),dann gilt

MatAC(g ◦ f) = MatB C(g) ·MatAB(f) .

Beweis. Jeder Vektor w ∈ W laßt sich eindeutig als Linearkombination der Basis B schrei-ben. Dies gilt insbesondere fur die f(vj). Damit sind die Matrixeintrage aij eindeutig be-stimmt, und die Abbildung MatAB wohldefiniert.(1) Die Linearitat dieser Abbildung sieht man leicht. Die Bijektivitat folgt, weil nach Propo-sition 4.39 jede lineare Abbildung durch die Bilder einer Basis eindeutig bestimmt ist, d.h.MatAB(f) bestimmt f .

(2) Sei A := MatAB(f), x =

x1...xn

∈ Mat(n, 1;K). Man rechnet nach

f ◦ iA(x) = f

(n∑j=1

xjvj

)=

n∑j=1

xjf(vj) =n∑j=1

xj

m∑i=1

aijwi

=m∑i=1

(A · x)iwi = iB((A·)(x)) = iB ◦ (A·)(x) .

(3) Sei C = {u1, . . . , uk} und B := MatB,C(g). Dann gilt also g(wi) =∑k

a=1 baiua. Damit

g ◦ f(vj) = g(m∑i=1

aijwi) =m∑i=1

aijg(wi) =m∑i=1

k∑a=1

aijbaiua =k∑a=1

(B · A)ajua .

Es gilt also MatAC(g ◦ f) = MatB C(g) ·MatAC(f).

Nach Wahl von geordneten Basen kann man also jede lineare Abbildung zwischen endlich-dimensionalen Vektorraumen eindeutig mit Hilfe einer Matrix beschreiben. Dies hatten wirim Spezialfall von linearen Abbildungen zwischen Raumen von Spaltenvektoren schon ken-nengelernt:

Beispiel 5.22. Betrachte die Vektorraume V = Mat(n, 1;K) und W = Mat(m, 1;K) mitden Standard-Basen A = (e1, . . . , en) und B = (e1, . . . , em) (vgl. Satz 5.21) und A ∈

Page 50: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

50 5.2 Matrizen und lineare Abbildungen

Mat(m,n;K). Wie in Korollar 5.7 gezeigt ist die Matrixmultiplikation A· eine lineare Ab-bildung Mat(n, 1;K) → Mat(m, 1;K). Die Matrixdarstellung dieser Abbildung ist nichtsanderes als die Matrix A selber:

MatAB(A·) = A .

MatAB : Hom(Mat(n, 1;K),Mat(m, 1;K)) → Mat(m,n;K) ist in diesem Fall also dieUmkehrabbildung zu der Abbildung Mat(n,m;K) → Hom(Mat(n, 1;K),Mat(m, 1;K)),A 7→ A·.

Beispiel 5.23. Betrachte den Korper der komplexen Zahlen C als Vektorraum uber denreellen Zahlen. Sei z = (x, y) ∈ C. Die Multiplikationsabbildung z· : C→ C, die alle w ∈ Cauf z · w ∈ C abbildet ist R-linear. Wahle die geordnete Basis A = (1, i) von C. Dann gilt

z · 1 = z = x+ y · i , z · i = (x+ i · y) · i = −y + x · i .

Die Matrixdarstellung dieser Abbildung ist also gegeben durch

MatAA(z·) =

(x −yy x

).

Sei z′ = (x′, y′) ∈ C eine andere komplexe Zahl und

MatAA(z′·) =

(x′ −y′y′ x′

).

die entsprechende Matrixdarstellung. Fur das Matrixprodukt erhahlt man:

MatAA(z′·) ·MatAA(z·) =

(x′ −y′y′ x′

)·(x −yy x

)=

(x′x− y′y −x′y − y′xx′y + y′x x′x− y′y

)Das ist aber nichts anderes als die Matrixdarstellung MatAA((z′ · z)·) der Verknupfung derbeiden Multiplikationsabbildungen, denn

z′ · (z · w) = (z′ · z) · w

und das Produkt der Komlexen Zahlen z′ und z ist gerade (vgl. Satz 3.14)

z′ · z = (x′x− y′y, x′y + y′x) .

Bemerkung 5.24. Sei V ein K-Vektorraum der Dimension n ∈ N, und A eine beliebigegeordnete Basis von V .

(1) Dann ist die Matrixdarstellung der Identitatsabbildung idV : V → V , v 7→ v, gegebendurch die Identitatsmatrix In:

MatAA(idV ) = In .

Page 51: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

5 Matrizen und Lineare Gleichungssysteme 51

(2) Die Abbildung

Aut(V ) −→ GLn(K)

f 7−→ MatAA(f)

die einen Automorphismus f von V auf seine Matrixdarstellung abbildet, ist ein Grup-penhomomorphismus.

Beweis. Folgt sofort aus Satz 5.21.

Die Matrixdarstellung von linearen Abbildungen hangt von der Wahl von Basen ab. Wiesie von den Basen abhangen laßt sich mit Hilfe von invertierbaren Matrizen beschreiben:

Proposition 5.25. Seien V und W zwei K-Vektorraume der Dimensionen m und n mitgeordneten Basen A und B. Sei außerdem f : V → W eine lineare Abbildung mit Ma-trixdarstellung A = MatAB(f) ∈ Mat(n,m;K). Seien A′ und B′ zwei weitere Basen von Vund W .

(1) Es giltMatA′ B′(f) = MatBB′(idW ) · A ·MatA′A(idV )

(2) Die Basiswechsel-Matrizen MatA′A(idV ), bzw. MatBB′(idW ) sind invertierbar mit

MatA′A(idV ) ·MatAA′(idV ) = MatAA(idV ) = In ,

und analog fur MatBB′(idW ).

Beweis. Das folgt auch sofort aus Satz 5.21 und Bemerkung 5.24.

Beispiel 5.26. In Beispiel 5.23 wurde C als R-Vektorraum betrachtet. Es wurde gezeigt,dass fur z = (x, y) ∈ C die Matrixdarstellung der Multiplikationsabbildung z· : C → C, diew ∈ C auf z · w ∈ C abbildet bzgl. der Basis A = (1, i) die Form

MatAA(z·) =

(x −yy x

)hat. Wahle nun die andere Basis A′ = (1 + i, 1− i). Dann berechnet man die Basiswechsel-Matrizen anhand

idC(1) = 1 = 12(1 + i) + 1

2(1− i)

idC(i) = i = 12(1 + i)− 1

2(1− i)

}⇒ MatAA′(idC) =

(12

12

12−1

2

),

bzw.idC(1 + i) = 1 + iidC(1− i) = 1− i

}⇒ MatA′A(idC) =

(1 11 −1

).

Man rechnet leicht nach, dass

MatAA′(idC) ·MatA′A(idC) =

(1 00 1

)= I2 ,

Page 52: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

52 5.2 Matrizen und lineare Abbildungen

also MatAA′(idC), MatA′A(idC) ∈ GL2(R).Fur die Matrixdarstellung der Multiplikationsabbildung z· in der Basis A′ erhalt man

MatA′A′(z·) = MatAA′(idC) ·MatAA(z·)MatA′A(idC)

=

(12

12

12−1

2

)·(x −yy x

)·(

1 11 −1

)=

(x y−y x

).

Man kann sich leicht uberzeugen, dass dies das richtige Ergebnis ist, denn

z · (1 + i) = (x+ iy)(1 + i) = x(1 + i)− y(1− i)z · (1− i) = (x+ iy)(1− i) = y(1 + i) + x(1− i) .

Proposition 5.27. Sei A ∈ Mat(m,n;K) eine Matrix. Dann gilt

Zeilenrang(A) = Spaltenrang(A) .

Wir schreiben Rang(A) := Zeilenrang(A) = Spaltenrang(A).

Beweis. Seien A = (e1, . . . , en) und B = (e1, . . . , em) die Standard-Basen von Mat(n, 1;K)und Mat(m, 1;K). Dann ist A = MatAB(A·). Sei k = Spaltenrang(A) = rang(A·). Wahlezunachst eine Basis (b1, . . . , bk) des Bildes im(A·), und a1, . . . , ak ∈ Mat(n, 1;K), sodassA · ai = bi fur alle 1 ≤ i ≤ k. Dann ist {a1, . . . , ak} linear unabhangig. Erganze nun(a1, . . . , ak), wie im Beweis von Satz 4.43, durch eine Basis (ak+1, . . . , an) von ker(A·) zueiner Basis A′ = (a1, . . . , an) von Mat(n, 1;K). Erganze ferner (b1, . . . , bk) zu einer BasisB′ = (b1, . . . , bm) von Mat(m, 1;K). Dann gilt

A · ai =

{bi, falls 1 ≤ i ≤ k0, sonst

.

woraus man die Matrixdarstellung

MatA′ B′(A·) = S · A · T =

(Ik 00 0

)(5.1)

abliest. Dabei bezeichnen S = MatBB′(idMat(m,1;K)) ∈ GLm(K) und T = MatA′A(idMat(n,1;K)) ∈GLn(K) die entsprechenden Basiswechsel-Matrizen. Damit erhalt man das folgende

Spaltenrang(A) = Spaltenrang(S · A · T ) (Proposition 5.15)= Zeilenrang(S · A · T ) (ließt man aus der expliziten Form von

S · A · T in Gleichung (5.1) ab)= Spaltenrang((S · A · T )t) (Bemerkung 5.20)= Spaltenrang(T t · At · St) (Proposition, 5.18)= Spaltenrang(At) (Proposition 5.15, transponierte von

invertierbaren Matrizen sind invertierbar)= Zeilenrang(A) (Bemerkung 5.20) .

Page 53: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

5 Matrizen und Lineare Gleichungssysteme 53

Proposition 5.28. Seien V und W endlich-dimensionale K-Vektorraume mit geordnetenBasen A = (v1, . . . , vn) und B = (w1, . . . , wn), und f : V → W eine lineare Abbildung. Seienferner A∗ = (v∗1, . . . , v

∗n) und B∗ = (w∗1, . . . , w

∗n) die zu A und B dualen Basen der Dualraume

V ∗ und W ∗. Dann entspricht die Matrixdarstellung der dualen Abbildung f ∗ : W ∗ → V ∗

bzgl. der Basen B∗ und A∗ gerade der transponierten Matrix der Matrixdarstellung von fbzgl. A und B:

MatB∗A∗(f∗) = (MatAB(f))t .

Beweis. Sei A = (aij)m ni=1 j=1 = MatAB(f). Man rechnet nun leicht nach(

f ∗(w∗j ))

(vi) = w∗j (f(vi)) (Definition der dualen Abbildung, Definition 4.49)= w∗j (

∑ml=1 aliwl) (Verwendung der Matrixdarstellung von f)

=∑m

l=1 aliw∗j (wi) (Linearitat der Linearformen)

= aji (Definition der dualen Basis, Gleichung (4.1))=

∑nk=1 ajkv

∗k(vi) (Definition der dualen Basis, Gleichung (4.1)) .

Daraus folgt f ∗(w∗j ) =∑n

k=1 ajkv∗k. Die Matrix (ajk)

n mk=1 j=1 = At ∈ Mat(n,m;K) ist also die

Matrixdarstellung MatB∗A∗(f∗) der dualen Abbildung f ∗.

5.3 Lineare Gleichungssysteme

Ein lineares Gleichungssystem (uber einem Korper K) ist ein System von Gleichungender Form

a11 x1 + a12 x2 + . . .+ a1n xn = b1

a21 x1 + a22 x2 + . . .+ a2n xn = b2...

am1 x1 + am2 x2 + . . .+ amn xn = bm

(5.2)

Dabei sind die aij, bj ∈ K, 1 ≤ i ≤ n, 1 ≤ j ≤ m gegeben, und die xi, 1 ≤ i ≤ n“Unbestimmte”. Ziel ist es, alle (x1, . . . , xn) ∈ Kn zu finden, die diese Gleichungen erfullen.

Das Gleichungssystem (5.2) laßt sich effizienter als Matrixgleichung

A · x = b

schreiben, wenn man die Koeffizienten und Unbestimmten wie folgt zu Matrizen und Spal-tenvektoren zusammenfaßt:

A =

a11 a12 . . . a1n

a21 a22 . . . a2n...

.... . .

...am1 am2 . . . amn

, x =

x1

x2...xn

, b =

b1

b2...bm

.

Falls b = 0, so nennt man das Gleichungssystem homogen, anderenfalls inhomogen. DieMengen der Losungen des Gleichungssystems

Los(A, b) := {x ∈ Mat(n, 1;K) |A · x = b}

Page 54: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

54 5.3 Lineare Gleichungssysteme

nennt man auch Losungsraume9.Manchmal ist es praktisch, b als (n + 1)-ten Spaltenvektor an A anzufugen. Um dabei

die besondere Rolle von b hervorzuheben, wird er mit einem Strich abgetrennt. Man erhaltdie m× (n+ 1)-Matrix

(A b

)=

a11 a12 . . . a1n b1

a21 a22 . . . a2n b2...

.... . .

......

am1 am2 . . . amn bm

Beispiel 5.29. Das lineare Gleichungssystem

x1 + 3x2 + 5x3 = 0−x1 + x2 − x3 = 12

(5.3)

uber R in den Unbestimmten x1, x2, x3 laßt sich als Matrixgleichung

(1 3 5−1 1 −1

x1

x2

x3

=

(012

)

schreiben. Die Daten des Gleichungssystems kann man in der erweiterten Matrix(1 3 5 0−1 1 −1 12

)zusammenfassen.

Die Gestalt der Losungsraume linearer Gleichungssysteme laßt sich allgemein wie folgtcharakterisieren:

Satz 5.30. Seien A ∈ Mat(m,n;K), b ∈ Mat(m, 1;K). Dann gilt fur die Losungsraume deslineares Gleichungssystems A · x = b:

(1) Los(A, 0) ⊆ Mat(n, 1;K) ist Untervektorraum der Dimension

dim(Los(A, 0)) = n− Rang(A) .

(2) Falls b /∈ Spaltenraum(A), so gilt Los(A, b) = ∅.Falls b ∈ Spaltenraum(A), so gilt

Los(A, b) = v + Los(A, 0) ,

wobei v ∈ Los(A, b) eine beliebige Losung des Gleichungssystems ist.

9In der Tat sind die Losungsraume von homogenen linearen Gleichungssystemen Untervektorraume vonMat(n, 1;K), wahrend Losungsraume von inhomogenen linearen Gleichungssystemen sogenannte ‘affine Un-terraume’ von Mat(n, 1;K) sind. Das wird unten genauer diskutiert.

Page 55: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

5 Matrizen und Lineare Gleichungssysteme 55

(3) Ist B ∈ GLm(K), C ∈ GLn(K), so gilt

Los(B · A,B · b) = Los(A, b) ,

und Los(A · C, b) = C−1 · Los(A, b) .

Beweis. (1) Es gilt Los(A, 0) = ker(A· : Mat(n, 1;K) → Mat(m, 1;K)). Nach Propositi-on 4.40 ist dies ein Unterraum, und nach Satz 4.43 gilt dim(ker(A·)) = n − rang(A·), undnach Bemerkung 5.14 ist rang(A·) = Spaltenrang(A) = Rang(A).(2) Wie im Beweis von Bemerkung 5.14 ausgefuhrt entspricht der Spaltenraum von A geradedem Bild im(A·). Wenn aber b /∈ im(A·), so gibt es kein x ∈ Mat(n, 1;K) mit A · x = b, alsoist Los(A, b) = ∅. Falls umgehkehrt b ∈ im(A·), so gibt es mindestens ein v ∈ Mat(n, 1;K)mit A · v = b. Nun gilt fur jedes u ∈ Los(A, 0), dass A · (v + u) = A · v + A · u = b. Alsoist v + Los(A, 0) ⊆ Los(A, b). Andererseits gilt fur jedes w ∈ Los(A, b) auch A · (w − v) =A · w − A · v = 0, also (w − v) ∈ Los(A, 0). Also Los(A, b) ⊆ v + Los(A, 0). Damit alsoLos(A, b) = v + Los(A, 0).(3) Das ist offensichtlich.

Beispiel 5.31. Betrachte das lineare Gleichungssystem (5.3). Wie in Beispiel 5.29 gesehen,laßt es sich als Matrixgleichung A · x = b schreiben, wobei

A =

(1 3 5−1 1 −1

)∈ Mat(2, 3;R) , b =

(012

)∈ Mat(2, 1;R) , und x =

x1

x2

x3

.

Nun sind die beiden Zeilenvektoren von A offensichtlich linear unabhangig. Daher ist al-so Rang(A) = 2. Daher ist nach Satz 5.30 die Dimension des Losungsraums Los(A, 0) deshomogenen Gleichungssystems A · x = 0 gerade n − Rang(A) = 3 − 2 = 1. Da außer-dem Rang(A) = 2 = dim(Mat(2, 1;R)) ist der Spaltenraum von A ganz Mat(2, 1;R), undinsbesondere ist b ∈ Spaltenraum(A). Der Losungsraum Los(A, b) des inhomogenen Glei-chungssystems A · x = b ist also nicht leer, sondern ein 1-dimensionaler affiner Raum.

Das kann man leicht explizit nachprufen: dazu uberfuhren wir das Gleichungssystem (5.3)durch Addition der ersten Gleichung zur zweiten in das aquivalente Gleichungssystem

x1 + 3x2 + 5x3 = 0−x1 + x2 − x3 = 12

⇔ x1 + 3x2 + 5x3 = 04x2 + 4x3 = 12

Die Losungen dieses Gleichungssystems ließt man leicht durch Auflosen der zweiten Glei-chung nach x2 und der ersten Gleichung nach x1 ab. Man erhalt

x2 = 3− x3 ∧ x1 = −3x2 − 5x3 = −9 + 3x3 − 5x3 = −9− 2x3 ,

und damit

Los(A, b) =

−9− 2x3

3− x3

x3

∣∣∣∣∣x3 ∈ R

=

−930

+ R

−2−11

Page 56: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

56 5.3 Lineare Gleichungssysteme

Hier ist

v =

−930

eine spezielle Losung des inhomogenen Gleichungssystems A · x = b, und

R

−2−11

= Los(A, 0)

der Losungsraum des homogenen Gleichungssystems.

Um die Losungsraume von allgmeinen linearen Gleichungssystemen A · x = b zu bestim-men ist es hilfreich, die Matrix A in eine spezielle Form zu bringen:

Definition 5.32. Eine Matrix A = (aij)m ni=1 j=1 ∈ Mat(m,n;K) ist in Zeilenstufenform,

falls eine naturliche Zahl k mit 1 ≤ k ≤ m und naturliche Zahlen 0 < j1 < j2 < . . . < jk ≤ nexistieren, sodass• aij = 0 fur alle 1 ≤ i ≤ k und alle 1 ≤ j < ji, und fur alle i > k.• aiji 6= 0 fur alle 1 ≤ i ≤ k.

A hat also die Gestalt

A =

0 . . . 0 a1j1 6= 0 ∗ . . . . . . . . . . . . . . . . . . . . . ∗0 . . . . . . . . . . . . 0 a2j2 6= 0 ∗ . . . . . . . . . . . . ∗

...0 . . . . . . . . . . . . . . . . . . . . . 0 akjk 6= 0 ∗ . . . ∗0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0

...0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 0

,

wobei an den mit ∗ gekennzeichneten Stellen ein beliebiges Element in K stehen kann,vgl. Abbildung 7. Die nicht-verschwindenden aiji fur 1 ≤ i ≤ k nennt mant die Pivot-Elemente von A.

Beispiel 5.33. Die Matrix 0 1 2 0 70 0 0 3 00 0 0 0 10 0 0 0 0

ist in Zeilenstufenform (die Pivot-Elemente sind rot gekennzeichnet), die Matrix

0 1 2 0 70 0 0 3 00 0 0 1 10 0 0 0 0

hingegen wegen dem blauen Eintrag nicht.

Page 57: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

5 Matrizen und Lineare Gleichungssysteme 57

Abbildung 7: Zeilenstufenform

Bemerkung 5.34. Falls A ∈ Mat(m,n;K) Zeilenstufenform hat, so entspricht der Rangvon A gerade der Anzahl der von Null verschiedenen Zeilenvektoren von A, und letzterebilden eine Basis des Zeilenraums. Genauso bilden die transponierten dieser Zeilenvektoreneine Basis des Spaltenraums von At.

Beweis. Nach Proposition 5.27 gilt Rang(A) = Zeilenrang(A). Es muss also lediglich gezeigtwerden, dass alle von Null verschiedenen Zeilenvektoren linear unabhangig sind. Sei A in derGestalt von Definition 5.32, und

zi := (aij)nj=1 , 1 ≤ i ≤ k

die von null verschiedenen Zeilenvektoren. Seien ferner l1, . . . , lk ∈ K mit

l1z1 + . . .+ lkzk = 0 .

Dann folgt, dass li = 0 fur alle 1 ≤ i ≤ k. Denn anderenfalls gibt es ein i mit li 6= 0. Sei r daskleinste solche i. Dann ist aber der jr-te Eintrag von z := l1z1 + . . .+ lkzk gerade lrarjr 6= 0, . Also sind die Zeilenvektoren zi linear unabhangig. Die Aussage uber den Spaltenraum dertransponierten Matrix folgt sofort aus dem Umstand, dass der Zeilenraum einer Matrix mitdem Spaltenraum der transponierten Matrix ubereinstimmt, vgl. Bemerkung 5.20.

Falls A in Zeilenstufenform ist, kann man die Losungen des linearen GleichungssystemsA · x = b einfach ablesen:

Bemerkung 5.35. Sei A ∈ Mat(m,n;K) in Zeilenstufenform, wie in Definition 5.32, undb ∈ Mat(m, 1;K).

(1) Falls bj 6= 0 fur ein j > k, so gilt Los(A, b) = ∅.

Page 58: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

58 5.3 Lineare Gleichungssysteme

(2) Falls bj = 0 fur alle j > k so ist x ∈ Los(A, b) genau dann wenn

xjk = 1akjk

(bk −

∑nj=jk+1 akj xj

)xjk−1

= 1a(k−1)jk−1

(bk−1 −

∑nj=jk−1+1 a(k−1)j xj

)...

xj1 = 1a1j1

(b1 −

∑nj=j1+1 a1j xj

) ,

fur j /∈ {j1, . . . , jk}sind xj ∈ K beliebig .Man nennt siefreie Variablen.

(5.4)

Beweis. Sei A ∈ Mat(m,n;K) in Zeilenstufenform wie in Definition 5.32, b ∈ Mat(m, 1;K).(1): Falls bj 6= 0 fur j > k, so liegt b nicht im Spaltenraum von A. Damit ist nach Satz 5.30Los(A, b) = ∅.(2): Falls bj = 0 fur alle j > k sind die letzten (m− k) Gleichungen des Gleichungssystemsautomatisch erfullt, und die ersten k Gleichungen aquivalent zu den Gleichungen in (5.4).

Beispiel 5.36. Betrachte das lineare Gleichungssystem A · x = b mit0 1 2 0 70 0 0 3 00 0 0 0 10 0 0 0 0

.

Diese Matrix ist in Zeilenstufenform mit k = 3 und j1 = 2, j2 = 4, j3 = 5. Falls nun b4 6= 0ist, hat das Gleichungssystem keine Losung, da b4 nicht im Spaltenraum von A liegt. (Mansieht sofort, dass die vierte Gleichung des linearen Gleichungssystems 0 = b4 lautet.) Fallsb4 = 0, so gibt es auf jeden Fall Losungen. Die Dimension des Losungsraums Los(A, 0) deshomogenen Gleichungssystems ist 5 − Rang(A) = 5 − k = 2. Die freien Variablen sind diexj mit j /∈ {j1, j2, j3} = {2, 4, 5}, also x1 und x3. Die anderen Variablen x2, x4, x5 sind durchAuflosen der ersten, zweiten und dritten Gleichung in Termen der b1, b2, b3 und der freienVariablen x1, x3 bestimmt:

x5 = b3

x4 = 13b2

x2 = b1 − 2x3 − 7x5 = b1 − 7b3 − 2x3

Damit ist im Falle b4 = 0 der Losungsraum von A · x = b gegeben durch

Los(A, b) =

x1

b1 − 7b3 − 2x3

x313b2

b3

∣∣∣∣∣x1, x3 ∈ R

=

0

b1 − 7b3

013b2

b3

+ L

10000

,

0−2100

.

Page 59: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

5 Matrizen und Lineare Gleichungssysteme 59

Im folgenden wird gezeigt, dass und wie man Matrizen in Zeilenstufenform bringen kann.

Definition 5.37. Sei A ∈ Mat(m,n;K) eine Matrix mit Zeilenvektoren vi = (aij)nj=1 ∈

Mat(1, n;K). Eine elementare Zeilentransformation von A ist eine der folgenden Um-formungen von A:

Zi(k) : Multiplikation der i-ten Zeile mit k ∈ K \ {0} vi 7→ k viZij(k) : Addition der k-fachen j-ten Zeile zur i-ten Zeile, fur i 6= j vi 7→ vi + k vj

Zij : Vertauschung der Zeilen i und j vi 7→ vj, vj 7→ vi

Beispiel 5.38.

Z1(2) :

1 2 3 2 11 1 1 1 10 1 0 1 0

7−→

2 4 6 4 21 1 1 1 10 1 0 1 0

Z23(6) :

1 2 3 2 11 1 1 1 10 1 0 1 0

7−→

1 2 3 2 11 7 1 7 10 1 0 1 0

Z13 :

1 2 3 2 11 1 1 1 10 1 0 1 0

7−→

0 1 0 1 01 7 1 7 11 2 3 2 1

Bemerkung 5.39. Elementare Zeilentransformationen andern den Zeilenraum von A, unddamit auch den Rang von A nicht.

Proposition 5.40. Die elementaren Zeilentransformationen einer Matrix A konnen durchlinks-Multiplikation von A mit den folgenden invertierbaren m×m-Matrizen realisiert wer-den:

Zi(k) : T (i)(k) =

1. . . 0

1k

1

0. . .

1

← i-te Zeile

� i-te Spalte

(T (i)(k)

)ab

=

k, a = i = b1, a = b 6= i0, sonst

Page 60: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

60 5.3 Lineare Gleichungssysteme

Zij(k) : T (ij)(k) =

1. . . 0

. . . k

0. . .

1

← i-te Zeile

� j-te Spalte

(T (ij)(k)

)ab

=

k, a = i ∧ b = j1, a = b0, sonst

Zij : T (ij) =

1. . . 0

10 1

1. . .

11 0

1

0. . .

1

← i-te Zeile

← j-te Zeile

� i-te Spalte � j-te Spalte

(T (ij)

)ab

=

{1, (a = b /∈ {i, j}) ∨ (a = i ∧ b = j) ∨ (a = j ∧ b = i)0, sonst

Fur die inversen dieser Matrizen findet man:(T (i)(k)

)−1= T (i)(k−1) ,

(T (ij)(k)

)−1= T (ij)(−k) ,

(T (ij)

)−1= T (ij) .

Beweis. Dass die links-Multiplikation mit den entsprechenden Matrizen gerade den elemen-taren Zeilentransformationen entspricht pruft man leicht nach, z.B. gilt

T (ij)(k) = Im + kE(ij) ,

und daher T (ij)(k) · A = Im · A+ kE(ij) · A = A+ kE(ij) · A. Nun berechnet man

(E(ij) · A

)rs

=m∑t=1

(E(ij)

)rtats = δriajs .

Also ist E(ij) ·A die m×m-Matrix, deren i-ter Zeilenvektor der j-te Zeilenvektor von A ist,und deren andere Zeilenvektoren alle null sind. T (ij)(k) · A ist daher gerade die Matrix, die

Page 61: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

5 Matrizen und Lineare Gleichungssysteme 61

man unter der Transformation Zij(k) aus A gewinnt. Analog zeigt man dies fur die anderenTransformationen.Der Beweis der Form der inversen Matrizen geht auch ganz explizit. Z.B.

T (ij)(−k) · T (ij)(k) =(Im − kE(ij)

)·(Im + kE(ij)

)= Im + kE(ij) − kE(ij) − k2E(ij) · E(ij) .

Dies ist aber Im, denn E(ij) · E(ij) = 0.

Abbildung 8: Schematische Darstellung des Gauß-Algorithmus

Satz 5.41. Jede Matrix A ∈ Mat(m,n;K) kann man durch eine geeignete Folge von elemen-taren Zeilentransformationen auf Zeilenstufenform bringen. Die Hintereinanderausfuhrungfolgender Schritte ist eine solche Folge. Man nennt sie den Gauß-Algorithmus, vgl. Abbil-dung 8.Falls A = 0, so ist A schon in Zeilenstufenform. Nehme also an, dass A 6= 0. Setze zuerstB ∈ Mat(0, n) die leere 0× n-Matrix.Schritt 1: Da A 6= 0 gibt es

:= min{j | es gibt ein imit aij 6= 0} ,ı := min{i | ai 6= 0} .

Falls ı 6= 1, vertausche die Zeilen 1 und ı: A 7→ Z1ı(A). Zu allen i-ten Zeilen mit i > ı

addiert man nun das −(aia1

)-fache der ersten Zeile, d.h. A 7→ Z(i1)(− ai

a1)(A). (a1 ist ein

Pivot-Element.) Gehe zu Schritt 2.Schritt 2: Sei v der erste Zeilenvektor von A. Dieser Zeilenvektor wird nun nicht mehrverandert, und kann im folgenden ignoriert werden: hange ihn an B an

B 7→(Bv

)

Page 62: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

62 5.3 Lineare Gleichungssysteme

und streiche ihn aus der Matrix A. (D.h. A hat nun eine Zeile weniger.) Ist das so erhalteneA = 0 oder hat A keine Zeilen mehr, so ist die Matrix

A′ :=

(BA

)in Zeilenstufenform. Anderenfalls gehe mit der neuen Matrix A wieder zu Schritt 1.

Beweis. In Schritt 1 wird A mit Hilfe von elementaren Zeilentransformationen so umge-formt, dass ein von Null verschiedenes Element in Zeile 1 und Spalte steht, so dass alleMatrix-Eintrage aij, die weiter links stehen (j < ), und alle Eintrage, die in der gleichenSpalte darunter stehen (j = ∧ i > 1) Null sind. Dies wird nun sukzessive fur die Ma-trizen wiederholt, die durch Streichen der ersten Zeile entstehen. Spatestens nach (m − 1)Durchgangen ist eine Matrix in Zeilenstufenform erreicht.

Bemerkung 5.42. Naturlich kann man in der Praxis von der Reihenfolge der Transforma-tionen im Gauß-Algorithmus abweichen, um eine Matrix auf Zeilenstufenform zu bringen.

Beispiel 5.43. Ein Beispiel fur den Gauß-Algorithmus: starte mit

A =

0 1 2 3 45 0 2 1 20 1 0 1 00 2 1 1 1

1. Pivot-Element wird die rot gekennzeichnete 5.

Es wird in die 1. Zeile getauscht ...

Z12

7−→

5 0 2 1 20 1 2 3 40 1 0 1 00 2 1 1 1

Eintrage unter 1. Pivot-Element verschwinden schon.

2. Pivot-Element, wird die rot gekennzeichnete 1 in 2. Zeile.

Es liegt bereits in der obersten Zeile, kein Tausch notig.

Als nachstes werden Nullen unter 2. Pivot-Element erzeugt...

Z32(−1)7−→

5 0 2 1 20 1 2 3 40 0 −2 −2 −40 2 1 1 1

Z42(−2)7−→

5 0 2 1 20 1 2 3 40 0 −2 −2 −40 0 −3 −5 −7

3. Pivot-Element wird die rot gekennzeichnete (-2) in 3. Zeile

Es liegt bereits in der obersten Zeile, kein Tausch notig.

Als nachstes werden Nullen unter 3. Pivot-Element erzeugt...

Z43(− 32

)7−→

5 0 2 1 20 1 2 3 40 0 −2 −2 −40 0 0 −2 −1

Die Matrix ist in Zeilenstufenform.

4. Pivot-Element ist rot gekennzeichnete (-2) in 4. Zeile

Bemerkung 5.44. Wir haben also gezeigt, dass jede Matrix A ∈ Mat(m,n;K) durchelementare Zeilentransformation in Zeilenstufenform gebracht werden kann. Da nach Propo-sition 5.40 elementare Zeilentransformationen durch links-Multiplikation mit invertierbaren

Page 63: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

5 Matrizen und Lineare Gleichungssysteme 63

Matrizen realisiert werden konnen, gibt es also fur jedes A ∈ Mat(m,n;K) ein C ∈ GLm(K),sodass C · A Zeilenstufenform hat. Daher laßt sich ein lineares Gleichungssystem A · x = bmit b ∈ Mat(m, 1;K) uberfuhren in ein aquivalentes Gleichungssystem (C · A) · x = C · b,das Zeilenstufenform hat. Denn nach Satz 5.30 gilt

Los(A, b) = Los(C · A,C · b) .

In der Praxis berechnet man jedoch typischerweise nicht C, sondern wendet einfach dieZeilentransformationen auf die Matrix (A|b) an.

Beispiel 5.45. Betrachte das lineare Gleichungssystem uber K = R:

x1 − x3 + 2 x4 = 32x1 + x2 + x4 = 1

−3x2 + x3 − x4 = 0

Die Matrix (A|b) ist gegeben durch 1 0 −1 2 32 1 0 1 10 −3 1 −1 0

Um das Gleichungssystem zu losen, bringe diese Matrix in Zeilenstufenform: 1 0 −1 2 3

2 1 0 1 10 −3 1 −1 0

Z(12)(−2)7−→

1 0 −1 2 30 1 2 −3 −50 −3 1 −1 0

Z23(3)7−→

1 0 −1 2 30 1 2 −3 −50 0 7 −10 −15

Der Rang der Matrix ist 3 und b liegt im Spaltenraum von A. Daher ist der Losungsraumein 1-dimensionaler affiner Raum. Man liest ihn leicht ab: x4 ist freie Variable, x1, x2, x3 sinddurch x4 und b bestimmt:

x3 = −15

7+

10

7x4

x2 = −5− 2x3 + 3x4 = −5

7+

1

7x4

x1 = 3 + x3 − 2x4 =6

7− 4

7x4 .

Der Losungsraum des Gleichungssystems ist also gegeben durch

1

7

6−5−15

0

+ R

−41101

.

Page 64: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

64 5.3 Lineare Gleichungssysteme

Lineare Gleichungssysteme kann man auch verwenden, um Matrizen zu invertieren:

Bemerkung 5.46. Sei A ∈ Mat(n, n;K) eine quadratische Matrix. Sie ist invertierbar genaudann, wenn Rang(A) = n gilt, denn genau in dem Fall ist die Abbildung A· : Mat(n, 1;K)→Mat(n, 1;K) surjektiv, und damit nach Korollar 4.44 auch bijektiv, vgl. Definition 5.11. DaSpaltenraum(A) = Mat(n, 1;K) ist nach Satz 5.30 das Gleichungssystem A · x = b fur alleb ∈ Mat(n, 1;K) losbar, und weil ker(A·) = Los(A, 0) = {0} ist die Losung eindeutig.

Seien nun si ∈ Mat(n, 1;K) die eindeutigen Losungen von A · si = ei, so gilt fur die ausden Spaltenvektoren s1, . . . , sn zusammengesetzte Matrix

B = (s1s2 . . . sn) ∈ Mat(n, n;K)

A ·B = In. Also ist B = A−1.Die s1, . . . , sn kann man gleichzeitig berechnen, indem man statt (A|ei) einfach die Ma-

trix (A|e1 e2 . . . en) = (A|1n) in Zeilenstufenform bringt. Wenn A invertierbar ist, kann manA mit Hilfe von elementaren Zeilentransformationen sogar diagonalisieren, und insbesonde-re in die Einheitsmatrix 1n uberfuhren. Das Produkt der entsprechenden Transformations-Matrizen (vgl. Proposition 5.40), ist dann gerade die inverse Matrix A−1. Dies berechnetman leicht, indem man den linken Teil der Matrix (A|In) mit Hilfe von elementaren Zeilen-transformationen in die Einheitsmatrix uberfuhrt. Denn unter diesen Transformationen gehtder rechte Teil gerade uber A−1:

(A|In)

Zeilentrans-formationen7−→ (In|A−1) .

Beispiel 5.47. Um die Matrix

A =

1 2 3−1 2 00 1 1

zu invertieren, uberfuhre nun mit Hilfe von elemenatren Zeilenumformungen die linke Seiteder Matrix (A|I3) in die Einheitsmatrix I3:

(A|I3) =

1 2 3 1 0 0−1 2 0 0 1 00 1 1 0 0 1

Z21(1)7−→

1 2 3 1 0 00 4 3 1 1 00 1 1 0 0 1

Z32(− 1

4)7−→

1 2 3 1 0 00 4 3 1 1 00 0 1

4−1

4−1

41

Z3(4)7−→

1 2 3 1 0 00 4 3 1 1 00 0 1 −1 −1 4

Z23(−3)7−→

1 2 3 1 0 00 4 0 4 4 −120 0 1 −1 −1 4

Z2( 14

)7−→

1 2 3 1 0 00 1 0 1 1 −30 0 1 −1 −1 4

Z13(−3)7−→

1 2 0 4 3 −120 1 0 1 1 −30 0 1 −1 −1 4

Z12(−2)7−→

1 0 0 2 1 −60 1 0 1 1 −30 0 1 −1 −1 4

Page 65: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

6 Determinanten 65

Die rechte Seite wurde dabei in A−1 uberfuhrt:

A−1 =

2 1 −61 1 −3−1 −1 4

Bemerkung 5.48. Eine Matrix A mit Hilfe von elementaren Zeilentransformationen inZeilenstufenform zu bringen ist nutzlich zur Bestimmung• von Rang(A)• einer Basis des Zeilenraums Zeilenraum(A)• einer Basis des Spaltenraums Spaltenraum(At) der transponierten Matrix• der Losungen von linearen Gleichungssystemen A · x = b• der inversen Matrix A−1 (falls A invertierbar)

6 Determinanten

6.1 Alternierende Multilinearformen

Im folgenden ist K ein Korper.

Definition 6.1. Seien V und W K-Vektorraume. Eine Abbildung δ : V k → W heißt mul-tilinear (oder auch k-multilinear) falls fur alle 1 ≤ i ≤ k und alle v1, . . . , vi−1, vi+1, . . . , vkdie Abbildungen

δ(v1, . . . , vi−1, · , vi+1, . . . , vk) : V −→ W

v 7−→ δ(v1, . . . , vi−1, v, vi+1, . . . , vk)

linear sind. (D.h. δ ist in jedem einzelnen Argument linear, wenn die restlichen Argumentefestgehalten werden.) Falls W = K, so nennt man δ auch eine Multilinearform.

Beispiel 6.2.(1) Falls k = 1 so sind die k-multilinearen Abbildungen gerade die linearen Abbildungen.(2) Falls V = K, so gilt fur jede k-multilineare Abbildung δ : Kk → W

δ(l1, . . . , lk) = l1 l2 . . . lk δ(1, 1, . . . , 1) .

(3) Falls V = K2, so gilt fur jede 2-multilineare (bilineare) Abbildung δ : K2 → W

δ((x1, x2), (y1, y2)) = x1 y1 δ((1, 0), (1, 0)) + x1 y2 δ((1, 0), (0, 1))

+x2 y1 δ((0, 1), (1, 0)) + x2 y2 δ((0, 1), (0, 1)) .

Durch die Wahl von δ((1, 0), (1, 0)), δ((1, 0), (0, 1)), δ((0, 1), (1, 0)), δ((0, 1), (0, 1)) ∈ Wist δ also eindeutig bestimmt.

Bemerkung 6.3. Genau wie die Mengen linearer Abbildungen, so tragen auch die Mengenmultilinearer Abbildungen V k → W die Struktur von K-Vektorraumen.

Page 66: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

66 6.1 Alternierende Multilinearformen

Proposition 6.4. Seien V und W K-Vektorraume und δ : V k → W k-multilinear, dannsind die folgenden Aussagen aquivalent:

(1) Fur alle v1, . . . , vk gilt: δ(v1, . . . , vk) = 0 falls es ein 1 ≤ i < k gibt mit vi = vi+1.(δ verschwindet, wenn aufeinanderfolgende Argumente gleich sind.)

(2) Fur alle v1, . . . , vk gilt: δ(v1, . . . , vk) = 0 falls es 1 ≤ i 6= j ≤ k gibt mit vi = vj.(δ verschwindet, wenn irgendwelche Argumente gleich sind.)

Beweis. “(2)⇒(1)” ist offensichtlich. Um die andere Richtung “(1)⇒(2)” zu zeigen, nehmean, (1) gilt. Daraus folgt fur beliebige v1, . . . , vk ∈ V , und jedes 1 ≤ i < k

0 = δ(v1, . . . , vi−1, (vi + vi+1), (vi + vi+1), vi+2, . . . , vk)

= δ(v1, . . . , vi−1, vi, vi+1, vi+2, . . . , vk) + δ(v1, . . . , vi−1, vi+1, vi, vi+2, . . . , vk) .

Dabei wurde in der zweiten Gleichung neben (1) auch die Multilinearitat von δ verwendet.Aus (1) folgt also, dass sich unter der Vertauschung zweier aufeinanderfolgender Argumentedas Vorzeichen von δ andert:

fur alle 1 ≤ i < k und alle v1, . . . , vk ∈ V gilt:

δ(v1, . . . , vi−1, vi, vi+1, vi+2, . . . , vk) = −δ(v1, . . . , vi−1, vi+1, vi, vi+2, . . . , vk) .

(2) folgt nun einfach durch sukzessives Vertauschen der Argumente: seien v1, . . . , vk ∈ V ,sodass vi = vj fur i < j. Dann gilt

δ(v1, . . . , vk) = (−1)j−i−1δ(v1, . . . , vi, vj, vi+1, vi+2, . . . , vk)(1)= 0 .

Definition 6.5. Eine multilineare Abbildung δ : V k → W , die die aquivalenten Bedingungenin Proposition 6.4 erfullt nennt man alternierend.

Bemerkung 6.6. Aus dem Beweis von Proposition 6.4 zusammen mit den folgenden Tat-sachen uber die symmetrische Gruppe• jede Permutation σ ∈ Sk kann als Produkt von Transpositionen geschrieben werden

(Proposition 2.15)• das Signum ist ein Gruppenhomomorphismus, d.h. sign(σ ◦ π) = sign(σ) sign(π)

(Satz 2.17(3))• das Signum von Transpositionen ist (−1) (Satz 2.17(4))

folgt sofort, dass sich alternierende multilineare Abbildungen δ : V k → W wie folgt unterPermutationen der Argumente verhalten:

δ(vσ(1), vσ(2), . . . , vσ(k)) = sign(σ) δ(v1, . . . , vk) . (6.1)

Dabei sind v1, . . . , vk ∈ V und σ ∈ Sk.10

10 Falls der Korper K Charakteristik char(K) 6= 2 besitzt, so ist die Bedingung (6.1) in der Tat aquivalentdazu, dass δ alternierend ist. Im Falle char(K) = 2 gilt dies allerdings nicht. Fur Elemente v eines Vektor-raums uber einem Korper der Charakteristik 2 folgt aus v = −v nicht, dass v = 0 gilt. Also gilt zwar auchin diesem Fall (6.1) fur jede alternierende multilineare Abbildung, aber nicht jede multilineare Abbildung,die (6.1) erfullt ist alternierend.

Page 67: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

6 Determinanten 67

Bemerkung 6.7. Seien V und W K-Vektorraume. Die Menge

Altk(V,W ) := {δ : V k → W | δ ist alternierende multilineare Abbildung}

der alternierenden multilinearen Abbildungen ist ein K-Vektorraum, denn die Eigenschaftenin Proposition 6.4 bleiben unter Addition und skalarer Multiplikation erhalten.

Im folgenden interessieren wir uns fur alternierende Multilinearformen, d.h. fur alternie-rende multilineare Abbildungen V k → K, in den Grundkorper.

Satz 6.8. Sei V ein K-Vektorraum der Dimension n ∈ N. Dann gilt dim(Altn(V,K)) = 1.Alle von Null verschiedenen Elemente in Altn(V,K) sind also proportional zueinander. Mannennt sie Determinantenformen.11

Beweis. Sei dim(V ) = n und δ ∈ Altn(V,K). Sei (b1, . . . , bn) eine geordnete Basis von V ,und seien v1, . . . , vn ∈ V beliebig. Dann kann man die vi eindeutig als Linearkombinationenin den bj schreiben:

vi =n∑j=1

aji bj , fur aji ∈ K , 1 ≤ i, j ≤ n .

Aus der Multilinearitat von δ folgt:

δ(v1, . . . , vn) =n∑

j1=1

· · ·n∑

jn=1

aj11 . . . ajnn δ(bj1 , . . . , bjn) .

Da δ alternierend ist, verschwinden in der Summe alle Summanden bei denen jr = js furr 6= s gilt, und es bleiben nur Summanden ubrig, bei denen alle jr, 1 ≤ r ≤ n verschiedensind. Also muss es eine Permutation σ ∈ Sn geben, sodass

jr = σ(r) , fur alle 1 ≤ r ≤ n .

Andererseits taucht auch fur jede solche Permutation genau ein Summand auf. Daher

δ(v1, . . . , vn) =∑σ∈Sn

aσ(1)1 . . . aσ(n)n δ(bσ(1), . . . , bσ(n))

(6.1)=

∑σ∈Sn

sign(σ) aσ(1)1 . . . aσ(n)n δ(b1, . . . , bn) . (6.2)

(Diese Formel (6.2) nennt man auch die Entwicklungsformel von Leibniz.) Falls alsoδ(b1, . . . , bn) = 0 gilt, so ist δ = 0. Falls andererseits δ(b1, . . . , bn) 6= 0, so kann man jedesandere δ′ ∈ Altn(V,K) als K-Vielfaches von δ erhalten:

δ′ =δ′(b1, . . . , bn)

δ(b1, . . . , bn)δ .

11Allgemeiner gilt dim(Altk(V,K)) =(nk

).

Page 68: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

68 6.1 Alternierende Multilinearformen

Fur die alternierende Multilinearform µ := δ′ − δ′(b1,...,bn)δ(b1,...,bn)

δ gilt namlich

µ(b1, . . . , bn) =

(δ′ − δ′(b1, . . . , bn)

δ(b1, . . . , bn)δ

)(b1, . . . , bn) = 0 ,

und daher nach Gleichung (6.2) µ = 0.Falls es also eine nicht-verschwindende n-Multilinearform gibt, so sind alle anderen K-

Vielfache davon. Es bleibt zu zeigen, dass es uberhaupt eine solche gibt. Dazu konstruiertman eine, indem man in Gleichung (6.2) δ(b1, . . . , bn) = 1 setzt.

Proposition 6.9. Sei V ein K-Vektorraum der Dimension n ∈ N, und δ eine Determinan-tenform auf V . Dann gilt fur alle v1, . . . , vn ∈ V :

δ(v1, . . . , vn) = 0 ⇔ {v1, . . . , vn} ist linear abhangig .

Beweis. Zeige zunachst die Richtung “⇐”: sei {v1, . . . , vn} linear abhangig. OBdA gibt esdann l1, . . . , ln−1 ∈ K, sodass vn =

∑n−1i=1 li vi. Aus der Multilinearitat folgt

δ(v1, . . . , vn) =n−1∑i=1

li δ(v1, . . . , vn, vi) = 0 ,

denn δ ist alternierend, und daher δ(v1, . . . , vn, vi) = 0 fur alle 1 ≤ i < n.Fur die Richtung “⇒” nehme an, dass die Menge {v1, . . . , vn} linear unabhangig ist. Sie istalso eine Basis von V . Ware δ(v1, . . . , vn) = 0, so ware nach dem Beweis von Satz 6.8 δ = 0,und damit keine Determinantenform, . Also muss δ(v1, . . . , vn) 6= 0 sein.

Satz 6.10. Sei V ein K-Vektorraum der Dimension n, und f : V → V eine lineare Abbil-dung. Dann gibt es ein d ∈ K, sodass fur alle Determinantenformen δ auf V gilt

f ∗δ(v1, . . . , vn) := δ(f(v1), . . . , f(vn)) = d δ(v1, . . . , vn) , fur alle v1, . . . , vn ∈ V .

d hangt nur von dem Endomorphismus f ab und wird die Determinante von f genannt.Man schreibt

d = det(f) .

Beweis. Man sieht sehr leicht, dass f ∗δ wieder eine alternierende Multilinearform ist, unddass die Abbildung δ 7→ f ∗δ linear ist. Falls δ = 0 ist, so ist die Gleichung trivial erfullt. Fallsδ 6= 0 ist, so muss nach Satz 6.8 f ∗δ ein Vielfaches von δ sein. Der Umstand, dass d nur von fnicht aber von δ abhangt folgt einfach daraus, dass alle alternierenden n-MultilinearformenVielfache einer nicht-verschwindenden solchen Form sind: sei δ′ ∈ Altn(V,K) irgendeineandere alternierende Multilinearform, dann gibt es ein l ∈ K mit δ′ = l δ. Daher

f ∗δ′ = f ∗(l δ) = l f ∗(δ) = l (d δ) = d (l δ) = d δ′ .

Page 69: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

6 Determinanten 69

Proposition 6.11. Sei V ein K-Vektorraum der Dimension n ∈ N. Dann gilt(1) det(f ◦ g) = det(f) det(g), fur alle f, g ∈ Hom(V, V )(2) det(l f) = ln det(f), fur f ∈ Hom(V, V ), l ∈ K(3) det(0) = 0 und det(idV ) = 1(4) ein Endomorphismus f : V → V ist Isomorphismus genau dann wenn det(f) 6= 0, und

dann ist det(f−1) = 1det(f)

Beweis. Sei δ eine Determinantenform auf einem n-dimensionalen K-Vektorraum V .(1): Es gilt

(f ◦ g)∗δ = g∗ (f ∗δ) = g∗(det(f) δ) = det(f) g∗δ = det(f) det(g) δ .

Also det(f ◦ g) = det(f) det(g).(2) und (3): Zeige det(l idV ) = ln:

((l idV )∗δ) (v1, . . . , vn) = δ(l idV (v1), . . . , l idV (vn)) = δ(l v1, . . . , l vn) = lnδ(v1, . . . , vn) .

(4): Sei f : V → V ein Isomorphismus. Setze in (1) g = f−1. Zusammen mit (3) erhalt man

1(3)= det(idV )= det(f ◦ f−1)

(1)= det(f) det(f−1) .

Also det(f) 6= 0 und det(f−1) = 1det(f)

. Falls andererseits f kein Isomorphismus ist, so bildet

f eine Basis {b1, . . . , bn} von V auf eine linear abhangige Menge {f(b1), . . . , f(bn)} ab. Daher

f ∗δ(b1, . . . , bn) = δ(f(b1), . . . , f(bn)) = 0

nach Proposition 6.9. Also folgt det(f) = 0.

Proposition 6.12. Sei V ein K-Vektorraum der Dimension n ∈ N mit geordneter BasisB = (b1, . . . , bn). Sei ferner f : V → V ein Endomorphismus mit Matrixdarstellung

A = (aij)n ni=1 j=1 = MatAA(f) ∈ Mat(n, n;K) , also f(bj) =

n∑i=1

aij bi .

Dann gilt

det(f) =∑σ∈Sn

sign(σ) aσ(1)1 . . . aσ(n)n .

Beweis. Das folgt sofort aus der Leibnizschen Entwicklungsformel (6.2), denn sei δ eineDeterminantenform, so gilt

det(f) δ(b1, . . . , bn) = (f ∗δ)(b1, . . . , bn) = δ(f(b1), . . . , f(bn))(6.2)=

∑σ∈Sn

sign(σ) aσ(1)1 . . . aσ(n)n δ(b1, . . . , bn) .

Page 70: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

70 6.2 Determinanten von Matrizen

6.2 Determinanten von Matrizen

Fur quadratische Matrizen A ∈ Mat(n, n;K) ist die Multiplikationsabbildung

A· : Mat(n, 1;K)→ Mat(n, 1;K)

ein Endomorphismus. Diese Tatsache kann man verwenden, um die Determinante von qua-dratischen Matrizen zu definieren:

Definition 6.13. Sei K Korper, n ∈ N. Definiere die Determinante einer quadratischenMatrix A ∈ Mat(n, n;K) als die Determinante des Endomorphismus A· : Mat(n, 1;K) →Mat(n, 1;K) (vgl. Satz 6.10):

det(A) := det(A·) .Manchmal schreibt man auch |A| fur det(A). Da A die Matrixdarstellung der Abbildung A·ist (siehe Beispiel 5.22) folgt aus Proposition 6.12 sofort die Formel

det(A) =∑σ∈Sn

sign(σ) aσ(1)1 . . . aσ(n)n . (6.3)

Beispiel 6.14.(1) Fur n = 1 gilt det(a11) = a11.

(2) Fur n = 2 erhalt man det

(a11 a12

a21 a22

)= a11 a22 − a12 a21.

(3) Eine obere Dreiecksmatrix ist eine Matrix A = (aij)n ni=1 j=1 ∈ Mat(n, n;K), fur die

gilt aij = 0 fur alle i > j. D.h. A hat die Gestalt

A =

∗ · · · · · · ∗0

. . ....

.... . . . . .

...0 · · · 0 ∗

,

wobei die mit ‘∗’ gekennzeichneten Eintrage beliebig sind. Die Determinante einersolchen Matrix laßt sich leicht berechnen. Da aij = 0 fur alle i > j tauchen in derSumme in Gleichung (6.3) nur Summanden auf, mit

σ(i) ≤ i fur alle 1 ≤ i ≤ n .

Diese Bedingung ist nur fur die triviale Permutation σ = id erfullt. Also reduziert sichdie Summe zu einem einzigen Summanden:

det(A) = a11 a22 . . . ann .

(4) Seien c1, . . . , cn ∈ K, B ∈ Mat(n− 1, n− 1;K). Betrachte die Matrix

A =

c1

B...

cn−1

0 · · · 0 cn

.

Page 71: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

6 Determinanten 71

Dann gilt ani = 0 fur alle i < n. Daher tauchen in der Summe in Gleichung (6.3) nurTerme mit σ(n) = n auf. Solche σ liegen aber in Sn−1 ⊂ Sn. Man erhalt damit

det(A) =∑

σ∈Sn−1

sign(σ) aσ(1)1 . . . aσ(n−1)(n−1) ann = det(B) cn ,

denn ann = cn und fur 1 ≤ i, j < n gilt aij = bij. Dieses Ergebnis werden wir spaternoch verwenden.

Bemerkung 6.15.(1) Die Definition der Determinante durch die Formel (6.3) macht in der Tat auch Sinn,

wenn die Eintrage der Matrix nicht in einem Korper sondern in einem kommutativenRing liegen.

(2) Formel (6.3) ist im allgemeinen keine effiziente Methode zur Berechnung von Matrizen.Spater werden wir andere Methoden zur Berechnung diskutieren.

Die folgenden Eigenschaften der Determinante von Matrizen folgen aus den entsprechen-den Eigenschaften der Determinante von Endomorphismen (vgl. Proposition 6.11):

Proposition 6.16. Sei n ∈ N. Dann gilt(1) det(A ·B) = det(A) det(B), fur alle A,B ∈ Mat(n, n;K)(2) det(l A) = ln det(A), fur A ∈ Mat(n, n;K) und l ∈ K

(3) det

0 · · · 0...

. . ....

0 · · · 0

= 0, det(In) = 1

(4) A ∈ Mat(n, n;K) ist invertierbar genau dann, wenn det(A) 6= 0, und dann giltdet(A−1) = 1

det(A)

Bemerkung 6.17. Daraus folgt insbesondere, dass

det : GLn(K)→ K \ {0}

ein Gruppenhomomorphismus (in die multiplikative Gruppe von K) ist. Der Kern diesesHomomorphismus ist nach Proposition 2.12 eine Untergruppe, sie wird spezielle lineareGruppe genannt und mit SLn(K) bezeichnet:

SLn(K) = ker(det) = {A ∈ Mat(n, n;K) | det(A) = 1} ⊂ GLn(K) .

Proposition 6.18. Sei A ∈ Mat(n, n;K), dann gilt

det(A) = det(At) .

Beweis. Startpunkt fur den Beweis ist Formel (6.3). Da die Multiplikation in K kommutativist, kann man die Faktoren in den in der Formel auftauchenden Produkten aσ(1)1 . . . aσ(n)n

mit einer Permutation π ∈ Sn vertauschen, ohne das Produkt zu andern:

aσ(1)1 . . . aσ(n)n = aσ(π(1))π(1) . . . aσ(π(n))π(n) .

Page 72: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

72 6.2 Determinanten von Matrizen

Man wahlt nun fur jeden Summanden gerade π = σ−1, und erhalt

det(A) =∑σ∈Sn

sign(σ) aσ(1)1 . . . aσ(n)n

=∑σ∈Sn

sign(σ) aσ◦σ−1(1)σ−1(1) . . . aσ◦σ−1(n)σ−1(n)

=∑σ∈Sn

sign(σ) a1σ−1(1) . . . anσ−1(n)

=∑σ∈Sn

sign(σ) atσ−1(1)1 . . . atσ−1(n)n

=∑σ∈Sn

sign(σ−1) atσ−1(1)1 . . . atσ−1(n)n

= det(At) .

Dabei wurde im vorletzten Schritt verwendet, dass sign(σ) = sign(σ−1) gilt, und im letztenSchritt, dass σ 7→ σ−1 eine Bijektion von Sn ist.

Proposition 6.19. Faßt man die Determinante als Abbildung auf den Spaltenvektoren derMatrix auf

det : Mat(n, 1;K)n −→ K

(s1, . . . , sn) 7−→ det(s1 s2 . . . sn)

so entspricht sie gerade der eindeutigen Determinantenform δ auf Mat(n, 1;K) fur die giltδ(e1, . . . , en) = 1.

Daraus folgt insbesondere das Verhalten der Determinante unter elementaren Spalten-transformationen:• Die Determinante multipliziert sich mit k unter der Multiplikation einer Spalte der

Matrix mit k ∈ K.• Die Determinante multipliziert sich mit (−1) unter Vertauschung zweier Spalten.• Die Determinante andert sich nicht, unter der Addition eines Vielfachen einer Spalte

zu einer anderen Spalte.Mit Proposition 6.18 folgt das gleiche fur die entsprechenden Zeilentransformationen.

Beweis. Dass die Determinante aufgefaßt als Abbildung von Spaltenvektoren Determinan-tenform ist folgt sofort aus der Definition: seien s1, . . . , sn ∈ Mat(n, 1;K) die Spaltenvektorender Matrix A = (s1 . . . sn) ∈ Mat(n, n;K) und δ die Determinantenform auf Mat(n, 1;K)mit δ(e1, . . . , en) = 1, dann gilt

det(A)Def. 6.13

= det(A·) Satz 6.10=

(A·)∗δ(e1, . . . , en)

δ(e1, . . . , en)= δ(A · e1, . . . , A · en) = δ(s1, . . . , sn) .

Das Verhalten unter Spaltentransformationen folgt aus dem Umstand, dass δ multilinearund alternierend ist. Fur das analoge Verhalten unter Zeilentransformationen stellt man

Page 73: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

6 Determinanten 73

fest, dass die Transposition die Rollen von Spalten und Zeilen einer Matrix vertauscht, abernach Proposition 6.18 die Determinante nicht andert.

Bemerkung 6.20. Das Verhalten der Determinante unter Spalten- und Zeilentransformatio-nen zusammen mit der Formel fur die Determinante von oberen Dreiecksmatrizen (vgl. Bei-spiel 6.14(3)) kann benutzt werden, um Determinanten relativ effizient zu berechnen: bringedie Matrix mit Hilfe von Spalten- und Zeilentransformationen auf Zeilenstufenform. Ma-trizen in Zeilenstufenform sind auf jeden Fall obere Dreiecksmatrizen. Ihre Determinantenkonnen also mit Beispiel 6.14(3) leicht berechnet werden.

Beispiel 6.21. Berechnung einer Determinante durch Uberfuhrung in Zeilenstufenform:

det

0 15 34 9 21 1 0

= − det

1 1 04 9 20 15 3

(Z13)

= − det

1 1 00 5 20 15 3

(Z21(−4))

= − det

1 1 00 5 20 0 −3

(Z32(−3))

= −(1 · 5 · (−3)) = 15 (Beispiel 6.14(3))

Neben Formel (6.3) gibt es eine andere Formel, mit der man sukzessive Determinantenberechnen kann. Um diese zu formulieren benotigt man die folgende Notation

Abbildung 9: A 7−→ A[i, j].

Definition 6.22. Fur eine Matrix A ∈ Mat(n, n;K) bezeichnet A[i, j] die (n− 1)× (n− 1)-Matrix, die aus A durch Streichung der i-ten Zeile und der j-ten Spalte hervorgeht (vgl. Ab-bildung 9).

Satz 6.23. (Laplace’scher Entwicklungssatz) Sei A ∈ Mat(n, n;K) dann gilt fur alle1 ≤ j ≤ n

det(A) =n∑i=1

(−1)i+jaij det(A[i, j]) .

Page 74: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

74 6.2 Determinanten von Matrizen

Das nennt man die Entwicklung der Determinante nach der j-ten Spalte. Da sich dieDeterminante unter Transposition nicht andert folgt aus dieser Formel auch die Entwicklungder Determinante nach der i-ten Zeile:

det(A) =n∑j=1

(−1)i+jaij det(A[i, j]) .

Beweis. Sei A ∈ Mat(n, n;K) eine quadratische Matrix, und seien s1, . . . , sn ihre Spal-tenvektoren. Schreibe den j-ten Spaltenvektor als Linearkombination sj =

∑ni=1 aijei in der

Standardbasis des Mat(n, 1;K). Nach Proposition 6.19 kann man die Determinante mit Hilfeder Determinantenform δ auf Mat(n, 1;K) ausdrucken, fur die gilt δ(e1, . . . , en) = 1:

det(A) = δ(s1, . . . , sn) = δ

(s1, . . . , sj−1,

n∑i=1

aijei, sj+1, . . . , sn

)

=n∑i=1

aijδ(s1, . . . , sj−1, ei, sj+1, . . . , sn)

=n∑i=1

aij det(s1 . . . sj−1 ei sj+1 . . . sn) (6.4)

Als nachstes analysiert man die Determinanten der Matrizen (s1 . . . sj−1 ei sj+1 . . . sn), dieman aus A erhalt, indem man den j-ten Spaltenvektor durch ei ersetzt. Durch sukzessivesVertauschen des Spaltenvektors ei mit seinem rechten Nachbarn, kann man ei in der Matrixganz nach rechts tauschen. Nach Proposition 6.19 multipliziert sich die Determinante beijeder solchen Vertauschung mit (−1):

det(s1 . . . sj−1 ei sj+1 . . . sn) = (−1)n−j det(s1 . . . sj−1 sj+1 . . . sn ei) .

Die erhaltene Matrix hat nun in der letzten Spalte nur noch einen von Null verschiedenenEintrag, die 1 in der i-ten Zeile. Man vertauscht nun sukzessive die Zeile mit der 1 in derletzten Spalte mit der Zeile darunter, bis sie in der letzten Zeile steht. Das Ergebnis ist eineMatrix der Form

0

A[i, j]...0

∗ · · · ∗ 1

, (6.5)

und fur die Determinante erhalt man damit

det(s1 . . . sj−1 ei sj+1 . . . sn) = (−1)n−j+n−i det

0

A[i, j]...0

∗ · · · ∗ 1

.

Page 75: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

6 Determinanten 75

Weiter stellt man fest, dass die transponierte der Matrix in (6.5) gerade die Gestalt derMatrix in Beispiel 6.14(4) hat. Man kann die Determinante der Matrix also wie in demBeispiel vereinfachen, und erhalt

det(s1 . . . sj−1 ei sj+1 . . . sn) = (−1)i+j det(A[i, j]) ,

Eingesetzt in (6.4) erhalt man die Formel fur die Entwicklung der Determinante nach der j-ten Spalte. Die Formel fur die Entwicklung nach der i-ten Zeile folgt nach Transposition.

Beispiel 6.24. Entwicklung der Determinante nach der ersten Spalte:

det

1 −5 3 22 1 4 93 −1 2 −14 3 1 4

= 1 det

1 4 9−1 2 −13 1 4

− 2 det

−5 3 2−1 2 −13 1 4

+3 det

−5 3 21 4 93 1 4

− 4 det

−5 3 21 4 9−1 2 −1

Definition 6.25. Definiere die zu einer Matrix A ∈ Mat(n, n;K) komplementare MatrixA] ∈ Mat(n, n;K) durch

a]ij := (−1)i+j det(A[j, i]) .

(Beachte hier die umgekehrte Reihenfolge der von i und j auf beiden Seiten der Gleichung!)

Beispiel 6.26. Die zu

A =

1 2 34 5 72 1 0

(6.6)

komplementare Matrix ist gegeben durch

A] =

det

(5 71 0

)− det

(4 72 0

)det

(4 52 1

)− det

(2 31 0

)det

(1 32 0

)− det

(1 22 1

)det

(2 35 7

)− det

(1 34 7

)det

(1 24 5

)

t

=

−7 14 −63 −6 3−1 5 −3

t

=

−7 3 −114 −6 5−6 3 −3

. (6.7)

Satz 6.27. (Cramersche Regel) Fur A ∈ Mat(n, n;K) gilt

A · A] = det(A)In = A] · A .

Page 76: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

76 6.2 Determinanten von Matrizen

Falls A ∈ GLn(K) gilt insbesondere

A−1 =1

det(A)A] ,

und die eindeutige Losung des Linearen Gleichungssystems A · x = b ist gegeben durch

x =1

det(A)

det(B1)...

det(Bn)

, (6.8)

wobei Bj die Matrix ist, die man erhalt wenn man in A den j-ten Spaltenvektor durch bersetzt.

Beweis. Nach Satz 6.23 gilt fur alle 1 ≤ i ≤ n

(A · A]

)ii

=n∑j=1

aija]ji =

n∑j=1

aij(−1)i+j det(A[i, j]) = det(A) .

Die Diagonaleintrage von A ·A] sind also alle gleich det(A). Es verbleibt zu zeigen, dass alleanderen Eintrage verschwinden. Sei nun 1 ≤ i 6= k ≤ n. Es gilt

(A · A]

)ik

=n∑j=1

aija]jk =

n∑j=1

aij(−1)j+k det(A[k, j]) .

Dies ist aber nichts anderes als die Entwicklungsformel nach der k-ten Zeile von der Matrix,die entseht, wenn man in A die k-te Zeile durch die i-te Zeile von A ersetzt. Diese Matrix hatalso zwei gleiche Spalten und ihre Determinante ist somit gleich Null. Alle nicht-diagonal-Eintrage von A ·A] verschwinden also, und damit A ·A] = det(A)In. Dass dies auch fur A] ·Ader Fall ist, sieht man analog.

Fur invertierbare A folgt sofort A−1 = 1det(A)

A], und das lineare Gleichungssystem A·x = bhat eine eindeutige Losung. Entwickle die Determinante der oben definierten Matrizen Bj

nach der j-ten Spalte. Dies ergibt

det(Bj) =n∑i=1

(−1)i+jbi det(A[i, j]) =n∑i=1

bia]ji = (A] · b)j = det(A)(A−1 · b)j . (6.9)

Der Vektor x in Gleichung (6.8) lost also das lineare Gleichungssystem.

Beispiel 6.28. Sei A die Matrix aus Gleichung (6.6). Die Komplementarmatrix wurde in(6.7) bereits bestimmt. Man rechnet leicht nach, dass fur diese Matrizen gilt

A · A] = 3In = A] · A .

Page 77: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

6 Determinanten 77

Die Determinante von A kann man z.B. durch Entwicklung nach der 3. Zeile bestimmen,und erhalt in der Tat

det(A) = 2 det

(2 35 7

)− 1 det

(1 34 7

)= 2(−1)− (−5) = 3 .

Als nachsten wenden wir (6.8) an, um die Losung des linearen Gleichungssystems A · x = bmit

b =

010

zu finden. Dazu mussen wir nur noch die Determinanten der Matrizen B1, B2, B3 berechnen,die aus A entstehen, wenn jeweils der 1., 2., bzw. 3. Spaltenvektor durch b ersetzt wird:

det(B1) = det

0 2 31 5 70 1 0

= − det

(2 31 0

)= 3 ,

det(B2) = det

1 0 34 1 72 0 0

= det

(1 32 0

)= −6 ,

det(B3) = det

1 2 04 5 12 1 0

= − det

(1 22 1

)= 3 .

Eingesetzt in (6.8) erhalt man

x =1

3

3−63

=

1−21

,

was in der Tat nichts anderes ist als A−1 · b.Wie man sieht, ist die Cramersche Regel zur Berechnung von inversen Matrizen oder der

Losung von linearn Gleichungssystemen nicht besonders effizient. Man verwendet besser denGauß-Algorithmus. Allerdings hat sie den Vorteil, dass sie eine geschlossene Formel fur dieinverse Matrix, bzw. die Losung des linearen Gleichungssystems liefert.

Bemerkung 6.29. Die Determinante von Matrizen A ∈ Mat(n, n;R) hat eine anschaulichegeometrische Interpretation. Ihr Betrag | det(A)| entspricht dem Volumen des durch dieSpaltenvektoren s1, . . . , sn in Mat(n, 1;R) aufgespannten Parallelotops,

P (s1, . . . , sn) =

{n∑i=1

xi si | 0 ≤ xj ≤ 1 fur alle 1 ≤ j ≤ n

},

vgl. Abbildung 10, also

| det(s1 . . . , sn)| = Volumen(P (s1, . . . , sn)) .

Page 78: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

78

Abbildung 10: Das von s1, s2, s3 ∈ R3 aufge-spannte Parallelotop.

Abbildung 11: Die Basis (e1, e2) derEbene (links) kann nicht stetig in dieBasis (−e1, e2) (rechts) deformiert wer-den.

Die Determinante ist nur dann ungleich null, wenn (s1, . . . , sn) eine Basis von Mat(n, 1;R)ist. In dem Fall definiert das Vorzeichen eine Orientierung der geordneten Basis:

Wie wir gesehen haben, kann man jede Basis des Mat(n, 1;R) durch Elemente der GruppeGLn(R) in eine beliebige andere solche Basis uberfuhren: (s′1, . . . , s

′n) = (T · s1, . . . , T · sn).

Man kann nun zeigen, dass GLn(R) genau zwei “Zusammenhangskomponenten” besitzt:

{T ∈ GLn(R) | det(T ) > 0} und {T ∈ GLn(R) | det(T ) < 0} .Zwei Matrizen in GLn(R) konnen genau dann stetig ineinander deformiert werden, wennsie in der gleichen Zusammenhangskomponente liegen. Da die Matrixmultiplikation einestetige Abbildung ist, impliziert das, dass man geordnete Basen (s1, . . . , sn) und (s′1, . . . , s

′n)

stetig ineinander deformieren kann, genau dann wenn das Vorzeichen der Determinantendet(s1 . . . , sn) und det(s′1 . . . s

′n) ubereinstimmt, siehe z.B. Abbildung 11.12

Die Determinante von A bezeichnet man auch als orientiertes Volumen des Parallelo-tops P .

7 Eigenvektoren und Eigenwerte

Ziel dieses Kapitels ist die genauere Analyse von Endomorphismen endlich-dimensionalerVektorraume. Im Beweis von Proposition 5.27 hatten wir gesehen, dass man fur jeden Ho-momorphismus f : V → W zwischen endlich-dimensionalen Vektorraumen Basen A und Bderart wahlen kann, dass die entsprechende Matrixdarstellung die einfache Gestalt hat

MatAB(f) =

(Ik 00 0

).

Dabei ist k gerade der Rang von f .In diesem Kapitel geht es nun darum zu verstehen, wie man die Matrixdarstellung

MatAA(f) eines Endomorphismus f : V → V vereinfachen kann. (Beachte, dass hier dieMatrixdarstellung bzgl. ein und derselben Basis betrachtet wird.)

Als Hilfsmittel dafur werden Polynome benotigt, die wir nun zunachst diskutieren. Auchin diesem Kapitel bezeichnet K stets einen Korper.

12Denn det(Ts1 . . . T sn) = det(T ) det(s1 . . . sn).

Page 79: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

7 Eigenvektoren und Eigenwerte 79

7.1 Polynome

Definition 7.1. Ein Polynom mit Koeffizienten in einem Korper K ist eine Folge (pi)∞i=0,

sodass pi ∈ K fur alle i und es ein i0 ≥ 0 gibt, mit pi = 0 fur alle i > i0.13 Wir schreibendann

p(t) =

i0∑i=0

pi ti .

Wir bezeichnen die Menge aller solcher Polynome mit K[t]. Das Nullpolynom ist dasPolynom (pi)

∞i=0 ∈ K[t] mit pi = 0 fur alle i. Man nennt ein Polynom (pi)

∞i=0 ∈ K[t] konstant,

falls pi = 0 fur alle i > 0.Der Grad deg(pi)

∞i=0 eines von Null verschiedenen Polynoms (pi)

∞i=0 ∈ K[t] ist das großte

i ∈ N0 mit pi 6= 0. Den Grad des Null-Polynoms definieren wir als −∞.

Bemerkung 7.2. Vermoge

(pi)∞i=0 + (qi)

∞i=0 = (pi + qi)

∞i=0 , (pi)

∞i=0, (qi)

∞i=0 ∈ K[t]

k (pi)∞i=0 = (k pi)

∞i=0 , (pi)

∞i=0 ∈ K[t], k ∈ K

ist K[t] ein K-Vektorraum. Eine Basis ist z.B.

{1, t, t2, t3, . . .} .

Es gilt deg(p+q) ≤ max{deg(p), deg(q)}mit Gleichheit, falls deg(p) 6= deg(q), und deg(k p) =deg(p) fur alle 0 6= k ∈ K.

Bemerkung 7.3. In Polynome kann man Elemente in K einsetzen: sei p ∈ K[t], k ∈ K, soist

p(k) =∞∑i=0

pi ki ∈ K .

Auf diese Weise kann man jedem Polynom eine Abbildung K → K zuordnen:

K[t] −→ Abb(K,K)

p 7−→ (k 7→ p(k))

Man kann Polynome aber nicht einfach als Abbildungen K → K auffassen, denn es gibt vonNull verschiedenen Polynome, deren zugehorige Abbildung K → K verschwindet. Z.B. istfur K = F2 das Polynom p(t) = t2 + t ∈ F2[t] ungleich Null, aber p(k) = 0 fur alle k ∈ F2.

Bemerkung 7.4. Polynome uber einem Korper kann man multiplizieren: fur p = (pi)∞i=0, q =

(qi)∞i=0 definiere

p · q = (ri)∞i=0 , mit ri =

i∑j=0

pj qi−j .

13Es gibt also nur endlich viele von Null verschiedene Eintrage in der Folge.

Page 80: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

80 7.1 Polynome

Dabei gilt

deg(p · q) = deg(p) + deg(q) . (7.1)

Man pruft leicht nach, dass K[t] mit dieser Operation ein kommutativer Ring (mit 1 ist),vgl. Defintion 3.2. Aus Gleichung (7.1) folgt ausserdem, dass der Ring nullteilerfrei ist,d.h. aus p · q = 0 folgt p = 0 ∨ q = 0.

Im Unterschied zu Korpern kann man in Ringen nicht dividieren. In Polynomringen (wiez.B. auch in Z) kann man aber mit Rest dividieren:

Satz 7.5. Seien p, q ∈ K[t] und q 6= 0. Dann gibt es eindeutig bestimmte x, r ∈ K[t], sodass

p = x · q + r , und deg(r) < deg(q) .

Beweis. Zeige zunachst die Eindeutigkeit. Nehme an, es gabe x, x′, r, r′ ∈ K[t], mit deg(r), deg(r′) <deg(q), sodass

(x · q + r) = p = (x′ · q + r′) .

Daraus folgt

(x− x′)q = (r − r′) .Falls nun x− x′ 6= 0, so folgt deg(r − r′) = deg(q) + deg(x− x′) ≥ deg(q), . Also x− x′ =0 = r − r′.

Beweis der Existenz mit vollstandiger Induktion nach dem Grad von p. (Fur p = 0 istdie Existenz klar.) Induktionsverankerung: die Aussage gilt auf jeden Fall, im Falle deg(p) <deg(q). Denn dann gilt p = x · q + r fur x = 0 und r = p. Fur den Induktionsschritt nehmean, dass die Aussage gelte fur alle Polynome vom Grad < deg(p), und dass deg(p) ≥ deg(q).Definiere

p′(t) := p(t)− tdeg(p)−deg(q) pdeg(p)

qdeg(q)

q(t) .

Dann gilt nach Konstruktion p′deg(p) = 0, und mithin deg(p′) < deg(p). Nach Induktionsan-

nahme gibt es daher x′, r′ ∈ K[t] mit p′ = x′ · q + r′. Damit

p(t) = p′(t) + tdeg(p)−deg(q) pdeg(p)

qdeg(q)

q(t)

= x′(t) q(t) + r′(t) + tdeg(p)−deg(q) pdeg(p)

qdeg(q)

q(t)

= (x′(t) + tdeg(p)−deg(q) pdeg(p)

qdeg(q)

)︸ ︷︷ ︸=:x(t)

q(t) + r′(t)︸︷︷︸=:r(t)

= x(t) q(t) + r(t) .

Damit ist die Existenz fur p gezeigt.

Definition 7.6. k ∈ K nennt man eine Nullstelle des Polynoms p ∈ K[t] falls p(k) = 0.

Page 81: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

7 Eigenvektoren und Eigenwerte 81

Korollar 7.7. Falls a ∈ K eine Nullstelle von p ∈ K[t] ist, so teilt (t − a) ∈ K[t] dasPolynom p (ohne Rest), d.h. es gibt ein q ∈ K[t] mit

p(t) = (t− a) q(t) .

Beweis. Nach Satz 7.5 gibt es q, r ∈ K[t] mit deg(r) < 1, sodass p(t) = (t− a) q(t) + r(t). rmuss also ein konstantes Polynom sein, aber r(a) = p(a)− (a− a) q(a) = 0. Also r = 0.

Proposition 7.8. Jedes Polynom p ∈ K[t] kann auf eindeutige Weise dargestellt werden als

p(t) =m∏i=0

(t− xi)νi q(t) ,

wobei x1, . . . , xm die Nullstellen von p sind, und q(x) 6= 0 fur alle x ∈ K. νi ∈ N nennt mandie Multiplizitat der Nullstelle xi. Wir schreiben dafur auch

νi =: µxi(p) .

Beweis. Die Existenz einer solchen Darstellung folgt aus Korollar 7.7: falls p 6= 0 eine Null-stelle x ∈ K hat, dividiere durch (t− x). Wiederhole dies mit dem resultierenden Polynom,bis es keine Nullstellen mehr gibt. Da der Grad von p endlich ist, muss diese Konstruktionnach endliche vielen Schritten beendet sein.

Fur den Beweis der Eindeutigkeit nehme an, es gebe zwei unterschiedliche solche Dar-stellungen

m∏i=1

(t− xi)νiq(t) = p(t) =m∏i=1

(t− xi)ν′iq′(t) ,

wobei oBdA ν1 < ν ′1. Dann gilt

0 = (t− x1)ν1

(m∏i=2

(t− xi)νiq(t)− (t− x1)ν′1−ν1

m∏i=2

(t− xi)ν′iq′(t)

).

Wegen der Nullteilerfreiheit von K[t] folgt(m∏i=2

(t− xi)νiq(t)− (t− x1)ν′1−ν1

m∏i=2

(t− xi)ν′iq′(t)

)= 0 ,

und damitm∏i=2

(t− xi)νiq(t) = (t− x1)ν′1−ν1

m∏i=2

(t− xi)ν′iq′(t) .

Das kann aber nicht sein, da x1 Nullstelle des Polynoms auf der rechten Seite der Glei-chung ist, nicht aber des Polynoms auf der Linken Seite, . Es folgt νi = ν ′i und damit auchq = q′.

Page 82: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

82 7.1 Polynome

Korollar 7.9. Ein Polynom 0 6= p ∈ K[t] kann hochstens deg(p) viele Nullstellen besitzen.

Korollar 7.10. Falls K unendlich ist, so bestimmt fur p ∈ K[t] die Abbildung

K → K

k 7→ p(k)

das Polynom p eindeutig.

Beweis. Nehme an, es gabe zwei Polynome mit der gleichen dazugehorigen Abbildung. DieDifferenz der beiden Polynome ist wieder Polynom, und hat unendlich viele Nullstellen, mussdaher nach Korollar 7.9 verschwinden.

Definition 7.11. Ein KorperK heißt algebraisch abgeschlossen, falls jedes nicht-konstantePolynom in K[t] eine Nullstelle in K besitzt.

Beispiel 7.12.

(1) Endliche Korper sind nicht allgebraisch abgeschlossen, denn sei K = {x1, . . . , xn}.Dann hat das Polynom

p(t) =n∏i=1

(t− xi) + 1

keine Nullstellen.(2) R ist nicht algebraisch abgeschlossen, denn das Polynom

p(t) = t2 + 1

hat keine Nullstellen in R.Es gilt aber, dass jedes Polynom p ∈ R[t] von ungeradem Grad eine Nullstelle besitzt.(Das folgt aus dem Zwischenwertsatz und der Stetigkeit der einem Polynom zuge-ordneten Abbildung: falls deg(p) ungerade ist gilt namlich limx→−∞ p(x) = −∞ undlimx→∞ p(x) = +∞.)

Bemerkung 7.13. Ist K algebraisch abgeschlossen, so zerfallt jedes Polynom p ∈ K[t] inLinearfaktoren

p(t) = qm∏i=1

(t− xi)νi , q, x1, . . . , xm ∈ K .

Satz 7.14. C ist algebraisch abgeschlossen.

Beweis. Der Beweis dieses wichtigen Satzes gehort eher in den Bereich der Analysis undwird daher hier nicht diskutiert.

Page 83: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

7 Eigenvektoren und Eigenwerte 83

7.2 Eigenvektoren und Eigenwerte

Um Endomorphismen f : V → V von endlich-dimensionalen Vektorraumen besser zu ver-stehen, untersuchen wir im folgenden invariante Unterraume, das sind nicht-trivialeUntervektorraume {0} 6= W ( V , die unter f wieder auf sich selber abgebildet wer-den, d.h. f(W ) ⊆ W . Wahlt man eine Basis (v1, . . . , vk) von W und erganzt diese durchvk+1, . . . , vn ∈ V zu einer Basis (v1, . . . , vn) von V , so hat die Matrixform von f bzgl. dieserBasis die Gestalt

MatAA(f) =

(A B0 C

),

wobei A ∈ Mat(k, k;K), B ∈ Mat(k, n− k;K) und C ∈ Mat(n− k, n− k;K). Im folgendenkonzentrieren wir uns auf 1-dimensionale invariante Untervektorraume.

Definition 7.15. Sei V ein Vektorraum uber einem Korper K und f ∈ Hom(V, V ) einEndomorphismus von V .

(1) Fur λ ∈ K nennen wir den Untervektorraum

Vλ(f) := {v ∈ V | f(v) = λ v} = ker(f − λ idV ) ⊆ V

den zu λ gehorigen Eigenraum von f .(2) λ ∈ K nennen wir einen Eigenwert von f , falls Vλ(f) 6= {0}.(3) Sei λ ∈ K ein Eigenwert von f . Dann nennen wir dim(Vλ(f)) ≥ 1 die Multiplizitat

des Eigenwerts λ.(4) Sei λ ∈ K ein Eigenwert von f . Dann nennen wir die von 0 verschiedenen Elemente in

Vλ(f) die Eigenvektoren von f zum Eigenwert λ.Den zu λ ∈ K gehorigen Eigenraum einer quadratischen Matrix A ∈ Mat(n, n;K) defi-niert man als den zu λ gehorigen Eigenraum des Endomorphismus A· : Mat(n, 1;K) →Mat(n, 1;K):

Vλ(A) := {v ∈ Mat(n, 1;K) |A · v = λ v} ⊆ Mat(n, 1;K) .

Analog definiert man Eigenwerte, deren Multiplizitaten und Eigenvektoren von A.

Bemerkung 7.16. Sei V ein endlich-dimensionaler Vektorraum, und f ∈ Hom(V, V ). Wennein Eigenwert λ von f bekannt ist, so laßt sich der entsprechende Eigenraum Vλ(f) =ker(f − λidV ) leicht bestimmen, indem man ein lineares Gleichungssystem lost. Wahle dazuirgendeine geordnete Basis A von V , und betrachte die Matrixdarstellung A = MatAA(f)von f . Der Eigenraum Vλ(A) ist dann nichts anderes als der Losungsraum Los(A − λIn, 0)des homogenen linearen Gleichungssystems (A − λIn) · x = 0. Mit dem IsomorphismusıA : Mat(n, 1;K) → V , der die Standardbasis von Mat(n, 1;K) auf die Basis A abbildet(vgl. Satz 5.21) erhalt man den Eigenraum Vλ(f) = ıA(Vλ(A)).

Interessant ist es also insbesondere die Eigenwerte von f , bzw. von A zu finden.

Proposition 7.17. Sei V ein n-dimensionaler Vektorraum, f ∈ Hom(V, V ). Sei ferner A =MatAA(f) Matrixdarstellung von f bzgl. einer beliebigen geordneten Basis A von V . Dannsind die folgenden Aussagen aquivalent:

Page 84: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

84 7.3 Das charakteristische Polynom

(1) λ ist Eigenwert von f .(2) det(λ idV − f) = 0(3) det(λ In − A) = 0

Beweis. λ In −A ist die Matrixdarstellung von λ idV − f bzgl. der Basis A. Nach Definiti-on 6.12 und Definition 6.13 sind daher (2) und (3) aquivalent. Aus (1) folgt (2), denn falls λEigenwert von f ist, so gibt es einen Vektor 0 6= v ∈ Vλ(f). Insbesondere v ∈ ker(λ idV − f).Also ist λ idV − f nicht invertierbar und daher nach Proposition 6.11 det(λ idV − f) = 0.Falls andererseits det(λ idV − f) = 0, so ist λ idV − f nach Proposition 6.11 nicht bijektiv,also nach Korollar 4.44 nicht injektiv. Also ist ker(λ idV − f) 6= {0} und λ ist Eigenwert.Also folgt aus (2) auch (1).

Man kann also Eigenwerte finden, indem man die Determinanten in Proposition 7.17studiert.

7.3 Das charakteristische Polynom

Definition 7.18.(1) Sei A ∈ Mat(n, n;K). Das charakteristische Polynom von A ist das Polynom

χA(t) := det (t In − A) ∈ K[t] .

(2) Sei f : V ∈ Hom(V, V ) Endomorphismus eines endlich-dimensionalen K-Vektorraums.Das charakteristische Polynom von f definieren wir als das charakteristische Polynom

χf (t) := χMatAA(f)(t)

einer Matrixdarstellung MatAA(f) von f . (Es hangt nicht von der gewahlten Basisab.)

Bemerkung 7.19.(1) Bei der Definition benutzen wir, dass Determinanten auch von Matrizen mit Ein-

tragen in einem kommutativen Ring (dem Ring der Polynome) definiert werden konnen,vgl. Bemkerung 6.15.

(2) Das charakteristische Polynom ist in der Tat ein Polynom: χA(t) ∈ K[t]. Anhand derLeibniz-Formel (6.3) sieht man leicht, dass

χA(t) = pn tn + pn−1 t

n−1 + . . .+ p1 t+ p0 ,

wobei die pi ∈ K Ausdrucke in den Matrixeintragen aij sind.(3) Die Koeffizienten p0, . . . , pn kann man berechnen. Z.B. sieht man leicht, dass sowohl zu

pn als auch zu pn−1 nur Terme aus dem σ = id-Summanden (t−a11)(t−a22) · · · (t−ann)in der Leibniz-Formel beitragen.14 Insbesondere folgt, pn = 1 und

pn−1 = − (a11 + a22 + . . .+ ann) .

14Denn fur σ 6= id mussen mindestens zwei der Faktoren des Summanden von nicht-diagonal-Eintragender Matrix kommen, in denen aber kein t vorkommt.

Page 85: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

7 Eigenvektoren und Eigenwerte 85

Der Koeffizient −pn−1 ist eine wichtige “Invariante” von Matrizen. Sie wird die Spurvon A genannt, und mit

tr(A) := a11 + a22 + . . .+ ann

bezeichnet (‘trace’). Analog definiert man die Spur eines Endomorphismus als die Spureiner Matrixdarstellung. Genau wie das charakteristische Polynom ist dabei auch dieSpur nicht von der Wahl der Basis abhangig ... .

(4) Das charakteristische Polynom eines Endomorphismus f ∈ Hom(V, V ) hangt nicht vonder Wahl der Basis ab, denn seien A und B zwei Basen von V , dann gilt

det(t In −MatBB(f)

)= det

(MatAB(idV ) · (t In −MatAA(f)) ·MatBA(idV )

)= det

(MatAB(idV )

)det (t In −MatAA(f)) det

(MatBA(idV )

)= det

(t In −MatAA(f)

),

denn die Basiswechsel-Matrizen sind invertierbar mit MatAB(idV ) = (MatBA(idV ))−1,vgl. Proposition 5.25. Insbesondere gilt nach Proposition 6.16

det(

MatAB(idV ))

det(

MatBA(idV ))

= 1 .

Beispiel 7.20.(1) Sei A ∈ Mat(n, n;K) eine obere Dreiecksmatrix wie in Beispiel 6.14(3). Dann ist auch

tIn − A eine obere Dreiecksmatrix, und ihre Determinante kann daher wie in demBeispiel berechnet werden. Fur das charakteristische Polynom erhalt man

χA(t) = (t− a11) (t− a22) . . . (t− ann) .

Die Eigenwerte von A sind also {a11, . . . , ann}. Die entsprechenden Eigenvektorenhangen von den Details der Matrix ab.

(2) Ein wichtiges Beispiel fur eine solche obere Dreiecksmatrix ist ein sogenannter Jordan-Block:

A =

λ 1 0

. . . . . .. . . 1

0 λ

∈ Mat(n, n;K) , λ ∈ K .

Fur das charakteristische Polynom erhalt man

χA(t) = (t− λ)n .

Es gibt also nur einen Eigenwert, namlich λ. In der Tat ist auch der zugehorige Eigen-raum Vλ(A) 1-dimensional, denn die Matrix

λ In − A = −

0 1 0

. . . . . .. . . 1

0 0

Page 86: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

86 7.3 Das charakteristische Polynom

hat Rang n− 1, und daher ist nach Satz 5.30 dim(Los(λ In−A, 0)) = n− (n− 1) = 1.(3) Sei ϕ ∈ R. Dann hat die Matrix

A =

(cos(ϕ) − sin(ϕ)sin(ϕ) cos(ϕ)

)∈ Mat(2, 2;R)

das charakteristische Polynom

χA(t) = (t− cos(ϕ))2 + (sin(ϕ))2 = t2 − 2t cos(ϕ) + 1 = (t− eiϕ)(t− e−iϕ) .

Uber R gibt es also nur fur sin(ϕ) = 0, d.h. ϕ = mπ mit m ∈ Z Eigenwerte, namlich(−1)m. In diesem Fall gilt A = (−1)mI2, der entsprechende Eigenraum ist also ganzMat(2, 1;R). Uber C gibt es auch fur sin(ϕ) 6= 0 Eigenwerte, namlich e±iϕ. Die ent-sprechenden Eigenraume lassen sich leicht berechnen:

Ve±iϕ(A) = ker(e±iϕI2 − A

)= ker

(sin(ϕ)

2

(±i 1−1 ±i

))= C

(±i1

).

(4) Sei

A =

7 1 −5−1 1 14 1 −2

∈ Mat(3, 3;R),

dann gilt

χA(t) = det

t− 7 −1 51 t− 1 −1−4 −1 t+ 2

= det

0 −1− (t− 1)(t− 7) 5 + (t− 7)1 t− 1 −10 −1 + 4(t− 1) t− 2

[Zeilentransf.Z12(7− t) ◦ Z31(4)

]

= − det

(−1− (t− 1)(t− 7) 5 + (t− 7)−1 + 4(t− 1) t− 2

) [Entwicklungnach der 1. Spalte

]= (1 + (t− 1)(t− 7))(t− 2) + (t− 2)(4t− 5)

= (t− 1)(t− 2)(t− 3) .

A hat also die drei Eigenwerte 1, 2, 3. Die entsprechenden Eigenraume kann man leichtberechnen. Exemplarisch wird hier der Eigenraum zum Eigenwert 1 berechnet:

V1(A) = ker(I3 − A) = ker

−6 −1 51 0 −1−4 −1 3

Z12

= ker

1 0 −1−6 −1 5−4 −1 3

Z21(6)◦Z31(4)= ker

1 0 −10 −1 −10 −1 −1

Z32(−1)

= ker

1 0 −10 −1 −10 0 0

= R

1−11

.

Page 87: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

7 Eigenvektoren und Eigenwerte 87

v1 =

1−11

ist also ein Eigenvektor von A zum Eigenwert 1. Analog kann man Eigenvektoren zuden anderen Eigenwerten finden

v2 =

101

, v3 =

9−17

.

Mit Hilfe von Eigenraumen laßt sich viel uber die Gestalt von Endomorphismen, bzw.quadratischen Marizen aussagen... .

7.4 Diagonalisierbarkeit

Definition 7.21. Man nennt einen Endomorphismus f : V → V eines K-Vektorraums Vdiagonalisierbar, wenn es eine Basis A von V bestehend aus Eigenvektoren von f gibt.

Analog nennt man eine Matrix A ∈ Mat(n, n;K) diagonalisierbar, wenn die AbbildungA· : Mat(n, 1;K)→ Mat(n, 1;K) diagonalisierbar ist.

Bemerkung 7.22. Sei f : V → V diagonalisierbar, und A = (v1, . . . , vn) eine Basis von Vbestehend aus Eigenvektoren vi zu Eigenwerten λi. Dann ist die Matrixdarstellung bzgl. Adie Diagonalmatrix

MatAA(f) =

λ1 0

λ2

. . .

0 λn

.

Eine Matrix A ∈ Mat(n, n;K) ist diagonalisierbar genau dann, wenn es eine invertierbareMatrix T ∈ GLn(K) gibt, so dass T−1 · A · T nur diagonale Eintrage hat. (T ist hier dieBasiswechsel-Matrix, die die Standard-Basis von Mat(n, 1;K) in die Basis von Eigenvektorenvon A· uberfuhrt.)

Nicht alle Endomorphismen sind diagonalisierbar, wie z.B. die Jordan-Blocke aus Bei-spiel 7.20(2). Im folgenden wird untersucht, wann genau ein Endomorphismus diagonalisier-bar ist. Dazu ist ein genaueres Verstandnis von Eigenwerten und Eigenvektoren notig.

Proposition 7.23. Sei f ∈ Hom(V, V ), und seien v1, . . . , vk ∈ V Eigenvektoren zu paarweiseverschiedenen Eigenwerten λ1, . . . , λk ∈ K. Dann ist {v1, . . . , vk} linear unabangig.

Beweis. Nehme an, dass λ1, . . . , λk ∈ K paarweise verschiedene Eigenwerte von f sind, undv1, . . . , vk dazugehorige Eigenvektoren. Wir beweisen die Aussage per vollstandiger Induktionnach k. Fur k = 1 ist nichts zu zeigen. Wir nehmen nun an, dass die Aussage fur (k − 1)Eigenvektoren gilt, dass also v1, . . . , vk−1 linear unabhangig sind. Seien nun l1, . . . , lk ∈ Kmit

l1 v1 + . . .+ lk vk = 0 . (7.2)

Page 88: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

88 7.4 Diagonalisierbarkeit

Dann gilt

0 = f (l1 v1 + . . .+ lk vk) = f(l1 v1) + . . .+ f(lk vk) = l1λ1 v1 + . . . , lk λk vk

⇒ lkλkvk = −l1 λ1 v1 − . . .− lk−1 λk−1 vk−1

Auf der anderen Seite folgt aus (7.2)

λk lk vk = −λk(l1 v1 + . . .+ lk−1 vk−1) ,

und daher

(λ1 − λk) l1 v1 + . . .+ (λk−1 − λk) lk−1 vk−1 = 0 .

Nach Annahme ist {v1, . . . , vk−1} linear unabhangig, und daher (λi − λk) li = 0 fur alle1 ≤ i < k. Da die λi paarweise verschieden sind folgt li = 0, fur alle 1 ≤ i < k, und damitwegen (7.2) auch lk = 0. Also ist auch {v1, . . . , vk} linear unabhangig.

Korollar 7.24. Hat ein Endomorphismus f : V → V eines n-dimensionalen VektorraumsV n verschiedene Eigenwerte, so ist f diagonalisierbar.

Beweis. Sei V ein n-dimensionaler K-Vektorraum, und f ∈ Hom(V, V ) ein Endomorphis-mus mit n verschiedenen Eigenwerten. Seien v1, . . . , vn ∈ V jeweils Eigenvektoren zu diesenEigenwerten. Nach Proposition 7.23 ist {v1, . . . , vn} linear unabhangig, und damit eine Basisvon V .

Satz 7.25. Sei V endlich-dimensionaler K-Vektorraum und f ∈ Hom(V, V ). Dann sind diefolgenden Aussagen aquivalent:

(1) f ist diagonalisierbar.(2) Das charakteristische Polynom χf (t) zerfallt in Linearfaktoren und fur die Multipli-

zitaten µxi(χf ) aller seiner Nullstellen xi gilt µxi(χf ) = dim(Vxi(f)).

Beweis. “(1)⇒(2)”: Ist f diagonalisierbar, so gibt es eine Basis {v1, . . . , vn} von V ausEigenvektoren. Seien xi die verschiedenen Eigenwerte von f . Dann gilt nach Beispiel 7.20(1)

χf (t) =∏i

(t− xi)dim(Vxi (f)) .

Daraus folgt (2).“(2)⇒(1)”: Gelte nun (2). Seien x1, . . . , xk die verschiedenen Nullstellen von χf , bzw. dieverschiedenen Eigenwerte von f . Seien di := dim(Vxi(f)) die Multiplizitaten der Eigenraume.

Wahle nun Basen Bi := {v(i)1 , . . . , v

(i)di} der Eigenraume Vxi(f), fur alle 1 ≤ i ≤ k. Behaup-

tung:

B = B1 ∪ · · · ∪Bk = {v(i)j |1 ≤ i ≤ k, 1 ≤ j ≤ di}

Page 89: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

7 Eigenvektoren und Eigenwerte 89

ist eine Basis von V . Nach Konstruktion besteht sie aus Eigenvektoren von f , und damitfolgt (1). Es verbleibt, die Behauptung zu zeigen. Dazu stelle zunachst fest, dass die Bi alledisjunkt sind, und dass

|B| = |B1|+ . . .+ |Bk| = d1 + . . .+ dk = µx1(χf ) + . . .+ µxk(χf ) = dim(V ) .

B enhalt also dim(V ) viele Vektoren. Es genugt also zu zeigen, dass B linear unabhangig

ist. Seien dazu l(i)j ∈ K mit

0 =k∑i=1

di∑j=1

l(i)j v

(i)j .

Dann gilt auf jeden Fall

wi :=

di∑j=1

l(i)j v

(i)j ∈ Vxi(f)

fur alle 1 ≤ i ≤ k. Nach Proposition 7.23 ist {wi | 1 ≤ i ≤ k , wi 6= 0} linear unabhangig.Aus

0 =k∑i=1

di∑j=1

l(i)j v

(i)j =

k∑i=1

wi

folgt also wi = 0 fur alle 1 ≤ i ≤ k. Da nun aber die Bi = {v(i)1 , . . . , v

(i)di} fur alle 1 ≤ i ≤ k

Basen von Vxi(f), und damit linear unabhangig sind, erhalt man weiter l(i)j = 0 fur alle

1 ≤ i ≤ k und 1 ≤ j ≤ di. Damit ist B linear unabhangig.

Das kann man mit Hilfe von direkten Summen noch etwas umformulieren.

Definition 7.26.(1) Sei V ein Vektorraum mit Untervektorraumen U1, . . . , Uk ⊆ V . Dann ist V die direkte

Summe der Ui, V = U1 ⊕ · · · ⊕ Uk =⊕k

i=1 Ui, wenn jedes v ∈ V eine eindeutigeDarstellung

v = v1 + . . .+ vk , mit vi ∈ Uibesitzt.

(2) Sei V ein Vektorraum und U ⊆ V ein Untervektorraum. Dann ist ein UntervektorraumW ⊆ V ein zu U komplementarer Untervektorraum, falls V = U ⊕W .

Beispiel 7.27. Falls B = {v1, . . . , vn} eine Basis eines Vektorraums V ist, und B1, . . . , Bk ⊆B disjunkte Teilmengen, so gilt

V = L(B1)⊕ · · · ⊕ L(Bk) .

Bemerkung 7.28. Seien U1, . . . , Uk Untervektorraume eines Vektorraums V . Dann sind diefolgenden Aussagen aquivalent:

(1) V =⊕k

i=1 Ui

(2) V =∑k

i=1 Ui und fur alle 1 ≤ i ≤ k gilt Ui ∩(∑

j 6=i Uj

)= {0}

Page 90: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

90 7.4 Diagonalisierbarkeit

Beweis. “(1)⇒(2)” Aus (1) folgt sofort, dass V von den Ui erzeugt wird, d.h. V =∑k

i=1 Ui.Falls nun oBdA 0 6= v ∈ U1 ∩ (U2 + . . .+ Uk), so gibt es ui ∈ Ui mit

u1 = v = u2 + . . .+ uk ,

also ist die Darstellung von v als Summe aus Vektoren aus den Ui nicht eindeutig, im Wi-derspruch zu (1).“(2)⇒(1)” Nehme an, (1) gilt nicht. Dann gibt es einen Vektor v ∈ V ui, u

′i ∈ Ui mit uj 6= u′j

fur mindestens ein 1 ≤ j ≤ k, sodass

u1 + . . .+ uk = v = u′1 + . . .+ u′k .

Daraus folgt aber

Uj 3 (uj − u′j) =∑i 6=j

(u′i − ui) ,

also Uj ∩ (∑

i 6=j Ui) 6= {0}, also gilt (2) nicht.Damit erhalt man eine zusatzliche Formulierung fur das Kriterium der Diagonalisierbarkeitaus Satz 7.25:

Satz 7.29. Sei V endlich-dimensionaler K-Vektorraum und f ∈ Hom(V, V ). Dann ist fdiagonlisierbar, genau dann wenn V die direkte Summe der Eigenraume von f ist:

V =r⊕i=1

Vλi(f) , wobei λ1, . . . , λr die Eigenwerte von f sind.

Beweis. Das folgt sofort aus dem Umstand, dass Basen von direkten Summanden zusam-men Basen der Summe bilden.

Beispiel 7.30. Betrachte die Matrix

A =

7 1 −5−1 1 14 1 −2

∈ Mat(3, 3;R) .

In Beispiel 7.20(4) hatten wir das charakteristische Polynom

χA(t) = (t− 1)(t− 2)(t− 3)

bestimmt, und die drei Eigenvektoren

v1 =

1−11

, v2 =

101

, v3 =

9−17

Page 91: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

8 Euklidische Vektorraume 91

zu den Eigenwerten 1, 2, 3 gefunden. Da die Eigenwerte paarweise verschieden sind, ist{v1, v2, v3} nach Proposition 7.23 linear unabhangig, und damit eine Basis von Mat(3, 1;R).Insbesondere gilt

Mat(3, 1;R) = V1(A)⊕ V2(A)⊕ V3(A) .

Ferner ist die Matrix

T := (v1 v2 v3) =

1 1 9−1 0 −11 1 7

invertierbar. Die assoziierte Abbildung T · : Mat(3, 1;R)→ Mat(3, 1;R) bildet die Standard-basis (e1, e2, e3) von Mat(3, 1;R) auf (v1, v2, v3) ab. Daher gilt

T−1 · A · T =

1 0 00 2 00 0 3

.

In der Tat kann man anhand des charakteristischen Polynoms noch mehr uber die Struk-tur von Endomorphismen sagen. Das wird Thema in der Vorlesung Linearen Algebra IIsein.

8 Euklidische Vektorraume

Thema diesen Kapitels sind Vektorraume mit einer zusatzlichen Struktur, einer Bilinearform.Zunachst werden Bilinearformen eingefuhrt, und dann R-Vektorraume mit Skalarproduktenuntersucht, sogenannte Euklidische Vektorraume.

8.1 Bilinearformen

Definition 8.1. Sei V einK-Vektorraum. Eine Bilinearform auf V ist eine 2-Multilinearformβ : V × V → K, vgl. Definition 6.1.

Beispiel 8.2. Das Standard-Skalarprodukt 〈·, ·〉 auf Mat(n, 1;K) definiert durch

〈x, y〉 := xt · y =n∑i=1

xiyi , fur x, y ∈ Mat(n, 1;K)

ist eine Bilinearform.Fur alle B ∈ Mat(n, n;K) ist auch die Abbildung Mat(n, 1;K)×Mat(n, 1;K)→ K,

(x, y) 7→ 〈x,B · y〉 = xt ·B · y

eine Bilinearform auf Mat(n, 1;K).

Bilinearformen auf endlich-dimensionalen Vektorraumen kann man nach Wahl einer Basismit Hilfe von Matrizen darstellen:

Page 92: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

92 8.1 Bilinearformen

Proposition 8.3. Sei V endlich-dimensionaler K-Vektorraum mit geordneter Basis A =(v1, . . . , vn), und β : V × V → K eine Bilinearform. Dann bestimmt die Matrix B ∈Mat(n, n;K) mit den Eintragen

bij = β(vi, vj)

β eindeutig. Wir nennen sie die Matrixdarstellung (oder auch Strukturmatrix) von β bzgl.A und schreiben

B =: MatA(β) .

Die Matrixdarstellung hat die folgenden Eigenschaften:(1) Die Abbildung MatA : β 7→ MatA(β) ist ein Isomorphismus von Vektorraumen.(2) Sei ıA : Mat(n, 1;K)→ V der Isomorphismus, der die Standard-Basis von Mat(n, 1;K)

auf die Basis A abbildet (vgl. Satz 5.21), dann gilt

β(ıA(x), ıA(y)) = xt ·MatA(β) · y , fur alle x, y ∈ Mat(n, 1;K) .

(3) Sei A′ eine andere Basis von V , dann gilt

MatA′(β) = T t ·MatA(β) · T ,

wobei T = MatA′A(idV ) ∈ GLn(K) die entsprechende Basiswechsel-Matrix ist.

Beweis. Dass die Matrix B die Bilinearform β eindeutig bestimmt folgt aus der Multili-nearitat von β. Umgekehrt wird auf diese Weise durch jede Matrix B ∈ Mat(n, n;K) eineBilinearform β definiert. Die Abbildung β 7→ MatA(β) ist also bijektiv. Dass sie ein Vektor-raumhomomorphismus ist, ist klar. Damit folgt (1).Wegen der Bilinearitat genugt es, (2) auf der Standardbasis nachzuprufen. Es gilt

β(ıA(ei), ıA(ej)) = β(vi, vj) = bij = eti ·B · ej .

Fur (3) stellt man zunachst fest, dass nach Satz 5.21(2) die Abbildung ı−1A ◦ıA′ : Mat(n, 1;K)→

Mat(n, 1;K) nichts anderes ist als die Matrixmultiplikation mit der Basiswechsel-MatrixT = MatA′A(idV ) ∈ GLn(K). Mit (2) erhalt man dann fur alle x, y ∈ Mat(n, 1;K)

xt ·MatA′(β) · y = β (ıA′(x), ıA′(y))

= β(ıA ◦ ı−1

A ◦ ıA′(x), ıA ◦ ı−1A ◦ ıA′(y)

)= β (ıA(T · x), ıA(T · y))

= (T · x)t ·MatA′(β) · (T · y)

= xt · (T ·MatA′(β) · T ) · y .

Dabei wurde im letzten Schritt verwendet, dass sich unter Transposition die Reihenfolgeeines Matrixprodukts umkehrt (vgl. Aufgabe 2 auf Ubungsblatt 8). Da diese Gleichung furalle x, y ∈ Mat(n, 1;K) gilt, folgt die Behauptung.

Page 93: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

8 Euklidische Vektorraume 93

Beispiel 8.4. Die Matrixdarstellung des Skalarprodukts auf Mat(n, 1;K) aus Beispiel 8.2bzgl. der Standard-Basis ist gegeben durch die Einheitsmatrix In. Die Matrixdarstellung von〈·, B·〉 fur B ∈ Mat(n, n;K) bzgl. der Standard-Basis ist gerade B.

Definition 8.5. Eine Bilinearform β auf einem Vektorraum V nennt man symmetrisch,wenn fur alle v, w ∈ V gilt

β(v, w) = β(w, v) .

Gilt fur alle v, w ∈ Vβ(v, w) = −β(w, v) ,

so nennt man β schiefsymmetrisch.

Bemerkung 8.6. Eine Bilinearform β auf einem endlich-dimensionalen Vektorraum V istgenau dann (schief-)symmetrisch, wenn die Matrixdarstellung B = MatA(β) von β bzgl.einer Basis A von V (und damit auch bzgl. jeder Basis von V ) (schief-)symmetrisch ist, d.h.

Bt =

{B , β ist symmetrisch−B , β ist schiefsymmetrisch

Beweis. Das pruft man leicht nach! Dass die Matrixdarstellung einer Bilinearform bzgl.jeder Basis symmetrisch ist, genau dann, wenn sie bzgl. einer Basis symmetrisch ist, folgtaus dem Verhalten der Matrixdarstellung unter Basiswechsel (Proposition 8.3(3)), und demUmstand, dass (T t)t = T fur alle Matrizen T , vgl. Proposition 5.18.

Beispiel 8.7.(1) Das Skalarprodukt aus Beispiel 8.2 ist offensichtlich symmetrisch. Die Matrixdarstel-

lung bzgl. der Standard-Basis ist gerade die Einheitsmatrix In, fur die gilt Itn = In.

(2) Die Determinante auf 2×2-Matrizen aufgefaßt als Abbildung auf den Spaltenvektoren

det : Mat(2, 1;K)×Mat(2, 1;K) → K

(s1, s2) 7→ det(s1 s2)

ist eine schiefsymmetrische Bilinearform. Die Matrixdarstellung bzgl. der Standard-Basis A von Mat(2, 1;K) ist gegeben durch

MatA(det) =

(0 1−1 0

).

Definition 8.8. Eine symmetrische Bilinearform β auf einem Vektorraum V nennt mannicht ausgeartet, falls es fur alle 0 6= v ∈ V ein w ∈ V gibt, sodass β(w, v) 6= 0.

Beispiel 8.9. Die Beispiele 8.7 sind offensichtlich nicht ausgeartet. Fur eine Matrix B ∈Mat(n, n;K), fur die gilt Bt = B ist β := 〈·, B·〉 eine symmetrische Bilinearform aufMat(n, 1;K). Falls B nicht vollen Rang hat ist β ausgeartet, denn fur v ∈ ker(B) giltβ(w, v) = 〈w,B · v〉 = 0 fur alle w ∈ Mat(n, 1;K).

Page 94: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

94 8.1 Bilinearformen

Bemerkung 8.10. Eine symmetrische Bilinearform β auf einem Vektorraum V ist nichtausgeartet genau dann wenn die durch β definierte lineare Abbildung

lβ : V −→ V ∗

v 7−→ β(·, v)

injektiv ist.Sei V endlich-dimensional mit geordneter Basis A, und sei A∗ die duale Basis von V ∗

(vgl. Gleichung (4.1)), dann gilt

MatAA(ıA ◦ ı−1A∗ ◦ lβ) = MatAA∗(lβ) = MatA(β) .

Beweis. Der erste Teil ist klar, den zweiten rechnet man leicht nach.

Proposition 8.11. Sei β eine symmetrische Bilinearform auf einem endlich-dimensionalenVektorraum V . Dann ist β nicht ausgeartet genau dann wenn fur die MatrixdarstellungB = MatA(β) von β bzgl. einer Basis A (und damit auch aller Basen) gilt det(B) 6= 0.

Beweis. Nach Bemerkung 8.10 ist β nicht ausgeartet, genau dann, wenn die Abbildung lβinjektiv ist. Die Dimension eines endlich-dimensionalen Vektorraums stimmt aber mit derseines Dualraums uberein (siehe die Diskussion nach Definition 4.47). Die Abbildung lβ ist indiesem Fall nach Korollar 4.44 also injektiv genau dann wenn sie bijektiv ist. lβ ist wiederumgenau dann bijektiv, wenn ıA ◦ ı−1

A∗ ◦ lβ : V → V bijektiv ist. Nach Proposition 6.11 ist dasgenau dann der Fall, wenn

0 6= det(ıA ◦ ı−1A∗ ◦ lβ) = det(B) .

Definition 8.12. Sei β eine symmetrische Bilinearform auf einem Vektorraum V . Seienferner f, g ∈ Hom(V, V ) zwei Endomorphismen von V . Dann nennt man f adjungiert zug, falls

β(v, g(w)) = β(f(v), w) , fur alle v, w ∈ V .Aus der Symmetrie von β folgt dann sofort, dass auch g adjungiert zu f ist. Ferner nenntman f selbstadjungiert, wenn f zu sich selbst adjungiert ist.

Proposition 8.13. Sei β eine symmetrische Bilinearform auf einem endlich-dimensionalenVektorraum V , und seien f, g ∈ Hom(V, V ) zwei Endomorphismen von V , die adjungiertzueinander sind. Dann gilt fur die Matrixdarstellungen F = MatAA(f), G = MatAA(g)bzgl. einer beliebigen Basis A von V

B ·G = F t ·B ,

wobei B = MatA(β) die Matrixdarstellung von β bzgl. A ist.

Page 95: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

8 Euklidische Vektorraume 95

Beweis. Das folgt sofort aus den Definitionen.

Satz 8.14. Sei V endlich-dimensionaler Vektorraum und β eine nicht ausgeartete symme-trische Bilinearform auf V . Dann gibt es zu jedem Endomorphismus g ∈ Hom(V, V ) genaueinen adjungierten Endomorphismus f . Wir bezeichnen ihn mit f =: gad.

Fur die Matrixdarstellung findet man

MatAA(gad) =(B ·MatAA(g) ·B−1

)t, (8.1)

wobei B = MatA(β) die Matrixdarstellung von β ist.

Beweis. Wenn β nicht ausgeartete Bilinearform auf einem endlich-dimensionalen Vektor-raum ist, so ist nach Proposition 8.11 die dazugehorige Matrixdarstellung B invertierbar.Aus Proposition 8.13 folgt also Gleichung (8.1) fur die Matrixdarstellung des adjungiertenEndomorphismus. Die Matrixdarstellung bestimmt aber die adjungierte Abbildung eindeu-tig.

Beispiel 8.15. Betrachte das Standard-Skalarprodukt 〈·, ·〉 auf Mat(n, 1;K). Dies ist nichtausgeartet. Sei g := (A·) : Mat(n, 1;K) → Mat(n, 1;K) der Endomorphismus, der Spalten-vektoren mit einer Matrix A ∈ Mat(n, n;K) multipliziert. Dann ist die adjungierte Abbil-dung gegeben durch (A·)ad = (At·).Definition 8.16. Sei β symmetrische Bilinearform auf einem Vektorraum V .

(1) Zwei Vektoren v, w ∈ V nennt man orthogonal bzgl. β, falls β(v, w) = 0. Man schreibtv ⊥ w.

(2) Fur einen Unterraum U ⊆ V definiert man den Untervektorraum

U⊥ := {v ∈ V | β(v, u) = 0 fur alle u ∈ U} .

Man nennt ihn das orthogonale Komplement von U .(3) Eine Basis {v1, . . . , vn} von V nennt man eine Orthogonalbasis von V , falls gilt

β(vi, vj) = 0 , fur alle i 6= j .

Man nennt die Basis eine Orthonormalbasis falls ferner gilt β(vi, vi) = 1 fur alle i.

Satz 8.17. Sei V endlich-dimensionaler Vektorraum mit nicht ausgearteter Bilinearform β,und U ⊆ V ein Untervektorraum. Dann gilt

(1) dim(U) + dim(U⊥) = dim(V )(2) (U⊥)⊥ = U(3) Falls auch die Einschrankung von β auf U×U nicht ausgeartet ist, so gilt V = U⊕U⊥.

Beweis. (1): Betrachte die Abbildung

f : V → U∗ .

v 7→ lβ(v)∣∣U

Page 96: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

96 8.2 Euklidische Vektorraume

Dies ist eine lineare Abbildung. Da β nicht ausgeartet ist, ist nach Bemerkung 8.10 lβ injektiv,und nach Korollar 4.44 auch surjektiv. Damit gilt im(f) = U∗. Außerdem gilt

ker(f) = {v ∈ V | lβ(v)∣∣U

= 0} = {v ∈ V | β(v, u) = 0 , fur alle u ∈ U} = U⊥ .

(1) folgt dann aus Satz 4.43.

Fur (2) bemerke zunachst, dass U ⊆(U⊥)⊥

. Aus (1) folgt aber, dass U und(U⊥)⊥

diegleiche Dimension haben. Die beiden Unterraume mussen also identisch sein.(3) Da β

∣∣U×U nicht ausgeartet ist folgt U ∩ U⊥ = {0}. Es gilt also V ⊇ U + U⊥ = U ⊕ U⊥.

Also ist dim(U + U⊥) = dim(U) + dim(U⊥). Letzteres ist aber nach (1) gerade dim(V ).Daraus folgt dann V = U + U⊥ = U ⊕ U⊥.

Beispiel 8.18. Betrachte die Bilinearform det aus Beispiel 8.7, und wahle U = Ke1. Danngilt U⊥ = Ke1 = U . Satz 8.17(1) und (2) gelten offensichtlich. (3) hingegen findet keineAnwendung, weil die Einschrankung von det auf U verschwindet, also insbesondere ausge-artet ist. Da in diesem Fall U = U⊥, bilden diese beiden Unterraume offenbar keine direkteSumme.

8.2 Euklidische Vektorraume

Im folgenden betrachten wir Vektorraume uber dem Korper R der reellen Zahlen.

Definition 8.19. Eine Bilinearform β : V ×V → R auf einem R-Vektorraum V ist positivdefinit, falls

β(v, v) > 0 fur alle 0 6= v ∈ V .Man schreibt dann β > 0. Genauso nennt man eine Matrix B ∈ Mat(n, n;R) positiv definit(B > 0), wenn sie die Matrixdarstellung einer positiv definiten Bilinearform ist, d.h.

xt ·B · x > 0 fur alle 0 6= x ∈ Mat(n, 1;R) .

Eine positiv definite symmetrische Bilinearform nennt man auch ein Skalarprodukt.

Beispiel 8.20.(1) Das Standard-Skalarprodukt auf Mat(n, 1;R) ist ein Skalarprodukt, denn

〈x, x〉 = xt · x =n∑i=1

x2i > 0 fur alle 0 6= x =

x1...xn

∈ Mat(n, 1;R) .

(2) Die auf dem Vektorraum C0([0, 1];R) der stetigen Abbildungen von dem Einheitsinter-vall [0, 1] nach R definierte symmetrische Bilinearform

(f, g) :=

∫ 1

0

dx f(x)g(x)

ist positiv definit.

Page 97: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

8 Euklidische Vektorraume 97

Satz 8.21. (Cauchy-Schwarz Ungleichung) Sei β ein Skalarprodukt auf einem R-Vektor-raum V . Dann gilt fur alle u, v ∈ V

β(u, v)2 ≤ β(u, u) β(v, v) ,

mit Gleichheit genau wenn u und v linear abhangig sind.

Beweis. Da β positiv definit ist, gilt fur alle u, v ∈ V und alle k ∈ K

0 ≤ β(u− kv, u− kv) = β(u, u)− 2kβ(u, v) + k2β(v, v) .

Fur v = 0 gilt die Cauchy-Schwarz Ungleichung trivial. Nehme also an v 6= 0 und setze inder obigen Gleichung k = β(u,v)

β(v,v). Man erhalt

0 ≤ β(u, u)− β(u, v)2

β(v, v).

Wegen β(v, v) > 0 folgt die Behauptung.

Bemerkung 8.22. Sei β ein Skalarprodukt auf einem R-Vektorraum V . Aus der Cauchy-Schwarz Ungleichung folgt insbesondere fur u, v ∈ V \ {0}

− 1 ≤ β(u, v)√β(u, u)β(v, v)

≤ 1 fur alle u, v ∈ V .

Es gibt also genau ein ϕ ∈ [0, π], sodass

cos(ϕ) =β(u, v)√

β(u, u)β(v, v).

Wir nennen ϕ den von den Vektoren u und v eingelschossenen Winkel. Es gilt

β(u, v) = cos(ϕ)√β(u, u)β(v, v) .

Zwei Vektoren u, v ∈ V \ {0} sind linear abhangig genau dann wenn der Winkel zwischenIhnen 0 oder π betragt. Sie sind orthogonal (bzgl. β), falls der Winkel zwischen Ihnen π

2

betragt.

Definition 8.23. Eine Norm auf einem R-Vektorraum V ist eine Abbildung ν : V → R≥0,fur die gilt

(1) fur v ∈ V gilt ν(v) = 0 ⇔ v = 0(2) ν(k v) = |k| ν(v) fur v ∈ V , k ∈ K(3) ν(u+ v) ≤ ν(u) + ν(v) fur alle u, v ∈ V (Dreiecksungleichung)

Page 98: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

98 8.2 Euklidische Vektorraume

Proposition 8.24. Sei V ein R-Vektorraum mit Skalarprodukt β. Dann ist die Abbildung

‖ · ‖ : V → R≥0

v 7→ ‖v‖ :=√β(v, v)

eine Norm. ‖v‖ wird die Norm oder auch die Lange von v genannt.

Beweis. (1) und (2) sind klar. Seien u, v ∈ V . Dann gilt

‖u+ v‖2 = β(u+ v, u+ v) = β(u, u) + β(v, v) + 2β(u, v) = ‖u‖2 + ‖v‖2 + 2β(u, v)

≤ ‖u‖2 + ‖v‖2 + 2‖u‖ ‖v‖ = (‖u‖+ ‖v‖)2 .

Mit Hilfe der Norm kann man auf einem Vektorraum Abstande zwischen Vektoren definieren.Genauer definiert die Norm eine Metrik:

Definition 8.25. Eine Metrik auf einer Menge X ist eine Abbildung d : X × X → R≥0,die die folgenden Eigenschaften hat: fur x, y, z ∈ X gilt

(1) d(x, y) = 0 ⇔ x = y(2) d(x, y) = d(y, x)(3) d(x, z) ≤ d(x, y) + d(y, z) (Dreiecksungleichung)

Bemerkung 8.26. Sei V ein R-Vektorraum mit Skalarprodukt β, dann definiert

d(u, v) := ‖u− v‖

eine Metrik auf V .

Abbildung 12: Norm ‖x‖ eines Vektors x ∈ R3 und Winkel ϕ zwischen Vektoren u, v ∈ Rn

Page 99: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

8 Euklidische Vektorraume 99

Beispiel 8.27. Im Rn mit dem Standard-Skalarprodukt

〈(x1, . . . , xn), (y1, . . . , yn)〉 =n∑i=1

xiyi

ist die Norm ‖x‖ eines Vektors x ∈ Rn gerade die Lange des Vektors x, also der Abstandvon x zum Nullpunkt (Satz des Pythagoras). Der von den beiden Vektoren x, y ∈ Rn ein-geschlossene Winkel ϕ ist der kleinere von den beiden Winkeln (0 ≤ ϕ ≤ π), zwischen denStrahlen, die vom Nullpunkt durch x und y laufen (in der Ebene in der 0, x und y liegen).Siehe Abbildung 12.

Definition 8.28. Ein Euklidischer Vektorraum ist ein Paar (V, β) bestehend aus einemendlich-dimensionalen R-Vektorraum V und einem Skalarprodukt β.

Satz 8.29. (Gram-Schmidt’sches Orthogonalisierungsverfahren) Sei (V, β) ein Eu-klidischer Vektorraum. Dann gilt

(1) V besitzt eine Orthonormalbasis.(2) Aus einer Basis {v1, . . . , vn} erhalt man eine Orthogonalbasis {u1, . . . , un} durch

u1 := v1

u2 := v2 −β(u1, v2)

β(u1, u1)u1

u3 := v3 −β(u1, v3)

β(u1, u1)u1 −

β(u2, v3)

β(u2, u2)u2

...

un := vn −n−1∑i=1

β(ui, vn)

β(ui, ui)ui .

(3) Aus einer Orthogonalbasis {u1, . . . , un} von V erhalt man eine Orthonormalbasis{w1 =

u1

‖u1‖, . . . , wn =

un‖un‖

}.

(4) Ist {u1, . . . , un} eine Orthogonalbasis von V , so gilt fur alle v ∈ V :

v =n∑i=1

β(ui, v)

β(ui, ui)ui .

Beweis. (1) folgt aus (2) und (3).Zeige (2) per vollstandiger Induktion. Induktionsverankerung: u1 ist Orthogonalbasis des vonihm erzeugten Unterraums L({u1}). Nehme nun an, dass {u1, . . . , uk−1} eine Orthogonalbasisvon L({v1, . . . , vk−1}) ist. Definiere

uk := vk −k−1∑i=1

β(ui, vk)

β(ui, ui)ui .

Page 100: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

100 8.2 Euklidische Vektorraume

Dann ist uk orthogonal zu allen uj mit j < k, denn

β(uj, uk) = β(uj, vk)−k−1∑i=1

β(uj, vk)

β(ui, ui)β(ui, uj) = β(uj, vk)− β(uj, vk) = 0 .

Im letzten Schritt wurde die Induktionsannahme, β(ui, uj) = 0 fur 1 ≤ i 6= j < k ver-wendet. Da vk linear unabhangig von {v1, . . . , vk−1} ist, ist auch uk linear unabhangig von{u1, . . . , uk−1}. {u1, . . . , uk} ist also eine Orthogonalbasis von L({v1, . . . , vk}).(3) ist klar.(4) Da v ∈ V gilt v =

∑ni=1 li ui. Aus der Orthogonalitat von {u1, . . . , un} folgt

β(ui, v) = liβ(ui, ui) .

Damit folgt die Behauptung.

Korollar 8.30. (Matrix-Version) SeiB = Bt ∈ Mat(n, n;R) positiv definite symmetrischeMatrix, dann gibt es eine obere Dreiecksmatrix T ∈ GLn(R) mit

T t ·B · T = In .

Insbesondere gilt det(B) > 0.15

Beweis. Das folgt sofort, wenn man den Orthonormalisierungssatz (Satz 8.29) auf denEuklidischen Vektorraum Mat(n, 1;R) mit dem Skalar-Produkt 〈·, (B·)·〉 anwendet. Startemit der Standard-Basis A = (v1 = e1, . . . , vn = en) von Mat(n, 1;R). Das Orthogonali-sierungsverfahren uberfuhrt diese Basis in eine Orthonormalalbasis B = (w1, . . . , wn) vonMat(n, 1;R), die nach Konstruktion die Eigenschaft hat, dass fur die Eintrage der Spalten-vektoren wi gilt (wi)j = 0 fur alle j > i. D.h. die Basiswechsel-Matrix

T := MatBA(idV ) = (w1 · · · wn) ∈ GLn(R)

ist eine obere Dreiecksmatrix. Nun gilt β(wi, wj) = δi,j, also

MatB(β) = T t ·B · T = In .

Proposition 8.31. Sei U ⊆ V Unterraum eines Euklidischen Vektorraums (V, β). Danngilt

(1) V = U ⊕ U⊥

15In der Tat gibt es sogar fur jede symmetrische Matrix B uber einem Korper K der Charakteristik 6= 2eine invertierbare Matrix T , sodass T t ·B · T eine Diagonalmatrix ist.

Page 101: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

8 Euklidische Vektorraume 101

(2) Nach (1) kann jedes v ∈ V auf eindeutige Weise als v = u+w geschrieben werden mitu ∈ U und w ∈ U⊥. Die Abbildung πU : V → U , die jedem v ∈ V das entsprechendeu ∈ U zuordnet kann man schreiben als

πU(v) =k∑i=1

β(ui, v)

β(ui, ui)ui , (8.2)

wobei {u1, . . . , uk} eine Orthogonalbasis von U ist. Diese lineare Abbildung ist eineProjektion, d.h. πU ◦πU = πU . Man nennt sie daher auch die orthogonale Projektionauf U . Es gilt πU⊥ = idV − πU .

(3) Fur v ∈ V ist πU(v) ∈ U derjenige Vektor in U , fur den u 7→ ‖v − u‖ minimal ist.

Beweis. (1) Aus β > 0 folgt sofort U∩U⊥ = {0}. Daher ist nach Bemerkung 7.28 U+U⊥ =U ⊕U⊥. Betrachte nun die Abbildung πU aus Gleichung (8.2). Fur alle v ∈ V und 1 ≤ j ≤ kgilt dann

β(uj, (idV − πU)(v)) = β(uj, v)−k∑i=1

β(uj, ui)β(ui, v)

β(ui, ui)= β(uj, v)− β(uj, v) = 0 .

Also ist (idV − πU)(v) orthogonal zu allen uj mit 1 ≤ j ≤ k, und damit (idV − πU)(v) ∈ U⊥fur alle v ∈ V . Dann gilt aber

v = idV (v) = πU(v)︸ ︷︷ ︸∈U

+ (idV − πU)(v)︸ ︷︷ ︸∈U⊥

.

Daher ist V = U + U⊥.(2) Die Abbildung πU ist offensichtlich linear. Dass πU ◦ πU = πU rechnet man leicht nach.Dabei wird die Orthogonalitat der Basis {u1, . . . , uk} von U verwendet.(3) Betrachte das Quadrat des Abstands von v ∈ V und u ∈ U :

‖v − u‖2 = ‖(v − πU(v)) + (πU(v)− u)‖2

= ‖v − πU(v)‖2 + ‖πU(v)− u‖2 + 2β(v − πU(v)︸ ︷︷ ︸∈U⊥

, πU(v)− u︸ ︷︷ ︸∈U

)

= ‖v − πU(v)‖2 + ‖πU(v)− u‖2

Da ‖x‖2 ≥ 0 und ‖x‖ = 0 ⇔ x = 0 folgt, dass der Abstand von v zu jedem Vektor in U≥ ‖v − πU(v)‖2 ist, und dass Gleichheit genau fur u = πU(v) erreicht ist.

Page 102: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

102 8.2 Euklidische Vektorraume

Beispiel 8.32. Sei U ⊂ R3 ein zwei-dimensionalerUnterraum, also eine Ebene. Da R3 = U ⊕ U⊥, mussU⊥ 1-dimensional sein: U⊥ = Rx, wobei x ∈ R3 or-thogonal zu U ist. Dann kann man die orthogonalenProjektionen auf U⊥ und U schreiben als (vgl. Abbil-dung 13)

πU⊥(v) =〈x, v〉〈x, x〉x ,

πU(v) = (idR3 − πU⊥(v)) = v − 〈x, v〉〈x, x〉x .Abbildung 13: Orthogonale Projekti-on auf Ebene U ⊂ R3

Als nachstes zeigen wir, dass symmetrische Matrizen, bzw. selbstadjungierte Endomor-phismen auf Euklidischen Vektorraumen diagonalisierbar sind.

Proposition 8.33. Sei A ∈ Mat(n, n;R) symmetrisch, d.h. At = A. Dann hat A Eigenwerte.

Beweis. Betrachte A als komplexe Matrix. Da C algebraisch abgeschlossen ist (Satz 7.14)hat jedes nicht-konstante Polynom uber C eine Nullstelle, insbesondere auch das charakte-ristische Polynom von A. A hat also (mindestens) einen komplexen Eigenwert λ. Es gibtdaher ein x ∈ Mat(n, 1;C), sodass

A · x = λx . (8.3)

Zeige als nachstes, dass λ reell ist. Sei dazu

x =

x1...xn

der komplex konjugierte Vektor. Aus Gleichung (8.3) folgt dann

λ xt · x = xt · A · x =(At · x

)t · x = (A · x)t · x =(λx)t · x = λxt · x .

Dabei wurde auch die komplexe Konjugation der Eigenvektorgleichung (8.3) verwendet. Dax 6= 0 ist, ist xt · x =

∑ni=1 |xi|2 > 0. Daher folgt λ = λ. Der Eigenwert λ ist also reell.

Proposition 8.34. Sei V Vektorraum mit symmetrischer Bilinearform β, und f ∈ Hom(V, V )selbstadjungiert. Dann sind Eigenraume von f zu unterschiedlichen Eigenwerten orthogonal.

Beweis. Sei f ∈ Hom(V, V ) selbstadjungiert. Seien ferner λ1 6= λ2 zwei Eigenwerte von fund v1, v2 dazugehorige Eigenvektoren. Dann gilt

λ2 β(v1, v2) = β(v1, λ2 v2) = β(v1, f(v2)) = β(f(v1), v2) = β(λ1 v1, v2) = λ1 β(v1, v2) .

Also(λ1 − λ2) β(v1, v2) = 0 ,

und da λ1 6= λ2 folgt β(v1, v2) = 0.

Page 103: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

8 Euklidische Vektorraume 103

Proposition 8.35. Sei V Vektorraum mit symmetrischer Bilinearform β, und f ∈ Hom(V, V )selbstadjungiert. Falls dann U ⊆ V f -invarianter Unterraum ist (d.h. f(U) ⊆ U), so gilt diesauch fur U⊥ (also f(U⊥) ⊆ U⊥).

Beweis. Sei w ∈ U⊥, dann gilt fur alle u ∈ U

β(u, f(w)) = β(f(u), w) = 0 ,

denn f(u) ∈ U . Also ist f(w) ∈ U⊥ fur alle w ∈ U⊥.

Satz 8.36. Sei (V, β) Euklidischer Vektorraum, und f ∈ Hom(V, V ) selbstadjungiert. Dannbesitzt V eine Orthonormalbasis aus Eigenvektoren von f .

Beweis. Nach Satz 8.29 hat V eine Orthonormalbasis. Sei F die Matrixdarstellung von fbzgl. dieser Basis. Nun ist F nach Proposition 8.13 symmetrisch, hat also nach Proposi-tion 8.33 mindestens einen Eigenwert λ ∈ R. Dieser ist naturlich auch Eigenwert von f .Betrachte den entsprechenden Eigenraum Vλ(f). Nach Proposition 8.31(1) gilt

V = Vλ(f)⊕ Vλ(f)⊥ .

Aber nach Proposition 8.35 ist W := Vλ(f)⊥ f -invarianter Unterraum. Falls W 6= {0}, soist die Einschrankung von β auf W positiv definit, und die Einschrankung von f auf Wselbstadjungierter Endomorphismus von W . Man wiederholt nun das obige Vorgehen furW , und erhalt sukzessive eine Aufspaltung von V in eine direkte Summe von Eigenraumenvon f mit unterschiedlichen Eigenwerten. Die Summanden sind also paarweise orthogonaleUnterraume. Wahle nun in jedem Summanden eine Orthonormalbasis, und kombiniere diesezu einer Orthonormalbasis von ganz V .

Definition 8.37. Eine Matrix P ∈ Mat(n, n;R) nennt man orthogonal, falls P t · P = Ingilt. Die Menge

On(R) := {P ∈ Mat(n, n;R) |P t · P = In} ⊂ GLn(R)

ist eine Untergruppe von GLn(R). Man nennt sie die orthogonale Gruppe.

Bemerkung 8.38. Sei (V, β) Euklidischer Vektorraum der Dimension n mit Orthonormal-basis A. Sei B eine weitere Basis von V . Dann ist B Orthonormalbasis genau dann wenn dieentsprechende Basiswechsel-Matrix orthogonal ist, d.h. MatBA(idV ) ∈ On(R).

Beweis. Folgt sofort aus dem Transformationsverhalten der Matrixform von Bilinearformen(Proposition 8.3)

MatB(β) = (MatBA(idV ))t ·MatA(β)︸ ︷︷ ︸=In

·MatBA(idV ) .

Damit laßt sich Satz 8.36 wie folgt umformulieren:

Page 104: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

104 8.2 Euklidische Vektorraume

Korollar 8.39. Sei A ∈ Mat(n, n;R) eine symmetrische Matrix. Dann gibt es eine orthogo-nale Matrix P ∈ On(R), sodass P−1 · A · P diagonal ist. (Symmetrische Matrizen sind alsodiagonalisierbar, und die diagonalisierenden Matrizen sind orthogonal.)

Beweis. Wende Satz 8.36 auf den Euklidischen Vektorraum (Mat(n, 1;R), 〈·, ·〉) und denEndomorphismus f = (A·) an. Es gibt also eine Orthonormalbasis B von Mat(n, 1;R) beste-hend aus Eigenvektoren von f . Sei P := MatBA(idMat(n,1;R)) die Basiswechsel-Matrix, die dieStandard-Basis A von Mat(n, 1;R) auf B abbildet. Dann ist MatBB(f) = P−1 ·A·P diagonal.Aber P · bildet die Orthonormalbasis A auf die Orthonormalbasis B ab, also P ∈ On(R).

Eine weitere Umformulierung lautet:

Korollar 8.40. Sei (V, β) Euklidischer Vektorraum und β eine andere symmetrische (abernicht notwendigerweise positiv definite) Bilinearform auf V . Dann gibt es eine Basis von V ,die gleichzeitig Orthonormalbasis bzgl. β und Orthogonalbasis bzgl. β ist.

Beweis. Sei A = {v1, . . . , vn} eine Orthonormalbasis von V . Dann ist die MatrixdarstellungB := MatA(β) symmetrisch. Nach Korollar 8.39 gibt es ein P ∈ On(R), sodass P−1 ·B ·P dia-gonal ist. Damit ist die Basis B = {w1, . . . , wn} bestehend aus den Vektoren wj =

∑ni=1 Pijvi,

1 ≤ j ≤ n Orthonormalbasis bzgl. β, aber auch Orthogonalbasis bzgl. β.

Damit kann man schließlich ein Kriterium fur die positive Definitheit einer symmetrischenMatrix uber R, bzw. einer symmetrischen Bilinearform auf einem endlich-dimensionalen R-Vektorraum formulieren:

Satz 8.41. Eine symmetrische Matrix B ∈ Mat(n, n;R) ist positiv definit, genau dann,wenn fur alle 1 ≤ k ≤ n die Determinanten det(Bk) der Hauptminoren

Bk = (bij)k k

i=1 j=1 ,

d.h. der oberen linken k × k-Blocke in B, positiv sind: det(Bk) > 0.

Beweis. Betrachte die symmetrische Bilinearform β auf Mat(n, 1;R), definiert durch

β(x, y) = xt ·B · y

fur x, y ∈ Mat(n, 1;R). Seien Vk := L({e1, . . . , ek}) die durch die ersten k Standard-BasisVektoren aufgespannten Unterraume von Mat(n, 1;R). B ist positiv definit genau dann wennβ positiv definit ist. Dann sind aber auch die Einschrankungen βk := β|Vk×Vk auf die Vk posi-tiv definit. Die Matrixdarstellung der Einschrankung bzgl. der Standard-Basis ist aber genauder k-te Hauptminor Bk. Nach Korollar 8.40 gibt es nun Basen der Vk, die Orthogonalbasenvon βk sind. Die Matrixdarstellungen der Bk in diesen Basen sind also diagonal. Da die Bk

positiv definit sind, mussen alle Diagonaleintrage dieser Matrixdarstellungen positiv sein,woraus sofort det(Bk) > 0 folgt. Umgekehrt nehme nun an, dass det(Bk) > 0 fur alle k,und zeige per vollstandiger Induktion nach k, dass Bk > 0 fur alle k. Fur k = 1 ist nichtszu zeigen, denn eine 1 × 1-Matrix ist positiv definit genau dann wenn ihr Eintrag positiv

Page 105: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

8 Euklidische Vektorraume 105

ist. Nehme nun an, dass Bk−1 > 0. Bk−1 ist nichts anderes als die Matrixdarstellung derEinschrankung von βk auf Vk−1. Aus der positiven Definitheit von Bk−1 folgt, dass nachder Diagonalisierung von βk mindestens (k − 1) Diagonaleintrage positiv sein mussen. Ausdet(Bk) > 0 folgt nun auch, dass der verbleibende Diagonaleintrag positiv ist, und daherBk > 0.

Page 106: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

106

Teil 2

Lineare Algebra IIa

9 Unitare Vektorraume

Thema dieses Kapitels sind Vektorraume uber dem Korper C, die als zusatzliche Struktureine hermitesche Form tragen. Die Theorie dieser Vektorraume lauft parallel zur Theorie vonR-Vektorraumen mit symmetrischen Bilinearformen, die in Kapitel 8 behandelt wurde. Dochzunachst beginnen wir mit einem kurzen Nachtrag zum Thema symmetrische Bilinearformen.

9.1 Erganzung zu symmetrischen Bilinearformen

Im Rahmen der Diskussion der Euklidischen Vektorraume hatten wir in Korrolar 8.40 fest-gestellt, dass es zu jeder symmetrischen Bilinearform β in einem euklidischen Vektorraum(V, β) eine Orthonormalbasis bzgl. β gibt, die orthogonal bzgl. β ist. Da man auf jedemendlich-dimensionalen R-Vektorraum eine positiv definite symmetrische Bilinearform β de-finieren kann bedeutet dies insbesondere, dass es zu jeder (nicht notwendigerweise positivdefiniten) symmetrischen Bilinearform auf einem endlich-dimensionalen R-Vektorraum eine

Orthogonalbasis A gibt. Die Matrixdarstellung B := MatA(β) von β bzgl. einer solchen Ba-sis ist also eine Diagonalmatrix. Die Eigenwerte dieser Matrix hangen offensichtlich von derWahl der Basis ab. (So fuhrt zum Beispiel die Multiplikation eines Basisvektors mit einerZahl λ ∈ R zu einer Multiplikation des entsprechenden Eigenwerts mit λ2.) Man kann jedochzeigen, dass die Anzahl der positiven Eigenwerte und die Anzahl der negativen Eigenwertenicht von dieser Wahl abhangen, sondern nur durch die Bilinearform β bestimmt sind.

Beispiel 9.1. Betrachte den Vektorraum V = Mat(3, 1;R) mit der symmetrischen Biline-arform

β(x, y) = xt ·

2 1 11 0 −11 −1 0

· y , fur x, y ∈ Mat(3, 1;R) .

Man pruft leicht nach, dass die Basis

A =

v1 =

1−11

, v2 =

11−1

, v3 =

−111

eine Orthogonalbasis ist mit

MatA(β) =

4 0 00 4 00 0 −4

.

Page 107: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

9 Unitare Vektorraume 107

Eine andere Orthogonalbasis ist z.B.

A′ =

v′1 =

111

, v′2 =

011

, v′3 =

01−1

mit

MatA′(β) =

4 0 00 −2 00 0 2

.

Die Eigenwerte der Matrixdarstellungen sind also unterschiedlich, aber die Anzahl der posi-tiven und die Anzahl der negativen Eigenwerte sind bei beiden gleich. In der Tat stimmendiese Zahlen fur alle Orthogonalbasen uberein.

Satz 9.2. (Tragheitssatz von Sylvester) Sei β eine symmetrische Bilinearform auf einem

endlich-dimensionalen R-Vektorraum V , A eine Orthogonalbasis bzgl. β, und B := MatA(β)

die entsprechende Matrixdarstellung von β. Dann hangen die Zahlen n+ und n− der positivenbzw. negativen Eigenwerte von B nicht von der Wahl der Basis A ab. (Die Kombination

n+ − n− wird auch die Signatur von β genannt.)16

Beweis. Die Orthogonalbasis A besteht aus n+ Vektoren u1, . . . , un+ , fur die gilt β(ui, ui) >

0, n− Vektoren v1, . . . , vn− , fur die gilt β(vi, vi) < 0 und n0 := dim(V )− n+ − n− Vektoren

w1, . . . , wn0 , fur die gilt β(wi, wi) = 0. (n0 ist also die Multiplizitat des Eigenwerts 0 von B.)Offenbar ist n0 = dim(V0) gerade die Dimension des Unterraums

V0 := {v ∈ V | β(v, w) = 0 fur allew ∈ V } .

n0 ist also schon einmal unabhangig von der Basiswahl. Definiere nun

V+ := L({u1, . . . , un+}) und V− := L({v1, . . . , vn−}) .

Dann gilt V = V0 ⊕ V+ ⊕ V−. Sei nun A′ eine andere Basis bzgl. der β orthogonal ist, undseien V ′+ und V ′− die entsprechenden Untervektorraume von V . Dann gilt naturlich

V0 ⊕ V+ ⊕ V− = V = V0 ⊕ V ′+ ⊕ V ′− .

Behaupte nun, dass V+ ∩ (V ′− ⊕ V0) = {0}. Denn gabe es ein 0 6= v ∈ V+ ∩ (V ′− ⊕ V0), so

wurde einerseits gelten β(v, v) > 0, denn v ∈ V+. Andererseits muss aber v = v− + v0 mitv− ∈ V ′− und v0 ∈ V0. Also

β(v, v) = β(v− + v0, v− + v0) = β(v−, v−)︸ ︷︷ ︸≤0

+ β(v0, v0)︸ ︷︷ ︸=0

≤ 0 , .

16Genau wie die Dimension einen Vektorraum bis auf Isomorphie charakterisiert, so bestimmen die Zah-len (n = dim(V ), n+, n−) die Isomorphieklasse des Paares (V, β). Man kann die Zahlen eindeutig aus der

Signatur, dem Rang von B und der Dimension von V errechnen.

Page 108: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

108 9.1 Erganzung zu symmetrischen Bilinearformen

Das zeigt die Behauptung, und damit V+ ⊕ V ′− ⊕ V0 ⊆ V . Vergleich der Dimensionen zeigtsofort

n+ + n′− + n0 ≤ dim(V ) = n+ + n− + n0 ⇒ n′− ≤ n− .

Unter Vertauschung der Rollen von A und A′ erhalt man auf die gleiche Weise auch n− ≤ n′−.Also folgt n− = n′−. Da n+ + n− = n′+ + n′− ist, folgt auch n+ = n′+.

Bisher haben wir uns mit der Orthogonalisierung von symmetrischen Bilinearformenauf R-Vektorraumen beschaftigt. Eine interessante Frage ist, ob auch Bilinearformen aufVektorraumen uber anderen Korpern K Orthogonalbasen besitzen. In der Tat ist dies immerder Fall, zumindest wenn die Charakteristik von K ungleich 2 ist:

Proposition 9.3. Sei V ein endlich-dimensionaler Vektorraum uber einem Korper K derCharakteristik char(K) 6= 2, und β : V × V → K eine symmetrische Bilinearform auf V .Dann gibt es eine Basis {v1, . . . , vn} von V , sodass

β(vi, vj) = 0 fur alle i 6= j .

Beweis. Beweis per vollstandiger Induktion nach n = dim(V ). Im Falle n = 1 ist dieAussage trivial wahr. Nehme an, die Aussage gelte fur K-Vektorraume der Dimension < n.Ist β = 0 so ist die Aussage auch trivial erfullt. Nehme also an β 6= 0. Behaupte, dass esin diesem Fall ein w ∈ V gibt mit β(w,w) 6= 0. Um diese Behauptung zu beweisen nehmean, dass β(v, v) = 0 fur alle v ∈ V . Da β 6= 0 gibt es aber x, y ∈ V mit β(x, y) 6= 0. Dachar(K) 6= 2 folgt daraus

β(x+ y, x+ y) = β(x, x)︸ ︷︷ ︸=0

+ β(y, y)︸ ︷︷ ︸=0

+2 β(x, y)︸ ︷︷ ︸6=0

6= 0 , .

Damit ist gezeigt, dass es ein w ∈ V gibt mit β(w,w) 6= 0. Definiere

W := (K w)⊥ = {v ∈ V | β(v, w) = 0} .Zeige als nachstes: V = K w ⊕W . Sei dazu v ∈ K w ∩W , dann gilt v = k w fur ein k ∈ K,und ferner

0 = β(v, w) = k β(w,w) .

Aus β(w,w) 6= 0 folgt k = 0 und v = 0. Wir erhalten K w ∩ W = {0}. Außerdem giltV = K w + W , denn alle v ∈ V konnen geschrieben werden als

v =β(w, v)

β(w,w)w︸ ︷︷ ︸

∈Kw

+

(v − β(w, v)

β(w,w)w

)︸ ︷︷ ︸

∈W

.

Also ist V = K w ⊕W . Da dim(W ) < dim(V ) = n gilt die Proposition nach Induktions-annahme fur W . Es gibt also eine Orthogonalbasis von W . Erganzt man diese durch w, soerhalt man eine Orthogonalbasis von V .

Korollar 9.4. Sei K ein Korper der Charakteristik char(K) 6= 2 und A = At ∈ Mat(n, n;K)eine symmetrische Matrix. Dann gibt es ein T ∈ GLn(K), sodass T t · A · T diagonal ist.

Page 109: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

9 Unitare Vektorraume 109

9.2 Hermitesche Formen

Im folgenden betrachten wir Vektorraume uber dem Korper C der komplexen Zahlen. Wie wirsehen werden, lassen sich auch in solchen Vektorraumen Langen, bzw. Abstande definieren. Inder Tat hatten wir ja bei der Diskussion des Korpers C in Kapitel 3.3 mit dem Absolutbetrag

|z| = |x+ iy| =√x2 + y2 ≥ 0 ,

den Begriff einer “Lange” komplexer Zahlen z = x+ iy eingefuhrt. Wie wir gesehen hatten,kann der Absolutbetrag mit Hilfe der komplexen Konjugation

z = (x+ iy) 7→ z = x+ iy = x− iy

einfach als|z| =

√zz

geschrieben werden. Wie wir sehen werden, spielt die komplexe Konjugation auch bei derDiskussion von Langen in allgemeinen C-Vektorraumen eine Rolle.

Definition 9.5. Seien V und W Vektorraume uber dem Korper C.(1) Eine Abbildung f : V → W heißt antilinear, falls fur alle v, w ∈ V und λ ∈ C gilt

f(v + w) = f(v) + f(w) aber f(λ v) = λ f(v) .

Beachte, dass hier im Unterschied zu linearen Abbildungen in der zweiten Gleichungdie komplexe Konjugation auftaucht!

(2) Eine Abbildung η : V × V → C nennt man eine Sesquilinearform, falls sie im erstenArgument antilinear und im zweiten linear ist, falls also fur alle v, v′, w, w′ ∈ V undλ ∈ C gilt17

η(v + v′, w) = η(v, w) + η(v′, w) , η(λ v, w) = λ η(v, w) ,η(v, w + w′) = η(v, w) + η(v, w′) , η(v, λw) = λ η(v, w) .

(3) Eine Sesquilinearform auf V heißt hermitesch, falls außerdem gilt

η(v, w) = η(w, v) fur alle v, w ∈ V .

Fur hermitesche Formen gilt insbesondere η(v, v) ∈ R ⊂ C fur alle v ∈ V .

Beispiel 9.6. Das Standardskalarprodukt auf Mat(n, 1;C) gegeben durch

(z, w) =n∑i=1

ziwi

ist eine hermitesche Form auf Mat(n, 1;C).

17Haufig werden die Rollen der beiden Argumente in dieser Definition auch vertauscht!

Page 110: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

110 9.2 Hermitesche Formen

Die Theorie der hermiteschen Formen auf C-Vektorraumen verlauft analog zur Theorieder symmetrischen Bilinearformen auf R-Vektorraumen.

Bemerkung 9.7. Sei η eine hermitesche Form auf einem C-Vektorraum V . Die folgendenKonzepte und Resultate ubertragen sich sofort aus dem Kontext der symmetrischen Biline-arformen in den Kontext der hermiteschen Formen:

(1) η ist nicht ausgeartet, falls es fur jedes 0 6= v ∈ V ein w ∈ V gibt, mit η(v, w) 6= 0.(2) Ist A = (v1, . . . , vn) eine Basis von V , und η eine Sesquilinearform auf V , so nennt

man die MatrixHi,j := η(vi, vj)

auch die Matrixdarstellung (oder auch Strukturmatrix) von η und schreibt

H = MatA(η) .

Sie bestimmt die Sesquilinearform eindeutig.Unter Basiswechsel verhalt sich die Matrixdarstellung wegen der Sesquilinearitat vonη jedoch etwas anders als im reellen Fall: sei A′ eine weitere geordnetet Basis von V ,dann gilt

MatA′(η) = T ∗ ·MatA′(η) · T ,wobei T = MatA′A(idV ) die Basiswechselmatrix ist, und die hermitesch transpo-nierte Matrix T ∗ = T t definiert ist durch

T ∗ij := Tji . (9.1)

(T ∗ geht aus T durch Transposition und komplexer Konjugation aller Eintrage hervor.)(3) Ist η hermitesch, so gilt fur die Matrixdarstellung H = MatA(η)

H∗ = H .

Eine Matrix die diese Gleichung erfullt, nennt man auch eine hermitesche Matrix.(4) Einen Endomorphismus f ∈ Hom(V, V ) nennt man adjungiert zu einem Endomor-

phismus g ∈ Hom(V, V ), falls fur alle v, w ∈ V gilt

η(v, g(w)) = η(f(v), w) .

Die Matrixdarstellungen F := MatAA(f), G := MatAA(g) und H := MatA(η) erfullendann die Gleichung

H ·G = F ∗ ·H .

(5) v, w ∈ V nennt man orthogonal bzgl. η, falls gilt η(v, w) = 0.(6) Das orthogonale Komplement eines Unterraums U ⊆ V ist definiert als

U⊥ = {v ∈ V | η(v, u) = 0 fur alle u ∈ U} .

(7) Eine Basis {v1, . . . , vn} von V heißt Orthogonalbasis von V , falls η(vi, vj) = 0 furalle i 6= j. Sie heißt Orthonormalbasis, falls zusatzlich η(vi, vi) = 1.

Page 111: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

9 Unitare Vektorraume 111

9.3 Unitare Vektorraume

Da fur hermitesche Formen η auf C-Vektorraumen V fur alle v ∈ V η(v, v) ∈ R ⊂ C ist,kann man auch fur hermitesche Formen positive Definitheit definieren, und damit Theo-rie und Resultate Euklidischer Vektorraume in den Kontext von komplexen Vektorraumenubertragen. Falls nichts anderes vermerkt ist, sind im folgenden alle Vektorraume komplex.

Definition 9.8.(1) Eine hermitesche Form η auf einem C-Vektorraum V heißt positiv definit (man

schreibt η > 0), falls η(v, v) > 0 fur alle 0 6= v ∈ V .(2) Eine positiv definite hermitesche Form nennt man auch ein Skalarprodukt.(3) Ein Paar (V, η) bestehend aus einem endlich-dimensionalen C-Vektorraum V und einer

positiv definiten hermiteschen Form nennt man einen unitaren Vektorraum.(4) Eine hermitesche Matrix H ∈ Mat(n, n;C) nennt man positiv definit (H > 0), falls sie

die Matrixdarstellung einer positiv definiten hermiteschen Form ist, d.h. falls

x∗ ·H · x > 0 fur alle x ∈ Mat(n, 1;C) .

Analog zu Euklidischen Vektorraumen gilt auch fur unitare Vektorraume die Cauchy-Schwarz Ungleichung:

Satz 9.9. Sei η ein Skalarprodukt auf einem C-Vektorraum V . Dann gilt fur alle u, v ∈ V

|η(u, v)|2 ≤ η(u, u) η(v, v) , bzw. |η(u, v)| ≤ ‖u‖ ‖v‖ ,

wobei ‖u‖ :=√η(u, u).

Beweis. Beweis analog zum Beweis von Satz 8.21. Zu beachten ist jedoch der Absolutbetragin den Formeln, der notwendig ist, weil η(u, v) fur allgemeine u, v ∈ V komplex ist.

Bemerkung 9.10. Da fur hermitesche Formen η(u, v) im Allgemeinen nicht in R liegt,kann man im Unterschied zum reellen Fall, in unitaren Vektorraumen keine Winkel zwischenVektoren definieren. Analog zum reellen Fall definiert aber ‖·‖ : V → R≥0 auch im komplexenFall eine Norm auf V , und

d : V × V → R≥0

(u, v) 7→ ‖u− v‖

eine Metrik.

Wie im reellen Fall funktioniert auch in unitaren Vektorraumen das Gram-SchmidtscheOrthogonalisierungsverfahren:

Satz 9.11. (Gram-Schmidtsches Orthogonalisierungsverfahren) Jeder unitare Vek-torraum (V, η) besitzt eine Orthonormalbasis. Die Formeln fur das Gram-Schmidt Verfahrenerhalt man aus denen in Satz 8.29 indem man β durch η ersetzt.

Page 112: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

112 9.4 Normale Endomorphismen

Beweis. Analog zum Euklidischen Fall, vgl. den Beweis von Satz 8.29.

Korollar 9.12. (Matrix-Version) Ist H ∈ Mat(n, n;C) eine positiv definite hermitescheMatrix, dann gibt es eine obere Dreiecksmatrix P ∈ GLn(C) mit P ∗ ·H · P = In.

Wie im Euklidischen Fall ist auch fur unitare Vektorraume das orthogonale Komplementeines Unterraums U ⊆ V komplementar zum Unterraum U , d.h. V = U ⊕U⊥, vgl. Proposi-tion 8.31(1). Ebenso sind im unitaren Kontext selbstadjungierte Endomorphismen diagona-lisierbar:

Satz 9.13. Sei (V, η) ein unitarer Vektorraum und f ∈ Hom(V, V ) selbstadjungiert. Dannbesitzt V eine Orthonormalbasis aus Eigenvektoren von f .

Beweis. Analog zum Beweis von Satz 8.36 im Euklidischen Fall.

Das Analogon von orthogonalen Matrizen im Euklidischen Fall sind die unitaren Matri-zen:

Definition 9.14. Eine Matrix U ∈ Mat(n, n;C) nennt man unitar, falls gilt U∗ · U = In.Die Menge

Un(C) := {U ∈ Mat(n, n;C) |U∗ · U = In} ⊂ GLn(C)

der unitaren Matrizen ist eine Untergruppe von GLn(C). Man nennt sie die unitare Gruppe.

Genau wie im euklidischen Fall sind unitare Matrizen Matrixdarstellungen von Basiswech-seln, die orthonormale Basen in orthonormale Basen uberfuhren, und fur jede hermitescheMatrix H ∈ Mat(n, n;C) gibt es eine unitare Matrix P ∈ Un(C), sodass P−1 ·H ·P diagonalist, vgl. Korollar 8.39.

9.4 Normale Endomorphismen

Zuletzt werden wir ein einfaches Kriterium fur die Diagonalisierbarkeit von Endomorphismenunitarer Vektorraume diskutieren. In diesem Kapitel bezeichnet (V, η) stets einen unitarenVektorraum.

Definition 9.15. Ein Endomorphismus f ∈ Hom(V, V ) eines unitaren Vektorraums heißtnormal, falls er mit seinem adjungierten vertauscht, d.h.

f ◦ f ad = f ad ◦ f .

Entsprechend heißt eine komplexe Matrix F ∈ Mat(n, n;C) normal, falls sie mit ihremhermitesch transponierten vertauscht:

F · F ∗ = F ∗ · F .

Page 113: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

9 Unitare Vektorraume 113

Bemerkung 9.16. Da die hermitesche Form η positiv definit ist, ist sie insbesondere nichtausgeartet. Genau wie im reellen Fall, gibt es daher zu jedem Endomorphismus f einesunitaren Vektorraums genau einen adjungierten Endomorphismus f ad, vgl. Satz 8.14.Betrachtet man den unitaren Vektorraum Mat(n, 1;C) mit dem Standard-Skalarprodukt (·, ·)(siehe Beispiel 9.6), so ist der adjungierte des Endomorphismus f = F · : Mat(n, 1;C) →Mat(n, 1;C), der Spaltenvektoren mit der Matrix F ∈ Mat(n, n;C) multipliziert gerade dieMatrixmultiplikation mit der hermitesch transponierten Matrix f ad = F ∗·.Beispiel 9.17.

(1) Selbstadjungierte Endomorphismen f ∈ Hom(V, V ) (d.h. f ad = f) sind normal.(2) Analog zu Definition 9.14 nennt man einen Endomorphismus f ∈ Hom(V, V ) unitar,

falls gilt f ad = f−1. Unitare Endomorphismen sind normal.

Proposition 9.18. Sei f ∈ Hom(V, V ) normal. Dann gilt

ker(f) = ker(f ad) .

Beweis. Da η nicht ausgeartet ist, ist v ∈ ker(f) genau dann wenn η(f(v), f(v)) = 0. Nungilt aber

0 = η(f(v), f(v)) = η(f ad ◦ f(v), v)f normal

= η(f ◦ f ad(v), v)η hermitesch

= η(v, f ◦ f ad(v)) = η(f ad(v), f ad(v))η hermitesch

= η(f ad(v), f ad(v)) ,

und daher ist v ∈ ker(f) genau dann wenn v ∈ ker(f ad).

Korollar 9.19. Sei f ∈ Hom(V, V ) normal und λ ∈ C. Dann gilt

Vλ(f) = Vλ(fad) .

Beweis. Da f normal ist, gilt dies auch fur den Endomorphismus g := f − λidV , wobeigad = f ad − λidV ist. Nach Proposition 9.18 folgt sofort

Vλ(f) = ker(f − λidV ) = ker(f ad − λidV ) = Vλ(fad) .

Satz 9.20. Sei f Endomorphismus eines unitaren Vektorraums (V, η). Dann sind die folgen-den Aussagen aquivalent:

(1) f ist normal.(2) f ist diagonalisierbar.

Beweis. “(2)⇒(1)” ist offensichtlich, denn sei {v1, . . . , vn} eine Basis von V bestehend ausEigenvektoren vi von f mit f(vi) = λi vi. Dann gilt wegen Korrolar 9.19 f ad(vi) = λi vi. Alsogilt fur alle Basisvektoren vi, 1 ≤ i ≤ n

f ◦ f ad(vi) = f(λi vi) = λi λi vi = f ad(λi vi) = f ad ◦ f(vi) .

Page 114: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

114

Da es auf einer Basis gilt, folgt also f ◦ f ad = f ad ◦ f .Beweise die Richtung “(1)⇒(2)” durch vollstandige Induktion nach dim(V ). Nehme an, dassdie Behauptung fur alle Vektorraume der Dimension < dim(V ) gilt. Bemerke zunachst, dasswegen der algebraischen Abgeschlossenheit von C das charakteristische Polynom von f inLinearfaktoren zerfallt, vgl. Bemerkung 7.13,

χf (t) =n∏i=1

(t− λi) , λi ∈ C .

Sei v1 ein Eigenvektor zum Eigenwert λ1. Ist n = 1, so ist die Behauptung gezeigt. Dies istdie Induktionsverankerung. Nehme nun n > 1 an und definiere

W := (C v1)⊥ .

Da η nicht ausgeartet ist, gilt V = C v1 ⊕W . Falls nun, f(W ) ⊆ W und f |W normal ist,gibt es nach der Induktionsannahme eine Basis von W aus Eigenvektoren von f , die danndurch Erganzung des Eigenvektors v1 zu einer Basis von V komplettiert wird. Dann ist alsof diagonalisierbar. Es verbleibt daher zu zeigen

f(W ) ⊆ W und f |W ist normal .

Sei dazu w ∈ W . Dann gilt

η(v1, f(w)) = η(f ad(v1), w) = η(λ1 v1, w) = λ1η(v1, w) = 0 .

Daher ist f(w) ⊥ v1 und damit f(w) ∈ W . Analog zeigt man f ad(W ) ⊆ W . Aus der Nor-malitat von f folgt dann sofort die Normalitat von f |W .

Korollar 9.21. (Matrix-Version) Eine Matrix A ∈ Mat(n, n;C) ist diagonalisierbar genaudann wenn A∗ · A = A · A∗.

10 Jordansche Normalform

Ziel dieses Kapitels ist es, eine Normalform fur Endomorphismen f : V → V von endlich-dimensionalen Vektorraumen zu finden. In Kapitel 7.4 hatten wir diskutiert, unter welchenUmstanden ein solcher Endomorphismus diagonalisierbar (siehe Definition 7.21) ist, d.h.wann es eine Basis B von V gibt, so dass die entsprechende Matrixdarstellung MatBB(f) vonf eine Diagonalmatrix ist. Das Resultat war Satz 7.25: f ist diagonalisierbar genau dannwenn das charakteristische Polynom χf in Linearfaktoren zerfallt, und außerdem die Mul-tiplizitaten µxi(f) seiner Nullstellen mit den Dimensionen dim(Vxi(f)) der entsprechendenEigenraume ubereinstimmt.

Im folgenden wird untersucht was passiert, wenn die letzte Bedingung nicht erfullt ist,d.h. wenn µxi(f) 6= dim(Vxi(f)). In diesem Fall ist der Endomorphismus nicht diagonali-sierbar, wie z.B. im Falle der Jordanblocke in Beispiel 7.20(2) diskutiert wurde. Wie wir

Page 115: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

10 Jordansche Normalform 115

sehen werden, ist dieses Beispiel generisch: man kann immer Basen von V finden, sodassdie entsprechende Matrixdarstellung von f in Jordanblocke zerfallt. Diese Matrixdarstellungwird die Jordansche Normalform genannt. Vorraussetzung dafur bleibt aber, dass dascharakteristische Polynom in Linearfaktoren zerfallt. Das ist insbesondere immer dann derFall, wenn der zugrundeliegende Korper algebraisch abgeschlossen (siehe Definition 7.11) ist,also z.B. im Falle K = C.

10.1 Nilpotente Endomorphismen

Definition 10.1. Ein Endomorphismus f eines Vektorraums V heißt nilpotent, falls esein k ∈ N gibt mit fk = 0. Analog nennt man eine quadratische Matrix A ∈ Mat(n, n;K)nilpotent, falls es ein k ∈ N gibt, sodass Ak = 0 gilt.

Bemerkung 10.2. Nilpotente Endomorphimsen f haben keine Eigenwerte ungleich 0.

Beweis. Denn hatte f einen Eigenwert λ 6= 0, so gabe es einen zugehorigen Eigenvektor0 6= v ∈ V mit f(v) = λ v, und daher fn(v) = λn v 6= 0 fur alle n ∈ N. Also kann f nichtnilpotent sein, .

Beispiel 10.3. Eine quadratische Matrix A ∈ Mat(n, n;K) nennt man eine strikte obereDreiecksmatrix, falls nur Matrixeintrage oberhalb der Diagonalen ungleich null sind, alsoaij = 0 fur alle i ≥ j. Solche Matrizen haben die Gestalt

A =

0 ∗ · · · ∗...

. . . . . ....

.... . . ∗

0 · · · · · · 0

,

wobei die Eintrage ‘∗’ beliebig sein konnen.Strikte obere Dreiecksmatrizen sind nilpotent: An = 0, denn es gilt offenbar

A · ei ∈ L({e1, . . . , ei−1}) ,

insbesondere Ae1 = 0. (Die ei bezeichnen die Standard-Basis des Mat(n, 1;K).) Also Aiei = 0fur alle 1 ≤ i ≤ n und daher also Anei = 0 fur alle 1 ≤ i ≤ n. Es folgt An = 0.

Definition 10.4. Definiere fur k ∈ N die Jordanmatrizen

Jk :=

0 1 0

. . . . . .. . . 1

0 0

∈ Mat(k, k;K) .

Beachte, dass J1 = (0) ∈ Mat(1, 1;K).

Page 116: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

116 10.1 Nilpotente Endomorphismen

Bemerkung 10.5. Die Jordanmatrizen sind offenbar nilpotent mit Jkk = 0. In der Tat gibt esfur jeden nilpotenten Endomorphismus f : V → V eines endlich-dimensionalen Vektorraumseine Basis von V , sodass die Matrixdarstellung von f in Jordan-Matrizen zerfallt ...

Satz 10.6. Sei f : V → V nilpotenter Endomorphismus eines endlich-dimensionalen Vek-torraums V , und d := min{k ∈ N | fk = 0}, dann gibt es eindeutige k1, . . . , kd ∈ N0 mit

k1 + 2 k2 + 3 k3 + . . .+ d kd = dim(V ) ,

und eine Basis B von V , sodass

MatBB(f) =

Jd. . .

Jd 0Jd−1

. . .

Jd−1

. . .

0 J1

. . .

J1

kd-mal kd−1-mal

... k1-mal

(10.1)

Dies ist insbesondere eine obere Dreiecksmatrix.

Beweis. Spalte sukzessive die zu Jk-Blocken gehorende Unterraume von V ab. Sei n :=dim(V ). Da d = min{k ∈ N | fk = 0} gilt fd−1 6= 0. Also gibt es ein vd ∈ V mit fd−1(vd) 6= 0.Definiere vd−1 := f(vd), vd−2 := f 2(vd), . . . , v1 := fd−1(vd). Zeige zunachst, dass {v1, . . . , vd}linear unabhangig sind: sei dazu v =

∑di=1 λi vi, wobei λi ∈ K nicht alle 0 sind. Sei k die

großte Zahl mit λk 6= 0. Dann gilt fk−1(v) =∑d

i=1 λi fk−1(vi) = λk v1 6= 0, und daher auch

v 6= 0. Damit ist die lineare Unabhangigkeit gezeigt. Also sind die {v1, . . . , vd} eine Basis desvon ihnen erzeugten Unterraums U := L({v1, . . . , vd}) ⊆ V . Nach Konstruktion ist dieserinvariant unter f . Als nachstes konstruieren wir einen anderen invarianten Unterraum W ⊆V , der komplementar zu U ist, d.h. V = U ⊕W , mit f(W ) ⊆ W . Dazu erganze {v1, . . . , vd}durch {w1, . . . , wn−d} zu einer Basis von ganz V , und definiere das lineare Funktional ϕ :V → K durch

ϕ

(d∑i=1

λi vi +n−d∑j=1

ρj wj

)= λ1 .

Mit Hilfe dieses Funktionals definiere die lineare Abbildung π : V → V

π(x) :=d∑j=1

ϕ(f j−1(x)

)vj .

Page 117: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

10 Jordansche Normalform 117

Fur diese gilt

π(vi) =d∑j=1

ϕ(f j−1(vi)

)vj =

i∑j=1

ϕ (v1+i−j) vj = vi .

Eingeschrankt auf U operiert π also wie die Identitat, π|U = idU , und das Bild im(π) ist U .Ferner vertauscht π mit f , π ◦ f = f ◦ π, denn fur alle v ∈ V gilt

π(f(v)) =d∑j=1

ϕ(f j(v)

)vj =

d−1∑j=1

ϕ(f j(v)

)vj =

d−1∑j=1

ϕ(f j(v)

)f(vj+1)

=d∑j=2

ϕ(f j−1(v)

)f(vj) =

d∑j=1

ϕ(f j−1(v)

)f(vj) = f(π(v)) .

Daraus folgt sofort, dass sowohl das Bild im(π) = U , als auch der Kern ker(π) =: Winvariante Unterraume sind. Da π|U = idU , gilt offenbar im(π) ∩ ker(π) = {0}, und dahernach Satz 4.43 V = im(π) ⊕ ker(π) = U ⊕W . Damit haben wir V in zwei komplementaref -invariante Unterraume zerlegt: V = U ⊕W . Die Matrixdarstellung von f auf U bzgl. deroben gewahlten Basis B = (v1, . . . , vd) ist aber gerade die Jordanmatrix

MatBB(f |U) = Jd .

Nun wiederholt man obige Konstruktion fur die Einschrankung f |W auf den komplementarenVektorraum W und erhalt damit sukzessive eine Matrixdarstellung der Form (10.1). Esverbleibt die Eindeutigkeit der ki zu zeigen. Die folgt aber leicht aus dem Umstand, dasssich die zu einer Matrixdarstellung (10.1) gehorenden ki mit Hilfe der Dimensionen der Kerneder Abbildungen f j ausdrucken lassen:

dim(ker(f)) = k1 + k2 + k3 + . . . + kddim(ker(f 2)) = k1 + 2k2 + 2k3 + . . . + 2kddim(ker(f 3)) = k1 + 2k2 + 3k3 + . . . + 3kd

...dim(ker(fd)) = k1 + 2k2 + 3k3 + . . . + dkd

bzw.

ki = 2 dim(ker(f i))− dim(ker(f i−1))− dim(ker(f i+1)) . (10.2)

Beispiel 10.7. Betrachte die Matrix

A =

2 −1 11 −2 0−3 6 0

∈ Mat(3, 3;Q) .

Page 118: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

118 10.2 Hauptraumzerlegung

Man rechnet leicht nach, dass A3 = 0 gilt. A ist also nilpotent. Um eine Basis zu finden, inder A die Blockgestalt (10.1) berechnet man zuachst

A2 =

0 6 20 3 10 −9 −3

Fur v3 = e3 gilt also A2 · v3 6= 0. Wahle nun v2 = A · v3 = e1 und

v1 = A · v2 = A · e1 =

21−3

.

Wie im Beweis von Satz 10.6 diskutiert, mussen v1, v2, v3 linear unabhangig sein, also istB = (v1, v2, v3) eine geordnete Basis von Mat(3, 1;Q) fur die nach Konstruktion gilt

MatBB(A·) =

0 1 00 0 10 0 0

.

In der Tat ist die entsprechende Basiswechsel-Matrix gegeben durch

T =

2 1 01 0 0−3 0 1

∈ GL3(Q) , mit T−1 =

0 1 01 −2 00 3 1

.

Man rechnet nun leicht nach

T−1 · A · T =

0 1 01 −2 00 3 1

· 2 −1 1

1 −2 0−3 6 0

· 2 0 0

1 1 0−3 0 1

=

0 1 00 0 10 0 0

.

10.2 Hauptraumzerlegung

Als nachstes werden wir eine Verallgemeinerung des Eigenraum-Begriffs einfuhren:

Definition 10.8. Sei V ein Vektorraum uber einem Korper K und f ∈ Hom(V, V ) einEndomorphismus. Definiere den verallgemeinerten Eigenraum, bzw. Hauptraum vonf zu λ ∈ K :

Vλ(f) := {v ∈ V | ∃n ∈ N : (f − λidV )n(v) = 0} .Die von 0 verschiedenen Elemente von Vλ(f) nennen wir verallgemeinerte Eigenvektorenbzw. Hauptvektoren von f zum Eigenwert λ.

Bemerkung 10.9. Offenbar sind die Hauptraume Vλ(f) ⊆ V Untervektorraume, und sie

enthalten die entsprechenden Eigenraume: Vλ(f) ⊆ Vλ(f). In der Tat gilt sogar

Vλ(f) 6= {0} ⇔ Vλ(f) 6= {0} ,d.h. λ ist Eigenwert von f genau dann, wenn der entsprechende Hauptraum Vλ(f) nicht derNullraum ist.

Page 119: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

10 Jordansche Normalform 119

Beweis. Da die Eigenraume offensichtlich in den entsprechenden Hauptraumen enthal-ten sind, Vλ(f) ⊆ Vλ(f), muss nur noch die Richtung “⇐” gezeigt werden. Falls es ein

0 6= v ∈ Vλ(f) gibt, so gibt es ein n ∈ N mit (f − λidV )n(v) = 0. Sei n ∈ N die kleinsteZahl, fur die dies gilt. Dann ist (f − λidV )n−1(v) ∈ Vλ(f) \ {0} ein Eigenvektor.

Bemerkung 10.10. Hauptraume Vλ(f) sind f -invariant, und falls dλ(f) := dim(Vλ(f)) <∞, so ist f |Vλ(f) − λidVλ(f) nilpotent.

Beweis. Sei v ∈ Vλ(f). Dann gibt es ein n ∈ N mit (f −λidV )n(v) = 0. Dann gilt aber auch

(f − λidV )n(f(v)) = (f − λidV )n ◦ f(v) = f ◦ (f − λidV )n(v) = f((f − λidV )n(v)) = 0 ,

also ist f(v) ∈ Vλ(f). Das zeigt die f -Invarianz von Vλ(f).

Nehme nun an, dass der Hauptraum Vλ(f) endlich-dimensional ist und wahle eine Basis{v1, . . . , vdλ(f)}. Fur jedes 1 ≤ i ≤ dλ(f) gibt es ein ni ∈ N mit (f −λidV )ni(vi) = 0. Fur dasMaximum n := max{n1, . . . , ndλ(f)} gilt dann (f − λidV )n|Vλ(f) = 0.

Lemma 10.11. Sei f : V → V Endomorphismus eines K-Vektorraums V , λ ∈ K unddλ(f) = dim(Vλ(f)) <∞. Dann gilt

Vλ(f) = ker(f − λidV )m fur jedes m ≥ dλ(f) .

Beweis. Fur j ∈ N0 sei Uj := ker(f − λidV )j. Offenbar gilt Ui ⊆ Ui+1 fur alle i ∈ N, alsohat man eine Folge von Inklusionen

{0} = U0 ⊆ U1 ⊆ U2 ⊆ . . . .

Nach Definition gilt aber

Vλ(f) =∑j∈N

Uj .

Da dim(Vλ(f)) = dλ(f) < ∞ konnen hochstens dλ(f) < ∞ der Inklusionen echt sein, d.h.

es gibt ein n ∈ N mit Ui = Un fur alle i ≥ n, und also Vλ(f) = Ui fur i ≥ n. Außerdem folgtaus Uk = Uk+1 sofort Ui = Uk fur alle i ≥ k, und daher n ≤ dλ(f). Damit ist die Behauptunggezeigt.

Lemma 10.12. Sei f ∈ Hom(V, V ) Endomorphismus eines endlich-dimensionalen Vek-torraums V der Dimension n. Dann ist fur λ ∈ K das Bild W := im(f − λidV )n ⊆ V

ein f -invarianter Unterraum von V , der komplementar ist zum Hauptraum Vλ(f), d.h.

V = Vλ(f)⊕W mit f(W ) ⊆ W .

Page 120: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

120 10.2 Hauptraumzerlegung

Beweis. Da die Abbildungen f und f − λidV kommutieren ist W f -invariant. Nach Lem-ma 10.11 gilt weiterhin U := Vλ(f) = ker(f − λidV )n. Aus Satz 4.43 folgt daher dim(W ) +dim(U) = dim(V ). Behaupte nun, dass U ∩W = {0} gilt. Mit der Dimensionsformel folgtdann sofort V = U ⊕W , womit das Lemma bewiesen ware. Es verbleibt, die Behauptungzu zeigen: sei dazu v ∈ U ∩W . Dann folgt einerseits aus v ∈ W , dass es ein w ∈ V gibt mitv = (f−λidV )n(w). Andererseits ist v ∈ U , und damit (f−λidV )n(v) = (f−λidV )2n(w) = 0.

Also ist w ∈ Vλ(f). Wegen Lemma 10.11 ist dann aber schon (f −λidV )n(w) = 0, und damitv = 0. Also ist U ∩W = {0}.

Satz 10.13. (Hauptraumzerlegung) Sei f ∈ Hom(V, V ) Endomorphismus eines endlich-dimensionalen K-Vektorraums V , dessen charakteristisches Polynom in Linearfaktoren zer-fallt:

χf (t) =r∏i=1

(t− λi)di ,

wobei die λi paarweise verschieden und die di ∈ N sind. Dann ist V die direkte Summe ausden entsprechenden Hauptraumen

V =r⊕i=1

Vλi(f) ,

wobei di = dim(Vλi(f)).

Beweis. Beweis durch induktives Abspalten der Hauptraume Vλi(f). Da λ1 eine Nullstel-

le des charakteristischen Polynoms χf von f ist, muss der Hauptraum Vλ1(f) grosser als{0} sein. Nach Lemma 10.12 hat man eine Aufspaltung V = U ⊕W in die f -invarianten

Unterraume U = Vλ1(f) und W = im(f − λ1idV )n, wobei n = dim(V ) ist. Da U und Wf -invariant sind, faktorisiert das charakteristische Polynom von f in ein Produkt

χf = χf |U · χf |W

der charakteristischen Polynome der Einschrankungen von f auf U bzw. W . Nun kann χf |Ukeine Nullstelle λi mit i > 1 haben, denn ansonsten gabe es einen Vektor 0 6= v ∈ U mitf(v) = λi v. Aber U = ker(f − λ1idV )n, also (f − λ1idV )n(v) = (λi − λ1)n v = 0. Dies istein Widerspruch, denn λi 6= λ1. Andererseits kann λ1 nicht Nullstelle von χf |W sein, dennsonst gabe es einen Eigenvektor zum Eigenwert λ1 in W . Aber Vλ1(f) ist Unterraum vonU und U ∩ W = {0}, . Wegen der Eindeutigkeit der Linearfaktorzerlegung folgt damit

χf |U (t) = (t−λ1)d1 , also insbesondere d1 = dim(Vλ1(f)), und χf |W (t) =∏r

i=2(t−λi)di . Wen-de dieses Verfahren nun auf f |W ∈ Hom(W,W ) an und erhalte so sukzessive die gewunschtedirekte Summenzerlegung.

Bemerkung 10.14.

Page 121: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

10 Jordansche Normalform 121

(1) Uber algebraisch abgeschlossenen Korpern K (siehe Definition 7.11) zerfallt nach Be-merkung 7.13 jedes Polynom in Linearfaktoren. Damit besitzt nach Satz 10.13 jederEndomorphismus endlich-dimensionaler Vektorraume uber algebraisch abgeschlossenenKorpern K eine Hauptraumzerlegung.

(2) Sei f ∈ Hom(V, V ) Endomorphismus eines endlich-dimensionalen Vektorraums uber ei-nem beliebigen KorperK. Nach Bemerkung 10.10 ist die Einschrankung (f−λidV )|Vλ(f)

auf den entsprechenden Hauptraum Vλ(f) nilpotent. Es gibt also nach Satz 10.6 eineBasis des Hauptraums, sodass die entsprechende Matrixdarstellung von (f−λidV )|Vλ(f)

eine obere Dreiecksmatrix ist. Daraus folgt

χf |Vλ(f)

(t− λ) = χ(f−λidV )|Vλ(f)

(t) = tdλ(f) ,

mit dλ(f) = dim(Vλ(f)), vgl. Beispiel 7.20(1). Besitzt f also eine Hauptraumzerlegung,so zerfallt das charakteristische Polynom von f in Linearfaktoren. Linearfaktorisierungdes charakteristischen Polynoms und Hauptraumzerlegung sind daher aquivalent.

(3) Daraus folgt auch, dass ein Endomorphismus f ∈ Hom(V, V ) eines endlich-dimensionalenVektorraums V genau dann diagonalisierbar ist, wenn sein charakteristisches Polynomin Linearfaktoren zerfallt, und die Hauptraume genau den jeweiligen Eigenraumen ent-sprechen, wenn also die Multiplizitaten der Nullstellen des charakteristischen Polynomsmit den Dimensionen der entsprechenden Eigenraume ubereinstimmt. Wir finden alsoSatz 7.25 wieder.

10.3 Jordansche Normalform

Definition 10.15.(1) Sei λ ∈ K und k ∈ N. Dann nennt man die Matrix

Jk(λ) := λIk + Jk =

λ 1 0

. . . . . .. . . 1

0 λ

∈ Mat(k, k;K)

einen Jordanblock der Große k.(2) Eine Matrix A ∈ Mat(n, n;K) hat Jordansche Normalform, falls es ein s ∈ N,

k1, . . . , ks ∈ N und λ1, . . . , λs ∈ K gibt, sodass

A =

Jk1(λ1) 0

Jk2(λ2). . .

0 Jks(λs)

, (10.3)

falls also A eine Blockdiagonalmatrix ist mit Jordanblocken auf der Diagonalen.

Page 122: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

122 10.3 Jordansche Normalform

Satz 10.16. (Jordansche Normalform) Sei f ∈ Hom(V, V ) Endomorphismus eines endlich-dimensionalen Vektorraums V . Dann gibt es genau dann eine Basis B von V , sodass MatBB(f)Jordansche Normalform hat, wenn das charakteristische Polynom von f in Linearfaktorenzerfallt: χf (t) =

∏ri=1(t− λi)di . Dabei sind die auftauchenden Jordanblocke eindeutig durch

f bestimmt (nicht aber deren Reihenfolge).

Beweis. Das folgt aus der Hauptraumzerlegung Satz 10.13 zusammen mit Satz 10.6 uberdie Normalform von nilpotenten Endomorphismen.Falls es eine Basis gibt, sodass A = MatBB(f) Jordansche Normalform wie in (10.3) besitzt,so ist A eine obere Dreiecksmatrix, deren charakteristisches Polynom wie in Beispiel 7.20(1)leicht berechnet werden kann:

χf (t) = χA(t) =s∏i=1

(t− λi)ki .

χf zerfallt also in Linearfaktoren.Falls andererseits χf (t) =

∏ri=1(t−λi)di in Linearfaktoren zerfallt (wobei die λi hier paarweise

verschieden sind), so hat V nach Satz 10.13 eine Hauptraumzerlegung

V =r⊕i=1

Vλi(f) .

Nach Bemerkung 10.10 ist f |Vλi (f) − λiidVλi (f) nilpotent. Daher gibt es nach Satz 10.6 also

eine Basis Bi von Vλi(f), sodass MatBi Bi(f |Vλi (f)) Jordansche Normalform hat. Dabei ist die

Anzahl und Große der Jordanblocke festgelegt. Die Anordnung der Blocke hangt von derWahl der Basis ab. Wegen der Hauptraumzerlegung (Satz 10.13) und dem Umstand, dassdie Hauptraume f -invariant sind (Bemerkung 10.10) folgt die Behauptung fur die ganze Ab-bildung f : V → V .

Bemerkung 10.17. Sei f ∈ Hom(V, V ) Endomorphismus eines endlich-dimensionalen Vek-torraums V , dessen charakteristisches Polynom in Linearfaktoren zerfallt. Dann kann manaus dem charakteristischen Polynom die Dimensionen der Hauptraume ablesen. Letztereentsprechen gerade der Vielfachheit der entsprechenden Nullstellen des charakteristischenPolynoms:

dim(Vλ(f)) = µλ(χf ) .

Das sagt einem aber noch nichts uber die Anzahl und Große der auftauchenden Jordanblockeaus. Um diese zu bestimmen, muss man (z.B. wie im Beweis von Satz 10.6) die Wirkung vonf auf den Hauptraumen genauer studieren. Z.B. entspricht die Dimension des Eigenraumsdim(Vλ(f)) gerade der Anzahl der Jordanblocke zum Eigenwert λ. Allgemein kann man dieGroße der auftretenden Jordanblocke zu einem gegebenen Eigenwert λ mit Hilfe von Formel(10.2) bestimmen. Die Anzahl ki der Blocke der Große i ist gegeben durch

ki = 2 dim(ker(f |Vλ(f) − λidVλ(f))i)− dim(ker(f |Vλ(f) − λidVλ(f))

i−1)

− dim(ker(f |Vλ(f) − λidVλ(f))i+1) .

Page 123: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

10 Jordansche Normalform 123

Beispiel 10.18. Betrachte die Matrix

A =

0 2 2 00 2 0 −1−2 2 4 1−1 1 1 2

∈ Mat(4, 4;Q) .

Das charakteristische Polynom von A berechnet sich zu

χA(t) = det(tI4 − A) = (t− 2)4 .

Es zerfallt in Linearfaktoren. A kann also in Jordansche Normalform gebracht werden. Daes nur einen einzigen Eigenwert, λ = 2 gibt, gibt es auch nur einen Hauptraum, also V :=Mat(4, 1;Q) = V2(A). (Anderenfalls wurde man die folgende Analyse fur jeden Hauptraumeinzeln ausfuhren.) Zunachst bestimmen wir die Großen der auftretenden Jordanblocke. Dazubetrachten wir die Matrix

B := A− 2I4 =

−2 2 2 00 0 0 −1−2 2 2 1−1 1 1 0

.

Man rechnet leicht nach

B2 =

0 0 0 01 −1 −1 0−1 1 1 00 0 0 0

, und B3 = 0 .

Nun bestimmt man die Kerne

U1 = ker(B) = L

1100

,

01−10

,

U2 = ker(B2) = L

1100

,

01−10

,

0001

,

U3 = ker(B3) = Mat(4, 1;Q) .

Gemaß Formel (10.2) erhalt man fur die Anzahl ki der Jordanblocke der Große i

k1 = 2 dim(ker(B))− dim(ker(B2)) = 4− 3 = 1

k2 = 2 dim(ker(B2))− dim(ker(B))− dim(ker(B3)) = 6− 2− 4 = 0

k3 = 2 dim(ker(B3))− dim(ker(B2))− dim(ker(B4)) = 8− 3− 4 = 1

k4 = 2 dim(ker(B4))− dim(ker(B3))− dim(ker(B5)) = 8− 4− 4 = 0

Page 124: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

124 10.3 Jordansche Normalform

Es kommen also jeweils ein Jordanblock der Großen 1 und 3 vor. D.h. es gibt eine Basis-wechselmatrix T ∈ GL4(Q), sodass

T−1 · A · T =

2 0 0 00 2 1 00 0 2 10 0 0 2

=

J1(2) 0 0 0

00 J3(2)0

.

Diese bestimmt man wie im Beweis von Satz 10.6 (vgl. Beispiel 10.7). Starte beim großtenBlock, hier dem Dreierblock. Man wahlt zunachst ein v3, das nicht im Kern von B2 liegt,z.B.

v3 = e1 =

1000

und definiert

v2 := Bv3 =

−20−2−1

, und v1 := Bv2 =

01−10

.

(v1, v2, v3) ist eine Basis fur den Dreierblock. Als Basis fur den Einerblock wahlt man einv ∈ Mat(4, 1;Q), das im Kern von B liegt, aber nicht in der linearen Hulle von {v1, v2, v3}.Eine solche Wahl ist z.B.

v =

1100

.

In der Tat, fur die Basiswechselmatrix

T := (v, v1, v2, v3) =

1 0 −2 11 1 0 00 −1 −2 00 0 −1 0

,

die die Standard-Basis des Mat(n, 1;Q) auf die Basis (v, v1, v2, v3) abbildet rechnet manleicht nach

T−1 =

0 1 1 −20 0 −1 20 0 0 −11 −1 −1 0

Page 125: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

10 Jordansche Normalform 125

und

T−1 · A · T =

0 1 1 −20 0 −1 20 0 0 −11 −1 −1 0

·

0 2 2 00 2 0 −1−2 2 4 1−1 1 1 2

·

1 0 −2 11 1 0 00 −1 −2 00 0 −1 0

=

2 0 0 00 2 1 00 0 2 10 0 0 2

.

Bemerkung 10.19. In der Tat gibt es eine Verallgemeinerung der Jordanschen Normalform,die fur beliebige Endomorphismen endlich-dimensionaler Vektorraume gilt, nicht nur solchederen charakteristische Polynome in Linearfaktoren zerfallen. Diese Normalform hat abereinen etwas komplizierteren Aufbau und wird hier nicht diskutiert. Stattdessen schließen wirdieses Kapitel mit dem Satz von Cayley-Hamilton ab.

Satz 10.20. (Cayley-Hamilton) Jeder Endomorphismus f ∈ Hom(V, V ) eines endlich-dimensionalen Vektorraums V erfullt seine eigene charakteristische Gleichung, d.h.

χf (f) =

dim(V )∑i=0

aifi = 0 , wenn χf (t) =

dim(V )∑i=0

aiti .

Beweis. Dieser Satz gilt ganz allgemein. Der Einfachheit halber wird der Beweis hier nur furden Fall ausgefuhrt, dass f eine Jordansche Normalform hat, wenn also das charakteristischePolynom in Linearfaktoren zerallt:

χf (t) =r∏i=1

(t− λi)di .

Dabei sind di ∈ N und die λi ∈ K paarweise verschieden. Wegen der Hauptraumzerlegungund der f -Invarianz der Hauptraume genugt es zu zeigen, dass fur jeden Eigenwert λj gilt

χf (f)|Vλj (f) = 0 .

Dies folgt aber sofort, denn

χf (f) =r∏i=1

(f − λiidV )di ,

aber (f − λjidV )dj(Vλj) = 0, und daher

χf (f)(Vλj) =∏i 6=j

(f − λiidV )di ◦ (f − λjidV )dj(Vλj) = 0 .

Page 126: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

126

11 Quotientenkonstruktionen

In diesem Kapitel werden Quotientenkonstruktionen diskutiert insbesondere im Kontext vonGruppen und Vektorraumen. Grundlage fur diese Konstruktionen sind die in Kapitel 1.3eingefuhrten Aquivalenzrelationen.

11.1 Aquivalenzrelationen

In Definition 1.27 wurde der Begriff der Aquivalenzrelation auf Mengen eingefuhrt. Wie inKapitel 1.3 diskutiert, spaltet eine Aquivalenzrelation ∼ auf einer Menge M diese Menge indisjunkte Teilmengen, die Aquivalenzklassen, auf vgl. 1.28 auf:

M =⋃

[m]∈M/∼[m] .

Dabei ist M/∼ die Menge der (verschiedenen) Aquivalenzklassen. Sie wird die Quotienten-menge genannt. Die kanonsiche Abbildung, die jedem Element m der Menge die eindeutigeAquivalenzklasse [m] zuordnet, in der m liegt bezeichnen wir mit

π∼ : M → M/∼ .

m 7→ [m]

Auf diese Weise kann man mit Hilfe von Aquivalenzrelationen aus Mengen neue Mengen, dieQuotientenmengen konstruieren. Im folgenden soll dies auf Mengen mit zusatzlicher Strukturangewendet werden, insbesondere auf Gruppen und Vektorraume. Dabei ist das Ziel, dassauch die Quotientenmenge die zusatzliche Struktur besitzt. Dies ist im Allgemeinen nichtder Fall. Nur wenn die Aquivalenzrelation mit der Zusatzstruktur kompatible ist, ubertragtsich die zusatzliche Struktur auf die Quotientenmenge. Dies wird zunachst am Beispiel einesRings verdeutlicht.

Beispiel 11.1. Betrachten wir zunachst den Ring (Z,+, ·) der ganzen Zahlen und die inBeispiel 1.30 diskutierte Aquivalenzrelation

x ∼ y :⇔ (x− y) ist durch p teilbar

auf Z, wobei p ∈ N eine fest gewahlte naturliche Zahl ist. Wie wir gesehen hatten gibt es pAquivalenzklassen, die die Form haben

[n] = {n+ p z | z ∈ Z} .

Die Quotientenmenge ist gegeben durch

Z/∼= {[0], [1], . . . , [p− 1]} .

In der Tat hatten wir dann in Kapitel 3.1 gesehen, dass die Verknupfungen ‘+’ und ‘·’ auf ZVerknupfungen auf der Quotientenmenge Z/∼ induzieren, die auch die Quotientenmenge zueinem Ring machen, den ‘Restklassenring modulo-p’, den man auch mit Z/pZ bezeichnet.

Page 127: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

11 Quotientenkonstruktionen 127

Damit sich die Verknupfungen auf die Quotientenmenge ubertragen, mussen sie mit derAquivalenzrelation kompatibel sein. Genauer muss gelten

[n+m] = [n′ +m′][n ·m] = [n′ ·m′] fur alle n,m ∈ Z und alle n′ ∈ [n] , m′ ∈ [m] .

Denn nur dann sind[n]+[m] := [n+m] , [n]·[m] := [n ·m]

wohldefinierte Verknupfungen auf Z/∼. Dass (Z/∼, +, ·) die Ringaxiome erfullt folgt dannautomatisch aus den Ringaxiomen auf Z. Z.B. folgt die Assoziativitat von ‘·’ sofort aus derAssoziativitat von ‘·’: fur n,m, o ∈ Z gilt namlich

([n]·[m])·[o] = [n ·m]·[o] = [(n ·m) · o] = [n · (m · o)] = [n]·[m · o] = [n]·([m]·[o]) .

Die folgende Proposition formalisiert und verallgemeinert die Ubertragung von Ver-knupfungen von Mengen auf Quotientenmengen:

Proposition 11.2. Sei M 6= ∅ eine Menge und ∼ eine Aquivalenzrelation auf M . Sei fernerN 6= ∅ eine weitere nicht-leere Menge und f : M → N eine Abbildung. Dann gibt es genaudann einen Abbildung f : M/∼→ N mit f = f ◦ π∼, d.h. das Diagramm

Mf //

π∼ ""

N

M/∼f

<<

kommutiert, falls fur alle m ∼ n gilt f(m) = f(n) (d.h. aquivalente Elemente haben dasgleiche Bild unter f). In diesem Fall hat man f([m]) = f(n) fur jeden Reprasentantenn ∈ [m].

Beweis. Der Beweis ist trivial.

Bemerkung 11.3. Naturlich gibt es auch Quotientenmengen M/∼, die zusatzliche Struk-turen nicht auf so direkte Art und Weise von M erben. Ein Beispiel ist z.B. die Konstruktiondes Korpers der rationalen Zahlen Q. Betrachte dazu auf der Menge M = Z × Z \ {0} dieRelation ∼ definiert durch

(m,n) ∼ (x, y) :⇔ my = nx .

Man uberpruft leicht, dass dies eine Aquivalenzrelation ist. Man definiert dann Q als dieQuotientenmenge M/∼, und schreibt eine Aquivalenzklasse [(m,n)] als m

n. Auf M/∼ kann

man nun wie folgt Verknupfungen definieren:

[(m,n)] + [(x, y)] := [(my + nx, n y)] und [(m,n)] · [(x, y)] := [(mx, n y)]

fur m,n, x, y ∈ Z. Die Verknupfungen sind nicht direkt aus M geerbt. Man kann abertrotzdem leicht zeigen, dass (M/∼,+, ·) die Korperaxiome erfullt.

Page 128: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

128 11.2 Quotientengruppen

11.2 Quotientengruppen

Im folgenden betrachten wir spezielle Aquivalenzrelationen auf Gruppen.

Proposition 11.4. Sei (G, ·) eine Gruppe und H ⊆ G eine Untergruppe. Dann definieren(1) g ∼L h :⇔ h−1 · g ∈ H und(2) g ∼R h :⇔ g · h−1 ∈ H

Aquivalenzrelationen auf G.

Beweis. Betrachte nur ∼L, der Beweis fur ∼R geht analog. ∼L ist reflexiv, da fur alle g ∈ Ggilt g−1 · g = e, und e ∈ H fur alle Untergruppen H. Ferner folgt aus g ∼L h geradeh−1 · g ∈ H. Da H eine Untergruppe ist, folgt, dass auch (h−1 · g)−1 = g−1 ·h ∈ H ist. Daherh ∼L g. Also ist ∼L auch symmetrisch. Seien nun g ∼L h und h ∼L i fur g, h, i ∈ G. Dannsind h−1 · g und i−1 ·h beide Elemente von H. Da H Untergruppe ist, gilt das auch fur derenProdukt: (i−1 · h) · (h−1 · g) = i−1 · g ∈ H. Also g ∼L i. ∼L ist also auch transitiv, und damiteine Aquivalenzrelation.

Proposition 11.5. Sei (G, ·) eine Gruppe mit Untergruppe H ⊆ G. Die Aquivalenzklassen[g]L fur g ∈ G bzgl. der Aquivalenzrelation ∼L sind gegeben durch

[g]L = g ·H = {g · h |h ∈ H} .Man nennt sie die Linksnebenklassen von H in G.

Analog gilt fur die Aquivalenzklassen [g]R fur g ∈ G bzgl. der Aquivalenzrelation ∼R[g]R = H · g = {h · g |h ∈ H} .

Man nennt sie die Rechtsnebenklassen von H in G.

Beweis. Behandle wieder ∼L. Das Argument fur ∼R ist analog. Es gilt

g′ ∈ [g]L ⇔ g−1 · g′ ∈ H ⇔ ∃h ∈ H mit g−1 · g′ = h

⇔ ∃h ∈ H mit g′ = g · h ⇔ g′ ∈ g ·H .

Definition 11.6. Sei (G, ·) eine Gruppe, und H eine Untergruppe. Die Quotientemengebzgl. der Aquivalenzrelationen ∼L und ∼R bezeichnet man mit

G/∼L=: G/H bzw. G/∼R=: H\G .Beispiel 11.7.

(1) Betrachte die abelsche Gruppe G = (Z,+). Wie wir in Satz 2.9 gesehen haben sindalle Untergruppen von G von der Form H = pZ fur ein p ∈ N0. Die Nebenklassen sindgegeben durch

[n] = n+ pZ = {n+ p z | z ∈ Z} ,und fur p 6= 0 gilt G/H = Z/pZ = {[0], . . . , [p − 1]}. (Fur p = 0 ist H = {0} undG/H = G = Z.)

Page 129: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

11 Quotientenkonstruktionen 129

(2) Betrachte die symmetrische Gruppe G = S3. (Fur Notationen etc. siehe Kapitel 2.3.)Sei

g =

(1 2 32 3 1

).

Dann gilt

g2 =

(1 2 33 1 2

)und g3 =

(1 2 31 2 3

)= e .

Also ist H = {e, g, g2} ⊆ G eine Untergruppe. Es gibt nun zwei Linksnebenklassen

[e]L = H und [(1 2)]L = (1 2) ·H = {(1 2), (1 3), (2 3)} .

(3) Ein anderes Beispiel einer Untergruppe von G = S3 ist H = {e, (1 2)}. In diesem Fallgibt es drei Linksnebenklassen

[e]L = H , [(1 3)]L = (1 3) ·H =

{(1 3), (1 3) · (1 2) =

(1 2 32 3 1

)}und [(2 3)]L = (2 3) ·H =

{(2 3), (2 3) · (1 2) =

(1 2 33 1 2

)}.

Die Frage, die wir uns nun stellen ist, unter welchen Bedingungen G/H bzw. H\G dieGruppenstruktur von G erben. Um dies zu formulieren, benotigen wir die folgenden Begriffe.

Bemerkung 11.8.(1) Die Abbildung

Cg : G → G

h 7→ g · h · g−1

wird Konjugation mit g genannt. Sie ist bijektiv, und hat die UmkehrabbildungC−1g = Cg−1 .

(2) In der Tat ist Cg ein Gruppenhomomorphismus, denn

Cg(h) · Cg(h′) = g · h · g−1 · g · h′ · g−1 = g · h · h′ · g−1 = Cg(h · h′) .

(3) Daruberhinaus ist auch die Abbildung g 7→ Cg, die g ∈ G auf den Gruppenhomomor-phismus Cg abbildet ein Gruppenhomomorphismus von G in die Gruppe der Gruppen-homomorphismen von G, denn

Cg1 ◦Cg2(h) = Cg1(g2 ·h · g−12 ) = g1 · g2 ·h · g−1

2 · g−11 = (g1 · g2) ·h · (g1 · g2)−1 = Cg1·g2(h).

(4) Sei G eine Gruppe und H ⊆ G eine Untergruppe. Dann ist fur alle g ∈ G auch

g ·H · g−1 = {g · h · g−1 |h ∈ H} ⊆ G

eine Untergruppe. Man nennt sie zu H konjugierte Untergruppe. Sie ist vermoge desGruppenhomomorphismus Cg−1|gHg−1 isomorph zu H.

Page 130: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

130 11.2 Quotientengruppen

Definition 11.9. Sei G eine Gruppe. Eine Untergruppe H ⊆ G von G heißt normaleUntergruppe oder auch Normalteiler von G, falls fur alle g ∈ G gilt

g ·H · g−1 = {g · h · g−1 |h ∈ H} = H .

In diesem Fall schreiben wir H EG, bzw. H CG, falls H ⊂ G eine echte Untergruppe ist.

Proposition 11.10. Eine Untergruppe H ⊆ G einer Gruppe G ist normale Untergruppegenau dann, wenn die entsprechenden Links- und Rechtsnebenklassen ubereinstimmen:

[g]L = [g]R ∀ g ∈ G .

Wir bezeichnen die Nebenklassen dann mit [g] und die Aquivalenzrelation mit ∼=∼L=∼R.

Beweis. Multiplikation mit Gruppenelementen (von links und von rechts) sind Bijektionender Gruppe. Also gilt fur alle g ∈ G

[g]R = [g]L ⇔ H · g = g ·H ⇔ H = g ·H · g−1 .

Bemerkung 11.11.

(1) Jede Untergruppe einer abelschen Gruppe ist normal.(2) Sei ϕ : G→ H ein Gruppenhomomorphismus. Dann ist

ker(ϕ) = {g ∈ G |ϕ(g) = eH}

eine normale Untergruppe von G.(3) Betrachte die Untergruppen N ⊆ H ⊆ G. Dann folgt aus NEG auch NEH. (Vorsicht:

im Allgemeinen folgt aber aus N EH EG nicht N EG.)

Beweis. (1) ist offensichtlich.(2) Wie in Kapitel 2.2 gesehen ist ker(ϕ) ⊆ G eine Untergruppe. Sei g ∈ G und h ∈ ker(ϕ).Dann gilt ϕ(g ·h · g−1) = ϕ(g) ·ϕ(h) ·ϕ(g−1) = ϕ(g) ·ϕ(g−1) = e. Also ist g ·h · g−1 ∈ ker(ϕ).Daher ist g ker(ϕ)g−1 ⊆ ker(ϕ) fur alle g. Da Multiplikation mit g ∈ G (von links und rechts)Bijektionen von G sind, folgt daraus sofort, dass ker(ϕ) ⊆ g−1 ·ker(ϕ) · g fur alle g ∈ G. Alsog · ker(ϕ) · g−1 = ker(ϕ).(3) ist offensichtlich, denn falls g · N · g−1 = N fur alle g ∈ G ist, so gilt dies insbesonderefur alle g ∈ H ⊆ G.

Beispiel 11.12.

(1) Da (Z,+) abelsch, sind fur alle p ∈ N0 die Untergruppen pZE Z normal.

Page 131: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

11 Quotientenkonstruktionen 131

(2) Auch die Untergruppe

H =

{e, g =

(1 2 32 3 1

), g2 =

(1 2 33 1 2

)}⊂ S3

aus Beispiel 11.7(2) ist eine normale Untergruppe, denn sie ist gerade der Kern

H = ker(sign)

des Gruppenhomomorphismus sign : S3 → {±1}, vgl. Satz 2.17. (Dass H bzgl. allerh ∈ S3 selbstadjungiert ist, kann man naturlich auch explizit nachprufen.)

(3) Auf der anderen Seite ist die Untergruppe

H = {e, (1 2)} ⊂ S3

aus Beispiel 11.7(2) keine normale Untergruppe, denn z.B. fur g = (1 3) gilt

g ·H · g−1 = {e, (1 3) · (1 2) · (1 3) = (2 3)} 6= H .

Satz 11.13. Sei H EG eine normale Untergruppe der Gruppe G. Dann definiert

· : G/H ×G/H → G/H

([g], [h]) 7→ [g]·[h] := [g · h] = [g] · [h] = {g′ · h′ | g′ ∈ [g] , h′ ∈ [h]}

eine Verknupfung auf G/H. (G/H, ·) ist eine Gruppe, die Quotientengruppe. Die Quoti-entenabbildung

π∼ : G → G/H

g 7→ [g]

ist ein Gruppenhomomorphismus mit ker(π∼) = H.

Beweis. Die Verknupfung auf G/H ist wohldefiniert, denn seien g, g′, h, h′ ∈ G mit g′ ∼ gund h′ ∼ h. Dann gilt g′ = g · a und h′ = g · b fur a, b ∈ H. Damit

[g′ · h′] = [g · a · h · b] = [g · h · (h−1 · a · h · b)] .

Da H normale Untergruppe von G ist, gilt h−1 ·a ·h ∈ H, und damit auch (h−1 ·a ·h ·b) ∈ H.Also [g′ · h′] = [g · h]. Die Verknupfung · ist daher wohldefiniert. In der Tat kann man dieVerknupfung ‘·’ auch als Produkt der Aquivalenzklassen auffassen:

[g]·[h] = [g · h] = {g · h · a | a ∈ H} = {g · (h · b · h−1)︸ ︷︷ ︸=Ch(b)

·h · a | a, b ∈ H}

= {g · b · h · a | a, b ∈ H} = [g] · [h] .

Dabei wurde verwendet, dass fur normale Untergruppen H ⊆ G gilt Ch(H) = H fur alle h ∈G. Die Gruppenaxiomen fur (G/H, ·) pruft man leicht nach: Assoziativitat der Verknupfung

Page 132: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

132 11.2 Quotientengruppen

‘·’ folgt sofort aus der Assoziativitat der Verknupfung ‘·’ auf G. Das neutrale Element inG/H ist gerade eG/H = [e], und das Inverse zu [g] ∈ G/H ist gegeben durch [g]−1 = [g−1].π∼ ist nach Definition von ‘·’ ein Gruppenhomomorphismus. Desweiteren gilt

ker(π∼) = {g ∈ G | [g] = [e]} = {g ∈ G | g ∈ H} = H .

Beispiel 11.14.(1) Sei G = (Z,+) und H = pZ fur ein p ∈ N. Dann ist G/H = Z/pZ = Zp.(2) Sei G = S3 und H = {e, g, g2} die Untergruppe aus Beispiel 11.7(2). Diese ist nach

Beispiel 11.12(2) eine normale Untergruppe. Es gilt G/H = {[e], [(1 2)]} mit [(1 2)]2 =[(1 2)2] = [e]. Also G/H ∼= Z2.

Satz 11.15. Sei ϕ : G→ H ein Gruppenhomomorphismus. Da ker(ϕ)EG normale Unter-gruppe ist, ist G/ ker(ϕ) eine Gruppe. Außerdem ist das Bild ϕ(G) ⊆ H eine Untergruppevon H (vgl. Proposition 2.12). Die Vorschrift

[g] 7→ ϕ(g)

definiert einen Gruppenisomorphismus ϕ : G/ ker(ϕ)→ ϕ(G).

Beweis. Zunachsteinmal haben alle Elemente einer Nebenklasse das gleiche Bild unter derAbbildung ϕ, denn falls g ∼ h, so gibt es ein a ∈ ker(ϕ) mit g = h · a. Damit folgtϕ(g) = ϕ(h · a) = ϕ(h) · ϕ(a) = ϕ(h). Also ist die Abbildung ϕ wohldefiniert, und offen-sichtlich ein Gruppenhomomorphismus. Dass ϕ surjektiv ist, ist klar. Fur die Injektivitat,seien g, h ∈ G mit ϕ([g]) = ϕ([h]). Daraus folgt ϕ(g) = ϕ(h), also ϕ(h−1 · g) = e. Also isth−1 · g ∈ H, und damit g ∼ h und [g] = [h].

Beispiel 11.16. Diesen Satz kann man verwenden, um Quotientengruppen zu berechnen,sofern die normale Untergruppe als Kern eines Gruppenhomomorphismus realisert ist. Be-trachte z.B. die allgemeine Lineare Gruppe GLn(K), wobei n ∈ N und K ein beliebigerKorper ist. Wie wir in Bemerkung 6.17 gesehen haben ist die Determinante

det : GLn(K) → (K \ {0}, ·)A 7→ det(A)

ein Gruppenhomomorphismus in die multiplikative Gruppe des Korpers K. Den Kern diesesHomomorphismus (die Matrizen mit Determinante 1) hatten wir die spezielle Lineare Gruppegenannt und mit SLn(K) bezeichnet (siehe Bemerkung 6.17). Sie ist nach Bemerkung 11.11eine normale Untergruppe von GLn(K). Nach Satz 11.15 ist GLn(K)/SLn(K) gerade dasBild det(GLn(K)). Nun ist det surjektiv. Daher gilt

GLn(K)/SLn(K) ∼= K \ {0} .

Page 133: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

11 Quotientenkonstruktionen 133

Allgemeiner gilt

Satz 11.17. Sei ϕ : G → G′ ein Gruppenhomomorphismus, und H E G eine normaleUntergruppe. Dann gibt es genau dann einen Gruppenhomomorphismus ϕ : G/H → G′,sodass ϕ = ϕ ◦ π,

Gϕ //

π !!

G′

G/Hϕ

<< ,

wenn H ⊆ ker(ϕ).

Beweis. Das ist offensichtlich. Eine solche Abbildung ϕ gibt es genau dann, wenn alle Re-prasentanten g′ ∈ [g] das gleiche Bild unter ϕ haben, vgl. Proposition 11.2. Nun ist [g] = g·H.Also gibt es ϕ genau dann, wenn ϕ(g · h) = ϕ(g) · ϕ(h) = ϕ(g) fur alle h ∈ H. Das ist aberaquivalent zu h ∈ ker(ϕ) fur alle h ∈ H.

Bemerkung 11.18. Sei G eine endliche Gruppe. Man nennt |G| <∞ die Ordnung derGruppe.

(1) Sei H ⊆ G eine Untergruppe. Mit Hilfe der Aquivalenzrelation ∼L kann man G in diedisjunkte Vereinigung

G =⋃

[g]L∈G/H[g]L

von Linksnebenklassen zerlegen. Wie wir gesehen hatten gilt [g]L = g ·H, und da dieLinksmultiplikation mit g eine bijektive Abbildung auf G ist, gilt |[g]L| = |H| fur alleg ∈ G. Es folgt damit, dass

|G| = |G/H| |H| ,d.h. die Ordnung einer Untergruppen H ⊆ G teilt die Ordnung der Gruppe G. (Diesnennt man den Satz von Lagrange.) Falls nun insbesondere die Ordnung von G einePrimzahl ist, so kann man daraus schliessen, dass G keine nicht-triviale (d.h. {e} (H ( G) Untergruppe H besitzt.

(2) Fur jedes g ∈ G istΓg = {gi | i ∈ Z} ⊆ G

eine Untergruppe von G. Da G endlich ist, muss dies auch fur Γg gelten. Also gibt esi ∈ N mit gi = e.18 Definiere die Ordnung von g als

ord(g) := min{i ∈ N | gi = e} .Dann gilt Γg ∼= Zord(g).

19 Da |Zord(g)| = ord(g) folgt, dass die Ordnung ord(g) vonjedem g ∈ G die Ordnung von G teilt.Falls nun die Ordnung von G eine Primzahl ist, so folgt, dass die Ordnung von alleng ∈ G entweder 1 oder |G| sein muss. Ist |G| > 1, so gibt es ein e 6= g ∈ G. Dies mussOrdnung ord(g) = |G| haben, und es muss gelten G = Γg ∼= Z|G|.

18Denn es muss a 6= b ∈ Z geben mit ga = gb. Daraus folgt, g|a−b| = e.19Vermoge des Gruppenisomorphismus gi 7→ [i].

Page 134: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

134 11.3 Quotientenraume

11.3 Quotientenraume

Vektorraume sind abelsche Gruppen mit einer skalaren Multiplikation. Als nachstes werdenwir die Quotientenkonstruktion von Gruppen auf Vektorraume ubertragen.

Betrachte einen Vektorraum V uber einem Korper K zusammen mit einem Untervek-torraum U ⊆ V . Dann ist V eine abelsche Gruppe mit Untergruppe U . Da V abelsch ist,ist nach Bemerkung 11.11 U eine normale Untergruppe. Nach Satz 11.13 ist daher V/Ueine abelsche Gruppe, und die Quotientenabbildung π : V → V/U ein Gruppenhomomor-phismus. Wie der nachste Satz zeigt, ist die Quotientenkonstruktion auch mit der skalarenMultiplikation kompatibel, sodass V/U auch ein K-Vektorraum ist, und π ein Vektorraum-homomorphismus.

Satz 11.19. Sei K ein Korper, V ein K-Vektorraum und U ⊆ V ein Untervektorraum.Dann ist die in Satz 11.13 konstruierte Quotientengruppe V/U vermoge der aus V geerbtenskalaren Multiplikation

K × V/U → V/U

(k, [v]) 7→ [k · v]

ein K-Vektorraum, und die Quotientenabbildung π : V → V/U ein Homomorphismusvon Vektorraumen. Es gilt ker(π) = U , und, falls V endlich-dimensional ist, dim(V/U) =dim(V )− dim(U).

Beweis. Wegen Satz 11.13 ist V/U eine abelsche Gruppe, und die Quotientenabbildungπ : V → V/U ein Gruppenhomomorphismus mit Kern ker(π) = U . Desweiteren ist obigeskalare Multiplikation auf V/U wohldefiniert, denn seien v, v′ ∈ V mit v′ ∼ v. Dann gibtes ein u ∈ U mit v′ = v + u. Also gilt k · v′ = k · (v + u) = k · v + k · u ∼ k · v, dennU ⊆ V ist Untervektorraum und damit abgeschlossen unter skalarer Multiplikation. Zu zei-gen bleibt, dass V/U mit der skalaren Multiplikation wirklich ein Vektorraum ist, und π einVektorraumhomomorphismus. Die Vektorraumaxiome fur V/U folgen aber sofort aus denVektorraumaxiomen fur V , und auch die Kompatibilitat von π mit der skalaren Multiplika-tion gilt offensichtlich nach Konstruktion. Die Dimensionsformel folgt nach Anwendung vonSatz 4.43 auf π.

Bemerkung 11.20. Sei V ein K-Vektorraum und U ⊆ V ein Unterraum. Die Nebenklassen[v] ∈ V/U , v ∈ V haben dann die folgende Gestalt

[v] = {v + u |u ∈ U} = v + U .

Man nennt sie die affinen Unterraume von V mit Translationsraum U . Dabei handelt essich um durch v “verschobene” Unterraume: Differenzen aus Elementen in [v] sind geradedie Elemente des Unterraums U . Die Verschiebung v 7→ v + u fur ein u ∈ U andert denaffinen Unterraum [v] = v + U nicht.

Satz 11.21. Sei f : V → W eine lineare Abbildung zwischen K-Vektorraumen V und W .

Page 135: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

11 Quotientenkonstruktionen 135

(1) Dann ist der in Satz 11.15 definierte Gruppenisomorphismus

f : V/ ker(f) → f(V )

[v] 7→ f(v)

auch ein Vektorraumisomorphismus.(2) Sei U ⊆ V ein Untervektorraum. Dann gibt es genau dann eine lineare Abbildung

f : V/U → W mit f = f ◦ π ,

wenn U ⊆ ker(f).(3) In der Tat ist die Abbildung

{f ∈ Hom(V,W ) |U ⊆ ker(f)} → Hom(V/U,W )

f 7→ f = f ◦ π

ein Isomorphismus von Vektorraumen.

Beweis. (1) Nach Verwendung von Satz 11.15 muss lediglich die Kompatibilitat von f mitder skalaren Multiplikation gezeigt werden. Diese folgt aus der Linearitat von f und derQuotientenabbildung π : V → V/ ker(f). Auch (2) folgt sofort aus dem entsprechenden Re-sultat fur Gruppen (Satz 11.17).Fur (3) bemerken wir zunachst, dass {f ∈ Hom(V,W ) |U ⊆ ker(f)} in der Tat ein Vektor-raum ist. Die Abbildung f 7→ f ◦ π ist offenbar linear, da π linear ist. Es muss also nur dieBijektivitat dieser Abbildung gezeigt werden. Dazu konstruiert man einfach die Umkehrab-bildung:

Hom(V/U,W ) → {f ∈ Hom(V,W ) |U ⊆ ker(f)} .f 7→ (g : v ∈ V 7→ g(v) = f([v]))

Dies ist wohldefiniert, denn die zu f zugeordnete Abbildung g ist offensichtlich linear, mitU ⊆ ker(g). Außerdem handelt es sich tatsachlich um die Umkehrabbildung, denn fur die zuf mit f ◦ π = f zugeordnete Abbildung g gilt: g(v) = f([v]) = f ◦ π(v) = f(v).

Proposition 11.22. Sei U ⊆ V ein Untervektorraum des Vektorraums V , und W ⊂ V eindazu komplementarer Untervektorraum, d.h. V = U ⊕W . Dann ist die Abbildung

π|W : W → V/U

ein Isomorphismus.

Beweis. Es gilt ker(π|W ) = W ∩ ker(π) = W ∩ U = {0}, da U und W komplementar sind.π|W ist also injektiv. Sei ferner [v] ∈ V/U beliebig. Da V = U⊕W gibt es u ∈ U und w ∈ Wmit v = u+ w. Daraus folgt, [w] = [v] und π|W (w) = [v]. Also ist π|W auch surjektiv.

Page 136: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

136 11.3 Quotientenraume

Satz 11.23. Seien U ⊆ V ⊆ W Untervektorraume. Dann gibt es genau einen Isomorphismusı : W/V → (W/U)/(V/U), sodass das folgende Diagramm kommutiert

WπW,U //

πW,V

��

W/U

πW/U,V/U

��W/V

ı // (W/U)/(V/U)

,

wobei wir die Quotientenabbildungen mit den entsprechenden Vektorraumen indiziert haben.

Beweis. Offenbar ist V/U ein Untervektorraum von W/U . Betrachte die lineare Abbildungf := πW/U,V/U ◦ πW,U . Dann gilt fur v ∈ V :

f(v) = πW/U,V/U ◦ πW,U(v) = πW/U,V/U(v + U) = 0 ,

also V ⊆ ker(f). Nach Satz 11.21 gibt es daher genau eine lineare Abbildung ı := f : W/V →(W/U)/(V/U) mit f = f ◦ πW,V . Es verbleibt zu zeigen, dass ı ein Isomorphismus ist. DieSurjektivitat ist klar, denn die Quotientenabbildungen sind alle surjektiv. Damit muss auchf surjektiv sein, und damit auch ı = f . Fur die Injektivitat seien w+ V,w′ + V ∈ W/V mitı(w + V ) = ı(w′ + V ). Daraus folgt, ı ◦ πW,V (w) = ı ◦ πW,V (w′). Also

w − w′ ∈ ker(ı ◦ πW,V ) = ker(f) = ker(πW/U,V/U ◦ πW,U) .

Daher πW,U(w−w′) ∈ V/U , und damit w−w′ ∈ V . Das bedeutet aber, dass w+V = w′+V .Damit folgt auch die Injektivitat von ı.

Satz 11.24. Sei V ein endlich-dimensionaler K-Vektorraum, und U ⊆ V ein Untervektor-raum. Sei f : V → V ein Endomorphismus von V , der U invariant laßt, d.h. f(U) ⊆ U .Dann gibt es genau einen Endomorphismus f von V/U mit π ◦ f = f ◦ π (π : V → V/U istdie Quotientenabbildung), und es gilt

det(f) = det(f |U) det(f)

χf = χf |U χf .

Beweis. Wegen f(U) ⊆ U gilt U ⊆ ker(π ◦ f). Aus Satz 11.21 folgt die Existenz undEindeutigkeit von f . Um die Identitaten fur det und χf zu zeigen, wahle eine Basis A =(v1, . . . , vr) von U und erganze diese durch A′ = (vr+1, . . . , vn) zu einer Basis B = (v1, . . . , vn)von ganz V . Nun ist W := L(vr+1, . . . , vn) ein Komplementarraum zu U mit Basis A′. SeipW : V → W , die durch

p(vi) =

{vi, r ≤ i ≤ n0, sonst

definierte Projektion auf W . Dann gilt

MatBB(f) =

(MatAA(f |U) ∗

0 MatA′A′(pW ◦ f |W )

)

Page 137: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

12 Tensorprodukt 137

Nach Proposition 11.22 ist ı := π|W : W → V/U ein Isomorphismus. Also gilt

pW ◦ f |W = ı−1 ◦ ı ◦ pW ◦ f |W ◦ ı−1 ◦ ı . (11.1)

Nun ist ı ◦ pW = π, und damit

ı ◦ pW ◦ f |W = π ◦ f |W = f ◦ π|W = f ◦ ı .

Eingesetzt in die rechte Seite von Gleichung 11.1 erhalt man

pW ◦ f |W = ı−1 ◦ f ◦ ı .

Fur die Basis A′′ = (ı(vr) = [vr], . . . , ı(vn) = [vn]) von V/U gilt dann

MatA′A′(pW ◦ f |W ) = MatA′′A′′(f) ,

und die Behauptung folgt aus dem folgenden Lemma 11.25.

Lemma 11.25. Seien A ∈ Mat(n, n;K) und B ∈ Mat(m,m;K). Dann gilt

det

(A ∗0 B

)= det(A) det(B) .

Beweis. Zeige die Identitat mittels vollstandiger Induktion nach m. Fur m = 1 hattenwir sie bereits in Beispiel 6.14(4) gezeigt. Das ist die Induktionsverankerung. Fur den In-duktionsschritt entwickle die Determinante in der letzten Zeile, und verwende, dass jederSummand der Entwicklung nach Induktionsvorraussetzung in ein Produkt aus det(A) undder Determinante der entsprechenden Untermatrix von B faktorisiert.

12 Tensorprodukt

Definition 12.1. Ein Tensorprodukt zweier K-Vektorraume V,W ist ein Paar (V ⊗W,⊗)bestehend aus einem K-Vektorraum V ⊗W und einer bilinearen Abbildung

⊗ : V ×W → V ⊗W ,

(v, w) 7→ v ⊗ w

sodass es fur alle bilinearen Abbildungen b : V ×W → X in Vektorraume X genau einelineare Abbildung b⊗ : V ⊗W → X gibt, mit

b(v, w) = b⊗(v ⊗ w) fur alle v ∈ V und w ∈ W .

Bemerkung 12.2. Falls es exisistiert, so ist das Tensorprodukt bis auf Isomorphie eindeutigbestimmt.

Page 138: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

138

Satz 12.3. Seien V und W K-Vektorraume.(1) Das Tensorprodukt (V ⊗W,⊗) existiert.(2) Sind {e1, . . . , em} und {f1, . . . , fn} Basen von V bzw. W , so ist

{ei ⊗ fj |1 ≤ i ≤ m, 1 ≤ j ≤ n}

eine Basis von V ⊗W . Insbesondere gilt fur endlich-dimensionale V und W

dim(V ⊗W ) = dim(V ) dim(W ) .

Proposition 12.4. Es gibt eindeutig bestimmte Isomorphismen(1) V ⊗W → W ⊗ V , v ⊗ w 7→ w ⊗ v(2) U ⊗ (V ⊗W )→ (U ⊗ V )⊗W , u⊗ (v ⊗ w) 7→ (u⊗ v)⊗ w(3) (V ⊕ V ′)⊗W → (V ⊗W )⊕ (V ′ ⊗W ), (v ⊕ v′)⊗ w 7→ (v ⊗ w)⊕ (v′ ⊗ w)

Proposition 12.5. Seien V und W K-Vektorraume. Dann ist die lineare Abbildung

V ∗ ⊗W → Hom(V,W )

ϕ⊗ w 7→ ϕ · w

injektiv, und ihr Bild ist gegeben durch {f ∈ Hom(V,W ) | dim(im(f)) <∞}. Insbesondereist diese Abbildung ein Isomorphismus, wann immer dim(W ) <∞.

Page 139: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

A Notationen und Symbole 139

Anhang

Anhang A Notationen und Symbole

� Ende eines BeweisesoBdA ohne Beschrankung der Allgemeinheit∀ fur alle∃ es gibt@ es gibt kein∃! es gibt genau ein Widerspruch∨ oder∧ und⇒ daraus folgt; daraus folgt nicht⇔ ist aquivalent zu, bzw. genau dann wenn< nicht aquivalent zu:⇔ definiert als aquivalent zu:= definiert als∈ ist enthalten in (S. 4)/∈ ist nicht enthalten in (S. 4)∪ Vereinigung von Mengen (Definition 1.3)∩ Durchschnitt von Mengen (Definition 1.3)\ Differenz von Mengen (Definition 1.3)× Produkt von Mengen (Definitionen 1.7, 1.10)⊕ (außere) direkte Summe von Vektorraumen (Beispiel 4.32)

(innere) direkte Summe von Untervektorraumen (Definition 7.26)⊗ Tensorprodukt von Vektorraumen (Definition 12.1 und Satz 12.3)∅ leere Menge (S. 4)⊆ Teilmenge (Definition 1.1)

Untergruppen (Definition 2.6)⊂ echte Teilmenge (Definition 1.1)| · | Ordnung einer Menge (S. 4)

Determinante einer MatrixN naturliche Zahlen (S. 4)N0 naturliche Zahlen und Null (S. 4)Z ganze Zahlen (S. 4)Z/pZ Quotientengruppe (Beispiel 2.4)Q rationale ZahlenR reelle ZahlenFp endlicher Korper mit p Elementen (siehe Satz 3.5)C komplexe Zahlen (Kapitel 3.3)

Page 140: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

140

= Imaginarteil einer komplexen Zahl (S. 23)< Realteil einer komplexen Zahl (S. 23)◦ Komposition von Abbildungen (Definition 1.20)(·)−1 Urbild einer Menge unter einer Abbildung (Definition 1.16)

Umkehrabildung (Bemerkung 1.19)inverse Matrix (Proposition 5.10)

(·)t transponierte einer Matrix (Definition 5.16)(·)] komplementare Matrix (Definition 6.25)(·)∗ Dualraum (Definition 4.47)

duale Abbildung (Definition 4.49)hermitesch transponierte Matrix (Gleichung 9.1)

(·)ad adjungierte Abbildung (Definition 8.14)∑Summe∏Produkt

K∗ Elemente eines Korpers K ungleich 0 (Definition 3.1)K[t] Polynomring uber K (Definition 7.1)deg(·) Grad eines Polynoms (Definition 7.1)µa(p) Multiplizitat der Nullstelle a eines Polynoms p (Proposition 7.8)In Einheitsmatrix (Beispiel 5.9)det Determinante eines Endomorphismus (Satz 6.10)

Determinante einer Matrix (Definition 6.13)im Bild eines Vektorraumhomomorphismus (Definition 4.41)ker Kern eines Gruppenhomomorphismus (Satz 2.12)

Kern eines Vektorraumhomomorphismus (Definition 4.41)dim Dimension eines Vektorraums (Definition 4.28)L lineare Hulle einer Teilmenge eines Vektorraums (Definition 4.11)Los Losungsraum eines linearen Gleichungssystems (Gleichung 5.3)span aufgespannter Vektorraume (Fußnote 8, S. 28)rang Rang eines Vektorraumhomomorphismus (Definition 4.45)Sn Symmetrische Gruppe (Gleichung (2.2))sign Signum einer Permutation (Definition 2.16)Mat(m,n;K) Ring der m× n-Matrizen uber K (Definition 5.1)MatAB(f) Matrixdarstellung eines Homomorphismus (Satz 5.21)MatA(β) Matrixdarstellung einer Bilinearform (Proposition 8.3)GLn(K) allgemeine lineare Gruppe (Definition 5.11)SLn(K) spezielle lineare Gruppe (Bemerkung 6.17)On(R) orthogonale Gruppe (Definition 8.37)SOn(R) spezielle orthogonale Gruppe (Definition ??)Un(C) unitare Gruppe (Definition 9.14)SUn(C) spezielle unitare Gruppe (Definition ??)χf charakteristisches Polynom (Definition 7.18)Vλ(f) Eigenraum zum Eigenwert λ (Definition 7.15)

Vλ(f) verallgemeinerter Eigenraum (Hauptraum) zum Eigenwert λ (Definition 10.8)

Page 141: Lineare Algebra - mathphys.math.uni-mannheim.demathphys.math.uni-mannheim.de/LA2a/LA1-12.pdf · 2 Inhaltsverzeichnis ... 7.2 Eigenvektoren und Eigenwerte ... Teil 2 Lineare Algebra

A Notationen und Symbole 141

‖ · ‖ Norm eines Vektors (Proposition 8.24)〈·, ·〉 Standard-Skalarprodukt auf Mat(n, 1;R) (Beispiel 8.2)Jk Jordanmatrix (Definition 10.4)Jk(λ) Jordanblock (Definition 10.15)