115
Grundlagen der linearen Algebra und analytischen Geometrie Sascha Trostorff 19. Juli 2018

Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

  • Upload
    others

  • View
    3

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

Grundlagen der linearen Algebra und

analytischen Geometrie

Sascha Trostorff

19. Juli 2018

Page 2: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

Inhaltsverzeichnis

I. Einführung in die Mengenlehre 3

1. Grundlagen der Aussagenlogik 4

2. Naive Mengenlehre 7

3. Relationen und Funktionen 11

II. Algebraische Strukturen 17

4. Gruppen, Ringe und Körper 18

5. Vektorräume 25

III. Matrizen 36

6. Grundlegende Definitionen 37

7. Lineare Abbildungen und Matrizen 42

8. Lineare Gleichungssysteme 48

9. Determinanten 59

IV. Euklidische Vektorräume und analytische Geometrie 70

10.Euklidische Vektorräume 71

11.Affine Unterräume und analytische Geometrie 79

V. Eigenwerte und Eigenvektoren 89

12.Der Körper der komplexen Zahlen C 90

13.Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 95

14.Adjungierte lineare Abbildungen und Normalformen 104

2

Page 3: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

Teil I.

Einführung in die Mengenlehre

3

Page 4: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

1. Grundlagen der Aussagenlogik

Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen wirsogenannte Aussagen. Ohne genau zu definieren, was eine Aussage eigentlich ist, wollen wirdavon ausgehen, dass Aussagen Sätze sind, denen man einen Wahrheitswert „falsch“ oder „wahr“zuordnen kann. In diesem Sinne sind also folgende Sätze Aussagen

• „Ich sitze im Hörsaal“

• „Jeder Mensch besitzt ein Auto“

• „Jede natürliche Zahl lässt sich als Produkt von Primzahlen schreiben“

• „Jede gerade Zahl größer als 2 lässt sich als Summe zweier Primzahlen schreiben“

Jeder dieser Aussagen lässt sich theoretisch ein Wahrheitswert zuordnen, auch wenn das mit-unter sehr schwierig seien kann (die letzte Aussage ist die sog. „Goldbachsche Vermutung“ undist seit 250 Jahren ungeklärt). Aussagen lassen sich nun auf verschiedene Arten verknüpfen.

Definition. Seien p, q Aussagen. Dann definieren wir die folgenden Aussagen über die nach-folgende Wahrheitstabelle:

• Konjunktion („und“): p ∧ q (lies: „p und q“)

• Disjunktion („oder“): p ∨ q (lies: „p oder q“)

• Negation („nicht“): ¬p (lies: „nicht p“)

• Implikation: p ⇒ q (lies: „aus p folgt q“)

• Äquivalenz: p ⇔ q (lies: „p gilt genau dann, wenn q gilt“).

p q p ∧ q p ∨ q ¬p p ⇒ q p ⇔ q

w w w w f w ww f f w f f ff w f w w w ff f f f w w w

Bemerkung 1.1. Die Disjunktion bezeichnet immer das „einschließende oder“, also nicht das„entweder ... oder ...“. Letzteres ließe sich zum Beispiel folgendermaßen ausdrücken:

„entweder p oder q“ : ⇔ (p ∧ (¬q)) ∨ ((¬p) ∧ q)

Satz 1.2 (Einige Tautologien). Seien p, q, r Aussagen. Dann gelten:

(a) ¬ (¬p) ⇔ p

(b) (p ⇔ q) ⇔ ((¬p) ⇔ (¬q))(c) (p ∧ q) ⇔ ¬ ((¬p) ∨ (¬q))

4

Page 5: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

1. Grundlagen der Aussagenlogik

(d) (p ∨ q) ⇔ ¬ ((¬p) ∧ (¬q))(e) (p ∨ q) ∧ r ⇔ (p ∧ r) ∨ (q ∧ r)

(f) (p ∧ q) ∨ r ⇔ (p ∨ r) ∧ (q ∨ r)

(g) (p ⇒ q) ⇔ ((¬p) ∨ q)

(h) (p ⇔ q) ⇔ ((p ⇒ q) ∧ (q ⇒ p))

(i) (p ⇒ q) ⇔ ((¬q) ⇒ (¬p))

Beweis. (a)p ¬p ¬(¬p) p ⇔ ¬(¬p)w f w wf w f w

(b)

p q p ⇔ q ¬p ¬q (¬p) ⇔ (¬q) (p ⇔ q) ⇔ ((¬p) ⇔ (¬q))w w w f f w ww f f f w f wf w f w f f wf f w w w w w

(c)

p q p ∧ q ¬p ¬q (¬p) ∨ (¬q) ¬ ((¬p) ∨ (¬q)) (p ∧ q) ⇔ ¬ ((¬p) ∨ (¬q))w w w f f f w ww f f f w w f wf w f w f w f wf f f w w w f w

(d) Es gilt

((¬p) ∧ (¬q)) (c)⇔¬ ((¬(¬p)) ∨ (¬(¬q)))(a)⇔¬ (p ∨ q)

und somit nach (b)

¬ ((¬p) ∧ (¬q)) ⇔ ¬(¬ (p ∨ q))

(a)⇔ (p ∨ q).

Rest: Übung.

In mathematischen Aussagen werden häufig Variablen verwendet. So ist etwa der Satz „x istreell und x+2 ≥ 0“ keine Aussage im obigen Sinne, da völlig unklar ist, welchen Wert x in diesemZusammenhang hat. Solche Variablen nennt man auch freie Variablen. Mithilfe von sogenanntenQuantoren lassen sich freie Variablen binden, werden also zu gebundenen Variablen. Es gibtzwei Quantoren: den Allquantor ∀ und den Existenzquantor ∃. Somit lässt sich der Satz „x istreell und x+ 2 ≥ 0“ durch binden von x in folgende Aussagen verwandeln:

∃x : x reell ∧ x+ 2 ≥ 0

∀x : x reell ∧ x+ 2 ≥ 0.

5

Page 6: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

1. Grundlagen der Aussagenlogik

Hierbei ist die erste Aussage wahr, da es natürlich reelle Zahlen x gibt, die x+2 ≥ 0 erfüllen. Diezweite Aussage ist hingegen falsch, da das nicht für alle reellen Zahlen gilt (wie z.B. x = −5).Die oben erwähnte Goldbachsche Vermutung lässt sich nun folgendermaßen formulieren

∀n : n gerade natürliche Zahl ⇒∃p : ∃q : (n = p+ q) ∧ p prim ∧ q prim.

Statt ∃p : ∃q : schreibt man auch kürzer ∃p, q : . Die Reihenfolge der Quantoren spielt hierbeieine wichtige Rolle. So besagt die Aussage

∀n : ∃m : n,m natürliche Zahlen ∧ (n ≥ m)

dass zu jeder natürlichen Zahl n eine natürliche Zahl m existiert, die kleiner oder gleich n ist(klar, wähle z.B. m = n). Hingegen besagt die Aussage

∃n : ∀m : n,m natürliche Zahlen ∧ (n ≥ m)

dass es eine natürliche Zahl n gibt, die größer oder gleich jeder anderen natürlichen Zahl ist(was falsch ist, da stets m = n + 1 gewählt werden kann). Allaussagen und Existenzaussagenstehen in einem engen Zusammenhang über die Negation, nämlich

¬ (∀x : p(x)) ⇔ ∃x : ¬p(x),

wobei p(x) eine Aussage mit der freien Variablen x sei.

6

Page 7: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

2. Naive Mengenlehre

Wir wollen uns nun mit Mengen und Mengenoperationen beschäftigen. Dabei verzichten wir aufeine strikt mathematische Definition, was eine Menge ist, da dies den Rahmen der Vorlesungsprengen würde. Stattdessen nehmen wir an, dass intuitiv klar ist, was eine Menge ist. Mengendefinieren sich durch ihre Elemente. Wir schreiben x ∈ M, wenn x ein Element der Menge Mist. Somit sind zwei Mengen M,N gleich, falls all ihre Elemente übereinstimmen, also

M = N :⇔ (∀x : x ∈ M ⇔ x ∈ N) .

Mengen werden häufig durch große Buchstaben, ihre Elemente durch kleine Buchstaben notiert.Enthält eine Menge nur endlich viele Elemente, sagen wir 1, 2, 3, 4, 5, so schreiben wir

M = {1, 2, 3, 4, 5} .

Ferner definieren wir die Menge, die kein Element enthält durch

∅ := {},

die leere Menge. Neben der Mengengleichheit formulieren wir auch den Begriff der Teilmenge.

Definition. Seien M,N Mengen. N heißt eine Teilmenge von M , falls

∀x : x ∈ N ⇒ x ∈ M.

Wir schreiben in diesem Fall N ⊆ M und nennen M eine Obermenge von N .

Bemerkung 2.1. Mithilfe von Mengen schreiben wir Aussagen in Zukunft etwas verkürzt, alsostatt z.B. wie oben

∀x : x ∈ N ⇒ x ∈ M

schreiben wir∀x ∈ N : x ∈ M.

Satz 2.2. Seien M,N Mengen. Dann gilt

M = N ⇔ (M ⊆ N ∧N ⊆ M) .

Über Aussagen können wir aus einer Menge bestimmte Teilmengen auswählen. Sei dazu p(x)eine Aussage mit der freien Variablen x. Dann ist

{x ∈ M ; p(x)}

eine Teilmenge von M , nämlich genau die Elemente x von M , für die p(x) wahr ist. So bezeichnetzum Beispiel

{x ∈ N ; ∃k ∈ N : x = 2k}

7

Page 8: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

2. Naive Mengenlehre

die Menge aller geraden Zahlen oder

{x ∈ R ; x2 ≤ 0}

entspricht der Menge aller reellen Zahlen, deren Quadrat nicht positiv ist, was nur für x = 0zutrifft. Es ist also

{x ∈ R ; x2 ≤ 0} = {0}.Entsprechend gilt {

x ∈ R ; x2 < 0}= ∅.

Weitere Mengen, die wir zukünftig stets verwenden wollen sind

Symbol enthalten sind z.B. Bezeichnung

N 0,1,2,3,. . . natürliche ZahlenZ 0,1,-1,2,-2,. . . ganze ZahlenQ 1

3 ,−45 ,−5, 2, . . . rationale Zahlen

R 23 ,−4,−π,

√2, . . . reelle Zahlen

Wir führen nun Operationen auf Mengen ein.

Definition. Seien M eine Menge von Mengen. Wir definieren die Mengen

(a)⋃M := {x ; ∃M ∈ M : x ∈ M} (Vereinigung),

(b)⋂M := {x ; ∀M ∈ M : x ∈ M} (Durchschnitt).

Ist M = {A,B} so schreiben wir auch A ∪ B und A ∩ B statt⋃{A,B} und

⋂{A,B}. Fernerführen wir für zwei Mengen A und B die Menge

(c) A \B := {x ; x ∈ A ∧ x /∈ B} (Differenz)

ein.

Satz 2.3 (Rechenregeln). Seien A,B,C Mengen. Dann gelten

(a) A ∩ (B ∪ C) = (A ∩B) ∪ (A ∩ C) ,

(b) A ∪ (B ∩ C) = (A ∪B) ∩ (A ∪ C) ,

(c) A \ (B ∪ C) = (A \B) ∩ (A \ C) ,

(d) A \ (B ∩ C) = (A \B) ∪ (A \ C) .

Beweis. Wir verwenden stets die Tautologien aus Satz 1.2

(a) Es gilt

x ∈ A ∩ (B ∪ C) ⇔ x ∈ A ∧ x ∈ B ∪ C

⇔ x ∈ A ∧ (x ∈ B ∨ x ∈ C)

⇔ (x ∈ A ∧ x ∈ B) ∨ (x ∈ A ∧ x ∈ C)

⇔ (x ∈ A ∩B) ∨ (x ∈ A ∩ C)

⇔ x ∈ (A ∩B) ∪ (A ∩ C) .

8

Page 9: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

2. Naive Mengenlehre

(b) Übung.

(c) Es gilt

x ∈ A \ (B ∪ C) ⇔ x ∈ A ∧ (¬x ∈ B ∪ C)

⇔ x ∈ A ∧ (¬ (x ∈ B ∨ x ∈ C))

⇔ x ∈ A ∧ ((¬x ∈ B) ∧ (¬x ∈ C))

⇔ x ∈ A ∧ (¬x ∈ B) ∧ x ∈ A ∧ (¬x ∈ C)

⇔ x ∈ A \B ∧ x ∈ A \ C⇔ x ∈ (A \B) ∩ (A \ C) .

(d) Übung.

Definition. Sei M eine Menge. Dann definieren wir

P(M) := {N ; N ⊆ M}

die Potenzmenge von M (die Menge aller Teilmengen von M).

Beispiel 2.4. Ist M = {1, 2, 3}, so ist

P(M) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}} .

Definition. Wir definieren durch

(a, b) := {{a}, {a, b}}

das geordnete Paar (a, b).

Satz 2.5. Es gilt((a, b) = (c, d)) ⇔ (a = c ∧ b = d) .

Beweis. Sei zunächst a = c und b = d. Es gilt

(a, b) = (c, d) ⇔ (∀x : x ∈ (a, b) ⇔ x ∈ (c, d)) .

Nun gilt

x ∈ (a, b) ⇔ x = {a} ∨ x = {a, b}⇔ x = {c} ∨ x = {c, d}⇔ x ∈ (c, d)

und daher (a, b) = (c, d). Wir nehmen nun an, dass (a, b) = (c, d).Dann gilt {a} ∈ (a, b) = (c, d) und daher {a} = {c} oder {a} = {c, d}. Im ersten Fall gilta = c und im zweiten Fall a = c = d und somit insgesamt immer a = c. Es verbleibt b = d zuzeigen.Wir zeigen hierzu

b 6= d ∧ a = c ⇒ (a, b) 6= (c, d).

9

Page 10: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

2. Naive Mengenlehre

Sei also b 6= d und a = c. Gilt {a, b} /∈ (c, d), dann ist nicht zu zeigen. Gilt hingegen {a, b} ∈(c, d), so folgt

{a, b} = {c} ∨ {a, b} = {c, d} ⇒ {a, b} = {c} ⇒ a = b = c.

Dann folgt {c, d} 6= {a}, da sonst d = a = b und somit aber {c, d} /∈ (a, b), da

{c, d} 6= {a, b} ∧ {c, d} 6= {a}.

Definition. Seien M,N Mengen. Dann ist

M ×N := {(a, b) ; a ∈ M ∧ b ∈ N}

das kartesische Produkt von M und N .

Abschließend zeigen wir, dass die naive Vorstellung von Mengen zu Widersprüchen führen kann.

Satz 2.6 (Russelsches Paradoxon). Es gibt nicht die Menge aller Mengen.

Beweis. Wir nehmen an, es gebe die Menge aller Mengen, die wir mit S bezeichnen. Dann ist

M := {A ∈ S ; ¬ (A ∈ A)}

eine Teilmenge von S und damit selbst eine Menge. Es gilt also M ∈ S. Nun gibt es zweiMöglichkeiten.

(i) M ∈ M. Dann gilt ¬(M ∈ M) also ein Widerspruch.

(ii) ¬(M ∈ M). Dann gilt aber M ∈ M, ebenfalls ein Widerspruch.

Somit muss unsere Voraussetzung also falsch sein, es gibt also nicht die Menge aller Mengen.

10

Page 11: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

3. Relationen und Funktionen

Seien im weiteren M,N Mengen.

Definition. Eine (binäre) Relation zwischen M und N , ist eine Teilmenge R ⊆ M × N. Fürein Paar (x, y) ∈ R schreiben wir auch xRy. Eine Relation R heißt

(a) linkstotal, falls ∀x ∈ M : ∃y ∈ N : xRy.

(b) rechtstotal, falls ∀y ∈ N : ∃x ∈ M : xRy.

(c) linkseindeutig, falls ∀x, x ∈ M, y ∈ N : xRy ∧ xRy ⇒ x = x.

(d) rechtseindeutig, falls ∀x ∈ M,y, y ∈ N : xRy ∧ xRy ⇒ y = y.

Ferner definieren wir die zu R inverse Relation durch

R−1 := {(y, x) ; (x, y) ∈ R} ⊆ N ×M.

Des weiteren setzen wir für A ⊆ M

R[A] := {y ∈ N ; ∃x ∈ A : (x, y) ∈ R}

den Nachbereich von A unter R.

Eine rechtseindeutige Relation R nennen wir Funktionsrelation und das Tripel (R,M,N) eineFunktion oder Abbildung. Des weiteren bezeichnen wir für Funktionsrelationen mit

D(R) := {x ∈ M ; ∃y ∈ N : xRy} = R−1[N ],

W (R) := {y ∈ N ; ∃x ∈ M : xRy} = R[M ]

den Definitionsbereich bzw. Wertebereich von R. Da zu gegeben x ∈ D(R) das Element y ∈ Nmit xRy eindeutig bestimmt ist, schreiben wir auch R(x) := y. Als Symbol für eine Funktionverwenden wir

R : D(R) ⊆ M → N

x 7→ R(x).

Ist R linkstotal, gilt also D(R) = M, so schreiben wir verkürzt

R : M → N

x 7→ R(x).

Ferner definieren wir die Funktion

idM : M → M

x 7→ x,

11

Page 12: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

3. Relationen und Funktionen

die Identität auf M .

Wir werden in Zukunft auch R eine Funktion nennen, wenn die Wahl der Mengen M und Naus dem Kontext hervorgeht.

Beispiel 3.1. (a)

f : R → R

x 7→ 5

(b)

f : R → R

x 7→ x2

(c)

f : R≥0 ⊆ R → R

x 7→ √x

Definition. Sei f : D(f) ⊆ M → N . Dann heißt f injektiv, falls f linkseindeutig ist, d.h. fallsgilt

∀x, y ∈ D(f) : f(x) = f(y) ⇒ x = y.

f heißt surjektiv, falls f rechtstotal ist, d.h, falls gilt

∀y ∈ N : ∃x ∈ D(f) : f(x) = y.

f heißt bijektiv, falls f injektiv, surjektiv und linkstotal ist.

Beispiel 3.2. (a)

f : R → R

x 7→ x2

ist weder injektiv noch surjektiv.

(b)

f : R≥0 ⊆ R → R

x 7→ x2

ist injektiv, aber nicht surjektiv.

(c)

f : R → R≥0

x 7→ x2

ist surjektiv, aber nicht injektiv.

12

Page 13: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

3. Relationen und Funktionen

(d)

f : R≥0 ⊆ R → R≥0

x 7→ x2

ist injektiv, surjektiv aber nicht bijektiv.

(e)

f : R≥0 → R≥0

x 7→ x2

ist bijektiv.

Definition. Seien M,N,O Mengen und R ⊆ M × N sowie S ⊆ N × O. Dann definieren wirdie Verknüpfung von R und S (lies: „S nach R“) durch

S ◦R := {(x, z) ; ∃y ∈ N : (x, y) ∈ R ∧ (y, z) ∈ S} ⊆ M ×O.

Satz 3.3. Seien M,N,O Mengen, f : D(f) ⊆ M → N und g : D(g) ⊆ N → O. Dann gelten

(a) g ◦ f ist eine Funktion.

(b) Sind f und g injektiv, dann auch g ◦ f.(c) Sind f und g surjektiv, dann auch g ◦ f .

(d) Sind f und g bijektiv, dann auch g ◦ f .

(e) f−1 genau dann eine Funktion, wenn f injektiv ist. Es gilt dann f−1 : W (f) ⊆ N → Mund f ◦ f−1 = idW (f) und f−1 ◦ f = idD(f).

(f) f ist genau dann bijektiv, wenn f−1 eine bijektive Funktion ist.

Definition. Sei R ⊆ M ×M eine Relation. Dann heißt R

(a) reflexiv, falls ∀x ∈ M : xRx

(b) symmetrisch, falls ∀x, y ∈ M : xRy ⇒ yRx

(c) antisymmetrisch, falls ∀x, y ∈ M : xRy ∧ yRx ⇒ x = y

(d) transitiv, falls ∀x, y, z ∈ M : xRy ∧ yRz ⇒ xRz.

R heißt eine Äquivalenzrelation auf M , falls R reflexiv, symmetrisch und transitiv ist. R heißteine Ordnungsrelation auf M , falls R reflexiv, antisymmetrisch und transitiv ist.

Beispiel 3.4. (a) Sei G die Menge aller Geraden der Ebene. Dann ist die Parallelität ‖⊆ G×Geine Äquivalenzrelation auf G.

(b) Die Relation ∼5⊆ N× N mit

k ∼5 m :⇔ ∃ℓ ∈ Z : m− k = ℓ · 5

eine Äquivalenzrelation auf N.

13

Page 14: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

3. Relationen und Funktionen

(c) Sei M eine Menge. Dann ist ⊆ eine Ordnungsrelation auf P(M).

Definition. Sei R ⊆ M ×M eine Äquivalenzrelation. Für x ∈ M bezeichne

[x]R := {y ∈ M ; xRy} ⊆ M

die Äquivalenzklasse zu x. Umgekehrt heißt x ein Repräsentant von [x]R. Ferner bezeichnet

M�R := {[x]R ; x ∈ M} ⊆ P(M)

den Faktorraum von M bzgl. R.

Beispiel 3.5. Wir verwenden die Relation ∼5 aus Beispiel 3.4. Dann gilt

[0]∼5= {0, 5, 10, 15, . . .}

[1]∼5= {1, 6, 11, 16, . . .}...

[4]∼5= {4, 9, 14, 19, . . .}

[5]∼5= {0, 5, 10, 15, . . .} = [0]∼5

.

Satz 3.6. Sei R ⊆ M ×M eine Äquivalenzrelation und x, y ∈ M . Dann gelten

(a) x ∈ [x]R, insbesondere also [x]R 6= ∅,(b) [x]R = [y]R ⇔ xRy,

(c) [x]R ∩ [y]R = ∅ ⇔ ¬xRy,

(d) M =⋃M�R

Beweis. (a) Da R reflexiv ist, gilt stets xRx und daher x ∈ [x]R.

(b) Sei zunächst [x]R = [y]R. Es ist x ∈ [x]R = [y]R und somit yRx und wegen SymmetriexRy.Gelte nun xRy. Sei a ∈ [x]R, also xRa. Dann gilt wegen Symmetrie yRx und wegenTransitivität yRa also a ∈ [y]R. Somit haben wir gezeigt [x]R ⊆ [y]R. Die andere Inklusionfolgt analog.

(c) Sei [x]R ∩ [y]R = ∅. Dann gilt insbesondere [x]R 6= [y]R (da sonst [x]R ∩ [y]R = [x]R 6= ∅)und somit ¬xRy nach (b).Gelte [x]R ∩ [y]R 6= ∅. Dann existiert ein a ∈ M mit a ∈ [x]R und a ∈ [y]R, also xRa undyRa. Wegen Symmetrie und Transitivität folgt hieraus xRy. Dies ist die Kontrapositionder fehlenden Implikation.

(d) Es gilt trivialerweise⋃M�R ⊆ M . Ist x ∈ M , so gilt x ∈ [x]R nach (a) und damit

x ∈ ⋃M�R, also auch M ⊆ ⋃M�R.

Definition. Sei M eine Menge. Ein Mengensystem Π ⊆ P(M) heißt Partition von M , falls

(a) ∅ /∈ Π,

14

Page 15: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

3. Relationen und Funktionen

(b) ∀A,B ∈ Π : A 6= B ⇒ A ∩B = ∅,(c)

⋃Π = M.

Satz 3.7. Sei M eine Menge. Ist R ⊆ M×M eine Äquivalenzrelation, so ist M�R eine Partitionvon M. Ist umgekehrt Π ⊆ P(M) eine Partition von M, so existiert eine ÄquivalenzrelationR ⊆ M ×M mit M�R = Π.

Beweis. Dass M�R für eine Äquivalenzrelation R eine Partition von M ist, haben wir in Satz3.6 gesehen. Sei nun Π ⊆ P(M) eine Partition von M . Wir definieren die Relation R ⊆ M ×Mdurch folgende Bedingung

xRy : ⇔ ∃A ∈ Π : x ∈ A ∧ y ∈ A.

Wir zeigen nun, dass R eine Äquivalenzrelation ist:

(a) R ist reflexiv: Sei x ∈ M . Dann existiert ein A ∈ Π mit x ∈ A. Somit gilt xRx.

(b) R ist symmetrisch: Seien x, y ∈ M mit xRy. Dann gibt es A ∈ Π mit x ∈ A∧y ∈ A. Damitgilt aber auch y ∈ A ∧ x ∈ A und somit yRx.

(c) R ist transitiv: Seien x, y, z ∈ M mit xRy und yRz. Dann existiert A ∈ Π mit x ∈ A∧y ∈ Aund B ∈ Π mit y ∈ B ∧ z ∈ B. Somit gilt also y ∈ A ∩ B, also insbesondere A ∩ B 6= ∅.Daraus folgt aber A = B und somit gilt x ∈ A ∧ z ∈ A und daher xRz.

Wir zeigen nun nochM�R = Π.

Sei x ∈ M. Dann existiert ein A ∈ Π mit x ∈ A. Wir zeigen [x]R = A. Sei zunächst y ∈ [x]R.Dann existiert A ∈ Π mit x ∈ A ∧ y ∈ A. Damit ist x ∈ A ∩ A und somit A = A, also auchy ∈ A. Das zeigt [x]R ⊆ A. Sei nun y ∈ A. Dann gilt trivialerweise x ∈ A∧y ∈ A, also xRy undsomit y ∈ [x]R. Das beweist [x]R = A und somit [x]R ∈ Π. Damit haben wir bewiesen, dass

M�R ⊆ Π.

Sei umgekehrt A ∈ Π. Dann ist A 6= ∅, also existiert x ∈ A. Wie oben folgt [x]R = A und daherA ∈ M�R und somit schließlich M�R = Π.

Definition. Sei R ⊆ M × M eine Ordnungsrelation. Dann nennen wir (M,R) eine partiellgeordnete Menge. Gilt zusätzlich

∀x, y ∈ M : xRy ∨ yRx,

so heißt R eine Totalordnung und (M,R) eine total geordnete Menge. Eine Element x ∈ Mheißt

(a) kleinstes Element bzgl. R, falls ∀y ∈ M : xRy,

(b) größtes Element bzgl. R, falls ∀y ∈ M : yRx,

(c) minimales Element bzgl. R, falls ∀y ∈ M : yRx ⇒ x = y,

(d) maximales Element bzgl. R, falls ∀y ∈ M : xRy ⇒ x = y.

15

Page 16: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

3. Relationen und Funktionen

Ist S ⊆ M, so heißt x

(e) untere Schranke von S, falls ∀y ∈ S : xRy,

(f) obere Schranke von S, falls ∀y ∈ S : yRx,

(g) Infimum von S, falls x die größte untere Schranke von S ist,

(h) Supremum von S, falls x die kleinste obere Schranke von S ist.

Beispiel 3.8. Wir betrachten

P({1, 2, 3}) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}}

und ⊆ als Ordnungsrelation auf P({1, 2, 3}). Offenbar ist ⊆ keine Totalordnung, da z.B. weder{1} ⊆ {2} noch {2} ⊆ {1} gilt. ∅ das einzige kleinste und minimale Element und {1, 2, 3}das einzige größte und maximale Element. Für S = {{2}, {3}} sind {2, 3} und {1, 2, 3} obereSchranken und {2, 3} das Supremum von S. Betrachten wir hingegen (P({1, 2, 3}) \ {∅},⊆) sosind {1}, {2}, {3} minimale Elemente und es existiert kein kleinstes Element.

Satz 3.9. Sei (M,R) eine partiell geordnete Menge. Dann sind die größten/kleinsten Elementebzgl. R eindeutig bestimmt (falls sie existieren). Ebenso ist für S ⊆ M das Supremum/Infimumvon S eindeutig bestimmt (falls sie existieren). Wir schreiben maxM, minM, supS, inf S fürdas größte/kleinste Element in M, bzw. für das Supremum/Infimum von S.

Definition. Seien M,N zwei Mengen. M und N heißen gleichmächtig, falls es eine bijektiveAbbildung f : M → N gibt. Die Menge M heißt

(a) endlich, falls M = ∅ oder es n ∈ N gibt, so dass M und {1, 2, . . . , n} gleichmächtig sind,

(b) abzählbar unendlich, falls M und N gleichmächtig sind,

(c) überabzählbar, falls M nicht endlich oder abzählbar unendlich ist.

Satz 3.10. Sei M 6= ∅ eine Menge. Ist M endlich, so gibt es genau ein n ∈ N so, dass M und{1, . . . , n} gleichmächtig sind. Wir nennen dieses n die Kardinalität von M , geschrieben |M |.

Beispiel 3.11. Die Mengen Z,Q sind abzählbar unendlich. Die Mengen R,P(N) sind überab-zählbar.

Axiom 3.12 (Lemma von Zorn). Sei (M,R) eine nichtleere partiell geordnete Menge. Wirnehmen an, dass jede totalgeordnete Teilmenge von M eine obere Schranke besitzt. Dann hatM ein maximales Element.

Bemerkung 3.13. Das Lemma von Zorn ist, wie der Name schon sagt, kein Axiom, sondern eineäquivalente Aussage zu einem Axiom der Mengentheorie, dem Auswahlaxiom. Dieses besagt:Für jede Menge M und jede Partition Π ⊆ P(M) von M existiert A ⊆ M, so dass

∀B ∈ Π : |B ∩A| = 1.

Man kann also für jede Partition einer Menge M genau ein Element aus jeder Menge B dieserPartition auswählen.

16

Page 17: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

Teil II.

Algebraische Strukturen

17

Page 18: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

4. Gruppen, Ringe und Körper

Sei im folgenden G stets eine Menge.

Definition. Eine Funktion ◦ : G × G → G heißt (binäre) Operation auf G. Statt ◦(x, y)schreiben wir wie üblich x ◦ y. Wir nennen ◦

(a) assoziativ, falls ∀x, y, z ∈ G : (x ◦ y) ◦ z = x ◦ (y ◦ z),(b) kommutativ, falls ∀x, y ∈ G : x ◦ y = y ◦ x.

Beispiel 4.1. Sei AA := {f : A → A ; f Funktion}. Dann ist die Verknüpfung ◦ : AA ×AA →AA eine assoziative, aber i.A. nicht kommutative Operation.

Definition. Sei ◦ eine Operation auf G. Dann heißt

(a) (G, ◦) Halbgruppe, falls ◦ assoziativ ist.

(b) (G, ◦) Monoid, falls G Halbgruppe und ein neutrales Element existiert, d.h.

∃e ∈ G : ∀x ∈ G : x ◦ e = e ◦ x = x.

(c) (G, ◦) Gruppe, falls G Monoid und jedes Element ein Inverses besitzt, d.h.

∀x ∈ G ∃x−1 ∈ G : x ◦ x−1 = e.

(d) (G, ◦) abelsche Gruppe, falls G Gruppe und ◦ kommutativ ist.

Satz 4.2. Sei (G, ◦) ein Monoid. Dann ist das neutrale Element eindeutig bestimmt. Ist (G, ◦)eine Gruppe und x ∈ G, so ist das inverse Element eindeutig bestimmt und es gilt

x ◦ x−1 = x−1 ◦ x = e.

Ferner gilt (x ◦ y)−1 = y−1 ◦ x−1 und(x−1

)−1= x für alle x, y ∈ G.

Beweis. Sei zunächst G ein Monoid und seien e, e′ ∈ G neutrale Elemente. Dann gilt

e = e ◦ e′ = e′.

Sei nun G eine Gruppe, x ∈ G. Wir zeigen zunächst

x−1 ◦ x = e.

Es gilt

x−1◦x = x−1◦(x ◦ e) = x−1◦(x ◦(x−1 ◦

(x−1

)−1))

= x−1◦((

x ◦ x−1)◦(x−1

)−1)= x−1◦

(x−1

)−1= e.

18

Page 19: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

4. Gruppen, Ringe und Körper

Hieraus folgt auch die Eindeutigkeit des inversen Elements. Sei x∗ ∈ G ein inverse Elementevon x. Dann gilt

x−1 = x−1 ◦ e = x−1 ◦ (x ◦ x∗) = (x−1 ◦ x) ◦ x∗ = e ◦ x∗ = x∗.

Aus x ◦ x−1 = e folgt hiermit auch(x−1

)−1= x. Für x, y ∈ G gilt

(x ◦ y) ◦ (y−1 ◦ x−1) =(x ◦ (y ◦ y−1)

)◦ x−1 = (x ◦ e) ◦ x−1 = x ◦ x−1 = e

und daher (x ◦ y)−1 = y−1 ◦ x−1.

Beispiel 4.3. (a) (Z,+), (Q,+) und (R,+) sind abelsche Gruppen, (N,+) ist ein kommutati-ves Monoid, jedoch keine Gruppe.

(b) Für eine Menge A ist({f ∈ AA ; f bijektiv}, ◦

)eine (i.A. nicht abelsche) Gruppe.

Definition. Sei (G, ◦) eine Gruppe. Eine Menge U ⊆ G heißt Untergruppe von G (SymbolU ≤ G, oder genauer (U, ◦) ≤ (G, ◦)), falls

(a) e ∈ U,

(b) ∀x ∈ U : x−1 ∈ U,

(c) ∀x, y ∈ U : x ◦ y ∈ U.

Bemerkung 4.4. Offenbar gilt für eine Untergruppe U , dass (U, ◦) selbst eine Gruppe ist.

Beispiel 4.5. (a) (Z,+) ≤ (Q,+) ≤ (R,+).

(b) Ist (G, ◦) eine Gruppe, so sind {e}, G Untergruppen.

Definition. Sei (G, ◦) eine Gruppe und U ≤ G. Sei a ∈ G. Dann bezeichnen wir

a ◦ U := {a ◦ x ; x ∈ U}

als Linksnebenklasse von U unter a, sowie

U ◦ a := {x ◦ a ; x ∈ U}

als Rechtsnebenklasse von U unter a.

Satz 4.6. Sei (G, ◦) eine Gruppe und U ≤ G. Dann gilt

(a) Die Relation ∼U⊆ G×G definiert durch

a ∼U b :⇔ a ◦ U = b ◦ U

ist eine Äquivalenzrelation auf G.

(b) Für a, b ∈ G sind äquivalent

(i) a ∼U b,

(ii) a ∈ b ◦ U,(iii) b−1 ◦ a ∈ U.

19

Page 20: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

4. Gruppen, Ringe und Körper

Beweis. (a) Übung.

(b) (i) ⇒ (ii): Da e ∈ U, folgt a = a ◦ e ∈ a ◦ U = b ◦ U .(ii) ⇒(iii): Es gibt u ∈ U mit a = b ◦ u. Damit gilt

b−1 ◦ a = b−1 ◦ (b ◦ u) = (b−1 ◦ b) ◦ u = e ◦ u = u ∈ U.

(iii) ⇒(i): Sei u ∈ U. Dann gilt

a ◦ u = b ◦

(b−1 ◦ a

)︸ ︷︷ ︸

∈U

◦u

︸ ︷︷ ︸∈U

∈ b ◦ U

und daher a ◦ U ⊆ b ◦ U . Da ebenso a−1 ◦ b = (b−1 ◦ a)−1 ∈ U, folgt mit der gleichenArgumentation auch b ◦ U ⊆ a ◦ U.

Definition. Sei (G, ◦) eine Gruppe und U ≤ G. U heißt Normalteiler von G, falls

∀a ∈ G : a ◦ U = U ◦ a.

Bemerkung 4.7. Ist (G, ◦) eine abelsche Gruppe, so ist jede Untergruppe ein Normalteiler vonG.

Satz 4.8. Sei (G, ◦) eine Gruppe und U ≤ G. U ist genau dann ein Normalteiler von G, wenn

∀a ∈ G : a ◦ U ◦ a−1 ⊆ U.

Beweis. Ist U Normalteiler, so gilt für u ∈ U, a ∈ G, dass a ◦ u ∈ U ◦ a, also gibt es v ∈ U mita ◦ u = v ◦ a. Damit ist a ◦ u ◦ a−1 = v ∈ U, also

a ◦ U ◦ a−1 ⊆ U.

Gelte nun umgekehrt a ◦ U ◦ a−1 ⊆ für alle a ∈ G. Sei u ∈ U. Dann gibt es w ∈ U , so dassa ◦ u ◦ a−1 = w und damit a ◦ u = w ◦ a ∈ U ◦ a also, a ◦U ⊆ U ◦ a. Da ebenso a−1 ◦U ◦ a ⊆ Ugilt, existiert v ∈ U, so dass a−1 ◦ u ◦ a = v und damit u ◦ a = a ◦ v ∈ a ◦ U, was U ◦ a ⊆ a ◦ Ubeweist. Daher gilt a ◦ U = U ◦ a und U ist ein Normalteiler.

Satz 4.9. Sei (G, ◦) eine Gruppe und N ≤ G ein Normalteiler. Wir betrachten die Äquivalenz-relation ∼N aus Satz 4.6 (a). Dann ist

◦ : G�∼N ×G�∼N → G�∼N

([x], [y]) 7→ [x ◦ y]

eine wohldefinierte Operation und(G�∼N , ◦

)ist eine Gruppe, die Faktorgruppe von G modulo

N (Symbol: G�N). Ist (G, ◦) eine abelsche Gruppe, so auch (G�N, ◦)

20

Page 21: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

4. Gruppen, Ringe und Körper

Beweis. Wir zeigen zunächst die Wohldefiniertheit von ◦. Seien dazu x, x′, y, y′ ∈ G mit x ∼N x′

und y ∼N y′. Wir müssen zeigen, dass dann x ◦ y ∼N x′ ◦ y′ gilt. Nach Satz 4.6 (b) gibt esu, v ∈ N, so dass

x = x′ ◦ u, y = y′ ◦ v.Da N ein Normalteiler ist, gilt N ◦ y′ = y′ ◦N und daher gibt es w ∈ N mit

u ◦ y′ = y′ ◦ w.

Damit giltx ◦ y = x′ ◦ u ◦ y′ ◦ v = x′ ◦ y′ ◦ w ◦ v ∈

(x′ ◦ y′

)◦N

und damit x ◦ y ∼N x′ ◦ y′ nach Satz 4.6 (b).Wir zeigen nun die Gruppeneigenschaften von G�N. Zunächst ist ◦ offenbar assoziativ, da

([x] ◦ [y]) ◦ [z] = [x ◦ y] ◦ z = [(x ◦ y) ◦ z] = [x ◦ (y ◦ z)] = [x] ◦ [y ◦ z] = [x] ◦ ([y] ◦ [z])

für x, y, z ∈ G gilt. Es gilt

[x] ◦ [e] = [x ◦ e] = [x] = [e ◦ x] = [e] ◦ [x]

und damit ist [e] das neutrale Element. Außerdem gilt

[x] ◦ [x−1] = [x ◦ x−1] = [e]

und somit ist [x−1] das zu [x] inverse Element.Die Kommutativität von ◦ vererbt sich genau so wie die Assoziativität.

Beispiel 4.10. Wir betrachten die Menge N := {5 · k ; k ∈ Z}. Dann ist (N,+) ≤ (Z,+)(Übung!) und da (Z,+) abelsch ist, ist N ein Normalteiler. Wir erhalten für x, y ∈ Z

x ∼N y ⇔ x+ Z = y + Z ⇔ x− y ∈ N ⇔ ∃k ∈ Z : x− y = 5 · k ⇔ x ∼5 y

mit ∼5 aus Beispiel 3.4 (b). Somit ist

Z�N = {[0]∼5, [1]∼5

, [2]∼5, [3]∼5

, [4]∼5}

und es gilt zum Beispiel

[3]∼5+ [4]∼5

= [7]∼5= [2]∼5

[1]∼5+ [4]∼5

= [5]∼5= [0]∼5

,

also ist [4]∼5das additive Inverse zu [1]∼5

.

Definition. Seien (G, ◦) und (H,⊕) Gruppen. Eine Abbildung f : G → H heißt (Gruppen-)Homomorphismus, falls

∀x, y ∈ G : f(x ◦ y) = f(x)⊕ f(y).

Ist f zusätzlich bijektiv, so heißt f Isomorphismus und die Gruppen G und H heißen isomorph(Symbol: G ∼= H). Ist f : G → G ein Isomorphismus, so nennen wir f einen Automorphismus.

21

Page 22: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

4. Gruppen, Ringe und Körper

Beispiel 4.11. Die Abbildung

exp : (R,+) → (R \ {0}, ·)x 7→ ex

ist ein Homomorphismus, da

exp(x+ y) = ex+y = ex · ey = exp(x) · exp(y) (x, y ∈ R).

Satz 4.12. Seien (G, ◦) und (H,⊕) Gruppen, sowie f : G → H ein Homomorphismus. Danngilt

f(eG) = eH

und für x ∈ G giltf(x−1) = f(x)−1.

Insbesondere ist W (f) ≤ H.

Beweis. Es gilt f(eG) = f(eG ◦ eG) = f(eG)⊕ f(eG) und somit

eH = f(eG)⊕ f(eG)−1 = (f(eG)⊕ f(eG))⊕ f(eG)

−1 = f(eG).

Außerdem gilt für x ∈ G

f(x)⊕ f(x−1) = f(x ◦ x−1) = f(eG) = eH

und daher f(x−1) = f(x)−1.

Definition. Sei f : G → H ein Homomorphismus zwischen den Gruppen (G, ◦) und (H,⊕).Dann ist

ker f := {x ∈ G ; f(x) = eH}der Kern von f .

Satz 4.13. Sei f : G → H ein Homomorphismus zwischen den Gruppen (G, ◦) und (H,⊕).Dann ist ker f ein Normalteiler von G.

Beweis. Wir zeigen zunächst, dass ker f eine Untergruppe von G bildet. Sind x, y ∈ ker f, sogilt

f(x ◦ y) = f(x)⊕ f(y) = eH ⊕ eH = eH ,

also ist x ◦ y ∈ ker f. Außerdem gilt nach Satz 4.12 f(eG) = eH , also eG ∈ ker f. Schließlich giltfür x ∈ ker f mithilfe von Satz 4.12

f(x−1) = f(x)−1 = e−1H = eH ,

also ist auch x−1 ∈ ker f und somit ist ker f eine Untergruppe. Wir verwenden Satz 4.8,um zu zeigen, dass ker f ein Normalteiler ist. Sei a ∈ G und u ∈ ker f. Wir müssen zeigena ◦ u ◦ a−1 ∈ ker f. Dies folgt mit Satz 4.12 aus

f(a ◦ u ◦ a−1) = f(a) ◦ f(u)︸︷︷︸=eH

◦f(a−1) = f(a) ◦ f(a)−1 = eH .

22

Page 23: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

4. Gruppen, Ringe und Körper

Satz 4.14. Sei (G, ◦) eine Gruppe und N ≤ G ein Normalteiler. Dann ist

natN : G → G�Nx 7→ [x]

ein Homomorphismus mit ker natN = N.

Beweis. Es gilt für x, y ∈ G

natN (x ◦ y) = [x ◦ y] = [x] ◦ [y] = natN (x) ◦ natN (y),

also ist natN ein Homomorphismus. Sei nun x ∈ G. Dann gilt mit Satz 4.6 (b)

x ∈ ker natN ⇔ natN (x) = [eG]

⇔ x ∼N eG

⇔ x ∈ eG ◦N = N,

was die Gleichheit ker natN = N beweist.

Die letzten beiden Sätze besagen also, dass Normalteiler genau die Kerne von Homomorphismensind.

Theorem 4.15 (Homomorphiesatz). Seien (G, ◦), (H,⊕) Gruppen und f : G → H ein Homo-morphismus. Dann ist

f : G�ker f → W (f)

[x] 7→ f(x)

ein wohldefinierter Isomorphismus. Ferner gilt

f = f ◦ natker f .

Beweis. Wir zeigen zunächst die Wohldefiniertheit von f . Seien dazu x, y ∈ G mit [x] = [y],also x ∼ker f y. Wir müssen zeigen, dass f(x) = f(y) gilt. Da x ∼ker f y existiert ein u ∈ ker fmit x = y ◦ u. Da f ein Homomorphismus ist, folgt

f(x) = f(y ◦ u) = f(y)⊕ f(u) = f(y)⊕ eH = f(y).

Ferner ist f ein Homomorphismus, da

f([x] ◦ [y]) = f([x ◦ y]) = f(x ◦ y) = f(x)⊕ f(y) = f([x])⊕ f([y]).

Wir zeigen nun, dass f bijektiv ist. Die Surjektivität ist klar. Seien nun x, y ∈ G mit f([x]) =f([y]), also f(x) = f(y). Dann gilt

f(y−1 ◦ x) = f(y)−1 ⊕ f(x) = eH ,

23

Page 24: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

4. Gruppen, Ringe und Körper

also y−1 ◦ x ∈ ker f und daher x ∼ker f y nach Satz 4.6 (b). Damit gilt also [x] = [y] und somitist f injektiv, also insgesamt ein Isomorphismus. Für x ∈ G gilt

f(x) = f([x]) = f(natker f (x)) = f ◦ natker f (x).

Definition. Sei R eine Menge und + : R × R → R und · : R × R → R zwei Operationen aufR. Dann heißt,

(a) (R,+, ·) Ring, falls (R,+) abelsche Gruppe, · assoziativ und die Distributivgesetze gelten,also

∀x, y, z ∈ R : (x+ y) · z = x · z + y · z∀x, y, z ∈ R :x · (y + z) = x · y + x · z,

wobei wir vereinbaren, dass · stärker bindet als + („Punktrechnung geht vor Strichrech-nung“).

(b) (R,+, ·) kommutativer Ring, falls (R,+, ·) Ring und · kommutativ.

(c) (R,+, ·) Ring mit Eins, falls (R,+, ·) Ring und (R, ·) Monoid ist (wir nennen das neutraleElement bzgl. · 1).

(d) (R,+, ·) Schiefkörper, falls (R,+, ·) Ring und (R \ {0}, ·) Gruppe ist (hierbei ist 0 dasneutrale Element bzgl. +).

(e) (R,+, ·) Körper, falls (R,+, ·) kommutativer Schiefkörper.

Beispiel 4.16. (Z,+·) ist ein kommutativer Ring mit Eins, (Q,+, ·) und (R,+, ·) sind Körper.

Lemma 4.17. Sei (R,+, ·) ein Ring. Dann gilt

∀a ∈ R : a · 0 = 0 · a = 0.

Ist (R,+, ·) ein Schiefkörper, dann ist (R,+, ·) nullteilerfrei, d.h.

∀a, b ∈ R : a · b = 0 ⇒ a = 0 ∨ b = 0.

Beweis. Sei a ∈ R. Dann gilt

a · 0 = a · (0 + 0) = a · 0 + a · 0

und somit a · 0 = 0. Genauso zeigt man 0 · a = 0.Sei nun (R,+, ·) ein Schiefkörper und a, b ∈ R mit a · b = 0. Wir nehmen an, dass b 6= 0. Dannexistiert b−1 6= 0, das multiplikative Inverse von b. Dann folgt

a = a · b · b−1 = 0 · b−1 = 0.

24

Page 25: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

5. Vektorräume

Sei im Weiteren (K,+, ·) stets ein Körper. Wir bezeichnen die neutralen Elemente bzgl. + mit0 und bzgl. · mit 1. Ferner sei (−x) das additive Inverse zu x und x−1 das multiplikative Inversezu x 6= 0.

Definition. Eine Menge V heißt Vektorraum über K (kurz: K-Vektorraum), falls es Operatio-nen + : V × V → V und · : K× V → V mit folgenden Eigenschaften gibt:

(a) (V,+) ist abelsche Gruppe,

(b) Für alle λ, µ ∈ K und x, y ∈ V gilt

(λ+ µ) · x = λ · x+ µ · xλ · (x+ y) = λ · x+ λ · y.

(c) Für alle λ, µ ∈ K und x ∈ V gilt

(λ · µ) · x = λ · (µ · x).

(d) Für alle x ∈ V gilt1 · x = x.

Beispiel 5.1. K ist stets ein K-Vektorraum. Dementsprechend ist auch R ein R-Vektorraum.Wir können R aber auch als Q-Vektorraum auffassen.

Sei im weiteren V stets ein K-Vektorraum.

Lemma 5.2. Für λ ∈ K und x ∈ V gelten:

(a) λ · 0V = 0V .

(b) 0K · x = 0V .

(c) λ · (−x) = (−λ) · x = −(λ · x).(d) λ · x = 0V ⇒ λ = 0K ∨ x = 0V .

Beweis. (a) Es giltλ · 0V = λ · (0V + 0V ) = λ · 0V + λ · 0V

und daher λ · 0V = 0V .

(b) Es gilt

0K · x = (0K + 0K) · x = 0K · x+ 0K · x

und somit 0K · x = 0V .

25

Page 26: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

5. Vektorräume

(c) Es giltλ · (−x) + λ · x = λ · ((−x) + x) = λ · 0V = 0V

und somit λ · (−x) = −(λ · x). Ebenso gilt

(−λ) · x+ λ · x = ((−λ) + λ) · x = 0K · x = 0V ,

also (−λ) · x = −(λ · x).(d) Sei λ · x = 0V und gelte λ 6= 0. Dann folgt

0V = λ−1 · 0V = λ−1 · (λ · x) = (λ−1 · λ) · x = 1 · x = x.

Definition. Eine Menge U ⊆ V heißt Unterraum von V , falls (U,+) ⊆ (V,+) eine Untergruppeist und für alle λ ∈ K, x ∈ U gilt λ · x ∈ U (Symbol: U ≤ V ).

Satz 5.3. Sei U ⊆ V . Dann sind äquivalent

(i) U ≤ V ,

(ii) U bildet bzgl. der Einschränkungen von + und · einen K-Vektorraum,

(iii) U 6= ∅ und für alle x, y ∈ U, λ ∈ K gilt x+ y ∈ U und λ · x ∈ U .

Beweis. (i) ⇒ (ii): Sei U ≤ V . Dann ist (U,+) eine abelsche Gruppe. Ferner gilt · : K×U → Uper Voraussetzung. Die restlichen Eigenschaften eines K-Vektorraums vererben sich unmittelbarvon den Eigenschaften von V .(ii) ⇒ (iii): Da (U,+) eine abelsche Gruppe bildet, ist insbesondere U 6= ∅ (U enthält mindestensdas neutrale Element). Die beiden Eigenschaften sind Bestandteile der Vektorraum Definition.

(iii) ⇒ (i): Für jedes u ∈ U gilt U ∋ (−1) · u = −(1 · u) = −u. Außerdem existiert ein u ∈ Uund daher ist 0V = 0 ·u ∈ U. Da ferner u+ v ∈ U für u, v ∈ U gilt, ist (U,+) eine Untergruppevon (V,+). Da per Definition λ · x ∈ U für λ ∈ K und x ∈ U gilt, folgt U ≤ V.

Satz 5.4. Sei M eine Menge von Unterräumen von V. Dann ist⋂M ein Unterraum von V .

Beweis. Da für alle U ∈ M gilt 0V ∈ U, folgt 0V ∈ ⋂M und damit⋂M 6= ∅. Ferner gilt

für x, y ∈ ⋂M und λ ∈ K, dass x, y ∈ U für alle U ∈ M und daher x + y, λ · x ∈ U für alleU ∈ M. Damit gilt x+ y, λ · x ∈ ⋂M und somit ist

⋂M ein Unterraum nach Satz 5.3.

Definition. Sei M ⊆ V. Dann definieren wir

linM :=⋂

{U ≤ V ; M ⊆ U}

die lineare Hülle von M (der kleinste Unterraum, der M enthält).

Bemerkung 5.5. Wir bemerken, dass stets V ∈ {U ≤ V ; M ⊆ U} , somit ist der Schnitt alsonicht leer. Ferner gilt lin ∅ = {0V }.

Satz 5.6. Sei M ⊆ V nicht leer. Dann gilt

linM =

{n∑

i=0

λi · xi ; n ∈ N, λi ∈ K, xi ∈ M

}.

26

Page 27: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

5. Vektorräume

Beweis. Wir setzen W := {∑ni=0 λi · xi ; n ∈ N, λi ∈ K, xi ∈ M} und beweisen M ⊆ W und

W ≤ V . Zunächst gilt M ⊆ W, da für x ∈ M gilt x = 1 · x ∈ W. Insbesondere ist W 6= ∅, daM 6= ∅. Seien nun x, y ∈ W,κ ∈ K. Dann existieren m,n ∈ N, λ0, . . . , λn, µ0, . . . , µm ∈ K sowieu0, . . . , un, v0, . . . , vm ∈ M mit

x =n∑

i=0

λi · ui,

y =m∑

i=0

µi · vi.

Dann gilt

x+ y =

n+m+1∑

i=0

ϕi · wi,

mit

ϕi :=

{λi falls i ∈ {0, . . . , n},µi−n−1 falls i ∈ {n+ 1, . . . , n+m+ 1}

, wi :=

{ui falls i ∈ {0, . . . , n},vi−n−1 falls i ∈ {n+ 1, . . . , n+m+ 1}

.

Somit gilt x+ y ∈ W. Ebenso gilt

κ · x =n∑

i=0

(κ · λi) · ui ∈ W

und daher ist nach Satz 5.3 W ≤ V. Somit gilt W ∈ {U ≤ V ; M ⊆ U} und daher linM ⊆ W.Sei umgekehrt U ≤ V mit M ⊆ U. Dann gilt für n ∈ N, λ0, . . . , λn ∈ K, x0, . . . , xn ∈ M ⊆ U

n∑

i=0

λixi ∈ U

und daher W ⊆ U. Da dies für jedes U ≤ V mit M ⊆ U gilt, folgt W ⊆ linM und insgesamtdaher W = linM.

Definition. Sei M ⊆ V. Dann heißt M

(a) ein Erzeugendensystem von V , falls linM = V.

(b) linear unabhängig, falls für alle u ∈ M gilt u /∈ lin (M \ {u}) .(c) linear abhängig, falls M nicht linear unabhängig ist.

(d) Basis von V , falls M ein linear unabhängiges Erzeugendensystem von V ist.

Satz 5.7. Sei M ⊆ V. M ist genau dann linear unabhängig, wenn für alle n ∈ N, u0, . . . , un ∈U, λ0, . . . , λn ∈ K mit ui 6= uj für i 6= j gilt

n∑

i=0

λi · ui = 0V ⇒ λ0 = . . . = λn = 0K.

27

Page 28: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

5. Vektorräume

Beweis. Sei M linear unabhängig und seien ui ∈ U, λi ∈ K wie oben gewählt mit∑n

i=0 λi ·ui =0V . Wir nehmen an, es gibt j ∈ {0, . . . , n} mit λj 6= 0. Dann gilt

−λj · uj =∑

i 6=j

λi · ui

und da λj 6= 0 folgt

uj =∑

i 6=j

(−λ−1j · λi) · ui ∈ linM \ {uj}.

Dies widerspricht der linearen Unabhängigkeit von M und somit gilt λj = 0 für alle j ∈{0, . . . , n}. Gelte nun umgekehrt die Implikation. Wir nehmen an, es existiert u ∈ M mitu ∈ lin (M \ {u}).Ist M \ {u} 6= ∅, so existieren nach Satz 5.6 n ∈ N, u0, . . . , un ∈ U, λ0, . . . , λn ∈ K mit ui 6= ujfür i 6= j (sonst zusammenfassen und die λi anpassen) mit

u =n∑

i=0

λiui.

Damit giltn+1∑

i=0

λiui = 0V ,

wobei λn+1 := −1 und un+1 := u. Demnach gilt aber λ0 = . . . = λn = λn+1 = 0 nachVoraussetzung im Widerspruch zu λn+1 = −1.Ist nun M \ {u} = ∅, so folgt u ∈ lin ∅ = {0V }, also u = 0V . Also gilt 0V ∈ M. Für diesesElement gilt aber λ·0V = 0K für alle λ ∈ K, insbesondere für λ = 1 6= 0K, was der Voraussetzungwiderspricht.Somit existiert also kein u ∈ M mit u ∈ lin(M \ {u}) und daher ist M linear unabhängig.

Lemma 5.8. Sei M ⊆ V linear unabhängig und x /∈ linM. Dann ist M∪{x} linear unabhängig.

Beweis. Wir betrachten die Menge N := M⋃{x} und zeigen, dass N linear unabhängig ist.

Seien dazu n ∈ N, u0, . . . , un ∈ N,λ0, . . . , λn ∈ K mit ui 6= uj und∑n

i=0 λi · ui = 0V . Giltui 6= x für alle i ∈ {0, . . . , n}, so folgt λ0 = . . . = λn = 0K wegen der linearen Unabhängigkeitvon M . Gilt uj = x für ein j ∈ {0, . . . , n}, so folgt

−λj · x =∑

i 6=j

λi · ui ∈ linM.

Somit folgt λj = 0, da andernfalls x ∈ linM gelten würde. Damit gilt∑

i 6=j λi · ui = 0und aus der linearen Unabhängigkeit von M wiederum λi = 0 für i 6= j. Somit ist N linearunabhängig.

Satz 5.9. Sei M ⊆ V. Dann sind äquivalent:

(i) M ist Basis von V ,

(ii) M ist bzgl. ⊆ ein minimales Erzeugendensystem,

(iii) M ist bzgl. ⊆ eine maximale linear unabhängige Menge.

28

Page 29: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

5. Vektorräume

Beweis. (i) ⇒ (ii). Sei N ⊆ V ein Erzeugendensystem mit N ⊆ M. Wir nehmen an, es giltM 6= N. Dann existiert ein x ∈ M mit x /∈ N. Dann gilt N ⊆ M \ {x} und da x ∈ linN = V,folgt x ∈ lin (M \ {x}) , was der linearen Unabhängigkeit von M widerspricht. Demnach giltalso N = M und M ist minimal.(ii) ⇒ (iii): Wir zeigen zunächst, dass M linear unabhängig ist. Sei dazu x ∈ M. Wir nehmenan x ∈ lin(M \ {x}) und zeigen zunächst linM = lin(M \ {x}). Die Inklusion ⊇ ist klar. Nunist lin(M \ {x}) ein Unterraum mit M = {x} ∪ M \ {x} ⊆ lin(M \ {x}) und somit linM ⊆lin(M \ {x}). Daher ist lin(M \ {x}) = linM = V, und somit M \ {x} ein Erzeugendensystem.Dies widerspricht allerdings der Minimalität von M und somit ist M linear unabhängig.Wir zeigen nun, dass M eine maximale linear unabhängige Menge ist. Sei dazu N ⊆ V linearunabhängig mit M ⊆ N. Wir nehmen wieder an M 6= N, also existiert x ∈ N mit x /∈ M, alsoM ⊆ N \ {x}. Nun gilt aber

x ∈ linM ⊆ lin(N \ {x}),was der linearen Unabhängigkeit von N widerspricht. Also gilt M = N und M ist maximal.(iii) ⇒ (i): Es bleibt zu zeigen, dass M ein Erzeugendensystem ist. Wir nehmen an, es gibtx ∈ V mit x /∈ linM. Dann ist M∪{x} nach Lemma 5.8 linear unabhängig, was der Maximalitätvon M widerspricht. Daher ist M ein Erzeugendensystem.

Theorem 5.10. Sei M ⊆ V linear unabhängig und E ⊆ V ein Erzeugendensystem mit M ⊆ E.Dann existiert eine Basis B von V mit M ⊆ B ⊆ E. Insbesondere besitzt jeder Vektorraumeine Basis.

Beweis. Wir betrachten die Menge M ⊆ P(V ) definiert durch

M := {U ⊆ V ; U lin. unabh.,M ⊆ U ⊆ E} .

Dann ist (M,⊆) eine partiell geordnete Menge und M 6= ∅, da M ∈ M. Sei nun K ⊆ M totalgeordnet. Wir betrachten

W :=⋃

Kund zeigen W ∈ M. Offenbar gilt M ⊆ W ⊆ E. Wir müssen nun noch die lineare Unabhän-gigkeit von W zeigen. Sei dazu n ∈ N, x0, . . . , xn ∈ W,λ0, . . . , λn ∈ K mit xi 6= xj für i 6= jund

∑ni=0 λi · xi = 0V . Dann existiert zu jedem i ∈ {0, . . . , n} ein Ki ∈ K mit xi ∈ Ki. Da K

total geordnet ist, existiert ein j ∈ {0, . . . , n} mit Ki ⊆ Kj für alle i ∈ {0, . . . , n}. Somit giltalso xi ∈ Kj für alle i ∈ {0, . . . , n} und aus der linearen Unabhängigkeit von Kj folgern wirλ0 = . . . = λn = 0. Also ist W linear unabhängig und daher eine obere Schranke von K.Nach dem Lemma von Zorn (Axiom 3.12) besitzt M ein maximales Element B. Dieses Elementist offenbar linear unabhängig. Wir nehmen an, dass linB 6= V. Dann gib es ein Element x ∈ Emit x /∈ linB (sonst wäre E ⊆ linB und daher V = linE ⊆ linB). Nach Lemma 5.8 ist B∪{x}linear unabhängig und es gilt M ⊆ B ∪ {x} ⊆ E, also B ∪ {x} ∈ M. Aus der Maximalität vonB folgt nun B = B ∪ {x}, also x ∈ B, im Widerspruch zu x /∈ linB. Damit ist B eine Basis.Die Existenz einer Basis von V folgt für die Wahl M = ∅, E = V.

Satz 5.11 (Basisaustauschsatz). Seien B,C Basen von V und b ∈ B. Dann gilt C \ lin(B \{b}) 6= ∅ und für c ∈ C \ lin(B \ {b}) ist B′ := B \ {b} ∪ {c} eine Basis von V .

Beweis. Annahme: C \ lin(B \ {b}) = ∅. Dann gilt C ⊆ lin(B \ {b}) und daher V = linC ⊆lin(B \ {b}). Somit ist B \ {b} ein Erzeugendensystem, was der Minimalität von B nach Satz

29

Page 30: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

5. Vektorräume

5.9 widerspricht. Also gilt C \ lin(B \ {b}) 6= ∅.Sei nun c ∈ C \ lin(B \ {b}). Dann ist nach Lemma 5.8 B′ = B \ {b} ∪ {c} linear unabhängig.Wir zeigen nun, dass B′ ein Erzeugendensystem ist. Dazu genügt es zu zeigen, dass b ∈ linB′,da dann V = linB = lin(B \ {b} ∪ {b}) ⊆ linB′. Da B eine Basis ist, existieren b0, . . . , bn ∈B \ {b}, λ0, . . . , λn ∈ K sowie λ ∈ K mit

c =

n∑

i=0

λi · bi + λ · b.

Es folgt λ 6= 0, da sonst c ∈ lin(B \ {b}). Somit gilt also

b = λ−1 · c+n∑

i=0

(−λ−1 · λi) · bi ∈ linB′

und damit ist B′ ein Erzeugendensystem.

Korollar 5.12. Sei V ein Vektorraum und B,C Basen. Ist B endlich so auch C mit |B| = |C|.

Beweis. Sei B = {b0, . . . , bn} mit bi 6= bj für i 6= j. Nach Basisaustauschsatz existiert ein c0 ∈ C,so dass C0 := {c0, b1, . . . , bn} eine Basis mit |C0| = |B| ist. Wenden wir den Basisaustauschsatzn weitere Male an, so erhalten wir eine Basis Cn := {c0, c1, . . . , cn} ⊆ C. Da C und Cn Basensind, folgt aus Satz 5.9 Cn = C und damit ist |C| = |Cn| = |B|.

Definition. Wir nennen einen Vektorraum V endlich-dimensional, falls es eine endliche BasisB ⊆ V von V gibt. In diesem Fall nennen wir dimV := |B| die Dimension von V . Existiertkeine endliche Basis von V, so nennen wir V unendlich-dimensional und schreiben dimV = ∞.

Beispiel 5.13. Der Raum Q-Vektorraum R ist unendlich dimensional. Hingegen ist R alsR-Vektorraum eindimensional.

Satz 5.14. Sei V endlich-dimensional und U ≤ V. Dann gilt dimU ≤ dimV und dimU =dimV genau dann, wenn U = V.

Beweis. Sei B eine Basis von U. Dann ist B ⊆ V linear unabhängig und nach Theorem 5.10gibt es eine Basis C von V mit B ⊆ C. Damit gilt |B| ≤ |C| und somit dimU ≤ dimV .Ist nun dimU = dimV, so ist B eine maximale linear unabhängige Menge in V und daher eineBasis. Also gilt V = linB = U.

Lemma 5.15. Sei V endlich-dimensional und M ⊆ V . Dann gilt

(a) ist M linear unabhängig, dann ist |M | ≤ dimV.

(b) ist M ein Erzeugendensystem, dann gilt |M | ≥ dimV.

Beweis. (a) Nach Theorem 5.10 existiert eine Basis B von V mit M ⊆ B ⊆ V. Daher gilt|M | ≤ |B| = dimV.

(b) Nach Theorem 5.10 existiert eine Basis B von V mit ∅ ⊆ B ⊆ M und daher dimV = |B| ≤|M |.

30

Page 31: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

5. Vektorräume

Satz 5.16. Sei U ≤ V . Wir definieren auf V�U (vgl. Satz 4.9) die Operationen

[v] + [w] := [v + w] (v, w ∈ V )

λ · [v] := [λ · v] (v ∈ V, λ ∈ K).

Die Operationen sind wohldefiniert und V�U ist ein Vektorraum

Beweis. Aus Satz 4.9 wissen wir bereits, dass(V�U,+

)eine abelsche Gruppe ist. Zur Wohl-

definiertheit von · seien v, v′ ∈ V mit v ∼U v′ und λ ∈ K. Dann gilt

λ · v − λ · v′ = λ · (v − v′) ∈ U

und somit λ · v ∼U λ · v′ nach Satz 4.6. Man rechnet leicht nach, dass die Eigenschaften einesVektorraums für V�U gelten.

Satz 5.17. Sei V endlich-dimensional und U ≤ V. Dann gilt

dimV�U = dimV − dimU.

Beweis. Sei B = {b1, . . . , bk} eine Basis von U . Nach Theorem 5.10 lässt sich diese zu einerBasis B′ = {b1, . . . , bk, bk+1, . . . , bn} von V erweitern. Wir betrachten nun die Menge

C := {[bk+1], . . . , [bn]} ⊆ V�U

und zeigen, dass C eine Basis bildet. Seien λk+1, . . . , λn ∈ K mit

n∑

i=k+1

λi · [bi] = [0].

Dann gilt∑n

i=k+1 λi · bi ∼U 0, also∑n

i=k+1 λi · bi ∈ U. Somit existieren µ1, . . . , µk ∈ K mit

n∑

i=k+1

λi · bi =k∑

j=1

µj · bj

und damitn∑

i=1

κi · bi = 0

mit

κi =

{λi i ∈ {k + 1, . . . , n},−µi i ∈ {1, . . . , k}.

Aus der linearen Unabhängigkeit von B′ folgt κ1 = . . . = κn = 0 und damit insbesondereλk+1 = . . . = λn = 0, also ist C linear unabhängig. Sei nun v ∈ V. Dann existieren λ1, . . . , λn ∈K mit

v =n∑

i=1

λi · bi.

31

Page 32: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

5. Vektorräume

Dann ist

v −n∑

i=k+1

λi · bi =k∑

i=1

λi · bi ∈ U

und daher [v] =[∑n

i=k+1 λi · bi]=∑n

i=k+1 λi · [bi] und damit ist C ein Erzeugendensystem.Somit gilt

dimV�U = |C| = n− k = dimV − dimU.

Satz 5.18. Seien V,W K-Vektorräume. Dann ist V×W ein K-Vektorraum mit den Operationen

(x, a) + (y, b) := (x+ y, a+ b)

λ · (x, a) := (λ · x, λ · a)

für x, y ∈ V, a, b ∈ W,λ ∈ K. Sind V,W endlich-dimensional, so ist V ×W endlich-dimensionalmit dimV ×W = dimV + dimW.

Beweis. Die Vektorraum Eigenschaften für V ×W lassen sich leicht nachrechnen. Sind B ⊆ Vund C ⊆ W Basen von V bzw. W , so ist D := {(b, 0) ; b ∈ B} ∪ {(0, c) ; c ∈ C} eine Basis vonV ×W (Übung!). Somit gilt

dim(V ×W ) = |D| = |B|+ |C| = dimV + dimW.

Beispiel 5.19. K2 = K×K ist ein 2-dimensionaler K-Vektorraum. Demnach ist K3 = K2×K ein3-dimensionaler K-Vektorraum und allgemein für n ∈ N Kn+1 = Kn×K ein n+1-dimensionalerK-Vektorraum, wobei wir K0 := {0} setzen.

Definition. Seien V,W K-Vektorräume und f : V → W. f heißt linear, falls für alle x, y ∈ Vund λ ∈ K gilt

f(x+ y) = f(x) + f(y), f(λ · x) = λ · f(x).f heißt (Vektorraum-)Isomorphismus, falls f linear und bijektiv ist.

Lemma 5.20. Seien V,W K-Vektorräume und f : V → W linear. Dann ist

ker f = {x ∈ V ; f(x) = 0}

eine Unterraum von V . Ferner ist f genau dann injektiv, wenn ker f = {0}.

Beweis. Seien x, y ∈ ker f und λ ∈ K. Dann gilt f(x + y) = f(x) + f(y) = 0 + 0 = 0 undf(λ · x) = λ · f(x) = λ · 0 = 0 und somit ist ker f ein Unterraum nach Satz 5.3.Sei nun f injektiv und x ∈ ker f. Dann gilt

f(x) = 0 = f(0)

und somit x = 0, also ker f = {0}. Gelte umgekehrt ker f = {0}. Seien x, y ∈ V mit f(x) =f(y). Dann ist f(x− y) = f(x)− f(y) = 0, also x− y ∈ ker f und daher x− y = 0, also x = y.Somit ist f injektiv.

32

Page 33: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

5. Vektorräume

Lemma 5.21. Sei U ≤ V . Dann ist

natU : V → V�Ux 7→ [x]

linear mit ker natU = U.

Beweis. Übung (vgl. Satz 4.14).

Satz 5.22 (Homomorphiesatz für Vektorräume). Seien V,W K-Vektorräume und f : V → Wlinear. Dann ist W (f) ≤ W und

f : V�ker f → W (f)

[x] 7→ f(x)

ein Vektorraum-Isomorphismus. Ferner gilt

f = f ◦ natker f .

Beweis. Wortwörtlich wie beim Homomorphiesatz (Theorem 4.15).

Lemma 5.23. Seien V,W K-Vektorräume, f : V → W linear.

(a) Sei M ⊆ V linear unabhängig und f injektiv. Dann ist f [M ] linear unabhängig.

(b) Sei E ⊆ V ein Erzeugendensystem von V und f surjektiv. Dann ist f [E] ein Erzeugenden-system von W .

(c) Sei B ⊆ V eine Basis von V und f bijektiv. Dann ist f [B] eine Basis von W .

Beweis. (a) Seien n ∈ N, x0, . . . , xn ∈ M,λ0, . . . , λn ∈ K mit

n∑

i=0

λi · f(xi) = 0.

Dann gilt∑n

i=0 λi · xi ∈ ker f = {0} und somit aufgrund der linearen Unabhängigkeit vonM , λ0 = . . . = λn = 0. Damit ist f [M ] linear unabhängig.

(b) Aus der Linearität von f folgtf [linM ] = lin f [M ]

für M ⊆ V und somitlin f [E] = f [linE] = f [V ] = W,

da f surjektiv.

(c) Nach (a) und (b) ist f [B] ein linear unabhängiges Erzeugendensystem von W , mit anderenWorten eine Basis von W .

33

Page 34: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

5. Vektorräume

Korollar 5.24. Seien V,W K-Vektorräume mit V endlich-dimensional. Sei f : V → W einVektorraum-Isomorphismus. Dann ist W endlich-dimensional mit dimV = dimW.

Definition. Seien V,W K-Vektorräume und f : V → W linear. Dann heißt

rang f := dimW (f)

der Rang von f .

Satz 5.25. Seien V,W endlich-dimensionale K-Vektorräume und f : V → W linear. Dann ist

rang f = dimV − dimker f.

Beweis. Nach Satz 5.22 sind V�ker f und W (f) isomorphe Vektorräume. Somit gilt nach Ko-rollar 5.24

rang f = dimW (f) = dimV�ker f = dimV − dimker f,

wobei die letzte Gleichheit nach Satz 5.17 gilt.

Korollar 5.26. Seien V,W endlich-dimensionale K-Vektorräume mit dimV = dimW undf : V → W linear. Dann ist f genau dann injektiv, wenn f surjektiv ist.

Beweis. Es gilt nach Lemma 5.20

f injektiv ⇔ ker f = {0} ⇔ dimker f = 0.

Nun gilt nach Satz 5.25dimker f = 0 ⇔ dimV = rang f

und da dimV = dimW, folgt

dimker f = 0 ⇔ dimW = rang f = dimW (f).

Letzteres ist aber nach Satz 5.14 äquivalent zu W (f) = W, und somit folgt die Behauptung.

Satz 5.27 (Dimensionssatz für Unterräume). Sei V ein endlich-dimensionaler K-Vektorraumund U,W ≤ V. Dann ist U +W := {u+ w ; u ∈ U,w ∈ W} ≤ V und es gilt

dim(U +W ) = dimU + dimW − dimU ∩W.

Beweis. Dass U + W ≤ V gilt, folgt leicht aus Satz 5.3. Wir betrachten nun die folgendeAbbildung

f : U ×W → U +W

(u,w) 7→ u+ w.

Dann ist f offenbar linear und somit gilt nach Satz 5.25

rang f = dim(U ×W )− dimker f.

34

Page 35: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

5. Vektorräume

Nun ist f offenbar surjektiv, daher

dim(U +W ) = dim(U ×W )− dimker f = dimU + dimW − dimker f,

nach Satz 5.18. Es verbleibt also

dimker f = dim(U ∩W )

zu zeigen. Es gilt

(u,w) ∈ ker f ⇔ u+ w = 0

⇔ u = −w ∈ U ∩W,

alsoker f = {(u,−u) ; u ∈ U ∩W}.

Nun ist

g : U ∩W → ker f

u 7→ (u,−u)

ein Vektorraum-Isomorphismus und somit nach Korollar 5.24

dimker f = dimU ∩W.

35

Page 36: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

Teil III.

Matrizen

36

Page 37: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

6. Grundlegende Definitionen

Seien k,m, n ∈ N \ {0} und K ein Körper.

Definition. Wir definieren

Km×n := K{1,...,m}×{1,...,n} = {A : {1, . . . ,m} × {1, . . . , n} → K}

die Menge der m× n Matrizen über K. Für A ∈ Km×n schreiben wir statt A(i, j) auch aij undnotieren A durch

A =

a11 a12 · · · a1na21 a22 · · · a2n...

.... . .

...am1 am2 · · · amn

.

Wir sagen auch: A ist eine Matrix vom Typ (m,n).

Bemerkung 6.1. Wir hatten Km als Vektorraum durch die Menge K× . . .×K︸ ︷︷ ︸m mal

definiert. Letz-

teres können wir auch als K{1,...,m} auffassen, indem wir für x ∈ K{1,...,m} wie oben xi := x(i)schreiben und dann mit dem Tupel (x1, . . . , xm) identifizieren. Dies lässt sich wiederum mitKm×1 identifizieren über x(i, 1) := x(i) = xi und somit ergibt sich in Matrixschreibweise

x =

x1x2...

xm

.

Wir identifizieren also zukünftig Elemente aus Km mit Matrizen vom Typ (m, 1), also mitSpaltenvektoren.

Satz 6.2. Für A,B ∈ Km×n definieren wir A+B ∈ Km×n durch

A+B =

a11 + b11 a12 + b12 · · · a1n + b1na21 + b21 a22 + b22 · · · a2n + b2n

......

. . ....

am1 + bm1 am2 + bm2 · · · amn + bmn

.

Ferner setzen wir für λ ∈ K

λ ·A :=

λa11 λa12 · · · λa1nλa21 λa22 · · · λa2n

......

. . ....

λam1 λam2 · · · λamn

.

37

Page 38: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

6. Grundlegende Definitionen

Mit diesen Operationen wird Km×n zu einem K−Vektorraum der Dimension m · n.

Beweis. Offensichtlich ist (Km×n,+) eine abelsche Gruppe mit neutralem Element

0 0 · · · 00 0 · · · 0...

.... . .

...0 0 · · · 0

und inversen Elementen

−a11 −a12 · · · −a1n−a21 −a22 · · · −a2n

......

. . ....

−am1 −am2 · · · −amn

.

Die restlichen Eigenschaften eines Vektorraums ergeben sich unmittelbar aus den Rechenregelnin Körpern (Übung!). Kommen wir nun zur Dimension. Wir zeigen, dass die Matrizen Ekℓ fürk ∈ {1, . . . ,m}, ℓ ∈ {1, . . . , n} definiert durch

Ekℓ(i, j) :=

{1 falls i = k und j = ℓ,

0 sonst

eine Basis von Km×n bilden. Offenbar gilt für A ∈ Km×n

A = a11E11 + a12E12 + . . .+ amnEmn

und daher ist B := {Ekℓ ; k ∈ {1, . . . ,m}, ℓ ∈ {1, . . . , n}} ein Erzeugendensystem von Km×n.Seien nun λ11, . . . , λmn ∈ K mit

λ11 · E11 + λ12 · E12 + . . .+ λmn · Emn = 0,

also

0 0 · · · 00 0 · · · 0...

.... . .

...0 0 · · · 0

=

λ11 λ12 · · · λ1n

λ21 λ22 · · · λ2n...

.... . .

...λm1 λm2 · · · λmn

und somit λ11 = λ12 = . . . = λmn = 0, also ist B linear unabhängig und somit eine Basis. Da|B| = m · n, folgt dimKm×n = m · n.

Wir definieren nun noch eine weitere Operationen auf Matrizen, die Matrixmultiplikation.

Definition. Seien A ∈ Kk×m, B ∈ Km×n. Dann definieren wir C = A ·B ∈ Kk×n durch

cij :=m∑

ℓ=1

aiℓ · bℓj

für i ∈ {1, . . . k}, j ∈ {1, . . . , n}.

38

Page 39: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

6. Grundlegende Definitionen

Beispiel 6.3. Sei K = R und

A =

1 32 41 1

, B =

(1 31 4

).

Dann ist

A ·B =

1 · 1 + 3 · 1 1 · 3 + 3 · 42 · 1 + 4 · 1 2 · 3 + 4 · 41 · 1 + 1 · 1 1 · 3 + 1 · 4

=

4 156 222 7

.

Das Produkt B ·A ist nicht definiert!

Lemma 6.4. Sei r ∈ N \ {0} und A ∈ Kk×m, B, B ∈ Km×n, C ∈ Kn×r. Dann gelten

(A ·B) · C = A · (B · C)

A · (B + B) = A ·B +A · B(B + B) · C = B · C + B · C,

wobei wir vereinbaren, dass · stärker bindet als +.

Beweis. Einfaches Nachrechnen. Zum Beispiel gilt

(A · (B + B)

)(i, j) =

m∑

ℓ=1

aiℓ · (bℓj+ bℓj) =

m∑

ℓ=1

aiℓ ·bℓj+m∑

ℓ=1

aiℓ · bℓj = (A ·B) (i, j)+(A · B)(i, j)

für alle i ∈ {1, . . . , k}, j ∈ [1, . . . , n}.

Satz 6.5. (Kn×n,+, ·) ist ein Ring mit Eins. Das neutrale Element bzgl. der Multiplikation istgegeben durch

En :=

1 0 · · · 00 1 · · · 0...

.... . .

...0 0 · · · 1

,

die Einheitsmatrix.

Beweis. Nach Satz 6.2 ist (Kn×n,+) eine abelsche Gruppe. Außerdem ist · assoziativ und esgelten die Distributivgesetze nach Lemma 6.4. Somit ist (Kn×n,+, ·) ein Ring. Ferner rechnetman leicht nach, dass En das neutrale Element bzgl. · ist und damit ist (Km×n,+, ·) ein Ringmit Eins.

Bemerkung 6.6.

(a) Für n ≥ 2 ist der Ring (Rn×n,+, ·) nicht kommutativ. Für n = 2 wähle zum Beispiel

A =

(1 21 1

), B =

(0 10 1

).

39

Page 40: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

6. Grundlegende Definitionen

Dann gilt

A ·B =

(0 30 2

), B ·A =

(1 11 1

).

(b) Für n ≥ 2 ist der Ring (Rn×n,+, ·) nicht nullteilerfrei. Wähle zum Beispiel

A =

(0 10 0

).

Dann gilt

A ·A =

(0 00 0

)und A 6= 0.

Definition. Eine Matrix A ∈ Kn×n heißt invertierbar oder regulär, falls es eine Matrix A−1 ∈Kn×n gibt, mit

A ·A−1 = En.

Andernfalls heißt A singulär. Ferner definieren wir

Gl(n,K) :={A ∈ Kn×n ; A invertierbar

}.

Wörtlich wie für Gruppen (vgl. Satz 4.2) zeigt man:

Lemma 6.7. Ist A ∈ Kn×n invertierbar, so ist die inverse Matrix A−1 eindeutig bestimmt undes gilt

A ·A−1 = En = A−1 ·A.Außerdem gilt für A,B ∈ Gl(n,K), dass A ·B ∈ Gl(n,K) mit

(A ·B)−1 = B−1 ·A−1.

Korollar 6.8. (Gl(n,K), ·) ist eine Gruppe.

Beispiel 6.9. Sei K = R. Die Matrix

A =

(2 10 1

)

ist invertierbar mit der Inversen

A−1 =

(12 −1

20 1

).

Hingegen ist die Matrix

A :=

(2 21 1

)

singulär, denn für eine Matrix C ∈ R2×2 mit A · C = E2 würde insbesondere folgen

2c11 + 2c21 = 1,

c11 + c21 = 0,

woraus einerseits c11 = −c21 folgt und damit 1 = 2(c11 + c21) = 0.Sind A,B ∈ Rn×n invertierbar, so gilt nicht notwendigerweise A+ B invertierbar. Wähle zum

40

Page 41: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

6. Grundlegende Definitionen

Beispiel

A =

(2 10 1

), B =

(0 11 0

),

so sind A und B invertierbar (mit B−1 =

(0 11 0

)), jedoch gilt A+B = A.

41

Page 42: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

7. Lineare Abbildungen und Matrizen

Seien generell ℓ,m, n ∈ N≥1. Wir fassen Elemente aus Kn als Spaltenvektoren mit n Zeilen auf,also als Elemente aus Kn×1.

Satz 7.1. Sei A ∈ Km×n. Dann ist

fA : Kn → Km

x 7→ A · x

eine lineare Abbildung.

Beweis. Es gilt für x, y ∈ Kn = Kn×1

fA(x+ y) = A · (x+ y) = A · x+A · y = fA(x) + fA(y)

nach Lemma 6.4. Außerdem gilt für λ ∈ K

fA(λx) = A·(λ·x) =(

n∑

k=1

ajk · λxk)

j∈{1,...,m}= λ·

(n∑

k=1

ajk · xk)

j∈{1,...,m}= λ·(A·x) = λ·fA(x),

und damit ist fA linear.

Definition. Sei A ∈ Km×n. Dann setzen wir

kerA := ker fA,

rangA := rang fA.

Bemerkung 7.2. Sei A ∈ Km×n. Wir bezeichnen mit v1, . . . , vn ∈ Km die Spalten von A. Danngilt

W (fA) = {fA(x) ; x ∈ Kn}= {A · x ; x = (λ1, . . . , λn) ∈ Kn}

=

{n∑

i=1

λi · vi ; λ1, . . . , λn ∈ K

}

= lin {v1, . . . , vn}

und somit giltrangA = dim lin {v1, . . . , vn} .

Matrizen induzieren somit lineare Abbildungen und wir werden im Weiteren nicht mehr zwi-schen der Matrix und ihrer induzierten linearen Abbildung unterscheiden. Interessanterweise

42

Page 43: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

7. Lineare Abbildungen und Matrizen

gilt auch die Umkehrung dieses Satzes, nämlich jede lineare Abbildung f : V → W für endlich-dimensionale K-Vektorräume V und W lässt sich als Matrix darstellen. Um diesen Satz zuformulieren, führen wir zunächst die folgende Notation ein.

Definition. Sei V ein K-Vektorraum mit dimV = n. Sei B = {b1, . . . , bn} eine Basis von V .Dann lässt sich jedes Element x ∈ V darstellen als

x =n∑

i=1

λi · bi

für eindeutig bestimmte Skalare λ1, . . . , λn ∈ K. Wir setzen

[x]B :=

λ1...λn

∈ Kn.

Satz 7.3. Seien V,W K-Vektorräume mit dimV = n, dimW = m und f : V → W einelineare Abbildung und seien B = {b1, . . . , bn} und C = {c1, . . . , cm} Basen von V bzw. W . Wirdefinieren die Matrix [f ]B,C ∈ Km×n durch

[f ]B,C =

......

[f(b1)]C · · · [f(bn)]C...

...

.

Dann gilt für alle x ∈ V[f(x)]C = [f ]B,C · [x]B.

Ist umgekehrt A ∈ Km×n eine Matrix mit

[f(x)]C = A · [x]B

für alle x ∈ V , so gilt A = [f ]B,C .

Beweis. Wir zeigen die Formel zunächst für x = bj für ein j ∈ {1, . . . , n}. Es gilt dann

[bj ]B =

0...1...0

= ej ,

43

Page 44: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

7. Lineare Abbildungen und Matrizen

wobei die 1 in der j-ten Zeile steht. Somit gilt

[f ]B,C · [bj ]B =

......

[f(b1)]C · · · [f(bn)]C...

...

0...1...0

= [f(bj)]C

wie behauptet. Ist x ∈ Kn nun beliebig, so gilt mit [x]B =

λ1...λn

x =n∑

j=1

λj · bj

und damit aufgrund der Linearität von f

[f(x)]C =

n∑

j=1

λjf(bj)

C

=n∑

j=1

λj [f(bj)]C =n∑

j=1

λj ·[f ]B,C ·[bj ]B = [f ]B,C ·

n∑

j=1

λj · bj

B

= [f ]B,C ·[x]B.

Sei nun A ∈ Km×n eine Matrix mit

[f(x)]C = A · [x]B

für alle x ∈ V, so gilt für die j-te Spalte von A

a1j...

amj

= Aej = A · [bj ]B = [f(bj)]C

und daher A = [f ]B,C .

Beispiel 7.4. Die Matrixdarstellung einer linearen Abbildung hängt stark von der Wahl derBasen ab. Betrachten wir zum Beispiel die Abbildung

f : R2 → R2

mit

f

(xy

)=

(yx

)

44

Page 45: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

7. Lineare Abbildungen und Matrizen

und wählen als Basen B =

{(10

),

(01

)}oder C =

{(11

),

(−11

)}so erhalten wir

[f ]B,B =

( [(01

)]

B

[(10

)]

B

)=

(0 11 0

),

[f ]C,C =

( [(11

)]

C

[(1−1

)]

C

)=

(1 00 −1

),

[f ]B,C =

( [(01

)]

C

[(10

)]

C

)=

(12

12

12 −1

2

),

[f ]C,B =

( [(11

)]

B

[(1−1

)]

B

)=

(1 11 −1

).

Satz 7.5. Seien V,W endlich-dimensionale K-Vektorräume und f : V → W linear. Seien B,CBasen von V bzw. W . Dann gilt

rang f = rang[f ]B,C .

Beweis. Sei dimV = n, dimW = m. Die Abbildung

Φ : W → Km

w 7→ [w]C

ist ein Vektorraum-Isomorphismus (Übung!) und daher gilt nach Korollar 5.24

rang f = dimW (f) = dimΦ(W (f)).

Nun gilt aber

Φ(W (f)) = {Φ(f(v)) ; v ∈ V }= {[f ]B,C · [v]B ; v ∈ V }= {[f ]B,Cx ; x ∈ Kn}= W ([f ]B,C)

und daherrang f = dimΦ(W (f)) = dimW ([f ]B,C) = rang[f ]B,C .

Satz 7.6. Seien V,W,L endlich-dimensionale K-Vektorräume und f : V → W und g : W → Llineare Abbildungen und B,C,D Basen von V,W und L. Dann gilt

[g ◦ f ]B,D = [g]C,D · [f ]B,C .

Beweis. Es gilt x ∈ V

[(g ◦ f) (x)]D = [g (f(x))]D = [g]C,D · [f(x)]C = ([g]C,D · [f ]B,C) · [x]B

und damit gilt nach Satz 7.3[g ◦ f ]B,D = [g]C,D · [f ]B,C .

45

Page 46: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

7. Lineare Abbildungen und Matrizen

Korollar 7.7. Seien V,W endlich-dimensionale K-Vektorräume und f : V → W linear undB, B Basen von V und C, C Basen von W. Dann gilt

[f ]B,C

= [idW ]C,C

· [f ]B,C · [idV ]B,B.

Die Matrix [idV ]B,Bheißt Übergangsmatrix von B zu B.

Beispiel 7.8. Wir betrachten wieder f : R2 → R2 aus Beispiel 7.4 und die Basen B,C ausBeispiel 7.4. Dann gilt

[id]B,C =

( [(10

)]

C

[(01

)]

C

)=

(12

12

−12

12

),

[id]C,B =

( [(11

)]

B

[(−11

)]

B

)=

(1 −11 1

)

und daher z.B.

[f ]C,C = [id]B,C [f ]B,B[id]C,B

=

(12

12

−12

12

)(0 11 0

)(1 −11 1

)

=

(12

12

−12

12

)(1 11 −1

)

=

(1 00 −1

).

Satz 7.9. Seien V,W endlich-dimensionale K-Vektorräume mit dimV = dimW = n undf : V → W linear. Seien B und C Basen von V bzw. W . Dann ist f genau dann bijektiv, wenn[f ]B,C ∈ Gl(n,K). In diesem Fall gilt dann

[f−1]C,B = ([f ]B,C)−1 .

Beweis. Sei zunächst f bijektiv. Dann gilt nach Satz 7.6

[f ]B,C · [f−1]C,B = [f ◦ f−1]C,C = [id]C,C = En

und damit ist [f ]B,C invertierbar mit

([f ]B,C)−1 = [f−1]C,B.

Sei nun umgekehrt [f ]B,C invertierbar. Nach Korollar 5.26 reicht es zu zeigen, dass f injektivist. Dazu reicht es zu zeigen, dass ker f = {0} gilt (siehe Lemma 5.20). Sei also x ∈ V mitf(x) = 0. Dann gilt

0 = [f(x)]C = [f ]B,C [x]B

46

Page 47: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

7. Lineare Abbildungen und Matrizen

und damit nach Anwendung von ([f ]B,C)−1

0 = [x]B =

λ1...λn

.

Hieraus folgt aber

x =n∑

i=1

λibi = 0

und das zeigt die Behauptung.

Korollar 7.10. Sei V ein endlich-dimensionaler K-Vektorraum mit dimV = n und seien B,CBasen von V. Dann gilt [id]B,C ∈ Gl(n,K) mit

[id]C,B = ([id]B,C)−1 .

47

Page 48: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

8. Lineare Gleichungssysteme

Wir beschäftigen uns im Folgenden mit linearen Gleichungssystemen (LGS). Dies sind Systemebestehend aus m Gleichungen mit n Unbekannten x1, . . . , xn ∈ K der Form

a11x1 + . . .+ a1nxn = b1,

a21x1 + . . .+ a2nxn = b2,

...

am1x1 + . . .+ amnxn = bm

mit gegebenen Größen aij , bi ∈ K mit i ∈ {1, . . . ,m}, j ∈ {1, . . . , , n}. Setzen wir

A :=

a11 · · · a1n...

. . ....

am1 · · · amn

∈, x :=

x1...xn

, b =

b1...bm

,

so lässt sich das LGS kürzer schreiben als

A · x = b. (8.1)

Definition. Die Matrix (A, b) gegeben durch

(A, b) :=

a11 · · · a1n...

. . ....

am1 · · · amn

b1...bm

∈ Km×(n+1)

heißt erweiterte Koeffizientenmatrix.

Satz 8.1. Das LGS (8.1) hat genau dann eine Lösung, falls

rangA = rang(A, b).

Beweis. Wir betrachten die beiden induzierten linearen Abbildungen

A : Kn → Km

und(A, b) : Kn+1 → Km.

48

Page 49: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

8. Lineare Gleichungssysteme

Wir zeigen zunächst, dass W (A) ⊆ W ((A, b)). Sei dazu x ∈ Kn. Wir setzen

x :=

x1...xn0

∈ Kn+1.

Dann giltA · x = (A, b) · x

und somit W (A) ⊆ W ((A, b)).Sei zunächst x eine Lösung des LGS, also gelte

A · x = b.

Wir zeigen, dass dann W ((A, b)) ⊆ W (A). Sei dazu y ∈ Kn+1. Wir setzen

y :=

y1...yn

∈ Kn

und erhalten(A, b) · y = A · y + yn+1 · b = A · (y + yn+1 · x)

also W ((A, b)) ⊆ W (A). Somit gilt W ((A, b)) = W (A) und damit auch

rangA = rang(A, b).

Gilt umgekehrt rang(A, b) = rangA, so folgt wegen W (A) ≤ W ((A, b)) nach Satz 5.14

W (A) = W ((A, b)).

Insbesondere existiert ein x ∈ Kn mit

A · x = (A, b) ·

0...01

= b

und daher ist das LGS lösbar.

Satz 8.2. Sei x ∈ Kn eine Lösung von (8.1). Dann gilt für die Lösungsmenge

{y ∈ Kn ; A · y = b} = {x+ x0 ; x0 ∈ kerA} = x+ kerA.

Beweis. Sei y ∈ Kn eine Lösung von (8.1). Dann gilt

A · (y − x) = A · y −A · x = b− b = 0,

also x0 := y − x ∈ kerA. Somit gilt y = x + x0 mit x0 ∈ kerA. Ist umgekehrt x0 ∈ kerA, so

49

Page 50: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

8. Lineare Gleichungssysteme

folgtA · (x+ x0) = A · x+A · x0 = b+ 0 = b,

also ist x+ x0 eine Lösung von (8.1).

Es genügt also eine partikuläre Lösung des Problems (8.1) zu kennen und alle Lösungen deszugehörigen homogenen Problems

A · x = 0,

um die Lösungsmenge des inhomogenen Problems zu bestimmen. Da kerA ein Unterraum vonKn ist, ergeben sich also folgende 3 Möglichkeiten für die Lösungsmenge des LGS (8.1):

• das Problem hat keine Lösung (rangA 6= rang(A, b))

• das Problem hat genau eine Lösung (rangA = rang(A, b) und kerA = {0})• das Problem hat, falls |K| = ∞, unendlich viele Lösungen (rangA = rang(A, b) undkerA 6= {0}).

Darüber hinaus lässt sich die Dimension des Lösungsraums des homogenen Problems, also vonkerA nach Satz 5.25 berechnen durch

dimkerA = dimKn − dimW (A) = n− rangA.

Wir wollen uns nun mit einer Klasse von Matrizen beschäftigen, für die wir sehr einfach dieLösung des LGS angeben können.

Definition. Eine Matrix A ∈ Km×n mit

A =

a11(a12 · · · a1n

)

a21...

am1

A11

,

wobei A11 ∈ K(m−1)×(n−1), hat Zeilenstufenform, falls a21 = . . . = am1 = 0 und falls A11

existiert gilt:

(A) a11 6= 0 : A11 hat Zeilenstufenform,

(B) a11 = 0 :

(a12 . . . a1n

A11

)hat Zeilenstufenform.

Bemerkung 8.3. Nach obiger Definition hat jeder Zeilenvektor Zeilenstufenform. Ein Spalten-vektor hat genau dann Zeilenstufenform, wenn höchstens sein erster Eintrag 6= 0 ist.

Beispiel 8.4. Die Matrix

A =

2 2 0 −3 10 1 0 2 50 0 0 0 30 0 0 0 0

50

Page 51: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

8. Lineare Gleichungssysteme

hat Zeilenstufenform. Hingegen hat die Matrix

A =

2 2 0 −3 10 1 0 0 50 0 0 0 30 0 0 2 0

keine Zeilenstufenform.

Satz 8.5. Sei A ∈ Km×n in Zeilenstufenform. Dann gilt

rangA =

1 + rangA11 falls a11 6= 0,

rang

(a12 . . . a1n

A11

)falls a11 = 0,

wobei wir für die leere Matrix Rang 0 setzen. Der Rang entspricht also der Anzahl der „Stufen“.

Beweis. Wir betrachten zunächst den Fall a11 = 0. Damit ist die erste Spalte von A derNullvektor und es gilt

kerA =

{(λv

); v ∈ ker

(a12 . . . a1n

A11

), λ ∈ R

}

und daher

dimkerA = 1 + dimker

(a12 . . . a1n

A11

).

Hieraus ergibt sich

rangA = n− dimkerA = n− 1− dimker

(a12 . . . a1n

A11

)= rang

(a12 . . . a1n

A11

).

Ist nun a11 6= 0, so ist

Φ : kerA → kerA11

v 7→

v2...vn

ein Isomorphismus. Die Linearität von Φ ist offensichtlich. Außerdem ist Φ surjektiv, da fürx ∈ kerA11 gilt (0, x) ∈ kerA und Φ(0, x) = x. Sei nun v ∈ kerA mit Φ(v) = 0, d.h. v2 = . . . =vn = 0. Dann gilt

Av =

(a11 · v1

0

)

und da a11 6= 0, folgt v1 = 0, also insgesamt v = 0. Somit ist Φ auch injektiv. Hieraus folgt

dimkerA = dimkerA11

51

Page 52: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

8. Lineare Gleichungssysteme

und damit

rangA = n− dimkerA = n− dimkerA11 = n− (n− 1− rangA11) = 1 + rangA11.

Korollar 8.6. Sei A ∈ Km×n in Zeilenstufenform. Dann ist rangA die Anzahl der Zeilen, dienicht nur aus Nullen bestehen.

Beweis. Wir bezeichnen mit z1, . . . , zm ∈ K1×n die Zeilen von A. Ist zi = 0, so folgt, da AZeilenstufenform hat, dass auch zi+1 = . . . = zn = 0 gilt. Sei k die Anzahl der Nullzeilen, d.h.die letzten k Zeilen der Matrix sind Nullzeilen. Damit besitzt die Matrix genau m − k Stufenund nach Satz 8.5 gilt daher

rangA = m− k.

Satz 8.7. Sei A ∈ Km×n und b ∈ Km so, dass A in Zeilenstufenform ist. Das LGS ist ge-nau dann lösbar, wenn zi = 0 auch bi = 0 impliziert. Ist das LGS lösbar, so lässt sich dieLösungsmenge

L(A, b) = {x ∈ Kn ; A · x = b}für n > 1 rekursiv bestimmen durch:

(A) a11 = 0 : L(A, b) =

{x = (λ, x) ; λ ∈ K, x ∈ L

((a12 . . . a1n

A11

), b

)},

(B) a11 6= 0,m > 1: L(A, b) =

x = (a−1

11 · b1 −∑n

i=2 a−111 · a1i · xi, x) ; x ∈ L

A11,

b2...bn

.

Ist a11 6= 0, m = 1, also A eine Zeile, die nicht mit Null beginnt, so gilt

L(A, b) =

{(a−1

11 · b1 −n∑

i=2

a−111 · a1i · λi, λ2, . . . , λn) ; λ2, . . . , λn ∈ K

}.

Ist n = 1, also A =

a110...0

eine Spalte, so gilt

L(A, b) =

{K a1 = 0,

{a−111 · b1} a11 6= 0.

Beweis. Die Formeln folgen durch Nachrechnen. Wir zeigen lediglich das Lösbarkeitskriterium.Sei x ∈ Kn eine Lösung und zi = 0 für ein i. Dann gilt

bi = (A · x)i = 0.

Ist umgekehrt bi = 0 für alle i mit zi = 0, so besitzt (A, b) ebenfalls Zeilenstufenform und dieNullzeilen von (A, b) und A stimmen überein. Damit gilt

rang(A, b) = rangA

52

Page 53: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

8. Lineare Gleichungssysteme

nach Korollar 8.6 und somit ist das LGS lösbar nach Satz 8.1.

Beispiel 8.8. Seien

A =

1 2 1 00 0 3 10 0 0 0

, b =

020

.

Dann hat (A, b) Zeilenstufenform und das LGS ist lösbar, da b3 = 0. Wir wollen L(A, b)bestimmen und wenden Satz 8.7 an. Im ersten Schritt wenden wir Fall (B) an und benötigendie Lösungsmenge zu (

0 3 10 0 0

),

(20

).

Hierzu benötigen wir nach Fall (A) die Lösungsmenge von

(3 10 0

),

(20

)

und somit wiederum nach (B) die Lösungsmenge von

(0), (0).

Diese ist gegeben durch R. Damit gilt

L

((3 10 0

),

(20

))=

{(2

3− t, t

); t ∈ R

}

L

((0 3 10 0 0

),

(20

))=

{(s,

2

3− t

3, t) ; s, t ∈ R

}

L(A, b) =

{(−2s− 2

3+

t

3, s,

2

3− t

3, t

); s, t ∈ R

}.

Zeil ist es nun, eine beliebige Matrix in Zeilenstufenform umzuwandeln. Dazu benötigen wir diefolgenden Matrizen.

Definition. Sei m ∈ N≥1 und λ ∈ K, λ 6= 0. Wir definieren die Matrizen M(λ)i , Tij und

S(λ)ij ∈ Km×m mit i, j ∈ {1, . . . ,m} und i 6= j durch

(M

(λ)i

)

kℓ:=

0 falls k 6= ℓ,

1 falls k = ℓ 6= i,

λ falls k = ℓ = i,

(Tij)kℓ :=

1 falls k = ℓ, k 6= i, k 6= j,

1 falls k 6= ℓ, {k, ℓ} = {i, j},0 sonst,

(S(λ)ij

)

kℓ:=

1 falls k = ℓ,

λ falls k = i, ℓ = j,

0 sonst.

53

Page 54: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

8. Lineare Gleichungssysteme

Diese Matrizen heißen Elementarmatrizen.

Lemma 8.9. Die Elementarmatrizen sind invertierbar mit(M

(λ)i

)−1= M

(λ−1)i ,

(Tij)−1 = Tij ,

(S(λ)ij

)−1= S

(−λ)ij .

Beweis. Nachrechnen.

Bemerkung 8.10. Sei A ∈ Km×n.

• Dann entsteht M(λ)i A aus der Matrix A durch Multiplikation der i-ten Zeile mit λ.

• Dann entsteht TijA aus der Matrix A durch Tauschen der i-ten und j-ten Zeile.

• Dann entsteht S(λ)ij A aus der Matrix A durch Addieren des λ-fachen der j-ten Zeile auf

die i-te Zeile.

Durch Multiplikation von rechts mit den Elementarmatrizen, geschieht das selbe mit den Spal-ten statt mit den Zeilen von A.

Mithilfe dieser Matrizen lässt sich jede Matrix auf Zeilenstufenform bringen.

Algorithmus 8.11 (Gaußscher Algorithmus). Sei A ∈ Km×n. Dann überführen wir A inZeilenstufenform durch Anwendung des folgenden Algorithmus:

(A) Ist die erste Spalte von A eine Nullspalte, so fahre fort mit(

a12 · · · a1nA11

),

(B) Ist aj1 6= 0 für ein j, so tausche die j-te mit der ersten Zeile (Multiplikation mit T1j).Addiere dann dass −a−1

j1 ai1-fache der ersten Zeile auf die i-te Zeile (Multiplikation mit

S(−a−1

j1 ai1)

i1 ). Dann fahre fort mit A11.

Beispiel 8.12. Sei A =

1 −22 31 2

. Durch Multiplikation mit S

(−2)21 und S

(−1)31 erhalten wir

die Matrix

1 −20 70 4

.

Durch Multiplikation mit S(− 4

7)

32 erhalten wir die Matrix

1 20 70 0

und diese ist von Zeilenstufenform.

54

Page 55: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

8. Lineare Gleichungssysteme

Durch sukzessives Multiplizieren mit Elementarmatrizen von links, können wir also jede Matrixin Zeilenstufenform überführen. Wollen wir also das LGS

A · x = b

lösen, so multiplizieren wir beide Seiten von links mit Elementarmatrizen, bis A Zeilenstu-fenform besitzt. Wir multiplizieren also mit mehrerer invertierbaren Matrizen B1, . . . , Bn underhalten die Matrix

A = Bn · . . . ·B1 ·A,die dann Zeilenstufenform besitzt. Da B := Bn · . . . ·B1 ebenfalls invertierbar ist, gilt

A · x = B · b ⇔ A · x = b,

d.h. die Lösungsmenge des LGS bleibt unverändert.

Beispiel 8.13. Wir betrachten wieder A =

1 −22 31 2

und b =

3−1−1

. Wie oben über-

führen wir die Matrix A in Zeilenstufenform und transformieren b dabei mit. Mit anderenWorten, wir Multiplizieren die erweiterte Koeffizientenmatrix (A, b) mit Elementarmatrizen bisA Zeilenstufenform hat.

1 −22 31 2

∣∣∣∣∣∣

3−1−1

1 −20 70 4

∣∣∣∣∣∣

3−7−4

1 −20 70 0

∣∣∣∣∣∣

3−70

.

Da das letzte LGS lösbar ist, ist auch das Ausgangsgleichungssystem lösbar mit der gleichenLösungsmenge. Diese ist gegeben durch

{(1,−1)} .

Als eine weitere Anwendung des Gaußschen Algorithmus wollen wir die Berechnung von inversenMatrizen behandeln. Wir erinnern dabei, dass A ∈ Kn×n genau dann invertierbar ist, wennfA : Kn → Kn bijektiv ist. Letzteres ist äquivalent zur Surjektivität von fA (Korollar 5.26),was wiederum äquivalent zu

rangA = rang fA = n

ist. Somit lassen sich also genau die quadratischen Matrizen invertieren, deren Rang maximal(also gleich n) ist.

Lemma 8.14. Sei A ∈ Km×n und B ∈ Km×m, C ∈ Kn×n invertierbar. Dann gilt

rang(B ·A) = rangA = rang(A · C).

Beweis. Betrachte zunächst die Abbildung

Φ : W (fA) → W (fB·A).

x 7→ B · x

55

Page 56: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

8. Lineare Gleichungssysteme

Dann ist Φ offenbar linear und bijektiv, da B bijektiv ist. Somit ist Φ ein Vektorraumisomor-phismus und erhält mithin die Dimension. Somit gilt

rangA = dimW (fA) = dimW (fB·A) = rang(B ·A).

Ebenso ist

Ψ : kerA → kerA · Cx 7→ C−1x

ein Vektorraumisomorphismus und damit gilt nach Dimensionsformel

rangA = n− dimkerA = n− dimkerA · C = rang(A · C).

Somit ändert sich der Rang bei Multiplikation mit invertierbaren Matrizen nicht. Insbesonderewird somit der Rang einer Matrix durch Zeilen- und Spaltenumformungen nicht verändert. SeiA ∈ Kn×n eine Matrix und A ∈ Kn×n eine Matrix in Zeilenstufenform, die durch Zeilen- undSpaltenumformungen aus A entstanden ist. Dann gilt

A invertierbar ⇔ rangA = n

⇔ rang A = n

⇔ ∀i ∈ {1, . . . , n} : aii 6= 0.

Somit erhalten wir folgendes Resultat:

Satz 8.15. Eine Matrix A ∈ Kn×n ist genau dann invertierbar, wenn sie sich durch Zeilen- undSpaltenumformungen in eine obere Dreiecksmatrix mit nichtverschwindenden Diagonaleinträgenumformen lässt.

Beispiel 8.16. Die Matrix A =

2 1 20 1 31 2 1

lässt sich umformen zu

2 1 20 1 31 2 1

2 1 20 1 30 3

2 0

2 1 20 1 30 0 −9

2

und hat somit Rang drei und ist daher invertierbar.

Die Matrix B =

1 0 21 2 02 1 3

lässt sich umformen zu

1 0 21 2 02 1 3

1 0 20 2 −20 1 −1

1 0 20 2 −20 0 0

und hat somit Rang zwei und ist daher nicht invertierbar.

Mit diesem Kriterium können wir also die Invertierbarkeit einer Matrix prüfen. Ist eine MatrixA nun invertierbar und A die obere Dreiecksmatrix, die nach Zeilenumformungen entsteht, so

56

Page 57: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

8. Lineare Gleichungssysteme

können wir diese durch Zeilenumformungen „von unten nach oben“ zu einer Diagonalmatrix mitnichtverschwindenden Diagonaleinträgen umformen. Diese lässt sich dann durch Multiplikationvon links mit den Elementarmatrizen M

(λ)i zur Einheitsmatrix umformen. Insgesamt erhalten

wir das folgende Theorem:

Theorem 8.17. Sei A ∈ Kn×n. Dann sind äquivalent:

(i) A ist invertierbar,

(ii) rangA = n,

(iii) es gibt Elementarmatrizen B1, . . . , Bk ∈ Kn×n so dass Bk · . . . ·B1 ·A = En,

(iv) A lässt sich als Produkt endlich vieler Elementarmatrizen schreiben.

Beweis. (i) ⇒ (ii) ⇒ (iii) hatten wir uns eben überlegt. Für (iii) ⇒ (iv) beobachten wir, dassaus

Bk · . . . ·B1 ·A = En

folgtA = B−1

1 · . . . ·B−1k .

Da B−1i ebenfalls eine Elementarmatrix ist, folgt die Behauptung.

(iv) ⇒ (i): Da Elementarmatrizen invertierbar sind, folgt die Behauptung.

Bemerkung 8.18. Teil (iii) des vorigen Theorems zeigt insbesondere

Bk · . . . ·B1 = A−1.

Beispiel 8.19. Sei

A =

1 0 32 2 −11 2 0

.

Wir versuchen nun A durch Zeilenumformungen in die Einheitsmatrix zu überführen. Damit wirdas entsprechende Produkt der Elementarmatrizen dokumentieren, führen wir den Algorithmusparallel für A und E3 aus.

1 0 32 2 −11 2 0

∣∣∣∣∣∣

1 0 00 1 00 0 1

1 0 30 2 −70 2 −3

∣∣∣∣∣∣

1 0 0−2 1 0−1 0 1

1 0 30 2 −70 0 4

∣∣∣∣∣∣

1 0 0−2 1 01 −1 1

(⇒ rangA = 3)

1 0 00 2 00 0 4

∣∣∣∣∣∣

14

34 −3

4−1

4 −34

74

1 −1 1

1 0 00 1 00 0 1

∣∣∣∣∣∣

14

34 −3

4−1

8 −38

78

14 −1

414

.

57

Page 58: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

8. Lineare Gleichungssysteme

Wir erhalten somit

A−1 =

14

34 −3

4−1

8 −38

78

14 −1

414

=

1

8

2 6 −6−1 −3 72 −2 2

.

Probe:

1 0 32 2 −11 2 0

· 1

8

2 6 −6−1 −3 72 −2 2

=

1

8

8 0 00 8 00 0 8

=

1 0 00 1 00 0 1

.

58

Page 59: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

9. Determinanten

Wir wollen uns nun mit einer weiteren Möglichkeit die Inverse von Matrizen zu bestimmenbeschäftigen. Dazu müssen wir die sog. Determinante einer quadratischen Matrix berechnen.Sei dazu generell K ein Körper und n ∈ N≥1. Wir beginnen mit der Definition der Determinante.

Definition. Eine Abbildungdet : Kn × . . .×Kn

︸ ︷︷ ︸n mal

→ K

heißt Determinantenfunktion, falls folgende drei Eigenschaften erfüllt sind:

1. det ist multilinear, das heißt f ist linear in jedem Argument, d.h. für alle i ∈ {1, . . . , n},v1, . . . , vn, wi ∈ Kn und λ ∈ K gelten

det(v1, . . . , vi + λwi, . . . , vn) = det(v1, . . . , vi, . . . , vn) + λ det(v1, . . . , wi, . . . , vn)

2. det ist alternierend, das heißt für alle i, j ∈ {1, . . . , n} mit i 6= j und alle v1, . . . , vn ∈ Kn

giltdet(v1, . . . , vi, . . . , vj , . . . , vn) = − det(v1, . . . , vj , . . . , vi, . . . , vn).

3. Es giltdet(e1, . . . , en) = 1,

wobei ei der i-te Einheitsvektor in Kn sei.

Bemerkung 9.1. Wir werden zu den Vektoren v1, . . . , vn die Matrix A =(v1 · · · vn

)∈

Kn×n assoziieren und umgekehrt eine Matrix mit ihren Spalten identifizieren. Somit schreibenwir also statt det(v1, . . . , vn) auch kurz det(A).

Bevor wir zur Existenz und Eindeutigkeit von Determinantenfunktionen kommen, tragen wireinige nützliche Eigenschaften von Determinantenfunktionen im Zusammenhang mit Spalte-numformungen zusammen.

Satz 9.2. Sei det eine Determinantenfunktion und A ∈ Kn×n. Dann gelten für i, j ∈ {1, . . . , n}, λ ∈K mit i 6= j

(a) det(AS(λ)ij ) = det(A) (das Addieren des Vielfachen einer Spalte auf eine andere ändert die

Determinante nicht). Insbesondere gilt det(S(λ)ij ) = 1.

(b) det(ATij) = − det(A) (das Tauschen zweier Spalten ändert das Vorzeichen der Determi-nante). Insbesondere gilt det(Tij) = −1.

(c) det(AM(λ)i ) = λ det(A) (das Multiplizieren der i-ten Spalte mit λ ergibt das λ-fache der

Determinante). Insbesondere gilt det(M (λ)i ) = λ.

59

Page 60: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

9. Determinanten

Beweis. (a) Es seien v1, . . . , vi, . . . , vj , . . . , vn die Spalten von A. Dementsprechend sind v1, . . . , vi+

λvj , . . . , vj , . . . , vn die Spalten von AS(λ)ij . Dann gilt nach Eigenschaft 1

det(AS(λ)ij ) = det(v1, . . . , vi + λvj , . . . , vj , . . . , vn)

= det(v1, . . . , vi, . . . , vj , . . . , vn) + λ det(v1, . . . , vj , . . . , vj , . . . , vn).

Nach Eigenschaft 2 gilt aber

det(v1, . . . , vj , . . . , vj , . . . , vn) = − det(v1, . . . , vj , . . . , vj , . . . , vn)

und daher det(v1, . . . , vj , . . . , vj , . . . , vn) = 0. Somit erhalten wir

det(AS(λ)ij ) = det(v1, . . . , vi, . . . , vj , . . . , vn) = det(A).

Mit A = En folgt hieraus und mit Eigenschaft 3

det(S(λ)ij ) = det(En · S(λ)

ij ) = det(En) = 1.

(b) Das entspricht unmittelbar der Eigenschaft 2. Für A = En folgt det(Tij) = −1 wie oben.

(c) Sind v1, . . . , vi, . . . , vn die Spalten von A, so sind v1, . . . , λvi, . . . , vn die Spalten von AM(λ)i

und daher mit Eigenschaft 1

det(AM(λ)i ) = det(v1, . . . , λvi, . . . , vn)

= λ det(v1, . . . , vi, . . . , vn)

= λ det(A).

Mit A = En folgt wiederum det(M(λ)i ) = λ.

Korollar 9.3. Sei det eine Determinantenfunktion. Dann ist det eindeutig bestimmt. Fernerist A genau dann invertierbar, wenn det(A) 6= 0.

Beweis. Ist A ∈ Kn×n invertierbar, so lässt sich nach Theorem 8.17 A als Produkt von Ele-mentarmatrizen B1, . . . , Bk schreiben. Nach Satz 9.2 gilt dann

det(A) = det(B1 · . . . ·Bk) = det(B1 · . . . ·Bk−1) · det(Bk) = . . . = det(B1) · . . . · det(Bk).

Da die Werte det(B1), . . . , det(Bk) nach Satz 9.2 ebenfalls bekannt sind, folgt, dass det(A) fürinvertierbare Matrizen eindeutig bestimmt ist. Sei nun A nicht invertierbar. Dann ist rangA < nund somit gilt

dim lin{v1, . . . , vn} < n,

wobei v1, . . . , vn die Spalten von A bezeichnen. Dann ist insbesondere {v1, . . . , vn} linear ab-hängig und daher gibt es ein i ∈ {1, . . . , n} mit

vi ∈ lin {v1, . . . , vi−1, vi+1, . . . , vn} .

60

Page 61: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

9. Determinanten

Damit existieren Elemente λ1, . . . , λi−1, λi+1, . . . , λn ∈ K so, dass

vi =∑

j 6=i

λjvj .

Damit gilt nach Eigenschaft 1

det(A) = det(v1, . . . , vi, . . . , vn)

= det(v1, . . . ,∑

j 6=i

λjvj , . . . , vn)

=∑

j 6=i

λj det(v1, . . . , vj , . . . , vn)

= 0,

wobei die letzte Gleichheit aus Eigenschaft 2 folgt (beachte, dass vj in jedem Summanden in zweiArgumenten von det auftaucht). Damit gilt für nicht invertierbare Matrizen stets det(A) = 0und somit ist f eindeutig bestimmt.

Wir kommen nun zur Existenz der Determinantenfunktion.

Satz 9.4 (Determinante, Entwicklungssatz von Laplace). Sei A ∈ Kn×n. Wir bezeichnen mitAij ∈ K(n−1)×(n−1) die Matrix die durch Streichen der i-ten Zeile und j-ten Spalte von Aentsteht. Dann ist die Funktion

det : Kn×n → K

gegeben durch

(a) für n = 1 setze detA = A,

(b) für n ≥ 2 setze

detA =n∑

j=1

(−1)1+ja1j detA1j ,

die (!) Determinantenfunktion.

Beweis. Wir müssen die Eigenschaften 1-3 für det nachweisen. Für den Fall n = 1 ist das trivial.Sei nun n ≥ 2. Nehmen wir nun an, det ist eine Determinantenfunktion auf K(n−1)×(n−1). SeiA ∈ Kn×n mit Spalten v1, . . . , vn.Zu Eigenschaft 1: Seien wi ∈ Kn und λ ∈ K , A die Matrix mit den Spalten v1, . . . , vi−1, vi +λwi, vi+1, . . . , vn und B die Matrix mit den Spalten v1, . . . , wi, . . . , vn. Wir müssen zeigen

det A = detA+ λ detB.

61

Page 62: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

9. Determinanten

Es gilt

det A =n∑

j=1

(−1)1+j a1j det A1j

=∑

j 6=i

(−1)1+j a1j det A1j + (−1)1+ia1i det A1i

=∑

j 6=i

(−1)1+ja1j (detA1j + λ detB1j) + (−1)1+i(a1i + λb1i) detA1i

=n∑

j=1

(−1)1+ja1j detA1j + λ

j 6=i

(−1)1+j a1j︸︷︷︸b1j

detBij + (−1)1+ib1i det A1i︸︷︷︸B1i

= detA+ λ detB.

Zu Eigenschaft 2: Seien i 6= k und A die Matrix mit den Spalten v1, . . . , vk, . . . , vi, . . . , vn. Danngilt

det A =

n∑

j=1

(−1)1+j a1j det A1j

=∑

j 6=i,k

(−1)1+j a1j︸︷︷︸a1j

det A1j + (−1)1+ka1k det A1k + (−1)1+ia1i det A1i

= −∑

j 6=i,k

(−1)1+ja1j detA1j + (−1)1+ka1i det A1k︸ ︷︷ ︸(−1)i−k−1 detA1i

+(−1)1+ia1k det A1i︸ ︷︷ ︸(−1)i−k−1 detA1k

= −∑

j 6=i,k

(−1)1+ja1j detA1j − (−1)1+ia1i detA1i + (−1)2i−k

︸ ︷︷ ︸−(−1)1+k

a1k detA1k

= − detA.

Die Eigenschaft 3 ist einfach, da

detEn = 1 · detEn−1 = 1.

Somit ist det also eine Determinantenfunktion und nach Korollar 9.3 auch die einzige.

Die in diesem Satz angegebene Formel für die Determinante nennt man auch die Entwicklungnach der 1. Zeile.

Beispiel 9.5. (a) Für A ∈ K2×2 ergibt sich

detA = a11a22 − a12a21.

62

Page 63: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

9. Determinanten

(b) Für A ∈ K3×3 ergibt sich

detA = a11 det

(a22 a23a32 a33

)− a12 det

(a21 a23a31 a33

)+ a13 det

(a21 a22a31 a32

)

= a11a22a33 − a11a23a32 − a12a21a33 + a12a23a31 + a13a21a32 − a13a22a31

= a11a22a33 + a12a23a31 + a13a21a32 − (a13a22a31 + a12a21a33 + a11a23a32)

die sog. Regel von Sarrus.

(c) Ist A ∈ Kn×n eine untere Dreiecksmatrix, also

A =

a11 0 0. . . 0∗ ann

so gilt

detA = a11 det

a22 0 0. . . 0∗ ann

= a11a22 det

a33 0 0. . . 0∗ ann

= . . . = a11a22 · · · ann.

(d) Es gilt

det

2 1 20 1 31 2 1

= 2 + 3 + 0− (2 + 0 + 12) = −9 6= 0

also ist die Matrix invertierbar. Dagegen ist

det

1 0 21 2 02 1 3

= 6 + 0 + 2− (8 + 0 + 0) = 0

und somit die Matrix nicht invertierbar (vgl. Beispiel 8.16).

Satz 9.6 (Determinantenproduktsatz). Sei det die Determinatenfunktion. Dann gilt für A,B ∈Kn×n

det(A ·B) = det(A) · det(B).

Insbesondere gilt für A ∈ Kn×n invertierbar

det(A−1) = (det (A))−1.

Beweis. Ist B invertierbar, so gilt B = C1 · . . . · Cℓ für Elementarmatrizen Cj nach Theorem8.17. Nach Satz 9.2 gilt

det(A ·B) = det(A · C1 · . . . · Cℓ)

= det(A) · det(C1) · . . . · det(Cℓ)

= det(A) · det(C1 · . . . · Cℓ)

= det(A) · det(B).

63

Page 64: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

9. Determinanten

Ist B nicht invertierbar, so ist auch A ·B nicht invertierbar. In der Tat: Wäre A ·B invertierbar,so wäre

(A ·B)−1 ·A ·B = En

und daher (A ·B)−1 ·A = B−1. Damit gilt nach Korollar 9.3

det(A ·B) = 0 = det(A) · det(B).

Ist A invertierbar, so folgt

1 = det(En) = det(A ·A−1) = det(A) · det(A−1)

und somit det(A−1) = (det(A))−1 .

Der letzte Satz liefert insbesondere, dass die Aussagen in Satz 9.2 auch richtig sind, wenn wirmit den Elementarmatrizen von links (also Zeilen- statt Spaltenumformungen vornehmen) mul-tiplizieren.Es kann mitunter günstig sein, statt nach der ersten Zeile nach einer beliebigen Zeile zu entwi-ckeln (da dort z.B. viele Nullen stehen).

Satz 9.7 (Determinante, Entwicklung nach i-ter Zeile). Sei A ∈ Kn×n und i ∈ {1, . . . , n}.Dann gilt für n ≥ 2

detA =n∑

j=1

(−1)i+jaij detAij .

Beweis. Sei A = T12T23T34 · · ·Ti−1,iA, also die Matrix, die aus entsteht, wenn man sukzessiveerst die i-te mit der (i− 1)-ten Zeile, dann diese mit der (i−2)-ten und so weiter bis zur erstenZeile tauscht. Nach Satz 9.6 und Satz 9.2 gilt

det A =i−1∏

j=1

detTj,j+1 detA = (−1)i−1 detA.

Nun ist für j ∈ {1, . . . , n}a1j = aij und A1j = Aij

und damit

detA = (−1)i−1 det A = (−1)i−1n∑

j=1

(−1)1+j a1j det A1j =n∑

j=1

(−1)i+jaij detAij .

Beispiel 9.8. Wir berechnen die Determinante von

2 1 20 1 31 2 1

und entwickeln nach der

zweiten Zeile. Das ergibt

det

2 1 20 1 31 2 1

= 1 · det

(2 21 1

)− 3 · det

(2 11 2

)= 1 (2− 2)− 3(4− 1) = −9.

64

Page 65: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

9. Determinanten

Definition. Sei A ∈ Km×n. Dann heißt die Matrix A⊤ ∈ Kn×m gegeben durch die Einträge

a⊤ij := aji

die zu A transponierte Matrix.

Satz 9.9. Es gelten:

(a) Für A ∈ Km×n, B ∈ Kn×ℓ gilt(A ·B)⊤ = B⊤ ·A⊤.

(b) Für A ∈ Kn×n giltdetA = detA⊤.

Beweis. (a) Sei C := A ·B und D := B⊤ ·A⊤. Dann gilt

c⊤ij = cji =

n∑

k=1

ajk · bki =n∑

k=1

b⊤ika⊤kj = dij

und somit C⊤ = D.

(b) Ist A invertierbar, so gilt A = B1 · . . . ·Bk für Elementarmatrizen Bi. Dann gilt nach (a)

A⊤ = B⊤k · . . . ·B⊤

1 .

Nun sind aber B⊤i ebenfalls Elementarmatrizen, denn es gilt

(S(λ)ij

)⊤= S

(λ)ji , T⊤

ij = Tji,(M

(λ)i

)⊤= M

(λ)i .

Insbesondere folgt detBi = detB⊤i für Elementarmatrizen und damit ist

detA⊤ = detB⊤k · . . . · detB⊤

1 = detB1 · . . . · detBk = detA.

Da(A⊤)⊤ = A, folgt aus dem bisher Gezeigtem, dass, falls A⊤ invertierbar ist, auch A

invertierbar ist. Somit ist A⊤ singulär, falls A singulär ist und damit gilt auch in diesemFall

detA = 0 = detA⊤.

Korollar 9.10 (Determinante, Entwicklung nach j-ter Spalte). Sei A ∈ Kn×n und j ∈ {1, . . . , n}.Dann gilt für n ≥ 2

detA =n∑

i=1

(−1)i+jaij detAij .

65

Page 66: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

9. Determinanten

Beweis. Wir entwickeln die Determinante von A⊤ nach der j-ten Zeile und erhalten

detA = detA⊤

=n∑

i=1

(−1)j+ia⊤ji detA⊤ji

=n∑

i=1

(−1)i+jaij detAij .

Beispiel 9.11. (a) Ist A eine obere Dreiecksmatrix, also

A =

a11 · · · a1n

0. . .

...0 0 ann

,

so gilt durch Entwicklung nach der ersten Spalte

detA =n∏

i=1

aii.

(b) Wir berechnen det

2 1 20 1 31 2 1

durch Entwicklung nach der 2. Spalte. Dann gilt

det

2 1 20 1 31 2 1

= (−1) · det

(0 31 1

)+ 1 · det

(2 21 1

)− 2 · det

(2 20 3

)

= (−1) · (−3) + 1 · 0− 2 · 6 = 3− 12

= −9.

(c) Für 4× 4 Matrizen ist die Entwicklung nach einer Zeile oder Spalte meist mühselig. Statt-dessen formt man die Matrix mittels Zeilen- bzw. Spaltenumformungen um, bis man eine

66

Page 67: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

9. Determinanten

Dreiecksmatrix erhält. Als Beispiel berechnen wir

det

0 1 −1 11 2 −1 32 −1 2 23 0 2 0

= − det

1 0 −1 12 1 −1 3−1 2 2 20 3 2 0

= − det

1 0 −1 10 1 1 10 2 1 30 3 2 0

= − det

1 0 −1 10 1 1 10 0 −1 10 0 −1 −3

= − det

1 0 −1 10 1 1 10 0 −1 10 0 0 −4

= −4.

Definition. Sei A ∈ Kn×n. Die Matrix A# ∈ Kn×n mit den Einträgen

a#ij := (−1)i+j detAji

heißt zu A komplementäre Matrix oder die Adjunkte zu A.

Satz 9.12. Für A ∈ Kn×n giltA ·A# = (detA)En.

Insbesondere gilt für invertierbare Matrizen A die Beziehung

A−1 = (detA)−1A#.

Beweis. Sei C := A ·A#. Dann gilt

cij =

n∑

k=1

aika#kj =

n∑

k=1

(−1)k+jaik detAjk.

Im Fall i = j ergibt sich

cii =n∑

k=1

(−1)k+iaik detAik = detA

gemäß der Entwicklung von detA nach der i-ten Zeile. Für i 6= j betrachten wir die MatrixA, die entsteht, indem wir die j-te Zeile von A durch die i-te Zeile von A ersetzen. Dann

gilt det A = det(A⊤)

= 0, gemäß Eigenschaft 2 der Determinante. Andererseits gilt mit

67

Page 68: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

9. Determinanten

Entwicklung nach der j-ten Zeile

0 = det A =

n∑

k=1

(−1)k+j ajk det Ajk =

n∑

k=1

(−1)k+jaik detAjk

und damit folgt die Behauptung.

Beispiel 9.13. (a) Für reguläre 2× 2 Matrizen A =

(a bc d

)ergibt sich hieraus die Formel

A−1 =1

ad− bc

(d −b−c a

).

(b) Wir berechnen die Inverse von A =

2 1 20 1 31 2 1

. Dazu bestimmen wir

detA11 = det

(1 32 1

)= 1− 6 = −5

detA12 = det

(0 31 1

)= 0− 3 = −3

detA13 = det

(0 11 2

)= 0− 1 = −1

detA21 = det

(1 22 1

)= 1− 4 = −3

detA22 = det

(2 21 1

)= 2− 2 = 0

detA23 = det

(2 11 2

)= 4− 1 = 3

detA31 = det

(1 21 3

)= 3− 2 = 1

detA32 = det

(2 20 3

)= 6− 0 = 6

detA33 = det

(2 10 1

)= 2− 0 = 2

und erhalten so

A# =

−5 3 13 0 −6−1 −3 2

und schließlich

A−1 = −1

9

−5 3 13 0 −6−1 −3 2

.

68

Page 69: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

9. Determinanten

Probe: Es gilt

2 1 20 1 31 2 1

−5 3 13 0 −6−1 −3 2

=

−9 0 00 −9 00 0 −9

.

Korollar 9.14 (Cramersche Regel). Sei A ∈ Kn×n invertierbar und b ∈ Kn. Dann ist die(eindeutige) Lösung des LGS

Ax = b

gegeben durch den Vektor x ∈ Kn mit den Koordinaten

xi =detA(i,b)

detA,

wobei A(i,b) die Matrix ist, die entsteht, wenn die i-te Spalte von A durch b ersetzt wird.

Beweis. Die Lösung des LGS ist gegeben durch

x = A−1 · b.

Nach Satz 9.12 gilt A−1 = 1detAA

# und somit ist

xi = (A−1 · b)i

=1

detA

n∑

j=1

a#ijbj

=1

detA

n∑

j=1

(−1)i+jbj detAji

=1

detA

n∑

j=1

(−1)i+ja(i,b)ji detA

(i,b)ji

=detA(i,b)

detA

gemäß Entwicklung nach der i-ten Spalte für A(i,b).

69

Page 70: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

Teil IV.

Euklidische Vektorräume und

analytische Geometrie

70

Page 71: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

10. Euklidische Vektorräume

Sei V ein R-Vektorraum. Wir wollen nun Abbildungen auf V definieren, die es uns erlaubenLängen, Abstände und Winkel zu messen. Das zentrale Objekt ist dabei das sog. Skalarprodukt,das wir wie folgt definieren:

Definition. Eine Abbildung 〈·, ·〉 : V × V → R heißt Skalarprodukt, falls

(a) ∀w ∈ V : 〈·, w〉 : V → R ist linear, d.h. für w ∈ V und u, v ∈ V, λ ∈ R gilt:

〈λu+ v, w〉 = λ〈u,w〉+ 〈v, w〉,

(b) ∀u, v ∈ V : 〈u, v〉 = 〈v, u〉,(c) ∀u ∈ V : 〈u, u〉 ≥ 0,

(d) ∀u ∈ V : 〈u, u〉 = 0 ⇒ u = 0.

Ist 〈·, ·〉 ein Skalarprodukt auf V , so heißt (V, 〈·, ·〉) euklidischer Vektorraum (oder auch Skalar-produktraum).

Beispiel 10.1. Auf Rn definieren wir

〈u, v〉 :=n∑

i=1

ui · vi (u, v ∈ Rn).

Dann ist 〈·, ·〉 ein Skalarprodukt auf Rn, das sog. Standardskalarprodukt.

Bevor wir uns eingehender mit Skalarprodukten beschäftigen, wollen wir noch den Begriff derNorm einführen, der es uns ermöglichen wir, Längen von Vektoren zu definieren.

Definition. Eine Abbildung ‖ · ‖ : V → R≥0 heißt Norm, falls

(a) ∀u, v ∈ V : ‖u+ v‖ ≤ ‖u‖+ ‖v‖ (Dreiecksungleichung),

(b) ∀u ∈ V, λ ∈ R : ‖λu‖ = |λ|‖u‖,(c) ∀u ∈ V : ‖u‖ = 0 ⇒ u = 0.

Ist ‖ · ‖ eine Norm auf V , so heißt (V, ‖ · ‖) normierter Raum.

Beispiel 10.2. Auf Rn können wir die folgenden Normen betrachten:

(a) ‖u‖1 :=∑n

i=1 |ui|,

(b) ‖u‖2 :=√∑n

i=1 u2i ,

(c) ‖u‖∞ := max {|ui| ; i ∈ {1, . . . , n}} .

71

Page 72: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

10. Euklidische Vektorräume

Bemerkung 10.3. Ist ‖ · ‖ eine Norm auf V , so ist

d(u, v) := ‖u− v‖ (u, v ∈ V )

eine Metrik auf V (vgl. Geometrie).

Unser erstes Ziel ist es nun zu zeigen, dass jeder euklidische Vektorraum auch ein normierterRaum ist. Dazu benötigen wir die sog. Ungleichung von Cauchy-Schwarz.

Satz 10.4 (Cauchy-Schwarz-Ungleichung). Sei (V, 〈·, ·〉) ein euklidischer Vektorraum. Danngilt für alle u, v ∈ V

|〈u, v〉| ≤√〈u, u〉

√〈v, v〉.

Bevor wir zum Beweis dieses Satzes kommen, benötigen wir das folgende Lemma.

Lemma 10.5. Seien a, b, c ∈ R und betrachte die Matrix

A =

(a bb c

).

Gilt für alle x ∈ R2

x⊤Ax ≥ 0,

so folgt detA ≥ 0.

Beweis. Wir betrachten zunächst den Fall a, c = 0. Dann gilt

0 ≤(1 1

)A

(11

)= 2b

und daher b ≥ 0. Andererseits gilt

0 ≤(−1 1

)A

(−11

)= −2b

und somit b ≤ 0, also insgesamt b = 0 und damit auch detA = −b2 = 0.Kommen wir nun zum Fall a 6= 0. Dann gilt a > 0, da

0 ≤(1 0

)A

(10

)= a.

Wir setzen x :=

(− b

a1

). Dann gilt

0 ≤ x⊤Ax =(− b

a 1)( a b

b c

)(− b

a1

)=(− b

a 1)( 0

c− b2

a

)= c− b2

a

und somit

detA = ac− b2 = a

(c− b2

a

)≥ 0.

72

Page 73: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

10. Euklidische Vektorräume

Im Fall a = 0 und c 6= 0 setze x :=

(1

− bc

)und verfahre wie oben.

Beweis Satz 10.4. Wir betrachten die Matrix

A :=

(〈u, u〉 〈u, v〉〈v, u〉 〈v, v〉

).

Diese Matrix erfüllt die Voraussetzungen von Lemma 10.5. In der Tat gilt 〈u, v〉 = 〈v, u〉 und

für x =

(λµ

)∈ R2 gilt

x⊤Ax =(λ µ

)( 〈u, u〉 〈u, v〉〈v, u〉 〈v, v〉

)(λµ

)

=(λ µ

)( λ〈u, u〉+ µ〈u, v〉λ〈v, u〉+ µ〈v, v〉

)

=(λ µ

)( 〈u, λu〉+ 〈u, µv〉〈v, λu〉+ 〈v, µv〉

)

=(λ µ

)( 〈u, λu+ µv〉〈v, λu+ µv〉

)

= λ〈u, λu+ µv〉+ µ〈v, λu+ µv〉= 〈λu+ µv, λu+ µv〉 ≥ 0.

Somit gilt also

0 ≤ detA = 〈u, u〉〈v, v〉 − 〈u, v〉〈v, u〉 = 〈u, u〉〈v, v〉 − 〈u, v〉2,

woraus die Behauptung folgt.

Korollar 10.6. Sei (V, 〈·, ·〉) ein euklidischer Vektorraum. Dann definiert

‖u‖ :=√〈u, u〉 (u ∈ V )

eine Norm auf V.

Beweis. Wir weisen die drei Eigenschaften einer Norm nach.

(a) Für u, v ∈ V gilt nach Satz 10.4

‖u+ v‖2 = 〈u+ v, u+ v〉= 〈u, u〉+ 2〈u, v〉+ 〈v, v〉≤ ‖u‖2 + 2‖u‖‖v‖+ ‖v‖2

= (‖u‖+ ‖v‖)2,

woraus die Dreiecksungleichung folgt.

73

Page 74: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

10. Euklidische Vektorräume

(b) Für u ∈ V und λ ∈ R gilt

‖λu‖ =√

〈λu, λu〉 =√λ2〈u, u〉 = |λ|‖u‖.

(c) Gilt ‖u‖ = 0, so folgt 〈u, u〉 = 0 und somit u = 0 nach Eigenschaft (d) des Skalarprodukts.

Beispiel 10.7. Die Norm ‖ · ‖2 auf Rn wird durch das Standardskalarprodukt induziert, da

‖u‖2 =

√√√√n∑

i=1

u2i =√

〈u, u〉 (u ∈ Rn).

In der Tat ist dies die einzige der Normen, die von einem Skalarprodukt induziert werden, wieder folgende Satz zeigt.

Satz 10.8 (Parallelogrammgleichung). Sei (V, 〈·, ·〉) ein euklidischer Vektorraum. Dann gilt dieParallelogrammgleichung

∀u, v ∈ V : ‖u+ v‖2 + ‖u− v‖2 = 2(‖u‖2 + ‖v‖2).

Beweis. Übung.

Bemerkung 10.9. Man kann sogar zeigen, dass jede Norm, die die Parallelogrammgleichungerfüllt, von einem Skalarprodukt induziert wird.

Definition. Sei (V, 〈·, ·〉) ein euklidischer Vektorraum. Zwei Elemente u, v ∈ V heißen ortho-gonal, falls

〈u, v〉 = 0.

Ist M ⊆ V eine Menge, so heißt

M⊥ := {v ∈ V ; ∀u ∈ M : 〈u, v〉 = 0}

das orthogonale Komplement von M (oder auch Orthokomplement von M). Eine Menge M ⊆ Vheißt orthonormal, falls

∀u, v ∈ M : 〈u, v〉 ={0 falls u 6= v,

1 falls u = v.

Ferner definieren wir den Winkel zwischen u, v ∈ V \ {0} durch

∠(u, v) := arccos〈u, v〉‖u‖‖v‖ .

Bemerkung 10.10. Der Winkel ist wohldefiniert, da nach Cauchy-Schwarzscher Ungleichung gilt

−1 ≤ 〈u, v〉‖u‖‖v‖ ≤ 1.

Lemma 10.11. Sei (V, 〈·, ·〉) ein euklidischer Vektorraum. Dann gelten:

74

Page 75: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

10. Euklidische Vektorräume

(a) Sind u, v ∈ V orthogonal, dann gilt ‖u+ v‖2 = ‖u‖2 + ‖v‖2 (Satz des Pythagoras).

(b) Ist M ⊆ V , dann ist M⊥ ist ein Unterraum von V .

(c) Ist M ⊆ V orthonormal, so ist M linear unabhängig.

Beweis. (a) Übung.

(b) Es gilt stets 0 ∈ M⊥, da 〈u, 0〉 = 0 für alle u ∈ M gilt (folgt aus der Linearität). Seienv, w ∈ M⊥ und λ ∈ R. Dann gelten

〈u, v + w〉 = 〈u, v〉+ 〈u,w〉 = 0 + 0 = 0,

〈u, λv〉 = λ〈u, v〉 = 0,

für alle u ∈ M und daher v + w ∈ M⊥ und λv ∈ M⊥, also ist M⊥ ein Unterraum nachSatz 5.3.

(c) Seien u1, . . . , un ∈ M mit ui 6= uj für i 6= j und seien λ1, . . . , λn ∈ R mit

λ1u1 + . . .+ λnun = 0.

Dann gilt für i ∈ {1, . . . , n}

0 = 〈0, ui〉 = 〈λ1u1 + . . .+ λnun, ui〉 = λ1〈u1, ui〉+ . . .+ λn〈un, ui〉 = λi.

Da dies für alle i gilt, folgt die Behauptung.

Definition. Sei (V, 〈·, ·〉) ein euklidischer Vektorraum. Eine Menge B ⊆ V heißt Orthonormal-basis, falls B orthonormal und eine Basis von V ist.

Satz 10.12 (Orthonormalisierungsverfahren von Schmidt). Sei (V, 〈·, ·〉) ein euklidischer Vek-torraum und M = {u1, . . . , un} ⊆ V linear unabhängig. Wir definieren die Vektoren e1, . . . , enwie folgt:

e1 :=1

‖u1‖u1,

ek+1 := uk+1 −k∑

i=1

〈uk+1, ei〉ei,

ek+1 :=1

‖ek+1‖ek+1 (k ∈ {1, . . . , n− 1}).

Dann ist die Menge E := {e1, . . . , en} orthonormal und es gilt für alle j ∈ {1, . . . , n} :

lin {u1, . . . , uj} = lin {e1, . . . , ej} .

Beweis. Für die Orthonormalität verwenden wir vollständige Induktion. Angenommen, wirwüssten schon, dass {e1, . . . , ek} orthonormal für ein k ∈ {1, . . . , n− 1} ist. Wir müssen zeigen,

75

Page 76: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

10. Euklidische Vektorräume

dass dann auch {e1, . . . , ek+1} orthonormal ist. Dazu reicht es zu zeigen, dass 〈ek+1, eℓ〉 = 0 füralle ℓ ∈ {1, . . . , k} gilt, denn offenbar gilt 〈ek+1, ek+1〉 = 1. Sei also ℓ ∈ {1, . . . , k}. Dann gilt

〈ek+1, eℓ〉 =1

‖ek+1‖〈uk+1 −

k∑

i=1

〈uk+1, ei〉ei, eℓ〉

=1

‖ek+1‖

(〈uk+1, eℓ〉 − 〈

k∑

i=1

〈uk+1, ei〉ei, eℓ〉)

=1

‖ek+1‖

(〈uk+1, eℓ〉 −

k∑

i=1

〈uk+1, ei〉〈ei, eℓ〉)

=1

‖ek+1‖(〈uk+1, eℓ〉 − 〈uk+1, eℓ〉)

= 0.

Somit ist die Menge E also orthonormal. Wir zeigen nun

lin {u1, . . . , uj} = lin {e1, . . . , ej}

ebenfalls per Induktion. Für j = 1 ist dies offensichtlich nach der Definition von e1. Gelte nunlin {u1, . . . , uj} = lin {e1, . . . , ej} für ein j ∈ {1, . . . , n− 1}. Wir zeigen

lin {u1, . . . , uj+1} = lin {e1, . . . , ej+1} .

Es gilt

uj+1 = ej+1 +

j∑

i=1

〈uj+1, ei〉ei = ‖ej+1‖ej+1 +

j∑

i=1

〈uj+1, ei〉ei ∈ lin{e1, . . . , ej+1}

und da nach Voraussetzung insbesondere u1, . . . , uj ∈ lin{e1, . . . , ej} ⊆ lin{e1, . . . , ej+1} gilt,folgt

lin {u1, . . . , uj+1} ⊆ lin {e1, . . . , ej+1} .Da jedoch beide Räume die Dimension j + 1 haben, folgt die Gleichheit nach Satz 5.14.

Korollar 10.13. Jeder endlich dimensionale euklidische Vektorraum besitzt eine Orthonormal-basis.

Satz 10.14. Sei (V, 〈·, ·〉) ein euklidischer Vektorraum mit dimV = n < ∞ und B = {b1, . . . , bn}eine Orthonormalbasis von V . Dann gilt für alle u ∈ V

u =

n∑

i=1

〈u, bi〉bi.

Beweis. Da B eine Basis ist, existieren zu u ∈ V Skalare λ1, . . . , λn ∈ R mit

u =n∑

i=1

λibi.

76

Page 77: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

10. Euklidische Vektorräume

Dann gilt für j ∈ {1, . . . , n}

〈u, bj〉 = 〈n∑

i=1

λibi, bj〉 =n∑

i=1

λi〈bi, bj〉 = λj

und damit folgt die Behauptung.

Satz 10.15 (Projektionssatz). Sei (V, 〈·, ·〉) ein endlich dimensionaler euklidischer Vektorraumund U ≤ V ein Unterraum. Sei x ∈ V. Dann existiert ein eindeutig bestimmter Vektor PU (x) ∈U so, dass x− PU (x) ∈ U⊥. Die Abbildung PU : V → U ist linear. Ferner gilt für x ∈ V

‖x− PU (x)‖ = min{‖x− u‖ ; u ∈ U},

d.h. PU (x) ist der Punkt in U , der minimalen Abstand zu x hat.

Beweis. Wir wählen eine Basis {v1, . . . , vk} von U und ergänzen diese zu einer Basis {v1, . . . , vk, vk+1, . . . , vn}von V . Diese orthonomalisieren wir nach Satz 10.12 und erhalten so eine Orthonormalbasis{e1, . . . , ek, ek+1, . . . , en} von V mit

lin{e1, . . . , ek} = lin{v1, . . . , vk} = U.

Wir definieren PU (x) :=∑k

i=1〈x, ei〉ei ∈ U. Dann gilt nach Satz 10.14 für u ∈ U :

〈x− PU (x), u〉 = 〈n∑

i=k+1

〈x, ei〉ei,k∑

j=1

〈u, ej〉ej〉

=

n∑

i=k+1

k∑

j=1

〈x, ei〉〈u, ej〉〈ei, ej〉

= 0,

also x− PU (x) ∈ U⊥. Ist u ∈ U ein weiterer Vektor mit x− u ∈ U⊥, so gilt

‖PU (x)− u‖2 = 〈PU (x)− u, PU (x)− u〉= 〈PU (x)− u, PU (x)− x〉+ 〈PU (x)− u, x− PU (x)〉= 0

und damit PU (x) = u. Das beweist die eindeutige Existenz des Vektors PU (x). Wir beweisen

77

Page 78: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

10. Euklidische Vektorräume

nun die Linearität von PU . Seien dazu x, y ∈ V und λ ∈ R. Dann gilt

PU (λx+ y) =k∑

i=1

〈λx+ y, ei〉ei

=k∑

i=1

(λ〈x, ei〉+ 〈y, ei〉) ei

= λ

k∑

i=1

〈x, ei〉ei +k∑

i=1

〈y, ei〉ei

= λPU (x) + PU (y).

Sei nun u ∈ U. Dann gilt nach Satz des Pythagoras

‖x− u‖2 = ‖x− PU (x) + PU (x)− u‖2

= ‖x− PU (x)‖2 + ‖PU (x)− u‖2

≥ ‖x− PU (x)‖2,

also‖x− PU (x)‖ ≤ ‖x− u‖.

Da u ∈ U beliebig war und PU (x) ∈ U, folgt

‖x− PU (x)‖ = min{‖x− u‖ ; u ∈ U}.

78

Page 79: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

11. Affine Unterräume und analytische

Geometrie

In diesem Abschnitt beschäftigen wir uns mit affinen Unterräumen, ihren Lagebeziehungen undihren Abständen. Wir beginnen zunächst mit der Definition eines affinen Unterraums. In diesemAbschnitt sei V ein beliebiger K-Vektorraum.

Definition. Sei U ≤ V ein Unterraum und a ∈ V. Die Menge

a+ U := {a+ u ; u ∈ U}

heißt affiner Unterraum von V .

Lemma 11.1. Seien U,W ≤ V und a, b ∈ V. Dann gilt a + U ⊆ b + W genau dann, wennU ⊆ W und a − b ∈ W gilt. Insbesondere gilt a + U = b +W genau dann, wenn U = W unda− b ∈ W.

Beweis. Gelte zunächst a+U ⊆ b+W. Da 0 ∈ U, folgt a ∈ a+U ⊆ b+W . Damit gilt a−b ∈ W(es existiert w ∈ W mit a = b + w und daher ist a − b = w ∈ W ). Sei nun u ∈ U. Dann gilta+ u ∈ b+W und somit existiert w ∈ W mit a+ u = b+ w. Hieraus folgt

u = b− a︸ ︷︷ ︸∈W

+ w︸︷︷︸∈W

∈ W

und somit insgesamt U ⊆ W.Gelte nun a− b ∈ W und U ⊆ W. Sei u ∈ U ⊆ W. Dann gilt

a+ u = b+ a− b︸ ︷︷ ︸∈W

+ u︸︷︷︸∈W

∈ b+W

und daher a+ U ⊆ b+W. Die Äquivalenz für die Gleichheit folgt unmittelbar aus dem bisherGezeigten.

Definition. Sei X ein affiner Unterraum von V . Nach Lemma 11.1 ist der zugehörige lineareUnterraum eindeutig bestimmt und wir bezeichnen diesen mit UX ≤ V. Ferner definieren wirdie Dimension von X durch

dimX := dimUX .

Wir nennen zwei affine Unterräume X,Y von V parallel, falls UX ⊆ UY oder UY ⊆ UX (Symbol:X ‖ Y ).

Lemma 11.2. Die Relation ‖ auf der Menge der affinen Unterräume von V bildet eine Äqui-valenzrelation.

79

Page 80: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

11. Affine Unterräume und analytische Geometrie

Beweis. Übung.

Im Weiteren nehmen wir an, dass (V, 〈·, ·〉) ein euklidischer Vektorraum ist.

Satz 11.3 (Projektion auf affine Unterräume). Sei X ein affiner Unterraum von V und v ∈ V.Dann existiert genau ein Punkt PX(v) ∈ X mit

‖v − PX(v)‖ = min {‖v − x‖ ; x ∈ X} .

Ist X = a+ UX für ein a ∈ V, so lässt sich PX(v) berechnen durch

PX(v) = a+ PUX(v − a)

Insbesondere gilt v − PX(v) ∈ U⊥X .

Beweis. Sei X = a+ UX für ein a ∈ V. Dann gilt

{‖v − x‖ ; x ∈ X} = {‖(v − a)− u‖ ; u ∈ UX} .

Nach Satz 10.15 gilt somit

min {‖v − x‖ ; y ∈ X} = min {‖(v − a)− u‖ ; u ∈ UX} = ‖(v − a)− PUX(v − a)‖

und somit folgt mit PX(v) = a + PUX(v − a) ∈ X die Behauptung. Die Eindeutigkeit folgt

ebenfalls aus Satz 10.15. Aus der Formel folgt

v − PX(v) = v − a− PUX(v − a) ∈ U⊥

X

ebenfalls nach Satz 10.15.

Der obige Satz liefert also den Abstand zwischen einem affinen Unterraum X und einem Punktaus V (also einem null-dimensionalen affinen Unterraum). Wir wollen nun den Abstand zwi-schen beliebigen affinen Unterräumen berechnen. Dazu definieren wir zunächst den Abstand.

Definition. Seien X,Y affine Unterräume von V. Dann definieren wir den Abstand zwischenX und Y durch

d(X,Y ) := inf {‖x− y‖ ; x ∈ X, y ∈ Y } .

Wir wollen nun den Abstand zwischen zwei affinen Unterräumen berechnen. Wir beginnenzunächst mit dem Fall zweier paralleler affiner Unterräume.

Satz 11.4. Seien X,Y affine Unterräume mit UX ⊆ UY . Dann gilt

d(X,Y ) = ‖x− PY (x)‖

für alle x ∈ X.

Beweis. Wir zeigen zunächst, dass für x1, x2 ∈ X gilt

‖x1 − PY (x1)‖ = ‖x2 − PY (x2)‖ =: c. (11.1)

80

Page 81: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

11. Affine Unterräume und analytische Geometrie

In der Tat gilt

‖x1 − PY (x1)‖2 = ‖x2 − PY (x2)︸ ︷︷ ︸∈U⊥

Y

+ x1 − x2︸ ︷︷ ︸∈UX⊆UY

+PY (x1)− PY (x2)︸ ︷︷ ︸∈UY

‖2

= ‖x2 − PY (x2)‖2 + ‖x1 − x2 + PY (x1)− PY (x2)‖2

≥ ‖x2 − PY (x2)‖2

und somit‖x2 − PY (x2)‖ ≤ ‖x1 − PY (x1)‖.

Tauschen wir die Rollen von x1 und x2, so erhalten wir auch die andere Ungleichung und damit(11.1).Seien x ∈ X, y ∈ Y. Dann gilt

‖x− y‖2 = ‖x− PY (x)︸ ︷︷ ︸∈U⊥

Y

+PY (x)− y︸ ︷︷ ︸∈UY

‖2 = ‖x− PY (x)‖2 + ‖PY (x)− y‖2 ≥ ‖x− PY (x)‖2 = c2

und damitd(X,Y ) ≥ c.

Da offenbar auchc = ‖x− PY (x)‖ ≥ d(X,Y )

folgt die Behauptung.

Satz 11.5. Seien X,Y affine Unterräume. Dann gilt

d(X,Y ) = d(X,Y + UX) = ‖x− PY+UX(x)‖

für jedes x ∈ X.

Beweis. Da Y + UX ein affiner Unterraum mit zugehörigem linearen Unterraum UX + UY istund offensichtlich UX ⊆ UX + UY gilt, folgt die zweite Gleichheit aus Satz 11.4. Es verbleibtalso die erste Gleichung zu zeigen. Da Y ⊆ Y + UX folgt sofort

d(X,Y ) ≥ d(X,Y + UX).

Für die andere Ungleichung zeigen wir, dass zu x ∈ X und z ∈ Y + UX zwei Punkte x ∈ Xund y ∈ Y gibt mit

‖x− y‖ = ‖x− z‖.Hieraus folgt dann

{‖x− z‖ ; x ∈ X, z ∈ Y + UX} ⊆ {‖x− y‖ ; x ∈ X, y ∈ Y }

und daherd(X,Y + UX) ≥ d(X,Y ).

Seien also x ∈ X, z ∈ Y + UX . Dann gibt es y ∈ Y und u ∈ UX mit z = y + u. Setzen wir

81

Page 82: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

11. Affine Unterräume und analytische Geometrie

y := y ∈ Y und x := x− u ∈ X, so erhalten wir

‖x− y‖ = ‖x− u− y‖ = ‖x− z‖.

Definition. Sei X ein affiner Unterraum von V . Ein Vektor n ∈ V heißt Normalenvektor zuX, falls n 6= 0 und n ∈ U⊥

X . Gilt zusätzlich ‖n‖ = 1, so heißt n ein Normaleneinheitsvektor zuX.

Satz 11.6 (Koordinatenfreie Darstellung). Sei X ein affiner Unterraum von V . Wir setzenm := dimX und d := dimV. Dann existieren d −m linear unabhängige Normalenvektoren zuX und für jeweils d−m linear unabhängige Normalenvektoren n1, . . . , nd−m existieren Zahlenc1, . . . , cd−m ∈ R so, dass

X = {x ∈ V ; ∀i ∈ {1, . . . , d−m} : 〈x, ni〉 = ci} .

Beweis. Wir ziegen zunächst, dass es d−m linear unabhängige Normalenvektoren zu X gibt.Dazu wählen wir uns eine Orthonormalbasis {v1, . . . , vm} von UX und ergänzen diese zu einerOrthonormalbasis {v1, . . . , vm, vm+1, . . . , vd} von V . Die Vektoren n1 := vm+1, . . . , nd−m := vderfüllen die Voraussetzung, da ‖ni‖ = 1 und damit ni 6= 0 gilt und

〈ni, vj〉 = 0

für alle j ∈ {1, . . . ,m} gilt und daher ni ∈ U⊥X .

Seien nun n1, . . . , nd−m linear unabhängige Normalenvektoren an X. Wir schreiben X = a+UX

für ein a ∈ V und setzenci := 〈a, ni〉 (i ∈ {1, . . . , d−m}).

Sei nun x ∈ X, d.h. x = a+ u für ein u ∈ UX . Dann gilt für i ∈ {1, . . . , d−m}

〈x, ni〉 = 〈a+ u, ni〉 = 〈a, ni〉+ 〈u, ni〉 = ci

und damitX ⊆ {x ∈ V ; ∀i ∈ {1, . . . , d−m} : 〈x, ni〉 = ci} .

Ist umgekehrt x ∈ V mit 〈x, ni〉 = ci für alle i ∈ {1, . . . , d−m}, so folgt

〈x− a, ni〉 = 〈x, ni〉 − 〈a, ni〉 = ci − ci = 0 {i ∈ {1, . . . , d−m}}

und daher x−a ∈ {n1, . . . , nd−m}⊥ . Da dim {n1, . . . , nd−m}⊥ = d−(d−m) = m (Übung!) undUX ⊆ {n1, . . . , nd−m}⊥ nach Voraussetzung, folgt UX = {n1, . . . , nd−m}⊥ und daher x − a ∈UX , also x ∈ a+ UX = X, was die verbleibende Inklusion

{x ∈ V ; ∀i ∈ {1, . . . , d−m} : 〈x, ni〉 = ci} ⊆ X

zeigt.

Definition. Ein affiner Unterraum X von V heißt Hyperebene, falls dimX = dimV − 1. Füreine Hyperebene X heißt

X = {x ∈ V ; 〈x, n〉 = c}für einen Normaleneinheitsvektor n zu X und eine Zahl c ≥ 0 Hessesche Normalform von X.

82

Page 83: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

11. Affine Unterräume und analytische Geometrie

Satz 11.7. Sei X eine Hyperebene von V . Dann besitzt X genau zwei Einheitsnormalenvekto-ren. Ist X kein linearer Unterraum, so besitzt X eine eindeutig bestimmte Hessesche Normal-form

X = {x ∈ V ; 〈x, n〉 = c}und es gilt c > 0. Ist X ein linearer Unterraum, so existieren genau zwei Hessesche Normal-formen und für beide gilt c = 0. Es gilt stets

c = d({0}, X).

Beweis. Da dimX = dimUX = dimV −1 gilt, folgt dimU⊥X = 1. Somit gilt U⊥

X = {λn ; λ ∈ R}für ein n ∈ V mit n 6= 0. Damit sind n0 = n

‖n‖ und −n0 = − n‖n‖ die beiden Einheitsnormalen-

vektoren zu X. Nach Satz 11.6 gilt

X = {x ∈ V ; 〈x, n0〉 = c} = {x ∈ V ; 〈x,−n0〉 = −c} .

Ist c > 0, so wähle n0 für die Hessesche Normalform für c < 0 wähle −n0 und für c = 0 liefernbeide Hessesche Normalformen. Ist c = 0, so folgt dass X ein linearer Unterraum ist (Übung)und somit ist die Hessesche Normalform für nicht linearer Unterräume eindeutig bestimmt.Sei nun n0 der zur Hesseschen Normalform gehörende Einheitsnormalenvektor. Nach ...... gilt

d({0}, X) = ‖0− PX(0)‖ = ‖PX(0)‖

und nach ... istPX(0) = a+ PUX

(0− a) = a− PUX(a)

wobei X = a+UX mit a ∈ X. Da a−PUX(a) ∈ U⊥

X , gibt es λ ∈ R mit PX(0) = a−PUX(a) = λn0

und damit giltc = 〈PX(0), n0〉 = 〈λn0, n0〉 = λ.

Ist c ≥ 0, so auch λ und damit gilt

d({0}, X) = ‖PX(0)‖ = ‖λn0‖ = λ = c.

Korollar 11.8. Sei X eine Hyperebene von V und v ∈ V und sei

X = {x ∈ V ; 〈x, n0〉 = c}

die Hessesche Normalform von X. Dann gilt

d({v}, X) = |c− 〈v, n0〉| .

Beweis. Es giltd({v}, X) = d({0}, X − v).

83

Page 84: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

11. Affine Unterräume und analytische Geometrie

Nun ist n0 auch ein Einheitsnormalenvektor zu X − v, da UX−v = UX gilt und somit ist

X − v = {x ∈ V ; x+ v ∈ X}= {x ∈ V ; 〈x+ v, n0〉 = c}= {x ∈ V ; 〈x, n0〉 = c− 〈v, n0〉︸ ︷︷ ︸

=:c1

}.

Ist c1 ≥ 0, so ist dies die Hessesche Normalform von X − v, sonst tausche n0 durch −n0 undc1 durch −c1. Dann gilt nach Satz 11.7

d({v}, X) = d({0}, X − v) = |c1| = |c− 〈v, n0〉|.

Beispiel 11.9. (a) Im R2 sind Geraden Hyperebenen. Ein Normalenvektor n zu einer Geraden

g =

{(a1a2

)+ λ

(u1u2

); λ ∈ R

}

lässt sich berechnen durchn1u1 + n2u2 = 0,

also zum Beispiel durch

n =

(u2−u1

).

(b) Im R3 sind Ebenen Hyperebenen. Ein Normalenvektor n zu einer Ebene

ε =

a1a2a3

+ λ

u1u2u3

+ µ

v1v2v3

; λ, µ ∈ R

lässt sich berechnen durch

n1u1 + n2u2 + n3u3 = 0

n1v1 + n2v2 + n3v3 = 0.

Multiplizieren wir die zweite Zeile mit u1 und addieren das −v1-fache der ersten Zeile hinzu,so erhalten wir

n2 (u1v2 − u2v1) + n3 (u1v3 − u3v1) = 0

und so zum Beispiel n2 = u3v1 − u1v3 und n3 = u1v2 − u2v1. Damit ergibt sich

0 = n1u1 + u2 (u3v1 − u1v3) + u3(u1v2 − u2v1)

= n1u1 + (u3v2 − u2v3)u1

und somit n1 = u2v3 − u3v2, also insgesamt

n =

u2v3 − u3v2u3v1 − u1v3u1v2 − u2v1

=: u× v.

84

Page 85: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

11. Affine Unterräume und analytische Geometrie

Definition. Seien u, v ∈ R3. Dann heißt

u× v :=

u2v3 − u3v2u3v1 − u1v3u1v2 − u2v1

das Vektorprodukt von u und v.

Lemma 11.10. Seien u, v, w ∈ R3. Dann gelten

(a) u× (λv + w) = λ(u× v) + (u× w) für alle λ ∈ R,

(b) u× v = − (v × u),

(c) 〈u, v × w〉 = det( u v w ), insbesondere gilt 〈v, v × w〉 = 〈w, v × w〉 = 0.

(d) u× v = 0 genau dann, wenn {u, v} linear abhängig,

(e) u× (v × w) = 〈u,w〉v − 〈u, v〉w (Graßmann-Identität),

(f) u× (v × w) + w × (u× v) + v × (w × u) = 0 (Jacobi-Identität),

(g) ‖u×v‖2 = ‖u‖2‖v‖2−〈u, v〉2, und damit für u, v 6= 0 insbesondere ‖u×v‖ = ‖u‖‖v‖| sin∠(u, v)|.

Beweis. (a) Übung!

(b) Übung!

(c) Übung!

(d) Sei {u, v} linear unabhängig. Dann existiert ein weiterer Vektor w ∈ R3 so, dass {u, v, w}eine Basis bilden. Insbesondere gilt

〈w, u× v〉 = det( w u v ) 6= 0

und somit insbesondere u × v 6= 0. Ist hingegen {u, v} linear abhängig, so gilt ohne Ein-schränkung u = λv für ein λ ∈ R. Hieraus folgt

u× v = λ(v × v) = 0.

(e) Es gilt

u× (v × w) = u×

v2w3 − v3w2

v3w1 − v1w3

v1w2 − v2w1

=

u2 (v1w2 − v2w1)− u3(v3w1 − v1w3)u3(v2w3 − v3w2)− u1(v1w2 − v2w1)u1(v3w1 − v1w3)− u2 (v2w3 − v3w2)

=

(u2w2 + u3w3) v1 − (u2v2 + u3v3)w1

(u1w1 + u3w3) v2 − (u1v1 + u3v3)w2

(u1w1 + u2w2) v3 − (u1v1 + u2v2)w3

= 〈u,w〉v − 〈u, v〉w.

85

Page 86: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

11. Affine Unterräume und analytische Geometrie

(f) Es gilt

u×(v×w)+w×(u×v)+v×(w×u) = 〈u,w〉v−〈u, v〉w+〈w, v〉u−〈w, u〉v+〈v, u〉w−〈v, w〉u = 0.

(g) Es gilt

‖u× v‖2 = (u2v3 − u3v2)2 + (u3v1 − u1v3)

2 + (u1v2 − u2v1)2

= u22v23 + u23v

22 + u23v

21 + u21v

23 + u21v

22 + u22v

21 − 2 (u2v2u3v3 + u1v1u3v3 + u1v1u2v2)

= ‖u‖2v21 − u21v21 + ‖u‖2v22 − u22v

22 + ‖u‖2v33 − u23v

23 − 2 (u2v2u3v3 + u1v1u3v3 + u1v1u2v2)

= ‖u‖2‖v‖2 −(u21v

21 + u22v

22 + u23v

23 + 2 (u2v2u3v3 + u1v1u3v3 + u1v1u2v2)

)

= ‖u‖2‖v‖2 − 〈u, v〉2.

Falls u, v 6= 0, folgt

‖u× v‖2 = ‖u‖2‖v‖2(1−

( 〈u, v〉‖u‖‖v‖

)2)

= ‖u‖2‖v‖2(1− cos∠(u, v)2)

= ‖u‖2‖v‖2 sin∠(u, v)2.

Korollar 11.11. Wir betrachten R3 versehen mit dem Standardskalarprodukt. Seien a1, a2, b1, b2, z ∈R3 sowie u1, v1, u2, v2, w1, w2 ∈ R3 \ {0} mit {u1, v1} und {u2, v2} linear unabhängig. Wir be-trachten die folgenden affinen Unterräume

ε1 := {a1 + λu1 + µv1 ; λ, µ ∈ R}ε2 := {a2 + λu2 + µv2 ; λ, µ ∈ R}g := {b1 + λw1 ; λ ∈ R}h := {b2 + λw2 ; λ ∈ R} .

Dann gelten die folgenden Abstandsformeln:

(a) Punkt-Ebene:

d({z}, ε1) =|〈a1 − z, u1 × v1〉|

‖u1 × v1‖.

(b) Gerade-Ebene:

d(g, ε1) =

{ |〈a1−b1,u1×v1〉|‖u1×v1‖ falls g ‖ ε1,

0 sonst.

(c) Ebene-Ebene:

d(ε1, ε2) =

{ |〈a1−a2,u1×v1〉|‖u1×v1‖ falls ε1 ‖ ε2

0 sonst.

86

Page 87: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

11. Affine Unterräume und analytische Geometrie

(d) Punkt-Gerade:

d({z}, g) = ‖(z − b1)× w1‖‖w1‖

.

(e) Gerade-Gerade:

d(g, h) =

{‖(b2−b1)×w1‖‖w1‖ falls g ‖ h

|〈b2−b1,w1×w2〉|‖w1×w2‖ sonst.

Beweis. (a) Da ε1 eine Hyperebene ist, gilt

ε1 = {v ∈ V ; 〈v, n0〉 = c}

für einen Normaleneinheitsvektor n0 und ein c ≥ 0. Ein Normaleneinheitsvektor ist z.B.gegeben durch

u1 × v1‖u1 × v1‖

und es giltc = 〈a1, n0〉.

Nach Korollar 11.8 gilt nun

d ({z}, ε1) = |c− 〈z, n0〉|= |〈a1 − z, n0〉|

=

∣∣∣∣⟨a1 − z,

u1 × v1‖u1 × v1‖

⟩∣∣∣∣

=|〈a1 − z, u1 × v1〉|

‖u1 × v1‖.

(b) Gilt g ‖ ε1 so folgt mit Satz 11.4 und (a)

d(g, ε1) = d({b1}, ε) =|〈a1 − b1, u1 × v1〉|

‖u1 × v1‖.

Ist g ∦ ε1, so ist ε1 + Ug = R3 und damit nach Satz 11.5

d(g, ε1) = d(g, ε1 + Ug) = d(g,R3) = 0.

(c) Gilt ε1 ‖ ε2 so folgt mit Satz 11.4 und (a)

d(ε1, ε2) = d({a2}, ε1) =|〈a1 − a2, u1 × v1〉|

‖u1 × v1‖.

Ist ε1 ∦ ε2, so ist ε1 + Uε2 = R3 und damit nach Satz 11.5

d(ε1, ε2) = d(ε1, ε2 + Uε1) = d(ε1,R3) = 0.

87

Page 88: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

11. Affine Unterräume und analytische Geometrie

(d) Es gilt

‖z − Pg(z)‖2 =∥∥z −

(b1 + PUg(z − b1)

)∥∥2

=∥∥(z − b1)− PUg(z − b1)

∥∥2

= ‖z − b1‖2 − ‖PUg(z − b1)‖2.

Nun gilt

PUg(z − b1) =〈z − b1, w1〉

‖w1‖2w1

und daher nach Lemma 11.10 (g)

‖z − Pg(z)‖2 = ‖z − b1‖2 −〈z − b1, w1〉2

‖w1‖2

=1

‖w1‖2(‖z − b1‖2‖w1‖2 − 〈z − b1, w1〉2

)

=1

‖w1‖2‖(z − b1)× w1‖2.

Damit ist

d({z}, g) = ‖z − Pg(z)‖ =‖(z − b1)× w1‖

‖w1‖.

(e) Ist g ‖ h, so folgt

d(g, h) = d({b2}, g) =‖(b2 − b1)× w1‖

‖w1‖nach (d).

88

Page 89: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

Teil V.

Eigenwerte und Eigenvektoren

89

Page 90: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

12. Der Körper der komplexen Zahlen C

Wir wollen nun den Zahlenbereich der reellen Zahlen erweitern. Ein Ziel ist es dabei, Nullstellenvon Polynomen zu bestimmen. Wir wissen, dass ein reelles Polynom n-ten Grades p(x) =anx

n+ . . .+a1x+a0 maximal n Nullstellen besitzt. Jedoch gibt es Polynome wie zum Besipielx2 + 1, die keine Nullstellen in den reellen Zahlen haben. Die Erweiterung zu den komlexenZahlen liefert auch Nullstellen für solche Polynome.

Definition. Wir betrachten die Menge

C := {(a, b) ; a, b ∈ R} = R× R = R2

der komplexen Zahlen und versehen diese mit der bekannten Addition

(a, b) + (c, d) := (a+ c, b+ d)

und mit der Multiplikation

(a, b) · (c, d) := (ac− bd, bc+ ad).

Satz 12.1. Die Menge C mit den Operationen + und · ist ein Körper mit neutralem Element(0, 0) bzgl. + und neutralem Element (1, 0) bzgl. ·.

Beweis. Wir wissen bereits, dass (C,+) = (R2,+) eine abelsche Gruppe mit neutralem Element(0, 0) ist. Wir zeigen nun, dass (C \ (0, 0), ·) ebenfalls eine abelsche Gruppe ist. Dazu zeigenwir:

• · ist assoziativ: Für (a, b), (c, d), (e, f) ∈ C gilt

((a, b) · (c, d)) · (e, f) = (ac− bd, bc+ ad) · (e, f)= ((ac− bd)e− (bc+ ad)f, (bc+ ad)e+ (ac− bd)f)

= (a(ce− df)− b(de+ cf), b(ce− df) + a(de+ cf))

= (a, b) · (ce− df, de+ cf)

= (a, b) · ((c, d) · (e, f)) .

• (1, 0) ist neutrales Element: Für (a, b) ∈ C gilt

(a, b) · (1, 0) = (a · 1− b · 0, b · 1 + a · 0) = (a, b).

• (a, b) 6= (0, 0) ist invertierbar: Wir suchen (x, y) ∈ C mit

(a, b) · (x, y) = (1, 0)

90

Page 91: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

12. Der Körper der komplexen Zahlen C

also

a · x− b · y = 1,

b · x+ a · y = 0

also (a −bb a

)(xy

)=

(10

).

Da det

(a −bb a

)= a2 + b2 6= 0 folgt

(xy

)=

1

a2 + b2

(a b−b a

)(10

)=

(a

a2+b2

− ba2+b2

).

• · ist kommutativ: Für (a, b), (c, d) ∈ C gilt

(a, b) · (c, d) = (ac− bd, bc+ ad) = (ca− db, cb+ da) = (c, d) · (a, b).

Es verbleibt das Distributivgesetz zu beweisen. Seien dazu (a, b), (c, d), (e, f) ∈ C. Dann gilt

(a, b) · ((c, d) + (e, f)) = (a, b) · (c+ e, d+ f)

= (a(c+ e)− b(d+ f), b(c+ e) + a(d+ f))

= (ac− bd+ ae− bf, bc+ ad+ be+ af)

= (ac− bd, bc+ ad) + (ae− bf, be+ af)

= (a, b) · (c, d) + (a, b) · (e, f).

Satz 12.2. Die Abbildung f : R → C gegeben durch f(x) = (x, 0) ist ein Körper-Homomorphismus.

Beweis. Für x, y ∈ R gilt

f(x+ y) = (x+ y, 0) = (x, 0) + (y, 0) = f(x) + f(y)

f(xy) = (xy, 0) = (x, 0) · (y, 0) = f(x) · f(y).

Definition. Für z = (a, b) ∈ C nennen wir a den Realteil von z und b den Imaginärteil von zund schreiben

a = Re z, b = Im z.

Ferner definieren wiri := (0, 1)

die imaginäre Einheit. Mit der Identifikation von a und (a, 0), sowie von b mit (b, 0) gilt also

z = (a, b) = a+ ib.

91

Page 92: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

12. Der Körper der komplexen Zahlen C

Ferner definieren wir

z = (a,−b) = a− ib

|z| :=√a2 + b2

die konjugiert komplexe Zahl zu z und den Betrag von z.

Lemma 12.3. Es gilt i2 = −1. Zudem gilt für z1 = a1 + ib1 und z2 = a2 + ib2

z1 + z2 = a1 + a2 + i(b1 + b2)

z1 · z2 = a1b1 − b1b2 + i(b1a2 + a1b2).

Ferner gilt für z ∈ C :

(a) z ∈ R ⇔ z = z,

(b) |z|2 = zz,

(c) falls z 6= 0 gilt z−1 = 1|z|2 z.

Beweis. Übung!

Bemerkung 12.4. Sei P (x) = x2 + px + q ein reelles Polynom zweiten Grades, also p, q ∈ R.Wir suchen nun die komplexen(!) Nullstellen dieses Polynoms, also alle x ∈ C mit P (x) = 0.Es gilt

x2 + px+ q =(x+

p

2

)2− p2

4+ q

und somit P (x) = 0 genau dann, wenn

(x+p

2)2 =

p2

4− q

und erhalten somit

x+p

2=

±√

p2

4 − q falls p2

4 − q ≥ 0,

±i√q − p2

4 falls p2

4 − q < 0.

Das liefert die wohlbekannte Formel

x = −p

±√

p²4 − q falls p²

4 − q ≥ 0,

±i√

q − p²4 falls p²

4 − q < 0.

Man kann sogar das folgende Theorem beweisen.

Theorem 12.5 (Fundamentalsatz der Algebra). Sei P : C → C ein nicht-konstantes Polynommit komplexen Koeffizienten. Dann besitzt P eine Nullstelle in C.

Lemma 12.6 (Linearfaktoren). Sei P : K → K ein Polynom n-ten Grades mit Koeffizientenin K. Ist x0 ∈ K eine Nullstelle von P , so existiert ein Polynom Q : K → K vom Grad n − 1so, dass

P (x) = Q(x)(x− x0) (x ∈ K).

92

Page 93: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

12. Der Körper der komplexen Zahlen C

Insbesondere kann P höchstens n Nullstellen haben.

Beweis. Es sei P (x) =∑n

j=0 ajxj für gewisse Koeffizienten aj ∈ K mit an 6= 0. Wir setzen

Q(x) =

n−1∑

j=0

bjxj

mit

bn−1 = an

bj−1 = x0bj + aj

für j ∈ {1, . . . , n− 1}. In der Tat gilt

(x− x0)Q(x) =

n−1∑

j=0

bjxj+1 −

n−1∑

j=0

bjx0xj

=n∑

k=1

bk−1xk −

n−1∑

j=0

bjx0xj

= bn−1xn +

n−1∑

j=1

(bj−1 − x0bj)xj − b0x0

=

n∑

j=1

ajxj − b0x0.

Nun gilt

b0x0 = x0(x0b1 + a1)

= x02(x0b2 + a2) + a1x0

...

=

n∑

j=1

xj0aj

= P (x0)− a0 = −a0

und damit schließlich(x− x0)Q(x) = P (x).

Korollar 12.7. Sei P : C → C ein komplexes Polynom n-ten Grades. Dann existieren z1, . . . , zn ∈C und a ∈ C so, dass

P (x) = a (x− z1) · . . . · (x− zn) (x ∈ C).

Beweis. Ist P konstant, so ist nicht zu zeigen. Ist P nicht-konstant, so besitzt P nach Funda-mentalsatz eine Nullstelle z1 ∈ C und damit gilt P (x) = (x− z1)Q(x) für ein Polynom Q vom

93

Page 94: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

12. Der Körper der komplexen Zahlen C

Grad n−1. Dieses besitzt wiederum eine Nullstelle z2 und damit gilt P (x) = (x−z1)(x−z2)W (x)für ein Polynom W vom Grad n− 2. Das liefert schließlich die Behauptung.

94

Page 95: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

13. Eigenwerte, Eigenvektoren und

Diagonalisierbarkeit

Sei im Weiteren stets V ein K-Vektorraum mit dimV = n < ∞. Sei weiter f : V → V linear.Wir erinnern an Satz 7.3: Sind B und C Basen von V, so lässt sich f im folgenden Sinne durchdie Matrix [f ]B,C ∈ Kn×n darstellen:

∀x ∈ V : [f(x)]C = [f ]B,C · [x]B.

Hierbei bezeichnet [x]B bzw [f(x)]C die Darstellung der Vektoren x und f(x) bzgl der BasenB und C, also z.B.

[x]B =

λ1...λn

∈ Kn

falls x = λ1b1 + . . .+ λnbn. Das Ziel ist es nun, möglichst einfache Dartsellungsmatrizen für fzu finden. Genauer suchen wir eine geeignete Basis B so, dass [f ]B,B eine Diagonalmatrix wird.

Satz 13.1. Sei B eine Basis von V . Dann sind folgende Aussagen äquivalent:

(i) [f ]B,B ist eine Diagonalmatrix, d.h.

[f ]B,B =

λ1 0. . .

0 λn

für gewisse λ1, . . . , λn ∈ K.

(ii) Für die Vektoren bi der Basis B gilt

f(bi) = λibi (i ∈ {1, . . . , n}).

Beweis. (i) ⇒ (ii): Sei i ∈ {1, . . . , n}. Da

[bi]B =

0...1...0

= ei

95

Page 96: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

13. Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

folgt

[f(bi)]B = [f ]B,B[bi]B

=

λ1 0. . .

0 λn

0...1...0

=

0...λi...0

= [λibi]B

und daher f(bi) = λibi.(ii) ⇒ (i): Nach Satz 7.3 gilt

[f ]B,B =([f(b1)]B · · · [f(bn)]B

)

und da

[f(bi)]B = [λibi]B =

0...λi...0

für alle i ∈ {1, . . . , n} folgt

[f ]B,B =

λ1 0. . .

0 λn

.

Wir suchen also Vektoren v ∈ V so, dass

f(v) = λv

für ein λ ∈ K ist. Da diese Gleichung für v = 0 immer erfüllt ist, verlangen wir v 6= 0.

Definition. Ein Skalar λ ∈ K heißt Eigenwert von f , falls es einen Vektor v 6= 0 gibt, so dass

f(v) = λv

gilt. Der Vektor v heißt dann Eigenvektor von f zum Eigenwert λ. Zudem definieren wir füreinen Eigenwert λ ∈ K von f die Menge

Eig(f, λ) := {v ∈ V ; f(v) = λv}

96

Page 97: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

13. Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

den Eigenraum von f zum Eigenwert λ.

Bemerkung 13.2. Ist λ ∈ K ein Eigenwert zu f , so ist Eig(f, λ) ein Untervektorraum von Vmit dimEig(f, λ) ≥ 1. In der Tat ist

Eig(f, λ) = ker(f − λ idV )

und somit ein Untervektorraum. Außerdem existiert nach Voraussetzung ein v 6= 0 mit v ∈Eig(f, λ) und daher dimEig(f, λ) ≥ 1.

Korollar 13.3. Es sind folgende Aussagen äquivalent:

(i) f ist diagonalsierbar, d.h. es gibt eine Basis B, so dass [f ]B,B eine Diagonalmatrix ist.

(ii) Es existiert eine Basis von V bestehend aus Eigenvektoren von f .

Die Frage ist nun, wie wir die Eigenwerte und Eigenvektoren von f bestimmen. Ein wesentlichesHilsmittel ist der folgende Satz.

Satz 13.4. Sei B eine Basis von V und λ ∈ K. Dann ist λ ein Eigenwert von f genau dann,wenn [f ]B,B − λEn nicht injektiv ist. Zudem ist

Φ : Eig(f, λ) → ker([f ]B,B − λEn)

v 7→ [v]B,B

ein Vektorraum-Isomorphismus.

Beweis. Sei zunächst λ ein Eigenwert von f und v 6= 0 ein zugehöriger Eigenvektor. Dann gilt

([f ]B,B − λEn)[v]B = [f ]B,B[v]B − λ[v]B

= [f(v)]B − λ[v]B

= [λv]B − λ[v]B

= 0

und somit Φ(v) = [v]B,B ∈ ker([f ]B,B − λEn). Da v 6= 0, gilt ebenfalls [v]B 6= 0 und somit ist[f ]B,B − λEn nicht injektiv, da sowohl [v]B als auch der Nullvektor auf 0 abgebildet werden.Sei nun umgekehrt [f ]B,B − λEn nicht injektiv. Dann existieren zwei Vektoren a, b ∈ Kn mita 6= b und

([f ]B,B − λEn) a = ([f ]B,B − λEn) b.

Für den Vektor c := a − b gilt daher c 6= 0 und c ∈ ker ([f ]B,B − λEn). Setzen wir nunv = Φ−1(c) =

∑ni=1 cibi ∈ V \ {0} so erhalten wir [v]B = c und

[f(v)]B = [f ]B,B[v]B

= [f ]B,Bc

= λc

= [λv]B

und damit f(v) = λv.Wir haben ferner gezeigt, dass Φ : Eig(f, λ) → ker([f ]B,B − λEn) wohldefiniert und surjektivist. Da wir bereits wissen, dass Φ linear und injektiv ist, folgt die Behauptung.

97

Page 98: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

13. Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Somit genügt es also zur Bestimmung der Eigenwerte eine beliebige Dartsellungsmatrix Avon f zu wählen und für diese alle λ zu bestimmen, so dass A − λEn nicht injektiv ist. DaA−λEn ∈ Kn×n wissen wir, dass A−λEn injektiv ist, genau dann wenn det(A−λEn) = 0 ist.

Lemma 13.5. Sei A ∈ Kn×n. Dann ist

χA : K → K

λ 7→ det(A− λEn)

ein Polynom n-ten Grades, das sog. charakteristische Polynom von A. Insbesondere besitzt χA

höchstens n Nullstellen.

Beweis. Durch wiederholtes Entwickeln nach der ersten Spalte ergibt sich χA(λ) als Summevon jeweils n Prdukten von verschiedenen Einträgen aus A − λEn. Da nur genau n Einträgeein λ enthalten, ist χA ein Polynom von Grade höchstens n. Insbesondere tritt

(a11 − λ) · . . . · (ann − λ)

als einziger Summand auf, der in jedem Faktor λ enthält und somit ist χA(λ) = (−1)nλn +∑n−1i=0 ciλ

i für gewisse ci ∈ K.

Die Wahl der Darstellungsmatrix für f ist für die Bestimmung des charakteristischen Polynomsunerheblich.

Lemma 13.6. Sei A ∈ Kn×n und U ∈ Kn×n invertierbar. Wir setzen B = U−1AU. Dann giltχA = χB. Insbesondere gilt für je zwei Basen C,D von V

χf := χ[f ]C,C= χ[f ]D,D.

Beweis. Es gilt

χB(λ) = det(B − λEn)

= det(U−1AU − λEn)

= det(U−1(A− λEn)U

)

= detU−1 det(A− λEn) detU

= χA(λ).

Sind nun C,D Basen von V so gilt nach Korollar 7.7

[f ]C,C = [idV ]D,C [f ]D,D[idV ]C,D.

Da weiter [idV ]D,C = [id]−1C,D nach Korollar 7.10. folgt die Behauptung aus dem bereits Bewie-

senen.

Beispiel 13.7. Wir wählen V = R2.

(a) Es sei f die Spiegelung an der Geraden

g =

(11

); λ ∈ R

}.

98

Page 99: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

13. Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Ist E die Standardbasis, so gilt

A := [f ]E,E =

(0 11 0

).

Damit lassen sich die Eigenwerte von f als Nullstellen von χA bestimmen. Es gilt

χA(λ) = det

(−λ 11 −λ

)= λ2 − 1

und somit sind λ1 = 1 und λ2 = −1 die Eigenwerte von f . Für die zugehörigen Eigenvek-toren berechnen wir ker(A− E2) und ker(A+ E2). Es gilt v ∈ ker(A− E2), falls

(−1 11 −1

)(v1v2

)=

(00

).

Aus der ersten Zeile erhalten wir v1 = v2 ebenso wie aus der zweiten Zeile. Somit ist

Eig(f, 1) =

{(µµ

); µ ∈ R

}= g.

Weiter gilt v ∈ ker(A+ E2), falls

(1 11 1

)(v1v2

)=

(00

).

Hieraus erhalten wir

Eig(f,−1) =

{(−µµ

); µ ∈ R

}.

Wählen wir also als Basis zum Beispiel B =

{(11

),

(−11

)}, so erhalten wir

[f ]B,B =

(1 00 −1

)

nach Satz 13.1.

(b) Es sei f die Drehung um 90° (gegen den Uhrzeigersinn). Dann gilt

A := [f ]E,E =

(0 −11 0

)

und daher

χA(λ) = det

(−λ −11 −λ

)= λ2 + 1.

Dieses Polynom hat keine reellen Nullstellen und somit besitzt f keine Eigenwerte im RaumR2. Gehen wir allerdings in den Raum C2, so erhalten wir die beiden Eigenwerte λ1 = i

99

Page 100: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

13. Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

und λ2 = −i. Für die Eigenvektoren v zu i muss gelten(

−i −11 −i

)(v1v2

)=

(00

)

und damit v1 = iv2 also

Eig(f, i) =

(i1

); µ ∈ C

}.

Analog folgt

Eig(f,−i) =

(1i

); µ ∈ C

}

und somit gilt für B =

{(i1

),

(1i

)}

[f ]B,B =

(i 00 −i

).

Das vorhergehende Beispiel zeigt, dass nicht jede lineare Abbildungen Eigenwerte besitzen mussund die Diagonalisierbarkeit stark vom zugrunde liegenden Vektorraum abhängt. Ferner habenwir gesehen, dass Eigenvektoren zu verschiedenen Eigenwerten linear unabhängig sind. Das diesimmer so ist, zeigt der nächste Satz.

Satz 13.8. Seien λ1, . . . , λk ∈ K paarweise verschiedene Eigenwerte von f . Seien v1, . . . , vk ∈V \ {0} zugehörige Eigenvektoren. Dann ist {v1, . . . , vk} linear unabhängig.

Beweis. Wir beweisen diese Aussage mittels vollständiger Induktion nach k. Für k = 1 gilt dieBehauptung offensichtlich, da v1 6= 0. Gelte die Behauptung nun für k − 1. Wir zeigen sie nunfür k. Seien dazu µ1, . . . , µk ∈ K mit

µ1v1 + . . .+ µkvk = 0. (13.1)

Wenden wir f auf beide Seiten der Gleichung an, so gilt

0 = f (µ1v1 + . . .+ µkvk)

= µ1f(v1) + . . .+ µkf(vk)

= µ1λ1v1 + . . .+ µkλkvk.

Mulitplizieren wir andererseits (13.1) mit λk so erhalten wir

0 = µ1λkv1 + . . .+ µkλkvk.

Setzen wir die beiden Ausdrücke gleich und stellen um, so erhalten wir

µ1(λ1 − λk)v1 + . . .+ µk−1(λk−1 − λk)vk−1 = 0.

Da aber nach Voraussetzung {v1, . . . vk−1} linear unabhängig sind und außerdem λk 6= λi füri ∈ {1, . . . , k − 1} gilt, folgt

µ1 = . . . = µk−1 = 0.

100

Page 101: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

13. Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Aus der Gleichung (13.1) erhalten wir anschließend µk = 0, da vk 6= 0. Somit ist also {v1, . . . , vk}linear unabhängig.

Korollar 13.9. Sind λ1, . . . , λn ∈ K paarweise verschiedene Eigenwerte zu f , so ist f diago-nalisierbar.

Das charakteristische Polynom hat noch eine bemerkenswerte Eigenschaft, die hier erwähnt,aber nicht bewiesen werden soll.

Theorem 13.10 (Satz von Cayley-Hamilton). Sei A ∈ Kn×n und

χA(λ) = det(A− λEn) = anλn + . . .+ a1λ+ a0

das charakteristische Polynom von A. Dann gilt

anAn + . . .+ a1A+ a0En = 0.

Ist det(A) = a0 6= 0, so folgt

A−1 = − 1

a0

(anA

n−1 + . . .+ a2A+ a1En

).

Beweis. Wir beweisen nur die Formel für A−1. Da

−a0En = anAn + . . .+ a1A = A

(anA

n−1 + . . .+ a2A+ a1En

)

und a0 = χA(0) = det(A) 6= 0, folgt

A1

−a0

(anA

n−1 + . . .+ a2A+ a1En

)= En

und damit die Behauptung.

Definition. Sei λ ∈ K ein Eigenwert von f . Wir definieren αf (λ) ∈ N≥1 als die Zahl, für diegilt

χf (x) = (x− λ)αf (λ)Q(x)

für ein Polynom Q mit Q(λ) 6= 0. Die Zahl αf (λ) heißt algebraische Vielfachheit von λ. Fernerdefinieren wir

γf (λ) := dimEig(f, λ)

die geometrische Vielfachheit von λ.

In den obigen Beispielen waren die algebraischen und geometrischen Vielfachheiten jeweils 1.Das dies nicht immer so ist, zeigt das folgende Beispiel.

Beispiel 13.11. Wir betrachten die Matrix

A =

(1 10 1

)

101

Page 102: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

13. Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

und die zugehörige Abbildung fA : R2 → R2. Es gilt

χA(λ) = det

(1− λ 10 1− λ

)= (1− λ)2.

Somit ist λ = 1 der einzige Eigenwert und es gilt αfA(1) = 2. Ein Eigenvektor v zum Eigenwert1 erfüllt nun (

0 10 0

)(v1v2

)=

(00

)

und daher v2 = 0. Also ist

Eig(fA, 1) =

(10

); µ ∈ R

}

und daher γfA(1) = 1. Insbesondere ist fA nicht diagonalisierbar.

Satz 13.12. Sei λ ∈ K ein Eigenwert von f. Dann gilt

γf (λ) ≤ αf (λ).

Beweis. Sei k := γf (λ) und {v1, . . . , vk} eine Basis von Eig(f, λ). Wir ergänzen diese zu einerBasis B := {v1, . . . , vk, vk+1, . . . , vn} von V und berechnen [f ]B,B. Es gilt

[f ]B,B =([f(v1)]B · · · [f(vk)]B [f(vk+1)]B · · · [f(vn)]B

)

=([λvk]B · · · [λvk]B [f(vk+1)]B · · · [f(vn)]B

)

=

(λEk M0 N

)

für gewisse Matrizen M ∈ Kk×(n−k), N ∈ K(n−k)×(n−k). Somit gilt

χf (x) = det

((λ− z)Ek M

0 N − zEn−k

)= (λ− x)kχN (x).

Hieraus folgt k ≤ αf (λ), denn: Durch sukzessives Anwenden von Lemma 12.6 erhält man

χN (x) = (λ− x)ℓP (x)

für ein Polynom P mit P (λ) 6= 0 und ein ℓ ∈ N (mit ℓ = 0 falls χN (λ) 6= 0). Damit ist

χf (x) = (λ− x)k+ℓP (x)

und daher k ≤ k + ℓ = αf (λ).

Theorem 13.13 (Diagonalsierbarkeit). Folgende Aussagen sind äquivalent:

(i) f ist diagonalsierbar,

(ii) χf (x) = (λ1−x)k1 · . . . · (λℓ−x)kℓ für paarweise verschiedene λ1, . . . , λk ∈ K, k1, . . . , kℓ ∈N≥1 und γf (λi) = ki für alle i ∈ {1, . . . , n},

(iii) V besitzt eine Basis aus Eigenvektoren von f .

102

Page 103: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

13. Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

Beweis. (i) ⇒ (ii): Ist f diagonalisierbar, so existiert eine Basis B von V mit

[f ]B,B =

µ1 0. . .

0 µn

für gewisse µ1, . . . , µn ∈ K. Dann gilt

χf (x) = χ[f ]B,B(x) = det

µ1 − x. . .

µn − x

= (µ1 − x) · . . . · (µn − x).

Sei nun i ∈ {1, . . . , ℓ}. Dann taucht λi genau ki-mal in [f ]B,B auf, sagen wir an den Koordinatenm1, . . . ,mki . Dann sind aber em1

, . . . , emki∈ ker ([f ]B,B − λiEn) und damit

γf (λi) = dimEig(f, λi) = dimker ([f ]B,B − λiEn) ≥ ki = αf (λi).

Da immer γf (λi) ≤ αf (λi) gilt, folgt die Behauptung.(ii) ⇒ (iii): Da χf in Linearfaktoren zerfällt und ein Polynom n-ten Grades ist, folgt

∑ℓi=1 ki =

n. Damit folgt ebenso∑ℓ

i=1 γf (λi) = n. Wir wählen nun jeweils Basen Bi der EigenräumeEig(f, λi). Nach Satz 13.8 ist Bi ∩Bj = ∅ für i 6= j und B := B1 ∪ . . . ∪Bℓ linear unabhängig.Da

|B| =ℓ∑

i=1

|Bi| =ℓ∑

i=1

γf (λi) = n,

folgt, dass B eine Basis von V ist.(iii) ⇒ (i): Das wurde bereits in Satz 13.1 gezeigt.

103

Page 104: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

14. Adjungierte lineare Abbildungen und

Normalformen

Wir wollen zunächst die Definition eines Skalarprodukts auf einem Vektorraum V verallgemei-nern, indem wir auch Skalarprodukte mit Werten in C zulassen.

Definition. Sei V ein Vektorraum über C. Ein Skalarprodukt auf V ist eine Abbildung 〈·, ·〉 :V × V → C mit folgenden Eigenschaften:

(a) ∀w ∈ V : 〈·, w〉 : V → C ist linear, d.h. für w ∈ V und u, v ∈ V, λ ∈ C gilt

〈λu+ v, w〉 = λ〈u,w〉+ 〈v, w〉,

(b) ∀u, v ∈ V : 〈u, v〉 = 〈v, u〉,(c) ∀u ∈ V : 〈u, u〉 ∈ R≥0,

(d) ∀u ∈ V : 〈u, u〉 = 0 ⇒ u = 0.

Ist 〈·, ·〉 ein Skalarprodukt, so heißt (V, 〈·, ·〉) ein unitärer Raum.

Beispiel 14.1. Auf V = Cn ist

〈u, v〉 :=n∑

i=1

ui · vi (u, v ∈ Cn)

ein Skalarprodukt, das sog. Standardskalarprodukt auf Cn.

Bemerkung 14.2. Alle Aussagen aus Kapitel 10 lassen sich auf unitäre Vektorräume übertragen.Insbesondere ist für einen unitären Raum (V, 〈·, ·〉) eine Norm durch

‖u‖ :=√〈u, u〉 (u ∈ V )

definiert und es gilt die Cauchy-Schwarz-Ungleichung

|〈u, v〉| ≤ ‖u‖ · ‖v‖ (u, v ∈ V ).

Wir nehmen nun stets an, dass (V, 〈·, ·〉V ), (W, 〈·, ·〉W ) endlich-dimensionale euklidische (alsoreelle) oder unitäre (also komplexe) Räume ist. Hierbei sind beide entweder reell oder beidekomplex, allerdings ist dimV 6= dimW erlaubt. Sei weiter f : V → W linear. Wir suchen nuneine lineare Abbildung f∗ : W → V , die wir im Skalarprodukt „auf die andere Seite bringenkönnen“, also für die gilt

∀u ∈ V,w ∈ W : 〈f(u), w〉W = 〈u, f∗(w)〉V .

104

Page 105: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

14. Adjungierte lineare Abbildungen und Normalformen

Indem wir beide Seiten konjugiert komplex nehmen, folgt hieraus auch unmittelber

∀u ∈ V,w ∈ W : 〈w, f(u)〉W = 〈f∗(w), u〉V

Zunächst wollen wir zeigen, dass solch eine Abbildung stets existiert und eindeutig ist.

Satz 14.3. Sei f : V → W linear. Dann existiert genau eine Abbildung f∗ : W → V linear mit

∀u ∈ V,w ∈ W : 〈f(u), w〉W = 〈u, f∗(w)〉V . (14.1)

Die Abbildung f∗ heißt die zu f adjungierte Abbildung oder die Adjungierte zu f .

Beweis. Sei {b1, . . . , bn} Orthonormalbasis von V (diese existiert nach Korollar 10.13). Danngilt nach Satz 10.14 für jeden Vektor u ∈ V

u =

n∑

i=1

〈u, bi〉V bi.

Da f∗(w) ∈ V gelten soll, folgt wegen (14.1)

f∗(w) =n∑

i=1

〈f∗(w), bi〉V bi

=n∑

i=1

〈w, f(bi)〉W bi.

Damit muss jede Abbildung, die (14.1) erfüllt zwangsläufig durch

f∗ : W → V

w 7→n∑

i=1

〈w, f(bi)〉W bi

definiert werden. Wir zeigen, dass f∗ linear ist und tatsächlich (14.1) erfüllt. Seien dazu w1, w2 ∈W und λ ∈ K. Dann gilt

f∗(λw1 + w2) =n∑

i=1

〈λw1 + w2, f(bi)〉W bi

=n∑

i=1

(λ〈w1, f(bi)〉W bi + 〈w2, f(bi)〉W bi)

= λn∑

i=1

〈w1, f(bi)〉W bi +n∑

i=1

〈w2, f(bi)〉W bi

= λf∗(w1) + f∗(w2),

105

Page 106: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

14. Adjungierte lineare Abbildungen und Normalformen

also ist f∗ linear. Außerdem gilt für w ∈ W und u ∈ V

〈u, f∗(w)〉V = 〈u,n∑

i=1

〈w, f(bi)〉W bi〉V

= 〈n∑

i=1

〈w, f(bi)〉W bi, u〉V

=

n∑

i=1

〈w, f(bi)〉W · 〈bi, u〉V

=

n∑

i=1

〈f(bi), w〉W · 〈u, bi〉V

= 〈n∑

i=1

〈u, bi〉V f(bi), w〉W

= 〈f(n∑

i=1

〈u, bi〉V bi), w〉W

= 〈f(u), w〉W ,

also (14.1).Es verbleibt die Eindeutigkeit von f∗ zu zeigen. Sei dazu f : W → V eine weitere lineareAbbildung mit

∀u ∈ V,w ∈ W : 〈f(u), w〉W = 〈u, f(w)〉V .Dann gilt für u ∈ V und w ∈ W

〈u, f∗(w)− f(w)〉V = 〈u, f∗(w)〉V − 〈u, f(w)〉V= 〈f(u), w〉W − 〈f(u), w〉W= 0.

Da dies für alle u ∈ V gilt und somit insbesondere für u = f∗(w)− f(w) ∈ V folgt

f∗(w)− f(w) = 0

und damit die Eindeutigkeit.

Beispiel 14.4. (a) Seien V = Rn, W = Rm versehen mit dem Standardskalarprodukt. SeiA ∈ Rm×n und betrachte fA : V → W gegeben durch fA(x) = A · x. Dann gilt für x ∈ Rn

106

Page 107: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

14. Adjungierte lineare Abbildungen und Normalformen

und y ∈ Rm

〈fA(x), y〉Rm =

m∑

i=1

(A · x)i · yi

=

m∑

i=1

n∑

j=1

aij · xj · yi

=

n∑

j=1

xj ·m∑

i=1

aijyi

=n∑

j=1

xj ·m∑

i=1

a⊤jiyi

= 〈x,A⊤ · y〉Rn .

Damit gilt also f∗A = fA⊤ bzgl des reellen Standardskalarprodukts.

(b) Seien V = Cn, W = Cm versehen mit dem Standardskalarprodukt. Sei A ∈ Cm×n undbetrachte fA : V → W gegeben durch fA(x) = A · x. Dann gilt für x ∈ Cn und y ∈ Cm

〈fA(x), y〉Cm =

m∑

i=1

(A · x)i · yi

=

m∑

i=1

n∑

j=1

aij · xj · yi

=

n∑

j=1

xj ·m∑

i=1

aijyi

=n∑

j=1

xj ·m∑

i=1

a⊤jiyi

=n∑

j=1

xj ·m∑

i=1

(a⊤jiyi

)

= 〈x,A∗ · y〉Cn ,

wobeiA∗ := (aji)i∈{1,...,n},j∈{1,...,m} = A

die sog. adjungierte Matrix von A ist. Damit gilt also f∗A = fA∗ bzgl des komplexen Stan-

dardskalarprodukts.

Allgemeiner kann man folgendes sagen.

Satz 14.5. Seien V,W euklidische/unitäre Vektorräume und f : V → W linear. Seien B,COrthonormalbasen von V bzw. W. Dann gilt

[f∗]C,B = ([f ]B,C)∗ .

107

Page 108: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

14. Adjungierte lineare Abbildungen und Normalformen

Beweis. Sei B = {b1, . . . , bn} und C = {c1, . . . , cm}. Dann gilt nach Satz 10.14

f∗(cj) =n∑

i=1

〈f∗(cj), bi〉V bi

und somit

[f∗(cj)]B =

〈f∗(cj), b1〉V...

〈f∗(cj), bn〉V

=

〈cj , f(b1)〉W...

〈cj , f(bn)〉W

=

〈f(b1), cj〉W...

〈f(bn), cj〉W

.

Da die linke Seite die j-te Spalte von [f∗]C,B und die rechte Seite die j-te Spalte von ([f ]B,C)∗

ist, folgt die Behauptung.

Eine nützliche Anwendung der adjungierten Abbildung stellen lineare Gleichungssysteme dar,genauer deren Lösbarkeit. Sei A ∈ Km×n mit K = R oder K = C und betrachten wir das LGS

Ax = b.

Dann besitzt dieses LGS genau dann eine Lösung, wenn b ∈ W (fA) gilt. Um herauszufinden, fürwelche Vektoren b wir also eine Lösung finden, müssen wir den Wertebereich W (fA) bestimmen.Wie wir das mithilfe der adjungierten Abbildung tun können, zeigt der nächste Satz.

Satz 14.6. Sei f : V → W linear. Dann gilt

W (f)⊥ = ker(f∗)

und damit auchW (f) = ker(f∗)⊥.

Beweis. Es gilt w ∈ W (f)⊥ genau dann, wenn

∀v ∈ W (f) : 〈v, w〉W = 0

⇔∀u ∈ V : 〈f(u), w〉W = 0

⇔∀u ∈ V : 〈u, f∗(w)〉W = 0

⇔f∗(w) = 0

⇔w ∈ ker f∗

und daherW (f)⊥ = ker f∗.

Hieraus folgt (mit Aufgabe 5, Blatt 3)

W (f) =(W (f)⊥

)⊥= (ker f∗)⊥ .

Korollar 14.7. Sei A ∈ Km×n mit K = R oder K = C. Dann gilt

(a) Das LGSAx = b

108

Page 109: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

14. Adjungierte lineare Abbildungen und Normalformen

ist genau dann für alle b ∈ Km lösbar, wenn das LGS

A∗y = 0

nur die Lösung y = 0 besitzt.

(b) Es ist rangA = rangA∗ (Zeilenrang=Spaltenrang).

Beweis. (a) Das LGS ist genau dann für alle b ∈ Km lösbar, wenn W (fA) = Km und nach Satz14.6 gilt

W (fA) = (ker f∗A)

⊥ = (ker fA∗)⊥

und damit

W (fA) = Km ⇔ (ker fA∗)⊥ = Km

⇔ ker fA∗ = (Km)⊥ = {0}.

Da ker fA∗ der Lösungsmenge des homogenen LGS zu A∗ ist, folgt die Behauptung.

(b) Es gilt

rangA = dimW (fA)

14.6= dim (ker f∗

A)⊥

ÜA= dimW − dimker fA∗

5.17= dimW�ker fA∗

5.22= dimW (fA∗)

= rangA∗.

Wir wollen noch einige nützliche Rechenregeln für adjungierte Abbildungen angeben.

Satz 14.8. Seien V,W,U endlich-dimensionale euklidische/unitäre Räume und f, g : V → Wsowie h : U → V linear. Dann gilt für alle λ ∈ K

f∗∗ = f,

(λf + g)∗ = λf∗ + g∗,

(f ◦ h)∗ = h∗ ◦ f∗.

Beweis. Übung!

Abschließend wollen wir nun die Diagonalsierbarkeit von lineare Abbildungen f : V → Vmithilfe der adjungierten Abbildung untersuchen. Dazu benötigen wir die folgenden Begriffe:

Definition. Eine lineare Abbildung f : V → V heißt:

(a) selbstadjungiert, falls f∗ = f,

109

Page 110: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

14. Adjungierte lineare Abbildungen und Normalformen

(b) schiefselbstadjungiert, falls f∗ = −f ,

(c) normal, falls f∗ ◦ f = f ◦ f∗.

Lemma 14.9. (a) Ist f selbstadjungiert/schiefselbstadjungiert, so ist f normal.

(b) Ist K = C, so giltf schiefselbstadjungiert ⇔ if selbstadjungiert.

Beweis. Übung!

Beispiel 14.10. Wir betrachten

A =

(1 −22 1

).

Dann gilt

A∗ =

(1 2−2 1

)

und somit ist fA weder selbstadjungiert noch schiefselbstadjungiert. Allerdings gilt

A∗A =

(1 2−2 1

)(1 −22 1

)

=

(5 00 5

)

und

AA∗ =

(1 −22 1

)(1 2−2 1

)

=

(5 00 5

)

und somit ist A normal.

Wir wollen uns nun näher mit normalen linearen Abbildungen beschäftigen und diese auf Dia-gonalsierbarkeit untersuchen.

Lemma 14.11. Sei f : V → V eine normale Abbildung auf einem unitären Raum V . Ist λ ∈ Cein Eigenwert von f mit zugehörigem Eigenvektor v ∈ V, so ist λ ein Eigenwert von f∗ mitzugehörigem Eigenvektor v. Es gilt also

Eig(λ, f) = Eig(λ, f∗).

Beweis. Es gilt

‖f∗(v)− λv‖2 = 〈f∗(v)− λv, f∗(v)− λv〉= 〈f∗(v), f∗(v)〉 − λ〈v, f∗(v)〉 − λ〈f∗(v), v〉+ λλ〈v, v〉= 〈f∗(v), f∗(v)〉 − 〈f(v), λv〉 − 〈λv, f(v)〉+ 〈λv, λv〉.

110

Page 111: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

14. Adjungierte lineare Abbildungen und Normalformen

Außerdem ist

〈f∗(v), f∗(v)〉 = 〈f ◦ f∗(v), v〉 = 〈f∗ ◦ f(v), v〉 = 〈f(v), f(v)〉

und damit ingesamt

‖f∗(v)− λv‖2 = 〈f(v), f(v)〉 − 〈f(v), λv〉 − 〈λv, f(v)〉+ 〈λv, λv〉= ‖f(v)− λv‖2 = 0,

also ist f∗(v) = λv.

Korollar 14.12. Sei f : V → V eine normale Abbildung auf einem unitären Raum V . Seienλ, µ ∈ C zwei verschiedene Eigenwerte von f mit zugehörigen Eigenvektoren v, w ∈ V \ {0}.Dann gilt

〈v, w〉 = 0.

Beweis. Es gilt

λ〈v, w〉 = 〈λv,w〉 = 〈f(v), w〉 = 〈v, f∗(w)〉 14.11= 〈v, µw〉 = µ〈v, w〉

und damit(λ− µ)〈v, w〉 = 0.

Da λ 6= µ, folgt 〈v, w〉 = 0.

Theorem 14.13 (Normalform, unitärer Vektorraum). Sei V ein unitärer Raum und f : V → Vlinear. Dann sind äquivalent:

(i) f ist normal,

(ii) es existiert eine Orthonormalbasis von V bestehend aus Eigenvektoren von f ,

(iii) es existiert eine Orthonormalbasis B von V , so dass [f ]B,B ∈ Cn×n eine Diagonalmatrixist.

Beweis. (i) ⇒ (ii): Da K = C besitzt nach dem Fundamentalsatz der Algebra, f einen Eigenwertλ1 ∈ C mit zugehörigem Eigenvektor v1 ∈ V \ {0}. Wir setzen

e1 :=1

‖v1‖v1.

Wir betrachten den Raum V1 := {e1}⊥ . Dann gilt dimV1 = dimV − 1. Wir zeigen nun, dassf [V1] ⊆ V1. Sei also v ∈ V1. Dann gilt

〈f(v), e1〉 = 〈v, f∗(e1)〉 14.11= 〈v, λ1e1〉 = λ1〈v, e1〉 = 0

und damit f(v) ∈ {e1}⊥ = V1. Somit können wir f auf V1 einschränken und erhalten einenormale lineare Abbildung

f : V1 → V1.

111

Page 112: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

14. Adjungierte lineare Abbildungen und Normalformen

Diese besitzt wieder einen Eigenwert λ2 ∈ C und einen normierten Eigenvektor e2 ∈ V1 (al-so insbesondere e1⊥e2). Durch sukzessives Fortsetzen dieses Verfahrens gewinnen wir dimVnormierte Eigenvektoren von f , die orthogonal zueinander sind.

(ii) ⇒ (iii): Das folgt aus Satz 13.1.

(iii) ⇒ (i): Nach Voraussetzung gilt

[f ]B,B =

λ1 0. . .

0 λn

.

Da B eine Orthonormalbasis ist, gilt nach Satz 14.5

[f∗]B,B = ([f ]B,B)∗ =

λ1 0. . .

0 λn

und damit offenbar

[f∗ ◦ f ]B,B = [f∗]B,B · [f ]B,B = [f ]B,B · [f∗]B,B = [f ◦ f∗]B,B.

Hieraus folgt f∗ ◦ f = f ◦ f∗ und daher ist f normal.

Beispiel 14.14. Wir betrachten die normale Matrix A =

(1 −22 1

)und bestimmen zunächst

die Eigenwerte von A: Es gilt

χA(λ) = det(A− λE2) = (1− λ)2 + 4 = λ2 − 2λ+ 5

und damit sindλ1/2 = 1± i

√5− 1 = 1± 2i

die Eigenwerte von A. Die zugehörigen Eigenräume erfüllen(

1− (1± 2i) −22 1− (1± 2i)

)(xy

)= 0

und somity = ∓ix

also gilt

Eig(A, 1 + 2i) =

(1−i

); µ ∈ C

}

Eig(A, 1− 2i) =

(1i

); µ ∈ C

}= Eig(A, 1 + 2i)⊥.

Als normierte Eigenvektoren können wir uns somit v1 = 1√2

(1−i

)und v2 =

1√2

(1i

)wählen

112

Page 113: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

14. Adjungierte lineare Abbildungen und Normalformen

(beachte, dass 〈v1, v2〉C2 = 12 (1− 1) = 0) und somit gilt mit B = {v1, v2}

[A]B,B =

(1 + 2i 00 1− 2i

).

Da[A]B,B = [id]E,BA[id]B,E = U−1AU

mit U = 1√2

(1 1−i i

)und damit U−1 = 1√

2i

(i −1i 1

)= 1√

2

(1 i1 −i

)= U∗, ergibt sich

A = U [A]B,BU−1 =

1√2

(1 1−i i

)(1 + 2i 00 1− 2i

)1√2

(1 i1 −i

).

An diesem Beispiel sehen wir, dass wir, obwohl A eine reelle Matrix ist, zwingend zu komplexeMatrizen übergehen müssen, um A zu diagonalisieren. Wenn wir uns hingegen auf reelle Matri-zen beschränken wollen (also auf euklidische Vektorräume) müssen wir für f mehr voraussetzen.Zunächst ziehen wir einige Folgerungen aus der Normalform für normale Abbildungen.

Korollar 14.15. Sei f : V → V linear und V ein unitärer Raum. Dann sind folgende Aussagenäquivalent:

(i) f ist selbstadjungiert,

(ii) f ist normal und alle Eigenwerte von f sind reell.

Beweis. (i) ⇒ (ii): Offenbar ist f normal. Ist λ ∈ C ein Eigenwert von f mit zugehörigemEigenvektor v ∈ V \ {0}, so gilt

λ〈v, v〉 = 〈λv, v〉 = 〈f(v), v〉 = 〈v, f(v)〉 = 〈v, λv〉 = λ〈v, v〉

und daher λ = λ, also λ ∈ R.(ii) ⇒ (i): Nach Theorem 14.13 gibt es eine ONB B von V , so dass

[f ]B,B =

λ1 0. . .

0 λn

∈ Rn×n.

Ferner gilt nach Satz 14.5

[f∗]B,B = [f ]∗B,B =

λ1 0. . .

0 λn

= [f ]B,B

und daher f = f∗.

Korollar 14.16. Sei V ein euklidischer Raum und f : V → V selbstadjungiert. Dann besitztf einen Eigenwert, d.h. es existiert ein λ ∈ R und ein v ∈ V \ {0} mit

f(v) = λv.

113

Page 114: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

14. Adjungierte lineare Abbildungen und Normalformen

Beweis. Wir wählen zunächst eine ONB B von V und betrachten die reelle (!) Matrix A =[f ]B,B. Dann ist fA : Cn → Cn selbstadjungiert und besitzt nach Korollar 14.15 reelle Eigen-werte. Sei λ ∈ R so ein Eigenwert von fA. Dann existiert ein x ∈ Cn \ {0} mit

Ax = fA(x) = λx.

Da x 6= 0, folgt Rex 6= 0 oder Imx 6= 0. Da A und λ reell sind, gilt

ARex = Re (Ax) = Re (λx) = λRex

A Imx = Im(Ax) = Im(λx) = λ Imx.

Somit ist Rex oder Imx ein reeller Eigenvektor von fA zum Eigenwert λ. Ist y ∈ Rn ein reellerEigenvektor zum Eigenwert λ ∈ R von fA, so setzen wir

v :=

n∑

i=1

yibi ∈ V \ {0}.

Dann gilt [v]B = y und daher

[f(v)]B = A[v]B = Ay = λy = [λv]B

und somit ist v ein Eigenvektor zum Eigenwert λ ∈ R.

Theorem 14.17 (Normalform, euklidischer Vektorraum). Sei V ein euklidischer Vektorraumund f : V → V linear. Dann sind äquivalent:

(i) f ist selbstadjungiert,

(ii) es existiert eine Orthonormalbasis von V bestehend aus Eigenvektoren von f ,

(iii) es existiert eine Orthonormalbasis B von V , so dass [f ]B,B ∈ Rn×n eine Diagonalmatrixist.

Beweis. (i) ⇒ (ii): Nach Korollar 14.16 besitzt f einen Eigenwert λ ∈ R und einen zugehörigenEigenvektor e1 ∈ V \ {0} mit ‖e1‖ = 1. Wir betrachten den euklidischen Vektorraum

V1 := {e1}⊥

und beweisen, dass f [V1] ⊆ V1. Sei also v ∈ V1. Dann gilt

〈f(v1), e1〉 = 〈v1, f(e1)〉 = 〈v, λe1〉 = λ〈v, e1〉 = 0

und somit f(v1) ∈ {e1}⊥ = V1. Damit ist f |V1: V1 → V1 eine selbstadjungierte Abbildung auf

V1 und besitzt wiederum einen Eigenvektor e2 ∈ V1 \ {0} mit ‖e2‖ = 1. Durch wiederholtesAnwenden, ergibt sich die Behauptung.(ii) ⇒ (iii): Das folgt aus Satz 13.1.(iii) ⇒ (i): Es gilt

[f ]B,B =

λ1 0. . .

0 λn

∈ Rn×n

114

Page 115: Grundlagen der linearen Algebra und analytischen Geometrie · 1. Grundlagen der Aussagenlogik Wir wollen uns zunächst mit den Grundlagen der Logik beschäftigen. Hierbei benötigen

14. Adjungierte lineare Abbildungen und Normalformen

und nach Satz 14.5

[f∗]B,B =

λ1 0. . .

0 λn

=

λ1 0. . .

0 λn

= [f ]B,B

und damit ist f selbstadjungiert.

115