147
Lineare Algebra 1 Anton Deitmar WS 2013/14

Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

  • Upload
    others

  • View
    4

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1

Anton Deitmar

WS 2013/14

Page 2: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Inhaltsverzeichnis

1 Grundlagen 11.1 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.3 Komposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.4 Produkte und Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101.5 Vollstandige Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Gruppen und Korper 182.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182.2 Korper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232.3 Die Korper Q, R und C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.4 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3 Vektorraume 373.1 Raume und Unterraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373.2 Summen und direkte Summen . . . . . . . . . . . . . . . . . . . . . . . . 40

4 Dimension 444.1 Linearkombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444.2 Lineare Unabhangigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464.3 Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

5 Lineare Abbildungen und Matrizen 555.1 Erste Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 555.2 Kern und Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 595.3 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 625.4 Matrixmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 645.5 Blockmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 695.6 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

i

Page 3: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 ii

6 Gauß-Elimination 746.1 Zeilentransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 746.2 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . 776.3 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

7 Determinanten 837.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 837.2 Determinante und Zeilentransformationen . . . . . . . . . . . . . . . . . 887.3 Multiplikativitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 907.4 Laplace-Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

8 Eigenwerte 968.1 Ein Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 968.2 Lineare Unabhangigkeit von Eigenvektoren . . . . . . . . . . . . . . . . . 978.3 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . 988.4 Der Satz von Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . 107

9 Der Jordan-Normalform Satz 1129.1 Nilpotente Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . 1129.2 Hauptraum-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1159.3 Jordan-Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1189.4 Berechnung der Normalform . . . . . . . . . . . . . . . . . . . . . . . . . 119

10 Dualraum und Quotient 12310.1 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12310.2 Quotienten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

11 Dimension 13311.1 Das Lemma von Zorn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13311.2 Kardinalzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13411.3 Abzahlbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13711.4 Basen beliebiger Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . 140

Page 4: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Kapitel 1

Grundlagen

1.1 Mengen

Eine Menge ist eine (gedachte) Zusammenfassung von (wirklichen oder gedachten)Objekten, die die Elemente der Menge genannt werden.

Beispiele 1.1.1. • Die Leere Menge{}

= ∅.

• Die Menge{1, 2, 3

}der Zahlen 1,2,3.

• Die Menge N ={1, 2, 3, . . .

}der naturlichen Zahlen.

Zwei Menge heißen gleich, falls sie die gleichen Elemente haben. In Worten:

N = M ⇔ (x ∈ N ⇔ x ∈M).

Eine Menge A ist Teilmenge einer Menge B, falls jedes Element von A schon in B liegt,also

A ⊂ B ⇔ (x ∈ A ⇒ x ∈ B).

Folgerung. Zwei Mengen M,N sind genau dann gleich, wenn jede Teilmenge deranderen ist, also

M = N ⇔ (M ⊂ N und N ⊂M).

Sei M eine Menge. Die Potenzmenge P(M) von M ist definiert als die Menge allerTeilmengen von M.

1

Page 5: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 2

Beispiel 1.1.2. Sei M ={1, 2, 3

}. Dann ist

P(M) ={∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}

}.

Seien A und B Mengen. Der Durchschnitt A ∩ B von A und B ist die Menge dergemeinsamen Elemente:

x ∈ A ∩ B ⇔

(x ∈ A und x ∈ B

),

oder, was das Gleiche bedeutet:

A ∩ B ={x ∈ A : x ∈ B

}.

Beispiel 1.1.3. {1, 2

}∩

{2, 3

}=

{2}.

Zwei Menge A und B heißen disjunkt, falls A ∩ B = ∅, sie also keine gemeinsamenElemente haben.

Die Vereinigung zweier Mengen A ∪ B ist die Menge aller x, die in mindestens einerder beiden Mengen liegen, also

x ∈ (A ∪ B) ⇔

(x ∈ A oder x ∈ B

).

Beispiel 1.1.4. {1, 2

}∪

{2, 3

}=

{1, 2, 3

}.

Proposition 1.1.5. Sind A,B,C Mengen, dann gilt

(a) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C),

(b) A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).

Page 6: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 3

A

B

C

Beweis. Fur (a) rechnen wir

x ∈ A ∩ (B ∪ C)⇔ x ∈ A und x ∈ B ∪ C Def.⇔ x ∈ A und (x ∈ B oder x ∈ C) Def.⇔ (x ∈ A und x ∈ B) oder (x ∈ A und x ∈ C) (*)⇔ (x ∈ A ∩ B) oder (x ∈ A ∩ C) Def.⇔ x ∈ (A ∩ B) ∪ (A ∩ C) Def.

(*) Fur beliebige AussagenA,B,C gilt:

A und (B oder C) ⇔ (A und B) oder (A und C).

Die Aussage (*) schliesslich beweist man wie folgt. Es gibt folgende Moglichkeiten:Die AussageA ist entweder wahr oder falsch. Ebenso fur B und C. Daraus ergebensich folgende mogliche Konstellationen:

A B C B oder C A und (B oder C)

w w w w ww w f w ww f w w ww f f f ff w w w ff w f w ff f w w ff f f f f

Page 7: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 4

und andererseits

A B C A und B A und C (A und B) oder (A und C)

w w w w w ww w f w f ww f w f w ww f f f f ff w w f f ff w f f f ff f w f f ff f f f f f

Durch Vergleich der beiden letzten Spalten folgt (*).

Teil (b) beweist man analog. �

Die Menge der naturlichen Zahlen

N ={1, 2, 3, . . .

}erweitert man zur Menge der ganzen Zahlen

Z ={. . . ,−2,−1, 0, 1, 2, . . .

}und diese zur Menge der rationalen Zahlen

Q =

pq

:p, q ∈ Z, q > 0

p und q sind teilerfremd

.Wir haben also

N ⊂ Z ⊂ Q ⊂ R︸︷︷︸die reellen Zahlen

⊂ C︸︷︷︸die komplexen Zahlen

.

Man beschreibt Teilmengen gern durch Eigenschaften{x ∈ X : x hat Eigenschaft E

}.

Beispiel 1.1.6. {n ∈N : n ≤ 5

}=

{1, 2, 3, 4, 5

}.

Page 8: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 5

Ist Y ⊂ X, so heißt die Menge

X r Y ={x ∈ X : x < Y

}das Komplement von Y in X.

Beispiel 1.1.7. ZrN ={. . . ,−2,−1, 0

}.

Man verwendet die Schreibweise X r Y aber auch, wenn Y keine Teilmenge von X ist.

Beispiel 1.1.8.{1, 2

}r

{2, 3

}=

{1}.

1.2 Abbildungen

Sind X,Y Mengen, so ist eine Abbildung f : X→ Y eine Zuordnung, die jedemElement x von X genau ein Element y = f (x) von Y zuordnet.

Beispiele 1.2.1. • f :{1, 2, 3

}→

{4, 5

}f (1) = 4, f (2) = 4 f (3) = 5.

• f : R→ R

f (x) = x2.

• Auf jeder gegebenen Menge X gibt es eine kanonische Abbildung X→ X,namlich die Identitat

IdX : X→ X; x 7→ x.

Definition 1.2.2. Eine Abbildung f : X→ Y heißt injektiv, falls verschiedeneElemente verschiedene Bilder haben, also wenn fur alle x, x′ ∈ X gilt

x , x′ ⇒ f (x) , f (x′),

oder, anders ausgedruckt, wenn

f (x) = f (x′) ⇒ x = x′.

Page 9: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 6

injektiv: '

&

$

%

'

&

$

%

xxxx

xxxxx

-

-

-

-

nicht injektiv:

'

&

$

%

'

&

$

%

xxx

xxxxx

-

-

-

x ���

������

������

����:

Beispiele 1.2.3. • Die Abbildung f : R→ R mit f (x) = x2 ist nicht injektiv, dennf (1) = f (−1) = 1.

• Die Abbildung f : R→ R mit f (x) = x3 ist injektiv.

Definition 1.2.4. Eine Abbildung f : X→ Y heißt surjektiv, falls es zu jedem y ∈ Y einx ∈ X gibt mit f (x) = y, wenn also jedes y ∈ Y getroffen wird.

Page 10: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 7

surjektiv: '

&

$

%

'

&

$

%

xxx

xxx

-

-

-

x ���

������

������

����:

nicht surjektiv:

'

&

$

%

'

&

$

%

xxx

xxxxx

-

-

-

x ����

������

������

���:

Beispiele 1.2.5. • Die Abbildung F : R→ R mit f (x) = x2 ist nicht surjektiv, da eskein x ∈ R gibt mir f (x) = −1.

• Die Abbildung f : R→ R mit f (x) = x3 ist surjektiv.

Eine Abbildung f : X→ Y die sowohl injektiv als auch surjektiv ist, heißt bijektiv.

Satz 1.2.6. Ist X eine endliche Menge und ist f : X→ X eine Selbstabbildung, so sindaquivalent:

(a) f ist injektiv,

(b) f ist surjektiv,

(c) f ist bijektiv.

Page 11: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 8

Beweis. Sei X ={x1, . . . , xn

}mit n Elementen.

(a)⇒(b) Da f (x1), . . . , f (xn) alle verschieden sind, sind es wieder n Elemente, also{f (x1), . . . , f (xn)

}= X, damit ist f surjektiv.

(b)⇒(c) Sei f surjektiv. Wir haben zu zeigen, dass f injektiv ist. Wegen{f (x1), . . . , f (xn)

}=

{x1, . . . , xn

}mussen die f (x1), . . . , f (xn) paarweise verschieden sein,

also ist f injektiv.

Die Richtung (c)⇒(a) ist trivial. �

Definition 1.2.7. Eine Permutation auf einer Menge M ist eine bijektive AbbildungM→M. Mit Per(M) bezeichnen wir die Menge aller Permutationen auf M. Istn = 1, 2, 3, . . . eine naturliche Zahl, so bezeichnet Per(n) die Menge der Permutationenauf der Menge

{1, 2, 3, . . . ,n

}.

Die Menge Per(1) hat ein Element. Die Menge Per(2) hat zwei Elemente, die MengePer(3) hat sechs Elemente: 1 2 3

1 2 3

1 2 31 3 2

1 2 32 1 3

1 2 3

3 2 1

1 2 33 1 2

1 2 32 3 1

.1.3 Komposition

Seien f : X→ Y und g : Y→ Z Abbildungen, so kann man ihre Komposition g ◦ f(lies: “geh nach eff”) bilden, dies ist eine Abbildung von X nach Z definiert durch

g ◦ f (x) = g( f (x)).

Man visualisiert dies durch ein Diagramm:

Xf//

g◦ f ��

Yg��

Z.

Beispiel 1.3.1. Ist f : X→ Y, dann gilt f ◦ IdX = f und IdY ◦ f = f .

Page 12: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 9

Lemma 1.3.2 (Assoziativitat der Komposition). Seien f : W → X, g : X→ Y undh : Y→ Z Abbildungen. Dann gilt

h ◦ (g ◦ f ) = (h ◦ g) ◦ f .

Beweis. Sei w ∈W, dann gilt

h ◦ (g ◦ f )(w) = h(g ◦ f (w)) = h(g( f (w))) = (h ◦ g)( f (w)) = (h ◦ g) ◦ f (w). �

Proposition 1.3.3. Sind g und f beide injektiv, so ist g ◦ f injektiv. Ebenso fur surjektiv.

Beweis. Es seien beide injektiv und x , x′ in X. Da f injektiv ist, folgt f (x) , f (x′). Da ginjektiv ist, folgt hieraus g ◦ f (x) = g( f (x)) , g( f (x′)) = g ◦ f (x′). Also ist g ◦ f injektiv.

Es seien beide surjektiv. Sei z ∈ Z. Da g surjektiv ist, gibt es ein y ∈ Y mit g(y) = z. Da fsurjektiv ist, gibt es ein x ∈ X mit f (x) = y. Dann folgt g ◦ f (x) = g( f (x)) = g(y) = z.Also ist g ◦ f surjektiv. �

Insbesondere ist die Komposition bijektiver Abbildungen bijektiv.

Eine Abbildung f : X→ Y heißt invertierbar, wenn es eine Abbildung g : Y→ X gibtmit

g ◦ f = IdX und f ◦ g = IdY.

Satz 1.3.4. (a) Sei f eine invertierbare Abbildung. Dann ist die Abbildung g mitf ◦ g = IdY und g ◦ f = IdX eindeutig bestimmt. Wir nennen sie die inverseAbbildung oder Umkehrabbildung und schreiben g = f −1.

(b) Eine Abbildung f : X→ Y ist genau dann invertierbar, wenn sie bijektiv ist.

Beweis. (a) Wir nehmen an, es gibt eine weitere Abbildung h : Y→ X mit h ◦ f = IdX

und f ◦ h = IdY. Dann gilt

g = g ◦ IdY = g ◦ ( f ◦ h) = (g ◦ f ) ◦ h = IdX ◦ h = h,

also g = h wie behauptet.

Page 13: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 10

(b) Sei f : X→ Y eine Abbildung. Wir mussen zeigen:

f invertierbar ⇔ f bijektiv.

“⇒” Sei f invertierbar und sei f −1 die Umkehrabbildung. Sind x, x′ ∈ X mitf (x) = f (x′), so gilt x = IdX(x) = f −1

◦ f (x) = f −1( f (x)) = f −1( f (x′)) = IdX(x′) = x′, alsox = x′, somit ist f injektiv. Sei ferner y ∈ Y, so gibt es ein x ∈ X, namlich x = f −1(y) mitf (x) = f ( f −1(y)) = y, also ist f auch surjektiv.

“⇐” Sei f bijektiv und sei y ∈ Y. Dann existiert ein x ∈ X mit f (x) = y, da f surjektivist. Da f obendrein injektiv ist, ist x eindeutig bestimmt. Wir definieren also g(y) = x.Wir machen dies fur jedes y ∈ Y und definieren so eine Abbildung g : Y→ X, die nachDefinition die Gleichung f ◦ g = IdY erfullt. Sei x ∈ X und sei y = f (x), dann folgtx = g(y) und also g( f (x)) = x und also auch g ◦ f = IdX. �

1.4 Produkte und Relationen

Das Produkt oder auch das kartesische Produkt X × Y zweier Mengen X und Y istdefiniert als die Menge aller Paare (x, y) wobei x ∈ X in y ∈ Y ist.

Beispiele 1.4.1. •

{1, 2

{3, 4, 5

}=

{(1, 3), (1, 4), (1, 5), (2, 3), (2, 4), (2, 5)

}.

• Die Menge R ×R kann als die Ebene verstanden werden.

Sei X eine Menge. Eine Relation auf X ist eine Teilmenge R ⊂ X × X. Wir schreibendann x ∼R y oder einfach x ∼ y fur (x, y) ∈ R.

Beispiele 1.4.2. • X = Menge aller Menschen,

x ∼ y ⇔ x ist Vetter von y

• X = R,x ∼ y ⇔ x ≤ y

• X = Z,x ∼ y ⇔ x − y ist gerade.

Eine Relation ∼ heißt Aquivalenzrelation, falls fur x, y, z ∈ X gilt

Page 14: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 11

1. x ∼ x Reflexivitat2. x ∼ y ⇒ y ∼ x Symmetrie3. x ∼ y, y ∼ z⇒ x ∼ z Transitivitat.

Falls ∼ eine Aquivalenzrelation ist und x ∼ y gilt, so sagt man: x ist aquivalent zu y.

Beispiele 1.4.3. • Die “Vetternwirtschaft” ist keine Aquivalenzrelation, denn eskann sein, dass x ein Vetter von y ist und y ein Vetter von z, aber x kein Vettervon z.

• x ≤ y ist keine Aquivalenzrelation, denn 0 ≤ 1, aber 1 � 0.

• x ∼ y ⇔ x − y ist gerade ist eine Aquivalenzrelation.

Sei ∼ eine Aquivalenzrelation auf der Menge X. Fur x ∈ X sei

[x] def=

{y ∈ X : y ∼ x

}die Aquivalenzklasse von x.

Proposition 1.4.4. Ist ∼ eine Aquivalenzrelation auf X, so zerfallt X in paarweise disjunkteAquivalenzklassen. Ist umgekehrt eine Zerlegung von X in paarweise disjunkte Teilmengengegeben:

X =·

⋃i∈I

Xi

So definiert man eine Aquivalenzrelation ∼ durch

x ∼ y ⇔ x und y liegen in derselben Menge Xi.

Man kann also sagen: Eine Aquivalenzrelation auf einer Menge X ist dasselbe wieeine disjunkte Zerlegung von X in Teilmengen.

Beweis. Sei ∼ eine Aquivalenzrelation. Wegen der Reflexivitat liegt jedes x ∈ X in einerAquivalenzklasse, namlich x ∈ [x]. Wir mussen zeigen, dass fur x, y ∈ X gilt, dassentweder [x] = [y] oder [x] ∩ [y] = ∅. Dies geht wie folgt: Nimm an, dass [x] ∩ [y] , ∅,dann existiert ein z ∈ X mit z ∼ x und z ∼ y. Dann folgt x ∼ z wegen der Symmetrie.Nach Transitivitat folgt dann x ∼ y, wir mussen hieraus folgern, dass [x] = [y] ist. Wirzeigen [x] ⊂ [y] und [y] ⊂ [x]. Sei zunachst u ∈ [x], also u ∼ x. Es gilt x ∼ y und daher

Page 15: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 12

nach Transitivitat u ∼ y, also u ∈ [y], wir habe also [x] ⊂ [y] gezeigt. Wegen Symmetrieist aber auch y ∼ x und daher folgt ebenso [y] ⊂ [x].

Die Tatsache, dass jede Zerlegung von X eine Aquivalenzrelation definiert, sei demLeser zur Ubung uberlassen. �

1.5 Vollstandige Induktion

Ist A(n) eine Aussage, die fur eine naturliche Zahl n Sinn macht, so gilt

A(1) gilt,

A(n)⇒ A(n + 1)fur jedes n ∈N

⇒ A(n) gilt fur jedes n ∈N.

Beispiel 1.5.1. Fur jede naturliche Zahl n gilt

1 + 2 + 3 + · · · + n =n(n + 1)

2.

Beweis. Induktionsanfang: Fur n = 1 ist die Behauptung wahr, denn die linke Seite ist 1und die rechte Seite ist 1(1+1)

2 = 22 = 1.

Induktionsschritt: n→ n + 1 Wir nehmen an, die Behauptung A(n) gilt fur n. Wirrechnen dann

1 + 2 + · · · + n︸ ︷︷ ︸=

n(n+1)2

+(n + 1) =n(n + 1)

2+ n + 1

=n2 + n + 2n + 2

2=

(n + 1)(n + 2)2

.

Also haben wir gezeigt, dass aus der Behauptung fur n folgt:

1 + 2 + · · · + n + (n + 1) =(n + 1)(n + 2)

2.

Dies ist aber gerade A(n + 1). �

Es kann auch passieren, dass eine Aussage A(n) erst ab einer bestimmten Zahl richtigist. Wir zeigen dass an folgendem

Page 16: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 13

Beispiel 1.5.2. Fur jede naturliche Zahl n ≥ 5 gilt 2n > n2.

Beweis. Induktionsanfang: n = 5. In diesem Fall rechnen wir

2n = 25 = 32 > 25 = n2.

Induktionsschritt: n→ n + 1. Es gelte 2n > n2 und es sei n ≥ 5. Wir rechnen

2n+1 = 2 · 2n > 2 · n2 = n2 + n2 = n2 + (n − 1)n + n ≥︸︷︷︸fur n≥3

n2 + 2n + 1 = (n + 1)2,

dies ist gerade die Behauptung fur n + 1. �

Es kommt auch vor, dass man im Induktionsschritt nicht nur (n) als Voraussetzungbraucht, sondern dass der Induktionsschritt lautet: A(1), . . .A(n)⇒ A(n + 1).

Beispiel 1.5.3. Jede naturliche Zahl n ≥ 2 ist ein Produkt von Primzahlen, lasst sichalso schreiben als

n = p1 · p2 · · · pk,

wobei die Zahlen p1, . . . , pk Primzahlen sind.

Beweis. Induktionsanfang: n = 2. Diese Zahl ist allerdings selbst eine Primzahl, alsoinsbesondere ein Produkt von solchen.

Induktionsschritt: 2, . . . ,n→ n + 1. Die Behauptung sei wahr fur 2, . . . ,n. Ist nun n + 1selbst eine Primzahl, so gilt die Behauptung auch fur n + 1. Andernfalls hat n einenechten Teiler, sagen wir d. Dann gilt d, n+1

d ∈{2, 3, . . . ,n

}, damit gilt also die Behauptung

fur d und fur n+1d , welche damit beide Produkte von Primzahlen sind, also ist auch

n + 1 = d ·n + 1

d

ein Produkt von Primzahlen. �

Zur Abkurzung fuhren wir die das Summenzeichen ein:

n∑j=1

a j = a1 + a2 + · · · + an.

Page 17: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 14

Beispiel 1.5.4. Fur jede naturliche Zahl n gilt

n∑k=1

(2k − 1) = n2.

Der Beweis ist eine Ubungsaufgabe.

Analog zum Summenzeichen haben wir das Produktzeichen

n∏j=1

a j = a1 · a2 · · · an.

So ist zum Beispiel die Fakultat der Zahl n ∈N definiert als

n! =

n∏k=1

k = 1 · 2 · · · n.

Proposition 1.5.5. Die Anzahl aller moglichen Anordnungen einer n-elementigen Menge istn!.

Beispiele: Alle Anordnungen der 2-elementigen Menge{1, 2

}sind

(1, 2), (2, 1)

also 2 Stuck. Alle Anordnungen der 3-elementigen Menge{1, 2, 3

}sind

(1, 2, 3), (1, 3, 2), (2, 1, 3), (3, 1, 2), (2, 3, 1), (3, 2, 1),

also 6 = 3 · 2 · 1 = 3!.

Beweis. Wir wollen n-Elemente anordnen. Fur die erste Position haben wir die freieWahl unter allen n-Elementen. Haben wir die erste Position besetzt, so bleibt uns nochdie Wahl unter n − 1 Elementen, fur die ersten beiden Positionen haben wir alson · (n − 1) verschiedenen Wahlen. Fur die dritte Position bleiben (n − 2) vieleWahlmoglichkeiten und so weiter, bis am Ende die letzte Position vorgegeben ist, sodass wir im Endeffekt n · (n − 1) · (n − 2) · · · 1 = n! viele Wahlmoglichkeiten haben. �

Es seien zwei ganze Zahlen 0 ≤ k ≤ n gegeben. Wir definieren den

Page 18: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 15

Binomialkoeffizienten(n

k

)durch

(nk

)=

Anzahl der k-elementigen Teilmengeneiner n-elementigen Menge

Beispiele 1.5.6. • Ist k = 0 und n beliebig, so ist(n

k

)= 1, denn man fischt immer nur

die leere Menge.

• Ist k = 1, und n ≥ 1 beliebig, so ist(n

k

)= n, denn die Menge

{1, . . . ,n

}hat genau

die 1-elementigen Teilmengen{1},{2}, . . . ,

{n}.

• Es gilt(n

2

)= n(n−1)

2 , denn, suchen wir eine 2-elementige Teilmenge, so haben wirfur das erste Element n-Wahlmoglichkeiten und fur das zweite n − 1. Dannhaben wir aber jede Teilmenge doppelt gezahlt, weil ja beide moglicheReihenfolgen auftreten.

Proposition 1.5.7. Fur 0 ≤ k ≤ n gilt(nk

)=

n!k!(n − k)!

=n · (n − 1) · · · (n − k + 1)

k!.

Beweis. Wir wahlen k Elemente aus n aus. Wahlen wir zunachst mit Reihenfolge. Furdas erste Element haben wir n Wahlmoglichkeiten, fur das zweite n − 1 und so weiter,so dass wir insgesamt n · (n − 1) · · · (n − k + 1) Moglichkeiten haben. Jetzt treten aberalle moglichen Reihenfolgen der k Elemente auf, also mussen wir das Ergebnis nochdurch k! dividieren. �

Satz 1.5.8. Es gilt stets (nk

)=

(n − 1k − 1

)+

(n − 1

k

),

wobei(n−1

k

)= 0 setzen, falls k > n − 1.

Beweis. Sei A die Menge der k-elementigen Teilmengen der Menge{1, 2, 3, . . . ,n

}.

Dann gilt |A| =(n

k

), wobei |A| die Anzahl der Elemente der Menge A bezeichnet. Sei A1

die Menge aller Teilmengen, die das Element 1 enthalten und sei A2 die Menge allerTeilmengen, die die 1 nicht enthalten. Dann ist A die disjunkte Vereinigung von A1

und A2 und daher folgt|A| = |A1| + |A2|.

Page 19: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 16

Es ist nun

|A1| =Anzahl der k − 1-elementigen Teilmengen

von{2, 3, . . . ,n

} =

(n − 1k − 1

).

Ebenso gilt

|A2| =Anzahl der k-elementigen Teilmengen

von{2, 3, . . . ,n

} =

(n − 1

k

).

Zusammen folgt die Behauptung. �

Man verdeutlicht dieses Gesetz durch das sogenannte Pascalsche Dreieck:

1 n = 01 1 1

1 2 1 21 3 3 1 3

1 4 6 4 1 5

Satz 1.5.9 (Binomischer Lehrsatz). Fur jedes n ≥ 0 gilt

(x + y)n =

n∑k=0

(nk

)xkyn−k.

Insbesondere fur y = 1 erhalten wir

(x + 1)n =

n∑k=0

(nk

)xk.

Dieser Satz ist der Grund, warum die Zahlen(n

k

)die Binomialkoeffizienten heißen.

Beweis. Induktion nach n. Fur n = 0 ist nichts zu zeigen.

Induktionsschritt n→ n + 1: Wir rechnen

Page 20: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 17

(x + y)n+1 = (x + y)(x + y)n = (x + y)n∑

k=0

(nk

)xkyn−k

=

n∑k=0

(nk

)xk+1yn−k +

n∑k=0

(nk

)xkyn+1−k

=

n+1∑k=1

(n

k − 1

)xkyn+1−k +

n∑k=0

(nk

)xkyn+1−k

=

n+1∑k=0

(n + 1

k

)xkyn+1−k.

Damit folgt die Behauptung. �

Folgerungen:n∑

k=0

(nk

)= 2n,

n∑k=0

(nk

)(−1)k = 0.

Satz 1.5.10 (Geometrische Reihe). Fur jedes n ∈N gilt

n∑k=0

xk =1 − xn+1

1 − x

Beweis. Man kann diesen Satz durch Induktion nach n beweisen. Wir machen es aberanders, wir rechnen

(1 − x)n∑

k=0

xk =

n∑k=0

xk−

n∑k=0

xk+1 =

n∑k=0

xk−

n+1∑k=1

xk = 1 − xn+1.

Nach Division durch (1 − x) folgt die Behauptung. �

Page 21: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Kapitel 2

Gruppen und Korper

2.1 Gruppen

Sei M eine Menge. Eine Verknupfung auf M ist eine Abbildung:

M ×M→M.

Beispiele 2.1.1. • Addition und Multiplikation auf N sind Verknupfungen:

N ×N→N, (m,n) 7→ m + n;

sowieN ×N→N, (m,n) 7→ mn.

• Hintereinanderausfuhrung von Permutationen:

Per(M) × Per(M)→ Per(M), (α, β) 7→ α ◦ β

ist eine Verknupfung.

• Sei M = Q,R, so definiert das arithmetische Mittel

a ∗ b =a + b

2

eine Verknupfung auf M.

Definition 2.1.2. Eine Gruppe ist eine Menge G mit einer Verknupfung G × G→ G,

18

Page 22: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 19

geschrieben als (a, b) 7→ ab, so dass fur alle a, b, c ∈ G folgende Axiome erfullt sind:

• Assoziativgesetza(bc) = (ab)c,

• neutrales Element: es gibt ein e ∈ G mit

ae = a,

• inverses Element: zu jedem a ∈ G gibt es ein a′ ∈ G mit

aa′ = e.

Beispiele 2.1.3. • Die Menge N ist mit der Addition keine Gruppe, denn sieenthalt kein neutrales Element.

• Die Menge der ganzen Zahlen:

Z ={. . . ,−2,−1, 0, 1, 2, . . .

}ist eine Gruppe mit der Addition, denn die Null ist ein neutrales Element unddas Inverse zu k ∈ Z ist −k ∈ Z. Ebenso sind (Q,+) und (R,+) Gruppen.

• Die Menge Q× = Q r{0}, so ist G mit der Multiplikation eine Gruppe, ebenso

R× = R r{0}

• Die Menge R ist mit dem arithmetischen Mittel keine Gruppe, denn dieseVerknupfung ist nicht assoziativ. Es ist

(a ∗ b) ∗ c =

(a + b

2

)∗ c =

a + b4

+c2

=a4

+b4

+c2

im Allgemeinen verschieden von

a ∗ (b ∗ c) = a ∗(

b + c2

)=

a2

+b4

+c4.

• Ist M eine Menge, dann ist die Menge G = Per(M) aller Permutationen auf M mitder Hintereinanderausfuhrung als Verknupfung eine Gruppe. Das neutraleElement ist die identische Abbildung Id : M→M und die Inverse zu f ∈ Per(M)ist ihre Umkehrabbildung f −1.

Page 23: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 20

Proposition 2.1.4. Sei G eine Gruppe.

(a) Das neutrale Element e ist eindeutig bestimmt.

(b) Das neutrale Element e erfullt auch ea = a fur jedes a ∈ G.

(c) Zu gegebenem a ∈ G ist das inverse Element a′ eindeutig bestimmt.

(d) Das Inverse a′ zu a erfullt auch a′a = e.

Beweis. Wir beginnen mit der letzten Aussage (d). Ist a′ ein Rechtsinverses zu a und ista′′ ein Rechtsinverses zu a′, dann gilt

a′a = (a′a)e neutrales Element

= (a′a)(a′a′′) inverses Element

= (a′(aa′))a′′ Assoziativgesetz, mehrfach

= (a′e)a′′ inverses Element

= a′a′′ neutrales Element

= e inverses Element

Damit ist (d) bewiesen.

Nun beweisen wir (b) unter Benutzung von (d). Es gilt

ea = (aa′)a inverses Element

= a(a′a) Assoziativgesetz

= ae nach (d)

= a neutrales Element

Dies benutzen wir nun, um (a) zu zeigen. Sei e2 ein weiteres neutrales Element. Danngilt

e2 = ee2 nach (b)

= e da e2 neutral

Page 24: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 21

Jetzt fehlt noch (c). Sei also a2 ein weiteres Inverses zu a. Dann gilt

a2 = ea2 nach (b)

= (a′a)a2 nach (d)

= a′(aa2) Assoziativgesetz

= a′e da a2 invers zu a

= a′ neutrales Element

Damit ist die Proposition vollstandig bewiesen. �

Da das inverse Element a′ zu a nun eindeutig bestimmt ist, schreiben wir a−1 fur a′.

Korollar 2.1.5. Sei G eine Gruppe, dann gilt fur alle a, b, x, y ∈ G,

(a) (a−1)−1 = a,

(b) (ab)−1 = b−1a−1,

(c) ax = ay ⇒ x = y.

Beweis. Es gilt a−1a = e, also ist a ein Inverses zu a−1 und (a) folgt aus der Eindeutigkeitdes Inversen.

(b) Es gilt (b−1a−1)(ab) = b−1(a−1a)b = (b−1e)b = b−1b = e.

(c) Multipliziere beide Seiten der Gleichung mit a−1. �

Definition 2.1.6. Sei G eine Gruppe. Eine Teilmenge H ⊂ G heißt Untergruppe, falls Hmit der Verknupfung von G selbst wieder eine Gruppe ist.

Lemma 2.1.7. Sei H eine Untergruppe der Gruppe G.

(a) Das neutrale Element e von G liegt in H und ist das neutrale Element von H.

(b) Ist h ∈ H, so liegt das Inverse h−1 zu h in H und ist das Inverse bzgl H

Eine nichtleere Teilmenge H ⊂ G ist genau dann eine Untergruppe, wenn

a, b ∈ H ⇒ ab−1∈ H

gilt.

Page 25: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 22

Beweis. Sei eH das neutrale Element von H und e das von G. Dann gilt in G dieIdentitat e = eHe−1

H = (eHeH)e−1H = eH(eHe−1

H ) = eHe = eH und (a) ist bewiesen.

(b) Sei h ∈ H und sei h′ das Inverse bezuglich H. Dann gilt hh′ = eh = e und damit isth′ = h−1 das Inverse in G.

Nun zur letzten Aussage. Ist H eine Untergruppe und sind a, b ∈ H, so folgt nach (b),dass b−1

∈ H und damit ab−1∈ H. Sei umgekehrt H eine nichtleere Teilmenge, die der

Bedingung des Lemmas genugt. Sei h ∈ H ein Element, dann ist e = hh−1∈ H, also

enthalt H das neutrale Element. Wir zeigen nun, dass H zu jedem Element h auch seinInverses h−1 enthalt. Hierzu schreibe h−1 = eh−1

∈ H. Seien nun a, b ∈ H, dann liegtb−1∈ H und es gilt ab = a(b−1)−1

∈ H, also ist H abgeschlossen unter der Multiplikation.Zusammen folgt, dass H eine Untergruppe ist. �

Definition 2.1.8. Eine Gruppe G heißt kommutativ oder abelsche Gruppe, falls furalle a, b ∈ G gilt

ab = ba.

Beispiele 2.1.9. • Die Gruppen (Z,+), (Q,+), (R,+), (Q×,×), (R×,×) sind abelsch.

• Ist M eine Menge mit mehr als zwei Elementen, dann ist Per(M) nicht abelsch.Dies zeigen wir exemplarisch an dem Beispiel der Menge M =

{1, 2, 3

}. Seien

α =

1 2 32 1 3

, β =

1 2 31 3 2

.Dann ist

αβ =

1 2 32 3 1

, βα =

1 2 33 1 2

.Beispiel 2.1.10. Sei m ∈N eine naturliche Zahl. Auf der Menge

Z/m ={0, 1, . . . ,m − 1

}definieren wir eine Addition � durch

a � b = Rest von a + b bei Division nach m.

Dann ist Z/m eine Gruppe. Das neutrale Element ist die Null und das Inverse zu a istm − a, wenn a , 0.

Fur m = 1 ist Z/m ={0}

die triviale Gruppe.

Page 26: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 23

Fur m = 2 ist Z/m ={0, 1

}und es gilt 1 � 1 = 0.

Fur m = 3 geben wir die Addition durch folgende Tabelle an:

� 0 1 2

0 0 1 21 1 2 02 2 0 1

2.2 Korper

Definition 2.2.1. Ein Korper ist ein Tripel (K,+,×) bestehend aus einer Menge K undzwei Verknupfungen + und ×, wobei wir a × b als ab schreiben, so dass die folgendenAxiome erfullt sind:

• (K,+) ist eine abelsche Gruppe. Wir schreiben das neutrale Element dieserGruppe als 0 = 0K und nennen es das Nullelement.

• (K r {0},×) ist eine abelsche Gruppe. Wir schreiben das neutrale Element als1 = 1K und nennen es das Einselement.

• Es gilt das Distributivgesetz: fur alle a, b, c ∈ K gilt

a(b + c) = ab + ac.

Beispiele 2.2.2. • (Z,+,×) ist kein Korper, da nicht jedes Element x , 0 einmultiplikatives Inverses besitzt, so gibt es zum Beispiel kein Inverses fur x = 2.

• (Q,+,×) ist ein Korper und R ebenso.

• Auf der Menge F2 ={0, 1

}definieren wir Addition und Multiplikation durch

+ 0 1

0 0 11 1 0

× 0 1

0 0 01 0 1

Dann ist F2 ein Korper.

Page 27: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 24

• Allgemeiner sei p eine Primzahl. Auf der Gruppe Fp = Z/p erklaren wirAddition wie gehabt und die Multiplikation durch

a � b = Rest von ab bei Division durch p.

Dann ist (Fp,�,�) ein Korper. Fur F3 sind die Verknupfungstabellen:

+ 0 1 2

0 0 1 21 1 2 02 2 0 1

× 0 1 2

0 0 0 01 0 1 22 0 2 1

Schreibweise: Wir schreiben −a fur das additive Inverse zu a und a − b fur a + (−b).

Satz 2.2.3. Sei K ein Korper. Dann gilt fur alle a, b, c ∈ K:

(a) 0 , 1,

(b) 0 · a = 0

(c) ab = 0 ⇒ a = 0 oder b = 0, Nullteilerfreiheit

(d) a(−b) = −ab = (−a)b, (−a)(−b) = ab,

(e) ab = ac, a , 0 ⇒ b = c,

(f) a(b − c) = ab − ac.

Beweis. (a) Das Element 1 ist das neutrale Element von K× = K r{0}, also ist 1 , 0.

(b) Fur a ∈ K gilt 0a = (0 + 0)a = 0a + 0a. Nun addiere −0a auf beiden Seiten.(c) Ist a, b ∈ K×, so auch ab.(d) Es gilt ab + a(−b) = a(b − b) = a0 = 0. Also folgt wegen der Eindeutigkeit derInversen, dass a(−b) = −ab. Der Rest geht ahnlich.(f) a(b − c) = a(b + (−c)) = ab + a(−c) = ab − ac.(e) Es gelte ab = ac mit a , 0. Dann hat a ein multiplikatives Inverses a−1. Multiplizierebeide Seiten der Gleichung mit a−1 und erhalte b = c. �

Page 28: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 25

Definition 2.2.4. Sei K ein Korper. Die Zahl

char(K) =

min{n ∈N : n · 1K = 0K

}, falls endlich,

0 sonst,

heißt die Charakteristik des Korpers K.

Beispiele 2.2.5. • Die Charakteristik von Fp ist p.

• Die Charakteristik von Q oder R ist 0.

Bemerkung. Ist die Charakteristik des Korpers K gleich Null, dann ist die Abbildung

N→ K, n 7→ n · 1K

injektiv. Also kann man in diesem Fall N als Teilmenge von K auffassen.

2.3 Die Korper Q, R und C

Die Menge der rationalen Zahlen Q reicht nicht aus, um die Welt zu beschreiben. Sohat etwa seit Pythagoras ein quadratischer Tisch der Kantenlange 1 eineDiagonallange von

√2. Diese ist aber keine rationale Zahl.

Proposition 2.3.1. Es gibt keine rationale Zahl r mit r2 = 2.

Beweis. Angenommen doch, etwa r =pq mit teilerfremden p und q. Dann folgt

2 = r2 =p2

q2 , also p2 = 2q2. Damit ist p2 eine gerade Zahl und folglich ist auch p gerade,etwa p = 2k mit k ∈ Z. Es folgt 2q2 = (2k)2 = 4k2, also q2 = 2k2. Damit ist auch q einegerade Zahl, was der angenommenen Teilerfremdheit widerspricht! �

Da die rationalen Zahlen also zur Erfassung der Welt nicht ausreichen, fuhrt man diereellen Zahlen ein, in denen es unter anderem auch eine Zahl r =

√2 gibt, deren

Quadrat die Zahl 2 ist. In der Schule versteht man unter der Menge der reellen Zahlendie Menge aller Dezimalzahlen mit eventuell unendlich vielen Nachkommastellen,also zum Beispiel

π = 3, 141592653589793...

Page 29: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 26

oder√

2 = 1, 414213562373095...

Es gibt auch Dezimalzahlen mit Ziffern, die sich endlos wiederholen. Dies deutet manublicherweise durch einen Balken uber den Ziffern an, also ist etwa 0, 123 dasselbewie 0, 123123123 . . . . Es gibt allerdings Probleme mit der Dezimaldarstellung, da sienicht eindeutig ist, so ist etwa 0, 99999... = 0, 9 dasselbe wie 1. Dieses Problem kannausgeraumt werden, indem man nur solche Zahlen betrachtet, die nicht in einer 9-erPeriode enden.

Definition 2.3.2. Eine Dezimalzahl ist ein Ausdruck der Form

±aN . . . a1, b1b2 . . .

wobei N ∈N ist und a j, b j ∈ {0, . . . , 9} gilt. Ferner soll aN , 0 oder N = 1 sein. EineDezimalzahl heißt regular, wenn sie nicht in einer 9-er Periode endet, d.h., wenn es zujedem k ∈N ein j > k gibt, so dass b j , 9 gilt. Die Menge R der reellen Zahlen wirddefiniert als die Menge aller regularen Dezimalzahlen.

Jede ganze Zahl k ∈ Z lasst sich auf genau eine Weise als Dezimalzahl

k = ±aN . . . a1, 0 = ±

N∑j=1

a j 10 j

schreiben. Die Menge der Dezimalzahlen kann demzufolge mit der Menge

Z × {0, . . . , 9}N

identifiziert werden, wobei {0, . . . , 9}N die Menge aller Abbildungen von N nach{0, . . . , 9} ist. Die Menge R ist dann die Menge der regularen Elemente vonZ × {0, . . . , 9}N.

Durch schriftliche Division sieht man, dass sich jede rationale Zahl als Dezimalzahlschreiben lasst, etwa 1

4 = 0, 25 oder 13 = 0, 3. Diese Darstellung kann stets regular

gewahlt werden.

Satz 2.3.3. Eine reelle Zahl x liegt genau dann in Q, wenn sie am Ende periodisch ist,

Page 30: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 27

wenn x also von der Form

x = ±aN . . . a1, b1 . . . bkc1 . . . cl

ist.

Beweis. Sei x ∈ R. Es ist zu zeigen

x ∈ Q ⇔ x = ±aN . . . a1, b1 . . . bkc1 . . . cl.

“⇒” Dies folgt aus dem Algorithmus der schriftlichen Division, den man in derSchule lernt, denn man erhalt bei Division durch eine naturliche Zahl d eine Periode,sobald derselbe Rest bei den Nachkommastellen ein zweites Mal auftritt. Da diemoglichen Reste aber nur die endlich vielen Zahlen 0, 1, . . . , d − 1 sind, mussirgendwann ein Rest zweimal auftreten. Man sieht das sehr schon, wenn man malzum Beispiel 1 : 7 = 0, 142857 ausrechnet.

“⇐” Sei x = ±aN . . . a1, b1 . . . bkc1 . . . cl, wobei l ∈N ist. Da x genau dann rational ist,wenn −x rational ist, kann x ≥ 0 angenommen werden, also

x = aN . . . a1, b1 . . . bkc1 . . . cl.

Dann ist 10kx = aN . . . a1b1 . . . bk, c1 . . . cl. Sei n die Dezimalzahl aN . . . a1b1 . . . bk ∈N0 undsei y = 10kx − n, d.h. y = 0, c1 . . . cl. Dann ist aber

p def= 10ly − y = c1 . . . cl ∈N0

und es gilt daher y =p

10l−1 ∈ Q. Dann ist aber auch x =y−n10k in Q. �

Der Korper C

Auf der Menge R2 fuhren wir folgende Verknupfungen ein:

Addition:(x, y) + (x′, y′) = (x + x′, y + y′)

Page 31: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 28

und Multiplikation:(x, y)(x′, y′) = (xx′ − yy′, xy′ + x′y).

Lemma 2.3.4. Mit diesen Verknupfungen ist die Menge R2 ein Korper. Das Nullelement ist(0, 0) und das Einselement ist (1, 0). Das additive Inverse zu (a, b) ist (−a,−b) und dasmultiplikative Inverse zu (a, b) , 0 ist

(a

a2+b2 ,−b

a2+b2

).

Beweis. Das muss man im Einzelnen nachrechnen, was langwierig ist, aber nichtschwierig. Als Beispiel rechnen wir die Assoziativitat der Multiplikation. Seien also(x, y), (a, b), (u, v) ∈ R2, dann gilt

((a, b)(u, v))(x, y) = (au − bv, av + bu)(x, y)

= (aux − bvx − avy − buy, auy − bvy + avx + bux).

Andererseits ist

(a, b)((u, v)(x, y)) = (a, b)(ux − vy,uy + vx)

= (aux − avy − buy − bvx, auy + avx + bux − bvy). �

Wir nennen die Menge R2 mit diesen Verknupfungen die Menge der komplexenZahlen, geschrieben C und setzen

1C = (1, 0), i = (0, 1).

Jede komplexe Zahl lasst sich eindeutig schreiben als z = a1C + bi mit a, b ∈ R. DieAbbildung a 7→ a1C identifiziert R mit einer Teilmenge von C. Es gilt i2 = −1. Mandefiniert den Realteil einer komplexen Zahl z = x + yi als

Re(z) = x

und den Imaginarteil alsIm(z) = y.

Es gilt dann also z = Re(z) + Im(z)i.

Fur z = x + yi definieren wir die komplex konjugierte zu z als

z = x − yi.

Page 32: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 29

Es folgt unmittelbar

Re(z) =12

(z + z), Im(z) =12i

(z − z).

Lemma 2.3.5. Fur z,w ∈ C gilt

(a) z = z,

(b) z + w = z + w,

(c) (zw) = z w.

Beweis. Teil (a) und (b) sind trivial. Fur (c) sei z = x + yi und w = u + vi, dann ist

zw = (x + yi)(u + vi) = xu − yv + (xv + yu)i

= xu − yv − (xv + yu)i = (x − yi)(u − vi) = z w.

Definition 2.3.6. [Betrag einer komplexen Zahl] Fur z = x + yi gilt

zz = (x + yi)(x − yi) = x2 + y2

und diese reelle Zahl ist ≥ 0. Wir definieren den Betrag einer komplexen Zahl z als

|z| =√

zz.

Satz 2.3.7. Fur z,w ∈ C gilt

(a) |z| ≥ 0 und |z| = 0 ⇔ z = 0, Definitheit

(b) |zw| = |z||w|, Multiplikativitat

(c) |z + w| ≤ |z| + |w|. Dreiecksungleichung

Beweis. Teil (a) ist klar. Fur Teil (b) rechne

|zw| =√

zwzw =√

zzww =√

zz√

ww = |z||w|.

Page 33: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 30

Schliesslich beweisen wir (c)

|z + w|2 = (z + w)(z + w) = zz + ww + zw + wz︸ ︷︷ ︸=2 Re(zw)

.

Fur jede komplexe Zahl w = u + vi gilt |Re(w)| ≤ |w|, also folgt

|z + w|2 = |zz + ww + 2 Re(zw)|

≤ zz + ww + 2|Re(zw)| ≤ zz + ww + 2|z||w| = (|z| + |w|)2.

Durch Wurzelziehen folgt die Behauptung. �

Die folgenden Bilder verdeutlichen die Addition und Multiplikation in C.

z

w

z + w

Page 34: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 31

z

w

zw

Hierbei ist der Winkel von zw die Summe der Winkel von z und w und die Lange istdas Produkt der Langen.

2.4 Polynome

Sei K ein Korper. Der Polynomring K[x] ist die Menge der formalen Ausdrucke derForm

a0 + a1x + a2x2 + · · · + anxn

mit n ∈N und a0, . . . , an ∈ K. Man hat eine Addition:

(a0 + a1x + a2x2 + · · · + anxn) + (b0 + b1x + b2x2 + · · · + bnxn)

= (a0 + b0) + (a1 + b1)x + (a2 + b2)x2 + · · · + (an + bn)xn,

wobei man bei verschiedenem Grad ein Polynom durch Nullen auffullt. Ferner hatman eine Multiplikation

(a0 + a1x + a2x2 + · · · + amxm)(b0 + b1x + b2x2 + · · · + bnxn)

= a0b0 + (a1b0 + a0b1)x + · · · +

∑k+l=p

akbl

xp + . . .

Page 35: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 32

Praziser definieren wir den Polynomring als Menge aller Folgen (a0, a1, a2, . . . ) in K mitder Eigenschaft, dass es ein j0 ∈N gibt mit a j = 0 fur j ≥ j0. Wir definieren dieAddition durch

(a0, a1, a2, . . . ) + (b0, b1, b2, . . . ) = (a0 + b0, a1 + b1, . . . )

und die Multiplikation durch

(a0, a1, a2, . . . )(b0, b1, b2, . . . ) = (c0, c1, c2, . . . )

mit cp =∑

i+ j=p a jbi.

Beispiel 2.4.1. Sei K = F2, dann gilt fur jedes t ∈ K, dass

1 + t = 1 + t2,

aber die Polynome 1 + x und 1 + x2 sind verschiedene Elemente in F2[x]. Man kannalso K[x] nicht mit der Menge der polynomialen Abbildungen K→ K identifizieren!

Polynome , polynomiale Abbildungen!

Definition 2.4.2. Fur ein Polynom f (x) = a0 + a1x + · · ·+ anxn, das nicht gerade Null ist,sei der Grad von f das großte k ∈N0 mit ak , 0. Man erweitert diese Definition durch

grad(0) = −∞.

Dann gilt fur beliebige Polynome f (x), g(x), dass

grad( f g) = grad( f ) + grad(g),

grad( f + g) ≤ max(

grad( f ),grad(g)),

wenn man formal −∞ + n = n + (−∞) = −∞ rechnet.

Satz 2.4.3 (Division mit Rest). Sind f , g ∈ K[x] und ist g , 0, so gibt es eindeutig

Page 36: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 33

bestimmte Polynome q, r ∈ K[x] so dass

f = qg + r und grad(r) < grad(g).

Beweis. Existenz: Wir geben ein Verfahren zur Berechnung an. Schreibe

f (x) = anxn + · · · + a0

g(x) = bmxm + · · · + b0

mit an , 0 und bm , 0. Ist n < m, so setze r = f und q = 0, denn dann ist ja

f = qg + r und grad(r) < grad(g).

Ist hingegen n ≥ m, so setze q1 = anbm

xn−m und f1 = f − q1g. Dann folgtgrad( f1) < grad( f ). Ersetze nun f durch f1 und wiederhole diesen Vorgang bis derGrad kleiner wird als grad(g).

Nun zur Eindeutigkeit: Seien q′, r′ ∈ K[x] zwei weitere Polynome mit f = q′g + r′ undgrad(r) < grad(g). Dann gilt

0 = f − f = (q − q′)g + (r − r′).

Also gilt (q − q′)g = (r′ − r) und damit

grad(q − q′) + grad(g) = grad(r′ − r)

≤ max(grad(r′),grad(r)) < grad(g).

Daraus folgt grad(q − q′) < 0, also grad(q − q′) = −∞ und damit q = q′, woraus auchr = r′ folgt. �

Beispiel 2.4.4. Sei K = Q und f (x) = 3x3 + 2x + 1, sowie g(x) = x2 + 4x. Dann istq(x) = 3x − 12 und r(x) = 50x + 1.

Sei f ∈ K[x], etwaf (x) = a0 + a1x + · · · + anxn.

Fur λ ∈ K setzef (λ) = a0 + a1λ + a2λ

2 + · · · + anλn∈ K.

Page 37: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 34

So definiert f eine polynomiale Abbildung K→ K.

Ein λ ∈ K mit f (λ) = 0 heißt Nullstelle des Polynoms f .

Proposition 2.4.5. Ist λ ∈ K eine Nullstelle von f ∈ K[x], f , 0, dann existiert eing(x) ∈ K[x] und ein p ∈N mit

f (x) = (x − λ)pg(x)

und g(λ) , 0. Es folgt dann grad(g) = grad( f ) − p. Die Zahl p heißt die Vielfachheit derNullstelle λ von f .

Beweis. Nach Division mit Rest existieren g1(x) und r(x) mit

f (x) = (x − λ)g1(x) + r(x)

und grad(r) < grad(x − λ) = 1. Daher ist r(x) konstant. Aber wegen

0 = f (λ) = (λ − λ)g(λ) + r = r

ist r = 0 und wir erhalten f (x) = (x − λ)g1(x). Ist nun g1(λ) , 0, setzen wir p = 1 undg = g1. Andernfalls wiederholen wir den Schritt mit g1 und der Stelle von f , so lange,bis wir auf ein Polynom g mit g(λ) , 0 stossen. �

Korollar 2.4.6. Ist f ∈ K[x], f , 0 und ist k die Anzahl der Nullstellen von f . Dann gilt

k ≤ grad( f ).

Beweis. Sind λ1, . . . , λk die verschiedenen Nullstellen von f , dann gilt

f (x) = (x − λ1)g1(x)

fur ein g1 ∈ K[x], g1 , 0. Dann ist

0 = f (λ2) = (λ2 − λ1)︸ ︷︷ ︸,0

g1(λ2)

und also g1(λ2) = 0. Daher gibt es ein g2(x) , 0 mit g1(x) = (x − λ2)g2(x) und daher

f (x) = (x − λ1)(x − λ2)g2(x).

Page 38: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 35

Wir wiederholen dies Argument bis zu

f (x) = (x − λ1)(x − λ2) · · · (x − λk)gk(x),

mit gk , 0, was soviel heisst wie grad(gk) ≥ 0. Daher ist grad( f ) = k + grad(gk) ≥ k. �

Definition 2.4.7. Sei f ∈ K[x], f , 0 und λ ∈ K. Dann heißt

µ( f , λ) = max{n ∈N : ∃g∈K[x] f (x) = (x − λ)ng(x)

}die Vielfachheit der Nullstelle λ. Es ist µ( f , λ) = 0 falls λ gar keine Nullstelle ist.

Sind λ1, . . . , λk die verschiedenen Nullstellen von f und m j = µ( f , λ j) dieVielfachheiten, dann gilt

f (x) = (a − λ1)m1 · · · (x − λk)mk g(x)

fur ein Polynom g, das keine Nullstelle hat.

Beispiel 2.4.8. Das Polynom g(x) = 1 + x2 hat in K = R keine Nullstelle.

Satz 2.4.9. Sei Φ : K[x]→ Abb(K,K) die Abbildung, die einem Polynom dieentsprechende Polynomiale Abbildung zuordnet, also

Φ(a0 + a1x + · · · + anxn)(α) = a0 + a1α + · · · + anαn,

verkurzt geschrieben alsΦ( f )(α) = f (α),

oder, in der anderen Schreibweise,

Φ(a0, a1, a2, . . . )(α) = a0 + a1α + a2α2 + . . .

Ist dann K ein unendlicher Korper, dann ist Φ injektiv.

Beweis. Sei K unendlich und sei Φ( f ) = Φ(g). Wir mussen zeigen, dass f = g gilt.

Fur α ∈ K gilt Φ( f − g)(α) = f (α) − g(α) = Φ( f )(α) −Φ(g)(α) = 0. Das heißt, dasPolynom h = f − g hat unendlich viele Nullstellen. Nach Korollar 2.4.6 muss es dasNullpolynom sein, also f − g = 0 oder f = g. �

Page 39: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 36

Definition 2.4.10. Ein Koerper K heisst algebraisch abgeschlossen, falls jedesnichtkonstante Polynom f (x) ∈ K[x] eine Nullstelle hat.

Beispiele 2.4.11. • K = Q ist nicht algebraisch abgeschlossen, weil f (x) = x2− 2

keine Nullstelle hat.

• K = R ist nicht algebraisch abgeschlossen, weil x2 + 1 keine Nullstelle hat.

• Der Fundamentalsatz der Algebra besagt, dass der Korper C algebraischabgeschlossen ist.

• Man beweist in der Algebra, dass es zu jedem Korper K einenErweiterungskorper K ⊃ K gibt, der algebraisch abgeschlossen ist. Jederalgebraisch abgeschlossene Korper hat unendlich viele Elemente.

Page 40: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Kapitel 3

Vektorraume

3.1 Raume und Unterraume

Sei K ein Korper. Ein Vektorraum uber K ist eine abelsche Gruppe (V,+) zusammenmit einer Abbildung

K × V → V,

(λ, v) 7→ λv,

so dass fur alle v,w ∈ V und alle λ, µ ∈ K gilt:

(a) 1 · v = v,

(b) (λµ)v = λ(µv)

(c) (λ + µ)v = λv + µv, λ(v + w) = λv + λw.

Beispiele 3.1.1. • Sei Kn = K × · · · × K die Menge der n-tupel (x1, . . . , xn) vonElementen von K. Aus Grunden, die spater klar werden, schreiben wir dieElemente von Kn als Spalten:

Kn =

x1...

xn

: x1, . . . , xn ∈ K

37

Page 41: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 38

Die Addition x1...

xn

+

y1...

yn

=

x1 + y1...

xn + yn

macht Kn zu einer abelschen Gruppe. Die skalare Multiplikation ist erklart durch

λ

x1...

xn

=

λx1...

λxn

fur λ ∈ K.

• Sei S irgendeine Menge mit S , ∅. Sei V = Abb(S,K) die Menge allerAbbildungen f : S→ K. Durch die Addition

( f + g)(s) = f (s) + g(s)

wird V eine abelsche Gruppe und die Vorschrift

(λ f )(s) = λ( f (s))

macht V zu einem Vektorraum.

Beweis. Die Nullfunktion f0(s) = 0 ist ein neutrales Element fur die Addition,denn fur jedes f ∈ V gilt

( f + f0)(s) = f (s) + f0(s) = f (s) + 0 = f (s).

Die anderen Gruppeneigenschaften rechnet man ebenso nach. Wir zeigen nochdie Vektorraumaxiome. Es gilt

(1 · f )(s) = 1 · f (s) = f (s),

fur jedes s ∈ S, also 1 · f = f . Ferner ist fur λ, µ ∈ K und f ∈ V,

((λµ) f )(s) = (λµ)( f (s)) = λ(µ( f (s)) = λ((µ f )(s)) = (λ(µ f ))(s).

Schliesslich ist

((λ + µ) f )(s) = (λ + µ)( f (s)) = λ( f (s)) + µ( f (s)) = (λ f )(s) + (µ f )(s) = (λ f + µ f )(s).

Page 42: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 39

Und ebenso λ( f + g) = λ f + λg. �

Sei V ein Vektorraum. Eine Teilmenge U ⊂ V heißt Unterraum oderUntervektorraum, wenn U mit der Addition und der Skalarmultiplikation von Vselbst ein Vektorraum ist.

Proposition 3.1.2. Sei V ein K-Vektorraum. Eine nichtleere Teilmenge U ⊂ V ist genau dannein Unterraum, wenn gilt

(a) u, v ∈ U ⇒ u + v ∈ U,

(b) u ∈ U, λ ∈ K ⇒ λu ∈ U.

Beweis. “⇒” Wenn U ein Unterraum ist, sind (a) und (b) offensichtlich erfullt.

“⇐” Sei U nichtleer mit (a) und (b). Nach (a) definiert + eine Verknupfung auf U. Wirzeigen, dass (U,+) eine abelsche Gruppe ist. Assoziativgesetz (a + b) + c = a + (b + c)und Kummutativgesetz a + b = b + a sind klar, denn die sind in V erfullt. Da U nichtleerist, gibt es ein u0 ∈ U. Mit (b) folgt, dass (−1)u0 ∈ U und daher ist 0 = u0 + (−1)u0 ∈ U,also hat U ein neutrales Element. Fur u ∈ U ist (−1)u ∈ U ein Inverses und dieBehauptung ist gezeigt. Die verbleibenden Axiome gelten in U, da sie in V gelten. �

Beispiel 3.1.3. Sei S eine Menge und sei V = Abb(S,K). Fixiere ein s0 ∈ S und setze

U ={

f ∈ V : f (s0) = 0}.

Dann ist U ein Unterraum von V.

Beweis. U ist nichtleer, da die Nullabbildung in U liegt.

(a) Seien f , g ∈ U, so gilt

( f + g)(s0) = f (s0) + g(s0) = 0 + 0 = 0,

also gilt f + g ∈ U.

(b) Sei f ∈ U und λ ∈ K, so gilt

(λ f )(s0) = λ( f (s0)) = λ · 0 = 0.

Also ist λ f ∈ U. �

Page 43: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 40

Definition 3.1.4. Ist I irgendeine Indexmenge und ist fur jedes i ∈ I eine Menge Ai

gegeben, so definieren wir die Schnittmenge⋂i∈I

Ai

als die Menge aller x, die in jeder der Mengen Ai liegen. Das heisst:

x ∈⋂i∈I

Ai ⇔ x ∈ Ai fuer jedes i ∈ I.

Proposition 3.1.5. Sind U,W Unterraume von V, so ist U ∩W ein Unterraum.

Allgemeiner gilt: Ist I eine Indexmenge und ist fur jedes i ∈ I ein Unterraum Ui gegeben, so ist

U =⋂i∈I

Ui

ein Unterraum von V.

Beweis. Wir zeigen nur die zweite, allgemeinere Aussage. Zunachst ist U , ∅, da dieNull in jedem Ui und damit in U liegt. Seien u, v ∈ U. Dann gilt u, v ∈ Ui fur jedes i ∈ I.Also ist u + v ∈ Ui fur jedes i ∈ I und daher ist u + v ∈ U. Ist λ ∈ K und u ∈ U, so siehtman ebenso, dass λu ∈ U ist. �

3.2 Summen und direkte Summen

Definition 3.2.1. Sei V ein K-Vektorraum und seien U,W ⊂ V Unterraume. DieSumme von U und W ist definiert als

U + W ={u + w : u ∈ U,w ∈W

}.

Beispiel 3.2.2. Sei K = R und V = R3, sowie

U =

x0

0

: x ∈ R

Page 44: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 41

und

W =

0

y0

: y ∈ R

.Dann sind U und W zwei verschiedene Geraden im dreidimensionalen Raum. Es istdann

U + W =

xy0

: x, y ∈ R

eine Ebene.

Definition 3.2.3. Sind U1, . . .Um ⊂ V Unterraume von V, so definiert man

U1 + · · · + Um ={u1 + · · · + um : u1 ∈ U1, . . . ,um ∈ Um

}.

Beispiel 3.2.4. Sei V = Kn, sowie e1 =

10...

0

, e2 =

010...

0

, . . . , en =

0...

01

. Fur jedes

j ∈{1, . . . ,n

}sei

U j = Ke j ={λe j : λ ∈ K

}︸ ︷︷ ︸

=von e j aufgespannte Gerade

Dann giltU1 + · · · + Un = V.

Bemerkung. Fur einen Unterraum U ⊂ V gilt

U + U = U.

Beweis. “⊂” Sei v ∈ U + U. Dann gibt es u1,u2 ∈ U mit v = u1 + u2. Da U ein Unterraumist, folgt v ∈ U.

“⊃” Sei u ∈ U. Dann ist u = u + 0 ∈ U + U. �

Definition 3.2.5. Seien U1, . . . ,Um Unterraume von V. Die Summe U = U1 + . . .Um isteine direkte Summe, wenn jedes u ∈ U auf genau eine Weise als u = u1 + · · · + um

Page 45: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 42

geschrieben werden kann. Ist dies der Fall, so schreiben wir

U = U1 ⊕U2 ⊕ · · · ⊕Um =

m⊕j=1

U j.

Beispiele 3.2.6. • Sei V = K3 und

U =

xy0

: x, y ∈ K

,sowie

W =

0

yz

: y, z ∈ K

.Dann ist die Summe U + W nicht direkt, denn die Null kann auf zwei Weisengeschrieben werden:

0 = 0 + 0, 0 =

0

1

0

︸︷︷︸∈U

+

0

−1

0

︸︷︷︸∈W

.

• Sei V = K3, U1 = Ke1 und U2 = Ke2. Dann ist die Summe U = U1 + U2 direkt

Beweis. Sei u ∈ U mit u = u1 + u2 = u′1 + u′2, wobei u j,u′j ∈ U j gilt. Wir mussenzeigen, dass u1 = u′1 und u2 = u′2 gilt. Hierzu schreibe u1 = λ1e1, u2 = λ2e2, sowieu′1 = λ′1e1 und u′2 = λ′2e2. Es folgt

λ1

λ2

0

= λ1e1 + λ2e2 = u = λ′1e1 + λ′2e2 =

λ′1λ′20

.Also folgt λ1 = λ′1 sowie λ2 = λ′2, also u1 = u′1 sowie u2 = u′2. �

Proposition 3.2.7. Seien U,W,U1, . . . ,Um Unterraume eines Vektorraums V.

(a) Die Summe U + W ist genau dann direkt, wenn U ∩W = 0.

Page 46: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 43

(b) Die Summe U1 + · · · + Um ist genau dann direkt, wenn fur alle u1 ∈ U1, . . . ,um ∈ Um gilt

u1 + · · · + um = 0 ⇒ u1 = · · · = um = 0.

Beweis. (a) Sei die Summe direkt und sei v ∈ U ∩W. Dann sind

0 = 0︸︷︷︸∈U

+ 0︸︷︷︸∈W

= v︸︷︷︸∈U

+ (−v)︸︷︷︸∈W

zwei Schreibweisen der Null. Diese mussen nach Definition der direkten Summegleich sein, also v = 0.

Sei umgekehrt U ∩W = 0 und sei u + w = u′ + w′ mit u,u′ ∈ U und w,w′ ∈W. Dann istu − u′ = w′ − w ∈ U ∩W also gleich Null und damit u = u′ und w = w′.

(b) “⇒” folgt direkt aus der Definition. Wir zeigen “⇐”: Sei u1 + · · ·+ um = u′1 + · · ·+ u′mmit u j,u′j ∈ U j. Dann ist

u1 − u′1 + · · · + um − u′m = 0,

also u1 = u′1, . . . ,um = u′m. �

Page 47: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Kapitel 4

Dimension

4.1 Linearkombinationen

Seien v1, . . . , vm Elemente des Vektorraums V. Eine Linearkombination der Vektorenv1, . . . , vm ist jeder Vektor der Gestalt

λ1v1 + · · · + λmvm

wobei λ1, . . . , λm ∈ K. Die Menge aller Linearkombinationen ist der Spann vonv1, . . . , vm, also

Spann(v1, . . . , vm) ={λ1v1 + · · · + λmvm : λ1, . . . , λm ∈ K

}.

Beispiele 4.1.1. • Seien K = R, V = R3. Seien weiter v1, v2 ∈ V, wobei keiner einVielfaches des anderen ist. Dann ist Spann(v1, v2) die eindeutig bestimmteEbene, die die Punkte 0, v1, v2 enthalt.

• Sei K = Q. der Vektor

7

2

9

liegt im Spann der Vektoren

2

1

3

und

1

0

1

, denn es

gilt 7

2

9

= 2

2

1

3

+ 3

1

0

1

.Proposition 4.1.2. Sei V ein Vektorraum und u1, . . . ,um ∈ V. Dann ist Spann(u1, . . . ,um)ein Untervektorraum von V.

44

Page 48: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 45

Beweis. Sei U = Spann(u1, . . . ,um). Wir mussen zeigen:

u, v ∈ U⇒ u + v ∈ U,

u ∈ U, λ ∈ K⇒ λu ∈ U.

Seien also u = λ1u1 + · · · + λmum und v = µ1u1 + · · · + µmum und λ ∈ K. Dann ist

u + v = (λ1 + µ1)u1 + · · · + (λm + µm)um ∈ U,

sowie

λu = (λλ1)u1 + · · · + (λλm)um ∈ U. �

Definition 4.1.3. Gilt V = Spann(v1, . . . , vm), so sagen wir, dass die Vektoren v1, . . . , vm

den Vektorraum V aufspannen. Ist dies der Fall, sagen wir, dass v1, . . . , vm einErzeugendensystem von V ist.

Beispiel 4.1.4. Sei V = Kn. Die Vektoren e1 =

10...

0

, . . . , en =

0...

01

spannen der Raum V

auf, denn es gilt fur v ∈ V,

v =

x1...

xn

= x1e1 + · · · + xnen.

Definition 4.1.5. Ein Vektorraum V heißt endlich-dimensional, falls es ein endlichesErzeugendensystem gibt. Ansonsten heißt er unendlich-dimensional.

Beispiele 4.1.6. • Der Raum Kn ist endlich-dimensional.

• Der Polynomring K[x] ist mit der Skalarmultiplikation

λ(a0 + · · · + anxn) = (λa0) + · · · + (λan)xn

ein Vektorraum. Dieser ist nicht endlich-dimensional.

Beweis. Angenommen, K[x] ware endlich-dimensional, also etwa erzeugt vonf1, . . . , fm. Sei dann N das Maximum der grade grad( f j) fur j = 1, . . . ,m. Dann istxN+1 nicht als Linearkombination der f j darstellbar. Widerspruch! �

Page 49: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 46

• Sei S eine nichtleere Menge. Ist S endlich, dann ist V = Abb(S,K)endlich-dimensional.

Beweis. Sei S ={s1, . . . , sn

}Fur 1 ≤ j ≤ n sei δ j : S→ K definiert durch

δ j(t) =

1 t = s j,

0 t , s j.

Wir behaupten, dass δ1, . . . , δn ein Erzeugendensystem ist. Sei hierzu f ∈ V undsei λ j = f (s j) ∈ K fur j = 1, . . . ,n. Wir zeigen

f = λ1δ1 + · · · + λnδn.

Sei s ∈ S. Dann gibt es genau ein 1 ≤ i ≤ n mit s = si. Es ist dann

f (s) = f (si) = λi = λ1δ1(s) + · · · + λnδn(s).

Damit folgt die Behauptung. �

4.2 Lineare Unabhangigkeit

Sei V = Spann(v1, . . . , vm). Dann kann jedes v ∈ V in der Form

v = λ1v1 + · · · + λmvm

geschrieben werden. Diese Darstellung ist im Allgemeinen nicht eindeutig, denn eskonnte zum Beispiel v1 = 0 sein, was bedeutet, dass man fur λ1 jeden Wert einsetzenkann. Ist also

v = µ1v1 + · · · + µmvm

eine zweite Darstellung, so folgt

0 = v − v = v = (λ1 − µ1)v1 + · · · + (λm − µm)vm.

Es stellt sich heraus, dass die Darstellung genau dann eindeutig ist, wenn v1, . . . , vm

linear unabhangig im Sinne der folgenden Definition sind.

Definition 4.2.1. Die Vektoren v1, . . . , vm ∈ V heißen linear unabhangig, falls es keine

Page 50: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 47

Linearkombination der Null gibt, außer der trivialen, also wenn gilt

λ1v1 + · · · + λmvm = 0 ⇒ λ1 = · · · = λm = 0.

Mit anderen Worten, die Vektoren sind linear unabhangig, wenn es nur eineLinearkombination der Null gibt.

Beispiel 4.2.2. Die Vektoren e1, . . . , en ∈ Kn sind linear unabhangig, denn istλ1e1 + · · · + λnen = 0, so heißt das

λ1...

λn

= λ1e1 + · · · + λnen =

0...

0

,also λ1 = · · · = λn = 0.

Lemma 4.2.3. Sind die Vektoren w1, . . . ,wm ∈ V linear unabhangig, so gilt fur 1 ≤ j ≤ m,

w j < Spann(w1, . . . w j . . . ,wm),

wobei(w1, . . . w j . . . ,wm) = (w1, . . . ,w j−1,w j+1, . . . ,wm)

die Familie w1, . . . ,wm ohne den Eintrag w j bezeichnet.

Beweis. Angenommen, w j liegt in dem Spann, dann gibt es λ1, . . . , λ j, . . . , λm ∈ K mit

w j = λ1w1 + · · · + λ j−1w j−1 + λ j+1w j+1 + · · · + λmwm.

Hieraus folgt

λ1w1 + · · · + λ j−1w j−1 + (−1)w j + λ j+1w j+1 + · · · + λmwm = 0,

also λ1 = · · · = λn = 0 und (−1) = 0, Widerspruch! �

Definition 4.2.4. Die Vektoren v1, . . . , vm heißen linear abhangig, wenn sie nicht linearunabhangig sind, also wenn es eine nichttriviale Linearkombination der Null gibt.

Beispiel 4.2.5. Sei K = Q. Die Vektoren

2

3

1

,

1

−1

2

,

7

3

8

∈ Q3 sind linear abhangig,

Page 51: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 48

denn

2

2

3

1

+ 3

1

−1

2

+ (−1)

7

3

8

= 0.

Lemma 4.2.6. Sind v1, . . . , vm linear abhangig und ist v1 , 0, dann existiert einj ∈

{2, 3, . . . ,m

}so dass

(a) v j ∈ Spann(v1, . . . , v j−1),

(b) Spann(v1, . . . v j . . . , vm) = Spann(v1, . . . , vm).

Beweis. Da die v1, . . . , vm linear abhangig sind, existieren Koeffizienten λ1, . . . , λn ∈ K,nicht alle Null, so dass

λ1v1 + · · · + λmvm = 0.

Sei j der großte Index mit λ j , 0.Dann ist also λ j+1 = · · · = λm = 0, es folgt λ1v1 + · · · + λ jv j = 0 und wegen v1 , 0 istj > 0. Da λ j , 0, erhalten wir

v j =

(−λ1

λ j

)v1 + · · · +

(−λ j−1

λ j

)v j−1,

also folgt (a). Fur (b) sei v ∈ Spann(v1, . . . , vm), etwa

v = µ1v1 + · · · + µmvm.

In dieser Linearkombination konnen wir v j durch den Ausdruck(−λ1λ j

)v1 + · · · +

(λ j−1

λ j

)v j−1 ersetzen und wir sehen, dass v ∈ Spann(v1, . . . v j . . . , vm)

gilt. �

Lemma 4.2.7. (a) Ist w ∈ Spann(v1, . . . , vm), dann ist die Familie w, v1, . . . , vm linearabhangig.

(b) Ist w < Spann(v1, . . . , vm) und ist v1, . . . , vm linear unabhangig, dann ist w, v1, . . . , vm

linear unabhangig.

Beweis. (a) Ist w = λ1v1 + · · · + λmvm, dann ist 0 = (−1)w + λ1v1 + · · · + λmvm einenichttriviale Linearkombination der Null.

Page 52: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 49

(b) Sei λw + λ1v1 + · · · + λmvm = 0. Dann muss λ = 0 sein, denn sonst ware

w =(−λ1

λ

)v1 + · · · +

(−λm

λ

)vm,

was der Voraussetzung widerspricht. Also ist λ = 0, und dann folgt λ1 = . . . , λm = 0,da die v1, . . . , vm linear unabhangig sind. �

Satz 4.2.8. Sei V ein endlich-dimensionaler Vektorraum. Die Lange einer linearunabhangigen Familie ist ≤ der Lange jedes Erzeugendensystems.

Mit anderen Worten: Gilt V = Spann(v1, . . . , vn) und sind w1, . . . ,wk linear unabhangig,dann ist k ≤ n.

Beweis. 1. Schritt. Da die v1, . . . , vn den Raum aufspannen, ist w1, v1, . . . , vn linearabhangig. Nach Lemma 4.2.6 konnen wir eines der v j entfernen und haben immernoch ein Erzeugendensystem.

Wir wiederholen diesen Schritt.

(j+1)-ter Schritt. Nach Schritt j wissen wir, dass die Familie w1, . . . ,w j, vi1 , . . . , vin− j) einErzeugendensystem ist. deshalb ist die Liste w1, . . . ,w j+1, vi1 , . . . , vin− j) linear abhangig.Nach Lemma 4.2.6 gibt es einen Vektor, der in dem Span der vorhergehenden liegt.Dies kann keiner der w1, . . . ,w j+1 sein, denn die sind linear unabhangig. Wir konnenalso eines der vi entfernen und behalten immer noch ein Erzeugendensystem.

Dieser Prozess stoppt erst nach dem k-ten Schritt und liefert ein Erzeugendensystemder Lange n von der Form

(w1, . . . ,wk, ∗),

wobei der Stern fur einige der v j steht. Damit folgt k ≤ n. �

Proposition 4.2.9. Jeder Unterraum eines endlich-dimensionalen Raums istendlich-dimensional.

Beweis. Sei U ein Unterraum eines endlich-dimensionalen Raums V, etwaV = Spann(v1, . . . , vn). Jede linear unabhangige Liste u1, . . . ,uk hat eine Lange k ≤ n. Seik die maximale Lange einer solchen Liste. Dann behaupten wir, dass u1, . . . ,uk bereitsein Erzeugendensystem von U ist. Ware dem nicht so, dann gabe es einen Vektor

Page 53: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 50

u0 ∈ U mit u0 < Spann(u1, . . . ,uk). Dann ist nach Lemma 4.2.7 aber u0,u1, . . . ,uk linearunabhangig, was der Maximalitat von k widerspricht. �

4.3 Basen

Definition 4.3.1. Eine Basis eines Vektorraums V ist ein linear unabhangigesErzeugendensystem.

Mit anderen Worten: v1, . . . , vn ist Basis von V, falls

(a) V = Spann(v1, . . . , vn) und

(b) v1, . . . , vn sind linear unabhangig.

Beispiele 4.3.2. • e1, . . . , en ist eine Basis von Kn.

• Ist char(k) , 2, dann ist 1

1

, 1

−1

eine Basis von K2.

Proposition 4.3.3. Die Familie v1, . . . , vn ist genau dann eine Basis von V, wenn sich jederVektor v ∈ V auf genau eine Weise als v = λ1v1 + · · · + λnvn schreiben lasst.

Beweis. “⇒” Sei v1, . . . , vn eine Basis und sei v ∈ V. Da v1, . . . , vn einErzeugendensystem ist, gibt es Koeffizienten λ1, . . . , λn ∈ K so dassv = λ1v1 + · · · + λnvn. Es bleibt zu zeigen, dass die λ j eindeutig bestimmt sind. Istv = µ1v1 + · · · + µnvn eine weitere Darstellung, dann folgt

0 = v − v = (λ1 − µ1)v1 + · · · + (λn − µn)vn.

Wegen der linearen Unabhangigkeit folgt λ1 = µ1, . . . , λn = µn.

“⇐” Lasst sich jeder Vektor so schreiben, ist die Familie ein Erzeugendensystem. Istdie Darstellung der Null eindeutig, folgt die lineare Unabhangigkeit. �

Satz 4.3.4. Jedes endliche Erzeugendensystem eines Vektorraums enthalt eine Basis.

Page 54: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 51

Beweis. Sei v1, . . . , vn ein Erzeugendensystem. Ist es nicht linear unabhangig, dannkann man nach Lemma 4.2.6 einen Vektor rauswerfen und hat immer noch einErzeugendensystem. Diesen Schritt wiederholt man, bis es linear unabhangig ist. �

Beispiel 4.3.5. Nach diesem Verfahren reduziert sich das Erzeugendensystem 1

2

, 3

6

, 4

7

, 5

9

zu 1

2

, 4

7

.Korollar 4.3.6. Jeder endlich-dimensionale Vektorraum hat eine Basis.

Satz 4.3.7. Sei V endlich-dimensional und seien v1, . . . , vk linear unabhangig. Dann gibtes vk+1, . . . , vn so dass v1, . . . , vn eine Basis ist.

Beweis. Ist v1, . . . , vk nicht schon eine Basis, dann gibt es ein vk+1 ∈ V mitvk+1 < Spann(v1, . . . , vk). Nach Lemma 4.2.6 ist dann v1, . . . , vk+1 wieder linearunabhangig. Diesen Schritt wiederholen wir so lange, bis wir eine Basis haben. DasVerfahren muss nach endlich vielen Schritten abbrechen, denn nach Satz 4.2.8 kanndie Lange einer linear unabhangigen Familie nicht die eines Erzeugendensytemsuberschreiten und wir wissen ja, dass es eines endlicher Lange gibt. �

Proposition 4.3.8. Sei U ⊂ V ein Unterraum des endlich-dimensionalen Vektorraums V.Dann existiert ein Unterraum W ⊂ V so dass

V = U ⊕W.

Der Raum W wird ein Komplementarraum zu U genannt.

Beweis. Nach Proposition 4.2.9 ist U endlich-dimensional. Nach Korollar 4.3.6 hat Ueine Basis v1, . . . , vk. Nach Satz 4.3.7 lasst sich diese zu einer Basis v1, . . . , vn von Vverlangern. Setze W = Spann(vk+1, . . . , vn). Dann ist V = U + W, da sich jedes v ∈ V alsLinearkombination der 1, . . . , vn schreiben lasst. Ferner ist U ∩W = 0, denn istv ∈ U ∩W, dann ist einerseits v = λ1v1 + · · · + λkvk fur geeignete Koeffizientenλ1, . . . , λk ∈ K und andererseits v = λk+1vk+1 + · · · + λnvn fur Koeffizientenλk+1, . . . , λn ∈ K. Es folgt

0 = v − v = λ1v1 + · · · + λkvk + (−λk+1)vk+1 + · · · + (−λn)vn,

Page 55: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 52

woraus wegen der linearen Unabhangigkeit λ1 = · · · = λn = 0 und damit v = 0folgt. �

Beispiel 4.3.9. Sei K = Q und V = Q2, sowie U = Qe1. Dann ist Qe2 einKomplementarraum. Allerdings ist auch Q(λe1 + e2) ein Komplementarraum fur jedesλ ∈ Q. Damit gibt es unendlich viele verschieden Komplementarraume.

Satz 4.3.10. Je zwei Basen eines Vektorraums haben dieselbe Lange.

Sind also v1, . . . , vn und w1, . . . ,wm Basen des Vektorraums V, dann folgt m = n. Diesegemeinsame Lange wird die Dimension des Raums V genannt.

Beweis. Da v1, . . . , vn linear unabhangig und w1, . . . ,wm ein Erzeugendensystem ist,folgt nach Satz 4.2.8, dass n ≤ m ist. Aus Symmetrie folgt auch n ≥ m. �

Beispiel 4.3.11. Es ist dim(Kn) = n, da e1, . . . , en eine Basis ist.

Proposition 4.3.12. (a) Ist U ⊂ V ein Unterraum des endlich-dimensionalen VektorraumsV, so gilt dim U ≤ dim V.

(b) Ist dim V = n, so ist jedes Erzeugendensystem der Lange n eine Basis. Ebenso ist jedelinear unabhangige Familie der Lange n eine Basis.

(c) Fur jeden Vektorraum V gilt

V = 0 ⇔ dim V = 0.

Beweis. (a) Jede Basis von U kann zu einer Basis von V verlangert werden.

(b) Sei v1, . . . , vn ein Erzeugendensystem der Lange n. Nach Satz 4.3.4 enthalt es eineBasis. Diese muss aber die Lange n haben, also ist v1, . . . , vn selbst eine Basis.

Sei v1, . . . , vn eine linear unabhangige Familie. dann kann sie nach Satz 4.3.7 zu einerBasis verlangert werden. Diese muss die Lange n haben, also ist sie gleich v1, . . . , vn.

(c) Ist V = 0, so ist die leere Familie eine Basis und umgekehrt. �

Beispiele 4.3.13. •

5

7

, 1

3

ist eine Basis von Q2.

• 1, x, 1 + x2 ist eine Basis von{

f ∈ K[x] : grad( f ) ≤ 2}.

Page 56: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 53

Satz 4.3.14 (Dimensionsformel fur Unterraume). Sind U und W Unterraume desendlich-dimensionalen Raums V, dann gilt

dim(U + W) = dim U + dim W − dim(U ∩W).

Beweis. Sei v1, . . . , vk eine Basis von U ∩W. Wir setzen sie fort zu einer Basisv1, . . . , vk, vk+1, . . . , vm von U. Andererseits konnen wir sie aber auch zu einer Basisv1, . . . , vk, vm+1, . . . , vn von W fortsetzen. Wir behaupten, dassv1, . . . , vk, vk+1, . . . , vm, vm+1, . . . , vn eine Basis von U + W ist. Da

U,W ⊂ Spann(v1, . . . , vn) ⊂ U + W,

ist v1, . . . , vn ein Erzeugendensystem. Wir zeigen lineare Unabhangigkeit. Sei hierzuλ1v1 + · · · + λnvn = 0 eine Linearkombination der Null. Seien

v = λ1v1 + · · · + λkvk ∈ U ∩W,

u = λk+1vk+1 + · · · + λmvm ∈ U,

w = λm+1vm+1 + · · · + λnvn ∈W.

Dann ist v + u + w = 0. Also ist w = −v − u ∈ U und ebenso ist u = −v − w ∈W unddamit v,u,w ∈ U ∩W. Es existieren also α1, . . . , αk ∈ K mit

u = α1v1 + · · · + αkvk = λk+1vk+1 + · · · + λmvm.

Wegen der linearen Unabhangigkeit von v1, . . . , vm folgt u = 0 und damitλk+1 = · · · = λm = 0. Ebenso folgt w = 0 und λm+1 = · · · = λn = 0 und wegenv + u + w = 0 schliesslich v = 0 und λ1 = · · · = λk = 0.

Damit ist

dim(U + W) = n = m + (n −m + k) − k = dim U + dim W − dim(U ∩W). �

Page 57: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 54

Beispiel 4.3.15. Sei V = K3, sowie

U =

ab0

: a, b ∈ K

W =

0

bc

: b, c ∈ K

Dann ist

U ∩W =

0

b0

: b ∈ K

,man hat dim U = dim W = 2 und dim U ∩W = 1. Schliesslich ist V = U + W und

dim V = 3 = 2 + 2 − 1 = dim U + dim W − dim(U ∩W).

Proposition 4.3.16. Sei V ein endlich-dimensionaler Vektorraum und seien U1, . . . ,Um

Unterraume mitV = U1 + · · · + Um

und dim V = dim U1 + · · · + dim Um. Dann gilt

V = U1 ⊕U2 ⊕ · · · ⊕Um.

Beweis. Wir mussen zeigen, dass die Summe direkt ist. Seien u1 ∈ U1, . . .um ∈ Um mitu1 + · · ·+ um = 0. Nach Proposition 3.2.7 ist zu zeigen, dass u1 = · · · = um = 0 ist. Hierzuwahle Basen fur jeden der Raume U1, . . . ,Um. Fuge diese Basen zusammen zu einemErzeugendensystem von V. Nach Voraussetzung ist die Lange diesesErzeugendensystems gleich der Dimension von V, also ist es eine Basis von V, damitinsbesondere linear unabhangig. Wegen u1 + · · · + um = 0 sind samtliche Koeffizientengleich Null, also u1 = · · · = um = 0. �

Page 58: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Kapitel 5

Lineare Abbildungen und Matrizen

5.1 Erste Eigenschaften

Definition 5.1.1. Seien V,W Vektorraume uber dem Korper K. Eine lineareAbbildung ist eine Abbildung T : V →W mit

• T(v + v′) = T(v) + T(v′)

• T(λv) = λT(v)

fur alle v, v′ ∈ V und jedes λ ∈ K.

Beispiele 5.1.2. • T : V →W die Nullabbildung T(v) = 0 ist linear.

• Die identische Abbildung Id : V → V; v 7→ v ist linear.

• Sein V = K3 und W = K2. Dann ist die Abbildung

T

abc

=

a + bc

linear.

• Ist K = R und V der Raum aller stetigen Abbildungen f : [0, 1]→ R, dann istT : V → R,

T( f ) =

∫ 1

0f (x) dx

linear.

55

Page 59: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 56

• Sei V = K[x] und sei T : V → V gegeben durch T( f ) = f ′ mit

(a0 + a1x + a2x2 + · · · + anxn)′ = a1 + 2a2x + · · · + nanxn−1

die formale Ableitung. Dann ist T linear.

Lemma 5.1.3. Eine lineare Abbildung schickt die Null auf die Null.

Beweis. Sei T : V →W linear. Dann gilt 0 = T(0) − T(0) = T(0 − 0) = T(0). �

Proposition 5.1.4. Sei v1, . . . , vn eine Basis von V. Fur jede Familie w1, . . . ,wn in W existiertgenau eine lineare Abbildung T : V →W mit T(v1) = w1, . . . ,T(vn) = wn.

Beweis. Sei eine Familie w1, . . . ,wn gegeben. Definiere T : V →W durch

T(λ1v1 + · · · + λnvn) = λ1w1 + · · · + λnwn,

fur beliebige λ1, . . . , λn ∈ K. Da die Koeffizienten λ j fur einen gegebenen Vektorv = λ1v1 + · · · + λnvn eindeutig gegeben sind, ist T wohldefiniert, diese Vorschriftdefiniert also eine Abbildung T : V →W. Wir zeigen, dass diese linear ist. Seienv, v′ ∈ V. Schreibe diese in der Basis als

v = λ1v1 + · · · + λnvn, v′ = λ′1v1 + · · · + λ′nvn.

Dann ist

T(v + v′) = T((λ1 + λ′1)v1 + · · · + (λn + λ′n)vn)

= (λ1 + λ′1)w1 + · · · + (λn + λ′n)wn

= λ1w1 + · · · + λnwn + λ′1w1 + · · · + λ′nwn

= T(v) + T(v′).

Fur λ ∈ K gilt außerdem

T(λv) = T(λλ1v1 + · · · + λλnvn)

= λλ1w1 + · · · + λλnwn

= λ(λ1v1 + · · · + λnvn) = λT(v).

Zum Schluss brauchen wir die Eindeutigkeit von T. Sei also T′ eine weitere lineare

Page 60: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 57

Abbildung mit T′(v j) = w j. Fur ein beliebiges v = λ1v1 + · · · + λnvn ∈ V gilt dann

T′(v) = T′(λ1v1 + · · · + λnvn)

= λ1T′(v1) + · · · + λnT′(vn)

= λ1w1 + · · · + λnwn

= λ1T(v1) + · · · + λnT(vn)

= T(λ1v1 + · · · + λnvn) = T(v) �

Proposition 5.1.5 (Komposition und Umkehrabbildung). (a) Sind T : V →W undS : W → U lineare Abbildungen, so ist die Komposition S ◦ T : V → U linear.

(b) Ist T : V →W linear und bijektiv, so ist die Umkehrabbildung T−1 : W → V ebenfallslinear. In diesem Fall nennen wir T einen linearen Isomorphismus.

Beweis. (a) Seien v, v′ ∈ V. Dann gilt

S ◦ T(v + v′) = S(T(v + v′)

= S(T(v) + T(v′))

= S(T(v)) + S(T(v′))

= S ◦ T(v) + S ◦ T(v′).

Ist außerdem λ ∈ K, so gilt

S ◦ T(λv) = S(T(λv)) = S(λT(v)) = λS(T(v)) = λS ◦ T(v).

(b) Seien w,w′ ∈W dann gilt

T−1(w + w′) = T−1(T(T−1(w)) + T(T−1(w′)))

= T−1(T(T−1(w) + T−1(w′)))

= T−1(w) + T−1(w′).

Ist ferner λ ∈ K, so gilt

T−1(λw) = T−1(λT(T−1(w)))

= T−1(T(λT−1(w)))

= λT−1(w). �

Page 61: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 58

Definition 5.1.6. Sind S,T : V →W zwei lineare Abbildungen, so definieren wir ihreSumme durch:

S + T : V →W, v 7→ S(v) + T(v).

Diese Summe wird auch als die punktweise Summe bezeichnet. Fur λ ∈ K definierenwir

λT : V →W, v 7→ λT(v).

Lemma 5.1.7. Die Summe S + T und das Produkt λT sind wieder lineare Abbildungen.

Beweis. Fur v, v′ ∈ V ist

(S + T)(v + v′) = S(v + v′) + T(v + v′)

= S(v) + S(v′) + T(v) + T(v′)

= S(v) + T(v) + S(v′) + T(v′)

= (S + T)(v) + (S + T)(v′).

Die Beweise der anderen Eigenschaften bestehen ebenso in einer einfachen Auflosungder Definitionen. �

Definition 5.1.8. Es folgt, dass die Menge

Lin(V,W) ={T : V →W : linear

}aller linearen Abbildungen von V nach W selbst wieder ein Vektorraum ist. Wirwerden spater sehen, dass fur endlich-dimensionale Raume gilt

dim Lin(V,W) = (dim V)(dim W).

Ein besonderer Fall ist der Fall W = K, der Raum

V∗ = Lin(V,K)

wird der Dualraum von V genannt.

Lemma 5.1.9. Sei v1, . . . , vn eine Basis von V. Fuer jedes 1 ≤ j ≤ n sei die lineare Abbildungv∗j : V → K definiert durch

v∗j(λ1v1 + · · · + λnvn) = λ j.

Page 62: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 59

Dann ist v∗1, . . . , v∗

n eine Basis von V∗, genannt die zu (v1, . . . , vn) duale Basis. Es gilt also

v∗i (v j) =

1 falls i = j,

0 sonst.

Insbesondere ist V∗ endlich-dimensional, wenn V es ist und es gilt dann

dim V∗ = dim V.

Beweis. Es gelte µ1v∗1 + · · · + µnv∗n = 0. Fuer jedes 1 ≤ j ≤ n gilt dann

0 = (µ1v∗1 + · · · + µnv∗n)(v j

)= µ1v∗1(v j) + · · · + µnv∗n(v j)

= µ jv∗j(v j) = µ j.

Damit ist also µ1 = · · · = µn = 0, also sind die v∗j linear unabhaengig.

Bleibt zu zeigen, dass die v∗j den Raum V∗ erzeugen. Sei α ∈ V∗. Setze λ j = α(v j). Wirbehaupten, dass

α = λ1v∗1 + · · · + λnv∗n

gilt. Nun ist aber(λ1v∗1 + · · · + λnv∗n)

(v j

)= λ j = α(v j),

also stimmen die beiden linearen Abbildungen α und λ1v∗1 + · · · + λnv∗n auf einer Basisueberein, muessen also gleich sein. �

5.2 Kern und Bild

Definition 5.2.1. Sei T : V →W linear. Der Kern von T ist definiert als die Menge

ker T ={v ∈ V : T(v) = 0

}.

Beispiele 5.2.2. • Sei T : K2→ K gegeben durch T

ab

= a + b, dann ist

ker T =

ab

: a + b = 0 = K

1

−1

.

Page 63: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 60

• Sei T : Q[x]→ Q[x] die formale Ableitung: T( f ) = f ′. Dann ist ker T die Mengealler konstanten Polynome.

Proposition 5.2.3. (a) Sei T : V →W linear. Dann ist der Kern von T ein Untervektorraumvon V.

(b) Eine lineare Abbildung T : V →W ist genau dann injektiv, wenn ker T = 0 ist.

Beweis. (a) Seien v, v′ ∈ ker T. Dann gilt

T(v + v′) = T(v) + T(v′) = 0 + 0 = 0,

also ist v + v′ ∈ ker T. Ist λ ∈ K, so gilt

T(λv) = λT(v) = λ0 = 0,

also ist auch λv ∈ ker T.

(b) Sei T injektiv und sei T(v) = 0 = T(0). Aus der Injektivitat folgt dann v = 0, also istker T = 0. Sei umgekehrt ker T = 0 und seien v, v′ ∈ V mit T(v) = T(v′). Dann istT(v − v′) = T(v) − T(v′) = 0, also v − v′ ∈ ker T = 0 und damit v − v′ = 0, also v = v′, sodass T injektiv ist. �

Beispiele 5.2.4. • Die lineare Abbildung T : K2→ K2;

ab

7→ ba

ist injektiv.

• Die lineare Abbildung T : K2→ K;

ab

7→ a + b ist nicht injektiv.

Definition 5.2.5. Sei T : V →W linear. Das Bild von T ist die Menge

Bild T ={T(v) : v ∈ V

}.

Beispiele 5.2.6. • Sei T : K2→ K3 gegeben durch T

xy

=

xyx

, dann ist das Bild

die Menge aller Vektoren

xyz

mit z = x.

Proposition 5.2.7. Sei T : V →W linear. Dann ist das Bild von T ein Untervektorraum vonW.

Page 64: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 61

Beweis. Das Bild enthalt den Nullvektor, also ist es nicht leer. Seien w,w′ im Bild, alsoetwa w = T(v) und w′ = T(v′), dann ist w + w′ = T(v) + T(v′) = T(v + v′) wieder im Bild.Ist schliesslich λ ∈ K, so gilt λw = λT(v) = T(λv), also λw ∈ Bild T. �

Satz 5.2.8 (Dimensionsformel fur lineare Abbildungen). Sei T : V →W linear undsei V endlich-dimensional. Dann gilt

dim V = dim(

ker T)

+ dim(

Bild T).

Insbesondere ist das Bild endlich-dimensional.

Beweis. Sei v1, . . . , vk eine Basis von ker T. Erweitere diese zu einer Basis v1, . . . , vn vonV. Wir behaupten, dass T(vk+1), . . . ,T(vn) eine Basis von Bild T ist. Zunachst zeigen wirlineare Unabhangigkeit. Dazu sei λk+1T(vk+1) + · · · + λnT(vn) = 0. Dann istλk+1vk+1 + · · · + λnvn im Kern von T, also ausdruckbar in der Form λ1v1 + · · · + λkvk. Esfolgt λ1v1 + . . . λkvk + (−λk+1)vk+1 + · · · + (−λn)vn = 0 und daher wegen der linearenUnabhangigkeit λk+1 = · · · = λn = 0, also sind T(vk+1). . . . ,T(vn) linear unabhangig. Esbleibt zu zeigen, dass sie das Bild erzeugen. Sei also w ∈ Bild T, also etwa w = T(v)und v = µ1v1 + . . . µnvn fur geeignete µ j ∈ K. Dann ist

w = T(µ1v1 + · · · + µnvn)

= µ1T(v1) + · · · + µkT(vk)︸ ︷︷ ︸=0

+µk+1T(vk+1) + · · · + µnT(vn)

= µk+1T(vk+1) + · · · + µnT(vn).

Also ist T(vk+1), . . . ,T(vn) auch ein Erzeugendensystem von Bild T. �

Korollar 5.2.9. Seien V,W endlich-dimensionale K-Vektorraume.

(a) Gilt dim V > dim W, so gibt es keine injektive lineare Abbildung V →W.

(b) Gilt dim V < dim W, so gibt es keine surjektive lineare Abbildung V →W.

Beweis. (a) Sei T : V →W linear. Dann gilt

dim ker T = dim V − dim Bild T

≥ dim V − dim W > 0.

Page 65: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 62

(b) Mit derselben Notation gilt

dim Bild T = dim V − dim ker T ≤ dim V < dim W. �

Satz 5.2.10. Ist V endlich-dimensional und T : V → V, so sind die folgenden aquivalent:

(a) T ist injektiv,

(b) T ist surjektiv,

(c) T ist bijektiv.

Beweis. Wir habendim V = dim

(ker T

)+ dim

(Bild T

).

daher ist

T injektiv⇔ dim ker T = 0

⇔ dim V = dim Bild T

⇔ T surjektiv. �

5.3 Matrizen

Seien V,W endlich-dimensionale Vektorraume mit Basen v1, . . . .vn und w,, . . . ,wm. SeiT : V →W linear. Dann existieren eindeutig bestimmte Zahlen ai, j ∈ K mit

T(v j) = a1, jw1 + · · · + am, jwm

fur j = 1, . . . ,n. Wir schreiben diese Korperelemente in ein rechteckiges Schema,genannt Matrix

a1,1 . . . a1,n...

...

am,1 . . . am,n

.Wir schreiben Mm×n(K) fur die Menge aller Matrizen uber K mit m Zeilen und nSpalten. Ist m = n, so schreiben wir auch Mn(K) fur Mn×n(K). Wir erhalten also zu jeder

Page 66: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 63

linearen Abbildung T : V →W eine MatrixM(T). Diese hangt allerdings von derWahl der Basen ab, also schreiben wir besser

MA,B(T),

wobeiA = (v1, . . . , vn) die gegebene Basis von V ist und B = (w1, . . . ,wm) die von W.

Definition 5.3.1. Auf der Menge der Matrizen Mm×n(K) definieren wir eine Additiona1,1 . . . a1,n...

...

am,1 . . . am,n

+

b1,1 . . . b1,n...

...

bm,1 . . . bm,n

=

a1,1 + b1,1 . . . a1,n + b1,n

......

am,1 + bm,1 . . . am,n + bm,n

und eine skalare Multiplikation

λ

a1,1 . . . a1,n...

...

am,1 . . . am,n

=

λa1,1 . . . λa1,n...

...

λam,1 . . . λam,n

Mit diesen Operationen wird Mm×n(K) ein K-Vektorraum. Jede Durchnummerierungder Eintrage liefert einen linearen Isomorphismus Mm×n(K) �

−→ Kmn. Wir folgern also

dim Mm×n(K) = mn.

Proposition 5.3.2. Seien Basen (v1, . . . , vn) und (w1, . . . ,wm) der Vektorraume V und Wgegeben. Dann ist die AbbildungM : Lin(V,W)→Mm×n(K), die jeder linearen Abbildungihre Matrix zuordnet, ein linearer Isomorphismus.

Beweis. Wir zeigen zunachst, dassM linear ist. SeienM(T) = (ai, j) undM(S) = (bi, j).Wir wollen zeigen, dassM(S + T) =M(S) +M(T). Sei hierzu 1 ≤ j ≤ n. Dann gilt

(T + S)(v j) = T(v j) + S(v j)

= a1, jw1 + · · · + am, jwm

+ b1, jw1 + · · · + bm, jwm

= (a1, j + b1, j)w1 + · · · + (am, j + bm, j)wm.

Hieraus folgtM(S + T) =M(S) +M(T). Die GleichungM(λT) = λM(T) zeigt man

Page 67: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 64

ebenso. Die AbbildungM ist injektiv, denn istM(T) = 0, so folgt

T(v j) = a1, jw1 + · · · + am, jwm = 0

und damit T = 0. Schliesslich istM surjektiv, denn sei A = (ai, j) irgendeine Matrix,dann definiert nach Proposition die Vorschrift

T(v j) = a1, jw1 + · · · + am, jwm

eine lineare Abbildung T. Fur diese giltM(T) = A. �

Wir benutzen ab jetzt die Schreibweise

n∑i=1

xi = x1 + x2 + · · · + xn.

Also etwa

T(v j) = a1, jw1 + · · · + am, jwm =

n∑i=1

ai, jwi.

5.4 Matrixmultiplikation

Seien U,V,W endlich-dimensionale Vektorraume. Fixiere Basen u1, . . . ,up von U,v1, . . . , vn von V und w1, . . . ,wm von W. Seien S : U→ V und T : V →W. Wir wollendie MatrixM(T ◦ S) durchM(S) undM(T) ausdrucken. Seien die Eintrage vonM(T)

Page 68: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 65

mit ai, j bezeichnet und die vonM(S) mit bi, j. Dann gilt

T ◦ S(uk) = T(S(uk))

= T

n∑j=1

b j,kv j

=

n∑j=1

b j,kT(v j)

=

n∑j=1

b j,k

m∑i=1

ai, jwi

=

m∑i=1

n∑j=1

ai, jb j,k︸ ︷︷ ︸=ci,k

wi

AlsoM(T ◦ S) = (ci,k) ∈Mm×p(K).

Definition 5.4.1. Wir definieren die Matrixmultiplikation

Mm×n(K) ×Mn×p(K)→Mm×p(K)

durch die Vorschrift((ai, j), (bi, j)) 7→ (ci, j)

mit

ci,k =

n∑j=1

ai, jb j,k.

Lemma 5.4.2. Mit dieser Definition der Matrixmultiplikation gilt

M(T ◦ S) =M(T)M(S).

Beweis. Haben wir bereits gerechnet. �

Beispiel 5.4.3. Beispiel a bc d

x yz w

=

ax + bz ay + bwcx + dz cy + dw

Page 69: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 66

Betrachte den Spezialfall p = 1. Sei A ∈Mm×n(K). Die Abbildung Kn→ Km definiert

durch x 7→ Ax, alsox1...

xn

7→

a1,1 . . . a1,n...

...

am,1 . . . am,n

x1...

xn

=

a1,1x1 + · · · + a1,nxn

...

am,1x1 + · · · + am,nxn

ist eine lineare Abbildung. Der Kern dieser Abbildung ist die Losungsmenge deslinearen Gleichungssystems

a1,1x1 + · · · + a1,nxn = 0...

am,1x1 + · · · + am,nxn = 0.

Proposition 5.4.4. Die Matrixmultiplikation ist assoziativ und distributiv, d.h. es gilt

A(BC) = (AB)C

und

A(B + B′) = AB + AB′

(A + A′)B = AB + A′B

fur alle Matrizen A,A′,A,B′,C mit den passenden Formaten, so dass die Produkte existieren.

Beweis. Mit Hilfe von Proposition 5.3.2 folgt dies sofort aus den entsprechendenEigenschaften linearer Abbildungen und der Tatsache, dassM(T ◦ S) =M(T)M(S). �

Proposition 5.4.5. Jede lineare Abbildung Kn→ Kn ist von der Form x 7→ Ax fur eine

eindeutig bestimmte Matrix A ∈Mn(K) = Mn×n(K).

Beweis. Klar nach Proposition 5.3.2. �

Definition 5.4.6. Wir nennen eine Matrix A ∈Mn(K) invertierbar, falls die induziertelineare Abbildung Kn

→ Kn bijektiv ist. Die Umkehrabbildung ist dann ebenfallsdurch eine Matrix gegeben, die wir mit A−1 bezeichnen. Wir schreiben GLn(K) fur dieMenge aller invertierbaren Matrizen in Mn(K).

Page 70: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 67

Proposition 5.4.7. Eine Matrix A ∈Mn(K) ist genau dann invertierbar, wenn es eine MatrixA−1∈Mn(K) gibt mit

AA−1 = A−1A = I,

wobei I =

1. . .

1

die Einheitsmatrix ist.

Beweis. A−1 ist gerade die Matrix der Umkehrabbildung. �

Lemma 5.4.8. Seien A,B ∈Mn(K) mit AB = I, dann gilt auch BA = I und daher B = A−1.

Beweis. Wegen AB = I ist die Abbildung x 7→ Ax surjektiv und x 7→ Bx injektiv. NachSatz 5.2.10 sind beide Abbildungen bijektiv. Es bleibt zu zeigen, dass BA = I ist. Es gilt

BA = BA(BA)(BA)−1 = B (AB)︸︷︷︸=I

A(BA)−1 = BA(BA)−1 = I. �

Definition 5.4.9. Fur eine Matrix A = (ai, j) ∈Mm×n(K) sei die transponierte Matrix At

definiert durch

At =

a1,1 . . . am,1...

...

a1,n . . . am,n

,also (ai, j)t = (a j,i).

Beispiele 5.4.10. •

1 23 4

t

=

1 32 4

,

1 2 34 5 6

t

=

1 42 53 6

.

123

t

=(

1 2 3).

Proposition 5.4.11. Fur A,A′ ∈Mm×n(K) und B ∈Mn,p(K) gilt

(a) (A + A′)t = At + (A′)t, (At)t = A,

(b) (AB)t = BtAt,

Page 71: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 68

(c) Ist m = n so ist A genau dann invertierbar, wenn At dies ist und dann ist

(At)−1 = (A−1)t.

Beweis. (a) ist klar. Zum Beweis von (b) benutzen wir die folgende Schreibweise: wirschreiben Ai, j fur den (i, j)-ten Eintrag von A. Die Matrixmultiplikation schreibt sichdann als

(AB)i, j =∑

k

Ai,kBk, j

und die Transposition alsAt

i, j = A j,i.

Zusammengenommen folgt

(AB)ti, j = (AB) j,i =

∑k

A j,kBk,i =∑

j

Bti,kA

tk, j = (BtAt)i, j.

(c) Ist A invertierbar, so rechnen wir

At(A−1)t = (A−1A)t = It = I,

Im anderen Fall vertauschen wir die Rollen von A und At. �

Beispiel 5.4.12. Es gilt 1 11

1 −11

= I

und 11 1

1−1 1

= I.

Beispiel 5.4.13. Wir wollen an einem Beispiel zeigen, wie man die Matrix zu einerlinearen Abbildung bestimmt. Hierzu sei V der Raum aller Polynome vom Grad ≤ 2und T : V → V sei die formale Ableitung, also

T(a0 + a1x + a2x2) = a1 + 2a2x.

Wir bestimmen die Matrix A =MA(T) bezuglich der BasisA = (1, x, x2). Der ersteBasisvektor 1 wird auf die Null geworfen, deshalb ist die erste Spalte von A gleichNull. Der zweite Basisvektor wird auf den ersten geworfen, deshalb ist die zweite

Page 72: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 69

Spalte

1

0

0

. Der dritte Basisvektor wird auf das 2-fache des zweiten geworfen, also ist

die dritte spalte

0

2

0

. Damit ist die Matrix

A =

0 1 00 0 20 0 0

.

5.5 Blockmatrizen

Der folgende Satz liefert eine Rechentechnik, die fur Induktionsbeweise sehr nutzlichist.

Satz 5.5.1. Seien S und T zwei Matrizen so dass ST definiert ist. Teilen wir S und T inkleinere Untermatrizen auf, schreiben also

S =

A BC D

, T =

X YZ W

,wobei wir annehmen, dass die Blockaufteilung so ist, dass AX existiert. Dann gilt

ST =

A BC D

X YZ W

=

AX + BZ AY + BWCX + DZ CY + DW

.

Beweis. Die Bedingung, dass ST und AX definiert sind, impliziert, dass die

Page 73: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 70

Blockgroessen wie folgt verteilt sind:

k︷︸︸︷ m︷︸︸︷n

{p

{

A B

C D

und

q︷︸︸︷ r︷︸︸︷k

{m

{

X Y

Z W

Wir rechnen nun zum Beispiel

A 00 0

X YZ W

=

AX AY0 0

, was aus der Definition der

Matrixmultiplikation folgt. Damit ergibt sich

ST =

A BC D

X YZ W

=

A 00 0

+

0 B0 0

+

0 0C 0

+

0 00 D

X YZ W

=

A 00 0

X YZ W

+

0 B0 0

X YZ W

+

0 0C 0

X YZ W

+

0 00 D

X YZ W

=

AX AY0 0

+

BZ BW0 0

+

0 0CX CY

+

0 0DZ DW

=

AX + BZ AY + BWCX + DZ CY + DW

. �

5.6 Basiswechsel

Identifizieren wir Kn mit Mn×1(K), dann liefert jede Matrix A ∈Mn×n(K) eine lineareAbbildung TA : Kn

→ Kn definiert durch TA : x 7→ Ax. Ist E = (e1, . . . , en) dieStandard-Basis, so gilt A =ME,E(TA), wie man leicht nachrechnet. Wir identifizierenab jetzt jede Matrix A mit der linearen Abbildung TA auf Kn.

Sei V ein endlich-dimensionaler Vektorraum. Die Wahl einer Basis B = (v1, . . . , vn)

Page 74: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 71

induziert einen Isomorphismus

ΦB : V �−→ Kn

λ1v1 + · · · + λnvn 7→

λ1...

λn

.Lemma 5.6.1. Ist T : V →W linear und C = (w1, . . . ,wm) eine Basis von W, so macht dieMatrix

MB,C(T) ∈Mm×n(K)

das Diagramm

V T //

ΦB

��

W

ΦC

��

Kn MB,C(T)// Km

kommutativ, d.h. ΦCT =MB,C(T)ΦB.

Proof. Sei A =MB,C(T), also

T(v j) =

m∑i=1

Ai, jwi.

Nun ist

ΦCT(v j) = ΦC

m∑i=1

Ai, jwi

=

m∑i=1

Ai, jΦC(wi)

=

m∑i=1

Ai, jei

= Ae j

= AΦB(v j). �

Wir wollen nun untersuchen, was passiert, wenn man andere Basen wahlt. Sei

Page 75: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 72

D = (v′1, . . . , v′

n) eine weitere Basis von V. Dann gilt

vk =

n∑j=1

s j,kv′j

fur eindeutig bestimmte Koeffizienten s j,k ∈ K. Dies liefert eine Matrix SB,D, dieBasiswechselmatrix.

Satz 5.6.2. Das Diagramm

VΦB //

ΦD

Kn

SB,D��

Kn

kommutiert.

Beweis. Sei 1 ≤ k ≤ n, so gilt ΦB(vk) = ek, alsoSB,DΦB(vk) = SB,D(ek) =

∑nj=1 s j,ke j =

∑j s j,kΦD(v′j) = ΦD

(∑j s j,kv′j

)= ΦD(vk). �

Satz 5.6.3 (Basiswechselsatz). Sind B,D Basen von V und C,E Basen von W, sokommutiert das Diagramm

Kn MB,C(T)//

SB,D

��

Km

SC,E

��

V

ΦB

``

T //

ΦD

~~

W

ΦC

==

ΦE

!!

KnMD,E(T)

// Km

fur jede lineare Abbildung T : V →W. Insbesondere ist alsoMD,E(T) = SC,EMB,C(T)(SB,D)−1.

Im Spezialfall W = V, C = B und E = D schreibe S = SBD

, sowieMB(T) =MB

B(T) und

MD(T) =MD

D(T), dann gilt

MD(T) = SMB(T)S−1.

Page 76: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 73

Beweis. Das obere und das untere Viereck kommutieren nach Definition vonM(T).Das rechte und linke Dreieck kommutiert nach Satz 5.6.2. �

Page 77: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Kapitel 6

Gauß-Elimination

Ab jetzt rechnen wir nur noch mit quadratischen Matrizen. Dies reicht, denn mankann jede Matrix durch Nullen zu einer quadratischen Matrix auffullen.

6.1 Zeilentransformationen

Sei A ∈Mn(K). Eine Zeilentransformation ist eine der folgenden Operationen

1. Fur λ ∈ K addiere das λ-fache der j-ten Zeile zur i-ten. ( j , i)

2. Multipliziere die j-te Zeile mit µ ∈ K×.

3. Vertausche zwei Zeilen.

Beispiele 6.1.1. •( 1 2

3 4)7→

( 1 25 8

), (das doppelte der ersten zur zweiten addiert),

•( 1 2

3 4)7→

( 2 43 4

), (die erste mit 2 multipliziert),

•( 1 2

3 4)7→

( 3 41 2

).

Die erste Operation ist gegeben durch A 7→ Ai, j(λ)A, wobei

Ai, j(λ) =

1. . .

λ. . .

1

,

74

Page 78: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 75

wobei λ in der i-ten Zeile und j-ten Spalte steht.

Operation 2. ist gegeben durch A 7→Mi(µ), wobei

Mi(µ) =

1. . .

1. . .

,

wobei das µ in der i-ten Zeile und Spalte steht.

Die dritte Operation st gegeben durch A 7→ Si, jA, wobei

Si, j =

10 1

11 0

1

,

Wobei die nichtdiagonalen Einsen in der i-ten Zeile und j-ten Spalte und umgekehrtstehen.

Die Matrizen Ai, j(λ),Mi(µ),Si, j werden Elementarmatrizen genannt.

Lemma 6.1.2. Die Elementarmatrizen sind alle invertierbar. Wenn also eine Matrix B auseiner Matrix A durch wiederholte Zeilentransformationen hervorgeht, existiert eineinvertierbare Matrix T mit B = TA.

Beweis. Man rechnet nach:

Ai, j(λ)Ai, j(−λ) = I,

Mi(µ)Mi(µ−1) = I,

Si, jSi, j = I. �

Definition 6.1.3. Eine Matrix A ∈Mn(K) heißt obere Dreiecksmatrix, wenn Aunterhalb der Diagonale nur Nullen hat, wenn also gilt Ai, j = 0 fur i > j. D.H wenn A

Page 79: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 76

von der Form

A =

a1,1 ∗

. . .

0 an,n

ist.

Satz 6.1.4. Jede Matrix kann durch wiederholte Zeilentransformationen auf obereDreiecksform gebracht werden, wobei man außerdem erreichen kann, dass auf derDiagonalen nur Nullen und Einsen stehen. Man sagt, dass man A in Zeilenstufenformbringen kann.

Beweis. Ist die erste Spalte von A gleich Null, so kann man induktiv mit derUntermatrix A′ weitermachen, fur die

A =

0 ∗

0 A′

gilt. Ist die erste Spalte ungleich Null, so kann man durch Zeilenvertauschungerreichen, dass a1,1 , 0. Dann multipliziert man die erste Zeile mit a−1

1,1 und erreichta1,1 = 1. Subtrahiere dann das a j,1-fache der ersten Zeile von der j-ten fur j = 2, . . . ,nund erreiche

A =

1 ∗ . . . ∗

0... A1

0

.Mache nun Induktiv mit A1 weiter. �

Page 80: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 77

Beispiel 6.1.5. 1 2 34 1 23 4 1

{

1 2 30 −7 −103 4 1

{

1 2 30 1 10/73 4 1

{

1 2 30 1 10/70 −2 −8

{

1 2 30 1 10/70 0 (10/7) − 8

{

1 2 30 1 10/70 0 1

6.2 Lineare Gleichungssysteme

Verfahren zum Finden aller Losungen eines Gleichungssystems Ax = b mit gegebenenA ∈Mn(K) und b ∈ Kn:

1. Bringe A in Zeilenstufenform A′. und fuhre alle Transformationen gleichzeitig andem Vektor b aus. Notiere die ausgefuhrten Transformationen in der Weise, dass dasentsprechende Produkt von Elementarmatrizen S notiert wird.

A { A′ = SA,

b { b′ = Sb.

2. Lose das System A′x = b′. Das ist vergleichsweise einfach. Dann ist jede Losung desmodifizierten Systems auch eine des ursprunglichen Systems, denn

A′x = b′ ⇔ SAx = SB⇔ Ax = b,

da S invertierbar ist.

Page 81: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 78

Beispiel 6.2.1. Lose Ax = b mit K = Q und A =

1 23 4

, sowie b =

12

. Dies machen

wir wie folgt: 1 2 13 4 2

{ 1 2 10 −2 −1

{

1 2 10 1 1/2

.Das modifizierte Gleichungssystem ist

x1 + 2x2 = 1

x2 =12

Der einzige Losungsvektor ist x =

0

1/2

.Definition 6.2.2. Ein affiner Unterraum eines Vektorraums V ist eine Teilmenge derGestalt

S = v0 + U

fur einen linearen Unterraum U.

Beispiel 6.2.3. Jede Gerade in der Ebene R2 oder im Raum R3 ist ein affinerUnterraum. Ein affiner Unterraum ist genau dann ein Untervektorraum, wenn er dieNull enthalt.

Jede Matrix A ∈Mn(K) liefert eine lineare Abbildung Kn→ Kn. Wir identifizieren die

Matrix mit dieser Abbildung und schreiben

ker A ={x ∈ Kn : Ax = 0

}Bild A =

{Ax : x ∈ Kn

}.

Satz 6.2.4. Ein lineares Gleichungssystem Ax = b ist genau dann losbar, wenn b ∈ Bild A.Ist dies der Fall, so ist die Losungsmenge L = {x ∈ Kn : Ax = b} ein affiner Unterraum

L = v0 + U,

Page 82: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 79

wobei U = ker A und v0 ein beliebiges Element aus L ist.

Beweis. Die erste Aussage ist offensichtlich. Sei b ∈ Bild A. Dann existiert ein v0 ∈ Kn

mit Av0 = b. Sei U = ker A. Wir zeigen L = v0 + U.

“⊂” Sei v ∈ L, also Av = b. Sei u = v − v0, dann folgt Au = Av − Av0 = b − b = 0, also istu ∈ U und damit ist v = v0 + u ∈ v0 + U.“⊃” Sei u ∈ U, dann gilt A(v0 + u) = Av0 + Au = b + 0 = b, also ist v0 + u ∈ L. �

Beispiel 6.2.5. Sei K = Q und A =

1 2 32 4 63 2 1

, sowie b =

1

2

−1

. Wir losen das System

mit Zeilentransformationen:1 2 3 12 4 6 23 2 1 −1

{

1 2 3 10 0 0 00 −4 −8 −4

{

1 2 3 10 1 2 10 0 0 0

Basislosung v0 =

−1/2

0

1/2

. Ferner ist

U = ker A = Q

1

−2

1

,also

L =

−1/2

0

1/2

+Q

1

−2

1

.Lemma 6.2.6. Ist A eine obere Dreiecksmatrix mit Diagonaleintragen d1, . . . , dn. Die MatrixA ist genau dann invertierbar, wenn alle Diagonbaleintrage ungleich Null sind. Die InverseMatrix A−1 ist ebenfalls eine obere Dreiecksmatrix. Ihre Diagonaleintrage sind d−1

1 , . . . , d−1n .

Beweis. Induktion nach n. Fur n = 1 ist die Behauptung klar.

Page 83: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 80

Induktionsschritt n→ n + 1: Wir schreiben A in der Form(

a bt

0 D

)mit D ∈Mn(K). Ist A

invertierbar so ist a , 0, da sonst e1 im Kern von A lage. Schreibe A−1 =(α βt

C E

), so folgt

I = A−1A =( ∗ ∗

aC Cbt+ED), also ist C = 0 und ED = In und damit ist nach Induktion E eine

obere Dreiecksmatrix. Insgesamt ist A−1 eine obere Dreiecksmatrix. DieDiagonaleintrage von D sind nach Induktion ungleich Null, also sind alleDiagonaleintrage von A ungleich Null. Man sieht auch, dass die Diagonaleintrage vonA−1 die Inversen der von A sind. Fur die Umkehrung nimm an, dass dieDiagonaleintrage von A ungleich Null sind. Nach Induktion ist D invertierbar, nachMultiplikation mit der Matrix

(1

D−1

)kann man also annehmen, dass A von der Form(

a bt

0 I

)ist. Dann kann man durch Zeilentransformationen den Vektor b zu Null machen,

was ja bedeutet, dass man A von links mit invertierbaren Matrizen multipliziert umauf die invertierbare Matrix ( a

I ) zu kommen. Damit ist A invertierbar. �

Satz 6.2.7. Ist die Matrix A ∈Mn(K) invertierbar, dann kann die erweiterte Matrix(A, I) ∈Mn,2n(K) durch Zeilentransformationen in die Form (I,B) gebracht werden. Dannist B = A−1 die Inverse zu A.

Beweis. Sei S ein Produkt der Elementarmatrizen, die A auf eine Zeilenstufenform Dbringen. Da D = SA und A,S invertierbar, ist auch D invertierbar. Da D aufZeilenstufenform ist, sind alle Diagonaleintrage gleich 1. Nun kann man durchweitere Zeilentransformationen die Matrix zur Einheitsmatrix machen, hat alsoSA = I, damit ist S = A−1. �

Folgerung. Jede invertierbare Matrix ist ein Produkt von Elementarmatrizen.

Beispiel 6.2.8. Bestimme die Inverse zu A =

1 21 1

uber K = Q.

1 2 1 01 1 0 1

{ 1 2 1 00 −1 −1 1

{

1 2 1 00 1 1 −1

{

1 0 −1 20 1 1 −1

.

Page 84: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 81

In der Tat, man stellt fest, dass 1 21 1

−1 21 −1

=

11

ist und damit A−1 =

−1 21 −1

.

6.3 Rang

Definition 6.3.1. Ist A ∈Mm×n(K) eine Matrix, so definieren wir den Spaltenrang vonA als

SRang(A) = dim Spann(a1, . . . , an),

wenn a1, . . . , an die Spalten von A sind. Analog definiere den Zeilenrang und

ZRang(A) = dim Spann(z1, . . . , zm),

wobei die z j die Zeilen von A sind.

Es gilt dannZRang(A) = SRang(At).

BeachteSRang(A),ZRang(A) ≤ min(m,n).

Satz 6.3.2. Fur jede Matrix in Mm×n(K) gilt

SRang(A) = ZRang(A).

Beweis. Sind die Spalten a1, . . . , an der Matrix A linear abhangig, so gibt es ein j, sodass a j eine Linearkombination der anderen Spalten ist. Sei A′ die Matrix, die durchStreichen dieser Spalte entsteht. Dann ist SRang(A′) = SRang(A). Wir wollen zeigen,dass das gleiche fur den Zeilenrang gilt. Nimm hierzu an, dass

a j = λ1a1 + . . . a j · · · + λnan (*)

Page 85: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 82

gilt. Seien zi1 , . . . , zik linear unabhangige Zeilen mit k = ZRang(A) und seien z′i1 , . . . , z′

ikdie entsprechenden Zeilen der Matrix A′, Gilt µ1z′i1 + · · · + µkz′ik = 0, so gilt dieseGleichung fur alle Eintrage bis auf den j-ten der Zeilen zi1 , . . . , zik . Aber wegen (*) giltdiese Gleichung dann auch fur den j-ten Eintrag und daher folgt µ1zi1 + · · · + µkzik = 0und damit µ1 = · · · = µk = 0. Damit sind die z′i j

linear unabhangig undZRang(A′) = ZRang(A). Durch wiederholte Reduktion der Matrix konnen wir alson = SRang(A) annehmen. Ist m ≥ n, dann sind die Zeilen linear abhangig und wirkonnen ebenso Zeilen entfernen bis m = n gilt. Damit folgt

n = SRang(A) ≥ ZRang(A).

Ersetze nun A durch At um die umgekehrte Ungleichung zu erhalten. �

Definition 6.3.3. Ist T : V →W linear, so definieren wir den Rang von T als

Rang(T) = dim Bild(T).

Fassen wir eine Matrix als lineare Abbildung auf, ist der Rang gleich demSpaltenrang, also auch gleich dem Zeilenrang.

Page 86: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Kapitel 7

Determinanten

7.1 Permutationen

Sei Per(n) die Menge aller Permutationen in n Elementen, d.h., die Gruppe allerbijektiven Abbildungen

σ : {1, . . . ,n} → {1, . . . ,n}.

Eine Transposition ist eine Permutation τ, die zwei Zahlen vertauscht und den Restgleich lasst. Fur 1 ≤ i < j ≤ n sei τi, j die Transposition, die i und j vertauscht. Es giltτ2

i, j = Id.

Satz 7.1.1. Jede Permutation σ ∈ Per(n) lasst sich als Produkt von Transpositionenschreiben:

σ = τ1 · · · τk

Die Transpositionen τ1, . . . , τk sind nicht eindeutig bestimmt, aber die Paritat von k isteindeutig bestimmt. Das bedeutet, dass fur jede andere Darstellung

σ = δ1 · · · δm

mit Transpositionen δ j gilt(−1)k = (−1)m.

Wir nennen diese Zahl das Signum von σ, also

sign(σ) = (−1)k.

83

Page 87: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 84

Das Signum ist eine Abbildung sign : Per(n)→ {±1} mit

sign(αβ) = sign(α) sign(β).

Beweis. Sei σ ∈ Per(n) mit σ , Id. Sei k die kleinste Zahl mit σ(k) , k. Sei j = σ(k) undbetrachte die Permutation σ1 = τk, jσ. Dann folgt σ1(i) = i fur alle i ≤ k. Wir wiederholendiesen Schritt bis wir am Ende

Id = τk · · · τ1σ

mit Transpositionen τ j erhalten. Hieraus folgt σ = τ1 · · · τk wie behauptet. Sei nunσ = δ1 · · · δm eine zweite Darstellung. Fur eine beliebige Permutation γ sei

fehl(γ) = #{(i, j) : 1≤i< j≤n

γ(i)>γ( j)

}die Anzahl der Fehlstande von γ.

Wir beobachten nun: Ist τ eine Transposition, so gilt

fehl(στ) = fehl(σ) + eine ungerade Zahl.

Hierzu sei τ = τi, j. Sind k, k′ beide von i und j verschieden, so folgt

(k, k′) ist Fehlstand von σ ⇔ (k, k′) ist Fehlstand von στ.

Ist k < i < j, so gilt

(k, i) ist Fehlstand von σ ⇔ (k, j) ist Fehlstand von στ.

Ist i < k < j, so gilt

(i, k) ist Fehlstand von σ⇔ (k, j) ist kein Fehlstand von στ,

(i, k) ist Fehlstand von στ⇔ (k, j) ist kein Fehlstand von σ.

Damit ergeben diese k eine gerade Anzahl von Veranderungen. Bleibt der Fall (i, j).Hier gilt

(i, j) ist Fehlstand von σ ⇔ (i, j) ist kein Fehlstand von στ.

Page 88: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 85

Daher ist die Anzahl der Veranderungen gleich ±1 plus einer geraden Zahl.

Ist also σ = τ1 · · · τk, so folgt(−1)k = (−1)fehl(σ)

und damit ist das Signum wohldefiniert. Außerdem ist es multiplikativ, was mansieht, indem man Darstellungen von α und β hintereinander schreibt. �

Beispiel 7.1.2. Sei σ ∈ Per(3) definiert durch 1 2 32 3 1

.Dann ist sign(σ) = 1, denn σ = τ1τ2 mit

τ1 =

1 2 31 3 2

, τ2 =

1 2 33 2 1

.Definition 7.1.3. Sei A = (ai, j) ∈Mn(K). Definiere die Determinante von A durch

det(A) =∑

σ∈Per(n)

sign(σ) a1,σ(1)a2,σ(2) · · · an,σ(n).

Beispiele 7.1.4. • n = 1, det(A) = a1,1.

• n = 2, det

a bc d

= ad − bc.

• n = 3, det

a b cd e fg h j

= aej + b f g + cdh − ceg − bdj − a f h.

Proposition 7.1.5. Ist A eine obere Dreiecksmatrix,

A =

a1,1 ∗

. . .

an,n

,dann ist

det(A) = a1,1 · · · an,n.

Beweis. Sei σ ∈ Per(n) mit a1,σ(1) · · · an,σ(n) , 0, dann folgt σ( j) ≥ j fur jedes j. Dann aber

Page 89: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 86

ist σ( j) = j fur jedes j, also σ = Id. �

Proposition 7.1.6. Fur jede quadratische Matrix A ∈Mn(K) gilt

det A = det At,

alsodet A =

∑σ∈Per(n)

sign(σ)aσ(1),1 · · · aσ(n),n.

Beweis. Es gilt Ati, j = Ai, j. Fur σ ∈ Per(n) ordne das Produkt a1,σ(1) · · · an,σ(n) nach dem

zweiten Index und erhalte aσ′(1),1 · · · aσ′(n),n, wobei σ′ die zu σ inverse Permutation ist.Ist σ = τ1 · · · τk als Produkt von Transpositionen, so ist σ′ = τk · · · τ1, also folgtsign(σ′) = sign(σ). Damit ist

det A =∑σ

sign(σ)a1,σ(1) · · · an,σ(n)

=∑σ

sign(σ)aσ′(1),1 · · · aσ′(n),n

=∑σ

sign(σ)aσ(1),1 · · · aσ(n),n

= det At. �

Lemma 7.1.7. Hat die Matrix A zwei gleiche Zeilen oder zwei gleiche Spalten, so istdet A = 0.

Beweis. Wegen det(A) = det(At) reicht es, anzunehmen, dass A zwei gleiche Zeilenhat. Es gebe also i , j mit ai,k = a j,k fur jedes k. Dann gilt

det A =∑σ

sign(σ)n∏ν=1

aν,σ(ν)

=∑

σ:σ(i)<σ( j)

sign(σ)n∏ν=1

aν,σ(ν) +∑

σ:σ(i)>σ( j)

sign(σ)n∏ν=1

aν,σ(ν).

Sei τ = τi, j die Transposition, die i und j vertauscht. Dann folgt

det A =∑

σ:σ(i)<σ( j)

sign(σ)n∏ν=1

aν,σ(ν) +∑

σ:σ(i)<σ( j)

sign(στ)n∏ν=1

aν,στ(ν)

Page 90: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 87

Fuer jedes k gilt aτ(ν),k = aν,k. Daher sehen wir, indem wir das Produkt nach τ(ν) ordnen:

n∏ν=1

aν,στ(ν) =

n∏ν=1

aτ(ν),σ(ν) =

n∏ν=1

aν,σ(ν).

Da sign(στ) = − sign(σ), ergibt sich det A = 0. �

Beispiel 7.1.8. Es ist det

1 2 31 2 34 5 6

= 0.

Lemma 7.1.9. Die Determinanten-Abbildung det : Mn(K)→ K ist linear in jeder Zeile oderSpalte.

Genauer: sind a1, . . . , an, a′j Spaltenvektoren, so gilt

det(a1, . . . , a j + a′j, . . . , an) = det(a1, . . . , a j, . . . , an) + det(a1, . . . , a′j, . . . , an)

und fur λ ∈ K gilt

det(a1, . . . , λa j, . . . , an) = λdet(a1, . . . , a j, . . . , an)

und analog fur Zeilen.

Beweis. Es gilt

det

a1,1 . . . a1, j + a′1, j . . . a1,n...

......

an,1 . . . an, j + a′n, j . . . an,n

=∑σ

sign(σ)aσ(1),1 · · · (aσ( j), j + a′σ( j), j) · · · aσ(n),n

=∑σ

sign(σ)aσ(1),1 · · · aσ( j), j · · · aσ(n),n

+∑σ

sign(σ)aσ(1),1 · · · a′σ( j), j · · · aσ(n),n.

Die zweite Gleichung folgt ahnlich. Die Aussage uber Zeilen folgt aus der fur Spaltenund det A = det At. �

Page 91: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 88

7.2 Determinante und Zeilentransformationen

Satz 7.2.1. Die Determinante hat folgende Eigenschaften.

(a) Falls die Matrix B aus A durch Addition des λ-fachen einer Zeile zu einer anderenhervorgeht (Zeilentrafo 1), so gilt

det B = det A.

(b) Falls B aus A durch Multiplikation einer Zeile mit µ ∈ K hervorgeht (Zeilentrafo 2),so gilt

det B = µdet A.

(c) Falls die Matrix B aus A durch Vertauschung zweier Zeilen hervorgeht (Zeilentrafo3), so gilt

det B = −det A.

Beweis. (a) Seien z1, . . . , zn Zeilenvektoren. Dann gilt

det

z1...

z j + λzi...

zn

= det

z1...

z j...

zn

+ λ det

z1...

zi...

zn

︸ ︷︷ ︸=0 (zwei gleiche Spalten)

= det

z1...

z j...

zn

.

Page 92: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 89

Teil (b) folgt ebenso. Fur (c) rechne

det

z1...

zi...

z j...

zn

=

z1...

zi + z j...

z j...

zn

=

z1...

zi + z j...

z j − (zi + z j)...

zn

=

z1...

zi + z j...

−zi...

zn

=

z1...

z j...

−zi...

zn

= −

z1...

z j...

zi...

zn

. �

Wir erinnern an die Elementarmatrizen:

Ai, j(λ) =

1. . .

λ. . .

1

, Mi(µ) =

1. . .

1. . .

,

Si, j =

10 1

11 0

1

,

Wobei wir jetzt auch µ = 0 zulassen wollen. Dann ist allerdings Mi(µ) nicht mehrinvertierbar.

Lemma 7.2.2. Jede Matrix A ∈Mn(K) ist ein Produkt von Elementarmatrizen.

Beweis. Sei A ∈Mn(K). Nach dem Gaußschen Eliminationsverfahren gibt es eineMatrix S, die ein Produkt aus invertierbaren Elementarmatrizen ist, so dass die MatrixU = SA in Zeilenstufenform ist, also

U =

u1 ∗

. . .

0 un

Page 93: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 90

mit u j ∈{0, 1

}. Falls un = 0 ist, dann ist

U = Mn(0)

u1 ∗

. . .

0 1

.Durch Multiplizieren von links mit Matrizen der Form Ai, j(λ) konnen wir die rechteMatrix in die Form

u1 ∗ 0. . .

...

un 00 1

bringen. Wir wiederholen dies fur die Untermatrix und erhalten im Endeffekt U = S2I,wobei S2 ein Produkt von Elementarmatrizen ist. �

Beispiel 7.2.3. Wir haben 1 23 4

=

13 1

1−3

1 21

.7.3 Multiplikativitat

Satz 7.3.1. Fur Matrizen A,B ∈Mn(K) gilt

det(AB) = det(A) det(B).

Ferner giltA ist invertierbar ⇔ det A , 0.

Beweis. Fur die Elementarmatrizen gilt

det Ai, j(λ) = 1, det Mi(µ) = µ, det Si, j = −1.

Page 94: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 91

Daher folgt aus Satz 7.2.1, dass det(SA) = det S det A, falls S eine Elementarmatrix ist.Seien A,B beliebig. Nach Lemma 7.2.2 konnen wir schreiben:

A = S1 · · · Sk, B = T1 · · ·Tm,

wobei S1, . . . ,Sk,T1, . . .Tm Elementarmatrizen sind. Es folgt

det(AB) = det(S1 · · · SkT1 · · ·Tm)

= det(S1) · · ·det(Sk)︸ ︷︷ ︸=det(S1···Sk)

det(T1) · · ·det(Tm)︸ ︷︷ ︸=det(T1···Tm)

= det(A) det(B).

Sei nun A invertierbar. Dann ist 1 = det(I) = det(AA−1) = det(A) det(A−1), also istdet(A) , 0. Ist umgekehrt det A , 0, so schreibe A = S1 · · · Sk als Produkt vonElementarmatrizen. Dann folgt 0 , det(A) = det(S1) · · ·det(Sk), also ist det(S j) , 0 furjedes S j. Daher ist keine der S j gleich einer Matrix Mi(0) und daher sind alle S j

invertierbar, also ist A invertierbar. �

Proposition 7.3.2. Eine Matrix A ∈Mn(K) ist genau dann invertierbar, wenn der Rang vonA gleich n ist.

Beweis. A ist genau dann invertierbar, also bijektiv, wenn A surjektiv ist, wenn alsoRang(A) = dim Bild(A) = n gilt. �

7.4 Laplace-Entwicklung

Definition 7.4.1. Sei A ∈Mn(K), n ≥ 2 und fur 1 ≤ i, j ≤ n sei C(i, j) ∈Mn−1(K) dieMatrix, die aus A durch Wegstreichen der i-ten Zeile und j-ten Spalte entsteht.

Beispiel 7.4.2. Ist A =

1 2 34 5 67 8 9

, dann ist

1 2 34 5 67 8 9

C(2, 2) = =

1 37 9

Page 95: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 92

Es ist leicht zu sehen, dass

det(C(i, j)) := det

a1,1 . . . a1, j−1 a1, j+1 . . . a1,n...

......

...

ai−1,1 . . . ai−1, j−1 ai−1, j+1 . . . ai−1,n

ai+1,1 . . . ai+1, j−1 ai+1, j+1 . . . ai+1,n...

......

...

an,1 . . . an, j−1 an, j+1 . . . an,n

= (−1)i+ j det

a1,1 . . . a1, j−1 0 a1, j+1 . . . a1,n...

......

......

ai−1,1 . . . ai−1, j−1 0 ai−1, j+1 . . . ai−1,n

0 . . . 0 1 0 . . . 0ai+1,1 . . . ai+1, j−1 0 ai+1, j+1 . . . ai+1,n...

......

......

an,1 . . . an, j−1 0 an, j+1 . . . an,n

gilt.

Satz 7.4.3. Fur jedes j = 1, . . . ,n gilt

det A =

n∑i=1

(−1)i+ jai, j det(C(i, j))

und fur jedes i = 1, . . . ,n gilt

det A =

n∑j=1

(−1)i+ jai, j det(C(i, j)).

Page 96: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 93

Beweis.

(−1)i+ jai, j det(C(i, j)) = ai, j det

a1,1 . . . a1, j−1 0 a1, j+1 . . . a1,n...

......

......

ai−1,1 . . . ai−1, j−1 0 ai−1, j+1 . . . ai−1,n

0 . . . 0 1 0 . . . 0ai+1,1 . . . ai+1, j−1 0 ai+1, j+1 . . . ai+1,n...

......

......

an,1 . . . an, j−1 0 an, j+1 . . . an,n

= det

a1,1 . . . a1, j−1 0 a1, j+1 . . . a1,n...

......

......

ai−1,1 . . . ai−1, j−1 0 ai−1, j+1 . . . ai−1,n

0 . . . 0 ai, j 0 . . . 0ai+1,1 . . . ai+1, j−1 0 ai+1, j+1 . . . ai+1,n...

......

......

an,1 . . . an, j−1 0 an, j+1 . . . an,n

=

∑σ∈Per(n)σ(i)= j

sign(σ)a1,σ(1) · · · an,σ(n).

Also ist

n∑i=1

(−1)i+ jai, j det(C(i, j)) =

n∑i=1

∑σ∈Per(n)σ(i)= j

sign(σ)a1,σ(1) · · · an,σ(n) = det A.

Die andere Aussage beweist man analog. �

Beispiel 7.4.4.

det

1 2 3 4 51 1 0 3 11 0 0 0 05 6 0 1 27 8 0 3 2

= −54.

Page 97: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 94

Satz 7.4.5 (Axiomatische Charakterisierung der Determinante). Sei D : Mn(K) eineAbbildung, die

• linear in jeder Zeile ist,

• D(A) = 0 erfullt, falls A zwei gleiche Zeilen hat und

• D(I) = 1 erfullt.

Dann gilt D(A) = det A fur jedes A ∈Mn(K).

Beweis. Wie im Beweis von Satz 7.2.1 zeigt man, dass D(SA) = det(S)D(A) falls S eineElementarmatrix ist. Da jede Matrix ein Produkt von Elementarmatrizen ist, folgt dieBehauptung. �

Definition 7.4.6. Sei A ∈Mn(K) und Sei C(i, j) die Matrix aus derLaplace-Entwicklung. Sei schliesslich A# die Matrix mit den Eintragen

A#i, j = (−1)i+ j det(C( j, i)).

Man nennt A#∈Mn(K) die Komplementarmatrix zu A.

Satz 7.4.7. Ist A ∈Mn(K) und A# die Komplementarmatrix, so gilt

AA# = A#A = det(A)I.

Beweis. Sind a1, . . . , an die Spalten von A, so gilt

A j,i = det(a1, . . . , a j−1, ei, a j+1, . . . , an).

Page 98: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 95

Daher ist

(A#A) j,k =

n∑i=1

A#j,iAi,k

=

n∑i=1

det(a1, . . . , a j−1, ei, a j+1, . . . , an)ai,k

= det

a1, . . . , a j−1,n∑

i=1

ai,kei, a j+1, . . . , an

= det

(a1, . . . , a j−1, ak, a j+1, . . . , an

)= δ j,k det A,

wobei

δ j,k =

1 j = k,

0 j , k.

Das Symbol δ j,k wird auch Kronecker-Delta genannt. Der das Produkt AA# berechnetman analog. �

Page 99: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Kapitel 8

Eigenwerte

8.1 Ein Beispiel

Betrachte die Matrix A =

2 00 3

∈Mn(R). Die Abbildung x 7→ Ax von R2 nach R2

streckt den Vektor e1 =

1

0

um den Faktor 2 und den Vektor e2 =

0

1

um den Faktor

3. Sie bildet also den Kreis mit Radius 1 auf eine Ellipse ab:

Wir betrachten nun die Basis v1 =

1

1

, v2 =

1

2

und entsprechend die

96

Page 100: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 97

Basiswechselmatrix S =

1 11 2

, so gilt Se1 = v1 und Se2 = v2. Wir berechnen die Inverse

zu S−1 =

2 −1−1 1

. Aus Se j = v j folgt dann S−1v j = e j. Sei dann B = SAS−1, so gilt

Bv1 = SAS−1v1 = SAe1 = S(2e1) = 2v1

und ebenso Bv2 = 3v2. Die Matrix B =

1 1−2 4

beschreibt also dieselbe Abbildung nur

in der Basis v1, v2.

8.2 Lineare Unabhangigkeit von Eigenvektoren

Definition 8.2.1. Sei T : V → V linear. Ein Vektor v ∈ V heißt Eigenvektor von T zumEigenwert λ ∈ K, falls

• v , 0 und

• T(v) = λv.

Beispiel 8.2.2. Sei K = Q und T =

2 10 3

. Dann ist der Vektor v =

1

0

ein Eigenvektor

zum Eigenwert 2. Ferner ist

T 1

1

=

3

3

= 3 1

1

,also ist

1

1

ein Eigenvektor zu Eigenwert 3.

Satz 8.2.3. Sei T : V → V linear und seien v1, . . . , vk Eigenvektoren zu paarweiseverschiedenen Eigenwerten λ1, . . . , λk. Dann sind die v1, . . . , vk linear unabhangig.

Beweis. Induktion nach k. Fur k = 1 ist nichts zu zeigen, da Eigenvektoren stets , 0sind.

Page 101: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 98

k→ k + 1: Seien

µ1v1 + · · · + µk+1vk+1 = 0 (I)

eine Linearkombination der Null. Wir wenden T hierauf an und erhalten

µ1λ1v1 + · · · + µk+1λk+1vk+1 = 0. (II)

Wir multiplizieren (I) mit λk+1 und erhalten

µ1λk+1v1 + · · · + µk+1λk+1vk+1 = 0. (III)

Nun ziehen wir (III) von (II) ab und erhalten

µ1(λ1 − λk+1)v1 + · · · + (λk − λk+1)µkvk = 0. (II)-(III)

Nach Induktionsvoraussetzung ist µ j(λ j − λk+1) = 0 fur jedes j = 1, . . . , k. Da λ j , λk+1,folgt µ1 = · · · = µk = 0. Damit folgt aus (I), dass µk+1vk+1 = 0 und da auch vk+1 , 0, istauch µk+1 = 0. �

8.3 Das charakteristische Polynom

Definition 8.3.1. Sei A ∈Mn(K) mit Eintragen (ai, j). Dann ist die Determinante

det(A) =∑σ

sign(σ)a1,σ(1) · · · an,σ(n)

ein “Polynom” in den Eintragen ai, j. Daraus folgt: Ist F(x) eine Matrix

F(x) =

F1,1(x) . . . F1,n(x)...

...

Fn,1(x) . . . Fn,n(x)

,

Page 102: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 99

wobei die Eintrage Polynome Fi, j(x) ∈ K[x] sind, dann ist det(F(x)) ein Polynom inK[x]. Wir wenden dies an auf

F(x) = xI − A =

x − a1,1 . . . −a1,n...

. . ....

−an,1 . . . x − an,n

.Das Polynom

χA(x) = det(xI − A)

nennt man das charakteristische Polynom von A.

Beispiel 8.3.2. Sei A =

1 23 4

, dann ist

χA(x) = det

x − 1 −2−3 x − 4

= (x − 1)(x − 4) − 6 = x2− 5x − 2.

Satz 8.3.3. Die Eigenwerte einer Matrix A ∈Mn(K) sind genau die Nullstellen descharakteristischen Polynoms χA(x).

Beweis. Sei λ ein Eigenwert von A. Dann existiert ein Vektor v , 0 in Kn mit Av = λv,also (λI − A)v = 0. Daher ist ker(λI − A) , 0, also ist die Matrix (λI − A) nichtinvertierbar, also folgt

χA(λ) = det(λI − A) = 0

nach Satz 7.3.1. Ist umgekehrt λ eine Nullstelle von χA(x), dann ist die Matrix (λI − A)nicht invertierbar, hat also einen nichttrivialen Kern, damit gibt es einen Vektor v ∈ Kn

mit v , 0 und Av = λv. �

Beispiel 8.3.4. Sei A =

1 11 1

. Dann ist

χA(x) = det

x − 1 −1−1 x − 1

= (x − 1)2− 1 = x2

− 2x = x(x − 2).

Dieses Polynom hat genau die Nullstellen x = 0 und x = 2. Hierzu gehoren die

Eigenvektoren 1

−1

und 1

1

.

Page 103: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 100

Korollar 8.3.5. Jede Matrix in Mn(C) hat einen Eigenwert.

Korollar 8.3.6. Ist K algebraisch abgeschlossen und ist f (x) ∈Mn(K) ein nichtkonstantesPolynom, dann zerfallt f in Linearfaktoren, d.h.,

f (x) = c(x − λ1) · · · (x − λn),

wobei c, λ1, . . . , λn ∈ K sind.

Beweis. Ist λ eine Nullstelle von f , dann ist f (x) = (x − λ)g(x) fur ein Polynom g. Wirwiederholen dies fur g, bis wir bei einer Konstanten c ankommen. �

Definition 8.3.7. Zwei Matrizen A,B ∈Mn(K) heißen ahnlich, falls es eineinvertierbare Matrix S ∈ GLn(K) gibt mit

B = S−1AS.

Satz 8.3.8. Sind die Matrizen A,B ∈Mn(K) ahnlich, dann haben sie dasselbecharakteristische Polynom.

Beweis. Sei B = S−1AS, dann gilt

χB(x) = det(xI − B) = det(xS−1S − S−1AS)

= det(S−1(xI − A)S)

= det(S−1) det(xI − A) det(S) = det(S−1S) det(xI − A)

= χA(x). �

Beispiel 8.3.9. Sei A =

21

und S =

2 11 1

. Man berechnet die inverse Matrix als

S−1 =

1 −1−1 2

. Dann ist

B = S−1AS =

1 −1−1 2

21

2 11 1

=

2 −1−2 2

2 11 1

=

3 1−2 0

.

Page 104: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 101

Wir haben χA(x) = (x − 2)(x − 1) und

χB(x) det

x − 3 −12 x

= (x − 3)x + 2 = x2− 3x + 2 = (x − 2)(x − 1).

Definition 8.3.10. Sei T : V → V linear, wobei V endlich-dimensional ist. Wahle danneine Basis α von V und betrachte die Matrix A =Mα(T). Definiere dann dascharakteristische Polynom von T als

χT(x) = χA(T) = det(xI − A).

Nach Satz 8.3.8 und dem Basiswechselsatz 5.6.3 hangt χT nicht von der Wahl der Basisab.

Definition 8.3.11. Eine Matrix A ∈Mn(K) heißt trigonalisierbar, wenn sie zu eineroberen Dreiecksmatrix ahnlich ist.

Satz 8.3.12. Eine quadratische Matrix A ist genau dann trigonalisierbar, wenn ihrcharakteristisches Polynom in ein Produkt von Linearfaktoren zerfallt. In diesem Fall ist Aahnlich zu einer Matrix der Form

D =

λ1 ∗

. . .

0 λn

,wobei λ1, . . . , λn die (nicht notwendig verschiedenen) Nullstellen von χA sind.

Ist K algebraisch abgeschlossen, dann ist jede Matrix trigonalisierbar.

Beweis. Sei A trigonalisierbar, also ahnlich zu einer Matrix

D =

λ1 ∗

. . .

0 λn

,

Dann ist χA(x) = χD(x) = det

x − λ1 ∗

. . .

0 x − λn

= (x − λ1) · · · (x − λn).

Page 105: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 102

Umgekehrt sei χA(x) = (x − λ1) · · · (x − λn). Dann hat A einen Eigenvektor v1 zumEigenwert λ1. Erganze v1 zu einer Basis v1, . . . , vn von Kn. Sei dann S die Matrix mitden Spalten v1, . . . , vn. Dann ist der Rang von S gleich n, also ist S invertierbar. SetzeA1 = S−1AS. Dann folgt A1e1 = S−1ASe1 = S−1Av1 = λ1S−1v1 = λ1e1. Also ist A1 von der

Form

λ1 ∗

0 C

fur eine Matrix C mit χC(x) = (x − λ2) · · · (x − λn). Eine Induktion nach n

liefert die Existenz einer invertierbaren (n − 1) × (n − 1) Matrix U mit

U−1CU =

λ2 ∗

. . .

λn

. Mit der Matrix U =

1U

folgt dann

U−1A1U =

λ1 ∗

. . .

λn

. �

Definition 8.3.13. Eine Matrix, die zu einer Diagonalmatrix

λ1

. . .

λn

ahnlich ist,

heißt diagonalisierbar.

Proposition 8.3.14. Hat die Matrix A ∈Mn(K) n paarweise verschiedene Eigenwerte, dannist A diagonalisierbar.

Beweis. Seien λ1, . . . , λn die Eigenwerte und seien v1, . . . , vn Eigenvektoren dazu. Dannsind v1, . . . , vn linear unabhangig nach Satz 8.2.3. Daher ist die Matrix S mit denSpalten v1, . . . , vn invertierbar und es gilt

S−1ASek = S−1Avk = λkS−1vk = λkek,

mit anderen Worten:

A =

λ1

. . .

λn

. �

Beispiel 8.3.15. Sei A =

−7 2−24 7

. Finde S mit S−1AS =

1−1

.

Page 106: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 103

Satz 8.3.16. Fur A,B ∈Mn(K) gilt

χAB = χBA.

Beweis. Ist A invertierbar, so gilt χAB = χA−1(AB)A = χBA.

Betrachte nun den Fall, dass A nicht invertierbar ist. Wir konnen annehmen, dass Kunendlich viele Elemente hat, da wir sonst zu einem Erweiterungskorper ubergehen.Dann ist die Matrix A − λI fur unendlich viele λ ∈ K invertierbar, da das Polynomλ 7→ det(A − λI) nur endlich viele Nullstellen hat. Fur jedes solche λ gilt

χ(A−λI)B(x) = χB(A−λI)(x)

fur alle x ∈ K. Fixiere ein x ∈ K. Dann hat die Polynomabbildung

λ 7→ χ(A−λI)B(x) − χB(A−λI)(x)

unendlich viele Nullstellen, ist also identisch Null. Man kann also λ = 0 einsetzen undfindet

χAB(x) − χBA(x) = 0

fuer jedes x ∈ K. Da K unendlich viele Elemente hat, ist das Polynom auf der linkenSeite Null, also χAB = χBA. �

Definition 8.3.17. Sei A = (ai, j). Dann gilt

χA(x) = (x − a1,1) . . . (x − an,n) + Terme vom Grad ≤ n − 2

= xn− (a1,1 + · · · + an,n)xn−1 + Terme vom Grad ≤ n − 2.

Wir definieren dahertr(A) = a1,1 + · · · + an,n

und nennen diesen Ausdruck die Spur der Matrix A.

Satz 8.3.18. Die Abbildung tr : Mn(K) ist linear und erfullt

tr(AB) = tr(BA)

Page 107: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 104

fuer A,B ∈Mn)K) und damit insbesondere auch tr(SAS−1) = tr(A), falls S ∈ GLn(L).

Beweis. Dies folgt aus der Tatsache, dass − tr(A) der (n − 1)-te Koeffizient von χA(x)ist. �

Definition 8.3.19. Sei λ ∈ K und A ∈Mn(K). Wir definieren den Eigenraum zu λ durch

Eig(A, λ) ={v ∈ Kn : Av = λv

}.

Es gilt dannλ ist Eigenwert ⇔ Eig(A, λ) , 0.

Ist λ eine Eigenwert von A, so nennen ist die algebraische Vielfachheit m(A, λ) von λgleich der Vielfachheit der Nullstelle λ von χA.

Wir definieren die geometrische Vielfachheit von λ als die Dimension desEigenraums Eig(A, λ).

Beispiele 8.3.20. • Sei A =

33

. Dann ist χA(x) = (x − 3)2, also ist die

algebraische Vielfachheit des Eigenwertes 3 gleich 2. In diesem Fall ist dies auchgleich der geometrischen Vielfachheit, denn

Eig(A, 3) = K2.

• Sei B =

3 13

. Dann ist χB(x) = (x − 3)2, also ist auch hier die algebraische

Vielfachheit gleich 2, aber die geometrische ist gleich 1, denn

Eig(B, 3) = Ke1.

Korollar 8.3.21. Zerfallt χA(x) in Linearfaktoren, also etwa

χA(x) =

k∏j=1

(x − λ j)m j ,

wobei λ1, . . . , λk die verschiedenen Eigenwerte mit algebraischen Vielfachheiten mi sind, dann

Page 108: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 105

ist

tr(A) =

k∑j=1

m jλ j.

Beweis. Nach Satz 8.3.12 ist A trigonalisierbar und nach Satz 8.3.18 koennen wir alsoannehmen, dass A eine obere Dreiecksmatrix ist. Die Diagonaleintraege sind dannλ1, . . . , λk, wobei λ j gemaess der Vielfachheit m j wiederholt wird. �

Proposition 8.3.22. Die geometrische Vielfachheit eines Eigenwertes ist stets kleiner odergleich der algebraischen, also

dim Eig(A, λ) ≤ m(A, λ).

Beweis. Sei v1, . . . , vk eine Basis von Eig(A, λ). Erweitere diese zu einer Basis v1, . . . , vn

von Kn. Sei S die Matrix mit den Spaltenvektoren v1, . . . , vn. Fur1 ≤ j ≤ k = dim Eig(A, λ) gilt

S−1ASe j = S−1Av j = λ jS−1v j = λ je j.

Daher ist

S−1AS =

λIk ∗

0 C

und es folgt χA(x) = (x − λ)kχC(x). �

Definition 8.3.23. Sei T : V → V linear, wobei dim V < ∞. Dann heißt Tdiagonalisierbar, wenn es eine Basis gibt, bezuglich der T durch eine Diagonalmatrixdargestellt wird. Es gilt also

T diagonalisierbar ⇔ Mα(T) ist diagonalisierbar,

wobei α irgendeine Basis ist.

Satz 8.3.24. Fur eine lineare Abbildung T : V → V auf einem endlich-dimensionalenRaum V sind aquivalent:

(a) T ist diagonalisierbar,

(b) χT(x) zerfallt in Linearfaktoren und dim Eig(T, λ) = m(T, λ) fur jedes λ ∈ K,

(c) V =⊕

λ∈K Eig(T, λ).

Page 109: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 106

Beweis. (a)→(b) Ist T diagonalisierbar, so gibt es eine Basis α bzgl der T durch eineDiagonalmatrix mit Diagonale λ1, . . . , λ1, λ2, . . . , λk, wobei jeder Eigenwert λ j gemaßseiner algebraischen Vielfachheit m j wiederholt wird. Dann ist χT(x) =

∏kj=1(x − λ j)m j

und m j = dim Eig(T, λ j).

(b)→(c) Die Summe Eig(T, λ1) ⊕ · · · ⊕ Eig(T, λk) ist direkt nach Satz 8.2.3. Ferner istdim V =

∑j dim Eig(T, λ j) und daher folgt die Behauptung.

(c)→(a) ist klar. �

Satz 8.3.25. (a) Ist T : V → V diagonalisierbar und ist U ⊂ V ein Unterraum mitT(U) ⊂ U, dann ist T|U : U→ U diagonalisierbar.

(b) Sind S,T : V → V linear, beide diagonalisierbar und gilt ST = TS, dann sind diebeiden lineare Abbildungen simultan diagonalisierbar, d.h. es gibt eine Basis v1, . . . , vn

bestehend aus simultanen Eigenvektoren.

Beweis. (a) Seien λ, . . . , λk die verschiedenen Eigenwerte von T und V j = Eig(T, λ j).Dann gilt V = V1 ⊕ · · · ⊕ Vk. Sei nun u ∈ U, dann gilt u = u1 + · · · + uk mit eindeutigbestimmten u j ∈ V j. Wir mussen zeigen, dass jedes u j wieder in U liegt.

Anwendung von T einerseits und Multiplikation mit λk andererseits liefert

Tu = λ1u1 + · · · + λkuk,

λku = λku1 + · · · + λkuk.

Wir nehmen die Differenz und sehen

(λ1 − λk)u1 + · · · + (λk−1 − λk)uk−1 ∈ U.

Wir wenden denselben Schluss nochmals an:

(λ1 − λk)(λ1 − λk−1)u1 + · · · + (λk−2 − λk)(λk−2 − λk−1)uk−2 ∈ U.

Wir wiederholen dies bis zu

(λ1 − λk) · · · (λ1 − λ2)u1 ∈ U.

Page 110: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 107

Da die Eigenwerte verschieden sind, folgt u1 ∈ U. Aus Symmetriegrunden folgt u j ∈ Ufur jedes j.

(b) Sei λ ein Eigenwert von S und v ein Eigenvektor. Dann gilt

S(Tv) = T(Sv) = T(λv) = λTv,

also liegt Tv wieder in Eig(S, λ). Anwendung von (a) auf den Unterraum U = Eig(S, λ)zeigt, dass T auf diesem Raum diagonalisierbar ist, d.h. Eig(S, λ) hat eine Basis aussimultanen Eigenvektoren. Da dies fur jeden Eigenraum gilt, folgt dieBehauptung. �

8.4 Der Satz von Cayley-Hamilton

Definition 8.4.1. Sei T : V → V linear. Fur jedes k ∈N definiere die k-te Potenz von Tdurch

Tk = T ◦ T ◦ · · · ◦ T︸ ︷︷ ︸k-mal

Ferner sei T0 = IdV. Ist dann

f (x) = a0 + a1x + · · · + anxn

ein Polynom, dann setze

f (T) = a0IdV + a1T + · · · + anTn.

Dann ist f (T) eine lineare Abbildung auf V.

Beispiel 8.4.2. Sei V = K2 und T =

1 11 2

. Sei f (x) = 1 + x + x2. Es ist

T2 =

1 11 2

1 11 2

=

2 33 5

. Also ist f (T) =

11

+

1 11 2

+

2 33 5

=

4 44 8

.

Ist hingegen g(x) = 1 − 3x + x2, so gilt

g(T) =

11

− 3

1 11 2

+

2 33 5

=

0 00 0

= 0.

Page 111: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 108

Satz 8.4.3 (Cayley-Hamilton). Ist A ∈Mn(K) und ist f (x) = χA(x) = det(x − A) dascharakteristische Polynom, dann gilt

f (A) = 0.

Beweis. Fur jedes Polynom g(x) gilt g(S−1AS) = S−1g(A)S. Der Korper K besitzt einenalgebraischen Abschluss K, uber dem das charakteristische Polynom inLinearfaktoren zerfallt, also die Matrix A trigonalisierbar ist. Wir konnen also

annehmen, dass A =

λ1 ∗

. . .

λn

gilt. Dann ist f (x) = (x − λ1) · · · (x − λn).

Wir zeigen durch Induktion, dass

(A − λ1) · · · (A − λ jI)e j = 0.

Fur j = 1 ist dies klar.j→ j + 1: Da A eine obere Dreiecksmatrix ist, liegt (A − λ j+1)e j+1 in Spann(e1, . . . , e j).Nach Induktionsvoraussetzung gilt

(A − λ1) · · · (A − λ j)e1 = 0...

(A − λ1) · · · (A − λ j)e j = 0

Damit folgt

(A − λ1) · · · (A − λ j+1)e j+1 = 0. �

Definition 8.4.4. Ein Polynom f heißt normiert, falls der Leitkoeffizient gleich 1 ist,wenn also f von der Form

a0 + a1x + · · · + an−1xn−1 + xn

ist.

Page 112: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 109

Satz 8.4.5. Fur eine gegebene Matrix A ∈Mn(K) existiert ein eindeutig bestimmtesnormiertes Polynom mA(x), das Minimalpolynom, so dass

mA(A) = 0

und der Grad von mA ist minimal unter allen Polynomen g mit g(A) = 0.

Ist g ein Polynom mit g(A) = 0, so existiert ein Polynom q, so dass

g(x) = q(x)mA(x).

Sind A und B ahnlich, so ist mA = mB.

Beweis. Nach dem Satz von Cayley-Hamilton gibt es ein Polynom f , 0 mit f (A) = 0.Sei ν der minimale Grad eines Polynoms g mit g(A) = 0. Sei m(x) ein Polynom vomGrad ν mit m(A) = 0. Indem wir durch den Leitkoeffizienten teilen, konnen wir m alsnormiert annehmen. Damit ist die Existenz bewiesen. Wir brauchen die Eindeutigkeit.Sei also n(x) ein weiteres normiertes Polynom vom Grad ν mit n(A) = 0. Dann ist derGrad von g(x) = m(x) − n(x) echt kleiner als ν und es ist g(A) = m(A) − n(A) = 0. da derGrad ν minimal war, ist g(x) = 0, also m = n. Damit ist der erste Teil des Satzesbewiesen.

Fur den zweiten sei g , 0 ein Polynom mit g(A) = 0. Dann ist der Grad von g großeroder gleich ν. Nach Polynomdivision existieren Polynome q(x), r(x) mit grad(r) < νund

g(x) = q(x)m(x) + r(x).

Es folgt r(A) = g(A) − q(A)m(A) = 0 − 0 = 0. Da grad(r) < ν, folgt r = 0, alsog(x) = q(x)m(x).

Schliesslich die letzte Aussage des Satzes. Sei B = S−1AS, dann giltmA(B) = mA(S−1AS) = S−1mA(A)S = 0. Damit existiert ein Polynom q mitmA(x) = q(x)mB(x). Der Schluss funktioniert mit umgekehrten Rollen ebensogut, alsoexistiert auch ein Polynom p(x) mit mB(x) = p(x)mA(x). Daher mA(x) = p(x)q(x)mA(x),woraus folgt, dass p und q konstant sind. Da mA und mB normiert sind, sind p = q = 1,also mA = mB. �

Page 113: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 110

Beispiel 8.4.6. Sei A =

1

22

. Dann ist χA(x) = (x − 1)(x − 2)2. Das

Minimalpolynom mA muss ein Teiler von χA sein, also bleibt(x − 1), (1 − 2), (x − 2)2, (x − 1)(x − 2), (x − 1)(x − 2)2. Nur die letzten beiden annullierenA, also ist mA(x) = (x − 1)(x − 2).

Proposition 8.4.7. Das charakteristische Polynom von A zerfalle in Linearfaktoren (etwawenn K = K). Seien λ1, . . . , λk die verschiedenen Eigenwerte von A. Sei

χA(x) =

k∏j=1

(x − λ j)n j

das charakteristische Polynom. Dann ist das Minimalpolynom mA von der Form

mA(x) =

k∏j=1

(x − λ j)m j ,

wobei gilt1 ≤ m j ≤ n j

fur j = 1, . . . , k. Insbesondere hat das Minimalpolynom dieselben Nullstellen wie dascharakteristische Polynom.

Beweis. Da mA das charakteristische Polynom teilt, muss es von der angegebenenForm sein fur Exponenten 0 ≤ m j ≤ n. Es bleibt zu zeigen, dass jeder Eigenwert eineNullstelle von mA ist. Sei λi ein Eigenwert und sei v ein Eigenvektor zu diesemEigenwert, also Av = λiv. Es gilt

0 = mA(A)v =∏

j

(A − λ j)m jv

=∏

j

(λi − λ j)m jv

Der Faktor∏

j(λi − λ j)m j kann aber nur Null sein, wenn mi ≥ 1 ist. �

Beispiele 8.4.8. • Ist A =

2 10 2

, dann ist χA(x) = mA(x) = (x − 2)2.

• Ist B =

2 00 2

, dann ist χB(B) = (x − 2)2 und mB(x) = x − 2.

Page 114: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 111

Satz 8.4.9. Ist A ∈Mn(K) diagonalisierbar, dann hat das Minimalpolynom nur einfacheNullstellen. Das heißt, sind λ1, . . . , λk die verschiedenen Eigenwerte, dann gilt

mA(x) =

k∏j=1

(x − λ j).

Beweis. Indem wir A durch S−1AS ersetzen fur ein S ∈ GLn(K), konnen wir annehmen,dass A von Diagonalgestalt ist. Dann ist

∏kj=1(A − λ jId) ein Produkt von

Diagonalmatrizen. Fur jede Position ν = 1, . . . ,n hat mindestens einer der Faktoren(A − λ j) eine Null in der ν-ten Position. Daher ist das Produkt gleich Null. �

Page 115: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Kapitel 9

Der Jordan-Normalform Satz

9.1 Nilpotente Endomorphismen

Definition 9.1.1. Ein Endomorphismus T : V → v heißt nilpotent, falls es ein m ∈Ngibt, so dass

Tm = 0

gilt. Ist T nilpotent, so gibt es zu jedem v ∈ V eine Zahl m(v) ∈N0 so dassTm(v)v , 0 = Tm(v)+1v.

Lemma 9.1.2. Sei T : V → V nilpotent und dim V < ∞. Dann existieren Vektorenv1, . . . , vk ∈ V so dass

(a) v1,Tv1, . . . ,Tm(v1)v1, v2, . . . , vk,Tvk, . . . ,Tm(vk)vk ist eine Basis von V und

(b) Tm(v1)v1, . . . ,Tm(vk)vk ist eine Basis von ker T.

Beweis. Ist T nilpotent, etwa Tm = 0 und V , 0, dann ist T nicht injektiv, denn sonstware T invertierbar und damit ware auch 0 = Tm invertierbar. Also folgtdim Bild(T) < dim V. Induktiv konnen wir annehmen, dass die Behauptung auf allenRaumen der Dimension < dim V gilt. Wir wenden das Lemma also mal auf den RaumBild T und T|Bild T an. Daher gibt es Vektoren u1, . . . ,u j so dass

(i) u1,Tu1, . . . ,Tm(u1)u1, . . . ,u j, . . . ,Tm(u j)u j ist eine Basis von Bild T und

(ii) Tm(u1)u1, . . . ,Tm(u j)u j ist eine Basis von ker T ∩ Bild T.

112

Page 116: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 113

Wahle v1, . . . v j mit Tvν = uν. Es folgt m(vν) = m(uν) + 1. Sei W ein Unterraum von ker Tso dass

ker T = (ker T ∩ Bild T) ⊕W

und wahle eine Basis v j+1, . . . , vk von W. Es gilt dann m(v j+1) = · · · = m(vk) = 0. Wirbehaupten, dass v1, . . . , vk das Lemma erfullt.

Lineare Unabhangigkeit. Seik∑

r=1

m(vr)∑s=0

λr,sTsvr = 0

eine Linearkombination der Null. Wendet man T auf diese Gleichung an, erhalt man

0 =

k∑r=1

m(vr)∑s=0

λr,sTs+1vr =

j∑r=1

m(ur)∑s=0

λr,sTsur

Daher folgt λr,s = 0 fur 1 ≤ r ≤ j und 0 ≤ s ≤ m(vr) − 1. Wir erhalten also

0 = λ1,m(v1)Tm(v1)v1 + · · · + λ j,m(v j)Tm(v j)v j

+ λ j+1,0v j+1 + · · · + λk,0vk.

Die Terme in der ersten Zeile sind alle in ker T ∩ Bild T, die in der zweiten Zeile in W.Es folgt also

0 = λ1,m(v1)Tm(v1)v1 + · · · + λ j,m(v j)Tm(v j)v j

= λ1,m(v1)Tm(u1)u1 + · · · + λ j,m(v j)Tm(u j)u j

und

0 = λ j+1,0v j+1 + · · · + λk,0vk.

Damit ist die Lineare Unabhangigkeit klar.

Erzeugendensystem. Es ist j = dim ker T ∩ Bild T und k = dim ker T. Aus (i) folgt

dim Bild T =

j∑r=1

(m(ur) + 1) =

j∑r=1

m(vr).

Page 117: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 114

Die Familie in (a) hat die Lange

k∑r=1

(m(vr) + 1) = k +

j∑r=1

m(vr)

= dim ker T + dim Bild T = dim V.

Damit ist (a) bewiesen. Schliesslich ist

(Tm(v1)v1, . . . ,Tm(vk)vk) = (Tm(u1)u1, . . . ,Tm(u j)u j, v j+1, . . . , vk).

Wegen (ii) und ker T = ker T ∩ Bild T ⊕W ist dies eine Basis von ker T. �

Satz 9.1.3. Sei T : V → V nilpotent und dim V < ∞. Dann existiert eine Basis,bezuglich der T dargestellt wird durch eine Matrix der Form

J =

Jd1

. . .

Jdk

,wobei Jd die d × d-Matrix

Jd =

0 1. . . . . .

. . . 10

bezeichnet. Man nennt die Matrizen Jd auch Jordan-Bloecke und die Gesamtmatrix Jeine Jordan-Matrix. Die Jordan-Bloecke sind in bis auf die Reihenfolge eindeutigbestimmt.

Beweis. Seien v1, . . . , vk wie in dem Lemma. und sei wn,wn−1, . . . ,w1 die Basisv1,Tv1, . . . ,Tm(v1)v1, v2, . . . , vk,Tvk, . . . ,Tm(vk)vk, also dieselbe Basis nur rueckwaertsaufgeschrieben. Dann gilt Tw1 = 0, ferner ist Tw2 entweder Null oder gleich w1 und soweiter. Man sieht also, dass T in dieser Basis durch eine Jordan-Matrix dargestelltwird. Man beachte, dass auf Spann(v j,Tv j, . . . ,Tm(v j)v j die Abbildung T durch einenJordan-Block der Laenge m(v j) + 1 dargestellt wird.

Page 118: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 115

Nun zur Eindeutigkeit. Es ist zu zeigen: ist T ebenfalls konjuguiert zu einerJordan-Matrix J′ mit Jordan-Bloecken Jd′1

, . . . , Jd′s , dann ist s = k und die d′j bis aufReihenfolge gleich den d j. Indem man die Basis, bezueglich der T die Matrix J′ hat,umgekehrt aufschreibt, erhaelt man eine Basis wie im Lemma, also von der Formv′1,Tv′1, . . . ,T

m(v′1)v′1, v′

2, . . . , vk Tv′s, . . . ,Tm(v′s)v′s und ebenfalls so dass Tm(v′1)v′1, . . . ,Tm(v′s)v′s

eine Basis von ker(T) ist. Damit folgt s = k. Nun ist aber Tm(v1)v1, . . . ,Tm(vk)vk erweitertum Tm(v1)−1v1, . . . ,Tm(vk)−1vk, wobei nur die v j auftreten mit m(v j) ≥ 1, eine Basis vonker(T2) und damit sieht man, dass die Anzahl der j mit m(v j) = 0 mit derentsprechenden Anzahl der v′j uebereinstimmt. Man betrachtet dann ker(T3) und soweiter, so dass man sieht, dass man nach Verttauschen der Reihenfolge m(v′j) = m(v j)erreichen kann, was der behaupteten Eindeutigkeit entspricht. �

9.2 Hauptraum-Zerlegung

Lemma 9.2.1 (Fitting-Zerlegung). Sei dim V = n und T : V → V linear. Dann gilt

ker Tn+k = ker Tn und Bild(Tn+k) = Bild(Tn)

fur jedes k ∈N. Ferner giltV = ker(Tn) ⊕ Bild(Tn).

Beweis. Sei V j = ker T j, dann gilt V0 = 0 ⊂ V1 ⊂ . . . . Wir zeigen, dass es ein k ∈N0 gibt,so dass V0 , V1 , · · · , Vk = Vk+1 = . . . . Hierzu reicht es zu zeigen, dass aus Vk = Vk+1

schon Vk+1 = Vk+2 folgt. Die Inklusion “⊂” gilt immer. Sei also v ∈ ker(Tk+2), dann istTv ∈ ker(Tk+1) = ker(Tk), so dass v ∈ ker(Tk+1) ist.

Da nun die Dimension bei jedem Schritt V j , V j+1 nicht um weniger als 1 wachsenkann, ist spatestens bei Vn Schluss. Die duale Aussage uber die Bilder folgt aus derDimensionsformel.

Fuer die letzte Aussage reicht es ker(Tn) ∩ Bild(Tn) = 0 zu zeigen, da dann dieBehauptung aus der Dimensionsformel folgt. Sei v ∈ ker(Tn) ∩ Bild(Tn). Dann folgtv = Tnu fuer ein u ∈ V und wegen Tnv = 0 folgt T2nu = 0, dann ist nach dem ersten Teilschon Tnu = 0, also v = 0 so dass wir ker(Tn) ∩ Bild(Tn) = 0 schliessen koennen. �

Definition 9.2.2. Fuer λ ∈ K seiker((T − λ)n)

Page 119: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 116

der Hauptraum zu λ.

Satz 9.2.3 (Hauptraum-Zerlegung). Sei dim V = n und T : V → V linear. Nimm an,dass das charakteristische Polynom in Linearfaktoren zerfaellt, also

χT(x) =

k∏j=1

(x − λ j)n j .

Dann ist

V =

k⊕j=1

ker(A − λ j)n.

Insbesondere ist n j = dim ker(T − λ j)n, d.h. die algebraische Vielfachheit ist genau dieDimension des Hauptraums.

Beweis. Wir benutzen Induktion nach der Dimension n. Fuer n = 1 ist nichts zuzeigen. Nun sei n ∈N und die Behauptung fuer Raeume kleinerer Dimension bereitsgezeigt. Nach der Fitting-Zerlegung ist

V = ker(T − λ1)n⊕ Bild(T − λ1)n.

Da ker(T − λ1)n , 0 hat der Raum W = Bild(T − λ1)n eine Dimension < n. Ferner istT(W) ⊂W, denn ist w ∈W, dann ist w = (T − λ1)nu fuer ein u, also istTw = T(T − λ1)nu = (T − λ1)n(Tu) ∈ Bild(T − λ1)n. Nach der Induktionsvorausseztungzerfaellt W in die direkte Summe der Hauptraeume. Da T auf W keine anderenEigenwerte haben kann, folgt

V = ker(T − λ1)n⊕ · · · ⊕ ker(T − λs)n.

Die Zusatzaussage folgt schliesslich aus

χA =∏

j

χA|Vj,

wobei V j = ker(T − λ j)n. �

Page 120: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 117

9.3 Jordan-Matrizen

Definition 9.3.1. Ein Jordan-Block ist eine Matrix der Form

Jk(λ) =

λ 1

. . . . . .. . . 1

λ

,

wobei λ ∈ K und Jk(λ) ∈Mk(K) ist.

Eine Jordan-Matrix ist eine Matrix der FormJk1(λ1)

. . .

Jks(λs)

,d.h., es sind Jordan-Blocke auf der Diagonale, sonst Nullen.

Beispiele 9.3.2. •

1 10 1

ist ein Jordan-Block.

1 1

12

ist eine Jordan-Matrix.

1 1

22

ist keine Jordan-Matrix.

Satz 9.3.3 (Jordan-Normalform-Satz). Sei A ∈Mn(K). Das charakteristische PolynomχA zerfalle in Linearfaktoren. Dann ist A ahnlich zu einer Jordan-Matrix

Jk1(λ1). . .

Jks(λs)

.Hierbei sind λ1, . . . , λs die (nicht notwendig verschiedenen) Eigenwerte von A. DieJordan-Matrix ist eindeutig bestimmt bis auf die Reihenfolge der Blocke. Man nennt diese

Page 121: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 118

Jordan-Matrix die Jordan-Normalform von A.

Beweis. Sei Kn = ker(A − λ1)n⊕ · · · ⊕ ker(A − λk)n die Hauptraumzerlegung. Da die

Hauptraume invariant sind, reicht es zu zeigen, dass A auf jedem dieser Raume durcheine Jordan-Matrix dargestellt wird. Wir konnen also annehmen, dass A nur eineneinzigen Eigenwert λ hat. Dann ist (A − λ) nilpotent, es gibt also eine Basis bezgl derA − λ in Jordan-Form ist, dann ist in derselben Basis auch A in Jordan-Form. DieEindeutigkeit der Jordan-Bloecke folgt aus der Eindeutigkeit bei nilpotentenMatrizen. �

Beispiele 9.3.4. • Die Jordan-Normalform von

1 12

ist

12

.

• Die Jordan-Normalform von

1 1−1 3

ist

2 12

.

9.4 Berechnung der Normalform

Proposition 9.4.1. Sei A ∈Mn(K) und seien λ1, . . . , λk die verschiedenen Eigenwerte. Sei

mA(x) =

k∏j=1

(x − λ j)m j

das Minimalpolynom. Dann ist m j die Lange des langsten Jordan-Blocks mit dem Eigenwertλ j.

Beweis. Wir nehmen an, dass A in Jordan-Normalform ist und die Blocke nachEigenwerten geordnet sind. Wir konnen dann A durch die Untermatrix zu einemfesten Eigenwert ersetzen und also annehmen, dass A nur einen einzigen Eigenwert λhat. Dann besteht A − λ ebenfalls aus Jordan-Blocken, aber zum Eigenwert Null. Manstellt nun fest, dass Jk(0)k−1 , 0, aber Jk(0)k = 0 ist. Damit folgt die Behauptung. �

Beispiele 9.4.2. • Ist A =

2 1

22

, dann ist mA(x) = (x − 2)2.

Page 122: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 119

• Ist A =

2 1

2 12

, dann ist mA(x) = (x − 2)3.

Proposition 9.4.3. Sei K algebraisch abgeschlossen. Fur jede Matrix A in M2(K) oder M3(K)ist die JNF durch das charakteristische Polynom und das Minimalpolynom eindeutigfestgelegt.

Beweis. Es reicht, den Fall A ∈M3(K) zu betrachten. In diesem Fall hat A maximal dreiverschiedene Eigenwerte und fur das charakteristische Polynom gibt es folgendeFalle:

1. Fall: Es gibt drei verschiedene Eigenwerte, χA(x) = (x − λ)(x − µ)(x − ν). Dann ist Adiagonalisierbar.

2. Fall: Es gibt zwei verschieden Eigenwerte: χ)A(x) = (x − λ)2(x − µ). Ist dannmA(x) = (x − λ)(x − µ), so ist A diagonalisierbar. Ist mA(x) = (x − λ)2(x − µ), so hat A die

JNF =

λ 1

λ

µ

.

3. Fall: Es gibt nur einen Eigenwert, χA(x) = (x − λ)3. Ist dann mA(x) = (x − λ), dann istA diagonalisierbar. Ist mA(x) = (x − λ)2, dann gibt es zwei Jordan-Blocke der Langen 2und 1. Ist schliesslich mA(x) = (x − λ)3 so gibt es einen Jordan-Block der Lange 3. �

Beispiel 9.4.4. Fur n = 4 reicht diese Information nicht mehr aus, denn die Matrizen1 1

11 1

1

und

1 1

11

1

haben dasselbe charakteristische und dasselbe Minimalpolynom.

Proposition 9.4.5. Sei K = K und λ ∈ K ein Eigenwert der Matrix A ∈Mn(K). Diegeometrische Vielfachheit

dim Eig(A, λ)

ist gleich der Anzahl der Jordan-Blocke zum Eigenwert λ.

Beweis. Es reicht, anzunehmen, dass λ der einzige Eigenwert ist. Sei dann A inJordan-Form und seien Jk1(λ), . . . , Jks(λ) die entsprechenden Jordan-Blocke. Dann sind

Page 123: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 120

die Vektoren e1, ek1+1, . . . , ek1+···+ks−1+1 eine Basis des Eigenraums, also folgtdim Eig(A, λ) = s. �

Beispiel 9.4.6. Die JNF von

3 1 −1 10 2 0 01 0 1 10 −1 0 2

ist

2 1

22 1

2

.

Proposition 9.4.7. Sei K = K und A ∈Mn(K). Dann ist

dim ker(A − λ) j+1− dim ker(A − λ) j

gleich der Anzahl der Jordan-Blocke mit Eigenwert λ und Lange ≥ j + 1.

Beweis. Fur einen Jordan-Block A =

λ 1

. . . . . .. . . 1

λ

gilt

ker(A − λ) j = Spann(e1, . . . , e j).

Damit folgt die Behauptung. �

Damit ergibt sich der

Algorithmus zur Bestimmung der Jordan-Normalform

1. Bestimme χA(x).

2. Bestimme die Nullstellen, also die Eigenwerte λ1, . . . , λn. AlgebraischeVielfachheit = Lange der Jordan-Matrix zum jeweiligen Eigenwert.

3. Bestimme N j = dim ker(A − λ) j. Dann gibt es N1 Jordan-Blocke. Davon habenN2 −N1 die Lange ≥ 2 und N3 −N2 die Lange ≥ 3 usf.

Page 124: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Kapitel 10

Dualraum und Quotient

10.1 Der Dualraum

Definition 10.1.1. Sei V ein Vektorraum uber dem Korper K. Eine Linearform auf Vist eine lineare Abbildung α : V → K. Sind α, β Linearformen und sind λ, µ ∈ K, so istλα + µβ, definiert durch

(λα + µβ)(v) = λα(v) + µβ(v),

wieder eine Linearform. Man sieht, dass V∗ ein linearer Unterraum des VektorraumsAbb(V,K) ist.

Beispiele 10.1.2. • Ist V = K, so ist jede Linearform von der Form x 7→ λx fur einλ ∈ K.

• Ist V = Kn, so ist jede Koordinatenabbildung v 7→ v j eine Linearform.

• Ist S eine Menge in V = Abb(S,K) der Vektorraum aller Abbildungen von S nachK, so ist fur jedes s ∈ S die Punktauswertung δs : V → K; f 7→ f (s) eineLinearform.

Definition 10.1.3. Sei v1, . . . , vn eine Basis von V. Fur j = 1, . . . ,n sei v∗j die Linearform

v∗j(λ1v1 + · · · + λnvn) = λ j.

Warnung: Die Vektoren v∗1, . . . , v∗

n hangen von der Wahl der gesamten BasisB = (v1, . . . , vn) ab, es sollte also besser v∗1,B, . . . , v

n,B heißen.

121

Page 125: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 122

Beispiele 10.1.4. • Sei V = Kn und e1, . . . , en die Standard-Basis. Dann gilt

e∗j

x1...

xn

= x j.

• Sei die Charakteristik von K , 2 und sei v1 =

1

1

, sowie v2 =

1

−1

. Dann ist

v1, v2 eine Basis von K2 und es gilt

v∗1

xy

=x + y

2, v∗2

xy

=x − y

2.

Lemma 10.1.5. Ist v1, . . . , vn eine Basis von V, so ist v∗1, . . . , v∗

n eine Basis von V∗, genannt dieduale Basis. Insbesondere ist V endlich-dimensional, falls V dies ist.

Beweis. Sei α ∈ V∗. definiere λ j = α(v j). Wir behaupten, dass α = λ1v∗1 + · · · + λnv∗n. Esreicht zu zeigen, dass diese beiden linearen auf den Basisvektoren ubereinstimmen. Esist aber gerade

(λ1v∗1 + · · · + λnv∗n)(v j) = λ1v∗1(v j) + · · · + λnv∗n(v j) = λ j = α(v j).

damit ist also α = λ1v∗1 + · · · + λnv∗n und v∗n, . . . , v∗n ein Erzeugendensystem. Um dielineare Unabhangigkeit zu zeigen nimm an wir habe eine Linearkombination derNull: µ1v∗1 + · · · + µnv∗n = 0. Fur 1 ≤ j ≤ n gilt dann

0 = (µ1v∗1 + · · · + µnv∗n)(v j) = µ j,

also µ1 = · · · = µn = 0. �

Bemerkungen.

• Ist V endlich-dimensional und v1, . . . , vn eine Basis, so liefert die lineareAbbildung gegeben durch v j 7→ v∗j einen Isomorphismus der VektorraumeV → V∗. Dieser hangt allerdings von der Wahl der Basis ab.

• Ist V unendlich-dimensional, so ist V∗ nicht isomorph zu V (ohne Beweis).

Beispiele 10.1.6. • Ist V = Kn, so ist der durch die Standard-Basis induzierte

Page 126: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 123

Isomorphismus V → V∗ gegeben durch x 7→ xt, wobei xt fur die transponierteMatrix steht und damit fur die lineare Abbildung y 7→ xty.

• Die Basis v1 =

1

1

und v2 −

1

−1

von K2 induziert einen Isomorphismus

K2→ (K2)∗ gegeben durch x 7→ ( 1

2x)t.

Lemma 10.1.7. Sei T : V →W eine lineare Abbildung, so ist T∗ : W∗→ V∗, gegeben durch

T∗(α) = α ◦ T

eine lineare Abbildung. Sie heißt die zu T duale Abbildung. Es gilt

(λT + µS)∗ = λT∗ + µS∗, sowie (T ◦ R)∗ = R∗ ◦ T∗,

wobei T,S : V →W, R : U→ V linear sind und λ, µ ∈ K.

Beweis. Wir mussen zuerst zeigen, dass f ∗(α) wieder linear ist. Hierzu rechnen wir

T∗(α)(λv + µv′) = α(T(λv + µv′)

= α(λT(v) + µT(v′)

= λα(T(v)) + µα(T(v′)) = λT∗(α)(v) + µT∗(α)(v′).

Daher ist T∗(α) wieder linear und T∗ : W∗→ V∗ wohldefiniert. Als nachstes ist zu

zeigen, dass α 7→ T∗(α) linear ist. Dies sieht man durch

T∗(λα + µβ)(v) = (λα + µβ)(T(v)) = λα(T(v)) + µβ(T(v)) = λT∗(α)(v) + µT∗(β)(v).

Schließlich ist zu zeigen, dass fur festes α die Abbildung T 7→ T∗(α) linear ist, was manahnlich zeigt.

Am Ende schließlich zur Hintereinanderausfuhrung:

(T ◦ R)∗(α) = α ◦ (T ◦ R) = (α ◦ T) ◦ R = (T∗(α)) ◦ R = R∗(T∗(α)) = R∗ ◦ T∗(α). �

Lemma 10.1.8. Die Duale Abbildung wird durch die transponierte Matrix dargestellt.Genauer, sei T : V →W eine lineare Abbildung. Sei B eine Basis von V und C eine von W.Dann gilt

MC∗

B∗(T∗) =

(MB

C(T)

)t.

Page 127: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 124

Beweis. Sei A =MB

C(T), das heißt

T(v j) =

m∑i=1

ai, jwi.

Damit T∗(w∗k)(v j) = w∗k(T(v j)) = ak, j, also

T∗(w∗k) =

n∑j−1

ak, jv∗j,

was gerade bedeutet, dass T∗ durch die Matrix At dargestellt wird. �

Korollar 10.1.9. Sei T : V →W linear, wobei V und W endlich-dimensional sind. Dann gilt

(a) dim Bild T = dim Bild T∗,

(b) dim ker T − dim ker T∗ = dim V − dim W,

(c) T injektiv⇔ T∗ surjektiv,

(d) T∗ injektiv⇔ T surjektiv,

(e) T bijektiv⇔ T∗ bijektiv.

Beweis. (a) Sei T durch die Matrix A dargestellt. Dann ist dim Bild T gerade der Rangvon A. Dieser ist gleich dem Rang von At, also gleich dim Bild(T∗).

(b) Nach den Dimensionsformeln und Teil (a) ist

dim ker T − dim ker T∗ = (dim V − dim Bild T) − (dim W∗− dim Bild T∗)

= dim V − dim W.

(c) T ist genau dann injektiv, wenn dim ker T = 0 und dies ist nach (b) aquivalent zudim ker T∗ = dim W − dim V oder dim V = dim Bild T∗ nach Dimensionsformel. (d)folgt ahnlich und (e) folgt aus (c) und (d). �

Definition 10.1.10. Eine Sequenz von linearen Abbildungen

U T−→ V S

−→W

heißt exakt bei V, fallsker S = Bild T

Page 128: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 125

gilt. Eine Sequenz· · · → Vi−1 → Vi → Vi+1 → . . .

heißt exakt, falls sie an jeder Stelle exakt ist.

Beispiele 10.1.11. • Ist V = U ⊕ V eine direkte Summe zweier Unterraume, dannist die entstehende Sequenz

0→ U→ V →W → 0

exakt.

• Fur jede lineare Abbildung T : V →W ist die Sequenz

0→ ker(T)→ V T−→W

exakt.

• IstU T−→ V S

−→W

exakt, dann ist insbesondere S ◦ T = 0.

Lemma 10.1.12. Die Dualisierung verwandelt exakte Sequenzen in exakte Sequenzen, d.h. ist

U T−→ V S

−→W

exakt, dann istW∗ S∗−→ V∗ T∗

−→ U∗

exakt.

Beweis. Es ist (T∗) ◦ (S∗) = (S ◦ T)∗ = 0 und damit folgt Bild(S∗) ⊂ ker(T∗). Sei alsoα ∈ ker(T∗)., d.h. α ◦ T = 0, also α(Bild(T)) = 0 und damit α(ker(S)) = 0. Wir definierenβ : Bild(S)→ K durch β(S(v)) = α(v). Da α(ker(S)) = 0, ist β wohldefiniert. Dann ist βlinear und kann durch die Wahl eines Komplemantarraums nach W fortgesetztwerden. Dann ist β ∈W∗ und α = S∗(β), also α ∈ Bild(S∗). �

Definition 10.1.13. Sei V ein Vektorraum. Sei V∗∗ = (V∗)∗ der Bidualraum. Betrachtedie Abbildung δ : V → V∗∗, v 7→ δv mit

δv(α) = α(v).

Page 129: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 126

Satz 10.1.14. Ist V endlich-dimensional, dann ist δ ein Isomorphismus.

Beweis. Wir zeigen zunachst, dass δ linear ist. Fur v,w ∈ V und λ, µ ∈ K, sowie α ∈ V∗

gilt

δλv+µw(α) = α(λv + µw)

= λα(v)µα(w)

= λδv(α) + µδw(α),

also δλv+µw = λδv + µδw. Damit ist δ linear. Sei v1, . . . , vn eine Basis von V, sei v∗1, . . . , v∗

n

die Duale Basis und sei v∗∗1 , . . . , v∗∗

n die hierzu duale Basis von V∗∗. Wir zeigenδv j = δ(v j) = v∗∗j . Hierzu berechne

δv j(v∗

k) = v∗k(v j) = δk, j = v∗∗j (v∗k).�

10.2 Quotienten

Sei U ⊂ V ein linearer Unterraum des Vektorraums V. Auf V erklare eineAquivalenzrelation

v ∼ v′ ⇔ v − v′ ∈ U.

Nachweis der Aquivalenzeigenschaft. Es gilt v ∼ v, denn v − v = 0 ∈ U. ist v ∼ v′ dannfolgt v′ ∼ v, da mit v − v′ auch −(v − v′) = v′ − v in U liegt. Schließlich sei v ∼ v′ undv′ ∼ v′′, also v − v′, v′ − v′′ ∈ U. Dann liegt auch die Summe v − v′′ in U, es ist alsov ∼ v′′. �

Die Aequivalenzklassen sind genau die affinen Unterraeume mit U als linearemAnteil, also

[v] = v + U

fuer jedes v ∈ V.

Definition 10.2.1. Sei dann V/U die Menge aller Aquivalenzklassen, also

V/U ={v + U : v ∈ V

}⊂ P(V).

Page 130: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 127

Auf V/U definieren wir die Struktur eines Vektorraums wie folgt:

(v + U) + (w + U) = (v + w + U) Addition

λ(v + U) = (λv + U) Skalarmultiplikation

Nachweis der Wohldefiniertheit. Ist v + U = v′ + U und w + U = w′ + U, dann ist zuzeigen, dass v + w + U = v′ + w′ + U folgt. Es gilt

(v + w) − (v′ + w′) = v − v′︸︷︷︸∈U

+ w − w′︸ ︷︷ ︸∈U

∈ U,

daher folgt (v + w) ∼ (v′ + w′), also v + w + U = v′ + w′ + U und damit ist die Additionwohldefiniert. Ebenso gilt λv − λv′ ∈ U und also λv + U = λv + U und damit ist dieskalare Multiplikation wohldefiniert. �

Im Beispiel K = R, V = R2, U = R(1, 1)t sind die Aequivalenzklassen genau die zu Upaprallelen Geraden.

Proposition 10.2.2. Ist W ein Komplementarraum zu U, also

V = U ⊕W,

dann ist die Abbildung ψ : W → V/U; w 7→ [w] ein linearer Isomorphismus.

Beweis. ψ ist linear, denn

ψ(λw + w′) = (λw + w′ + U = λ(w + U) + (w′ + U) = λψ(w) + ψ(w′).

Page 131: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 128

Die Abbildung ψ ist injektiv, denn

ψ(w) = 0 ⇒ w ∈ U ⇒ w = 0,

da w ∈W. ψ ist surjektiv, denn sei v ∈ V, dann kann man v = u + w schreiben mitu ∈ U und w ∈W. Es folgt v + U = w + U = ψ(w) und daher ist ψ surjektiv. �

Korollar 10.2.3. Ist U ⊂ V ein linearer Unterraum, so liefern die naturlichen Abbildungeneine exakte Sequenz

0→ U α−→ V

β−→ V/U→ 0.

Beweis. α ist die Inklusion des Unterraums, also injektiv. β ist die Projektion desQuotienten, also surjektiv. Das Bild von α ist U und dies ist der Kern von β. �

Proposition 10.2.4 (Universelle Eigenschaft). Sei U ⊂ V ein Unterraum und seiP : V → V/U die Projektion. Zu jeder linearen Abbildung

T : V →W

mit T(U) = 0 gibt es genau eine linear Abbildung S : V/U→W so dass das Diagramm

V

P !!

T //W

V/U

S

OO

kommutiert. Diese universelle Eigenschaft induziert einen linearen Isomorphismus{T ∈ Lin(V,W) : T(U) = 0

}�−→ Lin(V/U,W).

Beweis. Sei die Situation wie oben. Definiere S : V/U→W durch

S(v + U) = T(v).

Fur die Wohldefiniertheit sei v + U = v′ + U. Dann folgt v − v′ ∈ U, also T(v − v′) = 0oder T(v) = T(v′), was die Wohldefiniertheit zeigt. Fur v ∈ V gilt nunT(v) = S(v + U) = S(P(v)), also T = S ◦ P und damit kommutiert das Diagramm. ZurEindeutigkeit sei S′ : V/U→W eine weitere Abbildung, die das Diagramm

Page 132: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 129

kommutativ macht. Es gilt dann

S′(v + U) = T(v) = S(v + U).

Sei dann ψ :{T ∈ Lin(V,W) : T(U) = 0

}→ Lin(V/U,W) die entstehende Abbildung.

Eine Standardverifikation zeigt, dass ψ linear ist. Fuer die Injektivitaet sei T gegebenmit S = ψ(T) = 0. Aus der Formel T = S ◦ P folgt dann auch T = 0 und damit ist ψinjkektiv. Fuer die Surjektivitaet sei S gegeben, dann definiere T durch T = S ◦ P, sofolgt ψ(T) = S. �

Definition 10.2.5. Sei T : V →W linear. Den Quotienten W/Bild(T) nennt man denCokern von T und schreibt ihn als coker(T). Dann ist die Sequenz

0→ ker(T)→ V T−→W → coker(T)→ 0

exakt.

Satz 10.2.6 (Homomorphiesatz). Sei T : V →W linear, dann ist die AbbildungT : v + ker(T) 7→ T(v) ein Isomorphismus

V/ker(T) �−→ Bild(T).

Beweis. Da T(ker(T)) = 0, ist die lineare Abbildung T wohldefiniert. Sie istoffensichtlich injektiv und surjektiv. �

Satz 10.2.7. Sei V ein K-Vektorraum und seien U,W Unterraeume.

(a) Die Abbildung φ : u + (U ∩W) 7→ u + U + W ist ein Isomorphismus

U/(U ∩W)→ (U + W)/W.

(b) Gilt W ⊂ U, dann ist die Abbildung ψ : (v + W) + (U/W) 7→ v + U einIsomorphismus

V/W/U/W → V/U.

Page 133: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 130

Beweis. Die Wohldefiniertheit ist bei beiden Abbildungen leicht einzusehen. ZurInjektivitaet von φ sei u ∈ U mit φ

(u + (U ∩W)

)= 0. Dann folgt u ∈W, also u ∈ U ∩W,

also u + (U∩W) = 0 + (U∩W), die Abbildung φ ist also injektiv. Fuer die Surjektivitaetsei u + w + W ∈ (U + W)/W gegeben. Dann gilt u + w + W = u + W = φ(u + (U ∩W)).

Fuer die Injektivitaet von ψ sei v + W + (U/W) ∈ V/W/U/W mit ψ (v + W + (U/W)) = 0

gegeben. Das bedeutet, dass v ∈ U liegt, damit also v + W in U + W und daher istv + W + (U/W) das Nullelement. Die Surjektivitaet von ψ ist klar. �

Korollar 10.2.8 (Alternative Formulierung des letzten Satzes). Sei V ein K-Vektorraumund seien U,W Unterraeume. Wir schreiben die Elemente von V/U nun alsAequivalenzklassen [v]U, v ∈ V.

(a) Die Abbildung φ : [u]U+W 7→ [u]W ist ein Isomorphismus

U/(U ∩W) �−→ (U + W)/W.

(b) Gilt W ⊂ U, dann ist die Abbildung ψ : [[v]W]U+W 7→ [v]U ein Isomorphismus

V/W/U/W �

−→ V/U.

Page 134: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Kapitel 11

Dimension

11.1 Das Lemma von Zorn

Definition 11.1.1. Eine partielle Ordnung auf einer Menge M ist eine Relation ≤ auf Iso dass fur alle x, y, z ∈M gilt

(a) x ≤ x (Reflexivitat)

(b) x ≤ y, y ≤ x ⇒ x = y (Antisymmetrie)

(c) x ≤ y, y ≤ z ⇒ x ≤ z (Transitivitat)

Beispiele 11.1.2. • Auf jeder Menge ist die Identitat “=” eine partielle Ordnung.

• Auf der Menge N der naturlichen Zahlen ist die ubliche “kleiner gleich”Relation eine partielle Ordnung. Desgleichen fur Z,Q,R.

• Ist X irgendeine Menge. Auf der Potenzmenge P(X) liefert die Mengeninklusioneine partielle Ordnung.

Definition 11.1.3. Eine partiell geordnete Menge (M,≤) heißt vollstandig geordnetoder linear geordnet, wenn je zwei Elemente vergleichbar sind. Also wenn fur je zweiElemente x, y mit x , y entweder x ≤ y oder y ≤ y gilt.

Beispiele 11.1.4. • Die Identitat “=” auf M ist genau dann linear, wenn die Mengehochstens ein Element hat.

• Die naturliche Ordnungen auf N,Z,Q,R sind alle linear.

131

Page 135: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 132

• Die Ordnung auf der Potenzmenge P(X) ist in der Regel nicht linear. (Nur dann,wenn |X| ≤ 1)

Lemma 11.1.5 (Lemma von Zorn). Sei (M,≤) eine partiell geordnete Menge. Existiert zujeder linear geordneten Teilmenge L ⊂M eine obere Schranke s ∈M, dann hat M maximaleElemente.

Hierbei ist s ∈M eine obere Schranke zu L ⊂M, wenn x ≤ s fur jedes x ∈ L gilt.

Ferner heißt ein Element m ∈M maximales Element, wenn m ≤ x ⇒ m = x gilt.

Die Bedingung, dass jede linear geordnete Teilmenge eine obere Schranke besitzt,wird auch Kettenbedingung genannt. Diese Sprechweise kommt daher, dass lineargeordnete Teilmengen auch Ketten genannt werden.

Man kann das Lemma von Zorn aus dem Auswahlaxiom der Mengenlehre folgern.Dieses Axiom besagt, dass ein Produkt nichtleerer Mengen eine nichtleere Menge ist.Genauer besagt es, dass zu einer gegebenen Indexmenge I , ∅ und gegebene MengenXi , ∅ das Produkt X =

∏i∈I Xi eine nichtleere Menge ist. (D.h., man kann simultan in

allen Mengen Xi jeweils ein Element auswahlen.) Man kann sogar zeigen, dass dasLemma von Zorn, auf der Basis der anderen Axiome der Mengenlehre, zumAuswahlaxiom aquivalent ist. Es ist daher legitim, das Lemma von Zorn selbst als einAxiom aufzufassen. Wir werden es nur benutzen.

11.2 Kardinalzahlen

Definition 11.2.1. Zwei Mengen M,N heißen gleichmachtig, oder haben die gleicheMachtigkeit, wenn es eine Bijektion M �

−→ N gibt. Wir schreiben dann

|M| = |N|.

Wir sagen ferner, die Machtigkeit einer Menge A ist kleiner gleich der von B, wenn eseine Injektion A ↪→ B gibt und wir schreiben dies als

|A| ≤ |B|.

Beachte, dass fuer jede Menge A gilt

|∅| ≤ |A|.

Page 136: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 133

Satz 11.2.2. (a) Sind A und B nichtleere Mengen, so gibt es genau dann eine InjektionB ↪→ A wenn es eine Surjektion A� B gibt.

(b) Sind M,N Mengen und gibt es surjektive Abbildungen φ : M→ N und ψ : N→M,dann gibt es eine Bijektion b : M �

−→ N. Dasselbe gilt fur injektive Abbildungen. Mitanderen Worten, ist |M| ≤ |N| und |N| ≤ |N|, dann folgt |M| = |N|.

(c) Sind A,B Mengen, dann gibt es immer eine Abbildung A→ B die injektiv oder eineB→ A die injektiv ist, d.h. es gilt immer |A| ≤ |B| oder |B| ≤ |A|.

Beweis. (a) Sei φ : A→ B surjektiv. Wir wahlen zu jedem b ∈ B ein Urbild ψ(b) ∈ A, soerhalten wir eine Injektion ψ : B→ A. Sei umgekehrt eine Injektion ψ : B→ A gegebenund sei b0 ∈ B ein festes Element. Definiere φ : A→ B durch

φ(a) =

b a = ψ(b),

b0 a < Bild(ψ).

Dann ist φ eine Surjektion.

(b) Nach Teil (a) konnen wir annehmen, dass es injektive Abbildungen φ : M ↪→ Nund ψ : N ↪→M gibt. Setze M0 = M und N0 = N und N j+1 = φ(M j) sowie M j+1 = ψ(N j).Sei schließlich M∞ =

⋂j M j und N∞ =

⋂j N j. Wir stellen fest

(i) M j+1 ⊂M j und ebenso fur N.

(ii) M ist die disjunkte Zerlegung aus M∞ und M j rM j+1 fur j = 0, 1, . . . und ebensofur N.

(iii) φ ist eine Bijektion M∞ → N∞.

(iv) φ ist eine Bijektion M j rM j+1 → N j+1 rN j+2 und ebenso fur ψ mit M und Nvertauscht.

Wir beweisen (i) durch eine (leichte) Induktion nach j. Damit ist auch (ii) klar. (iii)

Page 137: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 134

folgt sofort und ebenso (iv). Wir definieren nun eine Bijektion b : M→M durch

b(x) =

φ(x) x ∈M∞,

φ(x) x ∈M2 j rM2 j+1, j ≥ 0,

ψ−1(x) x ∈M2 j+1 rM2 j+2, j ≥ 0.

M0 N0

M1 N1

M2 N2

M3 N3

......

M∞ N∞

...

φ ψ

Man sieht leicht ein, dass b eine Bijektion ist.

(c) Sei S die Menge aller Paare (T, φ) wobei T ⊂ A und φ : T ↪→ B eine Injektion ist.Dann wird S partiell geordnet durch (T, φ) ≤ (S, ψ) falls T ⊂ S Und ψ eine Fortsetzungvon φ ist. Das Lemma von Zorn liefert ein maximales Element (T, φ). Ist T = A, danngibt es eine Injektion wie verlangt. Ist T , A, dann muss φ surjektiv sein, denn sonstkonnte man φ auf eine großere Menge ausdehnen. Indem man den Rest von A auf einfestes Element wirft, erhalt man dann eine Surjektion A→ B. �

Proposition 11.2.3. Fur jede Menge X gilt

|X| < |P(X)|.

Beweis. Die Abbildung x 7→ {x} ist eine Injektion X ↪→ P(X), daher gilt |P(X)| ≥ |X|.Wir zeigen, dass es keine Surjektion X→ P(X) geben kann. Sei also f : X→ P(X) einegegeben Abbildung. Betrachte

M = {x ∈ X : x < f (x)}

Page 138: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 135

Dann liegt M nicht im Bild von f , denn Angenommen, M = f (x0) fur ein x0 ∈ X. Istdann x0 ∈M, dann folgt x0 < f (x0) = M, ein Widerspruch!. Ist andererseits x0 < M,dann ist ja x0 < f (x0), erfullt also die Bedingung, zu M zu gehoren, es folgt x0 ∈M,ebenfalls Widerspruch! �

11.3 Abzahlbarkeit

Definition 11.3.1. Eine Menge A heißt abzahlbar, wenn |A| ≤ |N|. In dem Fall ist Aentweder endlich, oder abzahlbar unendlich. In letzterem Fall gibt es eine BijektionA→N. Jede solche Bijektion nennen wir Abzahlung von A.

Beispiel 11.3.2. N ist abzahlbar, ebenso Z, denn die Abbildung f : Z→N, gegebendurch

f (k) =

2k k > 0,

1 − 2k k < 0,

1 k = 0,

ist eine Bijektion.

Lemma 11.3.3. (a) Eine endliche Menge ist abzahlbar.

(b) Eine nichtleere Teilmenge einer abzahlbaren Menge ist abzahlbar.

(c) Eine Vereinigung von abzahlbar vielen endlichen Mengen ist abzahlbar.

(d) Eine Vereinigung von abzahlbar vielen abzahlbaren Mengen ist abzahlbar.

Beweis. (a) Ist X = {x1, . . . , xn} eine nichtleere endliche Menge, so definiere φ : N→ Xdurch

φ( j) =

x j falls j ≤ n,

x1 sonst.

Dann ist φ surjektiv.

Fur (b) sei nun X abzahlbar und ∅ , Y ⊂ X. Sei φ : N→ X eine surjektive Abbildung.Fixiere ein Element y0 ∈ Y. Wir definieren eine Abbildung ψ : N→ Y durch

ψ(n) =

φ(n) falls φ(n) ∈ Y,

y0 sonst.

Page 139: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 136

(c) Fur jedes n ∈N sei eine endliche Menge En gegeben. Wir wollen zeigen, dass dieVereinigung V =

⋃n∈N En abzahlbar ist. Wir konnen annehmen, dass jedes En nichtleer

ist. Sei also En = {xn1 , x

n2 , . . . , x

nk(n)}. Sei K(n) = k(1) + k(2) + . . . k(n) und definiere K(0) = 0,

Fur jedes j ∈N gibt es dann genau ein n ≥ 0 mit

K(n) < j ≤ K(n + 1).

Setze φ( j) = xnj−K(n), falls K(n) < j ≤ K(n + 1). Dann ist φ eine surjektive Abbildung

N→ V.

(d) Seien nun A1,A2, . . . abzahlbare Mengen, etwa

An = {an1 , . . . }.

Sei A =⋃

n∈N An. Sei Bn = {aµν ∈ A : ν + µ = n} Dann ist B1 = ∅, B2 = {a11}, B3{a1

2, a21} und

so weiter. Jedenfalls ist jedes Bn endlich und es ist

A =⋃n∈N

Bn

eine abzahlbare Vereinigung endlicher Mengen. Damit ist A nach Teil (c)abzahlbar. �

Satz 11.3.4. Die Menge der rationalen Zahlen Q ist abzahlbar.

Beweis. Die Menge N der naturlichen Zahlen ist trivialerweise abzahlbar. Die MengeZ = N ∪ {0} ∪ {−n : n ∈N} ist abzahlbar nach dem Lemma. Die Menge

Z ×Z =⋃k∈Z

{k} ×Z

ist ebenfalls abzahlbar nach dem Lemma. Die Abbildung Q→ Z ×Z, gegeben durch

pq7→ (p, q),

wobei p ∈ Z, q ∈N und p und q teilerfremd, ist injektiv, also kann Q mit einerTeilmenge von Z ×Z identifiziert werden, ist also abzahlbar. �

Page 140: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 137

Satz 11.3.5. Die Menge R der reellen Zahlen ist nicht abzahlbar.

Beweis. Wir zeigen, dass schon das Intervall (0, 1) nicht abzahlbar ist. Angenommen, esgibt eine surjektive Abbildung φ : N→ (0, 1). Dann lasst sich jedes φ(n) alsDezimalzahl schreiben

φ(1) = 0, a1,1a1,2a1,3a1,4 . . .

φ(2) = 0, a2,1a2,2a2,3a2,4 . . .

φ(3) = 0, a3,1a3,2a3,3a3,4 . . .

...

mit Zahlen ai, j ∈{0, 1, . . . , 9

}. Wir benutzen hier ohne Beweis, dass die

Dezimalzahldarstellung eindeutig ist, wenn man Neunerschwanze vermeidet, d.h.wenn man verlangt, dass es zu jedem i und zu jedem j ein k ≥ j gibt, so dass ai,k , 9 ist.Wir definieren dann eine Zahl x ∈ (0, 1) durch

x = x1x2x3 . . .

wobei

x j =

4 a j, j , 4,

5 a j, j = 4.

Da x ∈ (0, 1), muss x in der Abzahlung vorkommen, also gibt es ein j mit φ( j) = x.Dann ist aber x j = a j, j, Widerspruch! �

Bemerkung. Wir haben also gezeigt, dass |N| < |R|. Die Kontinuumshypothesebesagt, dass es keine Kardinalzahl dazwischen gibt, das heißt, dass jede unendlicheTeilmenge von R entweder abzahlbar oder gleichmachtig zu R ist. Diese Hypotheseist allerdings weder wahr noch falsch, denn in der 1960-ger Jahren hat Paul Cohengezeigt, dass die Kontinuumshypothese von den anderen Axiomen der Mengenlehreunabhangig ist. Das heißt, man kann sie annehmen oder auch nicht. Es gibt Modelleder Mengenlehre, in denen sie gilt und andere, in denen sie nicht gilt.

Lemma 11.3.6. Fur jede unendliche Menge I gilt |I| = |I ×N|.

Page 141: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 138

Beweis. Die Projektion I ×N→ I ist surjektiv. Wir mussen nur zeigen, dass es einesurjektive Abbildung I→ I ×N gibt. Wir benutzen das Lemma von Zorn. Sei S dieMenge aller surjektiven Abbildungen ψ : T→ T ×N, wobei T eine Teilmenge von Iist. Wir ordnen S partiell durch (ψ,T) ≤ (ψ′,T′) falls T ⊂ T′ und ψ′ eine Fortsetzungvon ψ ist. Wir mussen uns klarmachen, dass S nicht leer ist. Hierzu sei η : N→N×N

eine surjektive Abbildung, welche nach Lemma 11.3.3 existiert, da man N ×N alsabzahlbare Vereinigung von Kopien von N schreiben kann. Ist dann A = {a1, a2, . . . }

eine abzahlbar unendliche Teilmenge von I, dann ist ψ : A→ A ×N; a j 7→ (aη( j)1 , η( j)2)surjektiv und damit ist S , ∅. Die Vereinigung ist eine obere Schranke zu jeder lineargeordneten Teilmenge, also liefert das Lemma von Zorn ein maximales Element(ψ,T). Wir behaupten, dass T = I ist. Ist T , I und ist I r T endlich, dann existiert eineBijektion zwischen I und T und durch Vor- und Nachschalten dieser kann man ψ nachI transportieren und hat das Lemma bewiesen. Ist I r T unendlich, enthalt es eineabzahlbar unendliche Teilmenge B und man hat eine Surjektive AbbildungB→ B ×N, die man mit ψ zusammenstecken kann um eine Erweiterung von ψ zuerhalten, ein Widerspruch! �

11.4 Basen beliebiger Vektorraume

Definition 11.4.1. Sei V ein K-Vektorraum und sei (vi)i∈I eine Familie von Vektoren.Eine Linearkombination der vi ist eine Summe der Gestalt∑

i∈I

λivi,

wobei fast alle Koeffizienten λi ∈ K gleich Null sind. Hierbei heißt fast alle dasselbewir alle, bis auf endlich viele.

Die Familie heißt linear unabhangig, falls jede Linearkombination der Null bereitstrivial ist, also wenn aus

∑i∈I λivi = 0 schon folgt, dass alle Koeffizienten λi gleich Null

sind.

Die Menge aller Linearkombinationen schreiben wir als

Spann((vi)i∈I).

Dies ist ein Untervektorraum von V.

Page 142: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 139

Eine Familie von Vektoren (vi)i∈I heißt Erzeugendensystem von V, falls sich jederVektor von V als Linearkombination der vi schreiben lasst, also wenn V = Spann((vi∈I)gilt.

Eine Basis oder auch Hamel-Basis ist ein linear unabhangiges Erzeugendensystem.

Satz 11.4.2. (a) Ein minimales Erzeugendensystem ist eine Basis.

(b) Ein maximales linear unabhangiges System ist eine Basis.

(c) Jeder Vektorraum hat eine Basis.

Genauer enthalt jedes Erzeugendensystem eine Basis und jedes linear unabhangigeSystem kann zu einer Basis erweitert werden.

Beweis. (a) Sei (vi)i∈I ein minimales Erzeugendensystem und sei∑i∈I

λivi = 0

eine Linearkombination der Null. Angenommen, ein Koeffizienten λi0 ist ungleich Null.Dann folgt

vi0 =∑i,i0

−λi

λi0vi,

daher ist die Familie (vi)i,i0 immer noch ein Erzeugendensystem, was der MinimalitatWiderspricht! Wegen des Widerspruchs mussen alle Koeffizienten λi gleich Null sein.

(b) Sei (vi)i∈I eine linear unabhangige Familie und sei v ∈ V mit v < Spann((vi)i∈I). Wiein LA1 zeigt man, dass dann die um v erweiterte Familie ebenfalls linear unabhangigist. Eine maximale linear unabhangige Familie muss daher ein Erzeugendensystemsein.

(c) Wir benutzen Zorns Lemma, indem wir zeigen, dass es eine maximale linearunabhangige Familie gibt. Sei M die Menge aller linear unabhangigen Familien,partiell geordnet durch

(vi)i∈I ≤ (w j) j∈J

genau dann, wenn I ⊂ J und vi = wi fur alle i ∈ I. Sei L ⊂M eine linear geordneteTeilmenge. Wir konstruieren eine obere Schranke s = (vν)ν∈N wie folgt: N ist die

Page 143: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 140

Vereinigung aller Mengen I, die als Indexmengen von Elementen (vi)i∈I ∈ L auftreten,also

N :=⋃

I:∃(vi)i∈I∈L

I.

Fur ν ∈ N gibt es ein (vi)i∈I ∈ L so dass ν = i fur ein i ∈ I gilt. Definiere dann vν = vi. DaL linear geordnet ist, ist dies wohldefiniert und wir erhalten ein Element (vν)ν∈N,welches eine obere Schranke zu L ist.

Nach dem Lemma von Zorn existiert also eine maximale linear unabhangige Familie,d.h., eine Basis.

Ebenso sieht man, dass ein gegebenes Erzeugendensystem eine maximale linearunabhangige Teilfamilie enthalt. Diese muss dann eine Basis sein.

Auch zeigt das Lemma von Zorn, dass es zu einem gegebenen linear unabhangigenSystem eine maximale linear unabhangige Erweiterung gibt. Die muss dann ebenfallseine Basis sein. �

Korollar 11.4.3. Zu zwei Vektorraumen V,W gibt es immer eine lineare Abbildungφ : V →W die injektiv oder surjektiv ist.

Beweis. Wahle Basen und wende Satz 11.2.2 (c) auf die Basen an. �

Satz 11.4.4. Je zwei Basen eines Vektorraums V sind gleichmachtig. Zwei Vektorraume Vund W sind genau dann isomorph, wenn sie Basen gleicher Machtigkeit haben. DieMachtigkeit einer Basis wird die Dimension des Vektorraums genannt.

Beweis. Der Satz ist in der LA1 bewiesen worden, falls V endlich-dimensional ist. Seialso V unendlich-dimensional. Seien (vi)i∈I und (w j) j∈J Basen. Fur jedes i ∈ I gibt esgenau eine Darstellung

vi =∑j∈J

λi, jw j.

Fur i ∈ I sei E(i) ⊂ J die Menge aller j ∈ J mit λi, j , 0. Dann ist E(i) stets endlich undJ =

⋃i∈I E(i). Sei E(i) = { ji,1, . . . } eine Aufzahlung der Elemente, bei der Elemente

Page 144: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 141

mehrfach vorkommen (mussen!). Definiere die Abbildung

φ : I ×N→ J,

(i, k) 7→ ji,k.

Dann ist φ surjektiv. Da es nach Lemma 11.3.6 eine Surjektive Abbildung I→ I ×Ngibt, gibt es insgesamt eine surjektive Abbildung I→ J. Aus Symmetriegrunden gibtes auch eine Surjektion J→ I und damit eine Bijektion I→ J.

Fur die zweite Aussage des Satzes ist Sei φ : V →W ein Isomorphismus. Dann ist dasBild einer Basis eine Basis und daher bleibt die Machtigkeit derselben erhalten. Seienumgekehrt (vi)i∈I und (w j) j∈J Basen gleicher Machtigkeit, dann konnen wir I und Jvermittels einer Bijektion identifizieren und I = J annehmen. Die Abbildung vi 7→ wi

setzt sich in eindeutiger Weise zu eine linearen Bijektion V →W fort. �

Page 145: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Index

Z/m, 22GLn(K), 66Mn(K), 62Mm×n(K), 62Per(M), 8τi, j, 83a−1, 21Aquivalenzklasse, 11Aquivalenzrelation, 10ahnlich, 100

Abbildung, 5abelsche Gruppe, 22abzahlbar, 137abzahlbar unendlich, 137Abzahlung, 137affiner Unterraum, 78algebraisch abgeschlossen, 36algebraische Vielfachheit, 104arithmetische Mittel, 18aufspannen, 45Auswahlaxiom, 134

Basis, 50, 141Basiswechselmatrix, 72Betrag einer komplexen Zahl, 29Bidualraum, 127bijektiv, 7Bild, 60Binomialkoeffizienten, 15, 16

Charakteristik, 25

charakteristische Polynom, 99, 101Cokern, 131

Determinante, 85Dezimalzahl, 26diagonalisierbar, 102, 105Dimension, 52, 142direkte Summe, 41disjunkt, 2Distributivgesetz, 23duale Abbildung, 125duale Basis, 59, 124Dualraum, 58Durchschnitt, 2

Eigenraum, 104Eigenvektor, 97Eigenwert, 97Einheitsmatrix, 67Einselement, 23Elementarmatrizen, 75Elemente, 1endlich-dimensional, 45Erzeugendensystem, 45, 141exakt, 127exakt bei V, 126

Fakultat, 14fast alle, 140Fehlstande, 84formale Ableitung, 56Fundamentalsatz der Algebra, 36

142

Page 146: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 143

ganzen Zahlen, 4geometrische Vielfachheit, 104gleich, 1gleichmachtig, 134Grad, 32Gruppe, 18

Hamel-Basis, 141Hauptraum, 116

Identitat, 5Imaginarteil, 28injektiv, 5inverse Abbildung, 9invertierbar, 9, 66

Jordan-Block, 118Jordan-Bloecke, 114Jordan-Matrix, 114, 118Jordan-Normalform, 119

Korper, 23kartesische Produkt, 10Kern, 59Kettenbedingung, 134kommutativ, 22Komplement, 5Komplementarmatrix, 94Komplementarraum, 51komplex konjugierte, 28Komposition, 8Kontinuumshypothese, 139Kronecker-Delta, 95

linear abhangig, 47linear geordnet, 133linear unabhangig, 46, 140lineare Abbildung, 55linearen Isomorphismus, 57

Linearform, 123Linearkombination, 44, 140

Machtigkeit, 134Matrix, 62Matrixmultiplikation, 65maximales Element, 134Menge, 1Menge der komplexen Zahlen, 28Minimalpolynom, 109

naturlichen Zahlen, 1, 4nilpotent, 112normiert, 108Nullabbildung, 55Nullelement, 23Nullstelle, 34

obere Dreiecksmatrix, 75obere Schranke, 134

partielle Ordnung, 133Pascalsche Dreieck, 16Permutation, 8Permutationen, 83polynomiale Abbildung, 34Polynomring, 31Potenzmenge, 1Produkt, 10Produktzeichen, 14punktweise Summe, 58

Rang, 82rationalen Zahlen, 4Realteil, 28reellen Zahlen, 26regular, 26Relation, 10

Page 147: Lineare Algebra 1 - math.uni-tuebingen.de · Lineare Algebra 1 4 und andererseits A B C Aund B Aund C (Aund B) oder (Aund C) w w w w w w w w f w f w w f w f w w w f f f f f f w w

Lineare Algebra 1 144

Schnittmenge, 40Signum, 83Spaltenrang, 81Spann, 44Spur, 103Summe, 40Summenzeichen, 13surjektiv, 6

Teilmenge, 1transponierte Matrix, 67Transposition, 83trigonalisierbar, 101

Umkehrabbildung, 9Untergruppe, 21Unterraum, 39Untervektorraum, 39

Vektorraum, 37Vereinigung, 2Verknupfung, 18Vielfachheit, 34, 35vollstandig geordnet, 133

Zeilenrang, 81Zeilenstufenform, 76Zeilentransformation, 74