108
Lineare Algebra II Sommersemester 2009 Wolfgang Ebeling 1

Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

Lineare Algebra IISommersemester 2009

Wolfgang Ebeling

1

Page 2: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

c©Wolfgang EbelingInstitut fur Algebraische GeometrieLeibniz Universitat HannoverPostfach 600930060 HannoverE-mail: [email protected]

Page 3: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

1 Summen von Vektorraumen 3

1 Summen von Vektorraumen

Im Folgenden sei K zunachst ein beliebiger Korper. Wir betrachten verschie-dene Summen von Vektorraumen.

Definition Es sei V ein K-Vektorraum und U1, U2 Unterraume von V .Dann heißt

U1 + U2 := {u1 + u2 |u1 ∈ U1, u2 ∈ U2}die Summe von U1 und U2.

Lemma 1.1 Fur die oben definierte Summe U1+U2 der Unterraume U1 undU2 gilt:

(i) U1 + U2 = Span(U1 ∪ U2).

(ii) U1 + U2 ⊆ V ist ein Unterraum.

(iii) dim(U1 + U2) ≤ dimU1 + dimU2.

Beweis. (i) U1 + U2 ⊆ Span(U1 ∪ U2) ist klar. Zum Beweis der umgekehrtenInklusion sei v ∈ Span(U1 ∪ U2). Dann gibt es u1, . . . , uk ∈ U1, w1, . . . , wm ∈U2 und λ1, . . . , λk, µ1, . . . , µm ∈ K mit

v = λ1u1 + · · ·+ λkuk + µ1w1 + · · ·+ µmwm.

Setze v1 := λ1u1 + · · ·+λkuk und v2 := µ1w1 + · · ·+µmwm. Dann ist v1 ∈ U1

und v2 ∈ U2, also v = v1 + v2 ∈ U1 + U2.(ii) folgt aus (i).(iii) Ist u1, . . . , uk eine Basis von U1 und w1, . . . , wm eine Basis von U2, so

ist u1, . . . , uk, w1, . . . , wm ein Erzeugendensystem von Span(U1 ∪ U2). Damitfolgt die Behauptung aus (i). 2

Satz 1.1 (Dimensionsformel fur Summen) Fur endlich dimensionale Un-terraume U1, U2 ⊆ V gilt

dim(U1 + U2) = dimU1 + dimU2 − dim(U1 ∩ U2).

Beweis. Es sei {v1, . . . , vm} eine Basis von U1 ∩U2. Wir erganzen diese Basiszu Basen

{v1, . . . , vm, u1, . . . , uk} von U1 und {v1, . . . , vm, u′1, . . . , u

′`} von U2.

Wir mussen zeigen:

B := {v1, . . . , vm, u1, . . . , uk, u′1, . . . , u

′`} ist eine Basis von U1 + U2.

Page 4: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

1 Summen von Vektorraumen 4

Es ist klar, dass B ein Erzeugendensystem von Span(U1 ∪ U2) und nachLemma 1.1(i) damit von U1 + U2 ist. Wir mussen also noch zeigen, dass Blinear unabhangig ist. Dazu sei

λ1v1 + · · ·+ λmvm + µ1u1 + · · ·+ µkuk + µ′1u′1 + · · ·+ µ′`u

′` = 0.

Wir setzenv := λ1v1 + · · ·+ λmvm + µ1u1 + · · ·+ µkuk.

Dann ist v ∈ U1 und −v = µ′1u′1 + · · ·+ µ′`u

′` ∈ U2. Daraus folgt v ∈ U1 ∩U2.

Also istv = λ′1v1 + · · ·+ λ′mvm

fur gewisse Skalare λ′1, . . . , λ′m. Da {v1, . . . , vm, u1, . . . , uk} eine Basis von U1

bildet, folgt aus der Eindeutigkeit der Darstellung von v als Linearkombina-tion der Vektoren dieser Basis insbesondere µ1 = · · · = µk = 0. Setzen wirdies in die obige Gleichung ein, so folgt

λ1 = · · · = λm = µ′1 = · · · = µ′` = 0.

2

Lemma 1.2 Ist V = U1 + U2, so sind die folgenden Aussagen aquivalent:

(i) U1 ∩ U2 = {0}.

(ii) Jedes v ∈ V lasst sich eindeutig darstellen als v = u1 + u2 mit u1 ∈ U1

und u2 ∈ U2.

(iii) Je zwei vom Nullvektor verschiedene Vektoren u1 ∈ U1 und u2 ∈ U2

sind linear unabhangig.

Beweis. (i) ⇒ (ii): Es sei

v = u1 + u2 = u′1 + u′2 (u1, u′1 ∈ U1, u2, u

′2 ∈ U2).

Dann folgt u1 − u′1 = u′2 − u2 ∈ U1 ∩U2, nach (i) also u1 − u′1 = u′2 − u2 = 0.(ii) ⇒ (iii): Nach (ii) besitzt der Nullvektor eine eindeutige Darstellung

0 = 0u1 + 0u2.(iii) ⇒ (i): Es sei 0 6= v ∈ U1 ∩ U2. Dann sind nach (iii) v und −v linear

unabhangig im Widerspruch zu 1v + (−1)v = 0. 2

Ist eine der drei aquivalenten Bedingungen von Lemma 1.2 erfullt, soheißt V die direkte Summe von U1 und U2. Also gilt z. B.:

Page 5: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

1 Summen von Vektorraumen 5

Definition Ein Vektorraum V heißt direkte Summe von zwei UnterraumenU1 und U2, in Zeichen V = U1 ⊕ U2, wenn

V = U1 + U2 und U1 ∩ U2 = {0}.

Beispiel 1.1 Es sei V = R3. Ist U1 = Span{e1, e2} und U2 = Span{e3}, soist V = U1⊕U2. Ist dagegen U3 = Span{e2, e3}, so ist zwar V = U1 +U3, dieSumme ist aber nicht direkt, da U1 ∩ U3 = Span{e2}.

Satz 1.2 Es sei V ein endlich dimensionaler K-Vektorraum und U1, U2 Un-tervektorraume von V . Dann sind die folgenden Bedingungen aquivalent:

(i) V = U1 ⊕ U2.

(ii) Es gibt Basen {u1, . . . , uk} von U1 und {u′1, . . . , u′`} von U2, so dass{u1, . . . , uk, u

′1, . . . , u

′`} eine Basis von V ist.

(iii) Es gilt V = U1 + U2 und dimV = dimU1 + dimU2.

Beweis. (i)⇒ (ii) folgt aus dem Beweis der Dimensionsformel (Satz 1.1) undder Tatsache, dass U1 ∩ U2 = {0}.

(ii) ⇒ (iii) ist klar.(iii) ⇒ (i): Aus der Dimensionsformel folgt dim(U1 ∩ U2) = 0. Daraus

folgt U1 ∩ U2 = {0}. 2

Definition Es sei U ⊆ V ein Unterraum. Ein Unterraum W ⊆ V heißtKomplement von U in V , falls

U ⊕W = V.

Bemerkung 1.1 Zu einem Unterraum U ist ein Komplement W im All-gemeinen nicht eindeutig bestimmt: Ist zum Beispiel V = R3 und U =Span{e1, e2}, so sind W1 = Span{e3} und W2 = Span{e1 + e3} Komplementevon U .

Satz 1.3 Ist V endlich dimensional und U ⊆ V ein Unterraum, so besitztU ein Komplement in V .

Beweis. Man nehme eine Basis {v1, . . . , vr} von U und erganze sie nach I,Satz 11.4, zu einer Basis {v1, . . . , vr, vr+1, . . . , vn} von V . Man setze

W := Span{vr+1, . . . , vn}.

2

Nun sei K = R oder K = C und (V, 〈 , 〉) ein euklidischer (K = R) oderunitarer (K = C) Vektorraum .

Page 6: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

1 Summen von Vektorraumen 6

Definition Es sei V ein euklidischer (unitarer) Vektorraum.

(a) Zwei Vektoren v, w ∈ V heißen orthogonal, in Zeichen v ⊥ w, falls〈v.w〉 = 0.

(b) Zwei Unterraume U,W ⊆ V heißen orthogonal, in Zeichen U ⊥ W ,falls u ⊥ w fur alle u ∈ U , w ∈ W .

(c) Ist U ein Unterraum, so heißt

U⊥ := {v ∈ V | 〈u, v〉 = 0 fur alle u ∈ U}

das orthogonale Komplement von U .

Bemerkung 1.2 Das orthogonale Komplement U⊥ eines Unterraums U istein Unterraum. Aus dem unten stehenden Satz 1.4 folgt, dass es ein Kom-plement von U ist.

Definition Es sei V ein euklidischer (unitarer) Vektorraum und U1, U2

Unterraume von V . Man sagt, V ist die orthogonale direkte Summe der Un-terraume U1 und U2, in Zeichen V = U1 ⊥ U2, falls

(i) V = U1 ⊕ U2 und

(ii) U1 ⊥ U2.

Lemma 1.3 Es sei V ein euklidischer (unitarer) Vektorraum und U1, U2

Unterraume von V . Gilt

(i) V = U1 + U2 und

(ii) U1 ⊥ U2,

so ist V die orthogonale direkte Summe der Unterraume U1 und U2.

Beweis. Wir haben zu zeigen: U1 ∩ U2 = {0}. Es sei v ∈ U1 ∩ U2, v 6= 0.Wegen (i) ist v = u1 + u2 mit u1 ∈ U1 und u2 ∈ U2. Dann gilt

0 6= 〈v, v〉 = 〈v, u1〉+ 〈v, u2〉 = 0 wegen (ii),

ein Widerspruch. 2

Satz 1.4 Es sei V ein endlich dimensionaler euklidischer (unitarer) Vektor-raum und W ⊆ V ein Unterraum. Dann gilt

V = W ⊥ W⊥.

Insbesondere istdimV = dimW + dimW⊥.

Page 7: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

1 Summen von Vektorraumen 7

Beweis. Es sei {w1, . . . , wm} eine ON-Basis von W . Diese erganze man nachI, Satz 20.2, zu einer ON-Basis {w1, . . . , wm, wm+1, . . . , wn} von V . Dann istwm+1, . . . , wn ∈ W⊥. Es sei nun v ∈ V . Dann konnen wir v schreiben als

v = λ1w1 + · · ·+ λmwm + λm+1wm+1 + · · ·+ λnwn

mitλ1w1 + · · ·+ λmwm ∈ W, λm+1wm+1 + · · ·+ λnwn ∈ W⊥.

Daraus folgt die Behauptung. 2

Wir wollen nun auch Summen von mehr als zwei Unterraumen betrachten.

Definition Es sei V ein K-Vektorraum und U1, . . . , Us Unterraume von V .Dann heißt

U1 + · · ·+ Us := {u1 + · · ·+ us |ui ∈ Ui, i = 1, . . . , s}

die Summe von U1, . . . , Us.

Wie oben beweist man:

Lemma 1.4 Fur die Summe U1 + · · ·+ Us der Unterraume U1, . . . , Us gilt:

(i) U1 + · · ·+ Us = Span(U1 ∪ · · · ∪ Us).

(ii) U1 + · · ·+ Us ⊆ V ist ein Unterraum.

(iii) dim(U1 + · · ·+ Us) ≤ dimU1 + · · ·+ dimUs.

Satz 1.5 Ist V = U1 + · · ·+ Us, so sind die folgenden Aussagen aquivalent:

(i) Fur jedes i = 1, . . . , s gilt: Ist Wi := U1 + · · · + Ui + · · · + Us, so ist

Ui∩Wi = {0}. (Hierbei bedeutet Ui: In der Summe wird Ui weggelassen,”nimmt seinen Hut und geht”.)

(ii) Jedes Element v ∈ V lasst sich eindeutig darstellen als v = u1+ · · ·+usmit ui ∈ Ui.

(iii) Fur jede Teilmenge I ⊆ {1, . . . , s} gilt: Ist fur i ∈ I ui ∈ Ui, ui 6= 0, soist die Teilmenge SI := {ui | i ∈ I} linear unabhangig.

Definition Ist eine der aquivalenten Bedingungen von Satz 1.5 erfullt, soheißt V die direkte Summe von U1, . . . , Us, in Zeichen V = U1 ⊕ · · · ⊕ Us.

Page 8: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

1 Summen von Vektorraumen 8

Beweis. (i) ⇒ (ii): Es sei

v = u1 + · · ·+ us = u′1 + · · ·+ u′s (ui, u′i ∈ Ui).

Dann folgt

ui−u′i = (u′1−u1)+· · ·+(u′i−1−ui−1)+(u′i+1−ui+1)+· · ·+(u′s−us) ∈ Wi∩Ui.

Nach (i) folgt ui − u′i = 0.(ii) ⇒ (iii): Es sei I = {i1, . . . , ir} ⊆ {1, . . . , s} und

λ1ui1 + · · ·+ λruir = 0.

Da nach (ii) auch der Nullvektor 0 ∈ V eine eindeutige Darstellung

0 = 0ui1 + · · ·+ 0uir

besitzt, folgt λ1 = . . . = λr = 0.(iii) ⇒ (i): Es sei Wi ∩Ui 6= {0}. Dann gibt es ein ui ∈ Ui mit ui 6= 0 und

ui = u1 + · · ·+ ui−1 + ui+1 + · · ·+ us mit uj ∈ Uj.

Es sei I die Menge aller Indizes j ∈ {1, . . . , s} mit uj 6= 0. Dann ist dieTeilmenge SI linear abhangig im Widerspruch zu (iii). 2

Satz 1.6 Es sei V ein endlich dimensionaler K-Vektorraum und U1, . . . , UsUnterraume von V . Dann sind die folgenden Bedingungen aquivalent:

(i) V = U1 ⊕ · · · ⊕ Us.

(ii) Ist fur jedes i ∈ {1, . . . , s} eine Basis {u(i)1 , . . . , u

(i)ki} von Ui gegeben, so

ist{u(1)

1 , . . . , u(1)k1, . . . , u

(s)1 , . . . , u

(s)ks}

eine Basis von V .

(iii) Es gilt V = U1 + · · ·+ Us und dimV = dimU1 + · · ·+ dimUs.

Beweis. (i) ⇒ (ii): Es sei

B := {u(1)1 , . . . , u

(1)k1, . . . , u

(s)1 , . . . , u

(s)ks}.

Offensichtlich ist B ein Erzeugendensystem von V . Es reicht daher zu zeigen,dass B linear unabhangig ist. Dazu sei

λ(1)1 u(1) + · · ·+ λ

(1)k1u

(1)k1

+ · · ·+ λ(s)1 u

(s)1 + · · ·+ λ

(s)ksu

(s)ks

= 0.

Page 9: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

1 Summen von Vektorraumen 9

Setzen wir wi := λ(i)1 u

(i) + · · ·+ λ(i)kiu

(i)ki

, so folgt

w1 + · · ·+ ws = 0.

Aus Satz 1.5 (iii) folgt w1 = . . . = ws = 0. Also ist

λ(i)1 u

(i) + · · ·+ λ(i)kiu

(i)ki

= 0 fur i = 1, . . . , s.

Daraus folgt λ(i)1 = · · · = λ

(i)ki

= 0.(ii) ⇔ (iii) ist klar.(ii) ⇒ (i) folgt aus Satz 1.5 (ii). 2

Es sei nun wieder K = R,C und V ein euklidischer (unitarer) Vektor-raum.

Definition Es sei V ein euklidischer (unitarer) Vektorraum und U1, . . . , UsUnterraume von V . Man sagt, V ist die orthogonale direkte Summe der Un-terraume U1 . . . , Us, in Zeichen V = U1 ⊥ . . . ⊥ Us, falls

(i) V = U1 ⊕ · · · ⊕ Us und

(ii) Ui ⊥ Uj fur i 6= j.

Lemma 1.5 Es sei V ein euklidischer (unitarer) Vektorraum und U1, . . . , UsUnterraume von V . Gilt

(i) V = U1 + · · ·+ Us und

(ii) Ui ⊥ Uj fur i 6= j,

so ist V die orthogonale direkte Summe der Unterraume U1, . . . , Us.

Beweis. Wir haben zu zeigen: Ui∩Wi = {0}. Es sei v ∈ Ui∩Wi, v 6= 0. Danngilt

v = u1 + · · ·+ ui−1 + ui+1 + · · ·+ us mit uj ∈ Uj.

Da Ui ⊥ Uj fur i 6= j gilt, folgt dann

0 6= 〈v, v〉 = 〈v, u1〉+ · · ·+ 〈v, ui−1〉+ 〈v, ui+1〉+ · · ·+ 〈v, us〉 = 0,

ein Widerspruch. 2

Page 10: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

2 Normierte Vektorraume 10

2 Normierte Vektorraume

Es sei K = R,C und V ein K-Vektorraum. Ist 〈 , 〉 : V × V → K eine sym-metrische Bilinearform (hermitesche Sesquilinearform), so erhalt man darauseine Abbildung

q : V −→ Kv 7−→ q(v) := 〈v, v〉 .

Sie heißt die zu 〈 , 〉 gehorige quadratische Form.Man kann 〈 , 〉 aus q zuruckgewinnen. Dies nennt man Polarisierung:

K = R : 〈v, w〉 =1

4(q(v + w)− q(v − w)) ,

K = C : 〈v, w〉 =1

4(q(v + w)− q(v − w) + iq(v + iw)− iq(v − iw)) .

(Beweis durch Nachrechnen.)

Definition Es sei V ein K-Vektorraum. Unter einer Norm auf V verstehtman eine Funktion

|| || : V −→ Rv 7−→ ||v||

mit folgenden Eigenschaften:

(i) ||v|| ≥ 0, ||v|| = 0⇔ v = 0,

(ii) ||λv|| = |λ| · ||v|| fur alle λ ∈ K, v ∈ V .

(iii) ||v + w|| ≤ ||v||+ ||w|| fur alle v, w ∈ V (Dreiecksungleichung).

Ein normierter Vektorraum ist ein Paar (V, || ||), das aus einem VektorraumV und einer Norm || || auf V besteht.

Definition Es sei X eine Menge. Unter einer Metrik auf X versteht maneine Abbildung

d : X ×X −→ R(x, y) 7−→ d(x, y)

mit folgenden Eigenschaften:

(i) d(x, y) = 0⇔ x = y

(ii) d(x, y) = d(y, x) fur alle x, y ∈ X (Symmetrie)

(iii) d(x, z) ≤ d(x, y) + d(y, z) fur alle x, y, z ∈ X (Dreiecksungleichung).

Page 11: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

2 Normierte Vektorraume 11

Ein metrischer Raum ist ein Paar (X, d), X Menge, d Metrik. Man nenntd(x, y) den Abstand oder die Distanz der Punkte x und y bzgl. d.

Bemerkung 2.1 Aus den Axiomen folgt, dass d(x, y) ≥ 0 fur alle x, y ∈ X.

Beweis. Wende Dreiecksungleichung auf x, y, x an:

0(i)= d(x, x) ≤ d(x, y) + d(y, x)

(ii)= 2d(x, y).

2

Satz 2.1 Es sei (V, || ||) ein normierter Vektorraum. Dann wird durch

d(x, y) := ||x− y|| fur x, y ∈ V

eine Metrik d auf V definiert.

Beweis.

(i) d(x, y) = 0⇔ ||x− y|| = 0⇔ x− y = 0⇔ x = y.

(ii) d(x, y) = ||x− y|| = | − 1| ||x− y|| = ||y − x|| = d(y, x).

(iii) d(x, z) = ||x−z|| = ||x−y+y−z|| ≤ ||x−y||+||y−z|| = d(x, y)+d(y, z).

2

Satz 2.2 Ist (V, 〈 , 〉) ein euklidischer (unitarer) Vektorraum, so wird durch

‖v‖ :=√〈v, v〉

eine Norm auf V definiert.

Fur den Beweis dieses Satzes brauchen wir das folgende Resultat:

Satz 2.3 (Cauchy-Schwarzsche Ungleichung) Fur v, w ∈ V gilt

|〈v, w〉| ≤ ‖v‖‖w‖

und Gleichheit gilt genau dann, wenn v und w linear abhangig sind.

Beweis. Fur w = 0 sind beide Seiten der Ungleichung gleich 0, die Unglei-chung ist daher erfullt. Es genugt daher, den Fall w 6= 0 zu behandeln.

Fur λ, µ ∈ K gilt

0 ≤ 〈λv + µw, λv + µw〉= λλ〈v, v〉+ λµ〈v, w〉+ λµ〈w, v〉+ µµ〈w,w〉.

Page 12: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

3 Normalform orthogonaler und unitarer Endomorphismen 12

Setzen wir nun λ := 〈w,w〉 und µ := −〈v, w〉, so folgt

0 ≤ λ(〈v, v〉〈w,w〉 − 〈v, w〉〈v, w〉) = λ(‖v‖2‖w‖2 − |〈v, w〉|2).

Wegen λ ≥ 0 folgt daraus

0 ≤ ‖v‖2‖w‖2 − |〈v, w〉|2.

Nun ziehen wir auf beiden Seiten die Quadratwurzel. Dann bleibt das Un-gleichheitszeichen erhalten und wir erhalten die behauptete Ungleichung.

Fur den Beweis des Zusatzes bemerken wir (fur λ := 〈w,w〉 und µ :=−〈v, w〉) :

|〈v, w〉| = ‖v‖‖w‖⇔ 〈λv + µw, λv + µw〉 = 0

⇔ λv + µw = 0

⇔ v = −µλw.

Man beachte, dass dies der gleiche Beweis wie fur I, Satz 3.4 ist, nur dass wirstatt einer symmetrischen Bilinearform auch eine hermitesche Sesquilinear-form zugelassen haben. 2

Beweis von Satz 2.2. (i) und (ii) sind einfach (siehe Vorlesung).(iii): Um die Dreiecksungleichung√

〈v + w, v + w〉 ≤√〈v, v〉+

√〈w,w〉

zu beweisen, geht man durch Quadrieren zu der aquivalenten Ungleichung

〈v + w, v + w〉 ≤ 〈v, v〉+ 2√〈v, v〉〈w,w〉+ 〈w,w〉

uber, die gleichbedeutend ist mit

〈v, v〉+ 2|〈v, w〉|+ 〈w,w〉 ≤ 〈v, v〉+ 2√〈v, v〉〈w,w〉+ 〈w,w〉.

Diese Ungleichung ist aquivalent zu der Cauchy-Schwarzschen Ungleichung.2

3 Normalform orthogonaler und unitarer En-

domorphismen

Nun sei im Folgenden wieder K = R,C und (V, 〈 , 〉) ein euklidischer(unitarer) Vektorraum. Wir erinnern an die folgende Definition.

Page 13: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

3 Normalform orthogonaler und unitarer Endomorphismen 13

Definition Es sei V ein euklidischer (unitarer) Vektorraum. Ein Endomor-phismus f : V → V heißt orthogonal (unitar), falls gilt:

〈f(v), f(w)〉 = 〈v, w〉 fur alle v, w ∈ V.

Theorem 3.1 Es sei V ein unitarer Vektorraum der Dimension n und f :V → V ein unitarer Endomorphismus. Dann besitzt V eine ON-Basis, dieaus Eigenvektoren von f besteht. Insbesondere ist f diagonalisierbar.

Beweis. Der zugrundeliegende Korper ist C und die Eigenwerte von f sinddie Nullstellen des charakteristischen Polynoms Pf (x), das ein komplexesPolynom ist. Nach dem Fundamentalsatz der Algebra hat Pf (x) genau nNullstellen λ1, . . . λn ∈ C. Also gilt

Pf (x) = (x− λ1) · · · (x− λn).

Wir fuhren nun Induktion nach n = dimV durch.Der Induktionsanfang n = 1 ist klar.Wir nehmen nun an, dass die Behauptung bereits fur n − 1 bewiesen

ist. Es sei v1 ein Eigenvektor von f zum Eigenwert λ1. Ohne Einschrankungkonnen wir annehmen, dass ‖v1‖ = 1. Es sei

W := Span{v1}⊥ = {w ∈ V | 〈v1, w〉 = 0}.

Dann gilt nach Satz 1.4

V = Span{v1} ⊥ W.

Behauptung f(W ) = W .

Beweis. Da f ein Isomorphismus ist, reicht es zu zeigen: f(W ) ⊆ W . NachI, Satz 21.1 (v), gilt |λ1| = 1. Damit gilt fur w ∈ W :

λ1〈v1, f(w)〉 = 〈λ1v1, f(w)〉 = 〈f(v1), f(w)〉 = 〈v1, w〉 = 0.

Da λ1 6= 0 folgt 〈v1, f(w)〉 = 0, also f(w) ∈ W . 2

Nun betrachten wir den Endomorphismus f |W : W → W . Da f |W die Ein-schrankung eines unitaren Endomorphismus ist, ist f |W auch wieder unitar.Da dimW = n − 1 konnen wir auf f |W : W → W die Induktionsvorausset-zung anwenden. Danach besitzt W eine ON-Basis {v2, . . . , vn} aus Eigenvek-toren. Dann ist

B := {v1, v2, . . . , vn}eine ON-Basis von V aus Eigenvektoren. 2

Page 14: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

3 Normalform orthogonaler und unitarer Endomorphismen 14

Korollar 3.1 Eine unitare Matrix A ist diagonalisierbar. Genauer gilt: Esgibt eine unitare Matrix S mit

STAS =

λ1 0 · · · 00 λ2 · · · 0...

.... . .

...0 0 · · · λn

.

Hierbei gilt |λi| = 1 fur i = 1, . . . , n.

Beweis. Siehe Vorlesung. 2

In LA I hatten wir bereits orthogonale Abbildungen f : Rn → Rn betrach-tet und fur n = 1, 2, 3 klassifiziert. Allgemeiner wollen wir nun beweisen:

Theorem 3.2 Es sei V ein euklidischer Vektorraum der Dimension n undf : V → V ein orthogonaler Endomorphismus. Dann besitzt V eine ON-BasisB, bezuglich der f die Darstellungsmatrix

MBB (f) =

+1. . .

+1 0−1

. . .

−1

0 A1

. . .

Ak

,

besitzt, wobei fur j = 1, . . . , k

Aj =

(cosαj − sinαjsinαj cosαj

)mit αj ∈ [0, 2π), aber αj 6= 0, π.

Fur den Beweis dieses Theorems brauchen wir ein Lemma.

Lemma 3.1 Jedes Polynom P (x) mit reellen Koeffizienten besitzt eine Zer-legung

P (x) = (x− λ1) · · · (x− λr)Q1(x) · · ·Qk(x),

wobei λ1, . . . , λr ∈ R und Q1(x), . . . , Qk(x) Polynome vom Grad 2 sind, diekeine reelle Nullstelle haben.

Page 15: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

3 Normalform orthogonaler und unitarer Endomorphismen 15

Beweis. Das Polynom P (x) hat n komplexe Nullstellen. Ist λ ∈ C eine Null-stelle von P (x), so auch λ:

P (λ) = a0 + a1λ+ · · ·+ anλn

= a0 + a1λ+ · · ·+ anλn

= P (λ) = 0 = 0.

Also hat man eine Zerlegung

P (x) = (x− λ1) · · · (x− λr)(x− µ1)(x− µ1) · · · (x− µk)(x− µk),

wobei λ1, . . . , λr ∈ R und µ1, . . . , µk 6∈ R. Es sei j = 1, . . . , k und µj = ξj+iηjmit ξj, ηj ∈ R. Setze

Qj(x) = (x− µj)(x− µj) = x2 − 2ξjx+ (ξ2j + η2

j ).

2

Beweis von Theorem 3.2. Wir fuhren Theorem 3.2 auf Theorem 3.1 zuruck.Dazu komplexifizieren wir f . Es sei B′ irgendeine ON-Basis von V und A :=MB′

B′ (f) die Darstellungsmatrix von f bezuglich B′. Dann ist A orthogonalund als reelle Matrix auch unitar. Also ist der Endomorphismus

A : Cn → Cn, z 7→ Az,

unitar. Es sei

PA(x) = P (x) = (x− λ1) · · · (x− λr)(x− µ1)(x− µ1) · · · (x− µk)(x− µk)

die Zerlegung des charakteristischen Polynoms von A, die nach Lemma 3.1existiert. Nach I, Satz 21.1 (v) gilt λi = ±1, i = 1, . . . , r, µj = cosαj+i sinαj,αj ∈ [0, 2π), αj 6= 0, π, j = 1, . . . , k. Nach Theorem 3.1 erhalten wir fur A eine

ON-Basis B von Cn von Eigenvektoren von A. Es sei nun z ein Eigenvektor zueinem nicht reellen Eigenwert µ. Dann ist z ein Eigenvektor zum Eigenwertµ, denn

Az = Az = µz = µ z.

Deswegen konnen wir die Basis B so anordnen:

v1, . . . , vp die Eigenvektoren zum Eigenwert + 1,

w1, . . . , wq die Eigenvektoren zum Eigenwert − 1,

z1, . . . , zk die Eigenvektoren zu den Eigenwerten µ1, . . . , µk,

z1, . . . , zk die Eigenvektoren zu den Eigenwerten µ1, . . . , µk.

Da A reell ist, liegen die Eigenvektoren v1, . . . , vp, w1, . . . , wq in Rn.

Page 16: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

3 Normalform orthogonaler und unitarer Endomorphismen 16

Zu einem Paar z, z von Eigenvektoren zu µ, µ konstruieren wir nun einenunter A invarianten Unterraum W ⊆ Rn. Dazu sei

z = x+ iy, x, y ∈ Rn

undW := Span{x, y} ⊆ Rn.

Behauptung A(W ) = W

Beweis. Es gilt

0 = 〈z, z〉 = 〈x+ iy, x− iy〉 = 〈x, x〉 − 〈y, y〉+ 2i〈x, y〉1 = 〈z, z〉 = 〈x+ iy, x+ iy〉 = 〈x, x〉+ 〈y, y〉.

Daraus folgt 〈x, x〉 = 〈y, y〉 = 12

und 〈x, y〉 = 0. Aus µ = cosα + i sinα,x = 1

2(z + z), y = 1

2i(z − z) folgt

Ax =1

2(Az + Az) =

1

2(µz + µ z) = cosαx− sinαy,

Ay =1

2i(Az − Az) =

1

2i(µz − µ z) = sinαx+ cosαy.

2

Nun setzen wirx′ :=

√2x, y′ := −

√2y.

Bezuglich der ON-Basis {x′, y′} von W wird die Einschrankung von A aufW beschrieben durch die Matrix(

cosα − sinαsinα cosα

).

Damit haben wir eine Orthonormalbasis

B′′ := {v1, . . . , vp, w1, . . . , wq, x′1, y

′1, . . . , x

′k, y

′k}

von Rn gefunden, bezuglich der die Abbildung A : Rn → Rn die in Theo-rem 3.2 angegebene Gestalt hat. Die Transformationsmatrix, die die Stan-dardbasis des Rn in die Basis B′′ des Rn transformiert, transformiert danndie Basis B′ von V in eine ON-Basis B von V mit den gewunschten Eigen-schaften. 2

Page 17: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

4 Normalform selbstadjungierter Endomorphismen 17

4 Normalform selbstadjungierter Endomor-

phismen

Es sei V ein euklidischer (unitarer) Vektorraum. In LA I hatten wir bereitsselbstadjungierte Endomorphismen betrachtet. Wir erinnern an die Definiti-on.

Definition Ein Endomorphismus f : V → V heißt selbstadjungiert, falls

〈f(v), w〉 = 〈v, f(w)〉 fur alle v, w ∈ V.

In LA I hatten wir bewiesen:

Theorem 4.1 Es sei V ein euklidischer (unitarer) Vektorraum und f : V →V ein selbstadjungierter Endomorphismus. Dann besitzt V eine ON-Basis,die aus Eigenvektoren von f besteht.

Korollar 4.1 Ist A ∈ Mat(n, n;K) eine symmetrische bzw. hermitescheMatrix, so gibt es eine orthogonale bzw. unitare Matrix S, so dass

STAS =

λ1 0. . .

0 λn

mit λ1, . . . , λn ∈ R.

Wir halten noch das folgende Korollar fest.

Korollar 4.2 Es sei V ein euklidischer (unitarer) Vektorraum, f : V → Vein selbstadjungierter Endomorphismus und λ1, . . . , λk die paarweise ver-schiedenen Eigenwerte. Dann ist

V = Eig(f, λ1) ⊥ . . . ⊥ Eig(f, λk).

Beweis. Aus dem Theorem folgt, dass V die direkte Summe der Eigenraumeist. Es bleibt zu zeigen: Eig(f, λi) ⊥ Eig(f, λj) fur alle i 6= j, i, j = 1, . . . , k.

Dazu sei v ∈ Eig(f, λi), w ∈ Eig(f, λj), i 6= j. Dann gilt

λi〈v, w〉 = 〈λiv, w〉 = 〈f(v), w〉 = 〈v, f(w)〉 = 〈v, λjw〉 = λj〈v, w〉.

Daraus folgt(λi − λj)〈v, w〉 = 0,

also 〈v, w〉 = 0. 2

Page 18: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

5 Symmetrische Bilinearformen 18

5 Symmetrische Bilinearformen

Es sei nun V ein endlich dimensionaler reeller Vektorraum mit einer symme-trischen Bilinearform

〈 , 〉 : V × V → R.

(Diese Bilinearform braucht nicht positiv definit zu sein.) Wie wir bereitsgesehen haben, entspricht dieser Bilinearform eine quadratische Form

q : V → R, q(v) = 〈v, v〉.

Bezuglich einer Basis B = {v1, . . . , vn} von V wird 〈 , 〉 dargestellt durch dieMatrix

A = (aij), aij = 〈vi, vj〉.

Nach der Transformationsformel andert sich bei einem Basiswechsel mit Trans-formationsmatrix S ∈ GL(n; R) die Darstellungsmatrix wie folgt:

A 7→ STAS.

Nach dem Satz uber die Hauptachsentransformation gibt es eine orthogonaleMatrix S mit

STAS = S−1AS =

λ1 0 · · · 00 λ2 · · · 0...

.... . .

...0 0 · · · λn

, (λ1, . . . , λn ∈ R).

Wir fragen nun nach einer Normalform, wenn wir allgemeiner S ∈ GL(n; R)zulassen.

Satz 5.1 Es sei 〈 , 〉 : V × V → R eine symmetrische Bilinearform. Danngibt es eine Basis B von V , bezuglich der 〈 , 〉 dargestellt wird durch Ek 0

−El0 0

.

Beweis. Nach dem Satz uber die Hauptachsentransformation gibt es eineBasis B′ = {w1, . . . , wn}, bezuglich der die darstellende Matrix wie folgt

Page 19: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

5 Symmetrische Bilinearformen 19

aussieht:

λ1

...λk

0

λk+1

...λk+l

00

...0

, λi

{> 0 fur i ≤ k,< 0 fur k < i ≤ k + l.

Wir setzen

vi :=

{1√|λi|wi fur 1 ≤ i ≤ k + l,

wi sonst.

Dann gilt:

〈vi, vi〉 =

+1 fur 1 ≤ i ≤ k,−1 fur k < i ≤ k + l,0 sonst.

Also hat 〈 , 〉 bezuglich der Basis B = {v1, . . . , vn} die gewunschte Gestalt.2

Definition Es sei 〈 , 〉 : V × V → R eine symmetrische Bilinearform. DieMenge

V0 := {v ∈ V | 〈v, w〉 = 0 fur alle w ∈ V }

heißt das Radikal (oder der Nullraum) von 〈 , 〉. Es ist ein Unterraum vonV .

Korollar 5.1 Es sei 〈 , 〉 : V × V → R eine symmetrische Bilinearform.Dann gibt es eine Zerlegung

V = V+ ⊕ V− ⊕ V0,

in Unterraume, so dass gilt:

(i) Die Zerlegung ist orthogonal bezuglich 〈 , 〉.

(ii) 〈v, v〉 > 0 fur 0 6= v ∈ V+, 〈v, v〉 < 0 fur 0 6= v ∈ V−.

Beweis. Es sei B = {v1, . . . , vn} eine Basis wie in Satz 5.1. Setze

V+ := Span{v1, . . . , vk}, V− := Span{vk+1, . . . , vk+l}.

Page 20: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

5 Symmetrische Bilinearformen 20

Dann bleibt zu zeigen, dass V0 = Span{vk+l+1, . . . , vn}. Die Inklusion

Span{vk+l+1, . . . , vn} ⊆ V0

ist klar. Es sei umgekehrt v ∈ V0. Dann gilt

v = µ1v1 + · · ·+ µk+lvk+l + µk+l+1vk+l+1 + · · ·+ µnvn.

Fur i ∈ {1, . . . , k + l} gilt aber 〈v, vi〉 = ±µi = 0. Daraus folgt µi = 0. 2

Wie der Beweis zeigt, hangt die Zerlegung von einer Basis B von V ab.Ist A die Darstellungsmatrix von 〈 , 〉 bezuglich dieser Basis, so gilt

dimV+ = Anzahl der positiven Eigenwerte von A,

dimV− = Anzahl der negativen Eigenwerte von A.

Der Tragheitssatz von Sylvester besagt, dass diese Zahlen tatsachlich un-abhangig von der Wahl von B sind.

Satz 5.2 (Tragheitssatz von Sylvester) Es sei 〈 , 〉 : V × V → R einesymmetrische Bilinearform, B eine Basis von V und A die Darstellungsma-trix von 〈 , 〉 bezuglich B. Dann sind die Zahlen

k := Anzahl der positiven Eigenwerte von A,

l := Anzahl der negativen Eigenwerte von A

unabhangig von der Auswahl von B.

Beweis. Es sei B′ eine andere Basis, k′, l′ die entsprechenden Anzahlen und

V = V+ ⊕ V− ⊕ V0 = V ′+ ⊕ V ′

− ⊕ V0

die entsprechenden zugehorigen Zerlegungen nach Korollar 5.1. Da die An-zahl der von Null verschiedenen Eigenwerte gleich dimV − dimV0 ist unddamit nicht von der Auswahl der Basis abhangt, gilt k + l = k′ + l′. Daherreicht es, l = l′ zu zeigen.

Angenommen, es gibt

0 6= v ∈ V+ ∩ (V ′− ⊕ V0).

Dann gilt 〈v, v〉 > 0 und v = v′− + v0 mit v′− 6= 0. Dann folgt aber

〈v, v〉 = 〈v′−, v′−〉+ 〈v0, v0〉 = 〈v′−, v′−〉 < 0,

ein Widerspruch. Also gilt V+ ∩ (V ′− ⊕ V0) = {0} und aus Satz 1.2 folgt

k + l′ + dimV0 ≤ dimV, also k + l′ ≤ k + l, d.h. l′ ≤ l.

Durch Vertauschen der Rollen von l und l′ folgt l ≤ l′, also l = l′ und k = k′.2

Page 21: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

5 Symmetrische Bilinearformen 21

Definition Die Zahl k nennt man auch den Index, die Zahl k−l die Signaturder symmetrischen Bilinearform 〈 , 〉.

Korollar 5.2 Eine symmetrische Bilinearform ist genau dann positiv defi-nit, wenn alle Eigenwerte einer Darstellungsmatrix positiv sind.

Definition Eine symmetrische Matrix A ∈ Mat(n, n; R) heißt positiv de-finit, in Zeichen A > 0, falls die zugehorige Form 〈 , 〉A positiv definit ist,d.h.

xTAx > 0 fur alle x ∈ Rn, x 6= 0.

Korollar 5.3 Eine symmetrische Matrix A ∈ Mat(n, n; R) ist genau dannpositiv definit, wenn alle Eigenwerte positiv sind.

Wir wollen zum Abschluss noch ein anderes Kriterium dafur angeben,dass eine symmetrische Matrix A = (aij) positiv definit ist. Dazu bezeichnenwir mit

Ak :=

a11 · · · a1k...

. . ....

ak1 · · · akk

die linke obere k × k-Teilmatrix von A. Die Determinante detAk bezeichnetman auch als Hauptminor von A.

Satz 5.3 (Hurwitz-Kriterium) Es sei A ∈ Mat(n, n; R) eine symmetri-sche Matrix. Dann gilt:

A positiv definit ⇔ detAk > 0 fur 1 ≤ k ≤ n.

Beweis. ” ⇒”: Wir zeigen zunachst

detA = detAn > 0.

Da A positiv definit ist, gibt es ein S ∈ GL(n; R) mit

STAS =

1 0. . .

0 1

.

Also folgt

1 = det(STAS) = detA(detS)2, also detA > 0.

Page 22: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

5 Symmetrische Bilinearformen 22

Um nun detAk > 0 fur 1 ≤ k < n zu zeigen, betrachten wir

Uk := {x ∈ Rn |xk+1 = . . . = xn = 0} ⊆ Rn.

Die Form 〈 , 〉A definiert durch Einschrankung eine Form 〈 , 〉k : Uk×Uk → Rmit Darstellungsmatrix Ak. Da auch 〈 , 〉k positiv definit ist, folgt detAk > 0.

”⇐”: Wir fuhren Induktion uber n durch. Der Induktionsanfang n = 1ist klar. Nach Induktionsvoraussetzung ist An−1 positiv definit. Also gibt esein S ′ ∈ GL(n− 1; R) mit

(S ′)TAn−1S′ =

1 0. . .

0 1

= En−1.

Es sei

S :=

S ′0...0

0 · · · 0 1

∈ GL(n; R).

Es gilt

STAS =

1 b1

. . ....

1 bn−1

b1 · · · bn−1 bn

=: B

unddetB = (detS)2 detA > 0.

Es genugt zu zeigen, dass B positiv definit ist. Dazu setze

T :=

1 −b1

. . ....

1 −bn−1

0 · · · 0 1

∈ GL(n; R).

Dann ist

T TBT =

1 0

. . ....

1 00 · · · 0 cn

=: C.

Nun istdetC = (detT )2 detB = detB > 0

und damit cn > 0. Also ist C positiv definit und damit auch B und A. 2

Page 23: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

6 Das Minimalpolynom 23

6 Das Minimalpolynom

Wir kommen nun auf das schon in LA I betrachtete Problem zuruck, fur dieDarstellungsmatrix eines Endomorphismus f : V → V eines K-Vektorraumseine Normalform zu finden. Dabei spielt neben dem charakteristischen Po-lynom ein anderes Polynom eine Rolle, das wir nun einfuhren wollen. Dazumachen wir zunachst einen Exkurs uber den Polynomring.

Es sei K ein beliebiger Korper. Dann betrachten wir den Polynomring ineiner Variablen uber K:

K[x] := {a0 + a1x+ · · ·+ anxn | ai ∈ K}.

AufK[x] ist eine Addition und eine Multiplikation erklart. Es sei P (x), Q(x) ∈K[x],

P (x) = a0 + a1x+ · · ·+ anxn, Q(x) = b0 + b1x+ · · ·+ bmx

m.

O. B. d. A. sei n ≤ m. Zur Definition der Addition setzen wir an+1 = . . . am =0. Dann definieren wir

P (x) +Q(x) := (a0 + b0) + (a1 + b1)x+ · · ·+ (am + bm)xm.

Die Multiplikation ist dadurch erklart, dass man formal ausmultipliziert:

P (x) ·Q(x) = (a0 + a1x+ · · ·+ anxn) · (b0 + b1x+ · · ·+ bmx

m)

:= a0b0 + (a0b1 + a1b0)x+ · · ·+ anbmxn+m

= c0 + c1x+ · · ·+ cn+mxn+m

mit

ck :=k∑i=0

aibk−i.

Statt P (x) und Q(x) schreiben wir von nun an auch P und Q.

Satz 6.1 Mit dieser Addition und Multiplikation wird K[x] zu einem kom-mutativen Ring mit Einselement.

Beweis. Die Axiome sind leicht nachzuprufen. Was ist das Einselement? 2

Das Nullpolynom (alle Koeffizienten ai = 0) bezeichnen wir mit 0.

Definition Der Grad eines Polynoms

P (x) = a0 + a1x+ · · ·+ anxn mit an 6= 0

ist die Zahl n (n = degP ). Den Grad des Nullpolynoms definieren wir alsdeg(0) := −∞. Das Polynom P heißt normiert, falls an = 1 ist.

Page 24: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

6 Das Minimalpolynom 24

Satz 6.2 (Gradformel) Fur P,Q ∈ K[x] gilt:

deg(P ·Q) = degP + degQ.

Dabei soll formal n−∞ = m−∞ = −∞−∞ = −∞ gelten.

Beweis. Dies folgt aus cn+m = anbm 6= 0 falls an 6= 0 und bm 6= 0. 2

Satz 6.3 (Division mit Rest) Es seien P,Q ∈ K[x] mit P,Q 6= 0. Danngibt es eindeutig bestimmte Polynome q, r mit

(i) P = Qq + r,

(ii) deg r < degQ.

Beweis. Wir zeigen zunachst die Eindeutigkeit. Es seien q, q′, r, r′ ∈ K[x] mit

P = Qq + r = Qq′ + r′, deg r, deg r′ < degQ.

Dann folgtQ(q − q′) = r′ − r.

1.Fall: q = q′ ⇒ r = r′.2.Fall: q 6= q′. Dann ist

deg(r′ − r) = degQ+ deg(q − q′) ≥ degQ

im Widerspruch zu deg(r′ − r) ≤ max{deg r, deg r′} < degQ.Nun beweisen wir die Existenz von q und r. Wenn es ein q ∈ K[x] gibt

mitP = Qq,

so konnen wir r = 0 setzen und die Behauptung ist bewiesen. Andernfallsbetrachten wir die Menge

M := {deg(P −Qp) | p ∈ K[x]} ⊆ N = {0, 1, 2, . . .}.

Diese Menge besitzt ein Minimum in N. Es sei q ∈ K[x] mit

deg(P −Qq) ≤ deg(P −Qp) fur alle p ∈ K[x].

Es sei fernerr := P −Qq,

d.h.P = Qq + r.

Page 25: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

6 Das Minimalpolynom 25

Es bleibt zu zeigen: deg r < degQ. Angenommen, deg r ≥ degQ. Es sei

Q = b0 + b1x+ · · ·+ bmxm (bm 6= 0),

r = c0 + c1x+ · · ·+ ckxk (ck 6= 0).

Dann ist nach Annahme k ≥ m. Es sei

p := q +ckbmxk−m ∈ K[x].

Dann istP −Qp = P −Qq −Q ck

bmxk−m = r −Q ck

bmxk−m.

Es ist also

P −Qp = ckxk − bm

ckbmxk + Terme der Ordnung < k.

Daher folgtdeg(P −Qp) < k = deg r = deg(P −Qq).

im Widerspruch zur Wahl von q. 2

Dies fuhrt zu dem schon aus der Schule bekannten Verfahren zur Poly-nomdivision (siehe Vorlesung und Ubungen).

In Polynome konnen wir nun Korperelemente einsetzen. Ist

P (x) = a0 + a1x+ · · ·+ anxn ∈ K[x]

und λ ∈ K, so setzen wir

P (λ) := a0 + a1λ+ · · ·+ anλn ∈ K.

Auf diese Weise definiert P (x) eine Funktion

P : K −→ Kλ 7−→ P (λ)

.

Damit erhalten wir eine Abbildung

˜ : K[x] −→ Abb(K,K)

P 7−→ P.

Warnung Wir mussen zwischen Polynomen P und Polynomfunktionen Punterscheiden, denn bei endlichen Korpern konnen Unterschiede auftreten:Ist z.B. K = F2 und P (x) = x2 + x, so ist P die Nullfunktion, da P (0) =P (1) = 1 + 1 = 0. Also ist in diesem Fall die Abbildung ˜ nicht injektiv.

Page 26: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

6 Das Minimalpolynom 26

Definition Ist 0 6= P ∈ K[x] und λ ∈ K, so dass P (λ) = 0 gilt, so heißt λeine Nullstelle von P .

Korollar 6.1 Es sei 0 6= P ∈ K[x] und λ eine Nullstelle von P . Dann gibtes genau ein Polynom Q ∈ K[x] mit

P = Q(x− λ).

Es ist degQ = degP − 1.

Beweis. Wir dividieren P durch (x − λ) mit Rest: Nach Satz 6.3 gibt eseindeutig bestimmte Q, r ∈ K[x] mit

P = (x− λ)Q+ r, deg r < 1 = deg(xλ).

Also ist r(x) = a0 ∈ K. Setzen wir λ in diese Gleichung ein, so folgt

0 = P (λ) = (λ− λ)Q(λ) + a0 = a0,

also r = 0. 2

Korollar 6.2 Es sei 0 6= P ∈ K[x]. Dann ist die Anzahl der Nullstellen vonP hochstens gleich dem Grad von P .

Beweis. Wir fuhren Induktion uber den Grad n := degP . Fur n = 0 ist Peine konstantes Polynom P (x) = a0 6= 0 und das hat gar keine Nullstelle.Damit ist die Behauptung fur n = 0 bewiesen.

Nun sei degP = n ≥ 1 und die Behauptung sei schon fur alle Polyno-me Q ∈ K[x] mit degQ ≤ n − 1 bewiesen. Hat P keine Nullstelle, so istdie Behauptung richtig. Andernfalls sei λ ∈ K eine Nullstelle von P . NachKorollar 6.1 gibt es dann ein Q ∈ K[x] mit

P = (x− λ)Q und degQ = n− 1.

Alle von λ verschiedenen Nullstellen von P mussen auch Nullstellen von Qsein. Nach Induktionsannahme hat Q hochstens n− 1 verschiedene Nullstel-len, also P hochstens n verschiedene Nullstellen. 2

Korollar 6.3 Hat K unendlich viele Elemente, so ist die Abbildung

˜ : K[x]→ Abb(K,K), P 7→ P ,

injektiv.

Page 27: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

6 Das Minimalpolynom 27

Beweis. Es seien P1, P2 ∈ K[x] mit P1 = P2. Betrachte Q := P1 − P2. Dann

ist Q = 0, also hat Q unendlich viele Nullstellen. Aus Korollar 6.2 folgt damitQ = 0, also P1 = P2. 2

Satz 6.4 Es sei K ein unendlicher Korper. Jedes Polynom 0 6= P ∈ K[x]besitzt eine Darstellung

P = (x− λ1)ν1 · · · (x− λr)νr ·Q,

wobei λ1, . . . , λr paarweise verschieden sind und Q ein Polynom ohne Null-stellen ist. Diese Darstellung ist bis auf die Reihenfolge der Faktoren eindeu-tig.

Definition Man nennt νi die Ordnung oder Vielfachheit der Nullstelle λi.

Fur den Beweis des Satzes brauchen wir ein Lemma.

Lemma 6.1 Es sei K ein unendlicher Korper und P,Q ∈ K[x] Polynomemit P (λ) 6= 0, Q(λ) 6= 0. Gilt

(x− λ)νP (x) = (x− λ)µQ(x)

fur alle x ∈ K, so ist ν = µ.

Beweis. O. B. d. A. sei ν ≥ µ. Dann gilt

(x− λ)ν−µP (x)−Q(x) = 0 (fur x 6= λ).

Da K unendlich viele Elemente enthalt, gilt fur die Polynome

(x− λ)ν−µP −Q = 0.

Falls ν > µ, ware Q(λ) = 0, ein Widerspruch. 2

Beweis von Satz 6.4. Die Existenz der Darstellung folgt aus Korollar 6.1.Zum Beweis der Eindeutigkeit: Die λi sind genau die Nullstellen von P ,

liegen also eindeutig fest. Die Eindeutigkeit der νi folgt aus Lemma 6.1. Esbleibt die Eindeutigkeit von Q zu zeigen. Dazu sei

(x− λ1)ν1 · · · (x− λr)νrQ = (x− λ1)

ν1 · · · (x− λr)νrQ′.

Dann gilt fur alle x 6= λ1, . . . , λr

Q(x) = Q′(x).

Also hat Q−Q′ unendlich viele Nullstellen und es folgt Q = Q′. 2

Page 28: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

6 Das Minimalpolynom 28

Definition Man sagt, das Polynom 0 6= P ∈ K[x] zerfallt uber K, falls eseine Darstellung

P (x) = a(x− λ1)ν1 · · · (x− λr)νr (a ∈ K)

gibt.

Beispiel 6.1 Das Polynom P (x) = 1 + x2 zerfallt nicht uber R, aber uberC:

P (x) = (x− i)(x+ i).

Satz 6.5 (Fundamentalsatz der Algebra) Jedes nicht konstante PolynomP ∈ C[x] besitzt eine Nullstelle.

Diesen Satz hat erstmals C. F. Gauß 1799 bewiesen. Heutzutage wird ermeist in der Vorlesung Funktionentheorie bewiesen, da man mit Methodendieser Vorlesung einen sehr knappen und eleganten Beweis geben kann.

Korollar 6.4 Jedes Polynom P ∈ C[x] zerfallt.

Definition Eine Teilmenge I eines Ringes R heißt ein Ideal, falls gilt:

(I1) I ⊆ R ist eine Untergruppe bezuglich der Addition.

(I2) Ist r ∈ R und s ∈ I, so ist auch r · s ∈ I.

Beispiel 6.2 I := 〈P1, . . . , Pn〉 := {Q1P1 + · · ·+QnPn |Qi ∈ R}.

Definition I = 〈P1, . . . , Pn〉 heißt das von P1, . . . , Pn erzeugte Ideal.

Definition Ein Ideal I heißt Hauptideal, falls es von einem Element erzeugt,wird, d.h. I = 〈P 〉 = {QP |Q ∈ R} fur ein P ∈ R.

Lemma 6.2 Es seien R,R′ Ringe und f : R → R′ ein Ringhomomorphis-mus. Dann ist der Kern von f ein Ideal in R.

Beweis. Nach I, Satz 8.4, ist Ker f eine Untergruppe von R. Es sei r ∈ Rund s ∈ Ker f . Dann gilt

f(r · s) = f(r) · f(s) = f(r) · 0 = 0,

also r · s ∈ Ker f . 2

Satz 6.6 (i) K[x] ist ein Hauptidealring, d.h. jedes Ideal von K[x] ist einHauptideal.

Page 29: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

6 Das Minimalpolynom 29

(ii) Zu jedem Ideal I 6= {0} in K[x] gibt es genau ein normiertes PolynomP mit I = 〈P 〉.

Beweis. (i): Im Fall I = {0} ist I = 〈0〉. Es sei also I 6= {0}. Dann hat dieMenge

M := {degP | 0 6= P ∈ I} ⊆ N

ein Minimum m := minM . Es sei P ∈ I mit degP = m.

Behauptung I = 〈P 〉 = K[x] · P .

Beweis. Es gilt 〈P 〉 ⊆ I nach Definition eines Ideals.Es bleibt zu zeigen: I ⊆ 〈P 〉. Dazu sei Q ∈ I beliebig. Nach Satz 6.3 gibt

es eine Darstellung

Q = qP + r, deg r < degP.

Ist r = 0, so ist Q ∈ 〈P 〉. Andernfalls folgt mit (I1) und (I2)

r = Q− qP ∈ I.

Wegen 0 ≤ deg r < degP = m ist dies ein Widerspruch zur Wahl von P . 2

(ii): Mit P liegt auch aP in I fur a ∈ K. Also kann man P als normiertannehmen. Es sei

I = 〈P 〉 = 〈P ′〉 mit P, P ′ normiert.

Dann gilt

P ′ = Q′P, P = QP ′ fur geeignete Q,Q′ ∈ K[x].

Es folgtP = QQ′P ⇔ P (1−QQ′) = 0.

Nach der Gradformel folgt daraus

degQQ′ = 0, also QQ′ = 1,

und damit sind Q und Q′ ebenfalls nach der Gradformel konstant. Da P, P ′

normiert sind, folgt Q = Q′ = 1, also P = P ′. 2

Nun wollen wir die Theorie auf Matrizen anwenden. Die Menge Mat(n, n;K)ist ein Vektorraum der Dimension n2 und obendrein ein Ring mit der Ma-trizenaddition und Matrizenmultiplikation. Wie ublich setzen wir fur A ∈Mat(n, n;K):

An = A · · ·A (n-mal), A0 = E.

Page 30: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

6 Das Minimalpolynom 30

Wir setzen nun Matrizen in Polynome ein, d.h. wir betrachten die Einset-zungsabbildung

ϕA : K[x] −→ Mat(n, n;K)P (x) =

∑ni=0 aix

i 7−→ P (A) :=∑n

i=0 aiAi .

Die Abbildung ϕA ist linear, also ein Homomorphismus von K-Vektorraumenund sogar ein Ringhomomorphismus:

(P +Q)(A) = P (A) +Q(A),

(λP )(A) = λP (A),

(P ·Q)(A) = P (A)Q(A).

Das Bild von ϕA ist der Untervektorraum

K[A] := Span{E,A,A2, . . .}

von Mat(n, n;K). Wir betrachten nun die Menge

IA := {P ∈ K[x] |P (A) = 0} = KerϕA.

Aus Lemma 6.2 folgt, dass IA ein Ideal in K[x] ist. Da K[x] ein Hauptideal-ring ist, gibt es (falls IA 6= {0}) genau ein normiertes Polynom µA ∈ K[x]mit

IA = 〈µA〉.

Satz 6.7 Es gibt genau ein normiertes Polynom 0 6= µA ∈ K[x] mit folgen-den Eigenschaften:

(i) µA(A) = 0.

(ii) Ist P ∈ K[x] ein Polynom mit P (A) = 0, so ist P = Q · µA.

(iii) Unter allen normierten Polynomen P ∈ K[x] mit P (A) = 0 hat µAminimalen Grad.

Definition Das Polynom µA ∈ K[x] heißt das Minimalpolynom von A.

Beweis. Wir zeigen zunachst IA 6= {0}. Es ist K[A] ⊆ Mat(n, n;K), also gilt

dimK[A] ≤ n2 =: N.

Daher sind die MatrizenE,A,A2, . . . , AN

Page 31: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

6 Das Minimalpolynom 31

linear abhangig, d.h. es gibt a0, a1, . . . , aN ∈ K, nicht alle gleich 0, mit

a0E + a1A+ · · ·+ aNAN = 0.

Also ist0 6= P (x) := a0 + a1x+ · · ·+ aNx

N ∈ IA.Nach Satz 6.6 ist dann

IA = 〈µA〉fur ein eindeutig bestimmtes normiertes Polynom µA 6= 0. 2

Beispiel 6.3 Es sei

A =

0 1 0

. . . . . .

0 10 0

∈ Mat(n, n;K).

Man rechnet leicht aus:

A2 =

0 0 1 0

. . . . . . . . .

0 0 10 0

0 0

, . . . , An = 0.

Daraus folgtµA(x) = xn.

Satz 6.8 Es giltdeg µA = dimK[A].

Beweis. Es sei m := dimK[A]. Dann sind

E,A,A2, . . . , Am

linear abhangig. Wie im Beweis von Satz 6.7 zeigt man, dass es ein (normier-tes) Polynom P ∈ K[x] gibt mit degP ≤ m und P (A) = 0. Also ist

deg µA ≤ m = dimK[A].

Es sei umgekehrt m′ = deg µA. Zum Beweis von dimK[A] ≤ m′ betrach-ten wir

U := Span{E,A, . . . , Am′−1}.

Page 32: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

6 Das Minimalpolynom 32

Dann sind E,A, . . . , Am′−1 linear unabhangig, denn andernfalls ware m′ =

deg µA nicht minimal. Also ist dimU = m′. Es genugt zu zeigen:

K[A] ⊆ U.

Dazu ist zu zeigen, dass

As ∈ V fur s ≥ m′.

Es seiµA(x) = a0 + a1x+ · · ·+ am′−1x

m′−1 + xm′.

Da µA(A) = 0 folgt

Am′= −a0E − · · · − am′−1A

m′−1 ∈ U.

Durch Multiplikation mit A auf beiden Seiten folgt dann aber auch

Am′+1 = −a0A− · · · − am′−1A

m′ ∈ U.

Die Behauptung folgt dann durch Induktion. 2

Korollar 6.5 Ist m = deg µA, so ist {E,A, . . . , Am−1} eine Basis von K[A].

Korollar 6.6 Eine Matrix A ∈ Mat(n, n;K) ist genau dann invertierbar,wenn µA(0) 6= 0 gilt. In diesem Fall liegt A−1 ∈ K[A].

Beweis. Es sei

µA(x) = a0 + a1x+ · · ·+ am−1xm−1 + xm

das Minimalpolynom von A. Dann gilt

a1A+ · · ·+ am−1Am−1 + Am = −a0E.

Setzen wirB := a1E + · · ·+ am−1A

m−2 + Am−1,

so folgtAB = −a0E.

Nach Korollar 6.5 ist B 6= 0. Ist A nicht invertierbar, so gilt detA = 0, alsoµA(0) = a0 = 0. Ist A invertierbar, so ist B = −a0A

−1 und µA(0) = a0 6= 0.2

Lemma 6.3 (Invarianz) Sind die Matrizen A,B ∈ Mat(n, n;K) ahnlich,dann stimmen die Minimalpolynome µA und µB uberein.

Page 33: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

6 Das Minimalpolynom 33

Beweis. Es sei P ∈ K[x] und B = S−1AS. Dann gilt

P (S−1AS) = a0E + a1S−1AS + · · ·+ am(S−1AS)m

= a0S−1ES + a1S

−1AS + · · ·+ amS−1AmS

= S−1P (A)S.

Daraus folgtP (A) = 0⇔ P (B) = P (S−1AS) = 0.

2

Damit konnen wir definieren:

Definition Es sei V ein endlich dimensionaler K-Vektorraum und f : V →V ein Endomorphismus. Dann ist das Minimalpolynom µf von f das Mini-malpolynom einer Darstellungsmatrix von f .

Nun zeigen wir, dass auch das charakteristische Polynom einer Matrix Ain IA liegt.

Satz 6.9 (Satz von Cayley-Hamilton) Es sei PA das charakteristischePolynom einer Matrix A ∈ Mat(n, n;K). Dann gilt

PA(A) = 0.

Daraus folgt unmittelbar:

Korollar 6.7 Das Minimalpolynom µA teilt das charakteristische PolynomPA einer Matrix A ∈ Mat(n, n;K).

Beweis von Satz 6.9. Wir wenden einen Trick an. Wir setzen

B(x) := (A− xE)T ∈ Mat(n, n;K[x]).

Dann giltdetB(x) = PA(x) ∈ K[x].

Nun ersetzen wir die Unbestimmte x durch die Matrix A und jeden Eintragaij durch die Matrix aijE. Das ergibt

B(A) =

a11E − A a21E · · · an1Ea12E a22E − A · · · an2E

......

. . ....

a1nE a2nE · · · annE − A

∈ Mat(n, n;K[A]).

Page 34: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

7 Diagonalisierbarkeit 34

Diese Matrix kann mit einem Spaltenvektor des Kn2multipliziert werden,

d.h. einem Spaltenvektor, dessen Eintrage wiederum Spaltenvektoren des Kn

sind. Insbesondere gilt

B(A)

e1...en

=

a11e1 − Ae1 + a21e2 + · · ·+ an1en...

a1ne1 + a2ne2 + · · ·+ annen − Aen

=

0...0

.

Nun sei B∗(x) ∈ Mat(n, n;K[x]) die zu B(x) adjungierte Matrix, die wir inLA I definiert haben. Ihre Eintrage sind entsprechend der Definition Polyno-me vom Grad ≤ n− 1, und es gilt

B∗(x)B(x) = (detB(x))E = PA(x)E.

Setzen wir nun A fur x ein, so folgt 0...0

= B∗(A)B(A)

e1...en

=

PA(A)e1...

PA(A)en

.

Also ist PA(A) = 0. 2

7 Diagonalisierbarkeit

Nun kommen wir zuruck auf das Problem, fur die Darstellungsmatrix einesEndomorphismus eines endlich dimensionalen K-Vektorraums eine Normal-form zu finden. Zunachst betrachten wir noch einmal die Diagonalisierbar-keit.

Es sei V ein K-Vektorraum der Dimension n und f : V → V ein Endo-morphismus.

Definition Es sei λ ein Eigenwert von f .

(i) Die algebraische Vielfachheit von λ, in Zeichen νalg(f, λ), ist die Viel-fachheit von λ als Nullstelle des charakteristischen Polynoms.

(ii) Die geometrische Vielfachheit von λ, in Zeichen νgeom(f, λ), ist die Di-mension des Eigenraums Eig(f, λ).

Lemma 7.1 Ist λ Eigenwert von f , so gilt

1 ≤ νgeom(f, λ) ≤ νalg(f, λ).

Page 35: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

7 Diagonalisierbarkeit 35

Beweis. Es sei (v1, . . . , vs) eine Basis von Eig(f, λ). Da λ Eigenwert von fist, gilt s ≥ 1. Wir erganzen diese Basis zu einer Basis

B = (v1, . . . , vs, vs+1, . . . , vn)

von V . Dann ist

A := MBB (f) =

λ 0. . .

0 λ

0 A′

.

Daraus folgtPf (x) = (x− λ)sPA′(x)

und damitνgeom(f, λ) = dim Eig(f, λ) = s ≤ νalg(f, λ).

2

Theorem 7.1 Es sei V ein n-dimensionaler K-Vektorraum und f : V → Vein Endomorphismus von V . Dann sind die folgenden Bedingungen aquivalent:

(i) f ist diagonalisierbar.

(ii) Das charakteristische Polynom zerfallt in Linearfaktoren und es giltνgeom(f, λ) = νalg(f, λ) fur alle Eigenwerte λ von f .

(iii) Sind λ1, . . . , λk die paarweise verschiedenen Eigenwerte von f , so ist

V = Eig(f, λ1)⊕ · · · ⊕ Eig(f, λk).

Beweis. (i) ⇒ (ii): Es sei f diagonalisierbar und λ1, . . . , λk die paarweiseverschiedenen Eigenwerte von f . Zu λi (i = 1, . . . , k) betrachten wir eineBasis

(v(i)1 , . . . , v(i)

si) von Eig(f, λi).

Setzen wir ri := νalg(f, λi), so gilt

s1 + · · ·+ sk = n, r1 + · · ·+ rn = n und si ≤ ri.

Daraus folgt aber si = ri fur alle i = 1, . . . , k.

Page 36: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

7 Diagonalisierbarkeit 36

(ii) ⇒ (iii): Es sei

W := Eig(f, λ1) + · · ·+ Eig(f, λk).

Nach I, Satz 19.3, und der Bedingung (iii) in Satz 1.5 folgt

W = Eig(f, λ1)⊕ · · · ⊕ Eig(f, λk).

Aus (ii) und Satz 1.6 (iii) folgt dann W = V .(iii) ⇒ (i): Fur jedes i = 1, . . . , k sei

(v(i)1 , . . . , v(i)

si) eine Basis von Eig(f, λi).

Nach Satz 1.6 (ii) ist dann

B := (v(1)1 , . . . , v(1)

s1, . . . , v

(k)1 , . . . , v(k)

sk)

eine Basis von V . Da sie nach Definition aus Eigenvektoren von f besteht,ist f diagonalisierbar. 2

Als Anwendung von Theorem 7.1 betrachten wir das Problem, zwei En-domorphismen mit einer gemeinsamen Basis zu diagonalisieren (simultaneDiagonalisierung).

Bemerkung 7.1 Angenommen, die Matrizen A,B ∈ Mat(n, n;K) lassensich simultan diagonalisieren. Das bedeutet, dass es eine Matrix S ∈ GL(n;K)gibt mit

SAS−1 = D und SBS−1 = D,

wobei D und D Diagonalmatrizen sind. Dann gilt

BA = S−1DSS−1DS = S−1DDS = S−1DDS = S−1DSS−1DS = AB.

Das bedeutet, dass A und B kommutieren mussen.

Satz 7.1 Sind f, g diagonalisierbare Endomorphismen von V und gilt f ◦g =g ◦ f , so sind f und g simultan diagonalisierbar.

Beweis. Nach Theorem 7.1 gilt

V = Eig(f, λ1)⊕ · · · ⊕ Eig(f, λk)

= Eig(g, µ1)⊕ · · · ⊕ Eig(g, µ`),

wobei λ1, . . . , λk bzw. µ1, . . . , µ` die verschiedenen Eigenwerte von f bzw. gsind. Es sei λ einer der Eigenwerte von f und

W := Eig(f, λ).

Page 37: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

8 Nilpotente Endomorphismen 37

Es sei w ∈ W . Dann gilt

f(g(w)) = g(f(w)) = g(λw) = λg(w).

Also ist auch g(w) ein Eigenvektor von f zum Eigenwert λ, also liegt auchg(w) in W . Damit gilt g(W ) ⊆ W . Setze

Wj := W ∩ Eig(g, µj) fur j = 1, . . . , `.

Behauptung W = W1 ⊕ · · · ⊕W`.

Beweis. Wegen I, Satz 19.3, und der Bedingung (iii) in Satz 1.5 reicht es zuzeigen:

W = W1 + · · ·+W`.

Es sei w ∈ W . Dann gibt es wj ∈ Eig(g, µj) , so dass w = w1 + · · · + w`.Dann gilt

f(w) = f(w1) + · · ·+ f(w`) = λw1 + · · ·+ λw` = λw.

Da f(wj) ∈ Eig(g, µj) und λwj ∈ Eig(g, µj) und die Darstellung von w in

Eig(g, µ1)⊕ · · · ⊕ Eig(g, µ`)

eindeutig ist, folgtf(wj) = λwj,

also wj ∈ W und somit wj ∈ Wj. 2

Da die Behauptung fur alle Eigenwerte λ von f gilt, folgt die Aussage desSatzes. 2

8 Nilpotente Endomorphismen

Wie wir in Theorem 7.1 gesehen haben, gibt es zwei Bedingungen fur dieDiagonalisierbarkeit:

(a) Das charakteristische Polynom muss in Linearfaktoren zerfallen, und

(b) die geometrische Vielfachheit muss gleich der algebraischen Vielfachheitder Eigenwerte sein.

Wir untersuchen nun, welche Aussage man noch treffen kann, wenn nur dieBedingung (a) erfullt ist.

Page 38: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

8 Nilpotente Endomorphismen 38

Definition Eine Matrix A = (aij) ∈ Mat(n, n;K) heißt obere Dreiecksma-trix, wenn aij = 0 fur i > j gilt.

Satz 8.1 Fur einen Endomorphismus f eines n-dimensionalen Vektorraumssind die folgenden Bedingungen aquivalent:

(i) Es gibt eine Basis B, so dass MBB (f) eine obere Dreiecksmatrix ist.

(ii) Das charakteristische Polynom Pf zerfallt in Linearfaktoren, d.h.

Pf (x) = ±(x− λ1) · · · (x− λn) mit λ1, . . . , λn ∈ K.

Beweis. (i) ⇒ (ii): Dies folgt aus I, Satz 18.1.(ii)⇒ (i): Wir fuhren den Beweis durch Induktion uber n. Fur n = 0, 1 ist

die Behauptung klar. Es sei n ≥ 2 und v1 ein Eigenvektor zu dem Eigenwertλ1. Wir erganzen ihn zu einer Basis

B = (v1, w2, . . . , wn)

von V . Dann gilt

V = U1 ⊕W mit U1 := Span{v1} und W := Span{w2, . . . , wn}

und

MBB (f) =

λ1 a12 · · · a1n

0...0

a22 · · · a2n...

. . ....

an2 · · · ann

.

Wir definieren nun lineare Abbildungen h : W → U1 und g : W → W durch

h(wj) = a1jv1 und g(wj) = a2jw2 + · · ·+ anjwn

fur j = 2, . . . , n. Dann gilt

f(w) = h(w) + g(w) fur alle w ∈ W.

Fur die charakteristischen Polynome gilt

Pf (x) = (x− λ1)Pg(x), also Pg(x) = ±(x− λ2) · · · (x− λn).

Deswegen konnen wir die Induktionsvoraussetzung auf g : W → W anwen-den. Demnach gibt es eine Basis (v2, . . . , vn) von W , bezuglich der g durcheine obere Dreiecksmatrix dargestellt wird. Fur f gilt dann

f(vj) = h(vj) + g(vj) ∈ Span{v1, . . . , vj} fur j = 2, . . . , n.

Also ist auch die Darstellungsmatrix von f bezuglich der BasisB = (v1, . . . , vn)eine obere Dreiecksmatrix. 2

Wir betrachten nun eine Anwendung dieses Satzes.

Page 39: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

8 Nilpotente Endomorphismen 39

Definition (i) Ein Endomorphismus f : V → V heißt nilpotent, wennfk = 0 fur ein k ≥ 1 ist.

(ii) Eine Matrix A ∈ Mat(n, n;K) heißt nilpotent, wenn Ak = 0 fur eink ≥ 1 ist.

Lemma 8.1 Es sei A nilpotent.

(i) Ist B ahnlich zu A, dann ist auch B nilpotent.

(ii) 0 ist der einzige Eigenwert von A.

Beweis.(i): Es sei B = S−1AS und Ak = 0. Dann gilt

Bk = (S−1AS)(S−1AS) · · · (S−1AS) = S−1AkS = 0.

(ii): Es sei Ak = 0. Aus detAk = 0 folgt detA = 0. Deshalb ist 0 einEigenwert von A. Dies ist auch der einzige Eigenwert: Ist λ ∈ K ein Eigenwertvon A mit Eigenvektor x 6= 0, dann gilt

Akx = λkx = 0

und daraus folgt λ = 0. 2

Satz 8.2 Fur einen Endomorphismus f eines n-dimensionalen VektorraumsV sind die folgenden Bedingungen aquivalent:

(i) f ist nilpotent.

(ii) Es sei B eine Basis von V . Dann ist die Darstellungsmatrix MBB (f)

von f bezuglich der Basis B nilpotent.

(iii) Es gilt Pf (x) = ±xn.

(iv) Es gilt fd = 0 fur ein d mit 1 ≤ d ≤ n.

(v) Es gibt eine Basis B von V , so dass

MBB (f) =

0 ∗. . .

0 0

.

Page 40: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

8 Nilpotente Endomorphismen 40

Beweis. (i) ⇔ (ii) ist klar.(ii) ⇒ (iii): Es sei A := MB

B (f). Nach Lemma 8.1 (ii) ist 0 der einzigeEigenwert von A. Deswegen hat das charakteristische Polynom die GestaltPf (x) = ±xn.

(iii) ⇒ (iv): Aus dem Satz von Cayley-Hamilton folgt µf (x) = xd fur eind mit 1 ≤ d ≤ n. Das bedeutet fd = 0.

(iv) ⇒ (i) ist klar.(iii) ⇒ (v) folgt aus Satz 8.1.(v) ⇒ (ii): Es sei A = MB

B (f) = (aij) mit aij = 0 fur i ≥ j.

Behauptung Ar = (a(r)ij ) mit a

(r)ij = 0 fur i ≥ j + 1− r.

Beweis. Wir fuhren Induktion nach r durch.Induktionsanfang r = 1: Dies gilt nach Voraussetzung.Induktionsschritt r − 1→ r: Es gilt

a(r)ij =

n∑`=1

ai`a(r−1)`j .

Es sei nun i ≥ j + 1− r und 1 ≤ ` ≤ n. Wir unterscheiden zwei Falle:Fall 1: j + 1− r ≥ `. Dann ist i ≥ `, also ai` = 0 nach Voraussetzung.Fall 2: ` > j+1−r. Dann ist ` ≥ j+1−(r−1). Dann gilt aber a

(r−1)`j = 0

nach Induktionsvorausetzung.Also gilt

a(r)ij = 0.

2

Aus der Behauptung folgt An = 0. Ist A′ die Darstellungsmatrix von fbezuglich einer anderen Basis, so ist A′ ahnlich zu A. Die Behauptung folgtdamit aus Lemma 8.1 (i). 2

Wir wollen nun zeigen, dass wir die Matrix in Satz 8.2 (v) noch auf eineeinfachere Gestalt bringen konnen.

Definition Die Matrix

Jk =

0 1 0

. . . . . .

0 10 0

∈ Mat(k, k;K)

heißt Jordanmatrix von der Ordnung k.

Page 41: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

8 Nilpotente Endomorphismen 41

Nach Beispiel 6.3 ist Jk nilpotent, genauer gilt Jkk = 0 und k ist die minimalePotenz mit dieser Eigenschaft. Wie sieht J1 aus?

Theorem 8.1 (Jordannormalform nilpotenter Endomorphismen) Essei f ein nilpotenter Endomorphismus eines K-Vektorraums V und d :=min{` | f ` = 0} (d heißt auch der Nilpotenzindex von f). Dann gibt es ein-deutig bestimmte Zahlen s1, . . . , sd ∈ N mit

d · sd + (d− 1)sd−1 + · · ·+ s1 = n = dimV

und eine Basis B von V , so dass

MBB (f) =

Jd. . .

JdJd−1 0

. . .

Jd−1

0. . .

J1

. . .

J1

Beweis. Wir definieren U` := Ker f ` und betrachten die Kette von Un-terraumen

{0} = U0 ⊆ U1 ⊆ . . . ⊆ Ud−1 ⊆ Ud = V.

Dabei gilt Ud = V nach Definition von d, und da d die minimale Potenz mitfd = 0 ist, sind alle Inklusionen echt.

Behauptung

(1) Fur 1 ≤ ` ≤ d ist f−1(U`−1) = U`, insbesondere f(U`) = U`−1.

(2) Ist W ein Unterraum von V mit W ∩ U` = {0} fur ein 1 ≤ ` ≤ d, soist f |W injektiv.

Beweis.(1): Es gilt

v ∈ f−1(U`−1)⇔ f(v) ∈ U`−1 ⇔ 0 = f `−1(f(v)) = f `(v)⇔ v ∈ U`.

Page 42: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

8 Nilpotente Endomorphismen 42

(2) Es gilt Ker f = U1 ⊆ U` fur jedes 1 ≤ ` ≤ d, also W ∩Ker f = {0}. 2

Nun konstruieren wir schrittweise eine direkte Summenzerlegung von V .Zunachst wahlen wir ein Komplement Wd ⊆ V von Ud−1 in V = Ud:

V = Ud = Ud−1 ⊕Wd.

Aus Behauptung (1) folgt dann

(a) f(Wd) ⊆ Ud−1 und

(b) f(Wd) ∩ Ud−2 = {0}.

Denn aus Wd ⊆ Ud und f(Ud) = Ud−1 folgt (a). Aus f−1(Ud−2) = Ud−1 undWd ∩ Ud−1 = {0} folgt (b). Also gibt es eine Zerlegung

Ud−1 = Ud−2 ⊕Wd−1 mit f(Wd) ⊆ Wd−1.

Fahren wir so fort, so erhalten wir folgendes Schema:

Ud↓

Ud−1 ⊕ Wd

↓ ↓Ud−2 ⊕ Wd−1 ⊕ Wd

↓ ↓ ↓...

......

↓ ↓ ↓U1 ⊕ W2 ⊕ W3 ⊕ · · · ⊕ Wd

↓ ↓ ↓ ↓U0 ⊕ W1 ⊕ W2 ⊕ · · · ⊕ Wd−1 ⊕ Wd

Dabei zeigen die Pfeile an, wie f die entsprechenden Unterraume abbildet.Jede Zeile ist eine Zerlegung von V , wegen U0 = {0} ist insbesondere

V = W1 ⊕W2 ⊕ · · · ⊕Wd.

Da die Abbildungen

Wd

f |Wd−→ Wd−1

f |Wd−1−→ . . .f |W2−→ W1

nach Behauptung (2) alle injektiv sind, konnen wir mit einer Basis von Wd

anfangen, das Bild dieser Basis unter f |Wdzu einer Basis von Wd−1 erganzen,

Page 43: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

9 Die Jordansche Normalform 43

usw., bis wir zu einer Basis von V gelangen:

w(d)1 , f(w

(d)1 ), . . . , fd−1(w

(d)1 ),

......

...

w(d)sd , f(w

(d)sd ), . . . , fd−1(w

(d)sd ),

w(d−1)1 , . . . , fd−2(w

(d−1)1 ),

......

w(d−1)sd−1 , . . . , fd−2(w

(d−1)sd−1 ),

...

w(1)1 ,...

w(1)s1 .

Dabei ist die erste Spalte eine Basis von Wd, die zweite Spalte eine Basisvon Wd−1, und schließlich die letzte Spalte eine Basis von W1 = U1 = Ker f .Ordnen wir die Basis nun so an, dass wir die Zeilen von oben nach untenlesen, aber in jeder Zeile umgekehrt, also von rechts nach links, laufen, soerhalten wir eine Basis von V , bezuglich der die Darstellungsmatrix von fdie angebene Gestalt hat.

Wir mussen nun noch zeigen, dass die Zahlen s1, . . . , sd eindeutig be-stimmt sind. Dazu sei W` ein Komplement von f(W`+1) in W`, ` = 1, . . . , d(hier setzen wir Wd+1 = {0}). Dann gilt wegen

U` = U`−1 ⊕ f(W`+1)⊕ W`

und da f |W`+1injektiv ist

s` = dim W` = dimU` − dimU`−1 − dimW`+1.

Damit sind diese Zahlen rekursiv aus den Dimensionen der Kerne von f `

berechenbar. 2

9 Die Jordansche Normalform

Es sei K ein beliebiger Korper, V ein endlich dimensionaler K-Vektorraummit dimV ≥ 1 und f : V → V ein Endomorphismus mit zerfallendemcharakteristischen Polynom

Pf (x) = ±(x− λ1)r1 · · · (x− λk)rk , λ1, . . . , λk ∈ K paarweise verschieden.

Page 44: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

9 Die Jordansche Normalform 44

Wir haben bereits gesehen, dass dann f durch eine obere Dreiecksmatrixdargestellt werden kann. Dieses Ergebnis soll nun noch prazisiert werden.

Im Allgemeinen gilt

dim Eig(f, λi) = νgeom(f, λi) ≤ ri.

Gilt hier nicht die Gleichheit, so betrachtet man anstelle des Eigenraumseinen großeren Unterraum.

Definition Fur einen Eigenwert λ der Vielfachheit r ≥ 1 nennt man

Hau(f, λ) := Ker(f − λid)r

den Hauptraum (oder verallgemeinerten Eigenraum) von f zum Eigenwert λ.

Satz 9.1 (Hauptraumzerlegung) Es sei f ein Endomorphismus von Vund

Pf (x) = ±(x− λ1)r1 · · · (x− λk)rk

mit paarweise verschiedenen λ1, . . . , λk ∈ K. Es sei

Vi := Hau(f, λi) ⊆ V

der Hauptraum zum Eigenwert λi. Dann gilt:

(1) dimVi = ri und f(Vi) ⊆ Vi fur i = 1, . . . , k.

(2) V = V1 ⊕ · · · ⊕ Vk.

(3) f hat eine Zerlegung f = fD + fN mit

(a) fD ist diagonalisierbar.

(b) fN ist nilpotent.

(c) fD ◦ fN = fN ◦ fD.

Durch Kombination dieses Satzes mit der Klassifikation nilpotenter Endo-morphismen (Theorem 8.1) erhalt man das Hauptresultat dieses Abschnitts.

Theorem 9.1 (Jordansche Normalform) Es sei f ein Endomorphismusvon V und

Pf (x) = ±(x− λ1)r1 · · · (x− λk)rk

Page 45: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

9 Die Jordansche Normalform 45

mit paarweise verschiedenen λ1, . . . , λk ∈ K. Dann gibt es eine Basis B vonV , so dass

MBB (f) =

λ1Er1 +N1 0

. . .

0 λkErk +Nk

,

wobei Ni fur i = 1, . . . , k in der Normalform von Theorem 8.1 ist. Ausge-schrieben bedeutet das:

λiEri+Ni =

λi 1. . . . . .

. . . 1λi

0

. . .

λi 1. . . . . .

. . . 1λi

λi. . .

0 λi

.

Die Eigenwerte λ1, . . . , λk, die Zahlen r1, . . . , rk sowie die Zahlen s(i)j mit

dis(i)di

+ (di − 1)s(i)di−1 + · · ·+ s

(i)1 = ri, i = 1, . . . k

nach Theorem 8.1 sind durch f eindeutig bestimmt. Man nennt sie Invari-anten von f .

Beweis von Theorem 9.1. Setze fur i = 1, . . . , k

Vi := Hau(f, λi) und gi := (f − λiid)|Vi.

Anwendung von Theorem 8.1 auf gi ergibt eine Basis Bi von Vi. Nach Satz 9.1setzen sich die Basen B1, . . . , Bk zu einer Basis B mit der gewunschten Ei-genschaft zusammen. 2

Page 46: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

9 Die Jordansche Normalform 46

Korollar 9.1 Fur einen Endomorphismus f von V sind die folgenden Be-dingungen aquivalent:

(i) f ist diagonalisierbar.

(ii) µf (x) = (x−λ1) · · · (x−λk), wobei λ1, . . . , λk die verschiedenen Eigen-werte von f sind.

Beweis. Es sei wie oben

di := min{`i | g`ii = 0}.

Dann gilt fur das Minimalpolynom von gi

µgi(x) = xdi .

Die Abbildung gi ist aber genau dann diagonalisierbar, wenn di = 1. 2

Nun wollen wir den Satz uber die Hauptraumzerlegung beweisen. Dazubetrachten wir fur einen Eigenwert λ von f die Abbildung

g := f − λid.

Die folgenden Uberlegungen gelten fur einen beliebigen Endomorphismus gund seine Potenzen. Man hat zwei Ketten von Unterraumen:

{0} ⊆ Ker g ⊆ Ker g2 ⊆ . . . ⊆ Ker g` ⊆ . . .V ⊇ Im g ⊇ Im g2 ⊇ . . . ⊇ Im g` ⊇ . . .

Da V endlich dimensional ist, mussen die beiden Ketten stationar werden,d.h. irgendwann sind die Inklusionen nicht mehr echt. Genauer bedeutet das,dass es d und d′ geben muss mit

{0} ⊆ Ker g ⊆ Ker g2 ⊆ . . . ⊆ Ker gd = Ker gd+1 = . . .V ⊇ Im g ⊇ Im g2 ⊇ . . . ⊇ Im gd

′= Im gd

′+1 = . . .

Genauer gilt Folgendes:

Lemma 9.1 (Fitting) Zu einem Endomorphismus g von V betrachten wirdie Zahlen

d := min{` | Ker g` = Ker g`+1},d′ := min{` | Im g` = Im g`+1},r := νalg(g, 0).

Dann gilt:

Page 47: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

9 Die Jordansche Normalform 47

(i) d = d′.

(ii) Ker gd+i = Ker gd, Im gd+i = Im gd fur alle i ∈ N.

(iii) Die Raume U := Ker gd und W := Im gd sind unter g invariant.

(iv) (g|U)d = 0 und g|W ist ein Isomorphismus.

(v) Fur das Minimalpolynom von g|U gilt µg|U (x) = xd.

(vi) V = U ⊕W , dimU = r ≥ d, dimW = n− r.

Beweis. Wir betrachten das Diagramm

Ker g` ⊆ Vg`

−→ Im g`

|∩ ‖ ∪|Ker g`+1 ⊆ V

g`+1

−→ Im g`+1

Nach der Dimensionsformel gilt

dimV = dim Ker g` + dim Im g` = dim Ker g`+1 + dim Im g`+1.

Daraus folgt

Im g`+1 = Im g` ⇔ dim Im g`+1 = dim Im g`

⇔ dim Ker g`+1 = dim Ker g`

⇔ Ker g`+1 = Ker g`.

Daraus folgt zunachst einmal die Aussage (i).Weiterhin ist die Aussage Im g`+1 = Im g` gleichbedeutend damit, dass

g|Im g` : Im g` → Im g`+1 ein Isomorphismus ist. Daraus folgt (ii), (iii) und(iv).

(v): Es genugt zu zeigen, dass (g|U)d−1 6= 0. Angenommen, (g|U)d−1 = 0.Dann folgt

Ker gd = U ⊆ Ker gd−1.

Da aber Ker gd−1 ⊆ Ker gd, erhalten wir Ker gd−1 = Ker gd im Widerspruchzur Definition von d.

(vi): Wir zeigen zunachst V = U ⊕ W . Es sei v ∈ U ∩ W . Dann istgd(v) = 0 und v = gd(w) fur ein w ∈ V . Daraus folgt g2d(w) = 0, alsow ∈ Ker g2d. Nach (ii) gilt Ker g2d = Ker gd. Damit folgt w ∈ Ker gd undsomit

v = gd(w) = 0.

Page 48: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

9 Die Jordansche Normalform 48

Nach Definition von U ist dimU ≥ d, Denn es gilt

{0} ⊂ Ker g ⊂ . . . ⊂ Ker gd−1 ⊂ Ker gd,

und in jedem Schritt erhoht sich die Dimension mindestens um 1. Nun gilt

Pg(x) = xr ·Q(x) = Pg|U (x) · Pg|W (x) mit Q(0) 6= 0.

Auf der anderen Seite gilt

Pg|U (x) = ±xm mit m = dimU,

Pg|W (0) 6= 0 (da g|W ein Isomorphismus nach (iv)).

Daraus folgt m = r, was zu zeigen war. 2

Beweis von Satz 9.1. Wir fuhren Induktion uber die Zahl k der verschiedenenEigenwerte durch. Fur k = 1 ist der Satz trivial. Es sei nun k ≥ 2. Zu λ1

definieren wirg := f − λ1 · id.

Dann gilt

Pg(x− λ1) = Pf (x), also νalg(g, 0) = νalg(f, λ1) = r1.

Nach Lemma 9.1 gilt

V = Hau(f, λ1)⊕W, W = Im gd,

und die beiden Summanden werden von g und damit auch von f = g + λ1idinvariant gelassen. Außerdem gilt

Pf |W (x) = ±(x− λ2)r2 · · · (x− λk)rk .

Damit konnen wir auf f |W die Induktionsannahme anwenden und erhalten(1) und (2).

Zum Beweis von (3) bemerken wir zunachst, dass es nach Satz 8.1 ei-ne Basis B von V gibt, so dass die Darstellungsmatrix MB

B (f) eine obereDreiecksmatrix ist. Diese Matrix schreiben wir als

MBB (f) =

λ1Er1 +N1 0

. . .

0 λkErk +Nk

.

Page 49: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

9 Die Jordansche Normalform 49

Dann ist jedes Ni eine obere Dreiecksmatrix mit Nullen auf der Diagonalen,nach Satz 8.2 also nilpotent. Setze

D :=

λ1Er1 0

. . .

0 λkErk

und N :=

N1 0. . .

0 Nk

.

Dann rechnet man aus:

DN =

λ1N1 0. . .

0 λkNk

= ND.

2

Bemerkung 9.1 Man kann zeigen, dass die Zerlegung f = fD + fN inSatz 9.1 sogar eindeutig ist, wenn man (a), (b) und (c) verlangt.

Bemerkung 9.2 Es sei f ein Endomorphismus mit charakteristischem Po-lynom

Pf (x) = ±(x− λ1)r1 · · · (x− λk)rk

und Minimalpolynom

µf (x) = ±(x− λ1)d1 · · · (x− λk)dk

mit paarweise verschiedenen λ1, . . . , λk ∈ K. Die Matrixλi 1 0

. . . . . .. . . 1

0 λi

∈ Mat(m,m;K)

nennt man auch einen Jordanblock der Lange m zum Eigenwert λi. Dannfolgt aus Theorem 9.1, dass ri die Summe der Langen aller Jordanblockszum Eigenwert λi und di die Lange des großten Jordanblocks zum Eigenwertλi ist.

Beispiel 9.1 Gegeben sei die Matrix

A :=

−5 15 11−5 11 53 −6 −2

.

Page 50: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

9 Die Jordansche Normalform 50

Dann gilt

PA(x) = −x3 + 4x2 − 5x+ 2 = −(x− 1)2(x− 2).

Damit ist k = 2, λ1 = 1, r1 = 2, λ2 = 2, r2 = 1. Wir setzen

B1 := A− E =

−6 15 11−5 10 53 −6 −3

, B2 := A− 2E =

−7 15 11−5 9 53 −6 −4

.

Dann gilt

B21 =

−6 −6 −24−5 −5 −203 3 12

.

Daraus folgt

1 = dim Eig(A, 1) = dim KerB1 < dim KerB21 = dim Hau(A, 1) = 2.

Damit istA nicht diagonalisierbar. Durch Losen der GleichungssystemeB21x =

0 und B2x = 0 erhalt man Basen

{(4, 0,−1)T , (0, 4,−1)T} von Hau(A, 1),

{(6, 5,−3)T} von Hau(A, 2) = Eig(A, 2).

Daraus bilden wir die Matrix

T :=

4 0 60 4 5−1 −1 −3

mit T−1 =1

4

7 6 245 6 20−4 −4 −16

.

Dann gilt

B := T−1AT =

−314

494

0−254

394

00 0 2

.

Nun transformieren wir die Basis von Hau(A, 1) so, dass ein Basisvektor vein Eigenvektor von A zum Eigenwert 1 ist. Er hat die Form

v = α(4, 0,−1)T + β(0, 4,−1)T .

Dann mussen α und β der Bedingung( −354

494

−254

354

)(αβ

)=

(00

)

Page 51: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 51

genugen. Daraus folgt, dass man α = 74

und β = 54

wahlen kann. Mit derneuen Transformationsmatrix

T :=

7 0 65 4 5−3 −1 −3

mit T−1 :=1

7

7 6 240 3 5−7 −7 −28

ergibt sich

T−1AT =

1 7 00 1 00 0 2

.

Um nun zur Jordannormalform zu kommen, suchen wir einen Vektor

w = γ(4, 0,−1)T + δ(0, 4,−1)T

mit der Eigenschaft (B − E)w = v. Also mussen γ und δ der Bedingung( −354

494

−254

354

)(γδ

)=

(αβ

)genugen. Daraus folgt γ = δ = 1

2. Mit der neuen Transformationsmatrix

S :=

7 2 65 2 5−3 −1 −3

mit S−1 :=

1 0 20 3 5−1 −1 −4

ergibt sich schließlich

S−1AS =

1 1 00 1 00 0 2

.

10 Affine Quadriken

Wir betrachten nun Quadriken. Die Literatur fur diesen Abschnitt ist

• G. Fischer: Analytische Geometrie. Vieweg 1978.

Es sei K im Folgenden immer ein Korper, fur den 1 + 1 6= 0 ist.

Definition Unter einem quadratischen Polynom uberK in den Unbestimm-ten x1, . . . , xn versteht man einen Ausdruck der Gestalt

P (x1, . . . , xn) =n∑i=1

aiix2i +

∑1≤i<j≤n

2aijxixj +n∑i=1

2a0ixi + a00,

wobei aij ∈ K fur 0 ≤ i ≤ j ≤ n.

Page 52: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 52

α

β

Abbildung 1: Ellipsex21

α2 +x22

β2 = 1

α�

��

��

β

Abbildung 2: Hyperbelx21

α2 − x22

β2 = 1

Definition Eine Teilmenge Q ⊆ Kn heißt (affine) Quadrik (oder (affine)Hyperflache zweiter Ordnung), wenn es ein quadratisches Polynom P gibt,so dass

Q = {(x1, . . . , xn) ∈ Kn |P (x1, . . . , xn) = 0}.

Beispiel 10.1 (a)x21

α2 +x22

β2 = 1, α, β > 0. Diese Gleichung beschreibt eine

Ellipse (vgl. Abbildung 1).

(b)x21

α2 − x22

β2 = 1, α, β > 0. Diese Gleichung beschreibt eine Hyperbel (vgl.

Abbildung 2).(c) x2

1 − x2 = 0. Diese Gleichung beschreibt eine Parabel (vgl. Abbil-dung 3).

Es ist vorteilhaft, die Gleichung fur eine Quadrik durch Matrizen auszu-drucken. Dazu setzen wir aji := aij fur 0 ≤ i < j ≤ n und

A =

a11 · · · a1n...

. . ....

an1 · · · ann

,

Page 53: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 53

Abbildung 3: Parabel x21 − x2 = 0

x =

1x1...xn

, A =

a00 a01 · · · a0n

a10...an0

A

.

Dann sind A und A symmetrisch und es gilt

P (x1, . . . , xn) = xTAx

undQ = {(x1, . . . , xn) ∈ Kn |xTAx = 0}.

Man nennt A die erweiterte Matrix zu A und x den erweiterten Spaltenvektorzu x.

Definition Es seien V undW K-Vektorraume. Eine Abbildung f : V → Wheißt affin, wenn es eine lineare Abbildung F : V → W und einen Vektorw0 ∈ W gibt mit

f(v) = F (v) + w0 fur alle v ∈ V.

Ist W = V und F : V → V ein Automorphismus, so nennt man die Abbil-dung f : V → V eine Affinitat.

Eine affine Abbildung ensteht also durch die Hintereinanderschaltung ei-ner linearen Abbildung F : V → W und einer Translation t : W → W ,w 7→ w + w0.

Beispiel 10.2 Fur V = Kn lasst sich eine Affinitat wie folgt beschreiben:

f : Kn −→ Kn

x 7−→ Ax+ b

mit A ∈ GL(n;K) und b ∈ Kn.

Satz 10.1 (i) Sind f, g Affinitaten, so auch f ◦ g.

Page 54: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 54

(ii) Ist f eine Affinitat, so ist f bijektiv und die Umkehrabbildung f−1 istwieder eine Affinitat. Es gilt

f−1(v) = F−1(v)− F−1(w0).

Beweis.(i) Es sei

f(v) = F (v) + w0,

g(v) = G(v) + u0.

Dann gilt

(f ◦ g)(v) = f(g(v)) = f(G(v) + u0) = F (G(v) + u0) + w0

= F (G(v)) + F (u0) + w0 = (F ◦G)(v) + (F (u0) + w0).

(ii)

(f−1 ◦ f)(v) = F−1(f(v))− F−1(w0)

= F−1(F (v) + w0)− F−1(w0)

= v + F−1(w0)− F−1(w0) = v,

(f ◦ f−1)(v) = F (f−1(v)) + w0

= F (F−1(v) + F−1(w0)) + w0

= v − w0 + w0 = v.

2

Wir wollen nun untersuchen, wie sich die Gleichung einer Quadrik beieiner Affinitat von Kn andert. Dafur erweitern wir die obige Schreibweiseauf Affinitaten. Es sei f : Kn → Kn, x 7→ y mit

y = Sx+ b (S ∈ GL(n;K), b ∈ Kn).

Dann definieren wir

S =

1 0 · · · 0b1...bn

S

, y =

1y1...yn

.

In dieser Schreibweise wird f gegeben durch

y = Sx.

Page 55: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 55

Satz 10.2 Ist Q ⊆ Kn eine Quadrik und f : Kn → Kn eine Affinitat, so istauch f(Q) ⊆ Kn eine Quadrik.

Beweis. Es sei Q gegeben durch

xTAx = 0

und f durchy = Sx.

Nach Satz 10.1 wird die Abbildung f−1 : Kn → Kn beschrieben durch

f−1(y) = S−1y − S−1b.

Ist T := S−1 und

T :=

1 0 · · · 0

−S−1(b) S−1

,

so ist x = Ty. Damit gilt

y = f(x) ∈ f(Q)⇔ x ∈ Q⇔ 0 = xTAx = yT (TTAT)y,

alsof(Q) = {y ∈ Kn |yTBy = 0} mit B = TTAT.

2

Wir wollen nun versuchen, die Affinitat so zu wahlen, dass die neue Glei-chung so einfach wie moglich wird.

Beispiel 10.3 Es sei Q ⊆ R2 gegeben durch

x21 + 4x2

2 − 4x1x2 − 6x1 + 14x2 + 13 = 0.

Im ersten Schritt eliminieren wir den gemischten Term x1x2. Es ist

x21 + 4x2

2 − 4x1x2 = (x1 − 2x2)2.

Also wird Q nach der Koordinatentransformation

z1 = x1 − 2x2,

z2 = x2

Page 56: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 56

gegeben durchz21 − 6z1 + 2z2 + 13 = 0.

Nun reduzieren wir die linearen Terme durch quadratische Erganzung. DieGleichung ist aquivalent zu

(z21 − 6z1) + 2z2 + 13 = 0.

Durch quadratische Erganzung der Klammer ergibt sich

(z21 − 6z1 + 9) + 2z2 + 13− 9 = 0

oder(z1 − 3)2 + 2(z2 + 2) = 0.

Nach der Transformation

y1 = z1 − 3,

y2 = z2 + 2

erhalt man die Gleichungy2

1 + 2y2 = 0.

Wir verallgemeinern nun die Methode aus diesem Beispiel. Wir betrachtenden Spezialfall K = R.

Es sei also die Quadrik Q ⊆ Rn beschrieben durch

A =

a00 a01 · · · a0n

a10...an0

A

.

Im ersten Schritt bringen wir die symmetrische Teilmatrix A auf Normalform.Nach Satz 5.1 gibt es eine Matrix T1 ∈ GL(n; R) mit

T T1 AT1 =

Ek 0 00 −Em−k 00 0 0

,

wobei m der Rang von A und k der Index von A ist. Ist

T1 =

1 0 · · · 00...0

T1

Page 57: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 57

so wird

B1 = TT1 AT1 =

c00 c01 · · · c0nc10 Ek 0 0... 0 −Em−k 0cn0 0 0 0

.

In den neuen Koordinaten lautet die Gleichung

z21 + · · ·+ z2

k − z2k+1 − · · · − z2

m + 2(c01z1 + · · ·+ c0nzn) + c00 = 0,

hat also keine gemischten Terme mehr.Im zweiten Schritt reduzieren wir durch eine Translation die linearen

Terme. Wir setzen

T2 =

1 0 · · · 0 0 · · · 0 0 · · · 0−c10 1

.... . .

−ck0 1 0ck+1,0 1

.... . .

cm0 10 0 1...

. . .

0 1

.

Damit ergibt sich

B2 := TT2 B1T2 = TT

2 TT1 AT1T2

=

d00 0 · · · 0 0 · · · 0 c0,m+1 · · · c0n0 +1 0...

. . .

0 +1 00 −1...

. . .

0 0 1cm+1,0 0

... 0. . .

cn0 0

.

Das bedeutet, dass Q in den neuen Koordinaten beschrieben werden kanndurch die Gleichung

u21 + · · ·+ u2

k − u2k+1 − · · · − u2

m + 2(cm+1,0um+1 + · · ·+ cn0un) + d00 = 0.

Page 58: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 58

Nun unterscheiden wir drei Falle:

(1) d00 = cm+1,0 = . . . = cn0 = 0.

(2) d00 6= 0, cm+1,0 = . . . = cn0 = 0.

(3) cr0 6= 0 fur mindestens ein r ∈ {m+ 1, . . . , n}.

Fall (1): Dann reduziert sich die obige Gleichung auf

u21 + · · ·+ u2

k − u2k+1 − · · · − u2

m

und wir sind fertig.Fall (2): O.B.d.A. d00 < 0 (sonst multipliziere man die Gleichung mit −1

und ordne durch eine weitere Transformation u1, . . . , um um). Setze

(u1, . . . , un) = ρ(y1, . . . , yn) mit ρ =√−d00,

d.h. betrachte

T3 :=

(1 00 1

ρEn

).

Dividiert man die entstehende Gleichung durch ρ2, so erhalt man

y21 + · · ·+ y2

k − y2k+1 − · · · − y2

m = 1.

Fall (3): O.B.d.A. r = m + 1 (sonst ordne man in einer weiteren Trans-formation um+1, . . . , un um). Setzt man

yi = ui fur i 6= m+ 1,

2ym+1 = 2(cm+1,0um+1 + · · ·+ cn0un) + d00,

so erhalt man als neue Gleichung fur Q

y21 + · · ·+ y2

k − y2k+1 − · · · − y2

m + 2ym+1 = 0.

Die Transformation kann man so beschreiben: Durch simultane Zeilen- undSpaltenumformungen der Matrix B2 beseitigt man mit Hilfe von cm+1,0 =c0,m+1 nacheinander die Eintrage

d00, cm+2,0 = c0,m+2, . . . , cn0 = c0n.

Insgesamt ergibt dies eine affine Transformation T3.Damit haben wir folgendes Ergebnis bewiesen:

Page 59: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 59

Theorem 10.1 (Affine Klassifikation von Quadriken) Gegeben sei ei-ne Quadrik

Q = {x ∈ Rn |xTAx = 0},

wobei A eine symmetrische (n+ 1)× (n+ 1)-Matrix ist. Es sei

m := RangA, m := Rang A.

Dann gibt es eine Affinitat f : Rn → Rn, so dass f(Q) beschrieben wirddurch eine der folgenden Gleichungen

(1) y21 + · · ·+ y2

k − y2k+1 − · · · − y2

m = 0, falls m = m,

(2) y21 + · · ·+ y2

k − y2k+1 − · · · − y2

m = 1, falls m+ 1 = m,

(3) y21 + · · ·+ y2

k − y2k+1 − · · · − y2

m + 2ym+1 = 0, falls m+ 2 = m.

Speziell fur n = 2, 3 erhalten wir die Tabellen 1 und 2.

Typ m m k Gleichung Beschreibung(1) 0 0 0 0 = 0 Ebene R2

1 1 1 y21 = 0 (Doppel-)Gerade

2 2 1 y21 − y2

2 = 0 Geradenpaar (mit Schnittpunkt)2 2 2 y2

1 + y22 = 0 Punkt

(2) 1 2 1 y21 = 1 Zwei parallele Geraden

2 3 1 y21 − y2

2 = 1 Hyperbel2 3 2 y2

1 + y22 = 1 Kreis

(3) 1 3 1 y21 + 2y2 = 0 Parabel

Tabelle 1: Normalformen von nicht leeren Quadriken im R2

Nun wollen wir statt allgemeinen Affinitaten nur solche Affinitaten zulas-sen, bei denen die lineare Abbildung orthogonal ist.

Definition Es sei V ein euklidischer Vektorraum. Eine Affinitat f : V → Vheißt Kongruenz (oder Bewegung), falls es eine orthogonale Abbildung F :V → V und ein w0 ∈ V gibt, so dass

f(v) = F (v) + w0 fur alle v ∈ V.

Eine Kongruenz ist also die Hintereinanderschaltung einer orthogonalenAbbildung und einer Translation. Ist insbesondere V = Rn und

f(x) = Ax+ b fur alle x ∈ Rn

Page 60: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 60

Typ m m k Gleichung Beschreibung(1) 0 0 0 0 = 0 Raum R3

1 1 1 y21 = 0 (Doppel-)Ebene

2 2 1 y21 − y2

2 = 0 Ebenenpaar (mit Schnittgerade)2 2 2 y2

1 + y22 = 0 Gerade

3 3 2 y21 + y2

2 − y23 = 0 Kreiskegel

3 3 3 y21 + y2

2 + y23 = 0 Punkt

(2) 1 2 1 y21 = 1 Zwei parallele Ebenen

2 3 1 y21 − y2

2 = 1 hyperbolischer Zylinder2 3 2 y2

1 + y22 = 1 Kreiszylinder

3 4 1 y21 − y2

2 − y23 = 1 zweischaliges Hyperboloid

3 4 2 y21 + y2

2 − y23 = 1 einschaliges Hyperboloid

3 4 3 y21 + y2

2 + y23 = 1 Kugel

(3) 1 3 1 y21 + 2y2 = 0 parabolischer Zylinder

2 4 1 y21 − y2

2 + 2y3 = 0 hyperbolisches Paraboloid2 4 2 y2

1 + y22 + 2y3 = 0 elliptisches Paraboloid

Tabelle 2: Normalformen von nicht leeren Quadriken im R3

mit A ∈ GL(n; R), so ist f genau dann eine Kongruenz, wenn A orthogonalist.

Nun modifizieren wir unsere Uberlegungen, die zum Beweis von Theo-rem 10.1 fuhrten, so, dass wir statt beliebiger Affinitaten nur Kongruenzenzulassen.

Gegeben sei wieder die Quadrik

Q = {x ∈ Rn |xTAx = 0}.

Nach dem Satz uber die Hauptachsentransformation gibt es eine orthogonaleMatrix T1 mit

T T1 AT1 =

λ1 0 · · · 00 λ2 · · · 0...

.... . .

...0 0 · · · λn

, (λ1, . . . , λn ∈ R).

Wir konnen λ1, . . . , λm 6= 0 und λm+1 = . . . = λn = 0 annehmen. Damit sinddie gemischten Terme beseitigt. Mit der erweiterten Matrix T1 wie oben gilt

Page 61: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 61

dann

B1 := TT1 AT1 =

d00 c01 · · · c0m c0,m+1 · · · c0nc10 λ1 0...

. . . 0cm0 0 λmcm+1,0 0

... 0. . .

cn0 0

.

Wie oben fuhrt eine Translation zu

B2 := TT2 B1T2 =

d00 0 · · · 0 c0,m+1 · · · c0n0 λ1 0...

. . . 00 0 λm

cm+1,0 0... 0

. . .

cn0 0

.

Nun unterscheiden wir wieder drei Falle:Fall (1): d00 = cm+1,0 = . . . = cn0 = 0.

Hier sind wir bereits fertig: O.B.d.A. λ1, . . . , λk > 0, λk+1, . . . , λm < 0. Wirsetzen fur i = 1, . . . ,m

αi :=1√|λi|

.

Damit erhalten wir die Gleichung

y21

α21

+ · · ·+ y2k

α2k

−y2k+1

α2k+1

− · · · − y2m

α2m

= 0.

Fall (2): d00 6= 0, cm+1,0 = . . . = cn0 = 0.O.B.d.A. d00 < 0, λ1, . . . , λk > 0, λk+1, . . . , λm < 0. Wir dividieren dieGleichung durch |d00| und setzen

αi :=

√|d00|√|λi|

.

Dann erhalten wir die Gleichung

y21

α21

+ · · ·+ y2k

α2k

−y2k+1

α2k+1

− · · · − y2m

α2m

= 1.

Page 62: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 62

Fall (3): cr0 6= 0 fur mindestens ein r ∈ {m+ 1, . . . , n}.Hier ist die Transformation, mit der wir d00, cm+2,0, . . . , cn0 beseitigt haben,keine Kongruenz. Deswegen brauchen wir hier zusatzliche Uberlegungen. Wirsetzen

v := (cm+1,0, . . . , cn0)T ∈ Rn−m, v1 =

1

‖v‖v,

und konstruieren nach dem E. Schmidtschen Orthonormalisierungsverfahreneine Orthonormalbasis v1, . . . , vn−m von Rn−m. Dann beschreibt die Matrix

T3 :=

1 0 · · · 0 0 · · · 00 1 0...

. . . 00 0 1

µv1 0 v1 · · · vn−m

, mit µ :=

−d00

2‖v‖,

eine Kongruenz und man rechnet leicht aus:

B3 := TT3 B2T3 =

0 0 · · · 0 ‖v‖ 0 · · · 00 λ1 0 0...

. . .... 0

0 0 λm 0‖v‖ 0 · · · 0 00... 0 00

.

Wieder nehmen wir λ1, . . . , λk > 0 und λk+1, . . . , λm < 0 an und setzen

αi :=

√‖v‖√|λi|

.

Damit ergibt sich die Gleichung

y21

α21

+ · · ·+ y2k

α2k

−y2k+1

α2k+1

− · · · − y2m

α2m

+ 2ym+1 = 0.

Damit haben wir bewiesen:

Theorem 10.2 (Metrische Klassifikation von Quadriken) Gegeben seieine Quadrik

Q = {x ∈ Rn |xTAx = 0},

Page 63: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 63

wobei A eine symmetrische (n+ 1)× (n+ 1)-Matrix ist. Es sei

m := RangA, m := Rang A.

Dann gibt es eine Kongruenz f : Rn → Rn und α1, . . . , αm ∈ R, so dass f(Q)beschrieben wird durch eine der folgenden Gleichungen:

(1)y2

1

α21

+ · · ·+ y2k

α2k

−y2k+1

α2k+1

− · · · − y2m

α2m

= 0, falls m = m,

(2)y2

1

α21

+ · · ·+ y2k

α2k

−y2k+1

α2k+1

− · · · − y2m

α2m

= 1, falls m+ 1 = m,

(3)y2

1

α21

+ · · ·+ y2k

α2k

−y2k+1

α2k+1

− · · · − y2m

α2m

+ 2ym+1 = 0, falls m+ 2 = m.

Speziell fur n = 2 erhalten wir folgende Tabelle:

Typ m m k Gleichung Beschreibung(1) 0 0 0 0 = 0 Ebene R2

1 1 1 x2 = 0 (Doppel-)Gerade2 2 1 x2 − αy2 = 0, α > 0 Geradenpaar2 2 2 x2 + αy2 = 0, α > 0 Punkt

(2) 1 2 1 x2

α2 = 1, α > 0 Zwei parallele Geraden

2 3 1 x2

α2 − y2

β2 = 1, α, β > 0 Hyperbel

2 3 2 x2

α2 + y2

β2 = 1, α, β > 0 Ellipse, Kreis

(3) 1 3 1 x2 + αy = 0, α 6= 0 Parabel

Tabelle 3: Metrische Klassifikation von nicht leeren Quadriken im R2

Im Fall n = 3 illustrieren wir im Folgenden den Klassifikationssatz durchBilder.

Fall (1): Der interessanteste Fall ist m = 3, k = 2. Die Gleichung

x2

α2+y2

β2− z2

γ2= 0

beschreibt einen elliptischen Kegel (Bild 4).Fall (2): In diesem Fall beschranken wir uns auf m = 3. Fur k = 3 ergibt

sich die Gleichungx2

α2+y2

β2+z2

γ2= 1,

die ein Ellipsoid beschreibt (Bild 5).

Page 64: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 64

Abbildung 4: Elliptischer Kegel x2

α2 + y2

β2 − z2

γ2 = 0

Abbildung 5: Ellipsoid x2

α2 + y2

β2 + z2

γ2 = 1

Fur k = 2 beschreibt

x2

α2+y2

β2− z2

γ2= 1

ein einschaliges Hyperboloid (Bild 6).

Abbildung 6: Einschaliges Hyperboloid x2

α2 + y2

β2 − z2

γ2 = 1

Fur k = 1 ergibt sich die Gleichung

x2

α2+y2

β2− z2

γ2= −1

fur ein zweischaliges Hyperboloid (Bild 7).

Page 65: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

10 Affine Quadriken 65

Abbildung 7: Zweischaliges Hyperboloid x2

α2 + y2

β2 − z2

γ2 = −1

Fall (3): Hier beschranken wir uns auf den Fall m = 2. Fur k = 0 erhaltenwir die Gleichung

x2

α2+y2

β2− 2z = 0,

die ein elliptisches Paraboloid beschreibt (Bild 8).

Abbildung 8: Elliptisches Paraboloid x2

α2 + y2

β2 − 2z = 0

Fur k = 1 beschreibty2

β2− x2

α2− 2z = 0

ein hyperbolisches Paraboloid (Bild 9).

Abbildung 9: Hyperbolisches Paraboloid y2

β2 − x2

α2 − 2z = 0

Page 66: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

11 Der Dualraum 66

11 Der Dualraum

Ein grundlegender Begriff in der Linearen Algebra ist der Begriff des Dual-raums, den wir nun einfuhren wollen. Im Folgenden sei K wieder ein belie-biger Korper.

Definition Es seien V,W K-Vektorraume. Die Menge aller linearen Abbil-dungen von V nach W bezeichnen wir mit

HomK(V,W ) := {f : V → W | f linear}.

Auf der Menge HomK(V,W ) erklaren wir eine Addition und skalare Mul-tiplikation wie folgt (f, g ∈ HomK(V,W ), λ ∈ K):

(f + g)(x) = f(x) + g(x),

(λf)(x) = λf(x) fur alle x ∈ V.

Mit dieser Addition und skalaren Multiplikation wird HomK(V,W ) zu einemK-Vektorraum. Nun betrachten wir den Spezialfall W = K.

Definition Der Vektorraum

V ∗ := HomK(V,K) = {ϕ : V → K |ϕ linear}

heißt der Dualraum von V . Die Elemente von V ∗ heißen Linearformen aufV .

Beispiel 11.1 Wir betrachten eine lineare Gleichung

a1x1 + · · ·+ anxn = 0.

Setzt man a = (a1, . . . , an) (Zeilenvektor!), so gilt

a · x =(a1 · · · an

) x1...xn

= a1x1 + · · ·+ anxn.

Deswegen konnen wir a als eine lineare Abbildung

a : Kn −→ Kx 7−→ a · x

auffassen, d.h. als ein Element von (Kn)∗.

Page 67: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

11 Der Dualraum 67

Beispiel 11.2 Es sei I = [a, b] ⊆ R ein Intervall und V = C[a, b] der Vek-torraum der auf I stetigen Funktionen. Dann ist∫ b

a

: V → R, f 7→∫ b

a

f(x) dx,

eine Linearform auf V . Linearformen auf unendlich dimensionalen Vektorrau-men nennt man auch lineare Funktionale. Mit ihnen beschaftigt sich die Funk-tionalanalysis.

Wir setzen von nun an voraus, dass V ein endlich dimensionaler K-Vektorraum ist und n = dimV > 0. Es sei B = {v1, . . . , vn} eine Basisvon V . Dann gibt es zu jedem i = 1, . . . , n genau eine lineare Abbildung

v∗i : V → K

mit

v∗i (vj) := δij :=

{1 falls j = i,0 falls j 6= i

(δij heißt das Kroneckersymbol).

Satz 11.1 Die Menge B∗ := {v∗1, . . . , v∗n} ist eine Basis von V ∗. Insbesonderegilt dimV ∗ = dimV = n.

Definition Man nennt B∗ die zu der Basis B duale Basis.

Beweis.(a) B∗ ist linear unabhangig:

n∑i=1

αiv∗i = 0⇒

n∑i=1

αiv∗i (vj) = 0⇒ αj = 0 (j = 1, . . . , n).

(b) B∗ ist ein Erzeugendensystem: Es sei v∗ ∈ V ∗. Wir setzen

αi := v∗(vi), i = 1, . . . , n.

Behauptung v∗ =∑n

i=1 αiv∗i .

Beweis. Da eine lineare Abbildung durch die Bilder einer Basis eindeutigfestgelegt ist, reicht es zu zeigen, dass die Bilder der Basisvektoren vj, j =1, . . . , n, unter den beiden linearen Abbildungen ubereinstimmen:(

n∑i=1

αiv∗i

)(vj) =

n∑i=1

αiv∗i (vj) = αj = v∗(vj).

2

2

Page 68: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

11 Der Dualraum 68

Korollar 11.1 Zu jedem v ∈ V mit v 6= 0 gibt es ein ϕ ∈ V ∗ mit ϕ(v) 6= 0.

Beweis. Dies folgt daraus, dass man jeden Vektor v 6= 0 zu einer Basis vonV erganzen kann. 2

Korollar 11.2 Zu jeder Basis B = {v1, . . . , vn} von V gibt es einen Isomor-phismus

ΨB : V → V ∗ mit ΨB(vi) = v∗i .

Warnung Dieser Isomorphismus hangt von der Wahl der Basis ab!

Beweis. Dies folgt aus der Tatsache, dass eine lineare Abbildung durch dieBilder der Vektoren einer Basis bestimmt ist. 2

Beispiel 11.3 V = Kn, B = {e1, . . . , en} kanonische Basis. Duale Basis:

B∗ = {e∗1, . . . , e∗n} (kanonische Basis von V ∗).

Wir machen die Konvention, Vektoren als Spalten und Linearformen als Zei-len zu schreiben. Dann gilt

e∗i = (0, . . . , 0, 1, 0, . . . , 0), 1 an der i-ten Stelle.

Definition Ist V ein K-Vektorraum und U ⊆ V ein Unterraum, so heißt

U0 := {ϕ ∈ V ∗ |ϕ(u) = 0 fur alle u ∈ U} ⊆ V ∗

der zu U orthogonale Raum (oder der Annullator von U).

Der zu U orthogonale Raum U0 ist ein Unterraum von V ∗.

Warnung Der zu einem Unterraum U ⊆ V orthogonale Raum U0 liegt inV ∗ und ist nicht zu verwechseln mit dem orthogonalen Komplement U⊥ vonU , das nur in Raumen mit Skalarprodukt definiert ist und dann in V liegt!

Satz 11.2 Fur jeden Unterraum U ⊆ V gilt

dimU0 = dimV − dimU.

Genauer gilt: Ist {u1, . . . , uk} eine Basis von U und B = {u1, . . . , uk, w1, . . . , w`}eine Basis von V , so bilden die Linearformen {w∗

1, . . . , w∗`} aus B∗ eine Basis

von U0.

Page 69: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

11 Der Dualraum 69

Beweis.(a) Lineare Unabhangigkeit: Da w∗

1, . . . , w∗` Elemente der dualen Basis B∗

sind, sind sie linear unabhangig.(b) Zu zeigen: U0 = Span{w∗

1, . . . , w∗`}.

”⊇”: klar, da w∗j (ui) = 0.

”⊆”: Es sei ϕ ∈ U0,

ϕ = µ1u∗1 + · · ·+ µku

∗k + λ1w

∗1 + · · ·+ λ`w

∗` .

Wendet man diese Abbildung auf ui (i = 1, . . . , k) an, so folgt

0 = ϕ(ui) = µi.

2

Nun wollen wir auch lineare Abbildungen dualisieren. Es sei f : V → Weine lineare Abbildung und ψ ∈ W ∗. Dann betrachten wir dazu das Dia-gramm

Vf //

ψ◦f AAA

AAAA

A W

ψ��K

Dann gilt ψ ◦ f ∈ V ∗. Damit konnen wir definieren:

Definition Die Abbildung

f ∗ : W ∗ → V ∗, ψ 7→ f ∗(ψ) := ψ ◦ f,

heißt die zu f duale Abbildung.

Bemerkung 11.1 Die Abbildung f ∗ ist linear:

f ∗(ψ1 + ψ2) = (ψ1 + ψ2) ◦ f = ψ1 ◦ f + ψ2 ◦ f = f ∗(ψ1) + f ∗(ψ2),

f ∗(λψ) = (λψ) ◦ f = λψ ◦ f = λf ∗(ψ).

Satz 11.3 Es seien V und W K-Vektorraume mit Basen B und C undf : V → W eine lineare Abbildung. Dann gilt

MB∗

C∗ (f ∗) =(MC

B (f))T,

d.h. die duale Abbildung wird bezuglich der dualen Basen durch die transpo-nierte Matrix beschrieben.

Page 70: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

11 Der Dualraum 70

Beweis. Es seiB = {v1, . . . , vn}, C = {w1, . . . , wm},MCB (f) = (aij),M

B∗C∗ (f ∗) =

(bij). Dann gilt

f(vj) =m∑i=1

aijwi, also aij = w∗i (f(vj)) = f ∗(w∗

i )(vj),

f ∗(w∗i ) =

n∑j=1

bjiv∗j , also bji = f ∗(w∗

i )(vj).

Also gilt aij = bji. 2

Definition Es sei

· · · −→ Vi−1fi−1−→ Vi

fi−→ Vi+1 −→ · · ·

eine (endliche oder unendliche) Sequenz von K-Vektorraumen und linearenAbbildungen. Die Sequenz heißt exakt, wenn fur jedes i gilt:

Ker fi = Im fi−1.

Unter einer kurzen exakten Sequenz versteht man eine exakte Sequenz derGestalt

0 −→ Uf−→ V

g−→ W −→ 0.

Es sei0 −→ U

f−→ Vg−→ W −→ 0

eine kurze exakte Sequenz. Dann gilt

Exaktheit an der Stelle U ⇔ f injektiv,

Exaktheit an der Stelle V ⇔ Im f = Ker g,

Exaktheit an der Stelle W ⇔ g surjektiv.

Ist f : V → W eine lineare Abbildung zwischen K-Vektorraumen V und W ,so hat man immer eine kurze exakte Sequenz

0 −→ Ker f ↪→ Vf−→ Im f −→ 0,

wobei Ker f ↪→ V die Inklusionsabbildung ist. Dazu gehort eine duale kurzeexakte Sequenz

0←− im f ∗f∗←− W ∗ ←↩ Ker f ∗ ←− 0.

Der Zusammenhang zwischen diesen beiden kurzen exakten Sequenzen istder Folgende:

Page 71: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

11 Der Dualraum 71

Satz 11.4 Fur eine lineare Abbildung f : V → W zwischen endlich dimen-sionalen Vektorraumen gilt

Im f ∗ = (Ker f)0 und Ker f ∗ = (Im f)0.

Korollar 11.3 Unter den obigen Voraussetzungen gilt

Rang f ∗ = Rang f.

Beweis.

Rang f ∗ = dim Im f ∗

= dim(Ker f)0 (nach Satz 11.4)

= dimV − dim Ker f (nach Satz 11.2)

= dim Im f = Rang f.

2

Mit Hilfe von Satz 11.3 erhalten wir damit einen neuen Beweis des fol-genden Resultats.

Korollar 11.4 Fur jede Matrix A ∈ Mat(m× n;K) gilt

ZeilenrangA = SpaltenrangA.

Beweis von Satz 11.4. Wir zeigen Im f ∗ = (Ker f)0. Der Beweis der zweitenGleichung geht analog.

”⊆”: Es sei ϕ ∈ Im f ∗. Dann ist ϕ = f ∗(ψ) = ψ ◦ f fur ein ψ ∈ V ∗. Furx ∈ Ker f gilt dann

ϕ(x) = ψ(f(x)) = ψ(0) = 0,

also ϕ ∈ (Ker f)0.”⊇”: Es sei umgekehrt ϕ ∈ V ∗ mit ϕ|Ker f = 0 gegeben. Wir mussen ein

ψ ∈ W ∗ mit ϕ = ψ ◦ f konstruieren. Dazu sei

B = {u1, . . . , ur, v1, . . . , vk} Basis von V,

B = {w1, . . . , wr, wr+1, . . . , wm} Basis von W

mit Ker f = Span{v1, . . . , vk}, Im f = Span{w1, . . . , wr} und f(ui) = wi furi = 1, . . . , r. Dann gibt es genau eine lineare Abbildung ψ mit

ψ(wi) :=

{ϕ(ui) fur i = 1, . . . , r,0 sonst.

Page 72: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

11 Der Dualraum 72

Nach Konstruktion von ψ ist ϕ = ψ ◦ f . 2

Es sei nun〈 , 〉 : V × V −→ K

(v, w) 7−→ 〈v, w〉eine Bilinearform. Dann konnen wir die beiden folgenden Abbildungen be-trachten:

〈v, ·〉 : V → K, w 7→ 〈v, w〉,〈·, w〉 : V → K, v 7→ 〈v, w〉.

Damit erhalten wir Abbildungen

b1 : V → V ∗, v 7→ 〈v, ·〉,b2 : V → V ∗, w 7→ 〈·, w〉.

Definition Eine Bilinearform 〈 , 〉 : V → K heißt nicht ausgeartet, wenndie beiden Abbildungen b1 und b2 injektiv sind.

Beispiel 11.4 Ein Skalarprodukt 〈 , 〉 auf einem R-Vektorraum ist nichtausgeartet. Denn

b1(v) = 0⇔ 〈v, w〉 = 0 fur alle w ∈ V ⇔ v = 0,

da 〈 , 〉 positiv definit ist. Da 〈 , 〉 symmetrisch ist, folgt, dass auch b2 injektivist.

Daraus folgt unmittelbar:

Satz 11.5 In einem endlich dimensionalen euklidischen Vektorraum V istdie Abbildung

Ψ : V → V ∗, v 7→ 〈v, ·〉,

ein Isomorphismus.

Bemerkung 11.2 Im Gegensatz zu den Isomorphismen ΨB : V → V ∗ inKorollar 11.2, die von der Wahl der Basis abhangen, ist dieser Isomorphismuskanonisch, d.h. er hangt nicht von der Wahl einer Basis ab. Er existiert abernur, wenn ein Skalarprodukt gegeben ist.

Satz 11.6 Es sei V ein euklidischer Vektorraum und Ψ : V → V ∗ der kano-nische Isomorphismus. Dann gilt:

(i) Fur jeden Unterraum U ⊆ V ist Ψ(U⊥) = U0.

Page 73: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

12 Multilineare Abbildungen 73

(ii) Ist B = {v1, . . . , vn} eine Orthonormalbasis von V und B∗ = {v∗1, . . . , v∗n}die duale Basis, so ist Ψ(vi) = v∗i .

Beweis.(i): Nach den Dimensionsformeln gilt

dimU⊥ = dimV − dimU = dimU0.

Daher reicht es zu zeigen: Ψ(U⊥) ⊆ U0. Dies folgt aus

Ψ(v)(u) = 〈v, u〉 = 0 fur v ∈ U⊥ und u ∈ U.

(ii): Dies folgt aus

Ψ(vi)(vj) = 〈vi, vj〉 = δij = v∗i (vj).

2

12 Multilineare Abbildungen

Literatur fur diesen Abschnitt:

• M. Spivak: Calculus on Manifolds. W. A. Benjamin 1965.

• W. Greub: Multilinear Algebra, 2nd Edition. Springer-Verlag 1978.

Definition Es seien V1, . . . , Vp,W K-Vektorraume. Eine Abbildung ϕ : V1×· · · × Vp → W heißt multilinear oder genauer p-linear, wenn fur jedes i =1, . . . , p gilt

ϕ(v1, . . . , vi + v′i, . . . , vp) = ϕ(v1, . . . , vi, . . . , vp) + ϕ(v1, . . . , v′i, . . . , vp),

ϕ(v1, . . . , λvi, . . . , vp) = λϕ(v1, . . . , vi, . . . , vp),

fur vi, v′i ∈ Vi, λ ∈ K. Gilt W = K, so heißt ϕ eine multilineare (oder

p-lineare) Funktion.

Beispiel 12.1 (a) Der Fall p = 1 und W = K ist der Spezialfall der Linear-formen.

(b) Im Fall p = 2, W = K, V1 = V2 = V , erhalten wir gerade die amAnfang der Vorlesung betrachteten Bilinearformen.

(c) Es sei ϕ : V × V ∗ → K die durch (v, f) 7→ f(v) definierte Abbildung.Dies ist eine bilineare Funktion.

Page 74: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

12 Multilineare Abbildungen 74

Es sei Hom(V1, . . . , Vp;W ) die Menge aller p-linearen Abbildungen ϕ :V1 × · · · × Vp → W . Wir erklaren eine Addition durch

(ϕ+ ψ)(v1, . . . , vp) = ϕ(v1, . . . , vp) + ψ(v1, . . . , vp)

und eine skalare Multiplikation mit λ ∈ K durch

(λϕ)(v1, . . . , vp) = λϕ(v1, . . . , vp).

Damit wird Hom(V1, . . . , Vp;W ) zu einem K-Vektorraum.

Definition Ist V1 = . . . = Vp = V und W = K, so nennt man eine multi-lineare Funktion ϕ : V × · · · × V → K auch eine Multilinearform oder einenp-Tensor auf V . Die Menge aller p-Tensoren auf V bezeichnen wir mit T p(V ).

Nach den Bemerkungen vor der Definition ist T p(V ) ein K-Vektorraum.

Beispiel 12.2 Es sei V = Kn und det die Funktion

det : Kn × · · · ×Kn︸ ︷︷ ︸n

−→ K

(a1, . . . , an) 7−→ det(a1 · · · an),

wobei (a1 · · · an) die n × n-Matrix mit den Spalten a1, . . . , an ist. Aus denEigenschaften der Determinante folgt, dass det eine Multilinearform ist, alsodet ∈ T n(Kn).

Definition Ist ϕ ∈ T p(V ) und ψ ∈ T q(V ), so definieren wir das Tensor-produkt ϕ⊗ ψ ∈ T p+q(V ) durch

(ϕ⊗ ψ)(v1, . . . , vp, vp+1, . . . , vp+q) = ϕ(v1, . . . , vp) · ψ(vp+1, . . . , vp+q).

Warnung Man beachte, dass hier die Reihenfolge wichtig ist, da ϕ⊗ψ undψ ⊗ ϕ ganz unterschiedlich sind.

Satz 12.1 Das Tensorprodukt hat die folgenden Eigenschaften:

(i) (ϕ⊗ ψ)⊗ θ = ϕ⊗ (ψ ⊗ θ).

(ii) (ϕ1 + ϕ2)⊗ ψ = ϕ1 ⊗ θ + ϕ2 ⊗ ψ.

(iii) ϕ⊗ (ψ1 + ψ2) = ϕ⊗ ψ1 + ϕ⊗ ψ2.

(vi) (λϕ)⊗ ψ = ϕ⊗ (λψ) = λ(ϕ⊗ ψ).

Page 75: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

12 Multilineare Abbildungen 75

Beweis. Der Nachweis dieser Eigenschaften ist einfach. Siehe Vorlesung. 2

Der Vektorraum T 1(V ) ist gerade der Dualraum V ∗. Mit dem Tensor-produkt konnen wir nun die anderen Vektorraume T p(V ) durch T 1(V ) aus-drucken:

Satz 12.2 Es sei (v1, . . . , vn) eine Basis von V und (v∗1, . . . , v∗n) die duale

Basis. Dann ist die Menge aller p-fachen Tensorprodukte

v∗i1 ⊗ · · · ⊗ v∗ip , 1 ≤ i1, . . . , ip ≤ n,

eine Basis von T p(V ). Insbesondere hat T p(V ) die Dimension np.

Beweis.(a) Man beachte zunachst, dass

v∗i1 ⊗ · · · ⊗ v∗ip(vj1 , . . . , vjp) = δi1,j1 · · · δip,jp

=

{1 falls j1 = i1, . . . , jp = ip,0 sonst.

Gilt

(w1, . . . , wp) =

(n∑j=1

a1jvj, . . . ,n∑j=1

apjvj

),

so ist

ϕ(w1, . . . , wp) =n∑

j1,...,jp=1

a1,j1 · · · ap,jpϕ(vj1 , . . . , vjp)

=n∑

i1,...,ip=1

ϕ(vi1 , . . . , vip) · v∗i1 ⊗ · · · ⊗ v∗ip(w1, . . . , wp).

Also gilt

ϕ =n∑

i1,...,ip=1

ϕ(vi1 , . . . , vip) · v∗i1 ⊗ · · · ⊗ v∗ip .

Also bilden die v∗i1 ⊗ · · · ⊗ v∗ip ein Erzeugendensystem von T p(V ).

(b) Zum Beweis der linearen Unabhangigkeit nehmen wir an

n∑i1,...,ip=1

ai1,...,ipv∗i1⊗ · · · ⊗ v∗ip = 0.

Page 76: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

13 Alternierende Multilinearformen 76

Indem wir beide Seiten dieser Gleichung auf (vj1 , . . . , vjp) anwenden, erhaltenwir

aj1,...,jp = 0.

Also sind die v∗i1 ⊗ · · · ⊗ v∗ip linear unabhangig. 2

Wie im Fall des Dualraums konnen wir einer linearen Abbildung f : V →W eine lineare Abbildung f ∗ : T p(W ) → T p(V ) zuordnen: Diese Abbildungist definiert durch

f ∗ϕ(v1, . . . , vp) = ϕ(f(v1), . . . , f(vp)) fur ϕ ∈ T p(W ), v1, . . . , vp ∈ V.

Man kann leicht zeigen:

Satz 12.3 Fur eine lineare Abbildung f : V → W und ϕ ∈ T p(W ), ψ ∈T q(W ) gilt

f ∗(ϕ⊗ ψ) = f ∗ϕ⊗ f ∗ψ.

13 Alternierende Multilinearformen

Fur den Grundkorper K setzen wir in diesem Abschnitt voraus:

nK := 1 + · · ·+ 1︸ ︷︷ ︸n

6= 0 fur alle n ≥ 1.

Wir identifizieren dann nK mit n.Die Multilinearform det ∈ T n(Kn) hat die folgende wichtige Eigenschaft:

det(a1, . . . , ai, . . . , aj, . . . , an) = − det(a1, . . . , aj, . . . , ai, . . . , an).

Solche Multilinearformen nennt man alternierend.

Definition Eine Multilinearform ω ∈ T p(V ) heißt alternierend, wenn furjede Permutation σ ∈ Sp gilt

ω(v1, . . . , vp) = signσ · ω(vσ(1), . . . , vσ(p)) fur alle v1, . . . , vp ∈ V.

Die Menge aller alternierenden p-Tensoren bezeichnen wir mit∧p(V ).

Offensichtlich ist∧p(V ) ein Unterraum von T p(V ).

Lemma 13.1 Es sei ω ∈ T p(V ) eine Multilinearform. Dann sind die folgen-den Bedingungen aquivalent:

(i) ω ist alternierend.

Page 77: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

13 Alternierende Multilinearformen 77

(ii) ω(v1, . . . , vp) = −ω(vτ(1), . . . , vτ(p)) fur jede Transposition τ ∈ Sp.

(iii) Ist vi = vj fur ein i 6= j, so ist ω(v1, . . . , vp) = 0.

Beweis.(i) ⇒ (ii): Klar.(ii) ⇒ (i): Es sei σ ∈ Sp. Dann gibt es nach I, Lemma 17.1, eine Darstel-

lungσ = τ1 ◦ · · · ◦ τm,

wobei die τi Transpositionen sind. Es gilt

m =

{gerade falls signσ = 1,ungerade falls signσ = −1.

Daraus folgt die Behauptung.(ii)⇒ (iii): Es sei vi = vj mit i 6= j und τ sei die Transposition, die i und

j vertauscht. Dann gilt

ω(v1, . . . , vp) = ω(vτ(1), . . . , vτ(p)) = −ω(v1, . . . , vp).

Also folgt mit 1 + 1 6= 0ω(v1, . . . , vp) = 0.

(iii) ⇒ (ii): Es sei τ die Transposition, die i und j vertauscht (i 6= j).Dann gilt

0 = ω(v1, . . . ,i

vi + vj, . . . ,j

vi + vj, . . . , vp)

= ω(v1, . . . , vi, . . . , vi, . . . , vp) + ω(v1, . . . , vi, . . . , vj, . . . , vp)

+ ω(v1, . . . , vj, . . . , vi, . . . , vp) + ω(v1, . . . , vj, . . . , vj, . . . , vp).

Daraus folgt

ω(v1, . . . , vi, . . . , vj, . . . , vp) = −ω(v1, . . . , vj, . . . , vi, . . . , vp).

2

Definition Es sei ϕ ∈ T p(V ). Dann definieren wir

Alt(ϕ)(v1, . . . , vp) :=1

p!

∑σ∈Sp

signσ · ϕ(vσ(1), . . . , vσ(p)).

Satz 13.1 (i) Fur ϕ ∈ T p(V ) ist Alt(ϕ) ∈∧p(V ).

Page 78: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

13 Alternierende Multilinearformen 78

(ii) Fur ω ∈∧p(V ) gilt Alt(ω) = ω.

(iii) Fur ϕ ∈ T p(V ) gilt Alt(Alt(ϕ)) = Alt(ϕ).

Beweis.(i) Es sei τ ∈ Sp beliebig. Dann gilt

Alt(ϕ)(vτ(1), . . . , vτ(p))

=1

p!

∑σ∈Sp

signσ · ϕ(vσ(τ(1)), . . . , vσ(τ(p)))

= sign τ · 1

p!

∑σ◦τ∈Sp

sign(σ ◦ τ) · ϕ(v(σ◦τ)(1), . . . , v(σ◦τ)(p))

= sign τ · Alt(ϕ)(v1, . . . , vp).

(ii) Es gilt

Alt(ω)(v1, . . . , vp) =1

p!

∑σ∈Sp

signσ · ω(vσ(1), . . . , vσ(p))

=1

p!

∑σ∈Sp

(signσ)2ω(v1, . . . , vp)

= ω(v1, . . . , vp).

(iii) folgt aus (i) und (ii). 2

Wir mochten eine Basis von∧p(v) bestimmen. Dazu bemerken wir, dass

mit ω ∈∧p(V ) und η ∈

∧q(V ) das Tensorprodukt ω ⊗ η im Allgemeinennicht in

∧p+q(V ) liegt. Daher definieren wir ein neues Produkt:

Definition Ist ω ∈∧p(V ) und η ∈

∧q(V ), so definieren wir das Dachpro-dukt ω ∧ η ∈

∧p+q(V ) durch

ω ∧ η :=(p+ q)!

p!q!Alt(ω ⊗ η).

Satz 13.2 Das Dachprodukt hat folgende Eigenschaften:

(i) (ω1 + ω2) ∧ η = ω1 ∧ η + ω2 ∧ η.

(ii) ω ∧ (η1 + η2) = ω ∧ η1 + ω ∧ η2.

(iii) (λω) ∧ η = ω ∧ (λη) = λ(ω ∧ η).

(iv) ω ∧ η = (−1)pqη ∧ ω.

Page 79: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

13 Alternierende Multilinearformen 79

(v) f ∗(ω ∧ η) = f ∗(ω) ∧ f ∗(η).

Beweis. Diese Eigenschaften sind leicht nachzuweisen. 2

Mehr Arbeit erfordert der Nachweis der Gleichung (ω∧η)∧θ = ω∧(η∧θ).Dazu brauchen wir zwei Hilfssatze:

Lemma 13.2 Fur ϕ ∈ T p(V ) mit Alt(ϕ) = 0 und ψ ∈ T q(V ) gilt

Alt(ϕ⊗ ψ) = Alt(ψ ⊗ ϕ) = 0.

Beweis. Es gilt

(p+ q)!Alt(ϕ⊗ ψ)(v1, . . . , vp+q)

=∑

σ∈Sp+q

signσ · ϕ(vσ(1), . . . , vσ(p)) · ψ(vσ(p+1), . . . , vσ(p+q)).

Nun betrachten wir die Untergruppe G ⊆ Sp+q, die aus allen Permutationenσ besteht, die p+ 1, . . . , p+ q fest lassen. Dann gilt∑

σ∈G

signσ · ϕ(vσ(1), . . . , vσ(p)) · ψ(vσ(p+1), . . . , vσ(p+q))

=

∑σ′∈Sp

signσ′ · ϕ(vσ′(1), . . . , vσ′(p))

· ψ(vp+1, . . . , vp+q)

= p!Alt(ϕ) · ψ(vp+1, . . . , vp+q) = 0

Nun sei σ0 6∈ G. Es sei

Gσ0 := {σ ◦ σ0 |σ ∈ G}.

Wir setzen außerdem

(vσ0(1), . . . , vσ0(p+q)) = (w1, . . . , wp+q).

Dann gilt∑σ∈Gσ0

signσ · ϕ(vσ(1), . . . , vσ(p)) · ψ(vσ(p+1), . . . , vσ(p+q))

=

(signσ0 ·

∑σ′∈G

signσ′ · ϕ(wσ′(1), . . . , wσ′(p))

)· ψ(wp+1, . . . , wp+q)

= 0.

Page 80: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

13 Alternierende Multilinearformen 80

Man beachte, dass G∩Gσ0 = ∅ gilt. Denn angenommen σ ∈ G∩Gσ0. Danngilt σ = σ′◦σ0 fur ein σ′ ∈ G, also σ0 = (σ′)−1◦σ ∈ G, ein Widerspruch. Wennwir auf diese Weise fortfahren, konnen wir Sp+q so in disjunkte Teilmengenzerlegen, dass die Summe uber jede dieser Teilmengen jeweils 0 ergibt. Alsoergibt die Summe uber ganz Sp+q Null.

Die andere Gleichung Alt(ψ ⊗ ϕ) = 0 wird analog bewiesen. 2

Lemma 13.3 Fur ω ∈∧p(V ), η ∈

∧q(V ) und θ ∈∧r(V ) gilt

Alt(Alt(ω ⊗ η)⊗ θ) = Alt(ω ⊗ η ⊗ θ) = Alt(ω ⊗ Alt(η ⊗ θ)).

Beweis. Es gilt

Alt(Alt(η ⊗ θ)− η ⊗ θ) = Alt(η ⊗ θ)− Alt(η ⊗ θ) = 0.

Aus Lemma 13.2 folgt damit

0 = Alt(ω ⊗ [Alt(η ⊗ θ)− η ⊗ θ])= Alt(ω ⊗ Alt(η ⊗ θ))− Alt(ω ⊗ η ⊗ θ).

Die andere Gleichung wird analog bewiesen. 2

Satz 13.3 Fur ω ∈∧p(V ), η ∈

∧q(V ) und θ ∈∧r(V ) gilt

(ω ∧ η) ∧ θ = ω ∧ (η ∧ θ) =(p+ q + r)!

p!q!r!Alt(ω ⊗ η ⊗ θ).

Beweis.

(ω ∧ η) ∧ θ =((p+ q) + r)!

(p+ q)!r!Alt((ω ∧ η)⊗ θ)

=(p+ q + r)!

(p+ q)!r!Alt

((p+ q)!

p!q!Alt(ω ⊗ η)⊗ θ

)=

(p+ q + r)!

p!q!r!Alt(ω ⊗ η ⊗ θ) (nach Lemma 13.3).

2

Satz 13.4 Es sei (v1, . . . , vn) eine Basis von V und (v∗1, . . . , v∗n) die duale

Basis. Dann ist die Menge aller p-fachen Dachprodukte

v∗i1 ∧ · · · ∧ v∗ip , 1 ≤ i1 < . . . < ip ≤ n,

eine Basis von∧p(V ). Insbesondere hat

∧p(V ) die Dimension(n

p

)=

n!

p!(n− p)!.

Page 81: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

13 Alternierende Multilinearformen 81

Beweis.(a) Es sei ω ∈

∧p(V ) ⊆ T p(V ). Nach Satz 12.2 konnen wir schreiben:

ω =n∑

i1,...,ip=1

ai1,...,ipv∗i1⊗ · · · ⊗ v∗ip .

Es folgt

ω = Alt(ω) =n∑

i1,...,ip=1

ai1,...,ipAlt(v∗i1 ⊗ · · · ⊗ v∗ip).

Nach Satz 13.3 gilt aber

Alt(v∗i1 ⊗ · · · ⊗ v∗ip) = Konstante · v∗i1 ∧ · · · ∧ v

∗ip .

Also spannen die Elemente v∗i1 ∧ · · · ∧ v∗ip den Raum

∧p(V ) auf.(b) Die lineare Unabhangigkeit wird wie im Beweis von Satz 12.2 bewie-

sen. 2

Hat V die Dimension n, so folgt aus Satz 13.4, dass∧n(V ) die Dimension

1 hat. Das bedeutet, dass alle alternierenden n-Tensoren auf V Vielfache einesvon Null verschiedenen n-Tensors sind. Fur V = Kn ist det ∈

∧n(Kn) einsolcher Tensor. Er ist dadurch ausgezeichnet, dass det(e1, . . . , en) = 1 gilt.Deswegen erhalten wir die folgende Charakterisierung der Determinante:

Korollar 13.1 Die Determinante det ist der eindeutig bestimmte alternie-rende n-Tensor mit

det(e1, . . . , en) = 1.

Satz 13.5 Es sei V ein K-Vektorraum, (v1, . . . , vn) eine Basis von V undω ∈

∧n(V ). Ist wj =∑n

i=1 aijvi, j = 1, . . . , n, so gilt

ω(w1, . . . , wn) = det(aij) · ω(v1, . . . , vn).

Beweis. Wir definieren η ∈ T n(Kn) durch

η((a11, . . . , an1)T , . . . , (a1n, . . . , ann)

T ) = ω(∑

ai1vi, . . . ,∑

ainvi).

Dann ist η ∈∧n(Kn), also η = λ · det fur ein λ ∈ K. Es gilt

λ = λ det(e1, . . . , en) = η(e1, . . . , en) = ω(v1, . . . , vn).

2

Page 82: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

14 Symmetrische Multilinearformen 82

Es sei nun K = R. Satz 13.5 zeigt, dass ein von Null verschiedener alter-nierender n-Tensor ω ∈

∧n(V ) die (geordneten) Basen von V in zwei disjunk-te Klassen einteilt: eine mit ω(v1, . . . , vn) > 0 und eine mit ω(v1, . . . , vn) <0. Wenn (v1, . . . , vn) und (w1, . . . , wn) zwei Basen von V sind und A =(aij) die durch wj =

∑aijvi definierte Matrix des Basiswechsels, dann sind

(v1, . . . , vn) und (w1, . . . , wn) genau dann in der gleichen Klasse, wenn detA >0 gilt. Also ist die Klasseneinteilung unabhangig von ω. Damit konnen wirdefinieren:

Definition Eine Orientierung eines reellen Vektorraums V ist eine Klassevon Basen, fur die gilt: Fur einen von Null verschiedenen alternierenden n-Tensor ω ∈

∧n(V ) ist ω(v1, . . . , vn) > 0 fur alle Basen aus dieser Klasse oderω(v1, . . . , vn) < 0 fur alle Basen aus dieser Klasse.

Beispiel 13.1 Die Standardorientierung des Rn ist die Orientierung, zu derdie Standardbasis (e1, . . . , en) gehort. Hier kommt es auf die Reihenfolge an:Vertauschen wir zwei dieser Basiselemente, so gehort die neue Basis zu deranderen Orientierung.

Ist nun V ein euklidischer Vektorraum, so gilt fur die Transformationsma-trix A, die eine Orthonormalbasis in eine andere transformiert, detA = ±1.Damit konnen wir definieren:

Definition Es sei V ein euklidischer Vektorraum und eine Orientierung vonV gewahlt. Das Volumenelement von V ist das eindeutig bestimmte Elementω ∈

∧n(V ) mit ω(v1, . . . , vn) = 1 fur jede Orthonormalbasis (v1, . . . , vn) ausder Orientierung von V .

Beispiel 13.2 Fur V = Rn mit dem gewohnlichen euklidischen Skalarpro-dukt und der Standardorientierung ist det das Volumenelement und

| det(v1, . . . , vn)|

ist das Volumen des von den Vektoren v1, . . . , vn aufgespannten Parallelotops.

14 Symmetrische Multilinearformen

Analog zu alternierenden Multilinearformen kann man auch symmetrischeMultilinearformen betrachten. Fur den Grundkorper K setzen wir weiterhinnK 6= 0 fur alle n ≥ 1 voraus.

Page 83: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

14 Symmetrische Multilinearformen 83

Definition Eine Multilinearform ϕ ∈ T p(V ) heißt symmetrisch, wenn furjede Permutation σ ∈ Sp gilt

ϕ(v1, . . . , vp) = ϕ(vσ(1), . . . , vσ(p)) fur alle v1, . . . , vp ∈ V.

Die Menge aller symmetrischen p-Tensoren bezeichnen wir mit Sp(V ).

Definition Es sei ϕ ∈ T p(V ). Dann definieren wir

Sym(ϕ)(v1, . . . , vp) :=1

p!

∑σ∈Sp

ϕ(vσ(1), . . . , vσ(p)).

Satz 14.1 (i) Fur ϕ ∈ T p(V ) ist Sym(ϕ) ∈ Sp(V ).

(ii) Fur ϕ ∈ Sp(V ) gilt Sym(ϕ) = ϕ.

(iii) Fur ϕ ∈ T p(V ) gilt Sym(Sym(ϕ)) = Sym(ϕ).

Beweis. Der Beweis ist analog zum Beweis von Satz 13.1. 2

Definition Ist ϕ ∈ Sp(V ) und ψ ∈ Sq(V ), so definieren wir das symmetri-sche Produkt ϕ ∨ ψ ∈ Sp+q(V ) durch

ϕ ∨ ψ :=(p+ q)!

p!q!Sym(ϕ⊗ ψ).

Wie im Fall der alternierenden Multilinearformen beweist man:

Satz 14.2 Das symmetrische Produkt hat folgende Eigenschaften:

(i) (ϕ1 + ϕ2) ∨ ψ = ϕ1 ∨ ψ + ϕ2 ∨ ψ.

(ii) ϕ ∨ (ψ1 + ψ2) = ϕ ∨ ψ1 + ϕ ∨ ψ2.

(iii) (λϕ) ∨ ψ = ϕ ∨ (λψ) = λ(ϕ ∨ ψ).

(iv) ϕ ∨ ψ = ψ ∨ ϕ.

(v) (ϕ ∨ ψ) ∨ θ = ϕ ∨ (ψ ∨ θ).

(vi) f ∗(ϕ ∨ ψ) = f ∗(ϕ) ∨ f ∗(ψ).

Page 84: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

15 Der Quotientenraum 84

Satz 14.3 Es sei (v1, . . . , vn) eine Basis von V und (v∗1, . . . , v∗n) die duale

Basis. Dann ist die Menge aller p-fachen symmetrischen Produkte

v∗i1 ∨ · · · ∨ v∗ip , 1 ≤ i1 ≤ . . . ≤ ip ≤ n,

eine Basis von Sp(V ). Insbesondere hat Sp(V ) die Dimension(n+ p− 1

p

).

Definition Ein Polynom

P (x1, . . . , xn) =∑

endlich

aν1,...,νnxν11 · · ·xνn

n

heißt homogen vom Grad p, wenn die Summe uber alle n-Tupel (ν1, . . . , νn)mit

∑ni=1 νi = p lauft. Es sei Kp[x1, . . . , xn] der Vektorraum der homogenen

Polynome in den Variablen x1, . . . , xn vom Grad p.

Satz 14.4 Es sei V ein K-Vektorraum der Dimension n. Dann gibt es einenIsomorphismus

Ψ : Sp(V )→ Kp[x1, . . . , xn].

Beweis. Es sei (v1, . . . , vn) eine Basis von V und (v∗1, . . . , v∗n) die duale Basis.

Dann definieren wir

Ψ : Sp(V )→ Kp[x1, . . . , xn]

durchv∗i1 ∨ · · · ∨ v

∗ip 7→ xi1 · · ·xip , 1 ≤ i1 ≤ . . . ≤ ip ≤ n.

Da die v∗i1 ∨ · · · ∨ v∗ip nach Satz 14.3 eine Basis von Sp(V ) und die Monome

xi1 · · ·xip eine Basis von Kp[x1, . . . , xn] bilden, folgt, dass sich Ψ zu einemIsomorphismus zwischen Sp(V ) und Kp[x1, . . . , xn] erweitern lasst. 2

15 Der Quotientenraum

Wir wollen nun den Begriff des Quotientenraums einfuhren. Dazu betrachtenwir Aquivalenzrelationen.

Es sei X eine Menge.

Definition Eine Aquivalenzrelation auf X ist eine Teilmenge R ⊆ X ×Xmit folgenden Eigenschaften:

Page 85: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

15 Der Quotientenraum 85

(R) (x, x) ∈ R fur alle x ∈ X (reflexiv).

(S) (x, y) ∈ R⇒ (y, x) ∈ R fur alle x, y ∈ X (symmetrisch).

(T) (x, y) ∈ R, (y, z) ∈ R⇒ (x, z) ∈ R fur alle x, y, z ∈ X (transitiv).

Notation x ∼ y :⇔ (x, y) ∈ R.

Beispiel 15.1 Es sei X = Mat(n, n;K) und

R := {(A;B) ∈ X ×X | ∃T ∈ GL(n;K) mit A = T−1BT} ⊆ X ×X.

Dann giltA ∼ B ⇔ A ist ahnlich zu B.

Definition Es sei V ein K-Vektorraum und U ⊆ V ein Unterraum. Wirdefinieren

R := {(u, v) ∈ V × V |u− v ∈ U}.

Mit anderen Wortenu ∼ v :⇔ u− v ∈ U.

Lemma 15.1 Die obige Relation R ist eine Aquivalenzrelation.

Beweis.

(R) (u, u) ∈ R, da u− u = 0 ∈ U .

(S) (u, v) ∈ R⇒ u− v ∈ U ⇒ v − u ∈ U ⇒ (v, u) ∈ R.

(T) (u, v) ∈ R, (v, w) ∈ R⇒ u−v ∈ U, v−w ∈ U ⇒ u−w ∈ U ⇒ (u,w) ∈R.

2

Definition Es sei x ∈ X. Die Aquivalenzklasse von x, in Zeichen [x], istdefiniert als

[x] := {y ∈ X |x ∼ y} ⊆ X.

Jedes Element y ∈ [x] heißt Reprasentant der Aquivalenzklasse [x].

Lemma 15.2 (i) x ∈ [x|.

(ii) [x] ∩ [y] 6= ∅ ⇔ x ∼ y.

(iii) x ∼ y ⇔ [x] = [y].

Page 86: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

15 Der Quotientenraum 86

Beweis.(i) folgt aus der Reflexivitat.(ii): Es sei [x] ∩ [y] 6= ∅. Dann existiert ein z ∈ [x] ∩ [y]. Dann gilt z ∼ x

und z ∼ y. Aus der Transitivitat folgt x ∼ y.Ist umgekehrt x ∼ y, so folgt x ∈ [x] ∩ [y], also [x] ∩ [y] 6= ∅.(iii): Es sei x ∼ y. Ist z ∈ [x], so gilt z ∼ x. Aus der Transitivitat folgt

z ∼ y, also z ∈ [y]. Also gilt [x] ⊆ [y]. Analog zeigt man [y] ⊆ [x].Die umgekehrte Richtung ist klar. 2

Korollar 15.1 Die Menge X ist die disjunkte Vereinigung der Aquivalenz-klassen.

Definition Die Menge der Aquivalenzklassen heißt die Quotientenmengeund wird mit X/ ∼ bezeichnet. Man hat eine kanonische Projektion

π : X −→ X/ ∼x 7−→ [x]

.

Wir kehren nun zu dem Beispiel eines Unterraums U ⊆ V in einem K-Vektorraum V zuruck.

Definition Die Menge a+ U := {a+ u |u ∈ U} heißt die Nebenklasse vona ∈ V in V .

Lemma 15.3 Es gilt [a] = a+ U bezuglich der Aquivalenzrelation u ∼ v ⇔u− v ∈ U .

Beweis. x ∈ [a]⇔ x ∼ a⇔ x− a ∈ U ⇔ x ∈ a+ U . 2

Definition Der Quotientenraum V/U ist die Menge

V/U := {a+ U | a ∈ V }.

Definition Wir definieren eine Addition auf V/U durch

(a+ U) + (b+ U) := (a+ b) + U (a, b ∈ V )

und eine skalare Multiplikation durch

λ(a+ U) := (λa) + U (λ ∈ K, a ∈ V ).

Lemma 15.4 Diese Verknupfungen sind wohldefiniert (d.h. unabhangig vonder Wahl der Reprasentanten a und b) und machen V/U zu einem K-Vek-torraum.

Page 87: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

15 Der Quotientenraum 87

Beweis. Wir zeigen zunachst die Unabhangigkeit von der Wahl der Reprasen-tanten.

(a) Es sei a ∼ a′, b ∼ b′. Es ist zu zeigen: (a+ b) +U = (a′ + b′) +U , d.h.

a+ b ∼ a′ + b′.

Es gilt

a ∼ a′, b ∼ b′ ⇒ a− a′ ∈ U, b− b′ ∈ U ⇒ (a− a′) + (b− b′) ∈ U⇒ (a+ b)− (a′ + b′) ∈ U ⇒ a+ b ∼ a′ + b′.

(b) Die entsprechende Aussage fur die skalare Multiplikation zeigt mananalog.

Das Nachrechnen der Vektorraumaxiome fur V/U ist einfach, siehe Vor-lesung. Was ist das neutrale Element von V/U? Was ist das additive Inversevon a+ U? 2

Der Quotientenraum V/U lasst sich folgendermaßen geometrisch deuten:Es sei W ein Komplement von U in V , d.h.

V = U ⊕W.

Es sei a + U eine Nebenklasse. Dann gibt es eine eindeutig bestimmte Dar-stellung

a = aW + aU , aW ∈ W, aU ∈ U.

Es gilt[a] = a+ U = aW + U.

Das Element aW hangt nur von der Aquivalenzklasse ab und ist durch dieseeindeutig bestimmt. Wir konnen also die Elemente von V/U mit den Elemen-ten von W identifizieren. Allerdings ist es gunstiger mit V/U zu arbeiten, dadas Komplement W nicht eindeutig bestimmt ist.

Satz 15.1 Die Abbildung

π : V −→ V/Ua 7−→ a+ U

ist ein Epimorphismus mit Ker π = U .

Beweis.(a) Es gilt

π(a+ b) = (a+ b) + U = (a+ U) + (b+ U) = π(a) + π(b).

Page 88: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

15 Der Quotientenraum 88

Analog zeigt man π(λa) = λπ(a).(b) Nach Konstruktion ist π surjektiv.(c) Es gilt

π(a) = 0⇔ a+ U = 0 + U ⇔ a ∼ 0⇔ a− 0 = a ∈ U,

d.h. Kerπ = U . 2

Korollar 15.2 Zu jedem Unterraum U ⊆ V eines K-Vektorraums V gibt eseine kanonische kurze exakte Sequenz

0 −→ U ↪→ Vπ−→ V/U −→ 0.

Korollar 15.3 Es sei U ein Unterraum eines endlich dimensionalen K-Vektorraums V . Dann gilt

dimU + dimV/U = dimV.

Beweis.dimV = dim Ker π + dim Imπ = dimU + dimV/U.

2

Wir betrachten nun eine lineare Abbildung f : V → W zwischen K-Vektorraumen V und W .

Satz 15.2 (Kern-Bild-Satz) Es gibt genau einen Isomorphismus

f : V/Ker f → Im f,

so dass gilt:f(a+ Ker f) = f(a) fur alle a ∈ V.

Beweis. Falls f existiert, muss gelten

f(a+ Ker f) = f(a) fur alle a ∈ V.

Wir benutzen daher diese Gleichung zur Definition von f .(a) Die Abbildung f ist wohldefiniert:

a ∼ b⇒ a− b ∈ Ker f ⇒ f(a− b) = 0⇒ f(a) = f(b).

(b) Die Abbildung f ist linear:

f((a+ Ker f) + (b+ Ker f)) = f((a+ b) + Ker f) = f(a+ b)

= f(a) + f(b) = f(a+ Ker f) + f(b+ Ker f).

Page 89: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

16 Projektive Raume 89

Der Beweis fur die skalare Multiplikation geht analog.(c) Die Abbildung f ist nach Konstruktion surjektiv.(d) Die Abbildung f ist injektiv:

f(a+ Ker f) = 0⇔ f(a) = 0⇔ a ∈ Ker f ⇔ a+ Ker f = 0 + Ker f.

2

Beispiel 15.2 Es sei V = U ⊕W und f : V → W die Projektion auf W ,d.h. f(u + w) = w fur alle v = u + w ∈ V mit u ∈ U und w ∈ W . Dann istU = Ker f und W = Im f . Dann ist die Abbildung

f : V/U → W, f(u+ w + U) = w,

ein Isomorphismus. Dies ist die obige Deutung des Quotientenraums.

16 Projektive Raume

Es sei V ein endlich dimensionaler K-Vektorraum. Wir setzen

V ′ := V \ {0}.

Definition Fur u, v ∈ V ′ definieren wir

u ∼ v :⇔ Es gibt λ ∈ K∗ = K \ {0} mit u = λv.

Bemerkung 16.1 (i) ∼ ist eine Aquivalenzrelation.(ii) Es gilt

u ∼ v ⇔ Ku = Kv ⇔ u, v spannen dieselbe Gerade auf.

Definition Der zu V gehorige projektive Raum ist

P(V ) := V ′/ ∼ .

Als Menge ist P(V ) gerade die Menge der Ursprungsgeraden in V :

P(V ) = {Kv | v ∈ V ′} = {Geraden in V durch 0}.

Definition Die Dimension des projektiven Raums P(V ) ist

dim P(V ) := dimV − 1.

Notation Der Raum Pn(K) := P(Kn+1) heißt der n-dimensionale projek-tive Raum uber K.

Page 90: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

16 Projektive Raume 90

-������

������

��

���

6

@@

@@@

AA

AA

AA

HHHHHH

����

��

��

��

��

��

���

HHHH

HH

AAAAAA

@@

@@@

' $

Abbildung 10: Die reelle projektive Gerade P1(R)

Bemerkung 16.2 Insbesondere ist P({0}) = ∅ und dim ∅ = −1.

Beispiel 16.1 Fur die reelle projektive Gerade P1(R) gilt:

P1(R) = P(R2) = S1 = R ∪ {∞} = R ∪ P0(R).

Die Identifikation S1 = R∪{∞} geschieht uber die stereographische Projek-tion (Skizze siehe Vorlesung).

Beispiel 16.2 Wir betrachten die reelle projektive Ebene P2(R) = P(R3).Man hat eine Zerlegung

P2(R) = R2 ∪ P1(R)

(Naheres siehe Vorlesung).

Definition Es seiπ : V ′ −→ P(V )

v 7−→ [v] = Kv

die kanonische Projektion. Ist U ⊆ P(V ) eine Teilmenge, so definieren wir

U := π−1(U) ∪ {0}.

Eine Teilmenge U ⊆ P(V ) heißt ein projektiver Unterraum von P(V ), falls

U ⊆ V ein Untervektorraum von V ist.

Lemma 16.1 Fur einen projektiven Unterraum U gilt U = P(U). Insbeson-dere ist U selbst wieder ein projektiver Raum und hat die Dimension

dimU = dim U − 1.

Page 91: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

16 Projektive Raume 91

Sprechweise

(i) dimU = −1: ∅

(ii) dimU = 0: Punkt

(iii) dimU = 1: projektive Gerade

(iv) dimU = 2: projektive Ebene

(v) dimU = dim P(V )− 1: (projektive) Hyperebene.

Es sei nun

V = Kn+1 = {(x0, x1, . . . , xn) |xi ∈ K, i = 0, 1, . . . , n}.

Definition Es sei

v = (x0, x1, . . . , xn) 6= 0 (d.h. xi 6= 0 fur ein i).

Den Punkt Kv ∈ Pn(K) bezeichnen wir mit (x0 : x1 : . . . : xn). Wir nennen(x0 : x1 : . . . : xn) die homogenen Koordinaten des Punktes Kv.

Bemerkung 16.3 Es gilt (x0 : x1 : . . . : xn) = (x′0 : x′1 : . . . : x′n) genaudann, wenn es ein λ ∈ K, λ 6= 0, gibt mit xi = λx′i fur alle i = 0, 1, . . . , n.

Es sei nun U ⊆ Kn+1 ein Unterraum. Dann ist U Losungsmenge eineshomogenen Gleichungssystems

a10x0+ · · · +a1nxn = 0...

......

...am0x0+ · · · +amnxn = 0

Mit (x0, . . . , xn) ist auch (λx0, . . . , λxn) fur λ ∈ K∗ eine Losung dieses Glei-chungssystems. Deswegen kann man schreiben:

P(U) =

{(x0 : . . . : xn) ∈ Pn(K)

∣∣∣∣∣n∑j=0

aijxj = 0, i = 1, . . . ,m

}.

Wir betrachten nun speziell die Gleichung x0 = 0.

Definition Die projektive Hyperebene

H∞ := {(x0 : . . . : xn) ∈ Pn(K) |x0 = 0}

heißt die Hyperebene im Unendlichen.

Page 92: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

16 Projektive Raume 92

Definition Die Abbildung

ι : Kn −→ Pn(K)(x1, . . . , xn) 7−→ (1 : x1 : . . . : xn)

heißt die kanonische Einbettung von Kn in den projektiven Raum Pn(K).

Diese Abbildung ist injektiv und hat als Bild gerade die Menge

A := Pn(K) \H∞.

Denn sei y = (y0 : . . . : yn) ∈ A. Dann ist y0 6= 0 und damit

(y0 : y1 : . . . : yn) = (1 : y1y0

: . . . : yn

y0) = ι(y1

y0: . . . : yn

y0).

Also istι : Kn → A

eine Bijektion. Wenn wir Kn mit A mittels ι identifizieren, erhalten wir

Pn(K) = A ∪H∞ = Kn ∪ Pn−1(K).

Definition Man nennt A = Pn(K) \H∞ den affinen Teil von Pn(K). Mansagt, dass sich der projektive Raum Pn(K) = A ∪H∞ aus dem affinen TeilA und der Hyperebene im Unendlichen zusammensetzt.

Bemerkung 16.4 Statt der Hyperebene H∞ = {x0 = 0} hatte man auchjede andere Hyperebene als Hyperebene im Unendlichen auswahlen konnen.

Definition Eine Teilmenge W ⊆ Kn heißt ein affiner Unterraum des Vek-torraums Kn, falls es einen Unterraum W0 von Kn und ein Element a ∈ Kn

gibt mitW = a+W0.

Zur Vermeidung von Fallunterscheidungen soll auch die leere Menge ein af-finer Unterraum sein. Die Dimension eines affinen Unterraums W wird alsdimW0 definiert. Wir definieren dim ∅ := −1.

Beispiel 16.3 Die Losungsmenge eines linearen Gleichungssystems

a11x1+ · · · +a1nxn = b1...

......

...am1x1+ · · · +amnxn = bm

ist ein affiner Unterraum. Umgekehrt ist jeder affine Unterraum W ⊆ Kn

Losungsmenge eines solchen linearen Gleichungssystems.

Page 93: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

16 Projektive Raume 93

Lemma 16.2

(i) Es sei W ⊆ Pn(K) ein projektiver Unterraum. Dann ist W := W ∩A ⊆A = Kn ein affiner Unterraum.

(ii) Ist ∅ 6= W ⊆ A = Kn ein affiner Unterraum, so gibt es genau einenprojektiven Unterraum W ⊆ Pn(K) mit W ∩ A = W .

Beweis. (i) Die Menge W := π−1(W ) ∪ {0} ist ein linearer Unterraum vonKn+1, also Losungsmenge eines homogenen Gleichungssystems

a10y0+ · · · +a1nyn = 0...

......

...am0y0+ · · · +amnyn = 0.

Fur einen Punkt

y = (y0 : . . . : yn) 6∈ H∞ (d.h. y0 6= 0)

gilt

ai0y0 + · · ·+ ainyn = 0⇔ ai0 + ai1y1

y0

+ · · ·+ ainyny0

= 0.

Also ist W ∩ A die Losungsmenge des Gleichungssystems

a11x1+ · · · +a1nxn = −a10...

......

...am1x1+ · · · +amnxn = −am0.

Daher ist W ∩ A ein affiner Unterraum.(ii) Es sei umgekehrt W ⊆ A ein affiner Unterraum. Dann ist W die

Losungsmenge eines Gleichungssystems

a11x1+ · · · +a1nxn = b1...

......

...am1x1+ · · · +amnxn = bm.

Sind (y0 : . . . : yn) wieder die homogenen Koordinaten des Pn(K), so be-trachten wir das homogene lineare Gleichungssystem

−b1y0 + a11y1+ · · · +a1nyn = 0...

......

...−bmy0 + am1y1+ · · · +amnyn = 0.

Page 94: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

16 Projektive Raume 94

Dann ist die Losungsmenge W dieses Gleichungssystems ein projektiver Un-terraum des Pn(K) und nach Konstruktion gilt W ∩ A = W .

Wir mussen noch die Eindeutigkeit zeigen. Es sei U ein weiterer projek-tiver Unterraum mit U ∩ A = W . Wir setzen

W∞ := W ∩H∞, U∞ := U ∩H∞.

Dann giltπ−1(W ) = π−1(W −W∞) = π−1(U − U∞) 6= ∅.

Da das mengentheoretische Komplement eines echten Unterraums den gan-zen Vektorraum erzeugt, gilt

W = Span(π−1(W −W∞)) = Span(π−1(U − U∞)) = U .

Daraus folgt W = U . 2

Lemma 16.3 Der Durchschnitt von zwei projektiven Unterraumen U1 undU2 ist wieder ein projektiver Unterraum.

Beweis. Es seiU1 = P(U1), U2 = P(U2).

Dann giltU1 ∩ U2 = P(U1 ∩ U2).

2

Definition Es seien U1, . . . , Ur ⊆ P(V ) projektive Unterraume. Dann istder Spann von U1, . . . , Ur, in Zeichen U1 ∨ . . . ∨ Ur, der kleinste projektiveUnterraum von P(V ), der U1, . . . , Ur enthalt.

Bemerkung 16.5 Es gilt

U1 ∨ . . . ∨ Ur = P(U1 + · · ·+ Ur).

Lemma 16.4 (Dimensionsformel) Es seien U1, U2 ⊆ P(V ) projektive Un-terraume. Dann gilt

dimU1 + dimU2 = dim(U1 ∨ U2) + dim(U1 ∩ U2).

Beweis. Es sei Ui = P(Ui), i = 1, 2. Dann gilt

dimU1 + dimU2 = dim U1 − 1 + dim U2 − 1

= dim(U1 + U2)− 1 + dim(U1 ∩ U2)− 1

= dim(U1 ∨ U2) + dim(U1 ∩ U2).

2

Page 95: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

16 Projektive Raume 95

Beispiel 16.4 Wir betrachten die projektive Ebene P2(K). Es seien L1, L2 ⊆P2(K) zwei projektive Geraden. Dann gilt

dim(L1 ∩ L2) = dimL1 + dimL2 − dim(L1 ∨ L2) ≥ 2− 2 = 0.

Daraus folgt L1 ∩ L2 6= ∅, d.h. in einer projektiven Ebene schneiden sich jezwei Geraden stets. Sind L1 und L2 verschieden, so ist der Durchschnitt genauein Punkt. Liegt dieser Punkt in H∞, so sind L1 = L1 ∩A und L2 := L2 ∩Azwei parallele affine Geraden.

Nun wollen wir auch Abbildungen von projektiven Raumen betrachten.Es seien V,W endlich dimensionale K-Vektorraume und P(V ),P(W ) die zu-gehorigen projektiven Raume. Es sei F : V → W eine injektive lineareAbbildung. Dann gilt fur v ∈ V , v 6= 0,

F (Kv) = KF (v) 6= {0}.

Daher induziert F eine injektive Abbildung

F : P(V ) −→ P(W )Kv 7−→ KFv

.

Definition Eine Abbildung

f : P(V )→ P(W )

heißt projektiv, falls es eine injektive lineare Abbildung F : V → W gibt mitF = f . Eine bijektive projektive Abbildung heißt Projektivitat.

Beispiel 16.5 Fur m ≥ n haben wir eine kanonische Einbettung

J : Pn(K) −→ Pm(K)(x0 : . . . : xn) 7−→ (x0 : . . . : xn : 0 : . . . : 0)

.

Sie entsteht aus der linearen Abbildung

J : Kn+1 −→ Km+1

(x0, . . . , xn) 7−→ (x0, . . . , xn, 0, . . . , 0).

Lemma 16.5 Fur zwei injektive lineare Abbildungen F, F ′ : V → W giltF = F

′genau dann, wenn es ein λ ∈ K∗ gibt mit F ′ = λF .

Beweis. Ist F ′ = λF , so gilt offensichtlich F′= F . Es bleibt die Umkehrung

zu zeigen: Ist F = F′, so gibt es zu jedem v ∈ V ein λv ∈ K∗ mit F ′(v) =

λvF (v). Es ist zu zeigen, dass man zu jedem v das gleiche λv wahlen kann.

Page 96: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

16 Projektive Raume 96

Fur dimV ≤ 1 ist das klar. Andernfalls gibt es linear unabhangige v, w ∈ V .Dann gibt es λv, λw, λv+w ∈ K∗ mit

F ′(v) = λvF (v), F ′(w) = λwF (w), F ′(v + w) = λv+wF (v + w).

Aus der Linearitat von F und F ′ folgt

(λv − λv+w)F (v) + (λw − λv+w)F (w) = 0.

Da F injektiv ist, sind auch F (v), F (w) linear unabhangig. Also folgt

λv = λv+w = λw.

2

Um projektive Abbildungen durch Matrizen zu beschreiben, fuhren wirKoordinatensysteme ein. Es sei dimV = n+ 1, also dim P(V ) = n.

Definition Die Punkte P0, . . . , Pk ∈ P(V ) heißen projektiv unabhangig, falls

dim(P0 ∨ . . . ∨ Pk) = k

gilt.

Bemerkung 16.6 Es sei Pi = Kvi, i = 0, . . . , k. Dann gilt

P0, . . . , Pk projektiv unabhangig⇔ v0, . . . , vk linear unabhangig.

Definition Ein (n + 2)-Tupel (P0, . . . , Pn+1) von Punkten aus P(V ) heißtprojektive Basis, falls je n+ 1 Punkte davon projektiv unabhangig sind.

Lemma 16.6 Es sei (P0, . . . , Pn+1) eine projektive Basis. Dann gibt es eineBasis (v0, . . . , vn) von V mit

(i) Pi = Kvi (i = 0, . . . , n).

(ii) Pn+1 = K(v0 + · · ·+ vn).

Die Basis (v0, . . . , vn) ist bis auf einen Skalar eindeutig bestimmt.

Beweis. Da P0, . . . , Pn projektiv unabhangig sind, gibt es eine Basis (w0, . . . , wn)von V mit

P0 = Kw0, . . . , Pn = Kwn.

Weiter gibt es λ0, . . . , λn ∈ K mit

Pn+1 = K(λ0w0 + · · ·+ λnwn).

Page 97: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

16 Projektive Raume 97

Ware λ0 = 0, so waren P1, . . . , Pn+1 nicht projektiv unabhangig. Also istλ0 6= 0 und analog λ1 6= 0, . . . , λn 6= 0. Daher ist durch

v0 := λ0w0, . . . , vn := λnwn

die gesuchte Basis gegeben. 2

Es sei nun (P0, . . . , Pn+1) eine projektive Basis und B = (v0, . . . , vn) einezugehorige Basis, die bis auf einen Skalar eindeutig bestimmt ist. Es sei P =Kv ∈ P(V ). Dann ist v auch bis auf einen Skalar eindeutig festgelegt. Wirordnen dem Punkt P den Koordinatenvektor (x0, . . . , xn) von v bezuglichder Basis B zu. Er ist damit bis auf einen Skalar festgelegt.

Definition Das Element (x0 : . . . : xn) ∈ Pn(K) heißt der homogene Koor-dinatenvektor des Punktes P bezuglich der projektiven Basis (P0, . . . , Pn).

Notation Wir schreiben P = (x0 : . . . : xn). Damit gilt:

P0 = (1 : 0 : . . . : 0 : 0)...

......

Pn = (0 : 0 : . . . : 0 : 1)

Pn+1 = (1 : 1 : . . . : 1 : 1).

Durch die Einfuhrung von Koordinaten reduziert sich das Studium derProjektivitaten beliebiger projektiver Raume auf das Studium von Projekti-vitaten des Pn(K). Es sei

f : Pn(K)→ Pn(K)

eine Projektivitat. Dann gibt es einen Isomorphismus

F : Kn+1 → Kn+1 mit F = f.

Die lineare Abbildung F wird durch eine Matrix A ∈ GL(n+ 1;K) gegeben,wobei F und somit auch A bis auf einen Skalar λ 6= 0 festgelegt sind.

Wir untersuchen nun den Zusammenhang zwischen Affinitaten und Pro-jektivitaten. Es sei

fa : Kn → Kn, x 7→ Ax+ b (A ∈ GL(n;K)),

eine Affinitat. Dann betrachten wir die kanonische Einbettung

ι : Kn −→ Pn(K)(x1, . . . , xn) 7−→ (1 : x1 : . . . : xn)

Page 98: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

16 Projektive Raume 98

von Kn in den Pn(K). Setzen wir

A =

1 0 · · · 0b1...bn

A

,

so ist durch x0...xn

7→ A

x0...xn

eine bijektive lineare Abbildung Fa : Kn+1 → Kn+1 bestimmt, die eine Pro-jektivitat F a : Pn(K) → Pn(K) induziert. Es gilt F a(H∞) = H∞. Damithaben wir eine Motivation fur die Konstruktion in § 10 nachgeliefert.

Es sei nun umgekehrt f : Pn(K)→ Pn(K) eine Projektivitat mit f(H∞) =H∞. Eine zugehorige lineare Abbildung F : Kn+1 → Kn+1 sei gegeben durchdie Matrix A ∈ GL(n+ 1;K) mit

A =

a00 a01 · · · a0n

a10 a11 · · · a1n...

.... . .

...an0 an1 · · · ann

.

Wegen f(H∞) = H∞ muss gelten

A =

a00 0 · · · 0a10 a11 · · · a1n...

.... . .

...an0 an1 · · · ann

.

Wegen A ∈ GL(n+1;K) ist a00 6= 0. Da A nur bis auf einen Skalar eindeutigfestgelegt ist, kann man annehmen dass

A =

1 0 · · · 0a10...an0

A

fur eine Matrix A ∈ GL(n;K). Es gilt daher

1 0 · · · 0a10...an0

A

1x1...xn

=

1x′1...x′n

.

Page 99: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

17 Projektive Quadriken 99

Das bedeutet, dass fa := f |Kn : Kn → Kn eine Affinitat ist, die durch

fa

x1...xn

= A

x1...xn

+

a10...an0

gegeben wird.

Wir haben damit bewiesen:

Satz 16.1 Ist fa : Kn → Kn eine Affinitat, so gibt es eine Projektivitatf : Pn(K)→ Pn(K) mit f |Kn = fa und f(H∞) = H∞.

Ist umgekehrt f : Pn(K) → Pn(K) eine Projektivitat mit f(H∞) = H∞,dann ist fa := f |Kn : Kn → Kn eine Affinitat.

17 Projektive Quadriken

Wir wollen nun Quadriken in projektiven Raumen betrachten.Es sei K ein Korper mit nK 6= 0 fur n = 2.

Definition Unter einem homogenen Polynom zweiten Grades in den Unbe-stimmten x0, x1, . . . , xn versteht man einen Ausdruck der Form

q(x0, . . . , xn) =∑

0≤i≤j≤n

αijxixj,

wobei αij ∈ K fur 0 ≤ i ≤ j ≤ n.

Definition Eine Teilmenge C ⊆ Kn+1 heißt Kegel, wenn fur jedes(x0, . . . , xn) ∈ C und λ ∈ K auch (λx0, . . . , λxn) ∈ C ist.

Dies bedeutet, dass C die Vereinigung von Geraden durch den Ursprungist. Eine Gerade durch den Ursprung von Kn+1 ist ein Punkt von Pn(K).Fur jedes homogene Polynom zweiten Grades q ist die Menge

C = {(x0, . . . , xn) ∈ Kn+1 | q(x0, . . . , xn) = 0}

ein Kegel. Dies folgt aus

q(λx0, . . . , λxn) = λ2q(x0, . . . , xn) fur λ ∈ K.

Definition Eine Teilmenge Q ⊆ Pn(K) heißt (projektive) Quadrik (oder(projektive) Hyperflache zweiter Ordnung), wenn es ein homogenes Polynomzweiten Grades q gibt, so dass

Q = {(x0 : . . . : xn) ∈ Pn(K) | q(x0, . . . , xn) = 0}.

Page 100: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

17 Projektive Quadriken 100

Bemerkung 17.1 Man beachte, dass im Gegensatz zum affinen Fall dasPolynom q keine Funktion auf dem Pn(K) definiert, denn fur λ ∈ K∗ gilt

(x0 : . . . : xn) = (λx0 : . . . : λxn), aber

q(λx0, . . . , λxn) = λ2q(x0, . . . , xn).

Aber die Nullstellenmenge von q in Pn(K) ist wohldefiniert, denn es gilt furλ ∈ K∗:

q(x0, . . . , xn) = 0⇔ q(λx0, . . . , λxn) = 0.

Beispiel 17.1 Es sei K = R und n = 2.(1) Es sei q(x0, x1, x2) = x2

0 + x21 − x2

2. Dann ist

C = {(x0, x1, x2) ∈ R3 |x20 + x2

1 − x22 = 0}

ein Kegel und

Q = {(x0 : x1 : x2) ∈ P2(R) |x20 + x2

1 − x22 = 0}

die Menge der in C liegenden Geraden durch den Ursprung. Um uns ein Bildvon Q zu beschaffen, betrachten wir den affinen Teil, wobei wir eine geeigneteHyperebene H∞ im Unendlichen entfernen.

(a) Es sei H∞ := {(x0 : x1 : x2) ∈ P2(R) |x0 = 0}. Auf R2 = P2(R) \H∞erhalten wir die Gleichung

1 + x21 − x2

2 = 0.

Diese Gleichung definiert eine Hyperbel. Sie entsteht als Schnitt des KegelsC mit der Ebene x0 = 1.

Abbildung 11: Schnitt von C mit der Ebene x0 = 1

Page 101: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

17 Projektive Quadriken 101

(b) Es sei H∞ := {(x0 : x1 : x2) ∈ P2(R) |x2 = 0}. Dann erhalten wir aufR2 = P2(R) \H∞ die Gleichung

x20 + x2

1 − 1 = 0.

Diese Gleichung definiert einen Kreis. Er entsteht als Schnitt des Kegels Cmit der Ebene x2 = 1. Wahlt man als Hyperebene im Unendlichen H∞ :={(x0 : x1 : x2) ∈ P2(R) | 1

2x0 + x2 = 0}, so kann man leicht zeigen, dass man

im affinen Teil eine Ellipse erhalt.

Abbildung 12: Schnitt von C mit der Ebene 12x0 + x2 = 1

(c) Es sei H∞ := {(x0 : x1 : x2) ∈ P2(R) |x0 +x2 = 0}. Dann erhalten wirauf R2 = P2(R) \H∞ die Gleichung

(1− x2)2 + x2

1 − x22 = 0⇔ x2

1 − 2x2 = −1.

Das ist eine Parabel. Sie entsteht als Schnitt des Kegels C mit der Ebenex0 + x2 = 1.

(2) Es sei q(x0, x1, x2) = x20 − x2

1. Dann gilt

q(x0, x1, x2) = x20 − x2

1 = (x0 − x1)(x0 + x1).

Damit besteht Q aus zwei Geraden.

Wir wollen die Gleichung fur eine Quadrik wieder durch Matrizen aus-drucken. Gegeben sei ein quadratisches Polynom

q(x0, . . . , xn) =∑

0≤i≤j≤n

αijxixj.

Dann setzen wir

aij :=

αij fur i = j,12αij fur i < j,

12αji fur i > j,

Page 102: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

17 Projektive Quadriken 102

Abbildung 13: Schnitt von C mit der Ebene x0 + x2 = 1

wobei jeweils 0 ≤ i, j ≤ n, und A := (aij) ∈ Mat(n + 1, n + 1;K). Dann istA eine symmetrische Matrix und es gilt fur x ∈ Kn+1

q(x) = xTAx.

Wir haben gesehen, dass affine Quadriken unter Affinitaten invariant blei-ben. Das Gleiche gilt auch fur projektive Quadriken unter Projektivitaten.

Satz 17.1 Ist Q ⊆ Pn(K) eine Quadrik und f : Pn(K) → Pn(K) eineProjektivitat, so ist auch f(Q) ⊆ Pn(K) eine Quadrik.

Beweis. Es sei Q gegeben durch

xTAx = 0, A ∈ Mat(n+ 1, n+ 1;K),

und die zu f : Pn(K)→ Pn(K) gehorige lineare Abbildung F : Kn+1 → Kn+1

sei gegeben durchy = Sx, S ∈ GL(n+ 1;K).

Es sei C der KegelC := {x ∈ Kn+1 |xTAx = 0}.

Dann gilt fur y = (y0, . . . , yn)T ∈ Kn+1 und T := S−1

y = Sx ∈ F (C) ⇔ x = Ty ∈ C⇔ 0 = xTAx = (Ty)TA(Ty) = yT (T TAT )y.

Die Matrix B := T TAT ist wieder symmetrisch und es gilt

f(Q) = {(y0 : . . . : yn) ∈ Pn(K) | ytBy = 0}.

2

Page 103: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

17 Projektive Quadriken 103

Definition Zwei Quadriken Q,Q′ ⊆ Pn(K) heißen (projektiv) aquivalent,falls es eine Projektivitat f : Pn(K)→ Pn(K) gibt mit f(Q) = Q′.

Beispiel 17.2 Die beiden Quadriken

Q = {(x0, x1, x2) ∈ P2(R) |x20 + x2

1 − x22 = 0} und

Q′ = {(x0, x1, x2) ∈ P2(R) |x20 − x2

1 = 0}

sind nicht aquivalent, da Q′ aus zwei Geraden besteht, aber Q keine Geradeenthalt.

Wir kommen nun zur Klassifikation der projektiven Quadriken uber demKorper K = R. Dazu erinnern wir an die Definition der Signatur einer sym-metrischen Matrix A mit Eintragen in R:

SignA = ]{positive Eigenwerte} − ]{negative Eigenwerte}.

Theorem 17.1 (Projektive Klassifikation von Quadriken) Jede Qua-drik Q ⊆ Pn(R) ist aquivalent zu genau einer der folgenden Quadriken:

Qk,m = {(x0 : . . . : xn) ∈ Pn(R) |x20 + . . .+ x2

k − x2k+1 − . . .− x2

m = 0}

mit −1 ≤ k ≤ m ≤ n und k+1 ≥ m−k. Insbesondere gilt fur zwei QuadrikenQ = {xTAx = 0} und Q′ = {xTA′x = 0}:

Q und Q′ sind aquivalent ⇔ RangA = RangA′, |SignA| = |SignA′|.

Um diesen Satz zu beweisen, brauchen wir noch einen Hilfssatz.

Lemma 17.1 Es seien q(x) = xTAx und q′(x) = xTA′x quadratische For-men auf V = Rn+1. Es gelte

C := {x ∈ V | q(x) = 0} = {x ∈ V | q′(x) = 0}.

Gibt es ein v0 ∈ C, so dass

vT0 Aw 6= 0 fur mindestens ein w ∈ V, (1)

so gilt A′ = ρ · A fur ein ρ ∈ R∗.

Beweis. Es seien b(x, y) := xTAy bzw. b′(x, y) = xTA′y die zu q bzw. q′

gehorigen symmetrischen Bilinearformen. Wir wahlen ein festes v0 ∈ C mitder Eigenschaft (1) und betrachten fur jedes w ∈ V die Gerade

gw := {w + λv0 |λ ∈ R}.

Page 104: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

17 Projektive Quadriken 104

Ihre Schnittpunkte mit C sind bestimmt durch die Gleichungen

q(w + λv0) = 0 bzw. q′(w + λv0) = 0,

oder (wegen q(v0) = q′(v0) = 0)

2λb(v0, w) + q(w) = 0 bzw. 2λb′(v0, w) + q′(w) = 0. (2)

Dass diese Gerade den Kegel C nicht in genau einem Punkt schneidet, istgleichwertig mit

b(v0, w) = 0 bzw. b′(v0, w) = 0.

Also gilt fur alle w ∈ V

b(v0, w) = 0⇔ b′(v0, w) = 0.

Wegen der Bedingung (1) ist die Menge

H := {w ∈ V | b(v0, w) = 0}

eine Hyperebene in V . Da sie gleich der Menge

H ′ = {w ∈ V | b′(v0, w) = 0}

ist, muss es ein ρ ∈ R∗ geben mit

b′(v0, w) = ρ · b(v0, w) fur alle w ∈ V.

Aus Gleichung (2) folgt

b(v0, w) · q′(w) = b′(v0, w) · q(w) fur alle w ∈ V.

Daraus ergibt sich

q′(w) = ρ · q(w) fur alle w ∈ V \H.

Die Funktionf : V −→ R

w 7−→ q′(w)− ρ · q(w)

verschwindet auf V \ H. Da sie außerdem stetig ist, verschwindet sie auchauf H. Damit gilt

q′(w) = ρ · q(w) fur alle w ∈ V.

Daraus folgt durch Polarisierung

b′(v, w) = ρ · b(v, w) fur alle v, w ∈ V

Page 105: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

17 Projektive Quadriken 105

und damitA′ = ρA.

2

Beweis von Theorem 17.1. Es sei

Q = {(x0 : . . . : xn) ∈ Pn(R) |xTAx = 0}, A ∈ Mat(n+ 1, n+ 1; R), A = AT .

Nach Satz 5.1 gibt es ein S ∈ GL(n+ 1; R) mit

STAS =

Ek+1 0−El

0 0

=: Ak,m, k + l = m.

DaxTAx = 0⇔ xT (−A)x = 0,

konnen wir annehmen, dass k + 1 ≥ m− k ist. Also ist Q aquivalent zu

Qk,m = {(x0 : . . . : xn) ∈ Pn(R) |xTAk,mx = 0}.

Aus dem Tragheitssatz von Sylvester folgt auch die Implikation ”⇐” derzweiten Aussage des Theorems.

Nun beweisen wir die Richtung ”⇒” der zweiten Aussage. Dazu seienQ = {xTAx = 0} und Q′ = {xTA′x = 0} aquivalent. O. B. d. A. konnenwir annehmen, dass Q = Qk,m und A = Ak,m gilt. Nach Voraussetzung gibtes eine Projektivitat f : Pn(R) → Pn(R) mit f(Q) = Q′, d.h. es gibt eineMatrix T ∈ GL(n + 1; R), so dass Q auch durch die Bilinearform mit derMatrix

B := T TA′T

beschrieben wird. Nun wollen wir Lemma 17.1 anwenden. Dazu mussen wirnachprufen, wann die Bedingung (1) fur Ak,m erfullt ist. Diese Bedingung istaber erfullt, wenn k < m ist. Denn dann gilt: Bezeichnen wir mit (e0, . . . , en)die Standardbasis von Rn+1, so sind v0 := e0 + em und w := e0 Vektoren mit

vT0 Ak,mv0 = 0, aber vT0 Ak,mw = 1 6= 0.

Aus Lemma 17.1 folgt damit B := ρ · Ak,m fur ein ρ ∈ R∗. Aus demTragheitssatz von Sylvester (Satz 5.2) folgt dann die Behauptung.

Es bleibt noch der Fall k = m zu behandeln. Dann ist Q ein linearerprojektiver Unterraum der Dimension n−(m+1), also auch Q′. Daraus folgtaber

RangA′ = RangAm,m = |SignA′| = |SignAm,m| = m+ 1.

Page 106: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

17 Projektive Quadriken 106

Rang |Sign| Gleichung Beschreibung0 0 0 = 0 P2(R)1 1 x2

0 = 0 (Doppel-)Gerade2 2 x2

0 + x21 = 0 Punkt

2 0 x20 − x2

1 = 0 Geradenpaar3 3 x2

0 + x21 + x2

2 = 0 leere Quadrik3 1 x2

0 + x21 − x2

2 = 0 nicht ausgeartete Quadrik

Tabelle 4: Normalformen von Quadriken im P2(R)

Rang |Sign| Gleichung Beschreibung0 0 0 = 0 P3(R)1 1 x2

0 = 0 (Doppel-)Ebene2 2 x2

0 + x21 = 0 Gerade

2 0 x20 − x2

1 = 0 Ebenenpaar3 3 x2

0 + x21 + x2

2 = 0 Punkt3 1 x2

0 + x21 − x2

2 = 0 Kegel4 4 x2

0 + x21 + x2

2 + x23 = 0 leere Quadrik

4 2 x20 + x2

1 + x22 − x2

3 = 0 Ovalflache4 0 x2

0 + x21 − x2

2 − x23 = 0 Regelflache

Tabelle 5: Normalformen von Quadriken im P3(R)

Aus diesem Beweis folgt auch, dass zwei Quadriken Qk,m fur unterschied-liche k und m mit k + 1 ≥ m− k nicht aquivalent sind. 2

Speziell fur n = 2, 3 erhalten wir die Tabellen 4 und 5.

Beispiel 17.3 Es sei K = R und n = 3.(1) Wir betrachten die nicht ausgeartete Quadrik

Q := {(x0 : x1 : x2 : x3) ∈ P3(R) |x20 + x2

1 + x22 − x2

3 = 0}.

(a) Es sei H∞ := {(x0 : x1 : x2 : x3) ∈ P3(R) |x3 = 0}. Dann ist

Q ∩ A = {(x0, x1, x2) ∈ R3 |x20 + x2

1 + x22 = 1}

eine Kugel und es gilt Q ∩H∞ = ∅.(b) Es sei H∞ := {(x0 : x1 : x2 : x3) ∈ P3(R) |x0 = 0}. Dann ist

Q ∩ A = {(x1, x2, x3) ∈ R3 |x23 − x2

1 − x22 = 1}

Page 107: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

17 Projektive Quadriken 107

ein zweischaliges Hyperboloid (Bild 7) und es gilt

Q ∩H∞ = {(x1 : x2 : x3) ∈ P2(R) |x21 + x2

2 − x23 = 0},

eine nicht ausgeartete Quadrik in der projektiven Ebene.(c) Es sei H∞ := {(x0 : x1 : x2 : x3) ∈ P3(R) |x2 + x3 = 0}. Dann ist

Q ∩ A = {(x0, x1, x2) ∈ R3 |x20 + x2

1 + x22 − (1− x2)

2 = 0}= {(x0, x1, x2) ∈ R3 |x2

0 + x21 + 2x2 = 1}

ein elliptisches Paraboloid (Bild 8) und es gilt

Q ∩H∞ = {(x0 : x1 : x2 : x3) ∈ P3(R) |x3 = −x2, x20 + x2

1 = 0}= {(0 : 0 : 1 : −1)}.

(2) Nun betrachten wir die nicht ausgeartete Quadrik

Q := {(x0 : x1 : x2 : x3) ∈ P3(R) |x20 + x2

1 − x22 − x2

3 = 0}.

(a) Es sei H∞ := {(x0 : x1 : x2 : x3) ∈ P3(R) |x3 = 0}. Dann ist

Q ∩ A = {(x0, x1, x2) ∈ R3 |x20 + x2

1 − x22 = 1}.

Dies ist ein einschaliges Hyperboloid (Bild 6). Es enthalt Geraden und da-her nennt man eine solche Quadrik eine Regelflache. Tatsachlich ist Q dieVereinigung von Geraden (Fadenmodell des einschaligen Hyperboloids, sieheVorlesung). Der Schnitt mit der Hyperebene H∞ ist eine nicht ausgearteteebene Quadrik (”Kreis”)

Q ∩H∞ = {(x0 : x1 : x2) ∈ P2(R) |x20 + x2

1 − x22 = 0}.

(b) Es sei H∞ := {(x0 : x1 : x2 : x3) ∈ P3(R) |x1 + x2 = 0}. Dann ist

Q ∩ A = {(x0, x1, x3) ∈ R3 |x20 − x2

3 + 2x1 = 1}.

Dies ist ein hyperbolisches Paraboloid (Bild 9). Es enthalt ebenfalls Geraden.Sein Durchschnitt mit H∞ ist ein Paar von Geraden

Q ∩H∞ = {(x0 : x1 : x2 : x3) ∈ P3(R) |x2 = −x1, x20 − x2

3 = 0}.

Damit haben wir alle interessanten Quadriken im R3 aus §10 als geeigneteaffine Teile von projektiven Quadriken im P3(R) zuruckerhalten.

Page 108: Lineare Algebra II - IAG€¦ · 1 Summen von Vektorr¨aumen 4 Es ist klar, dass B ein Erzeugendensystem von Span(U 1 ∪U 2) und nach Lemma 1.1(i) damit von U 1 + U 2 ist. Wir mussen

INHALTSVERZEICHNIS 108

Inhaltsverzeichnis

1 Summen von Vektorraumen 3

2 Normierte Vektorraume 10

3 Normalform orthogonaler und unitarer Endomorphismen 12

4 Normalform selbstadjungierter Endomorphismen 17

5 Symmetrische Bilinearformen 18

6 Das Minimalpolynom 23

7 Diagonalisierbarkeit 34

8 Nilpotente Endomorphismen 37

9 Die Jordansche Normalform 43

10 Affine Quadriken 51

11 Der Dualraum 66

12 Multilineare Abbildungen 73

13 Alternierende Multilinearformen 76

14 Symmetrische Multilinearformen 82

15 Der Quotientenraum 84

16 Projektive Raume 89

17 Projektive Quadriken 99