109
Lineare Algebra 2 Anton Deitmar Sommersemester 2014 Inhaltsverzeichnis 1 Normierte Raeume 2 1.1 Polynome in mehreren Variablen .............................................. 2 1.2 Komplexifizierung ...................................................... 4 1.3 Konvexitaet .......................................................... 7 1.4 Normen ............................................................ 9 2 Bilinearformen und Skalarprodukte 14 2.1 Bilinearformen ........................................................ 14 2.2 Symmetrische Formen .................................................... 20 2.3 Skalarprodukte ........................................................ 24 2.4 Euklidische Norm ...................................................... 25 2.5 Projektion und Orthonormalisierung ........................................... 31 2.6 Selbstadjungierte Endomorphismen ............................................ 35 2.7 Unit¨ are und normale Endomorphismen .......................................... 38 2.8 Der Spektralsatz ....................................................... 40 2.9 Spektraltheorie ¨ uber R .................................................... 43 2.10 Iwasawa- und Cartan-Zerlegung .............................................. 45 3 Multilineare Algebra 47 3.1 Tensorprodukt ........................................................ 47 3.2 Die zweite ¨ aussere Potenz .................................................. 52 3.3 Multilineare Abbildungen .................................................. 55 3.4 Die ¨ außere Algebra ...................................................... 58 3.5 Lineare Abbildungen .................................................... 62 3.6 Tensorielle Algebra ...................................................... 65 3.7 Die symmetrische Algebra ................................................. 70 4 Moduln ¨ uber einem Hauptidealring 73 4.1 Ringe .............................................................. 73 4.2 Ideale ............................................................. 80 4.3 Teilbarkeit ........................................................... 86 4.4 Lokalisierung ......................................................... 92 4.5 Moduln ............................................................ 93 4.6 Der Elementarteilersatz ................................................... 99 4.7 Der chinesische Restsatz ................................................... 102 4.8 Endlich erzeugte Moduln ¨ uber Hauptidealringen .................................... 104 4.9 Jordan-Normalform ..................................................... 106 4.10 Der Hauptsatz ueber endlich-erzeugte abelsche Gruppen ............................... 107 1

Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2Anton Deitmar

Sommersemester 2014

Inhaltsverzeichnis1 Normierte Raeume 2

1.1 Polynome in mehreren Variablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2 Komplexifizierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.3 Konvexitaet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.4 Normen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Bilinearformen und Skalarprodukte 142.1 Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.2 Symmetrische Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202.3 Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242.4 Euklidische Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.5 Projektion und Orthonormalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312.6 Selbstadjungierte Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.7 Unitare und normale Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382.8 Der Spektralsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402.9 Spektraltheorie uber R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432.10 Iwasawa- und Cartan-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

3 Multilineare Algebra 473.1 Tensorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473.2 Die zweite aussere Potenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523.3 Multilineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 553.4 Die außere Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 583.5 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 623.6 Tensorielle Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653.7 Die symmetrische Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

4 Moduln uber einem Hauptidealring 734.1 Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 734.2 Ideale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804.3 Teilbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 864.4 Lokalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 924.5 Moduln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 934.6 Der Elementarteilersatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 994.7 Der chinesische Restsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1024.8 Endlich erzeugte Moduln uber Hauptidealringen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1044.9 Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1064.10 Der Hauptsatz ueber endlich-erzeugte abelsche Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

1

Page 2: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 2

1 Normierte Raeume

1.1 Polynome in mehreren Variablen

Sei K ein Koerper und k ∈N. Ein Polynom in den Variablen X1, . . . ,Xk ueber demKoerper K ist ein formaler Ausdruck der Form

N∑j1=1

· · ·

N∑jk=1

c j1,..., jkXj11 · · ·X

jkk

mit Koeffizienten c j1,..., jk ∈ K

Beispiele 1.1.1. • In zwei Variablen: X4 + X3Y + Y7.

• Die Determinante ist ein Polynom in n2-Variablen

det((Xi, j)1≤i, j≤n

)=

∑σ∈Per(n)

sign(σ)X1,σ(1) · · ·Xn,σ(n).

Schreibweise: SeiN0 =N ∪ {0} undNk0 =N0 × · · · ×N0 (k-mal). Man schreibt ein

Polynom in den Variablen X1, . . . ,Xk in der Form∑α∈Nk

0

cαXα,

wobei man abkuerzend schreibt

Xα = Xα11 · · ·X

αkk .

Hierbei ist der Koeffizient cα nur fuer endlich viele α von Null verschieden. Wie imFall einer Variablen, kann man die Menge der Polynome in X1, . . . ,Xk mit der Mengealler Abbildungen

Nk0 → K,

α 7→ cα

identifizieren, die nur fuer endlich viele α ungleich Null sind.

Die Menge aller Polynome ueber K bilden einen K-Vektorraum mit der folgenden

Page 3: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 3

Addition und Skalarmultiplikation:∑α∈Nk

0

cαXα +∑α∈Nk

0

dαXα =∑α∈Nk

0

(cα + dα)Xα,

λ

∑α∈Nk

0

cαXα

=∑α∈Nk

0

λcαXα.

Ferner kann man zwei Polnynome multiplizieren:∑α∈Nk

0

cαXα

∑β∈Nk

0

dβXβ

=∑α,β∈Nk

0

cαdβXα+β =∑γ∈Nk

0

∑α+β=γ

cαdβ

Xγ,

wobei Elemente vonNk0 komponentenweise addiert werden

(a1, . . . , αk) + (β1, . . . , βk) = (α1 + β1, . . . , αk + βk).

Man macht sich klar, dass die in dem Produkt auftretende Summe∑α+β=γ cαdβ stets

endlich ist.

Beispiele 1.1.2. • (x + y)2 = x2 + 2xy + y2,

• (x + y + z)2 = x2 + y2 + z2 + 2(xy + xz + yz).

Man schreibt K[X1, . . . ,Xk] fuer die Menge aller Polynome in den Variablen X1, . . . ,Xk

und Koeffizienten in K. Jedes f ∈ K[X1, . . . ,Xk] stiftet eine polynomiale Abbildung

f : Kk→ K

durch einsetzen.

Proposition 1.1.3. Hat der Koerper K unendlich viele Elemente und ist f ∈ K[X1, . . . ,Xk] einPolynom, dessen polynomiale Abbildung f die Nullabbildung ist. Dann ist f dasNullpolynom. Damit ist die lineare Abbildung f 7→ f injektiv.

Proof. Die Abbildung K[X1, . . . ,Xk]→ Abb(Kk,K), f 7→ f ist offensichtlich linear. Ineiner Variablen kennen wir die Proposition schon. Damit ist der Induktionsanfangk = 1 gegeben. Nun zu k→ k + 1. Sei also f ∈ K[X1, . . . ,Xk,Xk+1] so dass f : Kk+1

→ Kdie Nullabbildung ist. Wir ordnen die Summanden des Polynoms f nach den

Page 4: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 4

Potenzen von Xk+1:

f (X) =

N∑j=0

f j(X1, . . . ,Xk)Xjk+1,

wobei f0, . . . , fN Polynome in den Variablen X1, . . . ,Xk sind. Fuer jedes gegebeneα = (α1, . . . , αk) ∈ Kk ist dann

x 7→ f (α, x) =

N∑j=0

f j(α)x j

die Nullabbildung. Nach der Aussage fuer eine Variable ist daher jeder Koeffizientf j(α) gleich Null und da dies fuer jedes α gilt ist folglich fuer gegebenes j dieAbbildung

α 7→ f j(α)

die Nullabbildung auf Kk. Nach Induktionsvoraussetzung sind die Polynomef0, f1, . . . , fN alle gleich Null, also ist f gleich Null. �

1.2 Komplexifizierung

Satz 1.2.1. Jeder komplexe Vektorraum W ist auch ein reeller Vektorraum. Es gilt

dimRW = 2 dimCW.

Ist V ein reeller Vektorraum, so kann man VC = V × V zu einem komplexen Vektorraummachen, indem man setzt:

(a + bi)(u,w) = (au − bw, aw + bu).

Man nennt VC die Komplexifizierung von V. Es gilt

dimRV = dimCVC.

Man identifiziert V mit mit V × {0} ⊂ VC, dann ist {0} ×V = iV und VC = V ⊕ iV. Dannist (v,w) = v + iw. Jede R-lineare Abbildung T : V → V lasst sich in eindeutiger Weise zu

Page 5: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 5

einer C-linearen TC : VC → VC fortsetzen, indem man definiert

TC(v + iw) = Tv + iTw.

Die Abbildung T 7→ TC ist eine Injektive Abbildung

LinR(V,V)→ LinC(VC,VC).

Das Bild rechts besteht aus den linearen Abbildungen S : VC → VC mit S(V) ⊂ V.

Beweis. Sei W ein komplexer Vektorraum und sei v1, . . . , vn eine Basis (ueber C) vonW. Wir behaupten, dass dann

v1, iv1, . . . , vn, ivn

eine Basis von W als R-Vektorraum ist.

Lineare Unabhaengigkeit. Sei

λ1v1 + µ1iv1 + · · · + λnvn + µnivn = 0,

also(λ1 + iµ1)v1 + · · · + (λn + iµn)vn = 0.

Da die Vektoren v1, . . . , vn ueber C linear unabhaengig sind, folgt

(λ1 + iµ1) = · · · = (λn + iµ1) = 0

und aus dem Vergleich von Real- und Imaginaerteil sehen wir, dass

λ1 = · · · = λn = µ1 = · · · = µn = 0

ist.

Erzeugendensystem. Sei w ∈W, dann gibt es α1, . . . , αn ∈ C, so dass w = α1v1 + · · ·+ αnvn.Schreibe α j = λ j + iµ j mit λ j, µ j ∈ R, so folgt

w = λ1v1 + µ1iv1 + · · · + λnvn + µnivn.

Damit ist die Basis-Eigenschaft gezeigt und die Dimensionsaussage folgt.

Page 6: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 6

Zur Komplexifizierung: Man rechnet leicht nach, dass VC ein C-Vektorraum ist. Seinun v1, . . . , vn eine R-Basis von V. Wir behaupten, dass sie auch eine C-Basis ist. Fuerdie lineare Unabhaengigkeit sei

0 = α1v1 + · · · + αnvn = λ1v1 + µ1iv1 + · · · + λnvn + µnivn,

wobei λ j = Re(α j) und µ j = Im(α j). Durch Vergleich von Real- und Imaginaerteil folgt

λ1v1 + · · · + λnvn = µ1v1 + · · · + µnvn = 0,

woraus dann λ j = µ j = 0, also α j = 0 folgt. Der Rest ist klar. �

Beispiele 1.2.2. • Die Komplexifizierung von Rn ist Cn = Rn⊕ iRn.

• Fasst man umgekehrt C � R2 als reellen Vektorraum auf, dann ist Cn � R2n.

Proposition 1.2.3. (a) Ist W ein komplexer Vektorraum, dann ist

J : W →W

w 7→ iw

eineR-lineare Abbildung. Eine beliebigeR-lineare Abbildung T : W →W ist genau dannC-linear, wenn sie mit J vertauscht, wenn also gilt JT = TJ.

(b) Sei V ein endlich-dimensionaler R-Vektorraum und sei J : V → V eine R-lineareAbbildung mit der Eigenschaft J2 = −1. Dann ist die Dimension von V gerade und Vwird durch die Vorschrift

(a + bi)v = av + bJ(v)

ein C-Vektorraum. Man nennt eine solche Abbildung J auch eine komplexe Struktur.

Beweis. (a) Die R-Linearitaet von J ist klar, diese Abbildung ist ja sogar C-linear. IstT : W →W eine C-lineare Abbildung, so gilt fuer w ∈W,

JT(w) = iT(w) = T(iw) = TJ(w).

Sei umgekehrt T : W →W eine R-lineare Abbildung, die mit J vertauscht und seiλ = a + bi ∈ C. Dann gilt fuer w ∈W

T(λw) = T(aw + biw) = T(aw + bJ(w)) = aT(w) + bJT(w) = aT(w) + biT(w) = λT(w),

Page 7: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 7

also ist T komplex-linear.

(b) Sei J : V → V mit J2 = −1. Dann ist das Minimalpolynom von J gleichx2 + 1 = (x − i)(x + i). Daher ist das charakteristische Polynom gleich (x − i)m(x + i)n.Dieses Polynom ist aber nur dann reell, wenn m = n, so dass dim V = 2n gerade ist.Man definiert nun

(a + bi) · v = av + bJ(v).

Dies macht V zu einem C-Vektorraum, wie man leicht nachrechnet, der einziginteressante Teil ist (λµ)v = λ(µv) fuer λ = a + bi und µ = c + di ∈ C:

λ(µv) = (a + bi)((c + di)v)

= (a + bJ)((c + dJ)(v))

= a(c + dJ)(v) + bJ((c + dJ)(v))

= acv + adJ(v) + bcJ(v) − bdv

= (ac − bd)v + (ad + bc)J(v)

= (ac − bd)v + (ad + bc)iv

= ((ac − bd) + (ad + bc)i)v = (λµ)v. �

1.3 Konvexitaet

Definition 1.3.1. Eine Menge K ⊂ Rn heisst konvex, falls fuer je zwei x, y ∈ K dieVerbindungslinie zwischen ihnen auch in K liegt, wenn also gilt

(1 − t)x + ty ∈ K ∀t∈[0,1].

Abbildung 1: konvex

Beispiele 1.3.2. • Jeder Untervektorraum von Rn ist konvex.

Page 8: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 8

Abbildung 2: nicht konvex

• Sei α : Rn→ R eine lineare Abbildung und sei T ∈ R. Dann ist die Menge

Hα(T) = {x ∈ Rn : α(x) ≤ T} eine konvexe Menge, genannt der Halbraum, gegebendurch α und T. Diese Menge ist konvex.

Beweis. Seien x, y ∈ Hα(T), dann gitl fuer jedes t ∈ [0, 1],

α((1 − t)x + ty) = (1 − t)α(x) + tα(y) ≤ (1 − t)T + tT = T. �

• Sei S ⊂ Rn irgendeine Teilmenge von Rn, dann ist die Menge

conv(S) =⋂K⊃S

K konvex

K

eine konvexe Teilmenge von Rn. Es ist die kleinste konvexe Teilmenge, die Senthaelt und wird deshalb die konvexe Huelle von S genannt.

• SeiS ⊂ Rn, dann laessst sich die konvexe Huelle auch beschreiben als

conv(S) =

k∑j=1

λ jv j : 0 ≤ λ j,k∑

j=1

λ j = 1, v1, . . . , vk ∈ S

.Beweis. Sei K die konvexe Huelle von S und sei R die rechte Seite. Wir zeigen,dass S ⊂ R und R ist konvex. Das erste ist klar, fuer das zweite seien a, b ∈ R, alsoetwa

a =

k∑j=1

λ jv j, b =

s∑j=k+1

λ jv j

mit v j ∈ S und∑k

j=1 λ j = 1 =∑s

j=k+1 λ j. Fuer 0 ≤ t ≤ 1 gilt dann

(1 − t)a + tb = (1 − t)k∑

j=1

λ jv j + ts∑

j=k+1

λ jv j.

Page 9: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 9

Sei µ j = (1 − t)λ j falls j ≤ k und µ j = tλ j sonst. Dann gilt

s∑j=1

µ j = (1 − t)k∑

j=1

λ j︸︷︷︸=1

+ts∑

j=k+1

λ j︸ ︷︷ ︸=1

= 1.

Damit liegt (1 − t)a + tb =∑s

j=1 λ jv j in R, also ist R konvex. Nach Definition von Kfolgt K ⊂ R. Umgekehrt zeigen wir per Induktion nach k, dass jeder Vektor derForm

∑kj=1 λ jv j mit v j ∈ S, λ j ≥ 0 und

∑kj=1 λ j = 1, bereits in K liegt. Der Fall k = 1

ist klar, da S ⊂ K Sei also der Fall k bereits gezeigt und sei a =∑k+1

j=1 λ jv j mit v j ∈ Sund λ j ≥ 0 mit

∑j λ j = 1. Sei t = λk+1, dann folgt 0 ≤ t ≤ 1. Ist t = 1, dann folgt

λ j = 0 fuer jedes j = 1, . . . , k und die Behauptung ist klar. Sei also t < 1. Dann ist∑kj=1

λ j

1−t = 1 und deshalb ist der Vektor w =∑k

j=1λ j

1−tv j nachInduktionsvoraussetzung in K. Da K konvex ist, folgt

k+1∑j=1

λ jv j = (1 − t)w + tvk+1 ∈ K. �

1.4 Normen

Unter einer Norm auf einem reellen oder komplexen Vektorraum V verstehen wir eineAbbildung ||.|| : V → R so dass

• ||v|| ≥ 0 und ||v|| = 0 ⇔ v = 0 Definitheit

• ||λv|| = |λ| ||v|| Multiplikativitat

• ||v + w|| ≤ ||v|| + ||w|| Dreiecksungleichung

Lemma 1.4.1 (Umgekehrte Dreiecksungleichung). Fuer jede Norm gilt∣∣∣ ||v|| − ||w|| ∣∣∣ ≤ ||v − w|| .

Proof. Aus der Dreiecksungleichung folgt

||v|| = ||v − w + w|| ≤ ||v − w|| + ||w|| ,

also ||v|| − ||w|| ≤ ||v − w||. Durch Vertauschung der Rollen von v und w wird daraus||w|| − ||v|| ≤ ||v − w|| , was zusammen die Behauptung liefert. �

Page 10: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 10

Beispiele 1.4.2. • Die Maximumsnorm auf Rn, gegeben durch

||x||∞ =n

maxj=1|x j|

ist eine Norm, denn fuer x ∈ Rn gilt

||x||∞ = 0⇔n

maxj=1|x j| = 0

⇔ |x1| = · · · = |xn| = 0

⇔ x1 = · · · = xn = 0

⇔ x = 0.

Ferner ist fuer λ ∈ R,

||λx||∞ =n

maxj=1|λx j| = |λ|

nmax

j=1|x j| = |λ| ||x||∞ .

Und schliesslich∣∣∣∣∣∣x + y∣∣∣∣∣∣∞

=n

maxj=1|x j + y j| ≤

nmax

j=1|x j| + |y j| ≤

nmax

j=1|x j| +

nmax

j=1|y j| = ||x||∞ +

∣∣∣∣∣∣y∣∣∣∣∣∣∞.

• Die Summennorm auf Rn, gegeben durch

||x||1 = |x1| + · · · + |xn|

ist ebenfalls eine Norm, denn

||x||1 = 0⇔ |x1| + |x2| + · · · + |xn| = 0

⇔ |x1| = · · · = |xn| = 0

⇔ x1 = · · · = xn = 0

⇔ x = 0.

Ferner ist fuer λ ∈ R,

||λx||1 = |λx1| + · · · + |λxn| = |λ| (|x1| + · · · + |xn|) = |λ| ||x||1 .

Und schliesslich∣∣∣∣∣∣x + y∣∣∣∣∣∣

1= |x1 + y1| + · · · + |xn + yn| ≤ |x1| + |y1| + · · · + |xn| + |yn| = ||x||1 +

∣∣∣∣∣∣y∣∣∣∣∣∣1.

Page 11: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 11

• die euklidische Norm||x||2 =

√x2

1 + · · · + x2n.

Die Normeigenschaft wird in Abschnitt 2.4 gezeigt.

Definition 1.4.3. Sei ||.|| eine beliebige Norm auf Rn. Setze dann

B = B(||.||) = {x ∈ Rn : ||x|| ≤ 1}.

Dies ist der abgeschlossene Einheitsball der Norm.

Lemma 1.4.4. Sei B ⊂ Rn der abgeschlossene Einheitsball einer Norm ||.||. Dann gilt

(a) B ist konvex,

(b) fuer jedes x ∈ Rn , 0 ist{λ ∈ R : λx ∈ B}

ein Intervall der Form [−a, a], a > 0.

In (b) ist der Wert a = ||x||−1.

Beweis. Klar. �

Lemma 1.4.5. Ist B ⊂ Rn eine Teilmenge mit den Eigenschaften (a) und (b) aus dem letztenLemma, dann gibt es genau eine Norm, so dass B der offene Einheitsball ist.

Beweis. Sei B mit den Eigenschaften (a) und (b) gegeben. Fuer x ∈ Rn definiere

N(x) =

a−1 x , 0 mit a aus (b),

0 x = 0.

Es folgt dannB = {x ∈ Rn : N(x) ≤ 1}.

und fuer jedes x , 0 in Rn gilt

B ∩Rx = (−N(x)−1,N(x)−1)x.

Wir behaupten, dass N eine Norm ist. Zunaechst ist N(x) ≥ 0 und N(x) = 0 ⇔ x = 0,also ist N positiv definit. Sei nun λ ∈ R. Ist λ = 0, so ist λx = 0 und damit

Page 12: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 12

N(λx) = 0 = |λ|N(x). Dieselbe Aussage folgt, wenn x = 0. Sei nun λ und x beideungleich Null. Dann ist (−N(x)−1,N(x)−1)x = B ∩Rx und also

(−N(λx)−1,N(λx)−1)λx = Rλx ∩ B

= Rx ∩ B

= (−N(x)−1,N(x)−1)x

= (−|λ|−1N(x)−1, |λ|−1N(x)−1)λx

und damit N(λx) = |λ|N(x). Zum Schluss die Dreiecksungleichung. Seien x, y ∈ R,wobei wir beide als , 0 annehmen koennen. Seien α = N(x)−1 und β = N(y)−1, danngilt N(αx) = 1 = N(βy), also αx, βy ∈ B. Dann ist wegen der Konvexitaet fuer jedes0 ≤ t ≤ 1 auch (1 − t)αx + tβy ∈ B, also N((1 − t)αx + tβy) ≤ 1. Sei t = α

α+β , dann folgt

(1 − t)α = tβ =αβα+β . Also ist

N(x + y) =α + β

αβN

(αβ

α + β(x + y)

)≤α + β

αβ=

N(x)−1 + N(y)−1

N(x)−1N(y)−1 = N(x) + N(y).

Die Eindeutigkeit der Norm ist klar. �

Beispiele fuer Einheitsbaelle von Normen ||.|| auf dem R2, die ||e1|| = ||e2|| = 1 erfuellen.

Abbildung 3: Einheitsball der Maximumxnorm ||.||∞

Page 13: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 13

Abbildung 4: Einheitsball der Summennorm ||.||1

Abbildung 5: Einheitsball der euklidischen ||.||2

Abbildung 6: Einheitsball einer exotischen Norm

Page 14: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 14

2 Bilinearformen und Skalarprodukte

2.1 Bilinearformen

Definition 2.1.1. Sei V ein endlich-dimensionaler K-Vektorraum. Eine Abbildung

b : V × V → K

heißt Bilinearform, falls b(·, v) und b(v, ·) fur jedes v ∈ V linear sind. Genauer heißt das

• b(λv + µw,u) = λb(v,u) + µb(w,u) und

• b(v, λw + µu) = λb(v,w) + µb(v,u)

fur alle v,w ∈ V und alle λ, µ ∈ K.

Beispiele 2.1.2. • Die Nullabbildung ist eine Bilinearform.

• Die Abbildung Kn× Kn

→ K;

(v,w) 7→ vtw = v1w1 + v2w2 + · · · + vnwn

ist eine Bilinearform, die sogenannte kanonische Bilinearform auf Kn.

Beweis. Fuer λ, µ ∈ K und v,u,w ∈ Kn rechnen wir

(λv + µu

)t w = (λvt + µut)w = λvtw + µutw

nach den Rechenregeln der Matrizenmultiplikation. Die Linearitaet im zweitenArgument folgt entweder ebenso oder (in diesem Fall) per Symmetrie:

K 3 vtw = (vtw)t = wt(vt)t = wtv,

so dass die Linearitaet im ersten Argument auch die Linearitaet im zweiten zurFolge hat. �

• Die Abbildung Mn(K) ×Mn(K)→ K; (A,B) 7→ tr(AB) ist eine Bilinearform.

Beweis. Fuer A,B,C ∈Mn(K) und λ, µ ∈ K rechnen wir

tr((λA + µC)B) = tr(λAB + µCB) = λ tr(AB) + µ tr(CB).

Page 15: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 15

Die Linearitaet im zweiten Argument folgt ebenso oder wieder durchSymmetrie. �

• Sei V = K2 und b : V × V → K gegeben durch

b

xy

, zw

= xw.

Dann ist b eine Bilinearform, die nicht symmetrisch ist.

Beweis. Fuer s, t, x, y, z,w ∈ K sowie λ.µ ∈ K rechnen wir

b

λ st

+ µ

xy

, zw

= b

λs + µxλt + µy

, zw

= (λs + µx)w = λsw + µxw

= λb

st

, zw

+ µb

xy

, zw

.

Die Linearitaet im zweiten Argument geht ebenso. Die mangelnde Symmetriesieht man schnell durch ein Beispiel

b

1

0

, 0

1

= 1 , 0 = b

0

1

, 1

0

. �

• Ist S eine Menge und ist V = Abb(S,K) der Vektorraum aller Abbildungen von Snach K, ist ferner s0 ∈ S ein Punkt, dann ist

b : V × V → K

( f , g) 7→ f (s0)g(s0)

eine Bilinearform.

Beweis. Seien f , g, h ∈ V und λ, µ ∈ K. Dann gilt

b(λ f + µh, g) = (λ f + µh)(s0)g(s0)

= (λ f (s0) + µh(s0))g(s0)

= λ f (s0)g(s0) + µh(s0)g(s0)

= λb( f , g) + µb(h, g).

Page 16: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 16

Die Linearitaet im zweiten Argument geht ebenso. �

Definition 2.1.3. Sei dim V < ∞ und b : V × V → K eine Bilinearform. Dann erhaltman eine Abbildung R : V → V∗, durch

R(v)(w) = b(w, v).

(Die Vertauschung der Reihenfolge ist beabsichtigt.)

Proposition 2.1.4. Die Menge Bil(V) aller Bilinearformen ist ein Untervektorraum vonAbb(V × V,K). Sei b eine Bilinearform auf V. Dann ist die Abbildung

Rb : v 7→ b(., v)

eine lineare Abbildung V → V∗ von V in den Dualraum von V. Sei andersherum R : V → V∗

eine lineare Abbildung, dann istbR(v,w) = φ(w)(v)

eine Bilinearform. Wir erhalten eine lineare Bijektion

Bil(V) �−→ Lin(V,V∗)

von dem Vektorraum aller Bilinearformen auf V zum Vektorraum aller linearen AbbildungenV → V∗.

Beweis. Um zu sehen, dass Bil(v) ein Untervektorraum ist, mussen wir unsuberzeugen, dass mit zwei Bilinearformen b, b′ deren Summe b + b′ und λb fur λ ∈ Kwieder bilinear sind, was leicht einzusehen ist.

Die Abbildungen b 7→ Rb und R 7→ bR sind linear und invers zueinander, denn es gilt

bRb(v,w) = Rb(w)(v) = b(v,w)

und

RbR(v)(w) = bR(w, v) = R(v)(w). �

Lemma 2.1.5. Sei V endlich-dimensional und sei b : V × V → K eine Bilinearform. Dannsind aquivalent:

(a) Zu jedem v ∈ V r {0} gibt es ein w ∈ V mit b(v,w) , 0.

Page 17: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 17

(b) zu jedem w ∈ V r {0} gibt es ein v ∈ V mit b(v,w) , 0.

(c) R ist ein Isomorphismus.

Ist dies erfullt, so heißt b nicht ausgeartet.

Beweis. (b)⇔(c): Die Bedingung (b) ist aquivalent zur Injektivitat von R. Dadim V∗ = dim V, ist dies aquivalent dazu, dass R ein Isomorphismus ist.

(a)⇔(c) Sei L : V → V∗ gegeben durch L(v)(w) = b(v,w). Dann ist (a) aquivalent zurInjektivitat von L. Wir dualisieren R und behaupten, dass L gleich der KompositionV δ−→ V∗∗ R∗

−→ V∗ ist. Seien hierzu v,w ∈ V, dann giltR∗(δ(v))(w) = δv(R(w)) = R(w)(v) = b(v,w) = L(v)(w). Damit ist die Injektivitat von Laquivalent zur Surjektivitat von R. �

Beispiele 2.1.6. • Die kanonische Bilinearform auf Kn ist nicht ausgeartet, dennman sieht leicht, dass R injektiv ist.

• Die Spurform Mn(K) ×Mn(K)→ K; (A,B) 7→ tr(AB) ist nicht ausgeartet, denn istB , 0 eine Matrix, so kann man durch Zeilentransformationen B in eine MatrixB′ transformieren, so dass Spur(B′) , 0 ist. Dann existiert eine Matrix S ∈Mn(K)so dass B′ = SB, also tr(SB) , 0.

• Sei V = Abb(S,K) und s0 ∈ S, dann ist die Punktauswertungsform

b : V × V → K

( f , g) 7→ f (s0)g(s0)

genau dann ausgeartet, wenn S mindestens zwei Elemente hat. Ist dannnaemlich s1 , s0 ein weiteres Element, dann gilt fuer die Abbildung

f (x) =

1 x = s1,

0 x , s1,

dass b( f , g) = 0 fuer jedes g ∈ V aber dennoch ist f , 0.

Definition 2.1.7. Sei b : V ×V → K eine Bilinearform und sei B = (v1, . . . , vn) eine Basisvon V. Die Matrix von b bezuglich der Basis B ist die Matrix B =MB(b) ∈Mn(K)gegeben durch

Bi, j = b(vi, v j).

Page 18: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 18

Beispiel 2.1.8. Sei n ∈N und sei V der reelle Vektorraum aller Polynome f ∈ R[x]vom Grad ≤ n. Sei b die Bilinearform gegeben durch

b( f , g) =

∫ 1

0f (x)g(x) dx.

Sei B die Basis 1, x, x2, . . . , xn. Schreibe v j = d j−1 fuer j = 1, . . . ,n + 1. Dann gilt

b(vi, v j) =

∫ 1

0xi−1+ j−1 dx =

1i + j − 1

.

Also ist die zugehoerige Matrix gleich

1 12

13 . . . 1

n+112

13

1n+2

13

. . . 1n+3

......

1n+1

1n+2

1n+3 . . . 1

2n+1

.

Lemma 2.1.9. Sei dim V = n und sei Bil(V) die Menge aller Bilinearformen auf V. Sei Beine Basis von V, dann ist die Abbildung b 7→ MB(b) ein linearer IsomorphismusBil(V) �

−→Mn(K). Insbesondere ist dim Bil(V) = n2.

Beweis. Fur die Injektivitat stellen wir fest, dass die Matrix B die Form b eindeutigfestlegt, denn

b

n∑i=1

λivi,n∑

j=1

µ jv j

=∑

i, j

λiµ jb(vi, v j) =∑

i, j

λiµ jBi, j = λtBµ. (*)

Fur das letzte Gleichheitszeichen haben wir λ und µ als Spaltenvektoren in Kn

aufgefasst. Andererseits kann man (*) auch ruckwarts lesen, namlich indem es fur einegegebene Matrix B eine Bilinearform b definiert, was dann die Surjektivitat liefert. �

Beispiel 2.1.10. Im Spezialfall V = Kn bedeutet das Lemma, dass jede gegebeneBilinearform b in der Form

b(x, y) = xtBy

fur eine eindeutig bestimmte Matrix B ∈Mn(K) geschrieben werden kann.

Page 19: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 19

Satz 2.1.11. Sei b eine Bilinearform auf V, B eine Basis, B∗ die duale Basis von V∗ undB =MB(b) ∈Mn(K).

(a) Die Matrix B stellt die lineare Abbildung R : V → V∗ aus Definition 2.1.3 in denBasen B und B∗ dar, also

B =MB,B∗(R).

(b) Es gilt

b nicht ausgeartet⇔ B invertierbar.

Beweis. Sei B = (v1, . . . , vn) und sei A =MB

B∗(R). Das heißt R(v j) =

∑nk=1 Ak, jv∗k fur

1 ≤ i ≤ n. Es folgt dann

Bi, j = b(vi, v j) = R(v j)(vi) =

n∑k=1

Ak, jv∗k(vi) = Ai, j.

Das ist Teil (a). Teil (b) folgt hieraus mit Lemma 2.1.5. �

Satz 2.1.12 (Basiswechsel fur Bilinearformen). Sei b ∈ Bil(V) und seien B,C Basenvon V. Dann gilt

MB(b) = StMC(b)S,

wobei S = SBC

die Basiswechselmatrix ist.

Beweis. Ist B = (v1, . . . , vn) und C = (w1, . . . ,wn) so gilt

v j =

m∑k=1

Sk, jwk.

Page 20: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 20

Seien B =MB(b) und C =MC(b). Dann ist Ci, j = b(wi,w j) und

Bi, j = b(vi, v j) = b

m∑k=1

Sk,iwk,m∑

l=1

Sl, jwl

=

∑k,l

Sk,ib(wk,wl)Sl, j =∑

k,l

Sk,iCk,lSl, j = (StCS)i, j. �

Definition 2.1.13. Zwei Matrizen A,B ∈Mn(K) heißen kongruent, wenn es eineinvertierbare Matrix S ∈ GLn(K) gibt, so dass

B = StAS.

Wir stellen fest: A und B stellen genau dann dieselbe Bilinearform bzgl verschiedenerBasen dar, wenn sie kongruent sind.

Erinnerung: A und B heißen ahnlich oder konjugiert, wenn B = S−1AS gilt.

Beispiele 2.1.14. • Die Matrix

1 10 1

1 01 1

=

2 11 1

ist kongruent zur

Einheitsmatrix, aber nicht konjugiert zur Einheitsmatrix.

• Wegen 1 11

12

1 −11

=

1 12

sind die Matrizen

( 12)

und( 1 1

2)

konjugiert, aber sie sind nicht kongruent, weildie Matrix

( 1 12)

nicht symmetrisch ist (siehe naechster Abschnitt).

2.2 Symmetrische Formen

Definition 2.2.1. Eine Bilinearform b auf V heißt symmetrisch, wenn

b(v,w) = b(w, v)

fur alle v,w ∈ V gilt. Sei Sym(V) der Unterraum der symmetrischen Bilinearformen.

Definition 2.2.2. Eine Matrix A ∈Mn(K) heißt symmetrisch, falls A = At gilt. SeiSymn(K) der Raum aller symmetrischen Matrizen.

Eine Matrix (ai, j) ∈Mn(K) ist genau dann symmetrisch, wenn ai, j = a j,i gilt. Damit istjede symmetrische Matrix durch die Werte ai, j mit i ≤ j eindeutig festgelegt und es

Page 21: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 21

folgt, dass die Dimension des Raums der symmetrischen Matrizen gleich

dim Symn(K) = n + (n − 1) + · · · + 1 =n(n + 1)

2

ist.

Lemma 2.2.3. Eine Bilinearform b auf einem endlich-dimensionalen Raum V ist genau dannsymmetrisch, wenn die darstellende MatrixMB(b) symmetrisch ist. Hierbei ist B einebeliebige Basis.

Beweis. Sei b symmetrisch und B die darstellende Matrix bzgl der Basis v1, . . . , vn.Dann ist Bi, j = b(vi, v j) = b(v j, v j) = B j,i, also ist B symmetrisch. Sei umgekehrt Bsymmetrisch, dann ist b(vi, v j) = b(v j, vi) und wegen Bilinearitat folgt dasselbe fur alleVektoren. �

Satz 2.2.4. Sei Char(K) , 2. Sei b eine symmetrische Bilinearform auf demendlich-dimensionalen Raum V. Dann gibt es eine Basis v1, . . . , vn von V, so dassb(vi, v j) = 0 fur i , j, d.h. die Form b wird durch eine Diagonalmatrix dargestellt. Einesolche Basis nennt man Orthogonalbasis zu b.

Beweis. Wir beweisen diesen Satz durch Induktion nach n. Fur n = 1 ist nichts zuzeigen. Wir zeigen n→ n + 1. Sei v1 , 0 in V.

1. Fall. Ist b(v1, v) = 0 fur alle v ∈ V, so erganzen wir v1 zu einer Basis v1, . . . , vn+1 von V

und in dieser Basis wird b dargestellt durch die Matrix

0 00 C

fur eine symmetrische

Matrix C ∈Mn(K). Sei U = Spann(v2, . . . , vn+1), dann stellt C die Form b eingeschranktauf U dar. Nach Induktionsvoraussetzung konnen wir die Basis so wahlen, dass CDiagonalgestalt hat und der Beweis ist fertig.

2. Fall. Gibt es ein v ∈ V mit b(v1, v) , 0, dann ist die polynomiale Abbildung

λ 7→ b(v1 + xv, v1 + xv) = b(v1, v1) + 2xb(v1, v) + x2b(v, v)

nicht die Nullabbildung (Hier wurde der Voraussetzung Char(K) , 2 gebraucht!).Daher konnen wir v1 durch einen Vektor der Form v1 + λv mit λ ∈ K ersetzen so dass

Page 22: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 22

b(v1, v1) , 0 gilt. Sei nun

U ={v ∈ V : b(v, v1) = 0

}= ker(v 7→ b(v, v1)).

dann ist U ein Untervektorraum, der v1 nicht enthalt. Ausserdem ist er der Kern einesnichttrivialen linearen Funktionals V → K, nach der Dimensionsformel ist alsodim U = n. Sei v2, . . . , vn+1 eine Basis von U, dann wird b in der Basis v1, . . . , vn+1 durch

eine Matrix der Form

λ 00 C

dargestellt mit λ = b(v1, v1). Nach

Induktionsvoraussetzung kann man v2, . . . , vn+1 so wahlen, dass C diagonal ist. �

Korollar 2.2.5. Sei Char(K) , 2. Jede symmetrische Matrix A ∈ Symn(K) ist kongruent zueiner Diagonalmatrix, d.h., es existiert S ∈ GLn(K) so dass StAS eine Diagonalmatrix ist.

Beweis. Dies ist nur eine Umformulierung des Satzes fur Matrizen. �

Beispiel 2.2.6. Hier ein Beispiel, das zeigt, dass die obige Aussage in Charakteristik 2falsch wird. Sei K ein beliebiger Koerper der Charakteristik 2 und seiA =

( 11

)∈M2(K). Ist dann S =

(a bc d

)∈M2(K) eine beliebige Matrix, dann rechnet man

wegen 2 = 0 nach, dassSASt = (ad + bc)A

gilt, so dass A also nicht zu einer Diagonalmatrix kongruent ist.

Definition 2.2.7. Sei nun K = R. Eine Bilinearform b auf V heißt positiv definit, fallsb(v, v) > 0 fur jedes v ∈ V r {0}. Wir schreiben in diesem Fall b > 0.

Die Form b heißt positiv semidefinit, falls b(v, v) ≥ 0 fur alle v ∈ V. Wir schreiben b ≥ 0.

Die Form heißt negativ definit, falls −b positiv definit ist und ebenso fur negativsemidefinit.

Definition 2.2.8. Sei b eine symmetrische Bilinearform auf V. Seien U1, . . . ,Uk

Unterraeume von V mitV = U1 ⊕ · · · ⊕Uk.

Dann heisst diese Zerlegung von V eine Orthogonalzerlegung, falls fur i , j stets gilt

b(Ui,U j) = 0,

wobei b(Ui,U j) ={b(u,u′) : u ∈ Ui,u′ ∈ U j

}.

Page 23: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 23

Satz 2.2.9 (Tragheitssatz von Sylvester). Sei K = R der Korper der reellen Zahlen.

(a) Sei V endlich-dimensional und b eine symmetrische Bilinearform auf V. Dannexistiert eine Orthogonalzerlegung

V = V0 ⊕ V+ ⊕ V−

dergestalt, dass b = 0 auf V0, b > 0 auf V+ und b < 0 auf V−. Dabei ist der Raum V0

und die Dimensionen p = dim V+ und q = dim V− eindeutig bestimmt. Das Paar(p, q) ∈N2

0 wird die Signatur der Matrix, oder der dargestellten Bilinearformgenannt.

(b) Jede symmetrische Matrix A ∈ Symn(R) ist kongruent zu einer eindeutig bestimmtenDiagonalmatrix mit Diagonaleintragen

1, . . . , 1︸ ︷︷ ︸p mal

,−1, . . . ,−1︸ ︷︷ ︸q mal

, 0, . . . , 0.

Beweis. Sei v1, . . . , vn eine Orthogonalbasis von V. Durch Umnummerieren erreichenwir

b(v j, v j)

> 0 1 ≤ j ≤ p,

< 0 p + 1 ≤ j ≤ p + q,

= 0 p + q + 1 ≤ j ≤ n.

Sei dann

V+ = Spann(v1, . . . , vp)

V− = Spann(vp+1, . . . , vp+q)

V0 = Spann(vp+q+1, . . . , vn).

Dann erfullt die Zerlegung V = V+ ⊕ V− ⊕ V0 die Bedingung. Weiter ist V0 der Raumaller u ∈ V mit b(u, v) = 0 fur alle v ∈ V und damit eindeutig bestimmt. Fur dieEindeutigkeit der Dimensionen sei V = V0 ⊕ V′+ ⊕ V′

−eine weitere Zerlegung, dann ist

b auf V0 ⊕ V+ positiv semidefinit, also ist (V0 ⊕ V+) ∩ V′−

= 0, damit folgtdim V0 + dim V+ + dim V′

−≤ dim V = dim V0 + dim V+ + dim V− und damit

Page 24: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 24

dim V′−≤ dim V−. Aus Symmetriegrunden folgt Gleichheit und ebenso fur V+.

Fur Teil (b) wenden wir (a) auf V = Kn und die durch A gegebene Bilinearform an.Dann folgt aus (a), dass A kongruent ist zu einer Diagonalmatrix mitDiagonaleintragen a1, . . . , an mit a1, . . . , ap > 0, ap+1, . . . , aP+q < 0 und ap+q+1, . . . .an = 0.Sei S die Diagonalmatrix mit Eintragen s1, . . . , sn, wobei

s j =

1√|a j|

a j , 0,

1 a j = 0.

Dann ist S = St und StAS ist eine Diagonalmatrix mit Eintragen in {±1, 0}wieverlangt. �

2.3 Skalarprodukte

Sei V ein Vektorraum uber R. Ein Skalarprodukt auf V ist eine positiv definitesymmetrische Bilinearform 〈v,w〉. Also ist ein Skalarprodukt eine Abbildung〈., .〉 : V × V → R, so dass

• v 7→ 〈v,w〉 ist linear fur jedes w ∈ V,

• 〈v,w〉 = 〈w, v〉,

• 〈v, v〉 > 0 falls v , 0.

Beachte, dass insbesondere 〈v, v〉 reell sein muss, da > 0 fuer beliebige komplexeZahlen nicht definiert ist.

Beispiel 2.3.1. Das standard Skalarprodukt auf Rn ist

⟨x, y

⟩= xty = x1y1 + · · · + xnyn.

Geometrisch ist ||v|| =√〈v, v〉 die Lange eines Vektors. Uber C fuhrt dies zu

Problemen, denn etwa 1

i

t 1

i

= 1 − 1 = 0,

man erhalt also Vektoren der Lange Null! Um das zu verhindern, muss man uber Chermitesche Formen betrachten:

Page 25: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 25

Definition 2.3.2. Sei V ein Vektorraum uber C. Eine hermitesche Form ist eineAbbildung 〈., .〉 : V × V → Cmit

• v 7→ 〈v,w〉 ist linear fur jedes w ∈ V und

• 〈w, v〉 = 〈v,w〉 (komplexe Konjugation).

Eine hermitesche Form heißt Skalarprodukt, falls zusatzlich gilt

• 〈v, v〉 > 0 fur jedes v ∈ V r {0}.

Beispiel 2.3.3. Das standard Skalarprodukt auf V = Cn ist

〈v,w〉 = vtw = v1w1 + · · · + vnwn,

wobei w der Vektor mit den komplex konjugierten Eintragen ist.

Bemerkung. Ist 〈., .〉 ein Skalarprodukt auf einem C-Vektorraum V, dann ist fur jedesv ∈ V die Abbildung T = Tv : w 7→ 〈v,w〉 eine konjugiert-lineare Abbildung, d.h., es gilt

T(λw + µw′) = λT(w) + µT(w′).

2.4 Euklidische Norm

SeiK der Korper R oder C. Sei 〈., .〉 ein Skalarprodukt auf demK-Vektorraum V.

Definition 2.4.1. Die euklidische Norm eines Vektors v ∈ V ist

||v|| =√〈v, v〉.

Man sagt: zwei Vektoren v,w ∈ V stehen senkrecht aufeinander, falls 〈v,w〉 = 0 ist.

Satz 2.4.2 (Pythagoras). Stehen die Vektoren v,w senkrecht aufeinander, dann ist

||v||2 + ||w||2 = ||v + w||2 .

Page 26: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 26

Beweis. Es gilt

||v + w||2 = 〈v + w, v + w〉

= 〈v, v〉 + 〈v,w〉︸︷︷︸=0

+ 〈w, v〉︸︷︷︸=0

+ 〈w,w〉

= ||v||2 + ||w||2 . �

Definition 2.4.3. Ein reeller Vektorraum mit einem Skalarprodukt heißt euklidischerRaum.

Ein komplexer Vektorraum mit einem Skalarprodukt heißt unitarer Raum.

Satz 2.4.4 (Cauchy-Schwarz-Ungleichung). Sei V ein unitarer oder euklidischerVektorraum. Dann gilt fur alle v,w ∈ V:

| 〈v,w〉 | ≤ ||v|| ||w|| .

Beweis. Wir koennen w , 0 annehmen. Fuer jedes t ∈ R gilt

0 ≤ ||v − tw||2 = 〈v − tw, v − tw〉 = ||v||2 − 2t Re 〈w, v〉 + t2||w||2 .

Dieses quadratische Polynom in t nimmt sein Minimum in t = Re〈v,w〉||w||2

an. Setzen wirdiesen Wert ein, folgt

0 ≤ ||v||2 − 2Re 〈v,w〉2

||w||2+

Re 〈v,w〉2

||w||4||w||2 ,

alsoRe 〈v,w〉2 ≤ ||v||2 ||w||2 .

Es gibt nun ein θ ∈ Kmit |θ| = 1 so dass θ 〈v,w〉 = | 〈v,w〉 | gilt. Indem wir v durch θversetzen, folgt aus dem obigen

| 〈v,w〉 |2 = Re(| 〈v,w〉 |2

)= Re

(θ2〈v,w〉2

)= Re

(〈θv,w〉2

)= Re(〈θv,w〉)2

≤ ||θv||2 ||w||2 = ||v||2 ||w||2 .

Page 27: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 27

Satz 2.4.5. Die Abbildung ||.|| ist eine Norm, also

• ||v|| ≥ 0 und ||v|| = 0 ⇔ v = 0 Definitheit

• ||λv|| = |λ| ||v|| Multiplikativitat

• ||v + w|| ≤ ||v|| + ||w|| Dreiecksungleichung

Beweis. Die ersten beiden Eigenschaften sind klar. Zur Dreiecksungleichung rechnemit der Cauchy-Schwarz-Ungleichung:

||v + w||2 = 〈v + w, v + w〉

= 〈v, v〉 + 〈v,w〉 + 〈w, v〉 + 〈w,w〉

≤ 〈v, v〉 + 2| 〈v,w〉 | + 〈w,w〉

≤ ||v||2 + ||w||2 + 2 ||v|| ||w||

= (||v|| + ||w||)2 �

Satz 2.4.6. Ist W ein komplexer Vektorraum und ist 〈., .〉 : W×W → C ein Skalarprodukt,dann ist der Realteil (v,w) = Re(〈v,w〉) ein Skalarprodukt des reellen Vektorraums W.

Ist umgekehrt 〈., .〉 ein reelles Skalarprodukt des reellen Vektorraums V, dann ist

〈v + iv′,w + iw′〉C = 〈v,w〉 + i 〈v′,w〉 − i 〈v,w′〉 + 〈v′,w′〉 ,

v, v′,w,w′ ∈ V, ein Skalarprodukt des komplexen Vektorraums VC. Dies ist das eindeutigbestimmte Skalarprodukt auf VC, das 〈., .〉 fortsetzt.

Beweis. Die Skalarproduktsaxiome sind fuer Re(〈., .〉) sofort verifiziert. Umgekehrtfuer die Komplexifizierung ist die Rechnung etwas laenger, aber elementar. ZurVereinfachung kann man benutzen, dass eine Abbildung α : W → C von einemkomplexen Vektorraum W genau dann C-linear ist, wenn sie R-linear ist und wennα(iv) = iα(v) gilt.

Zur Eindeutigkleit der Komplexifizierung: Sei (., .) eine weitere Fortsetzung von 〈., .〉

Page 28: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 28

zu einem komplexen Skalarprodukt. Jeder Vektor in VC laesst sich in der Form v + iv′

mit v, v′ ∈ V schreiben. Fuer v, v′,w,w′ ∈ V rechnen wir auf Grund der(anti-)Linearitaet von (., .),

(v + iv′,w + iw′) = (v,w) + i(v′,w) − i(v,w′) + (v′,w′)

= 〈v,w〉 + i 〈v′,w〉 − i 〈v,w′〉 + 〈v′,w′〉

= 〈v + iv′,w + iw′〉C �

Wir haben im letzten Abschnitt gelernt, dass jedes Skalarprodukt eine Norminduziert. Kommt aber jede Norm von einem Skalarprodukt? Und wenn, ist dasSkalarprodukt eindeutig bestimmt durch die Norm?

Satz 2.4.7 (Polarisierungsformeln). Ist V ein reeller Vektorraum und ist ||.|| eine Norm,die durch ein Skalarprodukt gegeben ist. Dann gilt fuer dieses Skalarprodukt:

〈v,w〉 =14

(||v + w||2 − ||v − w||2

).

Ist W ein komplexer Vektorraum und ist ||.|| eine Norm, die durch ein komplexesSkalarprodukt gegeben ist, so gilt fuer dieses Skalarprodukt

〈v,w〉 =14

(||v + w||2 − ||v − w||2

)+ i

14

(||v + iw||2 − ||v − iw||2

).

Insbesondere ist jeweils das Skalarprodukt durch die Norm eindeutig festgelegt.

Proof. Betrachte zuerst den reellen Fall. Ist ||.|| von 〈., .〉 induziert, dann gilt

14

(||v + w||2 − ||v − w||2

)=

14

(〈v + w, v + w〉 − 〈v − w, v − w〉)

=14

(〈v, v〉 + 〈v,w〉 + 〈w, v〉 + 〈w,w〉 − 〈v, v〉 + 〈v,w〉 + 〈w, v〉 − 〈w,w〉)

= 〈v,w〉 .

Im zweiten Fall ist die Norm ja ebensogut auch von dem reellen SkalarproduktRe(〈., .〉) induziert. Fuer dieses gilt nach dem ersten Teil

Re(〈v,w〉) =14

(||v + w||2 − ||v − w||2

).

Page 29: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 29

Nun ist 〈v,w〉 = Re +i Im und es ist

Im(〈v,w〉) = −Re(i 〈v,w〉) = Re(〈v, iw〉),

woraus die behauptete Formel folgt. �

Satz 2.4.8. Eine gegebene Norm ||.|| auf einem reellen Vektorraum ist genau dann durchein Skalarprodukt gegeben, wenn sie die Parallelogrammidentitaet

||v + w||2 + ||v − w||2 = 2(||v||2 + ||w||2

)erfuellt.

Beweis. Ist ||.|| von dem Skalarprodukt 〈., .〉 induziert, dann gilt

||v + w||2 + ||v − w||2 = 〈v + w, v + w〉 + 〈v − w, v − w〉

= 〈v, v〉 + 2 〈v,w〉 + 〈w,w〉 + 〈v, v〉 − 2 〈v,w〉 + 〈w,w〉

= 2(||v||2 + ||w||2

).

Sei umgekehrt ||.|| eine Norm, die die Parallelogrammidentitaet erfuellt. Definiere dann

〈v,w〉 B14

(||v + w||2 − ||v − w||2

)=

14

(||v + w||2 + ||v − w||2 − 2 ||v − w||2

)=

12

(||v||2 + ||w||2 − ||v − w||2

).

Page 30: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 30

Wir zeigen, dass 〈., .〉 ein Skalarprodukt ist. Dazu rechnen wir

〈v + v′,w〉 − 〈v,w〉 − 〈v′,w〉 =12

(||v + v′||2 + ||w||2 − ||v + v′ − w||2

− ||v||2 − ||w||2 + ||v − w||2 − ||v′||2 − ||w||2 + ||v′ − w||2)

=12

(||v + v′||2 − ||w||2 − ||v + v′ − w||2

− ||v||2 − ||v′||2︸ ︷︷ ︸=− 1

2 (||v+v′||2+||v−v′||2)

+ ||v − w||2 + ||v′ − w||2)

=12

(12||v + v′||2 −

12||v − v′||2 − ||w||2 − ||v + v′ − w||2︸ ︷︷ ︸

−12 (||v+v′−2w||2−||v+v′||2)

+ ||v − w||2 + ||v′ − w||2)

=12

(−

12||v − v′||2 −

12||v + v′ − w||2

+ ||v − w||2 + ||v′ − w||2︸ ︷︷ ︸= 1

2 ||v+v′−2w||2+ 12 ||v−v′||2

)= 0

Damit haben wir die Additivitaet im ersten Argument. Fuer n ∈N folgt daraus durchiterierte Anwendung

〈nv,w〉 = 〈v + · · · + v,w〉 = 〈v,w〉 + · · · + 〈v,w〉 = n 〈v,w〉 .

Es gilt auch 〈nv,w〉 + 〈−nv,w〉 = 〈0,w〉 = 0, so dass 〈−nv,w〉 = −n 〈v,w〉, also insgesamt〈kv,w〉 = k 〈v,w〉 fuer jedes k ∈ Z. Mit p ∈ Z und q ∈N folgt

q⟨

pq

v,w⟩

=⟨pv,w

⟩= p 〈v,w〉 = q

pq〈v,w〉 ,

so dass nach Division durch q folgt 〈rv,w〉 = r 〈v,w〉 fuer jede rationale Zahl r. Nachder umgekehrten Dreiecksungleichung gilt fuer x, y ∈ R, dass∣∣∣ ||xv − w|| −

∣∣∣∣∣∣yv − w∣∣∣∣∣∣ ∣∣∣ ≤ ∣∣∣∣∣∣(x − y)v

∣∣∣∣∣∣ = |x − y| ||v||

Damit ist die Abbildung x 7→ 〈xv,w〉 = 12

(x2||v||2 + ||w|| − ||xv − w||2

)eine stetige

Abbildung und da jedes x ∈ R der Limes einer Folge aus Q ist, folgt 〈xv,w〉 = x 〈v,w〉.Die Symmetrie 〈v,w〉 = 〈w, v〉 ist klar und wegen

〈v, v〉 = ||v||2

Page 31: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 31

ist 〈., .〉 auch positiv definit, also ein Skalarprodukt. Dieselbe Gleichung zeigt, dassdieses Skalarprodukt die gegebene Norm induziert. �

Beispiele 2.4.9. • Die Maximumsnorm auf Rn,

||x||∞ =n

maxj=1|x j|

ist eine Norm, die fuer n ≥ 2 nicht von einem Skalarprodukt induziert wird,denn fuer x = e1 und y = e2 gilt∣∣∣∣∣∣x + y

∣∣∣∣∣∣2∞

+∣∣∣∣∣∣x − y

∣∣∣∣∣∣2∞

= 1 + 1 , 2(1 + 1) = 2(||x||2∞

+∣∣∣∣∣∣y∣∣∣∣∣∣2

),

so dass die Parallelogrammidentitaet nicht erfuellt ist.

• Die Summennorm auf Rn,||x||1 = |x1| + · · · + |xn|

ist ebenfalls eine Norm, die die Parallelogrammidentitaet fuer n ≥ 2 nichterfuellt, denn mit denselben Beispielvektoren gilt∣∣∣∣∣∣x + y

∣∣∣∣∣∣21

+∣∣∣∣∣∣x − y

∣∣∣∣∣∣21

= 4 + 4 = 8 , 4 = 2(||x||21 +

∣∣∣∣∣∣y∣∣∣∣∣∣21

).

2.5 Projektion und Orthonormalisierung

SeiK = R oderK = C. Sei V ein endlich-dimensionaler Vektorraum mitSkalarprodukt. Eine Familie e1, . . . , en von V heißt orthonormal, wenn

⟨ei, e j

⟩=

1 i = j,

0 i , j.

Ist die Familie uberdies eine Basis, so heißt sie Orthonormalbasis.

Satz 2.5.1. Sei v1, . . . , vn eine gegebene Basis von V. Dann existiert eineOrthonormalbasis e1, . . . , en mit

Spann(v1, . . . , vk) = Spann(e1, . . . , ek)

fur jedes 1 ≤ k ≤ n.

Page 32: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 32

Beweis. Wir konstruieren die e j induktiv. Als Induktionsanfang sei e1 = 1||v1||

v1. ImInduktionsschritt sei eine orthonormale Familie e1, . . . , ek bereits konstruiert mitSpann(v1, . . . , v j) = Spann(e1, . . . , e j) fur jedes 1 ≤ j ≤ k. Definiere

vk+1 = vk+1 − 〈vk+1, e1〉 e1 − · · · − 〈vk+1, ek〉 ek.

Da vk+1 nicht im Spann der e1, . . . , ek liegt, ist vk+1 , 0. Ferner gilt⟨vk+1, e j

⟩= 0 fur jedes

1 ≤ j ≤ k. Definiere nun

ek+1 =1||vk+1||

vk+1.

Dann ist e1, . . . , ek+1 orthonormal mit Spann(v1, . . . , v j) = Spann(e1, . . . , e j) fur jedes1 ≤ j ≤ k + 1. �

Beispiel 2.5.2. Sei V der reelle Vektorraum der Polynome vom Grad ≤ 2 mit demSkalarprodukt

⟨f , g

⟩=

∫ 1

0f (x)g(x) dx. Wir orthonormalisieren die natuerliche Basis

(v1, v2, v3) = (1, x, x2). Zunaechst ist

||v1||2 =

∫ 1

01 dx = 1,

also ist e1 = v1. Dann ist

〈v1, v2〉 =

∫ 1

0x dx =

12, 〈v2, v2〉 =

∫ 1

0x2 dx =

13.

Wir erhaltenv2 = v2 − 〈v2, e1〉 e1 = v2 −

12

e1 = x −12.

Wir rechnen

||v2||2 =

⟨x −

12, x −

12

⟩=

∫ 1

0x2 dx −

∫ 1

0x dx +

∫ 1

0

14

dx =13−

12

+14

=112.

Es folgt e2 =√

12v2 = 2√

3(x − 1

2

)= 2√

3x −√

3. Schliesslich ist

v3 = v3 − 〈v3, e2〉 e2 − 〈v3, e1〉 e1.

Page 33: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 33

Wir rechnen

〈v3, e2〉 =

∫ 1

0x2(2√

3x −√

3) dx =

√3

2−

√3

3=

√3

6.

Sowie

〈v3, e1〉 =

∫ 1

0x2 =

13.

Es folgt

v3 = x2−

√3

6(2√

3x −√

3) −13

= x2− x +

16.

Und weiter

||v3||2 =

∫ 1

0

(x2− 2x +

16

)2

dx

=

∫ 1

0x4− 2x3 +

43

x2−

13

x +1

36dx

=15−

12

+49−

16

+1

36

=1

180

also iste3 =

180v3 = 5√

5x2− 6√

5x +√

5.

Definition 2.5.3. Sei nun U ⊂ V ein Unterraum. Definiere den Orthogonalraum U⊥

durchU⊥ =

{v ∈ V : 〈v,u〉 = 0 ∀u∈U

}.

Satz 2.5.4. Es giltV = U ⊕U⊥.

Beweis. Wir zeigen zunachst U ∩U⊥ = 0. Sei also u ∈ U ∩U⊥. Dann ist 〈u,u〉 = 0, alsou = 0.

Es bleibt zu zeigen, dass V = U + U⊥. Sei e1, . . . , ek eine ONB von U. Fur beliebigesv ∈ V sei

u = 〈v, e1〉 e1 + · · · + 〈v, ek〉 ek

und w = v − u. Dann gilt v = u + w, ferner ist u ∈ U und wir mussen zeigen, dass

Page 34: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 34

w ∈ U⊥ ist. Hierzu reicht es, zu zeigen, dass⟨w, e j

⟩= 0 fur 1 ≤ j ≤ k gilt. Es ist⟨

w, e j

⟩=

⟨v, e j

⟩−

⟨u, e j

⟩=

⟨v, e j

⟩−

⟨v, e j

⟩= 0. �

Definition 2.5.5. Eine lineare Abbildung P : V → V heißt Projektion, falls

P2 = P

gilt.

Satz 2.5.6. Ist P eine Projektion, so gilt V = ker P ⊕ Bild P. Ist v = vker + vBild dieZerlegung eines gegebenen v ∈ V, so ist P(v) = vBild. Mithin ist die Projektion P durchKern und Bild eindeutig festgelegt.

Ist umgekehrt V = U ⊕W eine gegebene Zerlegung in Unterraume, dann ist dieAbbildung P(u + w) = u fur u ∈ U, w ∈W, eine Projektion mit Kern W und Bild U.

Beweis. Fur jedes v ∈ V ist vBild = Pv im Bild, und vker = v − Pv ist im Kern, denn

Pvker = Pv − P2v = Pv − Pv = 0.

Es gilt dann v = vBild + vker und P(v) = vBild. Insbesondere ist also V = ker P + Bild P. Esbleibt zu zeigen (Bild P) ∩ (ker P) = 0, womit diese Zerlegung auch eindeutigbestimmt ist. Sei also w in diesem Schnitt, dann gibt es ein v mit w = Pv. daher folgt0 = Pw = P2v = Pv = w.

Die zweite Aussage ist klar. �

Definition 2.5.7. Eine Projektion P heißt Orthogonalprojektion, falls

(Bild P) ⊥ (ker P).

Sei U ⊂ V ein Unterraum, dann schreiben wir PU : V → V fur dieOrthogonalprojektion mit Bild U und Kern U⊥.

Proposition 2.5.8. Gilt U ⊂W ⊂ V, dann ist

PU = PWPU = PUPW.

Page 35: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 35

Beweis. Wir haben eine direkte Summenzerlegung

V = U ⊕ (U⊥ ∩W) ⊕W⊥.

Ist v ∈ V, so schreibe entsprechend v = u + w + z. Es gilt PU(v) = u, PW(v) = u + w, sowie

PUPW(v) = PU(u + w) = u

PWPU(v) = PW(u) = u. �

2.6 Selbstadjungierte Endomorphismen

Definition 2.6.1. Sei (V, 〈., .〉) ein endlich-dimensionalerK Vektorraum mitSkalarprodukt. Eine lineare Selbstabbildung T : V → V heißt auch Endomorphismus.

Satz 2.6.2 (Riesz). Fur jede lineare Abbildung α : V → K existiert genau ein Vektor vα,so dass

α(v) = 〈v, vα〉

fur jedes v ∈ V gilt.

Beweis. Ist α = 0 setzen wir vα = 0. Ist α , 0, so gibt es wegen V = U ⊕U⊥ ein v0 ∈ U⊥

mit α(v0) = 1. Fur beliebiges v ∈ V gilt dann v − µv0 ∈ U fur µ = α(v), also istv = u + α(v)v0. Setze vα = 1

〈v0,v0〉v0. Dann gilt

〈v, vα〉 =〈v, v0〉

〈v0, v0〉=〈u + α(v)v0, v0〉

〈v0, v0〉= α(v).

Schließlich zur Eindeutigkeit: ist w ein zweiter Vektor mit dieser Eigenschaft, dann ist〈v, vα − w〉 = 0 fur jeden Vektor v, also insbesondere fur v = vα − w, woraus w = vαfolgt. �

Definition 2.6.3. Sei T : V → V linear. Fur gegebenes w ∈ V ist die Abbildungv 7→ 〈Tv,w〉 linear, also gibt es einen eindeutig bestimmten Vektor T∗w mit

〈Tv,w〉 = 〈v,T∗w〉

fur jedes v ∈ V. Die Abbildung w 7→ T∗w heißt die zu T adjungierte Abbildung.

Page 36: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 36

Satz 2.6.4. Die adjungierte Abbildung T∗ ist linear.

Beweis. Seien v,w,w′ ∈ V und λ ∈ K, so gilt

〈v,T∗(λw + w′)〉 = 〈Tv, λw + w′〉

= λ 〈Tv,w〉 + 〈Tv,w′〉

= λ 〈v,T∗w〉 + 〈v,T∗(w′)〉

= 〈v, λT∗w + T∗(w′)〉 .

Da die Skalarprodukte 〈v,w〉 fur alle v den Vektor w eindeutig festlegen, folgt

T∗(λw + w′) = λT∗w + T∗(w′). �

Proposition 2.6.5. Seien S,T : V → V linear.

(a) Fur alle v,w ∈ V gilt 〈v,Tw〉 = 〈T∗v,w〉.

(b) Es giltI∗ = I, (λT + S)∗ = λT∗ + S∗, (ST)∗ = T∗S∗, T∗∗ = T.

Hier steht I fur die Einheitsmatrix und T∗∗ fur (T∗)∗.

Beweis. Fur (a) rechne

〈v,Tw〉 = 〈Tw, v〉 = 〈w,T∗v〉 = 〈T∗v,w〉 .

Die erste Aussage von (b) ist klar. Fur die zweite rechne

〈v, (λS + T)∗w〉 = 〈(λS + T)v,w〉 = λ 〈Sv,w〉 + 〈Tv,w〉

= λ 〈v,S∗w〉 + 〈v,T ∗ w〉

=⟨v, λS∗w + T∗w

⟩=

⟨v, (λS∗ + T∗)w

⟩.

Fur die dritte

〈v, (ST)∗w〉 = 〈STv,w〉 = 〈Tv,S∗w〉 = 〈v,T∗S∗w〉 .

Page 37: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 37

Fur die letzte schließlich benutzen wir (a)

〈Tv,w〉 = 〈v,T∗w〉 = 〈T∗∗v,w〉 . �

Beispiel 2.6.6. Sei V = Cn und 〈v,w〉 = vtw das standard Skalarprodukt. SeiA ∈Mn(C), dann gilt

〈Av,w〉 = (Av)tw = vtAtw = vtAtw =

⟨v,A

tw⟩.

Also ist die adjungierte Abbildung durch die Matrix At

gegeben, die wir deshalb auchdie adjungierte Matrix nennen und sie als A∗ = A

tschreiben.

Definition 2.6.7. IstK = C, so heisst Eine lineare Abbildung T heißt selbstadjungiert,falls T = T∗ gilt. Eine Matrix A ∈Mn(K) heißt selbstadjungiert, falls A = A∗.

IstK = R so heißt T symmetrisch, falls T = T∗ und eine Matrix A ∈Mn(R) heißtsymmetrisch, wenn A = At gilt.

Satz 2.6.8. Ist T selbstadjungiert, dann ist jeder Eigenwert reell.

Beweis. Sei λ ein Eigenwert und v ein Eigenvektor. Dann gilt

λ 〈v, v〉 = 〈λv, v〉 = 〈Tv, v〉 = 〈v,Tv〉 = 〈v, λv〉 = λ 〈v, v〉 .

Da 〈v, v〉 , 0, folgt λ = λ. �

Beispiel 2.6.9. Sei A =

a bb c

∈M2(R). Dann muss jeder Eigenwert dieser Matrix reell

sein. Wir rechnen

χA(x) = det

x − a −b−b x − c

= (x − a)(x − c) − b2

= x2− (a + c)x + ac − b2

=(x −

a + c2

)2

((a + c)2

4− ac + b2

).

Page 38: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 38

Damit die Eigenwerte reell sind, muss also(

(a+c)2

4 − ac + b2)≥ 0 sein. Es ist aber

(a + c)2

4− ac + b2 =

a2 + 2ac + c2− 4ac

4+ b2

=a2− 2ac + c2

4+ b2 =

(a − c)2

4+ b2≥ 0.

Proposition 2.6.10. (a) Ist T : V → V selbstadjungiert, dann ist

ker(T) ⊥ Bild(T).

(b) Eine Projektion ist genau dann eine Orthogonalprojektion, wenn sie selbstadjungiert ist.

Beweis. (a) Sei T = T∗ und sei u ∈ ker(T), sowie w ∈ Bild(T), also etwa w = T(v). Dannist

〈u,w〉 = 〈u,T(v)〉 = 〈T(u), v〉 = 〈0, v〉 = 0.

Damit folgt ker(T) ⊥ Bild(T).

(b) Sei V einK-Vektorraum und sei P : V → V eine Orthogonalprojektion, also P2 = Pund ker(P) ⊥ Bild(P). Nach der Dimensionsformel gilt dann V = ker(P) ⊕ Bild(P) undist v ∈ V mit der Zerlegung v = u + w, so ist P(v) = w. Nun zeigen wir, dass Pselbstadjungiert ist, sei also v′ = u′ + w′ ein zweiter Vektor in V, dann gilt

〈P(v), v′〉 = 〈w,u′ + w′〉 =

=0︷ ︸︸ ︷〈w,u′〉+ 〈w,w′〉

= 〈u,w′〉︸ ︷︷ ︸=0

+ 〈w,w′〉 = 〈v,P(v′)〉 .

Die Umkehrung folgt aus Teil (a). �

2.7 Unitare und normale Endomorphismen

Definition 2.7.1. Ein Endomorphismus T : V → V eines Raums mit Skalarproduktheißt unitar, fallsK = C ist und

〈Tv,Tw〉 = 〈v,w〉 (*)

Page 39: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 39

fur alle v,w ∈ V gilt. IstK = R und gilt (*), so heißt T orthogonal.

Satz 2.7.2. (a) T ist genau dann orthogonal/unitar, wenn

TT∗ = T∗T = IdV

gilt. Insbesondere sind orthogonale/unitare Endomorphismen stets invertierbar.

(b) Ist T orthogonal/unitar, so gilt

v ⊥ w ⇒ Tv ⊥ Tw.

(c) Ist T orthogonal/unitar und ist λ ∈ K ein Eigenwert, so gilt |λ| = 1.

Beweis. (a) “⇒” Sei T orthogonal/unitar, dann gilt

〈T∗Tv,w〉 = 〈Tv,Tw〉 = 〈v,w〉 .

Damit folgt T∗T = Id und damit auch TT∗ = Id, da dim V < ∞.

“⇐” Sei T∗T = Id, dann gilt 〈v,w〉 = 〈T∗Tv,w〉 = 〈Tv,Tw〉.

(b) ist klar.

(c) Sei λ ein Eigenwert und v ein Eigenvektor, dann gilt

|λ|2 〈v, v〉 = 〈λv, λv〉 = 〈Tv,Tv〉 = 〈v, v〉 . �

Beispiel 2.7.3. Sei V = R2, θ ∈ R und sei

k(θ) =

cosθ − sinθsinθ cosθ

.Dann ist k(θ)tk(θ) = I, also ist k(θ) orthogonal.

Definition 2.7.4. Ein Endomorphismus T : V → V heißt normal, falls

TT∗ = T∗T

gilt. Insbesondere folgt

Page 40: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 40

T selbstadjungiert oder orthogonal/unitar ⇒ T normal.

Eine Matrix A ∈Mn(C) heißt unitar, falls A bezuglich des Standard-Skalarproduktesauf Cn unitar ist, falls also A∗A = I gilt, wobei A∗ = A

t. Sei U(n) die Menge aller

unitaren Matrizen in Mn(C).

Proposition 2.7.5. Die Menge U(n) ist eine Untergruppe von GLn(C). Man nennt sie dieunitare Gruppe.

Beweis. Jeder unitare Endomorphismus ist invertierbar, also gilt U(n) ⊂ GLn(C). IstA ∈ U(n) ,so ist A−1 = A∗ ebenfalls in U(n). Sind A,B ∈ U(n), dann gilt

(AB)∗AB = B∗A∗AB = B∗B = I,

daher ist AB ∈ U(n). �

Korollar 2.7.6. Eine Matrix A ∈Mn(C) ist genau dann unitar, wenn die Zeilen oder dieSpalten eine Orthonormalbasis von Cn bilden.

Beweis. Seien a1, . . . , an die Spalten von A. Es gilt

(A∗A)i, j = atia j =

⟨ai, a j

⟩.

Also gilt A∗A = I ⇔ (a1, . . . , an) ist eine ONB. Der Beweis fier die Zeilen geht ebensoindem man AA∗ = I benutzt. �

2.8 Der Spektralsatz

Satz 2.8.1 (Spektralsatz fur normale Operatoren). SeiK = C und sei T : V → Vlinear. Dann sind aquivalent

(a) T ist normal.

(b) Es gibt eine Orthonormalbasis von V, die aus Eigenvektoren von T besteht.

(c) T ist diagonalisierbar und die Eigenraume stehen senkrecht aufeinander.

Page 41: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 41

Beweis. (a)⇒(c): Induktion nach n = dim V. Fur n = 0 ist nichts zu zeigen. Sei alson ≥ 1 und die Behauptung fur alle kleineren Dimensionen gezeigt. Es gibt dann einenEigenwert λ ∈ C von T. Sei U = Eig(T, λ) der zugehorige Eigenraum. Fur u ∈ U ist

T(T∗u) = T∗(Tu) = T∗(λu) = λT∗u,

also ist T∗u wider in U und somit T∗U ⊂ U. Wir behaupten, dass T(U⊥) ⊂ U⊥ undebenso fur T∗. Sei hierzu v ∈ U⊥. Dann gilt fur jedes u ∈ U,

〈Tv,u〉 =

⟨v, T∗u︸︷︷︸

∈U

⟩= 0.

Also ist T(U⊥) ⊂ U⊥. Der Beweis fur T∗ geht genauso. Damit ist dann T|U⊥ normal undda dim U⊥ < dim V, folgt nach Induktionsvoraussetzung, dass T|U⊥ diagonalisierbarist mit orthogonalen Eigenraumen. Dies folgt dann auch fur T, da V die orthogonaleSumme von U und U⊥ ist.

(c)⇒(b) folgt, da die Eigenraume ONBs besitzen, die man zu einer ONB von Vzusammenfassen kann.

(b)⇒(a): Sei e1, . . . , en eine ONB mit Te j = λ je j. Dann folgt⟨T∗e j, ei

⟩= 〈ei,Tei〉 =

⟨e jλiei

⟩= λi

⟨e j, ei

⟩= λ jδi, j

= λ j

⟨e j, ei

⟩=

⟨λ je j, ei

⟩.

Da dies fier alle i gilt, folgtT∗e j = λ je j.

Also auch

T∗Te j = λ jλ je j = TT∗e j. �

Korollar 2.8.2. Ist T normal, so folgt fur λ ∈ C,

Eig(T, λ) = Eig(T∗, λ).

Beweis. Dies folgt aus dem Beweisschritt (b)⇒(a). �

Korollar 2.8.3. Eine Matrix A ∈Mn(C) ist genau dann normal, wenn es eine unitare Matrix

Page 42: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 42

S ∈ U(n) gibt, so dass S−1AS eine Diagonalmatrix ist.

Beweis. Nach dem Satz ist A genau dann normal, wenn es eine ONB e1, . . . , en von Cn

gibt, die aus Eigenvektoren besteht. Fur eine beliebige Basis e j sind dieseEigenschaften aber aquivalent dazu, dass fur die Matrix S mit Spalten e1, . . . , en gilt: Sist unitar und S−1AS ist diagonal. �

Satz 2.8.4. SeiK = C. Ein Endomorphismus T : V → V ist genau dann selbstadjungiert,wenn er normal ist und alle Eigenwerte reell sind. Er ist genau dann unitar, wenn ernormal ist und alle Eigenwerte den Betrag 1 haben. Insbesondere existiert in beiden Falleneine ONB aus Eigenvektoren.

Beweis. Ist T selbstadjungiert, dann ist T normal und die Eigenwerte sind reell. Seialso umgekehrt T normal mit reellen Eigenwerten. Wegen Eig(T, λ) = Eig(T∗, λ) undλ = λ, stimmen T und T∗ auf jedem Eigenraum uberein, also sind sie gleich.

Ist T unitar, so ist T normal, weil dann T∗ = T−1 gilt. ferner haben alle Eigenwerte denBetrag 1. Sei also T normal mit Eigenwerten vom Betrag 1. Dann giltEig(T, λ) = Eig(T∗, λ) = Eig(T∗, λ−1). Daher ist T∗T = Id auf jedem Eigenraum unddamit allgemein. �

Definition 2.8.5. Sei A ∈Mn(C) selbstadjungiert. Dann heisst A positiv definit, wenndie hermitesche Form b(v,w) = 〈Av,w〉 positiv definit ist, wenn also gilt

v , 0 ⇒ 〈Av, v〉 > 0.

Hierbei ist 〈v,w〉 = vtw das ubliche Skalarprodukt auf Cn.

Korollar 2.8.6. Sei A ∈Mn(C) positiv definit. Dann existiert ein u ∈ U(n), so dass

uAu−1 =

a1

. . .

an

,wobei a1, . . . , an > 0 gilt.

Page 43: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 43

Beweis. Nach dem Satz existiert ein u so dass uAu−1 Diagonalgestalt hat. Da A positivdefinit ist, ist auch uAu−1 positiv definit und daher mussen alle Eigenwerte a1, . . . , an

strikt positiv sein. �

2.9 Spektraltheorie uber R

In diesem Abschnitt ist (V, 〈., .〉) ein endlich-dimensionaler euklidischer Vektorraum,alsoK = R.

Lemma 2.9.1. Ist T : V → V linear und symmetrisch, also T∗ = T, dann hat T einenEigenvektor in V.

Beweis. Nach Wahl einer ONB reicht es zu zeigen, dass eine Matrix A ∈Mn(R) mitAt = A einen reellen Eigenwert zu einem Eigenvektor in Rn hat. Hierzu fasse A alsElement von Mn(C) auf, dann ist A selbstadjungiert und damit ist jeder Eigenwert vonA reell, wir mussen zeigen, dass es einen Eigenvektor in Rn gibt. Sei C : Cn

→ Cn diekomplexe Konjugation. Dann ist C linear uber R, nicht aber uber C. Da die Matrix Areell ist, vertauscht sie mit C, es gilt also AC = CA. Sei λ ∈ R ein Eigenwert. Da C mitA vertauscht, wirft C den Eigenraum U = Eig(T, λ) in sich. Wegen C2 = Id hat C nurdie Eigenwerte ±1, das Minimalpolynom von C ist x2

− 1 = (x + 1)(x − 1) und daher istC diagonalisierbar. Nun ist der C-Eigenraum der 1 gleich Rn und der −1-Eigenraumgleich iR, deshalb kann nicht jeder Eigenraum von A in Eig(C,−1) liegen, es muss alsoeinen Eigenraum von A geben, der einen Vektor in Rn enthalt. �

Satz 2.9.2 (Spektralsatz fur symmetrische Operatoren). IstK = R und T : V → Vlinear, so sind aquivalent

(a) T ist symmetrisch.

(b) Es gibt eine ONB aus Eigenvektoren.

(c) T ist diagonalisierbar und die Eigenraume stehen senkrecht aufeinander.

Beweis. (a)⇒(c): Induktion nach der Dimension. Ist dim V = 1, so ist die Behauptungklar. Sei also dim V ≥ 2. Nach dem Lemma existiert ein λ ∈ Rmit U = Eig(T, λ) , 0.

Page 44: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 44

Dann gilt T(U⊥) ⊂ U⊥, denn ist v ∈ U⊥ und u ∈ U, so ist

〈Tv,u〉 = 〈v,Tu〉 = 0.

Nach Induktionsvoraussetzung ist U⊥ eine orthogonale Summe von Eigenraumen,also gilt dies auch fur V.

(c)⇒(b) ist klar, da alle Eigenraume ONBs haben.

(b)⇒(a) Sei e1, . . . , en eine ONB mit Te j = λ je j. Dann ist⟨Tei, e j

⟩= λi

⟨ei, e j

⟩= λiδi, j = λ jδi, j

= λ j

⟨ei, e j

⟩=

⟨ei, λ je j

⟩=

⟨ei,Te j

⟩. �

Beispiel 2.9.3. Sei A =

1 ii 0

∈M2(C). Dann ist A = At, aber A ist nicht normal, denn

AA∗ =

1 ii 0

1 −i−i 0

=

2 −ii 1

,A∗A =

1 −i−i 0

1 ii 0

=

2 i−i 1

.Definition 2.9.4. Sei O(n) = Mn(R) ∩U(n) die Menge aller reellen Matrizen A mitAAt = AtA = I. Die Menge O(n) der orthogonalen Matrizen ist eine Untergruppe vonGLn(R).

Korollar 2.9.5 (Spektralsatz fur symmetrische Matrizen). Eine Matrix A ∈Mn(R) itgenau dann symmetrisch, wenn es eine Matrix S ∈ O(n) gibt so dass S−1AS diagonal ist.

Beweis. Nach dem Satz ist A genau dann symmetrisch, wenn es eine ONB ausEigenvektoren (e1, . . . , e)n gibt. Die Matrix S mit den Spalten e1, . . . , en leistet dasGewunschte. Ist umgekehrt S gegeben, so bilden die Spalten von S eine ONB ausEigenvektoren. �

Warnung. Eine symmetrische Matrix in Mn(R) ist immer uber R diagonalisierbar. Fur

eine orthogonale Matrix gilt das nicht, wie das Beispiel A =

0 −11 0

zeigt.

Definition 2.9.6. Eine symmetrische Matrix A ∈Mn(R) heisst positiv definit, wenn diesymmetrische Bilinearform (v,w) 7→ 〈Av,w〉 = (Av)tw = vtAw positiv definit ist.

Page 45: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 45

Korollar 2.9.7. Sei A ∈Mn(R) positiv definit. Dann existiert ein k ∈ O(n), so dass

kAk−1 =

a1

. . .

an

,wobei a1, . . . , an > 0 gilt.

Beweis. Nach Korollar 2.9.5 existiert ein k = in O(n) so dass kAk−1 Diagonalgestalt hat.Da A positiv definit ist, ist auch kAk−1 positiv definit und daher mussen alleEigenwerte a1, . . . , an strikt positiv sein. �

2.10 Iwasawa- und Cartan-Zerlegung

Sei n ∈N und seien

A =

a1. . .

an

: a1, . . . , an > 0

,

N =

1 ∗

. . .

1

∈ GLn(R)

,K = O(n) = {k ∈Mn(R) : ktk = I}.

Satz 2.10.1 (Iwasawa-Zerlegung). Die Abbildung

A ×N × K→ GLn(R),

(a,n, k) 7→ ank

ist eine Bijektion. Also ist jedes g ∈ GLn(R) eindeutig schreibbar als g = ank mit a ∈ A,n ∈ N, k ∈ K.

Beweis. Sei g ∈ G = GLn(R). Sei e1, . . . , en die Standard-Basis von Rn. Da g invertierbarist, ist gen, . . . , gen ebenfalls eine Basis von Rn. Wir wenden das

Page 46: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 46

Orthonormalisierungsverfahren aus Satz 2.5.1 auf diese Basis an und erhalten eineONB f1, . . . , fn mit der Eigenschaft, dass

Spann(ge1, . . . , gek) = Spann( f1, . . . , fk),

was gerade bedeutet, dass die Basiswechselmatrix von (ge j) nach ( f j) eine obereDreiecksmatrix ist. Ausserdem hat sie positive Diagonaleintraege, wie man demOrthonormalisierungsverfahren ansieht. Die Vorschrift ke j = f j definiert ein Element kvon O(n) und die Matrix S = kg−1 ist eine obere Dreiecksmatrix mit positivenDiagonaleintraegen, kann also in der Form S = (an)−1 geschrieben werden mit a ∈ Aund n ∈ N. Wir erhalten kg−1 = (an)−1 oder gk−1 = an oder g = ank, womit dieSurjektivitaet gezeigt ist. Fur die Injecktivitaet sei ank = a′n′k′, dann ist die obereDreicksmatrix (an)−1a′n′ gleich der orthogonalen Matrix k(k′)−1, was nur sein kann,wenn beide die Einheitsmatrix sind. �

Satz 2.10.2 (Cartan-Zerlegung). Sei A+ die Menge aller Diagonalmatrizen a in A, derenEintraege der Groesse nach geordnet sind, also a = diag(a1, . . . , an) mit a1 ≤ a2 ≤ · · · ≤ an.Dann gilt GLn(R) = KA+K. Genauer kann jedes g ∈ GLn(R) in der Form g = k1ak2

geschrieben werden, wobei k1, k2 ∈ K und a ∈ A+. Hierbei ist a eindeutig durch g festgelegt.

Beweis. Sei g ∈ GLn(R). Die symmetrische Matrix ggt ist positiv definit, also gibt es eina ∈ A so dass ggt = kakt geschrieben werden kann. Die Reihenfolge der Matrixeintragevon a kann durch Konjugation mit einer Permutationsmatrix a 7→ PaP−1 geandertwerden. Da aber P ∈ K, kann man also annehmen, dass a ∈ A+. Jedes a ∈ A+ kann alsa = b2 fur ein b ∈ A+ geschrieben werden, wir konnen also annehmen, dassggt = ka2kt = (ka)(ka)t gilt. Sei h = (ka)−1g, dann folgthht = (ka)−1g[(ka)−1g]t = (ka)−1ggt(ka)−t = I. Damit folgt h ∈ O(n) = K, also haben wirg = kah in der gewunschten Form geschrieben. Die Eigenwerte von a sind dann genaudie Quadratwurzeln der Eigenwerte von ggt, also durch g eindeutig festgelegt. �

Page 47: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 47

3 Multilineare Algebra

In diesem Abschnitt ist K wieder ein beliebiger Koerper.

3.1 Tensorprodukt

Definition 3.1.1. Seien U,V,W Vektorraume uber K. Eine Abbildung b : V ×W → Uheißt bilinear, falls

• v 7→ b(v,w) ist linear fur jedes feste w ∈W und

• w 7→ b(v,w) ist linear fur jedes feste v ∈ V.

Wir schreiben Bil(V ×W,U) fur den Vektorraum aller bilinearen AbbildungenV ×W → U.

Beispiele 3.1.2. • Bilinearformen sind bilineare Abbildungen.

• Das Matrixprodukt Mm×n ×Mn×p →Mm×p ist bilinear.

• Die Kommutator-Klammer [., .] Mn →Mn, gegeben durch

[A,B] = AB − BA

ist bilinear.

Satz 3.1.3. Zu gegebenen Vektorraumen V und W gibt es einen Vektorraum V ⊗W undeine bilineare Abbildung b0 : V ×W → V ⊗W mit der folgenden universellen Eigenschaft:

Ist b : V ×W → U eine bilineare Abbildung, dann existiert genau eine lineare Abbildungφb : V ⊗W → U so dass das Diagramm

V ×Wb0 //

b%%

V ⊗Wφb∃!��

U

kommutiert. Diese universelle Eigenschaft legt den Raum V ⊗W und die universelleBilinearform b0 bis auf Isomorphie eindeutig fest.

Page 48: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 48

Diese universelle Eigenschaft induziert einen linearen Isomorphismus

Bil(V ×W,U) �−→ Lin(V ⊗W,U).

Wir nennen den Raum V ⊗W das Tensorprodukt von V und W und schreibenv ⊗ w ∈ V ⊗W fur das Element b0(v,w).

Beweis. Wir wahlen eine Konstruktion, die die universelle Eigenschaft erzwingt. Wirerinnern uns, dass es zu jeder Maechtigkeit einen Vektorraum V mit einer Basis deregegebenen Maechtigkeit gibt. Eine moegliche Konstruktion eines solchen Raumes istdiese: Fuer eine beliebige Menge S , 0 sei K[S] der Vektorraum der formalen Summen∑

s∈S

λss, λs ∈ K, fast alle Null.

Dies wird ein Vektorraum durch∑s∈S

λss +∑s∈S

µss =∑s∈S

(λs + µs)s, λ∑s∈S

λss =∑s∈S

λλss.

Genauer kann man K[S] auch als die Menge aller Abbildungen S→ K, s 7→ λs

auffassen, die fuer fast alle s verschwinden.

Ist nun f : S→ V eine beliebige Abbildung, kann man sie in eindeutiger Weise zueiner linearen Abbildung K[S]→ V verlaengern, indem man f (

∑s∈S λss) =

∑s∈S λs f (s)

setzt.

Nun zur Situation des Satzes, sei also b : V ×W → U bilinear und betrachte den RaumK[V ×W]. Sei R der Unterraum erzeugt von allen Vektoren der Form

(λv + µv′,w) − λ(v,w) − µ(v′,w) oder (v, λw + µw′) − λ(v,w) − µ(v,w′),

wobei λ ∈ K, sowie v, v′ ∈ V und w,w′ ∈W. Wir definieren das Tensorprodukt als denQuotientenraum:

V ⊗W = K[V ×W]/R.

Wir schreiben die Klasse von (v,w) in V ⊗W als v ⊗ w. Sei nun b : V ×W → U bilinear

Page 49: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 49

und sei φb : K[V ×W]→ U die lineare Verlaengerung von b, d.h., das Diagramm

V ×W ��

//

b&&

K[V ×W]

φb��

U

kommutiert. Da b bilinear ist, liegt R im Kern von φb und daher existiert genau einelineare Abbildung φb : V ⊗W → U, die das Diagramm des Satzes kommutativ macht.

V ×W ��

//

b&&

K[V ×W]

φb��

// K[V ×W]/R

∃!vvU

Die Eindeutigkeit folgt mit dem ublichen Geplankel universeller Eigenschaften. �

Ein beliebiges Element z ∈ V ⊗W eines Tensorprodukts laesst sich immer als Summeschreiben

z =

m∑j=1

v j ⊗ w j,

mit Vektoren v j ∈ V und w j ∈W. Die Elemente, die sich in der Form v ⊗ w schreibenlassen werden reine Tensoren genannt.

Proposition 3.1.4. Ist (vi)i∈I eine Basis von V und ist (w j) j∈J eine Basis von W, dann ist

(vi ⊗ w j)(i, j)∈I×J

eine Basis von V ⊗W.

Sind V und W endlich-dimensional, so hat der Raum V ⊗W die Dimension

dim V ⊗W = (dim V)(dim W).

Beweis. Wir zeigen zunachst, dass die Familie (vi ⊗ w j) linear unabhangig ist. Sei also∑i∈I

∑j∈J

λi, jvi ⊗ w j = 0

eine Linearkombination der Null in V ⊗W. Hier sind fast alle λi, j gleich Null. Sei

Page 50: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 50

α : V → K eine Linearform, die lineare Abbildung

α × 1 : K[V ×W]→W,

(v,w) 7→ α(v)w

wirft R auf die Null, also existiert eine eindeutig bestimmte lineare Abbildung

α ⊗ 1 : V ⊗W →W,

v ⊗ w 7→ α(v)w.

Wir wenden diese Abbildung auf die Linearkombination der Null an und erhalten

0 =∑j∈J

∑i∈I

λi, jα(vi)

w j

Da die w j linear unabhangig sind, folgt fur gegebenes j ∈ J,

α

∑i∈I

λi, jvi

=∑i∈I

λi, jα(vi) = 0

fur jede Linearform α. Damit ist aber∑

i∈I λi, jvi = 0 und da die vi linear unabhangigsind, ist λi, j = 0 fur alle i, j. Dies ist die Lineare Unabhangigkeit. Es bleibt zu zeigen,dass (vi ⊗ w j) ein Erzeugendensystem ist. Dies ist aber klar, da K[V ×W] durch alle(v,w) mit v ∈ V und w ∈W erzeugt wird. �

Beispiele 3.1.5. • Wir konnen C als Vektorraum uber R auffassen. Fur einenbeliebigen R-Vektorraum V sei dann

VC = C ⊗R V.

Dann ist VC naturlich isomorph zu der Komplexifizierung von V, die inAbschnitt 1.2 definiert wurde.

• Allgemeiner seien L ⊃ K zwei Korper. Wir fassen L als K-Vektorraum auf unddefinieren

VL = L ⊗K V

fur einen beliebigen K-Vektorraum V.

Proposition 3.1.6. Sind S : V → V′ und T : W →W′ lineare Abbildungen, so induzieren

Page 51: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 51

sie eine lineare AbbildungS ⊗ T : V ⊗W → V′ ⊗W′,

gegeben durch(S ⊗ T)(v ⊗ w) = Sv ⊗ Tw.

Beweis. Die Abbildung b : V ×W → V′ ⊗W′ gegeben durch b(v,w) = Sv ⊗ Tw istbilinear, faktorisiert also eindeutig uber eine lineare Abbildung V ⊗W → V′ ⊗W′ diewir S ⊗ T nennen und die das Gewunschte leistet. �

Beispiel 3.1.7. Seien in der Proposition V = W = V′ = W′ = K2. Seien S und T in der

standard Basis durch die Matrizen A =

a bc d

und B =

α β

γ δ

gegeben. In der Basis

e1 ⊗ e1, e1 ⊗ e2, e2 ⊗ e1, e2 ⊗ e2 von V ⊗W ist dann S ⊗W durch die Matrixa

α β

γ δ

b

α β

γ δ

c

α β

γ δ

d

α β

γ δ

=

aα aβ bα bβaγ aδ bγ bδcα cβ dα dβcγ cδ dγ dδ

gegeben.

Satz 3.1.8. Seien V,W endlich-dimensionale K-Vektorraeume und A,A′ : V → V undB,B′ : W →W linear. Dann gilt

(A ⊗ B)(A′ ⊗ B′) = AA′ ⊗ BB′

sowietr(A ⊗ B) = tr(A) tr(B)

unddet(A ⊗ B) = det(A)m det(B)n,

wobei n = dim V und m = dim W.

Proof. Fuer v ∈ V und w ∈W gilt

(A ⊗ B)(A′ ⊗ B′)(v ⊗ w) = (A ⊗ B)(A′v ⊗ B′w) = AA′(v) ⊗ BB′(w).

Page 52: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 52

Damit stimmen die beiden Seiten fuer reine Tensoren ueberein und da beide Seitenlineare Abbildungen sind, stimmen sie ueberall ueberein. Die Formel fuer die Spursieht man am Kronecker-Produkt und fuer die Determinante benutzt mandet(A ⊗ B) = det((A ⊗ I)(I ⊗ B)) = det(A ⊗ I) det(I ⊗ B). Man sieht etwadet(A ⊗ I) = det(A)m wieder am Kronecker-Produkt. �

Satz 3.1.9. Seien V,W endlich-dimensionale K-Vektorraeume und sei V∗ der Dualraumvon V. Die Abbildung

ψ : V∗ ⊗W → Lin(V,W),

(α,w) 7→ [v 7→ α(v)w]

ist eine lineare Bijektion.

Beweis. Die Abbildung V∗ ×W → Lin(V,W), (α,w) 7→ ψ(α,w) ist bilinear, daherverlaengert sie zu einer linearen Abbildung wie im Satz. Die Dimensionen der beidenRaeume sind gleich, daher reicht es zu zeigen, dass die Abbildung ψ surjektiv ist.Seien v1, . . . , vn und w1, . . . ,wm Basen von V und W und sei v∗1, . . . , v

n die duale Basisvon V∗. Ist T : V →W in diesen Basen durch die Matrix A = (ai, j) gegeben und istv =

∑nj=1 λ jv j dann gilt

T

n∑j=1

λ jv j

=

n∑j=1

m∑i=1

λ jai, jwi.

Nun ist λ j = v∗j(v), also haben wir T(v) =∑n

j=1∑m

i=1 v∗j(v)ai, jwi oder

T =

n∑j=1

m∑i=1

ai, jv∗jwi =

n∑j=1

m∑i=1

ai, jψ(v∗j ⊗ w j) = ψ

n∑j=1

m∑i=1

ai, jv∗j ⊗ w j

. �

3.2 Die zweite aussere Potenz

Definition 3.2.1. Eine bilineare Abbildung b : V × V →W heißt symmetrisch, falls

b(v,w) = b(w, v)

Page 53: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 53

und alternierend, fallsb(v, v) = 0

fur alle v,w ∈ V gilt.

Lemma 3.2.2. (a) Ist b alternierend, so gilt

b(v,w) = −b(w, v)

fur alle v,w ∈ V.

(b) Ist Char(K) , 2 und ist b sowohl symmetrisch als auch alternierend, dann ist b = 0.

Beweis. (a) Es gilt

0 = b(v + w, v + w) = b(v, v) + b(v,w) + b(w, v) + b(w,w) = b(v,w) + b(w, v).

(b) Folgt aus b(v,w) = b(w, v) = −b(v,w). �

Definition 3.2.3. Sei S2(V) der Unterraum von V ⊗ V aufgespannt von allen Vektorender Form

v ⊗ w − w ⊗ v.

Sei A2(V) der Unterraum aufgespannt von allen Vektoren der Form

v ⊗ v.

Lemma 3.2.4. Sei φb : V ⊗ V →W die lineare Abbildung induziert durch die bilineareAbbildung b : V × V →W. Dann gilt

b symmetrisch ⇔ S2(V) ⊂ kerφb

b alternierend ⇔ A2(V) ⊂ kerφb

Beweis. Dies folgt sofort aus

b(v,w) − b(w, v) = φ(v ⊗ w − w ⊗ v)

und

b(v, v) = φ(v ⊗ v) �

Page 54: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 54

Definition 3.2.5. Wir schreibenAlt(V × V,W)

fur den Vektorraum aller alternierenden Abbildungen a : V × V →W.

Satz 3.2.6. Fur jeden K-Vektorraum V gibt es einen Vektorraum∧2 V mit einer

alternierenden Abbildung∧ : V × V →

∧2 V,

die die folgende universelle Eigenschaft haben: Zu jeder alternierenden Abbildung

a : V × V →W

gibt es genau eine lineare Abbildung ψa :∧2 V →W so dass das Diagramm

V × V ∧ //

a$$

∧2 V

ψa

��

W

kommutiert. Diese universelle Eigenschaft induziert einen linearen Isomorphismus

Alt(V × V,W) �−→ Lin(

∧2 V,W).

Beweis. Definiere ∧2 V := V ⊗ V/A2(V).

Fur v,w ∈ V sei v ∧ w = [v ⊗ w] die Nebenklasse von v ⊗ w. Zur universellenEigenschaft: Sei a : V × V →W alternierend und sei φa : V × V →W die lineareAbbildung gemaß Satz 3.1.3. Nach Lemma 3.2.4 liegt A2(V) im Kern von φa, so dass φa

in eindeutiger Weise uber eine lineare Abbildung ψa :∧2 V →W faktorisiert. �

Lemma 3.2.7. Ist v1, . . . , vn eine Basis von V, so ist (vi ∧ v j)1 ≤ i < j ≤ n eine Basis von∧2 V. Es folgt

dim∧2 V =

n2

= n(n−1)2 .

Beweis. Da (vi ⊗ v j)1≤i, j≤n ein Erzeugendensystem von V ⊗ V ist, ist (vi ∧ v j)1≤i, j≤n einErzeugendensystem von

∧2 V. Da vi ∧ vi = 0 und vi ∧ v j = −v j ∧ vi, ist (vi ∧ v j)1≤i< j≤n

Page 55: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 55

ein ErzeugendensyErzeugendensystemtem von∧2 V. Es reicht demnach, die

Dimensionsaussage zu zeigen. Sei KN mit N =

n2

der Vektorraum mit der Basis

(ei, j)1≤i< j≤n. Wir konstruieren eine alternierende Abbildung a : V × V → KN wie folgt:Sind

v =

n∑i=1

λivi und w =

n∑j=1

µ jv j,

so setze ai, j = λiµ j − λ jµi. Definiere dann

a(v,w) =∑

1≤i< j≤n

ai, jei, j.

Diese Abbildung ist alternierend und es gilt fur i < j,

ψa(vi ∧ v j) = a(vi, v j) = ei, j.

Damit ist ψa :∧2 V → KN surjektiv und daher ist dim

∧2 V ≥ N. Da die vi ∧ v j denRaum

∧2 V erzeugen, gilt ≤, insgesamt also “=”. �

Rechenregeln fur das Hut-Produkt:

• (u + v) ∧ w = u ∧ w + v ∧ w,

• u ∧ (v + w) = u ∧ v + u ∧ w,

• λ(v ∧ w) = (λv) ∧ w = v ∧ (λw),

• v ∧ v = 0, v ∧ w = −w ∧ v.

3.3 Multilineare Abbildungen

Seien V1, . . . ,Vk,W Vektorraume uber K. Eine Abbildung

m : V1 × · · · × Vk →W

heißt multilinear, falls fur jedes 1 ≤ j ≤ n und fur fest gewahlte Vektoren vi ∈ V fur i , jdie Abbildung

v 7→ m(v1, . . . , v j−1, v, v j+1, . . . , vn)

linear ist.

Page 56: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 56

Beispiele 3.3.1. • Sei V = Kn, dann ist die Determinante

det : V × · · · × V → K

eine multilineare Abbildung.

• Die Abbildung

V1×, · · · × Vk → V1 ⊗ (V2 ⊗ · · · ⊗ (Vk−1 ⊗ Vk) . . . )

(v1, . . . , vk) 7→ v1 ⊗ · · · ⊗ vk

ist multilinear.

Wir haben naturliche Isomorphismen

(U ⊗ V) ⊗W �−→ U ⊗ V ⊗W �

−→ U ⊗ (V ⊗W)

gegeben durch (u ⊗ v) ⊗ w 7→ u ⊗ (v ⊗ w), so dass die Reihenfolge der Klammernletztlich irrelevant ist. Wir koennen allerdings auch mehrfache Tensorprodukteunabhaengig definieren.

Satz 3.3.2. Zu gegebenen Vektorraumen V1, . . . ,Vk gibt es einen VektorraumV1 ⊗ · · · ⊗ Vk und eine multilineare Abbildung

µ : V1 × · · · × Vk → V1 ⊗ · · · ⊗ Vk,

(v1, . . . , vk) 7→ v1 ⊗ · · · ⊗ vk,

so dass es zu jeder multilinearen Abbildung

m : V1 × · · · × Vk →W

genau eine lineare Abbildung m⊗ : V1 ⊗ · · · ⊗ Vk →W gibt, so dass das Diagramm

V1 × · · · × Vkµ//

m((

V1 ⊗ · · · ⊗ Vk

∃! m⊗��

W

Page 57: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 57

kommutiert. Die Abbildung m 7→ m⊗ ist eine lineare Bijektion

Multk(V1 × · · · × Vk,W) �−→ Lin(V1 ⊗ · · · ⊗ Vk,W).

Beweis. Man wiederholt die Konstruktion aus dem Produkt zweier Raeume, definiertalso V1 ⊗ · · · ⊗ Vk als Quotient des freien Raums K[V1 × · · · × Vk] und do fort. DieDetails seien dem Leser ueberlassen. �

Definition 3.3.3. Eine multilineare Abbildung m : Vk→ U heißt symmetrisch, falls

m(vσ(1), . . . , vσ(k)) = m(v1, . . . , vk)

fur jede Permutation σ ∈ Per(n) gilt.

Sie heißt alternierend, wennm(v1, . . . , vk) = 0,

falls vi = v j fur ein i und ein j , i.

Lemma 3.3.4. Ist m alternierend, dann gilt

m(vσ(1), . . . , vσ(k)) = sign(σ)m(v1, . . . , vk) (*)

fur jede Permutation σ ∈ Per(n). Ist Char(K) , 2, so folgt aus (*) fur alle σ schon, dass malternierend ist.

Beweis. Ist σ = τi, j eine Transposition so gilt

0 = m(v1, . . . , vi + v j︸︷︷︸i−te Stelle

, . . . , vi + v j︸︷︷︸j−te Stelle

, . . . , vk)

= m(v1, . . . , vi, . . . , v j, . . . , vk) + m(v1, . . . , v j, . . . , vi, . . . , vk). �

Damit folgt die Behauptung falls σ eine Transposition ist. Fuer die allgemeineAussage schreibt man σ als Produkt von Transpositionen und zieht bei jederTransposition einen Faktor (−1) heraus.

Beispiele 3.3.5. • Ist V = Kn, so ist die Determinante det : Vn→ K alternierend.

Page 58: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 58

• Ist V = K, so ist die Abbildung m : Vk→ K, gegeben durch m(a1, . . . , ak) = a1 · · · ak

symmetrisch.

3.4 Die außere Algebra

Definition 3.4.1. Eine Algebra uber dem Korper K ist ein K-Vektorraum A zusammenmit einer bilinearen Abbildung

A × A→ A

(a, b) 7→ ab,

die assoziativ ist, d.h., es gilt(ab)c = a(bc)

fur alle a, b, c ∈ A. Wir sagen, die Algebra A hat eine Eins oder ist eine Algebra mit Eins,oder eine unitale Algebra, falls es ein Element 1A in A gibt mit der Eigenschaft

1Aa = a1A = a

fur jedes a ∈ A. In dieser Vorlesung betrachten wir nur Algebren mit Eins! Deshalb giltab jetzt die Sprachkonvention, dass Algebra immer Algebra mit Eins heissen soll.Andernfalls sprechen wir von einer Algebra ohne Eins.

Das Einselement ist eindeutig bestimmt, denn ist 1′ ein zweites Einselement, dann gilt

1′ = 1′1A = 1A.

Beispiele 3.4.2. • Ist A irgendein K-Vektorraum, dann macht dieNullmultiplikation ab = 0 den Raum A zu einer Algebra ohne Eins!

• Der Koerper K selbst ist eine K-Algebra.

• Mn(K) ist mit dem Matrixprodukt eine Algebra mit Eins.

• Ist V irgendein Vektorraum (auch unendlich-dimensional), dann ist die Menge

End(V) = Lin(V,V)

eine Algebra mit der Komposition als Multiplikation.

Page 59: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 59

• Ist S eine Menge und ist A = Abb(S,K) der Vektorraum aller Abbildungen von Snach K. Dann ist A eine Algebra mit dem punktweisen Produkt:

f g(s) = f (s)g(s), s ∈ S.

• Ueber dem Koerper R der reellen Zahlen betrachtet man die QuaternionenalgebraH, dies ist ein vierdimensionaler R-Vektorraum mit einer Basis 11, i, j, k. DieRelationen

11x = x11 = x i2 = j2 = −1 i j = k = − ji

definieren eine Algebrenstruktur aufH. Dies ist eine Algebra mit Eins. DieseAlgebra ist nichtkommutativ, aber dennoch ist jedes Element , 0 invertierbar, eshandelt sich also um einen sogenannten Schiefkoerper.

Beweis. Die Tatsache, dassH in der Tat die Axiome einer Algebra erfuellt, mussman nachrechnen. Bei der Assoziativitaet reicht es, diese auf den Basiselementennachzuweisen. Wir zeigen, dass jedes Element , 0 invertierbar ist. Zunaechststellen wir fest, dass

ik = ii j = − j und ki = i ji = −ii j = j

gilt und ebenso jk = i = −kj. Fuer ein Quaternion z = a + bi + cj + dk seiz = a − bi − cj − dk definiert. Es folgt

zz = (a + bi + cj + dk)(a − bi − cj − dk)

= a2− abi − acj − adk + abi + b2

− bck + bdj

+ acj + bck + c2− cdi + adk − bdj + cdi

= a2 + b2 + c2 + d2.

Ist z , 0, dann ist a2 + b2 + c2 + d2 , 0 und also ist dann

1a2 + b2 + c2 + d2 z

ein Inverses zu z. �

Sei V ein K-Vektorraum. Wir schreiben⊗k V oder V⊗k fur das Tensorprodukt

Page 60: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 60

V ⊗ · · · ⊗ V mit k Faktoren. Seien

Sk(V) := Spann{v1 ⊗ · · · ⊗ vk − vσ(1) ⊗ vσ(k) : σ ∈ Per(k)

}Ak(V) := Spann

{v1 ⊗ · · · ⊗ vk : vi = v j fur ein Paar i , j

}.

Lemma 3.4.3. Ist m : Vk→W multilinear, dann gilt

m symmetrisch ⇔ Sk(V) ⊂ ker(m⊗),

m alternierend ⇔ Ak(V) ⊂ ker(m⊗).

Beweis. Analog zum Beweis von Lemma 3.2.4. �

Satz 3.4.4. Zu einem Vektorraum V und k ∈N existiert ein Vektorraum∧k V und eine

alternierende Abbildung∧ : Vk

→∧k V

so dass fur jede alternierende Abbildung m : Vk→W eine eindeutig bestimmte lineare

Abbildung m∧ :∧k V →W existiert so dass das Diagramm

Vk ∧ //

m""

∧k V

∃! m∧��

W

kommutiert. Die Abbildung m 7→ m∧ ist ein linearer Isomorphismus

Altk(Vk,W) �−→ Lin(

∧k V,W).

Beweis. Setze ∧k V := V⊗k/Ak(V)

und∧ : v1 ⊗ ⊗vk 7→ [v1 ⊗ · · · ⊗ vk] =: v1 ∧ · · · ∧ vk.

Der Beweis ist nun analog zum Beweis von Satz 3.2.6. �

Page 61: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 61

Satz 3.4.5. Ist v1, . . . , vn eine Basis von V, dann ist

(vi1 ∧ · · · ∧ vik)1≤i1<···<ik≤n

eine Basis von∧k V. Insbesondere ist

dim∧k V =

nk

und damit insbesondere

∧k V = 0 falls k > n.

Beweis. Die angegebene Familie ist ein Erzeugendensystem. Es reicht also, die

Dimensionsaussage fur 1 ≤ k ≤ n zu zeigen. Hierzu sei W = KN mit N =

nk

mit Basis

ei1,...,ik , 1 ≤ i1 < · · · < ik ≤ n.

Fixiere eine Basis v1, . . . , vn von V und sei m : Vk→ KN gegeben durch

m(w1, . . . ,wk) =∑

1≤i1<···<ik≤n

ai1,...,ikei1,...,ik ,

wobeiai1,...,ik = ai1,...,ik(w1, . . . ,wk)

definiert ist wie folgt: Ist w j =∑n

i=1 λi, jvi, dann sei

ai1,...,ik = det

λ1,i1 . . . λ1,ik...

...

λk,i1 . . . λk,ik

.Es folgt dann

m(vi1 , . . . , vik) = ei1,...,ik ,

also dim∧k V ≥ N. �

Page 62: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 62

Definition 3.4.6. Sei n = dim V, so setze

∧V =

n⊕p=0

∧p V,

wobei∧0 V = K gesetzt wird. Die kanonische Abbildung

∧p V ×∧q V →

∧p+q V

((v1 ∧ · · · ∧ vk), (w1 ∧ · · · ∧ wk)) 7→ v1 ∧ · · · ∧ vk ∧ w1 ∧ · · · ∧ wk

definiert durch bilineare Fortsetzung eine Multiplikation

∧ :∧

V ×∧

V →∧

V

(α, β) 7→ α ∧ β,

die∧

V zu einer K-Algebra macht, die man die aussere Algebra nennt.

Beispiele 3.4.7. • Sei V = K, dann hat∧

V die Basis 1, e und die Multiplikation istgegeben durch e2 = 0.

• Sei V = K2. Dann hat∧

V die Basis 1, e1, e2, e1 ∧ e2.

• Sei V = K3. Dann hat∧

V die Basis 1, e1, e2, e3, e1 ∧ e2, e1 ∧ e3, e2 ∧ e3, e1 ∧ e2 ∧ e3.

3.5 Lineare Abbildungen

Sei T : V → V linear. Die Abbildung

m : Vk→

∧k V

(v1, . . . , vk) 7→ Tv1 ∧ · · · ∧ Tvk

ist alternierend. Nach der universellen Eigenschaft existiert eine lineare Abbildung

∧k T :∧k V →

∧k V,

so dass ∧k T(v1 ∧ · · · ∧ vk) = Tv1 ∧ · · · ∧ Tvk.

Page 63: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 63

Beispiel 3.5.1. Sei die lineare Abbildung A : K3→ K3 durch die Matrix

A =

a b cd e fg h j

gegeben. Wir bestimmen die Matrix von

∧2 A in der Basis e1 ∧ e2, e1 ∧ e3, e2 ∧ e3. Wirrechnen

∧2 A(e1 ∧ e2) = (Ae1) ∧ (Ae2)

= (ae1 + de2 + ge3) ∧ (be1 + ee2 + he3)

= (ae − bd)e1 ∧ e2 + (ah − bg)e1 ∧ e3 + (dh − eg)e2 ∧ e3.

Ebenso rechnet man die anderen Terme durch und erhalt am Ende die Matrixdet

(a bd e

)det

(a cd f

)det

(b ce f

)det

(a bg h

)det

(a cg j

)det

(b ch j

)det

(d eg h

)det

(d fg j

)det

(e fh j

) .

Satz 3.5.2. Ist dim V = n und T : V → V linear, so gilt

∧n T = det(T)Id.

Beweis. Sei v1 . . . vn eine Basis von V. Der eindimensionale Raum∧n V wird von

v1 ∧ · · · ∧ vn aufgespannt. Sei (ai, j) die Matrix von T, d.h.

Tv j =

n∑i=1

ai, jvi.

Page 64: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 64

es folgt

∧n T(v1 ∧ · · · ∧ vn) = Tv1 ∧ · · · ∧ Tvn

=

n∑i1...in=1

ai1,1 · · · ain,nvi1 ∧ · · · ∧ vin

=∑

σ∈Per(n)

aσ(1),1 · · · aσ(n),n vσ(1) ∧ · · · ∧ Vσ(n)︸ ︷︷ ︸=sign(σ)v1∧···∧vn

= det(T) v1 ∧ · · · ∧ vn. �

Satz 3.5.3. Ist dim V = n und T : V → V linear, so gilt

det(1 − T) =

n∑j=0

(−1) j tr∧ j T.

Beweis. Beide Seiten der Gleichung aendern sich nicht, wenn wir den Koerper Kdurch einen algebraischen Abschluss ersetzen, wir koennen also den Koerper alsalgebraisch abgeschlossen annehmen. Dann ist jede Matrix triangulierbar. Da beideSeiten der Gleichung sich nicht aendern, wenn man T durch eine konjugierte ersetzt,kann man annehmen, dass T = D + N, wobei D eine Diagonalmatrix ist und N eineobere Dreiecksmatrix mit Nullen af der Diagonalen. Es gilt danndet(1 − T) = det(1 −D −N) = det(1 −D). Ferner ist auchtr

∧ j T = tr∧ j(D + N) = tr

∧ j D, da∧ j(D + N) =

∧ j D + N, wobei N in derStandard-Basis eine obere Dreiecksmatrix mit Nullen auf der Diagonale und

∧ j D isteine Diagonalmatrix. Insgesamt kann man also T durch D ersetzen und annehmen,dass T eine Diagonalmatrix ist. Diese habe die Diagonaleintraege λ1, . . . , λn. Dann ist

det(1 − T) = (1 − λ1) · · · (1 − λn) =

n∑j=0

∑1≤i1<···<i j≤n

(−1) jλi1 · · ·λi j

=

n∑j=0

(−1) j tr∧ j T. �

Page 65: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 65

3.6 Tensorielle Algebra

Definition 3.6.1. Sind A,B Algebren ueber einem Koerper K, dann ist einAlgebrenhomomorphismus von A nach B eine lineare Abbildung φ : A→ B, fuer die

φ(ab) = φ(a)φ(b) und φ(1) = 1

gilt.

Beispiele 3.6.2. • Der Algebrenhomomorphismus Mn(K)→M2n(K), A 7→( A

A)

istunital.

• Ist S , ∅ eine Menge undA = Abb(S,K) die Algebra aller Abbildungen von Snach K mit punktweiser Addition und Multiplikation. Sei s0 ∈ S, dann ist dieAbbildung φ : A→ K, f 7→ f (s0) ein Algebrenhomomorphismus.

Lemma 3.6.3. Sei φ : A→ B ein Algebrenhomomorphismus. Ist φ bijektiv, so ist dieUmkehrabbildung φ−1 : B → A ebenfalls ein Algebrenhomomorphismus. In diesem Fall heisstφ ein Algebrenisomorphismus.

Beweis. Wir wissen bereits, dass φ−1 linear ist. Seien also b, b′ ∈ B, so gilt

φ(φ−1(bb′)) = bb′ = φ(φ−1(b))φ(φ−1(b′)) = φ(φ−1(b)φ−1(b′)).

Da φ injektiv ist, folgtφ−1(bb′) = φ−1(b)φ−1(b′),

also ist φ−1 ein Algebrenhomomorphismus. Aus φ(1) = 1, folgt durch Anwenden vonφ−1 auch φ−1(1) = 1. Die Umkehrung folgt durch Vertauschung der Rollen von φ undφ−1. �

Ist I eine Indexmenge und ist fuer jedes i ∈ I ein K-Vektorraum Vi gegeben, so ist

V =∏i∈I

Vi

ein K-Vektorraum, wobei die Addition und die skalare Multiplikationkomponentenweise erklaert sind. Wir betrachten den Unterraum

⊕i∈I

Vi B

v ∈∏i∈I

Vi : vi = 0 fuer fast alle i

.

Page 66: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 66

Man macht sich leicht klar, dass dies in der Tat ein Unterraum ist und dass fuerendliche Indexmengen diese Notation mit der bisherigen ⊕-Notation fuerUnterraeume kompatibel ist, wenn man jedes V j als Teilraum von V =

∏i∈I Vi auffasst.

Es ist der Teilraum der Elemente des Produktes, die nur an der j-Koordinate einenEintrag ungleich Null haben duerfen.

Sei nun V ein K-Vektorraum und sei

T(V) = K ⊕ V ⊕ (V ⊗ V) ⊕ (V ⊗ V ⊗ V ⊗ V) ⊕ . . .

=

∞⊕n=0

V⊗n,

wobei V⊗0 = K undV⊗n = V ⊗ V ⊗ · · · ⊗ V︸ ︷︷ ︸

n mal

fuer n ≥ 1 ist. Die Vorschrift

v · w = v ⊗ w ∈ V⊗(m+n),

wenn v ∈ V⊗m und w ∈ V⊗n, macht T(V) zu einer Algebra, die man die tensorielleAlgebra von V nennt.

Satz 3.6.4 (Universelle Eigenschaft der tensoriellen Algebra). Sei V einK-Vektorraum, φ = φV : V → T(V) die Abbildung, die V auf die erste Tensorpotenzschickt. Dann hat φ folgende universelle Eigenschaft:

Fuer jede K-AlgebraA und jede lineare Abbildung α : V →A existiert genau einAlgebrenhomomorphismus ψ : T(V)→A, der α fortsetzt, d.h., so, dass das Diagramm

Vφ//

α!!

T(V)

ψ��

A

kommutiert.

Beweis. Sei eine lineare Abbildung α : V →A in die AlgebraA gegeben. Wir

Page 67: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 67

definieren eine lineare Abbildung ψ : T(V)→A durch ψ(1) = 1 und

ψ(v1 ⊗ · · · ⊗ vn) = α(v1)α(v2) · · ·α(vn),

wobei rechts das Produkt inA genommen wird. Nach Definition ist ψ multiplikativauf den Basiselementen, damit aber auch schon insgesamt multiplikativ. NachKonstruktion gilt ψ(φ(v)) = α(v) und damit kommutiert das Diagramm. Sei nun ψ′ einweiterer Algebrenhomomorphismus, fuer den das Diagramm kommutiert, dann gilt

ψ′(v1 ⊗ · · · ⊗ vn) = ψ′(v1) · · ·ψ′(vn) = α(v1) · · ·α(vn) = ψ(vn ⊗ · · · ⊗ vn)

und damit ψ′ = ψ. �

Sei φ : A→ B ein Algebrenhomomorphismus und sei I = ker(φ) der Kern. Dann gilt

• I ist ein Untervektorraum vonA und

• IA ⊂ I und AI ⊂ I, wobei

IA = Spann{ya : y ∈ I, a ∈ A

}geschrieben wurde.

Die zweite Eigenschaft schreibt man auch so

y ∈ I, a ∈ A ⇒ ay, ya ∈ I.

Eine Teilmenge I ⊂ Amit diesen beiden Eigenschaften nennt man ein (zweiseitiges)Ideal vonA.

Beispiel 3.6.5. Ist M ⊂ A eine Teilmenge, dann ist der Untervektorraum

I = AMA = Spann{amb : a, b ∈ A, m ∈M

}ein Ideal. Dies ist das kleinste Ideal, das M enthaelt, man nennt es das von M erzeugteIdeal.

Beweis. Ist M leer, so ist I das Nullideal. Sei also M , ∅. Die MengeAMA ist nachDefinition ein Untervektorraum. Ist nun y ∈ I und a ∈ A, dann kann man y schreiben

Page 68: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 68

als

y =

n∑j=1

a jm jb j

mit b j, b j ∈ A und m j ∈M. Also sind ay =∑n

j=1 aa jm jb j und ya =∑n

j=1 a jm jb ja wieder inI. �

Satz 3.6.6. Ein Unterraum I einer AlgebraA ist genau dann ein Ideal, wenn derQuotientenraumA/I eine Algebrenstruktur traegt, so dass die Projektion P : A→A/Iein Algebrenhomomorphismus ist. Diese Algebrenstruktur ist dann eindeutig bestimmt.

Beweis. Sei I ein Ideal. Wir definieren eine Multiplikation auf dem QuotientenraumA/I durch

(a + I)(b + I) = ab + I.

Hier ist die Wohldefiniertheit zu pruefen. Seien also a′, b′ ∈ Amit a + I = a′ + I undb′ + I = b + I, das heisst a − a′ ∈ I und b − b′ ∈ I. Dann gilt

ab − a′b′ = ab − a′b + a′b − a′b′

= (a − a′)︸ ︷︷ ︸∈I

b + a′ (b − b′)︸ ︷︷ ︸∈I

∈ I,

also ab + I = a′b′ + I, d.h., die Multiplikation ist wohldefiniert. Wegen der Surjektivitaetder Projektion P : A→A/I ist diese Multiplikation eindeutig festgelegt. �

Satz 3.6.7 (Homomorphiesatz). Ist φ : A→ B ein Algebrenhomomorphismus, dann istdas Bild eine Unteralgebra von B und es gilt

Bild(φ) � A/ker(φ),

wobei eine Isomorphie als Algebren gemeint ist.

Beweis. Der Kern ker(φ) ist ein Ideal, so dass die AlgebraA/ker(φ) wohldefiniert ist.Die besagte Isomorphie ist uns als eine Isomorphie von Vektorraeumen bereits

Page 69: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 69

bekannt. Sie ist durch φ induziert und da ψ ein Algebrenhomomorphismus ist, ist dieIsomorphie auch einer. �

Beispiele 3.6.8. • Sei S eine Menge undA = Abb(S,K), sowie T ⊂ S eineTeilmenge und sei

I ={

f ∈ A : f |T = 0}.

Dann ist T ein Ideal undA/I � Abb(T,K).

• SindA und B Algebren, so ist auchA×B eine Algebra mit derkomponentenweisen Multiplikation, also

(a, b)(a′, b′) = (aa′, bb′).

Die Projektion P : A×B → A ist ein Algebremnhomomorphismus mit Kern

I = {0} × B.

• Sei 1 ≤ k ≤ n und seiA die Menge aller Matrizen in Mn(K) der Gestalt( A B

D), also

der untere linke (n − k) × k-Block ist Null. Dann istA eine Unteralgebra mit Einsvon Mn(K) und die AbbildungA→Mk(K),

( A BD)7→ A ist ein

Algebrenhomomorphismus dessen Kern das Ideal I aller Matrizen der Form( 0 BD)

ist.

Satz 3.6.9. Jede AlgebraA mit Eins ist Quotient einer tensoriellen Algebra, d.h. es gibteinen Vektorraum V und ein Ideal I von T(V) so dassA � T(V)/I.

Beweis. Als Vektorraum kann man V = A selbst nehmen. Die lineare AbbildungA→A, die durch die Identitaet gegeben ist, induziert nach der universellenEigenschaft einen Algebrenhomomorphismus ψ : T(V)→A, der surjektiv ist, weil dieEinschraenkung nach V � A schon surjektiv ist. Sei I = ker(ψ), so folgtA � T(V)/I. �

Beispiele 3.6.10. • Sei V ein K-Vektorraum. Die aeussere Algebra∧∗V ist ein

Quotient der tensoriellen Algebra, es gibt also einen surjektivenAlgebrenhomomorphismus

φ : T(V)→∧∗V.

Page 70: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 70

Der Kern von φ ist das zweiseitige Ideal erzeugt von allen Elementen der Formv ⊗ v fuer v ∈ V.

• Sei V = Rv0 ein eindimensionaler R-Vektorraum. Man kann C als Quotientender R-Algebra T(V) schreiben. Der Kern ist das Ideal erzeugt von v0 ⊗ v0 + 1.

3.7 Die symmetrische Algebra

Sei V ein K-Vektorraum und sei I das Ideal von T(V) erzeugt von der Teilmenge

M ={v ⊗ w − w ⊗ v : v,w ∈ V

}.

SeiSym(V) = T(V)/I.

Man nennt Sym(V) die symmetrische Algebra ueber V. Man schreibt das Bild vonv1 ⊗ · · · ⊗ vn in Sym(V) als v1 · · · vn.

Satz 3.7.1. Die Algebra Sym(V) ist kommutativ. Die kanonische Abbildungsym : V → Sym(V) ist injektiv. Sym(V) ist die universelle kommutative Algebra miteiner linearen Abbildung von V, genauer heisst das: Ist α : V →A eine lineare Abbildungin eine kommutative Algebra, so existiert genau ein Algebrenhomomorphismusφ : Sym(V)→A der das Diagramm

Vsym//

α##

Sym(V)

∃!φ��

A

kommutativ macht.

Beweis. Der kanonische Algebrenhomomorphismus T(V)→A ueber den αfaktorisiert, annulliert das Ideal I, daA kommutativ ist. Daher existiert genau ein φ,welches das Diagramm kommutativ macht. �

Page 71: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 71

Satz 3.7.2. Sei V , 0 endlich-dimensional, dann ist die Algebra Sym(V)unendlich-dimensional. Sie kann geschrieben werden als

Sym(V) =

∞⊕j=0

Sym j(V),

wobei Sym j(V) das Bild von V⊗n ist. Es gilt

Symk(V) Sym j(V) ⊂ Symk+ j(V).

Ist e1, . . . , en eine Basis von V, dann ist(ep1

1 · · · epnn

)p1+···+pn= j

eine Basis von Sym j(V), wobei die p j inN0 liegen. In diesem Fall definiert die Vorschrift

Sym(V)→ K[X1, . . . ,Xn],

e j 7→ X j

einen Algebrenisomorphismus.

Beweis. Schreibe Sym(V) = T(V)/I wie oben. Dann wird Sym(V) von den Elementender Form v1 · · · vn, genannt Monome, aufgespannt, da T(V) von den reinen Tensorenaufgespannt wird. Dann ist Sym j(V) der Spann der Monome der Laenge j und Sym(V)ist die Summe aller Sym j(V). Es ist zu zeigen, dass Sym j ∩ Symk = 0 fuer k , j gilt. Diesfolgt allerdings automatisch, wenn wir die Aussage ueber die Basis zeigen. Es ist nun

v1 ⊗ · · · ⊗ vk ⊗ vk+1 ⊗ · · · ⊗ vm − v1 ⊗ · · · ⊗ vk+1 ⊗ vk+ ⊗ · · · ⊗ vm

in I, hier wurden zwei aufeinanderfolgende Faktoren vertauscht. Das bedeutet, dassman in Sym(V) in einem Monom v1 · · · vm ebenfalls zwei aufeinanderfolgendeFaktoren vertauschen kann. Ist nun e1, . . . , en eine Basis von V, dann kann man ineinem gegebenen Monom v1 · · · vm jdes v j in der Basis entwickeln und allesausdistribuieren, so dieht man , dass Sym(V) von den Monomen der Gestalt ei1 · · · eim

erzeugt wird. Indem man benachbarte Faktoren vertauscht, kann man ein solchesMonom immer in die Form ep1

1 · · · epnn bringen, so dass die behauptete Basis schon

Page 72: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 72

einmal ein Erzeugendensystem ist. Um die lineare Unabhaengigkeit zu zeigenbetrachten wir die lineare Abbildung α : V → K[x1, . . . , xn] definiert durch α(e j) = x j, soinduziert diese nach der universellen Eigenschaft einen Algebrenhomomorphismusφ : Sym(V)→ K[x1, . . . , xn] dessen Bild von x1, . . . , xn erzeugt wird, der also surjektivist. Da die Monome der Form ep1

1 · · · epnn gerade auf die Monome im Polynomring

abgebildet werden, die bekanntermassen eine Basis von K[x1, . . . , xn] bilden, ist φ einAlgebrenisomorphismus und die Monome eine Basis von Sym(V) wie behauptet. �

Page 73: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 73

4 Moduln uber einem Hauptidealring

4.1 Ringe

Definition 4.1.1. Ein kommutativer Ring mit Eins ist eine abelsche Gruppe (R,+) miteiner weiteren Verknupfung ×, die assoziativ ist,

(ab)c = a(bc)

und kommutativab = ba

und das Distributivgesetz erfullt:

a(b + c) = ab + ac.

Ferner existiert ein Element 1R ∈ R mit

1Ra = a

fur jedes a ∈ R. Dieses Element ist dann eindeutig bestimmt und wird 1 geschrieben.

Wenn wir im Folgenden Ring schreiben, meinen wir immer einen kommutativenRing mit Eins.

Ein Ring ist also dasselbe wie ein Koerper, bis auf die Tatsache, dass nicht jedesElement , 0 invertierbar sein muss.

Beispiele 4.1.2. • (N,+,×) ist kein Ring, da es keine inversen Elemente derAddition gibt.

• (Mn(K),+,×) ist kein kommutativer Ring fur n ≥ 2, da Matrixmultiplikationnicht kommutativ ist.

• Jeder Korper ist ein Ring.

• Z ist ein Ring, der kein Korper ist.

• Ist K ein Korper, dann ist die Menge der Polynome K[x] ein Ring.

Page 74: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 74

• Der einfachste Ring ist der Nullring N = {0}. In diesem Ring gilt 0 = 1. Ist R einRing, in dem 0 = 1 gilt, dann ist R der Nullring, denn fur a ∈ R gilt

a = 1a = 0a = (1 − 1)a = a − a = 0.

Der Nullring ist ein dummes Beispiel und wir werden uns im Folgenden in derRegel auf Ringe mit 0 , 1 einschranken.

• Sei α =√

2 ∈ R. Dann gilt α2 = 2. Wir definieren

Z[√

2] ={k + lα : k, l ∈ Z

}.

Wegen (k + lα)(m + nα) = km + 2ln + (kn + lm)α ist Z[√

2] ein Unterring von R.

• Der Gaußsche Zahlring ist definiert als

Z[i] ={a + bi : a, b ∈ Z

}⊂ C.

• Ist R ein Ring, dann definiert man den Polynomring R[x] genau wie imKorperfall. Elemente sind formale Ausdrucke der Form

a0 + · · · + anxn

und die Multiplikation ist definiert durch

(a0 + · · · + anxn)(b0 + · · · + bmxm) = c0 + · · · + cm+nxm+n,

wobei ck =∑

i+ j=k aib j. Insbesondere kann man also den Uebergang von einemRing zum Polynomring wiederholen und erhaelt den Polynomring in mehrerenUnbekannten,

R[X1, . . . ,Xr].

Die Elemente dieses Rings sind formale Ausdruecke der Form∑α

cαXα,

wobei α durchNr0 laeuft, cα ∈ R ein Koeffizient ist, der nur fuer endlich viele α

nicht Null ist undXα = Xα1

1 Xα22 · · ·X

αrr

Page 75: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 75

ist.

• Im Polynomring R[x] gilt

(a0 + a1x + · · · + anxn)(b0 + b1x + · · · + bmxm) = c0 + c1x + · · · + cn+mxn+m,

wobei c0 = a0b0, c1 = a0b1 + a1b0 und allgemein

ck =∑i+ j=k

aib j.

Also haengt der Koeffizient ck nur von den Koeffizienten a0, . . . , ak und b0, . . . bk

ab und nicht von denen hoeheren Grades. Dasselbe gilt fuer die Addition. Daherkann man Addition und Multiplikation des Polynomrings R[x] auch auch dieMenge aller Koeffizientenfolgen (a0, a1, . . . ) ausdehnen, die nichtnotwendigerweise endlich sind. Alternativ kann man diese MengeRN0 = Abb(N0,R) auch als Menge aller formalen Reihen

∞∑j=0

a jx j

beschreiben. Der so entstehende Ring wird der Ring der formalen Potenzreihengenannt und als

R[[x]]

geschrieben.

• Sei p eine Primzahl und sei Z(p) die Menge aller rationalen Zahlen ab ∈ Q fuer die

der Nenner b zur Primzahl p teilerfremd ist, also von p nicht geteilt wird. Dies istein Unterring von Q.

Beispiel 4.1.3. Sei m ∈N und sei R = Z/m gleich der Menge {0, 1, . . . ,m − 1}. Wirdefinieren Addition und Multiplikation wie folgt

a � b = Rest von a + b nach Division durch m.

Und die Multiplikation

a � b = Rest von ab nach Division durch m.

Man verifiziert, dass Z/m mit diesen Operationen ein Ring ist.

Page 76: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 76

Zweite Definition: Auf Z definiert man folgende Aquivalenzrelationa ∼ b⇔ a − b ∈ mZ. Sei Z/m die Menge Z/ ∼ der Aquivalenzklassen. Es ist klar, dasses genau m Aquivalenzklassen gibt [0], [1], . . . , [m − 1]. Addition und Multiplikationwerden wie folgt definiert

[a] + [b] = [a + b], [a][b] = [ab].

Hier ist Wohldefiniertheit zu prufen: etwa a ∼ a′, b ∼ b′, dann ist zu zeigen, dass(a + b) ∼ (a′ + b′) und ab ∼ a′b′. Fur die erste Aussage betrachte

(a + b) − (a′ + b′) = a − a′ + b − b′ ∈MZ.

Fur die zweite:

ab − a′b′ = ab − a′b + a′b − a′ba = (a − a′)b + a′(b − b′) ∈ mZ.

Definition 4.1.4. Ein Element 0 , a ∈ R eines Rings heißt invertierbar oder Einheit desRings, wenn es ein b ∈ R gibt mit ab = 1. Die Menge R× der invertierbaren Elemente isteine abelsche Gruppe bzgl. der Multiplikation. Ein Ring R ist genau dann ein Korper,wenn R× = R r {0} gilt.

Beispiele 4.1.5. • Die Einheiten von Z sind ±1.

• Sei K ein Korper und sei R = K[x] der Polynomring. Die Einheiten von R sindgenau die konstanten Polynome , 0.

• Die Einheiten des Rings R = Z[√−5] sind genau die Zahlen 1 und −1.

Beweis. Seien a, b ∈ R mit ab = 1. Da a, b ∈ C ist, gilt diese Gleichung auch dort,also ist auch 1 = |ab|2 = |a|2|b|2. Damit gilt |a|2 ≤ 1 oder |b|2 ≤ 1. Nehmen wir|a|2 ≤ 1 an. Sei a = k + il

√5, dann ist |a|2 = k2 + 5l2 und da k, l ∈ Z, folgt l = 0 und

a = k = ±1. Damit ist auch b = ±1 und die Beauptung ist gezeigt. �

• Die Einheiten des Rings Z/m sind genau die Zahlen 1 ≤ x ≤ m − 1, die zu mteilerfremd sind. Dies zeigt man mit Hilfe der Division mit Rest(Ubungsaufgabe!)

Definition 4.1.6. Ein Element a , 0 eines Rings R heißt Nullteiler, falls es ein b , 0 gibtmit ab = 0.

Page 77: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 77

Ein Ring R mit 0 , 1 heißt nullteilerfrei, oder integer, oder Integritatsring, falls es keineNullteiler in R gibt, wenn also gilt

ab = 0 ⇒ a = 0 oder b = 0.

Beispiele 4.1.7. • Der Nullring ist kein Integritatsring.

• Korper sind Integritatsringe.

• Jeder Unterring eines Integritatsrings ist ein Integritatsring. So ist zum BeispielZ[√−5] ein Integritatsring, da er ein Unterring des Korpers C ist.

• Z ist ein Integritatsring.

• Z/m ist nur dann ein Integritaetsring, wenn m eine Primzahl ist.

• Ist R ein Integritatsring, dann auch der Polynomring R[x].

Beweis. Seien f , g ∈ R[x], beide , 0. Wir zeigen f g , 0. Sei dazu

f (x) = a0 + · · · + anxn,

g(x) = b0 + · · · + bmxm

mit an , 0 , bm. Dann gilt

f (x)g(x) = c0 + · · · + cm+nxm+n,

wobei ck =∑

i+ j=k aib j. Insbesondere ist dann cm+n = anbm , 0, da R einIntegritatsring ist. �

• Sind R,S Ringe, dann ist auch das kartesische Produkt R × S ein Ring, indemman die Operationen Komponentenweise definiert. Das Nullelement ist (0, 0)und die Eins ist (1, 1). Dieser Ring ist kein Integritaetsring, auch wenn R und Swelche sind, denn es gilt

(0, 1) · (1, 0) = (0, 0).

Definition 4.1.8. Seien R,S Ringe. Ein Ringhomomorphismus ist eine Abbildungφ : R→ S so dass

• φ ist ein Gruppenhomomorphismus (R,+)→ (S,+),

Page 78: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 78

• φ(1) = 1,

• φ(ab) = φ(a)φ(b).

Beispiele 4.1.9. • Die Inklusionen Z ↪→ Q ↪→ R ↪→ C sindRinghomomorphismen.

• Sei m ∈N. Die Projektion Z→ Z/m ist ein Ringhomomorphismus.

• Ist R = K[x] ein Polynomring und ist α ∈ K. dann ist die Abbildungδα : K[x]→ K, die f (x) auf f (α) schickt, ein Ringhomomorphismus.

Satz 4.1.10. Ein Ring R ist genau dann ein Integritaetsring, wenn R ein Unterring einesKoerpers ist.

In dem Fall gibt es bis auf Isomorphie genau einen Koerper Quot(R), der R enthaelt undvon R erzeugt wird. Jeder injektive Ringhomomorphismus φ : R→ L mit einem Koerper Lsetzt in eindeutiger Weise zu einem Homomorphismus Quot(R)→ L fort.

Beweis. Ist R Unterring eines Koerpers, dann ist er offen sichtlich integer. Seiumgekehrt R ein Integritaetsring. Wir wollen einen Koerper K = Quot(R)konstruieren. Dieser soll aus den Quotienten a

b bestehen, mit a, b ∈ R und b , 0, so dassdie ueblichen Rechenregeln, also a

b + cd = ad+bc

bd und ab

cd = ac

bd gelten. Man konstruiert Kgenauso, wie man Q aus Z konstruiert: Auf der Menge R × R r {0} definiert man eineAequivalenzrelation durch

(a, b) ∼ (c, d) :⇔ ad = bc.

Man sieht leicht, dass dies eine Arquivalenzrelation ist, der schwerste Teil ist dieTransitivitaet: Seien also (a, b) ∼ (c, d) und (c, d) ∼ (e, f ), dann gilt also

ad = bc und c f = de.

Damit folgt a f cd = becd, also cd(a f − be) = 0 und da wir in einem Integritaetsring sindund cd , 0, folgt a f = be, also (a, b) ∼ (e, f ), d.h. es gilt Transitivitaet.

Sei K = (R × R r {0}) / ∼. Wir schreiben die Aequivalenzklassen als Brueche, also

Page 79: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 79

ab = [(a, b)]. Wir definieren dann die Addition und Multiplikation durch

ab

+cd

=ad + bc

bdund

ab

cd

=acbd.

Hierbei ist natuerlich Wohldefiniertheit zu pruefen. Wir tun das fuer die Addition. Seialso a

b = a′b′ und c

d = c′d′ . Wir muessen dann zeigen, dass ad+bc

bd = a′d′+b′c′b′d′ gilt. Wir wollen

also zeigen

ab′dd′ + bb′cd′ != a′bdd′ + bb′c′d. (*)

Wir habenab′ = a′b und cd′ = c′d.

Durch direktes Anwenden dieser beiden Formeln folgt allerdings die Behauptung (*)und damit die Wohkldefiniertheit der Addition. Die Multiplikation geht aehnlich undder Nachweis, dass es sich um einen Koerper handelt, ist leicht. Der interessantePunkt ist hier nur, warum jedes Element , 0 invertierbar ist: Sei a

b , 0, dann istinsbesondere b , 0, also liegt auch b

a in K und es gilt ab

ba = ab

ab = 11 und dies ist die Eins in

K.

Wir muessen nun zeigen, dass R durch die Abbbildung x 7→ x1 in K eingebettet wird.

Wegenx1

+y1

=x + y

1und

x1

y1

=xy1

ist diese Abbildung ein Ringhomomorphismus. Er ist injektiv, denn x1 =

y1 ist

aequivalent zu der Identitaet 1 · x = 1 · y in R. Also koennen wir R als einen Unterringvon K auffassen und K besteht komplett aus Elementen, die Quotienten vonElementen aus R sind.

Wir zeigen zum Schluss, dass ein gegebener injektiver Ringhomomorphismusφ : R→ L in einen Koerper L stets in eindeutiger Weise nach K = Quot(R) fortgesetztwerden kann. Sei diese Fortsetzung mit ψ beezeichnet. Wir definieren

ψ(ab

)= φ(a)/φ(b).

Dies ist moeglich, da φ injektiv ist und damit φ(b) , 0 und damit invertierbar ist. Wir

Page 80: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 80

zeigen, dass ψ ein Ringhomomorphismus ist:

ψ(ab

+cd

)= ψ

(ad + bc

bd

)=φ(ad + bc)φ(bd)

=φ(a)φ(d) + φ(b)φ(c)

φ(b)φ(d)

=φ(a)φ(b)

+φ(c)φ(d)

= ψ(ab

)+ ψ

( cd

).

Die Multiplikation geht ebenso. Ist nun η ein weiterer Ringhomomorphismus K→ L,der φ fortsetzt, dann gilt

η(ab

)=η(a)η(b)

=φ(a)φ(b)

= ψ(ab

),

also folgt η = ψ. Zum guten schluss folgt die Eindeutigkeit von Quot(R) nach demueblichen Schemna aus der universellen Eigenschaft (Existenz und Eindeutigkeit vonψ). �

4.2 Ideale

Definition 4.2.1. Sei R ein Ring (kommutativ mit Eins). Ein Ideal in R ist eineTeilmenge I ⊂ R mit den folgenden Eigenschaften

• I ist eine additive Untergruppe von R und

• ist r ∈ R und a ∈ I, dann ist ra ∈ I. Kurz geschrieben lautet diese Bedingung

RI ⊂ I.

Beispiele 4.2.2. • 0 und der ganze Ring R sind Ideale.

• Sei I ⊂ R ein Ideal. Enthalt I ein invertierbares Element, so ist I = R.

Page 81: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 81

• Ist φ : R→ S ein Ringhomomorphismus, dann ist ker(φ) ={x ∈ R : φ(x) = 0

}ein

Ideal.

Beweis. Da φ ein additiver Gruppenhomomorphismus ist, ist der Kern eineUntergruppe. Sei also a ∈ I und r ∈ R. Dann folgt φ(ar) = φ(a)φ(r) = 0φ(r) = 0,also ist ar ∈ I. �

• Ist r ∈ R, so ist die Menge

(r) = rR ={rx : x ∈ R

}ein Ideal. Ein solches Ideal nennt man Hauptideal.

• Ist a ∈ R, so ist die Menge

Ann(a) :={r ∈ R : ra = 0

}ein Ideal, genannt der Annullator von a.

Definition 4.2.3. In der Regel ist nicht jedes Ideal ein Hauptideal. Ein Hauptidealringist ein Ring R, der

(a) nullteilerfrei ist und in dem

(b) jedes Ideal ein Hauptideal ist.

Beispiele 4.2.4. • Jeder Korper K ist ein Hauptidealring, denn er hat nur zweiIdeale, {0} = (0) und K = (1).

• Z ist ein Hauptidealring.

Beweis. Sei I ⊂ Z ein Ideal. Ist I ∩N = ∅, dann ist auch I ∩ (−N) = ∅ und daherI = {0} = (0). Ist I ∩N , ∅, dann gibt es eine kleinste naturliche Zahl m ∈ I. Wirbehaupten, dass I = (m) = mZ. Klar ist (m) ⊂ I. Se also k ∈ I, dann existiert einp ∈ (m) so dass 0 ≤ k − p < m. Da m minimal in I ∩N ist, folgt k − p = 0, alsok = p ∈ (m). �

• Ist K ein Korper, so ist der Polynomring K[x] ein Hauptidealring.

Page 82: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 82

Beweis. Sei I , 0 ein Ideal und sei g ∈ I r {0} ein Polynom von minimalem Grad.Sei f ∈ I beliebig, dann ist grad( f ) ≥ grad(g), also existieren nach der Division mitRest Polynome q, r mit

f = qg + r

und grad(r) < grad(g). Dann ist r = f − qg ∈ I und da der Grad von g minimalwar, ist r = 0, also f = gq ∈ (g). �

• Der Polynomring Z[x] ist kein Hauptidealring.

Beweis. Betrachte das Ideal I, das von 2 und x erzeugt wird, also

I = 2Z[x] + xZ[x].

Ware I ein Hauptideal (g), so musste g, da 2 ∈ I, den Grad Null haben, alsogleich einer Zahl m ∈N gewahlt werden konnen. Da m dann die Zahl 2 teilt,folgte m = 2, aber x ∈ I und x < (2). �

• Der Ring R = Z[√−5] ist kein Hauptidealring, denn das Ideal I = αR + 3R, das

von α = i√

5 und 3 erzeugt wird, ist kein Hauptideal. Angenommen, es wareeines, etwa I = ηR. Da α ∈ I, folgt α = ηz fur ein z ∈ R. Dann ist5 = |α|2 = |α|2|z|2 = 5|z|2. Nun ist fur jedes (a + bα) ∈ R das Quadrat des Betragesa2 + 5b2 in Z, also ist |z| = 1 und damit z = ±1, wir konnen η = α annehmen.Dann ist aber 3 = αw fur ein w ∈ R, was zu 9 = |3|2 = |α|2|w|2 = 5|w|2 fuhrt, also ist9 in Z ein Vielfaches von 5, Widerspruch!

Definition 4.2.5. Ein Integritatsring R heißt euklidischer Ring, falls es eine Abbildungδ : R r 0→N0 gibt, so dass zu je zwei a, b ∈ R r {0} zwei Elemente q, r ∈ R existierenmit

a = bq + r

und r = 0 oder δ(r) < δ(b). Man nennt δ die Gradabbildung des euklidischen Rings.

Proposition 4.2.6. Jeder euklidische Ring ist ein Hauptidealring.

Beweis. Sei I , 0 ein Ideal und sei g ∈ I r {0} ein Element von minimalem Grad, alsoδ(g) minimal unter allen δ( f ) mit f ∈ I. Da g ∈ I, folgt (g) ⊂ I. Sei f ∈ I beliebig, dannist also δ( f ) ≥ δ(g), also existieren Elemente q, r mit

f = qg + r

Page 83: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 83

und δ(r) < δ(g). Dann ist r = f − qg ∈ I und da der Grad von g minimal war, ist r = 0,also f = gq ∈ (g). �

Beispiele 4.2.7. • Z ist ein euklidischer Ring mit δ(k) = |k|.

• Sei K ein Korper, dann ist der Polynomring K[x] euklidisch mit δ( f ) = grad( f ).

• Der Ring R = Z[i] = Z ⊕Zi aller komplexer Zahlen m + ni mit m,n ∈ Z ist eineuklidischer Ring mit

δ(m + ni) = m2 + n2, also δ(z) = |z|2 = zz.

Beweis. Beachte zunaechst, dass die Funktion δ auf ganz C definiert ist undmutliplikativ ist, d.h., fuer z,w ∈ C gilt stets

δ(zw) = δ(z)δ(w).

Wir stellen fest, dass fuer jedes z ∈ C der Abstand zum naechsten Punkt c ∈ Rstets ≤ 1

√2

ist.

z

Mit anderen Worten, zu jedem z ∈ C existiert ein c ∈ R mit δ(z − c) ≤ 12 . Seien nun

a = m + ni und b = k + li in Z[i] r {0} und sei z = ab ∈ C. Dann existiert also ein

c ∈ Z[i] mit δ(z − c) ≤ 12 . Setze r = a − bc ∈ R. Dann ist

δ(r) = δ(b)δ(ab− c

)≤ δ(b)

12< δ(b).

Damit ist R = Z[i] ein euklidischer Ring, also insbesondere einHauptidealring. �

Page 84: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 84

Definition 4.2.8. Sei R ein Ring und I ⊂ R ein Ideal. Wir zeigen gleich, dass dieRelation

x ∼ y :⇔ x − y ∈ I

eine Aquivalenzrelation auf R ist. Die Menge der Aquivalenzklassen R/ ∼ schreibenwir als R/I. Die Aquivalenzklasse der Null ist I.

Satz 4.2.9. (a) Die Relation ∼ zu einem gegebenen Ideal ist eine Aquivalenzrelation.

(b) Auf der Menge R/I gibt es genau eine Ringstruktur, so dass die Projektionπ : R→ R/I ein Ringhomomorphismus ist. Fur diesen Ringhomomorphismus giltI = ker(π), also ist jedes Ideal der Kern eines Ringhomomorphismus.

(c) Sei ∼ eine Aquivalenzrelation so dass es auf der Quotientenmenge R/ ∼ eineRingstruktur gibt so dass die Projektion π : R→ R/ ∼ ein Ringhomomorphismus ist,dann gibt es genau ein Ideal I mit

x ∼ y ⇔ x − y ∈ I.

Beweis. (a) Da I eine Untergruppe ist, sind Reflexivitat und Symmetrie klar. Fur dieTransitivitat sei x ∼ y und y ∼ z, also x− y, y− z ∈ I. Dann ist die Summe dieser beidenElemente, also x − z ebenfalls in I, also x ∼ z.

(b) Wir definieren Addition und Multiplikation durch [a] + [b] = [a + b] und[a][b] = [ab]. Hier ist Wohldefiniertheit zu prufen. Seien a ∼ a′ und b ∼ b′, alsoa − a′, b − b′ ∈ I, dann folgt

(a + b) − (a′ + b′) = (a − a′) + (b − b′) ∈ I

also folgt (a + b) ∼ (a′ + b′) und damit die Wohldefiniertheit der Addition. Fur dieMultiplikation rechne

ab − a′b′ = ab − ab′ + ab′ − a′b′

= a(b − b′) + (a − a′)b′ ∈ I.

Die Eindeutigkeit der Ringstruktur ist wegen der Surjektivitat von π klar.

(c) Sei ∼ eine solche Aquivalenzrelation und sei I = ker(π). Dann ist I ein Ideal und es

Page 85: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 85

gilt

x ∼ y⇔ π(x) = π(y)

⇔ π(x − y) = 0

⇔ x − y ∈ I. �

Beispiel 4.2.10. Der Ring Z/m ist gleich Z/(m) = Z/mZ.

Ein Ideal m eines Rings R heisst maximales Ideal, wenn m , R und m ist maximal in derMenge aller Ideale I , R, also mit anderen Worten:

(a) 1 < m und

(b) ist I ein Ideal mit m ⊂ I und I , R, dann ist m = I.

Satz 4.2.11. (a) Jedes Ideal I , R liegt in einem maximalen Ideal.

(b) Jedes Element von R r R× liegt in einem maximalen Ideal.

(c) Ein Ideal J ist genau dann maximal, wenn R/J ein Koerper ist.

Proof. (a) Sei I , R ein Ideal und sei S die menge aller Ideale J mit 1 < J und J ⊃ I.Dann ist S mit der Inklusion partiell geordnet und die Kettenbedingung ist erfuellt,denn sei ∅ , K ⊂ S eine Kette, also eine linear geordnete Teilmenge und sei a =

⋃J∈K J,

dann ist awieder ein Ideal und es gilt I ⊂ a, sowie 1 < a. Dieses a ist dann eine obereSchranke zu K. Nach dem Lemma von Zorn gibt es ein maximales Element m in S,also liegt I in einem maximalen Ideal.

(b) Sei r ∈ RrR× eine Nichteinheit und sei I = (r) = rR das Hauptideal. Dann gilt 1 < I,da r nicht invertierbar ist. Also gibt es nach Teil (a) ein maximales Ideal, das I unddamit auch r enthaelt.

(c) Sei J ein maximales Ideal und sei r ∈ Rr J. Wegen der Maximalitaet von J muss dasIdeal 〈r, J〉 = rR + J gleich dem ganzen Ring sein, also auch die Eins enthalten, es gibtalso r′ ∈ R und ein α ∈ J mit rr′ + α = 1 oder rr′ ∈ 1 + J, so dass in R/J gilt(r + J)(r′ + J) = rr′ + J = 1 + J, das heisst, dass r im Quotienten R/J invertierbar ist, alsoist in R/J jedes Element , 0 inverierbar, d.h., R/J ist ein Koerper.

Page 86: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 86

Sei umgekehrt R/J ein Koerper und sei r ∈ R r J, dann ist r modulo J invertierbar, alsoexistiert ein r′ ∈ R mit rr′ ∈ 1 + J, so dass 1 ∈ rR + J, also ist J maximal. �

Beispiele 4.2.12. • Die maximalen Ideale von Z sind genau die Hauptideale pZ,wobei p eine Primzahl ist.

• Die maximalen Ideale von R = C[x] sind genau die Hauptideale der FormIλ = (x − λ)C[x] fuer λ ∈ C. Die Abbildung f (x) 7→ f (λ) induziert einenIsomorphismus

R/Iλ � C.

Definition 4.2.13. Ein Ideal I , R eines Rings R heisst Primideal, falls

ab ∈ I ⇒ a ∈ I oder b ∈ I.

Satz 4.2.14. Ein Ideal I von R ist genau dann ein Primideal, wenn R/I integer ist.

Beweis. Sei I ein Primideal und seien [a], [b] ∈ R/I mit [a][b] = [0], also 0 = [ab] wassoviel heisst wie ab ∈ I. Da I ein Primideal ist, folgt a ∈ I oder b ∈ I, also sagen wir, es seia ∈ I. das heisst aber [a] = [0], also ist [a] in R/I das Nullelement, damit ist R/I integer.

Sei umgekehrt R/I integer und seien a, b ∈ R mit ab ∈ I. Das bedeutet [0] = [ab] = [a][b].Da R/I integer ist, folgt [a] = [0] oder [b] = [0] also sagen wir [a] = [0], also a ∈ I unddamit ist I ein Primideal. �

4.3 Teilbarkeit

Definition 4.3.1. Seien a, b Elemente eines Rings R.

(a) Man sagt a teilt b oder ist ein Teiler von b, falls es ein c ∈ R gibt so dass ac = b. indiesem Fall schreibt man a | b. Ist a kein Teiler von b, so schreibt man a - b.

(b) a und b heißen assoziiert, wenn es eine Einheit u ∈ R× gibt mit a = bu.

Beispiele 4.3.2. • Fur zwei naturliche Zahlen m,n gilt m teilt n in Z genau dann,wenn m ein Teiler im ublichen Sinne ist.

• Zwei Elemente a, b in Z sind genau dann assoziiert, wenn a = ±b gilt.

Page 87: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 87

Lemma 4.3.3. Fur zwei Elemente a, b eines Integritaetsrings R sind aquivalent

(i) a | b und b | a,

(ii) aR = bR,

(iii) a und b sind assoziiert.

Beweis. (i)⇒(iii): Es gelte a = bc und b = ad. Wir nehmen an, dass a , 0, da sonst auchb = 0. Es ist a = bc = acd, also a(1 − cd) = 0 und da a , 0 und R integer ist, folgt cd = 1,also sind c, d Einheiten und a und b sind assoziiert.

(iii)⇒(ii) Es sei a = bu mit einer Einheit u. Wegen uR = R folgt dann aR = buR = bR.

(ii)⇒(i) Sei aR = bR, dann folgt a ∈ bR, also gibt es ein c ∈ R mit a = bc, also b | a.Ebenso folgt b | a. �

Definition 4.3.4. Sei R ein Integritatsring und p ein Element, das weder Null nocheine Einheit ist.

(a) Das Element p heißt irreduzibel, falls aus der Gleichung p = ab in R stets folgt, dassa oder b eine Einheit ist.

(b) Das Element p heißt Primelement, falls aus p | ab stets folgt p | a oder p | b.

Beispiele 4.3.5. • In R = Z sind die Primelemente genau die Elemente der Form±p, wobei p eine Primzahl ist.

• In R = C[x] sind die Primelemente genau die Elemente c(x − a) mit c ∈ C×, a ∈ C.

• In R = R[x] sind die Primelemente genau die Polynome der Form c(x − α) fur einα ∈ R oder c(x2 + ax + b), falls dieses Polynom keine reelle Nullstelle hat.

Proposition 4.3.6. Sei R ein Integritatsring. Dann ist jedes Primelement von R auchirreduzibel.

Beweis. Seien p ein Primelement und sei p = ab. Dann teilt p das Produkt ab also teilt peinen der Faktoren, sagen wir a. Das heißt a = pc = abc, also a(1 − bc) = 0, also bc = 1,so dass b eine Einheit ist. �

Beispiel 4.3.7. In dem Integritatsring R = Z[√−5] ist das Element 3 irreduzibel, aber

kein Primelement.

Page 88: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 88

Beweis. Sei α = i√

5. Wir zeigen, dass 3 irreduzibel ist. Ist 3 = zw in R, dann folgt9 = |3|2 = |z|2|w|2. Ist |z|2 = 1, dann ist z = ±1 eine Einheit. Ist |z|2 = 9, dann ist |w|2 = 1und w ist eine Einheit. Angenommen, |z|2 = 3. Sei z = a + bα, dann ist 3 = |z|2 = a2 + 5b2,also ist b = 0, da der Betrag sonst zu gross ware. Dann ist 3 = a2, aber 3 ist keinQuadrat in Z, Widerspruch! Also ist 3 irreduzibel.

Wir zeigen, dass 3 kein Primelement ist. Hierzu beachte, dass 3 | 9 = (2 + α)(2 − α),aber 3 teilt keinen der Faktoren, denn wurde 3 etwa 2 + α teilen, also 2 + α = 3z, dannist 9 = |2 + α|2 = |3|2|z|2, also |z| = 1 und damit ist z = ±1, was ein Widerspruch ist. �

Satz 4.3.8. Sei R ein Hauptidealring und sei p ∈ R. Dann sind aquivalent

(a) p irreduzibel,

(b) p ist ein Primelement.

Beweis. Wir mussen nur (a)⇒(b) zeigen: Sei p irreduzibel und p teile ab und p - a. Wirmuessen zeigen, dass p das Element b teilt. Sei I das von p und a erzeugte Ideal, alsoI = aR + pR. Dann ist dies ein Hauptideal, also etwa I = (c). Dann folgt c | a und c | p,also etwa cd = p. Da p irreduzibel ist, ist c oder d eine Einheit. Ist d eine Einheit, so istpR = cR = I = aR + pR, also ist a ∈ pR, d.h. p teilt a, was der Voraussetzungwiderspricht. Also ist c eine Einheit, d.h., I = R und es gibt r, s ∈ R mit ar + ps = 1, alsob = abr + psb = p(r + sb), also p | b wie verlangt. �

Korollar 4.3.9. In einem Hauptidealring R lasst sich jedes Element von R r {0}, das keineEinheit ist, als endliches Produkt von Primelementen Schreiben.

Beweis. Da jedes irreduzible Element prim ist, genugt es, eine Zerlegung inirreduzible zu konstruieren. Sei a ∈ R ungleich Null und keine Einheit. Angenommen, alasst sich nicht als Produkt von Irreduziblen schreiben. Dann ist a reduzibel und kannselbst als Produkt a1a′1 von Nichteinheiten geschrieben werden. Da a kein Produkt vonIrreduziblen ist, gilt dasselbe fur mindestens einen der Faktoren, sagen wir a1, und a1

kann als Produkt a2a′2 zweier Nichteinheiten geschrieben werden. Iteration liefert eineFolge von Elementen

a = a0, a1, · · · ∈ R

Page 89: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 89

so dass a j+1 ein Teiler von a j, aber nicht assoziiert zu a j ist. Also folgt fur dieHauptideale

(a) = (a0) ( (a1) ( (a2) ( . . .

Man pruft leicht nach, dass die Vereinigung einer aufsteigenden Folge von Idealenwieder ein Ideal ist, also ist ⋃

j∈N

(a j)

wieder ein Ideal in R, also ein Hauptideal (b). Dann ist b ∈ (a j) fur ein j und daher

(b) ⊂ (a j) ⊂ (a j+1) ⊂ (b),

woraus Gleichheit folgt, ein Widerspruch! Daher ist die Annahme falsch, also ist jedesElement als Produkt von Irreduziblen darstellbar. �

Lemma 4.3.10. Gilt in einem Integritatsring R die Gleichung

p1 · · · pr = q1 · · · qs

fur Primelemente p j und irreduzible Elemente qi, dann ist r = s und nach Umnummerierungist jedes p j assoziiert zu q j.

Beweis. Da p1 | q1 · · · qs, gibt es ein j mit p1 | q j. Nach Umnummerierung konnen wirp1 | q1 annehmen. Es folgt q1 = ε1p1, wobei ε1 auf Grund der Irreduzibilitat von q1 eineEinheit ist. Da wir uns in einem Integritatsring befinden, folgt

p2 · · · pr = ε1q2 · · · qs.

Wir iterieren diesen Vorgang und konnen die qi so umnummerieren, dass p j zu q j

assoziiert ist. Insbesondere folgt r ≤ s. Ist r < s erhalten wir

1 = εqr+1 · · · qs,

woraus folgt, dass qs eine Einheit ist, was ein Widerspruch ist, also ist r = s. �

Definition 4.3.11. Ein Integritatsring R heißt faktoriell, falls jede Nichteinheit in R r {0}als Produkt von Primelementen darstellen lasst, das heißt wenn wir eine sogenannteeindeutige Primfaktorzerlegung haben.

Page 90: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 90

Satz 4.3.12. Jeder Hauptidealring ist faktoriell. Insbesondere ist Z faktoriell und fur jedenKorper K ist der Polynomring K[x] faktoriell.

Beweis. Folgt aus Korollar 4.3.9 und Lemma 4.3.10. �

Beispiel 4.3.13. Der Ring R = Z[√−5] is nicht faktoriell, denn wir haben die

Zerlegungen6 = 2 · 3 =

(1 +√

−5)·

(1 −√

−5)

und unter den Elementen 2, 3,(1 +√−5

),(1 −√−5

)sind keine zwei assoziiert, denn

die Einheiten dieses Rings sind ±1.

Definition 4.3.14. Sei R ein faktorieller Ring. Sei P ein Vertretersystem derPrimelemente modulo Assoziiertheit, also P enthalte zu jeder Klasse von assoziiertenPrimelementen genau ein Element. Hat man ein solches P fest gewahlt, kann man jedeNichteinheit z ∈ R r {0} eindeutig in der Form

z = ε∏p∈P

pkp

schreiben, wobei ε eine Einheit ist und kp ∈N0, fast alle Null sind. Sind dann

z = ε∏p∈P

pkp , w = η∏p∈P

pnp

zwei solche Darstellungen, dann ist klar, dass z das Element w genau dann teilt, wennkp ≤ np fur jedes p ∈ P gilt. Wir definieren wir den großten gemeinsamen Teiler derElemente z,w als

ggT(z,w) =∏p∈P

pmin kp,np ,

sowie das kleinste gemeinsame Vielfache als

kgV(z,w) =∏p∈P

pmax kp,np

Beispiele 4.3.15. • Im Fall R = Z kann man die Menge der Primzahlen als Pnehmen.

• Im Fall R = K[x] fur einen Korper K sind die Einheiten genau die konstanten in

Page 91: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 91

K×, also ist jedes Polynom zu einem eindeutig bestimmten normierten Polynomassoziiert. Damit kann man als P die Menge aller normierter Primpolynomewahlen.

• Im Allgemeinen hat man keine kanonische Wahl fur P. Daher hangen dieBegriffe ggT und kgV dann von der Wahl von P ab und sind daher nur bis aufAssoziiertheit definiert.

Satz 4.3.16. Seien a, b zwei von Null verschiedene Elemente eines Hauptidealrings R.

(a) Ein Element z teilt genau dann sowohl a als auch b, wenn z den ggT von a und b teilt.

(b) Ein Element w ist genau dann ein Vielfaches sowohl von a als auch von b, wenn w einVielfaches von kgV(a, b) ist.

(c) Fur den großten gemeinsamen Teiler d = ggT(a, b) gilt dann

aR + bR = dR.

Insbesondere gibt es Elemente x, y ∈ R mit

ggT(a, b) = ax + by.

Beweis. (a) und (b) sind klar, wenn man die Produktzerlegungen betrachtet.

(c) Das Ideal aR + bR ist ein Hauptideal, etwa aR + bR = d′R. Wegen a, b ∈ (d′) ist d′

dann ein gemeinsamer Teiler von a und b, teilt demnach d. Andererseits teilt d auch aund b und teilt demnach d′, so dass d und d′ assoziiert sind. �

Korollar 4.3.17. Sei R ein Hauptidealring und p ∈ R r {0}. Dann sind aquivalent;

(a) p ist ein Primelement.

(b) R/pR ist ein Korper.

Beweis. Sei p ein Primelement und sie z ∈ R/pR r {0} die Aquivalenzklasse von z ∈ R.Dass z , 0 ist bedeutet, dass z < pR ist, was bedeutet, dass p in der Primfakorzerlegung

Page 92: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 92

von z nicht vorkommt und damit ist ggT(z, p) = 1. Daher ist zR + pR = R, also gibt esx, y ∈ R mit zx + py = 1, oder zx = 1 in R/pR, so dass z invertierbar ist.

Fur die Umkehrung sei R/pR ein Korper und p teile ein Produkt ab. Dann ist ab = 0und daher a = 0 oder b = 0, also p | a oder p | b. �

Beispiel 4.3.18. Z/m ist genau dann ein Korper, wenn m = p eine Primzahl ist. Indiesem Fall schreibt man Fp = Z/p.

4.4 Lokalisierung

Sei R ein Integritaetsring und sei S ⊂ R eine multiplikativ abgeschlossene Teilmenge, d.h.,wir fordern

• 0 < S, 1 ∈ S,

• x, y ∈ S ⇒ xy ∈ S.

Beispiele 4.4.1. • Sei f ∈ R r {0} und sei S = {1, f , f 2, . . . }, dann ist S einemultiplikativ abgeschlossene Teilmenge.

• Ist p ⊂ R ein Primideal, dann ist das Komplement S = R r p eine multiplikativabgeschlossene Teilmenge.

• Da R ein Integritaetsring ist, ist S = R r {0} eine multiplikativ abgeschlosseneTeilmenge.

Definition 4.4.2. Sei S eine multiplikativ abgeschlossene Teilmenge desIntegritaetsrings R. Die Lokalisierung von R nach S ist der Unterring S−1R desQuotientenkoerpers Quot(R), der von R und

S−1 = {s−1 : s ∈ S}

erzeugt wird. Da S multiplikatiov abgeschlossen ist, gilt

S−1R ={a

s: a ∈ R, s ∈ S

}.

Proposition 4.4.3. Die Lokalisierung S−1R ist der kleinste Ring, in dem S invertierbar wird.Genauer gilt folgende universelle Eigenschaft: Ist A ein Ring und g : R→ A ein

Page 93: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 93

Ringhomomorphismus dergestalt, dass g(S) ⊂ A×, dann existiert genau einRinghomomorphismus S−1R→ A der das Diagramm

Rf//

g!!

S−1R

∃!��

A

kommutativ ist.

Beweis. Sei g : R→ A mit g(S) ⊂ A×. Wir definieren dann ψ : S−1R→ A durchψ

(as

)= g(a)g(s)−1. Dann ist ψ der eindeutig bestimmte Ringhomomorphismus, der das

Diagramm kommutativ macht. �

Beispiele 4.4.4. • Ist R = Z und S = Zr {0}, dann ist S−1Z = Q.

• Ist R = K[x] der Polynomring ueber einem Koerper K, dann ist derQuotientenkoerper der Koerper K(x) der rationalen Funktionen ueber K.

4.5 Moduln

Definition 4.5.1. Ein Modul uber einem Ring R ist eine abelsche Gruppe M mit einerAbbildung

R ×M→M

(λ,m) 7→ λm,

so dass fur alle λ, µ ∈ R und alle m,n ∈M gilt

• 1Rm = m,

• (λµ)m = λ(µm),

• (λ + µ)m = λm + µm, λ(m + n) = λm + λn.

Beispiele 4.5.2. • Fuer einen Koerper K sind die K-Moduln genau dieK-Vektorraeume.

• Der Ring R selbst ist ein R-Modul und eine Teilmenge T ⊂ R ist genau dann einUntermodul, wenn T ein Ideal ist.

Page 94: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 94

• Jede abelsche Gruppe (M,+) ist auf genau eine Weise ein Modul unter R = Z,denn km = m + · · · + m mit k-Kopien, wenn k ∈N und es ist das Inverse, wennk < 0. Es gilt also {

abelsche Gruppen} ={Z-Moduln}

}Es gilt auch, dass ein Gruppenhomomorphismus zwischen zwei abelschenGruppen dasselbe ist, wie ein Z-Modulhomomorphismus.

• Sei K ein Korper und R der Polynomring K[x]. Sei V ein K-Vektorraum undT : V → V ein Endomorphismus. Dann wird V ein R-Modul durch

( f (x))v := f (T)v.

Ist also f (x) = a0 + · · · + anxn, so ist

f (x)v = a0v + a1Tv + · · · + anTnv.

Definition 4.5.3. Eine R-lineare Abbildung oder ein Modulhomomorphismus zwischenzwei Moduln ist ein Gruppenhomomorphismus φ : M→ N mit der Eigenschaft

Φ(rm) = rφ(m)

fur jedes m ∈M und jedes r ∈ R.

Definition 4.5.4. Ein Untermodul eines R-Moduls M ist eine Teilmenge N ⊂M, die mitden Strukturen von M selbst wieder ein Modul ist.

Beispiel 4.5.5. Eine Teilmenge I ⊂ R ist genau dann eine Untermodul, wenn sie einIdeal ist.

Definition 4.5.6. Seien M1, . . . ,Mk Untermoduln eines Moduls M, dann ist die Summeder Moduln definiert als

U = M1 + · · · + Mk :={m1 + · · · + mk : m j ∈M j

}⊂M.

Dies ist ein Untermodul, wie man leicht sieht. Gilt zusatzlich

m1 + · · · + mk = m′1 + · · · + m′k′ ⇒ k = k′,m1 = m′1, . . . ,mk = m′k

wobei m j,m′j ∈M j fur 1 ≤ j ≤ k, so sagen wir, die Summe ist direkt und schreiben dies

Page 95: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 95

alsU = M1 ⊕ · · · ⊕Mk.

Dann ist die Summe U + V zweier Untermoduln genau dann direkt, wenn U ∩ V = 0gilt. Ist U ⊕ V = M, sagen wir, die Moduln U und V sind komplementar.

Beispiel 4.5.7. Ein Untervektorraum hat stets einen komplementaren Unterraum.Dies gilt fur Moduln nicht. Hier ist das Beispiel: Sei R = Z und M = Z also Modulbetrachtet. Dann ist 2M = 2Z ein Untermodul ohne Komplementarmodul.

Definition 4.5.8. Sind N1, . . . ,Nk Moduln uber R, die nicht Untermoduln einesgemeinsamen Moduls sind, so lasst sich die direkte Summe N1 ⊕ · · · ⊕Nk auchkonstruieren. Setze

M = N1 × · · · ×Nk,

so ist N j via n 7→ (0, . . . , 0,n, 0, . . . , 0) als Untermodul von M auffassen und es gilt dann

M =

k⊕j=1

N j.

Definition 4.5.9. Ist U ⊂M ein Untermodul, so definieren wir eineAquivalenzrelation ∼auf M durch

m ∼ n :⇔ m − n ∈ U.

Wir schreiben M/U fur die Menge der Aquivalenzklassen.

Lemma 4.5.10. M/U tragt eine eindeutig bestimmte Struktur eines R-Moduls, so dass dieProjektion π : M→M/U ein Modulhomomorphismus ist. Der Kern von π ist U.

Beweis. Man definiert [m] + [n] = [m + n] und r[m] = [rm] und weist Wohldefiniertheitwie ublich nach. �

Beispiel 4.5.11. Im Falle R = Z betrachte den Modul M = Z und den Untermodul kZfuer ein k ∈N. Dann ist M/U = Z/kZ der uebliche Restklassenmodul.

Definition 4.5.12. Sei M ein R-Modul. EinErzeugendensystem ist eine Familie (mi)i∈I inM so dass jedes m ∈M als Linearkombination

m =∑i∈I

rimi,

Page 96: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 96

mit ri ∈ R, fast alle Null, geschrieben werden kann. Eine Familie (vi)i∈I heißt linearunabhangig, wenn es nur eine Linearkombination der Null gibt, wenn also aus∑

i∈I

rimi = 0

schon ri = 0 fur alle i folgt. Ein linear unabhangiges Erzeugendensystem nennt maneine Basis des Moduls. Ein Modul heißt freier Modul, wenn er eine Basis hat. Er heißtendlich-frei, falls er eine endliche Basis hat.

Bemerkung. Nicht jeder Modul hat eine Basis. Als Beispiel sei m ∈N und betrachteZ/m als Z-modul. Dann gibt es in Z/m keine linear unabhangige Familie, denn furjedes z ∈ Z/m gilt mz = 0, aber m , 0 in Z.

Proposition 4.5.13. Ist M ein endlich-freier Modul eines Rings R, dann ist M isomorph zuRn fur ein n und dieses n ist eindeutig bestimmt, man nennt es die Dimension von M.

Proof. Sei m1, . . . ,ms eine Basis von M und sei J ein maximales Ideal von R. Dann istM/JM ein Vektorraum ueber dem Koerper k = R/J. wir behaupten, dass m1, . . . ,ms eineBasis ist. Es ist klar, dass es ein Erzeugendensystem ist, seien also λ1, . . . , λs ∈ R mit

λ1m1 + · · · + λsms ≡ 0 mod JM,

also λ1m1 + · · · + λsms ∈ JM. Nun ist JM die Menge aller Linearkombinationen derForm

k∑ν=1

ανvν,

wobei αν ∈ J und vν ∈M ist. Schreibt man jedes vν als Linearkombination der Basism1, . . . ,ms und nutzt aus, dass J ein Ideal ist, sieht man, dass die Elemente von JMgenau die Elemente von der Form

µ1m1 + · · · + µsms

sind fuer die µ1, . . . , µs ∈ J gilt. Insbesondere gibt es also µ1, . . . , µs ∈ J, so dass

λ1m1 + · · · + λsms = µ1m1 + · · · + µsms.

Da aber die m j eine Basis bilden, folgt λ1 = µ1, . . . , λs = µs, die liegen alle in J, also folgtλ1 ≡ 0, . . . , λs � 0 mod J, damit sind die m1, . . . ,ms linear unabhaengig in M/JM.

Page 97: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 97

Damit ist s die Dimension des R/J-Vektorraums M/JM, haengt also nicht von derWahl der Basis ab. �

Definition 4.5.14. Sei M ein R=Modul. Die Lange des Moduls M, geschrieben`(M) = `R(M) ist das Supremum der Langen ` von Ketten von Untermoduln

0 (M1 ( · · · (M` = M

Beispiele 4.5.15. • Ist R = K ein Korper, dann ist die Lange eines Moduls(=Vektorraums) gleich seiner Dimension.

• Eine abelsche Gruppe (M,+), aufgefasst als Z-Modul hat genau dann endlicheLange, wenn sie endlich ist. Die Lange des Z-Moduls Z/m fur m ∈N ist gleichder Anzahl aller Primteiler von m, mit Vielfachheit gezaehlt.

Lemma 4.5.16. Sei R ein Hauptidealring und sei a ∈ R r {0} mit Primfaktorzerlegunga = εp1 · · · pr. Dann hat der Restklassenmodul R/aR die Lange `R(R/aR) = r.

Beweis. Sei π : R→ R/aR die Projektion. Die Untermoduln U ⊂ R/aR entsprechenbijektiv ihren Urbildern unter π und dies sind die Ideale I von R, die aR enthalten, sodass die Lange mit dem Supremum aller Langen von Idealketten der Art

aR ( I1 ( · · · ( Il = R

ubereinstimmt. Da R ein Hauptidealring ist, wird jedes Iν von einem Element aνerzeugt. Die Inklusion Iν ( Iν+1 bedeutet, dass aν ein echter Teiler von aν+1 ist. Dahermussen die Potenzen in der Primfaktorzerlegung absteigen und die maximale Langeeiner solchen Kette ist r. �

Lemma 4.5.17. Ist M die direkte Summe zweier Untermoduln L und N, so gilt

`(M) = `(L) + `(N).

Beweis. Seien

0 ( L1 ( · · · ( Lr = M1,

0 ( N1 ( · · · ( Ns = M2

echt aufsteigende Ketten von Untermoduln, dann ist

0 ( (L1 ⊕ 0) ( · · · ( (Lr ⊕ 0) ( (Lr ⊕N1) ( · · · ( (Lr ⊕Nr) = M

Page 98: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 98

eine Kette in M, also ist `(L) + `(N) ≤ `(M).

Fur die umgekehrte Richtung sei

0 (M1 ( · · · (M` = M

eine echt aufsteigende Kette von Untermoduln. Seien πL und πN die Projektionen aufdie beiden Summanden L und N. Ist etwa M j ∩ L = M j+1 ∩ L, dann behaupten wir,dass πN(M j) , πN(M j+1) ist, denn gilt auch hier Gleichheit, dann gibt es zu m ∈M j+1

ein m ∈M j mit πN(m) = πN(m), also ist m − m ∈ kerπN ∩M j+1 = L ∩M j+1 = L ∩M j unddamit ist m ∈M j+1, was ein Widerspruch zu M j , M j+1 ist. Damit wachst bei jedem jentweder M j ∩ L oder πN(M j) und so folgt ` ≤ `(L) + `(N). �

Lemma 4.5.18. Sei R ein Hauptidealring und Q ein Modul mit

Q �n⊕

j=1

R/α jR,

wobei α j ∈ R r 0 Nichteinheiten so dass α j | α j+1 fur 1 ≤ j ≤ n − 1, dann sind die α j bis aufAssoziiertheit durch den Modul Q eindeutig bestimmt.

Beweis. Aus technischen Grunden invertieren wir die Nummerierung der α j undbetrachten zwei Zerlegungen

Q �n⊕

j=1

R/α jR �m⊕

j=1

R/β jR,

mit α j+1 | α j und desgleichen fur βi. Falls es einen Index k ≤ min(m,n) mit αkR , βkRgibt, so wahle k minimal mit dieser Eigenschaft. Da αiR = βiR fur 1 ≤ i < k, und daαk+1, . . . , αn samtlich Teiler von αk sind, zerlegt sich αkQ zu

αkQ �k−1⊕i=1

αk · (R/αiR)

�k−1⊕i=1

αk · (R/αiR) ⊕m⊕

j=k

αk · (R/β jR)

As Lemma 4.5.16 und Lemma 4.5.17 folgt `(αk · (R/β jR)

)= 0 fur k ≤ j ≤ m. Dies

bedeutet aber insbesondere αk · (R/βkR) = 0, oder αkR ⊂ βkR. Analog zeigt manαkR ⊃ βkR, also αkR = βkR, also gibt es solches k gar nicht. �

Page 99: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 99

4.6 Der Elementarteilersatz

Definition 4.6.1. Wir betrachten Matrizen uber einem beliebigen Ring R. Eine MatrixA ∈Mn(R) heißt invertierbar, falls es eine Matrix B ∈Mn(R) gibt, mit AB = BA = I.

Lemma 4.6.2. Sei R ein kommutativer Ring mit Eins. Eine Matrix A ∈Mn(R) ist genaudann invertierbar, wenn det(A) ∈ R eine Einheit ist.

Beweis. Sei A# die Komplementarmatrix. Man stellt fest, dass in dem Beweis derFormel

AA# = A#A = det(A)I

nirgends benutzt wurde, dass man uber einem Korper rechnet. Er gilt also auch uberR. Ist also det(A) ∈ R×, so ist det(A)−1A# eine inverse zu A.

Fur die Umkehrung sei A invertierbar. Man stellt fest, dass auch die Formel

det(AB) = det(A) det(B)

uber beliebigen Ringen gilt. Ist B eine Inverse, so folgt det(A) det(B) = 1, also ist det(A)eine Einheit. �

Beispiel 4.6.3. Eine Matrix A ∈Mn(Z) ist genau dann in Mn(Z) invertierbar, wenn gilt

det(A) = ±1. Wir bestimmen also mal die Inverse zu

1 21 1

. Es ist

1 2 11 1 1

{ 1 2 10 −1 −1 1

{

1 2 10 1 1 −1

{

1 0 −1 20 1 1 −1

.Wir stellen also fest, dass

−1 21 −1

die gesuchte Inverse ist.

Satz 4.6.4 (Elementarteilersatz fur Matrizen). Sei R ein Hauptidealring undA ∈Mn(R) eine quadratische Matrix uber R. Dann existieren invertierbare Matrizen

Page 100: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 100

S,T ∈ GLn(R) mit

SAT =

d1

. . .

dn

,wobei dk+1 = · · · = dn = 0 fur ein k und d j | d j+1 fur 1 ≤ j ≤ k− 1 gilt. Dabei sind die d j bisauf Assoziiertheit eindeutig bestimmt, man nennt sie die Elementarteiler der Matrix A.

Beweis. Wir wenden Zeilen und Spaltentransformationen an, diese sind jeweils durchMultiplikation von links oder rechts mit invertierbaren Matrizen gegeben. UnsereTransformationen sind

(a) Multiplikation einer Zeile (oder Spalte) mit einer Einheit,

(b) Addition des r-fachen einer Zeile (oder Spalte) zu einer anderen,

(c) Vertauschen von zwei Zeilen (oder Spalten).

Es kommt noch eine weitere Transformation hinzu. Nimm hierzu an, dass die ersteSpalte von A wie folgt aussieht: (a, ∗, . . . , ∗, b, ∗ . . . )t, wobei b an der k-ten Position steht.Sei d = ggT(a, b), dann existieren x, y ∈ R mit d = ax + by. Es gilt dann c = ggT(x, y) = 1,denn cd teilt d. Also existieren r,w ∈ R mit rx − wy = 1. Die Matrix

S =

x y

Iw r

I

,ist invertierbar und Multiplikation von links mit S liefert die erste Spalte (d, ∗, αd, ∗)t,so dass man anschließend, das α-fache der ersten Spalte von der k-ten abziehen kann,wiederholt dieses und erhalt eine erste Spalte der Form (d, 0, . . . , 0)t.

Durch Rechtsmultiplikation mit invertierbaren Matrizen kann man dies auch mit der

ersten Zeile ausfuehren und bringt A in die Form

d 00 B

fur ein eventuell anderes d.

Man addiert nun die erste Zeile zur zweiten und wiederholt die Spaltentrafos fur die

Page 101: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 101

zweite Zeile bis man zu eine Matrix der Formd rdd′ sd′

0 ∗

kommt. Hierbei ist d′ ein Teiler von d. Dies fuhrt zu

d′ 00 td′

0 ∗

Man wiederholt den Vorgang mit den anderen Zeilen, bis man eine Matrix der Gestaltd

dB

erhalt (wieder ein anderes d). Man wiederholt dies nun mit B an Stelle von A underhalt die Behauptung durch Iteration.

Zur Eindeutigkeit: Sei M = ARn = Bild(A) und sei F ={x ∈ Rn : ∃r∈Rrx ∈M

}. Dann ist

F/M =⊕

j=1 kR/α jR und die Eindeutigkeitsaussage aus Lemma 4.5.18 liefert dieEindeutigkeit. �

Satz 4.6.5 (Elementarteilersatz fur Moduln). Sei R ein Hauptidealring und F einendlich-freier Modul, sowie M ⊂ F ein Untermodul. Dann existieren Elemente x1, . . . , xk

von F, die Teil einer Basis sind, sowie Koeffizienten a1, . . . , ak ∈ R mit

• ai | ai+1 falls 1 ≤ i ≤ k − 1 und

• a1x1, . . . , akxk ist eine Basis von M.

Die a j sind bis auf Assoziiertheit durch M eindeutig bestimmt, sie werden dieElementarteiler von M genannt.

Insbesondere folgt: Ein Untermodul eines endlich-freien Moduls ist endlich-frei!

Beweis. Sei b1, . . . , bn eine Basis von F. Wir zeigen durch Induktion nach n, dass Mendlich erzeugt ist, und zwar durch hochstens n Erzeuger. Fur n = 1 ist M ein Ideal

Page 102: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 102

und also durch ein Element erzeugt. Sei also n > 1. Setze F′ =∑n−1

j=1 Rb j und F′′ = Rbn.Sei π : F→ F′′ die Projektion, dann hat man eine kurze exakte Sequenz

0→ F′ → F→ F′′ → 0.

Die Moduln M ∩ F′ und π(M) sind erzeugt durch n − 1 bzw einen Erzeuger und manzeigt wie im Korperfall, dass ein Erzeugendensystem von M ∩ F′ erweitert um einUrbild eines Erzeugers von π(M) ein Erzeugendensystem von M bildet, M ist alsoendlich erzeugt mit ≤ n Erzeugern. Sei z1, . . . , zn ein Erzeugendensystem von M undbetrachte die Matrix A der lineran Abbildung F � Kn

→ Kn � F gegeben durch b j 7→ z j.Fasse die Matrizen S und T aus Satz 4.6.4 als Basiswechsel auf, so folgt dieBehauptung. �

Proposition 4.6.6. Sei R ein Hauptidealring.

(a) Je zwei Basen eines endlich-freien Moduls M haben die gleiche Lange, wir nennen dieseZahl die Dimension von M.

(b) Ist M endlich-frei und N ⊂M ein Untermodul, dann ist N endlich-frei unddim(N) ≤ dim(M).

Beweis. (a) gilt fuer beliebige Ringe und wurde schoin in Proposition 4.5.13 bewiesen.(b) folgt ebenso aus dem Elementarteilersatz. �

4.7 Der chinesische Restsatz

Definition 4.7.1. Zwei Ideale I, J in einem Ring heißen teilerfremd, falls I + J = R gilt.

Beispiel 4.7.2. In R = Z sind die Hauptideale mZ und nZ genau dann teilerfremd,wenn die Zahlen m und n keine echten gemeinsamen Teiler haben, wenn also m und nteilerfremd sind.

Beweis. Seien die Ideale teilerfremd, dann ist 1 ∈ mZ + nZ, es gibt also a, b ∈ Zmitam + bn = 1. Wuerden nun m und n von einer Primzahl p geteilt, dann wuerde auch 1von p geteilt, was ein Widerspruch ist.

Seien umgekehrt die Zahlen m und n teilerfremd. Das Ideal mZ + nZ ist einHauptideal, also von der Form gZ fuer ein g ∈N. Dann ist m ∈ gZ also folgt g|m undebenso g|n und daher ist g = 1, also sind die Ideale mZ und nZ teilerfremd. �

Page 103: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 103

Definition 4.7.3. Sind I und J Ideale, so definieren wir das Ideal IJ als

IJ =

n∑j=1

a jb j : a j ∈ I, b j ∈ J

.Sind etwa beides Hauptideale, I = (a) und J = (b), dann ist auch IJ ein Hauptideal,namlich IJ = (ab).

Lemma 4.7.4. Sind die Ideale I und J teilerfremd, dann gilt

IJ = I ∩ J.

Beweis. Die Inklusion “⊂” gilt auch ohne die Teilerfremdheit, da IJ ⊂ IR = I undebenso fuer J.

Zum Beweis von “⊃” seien also I und J teilerfremd, also gibt es Elemente a ∈ I undb ∈ J mit 1 = a + b. Sei dann x ∈ I ∩ J, dann ist x = ax + bx und da axund bx beide in IJliegen, ist x ∈ IJ. �

Satz 4.7.5 (Chinesischer Restsatz). Sei R ein Ring und I1, . . . , Ir seien parweiseteilerfremde Ideale. Sei I = I1 · · · Ir = I1 ∩ · · · ∩ Ir, dann liefern die kanonischenProjektionen einen Isomorphismus

R/I �r∏ν=1

R/Iν.

Beweis. Da Iν ⊃ I fur jedes ν, gibt es kanonische Projektionen πν : R/I→ R/Iν, alsoeinen Ringhomomorphismus

π : R/I→r∏ν=1

R/Iν.

Injektivitat: Sei π(x) = 0, und x ∈ R ein Urbild von x. Dann ist x ∈ Iν fur jedes ν. Nunsind die Iν paarweise teilerfremd, also gibt es beispielsweise a ∈ I1, b ∈ I2 mit a + b = 1.Dann ist x = 1 · x = (a + b)x = ax + bx. Da x ∈ I2 und a ∈ I1, ist ax ∈ I1I2 und ebenso furbx, also ist x ∈ I1I2. Nun ist I1I2 immer noch teilerfremd zu I3, . . . , Ir, denn sind a ∈ I1

Page 104: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 104

und b ∈ I3 mit a + b = 1 und x ∈ I2 und y ∈ I3 mit x + y = 1, so gilt

1 = (a + b)(x + y) = ax︸︷︷︸∈I1I2

+ ay + bx + by︸ ︷︷ ︸∈I3

.

Also kann man induktiv fortfahren und erhalt schließlich x ∈ I1 · · · Ir = I, d.h., π istinjektiv.

Surjektivitat. Fur die Surjektivitat reicht es, zu zeigen, dass es Elemente x j ∈ R gibt, mitπ j(x j) = 1 und πk(x j) = 0 fur k , j. Modulo Umnummerierung reicht es, x1

nachzuweisen. Seien a ∈ I und b ∈ I2 · · · Ir mit a + b = 1. Dann ist x1 = b das gewunschteElement. �

Korollar 4.7.6. Sei R ein Hauptidealring und sei

a = εpν11 · · · p

νrr

eine Primfaktorzerlegung mit einer Einheit und paaweise nicht assoziierten Primelementen pi.Ist πi : R→ R/pνi

i R jeweils die kanonische Projektion, dann ist der Homomorphismus

π : R→r∏

i=1

R/pνii R

surjektiv mit Kern aR, induziert also einen Isomorphismus

R/aR �r∏

i=1

R/pνii R.

Beweis. Klar nach Chinas Restsatz, da nichtassoziierte Primelemente teilerfremdsind. �

4.8 Endlich erzeugte Moduln uber Hauptidealringen

Definition 4.8.1. Sei M ein Modul des Hauptidealrings R. Der Torsionsuntermodul istdefiniert als

T ={x ∈M : ∃r∈R r , 0, rx = 0

}.

Dann ist T ein Untermodul. M heißt Torsionsmodul, falls M mit T ubereinstimmt.

Page 105: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 105

Beispiele 4.8.2. • Ist M eine abelsche Gruppe alsZ-Modul aufgefasst, dann ist derTorsionsuntermodul genau die Menge der Elemente endlicher Ordnung.

• Z/m ist ein Torsionsmodul unter Z.

• Ist K ein Korper und ist R = K[x]. Sei V ein R-Modul, der als K-Vektorraumendliche Dimension hat. Dann ist V ein Torsionsmodul.

Beweis. Sei T der Operator auf V, durch den x operiert. Sei f (x) dascharakteristische Polynom von T. Dann ist f (T)v = 0 fur jedes v, also ist jedes vTorsion. �

Satz 4.8.3. Sei M ein endlich erzeugter Modul uber einem Hauptidealring R und T ⊂Msein Torsionsmodul. Dann gibt es einen endlich-erzeugten freien Untermodul F ⊂M, etwaF � Rd, sowie Nichteinheiten α1, . . . , αn ∈ R r 0, mit α j | α j+1 fur 1 ≤ j ≤ n − 1 und

M = F ⊕ T, T �n⊕

j=1

R/α jR.

Dabei ist d eindeutig bestimmt und wird der Rang von M genannt. Die Elementeα1, . . . , αn sind eindeutig bestimmt bis auf Assoziiertheit.

Es gilt ferner

T �N⊕ν=1

R/peνν R,

wobei p1, . . . , pN Primelemente sind und e1, . . . , eN ∈N und die Primpotenzen peνν sind bis

auf Reihenfolge und Assoziiertheit eindeutig bestimmt.

Beweis. Da M endlich erzeugt ist, gibt es einen surjektiven Homomorphismusφ : Rr

→M, also M � Rr/ker(φ). Nach dem Elementarteilersatz fur Moduln existierteine Basis x1, . . . , xr von Rr und Elemente α1, . . . , αn ∈ R mit α1 | · · · | αn, so dassα1x1, . . . , αnxn eine Basis von kerφ ist. Wir setzen αn+1 = · · · = αr = 0 und betrachtenden surjektiven Homomorphismus

ψ : Rr =

r⊕j=1

R→r⊕

j=1

R/α jR.

Page 106: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 106

mit ψ(γ1, . . . , γr) = (γ1, . . . , γr). Nach Konstruktion ist kerφ = kerψ und daher

M � Rr/kerφ � Rn−r⊕

n⊕j=1

R/α jR,

wobei wir eventuelle Sumanden mit α j ∈ R×, also R/α jR = 0 unterdrucken. DieSumme

⊕nj=1 R/α jR ist genau der Torsionsmodul der rechten Seite und daher ist die

Zerlegung eindeutig.

Der Zusatz folgt, indem man die Primfaktorzerlegung der α j betrachtet und denchinesischen Restsatz benutzt. Die Eindeutigkeit der Primpotenzen folgt aus derEindeutigkeit der α j und der Eindeutigkeit der Primfaktorzerlegung. �

4.9 Jordan-Normalform

Wir betrachten nun den Fall R = K[x] fur einen Korper K. Ein Modul uber R bestehtaus einem K-Vektorraum V zusammen mit einem Endomorphismus T : V → V, wobeix ∈ R durch T operiert. Ein Modulhomomorphismus Φ : (V,T)→ (W,S) ist eine lineareAbbildung Φ : V →W mit ΦT = SΦ.

Zu λ ∈ K sei pλ das Primelement pλ(x) = x − λ in R. Sei W = R/pkλ fur ein k ∈N. Dann

ist W ein K-Vektorraum der Dimension k mit der Basisv1 = [(x − λ)k−1], v2 = [(x − λ)k−2], . . . , vk = [(x − λ)0]. Sei T : W →W der durch xinduzierte Operator, dann folgt (T − λ)v j = v j+1, wenn wir formal vk+1 = 0 setzen. Mitanderen Worten, in der Basis v1, . . . , vk ist T durch die Jordan-Matrix

Jk(λ) =

λ 1

. . . . . .. . . 1

λ

gegeben.

Satz 4.9.1 (Jordan-Normalform). Sei T : V → V ein Endomorphismus desendlich-dimensionalen K-Vektorraums V. Nimm an, dass das charakteristische PolynomχT in Linearfaktoren zerfallt. Dann hat V eine Basis bezuglich der T durch eine

Page 107: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 107

Jordan-Matrix der Form Jk1(λ1)

. . .

Jks(λs)

dargestellt wird.

Beweis. Der R-Modul (V,T) ist Torsion, hat also eine Zerlegung der Form

N⊕j=1

R/ps j

j R,

wobei die p j Primelemente sind. Da χT durch Null operiert, ist χTR ⊂ ps j

j R fur jedes j.Das bedeutet p j | χT. Da χT in Linearfaktoren zerfallt, muss p j selbst einer sein, alsop j(x) = x − λ j. Damit folgt die Behauptung nach unseren Vorbemerkungen. �

4.10 Der Hauptsatz ueber endlich-erzeugte abelsche Gruppen

Satz 4.10.1. Sei G eine endlich-erzeugte abelsche Gruppe, dann gibt es eine eindeutigbestimmte Zahl r ∈N0 und eindeutig bestimmte Primzahlpotenzen q1 ≤ q2 ≤ · · · ≤ qs sodass

G � Zr⊕

s⊕j=1

Z/q jZ.

Beweis. Folgt direkt aus Satz 4.8.3 fuer den Ring R = Z, dennZ-Moduln sind dasselbewie abelsche Gruppen. �

Page 108: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

IndexR-lineare Abbildung, 94Bil(V), 18U(n), 40(zweiseitiges) Ideal, 67ahnlich, 20aussere Algebra, 62

abgeschlossene Einheitsball, 11adjungierte Abbildung, 35adjungierte Matrix, 37Algebra, 58Algebra mit Eins, 58Algebra ohne Eins, 58Algebrenhomomorphismus, 65Algebrenisomorphismus, 65alternierend, 53, 57Annullator, 81assoziativ, 58assoziiert, 86

Basis, 96bilinear, 47Bilinearform, 14

Dimension, 96, 102Division mit Rest, 82

Einheit, 76Eins, 58Elementarteiler, 100, 101endlich-frei, 96Endomorphismus, 35Erzeugendensystem, 95erzeugte Ideal, 67euklidische Norm, 11euklidischer Raum, 26

euklidischer Ring, 82

faktoriell, 89formalen Potenzreihen, 75freier Modul, 96

Gaußsche Zahlring, 74großten gemeinsamen Teiler, 90Gradabbildung, 82

Halbraum, 8Hauptideal, 81Hauptidealring, 81hermitesche Form, 25

Ideal, 80integer, 77Integritatsring, 77invertierbar, 76, 99irreduzibel, 87

kanonische Bilinearform, 14kleinste gemeinsame Vielfache, 90kommutativer Ring mit Eins, 73komplementar, 95komplexe Struktur, 6Komplexifizierung, 4kongruent, 20konjugiert, 20konjugiert-lineare Abbildung, 25konvex, 7konvexe Huelle, 8

Lange, 97linear unabhangig, 96Lokalisierung, 92

108

Page 109: Lineare Algebra 2 - uni-tuebingen.de€¦ · Lineare Algebra 2 7 also ist T komplex-linear. (b) Sei J : V !V mit J2 = 1. Dann ist das Minimalpolynom von J gleich x2 + 1 = (x i)(x

Lineare Algebra 2 109

Matrix von b, 17maximales Ideal, 85Maximumsnorm, 10, 31Modul, 93Modulhomomorphismus, 94Monome, 71multilinear, 55multiplikativ abgeschlossene Teilmenge,

92

negativ definit, 22negativ semidefinit, 22nicht ausgeartet, 17Norm, 9normal, 39Nullring, 74Nullteiler, 76nullteilerfrei, 77

orthogonal, 39Orthogonalbasis, 21Orthogonalprojektion, 34Orthogonalraum, 33Orthogonalzerlegung, 22orthonormal, 31Orthonormalbasis, 31

Parallelogrammidentitaet, 29Polynom, 2polynomiale Abbildung, 3Polynomring in mehreren Unbekannten,

74positiv definit, 22, 42, 44positiv semidefinit, 22Primelement, 87Primideal, 86Projektion, 34

Quaternionenalgebra, 59

Rang, 105rationalen Funktionen, 93reine Tensoren, 49Ring, 73Ringhomomorphismus, 77

Schiefkoerper, 59selbstadjungiert, 37senkrecht, 25Signatur, 23Skalarprodukt, 24, 25standard Skalarprodukt, 24, 25Summe, 94Summennorm, 10, 31symmetrisch, 20, 37, 52, 57symmetrische Algebra, 70

Teiler, 86teilerfremd, 102teilt, 86tensorielle Algebra, 66Tensorprodukt, 48Torsionsmodul, 104Torsionsuntermodul, 104

unitar, 38, 40unitare Gruppe, 40unitarer Raum, 26unitale Algebra, 58Untermodul, 94