Lineare Algebra - home.mathematik.uni-freiburg.dehome.mathematik.uni-freiburg.de/ziegler/skripte/la.pdf · Lineare Algebra Martin Ziegler Freiburg WS 11/12, SS 121 2 1version14-3-g03d68a2,ThuOct2913:38:022015+0100

  • Upload
    donhi

  • View
    215

  • Download
    0

Embed Size (px)

Citation preview

  • Lineare Algebra

    Martin Ziegler

    Freiburg WS 11/12, SS 121 2

    1version14-3-g03d68a2, Thu Oct 29 13:38:02 2015 +01002Ich danke Heike Mildenberger, Enrique Casanovas und Christina Pflanz fr eine

    kritische Durchsicht.

  • Inhaltsverzeichnis

    1 Der n-dimensionale euklidische Raum 1

    1.1 Lineare Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . 1

    1.2 Der Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

    1.3 Geraden und Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . 8

    1.4 Das Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    1.5 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . 11

    2 Vektorrume 17

    2.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

    2.2 RVektorrume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

    2.3 Endlichdimensionale Vektorrume . . . . . . . . . . . . . . . . . 25

    2.4 Unendlichdimensionale Vektorrume . . . . . . . . . . . . . . . . 30

    2.5 Der Verband der Unterrume . . . . . . . . . . . . . . . . . . . . 32

    2.6 Krper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

    3 Lineare Abbildungen 41

    3.1 Der Noethersche Isomorphiesatz . . . . . . . . . . . . . . . . . . 41

    3.2 Die lineare Gruppe . . . . . . . . . . . . . . . . . . . . . . . . . . 45

    3.3 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

    i

  • 4 Determinanten 52

    4.1 Die Signatur einer Permutation . . . . . . . . . . . . . . . . . . . 52

    4.2 kFormen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

    4.3 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

    4.4 Der Laplacesche Entwicklungssatz . . . . . . . . . . . . . . . . . 62

    4.5 Geometrische Interpretation . . . . . . . . . . . . . . . . . . . . . 64

    5 Endomorphismen 67

    5.1 Diagonalisierbare Endomorphismen . . . . . . . . . . . . . . . . . 67

    5.2 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . 70

    5.3 Zerlegung in Hauptrume . . . . . . . . . . . . . . . . . . . . . . 76

    5.4 Die Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . 79

    6 Dualitt 84

    6.1 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

    6.2 Duale Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . 86

    6.3 Duale Paare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

    7 Symmetrische Bilinearformen 94

    7.1 Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

    7.2 Symmetrische Bilinearformen . . . . . . . . . . . . . . . . . . . . 95

    7.3 Euklidische Rume . . . . . . . . . . . . . . . . . . . . . . . . . . 98

    7.4 Die Hauptachsentransformation . . . . . . . . . . . . . . . . . . . 103

    7.5 Unitre Rume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

    8 Multilineare Algebra 118

    ii

  • 8.1 Tensorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

    8.2 Tensorprodukt und Dualitt . . . . . . . . . . . . . . . . . . . . . 124

    8.3 Die uere Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . 126

    8.4 uere Algebra und Dualitt . . . . . . . . . . . . . . . . . . . . 133

    8.5 Die uere Algebra eines euklidischen Raumes . . . . . . . . . . . 135

    Index 138

    iii

  • Kapitel 1

    Der n-dimensionaleeuklidische Raum

    1.1 Lineare Gleichungen

    Eine lineare Gleichung (ber R) ist ein Ausdruck der Form

    1x1 + . . .+ nxn = ,

    fr reelle Zahlen i und . Eine Lsung ist ein n-Tupel

    (1, . . . , n)

    von reellen Zahlen, das die Gleichung erfllt.

    Ein lineares Gleichungssystem G (in n Variablen) ist ein System

    11x1 + + 1nxn = 1......

    m1x1 + + mnxn = m

    von linearen Gleichungen. In Kurzform

    nj=1

    ijxj = i (i = 1, . . . ,m).

    Die Lsungsmenge von G ist

    L(G) ={

    (1, . . . , n) 1, . . . n R, n

    j=1

    ijj = i (i = 1, . . . ,m)}

    1

  • ,

    Das System A der i,j heit die Matrix von G Die Spalte der i ist die rechteSeite von G. m ist die Zahl der Zeilen von A, n die Zahl der Spalten. 1

    Ein Gleichungssystem heit homogen, wenn seine rechte Seite Null ist und qua-dratisch, wenn seine Matrix quadratisch ist, also wenn m = n.

    Ein Gleichungssystem G ist in Normalform, wenn es die Gestalt

    x1 + 1,k+1xk+1 + 1,nxn = 1x2 + 2,k+1xk+1 + 2,nxn = 2

    . . ....

    ......

    xk + k,k+1xk+1 + k,nxn = k0 = k+1...

    ...0 = m

    hat. k heit der Rang von G. Beachte, da 0 k min(m,n). In Normalformzu sein und der Rang sind Eigenschaften der Matrix von G.

    G ist genau dann lsbar, wenn k+1 = . . . = m = 0. Um die Lsungsgesamtheitzu bestimmen, gibt man sich k+1 , . . . , n beliebig vor und whlt die 1, . . . , kso, da

    i +

    nj=k+1

    i,jj = i

    fr i = 1, . . . , k.

    Die Lsungsmenge{(1

    nj=k+1

    1,jj , . . . , k n

    j=k+1

    k,jj , k+1 , . . . , n) k+1 , . . . , n R}

    ist also (n k)-parametrig .

    Lemma 1.1.1. Sei A eine Matrix in Normalform mit m Zeilen, n Spaltenund Rang k. Dann ist k = n genau dann, wenn alle Gleichungssysteme mitMatrix A hchsten eine Lsung haben. Und es ist k = m genau dann, wenn alleGleichungssystem mit Matrix A lsbar sind.

    Beweis. Klar.

    Eine Zeilenoperation macht aus G ein neues Gleichungssystem durch Multipli-kation der iten Zeile mit einer Zahl 6= 0 oder durch Addieren des fachen

    1i ist der Zeilenindex, j der Spaltenindex2. Wenn keine Miverstndnisse entstehen knnen,lassen wir das Komma weg: ij .

    2In einer frheren Version wurde das verwechselt. Ich danke S. Stroppel fr den Hinweis.

    2

  • der iten Zeile zur iten Zeile (i 6= i). Wir bezeichnen diese Operation mit Zibzw. Zi,i . Zeilenoperationen sind umkehrbar: Z

    1

    i ist die Umkehrung von Ziund Zi,i die Umkehrung von Z

    i,i .

    Lemma 1.1.2. Ein Gleichungssystem G, das aus G durch Zeilenoperationenhervorgeht, hat die gleichen Lsungen wie G.

    Beweis. Fr die Operation Zi sieht man das zum Beispiel so: Sei

    1x1 + . . .+ nxn = b

    die ite Zeile des Gleichungssystems. (1, . . . , n) ist genau dann eine Lsungdieser Gleichung, wenn 11 + . . .+nn = b. Das ist genau dann der Fall, wenn

    (11 + . . .+ nn) = (1)1 + . . .+ (n)n = b,

    das heit, wenn (1, . . . , n) eine Lsung der Gleichung

    (1)x1 + . . .+ (n)xn = b

    ist.

    Satz 1.1.3. Jedes lineare Gleichungssystem lt sich durch Zeilenoperationenund Vertauschung von Variablen (d.h. von Spalten der Matrix) in Normalformbringen.

    Die Matrix A der Normalform hngt nur von der Matrix A des Gleichungssy-stems ab. Wir nennen A eine Normalform von A.

    Beweis: Wir berlegen uns zuerst, da man durch vier Zeilenoperationen zweiZeilen vertauschen kann. Denn sei zum Beispiel a die erste Zeile und b die zweiteZeile des Gleichungssystems. Nach Anwendung der Operationen Z11,2, Z

    12,1, Z

    11,2,

    Z11 sind a und b vertauscht:

    a

    b a

    a+ b b

    a+ b b

    a b

    a.

    Schritt 1:Wenn alle Koeffizienten der Matrix des Gleichungssystems gleich Null sind, hatdas Gleichungssystems bereits Normalform mit Rang k = 0.Wenn es einen nichtverschwindenden Koeffizienten gibt, knnen wir durch Zei-

    len und Spaltenvertauschung erreichen, da 1,1 6= 0. Nach Z11,11 ist

    1,1 = 1.

    (Man beachte, da sich die Bedeutung der i,j gendert hat.) Dann wenden wirZ2,11,2 ,. . . , Z

    m,11,m an und haben

    2,1 = . . . = m,1 = 0.

    3

  • Wir notieren die so erreichte Gleichung durch1 1,2 1,n 10 2,2 2,n 2...

    ......

    ...0 m,2 m,n m

    Schritt 2:Wenn i,j = 0 fr alle i, j 2 sind wir fertig. Das Gleichungssystems hatNormalform mit Rang k = 1.Wenn i,j 6= 0, fr zwei Indizes 2, vertauschen wir die 2te Zeile mit deriten Zeile und die 2te Spalte mit der jten Spalte und erreichen 2,2 6= 0.Nach Z2,212 ist

    2,2 = 1.

    Schlielich wenden wir Z1,22,1 , Z3,22,3 , . . . , Z

    m,22,m an und haben

    1,2 = 3,2 = . . . = m,2 = 0,

    In unserer symbolischen Notation1 0 1,3 1,n 10 1 2,3 2,n 20 0 3,3 3,n 3...

    ......

    ......

    0 0 m,3 m,n m

    Auf diese Weise verwandeln wir der Reihe nach die Spalten der Matrix desGleichungssystems in Nullspalten, in denen nur an der Diagonalstelle eine Einssteht. Dieses Verfahren bricht sptestens ab, wenn keine neuen Spalten oderZeilen mehr zur Verfgung stehen, also nach hchstens min(m,n) Schritten:

    1 0 0 1,k+1 1,n 10 1 0 2,k+1 2,n 2...

    .... . .

    ......

    ......

    0 0 1 k,k+1 k,n k0 0 0 0 0 k+1...

    ......

    ......

    ...0 0 0 0 0 m

    2

    Folgerung 1.1.4. Sei A eine Matrix in Normalform mit m Zeilen, n Spalten.k sei der Rang einer Normalform von A. Ein Gleichungssystem mit Matrix Ahat entweder keine Lsung oder ein n kparametriges Lsungssystem. Es istk = m genau dann, wenn alle Gleichungssysteme mit Matrix A lsbar sind, undk = n genau dann, wenn alle Gleichungssystem mit Matrix A hchstens eineLsung haben.

    4

  • Beweis: Das folgt aus Lemma 1.1.1 und der Umkehrbarkeit der Zeilenopera-tionen. 2

    Folgerung 1.1.5. Ein homogenes Gleichungssystem mit weniger Gleichungenals Variablen hat eine nichttriviale Lsung.

    Beweis: Ein homogenes Gleichungssystem hat immer die triviale Lsung(0, . . . , 0). Weil k m, ist die Lsungsmenge mindestens nm > 0parametrig.(Man kann also mindestens den Wert von n frei whlen.)

    Wir geben noch einen alternativen Beweis, der unabhngig von Satz 1.1.3 ist.Wir zeigen die Behauptung durch Induktion ber n, die Zahl der Variablen.Induktionsanfang:Wir beginnen bei n = 1. Das Gleichungssystem enthlt dann keine Gleichung.Jeder Wert fr 1 ist eine Lsung. Zum Beispiel 1 = 1.

    Induktionsschritt:Nehmen wir an, da n 2 und die Behauptung fr Gleichungssysteme mitn 1 Variablen gilt. G sei ein Gleichungssystems mit n Variablen und m < nGleichungen. Wir unterscheiden zwei Flle:Wenn alle Gleichungen trivial sind (d.h. alle Koeffizienten sind Null), sind wirfertig. Jedes nTupel (1, . . . , n) ist eine Lsung.Sonst ordnen wir die Gleichungen und Variablen um, bis die erste Gleichung g1die Form

    1x1 + . . .+ nxn = 0

    fr ein 1 6= 0 hat. Wir subtrahieren geeignete Vielfache von g1 von den brigenGleichungen g2, . . . , gm bis die Variable x1 in diesen Gleichungen nicht mehrvorkommt. Jetzt wenden wir die Induktionsvoraussetzung auf g2, . . . , gn an (einGleichungssystem mit n 1 Variablen und m 1 Gleichungen). Wir erhalteneine nichttriviale Lsung (2, . . . , n), die wir durch

    1 = nj=2 jj

    1

    zu einer Lsung von G erweitern. 2

    Da (1, . . . , n) ein Lsung von G ist, lt sich als eine lineare Abhngigkeit

    1a1 + . . .+ nan = b

    zwischen den Spalten

    a1 =

    1,1...m,1

    , . . . , an =1,n...m,n

    , b =1...m

    ausdrcken. Wenn G in Normalform (von Rang k) ist, bestehen zwischen dena1, . . . , ak keine lineare Abhngigkeiten. Die brigen Spalten ai und wenn dasGleichungssystem lsbar ist auch b lassen sich eindeutig als Linearkombinationder ersten k Spalten ausdrcken:

    5

  • 1,ia1 + + k,iak = ai1a1 + + kak = b

    Derartige lineare Abhngigkeiten zwischen Spalten eines Gleichungssystems wer-den offensichtlich von Zeilenoperationen nicht gendert. Daraus folgt

    Folgerung 1.1.6. Wenn man ein Gleichungssystem durch Zeilenoperationen3in Normalform bringt, erhlt man immer die gleiche Matrix. Wenn das Glei-chungssystem lsbar ist, ist auch die rechte Seite eindeutig bestimmt.

    Wenn man Spaltenvertauschung zult, bleibt nur der Rang erhalten.

    Satz 1.1.7. Wenn man ein Gleichungssystem durch Zeilenoperationen und Spal-tenvertauschungen in Normalform bringt, erhlt man immer denselben Rang.

    Definition. Eine Folge von Spalten gleicher Lnge heit linear unabhngig,wenn sich keine der Spalten als Linearkombination der anderen schreiben lt.

    Bemerkung. a1, , an sind genau dann linear unabhngig, wenn wenn fralle 1, . . . n R

    0 = 1a1 + . . .+ nan = 1 = = n = 0.

    Beweis. Wenn 0 = 1a1 + . . . + nan und 1 6= 0, ist a1 =ni=2

    i1ai. Wenn

    umgekehrt a1 =ni=2 iai, ist 0 = a1 + 2a2 + . . .+ nan.

    Eine einzelne Spalte a1 ist linear unabhngig, wenn a1 6= 0. Die leere Folge(n = 0) is linear unabhngig per Definition.

    Beweis von 1.1.7. Wir berlegen uns, da der Rang eines Gleichungssystems Gin Normalform die maximale Zahl linear unabhngiger Spalten der Matrix vonG ist. Die ersten k Spalten sind linear unabhngig. Seien ai1 , . . . , aik+1 beliebigeSpalten. Weil die Eintrge dieser Spalten ab dem Zeilenindex k + 1 gleich Nullsind, hat das Gleichungssystem

    x1ai1 + . . .+ xk+1, aik+1 = 04

    nur k wirkliche Gleichungen. Nach 1.1.5 gibt es eine nichttriviale Lsung, waszeigt, da die ai1 , . . . , aik+1 linear abhngig sind.

    3Also ohne Spalten zu vertauschen. Man kann die Folgerung auch so ausdrcken: DieNormalform hngt nur von den Spaltenvertauschungen ab.

    40 bezeichnet hier die Nullspalte (siehe S.12)

    6

  • 1.2 Der Rn

    Da Produkt X1 . . .Xn einer Folge von Mengen ist die Menge

    {(x1, . . . , xn) | xi Xi(i = 1, . . . , n)}

    aller nTupel, deren ite Komponente aus Xi ist. Xn ist das nfache direkteProdukt von X.

    Rn = {(1, . . . , n) | 1, . . . , n R}

    ist der n-dimensionale euklidische Raum.

    Spezialflle: R0 wird als der Nullraum 0 = {0} vereinbart.R1 sind die reellen Zahlen selbst.R2 ist die euklidische Ebene.

    Je nach Zusammenhang heien die Elemente des Rn Punkte oder Vektoren.

    Vektoren knnen addiert und mit reellen Zahlen (Skalaren) multipliziert werden.Seien a = (i) und b = (i) Vektoren und R. Dann definiert man

    a+ b = (i + i)

    a = (i).

    Mit 0 bezeichnen wir den Nullvektor (0, . . . , 0).

    Lemma 1.2.1. Fr die Addition gelten die folgenden Rechenregeln.

    a) (x+ y) + z = x+ (y + z)

    b) x+ 0 = 0 + x = x

    c) Zu jedem x gibt es ein y mit x+ y = 0.

    d) x+ y = y + x

    und fr die Multiplikation

    a) (x+ y) = x+ y

    b) (+ )x = x+ x

    c) (x) = ()x

    d) 1x = x

    7

  • Beweis. Diese Rechenregeln gelten fr reelle Zahlen (den R1), also auch fr Rn.Zum Beispiel ist

    (+ )(1, . . . , n) = ((+ )1, . . . , (+ )n)

    = (1 + 1, . . . , n + n)

    = (1, . . . , n) + (1, . . . , n)

    = (1, . . . , n) + (1, . . . , n)

    Das beweist b).

    1.3 Geraden und Ebenen

    Definition. Eine (affine) Gerade g in Rn ist eine Menge der Form

    g = {a+ v | R} = a+ Rv,

    wobei v 6= 0.

    Der Richtungsraum Rv ist durch g eindeutig bestimmt als die Menge der Diffe-renzen x y der Elemente von g. Wenn w zum Richtungsraum Rv gehrt, istw + Rv = Rv und g = (a+ w) + Rv ist eine andere Darstellung von g. Fr alleb g ist also g = b+ Rv.

    Aus diesen Bemerkungen folgt

    Lemma 1.3.1. Zwei Geraden a+Rv und b+Rw sind genau dann gleich, wennRv = Rw und a b Rv.

    Wenn v und w nicht null sind, ist Rv = Rw genau dann, wenn v und w linearabhngig sind.

    Lemma 1.3.2. Durch zwei verschiedene Punkte des Rn geht genau eine Gerade.

    Beweis: Sei g eine Gerade durch a. Dann hat g die Gestalt a + Rv und wenng auch b enthlt, ist a b Rv. Daraus folgt Rv = R(a b). Das beweist dieEindeutigkeit. 2

    Definition. Zwei Geraden heien parallel, wenn sie die gleichen Richtungsru-me haben.

    Verschiedene parallele Geraden knnen sich nicht schneiden.

    Definition. Eine affine Ebene E ist eine Menge der Form a + Rv + Rw, frlinear unabhngige v und w.

    8

  • Der Richtungsraum Rv + Rw ist durch E eindeutig bestimmt als Menge allerDifferenzen a b von Elementen von E.

    Lemma 1.3.3. Zwei nicht parallele Geraden, die in einer Ebene liegen, schnei-den sich.

    Beweis: Sei E = c + Rv1 + Rv2 und g1 = a1 + Rw1 und g2 = a2 + Rw2 zweiGeraden in E. Wir suchen zwei Zahlen 1 und 2 mit

    a1 + 1w1 = a2 + 2w2.

    Wenn wir die Geraden in den Koordinaten von E beschreiben (i = 1, 2):

    ai = c+ 1iv1 + 2iv2

    wi = 1iv1 + 2iv2

    werden wir auf das Gleichungssystem

    111 122 = 11 + 12211 222 = 21 + 22

    gefhrt. Weil g1 und g2 nicht parallel sind, sind w1 und w2 linear unabhngig

    und daher auch die Spalten der Matrix(11 1221 22

    ). Nach 1.1.7 und 1.1.4 hat

    Gleichungssystem eine Lsung. 2

    1.4 Das Skalarprodukt

    Das Skalarprodukt zweier Vektoren a = (i) und b = (i) ist

    ab = 11 + . . .+ nn.

    Lemma 1.4.1. Das Skalarprodukt ist eine symmetrische, positiv definite Bili-nearform. Das heit

    (a+ b)c = ac+ bc und a(b+ c) = ab+ ac

    (a)b = a(b) = (ab)

    ab = ba

    a2 0

    a2 = 0 gdw. a = 0.

    Die letzte Eigenschaft, die Positivdefinitheit, gilt, weil eine Quadratsumme 21 +. . .+ 2n niemals negativ ist, und nur gleich Null, wenn alle i Null sind.

    9

  • Nach dem Satz von Pythagoras in der euklidischen Geometrie ist die Lnge derDiagonale eines Quaders die Wurzel aus der Quadratsumme der Seiten. Wirdefinieren demgem:

    Definition. Die Norm oder Lnge von a ist

    a =a2.

    Zwei Vektoren a und b heien orthogonal , wenn ihr Skalarprodukt ab gleich Nullist. Allgemeiner definiert man:

    Definition. Der Winkel zwischen zwei nichttrivialen Vektoren ist definiertdurch 0 und

    (1.1) cos() =ab

    ab.

    Die Definition ist sinnvoll5, weil aus dem nchsten Lemma folgt, da

    1 abab

    1.

    Lemma 1.4.2 (Cauchy-Schwarzsche Ungleichung).

    |ab| ab

    Die Gleichheit gilt genau dann, wenn a und b linear abhngig sind.

    Beweis: Fr beliebige ist

    (1.2) (a+ b)2 = a2 + 2ab+ 2b2 0.

    Fr = abb2

    ergibt sich

    a2 2(ab)2

    b2+

    (ab)2

    b2 0.

    (Wir knnen uns auf den Fall b 6= 0 beschrnken.) Daraus folgt (ab)2 a2b2,wie behauptet.

    Wenn a und b linear unabhngig sind, ist die linke Seite von 1.2 immer ungleichNull und es folgt (ab)2 < a2b2. 2

    5Da die Definition mit der Anschauung der euklidischen Geometrie bereinstimmt, dis-kutieren wir auf Seite 16.

    10

  • Lemma 1.4.3 (Dreiecksungleichung).

    a+ b a+ b

    Beweis. Aus der CauchySchwarzschen Ungleichung folgt

    a+ b2 = (a+ b)2 = a2 + 2ab+ b2 a2 + 2ab+ b2 =(a+ b

    )2.

    Folgerung 1.4.4. Der Rn mit dem Abstand

    d(x, y) = x y

    ist ein metrischer Raum.

    Ein metrischer Raum ist eine Menge X mit einer Funktion d : X X R, frdie

    d(x, y) 0 fr alle x, y X.

    d(x, y) = 0 genau dann, wenn x = y.

    d(x, y) = d(y, x)

    d(x, z) d(x, y) + d(y, z)

    1.5 Lineare Abbildungen

    Eine Abbildung f : Rn R heit linear , wenn fr reelle Zahlen 1, . . . , n

    f(1, . . . , n) = 11 + . . .+ nn.

    f heit auch Linearform6. Fr die kanonischen Basisvektoren7 ei = (1, . . . , n),definiert durch

    j =

    {0 ,wenn j 6= i1 ,wenn j = i,

    gilt f(ei) = i. Eine Abbildung f = (f1, . . . , fm) von Rn nach Rm heit linear ,wenn alle Komponenten fi : Rn R linear sind. L(Rn,Rm), die Mengeder linearen Abbildungen ist ein RVektorraum unter wertweiser Addition undMultiplikation mit Skalaren.

    Eine mnMatrix

    A =

    11 12 1n21 22 2n...

    ......

    m1 m2 mn

    6Oder lineares Funktional7Basisvektoren nennt man auch Einheitsvektoren.

    11

  • ist eine mit Zahlenpaaren aus {1 . . .m} {1 . . . n} indizierte Familie

    (ij) i=1...mj=1...n

    .8

    Mit elementweiser Addition und Multiplikation mit Skalaren bildet die MengeMmn(R) der m-nMatrizen einen RVektorraum. 1-nMatrizen heien Zeilen-vektoren, m-1Matrizen Spaltenvektoren.

    Spezielle Matrizen: 0 ist die mnMatrix, deren Elemente Nullen sind. Die Ein-

    heitsmatrix I ist die mmMatrix (ij), wobei ij =

    {0 wenn i 6= j1 sonst

    . (Man

    nennt ij "Kroneckers Delta".)

    I =

    1

    1. . .

    1

    Eine nnMatrix heit quadratisch. Wir schreiben Mn(R) fr Mnn(R).

    Eine mnMatrix A definiert eine lineare Abbildung fA : Rn Rm durch

    fA(1, . . . , n) =( nj=1

    1jj , . . . ,

    nj=1

    mjj).

    f0 ist die Nullabbildung, fI die identische Abbildung.

    Lemma 1.5.1. Die durch A 7 fA definierte Bijektion Mmn(R) L(Rn,Rm)ist ein Isomorphismus. Das heit, da

    fA+B = fA + fB

    fA = fA.

    Beweis: Sei A = (ij), B = (ij) und x = (j). Dann ist

    fA+B(x) =( nj=1

    (ij + ij)j)

    =( nj=1

    ijj +

    nj=1

    ijj)

    =( nj=1

    ijj)

    +( nj=1

    ijj)

    = fA(x) + fB(x)

    8Krzere, weniger przise, Schreibweisen sind (ij)i,j und (ij).

    12

  • Damit ist die erste Bedingung gezeigt. Mit einer hnlichen Rechnung beweistman die zweite Bedingung:

    fA(x) =( nj=1

    (ij)j)

    =(

    nj=1

    ijj)

    = ( nj=1

    ijj)

    = fA(x)

    2

    Definition. Das Produkt C = (hj) einer lmMatrix A = (hi) und einermnMatrix B = (ij) ist eine lnMatrix definiert durch hj =

    mi=1 hiij.

    Satz 1.5.2.fA fB = fAB

    Beweis: Sei A = (hi) und B = (ij) und x = (j). Dann ist

    (fA fB)(x) = fA(fB(x))

    = fA((

    j

    ijj)i

    )=(i

    hij

    ijj)h

    =(j

    (i

    hiij)j)h

    = fAB(x)

    2

    Folgerung 1.5.3. Das Matrizenprodukt ist assoziativ und bilinear. Es gilt 0A =A0 = 0 und IA = AI = A.

    Beweis: Die Bilinearitt, das heit

    A(B +B) = AB +AB

    (A+A)B = AB +AB

    A(B) = (A)B = (AB)

    13

  • (siehe Seite 38) folgt sofort aus der Definition. Zum Beispiel ist

    (hi)((ij) + (

    ij))

    = (hi)(ij + ij)

    =(i

    hi(ij + ij))

    =(i

    hiij +i

    ijij

    )=(i

    hiij)

    +(i

    ijij

    )= (hi)(ij) + (hi)(

    ij)

    Man kann die Assoziativitt

    A(BC) = (AB)C

    entweder durch eine kurze Rechnung nachweisen, oder die Assoziativitt derKomposition von Abbildungen verwenden:

    fA(BC) = fA (fB fC

    )=(fA fB

    ) fC

    = f(AB)C

    2

    Interpretation der Zeilen und Spalten von A Wenn man die Elemente von Rnbzw. von Rm als Spaltenvektoren auffat, ist fA die Rechtsmultiplikation mitder Matrix A. Die Gleichung fA(1, . . . , n) = (1, . . . , m) ist nmlich gleichbe-deutend mit

    A

    1...n

    = 1...m

    .Wenn man den Einheitsvektor ej als Spalte auffat, ist

    Aej =

    1j...mj

    ,die j-te Spalte von A. Die Spalten von A sind also die Bilder der Einheitsvek-toren unter fA.

    Aus

    (i1 . . . in)

    1...n

    = iergibt sich, da die ite Zeile von A die ite Komponente von fA definiert. Seiei der i-te Einheitsvektor als Zeile geschrieben. Dann ist eiA die ite Zeile vonA. Daraus ergibt sich leicht, da eiAej = ij .

    14

  • Lemma 1.5.4. a1, . . . , al seien die Zeilen von A und b1, . . . , bn die Spalten vonB. Dann sind a1B, . . . , alB die Zeilen und Ab1, . . . , Abn die Spalten von AB.Auerdem ist

    AB = (ahbj) h=1...lj=1...n

    Beweis: Die jte Spalte von AB ist ABej = Abj . Die hte Zeile von AB istehAB = ahB. Wenn AB = (hj), ist hj = e

    hABej = ahbj . 2

    Drehungen des R2

    Wenn wir in der Schulgeometrie den R2 um den Winkel drehen, gehen die

    Basisvektoren(

    10

    )und

    (01

    )ber in die Vektoren

    (cos()sin()

    )und

    ( sin()cos()

    ).

    -

    6

    *

    AAAAAAAAK

    e1

    e2

    De1

    De2

    Eine Linearkombination (12

    )= 1

    (10

    )+ 2

    (01

    )wird dann abgebildet auf

    1

    (cos()sin()

    )+ 2

    ( sin()cos()

    ).

    Es folgt, da unsere Drehung eine lineare Abbildung fD ist, mit der Matrix

    D =

    (cos() sin()sin() cos()

    ).

    Wir wollen uns berlegen, da die Formel (1.1) auf Seite 10

    cos() =ab

    ab

    im schulgeometrischen Sinn den Winkel zwischen a und b richtig angibt. Das istleicht zu sehen, wenn a auf der xAchse liegt. Weil man jeden Vektor durch einegeeignete Drehung auf die xAchse legen kann, gengt es zu zeigen, da (1.1)invariant unter Drehungen ist. Das folgt aus der Tatsache, da das Skalarprodukt

    15

  • invariant unter Drehungen ist. In der folgenden Rechnung verwenden wir (a, b)fr das Skalarprodukt von a und b.

    Sei a = 1e1 + 2e2 und b = 1e1 + 2e2. Dann ist

    (Da,Db) = 11(De1, De1) + 22(De2, De2) + (12 + 21)(De1, De2)

    Die rechte Seite ist gleich

    11 + 22 = (a, b),

    weil die Spalten De1 =(

    cos()sin()

    )und De2 =

    ( sin()cos()

    )die Lnge 1 haben

    und aufeinander senkrecht stehen.

    Diese berlegung bertrgt sich auch auf den R3: Man kann jede Drehung als einProdukt von Drehungen um die Koordinatenachsen darstellen. Diese Drehungenverhalten sich wie Drehungen des R2 und lassen das Skalarprodukt invariant.

    16

  • Kapitel 2

    Vektorrume

    2.1 Gruppen

    Definition. Eine Halbgruppe ist eine Menge S, auf der eine zweistellige asso-ziative Operation erklrt ist. Eine Halbgruppe ist also ein Paar

    (S, ),

    wobei die Operation : S S S dem Assoziativgesetz

    (x y) z = x (y z)

    gengt.

    Die Assoziativitt hat zur Folge, da es bei lngeren Produkten nicht auf dieKlammerung ankommt. Zum Beispiel ist

    (a b) (b c) = ((a b) b) c.

    Man lt daher im allgemeinen die Klammern weg und schreibt einfach

    a b b c.

    Definition. Eine Halbgruppe S heit abelsch, oder kommutativ, wenn

    s t = t s

    fr alle s, t S.

    Die Operation einer Halbgruppe nennt man im allgemeinen Multiplikation undschreibt s t. Im abelschen Fall hufig auch Addition, wo man dann s+ t statts t schreibt.

    17

  • Definition. Ein Element e einer Halbgruppe S heit linksneutral, wenn

    e s = s

    fr alle s S. Wenns f = s

    fr alle s, heit f rechtsneutral.

    Lemma 2.1.1. Wenn eine Halbgruppe S ein linksneutrales Element e und einrechtsneutrales f hat, stimmen e und f berein. Man nennt e = f (das) neutraleElement von S.

    Beweis:e = e f = f

    2

    In multiplikativ geschrieben Halbgruppen nennt man das neutrale Element 1(falls vorhanden) Einselement . In additiv geschriebenen (abelschen) Halbgrup-pen heit das neutrale Element 0 die Null.

    Sei nun S eine Halbgruppe mit Einselement 1. (Man nennt solche Halbgruppenauch Monoide.) Wenn

    s t = 1,

    nennen wir s Linksinverses von t und t Rechtsinverses von s.

    Lemma 2.1.2. Sei S eine Halbgruppe mit Einselement 1. Wenn s ein Linksin-verses s und ein Rechtsinverses shat, stimmen s und s berein. Man nennts = s das Inverse von s.

    Beweis:s = s 1 = s s s = 1 s = s

    2

    In multiplikativen Halbgruppen schreibt man s1 fr das Inverse von s, in ad-ditiv geschriebenen (abelschen) Halbgruppen schreibt man s.

    Bemerkung.(a b)1 = b1 a1

    Definition. Eine Gruppe G ist eine Halbgruppe mit neutralem Element, in derjedes Element ein Inverses hat.

    Satz 2.1.3. Eine Halbgruppe G ist genau dann eine Gruppe, wenn es ein links-neutrales Element e gibt, fr das jedes Element g G ein Linksinverses hat,das heit, eine Lsung der Gleichung x g = e.

    18

  • Beweis: Sei g ein beliebiges Element, g ein Linksinverses von g und g einLinksinverses von g. Aus

    g g = e g g = g g g g = g e g = g g = e

    liest man ab, da g auch Rechtsinverses von g ist. Die Gleichung

    g e = g g g = e g = g

    zeigt, da e auch rechtsneutral ist. 2

    Lemma 2.1.4. Eine Halbgruppe (G, ) ist genau dann eine Gruppe, wenn fralle a, b G die Gleichungen x a = b und a y = b lsbar sind.

    Beweis. Wenn (G, ) eine Gruppe ist, ist x = b a1 eine Lsung von x a = bund y = a1 b eine Lsung von a y = b.

    Fr die Umkehrung gengt es, ein linksneutrales Elemente e zu finden. DieExistenz von Linksinversen folgt dann aus der Lsbarkeit der Gleichung xa = e.Dazu fixieren wir eine beliebiges Element a0 und whlen e so, da e a0 = a0.Fr gegebenes b sei y eine Lsung von a0 y = b. Dann ist e b = e a0 y =a0 y = b.

    Definition. Sei n eine positive natrliche Zahl.

    a0 = e

    an = a a a n Faktoren

    an = (a1)n

    Lemma 2.1.5. Sei G eine Gruppe. Dann gilt fr alle a G und x, y Z

    a) Wenn a b = b a, ist (a b)x = ax bx.

    b) ax+y = ax ay

    c) axy = (ax)y

    d) a1 = a

    Beweis. Man kann sich das Lemma leicht durch Betrachtung einiger Beispieleklar machen.

    Beispiele abelscher Gruppen:

    (Z,+)

    19

  • Zn, die additive Gruppe der Reste

    z = z + nZ

    ganzer Zahlen modulo n. Man addiert zwei Reste, indem man ihre Repr-sentanten addiert.

    y + z = y + z.

    Die Restklassen modulo n sind die Klassen der quivalenzrelation1

    y z (mod n).

    Man beachte, da Zn = {0, 1, . . . , n 1}.

    (R,+)

    (R, ), die multiplikative Gruppe der von Null verschiedenen reellen Zah-len.

    In additiv geschrieben abelschen Gruppen schreibt man za statt az. Whrendman in multiplikativ geschriebenen Gruppen die Gruppenoperation hufig nichtnotiert:

    a b b c = ab2c,

    kann man in der additiven Schreibweise + nicht weglassen:

    a+ 2b+ c.

    Das nchste Lemma folgt sofort aus 2.1.5.

    Lemma 2.1.6. Sei (G,+) eine abelsche Gruppe. Dann ist G ein ZModul. Dasheit, da fr alle a, b G und x, y Z

    a) x(a+ b) = xa+ xb

    b) (x+ y)a = xa+ ya

    c) (xy)a = x(ya)

    d) 1a = a.

    Eine Abbildung f : X Y heit injektiv , wenn f(x1) = f(x2) x1 = x2 fralle x1, x2 X. f heit surjektiv , wenn Y das Bild

    f [X] = {f(x) | x X}

    von f ist. Eine injektive und surjektive Abbildung heit bijektiv oder Bijektion.Die Umkehrabbildung f1 einer Bijektion f ist definiert durch

    f1(y) = x f(x) = y.1 Zum Begriff einer quivalenzrelation vergleiche Seite 36.

    20

  • Eine Bijektion f : X X heit Permutation von X.

    Zur Notation: f g ist die durch (f g)(x) = f(g(x)) definierte Verknpfungoder Komposition von f und g. idX bezeichnet die identische Abbildung vonX nach X: Es ist idX(x) = x fr alle x X.

    Bemerkung. Sei f : X Y eine Abbildung zwischen zwei nicht-leeren Men-gen.y

    1. f ist genau dann injektiv, wenn es ein f : Y X gibt mit f f = idX .

    2. f ist genau dann surjektiv, wenn es ein f : Y X gibt mit f f = idY .

    3. f ist genau dann bijektiv, wenn es ein f1 : Y X gibt mit f1f = idXund f f1 = idY .

    Die Inverse Abbildung f1 ist eindeutig bestimmt.

    Definition. Mit Sym(X) bezeichnet man die Gruppe der Permutationen vonX, die Symmetrische Gruppe. Sn = Sym(1, . . . , n) ist die Gruppe der Permuta-tionen von {1, . . . , n}.

    S1 und S2 sind kommutativ. S3 und alle weiteren Sn sind nicht kommutativ.

    Man schreibt(

    1 2 na1 a2 an

    )fr das Element von Sn, das i die Zahl ai

    zuordnet.

    Definition. Sei (G, ) eine Gruppe. Eine Untergruppe U von G ist eine Teil-menge von G, die e enthlt und unter und 1 abgeschlossen ist.U ist offensichtlich wieder eine Gruppe mit der eingeschrnkten Operation2

    U = (U U).

    Bemerkung. Eine unter abgeschlossene Teilmenge U von G ist mit der ein-geschrnkten Operation genau dann eine Gruppe, wenn U Untergruppe von Gist.

    Beweis. Wenn (U, U ) eine Gruppe ist, betrachten wir ihr Einselement eU . WeileU eU = eU , mu eU gleich e sein. Inverse im Sinn von U sind also auch Inverseim Sinn von G, woraus folgt, da U unter 1 abgeschlossen ist.

    G selbst und E = {e} sind immer Untergruppen. Fr jedes Element a ist

    aZ = {az | z Z}

    eine Untergruppe von G. aZ ist die kleinste Untergruppe, die a enthlt.

    Definition. G und H seien Gruppen3. Eine Abbildung f : G H ist ein2 Die Einschrnkung f A einer Funktion f : X Y auf eine Teilmenge A von X ist die

    auf A definierte Funktion, die auf A mit f bereinstimmt. Wenn man eine Funktion als eineMenge von Paaren auffat, ist also f A = f A Y .

    3 Der Begriff ist sinnvoll fr beliebige Mengen mit einer zweistelligen Operation.

    21

  • Homomorphismus, wennf(ab) = f(a)f(b)

    fr alle a, b G.

    Beispiele:

    Die identische Abbildung idG : G G.

    Die triviale Abbildung g 7 e von G nach H.

    Fr ein festes a H die Abbildung z 7 az von Z nach H.

    Die Restklassenabbildung z 7 z von Z nach Zn.

    Die Signaturabbildung

    sign(x) =

    {1 wenn x > 01 wenn x < 0

    von R in die Untergruppe {1,1}.

    Lemma 2.1.7. Das Bild eines Homomorphismus f : G H ist eine Unter-gruppe von H.

    Beweis. Das Produkt z = f(x)f(y) von zwei Elementen von f [G] ist wieder inG, weil z = f(xy). f(e) ist linksneutral in f [G], weil f(e)f(x) = f(ex) = f(x).f(x1) ist Linksinverses von f(x), weil f(x1)f(x) = f(x1x) = f(e). f [G] istalso eine Gruppe. Daraus folgt wie in der Bemerkung auf Seite 21, da f [G]Untergruppe ist. Insbesondere ist f(e) = e und f(a1) = f(a)1

    Ein bijektiver Homomorphismus f zwischen Gruppen heit Isomorphismus .Zwei Gruppen G und H, zwischen denen es einen Isomorphismus gibt, heienisomorph. Man notiert das als

    f : G' H

    undG = H.

    Beispiele:

    Die Untergruppe {1,1} von R ist isomorph zu Z2.

    Die Exponentialabbildung exp : (R,+) (R>0, ) ist ein Isomorphismus4.

    4R>0 = {r R | r > 0}

    22

  • Lemma 2.1.8. Isomorphie ist eine quivalenzrelation 5 .

    Beweis. Reflexivitt: idG : G' G

    Transitivitt: Wenn f : F ' G und g : G ' H, dann ist g f : F ' H.

    Symmetrie: Wenn f : G ' H, dann ist f1 : H ' G.

    Satz 2.1.9 (Cayley). Jede Gruppe G ist isomorph zu einer Untergruppe vonSym(G).

    Beweis. Sei (G, ) eine Gruppe. Wir ordnen jedem Element g von G die Links-multiplikation g : G G zu, die definiert ist durch

    g(x) = g x.

    Es gilt e = idG undgh = g h,

    weil gh(x) = (g h) x = g (h x) = g(h(x)) = (g h)(x). Insbesonderegilt g g1 = g1 g = idG, woraus folgt, da die g Permutationen von Gsind.

    Also definiert (g) = g einen Homomorphismus

    : G Sym(G).

    Das Bild S = [G] von ist daher eine Untergruppe von Sym(G). Es bleibtnoch zu zeigen, da injektiv ist. Dann ist

    : G' S

    der gesuchte Isomorphismus. ist injektiv, weil

    (g) = (h) g = g e = (g)(e) = (h)(e) = h e = h.

    2.2 RVektorrume

    Definition. Ein RVektorraum V ist ein RModul. Das heit: eine abelscheGruppe V mit einer Multiplikation R V V , soda fr alle , R undu, v V die folgenden Rechenregeln gelten:

    a) (u+ v) = u+ v5 Vgl. S. 36.

    23

  • b) (+ )u = u+ u

    c) ()u = (u)

    d) 1u = u

    In einem Vektorraum gilt immer

    0u = 0

    (1)u = u,

    weil 0u+ 0u = (0 + 0)u = 0u und

    (1)u+ u = (1)u+ 1u = (1 + 1)u = 0u = 0.

    Definition.

    1. Ein Unterraum U von V ist eine Untergruppe, die unter Multiplikationmit Skalaren abgeschlossen ist.

    2. Eine lineare Abbildung f : V U ist ein Homomorphismus, der mit derMultiplikation mit Skalaren kommutiert: f(v) = f(v) fr alle v Vund alle R. Eine bijektive lineare Abbildung heit Isomorphismus.

    Eine Teilmenge U von V ist genau dann ein Unterraum, wenn

    0 U

    u, v U u+ v U

    R, u U u U

    Jeder Vektorraum V enthlt den Nullraum {0}. Wir bezeichnen diese Nullrumeimmer mit dem gleichen Symbol 0.

    Lemma 2.2.1. Die linearen Abbildungen f : Rn Rm sind genau die linearenAbbildungen im Sinn von Abschnitt 1.5.

    Beweis. Sei A eine mnMatrix. Die durch A definiert Abbildung fA : Rn Rm ist linear, weil (nach 1.5.3) fr nreihige Spaltenvektoren s und t

    A(s+ t) = As+At

    undA(s) = (As).

    Wenn umgekehrt f linear ist, definieren wir die Matrix A als die Matrix mitden Spalten

    f(e1), . . . , f(en).

    24

  • Dann ist f = fA, weil

    f(1e1 + . . .+ nen) = 1f(e1) + . . .+ nf(en)

    = 1fA(e1) + . . .+ nfA(en)

    = fA(1e1 + . . .+ nen).

    Die Menge L(V,U) der linearen Abbildungen ist ein RVektorraum unter wert-weiser Addition und Multiplikation mit Skalaren. Aus dem letzten Lemma ergibtsich

    L(Rn,Rm) = Mmn(R).

    Das folgende rechnet man leicht nach (siehe auch Folgerung 1.5.3):

    Lemma 2.2.2. Die Kompositionsabbildung

    : L(U, V ) L(V,W ) L(U,W ),

    definiert durch(f, g) 7 g f,

    ist bilinear. (Bilinearitt wird definiert auf Seite 38.)

    2.3 Endlichdimensionale Vektorrume

    Definition. Eine Folge b1, . . . , bn heit Basis von V , wenn sich jedes Elementvon V eindeutig in der Form

    v =nj=1

    jbj

    schreiben lt.

    Eine Basis heit auch Koordinatensystem, 1, . . . , n sind die Koordinaten vonv.

    Die kanonischen Basisvektoren e1, . . . , en bilden eine Basis des Rn, weil1...n

    = 1e1 + . . .+ nen.Die leere Folge (die Folge der Lnge 0) ist Basis des Nullraums.

    25

  • Satz 2.3.1. Sei v1, . . . , vn eine Basis von V , und e1, . . . , en die kanonischeBasis von Rn. Dann ist die lineare Abbildung f : Rn V , die eindeutig durchf(ej) = vj bestimmt ist, ein Isomorphismus.

    Beweis. Wenn f : Rn V linear ist, ist

    f(1e1 + . . .+ nen) = 1f(e1) + . . .+ nf(en).

    f ist also durch die Bilder der Basisvektoren eindeutig bestimmt.

    Wenn wir uns umgekehrt Vektoren vi vorgeben, definiert

    f(1e1 + . . .+ nen) = 1v1 + . . .+ nvn

    eine lineare Abbildung, die ei auf vi abbildet. Das ist leicht nachzurechnen: Seix = 1e1 + . . .+ nen und x = 1e1 + . . .+ nen. Dann ist

    f(x+ x) = f

    ((1 +

    1)e1 + . . .+ (n +

    n)en

    )= (1 +

    1)v1 + . . .+ (n +

    n)vn

    = (1v1 + . . .+ nvn) + (1v1 + . . .+

    nvn)

    = f(x) + f(x)

    und

    f(x) = f((1)e1 + . . .+ (n)en

    )= (1)v1 + . . .+ (n)vn

    = (1v1 + . . .+ nvn)

    = f(x).

    Wenn man jeden Vektor v aus V in der Form v = 1v1 + . . . + nvn schreibenkann, ist f surjektiv. Wenn v die i eindeutig bestimmt, ist f injektiv.

    Die Wahl einer Basis von V ist gleichbedeutend mit der Wahl eines Isomorphis-mus zwischen Rn und V .

    Sei f : V U eine lineare Abbildung. v1, . . . , vn und u1, . . . , um seien Basenvon V und U . Wenn die Isomorphismen : Rn V und : Rm U diekanonischen Basen von Rn und Rm auf diese Basen abbilden, ist die lineareAbbildung 1 f : Rn Rm durch eine mnMatrix A = (ij) gegeben.Es gilt dann

    f(

    nj=1

    jvj) =

    mi=1

    (

    nj=1

    ijj)ui.

    Insbesondere ist

    f(vj) =

    mi=1

    ijui.

    26

  • Die jte Spalte der mnMatrix A = (ij) besteht also aus den Koeffizientendes Bildes von vj bezogen auf die Basis u1, . . . , um.

    Wenn man umgekehrt A dadurch definiert, hat man in symbolischer Schreib-weise

    f(vj) = (u1 . . . um)

    1j...mj

    ,zusammengefat:

    (2.1) f(v1 . . . vn) = (u1 . . . um)A.

    Ein beliebiger Vektor

    v = (v1 . . . vn)

    1...n

    wird dann abgebildet auf

    f(v) = f(v1 . . . vn)

    1...n

    = (u1 . . . um)A1...n

    .

    f = fA bedeutet, da das folgende Diagramm kommutativ ist:

    V -

    -

    f

    fARn Rm

    U66

    Wir sagen, da f bezglich der Basen (vj) und (ui) zur Matrix A gehrt.

    Definition. Eine Folge a1, . . . , an heit Erzeugendensystem von V , wenn V =Ra1 + + Ran. Das heit, da sich jedes Element von V in der Form

    (2.2) 1a1 + . . .+ nan

    darstellen lt.

    Man sieht leicht, da fr jede Folge a1, . . . , an die Menge

    a1, . . . , an = {1a1 + + nan | a1, . . . , an A, 1, . . . , n R}

    27

  • ein Unterraum von V ist. Man nennt diesen Unterraum das Erzeugnis vona1, . . . , an oder den von a1, . . . , an erzeugten (oder aufgespannten) Unterraum.

    Definition. Eine Folge u1, . . . , un heit linear unabhngig, wenn fr alle1, . . . n R

    0 = 1u1 + . . .+ nun = 1 = = n = 0.

    Wenn die uj paarweise verschieden sind, heit die Menge {u1, . . . , un} linearunabhngig, wenn u1, . . . , un linear unabhngig ist.

    Eine Folge, in der 0 oder zwei gleiche Vektoren vorkommen, ist linear abhngig.

    Lemma 2.3.2. u1, . . . , un ist genau linear unabhngig, wenn die Darstellungder Elemente von u1, . . . , un als 1u1 + . . .+ nun eindeutig ist.

    Beweis. Wenn u1, . . . , un linear abhngig sind, hat man zwei verschieden Dar-stellungen der Null, nmlich 0 = 1u1 + . . .+ nun und 0 = 0u1 + . . .+ 0un.

    Nehmen wir umgekehrt an, da u1, . . . , un linear unabhngig sind und da

    1u1 + . . .+ nun = 1u1 + . . .+

    nun.

    Dann folgt(1 1)u1 + . . .+ (n n)un = 0.

    Und daraus1 1 = = n n = 0.

    Also ist 1 = 1, . . . , n = n.

    Folgerung. Eine Basis ist ein linear unabhngiges Erzeugendensystem.

    Wir nennen eine endliche Menge E ein Erzeugendensystem, wenn jedes Elementvon V eine Linearkombination von Elementen von E ist. Eine Menge U heitlinear unabhngig, wenn 0 =

    uU uu, impliziert, da alle u = 0. Eine Basis

    ist ein linear unabhngiges Erzeugendensystem. Wenn B = {b1, . . . , bn} frpaarweise verschiedene bi, dann ist B genau dann eine Basis, wenn die Folgeb1, . . . , bn eine Basis ist.

    Lemma 2.3.3. Sei V ein RVektorraum mit Erzeugendensystem E und U einelinear unabhngige Teilmenge von E. Dann hat V eine Basis B, die zwischenU und E liegt:

    U B E.

    28

  • Beweis. Wir erweitern U zu einer maximalen linear unabhngigen TeilmengeB E. B ist ein Erzeugendensystem. Dazu gengt es zu zeigen, da alle e Eim Erzeugnis von B liegen. Sei e E \ B. Weil B {e} linear abhngig seinmu, gibt es b1, . . . , bn B und 1, . . . , n, R, nicht alle Null, mit

    1b1 + + nbn + e = 0.

    Weil die b1, . . . , bn linear unabhngig sind6, kann nicht Null sein. Dann liegt

    e =1b1 + . . .+

    nbn

    im Erzeugnis von B.

    Definition. V heit endlich erzeugt, wenn V ein (endliches) Erzeugendensy-stem hat.

    Folgerung.

    1. Jedes Erzeugendensystem enthlt eine Basis.

    2. Wenn V endlich erzeugt ist, lt sich jede unabhngige Menge zu einerBasis erweitern.

    Es folgt, da jeder endlich erzeugte Vektorraum zu einem Rn isomorph ist.

    Satz 2.3.4. Sei V ein RVektorraum. Eine linear unabhngige Teilmenge hathchstens so viele Elemente wie ein Erzeugendensystem von V .

    Beweis. Sei e1, . . . , em ein Erzeugendensystem, u1, . . . , un linear unabhngigbe-liebige Vektoren. Fr eine geeignete Matrix (ij) = A von Koeffizienten ist

    uj =

    mi=1

    ijei (j = 1, . . . , n).

    In symbolischer Schreibweise

    (u1 . . . un) = (e1 . . . em)A.

    Wenn m < n, hat nach 1.1.5 das Gleichungssystem

    nj=1

    ijj = 0 (i = 1, . . . ,m)

    eine nichttriviale Lsung. Symbolisch

    A

    1...n

    = 0.6wenn wir die bi paarweise verschieden gewhlt haben

    29

  • Wenn wir diese Gleichungen mit den ei multiplizieren erhalten wir eine lineareAbhngigkeit zwischen den uj :

    nj=1

    ujj =

    nj=1

    mi=1

    ijjei =

    mi=1

    (j=1

    ijj)ei = 0,

    symbolisch:

    (u1 . . . un)

    1...n

    = (e1 . . . em)A1...n

    = (e1 . . . em)0...

    0

    = 0.Wenn m < n, sind die uj also nicht linear unabhngig.

    Folgerung 2.3.5. Alle Basen eines endlich erzeugten Vektorraums V habendie gleiche Mchtigkeit: die Dimension

    dim(V )

    von V . Zwei endlich erzeugte Vektorrume sind genau dann isomorph, wenn siedie gleiche Dimension haben.

    Folgerung 2.3.6.

    1. Ein Unterraum U eines endlich erzeugten Vektorraums V ist endlich er-zeugt. Es gilt dim(U) dim(V ).

    2. Sei V endlich erzeugt und f : V U linear. Dann ist auch das Bild f [V ]endlich erzeugt und hat hchstens die Dimension von V .

    Beweis.

    1): Sei V von m Elementen erzeugt. Weil linear unabhngige Mengen hchstensm Elemente haben, enthlt U eine maximale linear unabhngige Menge B. Bist eine Basis von U .

    2): Wenn E ein Erzeugendensystem von V ist, ist f [E] ein Erzeugendensystemvon f [V ].

    2.4 Unendlichdimensionale Vektorrume

    Definition. Fr eine Menge I sei R(I) die Menge alle Funktionen f : I R,die an fast allen Stellen (d.h. an allen bis auf endlich vielen) den Wert 0 hat. R(I)ist ein Vektorraum mit wertweiser Addition und Multiplikation mit Skalaren.

    30

  • R(I) ist ein Unterraum von RI , dem Raum aller Funktionen von I nach R.

    Wir wollen zeigen, da jeder Vektorraum zu einem R(I) isomorph ist. Wir ver-allgemeinern dazu die Begriffe aus Abschnitt 2.2 auf unendliche Mengen.

    Definition. Sei V ein Vektorraum und (vi)iI eine Familie von Vektoren.

    (vi)iI ist eine Basis von V , wenn sich jeder Vektor v V eindeutig inder Form

    v =iI

    ivi

    schreiben lt. Dabei drfen nur endlich viele der i ungleich Null sein,damit die eventuell unendliche Summe sinnvoll ist.

    (vi)iI ist linear unabhngig, wenn

    0 =iI

    ivi = i = 0 fr alle i I.

    (vi)iI ist ein Erzeugendensystem, wenn sich jedes Element von V in derForm

    iI ivi schreiben lt.

    Eine Menge B heit Basis (linear unabhngig, Erzeugendensystem), wenn(b)bB eine Basis (linear unabhngig, Erzeugendensystem) ist.

    Wie in der Bemerkung S.28 sieht man, da Basen nichts anderes als linearunabhngige Erzeugendensysteme sind.

    Satz 2.4.1. Jeder Vektorraum ist zu einem R(I) isomorph.

    Beweis. Sei V ein Vektorraum. Wir betrachten die Menge P aller linear unab-hngigen Teilmengen von V und ordnen sie durch Inklusion. Weil die Vereini-gung einer Kette von linear unabhngigen Mengen wieder linear unabhngig ist,knnen wir Zorns Lemma (2.4.2) auf P anwenden und erhalten eine maximalelinear unabhngige Menge B. Wie im Beweis von 2.3.3 sieht man, da B eineBasis von V ist. Die Zuordnung

    (b)bB 7bB

    bb

    definiert offensichtlich ein Isomorphismus zwischen R(B) und V .

    Definition. Eine partielle Ordnung auf P ist eine zweistellige Relation, diereflexiv, transitiv und antisymmetrisch ist. Dabei bedeutet

    reflexiv x xtransitiv x y & y z x zantisymmetrisch x y & y x x = y

    fr alle x, y, z P .

    31

  • In einer totalen (oder linearen) Ordnung sind alle Elemente x, y vergleichbar,das heit x y oder y x.

    Eine Teilmenge A von P ist eine Kette, wenn A durch linear geordnet ist.

    p P ist eine obere Schranke von A, wenn a p fr alle a A.

    p P ist ein maximales Element von P , wenn p p p = p fr alle p P .

    Satz 2.4.2 (Zornsches Lemma). Sei (P,) eine partielle Ordnung. Wenn jedeKette in P eine obere Schranke hat, hat P ein maximales Element.

    Beweis. Das Zornsche Lemma wird in der Mengenlehre bewiesen. Es ist zumAuswahlaxiom quivalent.

    2.5 Der Verband der Unterrume

    Sei (P,) eine partielle Ordnung. p heit grtes Element von P , wenn p pfr alle p P . P hat hchstens ein grtes Element. Kleinstes Element von Pwird analog definiert.

    Sei A eine Teilmenge von P . Eine (die) kleinste obere Schranke von A heitSupremum sup(A) von A. Das Infimum inf(A) ist grte untere Schranke.

    Definition. Eine partielle Ordnung heit Verband, wenn je zwei Elemente einSupremum und ein Infimum haben.

    Satz 2.5.1. Sei V ein Vektorraum. Dann bilden die durch Inklusion geordne-ten Unterrume von V einen Verband. Dabei ist sup(U1, U2) = U1 + U2 undinf(U1, U2) = U1 U2.

    Beweis. Offensichtlich ist U1 U2 der grte gemeinsame Unterraum von U1und U2 und

    U1 + U2 = {u1 + u2 | u1 U1, u2 U2}ist U1 U2, der kleinste Unterraum, der U1 und U2 enthlt.

    Der Nullraum 0 ist kleinstes Element, V grtes Element dieses Verbandes. DerVerband der Unterrume ist zwar im Allgemeinen nicht distributiv7, es gilt abereine Abschwchung des Distributivgesetzes, das Modularittsgesetz :

    U2 W (U1 + U2) W = (U1 W ) + U2.7Das Distributivgesetz (U1+U2)W = (U1W )+(U2W ) gilt nicht, wenn dim(V ) 2.

    32

  • Die rechte Seite ist klarerweise in der linken enthalten. Sei umgekehrt w (U1 +U2)W . Wenn wir w = u1 + u2 fr ui Ui schreiben, folgt da u1 in Wliegt, weil w und u2 zu W gehren. Also ist u1 + u2 (U1 W ) + U2.

    Lemma 2.5.2. Jeder Unterraum U von V hat ein Komplement. Ein Komple-ment von U ist ein Unterraum U mit

    U U = 0 und U + U = V.

    Beweis. Wir nennen U und U unabhngig , wenn ihr Durchschnitt Null ist, dasheit, wenn fr alle u U und u U

    u+ u = 0 u = u = 0.

    Mit Zorns Lemma verschaffen wir einen maximalen Unterraum U , der unab-hngig von U ist. Wir zeigen U + U = V . Sei v V ein beliebiger Vektor. Wirknnen annehmen, da v 6 U . Dann mu U + Rv abhngig von U sein. Esgibt also u U, u U , R mit u = u+v 6= 0. Weil U und U unabhngigsind, mu 6= 0 sein. Es folgt

    v =1

    (u u) U + U .

    U lt sich auch folgendermaen konstruieren: Man whlt eine Basis B vonU und setzt sie (mit Zorns Lemma) zu einer Basis B B von V fort. Fr U nehmen wir den von B aufgespannten Unterraum. Weil B B linear unab-hngig ist, sind U und U unabhngig. Weil B B ein Erzeugendensystem vonV ist, ist V = U + U . Der Beweis des nchsten Lemmas zeigt, da man alleKomplemente von U auf diese Weise erhlt.

    Lemma 2.5.3. Sei V endlichdimensional, U ein Unterraum und U eine Kom-plement von U in V . Dann ist

    dim(V ) = dim(U) + dim(U ).

    Beweis. Whle eine Basis B von U und eine Basis B von U . Dann ist B Beine Basis von V .

    Das direkte Produkt U1U2 zweier Vektorrume wird mit elementweisen Ope-rationen ein Vektorraum, die direkte Summe U1

    U2.

    Lemma 2.5.4. Wenn U1 und U2 unabhngig sind, ist die lineare Abbildung vonU1U2 U1 + U2, definiert durch (u1, u2) 7 u1 + u2, ein Isomorphismus.

    Beweis. Die Abbildung ist offensichtlich linear und surjektiv. Sie ist injektiv,weil, U1 und U2 unabhngig sind: Aus u1 +u2 = u1 +u2 folgt u1u1 = u2u2und daraus u1 u1 = u2 u2 = 0 und u1 = u1, u2 = u2.

    33

  • Folgerung. Wenn U Komplement von U ist, ist V = UU .

    Zwei Komplemente U und U von U sind kanonisch isomorph. Man definiertdurch

    f(u) = u u u U

    einen Isomorphismus f : U U . f ist auf ganz U wohldefiniert, weil es zujedem u U eine eindeutige Darstellung u = u + u gibt. Vertauscht mandie Rollen von U und U , erkennt man, da f injektiv und surjektiv ist. DieLinearitt von f ist klar.

    Sei U ein Unterraum von V . Mengen der Form v + U heien Nebenklassen vonU .

    Lemma 2.5.5. Nebenklassen von U sind gleich oder disjunkt. Es gilt v1 +U =v2 + U v1 v2 U .

    Beweis. Wenn v1 + U und v2 + U nicht disjunkt sind, gibt es ui U mitv1 +u1 = v2 +u2. Es folgt v1 v2 = u2u1 U . Wenn umgekehrt v1 v2 U ,folgt v1 + U = v2 + (v1 v2) + U = v2 + U .

    Definition. V/U = {v + U | v V } heit der Quotient von V nach U . DieAbbildung

    : v 7 v + U

    heit kanonische Projektion.

    Satz 2.5.6. V/U trgt eine Vektorraumstruktur, die eindeutig dadurch bestimmtist, da die kanonische Projektion

    : V V/U

    linear ist.

    Beweis. Sei V/U mit einer Vektorraumstruktur versehen und linear. Dannlassen sich in V/U die Summe zweier Elemente a und b und das Produkt miteinem R so ausrechnen: Wir whlen Reprsentanten x, y der Nebenklassen,soda (x) = a und (y) = b. Dann ist

    a+ b = (x+ y)(2.3)

    und

    a = ( x)(2.4)

    Es folgt da Addition und Multiplikation eindeutig bestimmt sind.

    Um die Existenz einer Vektorraumstruktur einzusehen, definieren wir Additionund Multiplikation durch (2.3) und (2.4). Wir mssen aber nachrechnen, da

    34

  • a+ b und a unabhngig von der Wahl von x und y definiert sind.Sei also (x) = a und (y) = b. Dann gehren x x und y y zu U unddamit auch ihre Summe (x+ y) (x + y). Es folgt (x+ y) = (x + y) unda+ b ist wohldefiniert.Um die Wohldefiniertheit der Multiplikation einzusehen, nehmen wir an, da(x) = a. Dann folgt x x U und damit auch x x = (x x) Uund (x) = (x).

    Die Vektorraumaxiome bertragen sich dann sofort auf dem Quotienten. Be-trachten wir als ein Beispiel die Assoziativitt der Addition:

    ((x) + (y)) + (z) = (x+ y) + (z) = ((x+ y) + z)

    = (x+ (y + z)) = (x) + (y + z)

    = (y) + ((y) + (z)).

    Lemma 2.5.7. Sei U ein Komplement von U in V . Dann induziert einenIsomorphismus U V/U .

    Beweis. Sei die Einschrnkung von auf U . Wenn v = u+u fr u U, u U , ist (u) = v +U . Aus U +U = V folgt also die Surjektivitt von . Undaus U U = 0 die Injektivitt:

    (u1) = (u2) u1 u2 U u1 = u2.

    Folgerung 2.5.8. Wenn V endlichdimensional ist, ist

    dim(U) + dim(V/U) = dim(V ).

    Beweis. Die Behauptung folgt aus 2.5.3 und 2.5.7

    Definition. Die Kodimension von U in V ist die Dimension von V/U .

    codimV (U) = dim(V/U)

    Satz 2.5.9. Fr endlichdimensionale Vektorrume gilt

    dim(U1 + U2) + dim(U1 U2) = dim(U1) + dim(U2)

    Beweis. Sei H ein Komplement von U1U2 in U2. Dann ist H ein Komplementvon U1 in U1 + U2: Klar ist, da U1 + H = U1 + (U1 U2) + H = U1 + U2.Andererseits ist U1 H = U1 U2 H = 0.

    35

  • Es folgt codimU1+U2(U1) = codimU2(U1 U2). Nach 2.5.8 ist

    codimU1+U2(U1) = dim(U1 + U2) dim(U1)

    und

    codimU2(U1 U2) = dim(U2) dim(U1 U2).

    Daraus folgt die Behauptung durch Gleichsetzen der rechten Seiten.

    Wenn U1 + U2 = V, lt sich die Behauptung des letzten Satzes ausdrckendurch

    codim(U1 U2) = codim(U1) + codim(U2).

    quivalenzrelationen und Partitionen:Sei X eine Menge. Eine quivalenzrelation E ist eine zweistellige reflexive, tran-sitive und symmetrische (d.h. xEy yEx) Relation auf X. Eine Partition vonX ist eine Teilmenge B der Potenzmenge P(X) = {B | B X} von X, derenElemente nichtleer, paarweise disjunkt sind und deren Vereinigung X ist.

    quivalenzrelationen und Partitionen entsprechen einander: Setzt man x/E ={y X | yEx} fr x X und eine quivalenzrelation E, so ist

    B = {x/E | x X}

    die zugehrige Partition von X. Wenn umgekehrt B eine Partition ist, so erhltman mit

    xEy B B x B & y B

    die zugehrige quivalenzrelation.

    Eine Unterraum U von V bestimmt auf V die quivalenzrelation xy U mitder Partition {v + U | v V }.

    2.6 Krper

    Ein Ring R ist ein Tripel (R,+, ), wobei

    (R,+) eine abelsche Gruppe,

    (R, ) eine Halbgruppe ist und

    die Distributivgesetze

    x(y + z) = xy + xz

    36

  • und

    (x+ y)z = xz + yz

    gelten.

    Ein Einselement 1, falls vorhanden, erfllt x1 = 1x = x.R ist kommutativ , wenn die Multiplikation kommutativ ist.

    Wie auf Seite 24 sieht man, da in einem Ring immer 0x = x0 = 0.

    Definition. Ein Krper ist ein kommutativer Ring mit Einselement 1, in demjedes von Null verschiedene Element ein Inverses bezglich der Multiplikationbesitzt. Auerdem fordert man8, da 0 6= 1.

    8Dadurch schliet man den Nullring 0 = {0} aus

    37

  • Beispiele:

    Z ist ein kommutativer Ring mit 1.

    Q und R sind Krper.

    Zn ist, mit reprsentantenweiser Multiplikation

    y z = yz,

    ein kommutativer Ring mit 1.

    Zp ist genau dann ein Krper, wenn p eine Primzahl ist9. Man bezeichnetdiesen Krper auch mit Fp.

    Um den Krper der komplexen Zahlen einzufhren, brauchen wir den Begriffeiner RAlgebra.

    Definition. Eine RAlgebra A ist ein RVektorraum mit einer bilinearen Ope-ration (der Multiplikation).

    Dabei heit eine Abbildung : A A A bilinear, wenn sie in beiden Argu-menten linear ist, das heit, wenn

    (x+ x) y = x y + x y

    x (y + y) = x y + x y

    (x) y = x (y) = (x y)

    Beispiel: Mn(R) ist eine RAlgebra der Dimension n2.

    Lemma 2.6.1. Sei b1, . . . , bn eine Basis von A. Fr beliebige Vektoren aij(i, j = 1, . . . , n) gibt es genau eine AlgebrenMultiplikation auf V mit bi bj =aij .

    Beweis. Seien x =i ibi und y =

    j jbj zwei beliebige Elemente von A.

    Dann istx y =

    i,j

    ij(bi bj).

    Das zeigt, da durch die bi bj eindeutig bestimmt ist. Umgekehrt definiert

    x y =i,j

    ijaij

    eine bilineare Abbildung.9Ein Krper ist immer nullteilerfrei, das heit, da die Null nicht Produkt von Elementen

    ungleich Null sein kann. Man sieht sofort, da Zm genau dann nullteilerfrei ist, wenn m primist. In einem nullteilerfreien Ring R ist die Multiplikation a mit einem a 6= 0 injektiv, weilax = ax a(x x) = 0 x x = 0. Wenn R endlich ist, ist also a surjektiv und a hatein Rechtsinverses. Das beweist, da die Zp , fr Primzahlen p, Krper sind.

    38

  • Beispiel: R3 wird mit dem Kreuzprodukt eine Algebra, wenn man die Produkteei ej der kanonischen Basisvektoren definiert durch

    e1 e2 = e3 , e2 e3 = e1 , e3 e1 = e2e2 e1 = e3 , e3 e2 = e1 , e1 e3 = e2e1 e1 = 0 , e2 e2 = 0 , e3 e3 = 0.

    Das Kreuzprodukt ist nicht assoziativ. Es handelt sich vielmehr um eine Lie-algebra (vgl. Seite 137).

    Definition. Die RAlgebra C der komplexen Zahlen entsteht aus R2 durch fol-gende Multiplikation: (Die kanonische Basis des R2 sei hier mit 1, i bezeichnet.)

    11 = 1, 1i = i1 = i, ii = 1

    Lemma 2.6.2. C ist ein Krper.

    Beweis. Drei Dinge sind zu zeigen:

    1 ist Einselement: 1 ist linksneutral, weil 1(1 + i) = (11) + (1i) =1 + i. Eine hnliche Rechnung zeigt, da 1 auch rechtsneutral ist.

    Die Kommutativitt der Multiplikation: Ergibt sich leicht aus der Ver-tauschbarkeit der Basiselemente 1i = i1.

    Die Assoziativitt der Multiplikation: Man berprft leicht, da die Multi-plikation auf den beiden Basiselementen assoziativ ist: Weil 1 Einselementist, braucht man nur

    (i i) i = (1) i = i = i (1) = i (i i)

    zu betrachten. Wenn aber die Multiplikation einer Algebra A auf einerBasis assoziativ ist, ist sie auf ganz A assoziativ. Die dreistellige multili-neare10 Funktion

    (x y) z x (y z)

    verschwindet nmlich auf ganz A, wenn sie auf einer Basis verschwindet.(Das ist eine Verallgemeinerung von 2.6.1.)

    Existenz von Inversen: Sei z = 1 + i. Man nennt

    z = 1 i

    die konjugiert komplexe Zahl. Wenn z ungleich Null ist, ist das Produkt

    z z = 2 + 2

    ebenfalls ungleich Null undz

    2 + 2ist Inverses von z.

    10 : V1 V2 . . . Vm W heit multilinear, wenn fr alle v1 . . . , vm V und fr allei = 1, . . . ,m die Abbildung : Vi W definiert durch (x) = (v1, . . . , vi1, x, vi+1, . . . , vm)linear ist.

    39

  • Wir fassen R vermge der Einbettung 7 1 als Unterraum von C auf. Diekanonische Basis ist dann 1, i.

    Definition. Sei R ein Ring mit Einselement. Ein RModul ist eine abelscheGruppe M mit einer Multiplikation R M M , die den folgenden Regelngengt:

    a) r(x+y)=rx+ry

    b) (r+s)x=rx+sx

    c) (rs)x=r(sx)

    d) 1x=x

    Ein KModul ber einem Krper K heit KVektorraum.

    Alle Stze des Kapitels gelten fr beliebige KVektorrume.

    40

  • Kapitel 3

    Lineare Abbildungen

    Wir fixieren einen Krper K. Alle in diesem Kapitel vorkommenden Vektorru-me sind KVektorrume.

    3.1 Der Noethersche Isomorphiesatz

    Sei f : V W eine lineare Abbildung.

    Lemma 3.1.1. Das Bild

    Im(f) = f [V ]

    von f ist ein Unterraum von W . Der Kern

    Ker(f) = {v V | f(v) = 0}

    ein Unterraum von V .

    Beweis. Bild und Kern enthalten den Nullvektor, weil aus f(0) = f(0 + 0) =f(0) + f(0) folgt, da

    f(0) = 0.

    Die Summe f(v1) + f(v2) zweier Elemente von Im(f) ist gleich f(v1 + v2),also wieder im Bild von f . Wenn f(v1) = f(v2) = 0, ist auch f(v1 + v2) =f(v1) + f(v2) = 0 + 0 = 0.Mit f(v1) ist auch f(v1) = f(v1) im Bild. Wenn v1 im Kern ist, ist f(v1) =f(v1) = 0. Also ist auch v1 im Kern.

    41

  • f ist genau dann injektiv, wenn Ker(f) = 0. Denn

    (3.1) f(v1) = f(v2) v1 v2 Ker(f)

    Beispiele:Sei U ein Unterraum von V .

    Fr die Inklusionsabbildung : U V ist Im() = U .

    Fr die kanonische Projektion : V V/U ist Ker() = U .

    Sei U ein Komplement von U und : V U die Projektion auf U entlang U ,

    (u+ u) = u.

    Dann ist Im() = U und Ker() = U .

    NotationSei f : X Y eine Abbildung, a ein Element von Y und A eine Teilmenge vonY . Dann bezeichnen wir mit f1(a) und f1(A) jeweils die Menge {x | f(x) =a} bzw. {x | f(x) A} der Urbilder von a bzw. A. (Wenn f eine Bijektion ist,hat f1(a) zwei Bedeutungen!)

    Offenbar ist Ker(f) = f1(0). Wenn f(a) = b, ist a+ Ker(f) = f1(b).

    Satz 3.1.2 (Noetherscher Isomorphiesatz). f induziert einen Isomorphismus

    f : V/Ker(f) Im(f)

    .Beweis. Sei die kanonische Projektion von V auf V/Ker(f). Dann ist

    f(v1) = f(v2) v1 v2 Ker(f) (v1) = (v2).

    Aus "" folgt sofort, da man f durch faktorisieren kann. Das heit, daf = f fr eine Abbildung f : V/Ker(f)W .

    V -f

    V/Ker(f)

    W

    ?

    f

    Weil surjektiv ist, ist f eindeutig bestimmt und hat Im(f) als Bild. Aus ""folgt, da f injektiv ist. Es bleibt die Linearitt von f zu zeigen. Seien dazu c1

    42

  • und c2 beliebige Elemente von V/Ker(f) und K. Fr geeignete v1, v2 Vist (v1) = c1 und (v2) = c2. Wir haben dann

    f(c1 + c2) = f((v1) + (v2)) = f((v1 + v2))

    = f(v1 + v2) = f(v1) + f(v2)

    = f(c1) + f(c2)

    und

    f(c1) = f((v1)) = f((v1))

    = f(v1) = f(v1)

    = f(c1).

    Die Abbildung f ist gegeben durch f(v+ Ker(f)) = f(v) die Umkehrabbildungdurch f

    1(w) = f1(w) fr w Im(f).

    Folgerung 3.1.3.

    dim(V ) = dim(Ker(f)) + dim(Im(f))

    Beweis. Nach 2.5.8 ist

    dim(V ) = dim(Ker(f)) + dim(V/Ker(f)

    ).

    Aus dem Satz folgt andererseits

    dim(V/Ker(f)

    )= dim(Im(f)).

    Folgerung 3.1.4. Sei f : V W eine lineare Abbildung zwischen endlichdi-mensionalen Vektorrumen.

    1. Fr alle b W ist f1(b) leer oder eine Nebenklasse von Ker(f).

    2. Wenn dim(V ) > dim(W ), ist Ker(f) 6= 0. Wenn dim(V ) < dim(W ), istIm(f) 6= W .

    3. Wenn dim(V ) = dim(W ), so sind quivalent:

    (a) Ker(f) = 0

    (b) f ist injektiv.

    (c) f ist surjektiv.

    43

  • Beweis.

    1: folgt sofort aus der quivalenz (3.1) auf Seite 42.

    2: Wenn dim(V ) > dim(W ), kann f : V Im(f) kein Isomorphismus sein, weildann auch dimV > dim(Im(f)). f ist also nicht injektiv, d.h. Ker(f) 6= 0.

    Wenn dim(V ) < dim(W ) ist auch dim(Im(f) < dim(W ), also Im(f) 6= W

    3: f ist genau dann injektiv, wenn der Kern von f Null ist, wegen der quivalenz(3.1). Aus 3.1.3 folgt, da der Kern genau dann Null ist, wenn V und Im(f) diegleiche Dimension haben. Wenn V die gleiche Dimension wie W hat, bedeutetdas Im(f) = W .

    Wendet man diese Folgerung auf fA : Kn Km an, bersetzt sie sich in:

    Folgerung 3.1.5. Sei A eine mnMatrix und H die Menge der Lsungen deshomogenen Gleichungssystems Ax = 0. Dann gilt

    1. Fr alle Spaltenvektoren b der Lnge m ist die Lsungsmenge des Glei-chungssystems Ax = b leer oder eine Nebenklasse von H.

    2. Wenn m < n, ist H 6= 0. Wenn n < m haben nicht alle GleichungenAx = b eine Lsung.

    3. Wenn m = n, so sind quivalent:

    (a) H = 0

    (b) Fr alle b hat Ax = b hchstens eine Lsung.

    (c) Ax = b ist lsbar fr alle b.

    Der erste Teil von 2. wurde schon in 1.1.5 bewiesen. Wir geben noch einen Beweisvon 3. , der von 3.1.2 unabhngig ist: Da die Eindeutigkeit der Lsungen vonAx = b zu H = 0 quivalent ist, ist klar, weil sich je zwei Lsungen durch einElement von H unterscheiden.Ax = b ist fr alle b genau dann lsbar, wenn die Spalten ein Erzeugendensystemdes Kn bilden. H ist genau dann Null, wenn die Spalten linear unabhngig sind.Eine nelementige Menge ist aber genau ein Erzeugendensystem von Kn, wennsie linear unabhngig ist. (Das folgt aus 2.3.3 und 2.3.6.)

    Definition. Der Rang von f ist die Dimension des Bildes von f . Der Rangeiner Matrix ist die Maximalzahl linear unabhngiger Spalten.

    Der hier definierte Rang stimmt mit dem in Abschnitt 1.1 definierten Rangberein. Man vergleiche den Beweis von 1.1.7.

    44

  • Lemma 3.1.6. Sei A eine mnMatrix und fA : Kn Km die dadurchdefinierte lineare Abbildung. Dann ist der Rang von A gleich dem Rang von fA.

    Beweis. Wenn a1, . . . , an die Spalten von A sind, ist

    fA(1, . . . , n) = 1a1 + + nan.

    Daran sieht man, da die Spalten von A ein Erzeugendensystem von Im(f)bilden. Jede maximale linear unabhngige Teilmenge von {a1, . . . , an} ist eineBasis von Im(f).

    Bemerkung. Wenn v1, . . . , vn ein Erzeugendensystem von V ist, istf(v1), . . . , f(vn) ein Erzeugendensystem von Im(f). Wenn f(v1), . . . , f(vn) li-near unabhngig sind, sind auch v1, . . . , vn linear unabhngig.

    Beweis. Die Elemente v V sind Linearkombinationenni=1 ivi. Also sind

    die Bilder f(v) Linearkombinationenni=1 if(vi). Schlielich fhrt eine lineare

    Abhngigkeitni=1 ivi = 0 zu einer linearen Abhngigkeit

    ni=1 if(vi).

    3.2 Die lineare Gruppe

    Ein Endomorphismus von V ist eine lineare Abbildung von V nach V . DieEndomorphismen von V bilden eine KAlgebra1, End(V ).

    Ein bijektiver Endomorphismus heit Automorphismus. Ein Automorphismusist also ein Isomorphismus von V mit sich selbst. Die Automorphismen von Vbilden mit der Komposition als Verknpfung eine Gruppe, die lineare GruppeGl(V ) mit der identischen Abbildung idV als neutralem Element2.

    Das folgende Lemma ist eine Umformulierung von 3.1.4.3.

    Lemma 3.2.1. Sei V endlichdimensional und f ein Endomorphismus von V .Dann sind quivalent:

    1. f ist ein Automorphismus

    2. f ist injektiv

    3. f ist surjektiv

    Sei b1, . . . , bn eine Basis von V . Dann ist f genau dann injektiv, wenn die Bilderder bi unter f linear unabhngig sind, und genau dann surjektiv, wenn die BilderV erzeugen.

    1Das ist ein KVektorraum mit einer bilinearen Operation. R-Algebren wurden schon aufSeite 38 definiert.

    2Einheitengruppe von End(V ). Dabei heit ein Element eines Ringes Einheit , wenn es einLinks- und ein Rechtsinverses hat.

    45

  • Wenn V = Kn, ist End(V ) auf natrliche Weise isomorph zur KAlgebraMn(K). Eine nnMatrix A heit regulr , wenn fA : Kn Kn ein Automor-phismus ist, sonst singulr . Die Menge Gln(K) der regulren n-nMatrizen mitder Matrizenmultiplikation als Operation ist eine Gruppe mit der Einheitsmatrixals Einselement. Der Isomorphismus zwischen Mn(K) und End(Kn) berfhrtGl(Kn) in Gln(K).

    Lemma 3.2.2. Fr eine nnMatrix A sind quivalent:

    1. A ist regulr

    2. A hat Rang n.

    3. A hat ein Linksinverses: BA = I

    4. A hat ein Rechtsinverses: AC = I

    Beweis. Wenn A regulr ist, ist fA ein Automorphismus. Weil fA surjektiv ist,hat fA und damit auch A den Rang n. Wenn fB die Umkehrabbildung von fAist, ist BA = AB = I. (Natrlich ist B das einzige Links- bzw. Rechtsinverse.)

    Wenn A ein Links- oder Rechtsinverses hat, hat fA ein Links- oder Rechtsinver-ses und ist damit injektiv oder surjektiv. Aus 3.2.1 folgt, da fA ein Automor-phismus und A regulr ist.

    Wenn A regulr ist, bezeichnen wir mit A1 das Inverse von A.

    Beispiele:

    Es ist Gl1(K) = K, die multiplikative Gruppe der von Null verschiedenenElemente von K.

    Gln(Fp) hat(pn 1)(pn p) . . . (pn pn1)

    viele Elemente. Eine nnMatrix mit Spalten a1, . . . , an ist nmlich genaudann regulr, wenn die a1, . . . , an linear unabhngig sind. Das heit, da

    a1 6 0, a2 6 a1, . . . , an 6 a1, . . . , an1.

    Fr a1 bleiben also pn 1 viele Mglichkeiten, fr a2 pn p viele Mg-lichkeiten,. . . , und schlielich pn pn1 viele Mglichkeiten fr an.

    Die Elementarmatrizen

    Eij (1 i 6= j n, K)

    sind n-nMatrizen, in deren Diagonalen Einsen stehen und deren andere Ein-trge Null sind. Nur an der Stelle (i, j) steht .

    46

  • Die Elementarmatrizen

    Ej (1 i n, K )

    haben Einsen in der Diagonalen und Nullen sonst. Nur an der Stelle (j, j) steht.

    Fr die Einheitsvektoren e1, . . . , en gilt

    Eij ek =

    {ej + ei wenn k = jek sonst

    und

    Ej ek =

    {ej wenn k = jek sonst

    Damit sieht man sofort:

    Folgerung. EijA entsteht aus A durch Anwenden der Zeilenoperation Zji,Ei A durch Anwenden der Zeilenoperation Zi .

    Elementarmatrizen sind regulr. Es ist (Eij)1 = Eij und (E

    i )1 = E

    1

    i .

    Satz 3.2.3. Gln(K) wird von Elementarmatrizen erzeugt. Das heit, da sichjede regulre Matrix als Produkt von Elementarmatrizen (und ihren Inversen)schreiben lt.

    Beweis. Wir haben in 1.1.3 gesehen, da sich jede Matrix A durch Zeilenopera-tionen in Normalform N bringen lt. Es gibt also ein Produkt S von Element-armatrizen, soda SA = N . Weil N wie A den Rang n hat, mu N = I sein.Daraus folgt, da A = S1 Produkt von Elementarmatrizen ist.

    In 1.1.3 mute man allerdings Spalten vertauschen. Wenn A quadratisch ist undRang k = n hat, sind Spaltenvertauschungen unntig. Man sieht das leicht amBeweis von 1.1.3. 3. Hier ist aber nochmal das Argument:

    Nehmen wir an, wir htten A durch Zeilenoperation umgeformt in eine MatrixA, deren i erste Spalten die Einheitsvektoren e1, . . . , ei sind4. Sei a die i+ 1teSpalte von A. Weil A regulr ist, ist a nicht linear abhngig von den vorange-henden Spalten. Also mu a unterhalb der iten Zeile ein von Null verschiedenesElement enthalten. Weil wir Zeilen vertauschen drfen, knnen wir annehmen,da der i+ 1te Koeffizient von Null verschieden ist. Durch Anwenden von ge-eigneten Operationen Zi und Zij knnen wir a in ei+1 verwandeln. Es resultierteine Matrix A, deren i + 1 erste Spalten die i + 1 ersten Einheitsvektorensind.

    3Man mu nmlich die Spalten nur vertauschen, um zu erreichen, da die ersten k Spaltenlinear unabhngig sind.

    4Man beginnt mit i = 0

    47

  • Ein Gleichungssystem Ax = b lt sich durch Multiplikation mit einer regulrenMatrix B passender Gre quivalent umformen in

    x = (BA)x = Bb.

    3.2.3 zeigt, da man diese Umformungen immer durch Zeilenoperation erzielenkann.

    3.3 Basiswechsel

    Definition. Seien B = (b1, . . . , bn) und B = (b1, . . . , bn) zwei Basen von V .Der Wechsel von B nach B wird durch die Matrix B = (ij) i=1...n

    j=1...nbeschrieben,

    wenn

    (3.2) bj =ni=1

    ijbi.

    In symbolischer Notation bedeutet das

    (b1 . . . bn) = (b1 . . . bn)B.

    Wie wir auf Seite 27 gesehen haben, heit das, da bezglich der Basis B dieMatrix B die lineare Abbildung g beschreibt, die bi auf bi abbildet. Andersausgedrckt, wenn : Kn V die kanonische Basis auf B abbildet, ist dasDiagramm

    (3.3)

    V -

    -

    g

    fBKn Kn

    V66

    kommutativ. Weil g ein Automorphismus ist, ist B regulr.

    Lemma 3.3.1. Die Koordinaten eines Vektors

    1b1 + + nbn = 1b1 + + nbn

    bezglich B und B gehen vermge

    i =

    nj=1

    ijj

    auseinander hervor.

    48

  • Beweis. Die Behauptung folgt ausi

    ibi =j

    jbj =

    j

    j

    (i

    ijbi

    )=i

    (j

    ijj

    )bi

    durch Koeffizientenvergleich.

    In symbolischer Schreibweise sieht der Beweis so aus:

    (b1 . . . bn)

    1...n

    = (b1 . . . bn)1...n

    = (b1 . . . bn)B1...n

    impliziert 1...

    n

    = B1...n

    .Die Abbildung = g bildet die kanonische Basis auf B ab. Aus (3.3) folgtdie Kommutativitt von

    V -

    -

    idV

    fBKn Kn

    V66

    B beschreibt also bezglich der Basis B im Definitionsbereich und der Basis Bim Bildbereich die identische Abbildung von V nach V . Das ist ein Umformu-lierung von 3.3.1.

    Satz 3.3.2. U ,V und W seien endlichdimensionale Vektorrume mit ausge-whlten Basen A, B und C.

    f : V U und h : W V seien lineare Abbildungen, die Matrizen A und Centsprechen. Durch B sei ein Basiswechsel von B nach B gegeben. Dann gilt:

    1. Bezglich der Basen B und A gehrt zu f die Matrix

    AB.

    2. Bezglich der Basen C und B gehrt zu h die Matrix

    B1C.

    49

  • Beweis. Sei v V und x bzw. x die Koordinaten von v bezglich B bzw. B.Die Koordinaten von f(v) bezglich A sind dann Ax = A(Bx) = (AB)x. Dasbeweist die erste Behauptung.

    Die zweite Behauptung lt sich ebenso beweisen. Ich gebe aber zur Abwechs-lung einen anderen Beweis: Wenn wir die Basen als Zeilen von Vektoren auf-fassen, haben wir h(C) = BC und B = BB. Daraus folgt B = BB1 und,wie behauptet, h(C) = BC = B(B1C).

    Folgerung 3.3.3. Sei V ein endlichdimensionaler Vektorraum mit ausgezeich-neter Basis B. f : V V sei ein durch die Matrix A beschriebener Endomor-phismus. Wenn wir mit Hilfe der Matrix B zur Basis B bergehen, wird f durchdie Matrix B1AB beschrieben.

    Zwei quadratische Matrizen A und A heien hnlich oder konjugiert , wennA = B1AB fr eine regulre Matrix B.

    Satz 3.3.4 (Normalform fr lineare Abbildungen). U und V seien Vektorrumeder Dimension m und n, f : V U eine lineare Abbildung vom Rang k. Dannkann man Basen in U und V so whlen, da f durch die mnMatrix

    (3.4)(I 00 0

    )dargestellt wird, wobei I die kdimensionale Einheitsmatrix ist.

    Beweis. Sei V ein Komplementrraum von Ker(f) in V . Nach 2.5.7 und 3.1.2induziert f eine Isomorphismus von V mit Im(f). V hat also Rang k. Wirwhlen als Basis von V eine Basis b1, . . . , bk von V gefolgt von einer Basisbk+1, . . . , bn von Ker(f). Auf der Bildseite setzen wir f(b1), . . . , f(bk) zu einerBasis von U fort.

    Folgerung 3.3.5. Eine mnMatrix A hat genau dann den Rang k, wenn eseine regulre nnMatrix B und eine regulremmMatrix B gibt, soda BABdie Gestalt (3.4) hat.

    Beweis. Satz 3.3.4 auf fA : Kn Km angewendet liefert Basen in Kn und Km,bezglich der fA die gewnschte Matrixdarstellung A hat. Wenn die MatrizenB und C die beiden Basiswechsel (von den kanonischen Basen zu den neuenBasen) beschreiben, ist A = C1AB. Setze B = C1.

    Umgekehrt hat eine Matrix der Form (3.4) Rang k. Damit haben auch fA undA den Rang k.

    50

  • Folgerung 3.3.6. Jede mnMatrix vom Rang k lt sich durch Zeilen undSpaltenoperationen in die Gestalt (3.4) bringen.

    Beweis. Sei A = BAB fr regulre B und B. Weil B ein Produkt von Ele-mentarmatrizen ist, lt sich A aus AB durch Zeilenoperationen gewinnen.

    Es ist leicht zu sehen, da Rechtsmultiplikation mit Elementarmatrizen die Aus-fhrung einer Spaltenoperation bedeutet: AEij addiert das fache der jtenSpalte von A zur iten Spalte, AEi multipliziert die ite Spalte mit .

    Daraus folgt, da AB aus A durch Spaltenoperationen hervorgeht.

    Satz 3.3.7. U und V seien Vektorrume der Dimension m und n, f : V Ueine lineare Abbildung vom Rang k. In V sei eine Basis B fixiert. Dann kannman B so zu einer Basis B umordnen und eine Basis A von U so whlen, daf bezglich der neuen Basen durch eine Matrix in Normalform

    (3.5)(I 0 0

    )dargestellt wird, wobei I die kdimensionale Einheitsmatrix und eine beliebigek(n k)Matrix ist.

    Beweis. Der Beweis ist eine Variante des Beweises von 3.3.4. Wir whlen dieUmordnungB so, da f(b1), . . . , f(bk) eine Basis von Im(f) ist. A ist irgendeineFortsetzung von f(b1), . . . , f(bk) zu einer Basis von U .

    Als Folgerung erhlt man noch einmal Satz 1.1.3: Jede Matrix vom Rang klt sich durch Zeilenoperationen und Umordnen der Spalten in eine Matrix inNormalform vom Rang k bringen.

    Jede Normalform lt sich durch Addieren von geeigneten Vielfachen der erstenk Spalten zu den letzten n k Spalten in die Form (3.4) bringen. Damit hatman einen alternativen Beweis von 3.3.4.

    51

  • Kapitel 4

    Determinanten

    4.1 Die Signatur einer Permutation

    X sei eine endliche Menge. Wir wollen jeder Permutation Sym(X) einVorzeichen zuordnen, ihre Signatur sign(). Dazu whlen wir eine Orientierungder zweielementigen Teilmengen von X. Das heit eine Abbildung s : X2 \{1,1}, mit1

    s(x, y) = s(y, x)fr alle x 6= y X, und definieren

    Definition.sign() =

    s(x, y)s(x, y)

    .

    Dabei wird das Produkt gebildet ber alle ungeordneten Paare2 x, y. Auf die

    Wahl einer Reihenfolge von x und y kommt es nicht an, weils(x, y)

    s(x, y)=

    s(y, x)

    s(y, x).

    Wenn t eine andere Orientierung ist, die sich von s bei n ungeordneten Paarenunterscheidet, ist t(x, y)

    s(x, y)= t(x, y)

    s(x, y)= (1)n.

    Daraus folgt, da es bei der Definition der Signatur auf die Wahl der Orien-tierung nicht ankommt. Zu Beispiel liefert jede lineare Ordnung < von X eine

    1die Diagonale von X2Das heit ber alle Zweiermengen {x, y} mit x 6= y.

    52

  • Orientierung, definiert durch

    sign(x, y) =

    {1 wenn x < y1 sonst

    Man nennt eine zweielementige Menge {x, y} einen Fehlstand von , wenn ihreOrdnung von umgedreht wird, wenn also z.B. x < y und (x) > (y). Manerhlt sofort die quivalente Definition

    Definition (Variante).

    sign() = (1)Zahl der Fehlstnde

    Man nennt eine Permutation gerade, wenn ihre Signatur 1 ist, und ungerade,wenn ihre Signatur 1 ist. Eine Permutation ist also genau dann gerade, wennsie eine gerade Zahl von Fehlstnden hat.

    Satz 4.1.1. Die Signaturabbildung

    sign : Sym(X) {1,1}

    ist ein Gruppenhomomorphismus.

    Beweis.

    sign() = s(x, y)

    s(x, y)

    = s(x, y)

    s(x, y)

    s(x, y)s(x, y)

    = sign() sign()

    Eine Folge x1, . . . , xk von paarweise verschiedenen Elementen von X definierteinen Zyklus

    (x1 . . . xk).

    Das ist die Permutation, die die Elemente xi (fr i < k) auf xi+1 abbildet, xkauf x1 und alle anderen Elemente von X auf sich selbst.

    Bemerkung. Ein Zyklus der Lnge k hat die Signatur (1)k1

    Beweis. Wir ordnen X so, da x1, . . . , xk die ersten k Elemente sind. Die Fehl-stnde von (x1 . . . xk) sind dann die Paare {x1, xk}, {x2, xk}, . . . , {xk1, xk}.

    Lemma 4.1.2. Jede Permutation lt sich (bis auf die Reihenfolge) eindeutigals Produkt von disjunkten Zyklen schreiben.

    53

  • Beweis. Sei Sym(X), Wir zerlegen X mit der quivalenzrelation

    x y z Z zx = y

    in die Bahnen von .

    Sei x ein beliebiges Element vonX. Die x, x, 2x, . . . knnen nicht alle verschie-den sein. Sei n die kleinste positive natrliche Zahl mit nx {x, . . . , n1x}.Dann ist nx = x und

    B = {x, x, . . . , n1x}

    ist eine Bahn von . Auf B operiert wie der Zyklus B = (x x . . . n1x)und es ist

    =

    B Bahn

    B

    .

    Ein Zyklus der Lnge zwei heit Transposition.

    Folgerung 4.1.3. Jede Permutation ist Produkt von Transpositionen.

    Beweis.(x1 . . . xk) = (xkx1)(xk1x1) . . . (x2x1)

    Satz 4.1.4. sign ist der einzige nichttriviale Homomorphismus

    Sym(X) {1,1}.

    Beweis. Wir beginnen mit einer Vorberlegung. Betrachte zwei Transpositionen(ab) und (ab). Whle eine Permutation mit (a) = a und (b) = b. Dannist (ab) = 1(ab).3 Wenn nun S : Sym(X) {1,1} ein Homomorphismusist, ist

    S(ab) = S()1S(ab)S() = S(ab).

    Es gibt also zwei Flle:

    Fall 1: S() = 1 fr alle Transpositionen .Dann hat S auch auf allen Produkten von Transpositionen den Wert 1. Also istS() = 1 fr alle .

    Fall 2: S() = 1 fr alle Transpositionen . Wenn Produkt von n Transpo-sitionen ist, gilt daher

    S() = (1)n = sign().

    3Wir sagen dazu: (ab) und (ab) sind konjugiert.

    54

  • 4.2 kFormen

    Sei V ein KVektorraum.

    Definition. Eine kstellige multilineare Abbildung : V k K (eine Multili-nearform) heit alternierend oder kForm, wenn sie die zwei folgenden quiva-lenten Bedingungen erfllt:

    a) (a1, . . . , ak) = 0 fr alle kTupel a1, . . . , ak, in denen ein Vektor zweimalvorkommt.

    b) Fr alle a1, . . . , ak V , alle 1 i 6= j n und alle K ist

    (a1, . . . , ai + aj , . . . , ak) = (a1, . . . , ai, . . . , ak)

    Die quivalenz der beiden Bedingungen folgt aus

    (. . . , ai + aj , . . . , aj , . . .) = (. . . , ai, . . . , aj , . . .) + (. . . , aj , . . . , aj , . . .).

    Lemma 4.2.1. Eine Multilinearform ist genau dann alternierend, wenn(a1, . . . , ak) = 0 fr alle linear abhngigen Tupel a1, . . . , ak.

    Beweis. Sei alternierend. Aus Bedingung b) der Definition folgt

    0 = (a1, . . . , ak1, 0) = (a1, . . . , ak1, 1a1 + + k1ak1).

    Wenn a1, . . . , ak linear abhngig sind, weil zum Beispiel 1a1+ +k1ak1 =ak, ist daher 0 = (a1, . . . , ak).

    Die Umkehrung ist klar.

    Das folgende Lemma ist leicht zu beweisen:

    Lemma 4.2.2.

    1. Jede Linearkombination von kFormen ist wieder eine kForm.

    2. Sei : V U eine lineare Abbildung und eine kForm auf U . Dann ist, definiert durch

    (a1, . . . , ak) = ((a1), . . . , (ak))

    eine kForm auf V .

    Man bezeichnet mit AkV den Raum aller kFormen auf V .

    55

  • Lemma 4.2.3. Sei eine kForm auf V . Dann ist fr alle a1, . . . , ak V , undalle 1 i < j k

    (a1, . . . , ai, . . . , aj . . . , ak) = (a1, . . . , aj , . . . , ai . . . , ak)

    Beweis. Wir wenden den Trick an, mit der wir im Beweis von Satz 1.1.3 gezeigthaben, da man mit Zeilenoperationen Zeilen vertauschen kann:

    (. . . , ai, . . . , aj , . . .) = (. . . , ai, . . . , ai + aj , . . .)

    = (. . . ,aj , . . . , ai + aj , . . .)= (. . . ,aj , . . . , ai, . . .)= (. . . , aj , . . . , ai, . . .)

    Wenn K nicht die Charakteristik 2 hat4, ist jede Multilinearform mit der imLemma gegebenen Eigenschaft alternierend. Man schliet nmlich so:

    (. . . , ai, . . . , ai, . . .) = (. . . , ai, . . . , ai, . . .) (. . . , ai, . . . , ai, . . .) = 0

    Fr die nchste Folgerung erweitern wir den Begriff der Signatur auf beliebigeAbbildungen : {1, . . . , k} {1, . . . , k}: Die Signatur sign() von ist 0, wenn keine Permutation ist. Satz 4.1.1 gilt immer noch in der Form

    sign( ) = sign() sign()

    fr beliebige und .

    Folgerung 4.2.4. Sei eine kForm auf V Dann ist fr jede Abbildung :{1, . . . , k} {1, . . . , k} und alle a1, . . . , ak V

    (a(1), . . . , a(k)) = sign() (a1, . . . , ak).

    Beweis. Wenn keine Permutation ist, gibt es i < j mit a(i) = a(j). Alsoist (a(1), . . . , a(k)) = 0. Wenn eine Permutation ist und Produkt von nTranspositionen, ist

    (a(1), . . . , a(k)) = (1)n(a1, . . . , ak) = sign() (a1, . . . , ak).

    Folgerung 4.2.5. Sei a1, . . . , an eine Basis von V . Dann ist bestimmt durchdie Werte (ai1 , . . . , aik) fr alle 1 i1 < . . . < ik n.

    4Sei K ein Krper und p die kleinste positive Zahl, soda in K

    1 + 1 + + 1 p

    = 0.

    p mu eine Primzahl sein. (Siehe Funote 9, Seite 38). p heit die Charakteristik von K. Wennp nicht existiert hat K die Charakteristik Null.

    56

  • Beweis. Wie in 2.6.1 sieht man, da eine Multilinearform bestimmt ist durchihre Werte auf der Basis a1, . . . , an, da heit durch die

    j = (aj1 , . . . , ajk).

    Wenn die j1, . . . , jk alle verschieden sind, ordnen wir sie aufsteigend alsi1, . . . , ik. Dann ist j = sign()(ai1 , . . . , aik), wenn die Permutation be-zeichnet, die i1, . . . , ik auf j1, . . . , jk abbildet.

    Wenn die j1, . . . , jk nicht paarweise verschieden sind, ist j = 0.

    Folgerung 4.2.6. Wenn n < k, ist 0 die einzige kForm auf V .

    4.3 Determinanten

    Satz 4.3.1. Sei b1, . . . , bn eine Basis von V und K. Dann gibt es genaueine nForm mit (b1, . . . , bn) = .

    Beweis. Die Eindeutigkeit ergibt sich aus 4.2.5. Fr die Existenz definieren wir als die Multilinearform, die auf den Basiselementen die richtigen Werte hat,fr die also

    (b(1), . . . , b(n)) = sign()

    fr alle : {1, . . . , n} {1, . . . , n} (siehe 2.6.1).

    Betrachte fr ein festgehaltenes Sn die Multilinearform

    (x1, . . . , xn) = (x(1), . . . , x(n)).

    Auf den Basiselementen nimmt die gleichen Werte an wie sign(), weil

    (b(1), . . . , b(n)) = (b((1)), . . . , b((n)))

    = sign()

    = sign() sign()

    = sign()(b(1), . . . , b(n))

    Es folgt, da(x(1), . . . , x(n)) = sign()(x1, . . . , xn).

    Wenn K nicht die Charakteristik 2 hat, wissen wir jetzt, da alternierend istund sind fertig. Im allgemeinen Fall schliet man so: Wir mssen zeigen, da Null wird, wenn zwei Argumente gleich sind. Um die Notation zu vereinfachen,nehmen wir an, da es sich um die ersten beiden Argumente handelt. Es ist alsozu zeigen, da fr alle a die (n2)Form (a, a, x3, . . .) auf den Basiselementenverschwindet. Das heit, da fr alle i3, . . . , in {1, . . . , n}

    (a, a, bi3 , . . . , bin) = (a, a, . . .) = 0.

    57

  • Fr a = 1b1 + + nbn rechnet man:

    (a, a, . . .) =i

    2i (bi, bi, . . .)

    +i

  • und ber alle Permutationen.)

    det(A) = 0(i

    i1ei, . . . ,i

    inei)

    =

    0((1)1e(1), . . . , (n)ne(n))

    =

    ( nj=1

    (j),j)0(e(1), . . . , e(n))

    =

    sign()

    nj=1

    (j),j

    =Sn

    sign()

    nj=1

    (j),j

    Wir rechnen einige Beispiele aus. Fr n = 1, 2, 3 haben wir:

    det(a) = aa1 b1a2 b2 = a1b2 a2b1

    a1 b1 c1a2 b2 c2a3 b3 c3

    = a1b2c3 + a2b3c1 + a3b1c2 a2b1c3 a1b3c2 a3b2c1Die Determinante einer oberen Dreiecksmatrix ist das Produkt ihrer Diagonal-elemente,

    10 2 ...

    .... . .

    0 0 . . . n

    = 12 . . . n

    wie man mit Hilfe von (4.1) leicht sieht. Insbesondere gilt fr die Elementarma-trizen:

    det(Ei ) =

    det(Eij) = 1

    Eine Variante davon ist die folgenden Formel. Sei A eine mmMatrix, B einemnMatrix und C eine nnMatrix. Dann ist

    (4.2)A B0 C

    = |A| |C|.59

  • Das ist mit Gleichung (4.1) auf Seite 58 leicht nachzurechnen. Man sieht, daman sich auf Sm+n beschrnken kann, die {1, . . . ,m} (und daher auch{m+ 1, . . . ,m+ n}) invariant lassen. Weiterhin ist klar, da die Signatur einersolchen Permutation das Produkt der Signaturen ihrer Einschrnkungen auf{1, . . . ,m} und {m+ 1, . . . ,m+ n} ist.

    Satz 4.3.4.

    1. det(AB) = det(A) det(B)

    2. Die Determinante von A ist genau dann 0, wenn A singulr ist.

    Beweis.1: Wenn b1, . . . , bn die Spalten von B sind, ist (fr festes A)

    (b1, . . . , bn) = det(Ab1 Abn) = det(AB)

    eine nForm auf Kn (siehe 4.2.2). Weil (e1, . . . , en) = det(A), ist das det(A)fache der Standardform:

    (b1, . . . , bn) = det(A) 0(b1, . . . , bn) = det(A) det(B).

    2: Wenn A regulr ist, ist det(A) det(A1) = 1. det(A) kann also nicht Nullsein. Wenn A singulr ist, sind die Spalten von A linear abhngig und det(A)ist Null nach 4.2.1.

    Die Determinante ist ein Homomorphismus

    det : Gln(K) K.

    Der Kern dieser Abbildung ist die spezielle lineare Gruppe

    Sln(K) = {A Mn(K) | det(A) = 1}.

    Bemerkung. Sln(K) wird erzeugt von den Elementarmatrizen Eij.

    Beweis. Der Beweis von 3.2.3 zeigt, da man jede regulre Matrix mit Hilfevon Zeilenoperationen Zii in eine Diagonalmatrix (mit gleicher Determinante)umformen kann. Es gengt also zu zeigen, da sich jede Diagonalmatrix D ausSln(K) mit Hilfe der Zii in die Einheitsmatrix umformen lt. Wir knnen dieDiagonalelemente von D sukzessive durch 1 ersetzen, wenn uns die Umformung(

    a 00 b

    )

    (1 00 ab

    )gelingt. Aber das geht so:(a 00 b

    )Z1/a12

    (a 01 b

    )Z1a21

    (1 b ab1 b

    )Z112

    (1 b ab0 ab

    )Z11/a21

    (1 00 ab

    )

    60

  • Definition. Die Transponierte einer mnMatrix A = (ij) i=1...mj=1...n

    ist die nmMatrix

    A> = (ij) j=1...ni=1...m

    Die Spalten von A> sind also die Zeilen von A. Man rechnet leicht nach, da

    (AB)> = B>A>.

    Die beiden Produkte AB und B>A> werden gleich ausgerechnet. Die Resultatewerden nur anders indiziert. Wenn a1, . . . , al die Zeilen von A sind und b1, . . . , bndie Spalten von B (allen von der Lnge m), ist in symbolischer Schreibweise

    AB =

    a1...al

    (b1 bn)und daher

    (AB)> =

    b>1...b>n

    (a>1 a>l ) = B>A>.

    Satz 4.3.5.

    1. det(A>) = det(A)

    2. det ist eine alternierende Multilinearform der Zeilen von A.

    Beweis. Weilni=1 i,(i) =

    nj=1 1(j),j , ist

    det(A>) =Sn

    sign()

    ni=1

    i,(i)

    =Sn

    sign()

    nj=1

    1(j),j

    =Sn

    sign()

    nj=1

    (j),j

    = det(A)

    Es folgt, da det(A) eine alternierende Multilinearform der Spalten von A>, unddamit der Zeilen von A, ist.

    61

  • 4.4 Der Laplacesche Entwicklungssatz

    Satz 4.4.1 (Die Cramersche Regel). Sei Ax = b ein quadratisches Gleichungs-system, a1, . . . , an die Spalten von A. Wenn A regulr ist, errechnet sich derLsungsvektor x1, . . . , xn als

    xj =det(a1 aj1baj+1 an)

    det(A).

    Beweis. Die Gleichung Ax = b bedeutet x1a1 + + xnan = b. Dann ist

    det(a1 aj1baj+1 an) =

    = det(a1 i

    xiai an)

    =i

    xi det(a1 ai an)

    = xj det(a1 aj an)= xj det(A).

    NotationFr eine nnMatrix A und zwei Indizes i und j bezeichnen wir mit Aij dieMatrix, die aus A entsteht, wenn man die ite Zeile und die jte Spalte streicht.

    Satz 4.4.2 (Entwicklungssatz von Laplace).

    Sei A = (ij) i=1...nj=1...n

    eine nnMatrix und j0 ein Spaltenindex. Dann ist

    det(A) =

    ni=1

    (1)i+j0ij0 det(Aij0).

    Die Determinante wird hier nach der j0ten Spalte entwickelt.

    Beweis. Wir schreibendet(A) =

    a1 an ,wobei die aj die Spalten von A sind. Weil aj0 =

    i ij0ei, ista1 aj0 an =

    i

    ij0a1 ei an .

    62

  • Wenn wir in der Matrix(a1 ei an

    )die j0te Spalte nach vorn schieben

    und die ite Zeile nach oben, erhalten wir eine Matrix der Form(1 0 Aij0

    ).

    Die verwendeten Permu